KR100307229B1 - Method for outputting the finger language by speech recognition for a deaf-mute - Google Patents

Method for outputting the finger language by speech recognition for a deaf-mute Download PDF

Info

Publication number
KR100307229B1
KR100307229B1 KR1019990037707A KR19990037707A KR100307229B1 KR 100307229 B1 KR100307229 B1 KR 100307229B1 KR 1019990037707 A KR1019990037707 A KR 1019990037707A KR 19990037707 A KR19990037707 A KR 19990037707A KR 100307229 B1 KR100307229 B1 KR 100307229B1
Authority
KR
South Korea
Prior art keywords
output
voice
sign language
text
speech
Prior art date
Application number
KR1019990037707A
Other languages
Korean (ko)
Other versions
KR19990084001A (en
Inventor
김영래
배문주
Original Assignee
김영래
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영래 filed Critical 김영래
Priority to KR1019990037707A priority Critical patent/KR100307229B1/en
Publication of KR19990084001A publication Critical patent/KR19990084001A/en
Application granted granted Critical
Publication of KR100307229B1 publication Critical patent/KR100307229B1/en

Links

Abstract

본 발명은 농아용 음성인식 수화출력 방법에 관한 것이다. 청각·언어 장애인 사용자와 일반인과 의사소통을 위한 정보매체 사용, 문화 생활 제공, 통신 매체사용을 사용자가 원하는 옵션으로 구동하는 인터페이스 단계(S100); 일반인이 언어로 청각·언어 장애자에게 의사를 전달하면 PC용 마이크, 내장형 마이크, 소형 마이크를 통해 농아용 음성인식 수화출력 시스템으로 음성인식 입력 단계(S200); 음성합성(TTS)으로 텍스트를 디지털 오디오로 변환하여 소리를 스피커를 통해 출력하거나 변환된 오디오를 재생하기 위해 저장하며 장애자가 일반인에게 음성으로 출력 의사를 전달하는 음성합성 입·출력 단계(S300); 및 애니메이션 조정 데이터(ACD) 시스템으로 수화 이미지를 언어로 출력하고 텍스트를 음성합성을 사용하여 실시간으로 보여주며, 음성인식 입력을 통해 전달된 언어를 수화와 텍스트로 출력하여 청각·언어 장애자가 의사 표현, 정보 매체를 실행하는 애니메이션 수화·텍스트 출력 단계(S400)로 구성된다. 따라서, 청각·언어 장애자는 TV, 라디오, 인터넷 및 PC통신 등의 정보매체와 영화, 음악 등의 문화생활을 수신하고, 일반전화기나 핸드폰의 통신매체 및 경량급 PC를 통해 일반인과 의사소통을 할 수 있다.The present invention relates to a speech recognition sign language output method for deaf. An interface step (S100) of driving information use, communication of cultural life, and use of a communication medium as options desired by a user for communication with a hearing-language-disabled user and the general public; When the general public communicates to the hearing and speech impaired person in language, the voice recognition input step into the speech recognition sign language output system for the deaf through a PC microphone, a built-in microphone, a small microphone (S200); A voice synthesis input / output step (S300) of converting text into digital audio by voice synthesis (TTS) to output sound through a speaker or to reproduce the converted audio, and to convey an intention of outputting the speech to the general public by a person with a disability; And animation adjustment data (ACD) system to output sign language images in language and to display texts in real time using speech synthesis. And the sign language and text output step S400 for executing the information medium. Therefore, the hearing and speech impaired can receive information media such as TV, radio, internet and PC communication, and cultural life such as movies and music, and communicate with the general public through the communication media of ordinary telephones or mobile phones and lightweight PCs. have.

Description

농아용 음성인식 수화출력 방법{Method for outputting the finger language by speech recognition for a deaf-mute}Method for outputting the finger language by speech recognition for a deaf-mute}

본 발명은 농아용 음성인식 수화출력 방법에 관한 것으로, 특히 청각·언어 장애인이 비장애인인 일반인과 원할한 의사소통을 위하여 음성합성, 음성인식, 애니메이션(animation) 수화 출력 소프트웨어 프로그램을 사용하여 청각·언어 장애인과 일반인과의 인터페이스 단계, 음성인식 입력 단계, 음성합성(Text-To-Speech:TTS) 입·출력 단계 및 애니메이션 수화·텍스트 출력 단계를 구성하여 청각·언어 장애인에게 TV, 라디오, 인터넷 및 PC통신 등의 정보매체와 영화, 음악 등의 문화생활을 제공하고 일반전화기와 핸드폰 등의 통신 매체를 사용하게 하기 위한 농아용 음성인식 수화출력 방법에 관한 것이다.The present invention relates to a speech recognition sign language output method for deaf, and in particular, for the satisfactory communication with a general person who is deaf or speech impaired, a speech synthesis, speech recognition, and animation sign language output software program is used for hearing, The interface stage between speech-impaired persons and the general public, the stage of speech recognition input, the stage of text-to-speech (TTS) input and output, and the sign language and text output stages of animation are provided to TV, radio, internet and The present invention relates to a speech recognition sign language output method for deaf children to provide information media such as PC communication and cultural life such as movies and music, and to use communication media such as general telephones and mobile phones.

현재, 국내 대학 연구소에서 개발중인 수화 통역 시스템은 고용량 시스템에서 구동하며 특수 제작된 장갑을 통해 수화를 출력하게 된다.Currently, the sign language interpreter system, which is being developed by a domestic university research institute, runs on a high-capacity system and outputs sign language through specially manufactured gloves.

그러나, 고용량 컴퓨터 시스템과 상기 특수 제작된 장갑을 필요로 하기 때문에 경량급 컴퓨터나 핸드 PC(Hand PC:HPC)에서는 작동이 불가능하며, 상기 수화 통역 시스템은 현재 400개의 단어만 통역이 가능하고 호환성과 범용성이 약한 문제점이 있다.However, because it requires a high-capacity computer system and the specially crafted gloves, it cannot be operated on a light weight computer or a hand PC (HPC). The sign language interpretation system is currently capable of interpreting only 400 words and is compatible and versatile. There is a weak problem.

본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 청각·언어 장애인이 비장애인인 일반인과 원할한 의사 소통을 제공하고 청각·언어 장애인에게 TV, 라디오, 인터넷 및 PC통신 등의 정보매체와 영화, 음악 등의 문화생활을 제공하며 핸드 PC(HPC)와 같은 경량급 PC를 이용해 청각·언어 장애인이 어디서나 의사소통을 할 수 있고 정보매체 및 문화생활을 제공하고 청각·언어 장애인에게 일반 전화기나 핸드폰과 같은 통신 매체를 제공하며 청각·언어 장애인용 '셜리반(Sullivan)'이 다중 매체 운영체제(OS)에서 구동하도록 하기 위한 농아용 음성인식 수화출력 방법을 제공한다.The present invention has been made to solve the above-mentioned problems of the prior art, the object of the present invention is to provide a smooth communication with the general public, the deaf or speech-impaired people, and to the deaf and speech-impaired people, TV, radio, the Internet and It provides information media such as PC communication and cultural life such as movies and music.The lightweight PC such as hand PC (HPC) enables the hearing and language disabled to communicate anywhere and provides information media and cultural life. It provides communication media such as general telephones and mobile phones to people with speech impairments, and provides speech recognition sign language output method for deaf to make 'Sullivan' for the hearing and speech impaired run on a multimedia operating system (OS).

도 1은 본 발명에 의한 농아용 음성인식 수화출력 방법을 나타낸 흐름도.1 is a flow chart showing a speech recognition sign language output method for deaf according to the present invention.

도 2는 도 1의 인터페이스 단계를 나타낸 흐름도.2 is a flow chart showing the interface steps of FIG.

도 3은 도 1의 음성인식 입력 단계를 나타낸 흐름도.3 is a flowchart illustrating a voice recognition input step of FIG. 1.

도 4는 도 1의 음성합성(TTS) 입·출력 단계를 나타낸 흐름도.4 is a flow chart showing the voice synthesis (TTS) input and output steps of FIG.

도 5는 도 1의 애니메이션 수화·텍스트 출력 단계를 나타낸 흐름도.5 is a flowchart showing the animation sign language and the text output step of FIG. 1.

도 6은 농아용 음성인식 수화출력 방법을 구현한 셜리반(Sullivan)이 일반 PC, 모빌 컴퓨터 및 HPC에서 구동되는 하드웨어와 인터페이스를 나타낸 흐름도.6 is a flowchart showing the interface with the hardware that Sullivan (Sullivan) implementing the speech recognition sign language output method for the deaf run on a general PC, mobile computer and HPC.

TTS: 음성합성(Text-To-Speech)TTS: Text-To-Speech

HPC: 핸드 PC(Hand PC)HPC: Hand PC

상기한 목적을 달성하기 위해 본 발명은 청각·언어 장애인 사용자의 조건과 환경을 기초로 비장애인인 일반인과의 의사소통, TV, 라디오, PC 통신 및 인터넷 등의 정보매체와 영화, 음악 등의 문화 생활을 제공하고 일반전화기와 핸드폰 등의 통신 매체를 상기 사용자가 원하는 옵션 설정으로 기본 인터페이스를 구동하는 인터페이스 단계(S100); 상기 일반인이 언어로 상기 청각·언어 장애인 등의 상기 사용자에게 의사를 전달하면 PC용 마이크, 내장형 마이크 및 소형 마이크를 통해 농아용 음성인식 수화출력 시스템(Sullivan)에 인식 입력되는 음성인식 입력 단계(S200); 음성합성(Text-To-Speech:TTS)으로 일반 텍스트를 디지털 오디오로 변환한 다음 소리를 컴퓨터의 스피커를 통해 출력되거나 변환된 오디오를 나중에 플레이하기 위해 저장하는 형태를 가질 수 있으며 상기 청각·언어 장애인 등의 상기 사용자가 상기 비장애인인 상기 일반인에게 음성으로 출력 의사를 전달하는 기능을 수행하는 음성합성(TTS) 입·출력 단계(S300); 및 애니메이션 조정 데이타(Animation Control Data:ACD)라는 시스템이 수화 이미지를 언어로써 출력하고 상기 애니메이션 조정 데이타를 빠르게 보여주기 위하여 리얼타임 렌더링(rendering) 시스템으로 정의하며 상기 텍스트는 상기 음성합성(TTS) 기술을 실시간으로 텍스트(Text)를 보조하는 소형 프로그램을 구현하고, 상기 음성인식 입력 단계를 통해 전달된 언어가 수화와 텍스트의 출력을 통하여 상기 청각·언어 장애인 등의 상기 사용자에서 의사 또는 상기 정보 매체 등을 수행하는 애니메이션 수화·텍스트 출력 단계(S400)로 구성되는 것을 특징으로 하는 농아용 음성인식 수화출력 방법을 제공한다.In order to achieve the above object, the present invention is based on the conditions and environment of the hearing and speech impaired user communication with the general public, non-disabled people, information media such as TV, radio, PC communication and the Internet and culture of movies, music, etc. An interface step (S100) of providing a life and driving a basic interface with communication options such as a general telephone and a mobile phone by setting options desired by the user; When the general person communicates the speech to the user, such as the deaf or speech impaired person, the voice recognition input step is input to the speech recognition sign output system (Sullivan) for the deaf through a PC microphone, a built-in microphone, and a small microphone (S200). ); Text-To-Speech (TTS) can be used to convert plain text into digital audio and then store the sound through the computer's speakers or to store the converted audio for later playback. A voice synthesis (TTS) input / output step (S300) for performing a function of delivering an output intention to the general person who is the non-disabled person by voice; And a system called Animation Control Data (ACD) to define a real-time rendering system for outputting a sign language image in language and quickly displaying the animation control data, wherein the text is the TTS technology. Implements a small program that supports text in real time, and the language transmitted through the voice recognition input step is a doctor or the information medium, etc. Provides a speech recognition sign language output method for deaf, characterized in that consisting of a sign language animation text output step (S400).

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 도 1은 본 발명에 의한 농아용 음성인식 수화출력 방법을 나타낸 흐름도이다. 상기 농아용 음성인식 수화출력 방법은 청각·언어 장애인이 비장애인인 일반인과 원할한 의사소통을 위하여 음성합성, 음성인식, 애니메이션(animation) 수화 출력 소프트웨어 프로그램을 사용하여 청각·언어 장애인과 일반인과의 인터페이스 단계, 음성인식 입력 단계, 음성합성(Text-To-Speech:TTS) 입·출력 단계 및 애니메이션 수화·텍스트 출력 단계를 구성된다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. 1 is a flow chart showing a speech recognition sign language output method for deaf according to the present invention. The speech recognition sign language output method for the deaf uses a speech synthesis, speech recognition, and animation sign language output software program for hearing and speech impaired people with non-disabled people. An interface stage, a speech recognition input stage, a text-to-speech (TTS) input / output stage, and an animation sign language / text output stage are included.

도 2를 참조하면, 상기 인터페이스 단계는2, the interface step is

환경 파일을 읽고 명령 수행을 대기하고(단계 S1), 수화출력 애니메이션을 대기하고(단계 S2), 음성인식 명령을 대기하면서(단계 S3) 멀티쓰레드(Multithread)를 시작하고(단계 S4), 상기 수화출력 애니메이션 대기 상태로 궤환되며, 사용자 명령 인터페이스를 시작하면서(단계 S5) 상기 멀티쓰레드를 시작한다(단계 S4). 상기 사용자 명령 인터페이스 시작 후에, '대화를 하시겠습니까?'를 체크하여(단계 S6) 대화를 원하면 음성인식 입·출력 시스템을 구동하고(단계 S7) 언어 검색 시스템을 검색하여(단계 S8) 애니메이션 수화를 출력한(단계 S9) 후 사용자 텍스트(Text)를 입력하여(단계 S10) 음성을 출력하고(단계 S11) 상기 멀티쓰레드를 종료한다(단계 S16). 상기 사용자 명령 인터페이스 시작 후에, '상기 정보 매체를 이용하시겠습니까?'를 체크하여(단계 S12) 상기 정보매체를 이용하면 음성인식 입·출력 시스템을 구동하고(단계 S13), 상기 언어 검색 시스템을 검색하여(단계 S14) 애니메이션 수화를 출력한(단계 S15) 후 상기 멀티쓰레드를 종료한다(단계 S16). 상기 멀티쓰레드를 종료한 후, 시스템을 대기한다(단계 S17).Reads the environment file (step S1), waits for a sign language output animation (step S2), waits for a voice recognition command (step S3) and starts a multithread (step S4); The multi-thread is started (step S4) while being fed back to the output animation waiting state and starting the user command interface (step S5). After starting the user command interface, check 'Would you like to talk?' (Step S6) and if desired, start the voice recognition input / output system (step S7) and search the language search system (step S8) to output the animation sign language. After one (step S9), the user text (Text) is input (step S10) to output a voice (step S11) and the multithread is terminated (step S16). After starting the user command interface, check 'Do you want to use the information medium?' (Step S12) and when the information medium is used, the voice recognition input / output system is driven (step S13), and the language search system is searched. (Step S14) After outputting the sign language of animation (step S15), the multithread ends (step S16). After ending the multithread, the system waits (step S17).

도 3을 참조하면, 상기 음성인식 입력 단계는Referring to Figure 3, the voice recognition input step

상기 청각·언어 장애인 등의 상기 사용자와 상기 비장애인인 상기 일반인과의 상기 인터페이스를 초기화하고(단계 S20), 음성 데이터 패키지를 대기하여(단계 S21) 음성 데이터 검색기를 대기한다(단계 S22). 상기 인터페이스를 초기화한 후, 음성 데이타를 초기화하고(단계 S23), 상기 멀티쓰레드를 초기화하고(단계 S24), PC 마이크와 내장형 마이크 또는 소형 마이크인 음성인식 대기 장치를 사용하여(단계 S25) 음성인식 입력한다(단계 S26). 상기 음성인식 입력, 상기 음성 데이터 패키지 대기 및 상기 음성 데이터 검색기 대기후(단계 S22)에 음성 데이터 패키지를 검색한다(단계 S27). 상기 음성 데이터 패키지를 검색(단계 S27) 후에 상기 애니메이션 수화 텍스트를 출력하고(단계 S28) 계속적 수행을 위해 음성인식 입력을 대기하면서(단계 S29) 상기 음성 데이터 패키지를 대기한다(단계 S21).The interface between the user, such as the deaf or speech impaired person, and the general person who is the non-disabled person is initialized (step S20), a voice data package is waited (step S21), and a voice data searcher is waited (step S22). After initializing the interface, voice data is initialized (step S23), the multithread is initialized (step S24), and voice recognition is performed using a PC microphone and a voice recognition standby device which is a built-in microphone or a small microphone (step S25). (Step S26). The voice data package is searched after the voice recognition input, the voice data package wait and the voice data searcher wait (step S22) (step S27). After searching for the voice data package (step S27), the animation sign language text is output (step S28) and the voice data package is waited (step S29) while waiting for a voice recognition input for continuous execution (step S21).

도 4를 참조하면, 상기 음성합성(TTS) 입·출력 단계는Referring to FIG. 4, the voice synthesis (TTS) input / output step

상기 청각·언어 장애인 등의 상기 사용자와 상기 비장애인인 상기 일반인과의 상기 인터페이스를 초기화하고(단계 S30), 음성 데이터 패키지를 대기하며(단계 S31) 음성 데이터를 초기화(단계 S32) 및 상기 멀티쓰레드의 초기화(단계 S33)를 수행하고 키보드 등의 음성합성(TTS) 출력 대기(단계 S34)한 후 상기 사용자의 키보드 입력을 통해 상기 음성합성(TTS) 출력한다(단계 S35). 상기 음성합성(TTS) 출력(단계 S35) 및 상기 음성 데이터 패키지 대기(단계 S31) 후에 음성 검색기를 구동하여(단계 S36) 음성 데이터 패키지를 검색하고(단계 S37) PC 스피커 및 기타 내장 스피커로 음성을 출력한다(단계 S38). 상기 스피커 음성 출력 후, 계속적인 음성합성(TTS) 입·출력을 수행하기 위해 상기 음성 데이터 패키지를 대기(단계 S31)한다.Initialize the interface between the user, such as the hearing and speech impaired person, and the general person who is the non-disabled person (step S30), wait for a voice data package (step S31), and initialize voice data (step S32) and the multithread. After performing initialization (step S33) and waiting for a voice synthesis (TTS) output of a keyboard or the like (step S34), the voice synthesis (TTS) is output through the user's keyboard input (step S35). After the voice synthesis (TTS) output (step S35) and waiting for the voice data package (step S31), a voice searcher is driven (step S36) to retrieve a voice data package (step S37) and voice is transmitted to the PC speaker and other internal speakers. Output (step S38). After the speaker voice output, the voice data package is waited (step S31) to perform continuous voice synthesis (TTS) input and output.

도 5를 참조하면, 상기 애니메이션 수화·텍스트 출력 단계는Referring to Fig. 5, the animation sign language / text output step is

상기 환경 파일을 읽고 명령 수행을 대기하고(단계 S40), 애니메이션 제어 데이타(Animation Control Data:ACD)를 제어하여(단계 S41) 애니메이션 수화 캐릭터를 대기하고(단계 S42), 상기 애니메이션 제어 데이타(ACD)의 제어에 의해 사용자 옵션을 대기한다(단계 S43). 상기 사용자 옵션 대기후, 캐릭터 사이즈 변경 옵션을 수행하고(단계 S44), 텍스트 출력 변경 옵션을 수행하여(단계 S45) '텍스트 출력을 원하십니까?'를 체크하여(단계 S46) 텍스트 출력을 대기하며(단계 S47), 상기 사용자가 원하는 캐릭터로 변경 가능하도록 캐릭터 변경 옵션을 수행한다(단계 S48). 상기 텍스트 출력 대기 단계, 상기 캐릭터 사이즈 변경 옵션(단계 S44) 및 상기 캐릭터 변경 옵션(S48) 수행한 후, 이벤트에 의해 음성인식을 입력하여(단계 S49) 검색기를 구동한다(단계 S50). 상기 검색기 구동후, 애니메이션 데이터 검색을 구동하여(단계 S51) 애니메이션 수화를 출력하고(단계 S52), 텍스트 출력 데이터 검색을 구동하고(단계 S53) 텍스트를 출력한다(단계 S54). 상기 애니메이션 수화 출력(단계 S52) 및 텍스트 출력(단계 S54) 후, 계속적인 실행을 위해 애니메이션 수화·텍스트 출력 대기 또는 음성합성(TTS) 단계로 대기한다.Read the environment file and wait for command execution (step S40), and control animation control data (ACD) (step S41) to wait for an animation sign language character (step S42) and the animation control data (ACD) The user option is awaited under control of step S43. After waiting for the user option, the character size change option is performed (step S44), and the text output change option is performed (step S45), and the check box 'Do you want text output?' (Step S46) waits for the text output ( In step S47), a character change option is performed so that the user can change to a desired character (step S48). After performing the text output wait step, the character size change option (step S44) and the character change option S48, a voice recognition is input by an event (step S49) to drive a searcher (step S50). After the searcher is driven, the animation data search is driven (step S51) to output an animation sign language (step S52), the text output data search is driven (step S53) and text is output (step S54). After the animation sign language output (step S52) and the text output (step S54), the apparatus waits for the animation sign language / text output wait or voice synthesis (TTS) step for continuous execution.

도 6은 농아용 음성인식 수화출력 방법을 구현한 셜리반(Sullivan)이 일반 PC, 모빌 컴퓨터, HPC에서 구동되는 하드웨어와 인터페이스를 나타낸 흐름도이다.FIG. 6 is a flowchart illustrating a hardware interface between a Sullivan, which implements a speech recognition sign language output method for deaf, and a PC, a mobile computer, and an HPC.

상기 셜리반(Sullivan) 제작에 사용된 언어는 순수 100% Java 언어로 제작되었으며, 상기 셜리반 개발에 사용된 툴은 IBM사의 Jike Compiler 1.2 와 썬 마이크로 시스템사의 JDK(Java Development Kit) 1.2이며 사용된 자바(Java) 패키지는 Java AWT, Java Swing, Java Database, Java Beans, CORBA, Java Network를 사용하였으며 음성 편집기는 Syntrillium사의 Coolidit를 사용하였다.The language used for producing Sullivan was written in 100% pure Java language, and the tools used for the development of Sullivan were IBM's Jike Compiler 1.2 and Sun Microsystems' Java Development Kit (JDK) 1.2. The Java package uses Java AWT, Java Swing, Java Database, Java Beans, CORBA, and Java Network. The voice editor uses Syntrillium's Coolidit.

상기 셜리반(Sullivan) 하드웨어는 다양한 컴퓨팅 및 소비자 플랫폼에서 셜리반을 운영할 수 있도록 최적화된 새로운 플랫폼으로, 하드웨어 플랫폼 상에서 셜리반을 호스트 운영체제 없이 선행할 수 있도록 조정된 런타임을 제공한다. 따라서, 셜리반은 여러 하드웨어 장치를 고도로 상호작용적, 역동적 안정성을 갖춰 이동 가능하게 제작되었다. 상기 셜리반 하드웨어에서 제어 구동되는 장치는 CPU, 메모리, 액정(LCD) 모니터, 키보드, 마이크, 스피커 그 밖에 모빌 컴퓨터 입출력 장치를 구동할 수 있다. 상기 농아용 음성인식 수화출력 방법을 구현한 셜리반(Sullivan) 시스템을 시작하여(단계 S70), 각 시스템 별 커널 디바이스 드라이버 인터럽트 콘트롤을 구동하고(단계 S71), 시스템 내에 장착되어 있는 그래픽 카드 드라이버를 통해 모니터에 출력되는 이미지를 위하여 자바 원도우 툴키트(Java window Toolkit) 셜리반 클라이언트 사용자 인터페이스(GUI)를 구동하고(단계 S72) 상기 모빌 컴퓨터, 일반 PC 및 상기 액정 모니터 등의 그래픽 카드 입출력을 대기하여 모니터 화면에 출력한다(단계 S73).The Sullivan hardware is a new platform optimized to run Shirvan on a variety of computing and consumer platforms, and provides a runtime tailored to precede Shirvan on a hardware platform without a host operating system. As a result, Shirley-Ban has been designed to be portable with several hardware devices with highly interactive and dynamic stability. Devices controlled and controlled by the Shirley-van hardware may drive a CPU, a memory, a liquid crystal (LCD) monitor, a keyboard, a microphone, a speaker, and other mobile computer input / output devices. Starting the Sullivan system implementing the speech recognition sign language output method for the deaf (step S70), driving the kernel device driver interrupt control for each system (step S71), and through the graphics card driver mounted in the system In order to display the image on the monitor, the Java window Toolkit Shirley-Ban client user interface (GUI) is driven (step S72) and the graphics card input / output of the mobile computer, the general PC, and the liquid crystal monitor is waited and displayed on the monitor screen. Output (step S73).

Java awt event 패키지 키보드 입출력 값을 대기하여(S74) 키보드 입출력 값 대기하고(단계 S75) Java awt event Audio 패키지 사운드 입출력 값을 대기하여(단계 S76) 마이크 입력 대기(단계 S77), 사운드카드 출력 대기 및 스피커 출력 대기를 실행한다(단계 S78). 상기 Java awt event 패키지 키보드 입출력 값은 Java 기본 패키지인 awt event를 통해 키보드 쓰레드 이벤트와 시스템내에 장착되어 있는 입출력을 할 수 있는 키보드 이벤트를 뜻한다.Waiting for Java awt event package keyboard input / output value (S74) Waiting for keyboard input / output value (step S75) Waiting for Java awt event Audio package sound input / output value (step S76) Waiting for microphone input (step S77), Waiting for sound card output and The speaker output wait is executed (step S78). The Java awt event package keyboard input / output value means a keyboard thread event and a keyboard event capable of input / output mounted in the system through awt event which is a Java basic package.

Java awt event Audio 패키지 사운드 입출력 값을 대기 후. Java Network 패키지 클라이언트 커널 드라이버 모뎀 입출력 값 대기하여(단계 S79) 모뎀 전화선으로 입출력을 대기하여 실행한다(단계 S80). 상기 Java awt event Audio 패키지 사운드 입출력 값은 시스템 내에 장착되어 있는 사운드 카드 드라이브를 통해 사운드카드를 제어할 수 있는 자바(Java) 기본 패키지이며 방식은 쓰레드, 스트림, 예외처리, 신호작용 등으로 사운드 카드를 통해 마이크 입력, 스피커 출력을 원할히 할 수 있게 지원한다. 상기 Java Network 패키지 클라이언트 커널 드라이버 모뎀 입출력 값은 자바(Java)에서 지원하는 패키지 Java.net 패키지를 통해 네트워킹 어플리케이션이나 통신 관련 어플리케이션을 제작할 때 사용한다. 즉, 모뎀과 같은 통신 장비를 일반 전화기나 핸드폰과 같은 통신 매체의 전화걸기, 음성 수신, 음성 전달 신호를 지원한다.Java awt event After waiting for audio package sound input / output values. The Java Network package client kernel driver waits for a modem input / output value (step S79) and executes by waiting for input / output on a modem telephone line (step S80). The Java awt event Audio package sound input / output value is a Java basic package that can control the sound card through the sound card drive installed in the system. The method is a thread, stream, exception handling, signaling, etc. It supports mic input and speaker output. The Java Network Package Client Kernel Driver Modem I / O values are used to create networking applications or communication-related applications through the package Java.net package supported by Java. That is, a communication device such as a modem supports dialing, voice reception, and voice transmission signals of a communication medium such as a general telephone or a mobile phone.

본 발명에 의한 농아용 음성인식 수화출력 방법은 개발 언어로 자바 언어를 사용하여 자체 인터프레터를 내장한 단독 실행형 시스템을 사용하였으며, 사용된 툴은 썬 마이크로시스템사의 JDK1.1 및 JDK1.2를 사용했으며 마이크로소프트사의윈도우즈(Windows), 메킨토시(Macintosh), OS/2, 유닉스(UNIX), 솔라리스(Solaris) 및 네트웨어(Netware)와 같은 수많은 플랫폼에서 운영되는 자바 컴포넌트 객체 모델(Java Component Object Model:이하 Java Com) 기술을 도입하여 새로운 자바 스피치 객체 모델(Java Speech Object Model)을 개발하여 음성인식 기술과 음성합성(TTS) 애니메이션을 구현하였다.The speech recognition sign language output method for the deaf according to the present invention was used as a development language using a standalone system with its own interpreter using the Java language, and the tools used were JDK1.1 and JDK1.2 from Sun Microsystems. Java Component Object Model, which runs on many platforms such as Microsoft's Windows, Macintosh, OS / 2, Unix, Solaris, and Netware. We introduced a new Java Speech Object Model using Java Com technology to implement speech recognition technology and speech synthesis (TTS) animation.

상기 농아용 음성인식 수화출력 방법을 구현한 셜리반(Sullivan)은 상기 자바 컴포넌트 객체 모델(Java Component Object Model)을 내장한 순수 자바(Java)로 개발되었으며 다음 방식을 사용한다.Sullivan, which implements the speech recognition sign language output method for the deaf, was developed as pure Java embedded with the Java Component Object Model and uses the following method.

Java Source(*.Java) - Java Compiler - Java Bytecodes(*.class)Java Source (* .Java)-Java Compiler-Java Bytecodes (* .class)

Class Loader Bytecode Werifier - Java Class Libraries - Just-in-Time CompilerClass loader bytecode Werifier-Java class Libraries-just-in-time compiler

Runtime System - Operating System - HardwareRuntime System-Operating System-Hardware

위와 같은 컴파일(Compile) 타임과 런(Run) 타임 환경을 동시에 가지고 있기 때문에 셜리반(Sullivan)을 각 운영체제 내장이 가능하고, 상기 셜리반은 자체 자바 스피치 객체 모델 시스템(Java Speech Object Model System)을 가지고 있기 때문에 적은 용량에서도 충분한 데이타 용량을 보유할 수 있는 강점을 가지고 있다.With the above compile time and run time environment, Sullivan can be embedded in each operating system, and the Sullivan has its own Java Speech Object Model System. Therefore, it has the strength of having enough data capacity even in small capacity.

참고로, 상기 셜리반(Sullivan)은 보청기처럼 자체 시스템을 가질 수 있는 특징이 있으며 상기 셜리반을 통해 소형 시스템 핸드 PC(HPC)와 같은 경량급 시스템으로 청각·언어 장애인들이 사용할 수 있다.For reference, the Sullivan may have its own system like a hearing aid, and the Sullivan may be used by the hearing and language impaired as a lightweight system such as a small system hand PC (HPC).

상술한 바와 같이, 본 발명에 의한 농아용 음성인식 수화출력 방법을 구현한 셜리반(Sullivan)은 자바(Java) 언어로 만들어졌기 때문에 다중 운영체제(OS)에서 구동할 수 있으며, 청각·언어 장애인이 비장애인인 일반인과 원할한 의사소통을 할 수 있고, TV, 라디오, 인터넷 및 PC통신 등의 정보매체와 영화, 음악 등의 문화생활을 수신할 수 있고, 상기 청각·언어 장애인이 일반전화기나 핸드폰 등의 통신 매체를 통해 의사소통을 할 수 있으며, 상기 청각·언어 장애인이 핸드 PC(HPC)와 같은 경량급 PC를 사용함으로써 의사소통, 정보 매체, 문화생활, 통신매체를 원할하게 사용할 수 있는 효과가 있다.As described above, since Sullivan, which implements the speech recognition sign language output method for deaf children according to the present invention, is made of Java language, it can be operated in multiple operating systems, and it is possible for the hearing and speech impaired person to It can communicate smoothly with the general public with disabilities, and can receive information media such as TV, radio, internet and PC communication, and cultural life such as movies and music. Can communicate through communication media, and the hearing and speech impaired person can use communication, information media, cultural life and communication media smoothly by using a lightweight PC such as a hand PC (HPC). .

상기에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the invention described in the claims below. It will be appreciated.

Claims (6)

청각·언어 장애인 사용자의 조건과 환경을 기초로 비장애인인 일반인과의 의사소통, TV, 라디오, PC 통신 및 인터넷 등의 정보매체와 영화, 음악 등의 문화 생활을 제공하고 일반전화기와 핸드폰 등의 통신 매체를 상기 사용자가 원하는 옵션 설정으로 기본 인터페이스를 구동하는 인터페이스 단계(S100);Based on the condition and environment of the hearing and speech impaired user, it provides communication media with non-disabled people, information media such as TV, radio, PC communication and internet, and cultural life such as movies and music. An interface step (S100) of driving a basic interface with a communication medium setting options desired by the user; 상기 일반인이 언어로 상기 청각·언어 장애인 등의 상기 사용자에게 의사를 전달하면 PC용 마이크, 내장형 마이크 및 소형 마이크를 통해 농아용 음성인식 수화출력 시스템(Sullivan)에 인식 입력되는 음성인식 입력 단계(S200);When the general person communicates the speech to the user, such as the deaf or speech impaired person, the voice recognition input step is input to the speech recognition sign output system (Sullivan) for the deaf through a PC microphone, a built-in microphone, and a small microphone (S200). ); 음성합성(Text-To-Speech:TTS)으로 일반 텍스트를 디지털 오디오로 변환한 다음 소리를 컴퓨터의 스피커를 통해 출력되거나 변환된 오디오를 나중에 플레이하기 위해 저장하는 형태를 가질 수 있으며 상기 청각·언어 장애인 등의 상기 사용자가 상기 비장애인인 상기 일반인에게 음성으로 출력 의사를 전달하는 기능을 수행하는 음성합성(TTS) 입·출력 단계(S300); 및Text-To-Speech (TTS) can be used to convert plain text into digital audio and then store the sound through the computer's speakers or to store the converted audio for later playback. A voice synthesis (TTS) input / output step (S300) for performing a function of delivering an output intention to the general person who is the non-disabled person by voice; And 애니메이션 조정 데이타(Animation Control Data:ACD)라는 시스템이 수화 이미지를 언어로써 출력하고 상기 애니메이션 조정 데이타를 빠르게 보여주기 위하여 리얼타임 렌더링(realtime rendering) 시스템으로 정의하며 상기 텍스트는 상기 음성합성(TTS) 기술을 사용하여 실시간으로 텍스트(Text)를 보조하는 소형 프로그램을 구현하고, 상기 음성인식 입력 단계를 통해 전달된 언어를 수화와 텍스트의 출력을 통하여 상기 청각·언어 장애인 등의 상기 사용자에서 의사 또는 상기 정보매체 등을 수행하는 애니메이션 수화·텍스트 출력 단계(S400)로 구성되는 것을 특징으로 하는 농아용 음성인식 수화출력 방법.A system called Animation Control Data (ACD) defines a realtime rendering system for outputting a sign language image in a language and quickly displaying the animation control data, and the text is the TTS technique. Implement a small program that supports text in real time using the language, and the doctor or the information from the user, such as the hearing and speech impaired, through the sign language and output of the text transmitted through the speech recognition input step A sign language output method for deaf children, characterized in that comprises a sign language and text output step (S400) for performing a medium or the like. 제 1 항에 있어서,The method of claim 1, 상기 인터페이스 단계는The interface step 환경 파일을 읽고 명령 수행을 대기하고(S1), 수화출력 애니메이션을 대기하고(S2), 음성인식 명령을 대기하면서(S3) 멀티쓰레드(Multithread)를 시작하고(S4), 상기 수화출력 애니메이션 대기 상태로 궤환되며, 사용자 명령 인터페이스를 시작하면서(S5) 상기 멀티쓰레드를 시작하는 단계(S4);Reads the environment file (S1), waits for command execution (S2), waits for a sign language output animation (S2), starts a multithread (S3) while waiting for a voice recognition command (S4), and waits for the sign language output animation. A multi-threaded step (S4) while starting a user command interface (S5); 상기 사용자 명령 인터페이스 시작 후에, '대화를 하시겠습니까?'를 체크하여(S6) 대화를 원하면 음성인식 입·출력 시스템을 구동하고(S7) 언어 검색 시스템을 검색하여(S8) 애니메이션 수화를 출력한(S9) 후 사용자 텍스트(Text)를 입력하여(S10) 음성을 출력하고(S11) 상기 멀티쓰레드를 종료하는 단계(S16);After starting the user command interface, check the 'Would you like to talk?' (S6), if you want to have a conversation, run the voice recognition input / output system (S7), search the language search system (S8) and output the animation sign language (S9). After inputting the user text (S10) to output a voice (S11) and terminating the multi-thread (S16); 상기 사용자 명령 인터페이스 시작 후에, '상기 정보 매체를 이용하시겠습니까?'를 체크하여(S12) 상기 정보매체를 이용하면 음성인식 입·출력 시스템을 구동하고(S13), 상기 언어 검색 시스템을 검색하여(S14) 애니메이션 수화를 출력한 (S15) 후 상기 멀티쓰레드를 종료하는 단계(S16); 및After starting the user command interface, check 'Do you want to use the information medium?' (S12) and when the information medium is used, the voice recognition input / output system is driven (S13), and the language search system is searched (S14). (S16) terminating the multithread after outputting an animation sign language (S15); And 상기 멀티쓰레드를 종료한 후, 시스템을 대기하는 단계(S17)로 구성되는 것을 특징으로 하는 농아용 음성인식 수화출력 방법.After the multi-threaded, the speech recognition sign language output method for deaf, characterized in that the step of waiting for the system (S17). 제 1 항에 있어서,The method of claim 1, 상기 음성인식 입력 단계는The voice recognition input step 상기 청각·언어 장애인 등의 상기 사용자와 상기 비장애인인 상기 일반인과의 상기 인터페이스를 초기화하고(S20), 음성 데이터 패키지를 대기하여(S21) 음성 데이터 검색기를 대기하는(S22) 단계;Initializing the interface between the user, such as the deaf or speech impaired person, and the general person who is the non-disabled person (S20), waiting for a voice data package (S21), and waiting for a voice data searcher (S22); 상기 인터페이스를 초기화한 후, 음성 데이타를 초기화하고(S23), 상기 멀티쓰레드를 초기화하고(S24), PC 마이크와 내장형 마이크 또는 소형 마이크인 음성인식 대기 장치를 사용하여(S25) 음성인식 입력을 하는(S26) 단계;After the interface is initialized, voice data is initialized (S23), the multithread is initialized (S24), and a voice recognition input is performed using a voice recognition standby device (S25), which is a PC microphone and a built-in microphone or a small microphone. (S26) step; 상기 음성인식 입력, 상기 음성 데이터 패키지 대기 및 상기 음성 데이터 검색기 대기후(S22)에 음성 데이터 패키지를 검색하는(S27) 단계; 및Searching (S27) a voice data package after the voice recognition input, the voice data package wait, and the voice data searcher wait (S22); And 상기 음성 데이터 패키지를 검색(S27) 후에 상기 애니메이션 수화 텍스트를 출력하고(S28) 계속적 수행을 위해 음성인식 입력을 대기하면서(S29) 상기 음성 데이터 패키지를 대기하는(S21) 단계로 구성되는 것을 특징으로 하는 농아용 음성인식 수화출력 방법.Outputting the animated sign language text after searching the voice data package (S27) and waiting for a voice recognition input for continuous execution (S29), and waiting for the voice data package (S21). Speech recognition sign language output method for deaf. 제 1 항에 있어서,The method of claim 1, 상기 음성합성(TTS) 입·출력 단계는The voice synthesis (TTS) input and output steps 상기 청각·언어 장애인 등의 상기 사용자와 상기 비장애인인 상기 일반인과의 상기 인터페이스를 초기화하고(S30), 음성 데이터 패키지를 대기하며(S31) 음성 데이터를 초기화(S32) 및 상기 멀티쓰레드의 초기화(S33)를 수행하고 키보드 등의음성합성(TTS) 출력 대기(S34)한 후 상기 사용자의 키보드 입력을 통해 상기 음성합성(TTS) 출력하는(S35) 단계;Initialize the interface between the user, such as the deaf or speech impaired, and the general person who is the non-disabled person (S30), wait for a voice data package (S31), initialize voice data (S32), and initialize the multithread ( Performing a step S33) and waiting for a voice synthesis (TTS) output of a keyboard or the like (S34) and outputting the voice synthesis (TTS) through the user's keyboard input (S35); 상기 음성합성(TTS) 출력(S35) 및 상기 음성 데이터 패키지 대기(S31) 후에 음성 검색기를 구동하여(S36) 음성 데이터 패키지를 검색하고(S37) PC 스피커 및 기타 내장 스피커로 음성을 출력하는(S38) 단계; 및After the voice synthesis (TTS) output (S35) and the voice data package standby (S31), a voice searcher is driven (S36) to retrieve a voice data package (S37) and output voice to a PC speaker and other internal speakers (S38). ) step; And 상기 스피커 음성 출력 후, 계속적인 음성합성(TTS) 입·출력을 수행하기 위해 상기 음성 데이터 패키지를 대기(S31)시키는 단계로 구성되는 것을 특징으로 하는 농아용 음성인식 수화출력 방법.And a step (S31) of waiting for the voice data package to perform continuous voice synthesis (TTS) input / output after the speaker voice output. 제 1 항에 있어서,The method of claim 1, 상기 애니메이션 수화·텍스트 출력 단계는The animation sign language and text output step 상기 환경 파일을 읽고 명령 수행을 대기하고(S40), 애니메이션 제어 데이타(Animation Control Data:ACD)를 제어하여(S41) 애니메이션 수화 캐릭터를 대기하고(S42), 상기 애니메이션 제어 데이타(ACD)의 제어에 의해 사용자 옵션을 대기하는(S43) 단계;Read the environment file and wait for command execution (S40), control animation control data (ACD) (S41) to wait for an animation sign language character (S42), and control the animation control data (ACD). Waiting for a user option (S43); 상기 사용자 옵션 대기후, 캐릭터 사이즈 변경 옵션을 수행하고(S44), 텍스트 출력 변경 옵션을 수행하여(S45) '텍스트 출력을 원하십니까?'를 체크하여(S46) 텍스트 출력을 대기하며(S47), 상기 사용자가 원하는 캐릭터로 변경 가능하도록 캐릭터 변경 옵션을 수행하는(S48) 단계;After waiting for the user option, a character size change option is performed (S44), and a text output change option is performed (S45), 'Want to print text?' (S46) and text output is waited (S47), Performing a character change option so that the user can change to a desired character (S48); 상기 텍스트 출력 대기 단계, 상기 캐릭터 사이즈 변경 옵션(S44) 및 상기캐릭터 변경 옵션(S48) 수행한 후, 이벤트에 의해 음성인식을 입력하여(S49) 검색기를 구동하는(S50) 단계;Driving the searcher by inputting voice recognition (S49) after performing the text output waiting step, the character size changing option (S44) and the character changing option (S48); 상기 검색기 구동후, 애니메이션 데이터 검색을 구동하여(S51) 애니메이션 수화를 출력하고(S52), 텍스트 출력 데이터 검색을 구동하고(S53) 텍스트를 출력하는(S54) 단계; 및After driving the searcher, driving an animation data search (S51) to output an animation sign language (S52), driving a text output data search (S53), and outputting a text (S54); And 상기 애니메이션 수화 출력(S52) 및 텍스트 출력(S54) 후, 계속적인 실행을 위해 애니메이션 수화·텍스트 출력 대기 또는 음성합성(TTS) 단계로 대기하는 단계로 구성되는 것을 특징으로 하는 농아용 음성인식 수화출력 방법.After the animation sign language output (S52) and the text output (S54), the speech recognition sign language output for deaf, characterized in that the step of waiting for the animation sign language, text output standby or speech synthesis (TTS) step for continuous execution. Way. 제 1 항에 있어서,The method of claim 1, 컴퓨터에 상기 인터페이스 단계, 상기 음성인식 입력 단계, 상기 음성합성(TTS) 입·출력 단계 및 상기 애니메이션 수화·텍스트 출력 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the interface step, the voice recognition input step, the voice synthesis (TTS) input / output step, and the animation sign language / text step.
KR1019990037707A 1999-09-06 1999-09-06 Method for outputting the finger language by speech recognition for a deaf-mute KR100307229B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990037707A KR100307229B1 (en) 1999-09-06 1999-09-06 Method for outputting the finger language by speech recognition for a deaf-mute

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990037707A KR100307229B1 (en) 1999-09-06 1999-09-06 Method for outputting the finger language by speech recognition for a deaf-mute

Publications (2)

Publication Number Publication Date
KR19990084001A KR19990084001A (en) 1999-12-06
KR100307229B1 true KR100307229B1 (en) 2001-11-05

Family

ID=54765760

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990037707A KR100307229B1 (en) 1999-09-06 1999-09-06 Method for outputting the finger language by speech recognition for a deaf-mute

Country Status (1)

Country Link
KR (1) KR100307229B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020013664A (en) * 2000-08-14 2002-02-21 민홍기 An Implementation of the Internet Caption Broadcasting Server and Client for the Hearing Impairment
KR100380829B1 (en) * 2000-09-09 2003-04-18 주식회사 모빅텔커뮤니케이션스 System and method for managing conversation -type interface with agent and media for storing program source thereof
KR20010107877A (en) * 2001-11-09 2001-12-07 이창선 Voice Recognized 3D Animation Sign Language Display System

Also Published As

Publication number Publication date
KR19990084001A (en) 1999-12-06

Similar Documents

Publication Publication Date Title
US6377925B1 (en) Electronic translator for assisting communications
US8311836B2 (en) Dynamic help including available speech commands from content contained within speech grammars
US7158779B2 (en) Sequential multimodal input
CA2484246C (en) Sequential multimodal input
Freitas et al. Speech technologies for blind and low vision persons
US8207832B2 (en) Haptic effect provisioning for a mobile communication terminal
JP2021103328A (en) Voice conversion method, device, and electronic apparatus
US20050080629A1 (en) Multi-mode interactive dialogue apparatus and method
US6732078B1 (en) Audio control method and audio controlled device
CN113678133A (en) System and method for context-rich attention memory network with global and local encoding for dialog break detection
JP7200533B2 (en) Information processing device and program
KR100826778B1 (en) Wireless mobile for multimodal based on browser, system for generating function of multimodal based on mobil wap browser and method thereof
KR100307229B1 (en) Method for outputting the finger language by speech recognition for a deaf-mute
JP3907604B2 (en) Information processing apparatus, information processing method, storage medium, and program
JP2005524119A (en) Encoding method and decoding method of text data including enhanced speech data used in text speech system, and mobile phone including TTS system
Frauenberger et al. A Generic, Semantically-Based Design Approach for Spatial Auditory Computer Displays.
US20050119888A1 (en) Information processing apparatus and method, and program
JPH08137385A (en) Conversation device
WO2023197949A1 (en) Chinese translation method and electronic device
Tóth et al. Creating XML Based Scalable Multimodal Interfaces for Mobile Devices
JP2004246865A (en) Audio response web system and its input/output control method
KR20220053863A (en) Electronic device generating video based on text and method for generating video based on user data and electronic device therefortext
Ramdoyal Generic PDA: based museum guide, with sound enhancement
Neff et al. Considering the Perceptual Implications of Auditory Rich Content on the Web
Greig AAC Device Feature Matching

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee