KR20060133190A - Sign language phone system using sign recconition and sign generation - Google Patents
Sign language phone system using sign recconition and sign generation Download PDFInfo
- Publication number
- KR20060133190A KR20060133190A KR1020050052893A KR20050052893A KR20060133190A KR 20060133190 A KR20060133190 A KR 20060133190A KR 1020050052893 A KR1020050052893 A KR 1020050052893A KR 20050052893 A KR20050052893 A KR 20050052893A KR 20060133190 A KR20060133190 A KR 20060133190A
- Authority
- KR
- South Korea
- Prior art keywords
- sign language
- hand
- unit
- sentence
- data
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/009—Teaching or communicating with deaf persons
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
도 1은 본 발명에 따른 수화 인식과 수화 발생을 구현한 양방향 수화 전화 시스템의 일 실시예를 나타낸 블록도,1 is a block diagram showing an embodiment of a two-way sign language telephone system implementing sign language recognition and sign language generation according to the present invention;
도 2는 도 1에 도시된 수화발생부의 일 실시예를 나타낸 블록도,FIG. 2 is a block diagram illustrating an embodiment of a sign language generating unit shown in FIG. 1;
도 3은 도 1에 도시된 문장발생부의 일 실시예를 나타낸 블록도,3 is a block diagram illustrating an embodiment of a sentence generator shown in FIG. 1;
도 4는 도 1에 도시된 음성발생부의 일 실시예를 나타낸 블록도,4 is a block diagram showing an embodiment of a voice generator shown in FIG. 1;
도 5는 도 1에 도시된 문장생성부의 일 실시예를 나타낸 블록도,5 is a block diagram illustrating an embodiment of a sentence generation unit illustrated in FIG. 1;
도 6은 도 2에 도시된 자음변환기의 동작을 단계별로 나타낸 순서도,6 is a flow chart showing step by step the operation of the consonant transducer shown in FIG.
도 7은 수화형태소/3차원수화애니메이션DB, 수화단어DB, 및 손모양DB의 종속관계를 나타낸 도면,7 is a view showing the dependency of sign language morpheme / 3D sign language animation DB, sign language word DB, and hand-shaped DB,
도 8은 도 2에 도시된 자음변환기에서 자음변환하기 전의 음절과 입술모양을 구현할 모음을 나타낸 도면,FIG. 8 is a diagram illustrating a collection of syllables and lips before consonant conversion in the consonant converter shown in FIG. 2;
도 9는 도 2에 도시된 자음변환기의 동작에 따른 다양한 입술모양을 나타낸 도면,9 is a view showing a variety of lips according to the operation of the consonant transducer shown in FIG.
도 10은 고개운동DB를 나타낸 도면,10 is a view showing a head motion DB,
도 11은 수화단어DB의 얼굴표정값 정보에 따른 3차원 수화자 모델의 다양한 얼굴표정을 나타낸 도면,FIG. 11 is a diagram illustrating various face expressions of a 3D speaker model according to face expression information of a sign language word DB.
도 12는 손운동DB에 저장되어 있는 손운동 데이터를 나타낸 도면,12 is a diagram showing hand movement data stored in the hand movement DB;
도 13은 손자세DB에 저장되어 있는 손자세 데이터에 대응하는 손방향을 나타낸 도면,13 is a view showing hand directions corresponding to hand posture data stored in a hand posture DB;
도 14는 손자세DB에 저장되어 있는 손자세 데이터에 대응하는 손모양을 나타낸 도면,14 is a view showing a hand shape corresponding to the hand posture data stored in the hand posture DB;
도 15는 수화자의 손 위치 이미지 세부분할과 손 위치 데이터내용을 나타낸 도면,Fig. 15 is a view showing the hand position image subdivision and hand position data contents of the called party;
도 16은 수화자 얼굴 안에 손이 위치할 경우, 수화자 얼굴 분할 이미지와 수화자 얼굴 영역 분할에 의하여 생성한 손 위치 정보값을 나타낸 도면,16 is a diagram illustrating hand position information values generated by dividing a face of a talker's face and segmenting the face of a talker when the hand is located in the face of the talker;
도 17은 수화소DB의 수화소 구성내용을 나타낸 도면,17 is a diagram showing the details of a pixel configuration of a pixel DB;
도 18은 수화소DB의 자음지화소 구성내용을 나타낸 도면,18 is a view showing the constitution of consonant pixels in the hydration DB;
도 19는 수화소DB의 모음지화소 구성내용을 나타낸 도면,19 is a view showing the configuration of a collection pixel of a hydration pixel DB;
도 20은 수화소DB의 문자배열 구성내용을 나타낸 도면,20 is a view showing the contents of a character array of a pixel DB;
도 21은 청각장애인모드 화면배치를 나타낸 도면,21 is a view showing the deaf mode screen layout,
도 22는 건청인모드 화면배치를 나타낸 도면.Fig. 22 is a diagram showing a dry subject mode screen layout.
본 발명은 수화 인식과 수화 발생을 구현한 양방향 수화 전화 시스템(Sign Language Phone System)에 관한 것으로, 특히, 청각장애인이 건청인에게 전화를 걸 때 청각장애인이 표현한 수화 특징을 추출해서 수화영상DB(DataBase)를 참조하여 그 수화를 문장이나 음성으로 표현하도록 하고, 건청인이 청각장애인에게 전화를 걸 때는 건청인이 발성한 음성을 추출하여 문자로 변환하고 각종 전처리 알고리즘(algorithm)을 통하여 수화식 표현으로 변환하고 수화 애니메이션DB를 참조하여 3차원 수화 애니메이션으로 표현함으로써 청각장애인들의 정보 접근을 증진시키는 수화 전화 시스템에 관한 것이다.BACKGROUND OF THE
공개특허공보 제2004-0010945호, 제2004-0076907호 및 등록특허공보 제0397692호, 등록실용신안공보 제0234151호를 통하여 청각장애인용 화상전화, 필기인식전화, 손동작인식 화상통신 등이 잘 알려져 있다. 그러나 이들은 음성신호 - 수화 애니메이션 화면의 변환 및 수화인식 - 음성합성 변환 기술에 대하여는 전혀 고려하지 않다. 또한 이들 문헌에는 수화기능의 표시를 위한 3차원 수화 애니메이션 기법과 수화 인식 기법, 손 위치 기법, 고개운동 기법, 입술모양 변형 기법에 대하여 제시 하지 못하고 있다. 따라서 수화 전화 시스템 개발을 위한 구 체적인 방안을 고려하지 못하고 있다.Through the publications of Korean Patent Laid-Open Publication Nos. 2004-0010945, 2004-0076907, Published Patent Publication No. 0397692 and Published Utility Model Publication No. 0234151, video phones, handwriting recognition phones, hand gesture recognition video communications for the hearing impaired are well known. . However, they do not consider the conversion of sign language-sign language animation and sign recognition-speech synthesis. Also, these documents do not present 3D sign language animation technique, sign language recognition technique, hand position technique, head movement technique, and lip shape transformation technique. Therefore, the specific plan for developing a sign telephone system is not considered.
본 발명은 상기한 종래 기술의 문제점을 해소하기 위하여 안출한 것으로, 청각장애인이 표현한 수화에 대응하는 영상데이터를 특징 추출과 손동작 변화, 손 위치 시작점으로 분류해서 수화DB 검색을 통하여 텍스트로 변환하고 이를 다시 음성합성할 수 있고, 통신회선을 통해 상대방 건청인에게 전송하면서 건청인이 발성한 음성을 추출해서 음성인식기에 의해 문장으로 변환해서 수화식 전처리 알고리즘으로 처리하여 입술모양과 얼굴표정감정, 고개운동과 함께 3차원 수화 애니메이션을 발생할 수 있는 양방향 수화전화시스템을 제공하는 데 그 목적이 있다.The present invention has been made to solve the above problems of the prior art, the image data corresponding to the sign language represented by the hearing impaired by the feature extraction, hand motion changes, hand position start point classified and converted into text through the sign language DB search and this The voice can be synthesized again and transmitted to the other party through the communication line, the voice extracted by the person is converted into a sentence by the voice recognizer, processed by a sign language preprocessing algorithm, and combined with the shape of the lips, facial expressions, and head movements. The purpose is to provide a two-way sign language telephone system that can generate a three-dimensional sign language animation.
이와 같은 목적을 달성하기 위한 본 발명은, 제공되는 수화영상데이터에 대응하는 한글 문장을 발생하는 문장발생부와, 상기 문장발생부로부터 제공되는 한글 문장에 대응하는 음성소를 사용해서 음성을 합성하여 통신회선부로 제공하는 음성발생부와, 상기 통신회선부로부터 제공되는 음성에 대응하는 한글 문장을 생성하는 문장생성부와, 상기 문장생성부로부터 제공되는 한글 문장에 대응하는 수화를 수행하는 아바타를 표현하는 수화발생부를 포함하는 것을 특징으로 한다.The present invention for achieving the above object, by using a sentence generation unit for generating a Hangul sentence corresponding to the provided sign language image data, and using a phonetic language corresponding to the Hangul sentence provided from the sentence generation unit Represents a voice generation unit provided to the communication line unit, a sentence generation unit for generating a Hangul sentence corresponding to the voice provided from the communication line unit, and an avatar performing sign language corresponding to the Hangul sentence provided from the sentence generation unit. It characterized in that it comprises a hydration generating unit.
이와 같은 본 발명의 실시예를 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다.When described in detail with reference to the accompanying drawings an embodiment of the present invention as follows.
도 1은 본 발명에 따른 수화 인식과 수화 발생을 구현한 양방향 수화 전화 시스템의 일 실시예를 나타낸 블록도로, 시스템처리부(100), 수화입력부(110), 수화출력부(120), 통신회선부(130), 및 DB그룹(140)으로 구성된다. 상기 시스템처리 부(100)는 문장발생부(200), 음성발생부(400), 문장생성부(500), 및 수화발생부(300)를 구비한다.Figure 1 is a block diagram showing an embodiment of a two-way sign language telephone system that implements sign language recognition and sign generation according to the present invention, a
동 도면에 있어서, 수화입력부(110)는 카메라를 사용하여 수화동작이나 수화모양을 인식해서 이에 대응하는 수화영상데이터를 시스템처리부(100) 내의 문장발생부(200)로 제공한다.In the figure, the sign
문장발생부(200)는 수화입력부(110)로부터 제공되는 수화영상데이터에 대응하는 문장을 DB그룹(140) 내의 수화DB에서 탐색하여 음성발생부(400)로 제공한다.The
음성발생부(400)는 문장발생부(200)로부터 제공되는 문장에 대응하는 음성소를 DB그룹(140) 내의 음성DB에서 탐색해서 해당 음성을 합성하여 통신회선부(전화망 또는, 데이터 통신망)(130)로 제공한다.The
문장생성부(500)는 통신회선부(130)로부터 제공되는 음성에 대응하는 문장을 DB그룹(140) 내의 음성인식DB에서 탐색하여 수화발생부(300)로 제공한다.The
수화발생부(300)는 문장생성부(500)로부터 제공되는 문장에 대응하는 수화를 DB그룹(140) 내의 수화소DB에서 탐색하여 화면 표시용 데이터로 바꾸어서 수화출력부(120)로 제공한다.The sign
수화출력부(120)는 수화발생부(300)로부터 제공되는 화면 표시용 데이터를 사용하여 화면 출력장치에 해당 수화를 수행하는 아바타를 디스플레이하여 이용자가 볼 수 있도록 한다.The sign
도 2는 도 1에 도시된 수화발생부(300)의 일 실시예를 나타낸 블록도이다. 이때, 각 DB(211, 212, 213, 214, 215, 221, 222, 223)는 도 1에 도시된 DB그룹(140) 내에 구성된다.2 is a block diagram illustrating an embodiment of the
동 도면에 있어서, 수화발생부(300) 내의 형태소 분석부(201)는 문장생성부(500)로부터 제공되는 문장을 분석하여 각 형태소로 분해한다. 이때, 본 발명에서 사용되는 문장은 한글 문장으로서, 형태소 분석부(201)는 한글 문장을 분석하여 각 한글 형태소로 분해한다.In the figure, the
수화DB검색부(203)는 형태소 분석부(201)로부터 제공되는 분해된 각 한글 형태소에 대응하는 수화단어가 수화형태소/3차원수화애니메이션DB(221) 및 도 11과 같은 수화단어DB(222)에서 검색되면, 수화단어DB(222)와 손모양DB(223)에서 검색된 수화단어에 대응하는 모델링정보값을 추출하여 3차원 수화 그래픽으로 표현한다. 상기 도 11은 수화단어DB(222)의 얼굴표정값 정보에 따른 3차원 수화자 모델의 다양한 얼굴표정을 나타낸 도면이다.The sign language
얼굴표현추가부(206)는 수화DB검색부(203)에 접속되어, 수화DB검색부(203)가 해당 수화단어를 검색했을 경우, 그 검색된 수화단어의 얼굴 표정값을 표정DB(212)로부터 검색하고, 그 검색된 수화단어의 고개운동을 도 10과 같은 고개운동DB(213)로부터 검색하여 그 고개운동을 통해서 수화의 색동감을 표현한다. 예로, 머리를 숙이거나, 놀란 모습을 표현하듯이 고개를 뒷쪽으로 약간 내미는 등의 고개운동을 3차원 수화 애니메이션으로 표현할 수 있다.The face
반면, 수화DB검색부(203)는 형태소 분석부(201)로부터 제공되는 분해된 각 한글 형태소에 대응하는 수화단어가 수화형태소/3차원수화애니메이션DB(221) 및 수 화단어DB(222)에서 검색되지 않으면, 이와 같이 검색되지 않은 상황을 미등록처리부(205)에게 보고하여, 미등록처리부(205)가 3차원지화애니메이션DB(211)를 검색하여 수화단어의 초/중/종성에 해당하는 3차원지화애니메이션을 표현하도록 한다.On the other hand, the sign language
자음변환기(202)는 형태소분석부(201)에 접속되어, 한글 형태소에 있는 초성의 자음을 "ㅇ"으로 바꾸고 형태소에서 종성을 제거한다. 이때, 자음변환기(202)에서 자음변환하기 전의 음절과 입술모양을 구현할 모음은 도 8과 같다. 자음변환기(202)의 동작에 따른 다양한 입술모양은 도 9와 같으며, 수화 아바타 모델은 자음변환기(202)의 결과에서 나온 각 모음을 각 입술모양으로 표현한다. 즉, 입모양을 이용해서 수화를 보조하여 수화정보에 대한 시각적 이해를 전달 할 수 있는 아바타 모델이 표현되는 것이다.The
즉, 입술표현추가부(204)는 입술모양DB(214)로부터 자음변환기(202)의 출력에 대응하는 해당 입술모양을 검색하여 아바타의 입술모양을 생성한다.That is, the
3D 수화 그래픽 발생부(207)는 얼굴표현추가부(206), 미등록처리부(205), 입술표현추가부(204), 및 인체모델DB(215)에 접속되어, 수화아바타를 3차원 수화 애니메이션으로 표현하여 사용자가 수화아바타의 발음을 이해할 수 있도록 한다.The 3D sign language
표현부(208)는 3D 수화 그래픽 발생부(207)의 3차원 수화 애니메이션 출력을 화면 표시용 데이터로 바꾸어서 수화출력부(120)로 제공한다.The
도 3은 도 1에 도시된 문장발생부(200)의 일 실시예를 나타낸 블록도이다. 이때, 각 DB(311, 312, 313, 314)는 도 1에 도시된 DB그룹(140) 내에 구성된다.3 is a block diagram showing an embodiment of the
동 도면에 있어서, 문장발생부(200) 내의 데이터 획득부(301)는 수화입력부(110)로부터 수화영상데이터를 제공받아 수화자의 손동작을 실시간으로 인식하고 칼라 영상 데이터를 생성하여 영상 전처리부(302)로 제공한다.In the drawing, the
영상 전처리부(302)는 데이터 획득부(301)로부터 제공되는 손 영상데이터를 처리하여 손궤적 데이터, 손자세 데이터, 및 손위치 데이터로 분류한다.The
손운동분류부(303)는 영상 전처리부(302)로부터 제공되는 손궤적 데이터와 손운동DB(311)에서 검색된 손운동데이터를 비교하여 손운동정보값을 생성한다.The hand
손자세분류부(304)는 영상 전처리부(302)로부터 제공되는 손자세 데이터와 손자세DB(312)의 데이터를 비교하여 손자세정보값을 생성한다.The hand
손위치분류부(305)는 수화자의 중심에 맞추고 수화자의 얼굴을 기준으로 하여, 영상 전처리부(302)로부터 제공되는 손위치 데이터의 이미지를 7X5 하부이미지로 분할하고, 그 데이터를 손위치DB(313)의 손위치 이미지 데이터와 비교하고 손위치정보값을 생성한다. 이때, 손위치 데이터의 손가락이 위치 데이터의 얼굴 부분에 접할 경우 사용자의 코를 중심으로 하여 얼굴 이미지를 다시 분할하고, 그 분할된 위치 이미지 데이터를 손위치DB(313)의 위치 이미지 데이터와 비교하여 손위치 정보값을 생성한다.The
수화데이터구성부(306)는 손운동분류부(303)로부터 제공되는 손운동정보값, 손자세분류부(304)로부터 제공되는 손자세정보값, 및 손위치분류부(305)로부터 제공되는 손위치정보값을 수화소DB(314)에 저장된 손운동정보값, 손자세정보값, 및 손위치정보값에 비교하여 수화소DB(314) 안의 수화소단어이름에 해당하는 텍스트단 어이름을 생성한다.The sign language
문장구성부(307)는 수화데이터구성부(306)로부터 제공되는 텍스트단어이름을 사용하여 문장을 다시 구성하여 출력한다.The
이때, 손운동분류부(303)는 손이 운동하지 않고 정지상태로 있을 경우, 손운동정보값을 발생하지 않는다. 이에, 수화데이터구성부(306)는 손운동데이터를 정지상태로 처리하고, 그 손운동데이터가 정지상태이고 손자세데이터에 고유한 값이 들어 있을 경우, 수화소 데이터가 수화소DB(314) 안의 수화소이름에 해당하는 자음/모음에 일치하면 자모/모음을 생성하고, 그 생성된 자음/모음을 조합하여 고유명사를 생성한다.At this time, the hand
도 4는 도 1에 도시된 음성발생부(400)의 일 실시예를 나타낸 블록도이다.4 is a block diagram showing an embodiment of the
동 도면에 있어서, 음성 합성부(401)는 문장발생부(200)로부터 제공되는 문장에 대응하여 음성합성DB(411)에 저장된 음성데이터를 탐색해서 출력함으로써 청각장애인의 수화 정보를 비수화자에게 전달할 수 있도록 한다.In the same figure, the
도 5는 도 1에 도시된 문장생성부(500)의 일 실시예를 나타낸 블록도이다.FIG. 5 is a block diagram illustrating an embodiment of the
동 도면에 있어서, 음성 인식부(501)는 통신회선부(130)로부터 제공되는 음성에 대응하여, 음성인식DB(511)에서 미리 학습된 음성 데이터를 적절하게 비교해서 문장을 발생시켜 수화발생부(300)로 제공한다.In the figure, the
도 6은 도 2에 도시된 자음변환기의 동작을 단계별로 나타낸 순서도이다.6 is a flowchart illustrating the operation of the consonant transducer illustrated in FIG. 2 step by step.
먼저, 수화동작과 입술모양의 변화를 구현하기 위해 현재 어절을 한 음절씩 분리한다(단계 S2).First, the current word is separated by one syllable in order to implement a sign language movement and a change in the shape of lips (step S2).
분리된 각 음절을 초/중/종성으로 변환한다(단계 S4).Each of the separated syllables is converted into seconds, mid, and finality (step S4).
초성의 자음을 'ㅇ'으로 변환한다(단계 S6).The consonant is converted to 'o' (step S6).
한 음절에서 종성을 제거하고, 입술모양을 구현할 수 있도록 모음만 표현한다(단계 S8). 이때, 모음이 이중모음일 경우 이중모음을 각각 단순모음으로 분리한다.The vowel is removed from one syllable, and only the vowels are expressed to implement the lip shape (step S8). In this case, when the vowel is a double vowel, the double vowel is separated into a simple vowel.
음절이 남아 있을 경우 상기 단계(S4)부터 다시 수행한다(단계 S10).If the syllable remains, the process is performed again from the step S4 (step S10).
도 7은 수화형태소/3차원수화애니메이션DB(221), 수화단어DB(222), 및 손모양DB(223)의 종속관계를 나타낸 도면으로, 수화DB검색부(203)의 동작에 따라 수화형태소/3차원수화애니메이션DB(221) 검색에 의해 입력된 형태소단어가 각각 수화단어로 분리되고, 아바타를 구현하기 위하여 수화단어DB(222)와 손모양DB(223)로부터 얻은 모델링 값 정보를 추출한다.FIG. 7 is a diagram illustrating a dependency relationship between a sign language morpheme / 3D sign
도 12는 손운동DB(311)에 저장되어 있는 손운동 데이터를 나타낸 도면이다.12 is a diagram illustrating hand movement data stored in the
도 13은 손자세DB(312)에 저장되어 있는 손자세 데이터에 대응하는 손방향을 나타낸 도면이다.FIG. 13 is a view showing hand directions corresponding to hand posture data stored in the
도 14는 손자세DB(312)에 저장되어 있는 손자세 데이터에 대응하는 손모양을 나타낸 도면이다.FIG. 14 is a diagram showing a hand shape corresponding to the hand posture data stored in the
도 15는 수화자의 손 위치 이미지 세부분할과 손 위치 데이터내용을 나타낸 도면으로, 얼굴 밖에 손이 위치할 경우 수화자 분할 이미지와 수화자 영역 분할에 의하여 생성한 손 위치 정보값을 나타낸다.FIG. 15 is a diagram illustrating the subdividing of the hand position image and the contents of the hand position data of the talker, and shows the hand position information generated by the talker division image and the talker area division when the hand is located outside the face.
도 16은 수화자 얼굴 안에 손이 위치할 경우, 수화자 얼굴 분할 이미지와 수화자 얼굴 영역 분할에 의하여 생성한 손 위치 정보값을 나타낸 도면이다.FIG. 16 is a diagram illustrating hand position information values generated by dividing a face of a talker's face and segmenting the face of a talker when the hand is located in the face of the talker.
도 17은 수화소DB(314)의 수화소 구성내용을 나타낸 도면으로, 수화데이터구성부(306)는 손운동분류부(303)로부터 제공되는 손운동정보값, 손자세분류부(304)로부터 제공되는 손자세정보값, 및 손위치분류부(306)로부터 제공되는 손위치정보값을 받아 그 3개의 정보값이 수화소DB(314)에 미리 저장한 데이터에 일치되면 해당 텍스트단어를 생성한다.FIG. 17 is a view showing the details of the pixel configuration of the
도 18은 수화소DB(314)의 자음지화소 구성내용을 나타낸 도면으로, 수화데이터구성부(306)는 모든 손운동데이터가 정지상태이면 자음을 생성할 수 있다.FIG. 18 is a view showing the consonant pixel configuration of the
도 19는 수화소DB(314)의 모음지화소 구성내용을 나타낸 도면으로, 수화데이터구성부(306)는 모든 손운동데이터가 정지상태이면 모음을 생성한다.19 is a view showing the configuration of the collection pixel of the
도 20은 수화소DB(314)의 문자배열 구성내용을 나타낸 도면으로, 수화사용자의 지화표현순서대로 모음지화소와 자음지화소를 함께 조합하고 문자를 생성할 수 있다. 많이 구성하면 문자 두 개 이상을 모아 고유명사를 발생할 수 있다.FIG. 20 is a view illustrating the arrangement of characters in the
도 21은 수화 전화 시스템의 청각장애인모드 화면배치를 나타낸 도면이고, 도 22는 수화 전화 시스템의 건청인모드 화면배치를 나타낸 도면으로, 수화 전화 시스템은 장애인모드 전환 버튼기능을 갖추어서 청각장애인모드일 경우 수화 애니메이션을 상대방 비수화자 영상화면 영역에 표시하도록 할 수 있다.FIG. 21 is a diagram illustrating a layout of a deaf mode screen of a sign language telephone system, and FIG. 22 is a diagram illustrating a layout of a deaf mode of a sign language telephone system. The sign language animation may be displayed on the counterpart non-talker video screen area.
이상에서 본 발명에 대한 기술사상을 첨부도면과 함께 서술하였지만 이는 본 발명의 바람직한 실시예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한, 이 기술분야의 통상의 지식을 가진 자라면 누구나 본 발명의 기술사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다.The technical spirit of the present invention has been described above with reference to the accompanying drawings, but this is by way of example only and not intended to limit the present invention. In addition, it is obvious that any person skilled in the art can make various modifications and imitations without departing from the scope of the technical idea of the present invention.
본 발명은 수화 인식과 수화 발생을 구현한 양방향 수화 전화 시스템을 통하여, 청각장애인들의 의사소통에 대한 이해를 돕고 화상 전화 시스템 프로그램을 통해 여가 생활을 영위하거나 사회 활동 및 교육에 필요한 정보를 제공하는데 유용하게 사용될 수 있다.The present invention is useful for helping the hearing-impaired people to understand the communication through two-way sign phone system that implements sign language recognition and sign language generation, and to provide information necessary for leisure activities or social activities and education through the video phone system program. Can be used.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050052893A KR100730573B1 (en) | 2005-06-20 | 2005-06-20 | Sign Language Phone System using Sign Recconition and Sign Generation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050052893A KR100730573B1 (en) | 2005-06-20 | 2005-06-20 | Sign Language Phone System using Sign Recconition and Sign Generation |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060133190A true KR20060133190A (en) | 2006-12-26 |
KR100730573B1 KR100730573B1 (en) | 2007-06-20 |
Family
ID=37812129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050052893A KR100730573B1 (en) | 2005-06-20 | 2005-06-20 | Sign Language Phone System using Sign Recconition and Sign Generation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100730573B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101104777B1 (en) * | 2010-02-04 | 2012-01-17 | 한국과학기술원 | System and Method for generating sign language animation |
KR102167760B1 (en) * | 2020-07-24 | 2020-10-19 | 주식회사 멀틱스 | Sign language analysis Algorithm System using Recognition of Sign Language Motion process and motion tracking pre-trained model |
CN114120770A (en) * | 2021-03-24 | 2022-03-01 | 张银合 | Barrier-free communication method for hearing-impaired people |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101765154B1 (en) * | 2015-04-14 | 2017-08-07 | 한국철도공사 | Method for convert voice to cyber sign language |
US10896298B2 (en) | 2017-12-04 | 2021-01-19 | Verizon Patent And Licensing Inc. | Systems and methods for configuring an automatic translation of sign language in a video conference |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5659764A (en) | 1993-02-25 | 1997-08-19 | Hitachi, Ltd. | Sign language generation apparatus and sign language translation apparatus |
JP2932027B2 (en) * | 1993-08-31 | 1999-08-09 | 株式会社田村電機製作所 | Videophone equipment |
DE69526871T2 (en) | 1995-08-30 | 2002-12-12 | Hitachi Ltd | SIGNALING TELEPHONE SYSTEM FOR COMMUNICATION BETWEEN HEARING AND NON-HEARING |
KR100348823B1 (en) * | 1999-11-12 | 2002-08-17 | 황병익 | Apparatus for Translating of Finger Language |
KR20010107877A (en) * | 2001-11-09 | 2001-12-07 | 이창선 | Voice Recognized 3D Animation Sign Language Display System |
-
2005
- 2005-06-20 KR KR1020050052893A patent/KR100730573B1/en not_active IP Right Cessation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101104777B1 (en) * | 2010-02-04 | 2012-01-17 | 한국과학기술원 | System and Method for generating sign language animation |
KR102167760B1 (en) * | 2020-07-24 | 2020-10-19 | 주식회사 멀틱스 | Sign language analysis Algorithm System using Recognition of Sign Language Motion process and motion tracking pre-trained model |
CN114120770A (en) * | 2021-03-24 | 2022-03-01 | 张银合 | Barrier-free communication method for hearing-impaired people |
Also Published As
Publication number | Publication date |
---|---|
KR100730573B1 (en) | 2007-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110688911B (en) | Video processing method, device, system, terminal equipment and storage medium | |
CN106653052B (en) | Virtual human face animation generation method and device | |
KR101777807B1 (en) | Sign language translator, system and method | |
KR102098734B1 (en) | Method, apparatus and terminal for providing sign language video reflecting appearance of conversation partner | |
KR102167760B1 (en) | Sign language analysis Algorithm System using Recognition of Sign Language Motion process and motion tracking pre-trained model | |
CN111260761B (en) | Method and device for generating mouth shape of animation character | |
KR102174922B1 (en) | Interactive sign language-voice translation apparatus and voice-sign language translation apparatus reflecting user emotion and intention | |
Yusnita et al. | Implementation of real-time static hand gesture recognition using artificial neural network | |
CN111354246A (en) | System and method for helping deaf-mute to communicate | |
KR100730573B1 (en) | Sign Language Phone System using Sign Recconition and Sign Generation | |
Kanvinde et al. | Bidirectional sign language translation | |
Sonawane et al. | Speech to Indian sign language (ISL) translation system | |
Krishnaraj et al. | A Glove based approach to recognize Indian Sign Languages | |
Podder et al. | Design of a sign language transformer to enable the participation of persons with disabilities in remote healthcare systems for ensuring universal healthcare coverage | |
KR101933150B1 (en) | Command/information input system and method | |
Dixit et al. | Audio to indian and american sign language converter using machine translation and nlp technique | |
KR101981091B1 (en) | Device for creating subtitles that visualizes emotion | |
Dweik et al. | Read my lips: Artificial intelligence word-level arabic lipreading system | |
Reda et al. | SVBiComm: Sign-Voice Bidirectional Communication System for Normal,“Deaf/Dumb” and Blind People based on Machine Learning | |
JP2004015478A (en) | Speech communication terminal device | |
KR20210073856A (en) | Portable sign languauge translator and sign languauge translation method using the same | |
Reddy et al. | Indian sign language generation from live audio or text for tamil | |
Jadhav et al. | Speech to ISL (Indian sign language) translator | |
Vidalón et al. | Continuous sign recognition of brazilian sign language in a healthcare setting | |
Dias et al. | SignEnd: An Indian Sign Language Assistant |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130823 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20140701 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20150601 Year of fee payment: 9 |
|
LAPS | Lapse due to unpaid annual fee |