KR101839244B1 - Sigh language assisting system expressing feelings - Google Patents

Sigh language assisting system expressing feelings Download PDF

Info

Publication number
KR101839244B1
KR101839244B1 KR1020160169651A KR20160169651A KR101839244B1 KR 101839244 B1 KR101839244 B1 KR 101839244B1 KR 1020160169651 A KR1020160169651 A KR 1020160169651A KR 20160169651 A KR20160169651 A KR 20160169651A KR 101839244 B1 KR101839244 B1 KR 101839244B1
Authority
KR
South Korea
Prior art keywords
unit
sign language
sensor
analyzing
emotion
Prior art date
Application number
KR1020160169651A
Other languages
Korean (ko)
Inventor
황경호
한솔이
김세아
Original Assignee
한밭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한밭대학교 산학협력단 filed Critical 한밭대학교 산학협력단
Priority to KR1020160169651A priority Critical patent/KR101839244B1/en
Application granted granted Critical
Publication of KR101839244B1 publication Critical patent/KR101839244B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a sign language assistance system expressing emotions which allows a person who has a speech disorder to intuitively express and recognize emotions through an accessory worn by a hand when the person uses a sign language, thereby supporting smooth language communication by translating the sign language. The sign language assistance system comprises: a worn part; a first translation part; and a first interface part.

Description

감정을 표현하는 수화보조 시스템 {SIGH LANGUAGE ASSISTING SYSTEM EXPRESSING FEELINGS}{SIGH LANGUAGE ASSISTING SYSTEM EXPRESSING FEELINGS}

본 발명은 수화보조 시스템에 관한 것으로, 자세하게는 농아인의 수화시 손에 착용한 액세서리를 통해 직관적으로 감정상태의 표현 및 인지가 이루어지도록 하며 수화 번역으로 인한 원활한 언어소통을 지원할 수 있는 감정을 표현하는 수화보조 시스템에 관한 것이다.The present invention relates to a hydration assist system, and more particularly, to an intuitive expression and recognition of an emotional state through an accessory worn by a hand in the hand of a deaf person, and expresses feelings capable of supporting smooth language communication by sign language translation To a hydration assistance system.

수화는 손의 움직임을 사용하여 표현하는 시각언어로서, 농아인이 사용하는 의사소통 수단으로 근래에는 농아인과 비장애인 사이의 원활한 의사소통을 위한 일반인을 위한 수화교육도 활발히 이루어지고 있다.Sign language is a visual language that expresses using hand movements. It is a means of communication used by deaf people. In recent years, sign language education for the general public has been actively carried out for smooth communication between deaf and non - disabled people.

특히 최근에는 일반인을 대상으로 학습자의 수준을 고려하여 초급, 중급, 고급 혹은 한국 수화 1,2,3,4 등의 단계별로 수준에 맞게 수화 문장이나 수화동영상을 활용하여 체계적인 지도가 이루어지고 있으며, 전문수화통역사 양성을 위하여 수화와 함께 전문영역별로 수화를 번역과 통역을 할 수 있도록 의료, 법률, 교육, 직업, 방송 등의 전문수화의 지도도 이루어지고 있으나, 익숙하지 않은 일반인이 수화를 능숙하게 사용 및 이해하는 것은 쉽지 않은 일이다.In recent years, systematic guidance has been made using sign language sentences or sign language videos in accordance with the levels of beginner, intermediate, advanced, and Korean sign language 1,2,3,4 in consideration of the level of the learner, In order to train a professional sign language interpreter, special sign language such as medical, law, education, job, broadcasting is also provided so that the sign language can be translated and interpreted according to the field of specialization with the sign language. However, It is not easy to use and understand.

이에 최근에는 휴대용 컴퓨터, 스마트폰 등과 같은 단말기의 보급이 확산과 함께 많은 농아인이 역시 이러한 단말기를 이용하여 타인과 의사소통을 하고자 하는 시도가 이루어지고 있었다.Recently, with the proliferation of terminals such as portable computers and smart phones, many deaf people have tried to communicate with others by using such terminals.

종래에는 농아인이 단말기를 이용하여 타인과 소통시 문자 발·수신 방법과 입력시킨 문자를 음성으로 변환하여 송출하고, 타인의 음성을 문자로 변환하는 방식을 주로 사용하였으나, 최근에는 수화 영상을 촬영하고 이를 문자 또는 음성으로 변환하여 출력하고, 타인의 음성을 수화 영상(애니메이션)으로 변환하여 수신하는 방법 등이 시도되었다.Conventionally, a deaf-mute person has mainly used a method of transmitting and receiving a character by using a terminal and communicating with another person, converting the input character into voice, and converting the voice of the other person into a character. Recently, A method of converting the voice or voice into a character or voice and outputting the voice or converting the voice of the other person into a sign language video (animation), and the like.

그러나 농아인의 감정표현에 대한 연구나 장치에 대해서는 아직 미흡한 수준으로, 비장애인은 말투나 억양을 통해 자신의 감정을 보다 정확하게 표현하지만 농아인은 이러한 IT 기술 기반의 의사소통시 자신의 감정을 표현하기가 매우 어려운 문제가 있었다.However, there is still a lack of research on the expression of emotions and devices of deaf people. Non-disabled people express their emotions more accurately through speech or intonation, but deaf people express their emotions in communication based on IT technology. There was a very difficult problem.

한국공개특허 제10-2010-0104899호(2010.09.29)Korean Patent Publication No. 10-2010-0104899 (Sep. 29, 2010)

본 발명은 상기와 같은 문제점을 해결하기 위하여 창출된 것으로, 본 발명의 목적은 수화시 손에 착용한 액세서리의 발광을 통해 농아인의 감정상태를 직관적으로 표현 및 인지할 수 있도록 하며 이를 반영한 수화 번역으로 인한 원활한 언어소통을 지원할 수 있는 감정을 표현하는 수화보조 시스템을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a sign language interpretation system that intuitively expresses and recognizes an emotional state of a deaf person through light emission of a hand- And to provide a sign language assisting system that expresses feelings capable of supporting smooth language communication.

상기와 같은 목적을 위한 본 발명은 수화자의 감정을 표현하는 수화보조 시스템에 있어서, 전원부와, 가속도센서 및 자이로센서로 이루어져 3축의 움직임을 감지하는 센서부와, 상기 센서부의 감지값을 설정된 움직임 패턴과 비교하여 감정정보를 생성하는 판단부를 구비하며, 수화자의 손에 착용 가능한 착용부; 수화자의 손을 포함하는 영상을 획득하는 촬영부와, 상기 영상을 분석하되 손 부분에 대한 움직임을 추출하는 추출부와, 추출된 손의 움직임을 분석하여 문자 또는 음성으로 표현되는 제1대화정보를 생성하는 제1분석부를 구비하는 제1번역부; 상기 제1대화정보와 함께 상기 감정정보를 출력하는 제1인터페이스부; 로 이루어지는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a hydration assistance system for expressing emotions of a listener, comprising: a power source; a sensor unit configured to detect movement of three axes and including an acceleration sensor and a gyro sensor; And a judging unit for generating emotion information in comparison with the receiving unit, An extracting unit for analyzing the image and extracting a motion with respect to the hand, and analyzing a motion of the extracted hand to extract first conversation information expressed by a character or voice A first translation unit having a first analysis unit for generating a first translation unit; A first interface for outputting the emotion information together with the first dialog information; .

이때 사용자로부터 음성 또는 문자를 입력받는 입력부와, 상기 입력부에 입력된 음성 또는 문자를 분석하여 제2대화정보를 생성하는 제2분석부와, 상기 제2대화정보에 따른 수화 애니메이션을 생성하는 영상생성부를 구비하는 제2번역부; 상기 수화 애니메이션을 출력하는 제2인터페이스부; 를 더 포함할 수 있다.A second analyzing unit for analyzing a voice or a character input to the input unit to generate second dialog information, and a second analyzing unit for generating a sign language animation according to the second dialog information, A second translation unit having a second translation unit; A second interface for outputting the sign language animation; As shown in FIG.

또한, 상기 착용부는 복수색상의 발광소자를 구비하되 상기 감정정보에 대응되는 색상을 출력하는 발광부를 더 포함할 수 있다.The wearer may further include a light emitting unit having light emitting elements of a plurality of colors and outputting hues corresponding to the emotion information.

또한, 상기 착용부는 수화자의 동작입력에 따라 상기 발광부의 동작을 초기화하는 초기화부를 더 포함할 수 있다.The wearer may further include an initialization unit for initializing the operation of the light emitting unit according to an operation input of the receiver.

본 발명은 수화전달과 함께 수화자의 손에 착용 가능한 형태의 착용부를 통해 감정을 색상으로 출력함으로 효율적인 의사전달이 이루어질 수 있으며, 특히 비장애인과의 소통에서도 수화의 번역 및 직관적인 방식으로 감정표현이 이루어짐에 따라 장애인과 비장애인가의 소통의 벽을 해소할 수 있다.In the present invention, efficient communication can be achieved by outputting emotions in color through a wearable form that can be worn on the hands of a handset along with hydration transmission. Especially, communication with a non-handicapped person can be performed by translating signatures and expressing emotions in an intuitive manner As a result, the barriers of communication between disabled people and non-disabled people can be solved.

도 1은 본 발명의 개념도,
도 2는 본 발명의 실시예에 따른 착용부의 모습을 나타낸 사시도,
도 3은 본 발명의 실시예에 따른 구성 및 연결관계를 나타낸 블록도이다.
1 is a conceptual diagram of the present invention,
2 is a perspective view showing a state of a wearer according to an embodiment of the present invention,
3 is a block diagram illustrating a configuration and a connection relationship according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명 감정을 표현하는 수화보조 시스템의 구성을 구체적으로 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a configuration of a hydration auxiliary system for expressing an emotion of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 개념도, 도 2는 본 발명의 실시예에 따른 착용부의 모습을 나타낸 사시도, 도 3은 본 발명의 실시예에 따른 구성 및 연결관계를 나타낸 블록도로서, 본 발명은 수화자가 구비하게 되는 착용부(110)와, 제1번역부(120)와, 제2인터페이스부(150) 및 상기 수화자와 대화를 하게 되는 비장애인이 구비하는 제2번역부(130) 및 제1인터페이스부(140)의 구성으로 이루어진다.FIG. 1 is a conceptual view of the present invention, FIG. 2 is a perspective view showing a state of a wearer according to an embodiment of the present invention, FIG. 3 is a block diagram showing a configuration and a connection relation according to an embodiment of the present invention, A first translator 120, a second interface 150, and a second translator 130 and a first translator 130. The first translator 120 and the second translator 130 are provided in a non- And an interface unit 140.

본 발명에서는 구성의 동작특성에 따라 이러한 구성을 구분, 설명하고 있으며, 첨부된 도 1과 같이 본 발명에 따른 구성을 구비한 별도의 단말기 형태의 구성으로 시스템이 구성될 수 있다. 또한, 시스템을 구성함에 있어 데이터 송수신을 위한 통신부, 전원부와 같은 공지의 자명한 구성에 대해서는 당업자라면 구체적인 설명 없이도 구현할 수 있음에 따라 본 발명의 취지가 흐려지는 것을 방지하기 위하여 구체적인 설명을 생략하기로 한다.In the present invention, such a configuration is distinguished and described according to the operational characteristics of the configuration, and the system can be configured as a separate terminal type configuration having the configuration according to the present invention as shown in FIG. In addition, well-known structures such as a communication unit and a power supply unit for data transmission / reception in the system configuration can be implemented without specific description by those skilled in the art, so that a detailed description thereof will be omitted in order to prevent blurring of the gist of the present invention .

상기 착용부(110)는 수화자의 손에 착용하는 액세서리 형상의 구성으로, 첨부된 도면과 같이 반지, 팔찌를 비롯하여 손 밴드 등과 같이 수화가 이루어짐에 따라 상대방이 육안으로 쉽게 볼 수 있는 형태로 구성되며, 전원부(111)와, 센서부(112)와, 판단부(115)와, 발광부(116) 및 초기화부(117)의 세부 구성을 구비한다.The wearer 110 is configured as an accessory to be worn in the hand of a person who is hovering. The wearer 110 is configured in such a manner that the other person can easily see with the naked eye as the hydration is performed, such as a ring, a bracelet, A power supply unit 111, a sensor unit 112, a determination unit 115, a light emitting unit 116, and an initialization unit 117.

상기 전원부(111)는 상기 착용부(110)에 내장되는 소형의 배터리로서, 상기 센서부(112)와, 판단부(115)와, 발광부(116) 및 초기화부(117)의 동작에 필요한 전원을 공급하한다.The power supply unit 111 is a small battery built in the wearing unit 110 and is used for the operation of the sensor unit 112, the determination unit 115, the light emitting unit 116 and the initialization unit 117 Supply power.

상기 센서부(112)는 가속도센서(113) 및 자이로센서(114)를 조합함으로 3축의 움직임을 감지하는 구성으로, 본 발명에서는 이를 위한 다양한 센서 중 가속도센서(113) 및 자이로센서(114)가 조합된 IMU(Inertia Measurement Unit)센서를 사용할 수 있다.The acceleration sensor 113 and the gyro sensor 114 are coupled to the sensor unit 112. The acceleration sensor 113 and the gyro sensor 114 detect movement of three axes of the acceleration sensor 113 and the gyro sensor 114, Combined IMU (Inertia Measurement Unit) sensors can be used.

이를 구성하는 상기 가속도센서(113)는 물체가 얼만큼 빨라지는지 또는 늦어지는지의 가속도를 측정하는 것으로, 중력가속도가 작용을 통해 지구표면에 대하여 얼마큼 기울어져 있는지 즉 기울기의 측정이 가능하며 x, y, z 축의 3축의 측정이 가능하다.The acceleration sensor 113 constituting the acceleration sensor 113 measures the acceleration of how fast or slow the object is accelerating. It is possible to measure the degree of inclination of the acceleration sensor with respect to the surface of the earth through the action of gravity, , it is possible to measure three axes in the z-axis.

상기 자이로센서(114)는 x, y, z 축의 3축에 대한 회전속도를 측정하는 것으로, 본 발명과 같이 수화가 이루어지는 손의 움직임을 정밀하게 측정하고자 할 때 상기 가속도센서(113) 만으로는 움직이는 방향을 측정하지 못하는 것으로 보완하여 방향과 움직이는 정도를 보다 정밀하게 측정하게 된다. 또한, 상기 자이로센서(114)는 가속도센서(113)와는 달리 중력의 영향을 받지 않으므로 가속도센서와 조합함으로 정밀한 움직임의 측정이 이루어지며, 마찬가지로 x, y, z 축 또는 roll, pitch, and yaw로 3축에 대한 측정을 수행한다.The gyro sensor 114 measures rotation speeds of the three axes x, y, and z. When the movement of a hand in which hydration is to be performed is accurately measured as in the present invention, only the acceleration sensor 113 moves And can measure the direction and the degree of movement more precisely. Unlike the acceleration sensor 113, the gyro sensor 114 is not affected by gravity. Therefore, the gyro sensor 114 is combined with an acceleration sensor to measure precise movement. Similarly, the x, y, Perform measurements on three axes.

이와 같은 센서부(112)는 수화자의 각 손에 적어도 하나 이상 구비하여 수화동작을 인식할 수 있으며 손바닥 또는 손목보다는 손가락에 반지형상의 착용부(110)에 내장함으로 정밀한 동작감지가 이루어질 수 있다.The sensor unit 112 may include at least one or more sensors on each hand of the receiver so that it can recognize a hydration operation. Since the sensor unit 112 is embedded in the wearer's finger 110 on the finger or palm rather than the palm or the wrist, accurate motion detection can be performed.

상기 판단부(115)는 상기 센서부(112)의 감지값을 설정된 움직임 패턴과 비교하여 감정정보를 생성하는 구성이다. 즉 착용부(110)의 형태에 대응하는 일반적인 수화 표현에서 감정을 나타내는 '기쁘다', '화나다', '슬프다', '신나다.' 등 특정 단어를 주요 감정인 희, 노, 애 락으로 구분하여 상기 센서부(112)를 통해 감지 가능한 손의 동작특성과 함께 저장하고, 수화자가 이를 동작하게 되면 상기 센서부(112)를 통해 이러한 감정 단어를 인식하게 된다. The determination unit 115 compares the sensed value of the sensor unit 112 with a predetermined movement pattern to generate emotion information. In other words, in the normal sign language expression corresponding to the shape of the wearing part 110, 'happy', 'angry', 'sad', ' And the like, and stores them together with the operational characteristics of the hands that can be sensed through the sensor unit 112. When the receiver operates the sensor, the sensor unit 112 senses the emotion, Words are recognized.

이렇게 인식된 감정은 여러 가지 방식으로 대화 상대에게 전달될 수 있으며, 본 발명에서는 기본적으로 색상을 사용하여 상대가 인지할 수 있도록 한다. 이는 미리 약속된 색상과 감정을 대응시키는 것으로 예를 들어 적색은 화남, 회색은 우울함, 기쁨은 녹색 등 일반인들이 색상을 통해 대체로 느낄 수 있는 색상을 사용할 수 있으며, 이를 통해 의사소통의 효율을 높일 수 있다.The emotion thus recognized can be transmitted to the conversation partner in various ways, and in the present invention, the color is basically used so that the opponent can perceive it. This matches the promised colors and emotions. For example, you can use colors that can be generally felt by people in general, such as red, blue, gray, and joy, so that communication efficiency can be improved. have.

기본적인 방식으로는 수화를 바라보는 상대가 수화와 함께 실시간으로 이러한 감정상태를 확인할 수 있는 방식으로 상기 착용부(110)는 복수색상의 발광소자를 구비하되 상기 감정정보에 대응되는 색상을 출력하는 발광부(116)를 형성하게 된다. 색상이 다양할수록 미세한 감정표현도 가능하나 이는 구조의 복잡성과 상태가 쉽게 인식하지 못하는 불편함 등이 따르게 되므로, 바람직하게는 희, 노, 애, 락으로 감정을 구분하여 4 ~ 5개의 소형 LED 소자로 이루어진 발광부(116)를 통해 직관적인 감정표현이 이루어질 수 있도록 한다.The wearer 110 has a plurality of light emitting devices of a plurality of colors and emits light corresponding to the emotion information in a manner such that the opponent who views the sign language can confirm the emotion state in real time together with the sign language Thereby forming a portion 116. Since the complexity of the structure and the inconvenience that the state can not easily be recognized, it is preferable to divide emotion into four or five small LED elements So that intuitive emotional expression can be performed.

이때 감정의 오인식 또는 의사진행에 따른 빠른 감정변화를 나타낼 수 있도록 상기 착용부(110)는 수화자의 동작입력에 따라 상기 발광부(116)의 동작을 초기화하는 초기화부(117)를 더 포함하는 것이 바람직하다. 이를 위해 수화동작이 아닌 설정된 손동작을 인식하는 방식을 사용할 수 있으며, 바람직하게는 수화자의 터치를 인식할 수 있는 인식수단을 포함하여 수화자가 이를 터치함에 따라 발광부(116)가 꺼지도록 할 수 있다.The wearing unit 110 may further include an initialization unit 117 for initializing the operation of the light emitting unit 116 according to an operation input of the listener so as to display a quick emotion change according to a false sense of emotion or a pseudo process desirable. For this, a method of recognizing a set hand gesture other than a sign language operation may be used. Preferably, the recognizing means may recognize a touch of a sign language person so that the light emitting portion 116 can be turned off .

상기 제1번역부(120)는 수화자의 수화를 번역하여 비장애인이 쉽게 수화의 내용을 파악할 수 있도록 돕는 구성으로 촬영부(121)와, 추출부(122)와 제1분석부(123)를 구비하게 된다.The first translating unit 120 translates the sign language of the signee so that the non-handicapped person can easily grasp the contents of the sign language. The photographing unit 121, the extracting unit 122, and the first analyzing unit 123 .

상기 촬영부(121)는 카메라 내지는 CCD로 이루어져 수화자의 손을 포함하는 영상을 획득하는 구성으로 높은 해상도는 아니더라도 수화를 명확하게 인식할 수 있는 수준의 카메라로 웹캠이나 단말기 내장형 카메라를 활용할 수도 있다.The photographing unit 121 may include a camera or a CCD to acquire an image including a hand of a listener, and may use a webcam or a camera with a built-in terminal as a camera capable of clearly recognizing sign language even if the resolution is not high.

상기 추출부(122)는 상기 촬영부(121)를 통해 획득된 영상을 분석하되 손 부분에 대한 움직임을 추출하게 된다. 영상에서 원활한 손 인식을 위해 상기 착용부(110)를 영상 인식이 용이한 색상의 장갑 내지는 밴드로 구성하는 것이 바람직하며, 상기 촬영부(121)를 적외선 카메라로 구성하되 장갑 내지는 밴드 형태의 착용부(110)에 적외선을 반사할 수 있는 물질을 도포함으로 인식율을 높일 수도 있다.The extracting unit 122 analyzes the image obtained through the photographing unit 121, and extracts the motion of the hand. It is preferable that the wearer 110 is formed of a glove or a band of color which is easy to recognize the image for smooth hand recognition in the image. The photographing unit 121 is constituted by an infrared camera, The recognition rate can be increased by applying a material capable of reflecting infrared rays to the display unit 110.

상기 제1분석부(123)는 상기 추출부(122)를 통해 추출된 손의 움직임을 분석하여 문자 또는 음성으로 표현되는 제1대화정보를 생성하는 구성으로 영상에서 추출된 수화를 번역하는 구성이다. 이를 위해 상기 제1분석부(123)는 추출된 영상의 손 패턴에 대응하는 수화의미를 DB로 보유하거나 외부 DB와의 연동을 통해 번역을 수행할 수 있으며, 앞서 언급한 바와 같이 상기 착용부(110)에 구비된 센서부(112)를 통해 수화동작이 인식됨에 따라 추출된 영상을 상기 센서부(112)에서 전달된 감지결과와 대비하여 번역이 올바른 여부의 검증도 가능하다.The first analyzing unit 123 analyzes the motion of the hand extracted through the extracting unit 122 to generate first dialog information expressed by a character or a voice, and translates the signatures extracted from the image . For this, the first analyzing unit 123 may store the sign language corresponding to the hand pattern of the extracted image as a DB, or may perform translation through interlocking with an external DB. As described above, the wearer 110 It is possible to verify whether or not the translation is correct by comparing the extracted image with the detection result transmitted from the sensor unit 112 as the hydration operation is recognized through the sensor unit 112 provided in the sensor unit 112.

상기 제1인터페이스부(140)는 상기 제1번역부(120)에서 생성된 제1대화정보와 함께 상기 판단부(115)에서 생성된 상기 감정정보를 비장애인이 확인할 수 있도록 출력하는 구성으로, 모니터를 비롯하여 휴대용 단말기의 액정패널 등으로 구현된다. 상기 감정정보의 경우 색상으로 표현됨에 따라 상기 제1인터페이스부(140)는 번역된 수화의 단어 또는 배경을 감정에 대응하는 색상으로 출력함으로 감정상태를 쉽게 파악할 수 있도록 한다.The first interface unit 140 is configured to output the first dialog information generated by the first translator 120 and the emotion information generated by the determination unit 115 so that the non-disabled person can identify the first emotion information. Monitors, and liquid crystal panels of portable terminals. As the emotion information is represented by a color, the first interface unit 140 outputs the word or background of the translated sign language in a color corresponding to the emotion, so that the emotion state can be easily grasped.

상기 제2번역부(130)는 수화를 알지 못하는 비장애인의 음성 또는 문자를 통해 수화 애니메이션을 생성하여 수화자가 쉽게 확인할 수 있도록 하는 구성으로 입력부(131)와, 제2분석부(132)와 영상생성부(133)를 구비한다.The second translator 130 is configured to generate a sign language animation through a voice or a character of a non-disabled person who is not aware of sign language so that the sign language person can easily confirm the sign language. The input unit 131, the second analysis unit 132, And a generation unit 133.

상기 입력부(131)는 기본적으로 마이크를 비롯하여 필요시 문자를 입력할 수 있는 구성으로 비장애인인 사용자로부터 음성 또는 문자를 입력받는 구성이다.The input unit 131 is basically configured to receive a voice or a character from a user who is a non-disabled person in a configuration capable of inputting a character, if necessary, including a microphone.

상기 제2분석부(132)는 수화를 번역하는 상기 제1분석부(123)와는 달리 상기 입력부(131)에 입력된 음성 또는 문자를 수화로 번역하는 구성으로 기본적으로 음성을 인식하여 이를 문자로 변환하게 되며 문자를 분석하여 주요 의미를 나타내는 형태소의 추출 및 수화 번역을 위한 제2대화정보를 생성하게 된다.Unlike the first analyzing unit 123 for translating the sign language, the second analyzing unit 132 is configured to translate a voice or a character input to the input unit 131 into a sign language, And analyzes the characters to generate second dialog information for extraction and sign language translation of the morpheme representing the main meaning.

상기 영상생성부(133)는 상기 제2분석부에서 생성된 제2대화정보에 따른 수화 애니메이션을 생성하는 구성으로 형태소에 따른 수화 애니메이션 DB 및 변환 알고리즘을 포함하게 되며, 변환된 수화애니메이션은 수화자 측에 구비되는 제2인터페이스부(150)를 통해 출력되어 수화자가 쉽게 인지할 수 있도록 한다.The image generating unit 133 includes a sign language animation DB and a conversion algorithm according to the morpheme to generate a sign language animation according to the second dialog information generated by the second analysis unit. The converted sign language animation includes a sign language And is output through the second interface unit 150 provided on the side of the receiver so that the receiver can easily recognize the receiver.

본 발명의 권리는 위에서 설명된 실시 예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.It is to be understood that the invention is not limited to the disclosed embodiment, but is capable of many modifications and variations within the scope of the appended claims. It is self-evident.

110: 착용부 111: 전원부
112: 센서부 113: 가속도센서
114: 자이로센서 115: 판단부
116: 발광부 117: 초기화부
120: 제1번역부 121: 촬영부
122: 추출부 123: 제1분석부
130: 제2번역부 131: 입력부
132: 제2분석부 133: 영상생성부
140: 제1인터페이스부 150: 제2인터페이스부
110: Wear section 111: Power supply section
112: sensor unit 113: acceleration sensor
114: Gyro sensor 115:
116: light emitting unit 117:
120: first translation unit 121: photographing unit
122: extracting unit 123: first analyzing unit
130: second translation unit 131: input unit
132: second analyzing unit 133: image generating unit
140: first interface unit 150: second interface unit

Claims (4)

수화자의 감정을 표현하는 수화보조 시스템에 있어서,
전원부(111)와, 가속도센서(113) 및 자이로센서(114)로 이루어져 3축의 움직임을 감지하는 센서부(112)와, 상기 센서부(112)의 감지값을 설정된 움직임 패턴과 비교하여 희노애락으로 구분된 감정정보를 생성하는 판단부(115)와, 희노애락으로 감정을 구분하는 4 ~ 5개의 발광소자를 구비하되 상기 감정정보에 대응되는 색상을 출력하는 발광부(116)와, 수화자의 터치를 인식할 수 있는 인식수단을 포함하여 터치함에 따라 상기 발광부(116)의 동작을 초기화하는 초기화부(117)를 구비하며, 수화자의 손에 착용 가능하되 적외선을 반사할 수 있는 물질을 도포한 착용부(110);
적외선 카메라로 구성되어 수화자의 손을 포함하는 영상을 획득하는 촬영부(121)와, 상기 영상을 분석하되 손 부분에 대한 움직임을 추출하는 추출부(122)와, 추출된 손의 움직임을 분석하여 문자 또는 음성으로 표현되는 제1대화정보를 생성하는 제1분석부(123)를 구비하는 제1번역부(120);
상기 제1대화정보와 함께 배경을 감정에 대응하는 색상으로 출력함으로 상기 감정정보를 출력하는 제1인터페이스부(140); 로 이루어지는 것을 특징으로 하는 감정을 표현하는 수화보조 시스템.
A sign language auxiliary system for expressing emotion of a listener,
A sensor unit 112 composed of a power supply unit 111, an acceleration sensor 113 and a gyro sensor 114 to detect movement of three axes, and a sensor unit 112 for comparing sensed values of the sensor unit 112 with a set movement pattern, A light emitting unit 116 having four or five light emitting devices for distinguishing emotions from each other and outputting hues corresponding to the emotion information, And an initialization unit (117) for initializing the operation of the light emitting unit (116) in accordance with a touch box including recognizable recognition means, wherein the initialization unit (117) is worn on the hand of the handset and coated with a material capable of reflecting infrared rays (110);
An extracting unit 122 for analyzing the image and extracting a motion with respect to the hand, and analyzing the motion of the extracted hand, A first translation unit (120) having a first analysis unit (123) for generating first conversation information expressed by a character or voice;
A first interface unit 140 for outputting the emotion information by outputting a background corresponding to the emotion with the first dialog information; Wherein the sign language is an English alphabet.
제1항에 있어서,
사용자로부터 음성 또는 문자를 입력받는 입력부(131)와, 상기 입력부(131)에 입력된 음성 또는 문자를 분석하여 제2대화정보를 생성하는 제2분석부(132)와, 상기 제2대화정보에 따른 수화 애니메이션을 생성하는 영상생성부(133)를 구비하는 제2번역부(130);
상기 수화 애니메이션을 출력하는 제2인터페이스부(150); 를 더 포함하는 것을 특징으로 하는 감정을 표현하는 수화보조 시스템.
The method according to claim 1,
A second analyzing unit 132 for analyzing a voice or a character input to the input unit 131 to generate second conversation information, A second translation unit 130 having an image generation unit 133 for generating a sign language animation corresponding to the sign language animation;
A second interface unit 150 for outputting the sign language animation; Further comprising: an input unit for inputting an input signal;
삭제delete 삭제delete
KR1020160169651A 2016-12-13 2016-12-13 Sigh language assisting system expressing feelings KR101839244B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160169651A KR101839244B1 (en) 2016-12-13 2016-12-13 Sigh language assisting system expressing feelings

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160169651A KR101839244B1 (en) 2016-12-13 2016-12-13 Sigh language assisting system expressing feelings

Publications (1)

Publication Number Publication Date
KR101839244B1 true KR101839244B1 (en) 2018-03-15

Family

ID=61659682

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160169651A KR101839244B1 (en) 2016-12-13 2016-12-13 Sigh language assisting system expressing feelings

Country Status (1)

Country Link
KR (1) KR101839244B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110992783A (en) * 2019-10-29 2020-04-10 东莞市易联交互信息科技有限责任公司 Sign language translation method and translation equipment based on machine learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3346799B2 (en) * 1992-08-24 2002-11-18 株式会社日立製作所 Sign language interpreter

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3346799B2 (en) * 1992-08-24 2002-11-18 株式会社日立製作所 Sign language interpreter

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110992783A (en) * 2019-10-29 2020-04-10 东莞市易联交互信息科技有限责任公司 Sign language translation method and translation equipment based on machine learning

Similar Documents

Publication Publication Date Title
US11847426B2 (en) Computer vision based sign language interpreter
US10446059B2 (en) Hand motion interpretation and communication apparatus
US11263409B2 (en) System and apparatus for non-intrusive word and sentence level sign language translation
Martins et al. Accessible options for deaf people in e-learning platforms: technology solutions for sign language translation
Das et al. Smart glove for sign language communications
Ahmed et al. Real-time sign language framework based on wearable device: analysis of MSL, DataGlove, and gesture recognition
US11482134B2 (en) Method, apparatus, and terminal for providing sign language video reflecting appearance of conversation partner
KR20160109708A (en) Sign language translator, system and method
Kunjumon et al. Hand gesture recognition system for translating indian sign language into text and speech
Rizwan et al. American sign language translation via smart wearable glove technology
KR101839244B1 (en) Sigh language assisting system expressing feelings
Rishan et al. Translation of sri lankan sign language to sinhala text: A leap motion technology-based approach
KR102009150B1 (en) Automatic Apparatus and Method for Converting Sign language or Finger Language
US20190311651A1 (en) Context Responsive Communication Device and Translator
US20150254235A1 (en) Sign Language Translation
KR20210073856A (en) Portable sign languauge translator and sign languauge translation method using the same
KR100549994B1 (en) Finger language recognition method and apparatus
Sapkota et al. Smart glove for sign language translation using Arduino
Patel et al. Hand-gesture recognition for automated speech generation
Chakoma et al. Converting South African sign language to verbal
Sousa et al. GyGSLA: A portable glove system for learning sign language alphabet
Mustafa et al. Sign Language Recognition using Kinect
KR102529798B1 (en) Device For Translating Sign Language
Bajpai et al. Low cost full duplex wireless glove for static and trajectory based american sign language translation to multimedia output
Ambar et al. Development of a Wearable Sensor Glove for Real-Time Sign Language Translation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant