KR101793607B1 - System, method and program for educating sign language - Google Patents

System, method and program for educating sign language Download PDF

Info

Publication number
KR101793607B1
KR101793607B1 KR1020157029063A KR20157029063A KR101793607B1 KR 101793607 B1 KR101793607 B1 KR 101793607B1 KR 1020157029063 A KR1020157029063 A KR 1020157029063A KR 20157029063 A KR20157029063 A KR 20157029063A KR 101793607 B1 KR101793607 B1 KR 101793607B1
Authority
KR
South Korea
Prior art keywords
data
word
sign language
terminal
input
Prior art date
Application number
KR1020157029063A
Other languages
Korean (ko)
Other versions
KR20170054198A (en
Inventor
반호영
최용근
이수빈
양동석
Original Assignee
주식회사 네오펙트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네오펙트 filed Critical 주식회사 네오펙트
Publication of KR20170054198A publication Critical patent/KR20170054198A/en
Application granted granted Critical
Publication of KR101793607B1 publication Critical patent/KR101793607B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 수화교육 시스템, 방법 및 프로그램에 관한 것이다.
본 발명의 일실시예에 따른 수화교육방법은, 단말기가 특정한 문항데이터를 추출하여 제공하는 단계(S100); 상기 문항데이터에 상응하는 기준수화데이터를 추출하는 단계(S200); 하나 이상의 신체움직임측정장치로부터 센싱데이터를 수신하는 단계(S300); 하나 이상의 상기 센싱데이터를 결합하여 입력수화데이터를 생성하는 단계(S400); 상기 입력수화데이터와 기준수화데이터를 비교하여 비교결과를 산출하는 단계(S500); 및 상기 비교결과를 바탕으로 상기 문항데이터에 대한 평가를 수행하는 단계(S600);를 포함한다.
본 발명에 따르면, 사용자는 실제로 수행하는 수화동작이 정확한 지 평가를 받을 수 있어서 수화 실력 향상에 도움이 될 수 있다.
The present invention relates to a sign language education system, a method and a program.
The sign language training method according to an embodiment of the present invention includes: extracting and providing specific item data of a terminal (S100); Extracting reference sign language data corresponding to the item data (S200); Receiving sensing data from at least one body motion measurement device (S300); Combining at least one of the sensing data to generate input sign data (S400); Comparing the input sign language data with the reference sign language data to calculate a comparison result (S500); And performing an evaluation on the item data based on the comparison result (S600).
According to the present invention, the user can receive an evaluation as to whether or not the hydration operation actually performed is accurate, thereby helping improve the hydration skill.

Description

수화교육 시스템, 방법 및 프로그램{SYSTEM, METHOD AND PROGRAM FOR EDUCATING SIGN LANGUAGE}METHOD AND PROGRAM FOR EDUCATING SIGN LANGUAGE BACKGROUND OF THE INVENTION [0001]

본 발명은 수화교육 시스템, 방법 및 프로그램에 관한 것으로, 보다 자세하게는 신체움직임측정장치를 이용하여 문항에 따라 수행되는 사용자의 수화를 평가하여 교육하는 시스템, 방법, 및 프로그램에 관한 것이다.The present invention relates to a sign language education system, a method and a program, and more particularly, to a system, a method, and a program for evaluating and training sign language of a user performed according to an item using a body motion measurement device.

시각장애인들은 청각을 통해서만 정보를 전달 받을 수 있다. 시각장애인은 TV와 같은 영상 매체에서 사람의 대사나 효과음을 통해서만 정보를 얻을 수 있다. 그 이유는 움직임 및 행동과 같은 정보는 알 수 없기 때문이다. 이러한 점을 해결하기 위해 방송국 등에서는 화면해설방송과 같은 서비스를 제공할 수 있다.Visually impaired people can receive information only through hearing. People with visual impairment can obtain information only through the metabolism or sound effect of a person in a visual medium such as TV. This is because information such as motion and behavior is unknown. To solve this problem, a broadcasting station can provide services such as screen commentary broadcasting.

또한, 청각장애인은 시각적으로 보여지는 수화를 이용하거나 컴퓨터 상의 텍스트나 지면상의 텍스트를 통하여 의사소통을 한다. 그러나 텍스트를 통한 의사 전달은 상이한 문법 및 표현 체계의 차이로 충분히 의미를 담아내지 못하는 경우가 많다. 왜냐하면, 텍스트를 통한 의사전달은 정보 왜곡 및 손실 등의 문제가 발생하기 때문이다.In addition, hearing-impaired people communicate through texts on computers or on texts using visual sign language. However, there are many cases in which communication through texts can not bring meaning sufficiently due to differences in grammar and expression systems. This is because communication through text causes problems such as information distortion and loss.

수화자와 비수화자간의 의사소통은 수화 통역사를 통하는 방식과 텍스트를 통하는 방식 등이 주를 이룬다. 그러나, 통역사를 통한 방식은 현실적으로 비용에 한계가 있다. 따라서, 청각장애인과의 의사소통 시에는 간단한 형태의 텍스트를 주된 매체로 활용하고 있다. 수화와 한국어의 문법 및 표현 체계의 차이 때문에, 수화자는 텍스트로 의미를 전달하는 경우 의미를 충분히 담아내지 못하는 경우가 많다.Communication between the speaker and the non - speaker is dominated by the way through the sign language interpreter and the way through the text. However, the method through the interpreter is realistically limited in cost. Therefore, when communicating with the hearing impaired, simple forms of text are used as the main medium. Because of differences in sign language and Korean grammar and expressive system, signifiers often fail to convey meaning when conveying meaning to text.

수화를 사용하여야 하는 사람(예를 들어, 청각장애인 등)과의 의사소통이 필요한 사람들이 수화를 배우려고 시도한다. 그러나, 수화는 일반언어(즉, 수화가 아닌 대화 언어)의 문법체계와 많은 차이점(예를 들어, 어순의 차이점)을 가지고 있다. 따라서 사람들이 배우는데 어려움을 겪는다. People who need to communicate with people who need to use sign language (for example, hearing impaired people) try to learn sign language. However, sign language has many differences (eg, differences in word order) from the grammatical system of the general language (ie, the language of conversation, not sign language). Therefore, people have difficulty learning.

또한, 수화는 동작이 정확하지 않으면 의사소통이 제대로 이루어지지 않을 수 있으며, 동작은 정확하더라도 수화어순과 일치하지 않으면 의사소통이 되지 않을 수 있다. In addition, the sign language may not communicate correctly if the operation is not accurate, and communication may not be achieved if the operation is correct but does not match the sign language order.

따라서, 제시된 특정한 문항에 대한 사용자에 의해 수행되는 수화데이터를 획득하고, 제시된 문항에 따른 기준수화데이터와 일치여부를 판단하여, 사용자가 정확한 수화 어휘와 어순을 배울 수 있도록 하는, 수화교육 시스템, 방법 및 프로그램을 제공하고자 한다.Therefore, a sign language education system and method for acquiring sign language data performed by a user for a specific question presented and judging whether or not they match the standard sign language data according to the presented question so that the user can learn an accurate sign language word and word order And programs.

본 발명의 일실시예에 따른 수화교육방법은, 단말기가 특정한 문항데이터를 추출하여 제공하는 단계; 상기 문항데이터에 상응하는 기준수화데이터를 추출하는 단계; 하나 이상의 신체움직임측정장치로부터 센싱데이터를 수신하는 단계; 하나 이상의 상기 센싱데이터를 결합하여 입력수화데이터를 생성하는 단계; 상기 입력수화데이터와 기준수화데이터를 비교하여 비교결과를 산출하는 단계; 및 상기 비교결과를 바탕으로 상기 문항데이터에 대한 평가를 수행하는 단계;를 포함한다.The sign language training method according to an embodiment of the present invention includes: extracting and providing specific item data of a terminal; Extracting reference sign language data corresponding to the item data; Receiving sensing data from one or more body motion measurement devices; Combining at least one of the sensing data to generate input signatures; Comparing the input sign language data with reference sign language data and calculating a comparison result; And performing an evaluation of the item data based on the comparison result.

또한, 상기 기준수화데이터 추출단계는, 상기 단말기 내 데이터베이스에 상기 문항데이터와 매칭되어 저장된 기준수화데이터를 추출하는 것을 특징으로 할 수 있다.The reference saliency data extracting step extracts reference saliency data stored in the terminal database in a manner matching with the question data.

또한, 상기 문항데이터가 문장에 해당하는 경우, 상기 기준수화데이터 추출단계는, 상기 문항데이터의 어순을 수화어순으로 변경하는 단계; 및 상기 문항데이터의 각 어절에 대응하는 수화데이터를 탐색하여 매칭하는 단계;를 포함할 수 있다.If the item data corresponds to a sentence, the step of extracting the reference sign language data includes: changing a word order of the item data into a sign language word; And searching for and matching matched data corresponding to each word of the question data.

또한, 상기 신체움직임측정장치가 장갑형 측정장치 및 부착형 측정센서장치를 포함하는 경우, 상기 센싱데이터 수신단계는, 상기 장갑형 측정장치로부터 손가락움직임 및 손목움직임의 센싱데이터를 수신하는 단계; 및 각각의 신체단위에 부착된 측정센서장치로부터 센싱데이터를 수신하는 단계;를 포함할 수 있다.In addition, when the body motion measuring device includes the glove type measuring device and the attachable type measuring sensor device, the sensing data receiving step may include receiving finger and wrist sensing data from the glove type measuring device; And receiving sensing data from a measurement sensor device attached to each body unit.

또한, 상기 센싱데이터수신단계는, 사용자에게 특정한 기준자세 또는 기준움직임의 수행을 요청하는 단계; 및 상기 기준자세 또는 기준움직임에 따라 각각의 신체움직임측정장치의 초기위치를 결정하는 단계;를 더 포함할 수 있다.The sensing data receiving step may include: requesting a user to perform a specific reference posture or a reference motion; And determining an initial position of each of the body motion measuring apparatuses according to the reference posture or the reference movement.

또한, 상기 입력수화데이터 생성단계는, 상기 초기위치를 기준으로 신체단위의 움직임을 추적하여, 왼손과 오른손의 위치관계를 산출하는 것을 특징으로 할 수 있다.The input sign language data generation step may include tracking the movement of the body unit based on the initial position, and calculating a positional relationship between the left hand and the right hand.

또한, 상기 신체움직임측정장치가 비전센서장치를 포함하는 경우, 상기 비전센서장치에 의해 획득되는 영상을 수신하는 단계로서, 상기 영상은 사용자의 양손을 포함하는, 영상수신단계; 및 상기 영상 내의 왼손 및 오른손의 위치관계를 인식하는 단계;를 더 포함할 수 있다.Receiving the image obtained by the vision sensor device when the body motion measuring device includes a vision sensor device, the image including both hands of a user; And recognizing a positional relationship between the left and right hands in the image.

또한, 상기 평가수행단계는, 상기 문항데이터가 단어인 경우, 상기 문항데이터에 상응하는 단어의 상기 기준수화데이터와 상기 입력수화데이터의 일치율을 산출하는 단계;를 포함할 수 있다.The step of performing the evaluation may include calculating a matching rate between the reference sign language data and the input sign language data of a word corresponding to the item data when the question data is a word.

또한, 상기 평가수행단계는, 상기 문항데이터가 문장인 경우, 상기 단말기가 상기 기준수화데이터의 하나 이상의 기준어절데이터와 상기 입력수화데이터의 하나 이상의 입력어절데이터를 각각 비교하여, 일치율을 산출하는 단계; 일치율이 가장 높은 상기 입력어절데이터와 상기 기준어절데이터를 매칭하는 단계; 각각의 상기 입력어절데이터에 대한 일치율을 바탕으로 어절일치결과를 산출하는 단계; 상기 입력어절데이터와 상기 기준어절데이터 사이의 거리차를 누적하여 어순일치결과를 산출하되, 상기 거리차는 특정한 상기 입력어절데이터가 일치율이 가장 높은 기준어절데이터와 동일한 문장 내 위치에 배치되기 위해 이동되는 어절 개수인, 단계; 및 상기 어절일치결과 및 상기 어순일치결과를 반영하여 평가점수를 산출하는 단계;를 포함할 수 있다.The evaluating step may include the step of comparing the at least one reference word data of the reference sign language data and the at least one input word data of the input sign language data when the item data is a sentence, ; Matching the input word data having the highest match rate with the reference word data; Calculating a word match result based on a match rate for each of the input word data; And the distance difference is calculated by accumulating the difference in distance between the input word data and the reference word data to calculate a word order match result, wherein the distance difference is shifted so that the specified input word data is arranged in the same sentence position as the reference word data having the highest match rate The number of words; And calculating an evaluation score by reflecting the word match result and the word match result.

또한, 상기 어절일치결과 및 상기 어순일치결과를 바탕으로, 사용자에 대한 피드백데이터를 생성하는 단계;를 더 포함할 수 있다.The method may further include generating feedback data for the user based on the word matching result and the word matching result.

또한, 상기 평가점수를 반영하여 다음 문항데이터의 난이도를 결정하는 단계;를 더 포함할 수 있다.The method may further include determining difficulty level of the next item data by reflecting the evaluation score.

본 발명의 다른 일실시예에 따른 수화교육 프로그램은, 하드웨어인 단말기와 결합되어 상기 수화교육방법을 실행하며, 매체에 저장된다.The sign language education program according to another embodiment of the present invention is combined with a hardware terminal and executes the sign language training method and is stored in a medium.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, the following various effects are obtained.

첫째, 사용자는 실제로 수행하는 수화동작이 정확한 지 평가를 받을 수 있어서 수화 실력 향상에 도움이 될 수 있다.First, the user can be evaluated whether the actual hydration operation is correct, which can help improve the hydration ability.

둘째, 본 발명을 통해 사용자는 단어에 대한 동작의 정확도뿐만 아니라, 특정한 문장의 수화어순의 정확도도 평가받을 수 있다. 따라서, 한국어 어순과 상이한 수화 어순을 사용자가 정확하게 익힐 수 있다.Second, through the present invention, the user can evaluate not only the accuracy of the operation on the word but also the accuracy of the sign language of the specific sentence. Therefore, the user can accurately learn the sign language order different from the Korean word order.

셋째, 본 발명을 통해, 언어별로 상이한 수화의 데이터베이스만 추가하면, 사용자는 다양한 국가의 수화를 하나의 단말기를 통해 학습할 수 있는 효과가 있다.Thirdly, according to the present invention, if only a database of sign language different for each language is added, the user can learn the sign language of various countries through one terminal.

넷째, 비전센서를 이용하거나 초기위치로부터의 신체움직임측정장치의 움직임 추적을 통해 사용자의 왼손 및 오른손의 위치관계를 획득할 수 있어서, 본 발명은 특정한 수화 수행 시 사용자의 양 손 사이의 위치관계가 정확한 지 여부를 평가할 수 있다.Fourth, since the positional relationship between the left hand and the right hand of the user can be obtained by using the vision sensor or tracking the movement of the body motion measuring device from the initial position, It is possible to evaluate whether it is correct or not.

다섯째, 문항데이터를 다양하게 구축하여 사용자의 상황에 꼭 필요한 수화 문항 학습을 수행하도록 할 수 있다. 또한, 다양한 컨텐츠를 결합하여 제공할 수 있어서, 사용자가 즐겁게 수화를 배우도록 할 수 있다. 또한, 수화 평가를 통해 사용자의 학습 정도에 적합한 문항을 제시하여, 사용자에게 수준별 학습을 제공할 수 있다.Fifth, it is possible to construct a variety of item data, so that it is possible to perform hydration item learning necessary for the user's situation. In addition, various contents can be combined and provided, so that the user can enjoy learning the sign language happily. In addition, through the evaluation of sign language, questions appropriate to the level of the user's learning can be presented, and the level-specific learning can be provided to the user.

도 1은 본 발명의 일실시예에 따른 수화교육시스템의 구성도이다.
도 2는 본 발명의 일실시예에 따른 수화교육방법에 대한 순서도이다.
도 3은 본 발명의 일실시예에 따라 문장인 문항데이터를 평가하는 과정을 나타낸 순서도이다.
도 4는 본 발명의 일실시예에 따라 어절의 일치율을 바탕으로 어순일치결과를 산출하는 예시도면이다.
1 is a block diagram of a sign language training system according to an embodiment of the present invention.
2 is a flowchart of a sign language training method according to an embodiment of the present invention.
3 is a flowchart illustrating a process of evaluating sentence item data according to an embodiment of the present invention.
4 is an exemplary diagram for calculating a word order match result based on a match rate of a word according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

본 명세서에서 신체움직임측정장치는 사용자의 신체움직임을 센싱하여 유무선통신을 통해 상기 단말기로 움직임데이터를 전송하는 장치에 해당한다. 신체움직임측정장치는 웨어러블 디바이스의 형태가 될 수 있으며, 신체의 여러 위치에 부착할 수 있는 센서장치가 될 수도 있다. 이외에도 신체움직임측정장치는 사용자의 신체움직임을 측정할 수 있는 다양한 형태의 장치가 될 수도 있다. 예를 들어, 측정하고자 하는 신체움직임이 손 부위의 움직임인 경우, 신체움직임측정장치는 손에 착용하는 손착용형으로 구현될 수 있다. 또한, 예를 들어, 측정하고자 하는 신체움직임이 양 팔의 움직임인 경우, 신체움직임측정장치는 각각의 신체영역에 부착할 수 있는 센서 패치 등이 될 수 있다. 또한, 여러 신체부위의 움직임을 종합적으로 측정하는 경우, 신체움직임측정장치는 손착용형(예를 들어, 장갑형) 측정장치, 신체부착형 측정센서장치 등의 여러 측정장치를 포함할 수 있다.In this specification, the body motion measuring apparatus corresponds to an apparatus for sensing movement of the user's body and transmitting motion data to the terminal through wire / wireless communication. The body motion measurement device may be in the form of a wearable device, or it may be a sensor device that can be attached to various positions of the body. In addition, the body motion measuring device may be various types of devices capable of measuring the user's body motion. For example, when the body motion to be measured is the movement of the hand, the body motion measuring device can be implemented as a hand wearing type to be worn on the hand. Further, for example, when the body movement to be measured is movement of both arms, the body motion measuring apparatus may be a sensor patch or the like that can be attached to each body region. In addition, when collectively measuring movement of various body parts, the body motion measuring device may include various measuring devices such as a hand-held (e.g., glove-type) measuring device, a body-mounted measuring sensor device, and the like.

이하, 도면을 참조하여 본 발명의 실시예들에 따른 수화교육 시스템, 방법 및 프로그램에 대해 설명하기로 한다.Hereinafter, a sign language education system, a method, and a program according to embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 수화교육시스템의 구성도이다.1 is a block diagram of a sign language training system according to an embodiment of the present invention.

본 발명의 일실시예에 따른 수화교육 시스템은, 단말기(100)의 내부 구성에 의해서 구현된다. 상기 단말기(100)는 이동 가능 여부에 따라 이동 단말기(100) 및 고정 단말기(100)로 나뉠 수 있는데, 상기 구성을 포함하는 모든 형태의 단말기(100)가 해당될 수 있다. 예를 들어, 상기 단말기(100)는 이동단말기(100)에 해당하는 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기(100), 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant), 스마트폰(Smart phone), 왑폰(WAP phone; Wireless Application Protocao phone), 모바일 게임기, 태블릿 PC, 넷북, 노트북(Note Book) 등이 해당될 수 있으며, 고정단말기(100)에 해당하는 데스크 탑 PC, 텔레비전 등이 해당될 수 있다.The sign language education system according to an embodiment of the present invention is implemented by the internal configuration of the terminal 100. [ The terminal 100 can be divided into a mobile terminal 100 and a fixed terminal 100 according to whether the mobile terminal 100 can be moved or not. For example, the terminal 100 may include a cellular phone, a PCS phone, a synchronous / asynchronous IMT-2000 (International Mobile Telecommunication-2000) service corresponding to the mobile terminal 100, A PDA (Personal Digital Assistant), a smart phone, a WAP phone (Wireless Application Protocol), a mobile game machine, a tablet PC , A netbook, a notebook (Note Book), and the like, and may correspond to a desktop PC, a television, and the like corresponding to the fixed terminal 100.

상기 단말기(100)는 제어부(110); 통신부(130); 및 출력부(130);를 전부 또는 일부를 포함한다. 단말기(100)는 상기 기재된 구성요소에 한정되지 않고, 추가적인 구성요소를 더 포함할 수 있다.The terminal 100 includes a control unit 110; A communication unit 130; And an output unit 130, all or part of which are shown. The terminal 100 is not limited to the above-described components, and may further include additional components.

제어부(110)(controller)는 통상적으로 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 데이터통신, 디스플레이부상의 재생을 위한 영상처리, 신체움직임 평가(예를 들어, 사용자의 신체움직임에 따른 입력수화데이터 평가) 등을 위한 관련된 제어 및 처리를 수행한다. 상기 제어부(110)가 수행하는 다양한 기능들에 대해서는 후술한다.The controller 110 typically controls the overall operation of the terminal 100. For example, data communication, image processing for playback on the display, and body motion estimation (e.g., input mood data evaluation based on user's body movements), and the like. Various functions performed by the controller 110 will be described later.

상기 통신부(130)는 신체움직임측정장치(200)로부터 센싱데이터를 수신하는 기능을 수행한다. 또한, 상기 통신부(130)는 상기 수신한 센싱데이터를 상기 제어부(110)로 전달하는 기능을 수행한다. 또한, 상기 통신부(130)는 상기 센싱데이터를 바탕으로 산출된 평가결과에 따른 출력을 상기 신체움직임측정장치(200)로 전송할 수도 있다.The communication unit 130 receives sensing data from the body motion measurement device 200. In addition, the communication unit 130 transmits the received sensing data to the control unit 110. Also, the communication unit 130 may transmit the output based on the evaluation result calculated on the basis of the sensing data to the body motion measurement apparatus 200.

상기 통신부(130)는 상기 신체움직임측정장치(200)와 유선으로 연결되어 데이터를 수신하는 유선통신부 또는 무선통신방식을 통해 상기 신체움직임측정장치(200)로부터 상기 움직임데이터를 수신하는 무선통신부를 포함할 수 있다. 상기 무선통신부는 무선 인터넷 모듈; 또는 근거리통신모듈;을 포함할 수 있다.The communication unit 130 includes a wireless communication unit for receiving the motion data from the body motion measurement apparatus 200 through a wired communication unit connected to the body motion measurement apparatus 200 and receiving data, can do. The wireless communication unit may include a wireless Internet module; Or a short range communication module.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(long term evolution), LTE-A(Long Term Evolution-Advanced) 등이 이용될 수 있다.The wireless Internet module refers to a module for wireless Internet access, and may be built in or externally attached to the terminal 100. Wireless Internet technologies include WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), LTE (Long Term Evolution-Advanced) or the like can be used.

근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NRF 등이 이용될 수 있다. The short-range communication module is a module for short-range communication. (Bluetooth), BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), Infrared Data Association (IrDA) UWB (Ultra Wideband), ZigBee, NRF and the like can be used.

상기 출력부(130)는 사용자에게 제공할 정보를 출력하는 기능을 수행한다. 출력부(130)는 디스플레이부, 음향출력부 등을 포함할 수 있다.The output unit 130 outputs information to be provided to the user. The output unit 130 may include a display unit, an audio output unit, and the like.

상기 디스플레이부는 단말기(100)에서 처리되는 정보를 표시(출력)하는 기능을 수행한다. 또한, 디스플레이부는 터치센서와 결합되어 터치스크린으로 구현될 수 있다. 디스플레이부는 터치조작을 통해 사용자로부터 입력조작을 수신할 수 있다. 예를 들어, 단말기(100)는 화면 상에 표시되는 문항리스트 중에서 특정한 문항데이터에 대응하는 지점에 사용자의 터치조작을 입력받아서 평가할 문항을 선택할 수 있다.The display unit performs a function of displaying (outputting) information processed in the terminal 100. Also, the display unit may be implemented with a touch screen by being combined with the touch sensor. The display unit can receive an input operation from a user through a touch operation. For example, the terminal 100 can select a question to be evaluated by receiving the touch operation of the user at a point corresponding to specific item data in the item list displayed on the screen.

여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

또한, 상기 단말기(100)는 메모리;를 더 포함할 수 있다. 메모리는 제어부(110)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들 또는 신체움직임 평가 수행 중에 생성되는 데이터들(예를 들어, 움직임데이터를 수신하여 저장하는 학습데이터 등)을 저장할 수도 있다. 상기 메모리는 상기 제어부(110) 내에 포함될 수도 있다.In addition, the terminal 100 may further include a memory. The memory may store a program for the operation of the control unit 110 and may store data to be input / output or data (e.g., training data for receiving and storing motion data, etc.) It is possible. The memory may be included in the controller 110.

상기 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM) And an optical disc. The mobile terminal 100 may operate in association with a web storage that performs the storage function of the memory on the Internet.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(110) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays , Microprocessors, microprocessors, microprocessors, and other electronic units for carrying out other functions. In some cases, the embodiments described herein may be implemented by the controller 110 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein.

소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리에 저장되고, 상기 제어부(110)에 의해 실행될 수 있다.The software code may be implemented in a software application written in a suitable programming language. The software code may be stored in a memory and executed by the control unit 110. [

도 2는 본 발명의 일실시예에 따른 수화교육방법에 대한 순서도이다.2 is a flowchart of a sign language training method according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일실시예에 따른 수화교육방법은, 단말기(100)가 특정한 문항데이터를 추출하여 제공하는 단계(S100); 상기 문항데이터에 상응하는 기준수화데이터를 추출하는 단계(S200); 하나 이상의 신체움직임측정장치(200)로부터 센싱데이터를 수신하는 단계(S300); 하나 이상의 상기 센싱데이터를 결합하여 입력수화데이터를 생성하는 단계(S400); 상기 입력수화데이터와 기준수화데이터를 비교하여 비교결과를 산출하는 단계(S500); 및 상기 비교결과를 바탕으로 상기 문항데이터에 대한 평가를 수행하는 단계(S600);를 포함한다. 본 발명의 일 실시예에 따른 수화교육방법을 순서대로 설명한다.Referring to FIG. 2, a sign language training method according to an embodiment of the present invention includes: extracting and providing specific item data of a terminal 100 (S100); Extracting reference sign language data corresponding to the item data (S200); Receiving sensing data from at least one body motion measurement device (200) (S300); Combining at least one of the sensing data to generate input sign data (S400); Comparing the input sign language data with the reference sign language data to calculate a comparison result (S500); And performing an evaluation on the item data based on the comparison result (S600). A sign language training method according to an embodiment of the present invention will be described in order.

단말기(100)가 특정한 문항데이터를 추출하여 제공한다(S100). 즉, 단말기(100)는 사용자로부터 수신된 문항선택요청에 따라 특정한 문항데이터를 추출한다. 예를 들어, 단말기(100)는 사용자로부터 신체움직임측정장치(200)로부터 특정한 조작(예를 들어, 신체움직임측정장치(200)가 손 착용형 장치인 경우, 화면에 특정한 문항데이터가 표시된 특정한 지점을 가리키는 손 동작 후, 손을 모으는 조작동작)을 수행하여 문항데이터를 선택할 수 있다. 또한, 디스플레이부가 터치스크린인 경우, 단말기(100)는 화면 상에 다양한 문항데이터 리스트를 표시할 수 있고, 사용자로부터 특정한 문항데이터에 대한 터치조작을 수신하여 선택할 수 있다. 그 후, 단말기(100)는 디스플레이부 또는 음향출력부를 통해 사용자에게 선택된 문항데이터를 제공할 수 있다. The terminal 100 extracts and provides specific item data (S100). That is, the terminal 100 extracts specific item data according to the item selection request received from the user. For example, when the terminal 100 receives a specific operation from the user's body motion measurement apparatus 200 (for example, when the body motion measurement apparatus 200 is a hand-held type apparatus) The operation of collecting hands after a hand operation indicating the operation of the user) can be performed to select the item data. In addition, when the display unit is a touch screen, the terminal 100 can display various item data lists on the screen, and can receive and select a touch operation for specific item data from the user. Then, the terminal 100 may provide the selected item data to the user through the display unit or the sound output unit.

단말기(100)가 상기 문항데이터에 상응하는 기준수화데이터를 추출한다(S200). 기준수화데이터는 신체움직임측정장치(200)에 의해 획득되는 사용자의 수화동작(즉, 입력수화데이터)와 비교 수행되는 데이터로, 특정한 문항데이터와 의미가 일치하는 수화표현에 해당한다. 단말기(100)는 다양한 방식으로 문항데이터에 상응하는 기준수화데이터를 추출할 수 있다. 다만, 기준수화데이터 추출방식은 이하 기재되는 방식에 한정되지 아니하고, 다양한 방식이 적용될 수 있다.The terminal 100 extracts reference sign language data corresponding to the item data (S200). The reference sign language data corresponds to a sign language expression in which the meaning is matched with the specific question data, which is data to be compared with the user sign language operation (that is, input sign language data) obtained by the body motion measurement apparatus 200. The terminal 100 may extract reference sign language data corresponding to the item data in various ways. However, the reference sign language data extraction method is not limited to the method described below, and various methods can be applied.

기준수화데이터 추출방식의 일실시예로, 단말기(100)는 내부의 데이터베이스에 특정한 문항데이터와 매칭되어 저장된 기준수화데이터를 추출할 수 있다. 즉, 단말기(100)는 메모리 내부에 특정한 문항데이터에 대응하는 수화동작데이터(즉, 기준수화데이터)를 저장할 수 있다. 단말기(100)는 특정한 단어 또는 간단한 표현(예를 들어, 인사 표현 등)인 문항데이터에 상응하는 수화동작표현을 저장할 수 있고, 특정한 문장인 문항데이터에 대응하는 수화동작표현을 저장할 수 있다. 문항데이터가 문장인 경우, 단말기(100)는 데이터베이스에 수화어순에 맞도록 미리 생성된 기준수화데이터를 저장할 수 있다.In one embodiment of the standard hydration data extraction method, the terminal 100 can extract reference hydration data stored in an internal database and matched with specific item data. That is, the terminal 100 may store hydration operation data (i.e., reference hydration data) corresponding to specific item data in the memory. The terminal 100 may store a sign language operation expression corresponding to the item data that is a specific word or a simple expression (e.g., a personnel expression), and may store a sign language operation expression corresponding to the item data that is a specific sentence. If the item data is a sentence, the terminal 100 may store the reference sign language data generated in advance in the database in accordance with the order of sign language.

또한, 국가별로 동일한 의미의 문항데이터에 대한 수화표현이 상이할 수 있으므로, 단말기(100)는 데이터베이스 내에 동일한 문항데이터에 대해 국가별 수화표현을 매칭하여 저장할 수 있다. 단말기(100)는 사용자에 의해 설정된 특정한 국가의 수화표현을 기준수화데이터로 추출하여 제시할 수 있다.Also, since the sign language expressions for item data having the same meaning may be different for each country, the terminal 100 may match and store country-specific sign language expressions for the same item data in the database. The terminal 100 can extract and present the sign language expression of a specific country set by the user as the standard sign language data.

기준수화데이터 추출방식의 다른 일실시예로, 상기 문항데이터가 문장에 해당하는 경우, 단말기(100)는 선택 또는 추출된 특정한 문항데이터에 상응하는 기준수화데이터를 바로 생성할 수 있다. 즉, 상기 기준수화데이터 추출단계(S200)는, 상기 문항데이터의 어순을 수화어순으로 변경하는 단계; 및 상기 문항데이터의 각 어절에 대응하는 수화데이터를 탐색하여 매칭하는 단계;를 포함할 수 있다. 단말기(100)는 수화 어순 규칙에 관한 데이터를 포함하고 있고, 상기 어순규칙데이터를 바탕으로 추출된 문항데이터(즉, 텍스트로 된 문장)를 수화 어순으로 변환할 수 있다. 단말기(100)는 수화 어순으로 문장을 구성하는 어절을 재배치하기 위해 문장을 어절 단위로 먼저 분할한 후 재배치할 수 있다. 어절단위로 분할은 문장의 띄어쓰기를 바탕으로 수행할 수 있다. 그 후, 단말기(100)는 각 어절을 데이터베이스에서 탐색하여 대응하는 수화표현을 로드할 수 있고, 하나 이상의 수화표현을 연결하여 기준수화데이터를 생성할 수 있다. In another embodiment of the reference saliency data extraction method, when the item data corresponds to a sentence, the terminal 100 can directly generate the reference saliency data corresponding to the selected or extracted item data. That is, the step of extracting the reference hydration data (S200) comprises the steps of: changing the order of the item data into a sign language order; And searching for and matching matched data corresponding to each word of the question data. The terminal 100 includes data related to the numerical ordering rule and can convert the item data (i.e., textual sentences) extracted on the basis of the ordering rule data into a numerical order. The terminal 100 may first rearrange the sentence in units of phrases in order to rearrange the phrases constituting the sentence in the sign language order. Segmentation in units of words can be performed based on the spacing of sentences. After that, the terminal 100 can search each database in the database to load corresponding sign language expressions, and connect one or more sign language expressions to generate reference sign language data.

단말기(100)가 하나 이상의 신체움직임측정장치(200)로부터 센싱데이터를 수신한다(S300). 상기 하나 이상의 신체움직임측정장치(200)는 장갑형 측정장치, 신체 부착형 측정센서장치, 비전센서장치 등이 포함될 수 있다. 장갑형 측정장치는 사용자의 양손에 착용될 수 있다. 또한, 부착형 측정센서장치는 수화에 활용되는 사용자의 신체부위인 양쪽의 아래팔(즉, 팔꿈치부터 손목까지의 부분) 또는 위팔(즉, 어깨에서 팔꿈치까지의 부분)에 부착될 수 있다. 예를 들어, 신체 부착형 측정센서장치를 위팔과 아래팔에 각각 부착하여 팔의 구부림 상태, 움직임 상태, 위치관계 등을 측정할 수 있다.The terminal 100 receives the sensing data from at least one body motion measuring device 200 (S300). The at least one body motion measuring apparatus 200 may include a glove measuring apparatus, a body attaching measuring sensor apparatus, a vision sensor apparatus, and the like. The glove-type measuring device can be worn on both hands of the user. In addition, the attachment type measurement sensor device may be attached to both the lower arm (i.e., from the elbow to the wrist) or the upper arm (i.e., the portion from the shoulder to the elbow), which is the user's body part used for hydration. For example, the body attachment type sensor device can be attached to the upper arm and the lower arm, respectively, so that the bending state, the motion state, and the positional relationship of the arm can be measured.

또한, 상기 신체움직임측정장치(200)가 손 착용형 측정장치 및 부착형 측정센서장치를 포함하는 경우, 상기 센싱데이터 수신단계(S300)는, 상기 손착 착용형 측정장치로부터 손가락움직임 및 손목움직임의 센싱데이터를 수신하는 단계; 및 각각의 신체단위에 부착된 부착형 측정센서장치로부터 센싱데이터를 수신하는 단계;를 포함할 수 있다. 손 착용형 측정장치는 사용자의 양손에 착용될 수 있고, 각각의 손가락의 구부림 상태 또는 움직임, 손목의 구부림 또는 움직임(예를 들어, 손목 회전에 따른 손바닥이 향하는 방향 등) 등을 측정할 수 있다. 손 착용형 측정장치는 밴딩센서 또는 IMU센서 등 포함하여, 손가락 및 손목의 상태 또는 움직임을 측정할 수 있다. When the body motion measuring apparatus 200 includes a hand-held measuring apparatus and an attaching-type measuring sensor apparatus, the sensing data receiving step S300 is a step of receiving finger movement and wrist movement from the hand- Receiving sensing data; And receiving sensing data from the attached type measurement sensor device attached to each of the body units. The hand-held measuring device can be worn on both hands of a user and can measure the bending state or motion of each finger, the bending or movement of the wrist (e.g., the direction the palm is heading with the wrist rotation, etc.) . The hand-held measuring device can measure the state or movement of the finger and wrist, including a banding sensor or an IMU sensor.

또한, 부착형 측정센서장치는 관성센서를 포함할 수 있어서, 각각의 신체단위에 각각 부착되어 움직임을 산출할 수 있다. 즉, 위팔과 아래팔에 부착된 부착형 측정센서장치는 관성센서를 통해 센싱데이터를 획득하여 단말기(100)로 전송하고, 단말기(100)는 센싱데이터를 바탕으로 위팔과 아래팔 사이의 위치관계를 산출할 수 있다. 또한, In addition, the attachment type measurement sensor device can include an inertial sensor, so that it can be attached to each of the respective body units to calculate motion. That is, the attached type measurement sensor device attached to the upper arm and the lower arm acquires sensing data through the inertial sensor and transmits the sensed data to the terminal 100. The terminal 100 senses the positional relationship between the upper arm and the lower arm Can be calculated. Also,

또한, 상기 신체움직임측정장치(200)가 비전센서장치를 포함하는 경우, 비전센서장치는 단말기(100)에 의해 손과 팔의 움직임을 측정할 영상데이터를 센싱데이터로 획득할 수 있다. 또한, 손 착용형 측정장치 또는 부착형 측정센서장치가 비전센서장치에 의해 인식될 수 있는 식별표지를 포함할 수 있고, 비전센서장치는 하나 이상의 식별표지의 움직임을 측정하여 단말기(100)로 전송할 수 있다. 이를 위해, 본 발명의 일실시예는, 상기 비전센서장치에 의해 획득되는 영상을 수신하는 단계로서, 상기 영상은 사용자의 양손을 포함하는, 영상수신단계; 및 상기 영상 내의 왼손 및 오른손의 위치관계를 인식하는 단계;를 더 포함할 수 있다. 비전센서장치에 의해 획득된 센싱데이터는, 후술하는 바와 같이, 단말기(100)에 의한 사용자의 양팔 및 양손의 위치관계 산출에 이용될 수 있다.In addition, when the body motion measuring apparatus 200 includes the vision sensor apparatus, the vision sensor apparatus can acquire image data to be measured by the terminal 100 as movement data of the hands and arms, as sensing data. In addition, a hand-held measurement device or an attachment-type measurement sensor device can include an identification mark that can be recognized by the vision sensor device, and the vision sensor device can measure the movement of one or more identification markers and transmit them to the terminal 100 . To this end, an embodiment of the present invention is a method comprising: receiving an image obtained by the vision sensor device, the image including both hands of a user; And recognizing a positional relationship between the left and right hands in the image. The sensing data obtained by the vision sensor device can be used for calculation of the positional relationship between both hands of the user and both hands by the terminal 100 as described later.

비전센서장치는 목걸이형, 사용자의 정면에 배치되는 데크형, 단말기(100) 내부 장착형 등으로 형성될 수 있다. 비전센서장치가 목걸이형인 경우, 비전센서장치는 사용자의 몸 앞에서의 양손과 양팔의 움직임을 영상으로 획득할 수 있다. 또한, 비전센서가 데크형 또는 단말기(100) 부착 또는 포함형인 경우, 문항데이터에 대한 수화표현 입력 시(즉, 입력수화데이터 입력 시)에 사용자의 정면에 배치되어 사용자의 양손 및 양팔 움직임을 포함하는 정면 영상을 획득할 수 있다.The vision sensor device may be formed of a necklace type, a deck type disposed on the front side of the user, an inner mounting type of the terminal 100, or the like. When the vision sensor device is of the necklace type, the vision sensor device can acquire images of the movements of both hands and both arms in front of the user's body. In addition, when the vision sensor is deck type or terminal 100 attached or included, it is disposed in front of the user at the input of the sign language representation (i.e., at the input sign language data input) for the item data to include both hands and arms To obtain a frontal image.

단말기(100)가 하나 이상의 상기 센싱데이터를 결합하여 입력수화데이터를 생성한다(S400). 즉, 단말기(100)는 하나 이상의 신체움직임측정장치(200)에 의해 획득된 센싱데이터를 결합하여 신체움직임측정장치(200)가 부착된 전체 신체부위의 움직임을 입력수화데이터로 생성할 수 있다. 예를 들어, 단말기(100)는 양팔에 부착된 부착형 측정센서장치로부터 측정된 센싱데이터를 통해 각 시점의 팔의 형태(예를 들어, 팔의 구부림 상태에 해당하는 위팔과 아래팔의 위치관계, 각 팔의 배치상태, 각 팔의 움직임형태)를 산출할 수 있다. 또한, 단말기(100)는 손 착용형 측정센서장치로부터 수신된 센싱데이터(예를 들어, 각 시점의 각 손가락 구부림 상태, 손목 구부림 상태, 손목 회전 상태 등)를 통해 각 시점의 사용자 손의 형태를 산출할 수 있다. 그 후, 단말기(100)는 각 팔의 배치상태와 각 손의 형태를 결합하여 사용자가 수행하는 전체 수화표현(즉, 입력수화데이터)를 생성할 수 있다.The terminal 100 combines one or more of the sensing data to generate input sign data (S400). That is, the terminal 100 may combine the sensing data obtained by the at least one body motion measuring apparatus 200 to generate the motion of the whole body part attached with the body motion measuring apparatus 200 as input signatures. For example, the terminal 100 can detect the shape of an arm at each time point (for example, a positional relation between the upper arm and the lower arm corresponding to the bending state of the arm) through the sensing data measured from the attached type measurement sensor device attached to both arms The arrangement state of each arm, and the movement form of each arm) can be calculated. In addition, the terminal 100 can acquire the shape of the user's hand at each time point through sensing data received from the hand-held type measurement sensor device (for example, each finger bending state, wrist bending state, wrist rotation state, Can be calculated. Then, the terminal 100 may combine the arrangement state of each arm with the shape of each hand to generate a full hydration expression (i.e., input hydration data) performed by the user.

또한, 단말기(100)가 비전센서장치에 의해 획득된 센싱데이터(즉, 영상데이터)를 수신하는 경우, 단말기(100)는 비전센서를 통해 획득된 센싱영상을 분석하여 양손 또는 양팔의 위치관계를 산출할 수 있다. 단말기(100)는 영상을 통해 산출된 양손 또는 양팔의 위치관계를 팔의 형태, 손의 형태와 함께 결합하여 사용자가 수행하는 전체 수화표현(즉, 입력수화데이터)를 생성할 수 있다.When the terminal 100 receives the sensing data (i.e., image data) obtained by the vision sensor device, the terminal 100 analyzes the sensing image obtained through the vision sensor and determines the positional relationship between the two hands or both arms Can be calculated. The terminal 100 may generate a full hydration expression (i.e., input hydration data) performed by the user by combining the positional relationship of the two hands or both arms calculated through the image together with the shape of the arm and the shape of the hand.

또한, 후술하는 바와 같이, 단말기(100)가 사용자로부터 기준자세 또는 기준움직임 수행결과를 수신하는 경우, 단말기(100)는 기준자세 또는 기준움직임을 통해 파악된 초기위치(또는 기준위치)를 바탕으로, 사용자의 수화표현 수행 시 각 시점의 초기위치에 대한 각 측정지점(예를 들어, 신체부착형 측정센서장치가 부착된 신체지점)의 상대적 위치를 산출할 수 있다. 이를 통해, 단말기(100)는 동일한 시점의 기준위치에 대한 양손 또는 양팔의 상대적 위치를 바탕으로 양손 또는 양팔의 위치관계를 산출할 수 있고, 팔의 형태, 손의 형태와 함께 결합하여 사용자가 수행하는 전체 수화표현(즉, 입력수화데이터)를 생성할 수 있다.As described later, when the terminal 100 receives the reference posture or the result of performing the reference motion from the user, the terminal 100 calculates the reference position or the reference motion based on the reference position or the reference position , It is possible to calculate the relative position of each measurement point (for example, a body point on which the body-mounted type measurement sensor device is attached) with respect to the initial position of each viewpoint in performing the user's sign language expression. Accordingly, the terminal 100 can calculate the positional relationship of both hands or both arms based on the relative positions of both hands or both arms with respect to the reference position at the same time point, and can combine with the shape of the arm and the shape of the hand, (I.e., input signatures data) to be generated.

단말기(100)가 입력수화데이터와 기준수화데이터를 비교하여 비교결과를 산출한다(S500). 즉, 단말기(100)는 문항데이터에 상응하는 기준수화데이터(즉, 기준이 되는 수화동작)과 생성된 입력수화데이터(즉, 사용자에 의해 수행된 수화동작)을 비교하여 결과를 산출할 수 있다. 기준수화데이터는 사전에 해당 단어에 상응하는 수화동작에 대한 기준 사용자 움직임을 측정한 1개 이상의 데이터에 해당할 수 있으며, 시간에 따른 축별 가속도센서값, 자이로센서값, 지자기센서값, 영상정보값(예를 들어, 비전센서장치를 통해 획득된 영상 내에서 특정한 신체부위의 위치, 기울기, 방향 등의 데이터 값) 등을 포함할 수 있다. 또한, 단말기는 기준수화데이터를 특정한 하나의 센싱데이터가 아닌 사용자로부터 입력수화데이터로 수신된 수화동작들을 누적하고 이에 대해 통계적 분류기법이나 supporting vector machine, decision tree, deep learning 등의 머신러닝 분류기법을 이용하여 학습을 수행하여 기준수화데이터에 상응하는 특정값 또는 특정범위를 생성할 수 있다.The terminal 100 compares the inputted sign language data with the reference sign language data to calculate a comparison result (S500). That is, the terminal 100 can calculate the result by comparing the reference sign language data (that is, the reference sign language sign) corresponding to the item data and the generated input sign language data (that is, the sign language sign performed by the user) . The reference saliency data may correspond to one or more data that previously measured the reference user's motion for the sign language operation corresponding to the word, and may include an axial acceleration sensor value, a gyro sensor value, a geomagnetism sensor value, (E.g., data values of the position, inclination, direction, etc. of a specific body part in the image obtained through the vision sensor device), and the like. Also, the terminal accumulates the hydration operations received from the user as input hydration data rather than a specific one of the sensed data, and performs a machine learning classification technique such as statistical classification, supporting vector machine, decision tree, To generate a specific value or a specific range corresponding to the reference sign language data.

기준수화데이터와 입력수화데이터를 비교하는 방식의 일실시예로, 단말기는 입력수화데이터와 기준수화데이터의 시간에 따른 변화에 대한 두 데이터 간 차이나 거리를 계산하여 비교할 수 있다. 예를 들어, 단말기는 측정센서장치를 착용한 실제 사람의 동작을 통해 기준수화데이터를 입력받을 수 있고, 각 시점에 부합하는 측정센서장치들의 센싱값을 저장할 수 있다. 그 후, 단말기는 입력수화데이터에 따른 각 측정센서장치의 센싱값을 기준수화데이터에 따른 각 측정센서장치의 센싱값과 비교하여 차이를 산출할 수 있다. 또한, 입력수화데이터와 기준수화데이터를 데이터 분석을 위한 도메인을 바꾸어서(예를 들어, 주파수 영역으로 변경하여) 차이를 산출할 수 있다. 또한, 단말기는 DTW(Dynamic Time Wapping) 알고리즘을 적용하여 기준수화데이터와 입력수화데이터를 비교할 수 있다. 다만, 기준수화데이터와 입력수화데이터를 비교하는 방식은 이에 한정되지 않고, 등의 다양한 방식을 적용할 수 있다.In one embodiment of the method of comparing the reference hydration data and the input hydration data, the terminal may calculate and compare the difference or distance between the two data with respect to changes over time of the input hydration data and the reference hydration data. For example, the terminal can receive the reference hydration data through the operation of the actual person wearing the measurement sensor device, and can store the sensing value of the measurement sensor devices corresponding to each time point. Thereafter, the terminal may calculate the difference by comparing the sensing value of each measurement sensor device according to input sign language data with the sensing value of each measurement sensor device according to the reference sign language data. In addition, the input signatures and the reference signatures can be changed by changing the domain for data analysis (for example, by changing to the frequency domain) to calculate the difference. Also, the terminal can compare the reference sign language data with the input sign language data by applying a DTW (Dynamic Time Wapping) algorithm. However, the method of comparing the reference sign language data with the input sign language data is not limited to this, and various other methods can be applied.

상기 비교결과 산출단계(S500)의 일실시예로, 상기 문항데이터가 단어 또는 짧은 표현(예를 들어, 인사 등의 관용표현)인 경우, 단말기(100)는 상기 문항데이터에 상응하는 단어의 기준수화데이터와 입력수화데이터의 일치율을 산출할 수 있다. 즉, 문항데이터가 하나의 수화표현에 해당하여 별도의 어순표현이 일치하지 않으므로, 기준수화데이터와 입력수화데이터를 일대일로 비교하여 동작의 일치율을 산출할 수 있다.In a case where the item data is a word or a short expression (for example, a tolerable expression such as a greeting), the terminal 100 may calculate the reference value of the word corresponding to the item data The matching rate between the sign language data and the input sign language data can be calculated. That is, since the item data corresponds to one sign language expression and the separate word order expressions do not coincide, the coincidence rate of the operation can be calculated by comparing the reference sign language data with the input sign language data on a one-to-one basis.

상기 비교결과 산출단계(S500)의 다른 일실시예로, 상기 문항데이터가 문장인 경우, 상기 단말기(100)가 상기 기준수화데이터의 하나 이상의 기준어절데이터와 상기 입력수화데이터의 하나 이상의 입력어절데이터를 각각 비교하여, 일치율을 산출하는 단계;를 포함할 수 있다. 사용자는 문항데이터에 부합하는 어순과 상이한 순서로 수화동작이 입력될 수 있다. 단말기(100)가 어순이 정확도를 평가하기 위해서는 기준수화데이터의 각 어절에 대응하는 입력수화데이터 내의 어절이 어느 것인지 식별하여야 한다. 이를 위해, 단말기(100)는 기준수화데이터 및 입력수화데이터를 어절단위로 분할(즉, 하나 이상의 기준어절데이터와 하나 이상의 입력어절데이터를 생성)하고, 모든 기준어절데이터와 모든 입력어절데이터를 상호비교하여 일치율을 산출할 수 있다. 단말기(100)는 어절 간 상호 비교를 수행하여 산출된 일치율을 통해, 후술되는 평가수행단계(S600)에서, 특정한 기준어절데이터에 매칭되는 입력어절데이터를 판단할 수 있다.If the item data is a sentence, the terminal 100 may compare one or more reference word data of the reference sign language data and one or more input word data of the input sign language data (step S500) Respectively, and calculating a matching rate. The user can input the sign language operation in a different order from the word order corresponding to the item data. In order for the terminal 100 to evaluate the accuracy of the word order, it is necessary to identify which word in the input sign language data corresponds to each word of the reference saliency data. To this end, the terminal 100 divides the reference sign language data and the input sign language data in units of phrases (i.e., generates one or more reference word data and one or more input word data), and transmits all the reference word data and all input word data to each other The matching rate can be calculated. The terminal 100 may perform input / output data matching the specific reference word data in the evaluation step S600, which will be described later, through the calculated matching ratio by performing the mutual comparison between the words.

입력수화데이터를 어절단위로 분할하는 방식의 일실시예로, 단말기는 사용자로부터 신체움직임측정장치에 구비되어 있거나 부착되는 전기적 스위치, 기계적 스위치 또는 압력센서에 대한 조작에 따른 신호를 수신하여 특정한 어절의 종결을 인식할 수 있다. 예를 들어, 사용자가 장갑형 측정장치의 특정위치(예를 들어, 엄지로 간편하게 조작 가능한 장갑형 측정장치의 검지 영역)에 구비된 스위치를 조작하여 어절의 종결을 단말기에 입력할 수 있다. In an embodiment of a method of dividing input sign language data in units of words, a terminal receives a signal according to an operation on an electrical switch, a mechanical switch, or a pressure sensor provided or attached to a body motion measurement device from a user, Termination can be recognized. For example, the user can input the end of the word to the terminal by operating a switch provided at a specific position of the glove-type measuring device (for example, the detection area of the glove-type measuring device that can be easily manipulated with the thumb).

또한, 입력수화데이터를 어절단위로 분할하는 방식의 다른 일실시예로, 사용자가 미리 정의된 특정한 제스처를 취하면, 단말기가 이를 인식하여 어절의 종결을 인식할 수 있다. 또한, 입력수화데이터를 어절단위로 분할하는 방식의 또 다른 일실시예로, 특정 어절에 대한 동작을 수행한 후 일정 시간 이상 유지하면 단말기가 특정한 어절이 끝난 것으로 인식할 수 있다. 또한, 입력수화데이터를 어절단위로 분할하는 방식의 또 다른 일실시예로, 단말기는 특정한 어절(또는 단어)마다 일반적으로 수행되는 시간범위를 초과하면 특정한 어절이 종결되고 다음 어절이 수행되는 것으로 인식할 수 있다.In another embodiment of the method of dividing the input sign language data in units of words, when the user takes a predetermined gesture defined by the user, the terminal recognizes the gesture and recognizes the end of the word. According to another embodiment of the method for dividing the input sign language data in units of words, if the terminal performs the operation for a specific word and maintains the predetermined time or longer, the terminal can recognize that the specific word is ended. Further, in another embodiment of a method of dividing input sign language data into units of words, when a terminal exceeds a time range generally performed for a specific word (or word), it is recognized that a specific word is terminated and the next word is performed can do.

단말기(100)가 상기 비교결과를 바탕으로 상기 문항데이터에 대한 평가를 수행한다(S600). 상기 문항데이터가 단어 또는 짧은 표현(예를 들어, 인사 등의 관용표현)인 경우, 단말기(100)는 비교결과(즉, 기준어절데이터와 입력어절데이터의 일치율)에 부합하는 점수를 산출할 수 있다.The terminal 100 performs evaluation of the item data based on the comparison result (S600). When the item data is a word or a short expression (for example, a generic expression such as a greeting), the terminal 100 can calculate a score that matches the comparison result (that is, the matching rate of the reference word data and the input word data) have.

또한, 상기 문항데이터가 문장인 경우, 단말기(100)는 기준어절데이터와 입력어절데이터 간의 상호 비교수행을 통한 일치율 결과를 바탕으로, 어순 일치 정도를 평가하고, 어순 일치 시의 어절간 일치 정도를 평가할 수 있다. 즉, 평가수행단계(S600)의 일실시예는, 도 3에서와 같이, 일치율이 가장 높은 상기 입력어절데이터와 상기 기준어절데이터를 매칭하는 단계(S610); 매칭된 상기 입력어절데이터와 상기 기준어절데이터 사이의 거리차를 누적하여 어순일치결과를 산출하되, 상기 거리차는 특정한 상기 입력어절데이터가 일치율이 가장 높은 기준어절데이터(즉, 매칭된 기준어절데이터)와 동일한 문장 내 위치에 배치되기 위해 이동되는 어절 개수인, 단계(S620); 각각의 상기 입력어절데이터에 대한 일치율을 바탕으로 어절일치결과를 산출하는 단계(S630); 및 상기 어절일치결과 및 상기 어순일치결과를 반영하여 평가점수를 산출하는 단계(S640);를 포함할 수 있다. If the item data is a sentence, the terminal 100 evaluates the degree of word order matching based on the result of matching rate by performing a comparison between the reference word data and the input word data, Can be evaluated. That is, one embodiment of the evaluation performing step S600 may include matching (S610) the input word data having the highest matching rate with the reference word data as shown in FIG. 3; And the distance difference is calculated by accumulating the difference in distance between the matched input word data and the reference word data to calculate a word order match result, wherein the distance difference is calculated based on the reference word data having the highest match rate (i.e., matched reference word data) (S620), which is the number of phrases to be moved to be placed in the same sentence position as the sentence; A step (S630) of calculating a word matching result based on a matching rate of each of the input word data; And calculating an evaluation score by reflecting the word match result and the word match result (S640).

먼저, 단말기(100)는 기준어절데이터와 입력어절데이터 간의 비교결과를 바탕으로, 일치율이 가장 높은 입력어절데이터와 기준어절데이터를 매칭할 수 있다(S610). 예를 들어, 도 4에서와 같이, 입력수화데이터에 상응하는 입력문장과 기준수화데이터에 상응하는 기준문장의 어절데이터를 상호 비교하여 일치율을 계산하고, 각 입력어절에 대해 가장 높은 일치율을 가지는 기준어절(즉, 입력어절1은 기준어절3, 입력어절2는 기준어절2, 입력어절3은 기준어절1)과 매칭될 수 있다. 그 후, 단말기(100)는 매칭된 상기 입력어절데이터와 상기 기준어절데이터 사이의 거리차를 누적하여 어순일치결과를 산출할 수 있다(S620). 상기 거리차는 특정한 상기 입력어절데이터가 일치율이 가장 높은 기준어절데이터(즉, 매칭된 기준어절데이터)와 동일한 문장 내 위치에 배치되기 위해 이동되는 어절 개수일 수 있다. 기준어절데이터와의 일치율이 가장 높은 입력어절데이터가 상기 기준어절데이터로 사용자가 입력하고자 의도한 표현일 가능성이 높으므로, 단말기(100)는 일치율이 가장 높은 기준어절데이터와 입력어절데이터의 거리차를 산출하여 어순의 오류 정도 또는 어순의 일치율을 산출할 수 있다. 예를 들어, 도 4에서와 같이, 입력어절3은 기준어절1의 자리에 배치되기 위해 두 개의 어절만큼 이동되고 입력어절1은 기준어절3의 자리에 배치되기 위해 두 개의 어절만큼 이동되어서, 총 이동횟수(시프팅 횟수)인 어순일치결과는 4에 해당할 수 있다. 그 후, 단말기(100)는 각각의 상기 입력어절데이터에 대한 일치율을 바탕으로 어절일치결과를 산출할 수 있다(S630). 즉, 단말기(100)는 상호 일치하는 것으로 판단된 입력어절데이터와 기준어절데이터의 일치율을 반영하여 어절일치결과를 산출할 수 있다. 단말기(100)는 일치율에 따른 평가기준을 포함할 수 있고, 이에 따라 어절일치결과를 산출할 수 있다. 그 후, 단말기(100)는 상기 어절일치결과 및 상기 어순일치결과를 반영하여 평가점수를 산출할 수 있다(S640). First, the terminal 100 may match the input word data having the highest matching rate with the reference word data based on the comparison result between the reference word data and the input word data (S610). For example, as shown in FIG. 4, an input sentence corresponding to the input sign language data is compared with the phrase data of the reference sentence corresponding to the reference sentence data to calculate a match rate, and a criterion having the highest match rate (Ie, the input word 1 is the reference word 3, the input word 2 is the reference word 2, and the input word 3 is the reference word 1). Thereafter, the terminal 100 may calculate the word order match result by accumulating the difference in distance between the matched input word data and the reference word data (S620). The distance difference may be a number of phrases in which a specific input word data is shifted to be placed in the same sentence position as the reference word data having the highest matching rate (i.e., matched reference word data). Since the input word data having the highest concordance rate with the reference word data is likely to be the expression intended by the user as the reference word data, the terminal 100 calculates the distance between the reference word data having the highest concordance rate and the input word data The error rate of the word order or the concordance rate of the word order can be calculated. For example, as shown in FIG. 4, the input word 3 is shifted by two words to be placed at the position of the reference word 1, and the input word 1 is shifted by two words to be placed at the position of the reference word 3, The result of word order matching that is the number of shifts (shifting times) may correspond to 4. Thereafter, the terminal 100 may calculate a word match result based on the match rate for each of the input word data (S630). That is, the terminal 100 may calculate the word matching result by reflecting the matching rate of the input word data and the reference word data that are determined to be mutually coincident. The terminal 100 may include an evaluation criterion according to the matching rate, and thus the word matching result can be calculated. Thereafter, the terminal 100 may calculate the evaluation score by reflecting the word match result and the word match result (S640).

또한, 상기 어절일치결과 및 상기 어순일치결과를 바탕으로, 사용자에 대한 피드백데이터를 생성하는 단계;를 더 포함할 수 있다. 즉, 단말기(100)는 사용자가 입력한 입력수화데이터에서 어떠한 부분이 잘못되었는지에 대한 피드백(즉, 오답해설)을 사용자에게 제공할 수 있다. 예를 들어, 입력수화데이터가 기준수화데이터와 비교하여 어순이 잘못된 경우, 단말기(100)는 사용자에게 정답어순에 대한 설명을 제공할 수 있다. 또한, 특정한 입력어절데이터와 이에 매칭된 기준어절데이터 간의 일치율이 특정값 이하인 경우, 단말기(100)는 정답에 해당하는 기준어절데이터를 화면으로 제공할 수 있고, 어떤 부분(즉, 어떠한 신체부위의 움직임)이 잘못되었는지 화면상에 표시하여 설명할 수 있다.The method may further include generating feedback data for the user based on the word matching result and the word matching result. That is, the terminal 100 may provide the user with feedback (i.e., explanation of the wrong answer) as to what part is wrong in the inputted sign language data inputted by the user. For example, when the input sign language data is compared with the standard sign language data and the word order is incorrect, the terminal 100 may provide a description of the correct word order to the user. If the matching rate between the specific input word data and the matching reference word data is less than a specific value, the terminal 100 can provide the reference word data corresponding to the correct answer on the screen, Motion) can be displayed on the screen.

또한, 상기 평가점수를 반영하여 다음 문항데이터의 난이도를 결정하는 단계;를 더 포함할 수 있다. 이를 통해, 단말기(100)는 사용자의 수준에 부합하는 문항데이터를 순서대로 제공할 수 있어서, 사용자가 수화 학습을 어렵게 느껴서 흥미가 떨어지는 것을 방지할 수 있다.The method may further include determining difficulty level of the next item data by reflecting the evaluation score. Accordingly, the terminal 100 can sequentially provide the item data corresponding to the level of the user, thereby preventing the user from feeling less interested in sign language learning.

또한, 단말기(100)는, 신체움직임측정장치(200)가 비전센서장치를 포함하지 않는 경우에도, 초기위치 설정방식을 통해 사용자의 양팔의 움직임 또는 양손의 위치관계를 산출할 수 있다. 즉, 부착형 측정센서장치 또는 손 착용형 측정장치의 초기위치를 설정하고, 각 장치가 부착된 초기 위치에 대한 상대적 위치를 각 시점마다 측정하여 사용자의 양팔의 움직임 또는 양손의 위치관계를 파악할 수 있다.Also, even when the body motion measuring apparatus 200 does not include the vision sensor device, the terminal 100 can calculate the movement of the user's arms or the positional relationship of both hands through the initial position setting method. That is, the initial position of the attachment type measurement sensor device or the hand-held type measurement device is set, and the relative position with respect to the initial position where each device is attached is measured at each time point, have.

일실시예에서, 초기위치를 설정하기 위해, 상기 센싱데이터수신단계(S300)는, 사용자에게 특정한 기준자세 또는 기준움직임의 수행을 요청하는 단계; 및 상기 기준자세 또는 기준움직임에 따라 각각의 신체움직임측정장치(200)의 초기위치를 결정하는 단계;를 더 포함할 수 있다. 즉, 단말기(100)는 사용자로부터 특정한 기준자세 또는 기준움직임을 입력받아서 이후 수화동작을 판단하기 위한 초기위치(기준위치)를 설정할 수 있다. 예를 들어, 단말기(100)는 사용자에게 차려 자세를 요청할 수 있고, 이에 따른 사용자의 차려 자세 수행 시의 상태를 초기상태로 설정할 수 있다.In one embodiment, in order to set an initial position, the sensing data reception step (S300) includes: requesting a user to perform a specific reference posture or a reference movement; And determining an initial position of each of the body motion measuring apparatuses 200 according to the reference posture or the reference movement. That is, the terminal 100 may set an initial position (reference position) for receiving a specific reference posture or reference motion from a user and determining a hydration operation thereafter. For example, the terminal 100 may request the user to take a dress posture, and may set the state of the user at the time of performing the dress posture to the initial state.

또한, 일실시예는, 각 위치의 초기위치에 대한 상대적 위치를 산출하기 위해, 상기 입력수화데이터 생성단계(S400)는, 상기 초기위치를 기준으로 신체단위의 움직임을 추적하여, 왼손과 오른손의 위치관계를 산출할 수 있다. 예를 들어, 부착형 측정센서장치가 관성센서를 포함하는 경우, 관성센서에 의해 측정되는 사용자의 움직임을 누적하여 특정 시점의 상태를 파악할 수 있다. 즉, 특정 신체부위에 부착된 측정센서장치에 의해 측정되어 누적되는 가속도 크기 및 방향, 기울기 각도 등을 바탕으로 초기위치를 기준으로 특정시점의 위치를 계산할 수 있다. 구체적으로, 단말기(100)는 초기위치를 기준으로 제1시점(초기위치 산출 후 최초로 상대적 위치를 산출하는 시점)의 상대적 위치를 제1시점에 측정된 센싱데이터를 바탕으로 계산할 수 있고, 제2시점(제1시점 다음의 상대적 위치 산출시점)의 상대적 위치를 제1시점의 상대적 위치를 기준으로 제2시점에 측정된 센싱데이터를 바탕으로 계산할 수 있다.In an embodiment, in order to calculate a relative position with respect to an initial position of each position, the input sign language data generation step (S400) tracks the movement of the body unit on the basis of the initial position, The positional relationship can be calculated. For example, when the attachable type measurement sensor device includes an inertial sensor, it is possible to accumulate the movement of the user measured by the inertial sensor to grasp the state at a specific point in time. That is, the position at a specific time point can be calculated on the basis of the initial position based on the magnitude and direction of acceleration, the tilt angle, and the like, which are measured and accumulated by the measurement sensor device attached to a specific body part. Specifically, the terminal 100 can calculate the relative position of the first point of time (the point at which the relative position is calculated for the first time after calculating the initial position) on the basis of the initial position on the basis of the sensing data measured at the first point of time, The relative position of the time point (the relative position calculation time point after the first time point) can be calculated based on the sensing data measured at the second time point based on the relative position of the first time point.

이상에서 전술한 본 발명의 일실시예에 따른 수화교육방법은, 하드웨어인 단말기(100)와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The above-described sign language training method according to an embodiment of the present invention may be implemented as a program (or an application) to be executed in combination with the terminal 100 as hardware and stored in a medium.

상기 전술한 프로그램은, 상기 단말기(100)가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 클라이언트의 프로세서(CPU)가 상기 클라이언트의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 클라이언트의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 클라이언트의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 클라이언트의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 클라이언트의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 클라이언트의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program may be stored in a computer-readable medium such as C, C ++, JAVA or the like which can be read by the processor (CPU) of the client through the device interface of the client, in order for the terminal 100 to read the program, , A machine language, and the like. The code may include a functional code related to a function or the like that defines the necessary functions for executing the methods, and includes a control code related to an execution procedure necessary for the processor of the client to execute the functions in accordance with a predetermined procedure can do. In addition, the code may further include a memory reference related code for further information or media needed to cause the processor of the client to perform the functions to be referenced at any location (address) of the client's internal or external memory have. Further, when the processor of the client needs to communicate with any other computer or server that is remote to execute the functions, the code may be transmitted to any remote computer or server using the client's communication module A communication-related code for determining whether to communicate, what information or media should be transmitted or received during communication, and the like.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 클라이언트가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 클라이언트상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The medium to be stored is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and is capable of being read by a device. Specifically, examples of the medium to be stored include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, but are not limited thereto. That is, the program may be stored on various recording media on various servers to which the client can access, or on various recording media on the user's client. In addition, the medium may be distributed to a network-connected computer system so that computer-readable codes may be stored in a distributed manner.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, the following various effects are obtained.

첫째, 사용자는 실제로 수행하는 수화동작이 정확한 지 평가를 받을 수 있어서 수화 실력 향상에 도움이 될 수 있다.First, the user can be evaluated whether the actual hydration operation is correct, which can help improve the hydration ability.

둘째, 본 발명을 통해 사용자는 단어에 대한 동작의 정확도뿐만 아니라, 특정한 문장의 수화어순의 정확도도 평가받을 수 있다. 따라서, 한국어 어순과 상이한 수화 어순을 사용자가 정확하게 익힐 수 있다.Second, through the present invention, the user can evaluate not only the accuracy of the operation on the word but also the accuracy of the sign language of the specific sentence. Therefore, the user can accurately learn the sign language order different from the Korean word order.

셋째, 본 발명을 통해, 언어별로 상이한 수화의 데이터베이스만 추가하면, 사용자는 다양한 국가의 수화를 하나의 단말기를 통해 학습할 수 있는 효과가 있다.Thirdly, according to the present invention, if only a database of sign language different for each language is added, the user can learn the sign language of various countries through one terminal.

넷째, 비전센서 또는 초기측정위치를 통해 사용자의 왼손 및 오른손의 위치관계를 획득할 수 있어서, 본 발명은 사용자의 양 손 사이의 위치관계가 정확한 지 여부를 평가할 수 있다.Fourth, since the positional relationship between the left hand and the right hand of the user can be obtained through the vision sensor or the initial measurement position, the present invention can evaluate whether or not the positional relationship between the two hands of the user is correct.

다섯째, 문항데이터를 다양하게 구축하여 사용자의 상황에 꼭 필요한 수화 문항 학습을 수행하도록 할 수 있다. 또한, 다양한 컨텐츠와 결합하여 제공할 수 있어서, 사용자가 즐겁게 수화를 배우도록 할 수 있다. 또한, 수화 평가를 통해 사용자의 학습 정도에 적합한 문항을 제시하여, 사용자에게 수준별 학습을 제공할 수 있다.Fifth, it is possible to construct a variety of item data, so that it is possible to perform hydration item learning necessary for the user's situation. In addition, it can be provided in combination with various contents, so that the user can enjoy learning the sign language happily. In addition, through the evaluation of sign language, questions appropriate to the level of the user's learning can be presented, and the level-specific learning can be provided to the user.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

Claims (12)

단말기가 특정한 문항데이터를 추출하여 제공하는 단계;
상기 문항데이터에 상응하는 기준수화데이터를 추출하는 단계;
하나 이상의 신체움직임측정장치로부터 센싱데이터를 수신하는 단계;
하나 이상의 상기 센싱데이터를 결합하여 입력수화데이터를 생성하는 단계;
상기 입력수화데이터와 기준수화데이터를 비교하여 비교결과를 산출하는 단계; 및
상기 비교결과를 바탕으로 상기 문항데이터에 대한 평가를 수행하는 단계;를 포함하되,
상기 평가수행단계는,
상기 문항데이터가 문장인 경우,
상기 단말기가 상기 기준수화데이터의 하나 이상의 기준어절데이터와 상기 입력수화데이터의 하나 이상의 입력어절데이터를 각각 비교하여, 일치율을 산출하는 단계;
일치율이 가장 높은 상기 입력어절데이터와 상기 기준어절데이터를 매칭하는 단계;
상기 입력어절데이터와 상기 기준어절데이터 사이의 거리차를 누적하여 어순일치결과를 산출하되, 상기 거리차는 특정한 상기 입력어절데이터가 일치율이 가장 높은 기준어절데이터와 동일한 문장 내 위치에 배치되기 위해 이동되는 어절 개수인, 단계;
각각의 상기 기준어절데이터에 매칭된 상기 입력어절데이터의 일치율을 바탕으로 어절일치결과를 산출하는 단계; 및
상기 어절일치결과 및 상기 어순일치결과를 반영하여 평가점수를 산출하는 단계;를 포함하는, 수화교육방법.
Extracting and providing specific item data from the terminal;
Extracting reference sign language data corresponding to the item data;
Receiving sensing data from one or more body motion measurement devices;
Combining at least one of the sensing data to generate input signatures;
Comparing the input sign language data with reference sign language data and calculating a comparison result; And
And performing an evaluation on the item data based on the comparison result,
In the evaluation step,
If the item data is a sentence,
The terminal compares one or more reference word data of the reference sign language data with one or more input word data of the input sign language data to calculate a matching rate;
Matching the input word data having the highest match rate with the reference word data;
Wherein the distance difference is calculated by accumulating distance differences between the input word data and the reference word data to calculate a word order match result, wherein the distance difference is shifted so that the specified input word data is arranged in the same sentence position as the reference word data having the highest match rate The number of words;
Calculating a word matching result based on a matching rate of the input word data matched to each of the reference word data; And
And calculating an evaluation score by reflecting the word match result and the word match result.
제1항에 있어서,
상기 기준수화데이터 추출단계는,
상기 단말기 내 데이터베이스에 상기 문항데이터와 매칭되어 저장된 기준수화데이터를 추출하는 것을 특징으로 하는, 수화교육방법.
The method according to claim 1,
Wherein the step of extracting the reference sign language-
And extracting the reference sign language data stored in the database in the terminal so as to match the question data.
제1항에 있어서,
상기 문항데이터가 문장에 해당하는 경우,
상기 기준수화데이터 추출단계는,
상기 문항데이터의 어순을 수화어순으로 변경하는 단계; 및
상기 문항데이터의 각 어절에 대응하는 수화데이터를 탐색하여 매칭하는 단계;를 포함하는, 수화교육방법.
The method according to claim 1,
If the item data corresponds to a sentence,
Wherein the step of extracting the reference sign language-
Changing a word order of the item data into a word order; And
And searching for and matching matched data corresponding to each word of the question data.
제1항에 있어서,
상기 신체움직임측정장치가 장갑형 측정장치 및 부착형 측정센서장치를 포함하는 경우,
상기 센싱데이터 수신단계는,
상기 장갑형 측정장치로부터 손가락움직임 및 손목움직임의 센싱데이터를 수신하는 단계; 및
각각의 신체단위에 부착된 측정센서장치로부터 센싱데이터를 수신하는 단계;를 포함하는, 수화교육방법.
The method according to claim 1,
When the body motion measuring device includes a glove measuring device and an attachable measuring sensor device,
The sensing data receiving step includes:
Receiving sensory data of finger movements and wrist movements from the glove-type measurement device; And
And receiving sensing data from a measurement sensor device attached to each body unit.
제4항에 있어서,
상기 센싱데이터수신단계는,
사용자에게 특정한 기준자세 또는 기준움직임의 수행을 요청하는 단계; 및
상기 기준자세 또는 기준움직임에 따라 각각의 신체움직임측정장치의 초기위치를 결정하는 단계;를 더 포함하는, 수화교육방법.
5. The method of claim 4,
The sensing data receiving step includes:
Requesting a user to perform a specific reference posture or a reference motion; And
Determining an initial position of each body motion measurement device in accordance with the reference posture or the reference motion.
제5항에 있어서,
상기 입력수화데이터 생성단계는,
상기 초기위치를 기준으로 신체단위의 움직임을 추적하여, 왼손과 오른손의 위치관계를 산출하는 것을 특징으로 하는, 수화교육방법.
6. The method of claim 5,
Wherein the input sign language data generation step comprises:
Wherein the positional relationship between the left hand and the right hand is calculated by tracking the movement of the body unit based on the initial position.
제4항에 있어서,
상기 신체움직임측정장치가 비전센서장치를 포함하는 경우,
상기 비전센서장치에 의해 획득되는 영상을 수신하는 단계로서, 상기 영상은 사용자의 양손을 포함하는, 영상수신단계; 및
상기 영상 내의 왼손 및 오른손의 위치관계를 인식하는 단계;를 더 포함하는, 수화교육방법.
5. The method of claim 4,
If the body motion measuring device includes a vision sensor device,
Receiving an image obtained by the vision sensor device, the image including both hands of a user; And
And recognizing a positional relationship between a left hand and a right hand in the image.
제1항에 있어서,
상기 평가수행단계는,
상기 문항데이터가 단어인 경우,
상기 문항데이터에 상응하는 단어의 상기 기준수화데이터와 상기 입력수화데이터의 일치율을 산출하는 단계;를 포함하는, 수화교육방법.
The method according to claim 1,
In the evaluation step,
If the item data is a word,
And calculating a matching rate of the input sign language data with the reference sign language data of the word corresponding to the question data.
삭제delete 제1항에 있어서,
상기 어절일치결과 및 상기 어순일치결과를 바탕으로, 사용자에 대한 피드백데이터를 생성하는 단계;를 더 포함하는, 수화교육방법.
The method according to claim 1,
And generating feedback data for the user based on the word match result and the word match result.
제1항에 있어서,
상기 평가점수를 반영하여 다음 문항데이터의 난이도를 결정하는 단계;를 더 포함하는, 수화교육방법.
The method according to claim 1,
And determining the difficulty level of the next question data by reflecting the evaluation score.
하드웨어인 단말기와 결합되어, 제1항 내지 제8항, 제10항, 제11항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 수화교육 프로그램.11. A sign language training program, coupled to a terminal that is hardware, stored on a medium for carrying out the method of any one of claims 1-8, 10, 11.
KR1020157029063A 2015-10-13 2015-10-13 System, method and program for educating sign language KR101793607B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/010744 WO2017065324A1 (en) 2015-10-13 2015-10-13 Sign language education system, method and program

Publications (2)

Publication Number Publication Date
KR20170054198A KR20170054198A (en) 2017-05-17
KR101793607B1 true KR101793607B1 (en) 2017-11-20

Family

ID=58518341

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157029063A KR101793607B1 (en) 2015-10-13 2015-10-13 System, method and program for educating sign language

Country Status (2)

Country Link
KR (1) KR101793607B1 (en)
WO (1) WO2017065324A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102576358B1 (en) * 2022-12-23 2023-09-11 주식회사 케이엘큐브 Learning data generating device for sign language translation and method of operation thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200094570A (en) 2019-01-30 2020-08-07 한밭대학교 산학협력단 Sign Language Interpretation System Consisting Of Sign Language Gloves And Language Converting Glasses
CN110457673B (en) * 2019-06-25 2023-12-19 北京奇艺世纪科技有限公司 Method and device for converting natural language into sign language
KR102436239B1 (en) * 2020-11-28 2022-08-24 동서대학교 산학협력단 Hand shape matching VR sign language education system using gesture recognition technology

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030191779A1 (en) 2002-04-05 2003-10-09 Hirohiko Sagawa Sign language education system and program therefor
JP3823604B2 (en) 1999-05-18 2006-09-20 株式会社日立製作所 Sign language education apparatus, sign language education method, and recording medium on which sign language education method is recorded
KR100953979B1 (en) * 2009-02-10 2010-04-21 김재현 Sign language learning system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100248391B1 (en) * 1998-04-24 2000-03-15 정선종 A system and methodology of communication for the deaf and the blind
KR100762200B1 (en) * 2006-02-13 2007-10-04 (주)아이디팩트글로벌 Self learning device for talking with the hands

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3823604B2 (en) 1999-05-18 2006-09-20 株式会社日立製作所 Sign language education apparatus, sign language education method, and recording medium on which sign language education method is recorded
US20030191779A1 (en) 2002-04-05 2003-10-09 Hirohiko Sagawa Sign language education system and program therefor
JP2003295754A (en) * 2002-04-05 2003-10-15 Hitachi Ltd Sign language teaching system and program for realizing the system
KR100953979B1 (en) * 2009-02-10 2010-04-21 김재현 Sign language learning system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102576358B1 (en) * 2022-12-23 2023-09-11 주식회사 케이엘큐브 Learning data generating device for sign language translation and method of operation thereof

Also Published As

Publication number Publication date
WO2017065324A1 (en) 2017-04-20
KR20170054198A (en) 2017-05-17

Similar Documents

Publication Publication Date Title
US10446059B2 (en) Hand motion interpretation and communication apparatus
US11900939B2 (en) Display apparatus and method for registration of user command
US20160042228A1 (en) Systems and methods for recognition and translation of gestures
EP2891954B1 (en) User-directed personal information assistant
CN108806669B (en) Electronic device for providing voice recognition service and method thereof
US9063704B2 (en) Identifying gestures using multiple sensors
US20170323641A1 (en) Voice input assistance device, voice input assistance system, and voice input method
EP3701524A1 (en) Joint audio-video facial animation system
US20130108994A1 (en) Adaptive Multimodal Communication Assist System
US20150084859A1 (en) System and Method for Recognition and Response to Gesture Based Input
KR101793607B1 (en) System, method and program for educating sign language
US10741175B2 (en) Systems and methods for natural language understanding using sensor input
KR20170065563A (en) Eye glaze for spoken language understanding in multi-modal conversational interactions
CN104054039A (en) Augmented Reality With Sound And Geometric Analysis
EP2940551B1 (en) Method and device for implementing voice input
US20140111418A1 (en) Method for recognizing user context using multimodal sensors
US11918883B2 (en) Electronic device for providing feedback for specific movement using machine learning model and operating method thereof
US20190138117A1 (en) Information processing device, information processing method, and program
CN111160308B (en) Gesture recognition method, device, equipment and readable storage medium
CN111723843A (en) Sign-in method, device, electronic equipment and storage medium
KR20160060385A (en) Apparatus and method for inputting korean based on a motion of users fingers
Chippendale et al. Personal shopping assistance and navigator system for visually impaired people
US20200082170A1 (en) Method and electronic device for providing object recognition result
KR102009150B1 (en) Automatic Apparatus and Method for Converting Sign language or Finger Language
CN112309389A (en) Information interaction method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right