KR20190004486A - Method for training conversation using dubbing/AR - Google Patents

Method for training conversation using dubbing/AR Download PDF

Info

Publication number
KR20190004486A
KR20190004486A KR1020170084759A KR20170084759A KR20190004486A KR 20190004486 A KR20190004486 A KR 20190004486A KR 1020170084759 A KR1020170084759 A KR 1020170084759A KR 20170084759 A KR20170084759 A KR 20170084759A KR 20190004486 A KR20190004486 A KR 20190004486A
Authority
KR
South Korea
Prior art keywords
conversation
training
learner
learning
dubbing
Prior art date
Application number
KR1020170084759A
Other languages
Korean (ko)
Other versions
KR101949997B1 (en
Inventor
조희정
Original Assignee
조희정
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조희정 filed Critical 조희정
Priority to KR1020170084759A priority Critical patent/KR101949997B1/en
Publication of KR20190004486A publication Critical patent/KR20190004486A/en
Application granted granted Critical
Publication of KR101949997B1 publication Critical patent/KR101949997B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B17/00Teaching reading
    • G09B17/003Teaching reading electrically operated apparatus or devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Educational Technology (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The purpose of the present invention is to provide a means of enabling a learner requiring conversation learning to perform conversation training. According to an embodiment of the present invention, a participation type learning method for a conversation training using dubbing/augmented reality (AR), which enables the learner to learn the conversation training by a conversation training content application installed in a learner terminal, comprises: a conversation training content selecting process of determining the selected content as a conversation training content by allowing the learner to select a content having conversation contents and conversation training learning level to be used in the conversation training learning; a conversation learning training process of allowing the conversation training to be performed through a conversation training screen by providing a conversation training screen of the conversation training content; a conversation actual dubbing training process of allowing the conversation training to be performed through a conversation actual dubbing by providing a conversation actual dubbing screen of the conversation training content when an evaluation result obtained by performing an evaluation process after finishing the conversation learning training falls short of a preset standard; and an AR training process of allowing the conversation training to be performed through AR by providing an AR screen of the conversation training content when an evaluation result obtained by performing an evaluation process after finishing the conversation actual dubbing training falls short of a preset standard.

Description

더빙/증강현실을 이용한 참여형 대화훈련 학습 방법{Method for training conversation using dubbing/AR}[0001] The present invention relates to a method for training conversation using dubbing /

본 발명은 참여형 대화훈련 학습 방법으로서, 더빙/증강현실을 이용하여 대화훈련 학습을 제공하는 참여형 대화훈련 학습 방법에 관한 것이다.The present invention relates to a participatory dialog training and learning method, and more particularly, to a participatory dialog training and learning method that provides conversation training using a dubbing / augmenting reality.

일반적인 발달성 장애치료 및 교육 방법에 있어서, 치료전문기관 및 전문가를 통한 치료 및 교육은 장애우에 대한 전문적인 치료가 가능하고, 신뢰를 형성할 수 있는 장점에 비해, 치료전문가의 부족, 경제적 부담, 이용 접근성의 부족, 치료이용시간 부족, 치료이용의 대기시간과 같은 단점이 있다. 또한, 사설 치료기관 및 복지시설을 통한 치료 및 교육은 치료비용이 저렴한 장점이 있으나, 치료사들의 전문성 부족, 시설의 열악함, 전문기관과의 연계부족, 치료이용 대기시간과 같은 단점이 있다. 또한, PC용 치료 S/W 프로그램을 이용한 치료 및 교육은 경제적 부담 감소, 접근성 및 편의성 향상의 장점이 있으나, 전문기관과의 연계부족, 대화훈련이 필요한 학습자에게 필요한 전문적인 학습 프로그램의 부재와 같은 단점이 있다.In the treatment and education methods of general developmental disorders, treatment and education through treatment specialists and specialists can provide professional treatment for persons with disabilities, There are disadvantages such as lack of accessibility to use, lack of time for treatment, and waiting time for treatment. In addition, treatment and education through private treatment facilities and welfare facilities have advantages such as low cost of treatment but shortcomings such as lack of expertise of therapists, inferiority of facilities, lack of connection with professional organizations, and waiting time for treatment. In addition, the treatment and education using the treatment S / W program for PC has the advantages of reducing economic burden, improving accessibility and convenience, but also lacking the linkage with professional organizations, lack of specialized learning programs There are disadvantages.

이러한 종래 발달성 장애치료 및 교육 방법은 접근성의 부족, 대기시간의 증가로 인한 치료시기의 지연, 전문가와의 연계 부족으로 인해 치료결과에 대한 즉각적 피드백이 어려우며, 전문적인 평가 및 조언이 부족한 문제점이 있다.Such conventional developmental disorder treatment and education methods are difficult to provide immediate feedback on treatment results due to lack of accessibility, delay in treatment due to increase in waiting time, lack of connection with experts, and lack of professional evaluation and advice have.

한편, 최근 급격히 증가하고 있는 다문화 가정의 자녀에 대한 언어교육이 필요하지만 대부분 전문기관의 방문을 통해서만 가능한 상황이다. 또한, 매년 장애우 수가 증가하는 추세이지만, 이에 비례하여 복지시설 및 치료/교육기관이 현저히 부족한 상황이다.On the other hand, language education for the children of multicultural families, which are growing rapidly in recent years, is necessary, but most of them are only possible through visiting specialist institutions. In addition, although the number of people with disabilities is increasing every year, proportionately there is a lack of welfare facilities and treatment / education facilities.

이와 같이 부족한 치료/교육 기관으로 인해 치료/교육서비스의 질적 저하가 우려되며, 치료/교육 대기 시간의 증가로 인해 치료/교육 시기가 지연되거나 치료/교육기간이 장기화되는 문제점이 있다.As a result of the lack of such treatment / education institutions, there is a concern that the quality of the treatment / education service is deteriorated and the treatment / education time is delayed or the treatment / education period is prolonged due to the increase of treatment / education waiting time.

이에, 최근에는 언어학습용 콘텐츠가 제공되고 있으나 대화훈련에 있어서 실효성이 떨어지는 문제가 있다. 즉, 기존의 언어학습용 콘텐츠의 제작 및 사용자에게 제공하는 방법은, 대부분 한가지 녹음대본은 한가지 음성과 한 가지 발음속도로만 제작하여 사용자에게 제공되었다. 또한 발음속도도 대부분 모국어 사용자의 정상적인 대화속도이다 보니, 비록 컴퓨터와 인터넷의 편리한 반복 재생기능을 언어학습에 활용한다고 해도 이러한 한가지 형태의 콘텐츠 제공만으로는 대화훈련 효과를 기대할 수 없는 문제가 있다.Thus, although language learning contents are provided in recent years, there is a problem that effectiveness in conversation training is poor. In other words, the method of producing the existing language learning contents and providing to the user was provided to the user by making only one recording script with one voice and one pronunciation speed. In addition, since the pronunciation speed is the normal conversation speed of the native language users, even if the computer and the Internet are conveniently used for the language learning, there is a problem that the effect of the conversation training can not be expected only by providing such one type of contents.

또한, 언어치료 및 교육의 최종 목표가 의사소통, 즉 대화능력임에도 불구하고 현재 언어치료 및 교육 방법에 있어서도, 다양한 대화기술을 충분히 학습하고 연습하는데 제한이 있다. 현재 언어치료에서 대화를 지도하는 내용은 인사하기, 장난감 공유하기, 안부 묻기 등의 학습자가 자주 경험되는 간단하거나 짧은 대화 상황이나, 치료 장면에서 상황을 연출하기 가능한 대화 주제로 한정되어 있다. 치료 및 교육 장면에서 대화기술을 지도하는 방식으로는 스크립트나 놀이 등으로 대화기술을 학습하거나 연습하도록 하는데, 일반화하는데 몇 가지 한계점이 있다. 1:1 개별 지도에서는 학습자 특성을 고려한 학습자료나 방법으로 대화기술을 지도할 수 있지만 다양한 대화 상대나 상황에 대한 경험을 제공하는데 한계가 있다. 집단지도는 개별지도보다 더 자연스러운 대화 연습이 가능하다는 점에서는 장점이지만, 대화기술이 부족한 대상들이 집단 구성원으로 구성된다는 점과 대화 주제가 한정된다는 점에서 마찬가지로 대화훈련의 제한이 있다. 가정에서 대화훈련을 하기에는 학습자에게 적합한 학습자료와 전문적이고 학습 지도 및 피드백을 즉각적으로 제공하기가 어렵다. 이처럼 대화훈련을 지도할 수 있는 전문적인 치료기관 및 전문가를 통한 치료 및 교육에 있어서도 충분한 대화훈련 학습자료나 방법을 제공하는데 제한이 있고, 경제적 부담으로 인한 충분한 치료 이용시간의 부족, 이용 접근성의 부족, 치료이용의 대기시간과 같은 단점이 있다. 또, PC용 치료 S/W 프로그램을 이용한 치료 및 교육은 경제적 부담 감소, 접근성 및 편의성 향상의 장점이 있으나, 현재 대화훈련을 위한 치료 S/W 프로그램이 부족하고 실효성이 부족한 경향이 있다. 기존의 언어학습용 콘텐츠의 제작 및 사용자에게 제공하는 방법은, 대부분 한가지 녹음대본은 한가지 음성과 한 가지 발음속도로만 제작하여 사용자에게 제공되었다. 또한 발음속도도 대부분 모국어 사용자의 정상적인 대화속도이다 보니, 비록 컴퓨터와 인터넷의 편리한 반복 재생기능을 언어학습에 활용한다고 해도 이러한 한가지 형태의 콘텐츠 제공만으로는 대화훈련 효과를 기대할 수 없는 문제가 있다. 또한 개발된 치료 S/W 프로그램에 포함된 내용도 음식 주문하기 등 일상적인 스크립트에 한해 대화훈련이 필요한 학습자가 충분히 대화학습을 하기에 주제나 대화내용이 부족하고, 대화학습이 일방향으로 제시된다. 대화는 양방향으로 진행된다는 점을 고려해볼 때, 학습자가 대화상황에 참여하여 대화기술을 실제적으로 학습하고 연습하는 것이 필요하다.In addition, although the final goal of language therapy and education is communication, that is, communication ability, current language therapy and education methods are limited in learning and practicing various conversation skills. Currently, conversational guidance in language therapy is limited to simple or short conversation situations in which learners are often experienced, such as greeting, toys, and asking questions, or conversational topics that can be used to direct situations in a therapy scene. There are some limitations to generalization in teaching and practicing conversation skills such as scripting and play in the way of teaching conversation skills in therapy and education scenes. In the 1: 1 tutorial, it is possible to teach conversational skills using learning materials or methods considering learner characteristics, but there are limitations in providing experience with various conversations or situations. Group map is advantageous in that it is possible to practice more natural conversation than individual map, but there is a limit of dialogue training because the subjects lacking dialogue skills consist of group members and the topic of conversation is limited. It is difficult to provide appropriate learning materials and professional and instructional guidance and feedback immediately for the learner in conversation training at home. There is a limit to providing adequate conversation training materials and methods for treatment and education through professional treatment institutions and experts who can teach conversation training, lack of sufficient time for treatment due to economic burden, lack of accessibility , And waiting time for treatment. In addition, treatment and education using PC therapy S / W program has advantages of reduced economic burden, accessibility, and convenience, but currently there is a lack of therapeutic S / W program for dialogue training and lack of effectiveness. The method of producing the existing language learning contents and providing it to the user was provided to the user by making only one recording script with one voice and one pronunciation speed. In addition, since the pronunciation speed is the normal conversation speed of the native language users, even if the computer and the Internet are conveniently used for the language learning, there is a problem that the effect of the conversation training can not be expected only by providing such one type of contents. In addition, contents included in the developed therapy S / W program are lacking in the topic or conversation contents because the learner who needs conversation training needs enough conversation learning only in daily script such as ordering food, and conversation learning is presented in one direction. Considering that the conversation is two-way, it is necessary for the learner to participate in the conversation situation and to practice and practice the conversation skills practically.

한국공개특허 제10-2010-0005177호Korean Patent Publication No. 10-2010-0005177

본 발명의 기술적 과제는 대화학습이 필요한 학습자(언어발달이 느린 유아동, 사회적 의사소통 장애와 말더듬, 조음장애를 비롯한 언어장애, 자폐성 장애를 포함한 발달장애, 선택적 함묵증처럼 대인관계 특히 대화능력이 부족한 사람, 심리적으로 위축되거나 사회성이 부족한 사람 등)가 대화훈련을 할 수 있도록 하는 수단을 제공하는데 있다.The technical object of the present invention is to provide a method and apparatus for a learner who needs conversational learning, such as a learner with slow language development, social communication disorder and stuttering, language disorder including articulatory disorder, developmental disorder including autistic disorder, People, psychologically depressed, or lack of social skills, etc.) are able to conduct conversational training.

본 발명의 실시 형태는 학습자 단말기에 설치된 대화훈련콘텐츠앱이 학습자에 대한 대화훈련 학습을 시키는 더빙/AR을 이용한 참여형 대화훈련 학습 방법에 있어서, 대화훈련학습에 사용될 대화내용과 대화훈련학습수준을 가지는 콘텐츠를 학습자로부터 선택받아, 선택된 콘텐츠를 대화훈련콘텐츠로 결정하는 대화훈련콘텐츠 선택 과정; 대화훈련콘텐츠의 대화훈련화면을 제공하여 대화훈련화면을 통한 대화훈련이 이루어지도록 하는 대화학습 훈련 과정; 상기 대화학습 훈련 종료 후 평가를 거쳐 미리 설정된 기준에 미달할 경우, 대화훈련콘텐츠의 대화실전더빙화면을 제공하여 대화실전더빙을 통한 대화훈련이 이루어지도록 하는 대화실전더빙 훈련 과정; 및 상기 대화실전더비 훈련 종료 후 평가를 거쳐 미리 설정된 기준에 미달할 경우, 대화훈련콘텐츠의 증강현실화면을 제공하여 증강현실을 통한 대화훈련이 이루어지도록 하는 증강현실 훈련 과정;을 포함할 수 있다.The embodiment of the present invention is a participant-type conversation training learning method using a dubbing / AR in which a conversation training content app installed in a learner terminal performs conversation training learning for a learner, A dialog training content selection process of selecting a content from a learner and determining the selected content as a conversation training content; A conversation learning training process for providing a conversation training screen of conversation training contents to allow conversation training through a conversation training screen; A conversation practice dubbing training process for providing a conversation practice dubbing screen of the conversation training contents so as to conduct conversation training through dubbing conversation dubbing when evaluation after completion of the conversation learning training is less than a predetermined standard; And an augmented reality training process for providing conversation training through the augmented reality by providing an augmented reality screen of the conversation training content when evaluation after completion of the conversation practice derby training is less than a predetermined standard.

상기 대화훈련콘텐츠 선택 과정은, 대화 써클수, 대화 주제, 대화참여 인원수를 학습자로부터 선택받음으로써 대화훈련학습수준이 결정되도록 함을 특징으로 할 수 있다.In the dialog training content selection process, a conversation training learning level is determined by selecting a number of conversation circles, a conversation topic, and a conversation participant number from a learner.

상기 대화학습 훈련 과정은, 상기 대화훈련콘텐츠의 대화 동영상을 재생하는 대화 동영상 재생 과정; 상기 대화 동영상 재생 중에 대화가 생략된 등장인물의 등장시에 화면을 정지하고, 학습자로부터 발성되는 대화음성을 학습자 대화내용으로 입력받는 학습자 대화내용 입력 과정; 학습자로부터 입력된 학습자 대화내용의 음성을 분석하여, 학습자 대화내용이 미리 설정된 대화평가기준에 부합하는 대화내용인 경우 대화학습 훈련 성공으로 결정하며, 학습자 대화내용이 상기 대화평가기준에 부합하지 않는 대화내용인 경우 대화학습 훈련 실패로 결정하는 대화학습 평가 과정; 상기 대화학습 훈련 성공으로 결정되면, 학습자 요청이 있는 경우 상기 대화실전더빙 훈련 과정을 수행하는 대화실전더빙화면 이동 과정; 및 상기 대화학습 훈련 실패로 결정되면, 학습자에 대해 대화학습 피드백 학습이 이루어지도록 하는 대화학습 피드백 학습 과정;을 포함할 수 있다.Wherein the conversation learning training process includes: a conversation moving picture playback process of playing a conversation moving picture of the conversation training content; A learner conversation content input process of stopping the screen at the time of appearance of a character whose dialogue is omitted during the conversation movie reproduction and inputting a conversation voice uttered by the learner as learner conversation contents; The learner's conversation content is determined to be success in the case of the conversation content meeting the predetermined conversation evaluation criterion and the learner conversation content is determined to be a conversation learning content that does not meet the conversation evaluation criteria A conversation learning evaluation process that decides that conversational learning training is failed if the content is content; A conversation execution dubbing screen movement process of performing the conversation practice dubbing training process when it is determined that the conversation learning training is successful; And a conversation learning feedback learning process for allowing the conversation learning feedback learning to be performed for the learner when it is determined that the conversation learning is failed.

상기 학습자 대화내용 입력 과정은, 학습자로부터 발성되는 대화음성을 문자로 변환하여 화면에 표시할 수 있다.The learner conversation contents input process can convert the conversation voice uttered by the learner into characters and display them on the screen.

상기 대화학습 피드백 학습 과정은, 대화훈련 실패되었음을 알려주는 대화학습 결과 피드백 과정; 대화예시를 제시하고, 대화훈련 실패로 결정된 학습자로부터 대화예시 중에서 어느 하나의 대화예시를 선택받는 과정; 학습자 음성을 입력받아, 입력된 학습자 음성이 대화예시와 오차 범위내에서 일치하는 경우 대화예시 훈련 성공으로 결정하며, 일치하지 않는 경우 대화예시 훈련 실패로 결정하는 과정; 상기 대화예시 훈련 실패로 결정되는 경우, 대화내용을 재생하여 학습자가 대화내용을 듣도록 하는 과정; 대화내용을 모방하는 학습자 음성을 입력받아, 입력된 학습자 음성이 재생되는 대화내용과 오차 범위내에서 일치하는 경우 대화모방 훈련 성공으로 결정하며, 일치하지 않는 경우 대화모방 훈련 실패로 결정하는 과정; 상기 대화모방 훈련 실패로 결정되는 경우, 대화내용을 음성변환한 음성변환 대화내용을 재생하여 학습자가 음성변환 대화내용을 듣도록 하는 과정; 및 음성변환 대화내용을 모방하는 학습자 음성을 입력받아, 입력된 학습자 음성이 재생되는 음성변환 대화내용과 오차 범위내에서 일치하는 경우 음성변환 훈련 성공으로 결정하며, 일치하지 않는 경우 음성변환 훈련 실패로 결정하는 과정;을 포함할 수 있다.The dialog learning learning learning process includes a dialog learning result feedback process for notifying that the conversation training has failed; A step of presenting a conversation example and selecting one of the conversation examples from among the conversation examples from the learner determined to have failed the conversation training; A step of receiving a learner voice and determining that the learner's voice is successful if the learner's voice coincides with the dialogue example within an error range; A step of causing the learner to listen to the conversation contents by reproducing the conversation contents when it is determined that the conversation example training is failed; Receiving a learner voice that imitates conversation contents and determining that conversation imitation training is successful if the input learner voice coincides with the conversation contents within an error range; A step of allowing the learner to listen to the speech conversion conversation contents by reproducing the speech conversion conversation contents in which the conversation contents are voice-converted when the conversation imitation training failure is determined; And a learner's voice imitating the conversation conversation contents. If the inputted learner's speech coincides with the conversation conversation contents reproduced within the error range, it is determined that the speech conversion training is successful. And a determining process.

상기 대화내용을 음성변환하는 것은, 등장인물의 음성을 음성증폭, 속도조절하여 변환함을 특징으로 할 수 있다.The voice conversion of the conversation contents is characterized in that the voice of the character is converted by voice amplification and speed control.

상기 대화실전더빙 훈련 과정은, 상기 대화훈련콘텐츠의 대화 동영상을 재생하는 대화 동영상 재생 과정; 상기 대화 동영상 재생 중에 대화가 생략된 등장인물의 등장시에 화면 정지 없이 학습자로부터 발성되는 대화음성을 학습자 더빙음성으로서 실시간으로 입력받는 학습자 더빙음성 입력 과정; 학습자로부터 입력된 학습자 더빙음성을 분석하여, 학습자 더빙음성이 미리 설정된 대화평가기준에 부합하는 더빙음성인 경우 더빙음성 훈련 성공으로 결정하며, 학습자 더빙음성이 상기 대화평가기준에 부합하지 않는 더빙음성인 경우 더빙음성 훈련 실패로 결정하는 더빙음성 평가 과정; 상기 더빙음성 훈련 성공으로 결정되면, 학습자 요청이 있는 경우 상기 증강현실 훈련 과정을 수행하는 증강현실화면 이동 과정; 및 상기 더빙음성 훈련 실패로 결정되면, 학습자에 대해 더빙음성 피드백 학습이 이루어지도록 하는 더빙음성 피드백 학습 과정;을 포함할 수 있다.Wherein the conversation execution dubbing training process comprises: a dialogue moving picture playback process of playing a conversation moving picture of the conversation training content; A learner dubbing voice input process in which a conversation voice uttered from a learner is input as a learner dubbing voice in real time when a character whose communication is omitted during the reproduction of the conversation moving picture is input; The learner's dubbing voice inputted from the learner is analyzed to determine success of the dubbing voice training when the learner's voice is a dubbing voice conforming to a predetermined conversation evaluation standard, A dubbing voice evaluation process for determining a dubbing voice training failure; An augmented reality screen movement process for performing the augmented reality training process when it is determined that the dubbing voice training is successful; And a dubbing voice feedback learning process for causing a learner to perform dubbing voice feedback learning when it is determined that the dubbing voice training is unsuccessful.

상기 더빙음성 피드백 학습 과정은, 더빙음성 훈련 실패되었음을 피드백하여 알려주는 과정; 대화더빙을 이용한 대화학습에 사용되는 대화더빙 관련 학습자료를 제공하는 과정; 상기 대화더빙 관련 학습자료를 이용해 학습한 학습자로부터 더빙음성을 입력받아, 입력되는 학습자 더빙음성이 상기 대화평가기준에 부합하는 경우 1차학습 더빙음성 훈련 성공으로 결정하며, 부합하지 않는 경우 1차학습 더빙음성 훈련 실패로 결정하는 과정; 상기 1차학습 더빙음성 훈련 실패로 결정되는 경우, 1차학습 더빙음성 훈련 실패 원인을 분석하여 대화더빙 수정 학습자료를 제공하는 과정; 및 상기 대화더빙 수정 학습자료를 이용해 학습한 학습자로부터 더빙음성을 입력받아, 입력되는 학습자 더빙음성이 상기 대화평가기준에 부합하는 경우 2차학습 더빙음성 훈련 성공으로 결정하며, 부합하지 않는 경우 2차학습 더빙음성 훈련 실패로 결정하는 과정;을 포함할 수 있다.Wherein the dubbing voice feedback learning process comprises: a step of feedbacking that dubbing voice training has failed; A process of providing conversation dubbing related learning materials used for conversation learning using conversation dubbing; A dubbing voice is input from a learned learner using the conversation dubbing-related learning material, and when the inputted learner dubbing voice meets the conversation evaluation criteria, it is determined that the first learning dubbing voice training is successful, Dubbing voice training failure; Analyzing the cause of the failure of the first learning dubbing voice training and providing communication dubbing correction learning data when it is determined that the first learning dubbing voice training is failed; And a second learning dubbing voice training success is determined to be successful if the learner voice input from the learned learner using the conversation dubbing correction learning material is input and the inputted learner dubbing voice matches the conversation evaluation criteria, And determining a learning dubbing voice training failure.

상기 대화더빙 관련 학습자료와 대화더빙 수정 학습자료는, 더빙음성 훈련 실패한 학습자의 실패원인에 대응할 수 있도록 학습자별로 다르게 제공되는 학습자료로서, 더빙음성 구간의 등장인물의 얼굴과 음성이 증폭된 동영상을 제공하며, 등장인물의 대사와 대화속도를 함께 표시함을 특징으로 할 수 있다.The interactive dubbing-related learning material and the conversation dubbing correction learning material are learning materials that are provided differently according to the learner so as to respond to the cause of the failure of the failed learner. The learning material of the dubbing voice- And displays the dialogue speed and the dialogue between the character and the character.

상기 증강현실 훈련 과정은, 상기 대화훈련콘텐츠의 대화훈련 증강현실(AR)을 재생하는 증강현실 재생 과정; 상기 대화훈련 증강현실 재생 중에 학습자로 대체될 등장인물 등장시에, 학습자의 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 실시간으로 입력받아, 등장인물 대신에 학습자의 음성, 제스쳐, 및 표정으로 대체하여 표시하는 학습자 증강현실 입력 과정; 학습자로부터 입력된 증강현실 입력소스를 분석하여, 상기 증강현실 입력소스가 미리 설정된 대화평가기준에 부합하는 경우 증강현실 훈련 성공으로 결정하며, 상기 증강현실 입력소스가 상기 대화평가기준에 부합하지 않는 경우 증강현실 훈련 실패로 결정하는 증강현실 훈련 평가 과정; 및 상기 증강현실 훈련 실패로 결정되면, 학습자에 대해 증강현실 피드백 학습이 이루어지도록 하는 증강현실 피드백 학습 과정;을 포함할 수 있다.The augmented reality training process includes: augmented reality regeneration process for regenerating a conversation augmented reality (AR) of the conversation training content; A gesture, and a facial expression in real time when a character to be replaced is replaced by a learner during the conversation-training augmented reality reproduction, receives the augmented reality input source in real time instead of the character, A learner augmented reality input process for displaying the learner augmented reality substitution; The input source of the augmented reality inputted from the learner is analyzed to determine success of the augmented reality training when the augmented reality input source meets a predetermined dialogue evaluation criteria, and when the augmented reality input source does not meet the conversation evaluation criteria Augmented reality training assessment process to determine augmented reality training failure; And an augmented reality feedback learning process for causing the augmented reality feedback learning to be performed to the learner if it is determined that the augmented reality training is failed.

상기 증강현실 피드백 학습 과정은, 증강현실 훈련 실패되었음을 피드백하여 알려주는 과정; 증간현실을 이용한 대화학습에 사용되는 증강현실 관련 학습자료를 제공하는 과정; 상기 증강현실 관련 학습자료를 이용해 학습한 학습자로부터 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 입력받아, 입력되는 학습자의 증강현실 입력소스가 상기 대화평가기준에 부합하는 경우 1차학습 증강현실 훈련 성공으로 결정하며, 부합하지 않는 경우 1차학습 증강현실 훈련 실패로 결정하는 과정; 상기 1차학습 증강현실 훈련 실패로 결정되는 경우, 1차학습 증강현실 훈련 실패 원인을 분석하여 증강현실 수정 학습자료를 제공하는 과정; 및 상기 증강현실 수정 학습자료를 이용해 학습한 학습자로부터 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 입력받아, 입력되는 증강현실 입력소스가 상기 대화평가기준에 부합하는 경우 2차학습 증강현실 훈련 성공으로 결정하며, 부합하지 않는 경우 2차학습 증강현실 훈련 실패로 결정하는 과정;을 포함할 수 있다.The augmented reality feedback learning process includes: a step of informing that augmented reality training has failed; A process of providing learning materials related to augmented reality used in dialogue learning using incremental reality; The augmented reality input source including the voice, the gesture, and the facial expression from the learned learner using the augmented reality-related learning material is input, and when the augmented reality input source of the input learner meets the conversation evaluation criteria, Determine the success of the actual training and, if not, determine the failure of the first learning augmented reality training; Analyzing the cause of failure of the first learning augmented reality training and providing the augmented reality modification learning material when it is determined that the first learning augmented reality training is failed; And an augmented reality input source including a voice, a gesture, and a facial expression from a learned learner using the augmented reality modified learning material, and if the inputted augmented reality input source meets the conversation evaluation criteria, Determining that the training is successful, and, if not, determining the failure of the second learning augmented reality training.

상기 증강현실 수정 학습자료는, 학습자가 증간현실에 참여하는 동안 대화 상대방에게 시선을 응시하지 못하고 주변 사물에 시선이 집중된다면, 대화 상대방의 눈을 강조하여 표시하거나 학습자의 시선 방향을 트랙킹하여 증강현실에 표시한 학습자료임을 특징으로 할 수 있다. 상기 대화평가기준은, 언어적 대화의 경우, 핵심어 평가기준, 대화표현 평가기준, 대화반응속도 평가기준, 대화규칙 평가기준, 말속도 평가기준, 말소리 강도 평가기준, 대화반복 평가기준, 대화생략 평가기준, 대화억양 평가기준을 하나 이상 포함하며, 비언어적 대화의 경우, 표정 평가기준, 제스쳐 평가기준, 시선 평가기준을 하나 이상 포함할 수 있다.If the learner can not gaze at the conversation partner while the learner participates in the incremental reality and the eye line is concentrated on the surrounding objects, the augmented reality modification learning data may be displayed by emphasizing the eyes of the conversation partner or tracking the learner's gaze direction, The learning data can be displayed on the screen. The dialogue evaluation standard includes a key word evaluation criterion, a dialogue expression evaluation criterion, a dialogue criterion evaluation criterion, a dialogue criterion evaluation criterion, a punctuation criterion, a linguistic criterion, a linguistic strength criterion, Criteria, and conversational accent evaluation criteria. In non-verbal conversation, one or more of the expression evaluation criteria, the gesture evaluation criteria, and the gaze evaluation criteria may be included.

본 발명의 실시 형태에 따르면 더빙/증강현실을 이용하여 대화훈련 학습을 제공해줌으로써, 대화훈련이 필요한 학습자가 효율적으로 대화훈련을 할 수 있다.According to the embodiment of the present invention, by providing the conversation training learning using the dubbing / augmenting reality, the learner who needs conversation training can efficiently conduct conversation training.

도 1은 본 발명의 실시예에 따른 참여형 대화훈련 학습이 가능한 학습자 단말기의 사시도.
도 2는 본 발명의 실시예에 따른 참여형 대화훈련 학습이 가능한 학습자 단말기의 구성 블록도.
도 3은 본 발명의 실시예에 따라 더빙/AR을 이용한 참여형 대화훈련 학습 과정을 도시한 플로차트.
도 4는 본 발명의 실시예에 따른 대화학습 훈련 과정을 도시한 흐름도.
도 5는 본 발명의 실시예에 따른 대화실전더빙 훈련 과정을 도시한 흐름도.
도 6은 본 발명의 실시예에 따른 증간현실 훈련 과정을 도시한 흐름도.
도 7은 본 발명의 실시예에 따른 대화평가기준들을 도시한 그림.
도 8은 본 발명의 실시예에 따른 학습자료들을 도시한 그림.
도 9는 본 발명의 실시예에 따른 피드백 모듈의 예시 그림.
도 10은 본 발명의 실시예에 따른 음성변환 모듈의 예시 그림.
도 11은 본 발명의 실시예에 따른 영상변환 모듈의 예시 그림.
1 is a perspective view of a learner terminal capable of participatory conversation training learning according to an embodiment of the present invention;
2 is a block diagram of a learner terminal capable of participatory conversation training learning according to an embodiment of the present invention;
FIG. 3 is a flowchart illustrating a participatory dialog training / learning process using dubbing / AR according to an embodiment of the present invention.
4 is a flowchart illustrating a conversation learning training process according to an embodiment of the present invention;
FIG. 5 is a flowchart illustrating a conversation practice dubbing training process according to an embodiment of the present invention. FIG.
FIG. 6 is a flowchart illustrating an added reality training process according to an embodiment of the present invention; FIG.
FIG. 7 is a diagram illustrating dialogue evaluation criteria according to an embodiment of the present invention. FIG.
8 is a view showing learning materials according to an embodiment of the present invention.
Figure 9 is an illustration of a feedback module in accordance with an embodiment of the present invention.
10 illustrates an example of a speech conversion module according to an embodiment of the present invention.
Figure 11 is an illustration of an image conversion module according to an embodiment of the present invention.

이하, 본 발명의 장점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은, 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 또한, 본 발명을 설명함에 있어 관련된 공지 기술 등이 본 발명의 요지를 흐리게 할 수 있다고 판단되는 경우 그에 관한 자세한 설명은 생략하기로 한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to achieve them, will be apparent from the following detailed description of embodiments thereof taken in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the exemplary embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete and will fully convey the concept of the invention to those skilled in the art. And the present invention is only defined by the scope of the claims. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 실시예에 따른 참여형 대화훈련 학습이 가능한 학습자 단말기의 사시도이며, 도 2는 본 발명의 실시예에 따른 참여형 대화훈련 학습이 가능한 학습자 단말기의 구성 블록도이다.FIG. 1 is a perspective view of a learner terminal capable of participatory conversation training learning according to an embodiment of the present invention, and FIG. 2 is a block diagram of a learner terminal capable of participatory conversation training learning according to an embodiment of the present invention.

본 발명의 참여형 대화훈련 학습이 가능한 학습자 단말기(10)는, 언어장애와 발달장애 등 대화훈련이 필요한 학습자들을 대화훈련시킬 수 있도록 하는 어플리케이션(앱;APP)이 설치되어, 이러한 어플리케이션을 통하여 대화훈련이 필요한 학습자들을 대상으로 대화훈련을 수행한다.The learner terminal 10 capable of participatory conversation training learning of the present invention is provided with an application (APP) for allowing a learner who needs conversation training such as a language disorder and a developmental disorder to train conversation, Conduct communication training for learners who need this.

본 발명의 학습자 단말기(10)는, 도 1의 도면에서는 스마트폰(smart phone)을 예로 들어 설명하나, 스마트폰만 아니라 데스크탑 PC(desktop PC), 태블릿 PC(tablet PC), 슬레이트 PC(slate PC), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션(Navigation) 등이 해당될 수 있다. 물론, 본 발명이 적용 가능한 단말기는 상술한 종류에 한정되지 않고, 다양한 단말기를 모두 포함할 수 있음은 당연하다.The learner terminal 10 of the present invention will be described by taking a smart phone as an example in the drawing of Fig. 1, but it is possible to use not only a smart phone but also a desktop PC, a tablet PC, a slate PC A notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigation, and the like. Of course, the terminal to which the present invention can be applied is not limited to the above-described types, and it is of course possible to include various terminals.

본 발명의 학습자 단말기(10)는 도 2에 도시한 바와 같이, 단말기 통신부(11), 단말기 메모리(12), 단말기 표시부(13), 단말기 입력부(14), 대화훈련콘텐츠앱이 설치된 단말기 제어부(15)를 포함할 수 있다.2, the learner terminal 10 of the present invention includes a terminal communication unit 11, a terminal memory 12, a terminal display unit 13, a terminal input unit 14, a terminal control unit 15).

단말기 통신부(11)는, 이동통신망을 통하여 통신하는 기능을 수행하는 모듈로서, 3G, 4G 등의 이동 통신을 수행하는 경우에는, 무선 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기(미도시)와, 수신되는 무선 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF수신기(미도시) 등을 포함한다.The terminal communication unit 11 is a module that performs a function of communicating through a mobile communication network. When performing mobile communication such as 3G or 4G, the terminal communication unit 11 includes an RF transmitter (not shown) for up-converting and amplifying the frequency of a radio- An RF receiver (not shown) for low-noise amplifying the received radio signal and down-converting the frequency, and the like.

단말기 메모리(12)는, 본 발명의 대화훈련콘텐츠(대화학습콘텐츠, 더빙학습콘텐츠, 증강현실학습콘텐츠 등), 대화평가기준, 화면 그래픽 인터페이스(GUI) 정보 등이 저장된 저장체이다. 이러한 메모리는, 플래시메모리(Flash Memory), CF카드(Compact Flash Card), SD카드(Secure Digital Card) 등 정보의 입출력이 가능한 모듈로서 장치의 내부에 구비되어 있을 수도 있고, 별도의 장치에 구비되어 있을 수도 있다.The terminal memory 12 is a storage body that stores conversation training contents (conversation learning contents, dubbing learning contents, augmented reality learning contents, etc.), dialogue evaluation reference, screen graphic interface (GUI) Such a memory is a module capable of inputting and outputting information such as a flash memory, a CF card (Compact Flash Card), and an SD card (Secure Digital Card) There may be.

단말기 표시부(13)는, 학습자로부터 선택된 대화훈련콘텐츠의 대화훈련화면, 대화실전더빙화면, 증강현실화면 등을 표시하는 모듈이다.The terminal display unit 13 is a module for displaying a conversation training screen, a conversation practice dubbing screen, an augmented reality screen, and the like of the conversation training content selected by the learner.

단말기 입력부(14)는, 단말기 표시부(13)를 통해 표시된 대화훈련화면, 대화실전더빙화면, 증강현실화면 등을 통하여 학습자로부터 입력받는 모듈이다. 이러한 단말기 입력부(14)와 단말기 표시부(13)는 터치스크린패널의 단일 형태로 구현될 수 있다. 터치스크린패널은, 입력과 표시를 동시에 수행할 수 있는 터치 스크린 화면을 제공하여 단말기의 전면에 마련되어 작업 화면을 표시하는 표시창으로서, 학습자와의 소통을 위한 그래픽 유저 인터페이스(GUI;Graphic User Interface)를 표시한다.The terminal input unit 14 is a module that receives input from a learner through a conversation training screen displayed through the terminal display unit 13, a conversation conversation dubbing screen, an augmented reality screen, or the like. The terminal input unit 14 and the terminal display unit 13 may be implemented as a single type of touch screen panel. A touch screen panel is a display window provided on a front surface of a terminal to provide a touch screen screen capable of simultaneously performing input and display, and includes a graphical user interface (GUI) for communicating with a learner Display.

단말기 제어부(15)는, 학습자 단말기(10)의 각 기능 모듈을 제어하는 MCU(Main Control Unit)로 구현되어, 본 발명의 대화훈련콘텐츠앱이 설치된 모듈이다. 이러한 대화훈련콘텐츠앱은, 대화훈련콘텐츠앱이, 대화훈련학습에 사용될 대화내용과 대화훈련학습수준을 가지는 콘텐츠를 학습자로부터 선택받아, 선택된 콘텐츠를 대화훈련콘텐츠로 결정하고 대화훈련콘텐츠의 대화훈련화면을 제공하여 대화훈련화면을 통한 대화훈련이 이루어지도록 하며, 또한 대화훈련콘텐츠의 대화실전더빙화면을 제공하여 대화실전더빙을 통한 대화훈련이 이루어지도록 하며, 또한 대화훈련콘텐츠의 증강현실화면을 제공하여 증강현실을 통한 대화훈련이 이루어지도록 한다.The terminal control unit 15 is implemented by an MCU (Main Control Unit) that controls each function module of the learner terminal 10, and is a module in which the dialog training content app of the present invention is installed. Such a conversation training content app can be configured such that the conversation training content app selects a content having conversation contents and conversation training learning level to be used for conversation training learning from the learner and determines the selected content as conversation training content, And provides a conversation training dubbing screen of the conversation training contents to perform conversation training through dubbing conversation practice, and also provides an augmented reality screen of the conversation training content Let the conversation drill through the augmented reality be done.

참고로, 스마트폰(smart phone) 등으로 구현되는 학습자 단말기(10)는, 수백여 종의 다양한 어플리케이션(응용프로그램)을 사용자가 원하는 대로 설치하고 추가 또는 삭제할 수 있어, 사용자가 원하는 어플리케이션을 직접 제작할 수도 있으며, 다양한 어플리케이션을 통하여 자신에게 알맞은 인터페이스를 구현할 수 있다. 따라서 구글마켓, 애플스토어 등에서 대화훈련콘텐츠앱을 다운로드받아 스마트폰에 설치할 수 있다.For reference, the learner terminal 10 implemented with a smart phone or the like can install, add or delete hundreds of various applications (application programs) as desired by the user, And can implement an appropriate interface through various applications. Therefore, you can download a conversation training content app from Google Market, Apple Store, etc. and install it on smartphone.

도 3은 본 발명의 실시예에 따라 더빙/AR을 이용한 참여형 대화훈련 학습 과정을 도시한 흐름도이며, 도 4는 본 발명의 실시예에 따른 대화학습 훈련 과정을 도시한 흐름도이며, 도 5는 본 발명의 실시예에 따른 대화실전더빙 훈련 과정을 도시한 흐름도이며, 도 6은 본 발명의 실시예에 따른 증간현실 훈련 과정을 도시한 흐름도이며, 도 7은 본 발명의 실시예에 따른 대화평가기준들을 도시한 그림이며, 도 8은 본 발명의 실시예에 따른 학습자료들을 도시한 그림이며, 도 9는 본 발명의 실시예에 따른 피드백 모듈의 예시 그림이며, 도 10은 본 발명의 실시예에 따른 음성변환 모듈의 예시 그림이며, 도 11은 본 발명의 실시예에 따른 영상변환 모듈의 예시 그림이다.FIG. 3 is a flowchart showing a participatory dialog training and learning process using dubbing / AR according to an embodiment of the present invention, FIG. 4 is a flowchart illustrating a dialogue learning and training process according to an embodiment of the present invention, FIG. 6 is a flowchart illustrating an actual reality training process according to an embodiment of the present invention. FIG. 7 is a flowchart illustrating a dialogue evaluation dubbing process according to an embodiment of the present invention. FIG. 8 is a view showing learning data according to an embodiment of the present invention, FIG. 9 is a view illustrating an example of a feedback module according to an embodiment of the present invention, FIG. FIG. 11 is a diagram illustrating an image conversion module according to an exemplary embodiment of the present invention. Referring to FIG.

학습자 단말기(10)에 설치된 대화훈련콘텐츠앱이 학습자에 대한 대화훈련 학습을 시키는 더빙/AR을 이용한 참여형 대화훈련 학습 방법에 있어서, 본 발명의 대화훈련콘텐츠앱은 도 3에 도시한 바와 같이 대화훈련콘텐츠 선택 과정(S100), 대화학습 훈련 과정(S200), 대화실전더빙 훈련 과정(S300), 및 증강현실 훈련 과정(S400)을 실행시킬 수 있다.In a participative dialog training learning method using a dubbing / AR in which a conversation training content application installed in a learner terminal 10 performs conversation training learning for a learner, A content selection process S100, a conversation learning training process S200, a chatting practice dubbing training process S300, and an augmented reality training process S400.

대화훈련콘텐츠 선택 과정(S100)은, 대화훈련학습에 사용될 대화내용을 선택받는다. 그리고 대화훈련학습의 대화훈련학습수준을 선택받는다. 선택되는 대화내용과 대화훈련학습수준을 가지는 콘텐츠를 대화훈련콘텐츠로서 결정한다.In the conversation training content selection process (S100), conversation contents to be used for conversation training learning are selected. And conversation training learning level of conversation training. The content having the selected dialogue content and the dialog training and learning level is determined as the dialogue training content.

여기서 대화훈련학습수준의 선택은, 대화 써클수, 대화 주제, 대화참여 인원수를 학습자로부터 선택받음으로써 대화훈련학습수준이 결정되도록 한다. Here, the choice of the level of conversational training is determined by selecting the number of conversational circles, conversation topic, and conversation participant from the learner, thereby determining the conversational training level.

여기서 대화써클이란 대화자끼리 말을 양방향으로 주고받는 것을 말한다. 예를 들어 두 사람이 영화관람후 대화에서 "미녀와 야수 영화 어땠어" "재미있었어" 라고 주고 받았다면 대화써클 수는 1회에 해당된다. 대화가 이어져 "넌 어느 장면이 제일 좋았어?" "난 야수랑 벨이 춤출 때가 제일 멋졌어" 라고 한다면 대화 써클 수는 2회가 된다. Here, conversation circles are two-way communication between talkers. For example, if two people gave a conversation after watching a movie, "How was beauty and a beast movie" and "It was fun", the conversation circle number is one. The conversation continued, "Which scene did you like best?" "If I was the best when the beast and the bell were dancing," the number of conversational circles would be two.

또한, 대화참여자 인원수가 많아질수록 주고받는 대화량도 증가되고 높은 수준의 대화능력이 요구된다. 예를 들어, 대화참여자 인원이 2명일 경우에는 대화를 번갈아 주고 받고 시선도 상대에게만 집중하면 되지만, 대화참여자 인원이 4명인 경우에는 상대방인 3명의 말도 기억하며 대화 흐름에 맞게 응답하고 대화 타이밍과 시선처리도 더 복잡해진다.Also, as the number of participants in the conversation increases, the amount of conversation received increases, and a high level of conversational ability is required. For example, if there are two participants in a conversation, the conversation can be exchanged and the attention can be focused only on the opponent. However, if there are four participants in the conversation, the other three persons are also remembered and responded to the conversation flow, The processing becomes more complicated.

대화학습 훈련 과정(S200)은, 대화훈련콘텐츠앱이, 대화훈련콘텐츠의 대화훈련화면을 제공하여 대화훈련화면을 통한 대화훈련이 이루어지도록 과정이다. 즉, 대화학습 훈련 과정(S200)은, 대화 동영상 재생 시에 학습자가 대행할 인물만의 대화가 생략된 동영상을 제시하고, 학습자가 등장 인물의 생략된 대화를 완성하면서 언어적 대화 표현을 학습하도록 하기 위함이다.The conversation learning training process (S200) is a process in which a conversation training content app provides a conversation training screen of conversation training contents to conduct conversation training through a conversation training screen. That is, in the dialog learning learning process (S200), a lecture in which a learner expresses a dialogue in which a learner does not have a dialog for only a representative person is presented at the time of lecture reproduction, and a learner learns a linguistic dialogue expression .

이러한 대화학습 훈련 과정(S200)은 도 4에 도시한 바와 같이, 대화 동영상 재생 과정(S210), 학습자 대화내용 입력 과정(S220), 대화학습 평가 과정(S230), 대화실전더빙화면 이동 과정(S300), 대화학습 피드백 학습 과정(S250)을 포함할 수 있다.4, the conversation learning training process S200 includes a conversation moving picture reproduction process S210, a learner conversation content input process S220, a conversation learning evaluation process S230, a conversation conversation dubbing screen movement process S300 ), And a conversation learning feedback learning process (S250).

대화 동영상 재생 과정(S210)은, 대화훈련콘텐츠의 대화 동영상을 재생하는 과정이다. 즉, 학습자가 선택한 대화내용과 대화학습수준을 가지는 대화훈련콘텐츠의 대화 동영상이 재생되도록 한다.The conversation moving picture reproduction process (S210) is a process of reproducing the conversation moving picture of the conversation training content. That is, the dialogue moving picture of the dialogue training content having the conversation learning level and the dialogue contents selected by the learner is reproduced.

학습자 대화내용 입력 과정(S220)은, 대화 동영상 재생 중에 대화가 생략된 등장인물의 등장시에 화면을 정지하고, 학습자로부터 발성되는 대화음성을 학습자 대화내용으로 입력받는 과정이다. 나아가 학습자 대화내용 입력 과정은, 학습자로부터 발성되는 대화음성을 문자로 변환하여 화면에 표시한다. 상술하면, 대화 동영상 재생 시에 학습자가 대행할 인물만의 대화가 생략된 동영상을 제시하고, 학습자가 생략된 대화를 완성하는 것이다. The learner dialogue content inputting process (S220) is a process of stopping the screen at the time of appearance of a character whose dialogue is omitted during the conversation moving picture reproduction, and receiving the conversation voice uttered by the learner as the learner conversation contents. Further, the learner conversation contents input process converts the conversation voice uttered by the learner into characters and displays them on the screen. In other words, at the time of reproducing the conversation moving picture, the learner presents a moving picture in which only the person's conversation is omitted, and the learner completes the omitted conversation.

대화학습 평가 과정(S230)은, 학습자로부터 입력된 학습자 대화내용의 음성을 분석하여 평가한 후, 학습자 대화내용이 미리 설정된 대화평가기준에 부합하는 대화내용인 경우 대화학습 훈련 성공으로 결정하며, 학습자 대화내용이 상기 대화평가기준에 부합하지 않는 대화내용인 경우 대화학습 훈련 실패로 결정하는 과정이다.The conversation learning evaluation process (S230) analyzes and evaluates the voice of the learner conversation content input from the learner, and determines that the conversation learning training is successful when the conversation contents of the learner meet the conversation evaluation criteria set in advance, And determining that the conversation learning training fails if the conversation contents are conversation contents that do not meet the conversation evaluation criteria.

여기서 대화평가기준은, 언어적 대화의 경우, 도 7(a)에 도시한 바와 같이 핵심어 평가기준, 대화표현 평가기준, 대화반응속도 평가기준, 대화규칙 평가기준, 말속도 평가기준, 말소리 강도 평가기준, 대화반복 평가기준, 대화생략 평가기준, 대화억양 평가기준을 하나 이상 포함할 수 있다.Here, in the case of verbal conversation, as shown in Fig. 7 (a), the dialogue evaluation standard is a key word evaluation standard, a dialogue expression evaluation standard, a dialogue reaction rate evaluation standard, a dialogue rule evaluation standard, Criterion of dialogue repetition, criterion of conversation omission, criterion of conversation accentuation.

이는 대화모델과 학습자간의 대화 기술 차이를 비교 분석하는데 사용되는 기준이 된다. 상술하면, 대화학습 평가 기준은 학습자의 음성정보에 대하여 평가하는 기준이 된다.This is the criterion used for comparative analysis of the dialogue technique between the dialogue model and the learner. As described above, the conversation learning evaluation standard is a criterion for evaluating the learner's voice information.

핵심어 평가기준은 대화표현에 있어서 중요한 핵심어를 파악하고 평가하는 것이다. Keyword evaluation criteria are to identify and evaluate key words in dialogue expression.

대화표현 평가기준은, 청유형, 진술형, 의문형 등의 적절한 대화 표현을 사용하였는지에 대해 평가한다.The evaluation criteria for dialogue expression evaluates whether appropriate dialogue expressions such as colloquial type, statement type, and question type are used.

대화반응속도 평가기준은, 상대방의 말에 얼마나 적절한 속도로 학습자가 말을 하는지에 대한 평가이다. 상대방의 말을 듣고 반응하기까지의 시간이 길 경우 대화가 중단되거나 재촉을 받게 등 원활한 대화를 유지하는데 방해가 된다.The criterion for evaluating the response rate of a conversation is an evaluation of how the learner speaks at the appropriate rate to the other party's speech. If you take a long time to listen to the other person's response, it will interfere with maintaining smooth conversation, such as interruption or prompting.

대화규칙 평가기준은, 질문에 대답하기, 대화 상대에 따라 언어 표현을 바꾸기, 화제에 적합한 대화 반응하기 등의 대화기술에 대해 평가한다.Conversation rule evaluation criteria evaluate conversation skills such as answering questions, changing language expressions according to conversation partner, and responding to appropriate conversation topics.

말속도 평가기준은, 대화를 할 때 말속도를 평가하는 것으로, 말속도는 상대방에게 말을 잘 전달하는 중요한 기술이다. 지나치게 빠르거나 느릴 경우 상대방이 화자의 말을 파악하기가 어렵거나, 화자의 말에 주의를 기울이기가 어려워 대화유지가 어렵다.The criterion for evaluating the speed of speech is to evaluate the speed of speech when talking, and the speed of speech is an important skill to communicate well to the other. If it is too fast or slow, it is difficult for the other party to grasp the speaker's words, or it is difficult to pay attention to the speaker's words.

말소리 강도 평가기준은, 대화를 유지하는 동안 학습자의 말소리 강도를 평가하는 것이다. 지나치게 목소리가 크거나 적은 경우에도 대화 흐름의 방해 요인이 된다.The criterion for evaluating the speech strength is to evaluate the learner's speech strength during conversation. Even if the voice is too loud or too small, it becomes an obstacle to the conversation flow.

대화반복 평가기준은, 학습자가 말을 할 때 같은 말소리나 단어를 반복하는 것을 평가한다. 이는 말더듬처럼 언어 유창성이 부족하거나 대화 상황에서 긴장감이 높을 경우에 해당된다.Conversation evaluation criterion evaluates repeating the same speech or word when the learner speaks. This is the case when language fluency is lacking as in stuttering or when there is a high level of tension in conversation situations.

대화생략 평가기준은, 학습자가 말을 할 때 중요한 핵심어를 제외하기, 말의 일부를 흐리기 등의 언어적 대화기술에 대해 평가한다.  The evaluation criteria for the dialogue omission evaluates linguistic dialogue techniques such as excluding important key words and blurring parts of words when a learner speaks.

대화억양 평가기준은, 학습자가 대화를 하는 동안 적절한 리듬감을 가지고 대화표현 유형에 따라 적절한 뉘앙스를 사용하였는지에 대해 평가한다. 예를 들어, "어제 나는 가족들과 캠핑을 갔어"라는 말을 하는 경우, 말의 끝부분의 억양을 내려서(예, 갔어) 표현해야 하는데, 억양을 올려서(예, 갔어)라고 표현하면 질문형으로 변경되거나 말의 의도 전달이 분명해지지 않게 된다.    Conversational accent evaluation criteria assess how learners use appropriate nuances according to type of dialogue expression with appropriate rhythm during conversation. For example, if you say, "Yesterday I went camping with my family," you have to express the accent at the end of the horse (eg, gone) Or the transfer of the intention of the horse becomes unclear.

한편, 비언어적 대화의 경우, 도 7(b)에 도시한 바와 같이 표정 평가기준, 제스쳐 평가기준, 시선 평가기준을 하나 이상 포함할 수 있다. 비언어적 대화기술에는 언어적 표현을 제외한 표정, 제스처 등이 해당된다. 비언어적 대화기술은 의사전달에 있어서 매우 중요한 역할을 한다. 예를 들어 '잘 했어'라는 말은 웃는 표정일 때와 화난 표정일 때의 의사전달이 매우 달라진다. 이처럼 말과 표정이 불일치할 경우 말보다는 표정 같은 비언어적 대화기술에 대한 해석과 표현능력이 더 중요하다. 그리고 대화할 때 상대와의 눈맞춤을 적절하게 유지하는 기술은 대화 유지에 있어서 중요하다. 이를테면 자폐성 장애의 경우에는 대화할 때 눈맞춤 하기가 어렵고, 사회적 위축이 높은 경우에는 대화를 할 때 상대의 눈을 쳐다보는 것이 아니라 눈 주변을 쳐다보거나 시선을 회피하는 경향성이 높은데, 이는 대화유지를 방해하는 요인이다. 따라서 대화를 잘 전달하고 이해하며 유지하기 위해서는 언어적 대화기술 뿐만 아니라 비언어적 대화기술도 매우 중요하다.On the other hand, in the case of the non-verbal conversation, as shown in Fig. 7 (b), one or more of the expression evaluation criteria, the gesture evaluation criteria, and the gaze evaluation criteria may be included. Nonverbal conversation techniques include facial expressions and gestures, except verbal expressions. Nonverbal conversation skills play a very important role in communication. For example, the word 'good' is very different when you are smiling and when you are angry. In this way, the interpretation and expressive ability of nonverbal conversation skills such as expression are more important than words if the disagreement is expressed. And the skills to keep eye contact with the opponent when talking is important in maintaining the conversation. For example, in the case of autistic disorder, it is difficult to look at the conversation, and when the social contraction is high, there is a tendency to look around the eyes or to avoid gaze, not to look at the opponent's eyes when talking, . Therefore, in order to communicate, understand and maintain conversation well, verbal conversation skills as well as nonverbal conversation skills are very important.

따라서 본 발명에서는 학습자와 대화모델과의 대화 특성간의 차이를 비교 분석하여 학습자의 대화기술에 있어서 오류를 분석한다.Therefore, in the present invention, errors are analyzed in the learner's conversation skill by comparing and analyzing the difference between the learner and the dialogue characteristic of the dialogue model.

표정 평가기준은, 동영상 자료로 입력된 학습자의 눈과 입, 얼굴 근육 변화를 통해 학습자의 표정을 분석하고, 학습자와 대화모델 간의 표정간의 차이를 평가한다.The facial expression evaluation criterion analyzes the learner 's facial expressions through the eye, mouth, and facial muscle changes of the learner' s input, and evaluates the difference between the facial expressions between the learner and the conversational model.

제스처 평가기준은, 동영상 자료로 입력된 학습자의 손, 발 등의 제스처를 분석하고, 학습자와 대화모델간의 비언어적 대화기술간의 차이를 평가한다.The gesture evaluation criterion analyzes the gestures of the learner 's hand and foot entered as video material and evaluates the difference between the learner and the conversation model.

시선 평가기준은, eye-tracking 원리를 활용하여 대화상황에서 학습자가 대화 상대방을 얼마나 주시하였는지, 대화를 하는 동안 시선 처리가 적절하였는지를, 학습자와 대화모델간의 시선 처리간의 차이를 평가한다. The gaze evaluation criterion uses eye-tracking principle to evaluate how much the learner watches the conversation partner during conversation, whether the gaze processing is appropriate during conversation, and the difference between gaze processing between learner and conversation model.

한편, 대화학습 훈련 성공(S230a)으로 결정되면, 성공 피드백을 제공(S240)해주고, 학습자 요청에 따라 대화훈련학습 종료 또는 다른 대화학습이 이루어지도록 하며, 또한 학습자 요청이 있는 경우 대화실전더빙 훈련 과정(S300)을 수행하도록 대화실전더빙화면으로 이동하여 대화실전더빙 훈련 과정(S300)이 수행되도록 한다.On the other hand, if it is determined that the conversation learning training is successful (S230a), success feedback is provided (S240), the conversation training learning termination or other conversation learning is performed in response to the learner request, (S300) so as to perform a conversation practice dubbing training process (S300).

반면에, 대화학습 훈련 실패(S230b)로 결정되면, 학습자에 대해 대화학습 피드백 학습이 이루어지도록 하는 대화학습 피드백 학습 과정(S250)이 수행되도록 한다.On the other hand, if it is determined that the conversation learning training is failed (S230b), a conversation learning feedback learning process (S250) is performed so that conversation learning feedback learning is performed for the learner.

상기의 대화학습 피드백 학습 과정(S250)은, 대화훈련 실패되었음을 알려주는 대화학습 결과 피드백 과정(S251), 대화예시를 제시하고, 대화훈련 실패로 결정된 학습자로부터 대화예시 중에서 어느 하나의 대화예시를 선택받는 과정(S252), 학습자 음성을 입력받아 입력된 학습자 음성이 대화예시와 오차 범위내에서 일치하는 경우 대화예시 훈련 성공(S253a)으로 결정하며, 일치하지 않는 경우 대화예시 훈련 실패(S253b)로 결정하는 과정(S253), 대화예시 훈련 실패로 결정되는 경우, 실패되었음을 알리는 실패 피드백을 제공(S254)하며, 대화내용을 재생하여 학습자가 대화내용을 듣도록 하는 과정(S255), 대화내용을 모방하는 학습자 음성을 입력(S256)받아, 입력된 학습자 음성이 재생되는 대화내용과 오차 범위내에서 일치하는 경우 대화모방 훈련 성공(S257a)으로 결정하며, 일치하지 않는 경우 대화모방 훈련 실패(S257b)로 결정하는 과정(S257), 대화모방 훈련 실패(S257b)로 결정되는 경우, 실패 피드백을 제시(S258)하고 대화내용을 음성변환(S2591)한 음성변환 대화내용을 재생하여 학습자가 음성변환 대화내용을 듣도록 하는 과정(S2592)과, 음성변환 대화내용을 모방하는 학습자 음성을 입력(S256)받아, 입력된 학습자 음성이 재생되는 음성변환 대화내용과 오차 범위내에서 일치하는 경우 음성변환 훈련 성공으로 결정하며, 일치하지 않는 경우 음성변환 훈련 실패로 결정하는 과정(S257)으로 이루어진다.The dialog learning feedback learning process (S250) includes a dialog learning result feedback process (S251) for notifying that the conversation training has failed, a dialogue example is presented, and a dialogue example is selected from the conversation examples (S252). If the input learner's voice is identical with the dialogue example within the error range, the dialogue example training is determined to be successful (S253a). If the learner voice is not matched with the dialogue example, the dialogue example training is determined to be failed (S253b) (S253). If it is determined that the conversation example training is failed, a failure feedback indicating that the conversation example is failed is provided (S254), and the learner is allowed to listen to the conversation contents by reproducing the conversation contents (S255) If the learner voice is input (S256) and the inputted learner voice coincides with the conversation contents within the error range, the conversation imitation training success (S257a) (S257b). If it is determined that the conversation imitation training is failed (S257b), the failure feedback is presented (S258), and the conversation contents are subjected to speech conversion (S2591) (S2592) of causing the learner to listen to the speech conversion conversation contents by reproducing the speech conversion conversation contents, inputting the learner speech imitating the conversation conversation contents (S256), and inputting the speech conversion conversation contents The speech conversion training is determined to be successful if it is within the error range, and the speech conversion training failure is determined if the speech conversion training is not matched (S257).

참고로, 이러한 대화학습 피드백 과정(S200)은, 도 9에 도시된 피드백모듈을 통하여 처리될 수 있다. 대화평가 피드백에는 언어적 대화평가 피드백과 비언어적 대화평가가 포함되고, 각각의 평가결과를 시각적 그래픽으로 제시된다. 보상 피드백은 학습자에게 대화평가 피드백과 꾸준한 학습태도 등에 대한 점수화 또는 보상을 제공할 수 있다.For reference, this dialog learning feedback process (S200) can be processed through the feedback module shown in Fig. Dialogue evaluation feedback includes verbal dialogue feedback and nonverbal dialogue evaluation, and each evaluation result is presented graphically. Compensation feedback can provide learner with scoring or compensation for conversational assessment feedback and steady learning attitudes.

또한 상기에서 대화내용을 음성변환하는 것은, 도 10에 도시된 음성변환모듈을 이용하여 등장인물의 음성을 음성증폭, 속도조절하여 변환할 수 있다. 상술하면, 음성변환모듈은 대화모델의 음성을 학습자가 정확하게 듣고 따라할 수 있게 대화모델의 음성을 변환한다. 비선형압축은 작은 소리는 크게 증폭해주고, 큰소리는 작게 줄여주는 증폭조절을 통해 학습자가 말소리를 빠뜨리지 않고 정확하게 들을 수 있도록 한다. 방향성은 말소리가 들리는 방향을 정확히 잡아낼 수 있게 한다. 피드백제거는 입력된 음성을 증폭하고 다른 잡음을 제거함으로써 말소리를 잘 들을 수 있게 한다. 소음제거는 주변환경소음을 줄여주어 말소리를 잘 들을 수 있게 한다. 속도는 말소리 속도를 조절해서 학습자가 잘 들을 수 있게 한다. 이는 학습자의 대화음성 분석결과를 토대로 대화모델의 음성을 변환하여 학습자에게 말소리를 제시한다.In addition, in the above, voice conversion of the conversation contents can be performed by voice-amplifying and speed-adjusting the voice of the character using the voice conversion module shown in Fig. In detail, the voice conversion module converts the voice of the conversation model so that the learner can accurately hear and follow the voice of the conversation model. Nonlinear compression allows the learner to hear the loudspeakers accurately without losing the loudness, by amplifying the loud sounds greatly and reducing the loud sounds to a small degree. Directionality makes it possible to accurately grasp the direction in which speech is heard. Feedback cancellation allows you to hear the speech well by amplifying the input speech and eliminating other noise. Noise elimination reduces ambient noise and makes speech sounds clear. Speed adjusts the speed of speech so that learners can listen well. Based on the learner 's speech analysis result, the learner speaks the speech by converting the speech model.

한편, 대화실전더빙 훈련 과정(S300)은 대화훈련콘텐츠앱이, 대화훈련콘텐츠의 대화실전더빙화면을 제공하여 대화실전더빙을 통한 대화훈련이 이루어지도록 하는 과정이다. 대화실전더빙 훈련 과정(S300)은 도 5에 도시한 바와 같이, 대화 동영상 재생 과정(S310), 학습자 더빙음성 입력 과정(S320), 더빙음성 평가 과정(S330), 증강현실화면 이동 과정(S400), 및 더빙음성 피드백 학습 과정(S350)을 포함할 수 있다.Meanwhile, in the conversation practice dubbing training process (S300), the conversation training content app provides the conversation execution dubbing screen of the conversation training content, so that conversation training is performed through dubbing conversation dubbing. The conversation execution dubbing training process S300 includes a conversation moving picture reproduction process S310, a learner dubbing speech input process S320, a dubbing voice evaluation process S330, an augmented reality screen movement process S400, , And a dubbing voice feedback learning process (S350).

대화 동영상 재생 과정(S310)은, 대화훈련콘텐츠의 대화 동영상을 재생하는 과정이다.The conversation moving picture reproduction process (S310) is a process of reproducing the conversation moving picture of the conversation training content.

학습자 더빙음성 입력 과정(S320)은, 대화 동영상 재생 중에 대화가 생략된 등장인물의 등장시에 화면 정지 없이 제시되고 학습자로부터 발성되는 대화음성을 학습자 더빙음성으로서 실시간으로 입력받는 과정이다. 대화동영상을 보고 학습자가 그 중 대화가 생략된 등장인물의 대화를 직접 더빙하는 것이다. 이때 학습자는 음성으로 입력하고, 화면에 입력된 음성이 문자로 변환되어 제시된다. The learner dubbing voice inputting process (S320) is a process in which a conversation voice presented without a screen stop at the appearance of a character whose dialogue is omitted during dialogue moving picture reproduction is input as a learner dubbing voice in real time. And watching the conversation video, the learner directly dubs the conversation of the characters whose conversation is omitted. At this time, the learner inputs voice, and the voice inputted on the screen is converted into a letter and presented.

더빙음성 평가 과정(S330)은, 학습자로부터 입력된 학습자 더빙음성을 분석하여, 학습자 더빙음성이 미리 설정된 대화평가기준에 부합하는 더빙음성인 경우 더빙음성 훈련 성공(S330a)으로 결정하며, 학습자 더빙음성이 대화평가기준에 부합하지 않는 더빙음성인 경우 더빙음성 훈련 실패(S330b)로 결정하는 과정이다. 이러한 대화평가기준은 상술한 바와 같이, 언어적 대화의 경우, 핵심어 평가기준, 대화표현 평가기준, 대화반응속도 평가기준, 대화규칙 평가기준, 말속도 평가기준, 말소리 강도 평가기준, 대화반복 평가기준, 대화생략 평가기준, 대화억양 평가기준을 하나 이상 포함하며, 비언적 대화의 경우, 표정 평가기준, 제스쳐 평가기준, 시선 평가기준을 하나 이상 포함할 수 있다.The dubbing voice evaluation process (S330) analyzes the learner's dubbing voice input from the learner, and determines that the dubbing voice training is successful (S330a) when the learner's voice is a dubbing voice conforming to a predetermined conversation evaluation standard, In the case of a dubbing voice that does not meet this dialogue evaluation criterion, it is determined to be a dubbing voice training failure (S330b). As described above, in the case of verbal conversation, the evaluation criteria of the conversation are, in the case of verbal conversation, a keyword evaluation criterion, a conversation expression evaluation criterion, a conversation response speed evaluation criterion, a conversation rule evaluation criterion, a word speed criterion, , Dialogue elimination evaluation criteria, and conversation accent evaluation criteria, and in the case of non-dialogue, one or more of the expression evaluation criteria, the gesture evaluation criteria, and the gaze evaluation criteria may be included.

더빙음성 훈련 성공(S330a)으로 결정되면, 성공 피드백 제시(S340)후에 학습자 요청이 있는 경우 증강현실 훈련 과정(S400)을 수행하는 증강현실화면 이동 과정(S400)을 가진다. 반면에 더빙음성 훈련 실패(S330b)로 결정되면, 학습자에 대해 더빙음성 피드백 학습이 이루어지도록 하는 더빙음성 피드백 학습 과정(S3500을 가진다.If it is determined that the dubbing voice training is successful (S330a), an augmented reality screen movement process (S400) is performed to perform an augmented reality training process (S400) if there is a learner request after success feedback presentation (S340). On the other hand, if it is determined that the dubbing voice training is failed (S330b), a dubbing voice feedback learning process (S3500) is performed so that the dubbing voice feedback learning is performed for the learner.

더빙음성 피드백 학습 과정(S350)은, 더빙음성 훈련 실패되었음을 피드백하여 알려주는 과정(S351), 대화더빙을 이용한 대화학습에 사용되는 대화더빙 관련 학습자료를 제공하는 과정(S352), 대화더빙 관련 학습자료를 이용해 학습한 학습자로부터 더빙음성을 입력(S353)받아, 입력되는 학습자 더빙음성이 대화평가기준에 부합하는 경우 1차학습 더빙음성 훈련 성공(S354a)으로 결정하며, 부합하지 않는 경우 1차학습 더빙음성 훈련 실패(S354b)로 결정하는 과정(S354), 1차학습 더빙음성 훈련 실패(S354b)로 결정되는 경우, 실패 피드백 제시(S355)후에 1차학습 더빙음성 훈련 실패 원인을 분석하여 대화더빙 학습자료를 수정(S356)하여 대화더빙 수정 학습자료를 제공하는 과정(S357), 대화더빙 수정 학습자료를 이용해 오류 부분을 학습(S358)한 학습자로부터 더빙음성을 입력받아, 입력되는 학습자 더빙음성이 대화평가기준에 부합하는 경우 2차학습 더빙음성 훈련 성공(S359a)으로 결정하며, 부합하지 않는 경우 2차학습 더빙음성 훈련 실패(S359b)로 결정하는 과정(S359)을 가진다. 오류부분 학습(S358)에서는, 대화시작 타이밍, 말 명료도, 대화 속도, 억양을 포함한 대화기술에 대한 학습화면을 제공하는 과정을 가질 수 있다.The dubbing voice feedback learning process (S350) includes a process (S351) of notifying that the dubbing voice training has failed, a process (S352) of providing dubbing-related learning materials used for the conversation learning using the conversation dubbing (S353) from the learned learner using the learning data, and if the input learner's voice satisfies the conversation evaluation criteria, it is determined that the first learning dubbing voice training is successful (S354a). If not, If it is determined that the first learning dubbing voice training is failed (S354b), the cause of the failure of the first learning dubbing voice training is analyzed after the failure feedback presentation (S355) (S356). The learning contents are corrected (S356) to provide conversation dubbing correction learning material (S357). The conversation dubbing correction learning material is used to learn the error portion (S358) (Step S359a). If the learner's voice is not matched with the learner's voice (step S359b), the second learning dubbing voice training failure (step S359b) ). In the error partial learning (S358), a process of providing a learning screen for a conversation technique including a conversation start timing, a speech intelligibility, a conversation speed, and an intonation may be provided.

여기서 대화더빙 관련 학습자료와 대화더빙 수정 학습자료는, 더빙음성 훈련 실패한 학습자의 실패원인에 대응할 수 있도록 학습자별로 다르게 제공되는 학습자료로서, 더빙음성 구간의 등장인물의 얼굴과 음성이 증폭된 동영상을 제공하며, 등장인물의 대사와 대화속도를 함께 표시한다.Here, conversational dubbing-related learning materials and conversation dubbing correction training materials are learning materials that are provided differently according to the learner so as to respond to the cause of failure of the failed learner, in which the face of the character of the dubbing voice section and the video in which the voice is amplified And displays the dialogue speed and dialogue with the character.

도 11에 도시한 영상변환모듈과 함께 상술하면, 학습자료는, 학습자 맞춤형으로 수정된 대화 동영상과 음성모델, 그래픽으로 구성되고, 학습자의 대화평가분석 결과에 따라 내용구성의 차이가 있다. 예를 들어, 해당 인물의 얼굴과 음성이 증폭된 동영상과 말속도를 촉구하기 위해 대사와속도를 표시하는 그래픽이 함께 제시될수있다. 11, the learning data is composed of a conversation moving image, an audio model, and a graphic modified by the learner-customized type, and there is a difference in contents structure according to the result of the conversation evaluation analysis of the learner. For example, a video that amplifies the face and voice of a person can be presented along with a graphic that displays the metabolism and speed to promote speech speed.

대화 동영상은 앞서 제시된 대화 동영상에서 학습자의 대화평가의 분석결과를 반영하여 수정하여 제시되는 대화 동영상이다. 예를 들어 해당인물의 대화음성만 증폭되었거나 해당 인물의 대화 타이밍을 알리는 애니메이션 그래픽이 첨가된다. 그래픽은 음성 스펙트럼과 속도 프로파일에 애니메이션 그래픽을 첨가하여 학습 보조 자료로 활용하는 것이다. 오류부분 학습은 학습자의 더빙에서 나타난 대화 기술의 오류 부분에 대해서만 따로 부분학습을 실시하는 것이다. 예를 들어 대화에 참여하는 시작타이밍을 반복해서 놓치고 말속도가 느린 학습자에게는, 오류부분학습에서 대화시작타이밍을 촉구하는 그래픽 학습기제(예, 숫자타이머, 화살)를 제시하고, 학습자의 학습수행률에 따라 촉구 정도가 자동적으로 조절되어 학습자의 오류특성을 수정하는 연습을 할 수 있다. 말속도가 느린 부분에 대해서 속도프로파일이 제시되는 그래픽을 통해 말속도를 체계적으로 향상시키는 연습을 할 수 있다. 학습자의 오류특성에 따라 오류부분에 대해 한가지씩 각각 연습하여 수정할 수도 있고, 두 가지 오류(예, 대화시작타이밍 오류와 말속도 느린 오류)를 동시에 연합해서 연습할 수도 있다. 이 또한 학습자의 반응에 따라 체계적으로 진행되어 진다. The dialogue video is a dialogue video presented by modifying the analysis results of the learner 's dialogue evaluation in the dialogue video presented above. For example, only the conversation voice of the person is amplified, or an animation graphic informing the person's conversation timing is added. The graphic is to add animated graphics to the voice spectrum and velocity profile and use it as learning aids. The error part learning is to perform the partial learning only for the error part of the dialogue technique shown in the learner's dubbing. For example, a learner who misses the start timing for participating in a conversation repeatedly, and a learner with a slow learner, presents a graphic learning device (e.g., numerical timer, arrow) prompting the start of conversation in the error partial learning, The degree of urgency is automatically adjusted according to the learner's ability to correct the error characteristics of the learner. You can practice to improve the speech speed systematically through the graphics that show the speed profile for slow speech parts. Depending on the learner's error characteristics, you can practice one by one for each part of the error, or you can practice combining two errors (eg, dialog start timing error and speech speed slow error) at the same time. This is also done systematically according to the learner 's response.

학습자료의 생성 예를 도 8과 함께 상술하면, 학습자료에는 대화 동영상과 학습자료, 대화모델 중 음성모델, 그래픽으로 구성된다. 대화 동영상은 학습자의 대화평가 분석결과를 반영하여 해당 인물의 얼굴, 제스처, 시선, 음성 등이 증폭 강조되거나 애니메이션 그래픽이 첨가되어 제시된다.An example of the generation of the learning data is illustrated in FIG. 8 together with the learning data. The learning data includes a conversation video and learning materials, a speech model, and a graphic. The conversation video reflects the learner 's dialogue evaluation analysis result, and the face, gesture, gaze, and voice of the person are emphasized or added with animated graphic.

음성모델은 대화모델의 언어적 대화기술을 반영한 것으로, 대화내용과 음성, 대화타이밍 등을 포함하여 학습자가 언어적 대화 기술을 모방하여 학습하게 한다.The voice model reflects the linguistic dialogue technique of the dialogue model and allows learners to imitate linguistic dialogue techniques including dialogue content, voice, and dialog timing.

그래픽은 시선 프로파일, 대화음성스펙트럼, 속도프로파일로구성된다.  대화모델과 학습자의 대화참여 동안에 대화기술에 관한 정보데이터를 시각적으로 제시하고, 애니메이션 기법을 활용하여 학습자가 보다 쉽게 대화기술을 학습할 수 있도록 돕는 장치이다. 시선프로파일은 학습자의 시선응시를 추적(eye tracking)하여 대화참여 동안 눈으로 응시한 곳을 그래픽으로 제시한다. The graphics consist of a line of sight profile, a dialogue voice spectrum, and a speed profile. It is a device that visually presents information data about conversation skills during conversation model and learner 's conversation participation, and helps learners to learn conversation skills more easily by using animation technique. The eye-gaze profile tracks the learner's eye gaze and graphically shows where the eye gazed during the conversation.

음성스펙트럼은 학습자의 대화음성 특성을 주파수, Hz, dB 등으로 시각적 이미지로 제시하고, 음높이를 알리거나 대화 시작타이밍을 알리는 표시에 애니메이션 기능을 첨부하여 제시하여 학습효과를 높일 수 있다.Speech spectrum can enhance the learning effect by presenting the learner 's speech voice characteristics as visual images in frequency, Hz, dB, etc., and by announcing the pitch or displaying the dialog start timing with an animation function attached.

속도프로파일은 대화속도를 그래픽으로 제시하고, 대사에 말속도 촉진표시를 첨부하거나 대화속도를 파악할 수 있는 그래픽에 애니메이션 기능을 첨부하여 학습효과를 높일 수 있다.The speed profile can enhance the learning effect by presenting the conversation speed graphically, by attaching a speech speed promotion sign to the dialogue, or by attaching an animation function to the graphic which can recognize the conversation speed.

한편, 증강현실 훈련 과정(S400)은, 대화훈련콘텐츠의 증강현실화면을 제공하여 증강현실을 통한 대화훈련이 이루어지도록 하는 과정이다.Meanwhile, the augmented reality training process (S400) is a process for providing augmented reality screen of the conversation training content to allow conversation training through the augmented reality.

이러한 증강현실 훈련 과정(S400)은 도 6에 도시한 바와 같이, 증강현실 재생 과정(S410), 학습자 증강현실 입력 과정(S420), 증강현실 훈련 평가 과정(S430), 및 증강현실 피드백 학습 과정(S450)을 포함할 수 있다.6, the augmented reality training process S400 includes augmented reality regeneration process S410, a learner augmenting reality input process S420, an augmented reality training evaluation process S430, and an augmented reality feedback learning process S450).

증강현실 재생 과정(S410)은, 대화훈련콘텐츠의 대화훈련 증강현실(AR;Augmented Reality)을 재생하는 과정이다.The augmented reality regeneration process (S410) is a process of reproducing a conversation augmented reality (AR) of the conversation training content.

학습자 증강현실 입력 과정(S420)은, 대화훈련 증강현실 재생 중에 학습자로 대체될 등장인물 등장시에, 학습자의 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 실시간으로 입력받아, 등장인물 대신에 학습자의 음성, 제스쳐, 및 표정으로 대체하여 표시하는 과정이다. AR 대화 동영상을 보고 학습자가 그 중 대화가 생략된 등장인물이 되어 동영상에 참여한다. 이때 학습자의 음성입력과, 표정, 제스처 정보가 함께 입력되어 처리된다. The learner augmented reality inputting process S420 is a process of inputting an augmented reality input source including a learner's voice, a gesture, and a facial expression in real time at the time of appearance of a character to be replaced as a learner during the conversation augmented augmented reality reproduction, And the learner's voice, gesture, and facial expression. The participant sees the AR conversation video and participates in the video as a character whose dialogue is omitted. At this time, the learner's voice input, facial expression, and gesture information are input and processed together.

증강현실 훈련 평가 과정(S430)은, 학습자로부터 입력된 증강현실 입력소스를 분석하여, 증강현실 입력소스가 미리 설정된 대화평가기준에 부합하는 경우 증강현실 훈련 성공(S430a)으로 결정하며, 증강현실 입력소스가 상기 대화평가기준에 부합하지 않는 경우 증강현실 훈련 실패(S430b)로 결정하는 과정(S430)이다.The augmented reality training evaluation process (S430) analyzes the augmented reality input source input from the learner, determines the augmented reality training success (S430a) if the augmented reality input source meets a preset dialogue evaluation criterion, If the source does not meet the conversation evaluation criteria, it is determined that the augmented reality training failed (S430b) (S430).

증강현실 피드백 학습 과정(S450)은, 증강현실 훈련 실패(S430b)로 결정되면, 학습자에 대해 증강현실 피드백 학습이 이루어지도록 하는 과정이다. 대화평가에서 실패한 경우 피드백을 제시하고, 학습자의 평가결과를 반영한 학습자료를 제시하고 학습자는 대화기술을 학습하고 동영상에 참여를 하여 학습이 이루어지도록 한다.The augmented reality feedback learning process (S450) is a process for causing the augmented reality feedback learning to be performed for the learner when it is determined that the augmented reality training fails (S430b). In case of failure in dialogue evaluation, feedback is presented, learning material reflecting the evaluation result of the learner is presented, and the learner learns the conversation skill and engages in the video.

증강현실 피드백 학습 과정(S350)은 도 6에 도시한 바와 같이, 증강현실 훈련 실패되었음을 피드백하여 알려주는 과정(S451), 증간현실을 이용한 대화학습에 사용되는 증강현실 관련 학습자료를 제공하는 과정(S452), 증강현실 관련 학습자료를 이용해 학습한 학습자로부터 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 입력(S453)받아, 입력되는 학습자의 증강현실 입력소스가 대화평가기준에 부합하는 경우 1차학습 증강현실 훈련 성공(S454a)으로 결정하며, 부합하지 않는 경우 1차학습 더빙음성 훈련 실패(S454b)로 결정하는 과정(S454), 1차학습 증강현실 훈련 실패(S454b)로 결정되는 경우, 1차학습 증강현실 훈련 실패 원인을 분석하여 증강현실 학습자료를 수정(S456)하여, 증강현실 수정 학습자료를 제공하는 과정(S457), 증강현실 수정 학습자료를 이용해 오류 부분을 학습(S457)한 학습자로부터 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 입력받아, 입력되는 증강현실 입력소스가 대화평가기준에 부합하는 경우 2차학습 증강현실 훈련 성공(S459a)으로 결정하며, 부합하지 않는 경우 2차학습 증강현실 훈련 실패(S459b)로 결정하는 과정(S459)을 가진다. 상기에서 오류부분 학습(S458)은, 대화시작 타이밍, 말 명료도, 대화 속도, 억양, 시선, 제스쳐를 포함한 대화기술에 대한 학습화면을 제공하는 과정을 제공할 수 있다.As shown in FIG. 6, the augmented reality feedback learning process (S350) includes a process (S451) of notifying that the augmented reality training has failed (S451), a process of providing the augmented reality related learning aids S452), inputting the augmented reality input source including voice, gesture, and expression from the learned learner using the augmented reality related learning material (S453), and if the input augmented reality input source of the input learner meets the conversation evaluation criteria If it is determined that the first learning augmented reality training is not successful (S454a), if it is determined that the first learning augmented reality training is failed (S454b), then the first learning augmented reality training failure (S454b) (S456) by analyzing the cause of the failure of the first learning augmented reality training, and then the augmented reality modified learning material is provided (S457), and the augmented reality modified learning material is used When an input augmented reality input source including voice, gesture, and facial expression is input from a learner who has learned an error part (S457), and the input augmented reality input source meets the dialogue evaluation criterion, a secondary aural augmented reality training success (S459a ), And if it does not match, it is determined to be the secondary learning augmented reality training failure (S459b) (S459). The error partial learning (S458) may provide a process of providing a learning screen for a conversation description including a conversation start timing, a speech intelligibility, a conversation speed, an intonation, a line of sight, and a gesture.

이러한 증강현실 수정 학습자료는, 학습자가 증간현실에 참여하는 동안 대화 상대방에게 시선을 응시하지 못하고 주변 사물에 시선이 집중된다면, 대화 상대방의 눈을 강조하여 표시하거나 학습자의 시선 방향을 트랙킹하여 증강현실에 표시한 학습자료일 수 있다.If the learner can not gaze at the conversation partner while gazing at the neighboring objects while the participant is participating in the incremental reality, the augmented reality modified learning data may be displayed by emphasizing the eyes of the conversation partner or tracking the gaze direction of the learner, May be the learning material displayed on the screen.

상술하면, 학습자의 음성과 표정, 제스처 정보 데이터를 분석하여 대화평가를 하고 피드백을 제시한다. 성공하면 성공피드백을 제시하고 대화동영상으로 진행한다. 실패한 경우에는 피드백을 제시하고, 학습자의 분석결과를 반영하여 학습자료를 수정한다. 수정된 학습자료를 제시하고, 학습자 오류특성에 대한 부분학습으로 진행한다. 예를 들어 대화를 하는 동안 시선이 계속 주변을 살피고, 대화에 참여하는 타이밍을 반복해서 놓치는 학습자의 경우, 오류부분학습에서 대화를 하는 동안 eye- tracking 결과를 제시하고 시선처리 연습을 할 수 있다. 이때 대화영상을 제시하면서 대화영상에 eye- tracking을 함께 제시하여 대화 상대방의 시선보기 연습을 할 수 있고, 학습자의 수행률에 따라 eye- tracking 촉진 정도가 자동적으로 조절된다. 또한 대화에 지속적으로 참여하는 타이밍이 낮은 경우 자신의 대화타이밍을 촉구하는 그래픽 학습기제(예, 숫자타이머, 화살)를 제시하고, 학습자의 학습수행률에 따라 촉구정도가 자동적으로 조절되어 학습자의 오류특성을 수정하는 연습을 할 수 있다. 학습자의 오류특성에 따라 오류부분에 대해 한 가지씩 연습하여 수정되면 두가지 오류를 동시에 연합해서 연습할 수도 있다. 이 또한 학습자의 반응에 따라 체계적으로 진행되어 진다.In other words, the learner's voice, facial expression, and gesture information data are analyzed to evaluate the conversation and provide feedback. If successful, submit success feedback and proceed to a conversation video. In case of failure, feedback is presented, and the learning data is corrected by reflecting the results of the learner 's analysis. Present modified learning materials and proceed with partial learning about learner error characteristics. For example, in the case of a learner who repeatedly misses the timing of gazing at the conversation while gazing at the surroundings during the conversation, the user can present the eye-tracking result during the conversation during the error part learning and practice the gaze processing. At this time, eye-tracking can be presented to the dialogue image while presenting the dialogue image, and the eye-tracking facilitation degree is automatically controlled according to the learner's performance rate. In addition, if the timing of continuous participation in conversation is low, a graphical learning device (eg, a numerical timer, arrow) that prompts the timing of the conversation is presented and the degree of prompting is automatically adjusted according to the learning performance rate of the learner, You can practice modifying characteristics. Depending on the error characteristics of the learner, you can practice by combining two errors at the same time by practicing one by one for the error part. This is also done systematically according to the learner 's response.

동영상 참여는 학습자가 해당 등장인물로 참여하여 학습자의 음성과 표정, 시선, 제스처가 동영상에 포함되는 것을 말한다. 학습자료는 학습자 맞춤형으로 수정된 대화동영상과 대화모델, 그래픽으로 구성되고, 학습자의 대화평가 분석결과에 따라 내용 구성의 차이가 있다.Video participation refers to the learner participating in the character as the character, and the learner's voice, facial expression, gaze, and gesture are included in the video. The learning materials consist of conversation videos, dialogue models, and graphics modified by the learner 's customized contents.

대화 동영상은 앞서 제시된 대화동영상에서 학습자의 대화평가의 분석결과를 반영하여 수정하여 제시되는 대화 동영상이다. 예를 들어, 학습자가 동영상 참여동안 대화 상대방에게 시선을 응시하지 못하고 주변 사물에 시선이 집중된다면, 수정된 대화 동영상에서는 대화 상대방의 눈이 강조되거나 eye-tracking으로 시선 움직임을 동영상에 표시할 수 있다.  그래픽은 음성 스펙트럼과 속도 프로파일, 시선프로파일에 애니메이션 그래픽을 첨가하여 학습 보조자료로 활용하는 것이다.   The dialogue video is a dialogue video presented by modifying the analysis results of the learner 's dialogue evaluation in the dialogue video presented above. For example, if a learner is unable to gaze at a conversation partner while watching a video and focuses on the surrounding objects, the conversation partner can highlight the conversation partner's eyes or display the eye movement with eye-tracking . The graphics are used as learning aids by adding voice spectrum, speed profile, and eye profile to animated graphics.

오류부분학습은 학습자의 동영상 참여에서 나타난 대화기술의 오류부분에 대해서만 따로 부분학습을 실시하는것이다. 예를 들어 대화에 참여하는 동안 손과발을 계속 비비꼬며 어색해하고, 대화할 때 말소리가 작은 경우 제스처가 강조된 대화모델 학습자료를 제시하여 학습자가 모방하여 학습할 수 있도록 한다.  말소리에 대해서는 대화모델의 대화예시와 음성스펙트럼그래픽을 제시하여 적절한 음성톤으로 말하는 학습을 할 수 있다. 또 제스처와 음성학습을 각각 실시한 후 제스처와 음성톤 학습자료를 결합하여 적절한 대화제스처를 유지하면서 적절한 크기의 음성톤으로 대화하는 연습을 할 수 있다.The error part learning is to perform partial learning only for the error part of the conversation skill shown in the participant's video participation. For example, while participating in a conversation, keep hands and feet awkward and awkward, and if conversation is small, present conversational model learning materials with emphasis on gestures so that learners can learn by imitation. Speaking can be done by presenting conversation model conversation examples and speech spectrum graphics to speak with appropriate voice tones. You can also perform gestures and voice learning separately, then combine the gestures with the voice-to-speech data to practice speaking with the appropriate-sized voice tones while maintaining proper dialog gestures.

학습자료의 생성 예를 도 8과 함께 상술하면, 학습자료에는 대화 동영상과 학습자료, 대화모델, 그래픽(340)으로 구성된다. 대화 동영상은 학습자의 대화평가 분석결과를 반영하여 해당 인물의 얼굴, 제스처, 시선, 음성 등이 증폭 강조되거나 애니메이션 그래픽이 첨가되어 제시된다.8, the learning material includes a conversation video, a learning material, a dialogue model, and a graphic (340). The conversation video reflects the learner 's dialogue evaluation analysis result, and the face, gesture, gaze, and voice of the person are emphasized or added with animated graphic.

대화모델은 음성모델과 표정모델, 제스처모델로 구성된다. 음성모델은 대화모델의 언어적 대화기술을 반영한 것으로, 대화내용과 음성, 대화타이밍 등을 포함하여 학습자가 언어적 대화 기술을 모방하여 학습하게 한다. 표정모델은 대화모델의 눈시선, 얼굴표정을 제시하여 학습자가 얼굴표정과 관련된 비언어적 대화기술을 모방하여 학습하게 한다. 제스처모델은 학습자의 부적절한 제스처를 설명하거나 대화모델의 손과 발, 자세 같은 행동을 제시하여 학습자가 행동과 관련된 비언어적 대화기술을 모방하여 학습하게 한다The dialogue model consists of a voice model, an expression model, and a gesture model. The voice model reflects the linguistic dialogue technique of the dialogue model and allows learners to imitate linguistic dialogue techniques including dialogue content, voice, and dialog timing. The facial expression model presents the eye gaze and facial expressions of the dialogue model, allowing the learner to imitate nonverbal conversation techniques related to facial expression. The gesture model allows learners to imitate nonverbal conversation skills related to behavior by explaining the learner's inappropriate gestures or presenting behaviors such as the hands, feet, and postures of the conversation model

상술한 본 발명의 설명에서의 실시예는 여러가지 실시가능한 예중에서 당업자의 이해를 돕기 위하여 가장 바람직한 예를 선정하여 제시한 것으로, 이 발명의 기술적 사상이 반드시 이 실시예만 의해서 한정되거나 제한되는 것은 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 다양한 변화와 변경 및 균등한 타의 실시예가 가능한 것이다.The embodiments of the present invention described above are selected and presented in order to assist those of ordinary skill in the art from among various possible examples. The technical idea of the present invention is not necessarily limited to or limited to these embodiments Various changes, modifications, and other equivalent embodiments are possible without departing from the spirit of the present invention.

10:학습자 단말기
S100:대화 콘텐츠 선택 과정
S200:대화학습 훈련 과정
S300:대화실전 더빙 훈련 과정
S400:증강현실 훈련 과정
10: Learner terminal
S100: conversation content selection process
S200: Conversation Learning Course
S300: Dialogue dubbing training course
S400: Augmented Reality Training Course

Claims (13)

학습자 단말기에 설치된 대화훈련콘텐츠앱이 학습자에 대한 대화훈련 학습을 시키는 더빙/AR을 이용한 참여형 대화훈련 학습 방법에 있어서,
대화훈련학습에 사용될 대화내용과 대화훈련학습수준을 가지는 콘텐츠를 학습자로부터 선택받아, 선택된 콘텐츠를 대화훈련콘텐츠로 결정하는 대화훈련콘텐츠 선택 과정;
대화훈련콘텐츠의 대화훈련화면을 제공하여 대화훈련화면을 통한 대화훈련이 이루어지도록 하는 대화학습 훈련 과정;
상기 대화학습 훈련 종료 후 평가를 거쳐 미리 설정된 기준에 미달할 경우, 대화훈련콘텐츠의 대화실전더빙화면을 제공하여 대화실전더빙을 통한 대화훈련이 이루어지도록 하는 대화실전더빙 훈련 과정; 및
상기 대화실전더비 훈련 종료 후 평가를 거쳐 미리 설정된 기준에 미달할 경우, 대화훈련콘텐츠의 증강현실화면을 제공하여 증강현실을 통한 대화훈련이 이루어지도록 하는 증강현실 훈련 과정;
을 포함하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
A participant-type conversation training learning method using a dubbing / AR in which a conversation training content app installed in a learner terminal performs conversation training learning for a learner,
A conversation training content selecting step of selecting a content having a conversation content and a conversation training learning level to be used for conversation training learning from a learner and determining the selected content as conversation training content;
A conversation learning training process for providing a conversation training screen of conversation training contents to allow conversation training through a conversation training screen;
A conversation practice dubbing training process for providing a conversation practice dubbing screen of the conversation training contents so as to conduct conversation training through dubbing conversation dubbing when evaluation after the completion of the conversation learning training is not met, And
An augmented reality training process for providing conversation training through the augmented reality by providing an augmented reality screen of the conversation training content when evaluation is made after completion of the conversation practice derby training and is below a predetermined standard;
A participatory dialog training training method using dubbing / AR.
청구항 1에 있어서, 상기 대화훈련콘텐츠 선택 과정은,
대화 써클수, 대화 주제, 대화참여 인원수를 학습자로부터 선택받음으로써 대화훈련학습수준이 결정되도록 함을 특징으로 하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
The method according to claim 1,
Wherein the conversation training learning level is determined by selecting the number of conversation circles, conversation topic, and conversation participant from the learners.
청구항 1에 있어서, 상기 대화학습 훈련 과정은,
상기 대화훈련콘텐츠의 대화 동영상을 재생하는 대화 동영상 재생 과정;
상기 대화 동영상 재생 중에 대화가 생략된 등장인물의 등장시에 화면을 정지하고, 학습자로부터 발성되는 대화음성을 학습자 대화내용으로 입력받는 학습자 대화내용 입력 과정;
학습자로부터 입력된 학습자 대화내용의 음성을 분석하여, 학습자 대화내용이 미리 설정된 대화평가기준에 부합하는 대화내용인 경우 대화학습 훈련 성공으로 결정하며, 학습자 대화내용이 상기 대화평가기준에 부합하지 않는 대화내용인 경우 대화학습 훈련 실패로 결정하는 대화학습 평가 과정;
상기 대화학습 훈련 성공으로 결정되면, 학습자 요청이 있는 경우 상기 대화실전더빙 훈련 과정을 수행하는 대화실전더빙화면 이동 과정; 및
상기 대화학습 훈련 실패로 결정되면, 학습자에 대해 대화학습 피드백 학습이 이루어지도록 하는 대화학습 피드백 학습 과정;
을 포함하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
The method according to claim 1,
A dialogue moving picture reproducing step of playing a conversation moving picture of the conversation training contents;
A learner conversation content input process of stopping the screen at the time of appearance of a character whose dialogue is omitted during the conversation movie reproduction and inputting a conversation voice uttered by the learner as learner conversation contents;
The learner's conversation content is determined to be success in the case of the conversation content meeting the predetermined conversation evaluation criterion and the learner conversation content is determined to be a conversation learning content that does not meet the conversation evaluation criteria A conversation learning evaluation process that decides that conversational learning training is failed if the content is content;
A conversation execution dubbing screen movement process of performing the conversation practice dubbing training process when it is determined that the conversation learning training is successful; And
A conversation learning feedback learning process for allowing conversation learning feedback learning to be performed for the learner when it is determined that the conversation learning is failed;
A participatory dialog training training method using dubbing / AR.
청구항 3에 있어서, 상기 학습자 대화내용 입력 과정은,
학습자로부터 발성되는 대화음성을 문자로 변환하여 화면에 표시함을 특징으로 하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
4. The method of claim 3,
And converting the conversation utterances uttered by the learner into characters and displaying them on the screen.
청구항 3에 있어서, 상기 대화학습 피드백 학습 과정은,
대화훈련 실패되었음을 알려주는 대화학습 결과 피드백 과정;
대화예시를 제시하고, 대화훈련 실패로 결정된 학습자로부터 대화예시 중에서 어느 하나의 대화예시를 선택받는 과정;
학습자 음성을 입력받아, 입력된 학습자 음성이 대화예시와 오차 범위내에서 일치하는 경우 대화예시 훈련 성공으로 결정하며, 일치하지 않는 경우 대화예시 훈련 실패로 결정하는 과정;
상기 대화예시 훈련 실패로 결정되는 경우, 대화내용을 재생하여 학습자가 대화내용을 듣도록 하는 과정;
대화내용을 모방하는 학습자 음성을 입력받아, 입력된 학습자 음성이 재생되는 대화내용과 오차 범위내에서 일치하는 경우 대화모방 훈련 성공으로 결정하며, 일치하지 않는 경우 대화모방 훈련 실패로 결정하는 과정;
상기 대화모방 훈련 실패로 결정되는 경우, 대화내용을 음성변환한 음성변환 대화내용을 재생하여 학습자가 음성변환 대화내용을 듣도록 하는 과정; 및
음성변환 대화내용을 모방하는 학습자 음성을 입력받아, 입력된 학습자 음성이 재생되는 음성변환 대화내용과 오차 범위내에서 일치하는 경우 음성변환 훈련 성공으로 결정하며, 일치하지 않는 경우 음성변환 훈련 실패로 결정하는 과정;
을 포함하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
4. The method of claim 3,
A dialogue that informs that the conversation training failed;
A step of presenting a conversation example and selecting one of the conversation examples from among the conversation examples from the learner determined to have failed the conversation training;
A step of receiving a learner voice and determining that the learner's voice is successful if the learner's voice coincides with the dialogue example within an error range;
A step of causing the learner to listen to the conversation contents by reproducing the conversation contents when it is determined that the conversation example training is failed;
Receiving a learner voice that imitates conversation contents and determining that conversation imitation training is successful if the input learner voice coincides with the conversation contents within an error range;
A step of allowing the learner to listen to the speech conversion conversation contents by reproducing the speech conversion conversation contents in which the conversation contents are voice-converted when the conversation imitation training failure is determined; And
The learner's voice imitating the voice conversion conversation contents is input. If the input learner voice coincides with the voice conversion conversation contents to be reproduced within the error range, it is determined that the voice conversion training is successful. Process;
A participatory dialog training training method using dubbing / AR.
청구항 5에 있어서, 상기 대화내용을 음성변환하는 것은,
등장인물의 음성을 음성증폭, 속도조절하여 변환함을 특징으로 하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
The method according to claim 5,
And the voice of the character is amplified and speed-adjusted to convert the voice of the character.
청구항 1에 있어서, 상기 대화실전더빙 훈련 과정은,
상기 대화훈련콘텐츠의 대화 동영상을 재생하는 대화 동영상 재생 과정;
상기 대화 동영상 재생 중에 대화가 생략된 등장인물의 등장시에 화면 정지 없이 학습자로부터 발성되는 대화음성을 학습자 더빙음성으로서 실시간으로 입력받는 학습자 더빙음성 입력 과정;
학습자로부터 입력된 학습자 더빙음성을 분석하여, 학습자 더빙음성이 미리 설정된 대화평가기준에 부합하는 더빙음성인 경우 더빙음성 훈련 성공으로 결정하며, 학습자 더빙음성이 상기 대화평가기준에 부합하지 않는 더빙음성인 경우 더빙음성 훈련 실패로 결정하는 더빙음성 평가 과정;
상기 더빙음성 훈련 성공으로 결정되면, 학습자 요청이 있는 경우 상기 증강현실 훈련 과정을 수행하는 증강현실화면 이동 과정; 및
상기 더빙음성 훈련 실패로 결정되면, 학습자에 대해 더빙음성 피드백 학습이 이루어지도록 하는 더빙음성 피드백 학습 과정;
을 포함하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
The method according to claim 1,
A dialogue moving picture reproducing step of playing a conversation moving picture of the conversation training contents;
A learner dubbing voice input process in which a conversation voice uttered from a learner is input as a learner dubbing voice in real time when a character whose communication is omitted during the reproduction of the conversation moving picture is input;
The learner's dubbing voice inputted from the learner is analyzed to determine success of the dubbing voice training when the learner's voice is a dubbing voice conforming to a predetermined conversation evaluation standard, A dubbing voice evaluation process for determining a dubbing voice training failure;
An augmented reality screen movement process for performing the augmented reality training process when it is determined that the dubbing voice training is successful; And
A dubbing voice feedback learning process for making a dubbing voice feedback learning to the learner when it is determined that the dubbing voice training is failed;
A participatory dialog training training method using dubbing / AR.
청구항 7에 있어서, 상기 더빙음성 피드백 학습 과정은,
더빙음성 훈련 실패되었음을 피드백하여 알려주는 과정;
대화더빙을 이용한 대화학습에 사용되는 대화더빙 관련 학습자료를 제공하는 과정;
상기 대화더빙 관련 학습자료를 이용해 학습한 학습자로부터 더빙음성을 입력받아, 입력되는 학습자 더빙음성이 상기 대화평가기준에 부합하는 경우 1차학습 더빙음성 훈련 성공으로 결정하며, 부합하지 않는 경우 1차학습 더빙음성 훈련 실패로 결정하는 과정;
상기 1차학습 더빙음성 훈련 실패로 결정되는 경우, 1차학습 더빙음성 훈련 실패 원인을 분석하여 대화더빙 수정 학습자료를 제공하는 과정; 및
상기 대화더빙 수정 학습자료를 이용해 학습한 학습자로부터 더빙음성을 입력받아, 입력되는 학습자 더빙음성이 상기 대화평가기준에 부합하는 경우 2차학습 더빙음성 훈련 성공으로 결정하며, 부합하지 않는 경우 2차학습 더빙음성 훈련 실패로 결정하는 과정;
을 포함하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
8. The method of claim 7,
A process of feedbacking that the dubbing voice training has failed;
A process of providing conversation dubbing related learning materials used for conversation learning using conversation dubbing;
A dubbing voice is input from a learned learner using the conversation dubbing-related learning material, and when the inputted learner dubbing voice meets the conversation evaluation criteria, it is determined that the first learning dubbing voice training is successful, Dubbing voice training failure;
Analyzing the cause of the failure of the first learning dubbing voice training and providing communication dubbing correction learning data when it is determined that the first learning dubbing voice training is failed; And
And a second learning dubbing voice training success is determined to be successful if the learner voice inputted is learned from the learned learner using the conversation dubbing correction learning material and the inputted learner dubbing voice meets the conversation evaluation criteria, Dubbing voice training failure;
A participatory dialog training training method using dubbing / AR.
청구항 8에 있어서, 상기 대화더빙 관련 학습자료와 대화더빙 수정 학습자료는,
더빙음성 훈련 실패한 학습자의 실패원인에 대응할 수 있도록 학습자별로 다르게 제공되는 학습자료로서, 더빙음성 구간의 등장인물의 얼굴과 음성이 증폭된 동영상을 제공하며, 등장인물의 대사와 대화속도를 함께 표시함을 특징으로 하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
9. The method of claim 8, wherein the interactive dubbing-
Dubbing voice training Provided differently for each learner to respond to the cause of failure of the failed learner, it provides the video of the face and the voice of the character of the Dubbing voice section amplified, and shows the dialogue speed and the metabolism of the character A participatory dialog training training method using dubbing / AR.
청구항 1에 있어서, 상기 증강현실 훈련 과정은,
상기 대화훈련콘텐츠의 대화훈련 증강현실(AR)을 재생하는 증강현실 재생 과정;
상기 대화훈련 증강현실 재생 중에 학습자로 대체될 등장인물 등장시에, 학습자의 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 실시간으로 입력받아, 등장인물 대신에 학습자의 음성, 제스쳐, 및 표정으로 대체하여 표시하는 학습자 증강현실 입력 과정;
학습자로부터 입력된 증강현실 입력소스를 분석하여, 상기 증강현실 입력소스가 미리 설정된 대화평가기준에 부합하는 경우 증강현실 훈련 성공으로 결정하며, 상기 증강현실 입력소스가 상기 대화평가기준에 부합하지 않는 경우 증강현실 훈련 실패로 결정하는 증강현실 훈련 평가 과정; 및
상기 증강현실 훈련 실패로 결정되면, 학습자에 대해 증강현실 피드백 학습이 이루어지도록 하는 증강현실 피드백 학습 과정;
을 포함하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
The method of claim 1, wherein the augmented reality training process comprises:
An augmented reality regeneration process for regenerating a conversation training augmented reality (AR) of the conversation training content;
A gesture, and a facial expression in real time when a character to be replaced by a learner appears during the conversation-training augmented reality reproduction, receives a learner's voice, a gesture, and a facial expression A learner augmented reality input process for displaying the learner augmented reality substitution;
The input source of the augmented reality inputted from the learner is analyzed to determine success of the augmented reality training when the augmented reality input source meets a predetermined dialogue evaluation criteria, and when the augmented reality input source does not meet the conversation evaluation criteria Augmented reality training assessment process to determine augmented reality training failure; And
An augmented reality feedback learning process for causing a learner to perform augmented reality feedback learning when it is determined that the augmented reality training is failed;
A participatory dialog training training method using dubbing / AR.
청구항 10에 있어서, 상기 증강현실 피드백 학습 과정은,
증강현실 훈련 실패되었음을 피드백하여 알려주는 과정;
증간현실을 이용한 대화학습에 사용되는 증강현실 관련 학습자료를 제공하는 과정;
상기 증강현실 관련 학습자료를 이용해 학습한 학습자로부터 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 입력받아, 입력되는 학습자의 증강현실 입력소스가 상기 대화평가기준에 부합하는 경우 1차학습 증강현실 훈련 성공으로 결정하며, 부합하지 않는 경우 1차학습 증강현실 훈련 실패로 결정하는 과정;
상기 1차학습 증강현실 훈련 실패로 결정되는 경우, 1차학습 증강현실 훈련 실패 원인을 분석하여 증강현실 수정 학습자료를 제공하는 과정; 및
상기 증강현실 수정 학습자료를 이용해 학습한 학습자로부터 음성, 제스쳐, 및 표정을 포함하는 증강현실 입력소스를 입력받아, 입력되는 증강현실 입력소스가 상기 대화평가기준에 부합하는 경우 2차학습 증강현실 훈련 성공으로 결정하며, 부합하지 않는 경우 2차학습 증강현실 훈련 실패로 결정하는 과정;
을 포함하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
11. The method of claim 10, wherein the augmented reality feedback learning process comprises:
A process of feedbacking that augmented reality training has failed;
A process of providing learning materials related to augmented reality used in dialogue learning using incremental reality;
The augmented reality input source including the voice, the gesture, and the facial expression from the learned learner using the augmented reality-related learning material is input, and when the augmented reality input source of the input learner meets the conversation evaluation criteria, Determine the success of the actual training and, if not, determine the failure of the first learning augmented reality training;
Analyzing the cause of failure of the first learning augmented reality training and providing the augmented reality modification learning material when it is determined that the first learning augmented reality training is failed; And
The augmented reality input source including the voice, the gesture, and the facial expression from the learned learner using the augmented reality modified learning material, and if the inputted augmented reality input source meets the conversation evaluation criteria, Determine success and, if not, determine the failure of secondary augmented reality training;
A participatory dialog training training method using dubbing / AR.
청구항 11에 있어서, 상기 증강현실 수정 학습자료는,
학습자가 증간현실에 참여하는 동안 대화 상대방에게 시선을 응시하지 못하고 주변 사물에 시선이 집중된다면, 대화 상대방의 눈을 강조하여 표시하거나 학습자의 시선 방향을 트랙킹하여 증강현실에 표시한 학습자료임을 특징으로 하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
[Claim 12] The method of claim 11,
If the learner is unable to gaze at the conversation partner while participating in the present reality, if the attention is focused on the surrounding objects, it is the learning material displayed by emphasizing the eyes of the conversation partner or tracking the direction of the learner ' Participatory dialogue training method using dubbing / AR.
청구항 1, 청구항 7, 및 청구항 10 중 어느 하나의 항에 있어서, 상기 대화평가기준은,
언어적 대화의 경우, 핵심어 평가기준, 대화표현 평가기준, 대화반응속도 평가기준, 대화규칙 평가기준, 말속도 평가기준, 말소리 강도 평가기준, 대화반복 평가기준, 대화생략 평가기준, 대화억양 평가기준을 하나 이상 포함하며,
비언어적 대화의 경우, 표정 평가기준, 제스쳐 평가기준, 시선 평가기준을 하나 이상 포함하는 더빙/AR을 이용한 참여형 대화훈련 학습 방법.
The method according to any one of claims 1, 7, and 10,
In the case of linguistic conversation, evaluation criteria of key words, evaluation criteria of dialogue expression, evaluation criteria of dialogue reaction rate, evaluation criteria of dialogue rule, evaluation criteria of speech speed, evaluation criteria of speech strength, evaluation criteria of dialogue repetition, , ≪ / RTI >
In non-verbal conversation, participative dialogue training training method using dubbing / AR including one or more expression evaluation criteria, gesture evaluation criteria, and gaze evaluation criteria.
KR1020170084759A 2017-07-04 2017-07-04 Method for training conversation using dubbing/AR KR101949997B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170084759A KR101949997B1 (en) 2017-07-04 2017-07-04 Method for training conversation using dubbing/AR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170084759A KR101949997B1 (en) 2017-07-04 2017-07-04 Method for training conversation using dubbing/AR

Publications (2)

Publication Number Publication Date
KR20190004486A true KR20190004486A (en) 2019-01-14
KR101949997B1 KR101949997B1 (en) 2019-02-19

Family

ID=65027536

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170084759A KR101949997B1 (en) 2017-07-04 2017-07-04 Method for training conversation using dubbing/AR

Country Status (1)

Country Link
KR (1) KR101949997B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339767A (en) * 2020-02-21 2020-06-26 百度在线网络技术(北京)有限公司 Conversation source data processing method and device, electronic equipment and computer readable medium
KR102129825B1 (en) * 2019-09-17 2020-07-03 (주) 스터디티비 Machine learning based learning service system for improving metacognitive ability
KR20220169001A (en) 2021-06-17 2022-12-26 고려대학교 산학협력단 Device and method for working memory training based on mobile augmented reality

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080097619A (en) * 2007-05-02 2008-11-06 김시은 Learning system and method by interactive conversation
KR20100005177A (en) 2008-07-05 2010-01-14 임영희 Customized learning system, customized learning method, and learning device
KR20100118943A (en) * 2009-04-29 2010-11-08 주식회사 아코엔터테인먼트 Augmented reality studio foreign language study system
KR20150136583A (en) * 2014-05-27 2015-12-07 얄리주식회사 Apparatus and method for multi-language dialogue

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080097619A (en) * 2007-05-02 2008-11-06 김시은 Learning system and method by interactive conversation
KR20100005177A (en) 2008-07-05 2010-01-14 임영희 Customized learning system, customized learning method, and learning device
KR20100118943A (en) * 2009-04-29 2010-11-08 주식회사 아코엔터테인먼트 Augmented reality studio foreign language study system
KR20150136583A (en) * 2014-05-27 2015-12-07 얄리주식회사 Apparatus and method for multi-language dialogue

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102129825B1 (en) * 2019-09-17 2020-07-03 (주) 스터디티비 Machine learning based learning service system for improving metacognitive ability
CN111339767A (en) * 2020-02-21 2020-06-26 百度在线网络技术(北京)有限公司 Conversation source data processing method and device, electronic equipment and computer readable medium
KR20220169001A (en) 2021-06-17 2022-12-26 고려대학교 산학협력단 Device and method for working memory training based on mobile augmented reality

Also Published As

Publication number Publication date
KR101949997B1 (en) 2019-02-19

Similar Documents

Publication Publication Date Title
US9691296B2 (en) Methods and apparatus for conversation coach
CN107203953B (en) Teaching system based on internet, expression recognition and voice recognition and implementation method thereof
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
Pelikan et al. Why that nao? how humans adapt to a conventional humanoid robot in taking turns-at-talk
US10235620B2 (en) Guided personal companion
US9704103B2 (en) Digital companions for human users
US20100304342A1 (en) Interactive Language Education System and Method
US20190294638A1 (en) Dialog method, dialog system, dialog apparatus and program
WO2018163647A1 (en) Dialogue method, dialogue system, dialogue device, and program
JP6705956B1 (en) Education support system, method and program
Duval et al. SpokeIt: building a mobile speech therapy experience
US11501768B2 (en) Dialogue method, dialogue system, dialogue apparatus and program
JP6699010B2 (en) Dialogue method, dialogue system, dialogue device, and program
US10964323B2 (en) Acquisition method, generation method, system therefor and program for enabling a dialog between a computer and a human using natural language
KR101949997B1 (en) Method for training conversation using dubbing/AR
Norrthon To stage an overlap–The longitudinal, collaborative and embodied process of staging eight lines in a professional theatre rehearsal process
Niebuhr et al. Virtual reality as a digital learning tool in entrepreneurship: How virtual environments help entrepreneurs give more charismatic investor pitches
JP2017208003A (en) Dialogue method, dialogue system, dialogue device, and program
CN117541444B (en) Interactive virtual reality talent expression training method, device, equipment and medium
JP6656529B2 (en) Foreign language conversation training system
KR102325506B1 (en) Virtual reality-based communication improvement system and method
KR101681673B1 (en) English trainning method and system based on sound classification in internet
Kadagidze Different types of listening materials
KR20120031373A (en) Learning service system and method thereof
US11605390B2 (en) Systems, methods, and apparatus for language acquisition using socio-neuorocognitive techniques

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant