KR20190056749A - System and method for communication training program over virtual reality and continued feedback via mobile device - Google Patents

System and method for communication training program over virtual reality and continued feedback via mobile device Download PDF

Info

Publication number
KR20190056749A
KR20190056749A KR1020170154022A KR20170154022A KR20190056749A KR 20190056749 A KR20190056749 A KR 20190056749A KR 1020170154022 A KR1020170154022 A KR 1020170154022A KR 20170154022 A KR20170154022 A KR 20170154022A KR 20190056749 A KR20190056749 A KR 20190056749A
Authority
KR
South Korea
Prior art keywords
speaker
information
feedback
training
answer
Prior art date
Application number
KR1020170154022A
Other languages
Korean (ko)
Other versions
KR101998482B1 (en
Inventor
박종철
박진아
김정호
안영진
양원석
박한철
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170154022A priority Critical patent/KR101998482B1/en
Publication of KR20190056749A publication Critical patent/KR20190056749A/en
Application granted granted Critical
Publication of KR101998482B1 publication Critical patent/KR101998482B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to one embodiment of the present invention, a method for providing feedback may comprise the steps of: constructing a virtual reality environment for performing communication training of a speaker; obtaining speech training information including eye gaze information, behavior information, and dialog information of the speaker spoken from the speaker in the virtual reality environment; generating an analysis result related to the speaker by analyzing the obtained speech training information; and providing feedback based on the analysis result in response to speech information generated in a real situation from the speaker.

Description

가상현실 기반의 의사소통 훈련 및 모바일 장치를 이용한 지속적인 피드백 시스템 및 방법{SYSTEM AND METHOD FOR COMMUNICATION TRAINING PROGRAM OVER VIRTUAL REALITY AND CONTINUED FEEDBACK VIA MOBILE DEVICE}TECHNICAL FIELD [0001] The present invention relates to a virtual reality-based communication training and a continuous feedback system and method using a mobile device.

아래의 설명은 헤드 마운티드 디스플레이(HMD: Head Mounted Display) 기반의 가상현실(VR: Virtual Reality) 장치를 이용하여 가상현실 속에서 사용자의 의사소통 능력을 개선시킬 수 있는 훈련 과정을 제공하고, 모바일 장치를 이용하여 일상생활에서도 지속적인 피드백을 제공하는 시스템과 그 방법에 관한 것이다. 보다 구체적으로, 일상생활에서 접할 수 있는 다양한 상황을 구현한 가상현실에서 사용자의 발화와 행동을 분석하여 이에 대응하는 적절한 아바타의 반응과 피드백을 제공하고, 일상생활에서도 사용자의 발화를 지속적으로 분석하여 모바일 장치를 통해 실시간으로 피드백을 제공하는 시스템과 그 방법에 관한 것이다.
The following description provides a training process for improving the user's communication ability in a virtual reality using a VR (Virtual Reality) device based on a head mounted display (HMD) The present invention relates to a system and a method for providing continuous feedback in daily life by using the system. More specifically, we analyze users' utterances and behaviors in a virtual reality that implements various situations that can be encountered in everyday life, and provide appropriate responses and feedback of the avatar. In addition, To a system and method for providing feedback in real time via a mobile device.

가상현실을 이용한 교육 훈련은 현실에서 구현하기 어려운 다양한 환경을 가상의 공간상에 구축하여, 낮은 비용으로 여러 분야의 교육 훈련을 가능하게 해준다. 이러한 효율성 덕분에 가상현실을 이용한 교육 훈련은 다양한 분야에서 주목받고 있다. 특히 최근에는 취업 면접 및 협상 과정에서 의사소통 능력의 중요성이 부각되면서, 개인의 의사소통 능력 향상을 위한 다양한 교육 과정들이 등장하고 있다. 이러한 환경에서 가상현실을 이용한 교육 훈련은 이론 중심 및 제약된 상황에서의 교육에서 벗어나, 실제 환경과 유사한 다양한 상황을 제공함으로써 실전에서의 개인 의사소통 능력을 효과적으로 개선시킬 수 있는 기회를 제공한다.The virtual reality education and training enables various environments that are difficult to realize in reality to be built in virtual space, enabling education and training in various fields at low cost. Because of this efficiency, education and training using virtual reality has attracted attention in various fields. In recent years, as the importance of communication skills has been emphasized in job interviews and negotiations, various curriculums have been emerging to improve individual communication skills. In this environment, virtual reality education and training provide opportunities to effectively improve personal communication ability in real life by providing various situations similar to actual environment, away from education in theoretical and constrained situations.

기존에도 다양한 상황을 묘사할 수 있도록 디지털 장치들을 이용하여 의사소통 훈련을 지원하는 방법들이 많이 소개되어 왔으나, 이러한 방법들은 주로 아바타들과의 대화를 통해 교육 훈련을 진행하는 것이 일반적이었다. 이러한 방법들은 등록특허 제10-1743230호(2017.05.29.)에 따르면, 사용자의 의사소통 능력 인식 및 평가를 위해, 주로 음성인식 기술에만 의존하여 진행되는 경우가 대부분이었다. 의사소통은 음성 발화뿐만 아니라, 발화자의 시선, 상체 동작(Body Language)들의 조합으로 전체적인 의미와 의도를 전달하는 과정이기 때문에, 음성 분석 자체만으로는 의사소통 과정을 충분히 이해하기에는 부족한 면이 있다. 이에 따라 의사소통 과정을 이해하기 위해서는 음성 발화의 의미를 이해하기 위한 자연언어처리 기술뿐만 아니라, 사용자의 행동을 이해하기 위한 컴퓨터 비전 기술도 요구된다.There have been many methods to support communication training using digital devices so as to be able to describe various situations, but these methods were generally conducted through training with avatars. According to the registration number 10-1743230 (May 27, 2017), most of these methods are performed mainly based on voice recognition technology in order to recognize and evaluate the user's communication ability. Since communication is a process of conveying the whole meaning and intention through a combination of not only voice utterance but also a combination of a speaker's gaze and a body language, speech analysis itself is insufficient to fully understand the communication process. Therefore, in order to understand the communication process, not only natural language processing technology for understanding the meaning of speech utterance but also computer vision technology for understanding user's behavior is required.

또한, 등록특허 제10-1743230호(2017.05.29.), 공개특허 제10-2014-0088327호(2014.07.10.)를 참고하면, 종래의 가상현실에서의 훈련은 시나리오 스크립트 상에 정해진 순서대로만 대화를 주고받는 정적인 훈련이기 때문에 대화 순서가 일정하지 않고, 다양한 변수가 발생할 수 있는 실제 대화 상황에서는 적용하기에는 한계가 있다. In addition, referring to Registration No. 10-1743230 (May 27, 2017) and Published Patent No. 10-2014-0088327 (Apr. 10, 2014), training in the conventional virtual reality is performed only in a predetermined order on the scenario script Because it is static training to exchange conversation, there is a limit to apply in actual conversation situations where conversation order is not constant and various variables can occur.

또한, 등록특허 제10-1277313호(2013.06.14.)에서 제안된 의사소통 교육 훈련 방법은 사용자의 의사소통 능력 개선 여부를 추적하기 어렵다는 문제점이 존재한다. 기존의 기술들은 특정 상황에 대한 개인의 의사소통 방법에 대한 반복적 연습에만 목적을 두고 있기 때문에, 실제 대화에서 사용자에게 지속적으로 나타나는 의사소통 문제점에 대해 피드백을 제공하지는 못한다.
In addition, there is a problem that it is difficult to track whether the communication training ability improvement of the user is improved in the communication education training method proposed in the Registration No. 10-1277313 (June 23, 2013). Since existing technologies are only intended for repetitive practice of how individuals communicate about a particular situation, they do not provide feedback on persistent communication problems to users in real conversations.

본 발명은 상기와 같은 문제점을 해결하기 위해 고안된 것으로서, 가상으로 구현된 환경에서 아바타와의 대화를 통해 사용자의 발화를 이해할 뿐만 아니라 대화의 구성 요소인 발화자의 시선과 상체 동작을 파악하여 대화의 의미를 보다 종합적으로 이해하고, 이에 대응하는 아바타의 동적인 반응을 생성하여 실제 환경과 유사한 의사소통 환경을 제공하는데 목적이 있다. The present invention has been devised to solve the above problems, and it is an object of the present invention to not only understand a user's utterance through conversation with an avatar in a virtual environment, but also to grasp the user's gaze and upper- And to provide a communication environment similar to the actual environment by generating a dynamic response of the avatar corresponding thereto.

또한, 본 발명은 사용자의 의사소통 능력을 지속적으로 개선할 수 있도록 모바일 장치를 통해 실제 상황에서 사용자의 대화를 분석하여 피드백을 제공할 수 있는 방법을 확보하는데 목적이 있다.
It is another object of the present invention to provide a method of providing feedback by analyzing a user's conversation in a real situation through a mobile device in order to continuously improve a user's communication ability.

피드백 제공 시스템에서 수행되는 피드백 제공 방법은, 발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 단계; 상기 가상현실 환경에서 상기 발화자로부터 발화되는 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보를 획득하는 단계; 상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계; 및 상기 발화자로부터 실제 상황에서 발생하는 발화 정보에 대응하여 상기 분석 결과에 기반한 피드백을 제공하는 단계를 포함할 수 있다. The feedback providing method performed in the feedback providing system includes: configuring a virtual reality environment for performing communication training of a speaker; Obtaining speech training information including visual information, behavior information, and dialog information of a speaking person uttered from the speaking person in the virtual reality environment; Generating an analysis result related to the speaker by analyzing the obtained speech training information; And providing feedback based on the analysis result corresponding to the speech information generated in a real situation from the speaking person.

상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계는, 상기 발화자의 텍스트 데이터 또는 음성 데이터를 포함하는 대화 정보에 대하여 시나리오 스크립트에 대한 모범 답안과 상기 발화자의 답변에 대한 유사도를 측정하여 발화자의 답변에 대한 정답 여부를 판단하고, 상기 판단된 발화자의 답변에 대한 정답 여부에 기초하여 다음에 진행될 질문을 선정하는 단계를 포함할 수 있다. Wherein the step of generating the analysis result related to the speaker by analyzing the obtained speech training information comprises the steps of: analyzing the dialogue information including the speech data of the speaker or the speech data, Determining a correct answer to the answer of the speaker by measuring the degree of similarity, and selecting a next question based on whether or not the answer of the determined speaker is correct.

상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계는, 상기 발화자의 적어도 하나 이상의 신체 부위에 대한 3차원 좌표값에 기반하여 9개의 방향 벡터를 계산하고, 상기 계산된 방향 벡터에 기초하여 상기 발화자의 행동 정보를 파악하는 단계를 포함할 수 있다. Wherein the step of generating the analysis result related to the speaking person by analyzing the obtained speech training information includes the steps of calculating nine direction vectors based on the three-dimensional coordinate values of the at least one body part of the speaking person, And recognizing the behavior information of the speaker based on the direction vector.

상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계는, 의사소통 훈련 장치로 질문에 대한 정답률, 상기 질문에 대하여 오답된 모범 답안, 상기 발화자의 시선 마주침 등급 또는 상기 발화자로부터 기 설정된 횟수 이상 행해진 행동 정보와 상기 행동 정보의 의미를 포함하는 분석 결과를 제공하는 단계를 포함할 수 있다. Wherein the step of generating the analysis result related to the speaking person by analyzing the obtained speech training information includes the steps of calculating the correct answer rate for the question with the communication and training device, And providing an analysis result including the behavior information that is performed a predetermined number of times or more and the meaning of the behavior information.

상기 분석 결과에 기반한 피드백을 제공하는 단계는, 모바일 장치로 상기 발화자의 대화 내용에 대한 요약 정보, 상기 발화자의 대화 흐름의 변경 여부 또는 상기 발화자로부터 예측되는 행동 정보를 피드백 정보로 제공하는 단계를 포함할 수 있다. The step of providing feedback based on the analysis result may include the step of providing the mobile device with summary information about the conversation contents of the speaking person, whether the conversation flow of the speaking person is changed, or behavior information predicted from the speaking person as feedback information can do.

상기 발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 단계는, 상기 발화자와 대화를 수행하는 아바타를 생성함에 따라 상기 가상현실 환경을 제공하는 의사소통 훈련 장치를 통하여 상기 발화자가 상기 생성된 아바타와 의사소통 훈련이 수행되는 단계를 포함할 수 있다.Wherein the step of configuring the virtual reality environment for performing the communication training of the speaker includes generating the avatar performing the conversation with the speaking person through the communication training apparatus that provides the virtual reality environment, And the step of communicating with the avatar is performed.

상기 발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 단계는, 상기 의사소통 훈련을 수행하기 위한 적어도 하나 이상의 종류를 포함하는 시나리오를 제공하고, 상기 발화자로부터 선택된 시나리오에 기초하여 시나리오 스크립트가 셋팅되는 단계를 포함하고, 상기 시나리오 스크립트는, 상기 발화자의 발화 훈련 정보에 대응하여 동적으로 질문 순서가 결정될 수 있다.Wherein the step of configuring the virtual reality environment for performing the communication training of the speaker includes providing a scenario including at least one type for performing the communication training and generating a scenario script based on the scenario selected from the speaker Wherein the scenario script can dynamically determine the order of the questions in correspondence with the utterance training information of the speaker.

피드백 제공 시스템에서 수행되는 피드백 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램은, 발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 단계; 상기 가상현실 환경에서 상기 발화자로부터 발화되는 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보를 획득하는 단계; 상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계; 및 상기 발화자로부터 실제 상황에서 발생하는 발화 정보에 대응하여 상기 분석 결과에 기반한 피드백을 제공하는 단계를 포함할 수 있다. A computer program stored on a computer-readable recording medium for executing a feedback method performed in a feedback providing system comprises the steps of: constructing a virtual reality environment for performing communication training of a speaker; Obtaining speech training information including visual information, behavior information, and dialog information of a speaking person uttered from the speaking person in the virtual reality environment; Generating an analysis result related to the speaker by analyzing the obtained speech training information; And providing feedback based on the analysis result corresponding to the speech information generated in a real situation from the speaking person.

피드백 제공 시스템은, 발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 구성부; 상기 가상현실 환경에서 상기 발화자로부터 발화되는 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보를 획득하는 획득부; 상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 생성부; 및 상기 발화자로부터 실제 상황에서 발생하는 발화 정보에 대응하여 상기 분석 결과에 기반한 피드백을 제공하는 제공부를 포함할 수 있다. The feedback providing system comprises: a configuring unit for configuring a virtual reality environment for performing communication training of a speaker; An obtaining unit obtaining speech training information including visual information, behavior information, and dialog information of a speaking person uttered from the speaking person in the virtual reality environment; A generating unit for generating an analysis result related to the talker by analyzing the obtained speech training information; And a providing unit for providing feedback based on the analysis result corresponding to the speech information generated in the actual situation from the speaking person.

상기 생성부는, 상기 발화자의 텍스트 데이터 또는 음성 데이터를 포함하는 대화 정보에 대하여 시나리오 스크립트에 대한 모범 답안과 상기 발화자의 답변에 대한 유사도를 측정하여 발화자의 답변에 대한 정답 여부를 판단하고, 상기 판단된 발화자의 답변에 대한 정답 여부에 기초하여 다음에 진행될 질문을 선정할 수 있다. Wherein the generation unit determines whether a correct answer to the speaker's answer is obtained by measuring a good answer to the scenario script and the similarity to the answer of the speaker with respect to the conversation information including the text data or the voice data of the speaker, Based on the correct answer to the speaker's answer, the next question can be selected.

상기 생성부는, 상기 발화자의 적어도 하나 이상의 신체 부위에 대한 3차원 좌표값에 기반하여 9개의 방향 벡터를 계산하고, 상기 계산된 방향 벡터에 기초하여 상기 발화자의 행동 정보를 파악할 수 있다. The generating unit may calculate nine direction vectors based on the three-dimensional coordinate values of at least one body part of the speaker, and may grasp the behavior information of the speaking person based on the calculated direction vector.

상기 생성부는, 의사소통 훈련 장치로 질문에 대한 정답률, 상기 질문에 대하여 오답된 모범 답안, 상기 발화자의 시선 마주침 등급 또는 상기 발화자로부터 기 설정된 횟수 이상 행해진 행동 정보와 상기 행동 정보의 의미를 포함하는 분석 결과를 제공할 수 있다. Wherein the generation unit comprises an analysis unit that includes a communication correcting unit that corrects a correct answer rate for a question, an incorrect answer to the question, a contact match grade of the talker, or behavior information that is performed more than a predetermined number of times from the talker, Results can be provided.

상기 제공부는, 모바일 장치로 상기 발화자의 대화 내용에 대한 요약 정보, 상기 발화자의 대화 흐름의 변경 여부 또는 상기 발화자로부터 예측되는 행동 정보를 피드백 정보로 제공할 수 있다. The providing unit may provide the mobile device with summary information about the conversation contents of the speaking person, whether the conversation flow of the speaking person is changed, or behavior information predicted from the speaking person, as feedback information.

상기 구성부는, 상기 발화자와 대화를 수행하는 아바타를 생성함에 따라 상기 가상현실 환경을 제공하는 의사소통 훈련 장치를 통하여 상기 발화자가 상기 생성된 아바타와 의사소통 훈련이 수행될 수 있다. The generating unit may generate an avatar to perform a conversation with the speaking person, and communicate with the generated avatar through the communication training apparatus that provides the virtual reality environment.

상기 구성부는, 상기 의사소통 훈련을 수행하기 위한 적어도 하나 이상의 종류를 포함하는 시나리오를 제공하고, 상기 발화자로부터 선택된 시나리오에 기초하여 시나리오 스크립트가 셋팅되는 것을 포함하고, 상기 시나리오 스크립트는, 상기 발화자의 발화 훈련 정보에 대응하여 동적으로 질문 순서가 결정될 수 있다.
Wherein the configuration unit provides a scenario including at least one kind for performing the communication training, and includes setting a scenario script based on a scenario selected from the speaker, wherein the scenario script includes at least one of speech The order of the questions can be dynamically determined in response to the training information.

본 발명은 사용자의 발화를 분석하여 시나리오 스크립트에 정해진 순서의 질문이 아닌, 사용자의 발화에 동적으로 질문하여 대화 순서가 일정하지 않고 다양한 변수가 발생할 수 있는 실제 대화 상황에서의 응용에 도움을 줄 수 있다.The present invention analyzes a user's utterance and dynamically questions a user's utterance not in a predetermined order in a scenario script but can help applications in a real conversation situation where a conversation order is not constant and various variables can occur have.

본 발명은 사용자의 발화 및 행동에 대한 피드백을 생성하여 의사소통에 있어 사용자의 발화뿐만 아니라 행동적인 요소들에 대한 개선에 도움을 줄 수 있다.The present invention can generate feedback on user utterances and behaviors to help improve not only user utterances but also behavioral factors in communication.

본 발명은 사용자에게 실제와 유사한 다양한 상황을 묘사하는 가상환경을 제공하여 실생활의 여러 상황에서의 대처 능력을 향상시키는데 도움을 줄 수 있다.The present invention can provide users with a virtual environment that describes various situations that are similar to real life, and can help improve coping ability in various situations in real life.

본 발명은 모바일 장치를 이용한 피드백 제공 장치는, 일상생활에서 사용자의 발화에 대한 분석을 통해 지속적으로 사용자의 의사소통 능력을 개선시키는데 도움을 줄 수 있다.
The present invention can help improve the user's communication ability continuously by analyzing the user's utterance in daily life.

도 1은 일 실시예에 따른 피드백 제공 시스템의 개괄적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 피드백 제공 시스템의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 피드백 제공 시스템의 피드백 제공 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 따른 피드백 제공 시스템에서 대화의 구성 요소를 분석하는 방법을 설명하기 위한 흐름도이다.
도 5는 일 실시예에 따른 가상현실 기반의 의사소통 훈련 방법을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따른 모바일 장치를 이용하여 피드백을 제공하는 방법을 설명하기 위한 흐름도이다.
도 7은 일 실시예에 따른 발화자의 시선 정보를 판단하는 것을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 의사소통 훈련 장치를 통하여 의사소통 훈련을 수행하는 과정을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 의사소통 훈련을 수행하기 위하여 시나리오를 선택하는 과정을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 가상현실 환경에서 시나리오에 기반하여 의사소통 훈련을 수행하는 과정을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 모바일 장치에 피드백 정보가 제공되는 것을 설명하기 위한 예이다.
도 12는 일 실시예에 따른 의사소통 훈련 장치에 분석 결과가 제공되는 것을 설명하기 위한 예이다.
1 is a diagram for explaining an outline operation of a feedback providing system according to an embodiment.
2 is a block diagram illustrating a configuration of a feedback providing system according to an embodiment.
3 is a flowchart illustrating a method of providing feedback of a feedback providing system according to an embodiment.
4 is a flow chart illustrating a method of analyzing a component of a dialogue in a feedback providing system according to an embodiment.
5 is a flowchart illustrating a virtual reality-based communication training method according to an exemplary embodiment of the present invention.
6 is a flow chart illustrating a method of providing feedback using a mobile device in accordance with one embodiment.
FIG. 7 is a diagram for explaining the determination of gaze information of a speaking person according to an embodiment.
8 is a diagram for explaining a process of performing communication training through a communication training apparatus according to an embodiment.
FIG. 9 is a diagram for explaining a process of selecting a scenario for performing communication training according to an embodiment.
FIG. 10 is a diagram for explaining a process of performing communication training based on a scenario in a virtual reality environment according to an embodiment.
11 is an example for illustrating that feedback information is provided to a mobile device according to an embodiment.
12 is an example for explaining that the analysis result is provided to the communication training apparatus according to the embodiment.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 피드백 제공 시스템의 개괄적인 동작을 설명하기 위한 도면이다.1 is a diagram for explaining an outline operation of a feedback providing system according to an embodiment.

피드백 제공 시스템(100)은 의사소통 훈련을 수행할 수 있고, 실제 상황에서 발생하는 발화자의 발화 정보에 기반하여 지속적인 피드백을 제공할 수 있다. 일례로, 피드백 제공 시스템(100)는 의사소통 훈련 장치(300)를 통하여 의사소통 훈련을 수행하고, 별도의 전자 기기(200)를 통하여 지속적인 피드백을 수행할 수 있다. The feedback providing system 100 can perform communication training and can provide continuous feedback based on the speaker's utterance information that occurs in an actual situation. For example, the feedback providing system 100 may perform communication training through the communication training device 300 and may perform continuous feedback through a separate electronic device 200.

피드백 제공 시스템(100)은 의사소통 훈련을 수행하기 위한 환경을 구성할 수 있다. 피드백 제공 시스템(100)에서 구성된 의사소통 훈련을 수행하기 위한 환경에 기초하여 의사소통 훈련 장치(300)를 통하여 가상현실 기반의 의사소통 훈련이 수행될 수 있다. 예를 들면, 발화자가 의사소통 훈련 장치(300)를 착용함에 따라 디스플레이를 통하여 가상현실 기반의 의사소통 훈련 환경이 제공될 수 있다. 의사소통 훈련 장치(300)는 가상현실 환경을 제공하는 장치로서, 예를 들면, HMD(Head mounted Display)와 같이, 사용자가 안경처럼 머리에 착용하고 디스플레이를 통하여 영상이 출력되는 웨어러블 기기를 의미할 수 있다. 또한, 디스플레이를 탑재하는 대신 휴대용의 전자 기기를 디스플레이로 활용하는 HMD가 적용될 수 있다. 이러한 HMD를 통하여 가상현실 및 증강현실의 환경을 제공할 수 있다. 사용자가 HMD를 착용할 경우, HMD를 통하여 사용자가 존재하는 공간이 증강현실 또는 가상현실로 디스플레이될 수 있다. 더욱 상세하게는, 피드백 제공 시스템(100)은 가상현실 환경에서 의사소통 훈련을 수행하기 위한 시나리오를 생성할 수 있다. 피드백 제공 시스템은 가상현실 환경에서 가상현실 환경에서 의사소통 훈련을 수행하기 위한 아바타를 생성할 수 있고, 생성된 아바타를 통하여 발화자와 의사소통 훈련을 수행할 수 있다. The feedback providing system 100 may configure an environment for performing communication training. The virtual reality based communication training can be performed through the communication training device 300 based on the environment for performing the communication training configured in the feedback providing system 100. [ For example, a virtual reality-based communication training environment can be provided through the display as the speaker wears the communication training device 300. [ The communication training device 300 is a device for providing a virtual reality environment and means a wearable device such as a head mounted display (HMD) in which a user wears a head like a pair of glasses and outputs an image through a display . Further, instead of mounting the display, an HMD that uses a portable electronic device as a display can be applied. Through this HMD, it is possible to provide an environment of virtual reality and augmented reality. When the user wears the HMD, the space where the user exists through the HMD can be displayed as augmented reality or virtual reality. More specifically, the feedback providing system 100 may generate scenarios for performing communication training in a virtual reality environment. The feedback providing system can generate an avatar for performing communication training in a virtual reality environment in a virtual reality environment, and can perform communication training with a speaker through the generated avatar.

도 9를 참고하면, 의사소통 훈련 장치(300)에 가상현실 환경을 통하여 적어도 하나 이상의 시나리오(910)가 표시될 수 있다. 예를 들면, 시나리오가 리스트 형태 또는 카드 형태로 표시될 수 있다. 의사소통 훈련 장치(300)를 착용한 발화자는 의사소통 훈련을 수행하고자 하는 시나리오를 선택할 수 있다. 이때, 발화자는 의사소통 훈련 장치(300)에 표시된 시나리오를 음성 데이터를 통하여 간접적으로 선택할 수 있고, 또는, 디스플레이에 표시된 시나리오를 직접적으로 선택할 수 있다. Referring to FIG. 9, at least one scenario 910 may be displayed in the communication training apparatus 300 through a virtual reality environment. For example, the scenario may be displayed in list form or card form. A speaking person wearing the communication training apparatus 300 can select a scenario to perform communication training. At this time, the speaking person can indirectly select the scenario displayed in the communication training apparatus 300 through the voice data, or directly select the scenario displayed on the display.

도 8을 참고하면, 발화자(810)가 의사소통 훈련 장치(300), 예를 들면, HMD를 착용함에 따라 의사소통 훈련을 수행하기 위한 가상현실 환경(820)이 표시된 것을 나타낸 것이다. 의사소통 훈련 장치(300)에 발화자(810)로부터 선택된 시나리오에 기반하여 가상현실 환경(820)을 통한 의사소통 훈련이 수행될 수 있다. 예를 들면, 의사소통 훈련 장치(300)에 표시된 가상현실 환경에 시나리오에 적합한 아바타가 나타날 수 있다. 발화자(810)는 의사소통 훈련 장치(300)를 통하여 가상현실 환경(820)에 존재하는 아바타와 대화를 수행할 수 있다. 의사소통 훈련 장치(300)에 발화자(810)로부터 발화되는 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보가 수집될 수 있다.Referring to FIG. 8, a virtual reality environment 820 for performing communication training is displayed as the speaker 810 wears the communication training apparatus 300, for example, the HMD. Communication training through the virtual reality environment 820 may be performed based on the scenario selected from the speaker 810 in the communication training apparatus 300. [ For example, an avatar suitable for the scenario may appear in the virtual reality environment displayed in the communication training device 300. [ The talker 810 can communicate with the avatar existing in the virtual reality environment 820 through the communication training device 300. [ The communication training apparatus 300 may be provided with utterance training information including visual information of the utterance uttered by the utterer 810, behavior information, and dialog information.

도 10을 참고하면, 의사소통 훈련 장치(300)에 선택된 시나리오가 실행될 수 있다. 예를 들면, 발화자로부터 시나리오의 종류 중 발표 시나리오가 선택됨에 따라 의사소통 훈련 장치(300)에 발표 시나리오 스크립트가 셋팅될 수 있다. 의사소통 훈련 장치(300)의 디스플레이(1010)를 통하여 발표 시나리오에 대응하는 적어도 하나 이상의 아바타 면접관이 표시될 수 있다. 발화자로부터 선택된 시나리오의 종류에 따라 아바타의 개수가 다르게 표시될 수 있다. 발화자는 의사소통 훈련 장치(300)의 디스플레이(1010)를 통하여 실행되는 발표 시나리오에 기초하여 의사소통 훈련을 수행할 수 있다. 이때, 아바타를 통하여 발화자의 시선 정보, 발화자의 행동 정보 및 대화 정보가 인식될 수 있다. 10, a selected scenario may be executed in the communication training apparatus 300. [ For example, the presentation scenario script may be set in the communication training apparatus 300 as the presentation scenario among the types of scenarios is selected from the speaker. At least one avatar interviewer corresponding to the presentation scenario may be displayed through the display 1010 of the communication training device 300. [ The number of avatars may be displayed differently depending on the type of the scenario selected from the speaker. The speaking person can perform communication training based on the presentation scenario executed through the display 1010 of the communication training apparatus 300. [ At this time, the gaze information of the speaker, the behavior information of the speaker, and the conversation information can be recognized through the avatar.

피드백 제공 시스템(100)은 의사소통 훈련 장치(300)로부터 수집된 발화 훈련 정보를 획득할 수 있다. 피드백 제공 시스템(100)은 발화 훈련 정보를 분석함에 따라 발화자와 관련된 분석 결과를 생성할 수 있다. 피드백 제공 시스템은 발화자로부터 의사소통 훈련을 통하여 발화된 발화 훈련 정보 및 분석 결과를 데이터베이스에 저장할 수 있다. 도 12를 참고하면, 피드백 제공 시스템(100)에서 생성된 분석 결과(1210)를 제공하는 것을 설명하기 위한 예이다. 예를 들면, 의사소통 장치(300)에 발화자의 발화 훈련 정보와 관련된 분석 결과(1210)가 가상현실 환경에서 표시될 수 있다. 피드백 제공 시스템(100)은 의사소통 장치(300)에서 수행된 발화 훈련 정보에 대한 분석 결과에 기반하여 피드백을 제공할 수 있다. The feedback providing system 100 can acquire the utterance training information collected from the communication training apparatus 300. [ The feedback providing system 100 may generate analysis results related to the speaker by analyzing the speech training information. The feedback providing system can store the speech training information and the analysis result, which are uttered through the communication training from the speaker, in the database. Referring to FIG. 12, this is an example for explaining providing the analysis result 1210 generated in the feedback providing system 100. For example, the analysis result 1210 related to the speech training information of the speaker can be displayed in the communication device 300 in the virtual reality environment. The feedback providing system 100 may provide feedback based on the analysis results of the speech training information performed in the communication device 300.

한편, 피드백 제공 시스템은 발화자로부터 실제 상황에서 발생하는 발화 정보를 지속적으로 분석하여 모바일 장치를 통하여 실시간으로 피드백을 제공할 수 있다. 피드백 제공 시스템(100)은 별도의 전자 기기(200)를 통하여 지속적인 피드백을 수행할 수 있다. 이때, 별도의 전자 기기는 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 별도의 전자 기기의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 웨어러블 기기, HMD(Head mounted Display) 등이 포함될 수 있다. 실시예에서는 별도의 전자 기기(200)를 모바일 장치로 예를 들어 설명하기로 한다. 피드백 제공 시스템(100)은 발화자의 발화 훈련 정보와 발화자로부터 실제 상황에 발생하는 발화 정보를 비교하여 피드백을 제공할 수 있다. 피드백 제공 시스템은 발화자로부터 실제 상황에 발생하는 발화 정보를 발화 훈련 정보를 분석함에 따라 생성된 분석 결과에 기반하여 피드백을 제공할 수 있다. 예를 들면, 모바일 장치(200)의 디스플레이를 통하여 분석 결과 및 피드백이 표시될 수 있다. 이를 통하여, 발화자의 대화 정보만으로도 발화자의 시선 정보 및 행동 정보까지도 추정될 수 있다. Meanwhile, the feedback providing system continuously analyzes the speech information generated in the actual situation from the speaker and can provide feedback in real time through the mobile device. The feedback providing system 100 may perform continuous feedback through a separate electronic device 200. [ In this case, the separate electronic device may be a fixed type terminal implemented by a computer device or a mobile type terminal. Portable electronic devices such as a smart phone, a mobile phone, a navigation system, a computer, a notebook, a terminal for digital broadcasting, a personal digital assistant (PDA), a portable multimedia player (PMP), a tablet PC, Head mounted display). In the embodiment, a separate electronic device 200 will be described as a mobile device. The feedback providing system 100 can provide feedback by comparing the speech training information of the speaker with the speech information generated in the actual situation from the speaker. The feedback providing system can provide the feedback based on the analysis result generated by analyzing the utterance training information on the utterance information generated in the actual situation from the speaker. For example, analysis results and feedback can be displayed through the display of the mobile device 200. Accordingly, the visual information and the behavior information of the speaker can be estimated with only the talk information of the speaker.

더 나아가, 의사소통 훈련 장치(300)뿐만 아니라 모바일 장치(200)를 통하여 의사소통 훈련이 수행될 수도 있다. 이때, 모바일 장치(200)에 가상현실 환경 또는 가상현실 환경이 아닌 보통의 환경에서 의사소통 훈련이 실시될 수도 있다. Further, communication training may be performed through the mobile device 200 as well as the communication training device 300. At this time, communication training may be performed in the mobile device 200 in a normal environment other than a virtual reality environment or a virtual reality environment.

도 2는 일 실시예에 따른 피드백 제공 시스템의 구성을 설명하기 위한 블록도이고, 도 3은 일 실시예에 따른 피드백 제공 시스템의 피드백 제공 방법을 설명하기 위한 흐름도이다. FIG. 2 is a block diagram for explaining a configuration of a feedback providing system according to an embodiment, and FIG. 3 is a flowchart for explaining a feedback providing method of a feedback providing system according to an embodiment.

피드백 제공 시스템(100)의 프로세서(200)는 구성부(210), 획득부(220), 생성부(230) 및 제공부(240)를 포함할 수 있다. 이러한 프로세서(200)의 구성요소들은 피드백 제공 시스템(100)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서(200)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서(200) 및 프로세서(200)의 구성요소들은 도 3의 피드백 제공 방법이 포함하는 단계들(S310 내지 S340)을 수행하도록 피드백 제공 시스템(100)을 제어할 수 있다. 이때, 프로세서(200) 및 프로세서(200)의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. The processor 200 of the feedback providing system 100 may include a configuration unit 210, an acquiring unit 220, a generating unit 230, and a providing unit 240. The components of such a processor 200 may be representations of different functions performed by the processor 200 in accordance with control commands provided by the program code stored in the feedback providing system 100. [ The processor 200 and the components of the processor 200 may control the feedback providing system 100 to perform the steps S310 through S340 included in the feedback providing method of FIG. At this time, the components of the processor 200 and the processor 200 may be implemented to execute an instruction according to code of an operating system and code of at least one program included in the memory.

프로세서(200)는 피드백 제공 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 피드백 제공 시스템(100)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 서버를 제어할 수 있다. 이때, 프로세서(200) 및 프로세서(200)가 포함하는 구성부(210), 획득부(220), 생성부(230) 및 제공부(240) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(S310 내지 S340)을 실행하기 위한 프로세서(200)의 서로 다른 기능적 표현들일 수 있다. The processor 200 may load the program code stored in the file of the program for the feedback providing method into the memory. For example, when a program is executed in the feedback providing system 100, the processor can control the server to load the program code from the file of the program into the memory under the control of the operating system. At this time, each of the configuration unit 210, the acquisition unit 220, the generation unit 230, and the provider 240 included in the processor 200 and the processor 200, And may be different functional representations of the processor 200 for executing subsequent steps S310 through S340.

단계(S310)에서 구성부(210)는 발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성할 수 있다. 구성부(210)는 발화자의 대화를 수행하는 아바타를 생성함에 따라 가상현실 환경을 제공하는 의사소통 훈련 장치에서 아바타를 통하여 발화자와 의사소통 훈련이 수행될 수 있다. 구성부(210)는 의사소통 훈련을 수행하기 위한 적어도 하나 이상의 종류를 포함하는 시나리오를 제공하고, 발화자로부터 선택된 시나리오에 기초하여 시나리오 스크립트가 셋팅될 수 있다. In step S310, the configuration unit 210 may configure a virtual reality environment for performing communication training of the speaker. The constructing unit 210 may generate an avatar for performing a conversation of a speaking person, and communicate with a speaking person through an avatar in a communication training apparatus that provides a virtual reality environment. The configuration unit 210 provides a scenario including at least one kind for performing communication training, and a scenario script may be set based on a scenario selected from a speaker.

단계(S320)에서 획득부(220)는 가상현실 환경에서 발화자로부터 발화되는 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보를 획득할 수 있다. In step S320, the obtaining unit 220 may obtain the utterance information including the gaze information, the behavior information, and the conversation information of the utterance uttered by the utterer in the virtual reality environment.

단계(S330)에서 생성부(230)는 획득된 발화 훈련 정보를 분석함에 따라 발화자와 관련된 분석 결과를 생성할 수 있다. 생성부(230)는 발화자의 텍스트 데이터 또는 음성 데이터를 포함하는 대화 정보에 대하여 시나리오 스크립트에 대한 모범 답안과 발화자의 답변에 대한 유사도를 측정하여 발화자의 답변에 대한 정답 여부를 판단하고, 판단된 발화자의 답변에 대한 정답 여부에 기초하여 다음에 진행될 질문을 선정할 수 있다. 생성부(230)는 발화자의 적어도 하나 이상의 신체 부위에 대한 3차원 좌표값에 기반하여 9개의 방향 벡터를 계산하고, 계산된 방향 벡터에 기초하여 발화자의 행동 정보를 파악할 수 있다. 생성부(230)는 의사소통 훈련 장치로 질문에 대한 정답률, 질문에 대하여 오답된 모범 답안, 발화자의 시선 마주침 등급 또는 발화자로부터 기설정된 횟수 이상 행해진 행동 정보와 행동 정보를 의미하는 분석 결과를 제공할 수 있다.In step S330, the generation unit 230 may generate an analysis result related to the speaker by analyzing the obtained speech training information. The generation unit 230 measures the similarity between the model answer to the scenario script and the answer of the speaker to the conversation information including the text data or the voice data of the speaker to determine whether or not the answer of the speaker is correct, The following questions can be selected based on whether or not the answer is correct. The generating unit 230 may calculate nine directional vectors based on the three-dimensional coordinate values of at least one or more body parts of the utterance, and may grasp the behavior information of the utterance based on the calculated directional vectors. The generating unit 230 provides the communication training apparatus with an analysis result indicating the percentage of correct answer to the question, the incorrect answer to the question, the contact level of the talker's gaze, or the action information and action information performed more than a predetermined number of times from the speaker .

단계(S340)에서 제공부(240)는 발화자로부터 실제 상황에서 발생하는 발화 정보에 대응하는 분석 결과에 기반한 피드백을 제공할 수 있다. 제공부(240)는 모바일 장치로 발화자의 대화 내용에 대한 요약 정보, 발화자의 대화 흐름의 변경 여부 또는 발화자로부터 예측되는 행동 정보를 피드백 정보로 제공할 수 있다. In step S340, the providing unit 240 may provide feedback based on the analysis result corresponding to the utterance information generated in a real situation from the utterance. The providing unit 240 may provide the mobile device with the summary information about the conversation contents of the speaking person, whether the conversation flow of the speaking person is changed, or the behavior information predicted from the speaking person as feedback information.

도 4를 참고하면, 피드백 제공 시스템에서 대화의 구성 요소를 분석하는 방법을 설명하기 위한 흐름도이다. Referring to FIG. 4, a flow chart for explaining a method of analyzing a component of a dialogue in a feedback providing system.

피드백 제공 시스템은 가상현실 기반의 의사소통 훈련 장치(300) 및 모바일 장치(200)로부터 전달받은 발화 훈련 정보를 분석하고, 이에 대응하는 아바타의 응답 및 피드백을 생성하여 각 장치로 전달할 수 있다. The feedback providing system analyzes the speech training information transmitted from the virtual reality-based communication training device 300 and the mobile device 200, and generates responses and feedbacks of the corresponding avatars and transmits them to each device.

단계(S410)에서 피드백 제공 시스템은 입력 신호를 분석할 수 있다. 피드백 제공 시스템은 입력 신호가 입력된 장치가 의사소통 훈련 장치(200)인지 모바일 장치(300)인지 여부를 판단할 수 있다. 이때, 서로 다른 장치의 입력 대상의 차이를 이용하여 입력 신호가 입력된 장치가 판단될 수 있다. 예를 들면, 입력으로 발화만 존재할 경우, 모바일 장치(300)로부터 입력된 것으로 간주할 수 있다. In step S410, the feedback providing system may analyze the input signal. The feedback providing system can determine whether the input apparatus is the communication training apparatus 200 or the mobile apparatus 300. [ At this time, the apparatus to which the input signal is inputted can be determined using the difference between the input targets of different apparatuses. For example, if there is only an input as an input, it can be regarded as input from the mobile device 300.

단계(S420)에서 피드백 제공 시스템은 발화자의 발화 및 행동을 분석할 수 있다. 피드백 제공 시스템은 각 장치로부터 전달받은 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보에 기반하여 발화자와 관련된 분석 결과를 생성할 수 있다. 예를 들면, 의사소통 훈련 장치(200)로부터 분석이 요청된 경우, 텍스트 형태의 발화 내용, 발화자의 시선 정보(예를 들면, 아바타를 응시하고 있는지 여부), 10개의 상체 인식 부위에 대한 3차원 좌표값을 입력값으로 전달받고, 전달받은 입력값에 기초하여 아바타의 질문에 대한 발화자의 대답의 정답 여부 및 다음에 진행될 아바타의 질문, 발화자의 아바타에 대한 시선 마주침 정도, 발화자의 상체 동작을 파악한 내용 등을 분석 결과로 제공할 수 있다. 아래의 표 1은 의사소통 훈련 장치에 분석 결과를 제공하는 것을 나타낸 것이다.In step S420, the feedback providing system may analyze the utterance and behavior of the speaker. The feedback providing system can generate the analysis result related to the speaker based on the utterance information including the gaze information, the behavior information, and the conversation information of the speaker received from each device. For example, when the analysis is requested from the communication training device 200, the content of the speech in the form of a text, the gaze information of the speaker (for example, whether or not the avatar is gazing) Receives the coordinate value as an input value, and determines whether or not the answer of the speaker's answer to the question of the avatar based on the received input value, the degree of contact of the avatar to be next to the next, the degree of contact with the avatar of the speaker, Content, and so on. Table 1 below shows the results of the analysis provided to the communication training device.

Figure pat00001
Figure pat00001

더욱 상세하게는, 피드백 제공 시스템은 발화자의 발화 내용을 시나리오 스크립트 상에 정해진 질문 순서가 아닌 발화자의 답변에 따라 가장 적합한 아바타의 질문을 선택하여 대화 순서가 일정하지 않고 다양한 변수가 발생할 수 있는 실제 대화 상황에 대처할 수 있도록 도움을 제공할 수 있다. 이때, 시나리오 스크립트는 질문에 대한 대답에 따라 연관성 있는 다음 질문들이 트리 구조로 구성될 수 있다.More specifically, the feedback providing system selects a question of the most suitable avatar according to the answer of the speaker, rather than the order of the questions set on the scenario script, so that the actual conversation sequence in which the conversation order is not constant, You can provide help to cope with the situation. At this time, the scenario script can be composed of a tree structure with the following questions related to the answer to the question.

일례로, 피드백 제공 시스템은 적어도 하나 이상의 시나리오를 제공할 수 있고, 발화자는 다양한 시나리오(예를 들면, 계약, 논의, 면접, 발표 상황 등) 중 적어도 하나를 선택할 수 있다. 이때, 각 시나리오의 스크립트는 순차적인 질문들로 구성될 수 있다. 그러나, 아바타는 시나리오에 구성된 스크립트 상의 질문에 대하여 순차적으로 질문하는 것이 아니라, 발화자의 응답에 기초하여 동적으로 적합한 질문을 선택하여 다음 질문을 발화할 수 있다. 하나의 시나리오 스크립트는 아래와 같은 수학식 1로 표현될 수 있다.In one example, the feedback providing system may provide at least one or more scenarios, and the speaker may select at least one of various scenarios (e.g., contract, discussion, interview, announcement, etc.). At this time, the script of each scenario may be composed of sequential questions. However, the avatar can select the dynamically appropriate question based on the speaker's answer, rather than asking the sequential questions on the scripted questions configured in the scenario, to fire the next question. One scenario script can be expressed by Equation (1) below.

수학식 1:Equation 1:

Figure pat00002
Figure pat00002

이때, s는 시나리오 스크립트,

Figure pat00003
은 시나리오 스크립트에 구성된 m번째 질문을 의미한다. 발화자는 순서에 따라 질문을 제공받고, 제공받은 질문에 대하여 답변을 수행할 수 있다. 이때, 발화자의 답변은 질문마다 구성된 모범 답안들과 유사도를 측정하여 정답 여부를 판단할 수 있다. 모범 답안이란 질의에 대하여 정답 여부를 판단하기 위하여 설정된 답안을 의미할 수 있다. 발화자로부터 발화된 답변에 대한 정답 여부가 수학식 2에 의하여 도출될 수 있다.Here, s is a scenario script,
Figure pat00003
Means the mth question constructed in the scenario script. Speakers are provided with questions in order and can answer questions provided. At this time, the speaker 's answer can determine the correct answer by measuring the degree of similarity with the model answers constructed for each question. A model answer can mean an answer set to determine whether the question is the right answer. An answer to the answer uttered by the speaker can be derived by Equation (2).

수학식 2:Equation 2:

Figure pat00004
Figure pat00004

이때, answer는 발화자의 답변,

Figure pat00005
은 m번째 질문에 대한 임의의 모범 답안을 의미하며, context_sim은 두 문장간의 유사도를 context-to-vector 모델과 단어 임베딩(word embedding) 모델을 이용하여 측정하는 함수를 의미한다. 이에 따라 발화자의 답변과 임의의 모범 답안의 유사도가 일정 기준(
Figure pat00006
)보다 높거나 같은 경우 정답이라고 판단할 수 있다.At this time, answer is the answer of the speaker,
Figure pat00005
Context_sim means a function for measuring the similarity between two sentences using a context-to-vector model and a word embedding model. Thus, if the similarity between the speaker's answer and any model answer is a certain standard
Figure pat00006
), It can be judged that the answer is correct.

발화자로부터 발화된 답변이 정답인 경우, 발화자의 이해도에 따라 정해진 다음 질문을 제시할 수 있고, 정답이 아닌 경우, 앞서 질문하였던 질문을 1회로 한정하여 재질의할 수 있다. 이때, 발화자가 재질의된 질문에 대하여 다시 오답을 제시할 경우, 시나리오 스크립트의 순서 상 다음에 설정된 질문으로 패스될 수 있다. 이와 같이, 발화자의 답변에 대하여 스크립트의 순서를 수식화하면 수학식 3과 같이 표현될 수 있다.If the answer uttered by the speaker is the correct answer, the next question determined according to the comprehension degree of the speaker can be presented. If the answer is not correct, the question can be limited to one question before the question. In this case, if the speaker presents incorrect answers again to the questions made of material, it can be passed to the next set question in the order of the scenario script. In this way, the order of the script can be expressed by the equation (3) with respect to the answer of the speaker.

수학식 3:Equation (3)

Figure pat00007
Figure pat00007

이때, qnext는 현재 질문에 대한 응답(답변)에 기초하여 제시될 다음 질문, qcurrent는 현재 질문,

Figure pat00008
는 현재 질문 qcurrent에 대하여 발화자가 맞춘 모범 정답
Figure pat00009
current 이 지정한 다음 질문을 의미한다. 모범 정답은 각기 다른 질문을 다음 질문으로 지정할 수 있으며, 발화자의 답변 내용에 따라 결정될 수 있다. 아래의 예시 1과 같이 발화자의 아바타의 질문에 대하여 발화자가 답변을 할 수 있고, 발화자의 답변에 따라 아바타의 답변이 각각 다르게 제시될 수 있다. Where q next is the next question to be presented based on the answer to the current question, q current is the current question,
Figure pat00008
The current question q the current best guess for the current
Figure pat00009
It means the next question specified by current . Modal correct answers can be assigned different questions to the next question, and can be determined according to the contents of the speaker's answers. As shown in the following example 1, the speaker can answer the question of the avatar of the talker, and the answer of the avatar may be presented differently according to the speaker's answer.

예시 1:Example 1:

아바타의 질문: "바나나의 계약 규모와 개당 가격이 얼마입니까?"Avatar's Question: "How much are the bananas and the price per item?"

발화자의 답변 1: "정해진 바가 없다."Speaker's Answer 1: "There is no fixed order."

발화자의 답변 1에 대한 아바타의 답변: "그렇다면, 어느 시점에서 다시 결정할까요?"Avatar's answer to speaker's answer 1: "If so, at what point should I decide again?"

또는, or,

발화자의 답변 2: "총 10박스를 원하며, 한 박스는 10kg 기준으로 2만원으로 책정합니다."Speaker's Answer 2: "I want a total of 10 boxes, and I will set one box for 10Kg."

사용자의 답변 2에 대한 아바타의 답변: "좋습니다. 언제 계약을 원하나요?"Avatar's answer to user's answer 2: "Okay, when do you want a contract?"

또한, 피드백 제공 시스템은 발화자의 발화 훈련 정보로부터 획득된 행동 정보를 분석할 수 있다. 피드백 제공 시스템은 발화자의 상체 위치를 통하여 상체 동작을 파악할 수 있다. 이때, 피드백 제공 시스템은 수집된 상체 위치들에 대하여 인접한 위치간 방향을 계산할 수 있다. 좌측 손목-좌측 팔꿈치, 좌측 팔꿈치-좌측 어깨, 좌측 어깨-목, 우측 손목-우측 팔꿈치, 우측 팔꿈치-우측 어깨, 우측 어깨-목, 머리-목, 목-배, 배-엉덩이를 포함하는 총 9개의 방향 벡터를 계산할 수 있다. 이와 같이 계산된 9개의 방향 벡터는 발화자의 상체 동작을 추론하는데 사용될 수 있으며, 발화자의 상체 동작을 추론하는 방법을 수학식 4와 같이 나타낼 수 있다.Further, the feedback providing system can analyze the behavior information obtained from the utterance training information of the speaker. The feedback providing system can grasp the upper body movement through the position of the upper body of the speaker. At this time, the feedback providing system can calculate the direction between the adjacent positions with respect to the collected upper body positions. Left wrist - left elbow, left elbow - left shoulder, left shoulder - neck, right wrist - right elbow, right elbow - right shoulder, right shoulder - neck, head - neck, neck - Direction vectors can be calculated. The nine direction vectors thus calculated can be used to deduce the upper body motion of the speaking person, and a method of inferring the upper body motion of the speaking person can be expressed as Equation (4).

수학식 4: Equation 4:

Figure pat00010
Figure pat00010

이때,

Figure pat00011
부터
Figure pat00012
까지 발화자의 상체 위치로부터 일련의 과정을 통하여 계산된 9개의 3차원 방향 벡터를 의미한다.
Figure pat00013
는 계산된 9개의 3차원 방향 벡터를 순차적으로 연결한 27차원 벡터이다. 27차원 벡터에 대응되는 상체 동작은 수학식 5에 의하여 미리 정의된 상체 동작 중 가장 가까운 동작으로 계산되어 도출될 수 있다.At this time,
Figure pat00011
from
Figure pat00012
Dimensional direction vector calculated through a series of processes from the position of the upper body of the talker up to the three-dimensional direction vector.
Figure pat00013
Is a 27-dimensional vector that sequentially connects the nine calculated three-dimensional direction vectors. The upper body motion corresponding to the 27-dimensional vector can be calculated by calculating the closest motion among the upper body motion defined in advance by Equation (5).

수학식 5:Equation 5:

Figure pat00014
Figure pat00014

이때,

Figure pat00015
는 가장 유사도가 높은 상체 동작, sim은 두 벡터간의 코사인 유사도 측정함수,
Figure pat00016
는 임의의 사전 정의된 상체 동작을 의미한다.
Figure pat00017
Figure pat00018
와 같은 형식인 9개의 3차원 방향 벡터를 순차적으로 연결한 27차원의 벡터이다.At this time,
Figure pat00015
, Sim is the function of measuring the cosine similarity between two vectors,
Figure pat00016
Quot; means any predefined upper body motion.
Figure pat00017
The
Figure pat00018
Dimensional vector is a 27-dimensional vector in which nine three-dimensional direction vectors are sequentially connected.

한편, 피드백 제공 시스템은 모바일 장치(200)가 분석을 요청한 경우, 텍스트 형태의 발화자의 발화 정보를 입력으로 전달받고, 전달받은 발화 정보에 기반하여 대화 내용 요약, 대화 흐름 변경 여부, 예측되는 상체 동작들을 분석 결과로 제공할 수 있다.  On the other hand, when the mobile device 200 requests the analysis, the feedback providing system receives the speech information of the text form speaker as input, and based on the received speech information, displays the conversation contents summary, conversation flow change, Can be provided as an analysis result.

피드백 제공 시스템은 발화자의 대화 내용에 대하여 자연언어이해(Natural Language Understanding) 프로그램(예시: 왓슨(Watson) 자연언어이해 애플리케이션 프로그래밍 인터페이스(API), 구글 자연언어이해 애플리케이션 프로그래밍 인터페이스, 마이크로소프트 루이스 애플리케이션 프로그래밍 인터페이스) 등을 이용하여 요약할 수 있다. 또한, 실시예에서 제시한 프로그램 이외에도 다양한 프로그램을 통해 대화 내용을 요약할 수 있다.The feedback providing system provides a natural language understanding program (e.g., a Watson natural language understanding application programming interface (API), a Google natural language understanding application programming interface, a Microsoft Lewis application programming interface ) Can be summarized. Furthermore, conversation contents can be summarized through various programs in addition to the programs shown in the embodiments.

피드백 제공 시스템은 대화 흐름의 변경 여부를 수학식 6에 의하여 도출할 수 있다.The feedback providing system can derive the change of the conversation flow according to Equation (6).

수학식 6:Equation (6)

Figure pat00019
Figure pat00019

이때, scurrent는 현재 발화된 내용, scurrent-1은 scurrent의 이전 발화된 내용을 의미하며, 내용 간의 문맥 유사도가 낮아질 경우, 문맥이 변경되었다고 판단할 수 있다. In this case, s current means the current uttered contents, s current-1 means the previous uttered contents of s current , and if the similarity of the context between contents becomes low, it can be judged that the context has changed.

피드백 제공 시스템은 발화 정보로부터 발화자의 상체 동작을 추론할 수 있다. 우선적으로, 데이터베이스에 저장된 훈련 시의 발화 훈련 정보와 상체 동작 기록에 기초하여 수학식 7의 확률 모델을 생성할 수 있다.The feedback providing system can deduce the upper body movement of the speaking person from the speaking information. First, a probability model of Equation (7) can be generated on the basis of the training information and the upper body motion record at the time of training stored in the database.

수학식 7:Equation (7)

Figure pat00020
Figure pat00020

Figure pat00021
는 상체 동작,
Figure pat00022
는 발화된 단어를 의미하고, count(
Figure pat00023
)는 해당 단어가 발화된 횟수, count(
Figure pat00024
,
Figure pat00025
)는 해당 단어와 상체 동작이 동시에 출현한 횟수를 의미한다. 발화자에게 발화자로부터 주로 표현된 상체 동작에 대한 종합적인 피드백을 제공할 수 있다. 주로 표현된 상체 동작은 수학식 8에 의하여 선정될 수 있다.
Figure pat00021
The upper body motion,
Figure pat00022
Means the word uttered, and count (
Figure pat00023
) Is the number of times the word was spoken, count (
Figure pat00024
,
Figure pat00025
) Means the number of times the word and upper body movements appeared at the same time. It is possible to provide the speaker with comprehensive feedback on the upper body motion mainly expressed from the speaker. The upper body motion, which is mainly expressed, can be selected by Equation (8).

수학식 8:Equation (8)

Figure pat00026
Figure pat00026

단어(

Figure pat00027
)가 발화됐을 때, 상체 동작(
Figure pat00028
)가 발현될 확률
Figure pat00029
이 일정 기준
Figure pat00030
이상이라면, 주로 표현된 상체 동작이라고 정의될 수 있다. 피드백 제공 시스템은 모바일 장치에서 발화된 발화 정보에 기반하여 상체 동작에 대한 피드백을 제공할 수 있다. 먼저, 발화된 대화 정보를 단어 단위로 분할하고, 발화된 단어들에 대하여 수학식 7과 8에서 제시된 확률모델과 선정 기준을 토대로 표현될 확률이 높은 상체 동작들을 선정할 수 있다. 선정된 상체 동작들은 발화의 의미 분석 결과와 함께 전달될 수 있다.word(
Figure pat00027
), The upper body movement (
Figure pat00028
) Is expressed
Figure pat00029
Based on this schedule
Figure pat00030
, It can be defined as the upper body operation mainly expressed. The feedback providing system may provide feedback on upper body motion based on utterance information uttered in the mobile device. First, the utterance conversation information is divided into words, and upper-body movements having a high probability of being expressed on the basis of the probability model and the selection criterion shown in Equations (7) and (8) can be selected for uttered words. The selected upper body movements can be delivered along with the semantic analysis result of the utterance.

단계(S430)에서 피드백 제공 시스템은 아바타의 응답 및 피드백을 생성할 수 있다. 피드백 제공 시스템은 발화자에 대한 발화 훈련 정보 또는 발화 정보를 분석함에 따라 생성된 분석 결과에 기초하여 아바타의 응답과 발화자에 대한 종합적 피드백 정보를 생성할 수 있다. 이때, 피드백 제공 시스템은 의사소통 훈련 장치(300) 또는 모바일 장치(200)에 기초하여 분석 결과를 토대로 피드백을 다르게 생성할 수 있다.In step S430, the feedback providing system may generate the response and feedback of the avatar. The feedback providing system can generate the feedback of the avatar and the comprehensive feedback information on the speaker based on the analysis result generated by analyzing the speech training information or the speech information about the speaker. At this time, the feedback providing system may generate feedback differently based on the analysis result based on the communication training apparatus 300 or the mobile apparatus 200.

피드백 제공 시스템은 의사소통 훈련 장치(300)의 경우, 아바타를 통하여 사용자에게 표현될 수 있으며, 아바타의 발화 및 행동 내용은 표 2와 같이 나타낼 수 있다.The feedback providing system can be expressed to the user through the avatar in the case of the communication training apparatus 300, and the contents of the avatar's utterance and behavior can be shown in Table 2.

표 2:Table 2:

Figure pat00031
Figure pat00031

아바타는 시나리오가 종료될 때까지 수행될 수 있으며, 일련의 질문의 과정이 모두 완료됨에 따라 피드백 제공 시스템은 종합적 피드백을 생성할 수 있다. 이러한 종합적 피드백의 내용은 표 3과 같이 나타낼 수 있다.The avatar can be performed until the scenario ends, and the feedback providing system can generate comprehensive feedback as the series of questions are completed. The contents of this comprehensive feedback can be shown in Table 3.

표 3:Table 3:

Figure pat00032
Figure pat00032

피드백 제공 시스템은 의사소통 훈련 장치(300)에게 예시 2와 같이 피드백을 제공할 수 있다. The feedback providing system may provide feedback to the communication training device 300 as shown in Example 2.

예시 2:Example 2:

"턱을 자주 괴셨네요. 턱 괴기는 상대방에게 자칫 지루함을 느낀다는 인상을 줄 수 있으니 주의하세요!""You've often chained your chin. Be careful because the jaw can give you the impression that you are bored!"

또한, 피드백 제공 시스템은 모바일 장치(200)의 경우, 표 4와 같은 내용의 피드백을 생성할 수 있다.In addition, the feedback providing system may generate feedback in the case of the mobile device 200 as shown in Table 4.

표 4:Table 4:

Figure pat00033
Figure pat00033

또한, 피드백 제공 시스템은 모바일 장치(200)에게 예시 3 또는 예시 4와 같이 피드백을 제공할 수 있다.In addition, the feedback providing system may provide feedback to the mobile device 200 as in Example 3 or Example 4.

예시 3:Example 3:

"혹시 대화 주제를 바꾸셨나요?" "Have you changed the topic of conversation?"

예시 4:Example 4:

"혹시 턱을 괴고 계신가요?" "Do you have a chin?"

단계(S440)에서 피드백 제공 시스템은 각 장치로 결과물을 전달할 수 있다. 다시 말해서, 피드백 제공 시스템은 의사소통 훈련 장치(300) 또는 모바일 장치(200)에게 단계(S410~S430)를 처리함에 따라 생성된 결과물을 전달할 수 있다. In step S440, the feedback providing system may deliver the result to each device. In other words, the feedback providing system may deliver the generated result as the communication training apparatus 300 or the mobile apparatus 200 processes steps S410 to S430.

도 5는 일 실시예에 따른 가상현실 기반의 의사소통 훈련 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a virtual reality-based communication training method according to an exemplary embodiment of the present invention.

의사소통 훈련 장치(300)에서의 가상환경은 게임 엔진(예를 들면, 유니티 3D (Unity 3D))을 이용하여 배경이 되는 환경을 구현할 수 있으며, 애니메이션 프로그램(예를 들면, Autodesk 3ds Max)을 이용하여 아바타 생성 및 아바타의 동작을 구현할 수 있다. 실시예에서 제시한 가상환경 구현 방법 이외에도 다양한 프로그램을 통해서 구현될 수 있다.The virtual environment in the communication training device 300 can implement a background environment using a game engine (e.g., Unity 3D), and can be used to create an animation program (e.g., Autodesk 3ds Max) So that the avatar generation and the operation of the avatar can be implemented. It can be implemented through various programs in addition to the virtual environment implementation method shown in the embodiment.

단계(S510)에서 의사소통 훈련 장치(300)는 의사소통 훈련 시나리오를 선택할 수 있다. 발화자가 가상현실 기반의 의사소통 훈련 장치(300)가 제공하는 적어도 하나 이상의 시나리오로부터 훈련을 원하는 상황을 선택할 수 있다. In step S510, the communication training device 300 may select a communication training scenario. A situation in which a speaker wants to train from at least one or more scenarios provided by the virtual reality-based communication training device 300 can be selected.

단계(S520)에서 의사소통 훈련 장치(300)는 선택된 시나리오에 대하여 첫번째 질문을 질의할 수 있다. 이때, 아바타에 의하여 발화자로부터 선택된 시나리오 스크립트 상의 첫번째 질문이 발화될 수 있다. 아바타의 음성 발화는 텍스트 형태로 저장된 질문을 텍스트 음성 변환(Text-to-Speech (TTS)) 프로그램(예를 들면: 윈도우 10에 탑재된 기본 텍스트 음성 변환 프로그램)을 이용하여 음성 데이터로 표현될 수 있다. In step S520, the communication training device 300 can query the first question for the selected scenario. At this time, the first question on the scenario script selected by the avatar from the speaker can be uttered. The voice utterance of the avatar can be expressed as voice data using a text-to-speech (TTS) program (for example, a basic text-to-speech program installed in Windows 10) have.

단계(S530)에서 의사소통 훈련 장치(300)는 아바타의 질문에 대한 발화자의 응답(답변)이 입력될 수 있다. 예를 들면, 발화자는 아바타의 질문에 대하여 가장 적절하다고 생각되는 답변을 발화할 수 있다. 이때, 발화자는 일상 생활에서의 대화와 같이 특정 위치에 시선을 응시할 수 있으며, 다양한 상체 행동을 취할 수 있다. In step S530, the communication and training apparatus 300 may input a response of the speaker to the question of the avatar. For example, a speaker may utter an answer that he thinks is most appropriate for an avatar's question. At this time, the speaker can gaze at a specific position, such as a dialogue in daily life, and can take various upper body actions.

단계(S540)에서 의사소통 훈련 장치(300)는 발화자의 발화 및 행동에 대한 분석을 요청할 수 있다. 의사소통 훈련 장치(300)는 발화자의 발화 및 발화 시에 수행된 행동에 대해서 컴퓨터 프로그램이 처리할 수 있는 형태로 변환시킨 후, 피드백 시스템(100)으로 전달하여 분석을 요청할 수 있다. In step S540, the communication and training apparatus 300 may request an analysis of the utterance of the speaker and the behavior. The communication training device 300 may convert the behavior performed during the speech and the speech of the speaking person into a form that can be processed by the computer program and then transmit the communication to the feedback system 100 to request analysis.

발화자의 발화는 HMD에 내장된 마이크를 통해 인식되며, 이후 텍스트 데이터로 전사될 수 있다. 발화자로부터 발화되는 음성 데이터는 음성인식 프로그램(예시: 구글 클라우드 스피치 애플리케이션 프로그래밍 인터페이스) 등을 이용하여 텍스트 데이터로 전사될 수 있다. The utterance of the speaker is recognized by the microphone built in the HMD, and can then be transferred as text data. The voice data to be uttered by the speaker can be transferred into text data using a voice recognition program (for example, Google Cloud Speech Application Programming Interface) or the like.

발화자의 행동 정보는 HMD(예시: HTC VIVE)를 이용해 발화자의 시선을, 깊이 카메라(Depth Camera)(예시: Kinect)를 이용하여 사용자의 상체 동작을 수집한 후 컴퓨터 프로그램을 이용하여 처리될 수 있도록 특정한 형식으로 변환될 수 있다. The behavioral information of the speaker can be obtained by collecting the user's upper body motion using the HMD (for example, HTC VIVE) using a depth camera (e.g., Kinect), and then using the computer program It can be converted to a specific format.

행동 정보 가운데 시선은 발화자가 아바타를 바라보고 있는지 여부에 대한 정보로 변환될 수 있다. 이를 위해 우선, HMD의 애플리케이션 프로그래밍 인터페이스를 활용하여 사용자의 시선을 다음과 같은 3차원 벡터 값 eyegazeuser의 형태로 변환할 수 있다. 발화자의 시선에 대한 벡터 값을 획득함에 따라 발화자가 아바타를 바라보는지 여부는 수학식 9에 의해 도출될 수 있다.Among the behavior information, the gaze can be converted into information on whether or not the speaker is looking at the avatar. To do this, the user's gaze can be converted into the following three-dimensional vector value eyegaze user by utilizing the application programming interface of the HMD. Whether or not the talker is looking at the avatar by acquiring the vector value of the sight line of the talker can be derived by Equation (9).

수학식 9: Equation (9)

Figure pat00034
Figure pat00034

이때, 도 7을 참고하면, eyecontact는 발화자가 아바타를 바라보는지를 판단한 결과를 나타내며, r은 eyegazeuser(710)로부터 아바타의 머리 위치(720)까지의 최단 거리,

Figure pat00035
는 r의 최대 허용 거리로 정의한다.7, eyecontact indicates a result of judging whether or not the speaker sees the avatar, r is the shortest distance from the eyegaze user 710 to the head position 720 of the avatar,
Figure pat00035
Is defined as the maximum allowable distance of r.

행동 정보 중 상체 동작은 깊이 카메라를 이용하여 상체의 주요 위치를 수집할 수 있다. 좌우 손목, 좌우 팔꿈치, 좌우 어깨, 머리, 목, 배, 엉덩이를 포함하는 10개의 위치를 3차원 좌표 값으로 수집할 수 있다. 컴퓨터 프로그램이 처리할 수 있는 형태로 변환된 정보들은 피드백 제공 시스템(100)으로 전달된다. In the behavior information, the upper body motion can collect the main position of the upper body using the depth camera. Ten positions including left and right wrists, right and left elbows, left and right shoulders, head, neck, abdomen, and buttocks can be collected as three-dimensional coordinate values. The information converted into a form that can be processed by the computer program is transmitted to the feedback providing system 100.

단계(S550)에서 의사소통 훈련 장치(300)는 아바타의 응답이 생성됨에 따라 생성된 응답을 출력할 수 있다. 피드백 제공 장치(100)로부터 전달받은 결과에 대응하는 아바타의 발화와 행동을 생성하여 의사소통 훈련 장치(300)에서 출력할 수 있다. 아바타의 발화는 텍스트 음성 변환 프로그램을 통해 출력되며, 행동은 애니메이션 프로그램을 통해 출력된다. 이때, 아바타의 발화에 대한 발화자의 응답이 탐지되면, 단계(S530)이 수행될 수 있다.In step S550, the communication training device 300 may output a response generated as the response of the avatar is generated. The communication training apparatus 300 can generate an avatar utterance and an action corresponding to a result received from the feedback providing apparatus 100. [ The utterance of the avatar is output through a text-to-speech program, and the behavior is output through an animation program. At this time, if the speaker's response to the utterance of the avatar is detected, step S530 may be performed.

도 6은 일 실시예에 따른 모바일 장치를 이용하여 피드백을 제공하는 방법을 설명하기 위한 흐름도이다. 6 is a flow chart illustrating a method of providing feedback using a mobile device in accordance with one embodiment.

모바일 장치는 일상 생활에서 사용자가 참여한 대화상황 전체를 인식하고, 발화자의 발화를 분석하여 모바일 장치를 통해 발화 및 행동에 관한 피드백 메시지를 전달할 수 있다. The mobile device recognizes the entire conversation situation in which the user participates in daily life and analyzes the utterance of the speaker to transmit a feedback message about the utterance and behavior through the mobile device.

단계(S610)에서 모바일 장치는 발화 상황을 수집할 수 있다. 모바일 장치는 애플리케이션 형태로 수행되는 피드백 프로그램을 통하여 발화자가 참여하는 대화의 내용, 시선 정보 또는 행동 정보를 포함하는 발화 정보를 수집하고, 수집된 발화 정보를 텍스트 데이터로 변환할 수 있다. 예를 들면, 발화자로부터 발화되는 음성 데이터는 음성인식 프로그램(예를 들면, 구글 클라우드 스피치 애플리케이션 프로그래밍 인터페이스(API)) 등을 이용하여 텍스트 데이터로 전사될 수 있다.In step S610, the mobile device may collect the firing situation. The mobile device collects the speech information including the contents of the conversation, the sight line information or the action information of the participant through the feedback program executed in the form of an application, and converts the collected speech information into text data. For example, speech data uttered by a speaking person can be transferred as text data using a speech recognition program (e.g., Google Cloud Speech Application Programming Interface (API)) or the like.

단계(S620)에서 모바일 장치는 발화자로부터 수집된 발화 정보를 피드백 제공 시스템으로 전달하여 발화자의 발화 및 행동 분석을 요청할 수 있다. In step S620, the mobile device may transmit the collected information from the speaker to the feedback providing system to request the speaker's utterance and behavioral analysis.

단계(S630)에서 모바일 장치는 피드백 제공 시스템으로부터 전달받은 분석 결과를 바탕으로 피드백을 생성하고, 생성된 피드백을 모바일 장치로 출력할 수 있다. 이때, 도 11을 참고하면, 발화자의 발화 정보에 대한 분석 결과와 발화를 통해 예상된 상체 동작에 대한 피드백이 출력된다. 발화 정보에 대한 분석 결과는 모바일 장치의 애플리케이션의 상단에 텍스트 데이터로 표시될 수 있다. 발화자로부터 예상되는 상체 동작에 대한 피드백은 모바일 장치의 애플리케이션의 하단에 표시될 수 있으며, 특정 상체 동작을 수행 중인지 여부를 발화자에게 통보할 수 있다. 발화자는 애플리케이션으로부터의 피드백을 통해 스스로 발화 내용 및 상체 동작을 의식하고 개선할 수 있다.In step S630, the mobile device generates feedback based on the analysis result transmitted from the feedback providing system, and outputs the generated feedback to the mobile device. At this time, referring to FIG. 11, the analysis result of the speaking information of the speaking person and the feedback about the upper body motion predicted through speaking are outputted. The result of the analysis of the speech information can be displayed as text data at the top of the application of the mobile device. The feedback on the upper body motion expected from the speaker can be displayed at the bottom of the application of the mobile device and can notify the speaker whether or not the specific upper body operation is being performed. Speakers can be aware of and improve speech content and upper body behavior themselves through feedback from applications.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device As shown in FIG. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

피드백 제공 시스템에서 수행되는 피드백 제공 방법에 있어서,
발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 단계;
상기 가상현실 환경에서 상기 발화자로부터 발화되는 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보를 획득하는 단계;
상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계; 및
상기 발화자로부터 실제 상황에서 발생하는 발화 정보에 대응하여 상기 분석 결과에 기반한 피드백을 제공하는 단계
를 포함하는 피드백 제공 방법.
In a feedback providing method performed in a feedback providing system,
Constructing a virtual reality environment for performing communication training of a speaker;
Obtaining speech training information including visual information, behavior information, and dialog information of a speaking person uttered from the speaking person in the virtual reality environment;
Generating an analysis result related to the speaker by analyzing the obtained speech training information; And
Providing feedback based on the analysis result in response to speech information generated in a real situation from the speaker
Lt; / RTI >
제1항에 있어서,
상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계는,
상기 발화자의 텍스트 데이터 또는 음성 데이터를 포함하는 대화 정보에 대하여 시나리오 스크립트에 대한 모범 답안과 상기 발화자의 답변에 대한 유사도를 측정하여 발화자의 답변에 대한 정답 여부를 판단하고, 상기 판단된 발화자의 답변에 대한 정답 여부에 기초하여 다음에 진행될 질문을 선정하는 단계
를 포함하는 피드백 제공 방법.
The method according to claim 1,
Wherein the step of generating the analysis result related to the speaker by analyzing the obtained speech training information comprises:
Determining a correct answer to the answer of the speaker by measuring the best answer to the scenario script and the similarity of the answer of the speaker to the conversation information including the text data or voice data of the speaker, Selecting the next question based on whether the answer is correct
Lt; / RTI >
제1항에 있어서,
상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계는,
상기 발화자의 적어도 하나 이상의 신체 부위에 대한 3차원 좌표값에 기반하여 9개의 방향 벡터를 계산하고, 상기 계산된 방향 벡터에 기초하여 상기 발화자의 행동 정보를 파악하는 단계
를 포함하는 피드백 제공 방법.
The method according to claim 1,
Wherein the step of generating the analysis result related to the speaker by analyzing the obtained speech training information comprises:
Calculating nine directional vectors based on three-dimensional coordinate values of at least one or more body parts of the speaker, and determining behavioral information of the speaker based on the calculated directional vectors
Lt; / RTI >
제1항에 있어서,
상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계는,
의사소통 훈련 장치로 질문에 대한 정답률, 상기 질문에 대하여 오답된 모범 답안, 상기 발화자의 시선 마주침 등급 또는 상기 발화자로부터 기 설정된 횟수 이상 행해진 행동 정보와 상기 행동 정보의 의미를 포함하는 분석 결과를 제공하는 단계
를 포함하는 피드백 제공 방법.
The method according to claim 1,
Wherein the step of generating the analysis result related to the speaker by analyzing the obtained speech training information comprises:
The communication training device provides an analysis result including the percentage of correct answer to the question, the wrong answer to the question, the answer to the question, the contact level of the talker, or the action information performed more than a predetermined number of times from the talker and the meaning of the behavior information step
Lt; / RTI >
제1항에 있어서,
상기 분석 결과에 기반한 피드백을 제공하는 단계는,
모바일 장치로 상기 발화자의 대화 내용에 대한 요약 정보, 상기 발화자의 대화 흐름의 변경 여부 또는 상기 발화자로부터 예측되는 행동 정보를 피드백 정보로 제공하는 단계
를 포함하는 피드백 제공 방법.
The method according to claim 1,
Wherein providing feedback based on the analysis results comprises:
Providing the mobile device with summary information on the conversation contents of the talker, whether the conversation flow of the talker is changed, or behavior information predicted from the speaker, as feedback information
Lt; / RTI >
제1항에 있어서,
상기 발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 단계는,
상기 발화자와 대화를 수행하는 아바타를 생성함에 따라 상기 가상현실 환경을 제공하는 의사소통 훈련 장치를 통하여 상기 발화자가 상기 생성된 아바타와 의사소통 훈련이 수행되는 단계
를 포함하는 피드백 제공 방법.
The method according to claim 1,
Wherein the step of configuring the virtual reality environment for performing the communication training of the speaker includes the steps of:
A step of communicating with the generated avatar through the communication training apparatus that provides the virtual reality environment by generating an avatar to perform conversation with the speaker,
Lt; / RTI >
제6항에 있어서,
상기 발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 단계는,
상기 의사소통 훈련을 수행하기 위한 적어도 하나 이상의 종류를 포함하는 시나리오를 제공하고, 상기 발화자로부터 선택된 시나리오에 기초하여 시나리오 스크립트가 셋팅되는 단계
를 포함하고,
상기 시나리오 스크립트는,
상기 발화자의 발화 훈련 정보에 대응하여 동적으로 질문 순서가 결정되는 것
을 포함하는 피드백 제공 방법.
The method according to claim 6,
Wherein the step of configuring the virtual reality environment for performing the communication training of the speaker includes the steps of:
Providing a scenario including at least one kind for performing the communication training, and setting a scenario script based on a scenario selected from the speaker
Lt; / RTI >
The scenario script includes:
Wherein the order of questions is dynamically determined in correspondence with the utterance training information of the speaker
≪ / RTI >
피드백 제공 시스템에서 수행되는 피드백 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램에 있어서,
발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 단계;
상기 가상현실 환경에서 상기 발화자로부터 발화되는 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보를 획득하는 단계;
상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 단계; 및
상기 발화자로부터 실제 상황에서 발생하는 발화 정보에 대응하여 상기 분석 결과에 기반한 피드백을 제공하는 단계
를 포함하는 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable medium for executing a feedback method performed in a feedback providing system,
Constructing a virtual reality environment for performing communication training of a speaker;
Obtaining speech training information including visual information, behavior information, and dialog information of a speaking person uttered from the speaking person in the virtual reality environment;
Generating an analysis result related to the speaker by analyzing the obtained speech training information; And
Providing feedback based on the analysis result in response to speech information generated in a real situation from the speaker
And a computer program stored in the computer readable recording medium.
피드백 제공 시스템에 있어서,
발화자의 의사소통 훈련을 수행하기 위한 가상현실 환경을 구성하는 구성부;
상기 가상현실 환경에서 상기 발화자로부터 발화되는 발화자의 시선 정보, 행동 정보 및 대화 정보를 포함하는 발화 훈련 정보를 획득하는 획득부;
상기 획득된 발화 훈련 정보를 분석함에 따라 상기 발화자와 관련된 분석 결과를 생성하는 생성부; 및
상기 발화자로부터 실제 상황에서 발생하는 발화 정보에 대응하여 상기 분석 결과에 기반한 피드백을 제공하는 제공부
를 포함하는 피드백 제공 시스템.
In a feedback providing system,
A constituent unit for configuring a virtual reality environment for performing communication training of a speaker;
An obtaining unit obtaining speech training information including visual information, behavior information, and dialog information of a speaking person uttered from the speaking person in the virtual reality environment;
A generating unit for generating an analysis result related to the talker by analyzing the obtained speech training information; And
And providing feedback based on the analysis result in response to the utterance information generated in the actual situation from the utterance
.
제9항에 있어서,
상기 생성부는,
상기 발화자의 텍스트 데이터 또는 음성 데이터를 포함하는 대화 정보에 대하여 시나리오 스크립트에 대한 모범 답안과 상기 발화자의 답변에 대한 유사도를 측정하여 발화자의 답변에 대한 정답 여부를 판단하고, 상기 판단된 발화자의 답변에 대한 정답 여부에 기초하여 다음에 진행될 질문을 선정하는
것을 특징으로 하는 피드백 제공 시스템.
10. The method of claim 9,
Wherein the generation unit comprises:
Determining a correct answer to the answer of the speaker by measuring the best answer to the scenario script and the similarity of the answer of the speaker to the conversation information including the text data or voice data of the speaker, Based on whether the answer is correct,
The feedback system comprising:
제9항에 있어서,
상기 생성부는,
상기 발화자의 적어도 하나 이상의 신체 부위에 대한 3차원 좌표값에 기반하여 9개의 방향 벡터를 계산하고, 상기 계산된 방향 벡터에 기초하여 상기 발화자의 행동 정보를 파악하는
것을 특징으로 하는 피드백 제공 시스템.
10. The method of claim 9,
Wherein the generation unit comprises:
Calculates nine direction vectors based on three-dimensional coordinate values of at least one body part of the speaker, and grasps behavior information of the speaker based on the calculated direction vector
The feedback system comprising:
제9항에 있어서,
상기 생성부는,
의사소통 훈련 장치로 질문에 대한 정답률, 상기 질문에 대하여 오답된 모범 답안, 상기 발화자의 시선 마주침 등급 또는 상기 발화자로부터 기 설정된 횟수 이상 행해진 행동 정보와 상기 행동 정보의 의미를 포함하는 분석 결과를 제공하는
것을 특징으로 하는 피드백 제공 시스템.
10. The method of claim 9,
Wherein the generation unit comprises:
The communication training device provides an analysis result including the percentage of correct answer to the question, the wrong answer to the question, the answer to the question, the contact level of the talker, or the action information performed more than a predetermined number of times from the talker and the meaning of the behavior information
The feedback system comprising:
제9항에 있어서,
상기 제공부는,
모바일 장치로 상기 발화자의 대화 내용에 대한 요약 정보, 상기 발화자의 대화 흐름의 변경 여부 또는 상기 발화자로부터 예측되는 행동 정보를 피드백 정보로 제공하는
것을 특징으로 하는 피드백 제공 시스템.
10. The method of claim 9,
Wherein the providing unit comprises:
The summary information on the conversation contents of the talker, whether the conversation flow of the talker is changed, or the behavior information predicted from the talker is provided as feedback information to the mobile device
The feedback system comprising:
제9항에 있어서,
상기 구성부는,
상기 발화자와 대화를 수행하는 아바타를 생성함에 따라 상기 가상현실 환경을 제공하는 의사소통 훈련 장치를 통하여 상기 발화자가 상기 생성된 아바타와 의사소통 훈련이 수행되는
것을 특징으로 하는 피드백 제공 시스템.
10. The method of claim 9,
The above-
The communication with the avatar is performed through the communication training device that provides the virtual reality environment by generating the avatar performing the conversation with the speaking person
The feedback system comprising:
제14항에 있어서,
상기 구성부는,
상기 의사소통 훈련을 수행하기 위한 적어도 하나 이상의 종류를 포함하는 시나리오를 제공하고, 상기 발화자로부터 선택된 시나리오에 기초하여 시나리오 스크립트가 셋팅되는 것
을 포함하고,
상기 시나리오 스크립트는,
상기 발화자의 발화 훈련 정보에 대응하여 동적으로 질문 순서가 결정되는 피드백 제공 시스템.
15. The method of claim 14,
The above-
Providing a scenario including at least one kind for performing the communication training, and setting a scenario script based on a scenario selected from the speaker
/ RTI >
The scenario script includes:
And a query sequence is dynamically determined in response to the speech training information of the speaker.
KR1020170154022A 2017-11-17 2017-11-17 System and method for communication training program over virtual reality and continued feedback via mobile device KR101998482B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170154022A KR101998482B1 (en) 2017-11-17 2017-11-17 System and method for communication training program over virtual reality and continued feedback via mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170154022A KR101998482B1 (en) 2017-11-17 2017-11-17 System and method for communication training program over virtual reality and continued feedback via mobile device

Publications (2)

Publication Number Publication Date
KR20190056749A true KR20190056749A (en) 2019-05-27
KR101998482B1 KR101998482B1 (en) 2019-07-09

Family

ID=66679297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170154022A KR101998482B1 (en) 2017-11-17 2017-11-17 System and method for communication training program over virtual reality and continued feedback via mobile device

Country Status (1)

Country Link
KR (1) KR101998482B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112330273A (en) * 2020-10-30 2021-02-05 中国平安人寿保险股份有限公司 Method and device for recruitment of part-time employees, computer equipment and readable storage medium
WO2021221185A1 (en) * 2020-04-27 2021-11-04 함승희 Training evaluation system
KR20210132924A (en) * 2020-04-28 2021-11-05 서울대학교산학협력단 Interactive communication training method, device and program for medical personnel
KR102325506B1 (en) * 2020-05-09 2021-11-12 우송대학교 산학협력단 Virtual reality-based communication improvement system and method
KR20230091388A (en) * 2021-12-16 2023-06-23 (주)아이앤시티 Virtual reality training evaluation system for armored car maintenance in groups of 2

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
KR101759335B1 (en) * 2016-10-05 2017-07-19 주식회사 지엔아이씨티 Presentation and interview training system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
KR101759335B1 (en) * 2016-10-05 2017-07-19 주식회사 지엔아이씨티 Presentation and interview training system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021221185A1 (en) * 2020-04-27 2021-11-04 함승희 Training evaluation system
KR20210132924A (en) * 2020-04-28 2021-11-05 서울대학교산학협력단 Interactive communication training method, device and program for medical personnel
KR102325506B1 (en) * 2020-05-09 2021-11-12 우송대학교 산학협력단 Virtual reality-based communication improvement system and method
CN112330273A (en) * 2020-10-30 2021-02-05 中国平安人寿保险股份有限公司 Method and device for recruitment of part-time employees, computer equipment and readable storage medium
CN112330273B (en) * 2020-10-30 2023-08-25 中国平安人寿保险股份有限公司 Off-office staff part-office recruitment method, device, computer equipment and readable storage medium
KR20230091388A (en) * 2021-12-16 2023-06-23 (주)아이앤시티 Virtual reality training evaluation system for armored car maintenance in groups of 2

Also Published As

Publication number Publication date
KR101998482B1 (en) 2019-07-09

Similar Documents

Publication Publication Date Title
KR101998482B1 (en) System and method for communication training program over virtual reality and continued feedback via mobile device
US10573037B2 (en) Method and apparatus for mentoring via an augmented reality assistant
US10824310B2 (en) Augmented reality virtual personal assistant for external representation
US10346539B2 (en) Facilitating a meeting using graphical text analysis
Zhu et al. AR-mentor: Augmented reality based mentoring system
CN113946211A (en) Method for interacting multiple objects based on metauniverse and related equipment
CN104488027A (en) Speech processing system and terminal device
JP6172417B1 (en) Language learning system and language learning program
US10922850B1 (en) Augmented reality system for persona simulation
JP2023552854A (en) Human-computer interaction methods, devices, systems, electronic devices, computer-readable media and programs
KR20170016399A (en) Modification of visual content to facilitate improved speech recognition
US20210271864A1 (en) Applying multi-channel communication metrics and semantic analysis to human interaction data extraction
CN112070865A (en) Classroom interaction method and device, storage medium and electronic equipment
KR20220130000A (en) Ai avatar-based interaction service method and apparatus
CN117541445A (en) Talent training method, system, equipment and medium for virtual environment interaction
CN112287767A (en) Interaction control method, device, storage medium and electronic equipment
US20220301251A1 (en) Ai avatar-based interaction service method and apparatus
KR20190109651A (en) Voice imitation conversation service providing method and sytem based on artificial intelligence
CN114974253A (en) Natural language interpretation method and device based on character image and storage medium
CN113223125B (en) Face driving method, device, equipment and medium for virtual image
Miyake et al. A spoken dialogue system using virtual conversational agent with augmented reality
CN113314104A (en) Interactive object driving and phoneme processing method, device, equipment and storage medium
CN113361396A (en) Multi-modal knowledge distillation method and system
WO2021114682A1 (en) Session task generation method and apparatus, computer device, and storage medium
CN111415662A (en) Method, apparatus, device and medium for generating video

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant