KR20200000215A - System and method for providing speech coaching service - Google Patents

System and method for providing speech coaching service Download PDF

Info

Publication number
KR20200000215A
KR20200000215A KR1020180072233A KR20180072233A KR20200000215A KR 20200000215 A KR20200000215 A KR 20200000215A KR 1020180072233 A KR1020180072233 A KR 1020180072233A KR 20180072233 A KR20180072233 A KR 20180072233A KR 20200000215 A KR20200000215 A KR 20200000215A
Authority
KR
South Korea
Prior art keywords
speech
coaching
image
user terminal
elements
Prior art date
Application number
KR1020180072233A
Other languages
Korean (ko)
Inventor
이미진
Original Assignee
이미진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이미진 filed Critical 이미진
Priority to KR1020180072233A priority Critical patent/KR20200000215A/en
Publication of KR20200000215A publication Critical patent/KR20200000215A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

Disclosed are a system and a method for providing a speech coaching service. The system for providing a speech coaching service according to an embodiment of the present invention comprises: a user terminal generating a speech video and transmitting the generated speech video to an analysis server; and the analysis server analyzing verbal elements and nonverbal elements of the speech video received from the user terminal and providing speech coaching information according to the analysis result, wherein the user terminal divides a display screen and displays the speech coaching information received from the analysis server and the speech video of a user on each of the divided screens.

Description

스피치 코칭 서비스 제공 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING SPEECH COACHING SERVICE}Speech coaching service provision system and method {SYSTEM AND METHOD FOR PROVIDING SPEECH COACHING SERVICE}

스피치 코칭 서비스 제공 시스템 및 방법에 관한 것으로 구체적으로, 사용자의 스피치 영상 분석 후 스피치 실력 향상을 위한 코칭 정보를 생성하고 이를 제공하는 시스템 및 방법에 관한 것이다. The present invention relates to a system and a method for providing a speech coaching service, and more particularly, to a system and a method for generating and providing coaching information for improving speech ability after analyzing a speech image of a user.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the contents described in this section are not prior art to the claims of this application, and inclusion in this section is not admitted to be prior art.

현대 사회에서 가장 큰 필요 역량 중 하나는 커뮤니케이션 능력이다. 현 상태에서의 소통 능력 중에서도 가장 화두가 되는 것이 스피치(speech) 능력이다. 스피치에서 중요한 것은 일방적인 말이 아닌 상대방과의 대화 즉, 소통이다. 따라서 스피치에서 내가 이야기하고 상대방이 공감하는 대화가 이루어져야 한다. 또한, 스피치 내용, 공간, 청중 등 스피치의 다양한 세부정보에 따라 화자의 말하는 스타일과 전략이 달라져야 한다. 뿐만아니라 화자의 발음, 말하는 속도, 목소리 크기, 어조 등 스피치 능력에 영향을 미치는 요소들이 매우 다양하다. One of the greatest necessary competencies in modern society is communication skills. One of the most talked about communication skills in the current state is the speech ability. In speech, what matters is not one-sided talk, but communication with the other person. Therefore, in speech, a conversation should be made with the words I speak and empathize with. In addition, the speaker's speaking style and strategy should vary according to various details of speech such as speech contents, space, and audience. In addition, there are many factors that affect speech ability, such as the speaker's pronunciation, speaking speed, voice size, and tone.

스피치 및 프레젠테이션 능력을 향상시키기 위해, 종래에는 학습자의 스피치를 전문가에게 평가받거나 청중들에게 평가받고 개선해야 할 요소를 스스로 찾아 연습하는 것이 일반적이었다.In order to improve speech and presentation skills, it has conventionally been common to find and practice the elements of learner's speech by experts or by the audience.

하지만, 사람에 의한 스피치 평가는 주관적으로 결정될 수 있고, 스피치 역량에 영향을 미치는 다양한 요소들을 정확하게 분석하는데 한계가 있다. However, speech assessment by humans can be subjectively determined, and there is a limit to accurately analyzing various factors that affect speech competence.

1. 한국 특허공개 제10-2013-0039802호(2013.04.23)1. Korean Patent Publication No. 10-2013-0039802 (2013.04.23) 2. 한국 특허등록 제10-1478756호(2014.12.24)2. Korean Patent Registration No. 10-1478756 (2014.12.24)

면접, 발표, 브리핑, 프레젠테이션 등 다양한 스피치 영상을 분석하고 분석 결과에 대한 피드백 및 스피치 코칭 정보를 생성하여 사용자에게 제공한다. 아울러, 스피치 코칭 정보에 따른 스피치 트레이닝 정보를 제공하고, 사용자 단말로 코칭 정보와 스피치 영상을 동시에 출력하는 일대일 스피치 코칭 서비스 시스템을 제공한다.Analyzes various speech images such as interviews, presentations, briefings and presentations, and generates feedback and speech coaching information on the analysis results and provides them to the user. In addition, it provides speech training information according to speech coaching information, and provides a one-to-one speech coaching service system for simultaneously outputting coaching information and a speech image to a user terminal.

일 실시예에 따른 스피치 코칭 서비스 제공 시스템은 스피치 영상을 생성하여 분석서버로 전송하는 사용자 단말; 사용자 단말로부터 수신한 스피치 영상의 언어요소와 비언어적 요소를 분석하고, 분석결과에 따라 스피치 코칭 정보를 제공하는 분석서버; 를 포함하고, 사용자단말은 디스플레이 화면을 분할하여 분석서버로부터 수신한 스피치 코칭정보와 사용자의 스피치 영상을 분할된 화면 각각에 함께 디스플레이 한다.According to an embodiment, a speech coaching service providing system may include: a user terminal generating a speech image and transmitting the speech image to an analysis server; An analysis server analyzing language elements and non-verbal elements of the speech image received from the user terminal and providing speech coaching information according to the analysis result; It includes, and the user terminal divides the display screen to display the speech coaching information received from the analysis server and the user's speech image on each of the divided screen.

다른 실시예에 따른 스피치 코칭 서비스 제공 방법은 (A) 사용자 단말에서 스피치 영상을 생성하여 분석서버로 전송하는 단계; (B) 분석서버에서 사용자 단말로부터 수신한 스피치 영상의 언어요소와 비언어적 요소를 분석하고, 분석결과에 따라 스피치 코칭 정보를 제공하는 단계; (C) 사용자 단말에서 스피치 코칭 정보를 수신하고, 디스플레이 화면을 분할하는 단계; 및 (D) 분석서버로부터 수신한 스피치 코칭정보와 사용자의 스피치 영상을 분할된 화면 각각에 함께 디스플레이 하는 단계; 를 포함한다. Speech coaching service providing method according to another embodiment comprises the steps of (A) generating a speech image in the user terminal to transmit to the analysis server; (B) analyzing language elements and non-verbal elements of the speech image received from the user terminal in the analysis server, and providing speech coaching information according to the analysis result; (C) receiving speech coaching information at the user terminal and dividing a display screen; (D) displaying the speech coaching information received from the analysis server and the user's speech image on each of the divided screens; It includes.

이상에서와 같은 스피치 코칭 서비스 제공 시스템 및 방법은 사용자가 생성한 스피치 영상에서 언어적 요소와 비언어적 요소를 포함하는 다양한 평가요소를 분석한 결과를 기반으로 스피치 코칭 정보를 생성하므로, 사용자의 스피치 실력을 정확하게 평가 받고 이에 대한 적절한 피드백을 신속하게 제공받을 수 있다.The above-described speech coaching service providing system and method generates speech coaching information based on a result of analyzing various evaluation factors including linguistic and non-verbal elements in the speech image generated by the user, thereby improving the user's speech ability. Accurately assessed and appropriate feedback provided quickly.

스피치 시간, 청중 수, 장소에 대한 목소리의 크기, 빠르기 등 스피치의 세부적인 부분까지 코칭 받을 수 있다. 아울러, 스피치 대본 텍스트 및 디스플레이 자료의 연관관계 분석을 통해 스피치 종류와 시간에 따른 스피치 구성평가를 수행하여 스피치의 기승전결이 보다 매끄럽고, 논리적 개연성이 향상되도록 피드백 할 수 있다.You can be coached to the details of speech, including speech time, audience, voice volume, and speed. In addition, through speech analysis of speech script text and display data, the speech composition can be evaluated according to the speech type and time, and feedback can be fed to improve the smoothness and logical probability of speech.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다. The effects of the present invention are not limited to the above-described effects, but should be understood to include all the effects deduced from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 실시예에 따른 스피치 코칭 서비스 제공 시스템 구성도
도 2는 실시예에 따른 분석서버의 데이터 처리블록을 나타낸 도면
도 3은 실시예에 따른 분석모듈(150)의 데이터 처리블록을 나타낸 도면
도 4는 실시예에 따른 사용자 단말의 데이터 처리 흐름을 나타낸 도면
도 5는 실시예에 따른 스피치 코칭 서비스 제공 시스템의 신호 흐름도
도 6은 실시예에 따른 스피치 코칭 정보를 생성하는 과정을 나타낸 흐름도
1 is a configuration diagram of a speech coaching service providing system according to an exemplary embodiment
2 is a view showing a data processing block of an analysis server according to an embodiment
3 is a diagram illustrating a data processing block of the analysis module 150 according to an embodiment.
4 is a diagram illustrating a data processing flow of a user terminal according to an embodiment
5 is a signal flow diagram of a speech coaching service providing system according to an embodiment
6 is a flowchart illustrating a process of generating speech coaching information according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only the embodiments of the present invention make the disclosure of the present invention complete and the general knowledge in the technical field to which the present invention belongs. It is provided to fully convey the scope of the invention to those skilled in the art, and the invention is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present disclosure, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present disclosure, the detailed description thereof will be omitted. Terms to be described below are terms defined in consideration of functions in the embodiments of the present invention, and may vary according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the specification.

도 1은 실시예에 따른 스피치 코칭 서비스 제공 시스템 구성도이다. 1 is a configuration diagram of a speech coaching service providing system according to an exemplary embodiment.

도 1을 참조하면, 스피치 코칭 서비스 제공 시스템은 사용자 단말(200) 및 분석서버(100)를 포함하여 구성될 수 있다. 사용자 단말(200)은 사용자의 스피치 영상을 생성하여 분석서버(100)로 전송한다. 예컨대, 사용자 단말(200)은 사용자가 스피치 하는 영상을 촬영할 수 있는 디지털 기기 및 카메라를 구비한 스마트 폰 등을 포함한다.Referring to FIG. 1, the speech coaching service providing system may include a user terminal 200 and an analysis server 100. The user terminal 200 generates a speech image of the user and transmits it to the analysis server 100. For example, the user terminal 200 may include a digital device capable of capturing an image of a user's speech and a smart phone having a camera.

분석서버(100)는 사용자 단말(200)로부터 수신한 스피치 영상의 언어요소와 비언어적 요소를 분석하고, 분석결과에 따라 스피치 코칭 정보를 제공한다. 실시예에서 사용자단말(200)은 디스플레이 화면을 분할하여 분석서버(100)로부터 수신한 스피치 코칭정보와 사용자의 스피치 영상을 분할된 화면 각각에 함께 디스플레이 할 수 있다.The analysis server 100 analyzes language elements and non-verbal elements of the speech image received from the user terminal 200, and provides speech coaching information according to the analysis result. In an embodiment, the user terminal 200 may split the display screen and display the speech coaching information received from the analysis server 100 and the speech image of the user on each of the divided screens.

도 2는 실시예에 따른 분석서버의 데이터 처리블록을 나타낸 도면이다.2 is a diagram illustrating a data processing block of an analysis server according to an embodiment.

도 2를 참조하면, 분석서버(100)는 데이터베이스(110), 통신모듈(130), 분석모듈(150) 및 트레이닝 정보 제공모듈(170)을 포함하여 구성될 수 있다. 본 명세서에서 사용되는 '모듈'이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.Referring to FIG. 2, the analysis server 100 may include a database 110, a communication module 130, an analysis module 150, and a training information providing module 170. The term 'module' as used herein is to be interpreted to include software, hardware or a combination thereof, depending on the context in which the term is used. For example, the software can be machine language, firmware, embedded code, and application software. As another example, the hardware may be a circuit, a processor, a computer, an integrated circuit, an integrated circuit core, a sensor, a micro-electro-mechanical system (MEMS), a passive device, or a combination thereof.

데이터베이스(110)는 스피치 상황, 언어, 발표종류, 청중 수, 발표공간, 발표 주제를 포함하는 스피치 세부 정보에 따른 표준스피치 데이터를 저장 및 업데이트 한다. 실시예에서는 표준스피치 데이터와 스피치 영상에서 추출한 언어적 요소 및 비언어적 요소를 포함하는 평가요소를 비교하여 비교결과에 따라 스피치 코칭 정보를 생성할 수 있다.The database 110 stores and updates standard speech data according to speech details including speech situation, language, presentation type, audience number, presentation space, and presentation topic. In an exemplary embodiment, speech coaching information may be generated according to a comparison result by comparing standard speech data with evaluation elements including linguistic and non-verbal elements extracted from the speech image.

통신모듈(130)은 사용자 단말(200)로부터 스피치 영상을 수신하고, 사용자 단말로 스피치 코칭 서비스 어플리케이션 데이터 및 스피치 코칭 정보를 전송한다.The communication module 130 receives a speech image from the user terminal 200, and transmits speech coaching service application data and speech coaching information to the user terminal.

분석모듈(150)은 스피치 영상의 언어요소와 비언어요소를 추출하고, 기 저장된 기준 데이터와 언어요소 및 비언어요소를 비교하여 비교 결과에 따라 스피치 코칭 정보를 생성한다. 트레이닝 정보 제공모듈(170)은 분석모듈(150)에서 생성된 스피치 코칭 정보에 따라 사용자의 스피치 트레이닝 코스를 추출한다. 실시예에서, 스피치 트레이닝 코스는 분석된 평가요소에 근거하여 사용자의 스피치 능력 중 미흡한 부분을 향상시키기 위한 과정이다. 예컨대, 사용자의 스피치 중 발음요소가 낮은 레벨로 평가된 경우에는 스피치 딕션(diction)을 향상시키는 훈련과정 및 프로그램 정보를 제공할 수 있다.The analysis module 150 extracts language elements and non-verbal elements of the speech image, compares the pre-stored reference data with language elements and non-verbal elements, and generates speech coaching information according to the comparison result. The training information providing module 170 extracts a user's speech training course according to the speech coaching information generated by the analysis module 150. In an embodiment, the speech training course is a process for improving the insufficient part of the user's speech ability based on the analyzed factor. For example, when the pronunciation element of the user's speech is evaluated at a low level, training courses and program information for improving speech dictionary may be provided.

실시예에서 분석모듈(150)은 수신한 영상에서 음성인식을 통해 스피치 과정을 평가할 수 있다. 구체적으로, 미리 저장된 대본과 사용자가 스피치 하는 언어를 비교하여 일치 정도를 산출하고, 평가하거나 인식된 음성분석을 통해 스피치의 기승전결을 파악하고 이를 점수로 변환 하여 평가할 수 있다. 또한, 사용자 목소리의 크기, 억양, 발음, 호흡을 분석하고 분석된 결과를 점수로 변환하여 스피치를 평가에 반영할 수 있다. 또한, 스피치 중 사용자의 표정을 분석하고 청중들과의 상호작용을 인식하여 이를 스피치 평가에 반영할 수 있다. 즉, 실시예에서는 영상에 포함된 사용자의 음성, 움직임, 표정, 청중과의 상호작용 등 스피치에 영향을 미칠 수 있는 다양한 요소를 분석하여 이를 기반으로 사용자 별 스피치 평가를 수행하고, 보완해야 할 점을 파악할 수 있다. In an embodiment, the analysis module 150 may evaluate a speech process through voice recognition on the received image. In detail, the degree of matching may be calculated by comparing the pre-stored script with the language spoken by the user, and the evaluation of the speech may be performed by evaluating the recognized speech analysis and converting the score into a score. In addition, the size, intonation, pronunciation, and breath of the user's voice may be analyzed, and the analyzed result may be converted into a score to reflect the speech. In addition, the expression of the user during speech and the interaction with the audience can be recognized and reflected in the speech evaluation. That is, the embodiment analyzes various factors that may affect speech such as the user's voice, movement, facial expression, and interaction with the audience, and performs speech evaluation for each user based on the analysis. Can be identified.

도 3은 실시예에 따른 분석모듈(150)의 데이터 처리블록을 나타낸 도면이다.3 is a diagram illustrating a data processing block of the analysis module 150 according to an embodiment.

도 3을 참조하면, 분석모듈(150)은 평가요소 추출부(151), 텍스트 분석부(153), 평가부(155) 및 코칭정보생성부(157)를 포함하여 구성될 수 있다.Referring to FIG. 3, the analysis module 150 may include an evaluation element extraction unit 151, a text analysis unit 153, an evaluation unit 155, and a coaching information generation unit 157.

평가요소 추출부(151)는 사용자 스피치 영상을 평가하기 위한 언어적 요소와 비언어적 요소를 포함하는 평가요소를 추출한다. 언어적 요소에는 화자의 스피치 속도, 발음, 유창성, 스피치 대본과 발표내용의 일치 정도 등 스피치의 언어적인 요소를 평가하기 위한 항목이다. 비언어적 요소에는 청중의 호응도, 제스처 및 화자의 움직임, 스피치 진행 정도에 따른 말하는 속도의 변화 등 비언어적인 요소를 평가하기 위한 항목이다.The evaluation element extracting unit 151 extracts evaluation elements including linguistic and non-verbal elements for evaluating the user speech image. The linguistic elements are for evaluating the linguistic elements of speech, such as the speaker's speech speed, pronunciation, fluency, and the degree of correspondence between speech scripts and presentation. Non-verbal elements are for evaluating nonverbal factors such as audience response, gestures and speaker movements, and changes in speech speed according to speech progress.

텍스트 분석부(153)는 스피치에 발표할 텍스트를 미리 저장하는 경우, 저장된 텍스트를 분석한다. 예컨대, 스피치 종류, 청자, 말하는 시간 등을 포함하는 세부정보에 분석된 텍스트가 어느 정도 부합하는지 파악할 수 있다.When the text analyzing unit 153 stores the text to be announced in the speech in advance, the text analyzing unit 153 analyzes the stored text. For example, it is possible to determine how much the analyzed text matches the detailed information including the speech type, the listener, the speaking time, and the like.

평가부(155)는 추출된 평가요소 각각을 기저장된 표준데이터와 비교하여 사용자 스피치 영상을 평가한다. 실시예에서 평가부(155)는 사용자 스피치 영상을 스피치 전문 강사의 단말로 전달하여, 스피치 전문 강사의 단말로부터 스피치 평가 정보를 전송받을 수도 있다. 또한, 평가부(155)에서는 제한된 스피치 시간을 고려한 스피치 대본의 길이를 산출하고, 스피치 대본의 텍스트의 함의를 인식하여 스피치 종류, 시간, 청중에 따라 스피치 대본의 플롯을 분석하고 평가할 수 있다. 구체적으로, 평가부(155)는 텍스트 분석 결과를 기반으로 스피치 진행상황에 따른 스피치 흐름이 적절한지 평가할 수 있고, 기승전결과 같은 스피치 구성 및 각 구성간 연계성을 평가 할 수 있다.The evaluation unit 155 evaluates the user speech image by comparing each of the extracted evaluation elements with previously stored standard data. In an embodiment, the evaluation unit 155 may transmit the user speech image to the terminal of the speech instructor, and may receive speech evaluation information from the terminal of the speech instructor. In addition, the evaluation unit 155 may calculate the length of the speech script in consideration of the limited speech time, recognize the implications of the text of the speech script, and analyze and evaluate the plot of the speech script according to the speech type, time, and audience. In detail, the evaluation unit 155 may evaluate whether the speech flow according to the speech progress is appropriate based on the text analysis result, and evaluate the speech configuration and the connection between the components, such as the result of the riding.

코칭정보 생성부(157)는 스피치 영상에서 산출된 평가요소 및 평가요소 평가결과에 따라 코칭정보를 생성한다. 예컨대, 코칭정보 생성부(157)는 스피치 영상에서 출력되는 텍스트와 미리 저장된 스피치 대본을 비교하여 사용자의 스피치 정확도 파악할 수 있다. 또한, 스피치에서 제공되는 프레젠테이션 자료가 저장된 경우, 자료와 스피치 텍스트의 연관관계를 산출하여 산출결과에 따라 스피치 코칭정보를 생성할 수 있다. 구체적으로, 텍스트와 시각자료의 연관관계가 일정 수준 미만으로 산출되는 경우, 시각자료를 변경하는 피드백 정보를 생성하거나, 스피치 대본의 논리적 개연성이 일정수준 미만인 경우, 텍스트 수정을 요하는 코칭 메시지를 생성할 수 있다. The coaching information generator 157 generates coaching information according to the evaluation factor and the evaluation factor evaluation result calculated from the speech image. For example, the coaching information generation unit 157 may determine the speech accuracy of the user by comparing the text output from the speech image with the prestored speech script. In addition, when the presentation data provided by the speech is stored, the speech coaching information may be generated according to the calculation result by calculating a correlation between the data and the speech text. Specifically, when the relationship between the text and the visual material is calculated to be below a certain level, generate feedback information for changing the visual material, or generate a coaching message requiring text modification when the logical probability of the speech script is below a certain level. can do.

도 4는 실시예에 따른 사용자 단말의 데이터 처리 흐름을 나타낸 도면이다.4 is a diagram illustrating a data processing flow of a user terminal according to an embodiment.

도 4를 참조하면, 사용자 단말(200)은 분석서버(100)로부터 분산방식으로 배포되는 스피치 코칭 서비스 제공 어플리케이션을 다운로드 하여 설치하고, 어플리케이션 및 분석서버와의 통신을 통해 사용자에게 스피치 코칭 정보를 제공할 수 있다. 이를 위해 사용자 단말(200)은 영상생성모듈(210), 화면 분할 모듈(230) 및 출력모듈(250)을 포함하여 구성될 수 있다. 또한 실시예에서 사용자는 어플리케이션뿐만 아니라 웹페이지를 통해 스피치 코칭 서비스를 이용할 수 있다.Referring to FIG. 4, the user terminal 200 downloads and installs a speech coaching service providing application distributed from the analysis server 100 in a distributed manner, and provides speech coaching information to a user through communication with the application and the analysis server. can do. To this end, the user terminal 200 may include an image generation module 210, a screen division module 230, and an output module 250. In addition, in an embodiment, a user may use a speech coaching service through a web page as well as an application.

영상생성모듈(210)은 사용자의 스피치 과정을 촬영하여 스피치 영상을 생성한다.The image generation module 210 generates a speech image by photographing a speech process of the user.

화면분할모듈(230)은 사용자 단말(200)의 디스플레이 화면을 분할한다.The screen splitting module 230 divides the display screen of the user terminal 200.

출력모듈(250)은 분할된 화면 각각에 사용자의 스피치 영상과 스피치 코칭정보를 디스플레이한다.The output module 250 displays the speech image and the speech coaching information of the user on each of the divided screens.

이하에서는 스피치 코칭 정보 제공 방법에 대해서 차례로 설명한다. 실시예에 따른 스피치 코칭 정보 제공 방법의 작용(기능)은 시스템상의 기능과 본질적으로 같은 것이므로 도 1 내지 도 4와 중복되는 설명은 생략하도록 한다.Hereinafter, a method of providing speech coaching information will be described. Since the operation (function) of the speech coaching information providing method according to the embodiment is essentially the same as the function on the system, a description overlapping with FIGS. 1 to 4 will be omitted.

도 5는 실시예에 따른 스피치 코칭 서비스 제공 시스템의 신호 흐름도이다.5 is a signal flow diagram of a speech coaching service providing system according to an embodiment.

도 5를 참조하면, S10 단계에서는 사용자 단말(100)에서 스피치 영상을 생성하고, S20 단계에서는 분석서버(200)로 스피치 영상을 전송한다. S30 단계에서는 분석서버(200)에서 수신한 스피치 영상을 분석하고, S40 단계에서는 분석 결과를 기반으로 스피치 코칭 정보를 생성한다. Referring to FIG. 5, in operation S10, a speech image is generated by the user terminal 100, and in operation S20, the speech image is transmitted to the analysis server 200. In operation S30, the speech image received from the analysis server 200 is analyzed, and in operation S40, speech coaching information is generated based on the analysis result.

S50 단계에서는 사용자 단말(100)으로 스피치 코칭정보를 전달한다.In step S50, the speech coaching information is transmitted to the user terminal 100.

S60 단계에서는 사용자 단말(100)에서 화면을 분할하고, S70 단계에서는 분할된 화면 각각에 스피치 영상 및 스피치 코칭정보 영상이 디스플레이 된다.In operation S60, the user terminal 100 divides the screen, and in operation S70, the speech image and the speech coaching information image are displayed on each of the divided screens.

도 6은 실시예에 따른 스피치 코칭 정보를 생성하는 과정을 나타낸 흐름도이다. 6 is a flowchart illustrating a process of generating speech coaching information according to an embodiment.

S31 단계에서는 스피치 상황, 언어, 발표종류, 청중 수, 발표공간, 발표 주제를 포함하는 스피치 세부 정보에 따른 표준스피치 데이터를 저장 및 업데이트 하여 스피치 평가 데이터를 구축한다. 실시예에서 스피치 평가 데이터는 시간에 따라 누적 저장되고, 스피치 평가 영상과 함께 빅데이터화 될 수 있다. In step S31, the speech evaluation data is constructed by storing and updating standard speech data according to the speech details including the speech situation, language, presentation type, audience number, presentation space, and presentation topic. In an embodiment, the speech evaluation data may be accumulated and stored over time, and may be big data with the speech evaluation image.

S33 단계에서는 표준스피치 데이터와 스피치 영상에서 추출한 언어적 요소 및 비언어적 요소를 포함하는 평가요소를 추출한다.In step S33, evaluation elements including linguistic and non-verbal elements extracted from the standard speech data and the speech image are extracted.

S35 단계에서는 스피치 대본이 미리 저장되는 경우, 텍스트 분석을 수행한다. 실시예에서는 스피치 영상에서 출력되는 텍스트와 미리 저장된 스피치 대본을 비교하여 스피치 정확도를 산출하고, 스피치에서 제공되는 프레젠테이션 자료가 존재하는 경우, 자료와 스피치 텍스트의 연관관계를 산출하여 산출 결과에 따라 스피치 코칭정보를 생성할 수 있다.In step S35, when the speech script is stored in advance, text analysis is performed. In an embodiment, the speech accuracy is calculated by comparing the text output from the speech image with a prestored speech script, and when the presentation data provided by the speech is present, the correlation between the data and the speech text is calculated, and the speech coaching is performed according to the calculation result. Information can be generated.

S37 단계에서는 평가요소 및 텍스트 분석 결과에 따라 사용자 스피치를 평가한다. S37 단계에서는 스피치 영상의 언어요소와 비언어요소를 추출하고, 기 저장된 기준 데이터와 언어요소 및 비언어요소를 비교하여 비교 결과에 따라 스피치 코칭 정보를 생성한다. 제한된 스피치 시간을 고려한 스피치 대본의 길이를 산출하고, 스피치 대본의 텍스트를 인식하여 스피치 종류, 시간, 청중에 따라 스피치 대본의 플롯을 분석하고 평가할 수 있다.In step S37, the user speech is evaluated according to the evaluation factor and the text analysis result. In operation S37, speech elements and non-verbal elements of the speech image are extracted, and speech coaching information is generated according to a comparison result by comparing the pre-stored reference data with language and non-verbal elements. The length of the speech script is taken into account with limited speech time, and the text of the speech script can be recognized to analyze and evaluate the plot of the speech script according to the speech type, time, and audience.

S39단계에서는 평가 결과를 고려하여 사용자의 스피치 실력을 향상시킬 수 있도록 하는 트레이닝 정보를 생성한다. In step S39, training information is generated in consideration of the evaluation result to improve the user's speech ability.

실시예에서는 스피치 영상을 생성하고 이를 분석서버로 송신하여 사용자의 스피치를 평가하고 스피치 실력을 향상시킬 수 있도록 하는 트레이닝 정보 및 스피치 분석 결과를 사용자에게 제공한다. 즉, 분석서버와 사용자 단말 간 스피치 영상과 스피치 영상의 분석결과를 송수신하여 사용자가 자신의 스피치 실력 향상에 필요한 코칭정보를 편리하게 획득할 수 있도록 한다. In an embodiment, the speech image is generated and transmitted to the analysis server to provide the user with training information and speech analysis results for evaluating the user's speech and improving speech ability. That is, the user can conveniently obtain coaching information necessary for improving his or her speech ability by transmitting and receiving the speech image and the speech image analysis result between the analysis server and the user terminal.

실시예에 따른 스피치 코칭 서비스 제공 시스템 및 방법은 사용자가 생성한 스피치 영상에서 언어적 요소와 비언어적 요소를 포함하는 다양한 평가요소를 분석한 결과를 기반으로 스피치 코칭 정보를 생성하므로, 스피치 실력을 정확하게 평가 받고 이에 대한 적절한 피드백을 신속하게 제공 받을 수 있도록 한다. 또한 실시예를 통해, 스피치 시간, 청중 수, 장소에 대한 목소리의 크기, 빠르기 등 스피치의 세부적인 부분까지 코칭 받을 수 있다. 아울러, 스피치 대본 텍스트 및 디스플레이 자료의 연관관계 분석을 통해 스피치 종류와 시간에 따른 스피치 구성평가를 수행하여 스피치의 기승전결이 보다 매끄럽고, 논리적 개연성이 향상되도록 피드백 할 수 있다.The speech coaching service providing system and method according to the embodiment generates speech coaching information based on a result of analyzing various evaluation factors including linguistic and nonverbal elements in a speech image generated by a user, thereby accurately evaluating speech ability. Receive and promptly provide appropriate feedback. In addition, through the embodiment, the speech can be coached to the details of speech, such as the speech time, the number of audiences, the size of the voice to the place, the speed. In addition, through speech analysis of speech script text and display data, the speech composition can be evaluated according to the speech type and time, and feedback can be fed to improve the smoothness and logical probability of speech.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed contents are only examples, and various modifications may be made by those skilled in the art without departing from the scope of the claims claimed in the claims, and the scope of protection of the disclosed contents may be It is not limited to an Example.

100: 분석서버 200: 사용자 단말100: analysis server 200: user terminal

Claims (11)

스피치 코칭 서비스 제공 시스템에 있어서,
스피치 영상을 생성하여 분석서버로 전송하는 사용자 단말;
상기 사용자 단말로부터 수신한 스피치 영상의 언어요소와 비언어적 요소를 분석하고, 분석결과에 따라 스피치 코칭 정보를 제공하는 분석서버; 를 포함하고,
상기 사용자단말은
디스플레이 화면을 분할하여 상기 분석서버로부터 수신한 스피치 코칭정보와 사용자의 스피치 영상을 분할된 화면 각각에 함께 디스플레이 하는 것을 특징으로 하는 스피치 코칭 서비스 제공 시스템.
In the speech coaching service providing system,
A user terminal generating a speech image and transmitting the generated speech image to the analysis server;
An analysis server analyzing language elements and non-verbal elements of the speech image received from the user terminal and providing speech coaching information according to the analysis result; Including,
The user terminal
Speech coaching service providing system characterized in that the display screen divided by displaying the speech coaching information received from the analysis server and the user's speech image on each of the divided screen.
제 1항에 있어서, 상기 분석서버는
상기 사용자 단말로부터 스피치 영상을 수신하고, 상기 사용자 단말로 스피치 코칭 서비스 어플리케이션 설치 데이터 및 스피치 코칭 정보를 전송하는 통신모듈;
상기 스피치 영상의 언어요소와 비언어요소를 추출하고, 기 저장된 기준 데이터와 언어요소 및 비언어요소를 비교하여 비교결과에 따라 스피치 코칭 정보를 생성하는 분석모듈; 및
상기 분석모듈에서 생성된 스피치 코칭 정보에 따라 사용자의 스피치 트레이닝 코스를 추출하는 트레이닝 정보 제공모듈; 을 포함하는 것을 특징으로 하는 스피치 코칭 서비스 제공 시스템.
The method of claim 1, wherein the analysis server
A communication module for receiving a speech image from the user terminal and transmitting speech coaching service application installation data and speech coaching information to the user terminal;
An analysis module for extracting language elements and non-verbal elements of the speech image, and comparing the stored reference data with language elements and non-verbal elements to generate speech coaching information according to a comparison result; And
A training information providing module for extracting a user's speech training course according to the speech coaching information generated by the analysis module; Speech coaching service providing system comprising a.
제 1항에 있어서, 상기 사용자 단말은
사용자의 스피치 영상을 생성하는 영상생성모듈;
상기 사용자 단말의 디스플레이 화면을 분할하는 화면분할모듈; 및
상기 분할된 화면 각각에 사용자의 스피치 영상과 스피치 코칭정보를 디스플레이하는 출력모듈; 을 포함하는 것을 특징으로 하는 스피치 코칭 서비스 제공 시스템.
The method of claim 1, wherein the user terminal
An image generation module generating a speech image of a user;
A screen division module for dividing the display screen of the user terminal; And
An output module configured to display a speech image and speech coaching information of a user on each of the divided screens; Speech coaching service providing system comprising a.
제 1항에 있어서 상기 분석서버는
스피치 상황, 언어, 발표종류, 청중 수, 발표공간, 발표 주제를 포함하는 스피치 세부정보에 따른 표준스피치 데이터를 저장 및 업데이트 하는 데이터베이스; 를 더 포함하고,
상기 표준스피치 데이터와 상기 스피치 영상에서 추출한 언어적 요소 및 비언어적 요소를 포함하는 평가요소를 비교하여 비교결과에 따라 스피치 코칭 정보를 생성하는 것을 특징으로 하는 스피치 코칭 서비스 제공 시스템.
The method of claim 1, wherein the analysis server
A database for storing and updating standard speech data according to speech details, including speech status, language, presentation type, audience, presentation space, and presentation topic; More,
Speech coaching service providing system, characterized in that for generating the speech coaching information according to the comparison result by comparing the evaluation elements including the linguistic and non-verbal elements extracted from the standard speech data and the speech image.
제 1항에 있어서, 상기 분석서버는
상기 스피치 영상에서 출력되는 텍스트와 미리 저장된 스피치 대본을 비교하여 상기 스피치 정확도를 분석하고, 상기 스피치 진행 중 함께 제공되는 프레젠테이션 자료가 존재하는 경우, 상기 자료와 스피치 텍스트의 연관관계를 산출하여 산출 결과에 따라 스피치 코칭정보를 생성하는 것을 특징으로 하는 스피치 코칭 서비스 제공 시스템.
The method of claim 1, wherein the analysis server
Analyzing the speech accuracy by comparing the text output from the speech image and the pre-stored speech script, and if there is a presentation material provided during the speech process, the correlation between the data and the speech text is calculated to calculate Speech coaching service providing system, characterized in that for generating speech coaching information according to.
제 1항에 있어서, 상기 분석서버는
제한된 스피치 시간을 고려한 스피치 대본의 적정길이를 산출하고, 스피치 대본의 텍스트를 인식하여 스피치 종류, 시간, 청중에 따라 스피치 대본의 플롯(Plot)을 분석하고 평가하고, 스피치 진행에 따른 적정 말하기 속도를 제안하는 것을 특징으로 하는 스피치 코칭 서비스 제공 시스템.
The method of claim 1, wherein the analysis server
Calculate the proper length of the speech script considering the limited speech time, analyze and evaluate the plot of the speech script according to the speech type, time, and audience by recognizing the text of the speech script, and determine the appropriate speaking speed according to the speech progress. Speech coaching service providing system, characterized in that proposed.
스피치 코칭 서비스 제공 방법에 있어서,
(A) 사용자 단말에서 스피치 영상을 생성하여 분석서버로 전송하는 단계;
(B) 분석서버에서 상기 사용자 단말로부터 수신한 스피치 영상의 언어요소와 비언어적 요소를 분석하고, 분석결과에 따라 스피치 코칭 정보를 제공하는 단계;
(C) 사용자 단말에서 상기 스피치 코칭 정보를 수신하고, 디스플레이 화면을 분할하는 단계; 및
(D) 분석서버로부터 수신한 스피치 코칭정보와 사용자의 스피치 영상을 분할된 화면 각각에 함께 디스플레이 하는 단계; 를 포함하는 스피치 코칭 서비스 제공 방법.
In the speech coaching service providing method,
(A) generating a speech image from the user terminal and transmitting to the analysis server;
(B) analyzing language elements and non-verbal elements of the speech image received from the user terminal in the analysis server and providing speech coaching information according to the analysis result;
(C) receiving the speech coaching information at the user terminal and dividing a display screen; And
(D) displaying the speech coaching information received from the analysis server and the user's speech image on each of the divided screens; Speech coaching service providing method comprising a.
제 7항에 있어서, 상기 (B) 분석서버에서 사용자 단말로부터 수신한 스피치 영상의 언어요소와 비언어적 요소를 분석하고, 분석결과에 따라 스피치 코칭 정보를 제공하는 단계; 는
상기 사용자 단말로부터 스피치 영상을 수신하는 단계;
상기 스피치 영상의 언어요소와 비언어요소를 추출하고, 기 저장된 기준 데이터와 언어요소 및 비언어요소를 비교하여, 비교 결과에 따라 스피치 코칭 정보를 생성하는 단계; 및
상기 생성된 스피치 코칭 정보에 따라 사용자의 스피치 트레이닝 코스를 추출하는 단계; 를 포함하는 것을 특징으로 하는 스피치 코칭 서비스 제공 방법.
The method of claim 7, further comprising: (B) analyzing, by the analysis server, language elements and non-verbal elements of the speech image received from the user terminal, and providing speech coaching information according to the analysis result; Is
Receiving a speech image from the user terminal;
Extracting language elements and non-verbal elements of the speech image, comparing the stored reference data with language elements and non-verbal elements, and generating speech coaching information according to a comparison result; And
Extracting a speech training course of a user according to the generated speech coaching information; Speech coaching service providing method comprising a.
제 7항에 있어서, 상기 (B) 분석서버에서 상기 사용자 단말로부터 수신한 스피치 영상의 언어요소와 비언어적 요소를 분석하고, 분석결과에 따라 스피치 코칭 정보를 제공하는 단계; 는
스피치 상황, 언어, 발표종류, 청중 수, 발표공간, 발표 주제를 포함하는 스피치 세부 정보에 따른 표준스피치 데이터를 저장 및 업데이트 하는 단계;
상기 표준스피치 데이터와 상기 스피치 영상에서 추출한 언어적 요소 및 비언어적 요소를 포함하는 평가요소를 비교하여 비교결과에 따라 스피치 코칭 정보를 생성하는 단계; 를 포함하는 것을 특징으로 하는 스피치 코칭 서비스 제공 방법.
The method of claim 7, further comprising: (B) analyzing, by the analysis server, language elements and non-verbal elements of the speech image received from the user terminal, and providing speech coaching information according to the analysis result; Is
Storing and updating standard speech data according to speech details including speech situation, language, presentation type, audience, presentation space, and presentation topic;
Generating speech coaching information according to a comparison result by comparing the standard speech data with evaluation elements including linguistic and non-verbal elements extracted from the speech image; Speech coaching service providing method comprising a.
제 9항에 있어서, 상기 스피치 코칭 정보를 생성하는 단계; 는
상기 스피치 영상에서 출력되는 텍스트와 미리 저장된 스피치 대본을 비교하여 사용자의 스피치 정확도 분석하고, 상기 스피치 진행 시 제공되는 프레젠테이션 자료가 존재하는 경우, 상기 자료와 스피치 텍스트의 연관관계를 산출하여, 산출 결과를 기반으로 스피치 코칭정보를 생성하는 것을 특징으로 하는 스피치 코칭 서비스 제공 방법.
10. The method of claim 9, further comprising: generating speech coaching information; Is
Compare the text output from the speech image with the prestored speech script to analyze the speech accuracy of the user, and if there is a presentation material provided during the speech process, calculate the correlation between the data and the speech text, and calculate the result. Speech coaching service providing method characterized in that to generate speech coaching information based on.
제 9항에 있어서, 상기 스피치 코칭 정보를 생성하는 단계; 는
제한된 스피치 시간을 고려한 스피치 대본의 길이를 산출하고, 스피치 대본의 텍스트를 인식하여 스피치 종류, 시간, 청중에 따라 스피치 진행과정에 따른 대본의 플롯을 분석하고 평가하는 것을 특징으로 하는 스피치 코칭 서비스 제공 방법.
10. The method of claim 9, further comprising: generating speech coaching information; Is
A speech coaching service providing method comprising calculating the length of a speech script considering a limited speech time and analyzing and evaluating a plot of the script according to speech progress according to the speech type, time, and audience by recognizing the text of the speech script. .
KR1020180072233A 2018-06-22 2018-06-22 System and method for providing speech coaching service KR20200000215A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180072233A KR20200000215A (en) 2018-06-22 2018-06-22 System and method for providing speech coaching service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180072233A KR20200000215A (en) 2018-06-22 2018-06-22 System and method for providing speech coaching service

Publications (1)

Publication Number Publication Date
KR20200000215A true KR20200000215A (en) 2020-01-02

Family

ID=69155201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180072233A KR20200000215A (en) 2018-06-22 2018-06-22 System and method for providing speech coaching service

Country Status (1)

Country Link
KR (1) KR20200000215A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173821B1 (en) 2020-02-26 2020-11-03 주식회사 진언스피치커뮤니케이션그룹 Speech trainning system
KR20210109704A (en) * 2020-02-27 2021-09-07 주식회사 제네시스랩 Feature Information Derivation From A Plural of frames System Using Machine Learning Model, Methods, Computer-Readable Mediums thereof, and Interview Preparation Service Providing Method
KR20220077491A (en) * 2020-12-02 2022-06-09 주식회사 셀럽브릿지 Methods and devices for providing scripts
KR20230027658A (en) * 2021-08-19 2023-02-28 박예은 Apparatus and method for providing feedback for improving a user's speech ability
KR20230061611A (en) 2021-10-28 2023-05-09 손승열 Presentation coaching apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173821B1 (en) 2020-02-26 2020-11-03 주식회사 진언스피치커뮤니케이션그룹 Speech trainning system
KR20210109704A (en) * 2020-02-27 2021-09-07 주식회사 제네시스랩 Feature Information Derivation From A Plural of frames System Using Machine Learning Model, Methods, Computer-Readable Mediums thereof, and Interview Preparation Service Providing Method
KR20220077491A (en) * 2020-12-02 2022-06-09 주식회사 셀럽브릿지 Methods and devices for providing scripts
KR20230027658A (en) * 2021-08-19 2023-02-28 박예은 Apparatus and method for providing feedback for improving a user's speech ability
KR20230061611A (en) 2021-10-28 2023-05-09 손승열 Presentation coaching apparatus

Similar Documents

Publication Publication Date Title
KR20200000215A (en) System and method for providing speech coaching service
US20170084295A1 (en) Real-time speaker state analytics platform
US11527233B2 (en) Method, apparatus, device and computer storage medium for generating speech packet
KR102067446B1 (en) Method and system for generating caption
US20070285505A1 (en) Method and apparatus for video conferencing having dynamic layout based on keyword detection
US11145222B2 (en) Language learning system, language learning support server, and computer program product
US20150179173A1 (en) Communication support apparatus, communication support method, and computer program product
US20040034522A1 (en) Method and apparatus for seamless transition of voice and/or text into sign language
CN113035199B (en) Audio processing method, device, equipment and readable storage medium
US20180286389A1 (en) Conference system, conference system control method, and program
CN113689879B (en) Method, device, electronic equipment and medium for driving virtual person in real time
CN111711834A (en) Recorded broadcast interactive course generation method and device, storage medium and terminal
KR20190061585A (en) System for emotion recognition based voice data and method for the same
KR102196917B1 (en) English speaking evaluation system and method thereof
KR102101817B1 (en) Language study supporting apparatus using video publicated on the internet
CN117292022A (en) Video generation method and device based on virtual object and electronic equipment
KR100756671B1 (en) English studying system which uses an accomplishment multimedia
CN110890095A (en) Voice detection method, recommendation method, device, storage medium and electronic equipment
CN111128237B (en) Voice evaluation method and device, storage medium and electronic equipment
JP2004101637A (en) Online educational system, information processor, information providing method and program
KR20220140304A (en) Video learning systems for recognize learners' voice commands
CN113450783A (en) System and method for progressive natural language understanding
KR20120035059A (en) Method for language studying using speech recognition of terminal and system
CN108364631B (en) Speech synthesis method and device
KR101785686B1 (en) User centered foreign language education method and server performing the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application