KR102410644B1 - Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence - Google Patents

Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence Download PDF

Info

Publication number
KR102410644B1
KR102410644B1 KR1020220020301A KR20220020301A KR102410644B1 KR 102410644 B1 KR102410644 B1 KR 102410644B1 KR 1020220020301 A KR1020220020301 A KR 1020220020301A KR 20220020301 A KR20220020301 A KR 20220020301A KR 102410644 B1 KR102410644 B1 KR 102410644B1
Authority
KR
South Korea
Prior art keywords
sentence
user
voice
user terminal
error rate
Prior art date
Application number
KR1020220020301A
Other languages
Korean (ko)
Inventor
원호석
Original Assignee
주식회사 알투스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 알투스 filed Critical 주식회사 알투스
Priority to KR1020220020301A priority Critical patent/KR102410644B1/en
Application granted granted Critical
Publication of KR102410644B1 publication Critical patent/KR102410644B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

일실시예에 따른 장치는 외국어 교육 콘텐츠 서비스에 등록된 제1 사용자의 접속 요청에 응답하여, 미리 정의된 레벨들 중 제1 사용자의 레벨을 획득하고, 미리 정의된 난이도들 중 획득된 레벨에 대응하는 제1 난이도를 획득하고, 제1 난이도에 대응하는 제1 교육 콘텐츠를 제1 사용자의 제1 사용자 단말로 제공하고, 제1 교육 콘텐츠를 재생하는 제1 사용자 단말로부터 제1 사용자의 제1 음성을 수신하고, 제1 음성에 대응하는 제1 문장의 제1 텍스트를 생성하고, 제1 텍스트로부터 적어도 하나의 단어 및 형태소를 추출하고, 단어들 및 형태소들 사이의 매칭도들을 기록한 데이터베이스를 이용하여 추출된 단어 및 형태소 사이의 매칭도를 생성하고, 제1 문장 내 단어에 부여되어 미리 정의된 가중치를 생성된 매칭도에 적용하여 제1 문장의 오류율을 생성하고, 기 생성된 오류율이 미리 설정한 제1 기준 오류율 보다 작은지 여부를 판단하고, 생성된 오류율이 제1 기준 오류율 보다 작은 경우, 제1 문장이 정확하다고 판단하고, 생성된 오류율이 제1 기준 오류율 보다 큰 경우, 제1 문장이 부정확한 것으로 판단하고, 제1 문장이 부정확 경우, 제1 사용자 단말로 제1 문장에 대응하는 단어 및 문장의 음성 콘텐츠를 제공하고, 제1 사용자 단말로부터 제2 음성을 수신할 수 있다.In response to a connection request of a first user registered in the foreign language education content service, the apparatus according to an embodiment acquires the first user's level among predefined levels, and corresponds to the acquired level among the predefined difficulties to obtain a first difficulty, providing the first educational content corresponding to the first difficulty to the first user terminal of the first user, and the first user's first voice from the first user terminal playing the first educational content , generating a first text of a first sentence corresponding to the first voice, extracting at least one word and morpheme from the first text, and using a database in which matching degrees between the words and morphemes are recorded. A degree of matching between the extracted word and morpheme is generated, and an error rate of the first sentence is generated by applying a predefined weight given to the word in the first sentence to the generated matching degree, and the previously generated error rate is set in advance. It is determined whether the error rate is less than a first reference error rate, and when the generated error rate is less than the first reference error rate, it is determined that the first sentence is correct, and when the generated error rate is greater than the first reference error rate, the first sentence is incorrect If it is determined that the first sentence is inaccurate, the first user terminal may provide voice contents of words and sentences corresponding to the first sentence, and receive the second voice from the first user terminal.

Description

인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스 제공 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR PROVIDING FOREIGN LANGUAGE EDUCATION CONTENTS SERVICE BASED ON VOICE RECOGNITION USING ARTIFICIAL INTELLIGENCE}Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence {METHOD, DEVICE AND SYSTEM FOR PROVIDING FOREIGN LANGUAGE EDUCATION CONTENTS SERVICE BASED ON VOICE RECOGNITION USING ARTIFICIAL INTELLIGENCE}

아래 실시예들은 인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스를 제공하는 기술에 관한 것이다.The following embodiments relate to a technology for providing a foreign language education content service based on voice recognition using artificial intelligence.

국제화 시대에 발맞추어 다양한 외국어 교육에 대한 수요 및 공급은 지속적으로 늘어나고 있으며, 교육 방식에 대한 연구 및 개발도 더욱 활성화되고 있다. In line with the era of globalization, the demand and supply for various foreign language education is continuously increasing, and research and development of education methods are also more active.

또한, 전자정보통신 기술이 급속하게 발전함에 따라 스마트폰, 태블릿, 컴퓨터 등의 스마트 디바이스가 보급화되었으며, 이를 통해 언제 어디서나 유무선 통신을 활용하여 외국어 학습을 할 수 있게 되었다.In addition, with the rapid development of electronic information and communication technology, smart devices such as smartphones, tablets, and computers have become popular, and through this, it is possible to learn foreign languages using wired and wireless communication anytime, anywhere.

그러나 아직까지는, 회화 수업을 원하는 경우 원어민을 직접 만나 오프라인 수업을 통해 교육을 받거나, 전화/화상 통화를 통해 수업을 받는 형식에 의존하고 있는 실정이다. 이러한 경우 일정 시간만 수업을 하기 때문에 충분한 대화 연습이 부족하고, 충분한 대화 연습을 하기 위해 비용이 많이 든다는 단점이 있다.However, if you want a conversation class, you are depending on the form of meeting a native speaker in person and receiving an education through an offline class, or receiving a class through a phone/video call. In this case, there are disadvantages in that sufficient conversation practice is insufficient because classes are held for a certain period of time, and the cost is high for sufficient conversation practice.

따라서, 인공지능을 활용하여 외국어 교육 콘텐츠 서비스를 제공하는 방법에 대한 연구가 요구된다.Therefore, research on a method of providing foreign language education content services using artificial intelligence is required.

한국등록특허 제10-2354768호Korean Patent Registration No. 10-2354768 한국등록특허 제10-1142945호Korean Patent No. 10-1142945 한국등록특허 제10-2302137호Korean Patent No. 10-2302137 한국공개특허 제10-2021-0135151호Korean Patent Publication No. 10-2021-0135151

실시예들은 시간적, 공간적 제한없이 사용자가 원하는 시간 및 장소에서 외국어 교육 콘텐츠를 제공하고자 한다.Embodiments are intended to provide foreign language education content at a time and place desired by a user without temporal and spatial limitations.

실시예들은 음성인식 기반으로 사용자의 외국어 실력 테스트를 통해 사용자의 외국어 실력을 분석하고자 한다.Embodiments attempt to analyze a user's foreign language ability through a user's foreign language ability test based on voice recognition.

실시예들은 사용자의 외국어 실력 분석을 통해 사용자에게 적합한 난이도의 교육 콘텐츠를 제공하여 학습 효과를 높이고자 한다.Embodiments are intended to enhance the learning effect by providing educational content with a level of difficulty suitable for the user through the analysis of the user's foreign language ability.

일실시예에 따르면, 장치에 의해 수행되는 방법에 있어서, 외국어 교육 콘텐츠 서비스에 등록된 제1 사용자의 접속 요청에 응답하여, 미리 정의된 레벨들 중 상기 제1 사용자의 레벨을 획득하는 단계; 미리 정의된 난이도들 중 상기 획득된 레벨에 대응하는 제1 난이도를 획득하고, 상기 제1 난이도에 대응하는 제1 교육 콘텐츠를 상기 제1 사용자의 제1 사용자 단말로 제공하는 단계; 상기 제1 교육 콘텐츠를 재생하는 상기 제1 사용자 단말로부터 상기 제1 사용자의 제1 음성-상기 제1 음성은 상기 제1 사용자의 음성으로부터 상기 제1 교육 콘텐츠의 미리 정의된 구간에 대응하고, 문장 단위로 추출됨-을 수신하고, 상기 제1 음성에 대응하는 제1 문장의 제1 텍스트를 생성하는 단계; 상기 제1 텍스트로부터 적어도 하나의 단어 및 형태소를 추출하고, 단어들 및 형태소들 사이의 매칭도들을 기록한 데이터베이스를 이용하여 상기 추출된 단어 및 형태소 사이의 매칭도를 생성하는 단계; 상기 제1 문장 내 단어에 부여되어 미리 정의된 가중치를 상기 생성된 매칭도에 적용하여 상기 제1 문장의 오류율을 생성하는 단계; 상기 생성된 오류율이 미리 설정한 제1 기준 오류율 보다 작은지 여부를 판단하는 단계; 상기 생성된 오류율이 상기 제1 기준 오류율 보다 작은 경우, 상기 제1 문장이 정확하다고 판단하는 단계; 상기 생성된 오류율이 상기 제1 기준 오류율 보다 큰 경우, 상기 제1 문장이 부정확한 것으로 판단하는 단계; 및 상기 제1 문장이 부정확 경우, 상기 제1 사용자 단말로 상기 제1 문장에 대응하는 단어 및 문장의 음성 콘텐츠를 제공하고, 상기 제1 사용자 단말로부터 제2 음성을 수신하는 단계를 포함하는, 인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스 제공 방법이 제공된다.According to an embodiment, there is provided a method performed by an apparatus, comprising: in response to a connection request of a first user registered in a foreign language education content service, obtaining a level of the first user from among predefined levels; obtaining a first difficulty level corresponding to the acquired level among predefined difficulties, and providing first educational content corresponding to the first difficulty level to a first user terminal of the first user; The first voice of the first user from the first user terminal playing the first educational content - The first voice corresponds to a predefined section of the first educational content from the voice of the first user, a sentence receiving the extracted unit, and generating a first text of a first sentence corresponding to the first voice; extracting at least one word and morpheme from the first text and generating a degree of matching between the extracted word and morpheme using a database in which matching degrees between the words and morphemes are recorded; generating an error rate of the first sentence by applying a predefined weight given to the word in the first sentence to the generated matching degree; determining whether the generated error rate is smaller than a preset first reference error rate; determining that the first sentence is correct when the generated error rate is less than the first reference error rate; determining that the first sentence is incorrect when the generated error rate is greater than the first reference error rate; and if the first sentence is incorrect, providing audio content of words and sentences corresponding to the first sentence to the first user terminal, and receiving a second voice from the first user terminal. A method of providing a foreign language education content service based on voice recognition using intelligence is provided.

상기 인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스 제공 방법은, 상기 제1 사용자의 발음 및 억양을 평가하는 단계를 더 포함하고, 상기 제1 사용자의 발음 및 억양을 평가하는 단계는 상기 제1 문장 내 적어도 하나의 단어 중에서, 상기 제1 사용자의 발음 및 억양을 평가하고자 하는 대상 단어를 추출하는 단계; 상기 외국어 교육 콘텐츠 서비스에 저장된 콘텐츠들로부터, 상기 대상 단어가 포함된 문장들에 대응하는 원어민 음성들을 획득하는 단계; 상기 원어민 음성들에 대응하는 상기 문장들 및 상기 제1 문장 사이의 문장 유사도들을 생성하는 단계; 상기 원어민 음성들로부터 상기 대상 단어에 대응하는 표준 음성들을 추출하는 단계; 상기 제1 음성으로부터 상기 대상 단어에 대응하는 평가 대상 음성을 추출하는 단계; 상기 표준 음성들 및 상기 평가 대상 음성 사이의 높낮이 차이들을 각각 생성하고, 상기 생성된 높낮이 차이들에 상기 문장 유사도들을 가중치로 각각 적용하여 높낮이 유사도를 생성하는 단계; 상기 표준 음성들 및 상기 평가 대상 음성 사이의 세기 차이들을 각각 생성하고, 상기 생성된 세기 차이들에 상기 문장 유사도들을 가중치로 각각 적용하여 세기 유사도를 생성하는 단계; 상기 표준 음성들 및 상기 평가 대상 음성 사이의 발음 시간 길이 차이들을 각각 생성하고, 상기 생성된 발음 시간 길이 차이들에 상기 문장 유사도들을 가중치로 각각 적용하여 발음 시간 길이 유사도를 생성하는 단계; 상기 높낮이 유사도, 상기 세기 유사도 및 상기 발음 시간 길이 유사도에 기초하여 발음 및 억양 유사도를 생성하는 단계; 및 상기 제1 문장 내 대상 단어들 별로 발음 및 억양 유사도들을 각각 생성하여 상기 제1 사용자 단말에 상기 대상 단어들 별로 표시하는 단계를 더 포함할 수 있다.The method of providing a foreign language education content service using the artificial intelligence further includes the step of evaluating the pronunciation and intonation of the first user, and the step of evaluating the pronunciation and intonation of the first user is the first extracting a target word for evaluating pronunciation and intonation of the first user from among at least one word in the sentence; obtaining, from the contents stored in the foreign language education contents service, native speaker voices corresponding to sentences including the target word; generating sentence similarities between the first sentence and the sentences corresponding to the native speaker voices; extracting standard voices corresponding to the target word from the native speaker voices; extracting an evaluation target voice corresponding to the target word from the first voice; generating pitch similarities between the standard voices and the evaluation target voice, respectively, and applying the sentence similarities to the generated pitch differences as weights, respectively; generating intensity similarities between the standard voices and the evaluation target voice, respectively, and applying the sentence similarities to the generated intensity differences as weights, respectively; generating pronunciation time length similarities by respectively generating differences in pronunciation time lengths between the standard voices and the evaluation target voice, and applying the sentence similarities as weights to the generated pronunciation time length differences; generating a pronunciation and intonation similarity based on the height similarity, the intensity similarity, and the pronunciation time length similarity; and generating pronunciation and intonation similarities for each target word in the first sentence, and displaying each of the target words on the first user terminal.

상기 인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스 제공 방법은, 상기 제1 문장이 정확한 경우, 상기 제1 텍스트를 상기 제1 사용자 단말로 표시하는 단계; 상기 제1 문장을 상기 제1 사용자의 모국어로 번역한 제2 텍스트를 상기 제1 사용자 단말로 표시하는 단계; 상기 제2 텍스트에 대응하는 제2 문장과 유사 문장으로 분류되는 제2 유사 문장을 데이터베이스로부터 추출하여, 상기 제2 유사 문장에 대응하는 제2 유사 텍스트를 상기 제1 사용자 단말로 표시하는 단계; 상기 제2 유사 텍스트에 대응하는 상기 제2 유사 문장으로부터 적어도 하나의 제2 동사를 추출하는 단계; 상기 추출된 제2 동사에 기초하여, 상기 제2 유사 문장이 질문형 문장인지 여부를 판단하는 단계; 상기 제2 유사 문장이 질문형 문장인 경우, 질문형 문장들 및 답변 문장들로 구성된 데이터베이스로부터 상기 제2 유사 문장과 유사도가 가장 높은 질문형 문장을 추출하는 단계; 및 상기 추출된 질문형 문장에 대응하는 답변 문장을 상기 제2 유사 문장에 대응하는 예상 답변으로 상기 제1 사용자 단말로 표시하는 단계를 더 포함할 수 있다.The method for providing a foreign language education content service using the artificial intelligence may include: when the first sentence is correct, displaying the first text on the first user terminal; displaying, on the first user terminal, a second text obtained by translating the first sentence into the first user's native language; extracting a second similar sentence classified as a second sentence corresponding to the second text and a similar sentence from a database, and displaying a second similar text corresponding to the second similar sentence on the first user terminal; extracting at least one second verb from the second pseudo-sentence corresponding to the second pseudo-text; determining whether the second similar sentence is a question-type sentence based on the extracted second verb; when the second similar sentence is a question-type sentence, extracting a question-type sentence having the highest degree of similarity to the second similar sentence from a database including question-type sentences and answer sentences; and displaying, on the first user terminal, an answer sentence corresponding to the extracted question-type sentence as an expected answer corresponding to the second similar sentence.

상기 제1 사용자의 레벨을 획득하는 단계는 상기 제1 사용자 단말로부터 상기 제1 사용자의 외국어 시험 점수, 외국어 교육 이력 및 자가 평가 정보 중 적어도 하나를 포함하는 외국어 능력 기본 정보를 수신하는 단계; 상기 외국어 능력 기본 정보에 기초하여 상기 제1 사용자를 외국어 능력에 따라 분류되는 그룹들 중 제1 그룹으로 분류하는 단계; 상기 제1 그룹에 대응하는 제1 카테고리에 포함된 외국어 능력 판단 질문들 중 어느 하나의 제1 외국어 능력 판단 질문을 생성하여 상기 제1 사용자 단말로 제공하는 단계; 상기 제1 사용자 단말로부터 상기 제1 외국어 능력 판단 질문에 대응하는 제1 사용자 답변을 수신하는 단계; 상기 제1 외국어 능력 판단 질문에 대응하는 제1 모범 답변들-상기 제1 모범 답변들은 상기 외국어 능력 판단 질문에 대한 모범 답변들 중 상기 제1 카테고리로 분류된 답변들과 상기 제1 그룹에 포함된 사용자들의 사용자 답변들의 히스토리를 포함함-을 데이터베이스로부터 추출하는 단계; 상기 제1 모범 답변들에 대응하여 미리 정의된 핵심 단어들을 데이터베이스로부터 추출하는 단계; 상기 추출된 핵심 단어들이 포함되어 있는 문장을 상기 제1 사용자 답변으로부터 평가 대상 문장으로 분류하는 단계; 상기 평가 대상 문장을 상기 핵심 단어들에 대응하는 제1 모범 답변들과 비교하여 문장 일치율을 판단하는 단계; 상기 문장 일치율에 기초하여 상기 평가 대상 문장을 유효문장 및 비유효문장 중 어느 하나로 분류하는 단계; 및 상기 제1 사용자 답변 내 유효문장의 총합 개수에 기초하여, 상기 제1 사용자의 레벨을 현재 레벨과 비교하여 변경할지 여부를 판단하는 단계를 포함할 수 있다.The acquiring of the first user's level may include: receiving basic foreign language ability information including at least one of the first user's foreign language test score, foreign language education history, and self-evaluation information from the first user terminal; classifying the first user into a first group among groups classified according to foreign language ability based on the foreign language ability basic information; generating a first foreign language ability determination question of any one of foreign language ability determination questions included in a first category corresponding to the first group and providing the first foreign language ability determination question to the first user terminal; receiving a first user answer corresponding to the first foreign language ability determination question from the first user; First exemplary answers corresponding to the first foreign language ability determination question-The first exemplary answers include answers classified into the first category among exemplary answers to the foreign language ability determination question and included in the first group. extracting from the database - including a history of user answers of users; extracting predefined key words corresponding to the first model answers from a database; classifying a sentence including the extracted key words as an evaluation target sentence from the first user answer; determining a sentence agreement rate by comparing the evaluation target sentence with first model answers corresponding to the key words; classifying the evaluation target sentence into any one of a valid sentence and an invalid sentence based on the sentence matching rate; and determining whether to change the level of the first user by comparing it with a current level based on the total number of valid sentences in the first user answer.

상기 인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스 제공 방법은 상기 제1 음성의 미리 정의된 구간 동안의 세기를 측정하는 단계; 상기 측정된 세기가 상기 제1 음성의 기 측정된 세기들의 평균으로부터 미리 정의된 범위를 벗어나는지 여부를 판단하는 단계; 상기 측정된 세기가 상기 미리 정의된 범위를 벗어나는 경우, 상기 측정된 세기가 미리 설정된 제1 목표 값 보다 큰지 여부를 판단하는 단계; 상기 측정된 세기가 상기 제1 목표 값 보다 큰 경우, 상기 외국어 교육 콘텐츠의 음량 값을 상기 제1 목표 값에 대응하는 값으로 제어하는 단계; 상기 측정된 세기가 상기 제1 목표 값 보다 작은 경우, 상기 측정된 세기가 미리 설정된 제2 목표 값 보다 큰지 여부를 판단하는 단계; 상기 측정된 세기가 상기 제2 목표 값 보다 큰 경우, 상기 외국어 교육 콘텐츠의 음량 값을 상기 제2 목표 값에 대응하는 값으로 제어하는 단계; 및 상기 측정된 세기가 상기 제2 목표 값 보다 작은 경우, 상기 제1 사용자 단말에 목소리를 크게 하라는 문구를 표시하는 단계를 더 포함할 수 있다.The method of providing a foreign language education content service based on voice recognition using the artificial intelligence includes: measuring the intensity of the first voice during a predefined section; determining whether the measured intensity is outside a predefined range from an average of previously measured intensities of the first voice; determining whether the measured intensity is greater than a preset first target value when the measured intensity is out of the predefined range; when the measured intensity is greater than the first target value, controlling the volume value of the foreign language education content to a value corresponding to the first target value; when the measured intensity is less than the first target value, determining whether the measured intensity is greater than a preset second target value; when the measured intensity is greater than the second target value, controlling the volume value of the foreign language education content to a value corresponding to the second target value; and when the measured intensity is smaller than the second target value, displaying a phrase to increase the voice volume on the first user terminal.

상기 인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스 제공 방법은 상기 제1 사용자 단말이 상기 외국어 교육 콘텐츠 서비스에 접속하면, 상기 제1 사용자 단말에 로그인 되어 있는 제1 사용자 계정을 확인하여 제1 사용자 정보를 획득하는 단계; 상기 제1 사용자 단말로부터 상기 제1 교육 콘텐츠에 대한 조회 요청을 수신하고, 상기 제1 교육 콘텐츠를 확인하여 제1 교육 콘텐츠 정보를 획득하는 단계; 상기 제1 교육 콘텐츠 정보를 통해 상기 제1 교육 콘텐츠의 사용자 조회 내역을 획득하는 단계; 상기 제1 교육 콘텐츠의 사용자 조회 내역을 기초로, 사용자 별로 정독 시간을 확인하여, 상기 제1 교육 콘텐츠의 평균 정독 시간을 산출하는 단계; 상기 제1 교육 콘텐츠의 평균 정독 시간의 길이에 따라, 기준치를 설정하는 단계; 상기 제1 교육 콘텐츠의 평균 정독 시간에서 상기 기준치를 차감한 값으로, 상기 사용자 허용 범위의 최소 시간을 산출하는 단계; 상기 제1 교육 콘텐츠의 평균 정독 시간에 상기 기준치를 가산한 값으로, 상기 사용자 허용 범위의 최대 시간을 산출하는 단계; 상기 사용자 허용 범위의 최소 시간 및 상기 사용자 허용 범위의 최대 시간을 기초로, 상기 사용자 허용 범위를 설정하는 단계; 상기 제1 사용자 정보 및 상기 제1 교육 콘텐츠 정보를 기초로, 상기 제1 교육 콘텐츠에 대한 제1 사용자의 정독 시간을 예측하는 단계; 상기 제1 사용자의 정독 시간이 상기 사용자 허용 범위 내에 포함되는 것으로 확인되면, 상기 제1 교육 콘텐츠를 상기 제1 사용자 단말로 제공하는 단계; 상기 제1 사용자의 정독 시간이 상기 사용자 허용 범위를 벗어나는 것으로 확인되고, 상기 제1 사용자의 정독 시간이 상기 사용자 허용 범위의 최소 시간 보다 짧은 것으로 확인되면, 제2 교육 콘텐츠-상기 제2 교육 콘텐츠는 상기 제1 교육 콘텐츠와 주제가 동일하면서 상기 제1 교육 콘텐츠 보다 많은 글자 수로 구성된 콘텐츠-에 대한 추천 정보를 상기 제1 사용자 단말로 제공하는 단계; 및 상기 제1 사용자의 정독 시간이 상기 사용자 허용 범위를 벗어나는 것으로 확인되고, 상기 제1 사용자의 정독 시간이 상기 사용자 허용 범위의 최대 시간 보다 긴 것으로 확인되면, 제3 교육 콘텐츠-상기 제3 교육 콘텐츠는 상기 제1 교육 콘텐츠와 주제가 동일하면서 상기 제1 교육 콘텐츠 보다 적은 글자 수로 구성된 콘텐츠-에 대한 추천 정보를 상기 제1 사용자 단말로 제공하는 단계를 더 포함할 수 있다.When the first user terminal accesses the foreign language education content service, the voice recognition-based foreign language education content service providing method using the artificial intelligence checks the first user account logged into the first user terminal to determine the first user obtaining information; receiving a query request for the first educational content from the first user terminal, and acquiring first educational content information by checking the first educational content; obtaining user inquiry details of the first educational content through the first educational content information; calculating an average reading time of the first educational content by checking the reading time for each user based on the user inquiry details of the first educational content; setting a reference value according to the length of the average reading time of the first educational content; calculating a minimum time of the user permissible range as a value obtained by subtracting the reference value from the average reading time of the first educational content; calculating a maximum time of the user permissible range as a value obtained by adding the reference value to the average reading time of the first educational content; setting the user permissible range based on the minimum time of the user permissible range and the maximum time of the user permissible range; estimating a reading time of a first user for the first educational content based on the first user information and the first educational content information; providing the first educational content to the first user terminal when it is confirmed that the reading time of the first user is within the user allowable range; If it is confirmed that the perusal time of the first user is out of the user permissible range, and it is confirmed that the perusal time of the first user is shorter than the minimum time of the user permissible range, the second educational content-the second educational content is providing, to the first user terminal, recommendation information for content that has the same subject as the first educational content and is composed of a greater number of characters than the first educational content; and when it is confirmed that the perusal time of the first user is outside the user permissible range, and it is confirmed that the perusal time of the first user is longer than the maximum time of the user permissible range, the third educational content-the third educational content may further include the step of providing, to the first user terminal, recommendation information on content that has the same subject as the first educational content and has a smaller number of characters than the first educational content.

실시예들은 시간적, 공간적 제한없이 사용자가 원하는 시간 및 장소에서 외국어 교육 콘텐츠를 제공할 수 있다.Embodiments may provide foreign language education content at a time and place desired by a user without temporal or spatial limitations.

실시예들은 음성인식 기반으로 사용자의 외국어 실력 테스트를 통해 사용자의 외국어 실력을 분석할 수 있다.Embodiments may analyze the user's foreign language ability through the user's foreign language ability test based on voice recognition.

실시예들은 사용자의 외국어 실력 분석을 통해 사용자에게 적합한 난이도의 교육 콘텐츠를 제공하여 학습 효과를 높일 수 있다.Embodiments may increase the learning effect by providing educational content with a level of difficulty suitable for the user through the analysis of the user's foreign language ability.

한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스를 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 단어의 가중치를 이용하여 문장의 오류율을 생성하는 과정을 설명하는 도면이다.
도 4는 일실시예에 따른 사용자의 발음을 평가하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 사용자의 발음을 평가하는 과정에서 문장 유사도의 개념도이다.
도 6은 일실시예에 따른 사용자 음성을 기초로 유사 문장 및 예상 답변을 사용자에게 제공하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 사용자 음성을 기초로 유사 문장 및 예상 답변을 제공하는 과정의 개념도이다.
도 8은 일실시예에 따른 사용자의 기본 정보를 통해 사용자의 레벨을 평가하는 방법을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 사용자의 기본 정보를 통해 사용자에게 적합한 질문과 모범답변을 설정하는 과정의 개념도이다.
도 10은 일실시예에 따른 사용자의 음성의 크기를 통해 사용자의 상황에 맞게 콘텐츠 음량을 자동으로 조절하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 교육 콘텐츠 정독 시간을 예측하여 추천 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 사용자 허용 범위를 설정하는 과정을 설명하기 위한 순서도이다.
도 13은 일실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram schematically showing the configuration of a system according to an embodiment.
2 is a flowchart illustrating a process of providing a foreign language education content service based on voice recognition using artificial intelligence according to an embodiment.
3 is a view for explaining a process of generating an error rate of a sentence using weights of words according to an exemplary embodiment.
4 is a flowchart illustrating a process of evaluating a user's pronunciation according to an exemplary embodiment.
5 is a conceptual diagram of sentence similarity in a process of evaluating a user's pronunciation according to an exemplary embodiment.
6 is a flowchart illustrating a process of providing a similar sentence and an expected answer to a user based on a user's voice according to an exemplary embodiment.
7 is a conceptual diagram of a process of providing a similar sentence and an expected answer based on a user's voice according to an embodiment.
8 is a flowchart illustrating a method of evaluating a user's level through basic information of the user according to an exemplary embodiment.
9 is a conceptual diagram illustrating a process of setting a question and a model answer suitable for a user through basic information of the user according to an exemplary embodiment.
10 is a flowchart illustrating a process of automatically adjusting a content volume according to a user's situation based on a user's voice volume according to an exemplary embodiment.
11 is a flowchart illustrating a process of providing recommended content by predicting an educational content reading time according to an exemplary embodiment.
12 is a flowchart illustrating a process of setting a user permissible range according to an exemplary embodiment.
13 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. The embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices, and the like.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 복수의 사용자 단말(100) 및 장치(200)를 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment may include a plurality of user terminals 100 and devices 200 capable of communicating with each other through a communication network.

먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, the communication network may be configured regardless of its communication mode, such as wired and wireless, and may be implemented in various forms so that communication between a server and a server and communication between a server and a terminal are performed.

복수의 사용자 단말(100)은 외국어 교육 콘텐츠 서비스를 제공받고자 하는 사용자들이 사용하는 단말기로, 제1 사용자가 사용하는 제1 사용자 단말(110), 제2 사용자가 사용하는 제2 사용자 단말(120), 제3 사용자가 사용하는 제3 사용자 단말(130) 등을 포함할 수 있다.The plurality of user terminals 100 are terminals used by users who want to receive a foreign language education content service, and include a first user terminal 110 used by a first user, and a second user terminal 120 used by a second user. , the third user terminal 130 used by the third user, and the like.

복수의 사용자 단말(100) 각각은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 제1 사용자 단말(110), 제2 사용자 단말(120), 제3 사용자 단말(130) 등은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.Each of the plurality of user terminals 100 may be a desktop computer, a notebook computer, a tablet, a smart phone, or the like. For example, as shown in FIG. 1 , the first user terminal 110 , the second user terminal 120 , the third user terminal 130 , etc. may be smartphones, and may be employed differently depending on the embodiment. have.

복수의 사용자 단말(100) 각각은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 복수의 사용자 단말(100)은 장치(200)와 유무선으로 통신하도록 구성될 수 있다.Each of the plurality of user terminals 100 may be configured to perform all or part of an arithmetic function, a storage/referencing function, an input/output function, and a control function of a typical computer. The plurality of user terminals 100 may be configured to communicate with the device 200 by wire or wireless.

복수의 사용자 단말(100) 각각은 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 사이트에 접속되거나, 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 복수의 사용자 단말(100) 각각은 웹 사이트 또는 애플리케이션을 통해 장치(200)와 연동될 수 있다.Each of the plurality of user terminals 100 is connected to a website operated by a person or organization that provides a service using the device 200 , or is developed and distributed by a person or organization that provides a service using the device 200 . One application can be installed. Each of the plurality of user terminals 100 may be linked with the device 200 through a website or an application.

이하에서는 설명의 편의상, 제1 사용자 단말(110)의 동작을 위주로 설명하지만, 제2 사용자 단말(120) 등의 다른 사용자 단말에서 제1 사용자 단말(110)의 동작을 대신 수행할 수 있는 것은 물론이다.Hereinafter, for convenience of description, the operation of the first user terminal 110 will be mainly described, but other user terminals such as the second user terminal 120 may perform the operation of the first user terminal 110 instead. to be.

장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다. 장치(200)는 복수의 사용자 단말(100)과 유무선으로 통신하도록 구성될 수 있다.The device 200 may be its own server owned by a person or organization that provides services using the device 200, may be a cloud server, or may be a peer-to-peer (p2p) set of distributed nodes. may be The device 200 may be configured to perform all or part of an arithmetic function, a storage/referencing function, an input/output function, and a control function of a typical computer. The device 200 may include at least one artificial neural network that performs an inference function. The device 200 may be configured to communicate with a plurality of user terminals 100 by wire or wireless.

장치(200)는 외국어 교육 콘텐츠 서비스 제공 플랫폼을 운영할 수 있다. 이때, 외국어 교육 콘텐츠 서비스는 사용자의 음성인식을 통해 사용자가 외국어 문장을 얼마나 정확하게 구사할 수 있는지 교육을 수행할 수 있으며, 발음 및 억양을 평가함으로써, 사용자의 외국어 실력을 정교하게 판단할 수 있다. 또한, 장치(200)는 사용자의 기본 정보를 통해 사용자의 외국어 실력 맞춤 레벨 테스트로 사용자의 현재 외국어 능력을 파악할 수 있으며, 해당 레벨에 맞는 난이도로 교육 콘텐츠를 제공할 수 있다.The device 200 may operate a foreign language education content service providing platform. In this case, the foreign language education content service may perform education on how accurately the user can use foreign language sentences through the user's voice recognition, and by evaluating pronunciation and intonation, it is possible to accurately determine the user's foreign language ability. In addition, the device 200 may determine the current foreign language ability of the user through the user's foreign language ability customized level test through the user's basic information, and may provide educational content with a difficulty level suitable for the corresponding level.

한편, 설명의 편의를 위해 도 1에서는 복수의 사용자 단말(100) 중 제1 사용자 단말(110), 제2 사용자 단말(120) 및 제3 사용자 단말(130)만을 도시하였으나, 단말들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(200)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다. Meanwhile, for convenience of explanation, only the first user terminal 110 , the second user terminal 120 , and the third user terminal 130 are shown in FIG. 1 among the plurality of user terminals 100 , but the number of terminals is not It may vary depending on the example. As long as the processing capacity of the apparatus 200 allows, the number of terminals is not particularly limited.

도 2는 일실시예에 따른 인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스를 제공하는 과정을 설명하기 위한 순서도이다.2 is a flowchart illustrating a process of providing a foreign language education content service based on voice recognition using artificial intelligence according to an embodiment.

도 2를 참조하면, 먼저, S201 단계에서, 장치(200)는 제1 사용자의 접속 요청에 응답하여 미리 정의된 레벨들 중 제1 사용자 레벨을 획득할 수 있다. 이때, 제1 사용자 레벨은 제1 사용자의 레벨은 사용자의 외국어 능력에 대한 레벨로 상, 중, 하로 레벨이 나뉠 수 있고, 1레벨, 2레벨, 3레벨,4 레벨 등 더 세부적인 레벨을 나누어 부여할 수 있다. 또한, 제1 사용자의 레벨은 사용자의 기본 정보를 획득하여 사용자의 기본 정보에 따른 외국어 능력 판단 질문으로부터 판단될 수 있으며, 자세한 설명은 도 8을 참조하여 설명하기로 한다.Referring to FIG. 2 , first, in step S201 , the device 200 may acquire a first user level among predefined levels in response to a first user's access request. In this case, the first user level is the level of the user's foreign language ability, and the level can be divided into high, medium, and low levels, and the level is divided into more detailed levels such as 1st level, 2nd level, 3rd level, 4th level, etc. can be given In addition, the level of the first user may be determined from a foreign language ability determination question according to the user's basic information by acquiring basic information of the user, and a detailed description will be described with reference to FIG. 8 .

S202 단계에서, 장치(200)는 제1 사용자의 레벨에 대응하는 제1 난이도를 획득하고, 제1 난이도에 대응하는 제1 교육 콘텐츠를 제1 사용자 단말(110)로 제공할 수 있다. 구체적으로, 장치(200)는 제1 사용자의 레벨이 낮을수록, 기초 난이도의 교육 콘텐츠를 제공할 수 있고, 제1 사용자의 레벨이 높을수록, 심화 난이도의 교육 콘텐츠를 제공할 수 있다.In step S202 , the device 200 may obtain a first difficulty level corresponding to the level of the first user, and provide the first educational content corresponding to the first difficulty level to the first user terminal 110 . Specifically, the device 200 may provide educational content of basic difficulty as the level of the first user is lower, and may provide education content of intensified difficulty as the level of the first user is higher.

S203 단계에서, 장치(200)는 제1 교육 콘텐츠에 대응하는 제1 사용자의 제1 음성을 수신하고, 제1 음성에 대응하는 제1 문장의 제1 텍스트를 생성할 수 있다. 이때 제1 음성은 제1 사용자의 음성으로부터 제1 교육 콘텐츠의 미리 정의된 구간에 대응하고, 문장 단위로 추출된 음성을 말한다. In step S203 , the device 200 may receive the first voice of the first user corresponding to the first educational content, and may generate a first text of a first sentence corresponding to the first voice. In this case, the first voice corresponds to a predefined section of the first educational content from the voice of the first user, and refers to a voice extracted in units of sentences.

구체적으로, 장치(200)는 STT 기술을 수행할 수 있는데, STT는 Speech-to-Text로, 음성 데이터로부터 음향모델, 어휘/발음사전, 언어모델을 포함한 인식 네트워크 모델을 생성하는 오프라인 학습단계와 사용자가 발성한 음성을 인식하는 온라인 탐색 단계를 통해 제1 사용자 음성을 제1 텍스트로 변환할 수 있다.Specifically, the device 200 may perform the STT technique, which is Speech-to-Text, an offline learning step of generating a recognition network model including an acoustic model, a vocabulary/pronunciation dictionary, and a language model from voice data; The first user's voice may be converted into the first text through an online search step of recognizing the voice uttered by the user.

S204 단계에서, 장치(200)는 제1 텍스트로부터 하나의 단어 및 형태소를 추출하고, 데이터베이스를 이용하여 추출된 단어 및 형태소 사이의 매칭도를 생성할 수 있다. 이때, 매칭도는 제1 텍스트가 자연스러운 문장이 되기 위해 단어 및 형태소의 관계를 확인하는 방법으로 예를 들어, 제 1텍스트에 주어만 있거나 동사만 있을 경우, 문장이 이루어지지 않아 제1 텍스트에 주어 및 동사가 모두 포함되어 있는지 매칭도를 생성함으로써 확인할 수 있다.In step S204 , the device 200 may extract one word and morpheme from the first text and generate a degree of matching between the extracted word and morpheme by using the database. In this case, the matching degree is a method of confirming the relationship between words and morphemes so that the first text becomes a natural sentence. For example, when there is only a subject or only a verb in the first text, the sentence is not formed and is given to the first text. and whether all of the verbs are included or not by generating a matching degree.

S205 단계에서, 장치(200)는 제1 문장 내 단어에 부여되어 미리 정의된 가중치를 생성된 매칭도에 적용하여 제1 문장의 오류율을 생성할 수 있다. In step S205 , the apparatus 200 may generate an error rate of the first sentence by applying a predefined weight given to the word in the first sentence to the generated matching degree.

즉, 장치(200)는 문장에 포함되어 있는 단어의 중요도에 따라 가중치를 부여하고, 가중치가 부여된 단어 및 형태소의 매칭도를 확인하여 제1 문장의 오류율을 생성할 수 있다. 자세한 예시는 도 3을 참조하여 설명하기로 한다.That is, the apparatus 200 may generate an error rate of the first sentence by assigning weights according to the importance of words included in the sentence, and checking the matching degree between the weighted words and morphemes. A detailed example will be described with reference to FIG. 3 .

S206 단계에서, 장치(200)는 생성된 오류율이 제1 기준 오류율 보다 작은지 여부를 판단할 수 있다. 여기서, 제1 기준 오류율은 미리 설정된 오류율로 실시예에 따라 다르게 설정될 수 있다.In step S206 , the device 200 may determine whether the generated error rate is smaller than the first reference error rate. Here, the first reference error rate is a preset error rate and may be set differently according to embodiments.

S206 단계에서 생성된 오류율이 제1 기준 오류율 보다 작은지 여부를 판단한 결과, 생성된 오류율이 제1 기준 오류율 보다 작은 경우, S207 단계에서, 장치(200)는 제1 문장이 정확하다고 판단할 수 있다. As a result of determining whether the generated error rate is smaller than the first reference error rate in step S206, if the generated error rate is smaller than the first reference error rate, in step S207, the device 200 may determine that the first sentence is correct .

S206 단계에서 생성된 오류율이 제1 기준 오류율 보다 작은지 여부를 판단한 결과, 생성된 오류율이 제1 기준 오류율 보다 큰 경우, S208 단계에서, 장치(200)는 제1 문장이 부정확하다고 판단할 수 있다. As a result of determining whether the generated error rate is smaller than the first reference error rate in step S206, if the generated error rate is greater than the first reference error rate, in step S208, the device 200 may determine that the first sentence is incorrect .

S208 단계에서 제1 문장이 부정확하다고 판단한 경우, S209 단계에서, 장치(200)는 제1 사용자 단말(110)로 제1 문장에 대응하는 단어 및 문자의 음성 콘텐츠를 제공하고, 제1 사용자 단말(110)로부터 제2 음성을 수신할 수 있다. 즉, 장치(200)는 제1 문장이 부정확하다고 판단한 경우, 제1 사용자에게 제1 문장에 대응하는 정확한 음성 콘텐츠를 제공하고, 다시 제1 사용자로부터 제1 문장에 대응하는 제2 음성을 수신할 수 있다.If it is determined in step S208 that the first sentence is incorrect, in step S209 , the device 200 provides audio content of words and characters corresponding to the first sentence to the first user terminal 110, and the first user terminal ( 110) may receive a second voice. That is, when it is determined that the first sentence is inaccurate, the device 200 provides accurate voice content corresponding to the first sentence to the first user, and receives a second voice corresponding to the first sentence from the first user again. can

도 3은 일실시예에 따른 단어의 가중치를 이용하여 문장의 오류율을 생성하는 과정을 설명하는 도면이다.3 is a view for explaining a process of generating an error rate of a sentence using weights of words according to an exemplary embodiment.

일 실시 예에서, 제1 사용자는 제1 교육 콘텐츠를 통해 “I like cat” 문장을 배울 수 있다. 장치(200)는 “I like cat” 문장에 대한 단어 가중치로 'i'에 대한 가중치를 20%, 'like'에 대한 가중치를 50%, 'cat'에 대한 가중치를 30%로 부여했을 경우, 제1 사용자가 제1 텍스트가 “You like cat.”일 경우 'I'에 해당하는 단어가 오류이기 때문에 오류율을 20%로 생성할 수 있고, 제1 텍스트가 ”I have cat.”일 경우, 'have'에 해당하는 단어가 오류이기 때문에 오류율을 50%로 생성할 수 있다. 또한, 제1 텍스트가 “You like dog.”일 경우 'I'에 해당하는 단어 및 'cat'에 해당하는 단어가 오류이기 때문에 오류율을 50%로 생성할 수 있다.In an embodiment, the first user may learn the sentence “I like cat” through the first educational content. When the device 200 is given a weight for 'i' as 20%, a weight for 'like' as 50%, and a weight for 'cat' as 30% as a word weight for the sentence “I like cat”, The first user can generate an error rate of 20% because the word corresponding to 'I' is an error when the first text is “You like cat.”, and when the first text is “I have cat.”, Since the word corresponding to 'have' is an error, an error rate of 50% can be generated. Also, when the first text is “You like dog.”, since the word corresponding to 'I' and the word corresponding to 'cat' are errors, an error rate of 50% may be generated.

도 4는 일실시예에 따른 사용자의 발음을 평가하는 과정을 설명하기 위한 순서도이다.4 is a flowchart illustrating a process of evaluating a user's pronunciation according to an exemplary embodiment.

도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 제1 문장 내 적어도 하나의 단어 중에서, 제1 사용자의 발음 및 억양을 평가하고자 하는 대상 단어를 추출할 수 있다. 즉, 장치(200)는 제1 문장에 포함된 단어 중 하나의 단어를 대상 단어로 선택하고, 대상 단어의 발음 및 억양을 평가할 수 있다.Referring to FIG. 4 , first, in step S401 , the device 200 may extract a target word for evaluating the pronunciation and intonation of the first user from among at least one word in the first sentence. That is, the device 200 may select one of the words included in the first sentence as the target word, and evaluate the pronunciation and intonation of the target word.

S402 단계에서, 장치(200)는 외국어 교육 콘텐츠 서비스에 저장된 콘텐츠들로부터, 대상 단어가 포함된 문장들에 대응하는 원어민 음성들을 획득할 수 있다. 구체적으로, 장치(200)는 외국어 교육 콘텐츠 서비스에 저장된 원어민 음성들 중 대상 단어가 포함된 문장을 획득할 수 있다. 여기서, 원어민 음성은 제1 교육 콘텐츠 뿐만 아니라 그 외의 외국어 교육 콘텐츠 서비스에 포함된 교육 콘텐츠에서 획득할 수 있다.In step S402 , the device 200 may obtain native speaker voices corresponding to sentences including the target word from the contents stored in the foreign language education contents service. Specifically, the device 200 may acquire a sentence including the target word from among the voices of a native speaker stored in the foreign language education content service. Here, the native speaker's voice may be obtained from education content included in other foreign language education content services as well as the first education content.

S403 단계에서, 장치(200)는 원어민 음성에 대응하는 문장들 및 제1 문장 사이의 문장 유사도들을 생성할 수 있다. 여기서, 문장 유사도는 제1 문장과 추출된 원어민 음성이 포함된 문장이 유사한 문장인지에 대해 점수로 표시한 것이다. 문장 유사도를 생성하기 위해 제1 문장 및 원어민 문장의 포함된 단어들에 가중치를 부여하여 제1 문장 및 원어민 문장을 비교하여 유사도를 생성할 수 있고, 제1 문장 및 원어민 문장의 문장 길이를 비교하여 유사도를 생성할 수도 있고, 제1 문장 및 원어민 문장이 의문문인지, 평서문인지, 명령문인지 등의 문장의 형식을 비교하여 유사도를 생성할 수도 있다.In step S403 , the device 200 may generate sentence similarities between sentences corresponding to the native speaker's voice and the first sentence. Here, the sentence similarity is a score indicating whether the first sentence and the sentence including the extracted native speaker's voice are similar sentences. In order to generate the sentence similarity, weights are given to words included in the first sentence and the native speaker's sentence, and the similarity can be generated by comparing the first sentence and the native speaker's sentence, and by comparing the sentence length of the first sentence and the native speaker's sentence The degree of similarity may be generated, and the degree of similarity may be generated by comparing the forms of sentences such as whether the first sentence and the native speaker's sentence are interrogative, declarative, or imperative sentences.

S404 단계에서, 장치(200)는 원어민 음성들로부터 대상 단어에 대응하는 표준 음성들을 추출할 수 있다. In step S404 , the device 200 may extract standard voices corresponding to the target word from the voices of the native speaker.

S405 단계에서, 장치(200)는 제1 음성으로부터 대상 단어에 대응하는 평가 대상 음성을 추출할 수 있다.In step S405 , the device 200 may extract an evaluation target voice corresponding to the target word from the first voice.

S406 단계에서, 장치(200)는 표준 음성들 및 평가 대상 음성 사이의 높낮이 차이들을 각각 생성하고, 문장 유사도를 가중치로 적용하여 높낮이 유사도를 생성할 수 있다. 즉, 장치(200)는 표준 음성과 평가 대상 음성 사이의 높낮이 차이를 각각 생성하고 제1 문장과 표준 음성이 포함된 문장의 문장 유사도가 높을수록 해당 높낮이 차이를 크게 반영하여 높낮이 유사도를 생성할 수 있다. In step S406 , the device 200 may generate pitch differences between the standard voices and the evaluation target voice, respectively, and apply the sentence similarity as a weight to generate the pitch similarity. That is, the device 200 generates a difference in pitch between the standard voice and the target voice, respectively, and the higher the sentence similarity of the first sentence and the sentence including the standard voice, the higher the difference in pitch is reflected to generate the pitch similarity. have.

S407 단계에서, 장치(200)는 표준 음성들 및 평가 대상 음성 사이의 세기 차이들을 각각 생성하고, 문장 유사도를 가중치로 적용하여 세기 유사도를 생성할 수 있다. 즉, 장치(200)는 표준 음성과 평가 대상 음성 사이의 세기 차이를 각각 생성하고 제1 문장과 표준 음성이 포함된 문장의 문장 유사도가 높을수록 해당 세기 차이를 크게 반영하여 세기 유사도를 생성할 수 있다.In operation S407 , the apparatus 200 may generate intensity differences between the standard voices and the evaluation target voice, respectively, and apply the sentence similarity as a weight to generate the intensity similarity. That is, the device 200 generates the intensity difference between the standard voice and the evaluation target voice, respectively, and as the sentence similarity between the first sentence and the sentence including the standard voice is higher, the intensity difference is greatly reflected to generate the intensity similarity. have.

S408 단계에서, 장치(200)는 표준음성들 및 평가 대상 음성 사이의 발음 시간 길이 차이들을 각각 생성하고, 문장 유사도를 가중치로 적용하여 발음 시간 길이 유사도를 생성할 수 있다. 즉, 장치(200)는 표준 음성과 평가 대상 음성 사이의 발음 시간 길이 차이를 각각 생성하고 제1 문장과 표준 음성이 포함된 문장의 문장 유사도가 높을수록 해당 발음 시간 길이 차이를 크게 반영하여 발음 시간 길이 유사도를 생성할 수 있다.In step S408 , the apparatus 200 may generate pronunciation time length differences between the standard voices and the evaluation target voice, respectively, and apply the sentence similarity as a weight to generate the pronunciation time length similarity. That is, the device 200 generates a difference in pronunciation time length between the standard voice and the evaluation target voice, respectively, and reflects the difference in pronunciation time length as the sentence similarity between the first sentence and the sentence including the standard voice increases, and thus the pronunciation time Length similarity can be created.

S409 단계에서, 장치(200)는 높낮이 유사도, 세기 유사도 및 발음 시간 길이 유사도에 기초하여 발음 및 억양 유사도를 생성할 수 있다. 즉, 장치(200)는 대상 단어에 대한 사용자의 음성과 원어민 음성을 비교하여 높낮이 유사도, 세기 유사도 및 발음 시간 길이 유사도를 생성하고 이를 통해 발음 및 억양 유사도를 생성할 수 있고, 사용자의 발음 및 억양을 평가할 수 있다.In operation S409 , the device 200 may generate the pronunciation and intonation similarity based on the height similarity, the intensity similarity, and the pronunciation time length similarity. That is, the device 200 compares the user's voice with the native speaker's voice for the target word to generate pitch similarity, intensity similarity, and pronunciation time length similarity, thereby generating pronunciation and intonation similarity, and the user's pronunciation and intonation can be evaluated.

S410 단계에서, 장치(200)는 제1 문장 내 대상 단어들 별로 발음 및 억양 유사도를 생성하여 제1 사용자 단말(110)에 대상 단어들 별로 표시할 수 있다.In step S410 , the device 200 may generate pronunciation and intonation similarity for each target word in the first sentence and display it on the first user terminal 110 for each target word.

도 5는 일실시예에 따른 사용자의 발음을 평가하는 과정에서 문장 유사도의 개념도이다.5 is a conceptual diagram of sentence similarity in a process of evaluating a user's pronunciation according to an exemplary embodiment.

일 실시 예에서, 장치(200)는 제1 사용자로부터 “Do you want to go for a cup of coffee?”의 문장을 획득하고, 'coffee'의 발음을 평가하려고 할 경우, 장치(200)는 외국어 교육 콘텐츠 서비스에 저장된 콘텐츠들로부터, 'coffee'가 포함된 문장들에 대응하는 원어민 음성들을 획득할 수 있다.In an embodiment, when the device 200 obtains a sentence of “Do you want to go for a cup of coffee?” from the first user and tries to evaluate the pronunciation of 'coffee', the device 200 is a foreign language From the contents stored in the educational contents service, voices of native speakers corresponding to sentences including 'coffee' may be obtained.

일 실시 예에서, 장치(200)는 'coffee'가 포함된 문장들에 대응하는 원어민 음성 “I need another cup of coffee.”, “I need another cup of coffee.”, ” Please top my coffee off.”, “My coffee is not hot enough.”, “What goes best with a cup of coffee?” 및 ”Shall we go out and talk with coffee?”를 추출할 수 있고, 제1 문장 및 원어민 문장의 포함된 공통된 단어들, 문장 길이 비교, 문장의 형식 비교 등을 통해 유사도를 생성할 수 있다.In an embodiment, the device 200 provides a native speaker voice corresponding to sentences including 'coffee', “I need another cup of coffee.”, “I need another cup of coffee.”, “Please top my coffee off. ”, “My coffee is not hot enough.”, “What goes best with a cup of coffee?” and “Shall we go out and talk with coffee?” may be extracted, and similarity may be generated through common words included in the first sentence and the native speaker sentence, sentence length comparison, sentence format comparison, and the like.

문장 유사도를 가중치로 적용함으로써, 표준 음성과 평가 대상 음성의 단어와 단어 사이의 발음 유사도에 그치는 것이 아니라 그 단어가 사용된 문장을 고려하여 발음 유사도를 판단하기 때문에 보다 정교하고 정확한 유사도를 판단할 수 있다.By applying the sentence similarity as a weight, it is not limited to the pronunciation similarity between the word and the word in the standard voice and the target voice, but more sophisticated and accurate similarity can be determined because the pronunciation similarity is determined by considering the sentence in which the word is used. have.

도 6은 일실시예에 따른 사용자 음성을 기초로 유사 문장 및 예상 답변을 사용자에게 제공하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of providing a similar sentence and an expected answer to a user based on a user's voice according to an exemplary embodiment.

도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 제1 문장이 정확한 경우, 제1 텍스트를 제1 사용자 단말(110)로 표시할 수 있다. 구체적으로 장치(200)는 S206 단계에서 생성된 오류율이 제1 기준 오류율 보다 작다고 판단한 경우, S207 단계에서 제1 문장이 정확하다고 판단하고, 제1 텍스트를 제1 사용자 단말(110)로 표시할 수 있다.Referring to FIG. 6 , first, in step S601 , when the first sentence is correct, the device 200 may display the first text as the first user terminal 110 . Specifically, when the device 200 determines that the error rate generated in step S206 is smaller than the first reference error rate, in step S207 , the device 200 determines that the first sentence is correct and displays the first text as the first user terminal 110 . have.

S602 단계에서, 장치(200)는 제1 문장을 제1 사용자의 모국어로 번역한 제2 텍스트를 제1 사용자 단말(110)로 표시할 수 있다. 즉, 장치(200)는 외국어인 제1 문장을 제1 사용자의 모국어로 번역할 수 있고, 번역한 제2 텍스트를 제1 사용자 단말(110)로 표시할 수 있다.In step S602 , the device 200 may display the second text obtained by translating the first sentence into the first user's native language to the first user terminal 110 . That is, the device 200 may translate the first sentence, which is a foreign language, into the first user's native language, and may display the translated second text on the first user terminal 110 .

S603 단계에서, 장치(200)는 제2 텍스트에 대응하는 유사 문장으로 분류되는 제2 유사 문장을 추출하여 제2 유사 텍스트를 제1 사용자 단말(110)로 표시할 수 있다. 구체적으로, 장치(200)는 제2 텍스트에 대응하는 제2 문장과 유사 문장으로 분류되는 제2 유사 문장을 데이터베이스로부터 추출할 수 있고, 제2 유사 문장에 대응하는 제2 유사 텍스트를 제1 사용자 단말(110)로 표시할 수 있다.In operation S603 , the device 200 may extract a second similar sentence classified as a similar sentence corresponding to the second text and display the second similar text on the first user terminal 110 . Specifically, the apparatus 200 may extract a second similar sentence classified into a second sentence corresponding to the second text and a similar sentence from the database, and may extract the second similar text corresponding to the second similar sentence to the first user. It can be displayed by the terminal 110 .

S604 단계에서, 장치(200)는 제2 유사 텍스트에 대응하는 제2 유사 문장으로부터 적어도 하나의 제2 동사를 추출할 수 있다. In step S604 , the device 200 may extract at least one second verb from the second similar sentence corresponding to the second similar text.

S605 단계에서, 장치(200)는 추출된 제2 동사에 기초하여, 제2 유사 문장이 질문형 문장인지 여부를 판단할 수 있다.In step S605 , the device 200 may determine whether the second similar sentence is a question-type sentence based on the extracted second verb.

S606 단계에서, 장치(200)는 제2 유사 문장이 질문형 문장인 경우 질문형 문장들 및 답변 문장들로 구성된 데이터베이스로부터 제2 유사 문장과 유사도가 가장 높은 질문형 문장을 추출할 수 있다.In step S606 , when the second similar sentence is a question-type sentence, the device 200 may extract a question-type sentence having the highest degree of similarity to the second similar sentence from the database including question-type sentences and answer sentences.

S607 단계에서, 장치(200)는 추출된 질문형 문장에 대응하는 답변 문장을 제2 유사 문장에 대응하는 예상 답변으로 제1 사용자 단말(110)로 표시할 수 있다. In step S607 , the device 200 may display the answer sentence corresponding to the extracted question-type sentence as the expected answer corresponding to the second similar sentence to the first user terminal 110 .

도 7은 일실시예에 따른 사용자 음성을 기초로 유사 문장 및 예상 답변을 제공하는 과정의 개념도이다.7 is a conceptual diagram of a process of providing a similar sentence and an expected answer based on a user's voice according to an embodiment.

도 7을 참조하여 예를 들면, 사용자가 제1 문장으로 “Can I help you?”라고 음성을 제공했을 때, 장치(200)는 “Can I help you?”를 텍스트로 제1 사용자 단말(110)로 표시할 수 있다.Referring to FIG. 7 , for example, when the user provides a voice “Can I help you?” as the first sentence, the device 200 returns “Can I help you?” as the text to the first user terminal 110 ) can be expressed as

장치(200)는 “Can I help you?”를 제1 사용자의 모국어로 번역하여 “도와드릴까요?”를 제1 사용자 단말(110)로 표시할 수 있다.The device 200 may translate “Can I help you?” into the first user's native language and display “Can I help you?” on the first user terminal 110 .

장치(200)는 데이터베이스를 통해 “Can I help you?”의 유사 문장인 “What can I do for you?” 및 “What can I do for you?”에 대응하는 예상 답변인 “I'm just looking around”를 제1 사용자 단말(110)로 표시할 수 있다.The device 200, through the database, a similar sentence of “Can I help you?” “What can I do for you?” and “I'm just looking around”, which is an expected answer corresponding to “What can I do for you?”, may be displayed on the first user terminal 110 .

장치(200)는 제1 사용자 단말(110)로 유사 문장을 제공함으로써, 제1 문장의 다각화된 문장 표현을 제1 사용자에게 제공할 수 있고, 유사 문장에 대한 예상 답변을 제공함으로써, 학습 참여를 자연스럽게 이끌어 낼 수 있다.The device 200 may provide a diversified sentence expression of the first sentence to the first user by providing a similar sentence to the first user terminal 110, and by providing an expected answer to the similar sentence, participation in learning can be drawn naturally.

도 8은 일실시예에 따른 사용자의 기본 정보를 통해 사용자의 레벨을 평가하는 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating a method of evaluating a user's level through basic information of the user according to an exemplary embodiment.

먼저, S801 단계에서, 장치(200)는 제1 사용자 단말(110)로부터 제1 사용자의 외국어 능력 기본 정보를 수신할 수 있다. 여기서, 제1 사용자의 외국어 능력 기본 정보는 제1 사용자의 외국어 시험 점수, 제1 사용자의 외국어 교육 이력 및 자가 평가 정보 등을 포함할 수 있다. 즉, 장치(200)는 제1 사용자의 현재 외국어 능력 기본 정보를 획득할 수 있다.First, in step S801 , the device 200 may receive the first user's foreign language ability basic information from the first user terminal 110 . Here, the basic information on foreign language ability of the first user may include the foreign language test score of the first user, foreign language education history and self-evaluation information of the first user. That is, the device 200 may obtain basic information on the current foreign language ability of the first user.

S802 단계에서, 장치(200)는 외국어 능력 기본 정보에 기초하여 제1 사용자를 외국어 능력에 따라 분류되는 그룹들 중 제1 그룹으로 분류할 수 있다. 구체적으로, 장치(200)는 제1 사용자의 외국어 능력 기본 정보를 수신하고, 제1 사용자의 외국어 능력 기본 정보를 통해 제1 사용자와 비슷한 실력의 제1 그룹을 추출하고, 제1 사용자를 제1 그룹으로 분류할 수 있다.In step S802 , the device 200 may classify the first user into a first group among groups classified according to foreign language ability based on the foreign language ability basic information. Specifically, the device 200 receives the foreign language ability basic information of the first user, extracts a first group of similar ability to the first user through the foreign language ability basic information of the first user, and assigns the first user to the first can be classified into groups.

S803 단계에서, 장치(200)는 제1 그룹에 대응하는 제1 카테고리에 포함된 외국어 능력 판단 질문들 중 어느 하나의 제1 외국어 능력 판단 질문을 생성하여 제1 사용자 단말(110)로 제공할 수 있다. 즉, 장치(200)는 제1 사용자를 제1 그룹으로 분류하고, 제1 그룹에 속한 사용자들의 외국어 레벨을 평가하기 적합한 제1 카테고리를 추출하고, 제1 카테고리에 포함된 외국어 능력 판단 질문들 중 무작위로 선택하여 제1 외국어 능력 판단 질문을 제1 사용자에게 제공할 수 있다.In step S803 , the device 200 may generate a first foreign language ability determination question of any one of foreign language ability determination questions included in the first category corresponding to the first group and provide it to the first user terminal 110 . have. That is, the apparatus 200 classifies the first user into the first group, extracts a first category suitable for evaluating the foreign language level of the users belonging to the first group, and from among the foreign language ability determination questions included in the first category The first foreign language ability determination question may be randomly selected and provided to the first user.

S804 단계에서, 장치(200)는 제1 사용자 단말(110)로부터 제1 외국어 능력 판단 질문에 대응하는 제1 사용자 답변을 수신할 수 있다.In step S804 , the device 200 may receive a first user answer corresponding to the first foreign language ability determination question from the first user terminal 110 .

S805 단계에서, 장치(200)는 제1 외국어 능력 판단 질문에 대응하는 제1 모범 답변들을 추출할 수 있다. 여기서 제1 모범 답변들은 외국어 능력 판단 질문에 대한 모범 답변들 중 제1 카테고리로 분류된 답변들과 제1 그룹에 포함된 사용자들의 사용자 답변 히스토리를 포함할 수 있다.In step S805 , the device 200 may extract first model answers corresponding to the first foreign language ability determination question. Here, the first exemplary answers may include answers classified into the first category among exemplary answers to the foreign language ability determination question and user answer histories of users included in the first group.

S806 단계에서, 장치(200)는 제1 모범 답변들에 대응하여 미리 정의된 핵심 단어들을 추출할 수 있다. 여기서, 핵심 단어는 제1 모범 답변의 키워드가 될 수 있고, 핵심 단어의 난이도는 카테고리에 따라 달라질 수 있다.In step S806 , the device 200 may extract predefined key words in response to the first model answers. Here, the key word may be a keyword of the first exemplary answer, and the difficulty level of the key word may vary according to a category.

S807 단계에서, 장치(200)는 추출된 핵심 단어들이 포함되어 있는 문장을 제1 사용자 답변으로부터 평가 대상 문장으로 분류할 수 있다. 즉, 장치(200)는 제1 사용자 답변 중 핵심 단어가 포함된 문장을 평가 대상으로 분류하여 평가할 수 있다.In step S807 , the device 200 may classify a sentence including the extracted key words as an evaluation target sentence from the first user answer. That is, the device 200 may classify and evaluate a sentence including a key word among the first user's answers as an evaluation target.

S808 단계에서, 장치(200)는 평가 대상 문장을 핵심 단어들에 대응하는 제1 모범 답변들과 비교하여 문장 일치율을 판단할 수 있다. 구체적으로, 장치(200)는 제1 사용자 답변 중 핵심 단어가 포함된 문장과 제1 모범 답변 중 핵심 단어가 포함된 문장을 비교하여 문장 일치율을 판단할 수 있다. 여기서, 문장 일치율을 판단하는 방법은 다양한 방법이 있는데 예를 들어 제1 사용자 답변 문장과 제1 모범 답변 문장의 일치하는 글자수 및 불일치하는 글자수를 산출하여 문장 일치율을 판단할 수 있다.In step S808 , the device 200 may determine the sentence agreement rate by comparing the evaluation target sentence with first model answers corresponding to key words. Specifically, the device 200 may determine the sentence matching rate by comparing the sentence including the key word in the first user answer with the sentence including the key word in the first exemplary answer. Here, there are various methods for determining the sentence agreement rate. For example, the sentence agreement rate may be determined by calculating the number of matching and inconsistent characters between the first user response sentence and the first exemplary response sentence.

S809 단계에서, 장치(200)는 문장 일치율에 기초하여 평가 대상 문장을 유효문장 및 비유효문장으로 분류할 수 있다. 구체적으로, 장치(200)는 유효문장 및 비유효문장의 기준이 될 문장 일치율을 미리 설정하고, 문장 일치율이 설정된 기준 일치율보다 작을 경우 비유효문장으로 분류하고, 문장 일치율이 설정된 기준 일치율보다 클 경우 유효문장으로 분류할 수 있다. In step S809 , the device 200 may classify the evaluation target sentence into valid sentences and invalid sentences based on the sentence matching rate. Specifically, the device 200 sets the sentence agreement rate to be the standard of valid sentences and invalid sentences in advance, classifies it as an invalid sentence when the sentence agreement rate is less than the set reference agreement rate, and when the sentence agreement rate is greater than the set reference agreement rate It can be classified as a valid sentence.

또한, 장치(200)는 문장 일치율이 큰 유효문장을 사용자 답변 히스토리로 저장할 수 있다.Also, the device 200 may store a valid sentence having a high sentence matching rate as a user answer history.

S810 단계에서, 장치(200)는 제1 사용자 답변 내 유효문장의 총합 개수에 기초하여 제1 사용자의 레벨을 현재 레벨과 비교하여 변경할지 여부를 판단할 수 있다. 구체적으로, 장치(200)는 제1 사용자 답변 내 유효문장의 총합 개수를 산출하고, 미리 설정된 기준 총합 개수를 설정할 수 있다. 유효문장의 총합 개수가 미리 설정된 기준 총합 개수보다 많을 경우 레벨이 올라가게 설정할 수 있고, 유효문장의 총합개수가 미리 설정된 기준 총합 개수보다 적을 경우, 레벨이 유지되거나 내려가게 설정할 수도 있다.In operation S810 , the device 200 may determine whether to change the level of the first user by comparing it with the current level based on the total number of valid sentences in the first user answer. Specifically, the device 200 may calculate the total number of valid sentences in the first user answer and set a preset reference total number. When the total number of valid sentences is greater than the preset reference total number, the level may be set to rise, and if the total number of valid sentences is less than the preset reference total number, the level may be maintained or set to decrease.

도 9는 일실시예에 따른 사용자의 기본 정보를 통해 사용자에게 적합한 질문과 모범답변을 설정하는 과정의 개념도이다.9 is a conceptual diagram of a process of setting a question and a model answer suitable for a user through basic information of the user according to an embodiment.

장치(200)는 제1 사용자 단말(110)로부터 제1 사용자의 외국어 능력 기본 정보(제1 사용자의 외국어 시험 점수, 제1 사용자의 외국어 교육 이력 및 자가 평가 정보 등)를 획득하고, 제1 사용자의 외국어 능력 기본 정보를 사용자 분류 모델에 적용하여 제1 사용자를 외국어 능력이 비슷한 수준의 제1 그룹으로 분류하고, 제1 그룹에 매칭된 제1 카테고리의 질문 및 모범 답변을 통해 사용자의 레벨을 판단할 수 있다.The device 200 obtains the first user's foreign language ability basic information (the first user's foreign language test score, the first user's foreign language education history and self-evaluation information, etc.) from the first user terminal 110 , and the first user By applying basic information on foreign language ability of can do.

장치(200)는 사용자의 기본 정보를 통해 적합한 질문과 모범답변을 추출함으로써, 사용자의 레벨을 더 정확하게 파악하고, 사용자의 외국어 능력에 적합한 외국어 교육 콘텐츠를 제공할 수 있다.The device 200 may more accurately identify the user's level and provide foreign language education content suitable for the user's foreign language ability by extracting appropriate questions and model answers through the user's basic information.

도 10은 일실시예에 따른 사용자의 음성의 크기를 통해 사용자의 상황에 맞게 콘텐츠 음량을 자동으로 조절하는 과정을 설명하기 위한 순서도이다.10 is a flowchart illustrating a process of automatically adjusting a content volume according to a user's situation based on the volume of the user's voice according to an exemplary embodiment.

도 10을 참조하면, 먼저, S1001 단계에서, 장치(200)는 제1 음성의 미리 정의된 구간 동안의 세기를 측정할 수 있다. 여기서, 미리 정의된 구간은 임의로 설정된 구간으로 실시예에 따라 달라질 수 있다.Referring to FIG. 10 , first, in step S1001 , the apparatus 200 may measure the intensity of the first voice during a predefined section. Here, the predefined section is an arbitrarily set section and may vary according to embodiments.

S1002 단계에서, 장치(200)는 측정된 세기가 미리 정의된 범위를 벗어나는지 여부를 판단할 수 있다. 이때, 미리 정의된 범위는 임의로 설정된 범위일 수 있고, 외국어 교육 콘텐츠 서비스를 사용하는 사용자의 평균 음성 세기를 기준으로 설정된 범위일 수 있다.In step S1002 , the device 200 may determine whether the measured intensity is outside a predefined range. In this case, the predefined range may be an arbitrarily set range, or may be a range set based on the average voice intensity of a user using the foreign language education content service.

S1002 단계에서 측정된 세기가 미리 정의된 범위를 벗어난다고 판단되면, S1003 단계에서, 장치(200)는 측정된 세기가 제1 목표 값 보다 큰지 여부를 판단할 수 있다. 여기서, 제1 목표 값은 임의로 설정된 값으로 실시예에 따라 달라질 수 있다.If it is determined in step S1002 that the measured intensity is outside the predefined range, in step S1003 , the device 200 may determine whether the measured intensity is greater than a first target value. Here, the first target value is an arbitrarily set value and may vary according to embodiments.

S1003 단계에서 측정된 세기가 제1 목표 값 보다 크다고 판단되면, S1004 단계에서, 장치(200)는 외국어 교육 콘텐츠의 음량 값을 제1 목표 값에 대응하는 값으로 제어할 수 있다. 예를 들어, 측정된 세기가 80dB이고, 제1 목표 값이 70dB일 경우, 장치(200)는 측정된 세기가 제1 목표 값 보다 크다고 판단하고, 외국어 교육 콘텐츠의 음량 값을 70dB에 대응하는 값으로 제어할 수 있다.If it is determined in step S1003 that the measured intensity is greater than the first target value, in step S1004 , the apparatus 200 may control the volume value of the foreign language education content to be a value corresponding to the first target value. For example, if the measured intensity is 80 dB and the first target value is 70 dB, the device 200 determines that the measured intensity is greater than the first target value, and sets the volume value of the foreign language education content to a value corresponding to 70 dB can be controlled with

S1003 단계에서 측정된 세기가 제1 목표 값 보다 작다고 판단되면, S1105 단계에서, 장치(200)는 측정된 세기가 제2 목표 값보다 큰지 여부를 판단할 수 있다. 여기서, 제2 목표 값은 제1 목표 값보다 작은 값으로 설정될 수 있다.If it is determined in step S1003 that the measured intensity is less than the first target value, in step S1105 , the device 200 may determine whether the measured intensity is greater than the second target value. Here, the second target value may be set to a value smaller than the first target value.

S1005 단계에서 측정된 세기가 제2 목표 값 보다 크다고 판단되면, S1006 단계에서, 장치(200)는 외국어 교육 콘텐츠의 음량 값을 제2 목표 값에 대응하는 값으로 제어할 수 있다. 예를 들어, 측정된 세기가 50dB이고, 제2 목표 값이 40dB일 경우, 장치(200)는 측정된 세기가 제2 목표 값 보다 크다고 판단하고, 외국어 교육 콘텐츠의 음량 값을 40dB에 대응하는 값으로 제어할 수 있다.If it is determined in step S1005 that the measured intensity is greater than the second target value, in step S1006 , the device 200 may control the volume value of the foreign language education content to be a value corresponding to the second target value. For example, when the measured intensity is 50 dB and the second target value is 40 dB, the device 200 determines that the measured intensity is greater than the second target value, and sets the volume value of the foreign language education content to a value corresponding to 40 dB can be controlled with

S1005 단계에서 측정된 세기가 제2 목표 값 보다 작다고 판단되면, S1007 단계에서, 장치(200)는 제1 사용자 단말(110)에 목소리를 크게 하라는 문구를 표시할 수 있다. 예를 들어, 측정된 세기가 20dB이고, 제2 목표 값이 40dB일 경우, 장치(200)는 측정된 세기가 제2 목표 값 보다 작다고 판단하고, 제1 사용자 단말(110)에 목소리를 크게 하라는 문구를 표시할 수 있다.If it is determined that the intensity measured in step S1005 is less than the second target value, in step S1007 , the device 200 may display a phrase to increase the voice on the first user terminal 110 . For example, when the measured intensity is 20 dB and the second target value is 40 dB, the device 200 determines that the measured intensity is less than the second target value, and instructs the first user terminal 110 to raise the voice. text can be displayed.

도 11은 일실시예에 따른 교육 콘텐츠 정독 시간을 예측하여 추천 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.11 is a flowchart illustrating a process of providing recommended content by predicting an educational content reading time according to an exemplary embodiment.

도 11을 참조하면, 먼저, S1101 단계에서, 장치(200)는 제1 사용자 단말(110)로부터 외국어 교육 콘텐츠 서비스에 대한 접속 요청을 수신할 수 있다. 여기서, 외국어 교육 콘텐츠 서비스는 외국어 교육 콘텐츠를 제공하는 플랫폼으로 어플리케이션, 웹페이지 등의 형태가 될 수 있다.Referring to FIG. 11 , first, in step S1101 , the device 200 may receive a request for access to the foreign language education content service from the first user terminal 110 . Here, the foreign language education content service is a platform that provides foreign language education content, and may be in the form of an application, a web page, or the like.

S1102 단계에서, 장치(200)는 제1 사용자 계정을 확인하여, 제1 사용자 정보를 획득할 수 있다. 이때, 장치(200)는 제1 사용자 단말(110)에 로그인 되어 있는 제1 사용자 계정을 확인하고, 제1 사용자 계정을 통해 데이터베이스에 저장된 사용자 정보를 조회하여, 데이터베이스로부터 제1 사용자 정보를 획득할 수 있다. 여기서, 제1 사용자 정보는 제1 사용자에 대한 사용자 정보로, 제1 사용자의 기본 정보, 행동 정보, 외국어 교육 콘텐츠 이용 내역 등을 포함할 수 있다.In step S1102 , the device 200 may obtain the first user information by checking the first user account. At this time, the device 200 checks the first user account logged in to the first user terminal 110, inquires the user information stored in the database through the first user account, to obtain the first user information from the database can Here, the first user information is user information about the first user, and may include basic information of the first user, behavior information, foreign language education content usage history, and the like.

S1103 단계에서, 장치(200)는 제1 사용자 단말(110)로부터 제1 교육 콘텐츠에 대한 조회 요청을 수신할 수 있다. In step S1103 , the device 200 may receive a query request for the first educational content from the first user terminal 110 .

구체적으로, 장치(200)는 제1 사용자 단말(110)의 화면에 표시된 외국어 교육 콘텐츠 서비스에 접속하여 제1 교육 콘텐츠를 클릭하면, 제1 사용자 단말(110)로부터 제1 교육 콘텐츠에 대한 조회 요청을 수신할 수 있다. 여기서, 제1 교육 콘텐츠는 사용자의 기본 정보 및 레벨 테스트를 통해 획득한 제1 사용자의 레벨에 적합한 제1 난이도의 교육 콘텐츠로, 사용자는 제1 난이도로 설정된 제1 교육 콘텐츠를 제공받기 위해 제1 콘텐츠에 대한 조회 요청을 할 수 있다.Specifically, when the device 200 accesses the foreign language education content service displayed on the screen of the first user terminal 110 and clicks on the first education content, a query request for the first education content from the first user terminal 110 is requested. can receive Here, the first educational content is education content of a first difficulty suitable for the level of the first user obtained through the user's basic information and level test, and the user first You can make a query request for content.

S1104 단계에서, 장치(200)는 제1 교육 콘텐츠를 확인하여, 제1 교육 콘텐츠 정보를 획득할 수 있다. 이때, 장치(200)는 제1 교육 콘텐츠에 대한 조회 요청을 통해 제1 교육 콘텐츠를 확인하고, 데이터베이스에 저장된 교육 콘텐츠 정보를 조회하여, 데이터베이스로부터 제1 교육 콘텐츠 정보를 획득할 수 있다. 여기서, 제1 교육 콘텐츠 정보는 제1 교육 콘텐츠에 대한 콘텐츠 정보로, 제1 교육 콘텐츠의 속성 정보, 사용자 이용 내역 등을 포함할 수 있다.In step S1104 , the device 200 may obtain first education content information by checking the first education content. In this case, the device 200 may obtain the first education content information from the database by checking the first education content through the inquiry request for the first education content, inquiring the education content information stored in the database. Here, the first educational content information is content information on the first educational content, and may include attribute information of the first educational content, user usage history, and the like.

S1105 단계에서, 장치(200)는 제1 사용자 정보 및 제1 교육 콘텐츠 정보를 기초로, 제1 교육 콘텐츠에 대한 제1 사용자의 정독 시간을 예측할 수 있다. 여기서, 제1 사용자의 정독 시간은 제1 사용자가 제1 교육 콘텐츠를 정독하는데 소요되는 시간을 의미한다.In step S1105 , the device 200 may predict the reading time of the first user for the first educational content based on the first user information and the first educational content information. Here, the first user's perusal time means the time it takes for the first user to peruse the first educational content.

S1106 단계에서, 장치(200)는 제1 사용자의 정독 시간이 사용자 허용 범위 내에 포함되는지 여부를 확인할 수 있다. 여기서, 사용자 허용 범위는 실시예에 따라 상이하게 설정될 수 있으며, 이와 관련된 자세한 설명은 도 12를 참조하여 후술하기로 한다.In step S1106 , the device 200 may determine whether the first user's perusal time is within the user permissible range. Here, the user permissible range may be set differently according to embodiments, and a detailed description thereof will be described later with reference to FIG. 12 .

S1106 단계에서 제1 사용자의 정독 시간이 사용자 허용 범위 내에 포함되는 것으로 확인되면, S1107 단계에서, 장치(200)는 제1 교육 콘텐츠를 제1 사용자 단말(110)로 제공할 수 있다. If it is confirmed in step S1106 that the reading time of the first user is within the user permissible range, in step S1107 , the device 200 may provide the first educational content to the first user terminal 110 .

즉, 장치(200)는 제1 사용자 단말(110)로부터 제1 교육 콘텐츠에 대한 조회 요청이 수신된 경우, 제1 교육 콘텐츠에 대한 제1 사용자의 정독 시간을 예측한 결과, 제1 사용자의 정독 시간이 사용자 허용 범위 내에 포함되는 것으로 확인되면, 제1 교육 콘텐츠가 제1 사용자에게 적합한 콘텐츠로 판단하여, 제1 교육 콘텐츠를 제1 사용자 단말(110)로 제공할 수 있다.That is, when the inquiry request for the first educational content is received from the first user terminal 110 , the device 200 predicts the first user's perusal reading time for the first educational content, and as a result, the first user's perusal When it is confirmed that the time is included in the user tolerance, it is determined that the first educational content is suitable for the first user, and the first educational content may be provided to the first user terminal 110 .

S1106 단계에서 제1 사용자의 정독 시간이 사용자 허용 범위 내에 포함되지 않고 사용자 허용 범위를 벗어나는 것으로 확인되면, S1108 단계에서, 장치(200)는 제1 사용자의 정독 시간이 사용자 허용 범위의 최소 시간 보다 짧은지 여부를 확인할 수 있다.If it is determined in step S1106 that the first user's perusal time is not within the user permissible range and out of the user permissible range, in step S1108 , the device 200 determines that the perusal time of the first user is shorter than the minimum time of the user permissible range. You can check whether

S1108 단계에서 제1 사용자의 정독 시간이 사용자 허용 범위의 최소 시간 보다 짧은 것으로 확인되면, S1109 단계에서, 장치(200)는 제2 교육 콘텐츠에 대한 추천 정보를 제1 사용자 단말(110)로 제공하고, 제1 사용자 단말(110)의 화면에 제2 콘텐츠에 대한 추천 정보가 표시되도록, 제1 사용자 단말(110)의 동작을 제어할 수 있다. 여기서, 제2 교육 콘텐츠는 제1 교육 콘텐츠와 난이도 및 주제가 동일하면서 제1 교육 콘텐츠 보다 많은 글자 수로 구성된 콘텐츠이다.If it is confirmed in step S1108 that the first user's perusal time is shorter than the minimum time of the user permissible range, in step S1109, the device 200 provides recommended information for the second educational content to the first user terminal 110 and , an operation of the first user terminal 110 may be controlled so that recommendation information for the second content is displayed on the screen of the first user terminal 110 . Here, the second educational content is the same as the first educational content in terms of difficulty and subject, but includes a larger number of characters than the first educational content.

예를 들어, 제1 교육 콘텐츠는 제1 난이도로 설정된 외국어 교육 콘텐츠로 100개의 글자와 30개의 이미지로 구성된 콘텐츠이고, 제2 콘텐츠는 제1 난이도로 설정된 외국어 교육 콘텐츠로 120개의 글자와 10개의 이미지로 구성된 콘텐츠인 경우, 장치(200)는 제1 사용자의 정독 시간이 사용자 허용 범위의 최소 시간 보다 짧은 것으로 확인되면, 데이터베이스에 저장된 콘텐츠 정보를 조회하여, 제1 교육 콘텐츠 보다 많은 글자 수로 구성된 제2 교육 콘텐츠를 확인할 수 있으며, 제2 교육 콘텐츠에 대한 추천 정보를 제1 사용자 단말(110)로 제공할 수 있다.For example, the first educational content is foreign language education content set to the first difficulty level, which is 100 letters and 30 images, and the second content is foreign language education content set to the first difficulty level, 120 letters and 10 images. In the case of content consisting of The educational content may be checked, and recommendation information on the second educational content may be provided to the first user terminal 110 .

즉, 장치(200)는 제1 사용자 단말(110)로부터 제1 교육 콘텐츠에 대한 조회 요청이 수신된 경우, 제1 교육 콘텐츠에 대한 제1 사용자의 정독 시간을 예측한 결과, 제1 사용자의 정독 시간이 사용자 허용 범위를 벗어나는 것으로 확인되면, 제1 교육 콘텐츠가 제1 사용자에게 적합하지 않은 교육 콘텐츠로 판단하고, 제1 사용자의 정독 시간이 사용자 허용 범위의 최소 시간 보다 짧은 것으로 확인되면, 제1 콘텐츠 보다 많은 글자 수로 구성된 제2 교육 콘텐츠가 제1 사용자에게 적합한 교육 콘텐츠로 판단하여, 제2 교육 콘텐츠에 대한 추천 정보를 제1 사용자 단말(110)로 제공할 수 있다. That is, when the inquiry request for the first educational content is received from the first user terminal 110 , the device 200 predicts the first user's perusal reading time for the first educational content, and as a result, the first user's perusal If it is determined that the time is out of the user tolerance range, it is determined that the first educational content is educational content not suitable for the first user, and if it is confirmed that the perusal time of the first user is shorter than the minimum time of the user tolerance range, the first It is determined that the second educational content composed of a larger number of characters than the content is the educational content suitable for the first user, and thus recommendation information on the second educational content may be provided to the first user terminal 110 .

S1108 단계에서 제1 사용자의 정독 시간이 사용자 허용 범위의 최소 시간 보다 긴 것으로 확인되면, 제1 사용자의 정독 시간이 사용자 허용 범위를 벗어난 것으로 확인되어, 제1 사용자의 정독 시간이 사용자 허용 범위의 최대 시간 보다 긴 것으로 확인될 수 있으며, 제1 사용자의 정독 시간이 사용자 허용 범위의 최대 시간 보다 긴 것으로 확인되면, S1110 단계에서, 장치(200)는 제3 교육 콘텐츠에 대한 추천 정보를 제1 사용자 단말(110)로 제공하고, 제1 사용자 단말(110)의 화면에 제3 교육 콘텐츠에 대한 추천 정보가 표시되도록, 제1 사용자 단말(110)의 동작을 제어할 수 있다. 여기서, 제3 교육 콘텐츠는 제1 교육 콘텐츠와 난이도 및 주제가 동일하면서 제1 교육 콘텐츠 보다 적은 글자 수로 구성된 콘텐츠이다.If it is confirmed that the first user's perusal time is longer than the minimum time of the user permissible range in step S1108, it is confirmed that the perusive time of the first user is out of the user permissible range, so that the perusing time of the first user is the maximum of the user permissible range It may be confirmed that it is longer than the time, and if it is confirmed that the perusal time of the first user is longer than the maximum time of the user permissible range, in step S1110 , the device 200 provides recommendation information for the third educational content to the first user terminal ( 110 ), the operation of the first user terminal 110 may be controlled so that recommendation information for the third educational content is displayed on the screen of the first user terminal 110 . Here, the third educational content is content having the same difficulty level and subject as the first educational content, but with fewer characters than the first educational content.

예를 들어, 제1 교육 콘텐츠는 제1 난이도로 설정된 외국어 교육 콘텐츠로 100개의 글자와 30개의 이미지로 구성된 콘텐츠이고, 제3 콘텐츠는 제1 난이도로 설정된 외국어 교육 콘텐츠로 80개의 글자와 50개의 이미지로 구성된 콘텐츠인 경우, 장치(200)는 제1 사용자의 정독 시간이 사용자 허용 범위의 최대 시간 보다 긴 것으로 확인되면, 데이터베이스에 저장된 콘텐츠 정보를 조회하여, 제1 콘텐츠 보다 적은 글자 수로 구성된 제3 교육 콘텐츠를 확인할 수 있으며, 제3 교육 콘텐츠에 대한 추천 정보를 제1 사용자 단말(110)로 제공할 수 있다.For example, the first educational content is foreign language education content set to the first difficulty level, which is 100 letters and 30 images, and the third content is foreign language education content set to the first difficulty level, 80 letters and 50 images. In the case of content consisting of The content may be checked, and recommendation information on the third educational content may be provided to the first user terminal 110 .

즉, 장치(200)는 제1 사용자 단말(110)로부터 제1 교육 콘텐츠에 대한 조회 요청이 수신된 경우, 제1 교육 콘텐츠에 대한 제1 사용자의 정독 시간을 예측한 결과, 제1 사용자의 정독 시간이 사용자 허용 범위를 벗어나는 것으로 확인되면, 제1 교육 콘텐츠가 제1 사용자에게 적합하지 않은 콘텐츠로 판단하고, 제1 사용자의 정독 시간이 사용자 허용 범위의 최대 시간 보다 긴 것으로 확인되면, 제1 교육 콘텐츠 보다 적은 글자 수로 구성된 제3 교육 콘텐츠가 제1 사용자에게 적합한 콘텐츠로 판단하여, 제3 교육 콘텐츠에 대한 추천 정보를 제1 사용자 단말(110)로 제공할 수 있다. That is, when the inquiry request for the first educational content is received from the first user terminal 110 , the device 200 predicts the first user's perusal reading time for the first educational content, and as a result, the first user's perusal If it is determined that the time is out of the user tolerance range, it is determined that the first educational content is not suitable for the first user, and if it is confirmed that the first user's perusal time is longer than the maximum time of the user tolerance range, the first training content It is determined that the third educational content composed of a smaller number of characters than the content is suitable for the first user, and thus recommendation information on the third educational content may be provided to the first user terminal 110 .

도 12는 일실시예에 따른 사용자 허용 범위를 설정하는 과정을 설명하기 위한 순서도이다. 12 is a flowchart illustrating a process of setting a user permissible range according to an exemplary embodiment.

도 12를 참조하면, 먼저, S1201 단계에서, 장치(200)는 제1 교육 콘텐츠 정보를 통해 제1 교육 콘텐츠의 사용자 조회 내역을 획득할 수 있다. 여기서, 제1 교육 콘텐츠 정보는 제1 교육 콘텐츠를 정독한 사용자의 조회 내역을 포함할 수 있으며, 제1 교육 콘텐츠의 사용자 조회 내역은 어느 사용자가 제1 교육 콘텐츠를 얼마나 오래 정독하였는지에 대한 내역을 포함할 수 있다.Referring to FIG. 12 , first, in step S1201 , the device 200 may acquire the user inquiry details of the first education content through the first education content information. Here, the first educational content information may include a query history of a user who perusively read the first educational content, and the user inquiry history of the first educational content includes a history of how long a user perused the first educational content can do.

예를 들어, 제1 사용자 단말(110)의 화면에 제1 교육 콘텐츠가 표시된 경우, 제1 교육 콘텐츠에 대한 요청으로 제1 교육 콘텐츠를 클릭한 시점으로부터, 제1 교육 콘텐츠를 끝까지 수행하고 다음 교육 콘텐츠로 넘어가는 시점까지, 제1 교육 콘텐츠의 정독 시간으로 측정되어, 제1 사용자 및 제1 교육 콘텐츠의 정독 시간이 제1 교육 콘텐츠의 사용자 조회 내역에 추가될 수 있다.For example, when the first educational content is displayed on the screen of the first user terminal 110, from the point in time when the first educational content is clicked as a request for the first educational content, the first educational content is performed to the end, and the next education Up to the time of moving to the content, it is measured as the perusal time of the first educational content, and the first user and the perusal time of the first educational content may be added to the user inquiry history of the first educational content.

S1202 단계에서, 장치(200)는 제1 교육 콘텐츠의 사용자 조회 내역을 기초로, 사용자 별로 정독 시간을 확인하여, 제1 교육 콘텐츠의 평균 정독 시간을 산출할 수 있다. 예를 들어, 제1 교육 콘텐츠의 사용자 조회 내역에 제1 사용자, 제2 사용자 및 제3 사용자가 조회한 사용자로 등록되어 있는 경우, 장치(200)는 제1 사용자의 정독 시간, 제2 사용자의 정독 시간 및 제3 사용자의 정독 시간을 각각 확인할 수 있고, 제1 사용자가 제1 교육 콘텐츠를 정독한 시간이 30분, 제2 사용자가 제1 교육 콘텐츠를 정독한 시간이 60분, 제3 사용자가 제1 교육 콘텐츠를 정독한 시간이 90분인 경우, 장치(200)는 제1 교육 콘텐츠의 평균 정독 시간을 60분으로 산출할 수 있다.In step S1202 , the device 200 may calculate the average reading time of the first educational content by checking the reading time for each user based on the user inquiry details of the first educational content. For example, when the first user, the second user, and the third user are registered as users inquired in the user inquiry history of the first educational content, the device 200 determines the first user's perusal time, the second user's The perusal time and the third user's perusal time can be checked, respectively, and the time that the first user perused the first educational content was 30 minutes, the time that the second user perused the first educational content was 60 minutes, and the third user When the reading time of the first educational content is 90 minutes, the device 200 may calculate the average reading time of the first educational content as 60 minutes.

S1203 단계에서, 장치(200)는 제1 교육 콘텐츠의 평균 정독 시간의 길이에 따라, 기준치를 설정할 수 있다.In step S1203 , the device 200 may set a reference value according to the length of the average reading time of the first educational content.

예를 들어, 장치(200)는 제1 콘텐츠의 평균 정독 시간이 60분인 경우, 기준치를 10분으로 설정하고, 제1 콘텐츠의 평균 정독 시간이 120분인 경우, 기준치를 20분으로 설정할 수 있다. 기준치를 설정하는 기준은 실시예에 따라 상이하게 설정될 수 있다.For example, when the average reading time of the first content is 60 minutes, the device 200 may set the reference value to 10 minutes, and when the average reading time of the first content is 120 minutes, the device 200 may set the reference value to 20 minutes. The criterion for setting the reference value may be set differently depending on the embodiment.

S1204 단계에서, 장치(200)는 제1 교육 콘텐츠의 평균 정독 시간에서 기준치를 차감한 값으로, 사용자 허용 범위의 최소 시간을 산출할 수 있다.In step S1204 , the device 200 may calculate the minimum time within the user permissible range as a value obtained by subtracting the reference value from the average reading time of the first educational content.

예를 들어, 장치(200)는 제1 교육 콘텐츠의 평균 정독 시간이 60분이고, 기준치가 10분인 경우, 사용자 허용 범위의 최소 시간을 50분으로 산출할 수 있다.For example, when the average reading time of the first educational content is 60 minutes and the reference value is 10 minutes, the device 200 may calculate the minimum time of the user permissible range as 50 minutes.

S1205 단계에서, 장치(200)는 제1 교육 콘텐츠의 평균 정독 시간에 기준치를 가산한 값으로, 사용자 허용 범위의 최대 시간을 산출할 수 있다.In step S1205 , the device 200 may calculate the maximum time of the user permissible range as a value obtained by adding a reference value to the average reading time of the first educational content.

예를 들어, 장치(200)는 제1 콘텐츠의 평균 정독 시간이 60분이고, 기준치가 10분인 경우, 사용자 허용 범위의 최대 시간을 70분으로 산출할 수 있다.For example, when the average reading time of the first content is 60 minutes and the reference value is 10 minutes, the device 200 may calculate the maximum time of the user permissible range as 70 minutes.

S1206 단계에서, 장치(200)는 사용자 허용 범위의 최소 시간 및 사용자 허용 범위의 최대 시간을 기초로, 사용자 허용 범위를 설정할 수 있다.In operation S1206 , the device 200 may set the user permissible range based on the minimum time of the user permissible range and the maximum time of the user permissible range.

예를 들어, 장치(200)는 제1 콘텐츠의 평균 정독 시간이 60분인 경우, 사용자 허용 범위를 50분 내지 70분의 범위로 설정할 수 있다.For example, when the average reading time of the first content is 60 minutes, the device 200 may set the user permissible range to a range of 50 minutes to 70 minutes.

도 13은 일실시예에 따른 장치의 구성의 예시도이다.13 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

일실시예에 따른 장치(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 12를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.The device 200 according to an embodiment includes a processor 210 and a memory 220 . The processor 210 may include at least one of the devices described above with reference to FIGS. 1 to 12 , or perform at least one method described above with reference to FIGS. 1 to 12 . A person or organization using the apparatus 200 may provide a service related to some or all of the methods described above with reference to FIGS. 1 to 12 .

메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 전술된 방법들을 구현하는 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 220 may store information related to the above-described methods or a program for implementing the above-described methods. The memory 220 may be a volatile memory or a non-volatile memory.

프로세서(210)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 210 may execute a program and control the device 200 . The code of the program executed by the processor 210 may be stored in the memory 220 . The device 200 may be connected to an external device (eg, a personal computer or a network) through an input/output device (not shown), and may exchange data through wired/wireless communication.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (3)

장치에 의해 수행되는 방법에 있어서,
외국어 교육 콘텐츠 서비스에 등록된 제1 사용자의 접속 요청에 응답하여, 미리 정의된 레벨들 중 상기 제1 사용자의 레벨을 획득하는 단계;
미리 정의된 난이도들 중 상기 획득된 레벨에 대응하는 제1 난이도를 획득하고, 상기 제1 난이도에 대응하는 제1 교육 콘텐츠를 상기 제1 사용자의 제1 사용자 단말로 제공하는 단계;
상기 제1 교육 콘텐츠를 재생하는 상기 제1 사용자 단말로부터 상기 제1 사용자의 제1 음성-상기 제1 음성은 상기 제1 사용자의 음성으로부터 상기 제1 교육 콘텐츠의 미리 정의된 구간에 대응하고, 문장 단위로 추출됨-을 수신하고, 상기 제1 음성에 대응하는 제1 문장의 제1 텍스트를 생성하는 단계;
상기 제1 텍스트로부터 적어도 하나의 단어 및 형태소를 추출하고, 단어들 및 형태소들 사이의 매칭도들을 기록한 데이터베이스를 이용하여 상기 추출된 단어 및 형태소 사이의 매칭도를 생성하는 단계;
상기 제1 문장 내 단어에 부여되어 미리 정의된 가중치를 상기 생성된 매칭도에 적용하여 상기 제1 문장의 오류율을 생성하는 단계;
상기 생성된 오류율이 미리 설정한 제1 기준 오류율 보다 작은지 여부를 판단하는 단계;
상기 생성된 오류율이 상기 제1 기준 오류율 보다 작은 경우, 상기 제1 문장이 정확하다고 판단하는 단계;
상기 생성된 오류율이 상기 제1 기준 오류율 보다 큰 경우, 상기 제1 문장이 부정확한 것으로 판단하는 단계; 및
상기 제1 문장이 부정확 경우, 상기 제1 사용자 단말로 상기 제1 문장에 대응하는 단어 및 문장의 음성 콘텐츠를 제공하고, 상기 제1 사용자 단말로부터 제2 음성을 수신하는 단계를 포함하고,
상기 제1 사용자의 발음 및 억양을 평가하는 단계를 더 포함하고,
상기 제1 사용자의 발음 및 억양을 평가하는 단계는
상기 제1 문장 내 적어도 하나의 단어 중에서, 상기 제1 사용자의 발음 및 억양을 평가하고자 하는 대상 단어를 추출하는 단계;
상기 외국어 교육 콘텐츠 서비스에 저장된 콘텐츠들로부터, 상기 대상 단어가 포함된 문장들에 대응하는 원어민 음성들을 획득하는 단계;
상기 원어민 음성들에 대응하는 상기 문장들 및 상기 제1 문장 사이의 문장 유사도들을 생성하는 단계;
상기 원어민 음성들로부터 상기 대상 단어에 대응하는 표준 음성들을 추출하는 단계;
상기 제1 음성으로부터 상기 대상 단어에 대응하는 평가 대상 음성을 추출하는 단계;
상기 표준 음성들 및 상기 평가 대상 음성 사이의 높낮이 차이들을 각각 생성하고, 상기 생성된 높낮이 차이들에 상기 문장 유사도들을 가중치로 각각 적용하여 높낮이 유사도를 생성하는 단계;
상기 표준 음성들 및 상기 평가 대상 음성 사이의 세기 차이들을 각각 생성하고, 상기 생성된 세기 차이들에 상기 문장 유사도들을 가중치로 각각 적용하여 세기 유사도를 생성하는 단계;
상기 표준 음성들 및 상기 평가 대상 음성 사이의 발음 시간 길이 차이들을 각각 생성하고, 상기 생성된 발음 시간 길이 차이들에 상기 문장 유사도들을 가중치로 각각 적용하여 발음 시간 길이 유사도를 생성하는 단계;
상기 높낮이 유사도, 상기 세기 유사도 및 상기 발음 시간 길이 유사도에 기초하여 발음 및 억양 유사도를 생성하는 단계; 및
상기 제1 문장 내 대상 단어들 별로 발음 및 억양 유사도들을 각각 생성하여 상기 제1 사용자 단말에 상기 대상 단어들 별로 표시하는 단계를 포함하는,
인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스 제공 방법.
A method performed by an apparatus comprising:
obtaining a level of the first user from among predefined levels in response to an access request of a first user registered in a foreign language education content service;
obtaining a first difficulty level corresponding to the acquired level among predefined difficulties, and providing first educational content corresponding to the first difficulty level to a first user terminal of the first user;
The first voice of the first user from the first user terminal playing the first educational content - The first voice corresponds to a predefined section of the first educational content from the voice of the first user, a sentence receiving the extracted unit, and generating a first text of a first sentence corresponding to the first voice;
extracting at least one word and morpheme from the first text and generating a degree of matching between the extracted word and morpheme using a database in which the degrees of matching between the words and morphemes are recorded;
generating an error rate of the first sentence by applying a predefined weight given to the word in the first sentence to the generated matching degree;
determining whether the generated error rate is smaller than a preset first reference error rate;
determining that the first sentence is correct when the generated error rate is less than the first reference error rate;
determining that the first sentence is incorrect when the generated error rate is greater than the first reference error rate; and
If the first sentence is inaccurate, providing audio content of words and sentences corresponding to the first sentence to the first user terminal, and receiving a second voice from the first user terminal,
Further comprising the step of evaluating the pronunciation and intonation of the first user,
The step of evaluating the pronunciation and intonation of the first user is
extracting a target word for evaluating pronunciation and intonation of the first user from among at least one word in the first sentence;
obtaining, from the contents stored in the foreign language education contents service, native speaker voices corresponding to sentences including the target word;
generating sentence similarities between the first sentence and the sentences corresponding to the native speaker voices;
extracting standard voices corresponding to the target word from the native speaker voices;
extracting an evaluation target voice corresponding to the target word from the first voice;
generating pitch similarities between the standard voices and the evaluation target voice, respectively, and applying the sentence similarities to the generated pitch differences as weights, respectively;
generating intensity similarities between the standard voices and the evaluation target voice, respectively, and applying the sentence similarities to the generated intensity differences as weights, respectively;
generating pronunciation time length similarities by respectively generating differences in pronunciation time lengths between the standard voices and the evaluation target voice, and applying the sentence similarities as weights to the generated pronunciation time length differences;
generating a pronunciation and intonation similarity based on the height similarity, the intensity similarity, and the pronunciation time length similarity; and
generating pronunciation and intonation similarities for each target word in the first sentence, and displaying each of the target words on the first user terminal;
A method of providing foreign language education contents service based on voice recognition using artificial intelligence.
삭제delete 제1항에 있어서,
상기 제1 문장이 정확한 경우, 상기 제1 텍스트를 상기 제1 사용자 단말로 표시하는 단계;
상기 제1 문장을 상기 제1 사용자의 모국어로 번역한 제2 텍스트를 상기 제1 사용자 단말로 표시하는 단계;
상기 제2 텍스트에 대응하는 제2 문장과 유사 문장으로 분류되는 제2 유사 문장을 데이터베이스로부터 추출하여, 상기 제2 유사 문장에 대응하는 제2 유사 텍스트를 상기 제1 사용자 단말로 표시하는 단계;
상기 제2 유사 텍스트에 대응하는 상기 제2 유사 문장으로부터 적어도 하나의 제2 동사를 추출하는 단계;
상기 추출된 제2 동사에 기초하여, 상기 제2 유사 문장이 질문형 문장인지 여부를 판단하는 단계;
상기 제2 유사 문장이 질문형 문장인 경우, 질문형 문장들 및 답변 문장들로 구성된 데이터베이스로부터 상기 제2 유사 문장과 유사도가 가장 높은 질문형 문장을 추출하는 단계; 및
상기 추출된 질문형 문장에 대응하는 답변 문장을 상기 제2 유사 문장에 대응하는 예상 답변으로 상기 제1 사용자 단말로 표시하는 단계를 더 포함하는
인공지능을 활용한 음성인식 기반 외국어 교육 콘텐츠 서비스 제공 방법.
The method of claim 1,
displaying the first text on the first user terminal when the first sentence is correct;
displaying, on the first user terminal, a second text obtained by translating the first sentence into the first user's native language;
extracting a second similar sentence classified as a second sentence corresponding to the second text and a similar sentence from a database, and displaying a second similar text corresponding to the second similar sentence on the first user terminal;
extracting at least one second verb from the second pseudo-sentence corresponding to the second pseudo-text;
determining whether the second similar sentence is a question-type sentence based on the extracted second verb;
when the second similar sentence is a question-type sentence, extracting a question-type sentence having the highest degree of similarity to the second similar sentence from a database including question-type sentences and answer sentences; and
Displaying, on the first user terminal, an answer sentence corresponding to the extracted question-type sentence as an expected answer corresponding to the second similar sentence
A method of providing foreign language education contents service based on voice recognition using artificial intelligence.
KR1020220020301A 2022-02-16 2022-02-16 Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence KR102410644B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220020301A KR102410644B1 (en) 2022-02-16 2022-02-16 Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220020301A KR102410644B1 (en) 2022-02-16 2022-02-16 Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence

Publications (1)

Publication Number Publication Date
KR102410644B1 true KR102410644B1 (en) 2022-06-22

Family

ID=82217059

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220020301A KR102410644B1 (en) 2022-02-16 2022-02-16 Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102410644B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102513420B1 (en) * 2022-12-21 2023-03-24 주식회사 에이아이노미스 Method, device and system for providing artificial intelligence model recommendation platform based on user intention analysis
KR102569339B1 (en) * 2023-03-09 2023-08-22 주식회사 공터영어 Speaking test system
KR102584732B1 (en) * 2022-08-18 2023-10-05 이승현 Method and apparatus of providing language service based on language blocks

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050074298A (en) * 2004-01-08 2005-07-18 정보통신연구진흥원 Pronunciation test system and method of foreign language
KR101142945B1 (en) 2011-09-28 2012-05-10 (주)위버스마인드 Foreign language learning device through voice recognition and video interaction and its learning method
KR20160122542A (en) * 2015-04-14 2016-10-24 주식회사 셀바스에이아이 Method and apparatus for measuring pronounciation similarity
KR20160123949A (en) * 2015-04-16 2016-10-26 삼성전자주식회사 Method of recommanding a reply message and apparatus thereof
KR102302137B1 (en) 2019-10-31 2021-09-15 주식회사 엘지씨엔에스 Apparatus for studying foreign language and method for providing foreign language study service by using the same
KR102317482B1 (en) * 2020-12-29 2021-10-28 주식회사 퀀텀에듀솔루션 System and method for language learning based on artificial intelligence recommendation of visual learning content and example sentence
KR20210135151A (en) 2020-05-04 2021-11-12 이장호 Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function
KR20210144005A (en) * 2020-05-21 2021-11-30 주식회사 트이다 Recording Medium
KR102354768B1 (en) 2021-03-29 2022-01-24 이영준 Method, system and computer-readable recording medium for providing foreign language learning based on intelligent matching

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050074298A (en) * 2004-01-08 2005-07-18 정보통신연구진흥원 Pronunciation test system and method of foreign language
KR101142945B1 (en) 2011-09-28 2012-05-10 (주)위버스마인드 Foreign language learning device through voice recognition and video interaction and its learning method
KR20160122542A (en) * 2015-04-14 2016-10-24 주식회사 셀바스에이아이 Method and apparatus for measuring pronounciation similarity
KR20160123949A (en) * 2015-04-16 2016-10-26 삼성전자주식회사 Method of recommanding a reply message and apparatus thereof
KR102302137B1 (en) 2019-10-31 2021-09-15 주식회사 엘지씨엔에스 Apparatus for studying foreign language and method for providing foreign language study service by using the same
KR20210135151A (en) 2020-05-04 2021-11-12 이장호 Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function
KR20210144005A (en) * 2020-05-21 2021-11-30 주식회사 트이다 Recording Medium
KR102317482B1 (en) * 2020-12-29 2021-10-28 주식회사 퀀텀에듀솔루션 System and method for language learning based on artificial intelligence recommendation of visual learning content and example sentence
KR102354768B1 (en) 2021-03-29 2022-01-24 이영준 Method, system and computer-readable recording medium for providing foreign language learning based on intelligent matching

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102584732B1 (en) * 2022-08-18 2023-10-05 이승현 Method and apparatus of providing language service based on language blocks
KR102513420B1 (en) * 2022-12-21 2023-03-24 주식회사 에이아이노미스 Method, device and system for providing artificial intelligence model recommendation platform based on user intention analysis
KR102569339B1 (en) * 2023-03-09 2023-08-22 주식회사 공터영어 Speaking test system

Similar Documents

Publication Publication Date Title
KR102410644B1 (en) Method, device and system for providing foreign language education contents service based on voice recognition using artificial intelligence
US10657966B2 (en) Better resolution when referencing to concepts
JP7150770B2 (en) Interactive method, device, computer-readable storage medium, and program
US10929614B2 (en) Automated contextual dialog generation for cognitive conversation
US10803850B2 (en) Voice generation with predetermined emotion type
US20160379106A1 (en) Human-computer intelligence chatting method and device based on artificial intelligence
EP3522036B1 (en) Electronic device that provides a user based dictionary using semantic word embedding of user-specific words that are not learned in a neural network-based language model and a control method therefor
CN111737411A (en) Response method in man-machine conversation, conversation system and storage medium
US11749274B2 (en) Inference on date time constraint expressions
KR20210024861A (en) Electronic apparatus and method for providing conversation service
KR101751113B1 (en) Method for dialog management based on multi-user using memory capacity and apparatus for performing the method
US10713288B2 (en) Natural language content generator
CN111177307A (en) Test scheme and system based on semantic understanding similarity threshold configuration
WO2022017004A1 (en) Voice response systems based on personalized vocabulary and user profiling –personalized linguistics ai engines
US11531927B2 (en) Categorical data transformation and clustering for machine learning using natural language processing
KR102610999B1 (en) Method, device and system for providing search and recommendation service for video lectures based on artificial intelligence
CN113420136A (en) Dialogue method, system, electronic equipment, storage medium and program product
US11144727B2 (en) Evaluation framework for intent authoring processes
TW202324186A (en) Conversational agent counterfactual simulation
EP3552114A1 (en) Natural language content generator
US11288322B2 (en) Conversational agents over domain structured knowledge
CN114970494A (en) Comment generation method and device, electronic equipment and storage medium
CN111161706A (en) Interaction method, device, equipment and system
KR102601471B1 (en) Method, device and system for providing search and recommendation service for video lectures based on artificial intelligence
KR102650587B1 (en) Method, device and system for providing evaluation and matching solutions for contract brokers considering quantitative and qualitative criteria

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant