KR102274751B1 - 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템 - Google Patents
평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템 Download PDFInfo
- Publication number
- KR102274751B1 KR102274751B1 KR1020200112989A KR20200112989A KR102274751B1 KR 102274751 B1 KR102274751 B1 KR 102274751B1 KR 1020200112989 A KR1020200112989 A KR 1020200112989A KR 20200112989 A KR20200112989 A KR 20200112989A KR 102274751 B1 KR102274751 B1 KR 102274751B1
- Authority
- KR
- South Korea
- Prior art keywords
- evaluation
- user
- word
- accuracy
- pronunciation
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 317
- 238000000034 method Methods 0.000 claims description 45
- 238000009826 distribution Methods 0.000 claims description 26
- 239000013598 vector Substances 0.000 claims description 21
- 238000012935 Averaging Methods 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000013515 script Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000002699 waste material Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/69—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Computer Security & Cryptography (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Signal Processing (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 사용자 맞춤형 발음 평가 시스템에 관한 것으로서, 더욱 상세하게는 복수의 단어, 문장, 문단을 포함하는 발음 리스트를 사용자에게 제공하고, 사용자가 선택한 단어 또는 문장 또는 문단에 대한 사용자 발화음성을 입력받아 평가를 수행한 후, 사용자 발화음성에 대한 평가 결과를 사용자에게 제공하는 사용자 맞춤형 발음 평가 시스템에 관한 것이다.
Description
본 발명은 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템에 관한 것으로서, 더욱 상세하게는 복수의 단어, 문장, 문단을 포함하는 발음 리스트를 사용자에게 제공하고, 사용자가 선택한 단어 또는 문장 또는 문단에 대한 사용자 발화음성을 입력받아 평가를 수행한 후, 사용자 발화음성에 대한 평가 결과 정보를 사용자에게 제공하는 기술에 관한 것이다.
정보의 교류가 많아짐에 따라 현대 사회는 사람과 사람 사이의 커뮤니케이션이 이전보다 더욱 중요해졌다.
정보 통신 기술의 발전으로 인해 커뮤니케이션의 수단이 다양화되었으나, 사람의 음성을 전달하는 대화는 여전히 가장 중요한 커뮤니케이션 방법이다.
그리고, 음성을 이용하여 커뮤니케이션을 하는 경우에도 고려되어야 할 여러 가지 항목이 있으며, 이러한 고려 대상 항목 중 중요한 하나는 발음이다.
발음은 언어를 음성으로 표현한 것으로서, 언어의 종류 및 개인에 따라 발음의 특성에도 차이가 있다.
기본적으로 동일한 언어에 대한 발음 특성은 개인차를 고려하더라도 서로가 정확한 의사 전달이 가능하도록 표현되어야 한다.
그러나, 모든 사람이 언어 특성에 따른 정확한 발음을 구사하지는 못하며, 이러한 문제로 인하여 동일한 말을 여러번 반복해야 하거나, 잘못된 의사 전달이 되는 경우가 종종 발생한다.
이에 정확한 발음을 구사할 수 있도록 발음을 교정하는 다양한 방법이 제시되었으나, 대부분의 발음 교정 방법은 다수의 사람들로부터 발음이 정확하다고 평가받은 다른 사람의 발음을 따라하거나, 발음이 어려운 특정 단어나 문장을 반복하여 말하는 것과 같이 정량적으로 분석되지 않는 감각적인 방법이 대부분이었다.
즉, 발음이 정확하다고 평가받는 사람의 발음 특성을 모른 채 단순히 반복적인 따라하는 방법이 주로 이용되었다.
이러한 발음 교정 방법은 개인의 청취 능력이 선행되어야 할 뿐만 아니라, 다양한 발음에 대해 공통적으로 적용하기 어렵다는 문제가 있다.
한편, 최근 들어 인터넷의 발달과 교역량의 확대로 세계의 여러 나라 사람들을 만날 기회가 확대되었고, 특히 기업에서 외국인 바이어 등을 업무상으로 만날 일이 많아지면서 외국어에 대한 수요가 끊임없이 늘고 있다.
이와 같이, 외국인과 만날 일이 늘어나면서 종래 독해 위주의 외국어 교육과 달리 회화 중심의 외국어 교육이 각광받고 있다.
일반적으로 외국어 말하기 및 회화 학습 방법은 주로 어학 학원에 가서 외국인 강사에게 직접 배우는 것이다.
그러나, 학원에 가는 방법은 시간 제약과 비용에 관한 문제가 있고, 외국인 강사에게 직접 배우는 경우에도 피드백을 구하기가 쉽지 않다.
따라서, 시간과 비용 문제를 해결하고 적절한 피드백을 얻을 수 있는 외국어학습 방법이 있다면, 시간과 비용적인 측면에서 효율적일 것이다.
최근 들어 음성인식 기술의 발달과 더불어 이를 외국어 교육에 적용하려는 시도가 많이 이루어지고 있다.
이 중에서도 근래에 많이 시도되고 있는 방법은, 은닉 마르코프 모델(Hidden Markov Model, 이하 ‘HMM’이라 함)을 이용하는 방법이다.
이때, 음성인식 시스템에서는 주파수 차감법, 음원 분리 기술, 잡음 필터링 기술 등의 전처리 과정을 거친 음성 신호에 대하여 시스템에서 정의한 프레임 단위로 특징 벡터를 추출하고, 추출된 특징벡터를 이용하여 이후의 신호 처리를 하게 된다.
기존의 외국어 말하기 평가 방법 및 시스템은, HMM 인식기를 이용하여 평가하고자 하는 단위에 대한 정확도를 측정하는 것이 전부였다.
왜냐하면, 화자의 발음의 다른 요소(길이, 에너지, 억양, 강세 등)를 특징벡터에 반영하지 못하였기 때문이다.
즉, 단지 단순하게 문장을 따라 읽고 이에 대한 평가를 HMM 인식기를 통하여 얻은 결과를 토대로 평가하는 수준이었다.
그러나, 실질적으로 한국어와 달리 외국어에서 의미 전달의 중요한 축을 담당하는 것이 길이, 에너지, 억양, 강세 등의 요소이다.
예를 들어, 중국어에서는 억양과 관계있는 성조에 의해 그 의미가 완전히 바뀌기도 하고, 영어권 언어에서는 강세가 의미 전달에 있어서 중요한 부분을 담당한다.
현재 보편적으로 보급되고 있는 외국어 자동 발음 평가장치들의 경우에는 입력된 음성 신호에 대하여 전체 발음 평가점수만 제공하고 있었으며, 의미 차이를 가져다주는 최소 소리 단위인 음소 단위의 발음 학습 방식은 아닌 것이다.
따라서, 사용자에게는 제한적인 피드백 정보를 제공함으로써, 학습 효과를 증진시키는 데에는 한계가 있었다.
따라서 본 발명은 상기와 같은 종래 기술의 문제점을 감안하여 제안된 것으로서, 본 발명의 제1 목적은 복수의 단어, 문장, 문단을 포함하는 발음 리스트를 사용자에게 제공하고, 사용자가 선택한 단어 또는 문장 또는 문단에 대한 사용자 발화음성을 입력받아 평가를 수행한 후, 사용자 발화음성에 대한 평가 결과를 사용자에게 제공하는데 있다.
본 발명의 제2 목적은 발음 평가시, 음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성의 정확성을 평가하며, 음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성의 정확성과 유창성을 평가하는데 있다.
본 발명이 해결하고자 하는 과제를 달성하기 위하여, 사용자 맞춤형 발음 평가 시스템은,
시스템에 접속한 사용자를 인증하는 사용자 인증부(100)와;
복수의 단어, 문장, 문단을 포함하는 발음 리스트를 사용자에게 제공하고, 제공된 발음 리스트에 있는 단어, 문장, 문단 중 평가 받을 어느 하나를 사용자가 선택하도록 하는 발음 리스트 제공부(200)와;
사용자가 선택한 단어 또는 문장 또는 문단에 대한 사용자 발화음성을 입력받는 음성정보 입력부(300)와;
음성정보 입력부(300)를 통해 입력된 사용자 발화음성에 대해 평가를 수행하는 발음 평가부(400)와;
사용자 발화음성에 대한 평가 결과를 사용자에게 제공하는 평가정보 제공부(500);를 포함한다.
이상의 구성 및 작용을 지니는 본 발명에 따른 사용자 맞춤형 발음 평가 시스템을 통해, 복수의 단어, 문장, 문단을 포함하는 발음 리스트를 사용자에게 제공하고, 사용자가 선택한 단어 또는 문장 또는 문단에 대한 사용자 발화음성을 입력받으면, 입력된 사용자 발화음성에 대해 평가를 수행한 후, 사용자 발화음성에 대한 평가 결과를 사용자에게 제공하는 효과를 발휘하게 된다.
또한, 발음 평가시, 음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성의 정확성을 평가하며, 음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성의 정확성과 유창성을 평가함으로써, 취약 발음에 대한 피드백이 원활한 효과를 발휘하게 된다.
도 1은 본 발명의 사용자 맞춤형 발음 평가 시스템을 개략적으로 나타낸 전체 구성도.
도 2는 본 발명의 사용자 맞춤형 발음 평가 시스템의 발음 평가부(400) 블록도.
도 3은 본 발명의 사용자 맞춤형 발음 평가 시스템의 평가정보 제공부(500) 블록도.
도 4는 본 발명의 사용자 맞춤형 발음 평가 시스템의 제1 평가정보 제공부(510) 블록도.
도 5는 본 발명의 사용자 맞춤형 발음 평가 시스템의 제2 평가정보 제공부(520) 블록도.
도 6은 본 발명의 사용자 맞춤형 발음 평가 시스템의 사용자가 학습 단어 및 문장을 직접 추가 및 삭제할 수 있는 화면을 나타낸 도면.
도 7은 본 발명의 사용자 맞춤형 발음 평가 시스템에 의해 시간 구간별 특징 벡터, 강제 정렬, 로그 우도, 조정 점수, 음소별, 음절별, 단어별 정확성 평균 점수 예시도.
도 8은 본 발명의 사용자 맞춤형 발음 평가 시스템에 의해 처리된 유창성 항목별 수치 출력 화면 예시도.
도 9는 본 발명의 사용자 맞춤형 발음 평가 시스템에 의해 사용자 발화음성 신호로부터 로그 우도를 산출하는 예시도.
도 2는 본 발명의 사용자 맞춤형 발음 평가 시스템의 발음 평가부(400) 블록도.
도 3은 본 발명의 사용자 맞춤형 발음 평가 시스템의 평가정보 제공부(500) 블록도.
도 4는 본 발명의 사용자 맞춤형 발음 평가 시스템의 제1 평가정보 제공부(510) 블록도.
도 5는 본 발명의 사용자 맞춤형 발음 평가 시스템의 제2 평가정보 제공부(520) 블록도.
도 6은 본 발명의 사용자 맞춤형 발음 평가 시스템의 사용자가 학습 단어 및 문장을 직접 추가 및 삭제할 수 있는 화면을 나타낸 도면.
도 7은 본 발명의 사용자 맞춤형 발음 평가 시스템에 의해 시간 구간별 특징 벡터, 강제 정렬, 로그 우도, 조정 점수, 음소별, 음절별, 단어별 정확성 평균 점수 예시도.
도 8은 본 발명의 사용자 맞춤형 발음 평가 시스템에 의해 처리된 유창성 항목별 수치 출력 화면 예시도.
도 9는 본 발명의 사용자 맞춤형 발음 평가 시스템에 의해 사용자 발화음성 신호로부터 로그 우도를 산출하는 예시도.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만, 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다.
또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지 않을 수 있다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.
본 명세서에서, 포함하다 또는 구비하다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.
이하에서는, 본 발명에 의한 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템의 실시예를 통해 상세히 설명하도록 한다.
도 1은 본 발명의 사용자 맞춤형 발음 평가 시스템을 개략적으로 나타낸 전체 구성도이다.
도 1에 도시한 바와 같이, 본 발명은 음성정보 입력부를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성의 정확성을 평가하며, 음성정보 입력부를 통해 입력된 문단에 대한 사용자 발화음성의 정확성과 유창성을 평가함으로써, 취약 발음에 대한 피드백 효과를 제공한다.
기존 발음 평가 점수 산출 방법들의 공통점은 입력된 외국어 음성 신호를 전체적으로 평가한 점수를 제공하므로 음소별 점수를 제공하지 않아 사용자가 제한적인 피드백을 제공받게 된다.
반면에 본 발명은 입력된 발화음성에 대한 전체 발음 평가 점수만 제공하는 종래 기술의 문제점을 개선하여 단어 또는 문장에 대한 정확성 평가와 문단에 대한 정확성 및 유창성을 평가하여 취약 발음에 대한 평가 정보를 사용자에게 피드백하여 학습이 가능하도록 하는 것이다.
다음은 본 발명에 대하여 구체적으로 설명하도록 한다.
도 1에 도시한 바와 같이, 사용자 맞춤형 발음 평가 시스템(1000)은 크게, 사용자 인증부(100), 발음 리스트 제공부(200), 음성정보 입력부(300), 발음 평가부(400), 평가정보 제공부(500)를 포함하여 구성되게 된다.
구체적으로 설명하면, 상기 사용자 인증부(100)는 시스템에 접속한 사용자를 인증하는 기능을 수행하게 된다.
사용자가 사용자단말기(2000)를 이용하여 시스템에서 제공하는 맞춤형 발음 평가 서비스를 제공받기 위하여 인증 과정을 거치게 된다.
예를 들어, 아이디 및 비밀번호를 입력하거나, SNS 계정을 이용하여 접속하는 인증 과정을 거치는 것이며, 인증이 완료되면 서비스를 활성화하게 된다.
상기 발음 리스트 제공부(200)는 복수의 단어, 문장, 문단을 포함하는 발음 리스트를 사용자에게 제공하고, 제공된 발음 리스트에 있는 단어, 문장, 문단 중 평가 받을 어느 하나를 사용자가 선택하도록 하는 기능을 수행하게 된다.
복수의 단어, 문장, 문단을 포함하는 발음 리스트를 사용자에게 제공하게 되고, 사용자는 제공된 발음 리스트에 있는 단어, 문장, 문단 중 평가 받을 어느 하나를 선택하게 된다.
예를 들어, 'cat'이라는 단어를 선택하게 되면 이에 대한 발음 평가를 실시하게 되는 것이며, 'i am sure that it will work'라는 문장을 선택하게 되면 이에 대한 발음 평가를 실시하게 되는 것이다.
한편, 부가적인 양태에 따라, 사용자 맞춤형 발음 평가 시스템(1000)은 발음 리스트 제공부(200)가 제공하는 발음 리스트에 신규 단어, 문장, 문단을 사용자가 추가하거나, 발음 리스트에 포함된 기존 단어, 문장, 문단을 사용자가 삭제할 수 있도록 하는 리스트 갱신부(600)를 더 포함하여 구성할 수 있다.
예를 들어, 도 6에 도시한 바와 같이, cat , dog, i am sure that it will work, read, waste를 포함하는 기존 발음 리스트에 사용자가 신규 단어, 문장, 문단을 추가하거나 기존 발음 리스트에 있는 단어, 문장, 문단을 삭제할 수도 있다.
즉, 리스트 갱신부(600)를 구성함으로써, 시스템에서 제공하는 고정된 평가 단어, 문장, 문단에 대해 평가가 이루어지는 기존 자동 발음 평가 장치들과 달리 사용자가 직접 평가 단어, 문장, 문단을 추가하거나, 삭제하는 등의 수정 가능한 효과를 발휘하게 된다.
상기 음성정보 입력부(300)는 사용자가 선택한 단어 또는 문장 또는 문단에 대한 사용자 발화음성을 입력받는 기능을 수행하게 된다.
즉, 음성정보 입력부를 통해, 사용자가 선택한 단어 또는 문장 또는 문단에 대하여 발화하도록 발화 요청 메시지를 제공하게 되고, 사용자가 발화한 발화음성 정보를 획득하게 되는 것이다. 예를 들어, 'cat'이라는 단어에 해당하는 발화음성을 획득하게 된다.
상기 발음 평가부(400)는 음성정보 입력부(300)를 통해 입력된 사용자 발화음성에 대해 평가를 수행하는 기능을 수행하게 된다.
즉, 음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성의 정확성을 평가하거나, 음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성의 정확성과 유창성을 평가하게 되는 것이다.
이때, 특징적인 것은 종래 발음 평가장치와 달리, 단어 또는 문장의 경우에는 정확성을 평가하고, 문단의 경우에는 정확성 이외에 유창성도 평가하는 것이다.
상기 평가정보 제공부(500)는 사용자 발화음성에 대한 평가 결과를 사용자에게 제공하는 기능을 수행하게 되는데, 사용자가 선택한 단어 또는 문장에 대한 사용자 발화음성의 정확성 평가결과를 제공하거나, 사용자가 선택한 문단에 대한 사용자 발화음성의 정확성 및 유창성 평가결과를 제공하게 되는 것이다.
본 발명에서 핵심적 특징을 제공하는 상기 발음 평가부(400)와 평가정보 제공부(500)에 대한 구체적인 설명은 하기에서 도면을 참조하여 설명하도록 한다.
한편, 다른 부가적인 양태에 따라, 사용자 맞춤형 발음 평가 시스템(1000)은 사용자가 선택한 단어 또는 문장에 대한 원어민 발음이 포함된 영상 스크립트를 인터넷을 통해 수집하고, 수집된 영상 스크립트를 사용자에게 제공하여 선택된 단어 또는 문장의 원어민 발음을 사용자가 청취하여 학습할 수 있도록 하는 발음 학습부(700)를 더 포함하는 것을 특징으로 한다.
구체적으로, 발음 학습부(700)는 사용자가 선택한 단어 또는 문장에 대한 원어민 발음이 포함된 영상 스크립트를 인터넷을 통해 수집하게 되며, 수집된 영상 스크립트를 사용자에게 제공함으로써, 해당 단어나 문장에 대한 원어민 발음을 청취하면서 학습할 수 있도록 서비스를 제공하는 것이다.
상기와 같은 기능을 수행하기 위하여, 발음 학습부는 검색 엔진을 탑재할 수 있으며, 이를 통해 사용자가 선택한 단어 혹은 문장에 대한 영상 스크립트를 실시간으로 게더링하여 사용자에게 제공하게 되는 것이다.
또한, 영상 스크립트를 상영하기 위하여 통합 코덱을 탑재하여 어떠한 포맷이라도 상관없이 즉시 시청할 수 있도록 할 수도 있다.
도 2는 본 발명의 사용자 맞춤형 발음 평가 시스템의 발음 평가부(400) 블록도이다.
도 2에 도시한 바와 같이, 상기 발음 평가부(400)는,
음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성의 정확성을 평가하는 단어/문장 평가부(410)와,
음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성의 정확성과 유창성을 평가하는 문단 평가부(420)를 포함하는 것을 특징으로 한다.
상기 단어/문장 평가부(410)는 음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성의 정확성을 평가하는 기능을 수행하게 된다.
구체적으로 설명하면, 단어/문장 평가부(410)는,
단어에 대한 사용자 발화음성의 정확성 평가 시, 하기의 제1 과정을 통해 단어에 대한 사용자 발화음성의 정확성 평가를 수행하고, 문장에 대한 사용자 발화음성의 정확성 평가 시, 하기의 제2 과정을 통해 문장에 대한 사용자 발화음성의 정확성 평가를 수행하게 된다.
이때, 상기 제1 과정은,
단어에 대한 사용자 발화음성의 음성신호를 일정 시간 구간으로 나누고, 시간 구간별 특징벡터를 추출하고,
단어에 대한 사용자 발화음성의 음소들을 상기 일정 시간 구간별로 강제 정렬하고,
상기 시간 구간별 특징벡터와 시간 구간별로 강제 정렬된 음소들을 이용하여 시간 구간별 로그 우도를 계산하고,
시간 구간별 로그 우도를 시간 구간별 조정점수로 변환하고,
시간 구간별 조정점수를 평균 처리하여 음소별 정확성 평가 점수를 산출하고,
산출된 음소별 정확성 평가 점수를 평균 처리하여 음절별 정확성 평가 점수를 산출하고,
산출된 음절별 정확성 평가 점수를 평균 처리하여 단어에 대한 정확성 평가 점수를 산출하고,
정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리하고,
단어에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 단어 평가결과 정보를 생성하는 것을 특징으로 한다.
도 7에 도시한 바와 같이, 예를 들어 hayyp란 단어에 대한 사용자 발화음성의 음성신호를 일정 시간 구간으로 나누고, 시간 구간별 특징벡터를 추출하게 된다. 즉, 사용자 발화음성의 음성신호에 대하여 예를 들어 10ms 단위별로 시간 구간을 나누며, 각 시간 구간마다 음성신호에 대한 특징 벡터(MFCC)를 추출하는 것이다.
특징벡터를 추출하는 기법으로는 MFCC(Mel Frequency Cepstrum Coefficient) 파라미터가 많이 사용되고 있으며, 음성 인식 기술에서 널리 이용되고 있는 알고리즘이므로 구체적인 설명은 생략하도록 한다.
이때, 음성 특징 벡터를 추출하기 위한 시간 구간 단위는 10msec ~ 30msec 범위의 시간 단위인 것을 특징으로 하는데, 동질의 발음신호가 존재하는 시간 구간이 대략 25msec이고 발음 연쇄 정보가 음성 신호에 중첩적으로 드러난다는 점을 고려할때 25msec의 시간 구간 단위마다 10msec 단위로 전진하면서 음성 특징 벡터를 추출하는 것이 바람직하다.
이후, 단어에 대한 사용자 발화음성의 음소들을 상기 일정 시간 구간별로 강제 정렬하게 된다.
예를 들어, happy란 단어를 사용자가 발화한 경우,도 7에 도시된 바와 같이, 0 ~ 10ms(1구간)에 h 음소 발음, 10 ~ 20ms(2구간)에 h 음소 발음, 20 ~ 30ms(3구간)에 æ 음소 발음, 30 ~ 40ms(4구간)에 æ 음소 발음, 40 ~ 50ms(5구간)에 p 음소 발음, 50 ~ 60ms(6구간)에 p 음소 발음, 60 ~ 70ms(7구간)에 iy 음소 발음, 70 ~ 80ms(8구간)에 iy 음소 발음, 80 ~ 90ms(9구간)에 iy 음소 발음이 배열된다.
이후, 도 9에 도시한 바와 같이, 상기 시간 구간별 특징벡터와 시간 구간별로 강제 정렬된 음소들을 이용하여 시간 구간별 로그 우도를 계산하고, 계산된 시간 구간별 로그 우도를 시간 구간별 조정점수로 변환하게 된다.
이때, 상기 시간 구간별 로그 우도는 하기 수학식 1에 의해 계산되고, 상기 시간 구간별 조정점수는 하기 수학식 2에 의해 계산된다.
계산된 조정점수가 0 미만인 경우는 조정점수를 0으로, 계산된 조정점수가 100을 초과하는 경우는 조정점수를 100으로 하는 것을 특징으로 한다.
(oi 는 i번째 시간구간의 특징 벡터, qi는 강제 정렬된 i번째 시간구간의 음소, 는 i번째 시간구간에서 oi 가 qi 에서 나올 확률, 은 i번째 시간구간의 음소의 원어민 로그우도 분포 중 하위로부터 25%에 위치한 로그 우도 값, 는 i번째 시간구간의 음소의 원어민 로그우도 분포 중 하위로부터 75%에 위치한 로그 우도 값, 은 i번째 시간구간의 음소의 원어민 로그우도 분포 중 최하위에 위치한 로그 우도 값, C 는 임의 조절 파라미터 값)
구체적으로 설명하면, 도 7에 도시한 바와 같이, 사용자 발화음성의 음성신호로부터 시간 구간별 로그 우도를 수학식 1에 의거하여 산출하게 된다.
로그 우도란 특정 시간구간에 있는 발화자의 특징 벡터가 해당 시간구간의 음소에서 나올 확률의 로그 값이다.
이때, 시간 구간별 조정 점수는 수학식 2에 의거하여 산출하게 되는데, 이는 원어민 로그 우도를 반영하여 조정한 점수인 것을 특징으로 한다.
조정 점수를 산출하는 이유는 수학식 1에 의해 산출된 로그 우도값은 0보다 적은 음의 값을 갖는다. 평가정보를 생성하기 위해서는 음의 값을 갖는 로그 우도값은 평가 점수 산출에 적절치 않다. 따라서 음의 값이 아닌 조정 점수를 산출할 필요가 있다.
특히, 조정 점수 산출 시, 원어민의 로그 우도가 반영되어야 정확한 발화자의 음성 평가가 이루어 질 수 있으며, 본 발명에서는 상기 수학식 2를 통해 원어민의 로그 우도가 반영된 조정 점수를 산출하게 된다.
조정 점수 산출 시, 원어민의 로그 우도를 반영하기 위해, 평가 시스템은 사전에 음소별 원어민 로그 우도 분포에 대한 통계 정보를 생성하여 관리하게 된다.
구체적으로 설명하면, 다양한 단어, 문장, 문단에 대한 원어민 음성 정보를 수집 저장하고, 수집 저장된 다양한 단어, 문장, 문단에 대한 원어민 음성 정보들 각각을 시간 구간별로 강제 정렬 후 시간 구간별 특징 벡터를 추출하고, 음소별 원어민 로그 우도(특정 시간 구간에 있는 특징 벡터가 해당 특정 시간 구간의 음소에서 나타날 확률에 대한 로그값) 분포에 대한 통계정보를 생성하여 저장 관리하는 것이다.
상기 수학식 2에 대해 도 7을 예를 들어 상세히 설명한다.
happy란 단어를 사용자가 발화한 경우, 도 7에 도시된 바와 같이, 0 ~ 10ms(1구간)에 h 음소, 10 ~ 20ms(2구간)에 h 음소, 20 ~ 30ms(3구간)에 æ 음소, 30 ~ 40ms(4구간)에 æ 음소, 40 ~ 50ms(5구간)에 p 음소, 50 ~ 60ms(6구간)에 p 음소, 60 ~ 70ms(7구간)에 iy 음소, 70 ~ 80ms(8구간)에 iy 음소, 80 ~ 90ms(9구간)에 iy 음소가 시간 구간별로 정렬된다.
각 시간 구간별 음소들의 로그 우도값이 계산된다. 예를 들어 30 ~ 40ms(4구간)의 음소 æ에 대해 수학식 1에 의해 로그 우도값 -20.1이 계산된다.
다음으로 동일 시간 구간인 30 ~ 40ms(4구간)의 음소 æ에 대해 수학식 2에 의해 조정점수 41이 계산되는데 아래와 같은 과정을 통해 계산된다.
happy란 단어에 대한 외국인들의 로그우도 분포에 대한 통계 정보는 상술한 바와 같이 사전에 시스템에 저장되어 있다. happy란 단어에 대한 외국인들의 로그우도 분포에 대한 통계 정보란 happy란 단어를 다수의 외국인들이 발음하는 경우 각 음소별 로그 우도값에 대한 분포 정보이다.
즉, 상기 happy란 단어를 다수의 외국인이 발음하는 경우 각 음소별 로그 우도값에 대한 분포 정보는 happy란 단어를 다수의 외국인들이 발음하는 경우 0 ~ 10ms(1구간)에 h 음소에 대한 로그 우도 분포, 10 ~ 20ms(2구간)에 h 음소에 대한 로그 우도 분포, 20 ~ 30ms(3구간)에 æ 음소에 대한 로그 우도 분포, 30 ~ 40ms(4구간)에 æ 음소에 대한 로그 우도 분포, 40 ~ 50ms(5구간)에 p 음소에 대한 로그 우도 분포, 50 ~ 60ms(6구간)에 p 음소에 대한 로그 우도 분포, 60 ~ 70ms(7구간)에 iy 음소에 대한 로그 우도 분포, 70 ~ 80ms(8구간)에 iy 음소에 대한 로그 우도 분포, 80 ~ 90ms(9구간)에 iy 음소에 대한 로그 우도 분포를 포함하는 정보이다.
따라서 시간 구간 30 ~ 40ms(4구간)의 음소 æ에 대해 외국인 로그 우도 분포를 이용해 , , 구하고, , , 를 상기 수학식 2에 대입해 시간 구간 30 ~ 40ms(4구간)의 음소 æ의 조정점수 41을 산출하게 되는 것이다.
상기 은 시간 구간 30 ~ 40ms(4구간)의 음소 æ의 외국인 로그 우도 분포 중 하위로부터 25%에 위치한 로그 우도 값이고, 는 30 ~ 40ms(4구간)의 음소 æ의 외국인 로그 우도 분포 중 하위로부터 75%에 위치한 로그 우도 값이고, 은 30 ~ 40ms(4구간)의 음소 æ의 외국인 로그 우도 분포 중 최하위에 위치한 로그 우도 값이다.
상술한 바와 같이, 원어민의 로그 우도가 반영된 조정 점수를 산출하는 상기 수학식 2가 본 발명의 핵심적 특징중 하나이다.
계산된 조정점수가 0 미만인 경우는 조정점수를 0으로, 계산된 조정점수가 100을 초과하는 경우는 조정점수를 100으로 하는 것을 특징으로 한다.
이는 0점 ~ 100점 점수로 환산되는 방식이기 때문에 조정점수가 0 미만일 경우에 0으로 조정해야 하는 것이고, 100을 초과할 경우에는 100으로 조정해야 하는 것이다.
예를 들어, 도 7에서 5구간 내지 8구간의 경우가 100을 초과하는 구간이기 때문에 100으로 조정점수를 반영한 것이다.
도 7에 도시한 바와 같이, 산출된 시간 구간별 조정점수를 평균 처리하여 음소별 정확성 평가 점수를 산출하게 된다.
예를 들어, 1구간 조정점수 - 96점, 2구간 조정점수 - 86점, 3구간 조정점수 - 100점, 4구간 조정점수 - 41점, 5구간 조정점수 - 100점, 6구간 조정점수 - 100점, 7구간 조정점수 - 100점, 8구간 조정점수 - 100점, 9구간 조정점수 - 79점으로 산출되었다면, h 음소의 정확성 평균 점수 - 91점, æ 음소의 정확성 평균 점수 - 71점, p 음소의 정확성 평균 점수 - 100점, iy 음소의 정확성 평균 점수 - 93점으로 산출하게 된다.
그리고, 산출된 음소별 정확성 평가 점수를 평균 처리하여 음절별 정확성 평가 점수를 산출하게 된다.
예를 들어, happy란 단어의 ha 음절의 정확성 평균 점수는 81점, ppy 음절의 정확성 평균 점수는 96.5점로 산출하게 된다.
그리고 산출된 음절별 정확성 평가 점수를 평균 처리하여 단어에 대한 정확성 평가 점수를 산출하게 된다. 예를 들어, happy란 단어의 정확성 평균 점수는 88.75점가 되는 것이다.
그리고 정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리한다. 예를 들어, happy란 단어의 음절 중 ha라 음절의 평가점수가 설정치 이하인 경우 도 7과 같이 happy란 단어의 ha 부분에 특정 색을 매핑 처리하는 것이다.
그리고 단어에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 단어 평가결과 정보를 생성한다.
즉, 상기 단어 평가결과 정보는 평가 의뢰자가 자신의 발화 단어에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 확인할 수 있도록 하는 것이다.
문장에 대한 사용자 발화음성의 정확성 평가 시, 하기의 제2 과정을 통해 문장에 대한 사용자 발화음성의 정확성 평가를 수행하게 된다.
이때, 상기 제2 과정은,
상기 제1 과정을 이용해 문장을 구성하는 단어별 정확성 평가 점수를 산출하고,
산출된 단어별 정확성 평가 점수를 평균 처리하여 문장에 대한 정확성 평가 점수를 산출하고,
정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리하고,
문장을 구성하는 단어들의 평가 점수와 문장에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 문장 평가결과 정보를 생성하는 것을 특징으로 한다.
즉, 단어들로 이루어진 문장에 대한 발화음성의 정확성을 평가하는 것인데, 먼저 상술한 제1 과정을 이용해 문장을 구성하는 단어의 음소별/음절별/단어별 정확성 평가 점수를 산출하게 된다.
예를 들어, i am hayyp란 문장의 경우, i의 정확성 평가 점수가 90 점, am의 정확성 평가 점수가 90 점, happy의 정확성 평가 점수가 88.75 점일 경우에 문장에 대한 정확성 평가 점수는 89.58점이 되는 것이다.
그리고 정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리한다. 예를 들어, i am hayyp란 문장의 happy란 단어의 음절 중 ha라 음절의 평가점수가 설정치 이하인 경우 도 7과 같이 happy란 단어의 ha 부분에 특정 색을 매핑 처리하는 것이다.
그리고 문장을 구성하는 단어들의 평가 점수와 문장에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 단어 평가결과 정보를 생성한다.
즉, 상기 문장 평가결과 정보는 평가 의뢰자가 자신의 발화 문장에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 확인할 수 있도록 하는 것이다.
상기 문단 평가부(420)는 음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성의 정확성과 유창성을 평가하는 기능을 수행하게 된다.
즉, 문단일 경우에는 사용자 발화음성의 정확성 뿐만 아니라, 유창성까지 평가하게 되는 것이다.
구체적으로 설명하면, 상기 문단 평가부(420)는,
문단에 대한 사용자 발화음성의 정확성 평가 시, 하기의 제3 과정을 통해 문단에 대한 사용자 발화음성의 정확성 평가를 수행하게 된다.
즉, 상기 제3 과정은,
상기 제1 과정을 이용해 문장을 구성하는 단어별 정확성 평가 점수를 산출하고,
산출된 단어별 정확성 평가 점수를 평균 처리하여 문장별 정확성 평가 점수를 산출하고,
산출된 문장별 정확성 평가 점수를 평균 처리하여 문단에 대한 정확성 평가 점수를 산출하고,
정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리하고,
단어별 평가 점수와 문장별 평가점수와 문단에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 문단 평가결과 정보를 생성하는 것을 특징으로 한다.
즉, 복수의 문장들로 이루어진 문단에 대한 발화음성의 정확성을 평가하는 것인데, 먼저 상술한 제1 과정을 이용해 문장을 구성하는 단어의 음소별/음절별/단어별 정확성 평가 점수를 산출하게 된다.
예를 들어, i am hayyp란 문장의 경우, i의 정확성 평가 점수가 90 점, am의 정확성 평가 점수가 90 점, happy의 정확성 평가 점수가 88.75 점일 경우에 문장에 대한 정확성 평가 점수는 89.58점이 되는 것이다.
그리고 문단을 구성하는 복수의 문장별 정확성 평가 점수를 평균 처리하여 문단에 대한 정확성 평가 점수를 산출한다.
그리고 정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리한다. 예를 들어, i am hayyp란 문장의 happy란 단어의 음절 중 ha라 음절의 평가점수가 설정치 이하인 경우 도 7과 같이 happy란 단어의 ha 부분에 특정 색을 매핑 처리하는 것이다.
그리고 단어별 평가 점수와 문장별 평가점수와 문단에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 문단 평가결과 정보를 생성한다.
즉, 상기 문단 평가결과 정보는 평가 의뢰자가 자신의 발화 문단에 대한 단어별/문장별 평가 점수와 특정 색이 매핑된 음절 정보를 확인할 수 있도록 하는 것이다.
한편, 상기 문단 평가부(420)는,
사용자 발화음성에 대한 유창성 평가 항목별 점수를 산출하여 문단에 대한 사용자 발화음성의 유창성을 평가한다.
상기 유창성 평가 항목은 발화 총 길이(단위 초), 휴지 구간을 제외한 발화 총 길이(단위 초), 발화 속도, 발화 음절 총 갯수, 발화 단어 총 갯수, 정확히 발화한 음절 개수, 정확히 발화한 단어 개수, 휴지구간 총 개수, 휴지 구간 총 길이(단위 초), 휴지구간 사이에 발화한 음절 평균 개수를 포함하는 것을 특징으로 한다.
즉, 문단에 대한 사용자 발화음성에 대한 유창성 평가 항목별 점수를 산출하여 문단에 대한 사용자 발화음성의 유창성을 평가하게 되는 것이다.
문단을 발화한 뒤, 발화 길이, 발화 속도, 휴지 구간 정보 등 유창성 평가에 사용되는 항목별 수치를 파악할 수 있게 되는데, 도 8에 도시한 바와 같이, 발화 총길이(단위 초, duration), 휴지 구간 제외한 발화 총 길이(단위 초, Articulation), 발화 속도(Speech Rate), 발화 음절 총 갯수(Syllable Count), 발화 단어 총 갯수(Word Count), 정확히 발화한 음절 개수(Correct Syllable Count), 정확히 발화한 단어 개수Correct Word Count), 휴지구간 총 개수(All Pause Count), 휴지 구간 총 길이(단위 초, All Pause duration), 휴지구간 사이에 발화한 음절 평균 개수(Mean Length Run) 등과 같은 항목별 수치를 통해 유창성을 확인할 수 있게 된다.
이때, 상기 유창성 지표 항목으로부터 각종 공인 언어 말하기 시험의 평가 기준을 적용하여 공인 시험 성적을 예측해 볼 수 있게 되는 것이다.
상기 평가정보 제공부(500)는 사용자 발화음성에 대한 평가 결과를 사용자에게 제공하기 위한 기능을 수행하게 된다.
상기와 같은 기능을 수행하기 위하여, 도 3에 도시한 바와 같이, 상기 평가정보 제공부(500)는,
사용자가 선택한 단어 또는 문장에 대한 사용자 발화음성의 정확성 평가결과를 제공하는 제1 평가정보 제공부(510)와,
사용자가 선택한 문단에 대한 사용자 발화음성의 정확성 및 유창성 평가결과를 제공하는 제2 평가정보 제공부(520)를 포함하는 것을 특징으로 한다.
구체적으로 설명하면, 제1 평가정보 제공부는 사용자가 선택한 단어 또는 문장에 대한 사용자 발화음성의 정확성 평가결과를 제공하기 위한 구성이고, 제2 평가정보 제공부(520)는 사용자가 선택한 문단에 대한 사용자 발화음성의 정확성 및 유창성 평가결과를 제공하기 위한 구성이다.
도 4에 도시한 바와 같이, 상기 제1 평가정보 제공부(510)는 제1 시각정보 출력부(511), 제1 음성정보 출력부(512), 정확성 평가점수 제공부(513)를 포함하여 구성되게 되며, 이를 통해, 시각적, 청각적으로 사용자가 단어 혹은 문장에 대한 정확도를 확인할 수 있게 되는 것이다.
구체적으로, 상기 제1 평가정보 제공부(510)는,
사용자가 선택한 단어 또는 문장을 화면에 표시하되, 발음 평가부(400)의 평가결과를 이용하여 정확하게 발음되지 않은 음절들이 특정 색으로 표시되도록 하는 제1 시각정보 출력부(511)와,
화면에 구비된 재생버튼 선택 시, 음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성을 출력하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 사용자 발화음성을 출력하는 제1 음성정보 출력부(512)와,
발음 평가부(400)의 평가결과를 이용하여 화면에 표시된 단어 또는 문장에 평가 점수를 표시하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하는 제1 정확성 평가점수 제공부(513)를 포함하는 것을 특징으로 한다.
상기 제1 시각정보 출력부(511)는 사용자가 발음 리스트에서 선택한 단어 또는 문장을 화면에 시각적으로 표시하게 되는데, 예를 들어, 'i am happy'를 선택할 경우에 이를 화면에 시각적으로 표시한다.
또한, 제1 시각정보 출력부(511)는 발음 평가부(400)의 평가결과를 이용하여 정확하게 발음되지 않은 음절들이 특정 색으로 표시되도록 한다.
예를 들어, 화면에 표시된 단어인 happy의 음절 중 ha가 정확하게 발음되지 않은 음절(평가점수가 설정치 이하인 경우)인 경우 ha가 특정 색으로 표시되도록 하는 것이다. 이는 사용자에게 정확하게 발음되지 않은 단어 또는 음절을 직관적으로 인지할 수 있도록 하는 것이다.
상기 제1 음성정보 출력부(512)는 화면에 구비된 재생버튼 선택 시, 음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성을 출력하게 된다. 즉, 자신이 발화한 음성을 청취할 수 있게 되는 것이다.
그리고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 사용자 발화음성을 출력하는데, 예를 들어, 'i am happy'에서 'happy'를 선택하게 되면 해당 단어에 대한 사용자의 발화 음성을 출력시켜 자신의 발화 음성을 직접 청취할 수 있게 되는 것이다.
상기 제1 정확성 평가점수 제공부(513)는 상기 발음 평가부(400)의 평가결과를 이용하여 단어 또는 문단에 대한 평가 점수를 표시하게 된다.
예를 들어, ' happy'란 단어 또는 'i am happy'란 문장에 대한 평가 점수인 87.5점이라는 평가 점수를 표시하게 되는 것이다.
또한, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하는데, 도 7에 도시한 바와 같이, 'happy'에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하는 것이다.
한편, 도 5에 도시한 바와 같이, 상기 제2 평가정보 제공부(520)는 제2 시각정보 출력부(521), 제2 음성정보 출력부(522), 제2 정확성 평가점수 제공부(523), 유창성 평가점수 제공부(524)를 포함하여 구성되는 것을 특징으로 한다.
구체적으로, 제2 평가정보 제공부(520)는,
사용자가 선택한 문단을 화면에 표시하되, 발음 평가부(400)의 평가결과를 이용하여 정확하게 발음되지 않은 음절들이 특정 색으로 표시되도록 하는 제2 시각정보 출력부(521)와,
화면에 구비된 재생버튼 선택 시, 음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성을 출력하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 사용자 발화음성을 출력하는 제2 음성정보 출력부(522)와,
발음 평가부(400)의 평가결과를 이용하여 화면에 표시된 문단에 평가 점수를 표시하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하는 제2 정확성 평가점수 제공부(523)와,
발음 평가부(400)의 평가결과를 이용하여 사용자 발화음성에 대한 유창성 평가 항목별 점수를 표시하는 유창성 평가점수 제공부(524)를 포함하는 것을 특징으로 한다.
상기의 구성은 사용자가 선택한 문단에 대한 정확성과 유창성을 평가한 결과를 사용자에게 제공하는 구성이다.
상기 제2 시각정보 출력부(521)는 사용자가 발음 리스트에서 선택한 문단을 화면에 시각적으로 표시하게 되는데, 예를 들어, 도 8에 도시한 바와 같이, 'your time limited, so don't waste it living someone ... '이라는 문단를 화면에 시각적으로 표시한다.
또한, 제1 시각정보 출력부(511)는 발음 평가부(400)의 평가결과를 이용하여 정확하게 발음되지 않은 음절들이 특정 색으로 표시되도록 한다.
예를 들어, 화면에 표시된 문단속 단어인 waste의 음절 중 ste가 정확하게 발음되지 않은 음절(평가점수가 설정치 이하인 경우)인 경우 ste가 특정 색으로 표시되도록 하는 것이다. 이는 사용자에게 정확하게 발음되지 않은 단어 또는 음절을 직관적으로 인지할 수 있도록 하는 것이다.
상기 제2 음성정보 출력부(522)는 화면에 구비된 재생버튼 선택 시, 음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성을 출력하게 된다. 즉, 자신이 발화한 음성을 청취할 수 있게 되는 것이다.
예를 들어, 'your time limited, so don't waste it living someone ... '이라는 문단에 대한 사용자의 발화음성을 출력하게 되는 것이다.
상기 제2 정확성 평가점수 제공부(523)는 발음 평가부(400)의 평가결과를 이용하여 화면에 표시된 문단에 평가 점수를 표시하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하게 된다.
예를 들어, 'your time limited, so don't waste it living someone ... '이라는 문단에 대한 평가 점수인 87.5점이라는 평가 점수를 표시하게 되는 것이다.
또한, 화면에 표시된 문단속 특정 단어 선택 시, 선택된 특정 단어에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하는데, 도 7에 도시한 바와 같이, 특정 단어 'happy'에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하는 것이다.
상기 유창성 평가점수 제공부(524)는 발음 평가부(400)의 평가결과를 이용하여 사용자 발화음성에 대한 유창성 평가 항목별 점수를 표시하는 기능을 수행하게 된다.
예를 들어, 도 8에 도시한 바와 같이, 발화 총길이(단위 초, duration)는 7.84점, 휴지 구간 제외한 발화 총 길이(단위 초, Articulation)는 1.03점, 발화 속도(Speech Rate)는 4.86점, 발화 음절 총 갯수(Syllable Count)는 38점, 발화 단어 총 갯수(Word Count)는 27점, 정확히 발화한 음절 개수(Correct Syllable Count)는 36점, 정확히 발화한 단어 개수(Correct Word Count)는 26점, 휴지구간 총 개수(All Pause Count)는 3점, 휴지 구간 총 길이(단위 초, All Pause duration)는 0.75점, 휴지구간 사이에 발화한 음절 평균 개수(Mean Length Run)는 13점 등과 같은 항목별 점수를 표시하게 되는 것이다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
100 : 사용자 인증부
200 : 발음 리스트 제공부
300 : 음성정보 입력부
400 : 발음 평가부
500 : 평가정보 제공부
600 : 리스트 갱신부
700 : 발음 학습부
200 : 발음 리스트 제공부
300 : 음성정보 입력부
400 : 발음 평가부
500 : 평가정보 제공부
600 : 리스트 갱신부
700 : 발음 학습부
Claims (11)
- 평가정보를 제공하는 사용자 맞춤형 외국어 발음 평가 시스템에 있어서,
시스템에 접속한 사용자를 인증하는 사용자 인증부(100)와;
복수의 단어, 문장, 문단을 포함하는 발음 리스트를 사용자에게 제공하고, 제공된 발음 리스트에 있는 단어, 문장, 문단 중 평가 받을 어느 하나를 사용자가 선택하도록 하는 발음 리스트 제공부(200)와;
사용자가 선택한 단어 또는 문장 또는 문단에 대한 사용자 발화음성을 입력받는 음성정보 입력부(300)와;
음성정보 입력부(300)를 통해 입력된 사용자 발화음성에 대해 평가를 수행하는 발음 평가부(400)와;
사용자 발화음성에 대한 평가 결과를 사용자에게 제공하는 평가정보 제공부(500);를 포함하되,
상기 발음 평가부(400)는,
음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성의 정확성을 평가하는 단어/문장 평가부(410)를 포함하고,
상기 단어/문장 평가부(410)는,
단어에 대한 사용자 발화음성의 정확성 평가 시, 하기의 제1 과정을 통해 단어에 대한 사용자 발화음성의 정확성 평가를 수행하되,
상기 제1 과정은,
단어에 대한 사용자 발화음성의 음성신호를 일정 시간 구간으로 나누고, 시간 구간별 특징벡터를 추출하고,
단어에 대한 사용자 발화음성의 음소들을 상기 일정 시간 구간별로 강제 정렬하고,
상기 시간 구간별 특징벡터와 시간 구간별로 강제 정렬된 음소들을 이용하여 시간 구간별 로그 우도를 계산하고,
시간 구간별 로그 우도를 시간 구간별 조정점수로 변환하고,
시간 구간별 조정점수를 평균 처리하여 음소별 정확성 평가 점수를 산출하고,
산출된 음소별 정확성 평가 점수를 평균 처리하여 음절별 정확성 평가 점수를 산출하고,
산출된 음절별 정확성 평가 점수를 평균 처리하여 단어에 대한 정확성 평가 점수를 산출하고,
정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리하고,
단어에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 단어 평가결과 정보를 생성하는 것을 특징으로 하고,
상기 시간 구간별 로그 우도는 하기 수학식 1에 의해 계산되고, 상기 시간 구간별 조정점수는 하기 수학식 2에 의해 계산되되,
계산된 조정점수가 0 미만인 경우는 조정점수를 0으로, 계산된 조정점수가 100을 초과하는 경우는 조정점수를 100으로 하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
수학식 1 :
수학식 2 : ,
(oi 는 i번째 시간구간의 특징 벡터, qi는 강제 정렬된 i번째 시간구간의 음소, 는 i번째 시간구간에서 oi 가 qi 에서 나올 확률, 은 i번째 시간구간의 음소의 원어민 로그우도 분포 중 하위로부터 25%에 위치한 로그 우도 값, 는 i번째 시간구간의 음소의 원어민 로그우도 분포 중 하위로부터 75%에 위치한 로그 우도 값, 은 i번째 시간구간의 음소의 원어민 로그우도 분포 중 최하위에 위치한 로그 우도 값, C 는 임의 조절 파라미터 값)
- 제 1항에 있어서,
상기 발음 평가부(400)는,
음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성의 정확성과 유창성을 평가하는 문단 평가부(420)를 더 포함하고,
상기 문단 평가부(420)는,
문단에 대한 사용자 발화음성의 정확성 평가 시, 하기의 제3 과정을 통해 문단에 대한 사용자 발화음성의 정확성 평가를 수행하되,
상기 제3 과정은,
하기의 제3-1 과정을 이용해 단어별 정확성 평가 점수를 산출하고,
산출된 단어별 정확성 평가 점수를 평균 처리하여 문장별 정확성 평가 점수를 산출하고,
산출된 문장별 정확성 평가 점수를 평균 처리하여 문단에 대한 정확성 평가 점수를 산출하고,
정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리하고,
단어별 평가 점수와 문장별 평가점수와 문단에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 문단 평가결과 정보를 생성하는 것을 특징으로 하고,
상기 제3-1 과정은,
단어에 대한 사용자 발화음성의 음성신호를 일정 시간 구간으로 나누고, 시간 구간별 특징벡터를 추출하고,
단어에 대한 사용자 발화음성의 음소들을 상기 일정 시간 구간별로 강제 정렬하고,
상기 시간 구간별 특징벡터와 시간 구간별로 강제 정렬된 음소들을 이용하여 상기 수학식 1에 의해 시간 구간별 로그 우도를 계산하고,
시간 구간별 로그 우도를 상기 수학식 2에 의해 시간 구간별 조정점수로 변환하고,
시간 구간별 조정점수를 평균 처리하여 음소별 정확성 평가 점수를 산출하고,
산출된 음소별 정확성 평가 점수를 평균 처리하여 음절별 정확성 평가 점수를 산출하고,
산출된 음절별 정확성 평가 점수를 평균 처리하여 단어에 대한 정확성 평가 점수를 산출하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
- 제 1항에 있어서,
상기 단어/문장 평가부(410)는,
문장에 대한 사용자 발화음성의 정확성 평가 시, 하기의 제2 과정을 통해 문장에 대한 사용자 발화음성의 정확성 평가를 수행하되,
상기 제2 과정은,
상기 제1 과정을 이용해 문장을 구성하는 단어별 정확성 평가 점수를 산출하고,
산출된 단어별 정확성 평가 점수를 평균 처리하여 문장에 대한 정확성 평가 점수를 산출하고,
정확성 평가 점수가 설정치 이하인 음절에 특정 색을 매핑 처리하고,
문장을 구성하는 단어들의 평가 점수와 문장에 대한 평가 점수와 특정 색이 매핑된 음절 정보를 포함하는 문장 평가결과 정보를 생성하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
- 삭제
- 제 2항에 있어서,
상기 문단 평가부(420)는,
사용자 발화음성에 대한 유창성 평가 항목별 점수를 산출하여 문단에 대한 사용자 발화음성의 유창성을 평가하되,
상기 유창성 평가 항목은 발화 총 길이(단위 초), 휴지 구간을 제외한 발화 총 길이(단위 초), 발화 속도, 발화 음절 총 갯수, 발화 단어 총 갯수, 정확히 발화한 음절 개수, 정확히 발화한 단어 개수, 휴지구간 총 개수, 휴지 구간 총 길이(단위 초), 휴지구간 사이에 발화한 음절 평균 개수를 포함하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
- 삭제
- 제 1항에 있어서,
상기 평가정보 제공부(500)는,
사용자가 선택한 단어 또는 문장에 대한 사용자 발화음성의 정확성 평가결과를 제공하는 제1 평가정보 제공부(510)와,
사용자가 선택한 문단에 대한 사용자 발화음성의 정확성 및 유창성 평가결과를 제공하는 제2 평가정보 제공부(520)를 포함하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
- 제 7항에 있어서,
상기 제1 평가정보 제공부(510)는,
사용자가 선택한 단어 또는 문장을 화면에 표시하되, 발음 평가부(400)의 평가결과를 이용하여 정확하게 발음되지 않은 음절들이 특정 색으로 표시되도록 하는 제1 시각정보 출력부(511)와,
화면에 구비된 재생버튼 선택 시, 음성정보 입력부(300)를 통해 입력된 단어 또는 문장에 대한 사용자 발화음성을 출력하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 사용자 발화음성을 출력하는 제1 음성정보 출력부(512)와,
발음 평가부(400)의 평가결과를 이용하여 화면에 표시된 단어 또는 문장에 평가 점수를 표시하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하는 제1 정확성 평가점수 제공부(513)를 포함하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
- 제 7항에 있어서,
상기 제2 평가정보 제공부(520)는,
사용자가 선택한 문단을 화면에 표시하되, 발음 평가부(400)의 평가결과를 이용하여 정확하게 발음되지 않은 음절들이 특정 색으로 표시되도록 하는 제2 시각정보 출력부(521)와,
화면에 구비된 재생버튼 선택 시, 음성정보 입력부(300)를 통해 입력된 문단에 대한 사용자 발화음성을 출력하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 사용자 발화음성을 출력하는 제2 음성정보 출력부(522)와,
발음 평가부(400)의 평가결과를 이용하여 화면에 표시된 문단에 평가 점수를 표시하고, 화면에 표시된 특정 단어 선택 시, 선택된 특정 단어에 대한 음소 평가점수, 음절 평가점수, 단어 평가점수를 표시하는 제2 정확성 평가점수 제공부(523)와,
발음 평가부(400)의 평가결과를 이용하여 사용자 발화음성에 대한 유창성 평가 항목별 점수를 표시하는 유창성 평가점수 제공부(524)를 포함하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
- 제 1항에 있어서,
발음 리스트 제공부(200)가 제공하는 발음 리스트에 신규 단어, 문장, 문단을 사용자가 추가하거나, 발음 리스트에 포함된 기존 단어, 문장, 문단을 사용자가 삭제할 수 있도록 하는 리스트 갱신부(600)를 더 포함하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
- 제 1항에 있어서,
사용자가 선택한 단어 또는 문장에 대한 원어민 발음이 포함된 영상 스크립트를 인터넷을 통해 수집하고, 수집된 영상 스크립트를 사용자에게 제공하여 선택된 단어 또는 문장의 원어민 발음을 사용자가 청취하여 학습할 수 있도록 하는 발음 학습부(700)를 더 포함하는 것을 특징으로 하는 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200112989A KR102274751B1 (ko) | 2020-09-04 | 2020-09-04 | 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200112989A KR102274751B1 (ko) | 2020-09-04 | 2020-09-04 | 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR102274751B1 true KR102274751B1 (ko) | 2021-07-08 |
KR102274751B9 KR102274751B9 (ko) | 2022-06-10 |
Family
ID=76893512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200112989A KR102274751B1 (ko) | 2020-09-04 | 2020-09-04 | 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102274751B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024147461A1 (ko) * | 2023-01-03 | 2024-07-11 | 주식회사 한글과컴퓨터 | 발음 평가용 문장에 기초하여 발음 평가를 수행할 수 있도록 지원하는 전자 장치 및 그 동작 방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100733469B1 (ko) | 2004-01-08 | 2007-06-29 | 정보통신연구진흥원 | 외국어 발음 평가 시스템 및 외국어 발음 평가 방법 |
KR20120038686A (ko) * | 2010-10-14 | 2012-04-24 | 에스케이텔레콤 주식회사 | 단말기의 어학 어플리케이션을 통한 학습 평가 방법 및 시스템 |
KR101609473B1 (ko) * | 2014-10-14 | 2016-04-05 | 충북대학교 산학협력단 | 영어 말하기 시험의 유창성 평가 시스템 및 방법 |
JP2016090900A (ja) * | 2014-11-07 | 2016-05-23 | パナソニック株式会社 | 発話評価装置、発話評価方法及びプログラム |
KR20160111292A (ko) * | 2015-03-16 | 2016-09-26 | 최병선 | 말하기 학습 기능을 구비한 외국어 학습 시스템 및 외국어 학습 방법 |
KR20180048136A (ko) * | 2016-11-02 | 2018-05-10 | 한국전자통신연구원 | 발음평가 방법 및 상기 방법을 이용하는 발음평가 시스템 |
-
2020
- 2020-09-04 KR KR1020200112989A patent/KR102274751B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100733469B1 (ko) | 2004-01-08 | 2007-06-29 | 정보통신연구진흥원 | 외국어 발음 평가 시스템 및 외국어 발음 평가 방법 |
KR20120038686A (ko) * | 2010-10-14 | 2012-04-24 | 에스케이텔레콤 주식회사 | 단말기의 어학 어플리케이션을 통한 학습 평가 방법 및 시스템 |
KR101609473B1 (ko) * | 2014-10-14 | 2016-04-05 | 충북대학교 산학협력단 | 영어 말하기 시험의 유창성 평가 시스템 및 방법 |
JP2016090900A (ja) * | 2014-11-07 | 2016-05-23 | パナソニック株式会社 | 発話評価装置、発話評価方法及びプログラム |
KR20160111292A (ko) * | 2015-03-16 | 2016-09-26 | 최병선 | 말하기 학습 기능을 구비한 외국어 학습 시스템 및 외국어 학습 방법 |
KR20180048136A (ko) * | 2016-11-02 | 2018-05-10 | 한국전자통신연구원 | 발음평가 방법 및 상기 방법을 이용하는 발음평가 시스템 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024147461A1 (ko) * | 2023-01-03 | 2024-07-11 | 주식회사 한글과컴퓨터 | 발음 평가용 문장에 기초하여 발음 평가를 수행할 수 있도록 지원하는 전자 장치 및 그 동작 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102274751B9 (ko) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10319250B2 (en) | Pronunciation guided by automatic speech recognition | |
CN108496219B (zh) | 语音处理系统和方法 | |
KR100733469B1 (ko) | 외국어 발음 평가 시스템 및 외국어 발음 평가 방법 | |
US6366883B1 (en) | Concatenation of speech segments by use of a speech synthesizer | |
US5791904A (en) | Speech training aid | |
US5995928A (en) | Method and apparatus for continuous spelling speech recognition with early identification | |
KR101609473B1 (ko) | 영어 말하기 시험의 유창성 평가 시스템 및 방법 | |
Muhammad et al. | E-hafiz: Intelligent system to help muslims in recitation and memorization of Quran | |
CN101346758B (zh) | 感情识别装置 | |
US6389395B1 (en) | System and method for generating a phonetic baseform for a word and using the generated baseform for speech recognition | |
US6618702B1 (en) | Method of and device for phone-based speaker recognition | |
US20070239444A1 (en) | Voice signal perturbation for speech recognition | |
KR20020007597A (ko) | 인터넷 상에서의 자동발음 비교방법을 이용한 외국어 발음학습 및 구두 테스트 방법 | |
KR101487005B1 (ko) | 문장입력을 통해 발음교정을 실시하는 외국어 학습장치 및 그 학습방법 | |
Keshet | Automatic speech recognition: A primer for speech-language pathology researchers | |
Fatima et al. | Short utterance speaker recognition a research agenda | |
KR20100068530A (ko) | 음성인식기에서 가비지 및 반단어 모델 기반의 거절 장치 및 방법 | |
CN114627896A (zh) | 语音评测方法、装置、设备及存储介质 | |
KR102274751B1 (ko) | 평가정보를 제공하는 사용자 맞춤형 발음 평가 시스템 | |
Kabashima et al. | Dnn-based scoring of language learners’ proficiency using learners’ shadowings and native listeners’ responsive shadowings | |
KR102274766B1 (ko) | 외국어 초보 학습자를 위한 발음 예측 및 평가시스템 | |
KR101145440B1 (ko) | 음성인식 기술을 이용한 외국어 말하기 평가 방법 및 시스템 | |
Tavi et al. | A phonetic case study on prosodic variability in suicidal emergency calls. | |
KR102274764B1 (ko) | 통계정보를 제공하는 사용자 맞춤형 발음 평가 시스템 | |
Barczewska et al. | Detection of disfluencies in speech signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |