KR101048214B1 - 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치 - Google Patents

소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치 Download PDF

Info

Publication number
KR101048214B1
KR101048214B1 KR1020080136624A KR20080136624A KR101048214B1 KR 101048214 B1 KR101048214 B1 KR 101048214B1 KR 1020080136624 A KR1020080136624 A KR 1020080136624A KR 20080136624 A KR20080136624 A KR 20080136624A KR 101048214 B1 KR101048214 B1 KR 101048214B1
Authority
KR
South Korea
Prior art keywords
pronunciation
correction
pronunciation correction
semantic
learner
Prior art date
Application number
KR1020080136624A
Other languages
English (en)
Other versions
KR20100078374A (ko
Inventor
김정관
김명숙
구명완
이해규
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020080136624A priority Critical patent/KR101048214B1/ko
Publication of KR20100078374A publication Critical patent/KR20100078374A/ko
Application granted granted Critical
Publication of KR101048214B1 publication Critical patent/KR101048214B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0018Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 관한 것으로, 음성 인식을 이용한 발음 교정과 더불어 소셜 러닝 및 시맨틱 기술을 적용하여 분절 요소뿐만 아니라 초분절 요소도 신뢰성 있게 평가 및 진단하고 학습자에게 올바른 발음 학습을 제공하기 위한 피드백을 적절히 줄 수 있는 발음 교정 서비스를 제공하기 위한, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하고자 한다.
이를 위하여, 본 발명은 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 있어서, 학습자의 음성을 입력받고 상응하는 교정 피드백을 제공하기 위한 사용자 인터페이싱 수단; 상기 입력받은 상기 학습자의 음성을 발음 요소별로 분해하여 인식하기 위한 음성 인식 수단; 상기 음성 인식 결과를 바탕으로 발음 요소별로 진단 및 평가를 수행하고 교정 가이드 및 피드백 파라미터를 제공하기 위한 발음 교정 수단; 상기 발음 교정 결과를 바탕으로 발음 교정에 관련된 정보들을 수집하여 통계 처리하기 위한 통계 처리 수단; 상기 발음 교정 결과를 온톨로지에 적용하여 발음 교정 피드백을 선택하여 표시하고 발음 교정 콘텐츠를 추천하기 위한 시맨틱 처리 수단; 및 상기 통계 처리 수단과 상기 시맨틱 처리 수단에서의 처리 결과를 취합하여 발음 교정 가이드와 피드백을 제공하기 위한 레포팅 수단을 포함한다.
발음 교정, 음성 인식, 소셜 러닝, 시맨틱 기술, 초분절 요소

Description

소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치{APPARATUS FOR CORRECTING PRONUNCIATION SERVICE UTILIZING SOCIAL LEARNING AND SEMANTIC TECHNOLOGY}
본 발명은 학습자의 외국어(예 : 영어) 발음을 진단 및 평가한 후 바람직한 발음으로 교정을 유도하기 위한 발음 교정 서비스 장치에 관한 것으로, 더욱 상세하게는 음성 인식 기술을 사용하여 학습자의 발음 수준을 발음 요소별로 정확히 평가하고, 학습자의 발음상의 실수나 잘못된 발음 습관을 인식하여 교정을 유도하며, 시맨틱 기술을 응용하여 학습자 자신의 특징적인 발음상의 실수가 무엇인지 파악할 수 있고, 점수 통계를 통해 발음 수준이 상대적으로 어느 정도 위치인지 알 수 있으며, 소셜 러닝 개념을 통해 학습자들이 직접 학습 콘텐츠를 생산 및 소비할 수 있도록 유도하여 발음 학습 콘텐츠의 양과 질, 학습 효과를 동시에 향상시킬 수 있는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 관한 것이다.
이하의 본 발명의 일실시예에서는 영어 발음 교정 서비스를 예로 들어 설명하나, 본 발명이 영어 발음 교정 서비스에 한정되는 것이 아님을 미리 밝혀둔다.
현재 대부분의 발음 교정 서비스는 파닉스(PHONICS) 위주의 단순 교정에 그치고 있는 것이 현실이다. 파닉스는 자음과 모음의 분절 요소 발음을 위주로 각 철자가 실제 단어의 발음과 어떻게 연결되는지를 교육하는 것에 중심에 두고 발음 학습을 진행한다. 이러한 학습 서비스는 발음 교정을 위하여 사용자에게 원어민의 발음을 들려주고 단순히 따라하게 한다. 또는, 이러한 학습 서비스는 사용자에게 구강 구조를 보여주면서 발음할 때 움직이는 입술 모양 및 혀 위치 등을 시각적으로 표현하여 준다. 또는, 이러한 학습 서비스는 발음 그래프를 사용자에게 보여줌으로써, 원어민 발음을 익힐 수 있도록 도와주고 있다.
그러나 상기와 같은 단순 파닉스형 학습 서비스 시스템의 경우, 분절 요소보다는 초분절 요소가 올바른 발음 교육에 있어 더욱 중시되어야 한다는 언어학계의 연구 결과를 제대로 반영하지 못하고 있다.
오늘날, 이러한 단순 파닉스형 학습 시스템을 넘어 음성 인식 기능을 추가하여 발음 교정을 유도하는 서비스도 제공되고 있다. 이러한 음성 인식 기능이 추가된 발음 교정 서비스는 서비스 내에서 제공되는 스크립트에 따라 사용자가 그대로 읽고 발음하면, 원어민 발음과의 유사도에 따라 통과/실패 등의 평가가 매겨진다. 그러나 이러한 발음 교정 서비스에 있어서, 자음과 모음 등의 분절 요소 위주로 평가되는 것이 현실이다. 또한, 이러한 발음 교정 서비스에서는 억양, 리듬 등의 초분절 요소의 평가 비중이 매우 낮거나 단순한 수준에 머물고 있다.
한편, 웹 2.0 트렌드가 이미 성숙해 있는 요즘에, 소셜 네트워킹 서비 스(SOCIAL NETWORKING SERVICE)는 다수가 인터넷 및 모바일 공간에서 이용하는 서비스이자 플랫폼이다. 또한, 시맨틱 기술은 구축된 온톨로지를 기반으로 특정 분야에서 구체적인 지식 체계를 구현하고 이렇게 구축한 지식 체계를 응용하여 이전보다 인텔리전트(INTELLIGENT)한 시스템을 개발하는 것에 크게 도움을 줄 수 있는 기술이다.
따라서 이러한 소셜 러닝 및 시맨틱 기술을 충분히 이용하여 학습 콘텐츠를 개발하고 학습자가 효율적으로 학습할 수 있는 발음 교정 서비스가 절실히 필요한 상황이다.
따라서 상기와 같은 종래 기술은 발음 교정 서비스에 있어서 초분절 요소가 제대로 반영되지 못하거나, 반영되더라도 초분절 요소의 평가 비중이 매우 낮은 문제점이 있으며, 이러한 문제점을 해결하고 상기 요구에 부응하고자 하는 것이 본 발명의 과제이다.
따라서 본 발명은 음성 인식을 이용한 발음 교정과 더불어 소셜 러닝 및 시맨틱 기술을 적용하여 보다 유연하고 양질의 발음 교정 서비스를 제공하기 위한, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.
즉, 본 발명은 음성 인식을 이용한 발음 교정과 더불어 소셜 러닝 및 시맨틱 기술을 적용하여 분절 요소뿐만 아니라 초분절 요소도 신뢰성 있게 평가 및 진단하고 학습자에게 올바른 발음 학습을 제공하기 위한 피드백을 적절히 줄 수 있는 발음 교정 서비스를 제공하기 위한, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.
다시 말하면, 본 발명은 소셜 네트워크 개념을 응용한 소셜 러닝(SOCIAL LEARNING) 개념과 시맨틱 기술을 도입하여, 학습자 자신 또는 교사, 학부모들이 보다 많은 학습 컨텐츠를 생산/소비토록 유도하고, 학습자의 발음 특성을 인식하여 개인화된 피드백을 제공하며, 학습자들 간의 상대적인 발음 평가 및 원어민의 표준 발음을 기준으로 한 진단 및 평가를 제시할 수 있는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 장치는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 있어서, 학습자의 음성을 입력받고 상응하는 교정 피드백을 제공하기 위한 사용자 인터페이싱 수단; 상기 입력받은 상기 학습자의 음성을 발음 요소별로 분해하여 인식하기 위한 음성 인식 수단; 상기 음성 인식 결과를 바탕으로 발음 요소별로 진단 및 평가를 수행하고 교정 가이드 및 피드백 파라미터를 제공하기 위한 발음 교정 수단; 상기 발음 교정 결과를 바탕으로 발음 교정에 관련된 정보들을 수집하여 통계 처리하기 위한 통계 처리 수단; 상기 발음 교정 결과를 온톨로지에 적용하여 발음 교정 피드백을 선택하여 표시하고 발음 교정 콘텐츠를 추천하기 위한 시맨틱 처리 수단; 및 상기 통계 처리 수단과 상기 시맨틱 처리 수단에서의 처리 결과를 취합하여 발음 교정 가이드와 피드백을 제공하기 위한 레포팅 수단을 포함한다.
또한, 상기 본 발명의 장치는, 상기 사용자 인터페이싱 수단, 상기 통계 처 리 수단, 상기 시맨틱 처리 수단, 및 상기 레포팅 수단과 연동하여 발음 교정 서비스에 필요한 데이터를 저장하고 제공하기 위한 데이터 저장 수단을 더 포함한다.
또한, 상기 본 발명의 장치는, 템플릿 콘텐츠를 제작하거나 복수의 템플릿을 모아 하나의 세션을 생성하기 위한 학습 콘텐츠 제작 수단을 더 포함한다.
상기와 같이 본 발명은, 음성 인식을 이용한 발음 교정과 더불어 시맨틱 기술과 소셜 러닝 개념을 적용하여 보다 유연하고 양질의 발음 교육이 이루어질 수 있도록 도와주는 효과가 있다.
즉, 본 발명은 학습자가 다른 학습자들과의 상대 평가를 통해 실력을 검증함으로써, 보다 의욕적인 학습 동기를 고취해나갈 수 있으며, 시맨틱 모델이 적용되어 보다 개인화된 진단 평가 결과를 제공함으로써, 보다 정교한 발음 지도가 가능하도록 발음 교정 서비스를 제공할 수 있는 효과가 있다.
나아가, 본 발명은 개인화된 진단 평가 결과를 통하여 각 개인의 부족한 부분에 따라 기존에 구축되어 있는 템플릿/세션을 추천할 수 있는 기능을 갖추어 보다 인텔리전트(intelligent)한 발음 교육 환경을 제공할 수 있다.
또한, 본 발명은 학습자들 또는 그 보호자들이 직접 참여하여 발음 콘텐츠를 구성하고 공유함으로써, 보다 폭넓은 콘텐츠 선택이 가능하고 활발한 참여를 유도할 수 있고, 또한 실제 콘텐츠 개발 업체가 템플릿을 작성 및 배포하여 보다 전문적인 콘텐츠 구성이 가능하도록 유도할 수 있으며, 이 콘텐츠에 대한 매매가 이루 어질 수 있도록 허용하여 학습 콘텐츠 제작 및 유통에 관한 새로운 비즈니스 모델의 창출도 가능하다.
다시 말하면, 본 발명은 기존의 틀에 박힌 발음 교육을 뛰어넘어 학습자가 보다 적극적으로 참여하고, 개인화된 피드백을 받으며, 개인화된 피드백이 콘텐츠에 대한 추천으로 이어지고, 이는 다시 양질의 콘텐츠에 대한 소비와 유통으로 이어져 학습자의 참여를 자극하는 선순환 구조로 학습이 이루어질 수 있도록 하는 효과가 있다.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명에 따른 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치의 일실시예 구성도이다.
도 1에 도시된 바와 같이, 본 발명에 따른 발음 교정 서비스 장치(100)는 사 용자 인터페이스부(110), 음성 인식부(120), 발음 교정부(130), 통계부(140), 시맨틱부(150), 레포팅부(160), 및 데이터 저장부(170)를 포함한다.
먼저, 본 발명에 따른 발음 교정 서비스 장치(100)를 전반적으로 설명하면, 상기 발음 교정 서비스 장치(100)는 학습자의 발화 입력을 받아들여 음성 인식 기술을 이용하여 발음 요소별로 특징을 추출하고, 진단 및 평가하며, 통계 및 시맨틱 기술을 이용하여 학습자들 간의 상대 평가 피드백을 제공하고, 개인별로 맞춤화된 피드백을 주며, 진단 결과에 따라 적절한 학습 콘텐츠를 추천한다. 또한, 상기 발음 교정 서비스 장치(100)는 소셜 러닝 기술을 이용하여, 학습자가 스스로 콘텐츠를 생산, 소비 및 공유할 수 있는 환경을 구축하여 학습 효과를 극대화할 수 있는 발음 교정 서비스를 제공한다.
다음으로, 상기 발음 교정 서비스 장치(100)의 각 구성 요소를 살펴보면 다음과 같다.
상기 사용자 인터페이스부(110)는 학습자(사용자)와의 인터페이스를 통해 학습자의 음성을 입력받고 그에 대한 교정 피드백을 제공한다.
그리고 음성 인식부(120)는 사용자 인터페이스부(110)를 통해 수집된 학습자의 음성을 발음 요소별로 분해하여 인식한다.
그리고 발음 교정부(130)는 상기 음성 인식부(120)로부터의 음성 인식 결과를 바탕으로 발음 요소별로 진단/평가를 수행하고 잘못된 발음에 대한 교정 가이드 및 피드백 파라미터를 제공한다.
그리고 통계부(140)는 상기 발음 교정부(130)로부터의 발음 교정 결과를 바 탕으로 전체 또는 특정 학습자 그룹별로 발음 평가 점수 및 교정에 관련된 내역 정보들을 수집하여 통계 처리한다.
그리고 시맨틱부(150)는 상기 발음 교정부(130)로부터의 발음 교정 결과를 기 구축된 온톨로지에 적용하여 학습자에게 개인화된 발음 교정 피드백을 선택하여 표시하고 콘텐츠를 추천해 준다.
그리고 레포팅부(160)는 상기 통계부(140)와 상기 시맨틱부(150)에서의 처리 결과를 취합하여 진단 및 평가에 알맞은 발음 교정 가이드와 피드백을 일예로 상기 사용자 인터페이스부(110)를 통해 시각 및 청각적으로 표시해 준다.
그리고 부가적으로, 데이터 저장부(170)는 상기 사용자 인터페이스부(110), 상기 통계부(140), 상기 시맨틱부(150), 및 상기 레포팅부(160) 등과 연동하여 발음 교정 서비스에 필요한 각종 데이터(예 : 템플릿 기반 콘텐츠 등)를 저장하고 제공한다.
그리고 상기 발음 교정 서비스 장치(100)는 템플릿 콘텐츠를 제작하거나 복수 개의 템플릿들을 모아 하나의 세션을 생성할 수 있는 웹 학습 편의툴(도면에 도시되지 않음)을 더 포함한다.
여기서, 상기 각각의 구성요소는 각각 하나의 독립적인 모듈(엔진)로 구현될 수 있으며, 구현 방식에 따라 몇 개의 모듈(엔진)들을 하나로 묶어 대형 모듈로 구현할 수도 있다.
이하, 발음 교정 서비스 장치(100)의 구성요소 각각에 대하여 그 구체적인 실시예를 좀 더 상세하게 살펴보기로 한다.
상기 사용자 인터페이스부(110)는 학습자가 학습 콘텐츠를 직관적이고 발음 교정 이론상 의미 있는 방식으로 발화를 입력하도록 지원하고, 그에 상응하는 교정 피드백을 상기 학습자에게 제공한다.
즉, 발음해야 할 내용을 글자로 먼저 보여주어 읽게 하고 발음 교정 피드백을 주는 방식 대신에, 상기 사용자 인터페이스부(110)는 원어민의 발음을 먼저 들려주고, 기억을 돕기 위한 이미지를 함께 보여준다. 따라서 사용자 인터페이스부(110)는 읽기 및 말하기(Reading & Speaking)가 아닌 듣기와 말하기(Listening & Speaking)가 될 수 있도록 학습자를 유도한다.
예를 들어, 발음해야 하는 콘텐츠가 문장인 경우, 사용자 인터페이스부(110)는 해당 문장을 처음부터 보여주는 방식 대신에, 먼저 원어민의 문장 발음을 학습자에게 들려준다. 그리고 사용자 인터페이스부(110)는 관련된 이미지를 함께 디스플레이함으로써 듣고 말하는 방식으로 학습자에게 발화를 시킨다. 이러한 방식으로 학습자가 사용자 인터페이스부(110)를 통해 발화를 입력하면, 사용자 인터페이스부(110)는 학습자의 음성 발음 데이터를 음성 인식부(120)로 전달한다.
이때, 학습자의 흥미를 유발하고 집중력을 유지할 수 있도록, 사용자 인터페이스부(110)는 스토리 라인을 따라 학습을 진행하거나 게임 형식의 학습 진행을 유도할 수 있는 학습 콘텐츠를 사용자에게 제공한다.
이를 통해, 사용자 인터페이스부(110)가 딱딱한 발음 학습에 보다 적극적으로 학습자의 참여를 유도하여 보다 효과적인 학습이 기대될 수 있다. 예를 들어, 학습에 이용될 콘텐츠는 문장들이 연결되어 하나의 스토리 라인을 형성하거나, 문장 발음을 잘할 때마다 학습자가 아이템을 획득하여 특정 미션을 수행하는 등의 게임 형식으로 구현할 수 있다.
아울러, 이 발음 교정 서비스의 사용자 인터페이스부(110)는 발음이 부정확한 부분의 텍스트에 밑줄을 긋거나 색깔을 변화시켜 학습자가 어느 부분의 발음에 교정이 필요한지를 인식할 수 있도록 한다. 예를 들어, 학습자가 한 문장을 발음하였을 경우, 발음이 부정확하거나 일반적으로 많이 틀리는 오류를 범하였을 경우, 사용자 인터페이스부(110)는 해당 위치의 단어 또는 어구 등에 밑줄 또는 글 색깔을 변화시켜 한눈에 잘못된 부분을 학습자가 인식할 수 있게 한다. 특히, 밑줄 또는 다른 색으로 표시된 단어 또는 어구 등을 클릭하거나 터치하면, 사용자 인터페이스부(110)는 교정 가이드 콘텐츠를 제공한다. 여기서, 상기 교정 가이드 콘텐츠는 학습자가 어떤 발음을 하였고, 어떤 실수를 하였으며, 어떻게 발음하는 것이 옳은 것인지를 알려준다. 또는, 사용자 인터페이스부(110)는 클릭 또는 터치된 해당 부분에 대한 원어민의 표준 발음과 학습자의 발음을 차례로 들려주어 그 차이점을 학습자가 인식하도록 하는 방식도 가능하다. 예를 들어, 잘못 발음한 어구 부분이 "a cup of coffee"라면 이에 대한 원어민의 옳은 발음과 학습자의 잘못된 발음이 실시간으로 발췌되어 한번씩 들려주는 것이 가능하다.
이때, 본 발명에서는 밑줄 또는 글 색깔을 변화시키는 단위로 풋(foot)을 이용하는 것을 원칙으로 한다. 풋(Foot)은 소리 인지에 중요한 기능을 하며, 영어 리 듬 및 강세의 주요소를 구성하는 단위이다. 따라서 사용자 인터페이스부(110)는 풋(foot)을 기준으로 잘못된 발음을 알려주고 교정 피드백을 제시한다. 이처럼 풋(foot) 단위로 밑줄 또는 글 색깔을 변화시키는 이유는 보다 효과적으로 초분절 요소가 인지되고 분절 요소와의 관련성을 체득할 수 있도록 유도하기 위함이다.
한편, 사용자 인터페이스부(110)는 상기 교정 가이드 컨텐츠를 통해 다양한 방식으로 학습자에게 정보를 제공해 줄 수 있다. 예를 들어, 사용자 인터페이스부(110)는 팝업 형식을 이용하여 해당 학습자에 대한 맞춤형 발음 교정 가이드 텍스트를 보여준다. 그리고 사용자 인터페이스부(110)는 구강 구조 및 발음 그래프 등 이미지를 함께 표시할 수 있다. 더 나아가, 사용자 인터페이스부(110)는 학습자의 문장 발음 중 해당 어구 발음을 자동으로 발췌하여 들려주고 뒤이어 원어민의 바른 발음을 들려줌으로써, 학습자가 직접 발음을 비교하여 교정할 수 있도록 유도할 수 있다.
한편, 음성 인식부(120)는 상기 사용자 인터페이스부(110)를 통하여 학습자의 발화를 입력받아 특징을 추출한다. 특히, 상기 음성 인식부(120)는 발음의 세 가지 요소인 낱소리, 높낮이, 및 박자를 분리하여 각각 특징을 추출한다. 여기서, 낱소리란 발음의 분절 요소로서, 자음과 모음처럼 분리되어 분명히 들리는 음성 단위를 말한다. 그리고 높낮이는 말소리의 높낮이(PITCH)의 변화를 지칭하는 요소로서, 강세(STRESS) 또는 억양(INTONATION)이라고도 알려져 있다. 그리고 박자는 발화 시간의 지속 패턴을 일컫는 말로서, 보다 자연스러운 발음 교정을 위한 중요 요소이다. 음성 인식부(120)는 학습자의 발화를 상기 3요소(낱소리, 높낮이, 박자)로 분리하여 신호 처리를 통해 각 요소별 특징(Feature)을 추출하고 계산하는 과정을 수행한다.
한편, 상기 발음 교정부(130)는 음성 인식부(120)로부터 전달받은 학습자 발음의 특징들(features)을 분석하여 어떤 부분이 잘 발음되었고, 어떤 부분이 잘못 발음되었는지를 판단한다. 이때, 발음 교정부(130)는 해당 발음에 대한 원어민의 올바른 발음을 이용하여 훈련되도록, 학습자의 발음 특징과 원어민의 올바른 발음을 비교 및 분석하여 평가 점수를 산출한다. 이러한 비교 및 분석 과정에서, 낱소리, 높낮이, 및 박자 교정의 최소 단위로서 풋(Foot) 단위가 이용되는 것이 바람직하다. 이는 학습자가 문장을 발화하였다고 하더라도 낱소리, 높낮이 및 박자를 의미 있게 다루는 최소의 단위가 단어보다는 풋(foot)인 경우가 많음으로, 음성 언어학적으로 보다 의미 있는 교정이 이루어질 수 있도록 유도하기 위함이다.
한편, 통계부(140)는 발음 교정부(130)에서 출력된 특징 파라미터들을 수집하여 다양한 통계 자료를 산출한다. 상기 통계부(140)는 기본적으로 학습자 개개인의 성적을 수집하고 학습자들 간의 상대 성적을 계산하고 저장하는 기능을 수행한다.
예를 들어, 통계부(140)는 학습자의 점수를 바탕으로 학습자들의 점수 평균치, 및 분산 등과 같이 의미를 부여할 수 있는 통계치를 연산할 수 있다. 이렇게 연산된 통계치는 학습자 자신 또는 교사 및 학부모 등의 보호자에게 제공되는 성적 보고에 포함될 수 있다. 학습자는 현재 특정 발음을 학습하고 있는 자신의 발음 수준이 상대적으로 어느 위치에 있는지를 그 통계치를 통해 확인할 수 있다. 이를 통 해 학습자의 학습 의욕을 고취할 수 있다.
아울러, 통계부(140)는 수집된 자료를 바탕으로 세션 별로 통계를 낼 수 있다. 이를 통해, 통계부(140)는 학습자가 어떤 세션을 학습하는 것을 어려워하는지, 어떤 세션이 가장 인기가 있으며, 그 세션의 생산자가 누구인지 등과 같은 정보를 제공할 수 있다. 또한, 통계부(140)는 세션 별 통계를 통해 어떤 학습자들이 해당 세션을 이용하고 있는지, 어떤 학습 콘텐츠가 어떤 시기 또는 지역에서 많이 학습되는지 등을 확인할 수 있다.
더 나아가, 통계부(140)는 어떤 발음을 학습자들이 주로 실수하는지, 어떤 발음을 쉽게 발음하는지 등 교육적으로 의미 있는 통계 자료를 생성하고 이를 이용하여 학습자에게 통계치를 제공한다.
여기서, 상기 통계부(140)에서 이용되는 정보는 시맨틱부(150)에서도 이용되어 학습을 보조할 수 있는 추론 기능에 사용된다. 상기 시맨틱부(150)를 충분히 이용하기 위해, 본 발명에서는 발음 학습자를 위한 발음 교정 온톨로지를 사전에 구축한다.
예를 들어, 시맨틱부(150)는 한국인이 자주 틀리거나 어려워하는 발음들, 강세 및 억양이 어렵거나 예외적인 어구 또는 문장 구조, 다양한 발음이 가능한 단어들 등과 같은 발음 교정 도메인에 필요한 정보를 이용하여 사전에 온톨로지를 구축한다.
도 2는 본 발명에 적용되는 이음 현상에 대한 온톨로지의 일실시예 개념도이 다.
어떤 음소가 여러 조건에 따라 다르게 발음되는 경우 화자에게는 같은 소리로 인식되는 음운 현상, 즉 이음 현상(200)에 대한 온톨로지가 도 2에 도시되어 있다.
본 발명에 따른 발음 교정 서비스 장치(100)는 학습 시 해당 음운 현상들이 발생할 경우 각 항목별로 발생 횟수를 기록한다. 도 2에 도시된 바와 같이, 이음(200)은 구개음화(201), 성문음화(202), 설탄음화(203), 격음(204), 모음발음길이(205), L 발음(206), 및 R 발음(R-Coloring)(207)을 포함한다. 여기서, 설탄음화(203)는 플래핑(2031)과 비음화 플래핑(2032)을 포함한다. 그리고 L 발음(206)은 "Clear L"(2061)과 "Dark L"(2062)을 포함한다. 그리고 R 발음(207)은 W 발음(2071)과 연결되어 있다.
그리고 발음 교정 서비스 장치(100)는 학습자가 이음 현상(200)을 중심으로 문제가 있음을 진단하여 학습자에게 알려줄 수 있다.
그리고 시맨틱부(150)는 상기와 같은 형식으로 기 구축된 온톨로지를 이용하여, 학습자가 자주 틀리는 발음이 어떤 발음인지, 또는 자주 실수하는 단어가 어떤 단어인지 인지하여 개인화된 진단 피드백을 레포팅부(160)를 통해 제공한다.
아울러, 온톨로지 상의 어느 부분에서 학습자 개인의 학습 내용이 부족한지가 파악되면, 시맨틱부(150)는 상기 학습 부족 부분의 발음 교정에 효과적인 학습 콘텐츠를 추천한다.
예를 들어, 통계부(140)는 학습자가 L 발음(206)을 탁하게 발음해야 하는 "Dark L"(2062)의 음운 현상 부분에서 잦은 실수를 보일 경우에 그에 맞는 통계치를 생성한다. 그러면, 레포팅부(160)는 상기 생성된 통계치를 학습자에게 제공한다. 그리고 레포팅부(160)는 학습자에게 L 발음(206)에 대한 진단 내용 및 교정 가이드를 제공하여 학습자가 부족한 부분에 대한 인지를 할 수 있도록 한다.
또한, 시맨틱부(150)는 L 발음(206)을 위주로 구성된 학습 콘텐츠를 검색하여 레포팅부(160)를 통해 학습자에게 추천한다. 이는 학습자가 같은 음운 현상을 계속하여 연습할 수 있도록 도울 수 있다.
다른 예로, 통계부(140)에서 R 발음(Coloring)(207)의 음운 현상에 문제가 있다고 진단된 경우, 시맨틱부(150)는 해당 음운 현상으로 구성된 학습 콘텐츠를 학습자에게 레포팅부(160)를 통해 추천한다. 이때, 보다 포괄적인 R 발음(207)을 비교하면서 학습할 수 있도록, 시맨틱부(150)는 R 발음 전반에 관련된 학습 콘텐츠를 추천한다.
더 나아가, 시맨틱부(150)는 학습자 정보를 고려하여 학습 콘텐츠를 추천할 수 있다. 즉, 학습자의 연령이 어리다면, 포괄적인 R 발음(207)이 익숙해지기 전에 W 발음(2071)을 먼저 잘 발음할 수 있어야 하는 교육적 선후 관계에 따라, 시맨틱부(150)는 W 발음(2071)과 관련된 학습 콘텐츠를 추천한다.
여기서, 시맨틱부(150)의 추천 기능이 가능하도록 하기 위하여, 각 학습 콘텐츠별로 주석(Annotation)이 미리 되어 있어야 한다. 예를 들어, 학습 콘텐츠는 어떤 음운 현상에 관계된 것인지에 대한 태그(Tag)가 제작 시에 미리 포함되어 있어야 한다. 그에 따라, 시맨틱부(150)는 온톨로지를 이용하여 콘텐츠를 추천할 때 상기 태그 즉, 메타 정보를 이용하여 콘텐츠를 추천한다.
아울러, 각 음운 현상별로 규칙화할 수 있는 철자 및 어구 또는 문장 구조가 존재하거나 대표적인 사례들이 존재한다면, 시맨틱부(150)가 이를 체계화하여 해당하는 각 콘텐츠를 스캔하고 자동으로 태깅하는 방법 또한 추가될 수 있다. 이를 통하여, 시맨틱부(150)는 콘텐츠 제공자가 미처 주석을 달지 못한 콘텐츠도 추천할 수 있다.
이때, 태깅이 이루어지는 콘텐츠 단위로는 템플릿(Template) 또는 세션(Session)이 존재한다. 이러한 템플릿(Template) 또는 세션(Session)은 시맨틱부(150)가 학습 콘텐츠를 추천할 때, 또는 학습자가 학습할 콘텐츠를 선택할 때 가장 기본이 되는 단위이고, 소셜 러닝을 가능하게 하는 요소이다.
한편, 통계부(140)와 시맨틱부(150)의 처리 결과를 바탕으로 레포팅부(160)는 학습자의 점수 및 개인화된 진단 결과, 학습자들 간의 상대 평가 내용 등과 같은 다양한 보고 내용을 동적으로 표시한다.
우선, 레포팅부(160)는 통계부(140)와 연계하여 경쟁적 성적 보고를 표시할 수 있다. 즉, 다른 학습자들의 평균 점수 및 지역별 점수 분포, 학년별 점수 분포 등을 통하여 학습자의 발음 수준이 특정 그룹 내에서 어느 정도인지 표시한다. 이는 경쟁을 통한 학습 의욕 고취 및 참고 자료로 이용되도록 하기 위함이다.
또한, 레포팅부(160)는 세션별 상대 점수 보고가 가능하여 각 세션별로 다른 학습자들이 어느 정도의 성과를 올렸는지를 확인하여 세션별 난이도를 적절히 판별할 수 있다. 또한, 레포팅부(160)는 부족한 세션을 재학습할 수 있는 근거를 학습 자에게 표시할 수 있다. 또한, 레포팅부(160)는 상기와 같은 통계 자료들을 바탕으로 학습자가 자신의 성적 향상 추이를 쉽게 파악할 수 있는 히스토그램을 동적으로 표시할 수 있다. 또한, 레포팅부(160)는 학습자가 자신의 학습 현황을 확인할 수 있는 정보를 제공한다.
아울러, 레포팅부(160)는 시맨틱부(15)와 연계하여 학습자가 어느 발음에 특별히 취약한지를 표시할 수 있다. 또한, 레포팅부(160)는 이러한 학습자의 발음 취약 내용을 바탕으로 어떤 세션을 학습하는 것이 효과적일지를 추천하는 추천 내용을 시맨틱부(150)로부터 전달받아 표시할 수 있다. 또한, 레포팅부(160)는 개개인 학습자에 특화된 발음 진단 및 교정 가이드를 각 학습자에게 제공하여 개인화된 피드백을 받아보는 것이 가능하도록 한다.
이러한 레포팅부(160)의 결과물은 학습자가 연계된 웹사이트에 로그인하여 확인할 수 있다. 또는, 레포팅부(160)는 학습에 이용되고 있는 단말기 상에서 바로 읽을 수 있게 상기 사용자 인터페이스부(110)를 통하여 표시하거나, 이메일 등으로 점수 및 진단 결과를 통보할 수 있다.
도 3은 본 발명에 따른 템플릿의 일실시예 구조도이고, 도 4는 본 발명에 따른 세션의 일실시예 구조도이다.
전술한 바와 같이, 소셜 러닝에 대한 템플릿(TEMPLATE)이 학습 콘텐츠에 이용된다. 여기서, 템플릿은 학습 콘텐츠를 담을 수 있는 일종의 컨테이너로서, 학습자 또는 교사 및 학부모가 원하는 학습 콘텐츠를 자유롭게 포함시킬 수 있는 틀을 말한다.
도 3에 도시된 바와 같이, 템플릿(310)은 가장 위 상단에 템플릿의 제목을 입력할 수 있는 템플릿 제목(311), 좌측으로 문장 또는 어구 등의 발음 콘텐츠가 입력될 공란인 문장/어구(312), 우측으로 해당 문장/어구가 어떤 발음 현상에 관한 내용인지를 수동 또는 자동으로 설명(Annotate)할 수 있는 태깅(Tagging) 입력 공간인 태그(313)를 포함한다.
이러한 템플릿(310)을 만들고자 하는 학습자가 데이터 저장부(170)의 학습 콘텐츠 데이터베이스(DB)에서 필요한 문장/어구(321), 태그(322), 및 설명(323) 등을 드래그 앤 드롭 또는 직접 입력 등을 이용하여 요청하면, 사용자 인터페이스부(110)는 학습 콘텐츠 데이터베이스로부터 필요한 콘텐츠들로 가져다가 템플릿에 채워 넣어 해당 템플릿을 생성한다. 따라서 사용자 인터페이스부(110)는 학습자가 부족하거나 집중 학습이 필요한 내용을 간편하게 추가 또는 삭제할 수 있다. 이렇게 생성된 복수 개의 템플릿이 모여서 학습의 최소 단위인 세션(400, 도 4 참조)을 형성한다. 그리고 발음 교정 서비스 장치(100)는 이러한 세션(400)을 이용하여 학습을 진행한다.
도 4에 도시된 바와 같이, 세션(400)은 세션 제목(401)과 복수 개의 템플릿(310)을 포함한다. 여기서, 템플릿(310)은 콘텐츠가 전혀 포함되어 있지 않아 학습자 또는 교사, 및 학부모가 콘텐츠를 일일이 모두 채워야만 학습이 가능한 템플릿(310)도 있고, 다른 학습자 또는 콘텐츠 제공 업체가 콘텐츠의 일부 또는 전체를 이미 채워 넣어 템플릿(310)을 생성하여 별다른 콘텐츠 추가/삭제가 필요하지 않은 템플릿도 있다.
특히, 템플릿(310) 및 세션(400)은 학습자들 간의 공유가 가능하도록, 즉 한 학습자가 생산 및 편집한 템플릿(310) 및 세션(400)을 다른 학습자가 가져와 사용할 수 있도록, 템플릿(310) 및 세션(400)은 데이터 저장부(170)에 저장된다. 그러면, 사용자 인터페이스부(110)는 데이터 저장부(170)에 저장된 템플릿(310) 및 세션(400)을 이용하여 학습자가 새로운 템플릿(310) 및 세션(400)을 생성 및 편집할 수 있게 지원한다.
이를 통해, 학습자들 간의 활발한 콘텐츠 생산 및 공유가 일어날 수 있는 소셜 러닝이 구현될 수 있다. 더 나아가, 발음 교육적으로 의미가 있도록 구성되고 수동 또는 자동으로 설명된 템플릿(310)들이 저장되어 있는 경우, 본 발명에 따른 발음 교정 서비스 장치(100)는 학습자 발음에 대한 시맨틱부(150)의 추론 결과에 따라 해당 템플릿(310)을 추천하여 학습을 진행하는 기능을 제공한다.
한편, 사용자 인터페이스부(110)는 템플릿(310), 및 세션(400)의 구조 등 다양한 학습자 편의 기능을 제공하기 위하여 다양한 툴 또는 사용자 인터페이스를 웹을 통해 제공할 수 있다. 그리고 사용자 인터페이스부(110)는 데이터 저장부(170)에 저장된 학습 콘텐츠 데이터베이스(DB)에서 템플릿의 구성요소(예를 들면, 문장/어구, 태그, 설명 등)를 드래그 앤 드롭 형식으로 쉽게 끌어다 템플릿(310)을 생성할 수 있도록 지원한다. 그리고 사용자 인터페이스부(110)는 생성된 복수의 템플릿(310)들로 이루어진 세션(400)들이 순서에 맞게 학습될 수 있도록 학습 스케줄을 조정할 수 있는 기능, 학습자가 특정 문장이나 어구들을 따로 저장하여 복습할 수 있는 복습 노트 기능 등을 구현하여 소셜 러닝을 지원하는 동시에 학습 편의를 돕 도록 지원한다.
한편, 발음 교정 서비스 장치(100)는 효율적인 콘텐츠 생산 및 소비 활동을 돕도록 학습자 또는 교사, 학부모가 활동할 수 있는 온라인 커뮤니티를 지원할 수 있다. 또한, 발음 교정 서비스 장치(100)는 정기 세미나를 유치하여 발음 이론 및 콘텐츠 제작 방법을 교육하는 오프라인 활동을 지원하며, 영어 마을 할인 제공 등 각종 프로모션 진행을 포함하는 마케팅 노력 또한 지원할 수 있다.
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
도 1은 본 발명에 따른 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치의 일실시예 구성도,
도 2는 본 발명에 적용되는 이음 현상에 대한 온톨로지의 일실시예 개념도,
도 3은 본 발명에 따른 템플릿의 일실시예 구조도이고,
도 4는 본 발명에 따른 세션의 일실시예 구조도이다.
* 도면의 주요 부분에 대한 부호의 설명
100 : 발음 교정 서비스 장치 110 : 사용자 인터페이스부
120 : 음성 인식부 130 : 발음 교정부
140 : 통계부 150 : 시맨틱부
160 : 레포팅부 170 : 데이터 저장부

Claims (7)

  1. 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 있어서,
    학습자의 음성을 입력받고 상응하는 교정 피드백을 제공하기 위한 사용자 인터페이싱 수단;
    상기 입력받은 상기 학습자의 음성을 발음 요소별로 분해하여 인식하기 위한 음성 인식 수단;
    상기 음성 인식 결과를 바탕으로 발음 요소별로 진단 및 평가를 수행하고 교정 가이드 및 피드백 파라미터를 제공하기 위한 발음 교정 수단;
    상기 발음 교정 결과를 바탕으로 발음 교정에 관련된 정보들을 수집하여 통계 처리하기 위한 통계 처리 수단;
    상기 발음 교정 결과를 온톨로지에 적용하여 발음 교정 피드백을 선택하여 표시하고 발음 교정 콘텐츠를 추천하기 위한 시맨틱 처리 수단; 및
    상기 통계 처리 수단과 상기 시맨틱 처리 수단에서의 처리 결과를 취합하여 발음 교정 가이드와 피드백을 제공하기 위한 레포팅 수단을 포함하며,
    상기 인터페이싱 수단은, 데이터 저장수단에 저장되는 상기 발음 교정 콘텐츠의 템플릿(Template) 또는 세션(Session)을 상기 학습자가 생성 및 편집할 수 있도록 지원하는
    소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    템플릿 콘텐츠를 제작하거나 복수의 템플릿을 모아 하나의 세션을 생성하기 위한 학습 콘텐츠 제작 수단
    을 더 포함하는 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.
  4. 제 1 항 또는 제 3 항에 있어서,
    상기 사용자 인터페이싱 수단은,
    풋(foot) 단위로 발음 부정확 부분을 표시하는
    소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.
  5. 제 1 항 또는 제 3 항에 있어서,
    상기 음성 인식 수단은,
    상기 사용자 인터페이싱 수단을 통하여 입력받은 상기 학습자의 발화를 발음의 세 가지 요소인 낱소리, 높낮이, 및 박자로 분리하여 신호 처리를 통해 각 요소별 특징(Feature)을 추출하고 계산하는
    소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.
  6. 제 1 항 또는 제 3 항에 있어서,
    상기 발음 교정 수단은,
    상기 음성 인식 결과를 바탕으로 상기 학습자의 발음 특징과 원어민의 발음을 비교 및 분석 시에, 낱소리, 높낮이, 및 박자 교정의 최소 단위로서 풋(Foot) 단위를 사용하는
    소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.
  7. 제 1 항 또는 제 3 항에 있어서,
    상기 시맨틱 처리 수단은,
    템플릿(Template) 또는 세션(Session) 단위로 학습 콘텐츠를 태깅하는
    소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.
KR1020080136624A 2008-12-30 2008-12-30 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치 KR101048214B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080136624A KR101048214B1 (ko) 2008-12-30 2008-12-30 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080136624A KR101048214B1 (ko) 2008-12-30 2008-12-30 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치

Publications (2)

Publication Number Publication Date
KR20100078374A KR20100078374A (ko) 2010-07-08
KR101048214B1 true KR101048214B1 (ko) 2011-07-08

Family

ID=42639599

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080136624A KR101048214B1 (ko) 2008-12-30 2008-12-30 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치

Country Status (1)

Country Link
KR (1) KR101048214B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508523A (zh) * 2019-01-30 2020-08-07 沪江教育科技(上海)股份有限公司 一种语音训练提示方法及系统
KR102396833B1 (ko) * 2019-12-31 2022-05-13 (주)헤이스타즈 음성 분석을 통한 한국어 발음 학습 방법 및 시스템
KR102405744B1 (ko) * 2020-09-21 2022-06-07 주식회사 케이엠에듀 교수 매체를 이용한 영어 교수 방법 및 그 장치
KR102414626B1 (ko) * 2020-10-26 2022-06-30 주식회사 에듀템 외국어 발음 훈련 및 평가 시스템
KR20230088377A (ko) * 2020-12-24 2023-06-19 주식회사 셀바스에이아이 발음 평가를 위한 사용자 인터페이스 제공 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020067870A (ko) * 2001-02-19 2002-08-24 보이스미디어텍(주) 음성인식 기술을 이용한 영어 발음 학습 방법 및 시스템
KR20030081537A (ko) * 2002-04-11 2003-10-22 주식회사 언어과학 음소별 오류유형 검출시스템 및 방법과 이를 적용한발음교정 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020067870A (ko) * 2001-02-19 2002-08-24 보이스미디어텍(주) 음성인식 기술을 이용한 영어 발음 학습 방법 및 시스템
KR20030081537A (ko) * 2002-04-11 2003-10-22 주식회사 언어과학 음소별 오류유형 검출시스템 및 방법과 이를 적용한발음교정 시스템 및 방법

Also Published As

Publication number Publication date
KR20100078374A (ko) 2010-07-08

Similar Documents

Publication Publication Date Title
Hoover et al. The cognitive foundations of reading and its acquisition
Engwall et al. Pronunciation feedback from real and virtual language teachers
Field Cognitive validity
Chen Developing and evaluating an oral skills training website supported by automatic speech recognition technology
Tsai Beyond self-directed computer-assisted pronunciation learning: A qualitative investigation of a collaborative approach
Ashwell et al. How Accurately Can the Google Web Speech API Recognize and Transcribe Japanese L2 English Learners' Oral Production?.
Nurani et al. Improving english pronunciation of adult esl learners through reading aloud assessments
KR101048214B1 (ko) 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치
Kennedy et al. Pronunciation acquisition
Baur The potential of interactive speech-enabled CALL in the Swiss education system: A large-scale experiment on the basis of English CALL-SLT
Wik The Virtual Language Teacher: Models and applications for language learning using embodied conversational agents
Beals et al. Speech and language technology for language disorders
Łodzikowski Association between allophonic transcription tool use and phonological awareness level
Engwall Feedback strategies of human and virtual tutors in pronunciation training
JP2016224283A (ja) 外国語の会話訓練システム
Clifford et al. Applications of technology to language acquisition processes: What can work and why
Stephen The importance of teaching listening
Wik The virtual language teacher
Alkhazraji The Influence of Teacher Talk in English Grammar Acquisition
Walesiak Mobile apps for pronunciation training
Xu Language technologies in speech-enabled second language learning games: From reading to dialogue
Kastner et al. Exploring a Text-to-Speech Feature by Describing Learning Experience, Enjoyment, Learning Styles, and Values--A Basis for Future Studies
Neri The pedagogical effectiveness of ASR-based computer assisted pronunciation training
Montenegro Fernández Using videos as a strategy to teach the pronunciation of Plosive Bilabial Minimal Pairs in seventh-grade students at Juan Pablo II High School, academic period 2022-2023
LaBontee 4 Vocabulary Learning Strategy Surveys in Second Language Acquisition: Design, Context and Content

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160901

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180702

Year of fee payment: 8