KR20170051759A - 비교음 생성을 통한 어학학습방법 및 어학학습프로그램 - Google Patents

비교음 생성을 통한 어학학습방법 및 어학학습프로그램 Download PDF

Info

Publication number
KR20170051759A
KR20170051759A KR1020150152492A KR20150152492A KR20170051759A KR 20170051759 A KR20170051759 A KR 20170051759A KR 1020150152492 A KR1020150152492 A KR 1020150152492A KR 20150152492 A KR20150152492 A KR 20150152492A KR 20170051759 A KR20170051759 A KR 20170051759A
Authority
KR
South Korea
Prior art keywords
sound
data
comparison
reproduction
computer
Prior art date
Application number
KR1020150152492A
Other languages
English (en)
Other versions
KR101920653B1 (ko
Inventor
김태정
Original Assignee
김태정
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김태정 filed Critical 김태정
Priority to KR1020150152492A priority Critical patent/KR101920653B1/ko
Publication of KR20170051759A publication Critical patent/KR20170051759A/ko
Application granted granted Critical
Publication of KR101920653B1 publication Critical patent/KR101920653B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 비교음 생성을 통한 어학학습방법 및 어학학습프로그램에 관한 것이다.
본 발명의 일실시예에 따른 비교음 생성을 통한 어학학습방법은, 원음을 포함하는 동영상데이터 및 자막데이터를 불러오는 단계(S100); 사용자로부터 하나 이상의 분할데이터 또는 하나 이상의 재생범위를 선택받는 단계로서, 상기 분할데이터는 상기 자막데이터를 구성하는 하나 이상의 단어 또는 음절로 구성된 것이고, 상기 재생범위는 상기 동영상데이터의 재생되는 일부 구간인, 재생범위 선택단계(S600); 자막데이터를 바탕으로 텍스트를 음성으로 변환하여 비교음을 생성하는 비교음생성단계(S500); 및 상기 선택된 하나 이상의 분할데이터 또는 하나 이상의 재생범위에 상응하는 원음 또는 비교음을 재생하는 단계(S600);를 포함한다.본 발명에 따르면, 사용자는 드라마 또는 영화를 이용하여 어학 학습을 수행하면서 듣고 이해하기 어려운 부분을 알아듣기 쉽게 발음되는 비교음과 함께 또는 번갈아 청취할 수 있어서, 실생활에서 사람들이 사용하는 대화에 익숙해질 수 있다.

Description

비교음 생성을 통한 어학학습방법 및 어학학습프로그램 {METHOD AND PROGRAM FOR EDCATING LANGUAGE BY MAKING COMPARISON SOUND}
본 발명은 비교음 생성을 통한 어학학습방법 및 어학학습프로그램에 관한 것으로, 보다 자세하게는 동영상에 포함된 원음을 인식하기 쉬운 비교음으로 생성하여 사용자에게 제공하는 어학학습방법 및 어학학습프로그램에 관한 것이다.
해외의 영화나 드라마 등과 같은 영상 콘텐츠를 통해 영어 등과 같은 외국어의 어학 학습을 수행하는 사용자들이 증가하고 있다. 이처럼 영상 콘텐츠를 통해 어학 학습을 수행하는 경우에는 기존의 강의나 교재 등을 이용한 학습에 비해 재미있고 효율적인 학습이 가능할 수 있다.
종래에는 영상 콘텐츠를 통해 어학 학습을 수행하는 경우, 한글로 번역된 자막(예컨대, -가나다라)뿐 아니라 상기 영상 콘텐츠의 해당 언어(예컨대, 영어, -ABCDE) 자막을 동시에 디스플레이하거나, 또는 상기 해당 언어(예컨대, 영어, -ABCDE)자막만을 디스플레이하여 상기 영상 콘텐츠를 시청하게 된다.
기존의 어학 청취프로그램은 영상물 또는 오디오물을 자막과 함께 제공하고 문장 반복기능을 가능케 하는데 그치고 있다. 몇몇 서비스는 속도조절, 받아쓰기, 퀴즈 등의 기능을 부가적으로 제공하고 있다.
기존의 방식과 같이 영화나 드라마 내의 일상적인 대화로 어학 학습을 수행하는 경우, 안 들리는 원어민의 문장을 계속 반복 재생하여 청취하여야 하는 불편함과 어려움이 존재할 수 있다. 반복 재생하여 청취하더라도 정확하게 들리지 않을 수 있다. 또한, 학습자의 청취 이해도를 높이기 위해 영상의 원음과 자막을 함께 표시하는 방식을 적용할 수 있으나, 이는 초급자에게는 도움이 될 수 있지만 중급 이상자에게는 청취력 향상에 오히려 방해가 될 수 있다. 그러나, 실제 외국의 일상생활에서 청취하는 대화는 드라마 또는 영화에서 나오는 원음과 동일하므로, 이에 익숙해지기 위하여 원음을 이용한 학습을 수행할 필요는 존재한다. 특히, 영어 어학 공부의 경우, 고등학교 영어듣기 교재의 발화속도가 135WPM, 토익 교재의 발화속도가 150 WPM정도이여서 정규교육과정기간 동안 청취하는 컨텐츠만으로는 실제 영어환경에 적응하기 어려운 현실이고, 실제 영어환경과 유사한 발화속도(200WPM정도)를 가지는 드라마 또는 영화를 이용한 어학 공부가 필요하다.
또한, 일반 영상 컨텐츠를 이용하여 어학공부를 수행하는 경우, 사용자들은 속도를 느리게 조절하여 청취를 수행하지만 재생속도와 무관하게 유지되는 변화음(예를 들어, 동화, 연음, 축약, 생략, 탈락 등)에 의해 정확히 청취하는데 어려움을 겪는다. 따라서, 재생속도 조절을 수행하는 것만으로 단순히 일반영상 컨텐츠(예를 들어, 미국 드라마, 해외영화 등)을 이용한 어학 학습을 수행하는 것은 학습 효율이 매우 떨어진다.
따라서, 원음을 포함하는 동영상과 이에 상응하는 자막데이터를 이용하여 성우들이 녹음한 것과 같은 깔끔한 발음 또는 음질의 비교음을 생성하고, 사용자에게 원음과 함께 비교음을 제공함에 따라 원음에 적응하도록 도와주는, 비교음 생성을 통한 어학학습방법 및 어학학습프로그램을 제공하고자 한다.
또한, 사용자가 원하는 대사부분만을 다시 시청하기 위해서는 일일이 사용자가 재생 컨트롤을 수행해야만 하며, 해당 대사가 시작되는 시점을 정확히 찾기 위해서는 상기 해당 대사가 재생되는 재생시점의 재생시간을 알아야하는 번거로움이 존재한다.
또한, 하나의 대사가 아닌 여러 개의 대사가 포함된 소정의 구간을 구간반복하여 시청하기 원하는 경우에도 종래의 콘텐츠 재생 시스템에 의하면 상기 소정의 구간이 시작될 재생부분의 재생시간과, 상기 소정의 구간이 종료될 부분의 재생시간을 찾아 일일이 구간설정을 해야하기 때문에 사용자가 큰 불편함을 느낄 수 있는 문제점이 있다. 따라서, 비교음을 제공받기를 원하는 특정한 자막데이터 내 분할데이터 범위 또는 동영상의 재생범위를 간편하게 선택할 수 있는, 비교음 생성을 통한 어학학습방법 및 어학학습프로그램을 제공하고자 한다.
본 발명의 일실시예에 따른 비교음 생성을 통한 어학학습방법은, 원음을 포함하는 동영상데이터 및 자막데이터를 불러오는 단계; 사용자로부터 하나 이상의 분할데이터 또는 하나 이상의 재생범위를 선택받는 단계로서, 상기 분할데이터는 상기 자막데이터를 구성하는 하나 이상의 단어 또는 음절로 구성된 것이고, 상기 재생범위는 상기 동영상데이터의 재생되는 일부 구간인, 재생범위 선택단계; 자막데이터를 바탕으로 텍스트를 음성으로 변환하여 비교음을 생성하는 비교음생성단계; 및 상기 선택된 하나 이상의 분할데이터 또는 하나 이상의 재생범위에 상응하는 원음 또는 비교음을 재생하는 단계;를 포함한다.
또한, 상기 원음 또는 비교음을 재생하는 단계는, 사용자의 요청에 따라 원음 재생 후 연속하여 비교음을 재생하는 것을 특징으로 할 수 있다.
또한, 상기 비교음생성단계는, 원음의 발화속도를 산출하는 단계; 및 상기 발화속도를 바탕으로 비교음 재생속도를 결정하는 단계;를 더 포함할 수 있다.
또한, 상기 발화속도 산출단계는, 특정한 분할데이터에 포함된 기준단위의 개수를 산출하되, 상기 기준단위는 음절 또는 단어인, 단계; 상기 분할데이터의 시작시점과 종결시점의 차이를 계산하여, 상기 분할데이터의 재생시간을 산출하는 단계; 및 단위시간 당 재생되는 기준단위의 개수를 발화속도로 산출하는 단계;를 포함할 수 있다.
또한, 상기 발화속도를 기준으로 상기 동영상데이터의 난이도를 분류하는 단계;를 더 포함할 수 있다.
또한, 상기 자막데이터 내에 포함된 분할식별표지를 기준으로 분할데이터 생성하는 단계;를 더 포함할 수 있다.
또한, 상기 분할식별표지에 대응하는 상기 동영상데이터 내 재생시점을 인식하는 단계;를 더 포함할 수 있다.
또한, 상기 분할식별표지에 대응하는 재생시점 인식단계는, 상기 분할식별표지에 인접한 하나 이상의 단어를 추출하는 단계; 상기 분할식별표지를 포함하는 특정한 자막범위에 동기화되어 있는 동영상 재생범위 내 원음을 텍스트로 변환하는 단계; 상기 추출된 하나 이상의 단어를 상기 텍스트 내에서 탐색하는 단계; 및 상기 추출된 하나 이상의 단어와 상기 분할식별표지의 위치관계 및 상기 추출된 하나 이상의 단어에 상응하는 재생시점을 바탕으로, 상기 분할식별표지에 상응하는 동영상 내 재생시점을 인식하는 단계;를 포함할 수 있다.
또한, 상기 비교음생성단계는, 사용자가 설정한 비교음생성조건에 따라 생성되는 것을 특징으로 하고, 상기 비교음생성조건은, 상기 비교음의 성별, 지역특성을 포함하는 것을 특징으로 할 수 있다.본 발명의 다른 일실시예에 따른 비교음 생성을 통한 어학학습 프로그램은, 하드웨어와 결합되어 상기 언급된 비교음 생성을 통한 어학학습 방법을 실행하며, 매체에 저장된다.
첫째, 사용자는 드라마 또는 영화를 이용하여 어학 학습을 수행하면서 듣고 이해하기 어려운 부분을 알아듣기 쉽게 발음되는 비교음과 함께 또는 번갈아 청취할 수 있어서, 컨텐츠의 원음에 익숙해질 수 있으며, 실생활에서 사람들이 사용하는 대화에 익숙해질 수 있다. 특히, 변화음이 많은 원음과 변화음이 없는 비교음을 같은 발화속도로 번갈아 들음(예를 들어, 느린 원음과 같은 발화속도의 느린 비교음을 비교청취)으로써, 사용자는 실제 대화에서 어떠한 변화음이 발생하는 인지할 수 있다. 이를 통해, 자막과 함께 학습하는 경우보다 청취력이 향상될 수 있다.
둘째, 사용자는 간편하게 원하는 특정한 분할단위를 선택하여 반복 청취할 수 있다. 이를 통해, 어학 학습 과정에서 반복 구간 설정 등을 위해 불필요하게 낭비되는 시간을 줄일 수 있다.
도 1은 본 발명의 일실시예에 따른 비교음 생성을 통한 어학학습방법에 대한 순서도이다.
도 2는 본 발명의 일실시예에 따른 발화속도를 산출하여 비교음의 재생속도를 산출하는 과정의 순서도이다.
도 3은 본 발명의 일실시예에 따른 발화속도를 산출하는 과정의 순서도이다.
도 4는 본 발명의 일실시예에 따른, 동기화된 자막의 기본단위보다 작은 분할데이터를 생성하여 동영상을 분할하는 과정을 더 포함하는, 비교음 생성을 통한 어학학습방법에 대한 순서도이다.
도 5는 본 발명의 일실시예에 따라 분할식별표지에 대응하는 재생시점을 인식하는 과정의 순서도이다.
도 6은 본 발명의 일실시예에 따른 분할식별표지에 대응하는 동영상 내 재생시점을 인식하는 예시도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
본 명세서에서 컴퓨터는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버(즉, 서버 컴퓨터)가 해당될 수 있다.
본 명세서에서 원음은, 동영상데이터 내에 포함된 원본 음성데이터를 의미한다. 본 명세서에서 비교음은, 동영상데이터에 상응하는 자막데이터(즉, 텍스트)를 컴퓨터가 읽어서 생성된 음성데이터를 의미한다.
이하, 도면을 참조하여 본 발명의 실시예들에 따른 비교음 생성을 통한 어학학습방법 및 어학학습프로그램에 대해 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 비교음 생성을 통한 어학학습방법에 대한 순서도이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 비교음 생성을 통한 어학학습방법은, 원음을 포함하는 동영상데이터 및 자막데이터를 불러오는 단계(S100); 사용자로부터 하나 이상의 분할데이터 또는 하나 이상의 재생범위를 선택받는 단계로서, 상기 분할데이터는 상기 자막데이터를 구성하는 하나 이상의 단어 또는 음절로 구성된 것이고, 상기 재생범위는 상기 동영상데이터의 재생되는 일부 구간인, 재생범위 선택단계(S600); 자막데이터를 바탕으로 텍스트를 음성으로 변환하여 비교음을 생성하는 비교음생성단계(S500); 및 상기 선택된 하나 이상의 분할데이터 또는 하나 이상의 재생범위에 상응하는 원음 또는 비교음을 재생하는 단계(S600);를 포함한다.
컴퓨터는 원음을 포함하는 동영상데이터 및 자막데이터를 불러온다(S100). 즉, 원음을 포함하는 동영상데이터는, 어학 학습을 수행하기 위한 동영상으로, 일반적으로 방송, 상영 또는 배포되는 드라마, 영화, 애니메이션 등을 포함할 수 있다. 자막데이터는 동영상 내에 포함된 원음에 상응하는 텍스트를 의미한다. 예를 들어, 동영상데이터가 외화드라마인 경우, 원음은 외화드라마 내에서 등장인물이 발화하는 음성에 해당하고, 자막데이터는 등장인물이 발화하는 음성에 상응하는 텍스트를 의미할 수 있다.
자막데이터는 동영상의 각 대사 시점에 부합하도록 동기화(Sync)되어 있는 것일 수 있고, 동영상에 동기화되어 있지 않는 것일 수도 있다. 예를 들어, 동영상에 동기화되어 있지 않은 자막데이터는 영화 또는 드라마의 시나리오 등의 스크립트가 해당될 수 있다.
컴퓨터가 서버인 경우, 서버 운영자가 서버에 동영상데이터를 업로드할 수 있고, 상기 동영상데이터의 원음에 대응하는 자막데이터를 업로드할 수 있다. 컴퓨터가 이동단말기 등의 특정한 사용자에 의해 사용되는 클라이언트인 경우, 사용자는 본인이 학습하기를 원하는 동영상데이터를 이동단말기에 입력할 수 있고, 상기 동영상데이터의 원음에 대응하는 자막데이터도 입력(예를 들어, 사용자가 자막데이터를 보유하고 있는 경우에는 자막데이터를 함께 이동단말기의 저장부에 입력할 수 있고, 동영상데이터에 대응하는 자막데이터를 서버로부터 사용자의 요청에 따라 또는 자동으로 이동단말기에 다운로드하여 입력)할 수 있다.
컴퓨터는 사용자로부터 하나 이상의 분할데이터 또는 하나 이상의 재생범위를 선택받는다(S600). 상기 분할데이터는 자막데이터를 특정한 분할단위로 분할한 것으로, 자막데이터에 포함된 하나 이상의 단어 또는 음절로 구성된 것일 수 있다. 상기 분할단위는 하나 이상의 단어, 하나 이상의 문장 등에 해당하여 특정한 의미를 가지는 단위일 수 있다. 즉, 분할데이터는 동영상 내의 특정한 등장인물이 발화하는 문장일 수 있고, 복수의 문장그룹일 수 있다. 또한, 분할데이터는 긴 문장 내의 특정한 구절(예를 들어, 한 문장 내에서 일반적으로 끊어서 읽거나 문법적으로 나누어지는 복수의 구절)이 해당될 수 있다.
컴퓨터는 사용자의 설정에 따라 자막데이터를 구성하는 분할데이터의 유형을 상이하게 정할 수 있다. 예를 들어, 사용자가 초급자인 경우, 컴퓨터는 사용자로부터 설정요청을 수신하여 짧은 구절 단위를 분할데이터 기준으로 설정할 수 있다. 또한, 예를 들어, 사용자가 고급자인 경우, 컴퓨터는 사용자로부터 설정요청을 수신하여 복수의 문장이 연결된 문장그룹을 분할데이터의 단위 또는 기준으로 설정할 수 있다.
상기 컴퓨터가 사용자가 보유한 클라이언트 단말기인 경우, 컴퓨터는 사용자로부터 직접 특정한 조작을 입력받아서 하나 이상의 분할데이터 또는 하나 이상의 재생범위를 선택받을 수 있다. 예를 들어, 사용자는 복수의 범위로 구별되도록 표시된 타임라인에서 특정한 분할데이터를 선택할 수 있다. 또한, 예를 들어, 사용자는 화면 상에 제시되는 각 재생범위 내의 대표화면 중 하나 이상을 선택할 수 있다. 또한, 사용자는 전체 자막데이터(즉, 스크립트)에서 연속된 하나 이상의 분할데이터를 지정할 수 있다. 상기 컴퓨터가 서버인 경우, 서버는 특정한 사용자의 클라이언트로부터 선택입력을 유무선통신을 통해 수신할 수 있다.
컴퓨터는 자막데이터를 바탕으로 텍스트를 음성으로 변환(이하, 제1변환이라고 칭한다)하여 비교음을 생성한다(S500). 예를 들어, 컴퓨터는 상기 S600단계의 수행 전에 자막데이터 전체에 대해서 제1변환을 통해 비교음 생성을 수행하고 선택된 재생범위 또는 분할데이터에 상응하는 비교음을 추출할 수 있다. 또한, 예를 들어, 컴퓨터는 상기 S600단계 수행에 따라 선택된 재생범위 또는 분할데이터의 비교음을 생성할 수 있다.
또한, 상기 비교음생성단계(S500)는, 도 2에서와 같이, 원음의 발화속도를 산출하는 단계(S510); 및 상기 발화속도를 바탕으로, 상기 제1변환에 따른 비교음 재생속도를 결정하는 단계(S520);를 포함할 수 있다. 사용자는 비교음을 원음과 동일한 속도 또는 원음의 재생속도에 대해 특정한 비율만큼 빠르거나 느린 속도로 재생되기를 원할 수 있다.
따라서, 먼저, 컴퓨터는 동영상데이터에 포함된 원음의 발화속도를 산출할 수 있다(S510). 발화속도는 동영상 내의 등장인물이 대사를 말하는 속도를 의미한다. 또한, 동영상 내에 복수의 사용자가 등장하고 사용자마다 발화속도가 다른 경우, 컴퓨터는 등장인물별로 원음(즉, 대사)을 구별하여 각 등장인물에 대한 발화속도를 산출할 수 있다. 발화속도를 산출하는 방식으로는 다양한 방식이 적용될 수 있으며, 이하 기재되는 방식에 한정되지 아니한다.
발화속도를 산출하는 일실시예로, 도 3에서와 같이, 상기 발화속도 산출단계(S510)는, 특정한 분할데이터에 포함된 기준단위의 개수를 산출하는 단계(S511); 상기 분할데이터의 재생시간을 산출하는 단계(S512); 및 단위시간 당 재생되는 기준단위의 개수를 발화속도로 산출하는 단계(S513);를 포함할 수 있다.
먼저, 컴퓨터는 특정한 분할데이터에 포함된 기준단위의 개수를 산출할 수 있다(S511). 상기 기준단위는 음절 또는 단어일 수 있다. 즉, 컴퓨터는 분할데이터 내에 포함된 음절 또는 단어 중 어느 하나의 개수를 파악할 수 있다. 예를 들어, 상기 기준단위가 단어인 경우, 컴퓨터는 분할데이터 내의 띄어쓰기를 기준으로 단어 개수를 산출할 수 있다. 또한, 예를 들어, 상기 기준단위가 음절이고 언어가 한글인 경우, 한글은 자음과 모음이 결합된 글자(Character) 각각이 음절에 해당하므로, 컴퓨터는 글자 개수를 세어서 음절 개수를 산출할 수 있다.
또한, 예를 들어, 상기 분할데이터가 알파벳으로 구성되고 상기 기준단위는 음절인 경우, 컴퓨터는 단어별 음절수가 누적된 데이터베이스에서 탐색을 수행하여 상기 분할데이터를 구성하는 각 단어의 음절수를 파악하고, 이를 통해 각 분할데이터의 음절수를 산출할 수 있다.
그 후, 컴퓨터는 분할데이터의 재생시간을 산출할 수 있다(S512). 즉, 컴퓨터는 분할데이터의 시작시점과 종결시점을 바탕으로 재생시간을 산출할 수 있다. 구체적으로, 컴퓨터는 특정한 분할데이터(예를 들어, 특정한 문장 또는 특정한 등장인물이 연속하여 말하는 전체 대사 등)가 시작되는 시점과 종결되는 시점을 인식하고, 두 시점 사이의 차이를 산출할 수 있다. 즉, 컴퓨터는 특정한 분할데이터가 종결되는 시점의 수치에서 시간되는 시점의 수치를 빼서, 상기 분할데이터의 재생시간을 산출할 수 있다.
그 후, 컴퓨터는 단위시간 당 재생되는 기준단위의 개수를 발화속도로 산출할 수 있다(S513). 예를 들어, 컴퓨터는 특정한 분할데이터에 포함된 기준단위의 개수를 분할데이터의 재생시간으로 나누어 발화속도를 산출할 수 있다. 상기 단위시간은, 분, 초 등의 적절한 시간단위가 될 수 있다.
발화속도를 산출(S510)한 후, 컴퓨터는 상기 발화속도를 바탕으로, 비교음 재생속도를 결정할 수 있다(S520). 즉, 컴퓨터는 원음의 발화속도를 바탕으로 텍스트의 음성 변환을 통한 비교음 재생속도를 결정할 수 있다. 컴퓨터는 산출된 원음 재생속도와 동일하게 비교음 재생속도를 결정할 수도 있고, 사용자가 쉽게 인지할 수 있도록 특정비율만큼 비교음 재생속도를 낮출 수도 있다.
또한, 상기 비교음생성단계(S500)는, 사용자가 설정한 비교음생성조건에 따라 생성되는 것을 특징으로 할 수 있다. 상기 비교음생성조건은 상기 비교음의 성별, 지역특성 등을 포함할 수 있다. 예를 들어, 사용자는 비교음으로 남성 또는 여성 중 어느 하나의 목소리로 비교음을 생성하도록 컴퓨터에 요청할 수 있다. 또한, 사용자는 지역별 특성(예를 들어, 발음 특성)을 반영하여 비교음을 생성하도록 컴퓨터에 요청할 수 있다. 예를 들어, 영어의 경우, 컴퓨터는 나라별(예를 들어, 영국, 미국, 남아공, 호주, 뉴질랜드 등) 발음 특성을 반영하여 사용자의 요청에 따라 특정한 나라(지역)의 발음으로 비교음을 생성할 수 있다.
컴퓨터는 상기 선택된 하나 이상의 분할데이터 또는 하나 이상의 재생범위에 상응하는 원음 또는 비교음을 재생한다(S600). 특히, 컴퓨터는 사용자의 요청에 따라 원음 재생 후 연속하여 비교음을 재생할 수 있다. 실생활에서 원어민들이 사용하는 발음, 억양 등에 익숙해질 수 있도록 선택된 하나 이상의 분할데이터에 대한 원음을 들려준 후 이어서 또박또박 읽어지는 비교음을 재생할 수 있다. 이를 통해, 사용자는 듣기용 발음이 아닌 실생활 발음에 친숙해질 수 있다.
또한, 본 발명의 일실시예는, 상기 발화속도를 기준으로 상기 동영상데이터의 난이도를 분류하는 단계;를 더 포함할 수 있다. 즉, 컴퓨터는 발화속도가 빠를수록 높은 난도의 동영상으로 판단할 수 있다. 또한, 하나의 동영상 내에 상이한 발화속도의 대화자가 포함된 경우, 컴퓨터는 복수의 발화속도를 평균한 값으로 난이도를 결정할 수 있으며, 각 발화자의 대화비율을 가중치로 적용하여 평균값을 산출하고, 이에 따라 동영상의 학습 시 난이도를 결정할 수 있다.
또한, 본 발명의 일실시예는, 도 4에서와 같이, 분할데이터를 생성하는 단계(S200);를 더 포함할 수 있다. 즉, 자막데이터가 기본적으로 나누어져서 생성된 최소단위에 보다 작은 단위(또는 크기)로 분할데이터를 생성하는 경우, 컴퓨터는 세부단위로 나누어서 생성할 수 있다.
컴퓨터는 자막데이터 내에 포함된 분할식별표지를 기준으로 분할된 분할데이터를 생성할 수 있다. 분할식별표지는 복수의 분할데이터 사이에 배치 또는 입력되어서 분할데이터의 경계가 되는 식별표지를 의미할 수 있다. 예를 들어, 자막데이터는 슬래시(Slash; /) 등과 같은 특정한 분할식별표지를 포함할 수 있고, 컴퓨터는 슬래시(/)를 경계로 분할하여 분할데이터로 생성할 수 있다. 또한, 예를 들어, 일반적인 문장 내에 포함되는 마침표(.), 쉼표(콤마; ,), 접속사(예를 들어, 그리고, 그래서 등) 등을 자막데이터 내의 식별표지로 이용할 수 있고, 컴퓨터는 이를 경계로(즉, 특정한 식별표지의 앞 또는 뒤) 자막데이터를 분할하여 하나 이상의 분할데이터를 생성할 수 있다.
일실시예로, 자막데이터가 분할된 최소단위가 문장인 경우, 컴퓨터는 하나 문장 내에 분할데이터로 생성하기 위해 분할을 원하는 위치에 분할식별표지를 포함할 수 있다. 컴퓨터는 하나 이상의 분할식별표지를 인식하여 분할할 수 있다.
또한, 도 4에서와 같이, 분할식별표지에 대응하는 재생시점을 인식하는 단계(S300);를 더 포함할 수 있다. 자막데이터의 최소단위보다 작은 크기로 생성된 분할데이터에 부합하는 동영상 부분을 원음 또는 비교음과 함께 재생하기 위해서는, 컴퓨터는 분할식별표지에 상응하는 재생시점을 인식하여 특정한 분할데이터에 상응하는 재생범위를 인식할 필요가 있다. 구체적으로, 컴퓨터는 화면상에 한번에 표시되는 자막에 해당하는 텍스트가 표시되는 시작시점 및 종료시점에 관한 데이터만 포함하여, 화면상에 동시에 표시되는 자막 부분의 특정한 중간지점은 동영상의 어느 재생시점에 대응하는지 파악하지 못할 수 있다. 따라서, 컴퓨터는 특정한 분할식별표지가 표시된 재생시점이 언제인지 산출할 필요가 있다.
이를 위해, 컴퓨터는 동영상의 음성인식을 통해 동영상에 포함된 텍스트를 인식하고, 자막데이터와 동영상의 텍스트 간에 비교를 통해 분할식별표지의 재생시점을 파악할 수 있다. 먼저, 컴퓨터가 자막데이터 내에 포함된 분할식별표지를 인식하고, 분할식별표지의 주변에 위치하는 단어를 추출할 수 있다(S310). 그 후, 컴퓨터는 분할식별표지를 포함하는 특정한 자막범위에 매칭되어 있는 동영상 재생범위에서 음성인식을 통해 텍스트로 변환할 수 있다(S320). 그 후, 컴퓨터는 분할식별표지 주변에서 추출된 단어를 음성인식된 텍스트 내에서 탐색할 수 있다(S330). 그 후, 컴퓨터는 상기 추출된 단어에 상응하는 재생시점, 및 추출단어와 분할식별표지의 위치관계를 바탕으로, 분할식별표지에 상응하는 동영상 내 재생시점을 인식할 수 있다(S340).
구체적으로, 도 6에서 도시된 바와 같이, 컴퓨터는 자막데이터 내 특정한 문장 내에서 분할식별표지인 슬래시(/)를 인식하고(S310), 분할식별표지의 앞뒤에 배치된 단어인 ‘insulted’와 ‘that’을 추출할 수 있다(S320). 그 후, 컴퓨터는 음성인식을 통해 동영상데이터 내의 ‘insulted’와 ‘that’이 연속적으로 나오는 부분을 찾고 각 단어의 종결시점 및 시작시점을 파악할 수 있다. insulted’의 종결시점이 1분23초이고 ‘that’의 시작시점이 1분24초이면, 컴퓨터는 그 사이에 위치한 분할식별표지(슬래시;/)의 재생시점을 1분23초 또는 1분24초로 결정할 수 있다.
이를 통해, 사용자는 동영상과 동기화가 이루어져 있는 자막데이터의 최소단위보다 작은 크기(예를 들어, 자막데이터의 동기화 최소단위가 문장인 경우에 문장을 구성하는 구 또는 절)로 분할하여 어학공부를 수행할 수 있어서, 초급자가 세부단위로 끊어서 반복 청취를 간편하게 수행할 수 있다. 이를 통해, 일반인들의 대화에 해당하는 영화 또는 드라마를 통해, 초급자도 실생활 영어에 차근차근 적응해갈 수 있는 효과가 있다.
또한, 각각의 분할데이터의 시작시점 및 종결시점을 바탕으로 재생범위를 설정하는 단계;를 더 포함할 수 있다. 상기 재생범위는 동영상데이터의 재생되는 일부 구간을 의미할 수 있다. 동영상의 특정한 재생시점을 선택하는 경우에 해당 재생시점이 포함된 분할데이터(예를 들어, 문장 등)을 처음부터 끝까지 재생하도록 하기 위해, 컴퓨터는 분할데이터에 상응하는 동영상 재생범위(즉, 시작시점 및 종결시점)를 인식하여 재생기준단위를 생성할 수 있다. 즉, 어학 공부를 수행하는 경우, 컴퓨터는 사용자에 의해 선택된 특정한 중간시점이 아닌 해당 중간시점을 포함하는 재생범위의 처음부터 동영상을 재생하면서 원음 또는 비교음이 재생하도록 할 수 있다. 따라서, 컴퓨터는 각각의 분할데이터의 시작시점 및 종결시점에 대응하는 동영상의 두 시점의 사이를 재생범위로 설정하여, 어학학습을 위한 분할된 재생단위를 형성할 수 있다.
이를 통해, 사용자는 어학 학습을 위해 반복 재생을 수행하는 과정에서 대화가 존재하지 않는 구간을 재생하지 않아도 되어, 불필요한 시간 낭비와 어학 학습에 대한 장애요소를 해소할 수 있다. 또한, 특정한 분할데이터 단위로 재생할 수 있는 파트를 생성하고 이를 지정 또는 선택하도록 할 수 있어서, 사용자는 원하는 재생영역을 간편하게 지정할 수 있어서, 반복재생을 위해 구간을 설정하거나 되돌리기를 반복할 필요가 없다.
또한, 동영상데이터와 자막데이터가 동기화가 되어 있지 않는 경우, 컴퓨터는 분할데이터를 재생범위에 매칭할 수 있다. 일실시예로, 컴퓨터는 음성인식을 통해 동영상데이터와 자막데이터를 동기화를 수행하고 매칭할 수 있다. 자막데이터가 텍스트로만 생성되어 있는 경우(예를 들어, 자막데이터가 스크립트만 포함하여 분할데이터의 순서만 인식 가능하고 재생시점을 인식할 수 없는 경우), 동영상데이터의 원음을 음성인식하여 자막데이터에 포함된 각각의 분할데이터와 연결하여야 한다. 즉, 컴퓨터는 동영상데이터의 원음을 인식하여 분할데이터와 비교함에 따라, 상기 자막데이터와 상기 동영상데이터의 동기화를 수행할 수 있다.
따라서, 이를 위한 일실시예로, 컴퓨터가 상기 동영상데이터의 원음에 대해 제2변환을 수행하여 발화문자데이터를 생성하는 단계; 및 상기 발화문자데이터와 상기 분할데이터를 비교하여, 상기 자막데이터와 상기 동영상데이터의 동기화를 수행하는 단계;를 더 포함할 수 있다. 상기 제2변환은 음성을 텍스트로 변환하는 것을 의미하고, 상기 발화문자데이터는 음성-텍스트 변환을 통해 동영상데이터의 원음을 텍스트로 표현한 것을 의미한다. 컴퓨터는 제2변환을 통해 발화문자데이터를 생성하고, 발화문자데이터를 대응되는 원음이 출력되는 재생범위에 매칭할 수 있다. 그 후, 컴퓨터는 발화문자데이터에 대응되는 자막데이터 내 분할데이터를 파악하고, 파악된 분할데이터를 발화문자데이터가 매칭된 재생범위에 연결할 수 있다. 음성인식을 통해 텍스트로 정확하게 변환되지 않을 수 있으므로, 컴퓨터는 발화문자데이터와 자막데이터 간의 유사도 판단을 통해 재생범위에 대한 분할데이터의 매칭을 수행할 수 있다. 이상에서 전술한 본 발명의 일 실시예에 따른 비교음 생성을 통한 어학학습방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.
첫째, 사용자는 드라마 또는 영화를 이용하여 어학 학습을 수행하면서 듣고 이해하기 어려운 부분을 알아듣기 쉽게 발음되는 비교음과 함께 또는 번갈아 청취할 수 있어서, 컨텐츠의 원음에 익숙해질 수 있으며, 실생활에서 사람들이 사용하는 대화에 익숙해질 수 있다. 특히, 변화음이 많은 원음과 변화음이 없는 비교음을 같은 발화속도로 번갈아 들음(예를 들어, 느린 원음과 같은 발화속도의 느린 비교음을 비교청취)으로써, 사용자는 실제 대화에서 어떠한 변화음이 발생하는 인지할 수 있다. 이를 통해, 자막과 함께 학습하는 경우 또는 원음의 속도를 조절하면서 학습하는 경우보다 청취력이 향상될 수 있다.
둘째, 사용자는 간편하게 원하는 특정한 분할단위를 선택하여 반복 청취할 수 있다. 이를 통해, 어학 학습 과정에서 반복 구간 설정 등을 위해 불필요하게 낭비되는 시간을 줄일 수 있다.이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (10)

  1. 원음을 포함하는 동영상데이터 및 자막데이터를 불러오는 단계;
    사용자로부터 하나 이상의 분할데이터 또는 하나 이상의 재생범위를 선택받는 단계로서, 상기 분할데이터는 상기 자막데이터를 구성하는 하나 이상의 단어 또는 음절로 구성된 것이고, 상기 재생범위는 상기 동영상데이터의 재생되는 일부 구간인, 재생범위 선택단계;
    자막데이터를 바탕으로 텍스트를 음성으로 변환하여 비교음을 생성하는 비교음생성단계; 및
    상기 선택된 하나 이상의 분할데이터 또는 하나 이상의 재생범위에 상응하는 원음 또는 비교음을 재생하는 단계;를 포함하는, 비교음 생성을 통한 어학학습방법.
  2. 제1항에 있어서,
    상기 원음 또는 비교음을 재생하는 단계는,
    사용자의 요청에 따라 원음 재생 후 연속하여 비교음을 재생하는 것을 특징으로 하는, 비교음 생성을 통한 어학학습방법.
  3. 제1항에 있어서,
    상기 비교음생성단계는,
    원음의 발화속도를 산출하는 단계; 및
    상기 발화속도를 바탕으로, 상기 제1변환에 따른 비교음 재생속도를 결정하는 단계;를 더 포함하는, 비교음 생성을 통한 어학학습방법.
  4. 제3항에 있어서,
    상기 발화속도 산출단계는,
    특정한 분할데이터에 포함된 기준단위의 개수를 산출하되, 상기 기준단위는 음절 또는 단어인, 단계;
    상기 분할데이터의 시작시점과 종결시점의 차이를 계산하여, 상기 분할데이터의 재생시간을 산출하는 단계; 및
    단위시간 당 재생되는 기준단위의 개수를 발화속도로 산출하는 단계;를 포함하는, 비교음 생성을 통한 어학학습방법.
  5. 제3항에 있어서,
    상기 발화속도를 기준으로 상기 동영상데이터의 난이도를 분류하는 단계;를 더 포함하는, 비교음 생성을 통한 어학학습방법.
  6. 제1항에 있어서,
    상기 자막데이터 내에 포함된 분할식별표지를 기준으로 분할데이터 생성하는 단계;를 더 포함하는, 비교음 생성을 통한 어학학습방법.
  7. 제6항에 있어서,
    상기 분할식별표지에 대응하는 상기 동영상데이터 내 재생시점을 인식하는 단계;를 더 포함하는, 비교음 생성을 통한 어학학습방법.
  8. 제6항에 있어서,
    상기 분할식별표지에 대응하는 재생시점 인식단계는,
    상기 분할식별표지에 인접한 하나 이상의 단어를 추출하는 단계;
    상기 분할식별표지를 포함하는 특정한 자막범위에 동기화되어 있는 동영상 재생범위 내 원음을 텍스트로 변환하는 단계;
    상기 추출된 하나 이상의 단어를 상기 텍스트 내에서 탐색하는 단계; 및
    상기 추출된 하나 이상의 단어와 상기 분할식별표지의 위치관계 및 상기 추출된 하나 이상의 단어에 상응하는 재생시점을 바탕으로, 상기 분할식별표지에 상응하는 동영상 내 재생시점을 인식하는 단계;를 포함하는, 비교음 생성을 통한 어학학습방법.
  9. 제1항에 있어서,
    상기 비교음생성단계는,
    사용자가 설정한 비교음생성조건에 따라 생성되는 것을 특징으로 하고,
    상기 비교음생성조건은,
    상기 비교음의 성별, 지역특성을 포함하는 것을 특징으로 하는, 비교음 생성을 통한 어학학습방법.
  10. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제9항의 방법을 실행시키기 위하여 매체에 저장된, 비교음 생성을 통한 어학학습프로그램.
KR1020150152492A 2015-10-30 2015-10-30 비교음 생성을 통한 어학학습방법 및 어학학습프로그램 KR101920653B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150152492A KR101920653B1 (ko) 2015-10-30 2015-10-30 비교음 생성을 통한 어학학습방법 및 어학학습프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150152492A KR101920653B1 (ko) 2015-10-30 2015-10-30 비교음 생성을 통한 어학학습방법 및 어학학습프로그램

Publications (2)

Publication Number Publication Date
KR20170051759A true KR20170051759A (ko) 2017-05-12
KR101920653B1 KR101920653B1 (ko) 2018-11-22

Family

ID=58740645

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150152492A KR101920653B1 (ko) 2015-10-30 2015-10-30 비교음 생성을 통한 어학학습방법 및 어학학습프로그램

Country Status (1)

Country Link
KR (1) KR101920653B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261539B1 (ko) * 2020-06-02 2021-06-07 주식회사 날다 지능형 한국 문화 플랫폼 서비스 제공 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220022822A (ko) * 2020-08-19 2022-02-28 (주)헤이스타즈 단말기의 음성인식 기능과 tts 기능을 이용한 한국어 학습방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100636386B1 (ko) * 2005-11-03 2006-10-19 한국전자통신연구원 실시간 비디오 음성 더빙 장치 및 그 방법
KR100974002B1 (ko) * 2008-04-25 2010-08-05 설융석 영상 재생에 의한 외국어 뉘앙스 학습 시스템
KR101069631B1 (ko) * 2008-10-28 2011-10-05 윤병원 어학 학습을 위한 컨텐츠 파일 자동생성 시스템 및 방법
JP2011232775A (ja) * 2011-07-23 2011-11-17 Makoto Goto 発音学習装置及び発音学習プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261539B1 (ko) * 2020-06-02 2021-06-07 주식회사 날다 지능형 한국 문화 플랫폼 서비스 제공 시스템

Also Published As

Publication number Publication date
KR101920653B1 (ko) 2018-11-22

Similar Documents

Publication Publication Date Title
US11887578B2 (en) Automatic dubbing method and apparatus
CN105244022B (zh) 音视频字幕生成方法及装置
US11056104B2 (en) Closed captioning through language detection
WO2021083071A1 (zh) 语音转换、文件生成、播音、语音处理方法、设备及介质
JP5750380B2 (ja) 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
US20200211565A1 (en) System and method for simultaneous multilingual dubbing of video-audio programs
KR101819459B1 (ko) 음성 인식 오류 수정을 지원하는 음성 인식 시스템 및 장치
CN110867177A (zh) 音色可选的人声播放系统、其播放方法及可读记录介质
KR20160111292A (ko) 말하기 학습 기능을 구비한 외국어 학습 시스템 및 외국어 학습 방법
CN106328146A (zh) 一种视频的字幕生成方法及装置
CN110675886A (zh) 音频信号处理方法、装置、电子设备及存储介质
CN111079423A (zh) 一种听写报读音频的生成方法、电子设备及存储介质
JP2006337667A (ja) 発音評価方法、音素列モデル学習方法、これらの方法を用いた装置、プログラム、および記録媒体。
CN111739536A (zh) 一种音频处理的方法和装置
KR101920653B1 (ko) 비교음 생성을 통한 어학학습방법 및 어학학습프로그램
KR20220048958A (ko) 외국어 동영상의 자막 필터링 방법 및 이를 수행하는 시스템
JP2019056791A (ja) 音声認識装置、音声認識方法およびプログラム
CN113851140A (zh) 语音转换相关方法、系统及装置
KR20030079497A (ko) 대화형 언어학습 시스템 및 서비스방법
CN113450783B (zh) 用于渐进式自然语言理解的系统和方法
CN115171645A (zh) 一种配音方法、装置、电子设备以及存储介质
KR20140079677A (ko) 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법
Abdo et al. Building Audio-Visual Phonetically Annotated Arabic Corpus for Expressive Text to Speech.
JP2016186646A (ja) 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
KR102011595B1 (ko) 청각 장애인을 위한 소통 지원 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant