KR20180129486A - Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof - Google Patents

Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof Download PDF

Info

Publication number
KR20180129486A
KR20180129486A KR1020170065610A KR20170065610A KR20180129486A KR 20180129486 A KR20180129486 A KR 20180129486A KR 1020170065610 A KR1020170065610 A KR 1020170065610A KR 20170065610 A KR20170065610 A KR 20170065610A KR 20180129486 A KR20180129486 A KR 20180129486A
Authority
KR
South Korea
Prior art keywords
chunk
unit
separation
sentence
text
Prior art date
Application number
KR1020170065610A
Other languages
Korean (ko)
Other versions
KR101990023B1 (en
Inventor
이만홍
Original Assignee
주식회사 엠글리쉬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠글리쉬 filed Critical 주식회사 엠글리쉬
Priority to KR1020170065610A priority Critical patent/KR101990023B1/en
Publication of KR20180129486A publication Critical patent/KR20180129486A/en
Application granted granted Critical
Publication of KR101990023B1 publication Critical patent/KR101990023B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • G06F17/2755
    • G06F17/2775
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a method and system for enacting a chunk unit separation rule and an automatic keyword accent display for foreign language learning. The method comprises: a first step in which a conversion application (100) for enacting a chunk unit separation rule and an automatic keyword accent display for foreign language learning recognizes voice and generates text subtitles by sentence from images having voice information; a second step in which the conversion application (100) parses a sentence structure by part-of-speech separation by sentence for the text subtitles and separates a part-of-speech information-based text by sentence generated through parsing into a chunk unit as a sound unit sentence structure through a predetermined chunk separation algorithm; and a third step in which the conversion application (100) extracts a keyword from at least one chunk unit based on each chunk unit, generates an accent display for the extracted keyword, provides the generated information to a smart device (200), and displays the information. The present invention provides a new chunk unit called a sound unit sentence structure, instead of focusing on learning through an existing text sentence unit for foreign language learning, especially English learning and provides an automatic accent for the keyword, which can be extracted from each chunk unit, based on newly reorganized English learning in a chunk unit. Therefore, through a minimal algorithm, actual English learning is significantly transformed from traditional visual text learning to learning to speak and hear.

Description

외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템{METHOD FOR CHUNK-UNIT SEPARATION RULE AND DISPLAY AUTOMATED KEY WORD TO DEVELOP FOREIGN LANGUAGE STUDYING, AND SYSTEM THEREOF}{METHOD FOR CHUNK-UNIT SEPARATION RULE AND DISPLAY AUTOMATED KEY WORD TO DEVELOP FOREIGN LANGUAGE STUDYING AND SYSTEM THEREOF}

본 발명은 외국어학습을 위한 청크단위 분리(청크) 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템에 관한 것으로, 보다 구체적으로는, 초·중·고 영어학습, 그리고 성인 영어시장 등의 영어학습 콘텐츠 제공을 위한 영어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템에 관한 것이다. The present invention relates to a chunk unit separation (chunk) rule for foreign language learning and a method and system for implementing automatic keyword emphasis display of a keyword, and more specifically, to English learning contents such as elementary, The present invention relates to a method and a system for implementing a chunk unit separation rule and keyword automatic stress indication for English learning.

개인용 컴퓨터와 초고속 인터넷 서비스의 확산, 그리고 스마트폰, 스마트 패드 등과 같은 모바일 스마트 디바이스의 보급으로 인하여, 다양한 멀티미디어 컨텐츠(multi media contents)로의 접근이 용이하게 되었고, 교육 분야에서도 오프라인 및 온라인을 통한 다양한 컨텐츠와 학습방법들이 개발되고 있다.The spread of personal computers and high-speed Internet services and the spread of mobile smart devices such as smart phones and smart pads have made it easier to access various multimedia contents, And learning methods are being developed.

그러나, 종래의 영어 학습을 위한 화상, 컨텐츠 교육은 오프라인의 학습방법을 그대로 온라인에 옮겨놓은 수준에 불과한 것이 대부분이어서, 리딩(reading) 위주로 말하기 듣기에 있어서는 큰 효과를 얻지 못하고 있다.However, the conventional education of images and contents for learning English is merely a substitute for the offline learning method as it is online, and therefore, it has not gained much effect in speaking and listening mainly in reading.

이에 따라 해당 기술분야에 있어서는 말하기/듣기 영어학습에 완벽한 솔루션을 제공할 뿐만 아니라, 영어학습용 동영상 콘텐츠에는 필수적으로 요구하는 학습방법을 제공함으로써, 영어학습 시장의 트렌드가 읽기/문법의 재래식 시장에서 듣기/말하기 학습 시장으로 급변하는 추세에 있어 고객 니즈에 부합하도록 하기 위한 기술 개발이 요구되고 있다. Accordingly, it provides a complete solution for speaking / listening English learning in the technical field, as well as providing learning methods that are indispensable for English learning video contents, so that trends in the English learning market can be heard in the conventional market of reading / It is required to develop the technology to meet the customer needs in the rapidly changing trend in the speech learning market.

대한민국 특허출원 출원번호 제10-2009-0119555호 "어학학습 전자기기 구동 방법, 시스템 및 이를 응용한 동시통역 학습기(SYSTEM AND METHOD FOR OPERATING LANGUAGE TRAINING ELECTRONIC DEVICE AND REAL-TIME TRANSLATION TRAINING APPARATUS OPERATED THEREOF)"Korean Patent Application No. 10-2009-0119555 "SYSTEM AND METHOD FOR OPERATING LANGUAGE TRAINING ELECTRONIC DEVICE AND REAL-TIME TRANSLATION TRAINING APPARATUS OPERATED THEREOF " 대한민국 특허공개공보 공개번호 제10-2015-0055921호 "동영상 재생 제어 방법 및 장치(METHOD AND APPARATUS FOR CONTROLLING PLAYING VIDEO)"Korean Patent Laid-Open Publication No. 10-2015-0055921 "METHOD AND APPARATUS FOR CONTROLLING PLAYING VIDEO" 대한민국 특허등록공보 등록번호 제10-0879667호 "멀티미디어 처리 장치의 어학 학습 방법(METHOD OF LEARNING LANGUAGE IN MULTIMEDIA PROCESSING APPARATUS)"Korean Patent Registration No. 10-0879667 entitled " METHOD OF LEARNING LANGUAGE IN MULTIMEDIA PROCESSING APPARATUS "

본 발명은 상기의 문제점을 해결하기 위한 것으로, 외국어학습을 위해 기존의 텍스트 문장단위를 통한 학습위주의 단점인 실제로 오랜 기간 동안의 학습에도 외국어, 특히 영어의 실제 구사력이 떨어지는 한계점을 극복하기 위해 소리단위 구문이라는 새로운 청크단위(chunk unit)를 제시하도록 하기 위한 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems and it is an object of the present invention to provide a speech recognition method and a speech recognition method which can solve a problem of learning a foreign language, A chunk unit separation rule for foreign language learning to provide a new chunk unit called unit syntax, and a method and system for implementing a key word automatic highlighting display.

또한, 본 발명은 청크단위로 새롭게 개편된 외국어학습 기반으로 각 청크단위에서 추출 가능한 핵심어를 기준으로 자동 강세를 제공함으로써, 실제의 영어학습이 기존의 눈을 통한 학습에서 말하고 들을 수 있는 학습으로의 획기적인 전환이 최소의 알고리즘을 통해서 수행될 수 있도록 하기 위한 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템을 제공하기 위한 것이다.In addition, the present invention provides an automatic emphasis based on a key word extractable from each chunk unit based on a newly re-organized foreign language learning unit in a chunk unit, so that the actual English learning can be learned from the existing eye, The present invention provides a method and system for implementing a chunk unit separation rule for a foreign language learning and a key word automatic highlighting display in order to enable the epochal conversion to be performed through a minimum algorithm.

또한, 본 발명은 외국어 특히, 영어학습 외에 일어, 중국어, 독어 등과 같은 제 2 외국어에 대한 언어 식별을 위한 언어 정보 추가로 최소의 알고리즘을 통해서 전환되어 수행될 수 있을 뿐만 아니라, 모바일, PC 플레이어 등으로 광범위하게 적용할 수 있도록 하기 위한 영어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템을 제공하기 위한 것이다.In addition, the present invention can be implemented by switching through a minimum algorithm by adding language information for language identification to a second foreign language such as Japanese, Chinese, German, etc. in addition to learning a foreign language, especially English, The present invention provides a method and system for implementing a chunk unit separation rule and a key word automatic emphasis indication for English learning.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위해, 본 발명의 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법은, According to an embodiment of the present invention, there is provided a chunk unit separation rule and a key word automatic high-

외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현을 위한 변환 어플리케이션(100)이 음성 정보를 갖는 영상에 대한 문장별 음성 인식 및 텍스트 자막 생성을 수행하는 제 1 단계; 변환 어플리케이션(100)이 텍스트 자막에 대한 문장별 품사 분리(Part-of-Speech)에 의한 구문 분석과, 구분 분석에 따라 생성된 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 소리단위 구문인 청크단위로 분리하는 제 2 단계; 및 변환 어플리케이션(100)이 분리된 각 청크단위를 기준으로 적어도 하나 이상의 청크단위에서의 핵심어 추출 및 추출된 핵심어에 대한 강세 표시를 생성한 뒤, 생성된 정보를 사용자 스마트 디바이스(200)로 제공하여 구현되도록 하는 제 3 단계; 를 포함할 수 있다. A first step in which a conversion application (100) for implementing a chunk unit separation rule for a foreign language learning and a keyword automatic word display implementation performs speech recognition and text subtitle generation for sentences in a video having voice information; The conversion application 100 performs parsing by text-to-text subtitling (Part-of-Speech) and text-to-speech-based text generated by the classification analysis, A second step of separating the data into chunks; The conversion application 100 extracts key words in at least one or more chunk units based on each of the separated chunk units and generates an accent indication for the extracted key words and provides the generated information to the user smart device 200 (3) . ≪ / RTI >

이때, 본 발명의 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법에 있어서, 상기 제 1 단계는, 변환 어플리케이션(100)이 음성인식 Open API(Open Application Programming interface)를 기반으로 음성 정보를 갖는 영상에서 영어 음성 오디오 인식을 음성 인터페이스(141)를 통해 아날로그 신호에 대한 수집 이후 디지털 변환 방식을 통해 수행하는 제 1-1 단계; 및 변환 어플리케이션(100)이 상기 제 1-1 단계에서 생성된 음성 인식 디지털 신호를 자막 텍스트로 변환하는 제 1-2 단계; 를 포함할 수 있다.Herein, the first step is a step of converting the chunks into the chunks according to the chunk unit separation rule and the key word automatic highlighting display method according to another embodiment of the present invention. A step 1-1) of performing English speech audio recognition on a video having information by a digital conversion method after acquisition of an analog signal through a speech interface 141; And a converting step of converting the speech recognition digital signal generated in the step 1-1 into a caption text. . ≪ / RTI >

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법에 있어서, 상기 제 1-2 단계는, 변환 어플리케이션(100)이 음성 인식 디지털 신호를 자막 텍스트 형식 중 문장별 시작 시간(Start Time) 및 종료 시간(End Time)을 갖는 SRT(SubRip Text file format) 자막 형식으로 추출하는 것이 바람직하다.In the chunk unit separation rule and key word automatic highlight indication implementation method according to still another embodiment of the present invention, in the step 1-2, the conversion application 100 converts the speech recognition digital signal into a text-by-sentence It is preferable to extract it in a SubRip Text file format (SRT) having a start time and an end time.

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법에 있어서, 상기 제 1-2 단계에서 변환 어플리케이션(100)에 의해 생성되는 각 자막 형식 공통으로 음성 정보를 갖는 영상 재생의 동기를 맞추기 위한 동기 시작 시각, 동기 유지 시간, 동기 종료 시각과 같은 동기 정보를 문장별로 포함하고 있을 수 있다.In addition, in the chunk unit separation rule and key word automatic highlighting display method according to another embodiment of the present invention, in the first and second steps, voice information is common to each of the subtitle formats generated by the conversion application 100 And synchronization information such as a synchronization start time, a synchronization holding time, and a synchronization end time for synchronization of image reproduction may be included in each sentence.

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법에 있어서, 상기 제 2 단계는, 변환 어플리케이션(100)이 자막 의미 단위 분석, 품사 단위 의미 분석, 영상 음성단위 시간 분석과 강세단위 시간 분석, 음소 단위 분석, 청크(chunk) 분리를 함께 수행하는 것이 바람직하다.According to another embodiment of the present invention, there is provided a chunk unit separation rule and a key word automatic emphasized display implementation method, wherein the second step is a step in which the conversion application 100 performs a subtitle semantic unit analysis, It is desirable to perform time analysis, stress unit time analysis, phoneme unit analysis, and chunk separation.

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법에 있어서, 상기 제 2 단계는, 변환 어플리케이션(100)이 문장별로 생성된 자막 텍스트에 대한 구문 분석(품사 분석) 알고리즘(Tokenizer algorithm)을 통해 문장별 품사 분리(Part-of-Speech)를 수행하여, 문장별 품사 정보 기반 텍스트를 생성하는 제 2-1 단계; 및 변환 어플리케이션(100)이 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 청크단위로 분리하는 제 2-2 단계; 를 포함할 수 있다.According to another embodiment of the present invention, there is provided a chunk unit separating rule and a key word automatic emphasizing display implementation method, wherein the second step is a step of parsing the subtitle text generated by the transcoding application (100) A second step of performing Part-of-Speech for each sentence through a Tokenizer algorithm to generate a part-of-speech information based text for each sentence; A second step of separating the sentence-based piecemeal information-based text into chunk units by a chunk separation algorithm set in advance; . ≪ / RTI >

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법은, 상기 제 2-2 단계에서, 청크단위 분리시 변환 어플리케이션(100)이 청크 기준 문장 설정 과정, 미리 설정된 복수의 청크 분리 알고리즘 중 하나에 의해 구분된 청크단위에 대해서 ","(쉼표), "Pause" 기준 분리 과정, 문자 음절 수 연산 과정, 기능어 및 핵심어 기준 음절 수 연산 과정, 단어와 기능어/핵심어 음절 수, 또는 음소 수로 구분하여 상기 제 1 단계에서 인식된 아날로그 신호의 주파수 파형의 시간을 연산하며, 기준 분리 과정에서 구분된 각 청크단위별 실소요 시간을 연산하는 것이 바람직하다.According to another embodiment of the present invention, the chunk unit separation rule and the keyword automatic word display method are implemented in the step 2-2. In the chunk unit separation, (Comma), "Pause" standard separation process, character syllable number calculation process, functional word and key word syllable number calculation process, word and function word / key word syllable for chunk unit distinguished by one of plural chunk separation algorithms Number of phonemes, number of phonemes, number of phonemes, number of phonemes, number of phonemes, number of phonemes, number of phonemes, number of phonemes, number of phonemes and number of phonemes.

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법에 있어서, 상기 제 3 단계는, 변환 어플리케이션(100)이 상기 제 2 단계에서 청크단위별 실소요 시간으로 구분된 청크 내에 핵심어를 추출한 뒤, 추출된 핵심어에 대한 음절의 강세를 설정하는 제 3-1 단계; 및 변환 어플리케이션(100)이 최종적으로 추출된 음절의 강세 정보를 활용해 청크내 핵심어 강세를 최종 적용하고, 문장별 청크단위에 대한 구분 기호(1), 그리고 핵심어 추출/강세 표시 모듈(130)에 의해 추출된 각 청크단위 중 핵심어 강세에 관한 정보(2)를 포함하는 청크단위 강세 학습 파일을 생성한 뒤, 사용자 스마트 디바이스(200)로 제공하는 제 3-2 단계; 를 포함할 수 있다.Further, in the chunk unit separation rule and key word automatic indication method according to another embodiment of the present invention, in the third step, the conversion application 100 divides the chunk unit real time required for each chunk unit in the second step A step 3-1 of extracting a key word in the chunk and setting the stress of the syllable with respect to the extracted key word; (1) for chunk unit by sentence, and key word extraction / emphasis display module (130) using the stress information of syllable finally extracted by the conversion application (100) A chunk unit intensified learning file including information (2) about key word emphasis among the chunk units extracted by the chunk unit intensified learning file, and providing the generated chunk unit compilation learning file to the user smart device 200; . ≪ / RTI >

상기의 목적을 달성하기 위해, 본 발명의 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템은, In order to achieve the above object, according to an embodiment of the present invention,

변환 어플리케이션(100)과 사용자 스마트 디바이스(200)를 포함하는 영어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서, 변환 어플리케이션(100)은, 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현을 위한 변환 어플리케이션(100)이 음성 정보를 갖는 영상에 대한 문장별 음성 인식 및 텍스트 자막 생성을 수행하는 음성 인식/자막 생성 모듈(110); 텍스트 자막에 대한 문장별 품사 분리(Part-of-Speech)에 의한 구문 분석과, 구분 분석에 따라 생성된 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 소리단위 구문인 청크단위로 분리하는 구문 분석/청크 분리 모듈(120); 및 분리된 각 청크단위를 기준으로 적어도 하나 이상의 청크단위에서의 핵심어 추출 및 추출된 핵심어에 대한 강세 표시를 생성한 뒤, 생성된 정보를 사용자 스마트 디바이스(200)로 제공하여 구현되도록 하는 핵심어 추출/강세 표시 모듈(130); 을 포함할 수 있다.In the chunk unit separation rule and key word automatic stress display implementation system for English learning including the conversion application 100 and the user smart device 200, the conversion application 100 includes a chunk unit separation rule for foreign language learning, A speech recognition / caption generation module 110 for performing a speech recognition and a text caption generation for a sentence on a video having a speech information by the conversion application 100 for implementing automatic emphasis display; The parsing by text-based part-of-speech for text subtitles and the segmentation of chunks by the chunk separation algorithm, A parsing / chunk separation module 120; Extracting key words in at least one or more chunk units based on each of the separated chunk units, generating a stress indicator for the extracted key words, and providing the generated information to the user smart device 200, An accent marking module 130; . ≪ / RTI >

이때, 본 발명의 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서, 음성 인식/자막 생성 모듈(110)은, 음성인식 Open API(Open Application Programming interface)를 기반으로 음성 정보를 갖는 영상에서 영어 음성 오디오 인식을 음성 인터페이스(141)를 통해 아날로그 신호에 대한 수집 이후 디지털 변환 방식을 통해 수행하는 음성 인식 수단(111); 및 음성 인식 수단(111)에 의해 생성된 음성 인식 디지털 신호를 자막 텍스트로 변환하는 자막 생성 수단(112); 을 포함할 수 있다.In this case, the speech recognition / caption generation module 110 may generate the speech recognition / caption generation module 110 based on the speech recognition Open API (Open Application Programming Interface) Voice recognition means (111) for performing English speech audio recognition in a video image having a plurality of images by performing a digital conversion method after collection of analog signals through a voice interface (141); And subtitle generation means (112) for converting the speech recognition digital signal generated by the speech recognition means (111) into a subtitle text; . ≪ / RTI >

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서, 자막 생성 수단(112)은, 음성 인식 디지털 신호를 자막 텍스트 형식 중 문장별 시작 시간(Start Time) 및 종료 시간(End Time)을 갖는 SRT(SubRip Text file format) 자막 형식으로 추출할 수 있다.According to another embodiment of the present invention, in the chunk unit separation rule and keyword automatic word display implementation system, the caption generation unit 112 generates a caption generation digital signal by a start time (Start Time) And a SubRip Text file format (SRT) having an end time.

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서, 자막 생성 수단(112)은, 생성되는 각 자막 형식 공통으로 음성 정보를 갖는 영상 재생의 동기를 맞추기 위한 동기 시작 시각, 동기 유지 시간, 동기 종료 시각과 같은 동기 정보를 문장별로 포함시킬 수 있다.In addition, in the chunk unit separation rule and keyword automatic word display implementation system according to another embodiment of the present invention, the caption generation unit 112 generates a caption generation rule for each of the caption formats, The synchronous start time, the synchronous holding time, and the synchronous end time for each sentence.

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서, 구문 분석/청크 분리 모듈(120)은, 자막 의미 단위 분석, 품사 단위 의미 분석, 영상 음성단위 시간 분석과 강세단위 시간 분석, 청크(chunk) 분리를 함께 수행할 수 있다.In the chunk unit separation rule and key word automatic emphasized display implementation system according to another embodiment of the present invention, the syntax analysis / chunk separation module 120 performs a syntax analysis / chunk separation module 120, Analysis, accent unit time analysis, chunk separation can be performed together.

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서, 구문 분석/청크 분리 모듈(120)은, 문장별로 생성된 자막 텍스트에 대한 구문 분석(품사 분석) 알고리즘(Tokenizer algorithm)을 통해 문장별 품사 분리(Part-of-Speech)를 수행하여, 문장별 품사 정보 기반 텍스트를 생성하는 구문 분석(품사 분석) 수단(121); 및 변환 어플리케이션(100)이 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 청크단위로 분리하는 청크 분리 수단(122); 을 포함할 수 있다.In addition, in the chunk-unit separating rule and key word automatic emphasizing display implementation system according to another embodiment of the present invention, the syntax analysis / chunk separation module 120 performs syntax analysis (parts analysis) on the subtitle text generated for each sentence, A phrase analysis part (speech analysis part) 121 for performing a part-of-speech on each sentence through an algorithm (Tokenizer algorithm) to generate a part-of-speech information based text for each sentence; And a chunk separating means (122) for separating the converting application (100) into chunk units by a predetermined chunk separation algorithm for sentence-based parts-of-speech information based text; . ≪ / RTI >

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서, 청크 분리 수단(122)은, 청크단위 분리시 청크 기준 문장 설정 과정, 미리 설정된 복수의 청크 분리 알고리즘 중 하나에 의해 구분된 청크단위에 대해서 ","(쉼표), "Pause" 기준 분리 과정, 문자 음절 수 연산 과정, 기능어 및 핵심어 기준 음절 수 연산 과정, 단어와 기능어/핵심어 음절 수, 음소 수로 구분하여 음성 인식 수단(111)에 의해 인식된 아날로그 신호의 주파수 파형의 시간을 연산하며, 기준 분리 과정에서 구분된 각 청크단위별 실소요 시간을 연산할 수 있다.In addition, in the chunk unit separation rule and keyword automatic word display implementation system according to another embodiment of the present invention, the chunk separation unit 122 may include a chunk standard sentence setting process in chunk unit separation, a predetermined chunk separation algorithm (Comma), "Pause" standard separation process, character syllable number calculation process, function word and key word syllable number calculation process, word and function word / key word syllable number, phoneme number division for chunk unit distinguished by one of them The time of the frequency waveform of the analog signal recognized by the speech recognition means 111 is calculated, and the actual required time for each chunk unit classified in the reference separation process can be calculated.

또한, 본 발명의 또 다른 실시예에 따른 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서, 핵심어 추출/강세 표시 모듈(130)은, 구문 분석/청크 분리 모듈(120)에 의해 청크단위별 실소요 시간으로 구분된 청크 내에 핵심어를 추출하는 핵심어 추출 수단(131); 및 추출된 핵심어에 대한 음절의 강세를 설정하는 강세 표시 수단(132); 을 포함하되, 변환 어플리케이션(100)이 최종적으로 추출된 음절의 강세 정보를 활용해 청크내 핵심어 강세를 최종 적용하고, 문장별 청크단위에 대한 구분 기호(1), 그리고 핵심어 추출/강세 표시 모듈(130)에 의해 추출된 각 청크단위 중 핵심어 강세에 관한 정보(2)를 포함하는 청크단위 강세 학습 파일을 생성한 뒤, 사용자 스마트 디바이스(200)로 제공할 수 있다. In the chunk unit separation rule and key word automatic stress display implementation system according to another embodiment of the present invention, the key word extraction / emphasis display module 130 is constructed by a syntax analysis / chunk separation module 120, Key word extraction means (131) for extracting key words in the chunks divided by the actual required time; And an emphasis display means (132) for setting the stress of the syllable with respect to the extracted key word; (1) for a sentence chunk unit, and a key word extraction / emphasis display module (1) for each sentence by using the stress information of the syllable finally extracted by the conversion application (100) 130 to generate chunk unit intensified learning file including information (2) about the key word accent, and then provide the file to the user smart device (200).

본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템은, 외국어, 특히 영어학습을 위해 기존의 텍스트 문장단위를 통한 학습위주의 단점인 실제로 오랜 기간 동안의 학습에도 영어의 실제 구사력이 떨어지는 한계점을 극복하기 위해 소리단위 구문이라는 새로운 청크단위를 제시하도록 하는 효과를 제공한다. The chunk unit separation rule for foreign language learning according to the embodiment of the present invention and the method and system for implementing the automatic word highlighting display of a key word are provided for a long time period which is a disadvantage of learning based on an existing text sentence unit for foreign language, And to provide a new chunk unit of sound unit syntax in order to overcome limitations of learning English in practice.

또한, 본 발명의 다른 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템은, 청크단위로 새롭게 개편된 영어학습 기반으로 각 청크단위에서 추출 가능한 핵심어를 기준으로 자동 강세를 제공함으로써, 실제의 영어학습이 기존의 눈을 통한 학습에서 말하고 들을 수 있는 학습으로의 획기적인 전환이 최소의 알고리즘을 통해서 수행될 수 있는 효과를 제공한다.In addition, according to another embodiment of the present invention, a chunk unit separation rule for a foreign language learning and a method and system for implementing an automatic highlighting display of key words are newly reorganized English learning bases in chunk units, By providing the accent, it is possible that the actual English learning can be carried out through a minimal algorithm, that is, an epochal transition from learning to learning and listening through the existing eye.

뿐만 아니라, 본 발명의 다른 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템은, 영어학습 외에 일어, 중국어, 독어 등과 같은 제 2 외국어에 대한 언어 식별을 위한 언어 정보 추가로 최소의 알고리즘을 통해서 전환되어 수행될 수 있을 뿐만 아니라, 모바일, PC 플레이어 등으로 광범위하게 적용할 수 있도록 하는 효과를 제공한다.In addition, according to another embodiment of the present invention, a chunk unit separation rule for a foreign language learning and a method and system for implementing automatic keyword emphasis display of a key word may include a language for language identification of a second foreign language such as Japanese, Chinese, Information can be added and executed through a minimum algorithm, and it can be widely applied to a mobile device, a PC player, and the like.

도 1은 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템 중 변환 어플리케이션(100)의 구성요소 및 동작 원리를 구체적으로 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템 중 사용자 스마트 디바이스(200)에 구현된 유저 인터페이스 화면을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템 중 구문 분석(품사 분석) 알고리즘(Tokenizer algorithm)을 통한 문장별 품사 분리가 수행된 것을 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템 중 강세 표시 수단(132)에 의한 강세 설정을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법을 나타내는 도면이다.
FIG. 1 is a diagram illustrating a chunk unit separation rule for a foreign language learning and a system for implementing automatic keyword highlighting according to an embodiment of the present invention.
FIG. 2 is a diagram specifically illustrating the components and operation principles of the conversion application 100 among the chunk unit separation rules for foreign language learning and the keyword automatic word display implementation system according to the embodiment of the present invention.
3 is a diagram illustrating a user interface screen implemented in the smart smart device 200 among the chunk unit separation rules for foreign language learning and the system for implementing key word automatic highlighting according to an embodiment of the present invention.
FIG. 4 is a diagram showing a chunk unit separation rule for foreign language learning according to an embodiment of the present invention, and a part-by-speech segmentation through a syntax analysis (Tokenizer algorithm) .
FIG. 5 is a diagram for explaining the setting of the chunks according to the chunk unit separation rule for foreign language learning according to the embodiment of the present invention and the emphasis setting by the emphasis display unit 132 in the system for implementing automatic keyword emphasis display of key words.
FIG. 6 is a diagram illustrating a chunk unit separation rule for foreign language learning and a method for implementing automatic keyword highlighting according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a detailed description of preferred embodiments of the present invention will be given with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.
In the present specification, when any one element 'transmits' data or signals to another element, the element can transmit the data or signal directly to the other element, and through at least one other element Data or signal can be transmitted to another component.

도 1은 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템을 나타내는 도면이다. 도 2는 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템 중 변환 어플리케이션(100)의 구성요소 및 동작 원리를 구체적으로 나타내는 도면이다. 도 3은 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템 중 사용자 스마트 디바이스(200)에 구현된 유저 인터페이스(User Interface, 이하 'UI') 화면을 나타내는 도면이다. FIG. 1 is a diagram illustrating a chunk unit separation rule for a foreign language learning and a system for implementing automatic keyword highlighting according to an embodiment of the present invention. FIG. 2 is a diagram specifically illustrating the components and operation principles of the conversion application 100 among the chunk unit separation rules for foreign language learning and the keyword automatic word display implementation system according to the embodiment of the present invention. 3 is a diagram showing a user interface (UI) screen implemented in the user smart device 200 among the chunk unit separation rules for foreign language learning and the keyword automatic word display implementation system according to the embodiment of the present invention to be.

도 1 내지 도 3을 참조하면, 외국어, 특히 영어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템은 변환 어플리케이션(100)과 사용자 스마트 디바이스(200)를 포함할 수 있다.Referring to FIGS. 1 to 3, a chunk unit separation rule for a foreign language, especially an English language learning, and a keyword automatic word display implementation system may include a conversion application 100 and a user smart device 200.

여기서, 변환 어플리케이션(100)은 사용자 스마트 디바이스(200) 내부에 설치되거나 별도의 외부 서버(미도시)에 설치된 뒤 네트워크를 통해 사용자 스마트 디바이스(200)로 결과물인 청크단위 강세 학습 파일을 전송할 수 있다. 본 발명에서 청크(chunk)는 문장별 소리분리단위를 의미한다. Here, the conversion application 100 may be installed in the user smart device 200 or may be installed in a separate external server (not shown), and may then transmit the resulting chunk unit compilation learning file to the user smart device 200 through the network . In the present invention, a chunk means a sound separation unit for each sentence.

변환 어플리케이션(100)은 음성 인식/자막 생성 모듈(110), 구문 분석/청크 분리 모듈(120), 그리고 핵심어 추출/강세 표시 모듈(130)을 포함할 수 있다. 그리고 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.The conversion application 100 may include a speech recognition / caption generation module 110, a parsing / chunk separation module 120, and a keyword extraction / emphasis module 130. In this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and it does not necessarily mean a physically connected code or a kind of hardware. Can be easily deduced to the average expert in the field of < / RTI >

그리고, 음성 인식/자막 생성 모듈(110)은 음성 인식 수단(111) 및 자막 생성 수단(112)으로 구분될 수 있다. The voice recognition / caption generation module 110 may be divided into a voice recognition unit 111 and a caption generation unit 112.

음성 인식 수단(111)은 음성인식 Open API(Open Application Programming interface)를 기반으로 영화, 동영상 등에서 영어 음성 오디오 인식을 음성 인터페이스(141)를 통해 아날로그 신호에 대한 수집 이후 디지털 변환 방식을 통해 수행할 수 있다. 여기서 음성 인터페이스(interface)(141)는 외부의 음향을 인식하기 위한 마이크로폰, 또는 저장 매체에 영화, 동영상 등이 저장된 경우 이 저장 데이터베이스일 수 있다. The speech recognition means 111 can perform recognition of English speech audio in a movie, a moving picture, and the like through a speech conversion by using a digital interface after collecting an analog signal through a speech interface 141 based on a speech recognition Open API (Open Application Programming Interface) have. Here, the voice interface 141 may be a microphone for recognizing an external sound, or a storage database when a movie, movie, or the like is stored in the storage medium.

여기서 음성 인식 수단(111)은 문장단위 또는 단어단위로 영어 음성 오디오 인식을 수행한 결과로 음성 인식 디지털 신호를 생성한 뒤 자막 생성 수단(112)으로 제공할 수 있다. 여기서, 음성인식 Open API는 통상의 음성인식 엔진을 포함한다.Here, the speech recognition means 111 may generate a speech recognition digital signal as a result of performing English speech audio recognition on a sentence-by-word or word-by-word basis, and then provide the generated speech recognition digital signal to the caption generation means 112. Here, the speech recognition Open API includes a conventional speech recognition engine.

자막 생성 수단(112)은 음성 인식 수단(111)에 의해 인식된 음성 인식 디지털 신호를 자막 텍스트로 변환할 수 있다. 본 발명의 일 실시예로, 자막 생성 수단(112)은 음성 인식 디지털 신호를 자막 텍스트 형식 중 문장별 시작 시간(Start Time) 및 종료 시간(End Time)을 갖는 SRT(SubRip Text file format) 자막 형식으로 추출할 수 있다. The caption generation means 112 can convert the speech recognition digital signal recognized by the speech recognition means 111 into a caption text. In one embodiment of the present invention, the subtitle generating means 112 generates a subtitle for a speech recognition digital signal in a subtitle text format (SRT) having a start time and an end time for each sentence in the subtitle text format .

또한, 본 발명의 다른 실시예로, 자막 생성 수단(112)은 문장별 시작 시간(Start Time) 및 종료 시간(End Time)을 갖는 SMI(SAMI, Synchronized Accessible Media Interchange) 자막 형식, SSA(SubStation Alpha 또는 Sub Station Alpha), ASS(Advanced SSA Subtitles) 등의 자막 형식으로도 추출할 수 있다. 자막 생성 수단(112)에 의해 생성되는 각 자막 형식 공통으로 영화, 동영상 등과 재생의 동기를 맞추기 위한 동기 시작 시각, 동기 유지 시간, 동기 종료 시각과 같은 동기 정보를 문장별로 포함하고 있어야 한다. In addition, in another embodiment of the present invention, the subtitle generating unit 112 may include an SMI (Synchronized Accessible Media Interchange) subtitle format (SMI) having a start time and an end time for each sentence, Or Sub Station Alpha), and Advanced SSA Subtitles (ASS). For each sentence, synchronous information such as a synchronous start time, a synchronous holding time, and a synchronous end time for synchronizing reproduction of a movie, a moving picture and the like in common for each of the subtitle formats generated by the subtitle generating means 112. [

구문 분석/청크 분리 모듈(120)은 구문 분석(품사 분석) 수단(121) 및 청크 분리 수단(122)으로 구분될 수 있다. The parsing / chunk separation module 120 can be divided into a parsing (parts analysis) unit 121 and a chunk separation unit 122.

구문 분석 수단(121)은 자막 생성 수단(112)에 의해 문장별로 생성된 자막 텍스트에 대한 구문 분석(품사 분석) 알고리즘(Tokenizer algorithm)을 통해 문장별 품사 분리(Part-of-Speech)를 수행함으로써, 문장별 품사 정보 기반 텍스트를 생성한다. 한편, 도 4는 구문 분석(품사 분석) 알고리즘(Tokenizer algorithm)을 통한 문장별 품사 분리가 수행된 것을 나타내는 도면이다. The parsing means 121 performs a part-of-speech process for each sentence through a parsing algorithm (Tokenizer algorithm) for the caption text generated for each sentence by the caption generating means 112 , And generates a part-of-speech information-based text for each sentence. Meanwhile, FIG. 4 is a diagram showing that a sentence-by-speech segmentation is performed through a syntax analysis (Tokenizer algorithm).

본 발명의 일 실시예로, 구문 분석 수단(121)은 구문 분석 알고리즘으로 구문 분석 Open API(Apache Open NLP)을 활용할 수 있다.In one embodiment of the present invention, the parsing means 121 may utilize a parsing Open API (Apache Open NLP) as a parsing algorithm.

청크 분리 수단(122)은 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 청크단위로 분리할 수 있다.The chunk separating means 122 may separate the sentence-based speech information-based text into chunks by a preset chunk separation algorithm.

제 1 청크 분리 알고리즘의 실시예로, 청크 분리 수단(122)은 문장별 품사 정보 기반 텍스트에 대해서 단어 기반 청크 수 분석을 위해 구문 분석 수단(121)에 의해 구분된 각 품사로 구분된 단어 간의 발음기호 연속성 구분 DB(142)로 저장된 연속 및 불연속 정보를 기준으로 문장별 청크를 분리하는 방식으로 사전적 청크 수를 연산할 수 있다. In the embodiment of the first chunk separating algorithm, the chunk separating means 122 separates the chunk separating means 122 into a plurality of chunk separating means It is possible to calculate the number of dictionary chunks by separating chunks for each sentence based on the continuous and discontinuous information stored in the symbol continuity classification DB 142.

또한, 본 명세서에서 DB라 함은, 각각의 데이터베이스에 대응되는 정보를 저장하는 소프트웨어 및 하드웨어의 기능적 구조적 결합을 의미할 수 있다. DB는 적어도 하나의 테이블로 구현될 수도 있으며, 데이터베이스에 저장된 정보를 검색, 저장, 및 관리하기 위한 별도의 DBMS(Database Management System)을 더 포함할 수도 있다. Also, in this specification, a DB may mean a functional and structural combination of software and hardware for storing information corresponding to each database. The DB may be implemented as at least one table, and may further include a separate DBMS (Database Management System) for searching, storing, and managing information stored in the database.

또한, 링크드 리스트(linked-list), 트리(Tree), 관계형 데이터베이스의 형태 등 다양한 방식으로 구현될 수 있으며, 데이터베이스에 대응되는 정보를 저장할 수 있는 모든 데이터 저장매체 및 데이터 구조를 포함한다.Also, it can be implemented in various ways such as a linked-list, a tree, and a relational database, and includes all data storage media and data structures capable of storing information corresponding to a database.

제 2 청크 분리 알고리즘의 실시예로, 청크 분리 수단(122)은 문장별 품사 정보 기반 텍스트에 대해서 구문 DB(143)에 기저장된 문장 핵심어와 문장 기능어를 기준으로 문장별로 청크 수 분석을 위한 기능어, 핵심어로 구분한 뒤, 기능어와 핵심어를 기준으로 문장별 청크를 분리하는 방식으로 음절적 청크 수를 연산할 수 있다. In the embodiment of the second chunk separation algorithm, the chunk separating means 122 separates chunking information based texts for each sentence based on sentence key words and sentence function words pre-stored in the phrase DB 143, After dividing into key words, syllable chunks can be computed by separating chunks by sentence based on functional words and key words.

여기서, 청크 분리 수단(122)은 음절단위, 및 음소단위 별로 청크를 분리하여 청크 수를 연산할 수 있음은 물론이다.It should be noted that the chunk separating means 122 can calculate the number of chunks by separating chunks by syllable unit and phoneme unit.

제 3 청크 분리 알고리즘의 실시예로, 청크 분리 수단(122)은 문장별 품사 정보 기반 텍스트에 대해서 음성인식과 연계하여 주파수 파형 DB(144)에 기저장된 구문 주파수 DB(144)에 기저장된 주파수 파형 특성을 기준으로 문장별로 청크 수 분석을 위한 단어 및 음절별 시간 분석을 통해 문장별 청크를 분리하는 방식으로 주파수적 청크 수를 연산할 수 있다. In the embodiment of the third chunk separating algorithm, the chunk separating means 122 separates the sentence-based piece-of-speech information based text into a frequency waveform previously stored in the syntax frequency DB 144 previously stored in the frequency waveform DB 144, The number of frequency chunks can be calculated by separating the chunks by sentence by analyzing the chunks for each sentence and analyzing the time for each syllable.

보다 구체적으로, 청크 분리 수단(122)은 음성 인식 수단(111)에 의해 인식된 아날로그 신호의 주파수 파형 중 영어 강세 주파수를 추출한 뒤, 추출된 영어 강세 주파수 파형의 길이와 비례하는 미리 설정된 가중치(α)에 따른 영어 강세 주파수 전후 주파수 길이 특성 연산을 통해 문장별 청크단위로 분리할 수 있다. More specifically, the chunk separating means 122 extracts the English emphasis frequency among the frequency waveforms of the analog signal recognized by the speech recognizing means 111, and then outputs the chord separating means 122 with a predetermined weighting value? ) Can be separated into chunks per sentence by calculating the frequency length characteristics before and after the English accent frequency.

본 발명의 다른 실시예로 청크 분리 수단(122)에 의해 청크 분리를 위해 "제 1 청크 분리 단계"로 예를들면 문장기호(?!.)와 같은 다양한 지표를 기준으로 하는 청크 기준 문장 설정 과정, "제 2 청크 분리 단계"로 상술한 제 1 내지 제 3 청크 분리 알고리즘 중 하나에 의해 구분된 청크단위에 대해서 예를들면 ","(쉼표), "Pause"와 같은 지표를 기준으로 하는 분리 과정, "제 3 청크 분리 단계"로 문자 음절 수 연산 과정, "제 4 청크 분리 단계"로 기능어 및 핵심어 기준 음절 수 연산 과정, "제 5 청크 분리 단계"로 청크단위별 실소요시간 연산 과정을 순차적으로 수행할 수 있다.In another embodiment of the present invention, a chunk reference sentence setting process based on various indicators such as a sentence symbol (?!.) As the "first chunk separation step & Separation based on an index such as "," (comma), or "Pause" for chunk units separated by one of the first to third chunk separation algorithms described in the "second chunk separation step & The process of calculating the number of syllables in the "third chunk separation step", the calculation of the number of syllables based on the functional word and the keyword in the "fourth chunk separation step", and the calculation of the actual time required for each chunk unit by the "fifth chunk separation step" Can be performed sequentially.

보다 구체적으로, 제 3 청크 분리 단계에서, 청크 분리 수단(122)은 ","(쉼표), "Pause" 기준으로 분리된 문장 요소에 포함된 문장별 품사 정보 기반 텍스트에 대해서 문자 음절 수 분석을 위해 구문 분석 수단(121)에 의해 구분된 각 품사로 구분된 단어의 발음기호 분석을 통해 사전적 음절 수를 연산할 수 있다.More specifically, in the third chunk separation step, the chunk separation means 122 performs character syllable number analysis on sentence-based information-based text contained in sentence elements separated by "," (comma) It is possible to calculate the number of dictionary syllables by analyzing the phonetic symbol of the words separated by each part of speech segmented by the phrase analysis unit 121.

마찬가지로, 청크 분리 수단(122)은 음소 수를 연산할 수 있음은 물론이다.Similarly, it goes without saying that the chunk separating means 122 can calculate the number of phonemes.

이후, 제 4 청크 분리 단계에서, 청크 분리 수단(122)은 사전적 음절 수를 이용하되, 사전적 음절 간에 연속성과 불연속성을 구문 분석 수단(121)에 의해 구분된 각 품사 중 기능어 및 핵심어를 기준으로 구분하는 방식으로 최종적인 음절 수를 연산할 수 있다.Thereafter, in the fourth chunk separating step, the chunk separating means 122 uses the number of lexical syllables, the continuity and the discontinuity between the dictionary syllables, The final syllable number can be calculated.

이후, 제 5 청크 분리 단계에서, 청크 분리 수단(122)은 단어와 기능어/핵심어로 구분하여 음성 인식 수단(111)에 의해 인식된 아날로그 신호의 주파수 파형의 시간을 연산함으로써, 제 2 청크 분리 단계에서 구분된 각 청크단위별 실소요 시간을 연산할 수 있다. Thereafter, in the fifth chunk separating step, the chunk separating means 122 divides the words into words and functional words / key words and calculates the time of the frequency waveform of the analog signal recognized by the speech recognizing means 111, The actual time required for each chunk unit can be calculated.

본 발명에서는 청크 분리 수단(122)에 의한 청크 분리를 위해 청크 기준 문장 설정을 문장기호(?!.) 기준으로 하고, 청크 분리 알고리즘 중 하나에 의해 구분된 청크단위에 대해서 ","(쉼표), "Pause" 를 기준으로 분리하고 이로부터 문자 음절 수 연산 및, 기능어와 핵심어 기준 음절 수 연산을 수행하는 것으로 설명하고 있으나, 이는 설명을 위한 일실시예에 해당되는 것으로 이에 한정되는 것은 아니며, 변형가능한 다양한 청크 기준 설정 및 음소단위로 연산수행이 가능함은 물론이다.In the present invention, the chunk reference sentence setting is set as a sentence symbol (?..) As a reference for separating chunks by the chunk separating means 122, and "," (commas) , "Pause ", and then calculates the number of character syllables and the number of functional words and the number of syllable-based syllables. However, the present invention is not limited to this, It is needless to say that it is possible to perform calculations in various chunks reference setting and phoneme units as much as possible.

핵심어 추출/강세 표시 모듈(130)은 핵심어 추출 수단(131) 및 강세 표시 수단(132)으로 구분될 수 있다. The key word extraction / emphasis display module 130 can be divided into a key word extraction means 131 and an emphasis display means 132.

핵심어 추출 수단(131)은 청크 분리 수단(122)에 의해 구분된 청크 내에 핵심어를 추출한다. 즉, 핵심어 추출 수단(131)은 사전에 구축된 핵심어 DB(144)에 기저장된 핵심어와의 대조를 통해 청크별 핵심어를 추출한다. 본 발명의 일 실시예로, 도 2와 같이 핵심어 추출 수단(131)에 의해 추출되는 핵심어는 하나의 청크 내의 단어가 하나인 경우 하나의 단어일 수 있으며, 하나의 청크 내에 복수의 단어가 있는 경우 동사로 설정될 수 있다.The key word extraction means 131 extracts key words in the chunks separated by the chunk separating means 122. That is, the key word extracting unit 131 extracts key words for each chunk by comparing with key words previously stored in the key word DB 144 constructed in advance. In an embodiment of the present invention, the key word extracted by the key word extraction means 131 as shown in FIG. 2 may be a single word when one word in one chunk is a single word, and a plurality of words in one chunk Can be set as a verb.

강세 표시 수단(132)은 핵심어 추출 수단(131)에 의해 추출된 핵심어에 대한 강세를 설정할 수 있다. 여기서 강세 설정은 도 5와 같이 핵심어 추출 수단(131)에 의해 추출된 핵심어에 대해서 IPA(International Phonetic Alphabet, 국제 음성 기호) 발음을 기반 조음 규칙을 적용하여 음절을 분리한 뒤, 분리된 음절 중 강세에 관한 정보를 단어별 강세 DB(145)에서 추출한다.The emphasis display means 132 can set the intensity of the key word extracted by the key word extraction means 131. [ 5, the syllable is separated by applying an IPA (International Phonetic Alphabet) pronunciation based on the key word extracted by the keyword extracting unit 131, and then the stronger of the separated syllables Is extracted from the word-by-word accent DB 145.

이후, 강세 표시 수단(132)은 추출된 음절의 강세 정보를 활용해 청크내 핵심어 강세를 최종 적용한다.
Then, the emphasis display means 132 finally applies the emphasis of the key words in the chunks by using the extracted syllable information.

이와 같이, 상술한 구성을 갖는 변환 어플리케이션(100)은 구문 분석/청크 분리 모듈(120)에 의해 수행된 문장별 청크단위에 대한 구분 기호(1), 그리고 핵심어 추출/강세 표시 모듈(130)에 의해 추출된 각 청크단위 중 핵심어 강세에 관한 정보(2)를 포함하는 청크단위 강세 학습 파일을 생성한 뒤, 사용자 스마트 디바이스(200)로 제공할 수 있다.In this manner, the conversion application 100 having the above-described configuration is provided with the delimiter symbol (1) for the chunk unit for each sentence performed by the syntax analysis / chunk separation module 120, The chunk unit intensified learning file including the information (2) about the key word strength among the chunk units extracted by the chunk unit intensified learning file, and provides the file to the user smart device 200.

이에 따라 사용자 스마트 디바이스(200)는 도 2와 같이 영어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 영역(10)에 원본 영어 자막 텍스트(21) 및 한글 번역 자막 텍스트(22)와는 별도로 구현할 수 있다.
2, the user smart device 200 can be implemented separately from the original English subtitle text 21 and the Korean translation subtitle text 22 in the chunk unit separation rule for the English language learning and the keyword emphasis display area 10 have.

도 6은 본 발명의 실시예에 따른 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법을 나타내는 도면이다. 도 6을 참조하면, 영어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현을 위한 변환 어플리케이션(100)은 동영상, 영화 등에 대한 음성 인식 및 텍스트 자막 생성을 수행한다(S10). 보다 구체적으로, 변환 어플리케이션(100)은 음성인식 Open API(Open Application Programming interface)를 기반으로 영화, 동영상 등에서 영어 음성 오디오 인식을 음성 인터페이스(141)를 통해 아날로그 신호에 대한 수집 이후 디지털 변환 방식을 통해 수행한 뒤, 음성 인식 디지털 신호를 자막 텍스트로 변환한다. FIG. 6 is a diagram illustrating a chunk unit separation rule for foreign language learning and a method for implementing automatic keyword highlighting according to an embodiment of the present invention. Referring to FIG. 6, a conversion application 100 for implementing a chunk unit separation rule for English learning and a key word automatic highlighting display performs voice recognition and text caption generation for a moving picture, a movie, and the like (S10). More specifically, the conversion application 100 acquires English speech audio recognition from a movie, a moving picture, or the like based on a speech recognition Open API (Open Application Programming interface) through an audio interface 141, And converts the speech recognition digital signal into subtitle text.

단계(S10) 이후, 변환 어플리케이션(100)은 구문 분석 및 청크 분리를 수행한다(S20). 단계(S20)에서 변환 어플리케이션(100)은 자막 의미 단위 분석, 품사 단위 의미 분석, 영상 음성단위 시간 분석과 강세단위 시간 분석, 청크(chunk) 분리 등을 함께 수행할 수 있다. After step S10, the conversion application 100 performs parsing and chunk separation (S20). In step S20, the conversion application 100 can perform subtitle semantic analysis, part-of-speech semantic analysis, video-audio unit-time analysis, stress unit time analysis, and chunk separation.

보다 구체적으로, 변환 어플리케이션(100)은 단계(S10)에서 문장별로 생성된 자막 텍스트에 대한 구문 분석(품사 분석) 알고리즘(Tokenizer algorithm)을 통해 문장별 품사 분리(Part-of-Speech)를 수행함으로써, 문장별 품사 정보 기반 텍스트를 생성한 뒤, 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 청크단위로 분리할 수 있다. More specifically, the conversion application 100 performs a part-of-speech process for each sentence through a parsing algorithm (Tokenizer algorithm) for the subtitle text generated for each sentence in step S10 , And the sentence-based part-of-speech information-based text is generated, and then the sentence-based part-of-speech information-based text can be separated into chunks by a preset chunk separation algorithm.

또한, 단계(S20)에서 청크단위 분리시 변환 어플리케이션(100)은 문장기호(?!.) 기준 청크 기준 문장 설정 과정, 미리 설정된 복수의 청크 분리 알고리즘 중 하나에 의해 구분된 청크단위에 대해서 ","(쉼표), "Pause" 기준 분리 과정, 문자 음절 수 연산 과정, 기능어 및 핵심어 기준 음절 수 연산 과정, 단어와 기능어/핵심어 음절 수로 구분하여 단계(S10)에서 인식된 아날로그 신호의 주파수 파형의 시간을 연산하며, 기준 분리 과정에서 구분된 각 청크단위별 실소요 시간을 연산할 수 있다. In step S20, the conversion application 100 converts the chunk unit into a chunk unit (?!.) Reference chunk reference sentence setting process, a chunk unit divided by one of a plurality of predetermined chunk separation algorithms, The time of the frequency waveform of the analog signal recognized in step S10 is divided into the number of syllables, the number of syllables, the number of syllables, the number of syllables, the number of syllables, And calculates the actual time required for each chunk unit divided in the reference separation process.

단계(S20) 이후, 변환 어플리케이션(100)은 핵심어 및 강세 표시를 생성한 뒤, 생성된 정보를 사용자 스마트 디바이스(200)로 제공하여 구현되도록 한다(S30). 즉, 단계(S30)에서는 청크내 핵심어 추출, 추출된 핵심어 음절, 음소 및 강세 사전 활용을 통한 강세 분석을 수행하며, 플레이어를 통한 연동 표시를 수행하는 것이다. After step S20, the conversion application 100 generates key words and an accent mark, and provides the generated information to the user smart device 200 so as to be implemented (S30). That is, in step S30, the key word extraction in the chunks, the extracted key word syllables, the phonemes, and the stress dictionary using the dictionary are performed, and the linked display is performed through the player.

보다 구체적으로, 변환 어플리케이션(100)은 단계(S20)에서 청크단위별 실소요 시간으로 구분된 청크 내에 핵심어를 추출한 뒤, 추출된 핵심어에 대한 강세를 설정할 수 있으며, 강세 설정시 추출된 핵심어에 대해서 IPA(International Phonetic Alphabet, 국제 음성 기호) 발음을 기반 조음 규칙을 적용하여 음절을 분리한 뒤, 분리된 음절 중 강세에 관한 정보를 단어별 강세 DB(145)에서 추출할 수 있다. 변환 어플리케이션(100)은 최종적으로 추출된 음절의 강세 정보를 활용해 청크내 핵심어 강세를 최종 적용하고, 문장별 청크단위에 대한 구분 기호(1), 그리고 핵심어 추출/강세 표시 모듈(130)에 의해 추출된 각 청크단위 중 핵심어 강세에 관한 정보(2)를 포함하는 청크단위 강세 학습 파일을 생성한 뒤, 사용자 스마트 디바이스(200)로 제공할 수 있다.
More specifically, the conversion application 100 can extract the key words in the chunks separated by the actual required time for each chunk unit in step S20, and then set the key words for the extracted key words. The syllable is separated by applying an IPA (International Phonetic Alphabet) pronunciation-based articulation rule, and information about the stress in the separated syllable can be extracted from the word-oriented accent DB 145. The conversion application 100 finally applies the highlighting of the extracted syllable to the key words in the chunks and applies the discrimination symbol (1) for each chunk unit by sentence and the key word extraction / emphasis display module 130 A chunk unit intensified learning file including information (2) about the key word strength among the extracted chunk units may be generated and then provided to the user smart device (200).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) .

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers skilled in the art to which the present invention pertains.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention , And are not intended to limit the scope of the present invention. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

100 : 변환 어플리케이션
110 : 음성 인식/자막 생성 모듈
120 : 구문 분석/청크 분리 모듈
130 : 핵심어 추출/강세 표시 모듈
141 : 음성 인터페이스
142 : 발음기호 연속성 구분 DB
143 : 구문 DB
144 : 주파수 파형 DB
145 : 단어별 강세 DB
200 : 사용자 스마트 디바이스
100: conversion application
110: Speech Recognition / Subtitle Generation Module
120: parsing / chunking module
130: Key word extraction / stress indicator module
141: Voice interface
142: pronunciation symbol continuity classification DB
143: Syntax DB
144: Frequency waveform DB
145: Strength DB by word
200: User smart device

Claims (16)

외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현을 위한 변환 어플리케이션(100)이 음성 정보를 갖는 영상에 대한 문장별 음성 인식 및 텍스트 자막 생성을 수행하는 제 1 단계;
상기 변환 어플리케이션(100)이 텍스트 자막에 대한 문장별 품사 분리(Part-of-Speech)에 의한 구문 분석과, 구분 분석에 따라 생성된 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 소리단위 구문인 청크단위로 분리하는 제 2 단계; 및
상기 변환 어플리케이션(100)이 분리된 각 청크단위를 기준으로 적어도 하나 이상의 청크단위에서의 핵심어 추출 및 추출된 핵심어에 대한 강세 표시를 생성한 뒤, 생성된 정보를 사용자 스마트 디바이스(200)로 제공하여 구현되도록 하는 제 3 단계; 를 포함하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법.
A first step in which a conversion application (100) for implementing a chunk unit separation rule for a foreign language learning and a keyword automatic word display implementation performs speech recognition and text subtitle generation for sentences in a video having voice information;
The conversion application 100 performs a parsing by a sentence-based part-of-speech for text subtitles and a speech recognition by a predetermined chunk separation algorithm for the sentence-based partly-based text generated according to the classification analysis A second step of separating the data into chunk units as a unit syntax; And
The conversion application 100 extracts key words in at least one or more chunk units based on each of the separated chunk units and generates an accent indication for the extracted key words and provides the generated information to the user smart device 200 (3) Wherein the chunk unit separation rules for the foreign language learning and the automatic word highlighting implementation method for the key word are provided.
청구항 1에 있어서, 상기 제 1 단계는,
상기 변환 어플리케이션(100)이 음성인식 Open API(Open Application Programming interface)를 기반으로 음성 정보를 갖는 영상에서 영어 음성 오디오 인식을 음성 인터페이스(141)를 통해 아날로그 신호에 대한 수집 이후 디지털 변환 방식을 통해 수행하는 제 1-1 단계; 및
상기 변환 어플리케이션(100)이 상기 제 1-1 단계에서 생성된 음성 인식 디지털 신호를 자막 텍스트로 변환하는 제 1-2 단계; 를 포함하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법.
2. The method according to claim 1,
The conversion application 100 acquires the English speech audio recognition from the image having the voice information based on the speech recognition Open API (Open Application Programming Interface) through the speech interface 141 and performs the digital conversion after the acquisition of the analog signal Step 1-1; And
A 1-2 step of the conversion application 100 converting the speech recognition digital signal generated in the step 1-1 into a caption text; Wherein the chunk unit separation rules for the foreign language learning and the automatic word highlighting implementation method for the key word are provided.
청구항 2에 있어서, 상기 제 1-2 단계는,
상기 변환 어플리케이션(100)이 음성 인식 디지털 신호를 자막 텍스트 형식 중 문장별 시작 시간(Start Time) 및 종료 시간(End Time)을 갖는 SRT(SubRip Text file format) 자막 형식으로 추출하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법.
The method according to claim 2,
Characterized in that the conversion application (100) extracts a voice recognition digital signal in a subtitle format of SRT (SubRip Text file format) having a start time and an end time for each sentence in a subtitle text format How to Implement Chunked Unit Separation Rules and Keyword Automatic Stress Indication for Learning.
청구항 2에 있어서, 상기 제 1-2 단계에서,
상기 변환 어플리케이션(100)에 의해 생성되는 각 자막 형식 공통으로 음성 정보를 갖는 영상 재생의 동기를 맞추기 위한 동기 시작 시각, 동기 유지 시간, 동기 종료 시각과 같은 동기 정보를 문장별로 포함하고 있는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법.
3. The method according to claim 2,
And synchronization information such as a synchronization start time, a synchronization holding time, and a synchronization end time for synchronization of image reproduction having audio information common to each of the subtitle formats generated by the conversion application (100) How to Implement Chunked Unit Separation Rules and Keyword Automatic Stress Indicators for Foreign Language Learning.
청구항 1에 있어서, 상기 제 2 단계는,
상기 변환 어플리케이션(100)이 자막 의미 단위 분석, 품사 단위 의미 분석, 영상 음성단위 시간 분석과 강세단위 시간 분석, 음소 단위 분석, 청크(chunk) 분리를 함께 수행하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법.
The method according to claim 1,
Characterized in that the conversion application (100) performs a subtitle semantic unit analysis, a part-of-speech unit semantic analysis, a video-audio unit time analysis and an accent unit time analysis, a phonemic unit analysis, and a chunk separation. Unit Separation Rules and Keyword Automatic Strength Indication Method.
청구항 1에 있어서, 상기 제 2 단계는,
상기 변환 어플리케이션(100)이 문장별로 생성된 자막 텍스트에 대한 구문 분석(품사 분석) 알고리즘(Tokenizer algorithm)을 통해 문장별 품사 분리(Part-of-Speech)를 수행하여, 문장별 품사 정보 기반 텍스트를 생성하는 제 2-1 단계; 및
상기 변환 어플리케이션(100)이 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 청크단위로 분리하는 제 2-2 단계; 를 포함하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법.
The method according to claim 1,
The conversion application 100 performs a part-of-speech for each sentence through a syntax analysis (Tokenizer algorithm) for the subtitle text generated for each sentence, Step 2-1 to generate And
A step 2-2 of separating the sentence-based piecemeal information-based text into chunks by a predetermined chunk separation algorithm; Wherein the chunk unit separation rules for the foreign language learning and the automatic word highlighting implementation method for the key word are provided.
청구항 6에 있어서, 상기 제 2-2 단계에서,
청크단위 분리시 상기 변환 어플리케이션(100)이 청크 기준 문장 설정 과정, 미리 설정된 복수의 청크 분리 알고리즘 중 하나에 의해 구분된 청크단위에 대해서 ","(쉼표), "Pause" 기준 분리 과정, 문자 음절 수 연산 과정, 기능어 및 핵심어 기준 음절 수 연산 과정, 단어와 기능어/핵심어 음절 수, 또는 음소 수로 구분하여 상기 제 1 단계에서 인식된 아날로그 신호의 주파수 파형의 시간을 연산하며, 기준 분리 과정에서 구분된 각 청크단위별 실소요 시간을 연산하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법.
7. The method of claim 6, wherein in step 2-2,
Quot ;, "Pause" criterion separation process, a character syllable (" Pause ") separation process for chunk units distinguished by one of a plurality of predetermined chunk separation algorithms, The number of syllables, the number of syllables, the number of phonemes, and the number of phonemes in the first step, and calculates the time of the frequency waveform of the analog signal recognized in the first step, A chunk unit separation rule for foreign language learning and a method for implementing automatic keying indication of key words, characterized by calculating the actual time required for each chunk unit.
청구항 1에 있어서, 상기 제 3 단계는,
상기 변환 어플리케이션(100)이 상기 제 2 단계에서 청크단위별 실소요 시간으로 구분된 청크 내에 핵심어를 추출한 뒤, 추출된 핵심어에 대한 음절의 강세를 설정하는 제 3-1 단계;
상기 변환 어플리케이션(100)이 최종적으로 추출된 음절의 강세 정보를 활용해 청크내 핵심어 강세를 최종 적용하고, 문장별 청크단위에 대한 구분 기호(1), 그리고 핵심어 추출/강세 표시 모듈(130)에 의해 추출된 각 청크단위 중 핵심어 강세에 관한 정보(2)를 포함하는 청크단위 강세 학습 파일을 생성한 뒤, 상기 사용자 스마트 디바이스(200)로 제공하는 제 3-2 단계; 를 포함하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법.
2. The method of claim 1,
A step 3-1 of extracting a key word in a chunk divided into a real time required for each chunk unit in the second step and setting the stress of the syllable with respect to the extracted key word;
The conversion application 100 finally applies the highlighting of the extracted syllable to finally apply the key word accents in the chunks. The discrimination symbol (1) for the chunk unit by sentence and the key word extraction / emphasis display module 130 Generating a chunk unit compilation learning file including information (2) about key word emphasis among each chunk unit extracted by the chunk unit compilation learning file, and providing the generated chunk unit compilation learning file to the user smart device 200; Wherein the chunk unit separation rules for the foreign language learning and the automatic word highlighting implementation method for the key word are provided.
변환 어플리케이션(100)과 사용자 스마트 디바이스(200)를 포함하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템에 있어서,
상기 변환 어플리케이션(100)은,
외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현을 위한 변환 어플리케이션(100)이 음성 정보를 갖는 영상에 대한 문장별 음성 인식 및 텍스트 자막 생성을 수행하는 음성 인식/자막 생성 모듈(110);
텍스트 자막에 대한 문장별 품사 분리(Part-of-Speech)에 의한 구문 분석과, 구분 분석에 따라 생성된 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 소리단위 구문인 청크단위로 분리하는 구문 분석/청크 분리 모듈(120); 및
분리된 각 청크단위를 기준으로 적어도 하나 이상의 청크단위에서의 핵심어 추출 및 추출된 핵심어에 대한 강세 표시를 생성한 뒤, 생성된 정보를 상기 사용자 스마트 디바이스(200)로 제공하여 구현되도록 하는 핵심어 추출/강세 표시 모듈(130); 을 포함하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템.
A chunk unit separation rule for a foreign language learning including a conversion application (100) and a user smart device (200)
The conversion application (100)
A speech recognition / caption generation module (110) for performing a speech recognition and a text caption generation for a sentence by a conversion application (100) for implementing a chunk unit separation rule for a foreign language learning and a key word automatic emphasis display implementation;
The parsing by text-based part-of-speech for text subtitles and the segmentation of chunks by the chunk separation algorithm, A parsing / chunk separation module 120; And
Extracting a key word in at least one or more chunk units based on each of the separated chunk units, generating a stress indication for the extracted key word, providing the generated information to the user smart device 200, An accent marking module 130; Wherein the chunk unit separation rules for foreign language learning and the automatic word highlighting display system for key words are provided.
청구항 9에 있어서, 상기 음성 인식/자막 생성 모듈(110)은,
음성인식 Open API(Open Application Programming interface)를 기반으로 음성 정보를 갖는 영상에서 영어 음성 오디오 인식을 음성 인터페이스(141)를 통해 아날로그 신호에 대한 수집 이후 디지털 변환 방식을 통해 수행하는 음성 인식 수단(111); 및
상기 음성 인식 수단(111)에 의해 생성된 음성 인식 디지털 신호를 자막 텍스트로 변환하는 자막 생성 수단(112); 을 포함하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템.
[11] The method of claim 9, wherein the speech recognition / caption generation module (110)
Speech recognition means 111 for performing English speech audio recognition on an image having speech information based on a speech recognition Open API (Open Application Programming interface) through a digital conversion method after collection of an analog signal through a speech interface 141, ; And
Caption generation means (112) for converting the speech recognition digital signal generated by the speech recognition means (111) into a caption text; Wherein the chunk unit separation rules for foreign language learning and the automatic word highlighting display system for key words are provided.
청구항 10에 있어서, 상기 자막 생성 수단(112)은,
음성 인식 디지털 신호를 자막 텍스트 형식 중 문장별 시작 시간(Start Time) 및 종료 시간(End Time)을 갖는 SRT(SubRip Text file format) 자막 형식으로 추출하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템.
[Claim 11] The method according to claim 10,
A chunk unit separation rule for foreign language learning characterized by extracting a speech recognition digital signal in a SubRip Text file format (SRT) having a start time and an end time for each sentence in the caption text format And Keyword Automatic Stress Indication Implementation System.
청구항 10에 있어서, 상기 자막 생성 수단(112)은,
생성되는 각 자막 형식 공통으로 음성 정보를 갖는 영상 재생의 동기를 맞추기 위한 동기 시작 시각, 동기 유지 시간, 동기 종료 시각과 같은 동기 정보를 문장별로 포함시키는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템.
[Claim 11] The method according to claim 10,
A synchronous start time, a synchronous holding time, and a synchronous end time for synchronizing image reproduction with audio information common to each of the generated subtitle formats are included for each sentence, And Keyword Automatic Stress Indication Implementation System.
청구항 9에 있어서, 상기 구문 분석/청크 분리 모듈(120)은,
자막 의미 단위 분석, 품사 단위 의미 분석, 영상 음성단위 시간 분석과 강세단위 시간 분석, 청크(chunk) 분리를 함께 수행하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템.
The method of claim 9, wherein the parsing / chunking module (120)
Chunk unit separation rule for Chinese language learning and automatic word highlighting implementation system for key words, characterized by performing subtitle semantic unit analysis, part - of - speech semantic analysis, video - audio unit time analysis, stress unit time analysis and chunk separation.
청구항 9에 있어서, 상기 구문 분석/청크 분리 모듈(120)은,
문장별로 생성된 자막 텍스트에 대한 구문 분석(품사 분석) 알고리즘(Tokenizer algorithm)을 통해 문장별 품사 분리(Part-of-Speech)를 수행하여, 문장별 품사 정보 기반 텍스트를 생성하는 구문 분석(품사 분석) 수단(121); 및
상기 변환 어플리케이션(100)이 문장별 품사 정보 기반 텍스트에 대해서 미리 설정된 청크 분리 알고리즘을 통해 청크단위로 분리하는 청크 분리 수단(122); 을 포함하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템.
The method of claim 9, wherein the parsing / chunking module (120)
Part-of-Speech is performed through the parsing algorithm (Tokenizer algorithm) for sentence-generated subtitle texts to generate sentence-based information-based texts. Means 121; And
A chunk separating means (122) for separating, in chunk units, the sentence-based piecemeal information based text by the converting application (100) through a predetermined chunk separation algorithm; Wherein the chunk unit separation rules for foreign language learning and the automatic word highlighting display system for key words are provided.
청구항 14에 있어서, 상기 청크 분리 수단(122)은,
청크단위 분리시 청크 기준 문장 설정 과정, 미리 설정된 복수의 청크 분리 알고리즘 중 하나에 의해 구분된 청크단위에 대해서 ","(쉼표), "Pause" 기준 분리 과정, 문자 음절 수 연산 과정, 기능어 및 핵심어 기준 음절 수 연산 과정, 단어와 기능어/핵심어 음절 수, 또는 음소 수로 구분하여 음성 인식 수단(111)에 의해 인식된 아날로그 신호의 주파수 파형의 시간을 연산하며, 기준 분리 과정에서 구분된 각 청크단위별 실소요 시간을 연산하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템.
15. The apparatus of claim 14, wherein the chunk separating means (122)
(Comma), "Pause" standard separation process, character syllable number calculation process, functional word, and key word for a chunk unit distinguished by one of a plurality of predetermined chunk separation algorithms The time of the frequency waveform of the analog signal recognized by the speech recognition means 111 is divided into the number of reference syllables, the number of words, the number of key words, the number of syllables, or the number of phonemes. A Chunked Unit Separation Rule for Foreign Language Learning and a Keyword Automatic Stress Indication Implementation System.
청구항 9에 있어서, 상기 핵심어 추출/강세 표시 모듈(130)은,
상기 구문 분석/청크 분리 모듈(120)에 의해 청크단위별 실소요 시간으로 구분된 청크 내에 핵심어를 추출하는 핵심어 추출 수단(131); 및
추출된 핵심어에 대한 음절의 강세를 설정하는 강세 표시 수단(132); 을 포함하되,
상기 변환 어플리케이션(100)이 최종적으로 추출된 음절의 강세 정보를 활용해 청크내 핵심어 강세를 최종 적용하고, 문장별 청크단위에 대한 구분 기호(1), 그리고 핵심어 추출/강세 표시 모듈(130)에 의해 추출된 각 청크단위 중 핵심어 강세에 관한 정보(2)를 포함하는 청크단위 강세 학습 파일을 생성한 뒤, 상기 사용자 스마트 디바이스(200)로 제공하는 것을 특징으로 하는 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 시스템.
The system according to claim 9, wherein the keyword extraction / emphasis display module (130)
A key word extracting unit 131 for extracting key words in the chunks divided by the actual required time for each chunk unit by the parsing / chunking module 120; And
An emphasis display means 132 for setting a stress of the syllable with respect to the extracted key word; ≪ / RTI >
The conversion application 100 finally applies the highlighting of the extracted syllable to finally apply the key word accents in the chunks. The discrimination symbol (1) for the chunk unit by sentence and the key word extraction / emphasis display module 130 (2), and provides the chunk unit intensified learning file to the user smart device (200). The chunk unit separation rule for foreign language learning And Keyword Automatic Stress Indication Implementation System.
KR1020170065610A 2017-05-26 2017-05-26 Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof KR101990023B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170065610A KR101990023B1 (en) 2017-05-26 2017-05-26 Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170065610A KR101990023B1 (en) 2017-05-26 2017-05-26 Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof

Publications (2)

Publication Number Publication Date
KR20180129486A true KR20180129486A (en) 2018-12-05
KR101990023B1 KR101990023B1 (en) 2019-06-18

Family

ID=64744202

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170065610A KR101990023B1 (en) 2017-05-26 2017-05-26 Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof

Country Status (1)

Country Link
KR (1) KR101990023B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102188553B1 (en) * 2019-10-24 2020-12-09 김형민 The System For Providing Korean Language Education System with Animation
KR20210060280A (en) * 2019-11-17 2021-05-26 주식회사 이볼케이노 Image-structuring system for learning english sentences
KR20210089426A (en) 2020-01-08 2021-07-16 주식회사 에듀에스알티 Method for studying chunk unit by mobile
KR102583764B1 (en) 2022-06-29 2023-09-27 (주)액션파워 Method for recognizing the voice of audio containing foreign languages

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102405744B1 (en) 2020-09-21 2022-06-07 주식회사 케이엠에듀 English teaching method and apparatus using teaching media
KR20220078876A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 English teaching program to improve the hearing ability of English sentences
KR20220078867A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 Medium of record that records English education programs
KR20220078862A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 Medium of record that records English education program
KR20220078873A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 Program for providing english teaching using teaching media
KR20220078872A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 English teaching apparatus using teaching media
KR20220078865A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 Record medium recording an English education program that improves the hearing ability of English sentences based on pronunciation
KR20220078861A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 Recording Medium
KR20220078870A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 English teaching method to improve the hearing ability of English sentences based on phonetic phenomena
KR20220078874A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 Program for providing english education
KR20220078868A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 English teaching method using teaching media
KR20220078875A (en) 2020-12-04 2022-06-13 주식회사 케이엠에듀 Program for english teaching

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140068292A (en) * 2012-11-22 2014-06-09 (주)케이믹글로벌 Speaking Training System for Improving Fluency of Utterence
KR20150143500A (en) * 2013-03-15 2015-12-23 미디어 마우스 인코포레이티드 Language learning environment
KR20170009486A (en) * 2015-07-17 2017-01-25 박상준 Database generating method for chunk-based language learning and electronic device performing the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140068292A (en) * 2012-11-22 2014-06-09 (주)케이믹글로벌 Speaking Training System for Improving Fluency of Utterence
KR20150143500A (en) * 2013-03-15 2015-12-23 미디어 마우스 인코포레이티드 Language learning environment
KR20170009486A (en) * 2015-07-17 2017-01-25 박상준 Database generating method for chunk-based language learning and electronic device performing the same

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
대한민국 특허공개공보 공개번호 제10-2015-0055921호 "동영상 재생 제어 방법 및 장치(METHOD AND APPARATUS FOR CONTROLLING PLAYING VIDEO)"
대한민국 특허등록공보 등록번호 제10-0879667호 "멀티미디어 처리 장치의 어학 학습 방법(METHOD OF LEARNING LANGUAGE IN MULTIMEDIA PROCESSING APPARATUS)"
대한민국 특허출원 출원번호 제10-2009-0119555호 "어학학습 전자기기 구동 방법, 시스템 및 이를 응용한 동시통역 학습기(SYSTEM AND METHOD FOR OPERATING LANGUAGE TRAINING ELECTRONIC DEVICE AND REAL-TIME TRANSLATION TRAINING APPARATUS OPERATED THEREOF)"

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102188553B1 (en) * 2019-10-24 2020-12-09 김형민 The System For Providing Korean Language Education System with Animation
KR20210060280A (en) * 2019-11-17 2021-05-26 주식회사 이볼케이노 Image-structuring system for learning english sentences
KR20210089426A (en) 2020-01-08 2021-07-16 주식회사 에듀에스알티 Method for studying chunk unit by mobile
KR102583764B1 (en) 2022-06-29 2023-09-27 (주)액션파워 Method for recognizing the voice of audio containing foreign languages
US11972756B2 (en) 2022-06-29 2024-04-30 Actionpower Corp. Method for recognizing the voice of audio containing foreign languages

Also Published As

Publication number Publication date
KR101990023B1 (en) 2019-06-18

Similar Documents

Publication Publication Date Title
KR101990023B1 (en) Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof
KR102061044B1 (en) Method and system for translating sign language and descriptive video service
US9552807B2 (en) Method, apparatus and system for regenerating voice intonation in automatically dubbed videos
US11190855B2 (en) Automatic generation of descriptive video service tracks
US11942093B2 (en) System and method for simultaneous multilingual dubbing of video-audio programs
CN1559042A (en) Multi-lingual transcription system
KR20170030297A (en) System, Apparatus and Method For Processing Natural Language, and Computer Readable Recording Medium
CN105635782A (en) Subtitle output method and device
Blache et al. Creating and exploiting multimodal annotated corpora: the ToMA project
CN113035199B (en) Audio processing method, device, equipment and readable storage medium
US10930274B2 (en) Personalized pronunciation hints based on user speech
JP2004170983A (en) Device and method for text/speech conversion with additional information providing function
EP4322029A1 (en) Method and apparatus for generating video corpus, and related device
JP2012181358A (en) Text display time determination device, text display system, method, and program
CN114996506A (en) Corpus generation method and device, electronic equipment and computer-readable storage medium
KR101932340B1 (en) English Teaching and Learning through the Application of Native Speakers Video Subtitles Recognition and Interpretation Systems
KR101990019B1 (en) Terminal for performing hybrid caption effect, and method thereby
US20220237379A1 (en) Text reconstruction system and method thereof
KR20160002081A (en) Apparatus and method for translating of sign language using speech recognition
KR101984042B1 (en) Analysis method for chunk and key word based on voice signal of video data, and system thereof
KR101920653B1 (en) Method and program for edcating language by making comparison sound
KR20160131730A (en) System, Apparatus and Method For Processing Natural Language, and Computer Readable Recording Medium
Abdo et al. Building Audio-Visual Phonetically Annotated Arabic Corpus for Expressive Text to Speech.
KR20160122419A (en) Method for convert voice to cyber sign language
Nguyen et al. Evaluation on noise reduction in subtitle generator for videos

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant