KR20240003561A - method and apparatus for generating subtitle - Google Patents

method and apparatus for generating subtitle Download PDF

Info

Publication number
KR20240003561A
KR20240003561A KR1020220081292A KR20220081292A KR20240003561A KR 20240003561 A KR20240003561 A KR 20240003561A KR 1020220081292 A KR1020220081292 A KR 1020220081292A KR 20220081292 A KR20220081292 A KR 20220081292A KR 20240003561 A KR20240003561 A KR 20240003561A
Authority
KR
South Korea
Prior art keywords
text
subtitle
group
language
text group
Prior art date
Application number
KR1020220081292A
Other languages
Korean (ko)
Other versions
KR102681196B1 (en
Inventor
황명진
문종욱
Original Assignee
주식회사 엘솔루
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘솔루 filed Critical 주식회사 엘솔루
Priority to KR1020220081292A priority Critical patent/KR102681196B1/en
Publication of KR20240003561A publication Critical patent/KR20240003561A/en
Application granted granted Critical
Publication of KR102681196B1 publication Critical patent/KR102681196B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)

Abstract

일 실시예에 따른 자막 생성 장치가 수행하는 자막 생성 방법은, 텍스트와 시작 시각 및 끝 시각을 포함하는 자막컷을 1개 이상 포함시켜 복수의 텍스트 그룹을 형성하되, 각 텍스트 그룹 내 첫 번째 자막컷의 시작 시각은 해당 텍스트 그룹의 시작 시각과 동일하고, 해당 텍스트 그룹 내 마지막 자막컷의 끝 시각은 해당 텍스트 그룹의 끝 시각과 동일하게 형성하는 단계와, 상기 복수의 텍스트 그룹 중 제 1 언어의 텍스트 그룹과 제 2 언어의 텍스트 그룹을 자막 생성 화면 내에 교번하여 배치하되, 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성하는 단계와, 상기 복수의 텍스트 그룹 중 i번째 텍스트 그룹의 시작과 끝 시각 정보를 i+1번째 텍스트 그룹과 공유시키는 단계를 포함한다.A subtitle generation method performed by a subtitle generation device according to an embodiment includes forming a plurality of text groups by including text and one or more subtitle cuts including a start time and an end time, and the first subtitle cut in each text group. The start time of is the same as the start time of the text group, and the end time of the last subtitle cut in the text group is formed to be the same as the end time of the text group, and the text of the first language among the plurality of text groups Arranging the group and the text group of the second language alternately in the subtitle creation screen so that the text group of one language can be arranged continuously on a plurality of lines, and the start of the ith text group among the plurality of text groups It includes the step of sharing the end visual information with the i+1th text group.

Description

자막 생성 장치 및 방법{method and apparatus for generating subtitle}Subtitle generating apparatus and method {method and apparatus for generating subtitle}

본 발명은 자막을 생성하는 장치와 이 장치가 자막을 생성하는 방법에 관한 것이다.The present invention relates to a device for generating subtitles and a method for using the device to generate subtitles.

동영상 콘텐츠 등에 포함되는 자막은 텍스트와 시간으로 구성된다. 자막에서의 텍스트는 한 화면에 보여줄 수 있는 단위(이하, '자막컷'이라 함) 별로 관리되고 줄바꿈이 있는 경우 관련 정보도 포함할 수 있다. 자막에서 시간 정보는 해당 텍스트의 표출 시작 시각과 끝 시각으로 표현될 수 있다. 자막을 생성하기 위해서는 적절한 텍스트가 필요하고 각 텍스트에는 적절한 시각 정보를 지정해줘야 한다.Subtitles included in video content, etc. are composed of text and time. Text in subtitles is managed by units that can be displayed on one screen (hereinafter referred to as 'subtitle cuts'), and if there is a line break, related information can also be included. In subtitles, time information can be expressed as the start and end times of the text. To create subtitles, appropriate text is needed, and each text must be assigned appropriate visual information.

한편, 기계번역은 특정 언어를 다른 지정된 언어로 자동으로 번역해주는 기술을 말한다. 기계번역은 기계학습을 통해 정확도를 높이는데, 기계학습을 위해서는 역시 학습데이터가 필요하며, 학습데이터는 일반적으로 목표로 하는 입출력 언어의 문장 쌍으로 구성된다. 기계번역 학습을 주로 문장 단위로 하기 때문에 실제 번역할 때도 문장이 단절되어 부분 문장씩 따로 번역된 결과물보다 문장 전체가 한번에 번역된 결과물의 번역 품질이 더 좋다.Meanwhile, machine translation refers to a technology that automatically translates a specific language into another designated language. Machine translation improves accuracy through machine learning. Machine learning also requires training data, and training data generally consists of sentence pairs of the target input and output language. Since machine translation learning is mainly done on a sentence-by-sentence basis, even during actual translation, the translation quality of the entire sentence translated at once is better than the result of the sentences being broken and translated separately, one by one.

대한민국 등록특허공보 제10-2351408호, 등록일자 2022년 01월 11일.Republic of Korea Patent Publication No. 10-2351408, registration date: January 11, 2022.

실시예에 따르면, 자막 번역 상황에서 발생하는 원문과 번역문 간 N:M(단, N과 M은 자연수)의 문장 분할 상황, 특히 N≠M의 문장 분할 상황을 효과적으로 구조화할 수 있는 자막 생성 장치 및 방법을 제공한다.According to an embodiment, a subtitle generating device capable of effectively structuring a sentence splitting situation of N:M (where N and M are natural numbers) between the original text and the translated text that occurs in a subtitle translation situation, especially a sentence splitting situation of N≠M, and Provides a method.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those skilled in the art to which the present invention pertains from the following description.

제 1 관점에 따른 자막 생성 장치가 수행하는 자막 생성 방법은, 텍스트와 시작 시각 및 끝 시각을 포함하는 자막컷을 1개 이상 포함시켜 복수의 텍스트 그룹을 형성하되, 각 텍스트 그룹 내 첫 번째 자막컷의 시작 시각은 해당 텍스트 그룹의 시작 시각과 동일하고, 해당 텍스트 그룹 내 마지막 자막컷의 끝 시각은 해당 텍스트 그룹의 끝 시각과 동일하게 형성하는 단계와, 상기 복수의 텍스트 그룹 중 제 1 언어의 텍스트 그룹과 제 2 언어의 텍스트 그룹을 자막 생성 화면 내에 교번하여 배치하되, 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성하는 단계와, 상기 복수의 텍스트 그룹 중 i번째 텍스트 그룹의 시작과 끝 시각 정보를 i+1번째 텍스트 그룹과 공유시키는 단계를 포함한다.The subtitle generation method performed by the subtitle generation device according to the first aspect includes text and one or more subtitle cuts including a start time and an end time to form a plurality of text groups, and the first subtitle cut in each text group The start time of is the same as the start time of the text group, and the end time of the last subtitle cut in the text group is formed to be the same as the end time of the text group, and the text of the first language among the plurality of text groups Arranging the group and the text group of the second language alternately in the subtitle creation screen so that the text group of one language can be arranged continuously on a plurality of lines, and the start of the ith text group among the plurality of text groups It includes the step of sharing the end visual information with the i+1th text group.

제 2 관점에 따른 자막 생성 장치는, 자막 생성과 관련된 명령을 입력 받는 입력부와, 상기 입력부를 통한 명령에 따른 처리 또는 자막 자동 생성과 관련된 처리를 수행하는 프로세서부를 포함하고, 상기 프로세서부는, 텍스트와 시작 시각 및 끝 시각을 포함하는 자막컷을 1개 이상 포함시켜 복수의 텍스트 그룹을 형성하되, 각 텍스트 그룹 내 첫 번째 자막컷의 시작 시각은 해당 텍스트 그룹의 시작 시각과 동일하고, 해당 텍스트 그룹 내 마지막 자막컷의 끝 시각은 해당 텍스트 그룹의 끝 시각과 동일하게 형성하며, 상기 복수의 텍스트 그룹 중 제 1 언어의 텍스트 그룹과 제 2 언어의 텍스트 그룹을 자막 생성 화면 내에 교번하여 배치하되, 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성하고, 상기 복수의 텍스트 그룹 중 i번째 텍스트 그룹의 시작과 끝 시각 정보를 i+1번째 텍스트 그룹과 공유시킨다.A subtitle generating device according to a second aspect includes an input unit that receives a command related to subtitle generation, and a processor unit that performs processing according to a command through the input unit or processing related to automatic subtitle generation, wherein the processor unit generates text and Form multiple text groups by including one or more subtitle cuts including a start time and an end time, but the start time of the first subtitle cut within each text group is the same as the start time of the text group, and the start time of the first subtitle cut within each text group is the same as the start time of the text group. The end time of the last subtitle cut is set to be the same as the end time of the corresponding text group, and among the plurality of text groups, the text group in the first language and the text group in the second language are alternately arranged within the subtitle creation screen, but only in one language. The text groups are formed to be sequentially arranged on a plurality of lines, and the start and end time information of the ith text group among the plurality of text groups is shared with the i+1th text group.

제 3 관점에 따라 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램은, 상기 컴퓨터 프로그램이, 상기 자막 생성 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to a third aspect, a computer program stored in a computer-readable recording medium includes instructions for causing a processor to perform the subtitle generation method.

제 4 관점에 따른 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이, 상기 자막 생성 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.A computer-readable recording medium storing a computer program according to the fourth aspect includes instructions for causing the computer program to cause a processor to perform the subtitle generation method.

실시예에 따르면, 자막 번역 상황에서 발생하는 원문과 번역문 간 N:M(단, N과 M은 자연수)의 문장 분할 상황, 특히 N≠M의 문장 분할 상황을 효과적으로 구조화함으로써, 기계번역 활용성을 높이고 사용자 인터페이스(UI)를 더 직관적으로 보이게 표시할 수 있어서 자막 번역의 생산성을 높일 수 있다. 또한 실시예에 따라 생성된 번역문은 원문과 함께 별도의 프로세스 추가 없이 기계번역을 위한 훈련데이터로 활용할 수 있는 효과가 있다.According to the embodiment, the usability of machine translation is improved by effectively structuring the N:M (where N and M are natural numbers) sentence splitting situation between the original text and the translated text that occurs in a subtitle translation situation, especially the N≠M sentence splitting situation. The productivity of subtitle translation can be increased by increasing the user interface (UI) and displaying it to make it look more intuitive. Additionally, the translated text generated according to the embodiment has the effect of being able to be used as training data for machine translation along with the original text without adding a separate process.

도 1은 본 발명의 일 실시예에 따른 자막 생성 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 자막 생성 장치가 수행하는 자막 생성 방법을 설명하기 위한 흐름도이다.
도 3 내지 도 9는 본 발명의 일 실시예에 따른 자막 생성 장치에 의해 생성되는 다양한 텍스트 그룹을 예시한 도면들이다.
1 is a configuration diagram of a subtitle generating device according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a method of generating subtitles performed by a subtitle generating device according to an embodiment of the present invention.
3 to 9 are diagrams illustrating various text groups generated by a subtitle generating device according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear with reference to the embodiments described below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to be understood by those skilled in the art. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly explained, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When it is said that a part 'includes' a certain element throughout the specification, this does not mean excluding other elements, but may further include other elements, unless specifically stated to the contrary.

또한, 명세서에서 사용되는 '부'라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.Additionally, the term 'unit' used in the specification refers to software or hardware components such as FPGA or ASIC, and the 'unit' performs certain roles. However, 'wealth' is not limited to software or hardware. The 'part' may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Therefore, as an example, 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, Includes subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted.

도 1은 본 발명의 일 실시예에 따른 자막 생성 장치의 구성도이다.1 is a configuration diagram of a subtitle generating device according to an embodiment of the present invention.

도 1을 참조하면, 자막 생성 장치(100)는 입력부(110) 및 프로세서부(120)를 포함하고, 저장부(130) 및/또는 출력부(140)를 더 포함할 수 있다.Referring to FIG. 1, the subtitle generating device 100 includes an input unit 110 and a processor unit 120, and may further include a storage unit 130 and/or an output unit 140.

입력부(110)를 사용자 인터페이스 등을 통해 자막 생성과 관련된 명령을 입력 받고, 입력 받은 명령을 프로세서부(120)에 전달한다.The input unit 110 receives commands related to subtitle creation through a user interface, etc., and transmits the input commands to the processor unit 120.

프로세서부(120)는 텍스트와 시작 시각 및 끝 시각을 포함하는 자막컷을 1개 이상 포함시켜 복수의 텍스트 그룹을 형성하되, 각 텍스트 그룹 내 첫 번째 자막컷의 시작 시각은 해당 텍스트 그룹의 시작 시각과 동일하고, 해당 텍스트 그룹 내 마지막 자막컷의 끝 시각은 해당 텍스트 그룹의 끝 시각과 동일하게 형성하며, 복수의 텍스트 그룹 중 제 1 언어의 텍스트 그룹과 제 2 언어의 텍스트 그룹을 출력부(140)의 자막 생성 화면 내에 교번하여 배치하되, 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성하고, 복수의 텍스트 그룹 중 i번째 텍스트 그룹의 시작과 끝 시각 정보를 i+1번째 텍스트 그룹과 공유시킨다.The processor unit 120 forms a plurality of text groups by including one or more subtitle cuts including text and a start time and an end time, and the start time of the first subtitle cut in each text group is the start time of the corresponding text group. The end time of the last subtitle cut in the text group is the same as the end time of the text group, and the text group in the first language and the text group in the second language among the plurality of text groups are output to the output unit 140. ) are arranged alternately within the subtitle creation screen, so that text groups of one language can be placed continuously on multiple lines, and the start and end time information of the ith text group among the plurality of text groups is added to the i+1th text. Share with the group.

여기서, 제 1 언어는 원문이고, 제 2 언어는 상기 원문에 대응하는 번역문이며, 프로세서부(120)는 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성할 때에, 제 2 언어의 텍스트 그룹에 포함된 하나의 자막컷을 복수로 자동 분할하여 복수의 분할 자막컷을 형성하되, 복수의 분할 자막컷 각각을 복수의 라인 중 서로 다른 라인에 배치할 수 있고, 복수의 분할 자막컷 중 첫 번째 분할 자막컷의 시작 시각에 분할 전 자막컷의 시작 시각을 할당하며, 복수의 분할 자막컷 중 마지막 분할 자막컷의 끝 시각에 분할 전 자막컷의 끝 시각을 할당할 수 있다.Here, the first language is the original text, and the second language is a translation corresponding to the original text, and when the processor unit 120 forms a text group in one language to be continuously arranged on a plurality of lines, the second language A subtitle cut included in a text group is automatically divided into a plurality of subtitle cuts to form a plurality of split subtitle cuts. Each of the plurality of split subtitle cuts can be placed on a different line among the plurality of lines. The start time of the subtitle cut before division can be assigned to the start time of the first divided subtitle cut, and the end time of the subtitle cut before division can be assigned to the end time of the last divided subtitle cut among a plurality of divided subtitle cuts.

i번째 텍스트 그룹은 제 1 언어이고, i+1번째 텍스트 그룹은 제 2 언어이며, 프로세서부(120)는 i+1번째 텍스트 그룹의 삭제가 입력부(110)를 통해 요청되면, i번째 텍스트 그룹과 동일한 언어로 된 i+2번째 텍스트 그룹과 i번째 텍스트 그룹을 하나의 통합 그룹으로 형성하고, 제 2 언어로 된 i+3번째 텍스트 그룹에 통합 그룹의 번역문을 형성할 수 있다.The i-th text group is the first language, the i+1-th text group is the second language, and when deletion of the i+1-th text group is requested through the input unit 110, the processor unit 120 deletes the i-th text group The i+2th text group and the ith text group in the same language may be formed into one integrated group, and a translation of the integrated group may be formed in the i+3th text group in the second language.

i번째 텍스트 그룹은 제 1 언어이고, i+1번째 텍스트 그룹은 제 2 언어이며, 프로세서부(120)는 i+1번째 텍스트 그룹의 삭제가 입력부(110)를 통해 요청되면, i번째 텍스트 그룹과 동일한 언어로 된 i+2번째 텍스트 그룹과 i번째 텍스트 그룹을 하나의 통합 그룹으로 형성하고, 제 2 언어로 된 i+3번째 텍스트 그룹에 통합 그룹의 시작 시각과 끝 시각을 할당할 수 있다.The i-th text group is the first language, the i+1-th text group is the second language, and when deletion of the i+1-th text group is requested through the input unit 110, the processor unit 120 deletes the i-th text group The i+2th text group and the ith text group in the same language can be formed into one integrated group, and the start and end times of the integrated group can be assigned to the i+3th text group in the second language. .

저장부(130)에는 자막 생성 장치(100)의 프로세서부(120)가 앞서 설명한 바와 같은 일련의 처리를 포함하는 자막 생성 방법에 포함된 각각의 단계를 수행하도록 프로그램된 컴퓨터 프로그램이 기록될 수 있다. 또, 저장부(130)는 프로세서부(120)에 의한 처리 결과를 프로세서부(120)에 의한 제어에 따라 저장할 수 있다.A computer program programmed so that the processor unit 120 of the subtitle generating device 100 performs each step included in the subtitle generating method including the series of processes described above may be recorded in the storage unit 130. . Additionally, the storage unit 130 may store the results of processing by the processor unit 120 according to control by the processor unit 120.

출력부(140)는 프로세서부(120)에 의한 처리 결과를 외부에 출력할 수 있다. 예를 들어, 출력부(140)는 프로세서부(120)에 의한 처리 결과에 따라 생성된 자막 화면을 디스플레이 장치 등을 통해 출력할 수 있다. 한편, 입력부(110)과 출력부(140)는 일체로 구현될 수 있다. 예를 들어, 입력부(110)는 디스플레이 장치 상에 구현된 터치 스크린일 수 있고, 디스플레이 장치와 터치 스크린은 입출력 장치로서 제공될 수 있다.The output unit 140 may output the results of processing by the processor unit 120 to the outside. For example, the output unit 140 may output a subtitle screen generated according to a processing result by the processor unit 120 through a display device, etc. Meanwhile, the input unit 110 and the output unit 140 may be implemented integrally. For example, the input unit 110 may be a touch screen implemented on a display device, and the display device and the touch screen may be provided as input/output devices.

도 2는 본 발명의 일 실시예에 따른 자막 생성 장치(100)가 수행하는 자막 생성 방법을 설명하기 위한 흐름도이고, 도 3 내지 도 9는 본 발명의 일 실시예에 따른 자막 생성 장치(100)에 의해 생성되는 다양한 텍스트 그룹을 예시한 도면들이다.FIG. 2 is a flowchart for explaining the subtitle generating method performed by the subtitle generating device 100 according to an embodiment of the present invention, and FIGS. 3 to 9 are flowcharts showing the subtitle generating device 100 according to an embodiment of the present invention. These are drawings illustrating various text groups created by .

이하, 도 1 내지 도 9를 참조하여 본 발명의 일 실시예에 따른 자막 생성 장치(100)가 수행하는 자막 생성 방법에 대해 자세히 살펴보기로 한다.Hereinafter, with reference to FIGS. 1 to 9, we will take a closer look at the subtitle generation method performed by the subtitle generating device 100 according to an embodiment of the present invention.

먼저, 자막 생성 장치(100)의 입력부(110)는 사용자 인터페이스 등을 통해 자막 생성과 관련된 명령을 입력 받고, 입력 받은 명령을 프로세서부(120)에 전달한다.First, the input unit 110 of the subtitle creation device 100 receives a command related to subtitle creation through a user interface, etc., and transmits the input command to the processor unit 120.

그리고, 자막 생성 장치(100)의 프로세서부(120)는 입력부(110)를 통한 명령에 따른 처리 또는 자막 자동 생성과 관련된 처리를 수행한다. 이러한 프로세서부(120)에 의한 처리의 결과에 따라 자막 화면이 생성될 수 있고, 이렇게 생성된 자막 화면은 프로세서부(120)의 제어에 따라 출력부(140)를 통해 출력될 수 있다. 도 3 내지 도 9는 출력부(140)를 통해 출력될 수 있는 자막 화면에 포함되는 다양한 텍스트 그룹을 예시한 것이다. 이러한 자막 화면을 구성하는 텍스트 그룹을 살펴보면, 프로세서부(120)에 의한 생성 관련 처리의 내용을 파악할 수 있다. 도 3 내지 도 9에 시각 정보는 도시 생략하였다.Additionally, the processor unit 120 of the subtitle generating device 100 performs processing according to commands through the input unit 110 or processing related to automatic subtitle generation. A subtitle screen may be generated according to the result of processing by the processor unit 120, and the subtitle screen generated in this way may be output through the output unit 140 under the control of the processor unit 120. 3 to 9 illustrate various text groups included in a subtitle screen that can be output through the output unit 140. By looking at the text groups that make up this subtitle screen, the contents of the generation-related processing by the processor unit 120 can be identified. Visual information is not shown in FIGS. 3 to 9 .

자막 화면의 구성에는 텍스트와 시간 정보가 포함된다.The composition of the subtitle screen includes text and time information.

그리고, 음성과 텍스트가 동일 언어일 경우 음성인식을 이용하여 자막 생성 비용을 줄일 수 있다. 반대로, 음성과 텍스트가 다른 언어일 경우 기계번역을 사용하여 자막 생성 비용을 줄일 수 있다. 기계에 의해 자동 생성된 자막을 사람이 수정하는 것이 처음부터 사람이 직접 생성하는 것보다 비용이 덜 들기 때문이다.Additionally, if the voice and text are in the same language, the cost of creating subtitles can be reduced using voice recognition. Conversely, if the voice and text are in different languages, machine translation can be used to reduce the cost of subtitle creation. This is because it is less expensive for a person to edit subtitles automatically generated by a machine than to create them manually from scratch.

그런데, 자막 번역의 경우 한 화면에 보여줄 수 있는 글자의 양에 한계가 있기 때문에 하나의 문장이 여러 컷으로 분리되어 관리되는 경우가 있다. 이러한 경우 더 나은 기계번역 결과를 얻기 위해 원본 문장의 시작과 끝에 대한 정보를 기계번역기가 알 수 있게 해야 한다.However, in the case of subtitle translation, there is a limit to the amount of characters that can be displayed on one screen, so one sentence is sometimes managed by dividing it into several cuts. In this case, to obtain better machine translation results, the machine translator must be able to know information about the beginning and end of the original sentence.

또한, 원본 문장은 한 컷의 자막이었으나 번역 결과가 여러 컷으로 분리되어야 하는 경우도 있다. In addition, there are cases where the original sentence was a single cut of subtitles, but the translation result must be separated into multiple cuts.

또한, 수작업 비중을 줄이기 위해서는 기계번역의 정확도를 높이는 것이 중요한데 교정된 번역문은 기계번역의 훈련데이터로도 활용할 수 있다. 그런데, 위와 같은 상황으로 인해 원문과 번역문이 1대1로 대응되지 않는 경우가 발생하므로 훈련용으로 활용하기 위해서는 또 다른 수작업이 발생한다.In addition, it is important to increase the accuracy of machine translation in order to reduce the proportion of manual work, and the corrected translation can also be used as training data for machine translation. However, due to the above situation, there are cases where the original text and the translated text do not correspond one to one, so additional manual work is required to use it for training purposes.

분할된 문장을 한 문장으로 묶어서 기계번역도 할 수 있어야 하고 한 컷의 원본 문장이 여러 컷의 번역문으로도 표현되어야 하고 교정된 번역문을 기계번역 훈련용으로도 활용해야 하는 상황을 자막 생성 도구에서 편집자가 쉽게 이해하고 사용할 수 있도록 표현되어야 한다.In situations where segmented sentences must be grouped into one sentence for machine translation, one cut of original sentence must be expressed as multiple cuts of translation, and corrected translations must also be used for machine translation training, the subtitle creation tool can be used as an editor. It must be expressed so that it is easy to understand and use.

위와 같은 자막 번역 상황에서 발생하는 원문과 번역문 간 1:N 혹은 N:1 (단, N과 M은 자연수)의 문장 분할 상황을 효과적으로 구조화하여 기계번역 활용성을 높이고 사용자 인터페이스를 더 직관적으로 보이게 할 필요가 있다. 이를 위해, 자막 생성 장치(100) 및 그 프로세서부(120)는 자막 번역 상황에서 발생하는 원문과 번역문 간 N:M의 문장 분할 상황, 특히 N≠M의 문장 분할 상황을 효과적으로 구조화할 수 있다.By effectively structuring the sentence division situation of 1:N or N:1 (where N and M are natural numbers) between the original text and the translated text that occurs in the above subtitle translation situation, we can increase the usability of machine translation and make the user interface look more intuitive. There is a need. To this end, the subtitle generating device 100 and its processor unit 120 can effectively structure the N:M sentence splitting situation between the original text and the translated text that occurs in the subtitle translation situation, especially the N≠M sentence splitting situation.

프로세서부(120)가 자막 화면을 생성하기 위하여 처리하는 과정에 대해 먼저 살펴보면, 텍스트와 시작 시각 및 끝 시각을 포함하는 자막컷을 1개 이상 포함시켜 복수의 텍스트 그룹을 형성하되(S210), 각 텍스트 그룹 내 첫 번째 자막컷의 시작 시각은 해당 텍스트 그룹의 시작 시각과 동일하고, 해당 텍스트 그룹 내 마지막 자막컷의 끝 시각은 해당 텍스트 그룹의 끝 시각과 동일하게 형성하며, 복수의 텍스트 그룹 중 제 1 언어의 텍스트 그룹과 제 2 언어의 텍스트 그룹을 출력부(140)의 자막 생성 화면 내에 교번하여 배치하되, 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성하고(S220), 복수의 텍스트 그룹 중 i번째 텍스트 그룹의 시작과 끝 시각 정보를 i+1번째 텍스트 그룹과 공유시킨다(S230).Looking first at the process that the processor unit 120 processes to generate a subtitle screen, a plurality of text groups are formed by including one or more subtitle cuts including text and start and end times (S210), and each text group is formed (S210). The start time of the first subtitle cut within the text group is the same as the start time of the text group, the end time of the last subtitle cut within the text group is the same as the end time of the text group, and the first subtitle cut among the plurality of text groups is set to the same time. The text group of the first language and the text group of the second language are arranged alternately in the subtitle creation screen of the output unit 140, and the text group of one language is formed so that it can be arranged continuously on a plurality of lines (S220), and the text group of the second language is arranged alternately. Among the text groups, the start and end time information of the i-th text group is shared with the i+1-th text group (S230).

여기서, 제 1 언어는 원문이고, 제 2 언어는 상기 원문에 대응하는 번역문이며, 프로세서부(120)는 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성할 때에, 제 2 언어의 텍스트 그룹에 포함된 하나의 자막컷을 복수로 자동 분할하여 복수의 분할 자막컷을 형성할 수 있다. 여기서, 복수의 분할 자막컷 각각을 복수의 라인 중 서로 다른 라인에 배치할 수 있고, 복수의 분할 자막컷 중 첫 번째 분할 자막컷의 시작 시각에 분할 전 자막컷의 시작 시각을 할당하며, 복수의 분할 자막컷 중 마지막 분할 자막컷의 끝 시각에 분할 전 자막컷의 끝 시각을 할당할 수 있다.Here, the first language is the original text, and the second language is a translation corresponding to the original text, and when the processor unit 120 forms a text group in one language to be continuously arranged on a plurality of lines, the second language One subtitle cut included in a text group can be automatically divided into multiple subtitle cuts to form multiple split subtitle cuts. Here, each of the plurality of split subtitle cuts can be placed on a different line among the plurality of lines, the start time of the subtitle cut before division is assigned to the start time of the first split subtitle cut among the plurality of split subtitle cuts, and the start time of the subtitle cut before division is assigned to the start time of the first split subtitle cut among the plurality of split subtitle cuts. The ending time of the subtitle cut before division can be assigned to the ending time of the last divided subtitle cut among the divided subtitle cuts.

도 3은 자막 번역을 위한 기본 화면이라 할 수 있다. 자막컷이 순차적으로 나열되어 있다. 자막컷은 텍스트와 시작 시각 및 끝 시각을 속성으로 가지고 있다. 도 1에는 시각 정보는 따로 표현하지는 않았다. 각 자막컷은 특정 텍스트 그룹에 속하는데, 하나의 텍스트 그룹은 연속된 하나 이상의 자막컷을 포함하고 있다. 따라서 텍스트 그룹은 원문인 제 1 언어로 작성된 텍스트 그룹과 번역문인 제 2 언어로 작성된 텍스트 그룹이 번갈아 나열될 수 있다. 번역문에 해당하는 텍스트 그룹은 하나 앞선 원문 텍스트 그룹과 짝지어지며 짝이 되는 원문 텍스트 그룹의 번역문을 담고 있을 수 있다. 번역문에 해당하는 텍스트 그룹은 또한 짝이 되는 원문 텍스트 그룹과 첫 자막컷의 시작 시각이 동일할 수 있으며 마지막 자막컷의 끝 시각이 동일할 수 있다.Figure 3 can be said to be the basic screen for subtitle translation. Subtitle cuts are listed sequentially. Subtitle cuts have text, start time, and end time as attributes. In Figure 1, visual information is not expressed separately. Each subtitle cut belongs to a specific text group, and one text group contains one or more consecutive subtitle cuts. Accordingly, the text group may be alternately composed of a text group written in the first language, which is the original text, and a text group written in the second language, which is a translation. The text group corresponding to the translation is paired with the preceding original text group and may contain a translation of the paired original text group. The text group corresponding to the translation may also have the same start time of the first subtitle cut and the same end time of the last subtitle cut as the paired original text group.

도 4은 번역문의 자막컷 분리를 나타낸 것이다. 엔터기호로 표현한 줄바꿈 표시는 해당 위치를 기준으로 자막컷을 분리하는 사용자 명령에 해당하고, 플러스 표시는 번역문의 자막컷 분리를 위해 추가로 자막컷을 생성하는 사용자 명령에 해당한다.Figure 4 shows the separation of subtitle cuts of the translated text. The line break indicated by the enter symbol corresponds to a user command to separate subtitle cuts based on the corresponding position, and the plus sign corresponds to a user command to create additional subtitle cuts to separate subtitle cuts in the translated text.

도 5는 도 3의 자막컷 분리 액션의 결과로 번역문이 두 개의 자막컷으로 분리된 것을 보여주고 있다. 화살 표시는 분리된 번역문 자막컷을 하나로 합치는 사용자 명령에 해당한다.Figure 5 shows that the translated text is separated into two subtitle cuts as a result of the subtitle cut separation action of Figure 3. The arrow mark corresponds to a user command that combines separate translated subtitle cuts into one.

기계번역을 통해 자동 생성된 번역문은 오류가 포함될 경우가 있으므로 사용자에 의한 편집이 필요하며 경우에 따라 원문 자막컷과 번역문 자막컷을 1:N 혹은 N:1로 번역해야 할 때가 있다.Translations automatically generated through machine translation may contain errors, so editing by the user is required. In some cases, the original subtitles and translated subtitles may need to be translated 1:N or N:1.

도 5의 예시는 1:N 번역에 대응한다고 볼 수 있다. 원문이 자막컷 하나인데 번역문이 N개의 자막컷이 필요한 경우를 말하는데 도 4와 같은 구조에서는 N개의 자막컷이 필요한 번역문도 한 컷에 모두 기록한 것을 보이고 있다. 길 수도 있는 번역문을 한 칸의 자막 공간에 작성해도 되는 이유는 원문과 번역문이 단어 단위로 순서대로 나열되지 않는 경우가 많기 때문에 원 대사와 번역된 자막은 시작 시각과 끝 시각만 맞출 수밖에 없고 이런 이유로 위와 같이 한 개의 번역문을 N개로 분할할 경우 분할 위치 및 해당 위치의 자막 표출 시간 경계는 자동 설정할 수 있다. 따라서 사용자는 번역문이 길더라도 시간 경계를 설정하는 번거로움 없이 긴 번역문을 모두 한 칸의 자막컷에 작성하면 되고 실제 디스플레이될 때는 프로세서부(120)가 자동으로 적당한 분할 위치와 시점에 자막을 분리하여 표출하면 된다.The example in Figure 5 can be viewed as corresponding to 1:N translation. This refers to a case where the original text requires one subtitle cut, but the translated text requires N subtitle cuts. In the structure shown in Figure 4, the translated text requiring N subtitle cuts is also shown to be recorded in one cut. The reason why it is okay to write a translation, which may be long, in one subtitle space is because the original text and translation are often not listed in word-by-word order, so the original dialogue and translated subtitles have no choice but to match the start and end times, and for this reason, When dividing one translation into N parts as shown above, the division position and subtitle display time boundary at that position can be set automatically. Therefore, even if the translation text is long, the user can write all the long translation text in one subtitle cut without the hassle of setting a time boundary, and when it is actually displayed, the processor unit 120 automatically separates and displays the subtitles at the appropriate division position and time. Just do it.

1:N 번역을 표현하는 다른 방법으로는 N개의 번역문을 여러 자막컷에 사용자가 직접 할당할 수도 있다. 이는 첫째, 번역문을 위한 자막컷에서 마우스나 키보드 액션을 통해 새로운 자막컷 공간을 생성하고 둘째, 기존 자막컷의 일부 텍스트를 새로 생성된 자막컷 공간에 옮기고 셋째, 기존 자막컷의 끝 시각을 새 자막컷의 끝 시각으로 할당하고 기존 자막컷의 끝 시각과 새 자막컷의 시작 시각은 할당된 텍스트 길이 등을 고려하여 적당한 시각을 할당하는 과정을 통해 이뤄질 수 있다. 이 때 분할된 자막컷은 분할 전 자막컷의 텍스트 그룹에 속한다. 도 4의 줄바꿈 표시는 텍스트 상의 특정 위치를 기준으로 자막컷을 분리하는 사용자 명령을 설명하고 있다. 도 4의 플러스 표시는 해당 번역 자막컷 다음에 새로운 빈 자막컷을 추가하는 사용자 명령을 설명하고 있다. 도 5는 도 4에서 자막컷 분할 액션의 결과를 보여준다. 텍스트 그룹6의 자막컷이 두 개의 자막컷으로 분할되었다. 자막컷이 분할된 번역문은 다시 하나의 자막컷으로 합쳐질 수도 있다. 도 5의 화살 표시는 분할된 번역문 자막컷을 다시 하나로 합치는 사용자 명령을 설명하고 있다.Another way to express 1:N translation is for the user to directly assign N translation sentences to multiple subtitle cuts. First, a new subtitle cut space is created through a mouse or keyboard action in the subtitle cut for the translation; second, some text of the existing subtitle cut is moved to the newly created subtitle cut space; and third, the end time of the existing subtitle cut is changed to the new subtitle cut. The end time of the cut can be assigned, and the end time of the existing subtitle cut and the start time of the new subtitle cut can be achieved through the process of allocating an appropriate time considering the allocated text length, etc. At this time, the divided subtitle cut belongs to the text group of the subtitle cut before division. The line break display in FIG. 4 explains a user command for separating subtitle cuts based on a specific position in the text. The plus sign in FIG. 4 explains a user command for adding a new empty subtitle cut after the corresponding translated subtitle cut. Figure 5 shows the results of the subtitle cut split action in Figure 4. The subtitle cut of text group 6 was divided into two subtitle cuts. Translations with divided subtitle cuts can be combined into one subtitle cut. The arrows in FIG. 5 illustrate user commands for combining the divided translated subtitle cuts back into one.

도 6은 두 개의 원문 자막컷에 해당하는 번역문을 하나의 번역 자막컷에 할당하기 위해 원문 사이의 번역문 자막컷을 삭제하는 사용자 명령에 해당한다.Figure 6 corresponds to a user command for deleting a translated subtitle cut between the original text in order to assign the translated text corresponding to two original text subtitle cuts to one translated subtitle cut.

도 7은 도 6의 자막컷 삭제 사용자 명령의 결과로 번역문이 하나 삭제되었으며 바로 뒤의 번역문이 앞선 두 원문을 합친 번역 결과로 바뀐 것을 설명하고 있다. 플러스 표시는 두 원문 자막컷 사이에 삭제된 번역문 자막컷을 복구하는 사용자 명령에 해당한다.Figure 7 illustrates that one translation was deleted as a result of the user command to delete the subtitle cut in Figure 6, and the translation immediately following it was changed to a translation result combining the previous two original texts. The plus sign corresponds to a user command to restore a translated subtitle cut deleted between two original subtitle cuts.

도 8의 줄바꿈 표시와 플러스 표시는 도 4에서와 마찬가지로 번역문의 자막컷 분리를 위한 사용자 명령에 해당한다.The line break mark and plus mark in FIG. 8 correspond to user commands for separating subtitle cuts of the translated text, as in FIG. 4.

도 9는 도 8의 자막컷 분리 액션의 결과로 번역문이 두 개의 자막컷으로 분리된 것을 보여주고 있다. 화살 표시는 도 5와 마찬가지로 분리된 번역문 자막컷을 하나로 합치는 사용자 명령에 해당한다.Figure 9 shows that the translated text is separated into two subtitle cuts as a result of the subtitle cut separation action of Figure 8. As in Figure 5, the arrow indicates a user command to combine the separated translated subtitle cuts into one.

앞서 자막 화면들을 통해 예시한 바와 같이, i번째 텍스트 그룹은 제 1 언어이고, i+1번째 텍스트 그룹은 제 2 언어일 때, 프로세서부(120)는 i+1번째 텍스트 그룹의 삭제가 입력부(110)를 통해 요청되면, i번째 텍스트 그룹과 동일한 언어로 된 i+2번째 텍스트 그룹과 i번째 텍스트 그룹을 하나의 통합 그룹으로 형성하고, 제 2 언어로 된 i+3번째 텍스트 그룹에 통합 그룹의 번역문을 형성할 수 있다.As previously exemplified through subtitle screens, when the i-th text group is the first language and the i+1-th text group is the second language, the processor unit 120 performs deletion of the i+1-th text group through the input unit ( When requested through 110), the i+2th text group and the ith text group in the same language as the ith text group are formed into one integrated group, and the i+3th text group in the second language is formed into an integrated group. A translation of can be formed.

또한, i번째 텍스트 그룹은 제 1 언어이고, i+1번째 텍스트 그룹은 제 2 언어일 때, 프로세서부(120)는 i+1번째 텍스트 그룹의 삭제가 입력부(110)를 통해 요청되면, i번째 텍스트 그룹과 동일한 언어로 된 i+2번째 텍스트 그룹과 i번째 텍스트 그룹을 하나의 통합 그룹으로 형성하고, 제 2 언어로 된 i+3번째 텍스트 그룹에 통합 그룹의 시작 시각과 끝 시각을 할당할 수 있다.In addition, when the i-th text group is the first language and the i+1-th text group is the second language, when deletion of the i+1-th text group is requested through the input unit 110, the i Form the i+2th text group and the ith text group in the same language as the th text group into one integrated group, and assign the start and end times of the integrated group to the i+3th text group in the second language. can do.

도 7의 예시는 N:1 번역에 대응한다고 볼 수 있다. N:1 번역은 원문이 N개의 자막컷으로 이뤄진 원문의 번역문이 1개의 자막컷으로 표현해야 되는 경우를 말한다. 도 6의 마이너스 표시는 합쳐야 할 원문 사이의 번역문을 삭제하는 사용자 명령을 설명하고 있다. 도 6의 경우 자막컷6을 삭제하면 앞 뒤의 자막컷이 동일 언어이므로 하나의 텍스트 그룹으로 통합 관리된다. 도 6에서 자막컷 6을 삭제한 후 텍스트 그룹5와 텍스트 그룹7이었던 자막컷5와 자막컷7은 도 7에서 텍스트 그룹5로 통합된 것을 볼 수 있다. 또한 도 7의 텍스트 그룹6에 표현된 것처럼 기존 원문 텍스트 그룹이 통합됨으로 인해 번역 텍스트 그룹은 번역문도 통합 번역 결과를 담아야 하며 시작도 통합된 원문 텍스트 그룹의 시작 시각과 동기화되어야 한다. 텍스트 그룹의 시작 시각이 변경되었다는 의미는 해당 텍스트 그룹에 속한 첫 자막컷의 시작시각도 바뀐다는 의미이다.The example in Figure 7 can be viewed as corresponding to N:1 translation. N:1 translation refers to a case where the original text consists of N subtitle cuts, but the translation of the original text must be expressed with one subtitle cut. The minus sign in Figure 6 illustrates a user command for deleting translations between original texts to be merged. In the case of Figure 6, if subtitle cut 6 is deleted, the front and back subtitle cuts are integrated and managed as one text group because they are in the same language. After deleting subtitle cut 6 in FIG. 6, it can be seen that subtitle cut 5 and subtitle cut 7, which were text group 5 and text group 7, were integrated into text group 5 in FIG. 7. In addition, as the existing original text group is integrated, as shown in text group 6 in Figure 7, the translated text group must contain the integrated translation result of the translated text and its start must be synchronized with the start time of the integrated original text group. Changing the start time of a text group means that the start time of the first subtitle cut belonging to that text group also changes.

한편, 전술한 실시예에 따른 자막 생성 방법에 포함된 각각의 단계를 프로세서가 수행하도록 하기 위한 명령어를 포함하도록 컴퓨터 프로그램이 구현될 수 있다.Meanwhile, a computer program may be implemented to include instructions for causing a processor to perform each step included in the subtitle generation method according to the above-described embodiment.

또한, 전술한 실시예에 따른 자막 생성 방법에 포함된 각각의 단계를 프로세서가 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 프로그램은 컴퓨터 판독 가능한 기록매체에 기록될 수 있다.Additionally, a computer program including instructions for causing a processor to perform each step included in the subtitle generation method according to the above-described embodiment may be recorded on a computer-readable recording medium.

지금까지 설명한 바와 같이, 본 발명의 실시예에 따르면, 자막 번역 상황에서 발생하는 원문과 번역문 간 N:M(단, N과 M은 자연수)의 문장 분할 상황, 특히 N≠M의 문장 분할 상황을 효과적으로 구조화함으로써, 기계번역 활용성을 높이고 사용자 인터페이스(UI)를 더 직관적으로 보이게 표시할 수 있어서 자막 번역의 생산성을 높일 수 있다. 또한 실시예에 따라 생성된 번역문은 원문과 함께 별도의 프로세서 추가 없이 기계번역을 위한 훈련데이터로 활용할 수 있는 효과가 있다.As explained so far, according to an embodiment of the present invention, a sentence splitting situation of N:M (where N and M are natural numbers) between the original text and the translated text that occurs in a subtitle translation situation, especially a sentence splitting situation of N≠M By effectively structuring, the usability of machine translation can be increased and the user interface (UI) can be displayed to look more intuitive, thereby increasing the productivity of subtitle translation. Additionally, the translated text generated according to the embodiment has the effect of being able to be used as training data for machine translation along with the original text without adding a separate processor.

본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step in each flowchart attached to the present invention may be performed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, the instructions performed through the processor of the computer or other programmable data processing equipment perform the functions described in each step of the flowchart. It creates the means to carry out these tasks. These computer program instructions may also be stored on a computer-usable or computer-readable recording medium that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer program instructions are computer-usable or computer-readable. The instructions stored in the recording medium can also produce manufactured items containing instruction means that perform the functions described in each step of the flowchart. Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer and can be processed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each step may represent a module, segment, or portion of code containing one or more executable instructions for executing specified logical function(s). Additionally, it should be noted that in some alternative embodiments it is possible for the functions mentioned in the steps to occur out of order. For example, two steps shown in succession may in fact be performed substantially simultaneously, or the steps may sometimes be performed in reverse order depending on the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and those skilled in the art will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention shall be interpreted in accordance with the claims below, and all technical ideas within the scope equivalent thereto shall be construed as being included in the scope of rights of the present invention.

100: 자막 생성 장치
110: 입력부
120: 프로세서부
100: Subtitle generating device
110: input unit
120: Processor unit

Claims (10)

자막 생성 장치가 수행하는 자막 생성 방법으로서,
텍스트와 시작 시각 및 끝 시각을 포함하는 자막컷을 1개 이상 포함시켜 복수의 텍스트 그룹을 형성하되, 각 텍스트 그룹 내 첫 번째 자막컷의 시작 시각은 해당 텍스트 그룹의 시작 시각과 동일하고, 해당 텍스트 그룹 내 마지막 자막컷의 끝 시각은 해당 텍스트 그룹의 끝 시각과 동일하게 형성하는 단계와,
상기 복수의 텍스트 그룹 중 제 1 언어의 텍스트 그룹과 제 2 언어의 텍스트 그룹을 자막 생성 화면 내에 교번하여 배치하되, 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성하는 단계와,
상기 복수의 텍스트 그룹 중 i번째 텍스트 그룹의 시작과 끝 시각 정보를 i+1번째 텍스트 그룹과 공유시키는 단계를 포함하는
자막 생성 방법.
As a subtitle generating method performed by a subtitle generating device,
Form multiple text groups by including one or more subtitle cuts including text and start time and end time, but the start time of the first subtitle cut within each text group is the same as the start time of the text group, and the text The end time of the last subtitle cut in the group is formed to be the same as the end time of the corresponding text group,
Alternatingly arranging text groups in a first language and text groups in a second language among the plurality of text groups in a subtitle creation screen so that text groups in one language can be arranged continuously on a plurality of lines;
Comprising the step of sharing the start and end time information of the ith text group among the plurality of text groups with the i+1th text group.
How to create subtitles.
제 1 항에 있어서,
상기 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성하는 단계는,
상기 제 1 언어는 원문이고, 상기 제 2 언어는 상기 원문에 대응하는 번역문이며,
상기 제 2 언어의 텍스트 그룹에 포함된 하나의 자막컷을 복수로 자동 분할하여 복수의 분할 자막컷을 형성하되, 상기 복수의 분할 자막컷 각각을 상기 복수의 라인 중 서로 다른 라인에 배치하고,
상기 복수의 분할 자막컷 중 첫 번째 분할 자막컷의 시작 시각에 분할 전 자막컷의 시작 시각을 할당하며, 상기 복수의 분할 자막컷 중 마지막 분할 자막컷의 끝 시각에 분할 전 자막컷의 끝 시각을 할당하는
자막 생성 방법.
According to claim 1,
The step of forming a text group in one language so that it can be continuously arranged on a plurality of lines,
The first language is the original text, and the second language is a translation corresponding to the original text,
Automatically dividing one subtitle cut included in the text group of the second language into a plurality of divided subtitle cuts to form a plurality of divided subtitle cuts, each of the plurality of divided subtitle cuts being placed on a different line among the plurality of lines,
The start time of the subtitle cut before division is assigned to the start time of the first subtitle cut among the plurality of divided subtitle cuts, and the end time of the subtitle cut before division is assigned to the end time of the last divided subtitle cut among the plurality of divided subtitle cuts. assigning
How to create subtitles.
제 1 항에 있어서,
상기 i번째 텍스트 그룹은 상기 제 1 언어이고, 상기 i+1번째 텍스트 그룹은 상기 제 2 언어이며,
상기 i+1번째 텍스트 그룹의 삭제가 요청되면,
상기 i번째 텍스트 그룹과 동일한 언어로 된 i+2번째 텍스트 그룹과 상기 i번째 텍스트 그룹을 하나의 통합 그룹으로 형성하고, 상기 제 2 언어로 된 i+3번째 텍스트 그룹에 상기 통합 그룹의 번역문을 형성하는
자막 생성 방법.
According to claim 1,
The i-th text group is the first language, the i+1-th text group is the second language,
When deletion of the i+1th text group is requested,
Forming the i+2th text group and the ith text group in the same language as the ith text group into one integrated group, and providing a translation of the integrated group to the i+3th text group in the second language. forming
How to create subtitles.
제 1 항에 있어서,
상기 i번째 텍스트 그룹은 상기 제 1 언어이고, 상기 i+1번째 텍스트 그룹은 상기 제 2 언어이며,
상기 i+1번째 텍스트 그룹의 삭제가 요청되면,
상기 i번째 텍스트 그룹과 동일한 언어로 된 i+2번째 텍스트 그룹과 상기 i번째 텍스트 그룹을 하나의 통합 그룹으로 형성하고, 상기 제 2 언어로 된 i+3번째 텍스트 그룹에 상기 통합 그룹의 시작 시각과 끝 시각을 할당하는
자막 생성 방법.
According to claim 1,
The i-th text group is the first language, the i+1-th text group is the second language,
When deletion of the i+1th text group is requested,
The i+2th text group in the same language as the ith text group and the ith text group are formed into one integrated group, and the i+3th text group in the second language is added to the start time of the integrated group. Assigning the and end times
How to create subtitles.
자막 생성과 관련된 명령을 입력 받는 입력부와,
상기 입력부를 통한 명령에 따른 처리 또는 자막 자동 생성과 관련된 처리를 수행하는 프로세서부를 포함하고,
상기 프로세서부는,
텍스트와 시작 시각 및 끝 시각을 포함하는 자막컷을 1개 이상 포함시켜 복수의 텍스트 그룹을 형성하되, 각 텍스트 그룹 내 첫 번째 자막컷의 시작 시각은 해당 텍스트 그룹의 시작 시각과 동일하고, 해당 텍스트 그룹 내 마지막 자막컷의 끝 시각은 해당 텍스트 그룹의 끝 시각과 동일하게 형성하며,
상기 복수의 텍스트 그룹 중 제 1 언어의 텍스트 그룹과 제 2 언어의 텍스트 그룹을 자막 생성 화면 내에 교번하여 배치하되, 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성하고,
상기 복수의 텍스트 그룹 중 i번째 텍스트 그룹의 시작과 끝 시각 정보를 i+1번째 텍스트 그룹과 공유시키는
자막 생성 장치.
An input unit that receives commands related to subtitle creation,
A processor unit that performs processing according to commands through the input unit or processing related to automatic generation of subtitles,
The processor unit,
Form multiple text groups by including one or more subtitle cuts including text and start time and end time, but the start time of the first subtitle cut within each text group is the same as the start time of the text group, and the text The ending time of the last subtitle cut in the group is set to be the same as the ending time of the corresponding text group.
Among the plurality of text groups, text groups in the first language and text groups in the second language are alternately arranged in the subtitle creation screen, and the text groups in one language are formed to be continuously arranged on a plurality of lines,
Sharing the start and end time information of the ith text group among the plurality of text groups with the i+1th text group
Subtitle generating device.
제 5 항에 있어서,
상기 제 1 언어는 원문이고, 상기 제 2 언어는 상기 원문에 대응하는 번역문이며,
상기 프로세서부는,
상기 한 언어의 텍스트 그룹이 복수의 라인에 연속 배치될 수 있게 형성할 때에,
상기 제 2 언어의 텍스트 그룹에 포함된 하나의 자막컷을 복수로 자동 분할하여 복수의 분할 자막컷을 형성하되, 상기 복수의 분할 자막컷 각각을 상기 복수의 라인 중 서로 다른 라인에 배치하고,
상기 복수의 분할 자막컷 중 첫 번째 분할 자막컷의 시작 시각에 분할 전 자막컷의 시작 시각을 할당하며, 상기 복수의 분할 자막컷 중 마지막 분할 자막컷의 끝 시각에 분할 전 자막컷의 끝 시각을 할당하는
자막 생성 장치.
According to claim 5,
The first language is the original text, and the second language is a translation corresponding to the original text,
The processor unit,
When forming a group of texts in one language so that they can be placed consecutively on multiple lines,
Automatically dividing one subtitle cut included in the text group of the second language into a plurality of divided subtitle cuts to form a plurality of divided subtitle cuts, each of the plurality of divided subtitle cuts being placed on a different line among the plurality of lines,
The start time of the subtitle cut before division is assigned to the start time of the first subtitle cut among the plurality of divided subtitle cuts, and the end time of the subtitle cut before division is assigned to the end time of the last divided subtitle cut among the plurality of divided subtitle cuts. assigning
Subtitle generating device.
제 5 항에 있어서,
상기 i번째 텍스트 그룹은 상기 제 1 언어이고, 상기 i+1번째 텍스트 그룹은 상기 제 2 언어이며,
상기 프로세서부는,
상기 i+1번째 텍스트 그룹의 삭제가 상기 입력부를 통해 요청되면,
상기 i번째 텍스트 그룹과 동일한 언어로 된 i+2번째 텍스트 그룹과 상기 i번째 텍스트 그룹을 하나의 통합 그룹으로 형성하고, 상기 제 2 언어로 된 i+3번째 텍스트 그룹에 상기 통합 그룹의 번역문을 형성하는
자막 생성 장치.
According to claim 5,
The i-th text group is the first language, the i+1-th text group is the second language,
The processor unit,
When deletion of the i+1th text group is requested through the input unit,
Forming the i+2th text group and the ith text group in the same language as the ith text group into one integrated group, and providing a translation of the integrated group to the i+3th text group in the second language. forming
Subtitle generating device.
제 5 항에 있어서,
상기 i번째 텍스트 그룹은 상기 제 1 언어이고, 상기 i+1번째 텍스트 그룹은 상기 제 2 언어이며,
상기 프로세서부는,
상기 i+1번째 텍스트 그룹의 삭제가 상기 입력부를 통해 요청되면,
상기 i번째 텍스트 그룹과 동일한 언어로 된 i+2번째 텍스트 그룹과 상기 i번째 텍스트 그룹을 하나의 통합 그룹으로 형성하고, 상기 제 2 언어로 된 i+3번째 텍스트 그룹에 상기 통합 그룹의 시작 시각과 끝 시각을 할당하는
자막 생성 장치.
According to claim 5,
The i-th text group is the first language, the i+1-th text group is the second language,
The processor unit,
When deletion of the i+1th text group is requested through the input unit,
The i+2th text group in the same language as the ith text group and the ith text group are formed into one integrated group, and the i+3th text group in the second language is added to the start time of the integrated group. Assigning the and end times
Subtitle generating device.
컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은,
제 1 항 내지 제 4 항 중 어느 한 항에 따른 자막 생성 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램.
A computer program stored on a computer-readable recording medium,
The computer program is,
A computer program comprising instructions for causing a processor to perform the subtitle generation method according to any one of claims 1 to 4.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은,
제 1 항 내지 제 4 항 중 어느 한 항에 따른 자막 생성 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
A computer-readable recording medium storing a computer program,
The computer program is,
A computer-readable recording medium including instructions for causing a processor to perform the subtitle generation method according to any one of claims 1 to 4.
KR1020220081292A 2022-07-01 2022-07-01 method and apparatus for generating subtitle KR102681196B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220081292A KR102681196B1 (en) 2022-07-01 2022-07-01 method and apparatus for generating subtitle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220081292A KR102681196B1 (en) 2022-07-01 2022-07-01 method and apparatus for generating subtitle

Publications (2)

Publication Number Publication Date
KR20240003561A true KR20240003561A (en) 2024-01-09
KR102681196B1 KR102681196B1 (en) 2024-07-03

Family

ID=89538527

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220081292A KR102681196B1 (en) 2022-07-01 2022-07-01 method and apparatus for generating subtitle

Country Status (1)

Country Link
KR (1) KR102681196B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140198252A1 (en) * 2013-01-15 2014-07-17 Viki, Inc. System and method for captioning media
KR20190051498A (en) * 2017-11-07 2019-05-15 서울대학교산학협력단 Method and system for controlling subtitle sync
KR102351400B1 (en) * 2021-03-26 2022-01-13 이광선 service method of automatically generating subtitles of video contents
KR102351408B1 (en) 2021-03-26 2022-01-14 이광선 service method of automatically generating translated subtitles of video contents

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140198252A1 (en) * 2013-01-15 2014-07-17 Viki, Inc. System and method for captioning media
KR20190051498A (en) * 2017-11-07 2019-05-15 서울대학교산학협력단 Method and system for controlling subtitle sync
KR102351400B1 (en) * 2021-03-26 2022-01-13 이광선 service method of automatically generating subtitles of video contents
KR102351408B1 (en) 2021-03-26 2022-01-14 이광선 service method of automatically generating translated subtitles of video contents

Also Published As

Publication number Publication date
KR102681196B1 (en) 2024-07-03

Similar Documents

Publication Publication Date Title
DE69916225T2 (en) Method and system for maintaining freeform ink annotations on changing views
US8140969B2 (en) Displaying synchronously documents to a user
US20030229607A1 (en) Authoring tools, including content-driven treetables, for fluid text
DE202013012795U1 (en) Devices for creating multimedia presentation prototypes
CN108932097B (en) Take down notes generation method, electronic equipment and computer storage medium
EP3213225A1 (en) Authoring tools for synthesizing hybrid slide-canvas presentations
US9606968B2 (en) Footnote formatting and layout of multi-section documents
CN113811843B (en) Media management system
KR102681196B1 (en) method and apparatus for generating subtitle
JPH0510704B2 (en)
TWM543395U (en) Translation assistance system
CN107491311B (en) Method and system for generating page file and computer equipment
US20210042464A1 (en) Playable text editor and editing method therefor
JPH06231224A (en) Device and method for generating operation guidance
JP6394516B2 (en) Development support program, recording medium, development support method, and development support apparatus
JP6565012B2 (en) Translation support system
JPH0384661A (en) Document producing device
JP5458065B2 (en) Device and program for supporting structural analysis of module
JPS6315322A (en) Acquiring and reclaiming system for command history
KR102441624B1 (en) the method of corrrecting syllable by component unit
JP2010157155A (en) Program creation support method, program and program creation support device
JPS63109578A (en) Processing system for logic diagram outline display
JP3964910B2 (en) Machine translation device
US10394943B2 (en) Numerical controller
JP2003271047A (en) Training system used for language learning on computer screen

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right