KR20090090053A - Method of processing subtitles data for edited video product using synchronizing video data and subtitles data - Google Patents

Method of processing subtitles data for edited video product using synchronizing video data and subtitles data Download PDF

Info

Publication number
KR20090090053A
KR20090090053A KR1020080015295A KR20080015295A KR20090090053A KR 20090090053 A KR20090090053 A KR 20090090053A KR 1020080015295 A KR1020080015295 A KR 1020080015295A KR 20080015295 A KR20080015295 A KR 20080015295A KR 20090090053 A KR20090090053 A KR 20090090053A
Authority
KR
South Korea
Prior art keywords
subtitle
time code
block
image
timecode
Prior art date
Application number
KR1020080015295A
Other languages
Korean (ko)
Other versions
KR100957244B1 (en
Inventor
이현무
Original Assignee
(주)아이유노글로벌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이유노글로벌 filed Critical (주)아이유노글로벌
Priority to KR1020080015295A priority Critical patent/KR100957244B1/en
Publication of KR20090090053A publication Critical patent/KR20090090053A/en
Application granted granted Critical
Publication of KR100957244B1 publication Critical patent/KR100957244B1/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • G11B27/3036Time code signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

A subtitle management method of edited images using the synchronization of subtitle data is provided to reduce caption session time by automatically generating the corresponding subtitle and edit the original image. A subtitle input unit is used based on a time code. A first caption data having a first caption time code is prepared corresponding to a first image having a first image time code(S110). A second image having the second image the time code in which the first image the time code is the re-ordering is generated(S120). The first caption time code of first caption data is rearranged by using the change value of the second image the time code. The second caption data having the second caption time code corresponding to the second image is generated(S130).

Description

자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법{METHOD OF PROCESSING SUBTITLES DATA FOR EDITED VIDEO PRODUCT USING SYNCHRONIZING VIDEO DATA AND SUBTITLES DATA}Subtitle processing method of edited video using synchronization of subtitle data {METHOD OF PROCESSING SUBTITLES DATA FOR EDITED VIDEO PRODUCT USING SYNCHRONIZING VIDEO DATA AND SUBTITLES DATA}

본 발명은 영상물의 자막 처리 방법에 관한 것으로, 보다 상세하게는 편집된 영상물의 자막을 자막 데이터의 동기화를 이용하여 빠른 시간 내에 처리할 수 있는 방법에 관한 것이다.The present invention relates to a caption processing method of an image, and more particularly, to a method capable of processing a caption of an edited image in a short time using synchronization of caption data.

근래에 드라마, 영화, 다큐멘터리와 같은 외국 방송의 비중이 크게 증가함에 따라, 번역 작업의 효율성을 높이기 위한 다양한 번역 자막 처리 기술이 발전해왔다.Recently, as the proportion of foreign broadcasting such as dramas, movies, and documentaries has increased greatly, various translation subtitle processing technologies have been developed to improve the efficiency of translation work.

종래에는 번역 작가가 방송 또는 영화 제작자로부터 VHS(video home system)와 같은 아날로그 형태의 테이프를 제공받은 후, 이를 반복적으로 재생하면서 자막 텍스트를 생성하는 방법을 이용하였다. 그러나 이와 같은 방법은 작업 시간이 과도하게 소요되며, 영상물의 시청과 자막 텍스트 파일 생성을 별도의 장치에서 수행함으로써 작업 효율이 크게 떨어진다는 문제점이 있었다.Conventionally, after a translator receives an analog tape such as a video home system (VHS) from a broadcaster or a movie producer, the translator repeatedly plays it and generates subtitle text. However, such a method requires excessive work time, and there is a problem in that work efficiency is greatly reduced by performing viewing of a video material and generating a subtitle text file in a separate device.

또한, 번역 작가는 자막 텍스트 파일만 제공하기 때문에, 영상물을 제공하는 회사는 별도의 인력으로 영상물의 타임코드를 생성하여 상기 영상물의 타임코드 상에 자막 텍스트를 다시 합성해야 했다. 이와 같은 종래의 번역 작업의 문제점을 해결하기 위하여, 영상물을 디지털 형태의 파일로 변환하여 번역 작업자가 컴퓨터 상에서 타임코드와 자막 텍스트 정보를 동시에 생성할 수 있는 기술들이 개발되었다.In addition, since the translator provides only the subtitle text file, the company providing the image had to generate a time code of the image with a separate manpower and re-synthesize the subtitle text on the time code of the image. In order to solve the problems of the conventional translation work, a technology has been developed in which a translation worker can simultaneously generate timecode and subtitle text information on a computer by converting an image into a digital file.

그 일 예로, 본 출원인이 출원한 대한민국 특허 제650410호(06.11.21 등록)에는 영상물의 번역 자막을 처리하는 방법이 개시되어 있다. 상기 특허 제650410호에 의하면, 비선형 편집 방식을 이용하여 번역 작업자가 컴퓨터로 영상물을 시청하면서 타임코드를 생성하고 직접 자막을 입력함으로써 작업 시간이 크게 단축될 수 있다. 또한, 자막 데이터를 그림 파일 형태로 생성하여 해당 타임코드의 위치에 자동으로 배열되도록 함으로써 작업 효율이 향상되는 장점이 있다.For example, Korean Patent No. 650410 filed by the present applicant (registered on November 21, 2011) discloses a method of processing translation subtitles of an image. According to the Patent No. 650410, a work time can be greatly shortened by a translator using a nonlinear editing method while generating a time code and directly inputting a subtitle while watching a video on a computer. In addition, the work efficiency is improved by generating caption data in the form of a picture file so that the caption data is automatically arranged at the position of the corresponding timecode.

그러나 최초로 자막 파일을 생성하여 방송 한 이후에 이를 편집하여 다른 버전으로 제작하는 경우, 상기 특허 제650410호의 번역 자막 처리 방법으로는 상기 편집된 영상물에 맞게 자막 텍스트 정보를 재구성하고, 타임코드를 다시 생성해야하므로 여전히 자막 작업의 비효율성 문제가 발생한다.However, if the first subtitle file is created and broadcasted, then edited and produced in a different version, the translated subtitle processing method of Patent No. 650410 reconstructs the subtitle text information according to the edited video material and regenerates the time code. This still causes inefficiency issues with subtitles.

특히 최근에는 영화로 상영된 영상물의 지나친 노출이나 욕설 장면 등을 편집하여 방송용 버전을 제작하거나, 디지털 멀티미디어 방송(DMB), 휴대기기용 디지털 비디오 방송(DVB-H) 등과 같은 이동형 미디어 플랫폼의 등장과 함께 장시간의 영상물을 다수의 단시간 영상물로 편집하여 방송하는 등 동일한 소스의 영상물을 다양한 버전으로 편집하여 가공하는 경우가 많아지고 있다. 따라서, 영상물의 편집에 따른 자막의 자동 동기화 방법의 개발이 절실하다.In particular, the recent version of the mobile media platform such as digital multimedia broadcasting (DMB), digital video broadcasting for mobile devices (DVB-H), etc. At the same time, there are a number of cases in which video images of the same source are edited and processed into various versions, such as editing and broadcasting a long time video material into a plurality of short time video materials. Therefore, there is an urgent need to develop a method for automatically synchronizing subtitles according to editing of an image.

따라서, 본 발명의 목적은 자막 데이터가 존재하는 영상물을 편집할 경우에 상기 자막 데이터를 편집된 영상물에 동기화하는 것이 가능한 자막 처리 방법을 제공하는데 있다.Accordingly, it is an object of the present invention to provide a caption processing method capable of synchronizing the caption data with the edited video when the caption data exists.

상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법은, 먼저 타임코드를 기반으로 한 자막 입력 수단을 이용하여, 편집 전의 제1영상 타임코드를 갖는 제1영상에 대응하도록, 제1자막 타임코드를 갖는 제1자막 데이터를 준비한다. 다음에, 상기 제1영상을 블록 단위로 선택하여 상기 선택된 블록들을 이동 또는 삭제 편집함으로써, 상기 제1영상 타임코드가 재배열된 제2영상 타임코드를 갖는 제2영상을 생성한다. 마지막으로, 상기 제1영상 중에서 상기 선택된 블록의 제1영상 타임코드에 대한, 상기 제2영상에서 상기 블록이 갖는 제2영상 타임코드의 변화값을 이용하여, 상기 제1자막 데이터의 제1자막 타임코드를 재배열함으로써, 상기 제2영상에 대응하는 제2자막 타임코드를 갖는 제2자막 데이터를 생성한다.In accordance with an aspect of the present invention, a method for processing a caption of an edited video image using synchronization of caption data according to an aspect of the present invention, first, by using a caption input means based on a timecode, First subtitle data having a first subtitle time code is prepared to correspond to the first image having the same. Next, the first image is selected in units of blocks, and the selected blocks are moved or deleted and edited to generate a second image having a second image time code in which the first image time code is rearranged. Lastly, a first subtitle of the first subtitle data is performed by using a change value of a second video time code of the block in the second video with respect to a first video time code of the selected block among the first pictures. By rearranging the time codes, second subtitle data having a second subtitle time code corresponding to the second image is generated.

본 발명의 일 실시예에 따르면, 상기 제1자막 데이터를 준비하는 단계는, 화상 정보 및 음성 정보를 갖는 디지털 형태의 제1영상을 생성하는 단계와, 상기 제1영상을 로딩하여 화상 및 음성 정보를 타임 코드와 출력하기 위한 제1윈도우, 상기 음성 정보의 파형을 출력하기 위한 제2윈도우, 타임코드 기반으로 한 다수의 텍스 트 입력 셀들을 갖는 자막 텍스트를 입력하기 위한 제3윈도우를 표출하는 단계와, 상기 화상 정보, 음성 정보 또는 파형을 기초로, 자막이 입력될 특정 구간들에 대한 제1자막 타임코드들을 설정하고 상기 구간들에 해당하는 자막 텍스트를 입력하는 단계와, 상기 제1자막 타임코드를 갖는 자막 텍스트들을 그림 파일 형태의 제1자막 데이터로 변환하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the preparing of the first subtitle data may include generating a first image in a digital form having image information and audio information, and loading the first image to obtain image and audio information. Displaying a first window for outputting a time code and a second window for outputting a waveform of the voice information, and a third window for inputting subtitle text having a plurality of text input cells based on the time code. Setting first subtitle time codes for specific sections to which a subtitle is to be input, and inputting subtitle text corresponding to the sections, based on the image information, audio information, or waveform; Converting the caption texts having the code into first caption data in the form of a picture file.

본 발명의 다른 실시예에 따르면, 상기 제1자막 데이터로 변환하기 이전에, 스프레드 시트 방식을 이용하여 상기 텍스트 입력 셀들을 등장인물, 등장배경을 포함하는 기 설정된 기준에 의해 분류하는 단계와, 폰트(font), 색(color), 크기(size)를 포함하는 자막 텍스트 스타일들을 설정하는 단계와, 상기 분류된 텍스트 입력 셀들에 대하여 상기 설정된 자막 텍스트 스타일을 적용하는 단계를 더 포함할 수 있다.According to another embodiment of the present invention, prior to converting into the first subtitle data, classifying the text input cells by a preset criterion including a character and an appearance background using a spreadsheet method, and a font; The method may further include setting caption text styles including font, color, and size, and applying the set caption text style to the classified text input cells.

본 발명의 또 다른 실시예에 따르면, 상기 제2자막 데이터를 생성하는 단계에서, 상기 제1자막 데이터에서 선택된 블록의 제1자막 타임코드가 상기 제1영상에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅰ) 및 (ⅱ)에 의해 자동으로 산출될 수 있다.According to another embodiment of the present invention, in the generating the second subtitle data, the first subtitle timecode of the block selected from the first subtitle data is determined by the first image timecode of the block in the first image. When included in the range, the second subtitle time code for the block in the second image may be automatically calculated by the following equations (i) and (ii).

인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ..........(ⅰ)In timecode = first subtitle of the block before editing In timecode-Δx .......... (ⅰ)

아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅱ)Out timecode = first subtitle of the block before editing Out timecode-Δx ....... (ii)

(여기서, Δx = 편집 전 블록의 제1영상 인 타임코드 - 편집 후 블록의 제2영상 인 타임코드)(Where Δx = time code of the first image of the pre-edit block-time code of the second image of the post-edit block)

또한, 상기 제2자막 데이터를 생성하는 단계에서, 상기 제1자막 데이터에서 선택된 블록의 제1자막 타임코드의 후반부가 상기 제1영상에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅲ) 및 (ⅳ)에 의해 자동으로 산출될 수 있다.In the generating of the second subtitle data, when the second half of the first subtitle time code of the block selected from the first subtitle data is included within the range of the first image time code of the block in the first image. The second subtitle timecode of the block in the second image may be automatically calculated by the following equations (i) and (i).

인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 ................(ⅲ)In time code = Second image in time block after editing In time code ... (ⅲ)

아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅳ)Out timecode = first subtitle of block before editing Out timecode-Δx ....... (ⅳ)

또한, 상기 제2자막 데이터를 생성하는 단계에서, 상기 제1자막 데이터에서 선택된 블록의 제1자막 타임코드의 전반부가 상기 제1영상에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅴ) 및 (ⅵ)에 의해 자동으로 산출될 수 있다.In the generating of the second subtitle data, when the first half of the first subtitle time code of the block selected from the first subtitle data is included within the range of the first image time code of the block in the first image. The second subtitle timecode of the block in the second image may be automatically calculated by the following equations (i) and (i).

인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ...........(ⅴ)In timecode = first subtitle of the block before editing In timecode-Δx ........... (ⅴ)

아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅵ)Out time code = Second picture of the block after editing Out time code ............. (ⅵ)

또한, 상기 제2자막 데이터를 생성하는 단계에서, 상기 제1자막 데이터에서 선택된 블록의 제1자막 타임코드의 중앙부가 상기 제1영상에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅶ) 및 (ⅷ)에 의해 자동으로 산출될 수 있다.In the generating of the second subtitle data, when the central portion of the first subtitle time code of the block selected from the first subtitle data is included within the range of the first image time code of the block in the first image. The second subtitle timecode of the block in the second image may be automatically calculated by the following equations (i) and (i).

인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 .................(ⅶ)In time code = Second image in time code of the block after editing ........ (ⅶ)

아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅷ)Out time code = Second picture of the block after editing Out time code ............. (ⅷ)

한편, 본 발명의 또 다른 실시예에 따르면, 상기 제2자막 데이터를 상기 제2영상물과 합성하는 단계를 더 포함할 수 있다.Meanwhile, according to another exemplary embodiment, the method may further include synthesizing the second subtitle data with the second image material.

본 발명에 의하면, 자막 작업을 완료하여 자막 파일을 생성한 영상물을 편집하는 경우에 상기 편집된 영상물과 기존 자막 파일의 동기화를 이용하여 상기 편집된 영상물의 자막을 생성할 수 있다.According to the present invention, when editing a video material in which a caption file is generated by completing a caption work, the caption of the edited video can be generated by synchronizing the edited video with the existing caption file.

따라서, 영상물을 임의로 편집하더라도 편집된 영상물의 자막이 자동으로 생성되기 때문에 자막의 재작업이 필요 없으므로 방송 준비 시간, 소요 인력 및 비용을 크게 단축시킬 수 있다.Therefore, even if the video is arbitrarily edited, since the subtitles of the edited video are automatically generated, reworking of the subtitles is not necessary, thereby greatly reducing the preparation time, manpower, and cost of broadcasting.

이하, 본 발명에 따른 바람직한 실시예들에 따른 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법에 대하여 첨부된 도면을 참조하여 상세하게 설명하지만, 본 발명이 하기의 실시예들에 제한되는 것은 아니며, 해당 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명을 다양한 다른 형태로 구현할 수 있을 것이다. 첨부된 도면에 있어서, 각 구성 요소들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하여 도시한 것이다. 본 발명에 있어서, 하나의 구성 요소가 다른 구성 요소 "상에", "상부에" 또는 "하부"에 형성되는 것으로 언급되는 경우에는 상기 하나의 구성 요소는 상기 다른 구성 요소 위에 형성되거나 또는 아래에 위치하는 것을 의미하거나, 또 다른 구성 요소들이 상기 다른 구성 요소 상에 추가적으로 형성될 수 있다. 또한, 각 구성 요소들이 "제1", "제2" 및/또는 "제3"으로 언급되는 것은 한정하기 위한 것이 아니라 단지 각 구성 요소들을 구분하기 위한 것이다. 따라서, "제1", "제2" 및/또는 "제3"은 각 구성 요소에 대하여 각기 선택적으로 또는 교환적으로 사용될 수 있다.Hereinafter, a subtitle processing method of an edited video image using synchronization of subtitle data according to preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is limited to the following embodiments. No, one of ordinary skill in the art may realize the present invention in various other forms without departing from the technical spirit of the present invention. In the accompanying drawings, the dimensions of each component is shown in an enlarged scale than actual for clarity of the invention. In the present invention, when one component is referred to as being formed on, above, or under another component, the one component is formed on or below the other component. It is meant to be positioned, or further components may be additionally formed on the other components. In addition, it is to be noted that the respective components are referred to as "first", "second", and / or "third", not merely to limit each component. Thus, "first", "second" and / or "third" can be used selectively or interchangeably for each component.

도 1은 본 발명의 바람직한 실시예에 따른 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법을 설명하기 위한 흐름도이며, 도 3은 도 1의 제1자막 데이터를 생성하기 위한 자막 입력 수단을 설명하기 위한 컴퓨터 화면이다.1 is a flowchart illustrating a caption processing method of an edited video image using synchronization of caption data according to an exemplary embodiment of the present invention, and FIG. 3 illustrates caption input means for generating first caption data of FIG. 1. It is a computer screen.

도 1 및 도 3을 참조하면, 본 발명의 일 실시예에 따른 편집된 영상물의 자막 처리 방법은 먼저 편집 전의 제1영상 타임코드(112)를 갖는 제1영상에 대응하도록, 제1자막 타임코드(132)를 갖는 제1자막 데이터를 준비한다(S110).1 and 3, a caption processing method of an edited video image according to an embodiment of the present invention may first correspond to a first video having a first video time code 112 before editing, and thus, a first caption time code. The first subtitle data having 132 is prepared (S110).

구체적으로, 본 발명의 제1영상 및 상기 제1영상에 대응하는 제1자막 데이터는 각각의 타임코드, 즉 제1영상 타임코드(112) 및 제1자막 타임코드(132)를 갖는다. 여기서, 타임코드(SMPTE Time Code; Society of Motion Picture and Television Engineers Time Code)란 숫자의 연속적인 배열로서, 오디오나 비디오, 필름을 결합시켜 레코딩 되는 정교한 테입의 카운터이다. 이러한 타임코드는 오디오(audio), 비디오(video), 필름(film)을 동기화(synchronizing)시키기 위한 하나의 표준방식으로 사용되고 있다.Specifically, the first image and the first subtitle data corresponding to the first image of the present invention have respective time codes, that is, the first image time code 112 and the first subtitle time code 132. Here, the SMPTE Time Code (Society of Motion Picture and Television Engineers Time Code) is a continuous array of numbers that is a sophisticated tape counter that is recorded by combining audio, video, and film. This timecode is used as a standard for synchronizing audio, video, and film.

타임코드의 넘버들은 장비가 돌아가는 속도(running speed reference)와 위치(position reference)를 제어하게 된다. 다시 말해서, 얼마나 빨리 숫자가 경과했는가는 속도를 결정짓고, 어떤 숫자가 진행하는지는 위치를 결정한다. 타임코드의 정보를 이용하여 테이프 레코더, 컴퓨터, 디지털 레코더 등과 같은 장비에서 화상 및 음성 데이터의 이동과 서로 다른 장비간의 작동들의 동기화 작업을 수행할 수 있다.The number of timecodes controls the running speed reference and position reference. In other words, how fast a number elapses determines the speed, and what number advances determines the position. The information of the timecode can be used to perform movement of video and audio data and to synchronize operations between different equipment in equipment such as tape recorders, computers, digital recorders, and the like.

상기 제1자막 데이터는 PNG, BMP, TGA와 같은 그림 파일 형태가 바람직하며, 영상과 마찬가지로 상기 제1자막 타임코드(132)가 생성될 수 있다. 예를 들면, 상기 제1자막 데이터는 타임코드를 기반으로 한 소정의 자막 입력 수단을 이용하여 생성할 수 있다. 이를 도 2 및 도 3을 참조하여 보다 상세하게 설명하기로 하면 다음과 같다. 먼저, 화상 정보 및 음성 정보를 갖는 디지털 형태의 제1영상을 생성한다(S112). 상기 제1영상은 소정의 변환 수단(도시되지 않음)을 이용하여 아날로그 형태의 원 영상을 변환한 것이거나 또는 최초에 디지털 형태로 레코딩된 것일 수 있다.The first subtitle data may be in the form of a picture file such as PNG, BMP, or TGA, and the first subtitle timecode 132 may be generated similarly to an image. For example, the first subtitle data may be generated using a predetermined subtitle input means based on time code. This will be described in more detail with reference to FIGS. 2 and 3 as follows. First, a digital first image having image information and audio information is generated (S112). The first image may be an original image converted into an analog form by using a predetermined conversion means (not shown), or may be initially recorded in a digital form.

다음에, 소정의 자막 입력 소프트웨어(100)를 이용하여 상기 제1영상을 로딩한다(S114). 상기 자막 입력 소프트웨어(100)는 상기 디지털 파일 형태의 제1영상을 실행시켜, 제1 내지 제3윈도우(110, 120, 130)를 표출시킨다. 상기 제1윈도우(110)는 화상 및 음성 정보를 제1영상 타임코드(112)와 함께 출력하고, 상기 제2윈도우(120)는 상기 음성 정보의 파형을 출력하며, 상기 제3윈도우(130)는 제1자막 타임코드(132)를 기반으로 한 다수의 텍스트 입력 셀들(C)을 갖는 자막 텍스트를 입력하기 위한 창이다. 여기서, 상기 텍스트 입력 셀들(C)은 엑셀 프로그램과 같은 스트레드 시트(spread sheet) 방식으로 구현되어 각각의 셀들(C)을 타임코드(132), 스타일(134), 인물명(136), 자막(138) 등으로 손쉽게 분류하거나 또는 다른 방법으로 가공할 수 있도록 되어 있는 것이 바람직하다.Next, the first image is loaded using a predetermined subtitle input software 100 (S114). The caption input software 100 executes the first image in the form of the digital file to display the first to third windows 110, 120, and 130. The first window 110 outputs the image and audio information together with the first image time code 112, the second window 120 outputs the waveform of the audio information, and the third window 130. Is a window for inputting caption text having a plurality of text input cells C based on the first subtitle timecode 132. Here, the text input cells C are implemented in a threaded sheet manner such as an Excel program, and the respective cells C may be time coded 132, style 134, person name 136, and captions. 138) or the like, or can be processed by other methods.

한편, 상기 제1영상을 상기 자막 입력 소프트웨어(100) 상에서 원활히 실행 하기 위해 또는 제1영상의 데이터 용량을 작게 만들기 위해 저해상도를 갖는 동영상 규격, 예를 들면 엠펙-1(mpeg-1) 또는 윈도우 미디어 비디오(wmv) 파일 형식에 맞게 변환할 수 있다.On the other hand, a video standard having a low resolution, for example, MPEG-1 (mpeg-1) or window media to smoothly execute the first image on the subtitle input software 100 or to reduce the data capacity of the first image. Can convert to video (wmv) file format.

이어서, 상기 제1 또는 제2윈도우(110, 120)를 통해 제1영상을 시청하면서 상기 제3 또는 제4윈도우(130, 140)를 통해 상기 제1자막 타임코드(132) 및 자막 텍스트를 입력한다(S116). 여기서, 상기 제4윈도우(140)는 상기 제3윈도우(130)의 하나의 행을 별도로 입력할 수 있도록 구현한 것이다. 이에 따라, 상기 제4윈도우(140)를 통해서도 제1자막 타임코드(132) 및 자막 텍스트(138)를 입력할 수 있다.Subsequently, the first subtitle timecode 132 and the caption text are input through the third or fourth windows 130 and 140 while watching the first image through the first or second windows 110 and 120. (S116). Here, the fourth window 140 is implemented so that one row of the third window 130 can be input separately. Accordingly, the first subtitle time code 132 and the subtitle text 138 may also be input through the fourth window 140.

예를 들면, 상기 화상, 음성 또는 파형을 기초로 자막이 입력될 특정 구간들(S)에 대한 각각의 제1자막 타임코드(132)를 설정하고, 상기 설정된 각각의 제1자막 타임코드(132)에 대한 자막 텍스트(138)를 입력하는 방식이다.For example, each first subtitle time code 132 is set for specific periods S into which subtitles are to be input based on the image, voice, or waveform, and each set first subtitle time code 132 is set. In the subtitle text 138).

이때, 상기 입력된 자막 텍스트에 대한 스타일을 설정할 수 있다(S117). 도 4 및 도 5는 자막 스타일 설정을 설명하기 위한 컴퓨터 화면들이다. 도 4(a) 및 도 4(b)를 참조하면, 제1영상의 등장 인물, 등장 배경 등과 같은 기 설정된 기준에 의해 상기 셀들(C)을 분류한다. 한편, 스타일 설정을 위한 제5윈도우(150)를 표출시켜, 폰드, 색, 크기, 표출 위치 등의 자막의 텍스트 스타일을 설정한다. 그리고, 상기 분류된 텍스트 입력 셀들(C)에 대하여 상기 설정된 자막 텍스트 스타일을 적용한다.In this case, a style for the input caption text may be set (S117). 4 and 5 are computer screens for explaining the caption style setting. Referring to FIGS. 4A and 4B, the cells C are classified according to preset criteria such as the person of the first image, the appearance background, and the like. Meanwhile, the fifth window 150 for setting the style is displayed to set the text style of the caption such as the font, color, size, display position, and the like. The set caption text style is applied to the classified text input cells C. FIG.

도 5를 참조하면, 이후에 자막 텍스트를 재가공할 때 등장 인물, 등장 배경 과 같은 소정의 열의 데이터 종류(136)가 상기 설정된 스타일(134)을 참조하도록 하여, 자동으로 텍스트 스타일을 지정되도록 할 수도 있다. 이러한 기능은 상기 자막 입력 소프트웨어(100)에 제6윈도우(160)를 표출시켜 수행할 수 있다. 또한, 새로운 텍스트 열(raw)을 추가하거나 삭제할 수 있으므로 자막 텍스트를 복수 개의 언어를 함께 또는 선택적으로 출력할 수 있으며, 이때 각 언어마다 독특한 스타일을 지정할 수도 있다.Referring to FIG. 5, when the subtitle text is subsequently reprocessed, the data type 136 of a predetermined column such as a person and an appearance background may refer to the set style 134 so that the text is automatically styled. have. This function may be performed by expressing the sixth window 160 in the subtitle input software 100. In addition, new text raw can be added or deleted, so that the subtitle text can be output together or selectively in a plurality of languages, and a unique style can be specified for each language.

특히, 상기 스타일 지정 기능은 제1영상을 재가공하여 해상도가 변화할 경우 상기 제1영상과 합성된 제1자막 데이터를 다시 사용하는데 유용하게 사용될 수 있다. 예를 들면, 제1영상의 편집으로 해상도가 낮아지는 경우에 폰트를 크기를 줄이고 다시 렌더링하여 처리함으로써 제1자막 데이터를 효과적으로 활용가능하다.In particular, the styling function may be useful for reusing the first subtitle data synthesized with the first image when the resolution is changed by reprocessing the first image. For example, when the resolution is lowered due to editing of the first image, the first subtitle data may be effectively utilized by reducing and re-rendering the font.

다시 도 2를 참조하면, 상기 입력이 완료된 제1자막 타임코드(132)를 갖는 자막 텍스트들(138)을 이용하여 그림 파일 형태의 제1자막 데이터를 생성한다(S118). 예를 들면, 상기 제1자막 데이터는 자막을 제외한 영역이 투명하도록 설정된 PNG, TGA, BMP 등 일련의 정지 영상 파일 형태로 출력될 수 있다.Referring to FIG. 2 again, first caption data in the form of a picture file is generated using the caption texts 138 having the first caption time code 132 in which the input is completed (S118). For example, the first subtitle data may be output in the form of a series of still image files such as PNG, TGA, and BMP, in which an area excluding subtitles is transparent.

다시 도 1을 참조하면, 상기 제1영상을 편집하여 제2영상 타임코드를 갖는 제2영상을 생성한다(S120). 구체적으로, 영상 편집 수단(도 6의 참조번호 200)을 이용하여 비디오 트랙(또는 타임라인)(210) 상에서 상기 제1영상을 타임코드로 분할되는 다발의 프레임들, 즉 블록(B1, B2)의 단위로 선택하고, 상기 선택된 블록들(B1, B2)을 이동 또는 삭제 편집한다. 이에 따라, 상기 제1타임코드가 재배열되므로, 상기 제2영상은 상기 제1타임코드가 재배열된 제2타임코드를 갖게 된다. 그 러나 상기 제1타임코드가 재배열되더라도 상기 블록들(B1, B2)은 원래의 타임코드, 즉 제1타임코드 정보를 여전히 갖고 있다.Referring back to FIG. 1, a second image having a second image time code is generated by editing the first image (S120). Specifically, a plurality of frames, i.e., blocks B1 and B2, are divided into timecodes on the video track (or timeline) 210 by using image editing means (reference numeral 200 in FIG. 6). And select, or move or delete the selected blocks (B1, B2). Accordingly, since the first time code is rearranged, the second image has a second time code in which the first time code is rearranged. However, even if the first time code is rearranged, the blocks B1 and B2 still have the original time code, that is, the first time code information.

다시 도 1을 참조하면, 상기 제1영상(300)의 제1자막 데이터(350)를 상기 제2영상(400)과 동기화시켜 제2자막 타임코드(450)를 갖는 제2자막 데이터를 생성한다(S130). 여기서, 상기 제2자막 데이터는 편집된 블록의 타임코드 변화값을 기초로 자동으로 생성함으로써, 상기 제1자막 데이터를 상기 제2영상에 대응하도록 매뉴얼 방식에 의한 재배열 작업이 요구되지 않는다.Referring back to FIG. 1, second subtitle data having a second subtitle time code 450 is generated by synchronizing the first subtitle data 350 of the first image 300 with the second image 400. (S130). Here, the second subtitle data is automatically generated based on the timecode change value of the edited block, so that a manual rearrangement operation is not required to correspond to the second subtitle data.

상기 타임코드 변화값은 상기 블록의 편집 전의 타임코드 값과 상기 블록의 편집 후의 타임코드 값의 변화이다. 즉, 상기 블록의 편집 전의 타임코드 값은 상기 제1영상에서의 제1영상 타임코드이며, 상기 블록의 편집 후의 타임코드 값은 상기 제2영상에서의 제2영상 타임코드가 된다. 이에 따라, 상기 타임코드 변화값은 상기 선택된 블록이 편집 전에 갖는 제1영상 타임코드에 대한 상기 선택된 블록이 편집된 후에 갖는 제2영상 타임코드의 변화값이 된다.The time code change value is a change of a time code value before editing the block and a time code value after editing the block. That is, the time code value before editing the block is the first video time code in the first video, and the time code value after editing the block is the second video time code in the second video. Accordingly, the time code change value is a change value of the second video time code having the selected block with respect to the first video time code that the selected block has before editing.

따라서, 상기 선택된 블록의 영상 타임코드의 변화값을 이용하여 상기 블록에 대한 제1자막 데이터의 자막 타임코드를 변화시켜 제2자막 데이터를 산출할 수 있다. 하기에서는 편집 전에 기 생성된 상기 제1영상의 제1자막 데이터를 이용하여 상기 제2영상의 제2자막 데이터를 산출하는 예를 도 7(a) 내지 도 7(c)를 참조하여 상세하게 설명한다.Accordingly, the second caption data may be calculated by changing the caption timecode of the first caption data for the block by using the change value of the video timecode of the selected block. Hereinafter, an example of calculating second subtitle data of the second image by using first subtitle data of the first image generated before editing will be described in detail with reference to FIGS. 7A to 7C. do.

도 7(a) 내지 도 7(c)는 본 발명의 일 실시예에 따른 자막의 동기화 방법을 설명하기 위한 개략적인 개념도들이다.7 (a) to 7 (c) are schematic conceptual views for explaining a method of synchronizing subtitles according to an embodiment of the present invention.

도 7(a)를 참조하면, 제1영상(300)과 상기 제1영상(300)의 제1자막 데이터(350)는 각각 1에서 14의 타임코드를 갖는다. 설명의 편의상, 상기 제1영상(300)을 제1 내지 제13의 블록(B1 내지 B13)으로 구분하였으며, 상기 블록들로 이루어진 제1영상(300)에 대한 자막(350)은 a에서 z의 알파벳이라고 가정한다.Referring to FIG. 7A, each of the first image 300 and the first subtitle data 350 of the first image 300 has a time code of 1 to 14, respectively. For convenience of description, the first image 300 is divided into first to thirteenth blocks B1 to B13, and the subtitle 350 for the first image 300 including the blocks is a to z. Assume that it is an alphabet.

일 예로서, 상기 제1영상(300)의 제1블록(B1)은 1에서 2의 영상 타임코드로 설정되어 있다(제1영상 인 타임코드 = 1, 제1영상 아웃 타임코드 = 2). 상기 제1블록(B1)의 제1자막 타임코드는 자막 a가 1에서 1.5, 자막 b가 1.5에서 2이다.As an example, the first block B1 of the first image 300 is set to an image time code of 1 to 2 (first image in timecode = 1, first image out timecode = 2). The first subtitle timecode of the first block B1 has caption a from 1 to 1.5 and caption b from 1.5 to 2.

첫 번째로, 상기 제2자막 데이터(450)를 생성하는 단계에서 상기 제1자막 데이터(350)에서 선택된 블록의 제1자막 타임코드가 상기 제1영상(300)에서 상기 블록의 제1영상 타임코드 내에 포함되어 있는 경우이다. 이 경우는 상기 제2영상(350)에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅰ) 및 (ⅱ)에 의해 자동으로 산출될 수 있다.First, in generating the second subtitle data 450, the first subtitle time code of the block selected from the first subtitle data 350 is the first image time of the block in the first image 300. If it is included in the code. In this case, the second subtitle time code for the block in the second image 350 may be automatically calculated by the following equations (i) and (ii).

인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ..........(ⅰ)In timecode = first subtitle of the block before editing In timecode-Δx .......... (ⅰ)

아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅱ)Out timecode = first subtitle of the block before editing Out timecode-Δx ....... (ii)

여기서, Δx는 편집 전 블록의 제1영상 인 타임코드와 편집 후 블록의 제2영상 인 타임코드의 차이값이다.Here, Δx is a difference value between the time code of the first video of the pre-editing block and the time code of the second video of the post-editing block.

구체적으로 제3블록(B3)은 제10블록(B10)의 자리로 이동되었다(도 7(b)). 여기서, 상기 제3블록(B3)의 자막은 e 및 f이다. 즉, 제3블록(B3)의 제1자막 타임코드는 3에서 4이므로 상기 제3블록(B3)의 제1영상 타임코드(3에서 4)의 범위 내에 포함되어 있다. 한편, 편집 후 제3블록(B3)의 제2영상 타임코드는 10에서 11이다 (Δx = 3 - 10 = -7).In detail, the third block B3 has been moved to the seat of the tenth block B10 (FIG. 7B). Here, the subtitles of the third block B3 are e and f. That is, since the first subtitle time code of the third block B3 is 3 to 4, it is included in the range of the first video time code 3 to 4 of the third block B3. On the other hand, the second video time code of the third block B3 after editing is 10 to 11 (Δx = 3-10 = -7).

따라서, 상기 제3블록(B3)의 제2자막 인 타임코드는 편집 전 제3블록(B3)의 제1자막 인 타임코드(=3)에서 Δx(=-7)을 뺀 값이므로 10이다. 또한, 상기 제3블록(B3)의 제2자막 아웃 타임코드는 편집 전 제3블록(B3)의 제1자막 아웃 타임코드(4)에서 Δx(=-7)을 뺀 값이므로 11이다. 즉, 제3블록(B3)의 제2자막 타임코드는 10에서 11로 자동 산출되며, 이는 도 7(c)에서 상기 제3블록(B3)의 제2자막 타임코드값과 일치한다.Accordingly, the second subtitle in time code of the third block B3 is 10 since Δx (= -7) is subtracted from the first subtitle time code (= 3) of the third block B3 before editing. Further, the second subtitle out time code of the third block B3 is 11 since the subtitle out time code 4 of the third block B3 before editing is subtracted Δx (= -7). That is, the second subtitle timecode of the third block B3 is automatically calculated from 10 to 11, which corresponds to the second subtitle timecode value of the third block B3 in FIG.

두 번째로, 상기 제2자막 데이터(450)를 생성하는 단계에서 상기 제1자막 데이터(350) 중에 선택된 블록의 제1자막 타임코드의 후반부가 상기 제1영상(300)에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상(400)에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅲ) 및 (ⅳ)에 의해 자동으로 산출될 수 있다.Secondly, in the step of generating the second subtitle data 450, the second half of the first subtitle time code of the block selected from the first subtitle data 350 is the first part of the block in the first image 300. When included in the range of the video time code, the second subtitle time code for the block in the second image 400 may be automatically calculated by the following equations (iii) and (iii).

인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 ................(ⅲ)In time code = Second image in time block after editing In time code ... (ⅲ)

아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅳ)Out timecode = first subtitle of block before editing Out timecode-Δx ....... (ⅳ)

(Δx = 편집 전 블록의 제1영상 인 타임코드 - 편집 후 블록의 제2영상 인 타임코드)(Δx = time code of the first image of the block before editing-time code of the second image of the block after editing)

구체적으로 제6블록(B6)은 제8블록(B8)의 자리로 이동되었다(도 7(b)). 여기서, 상기 제6블록(B6)의 자막은 j 및 k이다. 즉, 제6블록(B6)의 제1영상 타임코드는 6에서 7이고, 제1자막 타임코드 k는 5.5에서 6.5 및 6.5에서 7.5이므로 상기 j의 후반부가 상기 제6블록(B6)의 제1영상 타임코드(6에서 7)의 내에 포함되어 있 다. 한편, 편집 후 제6블록(B6)의 제2영상 타임코드는 8에서 9이다(Δx = 6 - 8 = -2).Specifically, the sixth block B6 has been moved to the seat of the eighth block B8 (Fig. 7 (b)). Here, the subtitles of the sixth block B6 are j and k. That is, since the first video timecode of the sixth block B6 is 6 to 7, and the first subtitle timecode k is 5.5 to 6.5 and 6.5 to 7.5, the second half of j is the first of the sixth block B6. It is contained within the video timecode (6 to 7). On the other hand, the second video time code of the sixth block B6 after editing is 8 to 9 (Δx = 6-8 = -2).

따라서, 상기 제6블록(B6) j의 제2자막 인 타임코드는 편집 전 제6블록(B6) j의 제2영상 인 타임코드이므로 8이다. 또한, 상기 제6블록(B6) j의 제2자막 아웃 타임코드는 편집 전 제6블록(B6)의 제1자막 아웃 타임코드(=6.5)에서 Δx(=-2)를 뺀 값이므로 8.5이다. 즉, 제6블록(B6) j의 제2자막 타임코드는 8에서 8.5로 자동 산출되며, 이는 도 7(c)와 일치한다.Accordingly, the second subtitle in time code of the sixth block B6 j is 8 since the second video in time code of the sixth block B6 j before editing is 8. Also, the second subtitle out time code of the sixth block B6 j is 8.5 since the subtitle out time code (= 6.5) of the sixth block B6 is subtracted from Δx (= -2) before editing. . That is, the second subtitle timecode of the sixth block B6 j is automatically calculated from 8 to 8.5, which is consistent with FIG. 7C.

세 번째로, 상기 제2자막 데이터(450)를 생성하는 단계에서 상기 제1자막 데이터(350)에서 선택된 블록의 제1자막 타임코드의 전반부가 상기 제1영상(300)에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상(400)에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅴ) 및 (ⅵ)에 의해 자동으로 산출될 수 있다.Third, in the step of generating the second subtitle data 450, the first half of the first subtitle timecode of the block selected from the first subtitle data 350 may be the first of the block in the first image 300. When included in the range of the video time code, the second subtitle time code for the block in the second image 400 may be automatically calculated by the following equations (iii) and (iii).

인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ...........(ⅴ)In timecode = first subtitle of the block before editing In timecode-Δx ........... (ⅴ)

아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅵ)Out time code = Second picture of the block after editing Out time code ............. (ⅵ)

(Δx = 편집 전 블록의 제1영상 인 타임코드 - 편집 후 블록의 제2영상 인 타임코드)(Δx = time code of the first image of the block before editing-time code of the second image of the block after editing)

마찬가지로, 제6블록(B6)은 제8블록(B8)의 자리로 이동되었으므로, 상기 제6블록(B6)의 자막은 j 및 k이다. 즉, 제6블록(B6)의 제1영상 타임코드는 6에서 7이고, 제1자막 타임코드 k는 6.5에서 7.5이므로 상기 k의 전반부가 상기 제6블록(B6)의 제1영상 타임코드(6에서 7)의 내에 포함되어 있다. 한편, 편집 후 제6블록(B6) 의 제2영상 타임코드는 8에서 9이다(Δx = 6 - 8 = -2).Similarly, since the sixth block B6 has been moved to the eighth block B8, the subtitles of the sixth block B6 are j and k. That is, since the first video timecode of the sixth block B6 is 6 to 7 and the first subtitle timecode k is 6.5 to 7.5, the first half of k may include the first video timecode of the sixth block B6. 6 to 7) are included. On the other hand, the second video time code of the sixth block B6 after editing is 8 to 9 (Δx = 6-8 = -2).

따라서, 상기 제6블록(B6) k의 제2자막 인 타임코드는 편집 전 제6블록(B6) k의 제1자막 인 타임코드(=6.5)에서 Δx(=-2)를 뺀 값이므로 8.5이다. 또한, 상기 제6블록(B6) k의 제2자막 인 타임코드는 편집 전 제6블록(B6)의 제2영상 아웃 타임코드이므로 9이다. 즉, 제6블록(B6) k의 제2자막 타임코드는 8.5에서 9로 자동 산출되며, 이는 도 7(c)와 일치한다.Therefore, the second subtitle in time code of the sixth block B6 k is a value obtained by subtracting Δx (= -2) from the first subtitle in time code (= 6.5) of the sixth block B6 k before editing. to be. In addition, the second subtitle in time code of the sixth block B6 k is 9 since it is the second video out time code of the sixth block B6 before editing. That is, the second subtitle timecode of the sixth block B6 k is automatically calculated from 8.5 to 9, which is consistent with FIG. 7 (c).

네 번째로, 상기 제2자막 데이터(450)를 생성하는 단계에서 상기 제1자막 데이터(350)에서 선택된 블록의 제1자막 타임코드의 중앙부가 상기 제1영상(300)에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상(400)에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅶ) 및 (ⅷ)에 의해 자동으로 산출될 수 있다.Fourthly, in the generating of the second subtitle data 450, a central portion of the first subtitle time code of the block selected from the first subtitle data 350 is determined by the first image of the block in the first image 300. When included in the range of the video time code, the second subtitle time code for the block in the second image 400 may be automatically calculated by the following equations (iii) and (iii).

인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 .................(ⅶ)In time code = Second image in time code of the block after editing ........ (ⅶ)

아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅷ)Out time code = Second picture of the block after editing Out time code ............. (ⅷ)

구체적으로, 제10블록(B10)는 제3블록(B3)의 위치로 이동되었다(도 7(b)). 여기서, 상기 제10블록(B6)의 자막은 p이다. 즉, 제10블록(B10)의 제1영상 타임코드는 10에서 11이고, 제1자막 타임코드 p는 9.5에서 11.5이므로 상기 p의 중앙부가 상기 제6블록(B6)의 제1영상 타임코드(10에서 11)의 내에 포함되어 있다. 한편, 편집 후 제6블록(B6)의 제2영상 타임코드는 3에서 4이다.Specifically, the tenth block B10 has been moved to the position of the third block B3 (FIG. 7B). Here, the subtitle of the tenth block B6 is p. That is, since the first video timecode of the tenth block B10 is 10 to 11, and the first subtitle timecode p is 9.5 to 11.5, the central portion of p is the first video timecode of the sixth block B6. 10 to 11). On the other hand, after editing, the second video time code of the sixth block B6 is 3 to 4.

따라서, 상기 제6블록(B6)의 제2자막 인 타임코드는 편집 후 제6블록(B6)의 제2영상 인 타임코드이므로 3이며, 제6블록(B6)의 제2자막 아웃 타임코드는 편집 후 제6블록(B6)의 제2영상 아웃 타임코드이므로 4이다. 상기 산출 결과의 정오 여부는 도 7(c)를 통해 확인할 수 있다.Therefore, the second subtitle in time code of the sixth block B6 is 3 since the second video in time code of the sixth block B6 is edited, and the second subtitle out time code of the sixth block B6 is 4 since the second video out time code of the sixth block B6 is edited. Whether the calculation result is noon can be confirmed through FIG. 7C.

지금까지 도 7(a) 내지 도 7(c)를 통해 살펴본 바와 같이, 상기 첫 번째 내지 네 번째 방법을 이용하면 상기 제1영상(300)을 제2영상(400)으로 편집하더라도 변화된 자막코드, 즉 모든 제2자막 타임코드를 자동으로 산출해 낼 수 있다. 따라서, 상기 제1자막 데이터(350)로부터 상기 제2자막 데이터(450)를 용이하게 추출할 수 있다.As described above with reference to FIGS. 7A to 7C, when the first to fourth methods are used, even if the first image 300 is edited into the second image 400, the changed caption code, In other words, all second subtitle timecodes can be automatically calculated. Therefore, the second subtitle data 450 may be easily extracted from the first subtitle data 350.

마지막으로, 상기 생성된 제2자막 데이터(450)를 상기 제2영상(400)과 결합한다(S140). 예를 들면, 상기 제2영상 상에 그림 파일 형태의 제2자막 데이터를 합성하는 방법이 있다. 이와는 다르게, 상기 제2자막 데이터를 최종 송출단에서 표준 규격에 의해 처리할 수도 있다. 이는 상기 제2자막 데이터가 다언어 또는 다양한 형태의 자막들을 포함하고 있는 경우 시청자가 자막을 선택적으로 시청하는 것이 가능해진다.Finally, the generated second subtitle data 450 is combined with the second image 400 (S140). For example, there is a method of synthesizing second subtitle data in the form of a picture file on the second image. Alternatively, the second subtitle data may be processed by the standard at the final sending end. This enables the viewer to selectively watch the subtitles when the second subtitle data includes multilingual or various subtitles.

이와 같이, 원 테이프의 고유 타임 코드 값을 추적하여 자막 데이터를 재가공할 수 있는 본 발명에 따른 영상물 자막 처리 방법을 통해, 영상물이 편집되었을 때 편집된 영상을 테이프로 재출력하고, 상기 테이프를 자막 작업자가 다시 캡쳐링하며, 자막 데이터를 재배열하고 타임코드를 재생성하는 불편함을 쉽게 해결할 수 있다.As described above, through the video caption processing method according to the present invention capable of reprocessing the caption data by tracking the original time code value of the original tape, the video is re-output when the video is edited, and the caption is closed. Operators can easily recapture, reordering subtitle data and reproducing timecode.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영 역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiment of the present invention, those skilled in the art will be variously modified and modified within the scope of the present invention without departing from the spirit and scope of the present invention described in the claims below. It will be appreciated that it can be changed.

도 1은 본 발명의 바람직한 실시예에 따른 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a caption processing method of an edited video image using synchronization of caption data according to an exemplary embodiment of the present invention.

도 2는 도 1에 도시된 제1영상 생성 단계를 설명하기 위한 개략적인 흐름도이다.FIG. 2 is a schematic flowchart for explaining a first image generating step illustrated in FIG. 1.

도 3은 도 1의 제1자막 데이터를 생성하기 위한 자막 입력 수단을 설명하기 위한 컴퓨터 화면이다.3 is a computer screen for describing a caption input unit for generating first subtitle data of FIG. 1.

도 4 및 도 5는 도 2의 자막 스타일 설정을 설명하기 위한 컴퓨터 화면들이다.4 and 5 are computer screens for explaining the caption style setting of FIG. 2.

도 6은 도 1의 제2영상 생성 단계를 설명하기 위한 컴퓨터 화면이다.FIG. 6 is a computer screen illustrating a second image generating step of FIG. 1.

도 7은 본 발명의 일 실시예에 따른 자막의 동기화 방법을 설명하기 위한 개략적인 개념도들이다.7 is a schematic conceptual view illustrating a method of synchronizing subtitles according to an embodiment of the present invention.

* 도면의 주요부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

300 : 제1영상 350 : 제1자막 데이터300: first image 350: first subtitle data

400 : 제2영상 450 : 제2자막 데이터400: second image 450: second subtitle data

Claims (8)

타임코드를 기반으로 한 자막 입력 수단을 이용하여, 편집 전의 제1영상 타임코드를 갖는 제1영상에 대응하도록, 제1자막 타임코드를 갖는 제1자막 데이터를 준비하는 단계;Preparing first subtitle data having a first subtitle time code to correspond to a first image having a first video time code before editing by using a caption input means based on a time code; 상기 제1영상을 블록 단위로 선택하여 상기 선택된 블록들을 이동 또는 삭제 편집함으로써, 상기 제1영상 타임코드가 재배열된 제2영상 타임코드를 갖는 제2영상을 생성하는 단계; 및Generating a second image having a second image timecode in which the first image timecode is rearranged by moving or deleting the selected blocks by selecting the first image in units of blocks; And 상기 제1영상 중에서 상기 선택된 블록의 제1영상 타임코드에 대한 상기 제2영상 중에서 상기 블록의 제2영상 타임코드의 변화값을 이용하여 상기 제1자막 데이터의 제1자막 타임코드를 재배열함으로써, 상기 제2영상에 대응하는 제2자막 타임코드를 갖는 제2자막 데이터를 생성하는 단계를 포함하는 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법.Rearranging the first subtitle timecode of the first subtitle data using a change value of the second video timecode of the block from the second image with respect to the first video timecode of the selected block among the first video And generating second subtitle data having a second subtitle time code corresponding to the second image. 3. 제1항에 있어서, 상기 제1자막 데이터를 준비하는 단계는,The method of claim 1, wherein the preparing of the first subtitle data comprises: 화상 정보 및 음성 정보를 갖는 디지털 형태의 제1영상을 생성하는 단계;Generating a first image in a digital form having image information and audio information; 상기 제1영상을 로딩하여, 화상 및 음성 정보를 타임 코드와 출력하기 위한 제1윈도우, 상기 음성 정보의 파형을 출력하기 위한 제2윈도우, 타임코드 기반으로 한 다수의 텍스트 입력 셀들을 갖는 자막 텍스트를 입력하기 위한 제3윈도우를 표출하는 단계;Subtitle text having a first window for loading the first image, outputting image and audio information with a time code, a second window for outputting the waveform of the audio information, and a plurality of text input cells based on time code Expressing a third window for inputting; 상기 화상 정보, 음성 정보 또는 파형을 기초로, 자막이 입력될 특정 구간들에 대한 제1자막 타임코드들을 설정하고, 상기 구간들에 해당하는 자막 텍스트를 입력하는 단계; 및Setting first subtitle time codes for specific sections to which a caption is to be input, based on the image information, audio information, or waveform, and inputting caption text corresponding to the sections; And 상기 제1자막 타임코드를 갖는 자막 텍스트들을 그림 파일 형태의 제1자막 데이터로 변환하는 단계를 포함하는 것을 특징으로 하는 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법.And converting the subtitle texts having the first subtitle timecode into first subtitle data in the form of a picture file. 제1항에 있어서, 상기 제1자막 데이터로 변환하기 이전에,The method of claim 1, wherein before converting to the first subtitle data, 스프레드 시트 방식을 이용하여 상기 텍스트 입력 셀들을 등장인물, 등장배경을 포함하는 기 설정된 기준에 의해 분류하는 단계;Classifying the text input cells by a predetermined criterion including a character and an appearance background using a spreadsheet method; 폰트(font), 색(color), 크기(size)를 포함하는 자막 텍스트 스타일들을 설정하는 단계; 및Setting subtitle text styles including font, color, size; And 상기 분류된 텍스트 입력 셀들에 대하여 상기 설정된 자막 텍스트 스타일을 적용하는 단계를 더 포함하는 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법.And applying the set subtitle text style to the classified text input cells. 제1항에 있어서, 상기 제2자막 데이터를 생성하는 단계에서,The method of claim 1, wherein the generating of the second subtitle data comprises: 상기 선택된 블록의 제1자막 타임코드가 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우,When the first subtitle timecode of the selected block is included in the range of the first video timecode of the block, 인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ..........(ⅰ)In timecode = first subtitle of the block before editing In timecode-Δx .......... (ⅰ) 아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅱ)Out timecode = first subtitle of the block before editing Out timecode-Δx ....... (ii) (여기서, Δx = 편집 전 블록의 제1영상 인 타임코드 - 편집 후 블록의 제2영상 인 타임코드)(Where Δx = time code of the first image of the pre-edit block-time code of the second image of the post-edit block) 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 상기의 식(ⅰ) 및 (ⅱ)에 의해 자동으로 산출하는 것을 특징으로 하는 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법.The caption processing method of the edited video material using the synchronization of the caption data, characterized in that the second subtitle time code for the block in the second video is automatically calculated by the above equations (iii) and (ii). 제4항에 있어서, 상기 제2자막 데이터를 생성하는 단계에서,The method of claim 4, wherein the generating of the second subtitle data comprises: 상기 선택된 블록의 제1자막 타임코드의 후반부가 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우,When the second half of the first subtitle timecode of the selected block is included in the range of the first video timecode of the block, 인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 ................(ⅲ)In time code = Second image in time block after editing In time code ... (ⅲ) 아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅳ)Out timecode = first subtitle of block before editing Out timecode-Δx ....... (ⅳ) 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 상기의 식(ⅲ) 및 (ⅳ)에 의해 자동으로 산출하는 것을 특징으로 하는 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법.The caption processing method of the edited video material using the synchronization of the caption data, characterized in that the second subtitle time code for the block in the second video is automatically calculated by the above formulas (iii) and (iii). 제4항에 있어서, 상기 제2자막 데이터를 생성하는 단계에서,The method of claim 4, wherein the generating of the second subtitle data comprises: 상기 선택된 블록의 제1자막 타임코드의 전반부가 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우,When the first half of the first subtitle timecode of the selected block is included in the range of the first video timecode of the block, 인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ...........(ⅴ)In timecode = first subtitle of the block before editing In timecode-Δx ........... (ⅴ) 아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅵ)Out time code = Second picture of the block after editing Out time code ............. (ⅵ) 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 상기의 식(ⅴ) 및 (ⅵ)에 의해 자동으로 산출하는 것을 특징으로 하는 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법.The caption processing method of the edited video material using the synchronization of the caption data, characterized in that the second subtitle time code for the block in the second video is automatically calculated by the above formulas (iii) and (iii). 제4항에 있어서, 상기 제2자막 데이터를 생성하는 단계에서,The method of claim 4, wherein the generating of the second subtitle data comprises: 상기 선택된 블록의 제1자막 타임코드의 중앙부가 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우,When the central portion of the first subtitle timecode of the selected block is included in the range of the first video timecode of the block, 인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 .................(ⅶ)In time code = Second image in time code of the block after editing ........ (ⅶ) 아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅷ)Out time code = Second picture of the block after editing Out time code ............. (ⅷ) 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 상기의 식(ⅶ) 및 (ⅷ)에 의해 자동으로 산출하는 것을 특징으로 하는 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법.The caption processing method of the edited video material using the synchronization of the caption data, characterized in that the second subtitle time code for the block in the second video is automatically calculated by the above formulas (iii) and (iii). 제1항에 있어서, 상기 제2자막 데이터를 상기 제2영상물과 합성하는 단계를 더 포함하는 것을 특징으로 하는 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법.The method of claim 1, further comprising: synthesizing the second subtitle data with the second video material.
KR1020080015295A 2008-02-20 2008-02-20 Method of processing subtitles data for edited video product using synchronizing video data and subtitles data KR100957244B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080015295A KR100957244B1 (en) 2008-02-20 2008-02-20 Method of processing subtitles data for edited video product using synchronizing video data and subtitles data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080015295A KR100957244B1 (en) 2008-02-20 2008-02-20 Method of processing subtitles data for edited video product using synchronizing video data and subtitles data

Publications (2)

Publication Number Publication Date
KR20090090053A true KR20090090053A (en) 2009-08-25
KR100957244B1 KR100957244B1 (en) 2010-05-11

Family

ID=41208009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080015295A KR100957244B1 (en) 2008-02-20 2008-02-20 Method of processing subtitles data for edited video product using synchronizing video data and subtitles data

Country Status (1)

Country Link
KR (1) KR100957244B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130039575A (en) * 2011-10-12 2013-04-22 엘지전자 주식회사 Image display apparatus, and method for operating the same
KR101390346B1 (en) * 2013-03-18 2014-05-27 서영화 System for adding caption and method thereof
KR20160106302A (en) * 2015-03-02 2016-09-12 한국방송공사 Apparatus and method for generating caption file of edited video
KR20210022360A (en) * 2019-08-20 2021-03-03 주식회사 곰앤컴퍼니 A method and apparatus for automatically converting web content to video content
CN113938758A (en) * 2021-12-08 2022-01-14 沈阳开放大学 Method for quickly adding subtitles in video editor
CN117041691A (en) * 2023-10-08 2023-11-10 湖南云上栏山数据服务有限公司 Analysis method and system for ultra-high definition video material based on TC (train control) code

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101576094B1 (en) * 2014-04-22 2015-12-09 주식회사 뱁션 System and method for adding caption using animation
WO2019074145A1 (en) * 2017-10-11 2019-04-18 (주)아이디어 콘서트 System and method for editing subtitle data in single screen
KR102067446B1 (en) * 2018-06-04 2020-01-17 주식회사 엔씨소프트 Method and system for generating caption

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3248843B2 (en) * 1996-05-17 2002-01-21 財団法人アテネ・フランセ Caption projection device
JP4192703B2 (en) 2003-06-30 2008-12-10 日本電気株式会社 Content processing apparatus, content processing method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130039575A (en) * 2011-10-12 2013-04-22 엘지전자 주식회사 Image display apparatus, and method for operating the same
KR101390346B1 (en) * 2013-03-18 2014-05-27 서영화 System for adding caption and method thereof
KR20160106302A (en) * 2015-03-02 2016-09-12 한국방송공사 Apparatus and method for generating caption file of edited video
KR20210022360A (en) * 2019-08-20 2021-03-03 주식회사 곰앤컴퍼니 A method and apparatus for automatically converting web content to video content
CN113938758A (en) * 2021-12-08 2022-01-14 沈阳开放大学 Method for quickly adding subtitles in video editor
CN117041691A (en) * 2023-10-08 2023-11-10 湖南云上栏山数据服务有限公司 Analysis method and system for ultra-high definition video material based on TC (train control) code
CN117041691B (en) * 2023-10-08 2023-12-08 湖南云上栏山数据服务有限公司 Analysis method and system for ultra-high definition video material based on TC (train control) code

Also Published As

Publication number Publication date
KR100957244B1 (en) 2010-05-11

Similar Documents

Publication Publication Date Title
KR100957244B1 (en) Method of processing subtitles data for edited video product using synchronizing video data and subtitles data
US7020381B1 (en) Video editing apparatus and editing method for combining a plurality of image data to generate a series of edited motion video image data
EP1872268B1 (en) Icon bar display for video editing system
JP4607987B2 (en) Editing time-based media with enhanced content
US6469711B2 (en) Graphical user interface for a video editing system
US6400378B1 (en) Home movie maker
US6381398B1 (en) Apparatus and method of generating bit stream for information recording disc storage which enables seamless reproduction of a plurality of pieces of image information, and recording medium on which program applied to the generating apparatus is recorded
US6185538B1 (en) System for editing digital video and audio information
US7194676B2 (en) Performance retiming effects on synchronized data in an editing system
US20030086686A1 (en) Editing apparatus having dedicated processing unit for video editing
CN101540847A (en) Caption creation system and caption creation method
RU2490730C2 (en) Device for reproducing data from data storage medium
JP2002374494A (en) Generation system and retrieving method for video contents file
EP0916136B1 (en) Graphical user interface for a motion video planning and editing system for a computer
US6272279B1 (en) Editing method of moving images, editing apparatus and storage medium storing its editing method program
Jago Adobe Premiere Pro CC classroom in a book
US7495667B2 (en) Post production integration platform
US20080219636A1 (en) Authoring Audiovisual Content
KR100650410B1 (en) Method for processing translation caption of image by using non-linear editing
US7657154B2 (en) Providing edited video data suitable for efficient use of video reproducing device capabilities
CN101325679B (en) Information processing apparatus, information processing method, and computer program
KR102078479B1 (en) Method for editing video and videos editing device
Jago Adobe Premiere Pro Classroom in a Book (2022 Release)
Ramamurthy Post-Production
Sachdeva et al. Digital Video Editing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130603

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140502

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150504

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180821

Year of fee payment: 9