KR20090090053A - Method of processing subtitles data for edited video product using synchronizing video data and subtitles data - Google Patents
Method of processing subtitles data for edited video product using synchronizing video data and subtitles data Download PDFInfo
- Publication number
- KR20090090053A KR20090090053A KR1020080015295A KR20080015295A KR20090090053A KR 20090090053 A KR20090090053 A KR 20090090053A KR 1020080015295 A KR1020080015295 A KR 1020080015295A KR 20080015295 A KR20080015295 A KR 20080015295A KR 20090090053 A KR20090090053 A KR 20090090053A
- Authority
- KR
- South Korea
- Prior art keywords
- subtitle
- time code
- block
- image
- timecode
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/30—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
- G11B27/3027—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
- G11B27/3036—Time code signal
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
본 발명은 영상물의 자막 처리 방법에 관한 것으로, 보다 상세하게는 편집된 영상물의 자막을 자막 데이터의 동기화를 이용하여 빠른 시간 내에 처리할 수 있는 방법에 관한 것이다.The present invention relates to a caption processing method of an image, and more particularly, to a method capable of processing a caption of an edited image in a short time using synchronization of caption data.
근래에 드라마, 영화, 다큐멘터리와 같은 외국 방송의 비중이 크게 증가함에 따라, 번역 작업의 효율성을 높이기 위한 다양한 번역 자막 처리 기술이 발전해왔다.Recently, as the proportion of foreign broadcasting such as dramas, movies, and documentaries has increased greatly, various translation subtitle processing technologies have been developed to improve the efficiency of translation work.
종래에는 번역 작가가 방송 또는 영화 제작자로부터 VHS(video home system)와 같은 아날로그 형태의 테이프를 제공받은 후, 이를 반복적으로 재생하면서 자막 텍스트를 생성하는 방법을 이용하였다. 그러나 이와 같은 방법은 작업 시간이 과도하게 소요되며, 영상물의 시청과 자막 텍스트 파일 생성을 별도의 장치에서 수행함으로써 작업 효율이 크게 떨어진다는 문제점이 있었다.Conventionally, after a translator receives an analog tape such as a video home system (VHS) from a broadcaster or a movie producer, the translator repeatedly plays it and generates subtitle text. However, such a method requires excessive work time, and there is a problem in that work efficiency is greatly reduced by performing viewing of a video material and generating a subtitle text file in a separate device.
또한, 번역 작가는 자막 텍스트 파일만 제공하기 때문에, 영상물을 제공하는 회사는 별도의 인력으로 영상물의 타임코드를 생성하여 상기 영상물의 타임코드 상에 자막 텍스트를 다시 합성해야 했다. 이와 같은 종래의 번역 작업의 문제점을 해결하기 위하여, 영상물을 디지털 형태의 파일로 변환하여 번역 작업자가 컴퓨터 상에서 타임코드와 자막 텍스트 정보를 동시에 생성할 수 있는 기술들이 개발되었다.In addition, since the translator provides only the subtitle text file, the company providing the image had to generate a time code of the image with a separate manpower and re-synthesize the subtitle text on the time code of the image. In order to solve the problems of the conventional translation work, a technology has been developed in which a translation worker can simultaneously generate timecode and subtitle text information on a computer by converting an image into a digital file.
그 일 예로, 본 출원인이 출원한 대한민국 특허 제650410호(06.11.21 등록)에는 영상물의 번역 자막을 처리하는 방법이 개시되어 있다. 상기 특허 제650410호에 의하면, 비선형 편집 방식을 이용하여 번역 작업자가 컴퓨터로 영상물을 시청하면서 타임코드를 생성하고 직접 자막을 입력함으로써 작업 시간이 크게 단축될 수 있다. 또한, 자막 데이터를 그림 파일 형태로 생성하여 해당 타임코드의 위치에 자동으로 배열되도록 함으로써 작업 효율이 향상되는 장점이 있다.For example, Korean Patent No. 650410 filed by the present applicant (registered on November 21, 2011) discloses a method of processing translation subtitles of an image. According to the Patent No. 650410, a work time can be greatly shortened by a translator using a nonlinear editing method while generating a time code and directly inputting a subtitle while watching a video on a computer. In addition, the work efficiency is improved by generating caption data in the form of a picture file so that the caption data is automatically arranged at the position of the corresponding timecode.
그러나 최초로 자막 파일을 생성하여 방송 한 이후에 이를 편집하여 다른 버전으로 제작하는 경우, 상기 특허 제650410호의 번역 자막 처리 방법으로는 상기 편집된 영상물에 맞게 자막 텍스트 정보를 재구성하고, 타임코드를 다시 생성해야하므로 여전히 자막 작업의 비효율성 문제가 발생한다.However, if the first subtitle file is created and broadcasted, then edited and produced in a different version, the translated subtitle processing method of Patent No. 650410 reconstructs the subtitle text information according to the edited video material and regenerates the time code. This still causes inefficiency issues with subtitles.
특히 최근에는 영화로 상영된 영상물의 지나친 노출이나 욕설 장면 등을 편집하여 방송용 버전을 제작하거나, 디지털 멀티미디어 방송(DMB), 휴대기기용 디지털 비디오 방송(DVB-H) 등과 같은 이동형 미디어 플랫폼의 등장과 함께 장시간의 영상물을 다수의 단시간 영상물로 편집하여 방송하는 등 동일한 소스의 영상물을 다양한 버전으로 편집하여 가공하는 경우가 많아지고 있다. 따라서, 영상물의 편집에 따른 자막의 자동 동기화 방법의 개발이 절실하다.In particular, the recent version of the mobile media platform such as digital multimedia broadcasting (DMB), digital video broadcasting for mobile devices (DVB-H), etc. At the same time, there are a number of cases in which video images of the same source are edited and processed into various versions, such as editing and broadcasting a long time video material into a plurality of short time video materials. Therefore, there is an urgent need to develop a method for automatically synchronizing subtitles according to editing of an image.
따라서, 본 발명의 목적은 자막 데이터가 존재하는 영상물을 편집할 경우에 상기 자막 데이터를 편집된 영상물에 동기화하는 것이 가능한 자막 처리 방법을 제공하는데 있다.Accordingly, it is an object of the present invention to provide a caption processing method capable of synchronizing the caption data with the edited video when the caption data exists.
상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법은, 먼저 타임코드를 기반으로 한 자막 입력 수단을 이용하여, 편집 전의 제1영상 타임코드를 갖는 제1영상에 대응하도록, 제1자막 타임코드를 갖는 제1자막 데이터를 준비한다. 다음에, 상기 제1영상을 블록 단위로 선택하여 상기 선택된 블록들을 이동 또는 삭제 편집함으로써, 상기 제1영상 타임코드가 재배열된 제2영상 타임코드를 갖는 제2영상을 생성한다. 마지막으로, 상기 제1영상 중에서 상기 선택된 블록의 제1영상 타임코드에 대한, 상기 제2영상에서 상기 블록이 갖는 제2영상 타임코드의 변화값을 이용하여, 상기 제1자막 데이터의 제1자막 타임코드를 재배열함으로써, 상기 제2영상에 대응하는 제2자막 타임코드를 갖는 제2자막 데이터를 생성한다.In accordance with an aspect of the present invention, a method for processing a caption of an edited video image using synchronization of caption data according to an aspect of the present invention, first, by using a caption input means based on a timecode, First subtitle data having a first subtitle time code is prepared to correspond to the first image having the same. Next, the first image is selected in units of blocks, and the selected blocks are moved or deleted and edited to generate a second image having a second image time code in which the first image time code is rearranged. Lastly, a first subtitle of the first subtitle data is performed by using a change value of a second video time code of the block in the second video with respect to a first video time code of the selected block among the first pictures. By rearranging the time codes, second subtitle data having a second subtitle time code corresponding to the second image is generated.
본 발명의 일 실시예에 따르면, 상기 제1자막 데이터를 준비하는 단계는, 화상 정보 및 음성 정보를 갖는 디지털 형태의 제1영상을 생성하는 단계와, 상기 제1영상을 로딩하여 화상 및 음성 정보를 타임 코드와 출력하기 위한 제1윈도우, 상기 음성 정보의 파형을 출력하기 위한 제2윈도우, 타임코드 기반으로 한 다수의 텍스 트 입력 셀들을 갖는 자막 텍스트를 입력하기 위한 제3윈도우를 표출하는 단계와, 상기 화상 정보, 음성 정보 또는 파형을 기초로, 자막이 입력될 특정 구간들에 대한 제1자막 타임코드들을 설정하고 상기 구간들에 해당하는 자막 텍스트를 입력하는 단계와, 상기 제1자막 타임코드를 갖는 자막 텍스트들을 그림 파일 형태의 제1자막 데이터로 변환하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the preparing of the first subtitle data may include generating a first image in a digital form having image information and audio information, and loading the first image to obtain image and audio information. Displaying a first window for outputting a time code and a second window for outputting a waveform of the voice information, and a third window for inputting subtitle text having a plurality of text input cells based on the time code. Setting first subtitle time codes for specific sections to which a subtitle is to be input, and inputting subtitle text corresponding to the sections, based on the image information, audio information, or waveform; Converting the caption texts having the code into first caption data in the form of a picture file.
본 발명의 다른 실시예에 따르면, 상기 제1자막 데이터로 변환하기 이전에, 스프레드 시트 방식을 이용하여 상기 텍스트 입력 셀들을 등장인물, 등장배경을 포함하는 기 설정된 기준에 의해 분류하는 단계와, 폰트(font), 색(color), 크기(size)를 포함하는 자막 텍스트 스타일들을 설정하는 단계와, 상기 분류된 텍스트 입력 셀들에 대하여 상기 설정된 자막 텍스트 스타일을 적용하는 단계를 더 포함할 수 있다.According to another embodiment of the present invention, prior to converting into the first subtitle data, classifying the text input cells by a preset criterion including a character and an appearance background using a spreadsheet method, and a font; The method may further include setting caption text styles including font, color, and size, and applying the set caption text style to the classified text input cells.
본 발명의 또 다른 실시예에 따르면, 상기 제2자막 데이터를 생성하는 단계에서, 상기 제1자막 데이터에서 선택된 블록의 제1자막 타임코드가 상기 제1영상에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅰ) 및 (ⅱ)에 의해 자동으로 산출될 수 있다.According to another embodiment of the present invention, in the generating the second subtitle data, the first subtitle timecode of the block selected from the first subtitle data is determined by the first image timecode of the block in the first image. When included in the range, the second subtitle time code for the block in the second image may be automatically calculated by the following equations (i) and (ii).
인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ..........(ⅰ)In timecode = first subtitle of the block before editing In timecode-Δx .......... (ⅰ)
아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅱ)Out timecode = first subtitle of the block before editing Out timecode-Δx ....... (ii)
(여기서, Δx = 편집 전 블록의 제1영상 인 타임코드 - 편집 후 블록의 제2영상 인 타임코드)(Where Δx = time code of the first image of the pre-edit block-time code of the second image of the post-edit block)
또한, 상기 제2자막 데이터를 생성하는 단계에서, 상기 제1자막 데이터에서 선택된 블록의 제1자막 타임코드의 후반부가 상기 제1영상에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅲ) 및 (ⅳ)에 의해 자동으로 산출될 수 있다.In the generating of the second subtitle data, when the second half of the first subtitle time code of the block selected from the first subtitle data is included within the range of the first image time code of the block in the first image. The second subtitle timecode of the block in the second image may be automatically calculated by the following equations (i) and (i).
인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 ................(ⅲ)In time code = Second image in time block after editing In time code ... (ⅲ)
아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅳ)Out timecode = first subtitle of block before editing Out timecode-Δx ....... (ⅳ)
또한, 상기 제2자막 데이터를 생성하는 단계에서, 상기 제1자막 데이터에서 선택된 블록의 제1자막 타임코드의 전반부가 상기 제1영상에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅴ) 및 (ⅵ)에 의해 자동으로 산출될 수 있다.In the generating of the second subtitle data, when the first half of the first subtitle time code of the block selected from the first subtitle data is included within the range of the first image time code of the block in the first image. The second subtitle timecode of the block in the second image may be automatically calculated by the following equations (i) and (i).
인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ...........(ⅴ)In timecode = first subtitle of the block before editing In timecode-Δx ........... (ⅴ)
아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅵ)Out time code = Second picture of the block after editing Out time code ............. (ⅵ)
또한, 상기 제2자막 데이터를 생성하는 단계에서, 상기 제1자막 데이터에서 선택된 블록의 제1자막 타임코드의 중앙부가 상기 제1영상에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅶ) 및 (ⅷ)에 의해 자동으로 산출될 수 있다.In the generating of the second subtitle data, when the central portion of the first subtitle time code of the block selected from the first subtitle data is included within the range of the first image time code of the block in the first image. The second subtitle timecode of the block in the second image may be automatically calculated by the following equations (i) and (i).
인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 .................(ⅶ)In time code = Second image in time code of the block after editing ........ (ⅶ)
아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅷ)Out time code = Second picture of the block after editing Out time code ............. (ⅷ)
한편, 본 발명의 또 다른 실시예에 따르면, 상기 제2자막 데이터를 상기 제2영상물과 합성하는 단계를 더 포함할 수 있다.Meanwhile, according to another exemplary embodiment, the method may further include synthesizing the second subtitle data with the second image material.
본 발명에 의하면, 자막 작업을 완료하여 자막 파일을 생성한 영상물을 편집하는 경우에 상기 편집된 영상물과 기존 자막 파일의 동기화를 이용하여 상기 편집된 영상물의 자막을 생성할 수 있다.According to the present invention, when editing a video material in which a caption file is generated by completing a caption work, the caption of the edited video can be generated by synchronizing the edited video with the existing caption file.
따라서, 영상물을 임의로 편집하더라도 편집된 영상물의 자막이 자동으로 생성되기 때문에 자막의 재작업이 필요 없으므로 방송 준비 시간, 소요 인력 및 비용을 크게 단축시킬 수 있다.Therefore, even if the video is arbitrarily edited, since the subtitles of the edited video are automatically generated, reworking of the subtitles is not necessary, thereby greatly reducing the preparation time, manpower, and cost of broadcasting.
이하, 본 발명에 따른 바람직한 실시예들에 따른 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법에 대하여 첨부된 도면을 참조하여 상세하게 설명하지만, 본 발명이 하기의 실시예들에 제한되는 것은 아니며, 해당 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명을 다양한 다른 형태로 구현할 수 있을 것이다. 첨부된 도면에 있어서, 각 구성 요소들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하여 도시한 것이다. 본 발명에 있어서, 하나의 구성 요소가 다른 구성 요소 "상에", "상부에" 또는 "하부"에 형성되는 것으로 언급되는 경우에는 상기 하나의 구성 요소는 상기 다른 구성 요소 위에 형성되거나 또는 아래에 위치하는 것을 의미하거나, 또 다른 구성 요소들이 상기 다른 구성 요소 상에 추가적으로 형성될 수 있다. 또한, 각 구성 요소들이 "제1", "제2" 및/또는 "제3"으로 언급되는 것은 한정하기 위한 것이 아니라 단지 각 구성 요소들을 구분하기 위한 것이다. 따라서, "제1", "제2" 및/또는 "제3"은 각 구성 요소에 대하여 각기 선택적으로 또는 교환적으로 사용될 수 있다.Hereinafter, a subtitle processing method of an edited video image using synchronization of subtitle data according to preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is limited to the following embodiments. No, one of ordinary skill in the art may realize the present invention in various other forms without departing from the technical spirit of the present invention. In the accompanying drawings, the dimensions of each component is shown in an enlarged scale than actual for clarity of the invention. In the present invention, when one component is referred to as being formed on, above, or under another component, the one component is formed on or below the other component. It is meant to be positioned, or further components may be additionally formed on the other components. In addition, it is to be noted that the respective components are referred to as "first", "second", and / or "third", not merely to limit each component. Thus, "first", "second" and / or "third" can be used selectively or interchangeably for each component.
도 1은 본 발명의 바람직한 실시예에 따른 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법을 설명하기 위한 흐름도이며, 도 3은 도 1의 제1자막 데이터를 생성하기 위한 자막 입력 수단을 설명하기 위한 컴퓨터 화면이다.1 is a flowchart illustrating a caption processing method of an edited video image using synchronization of caption data according to an exemplary embodiment of the present invention, and FIG. 3 illustrates caption input means for generating first caption data of FIG. 1. It is a computer screen.
도 1 및 도 3을 참조하면, 본 발명의 일 실시예에 따른 편집된 영상물의 자막 처리 방법은 먼저 편집 전의 제1영상 타임코드(112)를 갖는 제1영상에 대응하도록, 제1자막 타임코드(132)를 갖는 제1자막 데이터를 준비한다(S110).1 and 3, a caption processing method of an edited video image according to an embodiment of the present invention may first correspond to a first video having a first
구체적으로, 본 발명의 제1영상 및 상기 제1영상에 대응하는 제1자막 데이터는 각각의 타임코드, 즉 제1영상 타임코드(112) 및 제1자막 타임코드(132)를 갖는다. 여기서, 타임코드(SMPTE Time Code; Society of Motion Picture and Television Engineers Time Code)란 숫자의 연속적인 배열로서, 오디오나 비디오, 필름을 결합시켜 레코딩 되는 정교한 테입의 카운터이다. 이러한 타임코드는 오디오(audio), 비디오(video), 필름(film)을 동기화(synchronizing)시키기 위한 하나의 표준방식으로 사용되고 있다.Specifically, the first image and the first subtitle data corresponding to the first image of the present invention have respective time codes, that is, the first
타임코드의 넘버들은 장비가 돌아가는 속도(running speed reference)와 위치(position reference)를 제어하게 된다. 다시 말해서, 얼마나 빨리 숫자가 경과했는가는 속도를 결정짓고, 어떤 숫자가 진행하는지는 위치를 결정한다. 타임코드의 정보를 이용하여 테이프 레코더, 컴퓨터, 디지털 레코더 등과 같은 장비에서 화상 및 음성 데이터의 이동과 서로 다른 장비간의 작동들의 동기화 작업을 수행할 수 있다.The number of timecodes controls the running speed reference and position reference. In other words, how fast a number elapses determines the speed, and what number advances determines the position. The information of the timecode can be used to perform movement of video and audio data and to synchronize operations between different equipment in equipment such as tape recorders, computers, digital recorders, and the like.
상기 제1자막 데이터는 PNG, BMP, TGA와 같은 그림 파일 형태가 바람직하며, 영상과 마찬가지로 상기 제1자막 타임코드(132)가 생성될 수 있다. 예를 들면, 상기 제1자막 데이터는 타임코드를 기반으로 한 소정의 자막 입력 수단을 이용하여 생성할 수 있다. 이를 도 2 및 도 3을 참조하여 보다 상세하게 설명하기로 하면 다음과 같다. 먼저, 화상 정보 및 음성 정보를 갖는 디지털 형태의 제1영상을 생성한다(S112). 상기 제1영상은 소정의 변환 수단(도시되지 않음)을 이용하여 아날로그 형태의 원 영상을 변환한 것이거나 또는 최초에 디지털 형태로 레코딩된 것일 수 있다.The first subtitle data may be in the form of a picture file such as PNG, BMP, or TGA, and the
다음에, 소정의 자막 입력 소프트웨어(100)를 이용하여 상기 제1영상을 로딩한다(S114). 상기 자막 입력 소프트웨어(100)는 상기 디지털 파일 형태의 제1영상을 실행시켜, 제1 내지 제3윈도우(110, 120, 130)를 표출시킨다. 상기 제1윈도우(110)는 화상 및 음성 정보를 제1영상 타임코드(112)와 함께 출력하고, 상기 제2윈도우(120)는 상기 음성 정보의 파형을 출력하며, 상기 제3윈도우(130)는 제1자막 타임코드(132)를 기반으로 한 다수의 텍스트 입력 셀들(C)을 갖는 자막 텍스트를 입력하기 위한 창이다. 여기서, 상기 텍스트 입력 셀들(C)은 엑셀 프로그램과 같은 스트레드 시트(spread sheet) 방식으로 구현되어 각각의 셀들(C)을 타임코드(132), 스타일(134), 인물명(136), 자막(138) 등으로 손쉽게 분류하거나 또는 다른 방법으로 가공할 수 있도록 되어 있는 것이 바람직하다.Next, the first image is loaded using a predetermined subtitle input software 100 (S114). The
한편, 상기 제1영상을 상기 자막 입력 소프트웨어(100) 상에서 원활히 실행 하기 위해 또는 제1영상의 데이터 용량을 작게 만들기 위해 저해상도를 갖는 동영상 규격, 예를 들면 엠펙-1(mpeg-1) 또는 윈도우 미디어 비디오(wmv) 파일 형식에 맞게 변환할 수 있다.On the other hand, a video standard having a low resolution, for example, MPEG-1 (mpeg-1) or window media to smoothly execute the first image on the
이어서, 상기 제1 또는 제2윈도우(110, 120)를 통해 제1영상을 시청하면서 상기 제3 또는 제4윈도우(130, 140)를 통해 상기 제1자막 타임코드(132) 및 자막 텍스트를 입력한다(S116). 여기서, 상기 제4윈도우(140)는 상기 제3윈도우(130)의 하나의 행을 별도로 입력할 수 있도록 구현한 것이다. 이에 따라, 상기 제4윈도우(140)를 통해서도 제1자막 타임코드(132) 및 자막 텍스트(138)를 입력할 수 있다.Subsequently, the
예를 들면, 상기 화상, 음성 또는 파형을 기초로 자막이 입력될 특정 구간들(S)에 대한 각각의 제1자막 타임코드(132)를 설정하고, 상기 설정된 각각의 제1자막 타임코드(132)에 대한 자막 텍스트(138)를 입력하는 방식이다.For example, each first
이때, 상기 입력된 자막 텍스트에 대한 스타일을 설정할 수 있다(S117). 도 4 및 도 5는 자막 스타일 설정을 설명하기 위한 컴퓨터 화면들이다. 도 4(a) 및 도 4(b)를 참조하면, 제1영상의 등장 인물, 등장 배경 등과 같은 기 설정된 기준에 의해 상기 셀들(C)을 분류한다. 한편, 스타일 설정을 위한 제5윈도우(150)를 표출시켜, 폰드, 색, 크기, 표출 위치 등의 자막의 텍스트 스타일을 설정한다. 그리고, 상기 분류된 텍스트 입력 셀들(C)에 대하여 상기 설정된 자막 텍스트 스타일을 적용한다.In this case, a style for the input caption text may be set (S117). 4 and 5 are computer screens for explaining the caption style setting. Referring to FIGS. 4A and 4B, the cells C are classified according to preset criteria such as the person of the first image, the appearance background, and the like. Meanwhile, the
도 5를 참조하면, 이후에 자막 텍스트를 재가공할 때 등장 인물, 등장 배경 과 같은 소정의 열의 데이터 종류(136)가 상기 설정된 스타일(134)을 참조하도록 하여, 자동으로 텍스트 스타일을 지정되도록 할 수도 있다. 이러한 기능은 상기 자막 입력 소프트웨어(100)에 제6윈도우(160)를 표출시켜 수행할 수 있다. 또한, 새로운 텍스트 열(raw)을 추가하거나 삭제할 수 있으므로 자막 텍스트를 복수 개의 언어를 함께 또는 선택적으로 출력할 수 있으며, 이때 각 언어마다 독특한 스타일을 지정할 수도 있다.Referring to FIG. 5, when the subtitle text is subsequently reprocessed, the
특히, 상기 스타일 지정 기능은 제1영상을 재가공하여 해상도가 변화할 경우 상기 제1영상과 합성된 제1자막 데이터를 다시 사용하는데 유용하게 사용될 수 있다. 예를 들면, 제1영상의 편집으로 해상도가 낮아지는 경우에 폰트를 크기를 줄이고 다시 렌더링하여 처리함으로써 제1자막 데이터를 효과적으로 활용가능하다.In particular, the styling function may be useful for reusing the first subtitle data synthesized with the first image when the resolution is changed by reprocessing the first image. For example, when the resolution is lowered due to editing of the first image, the first subtitle data may be effectively utilized by reducing and re-rendering the font.
다시 도 2를 참조하면, 상기 입력이 완료된 제1자막 타임코드(132)를 갖는 자막 텍스트들(138)을 이용하여 그림 파일 형태의 제1자막 데이터를 생성한다(S118). 예를 들면, 상기 제1자막 데이터는 자막을 제외한 영역이 투명하도록 설정된 PNG, TGA, BMP 등 일련의 정지 영상 파일 형태로 출력될 수 있다.Referring to FIG. 2 again, first caption data in the form of a picture file is generated using the caption texts 138 having the first
다시 도 1을 참조하면, 상기 제1영상을 편집하여 제2영상 타임코드를 갖는 제2영상을 생성한다(S120). 구체적으로, 영상 편집 수단(도 6의 참조번호 200)을 이용하여 비디오 트랙(또는 타임라인)(210) 상에서 상기 제1영상을 타임코드로 분할되는 다발의 프레임들, 즉 블록(B1, B2)의 단위로 선택하고, 상기 선택된 블록들(B1, B2)을 이동 또는 삭제 편집한다. 이에 따라, 상기 제1타임코드가 재배열되므로, 상기 제2영상은 상기 제1타임코드가 재배열된 제2타임코드를 갖게 된다. 그 러나 상기 제1타임코드가 재배열되더라도 상기 블록들(B1, B2)은 원래의 타임코드, 즉 제1타임코드 정보를 여전히 갖고 있다.Referring back to FIG. 1, a second image having a second image time code is generated by editing the first image (S120). Specifically, a plurality of frames, i.e., blocks B1 and B2, are divided into timecodes on the video track (or timeline) 210 by using image editing means (
다시 도 1을 참조하면, 상기 제1영상(300)의 제1자막 데이터(350)를 상기 제2영상(400)과 동기화시켜 제2자막 타임코드(450)를 갖는 제2자막 데이터를 생성한다(S130). 여기서, 상기 제2자막 데이터는 편집된 블록의 타임코드 변화값을 기초로 자동으로 생성함으로써, 상기 제1자막 데이터를 상기 제2영상에 대응하도록 매뉴얼 방식에 의한 재배열 작업이 요구되지 않는다.Referring back to FIG. 1, second subtitle data having a second
상기 타임코드 변화값은 상기 블록의 편집 전의 타임코드 값과 상기 블록의 편집 후의 타임코드 값의 변화이다. 즉, 상기 블록의 편집 전의 타임코드 값은 상기 제1영상에서의 제1영상 타임코드이며, 상기 블록의 편집 후의 타임코드 값은 상기 제2영상에서의 제2영상 타임코드가 된다. 이에 따라, 상기 타임코드 변화값은 상기 선택된 블록이 편집 전에 갖는 제1영상 타임코드에 대한 상기 선택된 블록이 편집된 후에 갖는 제2영상 타임코드의 변화값이 된다.The time code change value is a change of a time code value before editing the block and a time code value after editing the block. That is, the time code value before editing the block is the first video time code in the first video, and the time code value after editing the block is the second video time code in the second video. Accordingly, the time code change value is a change value of the second video time code having the selected block with respect to the first video time code that the selected block has before editing.
따라서, 상기 선택된 블록의 영상 타임코드의 변화값을 이용하여 상기 블록에 대한 제1자막 데이터의 자막 타임코드를 변화시켜 제2자막 데이터를 산출할 수 있다. 하기에서는 편집 전에 기 생성된 상기 제1영상의 제1자막 데이터를 이용하여 상기 제2영상의 제2자막 데이터를 산출하는 예를 도 7(a) 내지 도 7(c)를 참조하여 상세하게 설명한다.Accordingly, the second caption data may be calculated by changing the caption timecode of the first caption data for the block by using the change value of the video timecode of the selected block. Hereinafter, an example of calculating second subtitle data of the second image by using first subtitle data of the first image generated before editing will be described in detail with reference to FIGS. 7A to 7C. do.
도 7(a) 내지 도 7(c)는 본 발명의 일 실시예에 따른 자막의 동기화 방법을 설명하기 위한 개략적인 개념도들이다.7 (a) to 7 (c) are schematic conceptual views for explaining a method of synchronizing subtitles according to an embodiment of the present invention.
도 7(a)를 참조하면, 제1영상(300)과 상기 제1영상(300)의 제1자막 데이터(350)는 각각 1에서 14의 타임코드를 갖는다. 설명의 편의상, 상기 제1영상(300)을 제1 내지 제13의 블록(B1 내지 B13)으로 구분하였으며, 상기 블록들로 이루어진 제1영상(300)에 대한 자막(350)은 a에서 z의 알파벳이라고 가정한다.Referring to FIG. 7A, each of the
일 예로서, 상기 제1영상(300)의 제1블록(B1)은 1에서 2의 영상 타임코드로 설정되어 있다(제1영상 인 타임코드 = 1, 제1영상 아웃 타임코드 = 2). 상기 제1블록(B1)의 제1자막 타임코드는 자막 a가 1에서 1.5, 자막 b가 1.5에서 2이다.As an example, the first block B1 of the
첫 번째로, 상기 제2자막 데이터(450)를 생성하는 단계에서 상기 제1자막 데이터(350)에서 선택된 블록의 제1자막 타임코드가 상기 제1영상(300)에서 상기 블록의 제1영상 타임코드 내에 포함되어 있는 경우이다. 이 경우는 상기 제2영상(350)에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅰ) 및 (ⅱ)에 의해 자동으로 산출될 수 있다.First, in generating the
인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ..........(ⅰ)In timecode = first subtitle of the block before editing In timecode-Δx .......... (ⅰ)
아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅱ)Out timecode = first subtitle of the block before editing Out timecode-Δx ....... (ii)
여기서, Δx는 편집 전 블록의 제1영상 인 타임코드와 편집 후 블록의 제2영상 인 타임코드의 차이값이다.Here, Δx is a difference value between the time code of the first video of the pre-editing block and the time code of the second video of the post-editing block.
구체적으로 제3블록(B3)은 제10블록(B10)의 자리로 이동되었다(도 7(b)). 여기서, 상기 제3블록(B3)의 자막은 e 및 f이다. 즉, 제3블록(B3)의 제1자막 타임코드는 3에서 4이므로 상기 제3블록(B3)의 제1영상 타임코드(3에서 4)의 범위 내에 포함되어 있다. 한편, 편집 후 제3블록(B3)의 제2영상 타임코드는 10에서 11이다 (Δx = 3 - 10 = -7).In detail, the third block B3 has been moved to the seat of the tenth block B10 (FIG. 7B). Here, the subtitles of the third block B3 are e and f. That is, since the first subtitle time code of the third block B3 is 3 to 4, it is included in the range of the first
따라서, 상기 제3블록(B3)의 제2자막 인 타임코드는 편집 전 제3블록(B3)의 제1자막 인 타임코드(=3)에서 Δx(=-7)을 뺀 값이므로 10이다. 또한, 상기 제3블록(B3)의 제2자막 아웃 타임코드는 편집 전 제3블록(B3)의 제1자막 아웃 타임코드(4)에서 Δx(=-7)을 뺀 값이므로 11이다. 즉, 제3블록(B3)의 제2자막 타임코드는 10에서 11로 자동 산출되며, 이는 도 7(c)에서 상기 제3블록(B3)의 제2자막 타임코드값과 일치한다.Accordingly, the second subtitle in time code of the third block B3 is 10 since Δx (= -7) is subtracted from the first subtitle time code (= 3) of the third block B3 before editing. Further, the second subtitle out time code of the third block B3 is 11 since the subtitle out
두 번째로, 상기 제2자막 데이터(450)를 생성하는 단계에서 상기 제1자막 데이터(350) 중에 선택된 블록의 제1자막 타임코드의 후반부가 상기 제1영상(300)에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상(400)에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅲ) 및 (ⅳ)에 의해 자동으로 산출될 수 있다.Secondly, in the step of generating the
인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 ................(ⅲ)In time code = Second image in time block after editing In time code ... (ⅲ)
아웃 타임코드 = 편집 전 블록의 제1자막 아웃 타임코드 - Δx .......(ⅳ)Out timecode = first subtitle of block before editing Out timecode-Δx ....... (ⅳ)
(Δx = 편집 전 블록의 제1영상 인 타임코드 - 편집 후 블록의 제2영상 인 타임코드)(Δx = time code of the first image of the block before editing-time code of the second image of the block after editing)
구체적으로 제6블록(B6)은 제8블록(B8)의 자리로 이동되었다(도 7(b)). 여기서, 상기 제6블록(B6)의 자막은 j 및 k이다. 즉, 제6블록(B6)의 제1영상 타임코드는 6에서 7이고, 제1자막 타임코드 k는 5.5에서 6.5 및 6.5에서 7.5이므로 상기 j의 후반부가 상기 제6블록(B6)의 제1영상 타임코드(6에서 7)의 내에 포함되어 있 다. 한편, 편집 후 제6블록(B6)의 제2영상 타임코드는 8에서 9이다(Δx = 6 - 8 = -2).Specifically, the sixth block B6 has been moved to the seat of the eighth block B8 (Fig. 7 (b)). Here, the subtitles of the sixth block B6 are j and k. That is, since the first video timecode of the sixth block B6 is 6 to 7, and the first subtitle timecode k is 5.5 to 6.5 and 6.5 to 7.5, the second half of j is the first of the sixth block B6. It is contained within the video timecode (6 to 7). On the other hand, the second video time code of the sixth block B6 after editing is 8 to 9 (Δx = 6-8 = -2).
따라서, 상기 제6블록(B6) j의 제2자막 인 타임코드는 편집 전 제6블록(B6) j의 제2영상 인 타임코드이므로 8이다. 또한, 상기 제6블록(B6) j의 제2자막 아웃 타임코드는 편집 전 제6블록(B6)의 제1자막 아웃 타임코드(=6.5)에서 Δx(=-2)를 뺀 값이므로 8.5이다. 즉, 제6블록(B6) j의 제2자막 타임코드는 8에서 8.5로 자동 산출되며, 이는 도 7(c)와 일치한다.Accordingly, the second subtitle in time code of the sixth block B6 j is 8 since the second video in time code of the sixth block B6 j before editing is 8. Also, the second subtitle out time code of the sixth block B6 j is 8.5 since the subtitle out time code (= 6.5) of the sixth block B6 is subtracted from Δx (= -2) before editing. . That is, the second subtitle timecode of the sixth block B6 j is automatically calculated from 8 to 8.5, which is consistent with FIG. 7C.
세 번째로, 상기 제2자막 데이터(450)를 생성하는 단계에서 상기 제1자막 데이터(350)에서 선택된 블록의 제1자막 타임코드의 전반부가 상기 제1영상(300)에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상(400)에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅴ) 및 (ⅵ)에 의해 자동으로 산출될 수 있다.Third, in the step of generating the
인 타임코드 = 편집 전 블록의 제1자막 인 타임코드 - Δx ...........(ⅴ)In timecode = first subtitle of the block before editing In timecode-Δx ........... (ⅴ)
아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅵ)Out time code = Second picture of the block after editing Out time code ............. (ⅵ)
(Δx = 편집 전 블록의 제1영상 인 타임코드 - 편집 후 블록의 제2영상 인 타임코드)(Δx = time code of the first image of the block before editing-time code of the second image of the block after editing)
마찬가지로, 제6블록(B6)은 제8블록(B8)의 자리로 이동되었으므로, 상기 제6블록(B6)의 자막은 j 및 k이다. 즉, 제6블록(B6)의 제1영상 타임코드는 6에서 7이고, 제1자막 타임코드 k는 6.5에서 7.5이므로 상기 k의 전반부가 상기 제6블록(B6)의 제1영상 타임코드(6에서 7)의 내에 포함되어 있다. 한편, 편집 후 제6블록(B6) 의 제2영상 타임코드는 8에서 9이다(Δx = 6 - 8 = -2).Similarly, since the sixth block B6 has been moved to the eighth block B8, the subtitles of the sixth block B6 are j and k. That is, since the first video timecode of the sixth block B6 is 6 to 7 and the first subtitle timecode k is 6.5 to 7.5, the first half of k may include the first video timecode of the sixth block B6. 6 to 7) are included. On the other hand, the second video time code of the sixth block B6 after editing is 8 to 9 (Δx = 6-8 = -2).
따라서, 상기 제6블록(B6) k의 제2자막 인 타임코드는 편집 전 제6블록(B6) k의 제1자막 인 타임코드(=6.5)에서 Δx(=-2)를 뺀 값이므로 8.5이다. 또한, 상기 제6블록(B6) k의 제2자막 인 타임코드는 편집 전 제6블록(B6)의 제2영상 아웃 타임코드이므로 9이다. 즉, 제6블록(B6) k의 제2자막 타임코드는 8.5에서 9로 자동 산출되며, 이는 도 7(c)와 일치한다.Therefore, the second subtitle in time code of the sixth block B6 k is a value obtained by subtracting Δx (= -2) from the first subtitle in time code (= 6.5) of the sixth block B6 k before editing. to be. In addition, the second subtitle in time code of the sixth block B6 k is 9 since it is the second video out time code of the sixth block B6 before editing. That is, the second subtitle timecode of the sixth block B6 k is automatically calculated from 8.5 to 9, which is consistent with FIG. 7 (c).
네 번째로, 상기 제2자막 데이터(450)를 생성하는 단계에서 상기 제1자막 데이터(350)에서 선택된 블록의 제1자막 타임코드의 중앙부가 상기 제1영상(300)에서 상기 블록의 제1영상 타임코드의 범위 내에 포함되어 있는 경우, 상기 제2영상(400)에서 상기 블록에 대한 제2자막 타임코드는 하기의 식(ⅶ) 및 (ⅷ)에 의해 자동으로 산출될 수 있다.Fourthly, in the generating of the
인 타임코드 = 편집 후 블록의 제2영상 인 타임코드 .................(ⅶ)In time code = Second image in time code of the block after editing ........ (ⅶ)
아웃 타임코드 = 편집 후 블록의 제2영상 아웃 타임코드 .............(ⅷ)Out time code = Second picture of the block after editing Out time code ............. (ⅷ)
구체적으로, 제10블록(B10)는 제3블록(B3)의 위치로 이동되었다(도 7(b)). 여기서, 상기 제10블록(B6)의 자막은 p이다. 즉, 제10블록(B10)의 제1영상 타임코드는 10에서 11이고, 제1자막 타임코드 p는 9.5에서 11.5이므로 상기 p의 중앙부가 상기 제6블록(B6)의 제1영상 타임코드(10에서 11)의 내에 포함되어 있다. 한편, 편집 후 제6블록(B6)의 제2영상 타임코드는 3에서 4이다.Specifically, the tenth block B10 has been moved to the position of the third block B3 (FIG. 7B). Here, the subtitle of the tenth block B6 is p. That is, since the first video timecode of the tenth block B10 is 10 to 11, and the first subtitle timecode p is 9.5 to 11.5, the central portion of p is the first video timecode of the sixth block B6. 10 to 11). On the other hand, after editing, the second video time code of the sixth block B6 is 3 to 4.
따라서, 상기 제6블록(B6)의 제2자막 인 타임코드는 편집 후 제6블록(B6)의 제2영상 인 타임코드이므로 3이며, 제6블록(B6)의 제2자막 아웃 타임코드는 편집 후 제6블록(B6)의 제2영상 아웃 타임코드이므로 4이다. 상기 산출 결과의 정오 여부는 도 7(c)를 통해 확인할 수 있다.Therefore, the second subtitle in time code of the sixth block B6 is 3 since the second video in time code of the sixth block B6 is edited, and the second subtitle out time code of the sixth block B6 is 4 since the second video out time code of the sixth block B6 is edited. Whether the calculation result is noon can be confirmed through FIG. 7C.
지금까지 도 7(a) 내지 도 7(c)를 통해 살펴본 바와 같이, 상기 첫 번째 내지 네 번째 방법을 이용하면 상기 제1영상(300)을 제2영상(400)으로 편집하더라도 변화된 자막코드, 즉 모든 제2자막 타임코드를 자동으로 산출해 낼 수 있다. 따라서, 상기 제1자막 데이터(350)로부터 상기 제2자막 데이터(450)를 용이하게 추출할 수 있다.As described above with reference to FIGS. 7A to 7C, when the first to fourth methods are used, even if the
마지막으로, 상기 생성된 제2자막 데이터(450)를 상기 제2영상(400)과 결합한다(S140). 예를 들면, 상기 제2영상 상에 그림 파일 형태의 제2자막 데이터를 합성하는 방법이 있다. 이와는 다르게, 상기 제2자막 데이터를 최종 송출단에서 표준 규격에 의해 처리할 수도 있다. 이는 상기 제2자막 데이터가 다언어 또는 다양한 형태의 자막들을 포함하고 있는 경우 시청자가 자막을 선택적으로 시청하는 것이 가능해진다.Finally, the generated
이와 같이, 원 테이프의 고유 타임 코드 값을 추적하여 자막 데이터를 재가공할 수 있는 본 발명에 따른 영상물 자막 처리 방법을 통해, 영상물이 편집되었을 때 편집된 영상을 테이프로 재출력하고, 상기 테이프를 자막 작업자가 다시 캡쳐링하며, 자막 데이터를 재배열하고 타임코드를 재생성하는 불편함을 쉽게 해결할 수 있다.As described above, through the video caption processing method according to the present invention capable of reprocessing the caption data by tracking the original time code value of the original tape, the video is re-output when the video is edited, and the caption is closed. Operators can easily recapture, reordering subtitle data and reproducing timecode.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영 역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiment of the present invention, those skilled in the art will be variously modified and modified within the scope of the present invention without departing from the spirit and scope of the present invention described in the claims below. It will be appreciated that it can be changed.
도 1은 본 발명의 바람직한 실시예에 따른 자막 데이터의 동기화를 이용한 편집된 영상물의 자막 처리 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a caption processing method of an edited video image using synchronization of caption data according to an exemplary embodiment of the present invention.
도 2는 도 1에 도시된 제1영상 생성 단계를 설명하기 위한 개략적인 흐름도이다.FIG. 2 is a schematic flowchart for explaining a first image generating step illustrated in FIG. 1.
도 3은 도 1의 제1자막 데이터를 생성하기 위한 자막 입력 수단을 설명하기 위한 컴퓨터 화면이다.3 is a computer screen for describing a caption input unit for generating first subtitle data of FIG. 1.
도 4 및 도 5는 도 2의 자막 스타일 설정을 설명하기 위한 컴퓨터 화면들이다.4 and 5 are computer screens for explaining the caption style setting of FIG. 2.
도 6은 도 1의 제2영상 생성 단계를 설명하기 위한 컴퓨터 화면이다.FIG. 6 is a computer screen illustrating a second image generating step of FIG. 1.
도 7은 본 발명의 일 실시예에 따른 자막의 동기화 방법을 설명하기 위한 개략적인 개념도들이다.7 is a schematic conceptual view illustrating a method of synchronizing subtitles according to an embodiment of the present invention.
* 도면의 주요부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
300 : 제1영상 350 : 제1자막 데이터300: first image 350: first subtitle data
400 : 제2영상 450 : 제2자막 데이터400: second image 450: second subtitle data
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080015295A KR100957244B1 (en) | 2008-02-20 | 2008-02-20 | Method of processing subtitles data for edited video product using synchronizing video data and subtitles data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080015295A KR100957244B1 (en) | 2008-02-20 | 2008-02-20 | Method of processing subtitles data for edited video product using synchronizing video data and subtitles data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090090053A true KR20090090053A (en) | 2009-08-25 |
KR100957244B1 KR100957244B1 (en) | 2010-05-11 |
Family
ID=41208009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080015295A KR100957244B1 (en) | 2008-02-20 | 2008-02-20 | Method of processing subtitles data for edited video product using synchronizing video data and subtitles data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100957244B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130039575A (en) * | 2011-10-12 | 2013-04-22 | 엘지전자 주식회사 | Image display apparatus, and method for operating the same |
KR101390346B1 (en) * | 2013-03-18 | 2014-05-27 | 서영화 | System for adding caption and method thereof |
KR20160106302A (en) * | 2015-03-02 | 2016-09-12 | 한국방송공사 | Apparatus and method for generating caption file of edited video |
KR20210022360A (en) * | 2019-08-20 | 2021-03-03 | 주식회사 곰앤컴퍼니 | A method and apparatus for automatically converting web content to video content |
CN113938758A (en) * | 2021-12-08 | 2022-01-14 | 沈阳开放大学 | Method for quickly adding subtitles in video editor |
CN117041691A (en) * | 2023-10-08 | 2023-11-10 | 湖南云上栏山数据服务有限公司 | Analysis method and system for ultra-high definition video material based on TC (train control) code |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101576094B1 (en) * | 2014-04-22 | 2015-12-09 | 주식회사 뱁션 | System and method for adding caption using animation |
WO2019074145A1 (en) * | 2017-10-11 | 2019-04-18 | (주)아이디어 콘서트 | System and method for editing subtitle data in single screen |
KR102067446B1 (en) * | 2018-06-04 | 2020-01-17 | 주식회사 엔씨소프트 | Method and system for generating caption |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3248843B2 (en) * | 1996-05-17 | 2002-01-21 | 財団法人アテネ・フランセ | Caption projection device |
JP4192703B2 (en) | 2003-06-30 | 2008-12-10 | 日本電気株式会社 | Content processing apparatus, content processing method, and program |
-
2008
- 2008-02-20 KR KR1020080015295A patent/KR100957244B1/en active IP Right Grant
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130039575A (en) * | 2011-10-12 | 2013-04-22 | 엘지전자 주식회사 | Image display apparatus, and method for operating the same |
KR101390346B1 (en) * | 2013-03-18 | 2014-05-27 | 서영화 | System for adding caption and method thereof |
KR20160106302A (en) * | 2015-03-02 | 2016-09-12 | 한국방송공사 | Apparatus and method for generating caption file of edited video |
KR20210022360A (en) * | 2019-08-20 | 2021-03-03 | 주식회사 곰앤컴퍼니 | A method and apparatus for automatically converting web content to video content |
CN113938758A (en) * | 2021-12-08 | 2022-01-14 | 沈阳开放大学 | Method for quickly adding subtitles in video editor |
CN117041691A (en) * | 2023-10-08 | 2023-11-10 | 湖南云上栏山数据服务有限公司 | Analysis method and system for ultra-high definition video material based on TC (train control) code |
CN117041691B (en) * | 2023-10-08 | 2023-12-08 | 湖南云上栏山数据服务有限公司 | Analysis method and system for ultra-high definition video material based on TC (train control) code |
Also Published As
Publication number | Publication date |
---|---|
KR100957244B1 (en) | 2010-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100957244B1 (en) | Method of processing subtitles data for edited video product using synchronizing video data and subtitles data | |
US7020381B1 (en) | Video editing apparatus and editing method for combining a plurality of image data to generate a series of edited motion video image data | |
EP1872268B1 (en) | Icon bar display for video editing system | |
JP4607987B2 (en) | Editing time-based media with enhanced content | |
US6469711B2 (en) | Graphical user interface for a video editing system | |
US6400378B1 (en) | Home movie maker | |
US6381398B1 (en) | Apparatus and method of generating bit stream for information recording disc storage which enables seamless reproduction of a plurality of pieces of image information, and recording medium on which program applied to the generating apparatus is recorded | |
US6185538B1 (en) | System for editing digital video and audio information | |
US7194676B2 (en) | Performance retiming effects on synchronized data in an editing system | |
US20030086686A1 (en) | Editing apparatus having dedicated processing unit for video editing | |
CN101540847A (en) | Caption creation system and caption creation method | |
RU2490730C2 (en) | Device for reproducing data from data storage medium | |
JP2002374494A (en) | Generation system and retrieving method for video contents file | |
EP0916136B1 (en) | Graphical user interface for a motion video planning and editing system for a computer | |
US6272279B1 (en) | Editing method of moving images, editing apparatus and storage medium storing its editing method program | |
Jago | Adobe Premiere Pro CC classroom in a book | |
US7495667B2 (en) | Post production integration platform | |
US20080219636A1 (en) | Authoring Audiovisual Content | |
KR100650410B1 (en) | Method for processing translation caption of image by using non-linear editing | |
US7657154B2 (en) | Providing edited video data suitable for efficient use of video reproducing device capabilities | |
CN101325679B (en) | Information processing apparatus, information processing method, and computer program | |
KR102078479B1 (en) | Method for editing video and videos editing device | |
Jago | Adobe Premiere Pro Classroom in a Book (2022 Release) | |
Ramamurthy | Post-Production | |
Sachdeva et al. | Digital Video Editing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130603 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140502 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150504 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180821 Year of fee payment: 9 |