KR101961750B1 - System for editing caption data of single screen - Google Patents
System for editing caption data of single screen Download PDFInfo
- Publication number
- KR101961750B1 KR101961750B1 KR1020170139033A KR20170139033A KR101961750B1 KR 101961750 B1 KR101961750 B1 KR 101961750B1 KR 1020170139033 A KR1020170139033 A KR 1020170139033A KR 20170139033 A KR20170139033 A KR 20170139033A KR 101961750 B1 KR101961750 B1 KR 101961750B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- subtitle
- image
- unit
- caption
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/278—Subtitling
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
본 발명은 단일 화면에서의 자막데이터 편집 시스템에 관한 것으로 더욱 상세하게는, 영상데이터를 일정 크기의 세그먼트로 분할하고, 자막데이터 생성 및 수정을 단일 화면에서 동시에 작업하되, 각기 상이한 언어마다 별도의 자막을 제작해 언어별로 자막데이터를 생성하는 것이 아니라, 각기 상이한 언어별로 구성된 탭에 번역된 텍스트를 삽입하는 형태로 단일 자막데이터의 제작이 가능하게 하는 기술에 관한 것이다.The present invention relates to a caption data editing system in a single screen, and more particularly, to a caption data editing system for capturing caption data by segmenting video data into segments of a predetermined size and simultaneously generating and modifying caption data on a single screen, In which subtitle data is generated for each language but a single subtitle data can be produced by inserting translated text into tabs configured for different languages.
TV 프로그램에서의 자막은 이름과 직위, 장소, 시간 등을 나타내는 보조 자막과, 인터뷰 등 말하는 사람의 말을 그대로 적는 말 자막, 그리고 예능 프로그램 등에서 사실(말하는 사람의 의도)과 관계없이 단순히 재미를 위해 넣은 말풍선 자막 등이 있다.Subtitles in TV programs are simply for fun, regardless of the facts (intention of the person speaking), such as auxiliary subtitles for name, title, location, time, etc., And the words of the speech balloon.
또한, PC환경에서의 자막은 비디오 스트림 데이터가 기록된 파일 또는 네트웍 상에서 제공되는 비디오 스트림 데이터에 대하여 동기시간 정보를 기준으로 자막을 출력시키는 구조를 가진다.In addition, the subtitles in the PC environment have a structure for outputting subtitles on the basis of synchronous time information with respect to a file in which video stream data is recorded or video stream data provided on a network.
이러한 종래의 텍스트 기반 자막 파일은, 단지 자막이 화면에 나타나는 동기 시간(<sync time=00:00>)과 자막을 화면에 출력할 때의 폰트 모양, 크기, 색상 정보만을 고려하고 있다.Such a conventional text-based subtitle file only considers the synchronization time (< sync time = 00: 00 >) at which subtitles appear on the screen and the font shape, size, and color information at the time of outputting the subtitles to the screen.
자막데이터를 생성하는 선행기술로는 대한민국 등록특허 제10-0989503호(2005.05.13.공개), "자막 작성 방법 및 장치" 외에 다수의 기술들 개시된 바 있다.As a prior art for generating caption data, a number of techniques have been disclosed in addition to Korean Patent No. 10-0989503 (published on May 13, 2005), "Subtitle Creation Method and Apparatus".
도 1을 참조하여 선행특허에 대해 살피면, 저장 매체로부터 그래픽 자막 엘리먼트들을 포함하는 자막층 데이터를 검색하는 단계와, 검색된 상기 자막층 데이터로부터, 잘라내기 정보(RHC, RVC, RCH, RCW)를 추출하는 단계와, 표시할 자막 엘리먼트들의 부분들의 자동 잘라내기를 가능하게 하는 단계를 포함하도록 구성된다.Referring to FIG. 1, in the prior art, retrieving caption layer data including graphic caption elements from a storage medium, extracting crop information (RHC, RVC, RCH, RCW) from the retrieved caption layer data , And enabling automatic cropping of portions of the subtitle elements to be displayed.
전술한 바와 같은 선행기술의 자막 제작 과정은, 1) 세그먼트를 나누어 자막을 입력할 부분을 시간 단위로 끊어 편집을 하고 저장하는 과정, 2) 이를 편집한 유저가 웹 상에 업로드하면 유저들이 다국어로 자막을 작성하는 과정으로 이루어지기 때문에, 상기 1) 및 2) 두 과정이 병행적으로 이루어지지 않고 시간차순으로 분리되는 구조를 갖는다.The above-described process of producing a subtitle according to the prior art includes: 1) a process of dividing a segment into segments and inputting the subtitles in units of time, editing and storing the segment; 2) And subtitles are created. Therefore, the above-mentioned 1) and 2) processes are not performed in parallel but are separated in time order.
따라서, 세그먼트를 나누는 과정과 자막을 작성 및 수정하는 과정이 서로 호환되지 않으며, 세그먼트를 나눈 것이 잘못되었다 할지라도 세그먼트 수정을 자막 작성과 동시에 할 수 없다는 문제점이 있다.Therefore, the process of dividing the segment and the process of creating and modifying the subtitles are incompatible with each other, and even if the division of the segment is wrong, there is a problem that the segment modification can not be performed simultaneously with the subtitling.
또한, 자막을 제작하는 환경이 한정된 위치와 간단한 텍스트 서식으로만 이루어져 있으며 단순히 자막을 화면에 보이게 할 뿐, 자막의 위치 및 텍스트 서체를 유연하게 수정할 수 없기 때문에 심미적인 연출을 구현하기 어려운 문제점이 있다.In addition, since the subtitle is made only in a limited position and a simple text format, the subtitle is displayed on the screen, and the position of the subtitle and the text typeface can not be flexibly modified, so that it is difficult to implement an aesthetic presentation .
그리고, 각기 상이한 언어마다 별도의 자막을 제작해 언어별로 자막데이터를 제작 및 수정해야만 하기 때문에, 언어별로 각기 따로 자막파일을 만들어야 하는 번거로움이 있다.In addition, since subtitle data for each language must be produced and modified for each language by producing separate subtitle for each language, it is troublesome to create a subtitle file separately for each language.
한편, 영상에 더빙을 입히는 방식에는 직접 육성으로 읽는 방식 이외에, TTS(Text To Speech) 엔진을 이용하여 더빙을 입히는 기술이 있다.On the other hand, there is a technique of dubbing images using a TTS (Text To Speech) engine in addition to a method of direct reading.
종래에는 특정한 텍스트를 입력하면 다른 목소리의 남자, 여자의 기계음성으로 텍스트를 읽어주는 방식으로 운용되고 있다.Conventionally, when a specific text is inputted, it is operated in such a way that texts are read by the voice of a man or woman of another voice.
그러나, 텍스트를 기계음으로 바로 변환해서 들으면 음절이 끊기거나 튀는 등 부자연스럽게 들리는 문제점이 있다.However, there is a problem that when the text is directly converted into a mechanical tone and heard, the syllable is annihilated such as a broken or bouncing of the syllable.
또한, 미리 셋팅되어 있는 목소리에서 음의 높낮이나 빠르기 등을 조정할 수 없어 단순히 텍스트를 음성으로 변환하여 들려줄 뿐으로 상황연출이나 감정연출 등의 다양한 효과를 내기 어려운 문제점이 있다.In addition, since it is not possible to adjust the pitch or speed of the sound in the preset voice, it is difficult to achieve various effects such as a situation directing and an emotional directing by simply converting the text into a voice.
본 발명의 목적은, 영상데이터를 일정 크기의 세그먼트로 분할하고, 자막데이터 생성 및 수정을 단일 화면에서 동시에 가능한 작업환경을 제공함으로써, 세그먼트 분할 및 자막데이터 생성을 시계열적으로 분리됨 없이 단일화면에서 병행하여 수행하도록 하는데 그 목적이 있다.It is an object of the present invention to provide a work environment capable of dividing image data into segments of a predetermined size and simultaneously generating and modifying the caption data on a single screen so that segment segmentation and caption data generation are performed in parallel on a single screen This is the purpose of the
또한, 본 발명의 목적은, 세그먼트 분할된 영상에 중첩시킬 자막데이터에 대한 드래그 기능을 제공함으로써, 영상에서 즉각적인 자막데이터 위치의 수정이 가능하게 하는데 그 목적이 있다.It is also an object of the present invention to provide a drag function for subtitle data to be superimposed on a segmented video so as to enable immediate modification of the position of the subtitle data in the video.
또한, 본 발명의 목적은, 세그먼트 분할된 영상에 중첩시킬 자막데이터에 대한 연출효과(날아오기, 사라지기, 나타나기 또는 흔들기), 서체 및 서식에 대한 수정이 가능하게 함으로써, 자막데이터에 대한 유연한 수정과 심미적인 연출이 가능하게 하는데 그 목적이 있다.It is also an object of the present invention to provide a flexible modification to caption data by allowing a rendering effect (flying, disappearing, appearing, or waving) on caption data to be superimposed on the segmented image, And to make aesthetic presentation possible.
또한, 본 발명의 목적은, 세그먼트 분할된 영상에 자막데이터를 삽입함과 동시에 오디오 녹음을 통해 더빙을 입히는 기능을 제공함으로써, 자막데이터에 사운드효과 연출 및 삽입이 가능하게 하는데 그 목적이 있다.It is another object of the present invention to provide a function of inserting caption data in a segmented image and dubbing audio through audio recording, thereby enabling to produce and insert a sound effect in caption data.
또한, 본 발명의 목적은, 영상 및 영상과 동기화한 자막데이터를 병합하고, 로컬PC 또는 웹에 업로드/다운로드 가능하게 함으로써, 별도의 자막파일 없이 자막데이터가 삽입된 단일 영상으로 시청이 가능하게 하는데 그 목적이 있다.It is another object of the present invention to make it possible to view a single image in which subtitle data is embedded without a separate subtitle file by merging the subtitle data synchronized with the video and the video and uploading / It has its purpose.
또한, 본 발명의 목적은, 각기 상이한 언어별로 구성된 탭에 번역된 텍스트를 삽입하는 형태로 단일 자막데이터의 제작이 가능하게 함으로써, 각기 상이한 언어마다 별도의 자막을 제작해 언어별로 자막데이터를 생성해야만 하는 번거로움을 미연에 방지하는데 그 목적이 있다.It is another object of the present invention to make it possible to produce single caption data by inserting translated text into tabs configured for different languages, thereby producing separate captions for different languages and generating caption data for each language The purpose of this is to prevent the hassle of hiring.
그리고, 본 발명의 목적은, TTS엔진을 이용하여 변환된 음성파일에, 연출효과를 셋팅하여 목소리의 성격을 설정하되, 남자 또는 여자 목소리 중에서 선택을 한 후, 목소리의 높낮이와 빠르기, 에코효과 등의 효과를 조정할 수 있는 이퀄라이저 기능을 제공함으로써, 목소리를 보다 자연스럽게 조정하고 이로 인해 목소리로 특정 상황연출이나 감정연출을 용이하게 하는데 그 목적이 있다.The object of the present invention is to set the tone of a voice by setting a rendering effect on a voice file converted using a TTS engine, and selecting a voice from a male voice or a female voice, The effect of the equalizer can be adjusted to provide a more natural voice to adjust the voice and therefore to direct a specific situation and emotions are intended to facilitate.
이러한 기술적 과제를 달성하기 위한 본 발명의 단일 화면에서의 자막데이터 편집 시스템은, 로컬PC에 저장된 영상데이터 또는 온라인 플랫폼에 업로드된 영상데이터를 색인하여 화면 구성부에 출력하는 영상 색인부; 영상데이터를 입력값과 대응하는 길이의 세그먼트로 분할하고, 세그먼트 분할된 영상을 화면 구성부에 출력하는 영상 분할부; 및 세그먼트 분할된 영상 각각에 삽입할 텍스트들을 입력받아 동기화시켜 자막데이터를 생성하되, 자막데이터를 드래그 앤 드롭된 좌표와 대응하도록 세그먼트 분할된 영상에 중첩시켜 화면 구성부에 출력하는 자막 편집부;를 포함한다.According to another aspect of the present invention, there is provided a caption data editing system for a single screen, comprising: an image index unit for indexing image data stored in a local PC or image data uploaded to an online platform and outputting the indexed image data to a screen configuration unit; A video divider dividing the video data into segments each having a length corresponding to an input value and outputting the segmented video to a screen configuration unit; And a subtitle editor for generating caption data by receiving and synchronizing the texts to be inserted into each of the segmented images and superimposing the caption data on the segmented images so as to correspond to the dragged and dropped coordinates and outputting them to the screen composing unit do.
또한, 자막 편집부는, 입력받은 이벤트 값과 대응하도록 세그먼트 분할된 영상에 중첩시킬 자막데이터의 출력을 제어하는 것을 특징으로 한다.The caption editing unit controls the output of the caption data to be superimposed on the segmented image so as to correspond to the input event value.
또한, 이벤트 값은, 세그먼트 분할된 영상 내에서 자막데이터에 포함된 텍스트에 대한 날아오기, 사라지기, 나타나기 또는 흔들기 중에 어느 하나를 포함하는 애니메이션 효과, 및 텍스트에 대한 글꼴, 크기 또는 색상 중에 어느 하나를 포함하는 서식 효과를 출력하기 위한 값인 것을 특징으로 한다.In addition, the event value may be an animation effect including any one of flying, disappearing, appearing, or shaking of the text included in the subtitle data within the segmented video, and any one of the font, The formatting effect is a value for outputting the formatting effect.
또한, 자막 편집부는, 세그먼트 분할된 영상에 삽입할 텍스트를 입력받되, 기 설정된 언어별 라이브러리에 복수개의 언어 각각에 대한 텍스트를 입력받아 단일 자막데이터를 생성하는 것을 특징으로 한다.The subtitle editing unit receives the text to be inserted into the segmented video, and receives text for each of a plurality of languages in a predetermined language library, and generates a single subtitle data.
또한, 자막 편집부는, 세그먼트 분할된 영상에 기 설정된 사운드 데이터 또는 입력받은 사운드 데이터를 삽입하여 영상데이터 재생시 삽입된 사운드가 출력되도록 더빙 기능을 제공하는 것을 특징으로 한다.The subtitle editing unit may further include a dubbing function for inserting predetermined sound data or input sound data into the segmented image and outputting the sound inserted when the image data is reproduced.
또한, 자막 편집부는, 세그먼트 분할된 영상에 삽입될 사운드 데이터 또는 삽입된 사운드 데이터를 출력하여 미리듣기가 가능한 것을 특징으로 한다.In addition, the subtitle editing unit outputs sound data to be inserted into the segmented image or inserted sound data so that the sound data can be previewed beforehand.
또한, 영상데이터에 자막데이터를 시계열적으로 병합하여 단일 파일로 생성하는 자막 병합부; 및 단일 파일을 로컬PC 또는 온라인 플랫폼에 업로드 하는 자막 전송부;를 더 포함한다.A subtitle merging unit for merging subtitle data in the video data in a time series to generate a single file; And a caption transmission unit for uploading a single file to a local PC or an online platform.
그리고, 자막 편집부는, 입력받은 텍스트를 음성파일로 변환하고, 변환한 음성파일에 기 설정된 연출효과를 삽입하여 더빙하는 것을 특징으로 한다.The subtitle editing unit converts the input text into an audio file, and inserts a predetermined rendering effect into the converted audio file to perform dubbing.
전술한 시스템을 기반으로 하는 본 발명의 단일 화면에서의 자막데이터 편집 방법은, 영상 색인부가 로컬PC에 저장된 영상데이터 또는 온라인 플랫폼에 업로드된 영상데이터를 색인하는 (a) 단계; 영상 분할부가 영상데이터를 입력값과 대응하는 길이의 세그먼트로 분할하는 (b) 단계; 자막 편집부가 세그먼트 분할된 영상 각각에 삽입할 텍스트들을 입력받아 동기화시켜 자막데이터를 생성하는 (c) 단계; 자막 병합부가 영상데이터 및 자막데이터를 시계열적으로 병합하여 단일 파일로 생성하는 (d) 단계; 및 자막 전송부가 단일 파일을 로컬PC 또는 온라인 플랫폼에 업로드하는 (e) 단계;를 포함한다.The method of editing subtitle data on a single screen of the present invention based on the system described above comprises the steps of: (a) indexing image data stored in a local PC or image data uploaded to an online platform; (B) dividing the image data into a segment having a length corresponding to an input value; (C) generating caption data by receiving and synchronizing texts to be inserted into segmented images, respectively, by a caption editing unit; (D) generating a single file by merging subtitle image data and caption data in a time series manner; And (e) the subtitle transmission unit uploads a single file to a local PC or an online platform.
또한, (c) 단계 이후, 자막 편집부가 자막데이터를 드래그 앤 드롭된 좌표와 대응하도록 세그먼트 분할된 영상에 중첩하는 (f) 단계; 및 자막 편집부가 입력받은 이벤트 값과 대응하도록 세그먼트 분할된 영상에 중첩시킬 자막데이터의 출력을 제어하는 (g) 단계;를 포함한다.In the step (c), the subtitle editing unit superimposes the caption data on the segmented image so as to correspond to the dragged and dropped coordinates; And (g) controlling output of the subtitle data to be superimposed on the segmented image so that the subtitle editing unit corresponds to the input event value.
또한, (c) 단계 이후, 자막 편집부가 세그먼트 분할된 영상에 기 설정된 사운드 데이터를 삽입할 것인지 또는 입력받은 사운드 데이터를 삽입할 것인지 여부를 판단하는 (h) 단계; (h) 단계의 판단결과, 기 설정된 사운드 데이터를 삽입하는 경우, 자막 편집부가 기 저장된 오디오 파일을 색인하여 세그먼트 분할된 영상에 삽입하는 (i) 단계; 및 (h) 단계의 판단결과, 입력받은 사운드 데이터를 삽입하는 경우, 자막 편집부가 실시간으로 녹음한 오디오 파일을 세그먼트 분할된 영상에 삽입하는 (j) 단계;를 포함한다.(H) determining whether the subtitle editing unit inserts preset sound data or inserted sound data into a segmented image after step (c); (i) inserting the pre-stored audio file into the segmented image by inserting the pre-stored audio data into the segmented image when the preset sound data is inserted as a result of the determination in step (h); And (j) inserting the audio file recorded in real time by the subtitle editing unit into the segmented image when inserting the received sound data as a result of the determination in step (h).
그리고, (c) 단계 이후, 자막 편집부가 입력받은 텍스트를 TTS엔진을 통해 음성파일로 변환하는 (k) 단계; 자막 편집부가 목소리의 높낮이, 빠르기 또는 에코 중에 어느 하나의 효과를 조정하는 이퀄라이저 값을 입력받는 (l) 단계; 및 자막 편집부가 변환된 음성파일의 음질을 보정하여 생성한 오디오 파일을 세그먼트 분할된 영상에 삽입하는 (m) 단계;를 포함한다.(K) converting the text input by the subtitle editing unit into a voice file through the TTS engine after step (c); (L) inputting an equalizer value for adjusting the effect of any one of a pitch, a speed, and an echo of a voice; And inserting (m) the audio file generated by correcting the sound quality of the converted audio file into a segmented image by the subtitle editing unit.
상기와 같은 본 발명에 따르면, 영상데이터를 일정 크기의 세그먼트로 분할하고, 자막데이터 생성 및 수정을 단일 화면에서 동시에 가능한 작업환경을 제공함으로써, 세그먼트 분할 및 자막데이터 생성을 시계열적으로 분리됨 없이 단일화면에서 병행하여 수행이 가능한 효과가 있다.According to the present invention, segmentation of image data into segments of a predetermined size and generation and correction of subtitle data can be simultaneously performed on a single screen, thereby providing segmentation and subtitle data generation in a single screen It is possible to perform the operation in parallel.
또한, 본 발명에 따르면, 세그먼트 분할된 영상에 중첩시킬 자막데이터에 대한 드래그 기능을 제공함으로써, 영상에서 즉각적인 자막데이터 위치의 수정이 가능한 효과가 있다.Further, according to the present invention, the dragging function for the caption data to be superimposed on the segmented image is provided, whereby the position of the caption data can be instantly corrected in the image.
또한, 본 발명에 따르면, 세그먼트 분할된 영상에 중첩시킬 자막데이터에 대한 연출효과(날아오기, 사라지기, 나타나기 또는 흔들기), 서체 및 서식에 대한 수정이 가능하게 함으로써, 자막데이터에 대한 유연한 수정과 심미적인 연출이 가능한 효과가 있다.Further, according to the present invention, it is possible to modify the caption data to be superimposed on the segmented image, to modify the caption data, There is an effect that aesthetic production can be done.
또한, 본 발명에 따르면, 세그먼트 분할된 영상에 자막데이터를 삽입함과 동시에 오디오 녹음을 통해 더빙을 입히는 기능을 제공함으로써, 자막데이터에 사운드효과 연출 및 삽입이 가능한 효과가 있다.In addition, according to the present invention, there is an effect that a sound effect can be produced and inserted into caption data by providing a function of inserting caption data into a segmented image and dubbing through audio recording.
또한, 본 발명에 따르면, 영상 및 영상과 동기화한 자막데이터를 병합하고, 로컬PC 또는 온라인 플랫폼에 업로드/다운로드 가능하게 함으로써, 별도의 자막파일 없이 자막데이터가 삽입된 단일 영상으로 시청이 가능하게 하는 효과가 있다.In addition, according to the present invention, caption data synchronized with a video and an image can be merged and uploaded / downloaded to a local PC or an online platform, thereby making it possible to view a single video in which caption data is inserted without a separate caption file It is effective.
그리고, 본 발명에 따르면, 각기 상이한 언어별로 구성된 탭에 번역된 텍스트를 삽입하는 형태로 단일 자막데이터의 제작이 가능하게 함으로써, 각기 상이한 언어마다 별도의 자막을 제작해 언어별로 자막데이터를 생성해야만 하는 번거로움을 미연에 방지하는 효과가 있다.According to the present invention, it is possible to produce single caption data by inserting translated text into tabs configured for different languages, thereby producing separate captions for different languages and generating caption data for each language There is an effect of preventing troublesome from occurring.
도 1은 종래의 자막 작성 방법 및 장치를 도시한 도면.
도 2는 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템을 도시한 구성도.
도 3은 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템의 영상 분할부에 대한 세부기능을 도시한 도면.
도 4는 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템의 자막 편집부에 의해 생성된 자막데이터가 세그먼트 분할된 영상에 드래그 앤 드롭되는 것을 도시한 예시도.
도 5는 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템의 자막 편집부가 기 설정된 언어별 라이브러리에 복수개의 언어 각각에 대한 텍스트를 입력받는 것을 도시한 예시도.
도 6은 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템의 자막 편집부가 세그먼트 분할된 영상에 삽입할 오디오에 대한 검색, 녹음 및 미리듣기 기능을 수행하는 것을 도시한 예시도.
도 7은 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템의 자막 병합부 및 자막 전송부를 도시한 구성도.
도 8은 본 발명에 따른 단일 화면에서의 자막데이터 편집 방법을 도시한 순서도.
도 9는 본 발명에 따른 단일 화면에서의 자막데이터 편집 방법의 제S30단계 이후 및 제S40단계 이전 과정을 도시한 순서도.
도 10은 본 발명에 따른 단일 화면에서의 자막데이터 편집 방법의 제S30단계 이후 및 제S40단계 이전의 또 다른 과정을 도시한 순서도.1 is a diagram showing a conventional subtitle creation method and apparatus.
FIG. 2 is a block diagram showing a caption data editing system in a single screen according to the present invention. FIG.
FIG. 3 is a detailed functional diagram of a video segmenting unit of a caption data editing system in a single screen according to the present invention. FIG.
FIG. 4 is a diagram illustrating an example in which caption data generated by a caption editing unit of a caption data editing system in a single screen according to the present invention is dragged and dropped onto a segmented image. FIG.
5 is a diagram illustrating an example in which a caption editing unit of a caption data editing system in a single screen according to the present invention receives texts for a plurality of languages in a predetermined language library.
FIG. 6 is a diagram illustrating an example in which a subtitle editing unit of a caption data editing system in a single screen according to the present invention performs search, recording, and preview functions for audio to be inserted into segmented video.
FIG. 7 is a block diagram illustrating a caption merging unit and a caption transmitting unit of a caption data editing system in a single screen according to the present invention; FIG.
8 is a flowchart showing a method of editing caption data in a single screen according to the present invention.
FIG. 9 is a flowchart showing steps after step S30 and step before step S40 of a method of editing caption data in a single screen according to the present invention. FIG.
FIG. 10 is a flowchart showing still another process after step S30 and step S40 of the method of editing caption data in a single screen according to the present invention. FIG.
본 발명의 구체적인 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다. 또한, 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. Prior to this, terms and words used in the present specification and claims are to be interpreted in accordance with the technical idea of the present invention based on the principle that the inventor can properly define the concept of the term in order to explain his invention in the best way. It should be interpreted in terms of meaning and concept. It is to be noted that the detailed description of known functions and constructions related to the present invention is omitted when it is determined that the gist of the present invention may be unnecessarily blurred.
도 2에 도시된 바와 같이, 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템(S)은, 화면 구성부(10), 영상 색인부(20), 영상 분할부(30) 및 자막 편집부(40)를 포함하여 구성된다.2, the caption data editing system S in a single screen according to the present invention includes a
먼저, 화면 구성부(10)는 기 설정된 영역에 영상 색인부(20), 영상 분할부(30) 및 자막 편집부(40) 각각을 디스플레이 한다.First, the
또한, 영상 색인부(20)는 로컬PC에 저장된 영상데이터 또는 온라인 플랫폼에 업로드된 영상데이터를 색인하여 화면 구성부(10)에 출력한다.Also, the
또한, 영상 분할부(30)는 영상 색인부(20)로부터 인가받은 영상데이터를 입력값과 대응하는 길이의 세그먼트로 분할하고, 세그먼트 분할된 영상을 화면 구성부(10)에 출력한다.The
예컨대, 도 3에 도시된 바와 같이 입력값이 2.4초의 길이인 경우, 시작점 세그먼트 #1과 대응하는 영상데이터를 분할하고, 시작점으로부터 2.4초 경과한 지점의 세그먼트 #2와 대응하는 영상데이터를 분할하도록 구성될 수 있다.For example, if the input value is 2.4 seconds long as shown in FIG. 3, the image data corresponding to the starting point segment # 1 is divided, and the image data corresponding to the segment # 2 at the point 2.4 seconds elapsed from the starting point is divided Lt; / RTI >
이때, 세그먼트 분할 길이는 그 시작점으로부터 끝점이 0.1초 내지 5초 단위로 분할되되, 기 설정된 단위 또는 입력받은 드래그 값과 대응하는 길이로 분할된다.At this time, the segment division length is divided into a predetermined unit or a length corresponding to the input drag value, in which the end point is divided in units of 0.1 second to 5 seconds from the start point thereof.
한편, 자막 편집부(40)는 세그먼트 분할된 영상 각각에 삽입할 텍스트들을 입력받아 동기화시켜 자막데이터를 생성하되, 도 4에 도시된 바와 같이 자막데이터를 드래그 앤 드롭된 좌표와 대응하도록 세그먼트 분할된 영상에 중첩시켜 화면 구성부(10)에 출력한다.Meanwhile, the
또한, 자막 편집부(40)는 도 4에 도시된 바와 같이 입력받은 이벤트 값과 대응하도록 세그먼트 분할된 영상에 중첩시킬 자막데이터의 출력을 제어한다.In addition, the
이때, 이벤트 값은 세그먼트 분할된 영상 내에서 자막데이터에 포함된 텍스트에 대한 날아오기, 사라지기, 나타나기 또는 흔들기 중에 어느 하나를 포함하는 애니메이션 효과, 및 텍스트에 대한 글꼴, 크기 또는 색상 중에 어느 하나를 포함하는 서식 효과를 출력하기 위한 값이다.In this case, the event value may be an animation effect including any one of flying, disappearing, appearing, or waving the text included in the subtitle data in the segmented image, and a font, size, This is a value for outputting the formatting effect included.
또한, 자막 편집부(40)는 세그먼트 분할된 영상에 삽입할 텍스트를 입력받되, 도 5에 도시된 바와 같이 기 설정된 언어별 라이브러리에 복수 개의 언어 각각에 대한 텍스트를 입력받아 단일 자막데이터를 생성할 수 있다.In addition, the
따라서, 각기 상이한 언어마다 별도의 자막을 제작해 언어별로 자막데이터를 생성하는 것이 아니라, 사용자가 하나의 자막데이터 내에서 디스플레이를 원하는 언어를 선택하고, 선택된 자막이 포함된 영상의 시청이 가능하다.Therefore, instead of generating separate subtitles for different languages and generating subtitle data for each language, the user can select a language desired to be displayed in one subtitle data, and can view an image including the selected subtitle.
또한, 자막 편집부(40)는 세그먼트 분할된 영상에 기 설정된 사운드 데이터 또는 입력받은 사운드 데이터를 삽입하여 영상데이터 재생시 삽입된 사운드가 출력되도록 더빙(dubbing) 기능을 제공한다.In addition, the
이때, 입력받은 사운드 데이터는 기 저장된 음원, 배경음, 효과음 또는 실시간 녹음을 통해 입력받은 오디오 중에 어느 하나를 포함한다.At this time, the input sound data includes any one of pre-stored sound source, background sound, effect sound, or audio input through real-time recording.
또한, 자막 편집부(40)는 입력받은 텍스트를 TTS엔진을 통해 음성파일로 변환하고, 변환한 음성파일에 기 설정된 연출효과를 셋팅하여 목소리의 성격을 입히는 형태로 더빙하도록 구성된다.The
이때, 자막 편집부(40)가 남자 또는 여자 목소리 중에서 어느 하나의 선택을 입력받은 후, 이퀄라이저(equalizer) 기능의 주파수 분할 음질 보정을 통해 목소리의 높낮이와 빠르기, 및 에코효과 등의 효과를 조정함으로써, 더빙한 목소리를 보다 자연스럽게 조정할 수 있다.At this time, after the
또한, 자막 편집부(40)는 도 6에 도시된 바와 같이, 화면 구성부(10)에 구비된 오디오 검색 버튼에 대한 클릭신호에 따라 기 저장된 오디오 파일을 색인하여 세그먼트 분할된 영상에 삽입하도록 구성된다.6, the
또한, 자막 편집부(40)는 도 6에 도시된 바와 같이, 화면 구성부(10)에 구비된 녹음 버튼에 대한 클릭신호에 따라 실시간으로 녹음한 오디오 파일을 세그먼트 분할된 영상에 삽입하도록 구성된다.6, the
그리고, 자막 편집부(40)는 도 6에 도시된 바와 같이, 화면 구성부(10)에 구비된 미리듣기 버튼에 대한 클릭신호를 입력받아 세그먼트 분할된 영상에 삽입될 사운드 데이터 또는 삽입된 사운드 데이터를 출력하도록 구성된다.6, the
아울러, 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템(S)은, 도 7에 도시된 바와 같이 영상 색인부(20)가 색인한 영상데이터에 자막 편집부(40)가 생성한 자막데이터를 시계열적으로 병합하여 단일 파일로 생성하는 자막 병합부(50)와, 자막 병합부(50)가 생성한 단일 파일을 로컬PC 또는 온라인 플랫폼에 업로드/다운로드 하는 자막 전송부(60)를 더 포함하여 구성된다.In addition, the subtitle data editing system S on a single screen according to the present invention can display subtitle data generated by the
이때, 자막 병합부(50)는 화면 구성부(10)에 구비된 병합 버튼에 대한 클릭신호를 입력받아 영상데이터 및 자막데이터를 단일 파일로 생성하고, 자막 전송부(60)는 화면 구성부(10)에 구비된 완료 버튼에 대한 클릭신호를 입력받아 상기 단일 파일을 로컬PC 또는 온라인 플랫폼에 업로드/다운로드하도록 구성된다.At this time, the
이하, 도 8을 참조하여 본 발명에 따른 단일 화면에서의 자막데이터 편집 방법에 대해 살피면 아래와 같다.Hereinafter, a subtitle data editing method in a single screen according to the present invention will be described with reference to FIG.
이하에서는 그 구체적인 언급을 생략하겠으나, 본 발명에 따른 영상 색인부(20), 영상 분할부(30), 자막 편집부(40), 자막 병합부(50) 및 자막 전송부(60) 각각에 대한 조작은 화면 구성부(10)에 기 설정된 영역에서 수행되는 것으로 이해함이 바람직하다.The detailed operation of the
먼저, 영상 색인부(20)가 로컬PC에 저장된 영상데이터 또는 온라인 플랫폼에 업로드된 영상데이터를 색인한다(S10).First, the
이어서, 영상 분할부(30)가 영상데이터를 입력값과 대응하는 길이의 세그먼트로 분할한다(S20).Subsequently, the
뒤이어, 자막 편집부(40)가 세그먼트 분할된 영상 각각에 삽입할 텍스트들을 입력받아 동기화시켜 자막데이터를 생성한다(S30).Subsequently, the
이어서, 자막 병합부(50)가 영상데이터 및 자막데이터를 시계열적으로 병합하여 단일 파일로 생성한다(S40).Subsequently, the
그리고, 자막 전송부(60)가 단일 파일을 로컬PC 또는 온라인 플랫폼에 업로드 한다(S50).Then, the
이하, 도 9를 참조하여 본 발명에 따른 단일 화면에서의 자막데이터 편집 방법의 제S30단계 이후 제S40단계 이전 과정을 살피면 아래와 같다.Hereinafter, steps S30 to S40 of the subtitle data editing method for a single screen according to the present invention will be described with reference to FIG. 9 as follows.
제S30단계 이후, 자막 편집부(40)가 자막데이터를 드래그 앤 드롭된 좌표와 대응하도록 세그먼트 분할된 영상에 중첩시킨다(S60).After the operation S30, the
그리고, 자막 편집부(40)가 입력받은 이벤트 값과 대응하도록 세그먼트 분할된 영상에 중첩시킬 자막데이터의 출력을 제어한다(S70).Subsequently, the
이하, 도 10을 참조하여 본 발명에 따른 단일 화면에서의 자막데이터 편집 방법의 제S30단계 이후 제S40단계 이전의 또 다른 과정을 살피면 아래와 같다.Hereinafter, another process of steps S30 to S40 of the method of editing caption data on a single screen according to the present invention will be described with reference to FIG. 10 as follows.
제S30단계 이후, 자막 편집부(40)가 세그먼트 분할된 영상에 기 설정된 사운드 데이터를 삽입할 것인지 또는 입력받은 사운드 데이터를 삽입할 것인지 여부를 판단한다(S80).After step S30, the
제S80단계의 판단결과, 기 설정된 사운드 데이터를 삽입하는 경우, 자막 편집부(40)가 기 저장된 오디오 파일을 색인하여 세그먼트 분할된 영상에 삽입한다(S81).As a result of the determination in step S80, when the preset sound data is inserted, the
제S80단계의 판단결과, 입력받은 사운드 데이터를 삽입하는 경우, 자막 편집부(40)가 실시간으로 녹음한 오디오 파일을 세그먼트 분할된 영상에 삽입한다(S82).As a result of the determination in operation S80, when the input sound data is inserted, the
그리고, 본 발명에 따른 단일 화면에서의 자막데이터 편집 방법의 제S30단계 이후 제S40단계 이전의 또 다른 과정을 살피면 아래와 같다.Hereinafter, another process of steps S30 to S40 of the subtitle data editing method in a single screen according to the present invention will be described.
제S30단계 이후, 자막 편집부가 입력받은 텍스트를 TTS엔진을 통해 음성파일로 변환한다.After step S30, the subtitle editing unit converts the inputted text into a voice file through the TTS engine.
이어서, 자막 편집부가 목소리의 높낮이, 빠르기 또는 에코 중에 어느 하나의 효과를 조정하는 이퀄라이저 값을 입력받는다.Subsequently, the subtitle editing unit receives an equalizer value for adjusting any one of the pitch, the speed, and the echo of the voice.
그리고, 자막 편집부가 변환된 음성파일의 음질을 보정하여 생성한 오디오 파일을 세그먼트 분할된 영상에 삽입한다.Then, the subtitle editing unit corrects the sound quality of the converted audio file and inserts the generated audio file into the segmented image.
정리하면, 본 발명에 따른 단일 화면에서의 자막데이터 편집 시스템 및 방법은, 영상데이터를 일정 크기의 세그먼트로 분할하고, 자막데이터 생성 및 수정을 단일 화면에서 동시에 가능한 작업환경을 제공함으로써, 세그먼트 분할 및 자막데이터 생성을 시계열적으로 분리됨 없이 단일화면에서 병행하여 수행이 가능하며, 세그먼트 분할된 영상에 중첩시킬 자막데이터에 대한 드래그 기능을 제공함으로써, 영상에서 즉각적인 자막데이터 위치의 수정이 가능함은 물론, 세그먼트 분할된 영상에 자막데이터를 삽입함과 동시에 오디오 녹음을 통해 더빙을 입히는 기능을 통해 자막데이터에 사운드효과 연출 및 삽입이 가능하다.In summary, the system and method for editing subtitle data in a single screen according to the present invention divides video data into segments of a predetermined size and provides a working environment capable of simultaneously generating and modifying subtitle data on a single screen, The subtitle data generation can be performed in parallel on a single screen without being separated in a time series manner and the dragging function for the subtitle data to be superimposed on the segmented image can be provided so that the position of the subtitle data can be instantly modified in the image, Insertion of subtitle data into a segmented image and dubbing through audio recording are possible to produce and insert a sound effect in caption data.
이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등한 것들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be appreciated by those skilled in the art that numerous changes and modifications may be made without departing from the invention. Accordingly, all such appropriate changes and modifications and equivalents may be resorted to, falling within the scope of the invention.
S: 단일 화면에서의 자막데이터 편집 시스템
10: 화면 구성부 20: 영상 색인부
30: 영상 분할부 40: 자막 편집부
50: 자막 병합부 60: 자막 전송부S: Subtitle data editing system on single screen
10: Screen constitution unit 20: Image index unit
30: Video divider 40: Subtitle editor
50: subtitle merging unit 60: subtitle transmission unit
Claims (12)
로컬PC에 저장된 영상데이터 또는 온라인 플랫폼에 업로드된 영상데이터를 색인하여 화면 구성부에 출력하는 영상 색인부;
상기 영상데이터를 입력값과 대응하는 길이의 세그먼트로 분할하고, 세그먼트 분할된 영상을 상기 화면 구성부에 출력하는 영상 분할부;
상기 세그먼트 분할된 영상 각각에 삽입할 텍스트들을 입력받아 동기화시켜 자막데이터를 생성하되, 상기 자막데이터를 드래그 앤 드롭된 좌표와 대응하도록 세그먼트 분할된 영상에 중첩시켜 상기 화면 구성부에 출력하는 자막 편집부;
기 설정된 영역에 상기 영상 색인부, 영상 분할부 및 자막 편집부 각각을 디스플레이 하는 화면 구성부;
상기 영상데이터에 상기 자막데이터를 시계열적으로 병합하여 단일 파일로 생성하는 자막 병합부; 및
상기 단일 파일을 로컬PC 또는 온라인 플랫폼에 업로드 하는 자막 전송부를 포함하되,
상기 자막 편집부는,
상기 세그먼트 분할된 영상에 기 설정된 사운드 데이터 또는 입력받은 사운드 데이터를 삽입하여 영상데이터 재생시 삽입된 사운드가 출력되도록 더빙 기능을 제공하고, 남자 또는 여자 목소리 중에서 어느 하나의 선택을 입력받은 후, 이퀄라이저(equalizer) 기능의 주파수 분할 음질 보정을 통해 목소리의 높낮이와 빠르기, 및 에코효과 조정을 통해 더빙한 목소리를 조정하며, 하나의 자막데이터 내에서 디스플레이를 원하는 언어를 선택하고, 영상 데이터에 선택한 자막을 포함시키고,
상기 자막 병합부는,
상기 화면 구성부에 구비된 병합 버튼에 대한 클릭신호를 입력받아 영상데이터 및 자막데이터를 단일 파일로 생성하고,
상기 자막 전송부는,
상기 화면 구성부에 구비된 완료 버튼에 대한 클릭신호를 입력받아 상기 단일 파일을 로컬PC 또는 온라인 플랫폼에 업로드/다운로드 하는 것을 특징으로 하는 단일 화면에서의 자막데이터 편집 시스템.In the subtitle editing system,
An image index unit for indexing image data stored in a local PC or image data uploaded to an online platform and outputting the indexed image data to a screen configuration unit;
A video divider dividing the video data into segments each having a length corresponding to an input value, and outputting a segmented video to the screen configuration unit;
A subtitle editing unit for generating subtitle data by receiving and synchronizing texts to be inserted into each of the segmented images, superimposing the subtitle data on a segmented image corresponding to the dragged and dropped coordinates and outputting to the screen configuration unit;
A screen forming unit displaying the image indexing unit, the image dividing unit, and the caption editing unit in a predetermined area;
A subtitle merging unit for merging the subtitle data into the video data in a time series manner to generate a single file; And
And a subtitle transmission unit for uploading the single file to a local PC or an online platform,
The subtitle editing unit,
And a dubbing function for inserting predetermined sound data or input sound data into the segmented image and outputting a sound inserted when the image data is reproduced. The apparatus of claim 1, equalizer function adjusts the dubbed voice by adjusting the pitch and pitch of the voice and the echo effect through the voice quality correction of the voice, selects the language desired to be displayed in one caption data, and includes the selected caption in the video data And,
Wherein the subtitle-
The image data and the caption data are generated as a single file by receiving a click signal for the merge button provided in the screen configuration unit,
Wherein the subtitle transmission unit comprises:
Wherein the control unit receives a click signal for a completion button provided in the screen configuration unit and uploads / downloads the single file to a local PC or an online platform.
상기 자막 편집부는,
입력받은 이벤트 값과 대응하도록 세그먼트 분할된 영상에 중첩시킬 자막데이터의 출력을 제어하는 것을 특징으로 하는 단일 화면에서의 자막데이터 편집 시스템.The method according to claim 1,
The subtitle editing unit,
And outputting the caption data to be superimposed on the segmented image so as to correspond to the input event value.
상기 이벤트 값은,
상기 세그먼트 분할된 영상 내에서 자막데이터에 포함된 텍스트에 대한 날아오기, 사라지기, 나타나기 또는 흔들기 중에 어느 하나를 포함하는 애니메이션 효과, 및 텍스트에 대한 글꼴, 크기 또는 색상 중에 어느 하나를 포함하는 서식 효과를 출력하기 위한 값인 것을 특징으로 하는 단일 화면에서의 자막데이터 편집 시스템.3. The method of claim 2,
The event value may be,
An animation effect including any one of flying, disappearing, appearing, or shaking of text included in the caption data in the segmented video, and a formatting effect including any one of font, size, Is a value for outputting the subtitle data.
상기 자막 편집부는,
상기 세그먼트 분할된 영상에 삽입할 텍스트를 입력받되,
기 설정된 언어별 라이브러리에 복수개의 언어 각각에 대한 텍스트를 입력받아 단일 자막데이터를 생성하는 것을 특징으로 하는 단일 화면에서의 자막데이터 편집 시스템.The method according to claim 1,
The subtitle editing unit,
A text to be inserted into the segmented image is inputted,
And generating a single caption data by receiving a text for each of a plurality of languages in a predetermined language library.
상기 자막 편집부는,
상기 세그먼트 분할된 영상에 삽입될 사운드 데이터 또는 삽입된 사운드 데이터를 출력하여 미리듣기가 가능한 것을 특징으로 하는 단일 화면에서의 자막데이터 편집 시스템.The method according to claim 1,
The subtitle editing unit,
Wherein the sound data to be inserted into the segmented image or the inserted sound data is outputted and previewed.
상기 자막 편집부는,
입력받은 텍스트를 음성파일로 변환하고, 변환한 음성파일에 기 설정된 연출효과를 삽입하여 더빙하는 것을 특징으로 하는 단일 화면에서의 자막데이터 편집 시스템.The method according to claim 1,
The subtitle editing unit,
Wherein the subtitle data editing system converts the input text into a voice file and inserts a predetermined rendering effect into the converted voice file to dub the subtitle data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2017/011862 WO2019074145A1 (en) | 2017-10-11 | 2017-10-25 | System and method for editing subtitle data in single screen |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20170129845 | 2017-10-11 | ||
KR1020170129845 | 2017-10-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101961750B1 true KR101961750B1 (en) | 2019-03-25 |
Family
ID=65907850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170139033A KR101961750B1 (en) | 2017-10-11 | 2017-10-25 | System for editing caption data of single screen |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101961750B1 (en) |
WO (1) | WO2019074145A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113905267A (en) * | 2021-08-27 | 2022-01-07 | 北京达佳互联信息技术有限公司 | Subtitle editing method and device, electronic equipment and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050118733A (en) * | 2003-04-14 | 2005-12-19 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | System and method for performing automatic dubbing on an audio-visual stream |
KR100650410B1 (en) * | 2005-03-15 | 2006-11-27 | 이현무 | Method for processing translation caption of image by using non-linear editing |
KR100989503B1 (en) | 2002-11-15 | 2010-10-22 | 톰슨 라이센싱 | Method and apparatus for composition of subtitles |
JP2011155329A (en) * | 2010-01-26 | 2011-08-11 | Nippon Telegr & Teleph Corp <Ntt> | Video content editing device, video content editing method, and video content editing program |
KR101576094B1 (en) * | 2014-04-22 | 2015-12-09 | 주식회사 뱁션 | System and method for adding caption using animation |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100957244B1 (en) * | 2008-02-20 | 2010-05-11 | (주)아이유노글로벌 | Method of processing subtitles data for edited video product using synchronizing video data and subtitles data |
-
2017
- 2017-10-25 WO PCT/KR2017/011862 patent/WO2019074145A1/en active Application Filing
- 2017-10-25 KR KR1020170139033A patent/KR101961750B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100989503B1 (en) | 2002-11-15 | 2010-10-22 | 톰슨 라이센싱 | Method and apparatus for composition of subtitles |
KR20050118733A (en) * | 2003-04-14 | 2005-12-19 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | System and method for performing automatic dubbing on an audio-visual stream |
KR100650410B1 (en) * | 2005-03-15 | 2006-11-27 | 이현무 | Method for processing translation caption of image by using non-linear editing |
JP2011155329A (en) * | 2010-01-26 | 2011-08-11 | Nippon Telegr & Teleph Corp <Ntt> | Video content editing device, video content editing method, and video content editing program |
KR101576094B1 (en) * | 2014-04-22 | 2015-12-09 | 주식회사 뱁션 | System and method for adding caption using animation |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113905267A (en) * | 2021-08-27 | 2022-01-07 | 北京达佳互联信息技术有限公司 | Subtitle editing method and device, electronic equipment and storage medium |
CN113905267B (en) * | 2021-08-27 | 2023-06-20 | 北京达佳互联信息技术有限公司 | Subtitle editing method and device, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
WO2019074145A1 (en) | 2019-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101856192B1 (en) | System and method for generating caption, and program of content generation | |
US20180226101A1 (en) | Methods and systems for interactive multimedia creation | |
US20080275700A1 (en) | Method of and System for Modifying Messages | |
JP2000350159A (en) | Video image edit system | |
JPH11219446A (en) | Video/sound reproducing system | |
WO2019063751A1 (en) | Caption delivery system | |
US20210158844A1 (en) | Systems and methods for enhanced video books | |
JP2018078402A (en) | Content production device, and content production system with sound | |
KR20100017242A (en) | Method of creating and reproducing a panoramic sound image, and apparatus for reproducing such an image | |
US20190019533A1 (en) | Methods for efficient annotation of audiovisual media | |
KR101961750B1 (en) | System for editing caption data of single screen | |
JP6641045B1 (en) | Content generation system and content generation method | |
KR20110100649A (en) | Method and apparatus for synthesizing speech | |
CN105763923A (en) | Video and video template editing methods and device thereof | |
KR101571687B1 (en) | Apparatus and method for applying effect to image | |
JP4210723B2 (en) | Automatic caption program production system | |
JP2982697B2 (en) | Telop display | |
JP2008125050A (en) | Video image reproducing apparatus and video image reproducing method | |
JP4455644B2 (en) | Movie playback apparatus, movie playback method and computer program thereof | |
JP2008059343A (en) | Information processing system and program | |
US10885943B1 (en) | Multimedia authoring apparatus with synchronized motion and voice feature and method for the same | |
JP4086886B2 (en) | Movie playback apparatus, movie playback method and computer program thereof | |
JP2005167822A (en) | Information reproducing device and information reproduction method | |
KR20100079877A (en) | Method and system for creating captioning based on network | |
JP2009152782A (en) | Content reproducing apparatus and content reproducing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |