KR101412722B1 - Caption management method and caption search method - Google Patents

Caption management method and caption search method Download PDF

Info

Publication number
KR101412722B1
KR101412722B1 KR1020110086232A KR20110086232A KR101412722B1 KR 101412722 B1 KR101412722 B1 KR 101412722B1 KR 1020110086232 A KR1020110086232 A KR 1020110086232A KR 20110086232 A KR20110086232 A KR 20110086232A KR 101412722 B1 KR101412722 B1 KR 101412722B1
Authority
KR
South Korea
Prior art keywords
caption
subtitles
moving picture
subtitle
time code
Prior art date
Application number
KR1020110086232A
Other languages
Korean (ko)
Other versions
KR20130023461A (en
Inventor
차양현
Original Assignee
차양현
(주)토이미디어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 차양현, (주)토이미디어 filed Critical 차양현
Priority to KR1020110086232A priority Critical patent/KR101412722B1/en
Publication of KR20130023461A publication Critical patent/KR20130023461A/en
Application granted granted Critical
Publication of KR101412722B1 publication Critical patent/KR101412722B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

자막 관리방법 및 자막 검색방법이 제공된다. 본 자막 관리방법은, 동영상의 자막에서 단어들을 추출하여 자막, 자막의 타임코드 및 동영상의 파일명과 함께 색인 DB에 수록하고, 자막을 자막의 타임코드 및 동영상의 파일명과 함께 자막 DB에 수록한다. 이에 의해, 동영상 자막들에 대한 색인용 정보들을 생성/관리하므로, 동영상 자막을 보다 효과적이면서도 효율적으로 검색할 수 있게 된다. 그리고, 이와 같은 검색의 용이함으로 인해, 자막 수정/편집을 위한 노력과 시간을 획기적으로 줄일 수 있게 된다.A subtitle management method and a subtitle searching method are provided. In the subtitle management method, words are extracted from subtitles of a moving picture and are recorded in the index DB together with the subtitle, the time code of the subtitle and the file name of the moving picture, and the subtitle is recorded in the subtitle DB together with the time code of the subtitle and the file name of the moving picture. Accordingly, it is possible to efficiently and effectively search the moving picture caption by generating / managing the index information for the moving picture captions. In addition, since the retrieval is easy, it is possible to dramatically reduce effort and time for caption editing / editing.

Description

자막 관리방법 및 자막 검색방법{Caption management method and caption search method}Title: Caption management method and caption search method

본 발명은 자막 관리방법 및 자막 검색방법에 관한 것으로, 더욱 상세하게는 동영상에 부가되는 자막을 통합적으로 관리하고, 찾고자 하는 자막을 검색하여 제공하는 방법에 관한 것이다.The present invention relates to a subtitle management method and a subtitle searching method, and more particularly, to a method for managing subtitles added to a moving picture, and searching and providing subtitles to be searched.

동영상 자막은 생성 완료된 후에도, 수정이나 편집 등이 빈번하게 이루어진다. 이와 같은 자막의 수정과 편집은 제작된 동영상을 시청하면서 수행되기 때문에, 상당한 시간과 노력을 필요로 한다.Video subtitles are frequently edited and edited even after they are created. Such modification and editing of the subtitles are performed while watching the produced video, so that it takes considerable time and effort.

특히, 자막 생성자와 수정/편집자가 다른 사람인 경우에는, 수정/편집을 요하는 자막이 어디에 위치하는지 찾기가 어려운 관계로 더욱 어려워진다.In particular, in the case where the subtitle creator and the edit / editor are different, it becomes more difficult because it is difficult to find where the subtitle required to be edited / edited is located.

이에, 생성된 자막에 대한 추후 수정/편집을 용이하게 하기 위한 방안의 모색이 요청된다. 아울러, 자막 생성과 관리를 보다 편리하고 효율적으로 할 수 있도록 하기 위한 방안도 필요한 실정이다.
Accordingly, a search for a method for facilitating subsequent editing / editing of the generated subtitle is requested. In addition, there is a need for a method for creating and managing subtitles more conveniently and efficiently.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 동영상 자막들에 대한 색인용 정보들을 생성하여, 동영상 자막들과 함께 관리하는 자막 관리방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a subtitle management method for generating index information for moving subtitles and managing the index information together with moving subtitles.

또한, 본 발명의 다른 목적은 동영상 자막들에 대한 색인용 정보들을 이용하여, 동영상 자막을 보다 효과적/효율적으로 검색할 수 있는 자막 검색방법을 제공함에 있다.It is another object of the present invention to provide a subtitle searching method capable of searching for moving subtitles more efficiently and efficiently by using index information for moving subtitles.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 자막 관리방법은, 동영상의 자막에서 단어들을 추출하는 단계; 상기 단어들을, 상기 자막, 상기 자막의 타임코드 및 상기 동영상의 파일명과 함께 색인 DB에 수록하는 단계; 및 상기 자막을, 상기 자막의 타임코드 및 상기 동영상의 파일명과 함께 자막 DB에 수록하는 단계;를 포함한다.According to an aspect of the present invention, there is provided a subtitle management method comprising: extracting words from a subtitle of a moving picture; Storing the words in the index DB together with the caption, the time code of the caption, and the file name of the moving picture; And recording the caption in the caption database together with the time code of the caption and the file name of the moving image.

그리고, 본 자막 관리방법은, 상기 추출단계에서 추출된 단어의 개수가 특정 개수 이상이면, 추출된 단어들을 상기 색인 DB에서 검색하는 단계; 및 검색된 자막에 대한 추출된 단어들의 매칭 비율이 특정 비율 이상이면, 상기 자막에 대한 유사 자막이 존재하는 것으로 판단하는 단계;를 더 포함하고, 상기 자막 DB 수록단계는, 상기 자막을, 상기 자막의 타임코드, 상기 동영상의 파일명 및 상기 유사 자막에 대한 정보와 함께 자막 DB에 수록할 수 있다.The subtitle management method may further include searching the index DB for extracted words if the number of extracted words is equal to or greater than a predetermined number. And determining that there is a similar caption for the caption if the matching ratio of the extracted words to the retrieved caption is equal to or greater than a certain ratio, and the caption DB recording step includes: A time code, a file name of the moving picture, and information on the similar subtitle.

또한, 본 자막 관리방법은, 텍스트를 입력받는 단계; 입력된 텍스트에서 단어들을 추출하는 단계; 상기 단어들을 상기 색인 DB에서 검색하는 단계; 및 검색된 자막들을 나열하는 단계;를 더 포함할 수 있다.The subtitle management method includes: receiving a text; Extracting words from the input text; Searching the index DB for the words; And listing the retrieved subtitles.

그리고, 상기 나열 단계는, 상기 검색된 자막들의 유사 자막들을 함께 나열할 수 있다.The listing step may list similar subtitles of the searched subtitles together.

또한, 본 자막 관리방법은, 상기 나열된 자막들 중 선택된 자막의 타임코드를 파악하는 단계; 및 파악된 타임코드 이후의 동영상을 자막과 함께 재생하는 단계;를 더 포함할 수 있다.The caption management method may further comprise: determining a time code of the selected caption among the listed captions; And reproducing the moving picture after the identified time code with the caption.

그리고, 본 자막 관리방법은, 상기 자막 DB에 수록된 자막들 중 특정 동영상에 대한 자막들이 타임코드 순으로 수록된 자막 파일을 생성하는 단계;를 더 포함할 수 있다.The method may further include generating a subtitle file in which subtitles for a specific moving image among the subtitles recorded in the subtitle DB are listed in order of time codes.

또한, 본 자막 관리방법은, 상기 동영상을 재생하는 단계; 상기 동영상에 대한 자막들을 상기 자막 DB로부터 메모리에 로드하는 단계; 및 현재 타임코드의 자막을 상기 메모리에서 읽어들여 재생중인 동영상에 중첩시키는 단계;를 더 포함할 수 있다.The subtitle management method further includes: reproducing the moving picture; Loading subtitles for the moving picture into the memory from the subtitle DB; And superimposing the subtitle of the current time code on the moving picture being read from the memory and reproducing the moving picture.

그리고, 상기 추출단계는, 상기 자막을 형태소 분석하여, 상기 단어들을 추출할 수 있다.In the extracting step, the caption may be morpheme analyzed to extract the words.

한편, 본 발명의 다른 실시예에 따른, 자막 검색방법은, 텍스트를 입력받는 단계; 입력된 텍스트에서 단어들을 추출하는 단계; 상기 단어들을 색인 DB에서 검색하는 단계; 및 검색된 자막들을 나열하는 단계;를 포함하고, 상기 색인 DB는, 동영상의 자막에서 추출된 단어들이, 상기 자막, 상기 자막의 타임코드 및 상기 동영상의 파일명과 함께 수록된다.According to another aspect of the present invention, there is provided a subtitle searching method comprising: inputting text; Extracting words from the input text; Searching the index DB for the words; And listing the searched captions. The index DB records the words extracted from the subtitles of the moving picture together with the subtitle, the time code of the subtitle, and the file name of the moving picture.

그리고, 상기 나열 단계는, 상기 검색된 자막들의 유사 자막들을 함께 나열할 수 있다.The listing step may list similar subtitles of the searched subtitles together.

또한, 본 자막 검색방법은, 상기 나열된 자막들 중 선택된 자막의 타임코드를 파악하는 단계; 및 파악된 타임코드 이후의 동영상을 자막과 함께 재생하는 단계;를 더 포함할 수 있다.
The method may further comprise: determining a time code of a selected one of the listed subtitles; And reproducing the moving picture after the identified time code with the caption.

이상 설명한 바와 같이, 본 발명에 따르면, 동영상 자막들에 대한 색인용 정보들을 생성/관리하므로, 동영상 자막을 보다 효과적이면서도 효율적으로 검색할 수 있게 된다. 그리고, 이와 같은 검색의 용이함으로 인해, 자막 수정/편집을 위한 노력과 시간을 획기적으로 줄일 수 있게 된다.As described above, according to the present invention, it is possible to efficiently and efficiently search the moving picture subtitles by generating / managing index information for moving subtitles. In addition, since the retrieval is easy, it is possible to dramatically reduce effort and time for caption editing / editing.

또한, 자막과 동영상이 별개로 분리되어 관리되기 때문에, 청각 장애인을 위한 자막 생성, 프로그램의 자막 번역/교체가 보다 수월하게 진행될 수 있게 된다.
In addition, since subtitles and moving pictures are managed separately, it is possible to facilitate the generation of subtitles for the hearing-impaired and the translation / replacement of the subtitles of the program.

도 1은 본 발명이 적용가능한 자막 관리 시스템을 도시한 도면,
도 2는 자막 생성용 프로그램에 의해 수행되는 자막 생성 알고리즘,
도 3은, 도 2에서 생성된 자막들을 처리/관리하는 과정의 설명에 제공되는 흐름도,
도 4는, 자막 검색 과정의 설명에 제공되는 흐름도,
도 5와 도 6은 자막 생성용 프로그램의 실행 화면을 도시한 도면,
도 7은 자막 생성용 프로그램의 환경설정 창을 도시한 도면, 그리고,
도 8은, 도 4의 S440단계에서 제공될 수 있는 검색결과 리스트를 예시한 도면이다.
1 is a diagram showing a subtitle management system to which the present invention is applicable,
2 shows a subtitle generation algorithm performed by the subtitle generation program,
FIG. 3 is a flowchart provided in the description of a process of processing / managing the subtitles generated in FIG. 2;
4 is a flowchart provided for explanation of a subtitle search process;
5 and 6 are views showing an execution screen of a program for generating a subtitle,
7 is a diagram showing an environment setting window of a program for generating a subtitle,
FIG. 8 is a diagram illustrating a search result list that may be provided in step S440 of FIG.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도 1은 본 발명이 적용가능한 자막 관리 시스템을 도시한 도면이다. 본 자막 관리 시스템은, 동영상에 대한 자막을 생성하고, 생성된 자막을 동영상과 별도로 저장/관리하며, 생성된 자막과 동영상을 함께 재생한다. 뿐만 아니라, 본 자막 관리 시스템은, 자막 검색이 가능하고, 보다 유용한 자막 검색을 위해 자막들에 대한 색인 정보를 관리한다.1 is a diagram showing a caption management system to which the present invention is applicable. The subtitle management system generates subtitles for moving pictures, stores / manages the subtitles separately from the moving pictures, and reproduces the generated subtitles and moving pictures together. In addition, the caption management system manages the index information on the subtitles in order to search the subtitles and search for more useful subtitles.

이와 같은 기능을 수행하는 자막 관리 시스템은, 도 1에 도시된 바와 같이, 워크 스테이션(110), 서버(120), 동영상 DB(131), 자막 DB(132) 및 색인 DB(133)를 구비한다.1, the subtitle management system includes a workstation 110, a server 120, a moving picture DB 131, a subtitle DB 132, and an index DB 133 .

워크 스테이션(110)은 동영상 자막 생성 작업이 수행되는 단말이다. 또한, 워크 스테이션(110)은 자막 수정/편집, '동영상' 재생, '동영상+자막' 재생을 수행할 수 있고, 자막 검색 요청을 입력받을 수 있다.The workstation 110 is a terminal on which a moving picture caption generation operation is performed. In addition, the workstation 110 can perform subtitle editing / editing, 'moving picture' playback, 'moving picture + subtitle playback', and can input a subtitle search request.

동영상은, MPEG, AVI 등 포맷을 불문하며, 드라마, 영화, 스포츠, 교육, 뉴스, 다큐멘터리, 예능 프로그램 등 종류를 불문한다.The video, regardless of the format such as MPEG, AVI, etc., does not matter of drama, movie, sports, education, news, documentary,

동영상 자막을 생성하는 작업자 역시, 작가, 번역가, 제작자 등을 불문하며, 자막은 본-자막, 보조-자막, 번역-자막 등 그 종류를 불문한다.The worker who creates the video subtitles does not depend on the author, the translator, the producer, etc., and the subtitles do not include the main-subtitles, auxiliary-subtitles, and translation-subtitles.

서버(120)는 동영상 DB(131)에 저장되어 있는 동영상을 워크 스테이션(110)으로 제공할 수 있음은 물론, 워크 스테이션(110)으로부터 수신한 동영상을 동영상 DB(131)에 저장할 수도 있다.The server 120 may provide the moving image stored in the moving image DB 131 to the workstation 110 and may also store the moving image received from the workstation 110 in the moving image DB 131. [

그리고, 서버(120)는 워크 스테이션(110)으로부터 수신한 자막들을 자막 DB(132)에 저장하고, 수신한 자막들로부터 색인 정보를 생성하여 색인 DB(133)에 저장한다.The server 120 stores the subtitles received from the workstation 110 in the subtitle DB 132, generates index information from the received subtitles, and stores the index information in the index DB 133. [

또한, 서버(120)는 워크 스테이션(110)이 요청한 자막 검색을 수행하고, 검색 결과를 제공한다. 검색 결과로, 서버(120)는 자막 외에 그 자막이 나타난 동영상 프레임을 함께 제공할 수 있다.In addition, the server 120 performs a subtitle search requested by the workstation 110 and provides search results. As a result of the search, the server 120 may provide a moving picture frame in which the subtitle is displayed in addition to the subtitle.

이하에서, 도 1에 도시된 자막 관리 시스템에 의해 자막이 생성되는 과정에 대해, 도 2를 참조하여 상세히 설명한다. 도 2는, 워크 스테이션(110)에 설치된 자막 생성용 프로그램에 의해 수행되는 자막 생성 알고리즘이다.Hereinafter, the process of generating subtitles by the subtitle management system shown in FIG. 1 will be described in detail with reference to FIG. 2 is a caption generation algorithm performed by the caption generation program installed in the work station 110. [

도 2에 도시된 바와 같이, 먼저 워크 스테이션(110)에서 자막을 생성하고자 하는 동영상이 재생된다(S210).As shown in FIG. 2, first, the moving picture to be generated in the workstation 110 is reproduced (S210).

S210단계에서 재생되는 동영상은 동영상 DB(131)에 저장된 것으로 서버(120)로부터 다운받은 것일 수도 있지만, 워크 스테이션(110)에 저장되어 있는 것일 수도 있다. 후자의 경우에는, 추후에 워크 스테이션(110)은 동영상을 서버(120)에 업로드하여 동영상 DB(131)에 저장하도록 함이 바람직하다.The moving picture to be played back in step S210 may be stored in the moving picture database 131, downloaded from the server 120, or stored in the workstation 110. In the latter case, it is preferable that the workstation 110 uploads the moving image to the server 120 and stores the moving image in the moving image DB 131 at a later time.

자막 생성자는 재생되는 동영상을 시청하다가 자막을 삽입할 프레임이 나타나면, 동영상 재생을 정지하여 동영상 프레임을 선택하고, 원하는 자막을 입력하게 된다.The subtitle creator displays the video to be reproduced and displays the frame to insert the subtitle, stops the video playback, selects the video frame, and inputs the desired subtitle.

이와 같은 방식에 의해 동영상 프레임이 선택되고(S220-Y), 선택된 동영상 프레임에 삽입될 자막이 입력되면(S230), 워크 스테이션(110)은 S220단계에서 선택된 동영상 프레임의 타임코드에 S230단계에서 입력된 자막을 등록한다(S240).When the subtitle to be inserted into the selected moving picture frame is inputted at step S230, the work station 110 inputs the time code of the selected moving picture frame at step S220 in step S230 (S240).

S240단계에서의 타임코드는 자막 시작 시점과 지막 종료 시점이 각각 "시:분:초:프레임-00:00:00:00" 형식으로 생성된다.The time code in step S240 is generated in the form of "hour: minute: second: frame-00: 00: 00: 00" in the subtitle start time and end time.

도 5에는 자막 생성용 프로그램의 실행 화면을 도시하였다. 도 5에 도시된 바에 따르면, 동영상이 재생되면서 해당 자막이 함께 나타나고 있음을 확인할 수 있다. 그리고, 동영상의 음성 파형을 관찰할 수 있도록 하는 음성뷰가 화면의 하부에 나타나 있다.5 shows an execution screen of a program for generating a subtitle. As shown in FIG. 5, it can be confirmed that the moving picture is reproduced and the corresponding caption is displayed together. A voice view is shown at the bottom of the screen to allow you to observe the audio waveform of the movie.

또한, 자막 생성용 프로그램의 실행 화면의 우측 부분에는 자막을 입력할 수 있으며 입력된 자막들이 타임코드 순으로 나열된 자막 입력창이 나타나 있다. 이 입력창에는 자막을 2가지 언어로 입력할 수 있도록 하였는데, 2번째 언어의 자막은 수동입력은 물론 자동번역에 의한 자동입력도 가능하다.In the right part of the execution screen of the program for generating a subtitle, a subtitle can be input, and a subtitle input window in which inputted subtitles are listed in order of time code is displayed. In this input window, subtitles can be input in two languages. In the second language subtitles, automatic input is possible as well as manual input.

한편, 도 6에 도시된 자막 생성용 프로그램의 실행 화면에서 자막위치로 표시된 붉은색 구간은 자막이 나타나는 구간, 즉 타임코드에 해당한다.On the other hand, in the execution screen of the program for generating a subtitle shown in FIG. 6, the red section indicated by the subtitle position corresponds to a section in which the subtitle appears, that is, a time code.

도 7에는 자막 생성용 프로그램의 환경설정 창을 도시하였다. 도시된 환경설정 창을 통해, 자막 폰트, 테두리 등을 설정하고, 자동번역 관련사항과 음성 출력 배율 등을 설정할 수 있음을 확인할 수 있다.7 shows an environment setting window of a program for generating a subtitle. Through the shown setting window, it is possible to set caption fonts, borders, and the like, and to set automatic transmission related matters and audio output magnification.

다시, 도 2를 참조하여 상세히 설명한다.Again, this will be described in detail with reference to FIG.

S240단계 이후, 워크 스테이션(110)은 타임코드, 자막 및 동영상 파일명을 서버(120)로 전송한다(S250). S250단계에서의 전송은 자막 단위로 이루어질 수 있음은 물론 통합적으로도 이루어질 수 있다.After step S240, the workstation 110 transmits the time code, the caption, and the video file name to the server 120 (S250). The transmission in step S250 can be performed in units of subtitles as well as in an integrated manner.

통합적 전송이란, 워크 스테이션(110)이 동영상에 대한 다수의 자막들과 타임코드들을 하나의 자막 파일로 생성하여, 서버(120)로 전송함을 말한다.The integrated transmission means that the workstation 110 generates a plurality of subtitles and time codes for a moving picture as one subtitle file and transmits them to the server 120.

자막별 전송에 따르던 통합적 전송에 따르던, 워크 스테이션(110)은 동영상에 대한 다수의 자막들과 타임코드들을 하나의 자막 파일로 저장할 수 있다.According to the integrated transmission according to subtitle transmission, the workstation 110 can store a plurality of subtitles and time codes for a moving picture as one subtitle file.

이하에서는, 도 2에서 생성된 자막들을 서버(120)가 처리/관리하는 과정에 대해 도 3을 참조하여 상세히 설명한다.Hereinafter, a process of processing / managing the subtitles generated in FIG. 2 by the server 120 will be described in detail with reference to FIG.

도 3에 도시된 바와 같이, 워크 스테이션(110)으로부터 타임코드, 자막 및 동영상 파일명을 수신하면(S310), 서버(120)는 수신된 자막을 형태소 분석하여 유효 단어들을 추출한다(S320).3, when receiving the time code, the subtitle, and the video file name from the workstation 110 (S310), the server 120 morphs the received subtitles and extracts valid words (S320).

S320단계에서의 유효 단어 추출은 품사를 한정하는 방식에 의해 가능하다. 예를 들어, 자막을 구성하는 단어들 중 명사들만을 유효 단어로 설정할 수 있다. 이 경우, "마법사와의 조우는 우연한 기회가 아니다"라는 자막으로부터 추출되는 유효 단어는 "마법사", "조우" 및 "기회"가 된다.The effective word extraction in step S320 is possible by a method of defining parts of speech. For example, only nouns constituting subtitles can be set as valid words. In this case, the valid words extracted from the caption "Encounters with the wizard is not an accidental chance" are "Wizard", "Encounter" and "Opportunity".

S320단계에서 추출된 유효 단어의 개수가 3개 이상이면(S330-Y), 서버(120)는 유효 단어들을 색인 DB(133)에서 검색한다(S340). 색인 DB(133)는 유효 단어들이 자막별로 데이터 베이스화 되어 있는 DB이다.If the number of valid words extracted in step S320 is three or more (S330-Y), the server 120 retrieves valid words from the index DB 133 (S340). The index DB 133 is a DB in which valid words are formed into a database for each subtitle.

S340단계에서 검색된 자막이 존재하면(S350-Y), 서버(120)는 'S320단계에서 추출된 유효 단어들'과 'S340단계에서 검색된 자막의 유효 단어들'의 매칭 비율이 80% 이상인지 여부를 판단한다(S360). 여기서, 매칭 비율은 'S320단계에서 추출된 유효 단어들' 중 얼마가 'S340단계에서 검색된 자막의 유효 단어들'과 일치하는지를 나타내는 수치이다.If there is a subtitle searched in step S340 (S350-Y), the server 120 determines whether the matching ratio of the valid words extracted in step S320 and the subtitle searched in step S340 is 80% (S360). Here, the matching ratio is a numerical value indicating which of the valid words extracted in step S320 matches the valid words of the subtitle retrieved in step S340.

예를 들어, 'S320단계에서 추출된 유효 단어들'이 "마법사", "조우" 및 "기회"이고, 'S340단계에서 검색된 자막의 유효 단어들'이 "마법사", "조우", "마술" 및 "대가"이면, 매칭 비율은 66.67%(=2/3)이 된다.For example, if the 'valid words extracted at step S320' are 'Wizard', 'Encounter' and 'Opportunity' and 'Valid words of subtitles retrieved at step S340' are 'Wizard', 'Encounter' "And" price ", the matching ratio is 66.67% (= 2/3).

S360단계에서 매칭 비율이 80%를 초과하면(S360-Y), 서버(120)는 S310단계에서 수신한 자막에 유사 자막이 존재하는 것으로 판단한다(S370).If the matching ratio exceeds 80% in step S360 (S360-Y), the server 120 determines that similar subtitles exist in the subtitles received in step S310 (S370).

이에, 서버(120)는 S310단계에서 수신한 타임코드, 자막 및 동영상 파일명과 함께 유사 자막 정보를 자막 DB(132)에 수록한다(S380). 여기서, 유사 자막 정보는, 유사 자막으로 판단된 자막에 대한 타임코드, 자막 및 동영상 파일명 중 적어도 하나를 포함할 수 있다.Accordingly, the server 120 stores the similar caption information together with the time code, the caption, and the video file name received in step S310 in the caption database 132 (S380). Here, the similar caption information may include at least one of a time code, a caption, and a video file name for a caption determined as a similar caption.

또한, 서버(120)는 S320단계에서 추출된 유효 단어들을 자막, 타임코드, 및 동영상 파일명과 함께 색인 DB(133)에 수록한다(S385).In step S385, the server 120 records the valid words extracted in step S320 in the index DB 133 together with the caption, the time code, and the video file name.

한편, S320단계에서 추출된 유효 단어의 개수가 3개 미만인 경우(S330-N), 3개 이상이더라도 S340단계에서 검색된 자막이 존재하지 않는 경우(S350-N), 또는 검색된 자막이 존재하더라도 매칭 비율이 80% 이하이면(S360-N), 서버(120)는 S310단계에서 수신한 자막에 유사 자막이 존재하지 않는 것으로 판단한다(S390).If the number of valid words extracted in step S320 is less than three (S330-N), if there are three or more valid words but there is no caption found in step S340 (S350-N) Is less than 80% (S360-N), the server 120 determines that the similar subtitle does not exist in the subtitle received in operation S310 (S390).

이에, 서버(120)는 S310단계에서 수신한 타임코드, 자막 및 동영상 파일명만을 자막 DB(132)에 수록하게 된다(S395).Accordingly, the server 120 stores only the time code, the caption, and the video file name received in step S310 in the caption database 132 (S395).

한편, 서버(120)는 자막 DB(133)에 수록된 자막들 중 특정 동영상에 대한 자막들이 타임코드 순으로 수록된 자막 파일을 생성할 수 있다. 이는, 워크 스테이션(110)으로부터 동영상 파일 재생 요청이 수신된 경우, 동영상 파일과 함께 자막 파일을 전송하여 주는 경우에 유용하다.On the other hand, the server 120 can generate a subtitle file in which subtitles for a specific moving image among the subtitles recorded in the subtitle DB 133 are recorded in time code order. This is useful when a moving picture file reproduction request is received from the workstation 110 and a subtitle file is transmitted together with the moving picture file.

다른 한편으로, 워크 스테이션(110)으로부터 동영상 파일 재생 요청시, 서버(120)가 동영상 DB(131)에 저장된 동영상 파일을 재생하면서 자막을 부가하여 스트리밍으로 워크 스테이션(110)에 제공할 수도 있다.On the other hand, when the moving picture file is requested to be reproduced from the workstation 110, the server 120 may add the subtitle while streaming the moving picture file stored in the moving picture DB 131 and provide the streaming to the workstation 110.

이를 위해서는, 서버(120)가, 1) 동영상 파일을 재생하고, 2) 재생되는 동영상 자막들을 자막 DB(132)로부터 내부 메모리로 로드하고, 3) 현재 타임코드의 자막을 내부 메모리에서 읽어들여 재생중인 동영상에 중첩시켜 제공하면 된다.To do this, the server 120 reproduces the moving picture file, 2) loads the moving picture captions to be played back from the subtitle DB 132 into the internal memory, 3) reads the subtitle of the current time code from the internal memory, You can nest it on the video you're on.

이하에서는, 도 1에 도시된 자막 관리 시스템에서의 자막 검색 과정에 대해, 도 4를 참조하여 상세히 설명한다.Hereinafter, a subtitle searching process in the subtitle management system shown in FIG. 1 will be described in detail with reference to FIG.

도 4에 도시된 바와 같이, 먼저 워크 스테이션(110)을 통해 텍스트가 입력되면(S410), 서버(120)는 S410단계에서 입력된 텍스트를 형태소 분석하여 유효 단어들을 추출한다(S420).As shown in FIG. 4, if the text is inputted through the work station 110 at step S410, the server 120 morphs the text input at step S410 and extracts valid words at step S420.

이후, 서버(120)는 유효 단어들을 색인 DB(133)에서 검색하고(S430), 검색된 자막들을 워크 스테이션(110)에 제공하여 리스트로 나열시킨다(S440).Thereafter, the server 120 retrieves valid words from the index DB 133 (S430), and provides the retrieved subtitles to the workstation 110 to list them in a list (S440).

도 8에는 한 단어로 된 텍스트인 "조우"를 입력한 경우, S440단계에서 제공될 수 있는 리스트를 예시하였다. 도 8에 도시된 리스트에 나열된 자막들은 조우를 포함하고 있는 자막들이다.FIG. 8 illustrates a list that can be provided in step S440 when an "encounter " as a one-word text is input. The subtitles listed in the list shown in Fig. 8 are the subtitles containing the encounters.

한편, S440단계를 통해 제공되는 리스트에는, 검색된 자막들만이 나열되어도 무방하지만, 더 나아가 검색된 자막들의 유사 자막들이 함께 나열되도록 구현하는 것이 가능하다.On the other hand, only the searched subtitles may be listed in the list provided in step S440, but it is possible to implement such that the similar subtitles of the searched subtitles are listed together.

S440단계를 통해 리스트로 제공된 자막들 중 하나가 선택되면(S450-Y), 서버(120)는 선택된 자막의 타임코드를 파악하고(S460), 파악된 타임코드 이후의 동영상을 자막과 함께 재생하여 워크 스테이션(110)에 제공한다(S470).If one of the subtitles provided in the list is selected through S440 (S450-Y), the server 120 recognizes the time code of the selected subtitle (S460) and reproduces the video after the determined time code with the subtitle To the work station 110 (S470).

한편, S470단계에서의 재생 시간을 제한/확장하는 것이 가능하다. 예를 들면, 재생 시간을 타임코드 전/후 10초(즉, 자막 발생 전 10초 전부터 자막 소멸 후 10초까지)로 확장하는 것이 가능하다.On the other hand, it is possible to restrict / extend the playback time in step S470. For example, it is possible to extend the reproduction time to 10 seconds before / after time code (i.e., from 10 seconds before caption generation to 10 seconds after caption disappearance).

도 4에 도시된 자막 검색은, 기생성된 자막들을 수정하거나 편집하기 위해 찾아야 하는 경우에 유용하게 사용될 수 있다.The subtitle search shown in FIG. 4 may be useful when it is necessary to search for modifying or editing previously generated subtitles.

지금까지, 자막 관리 시스템과 이에 의한 자막 생성, 저장, 검색 등의 관리에 대해 상세히 설명하였다.Up to now, the management of caption management system and the management of caption creation, storage, retrieval, etc. have been described in detail.

위 실시예에서는, 워크 스테이션(110)에서 수작업에 의한 입력을 통해 자막들이 생성되는 것으로 상정하였으나, 이 역시 예시적인 것으로 다른 방법에 의해 자막들을 생성하는 것이 가능하다. 예를 들어, 동영상에서 출력되는 음성을 텍스트로 자동 변환하여 자막을 자동으로 생성하는 것도 가능함은 물론이다.In the above embodiment, it is assumed that the subtitles are generated through manual input at the workstation 110, but this is also an example, and it is possible to generate subtitles by other methods. For example, it is also possible to automatically generate subtitles by automatically converting a voice output from a moving picture into text.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

110 : 워크 스테이션
120 : 서버
131 : 동영상 DB
132 : 자막 DB
133 : 색인 DB
110: Workstation
120: Server
131: Movie DB
132: Subtitle DB
133: Index DB

Claims (11)

동영상의 자막에서 단어들을 추출하는 단계;
상기 단어들을, 상기 자막, 상기 자막의 타임코드 및 상기 동영상의 파일명과 함께 색인 DB에 수록하는 단계; 및
상기 자막을, 상기 자막의 타임코드 및 상기 동영상의 파일명과 함께 자막 DB에 수록하는 단계;를 포함하고,
상기 추출단계에서 추출된 단어의 개수가 특정 개수 이상이면, 추출된 단어들을 상기 색인 DB에서 검색하는 단계; 및
검색된 자막에 대한 추출된 단어들의 매칭 비율이 특정 비율 이상이면, 상기 자막에 대한 유사 자막이 존재하는 것으로 판단하는 단계;를 더 포함하고,
상기 자막 DB 수록단계는,
상기 자막을, 상기 자막의 타임코드, 상기 동영상의 파일명 및 상기 유사 자막에 대한 정보와 함께 자막 DB에 수록하는 것을 특징으로 하고,
텍스트를 입력받는 단계;
입력된 텍스트에서 단어들을 추출하는 단계;
상기 단어들을 상기 색인 DB에서 검색하는 단계; 및
검색된 자막들을 나열하는 단계;를 더 포함하고,
상기 나열 단계는,
상기 검색된 자막들의 유사 자막들을 함께 나열하는 것을 특징으로 하고,
상기 자막 DB에 수록된 자막들 중 특정 동영상에 대한 자막들이 타임코드 순으로 수록된 자막 파일을 생성하는 단계;를 더 포함하고,
상기 동영상을 재생하는 단계;
상기 동영상에 대한 자막들을 상기 자막 DB로부터 메모리에 로드하는 단계; 및
현재 타임코드의 자막을 상기 메모리에서 읽어들여 재생중인 동영상에 중첩시키는 단계;를 더 포함하고, 상기 동영상의 자막에 대한 실행 화면상에 복수의 자막 관련 제어 항목이 기설정된 영역별로 각각 표시되고, 제1 영역에 동영상 검색 모드를 선택하기 위한 검색 인터페이스를 표시하고, 제2 영역에 상기 검색 인터페이스를 통해 선택된 검색 모드에 대응하는 검색 항목별 검색 결과 관련 재생하고자 하는 동영상을 표시하고, 제3 영역에 상기 동영상의 음성 파형을 관찰하기 위한 음성뷰가 표시되고, 제4 영역에 상기 자막 관련 상태정보가 표시됨을 특징으로 하는 자막 관리 방법.
Extracting words from subtitles of a moving picture;
Storing the words in the index DB together with the caption, the time code of the caption, and the file name of the moving picture; And
And recording the caption in the caption database together with the time code of the caption and the file name of the moving image,
Retrieving the extracted words from the index DB if the number of extracted words is greater than or equal to a predetermined number; And
And determining that there is a similar caption for the caption if the matching ratio of the extracted words to the retrieved caption is greater than or equal to a certain ratio,
The subtitle DB recording step includes:
Characterized in that the caption is recorded in the caption database together with the time code of the caption, the file name of the moving picture, and information on the similar caption,
Receiving a text;
Extracting words from the input text;
Searching the index DB for the words; And
And retrieving the retrieved subtitles,
The step of listing,
And the similar subtitles of the retrieved subtitles are listed together,
And generating a caption file in which captions for a specific moving image among the captions recorded in the caption DB are recorded in order of time codes,
Reproducing the moving picture;
Loading subtitles for the moving picture into the memory from the subtitle DB; And
Further comprising the steps of: capturing a caption of a current time code from the memory and superimposing the caption of the current time code on a moving picture being reproduced; and displaying a plurality of caption-related control items on the execution screen of the caption of the moving picture, 1, a moving picture to be reproduced related to a search result of each search item corresponding to a search mode selected through the search interface is displayed in a second area, A voice view for observing a sound waveform of a moving picture is displayed, and the caption related state information is displayed in a fourth area.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 나열된 자막들 중 선택된 자막의 타임코드를 파악하는 단계; 및
파악된 타임코드 이후의 동영상을 자막과 함께 재생하는 단계;를 더 포함하는 것을 특징으로 하는 자막 관리방법.
The method according to claim 1,
Determining a time code of a selected one of the listed subtitles; And
And reproducing the moving picture after the identified time code with the caption.
삭제delete 삭제delete 제 1항에 있어서,
상기 추출단계는,
상기 자막을 형태소 분석하여, 상기 단어들을 추출하는 것을 특징으로 하는 자막 관리방법.
The method according to claim 1,
Wherein the extracting step comprises:
And the words are extracted by morpheme analysis of the subtitles.
삭제delete 삭제delete 삭제delete
KR1020110086232A 2011-08-29 2011-08-29 Caption management method and caption search method KR101412722B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110086232A KR101412722B1 (en) 2011-08-29 2011-08-29 Caption management method and caption search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110086232A KR101412722B1 (en) 2011-08-29 2011-08-29 Caption management method and caption search method

Publications (2)

Publication Number Publication Date
KR20130023461A KR20130023461A (en) 2013-03-08
KR101412722B1 true KR101412722B1 (en) 2014-07-01

Family

ID=48175686

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110086232A KR101412722B1 (en) 2011-08-29 2011-08-29 Caption management method and caption search method

Country Status (1)

Country Link
KR (1) KR101412722B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220138650A (en) * 2021-04-06 2022-10-13 주식회사 한글과컴퓨터 Video streaming service server that enables keyword-based search for video and operating method thereof
KR102466734B1 (en) * 2021-05-12 2022-11-14 주식회사 한글과컴퓨터 Electronic apparatus which displays the reference information of a technical term on the screen where a video is being played, and the operating method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101478918B1 (en) * 2013-08-16 2014-12-31 한국방송공사 Apparatus and method for correcting caption subtitle
KR101996551B1 (en) * 2018-01-02 2019-07-04 중앙대학교 산학협력단 Apparatus and method for generating subtitles using speech recognition and script
KR102351408B1 (en) * 2021-03-26 2022-01-14 이광선 service method of automatically generating translated subtitles of video contents

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200281A (en) 1999-01-05 2000-07-18 Matsushita Electric Ind Co Ltd Device and method for information retrieval and recording medium where information retrieval program is recorded
JP2005025413A (en) 2003-06-30 2005-01-27 Nec Corp Content processing device, content processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000200281A (en) 1999-01-05 2000-07-18 Matsushita Electric Ind Co Ltd Device and method for information retrieval and recording medium where information retrieval program is recorded
JP2005025413A (en) 2003-06-30 2005-01-27 Nec Corp Content processing device, content processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220138650A (en) * 2021-04-06 2022-10-13 주식회사 한글과컴퓨터 Video streaming service server that enables keyword-based search for video and operating method thereof
KR102523813B1 (en) * 2021-04-06 2023-05-15 주식회사 한글과컴퓨터 Video streaming service server that enables keyword-based search for video and operating method thereof
KR102466734B1 (en) * 2021-05-12 2022-11-14 주식회사 한글과컴퓨터 Electronic apparatus which displays the reference information of a technical term on the screen where a video is being played, and the operating method thereof

Also Published As

Publication number Publication date
KR20130023461A (en) 2013-03-08

Similar Documents

Publication Publication Date Title
JP4550725B2 (en) Video viewing support system
US10210253B2 (en) Apparatus of providing comments and statistical information for each section of video contents and the method thereof
CN100485686C (en) Video viewing support system and method
CN101556819B (en) Apparatus for processing data from information storage medium
US8892563B2 (en) Storage medium including metadata and reproduction apparatus and method therefor
JP4873018B2 (en) Data processing apparatus, data processing method, and program
JP5225037B2 (en) Program information display apparatus and method
US9788084B2 (en) Content-object synchronization and authoring of dynamic metadata
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
KR100371813B1 (en) A Recorded Medium for storing a Video Summary Description Scheme, An Apparatus and a Method for Generating Video Summary Descriptive Data, and An Apparatus and a Method for Browsing Video Summary Descriptive Data Using the Video Summary Description Scheme
KR101412722B1 (en) Caption management method and caption search method
JP2001028722A (en) Moving picture management device and moving picture management system
KR101916874B1 (en) Apparatus, method for auto generating a title of video contents, and computer readable recording medium
US20030126603A1 (en) Multimedia data searching and browsing system
JP5857449B2 (en) Image processing apparatus and recording apparatus
JP2007012013A (en) Video data management device and method, and program
CN104349173A (en) Video repeating method and device
GB2520041A (en) Automated multimedia content editing
KR20050012101A (en) Scenario data storage medium, apparatus and method therefor, reproduction apparatus thereof and the scenario searching method
EP3252770A1 (en) Automated identification and processing of audiovisual data
KR20090126525A (en) Method and apparatus for managing digital contents using playback position, and method and apparatus for executing the same
KR101477492B1 (en) Apparatus for editing and playing video contents and the method thereof
US20230216909A1 (en) Systems, method, and media for removing objectionable and/or inappropriate content from media
JP4276638B2 (en) Video editing apparatus, video editing method, video editing program, and program recording medium
JP2016524753A (en) Method and apparatus for file classification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee