KR20080084303A - Technology which is storing easily, quickly and accurately only wanted part from the movie and audio files - Google Patents

Technology which is storing easily, quickly and accurately only wanted part from the movie and audio files Download PDF

Info

Publication number
KR20080084303A
KR20080084303A KR1020070025792A KR20070025792A KR20080084303A KR 20080084303 A KR20080084303 A KR 20080084303A KR 1020070025792 A KR1020070025792 A KR 1020070025792A KR 20070025792 A KR20070025792 A KR 20070025792A KR 20080084303 A KR20080084303 A KR 20080084303A
Authority
KR
South Korea
Prior art keywords
video
subtitle
playback
audio
screen
Prior art date
Application number
KR1020070025792A
Other languages
Korean (ko)
Inventor
박청정
박대철
Original Assignee
어뉴텍코리아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 어뉴텍코리아 주식회사 filed Critical 어뉴텍코리아 주식회사
Priority to KR1020070025792A priority Critical patent/KR20080084303A/en
Publication of KR20080084303A publication Critical patent/KR20080084303A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

A method for creating U-contents by easily, quickly and accurately extracting only a desired portion of a multimedia file is provided to allow a user to put in an annotation and index function by properly utilizing a portion extracting method and a contents editing method. If a subtitle is not provided by a service provider, a subtitle and a reproduction time point are extracted according to a speaker independent type continuous voice recognizing method(101). If a subtitle is provided by the service provider, a reproduction time point is extracted from the subtitle(102). A reproduced image and a corresponding subtitle image are displayed in synchronization for a user who wants to extract a desired portion(103,104). The user marks or selects a corresponding portion by underlining it or with a color or an image, and stores a major portion of video and a voice file through a storage command(105-107). Personal information of the user is ciphered for the purpose of a DRM and recorded in a binary form(108).

Description

동영상(음성)파일에서 원하는 부분만 쉽고 빠르게 정확히 추출하여 저장하는 기술 {Technology which is storing easily, quickly and accurately only wanted part from the movie and audio files}Technology that is storing easily, quickly and accurately only wanted part from the movie and audio files}

도 1은 체화점 도출 요인(예, 문자나 자막)이 제공되지 않은 동영상 또는 음성의 부분 추출방법을 제시한 구성도;1 is a block diagram illustrating a method of extracting a portion of a video or audio in which a speech point derivation factor (eg, a text or a caption) is not provided;

도 2는 영상과 자막을 동시에 보며 부분추출을 할 수 있는 프로그램의 UI 예;2 is a UI example of a program capable of partial extraction while simultaneously watching an image and a subtitle;

도 3은 체화점 도출 요인(예,문자나 자막)이 제공되는 동영상 또는 음성의 부분 추출방법을 제시한 구성도;3 is a block diagram illustrating a method of extracting a portion of a moving picture or a voice provided with a firing point derivation factor (eg, a character or a caption);

도 4는 도 1과 도 2의 과정을 거친 부분추출 데이터를 이용목적에 따른 편집방법과 이용 사례 중 하나의 예를 제시한 구성도;4 is a configuration diagram showing an example of one of the editing method and use case according to the purpose of using the partial extraction data through the process of FIGS. 1 and 2;

도 5는 부분 추출한 데이터 출력사양설계지침과 출력매체별 화면편집 내용을 동시에 보면서 화면편집을 하는 구성도;FIG. 5 is a block diagram of screen editing while simultaneously viewing the partially extracted data output specification design guide and screen editing contents for each output medium; FIG.

본 발명은 동영상 및 음성 파일 내의 특정 부분(사용자가 원하는 부분, 주요장면, e러닝 강의의 경우 요점부분)을 정확하게 빠르고 쉽게 찾고, 찾은 부분을 색상이나 언더라인 등으로 표시하여 추출해 낼 수 있는 방법에 관한 것이다.The present invention provides a method for quickly and easily finding a specific part (a part desired by a user, a main scene, an essential part in an e-learning course) in a video and an audio file, and extracting the extracted part by displaying the color or underline. It is about.

일반적으로 동영상 및 음성을 재생할 때 흔히 사용하는 MS사의 Window Media Player와 Macromedia사의 Flash Player가 있는데 이는 멀티미디어 파일 재생 프로그램에서는 현재 재생되고 있는 위치를 변경할 수 있는 이동바와 같은 도구가 제공되나 이들은 잠깐 동안의 반복 시청을 하기 위한 것으로 본 발명과는 발명의 목적과 용도가 근본적으로 다르다.In general, there are Microsoft's Window Media Player and Macromedia's Flash Player, which are commonly used to play video and audio. The multimedia file player provides tools such as a move bar that can change the location of the currently playing file. The purpose and use of the invention are fundamentally different from those of the present invention for viewing.

또한 원하는 부분을 찾을 수 있다 하더라도 일방적으로 진행되는 특성을 가진 e러닝강좌나 웹 서비스에서 짧은 시간에 앞뒤를 쉽게 한눈에 볼 수 없음은 물론이고 빠르고 정확하게 주요부분의 주제설정 및 영역지정이 불가능하여 원하는 부분을 추출하는 기능은 없기 때문에 본 발명과는 근본적으로 다르다.In addition, even if you can find the part you want, you can not easily see the front and back in a short time in e-learning courses or web services that have a one-sided characteristic, and you can not set the subject and area of the main part quickly and accurately. Since there is no function to extract the parts, it is fundamentally different from the present invention.

상기한 종래기술의 문제점을 해결하기 위해서 고안된 본 발명의 목적은 동영상 및 음성파일에서 음성을 자막(텍스트)화하여 동영상(음성)과 자막을 동시에 보여주거나 보면서 원하는 부분 또는 주요부분(요점)을 쉽고 빠르게 정확히 찾을 수 있는 방법과 자막 상에 시작위치와 종료 위치 간을 색상이나 밑줄을 그은 뒤(마킹) 저장 하면 자동으로 지정된 부분을 신속하게 추출하여 저장하는 방법을 제공하여 이용자들에게 보다 높은 편의성을 제공하기 위한 것이다. The object of the present invention devised to solve the above problems of the prior art is to easily display the desired part or main part (the main point) while watching or watching the video (voice) and the subtitle at the same time by subtitle (text) the voice in the video and the audio file. It provides users with a convenient way to quickly and accurately find and save and extract the designated part automatically by color or underlining (marking) between the start and end positions on the subtitle. It is to provide.

상기한 목적을 달성하기 위한 본 발명에 따른 부분 추출 및 저장 방법은 자막이 제공되지 않은 동영상 또는 음성에서 화자 독립형 연속음성인식을 통한 자막을 추출하는 단계와;Partial extraction and storage method according to the present invention for achieving the above object comprises the steps of extracting the subtitles through the speaker-independent continuous speech recognition from the video or voice not provided subtitles;

추출된 자막에서의 문장별 또는 어휘별 시체화점과 종체화점을 임시저장소에 저장해두는 단계;Storing the body point and the longitudinal point of each sentence or vocabulary in the extracted subtitle in a temporary storage;

상기 동영상 또는 음성파일의 재생화면과 추출된 자막을 동시에 보도록 표시하는 두 개의 창을 나란히 배치하는 단계;Arranging two windows side by side to display the playback screen of the video or audio file and the extracted subtitles at the same time;

임시저장소에 저장된 자막과 재생시점을 활용하여 사용자가 재생화면에서 재생위치를 마우스로 드래그 또는 클릭하여 이동하거나 상기 자막 표시화면에서 스크롤 바를 이동하거나 자막표시화면의 특정 부분을 클릭하여 위치를 지정하는 경우 재생화면과 자막표시화면이 동기화되어 같이 움직이는 단계;When the user drags or clicks the playback position on the playback screen by using the subtitles and playback time stored in the temporary storage, moves the scroll bar on the subtitle display screen, or clicks a specific part of the subtitle display screen to specify the position. Synchronizing the play screen and the subtitle display screen together;

사용자가 추출을 원하는 문장에 색상을 달리하거나 밑줄을 긋는 방식으로 마킹을 하고 저장 버튼을 클릭하는 단계;Marking a sentence that the user wants to extract by changing colors or underlining the text and clicking a save button;

마킹된 텍스트의 문장을 임시저장소에서 질의(쿼리)하여 재생 시체화점과 종체화점을 읽어 오는 단계 및;Querying (queries) a sentence of the marked text in a temporary repository and reading a regeneration body point and a seed point;

읽어온 상기 추출대상 시간정보를 활용하여 동영상 및 음성 파일에서 원하는 부분을 추출하여 저장하는 단계를 포함하는 것을 특징으로 한다.And extracting and storing a desired portion from a video and an audio file by using the extracted extraction target time information.

또한 본 발명의 다른 실시 예에 따른 추출 및 저장방법은 동영상 및 음성파일 제공자에 의해 자막이 미리 제공되는 경우로서 제공된 자막을 임시저장소에 저장하는 단계와;In addition, the extraction and storage method according to another embodiment of the present invention comprises the steps of storing the subtitles provided in the temporary storage as the subtitles are provided in advance by the video and audio file provider;

저장된 자막의 주요 어휘의 어순 배열 특징을 통하여 음성인식 후 문장 또는 어휘,단어 별 재생시작 및 끝 시점을 임시저장소에 저장해두는 단계를 포함하여;Storing the sentence or vocabulary, the start and end time of playback of each word after speech recognition in a temporary storage through the lexical ordering feature of the main vocabulary of the stored subtitles;

이후 처리과정은 상기에 기술한 재생화면과 추출된 자막을 표시하는 화면을 나란히 배치하는 단계 이후의 절차를 동일하게 수행하여 동영상 및 음성 파일에서 원하는 부분을 추출하여 저장하는 단계를 포함하는 것을 특징으로 한다.Subsequently, the processing may include extracting and storing a desired portion from a video and an audio file by performing the same procedure after arranging the above-described playback screen and a screen displaying the extracted subtitles in parallel. do.

또한 본 발명의 목적을 더욱 효과적으로 구현하기 위해서 사용자로 하여금 더욱 빨리 원하는 위치를 찾게 하기 위해 자막표시화면에 해당 재생시점 내의 한 장면을 정지영상으로 추출하여 자막의 옆에 표현할 수도 있다.In addition, in order to more effectively implement the object of the present invention, in order to allow the user to find a desired position more quickly, a scene within the corresponding playback point on the caption display screen may be extracted as a still image and displayed next to the caption.

또한 본 발명의 활용 특성상 동영상을 사용자가 내 컴퓨터에 따로 저장할 수 있다는 점에서 저작권문제가 발생할 수 있으므로 부분추출 파일의 생성시에 저장한 사용자의 인적정보를 암호화하여 바이너리 형태로 추출 파일에 기록하여 두는 DRM기능을 구현하는 단계를 포함하는 단계를 두는 것을 특징으로 한다.In addition, due to the characteristics of the present invention, a copyright problem may occur because a user can separately store a video on my computer. Therefore, the user's personal information stored at the time of generating the partial extraction file is encrypted and recorded in the extraction file in binary form. Characterized in that the step including the step of implementing the DRM function.

본 발명에 있어서 체화점은 일반적으로 시간정보로 표현되나 동영상의 위치를 표현할 수 있는 프레임 수치와 같이 동영상 또는 음성에서 위치를 인지할 수 있는 어떠한 정보로도 본 발명을 구현할 수 있음은 물론이다.In the present invention, the embodied point is generally expressed as time information, but the present invention can be embodied as any information capable of recognizing a position in a video or voice, such as a frame number capable of expressing the position of a video.

마지막으로 본 발명기술의 활용자(제품제작과 이용자 등)들이 사용자별로 원하는 부분의 데이터나 정보를 미리 정한 의도대로 출력형태와 사양을 저장 매체별 또는 학습의 편의성을 높이기 위해서 자동편집과 가공의 편의성을 높여 주는 수단을 제 공하는 단계를 포함한다.Finally, the users of the present invention (product manufacturing and users, etc.) have the convenience of automatic editing and processing in order to increase the convenience of learning by storage media or learning according to a predetermined intention of data or information of a desired part for each user. Providing a means to enhance

이하 첨부된 도표를 참조하면서 본 발명의 한 실시 예에 따른 부분 추출 및 저장 방법을 상세하게 설명하면 다음과 같다.Hereinafter, a partial extraction and storage method according to an embodiment of the present invention will be described in detail with reference to the accompanying table.

인터넷 또는 사용자의 컴퓨터에서 재생되는 동영상 또는 음성 파일(111)에서 배경음악 또는 잡음 등 사람의 음성이 아닌 소리를 제거하고 화자 독립형 연속음성인식을 하여 자막(112)을 추출하는 단계(101)를 거쳐 임시저장소(121)에 저장을 한다. 생성된 자막은 음성 인식에 일부 오류가 있어 인식률이 낮아도 사용자가 밑줄을 긋거나 원하는 위치를 찾는데 큰 불편이 없는 수준이므로 원하는 부분을 찾아 저장하는데 아무 문제가 없는 것도 하나의 특징이다.After removing the subtitles 112 by removing the non-voice sound such as background music or noise from the video or audio file 111 played on the Internet or the user's computer, and extracting the subtitle 112. The temporary storage 121 is stored. The generated subtitles have some errors in speech recognition, so even if the recognition rate is low, there is no problem for the user to underline or find the desired location, so there is no problem in finding and storing the desired parts.

이후 음성인식 처리로써 문장별로 문장이 시작되는 시작시간과 끝 시간 또는 어휘가 시작과 끝나는 매 시점 등(113)을 자막(112)파일에 매치시켜 구조화하여 임시저장소(121)에 저장하는 재생시점 추출 및 구조화 단계(102)를 거친다. 이 시작점과 끝점을 본 발명에서는 각각 시체화점, 종체화점이라고 정의하기로 한다.After the speech recognition process by the sentence start time and end time of the sentence or every time point of the beginning and end of the vocabulary (113), etc. matched to the subtitle 112 file structured to extract the playback time to store in the temporary storage 121 And structuring step 102. The start point and the end point are defined as carcass and carcass points in the present invention, respectively.

상기 102단계는 101단계에서 음성인식을 할 때 동시 처리도 물론 가능하다.In step 102, simultaneous processing may be performed when voice recognition is performed in step 101.

사용자가 원하는 부분을 쉽고 빠르게 찾게 하기 위하여 도면 2와 같은 UI를 제공하는 단계(103)에서는 재생화면(210)과 자막화면(220)을 겹치지 않게 나란히 배치하며, 자막화면(220)에는 임시저장소(121)에 저장된 자막(112)을 시간정보(113)와 함께 디스플레이하며 매 시점마다 중요한 장면을 정지영상(223)으로 추출하여 도면과 같이 배치한다.In step 103 of providing a UI as shown in FIG. 2 to quickly and easily find a desired part of the user, the playback screen 210 and the subtitle screen 220 are arranged side by side so as not to overlap, and a temporary storage ( The subtitle 112 stored in 121 is displayed together with the time information 113, and an important scene is extracted into the still image 223 at each time point and arranged as shown in the drawing.

이제 사용자가 원하는 위치를 빠르게 찾는 것을 도와주기 위한 재생화면, 자막화면 동기화단계(104)에서는 특허등록기술(201ㅡ 두 개의 창 분할로)을 사용하면 더욱 효과적으로 구현할 수도 있는데 210 창과 220 창이 겹치지 않게 하여 작업하는 것으로, 재생화면(210)에서 영상 재생시점을 사용자가 변경하기 위해 재생바(211)를 드래그 또는 마우스 오버(마우스를 재생바위에 올리는 동작)하면 자막화면(220)에서 스크롤바(221)이 자동으로 움직이면서 해당되는 자막위치로 자동 이동시키는 기능이 작동된다. 이때 그 역으로 자막화면(220)에서 특정위치의 자막을 클릭하거나, 스크롤바(221)를 사용하여 현재 보는 자막의 위치를 변경하면 재생화면(210)에서 동영상 재생위치가 이동되어 재생바(211)의 표시 위치도 자동으로 변경되는 기능이 작동된다.Now, in the playback screen, subtitle screen synchronization step (104) to help the user quickly find the desired position can be implemented more effectively by using the patent registration technology (201-two window split), 210 and 220 windows do not overlap In this case, when the user drags or rolls over the play bar 211 (moves the mouse on the play rock) in order to change an image playback time on the play screen 210, the scroll bar 221 is displayed on the subtitle screen 220. It automatically moves to the subtitle position as it moves automatically. On the contrary, when the subtitle of the specific position is clicked on the subtitle screen 220 or the position of the currently viewed subtitle is changed using the scroll bar 221, the video play position is moved on the play screen 210 and the play bar 211 is displayed. The display position of is also changed automatically.

사용자가 추출을 원하는 시점을 찾은 경우 사용자가 자막화면(220)에서 마우스 드래그 또는 문장 클릭 등 이와 유사한 동작을 통하여 추출대상을 마킹하는 단계(105)를 통하여 추출될 부분을 지정할 수 있다. 이때 추출되는 영역은 문장 전체 또는 문장 중간도 될 수 있고 추출범위 또한 1개 영역 또는 복수영역을 지정할 수 있다. 마킹이 끝나고 사용자는 밑줄 부분 저장버튼(222)을 클릭한다.When the user finds a point in time to extract, the user may designate a portion to be extracted through the step 105 of marking the extraction object through a similar operation such as a mouse drag or a sentence click on the subtitle screen 220. In this case, the extracted region may be the whole sentence or the middle of the sentence, and the extraction range may also specify one region or a plurality of regions. After marking is completed, the user clicks the underlined part storage button 222.

다음으로 마킹된 추출시점의 Text정보를 사용하여 임시저장소(121)에 저장해 둔 자막(112)에서 쿼리(질의)하여 찾은 결과 그 시작시간과 끝 시간 정보(113)를 읽어 들이고 추출시간 정보를 저장하는 단계(114)를 거친다.Next, as a result of querying (finding) the subtitle 112 stored in the temporary storage 121 using the text information of the marked extraction time, the start time and the end time information 113 are read and the extraction time information is stored. Step 114 is performed.

저장된 1개 또는 복수의 추출시간정보(114)에 맞는 부분을 추출하는 단계(107)에서는 음성만 저장 또는 음성+동영상을 함께 저장하는 방식으로 부분추출 영상 또는 음성(115)을 만들고 사용자의 컴퓨터에 바로 저장 또는 서버에 생성시켜 두고 여러 서비스에 활용할 수 있다.In the extracting part 107 corresponding to the stored one or the plurality of extraction time information 114, the partial extraction image or the voice 115 is created by storing only the voice or storing the voice + video together and It can be stored or created on the server and used for various services.

본 발명으로 생산되는 동영상 및 음성의 부분 파일은 다수의 사용자가 임의로 생성하는 것으로서 개인 혼자만이 사용하려는 목적 이외의 파일 복사, 배포 시 저작권문제가 야기 될 수 있다. 따라서 이후 선택적인 단계로서 인터넷 사이트에서의 활용의 경우라면 로그인한 사용자의 정보, 내 컴퓨터에서의 활용이라면 프로그램 등록 등의 방식을 활용하여 취득한 파일 생성 자의 개인정보(성명, 주민등록번호 등 이와 유사한 개인정보)(116)를 강제로 암호화하여 부분 추출된 영상 및 음성 파일에 바이너리 형태로 기록하는 단계(108)를 포함할 수 있다. 이후 본 정보는 본 파일이 불법 유통되었을 때 사후 조치를 취할 수 있고 사용자에게 이러한 내용의 경 고를 줌으로써 불법행위를 미리 방지키 위한 대책으로 사용될 수 있다.The partial files of the video and audio produced by the present invention are randomly generated by a plurality of users, and may cause copyright problems when copying and distributing files other than the purpose of use by an individual alone. Therefore, as an optional step, the personal information of the file creator obtained by using the information of the logged-in user in the case of the use on the Internet site or the program registration in the case of the use in My Computer (personal information similar to the name, social security number, etc.) And forcibly encrypting 116 to record 108 in a binary form in the partially extracted video and audio file. This information can then be taken as a follow-up when the file is illegally distributed and can be used as a countermeasure to prevent illegal activities by warning users of such contents.

지금까지 설명한 예는 서비스 제공자의 동영상 또는 음성(111)에 자막이 제공되지 않는 경우의 활용 예를 설명한 것이다. 그러나 만약 서비스 제공자의 자막이 제공된다면 더욱더 정확하고 완성도 높은 영상 및 음성 추출 및 저장할 수 있게 된다.(도면 3)The example described so far has described an example in which captions are not provided in the video or voice 111 of the service provider. However, if subtitles are provided by the service provider, more accurate and complete video and audio extraction and storage can be obtained (Fig. 3).

서비스 제공자에 의해 제공된 동영상 또는 음성 파일(311)과 자막(312) 중 자막을 임시저장소(321)에 저장해 두는 단계(301)를 거친 뒤 문장별 재생시점 추출 단계(302)에서는 자막이 미리 제공되었으므로 어휘의 배열순서 정보를 활용하여 음성인식을 할 경우 문장별 또는 어휘별 재생시점을 더욱더 정밀하게 구조화하여 재생시점(314)을 구하여 저장할 수 있게 된다.Since the subtitles of the video or audio file 311 provided by the service provider and the subtitles 312 are stored in the temporary storage 321, step 301, and then the subtitles are reproduced in the sentence-based playback point extraction step 302. When speech recognition is performed using the arrangement order information of the vocabulary, the playback time point by sentence or vocabulary can be more precisely structured to obtain and store the playback time point 314.

이후 재생화면(210)과 자막화면(220)을 표시하는 단계(303)부터 부분 추출된 영상 또는 음성(316)을 추출 및 저장하는 단계(307)와 DRM 암호화 기록단계(308)까지의 단계별 동작은 도면 1의 (103)단계부터 (108)단계까지와 동일하므로 설명을 생략한다.After step 303 of displaying the playback screen 210 and the subtitle screen 220, extracting and storing the partially extracted video or audio 316 (307) and DRM encrypted recording step 308 1 is the same as step (103) to step (108) of Figure 1, and a description thereof will be omitted.

본 발명이 쓰이는 하나의 예로서 위에서 기술한 모든 과정을 거친 부분추출 된 데 이터(316)를 이용목적에 분야별로 사양설계(401)를 하고 출력형태에 따라 화면편집(402)을 한 다음에 그 내용을 용도별로 화면출력내용 저장매체(405)에 저장을 한다. 이때 화면출력내용에 출력기기 지정에 따른 색인기능(403)을 동시에 부여한 다음에 이용자들의 용도별 전자기기에 저장 및 호출기능(404)을 제공하면 다수의 이용자가 다양한 용도(406)로 활용할 수 있다. 이 본 발명이 쓰이는 하나의 예에서 도면 4의 402(출력형태와 화면편집)에서는 특허등록기술 제0376314호를 활용(501)하면 더욱더 편리함을 제공하게 되는데 이는 좌측화면에서는 부분 추출된 정보 또는 데이터의 출력화면구성과 가공편집 창(502)으로, 우측화면에는 출력형태에 따른 편집사양과 기준(503)을 동시에 보면서 출력물을 설계, 개발하면 제작 시간과 노력을 크게 절약할 수 있다.As an example in which the present invention is used, the partial design data 316, which has undergone all the above-described processes, is subjected to specification design 401 for each purpose of use, and screen editing 402 is performed according to the output form. The contents are stored in the screen output contents storage medium 405 for each purpose. At this time, if the index function 403 according to the output device designation is given to the screen output contents at the same time, and the storage and calling function 404 is provided to the electronic devices for each use of the users, a plurality of users can utilize the various uses 406. In an example in which the present invention is used, in 402 (output form and screen editing) of FIG. 4, using Patent Registration No. 076314 (501) provides even more convenience. With the output screen configuration and the processing edit window 502, the right screen can design and develop the output while simultaneously viewing the edit specification and the reference 503 according to the output type, which can greatly reduce production time and effort.

이상과 같이 본 발명에 따르면 사용자가 동영상 및 음성에서 자막과 부분영상을 미리 보게 되어 원하는 부분을 쉽고 빠르게 그리고 정확하게 찾아 필요한 부분만을 단지 자막에 밑줄 긋고 저장버튼을 클릭하는 것만으로 자동 추출 저장할 수 있는 효과가 있다.As described above, according to the present invention, the user can preview the subtitles and partial images in the video and the voice so that the user can easily and quickly and accurately find the desired part by simply underlining the necessary part in the subtitles and automatically extracting and saving them by clicking the save button. There is.

또한 본 발명에 의한 부분추출 방법과 콘텐츠 편집방법을 적절히 활용하여 부가적으로 주석과 색인기능 등까지 넣어 줄 수 있는 효과도 있다.In addition, by using the partial extraction method and the content editing method according to the present invention, there is also an effect that can be added to the annotation and indexing function.

따라서 본 발명을 활용하고자 하는 서비스 제공업자는 예컨대 e러닝의 경우 e러닝에서 요점만을 추출하여 휴대할 수 있는 정보기기에 담아 활용할 수 있는 u러닝의 기능을 사용자에게 제공할 수 있으며 각종 영상 및 음원 서비스 업체 등에서 뉴스, 영화, 음악, 드라마 등의 모든 영상 및 음성에서 원하는 부분만을 빠르게 볼 수 있고, 추출할 수 있는 편의성을 제공할 수 있는 효과가 있다.Therefore, a service provider who wants to utilize the present invention can provide a user with a function of u-learning that can be utilized in an information device that can be extracted and carried only in the case of e-learning and carried in e-learning, and various video and sound service services. Companies, such as news, movies, music, dramas, such as all images and voices can be seen quickly only the desired portion, it is effective to provide the convenience to extract.

따라서 특히 e & u러닝분야에서는 학습의 고 효율성은 물론이고 일반인들이 동영상 및 음성 등 멀티미디어로 된 각종 서비스 이용 활성화에 크게 기여하게 될 것이다.Therefore, especially in the field of e & u learning, not only the high efficiency of learning but also the general public will greatly contribute to the activation of the use of various services including multimedia such as video and voice.

Claims (8)

동영상 또는 음성파일에서 음성인식을 통하여 자막 및 해당 자막의 어휘별 재생시점을 자막 정보와 구조화하여 임시 저장소에 저장하는 단계와; 자막에 추출을 원하는 부분을 마킹(선택)하는 단계; 선택된 텍스트 정보로 임시 저장된 재생시점 정보를 가져와 자동으로 동영상 또는 음성파일에서 부분 추출 및 저장을 하는 단계를 포함한 것을 특징으로 하는 동영상 또는 음성 추출방법Storing the caption and playback time of the subtitles and the vocabulary of the caption with caption information through voice recognition in a video or audio file and storing the caption information in a temporary storage; Marking (selecting) a portion of the caption to be extracted; Video or audio extraction method comprising the step of automatically extracting and storing the playback time information with the selected text information and the partial extraction and storage from the video or audio file 제 1 항에 있어서 음성인식을 통하여 해당 부분의 재생시점을 구조화할 때 어휘, 단어, 문장의 특징은 물론 화면의 변화, 음성 또는 소리의 변화의 특징을 고려하여 구분 시점 및 재생시점을 추출해 내는 것을 특징으로 하는 동영상 또는 음성 추출 방법The method of claim 1, wherein when the playback time of the corresponding part is structured through voice recognition, the separation time and the playback time are extracted in consideration of the characteristics of the change of the screen, the voice or the sound, as well as the characteristics of the vocabulary, words, and sentences. Featured video or voice extraction method 제 1 항에 있어서 상기 동영상 또는 음성파일에 맞는 자막이 미리 제공된 경우 제공된 자막을 활용하여 음성 또는 소리패턴을 인식하여 재생시점을 추출하는 것을 특징으로 하는 동영상 또는 음성 추출 방법The method of claim 1, wherein when a subtitle corresponding to the video or audio file is provided in advance, a playback time is extracted by recognizing a voice or sound pattern using the provided subtitle. 제 1 항에 있어서 상기 동영상 또는 음성파일 재생 시 재생화면과 자막이 표시된 화면을 동시에 보여주고 재생화면의 재생 위치 변경 시에는 자막화면의 디스플레이 위치가 해당 위치로 자동으로 이동되고 자막화면의 위치 변경 시에는 재생화면의 재생 위치가 해당 위치로 자동으로 이동되어 동기화되는 것을 특징으로 하는 동영상 또는 음성 추출 방법The method of claim 1, wherein the playback screen and the subtitle display screen are simultaneously displayed when the video or audio file is played. When the playback position of the playback screen is changed, the display position of the subtitle screen is automatically moved to the corresponding position. The video or audio extraction method characterized in that the playback position of the playback screen is automatically moved to the corresponding position and synchronized 제 1 항에 있어서 상기 동영상 재생 시 사용자가 쉽고 빠르게 그리고 정확하게 원하는 위치를 찾을 수 있도록 영상의 시점별 주요장면을 정지화면으로 추출하여 재생화면에 같이 보여주는 것을 특징으로 하는 동영상 또는 음성 추출 방법The video or audio extraction method of claim 1, wherein the main scene for each view point is extracted as a still picture and displayed on a playback screen so that a user can find a desired position easily and quickly and accurately. 제 1 항에 있어서 동영상 또는 음성파일의 부분 추출 및 저장 시 저작권 보호 목적으로 사용자의 개인정보를 암호화하여 바이너리 형태로 생성되는 동영상 및 음성 파일에 동시에 기록하는 것을 특징으로 하는 동영상 또는 음성 추출 방법The method of claim 1, wherein the user's personal information is encrypted for the purpose of copyright protection when the partial extraction and storage of the video or audio file are simultaneously recorded in the video and audio file generated in binary form. 제 1항으로 추출한 데이터(동영상 또는 음성)를 이용고객의 용도별, 출력매체에 따른 출력형태와 사양의 편집방법 제시 단계를 포함한 것을 특징으로 하는 동영상 또는 음성 추출방법The method of extracting video or audio, comprising the step of presenting the method of editing the output form and specification according to the use media of the user and the output medium by using the extracted data (video or audio) according to claim 1. 제 7 항에 있어서 동영상 또는 음성파일 중에 원하는 내용만을 추출하여 미리 정한 의도대로 출력형태와 사양을 저장했다가 매체별(예 MP3, PMP, PDA등)로 다르게 자동편집을 하는 편의성을 높여 주는 가공편집수단을 제공하는 것을 특징으로 하는 동영상 또는 음성 추출방법The processing edit according to claim 7, wherein only the desired contents are extracted from the video or audio file, and the output form and specification are stored according to a predetermined intention, and the convenience of automatic editing is different for each medium (eg MP3, PMP, PDA, etc.). Video or audio extraction method characterized by providing a means
KR1020070025792A 2007-03-16 2007-03-16 Technology which is storing easily, quickly and accurately only wanted part from the movie and audio files KR20080084303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070025792A KR20080084303A (en) 2007-03-16 2007-03-16 Technology which is storing easily, quickly and accurately only wanted part from the movie and audio files

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070025792A KR20080084303A (en) 2007-03-16 2007-03-16 Technology which is storing easily, quickly and accurately only wanted part from the movie and audio files

Publications (1)

Publication Number Publication Date
KR20080084303A true KR20080084303A (en) 2008-09-19

Family

ID=40024678

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070025792A KR20080084303A (en) 2007-03-16 2007-03-16 Technology which is storing easily, quickly and accurately only wanted part from the movie and audio files

Country Status (1)

Country Link
KR (1) KR20080084303A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101326275B1 (en) * 2011-07-29 2013-11-11 김희곤 Text and voice synchronizing player
WO2018084910A1 (en) * 2016-11-07 2018-05-11 Axon Enterprise, Inc. Systems and methods for interrelating text transcript information with video and/or audio information
CN116600168A (en) * 2023-04-10 2023-08-15 深圳市赛凌伟业科技有限公司 Multimedia data processing method and device, electronic equipment and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101326275B1 (en) * 2011-07-29 2013-11-11 김희곤 Text and voice synchronizing player
WO2018084910A1 (en) * 2016-11-07 2018-05-11 Axon Enterprise, Inc. Systems and methods for interrelating text transcript information with video and/or audio information
US10755729B2 (en) 2016-11-07 2020-08-25 Axon Enterprise, Inc. Systems and methods for interrelating text transcript information with video and/or audio information
US10943600B2 (en) 2016-11-07 2021-03-09 Axon Enterprise, Inc. Systems and methods for interrelating text transcript information with video and/or audio information
CN116600168A (en) * 2023-04-10 2023-08-15 深圳市赛凌伟业科技有限公司 Multimedia data processing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
Pavel et al. Video digests: a browsable, skimmable format for informational lecture videos.
ES2762328T3 (en) System and method for subtitling media
US9213705B1 (en) Presenting content related to primary audio content
CN109246472A (en) Video broadcasting method, device, terminal device and storage medium
US20210165973A1 (en) Generating and Editing Media
US20140310746A1 (en) Digital asset management, authoring, and presentation techniques
US20150261419A1 (en) Web-Based Video Navigation, Editing and Augmenting Apparatus, System and Method
US20180226101A1 (en) Methods and systems for interactive multimedia creation
US20200126583A1 (en) Discovering highlights in transcribed source material for rapid multimedia production
CN104246750A (en) Transcription of speech
US8799774B2 (en) Translatable annotated presentation of a computer program operation
CN110781328A (en) Video generation method, system, device and storage medium based on voice recognition
KR20160044981A (en) Video processing apparatus and method of operations thereof
CN102860031A (en) Apparatus And Method For Identifying A Still Image Contained In Moving Image Contents
KR20090089878A (en) Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method
GB2520041A (en) Automated multimedia content editing
KR20080084303A (en) Technology which is storing easily, quickly and accurately only wanted part from the movie and audio files
WO2013040244A1 (en) Logging events in media files including frame matching
JP2006050469A (en) Content generating apparatus, content generating method, program and recording medium
KR102480196B1 (en) Summary note making method for educational content
JP5910222B2 (en) Information processing apparatus and information processing program
KR20140137219A (en) Method for providing s,e,u-contents by easily, quickly and accurately extracting only wanted part from multimedia file
KR101477492B1 (en) Apparatus for editing and playing video contents and the method thereof
JP7133367B2 (en) MOVIE EDITING DEVICE, MOVIE EDITING METHOD, AND MOVIE EDITING PROGRAM
US20160127807A1 (en) Dynamically determined audiovisual content guidebook

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20090921

Effective date: 20100129

J2X1 Appeal (before the patent court)

Free format text: APPEAL AGAINST DECISION TO DECLINE REFUSAL

J302 Written judgement (patent court)

Free format text: JUDGMENT (PATENT COURT) FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20100326

Effective date: 20101028