KR100319160B1 - How to search video and organize search data based on event section - Google Patents

How to search video and organize search data based on event section Download PDF

Info

Publication number
KR100319160B1
KR100319160B1 KR1019980053238A KR19980053238A KR100319160B1 KR 100319160 B1 KR100319160 B1 KR 100319160B1 KR 1019980053238 A KR1019980053238 A KR 1019980053238A KR 19980053238 A KR19980053238 A KR 19980053238A KR 100319160 B1 KR100319160 B1 KR 100319160B1
Authority
KR
South Korea
Prior art keywords
event
video
section
unit
search
Prior art date
Application number
KR1019980053238A
Other languages
Korean (ko)
Other versions
KR20000038290A (en
Inventor
김현준
이진수
Original Assignee
구자홍
엘지전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자주식회사 filed Critical 구자홍
Priority to KR1019980053238A priority Critical patent/KR100319160B1/en
Priority to US09/239,531 priority patent/US6492998B1/en
Priority to CNB991095553A priority patent/CN1269344C/en
Priority to EP99123530A priority patent/EP1006459A3/en
Priority to JP34569999A priority patent/JP3454764B2/en
Publication of KR20000038290A publication Critical patent/KR20000038290A/en
Application granted granted Critical
Publication of KR100319160B1 publication Critical patent/KR100319160B1/en

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 동영상을 검색하는 시스템에 관한 것으로서 특히, 영화나 드라마 등의 동영상의 내용을 복수개의 사건들이 상호 결합된 형태의 줄거리로 표현하여 각각의 사건 구간별로 동영상 내용을 검색하는 시스템으로서; 단위사건을 나타내는 사건문단들로 구성되는 전체 줄거리로 표현하고, 하나의 단위사건 문단이 나타내는 각각의 사건별로 실제의 동영상 구간을 나누어 그 나누어진 구간별로 동영상 내용을 요약, 검색할 수 있도록 한 사건구간을 기반으로 하는 동영상 검색방법과 검색 데이타 구성방법에 관한 것이다.The present invention relates to a system for retrieving a moving picture, and more particularly, to a system for retrieving moving picture content for each event section by expressing a content of a moving picture such as a movie or a drama in a form of a plurality of events. It is expressed as an entire story line consisting of case paragraphs representing unit events, divided into actual video sections for each event represented by one unit event paragraph, and summarized and searched for the contents of the video by divided sections. The present invention relates to a video retrieval method and a retrieval data construction method based on the.

종래에 동영상 검색 및 동영상 내용의 요약을 위한 기술들은 대부분 방대한 내용 전체를 키프레임(Key Frame)이나 기타 기존의 내용기반 브라우징(Browsing)기법을 사용해서 표현하고 있다.Conventionally, techniques for searching video and summarizing video contents are mostly expressed using a key frame or other existing content-based browsing techniques.

본 발명은 영화, 드라마 등의 동영상 내용을 전체 줄거리로 표현하고, 이때 전체 줄거리는 드라마나 영화의 내용전개에 따른 단위사건별로 사건문단의 형태로 표현하고, 각각의 단위사건에 해당하는 각 사건별로 실제의 동영상의 구간을 나누어 이 나누어진 구간별로는 기존의 브라우징 방법을 포함하는 검색방법들을 적절하게 적용하여 검색할 수 있도록 한 사건구간을 기반으로 하는 동영상 검색방법과 검색 데이타 구조를 제공한다.The present invention expresses the contents of a video such as a movie, a drama as an entire plot, wherein the entire plot is expressed in the form of an event paragraph for each unit event according to the contents of the drama or movie, and for each event corresponding to each unit event By dividing the actual video section, each divided section provides a video search method and a search data structure based on the event section so that the search method including the existing browsing method can be appropriately applied and searched.

Description

사건구간을 기반으로 하는 동영상 검색방법과 검색 데이타 구성방법Video retrieval method and retrieval data composition method based on event section

본 발명은 동영상을 검색하는 시스템에 관한 것으로서 특히, 영화나 드라마 등의 동영상의 내용을 복수개의 사건들이 상호 결합된 형태의 줄거리로 표현하여 각각의 사건 구간별로 동영상 내용을 검색하는 시스템으로서; 단위사건을 나타내는 사건문단들로 구성되는 전체 줄거리로 표현하고, 하나의 단위사건 문단이 나타내는 각각의 사건별로 실제의 동영상 구간을 나누어 그 나누어진 구간별로 동영상 내용을 요약, 검색할 수 있도록 한 사건구간을 기반으로 하는 동영상 검색방법과 검색 데이타 구성방법에 관한 것이다.The present invention relates to a system for retrieving a moving picture, and more particularly, to a system for retrieving moving picture content for each event section by expressing a content of a moving picture such as a movie or a drama in a form of a plurality of events. It is expressed as an entire story line consisting of case paragraphs representing unit events, divided into actual video sections for each event represented by one unit event paragraph, and summarized and searched for the contents of the video by divided sections. The present invention relates to a video retrieval method and a retrieval data construction method based on the.

종래의 동영상 검색 및 동영상 내용의 요약을 위한 기술들은 대부분 방대한 내용 전체를 키프레임(Key Frame)이나 기타 기존의 내용기반 브라우징(Browsing)기법을 사용해서 표현하고 있다.Conventional techniques for video retrieval and video summary are mostly expressed using key frames or other existing content-based browsing techniques.

그러므로 영화나 드라마 등의 내용 전체를 몇개의 발췌된 키프레임이나 등장인물 중심의 내용기반 브라우징 기법으로 요약 및 검색하는 것이 어렵고 복잡할 뿐만 아니라, 대표적인 장면 몇으로부터 그 내용을 표현하는데는 모호함이 따르게 되고 정확한 정보의 제시와 검색을 어렵게 한다.Therefore, it is not only difficult and complicated to summarize and search the entire contents of a movie or drama with a few extracted keyframes or character-oriented content-based browsing techniques, but it also leads to ambiguity in expressing the contents from a few representative scenes. Difficult to present and retrieve accurate information.

특히, 드라마나 영화 등의 동영상은 그 내용의 특성상 전체 줄거리가 단위사건의 상호 결합에 의해서 진행되는 특성을 가지고 있으므로, 이러한 단위사건들의 상호 긴밀한 결합관계를 제시하지 못한채, 단순히 키프레임 또는 등장인물 중심의 검색을 수행할 수 밖에 없었다.In particular, since the entire story of a movie such as a drama or a movie has a characteristic that the entire story proceeds by mutual coupling of unit events, the key story or character center is not presented without showing a close coupling relationship between such unit events. Was forced to perform a search of.

종래의 동영상 검색 기술로서 동영상에서 키프레임을 추출하고 각 키프레임 간의 시간적인 관계를 그래프로 표현함으로써 전체 내용을 요약하고 검색하는 기술이 제시된다.(미합중국 특허 제 5,708,767 호: Method and apparatus for video browsing based on content and structure).As a conventional video retrieval technique, a technique of summarizing and retrieving the entire contents by extracting keyframes from a video and representing a temporal relationship between each keyframe is presented. (US Patent No. 5,708,767: Method and apparatus for video browsing) based on content and structure).

그러나 이 방법은 단순한 동영상 파일에는 가능하지만, 드라마나 영화와 같이 단위사건들이 상호 밀접한 관계를 맺고 시간에 따라 변화하는 방대한 양의 동영상 파일에 적용하기에는 한계가 있다.However, this method can be used for simple video files, but there is a limit to applying it to a large amount of video files in which unit events are closely related to each other and change over time such as dramas and movies.

즉, 어느정도 이상으로 방대한 양의 동영상의 경우는 키프레임 수도 매우 많고 또 그들간의 관계의 수는 더욱 많아지기 때문에 이렇게 많은 수의 키프레임과 관계를 그래프로 표현하기도 어려울 뿐만 아니라 표현할 경우 사용자가 그 그래프 자체를 이해하는 것조차 힘들게 된다.In other words, in case of a huge amount of video, the number of key frames and the relationship between them becomes much larger, so it is not only difficult to express such a large number of key frames and relationships, but also if the user expresses the graph Even understanding itself becomes hard.

종래의 동영상 검색기술로서 키프레임 기반의 동영상 요약 및 검색기능을 제공하는 것이 있다.(A Distribute System for Editing and Browsing compressed Video Over the Network; Horace J.Meng, IEEE Signal Processing Society 1997 Workshop on Mumtimedia Signal Processing, New Jersey).Conventional video retrieval technology provides a keyframe based video summary and retrieval function (A Distribute System for Editing and Browsing compressed Video Over the Network; Horace J.Meng, IEEE Signal Processing Society 1997 Workshop on Mumtimedia Signal Processing) , New Jersey).

이 기술은 키프레임을 어느정도 길이의 구간에서 추출했느냐에 따라 계층을 둔 기술로서, 즉 상위에는 큰 구간에서 키프레임을 추출했기 때문에 키프레임의 수가 적고, 하위 계층으로 내려올수록 작은 구간에서 추출한 키프레임들이 트리구조로 구성된다.This technique is hierarchical, depending on how long the keyframes are extracted from, which means that the keyframes are extracted from the larger sections at the top and the number of keyframes is extracted from the smaller sections. It consists of a tree structure.

그러나 이 구조는 대표장면으로 전체 내용을 브라우징할 수 없고, 또한 상위계층의 키프레임이 너무 큰 구간에서 추출되기 때문에 원하는 부분을 키프레임만으로 찾아가기가 어려운 문제점이 있다.However, this structure has a problem that it is difficult to browse the entire contents in the representative scene, and also it is difficult to find the desired part only by the key frame because the key frame of the upper layer is extracted in a too large section.

본 발명은 영화, 드라마 등의 동영상 내용을 전체 줄거리로 표현하고, 이때 전체 줄거리는 드라마나 영화의 내용전개에 따른 단위사건별로 사건문단의 형태로 표현하고, 각각의 단위사건에 해당하는 각 사건별로 실제의 동영상의 구간을 나누어 이 나누어진 구간별로는 기존의 브라우징 방법을 포함하는 검색방법들을 적절하게 적용하여 검색할 수 있도록 한 사건구간을 기반으로 하는 동영상 검색방법과 검색 데이타의 구조를 제공한다.The present invention expresses the contents of a video such as a movie, a drama as an entire plot, wherein the entire plot is expressed in the form of an event paragraph for each unit event according to the contents of the drama or movie, and for each event corresponding to each unit event By dividing the actual video section, this divided section provides the structure of the video search method and the search data based on the event section so that the search method including the existing browsing method can be applied and searched appropriately.

본 발명은 영화나 드라마 등의 동영상 내용을 그 내용전개에 따르는 단위사건들의 상호 결합관계로부터 일목요연하게 파악할 수 있는 단위사건 문단(텍스트 또는 텍스트와 대표장면의 형태)으로 제시하고, 이러한 사건구간을 기반으로 하여 동영상 내용을 요약 및 검색할 수 있도록 함으로써, 종래에 키프레임이나 대표장면만으로 표현하는 검색시스템에 비하여 방대한 양의 동영상에 적용할 수 있고, 또 간편하며 용이하게 동영상 내용을 요약 및 검색할 수 있도록 한 사건구간을 기반으로 하는 동영상 검색방법과 검색 데이타 구조를 제공한다.The present invention presents a video event such as a movie or drama in a unit event paragraph (text or in the form of a text and a representative scene) which can be grasped at a glance from the mutual connection of unit events according to the content development, and based on such an event section By summarizing and retrieving video contents, it can be applied to a large amount of videos compared to the conventional retrieval system using only keyframes or representative scenes, and can summarize and search video contents simply and easily. To provide a video retrieval method and retrieval data structure based on an event section.

도1은 본 발명에 의한 동영상 제작과 검색기의 일실시예를 나타낸 블럭도1 is a block diagram showing an embodiment of a video production and searcher according to the present invention;

도2는 본 발명에서 전체 줄거리내의 단위사건을 문단으로 표현하고 그 사건의 관계를 키프레임(Key Frames)과 그들간의 시간적 관계를 그래프로 표현한 브라우저를 나타낸 도면FIG. 2 is a diagram illustrating a browser in which a unit event in the entire plot is expressed in a paragraph, and the relationship of the events is represented graphically by key frames and the temporal relationship between them.

도3은 본 발명에서 전체 줄거리내의 단위사건을 문단으로 표현하고 그 단위사건을 대표하는 장면을 키프레임으로 표현한 브라우저를 나타낸 도면FIG. 3 is a diagram illustrating a browser expressing a unit event in the entire story in paragraphs and a keyframe representing a scene representing the unit event in the present invention.

도4는 본 발명에서 전체 줄거리내의 단위사건을 문단으로 표현하고 그 단위사건에 해당하는 인물과 장소와의 관계 및 대표장면을 표현한 브라우저를 나타낸 도면4 is a diagram illustrating a browser expressing a unit event in the entire plot in the present invention as a paragraph, and a relationship between a person and a place corresponding to the unit event and a representative scene.

도5는 본 발명에서 줄거리를 구성하는 각 사건문단별로 대표장면을 함께 보여주는 브라우저를 나타낸 도면5 is a view showing a browser showing a representative scene for each case paragraph constituting the plot in the present invention;

도6은 상기 도4 및 도5의 구현을 위한 검색 데이타의 구조를 나타낸 도면6 illustrates the structure of search data for the implementation of FIGS. 4 and 5;

도7,도8은 본 발명에서 전체 줄거리내의 단위사건을 문단으로 표현하고 그 단위사건에 해당하는 인물과 장소의 다중레벨을 설명하기 위한 브라우저를 나타낸 도면7 and 8 are diagrams illustrating a browser for expressing a unit event in an entire story in a paragraph and explaining multiple levels of a person and a place corresponding to the unit event in the present invention.

본 발명은 동영상 내용의 전체 줄거리를 동영상을 구성하는 의미있는 사건의 단위로서 단위사건별로 구분하여 하나의 단위사건을 나타내는 사건문단의 집합으로 구성하고, 상기 각각의 사건문단에 해당하는 동영상 구간을 지시하는 정보를 설정하여 이루어짐을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색 데이타 구조로서, 상기 단위사건을 나타내는 사건문단은 텍스트만으로 이루어지거나, 텍스트와 함께 대표장면으로 이루어질 수 있고, 상기의 단위사건은 최대로는 동영상 전체의 내용이고, 최소로는 프레임 레벨의 변화일 수 있다.The present invention is composed of a set of case paragraphs representing one unit event by dividing the entire plot of the video content by the unit case as a meaningful event unit constituting the video, and indicates a video section corresponding to each case paragraph A video retrieval data structure based on an event section, characterized in that the information is made by setting the information, wherein the case paragraph representing the unit event may be composed of text only or a representative scene with the text, the unit event The maximum may be content of the entire video, and the minimum may be a change in the frame level.

본 발명은 동영상 내용의 전체 줄거리를 동영상을 구성하는 의미있는 사건의 단위로서 단위사건별로 구분하여 하나의 단위사건을 나타내는 사건문단의 집합으로 구성하고, 상기 각각의 사건문단에 해당하는 동영상 구간을 지시하는 정보를 설정하는 검색정보 설정과정과, 상기 설정된 검색정보에 따른 단위사건 문단중에서 임의의 단위사건을 선택하면 그 것에 응답하여 해당 동영상 구간에 대한 정보를 표현하는 검색정보 표시과정으로 이루어짐을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색방법이다.The present invention is composed of a set of case paragraphs representing one unit event by dividing the entire plot of the video content by the unit case as a meaningful event unit constituting the video, and indicates a video section corresponding to each case paragraph Search information setting process for setting information, and if a random unit event is selected from the unit event paragraphs according to the set search information, the search information display process expresses information on the corresponding video section in response thereto. It is a video search method based on an event section.

또한 본 발명은 상기의 단위사건을 나타내는 사건문단이 텍스트만으로 표현되거나, 텍스트와 그 단위사건 구간에서의 대표장면 등 단위사건의 내용이해에 도움이 되는 다른 요소를 포함하는 형태로로 표현될 수 있다.In addition, the present invention may be expressed in the form of an event paragraph indicating the unit event in the form of text only, or in the form of text and other elements to help understand the contents of the unit event, such as the representative scene in the unit event section. .

또한 본 발명은 상기 검색정보 표시과정이 기존의 키프레임 나열식 방법이나, 씬 트랜지션(Scene Transition)방법을 적용할 수도 있고, 오브젝트(Object)와 장소(Place)의 관계 그래프를 제시하여 오브젝트와 장소와의 관계로부터 검색하는 방법을 적용할 수도 있다.In addition, the present invention can be applied to the existing keyframe arrangement method, the scene transition (Scene Transition) method, the search information display process, by presenting a graph of the relationship between the object (Object) and the place (Place) by the object and place You can also apply the search method from the relation with.

도1은 본 발명의 동영상 검색 시스템의 전체적인 블럭도의 한가지 실시예를 나타내며 여기에 도시된 것에 의해서 본 발명이 제한되지는 않는다.Figure 1 shows one embodiment of an overall block diagram of the video retrieval system of the present invention and the present invention is not limited by the illustration.

도1에서는 설명의 편의상 비디오 공급자와 사용자의 입장으로 분리하였다.In FIG. 1, for convenience of explanation, the video provider and the user are separated.

비디오 공급자는 상기한 본 발명의 사건관계 중심 동영상 검색 데이타의 구성 과정을 통해서 도2 내지 도6과 같은 검색정보를 제공하고, 사용자는 도2 내지 도6과 같은 검색정보를 이용해서 검색 브라우저에 의한 사건관계 중심의 동영상 검색을 실행할 수 있게 되는 것이다.The video provider provides search information as shown in Figs. 2 to 6 through the process of constructing the event relationship-oriented video search data of the present invention, and the user uses the search information as shown in Figs. Event-driven video search will be available.

디지탈 비디오 데이타(101)는 입력 비디오 버퍼(102)에 저장되고, 비디오 버퍼(102)에 저장된 디지탈 비디오 데이타는 비디오 프로세싱 유닛(103)에 의해서 멀티 미디어 비디오 스트림의 파일로 콘트롤되며, 콘트롤 프로세싱 유닛(104)은 필요한 각각의 정보를 제작하거나 있는 정보를 읽어서 처리한다.The digital video data 101 is stored in the input video buffer 102, the digital video data stored in the video buffer 102 is controlled by the video processing unit 103 as a file of the multimedia video stream, and the control processing unit ( 104) produces each piece of information required or reads and processes the information.

사용자 인터페이스 및 표시부(105)는 비디오 프로세싱 유닛(103) 및 콘트롤 프로세싱 유닛(104)에 의해서 처리되는 비디오 데이타의 표시는 물론, 검색 데이타 제작을 위한 사용자 정보들을 입력하기 위한 인터페이스를 제공한다.The user interface and display unit 105 provides an interface for displaying the video data processed by the video processing unit 103 and the control processing unit 104 as well as inputting user information for producing search data.

콘트롤 프로세싱 유닛(104)에서 처리된 사건구간별 동영상 검색 데이타 구조의 해당 정보들은 비디오 정보처리 메모리(106)에 저장되고, 여기에 저장된 사건구간별 검색정보는 비디오 버퍼(102)에 수록된 비디오 데이타와 함께 적절한 포맷으로서 저장공간(107)에 저장된다.Corresponding information of the video data retrieval data structure by event section processed by the control processing unit 104 is stored in the video information processing memory 106, and the video data stored in the video buffer 102 is stored in the video information processing memory. Together, it is stored in the storage space 107 as an appropriate format.

이 저장공간(107)에 저장된 비디오 데이타 및 검색관련 정보들은 기록매체의 형태 또는 유선이나 무선 방송통신망을 통해서 사용자에게 제공된다.The video data and search related information stored in the storage space 107 are provided to the user in the form of a recording medium or through a wired or wireless broadcasting network.

사용자측에서는 상기 저장공간(107)으로부터 제공되는 비디오 데이타와 사건 구간별 검색 데이타를 검출하고 또 판독하여 사용자 요구에 응답하게 된다.The user side detects and reads video data provided from the storage space 107 and search data for each event section, and responds to a user request.

즉, 비디오 버퍼(108)에 저장되는 비디오 데이타에 대해서 비디오 프로세싱 유닛(109)과 콘트롤 프로세싱 유닛(110)의 데이타 처리가 이루어지고, 이때 사건 구간별 검색 데이타를 비디오 정보처리 메모리(112)를 이용해서 처리하여 사용자 인터페이스 및 표시부(111)로 응답하게 되는 것이다.That is, the data processing of the video processing unit 109 and the control processing unit 110 is performed on the video data stored in the video buffer 108, and at this time, the video data processing memory 112 uses the event data for each event section. And process the response to the user interface and the display unit 111.

즉, 도1에 나타낸 사건관계 중심의 동영상 검색 시스템에 의하면, 공급자측에서는 사용자 인터페이스 및 표시부(105)를 통해서 도2 내지 도6과 같은 데이타 구조를 완성하게 되고 이렇게 완성된 정보를 적절한 저장공간에 비디오 데이타와 함께 수록하게 되며, 사용자측에서는 사용자 인터페이스 및 표시부(111)를 통해서 도2 내지 도6에 나타낸 바와같은 동영상 검색을 수행하게 되는 것이다.That is, according to the event relationship-oriented video retrieval system shown in Fig. 1, the provider side completes the data structure as shown in Figs. 2 to 6 through the user interface and the display unit 105, and stores the completed information in an appropriate storage space. The data is stored together with the data, and the user side performs a video search as shown in FIGS. 2 to 6 through the user interface and the display unit 111.

상기한 바와같은 동영상 검색 시스템에서 구현되는 본 발명의 사건구간을 기반으로 하는 동영상 검색방법과 검색 데이타 구조에 따른 검색기(Browser)는 영화나 드라마 등의 동영상 내용에서 단위사건을 표현하는 사건문단들의 집합을 보여주기 위한 부분과, 상기 사건문단들의 집합 중에서 임의의 사건문단을 선택하였을 경우 그 단위사건에 해당하는 동영상 구간의 대표장면을 시간 및 사건전개에 따른 그래프의 형태나 키프레임 또는 오브젝트-장소의 관계로 보여주기 위한 부분을 포함한다.A video search method based on the event section of the present invention implemented in the video search system as described above, and a browser according to a search data structure is a collection of event paragraphs expressing unit events in video content such as movies or dramas. If a case is selected from the set of case paragraphs, the representative scene of the video section corresponding to the unit event is displayed in the form of a graph, keyframe or object-place according to time and event development. Include a part to show as a relationship.

그러므로, 상기한 바와같은 사건관계 중심의 동영상 검색 데이타는 다음과 같은 수순으로 제작된다.Therefore, the event relationship-oriented video search data as described above is produced in the following procedure.

먼저, 드라마나 영화 등의 동영상 전체에 대하여 연속된 사건의 줄거리로 동영상 내용을 나타낸다.First, the content of the video is shown as a plot of a series of events for the entire video such as drama or movie.

연속된 사건의 줄거리는 하나 이상의 문단들로 구성하고, 각 문단들은 사건을 텍스트 또는 텍스트와 함께 대표장면을 부가하는 형태로 기술된다.The storyline of a series of events consists of one or more paragraphs, each of which is described in the form of adding a representative scene with text or text.

여기서 각각의 사건문단이 의미하는 내용은 동영상의 일부 내용이므로 그 내용이 보여주는 구간은 동영상 내의 일부 구간이 되고, 그 구간은 동영상의 단위사건 구간이 된다.Here, the meaning of each case paragraph is part of the video, so the section shown by the section becomes a section within the video, and the section becomes a unit event section of the video.

따라서, 각 사건문단별로 동영상의 일부 구간을 나누고, 각각의 나누어진 동영상 구간정보를 예를 들면 프레임 번호로서 부가하며, 이렇게 나누어진 구간별로 기존의 키프레임식 나열방법이나, 씬 트랜지션 방법을 적용하거나 또는, 본 발명에서 제시할 오브젝트-장소의 관계로부터의 검색방법을 적용하여 사용자가 원하는 구간을 검색한다.Therefore, a partial section of the video is divided by each case paragraph, and the divided video section information is added as a frame number, for example, and the existing keyframe type arrangement method or the scene transition method is applied to each divided section. Alternatively, a section desired by the user is searched by applying a search method from the object-place relationship to be proposed in the present invention.

이와같이 단위사건에 대하여 내용 브라우징 방법을 적용한 결과는 단위사건의 내용을 브라우징 하므로 매우 명확한 검색결과를 제공할 수 있다.As such, the results of applying the content browsing method to the unit event can provide very clear search results because the content of the unit event is browsed.

이러한 정보들은 한가지 예로서 멀티미디어 스트림의 헤더(Header)에 수록할 수도 있다.Such information may be included in a header of a multimedia stream as an example.

그러면 동영상 재생(검색)시스템에서는 멀티미디어 스트림의 헤더에 수록된 상기의 정보들을 검출하고 또 판독하여 그 동영상에 대한 사건관계 중심의 내용 검색을 수행할 수 있게 된다.Then, the video reproducing (searching) system detects and reads the information contained in the header of the multimedia stream, and can perform event-oriented content search for the video.

도2는 상기의 단계들을 거쳐서 구현된 사건관계 중심의 검색 브라우저의 일예를 나타낸다.2 illustrates an example of an event relationship-based search browser implemented through the above steps.

비디오 스토리 브라우저(200)로서 단위사건별로 사건문단(201a)들의 집합이표현되는 스토리 표시부(201)를 가지며, 이 스토리 표시부(201)에서 임의의 단위사건에 해당하는 사건문단(201a)을 선택하였을 경우 그 단위사건의 동영상 구간의 내용을 대표장면(Scene1-Scene4)을 링크로 연결하는 형태의 트랜지션 그래프로서 표시하는 키프레임부(202)를 제시하고 있다.The video story browser 200 has a story display unit 201 in which a set of event paragraphs 201a are expressed for each unit event. In this story display unit 201, an event paragraph 201a corresponding to an arbitrary unit event may be selected. In this case, the key frame unit 202 for displaying the contents of the video section of the unit event as a transition graph in which a representative scene (Scene1-Scene4) is connected by a link is presented.

도3은 상기의 단계들을 거쳐서 구현된 사건관계 중심의 검색 브라우저의 다른 예를 나타낸다.3 shows another example of an event relationship-based search browser implemented through the above steps.

비디오 스토리 브라우저(300)로서 단위사건별로 사건문단(301a)들의 집합이 표현되는 스토리 표시부(301)를 가지며, 이 스토리 표시부(301)에서 임의의 단위사건에 해당하는 사건문단(301a)을 선택하였을 경우 그 단위사건의 동영상 구간의 내용을 키프레임(Scene1-Scene7)과 각각의 키프레임에 대한 설명을 표시하는 키프레임부(302)를 제시하고 있다.The video story browser 300 has a story display unit 301 in which a set of event paragraphs 301a are expressed for each unit event, and an event paragraph 301a corresponding to an arbitrary unit event has been selected in the story display unit 301. In this case, a key frame (Scene1-Scene7) and a key frame unit 302 for displaying a description of each key frame are provided.

도4는 동영상 내용을 단위사건별 사건문단의 집합으로 구성되는 줄거리로 표현하고 각각의 사건 구간내에서의 내용을 오브젝트(여기서는 등장인물)과 장소와의 관계로 표현한 브라우저의 예를 나타낸다.FIG. 4 illustrates an example of a browser in which a video content is expressed in a plot composed of a set of event paragraphs per unit event, and the content in each event section is expressed as a relationship between an object (character in this case) and a place.

즉, 비디오 스토리 브라우저(400)로서 단위사건별로 사건문단(401a)들의 집합이 표현되는 스토리 표시부(401)를 가지며, 이 스토리 표시부(401)에서 임의의 단위사건 문단을 선택한 경우 그 구간내의 등장인물과 장소와의 관계 그래프 및 관계선택에 대응하는 대표장면(키프레임)을 표시하는 키프레임부(402)를 가진다.That is, the video story browser 400 has a story display unit 401 in which a set of event paragraphs 401a are expressed for each unit event, and when a random unit event paragraph is selected in the story display unit 401, the characters in the section. And a key frame portion 402 for displaying a relationship graph between the location and the place and a representative scene (key frame) corresponding to the relationship selection.

즉, 키프레임부(402)에는 등장인물-장소 관계 그래프 화면(403)과 임의의 관계에 대응하는 대표장면부(404)가 표시된다.That is, the key-frame portion 402 displays the character-place relationship graph screen 403 and the representative scene portion 404 corresponding to an arbitrary relationship.

예를 들어 상기 스토리 표시부(401)에서 임의의 단위사건에 해당하는 사건문단(401a)을 선택하였을 경우 그 단위사건의 동영상 구간의 내용을 그 단위사건 구간에 등장하는 인물(human A,B,C)(405,406,407)과 각각의 인물이 등장하는 장소로서 병원(408), 방안(409), 야외(410)의 관계로 표시하고, 이 중에서 인물B(406)와 병원(408)의 관계(411)를 선택하면 그 인물B가 병원에 등장하는 구간에 대한 대표장면들을 키프레임(Key Frame14, Key Frame17, Key Frame1)으로 표시하고 있다.For example, when the story display unit 401 selects an event paragraph 401a corresponding to an arbitrary unit event, the person (human A, B, C) appearing in the unit event section includes the contents of the video section of the unit event. (405, 406, 407) and a place where each person appears as a relationship between the hospital 408, the room 409, and the outdoor 410, and among them, the relationship 411 between the person B 406 and the hospital 408. If you select, the representative scenes for the section in which the person B appears in the hospital are displayed as key frames (Key Frame 14, Key Frame 17, Key Frame 1).

이와같이 단위사건별 사건문단에 해당하는 동영상 구간내의 검색을 위한 오브젝트(인물):장소의 관계에 기반하는 동영상 검색 기술에 대하여 간단히 설명한다.Thus, a brief description will be given of a video retrieval technique based on the relationship of an object (a person): a place for retrieval in a video section corresponding to an event paragraph of each unit event.

먼저, 영화나 드라마 등의 동영상 내용에 대하여 주요 오브젝트와 장소를 설정하는데, 예를 들면 주요 오브젝트로는 등장인물중 사건 전개에 필요한 주요 등장인물을 설정하고, 이 등장인물과 함께 사건 전개에 필요한 주요 장소를 설정하며,First, the main objects and places are set for the contents of a movie such as a movie or a drama. For example, as the main objects, the main characters necessary for the development of the event among the characters are set. Set the place,

다음으로 상기 설정된 주요 오브젝트와 장소와의 관계를 설정한다.Next, the relationship between the set main object and the place is set.

예를 들면 주요 오브젝트로서 등장인물A, 등장인물B, 등장인물C가 설정되고, 장소로서 병원, 방안, 야외가 설정되었다면 등장인물A가 등장하는(관계있는) 장소는 병원과 방안, 등장인물B가 관계있는 장소는 방안, 야외, 등장인물C가 관계있는 장소는 야외 등과 같이 등장인물과 장소와의 관계를 설정한다.For example, if character A, character B, and character C are set as main objects, and hospital, room, and outdoor are set as places, the place where character A appears (relevant) is hospital, room, character B. Place is related to room, outdoor, and character C is related to the place and character.

이러한 관계는 실제로 동영상에서 그 장소에 그 오브젝트가 등장하는 구간이 될 것이므로, 이 것을 인덱싱(Indexing)하는 것이다.Since this relationship will actually be the section in which the object appears in that place in the video, it is indexed.

다음으로는 대표장면의 설정 단계로서, 상기 설정된 오브젝트와 장소와의 관계로부터 그 장소에 관계되는 해당 오브젝트의 등장구간을 대표할 수 있는 장면을 설정하는데, 하나의 대표 프레임으로 설정하여 그 프레임 위치를 표시하는 것이다.Next, as a setting phase of the representative scene, a scene that can represent the appearance section of the object related to the place from the relation between the set object and the place is set, and the frame position is set to one representative frame. To display.

상기의 예에 따르면 등장인물A-병원의 관계로부터 등장인물A가 병원에 등장하는 구간을 대표하는 프레임으로 '수술장면 프레임'을 설정하고 이 프레임의 위치를 표시하는 것이다.According to the above example, from the relationship between the character A-hospital, the character A represents a section in which the character appears in the hospital, and sets a 'surgical scene frame' and displays the position of the frame.

다음에는 상기 앞 단계들에서 얻어진 등장구간 마다 적절한 주석을 달아주는 것이다.Next, an appropriate comment is attached to each of the appearance sections obtained in the previous steps.

상기의 예에 따르면 등장인물A-병원의 관계로부터 '수술장면 프레임'을 대표 장면으로 설정해주고, 그 등장구간의 내용을 요약할 수 있는 설명을 텍스트로 부가하는 것이다.According to the above example, the operation scene frame is set as the representative scene from the relationship between the character A-hospital, and a description to summarize the content of the appearance section is added as text.

상기한 바와같이 동영상 내용을 기반으로 하여 주요 오브젝트와 장소의 관계를 설정하고 또 등장구간의 인덱싱 및 등장구간의 대표 프레임 설정, 주석 달기(사건)를 수행함으로써 오브젝트-장소-사건-시간의 관계에 기반하는 동영상 검색의 기본 정보가 완성된다.As described above, the relationship between the main object and the place is set based on the contents of the video, and the indexing of the appearance section, the representative frame setting of the appearance section, and the annotation are performed (events). Basic information of video search based is completed.

이러한 정보들은 한가지 예로서 멀티미디어 스트림의 헤더(Header)에 수록할 수도 있다.Such information may be included in a header of a multimedia stream as an example.

그러면 동영상 재생(검색)시스템에서는 멀티미디어 스트림의 헤더에 수록된 상기의 정보들을 검출하고 또 판독하여 그 동영상에 대한 내용기반 검색을 수행할 수 있게 된다.Then, the video reproducing (searching) system can detect and read the information contained in the header of the multimedia stream and perform a content-based search for the video.

즉, 상기 설정된 등장인물:장소의 관계 그래프로부터 임의의 관계(411)를 선택하면 인물B(406)가 병원(408)에 등장하는 구간정보를 이용해서 해당 구간의 대표장면을 제시해주고, 그 대표장면 중에서 하나의 장면을 선택하면 그 장면으로 대표되는 소구간을 상영해 줌으로써 오브젝트(예: 인물)-장소의 관계에 기반하여 동영상 내용을 요약, 검색할 수 있게 되는 것이다.That is, if a random relationship 411 is selected from the set character: place relationship graph, the person B 406 presents the representative scene of the corresponding section using the section information appearing in the hospital 408, and the representative When one scene is selected from the scenes, the subdivisions represented by the scenes are shown so that the contents of the video can be summarized and searched based on the relationship between the object (eg, person) and the place.

도5는 본 발명에서 줄거리를 구성하는 각 사건문단별로 대표장면을 함께 보여주는 브라우저를 나타낸 도면이다.5 is a view showing a browser showing a representative scene for each case paragraph constituting the plot in the present invention.

즉, 비디오 스토리 브라우저(500)로서 단위사건별로 사건문단들의 집합과 함께 그 단위사건을 대표하는 키프레임(Key Frame14)이 함께 표현되는 스토리 표시부(501)를 가지며, 이 스토리 표시부(501)에서 임의의 단위사건 문단을 선택한 경우 그 구간내의 등장인물과 장소와의 관계 그래프 및 관계선택에 대응하는 대표장면(키프레임)을 표시하는 키프레임부(502)를 가진다.That is, the video story browser 500 has a story display unit 501 in which a set of event paragraphs per unit event and a key frame representing the unit event are represented together. When the unit event paragraph is selected, it has a key frame unit 502 for displaying a graph of the relationship between the characters in the section and a place and a representative scene (key frame) corresponding to the relationship selection.

즉, 키프레임부(502)에는 등장인물-장소 관계 그래프 화면(503)과 임의의 관계에 대응하는 대표장면부(504)가 표시되며, 검색방법 및 검색 결과의 표시는 상기 도4의 경우와 동일하다.That is, the key frame unit 502 displays the character-place relationship graph screen 503 and the representative scene unit 504 corresponding to an arbitrary relationship. The search method and the display of the search result are similar to those of FIG. same.

다만 도5에서는 단위사건 문단 대신 해당 키프레임을 선택하는 것만으로도 그 단위사건 구간에 대한 인물:장소의 관계 및 그 관계의 선택에 따른 대표장면의 표시와 상영이 이루어진다.However, in FIG. 5, the selection and display of the representative scene according to the relationship between the person: place and the selection of the relationship are performed only by selecting the corresponding key frame instead of the unit event paragraph.

도6은 본 발명을 적용하기 위한 검색 데이타 구조의 한예로서 상기한 바와같은 인물-장소의 관계 그래프를 적용한 예를 보이고 있다.Fig. 6 shows an example of applying the person-place relationship graph as described above as an example of a search data structure for applying the present invention.

부호 601은 전체 줄거리를 나타내는데 여기에는 단위사건별로 그사건문단들(601a)들이 구성된다.Reference numeral 601 denotes an entire plot, in which case paragraphs 601a are configured for each unit event.

부호 602는 단위사건별로 그 사건구간에 대표하는 장면으로서 키프레임(위치정보)들과 각각의 사건문단마다 그 것이 의미하는 실제의 동영상 구간을 링크(604)로서 표시하고 있다.Reference numeral 602 denotes a scene represented by the event section for each unit event, and displays the key frames (positional information) and the actual video section meant for each case paragraph as the link 604.

부호 603은 동영상 구간정보(602)에 대응하여 각 구간내에서의 내용 브라우징 구조 즉, 인물(603a,603b)-장소(603c,603d)의 관계 그래프 구조를 포함하는 부분이며, 링크(605)로서 단위사건 구간에 해당하는 인물-장소의 관계정보를 제시하고 있다.Reference numeral 603 denotes a portion including a content browsing structure in each section corresponding to the video section information 602, that is, a relationship graph structure of person 603a, 603b-place 603c, 603d, and as a link 605. The relationship information of the person-place corresponding to the unit event section is presented.

여기서는 특히 인물(603a)에 종속(의존적인) 부가정보(603b)를 그 인물에 종속되는 하위계층의 관계정보로서 부가하였으며, 장소(603c)에 대해서도 그 장소에 종속되는 하위계층의 관계정보(603d)를 더 부가하였다.In this case, the subordinate (dependent) additional information 603b is added to the person 603a as the relationship information of the sub-layer subordinated to the person, and the relationship information of the sub-layer subordinated to the place also 603d for the place 603c. ) Was added.

이 것은 예를 들면 '병원'이라는 장소에 대해서 종속되는 '입원실', '수술실', '병원복도' 등의 하위계층(장소) 정보를 관계짓기 위한 것이다.This is to relate sub-class information such as 'patient room', 'operating room', 'hospital corridor', etc. to a place called 'hospital'.

도7과 도8은 이와같이 본 발명에서 장소의 다중레벨을 설명하기 위한 사용자 인터페이스의 예를 나타낸 도면이다.7 and 8 are diagrams illustrating an example of a user interface for describing multiple levels of a place in the present invention as described above.

먼저, 도7에서 검색 브라우저(700)는 오브젝트와 장소의 관계 표시부(701)와 단위사건별로 사건문단들의 집합이 표현되는 스토리 표시부(702)를 가지고 있고(이 스토리 표시부에는 도5와 같이 단위사건별로 그 사건을 대표하는 대표장면(키프레임)이 함께 표시될 수도 있다), 단위사건 문단에 해당하는 오브젝트와 장소의 관계 표시부(701)에는 오브젝트와 장소의 관계를 그래프로 표시하는 부분(703)과 선택된관계에 해당하는 대표장면(Key Frame)(704) 및 그 구간의 사건내용의 설명(705)을 표시하는 부분을 가지고 있다.First, in FIG. 7, the search browser 700 has a relationship display unit 701 of an object and a place, and a story display unit 702 in which a set of event paragraphs are expressed for each unit event (in this story display unit, a unit event as shown in FIG. 5). A representative scene (key frame) representing the event may be displayed together), and the relationship display unit 701 of an object and a place corresponding to a paragraph of a unit event displays a graph of a relationship between an object and a place 703. And a key frame 704 corresponding to the selected relationship and a description 705 of the event contents of the section.

도7에서는 오브젝트로서 3명의 등장인물(Character A,B,C)을 제시하고 있으며, 장소로서 병원(Hospital), 등장인물A의 집(A's house), 그리고 공원(The park)을 제시하고 있다.In Fig. 7, three characters (Character A, B, C) are presented as objects, and a hospital (Hospital), a character's house (A's house), and a park (The park) are presented as places.

또, 등장인물A는 병원과 공원에 관계짓고, 등장인물B는 병원에 관계짓고, 등장인물C는 등장인물A의 집에 관계지워져 있다.In addition, character A is related to the hospital and the park, character B is related to the hospital, and character C is related to the house of the character A.

여기서 등장인물B와 병원의 관계(706)를 선택한 경우에 등장인물B가 병원에 등장하는 구간에 대한 대표장면이 키프레임(704)으로서 제시되고 있으며 그 구간에 대한 사건설명(705)이 함께 제시되고 있음을 보인다.In this case, when the relationship between the character B and the hospital (706) is selected, the representative scene of the section in which the character B appears in the hospital is presented as a key frame 704, and the event description (705) for the section is presented together. Seems to be.

한편, 상기한 바와같이 '병원'이라는 장소의 하위계층에 해당하는 레벨이 있음을 표시부-확장버튼 표식(707)으로 나타내고 있다.Meanwhile, as described above, the display unit-extension button marker 707 indicates that there is a level corresponding to the lower hierarchy of the place called 'hospital'.

이 확장버튼 표식은 메뉴로 표현될 수도 있다.This extended button marker may be represented as a menu.

그러므로 사용자가 이 확장버튼 표식(707)을 선택하면 도8과 같이 '병원'이라는 장소의 하위계층에 해당하는 레벨에서의 오브젝트-장소 관계가 제시된다.Therefore, when the user selects the extended button marker 707, the object-place relationship is presented at the level corresponding to the lower hierarchy of the place called 'hospital' as shown in FIG.

즉, 도8에서도 검색 브라우저(800)는 오브젝트-장소 관계 표시부(801), 스토리 표시부(802), 오브젝트-장소 관계 그래프 표시부(803), 선택된 관계에 해당하는 키프레임(804) 및 사건내용의 설명(805) 등을 가지면서, '병원'이라는 상위계층의 장소에 대하여 병원로비(The lobby of the hospital) 및 병실(The room of the hospital)이라는 하위계층의 레벨이 제시되고, 또 이 하위계층의 레벨에 대하여 등장인물B와의 관계(806a,806b)가 제시되는 것이다.That is, in Fig. 8, the search browser 800 also includes the object-place relationship display unit 801, the story display unit 802, the object-place relationship graph display unit 803, the key frame 804 corresponding to the selected relationship, and the contents of the event. With the explanation (805), the lower level of the lobby of the hospital and the room of the hospital is presented for the place of the upper layer called 'hospital'. The relationship with character B (806a, 806b) is presented for the level of.

그러므로 사용자는 도8의 검색 브라우저로부터 등장인물B와 병원로비의 관계(806a) 또는 등장인물B와 병실의 관계(806b)를 선택할 수 있고, 이렇게 선택된 관계에 해당하는 키프레임(804) 및 그 설명(805)이 검색 결과로서 제시된다.Therefore, the user can select the relationship 806a between the character B and the hospital lobby or the relationship 806b between the character B and the sickroom from the search browser of FIG. 8, and the key frame 804 corresponding to the selected relationship and the description thereof. 805 is presented as a search result.

또한, 다시 상위레벨인 병원으로 가기 위해 그림처럼 병원로비와 병실을 그룹화하는 버튼 표식(807)을 두어 이 버튼 표식(807)을 선택하면 도7의 검색화면으로 돌아간다.In addition, if the button marker 807 is placed to group the hospital lobby and the hospital room as shown in the figure to return to the upper level hospital, the button marker 807 is returned to the search screen of FIG.

상기 도1 내지 도8에서 설명한 바와같이 본 발명은 동영상의 내용을 단위사건들의 관계로부터 검색할 수 있었다.As described above with reference to FIGS. 1 to 8, the present invention was able to retrieve the contents of a video from the relationship between unit events.

상기 도1 내지 도8에서는 하나의 비디오 파일 즉, 1편의 드라마나 1편의 영화에 대해서 설명하였다.1 to 8, one video file, that is, one drama or one movie has been described.

그러나, 본 발명의 사건구간 기반 동영상 검색 시스템의 개념을 확장 적용하여, 본 발명의 동영상 검색 브라우저에서; 복수개의 비디오 파일 전체를 하나의 단위사건을 나타내는 사건문단의 집합으로 표현하고, 또 각각의 비디오 파일의 내용에 대하여 단위사건을 나타내는 사건문단의 집합으로 표현한 구조를 모두 가지고, 전체 내용에 대한 사건문단으로부터 각각의 비디오 파일에 대한 사건문단으로, 개략적인 검색을 거쳐 세부적인 검색을 수행하는 동영상 검색 시스템도 실시 가능한 것이다.However, by applying the concept of the event section based video retrieval system of the present invention, in the video retrieval browser of the present invention; All the video files are represented by a set of event paragraphs representing a single unit event, and the structure of each video file is represented by a set of event paragraphs representing a unit event. A video retrieval system that performs detailed retrieval through a coarse retrieval from the case to each video file from.

예를 들어, 시리즈물 같은 경우 여러개의 비디오 파일로 나누어져 있다고 해도, 시리즈물의 특성상 단위사건들이 긴밀하게 서로 연관되어 여러편의 비디오 파일들이 내용전개상 연속되는 경우가 보통이므로, 이러한 경우에는 여러편의 비디오 파일의 내용을 전체적으로 하나의 비디오 파일처럼 간주하여 상기 도1 내지 도8의 사건구간 기반의 검색구조로 표현하고, 또 여기에다 각각의 비디오 파일의 내용을 상기 도1 내지 도8과 같은 사건구간 기반의 검색구조로 보다 자세한 내용을 표현함으로써, 복수개의 비디오 파일에 대한 전체적인 내용을 개략적으로 검색하고 또 하나의 비디오 파일에 대해서 세부적으로 검색하는 것이 가능하게 되는 것이다.For example, even if a series is divided into several video files, the unit events are closely related to each other due to the nature of the series, and thus, a plurality of video files are usually contiguous in content development. The content of each video file is regarded as a single video file and represented by the event section based search structure of FIGS. 1 to 8, and the content of each video file is added to the event section based search as shown in FIGS. 1 to 8. By expressing more details in the structure, it becomes possible to roughly search the entire contents of a plurality of video files and to search in detail about another video file.

본 발명은 사건구간을 기반으로 하는 동영상 검색방법과 검색 데이타 구조를 제공한다.The present invention provides a video search method and a search data structure based on an event section.

본 발명은 드라마나 영화의 전체 줄거리가 드라마나 영화를 실질적으로 구성하는 단위사건들의 집합 형태로 표현되므로 기존의 키프레임 기반의 내용요약 및 검색방법과 같이 동영상 스토리 전개를 단순히 대표장면 만으로 표현하는데 따른 제약을 해소할 수 있고, 드라마나 영화의 내용을 단위사건과 단위사건의 결합관계로부터 일목요연하게 요약 및 검색할 수 있다.According to the present invention, since the entire plot of a drama or a movie is expressed in the form of a set of unit events constituting the drama or a movie, the video story development is simply expressed as a representative scene like the existing keyframe-based content summary and retrieval method. Constraints can be removed, and the content of a drama or movie can be summarized and searched at a glance from the combination of unit events and unit events.

또한, 드라마나 영화의 전체 줄거리를 단위사건별 사건문단들로 구성하여 각 문단이 의미하는 사건별로 구간을 나누고 그 구간내에서 내용을 각각 브라우징 하므로, 종래의 대부분의 방법에서 나타나는 방대한 내용 전체를 키프레임이나 기타 브라우징 방법을 사용해서 표현함으로써 발생하는 검색도구의 복잡성, 난이함 등의 문제를 해결하고, 쉽고 간편하게 동영상 내용을 요약 및 검색할 수 있다.In addition, the entire storyline of a drama or movie is composed of event paragraphs for each unit case, so that the sections are divided by each event meaning each paragraph and the content is browsed within the sections, so that the entire contents of the conventional method are key. Using frames or other browsing methods to solve the problem of complexity and difficulty of the search tool, and summarize and search the video content easily and easily.

또한 본 발명은 드라마, 영화와 같은 종류의 동영상에 적용하여 사용자가 원하는 내용을 단위사건별로 검색할 수 있기 때문에 사건전개의 스토리를 스토리 전개의 전후관계와 함께 전체 줄거리를 배경으로 하는 부분 줄거리의 형태로 요약 및 검색할 수 있다.In addition, the present invention can be applied to the type of video, such as drama, movie, so that the user can search for the desired content by unit events, the form of the partial storyline of the story based on the entire storyline with the context of the story development story Can be summarized and searched.

또한 본 발명은 복수개의 비디오 파일들의 내용을 하나의 단위사건들의 집합관계로 표현한 구조와, 각각의 비디오 파일 내용을 하나의 단위사건들의 집합관계로 표현한 구조를 모두 가지고, 복수개의 비디오 파일 전체 내용을 전체에 대한 사건문단으로부터 개략적으로 검색하고 하나의 비디오 파일 내용은 해당 사건문단으로부터 세부적으로 검색을 수행할 수 있으므로, 복수개의 비디오 파일에 대한 일괄 검색을 가능하게 한다.In addition, the present invention has a structure in which the contents of the plurality of video files are expressed in a set relationship of unit events, and the structure in which the contents of each video file are expressed in a set relationship of one unit events, The search can be performed in a rough manner from the entire paragraph, and the contents of one video file can be retrieved in detail from the relevant paragraph. Therefore, a batch search of a plurality of video files is possible.

Claims (9)

동영상 내용의 전체 줄거리를 텍스트 정보로 구성하고, 이 정보로 문단별로 구분하여 동영상을 구성하는 의미있는 사건의 단위로서 사건문단으로 구분하고, 구분된 사건문단들을 시간적인 순서대로 배열하여 사건문단의 집합으로 구성하고, 상기 각각의 사건문단에 해당하는 동영상 구간을 지시하는 정보를 설정하고, 상기 동영상 구간에 해당하는 단위사건별 사건내용을 요약하는 정보를 설정하여, 동영상을 검색하기 위한 검색 데이터를 구성하는 것을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색 데이타 구성방법.The entire plot of the video content is composed of text information, and the information is divided into paragraphs, and the event paragraphs are classified into case paragraphs, and the classified case paragraphs are arranged in temporal order. Configure information for indicating a video section corresponding to each of the case paragraphs, and set information for summarizing the event contents for each unit event corresponding to the video section, and configure search data for searching for a video. How to construct a video search data based on the event interval, characterized in that. 제 1 항에 있어서, 상기 단위사건을 나타내는 사건문단은 해당 단위사건을 대표하는 장면을 더 포함하는 것을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색 데이타 구성방법.The method of claim 1, wherein the event paragraph representing the unit event further comprises a scene representing the unit event. 동영상 내용의 전체 줄거리를 텍스트 정보로 구성하고, 이 정보로부터 문단별로 구분하여 동영상을 구성하는 의미있는 사건의 단위로서 사건문단으로 구분하고, 구분된 사건문단들을 시간적인 순서대로 배열하여 사건문단의 집합으로 구성하고, 상기 각각의 사건문단에 해당하는 동영상 구간을 지시하는 정보를 설정하고, 상기 각각의 사건문단에 해당하는 동영상 구간을 지시하는 정보를 설정하는 검색정보 설정과정과,The entire storyline of the video content is composed of text information, and it is divided into event paragraphs as a meaningful event unit constituting the video by classifying paragraphs from this information, and the event paragraphs are arranged by arranging the classified event paragraphs in a chronological order. A search information setting process of setting information indicating a video section corresponding to each case paragraph, and setting information indicating a video section corresponding to each case paragraph; 상기 설정된 검색정보에 따른 단위사건 문단중에서 임의의 단위사건을 선택하면 그 것에 응답하여, 선택된 단위사건에 해당하는 동영상 구간을 지시하는 정보를 이용하여, 해당 동영상 구간에 설정되어 있는 정보를 표현하는 검색정보 표시과정으로 이루어짐을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색방법.In response to selecting a unit event in the unit event paragraph according to the set search information, a search for expressing information set in the corresponding video section using information indicating a video section corresponding to the selected unit event in response thereto. Video retrieval method based on the event section characterized in that the information display process. 제 3 항에 있어서, 상기 단위사건을 나타내는 사건문단의 집합을 복수개의 비디오 파일 전체의 줄거리를 구성하는 사건단위로서 설정함과 함께 각각의 비디오 파일의 줄거리를 구성하는 사건단위로서 설정하고, 복수개의 비디오 파일 전체에 대한 사건문단들로부터 복수개의 비디오 파일 전체에 대한 사건구간 기반의 내용검색을 수행하고 각각의 비디오 파일에 대한 사건문단들로부터 각각의 비디오 파일에 대한 사건구간 기반의 내용검색을 수행하는 것을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색방법.4. The method of claim 3, wherein the set of event paragraphs representing the unit event is set as an event unit constituting a plot of the entire video files, and is set as an event unit constituting the plot of each video file. Performs event section-based content retrieval for a plurality of video files from event paragraphs for the entire video file, and performs event section-based content retrieval for each video file from event paragraphs for each video file. Video search method based on the event section, characterized in that. 제 3 항 또는 제 4 항에 있어서, 상기의 사건문단에 해당하는 부분을 선택하면 그 단위사건에 해당하는 구간만의 내용이 임의의 브라우징 방법에 의해서 표현되는 것을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색방법.[5] The method according to claim 3 or 4, wherein when a part corresponding to the above case paragraph is selected, the content of only the section corresponding to the unit event is expressed by an arbitrary browsing method. How to search for videos. 제 2 항 또는 제 4 항에 있어서, 상기의 사건문단에 해당하는 부분을 선택하면 그 단위사건에 해당하는 구간만의 내용이 키프레임 나열식 방법, 씬 트랜지션 그래프 또는 인물-장소 관계그래프의 설정된 형태로 표현되는 것을 특징으로 하는사건구간을 기반으로 하는 동영상 검색방법.The method of claim 2 or 4, wherein when the part corresponding to the above case paragraph is selected, the content of only the section corresponding to the unit event is set in a keyframe arrangement method, a scene transition graph, or a person-place relationship graph. Video search method based on the event section, characterized in that represented by. 동영상 내용의 전체 줄거리를 단위사건을 나타내는 사건문단의 집합으로 표현하여 소정의 지정된 화면영역에 표시 제공하고, 표시된 상기 단위사건 문단중에서 임의의 단위사건 문단을 사용자 키이 인터페이스를 통해 사용자가 선택하면 그 것에 응답하여, 사건문단에 설정된 동영상 구간을 지시하는 정보를 읽어 해당하는 동영상 구간을 찾아 해당 사건문단의 동영상 구간에 대하여 설정된 정보를 화면의 소정의 영역에 표시하여 주는 것을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색 브라우저.The entire plot of the video content is expressed as a set of event paragraphs representing unit events and displayed on a predetermined designated screen area, and when a user selects any unit event paragraph from the displayed unit event paragraphs through the user key interface, In response, the information indicating the video section set in the case paragraph is read to find the corresponding video section, and based on the event section, the information set for the video section of the case paragraph is displayed in a predetermined area of the screen. Video search browser. 제 7 항에 있어서, 상기 동영상 구간에 대한 정보는 임의의 브라우징 방법에 의해서 표현되는 것을 특징으로 하는 사건구간을 기반으로 하는 동영상 검색 브라우저.The video search browser according to claim 7, wherein the information about the video section is expressed by an arbitrary browsing method. 제 7 항 또는 제 8 항에 있어서, 상기 동영상 구간에 대한 정보는 키프레임 나열식 방법, 씬 트랜지션 그래프 또는 인물-장소 관계 그래프의 설정된 형태로 표현되는 것을 특징으로 하는 사건구간을 기반으로하는 동영상 검색 브라우저.The video search based on the event section according to claim 7 or 8, wherein the information about the video section is expressed in a set form of a keyframe arrangement method, a scene transition graph, or a person-place relationship graph. browser.
KR1019980053238A 1998-12-05 1998-12-05 How to search video and organize search data based on event section KR100319160B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1019980053238A KR100319160B1 (en) 1998-12-05 1998-12-05 How to search video and organize search data based on event section
US09/239,531 US6492998B1 (en) 1998-12-05 1999-01-29 Contents-based video story browsing system
CNB991095553A CN1269344C (en) 1998-12-05 1999-07-09 Video story-glancing over system base on content
EP99123530A EP1006459A3 (en) 1998-12-05 1999-11-25 Content-based video story browsing system
JP34569999A JP3454764B2 (en) 1998-12-05 1999-12-06 Search system and search method for searching video based on content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980053238A KR100319160B1 (en) 1998-12-05 1998-12-05 How to search video and organize search data based on event section

Publications (2)

Publication Number Publication Date
KR20000038290A KR20000038290A (en) 2000-07-05
KR100319160B1 true KR100319160B1 (en) 2002-04-24

Family

ID=19561491

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980053238A KR100319160B1 (en) 1998-12-05 1998-12-05 How to search video and organize search data based on event section

Country Status (1)

Country Link
KR (1) KR100319160B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11184679B2 (en) 2018-10-08 2021-11-23 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
KR20230081308A (en) 2021-11-30 2023-06-07 서강대학교산학협력단 Method for generating video feature for video retrieval on an incident basis

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100350976B1 (en) * 1999-06-08 2002-08-28 삼성전자 주식회사 Random access play apparatus usable record/play of annexational information
KR100693650B1 (en) * 1999-07-03 2007-03-14 엘지전자 주식회사 Video browsing system based on multi level object information
JP2001230994A (en) * 2000-02-15 2001-08-24 Fujitsu Ltd Data processor
KR100429793B1 (en) * 2001-02-05 2004-05-03 삼성전자주식회사 Recording medium containing thumbnail
KR100411340B1 (en) * 2001-03-09 2003-12-18 엘지전자 주식회사 Video browsing system based on article of news video content
KR100374040B1 (en) * 2001-03-09 2003-03-03 엘지전자 주식회사 Method for detecting caption synthetic key frame in video stream
KR20020074328A (en) * 2001-03-20 2002-09-30 서치캐스트 주식회사 Method for playing motion pictures using keyframe and apparatus thereof
KR100438269B1 (en) * 2001-03-23 2004-07-02 엘지전자 주식회사 Anchor shot detecting method of news video browsing system
KR100707205B1 (en) * 2005-09-22 2007-04-13 삼성전자주식회사 Method and apparatus for detect play section in sports video
KR101658002B1 (en) * 2015-12-11 2016-09-21 서강대학교산학협력단 Video annotation system and video annotation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11184679B2 (en) 2018-10-08 2021-11-23 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
KR20230081308A (en) 2021-11-30 2023-06-07 서강대학교산학협력단 Method for generating video feature for video retrieval on an incident basis

Also Published As

Publication number Publication date
KR20000038290A (en) 2000-07-05

Similar Documents

Publication Publication Date Title
JP3454764B2 (en) Search system and search method for searching video based on content
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
KR101382954B1 (en) Information processing apparatus and method and recording medium for program
US8234674B2 (en) Method of constructing information on associate meanings between segments of multimedia stream and method of browsing video using the same
US20040125124A1 (en) Techniques for constructing and browsing a hierarchical video structure
CA2253124C (en) Video searching method and apparatus, video information producing method, and storage medium for storing processing program thereof
US20020126143A1 (en) Article-based news video content summarizing method and browsing system
KR100347710B1 (en) Method and data structure for video browsing based on relation graph of characters
KR100493674B1 (en) Multimedia data searching and browsing system
KR100371813B1 (en) A Recorded Medium for storing a Video Summary Description Scheme, An Apparatus and a Method for Generating Video Summary Descriptive Data, and An Apparatus and a Method for Browsing Video Summary Descriptive Data Using the Video Summary Description Scheme
JP2001028722A (en) Moving picture management device and moving picture management system
KR20080004384A (en) Information processing apparatus and method, and program
JPH08249348A (en) Method and device for video retrieval
JP3574606B2 (en) Hierarchical video management method, hierarchical management device, and recording medium recording hierarchical management program
KR100319160B1 (en) How to search video and organize search data based on event section
JPH06253255A (en) Video index display device
KR20010028735A (en) Method for representing abstract/detail relationship among segments in order to provide efficient browsing of video stream and video browsing method using the abstract/detail relationships among segments
JPH1051733A (en) Dynamic image edit method, dynamic image edit device, and recording medium recording program code having dynamic image edit procedure
EP1517328B1 (en) Information editing device, information editing method, and computer program product
JP2001078091A (en) Device and method for displaying and editing media scene information and storage medium storing program related to the method
KR100729475B1 (en) Video check system and method
KR100319159B1 (en) Content-based video retrieval data organization method and video retrieval method
JP4021449B2 (en) Moving picture editing method and moving picture editing apparatus
KR100361499B1 (en) Method for representing cause/effect relationship among segments in order to provide efficient browsing of video stream and video browsing method using the cause/effect relationships among segments
JP2005130525A (en) Moving image editing method and moving image editing apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121128

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20131122

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20141124

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20151124

Year of fee payment: 15

LAPS Lapse due to unpaid annual fee