KR20100136605A - Method and system of providing enhanced tv program service - Google Patents

Method and system of providing enhanced tv program service Download PDF

Info

Publication number
KR20100136605A
KR20100136605A KR1020090054765A KR20090054765A KR20100136605A KR 20100136605 A KR20100136605 A KR 20100136605A KR 1020090054765 A KR1020090054765 A KR 1020090054765A KR 20090054765 A KR20090054765 A KR 20090054765A KR 20100136605 A KR20100136605 A KR 20100136605A
Authority
KR
South Korea
Prior art keywords
scene
data
file
bifs
mpeg
Prior art date
Application number
KR1020090054765A
Other languages
Korean (ko)
Other versions
KR101043607B1 (en
Inventor
임순범
임현정
김지인
Original Assignee
숙명여자대학교산학협력단
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단, 건국대학교 산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020090054765A priority Critical patent/KR101043607B1/en
Publication of KR20100136605A publication Critical patent/KR20100136605A/en
Application granted granted Critical
Publication of KR101043607B1 publication Critical patent/KR101043607B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PURPOSE: A general A/V contents and a linkage type data broadcasting contents service providing method and a system thereof by synchronizing offered data contents are provided to supply data broadcast for a contents developer by efficiently synchronizing broadcasting data. CONSTITUTION: An MPEG(Music Player Expert Group)-7 file generating unit(12) analyzes the scene of broadcast data and generates the MPEG-7 file recording a scene keyword. An expansion BIFS(Binary Format for Scene Description) file generating unit(14) generates the expansion BIFS file inserting the scene keyword into the BIFS code. The BIFS code describes a condition indicating the advertisement contents in the user terminal.

Description

연동형 데이터 방송 콘텐츠 서비스 제공 방법 및 시스템{METHOD AND SYSTEM OF PROVIDING ENHANCED TV PROGRAM SERVICE}Method and system for providing linked data broadcasting contents service {METHOD AND SYSTEM OF PROVIDING ENHANCED TV PROGRAM SERVICE}

본 발명은 데이터 방송 제공 방법 및 시스템에 관한 것으로서, 보다 구체적으로는 일반적인 TV 방송이 제공하는 A/V(Audio/Video)와 결합하여 데이터 콘텐츠를 제공함에 있어서, 상기 데이터 콘텐츠를 상기 일반 A/V 콘텐츠와 동기화하여 제공하는 데이터 방송 제공 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing data broadcasting, and more particularly, to providing data contents in combination with audio / video (A / V) provided by general TV broadcasting. A method and system for providing data broadcasting in synchronization with contents are provided.

데이터 방송이란 기존의 오디오/비디오 데이터와 함께 멀티미디어 데이터를 사용자에게 전송하여 다양한 부가 서비스를 제공해 주는 방송을 말한다. 여기서 데이터란 실행 가능한 애플리케이션 프로그램, 애플리케이션에 이용되는 텍스트, 이미지, 그래픽 등과 같은 데이터를 총칭한다.Data broadcasting refers to broadcasting that provides various additional services by transmitting multimedia data to the user along with existing audio / video data. Here, data is a generic term for data such as executable application programs and text, images, graphics, and the like used in the application.

데이터 방송은 일반적인 TV 방송이 제공하는 A/V(Audio/Video) 데이터와의 결합 여부에 따라 독립형 데이터 방송 서비스(또는 독립형 서비스, Virtual Channel Service)와 연동형 데이터 방송 서비스(또는 연동형 서비스, Enhanced TV Program Service)로 구분된다. 독립형 데이터 콘텐츠는 A/V 신호 없이 문자, 그래 픽, 이미지 등으로만 작성된 콘텐츠로서, 기존의 인터넷 페이지와 유사한 형태의 프로그램을 사용자에게 제공하는 서비스이다. 이러한 독립형 데이터 콘텐츠는 A/V 프로그램과 관련이 없으므로, 데이터 콘텐츠를 위해 별도로 할당한 채널에서 서비스된다(예컨대, 뉴스, 기상 정보, 주식 정보 등). 연동형 서비스는 방송의 주된 서비스인 A/V 신호 전송시 부가적인 데이터를 함께 송출하여 디스플레이하는 형태의 서비스이다(예컨대, 드라마나 영화 시청 중 뉴스 및 주식 시세를 확인하거나, 스포츠 중계를 시청하면서 경기 기록과 같은 데이터를 동시에 제공하는 서비스).Data broadcasting is a standalone data broadcasting service (or standalone service, virtual channel service) and linked data broadcasting service (or interlocking service, enhanced) depending on whether it is combined with A / V (Audio / Video) data provided by general TV broadcasting. TV Program Service). Stand-alone data content is content written only with text, graphics, images, etc., without A / V signals. It is a service that provides users with programs similar to existing Internet pages. Since this standalone data content is not related to the A / V program, it is serviced in a channel allocated separately for the data content (eg, news, weather information, stock information, etc.). The linked service is a type of service that sends and displays additional data when transmitting A / V signal, which is a main service of broadcasting (for example, checking news and stock quotes while watching a drama or movie, or watching sports relaying. Services that simultaneously provide data such as records).

한편, 상기 연동형 서비스는 시간이 데이터 콘텐츠의 변화에 미치는 영향의 유무에 따라 시간 독립형 데이터 콘텐츠와 시간 종속형 데이터 콘텐츠로 구분할 수 있다.Meanwhile, the linked service may be classified into time-independent data content and time-dependent data content according to whether time affects the change of data content.

시간 독립형 데이터 콘텐츠는 비디오 영상의 변화, 즉 장면(Scene)의 변화가 데이터 콘텐츠 변환에 영향을 미치지 않는 유형으로서, 마우스 이벤트와 같은 사용자의 입력 이벤트에 의해 콘텐츠의 내용이 변하는 유형을 말한다. 이러한 유형의 콘텐츠는 데이터 콘텐츠 내용 변화를 전적으로 사용자에 의존하는 형태로, 제작자가 강제적으로 데이터 콘텐츠의 변화를 주도할 수 없는 문제점이 있다.The time independent data content is a type in which a change in a video image, that is, a change in a scene, does not affect data content conversion, and refers to a type in which the content of the content is changed by a user input event such as a mouse event. This type of content has a problem in that the change of data content contents is entirely dependent on the user, and the producer cannot forcibly change the data content.

시간 종속형 데이터 콘텐츠는 장면의 변화에 따라 데이터 콘텐츠의 내용이 변화하는 형태를 말하며, 현재 방송되고 있는 영상과 보여질 데이터 콘텐츠의 내용 연관성이 높은 경우에 해당하는 형태이다. 예컨대, 퀴즈 쇼를 시청하면서 문제를 함께 풀 수 있는 인터페이스를 제공하거나, 드라마를 시청하면서 각 장면에 맞는 부가 정보를 제공하고 장면에 따라 그 정보가 변화하는 것은 시간 종속형 데이터 콘텐츠의 대표적인 예이다.The time-dependent data content refers to a form in which the content of the data content changes according to the change of the scene, and corresponds to a case where the content correlation of the data content to be shown and the image currently being broadcast is high. For example, providing an interface for solving problems together while watching a quiz show, or providing additional information for each scene while watching a drama, and changing the information according to the scene are typical examples of time-dependent data contents.

DMB의 TV 콘텐츠는 항상 배경이 되는 비디오 레이어를 갖는 방송 특징으로 인해 향후 광고 및 부가정보 표현을 위해 시간 종속형 데이터 콘텐츠가 더욱 활발히 이용될 것이라고 예상된다. 이러한 시간 종속형 데이터 콘텐츠는 시간 독립형 콘텐츠와는 달리 장면에 적합한 데이터를 사용자의 입력 없이도 제작자의 의도대로 자연스럽게 노출시킬 수 있다. 따라서, 기업들의 광고에 의존하는 'B2B' 수익 모델을 갖고 있는 DMB 방송에서 이러한 연동형 콘텐츠는 새로운 수익 창출의 수단이 될 수 있다. 그러나, 시간 종속형 데이터 콘텐츠는 DTV 환경에서도 구현이 쉽지 않은 서비스로, DMB에서 또한 제작이 쉽지 않아 현재 서비스 되고 있는 유형을 찾기가 어렵다.DMB's TV content is expected to be more actively used time-dependent data content for future advertisement and additional information representation due to the broadcast feature that always has a background video layer. Unlike time-independent content, such time-dependent data content can naturally expose data suitable for a scene at the intention of a producer without user input. Therefore, such linked content may be a means of generating new revenue in DMB broadcasting, which has a 'B2B' revenue model that depends on companies' advertisements. However, time-dependent data content is a service that is not easy to implement even in a DTV environment, and it is difficult to find a type currently being serviced because it is not easy to produce in DMB.

MPEG-4는 장면의 구성 요소인 객체들을 VRML(Virtual Reality Modeling Language)에서와 같이 장면그래프(SceneGraph)로 표현한다. MPEG-4는 VRML에 기반하고 있으나, 파일 압축을 위해 BIFS(Binary Format for Scene Description)을 이용하여 기술한다. BIFS란 멀티미디어 객체를 공간적 위치, 시간적인 관계 표현 및 사용자와의 상호작용을 위한 MPEG-4 장면 기술 표준을 말한다. 여기서 장면이란 콘텐츠를 구성하는 한 화면을 의미하는 것으로서, 한 장면 안에 정지영상, 텍스트, 동영상, 오디오 등 여러 미디어 객체가 포함되어 있다.MPEG-4 expresses objects that are components of a scene in a scene graph as in VRML (Virtual Reality Modeling Language). MPEG-4 is based on VRML, but is described using a binary format for scene description (BIFS) for file compression. BIFS refers to the MPEG-4 scene description standard for spatial location, temporal relationship representation, and user interaction with multimedia objects. Here, the scene refers to a screen constituting the content, and includes a plurality of media objects such as still images, text, video, and audio in one scene.

한편, MPEG-4는 데이터 기술 방법으로서, BT, XMT-α, XMT-Ω를 사용하고 있고 이러한 코드 기술 방법에 따라 상이한 시간 표현 방법을 제공하고 있다. 즉On the other hand, MPEG-4 uses BT, XMT-α, and XMT-Ω as data description methods, and provides different time representation methods according to these code description methods. In other words

(1) 절대적인 시간을 입력하는 방법(1) How to enter absolute time

BIFS와 XMT-α는 <AT> 노드를 사용하여 밀리세컨드 단위로 절대적인 시간 값을 입력하여 그래픽스 객체의 변화가 일어나야 하는 시간을 기술할 수 있다(도 1의 좌측 그림 참조).BIFS and XMT-α can describe the time when the change of the graphics object should take place by inputting an absolute time value in milliseconds using the <AT> node (see the left figure of FIG. 1).

(2) SMIL 2.0 element를 사용하는 방법(2) how to use SMIL 2.0 elements

XMT-Ω는 BIFS와 XMT-α보다 한 단계 더 발전한 시간 동기화를 위해 SMIL 2.0의 element를 수용하여 <seq>, <par>, <excl>과 같은 SMIL 노드를 그대로 수용하고 있다 (도 1의 우측 그림 참조).The XMT-Ω accommodates SMIL 2.0 elements, such as <seq>, <par>, and <excl>, for the time synchronization one step further than BIFS and XMT-α (the right side of FIG. 1). See illustration).

시간 종속형 콘텐츠에서 시간이란 궁극적으로 비디오 영상의 흐름을 뜻하므로, 시간 종속형 콘텐츠 구현을 위해서는 비디오 영상과 그래픽스 객체를 포함한 다른 멀티미디어 객체들 사이의 동기화 구현이 필수적이다. 그러나, 현재 MPEG-4의 시간 표현 방법은 시간 종속형 데이터 콘텐츠 구성에 필요한 비디오 객체와 그래픽스 객체의 동기화를 위한 방법이 아닌 그래픽스 객체들 사이의 시간 동기화 방 법을 제공한다. 따라서, 현재 MPEG-4에서는 비디오 내용과 그래픽스 객체간의 어떠한 연결 고리도 제공하지 않으므로, 시간 종속형 데이터 콘텐츠 제작시 다음과 같은 문제점들이 발생한다.Since time ultimately means the flow of video images in time-dependent content, it is essential to implement synchronization between other multimedia objects including video images and graphics objects in order to implement time-dependent content. However, the present time method of MPEG-4 provides a method of time synchronization between graphics objects, which is not a method for synchronizing video objects with graphics objects required for constructing time-dependent data content. Therefore, the current MPEG-4 does not provide any link between the video content and the graphics object, and therefore, the following problems occur when producing time-dependent data content.

(1) 데이터 콘텐츠를 적절한 장면에 삽압히는 것이 쉽지 않다(1) It is not easy to insert the data content into the appropriate scene

콘텐츠 제작시 비디오와 그래픽스 객체를 장면에 따라 동기화하기 위해서, 개발자는 장시간 분량 비디오 내용을 먼저 면면히 검토하여 각각의 데이터 콘텐츠가 등장할 적합한 시간 값을 일일이 체크해 두어야 한다. 그리고, 이 시간 값을 기반으로 다시 한 번 작성된 데이터 콘텐츠를 전체적으로 재작성해야 하는 불편을 감수해야 한다.In order to synchronize video and graphics objects according to scenes during content creation, developers must first carefully examine the length of video content and check the appropriate time value for each data content to appear. And, based on this time value, you have to take the inconvenience of having to rewrite the data contents once again created as a whole.

(2) 전체적인 콘텐츠 수정/편집이 어렵다(2) Difficult to modify / edit the overall content

한번 작성된 방송 콘텐츠라 할지라도 제작 목적에 따라 비디오 데이터의 편집 수정은 빈번히 일어난다. 그러나, 데이터 콘텐츠는 절대적인 시간 값을 기준으로 콘텐츠가 등장하도록 코드가 기술되어 있으므로, 비디오 데이터가 수정 편집되더라도 데이터 콘텐츠의 등장 시간은 자동으로 변경되지 않는다. 따라서, 이러한 경우 데이터 콘텐츠와 비디오 객체의 동기화를 위해서는 앞서 작성해 두었던 시간 값을 전체적으로 다시 한 번 수정하는 작업을 거쳐야 한다.Even in broadcast contents that have been created once, editing and correction of video data occurs frequently according to the production purpose. However, since the code is described so that the content appears on the basis of an absolute time value, the appearance time of the data content does not change automatically even if the video data is modified and edited. Therefore, in this case, in order to synchronize the data content and the video object, it is necessary to modify the time value previously created as a whole.

(3) 그래픽 데이터의 반복 기술의 문제점이 발생한다(3) A problem arises in the repetition technique of graphic data.

현재 BIFS에서는 데이터 모듈화의 개념이 없다. 이 역시 장면과 데이터 콘텐츠의 연결 고리의 부재에서 야기된 문제이다. 따라서, 같은 그래픽스 데이터가 여러번 반복되고 이들은 단지 등장하는 시간 값만 다르다고 할지라도 같은 코드를 등장 시간마다 등장 횟수만큰 반복 기술해 주어야 한다. 따라서, 중복된 코드에 의해 데이터의 크기가 불필요하게 커질 수밖에 없다.Currently there is no concept of data modularity in BIFS. This is also a problem caused by the absence of a link between the scene and the data content. Thus, even if the same graphics data is repeated many times and they only differ in the time value they appear, the same code should be described repeatedly with only the number of appearances per appearance time. Therefore, the size of the data is unnecessarily large due to the redundant code.

본 발명은 상기한 종래 기술에서 나타나는 문제점을 해결하기 위한 것으로서, 그 한 가지 목적은 일반 방송 데이터에 콘텐츠 데이터를 효율적으로 동기화하여 데이터 방송을 제공할 수 있는 방법 및 시스템을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems in the prior art, and one object thereof is to provide a method and system capable of providing data broadcasting by efficiently synchronizing content data with general broadcasting data.

본 발명의 다른 목적은 콘텐츠 개발자가 임의적으로 데이터를 시간 정보만을 기준으로 콘텐츠 데이터를 분할하여 일반 방송 데이터에 매치시키는 과정 없이 콘텐츠 데이터를 일반 방송 데이터에 효율적으로 동기화시켜 데이터 방송을 제공할 수 있는 방법 및 시스템을 제공하는 것이다.It is another object of the present invention to provide a data broadcaster by efficiently synchronizing content data with general broadcast data without the content developer arbitrarily dividing the content data based on time information and matching the general broadcast data. And to provide a system.

본 발명의 또 다른 목적은 일반 방송 데이터의 내용을 면밀히 검토하여 데이터 콘텐츠가 등장할 시간 값을 체크하는 것과 같은 번잡한 작업 없이 일반 방송 데이터의 장면의 변화에 따라 데이터 콘텐츠를 용이하게 삽입하여 데이터 방송을 제공할 수 있는 방법 및 시스템을 제공하는 것이다.It is still another object of the present invention to examine data contents of general broadcasting data and to easily insert data contents according to the change of scene of general broadcasting data without complicated operation such as checking the time value at which data contents appear. It is to provide a method and system that can provide.

본 발명의 또 다른 목적은 일반 방송 데이터가 편집/수정되더라도 데이터 콘텐츠의 등장 시간을 수동으로 변경하는 번잡한 작업 없이, 편집/수정된 일반 방송 데이터에 동기화하여 데이터 콘텐츠를 제공할 수 있는 방법 및 시스템을 제공하는 것이다.Another object of the present invention is a method and system that can provide data contents in synchronization with the edited / modified general broadcast data without the complicated work of manually changing the appearance time of the data content even if the general broadcast data is edited / modified. To provide.

상기 목적을 달성하기 위하여, 본 발명에 따라서 광고 데이터 콘텐츠를 방송 데이터와 동기화하여 사용자의 단말기로 제공하는 데이터 방송 서비스 방법이 제공 되는데, 상기 방법은 (A) 미리 준비한 방송 데이터의 장면을 분석하여, 광고 데이터 콘텐츠가 디스플레이될 방송 장면에 그 장면과 연관된 장면 키워드를 기록한 MPEG-7 파일을 생성하는 단계와; (B) 상기 광고 데이터 콘텐츠를 사용자의 단말기 상에 디스플레이하는 조건을 기술한 BIFS 코드에 상기 장면 키워드와 동일한 장면 키워드를 삽입한 확장 BIFS 파일을 생성하는 단계와; (C) 상기 MPEG-7 파일과 확장 BIFS 파일을 해석/분석하여, 일반 단말기가 인식할 수 있는 코드로 변환하는 단계와; (D) 상기 (C) 단계에서 변환된 코드와 상기 방송 데이터 및 광고 데이터 콘텐츠를 먹싱하여 하나의 방송물에 맞게 통합한 후 사용자의 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, according to the present invention there is provided a data broadcasting service method for synchronizing the advertising data content with the broadcast data to provide to the user terminal, the method (A) by analyzing the scene of the broadcast data prepared in advance, Generating an MPEG-7 file in which the scene keyword associated with the scene is recorded in the broadcast scene in which the advertisement data content is to be displayed; (B) generating an extended BIFS file in which the same scene keyword as the scene keyword is inserted into a BIFS code describing a condition for displaying the advertisement data content on the user's terminal; (C) analyzing / analyzing the MPEG-7 file and the extended BIFS file, and converting the MPEG-7 file into a code that can be recognized by a general terminal; (D) muxing the code converted in the step (C) and the broadcast data and the advertisement data content, and integrating it into one broadcast, and transmitting the same to a user's terminal.

한 가지 실시예에 있어서, 상기 (A) 단계에서 상기 장면 키워드는 Video Segment Description Scheme 형식의 MPEG-7에 장면에 대한 정보를 기술할 수 있도록 새롭게 규정된 노드에 기록되어, 상기 MPEG-7 파일이 생성될 수 있고, 상기 Video Segment Description Scheme 형식의 MPEG-7은 상기 장면 키워드와 연관된 장면의 시작 시간과 진행 시간을 알려 주는 노드를 포함할 수 있다.In one embodiment, in the step (A), the scene keyword is recorded in a node newly defined so that information about the scene can be described in MPEG-7 of Video Segment Description Scheme format, so that the MPEG-7 file is stored. The MPEG-7 of the Video Segment Description Scheme format may include a node for indicating a start time and a progress time of a scene associated with the scene keyword.

한 가지 실시예에 있어서, 상기 (B) 단계에서 확장 BIFS 파일은 상기 장면 키워드를 기술할 수 있는 노드가 추가 정의된 BIFS 코드를 포함할 수 있고, 상기 BIFS 코드에 추가 정의된 노드는 다중 애트리뷰트를 갖도록 정의될 수 있다.In one embodiment, in step (B), the extended BIFS file may include a BIFS code in which a node capable of describing the scene keyword is further defined, and the node further defined in the BIFS code may include multiple attributes. It can be defined to have.

한 가지 실시예에 있어서, 상기 (C) 단계에서 상기 MPEG-7 파일에 새롭게 규정된 노드와 상기 확장 BIFS 파일의 추가 정의된 노드의 값을 추출 및 해석하여, 상기 방송 데이터의 어떠한 장면이 광고 데이터 콘텐츠와 연관되어 있는지를 파악한다.In one embodiment, extracting and interpreting values of a node newly defined in the MPEG-7 file and a node further defined in the extended BIFS file in step (C), so that any scene of the broadcast data is displayed in the advertisement data. Determine if it is related to the content.

본 발명의 다른 양태에 따라서, 광고 데이터 콘텐츠를 방송 데이터와 동기화하여 사용자의 단말기로 제공하는 데이터 방송 서비스 시스템이 제공되는데, 상기 시스템은 데이터 입력 모듈로서, 미리 준비한 방송 데이터의 장면을 분석하여, 광고 데이터 콘텐츠가 디스플레이될 방송 장면에 그 장면과 연관된 장면 키워드를 기록한 MPEG-7 파일을 생성하는 MPEG-7 파일 생성 유닛과, 상기 광고 데이터 콘텐츠를 사용자의 단말기 상에 디스플레이하는 조건을 기술한 BIFS 코드에 상기 장면 키워드와 동일한 장면 키워드를 삽입한 확장 BIFS 파일을 생성하는 확장 BIFS 파일 생성 유닛을 포함하는 데이터 입력 모듈과; 상기 데이터 입력 모듈로부터 입력되는 파일을 처리하여, 사용자의 단말기로 전송되는 파일을 생성하는 인터프리터 모듈로서, 상기 데이터 입력 서버로부터 입력되는 MPEG-7 파일 및 확장 BIFS 파일을 해석/분석하여, 일반 단말기가 인식할 수 있는 코드로 변환하는 해석/변환 유닛과, 상기 해석/변환 유닛에 의해 변환된 파일을 미리 준비한 방송 데이터 파일 및 광고 콘텐츠 데이터 파일과 먹싱하여 하나의 방송물에 맞게 통합하여 MP4 파일을 생성하는 통합 유닛을 포함하는 것인 상기 인터프리터 모듈을 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a data broadcasting service system for synchronizing advertisement data contents with broadcast data and providing the same to a terminal of a user, wherein the system is a data input module that analyzes a scene of broadcast data prepared in advance, An MPEG-7 file generation unit that generates an MPEG-7 file that records a scene keyword associated with the scene in a broadcast scene where the data content is to be displayed, and a BIFS code that describes a condition for displaying the advertisement data content on a user's terminal. A data input module including an extended BIFS file generation unit for generating an extended BIFS file into which the same scene keyword as the scene keyword is inserted; An interpreter module which processes a file input from the data input module and generates a file transmitted to a user terminal. The terminal interprets / analyzes an MPEG-7 file and an extended BIFS file input from the data input server. An interpretation / conversion unit for converting the code into a recognizable code, and a file converted by the interpretation / conversion unit with the previously prepared broadcast data file and the advertisement content data file, and integrated into a single broadcast to generate an MP4 file. It characterized in that it comprises the interpreter module that includes an integrated unit.

본 발명에 따르면, 일반 방송 데이터에 콘텐츠 데이터를 효율적으로 동기화할 수 있다. 즉 콘텐츠 개발자가 임의적으로 데이터를 시간 정보만을 기준으로 콘텐츠 데이터를 분할하여 일반 방송 데이터에 매치시키는 과정 없이 콘텐츠 데이터를 일반 방송 데이터에 효율적으로 동기화시켜 데이터 방송을 제공할 수 있다. 도한, 본 발명에 따르면 데이터 콘텐츠가 등장할 시간 값을 체크하는 것과 같은 번잡한 작업 없이 일반 방송 데이터의 장면의 변화에 따라 데이터 콘텐츠를 용이하게 삽입하여 데이터 방송을 제공할 수 있고, 일반 방송 데이터가 편집/수정되더라도 데이터 콘텐츠의 등장 시간을 수동으로 변경하는 번잡한 작업 없이, 편집/수정된 일반 방송 데이터에 동기화하여 데이터 콘텐츠를 제공할 수 있다.According to the present invention, content data can be efficiently synchronized with general broadcast data. That is, the content developer can provide data broadcasting by efficiently synchronizing the content data with the general broadcast data without arbitrarily dividing the content data based on the time information and matching the general broadcast data. In addition, according to the present invention, it is possible to provide data broadcasting by easily inserting the data contents according to the change of the scene of the general broadcasting data without the complicated work such as checking the time value at which the data contents will appear. Even if it is edited / modified, the data content can be provided by synchronizing with the edited / modified general broadcast data without the complicated work of manually changing the appearance time of the data content.

이하에서는 본 발명을 첨부 도면을 참조하여 더욱 구체적으로 설명한다. 이하의 설명에 있어서, 당업계에 이미 널리 알려진 구성 및 그 동작에 대한 설명은 생략한다. 이러한 설명을 생략한다 하더라도, 당업자라면 이하의 설명을 통해 본 발명에 의해 제시되는 구성 및 그 동작 원리를 쉽게 이해할 수 있을 것이다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings. In the following description, descriptions of configurations and operations of which are well known in the art will be omitted. Even if this description is omitted, those skilled in the art will be able to easily understand the configuration and operating principle of the present invention through the following description.

1. 본 발명의 내용 기반 동기화의 개념1. Concept of content-based synchronization of the present invention

본 발명자는 상기한 종래의 데이터 방송의 문제점을 해결하기 위해 데이터 콘텐츠의 시간 표현에 대한 연구를 수행하였다. 특히 연동형 데이터 콘텐츠 제작의 효율을 높일 수 있는 비디오 객체와 그래픽스 객체의 시간 동기화에 초점을 맞 춰 연구를 진행하였으며, 그 결과로 비디오 콘텐츠의 내용에 따라 데이터 콘텐츠의 내용이 변할 수 있는 내용 기반의 동기화 기법을 완성하였다.The present inventors conducted a study on the time representation of the data content in order to solve the above problems of the conventional data broadcasting. In particular, the research focused on the time synchronization of video objects and graphics objects that can improve the efficiency of linked data content production. As a result, the content-based contents can be changed according to the content of video content. The synchronization technique was completed.

도 2에는 본 발명에 따라 제안되는 내용 기반 동기화의 개념이 개략적으로 도시되어 있다. 본 발명에서 제시하는 내용 기반 동기화란 데이터 콘텐츠가 비디오의 내용, 즉 비디오 장면에 따라 변경된다는 개념이다. 이처럼 비디오의 장면에 따라 데이터 콘텐츠가 변경될 수 있다는 것은 비디오 장면과 데이터 콘텐츠 각자의 절대적인 시간 값을 통해 동기화가 이루어지는 것이 아닌 직접적으로 비디오 장면 자체와 데이터 콘텐츠 자체가 유기적으로 연결된다는 것을 의미한다. 따라서, 비디오 장면에 따라 데이터 콘텐츠가 변경되므로, 콘텐츠 개발자가 일일이 콘텐츠의 등장 시간을 체크해서 시간 절대값으로 데이터 콘텐츠를 다시 한 번 매핑하는 번거로운 절차를 수행할 필요가 없다.2 schematically illustrates the concept of content-based synchronization proposed in accordance with the present invention. Content-based synchronization proposed in the present invention is a concept that the data content is changed according to the content of the video, that is, the video scene. The fact that the data content can be changed according to the scene of the video means that the video scene itself and the data content itself are organically connected instead of being synchronized through the absolute time values of the video scene and the data content. Therefore, since the data content changes according to the video scene, the content developer does not have to perform the cumbersome procedure of checking the appearance time of the content and mapping the data content once again to the absolute value of time.

본 발명에서는 이러한 내용 기반 동기화를 위해 데이터 콘텐츠의 시간 표현을 절대적인 시간 값 또는 SMIL 언어로 기술하는 방법이 아닌 비디오 장면의 내용을 바탕으로 데이터 콘텐츠의 등장 시간을 표현할 수 있는 방법을 제안한다. 이와 관련하여, 본 발명에서는 비디오의 장면의 내용을 바탕으로 데이터 콘텐츠의 등장 시간을 표현하기 위해, 비디오 장면을 대표해 줄 수 있는 장면 키워드를 이용한다. 그리고 각각의 데이터가 등장하는 절대적인 시간 값을 기술하는 대신 장면 키워드를 토대로 그래픽스 객체를 기술한다.The present invention proposes a method of expressing the appearance time of data content based on the content of a video scene, rather than describing the time representation of the data content in an absolute time value or SMIL language for such content-based synchronization. In this regard, the present invention uses a scene keyword that can represent a video scene to express the time of appearance of the data content based on the content of the video scene. Instead of describing the absolute time value at which each data appears, we describe the graphics object based on scene keywords.

이러한 방법으로 데이터 콘텐츠를 기술하게 되면, 데이터 콘텐츠를 절대적인 시간 값이 아닌 비디오 장면 자체에 의존시킬 수 있다. 따라서, 비디오 데이터가 재편집 된다고 해도, 비디오 데이터와 데이터 콘텐츠는 장면 키워드를 기반으로 연결되어 있으므로, 연동형 콘텐츠 제작시 야기되었던 여러 작업상의 불편함을 해결할 수가 있다.Describing data content in this way allows the data content to depend on the video scene itself rather than on an absolute time value. Therefore, even if the video data is re-edited, the video data and the data content are connected based on the scene keyword, thereby solving various inconveniences caused by the production of the linked content.

2. 데이터 콘텐츠의 시간 표현을 위한 내용 기반 동기화 기법2. Content-based Synchronization Technique for Time Representation of Data Contents

본 발명에 따라 내용 기반 동기화를 구현할 수 있는 방법으로 다음과 같은 두 가지 방법이 있을 수 있다.According to the present invention, there can be two methods as follows to implement content-based synchronization.

(1) 내용 기반 동기화 표현이 가능한 새로운 언어를 정의하는 방법(1) how to define new languages with content-based synchronized representation

새로운 언어를 정의하여 내용 동기화의 개념을 모두 표현할 수 있도록 구현한다면, 이는 가장 간단한 형태의 개발 방법이 될 수 있을 것이다. 그러나, 이미 BIFS와 MPEG-4가 다양한 방송 분야에서 표준으로 사용되고 있으므로 표준을 대체할만한 새로운 언어를 개발하는 것은 실효성이 없으며, 있다 하더라도 거의 낮은 수준에 머무를 것이다. 또한, 새로운 언어를 해석하여 장면을 구성할 수 있는 브라우저 개발도 필요하게 되며, 이 역시 구현 및 실효성 극복의 어려움이 있다.If you define a new language and implement it to represent all of the concepts of content synchronization, this would be the simplest form of development. However, since BIFS and MPEG-4 are already used as standards in various broadcast fields, developing new languages to replace them is not practical and, if any, will remain at a very low level. In addition, it is also necessary to develop a browser that can compose a scene by interpreting a new language, which also has a difficulty in overcoming implementation and effectiveness.

(2) BIFS의 확장(2) extension of BIFS

내용 기반 동기화가 가능하도록 BIFS를 확장 정의하고, 이를 해석해줄 수 있 는 모듈을 사용한다면, 상기 (1)과 같은 문제점을 해결할 수 있을 것이다.If BIFS is extended to define content-based synchronization and use a module that can interpret it, the above problems (1) can be solved.

이 방법은 개발 단계에서 내용 동기화 개념을 활용하여 콘텐츠를 개발하고, 이를 위해 새로 정의하여 사용했던 노드들을 사용자 단말기에 전송하기 전에 기존 코드로 변경해 주는 전처리기를 사용하는 개념으로서, 본 발명에 의해 제시되는 최초의 개념이며 본 발명의 중요한 한 가지 특징을 구성한다. 따라서, 이 방법은 새로운 브라우저 개발의 부담이 없으며, 개발 단계에서 BIFS 표준의 단점(예컨대, BIFS는 PC 기반의 3차원 가상 환경을 표현하기 위한 VRML을 모태로 한 언어로 모바일 환경을 고려하지 않은 표준이다. 따라서, 표준을 그대로 모바일 방송 환경에 적용하기에는 표준이 너무 복잡하다 방대하다. 또한, 현재 BIFS 표준에는 방송 환경을 고려하지 않았으므로, 비디오와 데이터 객체의 연계를 위한 기술이 미약하다)을 극복할 수 있다. 또한, 데이터 콘텐츠는 방송 송출 시간에 맞춰 실시간으로 개발하는 것이 아니라 항상 방송 전에 미리 작성해 두는 것이므로, 전처리기의 사용이 시스템 성능 및 방송 송출에 영향을 미치지 않게 된다. 따라서, 본 발명에서는 BIFS 노드의 확장 및 이를 해석할 수 있는 모듈(가칭, "인터프리터")를 통한 내용 기반 동기화를 구현한다.This method is a concept of developing a content using the concept of content synchronization in the development stage, and using the preprocessor to change the existing code before transmitting the newly defined nodes to the user terminal for this purpose, It is the first concept and constitutes one important feature of the invention. Therefore, this method is not burdened with the development of new browsers, and the disadvantages of the BIFS standard in the development stage (e.g. BIFS is a language based on VRML for expressing PC-based 3D virtual environment. Therefore, the standard is too complex to be applied to the mobile broadcasting environment as it is, and the current BIFS standard does not consider the broadcasting environment, so the technology for linking video and data objects is weak. can do. In addition, the data content is not always developed in real time according to the broadcast transmission time, but is always prepared in advance before the broadcast, so the use of the preprocessor does not affect system performance and broadcast transmission. Therefore, the present invention implements content-based synchronization through extension of BIFS nodes and modules (tentatively referred to as "interpreters") that can interpret them.

3. 내용 기반 동기화 시스템 구성도3. Content-based synchronization system diagram

도 3에는 본 발명에 따른 내용 기반 동기화 시스템의 전체적인 구성이 개략적으로 도시되어 있다.3 schematically illustrates the overall configuration of a content-based synchronization system according to the present invention.

도시한 바와 같이, 본 발명의 내용 기반 동기화 시스템은 크게 세 부분으로 구분할 수 있다.As shown, the content-based synchronization system of the present invention can be divided into three parts.

(1) 비디오 장면 분석(1) video scene analysis

비디오 영상과 키워드를 연결해 주는 작업이 이루어지는 파트로서, 이 단계에서 방송 콘텐츠의 비디오 영상 데이터를 분석하여 비디오 장면의 Semantic Annotation을 기록하고 MPEG-7 파일로 아웃풋을 생성한다.In this step, the video image data of the broadcast content is analyzed, the semantic annotation of the video scene is recorded, and the output is generated as an MPEG-7 file.

(2) 광고 데이터 콘텐츠 생성(2) create advertising data content

광고를 구성하는 데이터 콘텐츠와 비디오 장면 분석에 사용된 키워드를 연결해 주는 작업이 이루어지는 파트이다. 이 단계에서 키워드를 BIFS 데이터 코드 내에 기술할 수 있도록 본 발명에서 제안하는 키워드 표현을 위해 정의한 노드를 사용하여 콘텐츠를 기술한다. 이러한 작업이 끝나면 BIFS 코드에 장면 키워드 정보가 추가된 XMT 형식의 아웃풋 파일이 생성된다.This part connects the data contents constituting the advertisement with the keywords used for video scene analysis. In this step, the content is described using the node defined for the keyword expression proposed in the present invention so that the keyword can be described in the BIFS data code. After this is done, an output file in XMT format with scene keyword information added to the BIFS code is created.

(3) 시간 동기화를 위한 인터프리터(3) interpreter for time synchronization

키워드를 바탕으로 비디오 영상과 광고 데이터 콘텐츠를 연결해 주는 단계이다. 비디오 장면 분석 결과 파일과 광고 데이터 콘텐츠 생성 단계의 결과 파일은 인터프리터의 입력 데이터로 이용된다. 인터프리터는 키워드 표현을 위해 정의한 노드가 추가되어 제작된 콘텐츠를 사용자에게 제공되는 기존 BIFS 코드로 변경하는 역할을 한다. 따라서, 인터프리터를 통하여 기존 BIFS의 시간 표현 방법으로 작성된 Scene Graph를 생성하게 되며, 비디오 영상, 광고 콘텐츠 데이터 및 선택적으로 다른 멀티미디어 데이터와 통합하여 사용자 단말기에 전송되는 최종 파일인 MP4 파일을 생성한다.This step connects video images and advertisement data contents based on keywords. The video scene analysis result file and the result file of the advertisement data content generation step are used as input data of the interpreter. The interpreter adds a node defined for the keyword expression to change the produced content into existing BIFS code provided to the user. Therefore, through the interpreter, the scene graph created by the time expression method of the existing BIFS is generated, and the final file MP4 file which is integrated with the video image, the advertisement content data, and optionally other multimedia data is transmitted to the user terminal.

4. 작업 시나리오4. Work Scenario

도 4에는 본 발명에 따른 콘텐츠 개발 시나리오의 개념이 개략적으로 도시되어 있다.4 schematically illustrates the concept of a content development scenario in accordance with the present invention.

본 발명에서 제안하는 내용 기반 동기화 시스템에서는 다음과 같은 순서에 따라 데이터 콘텐츠가 작성될 수 있다. 먼저, 광고 업체에서 방송에 등장하길 원하는 광고 데이터 콘텐츠를 작성한다. 그리고, 방송국 쪽에서는 예컨대, Supervisor가 영상 내용에 따라 등장해야 할 데이터 콘텐츠에 대해 기술한 문서(스토리보드)를 작성한다. 이 스토리보드에 어떤 장면과 어떤 광고 콘텐츠가 연관되는지에 대해 기술하게 되며, 이때 사용할 비디오 장면 키워드를 지정한다. 예를 들어, "'송혜교가 원피스를 입고 있는 장면'에는 '광고 콘텐츠#1'이 나오고 이때 사용될 장면 키워드는 '송혜교 원피스'이다."라는 식으로 작업을 진행할 수 있다.In the content-based synchronization system proposed by the present invention, data contents may be created in the following order. First, an advertisement company prepares advertisement data content that they want to appear on the broadcast. On the broadcasting station side, for example, a supervisor creates a document (storyboard) describing data content that should appear in accordance with the video content. This storyboard describes which scenes are associated with which advertising content, and specifies the video scene keywords to use. For example, "'Song Hye Kyo wearing a dress' shows 'Ad Content # 1' and the scene keyword to be used at this time may be 'Song Hye Kyo Dress'.

이러한 작업이 끝나게 되면, 방송국의 비디오 분석팀은 작성된 스토리보드를 기반으로 비디오 데이터를 분석하고, 각 주요 장면에 대한 키워드를 삽입하여 장면과 키워드를 연결하는 작업을 진행한다. 이와 동시에 방송국의 콘텐츠 개발자는 광고 업체에서 넘겨 받은 광고 데이터 콘텐츠를 스토리보드에 기반하여 재작성하게 되며, 이때는 간단히 광고 콘텐츠와 그에 해당하는 장면 키워드를 삽입하는 작업을 진행한다.When this is done, the video analysis team at the broadcasting station analyzes the video data based on the written storyboard, and inserts keywords for each major scene to connect the scenes and keywords. At the same time, the content developer of the broadcasting station rewrites the advertising data content received from the advertising company based on the storyboard, and simply inserts the advertising content and the scene keyword corresponding thereto.

상기와 같은 작업이 모두 끝나면, 작성된 파일들을 최종 방송 가능한 송출물로 만들어 내기 위하여 인터프리팅 과정을 거친다. 이때 비디오 분석 및 콘텐츠 생성의 결과물인 MPEG-7 파일과 XMT 파일이 입력 파일로 사용되며, 인터프리터의 출력 파일인 기존 코드로 변경된 BT 파일을 다른 멀티미디어 파일들과 먹싱한다.When all of the above work is completed, an interpreting process is performed to produce the created files as a final broadcastable broadcast. At this time, MPEG-7 file and XMT file which are the result of video analysis and content generation are used as input files, and the BT file modified by the existing code, which is the output file of the interpreter, is muxed with other multimedia files.

5. 내용 기반 동기화 시스템의 구현5. Implementation of Content-Based Synchronization System

(1) BIFS의 노드 확장 정의(1) Defining Node Extensions in BIFS

본 발명에서는 <SCENE>이라는 노드를 통해 장면 키워드를 나타낼 수 있도록 정의한다. 노드는 개발자의 편의를 위해 BIFS에 대한 사전 지식 없이도 콘텐츠 개발이 가능하도록 XMT 기반으로 확장 정의한다.In the present invention, a scene keyword is defined through a node called <SCENE>. For the convenience of developers, nodes are defined and extended based on XMT to enable content development without prior knowledge of BIFS.

본 발명에서 <SCENE> 노드는 속성 값으로 장편 표현에 사용된 키워드를 기술할 수 있으며, 다중 애트리뷰트(attributes)를 가질 수 있도록 정의하였다. 이처럼 다중 애트리뷰트를 갖게 되면 콘텐츠 작성시 제작 단계에서 기술해야 하는 콘텐츠의 코드 라인 수를 감소시킬 수 있다. 즉 어떤 요소(element)가 갖는 속성값이 애트리뷰트인데, 다중 애트리뷰트를 갖도록 <SCENE> 노드를 정의함으로써, 예컨대 여러 장면에 나타나는 '원피스'에 대한 BIFS 코드를 한 번에 기입할 수 있어, BIFS 코드가 반복되는 것을 감소시킬 수가 있게 된다. 또한, <SCENE> 노드는 root 노드인 <XMT-A>의 자식 노드인 <BODY> 노드의 자식 노도로 정의하였으며, <Transform2D> 노드와 <Children> 노드를 자식 노드로 가질 수 있도록 정의하였다. <Transform2D> 노드와 <Children> 노드 등은 BIFS 코드에 등장하는 노드로서, 표준에 정의된 노드이며, 따라서 그에 대한 설명은 생략한다. 도 5는 상기와 같이 정의한 장면 표현 노드를 사용하여 기술한 콘텐츠의 한 예를 나타낸다.In the present invention, the <SCENE> node may describe a keyword used in a feature-length expression as an attribute value and is defined to have multiple attributes. Having multiple attributes in this way can reduce the number of lines of code in the content that need to be described during production when writing the content. In other words, an attribute value of an element is an attribute, and by defining a <SCENE> node to have multiple attributes, for example, BIFS code for 'one piece' that appears in multiple scenes can be written at once. It is possible to reduce the repetition. In addition, <SCENE> node is defined as a child node of <BODY> node, which is a child node of <XMT-A> which is a root node, and defined to have <Transform2D> node and <Children> node as child nodes. The <Transform2D> node and the <Children> node are nodes that appear in BIFS code, and are defined in the standard. Therefore, descriptions thereof are omitted. 5 shows an example of content described using the scene expression node defined as above.

(2) 비디오 키워드 정보 표현(2) video keyword information representation

본 발명에서 제안하는 방식으로 콘텐츠 개발시 비디오 장면 키워드 정보를 생성하는 작업을 먼저 수행하여야 한다. 비디오 키워드 정보 표현을 통해 영상의 원하는 위치에 장면 정보를 기술할 수 있게 된다. 따라서, 비디오 데이터의 중용한 장면이 시작되는 시점에 비디오 장면에 대한 Annotation을 기록할 수 있어야 하는데, MPEG-4에서는 이를 위해 크게 다음과 같은 두 가지 방법이 사용된다.In developing the content in the manner proposed by the present invention, a task of generating video scene keyword information should be performed first. Through the video keyword information representation, scene information can be described at a desired position of an image. Therefore, it should be possible to record annotations for video scenes at the beginning of the critical scenes of video data. In MPEG-4, the following two methods are largely used.

① MPEG-4 OSCI Descriptor를 사용하는 방법① How to use MPEG-4 OSCI Descriptor

먼저 MPEG-4 표준에 정의되어 있는 OCI(Object Content Information) Descriptor를 사용하는 것으로, OCI Descriptor는 MPEG-4 파일에 포함되어 오디오/비디오 객체(object)의 부가 정보를 제공해 주는 역할을 담당한다. MPEG-4 시스템에서는 A/V 정보의 설명 내용의 부호화된 표현 방법을 제공하기 위해 OCI를 제공하 고 있다. OCI Descriptor는 A/V 객체에 대해 설명하는 정보, Content Classification descriptor, Keyword descriptor, Rating descriptor, Language descriptor, Textual descriptor, creator name, creation date 등을 기술할 수 있다.First, it uses the OCI (Object Content Information) Descriptor defined in the MPEG-4 standard. The OCI Descriptor is included in an MPEG-4 file to provide additional information of an audio / video object. The MPEG-4 system provides OCI to provide a coded representation of the description content of A / V information. The OCI Descriptor may describe information describing an A / V object, a content classification descriptor, a keyword descriptor, a rating descriptor, a language descriptor, a textual descriptor, a creator name, a creation date, and the like.

BIFS에서는 비디오 객체의 OCI Descriptor에 Segment descriptor를 통해 메타데이터 작성이 가능하다. Segment Descriptor에는 비디오의 각 부분에 대한 묘사가 가능하여 name, startTime, duration을 기술할 수 있다. 이를 통해 OCI 활용시 비디오의 특정 부분으로 제어가 이동할 수는 있다. 그러나, 본 발명에서는 특정 부분으로의 재생 제어가 목적이 아니며, 장면 키워드에 따른 장면 시작과 끝 시간 추출이 필요하다. 따라서, OCI를 사용하는 방법은 본 발명에 적합하지 않다고 할 수 있다.In BIFS, metadata can be written through segment descriptor in OCI Descriptor of video object. The Segment Descriptor can describe each part of the video so that it can describe the name, startTime, and duration. This allows control to move to specific parts of the video when using OCI. However, the present invention is not intended to control reproduction to a specific portion, and scene start and end time extraction according to scene keywords is required. Therefore, it can be said that the method of using OCI is not suitable for the present invention.

② MPEG-7 메타 데이터를 하나의 ES로 이용하는 방법② How to use MPEG-7 metadata as one ES

또 다른 방법으로는 MPEG-4 파일을 전송할 때 MPEG-7 형식의 메타 데이터 파일을 MPEG-4의 ES(Elementary Stream)의 하나로 함께 전송하는 방법이 있다. MPEG-7은 비디오 기술이 가능한 표준이다. 따라서, MPEG-7은 비디오 데이터를 위한 기술 스키마(Description Scheme)인 Video Segment Description Scheme를 갖고 있다. Video Segment Description Scheme는 Segment Description Scheme를 비디오뿐만 아니라 시간이나 공간적으로 연결되지 않은 프레임들의 그룹에서도 적용할 수 있도록 확장된 형태이다. 도 6에 MPEG-7 Video Segment Description Scheme의 한 예가 도시되어 있다.Another method is to transfer a metadata file of MPEG-7 format together as one of MPEG-4 ES (Elementary Stream) when transmitting MPEG-4 file. MPEG-7 is the standard for video technology. Accordingly, MPEG-7 has a Video Segment Description Scheme, which is a description scheme for video data. The Video Segment Description Scheme is an extended form to apply the Segment Description Scheme to not only video but also to groups of frames that are not connected in time or space. An example of the MPEG-7 Video Segment Description Scheme is shown in FIG.

또한, MPEG-7 메타 데이터는 콘텐츠를 구성하는 다른 미디어 파일들과 함께 하나의 MP4 파일로 먹싱(Muxing)될 수 있다. A/V의 특성에 의해 검색될 수 있는 부가적인 정보를 제공한다거나, 또는 MPEG-4 콘텐츠의 plot 정보뿐만 아니라 text search를 위한 부가 정보까지 제공할 수 있다.In addition, MPEG-7 metadata may be muxed into one MP4 file along with other media files constituting the content. Additional information that may be searched by the characteristics of the A / V may be provided, or additional information for text search may be provided as well as plot information of MPEG-4 content.

③ 콘텐츠 개발 단계에서 MPEG-7의 메타데이터 활용③ Utilizing MPEG-7 Metadata in Content Development

그런데, MPEG-7을 하나의 ES로 전송할 경우, 사용자 단말기에서 이를 처리할 수 있는 별도의 기능을 탑재하여야 하는 문제점을 발생한다. 따라서, 본 발명자는 MPEG-7의 비디오 데이터를 위한 Description Scheme인 Video Segment Description Scheme를 활용하여 메타데이터를 생성하되, 이를 사용자 단말기에 전송하지 않고 개발 단계에서 활용할 수 있도록 연구를 진행하였다.However, when MPEG-7 is transmitted to one ES, a problem arises in that a user terminal needs to have a separate function for processing the MPEG-7. Accordingly, the present inventor has conducted a study to generate metadata using a Video Segment Description Scheme, which is a description scheme for video data of MPEG-7, but to use it in a development stage without transmitting it to a user terminal.

실제로 진정한 의미의 비디오 Semantic 구현을 위해서는 Person과 Event 등의 노드를 활용하여 현재 Shot이 어떠한 내용을 담고 있는 Shot인지 파악할 수 있도록 하는 것이 가장 올바른 접근 방법일 수 있다. 그러나, 현실적으로 개발자가 모든 장면에 대해 정확히 등장 인물 및 사건을 모두 기입하는 것은 무리가 있고 시간/비용/노동 소모적인 작업이다. 또한, 인터프리터에서 데이터 콘텐츠 삽입의 시간 정보 추출을 위해서도 등장하는 person과 evenet의 모든 내용을 다시 한번 재분 석하는 단계가 필요하다.In fact, in order to realize a true video semantic, it may be the best approach to use Nodes such as Person and Event to understand what the current shot is. However, in reality, it is not unreasonable and time-consuming / labor-consuming for a developer to write all the characters and events correctly for every scene. In addition, it is necessary to reanalyze all contents of person and evenet that appear in the interpreter to extract time information of data content insertion.

따라서, 본 발명에서는 <FreeTextAnnotation> 노드를 이용하여 쉽고 빠르게 장면에 대한 정보를 기술한다. 본 발명에서는 <FreeTextAnnotation>에 확장 정의한 BIFS 파일에서 키워드로 사용할 수 있는 단어들을 열거하였다. <FreeTextAnnotation>을 이용할 경우, 인터프리터는 입력된 BIFS 파일에서 사용한 장면 키워드가 어떤 Shot의 <FreeTextAnnotation> 부분과 일치하는지 검색하고, <FreeTextAnnotation>에서 일치하는 키워드를 갖고 있는 Shot의 <MediaTimePoint>와 <MediaDuration>의 값을 읽어들이도록 구성된다.Therefore, in the present invention, information about a scene is described quickly and easily by using a <FreeTextAnnotation> node. In the present invention, words that can be used as keywords in the BIFS file extended in <FreeTextAnnotation> are enumerated. When using <FreeTextAnnotation>, the interpreter searches for the shot's <FreeTextAnnotation> portion of the shot used in the input BIFS file, and the <MediaTimePoint> and <MediaDuration> of the Shot with the matching keyword in <FreeTextAnnotation>. It is configured to read the value of.

<MediaTime> 노드는 각 장면에 대한 시간 정보를 기록할 수 있는 element로 Shot의 시작 시간을 알려주는 <MediaTimePoint>와 진행 시간을 알려주는 <MediaDuration>을 하위 노드로 갖는다(도 6, 도 7 참조).The <MediaTime> node is an element that can record time information of each scene, and has <MediaTimePoint> indicating the start time of the shot and <MediaDuration> indicating the progress time as sub nodes (see FIGS. 6 and 7). .

(3) 인터프리터 모듈(3) interpreter module

① 해석 모듈① Analysis module

해석 모듈은 MPEG-7으로 작성된 비디오의 메타데이터를 해석해서 필요한 정보인 <FreeTextAnnotation> 노드의 값을 추출하는 기능과, 확장 정의된 BIFS 파일의 <SCENE> 노드의 애트리뷰트 값을 해석하여, 이떠한 장면끼리 연관되어 있는지 파악하는 모듈이다.The parsing module analyzes the metadata of video written in MPEG-7 and extracts the value of the <FreeTextAnnotation> node, which is the necessary information, and the attribute value of the <SCENE> node in the extended-defined BIFS file. This module checks whether they are related to each other.

② 코드 변환 모듈② Code conversion module

본 발명에서 정의한 노드들을 기반으로 작성된 데이터 콘텐츠를 기존 코드로 변환해 주는 모듈이다. 이 모듈은 장면 키워드를 기반으로 절대 시간으로 변환하여 AT 노드를 작성해 주는 시간 변환 모듈과 Scene update를 위해 노드와 ROUTE 노드를 추가하는 장면별 이벤트 추가 모듈로 구성된다.This module converts the data contents created based on the nodes defined in the present invention into existing codes. This module consists of a time conversion module that creates an AT node by converting it to absolute time based on the scene keyword, and a scene-specific event addition module that adds a node and a ROUTE node for a scene update.

시간 변환을 통해 광고 콘텐츠를 Shot의 시작 시간에 정확히 등장시키기 위해서 인터프리터는 <AT MediaTimePoint 값>을 추가한다. 그리고, 장면을 변화시킬 수 있도록 <insert> 노드를 추가하고, 광고 콘텐츠가 Shot이 끝나는 시점에 사라지게 하기 위해 <AT MediaTimePoint + MediaDuration>을 추가하고 delete 노드를 추가한다.The interpreter adds an <AT MediaTimePoint value> to ensure that the ad content appears exactly at the start of the shot through time conversion. Add an <insert> node to change the scene, add <AT MediaTimePoint + MediaDuration>, and delete node to make the ad content disappear at the end of the shot.

③ 통합 모듈③ integrated module

통합 모듈은 여러 개의 BIFS로 작성된 각각의 데이터 콘텐츠를 하나의 방송물에 맞게 통합하기 위해 먹싱하여, 하나의 MP4 파일을 만들어 내는 역할을 담당한다.The integration module is responsible for creating a single MP4 file by muxing each data content written in multiple BIFS into a single broadcast.

6. 실시예6. Example

이하에서는 상기한 본 발명의 개념을 보다 구체화한 실시예를 참조하여, 본 발명을 더욱 구체적으로 설명한다.Hereinafter, the present invention will be described in more detail with reference to embodiments in which the above-described concepts of the present invention are more specific.

도 9에는 상기한 본 발명을 구체화한 예시적인 시스템이 도시되어 있고, 도 10에는 이러한 시스템을 이용하여 광고 데이터 콘텐츠를 일반 방송 데이터에 효과적으로 연동시키는 방법의 과정이 순서도로 표현되어 있다. 한편, 도 9에 도시한 실시예에서, 파일 생성 모듈과 인터프리터 모듈이 별개로 제공되지만, 이는 하나의 실시예에 불과하다는 것을 이해하여야 한다. 즉 이들은 하나의 모듈로서 이루어질 수 있고, 또 서버의 형태로 구현될 수 있는 등 본 발명은 그 구현 형태와 관련하여서는 특별히 제한되지 않는다.9 illustrates an exemplary system embodying the present invention described above, and in FIG. 10 is a flowchart illustrating a method of effectively linking advertisement data contents to general broadcast data using such a system. Meanwhile, in the embodiment shown in FIG. 9, the file generation module and the interpreter module are provided separately, but it should be understood that this is only one embodiment. That is, the present invention is not particularly limited with respect to the implementation form such that they can be made as one module and can be implemented in the form of a server.

먼저, DMB, IPTV, DTV, 인터넷 방송 등 통상의 방송 통신망을 통해 사용자의 단말기(에컨대, 이동 통신 단말기)로 전송할 일반 방송 데이터(A/V File)(16)를 준비하고(S10), 상기 준비된 방송 데이터와 함께 전송할 광고 데이터 콘텐츠(17)를 준비한다(S12). 방송 데이터는 방송을 송출하는 주체, 예컨대 방송국 측에서 준비되고, 광고 데이터는 특정 방송과 함께 광고를 송출하기를 원하는 광고 업체 측에서 준비한다.First, prepare general broadcast data (A / V File) 16 to be transmitted to a user's terminal (eg, a mobile communication terminal) through a conventional broadcasting communication network such as DMB, IPTV, DTV, Internet broadcasting (S10). The advertisement data content 17 to be transmitted together with the prepared broadcast data is prepared (S12). The broadcast data is prepared by the entity that broadcasts the broadcast, for example, by the broadcasting station, and the advertisement data is prepared by the advertising company that wants to broadcast the advertisement along with the specific broadcast.

광고 업체측으로부터 광고를 의뢰받은 방송국 측, 예컨대 방송국의 Supervisor는 방송 내용에 따라 등장해야 할 광고 데이터 콘텐츠에 대해 기술한 문서(스토리보드)를 작성하는데, 이 스토리보드에는 어떤 장면과 어떤 광고 콘텐츠가 연관되는지가 기술된다. 예를 들어, 상기한 바와 같이, "'송혜교가 원피스를 입고 있는 장면'에는 '광고 콘텐츠#1'이 나오고 이때 사용될 장면 키워드는 '송혜교 원 피스'이다."라는 식으로 작업을 진행할 수 있다(S14).The broadcaster side, for example, the supervisor of the broadcaster, who has been commissioned by the advertising company, writes a document (storyboard) describing the advertising data contents that should appear according to the broadcast contents. It is described. For example, as described above, "'Song Hye Kyo wearing a dress' 'Ad content # 1' appears and the scene keyword to be used at this time 'Song Hye Kyo One Piece' can be carried out in a manner such as" S14).

이어서, 비디오 분석팀에서는 도 8에 도시한 것과 같이 장면 분석기(Scene Analyzer)를 이용하여, 상기 작성된 스토리보드를 기반으로 비디오의 장면들을 분석하고(S16), 경우에 따라서는 주요 장면들을 추출한다. 이러한 장면 분석은 이미 널리 알려진 통상의 장면 분석기를 이용하면 되며, 본 발명은 장면 분석 방법과 관련하여 특별히 한정되지 않는다.Subsequently, the video analysis team analyzes scenes of the video based on the created storyboard using a scene analyzer as shown in FIG. 8 (S16), and in some cases, extracts main scenes. Such scene analysis may be performed using a conventional scene analyzer which is well known, and the present invention is not particularly limited in relation to the scene analysis method.

계속해서, MPEG-7 파일 생성 유닛(12)을 통해 도 6에 도시한 것과 같은 MPEG-7 Video Segment Description Scheme와 같은 형식으로, 비디오의 각 주요 장면에 대한 키워드를 삽입하여, 주요 장면과 키워드를 연결해 주는 MPEG-7 형식의 메타데이터 파일을 생성한다(S18). 이러한 장면 키워드 annotation이 삽입된 MPEG-7 메타데이터의 한 가지 예가 도 7에 도시되어 있다. 도시한 바와 같이, 본 발명에서는 <FreeTextAnnotation> 노드를 새롭게 정의하여 쉽고 빠르게 장면에 대한 정보를 기술할 수 있도록 하고 있다. 이와 같이, 표준에서 벗어나는 새로운 노드를 정의하고 있기 때문에, 이를 분석하고 해석하기 위해 후술하는 인터프리터와 같은 모듈이 제공되고, 이 모듈은 확장 정의된 BIFS 파일에서 사용된 장면 키워드가 어떤 Shot의 <FreeTextAnnotation> 부분과 일치하는지 검색하고 <FreeTextAnnotation>에서 일치하는 키워드를 갖고 있는 Shot의 <MediaTimePoint>와 <MediaDuration>의 값을 읽어들이게 된다. 이러한 작업을 키워드를 삽입하고자 하는 장면들에 대하여 반복한다.Subsequently, the MPEG-7 file generation unit 12 inserts keywords for each major scene of the video in a format such as the MPEG-7 Video Segment Description Scheme shown in FIG. A metadata file of MPEG-7 format to be connected is generated (S18). One example of MPEG-7 metadata in which such scene keyword annotation is inserted is shown in FIG. 7. As shown, in the present invention, a <FreeTextAnnotation> node is newly defined so that information about a scene can be described quickly and easily. As such, because it defines a new node that is out of standard, an interpreter, such as the interpreter described below, is provided to analyze and interpret it, and this module includes a shot keyword used in an extension-defined BIFS file. It searches for a match and reads the values of <MediaTimePoint> and <MediaDuration> of the Shot that has the matching keyword in <FreeTextAnnotation>. Repeat this for the scenes where you want to insert keywords.

상기 MPEG-7 파일을 생성하는 작업과 동시에, 방송국의 콘텐츠 개발자는 광고 업체로부터 받은 광고 데이터 콘텐츠를 스토리보드에 기반하여 재작성한다. 즉 등장할 장면에 맞게 시간 값을 할당한다. 이러한 광고 데이터 콘텐츠는 본 발명에서 제안한 확장된 BIFS 형태로 작성된 후, 인터프리터에 의해 사용자 단말기에서 해석 가능한 기존의 BIFS 코드로 변경되어, 방송을 구성하는 다른 멀티미디어 파일과 함께 사용자의 단말기로 송출되고, BIFS 코드에 규정된 내용에 따라 광고 데이터 콘텐츠가 특정 시간(장면)에서 방송 데이터와 함께 출력되는데, 본 발명은 이러한 광고 데이터 콘텐츠를 방송 데이터의 특정 장면에서 사용자의 단말기에 출력되도록 하기 위한 개발 단계에서 효율적으로 특정 장면에 광고 데이터를 삽입하기 위한 것이다. 이를 위해, 상기 MPEG-7 파일 생성과 유사하게, 본 발명에서는 기존의 BIFS 코드에 새로운 노드를 추가하여 장면 키워드를 나타낼 수 있도록 BIFS의 노드를 확장한다. 즉 도 5에 도시한 바와 같이, 본 발명에서는 BIFS 코드에 <SCENE>이라는 노드를 추가 정의하고 있다. 이 새롭게 정의된 노드는 개발자의 편의를 위해 BIFS에 대한 사전 지식 없이도 콘텐츠 개발이 가능하도록 XMT 기반으로 확장 정의한 것이다. 이와 같이 확장 BIFS 파일은 확장 BIFS 생성 유닛을 통해 생성된다.At the same time as generating the MPEG-7 file, the content developer of the broadcasting station rewrites the advertisement data content received from the advertising company based on the storyboard. That is, the time value is assigned to the scene to appear. The advertisement data contents are created in the form of the extended BIFS proposed by the present invention, and then changed into existing BIFS codes that can be interpreted by the interpreter by the interpreter, and are transmitted to the terminal of the user together with other multimedia files constituting the broadcast. According to the contents defined in the code, the advertisement data contents are output together with the broadcast data at a specific time (scene), and the present invention is effective in the development stage for outputting such advertisement data contents to the user's terminal in a specific scene of the broadcast data. It is for inserting advertisement data into a specific scene. To this end, similar to the MPEG-7 file generation, the present invention extends the node of BIFS to add a new node to an existing BIFS code to represent a scene keyword. That is, as shown in Fig. 5, the present invention further defines a node called <SCENE> in the BIFS code. This newly defined node is extended and defined based on XMT to enable the development of contents without prior knowledge of BIFS for the convenience of developers. In this way, the extended BIFS file is generated through the extended BIFS generation unit.

<SCENE> 노드는 속성 값으로 장편 표현에 사용된 키워드를 기술할 수 있으며, 다중 애트리뷰트를 가질 수 있도록 정의하는데, 다중 애트리뷰트를 갖게 되면 콘텐츠 작성시 제작 단계에서 기술해야 하는 콘텐츠의 코드 라인 수를 감소시킬 수 있다. 또한, <SCENE> 노드는 <BODY> 노드(root 노드인 <XMT-A>의 자식 노드)의 자식 노드로 정의하였으며, <Transform2D> 노드와 <Children> 노드를 자식 노드로 가질 수 있도록 정의하였다. 도 5는 상기와 같이 정의한 장면 표현 노드를 사용하여 기술한 콘텐츠의 한 예를 도시한다.The <SCENE> node can describe the keyword used in the feature-length representation as an attribute value, and defines that it can have multiple attributes. Having multiple attributes reduces the number of lines of code of content that must be described in the production stage when creating the content. You can. In addition, the <SCENE> node is defined as a child node of a <BODY> node (a child node of <XMT-A> which is a root node) and defined to have a <Transform2D> node and a <Children> node as child nodes. 5 shows an example of content described using the scene representation node defined as above.

이와 같이 확장 정의된 <SCENE> 노드에 장면 키워드를 삽입함으로써, 특정 장면과 키워드가 연관되고, 결국 상기한 MPEG-7 파일의 장면 키워드와 연관됨으로써, 추후 인터프리터가 이를 해석하여, 비디오의 특정 장면에서 키워드에 매칭되는 소정의 광고 데이터 콘텐츠가 사용자의 단말기에 출력될 수가 있게 된다.By inserting the scene keyword into the extended-defined <SCENE> node as described above, the specific scene and the keyword are associated with each other, and finally with the scene keyword of the MPEG-7 file, so that the interpreter later interprets it to produce a specific scene of the video. The predetermined advertisement data content matching the keyword can be output to the user's terminal.

MPEG-7 파일 생성과 마찬가지로, 상기 과정을 원하는 장면마다 반복하여, 확장 정의된 BIFS 파일 생성 작업을 종료한다.As in the MPEG-7 file generation, the above process is repeated for each desired scene, thereby completing the extension-defined BIFS file generation operation.

다시 도 9를 참조하면, 상기한 과정에 따라 작성된 MPEG-7 파일(12)과 확장된 BIFS 파일(14)이 인터프리터(20)로 보내진다. 즉 MPEG-7 파일(12)과 확장된 BIFS 파일(14)은 그 속성을 표준과 달리 확장하였기 때문에, 일반 단말기나 브라우저에서는 그 코드를 읽을 수가 없으므로, 이를 해석/분석하여 일반 단말기가 인식할 수 있는 코드로 변환하는 작업을 수행하여야 하는데, 인터프리터(20)가 이러한 역할을 수행한다.Referring back to FIG. 9, the MPEG-7 file 12 and the extended BIFS file 14 created according to the above process are sent to the interpreter 20. That is, since the MPEG-7 file 12 and the extended BIFS file 14 extend their attributes differently from the standard, the general terminal or the browser cannot read the code, so the general terminal can recognize and analyze the code. There is a task to convert to a code that is present, the interpreter 20 performs this role.

인터프리터(20)는 1차적으로 MPEG-7 파일(12)과 확장된 BIFS 파일(14)을 해석하여 필요한 정보를 추출하여 일반 단말기가 인식할 수 있는 기존 코드로 변환하는 과정을 수행한다. 구체적으로, 인터프리터(20)의 해석 모듈(22)은 MPEG-7으로 작성된 비디오의 메타데이터를 해석해서 필요한 정보인 <FreeTextAnnotation> 노드의 값을 추출하고, 확장 정의된 BIFS 파일의 <SCENE> 노드의 애튜리뷰트 값을 추출 및 해석하여 어떠한 장면끼리 서로 연관되어있는지를 파악한다(S22).The interpreter 20 first interprets the MPEG-7 file 12 and the extended BIFS file 14 to extract necessary information and convert the necessary information into an existing code that can be recognized by a general terminal. Specifically, the interpretation module 22 of the interpreter 20 analyzes metadata of video written in MPEG-7, extracts the value of the <FreeTextAnnotation> node which is necessary information, and extracts the value of the <SCENE> node of the extended-defined BIFS file. By extracting and interpreting attribute values, it is possible to determine which scenes are related to each other (S22).

상기한 바와 같이, MPEG-7 파일(12)과 확장된 BIFS 파일(14)은 표준에서 벗어나므로, 이를 기존의 코드로 변환해 주어야 하는데, 변환 모듈(24)이 이러한 역할을 수행한다. 즉 변환 모듈(24)은 장면 키워드를 기반으로 절대 시간으로 변환하여 AT 노드를 작성해 주는 시간 변환 모듈과 Scene update를 위해 노드와 ROUTE 노드를 추가하는 장면별 이벤트 추가 모듈로 구성되는데, 시간 변환을 통해 광고 콘텐츠를 Shot의 시작 시간에 정확히 등장시키기 위해서 인터프리터는 <AT MediaTimePoint 값>을 추가하고, 장면을 변화시킬 수 있도록 <insert> 노드를 추가하며, 광고 콘텐츠가 Shot이 끝나는 시점에 사라지게 하기 위해 <AT MediaTimePoint + MediaDuration>을 추가하고 delete 노드를 추가하여, BT 코드를 생성한다(S24). 이러한 인터프리터의 1차 인터프리팅 과정이 도 11에 예시적으로 도시되어 있다.As described above, since the MPEG-7 file 12 and the extended BIFS file 14 are out of the standard, the MPEG-7 file 12 and the extended BIFS file 14 need to be converted into existing codes, and the conversion module 24 performs this role. That is, the conversion module 24 is composed of a time conversion module for creating an AT node by converting it to absolute time based on the scene keyword and an event addition module for each scene adding a node and a ROUTE node for a scene update. To make the ad content appear exactly at the start of the shot, the interpreter adds an <AT MediaTimePoint value>, adds an <insert> node to change the scene, and makes the ad content disappear at the end of the shot. MediaTimePoint + MediaDuration> is added and a delete node is added to generate a BT code (S24). The first interpreting process of such an interpreter is exemplarily illustrated in FIG. 11.

상기 1차 인터프리팅 과정을 수행한 후, 인터프리터(20)의 통합 모듈(26)은 사용자의 단말기로 전송할 파일을 생성한다. 구체적으로, 통합 모듈(26)은 상기와 같이 1차 인터프린팅 과정을 통해 코드 변환되어 생성된 BT 코드를 방송 데이터, 즉 A/V 파일(16)과 광고 콘텐츠 데이터(17(예컨대, 도 4 참조)를 먹싱하여 하나의 방송물에 맞게 통합하여 MP4 파일(30)을 생성한다. 경우에 따라서는 다른 멀티미디어 파일(18)도 통합하여 MP4 파일을 생성할 수 있다. 이와 같이 생성된 MP4 파일은 통신망을 통해 사용자의 단말기로 전송되어, 단말기 상에서 출력되며, 특정 장면에서 광고 콘텐츠 데이터가 출력된다. 이와 같이 출력된 광고 콘텐츠 데이터를 본 사용자는 그 광고 내용에 따라서 특정 상품을 구매하는 등의 후속 절차를 수행할 수 있는데, 이는 본 발명을 구성하는 내용이 아니며, BIFS 코드와 방송을 결합하여 쇼핑 등을 수행하는 과정 등은 이미 널리 알려진 내용이므로, 그 후속 절차에 대한 설명은 생략한다.After performing the first interpreting process, the integration module 26 of the interpreter 20 generates a file to be transmitted to the user's terminal. In detail, the integration module 26 may convert the BT code generated through the first interprinting process into the BT data generated from the broadcast data, that is, the A / V file 16 and the advertisement content data 17 (for example, refer to FIG. 4). ), MP4 files 30 are combined to fit one broadcast, and in some cases, other multimedia files 18 may be integrated to generate MP4 files. Is transmitted to the user's terminal and output on the terminal, and the advertisement content data is output in a specific scene. This is not a content constituting the present invention, and the process of performing shopping and the like by combining the BIFS code and the broadcast is already well known, and therefore, subsequent sections The description of the car is omitted.

상기한 본 발명에 따르면, 종래의 데이터 콘텐츠 제공 방법과 비교하여 여러 가지 이점을 제공한다. 즉, 광고 콘텐츠 개발 파트, 비디오 분석 파트 및 최종의 연동형 방송 개발 파트와 같이 콘텐츠 개발시 작업을 분화시킬 수 있고, 광고 데이터 콘텐츠를 사전에 작업해 둘 수 있으며, 비디오 분석자의 일과 콘텐츠 개발자의 일이 동시에 진행될 수가 있다.According to the present invention described above, it provides various advantages over the conventional method for providing data contents. In other words, it is possible to differentiate work during content development, such as advertising content development part, video analysis part, and final interlocking broadcast development part, and to work on advertising data content in advance, and it is work of video analyst and content developer. This can be done at the same time.

특히, 광고 데이터 콘텐츠를 시간에 맞게 삽입/제거하는 작업을 인터프리터 라고 하는 모듈이 대신할 수 있어, 송출 전 단계의 일이 줄어들고, 방송 데이터를 재편집하더라도, 그 시간에 맞춰 광고 데이터 콘텐츠를 수정할 필요가 없어(즉 본 발명에서는 비디오 데이터의 특정 장면에 광고 데이터가 출력되므로, 비디오 데이터의 특정 장면의 시간이 수정되는 것과 같은 편집이 이루어지더라도 광고 데이터를 그 시간에 맞춰 수정할 필요가 없다), 시간/노동 소모적인 작업을 해결할 수가 있다.In particular, inserting / removing the advertising data contents in time can be replaced by a module called an interpreter, which reduces the work of the pre-transmission step, and even if the broadcast data is re-edited, it is necessary to modify the advertising data contents in time. (I.e., in the present invention, since the advertisement data is output to a specific scene of the video data, even if the editing is performed such that the time of the specific scene of the video data is modified, there is no need to modify the advertisement data to that time). Can solve labor consuming work

또한, 본 발명에 따르면, 광고 콘텐츠가 한 방송 프로그램에 종속되지만, 광고 콘텐츠를 미리 만들어 둘 수 있어, 여러 프로그램에서 재사용할 수가 있다. 예컨대, 로엠이라는 회사가 만든 원피스가 드라마 A와 B에 동시 협찬 광고를 하는 경우, 기존의 방법에 따르면 파일을 분리하지 않기 때문에, 드라마 A에 로엠 원피스가 들어가도록 하기 위해선 기존 방법대로 시간을 체크하고 그 콘텐츠를 기술하는 방식으로 해야 하므로, 이를 드라마 B에 바로 적용할 수가 없다. 그러나, 본 발명에 따르면 로엠 원피스에 대한 광고 콘텐츠는 예컨대 데이터 콘텐츠 광고 회사가 작성하고, 방송국에서는 콘텐츠 내용은 상관 없이 등장하는 시간만 매칭시켜 준다. 따라서, 한번 만들어진 원피스 광고 콘텐츠를 드라마 A와 B에 모두 사용하고 싶다면, 드라마 A의 장면 기술(즉 확장 정의된 BIFS 사용)에 한번, 드라마 B 장면 기술에 한 번식으로 드라마의 장면만 기술해주는 단순한 작업만 수행하면 된다.Further, according to the present invention, although the advertisement content is subordinate to one broadcast program, the advertisement content can be made in advance, and can be reused in various programs. For example, if a dress made by a company called Loem advertises concurrently in dramas A and B, it does not separate files according to the conventional method. Since the content must be described in a way, it cannot be directly applied to drama B. However, according to the present invention, the advertisement content for the LoM One Piece is created by a data content advertising company, for example, and the broadcasting station only matches the time when the contents appear. Therefore, if you want to use the once-created one piece ad content for both dramas A and B, it is a simple task to describe the scene of drama only once in the scene description of Drama A (that is, using BIFS defined) and once in the drama B scene description. You only need to do it.

이상 본 발명을 바람직한 실시예를 참조하여 설명하였지만, 본 발명은 이러 한 실시예에 제한되지 않는다. 즉 후술하는 특허청구범위 내에서 상기 실시예를 다양하게 변형 및 수정할 수 있으며, 이들은 모두 본 발명의 범위 내에 속하는 것이다. 따라서, 본 발명은 이하의 특허청구범위 및 그 균등물에 의해서만 제한된다.Although the present invention has been described with reference to preferred embodiments, the present invention is not limited to these embodiments. That is, the embodiments may be variously modified and modified within the scope of the following claims, and all of them fall within the scope of the present invention. Accordingly, the invention is limited only by the following claims and equivalents thereof.

도 1은 MPEG-4의 데이터 기술 방법에 따라 시간을 표현하는 방법을 보여주는 도면이다.1 is a diagram illustrating a method of representing time according to the data description method of MPEG-4.

도 2a 및 도 2b는 본 발명의 개념을 개략적으로 보여주는 도면이다.2A and 2B schematically illustrate the concept of the present invention.

도 3은 본 발명에 따른 내용 기반 동기화 시스템의 전체적인 구성을 개념적으로 보여주는 도면이다.3 is a diagram conceptually showing the overall configuration of a content-based synchronization system according to the present invention.

도 4는 본 발명에 따른 콘텐츠 개발 시나리오의 개념을 개략적으로 보여주는 도면이다.4 is a diagram schematically illustrating a concept of a content development scenario according to the present invention.

도 5는 본 발명에 따라 장면 키워드를 삽입할 수 있도록 새롭게 노드를 추가한 BIFS 코드의 한 예를 보여주는 도면이다.5 illustrates an example of a BIFS code in which a node is newly added to insert a scene keyword according to the present invention.

도 6은 MPEG-7 Video Segment Description Scheme의 한 예를 나타낸 도면이다.6 is a diagram illustrating an example of an MPEG-7 Video Segment Description Scheme.

도 7은 장면 키워드 annotation이 삽입된 MPEG-7 메타데이터의 한 가지 예를 나타낸 도면이다.7 is a diagram illustrating an example of MPEG-7 metadata with a scene keyword annotation inserted.

도 8은 장면 분석기를 이용하여 장면을 분석한 예 및 대표적인 장면을 추출한 예를 보여주는 도면이다.8 is a diagram illustrating an example of analyzing a scene by using a scene analyzer and an example of extracting a representative scene.

도 9는 본 발명의 한 가지 실시예에 따른 데이터 방송 시스템을 구성하는 주요 구성 요소를 보여주는 블록도이다.9 is a block diagram showing main components of a data broadcasting system according to an embodiment of the present invention.

도 10은 본 발명의 한 가지 실시예에 따라 데이터 방송 서비스를 제공하는 과정을 보여주는 흐름도이다.10 is a flowchart illustrating a process of providing a data broadcasting service according to an embodiment of the present invention.

도 11은 인터프리터에 입력되는 파일의 코드 및 인터프리터를 통해 변환된 BT 코드의 한 가지 예를 보여주는 도면이다.11 is a diagram illustrating an example of a code of a file input to an interpreter and a BT code converted through the interpreter.

Claims (13)

광고 데이터 콘텐츠를 방송 데이터와 동기화하여 사용자의 단말기로 제공하는 데이터 방송 서비스 방법으로서,A data broadcasting service method for synchronizing advertisement data contents with broadcast data and providing the same to a user terminal. (A) 미리 준비한 방송 데이터의 장면을 분석하여, 광고 데이터 콘텐츠가 디스플레이될 방송 장면에 그 장면과 연관된 장면 키워드를 기록한 MPEG-7 파일을 생성하는 단계와;(A) analyzing a scene of the broadcast data prepared in advance, and generating an MPEG-7 file in which the scene keyword associated with the scene is recorded in the broadcast scene where the advertisement data content is to be displayed; (B) 상기 광고 데이터 콘텐츠를 사용자의 단말기 상에 디스플레이하는 조건을 기술한 BIFS 코드에 상기 장면 키워드와 동일한 장면 키워드를 삽입한 확장 BIFS 파일을 생성하는 단계와;(B) generating an extended BIFS file in which the same scene keyword as the scene keyword is inserted into a BIFS code describing a condition for displaying the advertisement data content on the user's terminal; (C) 상기 MPEG-7 파일과 확장 BIFS 파일을 해석/분석하여, 일반 단말기가 인식할 수 있는 코드로 변환하는 단계와;(C) analyzing / analyzing the MPEG-7 file and the extended BIFS file, and converting the MPEG-7 file into a code that can be recognized by a general terminal; (D) 상기 (C) 단계에서 변환된 코드와 상기 방송 데이터 및 광고 데이터 콘텐츠를 먹싱하여 하나의 방송물에 맞게 통합한 후 사용자의 단말기로 전송하는 단계(D) muxing the code converted in the step (C) and the broadcast data and the advertisement data content, and integrating them into a single broadcast and transmitting them to a user's terminal. 를 포함하는 것을 특징으로 하는 데이터 방송 서비스 방법.Data broadcasting service method comprising a. 청구항 1에 있어서, 상기 (A) 단계에서 상기 장면 키워드는 Video Segment Description Scheme 형식의 MPEG-7에 장면에 대한 정보를 기술할 수 있도록 새롭게 규정된 노드에 기록되어, 상기 MPEG-7 파일이 생성되는 것을 특징으로 하는 데이터 방송 서비스 방법.The method according to claim 1, wherein in the step (A), the scene keyword is recorded in a node newly defined so that information about a scene can be described in MPEG-7 of a Video Segment Description Scheme format, so that the MPEG-7 file is generated. Data broadcasting service method, characterized in that. 청구항 2에 있어서, 상기 Video Segment Description Scheme 형식의 MPEG-7은 상기 장면 키워드와 연관된 장면의 시작 시간과 진행 시간을 알려 주는 노드를 포함하는 것을 특징으로 하는 데이터 방송 서비스 방법.The method according to claim 2, wherein the MPEG-7 of the Video Segment Description Scheme format includes a node for indicating a start time and a progress time of a scene associated with the scene keyword. 청구항 2 또는 청구항 3에 있어서, 상기 (B) 단계에서 확장 BIFS 파일은 상기 장면 키워드를 기술할 수 있는 노드가 추가 정의된 BIFS 코드를 포함하는 것을 특징으로 하는 데이터 방송 서비스 방법.The method according to claim 2 or 3, wherein in step (B), the extended BIFS file includes a BIFS code in which a node capable of describing the scene keyword is further defined. 청구항 4에 있어서, 상기 BIFS 코드에 추가 정의된 노드는 다중 애트리뷰트를 갖도록 정의된 것을 특징으로 하는 데이터 방송 서비스 방법.The method according to claim 4, wherein the node further defined in the BIFS code is defined to have multiple attributes. 청구항 4에 있어서, 상기 (C) 단계에서 상기 MPEG-7 파일에 새롭게 규정된 노드와 상기 확장 BIFS 파일의 추가 정의된 노드의 값을 추출 및 해석하여, 상기 방송 데이터의 어떠한 장면이 광고 데이터 콘텐츠와 연관되어 있는지를 파악하는 것을 특징으로 하는 데이터 방송 서비스 방법.The method according to claim 4, wherein in step (C), values of nodes newly defined in the MPEG-7 file and nodes further defined in the extended BIFS file are extracted and interpreted, so that any scene of the broadcast data is associated with advertisement data contents. A data broadcasting service method, characterized in that it is determined whether or not it is related. 광고 데이터 콘텐츠를 방송 데이터와 동기화하여 사용자의 단말기로 제공하는 데이터 방송 서비스 시스템으로서,A data broadcasting service system for synchronizing advertisement data contents with broadcast data and providing the same to a user terminal. 데이터 입력 모듈로서, 미리 준비한 방송 데이터의 장면을 분석하여, 광고 데이터 콘텐츠가 디스플레이될 방송 장면에 그 장면과 연관된 장면 키워드를 기록한 MPEG-7 파일을 생성하는 MPEG-7 파일 생성 유닛과, 상기 광고 데이터 콘텐츠를 사용자의 단말기 상에 디스플레이하는 조건을 기술한 BIFS 코드에 상기 장면 키워드와 동일한 장면 키워드를 삽입한 확장 BIFS 파일을 생성하는 확장 BIFS 파일 생성 유닛을 포함하는 데이터 입력 모듈과;A data input module comprising: an MPEG-7 file generating unit for analyzing a scene of broadcast data prepared in advance and generating an MPEG-7 file recording a scene keyword associated with the scene in a broadcast scene in which advertisement data content is to be displayed; A data input module including an extended BIFS file generation unit for generating an extended BIFS file in which the same scene keyword as the scene keyword is inserted into a BIFS code describing a condition of displaying content on a user terminal; 상기 데이터 입력 모듈로부터 입력되는 파일을 처리하여, 사용자의 단말기로 전송되는 파일을 생성하는 인터프리터 모듈로서, 상기 데이터 입력 서버로부터 입력되는 MPEG-7 파일 및 확장 BIFS 파일을 해석/분석하여, 일반 단말기가 인식할 수 있는 코드로 변환하는 해석/변환 유닛과, 상기 해석/변환 유닛에 의해 변환된 파일을 미리 준비한 방송 데이터 파일 및 광고 콘텐츠 데이터 파일과 먹싱하여 하나의 방송물에 맞게 통합하여 MP4 파일을 생성하는 통합 유닛을 포함하는 것인 상기 인터프리터 모듈An interpreter module which processes a file input from the data input module and generates a file transmitted to a user terminal. The terminal interprets / analyzes an MPEG-7 file and an extended BIFS file input from the data input server. An interpretation / conversion unit for converting the code into a recognizable code, and a file converted by the interpretation / conversion unit with the previously prepared broadcast data file and the advertisement content data file, and integrated into a single broadcast to generate an MP4 file. Said interpreter module comprising an integration unit 을 포함하는 것을 특징으로 하는 데이터 방송 서비스 시스템.Data broadcasting service system comprising a. 청구항 7에 있어서, 상기 MPEG-7 파일 생성 유닛은 Video Segment Description Scheme 형식의 MPEG-7에 장면에 대한 정보를 기술할 수 있도록 새롭게 규정된 노드에 상기 장면 키워드를 기록하여, 상기 MPEG-7 파일을 생성하도록 구성되는 것인 데이터 방송 서비스 시스템.8. The MPEG-7 file generating unit according to claim 7, wherein the MPEG-7 file generating unit records the scene keyword in a newly defined node so that information about a scene can be described in MPEG-7 in a Video Segment Description Scheme format. And generate the data broadcast service system. 청구항 8에 있어서, 상기 Video Segment Description Scheme 형식의 MPEG-7은 상기 장면 키워드와 연관된 장면의 시작 시간과 진행 시간을 알려 주는 노드를 포함하는 것을 특징으로 하는 데이터 방송 서비스 시스템.The data broadcasting service system of claim 8, wherein the MPEG-7 of the Video Segment Description Scheme format includes a node for indicating a start time and a progress time of a scene associated with the scene keyword. 청구항 8 또는 청구항 9에 있어서, 상기 확장 BIFS 파일은 상기 장면 키워드를 기술할 수 있는 노드가 추가 정의된 BIFS 코드를 포함하는 것을 특징으로 하는 데이터 방송 서비스 시스템.10. The system of claim 8 or 9, wherein the extended BIFS file includes a BIFS code in which a node capable of describing the scene keyword is further defined. 청구항 10에 있어서, 상기 BIFS 코드에 추가 정의된 노드는 다중 애트리뷰트를 갖도록 정의된 것을 특징으로 하는 데이터 방송 서비스 시스템.11. The system of claim 10, wherein the nodes further defined in the BIFS code are defined to have multiple attributes. 청구항 10에 있어서, 상기 해석/변환 유닛은 상기 MPEG-7 파일에 새롭게 규정된 노드와 상기 확장 BIFS 파일의 추가 정의된 노드의 값을 추출 및 해석하여, 상기 방송 데이터의 어떠한 장면이 광고 데이터 콘텐츠와 연관되어 있는지를 파악하는 것을 특징으로 하는 데이터 방송 서비스 시스템.The apparatus according to claim 10, wherein the interpretation / conversion unit extracts and interprets values of nodes newly defined in the MPEG-7 file and nodes further defined in the extended BIFS file so that any scene of the broadcast data is associated with advertisement data content. Data broadcast service system characterized in that it is determined whether or not the association. 청구항 12에 있어서, 상기 해석/변환 유닛은 상기 장면 키워드를 기반으로 절대 시간으로 변환하여 AT 노드를 작성할 수 있도록 해주는 시간 변환 모듈과 장면 업데이트를 위해 노드와 ROUTE 노드를 추가할 수 있도록 해주는 장면별 이벤트 추가 모듈을 포함하는 것을 특징으로 하는 데이터 방송 서비스 시스템.The scene-specific event of claim 12, wherein the interpretation / conversion unit converts the absolute time based on the scene keyword to create an AT node and a scene-specific event for adding a node and a ROUTE node for a scene update. A data broadcast service system comprising an additional module.
KR1020090054765A 2009-06-19 2009-06-19 Method and system of providing enhanced tv program service KR101043607B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090054765A KR101043607B1 (en) 2009-06-19 2009-06-19 Method and system of providing enhanced tv program service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090054765A KR101043607B1 (en) 2009-06-19 2009-06-19 Method and system of providing enhanced tv program service

Publications (2)

Publication Number Publication Date
KR20100136605A true KR20100136605A (en) 2010-12-29
KR101043607B1 KR101043607B1 (en) 2011-06-22

Family

ID=43510556

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090054765A KR101043607B1 (en) 2009-06-19 2009-06-19 Method and system of providing enhanced tv program service

Country Status (1)

Country Link
KR (1) KR101043607B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8813131B2 (en) 2012-02-02 2014-08-19 Electronics And Telecommunications Research Institute Method and apparatus of interactive advertising service in digital broadcast system
KR20140130312A (en) * 2013-04-30 2014-11-10 연세대학교 산학협력단 System and method for online advertisement using combined contents

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230083927A (en) 2021-12-03 2023-06-12 주식회사 엘지유플러스 Targetable advertising system and method for each content

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1973294A1 (en) * 2001-01-30 2008-09-24 Electronics and Telecommunications Research Institute Method and apparatus for delivery of metadata synchronized to multimedia contents
WO2003063493A1 (en) 2002-01-24 2003-07-31 Koninklijke Philips Electronics N.V. Embedding tv anytime crids
KR100406122B1 (en) * 2002-03-29 2003-11-14 한국전자통신연구원 Apparatus and method for injecting synchronized data for digital data broadcasting
KR100883264B1 (en) 2007-10-25 2009-02-10 에스케이 텔레콤주식회사 System and method for producting broadcasting target-based bifs service, and server applied to the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8813131B2 (en) 2012-02-02 2014-08-19 Electronics And Telecommunications Research Institute Method and apparatus of interactive advertising service in digital broadcast system
KR20140130312A (en) * 2013-04-30 2014-11-10 연세대학교 산학협력단 System and method for online advertisement using combined contents

Also Published As

Publication number Publication date
KR101043607B1 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
JP5211066B2 (en) Method and system for providing advertisement content-linked advertising content being played
KR102023788B1 (en) Streaming distribution device and method, streaming receiving device and method, streaming system, program, and recording medium
EP3198381B1 (en) Interactive video generation
KR20110003213A (en) Method and system for providing contents
De Araújo et al. An approach to generate and embed sign language video tracks into multimedia contents
KR101335595B1 (en) Advertisement Providing System for Moving Picture Oriented Contents Which Is Playing
KR20100044875A (en) Integrating sponsored media with user-generated content
KR101043607B1 (en) Method and system of providing enhanced tv program service
KR100837721B1 (en) Encoding/Decoding Apparatus and Encoding Method of Binding Format for Consuming Personalized Digital Broadcasting Contents
WO2015019774A1 (en) Data generating device, data generating method, translation processing device, program, and data
KR101328270B1 (en) Annotation method and augmenting video process in video stream for smart tv contents and system thereof
CN102118643A (en) Network subtitle playing system and method
Van Deursen et al. Experiencing standardized media fragment annotations within HTML5
WO2022080670A1 (en) Content providing method and apparatus, and content playback method
CN102065241B (en) Title generator for automatically making title
KR102297362B1 (en) Apparatus and method for providing advertisement based on user characteristic using content playing apparatus
JP2019061428A (en) Video management method, video management device, and video management system
KR100878909B1 (en) System and Method of Providing Interactive DMB Broadcast
Series Artificial intelligence systems for programme production and exchange
JP2010230948A (en) Content distribution system and text display method
KR102664295B1 (en) Method and apparatus for providing a platform for sign language subtitles video
Schöning et al. Visual Analytics of Gaze Data with Standard Multimedia Players
KR102335096B1 (en) System for providing video production service compositing figure video and ground video
Cheong et al. Development of an interactive contents authoring system for MPEG-4
KR101134267B1 (en) System and method for converting content

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140610

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee