KR20030034410A - method and the system for producting BIFS(BInary Format for Scenes language) for MPEG-4 contents - Google Patents

method and the system for producting BIFS(BInary Format for Scenes language) for MPEG-4 contents Download PDF

Info

Publication number
KR20030034410A
KR20030034410A KR1020010065336A KR20010065336A KR20030034410A KR 20030034410 A KR20030034410 A KR 20030034410A KR 1020010065336 A KR1020010065336 A KR 1020010065336A KR 20010065336 A KR20010065336 A KR 20010065336A KR 20030034410 A KR20030034410 A KR 20030034410A
Authority
KR
South Korea
Prior art keywords
authoring
information
bifs
scene
mpeg
Prior art date
Application number
KR1020010065336A
Other languages
Korean (ko)
Other versions
KR100620897B1 (en
Inventor
배수영
마평수
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020010065336A priority Critical patent/KR100620897B1/en
Publication of KR20030034410A publication Critical patent/KR20030034410A/en
Application granted granted Critical
Publication of KR100620897B1 publication Critical patent/KR100620897B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Abstract

PURPOSE: A method and a system for generating BIFS language for MPEG-4 contents are provided to allow a producer to generate MPEG-4 contents without learning the complicated structure of the binary format for scenes(BIFS) language. CONSTITUTION: When an editing position of an icon is inputted, MPEG-4 audio-visual objects corresponding to the icon are arranged at the editing position to perform edition of an MPEG-4 scene, and the MPEG-4 scene is previously shown, to visually produce the MPEG-4 scene. A produced object reproduction time bar for setting reproduction time of the objects constructing the MPEG-4 scene is provided, and reproduction time for each object is set by clicking-and-dragging the object reproduction time bar. Production of an animation is divided into multiple steps, and a window required for each step is provided to allow a producer to input information required for producing the animation. BIFS language is generated from the information produced at each of the steps.

Description

엠펙-4 컨텐츠를 위한 비아이에프에스 언어 생성 방법 및 그 시스템{method and the system for producting BIFS(BInary Format for Scenes language) for MPEG-4 contents}Method and the system for producting BIFS (BInary Format for Scenes language) for MPEG-4 contents}

본 발명은 MPEG-4 컨텐츠를 표현하는 BIFS(BInary Format for Scenes) 기술 언어를 직관적인 저작 환경에서 생성하기 위한 MPEG-4 컨텐츠의 BIFS 생성 방법 및 그 시스템에 관한 것이다.The present invention relates to a BIFS generation method and system for MPEG-4 contents for generating a Binary Format for Scenes (BIFS) description language representing MPEG-4 contents in an intuitive authoring environment.

MPEG-4 컨텐츠는 기존에 존재하는 비디오, 오디오, 이미지, 텍스트, 그래픽스 등의 시청각 미디어를 합성하여 생성된 사용자 상호 작용이 가능한 멀티미디어 컨텐츠로서, 도 1을 참조하면, 전체 미디어의 화면 상의 시공간적 배치 정보와 속성 정보는 BIFS로 표현되고, 이를 실제 미디어 데이타와 합성하여 MPEG-4 컨텐츠가 생성된다. 생성된 컨텐츠는 서버를 통해 실시간으로 최종 사용자에게 전달되며, 광범위한 네트워크 상에서 멀티미디어 데이타 서비스를 지원하는 MPEG-4의 특징으로 인해 사용자는 다양한 기기를 통해서 MPEG-4 컨텐츠를 볼 수 있다.MPEG-4 content is a multimedia content capable of user interaction generated by synthesizing audiovisual media such as video, audio, image, text, graphics, and the like. Referring to FIG. And attribute information are expressed in BIFS, and MPEG-4 contents are generated by synthesizing them with actual media data. The generated content is delivered to the end user in real time through a server, and MPEG-4's feature of supporting multimedia data services over a wide range of networks allows users to view MPEG-4 content through various devices.

BIFS는 MPEG-4 part1. System에서 소개되었으며, 그 기본 개념은 VRML로 부터 유도되었다. BIFS는 미디어 객체 조합, 변형, 전송에 관한 모든 정보를 표현하는 노드와 필드로 구성된 자료 구조를 가지고 있으며, 복잡한 형식과 내용 구조를 가지고 있다.BIFS is MPEG-4 part1. Introduced in System, the basic concept is derived from VRML. BIFS has a data structure consisting of nodes and fields that represent all information about media object combinations, transformations, and transfers, and has a complex format and content structure.

기존 MPEG-4 저작 도구들은 트리 구조로 된 BIFS를 바로 사용자에게 보여주고 이를 제어하기 위한 인터페이스를 제공함으로서, 저작자에게 BIFS의 노드와 필드에 대한 학습을 요구하게 되고, 저작시 많은 시간과 노력을 소모하게 한다.Existing MPEG-4 authoring tools present the user with a tree-structured BIFS and provide an interface for controlling it, requiring authors to learn about the nodes and fields of BIFS, and consume a lot of time and effort in authoring. Let's do it.

기존에 존재하는 MPEG-4 BIFS 생성 편집기들은 사용자가 BIFS 환경을 직접 제어하기 위한 BIFS 전문가용 인터페이스를 제공하여 일반 사용자들은 이를 쉽게 조작할 수 없는 문제가 있고, 일반 멀티미디어 저작 도구는 사용자에게 직관적인 편집 환경을 제공하지만 자신들의 고유한 포맷을 사용함으로서 재사용성과 유용성, 다양한 네트워크를 통해 실시간 전송의 특징을 가진 MPEG-4 컨텐츠 생성을 지원하지 않고 있는 문제점을 가지고 있다.Existing MPEG-4 BIFS creation editors provide a BIFS professional interface for users to directly control the BIFS environment, which makes it difficult for general users to manipulate them. General multimedia authoring tools provide intuitive editing for users. Although it provides an environment, it has a problem in that it does not support the creation of MPEG-4 content with reusability, usability, and real-time transmission through various networks by using its own format.

본 발명은 이러한 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 저작자는 복잡한 트리 구조를 가지는 BIFS에 대한 지식을 미리 습득하지 않고도 MPEG-4 컨텐츠를 생성할 수 있어, MPEG-4 컨텐츠 저작시 경제성과 효율성을 높일 수 있는 MPEG-4 컨텐츠의 BIFS 생성 방법 및 그 시스템을 제공하는 것을 그 목적으로 한다.The present invention has been made to solve the problems of the prior art, the author can create MPEG-4 content without acquiring knowledge of BIFS having a complicated tree structure in advance, it is economical when authoring MPEG-4 content It is an object of the present invention to provide a method and system for generating BIFS of MPEG-4 contents that can increase efficiency.

도 1은 일반적인 MPEG-4 컨텐츠 저작과 재생에 대한 개념도.1 is a conceptual diagram of general MPEG-4 content authoring and playback.

도 2는 본 발명에 따른 MPEG-4 컨텐츠 저작을 위한 BIFS 기술언어 작성 시스템의 블록 구성도.2 is a block diagram of a BIFS description language creation system for authoring MPEG-4 content according to the present invention;

도 3a 및 도 3b는 본 발명에 따른 MPEG-4 장면 저작 자료 흐름도.3A and 3B are flowcharts of an MPEG-4 scene authoring material according to the present invention;

도 4는 본 발명에 따른 애니메이션 정보 저작 자료 흐름도.4 is a flowchart of an animation information authoring material according to the present invention;

도 5는 본 발명에 따른 BIFS 기술 언어 생성 흐름도.5 is a flow diagram of BIFS description language generation in accordance with the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100 : 직관적 편집기110 : 장면 저작부100: intuitive editor 110: scene authoring

120 : 시간 저작부130 : 애니메이션 저작부120: time authoring unit 130: animation authoring unit

140 : 편집 관리부150 : 아이콘부140: editing management unit 150: icon unit

200 : 저장부210 : 저작 정보200: storage 210: copyright information

211 : 저작 객체 정보212 : 그룹/계층 정보211: authoring object information 212: group / hierarchical information

213 : 애니메이션 정보220 : BIFS 정보213: animation information 220: BIFS information

221 : 장면트리 BIFS222 : 객체 기술자 BIFS221: scene tree BIFS222: object descriptor BIFS

223 : 라우트 BIFS 300 : BIFS 생성기223: Route BIFS 300: BIFS Generator

310 : BIFS 생성 관리부320 : BIFS 노드 정보 처리부310: BIFS generation management unit 320: BIFS node information processing unit

330 : BIFS 생성 규칙 제공부331 : 장면트리 생성규칙 정보330: BIFS generation rule provider 331: Scene tree generation rule information

332 : 객체 기술자 생성규칙 정보333 : 라우트 정보 생성규칙 정보332: object descriptor generation rule information 333: route information generation rule information

이러한 목적을 달성하는 본 발명의 MPEG-4 컨텐츠의 BIFS 생성 방법의 일측면에 의하면, MPEG-4 컨텐츠를 표현하는 BIFS 기술언어를 생성하는 방법에 있어서,저작자의 아이콘 드래그-앤-드롭 의해 아이콘의 편집 위치가 입력되는 경우, 상기 편집 위치에 해당 아이콘에 상응하는 MPEG-4 시청각 객체를 배치하여 MPEG-4 장면의 편집을 수행하고, 그 편집된 MPEG-4 장면의 재생장면을 저작 시에 미리 보여주어 시각적으로 MPEG-4 장면을 저작하는 시각 장면 저작 단계와, 시각 장면 저작 단계에서 저작된 MPEG-4 장면을 구성하는 모든 객체의 재생을 위한 초 단위로 시간 분할하기 위한 저작 객체 재생 시간바를 제공하고, 그 저작 객체 재생 시간바의 클릭-앤-드래그에 의해 객체별 재생 시간을 설정하는 시간 정보 저작 단계와, 시간 정보 저작 단계에서 설정된 시간 정보에 대하여 MPEG-4 장면을 동적으로 변화시키는 애니메이션을 저작하기 위해 애니메이션 저작을 여러 단계로 구분하고, 각 단계별로 필요한 대화 상자를 제공해 저작자의 마우스 클릭에 의해 애니메이션 저작에 필요한 정보를 입력하게 하는 다단계 애니메이션 정보 저작 단계와, 각 저작 단계에서 저작된 정보를 기설정된 BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS 생성 단계를 수행한다.According to one aspect of the BIFS generation method of the MPEG-4 content of the present invention that achieves this object, in the method for generating a BIFS description language representing the MPEG-4 content, by dragging and dropping the icon of the author When an edit position is input, the MPEG-4 scene is edited by arranging an MPEG-4 audiovisual object corresponding to the icon at the edit position, and the playback scene of the edited MPEG-4 scene is previewed at the time of authoring. A visual scene authoring step for visually authoring an MPEG-4 scene, and an authoring object playback timebar for time division into seconds for playback of all objects constituting the MPEG-4 scene authored in the visual scene authoring step; The time information authoring step of setting the playback time for each object by click-and-drag of the authoring object playback time bar, and the time information set in the time information authoring step To author animations that dynamically change MPEG-4 scenes, multi-stage animation information that separates the animation authoring into several stages, and provides the necessary dialog boxes for each step to input the information required for authoring the animation by the mouse click of the author. An authoring step and a BIFS generation step of generating a BIFS description language corresponding to the BIFS node information and the BIFS scene generation rule preset with the information authored in each authoring step are performed.

또한, 본 발명의 MPEG-4 컨텐츠의 BIFS 생성 시스템의 일측면에 의하면, MPEG-4 컨텐츠를 표현하는 BIFS 기술언어를 생성하는 시스템에 있어서, 시각적으로 장면을 저작하는 장면 저작과 초 단위 시간 분할 환경과 클릭-앤-드래그 방식을 사용해 각 객체별 재생 시간을 설정하는 시간 저작과, 다단계 대화 방식을 사용한 애니메이션 저작을 수행하여 MPEG-4 컨텐츠를 저작 편집하여 저작정보를 생성하는 직관적 편집부와, 직관적 편집기에 생성된 저작된 정보에 대하여 기설정된 BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS생성부와, 직관적 편집부에 생성된 저작정보 및 BIFS생성부에서 생성된 BIFS생성정보를 저장하는 저장부를 포함하여 구성된다.In addition, according to one aspect of the BIFS generation system of MPEG-4 content of the present invention, in the system for generating a BIFS description language representing MPEG-4 content, a scene authoring and a time division environment in seconds to visually author the scene Intuitive editor that creates copyright information by authoring and editing MPEG-4 content by using authoring and click-and-drag method to set playback time for each object, and authoring animation using multi-level interactive method, and intuitive editor For BIFS node information and BIFS scene creation rules, the BIFS generator generates a BIFS description language, and the author information created in the intuitive editor and the BIFS generator generated by the BIFS generator. It comprises a storage unit for storing.

또한, 본 발명의 MPEG-4 컨텐츠의 BIFS 생성 방법을 수행하기 위한 기록매체의 일측면에 의하면, MPEG-4 컨텐츠를 표현하는 BIFS 기술언어를 생성하는 방법을 수행하기 위하여 디지털 처리장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 디지털 처리장치에 의해 판독될 수 있는 기록 매체에 있어서, 저작자의 아이콘 드래그-앤-드롭 의해 툴박스에서 선택되는 MPEG-4 시청각 객체에 해당하는 아이콘의 배치에 상응하여 MPEG-4 장면의 편집을 수행하고, 그 편집된 MPEG-4 장면의 재생장면을 저작 시에 미리 보여주어 시각적으로 MPEG-4 장면을 저작하는 시각 장면 저작 단계와, 시각 장면 저작 단계에서 저작된 MPEG-4 장면을 구성하는 모든 객체의 재생을 위한 초 단위로 시간 분할하기 위한 저작 객체 재생 시간바를 제공하고, 그 저작 객체 재생 시간바의 클릭-앤-드래그에 의해 객체별 재생 시간을 설정하는 시간 정보 저작 단계와, 시간 정보 저작 단계에서 설정된 시간 정보에 대하여 MPEG-4 장면을 동적으로 변화시키는 애니메이션을 저작하기 위해 애니메이션 저작을 여러 단계로 구분하고, 각 단계별로 필요한 대화 상자를 제공해 저작자의 마우스 클릭에 의해 애니메이션 저작에 필요한 정보를 입력하게 하는 다단계 애니메이션 정보 저작 단계와, 각 저작 단계에서 저작된 정보를 기설정된BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS 생성 단계를 포함한다.In addition, according to one aspect of the recording medium for performing the BIFS generation method of MPEG-4 content of the present invention, it can be executed by the digital processing apparatus to perform the method for generating a BIFS description language representing MPEG-4 content. In a recording medium tangibly embodied and readable by a digital processing device, the arrangement of icons corresponding to MPEG-4 audiovisual objects selected in the toolbox by dragging and dropping the author's icons Correspondingly, an MPEG-4 scene is edited, and a visual scene authoring step of visually authoring an MPEG-4 scene by showing the reproduction scene of the edited MPEG-4 scene in advance at the authoring, and authoring at the visual scene authoring step Provides an authoring object playback time bar for time division into seconds for the playback of all objects composing the composed MPEG-4 scene. Animation authoring for authoring animations that dynamically change MPEG-4 scenes with respect to the time information set in the time information authoring step and time information authoring step for setting the playback time for each object by click-and-drag of the playback time bar. Multi-level animation information authoring step that divides into several steps, and provides necessary dialog box for each step and inputs necessary information for animation authoring by mouse click of author, and BIFS node information which pre-sets information authored in each authoring step And a BIFS generation step of generating a BIFS description language according to the BIFS scene generation rule.

이하, 첨부한 도면을 참조하여 본 발명을 상세히 설명하도록 하자.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 MPEG-4 컨텐츠 저작을 위한 BIFS 기술언어 작성 시스템의 블록 구성도이다. 도 2를 참조하면 본 발명에 따른 MPEG-4 컨텐츠 저작을 위한 BIFS 기술언어 작성 시스템은 직관적 편집기(100), 저장부(200), BIFS생성기(300)를 포함하여 구성될 수 있다.2 is a block diagram of a BIFS description language creation system for authoring MPEG-4 content according to the present invention. Referring to FIG. 2, the BIFS description language writing system for authoring MPEG-4 content according to the present invention may include an intuitive editor 100, a storage unit 200, and a BIFS generator 300.

직관적 편집기(100)는 저작자에게 직관적인 MPEG-4 컨텐츠 저작 환경을 제공하여 저작된 데이터를 편집관리하며, 장면 저작부(110), 시간 저작부(120), 애니메이션 저작부(130), 편집관리부(140), 아이콘부(150)를 포함하여 구성된다.The intuitive editor 100 provides authors with an intuitive MPEG-4 content authoring environment to edit and author the authored data, scene authoring unit 110, time authoring unit 120, animation authoring unit 130, and editing management unit. 140, the icon unit 150 is configured.

장면 저작부(110)는 아이콘의 드래그-앤-드롭, WYSIWYG ( What You See Is What You Get ) 방식을 지원하는 MPEG-4장면을 시각적으로 저작하는 기능을 수행한다. 장면 저작은 툴박스에서 MPEG-4 시청각 객체에 해당하는 아이콘을 찾아 편집기 상에 배치함으로서 이루어지며, 저작 시에 보여지는 내용은 실행시 MPEG-4 재생기에서 보여지는 내용과 동일하다.The scene authoring unit 110 performs a function of visually authoring an MPEG-4 scene supporting drag-and-drop of icons and WYSIWYG (What You See Is What You Get) method. Scene authoring is done by finding the icon corresponding to the MPEG-4 audiovisual object in the toolbox and placing it on the editor. The content shown in the authoring is the same as the content shown in the MPEG-4 player.

시간 저작부(120)는 MPEG-4 컨텐츠를 이루는 미디어 객체에 대한 시간 저작을 수행하는 것으로, 초 단위 시간 분할 환경을 사용해 객체별 재생 시간을 설정한다. 시간 분할 환경은 예를 들면, N행 M+1열로 구성될 수 있으며, 여기에서 N은 컨텐츠를 이루는 미디어 객체의 개수이고, 1열은 미디어 객체 식별자, 나머지M개의 열은 해당 객체에 대한 초단위 재생 시간을 설정하기 위해 분할된 공간이다. 각 객체에 대해 생성된 디폴트 시간 값이 바(bar)로 표현되며, 저작자는 클릭-앤-드래그 방식으로 시간 값을 확대 또는 축소한다.The time authoring unit 120 performs time authoring on media objects constituting MPEG-4 content, and sets a playback time for each object using a time division environment in seconds. For example, a time division environment may consist of N rows M + 1 columns, where N is the number of media objects that make up the content, one column is the media object identifier, and the remaining M columns are in seconds for that object. It is a space divided to set the playback time. The default time value generated for each object is represented by a bar, and the author enlarges or reduces the time value in a click-and-drag manner.

애니메이션 저작부(130)는 MPEG-4 장면의 동적 변화를 제공하는 다단계 대화 방식을 사용한 키프레임 애니메이션 저작을 수행한다. MPEG-4는 시간 또는 사용자 이벤트에 대한 컨텐츠의 변화를 키프레임 애니메이션 기법으로 표현한다. 본 발명은 그러한 키프레임 애니메이션을 쉽게 저작하기 위해 애니메이션 저작을 여러 단계로 나뉘고, 각 단계별로 대화 상자를 제공해 저작자는 마우스 클릭만으로 애니메이션 저작에 필요한 정보를 입력한다.The animation authoring unit 130 performs keyframe animation authoring using a multi-level interactive method of providing dynamic change of an MPEG-4 scene. MPEG-4 expresses the change of content with respect to time or user event by keyframe animation technique. In order to easily author such keyframe animation, the present invention divides the animation authoring into several steps, and provides a dialog box for each step, and the author inputs the information necessary for authoring the animation with only a mouse click.

직관적 저작 환경은 장면 저작부(110)에 의한 장면 저작 공간과 시간 저작부(120)에 의한 시간 저작 공간, 애니메이션 저작부(130)에 의한 애니메이션 저작 공간으로 이루어진다.The intuitive authoring environment includes a scene authoring space by the scene authoring unit 110, a temporal authoring space by the time authoring unit 120, and an animation authoring space by the animation authoring unit 130.

아이콘부(150)는 이들 공간에 저작되는 미디어 객체와 그들 속성 지정을 돕는 인터페이스 역할을 수행하는 아이콘을 각 저작 공간에 제공한다.The icon unit 150 provides each authoring space with an icon that serves as an interface for assisting media objects authored in these spaces and their attributes.

장면은 오디오, 비디오, 이미지, 그래픽스, 텍스트 등의 미디어 객체로 구성된 MPEG-4 컨텐츠에서 미디어 객체들이 화면 상에 배치된 내용을 일컫는 것이다.A scene refers to content in which media objects are arranged on a screen in MPEG-4 content composed of media objects such as audio, video, image, graphics, and text.

장면 저작부(110)에 의해 제공되는 장면 저작 공간은 컨텐츠의 장면을 구성하기 위해 필요한 비주얼 미디어 객체에 대한 아이콘을 선택해서 드래그-앤-드랍 방식으로 나열하고, 오디오 객체에 대해 숨겨진 아이콘 형태로 첨가할 수 있는 시각 저작을 제공한다.The scene authoring space provided by the scene authoring unit 110 selects, drag-and-drops, icons for visual media objects required for composing a scene of the content, and adds them in a hidden icon form for audio objects. Provide visual work that can be done.

시간 저작부(120)에 의해 제공되는 시간 저작 공간은 장면 저작 공간에 나열된 미디어 객체들에 대해 재생 시작과 종료 시간을 설정할 수 있다.The time authoring space provided by the time authoring unit 120 may set playback start and end times for media objects listed in the scene authoring space.

애니메이션 저작부(130)에 의해 제공되는 애니메이션 저작 공간은 각 객체에 대해 마우스와 시간 이벤트 발생에 따른 장면의 변화를 키프레임 애니메이션으로 제공하기 위한 정보를 저작하는 공간으로 애니메이션 내용에 따라 여러 단계의 과정을 밟는 대화형 환경을 가진다.The animation authoring space provided by the animation authoring unit 130 is a space for authoring information for providing a keyframe animation of a scene change according to the occurrence of a mouse and a time event for each object. Have an interactive environment to tread on.

편집 관리부(140)는 각 저작환경에서 발생한 윈도우 이벤트를 처리하여 저작 환경에 반영하여 사용자에게 작업한 내용을 알리고, 저작된 내용을 저작 정보(210)에 저장한다.The editing management unit 140 processes the window events generated in each authoring environment, reflects the work to the user by reflecting the authoring environment, and stores the authored content in the authoring information 210.

저장부(200)는 직관적 편집기(100)에 의해 생성된 저작정보(210)와 BIFS 생성기(300)에 의해 생성된 BIFS 정보(220)를 저장한다.The storage unit 200 stores the authoring information 210 generated by the intuitive editor 100 and the BIFS information 220 generated by the BIFS generator 300.

저작 정보(210)는 저작 객체 정보(211), 그룹/계층 정보(212), 애니메이션 정보(213)로 나뉜다. 저작 객체는 컨텐츠 저작에 사용되는 다양한 타입의 미디어 객체에 대해 모든 속성 정보를 저장하는 객체를 의미하며, 미디어 객체가 저작 화면에 장면 저작 공간에 표현될 때, 저작 객체에 대한 인스턴스를 생성하여 저작 객체 정보(211)에 저장한다. 그룹/계층 정보(212)는 객체들의 그룹 관계를 저장하는 것으로서, 물리적인 여러 미디어 객체를 모아 논리적인 의미를 가지게 할 때와 동일한 좌표계를 사용하는 미디어 객체 집합을 표현할 때 그룹이 형성된다. 애니메이션 정보(213)는 사용자가 설정한 마우스와 시간 이벤트에 대해 발생한 애니메이션 정보를 담고 있다.Authoring information 210 is divided into authoring object information 211, group / hierarchical information 212, and animation information 213. An authoring object refers to an object that stores all property information for various types of media objects used for authoring content. When a media object is represented in a scene authoring space on an authoring screen, an authoring object is created by creating an instance of the authoring object. The information 211 is stored. The group / hierarchical information 212 stores group relationships of objects, and groups are formed when representing a set of media objects using the same coordinate system as when a plurality of physical media objects are collected to have a logical meaning. The animation information 213 contains animation information generated for the mouse and time events set by the user.

BIFS 정보(220)는, 저작된 장면을 트리로 구성하는 장면 트리 BIFS정보(221)와, 트리에 포함된 이미지, 비디오, 오디오 미디어 객체에 대해서는 객체 데이타에 대한 위치와 인코딩, 디코딩에 필요한 정보를 담아두는 객체 기술자 BIFS정보(222)와, 사용자가 정의한 애니메이션 정보에 대해 상기 장면 트리 내의 노드와 필드 사이의 연결 관계를 정의하는 라우트 BIFS 정보(223)를 포함하게 된다.The BIFS information 220 includes scene tree BIFS information 221 constituting the authored scene as a tree, and information necessary for the location, encoding, and decoding of object data on image, video, and audio media objects included in the tree. The object descriptor BIFS information 222 to be stored and the route BIFS information 223 defining a connection relationship between a node and a field in the scene tree with respect to animation information defined by a user are included.

BIFS 생성기(300)는 직관적 편집기(100)에서 직관적으로 저작된 내용을 BIFS 기술 언어로 구성한다. MPEG-4는 컨텐츠를 구성하는 여러 미디어의 관계와 속성을 BIFS 기술 언어로 표현하고, 이를 실제 미디어 데이타와 혼합함으로서 생성된다. BIFS 기술 언어는 미디어의 기본 속성과 미디어 사이의 관계를 표현하기 위한 노드와 필드를 정의하고 있으며, 그 구조의 복잡성으로 인해 습득하는데 많은 시간을 요구한다. 즉, BIFS 생성 규칙을 미리 정의하고, 이를 사용해 저작한 정보를 BIFS 기술 언어로 생성한다.The BIFS generator 300 configures a content intuitively created in the intuitive editor 100 in a BIFS description language. MPEG-4 is created by expressing relations and attributes of various media constituting contents in BIFS description language and mixing them with actual media data. The BIFS description language defines nodes and fields to express the basic attributes of media and the relationship between media, and the complexity of the structure requires a lot of time to learn. In other words, the BIFS generation rules are defined in advance, and the authored information is generated in the BIFS description language.

이를 위해, 저장부(200)로부터 저작 정보(210)를 받아와서 BIFS 기술언어를 생성하여 저장부(200)에 텍스트 스크립트 형태의 BIFS(220)로 저장한다. BIFS 생성기(300)는 BIFS 생성 관리기(310), BIFS 노드 정보 처리부(320), BIFS 생성 규칙 정보 처리부(330)로 구성된다.To this end, the authoring information 210 is received from the storage unit 200 to generate a BIFS description language and stored in the storage unit 200 as a BIFS 220 in the form of a text script. The BIFS generator 300 includes a BIFS generation manager 310, a BIFS node information processing unit 320, and a BIFS generation rule information processing unit 330.

BIFS 생성 관리기(310)는 저작 정보(210)를 해석해서 미리 정의된 BIFS 생성 규칙(330)에 따라 BIFS 노드(310)를 조합하여 텍스트 형태의 BIFS 코드를 생성한다.The BIFS generation manager 310 interprets the authoring information 210 and generates the BIFS code in text form by combining the BIFS nodes 310 according to the predefined BIFS generation rule 330.

BIFS 노드 정보 처리부(320)는 저작정보에 대하여 장면 트리를 형성하는 각 노드정보를 생성하며, MPEG-4 Part1 System에 정의된 노드를 바탕으로 BIFS 생성에필요한 메소드들이 첨가되었다.The BIFS node information processing unit 320 generates each node information that forms a scene tree with respect to the authoring information, and methods necessary for generating BIFS are added based on nodes defined in the MPEG-4 Part1 System.

BIFS 생성 규칙 정보 처리부(330)는 저장부(200)에 저장된 저작정보(210)를 BIFS 기술언어로 변환하기 위한 BIFS 규칙 정보를 제공한다.The BIFS generation rule information processing unit 330 provides BIFS rule information for converting the authoring information 210 stored in the storage unit 200 into a BIFS description language.

BIFS는 저작된 장면을 트리로 구성해서 표현하며, 트리에 포함된 이미지, 비디오, 오디오 미디어 객체에 대해서는 객체 데이타에 대한 위치와 인코딩, 디코딩에 필요한 정보를 담아두는 객체 기술자를 필요로 한다. 또한, 사용자가 정의한 애니메이션 정보에 대해 장면 트리 내의 노드와 필드 사이의 연결 관계를 정의하는 라우트 정보도 포함한다.BIFS presents the authored scene as a tree. For image, video, and audio media objects included in the tree, an object descriptor is needed that contains the information needed to locate, encode, and decode the object data. It also includes route information that defines the connection between nodes and fields in the scene tree for user-defined animation information.

따라서, BIFS 생성 규칙 정보 제공부(330)에서는 장면 트리 생성 규칙 정보(331), 객체 기술자 생성 규칙 정보(332), 라우트 정보 생성 규칙 정보(333)를 정의하여 제공한다.Accordingly, the BIFS generation rule information providing unit 330 defines and provides the scene tree generation rule information 331, the object descriptor generation rule information 332, and the route information generation rule information 333.

장면 트리 생성 규칙 정보(331)는 저작된 장면을 트리로 구성하는 장면 트리 생성 규칙이며, 객체 기술자 생성 규칙 정보(332)는 트리에 포함된 이미지, 비디오, 오디오 미디어 객체에 대해서는 객체 데이타에 대한 위치와 인코딩, 디코딩에 필요한 정보를 담아두는 객체 기술자 생성 규칙이며, 라우트 정보 생성 규칙 정보(333)는 사용자가 정의한 애니메이션 정보에 대해 상기 장면 트리 내의 노드와 필드 사이의 연결 관계를 정의하는 라우트 생성 규칙이 된다.The scene tree generation rule information 331 is a scene tree generation rule constituting the authored scene as a tree, and the object descriptor generation rule information 332 is a position for the object data for image, video, and audio media objects included in the tree. And the object descriptor generation rule that contains information necessary for encoding and decoding, and the route information generation rule information 333 includes a route generation rule that defines a connection relationship between nodes and fields in the scene tree for animation information defined by a user. do.

도 3a 및 도 3b는 본 발명에 따른 MPEG-4 장면 저작 흐름도이다. 도 3a 및 도 3b를 참조하여 직관적 저작 환경의 MPEG-4 장면 저작 환경과 장면에 포함되는 미디어 객체에 대한 재생 시간 저작에서 발생한 이벤트 처리 과정을 설명하도록 하자.3A and 3B are a flowchart of an MPEG-4 scene authoring according to the present invention. Referring to FIGS. 3A and 3B, an event processing process occurring in a play time authoring for an MPEG-4 scene authoring environment of an intuitive authoring environment and a media object included in a scene will be described.

먼저, 사용자가 발생시킨 이벤트를 입력받는 경우(S101) 이벤트가 발생한 저작 환경을 구분한다(S102,S121). 즉, 장면 저작 환경에서 발생했는지 시간 저작환경에서 발생했는지 그 여부를 판단한다.First, when receiving an event generated by the user (S101), the authoring environment in which the event occurs is distinguished (S102, S121). That is, it is determined whether or not it occurred in the scene authoring environment or in the time authoring environment.

장면 저작 환경에서 발생한 이벤트일 경우에는 미디어 객체 삽입, 속성 설정, 그룹 설정 이벤트 발생의 여부를 다시금 판단하여(S103,S111,S115) 각 경우에 대해 필요한 이벤트 처리 루틴이 실행된다. 즉, 미디어 객체 삽입 이벤트의 판단결과(S103) 미디어 삽입 이벤트일 경우에는 오디오, 비디오, 이미지, 기하객체, 텍스트 등의 미디어 타입을 확인하여(S104) 해당 미디어에 대한 저작 객체를 생성할 준비를 한다. 그리고, 스크린 상에서 사용자의 마우스 드래깅 영역을 입력 받아 현재 선택된 미디어가 차지할 크기, 공간 위치를 결정한다(S105). 그 결정된 크기 및 위치가 미디어 객체가 차지할 영역이 유효한지의 여부를 판단하여(S106) 유효한 경우에는 미디어 타입에 해당하는 객체를 생성하고(S107) 속성을 초기화 한 후(S108), 시간 저작 공간에 생성된 저작 객체의 기본 재생 시간을 설정해서 디스플레이 한다(S109). 속성 설정 이벤트일 경우(S111), 이벤트가 발생한 시점에 존재하는 객체를 확인하여(S112) 해당 객체에 맞는 속성 설정 대화 상자를 제공한다(S113). 대화 상자에 설정된 내용으로 사용자가 갱신하기를 원할 경우, 저작 객체의 속성을 갱신한다(S114).In case of an event occurring in the scene authoring environment, it is determined again whether a media object insertion, property setting, or group setting event occurs (S103, S111, S115), and necessary event processing routines are executed in each case. That is, in the case of the media insertion event (S103), in the case of the media insertion event, the media type such as audio, video, image, geometric object, text, etc. is checked (S104) to prepare to create an authoring object for the media. . Then, the mouse dragging area of the user is received on the screen to determine the size and space position of the currently selected media to occupy (S105). The determined size and position determine whether the area occupied by the media object is valid (S106), and if it is valid, create an object corresponding to the media type (S107), initialize the attribute (S108), and then A basic playback time of the created authoring object is set and displayed (S109). In the case of the property setting event (S111), the object existing at the time of occurrence of the event is checked (S112) and a property setting dialog box corresponding to the object is provided (S113). If the user wants to update the contents set in the dialog box, the attribute of the authoring object is updated (S114).

한편, 그룹 설정 이벤트인지의 그 여부를 판단하여(S115) 그룹 설정 이벤트의 경우에는, 마우스 입력 크기에 따른 그룹 설정 영역을 구하고(S116), 그 마우스드래깅 영역에 속하는 저작 객체를 추출하여(S117) 그룹을 생성한 후(S118), 저작정보의 그룹계층 저작정보(212)에 저장한다(S119). 이렇게 변경된 내용(S110,S114,S119)은 모두 저작 화면에 표현하여(S120) 사용자에게 WYSIWYG을 제공한다.Meanwhile, by determining whether or not it is a group setting event (S115), in the case of a group setting event, a group setting area according to a mouse input size is obtained (S116), and an authoring object belonging to the mouse dragging area is extracted (S117). After the group is generated (S118), it is stored in the group-layer copyright information 212 of the copyright information (S119). The changed contents (S110, S114, S119) are all expressed on the author screen (S120) to provide the user with WYSIWYG.

한편, 사용자가 발생시킨 이벤트가 시간 저작 환경에서 발생한지의 그 여부를 판단하여(S121) 시간저작 환경에서 발생한 이벤트라면, 마우스의 입력 지점값을 입력받아(S122) 그 입력값을 토대로 재생 시간이 변경되어야 하는 저작 객체를 추출한 후, 다시 저작 객체 재생 시간바(bar)에서 발생되었는지의 여부를 판단하여(S123) 저작 객체 재생 시간바(bar)에서 발생된 경우에는 마우스 드래킹 영역값을 입력받아(S124) 마우스 드래깅 영역값 만큼 재생 시간을 조정하여 저작 객체의 재생 시간 속성을 새로 설정된 내용으로 갱신하고(S125) 화면에 디스플레이한다(S126).On the other hand, it is determined whether the event generated by the user occurred in the time authoring environment (S121). If the event occurred in the time writing environment, the input time value of the mouse is received (S122) and the play time is changed based on the input value. After extracting an authoring object that should be extracted, it is again determined whether or not it is generated in the authoring object playback time bar (S123). S124) The playback time attribute of the authoring object is updated with the newly set contents by adjusting the playback time by the mouse dragging area value (S125) and displayed on the screen (S126).

도 4는 본 발명에 따른 애니메이션 정보 저작 흐름도이다. 도 4를 참조하여 대화형 애니메이션 저작 환경에서 애니메이션 정보를 생성하는 과정을 설명해보자.4 is a flowchart of animation information authoring according to the present invention. Referring to FIG. 4, a process of generating animation information in an interactive animation authoring environment will be described.

사용자가 애니메이션 입력을 위한 메뉴를 선택하는 경우(S201), 애니메이션 정보 입력을 위한 대화 상자를 팝업하여 제공한다(S202). 이 대화 상자는 애니메이션을 유도하는 이벤트 종류 지정 공간, 이벤트가 발생하는 위치 지정 공간(이벤트를 수신하는 객체 지정 공간)과 이벤트에 따라 동적으로 변화해야 하는 객체 지정 공간 및 애니메이션의 내용을 지정하는 공간을 가진다.When the user selects a menu for inputting an animation (S201), a dialog box for inputting animation information is popped up and provided (S202). This dialog box includes the event type designation space that drives the animation, the location designation space where the event occurs (the object designation space that receives the event), the object designation space that must change dynamically according to the event, and the space that specifies the content of the animation. Have

이 대화상자의 입력내용에 따라 이벤트가 발생하는 위치(이벤트를 수신하는객체지정 공간)를 지정하고(S203), 이벤트에 따라 동적으로 변화해야 하는 객체 지정하고(S204), 애니메이션을 유도하는 이벤트 종류를 지정한다(S205).According to the input contents of this dialog box, specify the location where the event occurs (the object designation space that receives the event) (S203), specify the object that needs to change dynamically according to the event (S204), and the event type that induces the animation. To specify (S205).

애니메이션을 유도하는 이벤트에는 사용자 마우스 입력과 특정 시간에 애니메이션을 발생하는 시간 이벤트가 있으며, 애니메이션의 종류는 색상, 위치, 회전, 확대/축소를 지원한다. 하나의 애니메이션에 대해 동일한 종류의 변환 정보를 여러개 삽입할 수도 있다. 생성된 내용은 저작정보의 애니메이션 정보에 저장되며, MPEG-4 BIFS로 바뀔 때 키프레임 애니메이션 지원을 위한 키프레임 정보가 된다. 모든 저작 객체는 이벤트를 수신하는 객체와 이벤트에 따라 동적으로 변화해야 하는 객체가 될 수 있고, 수신 객체와 변화 객체는 동일한 객체일 수도 있다.Events that induce animations include user mouse input and time events that generate animations at specific times. Animation types support color, position, rotation, and zooming. Multiple conversion information of the same type can be inserted for one animation. The generated content is stored in the animation information of the copyrighted information, and becomes the keyframe information for keyframe animation support when the MPEG-4 BIFS is changed. Every authoring object may be an object that receives an event and an object that needs to change dynamically according to the event, and the receiving object and the change object may be the same object.

이에 따라, 발생된 이벤트가 색변경을 요청하는지 그 여부를 판단하여(S206) 색변경이 요청된 경우에는 변경색을 입력하고(S207), 다른 색의 추가 요청여부를 판단하여(S208) 있는 경우에는 요청된 변경색을 입력하고 다른 색의 추가 요청이 없는 경우에는 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장한다(S209).Accordingly, it is determined whether or not the generated event requests a color change (S206). If a color change is requested, a change color is input (S207), and if it is determined whether to request the addition of another color (S208). If the requested change color is input and there is no request for adding another color, the changed information is added to the animation information of the copyrighted information and stored (S209).

한편, 발생된 이벤트가 위치변경을 요청하는지 그 여부를 판단하여(S210) 위치변경이 요청된 경우에는 그 객체의 이동 위치를 입력받고(S211), 다른 위치의 추가 요청여부를 판단하여 있는 경우에는 요청된 위치를 입력받고 그렇지 않은 경우에는 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장한다(S209).On the other hand, if it is determined whether or not the event is requested to change the location (S210) when the location change is requested to receive the movement position of the object (S211), if it is determined whether to request the addition of another location If the requested location is input, otherwise, the changed information is added to the animation information of the copyrighted information and stored (S209).

한편, 발생된 이벤트가 회전을 요청하는지 그 여부를 판단하여(S213) 회전이 요청된 경우에는 그 객체의 회전 각도를 입력받고(S211), 다른 회전 각도의 추가요청여부를 판단하여 있는 경우에는 요청된 회전 각도를 입력받고 그렇지 않은 경우에는 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장한다(S209).On the other hand, if it is determined whether or not the generated event is to request the rotation (S213), if the rotation is requested, the rotation angle of the object is input (S211), if it is determined whether the addition request of the other rotation angle request If the received rotation angle is not received, the changed information is added to the animation information of the copyrighted information and stored (S209).

한편, 발생된 이벤트가 확대 또는 축소를 변경을 요청하지 여부를 판단하여(S216) 확대 또는 축소가 요청된 경우에는 확대 또는 축소비율을 입력받고(S217), 다른 비율의 확대/축소 요청여부를 판단하여 있는 경우에는 요청된 확대/축소 비율을 입력받고 그렇지 않은 경우에는 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장한다(S209).On the other hand, it is determined whether or not the event is requested to change the enlargement or reduction (S216), if the enlargement or reduction is requested to receive the enlargement or reduction ratio (S217), it is determined whether to request the enlargement / reduction of the other ratio If so, the requested enlargement / reduction ratio is input. If not, the changed information is added to the animation information of the copyrighted information and stored (S209).

도 5는 본 발명에 따른 BIFS 기술 언어 생성 흐름도이다. 도 5를 참조하여 BIFS 생성기가 직관적 편집기에서 저작한 정보를 BIFS 기술 언어로 생성하는 과정을 설명해 보자.5 is a flow diagram of BIFS description language generation in accordance with the present invention. Referring to FIG. 5, a description will be given of a process in which a BIFS generator generates information written in an intuitive editor in a BIFS description language.

사용자가 저작 환경에서 MPEG-4 BIFS 생성을 요구하는 경우(S301), BIFS 생성 관리기(300)는 저작 정보(210) 중 저작 객체 정보(211)와 그룹/계층 정보(212)를 획득한다(S302). 먼저, 획득한 그룹/계층 정보(212)로 BIFS 장면 트리의 계층 구조를 형성하여 장면 트리의 골격을 생성한다(S303). 골격이 형성된 장면 트리의 말단 노드는 저작 객체가 되며, 저작 객체는 BIFS로 표현되지 않은 상태이다. 따라서, 저작 객체 집합의 모든 객체를 장면 트리에 포함시켰는지의 그 여부를 판단하여(S305) 장면트리에 포함되지 않은 경우 장면 트리에 포함시킬 저작 객체에 대하여 장면 트리 생성 규칙 정보 제공부(330)에서 해당 저작 객체마다 정의된 생성 규칙을 읽어와서(S305) 생성규칙에서 요구하는 필요한 BIFS 노드를 생성하고(S306)) 생성규칙에 따라 BIFS를 조합한 후 장면 트리에 첨가한다(S307). 이렇게 현재 장면트리에 첨가시키는 저작 객체에 대하여 그 저작 객체가 이미지, 비디오, 오디오 객체 인지의 그 여부를 판단하여(S308) 이미지, 비디오, 오디오를 나타내는 객체일 경우, 이들에 대해서는 이들의 물리적 데이타 위치와 인코딩, 디코딩 정보를 나타내는 객체 기술자 생성이 필요하며, 객체 기술자 생성 규칙 정보(332)을 읽어들여(S309) 객체 기술자 규칙에서 요구하는 BIFS 노드를 생성하고(S310) 객체 기술자 생성 규칙에 따라 BIFS 노드를 조합하고(S311) 생성된 객체 기술자 속성 정보를 설정한 후(S312) 모든 저작 객체를 장면 트리에 포함시킨 후(S304), 객체 기술자 BIFS를 저장공간에 저장한다(S313).When the user requests MPEG-4 BIFS generation in the authoring environment (S301), the BIFS generation manager 300 obtains authoring object information 211 and group / hierarchical information 212 of the authoring information 210 (S302). ). First, a hierarchical structure of the BIFS scene tree is formed from the obtained group / hierarchical information 212 to generate a skeleton of the scene tree (S303). The end node of the framed scene tree becomes an authoring object, and the authoring object is not represented in BIFS. Therefore, it is determined whether all objects of the authoring object set are included in the scene tree (S305), and when not included in the scene tree, the scene tree generation rule information providing unit 330 for the authoring objects to be included in the scene tree. Reads the creation rule defined for each author object in step S305, generates the necessary BIFS node required in the generation rule in step S306, and combines BIFS according to the creation rule and adds it to the scene tree in step S307. For the authoring object added to the current scene tree, it is determined whether the authoring object is an image, a video, or an audio object (S308). And object descriptors representing encoding and decoding information are required. The object descriptor generation rule information 332 is read (S309) to generate a BIFS node required by the object descriptor rule (S310), and the BIFS node according to the object descriptor generation rule. After setting the generated object descriptor attribute information (S311) (S312) and including all authoring objects in the scene tree (S304), the object descriptor BIFS is stored in the storage space (S313).

한편, 저작 객체 집합의 모든 객체를 장면 트리에 포함시킨 경우에 BIFS 생성기(300)는 장면 트리 내의 노드의 속성을 설정하고(S314), 저작 정보(210)중 애니메이션 정보(213)를 가져와(S315) 애니메이션 정보를 분석한다(S316). 그리고 그 분석된 정보를 토대로 애니메이션을 수행하기 위해 필요한 노드를 장면 트리에 첨가하고(S317), 라우트 정보를 생성한다(S318). 라우트 정보는 애니메이션을 수행하는 동안 장면 트리 노드 사이의 정보 전달 경로를 나타낸다. 이렇게 생성된 라우트 정보를 라우트 정보 BIFS에 저장한다(S319).Meanwhile, when all objects of the authoring object set are included in the scene tree, the BIFS generator 300 sets attributes of nodes in the scene tree (S314), and obtains animation information 213 from the authoring information 210 (S315). Analyze the animation information (S316). The node necessary to perform the animation is added to the scene tree based on the analyzed information (S317), and route information is generated (S318). Route information represents a path for information transfer between scene tree nodes during animation. The route information thus generated is stored in the route information BIFS (S319).

본 발명에 의하면 드래그-앤-드롭/클릭-앤-드래그/WYSIWYG/다단계 대화 방식을 지원하는 직관적인 저작 환경에서 MPEG-4 컨텐츠를 생성할 수 있음에 따라, 저작자는 복잡한 구조를 가지는 BIFS의 구조를 습득하지 않고도 MPEG-4 컨텐츠를 생성할 수 있어 MPEG-4 컨텐츠 개발을 위해 소비되는 노력을 절감할 수 있으며, MPEG-4 컨텐츠 저작에 대한 경제성과 효율성을 높일 수 있다.According to the present invention, since MPEG-4 content can be generated in an intuitive authoring environment supporting drag-and-drop / click-and-drag / WYSIWYG / multilevel conversation method, the author has a complicated structure of BIFS. MPEG-4 content can be generated without acquiring the contents of the document, which can reduce the effort consumed to develop MPEG-4 content, and increase the economics and efficiency of authoring MPEG-4 content.

Claims (13)

MPEG-4 컨텐츠를 표현하는 BIFS 언어를 생성하는 방법에 있어서,In the method for generating a BIFS language representing MPEG-4 content, 저작자의 아이콘 드래그-앤-드롭 의해 아이콘의 편집 위치가 입력되는 경우, 상기 편집 위치에 해당 아이콘에 상응하는 MPEG-4 시청각 객체를 배치하여 MPEG-4 장면의 편집을 수행하고, 그 편집된 MPEG-4 장면의 재생장면을 저작 시에 미리 보여주어 시각적으로 MPEG-4 장면을 저작하는 시각 장면 저작 단계와,When the editing position of the icon is input by the author's icon drag-and-drop, the MPEG-4 audiovisual object corresponding to the icon is placed at the editing position to edit the MPEG-4 scene, and the edited MPEG- 4) a visual scene authoring step of visually authoring an MPEG-4 scene by showing a playback scene of the scene before authoring; 상기 시각 장면 저작 단계에서 저작된 MPEG-4 장면을 구성하는 객체의 재생시간을 설정하기 위한 저작 객체 재생 시간바를 제공하고, 그 저작 객체 재생 시간바의 클릭-앤-드래그에 의해 객체별 재생 시간을 설정하는 시간 정보 저작 단계와,An authoring object play time bar for setting a play time of an object constituting the MPEG-4 scene authored in the visual scene authoring step is provided, and a play time for each object is determined by a click-and-drag of the authoring object play time bar. The time information authoring step that you set up, 상기 시간 정보 저작 단계에서 설정된 시간 정보에 대하여 MPEG-4 장면을 동적으로 변화시키는 애니메이션을 저작하기 위해 애니메이션 저작을 여러 단계로 구분하고, 각 단계별로 필요한 대화 상자를 제공해 저작자의 마우스 클릭에 의해 애니메이션 저작에 필요한 정보를 입력하게 하는 다단계 애니메이션 정보 저작 단계와,In order to author an animation that dynamically changes an MPEG-4 scene with respect to the time information set in the time information authoring step, the animation authoring is divided into several steps, and each dialog is provided for each step to provide animation authoring by clicking the author's mouse. A multi-stage animation info authoring step to enter the necessary information for 상기 각 저작 단계에서 저작된 정보를 기설정된 BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS 생성 단계를 수행하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 방법A BIFS language generation method for MPEG-4 content, which performs a BIFS generation step of generating a BIFS description language according to BIFS node information and BIFS scene generation rules based on information authored in each authoring step. 제 1항에 있어서, 상기 시각 장면 저작 단계는,The method of claim 1, wherein the visual scene authoring step, 저작자에 의해 발생한 이벤트가 미디어 객체 삽입 이벤트인지 그 여부를 판단하여 미디어 삽입 이벤트일 경우, 오디오, 비디오, 이미지, 기하객체, 텍스트 등의 미디어 타입을 확인하여 해당 미디어에 대한 저작 객체를 생성할 준비를 하는 단계와,If the event generated by the author is a media object insertion event and determines whether it is a media insertion event, the media type such as audio, video, image, geometric object, and text is checked to prepare for creation of an authoring object for the media. To do that, 스크린 상에서의 저작자에 의한 마우스 드래깅 영역을 입력 받아 현재 선택된 미디어가 차지할 크기, 공간 위치를 결정하는 단계와,Determining a size and a spatial position of the currently selected media by receiving a mouse dragging area by the author on the screen; 그 결정된 크기 및 위치가 미디어 객체가 차지할 영역이 유효한지의 여부를 판단하여 유효한 경우 그 미디어 타입에 해당하는 객체를 생성하고, 속성을 초기화 한 후 시간 저작 공간에 생성된 저작 객체의 기본 재생 시간을 설정해서 디스플레이하는 단계와,The determined size and position determine whether the area occupied by the media object is valid, and if it is valid, creates an object corresponding to the media type, initializes the property, and then sets the default playback time of the authoring object created in the time authoring space. Setting up and displaying, 상기 저작자에 의해 발생한 이벤트가 속성 설정 이벤트일 경우 이벤트가 발생한 시점에 존재하는 객체를 확인하여 해당 객체에 맞는 속성 설정 대화 상자를 제공하고, 그 대화 상자에 설정된 내용으로 사용자가 갱신하기를 원할 경우, 저작 객체의 속성을 갱신하는 단계와,When the event generated by the author is a property setting event, if an object exists at the time when the event occurs, the property setting dialog box corresponding to the object is provided, and the user wants to update the content set in the dialog box. Updating the attributes of the authoring object, 상기 저작자에 의해 발생한 이벤트가 그룹 설정 이벤트인지의 그 여부를 판단하여 그룹 설정 이벤트의 경우에는, 저작자의 마우스 입력 크기에 따른 그룹 설정 영역을 구하고, 그 마우스 드래깅 영역에 속하는 저작 객체를 추출하여 그룹을 생성한 후 저장하는 단계와,It is determined whether the event generated by the author is a group setting event, and in the case of a group setting event, a group setting area according to the mouse input size of the author is obtained, and an authoring object belonging to the mouse dragging area is extracted to determine a group. Create and save, 상기 각 단계에서 변경된 정보에 대하여 저작자에게 표시하여 주는 단계를수행하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 방법.BIFS language generation method for the MPEG-4 content performing the step of displaying to the author about the information changed in each step. 제 1항에 있서, 상기 시간 정보 저작 단계는,The method of claim 1, wherein the time information authoring step, 저작자에 의한 마우스의 입력 지점값을 입력받아 그 입력값을 토대로 재생 시간이 변경되어야 하는 저작 객체를 추출하여 상기 저작 객체 재생 시간바(bar)에서 발생되었는지의 여부를 판단하는 단계와,Receiving an input point value of a mouse by an author, extracting an authoring object whose playback time is to be changed based on the input value, and determining whether the authoring object is generated at the authoring object playback time bar; 판단 결과, 상기 저작 객체 재생 시간바에서 발생된 경우에는 저작자의 마우스 드래킹 영역값을 입력받아 마우스 드래깅 영역값 만큼 재생 시간을 조정하여 저작 객체의 재생 시간 속성을 새로 설정된 내용으로 갱신하는 단계와,If it occurs in the authoring object playback time bar, receiving the author's mouse dragging region value and adjusting the playing time by the mouse dragging region value to update the playing time attribute of the authoring object with newly set contents; 갱신된 정보를 화면에 디스플레이하는 단계를 수행하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 방법.A method of generating a BIFS language for MPEG-4 content, which comprises displaying updated information on a screen. 제 1항에 있어서, 상기 다단계 애니메이션 정보 저작 단계는,The method of claim 1, wherein the multi-stage animation information authoring step, 저작자에 의해 애니메이션 입력을 위한 메뉴가 선택되는 경우, 애니메이션 정보 입력을 위한 대화 상자를 팝업하여 제공하는 단계와,If a menu for inputting animation is selected by the author, providing a pop-up dialog box for inputting animation information, 상기 대화상자의 입력내용에 따라 이벤트가 발생하는 위치를 지정하는 단계와,Designating a location at which an event occurs according to the input contents of the dialog box; 상기 발생한 이벤트에 따라 동적으로 변화해야 하는 객체를 지정하는 단계와,Designating an object to be changed dynamically according to the event occurred; 애니메이션을 유도하는 이벤트 종류를 지정하여 저작자의 마우스 입력과 특정 시간에 애니메이션을 발생하는 이벤트에 따라 애니메이션 정보를 생성하여 저장하는 단계를 수행하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 방법.A method of generating a BIFS language for MPEG-4 content, in which an animation type is generated by specifying an event type for inducing an animation and generating and storing animation information according to an author's mouse input and an event generating an animation at a specific time. 제 4항에 있어서, 상기 애니메이션 정보를 생성하여 저장하는 단계에서,The method of claim 4, wherein the generating and storing of the animation information comprises: 발생된 이벤트가 색변경을 요청하는지 그 여부를 판단하여 색변경이 요청된 경우에는 변경색을 입력하고 변경된 정보를 저작정보의 애니메이션 정보에 추가하는 단계와,Determining whether or not the generated event requests a color change, and if a color change is requested, inputting the changed color and adding the changed information to the animation information of the copyright information; 발생된 이벤트가 위치변경을 요청하는지 그 여부를 판단하여 위치변경이 요청된 경우에는 그 객체의 이동 위치를 입력받고 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장하는 단계와,Determining whether or not the generated event requests a location change, and when a location change is requested, receiving a moving position of the object and adding the changed information to animation information of the copyright information; 발생된 이벤트가 회전을 요청하는지 그 여부를 판단하여 회전이 요청된 경우에는 그 객체의 회전 각도를 입력받고 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장하는 단계와,Determining whether or not the generated event requests rotation, and if rotation is requested, receiving the rotation angle of the object and adding the changed information to animation information of the copyright information; 발생된 이벤트가 확대 또는 축소를 변경을 요청하지 여부를 판단하여 확대 또는 축소가 요청된 경우에는 확대 또는 축소비율을 입력받고 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장하는 단계를 수행하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 방법.In case that the enlarged or reduced is requested by determining whether or not the event is requested to be enlarged or reduced, MPEG-M that receives the enlargement or reduction ratio and adds the changed information to the animation information of the copyright information to store the changed information. 4 How to create a BIFS language for content. 제 1항에 있어서, 상기 BIFS 생성 단계는,The method of claim 1, wherein the BIFS generation step, 저작자의 BIFS 생성을 요청이 있는 경우, 저작 정보중 저작 객체 정보와 그룹/계층 정보를 획득하는 단계와,Acquiring author object information and group / hierarchical information from the authoring information when the author requests to create a BIFS; 상기 획득한 그룹/계층 정보로 BIFS 장면 트리의 계층 구조를 형성하여 장면 트리의 골격을 생성하는 단계와,Generating a skeleton of a scene tree by forming a hierarchical structure of a BIFS scene tree using the obtained group / hierarchical information; 해당 저작 객체마다 정의된 생성 규칙을 읽어 생성규칙에서 요구하는 필요한 BIFS 노드를 생성하고 생성규칙에 따라 BIFS를 조합한 후 장면 트리에 첨가하는 단계와,Reading the creation rules defined for each authoring object, creating the necessary BIFS nodes required by the creation rules, combining BIFS according to the creation rules, and adding them to the scene tree; 상기 장면 트리에 첨가시키는 저작 객체에 대하여 그 저작 객체가 이미지, 비디오, 오디오객체인지 그 여부를 판단하는 단계와,Determining whether the copyright object is an image, a video, or an audio object with respect to the copyright object added to the scene tree; 판단결과 이미지, 비디오, 오디오를 나타내는 객체일 경우, 이들의 물리적 데이타 위치와 인코딩, 디코딩 정보를 나타내는 객체 기술자 생성 규칙 정보를 읽어들여 객체 기술자 규칙에서 요구하는 BIFS 노드를 생성하고 BIFS 노드를 조합하고 생성된 객체 기술자 속성 정보를 설정한 후 모든 저작 객체를 장면 트리에 포함시키고 저장하는 단계를 수행하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 방법.As a result of the determination, in case of objects representing image, video, and audio, the BIFS node required by the object descriptor rule is created by combining object descriptor generation rule information indicating their physical data location, encoding, and decoding information. A method for generating a BIFS language for MPEG-4 content, which includes setting and storing all authoring objects in a scene tree after setting the specified object descriptor attribute information. MPEG-4 컨텐츠를 표현하는 BIFS 기술언어를 생성하는 시스템에 있어서,In a system for generating a BIFS description language representing MPEG-4 content, 시각적으로 장면을 저작하는 장면 저작과 초 단위 시간 분할 환경과클릭-앤-드래그 방식을 사용해 각 객체별 재생 시간을 설정하는 시간 저작과, 다단계 대화 방식을 사용한 애니메이션 저작을 수행하여 MPEG-4 컨텐츠를 저작 편집하여 저작정보를 생성하는 직관적 편집부와,Visually authoring scenes, authoring scenes in seconds, setting time durations for each object using a click-and-drag method, and authoring MPEG-4 content using multi-level interactive animation Intuitive editing unit for editing the work to create the work information, 상기 직관적 편집기에 생성된 저작된 정보에 대하여 기설정된 BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS생성부와,A BIFS generation unit for generating a BIFS description language corresponding to predetermined BIFS node information and BIFS scene generation rule with respect to the authored information generated in the intuitive editor; 상기 직관적 편집부에 생성된 저작정보 및 BIFS생성부에서 생성된 BIFS생성정보를 저장하는 저장부를 포함하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 시스템.BIFS language generation system for MPEG-4 content including a storage for storing the authoring information generated by the intuitive editing unit and the BIFS generation information generated by the BIFS generation unit. 제 7항에 있어서, 상기 직관적 편집부는,The method of claim 7, wherein the intuitive editing unit, 저작자의 아이콘 드래그-앤-드롭 의해 아이콘의 편집 위치가 입력되는 경우, 상기 편집 위치에 해당 아이콘에 상응하는 MPEG-4 시청각 객체를 배치하여 MPEG-4 장면의 편집을 수행하고, 그 편집된 MPEG-4 장면의 재생장면을 저작 시에 미리 보여주어 시각적으로 MPEG-4 장면을 저작하는 장면 저작부와,When the editing position of the icon is input by the author's icon drag-and-drop, the MPEG-4 audiovisual object corresponding to the icon is placed at the editing position to edit the MPEG-4 scene, and the edited MPEG- A scene authoring unit which visually authors MPEG-4 scenes by previewing the playback scene of the scene at the time of authoring; 상기 장면 저작부에서 저작된 MPEG-4 장면을 구성하는 객체의 재생시간을 설정하기 위한 저작 객체 재생 시간바를 제공하고, 그 저작 객체 재생 시간바의 클릭-앤-드래그에 의해 객체별 재생 시간을 설정하는 시간 저작부와,Providing an authoring object play time bar for setting a play time of an object constituting the MPEG-4 scene authored by the scene authoring unit, and setting a play time for each object by click-and-drag of the authoring object play time bar. Time authoring department, 상기 시간 저작부에서 설정된 시간 정보에 대하여 MPEG-4 장면을 동적으로 변화시키는 애니메이션을 저작하기 위해 애니메이션 저작을 여러 단계로 구분하고, 각 단계별로 필요한 대화 상자를 제공해 저작자의 마우스 클릭에 의해 애니메이션저작에 필요한 정보를 입력하게 하는 애니메이션 저작부와,In order to author an animation that dynamically changes the MPEG-4 scene with respect to the time information set by the time authoring unit, the animation authoring is divided into several stages, and each dialog is provided for each stage to provide animation dialog by clicking the author's mouse. An animation authoring unit to input necessary information, 상기 저작부에 의해 제공되는 각 저작환경에서 발생한 윈도우 이벤트를 처리하여 저작 환경에 반영하여 저작자에게 작업한 내용을 표시하여 주고, 저작된 내용을 상기 저장부에 저장하여 관리하는 편집 관리부와,An editing management unit which processes the window events generated in each authoring environment provided by the authoring unit, reflects the work to the authors by reflecting them in the authoring environment, and stores and manages the authored contents in the storage unit; 상기 각 저작부에 의해 제공되는 각 저작환경에서 저작되는 미디어 객체와 그들 속성 지정을 돕는 인터페이스 역할을 수행하는 아이콘을 각 저작 공간에 제공하는 아이콘부를 포함하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 시스템.And an icon unit providing icons to each authoring space, the media object being authored in each authoring environment provided by each authoring unit, and an icon serving as an interface for designating their attributes. 제 7항에 있어서, 상기 BIFS 생성부는,The method of claim 7, wherein the BIFS generation unit, 상기 저작정보에 대하여 장면 트리를 형성하는 각 노드정보를 생성하는 노드 정보 처리부와,A node information processing unit for generating respective node information forming a scene tree with respect to the copyright information; 상기 저장부에 저장된 저작정보를 BIFS 기술언어로 변환하기 위한 BIFS 규칙 정보를 제공하는 BIFS 생성 규칙 정보 제공부와,A BIFS generation rule information providing unit providing BIFS rule information for converting the copyright information stored in the storage into a BIFS description language; 상기 저장부에 저장된 저작 정보를 해석해서 BIFS 생성 규칙 정보 처리부에서 제공하는 BIFS 생성 규칙에 따라 노드 정보 처리부에 의해 생성된 상기 BIFS 노드를 조합하여 텍스트 형태의 BIFS 코드를 생성하는 BIFS 생성 관리부를 포함하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 시스템.A BIFS generation management unit configured to interpret the authoring information stored in the storage unit and generate the BIFS code in text form by combining the BIFS nodes generated by the node information processing unit according to the BIFS generation rule provided by the BIFS generation rule information processing unit; BIFS language generation system for MPEG-4 content. 제 9항에 있어서, 상기 BIFS 생성 규칙 제공부의 BIFS 생성 규칙은,10. The method of claim 9, wherein the BIFS generation rule of the BIFS generation rule provider, 저작된 장면을 트리로 구성하는 장면 트리 생성 규칙과,Scene tree generation rules that organize the authored scene into a tree, 상기 트리에 포함된 이미지, 비디오, 오디오 미디어 객체에 대해서는 객체 데이타에 대한 위치와 인코딩, 디코딩에 필요한 정보를 담아두는 객체 기술자 생성 규칙과,An object descriptor generation rule for storing image, video, and audio media objects included in the tree containing information necessary for position, encoding, and decoding of object data; 사용자가 정의한 애니메이션 정보에 대해 상기 장면 트리 내의 노드와 필드 사이의 연결 관계를 정의하는 라우트 생성 규칙을 포함하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 시스템.And a route generation rule for defining a linkage relationship between a node and a field in the scene tree for user-defined animation information. 제 7항에 있어서, 상기 저장부에 저장되는 저작정보는,The method of claim 7, wherein the copyright information stored in the storage unit, 상기 직관적 편집부에서 미디어 객체가 저작 화면에 표현될 때, 각 저작 객체에 대한 인스턴스를 생성하여 컨텐츠 저작에 사용되는 다양한 타입의 미디어 객체에 대해 속성 정보인 저작 객체 정보와,When the media object is displayed on the authoring screen in the intuitive editing unit, an instance of each authoring object is created and authoring object information, which is attribute information, for various types of media objects used for authoring content; 상기 미디어 객체에 대하여 연관성을 표현하기 위한 좌표계를 사용하여 상기 객체들의 그룹 관계를 저장하는 그룹/계층 정보와,Group / hierarchical information for storing group relationships of the objects using a coordinate system for expressing an association for the media object; 상기 각 객체에 대하여 저작자에 의해 설정된 마우스와 시간 이벤트에 대해 발생한 애니메이션 정보인 애니메이션 정보를 포함하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 시스템.BIFS language generation system for MPEG-4 contents including animation information which is animation information generated for a mouse and time event set by the author for each object. 제 7항에 있어서, 상기 저장부에 저장되는 BIFS 정보는,The method of claim 7, wherein the BIFS information stored in the storage unit, 저작된 장면을 트리로 구성하는 장면 트리 BIFS 정보와,Scene tree BIFS information that organizes the authored scene into a tree, 상기 트리에 포함된 이미지, 비디오, 오디오 미디어 객체에 대해서는 객체 데이타에 대한 위치와 인코딩, 디코딩에 필요한 정보를 담아두는 객체 기술자 BIFS정보와,The object descriptor BIFS information containing the information necessary for the location, encoding and decoding of object data for the image, video and audio media objects included in the tree; 사용자가 정의한 애니메이션 정보에 대해 상기 장면 트리내의 노드와 필드 사이의 연결 관계를 정의하는 라우트 BIFS 정보를 포함하는 MPEG-4 컨텐츠를 위한 BIFS 언어 생성 시스템.BIFS language generation system for MPEG-4 content including routed BIFS information that defines a connection relationship between nodes and fields in the scene tree for user-defined animation information. MPEG-4 컨텐츠를 표현하는 BIFS 기술언어를 생성하는 방법을 수행하기 위하여 디지털 처리장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 디지털 처리장치에 의해 판독될 수 있는 기록 매체에 있어서,In order to perform a method for generating a BIFS description language representing MPEG-4 content, a program of instructions executable by a digital processing apparatus is tangibly embodied, and in a recording medium that can be read by a digital processing apparatus, 저작자의 아이콘 드래그-앤-드롭 의해 아이콘의 편집 위치가 입력되는 경우, 상기 편집 위치에 해당 아이콘에 상응하는 MPEG-4 시청각 객체를 배치하여 MPEG-4 장면의 편집을 수행하고, 그 편집된 MPEG-4 장면의 재생장면을 저작 시에 미리 보여주어 시각적으로 MPEG-4 장면을 저작하는 시각 장면 저작 단계와,When the editing position of the icon is input by the author's icon drag-and-drop, the MPEG-4 audiovisual object corresponding to the icon is placed at the editing position to edit the MPEG-4 scene, and the edited MPEG- 4) a visual scene authoring step of visually authoring an MPEG-4 scene by showing a playback scene of the scene before authoring; 상기 시각 장면 저작 단계에서 저작된 MPEG-4 장면을 구성하는 객체의 재생시간을 설정하기 위한 저작 객체 재생 시간바를 제공하고, 그 저작 객체 재생 시간바의 클릭-앤-드래그에 의해 객체별 재생 시간을 설정하는 시간 정보 저작 단계와,An authoring object play time bar for setting a play time of an object constituting the MPEG-4 scene authored in the visual scene authoring step is provided, and a play time for each object is determined by a click-and-drag of the authoring object play time bar. The time information authoring step that you set up, 상기 시간 정보 저작 단계에서 설정된 시간 정보에 대하여 MPEG-4 장면을 동적으로 변화시키는 애니메이션을 저작하기 위해 애니메이션 저작을 여러 단계로 구분하고, 각 단계별로 필요한 대화 상자를 제공해 저작자의 마우스 클릭에 의해 애니메이션 저작에 필요한 정보를 입력하게 하는 다단계 애니메이션 정보 저작 단계와,In order to author an animation that dynamically changes an MPEG-4 scene with respect to the time information set in the time information authoring step, the animation authoring is divided into several steps, and each dialog is provided for each step to provide animation authoring by clicking the author's mouse. A multi-stage animation info authoring step to enter the necessary information for 상기 각 저작 단계에서 저작된 정보를 기설정된 BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS 생성 단계를 포함하는 기록매체.And a BIFS generation step of generating a BIFS description language corresponding to the BIFS node information and the BIFS scene generation rule.
KR1020010065336A 2001-10-23 2001-10-23 method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents KR100620897B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010065336A KR100620897B1 (en) 2001-10-23 2001-10-23 method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010065336A KR100620897B1 (en) 2001-10-23 2001-10-23 method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents

Publications (2)

Publication Number Publication Date
KR20030034410A true KR20030034410A (en) 2003-05-09
KR100620897B1 KR100620897B1 (en) 2006-09-13

Family

ID=29565926

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010065336A KR100620897B1 (en) 2001-10-23 2001-10-23 method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents

Country Status (1)

Country Link
KR (1) KR100620897B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030065001A (en) * 2002-01-29 2003-08-06 주식회사 리코시스 Device of editing MPEG-4 data and Method of the Same
KR100491956B1 (en) * 2001-11-07 2005-05-31 경북대학교 산학협력단 MPEG-4 contents generating method and apparatus
KR100682911B1 (en) * 2004-12-31 2007-02-15 삼성전자주식회사 Method and apparatus for MPEG-4 encoding/decoding
US7808900B2 (en) 2004-04-12 2010-10-05 Samsung Electronics Co., Ltd. Method, apparatus, and medium for providing multimedia service considering terminal capability
KR101027529B1 (en) * 2009-04-27 2011-04-06 쏠스펙트럼(주) Apparatus for editing multi-picture and apparatus for displaying multi-picture

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100261265B1 (en) * 1997-09-29 2000-07-01 정선종 Apparatus for making a web document and method of operating it
JP2001157153A (en) * 1999-11-29 2001-06-08 Matsushita Electric Ind Co Ltd Method for abstracting complication of scene information structure, in scene composed of video and audio objects
KR20020015190A (en) * 2000-08-21 2002-02-27 장일홍 Method of manufacture for virtual education multimedia teaching materials and it's readable record medium by computer
KR20020084858A (en) * 2001-05-02 2002-11-13 (주) 새롬기술 Server system, service method and recording medium for video-song accompaniment
KR20020088590A (en) * 2001-05-18 2002-11-29 (주) 새롬기술 Server system, service method and recording medium for moving picture puzzle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100491956B1 (en) * 2001-11-07 2005-05-31 경북대학교 산학협력단 MPEG-4 contents generating method and apparatus
KR20030065001A (en) * 2002-01-29 2003-08-06 주식회사 리코시스 Device of editing MPEG-4 data and Method of the Same
US7808900B2 (en) 2004-04-12 2010-10-05 Samsung Electronics Co., Ltd. Method, apparatus, and medium for providing multimedia service considering terminal capability
KR100682911B1 (en) * 2004-12-31 2007-02-15 삼성전자주식회사 Method and apparatus for MPEG-4 encoding/decoding
KR101027529B1 (en) * 2009-04-27 2011-04-06 쏠스펙트럼(주) Apparatus for editing multi-picture and apparatus for displaying multi-picture

Also Published As

Publication number Publication date
KR100620897B1 (en) 2006-09-13

Similar Documents

Publication Publication Date Title
Hamakawa et al. Object composition and playback models for handling multimedia data
KR100321839B1 (en) Method and apparatus for integrating hyperlinks in video
EP0917715B1 (en) Time-based media processing system and method
JP5059867B2 (en) Encoding method and apparatus, and decoding method and apparatus
US5675753A (en) Method and system for presenting an electronic user-interface specification
US8161452B2 (en) Software cinema
JP3813579B2 (en) Moving picture editing apparatus, moving picture editing program, computer-readable recording medium
US20050071736A1 (en) Comprehensive and intuitive media collection and management tool
US20080010585A1 (en) Binding interactive multichannel digital document system and authoring tool
KR100424677B1 (en) Apparatus and method for authoring of multi-media contents with object-based interactivity
KR20080100434A (en) Content access tree
CN112004137A (en) Intelligent video creation method and device
KR100620897B1 (en) method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents
KR100640219B1 (en) Method and system for providing a collaborative authoring for multimedia presentation using a 3-dimensional spatio-temporal space
CN113711575A (en) System and method for instantly assembling video clips based on presentation
KR100491956B1 (en) MPEG-4 contents generating method and apparatus
KR20040041979A (en) Graphic user interface
Cha et al. MPEG-4 studio: An object-based authoring system for MPEG-4 contents
JP2004128570A (en) Contents creation and demonstration system, and contents creation and demonstration method
KR100377966B1 (en) Authoring system for contents of digital television and its method
JP4021449B2 (en) Moving picture editing method and moving picture editing apparatus
KR20030047845A (en) Apparatus and method for providing data for a carousel
KR20120108550A (en) Method and apparatus for providing richmedia contents authoring
JP2001195604A (en) Method for editing moving picture information
KR100414620B1 (en) Method for authoring a multimedia presentation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20040924

Effective date: 20060728

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120730

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130729

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee