KR20030034410A - method and the system for producting BIFS(BInary Format for Scenes language) for MPEG-4 contents - Google Patents
method and the system for producting BIFS(BInary Format for Scenes language) for MPEG-4 contents Download PDFInfo
- Publication number
- KR20030034410A KR20030034410A KR1020010065336A KR20010065336A KR20030034410A KR 20030034410 A KR20030034410 A KR 20030034410A KR 1020010065336 A KR1020010065336 A KR 1020010065336A KR 20010065336 A KR20010065336 A KR 20010065336A KR 20030034410 A KR20030034410 A KR 20030034410A
- Authority
- KR
- South Korea
- Prior art keywords
- authoring
- information
- bifs
- scene
- mpeg
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8543—Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
Abstract
Description
본 발명은 MPEG-4 컨텐츠를 표현하는 BIFS(BInary Format for Scenes) 기술 언어를 직관적인 저작 환경에서 생성하기 위한 MPEG-4 컨텐츠의 BIFS 생성 방법 및 그 시스템에 관한 것이다.The present invention relates to a BIFS generation method and system for MPEG-4 contents for generating a Binary Format for Scenes (BIFS) description language representing MPEG-4 contents in an intuitive authoring environment.
MPEG-4 컨텐츠는 기존에 존재하는 비디오, 오디오, 이미지, 텍스트, 그래픽스 등의 시청각 미디어를 합성하여 생성된 사용자 상호 작용이 가능한 멀티미디어 컨텐츠로서, 도 1을 참조하면, 전체 미디어의 화면 상의 시공간적 배치 정보와 속성 정보는 BIFS로 표현되고, 이를 실제 미디어 데이타와 합성하여 MPEG-4 컨텐츠가 생성된다. 생성된 컨텐츠는 서버를 통해 실시간으로 최종 사용자에게 전달되며, 광범위한 네트워크 상에서 멀티미디어 데이타 서비스를 지원하는 MPEG-4의 특징으로 인해 사용자는 다양한 기기를 통해서 MPEG-4 컨텐츠를 볼 수 있다.MPEG-4 content is a multimedia content capable of user interaction generated by synthesizing audiovisual media such as video, audio, image, text, graphics, and the like. Referring to FIG. And attribute information are expressed in BIFS, and MPEG-4 contents are generated by synthesizing them with actual media data. The generated content is delivered to the end user in real time through a server, and MPEG-4's feature of supporting multimedia data services over a wide range of networks allows users to view MPEG-4 content through various devices.
BIFS는 MPEG-4 part1. System에서 소개되었으며, 그 기본 개념은 VRML로 부터 유도되었다. BIFS는 미디어 객체 조합, 변형, 전송에 관한 모든 정보를 표현하는 노드와 필드로 구성된 자료 구조를 가지고 있으며, 복잡한 형식과 내용 구조를 가지고 있다.BIFS is MPEG-4 part1. Introduced in System, the basic concept is derived from VRML. BIFS has a data structure consisting of nodes and fields that represent all information about media object combinations, transformations, and transfers, and has a complex format and content structure.
기존 MPEG-4 저작 도구들은 트리 구조로 된 BIFS를 바로 사용자에게 보여주고 이를 제어하기 위한 인터페이스를 제공함으로서, 저작자에게 BIFS의 노드와 필드에 대한 학습을 요구하게 되고, 저작시 많은 시간과 노력을 소모하게 한다.Existing MPEG-4 authoring tools present the user with a tree-structured BIFS and provide an interface for controlling it, requiring authors to learn about the nodes and fields of BIFS, and consume a lot of time and effort in authoring. Let's do it.
기존에 존재하는 MPEG-4 BIFS 생성 편집기들은 사용자가 BIFS 환경을 직접 제어하기 위한 BIFS 전문가용 인터페이스를 제공하여 일반 사용자들은 이를 쉽게 조작할 수 없는 문제가 있고, 일반 멀티미디어 저작 도구는 사용자에게 직관적인 편집 환경을 제공하지만 자신들의 고유한 포맷을 사용함으로서 재사용성과 유용성, 다양한 네트워크를 통해 실시간 전송의 특징을 가진 MPEG-4 컨텐츠 생성을 지원하지 않고 있는 문제점을 가지고 있다.Existing MPEG-4 BIFS creation editors provide a BIFS professional interface for users to directly control the BIFS environment, which makes it difficult for general users to manipulate them. General multimedia authoring tools provide intuitive editing for users. Although it provides an environment, it has a problem in that it does not support the creation of MPEG-4 content with reusability, usability, and real-time transmission through various networks by using its own format.
본 발명은 이러한 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 저작자는 복잡한 트리 구조를 가지는 BIFS에 대한 지식을 미리 습득하지 않고도 MPEG-4 컨텐츠를 생성할 수 있어, MPEG-4 컨텐츠 저작시 경제성과 효율성을 높일 수 있는 MPEG-4 컨텐츠의 BIFS 생성 방법 및 그 시스템을 제공하는 것을 그 목적으로 한다.The present invention has been made to solve the problems of the prior art, the author can create MPEG-4 content without acquiring knowledge of BIFS having a complicated tree structure in advance, it is economical when authoring MPEG-4 content It is an object of the present invention to provide a method and system for generating BIFS of MPEG-4 contents that can increase efficiency.
도 1은 일반적인 MPEG-4 컨텐츠 저작과 재생에 대한 개념도.1 is a conceptual diagram of general MPEG-4 content authoring and playback.
도 2는 본 발명에 따른 MPEG-4 컨텐츠 저작을 위한 BIFS 기술언어 작성 시스템의 블록 구성도.2 is a block diagram of a BIFS description language creation system for authoring MPEG-4 content according to the present invention;
도 3a 및 도 3b는 본 발명에 따른 MPEG-4 장면 저작 자료 흐름도.3A and 3B are flowcharts of an MPEG-4 scene authoring material according to the present invention;
도 4는 본 발명에 따른 애니메이션 정보 저작 자료 흐름도.4 is a flowchart of an animation information authoring material according to the present invention;
도 5는 본 발명에 따른 BIFS 기술 언어 생성 흐름도.5 is a flow diagram of BIFS description language generation in accordance with the present invention.
<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>
100 : 직관적 편집기110 : 장면 저작부100: intuitive editor 110: scene authoring
120 : 시간 저작부130 : 애니메이션 저작부120: time authoring unit 130: animation authoring unit
140 : 편집 관리부150 : 아이콘부140: editing management unit 150: icon unit
200 : 저장부210 : 저작 정보200: storage 210: copyright information
211 : 저작 객체 정보212 : 그룹/계층 정보211: authoring object information 212: group / hierarchical information
213 : 애니메이션 정보220 : BIFS 정보213: animation information 220: BIFS information
221 : 장면트리 BIFS222 : 객체 기술자 BIFS221: scene tree BIFS222: object descriptor BIFS
223 : 라우트 BIFS 300 : BIFS 생성기223: Route BIFS 300: BIFS Generator
310 : BIFS 생성 관리부320 : BIFS 노드 정보 처리부310: BIFS generation management unit 320: BIFS node information processing unit
330 : BIFS 생성 규칙 제공부331 : 장면트리 생성규칙 정보330: BIFS generation rule provider 331: Scene tree generation rule information
332 : 객체 기술자 생성규칙 정보333 : 라우트 정보 생성규칙 정보332: object descriptor generation rule information 333: route information generation rule information
이러한 목적을 달성하는 본 발명의 MPEG-4 컨텐츠의 BIFS 생성 방법의 일측면에 의하면, MPEG-4 컨텐츠를 표현하는 BIFS 기술언어를 생성하는 방법에 있어서,저작자의 아이콘 드래그-앤-드롭 의해 아이콘의 편집 위치가 입력되는 경우, 상기 편집 위치에 해당 아이콘에 상응하는 MPEG-4 시청각 객체를 배치하여 MPEG-4 장면의 편집을 수행하고, 그 편집된 MPEG-4 장면의 재생장면을 저작 시에 미리 보여주어 시각적으로 MPEG-4 장면을 저작하는 시각 장면 저작 단계와, 시각 장면 저작 단계에서 저작된 MPEG-4 장면을 구성하는 모든 객체의 재생을 위한 초 단위로 시간 분할하기 위한 저작 객체 재생 시간바를 제공하고, 그 저작 객체 재생 시간바의 클릭-앤-드래그에 의해 객체별 재생 시간을 설정하는 시간 정보 저작 단계와, 시간 정보 저작 단계에서 설정된 시간 정보에 대하여 MPEG-4 장면을 동적으로 변화시키는 애니메이션을 저작하기 위해 애니메이션 저작을 여러 단계로 구분하고, 각 단계별로 필요한 대화 상자를 제공해 저작자의 마우스 클릭에 의해 애니메이션 저작에 필요한 정보를 입력하게 하는 다단계 애니메이션 정보 저작 단계와, 각 저작 단계에서 저작된 정보를 기설정된 BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS 생성 단계를 수행한다.According to one aspect of the BIFS generation method of the MPEG-4 content of the present invention that achieves this object, in the method for generating a BIFS description language representing the MPEG-4 content, by dragging and dropping the icon of the author When an edit position is input, the MPEG-4 scene is edited by arranging an MPEG-4 audiovisual object corresponding to the icon at the edit position, and the playback scene of the edited MPEG-4 scene is previewed at the time of authoring. A visual scene authoring step for visually authoring an MPEG-4 scene, and an authoring object playback timebar for time division into seconds for playback of all objects constituting the MPEG-4 scene authored in the visual scene authoring step; The time information authoring step of setting the playback time for each object by click-and-drag of the authoring object playback time bar, and the time information set in the time information authoring step To author animations that dynamically change MPEG-4 scenes, multi-stage animation information that separates the animation authoring into several stages, and provides the necessary dialog boxes for each step to input the information required for authoring the animation by the mouse click of the author. An authoring step and a BIFS generation step of generating a BIFS description language corresponding to the BIFS node information and the BIFS scene generation rule preset with the information authored in each authoring step are performed.
또한, 본 발명의 MPEG-4 컨텐츠의 BIFS 생성 시스템의 일측면에 의하면, MPEG-4 컨텐츠를 표현하는 BIFS 기술언어를 생성하는 시스템에 있어서, 시각적으로 장면을 저작하는 장면 저작과 초 단위 시간 분할 환경과 클릭-앤-드래그 방식을 사용해 각 객체별 재생 시간을 설정하는 시간 저작과, 다단계 대화 방식을 사용한 애니메이션 저작을 수행하여 MPEG-4 컨텐츠를 저작 편집하여 저작정보를 생성하는 직관적 편집부와, 직관적 편집기에 생성된 저작된 정보에 대하여 기설정된 BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS생성부와, 직관적 편집부에 생성된 저작정보 및 BIFS생성부에서 생성된 BIFS생성정보를 저장하는 저장부를 포함하여 구성된다.In addition, according to one aspect of the BIFS generation system of MPEG-4 content of the present invention, in the system for generating a BIFS description language representing MPEG-4 content, a scene authoring and a time division environment in seconds to visually author the scene Intuitive editor that creates copyright information by authoring and editing MPEG-4 content by using authoring and click-and-drag method to set playback time for each object, and authoring animation using multi-level interactive method, and intuitive editor For BIFS node information and BIFS scene creation rules, the BIFS generator generates a BIFS description language, and the author information created in the intuitive editor and the BIFS generator generated by the BIFS generator. It comprises a storage unit for storing.
또한, 본 발명의 MPEG-4 컨텐츠의 BIFS 생성 방법을 수행하기 위한 기록매체의 일측면에 의하면, MPEG-4 컨텐츠를 표현하는 BIFS 기술언어를 생성하는 방법을 수행하기 위하여 디지털 처리장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 디지털 처리장치에 의해 판독될 수 있는 기록 매체에 있어서, 저작자의 아이콘 드래그-앤-드롭 의해 툴박스에서 선택되는 MPEG-4 시청각 객체에 해당하는 아이콘의 배치에 상응하여 MPEG-4 장면의 편집을 수행하고, 그 편집된 MPEG-4 장면의 재생장면을 저작 시에 미리 보여주어 시각적으로 MPEG-4 장면을 저작하는 시각 장면 저작 단계와, 시각 장면 저작 단계에서 저작된 MPEG-4 장면을 구성하는 모든 객체의 재생을 위한 초 단위로 시간 분할하기 위한 저작 객체 재생 시간바를 제공하고, 그 저작 객체 재생 시간바의 클릭-앤-드래그에 의해 객체별 재생 시간을 설정하는 시간 정보 저작 단계와, 시간 정보 저작 단계에서 설정된 시간 정보에 대하여 MPEG-4 장면을 동적으로 변화시키는 애니메이션을 저작하기 위해 애니메이션 저작을 여러 단계로 구분하고, 각 단계별로 필요한 대화 상자를 제공해 저작자의 마우스 클릭에 의해 애니메이션 저작에 필요한 정보를 입력하게 하는 다단계 애니메이션 정보 저작 단계와, 각 저작 단계에서 저작된 정보를 기설정된BIFS 노드 정보 및 BIFS 장면 생성 규칙에 상응하여 BIFS 기술언어를 생성하는 BIFS 생성 단계를 포함한다.In addition, according to one aspect of the recording medium for performing the BIFS generation method of MPEG-4 content of the present invention, it can be executed by the digital processing apparatus to perform the method for generating a BIFS description language representing MPEG-4 content. In a recording medium tangibly embodied and readable by a digital processing device, the arrangement of icons corresponding to MPEG-4 audiovisual objects selected in the toolbox by dragging and dropping the author's icons Correspondingly, an MPEG-4 scene is edited, and a visual scene authoring step of visually authoring an MPEG-4 scene by showing the reproduction scene of the edited MPEG-4 scene in advance at the authoring, and authoring at the visual scene authoring step Provides an authoring object playback time bar for time division into seconds for the playback of all objects composing the composed MPEG-4 scene. Animation authoring for authoring animations that dynamically change MPEG-4 scenes with respect to the time information set in the time information authoring step and time information authoring step for setting the playback time for each object by click-and-drag of the playback time bar. Multi-level animation information authoring step that divides into several steps, and provides necessary dialog box for each step and inputs necessary information for animation authoring by mouse click of author, and BIFS node information which pre-sets information authored in each authoring step And a BIFS generation step of generating a BIFS description language according to the BIFS scene generation rule.
이하, 첨부한 도면을 참조하여 본 발명을 상세히 설명하도록 하자.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명에 따른 MPEG-4 컨텐츠 저작을 위한 BIFS 기술언어 작성 시스템의 블록 구성도이다. 도 2를 참조하면 본 발명에 따른 MPEG-4 컨텐츠 저작을 위한 BIFS 기술언어 작성 시스템은 직관적 편집기(100), 저장부(200), BIFS생성기(300)를 포함하여 구성될 수 있다.2 is a block diagram of a BIFS description language creation system for authoring MPEG-4 content according to the present invention. Referring to FIG. 2, the BIFS description language writing system for authoring MPEG-4 content according to the present invention may include an intuitive editor 100, a storage unit 200, and a BIFS generator 300.
직관적 편집기(100)는 저작자에게 직관적인 MPEG-4 컨텐츠 저작 환경을 제공하여 저작된 데이터를 편집관리하며, 장면 저작부(110), 시간 저작부(120), 애니메이션 저작부(130), 편집관리부(140), 아이콘부(150)를 포함하여 구성된다.The intuitive editor 100 provides authors with an intuitive MPEG-4 content authoring environment to edit and author the authored data, scene authoring unit 110, time authoring unit 120, animation authoring unit 130, and editing management unit. 140, the icon unit 150 is configured.
장면 저작부(110)는 아이콘의 드래그-앤-드롭, WYSIWYG ( What You See Is What You Get ) 방식을 지원하는 MPEG-4장면을 시각적으로 저작하는 기능을 수행한다. 장면 저작은 툴박스에서 MPEG-4 시청각 객체에 해당하는 아이콘을 찾아 편집기 상에 배치함으로서 이루어지며, 저작 시에 보여지는 내용은 실행시 MPEG-4 재생기에서 보여지는 내용과 동일하다.The scene authoring unit 110 performs a function of visually authoring an MPEG-4 scene supporting drag-and-drop of icons and WYSIWYG (What You See Is What You Get) method. Scene authoring is done by finding the icon corresponding to the MPEG-4 audiovisual object in the toolbox and placing it on the editor. The content shown in the authoring is the same as the content shown in the MPEG-4 player.
시간 저작부(120)는 MPEG-4 컨텐츠를 이루는 미디어 객체에 대한 시간 저작을 수행하는 것으로, 초 단위 시간 분할 환경을 사용해 객체별 재생 시간을 설정한다. 시간 분할 환경은 예를 들면, N행 M+1열로 구성될 수 있으며, 여기에서 N은 컨텐츠를 이루는 미디어 객체의 개수이고, 1열은 미디어 객체 식별자, 나머지M개의 열은 해당 객체에 대한 초단위 재생 시간을 설정하기 위해 분할된 공간이다. 각 객체에 대해 생성된 디폴트 시간 값이 바(bar)로 표현되며, 저작자는 클릭-앤-드래그 방식으로 시간 값을 확대 또는 축소한다.The time authoring unit 120 performs time authoring on media objects constituting MPEG-4 content, and sets a playback time for each object using a time division environment in seconds. For example, a time division environment may consist of N rows M + 1 columns, where N is the number of media objects that make up the content, one column is the media object identifier, and the remaining M columns are in seconds for that object. It is a space divided to set the playback time. The default time value generated for each object is represented by a bar, and the author enlarges or reduces the time value in a click-and-drag manner.
애니메이션 저작부(130)는 MPEG-4 장면의 동적 변화를 제공하는 다단계 대화 방식을 사용한 키프레임 애니메이션 저작을 수행한다. MPEG-4는 시간 또는 사용자 이벤트에 대한 컨텐츠의 변화를 키프레임 애니메이션 기법으로 표현한다. 본 발명은 그러한 키프레임 애니메이션을 쉽게 저작하기 위해 애니메이션 저작을 여러 단계로 나뉘고, 각 단계별로 대화 상자를 제공해 저작자는 마우스 클릭만으로 애니메이션 저작에 필요한 정보를 입력한다.The animation authoring unit 130 performs keyframe animation authoring using a multi-level interactive method of providing dynamic change of an MPEG-4 scene. MPEG-4 expresses the change of content with respect to time or user event by keyframe animation technique. In order to easily author such keyframe animation, the present invention divides the animation authoring into several steps, and provides a dialog box for each step, and the author inputs the information necessary for authoring the animation with only a mouse click.
직관적 저작 환경은 장면 저작부(110)에 의한 장면 저작 공간과 시간 저작부(120)에 의한 시간 저작 공간, 애니메이션 저작부(130)에 의한 애니메이션 저작 공간으로 이루어진다.The intuitive authoring environment includes a scene authoring space by the scene authoring unit 110, a temporal authoring space by the time authoring unit 120, and an animation authoring space by the animation authoring unit 130.
아이콘부(150)는 이들 공간에 저작되는 미디어 객체와 그들 속성 지정을 돕는 인터페이스 역할을 수행하는 아이콘을 각 저작 공간에 제공한다.The icon unit 150 provides each authoring space with an icon that serves as an interface for assisting media objects authored in these spaces and their attributes.
장면은 오디오, 비디오, 이미지, 그래픽스, 텍스트 등의 미디어 객체로 구성된 MPEG-4 컨텐츠에서 미디어 객체들이 화면 상에 배치된 내용을 일컫는 것이다.A scene refers to content in which media objects are arranged on a screen in MPEG-4 content composed of media objects such as audio, video, image, graphics, and text.
장면 저작부(110)에 의해 제공되는 장면 저작 공간은 컨텐츠의 장면을 구성하기 위해 필요한 비주얼 미디어 객체에 대한 아이콘을 선택해서 드래그-앤-드랍 방식으로 나열하고, 오디오 객체에 대해 숨겨진 아이콘 형태로 첨가할 수 있는 시각 저작을 제공한다.The scene authoring space provided by the scene authoring unit 110 selects, drag-and-drops, icons for visual media objects required for composing a scene of the content, and adds them in a hidden icon form for audio objects. Provide visual work that can be done.
시간 저작부(120)에 의해 제공되는 시간 저작 공간은 장면 저작 공간에 나열된 미디어 객체들에 대해 재생 시작과 종료 시간을 설정할 수 있다.The time authoring space provided by the time authoring unit 120 may set playback start and end times for media objects listed in the scene authoring space.
애니메이션 저작부(130)에 의해 제공되는 애니메이션 저작 공간은 각 객체에 대해 마우스와 시간 이벤트 발생에 따른 장면의 변화를 키프레임 애니메이션으로 제공하기 위한 정보를 저작하는 공간으로 애니메이션 내용에 따라 여러 단계의 과정을 밟는 대화형 환경을 가진다.The animation authoring space provided by the animation authoring unit 130 is a space for authoring information for providing a keyframe animation of a scene change according to the occurrence of a mouse and a time event for each object. Have an interactive environment to tread on.
편집 관리부(140)는 각 저작환경에서 발생한 윈도우 이벤트를 처리하여 저작 환경에 반영하여 사용자에게 작업한 내용을 알리고, 저작된 내용을 저작 정보(210)에 저장한다.The editing management unit 140 processes the window events generated in each authoring environment, reflects the work to the user by reflecting the authoring environment, and stores the authored content in the authoring information 210.
저장부(200)는 직관적 편집기(100)에 의해 생성된 저작정보(210)와 BIFS 생성기(300)에 의해 생성된 BIFS 정보(220)를 저장한다.The storage unit 200 stores the authoring information 210 generated by the intuitive editor 100 and the BIFS information 220 generated by the BIFS generator 300.
저작 정보(210)는 저작 객체 정보(211), 그룹/계층 정보(212), 애니메이션 정보(213)로 나뉜다. 저작 객체는 컨텐츠 저작에 사용되는 다양한 타입의 미디어 객체에 대해 모든 속성 정보를 저장하는 객체를 의미하며, 미디어 객체가 저작 화면에 장면 저작 공간에 표현될 때, 저작 객체에 대한 인스턴스를 생성하여 저작 객체 정보(211)에 저장한다. 그룹/계층 정보(212)는 객체들의 그룹 관계를 저장하는 것으로서, 물리적인 여러 미디어 객체를 모아 논리적인 의미를 가지게 할 때와 동일한 좌표계를 사용하는 미디어 객체 집합을 표현할 때 그룹이 형성된다. 애니메이션 정보(213)는 사용자가 설정한 마우스와 시간 이벤트에 대해 발생한 애니메이션 정보를 담고 있다.Authoring information 210 is divided into authoring object information 211, group / hierarchical information 212, and animation information 213. An authoring object refers to an object that stores all property information for various types of media objects used for authoring content. When a media object is represented in a scene authoring space on an authoring screen, an authoring object is created by creating an instance of the authoring object. The information 211 is stored. The group / hierarchical information 212 stores group relationships of objects, and groups are formed when representing a set of media objects using the same coordinate system as when a plurality of physical media objects are collected to have a logical meaning. The animation information 213 contains animation information generated for the mouse and time events set by the user.
BIFS 정보(220)는, 저작된 장면을 트리로 구성하는 장면 트리 BIFS정보(221)와, 트리에 포함된 이미지, 비디오, 오디오 미디어 객체에 대해서는 객체 데이타에 대한 위치와 인코딩, 디코딩에 필요한 정보를 담아두는 객체 기술자 BIFS정보(222)와, 사용자가 정의한 애니메이션 정보에 대해 상기 장면 트리 내의 노드와 필드 사이의 연결 관계를 정의하는 라우트 BIFS 정보(223)를 포함하게 된다.The BIFS information 220 includes scene tree BIFS information 221 constituting the authored scene as a tree, and information necessary for the location, encoding, and decoding of object data on image, video, and audio media objects included in the tree. The object descriptor BIFS information 222 to be stored and the route BIFS information 223 defining a connection relationship between a node and a field in the scene tree with respect to animation information defined by a user are included.
BIFS 생성기(300)는 직관적 편집기(100)에서 직관적으로 저작된 내용을 BIFS 기술 언어로 구성한다. MPEG-4는 컨텐츠를 구성하는 여러 미디어의 관계와 속성을 BIFS 기술 언어로 표현하고, 이를 실제 미디어 데이타와 혼합함으로서 생성된다. BIFS 기술 언어는 미디어의 기본 속성과 미디어 사이의 관계를 표현하기 위한 노드와 필드를 정의하고 있으며, 그 구조의 복잡성으로 인해 습득하는데 많은 시간을 요구한다. 즉, BIFS 생성 규칙을 미리 정의하고, 이를 사용해 저작한 정보를 BIFS 기술 언어로 생성한다.The BIFS generator 300 configures a content intuitively created in the intuitive editor 100 in a BIFS description language. MPEG-4 is created by expressing relations and attributes of various media constituting contents in BIFS description language and mixing them with actual media data. The BIFS description language defines nodes and fields to express the basic attributes of media and the relationship between media, and the complexity of the structure requires a lot of time to learn. In other words, the BIFS generation rules are defined in advance, and the authored information is generated in the BIFS description language.
이를 위해, 저장부(200)로부터 저작 정보(210)를 받아와서 BIFS 기술언어를 생성하여 저장부(200)에 텍스트 스크립트 형태의 BIFS(220)로 저장한다. BIFS 생성기(300)는 BIFS 생성 관리기(310), BIFS 노드 정보 처리부(320), BIFS 생성 규칙 정보 처리부(330)로 구성된다.To this end, the authoring information 210 is received from the storage unit 200 to generate a BIFS description language and stored in the storage unit 200 as a BIFS 220 in the form of a text script. The BIFS generator 300 includes a BIFS generation manager 310, a BIFS node information processing unit 320, and a BIFS generation rule information processing unit 330.
BIFS 생성 관리기(310)는 저작 정보(210)를 해석해서 미리 정의된 BIFS 생성 규칙(330)에 따라 BIFS 노드(310)를 조합하여 텍스트 형태의 BIFS 코드를 생성한다.The BIFS generation manager 310 interprets the authoring information 210 and generates the BIFS code in text form by combining the BIFS nodes 310 according to the predefined BIFS generation rule 330.
BIFS 노드 정보 처리부(320)는 저작정보에 대하여 장면 트리를 형성하는 각 노드정보를 생성하며, MPEG-4 Part1 System에 정의된 노드를 바탕으로 BIFS 생성에필요한 메소드들이 첨가되었다.The BIFS node information processing unit 320 generates each node information that forms a scene tree with respect to the authoring information, and methods necessary for generating BIFS are added based on nodes defined in the MPEG-4 Part1 System.
BIFS 생성 규칙 정보 처리부(330)는 저장부(200)에 저장된 저작정보(210)를 BIFS 기술언어로 변환하기 위한 BIFS 규칙 정보를 제공한다.The BIFS generation rule information processing unit 330 provides BIFS rule information for converting the authoring information 210 stored in the storage unit 200 into a BIFS description language.
BIFS는 저작된 장면을 트리로 구성해서 표현하며, 트리에 포함된 이미지, 비디오, 오디오 미디어 객체에 대해서는 객체 데이타에 대한 위치와 인코딩, 디코딩에 필요한 정보를 담아두는 객체 기술자를 필요로 한다. 또한, 사용자가 정의한 애니메이션 정보에 대해 장면 트리 내의 노드와 필드 사이의 연결 관계를 정의하는 라우트 정보도 포함한다.BIFS presents the authored scene as a tree. For image, video, and audio media objects included in the tree, an object descriptor is needed that contains the information needed to locate, encode, and decode the object data. It also includes route information that defines the connection between nodes and fields in the scene tree for user-defined animation information.
따라서, BIFS 생성 규칙 정보 제공부(330)에서는 장면 트리 생성 규칙 정보(331), 객체 기술자 생성 규칙 정보(332), 라우트 정보 생성 규칙 정보(333)를 정의하여 제공한다.Accordingly, the BIFS generation rule information providing unit 330 defines and provides the scene tree generation rule information 331, the object descriptor generation rule information 332, and the route information generation rule information 333.
장면 트리 생성 규칙 정보(331)는 저작된 장면을 트리로 구성하는 장면 트리 생성 규칙이며, 객체 기술자 생성 규칙 정보(332)는 트리에 포함된 이미지, 비디오, 오디오 미디어 객체에 대해서는 객체 데이타에 대한 위치와 인코딩, 디코딩에 필요한 정보를 담아두는 객체 기술자 생성 규칙이며, 라우트 정보 생성 규칙 정보(333)는 사용자가 정의한 애니메이션 정보에 대해 상기 장면 트리 내의 노드와 필드 사이의 연결 관계를 정의하는 라우트 생성 규칙이 된다.The scene tree generation rule information 331 is a scene tree generation rule constituting the authored scene as a tree, and the object descriptor generation rule information 332 is a position for the object data for image, video, and audio media objects included in the tree. And the object descriptor generation rule that contains information necessary for encoding and decoding, and the route information generation rule information 333 includes a route generation rule that defines a connection relationship between nodes and fields in the scene tree for animation information defined by a user. do.
도 3a 및 도 3b는 본 발명에 따른 MPEG-4 장면 저작 흐름도이다. 도 3a 및 도 3b를 참조하여 직관적 저작 환경의 MPEG-4 장면 저작 환경과 장면에 포함되는 미디어 객체에 대한 재생 시간 저작에서 발생한 이벤트 처리 과정을 설명하도록 하자.3A and 3B are a flowchart of an MPEG-4 scene authoring according to the present invention. Referring to FIGS. 3A and 3B, an event processing process occurring in a play time authoring for an MPEG-4 scene authoring environment of an intuitive authoring environment and a media object included in a scene will be described.
먼저, 사용자가 발생시킨 이벤트를 입력받는 경우(S101) 이벤트가 발생한 저작 환경을 구분한다(S102,S121). 즉, 장면 저작 환경에서 발생했는지 시간 저작환경에서 발생했는지 그 여부를 판단한다.First, when receiving an event generated by the user (S101), the authoring environment in which the event occurs is distinguished (S102, S121). That is, it is determined whether or not it occurred in the scene authoring environment or in the time authoring environment.
장면 저작 환경에서 발생한 이벤트일 경우에는 미디어 객체 삽입, 속성 설정, 그룹 설정 이벤트 발생의 여부를 다시금 판단하여(S103,S111,S115) 각 경우에 대해 필요한 이벤트 처리 루틴이 실행된다. 즉, 미디어 객체 삽입 이벤트의 판단결과(S103) 미디어 삽입 이벤트일 경우에는 오디오, 비디오, 이미지, 기하객체, 텍스트 등의 미디어 타입을 확인하여(S104) 해당 미디어에 대한 저작 객체를 생성할 준비를 한다. 그리고, 스크린 상에서 사용자의 마우스 드래깅 영역을 입력 받아 현재 선택된 미디어가 차지할 크기, 공간 위치를 결정한다(S105). 그 결정된 크기 및 위치가 미디어 객체가 차지할 영역이 유효한지의 여부를 판단하여(S106) 유효한 경우에는 미디어 타입에 해당하는 객체를 생성하고(S107) 속성을 초기화 한 후(S108), 시간 저작 공간에 생성된 저작 객체의 기본 재생 시간을 설정해서 디스플레이 한다(S109). 속성 설정 이벤트일 경우(S111), 이벤트가 발생한 시점에 존재하는 객체를 확인하여(S112) 해당 객체에 맞는 속성 설정 대화 상자를 제공한다(S113). 대화 상자에 설정된 내용으로 사용자가 갱신하기를 원할 경우, 저작 객체의 속성을 갱신한다(S114).In case of an event occurring in the scene authoring environment, it is determined again whether a media object insertion, property setting, or group setting event occurs (S103, S111, S115), and necessary event processing routines are executed in each case. That is, in the case of the media insertion event (S103), in the case of the media insertion event, the media type such as audio, video, image, geometric object, text, etc. is checked (S104) to prepare to create an authoring object for the media. . Then, the mouse dragging area of the user is received on the screen to determine the size and space position of the currently selected media to occupy (S105). The determined size and position determine whether the area occupied by the media object is valid (S106), and if it is valid, create an object corresponding to the media type (S107), initialize the attribute (S108), and then A basic playback time of the created authoring object is set and displayed (S109). In the case of the property setting event (S111), the object existing at the time of occurrence of the event is checked (S112) and a property setting dialog box corresponding to the object is provided (S113). If the user wants to update the contents set in the dialog box, the attribute of the authoring object is updated (S114).
한편, 그룹 설정 이벤트인지의 그 여부를 판단하여(S115) 그룹 설정 이벤트의 경우에는, 마우스 입력 크기에 따른 그룹 설정 영역을 구하고(S116), 그 마우스드래깅 영역에 속하는 저작 객체를 추출하여(S117) 그룹을 생성한 후(S118), 저작정보의 그룹계층 저작정보(212)에 저장한다(S119). 이렇게 변경된 내용(S110,S114,S119)은 모두 저작 화면에 표현하여(S120) 사용자에게 WYSIWYG을 제공한다.Meanwhile, by determining whether or not it is a group setting event (S115), in the case of a group setting event, a group setting area according to a mouse input size is obtained (S116), and an authoring object belonging to the mouse dragging area is extracted (S117). After the group is generated (S118), it is stored in the group-layer copyright information 212 of the copyright information (S119). The changed contents (S110, S114, S119) are all expressed on the author screen (S120) to provide the user with WYSIWYG.
한편, 사용자가 발생시킨 이벤트가 시간 저작 환경에서 발생한지의 그 여부를 판단하여(S121) 시간저작 환경에서 발생한 이벤트라면, 마우스의 입력 지점값을 입력받아(S122) 그 입력값을 토대로 재생 시간이 변경되어야 하는 저작 객체를 추출한 후, 다시 저작 객체 재생 시간바(bar)에서 발생되었는지의 여부를 판단하여(S123) 저작 객체 재생 시간바(bar)에서 발생된 경우에는 마우스 드래킹 영역값을 입력받아(S124) 마우스 드래깅 영역값 만큼 재생 시간을 조정하여 저작 객체의 재생 시간 속성을 새로 설정된 내용으로 갱신하고(S125) 화면에 디스플레이한다(S126).On the other hand, it is determined whether the event generated by the user occurred in the time authoring environment (S121). If the event occurred in the time writing environment, the input time value of the mouse is received (S122) and the play time is changed based on the input value. After extracting an authoring object that should be extracted, it is again determined whether or not it is generated in the authoring object playback time bar (S123). S124) The playback time attribute of the authoring object is updated with the newly set contents by adjusting the playback time by the mouse dragging area value (S125) and displayed on the screen (S126).
도 4는 본 발명에 따른 애니메이션 정보 저작 흐름도이다. 도 4를 참조하여 대화형 애니메이션 저작 환경에서 애니메이션 정보를 생성하는 과정을 설명해보자.4 is a flowchart of animation information authoring according to the present invention. Referring to FIG. 4, a process of generating animation information in an interactive animation authoring environment will be described.
사용자가 애니메이션 입력을 위한 메뉴를 선택하는 경우(S201), 애니메이션 정보 입력을 위한 대화 상자를 팝업하여 제공한다(S202). 이 대화 상자는 애니메이션을 유도하는 이벤트 종류 지정 공간, 이벤트가 발생하는 위치 지정 공간(이벤트를 수신하는 객체 지정 공간)과 이벤트에 따라 동적으로 변화해야 하는 객체 지정 공간 및 애니메이션의 내용을 지정하는 공간을 가진다.When the user selects a menu for inputting an animation (S201), a dialog box for inputting animation information is popped up and provided (S202). This dialog box includes the event type designation space that drives the animation, the location designation space where the event occurs (the object designation space that receives the event), the object designation space that must change dynamically according to the event, and the space that specifies the content of the animation. Have
이 대화상자의 입력내용에 따라 이벤트가 발생하는 위치(이벤트를 수신하는객체지정 공간)를 지정하고(S203), 이벤트에 따라 동적으로 변화해야 하는 객체 지정하고(S204), 애니메이션을 유도하는 이벤트 종류를 지정한다(S205).According to the input contents of this dialog box, specify the location where the event occurs (the object designation space that receives the event) (S203), specify the object that needs to change dynamically according to the event (S204), and the event type that induces the animation. To specify (S205).
애니메이션을 유도하는 이벤트에는 사용자 마우스 입력과 특정 시간에 애니메이션을 발생하는 시간 이벤트가 있으며, 애니메이션의 종류는 색상, 위치, 회전, 확대/축소를 지원한다. 하나의 애니메이션에 대해 동일한 종류의 변환 정보를 여러개 삽입할 수도 있다. 생성된 내용은 저작정보의 애니메이션 정보에 저장되며, MPEG-4 BIFS로 바뀔 때 키프레임 애니메이션 지원을 위한 키프레임 정보가 된다. 모든 저작 객체는 이벤트를 수신하는 객체와 이벤트에 따라 동적으로 변화해야 하는 객체가 될 수 있고, 수신 객체와 변화 객체는 동일한 객체일 수도 있다.Events that induce animations include user mouse input and time events that generate animations at specific times. Animation types support color, position, rotation, and zooming. Multiple conversion information of the same type can be inserted for one animation. The generated content is stored in the animation information of the copyrighted information, and becomes the keyframe information for keyframe animation support when the MPEG-4 BIFS is changed. Every authoring object may be an object that receives an event and an object that needs to change dynamically according to the event, and the receiving object and the change object may be the same object.
이에 따라, 발생된 이벤트가 색변경을 요청하는지 그 여부를 판단하여(S206) 색변경이 요청된 경우에는 변경색을 입력하고(S207), 다른 색의 추가 요청여부를 판단하여(S208) 있는 경우에는 요청된 변경색을 입력하고 다른 색의 추가 요청이 없는 경우에는 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장한다(S209).Accordingly, it is determined whether or not the generated event requests a color change (S206). If a color change is requested, a change color is input (S207), and if it is determined whether to request the addition of another color (S208). If the requested change color is input and there is no request for adding another color, the changed information is added to the animation information of the copyrighted information and stored (S209).
한편, 발생된 이벤트가 위치변경을 요청하는지 그 여부를 판단하여(S210) 위치변경이 요청된 경우에는 그 객체의 이동 위치를 입력받고(S211), 다른 위치의 추가 요청여부를 판단하여 있는 경우에는 요청된 위치를 입력받고 그렇지 않은 경우에는 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장한다(S209).On the other hand, if it is determined whether or not the event is requested to change the location (S210) when the location change is requested to receive the movement position of the object (S211), if it is determined whether to request the addition of another location If the requested location is input, otherwise, the changed information is added to the animation information of the copyrighted information and stored (S209).
한편, 발생된 이벤트가 회전을 요청하는지 그 여부를 판단하여(S213) 회전이 요청된 경우에는 그 객체의 회전 각도를 입력받고(S211), 다른 회전 각도의 추가요청여부를 판단하여 있는 경우에는 요청된 회전 각도를 입력받고 그렇지 않은 경우에는 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장한다(S209).On the other hand, if it is determined whether or not the generated event is to request the rotation (S213), if the rotation is requested, the rotation angle of the object is input (S211), if it is determined whether the addition request of the other rotation angle request If the received rotation angle is not received, the changed information is added to the animation information of the copyrighted information and stored (S209).
한편, 발생된 이벤트가 확대 또는 축소를 변경을 요청하지 여부를 판단하여(S216) 확대 또는 축소가 요청된 경우에는 확대 또는 축소비율을 입력받고(S217), 다른 비율의 확대/축소 요청여부를 판단하여 있는 경우에는 요청된 확대/축소 비율을 입력받고 그렇지 않은 경우에는 변경된 정보를 저작정보의 애니메이션 정보에 추가하여 저장한다(S209).On the other hand, it is determined whether or not the event is requested to change the enlargement or reduction (S216), if the enlargement or reduction is requested to receive the enlargement or reduction ratio (S217), it is determined whether to request the enlargement / reduction of the other ratio If so, the requested enlargement / reduction ratio is input. If not, the changed information is added to the animation information of the copyrighted information and stored (S209).
도 5는 본 발명에 따른 BIFS 기술 언어 생성 흐름도이다. 도 5를 참조하여 BIFS 생성기가 직관적 편집기에서 저작한 정보를 BIFS 기술 언어로 생성하는 과정을 설명해 보자.5 is a flow diagram of BIFS description language generation in accordance with the present invention. Referring to FIG. 5, a description will be given of a process in which a BIFS generator generates information written in an intuitive editor in a BIFS description language.
사용자가 저작 환경에서 MPEG-4 BIFS 생성을 요구하는 경우(S301), BIFS 생성 관리기(300)는 저작 정보(210) 중 저작 객체 정보(211)와 그룹/계층 정보(212)를 획득한다(S302). 먼저, 획득한 그룹/계층 정보(212)로 BIFS 장면 트리의 계층 구조를 형성하여 장면 트리의 골격을 생성한다(S303). 골격이 형성된 장면 트리의 말단 노드는 저작 객체가 되며, 저작 객체는 BIFS로 표현되지 않은 상태이다. 따라서, 저작 객체 집합의 모든 객체를 장면 트리에 포함시켰는지의 그 여부를 판단하여(S305) 장면트리에 포함되지 않은 경우 장면 트리에 포함시킬 저작 객체에 대하여 장면 트리 생성 규칙 정보 제공부(330)에서 해당 저작 객체마다 정의된 생성 규칙을 읽어와서(S305) 생성규칙에서 요구하는 필요한 BIFS 노드를 생성하고(S306)) 생성규칙에 따라 BIFS를 조합한 후 장면 트리에 첨가한다(S307). 이렇게 현재 장면트리에 첨가시키는 저작 객체에 대하여 그 저작 객체가 이미지, 비디오, 오디오 객체 인지의 그 여부를 판단하여(S308) 이미지, 비디오, 오디오를 나타내는 객체일 경우, 이들에 대해서는 이들의 물리적 데이타 위치와 인코딩, 디코딩 정보를 나타내는 객체 기술자 생성이 필요하며, 객체 기술자 생성 규칙 정보(332)을 읽어들여(S309) 객체 기술자 규칙에서 요구하는 BIFS 노드를 생성하고(S310) 객체 기술자 생성 규칙에 따라 BIFS 노드를 조합하고(S311) 생성된 객체 기술자 속성 정보를 설정한 후(S312) 모든 저작 객체를 장면 트리에 포함시킨 후(S304), 객체 기술자 BIFS를 저장공간에 저장한다(S313).When the user requests MPEG-4 BIFS generation in the authoring environment (S301), the BIFS generation manager 300 obtains authoring object information 211 and group / hierarchical information 212 of the authoring information 210 (S302). ). First, a hierarchical structure of the BIFS scene tree is formed from the obtained group / hierarchical information 212 to generate a skeleton of the scene tree (S303). The end node of the framed scene tree becomes an authoring object, and the authoring object is not represented in BIFS. Therefore, it is determined whether all objects of the authoring object set are included in the scene tree (S305), and when not included in the scene tree, the scene tree generation rule information providing unit 330 for the authoring objects to be included in the scene tree. Reads the creation rule defined for each author object in step S305, generates the necessary BIFS node required in the generation rule in step S306, and combines BIFS according to the creation rule and adds it to the scene tree in step S307. For the authoring object added to the current scene tree, it is determined whether the authoring object is an image, a video, or an audio object (S308). And object descriptors representing encoding and decoding information are required. The object descriptor generation rule information 332 is read (S309) to generate a BIFS node required by the object descriptor rule (S310), and the BIFS node according to the object descriptor generation rule. After setting the generated object descriptor attribute information (S311) (S312) and including all authoring objects in the scene tree (S304), the object descriptor BIFS is stored in the storage space (S313).
한편, 저작 객체 집합의 모든 객체를 장면 트리에 포함시킨 경우에 BIFS 생성기(300)는 장면 트리 내의 노드의 속성을 설정하고(S314), 저작 정보(210)중 애니메이션 정보(213)를 가져와(S315) 애니메이션 정보를 분석한다(S316). 그리고 그 분석된 정보를 토대로 애니메이션을 수행하기 위해 필요한 노드를 장면 트리에 첨가하고(S317), 라우트 정보를 생성한다(S318). 라우트 정보는 애니메이션을 수행하는 동안 장면 트리 노드 사이의 정보 전달 경로를 나타낸다. 이렇게 생성된 라우트 정보를 라우트 정보 BIFS에 저장한다(S319).Meanwhile, when all objects of the authoring object set are included in the scene tree, the BIFS generator 300 sets attributes of nodes in the scene tree (S314), and obtains animation information 213 from the authoring information 210 (S315). Analyze the animation information (S316). The node necessary to perform the animation is added to the scene tree based on the analyzed information (S317), and route information is generated (S318). Route information represents a path for information transfer between scene tree nodes during animation. The route information thus generated is stored in the route information BIFS (S319).
본 발명에 의하면 드래그-앤-드롭/클릭-앤-드래그/WYSIWYG/다단계 대화 방식을 지원하는 직관적인 저작 환경에서 MPEG-4 컨텐츠를 생성할 수 있음에 따라, 저작자는 복잡한 구조를 가지는 BIFS의 구조를 습득하지 않고도 MPEG-4 컨텐츠를 생성할 수 있어 MPEG-4 컨텐츠 개발을 위해 소비되는 노력을 절감할 수 있으며, MPEG-4 컨텐츠 저작에 대한 경제성과 효율성을 높일 수 있다.According to the present invention, since MPEG-4 content can be generated in an intuitive authoring environment supporting drag-and-drop / click-and-drag / WYSIWYG / multilevel conversation method, the author has a complicated structure of BIFS. MPEG-4 content can be generated without acquiring the contents of the document, which can reduce the effort consumed to develop MPEG-4 content, and increase the economics and efficiency of authoring MPEG-4 content.
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020010065336A KR100620897B1 (en) | 2001-10-23 | 2001-10-23 | method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020010065336A KR100620897B1 (en) | 2001-10-23 | 2001-10-23 | method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20030034410A true KR20030034410A (en) | 2003-05-09 |
KR100620897B1 KR100620897B1 (en) | 2006-09-13 |
Family
ID=29565926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020010065336A KR100620897B1 (en) | 2001-10-23 | 2001-10-23 | method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100620897B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030065001A (en) * | 2002-01-29 | 2003-08-06 | 주식회사 리코시스 | Device of editing MPEG-4 data and Method of the Same |
KR100491956B1 (en) * | 2001-11-07 | 2005-05-31 | 경북대학교 산학협력단 | MPEG-4 contents generating method and apparatus |
KR100682911B1 (en) * | 2004-12-31 | 2007-02-15 | 삼성전자주식회사 | Method and apparatus for MPEG-4 encoding/decoding |
US7808900B2 (en) | 2004-04-12 | 2010-10-05 | Samsung Electronics Co., Ltd. | Method, apparatus, and medium for providing multimedia service considering terminal capability |
KR101027529B1 (en) * | 2009-04-27 | 2011-04-06 | 쏠스펙트럼(주) | Apparatus for editing multi-picture and apparatus for displaying multi-picture |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100261265B1 (en) * | 1997-09-29 | 2000-07-01 | 정선종 | Apparatus for making a web document and method of operating it |
JP2001157153A (en) * | 1999-11-29 | 2001-06-08 | Matsushita Electric Ind Co Ltd | Method for abstracting complication of scene information structure, in scene composed of video and audio objects |
KR20020015190A (en) * | 2000-08-21 | 2002-02-27 | 장일홍 | Method of manufacture for virtual education multimedia teaching materials and it's readable record medium by computer |
KR20020084858A (en) * | 2001-05-02 | 2002-11-13 | (주) 새롬기술 | Server system, service method and recording medium for video-song accompaniment |
KR20020088590A (en) * | 2001-05-18 | 2002-11-29 | (주) 새롬기술 | Server system, service method and recording medium for moving picture puzzle |
-
2001
- 2001-10-23 KR KR1020010065336A patent/KR100620897B1/en not_active IP Right Cessation
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100491956B1 (en) * | 2001-11-07 | 2005-05-31 | 경북대학교 산학협력단 | MPEG-4 contents generating method and apparatus |
KR20030065001A (en) * | 2002-01-29 | 2003-08-06 | 주식회사 리코시스 | Device of editing MPEG-4 data and Method of the Same |
US7808900B2 (en) | 2004-04-12 | 2010-10-05 | Samsung Electronics Co., Ltd. | Method, apparatus, and medium for providing multimedia service considering terminal capability |
KR100682911B1 (en) * | 2004-12-31 | 2007-02-15 | 삼성전자주식회사 | Method and apparatus for MPEG-4 encoding/decoding |
KR101027529B1 (en) * | 2009-04-27 | 2011-04-06 | 쏠스펙트럼(주) | Apparatus for editing multi-picture and apparatus for displaying multi-picture |
Also Published As
Publication number | Publication date |
---|---|
KR100620897B1 (en) | 2006-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hamakawa et al. | Object composition and playback models for handling multimedia data | |
KR100321839B1 (en) | Method and apparatus for integrating hyperlinks in video | |
EP0917715B1 (en) | Time-based media processing system and method | |
JP5059867B2 (en) | Encoding method and apparatus, and decoding method and apparatus | |
US5675753A (en) | Method and system for presenting an electronic user-interface specification | |
US8161452B2 (en) | Software cinema | |
JP3813579B2 (en) | Moving picture editing apparatus, moving picture editing program, computer-readable recording medium | |
US20050071736A1 (en) | Comprehensive and intuitive media collection and management tool | |
US20080010585A1 (en) | Binding interactive multichannel digital document system and authoring tool | |
KR100424677B1 (en) | Apparatus and method for authoring of multi-media contents with object-based interactivity | |
KR20080100434A (en) | Content access tree | |
CN112004137A (en) | Intelligent video creation method and device | |
KR100620897B1 (en) | method and the system for producting BIFSBInary Format for Scenes language for MPEG-4 contents | |
KR100640219B1 (en) | Method and system for providing a collaborative authoring for multimedia presentation using a 3-dimensional spatio-temporal space | |
CN113711575A (en) | System and method for instantly assembling video clips based on presentation | |
KR100491956B1 (en) | MPEG-4 contents generating method and apparatus | |
KR20040041979A (en) | Graphic user interface | |
Cha et al. | MPEG-4 studio: An object-based authoring system for MPEG-4 contents | |
JP2004128570A (en) | Contents creation and demonstration system, and contents creation and demonstration method | |
KR100377966B1 (en) | Authoring system for contents of digital television and its method | |
JP4021449B2 (en) | Moving picture editing method and moving picture editing apparatus | |
KR20030047845A (en) | Apparatus and method for providing data for a carousel | |
KR20120108550A (en) | Method and apparatus for providing richmedia contents authoring | |
JP2001195604A (en) | Method for editing moving picture information | |
KR100414620B1 (en) | Method for authoring a multimedia presentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
J301 | Trial decision |
Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20040924 Effective date: 20060728 |
|
S901 | Examination by remand of revocation | ||
GRNO | Decision to grant (after opposition) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120730 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20130729 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |