KR101377953B1 - method for controlling an object and apparatus for outputting an object - Google Patents

method for controlling an object and apparatus for outputting an object Download PDF

Info

Publication number
KR101377953B1
KR101377953B1 KR1020070055495A KR20070055495A KR101377953B1 KR 101377953 B1 KR101377953 B1 KR 101377953B1 KR 1020070055495 A KR1020070055495 A KR 1020070055495A KR 20070055495 A KR20070055495 A KR 20070055495A KR 101377953 B1 KR101377953 B1 KR 101377953B1
Authority
KR
South Korea
Prior art keywords
scene
node
device sensor
sensor
user event
Prior art date
Application number
KR1020070055495A
Other languages
Korean (ko)
Other versions
KR20080107577A (en
Inventor
시게브 드미트리
이바노프 알렉산더
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020070055495A priority Critical patent/KR101377953B1/en
Publication of KR20080107577A publication Critical patent/KR20080107577A/en
Application granted granted Critical
Publication of KR101377953B1 publication Critical patent/KR101377953B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/25Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with scene description coding, e.g. binary format for scenes [BIFS] compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 장면 제어 방법 및 장면 제어 장치에 관한 것이다. 본 발명은 장면을 제어할 수 있고, 디바이스 센서(device sensor)를 선택할 수 있는 노드를 포함하는 커맨드 스트림을 복호하는 BIFS 복호부, 상기 BIFS 복호부가 표시하는 장면 구성을 나타내고, 사용자 이벤트를 수신하여 출력하는 장면 그래프부, 상기 장면 그래프부가 출력하는 장면에 포함된 디바이스 센서(device sensor) 노드 중 상기 사용자 이벤트에 따라 선택된 센서가 상기 장면에 표시되도록 상기 장면을 합성하는 컴포지터, 상기 컴포지터가 합성하는 장면을 표출시키는 랜더러 및 상기 랜더러가 출력하는 장면을 표시하는 디스플레이부를 포함하는 장면 제어 장치를 제공한다.The present invention relates to a scene control method and a scene control apparatus. The present invention shows a BIFS decoder that decodes a command stream including a node capable of controlling a scene, and selects a device sensor, and a scene configuration displayed by the BIFS decoder, receiving and outputting a user event. A compositor for synthesizing the scene such that a scene selected by the user event among the device sensor nodes included in the scene output by the scene graph unit is displayed on the scene, and the compositor synthesizes the scene graph unit; Provided is a scene control apparatus including a renderer for displaying a scene and a display unit for displaying a scene output by the renderer.

장면, BIFS, 노드, 센서, 디바이스, 선택, 객체 Scene, BIFS, Node, Sensor, Device

Description

장면 제어 방법 및 장면 제어 장치{method for controlling an object and apparatus for outputting an object}Scene control method and apparatus for controlling the scene {method for controlling an object and apparatus for outputting an object}

도 1은 본 발명의 실시예에서 사용될 수 있는 노드 타입을 예시한 도면1 illustrates a node type that may be used in an embodiment of the invention.

도 2는 본 발명에 따른 장면 제어 장치의 일 실시예를 나타낸 도면2 is a view showing an embodiment of a scene control apparatus according to the present invention;

도 3은 본 발명에 따른 장면 제어 방법의 일 실시예를 도시한 도면3 illustrates an embodiment of a scene control method according to the present invention.

도 4는 본 발명에 따른 장면 제어 방법의 다른 일 실시예를 도시한 흐름도4 is a flowchart illustrating another embodiment of a scene control method according to the present invention.

도 5는 본 발명에 따른 장면 제어 방법의 다른 일 실시예를 도시한 흐름도5 is a flowchart illustrating another embodiment of a scene control method according to the present invention.

도 6은 본 발명에 따른 장면 제어 방법의 실시예를 사용한 예를 나타낸 도면6 illustrates an example using an embodiment of a scene control method according to the present invention.

도 7은 본 발명에 따른 장면 제어 방법의 실시예를 사용하여 장면을 탐색하는 다른 예를 개시한 도면7 is a diagram illustrating another example of searching for a scene using an embodiment of a scene control method according to the present invention;

<도면 주요 부분의 부호의 설명><Description of the code of the main part of drawing>

10 : BIFS 복호부10: BIFS Decryptor

20 : 장면 그래프부(scene graph unit)20: scene graph unit

30 : 컴포지터(compositor)30: compositor

40 : 랜더러(renderer)40: renderer

50 : 디스플레이부(display unit)50: display unit

본 발명은 장면 제어 방법 및 장면 제어 장치에 관한 것으로서 보다 상세하게는 멀티미디어 객체를 용이하게 표출할 수 있는 장면 제어 방법 및 장면 제어 장치에 관한 것이다. The present invention relates to a scene control method and a scene control apparatus, and more particularly, to a scene control method and a scene control apparatus capable of easily expressing a multimedia object.

멀티미디어 콘텐트(multimedia content)를 하나 이상의 객체 단위로 기술하고 표출하는 방법이 있다. 예를 들어 MPEG(moving picture experts group)가 채택하는 BIFS(binary format for scenes)는 표출하고자 하는 장면(scene)에 포함된 멀티미디어 객체를 기술할 수 있는 포맷이다. BIFS는 장면에서 비디오/오디오 객체들이 시공간적으로 어떻게 배치되어 있는지를 기술할 수 있다. 그리고, BIFS는 객체의 움직임과 사용자가 객체를 조절할 경우 객체의 응답을 기술할 수 있는데, 그 객체들의 응답은 이벤트를 발생시킬 수 있는 센서들에 의해 또는 이벤트의 소스(source)와 타켓(target)을 따른 루트(route)에 의해 BIFS format으로 표현될 수 있다. There is a method of describing and displaying multimedia content in units of one or more objects. For example, the binary format for scenes (BIFS) adopted by the moving picture experts group (MPEG) is a format for describing multimedia objects included in a scene to be displayed. BIFS can describe how video / audio objects are placed in space and time in a scene. In addition, BIFS can describe the movement of an object and the response of the object when the user adjusts the object, and the response of the object is either by the sensors that can generate the event or by the source and target of the event. It can be expressed in BIFS format by route along.

MPEG-4에 의해 기술된 장면이나, VRML(virtual reality modeling language)을 사용하여 나타낸 장면을 사용자가 제어할 경우 일반적으로 2차원 장면에 대해서는 마우스(mouse) 등을 사용하고, 3차원 장면에 대해서는 완드(wand) 등의 장치를 사용한다. 즉, 일반적으로 장면상의 객체를 제어할 경우 객체를 지적할 수 있는 포인팅 디바이스(pointing device)가 사용된다. When a user controls a scene described by MPEG-4 or a scene represented using a virtual reality modeling language (VRML), a mouse is generally used for a two-dimensional scene and a wand for a three-dimensional scene. Use devices such as (wand). That is, in general, when controlling an object in a scene, a pointing device capable of pointing to the object is used.

BIFS는 객체 탐색을 위한 포인팅 디바이스(pointing device)에 대해 기술할 수 있다. 그러나, 많은 장치들은 포인팅 디바이스를 가지고 있지 않아서, MPEG-4 장면을 탐색할 경우 사용자는 버튼(button)이나 조이스틱(joystick)만 등의 제한된 장치만으로 장면을 탐색해야 하는 문제점이 있다. 또한, 다수의 포인팅 디바이스(pointing device)를 구비한 장치에서 장면을 구성하는 객체를 선택하는 경우에도 어느 포인팅 디바이스 센서가 활성화되어 있는지 사용자에게 표시되지 않는 문제점이 있다. BIFS may describe a pointing device for object navigation. However, many devices do not have a pointing device, so when searching for an MPEG-4 scene, the user has to search the scene using only a limited device such as a button or a joystick. In addition, even when an object constituting a scene is selected in a device having a plurality of pointing devices, there is a problem in which the pointing device sensor is not displayed to the user.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 객체를 용이하게 선택하고, 제어하여 장면 제어에 용이한 장면 제어 방법 및 장면 제어 장치를 제공하는 것이다. SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a scene control method and a scene control apparatus which are easy to control a scene by easily selecting and controlling an object.

한 관점에서 본 발명은 디바이스 센서(device sensor)를 선택할 수 있는 노드를 포함하는 스트림(stream)을 수신하여 복호하는 단계 및 상기 복호한 스트림 중 상기 디바이스 센서 노드에 따라, 장면 표출시 설정된 디바이스 센서의 선택 영역이 장면에 표시되는 단계를 포함하는 장면 제어 방법을 제공한다.According to an aspect of the present invention, there is provided a method of receiving and decoding a stream including a node capable of selecting a device sensor, and according to the device sensor node of the decoded stream, It provides a scene control method comprising the step of displaying the selection area in the scene.

또한, 본 발명은 사용자로부터 디바이스 센서(device sensor)를 선택하는 사용자 이벤트를 수신하는 단계 및 디바이스 센서를 선택할 수 있는 노드로부터 상기 사용자 이벤트에 따른 디바이스 센서를 선택하고, 상기 선택된 디바이스 센서의 포커스(focus) 영역을 표시하는 단계를 포함하는 장면 제어 방법을 제공한다.The present invention also provides a method of receiving a user event for selecting a device sensor from a user and selecting a device sensor according to the user event from a node capable of selecting the device sensor, and focusing the selected device sensor. Provides a scene control method comprising the step of displaying the area.

또한, 본 발명은 사용자로부터 디바이스 센서를 활성화시키는 사용자 이벤트 를 수신하는 단계 및 디바이스 센서(device sensor)를 선택할 수 있는 노드로부터 상기 사용자 이벤트에 따른 디바이스 센서를 활성화시키고, 상기 활성화된 디바이스 센서의 활성 영역을 표시하는 단계를 포함하는 장면 제어 방법을 제공한다.In addition, the present invention is to receive a user event for activating the device sensor from the user and to activate the device sensor according to the user event from the node that can select the device sensor (device sensor), the active area of the activated device sensor It provides a scene control method comprising the step of displaying.

또 다른 관점에서 본 발명은 장면을 제어할 수 있고, 디바이스 센서(device sensor)를 선택할 수 있는 노드를 포함하는 커맨드 스트림을 복호하는 BIFS 복호부(binary format for scenes decoder), 상기 BIFS 복호부가 표시하는 장면 구성을 나타내고, 사용자 이벤트를 수신하여 출력하는 장면 그래프부, 상기 장면 그래프부가 출력하는 장면에 포함된 디바이스 센서(device sensor) 노드 중 상기 사용자 이벤트에 따라 선택된 센서가 상기 장면에 표시되도록 상기 장면을 합성하는 컴포지터, 상기 컴포지터가 합성하는 장면을 표출시키는 랜더러 및 상기 랜더러가 출력하는 장면을 표시하는 디스플레이부를 포함하는 장면 제어 장치를 제공한다.In another aspect, the present invention provides a BIFS decoder for decoding a command stream including a node capable of controlling a scene and selecting a device sensor, wherein the BIFS decoder displays the BIFS decoder. Represents a scene configuration, the scene graph unit for receiving and outputting a user event, and the scene selected so that a sensor selected according to the user event among the device sensor nodes included in the scene output by the scene graph unit is displayed in the scene It provides a scene control device including a compositor to synthesize, a renderer for expressing a scene synthesized by the compositor, and a display unit for displaying the scene output by the renderer.

이하, 본 발명을 구체적으로 실현할 수 있는 본 발명의 실시예를 첨부한 도면을 참조하여 설명한다. Hereinafter, with reference to the accompanying drawings, an embodiment of the present invention that can specifically implement the present invention will be described.

BIFS로 기술된 장면은 그 장면을 구성하는 기본요소인 노드를 포함하는데, 노드 중 사용자가 객체와 상호 작용할 수 있는 노드를 센서 노드(sensor node)라고 한다. 센서 노드는 사용자의 작용에 대해 응답한다. A scene described as BIFS includes a node which is a basic element constituting the scene. Among the nodes, a node that a user can interact with an object is called a sensor node. Sensor nodes respond to user actions.

본 발명의 실시예에 따르면, 포인팅 디바이스 센서들을 통해 객체를 선택하기 위해 새로운 노드 타입(node type)을 사용할 수 있다. 노드 타입은 각 노드의 특성을 나타내는 것으로, 예를 들면, 박스(box), 그룹(group), 사운드(sound), 스팟라이트(spotlight) 등이 노드 타입이 될 수 있다. According to an embodiment of the present invention, a new node type may be used to select an object through pointing device sensors. The node type represents a characteristic of each node. For example, the node type may be a box, a group, a sound, a spotlight, or the like.

도 1은 본 발명의 실시예에서 사용될 수 있는 노드 타입을 예시하는데, 여기서 예시되는 노드는 버튼과 같이 선택 작용에 따라 객체를 선택할 수 있도록 할 수 있는 노드이다. 그리고, 도 1을 포함한 이하의 실시예에서 사용자의 선택 작용에 따라 반응하는 노드를 편의상 NavigationScheme이라고 호칭한다. 1 illustrates a node type that may be used in an embodiment of the present invention, wherein the node illustrated is a node that may enable an object to be selected according to a selection action, such as a button. In the following embodiment including FIG. 1, a node responding according to a user's selection action is referred to as a NavigationScheme for convenience.

도 1에 예시한 노드 타입을 설명하기 위해 각 신택스의 의미를 개시하면, 먼저, eventIn은 논리적 수신 특성을 나타내는 것으로 이벤트 수신을 의미하는 필드이다. First, the meaning of each syntax is described to describe the node type illustrated in FIG. 1. First, eventIn represents a logical reception characteristic and is a field indicating event reception.

이벤트(event)는 한 노드로부터 루트(route)에 의해 다른 노드로 송수신될 수 있는데, 이벤트가 노드들 사이의 상호 작용하면 해당 노드의 필드 값이 바뀔 수 있다. eventOut은 그 신택스가 포함된 노드로부터 어떤 이벤트가 출력되는 속성을 가진다. exposedField는 eventIn을 통해 이벤트를 수신하여 그 값이 바뀌고, 그 값이 바뀔 경우 eventOut을 통해 이벤트를 발생시키는 속성을 가진다. SFBool 필드는 참, 거짓의 논리값을 가지는 필드이다. SFString 및 MFString 필드는 UTF-8 유니버설 캐랙터 세트(universal character set)에 따른 형식의 스트링들을 포함한다. SFString는 하나의(single) 스트링을, MFString은 0 또는 그 이상의 스트링을 나타낸다. An event may be transmitted and received from one node to another node by a route. When an event interacts between nodes, a field value of the corresponding node may be changed. eventOut has an attribute that outputs an event from the node that contains the syntax. The exposedField has an attribute that receives an event through eventIn and changes its value, and generates an event through eventOut when the value changes. The SFBool field has a logical value of true or false. The SFString and MFString fields contain strings in the format according to the UTF-8 universal character set. SFString represents a single string and MFString represents zero or more strings.

노드는 eventIn의 속성에 따른 set_bind과, eventOut속성을 따른 isbound를 포함한다. set_bind 이벤트(event)는 주어진 노드를 스택(stack)의 최상위(top)로 올리거나 스택의 최상위로부터 다른 위치로 옮긴다. set_bind에 대한 eventIn이 참(true)값이면, 노드는 스택의 제일 위로 가고, 거짓(false) 값을 가지면 노드는 스택의 최상위의 위치로부터 벗어난다. The node contains set_bind according to the eventIn attribute and isbound along the eventOut attribute. set_bind event raises a given node to the top of the stack or moves it from the top of the stack to another location. If eventIn for set_bind is true, the node goes to the top of the stack; if it's false, the node deviates from the top of the stack.

isBound 이벤트(event)는 주어진 노드가 1)스택(stack)의 최상위로 움직일 경우, 2) 스택의 최상위로부터 벗어날 경우, 3)스택의 최상위에 위치할 노드에 의해 스택의 최상위로부터 벗어날 경우에 출력되는 이벤트이다. 즉, isBound event는 주어진 노드가 액티브(active) 노드가 되거가, 액티브 노드에 의해 인액티브 노드가 될 경우에 발생한다. The isBound event is output when a given node moves 1) to the top of the stack, 2) moves out of the top of the stack, and 3) moves out of the top of the stack by the node that is to be placed on top of the stack. It is an event. That is, the isBound event occurs when a given node becomes an active node or becomes an inactive node by an active node.

NavigationScheme2D 노드는 포인팅 디바이스 센서(pointing-device sensors)를 통해 선택 버튼의 탐색 특성을 기술하는 정보를 포함하는 노드이다. NavigationScheme2D 노드는 장면의 루트 그룹(root group)에 포함될 수 있고 다수의 NavigationScheme2D 노드가 장면에 포함될 수 있다. The NavigationScheme2D node is a node that contains information describing the navigation characteristics of the selection button via pointing-device sensors. The NavigationScheme2D node can be included in the root group of the scene, and multiple NavigationScheme2D nodes can be included in the scene.

도 1에서 sensors 필드는 선택 기능, 예를 들면 이전-다음(pre-next)을 선택할 수 있는 스킴(scheme)에 따라 작동하는 포인팅 디바이스 센서들의 리스트(list)를 규정할 수 있다. 즉, sensors 필드에 포함된 포인팅 디바이스들은 순환적인 논리과정으로 선택될 수 있어서, 그 리스트에 포함된 포인팅 디바이스 센서들이 순차적이고, 택일적으로 선택될 수 있다.In FIG. 1 the sensors field may define a list of pointing device sensors that operate according to a scheme that can select a selection function, for example pre-next. That is, the pointing devices included in the sensors field may be selected in a cyclical logic process so that the pointing device sensors included in the list may be sequentially and alternatively selected.

initial 필드는 장면에서 객체 탐색을 시작할 경우 초기 포인팅 디바이스 센서를 설정할 수 있다. NavigationScheme2D 노드의 set_bind(eventIn) 필드에 참(true) 값이 설정되면, 센서 노드는 NavigationScheme2D 노드의 스택의 최상위로 올라간다. NavigationScheme2D 노드가 활성될 때 장면 제어 장치의 브라우저(browser)는 NavigationScheme2D 노드의 필드들을 이용해 장면 탐색을 제어할 수 있다. The initial field may set the initial pointing device sensor when the object starts to be searched in the scene. If a value of true is set in the set_bind (eventIn) field of the NavigationScheme2D node, the sensor node moves up the top of the stack of NavigationScheme2D nodes. When the NavigationScheme2D node is activated, the browser of the scene control device may control the scene navigation using the fields of the NavigationScheme2D node.

그리고, set_bind 필드에 거짓(false) 값이 설정되면 NavigationScheme2D 노드는 스택으로부터 제거된다. 즉, NavigationScheme2D 노드가 스택의 최상위에 있다가 벗어날 경우, NavigationScheme2D 노드는 isbound를 통해 false event를 보낸다. 그리고, 스택의 그 다음 노드가 bound가 되고, true event를 발생시킨다.If a false value is set in the set_bind field, the NavigationScheme2D node is removed from the stack. In other words, when a NavigationScheme2D node is at the top of the stack and then leaves, the NavigationScheme2D node sends a false event via isbound. Then, the next node in the stack becomes bound and fires a true event.

도 2는 본 발명에 따른 장면 제어 장치의 일 실시예를 도시한 예이다. 본 발명에 따른 장면 제어 장치의 실시예는 BIFS 복호부(10), 장면그래프부(20), 컴포지터(compositor)(30), 랜더러(renderer)(40) 및 디스플레이부(50)를 포함한다. 2 is an example showing an embodiment of a scene control apparatus according to the present invention. An embodiment of the scene control apparatus according to the present invention includes a BIFS decoder 10, a scene graph unit 20, a compositor 30, a renderer 40, and a display unit 50. .

BIFS 복호부(10)는 BIFS 형식에 따라 전송된 스트림을 복호하여 BIFS 커맨드 스트림(command stream)을 출력할 수 있다. BIFS 커맨드 스트림은 장면 제어 디바이스에 대한 선택 스킴을 정의한 노드를 포함할 수 있다. The BIFS decoder 10 may output a BIFS command stream by decoding the stream transmitted according to the BIFS format. The BIFS command stream may include a node that defines a selection scheme for the scene control device.

장면 그래프부(20)는 BIFS 커맨드 스트림을 수신하여 장면에 포함된 객체와 그 객체의 연결 관계에 대한 정보를 복호할 수 있다. 장면그래프부(20)는 복호한 BIFS 스트림으로부터 장면에 포함된 장면 제어 디바이스에 대한 정보를 출력할 수 있다. 그리고, 장면그래프부(20)는 사용자로부터 선택 스킴에 따른 디바이스 선택 신호를 입력받아 이를 컴포지터(30)로 출력할 수 있다. 즉, 장면 그래프부(20)는 사용자의 디바이스 선택의 변경 이벤트가 없을 경우 초기의 디바이스에 대한 센서를 표시하도록 하는 정보를 출력하고, 사용자의 디바이스 선택 변경 이벤트가 있을 경우, 이에 따른 장면 구성 정보를 컴포지터(30)로 출력한다. 사용자 이벤트는 여러 가지 입력 장치에 의해 발생할 수 있고, 버튼 등의 선택 장치로 입력될 수 있 다.The scene graph unit 20 may receive a BIFS command stream and decode information about an object included in a scene and a connection relationship between the objects. The scene graph unit 20 may output information on the scene control device included in the scene from the decoded BIFS stream. The scene graph unit 20 may receive a device selection signal according to a selection scheme from a user and output the device selection signal to the compositor 30. That is, the scene graph unit 20 outputs information for displaying a sensor for an initial device when there is no change event of the device selection of the user, and, when there is a device selection change event of the user, the scene configuration information according to the scene graph unit 20. Output to compositor 30. The user event may be generated by various input devices and may be input to a selection device such as a button.

컴포지터(30)는 장면그래프부(20)가 복호하는 장면 그래프에 포함된 노드에 따라 장면을 합성할 수 있다. 컴포지터(30)가 장면그래프부(20)로부터 사용자 이벤트에 따른 디바이스 센서에 대한 정보를 수신한 경우, 사용자 이벤트에 따른 디바이스의 활성화 영역 마커(marker)를 객체의 주위 또는 객체 위에 표시하도록 하는 신호를 출력한다. 컴포지터(30)는 사용자 선택에 의한 디바이스 센서가 포커스(focus)하는 객체와 포커스할 수 있는 활성화영역을 출력한다. The compositor 30 may synthesize a scene according to a node included in the scene graph decoded by the scene graph unit 20. When the compositor 30 receives the information about the device sensor according to the user event from the scene graph unit 20, a signal for displaying the active area marker of the device according to the user event around or on the object. Outputs The compositor 30 outputs an object to be focused by a device sensor by a user's selection and an active area that can be focused.

랜더러(40)는 컴포지터(30)가 출력하는 장면을 화면상에 표출하도록 할 수 있다. 따라서, 컴포지터(30)가 출력하는 장면에 설정된 디바이스가 있고, 그 디바이스가 포커스하는 객체가 있을 경우, 랜더러(40)는 그 객체 상에 또는 그 객체의 주위에 마커(marker)를 표시할 수 있다. The renderer 40 may display the scene output by the compositor 30 on the screen. Therefore, when there is a device set in the scene output by the compositor 30, and there is an object that the device focuses on, the renderer 40 can display a marker on or around the object. have.

디스플레이부(50)는 랜더러(40)가 표출하도록 하는 장면을 사용자에게 표출할 수 있다. The display unit 50 may display a scene for rendering the renderer 40 to the user.

장면 내의 디바이스를 선택할 수 있도록 하는 디바이스 센서 노드(NavigationScheme2D)가 포함된 경우, 사용자는 디바이스 선택 이벤트를 장면 그래프부(20)로 출력할 수 있다. 장면 그래프부(20)는 사용자가 출력하는 디바이스 선택 이벤트를 수신하고, 이를 복호하여 컴포지터(30)로 출력할 수 있다. 컴포지터(30)는 장면 그래프부(20)가 출력하는 디바이스 센서 이벤트에 따라 디바이스를 선택할 수 있다. 그리고, 컴포지터(30)는 선택된 디바이스가 제어할 수 있는 객체를 디스플레이부(50)상에 표출하도록 랜더러(40)에 지시하고, 랜더러(40)는 컴포지 터(30)가 출력하는 디바이스 센서가 제어할 수 있는 객체들을 디스플레이부(50)를 통해 표시할 수 있다. When a device sensor node (NavigationScheme2D) for selecting a device in the scene is included, the user may output a device selection event to the scene graph unit 20. The scene graph unit 20 may receive a device selection event output by the user, decode it, and output it to the compositor 30. The compositor 30 may select a device according to a device sensor event output by the scene graph unit 20. The compositor 30 instructs the renderer 40 to display an object that can be controlled by the selected device on the display unit 50, and the renderer 40 outputs a device sensor output by the compositor 30. The objects that can be controlled may be displayed through the display unit 50.

사용자는 선택 스킴에 따라 디바이스 센서에 정의된 디바이스를 변경할 수 있다. 예를 들면 사용자는 전-후 버튼(pre-next) 버튼 등으로 선택한 디바이스를 변경할 수 있다. 사용자가 선택 스킴에 따라 디바이스 변경 이벤트를 출력한 경우, 장면 그래프부(20)는 사용자 이벤트에 따라 변경된 디바이스 센서에 대한 정보를 컴포지터(30)로 출력한다. 예를 들어, 사용자는 선택 버튼에 따라 NavigationScheme2D 노드의 sensor에 정의된 다바이스 센서에 대한 리스트로부터 객체를 제어하기 위한 디바이스 선택을 바꿀 수 있다.The user can change the device defined in the device sensor according to the selection scheme. For example, the user can change the selected device with a pre-next button or the like. When the user outputs the device change event according to the selection scheme, the scene graph unit 20 outputs information on the device sensor changed according to the user event to the compositor 30. For example, the user can change the device selection to control the object from the list for the device sensor defined in the sensor of the NavigationScheme2D node according to the selection button.

컴포지터(30)는 장면 그래프부(20)로부터 디바이스 선택 변경 신호를 수신하고, 리스트 등록된 순서에 따라 이전에 선택된 디바이스를 현재 선택한 디바이스로 변경한다. 그리고, 컴포지터(30)는 포커스된 센서가 영향을 미치는 장면상의 활동 영역을 산출하여 출력하고, 랜더러(40)를 이를 디스플레이부(50)에 표출하도록 한다.The compositor 30 receives the device selection change signal from the scene graph unit 20, and changes the previously selected device to the currently selected device according to the list registration order. Then, the compositor 30 calculates and outputs an active area on the scene that the focused sensor affects, and displays the renderer 40 on the display unit 50.

사용자가 선택 스킴에 따라 선택한 디바이스를 활성화시키는 이벤트를 장면 그래프부(20)로 출력할 수 있다. 예를 들어 사용자는 선택 스킴에 따라 디바이스를 선택하고, 선택한 디바이스가 활성화되도록 OK 버튼 등 지정된 활성화 버튼 등으로 선택한 디바이스가 활성화되도록 하는 이벤트를 출력한다. 장면 그래프부(20)는 이를 수신하여 선택한 장면 제어 디바이스 센서의 활성화를 컴포지터(30)에 알리고, 컴포지터(30)는 랜더러(40)에 선택된 디바이스로 장면의 객체가 선택되도록 할 수 있다. According to the selection scheme, the user may output an event for activating the selected device to the scene graph unit 20. For example, the user selects a device according to the selection scheme, and outputs an event that activates the selected device by using a designated activation button such as an OK button so that the selected device is activated. The scene graph unit 20 may receive the notification of the activation of the selected scene control device sensor to the compositor 30, and the compositor 30 may allow the object of the scene to be selected by the device selected by the renderer 40.

본 발명의 일 실시예는 디바이스 센서(device sensor)를 선택할 수 있는 노드를 포함하는 스트림(stream)을 수신하여 복호하는 단계 및 복호한 스트림 중 상기 디바이스 센서 노드에 따라, 장면 표출시 설정된 디바이스 센서의 선택 영역이 장면에 표시되는 단계를 포함한다. 본 실시예의 구체적인 예시는 도 3에 개시된다.According to an embodiment of the present invention, receiving and decoding a stream including a node capable of selecting a device sensor, and decoding a stream according to the device sensor node of the decoded stream, And the selection area is displayed in the scene. Specific examples of this embodiment are disclosed in FIG. 3.

도 3은 본 발명에 따른 장면 제어 방법의 일 실시예를 도시한 도면이다. 도 3을 참조하여 본 발명에 따른 장면 제어 방법의 일 실시예를 설명하면 다음과 같다. 3 is a diagram illustrating an embodiment of a scene control method according to the present invention. An embodiment of a scene control method according to the present invention will be described with reference to FIG. 3.

먼저, 디바이스 선택 이벤트가 발생하지 않은 경우 장면을 표출하는 방법을 기술하면 다음과 같다. First, a method of expressing a scene when a device selection event does not occur is as follows.

장면 기술상 사용자가 발생시키는 이벤트가 없는 경우 커맨드 스트림을 수신하여 복호한다(S10). 즉, 장면에 포함된 "insert", "delete", "replace", "Update" 등을 포함하는 커맨트 스트림을 복호한다. 수신된 커맨드에 따라 장면이 기술된다(S20). If there is no event generated by the user due to the scene description, the command stream is received and decoded (S10). That is, the command stream including "insert", "delete", "replace", "Update", and the like included in the scene is decoded. The scene is described according to the received command (S20).

그리고, 장면상에 초기의 디바이스 센서에 따른 디바이스가 표시(mark)된다(S30). 초기의 디바이스는, 컴포지터가 디바이스 선택 스킴을 수행하는 노드의 초기 디바이스 센서로부터 설정될 수 있다. 초기 디바이스는 도 1에 설명한 디바이스 선택 스킴을 수행하는 노드의 필드 중 initial 필드에 기술된 이니셜(initial) 센서에 따른 디바이스일 수 있다.Then, the device corresponding to the initial device sensor is marked on the scene (S30). The initial device may be set from the initial device sensor of the node where the compositor performs the device selection scheme. The initial device may be a device according to an initial sensor described in an initial field among fields of a node that performs the device selection scheme described with reference to FIG. 1.

그리고, 컴포지터는 초기 디바이스를 장면의 객체 상에 위치시키고, 이 디바 이스의 영역범위를 산출하여 디바이스 센서가 활동할 수 있는 영역을 결정한다. 컴포지터가 렌더러에게 결정한 영역을 표시하도록 하여 화면상에 표출하도록 할 수 있다(S30). 따라서, 랜더러에 의해 디스플레이되는 장면(scene)은 객체상의 센서의 활동 영역이 표시될 수 있고 장면이 업데이트된다. The compositor then locates the initial device on an object in the scene and calculates the area range of the device to determine the area in which the device sensor can act. The compositor may display the determined area on the renderer so as to display it on the screen (S30). Thus, the scene displayed by the renderer may display the active area of the sensor on the object and the scene is updated.

본 발명의 다른 실시예는 사용자로부터 디바이스 센서(device sensor)를 선택하는 사용자 이벤트를 수신하는 단계 및 디바이스 센서를 선택할 수 있는 노드로부터 상기 사용자 이벤트에 따른 디바이스 센서를 선택하고, 상기 선택된 디바이스 센서의 포커스(focus) 영역을 표시하는 단계를 포함한다. 본 실시예의 구체적인 예시는 도 4에 개시된다.Another embodiment of the present invention is to receive a user event for selecting a device sensor (device sensor) from a user and to select a device sensor according to the user event from a node that can select a device sensor, the focus of the selected device sensor and displaying a (focus) area. Specific examples of this embodiment are disclosed in FIG. 4.

도 4는 본 발명에 따른 장면 제어 방법의 다른 일 실시예를 도시한 흐름도이다. 도 4는 사용자 이벤트에 의해 장면이 표출되는 과정을 예시한다. 여기서 사용자는 선택 버튼, 예를 들면 "pre"-"next" 버튼 등 2개 이상의 선택 사항을 가지는 버튼으로 디바이스 센서를 제어할 수 있다. 4 is a flowchart illustrating another embodiment of a scene control method according to the present invention. 4 illustrates a process of displaying a scene by a user event. Here, the user may control the device sensor with a button having two or more selections, such as a selection button, for example, a "pre"-"next" button.

먼저, 사용자 이벤트가 발생한다(S110). 사용자 이벤트는 "pre"나 "next" 버튼 등으로 방향을 선택하여 디바이스를 선택하는 이벤트를 의미한다. First, a user event occurs (S110). The user event refers to an event of selecting a device by selecting a direction using a "pre" or "next" button.

사용자의 선택에 따라 선택된 디바이스 센서를 표시한다(S120). 센서 표시는 다음과 같다. 현재 포커스(focus)된 있는 디바이스 센서 리스트내에 디바이스의 인덱스 정보에 따라 선택 버튼으로 현재 센서의 앞/뒤(pre/next) 디바이스 센서를 찾고, 이 디바이스 센서가 현재의 디바이스로 포커스되도록 한다. 컴포지터는 장면의 객체들 위에 또는 그 객체들 주위에 이 디바이스 센서의 활동 영역을 산출하고, 랜 더러에게 산출한 디바이스 센서의 영역을 표시하게 하여 장면을 업데이트시킨다(S130).The device sensor selected according to the user's selection is displayed (S120). The sensor display is as follows. The select button finds a pre / next device sensor of the current sensor according to the index information of the device in the currently focused device sensor list, and causes the device sensor to be focused to the current device. The compositor calculates the active area of the device sensor on or around the objects in the scene, and updates the scene by causing the renderer to display the calculated area of the device sensor (S130).

본 발명의 또 다른 실시예는 사용자로부터 디바이스 센서를 활성화시키는 사용자 이벤트를 수신하는 단계 및 디바이스 센서(device sensor)를 선택할 수 있는 노드로부터 상기 사용자 이벤트에 따른 디바이스 센서를 활성화시키고, 상기 활성화된 디바이스 센서의 활성 영역을 표시하는 단계를 포함한다. 본 실시예의 구체적인 예시는 도 5에 개시된다.Another embodiment of the present invention is to receive a user event for activating a device sensor from a user and to activate a device sensor according to the user event from a node capable of selecting a device sensor, and the activated device sensor Marking the active area of the substrate. Specific examples of this embodiment are disclosed in FIG. 5.

도 5는 본 발명에 따른 장면 제어 방법의 다른 일 실시예를 도시한 흐름도이다. 도 5의 예는 사용자가 센서를 선택하는 이벤트를 발생시키는 예를 기술한다.5 is a flowchart illustrating another embodiment of a scene control method according to the present invention. The example of FIG. 5 describes an example of generating an event for a user to select a sensor.

사용자 이벤트가 발생한다(S210). 사용자 이벤트는 디바이스 센서 선택에 따른 디바이스 센서 활성화 이벤트로서, 예를 들면 OK 버튼을 누르는 것이 하나의 예가 될 수 있다.A user event occurs (S210). The user event is a device sensor activation event according to device sensor selection, for example, pressing an OK button may be an example.

그리고, 사용자가 선택한 센서를 활성화시켜 화면상에 표시하도록 하여 장면을 업데이트시킨다(S220). 따라서, 사용자는 초기와 다른 센서로 장면의 객체를 제어할 수 있다. Then, the user updates the scene by activating the sensor selected by the user to display on the screen (S220). Thus, the user can control the object of the scene with a sensor different from the initial one.

도 6은 본 발명에 따른 장면 제어 방법의 실시예를 사용한 예를 나타낸 도면이다. 도 6의 소스 코드는 NavigationScheme 2D 노드를 포함하고(a), NavigationScheme 2D 노드는 도 1에서 설명한 바와 같다. 도 6의 예에서 MPEG 4 장면은 5개의 센서 노드들에 의해 탐색될 수 있도록 정의된다. 5개의 센서 노드들은 Sensor A, Sensor D, Sensor B, Anchor A 및 Sensor C이고, 열거한 순서대로 사용 자에게 선택될 수 있다(b). 그리고, 각 센서 노드들 중 초기에 설정된 센서는 Sensor B이다(initial "SensorB")(c).6 is a view showing an example using an embodiment of a scene control method according to the present invention. The source code of FIG. 6 includes a NavigationScheme 2D node (a), and the NavigationScheme 2D node is as described in FIG. 1. In the example of FIG. 6, the MPEG 4 scene is defined to be searchable by five sensor nodes. The five sensor nodes are Sensor A, Sensor D, Sensor B, Anchor A and Sensor C, and can be selected by the user in the order listed (b). And, among the sensor nodes, the initially set sensor is Sensor B (initial "SensorB") (c).

그리고, 2000ms 후에 AnchorA 노드가 AnchorA노드의 하위의 children 노드들인 SensorC 와 SensorD와 함께 삭제된다(d). 장면을 제어하는 디바이스 센서가 변화되는데, AnchorA 노드가 디바이스 센서 리스트로부터 제거되고, 초기 선택 디바이스 센서는 SensorA로 변화된다. After 2000ms, the AnchorA node is deleted along with the children nodes below the AnchorA node along with SensorC and SensorD (d). The device sensor controlling the scene is changed, the AnchorA node is removed from the device sensor list, and the initial selected device sensor is changed to SensorA.

도 7은 본 발명에 따른 장면 제어 방법의 실시예를 사용하여 장면을 탐색하는 다른 예를 개시한다. 도 7은 스택에 대한 메카니즘과 set_bind 이벤트에 의해 스택을 제어하여 다수의 NavigationScheme 2D 노드들을 이용해 장면을 탐색하는 예를 개시한다. 2000ms 후에 AnchorA 노드가 AnchorA노드의 하위의 children 노드들인 SensorC 와 SensorD와 함께 삭제된다. 도 7에 개시한 예는 도 6의 예와 유사하지만, NavigationScheme 1에 포함되는 센서 노드들을 각각 변경하는 대신 NavigationScheme 1 전부를 NavigationScheme 2로 변경시킬 수 있다(d). 도 7과 같은 예를 통해 복잡한 장면을 제어할 경우에도 탐색 알고리즘이 엉키지 않고, 용이하게 장면을 제어할 수 있다. 7 discloses another example of searching for a scene using an embodiment of a scene control method according to the present invention. FIG. 7 discloses an example of using a plurality of NavigationScheme 2D nodes to navigate a scene by controlling the stack by a mechanism for the stack and a set_bind event. After 2000ms, the AnchorA node is deleted along with its children, SensorC and SensorD, which are children of the AnchorA node. The example disclosed in FIG. 7 is similar to the example of FIG. 6, but instead of changing each sensor node included in NavigationScheme 1, all of NavigationScheme 1 may be changed to NavigationScheme 2 (d). In the example of FIG. 7, even when controlling a complex scene, the search algorithm is not tangled and the scene can be easily controlled.

MPEG-4 장면을 만들고 변화시킬 경우 어떤 센서 노드가 포커스 되는지 할당할 필요가 있다. 장면의 논리적 인지를 쉽게 하기 위해 장면을 만들 경우 어떤 디바이스 센서가 포커스되어 할당될 수 있다. 예로 메뉴 비주얼의 초기 포커스가 장면 제어 장치의 오케이(OK) 버튼으로 설정되고, 사용자는 응답할 수 있다. 2개의 탐색 버튼(pre-next) 버튼을 가진 장치에 대해 포커스 스위칭의 연속을 지시하는 것이 가능하다. 장면 상에서 객체는 키보드(keyboard)나 리모트 콘트롤러(remote controller)의 버튼에 의해 화면상에서 선택될 수 있다. 본 발명에 따른 장면 제어 장치는 방송 수신 장치, 모바일 폰, DMB 스마트 폰, 방송 셋탑 박스, MPEG-4 플레이어 등에 적용될 수 있다.When you create and change an MPEG-4 scene, you need to assign which sensor nodes are focused. When you create a scene to make the logical sense of the scene easier, certain device sensors can be assigned to focus. For example, the initial focus of the menu visual may be set as an OK button of the scene control apparatus, and the user may respond. It is possible to indicate the continuation of focus switching for a device with two pre-next buttons. Objects in the scene can be selected on the screen by buttons on a keyboard or remote controller. The scene control apparatus according to the present invention can be applied to a broadcast receiving device, a mobile phone, a DMB smart phone, a broadcast set-top box, an MPEG-4 player, and the like.

동일한 기술분야의 당업자가 본 특허명세서로부터 본 발명을 변경하거나 변형하는 것은 용이한 것이다. 그래서, 본 발명의 일 실시예가 상기 명확하게 기재되었더라도, 그것을 여러 가지로 변경하는 것은 본 발명의 사상과 관점으로부터 이탈하는 것이 아니며 그 사상과 관점 내에 있다고 해야 할 것이다. It is easy for a person skilled in the same technical field to change or modify the present invention from the present patent specification. Thus, although an embodiment of the present invention has been described above clearly, various modifications thereof should be made without departing from the spirit and the scope of the invention.

상기에서 설명한 본 발명에 따른 장면 제어 방법 및 장면 제어 장치의 효과를 설명하면 다음과 같다. 본 발명에 따른 장면 제어 방법 및 장면 제어 장치에 의하면 객체를 용이하게 선택하고, 제어할 수 있다. The effects of the scene control method and the scene control apparatus according to the present invention described above are as follows. According to the scene control method and the scene control apparatus according to the present invention, an object can be easily selected and controlled.

Claims (17)

디바이스 센서(device sensor)를 선택할 수 있는 제 1 노드를 포함하는 스트림(stream)을 수신하여 복호하는 단계;Receiving and decoding a stream including a first node capable of selecting a device sensor; 상기 복호한 스트림 중 상기 제 1 노드에 따라 디바이스 센서를 설정하는 단계;Setting a device sensor according to the first node of the decoded stream; 상기 디바이스 센서의 영역범위를 산출하고, 상기 디바이스 센서의 활동 영역을 결정하는 단계; 및Calculating an area range of the device sensor and determining an active area of the device sensor; And 상기 결정된 디바이스 센서의 활동 영역이 장면에 표시되는 단계를 포함하는 장면 제어 방법.And displaying the active area of the determined device sensor in a scene. 제 1항에 있어서,The method according to claim 1, 상기 제 1 노드는,The first node, 적어도 하나의 디바이스를 포함하는 디바이스 센서의 리스트 및 상기 리스트 중 장면 표출시 활성화될 수 있는 디바이스 센서를 포함하는 장면 제어 방법.And a list of device sensors including at least one device and device sensors that can be activated when the scene is displayed. 제 1항에 있어서, 상기 제 1 노드는 제 2 노드로 변경되는 것을 특징으로 하는 장면 제어 방법.The method of claim 1, wherein the first node is changed to a second node. 사용자로부터 디바이스 센서(device sensor)를 선택하는 사용자 이벤트를 수신하는 단계;Receiving a user event selecting a device sensor from a user; 디바이스 센서를 선택할 수 있는 제 1 노드로부터 상기 사용자 이벤트에 따른 디바이스 센서를 선택하는 단계;Selecting a device sensor according to the user event from a first node capable of selecting a device sensor; 상기 디바이스 센서의 포커스(focus) 영역을 산출하는 단계; 및Calculating a focus area of the device sensor; And 상기 산출된 디바이스 센서의 포커스(focus) 영역을 표시하는 단계를 포함하는 장면 제어 방법.And displaying the calculated focus area of the device sensor. 제 4항에 있어서,5. The method of claim 4, 상기 표시하는 단계 중 디바이스 센서의 선택은,Selection of the device sensor during the displaying step, 상기 제 1 노드의 디바이스 센서 리스트에 포함된 적어도 하나의 디바이스 센서로부터 선택되는 장면 제어 방법.And at least one device sensor included in the device sensor list of the first node. 제 4항에 있어서,5. The method of claim 4, 상기 사용자 이벤트는,The user event, 선택 스킴(scheme)에 따른 버튼에 의해 발생하는 장면 제어 방법.Scene control method generated by a button according to a selection scheme. 제 4항에 있어서,5. The method of claim 4, 상기 사용자 이벤트는 양방향을 선택하는 버튼에 의해 발생하는 장면 제어 방법.And the user event is generated by a button for selecting a bidirectional direction. 제 4항에 있어서, 상기 제 1 노드는 제 2 노드로 변경되는 것을 특징으로 하는 장면 제어 방법.5. The method of claim 4, wherein the first node is changed to a second node. 사용자로부터 디바이스 센서를 활성화시키는 사용자 이벤트를 수신하는 단계; Receiving a user event activating a device sensor from a user; 디바이스 센서(device sensor)를 선택할 수 있는 제 1 노드로부터 상기 사용자 이벤트에 따른 디바이스 센서를 활성화시키는 단계;Activating a device sensor according to the user event from a first node capable of selecting a device sensor; 상기 디바이스 센서의 활성 영역을 산출하는 단계; 및Calculating an active area of the device sensor; And 상기 활성화된 디바이스 센서의 활성 영역을 표시하는 단계;를 포함하는 장면 제어 방법.And displaying an active area of the activated device sensor. 제 9항에 있어서,10. The method of claim 9, 상기 사용자 이벤트는 지정된 활성화 버튼에 의해 수행되는 장면 제어 방법.And the user event is performed by a designated activation button. 제 7항에 있어서,8. The method of claim 7, 상기 제 1 노드는 적어도 하나의 디바이스를 포함하는 디바이스 센서의 리스트 및 상기 리스트 중 장면 표출시 활성화될 수 있는 디바이스 센서를 포함하는 장면 제어 방법.The first node includes a list of device sensors including at least one device and a device sensor that can be activated when the scene is displayed from the list. 제 9항에 있어서, 상기 제 1 노드는 제 2 노드로 변경되는 것을 특징으로 하는 장면 제어 방법.10. The method of claim 9, wherein the first node is changed to a second node. 장면을 제어할 수 있고, 디바이스 센서(device sensor)를 선택할 수 있는 제 1 노드를 포함하는 커맨드 스트림(command stream)을 복호하는 BIFS 복호부(binary format for scenes decoder);A BIFS decoder (binary format for scenes decoder) for decoding a command stream including a first node capable of controlling scenes and selecting a device sensor; 상기 BIFS 복호부가 표시하는 장면 구성을 나타내고, 사용자 이벤트를 수신하여 출력하는 장면 그래프부;A scene graph unit configured to display a scene configuration displayed by the BIFS decoder and to receive and output a user event; 상기 장면 그래프부가 출력하는 장면에 포함된 제 1 노드 중 상기 사용자 이벤트에 따라 선택된 디바이스 센서가 상기 장면에 표시되도록 상기 장면을 합성하고, 상기 디바이스 센서의 활동 영역을 산출하는 컴포지터(compositor);A compositor configured to synthesize the scene such that a device sensor selected according to the user event among first nodes included in the scene graph unit is displayed on the scene, and calculate an active area of the device sensor; 상기 컴포지터가 합성하는 장면을 표출시키는 랜더러(renderer); 및A renderer for expressing a scene synthesized by the compositor; And 상기 랜더러가 출력하는 장면을 표시하는 디스플레이부를 포함하는 장면 제어 장치.And a display unit for displaying a scene output by the renderer. 제 13항에 있어서,14. The method of claim 13, 상기 제 1 노드는 적어도 하나의 디바이스를 포함하는 디바이스 센서의 리스트 및 상기 리스트 중 장면 표출시 활성화될 수 있는 디바이스 센서를 포함하는 장면 제어 장치.And the first node includes a list of device sensors including at least one device and a device sensor that can be activated when displaying a scene from the list. 제 13항에 있어서,14. The method of claim 13, 상기 사용자 이벤트는 양방향을 선택하는 버튼에 의해 발생하는 장면 제어 장치.And the user event is generated by a button for selecting a bidirectional direction. 제 13항에 있어서,14. The method of claim 13, 상기 사용자 이벤트는 지정된 활성화 버튼에 의해 수행되는 장면 제어 장치.And the user event is performed by a designated activation button. 제 13항에 있어서,14. The method of claim 13, 상기 제 1 노드는 제 2 노드로 변경되는 것을 특징으로 하는 장면 제어 장치.And the first node is changed to a second node.
KR1020070055495A 2007-06-07 2007-06-07 method for controlling an object and apparatus for outputting an object KR101377953B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070055495A KR101377953B1 (en) 2007-06-07 2007-06-07 method for controlling an object and apparatus for outputting an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070055495A KR101377953B1 (en) 2007-06-07 2007-06-07 method for controlling an object and apparatus for outputting an object

Publications (2)

Publication Number Publication Date
KR20080107577A KR20080107577A (en) 2008-12-11
KR101377953B1 true KR101377953B1 (en) 2014-03-25

Family

ID=40367764

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070055495A KR101377953B1 (en) 2007-06-07 2007-06-07 method for controlling an object and apparatus for outputting an object

Country Status (1)

Country Link
KR (1) KR101377953B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110084128A (en) * 2010-01-15 2011-07-21 한국전자통신연구원 Apparatus and method for processing scene
KR102254768B1 (en) * 2020-08-28 2021-05-24 광주과학기술원 Scene Graph Generation apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045400A (en) * 2003-07-24 2005-02-17 Canon Inc Object generating device and method therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045400A (en) * 2003-07-24 2005-02-17 Canon Inc Object generating device and method therefor

Also Published As

Publication number Publication date
KR20080107577A (en) 2008-12-11

Similar Documents

Publication Publication Date Title
EP2815582B1 (en) Rendering of an interactive lean-backward user interface on a television
RU2520353C9 (en) Information processing device and information processing method
CN100544412C (en) Change the method and apparatus that shows time location
JP3786294B2 (en) Image control apparatus and method
US9841883B2 (en) User interfaces for media application
US8176115B2 (en) Real-world representation system and language
CN101341457A (en) Methods and systems for enhancing television applications using 3d pointing
US20210211632A1 (en) Three-dimensional content distribution system, three-dimensional content distribution method and computer program
KR20070093084A (en) Distributed software construction for user interfaces
CN100454220C (en) Control framework with a zoomable graphical user interface for organizing,selecting and launching media items
JP2010219849A (en) Image generation system, program, information storage medium, server system, and content distribution system
CN104333814A (en) Smart television desktop switching method and smart television
KR100916958B1 (en) Display of an arrangement of a panoramic video by applying navigation commands to said panoramic video
CN111625169A (en) Method for browsing webpage by remote controller and display equipment
CN105208425A (en) Remote-control video playing method and device
JP3834849B2 (en) Image control apparatus and method
CN114442872A (en) Layout and interaction method of virtual user interface and three-dimensional display equipment
KR101377953B1 (en) method for controlling an object and apparatus for outputting an object
CN113485626A (en) Intelligent display device, mobile terminal and display control method
JP2007074603A (en) Electronic program guide display device
JP2011130323A (en) Broadcast receiver and control method thereof
JP2008182287A (en) Electronic program guide display device
KR102203951B1 (en) Remote control system
JP6621165B2 (en) Image display device, image display method, and image display program
JP2005018796A (en) Device and method for controlling image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170214

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190214

Year of fee payment: 6