KR100744259B1 - Digital multimedia receiver and method for displaying sensor node thereof - Google Patents

Digital multimedia receiver and method for displaying sensor node thereof Download PDF

Info

Publication number
KR100744259B1
KR100744259B1 KR1020060004607A KR20060004607A KR100744259B1 KR 100744259 B1 KR100744259 B1 KR 100744259B1 KR 1020060004607 A KR1020060004607 A KR 1020060004607A KR 20060004607 A KR20060004607 A KR 20060004607A KR 100744259 B1 KR100744259 B1 KR 100744259B1
Authority
KR
South Korea
Prior art keywords
sensor node
bifs
node
sensor
screen
Prior art date
Application number
KR1020060004607A
Other languages
Korean (ko)
Other versions
KR20070075873A (en
Inventor
신필섭
박상오
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020060004607A priority Critical patent/KR100744259B1/en
Publication of KR20070075873A publication Critical patent/KR20070075873A/en
Application granted granted Critical
Publication of KR100744259B1 publication Critical patent/KR100744259B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 BIFS(Binary Format for Scene)트리에서 소정의 장면에 포함된 센서노드의 식별정보 및 위치정보를 추출하여 미리 설정된 기준위치와의 인접한 정도에 따라 순차적으로 소팅시키고, 외부로부터 입력되는 방향키에 따라 어느 하나의 센서노드를 선택해 그의 위치정보에 대응되는 화면영역에 소정의 그래픽 객체를 표시하는 디지털 멀티미디어 수신기 및 그의 센서노드 표시방법에 관한 것으로, 터치스크린이 지원되지 않는 디지털 멀티미디어 수신기에서 센서노드와 관련된 객체를 사용자가 확인하고 이동 및 지정할 수 있다.The present invention extracts identification information and position information of a sensor node included in a predetermined scene from a BIFS (Binary Format for Scene) tree, sorts them sequentially according to a predetermined degree of proximity with a preset reference position, and inputs a direction key input from the outside. The present invention relates to a digital multimedia receiver for selecting a sensor node and displaying a predetermined graphic object in a screen area corresponding to the location information thereof, and a method for displaying the sensor node. The method relates to a sensor node in a digital multimedia receiver that does not support a touch screen. Related objects can be identified, moved and specified by the user.

BIFS, 트리, 센서노드, 소팅, 장면, 순서 BIFS, Tree, SensorNode, Sorting, Scene, Order

Description

디지털 멀티미디어 수신기 및 그의 센서노드 표시방법{Digital multimedia receiver and method for displaying sensor node thereof}Digital multimedia receiver and method for displaying sensor node

도 1은 본 발명에 따른 디지털 멀티미디어 수신기를 도시한 블록도,1 is a block diagram showing a digital multimedia receiver according to the present invention;

도 2는 본 발명에 사용되는 휘치초이스 필드를 도시한 도면,FIG. 2 is a view illustrating a Witch's Choice field used in the present invention; FIG.

도 3은 본 발명에 사용되는 센서노드를 도시한 도면,3 is a view showing a sensor node used in the present invention,

도 4는 본 발명에 따른 센서노드 리스트를 도시한 도면,4 is a diagram illustrating a sensor node list according to the present invention;

도 5는 본 발명에 따른 센서노드들의 소팅을 설명하기 위해 마련된 도면,5 is a view provided to explain the sorting of sensor nodes according to the present invention;

도 6은 본 발명에 따른 센서노드들의 이동을 설명하기 위해 마련된 도면,6 is a view provided to explain the movement of sensor nodes according to the present invention;

도 7은 본 발명에 따른 센서노드들이 화면상에서 이동되는 것을 보여주기 위해 마련된 도면,7 is a view provided to show that the sensor nodes in accordance with the present invention is moved on the screen,

도 8은 본 발명에 따른 디지털 멀티미디어 수신기의 센서노드 표시방법을 도시한 도면 8 is a diagram illustrating a sensor node display method of a digital multimedia receiver according to the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100 : 전처리부 101 : 튜너100: preprocessor 101: tuner

102 : OFDM복조부 110 : 역다중화부 102: OFDM demodulator 110: demultiplexer

111 : MSC 디멀티플렉서 112 : TS디멀티플렉서 111: MSC demultiplexer 112: TS demultiplexer

113 : MPEG-2시스템 디코더 120 : BIFS디코더113: MPEG-2 system decoder 120: BIFS decoder

130 : 메모리 140 : 제어부130: memory 140: control unit

150 : MPEG-4오디오/비주얼 디코더 160 : 영상프로세서150: MPEG-4 audio / visual decoder 160: video processor

170 : 표시부170: display unit

본 발명은 터치스크린이 지원되지 않는 디지털 멀티미디어 수신기에서 센서노드와 관련된 객체를 사용자가 확인하고 이동 및 지정할 수 있도록 하는 디지털 멀티미디어 수신기 및 그의 센서노드 표시방법에 관한 것이다.The present invention relates to a digital multimedia receiver and a sensor node displaying method for allowing a user to identify, move, and designate an object related to a sensor node in a digital multimedia receiver in which a touch screen is not supported.

DMB(Digital Multimedia Broadcasting)는 깨끗한 음질의 오디오 정보와 교통정보 및 웹 데이터 등을 제공하는 통상의 DAB(Digital Audio Broadcasting)규격을 확장해 비디오 정보까지 제공하고 있다. Digital Multimedia Broadcasting (DMB) extends the standard DAB (Digital Audio Broadcasting) standard, which provides clear audio quality information, traffic information, and web data, and provides video information.

또한, DMB는 소정의 장면(scene)을 구성하는 2차원 혹은 3차원 영상이나, 방송 웹 사이트의 URL(Uniform Resource Locator) 등을 하나의 객체(object)로 정의하고, 그 객체가 해당 장면 내에서 어디에 위치하는지 등에 대한 정보를 제공하는데 특히, 동일한 장면 내의 어떤 객체에서 다른 객체로 이동하기 위해 필요한 센서(sensor)노드 정보도 제공하고 있다. In addition, the DMB defines a two-dimensional or three-dimensional image or a uniform resource locator (URL) of a broadcasting web site as an object, which constitutes a predetermined scene. It provides information about where it is located, etc. In particular, it also provides sensor node information needed to move from one object to another in the same scene.

상기 센서노드 정보는 BIFS(Binary Format for Scene) 컴맨드를 통해 기술되어 디지털 멀티미디어 수신기로 제공되는 것으로, 디지털 멀티미디어 수신기는 그 센서노드 정보에 따라 화면상의 어느 영역에 소정의 객체가 있음을 나타낼 수 있으 며, 사용자가 그 영역을 터치할 경우 해당 객체를 선택하여 관련된 정보를 표시할 수 있으며, 다른 영역을 터치할 경우 그 해당 객체에서 다른 객체로 이동시킬 수 있다.The sensor node information is described through a Binary Format for Scene (BIFS) command and provided to a digital multimedia receiver. The digital multimedia receiver may indicate that a certain object exists in a certain area on the screen according to the sensor node information. If the user touches the area, the user can select the corresponding object to display related information. If the user touches another area, the user can move from the corresponding object to the other object.

하지만, 상기의 센서노드 정보는 터치스크린을 기반으로 한 것이기 때문에, 터치스크린을 지원하지 않는 디지털 멀티미디어 수신기에서는 그 센서노드가 화면상에서 어디에 위치하는지 확인할 수 없고, 화면에 포함된 객체 들간의 이동 및 선택도 그 자체로서는 사실상 어렵다. However, since the sensor node information is based on the touch screen, the digital multimedia receiver that does not support the touch screen cannot determine where the sensor node is located on the screen, and the movement and selection between the objects included in the screen. Is virtually difficult in itself.

이에 본 발명은 상기한 문제점을 해결하기 위해 개발된 것으로, 터치스크린이 지원되지 않는 디지털 멀티미디어 수신기에서 센서노드와 관련된 객체를 사용자가 확인하고 이동 및 선택할 수 있도록 하기 위한 디지털 멀티미디어 수신기 및 그의 센서노드 표시방법을 제공하는데 목적이 있다.Accordingly, the present invention has been developed to solve the above problems, the digital multimedia receiver and its sensor node display for the user to identify, move and select the object associated with the sensor node in the digital multimedia receiver that does not support the touch screen The purpose is to provide a method.

이러한 목적에 따른 본 발명의 디지털 멀티미디어 수신기는Digital multimedia receiver of the present invention for this purpose is

방송 신호를 수신하고 복조하는 전처리부, 상기 전처리부가 복조한 방송 신호 내의 방송 스트림을 역다중화하여 BIFS(Binary Format for Scene)컴맨드를 출력하는 역다중화부, 상기 역다중화부가 출력한 BIFS컴맨드를 디코딩해 BIFS트리를 구성하는 BIFS디코더, 상기 BIFS디코더가 구성한 BIFS트리를 저장하는 메모리, 상기 메모리에 저장한 BIFS트리에서 소정 장면에 포함된 센서노드의 식별정보 및 위치정보를 추출하고 소팅시켜 센서노드 리스트를 구성하고, 외부로부터 입력된 방향 키 에 따라 상기 센서노드 리스트를 구성하는 센서노드 중 어느 하나를 선택해 그의 위치정보를 출력하는 제어부, 상기 제어부가 출력하는 위치정보에 대응되는 화면 영역에 그래픽 객체를 오버레이하는 영상프로세서, 상기 영상프로세서가 오버레이한 그래픽 객체를 화면에 표시하는 표시부를 포함하여 이루어진 것을 특징으로 한다.A preprocessor for receiving and demodulating a broadcast signal, a demultiplexer for demultiplexing a broadcast stream in a broadcast signal demodulated by the preprocessor, and outputting a BIFS (Binary Format for Scene) command, and a BIFS command outputted by the demultiplexer A BIFS decoder that decodes a BIFS tree, a memory that stores a BIFS tree configured by the BIFS decoder, and a sensor node by extracting and sorting identification information and location information of a sensor node included in a predetermined scene from the BIFS tree stored in the memory. A control unit for constructing a list and selecting one of the sensor nodes constituting the sensor node list according to a direction key input from the outside and outputting the position information thereof, and a graphic object in a screen area corresponding to the position information output by the control unit. To overlay the image processor, and to display the graphic object overlayed by the image processor on the screen. It characterized in that made in a display.

또 다른 본 발명에 따른 디지털 멀티미디어 수신기의 센서노드 표시방법은Another method of displaying a sensor node of a digital multimedia receiver according to the present invention is

디지털 멀티미디어 수신기 내의 BIFS 트리에서 화면에 표시할 장면에 포함된 센서노드를 찾아 그 센서노드의 식별정보 및 위치정보를 추출하는 단계, 상기 추출한 각 센서노드의 위치정보를 소팅시켜 상기 추출한 식별정보와 함께 그 소팅시킨 순서에 따라 센서노드 리스트를 구성하는 단계, 외부로부터 방향 키가 입력된 경우, 그 입력된 방향 키에 대응되는 방향과 입력된 횟수에 따라 상기 센서노드 리스트를 구성하는 센서노드를 순차적으로 이동하여 어느 하나를 선택하는 단계, 상기 선택한 센서노드의 위치정보에 대응되는 화면영역에 그래픽 객체를 표시하는 단계를 포함하여 이루어진 것을 특징으로 한다.Finding a sensor node included in a scene to be displayed on a screen in a BIFS tree in a digital multimedia receiver and extracting identification information and location information of the sensor node; sorting the location information of each extracted sensor node together with the extracted identification information Constructing the sensor node list according to the sorting order; when a direction key is input from the outside, the sensor node constituting the sensor node list is sequentially arranged according to the direction corresponding to the input direction key and the number of times of input. Moving and selecting one, displaying a graphic object in a screen area corresponding to the position information of the selected sensor node.

특히, 상기 추출한 각 센서노드의 위치정보를 미리 설정된 기준위치와의 인접한 정도에 따라 소팅시켜 상기 추출한 식별정보와 함께 그 소팅시킨 순서에 따라 센서노드 리스트를 구성하는 것을 특징으로 한다. 상기 기준위치는 화면의 네 모서리에 대응되는 위치 중 선택된 어느 하나일 수 있다.In particular, the location information of each extracted sensor node may be sorted according to a degree of proximity with a preset reference position, and the sensor node list may be configured in the sorted order together with the extracted identification information. The reference position may be any one selected from positions corresponding to four corners of the screen.

또한, 상기 센서노드의 식별정보 및 위치정보를 추출하는 단계는 방송 신호를 통해 수신한 BIFS 컴맨드로 BIFS 트리를 구성하는 단계, 상기 구성한 BIFS 트리 내의 각 트랜스폼 2D노드 및 앵커노드 하위에 위치한 센서노드의 식별정보 및 위치정보를 추출하는 단계로 이루어진 것을 특징으로 한다.The extracting of the identification information and the location information of the sensor node may include configuring a BIFS tree with a BIFS command received through a broadcast signal, and a sensor located below each transform 2D node and an anchor node in the configured BIFS tree. And extracting identification information and location information of the node.

특히, 현재 화면에 표시할 장면과 관련된 센서노드만의 식별정보 및 위치정보를 추출하기 위해서, 상기 구성한 BIFS 트리 내의 각 트랜스폼 2D노드 및 앵커노드 하위의 휘치 초이스(whichcoice) 필드에 기록된 플랙값에 따라 상기 센서노드의 식별정보 및 위치정보를 선택적으로 추출하는 것을 특징으로 한다.In particular, in order to extract identification information and location information of a sensor node related to a scene to be displayed on the current screen, the flag value recorded in the WhichCice field under each transform 2D node and anchor node in the configured BIFS tree. According to the present invention, the identification information and the location information of the sensor node are selectively extracted.

그리고, 상기 그래픽 객체를 표시하는 단계 후에, 외부로부터 방향 키가 입력된 경우, 그 입력된 방향 키에 대응되는 방향과 그 입력된 횟수에 따라 상기 선택한 센서노드를 기준으로 순차적으로 이동하여 어느 하나를 선택하는 단계를 추가로 포함하여 이루어진 것을 특징으로 한다.After the displaying of the graphic object, if a direction key is input from the outside, one of the direction keys is sequentially moved based on the selected sensor node according to the direction corresponding to the input direction key and the number of times of input. Characterized in that it further comprises the step of selecting.

마지막으로, 상기 리스트에 등록된 센서노드는 장면이 바뀔 때마다 갱신되는 것을 특징으로 하며, 터치센서(TouchSensor)노드 또는 앵커(anchor)노드 중 어느 하나일 수 있다. Finally, the sensor node registered in the list is updated each time the scene changes, and may be any one of a touch sensor node and an anchor node.

이하, 첨부된 도면을 참조하여 본 발명을 좀 더 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in more detail the present invention.

도 1에 도시된 디지털 멀티미디어 수신기는 본 발명에 따른 디지털 멀티미디어 수신기를 예로 들어 도시한 도면이다.1 is a diagram illustrating a digital multimedia receiver according to the present invention as an example.

상기 도 1에 도시된 바와 같이, 본 발명에 따른 디지털 멀티미디어 수신기는 크게 전처리부(100), 역다중화부(110), BIFS디코더(120), 메모리(130), 제어부(140), MPEG-4오디오/비주얼 디코더(150), 영상프로세서(160), 표시부(170)로 구성 된다.As shown in FIG. 1, the digital multimedia receiver according to the present invention has a preprocessor 100, a demultiplexer 110, a BIFS decoder 120, a memory 130, a controller 140, and an MPEG-4. The audio / visual decoder 150, the image processor 160, and the display unit 170 are configured.

상기 전처리부(100)는 방송 신호를 수신하고 복조하는 것으로, 튜너(101)와 OFDM(Orthogonal Frquency Division Multiplex)복조부(102)로 구성된다. The preprocessor 100 receives and demodulates a broadcast signal. The preprocessor 100 includes a tuner 101 and an orthogonal frequency division multiplex (OFDM) demodulator 102.

튜너(101)는 안테나를 통해 외부로부터 전달된 방송 신호를 수신하여 OFDM 복조부(102)로 출력한다. The tuner 101 receives a broadcast signal transmitted from the outside through an antenna and outputs the broadcast signal to the OFDM demodulator 102.

OFDM복조부(102)는 튜너(101)가 출력한 방송 신호를 OFDM복조하여 주파수 디인터리빙된 OFDM 심볼들을 CIF(Common Interleaved Frame)단위로 재배열하여 출력한다. The OFDM demodulator 102 OFDM demodulates the broadcast signal output from the tuner 101 and rearranges the frequency deinterleaved OFDM symbols in units of a common interleaved frame (CIF).

상기 역다중화부(110)는 전처리부(100)가 복조한 방송 신호 내의 방송 스트림을 역다중화하여 BIFS컴맨드를 출력하는 것으로, MSC 디멀티플렉서(111)와 TS(Transport packet Stream) 디멀티플렉서(112) 및 MPEG-2시스템 디코더(113)로 구성된다.The demultiplexer 110 demultiplexes the broadcast stream in the broadcast signal demodulated by the preprocessor 100 and outputs a BIFS command. The MSC demultiplexer 111 and the TS (Transport packet Stream) demultiplexer 112 and MPEG-2 system decoder 113.

MSC 디멀티플렉서(111)는 OFDM 복조부(102)가 출력한 OFDM 심볼들을 역다중화하여 FIC(Fast Information Channel)심볼과 MSC(Main Service Channel)심볼로 나누어 출력하는 것이다. The MSC demultiplexer 111 demultiplexes OFDM symbols output by the OFDM demodulator 102 and divides the OFDM symbols into a fast information channel (FIC) symbol and a main service channel (MSC) symbol.

TS디멀티플렉서(112)는 MSC디멀티플렉서(111)가 출력하는 MSC심볼을 디코딩하여 TS스트림을 출력하는 것이다.The TS demultiplexer 112 outputs a TS stream by decoding the MSC symbol output by the MSC demultiplexer 111.

MPEG-2시스템 디코더(113)는 TS디멀티플렉서(112)가 출력하는 TS스트림을 역다중화하여 BIFS 컴맨드를 출력하는 것이다.The MPEG-2 system decoder 113 demultiplexes the TS stream output from the TS demultiplexer 112 and outputs a BIFS command.

상기 BIFS디코더(120)는 MPEG-2시스템 디코더(113)가 출력한 BIFS컴맨드를 디코딩해 메모리(130)에 BIFS트리를 구성하는 것이다.The BIFS decoder 120 decodes the BIFS command output from the MPEG-2 system decoder 113 to form a BIFS tree in the memory 130.

상기 제어부(140)는 메모리(130)에 저장한 BIFS트리에서 소정 장면에 포함된 센서노드의 식별정보 및 위치정보를 추출하여 소팅시켜 관리하고, 외부로부터 입력된 방향 키에 따라 어느 하나의 센서노드를 선택해 그의 위치정보를 출력하는 것이다.The control unit 140 extracts and sorts and manages identification information and location information of a sensor node included in a predetermined scene from a BIFS tree stored in a memory 130, and manages any one sensor node according to a direction key input from the outside. Select to print its location information.

상기 영상프로세서(160)는 제어부(140)가 출력하는 위치정보에 대응되는 화면 영역에 그래픽 객체를 오버레이하는 것이다.The image processor 160 overlays the graphic object on the screen area corresponding to the position information output from the controller 140.

상기 표시부(170)는 영상프로세서(160)가 오버레이한 그래픽 객체를 화면에 표시하는 것이다.The display unit 170 displays graphic objects overlaid by the image processor 160 on the screen.

이러한 구성을 참조하여 본 발명에 따른 센서노드의 표시동작을 설명하는데, 메모리(130)에 BIFS트리를 구성하는 동작까지는 일반적인 것이므로, 여기서는 그에 대한 설명을 생략하며, 그 이후 동작부터 설명한다.The display operation of the sensor node according to the present invention will be described with reference to such a configuration. Since the operation of configuring the BIFS tree in the memory 130 is general, a description thereof will be omitted here, and the subsequent operation will be described.

먼저, 제어부(140)는 BIFS 트리 내에 포함된 트랜스폼(transform) 2D노드와 앵커(anchor)노드 중에서, 각 노드마다 그 하위의 휘치초이스(whichchoice) 필드에 기록된 플랙값에 따라 화면에 표시할 장면과 관련된 트랜스폼 2D노드와 앵커노드가 어떠한 것인지를 확인한다. First, among the transform 2D nodes and anchor nodes included in the BIFS tree, the controller 140 displays the screens according to the flag values recorded in the Whichchoice field below each node. Identify the transform 2D and anchor nodes associated with the scene.

다음, 화면에 표시할 장면과 관련된 것으로 확인된 트랜스폼 2D노드 하위에 위치하고 있는 터치센서(TouchSensor)노드의 식별정보 및 위치정보(translation)와, 앵커노드의 하위에 위치한 해당 앵커노드의 식별정보 및 위치정보를 추출한다.Next, identification information and position information of the TouchSensor node located under the transform 2D node identified as related to the scene to be displayed on the screen, identification information of the corresponding anchor node located below the anchor node, Extract location information.

이렇게 화면에 표시할 장면에 포함되어 있는 센서노드들의 식별정보 및 위치 정보가 추출되면, 그 추출된 센서노드들의 위치정보를 미리 설정된 기준위치와의 인접한 정도에 따라 소팅한다. When the identification information and the location information of the sensor nodes included in the scene to be displayed on the screen are extracted, the location information of the extracted sensor nodes is sorted according to the proximity of the preset reference position.

즉, 센서노드들의 식별정보 및 위치정보가 추출되면, 그 추출된 센서노드들의 위치와 미리 설정된 기준위치 사이의 거리값을 계산하여 거리값이 적은 순서 즉, 상기 미리 설정된 기준위치와 인접한 순서에 따라 상기 추출된 센서노드들의 위치정보를 순차적으로 소팅한다.That is, when the identification information and the location information of the sensor nodes are extracted, the distance value between the extracted sensor nodes and the preset reference position are calculated to determine the distance value in the order of decreasing distance, that is, in order of adjoining the preset reference position. The location information of the extracted sensor nodes is sequentially sorted.

예를 들면, 그 추출된 센서노드들의 위치가 (x1, y1), (x2, y2), ... 으로, 상기 기준위치가 화면의 좌하측 모서리에 대응되는 위치인 (X, Y)로 설정된 경우, 상기 추출된 센서노드들의 위치와 기준위치의 차이값 즉, X-x1, X-x2, ... , Y-y1, Y-y2, ... 을 계산하고 각 차이값의 절대치를 구해, 상기 화면에 표시할 센서노드의 위치정보를 y축을 기준으로 그 절대치가 적은 순서로 순차적으로 소팅하고, y축에서 절대치가 동일한 경우엔 x축을 기준으로 절대치가 적은 순서로 순차적으로 소팅한다. For example, the positions of the extracted sensor nodes are set to (x1, y1), (x2, y2), ..., and the reference position is set to (X, Y), which is a position corresponding to the lower left corner of the screen. In this case, the difference between the position of the extracted sensor nodes and the reference position, that is, X-x1, X-x2, ..., Y-y1, Y-y2, ... is calculated and the absolute value of each difference value is obtained. Then, the position information of the sensor node to be displayed on the screen is sequentially sorted in the order of decreasing absolute value on the y axis, and when the absolute values are the same on the y axis, the location information is sorted in the order of decreasing absolute value on the x axis.

그 결과, 화면에 표시할 장면에 포함되어 있는 각 센서노드, 즉 터치센서노드와 앵커노드의 위치정보는 화면상에서 하측부터 상측으로 그리고 좌측에서 우측으로 이동하는 방향에 따라 순차적으로 소팅된다.As a result, the position information of each sensor node, that is, the touch sensor node and the anchor node included in the scene to be displayed on the screen is sequentially sorted according to the direction moving from the lower side to the upper side and the left to right side on the screen.

그리고, 이렇게 화면에 표시할 장면에 포함되어 있는 각 센서노드의 위치정보가 순차적으로 소팅되면, 그 소팅된 순서에 따라 상기 추출된 각 센서노드의 위치정보를 해당 식별정보와 함께 미리 셋팅시켜 둔 리스트(list)에 등록하여 센서노드 리스트를 구성한다.When the location information of each sensor node included in the scene to be displayed on the screen is sorted sequentially, the list of preset location information of each sensor node extracted with the corresponding identification information according to the sorted order. Register in (list) to construct sensor node list.

다음, 상기 센서노드 리스트에 등록된 각 센서노드의 식별정보 및 위치정보는 장면이 바뀔 때마다 계속적으로 갱신된다.Next, the identification information and the location information of each sensor node registered in the sensor node list are continuously updated whenever the scene changes.

즉, 상기 휘치초이스 필드에 기록된 플랙값을 모니터링하여 그 모니터링한 결과, 플랙값이 '0'인 경우엔 해당 센서노드를 리스트에서 삭제하고, '1'인 경우엔 센서노드를 상기한 바에 따른 소팅을 거쳐 리스트에 등록하는 방식으로 갱신한다.That is, as a result of monitoring and monitoring the flag value recorded in the Witch value field, if the flag value is '0', the sensor node is deleted from the list, and if the flag value is '1', the sensor node is determined as described above. Update by sorting through the list.

한편, 센서노드 리스트에 센서노드가 등록되면, 그 센서노드 리스트에 등록된 센서노드 중에서 어느 하나를 선택해 그의 위치정보를 출력한다. On the other hand, if a sensor node is registered in the sensor node list, one of the sensor nodes registered in the sensor node list is selected and its location information is output.

그리고, 다음번의 방향 키 입력시 어느 센서노드부터 이동해야 할지를 결정하기 위해 상기 선택한 센서노드에 윈도우가 표시되고 있음을 나타내는 소정의 플랙값을 할당한다.A predetermined flag value indicating that a window is displayed is assigned to the selected sensor node to determine from which sensor node to move from the next direction key input.

예를 들면, 상기 리스트에 등록된 센서노드 중에서, 즉 현재 화면에 표시되고 있는 장면에 포함된 센서노드 중에서, 최우선의 순위를 가진 센서노드를 선택하여 그의 위치정보를 출력한다. For example, among the sensor nodes registered in the list, that is, among the sensor nodes included in the scene currently displayed on the screen, the sensor node having the highest priority is selected and the location information thereof is output.

그리고, 다음번의 방향 키 입력시 어느 센서노드부터 이동해야 할지를 결정하기 위해 상기 선택한 최우선의 순위를 가진 센서노드에 윈도우가 표시되고 있음을 나타내는 소정의 플랙값을 할당한다.Then, a predetermined flag value indicating that a window is displayed is assigned to the sensor node having the highest priority selected in order to determine which sensor node should move from the next direction key input.

한편, 상기한 바에 따라 선택한 센서노드의 위치정보가 출력되면, 상기 영상프로세서(160)는 출력된 위치정보에 대응되는 화면 영역에 그래픽 객체를 오버레이하고, 표시부(170)는 그 오버레이된 그래픽 객체를 화면을 통해 표시하므로, 사용자는 화면내에서 기준이 되는 소정 센서노드와 관련된 객체(object)가 어떠한 것인 지를 확인할 수 있게 된다.Meanwhile, when the position information of the selected sensor node is output as described above, the image processor 160 overlays the graphic object on the screen area corresponding to the output position information, and the display unit 170 displays the overlayed graphic object. Since it is displayed on the screen, the user can check what object is associated with a predetermined sensor node in the screen.

이러한 상태에서 사용자 선택에 따라 외부로부터 방향 키가 입력되면, 상기 플랙값이 할당된 센서노드를 찾고, 그 찾은 센서노드를 기준으로 그 방향키에 대응되는 방향으로 입력된 횟수만큼 이동한 위치의 센서노드를 선택해 그의 위치정보를 출력한다.In this state, when the direction key is input from the outside according to the user's selection, the sensor node is located for the sensor node to which the flag is assigned, and the sensor node at the position moved in the direction corresponding to the direction key based on the found sensor node. Select to print its location information.

그래서, 영상프로세서(160)가 이렇게 출력된 위치정보에 대응되는 화면 영역에 그래픽 객체를 오버레이하고, 표시부(170)가 그 오버레이된 그래픽 객체를 화면을 통해 표시하게 되면, 사용자는 원하는 바에 따라 화면 내에 포함되어 있는 센서노드와 관련된 객체를 전체적으로 확인할 수 있게 된다.Thus, when the image processor 160 overlays the graphic object on the screen area corresponding to the output position information, and the display unit 170 displays the overlaid graphic object on the screen, the user may change the image object into the screen as desired. The object related to the included sensor node can be checked as a whole.

한편, 상기한 바와 같이, 소정의 센서노드가 선택되면, 그 선택된 센서노드에 윈도우가 표시되고 있음을 나타내는 플랙값을 할당하여 다음번의 방향키 입력시 기준이 되는 센서노드를 정해 놓도록 하며, 이전의 센서노드에 할당된 플랙값은 디폴트시킨다.On the other hand, as described above, when a predetermined sensor node is selected, a flag value indicating that a window is displayed is assigned to the selected sensor node so as to define a sensor node as a reference when the next direction key is input. The flag assigned to the sensor node defaults.

도 2에 도시된 휘치초이스 필드는 통상의 MPEG-4 BIFS규격에 따라 BIFS 컴맨드를 통해 외부로부터 제공받은 것으로, BIFS 트리 내의 트랜스폼 2D노드와 앵커노드의 하위에 위치되며, 플랙값이 기록된다. The Witch Choice field shown in FIG. 2 is provided from the outside through the BIFS command according to the conventional MPEG-4 BIFS standard, and is located below the transform 2D node and anchor node in the BIFS tree, and a flag value is recorded. .

상기 플랙값은 소정의 트랜스폼 2D노드와 앵커노드가 화면에 표시할 장면과 관련된 노드임을 식별시켜 주는 것으로, 통상의 MPEG-4 BIFS규격에 따라 외부에서 설정되어 BIFS 컴맨드를 통해 제공된다. The flag value identifies a predetermined transform 2D node and an anchor node as a node related to a scene to be displayed on the screen. The flag value is set externally according to a general MPEG-4 BIFS standard and provided through a BIFS command.

상기 플랙값은 화면에 표시할 장면과 관련된 노드임을 나타내는 경우와 그렇 지 아니한 경우를 나타내는 '-1'과 '0'의 값으로 설정될 수 있다. The flag value may be set to values of '-1' and '0' indicating a node related to a scene to be displayed on a screen and a case not indicating the node.

만약, 상기한 바와 같이 플랙값이 설정된 경우, '-1'의 플랙값이 기록된 휘치초이스 필드를 포함하는 트랜스폼 2D노드와 앵커노드는 현재 화면에 표시되고 있는 장면과 관련된 노드인 것임을 알 수 있다. If the flag value is set as described above, it can be seen that the transform 2D node and the anchor node including the Witch Choice field in which the flag value of '-1' is recorded are nodes related to the scene currently displayed on the screen. have.

그리고, '0'의 플랙값이 기록된 휘치초이스 필드를 포함하는 트랜스폼 2D노드와 앵커노드는 현재 화면에 표시되고 있는 장면(scene)과는 관련이 없는 노드인 것임을 알 수 있게 된다.Then, it can be seen that the transform 2D node and the anchor node including the Witch Choice field in which a flag value of '0' is recorded are nodes that are not related to the scene currently displayed on the screen.

이러한 방식으로 화면에 표시할 장면과 관련된 것으로 소정의 트랜스폼 2D노드와 앵커노드가 확인되면, 그 하위에 위치한 센서노드를 추출하므로, 화면에 표시할 장면과 관련된 센서노드 들만을 추출할 수 있게 된다.When a predetermined transform 2D node and an anchor node are identified as related to the scene to be displayed on the screen in this manner, the sensor nodes located below the extract are extracted, so that only the sensor nodes related to the scene to be displayed on the screen can be extracted. .

도 3에 도시된 센서노드는 통상의 MPEG-4 BIFS규격에 따라 BIFS 컴맨드를 통해 외부로부터 제공받은 것으로, BIFS 트리 내의 트랜스폼 2D노드와 앵커노드의 하위에 위치된다. The sensor node shown in FIG. 3 is provided from the outside through the BIFS command according to the conventional MPEG-4 BIFS standard, and is located below the transform 2D node and the anchor node in the BIFS tree.

상기 센서노드의 식별정보(DEF)는 여타의 센서노드와 식별시켜 주는 것으로, 여기서는 그의 일예로 'As0'가 명기되어 있다. The identification information DEF of the sensor node distinguishes it from other sensor nodes, and as an example thereof, 'As0' is specified.

상기 센서노드의 위치정보(translation)는 소정의 중심 좌표값을 기준으로 x축, y축으로 각기 이동한 거리를 나타낸 2차원 좌표값으로, 상기 중심 좌표값은 외부에서 제공하는 PMT(Program Map Table)에 포함된다. Position information of the sensor node is a two-dimensional coordinate value representing a distance moved on the x-axis and y-axis based on a predetermined center coordinate value, and the center coordinate value is an externally provided program map table (PMT). Included).

여기서는 그의 일예로 '-5. 2'가 명기되어 있는데, 그것은 중심값을 기준으로 x축상에서 좌측으로 5만큼, y축상에서 우측으로 2만큼 이동한 지점에 해당 센서 노드가 위치되어 있다는 것을 의미한다. Here is an example of his' -5. 2 'is specified, which means that the sensor node is located at a position moved by 5 on the x axis to the left and 2 on the y axis to the right with respect to the center value.

도 4에 도시된 본 발명에 따른 센서노드 리스트는 센서노드들의 각 식별정보, 위치정보, 해당 센서노드가 위치하는 화면 영역에 윈도우가 표시되고 있는 것을 나타내는 이즈액티브(isActive)로 구성된다.The sensor node list according to the present invention shown in FIG. 4 is composed of each identification information, position information of the sensor nodes, and isactive indicating that a window is displayed in the screen area where the sensor node is located.

상기 센서노드들은 터치센서(TouchSensor)노드와 앵커(Anchor)노드로 구성되며, 각 노드는 소정의 소팅(sorting) 순서에 따라 예를 들면, 미리 설정된 기준위치와의 인접한 정도에 따라 순차적으로 리스트에 등록된다.The sensor nodes comprise a TouchSensor node and an anchor node, and each node is sequentially listed according to a predetermined sorting order, for example, adjacent to a preset reference position. It is registered.

여기서는, 상기 센서노드들이 화면상에서 하측부터 상측으로 그리고 좌측에서 우측으로 이동하는 방향에 따라 소팅(sorting)되어 순차적으로 리스트에 등록된 것이다.In this case, the sensor nodes are sorted according to the direction moving from the bottom to the top and from the left to the right on the screen, and are sequentially registered in the list.

도 5에 도시된 소팅(sorting)은 본 발명에 따른 소팅을 예로 들어 도시한 것으로, 상기 각 센서노드들을 미리 설정된 기준위치와의 인접한 정도에 따라 순차적으로 정렬한 것이다.The sorting shown in FIG. 5 illustrates a sorting according to the present invention as an example, in which the sensor nodes are sequentially arranged according to a degree of proximity to a preset reference position.

상기 소팅은 각 센서노드들의 위치와 미리 설정된 기준위치 사이의 거리값을 계산하여 거리값이 적은 순서, 즉 상기 미리 설정된 기준위치와 인접한 순서에 따라 상기 추출된 센서노드들의 위치정보를 순차적으로 소팅한다.The sorting calculates a distance value between the position of each sensor node and a preset reference position, and sequentially sorts the position information of the extracted sensor nodes in an order of decreasing distance value, that is, in an order adjacent to the preset reference position. .

예를 들면, 도시된 바와 같이, 각 센서노드들의 위치가 (-3, -2), (3, -2), (3, 5), (-3, 5)이고, 상기 기준위치가 화면의 좌하측 모서리에 대응되는 위치인 (X, Y)로 설정된 경우, 상기 추출된 센서노드들의 위치와 기준위치의 차이값 즉, X-(-3), X-(3), ... , Y-(-2), Y-(-2), ... 을 계산하고 절대치를 구한다. For example, as shown, the positions of each sensor node are (-3, -2), (3, -2), (3, 5), (-3, 5), and the reference position is displayed on the screen. When it is set to (X, Y) which is a position corresponding to the lower left corner, the difference value between the positions of the extracted sensor nodes and the reference position, that is, X-(-3), X- (3), ..., Y Calculate-(-2), Y-(-2), ... and find the absolute value.

절대치를 구한 결과는 순서대로 X축은 2, 2, 9, 9이고 Y축은 1, 7, 7, 1이 다. The results of the absolute values are in the order of 2, 2, 9, 9 for the X axis and 1, 7, 7, 1 for the Y axis.

다음, 이렇게 구한 절대치에 따라 각 센서노드들의 위치정보를 y축을 기준으로 적은 순서로 순차적으로 소팅하고, y축을 기준으로 절대치가 동일한 경우엔 x축을 기준으로 적은 순서로 순차적으로 소팅한다. Next, the location information of each sensor node is sorted in descending order on the y axis according to the obtained absolute value, and when the absolute values are the same on the y axis, the sorting information is sequentially sorted on the x axis.

그 결과, 도시된 바와 같이, 현재 화면에 표시되고 있는 장면에 포함되어 있는 센서노드는 화면상에 볼 때 하측부터 상측으로 그리고 좌측에서 우측으로 이동하는 방향에 맞게 순차적으로 소팅(sorting)된다.As a result, as shown, the sensor nodes included in the scene currently displayed on the screen are sorted sequentially according to the direction moving from the bottom to the top and from the left to the right when viewed on the screen.

도 6에 도시된 이즈액티브(isActive)는 화면 영역에 현재 윈도우가 표시되고 있는 센서노드임을 식별시켜 주는 플랙값이다. IsActive illustrated in FIG. 6 is a flag value for identifying that the sensor node is currently displaying a window in the screen area.

상기 플랙값은 화면 영역에 윈도우가 표시되고 있는 센서노드임을 나타내는 경우와 그렇지 아니한 경우를 나타내는 '1'과 '0'의 값으로 설정될 수 있다. The flag value may be set to a value of '1' and '0' indicating a sensor node displaying a window in a screen area and a case in which the flag is not displayed.

초기에는 상기 리스트에 등록된 센서노드 들의 플랙값이 모두 '0'이므로, 디폴트로 최상단의 센서노드를 선택해 그의 위치정보에 대응되는 화면 영역에 윈도우를 오버레이하고, 그 센서노드에 윈도우가 표시되고 있음을 나타내는 'ON'의 플랙값을 할당한다.Initially, since the flag values of all the sensor nodes registered in the list are '0', the topmost sensor node is selected by default, the window is overlaid on the screen area corresponding to the location information, and the window is displayed on the sensor node. Assign a flag value of 'ON' to indicate.

그 결과, 사용자는 화면상에서 그 센서노드와 관련된 객체(object)가 어떠한 것인지를 확인할 수 있게 된다.As a result, the user can check what object is associated with the sensor node on the screen.

이러한 상태에서 외부로부터 오른쪽 방향 키가 입력된 경우, 리스트 상에서 'ON'의 플랙값이 할당된 센서노드를 기준으로 그 입력된 방향키에 대응되는 오른쪽 방향으로 그 방향 키가 입력된 1회의 횟수만큼 이동한 위치의 센서노드를 선택해 그의 위치정보에 대응되는 화면 영역에 윈도우를 오버레이한다. In this state, when the right direction key is input from the outside, the direction key is moved to the right direction corresponding to the input direction key by the number of times that the direction key is input based on the sensor node to which the flag value of 'ON' is assigned on the list. Select the sensor node at one location and overlay the window on the screen area corresponding to the location information.

그리고, 그 해당 센서노드에 윈도우가 표시되고 있음을 나타내는 'ON'의 플랙값을 할당하고, 상기 최상단의 센서노드에 할당된 'OFF'의 플랙값을 디폴트시킨다.A flag value of 'ON' indicating that a window is displayed is assigned to the corresponding sensor node, and a flag value of 'OFF' assigned to the uppermost sensor node is defaulted.

그 결과, 사용자는 원하는 바에 따라 입력한 오른쪽 방향 키에 따라 그에 대응되는 화면 영역에 위치한 센서노드와 관련되어 있는 객체(object)가 어떠한 것이 있는지를 확인하게 된다.As a result, the user may check whether there is an object related to the sensor node located in the screen area corresponding to the right direction key input as desired.

또한, 이러한 상태에서 외부로부터 왼쪽 방향 키가 입력된 경우, 리스트에서 'ON'의 플랙값이 할당된 센서노드를 기준으로 그 입력된 방향키에 대응되는 왼쪽 방향으로 그 방향 키가 입력된 1회의 횟수만큼 이동한 위치의 센서노드를 선택해 그 위치정보에 대응되는 화면 영역에 윈도우를 오버레이한다. In addition, when the left direction key is input from the outside in such a state, the number of times the direction key is input in the left direction corresponding to the input direction key on the basis of the sensor node to which the flag value of 'ON' is assigned in the list. Select the sensor node of the moved position and overlay the window on the screen area corresponding to the position information.

그 결과, 사용자는 원하는 바에 따라 입력한 왼쪽 방향 키에 따라 그에 대응되는 화면 영역에 위치한 센서노드와 관련되어 있는 객체(object)가 어떠한 것이 있는지를 확인할 수 있게 된다.As a result, the user can check what object is associated with the sensor node located in the screen area corresponding to the left direction key input as desired.

도 7에 도시된 화면은 외부로부터 입력된 방향 키에 따라 센서노드가 이동되는 양태의 일예를 보여주기 위해 마련된 것이다.The screen shown in FIG. 7 is provided to show an example of a mode in which the sensor node is moved in accordance with a direction key input from the outside.

상기 도 7에 도시된 바와 같이, 본 발명에 따라 윈도우가 'U.S'센서노드(700)에 표시되고 있는 상태에서 외부로부터 방향 키가 입력되면, 그 'U.S' 센서노드(700)를 기준으로 그 입력된 방향키에 대응되는 오른쪽 방향으로 그 방향 키가 입력된 횟수만큼에 따라 이동한 위치의 'worlds'센서노드(701)에 윈도우가 표시된다. As shown in FIG. 7, when a direction key is input from the outside while the window is displayed on the 'U.S' sensor node 700 according to the present invention, the 'US' sensor node 700 is referred to. As a result, a window is displayed on the 'worlds' sensor node 701 at the position moved according to the number of times the direction key is input in the right direction corresponding to the input direction key.

도 8은 본 발명에 따른 센서노드 표시방법을 도시한 도면이다.8 is a diagram illustrating a sensor node display method according to the present invention.

본 발명에 따른 센서노드 표시방법은 우선, 외부로부터 수신한 BIFS 컴맨드를 디코딩하여 BIFS 트리를 구성하고, 트랜스폼 2D노드와 앵커노드의 유/무를 모니터링한다(S800).In the sensor node display method according to the present invention, first, the BIFS command received from the outside is decoded to construct a BIFS tree, and the presence / absence of the transform 2D node and the anchor node is monitored (S800).

모니터링한 결과, BIFS트리 내에 트랜스폼 2D노드와 앵커노드가 있을 경우, 해당 노드의 하위에 위치한 휘치초이스 필드에 기록된 플랙값에 따라 화면에 표시할 장면과 관련된 트랜스폼 2D노드 혹은 앵커노드 인지를 확인한다(S801). As a result of monitoring, if there is a transform 2D node and an anchor node in the BIFS tree, whether the transform 2D node or anchor node is related to the scene to be displayed on the screen according to the flag value recorded in the Witch value field located under the node. Check (S801).

예를 들면, 휘치초이스 필드에 기록된 플랙값이 '0'인 경우, 그 휘치초이스 필드를 포함하는 트랜스폼 2D노드와 앵커노드는 화면에 표시할 장면과 관련된 노드인 것으로 확인할 수 있다.For example, when the flag value recorded in the Witch Choice field is '0', it can be confirmed that the transform 2D node and the anchor node including the Witch Choice field are nodes related to the scene to be displayed on the screen.

반면에, 휘치초이스 필드에 기록된 플랙값이 '-1'인 경우, 그 휘치초이스 필드를 포함하는 트랜스폼 2D노드와 앵커노드는 화면에 표시할 장면과 관련되지 않은 노드인 것으로 확인할 수 있다On the other hand, if the flag value recorded in the Witch Choice field is '-1', the transform 2D node and the anchor node including the Witch Choice field may be identified as nodes that are not related to the scene to be displayed on the screen.

다음, 화면에 표시할 장면과 관련된 것으로 확인된 트랜스폼 2D노드 하위에 위치한 터치센서 노드의 식별(DEF)정보 및 위치정보(translation), 혹은 앵커노드의 식별정보 및 위치정보를 추출한다(S803).Next, identification (DEF) information and position information (translation) of the touch sensor node located under the transform 2D node identified as being related to the scene to be displayed on the screen, or identification information and position information of the anchor node are extracted (S803). .

그리고, 센서노드들의 식별정보 및 위치정보가 추출되면, 그 추출된 센서노드들의 위치정보를 미리 설정된 기준위치와의 인접한 정도에 따라 소팅한다(S804). When the identification information and the location information of the sensor nodes are extracted, the extracted location information of the sensor nodes is sorted according to the proximity of the preset reference position (S804).

즉, 센서노드들의 식별정보 및 위치정보가 추출되면, 그 추출된 센서노드들의 위치와 미리 설정된 기준위치 사이의 거리값을 계산하여 거리값이 적은 순서, 즉 상기 미리 설정된 기준위치와 인접한 순서에 따라 상기 추출된 센서노드들의 위치정보를 순차적으로 소팅한다.That is, when the identification information and the location information of the sensor nodes are extracted, the distance value between the extracted sensor nodes and the preset reference position are calculated to determine the distance value in the order of decreasing distance, that is, in order of adjoining the preset reference position. The location information of the extracted sensor nodes is sequentially sorted.

예를 들면, 그 추출된 센서노드들의 위치가 (x1, y1), (x2, y2), ... 으로, 상기 기준위치가 화면의 좌하측 모서리에 대응되는 위치인 (X, Y)로 설정된 경우, 상기 추출된 센서노드들의 위치와 기준위치 사이의 차이값 즉, X-x1, X-x2, ... , Y-y1, Y-y2, ... 을 계산하고 그 차이값의 절대치를 구해, 그 절대치에 따라 상기 터치센서노드와 앵커노드의 위치정보를 y축을 기준으로 차이값이 적은 순서로 순차적으로 소팅하고, y축에서 차이값이 동일한 경우엔 x축을 기준으로 차이값이 적은 순서로 순차적으로 소팅한다. For example, the positions of the extracted sensor nodes are set to (x1, y1), (x2, y2), ..., and the reference position is set to (X, Y), which is a position corresponding to the lower left corner of the screen. In this case, the difference value between the extracted sensor nodes and the reference position, that is, X-x1, X-x2, ..., Y-y1, Y-y2, ... is calculated and the absolute value of the difference value is calculated. Obtain and sort the position information of the touch sensor node and the anchor node according to their absolute values in order of decreasing difference value based on the y axis, and if the difference value is the same on the y axis, the difference value is small based on the x axis. Sort them sequentially.

그 결과, 화면에 표시할 장면에 포함되어 있는 각 센서노드 즉, 터치센서노드와 앵커노드의 위치정보는 화면상에서 하측부터 상측으로 그리고 좌측에서 우측으로 이동하는 방향에 따라 순차적으로 소팅된다.As a result, the position information of each sensor node, that is, the touch sensor node and the anchor node included in the scene to be displayed on the screen is sequentially sorted according to the direction moving from the lower side to the upper side and the left to right side on the screen.

이렇게 화면에 표시할 장면에 포함되어 있는 각 센서노드, 즉 터치센서노드와 앵커노드의 위치정보가 순차적으로 소팅되면, 그 소팅된 순서에 따라 상기 추출된 센서노드들의 위치정보를 식별정보와 함께 리스트에 등록하여 센서노드 리스트를 구성한다(S805).When the location information of each sensor node, that is, the touch sensor node and the anchor node, included in the scene to be displayed on the screen is sequentially sorted, the location information of the extracted sensor nodes is listed along with the identification information according to the sorted order. The sensor node list is configured by registering at (S805).

한편, 상기 센서노드 리스트에 등록된 각 센서노드의 식별정보 및 위치정보는 장면이 바뀔 때마다 계속적으로 갱신된다.Meanwhile, the identification information and the location information of each sensor node registered in the sensor node list are continuously updated whenever the scene changes.

즉, 상기 휘치초이스 필드에 기록된 플랙값을 모니터링하여 그 모니터링한 결과, 플랙값이 '0'인 경우엔 해당 센서노드를 리스트에서 삭제하고, '1'인 경우엔 센서노드를 상기한 소팅을 거쳐 센서노드 리스트에 등록하는 방식으로 갱신한다.That is, as a result of monitoring and monitoring the flag value recorded in the Witch Choice field, if the flag value is '0', the sensor node is deleted from the list, and if the flag value is '1', the sorting of the sensor node is performed. It is updated by registering it in the sensor node list.

다음, 외부로부터 입력되는 방향 키에 따라 상기 센서노드 리스트에 등록된 센서노드 중에서 어느 하나를 선택해 그의 위치정보에 대응되는 화면 영역에 OSD객체를 예컨대, 작은 크기의 윈도우를 오버레이한다. Next, one of the sensor nodes registered in the sensor node list is selected according to the direction key input from the outside, and the OSD object is overlaid on the screen area corresponding to the position information, for example, with a small size window.

좀 더 구체적으로 설명하면, 우선 상기 리스트에 등록된 센서노드 중에서, 최우선 순위를 가진 센서노드를 선택해(S806) 그의 위치정보에 대응되는 화면 영역에 윈도우를 표시하므로(S807), 사용자는 화면상에서 우선 기준이 되는 센서노드와 관련된 객체(object)가 어떠한 것인지를 볼 수 있게 된다.More specifically, first, among the sensor nodes registered in the list, the sensor node having the highest priority is selected (S806), and a window is displayed in the screen area corresponding to the location information (S807), so that the user has priority on the screen. You can see what objects are related to the sensor node as a reference.

한편, 화면상에서 윈도우를 표시하기 위해, 상기 최우선 순위를 가진 센서노드가 첫번째로 선택되면, 그 첫번째로 선택된 센서노드에 현재 화면상에서 윈도우가 표시되고 있음을 나타내는 플랙값을 할당한다.On the other hand, in order to display the window on the screen, when the sensor node having the highest priority is selected first, a flag value indicating that the window is displayed on the current screen is assigned to the first selected sensor node.

다음, 이러한 동작이 완료된 상태에서, 사용자의 선택에 따라 외부로부터 방향 키가 입력되면(S808), 상기 플랙값이 할당된 센서노드를 찾아 그 센서노드를 기준으로 그 입력된 방향키에 대응되는 방향으로 입력된 횟수만큼 이동한 센서노드 를 선택한다(S809).Next, when such an operation is completed, when a direction key is input from the outside according to a user's selection (S808), the sensor node assigned the flag value is found and in a direction corresponding to the input direction key based on the sensor node. The sensor node moved by the input number of times is selected (S809).

그리고, 소정의 센서노드가 선택되면, 그 선택된 센서노드의 위치정보에 대응되는 화면 영역에 윈도우를 표시하고, 다음번의 방향 키 입력시 이동할 기준 위치를 알 수 있도록 그 선택된 센서노드에 윈도우가 표시되고 있음을 나타내는 플랙 값을 할당하고, 이전의 센서노드에 할당된 플랙값은 디폴트시킨다.When a predetermined sensor node is selected, a window is displayed on the screen area corresponding to the position information of the selected sensor node, and a window is displayed on the selected sensor node so as to know a reference position to be moved at the next direction key input. Assign a flag value to indicate that it is present, and default the flag value assigned to the previous sensor node.

이와 같은 동작에 따라, 사용자는 터치스크린이 지원되지 않더라도 디지털 멀티미디어 수신기를 통해 자신이 원하는 바에 따라 입력하는 방향 키에 따라 화면에서 표시되고 있는 센서노드와 관련된 객체가 어떠한 것이 있는지를 확인할 수 있게 된다.According to such an operation, the user can check whether there is an object related to the sensor node displayed on the screen according to the direction key input as desired by the digital multimedia receiver even if the touch screen is not supported.

이상에서 상세히 설명한 바와 같이, 본 발명에 따른 디지털 멀티미디어 수신기 및 그의 센서노드 표시방법은 터치스크린이 지원되지 않는 디지털 멀티미디어 수신기에서 외부로부터 입력되는 방향 키에 따라 센서노드와 관련된 객체를 사용자가 확인하고 이동 및 지정할 수 있다.As described in detail above, in the digital multimedia receiver and its sensor node display method according to the present invention, a user confirms and moves an object related to the sensor node according to a direction key input from an external device in a digital multimedia receiver that does not support a touch screen. And can be specified.

본 발명은 기재된 구체적인 예에 대해서만 상세히 설명되었지만 본 발명의 기술사상의 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.Although the invention has been described in detail only with respect to the specific examples described, it will be apparent to those skilled in the art that various modifications and variations are possible within the spirit of the invention, and such modifications and variations belong to the appended claims.

Claims (8)

방송 신호를 수신하고 복조하는 전처리부;A preprocessor receiving and demodulating a broadcast signal; 상기 전처리부가 복조한 방송파 내의 방송 스트림을 역다중화하여 BIFS(Binary Format for Scene)컴맨드를 출력하는 역다중화부;A demultiplexer for demultiplexing a broadcast stream within the demodulated broadcast wave and outputting a BIFS (Binary Format for Scene) command; 상기 역다중화부가 출력한 BIFS컴맨드를 디코딩해 BIFS트리를 구성하는 BIFS디코더;A BIFS decoder configured to decode the BIFS command output by the demultiplexer to form a BIFS tree; 상기 BIFS디코더가 구성한 BIFS트리를 저장하는 메모리;A memory for storing the BIFS tree configured by the BIFS decoder; 상기 메모리에 저장한 BIFS트리에서 소정 장면에 포함된 센서노드의 식별정보 및 위치정보를 추출하고 소팅시켜 센서노드 리스트를 구성하고, 외부로부터 입력된 방향 키에 따라 상기 센서노드 리스트를 구성하는 센서노드 중 어느 하나를 선택해 그의 위치정보를 출력하는 제어부;The sensor node list is constructed by extracting and sorting identification information and position information of the sensor node included in a predetermined scene from the BIFS tree stored in the memory, and constructing the sensor node list according to a direction key input from the outside. A control unit which selects any one and outputs its location information; 상기 제어부가 출력하는 위치정보에 대응되는 화면 영역에 그래픽 객체를 오버레이하는 영상프로세서; 및 An image processor overlaying a graphic object on a screen area corresponding to the position information output from the controller; And 상기 영상프로세서가 오버레이한 그래픽 객체를 화면에 표시하는 표시부를 포함하여 이루어진 디지털 멀티미디어 수신기.And a display unit for displaying a graphic object overlaid by the image processor on a screen. 소정의 BIFS 트리에서 화면에 표시할 장면에 포함된 센서노드들을 찾아 각각의 식별정보 및 위치정보를 추출하는 단계;Finding sensor nodes included in a scene to be displayed on a screen in a predetermined BIFS tree and extracting respective identification information and location information; 상기 추출한 각 센서노드의 위치정보 및 식별정보를 상기 위치정보에 따라 소팅시켜 센서노드 리스트를 구성하는 단계;Constructing a sensor node list by sorting the extracted location information and identification information of each sensor node according to the location information; 외부로부터 방향 키가 입력된 경우, 그 입력된 방향 키에 대응되는 방향으로 입력된 횟수만큼 이동하여 상기 센서노드 리스트를 구성하는 센서노드 중에서 어느 하나를 선택하는 단계;When a direction key is input from the outside, selecting one of the sensor nodes constituting the sensor node list by moving the number of times input in the direction corresponding to the input direction key; 상기 선택한 센서노드의 위치정보에 대응되는 화면영역에 그래픽 객체를 표시하는 단계를 포함하여 이루어진 디지털 멀티미디어 수신기의 센서노드 표시방법.And displaying a graphic object in a screen area corresponding to the position information of the selected sensor node. 제 2 항에 있어서, The method of claim 2, 상기 추출하는 단계는, The extracting step, 방송 신호를 통해 제공되는 BIFS 컴맨드로 BIFS 트리를 구성하는 단계;Constructing a BIFS tree with a BIFS command provided through a broadcast signal; 상기 구성한 BIFS 트리 내의 각 트랜스폼 2D노드 및 앵커노드 하위에 위치한 센서노드의 식별정보 및 위치정보를 추출하는 제1추출단계로 이루어진 디지털 멀티미디어 수신기의 센서노드 표시방법.And a first extraction step of extracting identification information and location information of sensor nodes located below each transform 2D node and anchor node in the configured BIFS tree. 제 3 항에 있어서, The method of claim 3, wherein 상기 제1추출단계는, The first extraction step, 상기 구성한 BIFS 트리 내의 각 트랜스폼 2D노드 및 앵커노드 하위의 휘치 초이스(whichcoice) 필드에 기록된 플랙값에 따라 상기 센서노드의 식별정보 및 위치정보를 선택적으로 추출하는 것을 특징으로 하는 디지털 멀티미디어 수신기의 센서노드 표시방법.The identification information and location information of the sensor node are selectively extracted according to the flag value recorded in the Witch Choice field under each transform 2D node and anchor node in the configured BIFS tree. How to display sensor nodes. 제 2 항에 있어서, The method of claim 2, 상기 표시하는 단계 후,After the displaying step, 외부로부터 방향 키가 입력된 경우, 상기 선택한 센서노드를 기준으로 상기 입력된 방향 키에 대응되는 방향으로 입력된 횟수만큼 이동한 위치의 센서노드를 선택하는 단계를 추가로 포함하여 이루어진 디지털 멀티미디어 수신기의 센서노드 표시방법.When the direction key is input from the outside, selecting the sensor node of the position moved by the number of times input in the direction corresponding to the input direction key based on the selected sensor node of the digital multimedia receiver How to display sensor nodes. 제 2 항에 있어서, The method of claim 2, 상기 소팅은, The sorting is, 상기 추출한 각 센서노드의 위치정보를 미리 설정된 기준위치와의 인접한 정도에 따라 이루어지는 것을 특징으로 하는 디지털 멀티미디어 수신기의 센서노드 표시방법.Sensor node display method of the digital multimedia receiver, characterized in that the position information of each extracted sensor node is made according to the degree of proximity with a preset reference position. 제 6 항에 있어서, The method of claim 6, 상기 기준위치는, The reference position is, 화면의 네 모서리 중에서 선택된 어느 하나인 것을 특징으로 하는 디지털 멀티미디어 수신기의 센서노드 표시방법.Sensor node display method of the digital multimedia receiver, characterized in that any one selected from the four corners of the screen. 제 2 항에 있어서, The method of claim 2, 상기 센서노드 리스트를 구성하는 센서노드는,Sensor nodes constituting the sensor node list, 장면이 바뀔 때마다 갱신되는 것을 특징으로 하는 디지털 멀티미디어 수신기의 센서노드 표시방법.A method of displaying a sensor node of a digital multimedia receiver, wherein the scene is updated whenever the scene changes.
KR1020060004607A 2006-01-16 2006-01-16 Digital multimedia receiver and method for displaying sensor node thereof KR100744259B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060004607A KR100744259B1 (en) 2006-01-16 2006-01-16 Digital multimedia receiver and method for displaying sensor node thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060004607A KR100744259B1 (en) 2006-01-16 2006-01-16 Digital multimedia receiver and method for displaying sensor node thereof

Publications (2)

Publication Number Publication Date
KR20070075873A KR20070075873A (en) 2007-07-24
KR100744259B1 true KR100744259B1 (en) 2007-07-30

Family

ID=38500892

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060004607A KR100744259B1 (en) 2006-01-16 2006-01-16 Digital multimedia receiver and method for displaying sensor node thereof

Country Status (1)

Country Link
KR (1) KR100744259B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100891984B1 (en) * 2007-06-22 2009-04-08 주식회사 넷앤티비 Method for Controlling the Selection of Object in Interactive BIFS Contents
KR20080114496A (en) * 2007-06-26 2008-12-31 삼성전자주식회사 Method and apparatus for composing scene using laser contents

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040107879A (en) * 2003-06-14 2004-12-23 엘지전자 주식회사 DMB service method and DMB receiver
JP2005045400A (en) 2003-07-24 2005-02-17 Canon Inc Object generating device and method therefor
KR20050121412A (en) * 2004-06-22 2005-12-27 한국전자통신연구원 Apparatus for coding/decoding interactive multimedia contents using parametric scene description
KR20060063566A (en) * 2004-12-06 2006-06-12 한국전자통신연구원 Apparatus and method for storing link information of dmb interactive contents, and dmb receiving terminal system using it

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040107879A (en) * 2003-06-14 2004-12-23 엘지전자 주식회사 DMB service method and DMB receiver
JP2005045400A (en) 2003-07-24 2005-02-17 Canon Inc Object generating device and method therefor
KR20050121412A (en) * 2004-06-22 2005-12-27 한국전자통신연구원 Apparatus for coding/decoding interactive multimedia contents using parametric scene description
KR20060063566A (en) * 2004-12-06 2006-06-12 한국전자통신연구원 Apparatus and method for storing link information of dmb interactive contents, and dmb receiving terminal system using it

Also Published As

Publication number Publication date
KR20070075873A (en) 2007-07-24

Similar Documents

Publication Publication Date Title
US20050253966A1 (en) System for processing video signals
US20130266065A1 (en) Coding and decoding of multiview videos
US20130182072A1 (en) Display apparatus, signal processing apparatus and methods thereof for stable display of three-dimensional objects
US7787061B2 (en) Receiving apparatus
KR20080028437A (en) Digital broadcast receiving apparatus and program display method
US20050081240A1 (en) Digital broadcasting receiver and method for displaying service component of digital broadcasting
CN102204269B (en) Method of processing multi-mode service broadcast signal and digital television receiver using the same
KR100744259B1 (en) Digital multimedia receiver and method for displaying sensor node thereof
JP4444323B2 (en) Digital broadcast receiver
US8989255B2 (en) Content reception apparatus and content reception apparatus control method
US20070006258A1 (en) Receiving apparatus
JP2011134282A (en) Information processing apparatus and information processing method
KR101061115B1 (en) Digital broadcasting receiver and subtitle data processing method
EP1791353A1 (en) Broadcasting program information displaying method and broadcasting receiver
JP2006067489A (en) Receiver for moving body
KR100982642B1 (en) Method for transmitting and receiving mosaic shape information
JP2006238276A (en) Digital broadcast receiving method and device thereof
JP5340699B2 (en) In-vehicle digital broadcast receiver and data broadcast display method
KR100727976B1 (en) Service display method in DMB, and DMB receiver thereof
JP2007249451A (en) Menu display device
KR20000019289A (en) Method for searching program of digital broadcasting reception system
KR100426103B1 (en) Method and apparatus for displaying an auxiliary mosaic EPG video in digital broadcasting receiver
KR100998436B1 (en) Apparatus for creating On Screen Display data for guidance of a broadcasting program, and the method thereof
JP2005192007A (en) Broadcast receiver and broadcast receiving method
JP2009246928A (en) Digital broadcasting receiver

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140624

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150624

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160624

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170614

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180614

Year of fee payment: 12