KR101815980B1 - 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법 - Google Patents

통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법 Download PDF

Info

Publication number
KR101815980B1
KR101815980B1 KR1020110071885A KR20110071885A KR101815980B1 KR 101815980 B1 KR101815980 B1 KR 101815980B1 KR 1020110071885 A KR1020110071885 A KR 1020110071885A KR 20110071885 A KR20110071885 A KR 20110071885A KR 101815980 B1 KR101815980 B1 KR 101815980B1
Authority
KR
South Korea
Prior art keywords
command data
device command
multimedia
type
sensor
Prior art date
Application number
KR1020110071885A
Other languages
English (en)
Other versions
KR20120011799A (ko
Inventor
이인재
임성용
차지훈
임영권
이한규
김진웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020110071885A priority Critical patent/KR101815980B1/ko
Priority to US13/187,604 priority patent/US20120023161A1/en
Publication of KR20120011799A publication Critical patent/KR20120011799A/ko
Application granted granted Critical
Publication of KR101815980B1 publication Critical patent/KR101815980B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은, 다양한 형태의 멀티미디어 컨텐츠, 및 상기 멀티미디어 컨텐츠의 제공 시에 멀티포인트들(multi-points)에서 센싱된 정보(sensed information)를 사용자들에게 실시간으로 고속 제공하는 멀티미디어 서비스 제공 시스템 및 방법에 관한 것으로, 사용자들이 제공받고자 하는 멀티미디어 서비스의 서비스 요구에 따라, 상기 멀티미디어 서비스에 해당하는 멀티미디어 컨텐츠의 장면 표현(scene representation) 및 실감 효과(sensory effect)들에 대해 멀티포인트들(multi-points)에서 센싱된 정보(sensed information)를 수신하고, 상기 센싱된 정보에 상응하는 이벤트(event) 데이터를 생성하고, 상기 센싱된 정보 및 상기 이벤트 데이터를 기반으로 디바이스 커맨드 데이터를 생성하며, 사용자 디바이스들(user devices)을 구동 및 제어하기 위해, 상기 디바이스 커맨드 데이터를 이진 표기(binary representation)로 부호화하여 송신한다.

Description

통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법{System and method for providing multimedia service in a communication system}
본 발명은 통신 시스템에 관한 것으로서, 특히 다양한 형태의 멀티미디어 컨텐츠, 및 상기 멀티미디어 컨텐츠의 제공 시에 멀티포인트들(multi-points)에서 센싱된 정보(sensed information)를 사용자들에게 실시간으로 고속 제공하는 멀티미디어 서비스 제공 시스템 및 방법에 관한 것이다.
통신 시스템에서는 고속의 전송 속도를 가지는 다양한 서비스 품질(QoS: Quality of Service, 이하 'QoS'라 칭하기로 함)의 서비스들을 사용자들에게 제공하기 위한 활발한 연구가 진행되고 있다. 이러한 통신 시스템은, 다양한 형태의 서비스를 제공받고자 하는 사용자들의 서비스 요구(service request)에 따라 다양한 형태의 서비스 데이터를 한정된 자원을 통해 빠르고 안정적으로 사용자들에게 전송하여, 각 사용자들이 요구한 서비스를 제공하기 위한 방안들이 제안되고 있다.
한편, 현재 통신 시스템에서는 사용자들의 다양한 서비스 요구에 따라, 대용량의 서비스 데이터를 고속으로 전송하기 위한 방안들이 제안되고 있으며, 특히 다양한 멀티미디어 서비스를 제공받고자 하는 사용자들의 서비스 요구에 상응하여 대용량의 멀티미디어 데이터를 고속으로 전송하기 위한 방안에 대해 연구가 활발하게 진행되고 있다. 다시 말해, 통신 시스템을 통해 사용자들은, 보다 고품질의 다양한 멀티미디어 서비스를 제공받기를 원하고 있으며, 특히 멀티미디어 서비스에 해당하는 멀티미디어 컨텐츠뿐만 아니라 상기 멀티미디어 컨텐츠의 다양한 실감 효과들을 제공받아, 보다 고품질의 멀티미디어 서비스를 제공받고자 한다.
하지만, 현재 통신 시스템에서는, 사용자들의 멀티미디어 서비스 요구에 따라 멀티미디어 컨텐츠를 전송하여, 상기 사용자들이 요구한 멀티미디어 서비스를 제공함에는 한계가 있다. 특히, 현재 통신 시스템에서는, 전술한 바와 같이 사용자들의 보다 다양한 고품질의 멀티미디어 서비스 요구에 상응하여, 멀티미디어 컨텐츠뿐만 아니라, 상기 멀티미디어 컨텐츠의 제공 시에 사용자 디바이스들(user devices)과의 사용자 상호 작용(user interaction)을 위해 다양한 센싱된 정보들로 멀티포인트들에서 획득된 정보, 예컨대 상기 멀티미디어 컨텐츠의 부가 데이터(additional data)를 사용자들에게 전송하기 위한 구체적인 방안이 아직까지 제안되고 있지 않다. 즉, 현재 통신 시스템에서는, 상기 멀티미디어 컨텐츠 및 상기 멀티미디어 컨텐츠의 부가 데이터를 고속으로 전송하여 각 사용자들에게 다양한 고품질의 멀티미디어 서비스를 실시간으로 제공하기 위한 구체적인 방안이 제안되고 있지 않다.
따라서, 통신 시스템에서 사용자들의 서비스 요구에 상응하여 다양한 고품질의 대용량 멀티미디어 서비스를 고속으로 제공하며, 특히 각 사용자들이 요구한 고품질의 대용량 멀티미디어 서비스를 실시간으로 제공하기 위한 방안이 필요하다.
따라서, 본 발명의 목적은 통신 시스템에서 멀티미디어 서비스를 제공하는 시스템 및 방법을 제공함에 있다.
또한, 본 발명의 다른 목적은, 통신 시스템에서, 사용자들의 서비스 요구에 따라 다양한 고품질의 멀티미디어 서비스를 사용자들에게 빠르게 실시간으로 제공하는 멀티미디어 서비스 제공 시스템 및 방법을 제공함에 있다.
그리고, 본 발명의 또 다른 목적은, 통신 시스템에서 각 사용자들이 제공받고자 하는 멀티미디어 서비스의 멀티미디어 컨텐츠, 및 상기 멀티미디어 컨텐츠의 제공 시에 멀티포인트들(multi-points)에서 획득된 정보를 고속으로 전송하여, 다양한 고품질의 멀티미디어 서비스를 실시간으로 각 사용자들에게 제공하는 멀티미디어 서비스 제공 시스템 및 방법을 제공함에 있다.
상기한 목적들을 달성하기 위한 본 발명의 시스템은, 통신 시스템에서 멀티미디서 서비스를 제공하는 시스템에 있어서, 사용자들이 제공받고자 하는 멀티미디어 서비스의 서비스 요구에 따라, 상기 멀티미디어 서비스에 해당하는 멀티미디어 컨텐츠의 장면 표현(scene representation) 및 실감 효과(sensory effect)들에 대해 멀티포인트들(multi-points)에서 센싱된 정보(sensed information)를 상기 멀티 포인트들로부터 수신하는 수신부; 상기 센싱된 정보에 상응하는 이벤트(event) 데이터 및 디바이스 커맨드(device command) 데이터를 생성하는 생성부; 및 상기 디바이스 커맨드 데이터를 이진 표기(binary representation)로 부호화하여 사용자 디바이스들(user devices)로 송신하는 송신부;를 포함한다.
상기한 목적들을 달성하기 위한 본 발명의 방법은, 통신 시스템에서 멀티미디서 서비스를 제공하는 방법에 있어서, 사용자들이 제공받고자 하는 멀티미디어 서비스의 서비스 요구에 따라, 상기 멀티미디어 서비스에 해당하는 멀티미디어 컨텐츠의 장면 표현(scene representation) 및 실감 효과(sensory effect)들에 대해 멀티포인트들(multi-points)에서 센싱된 정보(sensed information)를 수신하는 단계; 상기 센싱된 정보에 상응하는 이벤트(event) 데이터를 생성하는 단계; 상기 센싱된 정보 및 상기 이벤트 데이터를 기반으로 디바이스 커맨드 데이터를 생성하는 단계; 및 사용자 디바이스들(user devices)을 구동 및 제어하기 위해, 상기 디바이스 커맨드 데이터를 이진 표기(binary representation)로 부호화하여 송신하는 단계;를 포함한다.
본 발명은, 통신 시스템에서 각 사용자들이 제공받고자 하는 다양한 고품질의 멀티미디어 서비스를 안정적으로 제공하며, 특히 상기 멀티미디어 서비스의 멀티미디어 컨텐츠, 및 상기 멀티미디어 컨텐츠의 제공 시에 멀티포인트들(multi-points)에서 획득된 정보를 고속으로 전송함으로써, 사용자들에게 다양한 고품질의 멀티미디어 서비스를 빠르게 실시간으로 제공할 수 있다.
도 1은 본 발명의 실시 예에 따른 멀티미디어 서비스 제공 시스템의 구조를 개략적으로 도시한 도면.
도 2는 본 발명의 실시 예에 따른 멀티미디어 서비스 제공 시스템에서 서버의 구조를 개략적으로 도시한 도면.
도 3은 본 발명의 실시 예에 따른 멀티미디어 시스템에서 서버의 동작 과정을 개략적으로 도시한 도면.
이하, 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 흩뜨리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 발명은, 통신 시스템에서 다양한 고품질의 멀티미디어 서비스를 고속 및 실시간으로 제공하기 위한 멀티미디어 서비스 제공 시스템 및 방법을 제안한다. 여기서, 본 발명의 실시 예에서는, 다양한 고품질의 서비스를 제공받고자 하는 사용자들의 서비스 요청에 따라, 각 사용자들에게 제공하고자 하는 멀티미디어 서비스의 멀티미디어 컨텐츠, 및 상기 멀티미디어 컨텐츠의 제공 시에 멀티포인트들(multi-points)에서 획득된 정보를 사용자들에게 고속으로 전송하여 실시간으로 각 사용자들이 요구한 고품질의 다양한 멀티미디어 서비스를 실시간으로 제공한다.
또한, 본 발명의 실시 예에서는, 사용자들의 보다 다양한 고품질의 멀티미디어 서비스 요구에 상응하여, 멀티미디어 컨텐츠뿐만 아니라, 상기 멀티미디어 컨텐츠의 제공 시에 사용자 디바이스들(user devices)과의 사용자 상호 작용(user interaction)을 위한 다양한 센싱된 정보(sensed information)들로 멀티포인트들에서 획득된 정보, 예컨대 상기 멀티미디어 컨텐츠의 부가 데이터(additional data)를 사용자들에게 고속으로 전송하여, 다양한 고품질의 멀티미디어 서비스를 빠르게 실시간으로 제공한다. 여기서, 상기 멀티미디어 컨텐츠의 부가 데이터는, 사용자들에게 멀티미디어 서비스 제공 시에, 멀티미디어 컨텐츠의 장면 표현(scene representation) 또는 상기 장면 표현에 따른 외부 디바이스들을 동작을 통한 부가 서비스, 다시 말해 상기 멀티미디어 컨텐츠의 다양한 실감 효과(sensory effect)들을 제공하기 위해 멀티포인트들에서 센싱하여 획득한 정보를 포함하며, 상기 멀티포인트들에서 획득한 정보와 상기 멀티미디어 컨텐츠를 고속으로 전송하여 실시간으로 각 사용자들이 요구한 고품질의 다양한 멀티미디어 서비스를 실시간으로 제공한다.
그리고, 본 발명의 실시 예에서는, MPEG(Moving Picture Experts Group)-Ⅴ에서 다양한 멀티미디어 서비스 제공 시에, 사용자 디바이스들과의 사용자 상호 작용을 위해 멀티포인트들에서 획득된 정보, 즉 센싱된 정보를 이진 부호 표기 방식을 이용하여 고속으로 전송, 멀티미디어 서비스를 제공받는 각 사용자들에게 멀티미디어 컨텐츠뿐만 아니라, 상기 멀티미디어 컨텐츠에 대한 다양한 장면 표현 및 실감 효과들을 실시간으로 제공한다. 특히, 본 발명의 실시 예에서는, MPEG-Ⅴ의 Part5에서 멀티포인트들뿐만 아니라, 외부 센서들에서 센싱하여 획득한 정보, 즉 센싱된 정보에 따라, 사용자 상호 작용을 통해 사용자들에게 상기 멀티미디어 컨텐츠에 대한 다양한 장면 표현 및 실감 효과들을 실시간으로 제공하는 사용자 디바이들을 구동 및 제어하기 위한 디바이스 커맨드(device command) 데이터를 디스크립션(description)하기 위한 데이터 포맷을 정의한다. 다시 말해, 본 발명의 실시 예에서는, 상기 센싱된 정보에 상응하여 정의된 디바이스 커맨드를 이진 부호 표기 방식으로 부호화하여 고속으로 송신하며, 그에 따라 사용자들에게 멀티미디어 컨텐츠뿐만 아니라 상기 센싱된 정보에 상응하는 부가 서비스, 예컨대 장면 표현 및 실감 효과들 실시간으로 제공하여 다양한 고품질의 멀티미디어 서비스를 실시간으로 사용자들에게 제공한다.
여기서, 본 발명의 실시 예에서는, MPEG-Ⅴ의 Part5에서 멀티포인트들뿐만 아니라, 외부 센서들이 센싱하여 획득한 센싱된 정보를 이진 표기로 부호화하여 빠르게 서버로 송신하며, 상기 서버는, 멀티미디어 서비스의 멀티미디어 컨텐츠 및 상기 센싱된 정보에 해당하는 데이터를 사용자들에게 실제 멀티미디어 서비스를 제공하는 사용자 디바이스들로 전송한다. 이때, 상기 서버는, 상기 이진 표기로 부호화한 센싱된 정보, 즉 센싱 정보 데이터를 상기 멀티포인트들뿐만 아니라, 외부 센서들로부터 수신하며, 상기 수신한 센싱 정보 데이터로부터 상기 센싱된 정보를 디스크립션하는 이벤트(event) 데이터를 생성한 후, 상기 이벤트 데이터를 이용하여 상기 센싱된 정보에 따라 사용자 디바이스들을 구동 및 제어하는 디바이스 커맨드 데이터를 생성하여 사용자 디바이스들로 송신한다.
여기서, 상기 MPEG-Ⅴ의 Part5에서 서버는, 상기 사용자 디바이스들과의 사용자 상호 작용을 위한 LASeR(Light Application Scene Representation) 서버가 될 수 있으며, 상기 사용자 디바이스들은, 장면 표현 및 상기 센싱된 정보의 표현을 통해 사용자들에게 멀티미디어 컨텐츠뿐만 아니라 상기 멀티미디어 컨테츠에 대한 실감 효과들을 제공하는 액츄에이터(actuator)가 될 수 있다. 또한, 상기 서버는, 상기 디바이스 커맨드 데이터를 이진 표기로 부호화하여 상기 사용자 디바이스들, 즉 복수의 액츄에이터들로 송신한다.
그리고, 본 발명의 실시 예에 따른 MPEG-Ⅴ의 Part5에서의 상기 멀티포인트들 및 외부 센서들과 서버는, 멀티미디어 컨텐츠, 및 상기 멀티미디어 컨텐츠에 대한 센싱된 정보와 디바이스 커맨드 데이터를 효율적으로 디스크립션하기 위한 스키마(schema)를 각각 정의하고, 특히 고품질의 다양한 멀티미디어 서비스를 제공하기 위해 멀티미디어 컨텐츠와 함께 전송되는 센싱된 정보 및 디바이스 커맨드 데이터는, 확장 마크업 언어(XML: eXtensible Markup Language, 이하 'XML'이라 칭하기로 함) 문서로 디스크립션되어 전송된다. 예컨대, 상기 멀티포인트들 및 외부 센서들은, 센싱된 정보를 XML 문서 스키마로 각각 정의한 후, 상기 센싱된 정보를 이진 표기로 부호화하여 상기 서버로 송신하며, 상기 서버는, 상기 센싱된 정보를 수신한 후, 상기 센싱된 정보를 통해 이벤트 데이터를 생성하고, 상기 이벤트 데이터를 이용하여 이진 표기로 부호화된 디바이스 커맨드 데이터를 생성하여 각 액츄에이터들로 송신하며, 그에 따라 각 액츄에이터들을 통해 사용자들에게는 고품질의 다양한 멀티미디어 서비스가 제공된다. 그러면 여기서, 도 1을 참조하여 본 발명의 실시 예에 따른 멀티미디어 서비스 제공 시스템에 대해 보다 구체적으로 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 멀티미디어 서비스 제공 시스템의 구조를 개략적으로 도시한 도면이다.
도 1을 참조하면, 상기 멀티미디어 서비스 제공 시스템은, 사용자들의 서비스 요청에 따라 각 사용자들이 제공받고자 하는 고품질의 다양한 멀티미디어 서비스의 제공 시에 센싱된 정보를 송신하는 센서들, 예컨대 센서1(110), 센서2(112), 및 센서n(114), 상기 멀티미디어 서비스에 해당하는 멀티미디어 컨텐츠 및 상기 센싱된 정보를 사용자들에게 제공하는 서버(120), 및 상기 서버(120)로부터 제공된 멀티미디어 컨텐츠 및 센싱된 정보를 이용하여 사용자들에게 고품질의 다양한 멀티미디어 서비스를 제공하는 액츄에이터들, 예컨대 액츄에이터1(130), 액츄에이터2(132), 및 액츄에이터n(134)를 포함한다.
상기 센서들(110,112,114)은, 사용자들에게 고품질의 다양한 멀티미디어 서비스를 제공하기 위해, 상기 멀티미디어 서비스의 제공 시에 사용자 디바이스들, 다시 말해 액츄에이터들(130,132,134)과의 사용자 상호 작용을 통해 상기 멀티미디어 서비스에 대한 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하도록, 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 센싱한다. 또한, 상기 센서들(110,112,114)은, 상기 센싱을 통해 상기 센싱된 정보를 획득하며, 상기 센싱된 정보를 이진 표기로 부호화한 후, 이진 표기로 부호화한 센싱된 정보 데이터를 서버(120)로 송신한다.
즉, 상기 센서들(110,112,114)에서 획득한 센싱된 정보는, 이진 표기로 부호화, 다시 말해 상기 센서들(110,112,114)이 이진 표기 부호화 방식을 이용하여 상기 센싱된 정보를 부호화하며, 상기 부호화한 센싱된 정보, 즉 센싱 정보 데이터를 서버(120)로 송신한다. 여기서, 상기 센서들(110,112,114)은, 전술한 바와 같이 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과들을 센싱하여 상기 센싱된 정보를 획득 및 생성하는 디바이스들로서, 멀티포인트들 및 외부 센서들을 포함한다.
상기 서버(120)는, 상기 센서들(110,112,114)로부터 수신한 센싱 정보 데이터를 확인한 후, 상기 센싱 정보 데이터의 센싱된 정보에 따라 멀티미디어 컨텐츠에 대한 이벤트 데이터를 생성한다. 다시 말해, 상기 서버(120)는, 상기 센싱된 정보를 상기 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과를 사용자들에게 제공하기 위해, 상기 센싱된 정보를 고려하여 이벤트 데이터를 생성한다.
그리고, 상기 서버(120)는, 상기 생성한 이벤트 데이터를 고려하여, 멀티미디어 서비스 제공 시에 상기 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과를 사용자들에게 실제 제공하는 사용자 디바이스들, 다시 말해 액츄에이터들(130,132,134)에 대한 구동 및 제어를 위한 디바이스 커맨드 데이터를 생성하며, 상기 생성한 디바이스 커맨드 데이터를 상기 액츄에이터들(130,132,134)로 송신한다.
여기서, 상기 디바이스 커맨드 데이터에는, 상기 센싱된 정보에 상응하여 상기 액츄에이터들(130,132,134)이 멀티미디어 컨텐츠의 장면 표현 및 실감 효과를 사용자들에게 제공하도록, 상기 액츄에이터들(130,132,134)의 구동 및 제어 정보가 된다. 또한, 상기 디바이스 커맨드 데이터는 이진 표기로 부호화, 즉 상기 서버(120)는, 상기 액츄에이터들(130,132,134)의 구동 및 제어 정보를 이진 표기 부호화 방식으로 부호화한 상기 디바이스 커맨드 데이터를 상기 액츄에이터들(130,132,134)로 송신한다. 그리고, 상기 서버(120)는, 상기 멀티미디어 서비스에 대한 멀티미디어 컨텐츠를 이진 표기 부호화 방식으로 부호화하여 상기 액츄에이터들(130,132,134)로 송신한다.
상기 액츄에이터들(130,132,134)은, 상기 서버(120)로부터 이진 표기로 부호화된 상기 디바이스 커맨드 데이터를 수신하며, 상기 디바이스 커맨드 데이터에 따라 구동 및 제어된다. 즉, 상기 액츄에이터들(130,132,134)은, 상기 디바이스 커맨드 데이터에 따라 사용자들에게 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과를 제공하며, 그에 따라 사용자들에게는 고품질의 다양한 멀티미디어 서비스가 제공된다. 그러면 여기서, 도 2를 참조하여 본 발명의 실시 예에 따른 멀티미디어 서비스 제공 시스템에서 서버에 대해 보다 구체적으로 설명하기로 한다.
도 2는 본 발명의 실시 예에 따른 멀티미디어 서비스 제공 시스템에서 서버의 구조를 개략적으로 도시한 도면이다.
도 2를 참조하면, 상기 서버는, 전술한 바와 같이, 사용자들에게 고품질의 다양한 멀티미디어 서비스를 제공하기 위해 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과 등을 포함하는 센싱 정보 데이터를 멀티포인트들로부터 수신하는 수신부(210), 상기 센싱 정보 데이터로부터 센싱된 정보를 확인하여 이벤트 데이터를 생성하는 생성부1(220), 상기 이벤트 데이터에 따라 사용자 디바이스들을 구동 및 제어하기 위한 디바이스 커맨드 데이터를 생성하는 생성부2(230), 및 상기 디바이스 커맨드 데이터를 사용자 디바이스들, 즉 액츄에이터들로 송신하는 송신부(240)를 포함한다.
상기 수신부(210)는, 상기 멀티미디어 서비스의 제공 시에 사용자 상호 작용을 통해 상기 멀티미디어 서비스에 대한 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하도록, 상기 멀티포인트들에서 송신되는 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들에 대한 센싱 정보 데이터를 수신한다. 여기서, 상기 센싱 정보 데이터에는 이진 표기로 부호화된 센싱된 정보가 포함되며, 상기 센싱된 정보는, 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들에 대한 정보가 포함된다.
여기서, 상기 센싱된 정보는, 상기 센서의 타입 및 속성(attribute), 다시 말해 멀티포인트들의 타입 및 속성으로 정의되며, 상기 센서의 타입에 따라 상기 센싱된 정보는, 예컨대 빛(Light) 센서 타입(sensor type), 주변 잡음(Ambient Noise) 센서 타입, 온도(Temperature) 센서 타입, 습도(Humidity) 센서 타입, 거리(Distance) 센서 타입, 길이(Length) 센서 타입, 기압(Atmospheric pressure) 센서 타입, 위치(Position) 센서 타입, 속도(Velocity) 센서 타입, 가속도(Acceleration) 센서 타입, 방향(Orientation) 센서 타입, 각속도(Angular Velocity) 센서 타입, 각 가속도(Angular Acceleration) 센서 타입, 포스(Force) 센서 타입, 토크(Torque) 센서 타입, 압력(Pressure) 센서 타입, 모션(Motion) 센서 타입, 인텔리젼트 카메라(Intelligent Camera) 센서 타입 등을 포함한다. 또한, 상기 센싱된 정보는, 멀티 상호 작용 포인트 센서 타입(Multi Interaction point sensor type)(또는, 멀티 포인트 센서 타입(Multi point sensor type)), 시선 추적 센서 타입(Gaze tracking sensor type), 및 바람 센서 타입(Wind sensor type)를 포함한다.
또한, 상기 센싱된 정보는, 표 1 및 표 2에 나타낸 바와 같이 상기 센서의 타입 및 속성이 정의되며, 상기 센싱된 정보에서 정의되는 속성은, 타임스탬프(timestamp) 및 유닛(unit)으로 나타낼 수 있으며, 표 1 및 표 2에서 'f.timestamp'는 플로트(float)형의 타임스탬프 속성을 의미하고, 's.unit'은, 스트링(string)형의 유닛 속성을 의미한다. 즉, 상기 센싱된 정보에서 정의되는 속성은, 타임스탬프 및 유닛으로 정의된다.
Sensor type Attributes
Sened Information Light sensor f.timestamp, s.unit, f.value, s.color
Ambient noise sensor f.timestamp, s.unit, f.value
Temperature sensor f.timestamp, s.unit, f.value
Humidity sensor f.timestamp, s.unit, f.value
Distance sensor f.timestamp, s.unit, f.value
Length sensor f.timestamp, s.unit, f.value
Atmospheric pressure sensor f.timestamp, s.unit, f.value
Position sensor f.timestamp, s.unit, f.Px, f.Py, f.Pz
Velocity sensor f.timestamp, s.unit, f.Vx, f.Vy, f.Vz
Acceleration sensor f.timestamp, s.unit, f.Ax, f.Ay, f.Az
Orientation sensor f.timestamp, s.unit, f.Ox, f.Oy, f.Oz
Angular velocity sensor f.timestamp, s.unit, f.AVx, f.AVy, f.AVz
Angular acceleration sensor f.timestamp, s.unit, f.AAx, f.AAy, f.AAz
Force sensor f.timestamp, s.unit, f.FSx, f.FSy, f.FSz
Torque sensor f.timestamp, s.unit, f.TSx f.TSy f.TSz
Pressure sensor f.timestamp , s.unit, f.value
Motion sensor f.timestamp, f.Px, f.Py, f.Pz, f.Vx, f.Vy, f.Vz, f.Ox, f.Oy, f.Oz, f.AVx, f.AVy, f.Avz, f.Ax, f.Ay, f.Az, f.AAx, f.AAy, f.AAz
Intelligent Camera f.timestamp, FacialAnimationID, BodyAnimationID, FaceFeatures(f.Px f.Py f.Pz), BodyFeatures(f.Px f.Py f.Pz)
Multi point sensor f.timestamp, f.Px, f.Py, f.Pz, f.value
Gaze tracking sensor f.timestamp, f.Px, f.Py, f.Pz, f.Ox, f.Oy, f.Oz, f.value, f.value
Wind sensor f.timestamp, f.Px, f.Py, f.Pz, f.Vx, f.Vy, f.Vz
Sensor type Attributes
Sened Information Light sensor f.timestamp, s.unit, f.value, s.color
Ambient noise sensor f.timestamp, s.unit, f.value
Temperature sensor f.timestamp, s.unit, f.value
Humidity sensor f.timestamp, s.unit, f.value
Distance sensor f.timestamp, s.unit, f.value
Length sensor f.timestamp, s.unit, f.value
Atmospheric pressure sensor f.timestamp, s.unit, f.value
Position sensor f.timestamp, s.unit, f.Px, f.Py, f.Pz
Velocity sensor f.timestamp, s.unit, f.Vx, f.Vy, f.Vz
Acceleration sensor f.timestamp, s.unit, f.Ax, f.Ay, f.Az
Orientation sensor f.timestamp, s.unit, f.Ox, f.Oy, f.Oz
Angular velocity sensor f.timestamp, s.unit, f.AVx, f.AVy, f.AVz
Angular acceleration sensor f.timestamp, s.unit, f.AAx, f.AAy, f.AAz
Force sensor f.timestamp, s.unit, f.FSx, f.FSy, f.FSz
Torque sensor f.timestamp, s.unit, f.TSx f.TSy f.TSz
Pressure sensor f.timestamp , s.unit, f.value
Motion sensor f.timestamp, f.Px, f.Py, f.Pz, f.Vx, f.Vy, f.Vz, f.Ox, f.Oy, f.Oz, f.AVx, f.AVy, f.Avz, f.Ax, f.Ay, f.Az, f.AAx, f.AAy, f.AAz
Intelligent Camera f.timestamp, FacialAnimationID, BodyAnimationID, FaceFeatures(f.Px f.Py f.Pz), BodyFeatures(f.Px f.Py f.Pz)
Multi Interaction point sensor f.timestamp, f.value
Gaze tracking sensor f.timestamp, f.Px, f.Py, f.Pz, f.Ox, f.Oy, f.Oz, f.value
Wind sensor f.timestamp, f.Vx, f.Vy, f.Vz
이렇게 표 1 및 표 2에 나타낸 바와 같이 타입 및 속성으로 정의되는 센싱된 정보, 다시 말해 빛 센서 타입, 주변 잡음 센서 타입, 온도 센서 타입, 습도 센서 타입, 거리 센서 타입, 길이 센서 타입, 기압 센서 타입, 위치 센서 타입, 속도 센서 타입, 가속도 센서 타입, 방향 센서 타입, 각속도 센서 타입, 각 가속도 센서 타입, 포스 센서 타입, 토크 센서 타입, 압력 센서 타입, 모션 센서 타입, 인텔리젼트 카메라 센서 타입, 멀티 상호 작용 포인트 센서 타입(또는 멀티 포인트 센서 타입), 시선 추적 센서 타입, 및 바람 센서 타입은, XML 문서로 표기되며, 또한 이진 표기로 부호화되어 서버로 송신된다.
상기 생성부1(220)은, 상기 수신한 센싱 정보 데이터의 센싱된 정보를 확인하며, 상기 센싱된 정보에 따라 이벤트 데이터를 생성한다. 여기서, 상기 이벤트 데이터는, 상기 센싱된 정보를 사용자 디바이스들로 송신하여 멀티미디어 서비스 제공 시에 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과들을 사용자들에게 제공하도록, 상기 센싱된 정보를 포함한다. 즉 상기 이벤트 데이터에는, 상기 센싱된 정보를 사용자 디바이스들로 송신하여 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하기 위한 상기 센싱된 정보에 상응하는 정보값이 정의된다.
상기 생성부2(230)는, 상기 이벤트 데이터를 수신하고, 상기 이벤트 데이터에 포함된 상기 센싱된 정보에 따라 상기 사용자 디바이스들을 구동 및 제어하여 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하도록 하는 디바이스 커맨드 데이터를 생성한다. 또한, 상기 생성부2(230)는, 전술한 상기 멀티포인트들에서 센싱된 정보를 이진 표기로 부화화하는 방식과 같이, 상기 디바이스 커맨드 데이터를 이진 표기로 부호화한다.
여기서, 상기 디바이스 커맨드 데이터는, 멀티미디어 서비스 제공 시에, 상기 사용자 디바이스들이 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하도록 하는 구동 및 제어 정보가 된다. 또한, 상기 디바이스 커맨드 데이터는, 'xlink:href' 및 'deviceCommand'의 속성값을 갖는 엘리먼트(element), 예컨대 'LASeR sendDeviceCommand Element'로 정의되거나, 또는 'xlink:href'의 속성값을 갖고 하위 엘리먼트, 예컨대 'SVG foreignObject 엘리먼트'와 유사한 'foreign namespace'를 갖는 엘리먼트들을 포함하여 정의되며, 아울러 커맨드 형태, 예컨대 'LASeR command' 형태의 'SendDeviceCommand'로 정의된다.
그리고, 상기 송신부(240)는, 상기 이진 표기로 부호화된 디바이스 커맨드 데이터를 사용자 기기들, 다시 말해 액츄에이터들(130,132,134)로 송신한다. 그러면 이하에서는, 상기 센싱된 정보, 즉 표 1 및 표 2에 나타낸 바와 같이 센서의 타입 및 속성으로 정의되는 상기 센싱된 정보에 따른 상기 이벤트 데이터 및 디바이스 커맨드 데이터에 대해 보다 구체적으로 설명하기로 한다.
우선, 상기 이벤트 데이터는, 전술한 바와 같이, MPEG-Ⅴ의 Part5에서 상기 센싱된 정보를 사용자 디바이스들로 송신하여 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하도록 상기 센싱된 정보에 상응하여 정의된다. 예컨대, 표 1 및 표 2에 나타낸 바와 같은 상기 센싱된 정보에 따라, 상기 이벤트 데이터는, 상기 센싱된 정보의 정보값을 송신, 즉 상기 센싱된 정보를 사용자 디바이스들로 송신하기 위해, 표 3에 나타낸 바와 같이, 상기 이벤트 데이터의 IDL이 정의된다.
interface externalSensorEvent : LASeREvent {
typedef float fVectorType[3];
typedef sequence<fVectorType> fVectorListType;

readonly attribute string unitType;
readonly attribute float time;
readonly attribute float fValue;
readonly attribute string sValue;
readonly attribute fVectorType fVectorValue;

readonly attribute fVectorListType fVectorList1;
readonly attribute fVectorListType fVectorList2;
};
표 3에서, 'fVectorType'은, 3개의 플로트형 변수로 구성된 3D 벡터 타입을 정의하고, 'VectorListType'은 하나 이상의 플로트형 벡터를 가지는 리스트 타입을 정의하며, 'unitType'은 스크링형의 유닛 타입을 정의(일 예로, Lux, Celsius, Fahrenheit, mps, mlph)한다. 또한, 표 3에서, 'time'은, 플로트형의 센싱된 타임(sensed time) 정보를 의미하고, 'fValue'는 플로트형의 값을 의미하며, 'sValue'은 스트링형의 값을 의미한다. 그리고, 표 3에서, 'fVectorValue'은 플로트형의 벡터 타입을 가지는 값을 의미하고, 'fVectorList1'은 플로트형의 벡터 리스트 타입을 가지는 값들을 의미하며, 'fVectorList2'는 플로트형의 벡터 리스트 타입을 가지는 값들을 의미한다.
또한, 상기 이벤트 데이터는, 표 1 및 표 2에 나타낸 바와 같이 센서의 타입 및 속성으로 정의되는 상기 센싱된 정보에 상응하여 이벤트의 타입 및 속성으로 정의되며, 상기 이벤트의 타입에 따라 상기 이벤트 데이터는, 예컨대 빛(Light) 이벤트 타입(event type), 주변 잡음(Ambient Noise) 이벤트 타입, 온도(Temperature) 이벤트 타입, 습도(Humidity) 이벤트 타입, 거리(Distance) 이벤트 타입, 길이(Length) 이벤트 타입, 기압(Atmospheric pressure) 이벤트 타입, 위치(Position) 이벤트 타입, 속도(Velocity) 이벤트 타입, 가속도(Acceleration) 이벤트 타입, 방향(Orientation) 이벤트 타입, 각속도(Angular Velocity) 이벤트 타입, 각 가속도(Angular Acceleration) 이벤트 타입, 포스(Force) 이벤트 타입, 토크(Torque) 이벤트 타입, 압력(Pressure) 이벤트 타입, 모션(Motion) 이벤트 타입, 인텔리젼트 카메라(Intelligent Camera) 이벤트 타입 등을 포함한다. 또한, 상기 d이벤트 데이터는, 멀티 상호 작용 포인트 센서 이벤트 타입(Multi Interaction point sensor event type)(또는, 멀티 포인트 센서 이벤트 타입(Multi point sensor event type)), 시선 추적 센서 이벤트 타입(Gaze tracking sensor event type), 및 바람 이벤트 타입(Wind event type)를 포함한다.
또한, 상기 이벤트 데이터, 즉 이벤트 타입들은, 타임과 유닛 속성을 가지며, 표 4 및 표 5에 나타낸 바와 같이 신택스(syntax)와 시멘틱스(semantics)를 포함하는 컨택스트 정보(context information)로 나타낼 수 있다. 표 4 및 표 5에서 각 이벤트 타입들의 신택스는 표 3에서 구체적으로 설명하였음으로 여기서는 그에 관한 구체적인 설명을 생략하기로 한다.
Event Type Context Info
Syntax Sematics
Light Value Describes the value of the light sensor with respect to Lux.
sValue Describes the color which the lighting device can provide as a reference to a classification scheme term or as RGB value.
AmbientNoise fValue Describes the value of the ambient noise sensor with respect to decibel (dB)
Temperature fValue Describes the value of the temperature sensor with respect to the celsius scale.
Humidity fValue Describes the value of the humidity sensor with respect to percent (%).
Length fValue Describes the value of the length sensor with respect to meter (m).
Atmospheric pressure fValue Describes the value of the atmospheric pressure sensor with respect to hectopascal (hPa).
Position fVectorValue Describes the 3D value of the position sensor with respect to meter (m).
Velocity fVectorValue Describes the 3D vector value of the velocity sensor with respect to meter (m/s).
Acceleration fVectorValue Describes the 3D vector value of the acceleration sensor with respect to m/s2.
Orientation fVectorValue Describes the 3D value of the orientation sensor with respect to meter (radian).
AngularVelocity fVectorValue Describes the 3D vector value of the AngularVelocity sensor with respect to meter (radian/s).
AngularAcceleration fVectorValue Describes the 3D vector value of the AngularAcceleration sensor with respect to meter (radian/s2).
Force fVectorValue Describes the 3D value of the force sensor with respect to N(Newton).
Torque fVectorValue Describes the 3D value of the torque sensor with respect to N-mm (Newton millimeter).
Pressure fValue Describes the value of the pressure with respect to N/mm2 (Newton/millimeter square).
Motion fVectorList1 Describes the 6 vector values: position, velocity, acceleration, orientation, AngularVelocity, AngularAcceleration.
Intelligent Camera fVectorList1 Describes the 3D position of each of the face feature points detected by the camera.
fVectorList2 Describes the 3D position of each of the body feature points detected by the camera.
MultiPointing Sensor fVectorList1 Describes the 3D pointing information of multi-pointing devices.
fValue Describes the status of a button which is included in a multi-pointing device.
Gaze Tracking Sensor fVectorList1 Describes the 3D position value of an eye.
fVectorList2 Describes the 3D direction of a gaze.
fValue Describes the number of eye's blinking.
sValue Indicates which eye generates this gaze sensed information.
Wind fVectorList1 Describes the 3D position value of a wind flow.
fVectorList2 Describes the 3D vector value of the wind velocity with respect to meter (m/s).
Event Type Context Info
Syntax Sematics
Light Value Describes the value of the light sensor with respect to Lux.
sValue Describes the color which the lighting device can provide as a reference to a classification scheme term or as RGB value.
AmbientNoise fValue Describes the value of the ambient noise sensor with respect to decibel (dB)
Temperature fValue Describes the value of the temperature sensor with respect to the celsius scale.
Humidity fValue Describes the value of the humidity sensor with respect to percent (%).
Length fValue Describes the value of the length sensor with respect to meter (m).
Atmospheric pressure fValue Describes the value of the atmospheric pressure sensor with respect to hectopascal (hPa).
Position fVectorValue Describes the 3D value of the position sensor with respect to meter (m).
Velocity fVectorValue Describes the 3D vector value of the velocity sensor with respect to meter (m/s).
Acceleration fVectorValue Describes the 3D vector value of the acceleration sensor with respect to m/s2.
Orientation fVectorValue Describes the 3D value of the orientation sensor with respect to meter (radian).
AngularVelocity fVectorValue Describes the 3D vector value of the AngularVelocity sensor with respect to meter (radian/s).
AngularAcceleration fVectorValue Describes the 3D vector value of the AngularAcceleration sensor with respect to meter (radian/s2).
Force fVectorValue Describes the 3D value of the force sensor with respect to N(Newton).
Torque fVectorValue Describes the 3D value of the torque sensor with respect to N-mm (Newton millimeter).
Pressure fValue Describes the value of the pressure with respect to N/mm2 (Newton/millimeter square).
Motion fVectorList1 Describes the 6 vector values: position, velocity, acceleration, orientation, AngularVelocity, AngularAcceleration.
Intelligent Camera fVectorList1 Describes the 3D position of each of the face feature points detected by the camera.
fVectorList2 Describes the 3D position of each of the body feature points detected by the camera.
MultiInteractiIonPoint Sensor fValue Describes the status of an interaction point.
Gaze Tracking Sensor fVectorList1 Describes the 3D position value of an eye.
fVectorList2 Describes the 3D direction of a gaze.
fValue Describes the number of eye's blinking.
Wind fVectorList1 Describes the 3D vector value of the wind velocity with respect to meter (m/s).
여기서, 표 4 및 표 5에 나타낸 바와 같이, 상기 이벤트 데이터의 이벤트 타입은, 표 1 및 표 2에 나타낸 상기 센싱된 정보의 센서 타입에 상응하여 각각 정의되며, 특히 표 1 및 표 2에 나타낸 상기 멀티 상호 작용 포인트 센서 타입(또는, 멀티 포인트 센서 타입), 시선 추적 센서 타입, 및 바람 센서 타입에 상응하여 각각 멀티 상호 작용 포인트 센서 이벤트 타입(또는, 멀티 포인트 센서 이벤트 타입, 시선 추적 센서 이벤트 타입, 및 바람 이벤트 타입이 각각 정의된다.
또한, 표 4 및 표 5에 나타낸 바와 같은, 이벤트 데이터, 즉 이벤트 타입은, XML 문서로 표기되며, 일 예로 온도 이벤트 타입은, 표 6에 나타낸 바와 같이 XML 문서로 표기되며, 표 6은 상기 온도 이벤트 타입의 XML 표기 신택스(XML representation syntax)를 나타낸다.
<?xml version="1.0" encoding="ISO-8859-1" ?>
<saf:SAFSession xmlns:saf="urn:mpeg:mpeg4:SAF:2005"
xmlns:xlink="http://www.w3.org/1999/xlink"
xmlns:ev=http://www.w3.org/2001/xml-events xmlns:lsr="urn:mpeg:mpeg4:LASeR:2005"
xmlns="http://www.w3.org/2000/svg">
<saf:sceneHeader>
<lsr:LASeRHeader />
</saf:sceneHeader>
<saf:sceneUnit>
<lsr:NewScene>
<svg xmlns=http://www.w3.org/2000/svg >
<g onTemperature=“Temperature_change(evt)” >
<text id=“temp_text” x=10” y=“50”> </text>
<rect id="temp_rect" x="50" y="50" width="50" height="50" fill="green"/>
</g>
<script id=“temp” type="text/ecmascript">
<![CDATA[
function Temperature_change(evt) {
var evtText, evtRect, textContent;
evtText = document.getElementById(“temp_text”);
evtRect = document.getElementById(“temp_rect”);

textContent = evt.fValue;
evtText.firstChild.nodeValue = textContent;

if(evt.fValue > 30)
evtRect.setAttributeNS(null,”fill”,”red”);
else if(evt.fValue < 10)
evtRect.setAttributeNS(null,”fill”,”blue”);
else
evtRect.setAttributeNS(null,”fill”,”green”);
}
]]>
</script>
</svg>
</lsr:NewScene>
</saf:sceneUnit>
<saf:endOfSAFSession />
</saf:SAFSession>
여기서, 표 6에 나타낸 바와 같이 XML 표기 신택스로 표기된 상기 온도 이벤트 타입은, 멀티포인트들에서 온도 센서로부터 온도 정보를 수신하여 사용자들에게 제공하기 위해 LASeR 장면(scene)으로 온도를 숫자로 표시하며, 또한 온도 표시와 동시에 온도가 10도 이하이면 파란색으로, 30도 이상이면 빨강색으로, 10~30도 사이이면 초록색으로 표시하도록 하는 상기 온도 이벤트 타입의 일 예를 XML 표기 신택스로 나타낸 표이다.
이렇게 상기 서버는, 상기 멀티포인트들에서의 센싱된 정보에 상응하여 전술한 바와 같이 이벤트 데이터를 정의하고, 상기 센싱된 정보에 상응하여 사용자 디바이스들을 구동 및 제어하여 사용자들에게 상기 멀티포인트들에서의 센싱된 정보에 상응하는 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하도록, 상기 디바이스 커맨드 데이터를 생성하여 사용자 디바이스들로 송신한다.
여기서, 상기 디바이스 커맨드 데이터에 대해 보다 구체적으로 설명하면, 상기 디바이스 커맨드 데이터는 전술한 바와 같이 멀티미디어 서비스 제공 시에, 사용자 디바이스들과의 사용자 상호 작용을 통해 사용자들에게 다양한 고품질의 멀티미디어 서비스를 제공하도록, 상기 사용자 디바이스들을 구동 및 제어하는 정보를 포함한다. 이때, 상기 디바이스 커맨드 데이터는, 상기 멀티미디어 서비스의 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과들을 센싱하는 상기 멀티포인들에서의 센싱된 정보에 상응하여 정의된다.
다시 말해, 상기 센싱된 정보에 상응하여 표 5 및 표 6에 나타낸 바와 같이 이벤트 데이터가 정의되며, 상기 이벤트 데이터에 상응하여 상기 디바이스 커맨드 데이터가 정의, 즉 상기 디바이스 커맨드 데이터는 상기 센싱된 정보에 상응하여 정의된다. 여기서, 상기 디바이스 커맨드 데이터에는, 상기 사용자 디바이스들, 예컨대 액츄에이터들을 구동 및 제어하기 위한 스키마 및 디스크립터(descriptor)가 정의된다. 즉, 상기 서버는, 상기 디바이스 커맨드 데이터에 스키마를 각각 정의하고, 특히 고품질의 다양한 멀티미디어 서비스를 제공하기 위해 상기 디바이스 커맨드 데이터를 XML 문서로 디스크립션하며, 이때 고속으로 송신하여 실시간으로 고품질의 다양한 멀티미디어 서비스를 제공하기 위해 상기 디바이스 커맨드 데이터를 이진 표기로 부호화하여 송신한다.
여기서, 상기 디바이스 커맨드 데이터는, 상기 센싱된 정보 및 이벤트 데이터에 상응한 상기 사용자 디바이스들의 구동 및 제어에 따라 타입과 속성이 정의된다. 예컨대, 상기 디바이스 커맨드 데이터는, 빛 타입(Light type), 플래쉬 타입(Flash type), 히팅 타입(Heating type), 쿨링 타입(Cooling type), 바람 타입(Wind type), 진동 타입(Vibration type), 스프레이 타입(Sprayer type), 향기 타입(Scent type), 연기 타입(Fog type), 색 보정 타입(Color correction type), 초기 색 보정 파라미터 타입(Initialize color correction parameter type), 리지 바디 모션 타입(Rigid body motion type), 촉각 타입(Tactile type), 및 키네스세틱 타입(Kinesthetic type) 등을 포함한다.
이러한 디바이스 커맨드 데이터의 타입들은, XML 문서로 표기, 즉 XML 표기 신택스로 나타낼 수 있으며, 이렇게 XML 표기 신택스로 표기된 상기 디바이스 커맨드 데이터의 타입들은, 디스크립터 컴포넌트 시멘틱스(Descriptor components semantics)로 정의되며, 또한 이진 표기로 부호화되어 사용자 디바이스들로 송신됨에 따라 이진 표기 신택스(Binary representation syntax)로 나타낼 수 있다. 여기서, 표 7은, 상기 디바이스 커맨드 데이터의 타입과 속성이 정의된 상기 디바이스 커맨드 데이터의 일 예를 나타낸 표이다.
Device command type Attributes
DeviceCmdBase Attributes Id, deviceIdRef, Activate, type
Device Commands Light Type Intensity, color
Flash Type Flash Type
Heating Type Intensity
Cooling Type Intensity
Wind Type Intensity
Vibration Type Intensity
Sprayer Type sparyingType, Intensity
Scent Type Scent, Intensity
Fog Type Intensity
Color correction Type SpatialLocator(CoordRef(ref,spatialRef), Box(unlocateRegion, dim), Polygon(unlocatedRegion, Coords))
activate
Initial color correction parameter Type ToneReproductionCurves (DAC_Value, RGB_Value)
ConversionLUT (RGB2XYZ_LUT, RGBScalar_Max, Offset_Value, Gain_Offset_Gamm, InverseLUT )
ColorTemperature (xy_value(x, y), Y_Value, Correlated_CT)
InputDeviceColorGamut (IDCG_Value, IDCG_Value)
IlluminanceOfSurround
Rigid body motion Type Rigid body motion Type
MoveToward (direction, direction, directionZ, speedX, speedY, speedZ, accelerationX, accelerationY, accelerationZ) Incline (PitchAngle, YawAngle, RollAngle, PitchSpeed, YawSpeed, RollSpeed, PitchAcceleration, YawAcceleration, RollAcceleration)
Tactile Type array_intensity
Kinesthetic Type Position(x, y, z), Orientation(x, y, z)
Force(x, y, z), Torque(x, y, z)
또한, 상기 디바이스 커맨드 데이터는, 전술한 바와 같이, 멀티미디어 서비스 제공 시에, 상기 사용자 디바이스들이 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하도록 하는 구동 및 제어 정보가 되며, 특히 상기 디바이스 커맨드 데이터는, 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하는 소정의 사용자 디바이스로 구동 및 제어 정보, 즉 디바이스 커맨드를 송신하기 위해, 엘리먼트가 정의된다. 예컨대, 상기 디바이스 커맨드 데이터는, 'xlink:href' 및 'deviceCommand'의 속성값을 갖는 엘리먼트로, 'LASeR sendDeviceCommand Element'로 정의된다.
여기서, 'xlink:href'는, MPEG-Ⅴ의 Part5에서 디바이스 커맨드를 수신하는 사용자 디바이스, 즉 타겟 사용자 디바이스로 타겟 액츄에이터를 의미하는 속성값이고, 'deviceCommand'는, 상기 타겟 사용자 디바이스로 송신되는 소정의 구동 및 제어 정보, 즉 상기 멀티포인트들에서의 센싱된 정보에 따라 멀티미디어 컨텐츠의 장면 표현 및 실감 효과를 사용자들에게 제공하기 위해 상기 타겟 사용자 디바이스가 수행해야 하는 소정 동작의 기능 정보, 즉 디바이스 커맨드 정보를 의미하는 속성값이다.
이렇게 'xlink:href' 및 'deviceCommand'의 속성값을 갖는 엘리먼트로 정의된 디바이스 커맨드 데이터의 일 예로, 표 7에서 빛 타입의 디바이스 커맨드 데이터는, 표 8에 나타낸 바와 같이 XML 문서로 표기되며, 표 8은 상기 빛 타입의 디바이스 커맨드 데이터의 XML 표기 신택스를 나타낸 표이다.
<?xml version="1.0" encoding="ISO-8859-1" ?>
<saf:SAFSession xmlns:saf="urn:mpeg:mpeg4:SAF:2005"
xmlns:xlink="http://www.w3.org/1999/xlink"
xmlns:ev=http://www.w3.org/2001/xml-events xmlns:lsr="urn:mpeg:mpeg4:LASeR:2005"
xmlns="http://www.w3.org/2000/svg">
<saf:sceneHeader>
<lsr:LASeRHeader />
</saf:sceneHeader>
<saf:sceneUnit>
<lsr:NewScene>
<svg xmlns=http://www.w3.org/2000/svg >
<g>
<rect id="rect_Red" x="50" y="50" width="50" height="50" fill="red"/>
<rect id="rect_Blue" x="50" y="50" width="50" height="50" fill="blue"/>

<lsr:sendDeviceCommand begin=”rect_Red.click” xlink:href=”fdc1”
deviceCommand=”
&lt;iidl:InteractionInfo&gt;
&lt;iidl:DeviceCommandList&gt;
&lt;iidl:DeviceCommand xsi:type=&quot;dcv:LightType&quot;
id=&quot;light1&quot; deviceIdRef=&quot;fdc1&quot;
color=&quot;urn:mpeg:mpeg-v:01-SI-ColorCS-NS:red&quot; intensity=&quot;5&quot;/&gt;
&lt;/iidl:DeviceCommandList&gt;
&lt;/iidl:InteractionInfo&gt;”
</lsr:sendCommandDevice>

<lsr:sendDeviceCommand begin=”rect_Blue.click” xlink:href=”fdc1”
deviceCommand=”
&lt;iidl:InteractionInfo&gt;
&lt;iidl:DeviceCommandList&gt;
&lt;iidl:DeviceCommand xsi:type=&quot;dcv:LightType&quot;
id=&quot;light1&quot; deviceIdRef=&quot;fdc1&quot;
color=&quot;urn:mpeg:mpeg-v:01-SI-ColorCS-NS:blue&quot; intensity=&quot;5&quot;/&gt;
&lt;/iidl:DeviceCommandList&gt;
&lt;/iidl:InteractionInfo&gt;”
</lsr:SendDeviceCommand>
</g>
</svg>
</lsr:NewScene>
</saf:sceneUnit>
<saf:endOfSAFSession />
</saf:SAFSession>
여기서, 표 8에 나타낸 바와 같이 XML 표기 신택스로 표기된 상기 빛 타입의 디바이스 커맨드 데이터는, LASeR 장면에서 빨간 박스를 선택하면 빛 사용자 디바이스(light user device), 즉 빛 액츄에이터가 발간색으로 변경되고, 파란 박스를 선택하면 빛 액츄에이터가 파란색으로 변경되도록 하는 디바이스 커맨드 일 예이다.
그리고, 상기 디바이스 커맨드 데이터는, 전술한 바와 같이, 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하는 소정의 사용자 디바이스로 구동 및 제어 정보, 즉 디바이스 커맨드를 송신하기 위해, 예컨대 'xlink:href' 및 'deviceCommand'의 속성값을 갖는 엘리먼트 뿐만 아니라, 'xlink:href'의 속성값을 갖고 하위 엘리먼트로 'SVG foreignObject 엘리먼트'와 유사한 'foreign namespace'를 갖는 엘리먼트들을 포함하여 'LASeR sendDeviceCommand Element'로 정의된다. 여기서, 'xlink:href'는, MPEG-Ⅴ의 Part5에서 디바이스 커맨드를 수신하는 사용자 디바이스, 즉 타겟 사용자 디바이스로 타겟 액츄에이터를 의미하는 속성값이다.
이렇게 'xlink:href'의 속성값을 갖지며 하위 엘리먼트로 'foreign namespace'를 포함하여 정의된 디바이스 커맨드 데이터의 일 예로, 표 7에서 빛 타입의 디바이스 커맨드 데이터는, 표 9에 나타낸 바와 같이 XML 문서로 표기되며, 표 9는 상기 빛 타입의 디바이스 커맨드 데이터의 XML 표기 신택스를 나타낸 표이다.
<?xml version="1.0" encoding="ISO-8859-1" ?>
<saf:SAFSession xmlns:saf="urn:mpeg:mpeg4:SAF:2005"
xmlns:xlink="http://www.w3.org/1999/xlink"
xmlns:ev=http://www.w3.org/2001/xml-events xmlns:lsr="urn:mpeg:mpeg4:LASeR:2005"
xmlns="http://www.w3.org/2000/svg" xmlns:dcv="urn:mpeg:mpeg-v:2010:01-DCV-NS"
xmlns:iidl="urn:mpeg:mpeg-v:2010:01-IIDL-NS">
<saf:sceneHeader>
<lsr:LASeRHeader />
</saf:sceneHeader>
<saf:sceneUnit>
<lsr:NewScene>
<svg xmlns=http://www.w3.org/2000/svg >
<g>
<rect id="rect_Red" x="50" y="50" width="50" height="50" fill="red"/>
<rect id="rect_Blue" x="50" y="50" width="50" height="50" fill="blue"/>

<lsr:sendDeviceCommand begin=”rect_Red.click” xlink:href=”fdc1>
<iidl:InteractionInfo>
<iidl:DeviceCommandList>
<iidl:DeviceCommand xsi:type="dcv:LightType" id="light1" deviceIdRef=”fdc1”
color="urn:mpeg:mpeg-v:01-SI-ColorCS-NS:red" intensity="5"/>
</iidl:DeviceCommandList>
</iidl:InteractionInfo>
</lsr:sendDeviceCommand>

<lsr:sendDeviceCommand begin=”rect_Blue.click” xlink:href=”fdc1”>
<iidl:InteractionInfo>
<iidl:DeviceCommandList>
<iidl:DeviceCommand xsi:type="dcv:LightType" id="light1" deviceIdRef=”fdc1”
color="urn:mpeg:mpeg-v:01-SI-ColorCS-NS:blue" intensity="5"/>
</iidl:DeviceCommandList>
</iidl:InteractionInfo>
</lsr:SendDeviceCommand>
</g>
</svg>
</lsr:NewScene>
</saf:sceneUnit>
<saf:endOfSAFSession />
</saf:SAFSession>
여기서, 표 9에 나타낸 바와 같이 XML 표기 신택스로 표기된 상기 빛 타입의 디바이스 커맨드 데이터는, LASeR 장면에서 빨간 박스를 선택하면 빛 사용자 디바이스(light user device), 즉 빛 액츄에이터가 발간색으로 변경되고, 파란 박스를 선택하면 빛 액츄에이터가 파란색으로 변경되도록 하는 디바이스 커맨드 일 예이다.
또한, 상기 디바이스 커맨드 데이터는, 전술한 바와 같이, 멀티미디어 서비스 제공 시에, 상기 사용자 디바이스들이 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하도록 하는 구동 및 제어 정보가 되며, 특히 상기 디바이스 커맨드 데이터는, 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 제공하는 소정의 사용자 디바이스로 구동 및 제어 정보, 즉 디바이스 커맨드를 송신하기 위해, 표 8 및 표 9에서 설명한 엘리먼트 형태뿐만 아니라, 커맨드 형태로 정의된다. 예컨대, 상기 디바이스 커맨드 데이터는, 커맨드 형태로서 'LASeR command' 형태의 'SendDeviceCommand'로 정의된다. 여기서, 'LASeR command' 형태의 'SendDeviceCommand'로 정의된 상기 디바이스 커맨드 데이터는, 'deviceIdRef' 및 'deviceCommand' 속성 값을 갖는다.
그리고, 'LASeR command' 형태의 'SendDeviceCommand'로 정의된 상기 디바이스 커맨드 데이터에서, 'deviceIdRef'는, MPEG-Ⅴ의 Part5에서 디바이스 커맨드를 수신하는 사용자 디바이스, 즉 타겟 사용자 디바이스로 타겟 액츄에이터를 의미하는 속성값이고, 'deviceCommand'는, 상기 타겟 사용자 디바이스로 송신되는 소정의 구동 및 제어 정보, 즉 상기 멀티포인트들에서의 센싱된 정보에 따라 멀티미디어 컨텐츠의 장면 표현 및 실감 효과를 사용자들에게 제공하기 위해 상기 타겟 사용자 디바이스가 수행해야 하는 소정 동작의 기능 정보, 즉 디바이스 커맨드 정보를 의미하는 속성값이다.
이렇게 'deviceIdRef' 및 'deviceCommand'의 속성값을 갖는 'LASeR command' 형태의 'SendDeviceCommand'로 정의된 상기 디바이스 커맨드 데이터의 일 예로, 표 7에서 빛 타입의 디바이스 커맨드 데이터는, 표 10에 나타낸 바와 같이 XML 문서로 표기되며, 표 10은 상기 빛 타입의 디바이스 커맨드 데이터의 XML 표기 신택스를 나타낸 표이다.
<?xml version="1.0" encoding="ISO-8859-1" ?>
<saf:SAFSession xmlns:saf="urn:mpeg:mpeg4:SAF:2005"
xmlns:xlink="http://www.w3.org/1999/xlink"
xmlns:ev=http://www.w3.org/2001/xml-events xmlns:lsr="urn:mpeg:mpeg4:LASeR:2005"
xmlns="http://www.w3.org/2000/svg">
<saf:sceneHeader>
<lsr:LASeRHeader />
</saf:sceneHeader>
<saf:sceneUnit>
<lsr:NewScene>
<svg xmlns=http://www.w3.org/2000/svg >
<g>
<rect id="rect_Red" x="50" y="50" width="50" height="50" fill="red"/>
<rect id="rect_Blue" x="50" y="50" width="50" height="50" fill="blue"/>
</g>
<lsr:conditional begin=”rect_Red.click”>
<lsr:SendDeviceCommand deviceIdRef=”fdc1”
deviceCommand=”
&lt;iidl:InteractionInfo&gt;
&lt;iidl:DeviceCommandList&gt;
&lt;iidl:DeviceCommand xsi:type=&quot;dcv:LightType&quot;
id=&quot;light1&quot; deviceIdRef=&quot;fdc1&quot;
color=&quot;urn:mpeg:mpeg-v:01-SI-ColorCS-NS:red&quot; intensity=&quot;5&quot;/&gt;
&lt;/iidl:DeviceCommandList&gt;
&lt;/iidl:InteractionInfo&gt;”
</lsr:SendDeviceCommand>
</lsr:conditional>

<lsr:conditional begin=”rect_Blue.click”>
<lsr:SendDeviceCommand deviceIdRef=”fdc1”
deviceCommand=”
&lt;iidl:InteractionInfo&gt;
&lt;iidl:DeviceCommandList&gt;
&lt;iidl:DeviceCommand xsi:type=&quot;dcv:LightType&quot;
id=&quot;light1&quot; deviceIdRef=&quot;fdc1&quot;
color=&quot;urn:mpeg:mpeg-v:01-SI-ColorCS-NS:blue&quot; intensity=&quot;5&quot;/&gt;
&lt;/iidl:DeviceCommandList&gt;
&lt;/iidl:InteractionInfo&gt;”
</lsr:SendDeviceCommand>
</lsr:conditional>

</svg>
</lsr:NewScene>
</saf:sceneUnit>
<saf:endOfSAFSession />
</saf:SAFSession>
여기서, 표 10에 나타낸 바와 같이 XML 표기 신택스로 표기된 상기 빛 타입의 디바이스 커맨드 데이터는, LASeR 장면에서 빨간 박스를 선택하면 빛 사용자 디바이스(light user device), 즉 빛 액츄에이터가 발간색으로 변경되고, 파란 박스를 선택하면 빛 액츄에이터가 파란색으로 변경되도록 하는 디바이스 커맨드 일 예이다.
전술한 바와 같이, 본 발명의 실시 예에 따른 멀티미디어 시스템은, MPEG-Ⅴ에서 멀티미디어 서비스 제공 시에, 사용자 디바이스들과의 사용자 상호 동작을 통해 사용자들이 요구한 다양한 고품질의 멀티미디어 서비스를 고속 및 실시간으로 제공하도록, 멀티포인트들에서 상기 멀티미디어 서비스의 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과들을 센싱하고, 상기 센싱을 통해 획득한 센싱된 정보를 디스크립션(description)하기 위한 데이터 포맷을 정의, 즉 XML 문서 스키마로 정의하고, 이렇게 정의한 센싱된 정보를 이진 표기로 부호화하여 송신한다. 이렇게 이진 표기로 부호화한 센싱된 정보를 기반으로 이벤트 데이터를 생성하고, 상기 센싱된 정보 및 이벤트 데이터를 기반으로 디바이스 커맨드 데이터를 생성한 후, 이진 표기 부호로 부호화하여 사용자 디바이스들로 송신함으로써, 상기 멀티미디어 서비스 제공 시에 사용자 디바이스들과의 사용자 상호 동작을 수행하며, 그에 따라 사용자들이 요구한 다양한 고품질의 멀티미디어 서비스를 고속 및 실시간으로 사용자들에게 제공한다. 그러면 여기서, 도 3을 참조하여 본 발명의 실시 예에 따른 멀티미디어 시스템에서 멀티미디어 서비스 제공을 위해 사용자 디바이스들을 구동 및 제어하기 위한 서버의 이벤트 데이터 및 디바이스 커맨드 데이터 생성 및 송신 동작에 대해 보다 구체적으로 설명하기로 한다.
도 3은 본 발명의 실시 예에 따른 멀티미디어 시스템에서 서버의 동작 과정을 개략적으로 도시한 도면이다.
도 3을 참조하면, 310단계에서, 상기 서버는, 멀티미디어 서비스 제공 시에 사용자 디바이스들과의 사용자 상호 동작을 통해 사용자들이 요구한 다양한 고품질의 멀티미디어 서비스를 고속 및 실시간으로 제공하도록, 상기 멀티미디어 서비스의 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과들의 센싱된 정보, 즉 상기 센싱된 정보가 이진 표기로 부호화된 센싱 정보 데이터를 멀티포인트들로부터 수신한다. 여기서, 상기 센싱된 정보는 표 1 및 표 2에서 설명한 바와 같다.
그런 다음, 320단계에서, 상기 센싱 정보 데이터를 수신하고, 상기 수신한 센싱 정보 데이터를 통해 멀티포인트들에서 센싱된 정보, 즉 상기 멀티미디어 컨텐츠에 대한 장면 표현 및 실감 효과들을 확인하여 이벤트 데이터를 생성한다.
다음으로, 330단계에서, 상기 이벤트 데이터를 고려하여, 즉 상기 센싱된 정보에 상응하여 사용자 디바이스들을 구동 및 제어하는 디바이스 커맨드 데이터를 생성한다. 이때, 상기 디바이스 커맨드 데이터는 이진 표기로 부호화된다. 여기서, 상기 센싱된 정보에 상응하는 이벤트 데이터 및 디바이스 커맨드 데이터에 대해서는 앞서 구체적으로 설명하였음으로 여기서는 그에 관한 구체적인 설명을 생략하기로 한다.
그리고, 340단계에서, 상기 디바이스 커맨드 데이터를 사용자 디바이스들, 즉 액츄에이터들로 송신한다. 이때, 상기 사용자 디바이스들은, 상기 디바이스 커맨드 데이터에 의해 구동 및 제어되며, 그에 따라 멀티포인트들에서 센싱한 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 사용자들에게 제공함으로써, 사용자들이 요구한 다양한 고품질의 멀티미디어 서비스를 고속 및 실시간으로 제공한다.
한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 통신 시스템에서 멀티미디서 서비스를 제공하는 시스템에 있어서,
    사용자들이 제공받고자 하는 멀티미디어 서비스의 서비스 요구에 따라, 상기 멀티미디어 서비스에 해당하는 멀티미디어 컨텐츠의 장면 표현(scene representation) 및 실감 효과(sensory effect)들에 대해 멀티포인트들(multi-points)에서 센싱된 정보(sensed information)를 상기 멀티 포인트들로부터 수신하는 수신부;
    상기 센싱된 정보에 상응하는 이벤트(event) 데이터 및 디바이스 커맨드(device command) 데이터를 생성하는 생성부; 및
    상기 디바이스 커맨드 데이터를 이진 표기(binary representation)로 부호화하여 사용자 디바이스들(user devices)로 송신하는 송신부;를 포함하고,
    상기 디바이스 커맨드 데이터는,
    확장 마크업 언어(XML: eXtensible Markup Language) 표기 신택스(XML representation syntax) 및 디스크립터 컴포넌트 시멘틱스(Descriptor components semantics)로 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  2. 제1항에 있어서,
    상기 멀티포인트들은, 상기 멀티미디어 서비스의 제공 시에, 상기 사용자 디바이스들과의 사용자 상호 작용(user interaction)을 통해 상기 멀티미디어 서비스를 제공하기 위해, 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 센싱하는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  3. 제1항에 있어서,
    상기 센싱된 정보는, 상기 멀티포인트들의 센서 타입(sensor type) 및 속성(attribute)으로 정의되며;
    상기 이벤트(event) 데이터는, 상기 센서 타입에 상응하여 이벤트 타입이 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  4. 제3항에 있어서,
    상기 이벤트 타입은, 멀티 상호 작용 포인트 센서 이벤트 타입(Multi Interaction point sensor event type), 시선 추적 센서 타입(Gaze tracking sensor event type), 및 바람 이벤트 타입(Wind event type) 중 적어도 하나의 이벤트 타입을 포함하는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  5. 제1항에 있어서,
    상기 디바이스 커맨드 데이터는, 상기 센싱된 정보에 상응하는 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들에 대해 확장 마크업 언어(XML: eXtensible Markup Language) 문서 스키마로 정의되어 상기 사용자 디바이스들로 송신되는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  6. 제1항에 있어서,
    상기 디바이스 커맨드 데이터는, 이진 표기 신택스(Binary representation syntax)로도 정의되는 것을 특징으로 멀티미디어 서비스 제공 시스템.
  7. 제6항에 있어서,
    상기 디바이스 커맨드 데이터는, 상기 사용자 디바이스들 중에서 타겟 사용자 디바이스를 의미하는 속성값 및 상기 타겟 사용자 디바이스의 구동 및 제어 정보를 의미하는 속성값을 포함하는 엘리먼트(element)로 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  8. 제6항에 있어서,
    상기 디바이스 커맨드 데이터는, 상기 사용자 디바이스들 중에서 타겟 사용자 디바이스를 의미하는 속성값을 포함하는 엘리먼트(element) 및 하위 엘리먼트로 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  9. 제6항에 있어서,
    상기 디바이스 커맨드 데이터는, 상기 사용자 디바이스들 중에서 타겟 사용자 디바이스를 의미하는 속성값 및 상기 타겟 사용자 디바이스의 구동 및 제어 정보를 의미하는 속성값을 포함하는 커맨드 형태로 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  10. 제1항에 있어서,
    상기 디바이스 커맨드 데이터를 수신하고, 상기 디바이스커맨드 데이터에 의해 구동 및 제어되어 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 상기 사용자들에게 제공하는 상기 사용자 디바이스들;를 더 포함하는 것을 특징으로 하는 멀티미디어 서비스 제공 시스템.
  11. 통신 시스템에서 멀티미디서 서비스를 제공하는 방법에 있어서,
    사용자들이 제공받고자 하는 멀티미디어 서비스의 서비스 요구에 따라, 상기 멀티미디어 서비스에 해당하는 멀티미디어 컨텐츠의 장면 표현(scene representation) 및 실감 효과(sensory effect)들에 대해 멀티포인트들(multi-points)에서 센싱된 정보(sensed information)를 수신하는 단계;
    상기 센싱된 정보에 상응하는 이벤트(event) 데이터를 생성하는 단계;
    상기 센싱된 정보 및 상기 이벤트 데이터를 기반으로 디바이스 커맨드 데이터를 생성하는 단계; 및
    사용자 디바이스들(user devices)을 구동 및 제어하기 위해, 상기 디바이스 커맨드 데이터를 이진 표기(binary representation)로 부호화하여 송신하는 단계;를 포함하고,
    상기 디바이스 커맨드 데이터는,
    확장 마크업 언어(XML: eXtensible Markup Language) 표기 신택스(XML representation syntax) 및 디스크립터 컴포넌트 시멘틱스(Descriptor components semantics)로 정의 되는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
  12. 제11항에 있어서,
    상기 센싱된 정보는, 상기 멀티미디어 서비스의 제공 시에, 상기 사용자 디바이스들과의 사용자 상호 작용(user interaction)을 통해 상기 멀티미디어 서비스를 제공하기 위해, 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들에 대한 상기 멀티포인트들(multi-points)에서의 센싱을 통해 획득되는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
  13. 제11항에 있어서,
    상기 센싱된 정보는, 상기 멀티포인트들의 센서 타입 및 속성(attribute)으로 정의되며;
    상기 이벤트(event) 데이터는, 상기 센서 타입에 상응하여 이벤트 타입이 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
  14. 제13항에 있어서,
    상기 이벤트 타입은, 멀티 상호 작용 포인트 센서 이벤트 타입(Multi Interaction point sensor event type), 시선 추적 센서 타입(Gaze tracking sensor event type), 및 바람 이벤트 타입(Wind event type) 중 적어도 하나의 이벤트 타입을 포함하는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
  15. 제11항에 있어서,
    상기 디바이스 커맨드 데이터는, 상기 센싱된 정보에 상응하는 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들에 대해 확장 마크업 언어(XML: eXtensible Markup Language) 문서 스키마로 정의되어 상기 사용자 디바이스들로 송신되는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
  16. 제15항에 있어서,
    상기 디바이스 커맨드 데이터는, 이진 표기 신택스(Binary representation syntax)로도 정의되는 것을 특징으로 멀티미디어 서비스 제공 방법.
  17. 제16항에 있어서,
    상기 디바이스 커맨드 데이터는, 상기 사용자 디바이스들 중에서 타겟 사용자 디바이스를 의미하는 속성값 및 상기 타겟 사용자 디바이스의 구동 및 제어 정보를 의미하는 속성값을 포함하는 엘리먼트(element)로 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
  18. 제16항에 있어서,
    상기 디바이스 커맨드 데이터는, 상기 사용자 디바이스들 중에서 타겟 사용자 디바이스를 의미하는 속성값을 포함하는 엘리먼트(element) 및 하위 엘리먼트로 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
  19. 제16항에 있어서,
    상기 디바이스 커맨드 데이터는, 상기 사용자 디바이스들 중에서 타겟 사용자 디바이스를 의미하는 속성값 및 상기 타겟 사용자 디바이스의 구동 및 제어 정보를 의미하는 속성값을 포함하는 커맨드 형태로 정의되는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
  20. 제11항에 있어서,
    상기 디바이스 커맨드 데이터에 따른 상기 사용자 디바이스들의 구동 및 제어를 통해, 상기 멀티미디어 컨텐츠의 장면 표현 및 실감 효과들을 상기 사용자들에게 제공하는 단계;를 더 포함하는 것을 특징으로 하는 멀티미디어 서비스 제공 방법.
KR1020110071885A 2010-07-21 2011-07-20 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법 KR101815980B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110071885A KR101815980B1 (ko) 2010-07-21 2011-07-20 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법
US13/187,604 US20120023161A1 (en) 2010-07-21 2011-07-21 System and method for providing multimedia service in a communication system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20100070658 2010-07-21
KR1020100070658 2010-07-21
KR1020110071885A KR101815980B1 (ko) 2010-07-21 2011-07-20 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20120011799A KR20120011799A (ko) 2012-02-08
KR101815980B1 true KR101815980B1 (ko) 2018-01-09

Family

ID=45835934

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110071885A KR101815980B1 (ko) 2010-07-21 2011-07-20 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101815980B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243496A (ja) * 2000-02-29 2001-09-07 Sony Corp シーン記述生成装置及び方法、シーン記述変換装置及び方法、シーン記述記憶装置及び方法、シーン記述復号装置及び方法、ユーザインタフェースシステム、記録媒体並びに伝送媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243496A (ja) * 2000-02-29 2001-09-07 Sony Corp シーン記述生成装置及び方法、シーン記述変換装置及び方法、シーン記述記憶装置及び方法、シーン記述復号装置及び方法、ユーザインタフェースシステム、記録媒体並びに伝送媒体

Also Published As

Publication number Publication date
KR20120011799A (ko) 2012-02-08

Similar Documents

Publication Publication Date Title
US10409445B2 (en) Rendering of an interactive lean-backward user interface on a television
US10861221B2 (en) Sensory effect adaptation method, and adaptation engine and sensory device to perform the same
CN110050290A (zh) 虚拟现实体验共享
US10990163B2 (en) Content interaction system and method
US20110241908A1 (en) System and method for processing sensory effect
KR100860547B1 (ko) 촉감 정보 저작 방법과 장치, 및 컴퓨터로 판독가능한 기록매체
KR101239370B1 (ko) 가상 환경의 햅틱 속성의 정의를 통한 촉각 정보 표현 방법 및 촉각 정보 전송 시스템
JP4601257B2 (ja) マークアップ言語対応デバイスおよびデバイス操作方法
US20080240669A1 (en) Mpeg-based user interface device and method of controlling function using the same
KR20020083120A (ko) 동화상 연동 프로그램
KR101815980B1 (ko) 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법
US20120239712A1 (en) Method and apparatus for constructing and playing sensory effect media integration data files
US20120023161A1 (en) System and method for providing multimedia service in a communication system
US20230209123A1 (en) Guided Interaction Between a Companion Device and a User
US20110276659A1 (en) System and method for providing multimedia service in a communication system
KR101748194B1 (ko) 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법
KR101239830B1 (ko) 데이터 포멧의 정의를 통한 촉각 정보 표현 방법 및 촉각 정보 전송 시스템
US20210217386A1 (en) Compensating for latency in a streaming virtual reality environment
KR102460671B1 (ko) 실감 효과 적응 방법 및 이를 수행하는 적응 엔진 및 실감 장치
KR20110112210A (ko) 통신 시스템에서 멀티미디어 서비스 제공 시스템 및 방법
KR101941947B1 (ko) 가상현실 체험 기기를 이용한 가상현실 영상 제공 시스템
US20110282967A1 (en) System and method for providing multimedia service in a communication system
KR101250503B1 (ko) Mpeg-v의 아키텍쳐를 통한 촉각 정보 표현 방법 및 촉각 정보 전송 시스템
KR20140095917A (ko) 컨텐츠에 대응하여 동작하는 로봇 장치 및 로봇 제어 방법, 그리고 컨텐츠를 생성하는 서버
WO2023282049A1 (ja) 情報処理装置、情報処理方法、情報処理システム、コンピュータプログラム及び記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant