KR20100008774A - 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 - Google Patents

실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 Download PDF

Info

Publication number
KR20100008774A
KR20100008774A KR1020090065122A KR20090065122A KR20100008774A KR 20100008774 A KR20100008774 A KR 20100008774A KR 1020090065122 A KR1020090065122 A KR 1020090065122A KR 20090065122 A KR20090065122 A KR 20090065122A KR 20100008774 A KR20100008774 A KR 20100008774A
Authority
KR
South Korea
Prior art keywords
sensory
information
sensory effect
effect
media
Prior art date
Application number
KR1020090065122A
Other languages
English (en)
Inventor
최범석
주상현
이해룡
박승순
박광로
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20100008774A publication Critical patent/KR20100008774A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Abstract

본 발명은 실감 효과 표현 방법 및 그 장치, 그리고 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체에 관한 것이다. 본 발명의 실감 미디어 생성 방법은, 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 입력받는 단계 및 실감 효과 정보를 포함하는 실감 효과 메타데이터(Sensory Effect Metadata)를 생성하는 단계를 포함하고, 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함한다. 본 발명에 의하면 미디어를 제공할 때 실감 효과를 함께 구현함으로써 미디어의 재생 효과를 극대화시킬 수 있는 효과가 있다.
SMMD(Single Media Multiple Devices), 실감 효과(sensory effect), 메타데이터

Description

실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체{METHOD AND APPARATUS FOR REPRESENTATION OF SENSORY EFFECTS AND COMPUTER READABLE RECORD MEDIUM ON WHICH SENSORY EFFECT METADATA IS RECORDED}
본 발명은 실감 효과 표현 방법 및 그 장치, 그리고 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체에 관한 것이다.
본 발명은 지식경제부의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2007-S-010-02, 과제명: SMMD기반 유비쿼터스홈 미디어 서비스 시스템 개발].
일반적으로 미디어라 함은 오디오(음성, 음향 포함) 또는 비디오(정지화상, 동영상을 포함)를 포함한다. 사용자(user)가 미디어를 소비 또는 재생하는 경우, 미디어에 대한 데이터인 메타데이터를 이용하여 미디어에 대한 정보를 획득할 수 있다. 한편, 미디어를 재생하기 위한 기기(device)들 역시 기존에 아날로그 형태로 기록된 미디어를 재생하는 기기들로부터 디지털로 기록된 미디어를 재생하는 기기로 변화되었다.
종래의 미디어 기술은 스피커와 같은 오디오 출력 장치와 디스플레이 기기와 같은 비디오 출력 장치만을 이용하여 왔다.
도 1은 종래의 미디어 기술을 개략적으로 설명하기 위한 도면이다. 도 1을 참조하면, 미디어(102)는 미디어 재생 장치(104)에 의해 사용자에게 출력된다. 이처럼 종래의 미디어 재생 장치(104)는 오디오와 비디오를 출력하기 위한 장치만을 포함하고 있다. 이처럼 하나의 미디어가 하나의 기기를 통해 재생되는 종래의 서비스를 SMSD(Single Media Single Device)기반 서비스라고 한다.
한편, 사용자에게 미디어를 효과적으로 제공하기 위해 오디오와 비디오에 대한 기술의 개발이 진행되고 있다. 예를 들어, 오디오 신호를 다채널 신호 또는 다객체 신호로 처리하거나, 비디오를 고화질 영상, 스테레오스코픽(stereoscopic) 영상 또는 3차원 영상으로 처리하는 디스플레이 기술이 이에 해당한다.
이러한 미디어 기술과 관련하여 MPEG(moving picture experts group)은 MPEG-1부터 MPEG-2, MPEG-4, MPEG-7, 그리고 MPEG-21까지 진행되면서 미디어 개념의 발전과 멀티미디어 처리기술의 발전을 보여주고 있다. MPEG-1에서는 오디오와 비디오를 저장하기 위한 포맷을 정의하고 있고, MPEG-2에서는 미디어 전송에 초점을 맞추고 있으며, MPEG-4는 객체기반 미디어 구조를 정의하고 있고, MPEG-7은 미디어에 관한 메타데이터를 다루고 있으며, MPEG-21은 미디어의 유통 프레임워크 기술을 다루고 있다.
이와 같이 미디어 기술이 발전함에 따라, 3차원 시청각 기기(3-D audio/visual devices)등을 통해 현실 체험(realistic experiences)을 제공하는 것이 가능하게 되었지만, 종래의 시청각 기기 및 미디어 만으로는 실감 효과(sensory effects)를 구현(realize)하는 것은 매우 어려운 일이다.
따라서 본 발명은 미디어를 제공할 때, 실감 효과를 함께 구현함으로써 미디어의 재생 효과를 극대화시킬 수 있는 실감 효과 표현 방법 및 그 장치를 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
이러한 목적을 달성하기 위한 본 발명은 실감 미디어 생성 방법에 있어서, 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 입력받는 단계 및 실감 효과 정보를 포함하는 실감 효과 메타데이터(Sensory Effect Metadata)를 생성하는 단계를 포함하고, 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함하는 것을 일 특징으로 한다.
또한 본 발명은 실감 미디어 생성 장치에 있어서, 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 입력받는 입력부 및 실감 효과 정보를 포함하는 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성부를 포함하고, 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함하는 것을 다른 특징으로 한다.
또한 본 발명은 실감 효과 표현 방법에 있어서, 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 포함하는 실감 효과 메타데이터를 입력받는 단계, 실감 효과 메타데이터를 분석하여 실감 효과 정보를 획득하는 단계 및 실감 효과 정보에 대응하는 실감 기기를 제어하기 위한 실감 기기 제어 메타데이터(Sensory Device Command metadata)를 생성하는 단계를 포함하고, 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함하는 것을 또 다른 특징으로 한다.
또한 본 발명은 실감 효과 표현 장치에 있어서, 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 포함하는 실감 효과 메타데이터를 입력받는 입력부, 실감 효과 메타데이터를 분석하여 실감 효과 정보를 획득하고, 실감 효과 정보에 대응하는 실감 기기를 제어하기 위한 실감 기기 제어 메타데이터(Sensory Device Command metadata)를 생성하는 제어부를 포함하고, 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함하는 것을 또 다른 특징으로 한다.
또한 본 발명은 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 메타데이터는 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 포함하는 실감 효과 메타데이터를 포함하고, 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함하는 것을 또 다른 특징으로 한다.
전술한 바와 같은 본 발명에 의하면, 미디어를 제공할 때 실감 효과를 함께 구현함으로써 미디어의 재생 효과를 극대화시킬 수 있는 장점이 있다.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명 과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
종래의 미디어의 생성 또는 소비(재생)는 오디오와 비디오만을 그 대상으로 하여 왔다. 그러나, 인간은 시각과 청각 외에 후각 또는 촉각 등의 감각을 인지할 수 있다. 최근에는 촉각과 후각 등 인간의 오감을 자극할 수 있는 기기에 대한 연구가 활발히 진행되고 있다.
한편, 일반 가정에서 사용되던 아날로그 신호에 의해 제어되던 가전 기기들은 디지털 신호에 의하여 제어되도록 변화하고 있다.
따라서, 인간의 후각 또는 촉각 등의 감각을 자극하는 기기를 미디어와 연동하여 제어하면, 과거의 오디오 또는 비디오만으로 한정되었던 미디어의 개념을 확장할 수 있다. 즉, 현재의 미디어 서비스는 하나의 미디어가 하나의 기기에서 재현되는 SMSD(Single Media Single Device)기반의 서비스가 주를 이루고 있으나, 유비쿼터스 홈에서의 미디어 재현효과를 극대화하기 위해서는 하나의 미디어가 복수 개의 기기와 연동하여 재현되는 SMMD(Single Media Multi Devices)기반의 서비스가 구현될 수 있다. 따라서, 미디어 기술은 단순히 보는 것과 듣는 것에 대한 것뿐만 아니라 인간의 오감을 만족시키는 실감(Sensory Effect)형 미디어로 진화할 필요성이 있다. 이러한 실감형 미디어로 인해, 미디어 산업과 실감기기(Sensory Effect Device)의 시장을 확대시킬 수 있으며, 미디어의 재생 효과를 극대화함으로써 사용자에게 보다 풍부한 경험(experiences)을 제공할 수 있고, 이로 인해 미디어의 소비를 촉진시킬 수 있는 효과가 있다.
도 2는 본 발명에 따른 실감형 미디어 구현에 대한 개념도이다. 도 2를 참조하면, 미디어(202)와 실감 효과 메타데이터는 실감 미디어 표현 장치(Representation of Sensory Effect Engine: RoSE Engine)(204)에 입력된다. 여기서, 미디어(202)와 실감 효과 메타데이터는 별개의 제공자에 의해 실감 미디어 표현 장치(204)에 입력될 수 있다. 예를 들어, 미디어(202)는 미디어 제공자(도시되지 않음)에 의해 제공되고, 실감 효과 메타데이터는 실감 효과 제공자(도시되지 않음)에 의해 제공될 수 있다.
미디어(202)는 오디오 또는 비디오를 포함하고, 실감 효과 메타데이터는 미디어(202)의 실감 효과 표현(represent) 또는 구현(realize)을 위한 실감 효과 정보(sensory effect information)를 포함하는 것으로서, 미디어(202)의 재생 효과를 극대화할 수 있는 모든 정보를 포함할 수 있다. 도 2에서는 실감 효과로서, 시각, 후각, 촉각의 3가지 감각에 대한 실감 효과를 예로 들어 설명하도록 한다. 따라서, 도 2에서 실감 효과 정보는 시각효과 정보, 후각효과 정보 및 촉각효과 정보를 포함한다.
실감 미디어 표현 장치(204)는 미디어(202)를 입력받아 미디어 출력장치(206)에서 재생되도록 제어한다. 또한, 실감 미디어 표현 장치(204)는 실감 효과 메타데이터에 포함된 시각효과 정보, 후각효과 정보 및 촉각효과 정보를 이용하여 실감기기(208, 210, 212, 214)를 제어한다. 구체적으로는, 시각효과 정보를 이용하여 전등 기기(210)를 제어하고, 후각효과 정보를 이용하여 냄새 발생 기기(214)를 제어하며, 촉각효과 정보를 이용하여 진동 의자(208), 팬(212)을 제어한다.
따라서, 미디어에서 천둥 또는 번개와 같은 장면이 포함된 영상이 재생될 때에는 전등 기기(210)를 점멸시키고, 음식 또는 들판과 같은 장면이 포함된 영상이 재생될 때에는 냄새 발생 기기(214)를 제어하며, 래프팅 또는 자동차 추격과 같은 동적인 장면이 포함된 영상이 재생될 때에는 진동 의자(208)와 팬(212)을 제어함으로써, 시청하는 영상과 대응되는 실감 효과를 제공할 수 있다.
이처럼 바람의 세기, 조명의 색깔, 진동의 세기 등 실감 효과 정보를 표준화된 방식으로 표현하기 위한 스키마(schema)가 정의될 필요가 있는데, 이를 실감 효과 메타데이터(Sensory Effect Metadata: SEM)라고 한다. 실감 효과 메타데이터가 미디어(202)와 함께 실감 미디어 표현 장치(204)에 입력되면, 실감 미디어 표현 장치(204)는 미디어(202)를 재생하는 동시에, 미리 특정 시간에 실감 효과가 구현되도록 기술된 실감 효과 메타데이터를 분석하고, 미디어(202)와 동기를 맞추어 실감 기기들을 동작시키게 된다.
이 때, 실감 미디어 표현 장치(204)는 실감 효과를 표현하기 위해 다양한 실감 기기들에 대한 정보를 미리 가지고 있어야 한다. 따라서 실감 기기들에 대한 정보를 표현할 수 있는 메타데이터가 정의되어야 하는데, 이를 실감 기기 성능 메타데이터(Sensory Devide Capability metadata: SDCap)이라고 한다. 실감 기기 성능 메타데이터에는 위치 정보, 방향 정보 및 각 기기의 세부 성능에 대한 정보 등이 포함되어 있다.
한편, 미디어(202)를 시청하는 사용자는 특정 실감 효과에 대하여 다양한 선호도(preference)를 가질 수 있으며, 이러한 선호도는 실감 효과 표현에 영향을 줄 수 있다. 예를 들어, 어떤 사용자는 빨간 색의 조명을 싫어할 수 있으며, 어떤 사용자는 야간에 미디어(202)를 시청하므로 어두운 조명과 낮은 소리를 원할 수 있다. 이러한 사용자의 특정 실감 효과에 대한 선호도를 메타데이터로 표현함으로써 각 사용자별로 다른 실감 효과를 제공할 수 있는데, 이러한 메타데이터를 사용자 환경 정보 메타데이터(User Sensory Preference metadata: USP)라고 한다.
실감 효과 메타데이터를 입력받은 실감 미디어 표현 장치(204)는 실감 효과를 표현하기 전에, 각 실감 기기들로부터 실감 기기 성능 메타데이터를 입력받으며, 실감 기기 또는 별도의 입력 단말을 통해 사용자 환경 정보 메타데이터를 입력받는다. 실감 미디어 표현 장치(204)는 입력받은 실감 효과 메타데이터, 실감 기기 성능 메타데이터 및 사용자 환경 정보 메타데이터를 참조하여 실감 기기들에 대한 제어 명령을 내리게 된다. 이러한 제어 명령은 메타데이터 형식으로 각 실감 기기들에 전달되는데, 이를 실감 기기 제어 메타데이터(Sensory Device Command metadata: SDCmd)라고 한다.
이하에서는 실시예를 통해 본 발명에 의한 실감 효과 표현 방법 및 장치에 대해 보다 자세히 설명한다.
<용어 정의>
1. 제공자(provider)
실감 효과 메타데이터를 제공하는 개체를 의미하며, 실감 효과 메타데이터와 관련된 미디어를 제공할 수도 있음.
예) 방송 사업자
2. 실감 효과 표현 장치(Representation of Sensory Effect(RoSE) engine)
실감 효과 메타데이터(Sensory Effect Metadata), 실감 기기 성능 메타데이터(Sensory Device Capabilities metadata) 및/또는 사용자 환경 정보 메타데이터(User Sensory Preference metadata)를 입력받고, 이에 기반하여 실감 기기 제어 메타데이터(Sensory Device Commands metadata)를 생성하는 개체.
3. 소비자 기기(consumer devices)
실감 기기 제어 메타데이터를 입력받으며, 실감 기기 성능 메타데이터를 제공하는 개체. 또한, 사용자 환경 정보 메타데이터를 제공하는 개체 또한 소비자 기기로 언급될 수 있음. 실감 기기(sensory devices)는 소비자 기기의 부분 집합(sub-set)임.
예) 팬(fans), 조명(lights), 냄새 발생 기기(scent devices), 리모트 컨트롤러가 구비된 TV와 같은 인간 입력 장치(human input devices)
4. 실감 효과(sensory effects)
멀티미디어 어플리케이션의 특정 장면(scene)에서, 인간의 감각을 자극함으로써 지각(perception)을 증대(augment)시키기 위한 효과.
예) 냄새, 바람, 빛 등
5. 실감 효과 메타데이터(Sensory Effect Metadata: SEM)
실감 효과를 표현하기 위한 기술 개요(description schemes) 및 기술자(descriptors)를 정의.
6. 실감 효과 전송 포맷(Sensory Effect Delievery Format)
SEM을 전송하기 위한 수단을 정의.
예) MPEG2-TS 페이로드 포맷, 파일 포맷, RTP 페이로드 포맷 등
7. 실감 기기(sensory devices)
대응하는 실감 효과가 만들어질 수 있는 소비자 기기.
예) 조명(light), 팬(fans), 히터(heater) 등
8. 실감 기기 성능(Sensory Device Capability)
실감 기기의 특성을 나타내기 위한 기술 개요 및 기술자를 정의.
예) XML 스키마(schema)
9. 실감 기기 성능 전송 포맷(Sensory Device Capability Delivery Format)
실감 기기 성능을 전송하기 위한 수단을 정의.
예) HTTP, UPnP 등
10. 실감 기기 제어 명령(Sensory Device Command)
실감 기기를 제어하기 위한 기술 개요 및 기술자를 정의.
예) XML 스키마
11. 실감 기기 제어 명령 전송 포맷(Sensory Device Command Delivery Format)
실감 기기 제어 명령을 전송하기 위한 수단을 정의.
예) HTTP, UPnP 등
12. 사용자 환경 정보(User Sensory Preference)
실감 효과의 렌더링과 관련된 사용자 환경 정보를 나타내기 위한 기술 개요 및 기술자를 정의.
예) XML 스키마
13. 사용자 환경 정보 전송 포맷(User Sensory Preference Delievery Format)
사용자 환경 정보를 전송하기 위한 수단을 정의.
예) HTTP, UPnP 등
<실감 효과 표현을 위한 전체 시스템>
이하에서는 실감 효과 표현을 위한 전체 시스템의 구성 및 동작에 대해 상세히 설명한다.
도 3은 본 발명에 의한 실감 효과 표현을 위한 SMMD(Single Media Multiple Devices) 시스템의 구성도이다.
도 3을 참조하면, 본 발명에 의한 SMMD 시스템은 실감 미디어 생성 장치(302), 실감 효과 표현 장치(RoSE Engine)(304), 실감 기기(306), 미디어 재생 장치(308)를 포함한다.
실감 미디어 생성 장치(302)는 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 입력받고, 입력받은 실감 효과 정보를 포함하는 실감 효과 메타데이터(SEM)를 생성한다. 그 후 실감 미디어 생성 장치(302)는 생성된 실감 효과 메타데이터를 실감 효과 표현 장치(304)에 전송한다. 이 때 실감 미디어 생성 장치(302)는 실감 효과 메타데이터와 함께 미디어를 전송할 수 있다.
도 3에는 도시되어 있지 않으나, 본 발명의 다른 실시예에서 실감 미디어 생성 장치(302)는 실감 효과 메타데이터만을 전송하는 역할을 하고, 미디어는 실감 미디어 생성 장치(302)와는 별도의 장치를 통해 실감 효과 표현 장치(304) 또는 미디어 재생 장치(308)에 전송될 수 있다. 본 발명의 또 다른 실시예에서, 실감 미디 어 생성 장치(302)는 생성된 실감 효과 메타데이터와 미디어를 패키징하여 실감 미디어를 생성하고, 생성된 실감 미디어를 실감 효과 표현 장치(304)에 전송할 수도 있다.
실감 효과 표현 장치(304)는 미디어에 적용되는 실감 효과에 대한 실감 효과정보를 포함하는 실감 효과 메타데이터를 입력받고, 입력받은 실감 효과 메타데이터를 분석하여 실감 효과 정보를 획득한다. 실감 효과 표현 장치(304)는 획득한 실감 효과 정보를 이용하여, 미디어 재생시 실감 효과의 표현을 위해 사용자의 실감 기기(306)를 제어한다. 실감 기기(306)의 제어를 위해, 실감 효과 표현 장치(304)는 실감 기기 제어 메타데이터(SDCmd)를 생성하고, 생성된 실감 기기 제어 메타데이터를 실감 기기(306)에 전송한다. 도 3에서는 설명의 편의를 위해 하나의 실감 기기(306)만을 나타내었으나, 사용자에 따라 하나 이상의 실감 기기가 존재할 수 있다.
이 때 실감 효과 표현 장치(304)가 실감 기기 제어 메타데이터를 생성하기 위해서는 각 실감 기기(306)에 대한 성능 정보를 미리 가지고 있어야 한다. 따라서 실감 기기 제어 메타데이터를 생성하기 전에, 실감 효과 표현 장치(304)는 실감 기기(306)로부터 실감 기기(306)에 대한 성능 정보를 포함하는 실감 기기 성능 메타데이터(SDCap)를 전송받는다. 실감 효과 표현 장치(304)는 실감 기기 성능 메타데이터 통해 각 실감 기기(306)의 상태, 성능 등에 대한 정보를 얻을 수 있으며, 이러한 정보를 이용하여 각 실감 기기에 의해 구현될 수 있는 실감 효과의 구현을 위해 실감 기기 제어 메타데이터를 생성한다. 여기서 실감 기기에 대한 제어는 미디 어 재생 장치(308)에 의해 재생되는 장면과 실감 기기들을 동기화하는 것을 포함한다.
실감 기기(306)에 대한 제어를 위해 실감 효과 표현 장치(304)와 실감 기기(306)는 서로 네트워크로 연결될 수 있다. 이러한 네트워크 기술로서 LonWorks, UPnP(Universal Plug and Play)등의 기술이 적용될 수 있다. 또한, 미디어의 효과적인 제공을 위해 MPEG(MPEG-7, MPEG-21 등을 포함함)과 같은 미디어 기술을 함께 적용할 수 있다.
한편, 실감 기기(306) 및 미디어 재생 장치(308)를 소유한 사용자는 특정 실감 효과에 대하여 다양한 선호도를 가질 수 있다. 예를 들어, 사용자는 특정한 색을 싫어할 수도 있고, 좀 더 강한 진동을 원할 수도 있다. 이러한 사용자의 선호도 정보는 실감 기기(306) 또는 별도의 입력 단말(미도시)을 통해 입력되고, 메타데이터 형식으로 생성될 수 있다. 이러한 메타데이터를 사용자 환경 정보 메타데이터(USP)라고 한다. 생성된 사용자 환경 정보 메타데이터는 실감 기기(306) 또는 입력 단말(미도시)을 통해 실감 효과 표현 장치(304)에 전송된다. 실감 효과 표현 장치(304)는 전송받은 사용자 환경 정보 메타데이터를 고려하여 실감 기기 제어 메타데이터를 생성할 수 있다.
실감 기기(306)는 미디어에 적용되는 실감 효과를 구현하기 위한 기기이다. 실감 기기(306)의 예시는 다음과 같으나, 이에 한정되는 것은 아니다.
- 시각 기기(visual device): 모니터, TV, 월 스크린(wall screen) 등
- 음향 기기(sound device): 스피커, 악기(music instrument), 벨 등
- 바람 기기(wind device): 팬(fan), 윈드 인젝터(wind injector) 등
- 온도 기기(temperature device): 히터, 쿨러 등
- 조명 기기(lighting device): 전구, 조광기(dimmer), 컬러 LED, 플래쉬(flash) 등
- 음영 기기(shading device): 커튼, 롤 스크린, 문(door) 등
- 진동 기기(vibration device): 진동 의자(trembling chair), 조이스틱, 티클러(tickler) 등
- 냄새 기기(scent device): 향수 발생기(perfumer) 등
- 확산 기기(diffusion device): 스프레이 등
- 기타(other device): 미정의된(undefined) 효과에 대한 기기 또는 위 기기들에 의한 효과의 조합
실감 기기(306)는 사용자에 따라 하나 이상이 존재할 수 있다. 실감 효과 표현 장치(304)로부터 실감 기기 제어 메타데이터를 전송받은 실감 기기(306)는 미디어 재생 장치(308)에서 재생되는 미디어와 동기를 맞추어 각 장면(scene)에 정의된 실감 효과를 구현한다.
미디어 재생 장치(308)는 기존의 미디어를 재생하기 위한 TV와 같은 재생 장치를 의미한다. 미디어 재생 장치(308) 또한 시각과 청각을 표현하기 위한 기기의 일종이므로, 넓은 의미에서는 실감 기기(306)의 범주에 속할 수 있다. 하지만 도 3 에서는 설명의 편의를 위해 미디어 재생 장치(308)를 실감 기기(306)와는 별도의 개체로 표시하였다. 미디어 재생 장치(308)는 실감 효과 표현 장치(304)에 의해, 또는 별도의 경로에 의해 미디어를 전달받아 재생하는 역할을 한다.
<실감 미디어 생성 방법 및 장치>
이하에서는 본 발명에 의한 실감 미디어의 생성 방법 및 장치에 대해 상세히 설명한다.
본 발명에 의한 실감 미디어 생성 방법은 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 입력받는 단계 및 실감 효과 정보를 포함하는 실감 효과 메타데이터(Sensory Effect Metadata)를 생성하는 단계를 포함하고, 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함한다.
본 발명에 의한 실감 미디어 생성 방법은 생성된 실감 효과 메타데이터를 실감 효과 표현 장치에 전송하는 단계를 더 포함할 수 있다. 실감 효과 메타데이터는 미디어와 분리된 별도의 데이터로서 전송될 수 있다. 예를 들어, 사용자가 영화 보기 서비스 제공을 요청하면, 제공자는 사용자에게 미디어(영화) 데이터와 해당 미디어에 적용될 실감 효과 메타데이터를 함께 전송할 수 있다. 만약 사용자가 이미 특정 미디어(영화)를 보유한 경우, 제공자는 해당 미디어에 적용될 실감 효과 메타데이터만을 사용자에게 전송할 수 있다.
본 발명에 의한 실감 미디어 생성 방법은 생성된 실감 효과 메타데이터와 미디어를 패키징하여 실감 미디어를 생성하는 단계 및 생성된 실감 미디어를 전송하는 단계를 더 포함할 수 있다. 제공자는 미디어에 대한 실감 효과 메타데이터를 생성하고, 생성된 실감 효과 메타데이터를 미디어와 결합 또는 패키징하여 실감 미디어를 생성하여 실감 효과 표현 장치에 전송할 수 있다. 실감 미디어는 실감 효과 표현을 위한 실감 미디어 포맷의 파일로 구성될 수 있다. 그리고 실감 미디어 포맷은 실감 효과 표현을 위한 미디어의 표준화될 파일 포맷일 수 있다.
본 발명에 의한 실감 미디어 생성 방법에서 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 메타데이터의 생성에 대한 정보를 포함하는 일반 정보(general information)를 더 포함할 수 있다. 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함할 수 있으며, 미디어의 세그먼트에 적용되는 실감 효과 세그먼트 정보를 더 포함할 수 있다. 실감 효과 세그먼트 정보는 미디어의 세그먼트에서 적용될 효과 목록 정보, 효과 변수 정보 및 세그먼트에서 실감 효과가 적용될 위치를 나타내는 세그먼트 위치 정보를 포함할 수 있다. 효과 변수 정보는 같은 시간에 적용되는 하나 이상의 실감 효과 변수를 포함하는 실감 효과 프래그먼트 정보를 포함할 수 있다.
도 4는 본 발명에 의한 실감 미디어 생성 장치의 구성을 나타내는 구성도이다.
도 4를 참조하면, 실감 미디어 생성 장치(402)는 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 입력받는 입력부(404) 및 실감 효과 정보를 포함하는 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성부(406)를 포함한다. 여기서 실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함한다. 실감 미디어 생성 장치(402)는 생성된 실감 효과 메타데이터를 실감 효과 표현 장치에 전송하는 전송부(410)를 더 포함할 수 있다. 이 때 미디어는 입력부(404)를 통해 입력된 후 전송부(410)를 통해 실감 효과 표현 장치 또는 미디어 재생 장치 등으로 전송될 수 있다. 또한 미디어는 입력부(404)를 통해 입력되지 않고 별도의 경로를 통해 실감 효과 표현 장치 또는 미디어 재생 장치 등으로 전송될 수도 있다.
한편, 본 발명에 의한 실감 미디어 생성 장치(402)는 생성된 실감 효과 메타데이터와 미디어를 패키징하여 실감 미디어를 생성하는 실감 미디어 생성부(408)를 더 포함할 수 있다. 이 때 전송부(410)는 실감 미디어를 실감 효과 표현 장치에 전송할 수 있다. 실감 미디어를 생성하는 경우, 입력부(404)는 미디어를 더 입력받을 수 있고, 실감 미디어 생성부(408)는 입력된 미디어와 실감 효과 메타데이터 생성부(408)에 의해 생성된 실감 효과 메타데이터를 결합 또는 패키징하여 실감 미디어를 생성한다.
실감 효과 메타데이터는 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 메타데이터의 생성에 대한 정보를 포함하는 일반 정보를 더 포함할 수 있다. 실감 효과 기술 정보는 미디어 내에서 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함할 수 있으며, 미디어의 세그먼트에 적용되는 실감 효과 세그먼트 정보를 더 포함할 수 있다. 실감 효과 세그먼트 정보는 미디어의 세그먼트에서 적용될 효과 목록 정보, 효과 변수 정보 및 세그먼트에서 실감 효과가 적용될 위치를 나타내는 세그먼트 위치 정보를 포함할 수 있다. 효과 변수 정보는 같은 시간에 적용되는 하나 이상의 실감 효과 변수를 포함하는 실감 효과 프래그먼트 정보를 포함할 수 있다.
<실감 효과 표현 방법 및 장치>
이하에서는 본 발명에 의한 실감 효과 표현 방법 및 장치에 대해 상세히 설명한다.
본 발명에 의한 실감 효과 표현 방법은 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 포함하는 실감 효과 메타데이터를 입력받는 단계, 실감 효과 메타데이터를 분석하여 실감 효과 정보를 획득하는 단계 및 실감 효과 정보에 대응하는 실감 기기를 제어하기 위한 실감 기기 제어 메타데이터(Sensory Device Command metadata)를 생성하는 단계를 포함한다. 그리고 실감 효과 표현 방법은 생성된 실감 기기 제어 메타데이터를 실감 기기에 전송하는 단계를 더 포함할 수 있다. 여기서 실감 기기 제어 메타데이터는 실감 기기를 제어하기 위한 실감 기기 제어 기술 정보를 포함한다.
본 발명에 의한 실감 효과 표현 방법은 실감 기기에 대한 성능 정보를 포함하는 실감 기기 성능 메타데이터(Sensory Device Capabilites metadata)를 입력받는 단계를 더 포함할 수 있다. 이 때 실감 기기 제어 메타데이터를 생성하는 단계 는 실감 기기 성능 메타데이터에 포함된 성능 정보를 참조하는 단계를 더 포함할 수 있다.
또한 본 발명에 의한 실감 효과 표현 방법은 소정의 실감 효과에 대한 사용자의 선호도 정보를 포함하는 사용자 환경 정보 메타데이터(User Sensory Preference metadata)를 입력받는 단계를 더 포함할 수 있다. 이 때 실감 기기 제어 메타데이터를 생성하는 단계는 사용자 환경 정보 메타데이터에 포함된 선호도 정보를 참조하는 단계를 더 포함할 수 있다.
본 발명에 의한 실감 효과 표현 방법에서 실감 기기 제어 메타데이터에 포함된 실감 기기 제어 기술 정보는 실감 기기의 스위치 온/오프 여부, 세팅될 위치, 세팅될 방향에 대한 정보를 포함하는 기기 제어 일반 정보를 포함할 수 있다. 또한 실감 기기 제어 기술 정보는 실감 기기에 대한 세부 동작 명령을 포함하는 기기 제어 세부 정보를 포함할 수 있다.
도 5는 본 발명에 의한 실감 효과 표현 장치의 구성을 나타내는 구성도이다.
도 5를 참조하면, 본 발명에 의한 실감 효과 표현 장치(502)는 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 포함하는 실감 효과 메타데이터를 입력받는 입력부(504) 및 입력된 실감 효과 메타데이터를 분석하여 실감 효과 정보를 획득하고, 실감 효과 정보에 대응하는 실감 기기를 제어하기 위한 실감 기기 제어 메타데이터를 생성하는 제어부(506)를 포함한다. 여기서 실감 기기 제어 메타데이터는 실감 기기를 제어하기 위한 실감 기기 제어 기술 정보를 포함한다. 실감 효과 표현 장치(502)는 생성된 실감 기기 제어 메타데이터를 실감 기기에 전송하는 전송 부(508)를 더 포함할 수 있다.
한편, 입력부(504)는 실감 기기에 대한 성능 정보를 포함하는 실감 기기 성능 메타데이터를 입력받을 수 있다. 이 때 제어부(506)는 입력된 실감 기기 성능 메타데이터에 포함된 성능 정보를 참조하여 실감 기기 제어 메타데이터를 생성할 수 있다.
또한 입력부(504)는 소정의 실감 효과에 대한 사용자의 선호도 정보를 포함하는 사용자 환경 정보 메타데이터를 입력받을 수 있다. 이 때 제어부(506)는 입력된 사용자 환경 정보 메타데이터에 포함된 선호도 정보를 참조하여 실감 기기 제어 메타데이터를 생성할 수 있다.
여기서 실감 기기 제어 메타데이터에 포함된 실감 기기 제어 기술 정보는 실감 기기의 스위치 온/오프 여부, 세팅될 위치, 세팅될 방향에 대한 정보를 포함하는 기기 제어 일반 정보를 포함할 수 있다. 또한 실감 기기 제어 기술 정보는 실감 기기에 대한 세부 동작 명령을 포함하는 기기 제어 세부 정보를 포함할 수 있다.
<실감 기기 성능 정보 제공 방법 및 장치>
이하에서는 본 발명에 의한 실감 기기 성능 정보 제공 방법 및 장치에 대해 상세히 설명한다.
본 발명에 의한 실감 기기 성능 정보 제공 방법은 실감 기기에 대한 성능 정보를 획득하는 단계 및 성능 정보를 포함하는 실감 기기 성능 메타데이터(Sensory Device Capabilities metadata)를 생성하는 단계를 포함한다. 여기서 실감 기기 성 능 메타데이터는 성능 정보를 기술하는 기기 성능 정보를 포함한다. 본 발명에 의한 실감 기기 성능 정보 제공 방법은 생성된 실감 기기 성능 메타데이터를 실감 효과 표현 장치에 전송하는 단계를 더 포함할 수 있다.
한편, 본 발명에 의한 실감 기기 성능 정보 제공 방법은 실감 효과 표현 장치로부터 실감 기기 제어 메타데이터를 입력받는 단계 및 실감 기기 제어 메타데이터를 이용하여 실감 효과를 구현하는 단계를 더 포함할 수 있다. 여기서 실감 효과 표현 장치는 전송받은 실감 기기 성능 메타데이터를 참조하여 실감 기기 제어 메타데이터를 생성한다.
본 발명에 의한 실감 기기 성능 정보 제공 방법에서 실감 기기 성능 메타데이터에 포함된 기기 성능 정보는 실감 기기의 위치 정보, 방향 정보를 포함하는 기기 성능 공통 정보를 포함할 수 있다. 또한 기기 성능 정보는 실감 기기의 세부 성능에 관한 정보를 포함하는 기기 성능 세부 정보를 포함할 수 있다.
도 6은 본 발명에 의한 실감 기기 성능 정보 제공 장치의 구성을 나타내는 구성도이다.
도 6의 실감 기기 성능 정보 제공 장치(602)는 실감 기기와 동일한 기능을 갖는 기기이거나 실감 기기 그 자체일 수 있다. 또한 실감 기기 성능 정보 제공 장치(602)는 실감 기기와는 별도의 장치로서 존재할 수도 있다.
도 6에 나타난 바와 같이, 본 발명에 의한 실감 기기 성능 정보 제공 장치(602)는 실감 기기에 대한 성능 정보를 획득하고, 성능 정보를 포함하는 실감 기기 성능 메타데이터를 생성하는 제어부(606)를 포함한다. 여기서 실감 기기 성능 메타데이터는 성능 정보를 기술하는 기기 성능 정보를 포함한다. 또한 실감 기기 성능 정보 제공 장치(602)는 생성된 실감 기기 성능 메타데이터를 실감 효과 표현 장치에 전송하는 전송부(608)를 더 포함할 수 있다.
실감 기기 성능 정보 제공 장치(602)는 실감 효과 표현 장치로부터 실감 기기 제어 메타데이터를 입력받는 입력부(604)를 더 포함할 수 있다. 실감 효과 표현 장치는 전송받은 실감 기기 성능 메타데이터를 참조하여 실감 기기 제어 메타데이터를 생성한다. 이 때 제어부(606)는 입력된 실감 기기 제어 메타데이터를 이용하여 실감 효과를 구현할 수 있다.
여기서 실감 기기 성능 메타데이터에 포함된 기기 성능 정보는 실감 기기의 위치 정보, 방향 정보를 포함하는 기기 성능 공통 정보를 포함할 수 있다. 또한 기기 성능 정보는 실감 기기의 세부 성능에 관한 정보를 포함하는 기기 성능 세부 정보를 포함할 수 있다.
<사용자 환경 정보 제공 방법 및 장치>
이하에서는 본 발명에 의한 사용자 환경 정보 제공 방법 및 장치에 대해 상세히 설명한다.
본 발명에 의한 사용자 환경 정보 제공 방법은 사용자로부터 소정의 실감 효과에 대한 선호도 정보를 입력받는 단계 및 선호도 정보를 포함하는 사용자 환경 정보 메타데이터(User Sensory Preference metadata)를 생성하는 단계를 포함한다. 여기서 사용자 환경 정보 메타데이터는 선호도 정보를 기술하는 개인 환경 정보를 포함한다. 본 발명에 의한 사용자 환경 정보 제공 방법은 생성된 사용자 환경 정보 메타데이터를 실감 효과 표현 장치에 전송하는 단계를 더 포함할 수 있다.
본 발명에 의한 사용자 환경 정보 제공 방법은 실감 효과 표현 장치로부터 실감 기기 제어 메타데이터(Sensory Device Command metadata)를 입력받는 단계 및 실감 기기 제어 메타데이터를 이용하여 실감 효과를 구현하는 단계를 더 포함할 수 있다. 여기서 실감 효과 표현 장치는 전송받은 사용자 환경 정보 메타데이터를 참조하여 실감 기기 제어 메타데이터를 생성한다.
본 발명에 의한 사용자 환경 정보 제공 방법에서 개인 환경 정보는 여러 명의 사용자를 구별하기 위한 개인 정보, 각 사용자의 실감 효과 선호도 정보를 기술하는 환경 기술 정보를 포함할 수 있다. 또한 환경 기술 정보는 하나 이상의 실감 효과에 대한 세부 파라메터를 포함하는 효과 환경 정보를 포함할 수 있다.
도 7은 본 발명에 의한 사용자 환경 정보 제공 장치의 구성을 나타내는 구성도이다.
도 7의 사용자 환경 정보 제공 장치(702)는 실감 기기와 동일한 기능을 갖는 기기이거나 실감 기기 그 자체일 수 있다. 또한 사용자 환경 정보 제공 장치(702)는 실감 기기와는 별도의 장치로서 존재할 수도 있다.
도 7에 나타난 바와 같이, 본 발명에 의한 사용자 환경 정보 제공 장치(702)는 사용자로부터 소정의 실감 효과에 대한 선호도 정보를 입력받는 입력부(704) 및 선호도 정보를 포함하는 사용자 환경 정보 메타데이터를 생성하는 제어부(706)를 포함한다. 여기서 사용자 환경 정보 메타데이터는 선호도 정보를 기술하는 개인 환 경 정보를 포함한다. 본 발명에 의한 사용자 환경 정보 제공 장치(702) 생성된 사용자 환경 정보 메타데이터를 실감 효과 표현 장치에 전송하는 전송부(708)를 더 포함할 수 있다.
한편 입력부(704)는 실감 효과 표현 장치로부터 실감 기기 제어 메타데이터를 입력받을 수 있다. 여기서 실감 효과 표현 장치는 전송받은 사용자 환경 정보 메타데이터를 참조하여 실감 기기 제어 메타데이터를 생성한다. 이 때 제어부(706)는 입력받은 실감 기기 제어 메타데이터를 이용하여 실감 효과를 구현할 수 있다.
여기서 사용자 환경 정보 메타데이터에 포함된 개인 환경 정보는 여러 명의 사용자를 구별하기 위한 개인 정보, 각 사용자의 실감 효과 선호도 정보를 기술하는 환경 기술 정보를 포함할 수 있다. 또한 환경 기술 정보는 하나 이상의 실감 효과에 대한 세부 파라메터를 포함하는 효과 환경 정보를 포함할 수 있다.
<실감 효과 메타데이터>
이하에서는 실감 효과 메타데이터에 관해 상세히 설명한다.
실감 효과 메타데이터 스키마를 정의하는데 있어서 고려되어야 할 첫 번째 요소는 이 메타데이터가 요구사항(requirements)을 만족시키기 위하여 다양한 레벨의 분할(fragmentation)을 제공하도록 설계되었다는 점이다. 가장 높은 레벨의 구획(division)은 "기술(Description)"인데, 이는 컨텐츠 파일 내의 개별적인 비디오(또는 오디오) 트랙을 가리킨다. 두 번째 레벨은 "세그먼트(Segment)"인데, 이는 하나의 비디오(또는 오디오) 트랙의 일시적인(temporal) 부분을 가리킨다. 가장 작 은 구획 레벨은 "프래그먼트(Fragment)"인데, 이는 시간 단위를 공유하는 하나 이상의 효과 변수(Effect Variable)를 가질 수 있다. 도 8은 컨텐츠 구조와 스키마 구조 사이의 관계를 나타내는 도면이다. 도 8에서, "Desc"는 Description을, "Seg"는 Segment를, "Frag"는 Fragment를 각각 나타낸다.
두 번째 요소는 실감 효과 메타데이터가 효과 목록(Effect List) 및 효과 변수(Effect Variables)로 이루어진 두 개의 주요 부분(main part)을 갖는다는 점이다. 효과 목록은 컨텐츠에 적용되는 실감 효과의 속성을 포함한다. 효과 목록을 분석함으로써, 실감 효과 표현 장치(RoSE Engine)는 각각의 실감 효과를 사용자의 환경 내에 있는 적절한 실감 기기에 매치시킬 수 있고, 미디어 장면을 처리하기 전에 실감 기기들을 준비시키고 초기화시킬 수 있다. 효과 변수는 미디어 스트림과 동기화되는 실감 효과에 대한 제어 변수를 포함한다. 도 9는 실감 효과 메타데이터에 대한 처리 과정을 나타내는 도면이다.
이처럼 두 개의 부분을 분리시킴으로써, 전송을 위하여 실감 효과 메타데이터를 분할하는 것이 편리해진다. 효과 목록은 미디어 스트림의 앞에 전송되거나 채널 스위칭을 준비하기 위해 주기적으로 전송될 수 있다. 효과 변수 또한 쉽게 분할될 수 있으며, 시간 슬라이드 단위(unit of time slide)로 전송될 수 있다.
세 번째 요소는 본 발명에서 제안된 스키마 구조가 실감 효과의 조합(combinational Sensory Effet)을 제공한다는 것이다. 예를 들어, "눅눅한 바람(Humid Wind)"과 같은 실감 효과는 '바람'과 '습도'라는 실감 효과의 조합이다. 동일한 맥락에서, "노란 스모그(Yellow Smog)" 또한 '조명'과 '스모그'라는 실감 효과의 조합이다. 사용자는 본 발명에서 제안된 스키마 내에서 정의된 속성들을 조합함으로써 어떠한 실감 효과도 만들어 낼 수 있다. 도 10은 실감 효과의 조합을 정의하는 과정을 설명하는 도면이다.
마지막 요소는 확장성(expandability)이다. 본 발명에서 제안된 스키마는 현재 또는 미래에 존재하는 모든 실감 효과를 커버하기에는 당연히 충분하지 않다. 따라서, 이러한 스키마는 현재의 구조를 심하게 변경하지 않고서도 확장 가능해야만 한다. 도 11은 본 발명에 의한 실감 효과 메타데이터의 확장성을 설명하기 위한 효과 변수의 구조를 나타내는 도면이다. 만약 새로운 타입의 실감 효과가 정의될 필요가 있다면, 그 새로운 실감 효과를 위한 목록(enumeration) 변수 및 새로운 변수 요소(elements)가 추가되기만 하면 된다.
한편, 본 발명에 따른 실감 효과 메타데이터는 MPEG-7과 같은 미디어와 관련된 기술과 LonWorks와 같은 네트워크와 관련된 기술이 함께 접목될 수 있다. LonWorks와 같은 네트워크와 관련된 기술에는 SNVTs(Standard Network Variable Types)이 이용될 수 있다. 이러한 경우, 접목되는 기술에 따른 메타데이터의 타입을 구별하기 위해 네임스페이스 프리픽스(Namaspace Prefix)를 사용할 수 있다. 본 발명에서, 실감 효과 메타데이터의 네임스페이스는 "urn:rose:ver1:represent:sensoryeffectmetadata:2008:07"가 될 것이다. 명확함을 위해, 일정한 네임스페이스 프리픽스가 사용된다. [표 1]은 이러한 프리픽스 및 대응하는 네임스페이스를 나타낸다.
Figure 112009043431457-PAT00001
이하에서는 실감 효과 메타데이터 스키마 정의 및 의미(semantics)에 대해 상세히 설명한다.
도 12는 본 발명에 의한 실감 효과 메타데이터에 대해 설명하기 위한 도면이다.
도 12를 참조하면, 실감 효과 메타데이터(SEM)(1201)는 실감 효과 기술 정보(SEDescription)(1203)를 포함한다. 또한 실감 효과 메타데이터(SEM)(1201)는 일반 정보(GeneralInfo)(1202)를 더 포함할 수 있다. 이를 정리하면 [표 2]와 같다.
Figure 112009043431457-PAT00002
일반 정보(GeneralInfo)(1202)는 실감 효과 메타데이터(SEM)(1201)의 생성과 관련된 정보를 포함한다. 실감 효과 기술 정보(SEDescription)(1203)는 실감 효과를 기술하며, 하나의 파일 내에 있는 각 무비 트랙(movie track)에 대한 실감 효과 기술이 가능하다.
도 12와 관련된 실감 효과 메타데이터(SEM)(1201)에 대한 스키마의 일 예는 아래와 같다.
<element name="SEM" type="SEM:SEMType"/>
<complexType name="SEMType">
<sequence>
<element name="GeneralInfo" type="mpeg7:DescriptionMetadataType" minOccurs="0"/>
<element name="SEDescription" type="SEM:SEDescriptionType" maxOccurs="unbounded"/>
</sequence>
</complexType>
도 13은 본 발명에 의한 실감 효과 메타데이터에 포함되는 일반 정보(GeneralInfo)를 설명하기 위한 도면이다.
일반 정보(GeneralInfo)는 실감 효과 메타데이터의 생성과 관련된 정보를 포함한다. 도 13을 참조하면, 일반 정보(GeneralInfo)(1301)는 Confidence(1302), Version(1303), LastUpdate(1304), Comment(1305), PublicIdentifier(1306), PrivateIdentifier(1307), Creator(1308), CreationLocation(1309), CreationTime(1310), Instrument(1311) 및 Rights(1312)를 포함할 수 있다.
일반 정보(GeneralInfo)(1301)는 일반적인 메타데이터의 생성과 관련된 정보를 포함할 수 있다. 예를 들면, 버전, 최종 업데이트 일자, 저작자, 저작 시간, 저작 장소, 저작권 등의 정보를 포함할 수 있다. 일반 정보(GeneralInfo)(1301)의 타입은 MPEG-7의 mpeg7:DescriptionMetadataType 에 의해 참조될 수 있다.
일반 정보(GeneralInfo)(1301)에 대한 스키마의 일 예는 아래와 같다.
<complexType name="DescriptionMetadataType">
<complexContent>
<extension base="mpeg7:HeaderType">
<sequence>
<element name="Confidence" type="mpeg7:zeroToOneType" minOccurs="0"/>
<element name="Version" type="string" minOccurs="0"/>
<element name="LastUpdate" type="mpeg7:timePointType" minOccurs="0"/>
<element name="Comment" type="mpeg7:TextAnnotationType" minOccurs="0"/>
<element name="PublicIdentifier" type="mpeg7:UniqueIDType" minOccurs="0" maxOccurs="unbounded"/>
<element name="PrivateIdentifier" type="string" minOccurs="0" maxOccurs="unbounded"/>
<element name="Creator" type="mpeg7:CreatorType" minOccurs="0" maxOccurs="unbounded"/>
<element name="CreationLocation" type="mpeg7:PlaceType" minOccurs="0"/>
<element name="CreationTime" type="mpeg7:timePointType" minOccurs="0"/>
<element name="Instrument" type="mpeg7:CreationToolType" minOccurs="0" maxOccurs="unbounded"/>
<element name="Rights" type="mpeg7:RightsType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
도 14는 본 발명에 의한 실감 효과 메타데이터에 포함되는 실감 효과 기술 정보(SEDescription)를 설명하기 위한 도면이다.
하나의 파일 내에 여러 개의 비디오 또는 오디오 트랙이 존재하는 경우, 실감 효과 기술 정보(SEDescription)는 각각의 트랙에 대한 실감 효과를 기술할 수 있게 한다. 도 14를 참조하면, 실감 효과 기술 정보(SEDescription)(1401)는 기술 정보 식별자(DescriptionID)(1402), 미디어 위치 정보(Locator)(1403) 및 하나 이상의 실감 효과 세그먼트 정보(SESegment)(1404)를 포함할 수 있다. 이를 정리하면 [표 3]과 같다.
Figure 112009043431457-PAT00003
기술 정보 식별자(DescriptionID)(1402)는 실감 효과 기술 정보(SEDescription)(1401)에 대한 식별자(ID)를 포함하는 속성(attribute)이다. 미디어 위치 정보(Locator)(1403)는 미디어 데이터의 위치를 기술하는 요소로, mepg7:TemporalSegmentLocatorType에 정의되어 있다. 실감 효과 세그먼트 정보(SESegment)(1404)는 미디어의 세그먼트(segment)에 대한 실감 효과 기술 정보를 포함한다. 세그먼트의 예로는 DVD의 챕터(chapter)를 들 수 있다.
도 14와 관련된 실감 효과 기술 정보(SEDescription)(1401)에 대한 스키마의 일 예는 아래와 같다.
<element name="SEDescription" type="SEM:SEDescriptionType"/>
<complexType name="SEDescriptionType">
<sequence>
<element name="Locator" type="mpeg7:TemporalSegmentLocatorType" minOccurs="0"/>
<element name="SESegment" type="SEM:SESegmentType" maxOccurs="unbounded"/>
</sequence>
<attribute name="DescriptionID" type="ID" use="required"/>
</complexType>
도 15는 본 발명에 의한 실감 효과 메타데이터에 포함되는 미디어 위치 정보(Locator)를 설명하기 위한 도면이다.
미디어 위치 정보(Locator)는 실감 효과 기술 정보가 제공될 미디어 데이터의 위치 정보를 특정한다. 미디어 위치 정보(Locator)의 타입은 mpeg7:TemporalSegmentLocatorType이다. 도 15를 참조하면, 미디어 위치 정보(Locator)(1501)는 MediaUri(1502), InlineMedia(1503), StreamID(1504), MediaTime(1505) 및 BytePosition(1506)을 포함할 수 있다.
도 15와 관련된 미디어 위치 정보(Locator)(1501)의 스키마의 일 예는 아래와 같다.
<element name="Locator" type="mpeg7:TemporalSegmentLocatorType"/>
<complexType name="TemporalSegmentLocatorType">
<complexContent>
<extension base="mpeg7:MediaLocatorType">
<choice minOccurs="0">
<element name="MediaTime" type="mpeg7:MediaTimeType"/>
<element name="BytePosition">
<complexType>
<attribute name="offset" type="nonNegativeInteger" use="required"/>
<attribute name="length" type="positiveInteger" use="optional"/>
</complexType>
</element>
</choice>
</extension>
</complexContent>
</complexType>
도 16은 본 발명에 의한 실감 효과 메타데이터에 포함되는 실감 효과 세그먼트 정보(SESegment)에 대해 설명하기 위한 도면이다.
미디어 데이터의 세그먼트와 마찬가지로, 실감 효과 기술 정보 또한 서로 다른 세그먼트로 나누어질 수 있다. 실감 효과 세그먼트 정보(SESegment)는 DVD의 챕터와 같은 세그먼트에 대한 실감 효과 기술 정보 부분들을 포함한다. 도 16을 참조하면, 실감 효과 세그먼트 정보(SESegment)(1601)는 세그먼트 식별자(SegmentID)(1602), 세그먼트 위치 정보(Locator)(1603), 효과 목록 정보(EffectList)(1604) 및 하나 이상의 효과 변수 정보(EffectVariable)(1605)를 포함할 수 있다. 이를 정리하면 [표 4]와 같다.
Figure 112009043431457-PAT00004
세그먼트 식별자(SegmentID)(1602)는 세그먼트의 식별자를 포함하는 속성이다. 세그먼트 위치 정보(Locator)(1603)는 미디어 데이터의 세그먼트 위치 정보를 기술하는 요소이며, 이 요소의 타입은 mpeg7:TemporalSegmentLocatorType에 정의되어 있다. 효과 목록 정보(EffectList)(1604)는 실감 효과의 목록 및 컨텐츠에 적용되는 각각의 실감 효과의 속성(property)을 포함한다. 효과 변수 정보(EffectVariable)(1605)는 실감 효과 제어 변수의 집합 및 미디어 장면(scene)과의 동기화에 대한 시간 정보를 포함한다.
도 16과 관련된 실감 효과 세그먼트 정보(SESegment)의 스키마의 일 예는 아래와 같다.
<complexType name="SESegmentType">
<sequence>
<element name="Locator" type="mpeg7:TemporalSegmentLocatorType"/>
<element name="EffectList" type="SEM:EffectList"/>
<element name="EffectVariable" type="SEM:EffectVariableType" maxOccurs="unbounded"/>
</sequence>
<attribute name="SegmentID" type="ID" use="required"/>
</complexType>
도 17은 본 발명에 의한 실감 효과 메타데이터에 포함되는 효과 목록 정보(EffectList)에 대해 설명하기 위한 도면이다.
효과 목록 정보(EffectList)는 컨텐츠에 적용되는 모든 실감 효과에 관한 저보를 포함한다. 효과 식별자(EffectID)와 타입 정보(Type)는 각각의 실감 효과(스키마 내의 효과 요소)를 확인하고 그 실감 효과의 카테고리를 알리기 위하여 실감 효과마다 정의될 것이다. 효과 요소 아래에는 상세한 실감 효과 성능을 기술하기 위한 속성(property) 요소들의 집합이 존재하는데, 실감 효과 표현 장치(RoSE Engine)는 이 속성 요소 집합을 통해 각각의 실감 효과를 실감 기기에 적절하게 매치시킬 것이다.
도 17을 참조하면, 효과 목록 정보(EffectList)(1701)는 효과 정보(Effect)(1702)를 포함한다. 효과 정보(Effect)(1702)는 효과 식별자(EffectID)(1703), 타입 정보(Type)(1704), 우선순위 정보(Priority)(1705), 의무 여부 정보(isMandatory)(1706), 적응 여부 정보(isAdaptable)(1707), 종속적 효과 식별자(DependentEffectID)(1708) 및 대체 효과 식별자(AlternateEffectID)(1709)를 포함할 수 있다.
또한 효과 정보(Effect)(1702)는 방향 정보(Direction)(1710), 방향 제어 가능 여부 정보(DirectionCtrlable)(1711), 방향 범위 정보(DirectionRange(1712), 위치 정보(Position)(1713), 위치 제어 가능 여부 정보(PositionCtrlable)(1714), 위치 범위 정보(PositionRange)(1715), 밝기 제어 가능 여부 정보(BrightnessCtrlable)(1716), 최대 밝기 럭스 정보(MaxBrightnessLux)(1717), 최대 밝기 레벨 정보(MaxBrightnessLevel)(1718), 하나 이상의 컬러 정보(Color)(1719), 플래쉬 점멸 빈도 제어 가능 여부 정보(FlashFreqCtrlble)(1720), 최대 플래쉬 점멸 빈도 정보(MaxFlashFreqHz)(1721), 바람 속도 제어 가능 여부 정보(WindSpeedCtrlble)(1722), 최대 바람 속도 Mps 정보(MaxWindSpeedMps)(1723), 최대 바람 속도 레벨 정보(MaxWindSpeedLevel)(1724), 진동 제어 가능 여부 정보(VibrationCtrlble)(1725), 최대 진동 빈도 정보(MaxVibrationFreqHz)(1726), 최대 진동 크기 정보(MaxVibrationAmpMm)(1727), 최대 진동 레벨 정보(MaxVibrationLevel)(1728), 온도 제어 가능 여부 정보(TemperatureCtrlble)(1729), 최소 온도 정보(MinTemperature)(1730), 최대 온도 정보(MaxTemperature)(1731), 최대 온도 레벨 정보(MaxTemperatureLevel)(1732), 확산 레벨 제어 가능 여부 정보(DiffusionLevelCtrlable)(1733), 최대 확산 밀리그램 정보(MaxDiffusionMil)(1734), 최대 확산 레벨 정보(MaxDiffusionLevel)(1735), 최대 밀도 ppm 정보(MaxDiffusionPpm)(1736), 최대 확산 레벨 정보(MaxDensityLevel)(1737), 하나 이상의 확산 소스 식별자(DiffusionSourceID)(1738), 음영 모드 정보(ShadingMode)(1739), 음영 속도 제어 가능 여부 정보(ShadingSpdCtrlable)(1740), 최대 음영 속도 레벨 정보(MaxShadingSpdCtrlable)(1741), 음영 범위 제어 가능 여부 정보(ShadingRangeCtrlable)(1742) 및 기타 속성 정보(OtherProperty)(1743)을 포함할 수 있다. 이를 정리하면 [표 5]와 같다.
Figure 112009043431457-PAT00005
Figure 112009043431457-PAT00006
Figure 112009043431457-PAT00007
Figure 112009043431457-PAT00008
Figure 112009043431457-PAT00009
효과 식별자(EffectID)(1703)는 각각의 실감 효과의 식별자를 포함하는 속성(attribute)이다. 타입 정보(Type)(1704)는 실감 효과 타입의 목록 집합(enumeration set)을 포함하는 속성이다. [표 5]에 나타난 바와 같이, 타입 정보(Type)(1704)는 모니터, TV, 월 스크린 등과 같은 시각 디스플레이에 대한 시각 효과, 스피커, 악기, 벨 등과 같은 음향에 대한 음향 효과, 팬, 윈드 인젝터 등과 같은 바람에 대한 바람 효과, 에어컨과 같은 온도에 대한 냉각 효과, 히터, 불과 같은 온도에 대한 난방 효과, 전구, 조광기, 컬러 LED, 플래쉬 등과 같은 조명에 대한 조명 효과, 플래쉬에 대한 플래쉬 효과, 커튼 개/폐, 롤 스크린 업/다운, 문 개/폐 등과 같은 음영 효과, 진동 의자, 조이스틱, 티클러 등과 같은 진동에 대한 진동 효과, 냄새, 스모그, 스프레이, 분수(watre fountain) 등과 같은 확산 효과, 그 밖에 정의되지 않았거나 위 효과들을 조합한 효과에 대한 기타 효과와 같은 목록 값(enumeration value)을 포함한다.
우선순위 정보(Priority)(1705)는 여러 개의 실감 효과 가운데에서 우선순위를 정의하는 선택적(optional) 속성이다. 의무 여부 정보(isMandatory)(1706)는 해당 실감 효과가 반드시 렌더링되어야 하는지 여부를 나타내는 선택적 속성이다. 적응 여부 정보(isAdaptable)(1707)는 해당 실감 효과가 사용자 환경 정보(User Sensory Preference)에 적응될 수 있는지 여부를 나타내는 선택적 속성이다. 종속적 효과 식별자(DependentEffectID)(1708)는 현재의 실감 효과가 종속될 실감 효과의 식별자를 포함하는 선택적 속성이다. 대체 효과 식별자(AlternateEffectID)(1709)는 현재의 실감 효과를 대체할 대체 실감 효과의 식별자를 포함하는 선택적 속성이다.
방향 정보(Direction)(1710)는 실감 효과의 방향을 기술하는 선택적 요소이다. 이 요소의 타입은 방향 타입 정보(DirectionType)이며, 방향 정보(Direction)(1710)는 [표 5]에 나타난 것과 같이 수평 각도(HorizontalDegree) 및 수직 각도(VerticalDegree) 값의 조합에 의해 정의된다. 방향 제어 가능 여부 정보(DirectionCtrlable)(1711)는 실감 효과가 방향을 제어할 수 있는지 여부를 나타내는 선택적 요소이며, 타입은 불리언(boolean)이다. 방향 범위 정보(DirectionRange(1712)는 실감 효과가 변경할 수 있는 방향의 범위를 정의하는 선택적 요소이다. 이 범위는 수평 및 수직 각도의 최소값 및 최대값에 의해 기술된다. [표 5]에 나타난 바와 같이, 이 요소의 타입은 방향 범위 타입(DirectionRangeType)이며, 최소 수평 각도(MinHorizontalAngle), 최대 수평 각도(MaxHorizontalAngle), 최소 수직 각도(MinVerticalAngle) 및 최대 수직 각도(MaxVerticalAngle)를 포함한다.
위치 정보(Position)(1713)는 실감 효과의 위치를 기술하는 선택적 요소이다. 이 요소의 타입은 위치 타입(PositionType)이다. [표 5]에 나타난 바와 같이, 위치 정보(Position)(1713)는 사용자의 위치에 기반하여 두 가지 방법으로 정의될 수 있다. 먼저, 위치 정보(Position)(1713)는 x, y, z 값으로 정의될 수 있다. 다음으로, 위치 정보(Position)(1713)는 미리 정의된 위치의 목록 집합을 갖는 지정 위치(named_position)로써 정의될 수 있다. [표 5]에는 지정 위치의 목록 값 및 그에 해당하는 위치가 정의되어 있다.
위치 제어 가능 여부 정보(PositionCtrlable)(1714)는 실감 효과가 위치를 제어할 수 있는지 여부를 나타내는 선택적 요소이며, 타입은 불리언이다. 위치 범위 정보(PositionRange)(1715)는 실감 효과가 이동할 수 있는 위치의 범위를 정의하는 선택적 요소이다. 이 범위는 x, y, z 축의 최대값 및 최소값에 의해 정의된다. 이 요소의 타입은 위치 범위 타입(PositionRangeType)이며, [표 5]에 나타난 바와 같이 x축 최소값(min_x), x축 최대값(max_x), y축 최소값(min_y), y축 최대값(man_y), z축 최소값(min_z) 및 z축 최대값(max_z)을 포함한다.
밝기 제어 가능 여부 정보(BrightnessCtrlable)(1716)는 실감 효과가 밝기를 제어할 수 있는지 여부를 나타내는 선택적 요소이며, 타입은 불리언이다. 최대 밝기 럭스 정보(MaxBrightnessLux)(1717)는 실감 효과가 Lux 단위로 조정될 수 있는 최대 밝기를 기술하는 선택적 요소이며, 타입은 럭스 타입(LuxType)이다. 최대 밝기 레벨 정보(MaxBrightnessLevel)(1718)는 실감 효과가 레벨(level) 단위로 조정될 수 있는 최대 밝기를 기술하는 선택적 요소이며, 타입은 레벨 타입(LevelType)이다.
컬러 정보(Color)(1719)는 실감 효과의 컬러를 기술하는 선택적 요소이다. 실감 효과가 백열 전구와 같이 모노 컬러(mono color)를 갖는 경우, 단 하나의 컬러만이 정의될 것이다. 실감 효과가 LED 조명과 같이 여러 컬러를 갖는 경우에는, 하나 이상의 컬러가 정의될 것이다. 이 요소의 타입은 컬러 타입(ColorType)이다. [표 5]에 나타난 바와 같이, 컬러 정보(Color)(1719)는 r, g, b 값의 조합으로 정의된다.
플래쉬 점멸 빈도 제어 가능 여부 정보(FlashFreqCtrlble)(1720)는 실감 효과가 점멸 빈도(flickering frequency)를 제어할 수 있는지 여부를 나타내는 선택적 요소로서, 타입은 불리언이다. 최대 플래쉬 점멸 빈도 정보(MaxFlashFreqHz)(1721)는 실감 효과가 Hz 단위로 조정될 수 있는 최대 점멸 빈도를 정의하며, 타입은 빈도 타입(FreqType)이다.
바람 속도 제어 가능 여부 정보(WindSpeedCtrlble)(1722)는 실감 효과가 바람의 속도를 제어할 수 있는지 여부를 나타내는 선택적 요소로서, 타입은 불리언이다. 최대 바람 속도 Mps 정보(MaxWindSpeedMps)(1723)는 실감 효과가 Mps(Meter per second) 단위로 조정될 수 있는 최대 바람 속도를 정의하는 선택적 요소로서, 타입은 바람 속도 타입(WindSpeedType)이다. 최대 바람 속도 레벨 정보(MaxWindSpeedLevel)(1724)는 실감 효과가 레벨 단위로 조정될 수 있는 최대 바람 속도를 정의하는 선택적 요소로서, 타입은 레벨 타입(LevelType)이다.
진동 제어 가능 여부 정보(VibrationCtrlble)(1725)는 실감 효과가 진동 빈도(vibration frequency)를 제어할 수 있는지 여부를 나타내는 선택적 요소이며, 타입은 불리언이다. 최대 진동 빈도 정보(MaxVibrationFreqHz)(1726)는 실감 효과가 Hz 단위로 조정될 수 있는 최대 진동 빈도를 정의하는 선택적 요소로서, 타입은 빈도 타입(FreqType)이다. 최대 진동 크기 정보(MaxVibrationAmpMm)(1727)는 실감 효과가 밀리미터(millimeter) 단위로 조정될 수 있는 최대 진동 크기를 정의하는 선택적 요소로서, 타입은 부호 없는 정수형(insigned integer)이다. 최대 진동 레벨 정보(MaxVibrationLevel)(1728)는 실감 효과가 레벨 단위로 조정될 수 있는 최대 진동 강도 레벨을 정의하는 선택적 요소로서, 타입은 레벨 타입(LevelType)이다.
온도 제어 가능 여부 정보(TemperatureCtrlble)(1729)는 실감 효과가 셀시우스(Celsius) 단위로 온도를 제어할 수 있는지 여부를 나타내는 선택적 요소이며, 타입은 불리언이다. 최소 온도 정보(MinTemperature)(1730)는 실감 효과가 셀시우스 단위로 조정할 수 있는 최소 온도를 정의하는 선택적 요소이다. 최대 온도 정보(MaxTemperature)(1731)는 실감 효과가 셀시우스 단위로 조정할 수 있는 최대 온도를 정의하는 선택적 요소이다. 최대 온도 레벨 정보(MaxTemperatureLevel)(1732)는 실감 효과가 조정할 수 있는 최대 온도 제어 레벨을 정의하는 선택적 요소이다.
확산 레벨 제어 가능 여부 정보(DiffusionLevelCtrlable)(1733)는 실감 효과가 확산 레벨을 제어할 수 있는지 여부를 나타내는 선택적 요소이다. 최대 확산 밀리그램 정보(MaxDiffusionMil)(1734)는 실감 효과가 밀리그램 단위로 조정할 수 있는 최대 확산 양을 정의하는 선택적 요소이다. 최대 확산 레벨 정보(MaxDiffusionLevel)(1735)는 실감 효과가 조정할 수 있는 최대 확산 레벨을 정의하는 선택적 요소이다. 최대 밀도 ppm 정보(MaxDiffusionPpm)(1736)는 실감 효과가 ppm 단위로 조정될 수 있는 최대 밀도를 정의하는 선택적 요소이다. 최대 확산 레벨 정보(MaxDensityLevel)(1737)는 실감 효과가 조정될 수 있는 최대 밀도 레벨을 정의하는 선택적 요소이다. 확산 소스 식별자(DiffusionSourceID)(1738)는 실감 효과가 포함하는 소스 식별자를 정의하는 선택적 요소이다. 실감 효과는 여러 개의 소스를 가질 수 있다.
음영 모드 정보(ShadingMode)(1739)는 실감 효과의 음영 모드의 목록 집합을 갖는 선택적 요소이다. [표 5]에 나타난 바와 같이, 음영 모드 정보(ShadingMode)(1739)는 커튼 타입을 기술하는 사이드 오픈(SideOpen), 롤 스크린 타입을 기술하는 롤 오픈(RollOpen), 문 당김(Pull door) 타입을 기술하는 풀 오픈(PullOpen) 및 문 밀기(Push door) 타입을 기술하는 푸시 오픈(PushOpen)과 같은 목록 값을 갖는다.
음영 속도 제어 가능 여부 정보(ShadingSpdCtrlable)(1740)는 실감 효과가 음영 속도를 제어할 수 있는지 여부를 나타내는 선택적 요소이다. 최대 음영 속도 레벨 정보(MaxShadingSpdCtrlable)(1741)는 실감 효과가 조정될 수 있는 최대 음영 속도 레벨을 정의하는 선택적 요소이다. 음영 범위 제어 가능 여부 정보(ShadingRangeCtrlable)(1742)는 실감 효과가 음영 범위를 제어할 수 있는지 여부를 나타내는 선택적 요소이다.
기타 속성 정보(OtherProperty)(1743)는 확장 가능한 실감 효과 속성(property)을 위한 선택적 요소이다.
도 17과 관련된 효과 목록 정보(EffectList)의 스키마의 일 예는 아래와 같다.
<element name="EffectList" type="SEM:EffectList"/>
<complexType name="EffectList">
<sequence>
<element name="Effect" maxOccurs="unbounded">
<complexType>
<complexContent>
<extension base="SEM:EffectType">
<sequence>
<element name="Direction" type="SEM:DirectionType" minOccurs="0"/>
<element name="DirectionCtrlable" type="boolean" minOccurs="0"/>
<element name="DirectionRange" type="SEM:DirectionRangeType" minOccurs="0"/>
<element name="Position" type="SEM:PositionType" minOccurs="0"/>
<element name="PositionCtrlable" type="boolean" minOccurs="0"/>
<element name="PositionRange" type="SEM:PositionRangeType" minOccurs="0"/>
<element name="BrightnessCtrlable" type="boolean" minOccurs="0"/>
<element name="MaxBrightnessLux" type="SEM:LuxType" minOccurs="0"/>
<element name="MaxBrightnessLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="Color" type="SEM:ColorType" minOccurs="0" maxOccurs="unbounded"/>
<element name="FlashFreqCtrlable" type="boolean" minOccurs="0"/>
<element name="MaxFlashFreqHz" type="SEM:FreqType" minOccurs="0"/>
<element name="WindSpeedCtrlable" type="boolean" minOccurs="0"/>
<element name="MaxWindSpeedMps" type="SEM:WindSpeedType" minOccurs="0"/>
<element name="MaxWindSpeedLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="VibrationCtrlable" type="boolean" minOccurs="0"/>
<element name="MaxVibrationFreqHz" type="SEM:FreqType" minOccurs="0"/>
<element name="MaxVibrationAmpMm" type="unsignedInt" minOccurs="0"/>
<element name="MaxVibrationLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="TemperatureCtrlable" type="boolean" minOccurs="0"/>
<element name="MinTemperature" type="SEM:MinTemperatureType" minOccurs="0"/>
<element name="MaxTemperature" type="SEM:MaxTemperatureType" minOccurs="0"/>
<element name="MaxTemperatureLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="DiffusionLevelCtrlable" type="boolean" minOccurs="0"/>
<element name="MaxDiffusionMil" type="SEM:DiffusionType" minOccurs="0"/>
<element name="MaxDiffusionLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="MaxDensityPpm" type="SEM:DensityType" minOccurs="0"/>
<element name="MaxDesityLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="DiffusionSourceID" type="ID" minOccurs="0" maxOccurs="unbounded"/>
<element name="ShadingMode" minOccurs="0">
<simpleType>
<restriction base="string">
<enumeration value="SideOpen"/>
<enumeration value="RollOpen"/>
<enumeration value="PullOpen"/>
<enumeration value="PushOpen"/>
</restriction>
</simpleType>
</element>
<element name="ShadingSpdCtrlable" type="boolean" minOccurs="0"/>
<element name="MaxShadingSpdLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="ShadingRangeCtrlable" type="boolean" minOccurs="0"/>
<element name="OtherProperty" type="SEM:OtherType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
</element>
</sequence>
</complexType>
도 18은 본 발명에 의한 실감 효과 메타데이터에 포함되는 효과 변수 정보(EffectVariable)를 설명하기 위한 도면이다.
효과 변수 정보(EffectVariable)는 실감 효과를 상세히 제어하는 다양한 실감 효과 변수들을 포함한다. 도 18을 참조하면, 효과 변수 정보(EffectVariable)(1801)는 실감 효과 프래그먼트 정보(SEFragment)(1803)를 포함하며, 참조 효과 식별자(RefEffectID)(1802)를 더 포함할 수 있다. 이를 정리하면 [표 6]과 같다.
Figure 112009043431457-PAT00010
참조 효과 식별자(RefEffectID)(1802)는 효과 목록 정보(EffectList) 아래에서 효과 정보(Effect)의 속성으로서 정의된 효과 식별자(EffectID)로부터 참조된 실감 효과 식별자를 포함하는 속성(attribute)이다. 실감 효과 프래그먼트 정보(SEFragment)(1803)는 공통 시간 슬롯(시작 및 지속)을 공유하는 실감 효과 변수들의 집합을 포함하는 요소이다.
도 18과 관련된 효과 변수 정보(EffectVariable)의 스키마의 일 예는 아래와 같다.
<element name="EffectVariable" type="SEM:EffectVariableType"/>
<complexType name="EffectVariableType">
<sequence>
<element name="SEFragment" type="SEM:SEFragmentType" maxOccurs="unbounded"/>
</sequence>
<attribute name="RefEffectID" type="IDREF" use="required"/>
</complexType>
도 19는 본 발명에 의한 실감 효과 메타데이터에 포함되는 실감 효과 프래그먼트 정보(SEFragment)를 설명하기 위한 도면이다.
실감 효과 프래그먼트 정보(SEFragment)는 동시에 활성화되고 불활성화되는 실감 효과 변수들의 가장 작은 집합을 포함한다. 도 19를 참조하면, 실감 효과 프래그먼트 정보(SEFragment)(1901)는 실감 효과 프래그먼트 식별자(SefragmentID)(1902), 로컬 타임 플래그(localtimeflag)(1903), 시작 시간(start)(1904), 지속 시간(duration)(1905), 페이드인(fadein)(1906), 페이드아웃(fadeout)(1907), 우선순위 정보(priority)(1908) 및 종속적 실감 효과 프래그먼트 식별자(DependentSEfragmentID)(1909)를 포함할 수 있다.
또한 실감 효과 프래그먼트 정보(SEFragment)(1901)는 실감 효과 온/오프 셋 정보(SetOnOff)(1910), 방향 셋 정보(SetDerection)(1911), 위치 셋 정보(SetPosition)(1912), 밝기 럭스 셋 정보(SetBrightnessLux)(1913), 밝기 레벨 셋 정보(SetBrightnessLevel)(1914), 컬러 셋 정보(SetColor)(1915), 플래쉬 빈도 Hz 셋 정보(SetFlashFrequencyHz)(1916), 바람 속도 Mbs 셋 정보(SetWindSpeedMps)(1917), 바람 속도 레벨 셋 정보(SetWindSpeedLevel)(1918), 진동 빈도 Hz 셋 정보(SetVibrrationFreqHz)(1919), 진동 세기 밀리미터 셋 정보(SetVibrationAmpMm)(1920), 진동 레벨 셋 정보(SetVibrationLevel)(1921), 온도 셀시우스 셋 정보(SetTemperatureC)(1922), 온도 레벨 셋 정보(SetTemperatureLevel)(1923), 확산 밀리그램 셋 정보(SetDiffusionMil)(1924), 확산 레벨 셋 정보(SetDiffusionLevel)(1925), 밀도 ppm 셋 정보(SetDensityPpm)(1926), 밀도 레벨 셋 정보(SetDensityLevel)(1927), 확산 소스 식별자 셋 정보(SetDiffusionSourceID)(1928), 음영 범위 셋 정보(SetShadingRange)(1929), 음영 속도 레벨 셋 정보(SetShadingSpeedLevel)(1930) 및 기타 변수 정보(OtherVariable)(1931)를 포함할 수 있다. 이를 정리하면 [표 7]과 같다.
Figure 112009043431457-PAT00011
Figure 112009043431457-PAT00012
실감 효과 프래그먼트 식별자(SefragmentID)(1902)는 실감 효과의 프래그먼트의 식별자를 정의한다. 로컬 타임 플래그(localtimeflag)(1903)는 시작 및 지속이 절대 시간(absolute time)인지 상대 시간(relative time)인지 여부를 나타내는 선택적 속성(optional attribute)이다. 시작 시간(start)(1904)은 실감 효과가 활성화되는 시작 시간을 정의하는 속성이며, 그 타입은 mpeg7:mediaTimePointType이다. 지속 시간(duration)(1905)은 실감 효과가 불활성화되는 지속 시간을 정의하는 속성이며, 그 타입은 mpeg7:mediaDurationType이다.
페이드인(fadein)(1906)은 실감 효과가 동적으로 나타나는 페이드인(fade-in) 지속 시간을 정의하는 선택적 속성이며, 그 타입은 mpeg7:mediaDurationType이다. 페이드아웃(fadeout)(1907)은 실감 효과가 동적으로 사라지는 페이드아웃(fade-out) 지속 시간을 정의하는 선택적 속성이며, 그 타입은 mpeg7:mediaDurationType이다. 시작 시간, 지속 시간, 페이드인 및 페이드아웃의 관계는 [표 7]의 그래프에 나타나 있다.
우선순위 정보(priority)(1908)는 실감 효과의 우선순위를 정의하는 선택적 속성이다. 종속적 실감 효과 프래그먼트 식별자(DependentSEfragmentID)(1909)는 현재 실감 효과 프래그먼트의 종속성(dependency)을 정의하는 선택적 속성이다. 예를 들어 프래그먼트 ID 23은 프래그먼트 ID 21 다음에 위치할 것이다.
실감 효과 온/오프 셋 정보(SetOnOff)(1910)는 실감 효과의 온(on)/오프(off) 세팅에 대한 선택적 요소(optional element)이며, 타입은 불리언이다. 방향 셋 정보(SetDerection)(1911)는 실감 효과의 방향 세팅에 대한 선택적 요소이며, 타입은 방향 타입(DirectionType)이다. 위치 셋 정보(SetPosition)(1912)는 실감 효과의 위치 세팅에 대한 선택적 요소이며, 타입은 위치 타입(PositionType)이다.
밝기 럭스 셋 정보(SetBrightnessLux)(1913)는 실감 효과의 밝기를 lux 단위로 기술하는 선택적 요소이며, 타입은 Lux 타입(LuxType)이다. 밝기 레벨 셋 정보(SetBrightnessLevel)(1914)는 실감 효과의 밝기를 레벨로 기술하는 선택적 요소이며, 타입은 레벨 타입(LevelType)이다. 만약 최대 밝기 레벨(MaxBrightnessLevel)이 정의되어 있으면, 이 요소의 값은 최대값으로 제한된다. 그렇지 않으면 그 값은 0 부터 100 사이일 것이다.
컬러 셋 정보(SetColor)(1915)는 실감 효과의 컬러를 정의하는 선택적 요소이며, 타입은 컬러 타입(ColorType)이다. 플래쉬 빈도 Hz 셋 정보(SetFlashFrequencyHz)(1916)는 실감 효과의 플래쉬 점멸 빈도를 Hz 단위로 정의하는 선택적 요소이며, 타입은 빈도 타입(freq_hzType)이다.
바람 속도 Mbs 셋 정보(SetWindSpeedMps)(1917)는 실감 효과의 바람 속도를 Mps(Meter per second)로 정의하는 선택적 요소이며, 타입은 바람 속도 타입(WindSpeedType)이다. 바람 속도 레벨 셋 정보(SetWindSpeedLevel)(1918)는 실감 효과의 바람 속도를 레벨로 정의하는 선택적 요소이며, 타입은 레벨 타입(LevelType)이다. 만약 최대 바람 속도 레벨(MaxWindSpeedLevel)이 정의되어 있다면, 이 요소의 값은 최대값으로 제한된다.
진동 빈도 Hz 셋 정보(SetVibrrationFreqHz)(1919)는 실감 효과의 진동 빈도를 Hz 단위로 정의하는 선택적 요소이며, 타입은 빈도 타입(FreqType)이다. 진동 세기 밀리미터 셋 정보(SetVibrationAmpMm)(1920)는 실감 효과의 세기를 밀리미터 단위로 정의하는 선택적 요소이며, 타입은 부호 없는 정수이다. 진동 레벨 셋 정보(SetVibrationLevel)(1921)는 실감 효과의 진동 강도를 레벨 단위로 정의하는 선택적 요소이며, 타입은 레벨 타입(LevelType)이다. 만약 최대 진동 레벨(MaxVibrationLevel)이 정의되어 있다면, 이 요소의 값은 최대값 이내로 제한될 것이다. 그렇지 않으면 그 값은 0부터 100 사이일 것이다.
온도 셀시우스 셋 정보(SetTemperatureC)(1922)는 실감 효과의 온도를 셀시우스 단위로 정의하는 선택적 요소이며, 타입은 온도 타입(TemperatureType)이다. 온도 레벨 셋 정보(SetTemperatureLevel)(1923)는 실감 효과의 온도를 레벨 단위로 정의하는 선택적 요소이며, 타입은 레벨 타입(LevelType)이다. 만약 최대 온도 레벨(MaxTemperatureLevel)이 정의되어 있다면, 이 요소의 값은 최대값 이내로 제한될 것이다. 그렇지 않으면 그 값은 0부터 100 사이일 것이다.
확산 밀리그램 셋 정보(SetDiffusionMil)(1924)는 실감 효과의 확산 양을 초당 밀리그램(milligram per second) 단위로 정의하는 선택적 요소이다. 확산 레벨 셋 정보(SetDiffusionLevel)(1925)는 실감 효과의 확산 레벨을 정의하는 선택적 요소이며, 그 타입은 레벨 타입(LevelType)이다. 만약 최대 확산 레벨(MaxDiffusionLevel)이 정의되어 있다면, 이 요소의 값은 최대값 이내로 제한될 것이다. 그렇지 않으면 그 값은 0부터 100 사이일 것이다.
밀도 ppm 셋 정보(SetDensityPpm)(1926)는 실감 효과의 밀도를 ppm 단위로 정의하는 선택적 요소이며, 그 타입은 확산 타입(DiffusionType)이다. 밀도 레벨 셋 정보(SetDensityLevel)(1927)는 실감 효과의 밀도 레벨을 정의하는 선택적 요소이며, 그 타입은 레벨 타입(LevelType)이다. 만약 최대 밀도 레벨(MaxDensityLevel)이 정의되어 있다면, 이 요소의 값은 최대값 이내로 제한될 것이다. 그렇지 않으면 그 값은 0부터 100 사이일 것이다. 확산 소스 식별자 셋 정보(SetDiffusionSourceID)(1928)는 확산에 대한 소스 식별자를 정의하는 선택적 요소이다.
음영 범위 셋 정보(SetShadingRange)(1929)는 음영 범위를 0%부터 100%까지 정의하는 선택적 요소이다. 여기서 0%는 완전히 열린 것을 의미하며, 100%는 완전히 닫힌 것을 의미한다. 그 타입은 레벨 타입(LevelType)이다. 음영 속도 레벨 셋 정보(SetShadingSpeedLevel)(1930)는 실감 효과의 음영 속도를 레벨 단위로 정의하는 선택적 요소이며, 그 타입은 레벨 타입(LevelType)이다.
기타 변수 정보(OtherVariable)(1931)는 확장 가능한 실감 효과 변수를 위한 선택적 요소이다.
도 19와 관련된 실감 효과 프래그먼트 정보(SEFragment)의 스키마의 일 예는 아래와 같다.
<element name="SEFragment" type="SEM:SEFragmentType"/>
<complexType name="SEFragmentType">
<sequence>
<element name="SetOnOff" type="boolean" minOccurs="0"/>
<element name="SetDirection" type="SEM:DirectionType" minOccurs="0"/>
<element name="SetPosition" type="SEM:PositionType" minOccurs="0"/>
<element name="SetBrightnessLux" type="SEM:LuxType" minOccurs="0"/>
<element name="SetBrightnessLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="SetColor" type="SEM:ColorType" minOccurs="0"/>
<element name="SetFlickeringFrequencyHz" type="SEM:FreqType" minOccurs="0"/>
<element name="SetWindSpeedMps" type="SEM:WindSpeedType" minOccurs="0"/>
<element name="SetWindSpeedLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="SetVibrationRpm" type="SEM:VibrationType" minOccurs="0"/>
<element name="SetVibrationLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="SetTemperatureC" type="SEM:TemperatureType" minOccurs="0"/>
<element name="SetTemperatureLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="SetDiffusionMil" type="SEM:DiffusionType" minOccurs="0"/>
<element name="SetDiffusionLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="SetDensityPpm" type="SEM:DensityType" minOccurs="0"/>
<element name="SetDensityLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="SetDiffusionSourceID" type="ID" minOccurs="0"/>
<element name="SetShadingRange" type="SEM:LevelType" minOccurs="0"/>
<element name="SetShadingSpeedLevel" type="SEM:LevelType" minOccurs="0"/>
<element name="OtherVariable" type="SEM:OtherType" minOccurs="0"/>
</sequence>
<attribute name="SEfragmentID" type="ID" use="required"/>
<attribute name="localtimeflag" type="boolean" use="optional"/>
<attribute name="start" type="mpeg7:mediaTimePointType" use="required"/>
<attribute name="duration" type="mpeg7:mediaDurationType" use="required"/>
<attribute name="fadein" type="mpeg7:mediaDurationType" use="optional"/>
<attribute name="fadeout" type="mpeg7:mediaDurationType" use="optional"/>
<attribute name="priority" type="unsignedInt" use="optional"/>
<attribute name="DependentSEfragmentID" type="IDREF" use="optional"/>
</complexType>
[표 8]은 심플 타입(Simple Type)을 설명하기 위한 것이다. 실감 효과 표현의 안전성(safety)을 위하여, 실감 효과의 강도 값(intensity value)은 제한될 필요가 있다. 본 발명에서는 각각의 실감 효과 측정 단위에 대한 심플 타입을 정의하고, 그것을 실감 효과 메타데이터 내에서 참조한다.
Figure 112009043431457-PAT00013
Figure 112009043431457-PAT00014
이하에서는 실감 기기들과의 네트워크와 관련하여, LonWorks와 관련된 SNVT스키마의 정의 및 의미에 대해 설명한다.
LonWorks는 트위스티드 페어(twisted pair), 파워라인(powerlines), 광섬유(fiber optics) 및 RF를 통한 네트워킹 기기를 위해 Echelon Corporation에 의해 만들어진 프로토콜로 이루어진 오픈 네트워킹 플랫폼(open networking platform)을 제공한다. 그것은 (1) 제어 네트워크상의 기기들에 대해 고도로 최적화된 (뉴론 칩(Neuron chip)으로도 알려진)전용 마이크로프로세서 (2)트위스티드 페어나 파워라인과 같은 특정 미디어 상의 프로토콜을 전송하는 송수신기 (3) 오픈 컨트롤 시스템의 필수 소프트웨어 컴포넌트인 네트워크 데이터베이스(LNS 네트워크 운영 체제로도 불림) (4) SNVTs(Standard Network Variable Types)와의 인터넷 연결을 정의한다. LonWorks에서 정보처리 상호운용 가능성(interoperability)에 대한 요소 중 하나는 SNVTs의 표준화이다. 예를 들어 온도 SNVT를 이용하는 자동 온도 조절 장치(thermostat)는 -274℃에서 6279.5℃와 동등한, 0에서 65535의 숫자를 갖는다. DRESS 미디어는 특별 효과(special effects)를 위한 미디어 메타데이터에 의해 제어될 수 있는 기기들을 통해 렌더링된다. 특별 효과를 기술하기 위한 메타데이터 스키마는 기기 제어를 위한 SNVT 데이터 타입의 제한된 집합에 기반하여 설계될 수 있다. [표 9]는 LonWorks에서의 SNVT 표현을 나타낸다.
Figure 112009043431457-PAT00015
[표 9]에서 굵게 표시된 부분은 XML 스키마로 번역된다. 타입 카테고리(Type Category)는 unsignedInt, float, decimal and boolean와 같이 미리 정의된 변수 타입을 이용하여 변수 타입을 표현한다. 유효 타입 범위(Valid Type Range)는 값의 범위를 제한하고, 타입 해상도(Tyoe Resolution)는 그 값을 표현할 수 있는 해상도를 정의한다. 유닛(Units)은 SNVT 타입을 표현할 수 있는 유닛을 의미한다. SNVT_angle_deg의 경우, 유닛(Units)은 각도(degrees)이다.
[표 10]은 XML 스키마로 전환되는 몇몇 SNVT를 기술한다.
Figure 112009043431457-PAT00016
Figure 112009043431457-PAT00017
Figure 112009043431457-PAT00018
Figure 112009043431457-PAT00019
Figure 112009043431457-PAT00020
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
도 1은 종래의 미디어 기술을 개략적으로 설명하기 위한 도면.
도 2는 본 발명에 따른 실감형 미디어 구현에 대한 개념도.
도 3은 본 발명에 의한 실감 효과 표현을 위한 SMMD(Single Media Multiple Devices) 시스템의 구성도.
도 4는 본 발명에 의한 실감 미디어 생성 장치의 구성을 나타내는 구성도.
도 5는 본 발명에 의한 실감 효과 표현 장치의 구성을 나타내는 구성도.
도 6은 본 발명에 의한 실감 기기 성능 정보 제공 장치의 구성을 나타내는 구성도.
도 7은 본 발명에 의한 사용자 환경 정보 제공 장치의 구성을 나타내는 구성도.
도 8은 컨텐츠 구조와 스키마 구조 사이의 관계를 나타내는 도면.
도 9는 실감 효과 메타데이터에 대한 처리 과정을 나타내는 도면.
도 10은 실감 효과의 조합을 정의하는 과정을 설명하는 도면.
도 11은 본 발명에 의한 실감 효과 메타데이터의 확장성을 설명하기 위한 효과 변수의 구조를 나타내는 도면.
도 12는 본 발명에 의한 실감 효과 메타데이터에 대해 설명하기 위한 도면.
도 13은 본 발명에 의한 실감 효과 메타데이터에 포함되는 일반 정보(GeneralInfo)를 설명하기 위한 도면.
도 14는 본 발명에 의한 실감 효과 메타데이터에 포함되는 실감 효과 기술 정보(SEDescription)를 설명하기 위한 도면.
도 15는 본 발명에 의한 실감 효과 메타데이터에 포함되는 미디어 위치 정보(Locator)를 설명하기 위한 도면.
도 16은 본 발명에 의한 실감 효과 메타데이터에 포함되는 실감 효과 세그먼트 정보(SESegment)에 대해 설명하기 위한 도면.
도 17은 본 발명에 의한 실감 효과 메타데이터에 포함되는 효과 목록 정보(EffectList)에 대해 설명하기 위한 도면.
도 18은 본 발명에 의한 실감 효과 메타데이터에 포함되는 효과 변수 정보(EffectVariable)를 설명하기 위한 도면.
도 19는 본 발명에 의한 실감 효과 메타데이터에 포함되는 실감 효과 프래그먼트 정보(SEFragment)를 설명하기 위한 도면.

Claims (15)

  1. 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 입력받는 단계; 및
    상기 실감 효과 정보를 포함하는 실감 효과 메타데이터(Sensory Effect Metadata)를 생성하는 단계를 포함하고,
    상기 실감 효과 메타데이터는
    상기 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 상기 실감 효과 기술 정보는 상기 미디어 내에서 상기 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함하는, 실감 미디어 생성 방법.
  2. 제1항에 있어서,
    상기 실감 효과 메타데이터를 실감 효과 표현 장치에 전송하는 단계를 더 포함하는, 실감 미디어 생성 방법.
  3. 제1항에 있어서,
    상기 실감 효과 기술 정보는
    상기 미디어의 세그먼트에 적용되는 실감 효과 세그먼트 정보를 더 포함하는, 실감 미디어 생성 방법.
  4. 제3항에 있어서,
    상기 실감 효과 세그먼트 정보는
    상기 세그먼트에서 적용될 효과 목록 정보, 효과 변수 정보 및 상기 세그먼트에서 상기 실감 효과가 적용될 위치를 나타내는 세그먼트 위치 정보를 포함하는, 실감 미디어 생성 방법.
  5. 제4항에 있어서,
    상기 효과 변수 정보는
    같은 시간에 적용되는 하나 이상의 실감 효과 변수를 포함하는 실감 효과 프래그먼트 정보를 포함하는, 실감 미디어 생성 방법.
  6. 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 입력받는 입력부; 및
    상기 실감 효과 정보를 포함하는 실감 효과 메타데이터를 생성하는 실감 효과 메타데이터 생성부를 포함하고,
    상기 실감 효과 메타데이터는
    상기 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 상기 실감 효과 기술 정보는 상기 미디어 내에서 상기 실감 효과가 적용될 위치를 나타내는 미 디어 위치 정보를 포함하는, 실감 미디어 생성 장치.
  7. 제6항에 있어서,
    상기 실감 효과 기술 정보는
    상기 미디어의 세그먼트에 적용되는 실감 효과 세그먼트 정보를 더 포함하는, 실감 미디어 생성 장치.
  8. 제7항에 있어서,
    상기 실감 효과 세그먼트 정보는
    상기 세그먼트에서 적용될 효과 목록 정보, 효과 변수 정보 및 상기 세그먼트에서 상기 실감 효과가 적용될 위치를 나타내는 세그먼트 위치 정보를 포함하는, 실감 미디어 생성 장치.
  9. 제8항에 있어서,
    상기 효과 변수 정보는
    같은 시간에 적용되는 하나 이상의 실감 효과 변수를 포함하는 실감 효과 프래그먼트 정보를 포함하는, 실감 미디어 생성 장치.
  10. 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 포함하는 실감 효과 메타데이터를 입력받는 단계;
    상기 실감 효과 메타데이터를 분석하여 상기 실감 효과 정보를 획득하는 단계; 및
    상기 실감 효과 정보에 대응하는 실감 기기를 제어하기 위한 실감 기기 제어 메타데이터(Sensory Device Command metadata)를 생성하는 단계를 포함하고,
    상기 실감 효과 메타데이터는
    상기 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 상기 실감 효과 기술 정보는 상기 미디어 내에서 상기 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함하는, 실감 효과 표현 방법.
  11. 제10항에 있어서,
    상기 실감 효과 기술 정보는
    상기 미디어의 세그먼트에 적용되는 실감 효과 세그먼트 정보를 더 포함하는, 실감 효과 표현 방법.
  12. 제11항에 있어서,
    상기 실감 효과 세그먼트 정보는
    상기 세그먼트에서 적용될 효과 목록 정보, 효과 변수 정보 및 상기 세그먼트에서 상기 실감 효과가 적용될 위치를 나타내는 세그먼트 위치 정보를 포함하는, 실감 효과 표현 방법.
  13. 제12항에 있어서,
    상기 효과 변수 정보는
    같은 시간에 적용되는 하나 이상의 실감 효과 변수를 포함하는 실감 효과 프래그먼트 정보를 포함하는, 실감 효과 표현 방법.
  14. 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 포함하는 실감 효과 메타데이터를 입력받는 입력부;
    상기 실감 효과 메타데이터를 분석하여 상기 실감 효과 정보를 획득하고, 상기 실감 효과 정보에 대응하는 실감 기기를 제어하기 위한 실감 기기 제어 메타데이터(Sensory Device Command metadata)를 생성하는 제어부를 포함하고,
    상기 실감 효과 메타데이터는
    상기 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 상기 실감 효과 기술 정보는 상기미디어 내에서 상기 실감 효과가 적용될 위치를 나타내는 미디 어 위치 정보를 포함하는, 실감 효과 표현 장치.
  15. 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체에 있어서,
    상기 메타데이터는 미디어에 적용되는 실감 효과에 대한 실감 효과 정보를 포함하는 실감 효과 메타데이터를 포함하고,
    상기 실감 효과 메타데이터는
    상기 실감 효과를 기술하는 실감 효과 기술 정보를 포함하며, 상기 실감 효과 기술 정보는 상기미디어 내에서 상기 실감 효과가 적용될 위치를 나타내는 미디어 위치 정보를 포함하는, 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체.
KR1020090065122A 2008-07-16 2009-07-16 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 KR20100008774A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US8135808P 2008-07-16 2008-07-16
US61/081,358 2008-07-16

Publications (1)

Publication Number Publication Date
KR20100008774A true KR20100008774A (ko) 2010-01-26

Family

ID=41550865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090065122A KR20100008774A (ko) 2008-07-16 2009-07-16 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체

Country Status (3)

Country Link
US (1) US20110125790A1 (ko)
KR (1) KR20100008774A (ko)
WO (1) WO2010008232A2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124994A2 (en) * 2011-03-17 2012-09-20 Samsung Electronics Co., Ltd. Method and apparatus for constructing and playing sensory effect media integration data files
US9086391B2 (en) 2012-11-15 2015-07-21 Hyundai Motor Company Method for detecting burnt odor from air conditioner, reproducing burnt odor and preparing corresponding burnt odor composition
US9448218B2 (en) 2013-04-23 2016-09-20 Hyundai Motor Company Method for detecting fishy water odor from air conditioner, reproducing fishy water odor and preparing corresponding fishy water odor composition
US9480928B2 (en) 2014-05-12 2016-11-01 Electronics And Telecommunications Research Instit Experience ride representation apparatus and method for real-sense media service based on multi-vision

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009051428A1 (en) * 2007-10-16 2009-04-23 Electronics And Telecommunications Research Institute Sensory effect media generating and consuming method and apparatus thereof
KR101746453B1 (ko) * 2010-04-12 2017-06-13 삼성전자주식회사 실감 효과 처리 시스템 및 방법
KR20140083408A (ko) * 2012-12-26 2014-07-04 한국전자통신연구원 감성 정보 변환 장치 및 방법
KR20140104537A (ko) * 2013-02-18 2014-08-29 한국전자통신연구원 생체 신호 기반의 감성 인터랙션 장치 및 방법
KR101727592B1 (ko) * 2013-06-26 2017-04-18 한국전자통신연구원 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9711014B2 (en) 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9652945B2 (en) * 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
KR20150110356A (ko) 2014-03-21 2015-10-02 임머숀 코퍼레이션 센서의 데이터를 햅틱 효과들로 변환하는 시스템들 및 방법들
KR102231676B1 (ko) * 2014-12-23 2021-03-25 한국전자통신연구원 실감 효과 메타데이터 생성 장치 및 방법
US10942569B2 (en) * 2017-06-26 2021-03-09 SonicSensory, Inc. Systems and methods for multisensory-enhanced audio-visual recordings
JP2019082904A (ja) * 2017-10-31 2019-05-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
US20200213662A1 (en) * 2018-12-31 2020-07-02 Comcast Cable Communications, Llc Environmental Data for Media Content
GB2586442B (en) * 2019-06-26 2024-03-27 Univ Dublin City A method and system for encoding and decoding to enable adaptive delivery of mulsemedia streams

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960004813B1 (ko) * 1992-10-06 1996-04-13 엘지전자주식회사 향기 발생용 티브이(tv) 방송 송수신 장치
US6792323B2 (en) * 2002-06-27 2004-09-14 Openpeak Inc. Method, system, and computer program product for managing controlled residential or non-residential environments
US9092286B2 (en) * 2002-12-20 2015-07-28 Qualcomm Incorporated System to automatically process components on a device
KR100541636B1 (ko) * 2003-04-17 2006-01-10 삼성전자주식회사 컨텐츠 동기화 방법 및 데이터 포맷
US20060230183A1 (en) * 2005-04-07 2006-10-12 Samsung Electronics Co., Ltd. Method and apparatus for synchronizing content with a collection of home devices
US20070035665A1 (en) * 2005-08-12 2007-02-15 Broadcom Corporation Method and system for communicating lighting effects with additional layering in a video stream
US8700791B2 (en) * 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
US20080046944A1 (en) * 2006-08-17 2008-02-21 Lee Hae-Ryong Ubiquitous home media service apparatus and method based on smmd, and home media service system and method using the same
KR20090061516A (ko) * 2007-12-11 2009-06-16 한국전자통신연구원 멀티미디어 콘텐츠 메타데이터 분석에 따른 홈 네트워크제어 장치 및 방법
KR100914418B1 (ko) * 2007-12-17 2009-08-31 한국전자통신연구원 실감형 멀티미디어 재생 시스템 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124994A2 (en) * 2011-03-17 2012-09-20 Samsung Electronics Co., Ltd. Method and apparatus for constructing and playing sensory effect media integration data files
WO2012124994A3 (en) * 2011-03-17 2012-12-27 Samsung Electronics Co., Ltd. Method and apparatus for constructing and playing sensory effect media integration data files
US9086391B2 (en) 2012-11-15 2015-07-21 Hyundai Motor Company Method for detecting burnt odor from air conditioner, reproducing burnt odor and preparing corresponding burnt odor composition
US9448218B2 (en) 2013-04-23 2016-09-20 Hyundai Motor Company Method for detecting fishy water odor from air conditioner, reproducing fishy water odor and preparing corresponding fishy water odor composition
US9480928B2 (en) 2014-05-12 2016-11-01 Electronics And Telecommunications Research Instit Experience ride representation apparatus and method for real-sense media service based on multi-vision

Also Published As

Publication number Publication date
WO2010008232A2 (ko) 2010-01-21
WO2010008232A3 (ko) 2010-05-14
US20110125790A1 (en) 2011-05-26

Similar Documents

Publication Publication Date Title
KR20100008774A (ko) 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
KR101667416B1 (ko) 실감 효과 표현 방법 및 그 장치 및 실감 기기 성능 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
KR20100008775A (ko) 실감 효과 표현 방법 및 그 장치 및 사용자 환경 정보 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
KR20100033954A (ko) 실감 효과 표현 방법 및 장치
KR20100008777A (ko) 실감 효과 표현 방법 및 그 장치 및 실감 기기 제어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
US20100268745A1 (en) Method and apparatus for representing sensory effects using sensory device capability metadata
US20100274817A1 (en) Method and apparatus for representing sensory effects using user&#39;s sensory effect preference metadata
US8577203B2 (en) Sensory effect media generating and consuming method and apparatus thereof
JP5268895B2 (ja) 周囲環境及びコンテンツの配信
JP5092015B2 (ja) データ送信装置、データ送信方法、視聴環境制御装置、視聴環境制御システム、及び視聴環境制御方法
JP5899111B2 (ja) ユーザ環境を適応させるための方法及びシステム
Yoon et al. 4-d broadcasting with mpeg-v
WO2010007987A1 (ja) データ送信装置、データ受信装置、データ送信方法、データ受信方法および視聴環境制御方法
Choi et al. Streaming media with sensory effect
US20050226601A1 (en) Device, system and method for synchronizing an effect to a media presentation
KR20090038834A (ko) 실감 미디어 생성 및 소비 방법 및 그 장치
KR20080048308A (ko) 기본 장치와 확장 장치의 연동 장치 및 방법
Timmerer et al. Assessing the quality of sensory experience for multimedia presentations
KR20100114482A (ko) 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치
KR20090000647A (ko) 실시간 스트리밍 서비스에서 부가 데이터를 실시간으로출력하는 방법 및 장치
Suk et al. Sensory effect metadata for SMMD media service
KR20050116916A (ko) 환경 정보를 포함하는 콘텐츠를 생성하고 재생하는 방법과그 재생 장치
Park et al. A framework of sensory information for 4-d home theater system
Pyo et al. A metadata schema design on representation of sensory effect information for sensible media and its service framework using UPnP
Yun et al. Development of sensory effect representing system adapting user preferences and device capability

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid