KR20090038835A - 실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체 - Google Patents
실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체 Download PDFInfo
- Publication number
- KR20090038835A KR20090038835A KR1020080101748A KR20080101748A KR20090038835A KR 20090038835 A KR20090038835 A KR 20090038835A KR 1020080101748 A KR1020080101748 A KR 1020080101748A KR 20080101748 A KR20080101748 A KR 20080101748A KR 20090038835 A KR20090038835 A KR 20090038835A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- sensory
- effect
- media
- sensory effect
- Prior art date
Links
- 230000001953 sensory Effects 0.000 title claims abstract description 443
- 230000000694 effects Effects 0.000 claims abstract description 142
- 230000001276 controlling effect Effects 0.000 claims abstract description 38
- 238000005516 engineering process Methods 0.000 claims description 36
- 238000004806 packaging method and process Methods 0.000 claims description 3
- 230000001702 transmitter Effects 0.000 claims description 3
- 230000000977 initiatory Effects 0.000 abstract description 12
- 230000000007 visual effect Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 238000009792 diffusion process Methods 0.000 description 11
- 239000003086 colorant Substances 0.000 description 6
- 230000001795 light effect Effects 0.000 description 6
- 239000002304 perfume Substances 0.000 description 6
- 239000003205 fragrance Substances 0.000 description 5
- 230000035943 smell Effects 0.000 description 4
- 230000002277 temperature effect Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000875 corresponding Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 101700074222 ver1 Proteins 0.000 description 2
- 235000007516 Chrysanthemum Nutrition 0.000 description 1
- 240000007646 Chrysanthemum x morifolium Species 0.000 description 1
- 235000005986 Chrysanthemum x morifolium Nutrition 0.000 description 1
- 235000010254 Jasminum officinale Nutrition 0.000 description 1
- 240000005385 Jasminum sambac Species 0.000 description 1
- 240000007472 Leucaena leucocephala Species 0.000 description 1
- 235000010643 Leucaena leucocephala Nutrition 0.000 description 1
- 235000016247 Mentha requienii Nutrition 0.000 description 1
- 235000002899 Mentha suaveolens Nutrition 0.000 description 1
- 235000008331 Pinus X rigitaeda Nutrition 0.000 description 1
- 235000011613 Pinus brutia Nutrition 0.000 description 1
- 241000018646 Pinus brutia Species 0.000 description 1
- 241000220317 Rosa Species 0.000 description 1
- 240000004203 Syringa vulgaris Species 0.000 description 1
- 235000004338 Syringa vulgaris Nutrition 0.000 description 1
- 240000006365 Vitis vinifera Species 0.000 description 1
- 235000014787 Vitis vinifera Nutrition 0.000 description 1
- 235000006682 bigleaf mint Nutrition 0.000 description 1
- 230000002996 emotional Effects 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 235000009754 grape Nutrition 0.000 description 1
- 235000012333 grape Nutrition 0.000 description 1
- 235000006679 mint Nutrition 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 229920000306 polymethylpentene Polymers 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 210000000697 sensory organs Anatomy 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/68—Systems specially adapted for using specific information, e.g. geographical or meteorological information
- H04H60/73—Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4112—Peripherals receiving signals from specially adapted client devices having fewer capabilities than the client, e.g. thin client having less processing power or no tuning capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4314—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
Abstract
본 발명은 미디어 생성 및 소비 방법 및 그 장치에 관한 것으로서, 더욱 상세하게는 실감 미디어 생성 및 소비 방법 및 그 장치에 관한 것이다.
본 발명에 따른 실감 미디어 생성방법은 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 입력받는 단계 및 입력된 실감효과 정보를 포함하는 실감효과 메타데이터를 생성하는 단계를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다.
미디어, 실감효과(sensory effect), 메타데이터(metadata)
Description
본 발명은 미디어 생성 및 소비 방법 및 그 장치 및 미디어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로서, 더욱 상세하게는 실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
본 발명은 정보통신부의 정보통신표준개발지원의 일환으로 수행한 연구로부터 도출된 것이다. [과제관리번호: 2007-S-010-01, 과제명: SMMD기반 유비쿼터스홈 미디어 서비스 시스템 개발(Development of Ubiquitous Home Media Service System based on SMMD)]
일반적으로 미디어라 함은 오디오(음성, 음향 포함) 또는 영상(비디오 또는 이미지 포함)를 포함한다. 사용자가 미디어를 소비 또는 재생하는 경우, 미디어에 대한 데이터인 메타데이터를 이용하여 미디어에 대한 정보를 획득할 수 있다. 한편, 미디어를 재생하기 위한 기기(device)들 역시 기존에 아날로그 형태로 기록된 미디어를 재생하는 디바이스들로부터 디지털로 기록된 미디어를 재생하는 기기로 변화되었다.
종래의 미디어 기술은 스피커와 같은 오디오 출력 장치와 디스플레이 기기와 같은 영상 출력 장치만을 이용하여 왔다.
도 1은 종래의 미디어 기술을 개략적으로 설명하기 위한 도면이다. 도 1을 참조하면, 미디어(102)는 미디어 소비 방법(104)에 의해 사용자에게 출력된다. 종래의 미디어 소비 방법(104)는 오디오와 영상을 출력하기 위한 장치만을 포함하고 있다.
한편, 사용자에게 미디어를 효과적으로 제공하기 위해 오디오와 영상에 대한 기술의 개발이 진행되고 있다. 오디오 신호를 다채널 신호 또는 다객체 신호로 처리하거나, 영상을 고화질 디스플레이, 스테레오스코픽(stereoscopic) 영상 또는 3차원 영상 디스플레이 기술로 발전되는 것이 이에 해당한다.
이러한 미디어 기술과 관련하여 MPEG(moving picture experts group)은 MPEG-1부터 MPEG-2, MPEG-4, MPEG-7, 그리고 MPEG-21까지 진행되면서 미디어 개념의 발전과 멀티미디어 처리기술의 발전을 보여주고 있다. MPEG-1에서는 오디오와 비디오를 저장하기 위한 포맷을 정의하고 있고, MPEG-2에서는 미디어 전송에 초점을 맞추고 있으며, MPEG-4는 객체기반 미디어 구조를 정의하고 있고, MPEG-7은 미 디어에 관한 메타데이터를 다루고 있으며, MPEG-21은 미디어의 유통 프레임워크 기술을 다루고 있다.
따라서, 종래의 미디어는 미디어 재생에 따라 단순히 오디오와 영상에 한정되어 재생되기 때문에 다양한 기기들과 연동되어 미디어의 재현 효과를 극대화할 수 없는 문제점이 있었다.
따라서, 본 발명은 미디어의 재현 효과를 극대화할 수 있는 실감 미디어 생성 및 소비 방법 및 그 장치을 제공하는 것을 목적으로 한다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
전술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 실감 미디어 생성방법은 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 입력받는 단계 및입력된 실감효과 정보를 포함하는 실감효과 메타데이터를 생성하는 단계를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다.
본 발명의 또 다른 실시예에 따른 실감 미디어 생성 장치는 미디어에 적용되는 실감효과에 대한 실감효과 정보를 입력받는 입력부 및 입력된 실감효과 정보를 포함하는 실감효과 메타데이터를 생성하는 실감효과 메타데이터 생성부를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다.
본 발명의 또 다른 실시예에 따른 실감 미디어 소비 방법은 미디어에 적용되는 실감효과에 대한 실감효과 정보를 포함하는 실감효과 메타데이터를 입력받는 단계 및 실감효과를 재현하는 기기(device)를 검색하고, 실감효과 정보에 따라 실감효과를 수행하는 상기 기기를 제어하는 단계를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다.
본 발명의 또 다른 실시예에 따른 실감 미디어 소비 장치는 미디어에 적용되는 실감효과에 대한 실감효과 정보를 포함하는 실감효과 메타데이터를 입력받는 입력부 및 실감효과를 재현하는 기기(device)를 검색하고, 실감효과 정보에 따라 실감효과를 수행하는 상기 기기를 제어하는 제어부를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다.
본 발명의 또 다른 실시예에 따른 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체는 메타데이터는 미디어에 적용되는 실감효과에 대한 실감효과 정보를 포함하는 실감효과 메타데이터를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함하고, 실감효과 메타데이터에 따라 기기를 검색하고, 제어할 수 있는 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체이다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
본 발명에 의하면, 미디어의 재현 효과를 극대화할 수 있는 효과를 달성할 수 있다.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또 는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.
본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또 한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
종래의 미디어의 생성 또는 소비(재생)은 오디오와 영상만을 표현하여 왔다. 그러나, 인간은 시각과 청각 외에 후각 또는 촉각 등의 감각을 인지할 수 있다. 최근에는 촉각과 후각 등 인간의 오감을 자극할 수 있는 기기에 대한 연구가 활발히 진행되고 있다.
한편, 일반 가정에서 사용되던 아날로그 신호에 의해 제어되던 가전 기기들은 디지털 신호에 의하여 제어되도록 변화되고 있다.
따라서, 인간의 후각 또는 촉각 등의 감각을 자극하는 기기를 미디어와 연동하여 제어하면, 과거의 오디오 또는 영상만으로 한정되었던 미디어의 개념을 확장할 수 있다. 즉, 현재의 미디어 서비스는 하나의 미디어가 하나의 기기에서 재현되는 SMSD(Single Media Single Device)기반의 서비스가 주를 이루고 있으나, 유비쿼터스 홈에서의 미디어 재현효과를 극대화하기 위해서는 하나의 미디어가 복수개의 기기와 연동하여 재현되는 SMMD((Single Media Multi Devices)기반의 서비스가 구현될 수 있다. 따라서, 미디어 기술은 단순히 보는 것과 듣는 것에 대한 것뿐만 아니라 인간의 오감을 만족시키는 실감(Sensory Effect)형 미디어로 진화할 필요성이 있다. 이러한 실감형 미디어로 인해, 산업계의 입장에서는 미디어 산업과 실감기기(Sensory Effect Device)의 시장을 확대시킬 수 있으며, 미디어의 사용자 입장에서는 미디어의 재현 효과를 극대화함으로써 사용자에게 풍부한 경험(experiences)을 제공할 수 있고, 이로 인해 미디어의 소비를 촉진시킬 수 있는 효과가 있다.
도 2는 본 발명에 따른 실감형 미디어 구현에 대한 개념도이다. 도 2를 참조하면, 미디어(202)와 실감효과 메타데이터는 실감 미디어 소비 방법(204)에 입력된다. 여기서, 미디어(202)와 실감효과 메타데이터는 별개의 제공자에 의해 실감 미디어 소비 방법(204)에 입력될 수 있다. 예를 들어, 미디어(202)는 미디어 제공자(도시되지 않음)에 의해 제공되고, 실감효과 메타데이터는 실감효과 제공자(도시되지 않음)에 의해 제공될 수 있다.
미디어(202)는 오디오 또는 영상을 포함하고, 실감효과 메타데이터는 미디어(202)의 실감효과 재현을 위한 실감효과 정보(sensory effect information)를 포함하는 것으로서, 미디어(202)의 재현 효과를 극대화할 수 있는 모든 정보를 포함할 수 있다. 도 2에서는 실감효과로서, 시각, 후각, 촉각의 3가지 감각에 대한 실감효과를 예를 들어 설명하도록 한다. 따라서, 도 2에서 실감효과 정보는 시각효과 정보, 후각효과 정보 및 촉각효과 정보를 포함한다.
실감 미디어 소비 방법(204)는 미디어(202)를 입력받아 미디어 출력장치(206)에서 출력되도록 재생되도록 제어한다. 또한, 실감 미디어 소비 방법(204)는 실감효과 메타데이터에 포함된 시각효과 정보, 후각효과 정보 및 촉각 효과 정보를 이용하여 실감기기(208, 210, 222)를 제어한다. 시각효과 정보를 이용하여 전등 기기(208)을 제어하고, 후각효과 정보를 이용하여 향수 발생 기기(210)를 제어하며, 촉각효과 정보를 이용하여 진동(의자) 기기(212)를 제어한다.
따라서, 미디어에서 천둥 또는 번개와 같은 장면이 포함된 영상이 재생될 때에는 전등 기기(208)을 점멸시키고, 음식 또는 들판과 같은 장면이 포함된 영상이 재생될 때에는 향수 발생 기기(210)를 제어하며, 래프팅 또는 자동차 추격과 같은 동적인 장면이 포함된 영상이 재생될 때에는 진동(의자) 기기(212)를 제어함으로써, 시청하는 영상과 대응되는 실감효과를 제공할 수 있다.
실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다. 이렇게 실감효과 메타데이터에 포함될 정보를 정의함으로써, 다양한 사용자가 자신이 구비하고 있는 실감 기기를 이용하여 최대한의 실감효과를 재현할 수 있다. 예를 들어, 도 2의 설명에서 전등 기기(208)을 구비한 사용자는 전등 기기(208)만을 제어함으로써 실감효과를 재현할 수 있고, 전등 기기(208)와 향수 발생 기기(210)을 동시에 구비한 사용자의 경우, 전등 기기(208)와 향수 발생 기기(210)을 제어함으로써 더 나은 실감효과를 재현할 수 있다. 실감효과 메타데이터에는 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함할 수 있다.
효과기술 정보는 실감효과의 종류에 대한 효과타입 정보, 기기에 대한 기기 식별자 정보, 실감효과의 재현을 위한 기기의 조건 정보 및 기기의 초기 설정 정보 를 포함할 수 있고, 기기 제어 기술 정보는 기기 식별자 정보에 대한 참조 정보, 미디어와 실감효과의 동기화를 위한 동기화 정보 및 기기를 제어하기 위한 파라미터 정보를 포함할 수 있다. 실감효과는 미디어에서 제공되는 오디어 또는 영상에 동기화되어야 할 필요가 있기 때문에 기기 제어 기술 정보에는 미디어와 실감효과를 동기화 시킬 수 있는 동기 정보를 포함할 수 있다.
이하에서 실시예와 함께 자세히 설명한다.
<실감 미디어 생성>
이하에서는 실감 미디어 생성 방법과 실감 미디어 생성 장치에 대해 상세히 설명한다.
본 발명에 따른 실감 미디어 생성 방법은 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 입력받는 단계 및 입력된 실감효과 정보를 포함하는 실감효과 메타데이터를 생성하는 단계를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다. 이렇게 함으로써, 서로 다른 종류의 실감 기기를 구비한 다양한 사용자는 생성된 실감효과 메타데이터에 기초하여 적합한 실감효과를 재현할 수 있다. 생성된 실감효과 메타데이터는 다양한 경로를 통해 사용자에게 전달될 수 있다.
본 발명에 따른 실감 미디어 생성 방법은 실감효과 메타데이터를 사용자 단 말에 전송하는 단계를 더 포함할 수 있다. 여기에는 실감효과 메타데이터가 실감효과 서비스 제공자에 의해 생성되는 경우, 실감효과 메타데이터가 미디어와는 별도로 직접 사용자에게 전달되는 경우를 포함한다. 예를 들어, 사용자가 특정 영화에 대한 미디어는 이미 보유하고 있는 경우, 사용자는 특정 영화에 대한 실감효과 메타데이터를 실감효과 서비스 제공자에게 요청하여 이를 수신하고, 보유한 특정 영화와 실감효과 메타데이터를 이용하여 실감효과를 재현할 수 있다.
본 발명에 따른 실감 미디어 생성 방법은 생성된 실감효과 메타데이터와 미디어를 페키징하여 실감 미디어를 생성하는 단계 및 실감 미디어를 사용자 단말에 전송하는 단계를 더 포함할 수 있다. 여기에는 미디어와 미디어에 대한 실감효과 메타데이터를 실감효과 서비스 제공자가 동시에 제공하는 경우를 포함한다. 실감효과 서비스 제공자는 미디어에 대한 실감효과 메타데이터를 생성하고, 생성된 실감효과 메타데이터를 미디어와 결합 또는 페키징하여 실감 미디어를 생성하고, 생성된 실감 미디어를 사용자 단말에 전송한다. 실감 미디어는 실감효과 재현을 위한 실감 미디어 포맷의 파일로 구성될 수 있다. 실감 미디어 포맷을 실감효과 재현을 위한 미디어의 표준화된 파일 포맷일 수 있다.
본 발명에 따른 실감 미디어 생성 방법에서 실감효과 메타데이터는 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함할 수 있다. 효과기술 정보는 실감효과의 종류에 대한 효과타입 정보, 기기에 대한 기기 식별자 정보, 실감효과의 재현을 위한 기기의 조건 정보 및 기기의 초기 설정 정보를 포함할 수 있고, 기기 제어 기술 정보는 기기 식별자 정보에 대한 참조 정보, 미디어와 실감 효과의 동기화를 위한 동기화 정보 및 기기를 제어하기 위한 파라미터 정보를 포함할 수 있다.
실감효과를 재현하기 위한 실감효과 정보에는 미디어를 구성하는 장면에 따라 달라질 수 있다. 여기서, 실감효과에는 인간의 감각기관에 의한 오감은 물론 감성적인 부분까지 포함할 수 있다. 예를 들어, 공포 효과의 흥분 상태를 위해 커튼을 움직이거나, 창문을 진동시키기 위한 정보를 포함할 수 있다. 또는 천둥 또는 번개의 효과를 구현하기 위해 전등 기기 등을 온/오프하는 정보 등을 포함할 수 있다. 기기 제어 기술 정보는 전술한 실감효과를 재현하기 위한 실감효과 정보에 따라 실감효과를 재현하는 기기에 대한 제어 정보를 포함한다. 여기서, 기기 제어 기술 정보는 미디어와 실감효과의 동기 정보를 포함할 수 있다. 이러한 동기 정보에 의해 미디어의 장면 진행에 따라 일치된 실감효과를 재현할 수 있다.
도 3은 본 발명에 따른 실감 미디어 생성 장치를 설명하기 위한 도면이다. 도 3을 참조하면, 본 발명에 따른 실감 미디어 생성 장치(302)는 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 입력받는 입력부(304) 및 입력된 실감효과 정보를 포함하는 실감효과 메타데이터를 생성하는 실감효과 메타데이터 생성부(306)를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다. 여기서, 본 발명에 따른 실감 미디어 장치는 실감효과 메타데이터를 사용자 단말에 전송하는 전송부(308)를 더 포함할 수 있다.
한편, 본 발명에 따른 실감 미디어 생성 장치는 생성된 실감효과 메타데이터와 미디어를 페키징하여 실감 미디어를 생성하는 실감 미디어 생성부(310)를 더 포함하고, 전송부(308)는 실감 미디어를 사용자 단말에 전송할 수 있다. 실감 미디어를 생성하는 경우, 입력부(304)는 미디어를 더 입력받을 수 있고, 실감 미디어 생성부(310)는 입력된 미디어와 실감효과 메타데이터 생성부(306)에 의해 생성된 실감효과 메타데이터를 결합 또는 패키징하여 실감 미디어를 생성한다.
실감효과 메타데이터는 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함할 수 있다. 효과기술 정보는 실감효과의 종류에 대한 효과타입 정보, 기기에 대한 기기 식별자 정보, 실감효과의 재현을 위한 기기의 조건 정보 및 기기의 초기 설정 정보를 포함할 수 있고, 기기 제어 기술 정보는 기기 식별자 정보에 대한 참조 정보, 미디어와 실감효과의 동기화를 위한 동기화 정보 및 기기를 제어하기 위한 파라미터 정보를 포함할 수 있다.
기타 자세한 설명은 전술한 실감 미디어 생성 방법과 중복되므로, 여기서는 생략하기로 한다.
<실감 미디어 소비>
이하에서는 실감 미디어 소비 방법과 실감 미디어 소비 장치에 대해 상세히 설명한다.
본 발명에 따른 실감 미디어 소비 방법은 미디어에 적용되는 실감효과에 대 한 실감효과 정보(sensory effect information)를 포함하는 실감효과 메타데이터를 입력받는 단계 및 실감효과를 재현하는 기기(device)를 검색하고, 실감효과 정보에 따라 실감효과를 수행하는 기기를 제어하는 단계를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다. 사용자 단말에 미디어를 이미 보유하고 있는 경우 또는 실감효과 메타데이터와 함께 미디어를 입력받는 경우 등을 포함한다. 실감효과 메타데이터가 입력되면, 실감효과 메타데이터에 어떠한 실감효과에 대한 정보들이 포함되어 있는 지를 분석하고, 실감효과를 재현하기 위해 사용자가 보유한 기기(실감기기)를 검색한다. 검색된 기기를 제어하여, 사용자가 보유한 기기의 조합에 따라 적합한 실감효과를 재현한다.
여기서, 전술한 입력받는 단계는 미디어를 더 입력받을 수 있다. 이 경우는, 실감효과 메타데이터와 미디어를 함께 입력받는 경우에 해당한다. 실감효과 메타데이터와 미디어가 함께 입력되는 경우, 미디어와 실감효과 메타데이터는 페키징되어 입력될 수 있다. 페키징된 미디어와 실감효과 메타데이터는 실감 미디어 포맷의 파일일 수 있다.
실감효과 메타데이터는 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함할 수 있다. 효과기술 정보는 실감효과의 종류에 대한 효과타입 정보, 기기에 대한 기기 식별자 정보, 실감효과의 재현을 위한 기기의 조건 정보 및 기기의 초기 설정 정보를 포함할 수 있고, 기기 제어 기술 정보는 기기 식별자 정보에 대한 참조 정보, 미디어와 실감효과의 동기화를 위한 동기화 정보 및 기기를 제어하기 위한 파라미터 정보를 포함할 수 있다.
기타 자세한 설명은 전술한 <실감 미디어 생성> 부분과 중복되므로 여기서는 생략하기로 한다.
도 4는 본 발명에 따른 실감 미디어 소비 장치를 설명하기 위한 도면이다. 도 4를 참조하면, 실감 미디어 소비 장치(402)는 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 포함하는 실감효과 메타데이터를 입력받는 입력부(404) 및 실감효과를 재현하는 기기(408; device)를 검색하고, 실감효과 정보에 따라 실감효과를 수행하는 기기(408)를 제어하는 제어부(406)를 포함하고, 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다. 여기서, 실감 미디어 소비 장치(402)는 실감효과의 재현만을 위한 장치에 한정되는 것은 아니고, 미디어를 소비할 수 있는 모든 장치를 포함할 수 있다. 예를 들어, 휴대폰, PMP 등과 같은 모바일 단말기는 물론, TV, 오디오 장치 등을 포함할 수 있다.
여기서, 입력부(404)는 미디어를 더 입력받을 수 있다. 이 경우, 미디어와 실감효과 메타데이터는 페키징되어 입력될 수 있다.
실감효과 메타데이터는 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함할 수 있다. 효과기술 정보는 실감효과의 종류에 대한 효과타입 정보, 기기(408)에 대한 기기 식별자 정보, 실감효과의 재현을 위한 기기(408)의 조 건 정보 및 기기(408)의 초기 설정 정보를 포함할 수 있고, 기기 제어 기술 정보는 기기 식별자 정보에 대한 참조 정보, 미디어와 실감효과의 동기화를 위한 동기화 정보 및 기기(408)를 제어하기 위한 파라미터 정보를 포함할 수 있다.
기타 자세한 설명은 전술한 <실감 미디어 생성> 부분과 실감 미디어 소비 방법의 설명과 중복되므로 여기서는 생략하기로 한다.
이하에서는 실감효과를 재현하기 위한 전체 시스템에 대해 상세히 설명한다.
도 5는 본 발명에 따른 실감효과 재현을 위한 개념도이다. 도 5를 참조하면, 실감효과 메타데이터 생성부(502)는 실감효과 정보를 입력받아 실감효과 메타데이터를 생성한다. 미디어는 실감효과 메타데이터와 개별적으로 사용자에게 전달될 수 있으나, 도 5의 설명에서는 미디어와 실감효과 메타데이터가 함께 사용자에게 전달되는 경우에 대해 설명한다. 실감 미디어 생성 장치(504)는 실감효과 메타데이터 생성부(502)에 의해 생성된 실감효과 메타데이터와 미디어를 이용하여 실감 미디어를 생성한다. 실감 미디어는 실감효과 미디어를 제공하기 위한 특정 파일 포맷으로 구성할 수 있다.
실감 미디어 생성 장치(504)에 의해 생성된 실감 미디어는 실감 미디어 소비 장치(506)에 전달된다. 실감 미디어 소비 장치(506)는 사용자가 구비하고 있는 실감기기를 검색한다. 도 5에서 사용자는 디지털 TV(514)를 포함하여 진동 의자(vibration chair: 508), 조광장치(510: dimmer), 오디오 시스템(512), 공조기(air-conditioner: 516), 향수 발생기(perfumer: 518)를 구비하고 있다. 실감 미 디어 생성 장치(504)는 사용자가 구비한 실감기기인 진동 의자(vibration chair: 508), 조광장치(510: dimmer), 오디오 시스템(512), 공조기(air-conditioner: 516), 향수 발생기(perfumer: 518)를 감지하고, 구비된 실감기기들에 의해 구현될 수 있는 실감효과의 재현을 위해 실감기기들을 제어한다. 여기서, 실감기기들에 대한 제어는 디지털 TV(514)에서 재생되는 장면과 실감기기들을 동기화하는 것을 포함한다.
실감기기들의 제어를 위해 실감 미디어 소비 장치(506)과 기기들(508, 510, 512, 514, 516, 518)이 서로 네트워크로 연결될 수 있다. 네트워크에는 LonWorks, UPnP(Universal Plug and Play) 등의 기술을 적용할 수 있다.
한편, 미디어의 효과적인 제공을 위해 MPEG(MPEG-7, MPEG-21 등을 포함함)과 같은 미디어 기술을 함께 적용할 수 있다.
이하에서는 서비스 제공의 주체와 서비스 소비의 주체를 실감효과 서비스를 제공하는 실감 서비스 제공자, 미디어를 제공하는 미디어 서비스 제공자 및 실감효과를 재현하는 사용자로 나누어 다양한 구현 실시예에 대해 설명한다.
도 6 내지 9는 본 발명에 따른 다양한 구현 실시예를 설명하기 위한 도면이다.
도 6은 본 발명에 따른 제1 구현 실시예를 설명하기 위한 도면이다. 도 6을 참조하면, 서비스 제공자(602)는 실감효과 정보를 포함하는 실감효과 메타데이터(604)와 미디어(606)를 서비스 소비자(608)에게 전송한다. 서비스 제공자(602)는 미디어와 미디어에 대한 실감효과를 재현하기 위한 정보를 서비스 소비자(605)에게 동시에 제공한다. 서비스 제공자(605)에는 방송 서비스 제공자를 포함할 수 있다. 서비스 소비자(608)는 실감효과 정보를 포함하는 실감효과 메타데이터(604)와 미디어(606)를 전송받는다. 전송된 미디어(606)는 미디어 재생장치(618)에 의해 재생되고, 전송된 실감효과 메타데이터(604)는 실감 미디어 소비 장치(610)에 입력된다. 실감 미디어 소비 장치(610)는 실감기기1 내지 3(612, 614, 616)과 네트워크로 연결되고, 입력된 실감효과 메타데이터(604)에 따라 실감기기1 내지 3(612, 614, 616)을 제어한다. 또한 실감 미디어 소비 장치(610)는 전송된 미디어(606)의 재생과 실감기기1 내지 3(612, 614, 616)에 의한 실감효과 재현의 동기화를 위해 전송된 미디어(606)를 입력받아, 미디어 재생장치(618)와 실감기기1 내지 3(612, 614, 616)을 제어할 수 있다.
도 7은 본 발명에 따른 제2 구현 실시예를 설명하기 위한 도면이다. 도 7을 참조하면, 실감효과 서비스를 제공하는 실감 서비스 제공자(702)와 미디어(708)를 제공하는 미디어 서비스 제공자(706)가 분리되어 있다. 미디어 서비스 제공자는 미디어(708)를 제공하는 서비스 제공자이다. 실감 서비스 제공자(702)는 미디어(708)에 대한 실감효과 서비스를 제공하기 위해 실감효과 재현을 위한 실감효과 정보를 포함하는 실감효과 메타데이터(704)를 제공하는 서비스 제공자이다. 실감 서비스 제공자(702)는 실감효과 메타데이터(704)를 서비스 소비자(710)에게 전송하고, 미디어 서비스 제공자(706)는 미디어(708)를 서비스 소비자(710)에게 전송한다. 전송 된 미디어(708)는 서비스 소비자(710)의 미디어 재생 장치(720)에 의해 재생되고, 실감 미디어 소비 장치(712)는 실감효과 메타데이터를 이용하여 실감기기 1 내지 3(714, 716, 718)을 제어한다. 또한, 실감 미디어 소비 장치(712)는 미디어(708)과 실감기기 1 내지 3(714, 716, 718)의 동기화를 수행한다.
도 8은 본 발명에 따른 제3 구현 실시예를 설명하기 위한 도면이다. 도 8에 도시된 구현 실시예는 서비스 소비자측에서 미디어와 실감효과 재현을 위한 정보를 모두 보유하고 있는 경우를 포함한다. 여기서, 서비스 소비자측에는 서비스 소비자가 보유한 DVD 플레이어와 같은 장치를 포함할 수 있다. 서비스 소비자측이 DVD 플레이어인 경우를 예로 들면, 디스크에는 미디어와 실감효과 재현을 위한 정보가 저장된다. 실감효과 재현을 위한 정보는 메타데이터의 형태로 저장될 수 있다. 실감효과 메타데이터(804)는 실감 미디어 소비 장치(808)에 전송되어 실감기기 1 내지 3(810, 812, 814)를 제어한다. 실감 미디어 소비 장치(808)는 DVD 플레이어에 포함될 수 있다. 미디어(806)은 미디어 재생 장치(816)에 의해 재생되어 TV 등을 통해 출력된다. DVD 플레이어의 예에서는 DVD 플레이어가 미디어 재생 장치(816)의 역할을 함께 수행할 수 있다. 실감 미디어 소비 장치(808)는 미디어(806)과 실감기기 1 내지 3(810, 812, 814)의 동기화를 수행한다.
도 9은 본 발명에 따른 제4 구현 실시예를 설명하기 위한 도면이다. 도 9에 도시된 구현 실시예는 실감효과 재현을 위한 정보는 서비스 제공자(902: 전술한 예 에서는 실감 서비스 제공자)가 제공하고, 미디어(908)는 서비스 소비자(906)이 보유한 경우이다. 서비스 소비자(906)는 이미 보유한 미디어(908)를 재생함에 있어 실감효과의 재현을 원한다. 실감효과의 재현을 위해 서비스 제공자(902)에게 실감효과 재현을 위한 정보를 요청한다. 서비스 제공자(902)는 실감효과 재현을 위한 정보를 서비스 소비자(906)에게 전송한다. 실감효과 재현을 위한 정보는 실감효과 메타데이터의 형테로 서비스 소비자(906)에게 전송될 수 있다. 서비스 소비자(910)는 미디어(908)를 미디어 재생 장치(918)를 이용하여 재생하고, 실감 미디어 소비장치(910)는 전송받은 실감효과 메타데이터(904)를 이용하여 실감기기 1 내지 3(912, 914, 916)을 제어한다. 실감 미디어 소비 장치(910)는 미디어(908)와 실감기기 1 내지 3(912, 914, 916)의 동기화를 수행한다.
이하에서는 본 발명에 따른 실감효과 메타데이터에 대해 상세히 설명한다.
<실감 효과 메타데이터>
본 발명에 따른 실감 효과 메타데이터는 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 포함한다. 구체적으로, 본 발명에 따른 실감효과 메타데이터는 실감효과를 기술하는 효과기술 정보 및 효과기술 정보에 따라 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함한다. 여기서, 실감효과 메타데이터는 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함할 수 있다. 사용자 단말을 포함하는 실감효과 소비 장치는 실 감효과 메타데이터를 이용하여 기기를 검색하고, 제어할 수 있다.
효과기술 정보는 실감효과의 종류에 대한 효과타입 정보, 기기에 대한 기기 식별자 정보, 실감효과의 재현을 위한 기기의 조건 정보 및 기기의 초기 설정 정보를 포함할 수 있고, 기기 제어 기술 정보는 기기 식별자 정보에 대한 참조 정보, 미디어와 실감효과의 동기화를 위한 동기화 정보 및 기기를 제어하기 위한 파라미터 정보를 포함할 수 있다.
이하에서는 도 10 내지 18을 참조하여 본 발명에 따른 실감 효과 메타데이터의 실시예에 대해 상세히 설명한다. 이하의 설명에서는 실감 효과 메타데이터를 기기 제어 정보(DCI: device control information)이라로 명명하여 설명하도록 한다.
한편, 본 발명에 따른 실감 효과 메타데이터는 MPEG-7과 같은 미디어와 관련된 기술과 LonWorks와 같은 네트워크와 관련된 기술이 함께 접목될 수 있다. LonWorks와 같은 네트워크와 관련되 기술에는 SNVTs(Standard Network Variable Types)를 이용할 수 있다. 이러한 경우, 접목되는 기술에 따른 메타데이터의 타입을 구별하기 위해 [표 1]과 같은 네임스페이스 프레픽스(Namaspace Prefix)를 사용할 수 있다.
Prefix | Corresponding namespace |
dci | urn:dci:ver1:present:DeviceControlInformation:2007-05 |
snvt | urn:SNVT:ver1:Represent:VariableList:2007:09 |
Mpeg7 | urn:mpeg:mpeg7:schema:2001 |
도 10은 본 발명에 따른 기기 제어 정보(DCI)에 대해 설명하기 위한 도면이다. 도 10을 참조하면, 기기 제어 정보(DCI: 1001)는 효과기술 정보(EffectDesription: 1003) 및 기기 제어 기술 정보(DeviceControlDescription: 1004)를 포함한다. 한편 기기 제어 정보(DCI: 1001)는 일반 정보(GeneralInfo: 1002)를 더 포함할 수 있다. 이들을 정리하면 아래의 [표2]와 같다.
Name | Definition |
GeneralInfo | This element is the container for the information on the DCI creation |
EffectDescription | This element is the container for the every effect applied to the media |
DeviceControlDescription | This element is the container for the control parameters for each device |
일반 정보(GeneralInfo: 1002)는 기기 제어 정보의 생성과 관련된 정보를 포함하고, 효과기술 정보(EffectDesription: 1003)는 미디어에 적용되는 효과와 관련된 정보를 포함하며, 기기 제어 기술 정보(DeviceControlDescription: 1004)는 각 기기를 위한 제어 파라미터와 관련된 정보를 포함할 수 있다.
도 10과 관련된 기기 제어 정보(DCI: 1001)에 대한 스키마(schema)의 일 예는 아래와 같다.
<element name="DCI" type="dci:DCIType"/>
<complexType name="DCIType">
<sequence>
<element name="GeneralInfo" type="mpeg7:DescriptionMetadataType" minOccurs="0"/>
<element name="EffectDescription" type="dci:EffectDescriptionType"/>
<element name="DeviceControlDescription" type="dci:DeviceControlDescriptionType"/>
</sequence>
</complexType>
이하에서는 일반 정보(GeneralInfo: 1002), 효과기술 정보(EffectDesription: 1003) 및 기기 제어 기술 정보(DeviceControlDescription: 1004)에 대해 상세히 설명한다.
도 11은 본 발명에 따른 실감 효과 메타데이터에 포함된 일반 정보(GeneralInfo)를 설명하기 위한 도면이다. 일반 정보(GeneralInfo)는 기기 제어 정보(Device Control Information)의 생성과 관련된 정보를 포함한다. 도 11을 참조하면, 일반 정보(GeneralInfo: 1102)는 Confidence(1102), Version(1103), Comment(1104), PublicIdentifier(1106), PrivateIdentifier(1107), Creator(1108), CreationLocation(1109), CreationTime(1110), Instrument(1111) 및 Rights(1112)를 포함할 수 있다. 일반 정보(GeneralInfo: 1102)는 기기 제어 정보의 생성과 관련된 정보를 포함한다. 따라서, 일반적인 메타데이터의 생성과 관련되 정보를 포함할 수 있다. 예를 들면, 버전, 최종 업데이트 일자, 저작자, 저작 시간, 저작 장소, 저작권 등의 정보를 포함할 수 있다. 여기서는 MPEG-7에서 정의한 "GeneralInfo"를 참조할 수 있음을 설명한 것으로서, 일반 정보(GeneralInfo: 1102)에 대한 스키마의 일 예는 아래와 같다.
<complexType name="DescriptionMetadataType">
<complexContent>
<extension base="mpeg7:HeaderType">
<sequence>
<element name="Confidence" type="mpeg7:zeroToOneType" minOccurs="0"/>
<element name="Version" type="string" minOccurs="0"/>
<element name="LastUpdate" type="mpeg7:timePointType" minOccurs="0"/>
<element name="Comment" type="mpeg7:TextAnnotationType" minOccurs="0"/>
<element name="PublicIdentifier" type="mpeg7:UniqueIDType" minOccurs="0" maxOccurs="unbounded"/>
<element name="PrivateIdentifier" type="string" minOccurs="0" maxOccurs="unbounded"/>
<element name="Creator" type="mpeg7:CreatorType" minOccurs="0" maxOccurs="unbounded"/>
<element name="CreationLocation" type="mpeg7:PlaceType" minOccurs="0"/>
<element name="CreationTime" type="mpeg7:timePointType" minOccurs="0"/>
<element name="Instrument" type="mpeg7:CreationToolType" minOccurs="0" maxOccurs="unbounded"/>
<element name="Rights" type="mpeg7:RightsType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
이하에서는 효과기술 정보(EffectDesription)에 대해 상세히 설명한다.
도 12는 본 발명에 따른 실감 효과 메타데이터에 포함된 효과기술 정보(EffectDesription)를 설명하기 위한 도면이다. 효과기술 정보(EffectDesription)는 미디어에 적용되는 모든 효과에 대한 정보를 포함할 수 있다. 사용자 단말을 포함하는 실감 미디어 소비 장치는 미디어에 어떤 타입의 효과가 적용되는 지를 확인하고, 효과기술 정보(EffectDesription)에 의해 전달되는 정보에 기초하여 각 효과를 위해 기기들을 매핑한다. 도 12를 참조하면, 효과기술 정보(EffectDesription: 1201)는 효과 정보(Effect: 1202)를 포함할 수 있다. 효과 정보(Effect: 1202)는 복수 개 일 수 있다. 이를 정리하면 아래의 [표3]와 같다.
Name | Definition |
Effect | This element describes the information of an effect |
효과 정보(Effect: 1202)는 실감 효과에 대한 정보를 기술한다. 도 12와 관련된 효과 기술 정보(EffectDesription: 1202)에 대한 스키마(schema)의 일 예는 아래와 같다.
<element name="EffectDescription" type="dci:EffectDescriptionType"/>
<complexType name="EffectDescriptionType">
<sequence>
<element name="Effect" type="dci:EffectType" maxOccurs="unbounded"/>
</sequence>
</complexType>
이하에서는 효과 정보(Effect)에 대해 상세히 설명한다.
도 13은 본 발명에 따른 실감 효과 메타데이터에 포함된 효과 정보(Effect)를 설명하기 위한 도면이다. 효과 정보(Effect)는 실감효과 타입에 대한 정보와 기기 조건 및 초기 세팅 정보 등을 포함할 수 있다. 효과 정보(Effect)는 기기와 실감 효과를 연결해주는 역할을 한다. 도 13을 참조하면, 효과 정보(Effect: 1301)는 기기 식별자 정보(TargetID: 1302), 효과타입 정보(TypeOfEffect: 1303), 조건 정보(Condition: 1304) 및 초기 설정 정보(InitialEffect: 1305)를 포함할 수 있다. 이들을 정리하면 아래의 [표 4]와 같다.
Name | Definition |
TypeOfEffect | This attribute contains the enumeration set of effect type. |
TargetID | This attribute describes the ID of individual device that will present the effect. It is necessary in case the author wants to give an effect with multiple devices. |
Condition | This element describes the conditions information for the devices |
InitialEffect | This element contains the device control parameters for initial effect |
기기 식별자 정보(TargetID: 1302)는 실감 효과를 표현하는 개별 기기의 식별자를 기술하는 것으로서, 복수의 기기를 이용하여 실감효과를 재현하기를 원하는 경우에 기기들을 식별하기 위해 이용된다. 효과타입 정보(TypeOfEffect: 1303)는 실감효과의 효과 타입에 대한 목록(enumeration)을 포함할 수 있다. 효과타입 정보(TypeOfEffect: 1303)에 포함된 효과 타입의 목록을 정리하면 아래의 [표 5]와 같다.
Enumeration Value | Description |
VisualEffect | Visual effect |
SoundEffect | Sound effect |
WindEffect | Wind effect |
TemperatureEffect | Temperature effect |
LightEffect | Light effect |
ShadingEffect | Shading effect |
VibrationEffect | Vibration effect |
ScentEffect | Scent effect |
[표 5]의 목록과 같이, 효과 타입에는 시각 효과(VisualEffect), 음향 효과(SoundEffect) 바람 효과(WindEffet), 온도 효과(TemperatureEffect), 빛 효과(LightEffect), 음영 효과(ShadingEffect), 진동 효과(VibrationEffect) 및 향기 효과(ScentEffect) 등을 포함할 수 있다. 도 13과 관련된 효과 정보(Effect: 1301)에 대한 스키마(schema)의 일 예는 아래와 같다.
<element name="Effect" type="dci:EffectType"/>
<complexType name="EffectType">
<sequence>
<element name="Condition" type="dci:ConditionType" minOccurs="0"/>
<element name="InitialEffect" type="dci:ControlDataType" minOccurs="0"/>
</sequence>
<attribute name="TargetID" type="ID" use="required"/>
<attribute name="TypeOfEffect" use="required">
<simpleType>
<restriction base="string">
<enumeration value="VisualEffect"/>
<enumeration value="SoundEffect"/>
<enumeration value="WindEffect"/>
<enumeration value="TemperatureEffect"/>
<enumeration value="LightingEffect"/>
<enumeration value="ShieldingEffect"/>
<enumeration value="VibrationEffect"/>
<enumeration value="ScentEffect"/>
<enumeration value="OtherEffect"/>
</restriction>
</simpleType>
</attribute>
</complexType>
이하에서는 조건 정보(Condition)에 대해 상세히 설명한다.
도 14는 본 발명에 따른 실감 효과 메타데이터에 포함된 조건 정보(Condition)를 설명하기 위한 도면이다. 조건 정보(condition)는 실감 효과를 표현하기 위해 기기에 요구되는 사항들에 대한 정보를 포함할 수 있다. 예를 들어, 조건 정보(Condition)는 사용자가 구비한 기기들 중에서 해당 실감 효과에 가장 적합한 기기를 매핑하기 위해 사용자 단말을 포함하는 실감효과 소비 장치에게 힌트 정보(hint information)를 제공할 수 있다. 조건 정보(condition)는 어떤 제어 파라미터가 기기 제어를 위해 사용될 수 있는 지에 대한 정보를 포함할 수 있다. 예를 들어, 조건 정보(condition)가 기기에 대해 방향에 대한 제어가 가능한 정보를 포함하는 경우, 방향을 설정하기 위한 제어 파라미터가 사용된다. 한편, 조건 정보(condition)는 기기들이 안전하게 작동할 수 있도록 작동 범위에 대한 제어 값을 설정할 수 있다. 기기의 특질(property)을 고려하지 않은 극단적인 제어 값은 기기를 손상시키거나, 사용자에게 해를 가할 수 있기 때문이다.
도 14를 참조하면, 조건 정보(Condition: 1401)는 MaxResolutionMode(1402), MaxLux(1403), MaxCandela(1404), MaxContrast(1405), MaxSoundVolume(1406), MaxWindSpeed(1407), MaxTurnSpeed(1408), DirectionControllable(1409), SwingControllable(1410), LocationMode(1411), MaxColorMode(1412), MonoColor(1413), DimmingControllable(1414), MinTemperature(1415), MaxTemperature(1416), WindSpeedControllable(1417), OpenMode(1418), OpeningTimeControllable(1419), MaxOpeningTime(1420), MinOpeningTime(1421), MaxVibration(1422), VibrationControllable(1423), MaxDiffusion(1424), DiffusionControllable(1425), ScentMode(1426) 및 OtherCondition(1427)를 포함할 수 있다. 이들을 정리하면 아래의 [표 6]와 같다.
Name | Definition |
MaxResolutionMode | This element describes the max resolution mode that the visual effect device should support. |
MaxLux | This element describes the maximum brightness value by lux (lx) that the lighting effect device should support. The type is dci:LuxType. |
MaxCandela | This element describes the maximum candela (cd) value that the visual effect device should support. Candela is the SI base unit of luminous intensity. It is used by visual devices such as monitor, PDP TV, LCD TV. The type is dci:CandelaType. |
MaxContrast | This element describes the maximum contrast that the visual effect device should support. The type is dci:ContrastType. |
MaxSoundVolume | This element describes the maximum sound volume by decibel (db) that the sound device should support. The type is dci:SoundVolumeType. |
MaxWindSpeed | This element describes the maximum wind speed value by meter per second (mps) that the wind effect device should support. The type is dci:WindSpeedType. |
MaxTurnSpeed | This element describes the maximum value for turning speed that the device should support. This will be used in such device as rotation fan device or rotation lighting device. The type is dci:TrunSpeedType. |
Directioncontrollable | This element indicates the controllability for direction. If the value is true, the device should support the direction controllability. If false, the device may not support it. |
SwingControllable | This element indicates the controllability for swing. If the value is true, the device should support the swing controllability. If false, the device may not support it. |
LocationMode | This element describes the mode of location. |
MaxColorMode | This element describes the maximum number of colors that the device should support. This is necessary in case the device can change color. |
MonoColor | This element describes a mono color that the device should support. This is necessary in case the device cannot change its color. The color can be expressed by r, g, b intensity. |
DimmingControllable | This element indicates the controllability for dimming. If the value is true, the device should support dimming controllability. If false, the device shall not support it |
MinTemperature | This element describes the minimum value of temperature by Celsius that the device should support. The type is dci:MinTempType. |
MaxTemperature | This element describes the maximum value of temperature by Celsius that the device should support. The type is dci:MaxTempType. |
WindSpeedControllable | This element indicates the controllability for wind speed. If the value is true, the device should support wind speed controllability. If false, the device shall not support it |
OpenMode | This element describes the open mode that the shading device should support. |
MaxVibration | This element describes the maximum value of vibration by rpm that the vibration device should support. The type is dci:VibrationType. |
VibraionControllable | This elemenet indicates the controllability for vibration. If the value is true, the device should support vibration controllability. If false, the device should not support it |
MaxDiffusion | This element describes the maximum value of diffusion by milligram (mil) that the diffusion device should support. The type is dci:DiffusionType. |
DiffusionControllable | This elemenet indicates the controllability for diffusion. If the value is true, the device should support diffusion controllability. If false, the device should not support it |
ScentMode | This element describes the mode of scent that the scent device should support. |
OtherCondition | This element reserves a hole for extension. |
MaxResolutionMode(1402)는 시각 효과 기기가 제공해야 하는 최대 해상도 모드에 대해 기술한다. 최대 해상도 모드를 정의하는 테이블은 아래의 [표 7]과 같다.
Resolution Modes | Description | Remark |
1 | 1024 * 768 | General vision |
2 | 1280 * 1024 | General vision |
3 | 1400 * 1050 | General vision |
4 | 1600 * 1200 | General vision |
5 ~ 32 | reserved | General vision |
33 | 1280 * 768 | Wide vision |
34 | 1366 * 768 | Wide vision |
35 | 1440 * 900 | Wide vision |
36 | 1440 * 990 | Wide vision |
37 | 1440 * 1050 | Wide vision |
38 | 1680 * 1050 | Wide vision |
39 | 1920 * 1080 | Wide vision |
40 | 1920 * 1200 | Wide vision |
41 ~ 64 | reserved | Wide vision |
MaxLux(1403)는 빛 효과 기기가 제공해야 하는 최대 밝기를 럭스(lx) 단위로 기술한다. MaxCandela(1404)는 시각 효과 기기가 제공해야 하는 최대 휘도를 칸델라(cd) 단위로 기술한다. 칸델라는 휘도의 강도에 대한 SI 단위로서, 모니터, PDP TV, LCD TV 등과 같은 시각 기기에 사용된다. MaxContrast(1405)는 시각 효과 기기가 제공해야 하는 최대 콘트라스트에 대해 기술한다. MaxSoundVolume(1406)는 음향 효과 기기가 제공해야 하는 최대 음향 볼륨을 데시벨(db)단위로 기술한다.
MaxWindSpeed(1407)는 바람 효과 기기가 제공해야 하는 최대 풍속에 대한 값을 m/s의 단위로 기술한다. MaxTurnSpeed(1408)는 기기가 제공해야 하는 회전 속도의 최대값을 기술하는 것으로서, 팬을 회전시키는 기기 또는 조광기기를 회전시키는 기기에 사용될 수 있다.
DirectionControllable(1409)는 방향에 대한 제어가능성을 지시한다. 만약 값이 참(true)이면 해당 기기는 방향에 대한 제어기능이 있고, 만약 거짓(false)이면 해당 기기는 방향에 대한 제어기능을 구비하지 않는 것으로 해석될 수 있다.
SwingControllable(1410)는 스위(swing)에 대한 제어가능성을 지시한다. 만약 값이 참(true)이면 해당 기기는 스윙에 대한 제어기능이 있고, 만약 거짓(false)이면 해당 기기는 스윙에 대한 제어기능을 구비하지 않는 것으로 해석될 수 있다.
LocationMode(1411)는 위치에 대한 모드를 기술한다. 위치에 대한 모드를 정의하는 테이블은 아래의 [표 8]과 같다.
Location Modes | Description |
1 | Front |
2 | Rear |
3 | Left |
4 | Right |
5 | Left Front |
6 | Right Front |
7 | Left Rear |
8 | Right Rear |
MaxColorMode(1412)는 기기가 제공해야 하는 최대 컬러 수를 기술한다. 기긱가 컬러를 변경시킬 수 있는 경우에 사용될 수 있다. 컬러에 대한 모드를 정의하는 테이블은 아래의 [표 9]과 같다.
Color Modes | Description |
1 | 1 bit colors |
2 | 2 bits colors |
3 | 4 bits colors |
4 | 8 bits colors |
5 | 16 bits color |
6 | 32 bits color |
7~ 15 | reserved |
MonoColor(1413)는 기기가 제공하는 모노 컬러를 기술한다. 기기가 컬러를 변경할 수 없는 경우에 사용될 수 있다. 컬러는 R, G, B 강도로 표현될 수 있다.
DimmingControllable(1414)는 조광을 위한 제어가능성을 지시한다. 만약 값이 참(true)이면 해당 기기는 조광에 대한 제어기능이 있고, 만약 거짓(false)이면 해당 기기는 조광에 대한 제어기능을 구비하지 않는 것으로 해석될 수 있다.
MinTemperature(1415)는 기기가 제공하는 최저 온도 값을 섭씨 단위로 기술한다. MaxTemperature(1416)는 기기가 제공하는 최대 온도 값을 섭씨 단위로 기술한다.
WindSpeedControllable(1417)는 풍숙에 대한 제어가능성을 지시한다. 만약 값이 참(true)이면 해당 기기는 풍속에 대한 제어기능이 있고, 만약 거짓(false)이면 해당 기기는 풍속에 대한 제어기능을 구비하지 않는 것으로 해석될 수 있다.
OpenMode(1418)는 음영 효과 기기가 제공해야 하는 오픈 모드에 대해 기술한다. 오픈 모드를 정의한 테이블은 [표 10]와 같다.
Value of Open Mode | Open Mode |
1 | Bottom to Top |
2 | Top to Bottom |
3 | Left to Right |
4 | Right to Left |
5 | Center to Side |
OpenMode(1418)와 관련된 정보로서 OpeningTimeControllable(1419), MaxOpeningTime(1420), MinOpeningTime(1421) 등이 있다.
MaxVibration(1422)은 진동 효과 기기가 제공해야 하는 최대 진동 값을 rpm 단위로 기술한다. VibrationControllable(1423)는 진동에 대한 제어가능성에 대해 지시한다. 만약 값이 참(true)이면 해당 기기는 진동에 대한 제어기능이 있고, 만약 거짓(false)이면 해당 기기는 진동에 대한 제어기능을 구비하지 않는 것으로 해석될 수 있다.
MaxDiffusion(1424)는 확산 효과 기기가 제공해야 하는 최대 확산 값을 밀리그램 단위로 기술한다. DiffusionControllable(1425)는 확산에 대한 제어가능성에 대해 지시한다. 만약 값이 참(true)이면 해당 기기는 확산에 대한 제어기능이 있고, 만약 거짓(false)이면 해당 기기는 확산에 대한 제어기능을 구비하지 않는 것으로 해석될 수 있다.
ScentMode(1426)는 향기 효과 기기가 제공해야 하는 향기 모드에 대해 기술한다. 향기 모드를 정의한 테이블은 [표 11]과 같다.
Scent Mode | Description |
1 | Scent of rose |
2 | Scent of acacia |
3 | Scent of chrysanthemum |
4 | Scent of lilac |
5 | Scent of mint |
6 | Scent of jasmine |
7 | Scent of pine tree |
8 | Scent of orange |
9 | Scent of grape |
10 ~ 1024 | reserved |
OtherCondition(1427)는 조건 정보(condition: 1401)에 대한 확장가능성에 따라 유보한 엘리먼트이다.
조건 정보(condition: 1401)에 대한 예시적인 스키마는 아래와 같다.
<element name="Condition" type="dci:ConditionType"/>
<complexType name="ConditionType">
<sequence>
<element name="MaxResolutionMode" type="unsignedInt" minOccurs="0"/>
<element name="MaxLux" type="dci:LuxType" minOccurs="0"/>
<element name="MaxCandela" type="dci:CandelaType" minOccurs="0"/>
<element name="MaxContrast" type="dci:ContrastType" minOccurs="0"/>
<element name="MaxSoundVolume" type="dci:SoundVolumeType" minOccurs="0"/>
<element name="MaxWindSpeed" type="dci:WindSpeedType" minOccurs="0"/>
<element name="MaxTurnSpeed" type="dci:TurnSpeedType" minOccurs="0"/>
<element name="DirectionControllable" type="boolean" minOccurs="0"/>
<element name="SwingControllable" type="boolean" minOccurs="0"/>
<element name="LocationMode" type="unsignedInt" minOccurs="0"/>
<element name="MaxColorMode" type="unsignedInt" minOccurs="0"/>
<element name="MonoColor" type="dci:ColorType" minOccurs="0"/>
<element name="DimmingControllable" type="boolean" minOccurs="0"/>
<element name="MinTemperature" type="dci:MinTemperatureType"minOccurs="0"/>
<element name="MaxTemperature"type="dci:MaxTemperatureType"minOccurs="0"/>
<element name="WindSpeedControllable" type="boolean" minOccurs="0"/>
<element name="OpenMode" type="unsignedInt" minOccurs="0"/>
<element name="MaxVibration" type="dci:VibrationType" minOccurs="0"/>
<element name="VibrationControllable" type="boolean" minOccurs="0"/>
<element name="MaxDiffusion" type="dci:DiffusionType" minOccurs="0"/>
<element name="DiffusionControllable" type="boolean" minOccurs="0"/>
<element name="ScentMode" type="unsignedInt" minOccurs="0"/>
<element name="OtherCondition" type="dci:OtherType" minOccurs="0"/>
</sequence>
</complexType>
이하에서는 초기 설정 정보(InitialEffect)에 대해 상세히 설명한다.
도 15는 본 발명에 따른 실감 효과 메타데이터에 포함된 초기 설정 정보(InitialEffect)를 설명하기 위한 도면이다. 초기 설정 정보(InitialEffect)는 실감 미디어를 소비하기 전에 설정된 초기 상태에 대한 정보를 포함한다. 초기 설정 정보(InitialEffect)는 기기 제어 파라미터에 대한 리스트를 포함할 수 있다.
도 15를 참조하면, 초기 설정 정보(InitialEffect: 1501)는 SetOnOff(1502), SetBrightnessLevel(1503), SetContrastLevel(1504), SetResolutionMode(1505), SetSoundVolumeLevel(1506), SetWindSpeed(1507), SetWindSpeedLevel(1508), SetDirection(1509), SetSwingOn(1510), SetTurnSpeedLevel(1511), SetColor(1512), SetDimmingLevel(1513), SetTemperature(1514), SetTemperatureLevel(1515), SetOpenLevel(1516), SetOpenSpeedLevel(1517), SetVibrationLevel(1518), SetDiffusionLevel(1519), SetScentMode(1520) 및OtherSettings(1521)를 포함할 수 있다. 이를 정리하면, 아래의 [표 12]와 같다.
Name | Definition |
SetOnOff | This element sets state of device into on or off. The type is boolean. |
SetBrightnessLevel | This element sets brightness level of visual device. The value is expressed in percentage (0%~100%). The type is dci:LevelType. |
SetContrastLevel | This element sets contrast level of visual device. The value is expressed in percentage (0%~100%). The type is dci:LevelType |
SetResolutionMode | This element sets resolution mode of visual device. |
SetSoundVolumeLevel | This element sets volume level of sound device. The value is expressed in percentage (0%~100%). The type is dci:LevelType. |
SetWindSpeed | This element sets wind speed of wind device. The value is expressed in Meter per Second (mps). The type is dci:WindSpeedType |
SetWindSpeedLevel | This element sets wind speed level of wind device. The value is expressed in percentage (0%~100%). The type is dci:LevelType |
SetDirection | This element sets direction of the device. The type is dci:DirectionType. dci:DirectionType has two attributes, xAngle and yAngle, to express the direction. xAngle and yAngle attributes are represented by snvt:angle_degType. |
SetTurnSpeedLevel | This element sets turning speed level of the device. The value is expressed in percentage (0%~100%). The type is dci:LevelType. |
SetColor | This element sets color of lighting device which enables to represent certain color. The type of SetColor is dci:ColorType. |
SetDimmingLevel | This element sets dimming level of lighting device which enable to dim the brightness level. The type is dci:LevelType. |
SetTemperature | This element sets temperature of temperature control device. The type is dci:TemperatureType. |
SetTemperatureLevel | This element sets temperature level of temperature control device. The type is dci:LevelType. |
SetOpenLevel | This element sets open level of shading device. the type is dci:LevelType. |
SetVibrationLevel | This element sets vibration level of vibration device. The type is dci:LevelType. |
SetDiffusionLevel | This element sets diffusion level of diffusion device. The type is dci:LevelType. |
SetScentMode | This element sets a scent mode for scent device. The scent mode is defined as table in Annex A.5. |
OtherSettings | This element sets other control data for effects. This element is for user defined control data. The type of OtherSettings is dci:OtherType. |
SetOnOff(1502)는 기기에 대한 온/오프의 상태를 설정한다.
SetBrightnessLevel(1503)는 시각 효과 기기의 밝기 레벨을 설정한다. 설정값은 퍼센트 값으로 표현한다. SetContrastLevel(1504)는 시각 효과 기기의 콘트라스트 레벨을 설정한다. 설정값은 퍼센트 값으로 표현된다.
SetResolutionMode(1505)는 시각 효과 기기의 해상도 모드를 설정한다. SetSoundVolumeLevel(1506)는 음향 효과 기기의 볼륨 레벨을 설정한다. 설정값은 퍼센트 값으로 표현된다.
SetWindSpeed(1507)는 바람 효과 기기의 풍속을 설정한다. 설정값은 m/s로 표현된다. SetWindSpeedLevel(1508)는 바람 효과 기기의 풍속 레벨을 설정한다. 설정값은 퍼센트 값으로 표현된다.
SetDirection(1509)은 기기의 방향을 설정한다. X각도와 Y각도에 대한 속성을 가질 수 있다. X각도와 Y각도에 대해서는 후술하는 SNVTs에서 설명한다. SetTurnSpeedLevel(1511)는 기기의 터닝 스피드 레벨을 설정한다. 설정값은 퍼센트 값으로 표현된다.
SetColor(1512)는 특정 컬러를 표현할 수 있는 빛 효과 기기의 컬러를 설정한다. SetDimmingLevel(1513)은 밝기 레벨을 디밍(dimming)할 수 있는 빛 효과 기기의 디밍 레벨을 설정한다. SetTemperature(1514)는 온도 제어 기기의 온도를 설정한다. SetTemperatureLevel(1515)는 온도 제어 기기의 온도 레벨을 설정한다. SetOpenLevel(1516)는 음영 기기의 오픈 레벨을 설정한다. SetOpenLevel(1516)과 관련하여 SetOpenSpeedLevel(1517)를 더 설정할 수 있다.
SetVibrationLevel(1518)는 진동 기기의 진동 레벨을 설정한다. SetDiffusionLevel(1519)는 확산 기기의 확산 레벨을 설정한다. SetScentMode(1520)는 향기 효과 기기의 향기 모드를 설정한다.
OtherSettings(1521)는 기타의 실감 효과를 제어하기 위한 제어 데이터를 설정한다. OtherSettings(1521)는 조건 정보(Condition)에 정의된 엘리먼트에 대해 정의할 수 있다. 기타, SetSwingOn(1510)에 대해서도 설정할 수 있다.
초기 설정 정보(InitialEffect: 1501)에 대한 예시적인 스키마는 아래와 같다.
<element name="InitialEffect" type="dci:ControlDataType"/>
<complexType name="ControlDataType">
<sequence>
<element name="SetOnOff" type="boolean" minOccurs="0"/>
<element name="SetBrightnessLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetContrastLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetResolutionMode" type="unsignedInt" minOccurs="0"/>
<element name="SetSoundVolumeLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetWindSpeed" type="dci:WindSpeedType" minOccurs="0"/>
<element name="SetWindSpeedLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetDirection" type="dci:DirectionType" minOccurs="0"/>
<element name="SetSwingOn" type="unsignedInt" minOccurs="0"/>
<element name="SetTurnSpeedLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetColor" type="dci:ColorType" minOccurs="0"/>
<element name="SetDimmingLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetTemperature" type="dci:TemperatureType" minOccurs="0"/>
<element name="SetTemperatureLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetOpenLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetOpenSpeedLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetVibrationLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetDiffusionLevel" type="dci:LevelType" minOccurs="0"/>
<element name="SetScentMode" type="unsignedInt" minOccurs="0"/>
<element name="OtherSettings" type="dci:OtherType" minOccurs="0"/>
</sequence>
</complexType>
이하에서는 기기 제어 기술 정보(DeviceControlDescription)에 대해 상세히 설명한다.
도 16은 본 발명에 따른 실감 효과 메타데이터에 포함된 기기 제어 기술 정보(DeviceControlDescription)를 설명하기 위한 도면이다. 도 16을 참조하면, 기기 제어 기술 정보(DeviceControlDescription: 1601)는 기기 제어 데이터(DeviceControlData: 1602)를 포함할 수 있다. 기기 제어 기술 정보(DeviceControlDescription: 1601)는 실감 효과 기기의 개수에 따라 복수의 기기 제어 데이터(DeviceControlData: 1602)를 포함할 수 있다. 이를 정리하면, 아래의 [표 13]과 같다.
Name | Definition |
DeviceControlData | This element describes device control data for each device |
기기 제어 데이터(DeviceControlData: 1602)는 각 기기에 대한 제어 데이터를 포함할 수 있다. 도 16과 관련되 기기 제어 기술 정보(DeviceControlDescription: 1601)에 대한 예시적인 스키마는 아래와 같다.
<element name="DeviceControlDescription" type="dci:DeviceControlDescriptionType"/>
<complexType name="DeviceControlDescriptionType">
<sequence>
<element name="DeviceControlData" type="dci:DeviceControlDataType" maxOccurs="unbounded"/>
</sequence>
</complexType>
이하에서는 기기 제어 데이터(DeviceControlData)에 대해 상세히 설명한다.
도 17은 본 발명에 따른 실감 효과 메타데이터에 포함된 기기 제어 데이터(DeviceControlData)를 설명하기 위한 도면이다. 도 17을 참조하면, 기기 제어 데이터(DeviceControlData: 1701)는 기기 식별자 정보에 대한 참조 정보(RefTargetID: 1702), 미디어와 실감효과의 동기화를 위한 동기화 정보(Sync: 1703) 및 기기를 제어하기 위한 파라미터 정보(ControlData: 1704)를 포함한다. 기기 제어 데이터(DeviceControlData: 1701)는 각 기기의 제어 정보를 포함할 수 있는 것으로서, 전술한 기기 식별자 정보(TargetID)를 참조하여 효과 기술 정보(EffectDescription)에 포함된 효과 정보(Effet)와 매칭이 될 수 있다. 기기 제어 데이터(DeviceControlData: 1701)는 미디어와의 연동(interlocking)을 위해 동기화 정보(Sync: 1703)를 포함하게 된다. 이들을 정리하면, 아래의 [표 14]와 같다.
Name | Definition |
RefTargetID | This element points to TargetID of Effect in EffectDescription. Through this element, the terminal can recognize this control data is belongs to which device. |
Sync | This element describes time information for synchronization with media. The type is dci:SyncType as follows. dci:syncType has two attributes, start and duration. These attributes are represented by mpeg7:mediaTimePointType and mpeg7:mediaDrationType. |
ControlData | This element describes various control parameters for device. The type is dci:ControlDataType which is explained in InitialEffect in EffectDescription. |
참조 정보(RefTargetID: 1702)는 전술한 효과 기술 정보(EffectDescription)에 포함된 효과 정보(Effect)를 지시한다. 이를 통해 사용자 단말을 포함하는 실감 미디어 소비 장치는 어떤 기기와 관련된 제어 데이터인지를 인식할 수 있다.
동기화 정보(Sync: 1703)는 미디어와의 동기를 위한 시간 정보를 기술한다. 동기화 정보(Sync: 1703)에는 시작(start)과 기간(duration)과 같은 속성을 포함할 수 있다.
파라미터 정보(ControlData: 1704)는 기기을 위한 다양한 제어 파라미터를 기술한다.
도 18은 본 발명에 따른 실감 효과 메타데이터에 포함된 파라미터 정보(ControlData)를 설명하기 위한 도면이다. 도 18를 참조하면, 파라미터 정보(ControlData1801)는 SetOnOff(1802), SetBrightnessLevel(1803), SetContrastLevel(1804), SetResolutionMode(1805), SetSoundVolumeLevel(1806), SetWindSpeed(1807), SetWindSpeedLevel(1808), SetDirection(1809), SetSwingOn(1810), SetTurnSpeedLevel(1811), SetColor(1812), SetDimmingLevel(1813), SetTemperature(1814), SetTemperatureLevel(1815), SetOpenLevel(1816), SetOpenSpeedLevel(1817), SetVibrationLevel(1818), SetDiffusionLevel(1819), SetScentMode(1820) 및OtherSettings(1821)를 포함할 수 있다. 파라미터 정보(ControlData: 1704)는 전술한 효과 기술 정보(EffectDescription)에 포함된 초기 설정 정보(InitialEffect)와 관련성이 있는 것으로서, 여기서는 상세한 설명은 생략하기로 한다.
아래의 [표 15]는 심플 타입(Simple Type)을 설명하기 위한 것이다. 심플 타입에는 실감 효과에 대한 제한 조건 정보가 포함될 수 있다.
Name | Definition & Source |
LuxType | This simple type represents degree of brightness using lux. The restriction base is snvt:luxType. The value is restricted from 0 to 5000 lux. <simpleType name="LuxType"> <restriction base="snvt:luxType"> <maxInclusive value="5000"/> </restriction> </simpleType> |
CandelaType | This simple type represents intensity of light using candela. The value is restricted from 0 to 5000. <simpleType name="CandelaType"> <restriction base="unsignedInt"> <minInclusive value="0"/> <maxInclusive value="5000"/> </restriction> </simpleType> |
MaxTemperatureType | This simple type represents maximum temperature using centigrade. The restriction base is snvt:temp_pType. The value is restricted from 0 to 45. <simpleType name="MaxTemperatureType"> <restriction base="snvt:temp_pType"> <minInclusive value="0"/> <maxInclusive value="45"/> </restriction> </simpleType> |
MinTemperatureType | This simple type represents minimum temperature using centigrade. The restriction base is snvt:temp_pType. The value is restricted from -15 to 0. <simpleType name="MinTemperatureType"> <restriction base="snvt:temp_pType"> <minInclusive value="-15"/> <maxInclusive value="0"/> </restriction> </simpleType> |
TemperatureType | This simple type represents temperature using centigrade. <simpleType name="TemperatureType"> <restriction base="snvt:temp_pType"> <minInclusive value="-15"/> <maxInclusive value="45"/> </restriction> </simpleType> |
SoundVolumeType | This simple type represents sound volume using decibel. The restriction base is snvt:sound_dbType. The value is restricted from 0 to 150db. <simpleType name="SoundVolumeType"> <restriction base="snvt:sound_dbType"> <minInclusive value="0"/> <maxInclusive value="150"/> </restriction> </simpleType> |
WindSpeedType | This simple type represents speed of wind using meter per second. The restriction base is snvt:speed_milType. The value is restricted from 0 to 20 mps. <simpleType name="WindSpeedType"> <restriction base="snvt:speed_milType"> <maxInclusive value="20"/> </restriction> </simpleType> |
TurnSpeedType | This simple type represents turning speed using velocity. The restriction base is snvt:angle_velType. The value is restricted from 0 to 10 <simpleType name="TurnSpeedType"> <restriction base="snvt:angle_velType"> <minInclusive value="0"/> <maxInclusive value="10"/> </restriction> </simpleType> |
DiffusionType | This simple type represents mass using milligram. The restriction base is snvt:mass_milType. The value is restricted from 0 to 200. <simpleType name="DiffusionType"> <restriction base="snvt:mass_milType"> <maxInclusive value="200"/> </restriction> </simpleType> |
ContrastType | This simple type represents contrast using the expression like 1000:1. <simpleType name="ContrastType"> <restriction base="string"> <pattern value="\d{4}:\d{1}"/> </restriction> </simpleType> |
LevelType | This simple type represents percentage. The value is restricted from 0 to 100. <simpleType name="LevelType"> <restriction base="unsignedInt"> <minInclusive value="0"/> <maxInclusive value="100"/> </restriction> </simpleType> |
VibrationType | This simple type represents intensity of vibration using rpm. The restriction base is snvt:rmp_Type. The value is restricted from 0 to 20000. <simpleType name="VibrationType"> <restriction base="snvt:rpm_Type"> <maxInclusive value="20000"/> </restriction> </simpleType> |
아래는 실감 기기들과의 네트워크와 관련하여, Lonworks와 관련된 SNVT에 대한 예시이다.
여기서, "Valid Tpe Range"는 설정 값의 범위를 제한하는 것을 의미하고, "Type resolution"는 값들을 표현하기 위한 해상도를 의미하며, "Unit"는 SNVT에서 사용되는 단위를 의미한다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
본 발명은 실감형 미디어의 생성과 소비에 사용된다.
도 1은 종래의 미디어 기술을 개략적으로 설명하기 위한 도면이다.
도 2는 본 발명에 따른 실감형 미디어 구현에 대한 개념도이다.
도 3은 본 발명에 따른 실감 미디어 생성 장치를 설명하기 위한 도면이다.
도 4는 본 발명에 따른 실감 미디어 소비 장치를 설명하기 위한 도면이다.
도 5는 본 발명에 따른 실감효과 재현을 위한 개념도이다.
도 6은 본 발명에 따른 제1 구현 실시예를 설명하기 위한 도면이다.
도 7은 본 발명에 따른 제2 구현 실시예를 설명하기 위한 도면이다.
도 8은 본 발명에 따른 제3 구현 실시예를 설명하기 위한 도면이다.
도 9은 본 발명에 따른 제4 구현 실시예를 설명하기 위한 도면이다.
도 10은 본 발명에 따른 기기 제어 정보(DCI)에 대해 설명하기 위한 도면이 다.
도 11은 본 발명에 따른 실감 효과 메타데이터에 포함된 일반 정보(GeneralInfo)를 설명하기 위한 도면이다.
도 12는 본 발명에 따른 실감 효과 메타데이터에 포함된 효과기술 정보(EffectDesription)를 설명하기 위한 도면이다.
도 13은 본 발명에 따른 실감 효과 메타데이터에 포함된 효과 정보(Effect)를 설명하기 위한 도면이다.
도 14는 본 발명에 따른 실감 효과 메타데이터에 포함된 조건 정보(Condition)를 설명하기 위한 도면이다.
도 15는 본 발명에 따른 실감 효과 메타데이터에 포함된 초기 설정 정보(InitialEffect)를 설명하기 위한 도면이다.
도 16은 본 발명에 따른 실감 효과 메타데이터에 포함된 기기 제어 기술 정보(DeviceControlDescription)를 설명하기 위한 도면이다.
도 17은 본 발명에 따른 실감 효과 메타데이터에 포함된 기기 제어 데이터(DeviceControlData)를 설명하기 위한 도면이다.
도 18은 본 발명에 따른 실감 효과 메타데이터에 포함된 파라미터 정보(ControlData)를 설명하기 위한 도면이다.
Claims (28)
- 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 입력받는 단계; 및상기 입력된 실감효과 정보를 포함하는 실감효과 메타데이터를 생성하는 단계를 포함하고,상기 실감효과 메타데이터는상기 실감효과를 기술하는 효과기술 정보 및 상기 효과기술 정보에 따라 상기 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함하는, 실감 미디어 생성 방법.
- 제1항에 있어서,상기 실감효과 메타데이터를 사용자 단말에 전송하는 단계를 더 포함하는, 실감 미디어 생성 방법.
- 제1항에 있어서,상기 생성된 실감효과 메타데이터와 상기 미디어를 페키징하여 실감 미디어를 생성하는 단계; 및상기 실감 미디어를 상기 사용자 단말에 전송하는 단계를 더 포함하는, 실감 미디어 생성 방법.
- 제1항에 있어서,상기 실감효과 메타데이터는상기 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함하는, 실감 미디어 생성 방법.
- 제1항에 있어서,상기 효과기술 정보는상기 실감효과의 종류에 대한 효과타입 정보;상기 기기에 대한 기기 식별자 정보;상기 실감효과의 재현을 위한 기기의 조건 정보; 및상기 기기의 초기 설정 정보를 포함하는, 실감 미디어 생성 방법.
- 제5항에 있어서,상기 기기 제어 기술 정보는상기 기기 식별자 정보에 대한 참조 정보;상기 미디어와 상기 실감효과의 동기화를 위한 동기화 정보; 및상기 기기를 제어하기 위한 파라미터 정보를 포함하는, 실감 미디어 생성 방법.
- 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 입력받는 입력부; 및상기 입력된 실감효과 정보를 포함하는 실감효과 메타데이터를 생성하는 실감효과 메타데이터 생성부를 포함하고,상기 실감효과 메타데이터는상기 실감효과를 기술하는 효과기술 정보 및 상기 효과기술 정보에 따라 상기 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함하는, 실감 미디어 생성 장치.
- 제7항에 있어서,상기 실감효과 메타데이터를 사용자 단말에 전송하는 전송부를 더 포함하는, 실감 미디어 생성 장치.
- 제7항에 있어서,상기 생성된 실감효과 메타데이터와 상기 미디어를 페키징하여 실감 미디어를 생성하는 실감 미디어 생성부를 더 포함하고,상기 전송부는 상기 실감 미디어를 상기 사용자 단말에 전송하는, 실감 미디어 생성 장치.
- 제7항에 있어서,상기 실감효과 메타데이터는상기 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함하는, 실감 미디어 생성 장치.
- 제7항에 있어서,상기 효과기술 정보는상기 실감효과의 종류에 대한 효과타입 정보;상기 기기에 대한 기기 식별자 정보;상기 실감효과의 재현을 위한 기기의 조건 정보; 및상기 기기의 초기 설정 정보를 포함하는, 실감 미디어 생성 장치.
- 제11항에 있어서,상기 기기 제어 기술 정보는상기 기기 식별자 정보에 대한 참조 정보;상기 미디어와 상기 실감효과의 동기화를 위한 동기화 정보; 및상기 기기를 제어하기 위한 파라미터 정보를 포함하는, 실감 미디어 생성 장치.
- 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 포함하는 실감효과 메타데이터를 입력받는 단계; 및상기 실감효과를 재현하는 기기(device)를 검색하고, 상기 실감효과 정보에 따라 상기 실감효과를 수행하는 상기 기기를 제어하는 단계를 포함하고,상기 실감효과 메타데이터는상기 실감효과를 기술하는 효과기술 정보 및 상기 효과기술 정보에 따라 상기 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함하는, 실감 미디어 소비 방법.
- 제13항에 있어서,상기 입력받는 단계는상기 미디어를 더 입력받는, 실감 미디어 소비 방법.
- 제13항에 있어서,상기 미디어와 상기 실감효과 메타데이터는 페키징되어 입력되는, 실감 미디어 소비 방법.
- 제13항에 있어서,상기 실감효과 메타데이터는상기 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함하는, 실감 미디어 생성 방법.
- 제13항에 있어서,상기 효과기술 정보는상기 실감효과의 종류에 대한 효과타입 정보;상기 기기에 대한 기기 식별자 정보;상기 실감효과의 재현을 위한 기기의 조건 정보; 및상기 기기의 초기 설정 정보를 포함하는, 실감 미디어 생성 방법.
- 제17항에 있어서,상기 기기 제어 기술 정보는상기 기기 식별자 정보에 대한 참조 정보;상기 미디어와 상기 실감효과의 동기화를 위한 동기화 정보; 및상기 기기를 제어하기 위한 파라미터 정보를 포함하는, 실감 미디어 생성 방법.
- 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 포함하는 실감효과 메타데이터를 입력받는 입력부; 및상기 실감효과를 재현하는 기기(device)를 검색하고, 상기 실감효과 정보에 따라 상기 실감효과를 수행하는 상기 기기를 제어하는 제어부를 포함하고,상기 실감효과 메타데이터는상기 실감효과를 기술하는 효과기술 정보 및 상기 효과기술 정보에 따라 상기 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함하는, 실감 미디어 소비 장치.
- 제19항에 있어서,상기 입력부는상기 미디어를 더 입력받는, 실감 미디어 소비 장치.
- 제19항에 있어서,상기 미디어와 상기 실감효과 메타데이터는 페키징되어 입력되는, 실감 미디어 소비 장치.
- 제19항에 있어서,상기 실감효과 메타데이터는상기 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함하는, 실감 미디어 소비 장치.
- 제19항에 있어서,상기 효과기술 정보는상기 실감효과의 종류에 대한 효과타입 정보;상기 기기에 대한 기기 식별자 정보;상기 실감효과의 재현을 위한 기기의 조건 정보; 및상기 기기의 초기 설정 정보를 포함하는, 실감 미디어 소비 장치.
- 제23항에 있어서,상기 기기 제어 기술 정보는상기 기기 식별자 정보에 대한 참조 정보;상기 미디어와 상기 실감효과의 동기화를 위한 동기화 정보; 및상기 기기를 제어하기 위한 파라미터 정보를 포함하는, 실감 미디어 소비 장치.
- 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체에 있어서,상기 메타데이터는 미디어에 적용되는 실감효과에 대한 실감효과 정보(sensory effect information)를 포함하는 실감효과 메타데이터를 포함하고,상기 실감효과 메타데이터는 상기 실감효과를 기술하는 효과기술 정보 및 상기 효과기술 정보에 따라 상기 실감효과를 재현하기 위해 기기를 제어하는 기기 제어 기술 정보를 포함하고,상기 실감효과 메타데이터에 따라 상기 기기를 검색하고, 제어할 수 있는, 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체.
- 제25항에 있어서,상기 실감효과 메타데이터는상기 실감효과 메타데이터의 생성 정보를 포함하는 일반 정보를 더 포함하는, 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체.
- 제25항에 있어서,상기 효과기술 정보는상기 실감효과의 종류에 대한 효과타입 정보;상기 기기에 대한 기기 식별자 정보;상기 실감효과의 재현을 위한 기기의 조건 정보; 및상기 기기의 초기 설정 정보를 포함하는, 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체.
- 제27항에 있어서,상기 기기 제어 기술 정보는상기 기기 식별자 정보에 대한 참조 정보;상기 미디어와 상기 실감효과의 동기화를 위한 동기화 정보; 및상기 기기를 제어하기 위한 파라미터 정보를 포함하는, 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US98018407P | 2007-10-16 | 2007-10-16 | |
US60/980,184 | 2007-10-16 | ||
KR20070134718 | 2007-12-20 | ||
KR1020070134718 | 2007-12-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20090038835A true KR20090038835A (ko) | 2009-04-21 |
Family
ID=40567577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080101748A KR20090038835A (ko) | 2007-10-16 | 2008-10-16 | 실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8577203B2 (ko) |
KR (1) | KR20090038835A (ko) |
WO (1) | WO2009051428A1 (ko) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011071229A1 (ko) * | 2009-12-11 | 2011-06-16 | 한국전자통신연구원 | 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법 |
US9936107B2 (en) | 2014-12-23 | 2018-04-03 | Electronics And Telecommunications Research Institite | Apparatus and method for generating sensory effect metadata |
US9953682B2 (en) | 2015-03-11 | 2018-04-24 | Electronics And Telecommunications Research Institute | Apparatus and method for providing sensory effects for vestibular rehabilitation therapy |
WO2020183235A1 (en) * | 2019-03-13 | 2020-09-17 | Z5X Global FZ-LLC | Smart furniture content interaction system and method |
US10990163B2 (en) | 2017-06-21 | 2021-04-27 | Z5X Global FZ-LLC | Content interaction system and method |
US11509974B2 (en) | 2017-06-21 | 2022-11-22 | Z5X Global FZ-LLC | Smart furniture content interaction system and method |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101671900B1 (ko) * | 2009-05-08 | 2016-11-03 | 삼성전자주식회사 | 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체 |
KR20100138700A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
KR101297409B1 (ko) * | 2009-12-14 | 2013-08-19 | 한국전자통신연구원 | 음장변화 측정을 이용한 보안 시스템 및 방법 |
US20110241908A1 (en) * | 2010-04-02 | 2011-10-06 | Samsung Electronics Co., Ltd. | System and method for processing sensory effect |
KR101746453B1 (ko) * | 2010-04-12 | 2017-06-13 | 삼성전자주식회사 | 실감 효과 처리 시스템 및 방법 |
US10013857B2 (en) * | 2011-12-21 | 2018-07-03 | Qualcomm Incorporated | Using haptic technologies to provide enhanced media experiences |
US9721010B2 (en) * | 2012-12-13 | 2017-08-01 | Microsoft Technology Licensing, Llc | Content reaction annotations |
KR20140104537A (ko) * | 2013-02-18 | 2014-08-29 | 한국전자통신연구원 | 생체 신호 기반의 감성 인터랙션 장치 및 방법 |
US9610516B2 (en) * | 2013-03-15 | 2017-04-04 | Simex Inc. | System, device and method for controlling effects in a theatre |
KR101727592B1 (ko) * | 2013-06-26 | 2017-04-18 | 한국전자통신연구원 | 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법 |
WO2015075191A1 (en) * | 2013-11-25 | 2015-05-28 | Thomson Licensing | Method for generating haptic coefficients using an autoregressive model, signal and device for reproducing such coefficients |
JP2017531930A (ja) * | 2014-07-07 | 2017-10-26 | イマージョン コーポレーションImmersion Corporation | セカンドスクリーン触覚 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990026138A (ko) * | 1997-09-23 | 1999-04-15 | 구자홍 | 실감 영상구현을 위한 영상표시기기의 조명 제어장치 |
JP4583573B2 (ja) | 2000-10-05 | 2010-11-17 | ソニー株式会社 | 情報蓄積装置およびデータベースシステム |
AUPR061800A0 (en) * | 2000-10-09 | 2000-11-02 | Lake Technology Limited | Authoring system |
KR100789660B1 (ko) * | 2005-07-26 | 2008-01-02 | 이정진 | 실감 동영상 서비스를 위한 동영상 기록 장치 및 그 재생 장치 |
US8700791B2 (en) * | 2005-10-19 | 2014-04-15 | Immersion Corporation | Synchronization of haptic effect data in a media transport stream |
EP1966753A2 (en) * | 2005-12-22 | 2008-09-10 | Koninklijke Philips Electronics N.V. | Script synchronization by watermarking |
WO2009051426A2 (en) * | 2007-10-16 | 2009-04-23 | Electronics And Telecommunications Research Institute | Sensory effect media generating and consuming method and apparatus thereof |
US7911328B2 (en) * | 2007-11-21 | 2011-03-22 | The Guitammer Company | Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events |
KR20100008774A (ko) * | 2008-07-16 | 2010-01-26 | 한국전자통신연구원 | 실감 효과 표현 방법 및 그 장치 및 실감 효과 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
US20110125788A1 (en) * | 2008-07-16 | 2011-05-26 | Electronics And Telecommunications Research Institute | Method and apparatus for representing sensory effects and computer readable recording medium storing sensory device capability metadata |
US8712958B2 (en) * | 2008-07-16 | 2014-04-29 | Electronics And Telecommunications Research Institute | Method and apparatus for representing sensory effects and computer readable recording medium storing user sensory preference metadata |
KR20100008777A (ko) * | 2008-07-16 | 2010-01-26 | 한국전자통신연구원 | 실감 효과 표현 방법 및 그 장치 및 실감 기기 제어 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
WO2010033006A2 (ko) * | 2008-09-22 | 2010-03-25 | 한국전자통신연구원 | 실감 효과 표현 방법 및 장치 |
KR20100114482A (ko) * | 2009-04-15 | 2010-10-25 | 한국전자통신연구원 | 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치 |
US20100268745A1 (en) * | 2009-04-16 | 2010-10-21 | Bum-Suk Choi | Method and apparatus for representing sensory effects using sensory device capability metadata |
US20100274817A1 (en) * | 2009-04-16 | 2010-10-28 | Bum-Suk Choi | Method and apparatus for representing sensory effects using user's sensory effect preference metadata |
KR20110111251A (ko) * | 2010-04-02 | 2011-10-10 | 한국전자통신연구원 | 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치 |
US20110241908A1 (en) * | 2010-04-02 | 2011-10-06 | Samsung Electronics Co., Ltd. | System and method for processing sensory effect |
-
2008
- 2008-10-16 US US12/738,536 patent/US8577203B2/en not_active Expired - Fee Related
- 2008-10-16 WO PCT/KR2008/006128 patent/WO2009051428A1/en active Application Filing
- 2008-10-16 KR KR1020080101748A patent/KR20090038835A/ko not_active Application Discontinuation
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011071229A1 (ko) * | 2009-12-11 | 2011-06-16 | 한국전자통신연구원 | 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법 |
US9936107B2 (en) | 2014-12-23 | 2018-04-03 | Electronics And Telecommunications Research Institite | Apparatus and method for generating sensory effect metadata |
US9953682B2 (en) | 2015-03-11 | 2018-04-24 | Electronics And Telecommunications Research Institute | Apparatus and method for providing sensory effects for vestibular rehabilitation therapy |
US10990163B2 (en) | 2017-06-21 | 2021-04-27 | Z5X Global FZ-LLC | Content interaction system and method |
US11009940B2 (en) | 2017-06-21 | 2021-05-18 | Z5X Global FZ-LLC | Content interaction system and method |
US11194387B1 (en) | 2017-06-21 | 2021-12-07 | Z5X Global FZ-LLC | Cost per sense system and method |
US11509974B2 (en) | 2017-06-21 | 2022-11-22 | Z5X Global FZ-LLC | Smart furniture content interaction system and method |
WO2020183235A1 (en) * | 2019-03-13 | 2020-09-17 | Z5X Global FZ-LLC | Smart furniture content interaction system and method |
Also Published As
Publication number | Publication date |
---|---|
US8577203B2 (en) | 2013-11-05 |
US20120281138A1 (en) | 2012-11-08 |
WO2009051428A1 (en) | 2009-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20090038835A (ko) | 실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체 | |
KR101667416B1 (ko) | 실감 효과 표현 방법 및 그 장치 및 실감 기기 성능 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 | |
US20110188832A1 (en) | Method and device for realising sensory effects | |
US20110125790A1 (en) | Method and apparatus for representing sensory effects and computer readable recording medium storing sensory effect metadata | |
US20100268745A1 (en) | Method and apparatus for representing sensory effects using sensory device capability metadata | |
US20100274817A1 (en) | Method and apparatus for representing sensory effects using user's sensory effect preference metadata | |
US8712958B2 (en) | Method and apparatus for representing sensory effects and computer readable recording medium storing user sensory preference metadata | |
KR20090038834A (ko) | 실감 미디어 생성 및 소비 방법 및 그 장치 | |
JP5268895B2 (ja) | 周囲環境及びコンテンツの配信 | |
US20110125789A1 (en) | Method and apparatus for representing sensory effects and computer readable recording medium storing sensory device command metadata | |
JP5092015B2 (ja) | データ送信装置、データ送信方法、視聴環境制御装置、視聴環境制御システム、及び視聴環境制御方法 | |
US20050226601A1 (en) | Device, system and method for synchronizing an effect to a media presentation | |
JP2018509065A (ja) | 関連マルチメディアコンテンツのカスタマイズ表示の実現方法およびその応用 | |
JP2009521170A (ja) | 透かしによるスクリプト同期化方法 | |
KR20080048308A (ko) | 기본 장치와 확장 장치의 연동 장치 및 방법 | |
KR20100114482A (ko) | 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치 | |
JP5442643B2 (ja) | データ送信装置、データ送信方法、視聴環境制御装置、視聴環境制御方法および視聴環境制御システム | |
KR20110042067A (ko) | 데이터 송신 장치, 데이터 수신 장치, 데이터 송신 방법, 데이터 수신 방법 및 시청 환경 제어 방법 | |
KR20110111251A (ko) | 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치 | |
Suk et al. | Sensory effect metadata for SMMD media service | |
KR20090022373A (ko) | 컨텐츠 장르에 따라 컨텐츠 재생 장치를 자동으로 조정하는방법 및 이를 구현하는 송출 및 수신 시스템 | |
KR20050116916A (ko) | 환경 정보를 포함하는 콘텐츠를 생성하고 재생하는 방법과그 재생 장치 | |
JP2010246094A (ja) | コンテンツ提供システム、コンテンツ生成装置、コンテンツ再生装置及びコンテンツ提供方法 | |
Pyo et al. | A metadata schema design on representation of sensory effect information for sensible media and its service framework using UPnP | |
Yun et al. | Development of sensory effect representing system adapting user preferences and device capability |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |