KR101341485B1 - 디바이스 협업을 통한 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템 - Google Patents

디바이스 협업을 통한 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템 Download PDF

Info

Publication number
KR101341485B1
KR101341485B1 KR1020100054991A KR20100054991A KR101341485B1 KR 101341485 B1 KR101341485 B1 KR 101341485B1 KR 1020100054991 A KR1020100054991 A KR 1020100054991A KR 20100054991 A KR20100054991 A KR 20100054991A KR 101341485 B1 KR101341485 B1 KR 101341485B1
Authority
KR
South Korea
Prior art keywords
image data
data
media
synchronization
sensory
Prior art date
Application number
KR1020100054991A
Other languages
English (en)
Other versions
KR20110052431A (ko
Inventor
윤재관
장종현
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US12/912,917 priority Critical patent/US20110110641A1/en
Publication of KR20110052431A publication Critical patent/KR20110052431A/ko
Application granted granted Critical
Publication of KR101341485B1 publication Critical patent/KR101341485B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/2625Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for delaying content or additional data distribution, e.g. because of an extended sport event

Abstract

디바이스 협업을 통한 실감 방송 구현 방법이 제공된다. 실감 방송 구현 방법은, 기존의 영상과 소리 위주의 실감 방송에서 벗어나 사용자 주변의 실감 재현 디바이스들을 동기를 맞추어 제어하고 특정 효과에 대한 디바이스 그룹의 협업을 통하여 실감 효과를 재현할 수 있다.

Description

디바이스 협업을 통한 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템{System and method for real-sense broadcasting service using device cooperation}
본 발명은 실감 방송 시스템에 관한 것으로, 보다 상세하게는 SMMD 기반의 실감 재현 서비스를 수행할 수 있도록 하기 위하여 다수의 장치(디바이스)의 협업을 통해 실감 방송을 구현할 수 있는 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템에 관한 것이다.
본 발명은 지식경제부의 IT성장동력기술개발 사업 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2007-S-010-03, 과제명: SMMD 기반 유비쿼터스 홈 미디어 서비스 시스템 개발].
유비쿼터스 IT(Information Technology) 시대에는 인간의 오감을 만족시키는 실감 기술과 디바이스 간 자율 협업을 기반으로 하는 지능형 기술이 미디어에 복합적으로 적용된다.
이와 같은 기술을 구현하기 위해서는 하나의 디바이스에서 미디어를 재현하는 방식으로는 구현이 어렵다. 즉, 실감을 내기 위한 다양한 디바이스와 미디어가 연동하고 미디어의 정보에 따라 디바이스가 작동되어야 가능하다.
현재의 미디어 서비스는 하나의 미디어가 하나의 디바이스에서 재현되는 SMSD(Single Media Single Device) 기반의 서비스가 주를 이루고 있으나, 유비쿼터스 홈에서의 미디어 재현효과를 극대화하기 위해서는 하나의 미디어가 복수 개의 디바이스와 연동하여 재현되는 SMMD(Single Media Multi Devices) 기반의 서비스가 요구된다.
본 발명이 해결하고자 하는 과제는, 디바이스 협업을 통해 실감 방송을 구현할 수 있는 실감 방송 구현 방법을 제공하고자 하는데 있다.
본 발명이 해결하고자 하는 다른 과제는, 실감 방송 구현을 위한 실감 방송 시스템을 제공하고자 하는데 있다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 실감 방송 구현 방법은, 실감 방송 콘텐츠 제작 장치가, 하나 이상의 미디어 소스를 인코딩하여 미디어 데이터를 생성하는 단계, 하나 이상의 메타데이터를 인코딩하여 실감 효과 데이터를 생성하고, 실감 효과 데이터를 미디어 데이터에 삽입하여 미디어 파일을 생성하는 단계 및 미디어 파일을 방송 신호로 변환하여 출력하는 단계를 포함한다.
상기 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 실감 방송 구현 방법은, 실감 방송 콘텐츠 재생 장치가, 수신된 방송 신호로부터 미디어 데이터와 실감 효과 데이터를 분리하는 단계, 미디어 데이터를 디코딩하여 영상 데이터를 생성하고, 영상 데이터를 하나 이상의 디스플레이 장치를 이용하여 재생하는 단계, 및 실감 효과 데이터를 디코딩하여 효과 데이터를 생성하고, 효과 데이터를 하나 이상의 실감 재현 장치를 이용하여 재현하되, 효과 데이터가 영상 데이터의 재생 시간에 동기되도록 제어하여 재현하는 단계를 포함한다.
상기 다른 과제를 해결하기 위한 본 발명의 일 실시예에 따른 실감 방송 시스템의 실감 방송 콘텐츠 제작 장치는, 수집된 하나 이상의 미디어 소스를 인코딩하여 미디어 데이터를 생성하는 미디어 파일 생성부, 미디어 데이터에 대응되는 하나 이상의 메타데이터를 인코딩하여 실감 효과 데이터를 생성하는 메타데이터 생성부, 미디어 데이터에 실감 효과 데이터를 삽입하여 미디어 파일을 출력하는 믹싱부 및 미디어 파일을 방송 신호로 변환하여 출력하는 신호 변환부를 포함한다.
상기 다른 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 실감 방송 시스템의 실감 방송 콘텐츠 재생 장치는, 수신된 방송 신호로부터 미디어 데이터와 실감 효과 데이터를 분리하는 미디어 파서, 동기 제어 신호에 기초하여 미디어 데이터의 재생 시간이 동기 되도록 제어하는 미디어 컨트롤러, 동기 제어 신호에 기초하여 실감 효과 데이터의 재현 시간이 미디어 데이터에 동기 되도록 제어하는 디바이스 컨트롤러 및 미디어 데이터의 재생 동기 또는 실감 효과 데이터의 재현 동기를 제어하기 위한 제어 신호를 생성하여 출력하는 동기 제어부를 포함한다.
본 발명의 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템은, 동영상, 오디오 및 텍스트로 이루어진 기존의 방송용 미디어에 실감 서비스 등의 응용을 위하여 효과 데이터를 추가함으로써 기존의 방송용 미디어가 제공하지 못하는 실감 효과를 재현할 수 있다.
또한, 하나의 미디어를 하나의 디바이스에서 재현하는 방식에서 하나의 미디어를 여러 개의 디바이스를 이용하여 재현함으로써 한번에 많은 정보를 전달할 수 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 실감 방송 시스템의 개략적인 구성도이다.
도 2는 도 1에 도시된 신호 변환부의 개략적인 구성도이다.
도 3은 도 1에 도시된 콘텐츠 제작 장치의 동작 흐름도이다.
도 4는 도 1에 도시된 신호 변환부의 동작 흐름도이다.
도 5는 도 1에 도시된 콘텐츠 재생 장치의 동작 흐름도이다.
도 6은 동기 제어부의 동기 제어 동작의 흐름도이다.
도 7a와 도 7b는 동기 제어부의 동기 오차 보정 동작을 나타내는 도면들이다.
도 8a와 도 8b는 동기 제어부의 동기 보정 동작을 나타내는 도면들이다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시 예에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 실시 예를 예시하는 첨부도면 및 첨부도면에 기재된 내용을 참조하여야만 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 실감 방송 시스템의 개략적인 구성도이고, 도 2는 도 1에 도시된 신호 변환부의 개략적인 구성도이다.
도 1을 참조하면, 실감 방송 시스템(10)은 콘텐츠 제작 장치(100), 콘텐츠 재생 장치(200) 및 통신망(500)을 포함할 수 있다.
방송 서버로도 불리는 콘텐츠 제작 장치(100)는 다양한 영상 콘텐츠와 이에 대응되는 다양한 실감 콘텐츠를 제작하고, 이들을 하나의 신호로 통합하여 콘텐츠 재생 장치(200)로 전송할 수 있다.
콘텐츠 제작 장치(100)는 미디어 생성부(110), 메타데이터 생성부(120), 믹싱부(130), 저장부(140) 및 신호 변환부(150)를 포함할 수 있다.
미디어 생성부(110)는 외부의 콘텐츠 저장 서버(미도시)로부터 다수의 미디어 소스들을 수집할 수 있다. 또한, 미디어 생성부(110)는 수집된 다수의 미디어 소스들을 소정의 형식으로 인코딩하여 미디어 데이터(MD)를 생성할 수 있다.
다수의 미디어 소스들은 다수의 영상(비디오) 소스 또는 다수의 소리(오디오) 소스를 포함할 수 있다.
미디어 생성부(110)는 수집된 다수의 미디어 소스들로부터 하나의 영상 데이터를 포함하는 미디어 데이터(MD)를 생성할 수도 있고, 수집된 다수의 미디어 소스들로부터 하나의 메인 영상 데이터와 다수의 서브 영상 데이터를 포함하는 미디어 데이터(MD)를 생성할 수도 있다.
여기서, 각각의 영상 데이터에는 하나 이상의 미디어 소스, 즉 다수의 비디오 소스와 다수의 오디오 소스가 포함된 미디어 소스가 포함되어 있을 수 있다.
미디어 생성부(110)는 수집된 다수의 미디어 소스들을 동영상 압축 기술, 예컨대 MPEG 4(Motion Picture Experts Group 4; MPEG 4) 형식으로 인코딩하여 출력하는 MP4 인코더(미도시)를 더 포함할 수 있으며, 이러한 인코더를 이용하여 미디어 데이터(MD)를 생성할 수 있다.
메타데이터 생성부(120)는 미디어 생성부(110)에 의해 생성된 미디어 데이터(MD)에 대응되는 하나 이상의 메타데이터를 인코딩하여 출력할 수 있다.
예컨대, 메타데이터 생성부(120)는 외부의 데이터 저장 서버(미도시)에 저장된 다수의 메타데이터들 중에서 하나 이상의 메타데이터를 선택하여 추출할 수 있다.
메타데이터 생성부(120)는 추출된 하나 이상의 메타데이터를 인코딩하여 인코딩된 메타데이터, 즉 실감 효과 데이터(RD)를 출력할 수 있다.
여기서, 다수의 메타데이터들 각각은 다양한 실감 효과, 예컨대 발향, 조명, 바람, 진동, 모션 등과 같은 다양한 효과를 재현하기 위하여 XML 등과 같은 프로그래밍 언어로 프로그램 될 수 있다.
메타데이터 생성부(120)는 프로그램 되어 저장된 다수의 메타데이터들 중에서 미디어 데이터(MD)의 종류, 특징 등의 정보에 따라 하나 이상의 메타데이터를 선택하고, 선택된 메타데이터의 신뢰성을 검증한 후, 이를 추출할 수 있다.
또한, 메타데이터 생성부(120)는 추출된 하나 이상의 메타데이터를 미디어 데이터(MD)와 동일한 방식으로 인코딩하여 실감 효과 데이터(RD)를 출력할 수 있으며, 이를 위하여 메타데이터 인코더(미도시)를 더 포함할 수 있다.
한편, 본 발명의 다양한 실시예에 따라 메타데이터 생성부(120)는 미디어 생성부(110)의 인코더를 공유할 수도 있다.
믹싱부(130)는 미디어 데이터(MD)와 실감 효과 데이터(RD)를 합성하여 하나의 미디어 파일(MS)을 출력할 수 있다.
예컨대, 믹싱부(130)는 미디어 데이터(MD)의 메타데이터 트랙에 실감 효과 데이터(RD)를 삽입하여 미디어 파일(MS)을 생성하고, 이를 출력할 수 있다.
한편, 미디어 데이터(MD)가 스포츠 중계 등과 같은 실시간 미디어인 경우에 실감 효과 데이터(RD)는 미디어 데이터(MD)에 실시간으로 삽입되어야 할 필요성이 있다.
이에 따라, 메타데이터 생성부(120)로부터 출력되는 실감 효과 데이터(RD)는 후술될 신호 변환부(150)로 실시간 입력되어 신호 변환부(150)로부터 출력되는 방송 신호(BS)에 믹싱되어 삽입될 수도 있다.
저장부(140)는 믹싱부(130)로부터 출력된 미디어 파일(MS)을 저장할 수 있다. 저장부(140)는 미디어 파일(MS)이 CD 또는 DVD 등과 같이 소정의 저장 장치에 저장되어 해당 디바이스를 통해서만 재생되는 경우에는 ES(Elementary Stream) 형태로 저장하고, 미디어 파일(MS)이 통신망(500)을 통해 전송되어 재생되는 경우에는 AU(Access Unit) 형태로 저장할 수 있다.
저장부(140)에 저장된 미디어 파일(MS)은 사용자의 요청 등에 따라 신호 변환부(150)로 출력될 수 있다.
신호 변환부(150)는 믹싱부(130)로부터 출력된 미디어 파일(MS)을 전송에 적합한 신호, 즉 방송 신호(BS)로 변환하고, 변환된 방송 신호(BS)를 통신망(500)을 통해 출력할 수 있다.
신호 변환부(150)는 미디어 파일(MS)을 소정의 통신 규격으로 다시 인코딩하는 방법 등을 이용하여 방송 신호(BS)로 변환할 수 있다.
도 1 및 도 2를 참조하면, 신호 변환부(150)는 분석부(151), 다수의 인코더들(152, 154, 156), 제1 합성부(157) 및 제2 합성부(159)를 포함할 수 있다.
분석부(151)는 미디어 파일(MS)을 분석하여 다양한 정보 데이터들을 생성하고, 생성된 정보 데이터를 출력할 수 있다.
다수의 인코더들(152, 154, 156) 각각은 미디어 파일(MS)을 각각 인코딩하여 출력할 수 있다.
제1 인코더(152), 제2 인코더(154) 및 제3 인코더(156) 각각은 미디어 파일(MS)의 각각의 데이터를 전송 스트림(transport stream; TS) 형식, 즉 MPEG2TS 형식으로 인코딩하여 출력할 수 있다.
다수의 인코더들(152, 154, 156) 각각으로부터 출력된 인코딩된 데이터들은 제1 합성부(157)에 의해 하나의 데이터로 합성될 수 있고, 제1 합성부(157)에 의해 합성된 하나의 데이터는 제2 합성부(159)를 통해 분석부(151)로부터 출력된 다양한 정보 데이터와 합성될 수 있다.
즉, 제1 합성부(157)와 제2 합성부(159)는 인코딩된 다수의 데이터들과 분석부(151)로부터 출력된 다양한 정보 데이터를 결합하여 방송 신호(BS)를 생성하고, 이를 출력할 수 있다.
생성된 방송 신호(BS)는 사용자 데이터그램 프로토콜(UDP/IP)를 이용하여 통신망(500)으로 출력될 수 있다.
도 3은 도 1에 도시된 콘텐츠 제작 장치의 동작 흐름도이고, 도 4는 도 1에 도시된 신호 변환부의 동작 흐름도이다.
도 1 및 도 3을 참조하면, 콘텐츠 제작 장치(100)의 미디어 생성부(110)는 다수의 미디어 소스들을 수집하고(S10), 수집된 다수의 미디어 소스들을 인코딩하여 미디어 데이터(MD)를 생성할 수 있다(S15).
콘텐츠 제작 장치(100)의 메타데이터 생성부(120)는 다수의 메타데이터들 중에서 미디어 데이터(MD)에 대응되는 하나 이상의 메타데이터를 선택하고(S20), 선택된 메타데이터를 인코딩하여 인코딩된 메타데이터, 즉 실감 효과 데이터(RD)를 생성할 수 있다(S25).
믹싱부(130)는 미디어 데이터(MD)에 실감 효과 데이터(RD)를 삽입하여 미디어 파일(MS)을 생성하고, 이를 출력할 수 있다(S30).
신호 변환부(150)는 미디어 파일(MS)을 변환하여 방송 신호(BS)를 생성하고, 이를 통신망(500)을 통해 출력할 수 있다(S40).
한편, 본 발명의 다른 실시예에 따라 실감 효과 데이터(RD)는 방송 신호(BS)에 실시간으로 삽입될 수도 있다.
예컨대, 미디어 데이터(MD)가 실시간 미디어인 경우에 이를 방송 신호(BS)로 변환하고, 실감 효과 데이터(RD)는 방송 신호(BS)에 실시간으로 삽입되어 출력될 수도 있다.
도 1, 도 2 및 도 4를 참조하면, 신호 변환부(150)의 분석부(151)는 미디어 파일(MS)을 분석하여 다양한 정보 데이터들을 생성하여 출력할 수 있다.
예컨대, 분석부(151)는 미디어 파일(MS)을 분석하여 PAT(Program Association Table; PAT)를 생성하여 출력할 수 있다(S41).
또한, 분석부(151)는 미디어 파일(MS)을 분석하여 PMT(Program Map Table; PMT)를 생성하여 출력할 수 있다(S42).
또한, 분석부(151)는 미디어 파일(MS)을 분석하여 비디오/오디오 트랙을 식별하고, 이를 통해 ES(Elementary Stream) 정보 디스크립터(descriptor)를 생성하여 출력할 수 있다(S43).
여기서, 분석부(151)에 의해 생성되는 다양한 정보 데이터들의 생성 순서에는 제한이 없다.
신호 변환부(150)의 다수의 인코더들(152, 154, 156) 각각은 미디어 파일(MS)을 인코딩하여 다수의 인코딩된 데이터를 출력할 수 있다.
예컨대, 제1 인코더(152)는 미디어 파일(MS)의 장면 디스크립션(scene description)과 객체(object) 디스크립터 각각을 인코딩하여 출력할 수 있다(S44).
또한, 제2 인코더(154)는 미디어 파일(MS)의 비디오/오디오 소스를 인코딩하여 출력할 수 있다(S45).
또한, 제3 인코더(156)는 미디어 파일(MS)의 실감 효과 데이터(RD)를 인코딩하여 출력할 수 있다(S46).
여기서, 다수의 인코더들(152, 154, 156)에 의해 수행되는 미디어 파일(MS)의 인코딩 순서에는 제한이 없다.
다수의 인코더들(152, 154, 156) 각각으로부터 출력된 인코딩된 데이터들은 하나의 데이터로 합성될 수 있고, 합성된 하나의 데이터는 다수의 정보 데이터들, 즉 분석부(151)로부터 출력된 다수의 정보 데이터들과 각각과 합성될 수 있다(S47).
이에 따라, 다수의 인코딩 데이터들과 다수의 정보 데이터들이 합성된 방송 신호(BS)를 생성할 수 있고, 이를 출력할 수 있다(S48).
다시 도 1을 참조하면, 방송 수신 장치로도 불리는 콘텐츠 재생 장치(200)는 콘텐츠 제작 장치(100)로부터 통신망(500)을 통해 전송된 방송 신호(BS)를 수신할 수 있다.
여기서, 통신망(500)은 유/무선 방송 통신망 또는 유/무선 인터넷망일 수 있다.
콘텐츠 재생 장치(200)는 방송 신호(BS)에 포함된 미디어 데이터(MD), 즉 영상 신호를 다수의 디스플레이 장치들(300_1, … 300_N; N은 자연수) 각각을 이용하여 재생하거나 또는 방송 신호(BS)에 포함된 실감 효과 데이터(RD)를 다수의 실감 재현 장치들(400_1, … 400_M; M은 자연수) 각각을 이용하여 재현할 수 있다.
여기서, 다수의 디스플레이 장치들(300_1, … 300_N) 각각은 TV, 모니터 등과 같은 디스플레이 장치 등을 의미할 수 있고, 다수의 실감 재현 장치들(400_1, … 400_M) 각각은 발향 장치, 진동 장치, 송풍 장치 등을 의미할 수 있다.
콘텐츠 재생 장치(200)는 미디어 파서(210), 미디어 컨트롤러(220), 디바이스 컨트롤러(230), 동기 제어부(240), 미디어 디코더(250) 및 효과 데이터 디코더(260)를 포함할 수 있다.
미디어 파서(210)는 통신망(500)을 통해 전송된 방송 신호(BS)를 파싱(parsing)하여 미디어 데이터(MD)와 실감 효과 데이터(RD)를 분리시킬 수 있다.
또한, 미디어 파서(210)는 미디어 데이터(MD)에서 메인 영상 데이터와 서브 영상 데이터를 분리할 수도 있다.
미디어 컨트롤러(220)는 미디어 파서(210)로부터 전송된 미디어 데이터(MD)를 동기 제어부(240)로부터 출력된 제어 신호(CNT), 예컨대 미디어 데이터(MD)의 동기를 제어하는 제어 신호에 기초하여 미디어 디코더(250)로 출력할 수 있다.
미디어 디코더(250)는 미디어 컨트롤러(220)로부터 출력된 미디어 데이터(MD)를 디코딩하고, 디코딩된 미디어 데이터, 즉 영상 데이터를 다수의 디스플레이 장치들(300_1, … 300_N) 각각으로 출력하여 재생되도록 할 수 있다.
여기서, 영상 데이터는 동기 제어부(240)의 제어 신호(CNT)에 의해 영상 데이터의 재생 동기가 제어될 수 있다.
디바이스 컨트롤러(230)는 미디어 파서(210)로부터 전송된 실감 효과 데이터(RD)를 동기 제어부(240)로부터 출력된 제어 신호(CNT), 예컨대 실감 효과 데이터(RD)의 동기를 제어하는 제어 신호에 기초하여 효과 데이터 디코더(260)로 출력할 수 있다.
효과 데이터 디코더(260)는 디바이스 컨트롤러(230)로부터 출력된 실감 효과 데이터(RD)를 디코딩하고, 디코딩된 실감 효과 데이터, 즉 효과 데이터를 다수의 실감 재현 장치들(400_1, … 400_M) 각각으로 출력하여 재생되도록 할 수 있다.
여기서, 효과 데이터는 동기 제어부(240)의 제어 신호(CNT)에 의해 영상 데이터의 재생과 동기가 제어될 수 있다.
다수의 디스플레이 장치들(300_1, … 300_N) 각각은 미디어 디코더(250)로부터 출력된 동기 제어된 영상 데이터를 재생할 수 있다.
다수의 실감 재현 장치들(400_1, … 400_M) 각각은 효과 데이터 디코더(260)로부터 출력된 동기 제어된 효과 데이터를 재현할 수 있다.
도 5는 도 1에 도시된 콘텐츠 재생 장치의 동작 흐름도이다.
도 1 및 도 5를 참조하면, 콘텐츠 재생 장치(200)의 미디어 파서(210)는 통신망(500)을 통해 방송 신호(BS)를 수신하고(S110), 수신된 방송 신호(BS)로부터 미디어 데이터(MD)와 실감 효과 데이터(RD)를 분리시키는 파싱 동작을 수행할 수 있다(S120).
분리된 미디어 데이터(MD)는 미디어 컨트롤러(220)에 의해 동기 제어되어 미디어 디코더(250)로 제공될 수 있으며, 미디어 디코더(250)는 이를 디코딩하여 영상 데이터를 출력할 수 있다.
또한, 분리된 실감 효과 데이터(RD)는 디바이스 컨트롤러(230)에 의해 동기 제어되어 효과 데이터 디코더(260)로 제공될 수 있으며, 효과 데이터 디코더(260)는 이를 디코딩하여 효과 데이터를 출력할 수 있다(S130).
여기서, 미디어 컨트롤러(220) 또는 디바이스 컨트롤러(230)는 동기 제어부(240)로부터 출력된 제어 신호(CNT)에 따라 미디어 데이터(MD) 또는 실감 효과 데이터(RD)의 동기를 제어할 수 있다.
미디어 디코더(250)는 영상 데이터를 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 선택된 하나 이상의 디스플레이 장치로 출력하여 재생할 수 있다.
예컨대, 분리된 미디어 데이터(MD)가 하나의 영상 데이터를 포함하고 있는 경우에, 미디어 디코더(250)는 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 하나의 장치, 예컨대 TV를 선택하고, 선택한 디스플레이 장치에 영상 데이터, 즉 하나의 영상 데이터를 출력하여 재생시킬 수 있다.
또한, 분리된 미디어 데이터(MD)가 하나의 메인 영상 데이터와 다수의 서브 영상 데이터를 포함하고 있는 경우에, 미디어 디코더(250)는 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 하나의 메인 영상 데이터가 재생될 하나의 장치, 예컨대 TV와 다수의 서브 영상 데이터가 재생될 다수의 장치, 예컨대 모니터, 휴대폰 등을 각각 선택할 수 있다.
그리고, 선택된 하나의 장치에 영상 데이터, 즉 메인 영상 데이터를 출력하여 재생시키고, 선택된 다수의 장치에 서브 영상 데이터를 출력하여 재생시킬 수 있다.
효과 데이터 디코더(260)는 효과 데이터를 다수의 실감 재현 장치들(400_1, … 400_M) 중에서 선택된 하나 이상의 실감 재현 장치로 출력하여 재현할 수 있다.
한편, 다수의 디스플레이 장치들(300_1, … 300_N) 각각에서 재생되는 영상 데이터 또는 다수의 실감 재현 장치들(400_1, … 400_M) 각각에서 재현되는 효과 재현 데이터는 각각의 재생 또는 재현 시작 시간이 제어될 수 있다(S140).
다수의 디스플레이 장치들(300_1, … 300_N) 각각은 미디어 디코더(250)로부터 출력된 영상 데이터를 재생하되, 동기 제어부(240)로부터 출력된 제어 신호(CNT)에 기초한 미디어 컨트롤러(220)의 동기 제어에 따라 그 재생 시간이 동기 제어될 수 있다(S150).
또한, 다수의 실감 효과 재현 장치들(400_1, … 400_M) 각각은 효과 데이터 디코더(260)로부터 출력된 효과 데이터를 재현하되, 동기 제어부(240)로부터 출력된 제어 신호(CNT)에 기초한 디바이스 컨트롤러(230)의 동기 제어에 따라 그 재현 시간이 동기 제어될 수 있다(S160).
도 6은 동기 제어부의 동기 제어 동작의 흐름도이다. 본 실시예에서는 미디어 디코더(250)로부터 출력되는 영상 데이터의 재생에 대한 동기 제어부(240)의 동기 제어 동작에 대하여 설명한다. 그러나, 효과 데이터 디코더(260)로부터 출력되는 효과 데이터의 재현에 대한 동기 제어부(240)의 동기 제어 동작도 이와 유사할 수 있다.
도 1 및 도 6을 참조하면, 미디어 디코더(250)는 미디어 컨트롤러(220)로부터 제공된 동기 제어된 미디어 데이터(MD)를 디코딩하여 영상 데이터를 출력할 수 있다(S130).
이때, 영상 데이터는 다수의 비디오 소스와 다수의 오디오 소스를 포함하는 하나의 영상 데이터일 수 있다.
또한, 미디어 디코더(250)는 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 디코딩된 하나의 영상 데이터를 재생하고자 하는 하나의 디스플레이 장치를 선택할 수 있다.
동기 제어부(240)는 미디어 데이터(MD)의 비디오 소스와 오디오 소스 간의 재생 시간을 동기 제어하는 제어 신호(CNT)를 생성하고, 이를 미디어 컨트롤러(220)로 출력할 수 있다(S141).
본 발명의 다른 실시예에 따라, 동기 제어부(240)는 제어 신호(CNT)를 미디어 디코더(250)에 의해 선택된 하나의 디스플레이 장치로 출력할 수도 있다.
미디어 디코더(250)에 의해 선택된 하나의 디스플레이 장치는 미디어 컨트롤러(220)에 의해 동기 제어되어 디코딩 된 영상 데이터의 다수의 비디오 소스와 다수의 오디오 소스의 재생 시간을 동기시켜 재생할 수 있다(S150).
이때, 동기 제어부(240)는 하나의 디스플레이 장치에 의해 재생되고 있는 영상 데이터의 동기 오차, 예컨대 비디오 소스와 오디오 소스 간의 재생 시간 어긋남을 보정하기 위한 제어 신호(CNT)를 미디어 컨트롤러(220)로 출력하여 동기 오차 보정 동작을 수행할 수 있다(S145).
한편, 미디어 디코더(250)가 출력하는 영상 데이터는 하나의 메인 영상 데이터와 다수의 서브 영상 데이터를 포함할 수 있다.
미디어 디코더(250)는 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 디코딩된 하나의 메인 영상 데이터가 재생될 하나의 디스플레이 장치를 선택하고, 나머지 디스플레이 장치들 중에서 디코딩된 다수의 서브 영상 데이터가 재생될 디스플레이 장치들을 선택할 수 있다.
동기 제어부(240)는 미디어 디코더(250)에 의해 선택된 다수의 디스플레이 장치들, 즉 메인 영상 데이터가 재생된 디스플레이 장치와 서브 영상 데이터가 재생된 디스플레이 장치 간의 동작 시간(즉, 영상 데이터 재생 시간)을 동기 제어하는 제어 신호(CNT)를 생성하고, 이를 선택된 미디어 컨트롤러(220)로 출력할 수 있다(S141).
미디어 디코더(250)에 의해 선택된 다수의 디스플레이 장치는 미디어 컨트롤러(220)에 의해 동기 제어되어 디코딩 된 영상 데이터의 다수의 비디오 소스와 다수의 오디오 소스의 재생 시간을 동기시켜 재생할 수 있다(S150).
이때, 동기 제어부(240)는 다수의 디스플레이 장치에 의해 재생되고 있는 메인 영상 데이터와 서브 영상 데이터의 동기 오차, 예컨대 메인 영상 데이터와 서브 영상 데이터의 재생 시간 어긋남을 보정하기 위한 제어 신호(CNT)를 미디어 컨트롤러(220)로 출력하여 동기 오차 보정 동작을 수행할 수 있다(S145).
도 7a와 도 7b는 동기 제어부의 동기 오차 보정 동작을 나타내는 도면들이다. 본 실시예에서는 앞서 도 6을 참조하여 설명된 다수의 디스플레이 장치에서 재생되는 메인 영상 데이터와 서브 영상 데이터 간에 발생되는 동기 오차를 보정하는 동작에 대하여 설명한다.
도 1 및 도 7a를 참조하면, 시간축(t) 상에서 영상 데이터의 메인 영상 데이터(Main)가 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 제1 디스플레이 장치에 수신되어 재생되고 있고, 두 개의 서브 영상 데이터들(Sub1, Sub2)이 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 제2 및 제3 디스플레이 장치에 수신되어 각각 재생되고 있다고 가정한다. 여기서, 제1, 제2 및 제3 디스플레이 장치는 설명의 편의를 위하여 선택된 디스플레이 장치이다.
이때, 시간축(t)의 시간 t2-t3에서 제3 디스플레이 장치에 수신되어 메인 영상 데이터(Main)의 두번째 트랙과 동기 재생되어야 할 제2 서브 영상(Sub2)의 두번째 트랙이 동기 오차의 발생으로 인하여 시간축(t)의 시간 t3-t4에서 수신될 수 있다.
동기 제어부(240)는 이러한 동기 오차를 보정하기 위하여 시간축(t)의 시간 t3-t4에서 수신된 제2 서브 영상(Sub2)의 두번째 트랙을 제거하는 제어 신호(CNT)를 출력하여 동기 오차 보정 동작을 수행할 수 있다.
또한, 도 1 및 도 7b를 참조하면, 시간축(t) 상에서 영상 데이터의 메인 영상 데이터(Main)가 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 제1 디스플레이 장치에 수신되어 재생되고 있고, 두 개의 서브 영상 데이터들(Sub1, Sub2)이 다수의 디스플레이 장치들(300_1, … 300_N) 중에서 제2 및 제3 디스플레이 장치에 수신되어 각각 재생되고 있다고 가정한다.
이때, 시간축(t)의 시간 t4-t5에서 제3 디스플레이 장치에 수신되어 메인 영상 데이터(Main)의 세번째 트랙과 동기 재생되어야 할 제2 서브 영상(Sub2)의 세번째 트랙이 동기 오차의 발생으로 인하여 시간축(t)의 시간 t3-t4에서 수신될 수 있다.
동기 제어부(240)는 이러한 동기 오차를 보정하기 위하여 시간축(t)의 시간 t3-t4에서 수신된 제2 서브 영상(Sub2)의 세번째 트랙을 소정시간 동안 정지시키는 딜레이 동작을 수행하고, 시간축(t)의 시간 t4-t5에서 다시 재생시키는 제어 신호(CNT)를 출력하여 동기 오차 보정 동작을 수행할 수 있다.
도 8a와 도 8b는 동기 제어부의 동기 보정 동작을 나타내는 도면들이다. 본 실시예에서는 영상 데이터와 효과 데이터 간에 발생되는 동기 제어부의 동기 제어 동작의 흐름도이다.
도 1 및 도 8a를 참조하면, 미디어 파서(210)에 의해 분리되어 디바이스 컨트롤러(230)로 입력된 실감 효과 데이터(RD)가 (A)와 같이 다수의 효과들이 시간축(t) 상에서 존재할 수 있다.
여기서, 다수의 효과들은 조명(light), 바람(wind), 발향(scent) 및 발열(heat) 효과를 포함할 수 있다.
동기 제어부(240)는 이러한 실감 효과 데이터(RD)를 분석하여 제어 신호(CNT)를 생성하고, 디바이스 컨트롤러(230)는 제어 신호(CNT)에 기초하여 (B)와 같이 각각의 실감 효과 데이터(RD)에 대하여 시간별로 On/Off를 정의할 수 있다.
이렇게 정의된 실감 효과 데이터(RD)는 효과 데이터 디코더(260)를 통해 디코딩되며, 다수의 실감 재현 장치들(400_1, … 400_M)에 의해 재현될 수 있다.
또한, 도 1 및 도 8b를 참조하면, 디바이스 컨트롤러(230)는 동기 제어부(240)로부터 전송된 제어 신호(CNT)에 따라 실감 효과 데이터(RD)의 재현 시간을 정의하되, 실제적으로 실감 효과 데이터(RD)가 재현될 수 있는 재현 시간을 고려할 수 있다.
예컨대, 디바이스 컨트롤러(230)는 하기의 [수학식]에 기초하여 영상 데이터의 재현 시간 E(t)를 기준으로 다수의 실감 재현 장치들(400_1, … 400_M)의 동작을 제어할 수 있다.
[수학식]
Figure 112010037411988-pat00001
여기서, D(t)는 다수의 실감 효과 재현 장치들의 동작시간, MC(t)는 다수의 디스플레이 장치들에서 재생되는 영상 데이터의 총 시간, δ(t)는 다수의 실감 효과 재현 장치들의 기동 시간, N(t)는 실감 효과 데이터가 전송되는 전송 시간을 의미할 수 있다.
본 발명의 내용은 도면에 도시된 일 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
실감 방송 시스템: 10 콘텐츠 제작 장치: 100
미디어 생성부: 110 메타데이터 생성부: 120
신호 변환부: 150 콘텐츠 재생 장치: 200
미디어 파서: 210 미디어 컨트롤러: 220
디바이스 컨트롤러: 230 동기 제어부: 240
미디어 디코더: 250 효과 데이터 디코더: 260

Claims (19)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 실감 방송 시스템의 실감 방송 구현 방법에 있어서, 실감 방송 콘텐츠 재생 장치가,
    수신된 방송 신호로부터 미디어 데이터와 실감 효과 데이터를 분리하는 단계;
    상기 미디어 데이터를 디코딩하여 영상 데이터를 생성하고, 상기 영상 데이터를 하나 이상의 디스플레이 장치를 이용하여 재생하는 단계; 및
    상기 실감 효과 데이터를 디코딩하여 효과 데이터를 생성하고, 상기 효과 데이터를 하나 이상의 실감 재현 장치를 이용하여 재현하되, 상기 효과 데이터가 상기 영상 데이터의 재생 시간에 동기되도록 제어하여 재현하는 단계를 포함하고,
    상기 영상 데이터는 하나의 메인 영상 데이터와 다수의 서브 영상 데이터를 포함하고,
    상기 영상 데이터를 재생하는 단계는,
    다수의 디스플레이 장치들 중에서 상기 메인 영상 데이터가 재생될 하나의 디스플레이 장치와, 상기 서브 영상 데이터가 재생된 나머지 디스플레이 장치를 각각 선택하는 단계;
    상기 메인 영상 데이터를 상기 하나의 디스플레이 장치로 출력하고, 상기 서브 영상 데이터를 상기 나머지 디스플레이 장치로 출력하는 단계; 및
    상기 메인 영상 데이터와 상기 서브 영상 데이터의 재생 시간의 동기되도록 상기 하나의 디스플레이 장치와 상기 나머지 디스플레이 장치의 동작 시간을 동기화시키는 단계를 포함하는 것을 특징으로 하는 실감 방송 구현 방법.
  12. 청구항 11에 있어서, 상기 영상 데이터는 비디오 소스와 오디오 소스를 포함하는 경우, 상기 영상 데이터를 재생하는 단계는,
    다수의 디스플레이 장치들 중에서 상기 영상 데이터가 재생될 하나의 디스플레이 장치를 선택하는 단계; 및
    상기 하나의 디스플레이 장치로 상기 영상 데이터를 출력하여 재생하되, 상기 영상 데이터의 상기 비디오 소스와 상기 오디오 소스의 재생 시간을 동기화시켜 재생하는 단계를 포함하는 실감 방송 구현 방법.
  13. 삭제
  14. 청구항 11에 있어서,
    상기 영상 데이터를 하나 이상의 디스플레이 장치를 이용하여 재생하는 단계는,
    상기 하나의 디스플레이 장치와 상기 나머지 디스플레이 장치 간의 동기 오차가 발생하는 경우에, 상기 동기 오차를 보정하는 동기 오차 보정 단계를 더 포함하는 실감 방송 구현 방법.
  15. 청구항 14에 있어서,
    상기 동기 오차 보정 단계는, 상기 동기 오차가 발생된 상기 서브 영상 데이터를 제거하는 실감 방송 구현 방법.
  16. 청구항 14에 있어서,
    상기 동기 오차 보정 단계는, 상기 동기 오차가 발생된 상기 서브 영상 데이터를 딜레이시키는 실감 방송 구현 방법.
  17. 디바이스 협업을 이용한 실감 방송 시스템에 있어서, 실감 방송 콘텐츠 재생 장치는,
    수신된 방송 신호로부터 미디어 데이터와 실감 효과 데이터를 분리하는 미디어 파서;
    상기 미디어 데이터의 재생 동기 또는 상기 실감 효과 데이터의 재현 동기를 제어하기 위한 제어 신호를 생성하여 출력하는 동기 제어부;
    상기 미디어 데이터를 디코딩하여 영상 데이터를 생성하고, 상기 영상 데이터를 하나 이상의 디스플레이 장치를 이용하여 재생하는 미디어 디코더; 및
    상기 실감 효과 데이터를 디코딩하여 생성한 효과 데이터를 하나 이상의 실감 재현 장치를 이용하여 재현하되, 상기 효과 데이터가 상기 영상 데이터의 재생 시간에 동기되도록 제어하여 재현하는 효과 데이터 디코더를 포함하고,
    상기 동기 제어부는 상기 영상 데이터가 하나의 메인 영상 데이터와 다수의 서브 영상 데이터를 포함하는 경우, 상기 메인 영상 데이터와 상기 서브 영상 데이터를 각각 재생하는 디스플레이 장치들 간의 동작 시간을 동기화시키는 상기 제어 신호를 출력하는 것을 특징으로 하는 실감 방송 시스템.
  18. 청구항 17에 있어서,
    상기 영상 데이터는 비디오 소스와 오디오 소스를 포함하고,
    상기 영상 데이터가 비디오 소스와 오디오 소스를 포함하는 경우, 상기 동기 제어부는 상기 영상 데이터의 상기 비디오 소스와 상기 오디오 소스의 재생 시간을 동기화시키는 상기 제어 신호를 출력하는 실감 방송 시스템.
  19. 삭제
KR1020100054991A 2009-11-11 2010-06-10 디바이스 협업을 통한 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템 KR101341485B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/912,917 US20110110641A1 (en) 2009-11-11 2010-10-27 Method for real-sense broadcasting service using device cooperation, production apparatus and play apparatus for real-sense broadcasting content thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20090108398 2009-11-11
KR1020090108398 2009-11-11

Publications (2)

Publication Number Publication Date
KR20110052431A KR20110052431A (ko) 2011-05-18
KR101341485B1 true KR101341485B1 (ko) 2013-12-13

Family

ID=44362538

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100054991A KR101341485B1 (ko) 2009-11-11 2010-06-10 디바이스 협업을 통한 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템

Country Status (1)

Country Link
KR (1) KR101341485B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101915129B1 (ko) * 2012-07-03 2018-11-05 엘지전자 주식회사 디지털 기기 및 그 제어 방법
KR102156175B1 (ko) * 2012-10-09 2020-09-15 삼성전자주식회사 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치 및 그 장치를 이용한 방법
KR101633676B1 (ko) * 2014-07-22 2016-06-27 택추얼센스 주식회사 온라인 네트워크를 통해 재생되는 동영상 컨텐츠를 기반으로 하는 햅틱 효과를 클라이언트의 단말장치에 제공하는 방법 및 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030037140A (ko) * 2001-11-02 2003-05-12 전자부품연구원 검색기능을 포함한 3차원 입체영상을 위한 다시점영상통신 시스템
KR20050037774A (ko) * 2003-10-20 2005-04-25 엘지전자 주식회사 디지털 멀티미디어 방송의 컨텐츠 저장과 이용을 위한장치 및 방법
KR20090006442A (ko) * 2007-07-11 2009-01-15 삼성전자주식회사 영상처리장치 및 그 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030037140A (ko) * 2001-11-02 2003-05-12 전자부품연구원 검색기능을 포함한 3차원 입체영상을 위한 다시점영상통신 시스템
KR20050037774A (ko) * 2003-10-20 2005-04-25 엘지전자 주식회사 디지털 멀티미디어 방송의 컨텐츠 저장과 이용을 위한장치 및 방법
KR20090006442A (ko) * 2007-07-11 2009-01-15 삼성전자주식회사 영상처리장치 및 그 제어방법

Also Published As

Publication number Publication date
KR20110052431A (ko) 2011-05-18

Similar Documents

Publication Publication Date Title
KR101855521B1 (ko) 송신 장치, 송신 방법, 수신 장치, 수신 방법, 프로그램 및 방송 시스템
JP6610555B2 (ja) 受信装置、送信装置、およびデータ処理方法
WO2012133064A1 (ja) 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
JP6122781B2 (ja) 受信装置及びその制御方法、配信装置及び配信方法、プログラム、並びに配信システム
CN103260075A (zh) 接收设备和字幕处理方法
JP2008131569A (ja) 画像情報伝送システム、画像情報送信装置、画像情報受信装置、画像情報伝送方法、画像情報送信方法、画像情報受信方法
KR102499231B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
JP4362734B2 (ja) 同期再生システム
KR20170138994A (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20130209063A1 (en) Digital receiver and content processing method in digital receiver
KR20130069582A (ko) 인터넷 기반 컨텐츠 송수신 방법 및 그를 이용한 송수신 장치
KR101341485B1 (ko) 디바이스 협업을 통한 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템
JP5278059B2 (ja) 情報処理装置及び方法、プログラム、並びに情報処理システム
WO2017061272A1 (ja) 受信装置、送信装置、及び、データ処理方法
KR100468163B1 (ko) 디지털 비디오 수신기 및 그 스트림 생성방법
US20110110641A1 (en) Method for real-sense broadcasting service using device cooperation, production apparatus and play apparatus for real-sense broadcasting content thereof
JP5864131B2 (ja) 放送通信連携システム、サーバ及びプログラム
KR102533674B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
JP2008278237A (ja) 映像再生装置、映像再生方法および映像再生プログラム
KR20130056829A (ko) 3dtv 방송을 위한 송수신 장치 및 그 제어 방법
JP5492748B2 (ja) 制御装置及び制御方法
KR101356737B1 (ko) 디코딩 정보 업데이트를 위한 방법 및 장치
JP2012114606A (ja) 制御装置及び制御方法
JP2009089131A (ja) オンデマンド放送装置、受信装置およびシステム
JP2010148141A (ja) 放送受信端末装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170106

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee