KR101944834B1 - 멀티미디어 수신기 및 멀티미디어 신호 처리 방법 - Google Patents

멀티미디어 수신기 및 멀티미디어 신호 처리 방법 Download PDF

Info

Publication number
KR101944834B1
KR101944834B1 KR1020187002642A KR20187002642A KR101944834B1 KR 101944834 B1 KR101944834 B1 KR 101944834B1 KR 1020187002642 A KR1020187002642 A KR 1020187002642A KR 20187002642 A KR20187002642 A KR 20187002642A KR 101944834 B1 KR101944834 B1 KR 101944834B1
Authority
KR
South Korea
Prior art keywords
component
information
service
present
fragment
Prior art date
Application number
KR1020187002642A
Other languages
English (en)
Other versions
KR20180014223A (ko
Inventor
곽민성
양승률
문경수
고우석
홍성룡
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20180014223A publication Critical patent/KR20180014223A/ko
Application granted granted Critical
Publication of KR101944834B1 publication Critical patent/KR101944834B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26283Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for associating distribution time parameters to content, e.g. to generate electronic program guide data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4335Housekeeping operations, e.g. prioritizing content for deletion because of storage space restrictions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47211End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting pay-per-view content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Abstract

본 발명의 일 실시예에 따른 컨텐트 데이터 및 멀티미디어 서비스의 접근 정보를 포함하는 서비스 가이드 정보를 포함하는 멀티미디어 신호를 수신하는 수신부; 상기 서비스 가이드 정보는 상기 멀티미디어 서비스에 관한 정보를 포함하는 서비스 프래그먼트 및 상기 멀티미디어 서비스의 상기 컨텐트 데이터에 관한 정보를 포함하는 컨텐트 프래그먼트를 포함하고, 상기 컨텐트 프래그먼트는, 프라이빗 익스텐션 엘레먼트(PrivateExtension element)를 포함하고, 상기 프라이빗 익스텐션 엘레먼트는, 상기 컨텐트 데이터에 포함되는 컴포넌트 엘레먼트(component element)와 상기 컴포넌트 엘레먼트를 기술하는 언어정보에 대한 속성(attribute)을 포함하고, 상기 컴포넌트 엘레먼트를 디코딩하고 프리젠팅하기 위해 필요한 캐패빌리티(Capability)를 나타내는 캐패빌리티 정보를 포함하고; 상기 멀티미디어 신호에 포함된 상기 서비스 가이드 정보를 디코딩하고 상기 컨텐트 데이터를 디코딩하는 디코더; 상기 캐패빌리티 정보에 따른 사용자 입력정보를 입력받는 입력부; 상기 캐패빌리티 정보에 따라 상기 컨텐트 데이터의 비디오 해상도 정보를 표시하고, 상기 표시된 비디오 해상도 정보 중 상기 입력부에서 입력된 상기 입력정보에 따라 상기 디코딩된 컨텐트 데이터를 디스플레이하는 디스플레이부;를 포함하는 멀티미디어 수신기를 포함할 수 있다.
상기 비디오 해상도는 UHD 비디오 또는 WCG 비디오에 대응되는 비디오 해상도를 포함할 수 있다.
상기 캐패빌리티(Capability) 정보는, 상기 컨텐트 데이터의 오디오 채널 정보를 포함할 수 있다.
상기 디스플레이부는 상기 캐패빌리티(Capability) 정보 중 상기 멀티미디어 수신기가 지원하지 못하는 캐패빌리티(Capability) 정보와 상기 멀티미디어 수신기가 지원하지 하는 캐패빌리티(Capability) 정보를 서로 다르게 표시할 수 있다.
상기 수신부는, 상기 멀티미디어 신호를 포함하는 방송 신호를 수신하고, 상기 방송 신호는 상기 방송 신호 물리계층에 대한 제 1 시그널링 정보, 상기 멀티 미디어 정보를 획득하기 위한 제 2 시그널링 정보 및 상기 멀티미디어 신호를 포함하고, 상기 제 2 시그널링 정보는, 상기 멀티미디어 서비스에 대한 정보와 상기 방송 신호의 PLP 사이의 매핑 정보를 포함하는 할 수 있다.
바람직하게는, 컨텐트 데이터 및 멀티미디어 서비스의 접근 정보를 포함하는 서비스 가이드 정보를 포함하는 멀티미디어 신호를 수신하는 단계, 상기 서비스 가이드 정보는 상기 멀티미디어 서비스에 관한 정보를 포함하는 서비스 프래그먼트 및 상기 멀티미디어 서비스의 상기 컨텐트 데이터에 관한 정보를 포함하는 컨텐트 프래그먼트를 포함하고, 상기 컨텐트 프래그먼트는, 프라이빗 익스텐션 엘레먼트(PrivateExtension element)를 포함하고, 및 상기 프라이빗 익스텐션 엘레먼트는, 상기 컨텐트 데이터에 포함되는 컴포넌트 엘레먼트(component element)와 상기 컴포넌트 엘레먼트를 기술하는 언어정보에 대한 속성(attribute)을 포함하고, 상기 컴포넌트 엘레먼트를 디코딩하고 프리젠팅하기 위해 필요한 캐패빌리티(Capability)를 나타내는 캐패빌리티 정보를 포함하고; 상기 멀티미디어 신호에 포함된 상기 서비스 가이드 정보를 디코딩하고 상기 컨텐트 데이터를 디코딩하는 단계; 상기 캐패빌리티 정보에 따른 사용자 입력정보를 입력받는 단계; 상기 캐패빌리티 정보에 따라 상기 컨텐트 데이터의 비디오 해상도 정보를 표시하고, 상기 표시된 비디오 해상도 정보 중 상기 입력된 상기 입력정보에 따라 상기 디코딩된 컨텐트 데이터를 디스플레이하는 단계;를 포함하는, 멀티미디어 수신기 및 멀티미디어 신호 처리 방법을 제공한다.

Description

멀티미디어 수신기 및 멀티미디어 신호 처리 방법{MULTIMEDIA RECEIVER AND METHOD FOR PROCESSING MULTIMEDIA SIGNAL}
본 발명은 멀티미디어 수신기 및 멀티미디어 신호 처리 방법에 관한 것이다.
아날로그 방송 신호 송신이 종료됨에 따라, 디지털 방송 신호를 송수신하기 위한 다양한 기술이 개발되고 있다. 디지털 방송 신호는 아날로그 방송 신호에 비해 더 많은 양의 비디오/오디오 데이터를 포함할 수 있고, 비디오/오디오 데이터뿐만 아니라 다양한 종류의 부가 데이터를 더 포함할 수 있다.
즉, 디지털 방송 시스템은 HD(High Definition) 이미지, 멀티채널(multi channel, 다채널) 오디오, 및 다양한 부가 서비스를 제공할 수 있다. 그러나, 디지털 방송을 위해서는, 많은 양의 데이터 전송에 대한 데이터 전송 효율, 송수신 네트워크의 견고성(robustness), 및 모바일 수신 장치를 고려한 네트워크 유연성(flexibility)이 향상되어야 한다.
본 발명의 일 실시예에 따른 컨텐트 데이터 및 멀티미디어 서비스의 접근 정보를 포함하는 서비스 가이드 정보를 포함하는 멀티미디어 신호를 수신하는 수신부; 상기 서비스 가이드 정보는 상기 멀티미디어 서비스에 관한 정보를 포함하는 서비스 프래그먼트 및 상기 멀티미디어 서비스의 상기 컨텐트 데이터에 관한 정보를 포함하는 컨텐트 프래그먼트를 포함하고, 상기 컨텐트 프래그먼트는, 프라이빗 익스텐션 엘레먼트(PrivateExtension element)를 포함하고, 상기 프라이빗 익스텐션 엘레먼트는, 상기 컨텐트 데이터에 포함되는 컴포넌트 엘레먼트(component element)와 상기 컴포넌트 엘레먼트를 기술하는 언어정보에 대한 속성(attribute)을 포함하고, 상기 컴포넌트 엘레먼트를 디코딩하고 프리젠팅하기 위해 필요한 캐패빌리티(Capability)를 나타내는 캐패빌리티 정보를 포함하고; 상기 멀티미디어 신호에 포함된 상기 서비스 가이드 정보를 디코딩하고 상기 컨텐트 데이터를 디코딩하는 디코더; 상기 캐패빌리티 정보에 따른 사용자 입력정보를 입력받는 입력부; 상기 캐패빌리티 정보에 따라 상기 컨텐트 데이터의 비디오 해상도 정보를 표시하고, 상기 표시된 비디오 해상도 정보 중 상기 입력부에서 입력된 상기 입력정보에 따라 상기 디코딩된 컨텐트 데이터를 디스플레이하는 디스플레이부;를 포함하는 멀티미디어 수신기를 포함할 수 있다.
상기 비디오 해상도는 UHD 비디오 또는 WCG 비디오에 대응되는 비디오 해상도를 포함할 수 있다.
상기 캐패빌리티(Capability) 정보는, 상기 컨텐트 데이터의 오디오 채널 정보를 포함할 수 있다.
상기 디스플레이부는 상기 캐패빌리티(Capability) 정보 중 상기 멀티미디어 수신기가 지원하지 못하는 캐패빌리티(Capability) 정보와 상기 멀티미디어 수신기가 지원하지 하는 캐패빌리티(Capability) 정보를 서로 다르게 표시할 수 있다.
상기 수신부는, 상기 멀티미디어 신호를 포함하는 방송 신호를 수신하고, 상기 방송 신호는 상기 방송 신호 물리계층에 대한 제 1 시그널링 정보, 상기 멀티 미디어 정보를 획득하기 위한 제 2 시그널링 정보 및 상기 멀티미디어 신호를 포함하고, 상기 제 2 시그널링 정보는, 상기 멀티미디어 서비스에 대한 정보와 상기 방송 신호의 PLP 사이의 매핑 정보를 포함하는 할 수 있다.
바람직하게는, 컨텐트 데이터 및 멀티미디어 서비스의 접근 정보를 포함하는 서비스 가이드 정보를 포함하는 멀티미디어 신호를 수신하는 단계, 상기 서비스 가이드 정보는 상기 멀티미디어 서비스에 관한 정보를 포함하는 서비스 프래그먼트 및 상기 멀티미디어 서비스의 상기 컨텐트 데이터에 관한 정보를 포함하는 컨텐트 프래그먼트를 포함하고, 상기 컨텐트 프래그먼트는, 프라이빗 익스텐션 엘레먼트(PrivateExtension element)를 포함하고, 및 상기 프라이빗 익스텐션 엘레먼트는, 상기 컨텐트 데이터에 포함되는 컴포넌트 엘레먼트(component element)와 상기 컴포넌트 엘레먼트를 기술하는 언어정보에 대한 속성(attribute)을 포함하고, 상기 컴포넌트 엘레먼트를 디코딩하고 프리젠팅하기 위해 필요한 캐패빌리티(Capability)를 나타내는 캐패빌리티 정보를 포함하고; 상기 멀티미디어 신호에 포함된 상기 서비스 가이드 정보를 디코딩하고 상기 컨텐트 데이터를 디코딩하는 단계; 상기 캐패빌리티 정보에 따른 사용자 입력정보를 입력받는 단계; 상기 캐패빌리티 정보에 따라 상기 컨텐트 데이터의 비디오 해상도 정보를 표시하고, 상기 표시된 비디오 해상도 정보 중 상기 입력된 상기 입력정보에 따라 상기 디코딩된 컨텐트 데이터를 디스플레이하는 단계;를 포함하는, 멀티미디어 수신기 및 멀티미디어 신호 처리 방법을 제공한다.
본 발명에 따르면, 모바일 수신 장치를 사용하거나 실내 환경에 있더라도, 에러 없이 디지털 방송 신호를 수신할 수 있는 멀티미디어 수신기 및 멀티미디어 수신기 및 멀티미디어 신호 처리 방법을 제공할 수 있다.
본 발명에 대해 더욱 이해하기 위해 포함되며 본 출원에 포함되고 그 일부를 구성하는 첨부된 도면은 본 발명의 원리를 설명하는 상세한 설명과 함께 본 발명의 실시예를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치의 구조를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 인풋 포맷팅(Input formatting, 입력 포맷) 블록을 나타낸다.
도 3은 본 발명의 다른 일 실시예에 따른 인풋 포맷팅(Input formatting, 입력 포맷) 블록을 나타낸다.
도 4는 본 발명의 일 실시예에 따른 BICM (bit interleaved coding & modulation) 블록을 나타낸다.
도 5는 본 발명의 다른 일 실시예에 따른 BICM 블록을 나타낸다.
도 6은 본 발명의 일 실시예에 따른 프레임 빌딩(Frame Building, 프레임 생성) 블록을 나타낸다.
도 7은 본 발명의 일 실시예에 따른 OFDM (orthogonal frequency division multiplexing) 제너레이션(generation, 생성) 블록을 나타낸다.
도 8은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치의 구조를 나타낸다.
도 9는 본 발명의 일 실시예에 따른 프레임 구조를 나타낸다.
도 10은 본 발명의 일 실시예에 따른 프레임의 시그널링 계층 구조를 나타낸다.
도 11은 본 발명의 일 실시예에 따른 프리앰블 시그널링 데이터를 나타낸다.
도 12는 본 발명의 일 실시예에 따른 PLS1 데이터를 나타낸다.
도 13은 본 발명의 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 14는 본 발명의 다른 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 15는 본 발명의 일 실시예에 따른 프레임의 로지컬(logical, 논리) 구조를 나타낸다.
도 16은 본 발명의 일 실시예에 따른 PLS (physical layer signalling) 매핑을 나타낸다.
도 17은 본 발명의 일 실시예에 따른 EAC (emergency alert channel) 매핑을 나타낸다.
도 18은 본 발명의 일 실시예에 따른 FIC (fast information channel) 매핑을 나타낸다.
도 19는 본 발명의 일 실시예에 따른 FEC (forward error correction) 구조를 나타낸다.
도 20은 본 발명의 일 실시예에 따른 타임 인터리빙을 나타낸다.
도 21은 본 발명의 일 실시예에 따른 트위스트된 행열 블록 인터리버의 기본 동작을 나타낸다.
도 22는 본 발명의 다른 일 실시예에 따른 트위스트된 행열 블록 인터리버의 동작을 나타낸다.
도 23은 본 발명의 일 실시예에 따른 트위스트된 행열 블록 인터리버의 대각선 방향 읽기 패턴을 나타낸다.
도 24는 본 발명의 일 실시예에 따른 각 인터리빙 어레이(array)로부터 인터리빙된 XFECBLOCK을 나타낸다.
도 25는 본 발명의 일 실시예에 따른 메인 피지컬 디바이스 (Main Physical Device) 및 컴페니언 피지컬 디바이스 (Companion Physical Device)의 구성을 나타낸 도면이다.
도 26은 본 발명의 일 실시예에 따른 하이브리드 방송 서비스를 지원하기 위한 프로토콜 스택을 나타낸 도면이다.
도 27은 본 발명의 일 실시예에 따른 Service Type element의 XML schema를 나타낸 도면이다.
도 28은 본 발명의 일 실시예에 따라 서비스 타입 값으로 14를 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
도 29는 본 발명의 일 실시예에 따라 서비스 타입 값으로 14 및 15를 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
도 30은 본 발명의 일 실시예에 따라 서비스 타입 값으로 14 및 16을 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
도 31은 본 발명의 일 실시예에 따른 Component fragment의 XML schema를 나타낸 도면이다.
도 32는 본 발명의 일 실시예에 따른 ComponentType 엘레먼트의 xml schema를 나타낸 도면이다.
도 33은 본 발명의 일 실시예에 따른 ComponentData 엘레먼트의 xml schema를 나타낸 도면이다.
도 34는 본 발명의 일 실시예에 따른 VideoComponent 엘레먼트 및 VideoRole 엘레먼트의 xml schema를 나타낸 도면이다.
도 35는 본 발명의 일 실시예에 따른 AudioComponent 엘레먼트 및 AudioRole 엘레먼트의 xml schema를 나타낸 도면이다.
도 36는 본 발명의 일 실시예에 따른 CCComponent 엘레먼트 및 CCRole 엘레먼트의 xml schema를 나타낸 도면이다.
도 37은 본 발명의 일 실시예에 따라 scalable video coding에서 하나의 베이스 레이어 (base layer)와 두개의 인헨스먼트 레이어 (enhancement layer)를 포함하는 Composite Video Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 38은 본 발명의 일 실시예에 따라 3D video left view와 3D video right view를 포함하는 Composite Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 39는 본 발명의 일 실시예에 따라 Comple Audio Component를 기술하는 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 40은 본 발명의 일 실시예에 따른 컨텐트 프래그먼트 (content fragment) 내의 Component 엘레먼트의 xml schema를 나타낸 도면이다.
도 41은 본 발명의 일 실시예에 따른 Video, Audio 및 CC Component를 포함하는 Linear Service에 대한 컨텐트 프래그먼트의 xml schema를 나타낸 도면이다.
도 42는 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 컨텐트 프래그먼트 내에 Component 엘레먼트를 정의하는 경우의 Component 엘레먼트의 xml schema를 나타낸 도면이다.
도 43은 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 AssociatedTo 어트리뷰트를 사용하는 실시예를 나타낸 도면이다.
도 44는 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 associatedAudio 및 associatedCC 어트리뷰트를 사용하는 실시예를 나타낸 도면이다.
도 45는 AssociatedTo 어트리뷰트를 사용하여 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하는 실시예를 나타낸 도면이다.
도 46은 associatedAudio 및/또는 associatedCC 어트리뷰트를 사용하여 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하는 실시예를 나타낸 도면이다.
도 47은 본 발명의 일 실시예에 따른 프래그먼트들 사이의 참조관계를 나타낸 도면이다.
도 48은 본 발명의 일 실시예에 따라 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 Component 프래그먼트의 xml schema를 나타낸 도면이다.
도 49는 본 발명의 일 실시예에 따라 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 Schedule 프래그먼트의 xml shema를 나타낸 도면이다.
도 50은 Service, Content 및 Component 프레그먼트 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
도 51은 Continuous Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
도 52는 Appbased Enhancement와 관련한 Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
도 53은 본 발명의 일 실시예에 따라 컨텐트 프래그먼트에서 관련 서비스 프래그먼트를 참조하는 경우 제공할 수 있는 기능을 나타낸 도면이다.
도 54는 본 발명의 일 실시예에 따른 relationship 어트리뷰트를 이용하여 컨텐트 프래그먼트에서 관련 서비스 프래그먼트를 참조하는 실시예를 나타낸 도면이다.
도 55은 본 발명의 다른 일 실시예에 따른 프래그먼트들 사이의 참조관계를 나타낸 도면이다.
도 56은 본 발명의 다른 일 실시예에 따른 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 서비스 프래그먼트, 컨텐트 프래그먼트 및 컴포넌트 프래그먼트의 xml schema를 나타낸 도면이다.
도 57은 Service, Content 및 Component 프레그먼트 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
도 58은 Continuous Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
도 59는 Appbased Enhancement와 관련한 Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
도 60, 61은 본 발명의 일 실시예에 따른 Component 프래그먼트의 구성을 나타낸 도면이다.
도 62는 본 발명의 다른 일 실시예에 따른 Component 프래그먼트의 xml schema를 나타낸 도면이다.
도 63은 본 발명의 다른 일 실시예에 따른 ComponentType 엘레먼트의 xml schema를 나타낸 도면이다.
도 64는 본 발명의 일 실시예에 따른 ComponentRole 엘레먼트의 xml schema를 나타낸 도면이다.
도 65는 본 발명의 다른 일 실시예에 따라 scalable video coding에서 하나의 베이스 레이어 (base layer)와 두개의 인헨스먼트 레이어 (enhancement layer)를 포함하는 Composite Video Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 66은 본 발명의 다른 일 실시예에 따라 3D video left view와 3D video right view를 포함하는 Composite Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 67은 본 발명의 다른 일 실시예에 따라 Comple Audio Component를 기술하는 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
도 68은 본 발명의 일 실시예에 따른 Content 프래그먼트의 구성을 나타낸 도면이다.
도 69, 70, 71, 72는 본 발명의 일 실시예에 따른 Component 엘레먼트의 구성을 나타낸 도면이다.
도 73은 본 발명의 일 실시예에 따른 Component 엘레먼트의 xml shema를 나타낸 도면이다.
도 74는 본 발명의 일 실시예에 따른 Language 엘레먼트 및 ComponentType 엘레먼트의 xml shema를 나타낸 도면이다.
도 75는 본 발명의 일 실시예에 따른 ComponentRole 엘레먼트의 xml shema를 나타낸 도면이다.
도 76은 본 발명의 일 실시예에 따른 DeviceCapability 엘레먼트 및 TargetDevice 엘레먼트의 xml schema를 나타낸 도면이다.
도 77은 Presentable Video Component (2D/HD) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
도 78은 Presentable Video component (UHD) 및 Presentable ENG audio component를 브로드캐스트로 전송하고, Presentable SPA audio component를 브로드밴드로 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
도 79는 Presentable Video Component (UHD/Wide Color Gamut) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
도 80은 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트 (component element)를 나타낸 도면이다.
도 81은 본 발명의 일 실시예에 따른, ComponentRol 엘레먼트를 나타낸 도면이다.
도 82는 본 발명의 다른 실시예에 따른. 컴포넌트 엘레먼트를 XML 형태로 나타낸 도면이다.
도 83은 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트를 나타낸 도면이다.
도 84는 본 발명의 다른 실시예에 따른, PresentableCCComponent 엘레먼트 및 PresentableAppComponent 엘레먼트를 나타낸 도면이다.
도 85는 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트를 XML 형태로 나타낸 도면이다.
도 86은 본 발명의 일 실시예에 따른, Essential Capabilities 엘레먼트를 나타낸 도면이다.
도 87은 본 발명의 일 실시예에 따른, CapabilityCode 엘레먼트의 값에 따른 capability의 의미를 나타낸 도면이다.
도 88은 본 발명의 일 실시예에 따른, Category 속성 정보의 값에 따른 Capability Category를 나타낸 도면이다.
도 89는 본 발명의 일 실시예에 따른, 컴포넌트 별로 Pay Per View (PPV) 가 제공되는 과정을 나타낸 도면이다.
도 90는 본 발명의 일 실시예에 따른, 방송 프로그램의 각 컴포넌트 별로 미디어가 제공되는 순서를 나타낸 도면이다.
도 91은 본 발명의 일 실시예에 따른, 방송 프로그램의 각 컴포넌트 별로 미디어가 제공되는 화면을 나타낸 도면이다.
도 92는 본 발명의 일 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 93은 본 발명의 다른 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 94는 본 발명의 다른 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 95는 본 발명의 일 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 96은 본 발명의 다른 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 97은 본 발명의 다른 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 98은 본 발명의 일 실시예에 따른, CC (Closed Caption) 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
도 99는 본 발명의 일 실시예에 따른, 방송 신호를 수신 처리하는 과정을 나타낸 순서도이다.
도 100은 본 발명의 일 실시예에 따른, 방송 신호를 송신 처리하는 과정을 나타낸 순서도이다.
도 101은 본 발명의 일 실시예에 따른, 방송 수신기를 나타낸 도면이다.
도 102는 본 발명의 일 실시예에 따른, 방송 송신기를 나타낸 도면이다.
본 발명의 바람직한 실시예에 대해 구체적으로 설명하며, 그 예는 첨부된 도면에 나타낸다. 첨부된 도면을 참조한 아래의 상세한 설명은 본 발명의 실시예에 따라 구현될 수 있는 실시예만을 나타내기보다는 본 발명의 바람직한 실시예를 설명하기 위한 것이다. 다음의 상세한 설명은 본 발명에 대한 철저한 이해를 제공하기 위해 세부 사항을 포함한다. 그러나 본 발명이 이러한 세부 사항 없이 실행될 수 있다는 것은 당업자에게 자명하다.
본 발명에서 사용되는 대부분의 용어는 해당 분야에서 널리 사용되는 일반적인 것들에서 선택되지만, 일부 용어는 출원인에 의해 임의로 선택되며 그 의미는 필요에 따라 다음 설명에서 자세히 서술한다. 따라서 본 발명은 용어의 단순한 명칭이나 의미가 아닌 용어의 의도된 의미에 근거하여 이해되어야 한다.
본 명세서에서 '시그널링 (signaling)' 이라 함은 방송 시스템, 인터넷 방송 시스템 및/또는 방송/인터넷 융합 시스템에서 제공되는 서비스 정보 (Service Information; SI)를 전송/수신하는 것을 나타낸다. 서비스 정보는 현재 존재하는 각 방송 시스템에서 제공되는 방송 서비스 정보 (예를 들면, ATSCSI 및/또는 DVBSI)를 포함한다.
본 명세서에서 '방송 신호' 라 함은, 지상파 방송, 케이블 방송, 위성 방송, 및/또는 모바일 방송 이외에도, 인터넷 방송, 브로드밴드 방송, 통신 방송, 데이터 방송 및/또는 VOD (Video On Demand) 등의 양방향 방송에서 제공되는 신호 및/또는 데이터를 포함하는 개념으로 정의한다.
본 명세서에서 'PLP' 라 함은, 물리적 계층에 속하는 데이터를 전송하는 일정한 유닛을 의미한다. 따라서, 본 명세서에서 'PLP'로 명명된 내용은, '데이터 유닛' 또는 '데이터 파이프 (data pipe)' 로 바꾸어 명명될 수도 있다.
디지털 방송 (DTV) 서비스에서 활용될 유력한 어플리케이션 (application) 중의 하나로, 방송 망과 인터넷 망과의 연동을 통한 하이브리드 방송 서비스를 꼽을 수 있다. 하이브리드 방송 서비스는 지상파 방송망을 통해서 전송되는 방송 A/V (Audio/Video) 컨텐츠와 연관된 인핸스먼트 데이터 (enhancement data) 혹은 방송 A/V 컨텐츠의 일부를 인터넷 망을 통하여 실시간으로 전송함으로써, 사용자로 하여금 다양한 컨텐츠를 경험할 수 있도록 한다.
본 발명은 차세대 방송 서비스에 대한 방송 신호 송신 및 수신 장치 및 방법을 제공한다. 본 발명의 일 실시예에 따른 차세대 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 포함한다. 본 발명은 일 실시예에 따라 비MIMO (nonMultiple Input Multiple Output) 또는 MIMO 방식을 통해 차세대 방송 서비스에 대한 방송 신호를 처리할 수 있다. 본 발명의 일 실시예에 따른 비MIMO 방식은 MISO (Multiple Input Single Output) 방식, SISO (Single Input Single Output) 방식 등을 포함할 수 있다.
이하에서는 설명의 편의를 위해 MISO 또는 MIMO 방식은 두 개의 안테나를 사용하지만, 본 발명은 두 개 이상의 안테나를 사용하는 시스템에 적용될 수 있다. 본 발명은 특정 용도에 요구되는 성능을 달성하면서 수신기 복잡도를 최소화하기 위해 최적화된 세 개의 피지컬 프로파일(PHY profile) (베이스(base), 핸드헬드(handheld), 어드벤스(advanced) 프로파일)을 정의할 수 있다. 피지컬 프로파일은 해당하는 수신기가 구현해야 하는 모든 구조의 서브셋이다.
세 개의 피지컬 프로파일은 대부분의 기능 블록을 공유하지만, 특정 블록 및/또는 파라미터에서는 약간 다르다. 추후에 추가로 피지컬 프로파일이 정의될 수 있다. 시스템 발전을 위해, 퓨처 프로파일은 FEF (future extension frame)을 통해 단일 RF (radio frequency) 채널에 존재하는 프로파일과 멀티플렉싱 될 수도 있다. 각 피지컬 프로파일에 대한 자세한 내용은 후술한다.
1. 베이스 프로파일
베이스 프로파일은 주로 루프 톱(rooftop) 안테나와 연결되는 고정된 수신 장치의 주된 용도를 나타낸다. 베이스 프로파일은 어떤 장소로 이동될 수 있지만 비교적 정지된 수신 범주에 속하는 휴대용 장치도 포함할 수 있다. 베이스 프로파일의 용도는 약간의 개선된 실행에 의해 핸드헬드 장치 또는 차량용으로 확장될 수 있지만, 이러한 사용 용도는 베이스 프로파일 수신기 동작에서는 기대되지 않는다.
수신의 타겟 신호 대 잡음비 범위는 대략 10 내지 20 dB인데, 이는 기존 방송 시스템(예를 들면, ATSC A/53)의 15 dB 신호 대 잡음비 수신 능력을 포함한다. 수신기 복잡도 및 소비 전력은 핸드헬드 프로파일을 사용할 배터리로 구동되는 핸드헬드 장치에서만큼 중요하지 않다. 베이스 프로파일에 대한 중요 시스템 파라미터가 아래 표 1에 기재되어 있다.
Figure 112018009377919-pat00001
2. 핸드헬드 프로파일
핸드헬드 프로파일은 배터리 전원으로 구동되는 핸드헬드 및 차량용 장치에서의 사용을 위해 설계된다. 해당 장치는 보행자 또는 차량 속도로 이동할 수 있다. 수신기 복잡도뿐만 아니라 소비 전력은 핸드헬드 프로파일의 장치의 구현을 위해 매우 중요하다. 핸드헬드 프로파일의 타겟 신호 대 잡음비 범위는 대략 0 내지 10 dB이지만, 더 낮은 실내 수신을 위해 의도된 경우 0 dB 아래에 달하도록 설정될 수 있다.
저 신호 대 잡음비 능력뿐만 아니라, 수신기 이동성에 의해 나타난 도플러 효과에 대한 복원력은 핸드헬드 프로파일의 가장 중요한 성능 속성이다. 핸드헬드 프로파일에 대한 중요 시스템 파라미터가 아래 표 2에 기재되어 있다.
Figure 112018009377919-pat00002
3. 어드벤스 프로파일
어드벤스 프로파일은 더 큰 실행 복잡도에 대한 대가로 더 높은 채널 능력을 제공한다. 해당 프로파일은 MIMO 송신 및 수신을 사용할 것을 요구하며, UHDTV 서비스는 타겟 용도이고, 이를 위해 해당 프로파일이 특별히 설계된다. 향상된 능력은 주어진 대역폭에서 서비스 수의 증가, 예를 들면, 다수의 SDTV 또는 HDTV 서비스를 허용하는 데도 사용될 수 있다.
어드벤스 프로파일의 타겟 신호 대 잡음비 범위는 대략 20 내지 30 dB이다. MIMO 전송은 초기에는 기존의 타원 분극 전송 장비를 사용하고, 추후에 전출력 교차 분극 전송으로 확장될 수 있다. 어드벤스 프로파일에 대한 중요 시스템 파라미터가 아래 표 3에 기재되어 있다.
Figure 112018009377919-pat00003
이 경우, 베이스 프로파일은 지상파 방송 서비스 및 모바일 방송 서비스 모두에 대한 프로파일로 사용될 수 있다. 즉, 베이스 프로파일은 모바일 프로파일을 포함하는 프로파일의 개념을 정의하기 위해 사용될 수 있다. 또한, 어드벤스 프로파일은 MIMO을 갖는 베이스 프로파일에 대한 어드벤스 프로파일 및 MIMO을 갖는 핸드헬드 프로파일에 대한 어드벤스 프로파일로 구분될 수 있다. 그리고 해당 세 프로파일은 설계자의 의도에 따라 변경될 수 있다.
다음의 용어 및 정의는 본 발명에 적용될 수 있다. 다음의 용어 및 정의는 설계에 따라 변경될 수 있다.
보조 스트림: 퓨처 익스텐션(future extension, 추후 확장) 또는 방송사나 네트워크 운영자에 의해 요구됨에 따라 사용될 수 있는 아직 정의되지 않은 변조 및 코딩의 데이터를 전달하는 셀의 시퀀스
베이스 데이터 파이프(base data pipe): 서비스 시그널링 데이터를 전달하는 데이터 파이프
베이스밴드 프레임 (또는 BBFRAME): 하나의 FEC 인코딩 과정 (BCH 및 LDPC 인코딩)에 대한 입력을 형성하는 Kbch 비트의 집합
셀(cell): OFDM 전송의 하나의 캐리어에 의해 전달되는 변조값
코딩 블록(coded block): PLS1 데이터의 LDPC 인코딩된 블록 또는 PLS2 데이터의 LDPC 인코딩된 블록들 중 하나
데이터 파이프(data pipe): 하나 또는 다수의 서비스 또는 서비스 컴포넌트를 전달할 수 있는 서비스 데이터 또는 관련된 메타데이터를 전달하는 물리 계층(physical layer)에서의 로지컬 채널
데이터 파이프 유닛(DPU, data pipe unit): 데이터 셀을 프레임에서의 데이터 파이프에 할당할 수 있는 기본 유닛
데이터 심볼(data symbol): 프리앰블 심볼이 아닌 프레임에서의 OFDM 심볼 (프레임 시그널링 심볼 및 프레임 엣지(edge) 심볼은 데이터 심볼에 포함된다.)
DP_ID: 해당 8비트 필드는 SYSTEM_ID에 의해 식별된 시스템 내에서 데이터 파이프를 유일하게 식별한다.
더미 셀(dummy cell): PLS (physical layer signalling) 시그널링, 데이터 파이프, 또는 보조 스트림을 위해 사용되지 않은 남아 있는 용량을 채우는 데 사용되는 의사 랜덤값을 전달하는 셀
FAC (emergency alert channel, 비상 경보 채널): EAS 정보 데이터를 전달하는 프레임 중 일부
프레임(frame): 프리앰블로 시작해서 프레임 엣지 심볼로 종료되는 물리 계층(physical layer) 타임 슬롯
프레임 리피티션 유닛(frame repetition unit, 프레임 반복 단위): 슈퍼 프레임(superframe)에서 8회 반복되는 FEF를 포함하는 동일한 또는 다른 피지컬 프로파일에 속하는 프레임의 집합
FIC (fast information channel, 고속 정보 채널): 서비스와 해당 베이스 데이터 파이프 사이에서의 매핑 정보를 전달하는 프레임에서 로지컬 채널
FECBLOCK: 데이터 파이프 데이터의 LDPC 인코딩된 비트의 집합
FFT 사이즈: 기본 주기 T의 사이클로 표현된 액티브 심볼 주기 Ts와 동일한 특정 모드에 사용되는 명목상의 FFT 사이즈
프레임 시그널링 심볼(frame signaling symbol): PLS 데이터의 일부를 전달하는, FFT 사이즈, 가드 인터벌(guard interval), 및 스캐터(scattered) 파일럿 패턴의 특정 조합에서 프레임의 시작에서 사용되는 더 높은 파일럿 밀도를 갖는 OFDM 심볼
프레임 엣지 심볼(frame edge symbol): FFT 사이즈, 가드 인터벌, 및 스캐터 파일럿 패턴의 특정 조합에서 프레임의 끝에서 사용되는 더 높은 파일럿 밀도를 갖는 OFDM 심볼
프레임 그룹(framegroup): 슈퍼 프레임에서 동일한 피지컬 프로파일 타입을 갖는 모든 프레임의 집합
퓨쳐 익스텐션 프레임(future extention frame, 추후 확장 프레임): 프리앰블로 시작하는, 추후 확장에 사용될 수 있는 슈퍼 프레임 내에서 물리 계층(physical layer) 타임 슬롯
퓨처캐스트(futurecast) UTB 시스템: 입력이 하나 이상의 MPEG2TS 또는 IP (Internet protocol) 또는 일반 스트림이고 출력이 RF 시그널인 제안된 물리 계층(physical layer) 방송 시스템
인풋 스트림(input stream, 입력 스트림): 시스템에 의해 최종 사용자에게 전달되는 서비스의 조화(ensemble)를 위한 데이터의 스트림
노멀(normal) 데이터 심볼: 프레임 시그널링 심볼 및 프레임 엣지 심볼을 제외한 데이터 심볼
피지컬 프로파일(PHY profile): 해당하는 수신기가 구현해야 하는 모든 구조의 서브셋
PLS: PLS1 및 PLS2로 구성된 물리 계층(physical layer) 시그널링 데이터
PLS1: PLS2를 디코딩하는 데 필요한 파라미터뿐만 아니라 시스템에 관한 기본 정보를 전달하는 고정된 사이즈, 코딩, 변조를 갖는 FSS (frame signalling symbol)로 전달되는 PLS 데이터의 첫 번째 집합
NOTE: PLS1 데이터는 프레임 그룹의 듀레이션(duration) 동안 일정하다.
PLS2: 데이터 파이프 및 시스템에 관한 더욱 상세한 PLS 데이터를 전달하는 FSS로 전송되는 PLS 데이터의 두 번째 집합
PLS2 다이나믹(dynamic, 동적) 데이터: 프레임마다 다이나믹(dynamic, 동적)으로 변화하는 PLS2 데이터
PLS2 스태틱(static, 정적) 데이터: 프레임 그룹의 듀레이션 동안 스태틱(static, 정적)인 PLS2 데이터
프리앰블 시그널링 데이터(preamble signaling data): 프리앰블 심볼에 의해 전달되고 시스템의 기본 모드를 확인하는 데 사용되는 시그널링 데이터
프리앰블 심볼(preamble symbol): 기본 PLS 데이터를 전달하고 프레임의 시작에 위치하는 고정된 길이의 파일럿 심볼
NOTE: 프리앰블 심볼은 시스템 신호, 그 타이밍, 주파수 오프셋, 및 FFT 사이즈를 검출하기 위해 고속 초기 밴드 스캔에 주로 사용된다.
추후 사용(future use)을 위해 리저브드(reserved): 현재 문서에서 정의되지 않지만 추후에 정의될 수 있음
슈퍼 프레임(superframe): 8개의 프레임 반복 단위의 집합
타임 인터리빙 블록(time interleaving block, TI block): 타임 인터리버 메모리의 하나의 용도에 해당하는, 타임 인터리빙이 실행되는 셀의 집합
타임 인터리빙 그룹(time interleaving group, TI group): 정수, 다이나믹(dynamic, 동적)으로 변화하는 XFECBLOCK의 수로 이루어진, 특정 데이터 파이프에 대한 다이나믹(dynamic, 동적) 용량 할당이 실행되는 단위
NOTE: 타임 인터리빙 그룹은 하나의 프레임에 직접 매핑되거나 다수의 프레임에 매핑될 수 있다. 타임 인터리빙 그룹은 하나 이상의 타임 인터리빙 블록을 포함할 수 있다.
타입 1 데이터 파이프(Type 1 DP): 모든 데이터 파이프가 프레임에 TDM (time division multiplexing) 방식으로 매핑되는 프레임의 데이터 파이프
타입 2 데이터 파이프(Type 2 DP): 모든 데이터 파이프가 프레임에 FDM 방식으로 매핑되는 프레임의 데이터 파이프
XFECBLOCK: 하나의 LDPC FECBLOCK의 모든 비트를 전달하는 Ncells 셀들의 집합
도 1은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치의 구조를 나타낸다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 인풋 포맷 블록 (Input Format block) (1000), BICM (bit interleaved coding & modulation) 블록(1010), 프레임 빌딩 블록 (Frame building block) (1020), OFDM (orthogonal frequency division multiplexing) 제너레이션 블록 (OFDM generation block)(1030), 및 시그널링 생성 블록(1040)을 포함할 수 있다. 방송 신호 송신 장치의 각 블록의 동작에 대해 설명한다.
IP 스트림/패킷 및 MPEG2TS은 주요 입력 포맷이고, 다른 스트림 타입은 일반 스트림으로 다루어진다. 이들 데이터 입력에 추가로, 관리 정보가 입력되어 각 입력 스트림에 대한 해당 대역폭의 스케줄링 및 할당을 제어한다. 하나 또는 다수의 TS 스트림, IP 스트림 및/또는 일반 스트림 입력이 동시에 허용된다.
인풋 포맷 블록(1000)은 각각의 입력 스트림을 독립적인 코딩 및 변조가 적용되는 하나 또는 다수의 데이터 파이프로 디멀티플렉싱 할 수 있다. 데이터 파이프는 견고성(robustness) 제어를 위한 기본 단위이며, 이는 QoS (Quality of Service)에 영향을 미친다. 하나 또는 다수의 서비스 또는 서비스 컴포넌트가 하나의 데이터 파이프에 의해 전달될 수 있다. 인풋 포맷 블록(1000)의 자세한 동작은 후술한다.
데이터 파이프는 하나 또는 다수의 서비스 또는 서비스 컴포넌트를 전달할 수 있는 서비스 데이터 또는 관련 메타데이터를 전달하는 물리 계층(physical layer)에서의 로지컬 채널이다.
또한, 데이터 파이프 유닛은 하나의 프레임에서 데이터 셀을 데이터 파이프에 할당하기 위한 기본 유닛이다.
인풋 포맷 블록(1000)에서, 패리티(parity) 데이터는 에러 정정을 위해 추가되고, 인코딩된 비트 스트림은 복소수값 컨스텔레이션 심볼에 매핑된다. 해당 심볼은 해당 데이터 파이프에 사용되는 특정 인터리빙 깊이에 걸쳐 인터리빙 된다. 어드벤스 프로파일에 있어서, BICM 블록(1010)에서 MIMO 인코딩이 실행되고 추가 데이터 경로가 MIMO 전송을 위해 출력에 추가된다. BICM 블록(1010)의 자세한 동작은 후술한다.
프레임 빌딩 블록(1020)은 하나의 프레임 내에서 입력 데이터 파이프의 데이터 셀을 OFDM 실볼로 매핑할 수 있다. 매핑 후, 주파수 영역 다이버시티를 위해, 특히 주파수 선택적 페이딩 채널을 방지하기 위해 주파수 인터리빙이 이용된다. 프레임 빌딩 블록(1020)의 자세한 동작은 후술한다.
프리앰블을 각 프레임의 시작에 삽입한 후, OFDM 제너레이션 블록(1030)은 사이클릭 프리픽스(cyclic prefix)을 가드 인터벌로 갖는 기존의 OFDM 변조를 적용할 수 있다. 안테나 스페이스 다이버시티를 위해, 분산된(distributed) MISO 방식이 송신기에 걸쳐 적용된다. 또한, PAPR (peaktoaverage power ratio) 방식이 시간 영역에서 실행된다. 유연한 네트워크 방식을 위해, 해당 제안은 다양한 FFT 사이즈, 가드 인터벌 길이, 해당 파일럿 패턴의 집합을 제공한다. OFDM 제너레이션 블록(1030)의 자세한 동작은 후술한다.
시그널링 생성 블록(1040)은 각 기능 블록의 동작에 사용되는 물리 계층(physical layer) 시그널링 정보를 생성할 수 있다. 해당 시그널링 정보는 또한 관심 있는 서비스가 수신기 측에서 적절히 복구되도록 전송된다. 시그널링 생성 블록(1040)의 자세한 동작은 후술한다.
도 2, 3, 4는 본 발명의 실시예에 따른 인풋 포맷 블록(1000)을 나타낸다. 각 도면에 대해 설명한다.
도 2는 본 발명의 일 실시예에 따른 인풋 포맷 블록을 나타낸다. 도 2는 입력 신호가 단일 입력 스트림(single input stream)일 때의 인풋 포맷 블록을 나타낸다.
도 2에 도시된 인풋 포맷 블록은 도 1을 참조하여 설명한 인풋 포맷 블록(1000)의 일 실시예에 해당한다.
물리 계층(physical layer)으로의 입력은 하나 또는 다수의 데이터 스트림으로 구성될 수 있다. 각각의 데이터 스트림은 하나의 데이터 파이프에 의해 전달된다. 모드 어댑테이션(mode adaptaion, 모드 적응) 모듈은 입력되는 데이터 스트림을 BBF (baseband frame)의 데이터 필드로 슬라이스한다. 해당 시스템은 세 가지 종류의 입력 데이터 스트림, 즉 MPEG2TS, IP, GS (generic stream)을 지원한다. MPEG2TS는 첫 번째 바이트가 동기 바이트(0x47)인 고정된 길이(188 바이트)의 패킷을 특징으로 한다. IP 스트림은 IP 패킷 헤더 내에서 시그널링 되는 가변 길이 IP 데이터그램 패킷으로 구성된다. 해당 시스템은 IP 스트림에 대해 IPv4와 IPv6을 모두 지원한다. GS는 캡슐화 패킷 헤더 내에서 시그널링되는 가변 길이 패킷 또는 일정 길이 패킷으로 구성될 수 있다.
(a)는 신호 데이터 파이프에 대한 모드 어댑테이션(mode adaptaion, 모드 적응) 블록(2000) 및 스트림 어댑테이션(stream adaptation, 스트림 적응)(2010)을 나타내고, (b)는 PLS 데이터를 생성 및 처리하기 위한 PLS 생성 블록(2020) 및 PLS 스크램블러(2030)를 나타낸다. 각 블록의 동작에 대해 설명한다.
입력 스트림 스플리터는 입력된 TS, IP, GS 스트림을 다수의 서비스 또는 서비스 컴포넌트(오디오, 비디오 등) 스트림으로 분할한다. 모드 어댑테이션(mode adaptaion, 모드 적응) 모듈(2010)은 CRC 인코더, BB (baseband) 프레임 슬라이서, 및 BB 프레임 헤더 삽입 블록으로 구성된다.
CRC 인코더는 유저 패킷 (user packet, UP)레벨에서의 에러 검출을 위한 세 종류의 CRC 인코딩, 즉 CRC8, CRC16, CRC32를 제공한다. 산출된 CRC 바이트는 UP 뒤에 첨부된다. CRC8은 TS 스트림에 사용되고, CRC32는 IP 스트림에 사용된다. GS 스트림이 CRC 인코딩을 제공하지 않으면, 제안된 CRC 인코딩이 적용되어야 한다.
BB 프레임 슬라이서는 입력을 내부 로지컬 비트 포맷에 매핑한다. 첫 번째 수신 비트는 MSB라고 정의한다. BB 프레임 슬라이서는 가용 데이터 필드 용량과 동일한 수의 입력 비트를 할당한다. BBF 페이로드와 동일한 수의 입력 비트를 할당하기 위해, UP 스트림이 BBF의 데이터 필드에 맞게 슬라이스된다.
BB 프레임 헤더 삽입 블록은 2바이트의 고정된 길이의 BBF 헤더를 BB 프레임의 앞에 삽입할 수 있다. BBF 헤더는 STUFFI (1비트), SYNCD (13비트), 및 RFU (2비트)로 구성된다. 고정된 2바이트 BBF 헤더뿐만 아니라, BBF는 2바이트 BBF 헤더 끝에 확장 필드(1 또는 3바이트)를 가질 수 있다.
스트림 어댑테이션(stream adaptation, 스트림 적응)(2010)은 스터핑(stuffing) 삽입 블록 및 BB 스크램블러로 구성된다. 스터핑 삽입 블록은 스터핑 필드를 BB 프레임의 페이로드에 삽입할 수 있다. 스트림 어댑테이션(stream adaptation, 스트림 적응)에 대한 입력 데이터가 BB 프레임을 채우기에 충분하면, STUFFI는 0으로 설정되고, BBF는 스터핑 필드를 갖지 않는다. 그렇지 않으면, STUFFI는 1로 설정되고, 스터핑 필드는 BBF 헤더 직후에 삽입된다. 스터핑 필드는 2바이트의 스터핑 필드 헤더 및 가변 사이즈의 스터핑 데이터를 포함한다.
BB 스크램블러는 에너지 분산을 위해 완전한 BBF를 스크램블링한다. 스크램블링 시퀀스는 BBF와 동기화된다. 스크램블링 시퀀스는 피드백 시프트 레지스터에 의해 생성된다.
PLS 생성 블록(2020)은 PLS 데이터를 생성할 수 있다. PLS는 수신기에서 피지컬 레이어(physical layer) 데이터 파이프에 접속할 수 있는 수단을 제공한다. PLS 데이터는 PLS1 데이터 및 PLS2 데이터로 구성된다.
PLS1 데이터는 PLS2 데이터를 디코딩하는 데 필요한 파라미터뿐만 아니라 시스템에 관한 기본 정보를 전달하는 고정된 사이즈, 코딩, 변조를 갖는 프레임에서 FSS로 전달되는 PLS 데이터의 첫 번째 집합이다. PLS1 데이터는 PLS2 데이터의 수신 및 디코딩을 가능하게 하는 데 요구되는 파라미터를 포함하는 기본 송신 파라미터를 제공한다. 또한, PLS1 데이터는 프레임 그룹의 듀레이션 동안 일정하다.
PLS2 데이터는 데이터 파이프 및 시스템에 관한 더욱 상세한 PLS 데이터를 전달하는 FSS로 전송되는 PLS 데이터의 두 번째 집합이다. PLS2는 수신기가 원하는 데이터 파이프를 디코딩하는 데 충분한 정보를 제공하는 파라미터를 포함한다. PLS2 시그널링은 PLS2 스태틱(static, 정적) 데이터(PLS2STAT 데이터) 및 PLS2 다이나믹(dynamic, 동적) 데이터(PLS2DYN 데이터)의 두 종류의 파라미터로 더 구성된다. PLS2 스태틱(static, 정적) 데이터는 프레임 그룹의 듀레이션 동안 스태틱(static, 정적)인 PLS2 데이터이고, PLS2 다이나믹(dynamic, 동적) 데이터는 프레임마다 다이나믹(dynamic, 동적)으로 변화하는 PLS2 데이터이다.
PLS 데이터에 대한 자세한 내용은 후술한다.
PLS 스크램블러(2030)는 에너지 분산을 위해 생성된 PLS 데이터를 스크램블링 할 수 있다.
전술한 블록은 생략될 수도 있고 유사 또는 동일 기능을 갖는 블록에 의해 대체될 수도 있다.
도 3은 본 발명의 다른 일 실시예에 따른 인풋 포맷 블록을 나타낸다.
도 3에 도시된 인풋 포맷 블록은 도 1을 참조하여 설명한 인풋 포맷 블록(1000)의 일 실시예에 해당한다.
도 3은 입력 신호가 멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)에 해당하는 경우 인풋 포맷 블록의 모드 어댑테이션(mode adaptaion, 모드 적응) 블록을 나타낸다.
멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)을 처리하기 위한 인풋 포맷 블록의 모드 어댑테이션(mode adaptaion, 모드 적응) 블록은 다수 입력 스트림을 독립적으로 처리할 수 있다.
도 3을 참조하면, 멀티 인풋 스트림(multi input stream, 다수의 입력 스트림)을 각각 처리하기 위한 모드 어댑테이션(mode adaptaion, 모드 적응) 블록은 인풋 스트림 스플리터 (input stream splitter) (3000), 인풋 스트림 싱크로나이저 (input stream synchronizer) (3010), 컴펜세이팅 딜레이(compensatin delay, 보상 지연) 블록(3020), 널 패킷 딜리션 블록 (null packet deletion block) (3030), 헤더 컴프레션 블록 (header compression block) (3040), CRC 인코더 (CRC encoder) (3050), BB 프레임 슬라이서(BB frame slicer) (3060), 및 BB 헤더 삽입 블록 (BB header insertion block) (3070)을 포함할 수 있다. 모드 어댑테이션(mode adaptaion, 모드 적응) 블록의 각 블록에 대해 설명한다.
CRC 인코더(3050), BB 프레임 슬라이서(3060), 및 BB 헤더 삽입 블록(3070)의 동작은 도 2를 참조하여 설명한 CRC 인코더, BB 프레임 슬라이서, 및 BB 헤더 삽입 블록의 동작에 해당하므로, 그 설명은 생략한다.
인풋 스트림 스플리터(3000)는 입력된 TS, IP, GS 스트림을 다수의 서비스 또는 서비스 컴포넌트(오디오, 비디오 등) 스트림으로 분할한다.
인풋 스트림 싱크로나이저(3010)는 ISSY라 불릴 수 있다. ISSY는 어떠한 입력 데이터 포맷에 대해서도 CBR (constant bit rate) 및 일정한 종단간 전송(endtoend transmission) 지연을 보장하는 적합한 수단을 제공할 수 있다. ISSY는 TS를 전달하는 다수의 데이터 파이프의 경우에 항상 이용되고, GS 스트림을 전달하는 다수의 데이터 파이프에 선택적으로 이용된다.
컴펜세이팅 딜레이(compensatin delay, 보상 지연) 블록(3020)은 수신기에서 추가로 메모리를 필요로 하지 않고 TS 패킷 재결합 메커니즘을 허용하기 위해 ISSY 정보의 삽입에 뒤따르는 분할된 TS 패킷 스트림을 지연시킬 수 있다.
널 패킷 딜리션 블록(3030)은 TS 입력 스트림 경우에만 사용된다. 일부 TS 입력 스트림 또는 분할된 TS 스트림은 VBR (variable bitrate) 서비스를 CBR TS 스트림에 수용하기 위해 존재하는 많은 수의 널 패킷을 가질 수 있다. 이 경우, 불필요한 전송 오버헤드를 피하기 위해, 널 패킷은 확인되어 전송되지 않을 수 있다. 수신기에서, 제거된 널 패킷은 전송에 삽입된 DNP(deleted nullpacket, 삭제된 널 패킷) 카운터를 참조하여 원래 존재했던 정확한 장소에 재삽입될 수 있어, CBR이 보장되고 타임 스탬프(PCR) 갱신의 필요가 없어진다.
헤더 컴프레션 블록(3040)은 TS 또는 IP 입력 스트림에 대한 전송 효율을 증가시키기 위해 패킷 헤더 압축을 제공할 수 있다. 수신기는 헤더의 특정 부분에 대한 선험적인(a priori) 정보를 가질 수 있기 때문에, 이 알려진 정보(known information)는 송신기에서 삭제될 수 있다.
TS에 대해, 수신기는 동기 바이트 구성(0x47) 및 패킷 길이(188 바이트)에 관한 선험적인 정보를 가질 수 있다. 입력된 TS가 하나의 PID만을 갖는 콘텐트를 전달하면, 즉, 하나의 서비스 컴포넌트(비디오, 오디오 등) 또는 서비스 서브 컴포넌트(SVC 베이스 레이어, SVC 인헨스먼트 레이어, MVC 베이스 뷰, 또는 MVC 의존 뷰)에 대해서만, TS 패킷 헤더 압축이 TS에 (선택적으로) 적용될 수 있다. TS 패킷 헤더 압축은 입력 스트림이 IP 스트림인 경우 선택적으로 사용된다. 상기 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 4는 본 발명의 일 실시예에 따른 BICM 블록을 나타낸다.
도 4에 도시된 BICM 블록은 도 1을 참조하여 설명한 BICM 블록(1010)의 일 실시예에 해당한다.
전술한 바와 같이, 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 제공할 수 있다.
QoS가 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치에 의해 제공되는 서비스의 특성에 의존하므로, 각각의 서비스에 해당하는 데이터는 서로 다른 방식을 통해 처리되어야 한다. 따라서, 본 발명의 일 실시예에 따른 BICM 블록은 SISO, MISO, MIMO 방식을 각각의 데이터 경로에 해당하는 데이터 파이프에 독립적으로 적용함으로써 각데이터 파이프를 독립적으로 처리할 수 있다. 결과적으로, 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 송신 장치는 각각의 데이터 파이프를 통해 전송되는 각 서비스 또는 서비스 컴포넌트에 대한 QoS를 조절할 수 있다.
(a)는 베이스 프로파일 및 핸드헬드 프로파일에 의해 공유되는 BICM 블록을 나타내고, (b)는 어드벤스 프로파일의 BICM 블록을 나타낸다.
베이스 프로파일 및 핸드헬드 프로파일에 의해 공유되는 BICM 블록 및 어드벤스 프로파일의 BICM 블록은 각각의 데이터 파이프를 처리하기 위한 복수의 처리 블록을 포함할 수 있다.
베이스 프로파일 및 핸드헬드 프로파일에 대한 BICM 블록 및 어드벤스 프로파일에 대한 BICM 블록의 각각의 처리 블록에 대해 설명한다.
베이스 프로파일 및 핸드헬드 프로파일에 대한 BICM 블록의 처리 블록(5000)은 데이터 FEC 인코더(5010), 비트 인터리버(5020), 컨스텔레이션 매퍼(mapper)(5030), SSD (signal space diversity) 인코딩 블록(5040), 타임 인터리버(5050)를 포함할 수 있다.
데이터 FEC 인코더(5010)는 외부 코딩(BCH) 및 내부 코딩(LDPC)을 이용하여 FECBLOCK 절차를 생성하기 위해 입력 BBF에 FEC 인코딩을 실행한다. 외부 코딩(BCH)은 선택적인 코딩 방법이다. 데이터 FEC 인코더(5010)의 구체적인 동작에 대해서는 후술한다.
비트 인터리버(5020)는 효율적으로 실현 가능한 구조를 제공하면서 데이터 FEC 인코더(5010)의 출력을 인터리빙하여 LDPC 코드 및 변조 방식의 조합으로 최적화된 성능을 달성할 수 있다. 비트 인터리버(5020)의 구체적인 동작에 대해서는 후술한다.
컨스텔레이션 매퍼(5030)는 QPSK, QAM16, 불균일 QAM (NUQ64, NUQ256, NUQ1024) 또는 불균일 컨스텔레이션 (NUC16, NUC64, NUC256, NUC1024)을 이용해서 베이스 및 핸드헬드 프로파일에서 비트 인터리버(5020)로부터의 각각의 셀 워드를 변조하거나 어드벤스 프로파일에서 셀 워드 디멀티플렉서(50101)로부터의 셀 워드를 변조하여 파워가 정규화된 컨스텔레이션 포인트 el을 제공할 수 있다. 해당 컨스텔레이션 매핑은 데이터 파이프에 대해서만 적용된다. NUQ가 임의의 형태를 갖는 반면, QAM16 및 NUQ는 정사각형 모양을 갖는 것이 관찰된다. 각각의 컨스텔레이션이 90도의 배수만큼 회전되면, 회전된 컨스텔레이션은 원래의 것과 정확히 겹쳐진다. 회전 대칭 특성으로 인해 실수 및 허수 컴포넌트의 용량 및 평균 파워가 서로 동일해진다. NUQ 및 NUC는 모두 각 코드 레이트(code rate)에 대해 특별히 정의되고, 사용되는 특정 하나는 PLS2 데이터에 보관된 파라미터 DP_MOD에 의해 시그널링 된다.
타임 인터리버(5050)는 데이터 파이프 레벨에서 동작할 수 있다. 타임 인터리빙의 파라미터는 각각의 데이터 파이프에 대해 다르게 설정될 수 있다. 타임 인터리버(5050)의 구체적인 동작에 관해서는 후술한다.
어드벤스 프로파일에 대한 BICM 블록의 처리 블록(50001)은 데이터 FEC 인코더, 비트 인터리버, 컨스텔레이션 매퍼, 및 타임 인터리버를 포함할 수 있다.
단, 처리 블록(50001)은 셀 워드 디멀티플렉서(50101) 및 MIMO 인코딩 블록(50201)을 더 포함한다는 점에서 처리 블록(5000)과 구별된다.
또한, 처리 블록(50001)에서의 데이터 FEC 인코더, 비트 인터리버, 컨스텔레이션 매퍼, 타임 인터리버의 동작은 전술한 데이터 FEC 인코더(5010), 비트 인터리버(5020), 컨스텔레이션 매퍼(5030), 타임 인터리버(5050)의 동작에 해당하므로, 그 설명은 생략한다.
셀 워드 디멀티플렉서(50101)는 어드벤스 프로파일의 데이터 파이프가 MIMO 처리를 위해 단일 셀 워드 스트림을 이중 셀 워드 스트림으로 분리하는 데 사용된다. 셀 워드 디멀티플렉서(50101)의 구체적인 동작에 관해서는 후술한다.
MIMO 인코딩 블록(50201)은 MIMO 인코딩 방식을 이용해서 셀 워드 디멀티플렉서(50101)의 출력을 처리할 수 있다. MIMO 인코딩 방식은 방송 신호 송신을 위해 최적화되었다. MIMO 기술은 용량 증가를 얻기 위한 유망한 방식이지만, 채널 특성에 의존한다. 특별히 방송에 대해서, 서로 다른 신호 전파 특성으로 인한 두 안테나 사이의 수신 신호 파워 차이 또는 채널의 강한 LOS 컴포넌트는 MIMO로부터 용량 이득을 얻는 것을 어렵게 한다. 제안된 MIMO 인코딩 방식은 MIMO 출력 신호 중 하나의 위상 랜덤화 및 회전 기반 프리코딩을 이용하여 이 문제를 극복한다.
MIMO 인코딩은 송신기 및 수신기 모두에서 적어도 두 개의 안테나를 필요로 하는 2x2 MIMO 시스템을 위해 의도된다. 두 개의 MIMO 인코딩 모드는 본 제안인 FRSM (fullrate spatial multiplexing) 및 FRFDSM (fullrate fulldiversity spatial multiplexing)에서 정의된다. FRSM 인코딩은 수신기 측에서의 비교적 작은 복잡도 증가로 용량 증가를 제공하는 반면, FRFDSM 인코딩은 수신기 측에서의 큰 복잡도 증가로 용량 증가 및 추가적인 다이버시티 이득을 제공한다. 제안된 MIMO 인코딩 방식은 안테나 극성 배치를 제한하지 않는다.
MIMO 처리는 어드벤스 프로파일 프레임에 요구되는데, 이는 어드벤스 프로파일 프레임에서의 모든 데이터 파이프가 MIMO 인코더에 의해 처리된다는 것을 의미한다. MIMO 처리는 데이터 파이프 레벨에서 적용된다. 컨스텔레이션 매퍼 출력의 페어(pair, 쌍)인 NUQ (e1 ,i 및 e2 ,i)는 MIMO 인코더의 입력으로 공급된다. MIMO 인코더 출력 페어(pair, 쌍)(g1,i 및 g2,i)은 각각의 송신 안테나의 동일한 캐리어 k 및 OFDM 심볼 l에 의해 전송된다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 5는 본 발명의 다른 실시예에 따른 BICM 블록을 나타낸다.
도 5에 도시된 BICM 블록은 도 1을 참조하여 설명한 BICM 블록(1010)의 일 실시예에 해당한다.
도 5는 PLS, EAC, 및 FIC의 보호를 위한 BICM 블록을 나타낸다. EAC는 EAS 정보 데이터를 전달하는 프레임의 일부이고, FIC는 서비스와 해당하는 베이스 데이터 파이프 사이에서 매핑 정보를 전달하는 프레임에서의 로지컬 채널이다. EAC 및 FIC에 대한 상세한 설명은 후술한다.
도 5를 참조하면, PLS, EAC, 및 FIC의 보호를 위한 BICM 블록은 PLS FEC 인코더(6000), 비트 인터리버(6010), 및 컨스텔레이션 매퍼(6020)를 포함할 수 있다.
또한, PLS FEC 인코더(6000)는 스크램블러, BCH 인코딩/제로 삽입 블록, LDPC 인코딩 블록, 및 LDPC 패리티 펑처링(puncturing) 블록을 포함할 수 있다. BICM 블록의 각 블록에 대해 설명한다.
PLS FEC 인코더(6000)는 스크램블링된 PLS 1/2 데이터, EAC 및 FIC 섹션을 인코딩할 수 있다.
스크램블러는 BCH 인코딩 및 쇼트닝(shortening) 및 펑처링된 LDPC 인코딩 전에 PLS1 데이터 및 PLS2 데이터를 스크램블링 할 수 있다.
BCH 인코딩/제로 삽입 블록은 PLS 보호를 위한 쇼트닝된 BCH 코드를 이용하여 스크램블링된 PLS 1/2 데이터에 외부 인코딩을 수행하고, BCH 인코딩 후에 제로 비트를 삽입할 수 있다. PLS1 데이터에 대해서만, 제로 삽입의 출력 비트가 LDPC 인코딩 전에 퍼뮤테이션(permutation) 될 수 있다.
LDPC 인코딩 블록은 LDPC 코드를 이용하여 BCH 인코딩/제로 삽입 블록의 출력을 인코딩할 수 있다. 완전한 코딩 블록을 생성하기 위해, Cldpc 및 패리티 비트 Pldpc는 각각의 제로가 삽입된 PLS 정보 블록 Ildpc로부터 조직적으로 인코딩되고, 그 뒤에 첨부된다.
Figure 112018009377919-pat00004
PLS1 및 PLS2에 대한 LDPC 코드 파라미터는 다음의 표 4와 같다.
Figure 112018009377919-pat00005
LDPC 패리티 펑처링 블록은 PLS1 데이터 및 PLS2 데이터에 대해 펑처링을 수행할 수 있다.
쇼트닝이 PLS1 데이터 보호에 적용되면, 일부 LDPC 패리티 비트는 LDPC 인코딩 후에 펑처링된다. 또한, PLS2 데이터 보호를 위해, PLS2의 LDPC 패리티 비트가 LDPC 인코딩 후에 펑처링된다. 이들 펑처링된 비트는 전송되지 않는다.
비트 인터리버(6010)는 각각의 쇼트닝 및 펑처링된 PLS1 데이터 및 PLS2 데이터를 인터리빙할 수 있다.
컨스텔레이션 매퍼(6020)는 비트 인터리빙된 PLS1 데이터 및 PLS2 데이터를 컨스텔레이션에 매핑할 수 있다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 6은 본 발명의 일 실시예에 따른 프레임 빌딩 블록(frame building block)을 나타낸다.
도 7에 도시한 프레임 빌딩 블록은 도 1을 참조하여 설명한 프레임 빌딩 블록(1020)의 일 실시예에 해당한다.
도 6을 참조하면, 프레임 빌딩 블록은 딜레이 컴펜세이션(delay compensation, 지연보상) 블록(7000), 셀 매퍼 (cell mapper) (7010), 및 프리퀀시 인터리버 (frequency interleaver) (7020)를 포함할 수 있다. 프레임 빌딩 블록의 각 블록에 관해 설명한다.
딜레이 컴펜세이션(delay compensation, 지연보상) 블록(7000)은 데이터 파이프와 해당하는 PLS 데이터 사이의 타이밍을 조절하여 송신기 측에서 데이터 파이프와 해당하는 PLS 데이터 간의 동시성(cotime)을 보장할 수 있다. 인풋 포맷 블록 및 BICM 블록으로 인한 데이터 파이프의 지연을 다룸으로써 PLS 데이터는 데이터 파이프만큼 지연된다. BICM 블록의 지연은 주로 타임 인터리버(5050)로 인한 것이다. 인 밴드(Inband) 시그널링 데이터는 다음 타임 인터리빙 그룹의 정보를 시그널링될 데이터 파이프보다 하나의 프레임 앞서 전달되도록 할 수 있다. 딜레이 컴펜세이션(delay compensation, 지연보상) 블록은 그에 맞추어 인 밴드(Inband) 시그널링 데이터를 지연시킨다.
셀 매퍼(7010)는 PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 및 더미 셀을 프레임 내에서 OFDM 심볼의 액티브(active) 캐리어에 매핑할 수 있다. 셀 매퍼(7010)의 기본 기능은 각각의 데이터 파이프, PLS 셀, 및 EAC/FIC 셀에 대한 타임 인터리빙에 의해 생성된 데이터 셀을, 존재한다면, 하나의 프레임 내에서 각각의 OFDM 심볼에 해당하는 액티브(active) OFDM 셀의 어레이에 매핑하는 것이다. (PSI(program specific information)/SI와 같은) 서비스 시그널링 데이터는 개별적으로 수집되어 데이터 파이프에 의해 보내질 수 있다. 셀 매퍼는 프레임 구조의 구성 및 스케줄러에 의해 생성된 다이나믹 인포메이션(dynamic information, 동적 정보)에 따라 동작한다. 프레임에 관한 자세한 내용은 후술한다.
주파수 인터리버(7020)는 셀 매퍼(7010)로부터 의해 수신된 데이터 셀을 랜덤하게 인터리빙하여 주파수 다이버시티를 제공할 수 있다. 또한, 주파수 인터리버(7020)는 단일 프레임에서 최대의 인터리빙 이득을 얻기 위해 다른 인터리빙 시드(seed) 순서를 이용하여 두 개의 순차적인 OFDM 심볼로 구성된 OFDM 심볼 페어(pair, 쌍)에서 동작할 수 있다.
전술한 블록은 생략되거나 유사 또는 동일 기능을 갖는 블록으로 대체될 수 있다.
도 7은 본 발명의 일 실시예에 따른 OFDM 제너레이션 블록을 나타낸다.
도 7에 도시된 OFDM 제너레이션 블록은 도 1을 참조하여 설명한 OFDM 제너레이션 블록(1030)의 일 실시예에 해당한다.
OFDM 제너레이션 블록은 프레임 빌딩 블록에 의해 생성된 셀에 의해 OFDM 캐리어를 변조하고, 파일럿을 삽입하고, 전송을 위한 시간 영역 신호를 생성한다. 또한, 해당 블록은 순차적으로 가드 인터벌을 삽입하고, PAPR 감소 처리를 적용하여 최종 RF 신호를 생성한다.
도 8을 참조하면, OFDM 제너레이션 블록은 파일럿 및 리저브드 톤 삽입 블록 (pilot and revserved tone insertion block) (8000), 2DeSFN (single frequency network) 인코딩 블록(8010), IFFT (inverse fast Fourier transform) 블록(8020), PAPR 감소 블록(8030), 가드 인터벌 삽입 블록 (guard interval insertion block)(8040), 프리앰블 삽입 블록 (preamble insertion block)(8050), 기타 시스템 삽입 블록(8060), 및 DAC 블록(8070)을 포함할 수 있다.
기타 시스템 삽입 블록(8060)은 방송 서비스를 제공하는 둘 이상의 서로 다른 방송 송신/수신 시스템의 데이터가 동일한 RF 신호 대역에서 동시에 전송될 수 있도록 시간 영역에서 복수의 방송 송신/수신 시스템의 신호를 멀티플렉싱 할 수 있다. 이 경우, 둘 이상의 서로 다른 방송 송신/수신 시스템은 서로 다른 방송 서비스를 제공하는 시스템을 말한다. 서로 다른 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스 등을 의미할 수 있다.
도 8은 본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치의 구조를 나타낸다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치는 도 1을 참조하여 설명한 차세대 방송 서비스에 대한 방송 신호 송신 장치에 대응할 수 있다.
본 발명의 일 실시예에 따른 차세대 방송 서비스에 대한 방송 신호 수신 장치는 동기 및 복조 모듈 (synchronization & demodulation module) (9000), 프레임 파싱 모듈 (frame parsing module) (9010), 디매핑 및 디코딩 모듈 (demapping & decoding module) (9020), 출력 프로세서 (output processor) (9030), 및 시그널링 디코딩 모듈 (signaling decoding module) (9040)을 포함할 수 있다. 방송 신호 수신 장치의 각 모듈의 동작에 대해 설명한다.
동기 및 복조 모듈(9000)은 m개의 수신 안테나를 통해 입력 신호를 수신하고, 방송 신호 수신 장치에 해당하는 시스템에 대해 신호 검출 및 동기화를 실행하고, 방송 신호 송신 장치에 의해 실행되는 절차의 역과정에 해당하는 복조를 실행할 수 있다.
프레임 파싱 모듈(9010)은 입력 신호 프레임을 파싱하고, 사용자에 의해 선택된 서비스가 전송되는 데이터를 추출할 수 있다. 방송 신호 송신 장치가 인터리빙을 실행하면, 프레임 파싱 모듈(9010)은 인터리빙의 역과정에 해당하는 디인터리빙을 실행할 수 있다. 이 경우, 추출되어야 하는 신호 및 데이터의 위치가 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 디코딩함으로써 획득되어, 방송 신호 송신 장치에 의해 생성된 스케줄링 정보가 복원될 수 있다.
디매핑 및 디코딩 모듈(9020)은 입력 신호를 비트 영역 데이터로 변환한 후, 필요에 따라 비트 영역 데이터들을 디인터리빙할 수 있다. 디매핑 및 디코딩 모듈(9020)은 전송 효율을 위해 적용된 매핑에 대한 디매핑을 실행하고, 디코딩을 통해 전송 채널에서 발생한 에러를 정정할 수 있다. 이 경우, 디매핑 및 디코딩 모듈(9020)은 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 디코딩함으로써 디매핑 및 디코딩을 위해 필요한 전송 파라미터를 획득할 수 있다.
출력 프로세서(9030)는 전송 효율을 향상시키기 위해 방송 신호 송신 장치에 의해 적용되는 다양한 압축/신호 처리 절차의 역과정을 실행할 수 있다. 이 경우, 출력 프로세서(9030)는 시그널링 디코딩 모듈(9040)로부터 출력된 데이터에서 필요한 제어 정보를 획득할 수 있다. 출력 프로세서(8300)의 출력은 방송 신호 송신 장치에 입력되는 신호에 해당하고, MPEGTS, IP 스트림 (v4 또는 v6) 및 GS일 수 있다.
시그널링 디코딩 모듈(9040)은 동기 및 복조 모듈(9000)에 의해 복조된 신호로부터 PLS 정보를 획득할 수 있다. 전술한 바와 같이, 프레임 파싱 모듈(9010), 디매핑 및 디코딩 모듈(9200), 출력 프로세서(9300)는 시그널링 디코딩 모듈(9040)로부터 출력된 데이터를 이용하여 그 기능을 실행할 수 있다.
도 9는 본 발명의 일 실시예에 따른 프레임 구조를 나타낸다.
도 9는 프레임 타임의 구성예 및 슈퍼 프레임에서의 FRU (frame repetition unit, 프레임 반복 단위)를 나타낸다. (a)는 본 발명의 일 실시예에 따른 슈퍼 프레임을 나타내고, (b)는 본 발명의 일 실시예에 따른 FRU를 나타내고, (c)는 FRU에서의 다양한 피지컬 프로파일(PHY profile)의 프레임을 나타내고, (d)는 프레임의 구조를 나타낸다.
슈퍼 프레임은 8개의 FRU로 구성될 수 있다. FRU는 프레임의 TDM에 대한 기본 멀티플렉싱 단위이고, 슈퍼 프레임에서 8회 반복된다.
FRU에서 각 프레임은 피지컬 프로파일(베이스, 핸드헬드, 어드벤스 프로파일) 중 하나 또는 FEF에 속한다. FRU에서 프레임의 최대 허용수는 4이고, 주어진 피지컬 프로파일은 FRU에서 0회 내지 4회 중 어느 횟수만큼 나타날 수 있다(예를 들면, 베이스, 베이스, 핸드헬드, 어드벤스). 피지컬 프로파일 정의는 필요시 프리앰블에서의 PHY_PROFILE의 리저브드 값을 이용하여 확장될 수 있다.
FEF 부분은 포함된다면 FRU의 끝에 삽입된다. FEF가 FRU에 포함되는 경우, FEF의 최대수는 슈퍼 프레임에서 8이다. FEF 부분들이 서로 인접할 것이 권장되지 않는다.
하나의 프레임은 다수의 OFDM 심볼 및 프리앰블로 더 분리된다. (d)에 도시한 바와 같이, 프레임은 프리앰블, 하나 이상의 FSS, 노멀 데이터 심볼, FES를 포함한다.
프리앰블은 고속 퓨처캐스트 UTB 시스템 신호 검출을 가능하게 하고, 신호의 효율적인 송신 및 수신을 위한 기본 전송 파라미터의 집합을 제공하는 특별한 심볼이다. 프리앰블에 대한 자세한 내용은 후술한다.
FSS의 주된 목적은 PLS 데이터를 전달하는 것이다. 고속 동기화 및 채널 추정을 위해, 이에 따른 PLS 데이터의 고속 디코딩을 위해, FSS는 노멀 데이터 심볼보다 고밀도의 파일럿 패턴을 갖는다. FES는 FSS와 완전히 동일한 파일럿을 갖는데, 이는 FES에 바로 앞서는 심볼에 대해 외삽(extrapolation) 없이 FES 내에서의 주파수만의 인터폴레이션(interpolation, 보간) 및 시간적 보간(temporal interpolation)을 가능하게 한다.
도 10은 본 발명의 일 실시예에 따른 프레임의 시그널링 계층 구조(signaling hierarchy structure) 를 나타낸다.
도 10은 시그널링 계층 구조를 나타내는데, 이는 세 개의 주요 부분인 프리앰블 시그널링 데이터(11000), PLS1 데이터(11010), 및 PLS2 데이터(11020)로 분할된다. 매 프레임마다 프리앰블 신호에 의해 전달되는 프리앰블의 목적은 프레임의 기본 전송 파라미터 및 전송 타입을 나타내는 것이다. PLS1은 수신기가 관심 있는 데이터 파이프에 접속하기 위한 파라미터를 포함하는 PLS2 데이터에 접속하여 디코딩할 수 있게 한다. PLS2는 매 프레임마다 전달되고, 두 개의 주요 부분인 PLS2STAT 데이터와 PLS2DYN 데이터로 분할된다. PLS2 데이터의 스태틱(static, 정적) 및 다이나믹(dynamic, 동적) 부분에는 필요시 패딩이 뒤따른다.
도 11은 본 발명의 일 실시예에 따른 프리앰블 시그널링 데이터를 나타낸다.
프리앰블 시그널링 데이터는 수신기가 프레임 구조 내에서 PLS 데이터에 접속하고 데이터 파이프를 추적할 수 있게 하기 위해 필요한 21비트의 정보를 전달한다. 프리앰블 시그널링 데이터에 대한 자세한 내용은 다음과 같다.
PHY_PROFILE: 해당 3비트 필드는 현 프레임의 피지컬 프로파일 타입을 나타낸다. 서로 다른 피지컬 프로파일 타입의 매핑은 아래 표 5에 주어진다.
Figure 112018009377919-pat00006
FFT_SIZE: 해당 2비트 필드는 아래 표 6에서 설명한 바와 같이 프레임 그룹 내에서 현 프레임의 FFT 사이즈를 나타낸다.
Figure 112018009377919-pat00007
GI_FRACTION: 해당 3비트 필드는 아래 표 7에서 설명한 바와 같이 현 슈퍼 프레임에서의 가드 인터벌 일부(fraction) 값을 나타낸다.
Figure 112018009377919-pat00008
EAC_FLAG: 해당 1비트 필드는 EAC가 현 프레임에 제공되는지 여부를 나타낸다. 해당 필드가 1로 설정되면, EAS가 현 프레임에 제공된다. 해당 필드가 0으로 설정되면, EAS가 현 프레임에서 전달되지 않는다. 해당 필드는 슈퍼 프레임 내에서 다이나믹(dynamic, 동적)으로 전환될 수 있다.
PILOT_MODE: 해당 1비트 필드는 현 프레임 그룹에서 현 프레임에 대해 파일럿 모드가 모바일 모드인지 또는 고정 모드인지 여부를 나타낸다. 해당 필드가 0으로 설정되면, 모바일 파일럿 모드가 사용된다. 해당 필드가 1로 설정되면, 고정 파일럿 모드가 사용된다.
PAPR_FLAG: 해당 1비트 필드는 현 프레임 그룹에서 현 프레임에 대해 PAPR 감소가 사용되는지 여부를 나타낸다. 해당 필드가 1로 설정되면, 톤 예약(tone reservation)이 PAPR 감소를 위해 사용된다. 해당 필드가 0으로 설정되면, PAPR 감소가 사용되지 않는다.
FRU_CONFIGURE: 해당 3비트 필드는 현 슈퍼 프레임에서 존재하는 FRU의 피지컬 프로파일 타입 구성을 나타낸다. 현 슈퍼 프레임에서 모든 프리앰블에서의 해당 필드에서, 현 슈퍼 프레임에서 전달되는 모든 프로파일 타입이 식별된다. 해당 3비트 필드는 아래 표 8에 나타낸 바와 같이 각각의 프로파일에 대해 다르게 정의된다.
Figure 112018009377919-pat00009
RESERVED: 해당 7비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
도 12는 본 발명의 일 실시예에 따른 PLS1 데이터를 나타낸다.
PLS1 데이터는 PLS2의 수신 및 디코딩을 가능하게 하기 위해 필요한 파라미터를 포함한 기본 전송 파라미터를 제공한다. 전술한 바와 같이, PLS1 데이터는 하나의 프레임 그룹의 전체 듀레이션 동안 변화하지 않는다. PLS1 데이터의 시그널링 필드의 구체적인 정의는 다음과 같다.
PREAMBLE_DATA: 해당 20비트 필드는 EAC_FLAG를 제외한 프리앰블 시그널링 데이터의 카피이다.
NUM_FRAME_FRU: 해당 2비트 필드는 FRU당 프레임 수를 나타낸다.
PAYLOAD_TYPE: 해당 3비트 필드는 프레임 그룹에서 전달되는 페이로드 데이터의 포맷을 나타낸다. PAYLOAD_TYPE은 표 9에 나타낸 바와 같이 시그널링 된다.
Figure 112018009377919-pat00010
NUM_FSS: 해당 2비트 필드는 현 프레임에서 FSS의 수를 나타낸다.
SYSTEM_VERSION: 해당 8비트 필드는 전송되는 신호 포맷의 버전을 나타낸다. SYSTEM_VERSION은 주 버전 및 부 버전의 두 개의 4비트 필드로 분리된다.
주 버전: SYSTEM_VERSION 필드의 MSB인 4비트는 주 버전 정보를 나타낸다. 주 버전 필드에서의 변화는 호환이 불가능한 변화를 나타낸다. 디폴트 값은 0000이다. 해당 표준에서 서술된 버전에 대해, 값이 0000으로 설정된다.
부 버전: SYSTEM_VERSION 필드의 LSB인 4비트는 부 버전 정보를 나타낸다. 부 버전 필드에서의 변화는 호환이 가능하다.
CELL_ID: 이는 ATSC 네트워크에서 지리적 셀을 유일하게 식별하는 16비트 필드이다. ATSC 셀 커버리지는 퓨처캐스트 UTB 시스템당 사용되는 주파수 수에 따라 하나 이상의 주파수로 구성될 수 있다. CELL_ID의 값이 알려지지 않거나 특정되지 않으면, 해당 필드는 0으로 설정된다.
NETWORK_ID: 이는 현 ATSC 네트워크를 유일하게 식별하는 16비트 필드이다.
SYSTEM_ID: 해당 16비트 필드는 ATSC 네트워크 내에서 퓨처캐스트 UTB 시스템을 유일하게 식별한다. 퓨처캐스트 UTB 시스템은 입력이 하나 이상의 입력 스트림(TS, IP, GS)이고 출력이 RF 신호인 지상파 방송 시스템이다. 퓨처캐스트 UTB 시스템은 존재한다면 FEF 및 하나 이상의 피지컬 프로파일을 전달한다. 동일한 퓨처캐스트 UTB 시스템은 서로 다른 입력 스트림을 전달하고 서로 다른 지리적 영역에서 서로 다른 RF를 사용할 수 있어, 로컬 서비스 삽입을 허용한다. 프레임 구조 및 스케줄링은 하나의 장소에서 제어되고, 퓨처캐스트 UTB 시스템 내에서 모든 전송에 대해 동일하다. 하나 이상의 퓨처캐스트 UTB 시스템은 모두 동일한 피지컬 구조 및 구성을 갖는다는 동일한 SYSTEM_ID 의미를 가질 수 있다.
다음의 루프(loop)는 각 프레임 타입의 길이 및 FRU 구성을 나타내는 FRU_PHY_PROFILE, FRU_FRAME_LENGTH, FRU_GI_FRACTION, RESERVED로 구성된다. 루프(loop) 사이즈는 FRU 내에서 4개의 피지컬 프로파일(FEF 포함)이 시그널링되도록 고정된다. NUM_FRAME_FRU가 4보다 작으면, 사용되지 않는 필드는 제로로 채워진다.
FRU_PHY_PROFILE: 해당 3비트 필드는 관련된 FRU의 (i+1)번째 프레임(i는 루프(loop) 인덱스)의 피지컬 프로파일 타입을 나타낸다. 해당 필드는 표 8에 나타낸 것과 동일한 시그널링 포맷을 사용한다.
FRU_FRAME_LENGTH: 해당 2비트 필드는 관련된 FRU의 (i+1)번째 프레임의 길이를 나타낸다. FRU_GI_FRACTION와 함께 FRU_FRAME_LENGTH를 사용하면, 프레임 듀레이션의 정확한 값이 얻어질 수 있다.
FRU_GI_FRACTION: 해당 3비트 필드는 관련된 FRU의 (i+1)번째 프레임의 가드 인터벌 일부 값을 나타낸다. FRU_GI_FRACTION은 표 7에 따라 시그널링 된다.
RESERVED: 해당 4비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음의 필드는 PLS2 데이터를 디코딩하기 위한 파라미터를 제공한다.
PLS2_FEC_TYPE: 해당 2비트 필드는 PLS2 보호에 의해 사용되는 FEC 타입을 나타낸다. FEC 타입은 표 10에 따라 시그널링 된다. LDPC 코드에 대한 자세한 내용은 후술한다.
Figure 112018009377919-pat00011
PLS2_MOD: 해당 3비트 필드는 PLS2에 의해 사용되는 변조 타입을 나타낸다. 변조 타입은 표 11에 따라 시그널링 된다.
Figure 112018009377919-pat00012
PLS2_SIZE_CELL: 해당 15비트 필드는 현 프레임 그룹에서 전달되는 PLS2에 대한 모든 코딩 블록의 사이즈( QAM 셀의 수로 특정됨)인 C total _partial_block 를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_STAT_SIZE_BIT: 해당 14비트 필드는 현 프레임 그룹에 대한 PLS2STAT의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_DYN_SIZE_BIT: 해당 14비트 필드는 현 프레임 그룹에 대한 PLS2DYN의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_REP_FLAG: 해당 1비트 플래그는 PLS2 반복 모드가 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, PLS2 반복 모드는 활성화된다. 해당 필드의 값이 0으로 설정되면, PLS2 반복 모드는 비활성화된다.
PLS2_REP_SIZE_CELL: 해당 15비트 필드는 PLS2 반복이 사용되는 경우 현 프레임 그룹의 매 프레임마다 전달되는 PLS2에 대한 부분 코딩 블록의 사이즈(QAM 셀의 수로 특정됨)인 Ctotal _partial_block를 나타낸다. 반복이 사용되지 않는 경우, 해당 필드의 값은 0과 동일하다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_FEC_TYPE: 해당 2비트 필드는 다음 프레임 그룹의 매 프레임에서 전달되는 PLS2에 사용되는 FEC 타입을 나타낸다. FEC 타입은 표 10에 따라 시그널링 된다.
PLS2_NEXT_MOD: 해당 3비트 필드는 다음 프레임 그룹의 매 프레임에서 전달되는 PLS2에 사용되는 변조 타입을 나타낸다. 변조 타입은 표 11에 따라 시그널링 된다.
PLS2_NEXT_REP_FLAG: 해당 1비트 플래그는 PLS2 반복 모드가 다음 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, PLS2 반복 모드는 활성화된다. 해당 필드의 값이 0으로 설정되면, PLS2 반복 모드는 비활성화된다.
PLS2_NEXT_REP_SIZE_CELL: 해당 15비트 필드는 PLS2 반복이 사용되는 경우 다음 프레임 그룹의 매 프레임마다 전달되는 PLS2에 대한 전체 코딩 블록의 사이즈(QAM 셀의 수로 특정됨)인 Ctotal _full_block를 나타낸다. 다음 프레임 그룹에서 반복이 사용되지 않는 경우, 해당 필드의 값은 0과 동일하다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_REP_STAT_SIZE_BIT: 해당 14비트 필드는 다음 프레임 그룹에 대한 PLS2STAT의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹에서 일정하다.
PLS2_NEXT_REP_DYN_SIZE_BIT: 해당 14비트 필드는 다음 프레임 그룹에 대한 PLS2DYN의 사이즈를 비트수로 나타낸다. 해당 값은 현 프레임 그룹에서 일정하다.
PLS2_AP_MODE: 해당 2비트 필드는 현 프레임 그룹에서 PLS2에 대해 추가 패리티가 제공되는지 여부를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다. 아래의 표 12는 해당 필드의 값을 제공한다. 해당 필드의 값이 00으로 설정되면, 현 프레임 그룹에서 추가 패리티가 PLS2에 대해 사용되지 않는다.
Figure 112018009377919-pat00013
PLS2_AP_SIZE_CELL: 해당 15비트 필드는 PLS2의 추가 패리티 비트의 사이즈(QAM 셀의 수로 특정됨)를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
PLS2_NEXT_AP_MODE: 해당 2비트 필드는 다음 프레임 그룹의 매 프레임마다 PLS2 시그널링에 대해 추가 패리티가 제공되는지 여부를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다. 표 12는 해당 필드의 값을 정의한다.
PLS2_NEXT_AP_SIZE_CELL: 해당 15비트 필드는 다음 프레임 그룹의 매 프레임마다 PLS2의 추가 패리티 비트의 사이즈(QAM 셀의 수로 특정됨)를 나타낸다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
RESERVED: 해당 32비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
CRC_32: 전체 PLS1 시그널링에 적용되는 32비트 에러 검출 코드
도 13은 본 발명의 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 13은 PLS2 데이터의 PLS2STAT 데이터를 나타낸다. PLS2STAT 데이터는 프레임 그룹 내에서 동일한 반면, PLS2DYN 데이터는 현 프레임에 대해 특정한 정보를 제공한다.
PLS2STAT 데이터의 필드에 대해 다음에 구체적으로 설명한다.
FIC_FLAG: 해당 1비트 필드는 FIC가 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, FIC는 현 프레임에서 제공된다. 해당 필드의 값이 0으로 설정되면, FIC는 현 프레임에서 전달되지 않는다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
AUX_FLAG: 해당 1비트 필드는 보조 스트림이 현 프레임 그룹에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, 보조 스트림은 현 프레임에서 제공된다. 해당 필드의 값이 0으로 설정되면, 보조 프레임은 현 프레임에서 전달되지 않는다. 해당 값은 현 프레임 그룹의 전체 듀레이션 동안 일정하다.
NUM_DP: 해당 6비트 필드는 현 프레임 내에서 전달되는 데이터 파이프의 수를 나타낸다. 해당 필드의 값은 1에서 64 사이이고, 데이터 파이프의 수는 NUM_DP+1이다.
DP_ID: 해당 6비트 필드는 피지컬 프로파일 내에서 유일하게 식별한다.
DP_TYPE: 해당 3비트 필드는 데이터 파이프의 타입을 나타낸다. 이는 아래의 표 13에 따라 시그널링 된다.
Figure 112018009377919-pat00014
DP_GROUP_ID: 해당 8비트 필드는 현 데이터 파이프가 관련되어 있는 데이터 파이프 그룹을 식별한다. 이는 수신기가 동일한 DP_GROUP_ID를 갖게 되는 특정 서비스와 관련되어 있는 서비스 컴포넌트의 데이터 파이프에 접속하는 데 사용될 수 있다.
BASE_DP_ID: 해당 6비트 필드는 관리 계층에서 사용되는 (PSI/SI와 같은) 서비스 시그널링 데이터를 전달하는 데이터 파이프를 나타낸다. BASE_DP_ID에 의해 나타내는 데이터 파이프는 서비스 데이터와 함께 서비스 시그널링 데이터를 전달하는 노멀 데이터 파이프이거나, 서비스 시그널링 데이터만을 전달하는 전용 데이터 파이프일 수 있다.
DP_FEC_TYPE: 해당 2비트 필드는 관련된 데이터 파이프에 의해 사용되는 FEC 타입을 나타낸다. FEC 타입은 아래의 표 14에 따라 시그널링 된다.
Figure 112018009377919-pat00015
DP_COD: 해당 4비트 필드는 관련된 데이터 파이프에 의해 사용되는 코드 레이트(code rate)을 나타낸다. 코드 레이트(code rate)은 아래의 표 15에 따라 시그널링 된다.
Figure 112018009377919-pat00016
DP_MOD: 해당 4비트 필드는 관련된 데이터 파이프에 의해 사용되는 변조를 나타낸다. 변조는 아래의 표 16에 따라 시그널링 된다.
Figure 112018009377919-pat00017
DP_SSD_FLAG: 해당 1비트 필드는 SSD 모드가 관련된 데이터 파이프에서 사용되는지 여부를 나타낸다. 해당 필드의 값이 1로 설정되면, SSD는 사용된다. 해당 필드의 값이 0으로 설정되면, SSD는 사용되지 않는다.
다음의 필드는 PHY_PROFILE가 어드벤스 프로파일을 나타내는 010과 동일할 때에만 나타난다.
DP_MIMO: 해당 3비트 필드는 어떤 타입의 MIMO 인코딩 처리가 관련된 데이터 파이프에 적용되는지 나타낸다. MIMO 인코딩 처리의 타입은 아래의 표 17에 따라 시그널링 된다.
Figure 112018009377919-pat00018
DP_TI_TYPE: 해당 1비트 필드는 타임 인터리빙의 타입을 나타낸다. 0의 값은 하나의 타임 인터리빙 그룹이 하나의 프레임에 해당하고 하나 이상의 타임 인터리빙 블록을 포함하는 것을 나타낸다. 1의 값은 하나의 타임 인터리빙 그룹이 하나보다 많은 프레임으로 전달되고 하나의 타임 인터리빙 블록만을 포함하는 것을 나타낸다.
DP_TI_LENGTH: 해당 2비트 필드(허용된 값은 1, 2, 4, 8뿐이다)의 사용은 다음과 같은 DP_TI_TYPE 필드 내에서 설정되는 값에 의해 결정된다.
DP_TI_TYPE의 값이 1로 설정되면, 해당 필드는 각각의 타임 인터리빙 그룹이 매핑되는 프레임의 수인 PI를 나타내고, 타임 인터리빙 그룹당 하나의 타임 인터리빙 블록이 존재한다 (NTI=1). 해당 2비트 필드로 허용되는 PI의 값은 아래의 표 18에 정의된다.
DP_TI_TYPE의 값이 0으로 설정되면, 해당 필드는 타임 인터리빙 그룹당 타임 인터리빙 블록의 수 NTI를 나타내고, 프레임당 하나의 타임 인터리빙 그룹이 존재한다 (PI=1). 해당 2비트 필드로 허용되는 PI의 값은 아래의 표 18에 정의된다.
Figure 112018009377919-pat00019
DP_FRAME_INTERVAL: 해당 2비트 필드는 관련된 데이터 파이프에 대한 프레임 그룹 내에서 프레임 간격(IJUMP)을 나타내고, 허용된 값은 1, 2, 4, 8 (해당하는 2비트 필드는 각각 00, 01, 10, 11)이다. 프레임 그룹의 모든 프레임에 나타나지 않는 데이터 파이프에 대해, 해당 필드의 값은 순차적인 프레임 사이의 간격과 동일하다. 예를 들면, 데이터 파이프가 1, 5, 9, 13 등의 프레임에 나타나면, 해당 필드의 값은 4로 설정된다. 모든 프레임에 나타나는 데이터 파이프에 대해, 해당 필드의 값은 1로 설정된다.
DP_TI_BYPASS: 해당 1비트 필드는 타임 인터리버(5050)의 가용성을 결정한다. 데이터 파이프에 대해 타임 인터리빙이 사용되지 않으면, 해당 필드 값은 1로 설정된다. 반면, 타임 인터리빙이 사용되면, 해당 필드 값은 0으로 설정된다.
DP_FIRST_FRAME_IDX: 해당 5비트 필드는 현 데이터 파이프가 발생하는 슈퍼 프레임의 첫 번째 프레임의 인덱스를 나타낸다. DP_FIRST_FRAME_IDX의 값은 0에서 31 사이다.
DP_NUM_BLOCK_MAX: 해당 10비트 필드는 해당 데이터 파이프에 대한 DP_NUM_BLOCKS의 최대값을 나타낸다. 해당 필드의 값은 DP_NUM_BLOCKS와 동일한 범위를 갖는다.
DP_PAYLOAD_TYPE: 해당 2비트 필드는 주어진 데이터 파이프에 의해 전달되는 페이로드 데이터의 타입을 나타낸다. DP_PAYLOAD_TYPE은 아래의 표 19에 따라 시그널링 된다.
Figure 112018009377919-pat00020
DP_INBAND_MODE: 해당 2비트 필드는 현 데이터 파이프가 인 밴드(Inband) 시그널링 정보를 전달하는지 여부를 나타낸다. 인 밴드(Inband) 시그널링 타입은 아래의 표 20에 따라 시그널링 된다.
Figure 112018009377919-pat00021
DP_PROTOCOL_TYPE: 해당 2비트 필드는 주어진 데이터 파이프에 의해 전달되는 페이로드의 프로토콜 타입을 나타낸다. 페이로드의 프로토콜 타입은 입력 페이로드 타입이 선택되면 아래의 표 21에 따라 시그널링 된다.
Figure 112018009377919-pat00022
DP_CRC_MODE: 해당 2비트 필드는 CRC 인코딩이 인풋 포맷 블록에서 사용되는지 여부를 나타낸다. CRC 모드는 아래의 표 22에 따라 시그널링 된다.
Figure 112018009377919-pat00023
DNP_MODE: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 널 패킷 삭제 모드를 나타낸다. DNP_MODE는 아래의 표 23에 따라 시그널링 된다. DP_PAYLOAD_TYPE이 TS ('00')가 아니면, DNP_MODE는 00의 값으로 설정된다.
Figure 112018009377919-pat00024
ISSY_MODE: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 ISSY 모드를 나타낸다. ISSY_MODE는 아래의 표 24에 따라 시그널링 된다. DP_PAYLOAD_TYPE이 TS ('00')가 아니면, ISSY_MODE는 00의 값으로 설정된다.
Figure 112018009377919-pat00025
HC_MODE_TS: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되는 경우에 관련된 데이터 파이프에 의해 사용되는 TS 헤더 압축 모드를 나타낸다. HC_MODE_TS는 아래의 표 25에 따라 시그널링 된다.
Figure 112018009377919-pat00026
HC_MODE_IP: 해당 2비트 필드는 DP_PAYLOAD_TYPE이 IP ('01')로 설정되는 경우에 IP 헤더 압축 모드를 나타낸다. HC_MODE_IP는 아래의 표 26에 따라 시그널링 된다.
Figure 112018009377919-pat00027
PID: 해당 13비트 필드는 DP_PAYLOAD_TYPE이 TS ('00')로 설정되고 HC_MODE_TS가 01 또는 10으로 설정되는 경우에 TS 헤더 압축을 위한 PID 수를 나타낸다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 FIC_FLAG가 1과 동일할 때만 나타난다.
FIC_VERSION: 해당 8비트 필드는 FIC의 버전 넘버를 나타낸다.
FIC_LENGTH_BYTE: 해당 13비트 필드는 FIC의 길이를 바이트 단위로 나타낸다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 AUX_FLAG가 1과 동일할 때만 나타난다.
NUM_AUX: 해당 4비트 필드는 보조 스트림의 수를 나타낸다. 제로는 보조 스트림이 사용되지 않는 것을 나타낸다.
AUX_CONFIG_RFU: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
AUX_STREAM_TYPE: 해당 4비트는 현 보조 스트림의 타입을 나타내기 위한 추후 사용을 위해 리저브드(reserved)된다.
AUX_PRIVATE_CONFIG: 해당 28비트 필드는 보조 스트림을 시그널링 하기 위한 추후 사용을 위해 리저브드(reserved)된다.
도 14는 본 발명의 다른 일 실시예에 따른 PLS2 데이터를 나타낸다.
도 14는 PLS2 데이터의 PLS2DYN을 나타낸다. PLS2DYN 데이터의 값은 하나의 프레임 그룹의 듀레이션 동안 변화할 수 있는 반면, 필드의 사이즈는 일정하다.
PLS2DYN 데이터의 필드의 구체적인 내용은 다음과 같다.
FRAME_INDEX: 해당 5비트 필드는 슈퍼 프레임 내에서 현 프레임의 프레임 인덱스를 나타낸다. 슈퍼 프레임의 첫 번째 프레임의 인덱스는 0으로 설정된다.
PLS_CHANGE_COUNTER: 해당 4비트 필드는 구성이 변화하기 전의 슈퍼 프레임의 수를 나타낸다. 구성이 변화하는 다음 슈퍼 프레임은 해당 필드 내에서 시그널링 되는 값에 의해 나타낸다. 해당 필드의 값이 0000으로 설정되면, 이는 어떠한 예정된 변화도 예측되지 않는 것을 의미한다. 예를 들면, 1의 값은 다음 슈퍼 프레임에 변화가 있다는 것을 나타낸다.
FIC_CHANGE_COUNTER: 해당 4비트 필드는 구성(즉, FIC의 콘텐츠)이 변화하기 전의 슈퍼 프레임의 수를 나타낸다. 구성이 변화하는 다음 슈퍼 프레임은 해당 필드 내에서 시그널링 되는 값에 의해 나타낸다. 해당 필드의 값이 0000으로 설정되면, 이는 어떠한 예정된 변화도 예측되지 않는 것을 의미한다. 예를 들면, 0001의 값은 다음 슈퍼 프레임에 변화가 있다는 것을 나타낸다.
RESERVED: 해당 16비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음 필드는 현 프레임에서 전달되는 데이터 파이프와 관련된 파라미터를 설명하는 NUM_DP에서의 루프(loop)에 나타난다.
DP_ID: 해당 6비트 필드는 피지컬 프로파일 내에서 데이터 파이프를 유일하게 나타낸다.
DP_START: 해당 15비트 (또는 13비트) 필드는 DPU 어드레싱(addressing) 기법을 사용하여 데이터 파이프의 첫 번째의 시작 위치를 나타낸다. DP_START 필드는 아래의 표 27에 나타낸 바와 같이 피지컬 프로파일 및 FFT 사이즈에 따라 다른 길이를 갖는다.
Figure 112018009377919-pat00028
DP_NUM_BLOCK: 해당 10비트 필드는 현 데이터 파이프에 대한 현 타임 인터리빙 그룹에서 FEC 블록의 수를 나타낸다. DP_NUM_BLOCK의 값은 0에서 1023 사이에 있다.
RESERVED: 해당 8비트 필드는 추후 사용을 위해 리저브드(reserved)된다.
다음의 필드는 EAC와 관련된 FIC 파라미터를 나타낸다.
EAC_FLAG: 해당 1비트 필드는 현 프레임에서 EAC의 존재를 나타낸다. 해당 비트는 프리앰블에서 EAC_FLAG와 같은 값이다.
EAS_WAKE_UP_VERSION_NUM: 해당 8비트 필드는 자동 활성화 지시의 버전 넘버를 나타낸다.
EAC_FLAG 필드가 1과 동일하면, 다음의 12비트가 EAC_LENGTH_BYTE 필드에 할당된다. EAC_FLAG 필드가 0과 동일하면, 다음의 12비트가 EAC_COUNTER에 할당된다.
EAC_LENGTH_BYTE: 해당 12비트 필드는 EAC의 길이를 바이트로 나타낸다.
EAC_COUNTER: 해당 12비트 필드는 EAC가 도달하는 프레임 전의 프레임의 수를 나타낸다.
다음 필드는 AUX_FLAG 필드가 1과 동일한 경우에만 나타난다.
AUX_PRIVATE_DYN: 해당 48비트 필드는 보조 스트림을 시그널링 하기 위한 추후 사용을 위해 리저브드(reserved)된다. 해당 필드의 의미는 설정 가능한 PLS2STAT에서 AUX_STREAM_TYPE의 값에 의존한다.
CRC_32: 전체 PLS2에 적용되는 32비트 에러 검출 코드.
도 15는 본 발명의 일 실시예에 따른 프레임의 로지컬(logical) 구조를 나타낸다.
전술한 바와 같이, PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 더미 셀은 프레임에서 OFDM 심볼의 액티브(active) 캐리어에 매핑된다. PLS1 및 PLS2는 처음에 하나 이상의 FSS에 매핑된다. 그 후, EAC가 존재한다면 EAC 셀은 바로 뒤따르는 PLS 필드에 매핑된다. 다음에 FIC가 존재한다면 FIC 셀이 매핑된다. 데이터 파이프는 PLS 다음에 매핑되거나, EAC 또는 FIC가 존재하는 경우, EAC 또는 FIC 이후에 매핑된다. 타입 1 데이터 파이프가 처음에 매핑되고, 타입 2 데이터 파이프가 다음에 매핑된다. 데이터 파이프의 타입의 구체적인 내용은 후술한다. 일부 경우, 데이터 파이프는 EAS에 대한 일부 특수 데이터 또는 서비스 시그널링 데이터를 전달할 수 있다. 보조 스트림 또는 스트림은 존재한다면 데이터 파이프를 다음에 매핑되고 여기에는 차례로 더미 셀이 뒤따른다. 전술한 순서, 즉, PLS, EAC, FIC, 데이터 파이프, 보조 스트림, 및 더미 셀의 순서로 모두 함께 매핑하면 프레임에서 셀 용량을 정확히 채운다.
도 16은 본 발명의 일 실시예에 따른 PLS 매핑을 나타낸다.
PLS 셀은 FSS의 액티브(active) 캐리어에 매핑된다. PLS가 차지하는 셀의 수에 따라, 하나 이상의 심볼이 FSS로 지정되고, FSS의 수 NFSS는 PLS1에서의 NUM_FSS에 의해 시그널링된다. FSS는 PLS 셀을 전달하는 특수한 심볼이다. 경고성 및 지연 시간(latency)은 PLS에서 중대한 사안이므로, FSS는 높은 파일럿 밀도를 가지고 있어 고속 동기화 및 FSS 내에서의 주파수만의 인터폴레이션(interpoloation, 보간)을 가능하게 한다.
PLS 셀은 도 16의 예에 나타낸 바와 같이 하향식으로 FSS의 액티브(active) 캐리어에 매핑된다. PLS1 셀은 처음에 첫 FSS의 첫 셀부터 셀 인덱스의 오름차순으로 매핑된다. PLS2 셀은 PLS1의 마지막 셀 직후에 뒤따르고, 매핑은 첫 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 PLS 셀의 총 수가 하나의 FSS의 액티브(active) 캐리어의 수를 초과하면, 매핑은 다음 FSS로 진행되고 첫 FSS와 완전히 동일한 방식으로 계속된다.
PLS 매핑이 완료된 후, 데이터 파이프가 다음에 전달된다. EAC, FIC 또는 둘 다 현 프레임에 존재하면, EAC 및 FIC는PLS와 노멀 데이터 파이프 사이에 배치된다.
도 17은 본 발명의 일 실시예에 따른 EAC 매핑을 나타낸다.
EAC는 EAS 메시지를 전달하는 전용 채널이고 EAS에 대한 데이터 파이프에 연결된다. EAS 지원은 제공되지만, EAC 자체는 모든 프레임에 존재할 수도 있고 존재하지 않을 수도 있다. EAC가 존재하는 경우, EAC는 PLS2 셀의 직후에 매핑된다. PLS 셀을 제외하고 FIC, 데이터 파이프, 보조 스트림 또는 더미 셀 중 어느 것도 EAC 앞에 위치하지 않는다. EAC 셀의 매핑 절차는 PLS와 완전히 동일하다.
EAC 셀은 도 17의 예에 나타낸 바와 같이 PLS2의 다음 셀부터 셀 인덱스의 오름차순으로 매핑된다. EAS 메시지 크기에 따라, 도 17에 나타낸 바와 같이 EAC 셀은 적은 심볼을 차지할 수 있다.
EAC 셀은 PLS2의 마지막 셀 직후에 뒤따르고, 매핑은 마지막 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 EAC 셀의 총 수가 마지막 FSS의 남아 있는 액티브(active) 캐리어의 수를 초과하면, EAC 매핑은 다음 심볼로 진행되며, FSS와 완전히 동일한 방식으로 계속된다. 이 경우 EAC의 매핑이 이루어지는 다음 심볼은 노멀 데이터 심볼이고, 이는 FSS보다 더 많은 액티브(active) 캐리어를 갖는다.
EAC 매핑이 완료된 후, 존재한다면 FIC가 다음에 전달된다. FIC가 전송되지 않으면(PLS2 필드에서 시그널링으로), 데이터 파이프가 EAC의 마지막 셀 직후에 뒤따른다.
도 18은 본 발명의 일 실시예에 따른 FIC 매핑을 나타낸다.
(a)는 EAC 없이 FIC 셀의 매핑의 예를 나타내고, (b)는 EAC와 함께 FIC 셀의 매핑의 예를 나타낸다.
FIC는 고속 서비스 획득 및 채널 스캔을 가능하게 하기 위해 계층간 정보(crosslayer information)를 전달하는 전용 채널이다. 해당 정보는 주로 데이터 파이프 사이의 채널 바인딩 (channel binding) 정보 및 각 방송사의 서비스를 포함한다. 고속 스캔을 위해, 수신기는 FIC를 디코딩하고 방송사 ID, 서비스 수, BASE_DP_ID와 같은 정보를 획득할 수 있다. 고속 서비스 획득을 위해, FIC뿐만 아니라 베이스 데이터 파이프도 BASE_DP_ID를 이용해서 디코딩 될 수 있다. 베이스 데이터 파이프가 전송하는 콘텐트를 제외하고, 베이스 데이터 파이프는 노멀 데이터 파이프와 정확히 동일한 방식으로 인코딩되어 프레임에 매핑된다. 따라서, 베이스 데이터 파이프에 대한 추가 설명이 필요하지 않다. FIC 데이터가 생성되어 관리 계층에서 소비된다. FIC 데이터의 콘텐트는 관리 계층 사양에 설명된 바와 같다.
FIC 데이터는 선택적이고, FIC의 사용은 PLS2의 스태틱(static, 정적)인 부분에서 FIC_FLAG 파라미터에 의해 시그널링 된다. FIC가 사용되면, FIC_FLAG는 1로 설정되고, FIC에 대한 시그널링 필드는 PLS2의 스태틱(static, 정적)인 부분에서 정의된다. 해당 필드에서 시그널링되는 것은 FIC_VERSION이고, FIC_LENGTH_BYTE. FIC는 PLS2와 동일한 변조, 코딩, 타임 인터리빙 파라미터를 사용한다. FIC는 PLS2_MOD 및 PLS2_FEC와 같은 동일한 시그널링 파라미터를 공유한다. FIC 데이터는 존재한다면 PLS2 후에 매핑되거나, EAC가 존재하는 경우 EAC 직후에 매핑된다. 노멀 데이터 파이프, 보조 스트림, 또는 더미 셀 중 어느 것도 FIC 앞에 위치하지 않는다. FIC 셀을 매핑하는 방법은 EAC와 완전히 동일하고, 이는 다시 PLS와 동일하다.
PLS 후의 EAC가 존재하지 않는 경우, FIC 셀은 (a)의 예에 나타낸 바와 같이 PLS2의 다음 셀부터 셀 인덱스의 오름차순으로 매핑된다. FIC 데이터 사이즈에 따라, (b)에 나타낸 바와 같이, FIC 셀은 수 개의 심볼에 대해서 매핑된다.
FIC 셀은 PLS2의 마지막 셀 직후에 뒤따르고, 매핑은 마지막 FSS의 마지막 셀 인덱스까지 아래방향으로 계속된다. 필요한 FIC 셀의 총 수가 마지막 FSS의 남아 있는 액티브(active) 캐리어의 수를 초과하면, 나머지 FIC 셀의 매핑은 다음 심볼로 진행되며 이는 FSS와 완전히 동일한 방식으로 계속된다. 이 경우, FIC가 매핑되는 다음 심볼은 노멀 데이터 심볼이며, 이는 FSS보다 더 많은 액티브(active) 캐리어를 갖는다.
EAS 메시지가 현 프레임에서 전송되면, EAC는 FIC 보다 먼저 매핑되고 (b)에 나타낸 바와 같이 EAC의 다음 셀부터 FIC 셀은 셀 인덱스의 오름차순으로 매핑된다.
FIC 매핑이 완료된 후, 하나 이상의 데이터 파이프가 매핑되고, 이후 존재한다면 보조 스트림, 더미 셀이 뒤따른다.
도 19는 본 발명의 일 실시예에 따른 FEC 구조를 나타낸다.
도 19는 비트 인터리빙 전의 본 발명의 일 실시예에 따른 FEC 구조를 나타낸다. 전술한 바와 같이, 데이터 FEC 인코더는 외부 코딩(BCH) 및 내부 코딩(LDPC)을 이용하여 FECBLOCK 절차를 생성하기 위해 입력 BBF에 FEC 인코딩을 실행할 수 있다. 도시된 FEC 구조는 FECBLOCK에 해당한다. 또한, FECBLOCK 및 FEC 구조는 LDPC 코드워드의 길이에 해당하는 동일한 값을 갖는다.
도 19에 도시된 바와 같이, BCH 인코딩이 각각의 BBF(Kbch 비트)에 적용된 후, LDPC 인코딩이 BCH 인코딩된 BBF(Kldpc 비트 = Nbch 비트)에 적용된다.
Nldpc의 값은 64800 비트 (롱 FECBLOCK) 또는 16200 비트 (쇼트 FECBLOCK)이다.
아래의 표 28 및 표 29는 롱 FECBLOCK 및 쇼트 FECBLOCK 각각에 대한 FEC 인코딩 파라미터를 나타낸다.
Figure 112018009377919-pat00029
Figure 112018009377919-pat00030
BCH 인코딩 및 LDPC 인코딩의 구체적인 동작은 다음과 같다.
12에러 정정 BCH 코드가 BBF의 외부 인코딩에 사용된다. 쇼트 FECBLOCK 및 롱 FECBLOCK에 대한 BBF 생성 다항식은 모든 다항식을 곱함으로써 얻어진다.
LDPC 코드는 외부 BCH 인코딩의 출력을 인코딩하는 데 사용된다. 완성된 Bldpc (FECBLOCK)를 생성하기 위해, Pldpc (패리티 비트)가 각각의 Ildpc (BCH 인코딩된 BBF)로부터 조직적으로 인코딩되고, Ildpc에 첨부된다. 완성된 Bldpc (FECBLOCK)는 다음의 수학식으로 표현된다.
Figure 112018009377919-pat00031
롱 FECBLOCK 및 쇼트 FECBLOCK에 대한 파라미터는 위의 표 28 및 29에 각각 주어진다.
롱 FECBLOCK에 대해 Nldpc Kldpc 패리티 비트를 계산하는 구체적인 절차는 다음과 같다.
1) 패리티 비트 초기화
Figure 112018009377919-pat00032
2) 패리티 체크 매트릭스의 어드레스의 첫 번째 행에서 특정된 패리티 비트 어드레스에서 첫 번째 정보 비트 i0 누산(accumulate). 패리티 체크 매트릭스의 어드레스의 상세한 내용은 후술한다. 예를 들면, 비율 13/15에 대해,
Figure 112018009377919-pat00033
3) 다음 359개의 정보 비트 is, s=1, 2, …, 359에 대해, 다음의 수학식을 이용하여 패리티 비트 어드레스에서 is 누산(accumulate).
Figure 112018009377919-pat00034
여기서, x는 첫 번째 비트 i0에 해당하는 패리티 비트 누산기의 어드레스를 나타내고, Qldpc는 패리티 체크 매트릭스의 어드레서에서 특정된 코드 레이트(code rate) 의존 상수이다. 상기 예인, 비율 13/15에 대한, 따라서 정보 비트 i1에 대한 Qldpc = 24에 계속해서, 다음 동작이 실행된다.
Figure 112018009377919-pat00035
4) 361번째 정보 비트 i360에 대해, 패리티 비트 누산기의 어드레스는 패리티 체크 매트릭스의 어드레스의 두 번째 행에 주어진다. 마찬가지 방식으로, 다음 359개의 정보 비트 is, s= 361, 362, …, 719에 대한 패리티 비트 누산기의 어드레스는 수학식 6을 이용하여 얻어진다. 여기서, x는 정보 비트 i360에 해당하는 패리티 비트 누산기의 어드레스, 즉 패리티 체크 매트릭스의 두 번째 행의 엔트리를 나타낸다.
5) 마찬가지 방식으로, 360개의 새로운 정보 비트의 모든 그룹에 대해, 패리티 체크 매트릭스의 어드레스로부터의 새로운 행은 패리티 비트 누산기의 어드레스를 구하는 데 사용된다.
모든 정보 비트가 이용된 후, 최종 패리티 비트가 다음과 같이 얻어진다.
6) i=1로 시작해서 다음 동작을 순차적으로 실행
Figure 112018009377919-pat00036
여기서 pi, i=0,1,...Nldpc Kldpc 1의 최종 콘텐트는 패리티 비트 pi와 동일하다.
Figure 112018009377919-pat00037
표 30을 표 31로 대체하고, 롱 FECBLOCK에 대한 패리티 체크 매트릭스의 어드레스를 쇼트 FECBLOCK에 대한 패리티 체크 매트릭스의 어드레스로 대체하는 것을 제외하고, 쇼트 FECBLOCK에 대한 해당 LDPC 인코딩 절차는 롱 FECBLOCK에 대한 t LDPC 인코딩 절차에 따른다.
Figure 112018009377919-pat00038
도 20은 본 발명의 일 실시예에 따른 타임 인터리빙을 나타낸다.
(a) 내지 (c)는 타임 인터리빙 모드의 예를 나타낸다.
타임 인터리버는 데이터 파이프 레벨에서 동작한다. 타임 인터리빙의 파라미터는 각각의 데이터 파이프에 대해 다르게 설정될 수 있다.
PLS2STAT 데이터의 일부에 나타나는 다음의 파라미터는 타임 인터리빙을 구성한다.
DP_TI_TYPE (허용된 값: 0 또는 1): 타임 인터리빙 모드를 나타낸다. 0은 타임 인터리빙 그룹당 다수의 타임 인터리빙 블록(하나 이상의 타임 인터리빙 블록)을 갖는 모드를 나타낸다. 이 경우, 하나의 타임 인터리빙 그룹은 하나의 프레임에 (프레임간 인터리빙 없이) 직접 매핑된다. 1은 타임 인터리빙 그룹당 하나의 타임 인터리빙 블록만을 갖는 모드를 나타낸다. 이 경우, 타임 인터리빙 블록은 하나 이상의 프레임에 걸쳐 확산된다(프레임간 인터리빙).
DP_TI_LENGTH: DP_TI_TYPE = '0'이면, 해당 파라미터는 타임 인터리빙 그룹당 타임 인터리빙 블록의 수 NTI이다. DP_TI_TYPE = '1'인 경우, 해당 파라미터는 하나의 타임 인터리빙 그룹으로부터 확산되는 프레임의 수 PI이다.
DP_NUM_BLOCK_MAX (허용된 값: 0 내지 1023): 타임 인터리빙 그룹당 XFECBLOCK의 최대 수를 나타낸다.
DP_FRAME_INTERVAL (허용된 값: 1, 2, 4, 8): 주어진 피지컬 프로파일의 동일한 데이터 파이프를 전달하는 두 개의 순차적인 프레임 사이의 프레임의 수 IJUMP를 나타낸다.
DP_TI_BYPASS (허용된 값: 0 또는 1): 타임 인터리빙이 데이터 프레임에 이용되지 않으면, 해당 파라미터는 1로 설정된다. 타임 인터리빙이 이용되면, 0으로 설정된다.
추가로, PLS2DYN 데이터로부터의 파라미터 DP_NUM_BLOCK은 데이터 그룹의 하나의 타임 인터리빙 그룹에 의해 전달되는 XFECBLOCK의 수를 나타낸다.
타임 인터리빙이 데이터 프레임에 이용되지 않으면, 다음의 타임 인터리빙 그룹, 타임 인터리빙 동작, 타임 인터리빙 모드는 고려되지 않는다. 그러나 스케줄러부터의 다이나믹(dynamic, 동적) 구성 정보를 위한 딜레이 컴펜세이션(delay compensation, 지연보상) 블록은 여전히 필요하다. 각각의 데이터 파이프에서, SSD/MIMO 인코딩으로부터 수신한 XFECBLOCK은 타임 인터리빙 그룹으로 그루핑된다. 즉, 각각의 타임 인터리빙 그룹은 정수 개의 XFECBLOCK의 집합이고, 다이나믹(dynamic, 동적)으로 변화하는 수의 XFECBLOCK을 포함할 것이다. 인덱스 n의 타임 인터리빙 그룹에 있는 XFECBLOCK의 수는 NxBLOCK _Group(n)로 나타내고, PLS2DYN 데이터에서 DP_NUM_BLOCK으로 시그널링된다. 이때, NxBLOCK _Group(n)은 최소값 0에서 가장 큰 값이 1023인 최대값 NxBLOCK _Group_MAX (DP_NUM_BLOCK_MAX에 해당)까지 변화할 수 있다.
각각의 타임 인터리빙 그룹은 하나의 프레임에 직접 매핑되거나 PI개의 프레임에 걸쳐 확산된다. 또한 각각의 타임 인터리빙 그룹은 하나 이상(NTI개)의 타임 인터리빙 블록으로 분리된다. 여기서 각각의 타임 인터리빙 블록은 타임 인터리버 메모리의 하나의 사용에 해당한다. 타임 인터리빙 그룹 내의 타임 인터리빙 블록은 약간의 다른 수의 XFECBLOCK을 포함할 수 있다. 타임 인터리빙 그룹이 다수의 타임 인터리빙 블록으로 분리되면, 타임 인터리빙 그룹은 하나의 프레임에만 직접 매핑된다. 아래의 표 32에 나타낸 바와 같이, 타임 인터리빙에는 세 가지 옵션이 있다(타임 인터리빙을 생략하는 추가 옵션 제외).
Figure 112018009377919-pat00039
일반적으로, 타임 인터리버는 프레임 생성 과정 이전에 데이터 파이프 데이터에 대한 버퍼로도 작용할 것이다. 이는 각각의 데이터 파이프에 대해 2개의 메모리 뱅크로 달성된다. 첫 번째 타임 인터리빙 블록은 첫 번째 뱅크에 기입된다. 첫 번째 뱅크에서 판독되는 동안 두 번째 타임 인터리빙 블록이 두 번째 뱅크에 기입된다.
타임 인터리빙은 트위스트된 행열 블록 인터리버이다. n번째 타임 인터리빙 그룹의 s번째 타임 인터리빙 블록에 대해, 열의 수 Nc 가 NxBLOCK _ TI(n,s) 와 동일한 반면, 타임 인터리빙 메모리의 행의 수 Nr 는 셀의 수 Ncells 와 동일하다 (즉, Nr = Ncells).
도 21은 본 발명의 일 실시예에 따른 트위스트된 행열 블록 인터리버의 기본 동작을 나타낸다.
도 21(a)는 타임 인터리버에서 기입 동작을 나타내고, 도 21(b)는 타임 인터리버에서 판독 동작을 나타낸다. (a)에 나타낸 바와 같이, 첫 번째 XFECBLOCK은 타임 인터리빙 메모리의 첫 번째 열에 열 방향으로 기입되고, 두 번째 XFECBLOCK은 다음 열에 기입되고, 이러한 동작이 이어진다. 그리고 인터리빙 어레이에서, 셀이 대각선 방향으로 판독된다. (b)에 나타낸 바와 같이 첫 번째 행으로부터 (가장 왼쪽 열을 시작으로 행을 따라 오른쪽으로) 마지막 행까지 대각선 방향 판독이 진행되는 동안,
Figure 112018009377919-pat00040
개의 셀이 판독된다. 구체적으로,
Figure 112018009377919-pat00041
이 순차적으로 판독될 타임 인터리빙 메모리 셀 위치라고 가정하면, 이러한 인터리빙 어레이에서의 판독 동작은 아래 식에서와 같이 행 인덱스
Figure 112018009377919-pat00042
, 열 인덱스
Figure 112018009377919-pat00043
, 관련된 트위스트 파라미터
Figure 112018009377919-pat00044
를 산출함으로써 실행된다.
Figure 112018009377919-pat00045
여기서,
Figure 112018009377919-pat00046
Figure 112018009377919-pat00047
에 상관없이 대각선 방향 판독 과정에 대한 공통 시프트 값이고, 시프트 값은 아래 식에서와 같이 PLS2STAT에서 주어진
Figure 112018009377919-pat00048
에 의해 결정된다.
Figure 112018009377919-pat00049
결과적으로, 판독될 셀 위치는 좌표
Figure 112018009377919-pat00050
에 의해 산출된다.
도 22는 본 발명의 다른 일 실시예에 따른 트위스트된 행열 블록 인터리버의 동작을 나타낸다.
더 구체적으로, 도 22는
Figure 112018009377919-pat00051
,
Figure 112018009377919-pat00052
,
Figure 112018009377919-pat00053
일 때 가상 XFECBLOCK을 포함하는 각각의 타임 인터리빙 그룹에 대한 타임 인터리빙 메모리에서 인터리빙 어레이를 나타낸다.
변수
Figure 112018009377919-pat00054
Figure 112018009377919-pat00055
보다 작거나 같을 것이다. 따라서,
Figure 112018009377919-pat00056
에 상관없이 수신기 측에서 단일 메모리 디인터리빙을 달성하기 위해, 트위스트된 행열 블록 인터리버용 인터리빙 어레이는 가상 XFECBLOCK을 타임 인터리빙 메모리에 삽입함으로써
Figure 112018009377919-pat00057
의 크기로 설정되고, 판독 과정은 다음 식과 같이 이루어진다.
Figure 112018009377919-pat00058
타임 인터리빙 그룹의 수는 3으로 설정된다. 타임 인터리버의 옵션은 DP_TI_TYPE='0', DP_FRAME_INTERVAL='1', DP_TI_LENGTH='1', 즉 NTI=1, IJUMP=1, PI=1에 의해 PLS2STAT 데이터에서 시그널링된다. 각각 Ncells = 30인 XFECBLOCK의 타임 인터리빙 그룹당 수는 각각의 NxBLOCK_TI(0,0) = 3, NxBLOCK_TI(1,0) = 6, NxBLOCK_TI(2,0) = 5에 의해 PLS2DYN 데이터에서 시그널링된다. XFECBLOCK의 최대 수는 NxBLOCK_Group_MAX에 의해 PLS2STAT 데이터에서 시그널링 되고, 이는
Figure 112018009377919-pat00059
로 이어진다.
도 23은 본 발명의 일 실시예에 따른 트위스트된 행열 블록 인터리버의 대각선 방향 판독 패턴을 나타낸다.
더 구체적으로, 도 23은 파라미터
Figure 112018009377919-pat00060
및 Sshift=(71)/2=3을 갖는 각각의 인터리빙 어레이로부터의 대각선 방향 판독 패턴을 나타낸다. 이때 위에 유사 코드로 나타낸 판독 과정에서,
Figure 112018009377919-pat00061
이면, Vi의 값이 생략되고, Vi의 다음 계산값이 사용된다.
도 24는 본 발명의 일 실시예에 따른 각각의 인터리빙 어레이로부터의 인터리빙된 XFECBLOCK을 나타낸다.
도 24는 파라미터
Figure 112018009377919-pat00062
및 Sshift=3을 갖는 각각의 인터리빙 어레이로부터 인터리빙된 XFECBLOCK을 나타낸다.
도 25는 본 발명의 일 실시예에 따른 메인 피지컬 디바이스 (Main Physical Device) 및 컴페니언 피지컬 디바이스 (Companion Physical Device)의 구성을 나타낸 도면이다.
본 발명의 일 실시예는 지상파 방송 또는 모바일 방송 환경에서 서비스 가이드 (service guide)를 제공할 수 있다. 또한, 본 발명의 일 실시예는 지상파 방송망과 인터넷망의 연동을 기반으로 하는 차세대 하이브리드 방송 환경에서 가능할 수 있는 서비스에 대한 서비스 가이드를 제공할 수 있다.
본 발명의 일 실시예는 차세대 하이브리드 방송 시스템에서 제공할 수 있는 다양한 서비스와 이를 구성하는 content 및/또는 component 요소들을 사용자에게 알려줄 수 있다. 이를 통하여, 사용자가 해당 서비스를 확인, 선택 및 감상하는데 편의를 제공할 수 있다.
본 발명의 일 실시예는 하나의 서비스와 이를 구성하는 다양한 content 및/또는 component 요소들을 구조화하고 상호간 연계 (reference)시켜줄 수 있다. 이를 통하여, 방송 수신기는 해당 서비스를 용이하게 구성하고 제공할 수 있고, 사용자로 하여금 해당 서비스에 대한 쉽게 파악할 수 있도록 할 수 있다.
본 발명의 일 실시예는 하나의 서비스와 이를 구성하는 다양한 content 및/또는 component 요소들을 연계시키는 reference 구조를 확장함으로써 방송 수신기 및/또는 사용자로 하여금 하나의 서비스를 구성하는 content 및/또는 component 요소들을 검색하는데 소요되는 resource 및/또느 시간을 절약하도록 할 수 있다.
이 도면은 본 발명의 일 실시예에 따른 메인 피지컬 디바이스 및 컴페니언 피지컬 디바이스의 전체적인 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 메인 피지컬 디바이스 (main physical device, L25010)은 interactive service를 위한 디바이스 중 하나로서, 주로 컴페니언 피지컬 디바이스 (companion physical device, L25020)에 의한 제어 대상이 되는 기기를 나타낼 수 있다. 메인 피지컬 디바이스는 메인 디바이스, 메인 수신 장치, 메인 수신기, 메인 디스플레이, 메인 스크린 등으로 명명될 수 있다.
본 발명의 일 실시예에 따른 메인 피지컬 디바이스 (L25010)는 broadcast interface (L25030), network interface (L25040), memory unit (L25050), control unit (L25060), display unit (L25070), multimedia module (L25080), storage (L25090), power supply (L25100) 및/또는 user input interface (L25110)를 포함할 수 있다.
broadcast interface (L25030)는 broadcaster와 디바이스 사이에 AV stream, service guide, notification 등의 message 및/또는 데이터 전송을 가능하게 해주는 물리적 장치를 나타낼 수 있다. broadcast interface는 broadcaster로부터 방송 신호, 시그널링 정보, 데이터 등을 수신할 수 있다.
network interface (L25040)는 디바이스들 (예를 들어, 메인 피지컬 디바이스와 컴페니언 피지컬 디바이스) 사이에 command, request, action, response 등의 message, advertise 및/또는 데이터 전송을 가능하게 해주는 물리적 장치를 나타낼 수 있다. network interface는 internet service provider로부터 방송 서비스, 방송 컨텐츠, 시그널링 정보, 어플리케이션, 데이터 등을 수신할 수 있다.
memory unit (L25050)는 다양한 종류의 디바이스에서 구현되는 선택적인 장치로서, 다양한 종류의 데이터를 임시적으로 저장할 수 있는 휘발성 성질의 물리적 장치를 나타낼 수 있다.
control unit (L25060)은 source device 및/또는 sink device의 전반적인 동작을 제어하는 장치로서 소프트웨어 또는 하드웨어일 수 있다. 여기서, source device는 message 및/또는 데이터를 전송하는 디바이스를 나타낼 수 있고, sink device는 message 및/또는 데이터를 수신하는 디바이스를 나타낼 수 있다. 따라서, 본 발명의 일 실시예에 따른 메인 피지컬 디바이스 및 컴페니언 피지컬 디바이스는 source device 또는 sink device에 해당할 수 있다.
display unit (L25070)은 network interface를 통해 수신된 데이터 또는 storage에 저장되어 있는 데이터를 화면상에 디스플레이할 수 있다. 이 때, display unit은 control unit의 제어에 의해 동작할 수 있다.
multimedia module (L25080)은 다양한 종류의 멀티미디어를 재생할 수 있다. multimedia module은 control unit에 포함될 수 있고, control unit과 별개로 존재할 수 있다.
storage (L25090)는 다양한 종류의 데이터를 저장할 수 있는 비휘발성 성질의 물리적 장치를 나타낼 수 있다. 예를 들어, SD 카드가 storage에 해당할 수 있다.
power supply (L25100)는 control unit의 제어에 의하여, 외부의 전원 및/또는 내부의 전원을 인가 받아 다른 구성 요소들의 동작에 필요한 전원을 공급해주는 장치를 나타낼 수 있다.
user input interface (L25110)는 user로부터 명령 등의 입력을 수신할 수 있는 장치를 나타낼 수 있다.
본 발명의 일 실시예에 따른 컴페니언 피지컬 디바이스 (companion physical device, L25020)은 interactive service를 위한 디바이스 중 하나로서, 메인 디바이스를 제어하는 기기를 나타낼 수 있다. 컴페니언 피지컬 디바이스는 주로 사용자로부터 직접 input을 입력받을 수 있다. 컴페니언 피지컬 디바이스는 컴페니언 디바이스, 세컨드 디바이스, 부가 디바이스, 보조 디바이스, 컴페니언 수신 장치, 컴페니언 수신기, 컴페니언 디스플레이, 세컨드 스크린 등으로 명명될 수 있다.
본 발명의 일 실시예에 따른 컴페니언 피지컬 디바이스 (L25020)는 network interface, memory unit, control unit, display unit, multimedia module, storage, power supply 및/또는 user input interface 를 포함할 수 있다.
본 발명의 일 실시예에 따른 컴페니언 피지컬 디바이스를 구성하는 구성 요소들 중에 메인 디바이스를 구성하는 구성 요소와 동일한 명칭의 구성요소는 전술한 메인 디바이스를 구성하는 구성 요소와 동일한 기능을 할 수 있다.
도 26은 본 발명의 일 실시예에 따른 하이브리드 방송 서비스를 지원하기 위한 프로토콜 스택을 나타낸 도면이다.
Physical layer는 지상파 방송 신호를 수신하고 이를 적절한 형태로 변환할 수 있다.
IP (Internet Protocol) Encapsulation은 Physical layer로부터 획득된 정보를 이용하여 IP 데이터그램을 획득할 수 있다. 또한, 획득된 IP 데이터그램을 특정 프레임 (예를 들어, RS Frame, GSE 등)으로 변환할 수 있다.
MPEG2 TS Encapsulation은 Physical layer로부터 획득된 정보를 이용하여 MPEG2 TS을 획득할 수 있다. 또한, 획득된 MPEG2 TS 데이터그램을 특정 프레임 (예를 들어, RS Frame, GSE 등)으로 변환할 수 있다.
FIC (fast information channel)는 서비스 및/또는 컨텐츠에 접근할 수 있도록 하기 위한 정보 (예를 들어, 서비스 ID와 프레임 간의 매핑 정보 등)를 전달할 수 있다.
Signaling은 서비스 및/또는 컨텐츠의 효과적인 획득을 지원하기 위한 시그널링 정보를 포함할 수 있다. 시그널링 정보는 바이너리 및/또는 XML 형태로 표현될 수 있고 지상파 방송망 및/또는 broadband를 통하여 전송될 수 있다.
실시간 방송 A/V (Audio/Video) 컨텐츠 및 Data는 ISO Base Media File Format (ISOBMFF) 등으로 표현 될 수 있고 지상파 방송망 및/또는 브로드밴드를 통하여 실시간으로 전송될 수 있다. 비실시간 컨테츠는 IP/UDP/FLUTE를 기반으로 전송될 수 있다. 그리고, 실시간 방송 A/V (Audio/Video) 컨텐츠, Data 및/또는 시그널링 정보는 DASH 등을 이용하여 인터넷망을 통해 실시간으로 전송될 수 있다. 이 때, 실시간 방송 A/V (Audio/Video) 컨텐츠, Data 및/또는 시그널링 정보는 요청에 의해 전송될 수 있고, 아니면 실시간 스트리밍에 의해 전송될 수 있다.
본 발명의 일 실시예는 상술한 프로토콜 스택을 거쳐 전달받은 데이터를 조합하여 Interactive 서비스, second screen 서비스 등의 다양한 enhanced service를 시청자에게 제공할 수 있다.
도 27은 본 발명의 일 실시예에 따른 Service Type element의 XML schema를 나타낸 도면이다.
이 도면에 대한 설명에 앞서, 본 발명의 일 실시예에 따른 서비스 가이드 (service guide), 서비스 프래그먼트 (service fragment) 및 서비스 타입 엘레먼트 (ServiceType element)의 정의 및 구성에 대해 설명하면 아래와 같다.
서비스 가이드는 어나운스먼트 세션 내에서 전송되는 서비스 가이드 딜리버리 디스크립터가 단말로 전달되는 방송 분배 채널을 나타낼 수 있다. (The service guide may indicate a broadcast distribution channel over which Service Guide Delivery Descriptors carried within announcement sessions, can be delivered to the terminal.)
서비스 가이드는 방송 채널 및/또는 인터렉션 채널을 통해 전송되는 모바일 방송 서비스처럼, 서비스 제공자 및/또는 컨텐츠 제공자가 그들이 이용가능하도록 만든 서비스 및/또는 컨텐츠를 설명할 수 있도록 할 수 있고, 정기구독 또는 구매를 제안할 수 있도록 할 수 있다. 또한, 서비스 가이드는 서비스에 접근하는 방법을 설명하도록 할 수 있다. 사용자의 관점에서, 서비스 가이드는 현재 이용 가능한 또는 예정된 서비스 및/또는 컨텐츠를 찾기 위한 시작점으로 여겨질 수 있고, 사용자의 선호도를 기초로 하여 서비스 및/또는 컨텐츠를 필터링하기 위한 시작점으로 여겨질 수 있다. 나아가, 서비스 가이드는 인터렉티브 서비스로의 시작점을 제공할 수 있다. (Service Guide may enable the service and content providers to describe the services and content they make available, or offer for subscription or purchase, as Mobile Broadcast services either over Broadcast Channel or over Interaction Channel. It may also enable the way to describe how to access the services. From the user perspective the Service Guide can be seen as an entry point to discover the currently available or scheduled services and content and to filter those based on their preferences. Furthermore, the Service Guide may provide the entry point to interactive services.)
서비스 가이드는 서비스 가이드 프래그먼트 관점에서, service, schedule, content, related purchase data, provisioning data, acess data, interactivity data 등의 데이터 모델을 포함할 수 있다. (The Service Guide may include data model that models the services, schedules, content, related purchase and provisioning data, access and interactivity data and so on in terms of Service Guide fragments.)
본 발명의 일 실시예는 서비스 가이드 어나운스먼트 채널을 통해 전송되는 서비스 가이드 딜리버리 디스크립터를 통하여, 서비스 가이드 프레그먼트의 선언 및/또는 서비스 가이드의 최초 발견을 위한 방법을 제공할 수 있다. 방송 채널 및/또는 인터렉티브 채널을 통하여, 서비스 가이드 딜리버리 채널을 통한 서비스 가이드 프래그먼트 전송을 위한 전송 방법들이 제공될 수 있다. 서비스 가이드 데이터를 관리하기 위하여, 본 발명의 일 실시예는 업데이트 및/또는 메니지먼트 방법들을 제공할 수 있다. 또한, 본 발명의 일 실시예는 서비스 가이드를 위한 관련 백앤드 인터페이스를 제공할 수 있다. (An embodiment of the invention may provide methods for initial discovery of Service Guide and the declaration of Service Guide fragments through Service Guide Delivery Descriptors that are sent over Service Guide Announcement Channel. An embodiment of the invention may provide delivery methods specified for Service Guide fragment delivery over Service Guide Delivery Channel, both over the Broadcast Channel as well as over the Interactive Channel. To manage the Service Guide data, an embodiment of the invention may provide update and management methods. An embodiment of the invention may provide the relevant backend interfaces for Service Guide.)
서비스 프레그먼트는 aggregate levle에서, 방송 서비스를 구성하는 컨텐트 아이템들을 설명할 수 있다. (The 'Service' fragment may describe at an aggregate level the content items which comprise a broadcast service.)
서비스 프레그먼트는 서비스의 타입에 따라, 인터렉티브 부분 및/또는 방송 부분을 포함할 수 있다. (Depending on the type of the service, it may have interactive part(s), broadcastonly part(s), or both.)
서비스 프레그먼트는 컨텐트와 직접적으로 관련이 없지만 서비스와 기능적으로 관련이 있는 컴포넌트들 (예를 들어, 구매 정보, 정기 구독 정보 등)을 포함할 수 있다. (The service may include components not directly related to the content but to the functionality of the service such as purchasing or subscription information.)
본 발명의 일 실시예에 따르면, 서비스 가이드의 일 부분으로서, 서비스 프래그먼트는 다른 프래그먼트들에 의해 참조되는 중앙 허브를 형성할 수 있다. (As the part of the Service Guide, the 'Service' fragment may form a central hub referenced by the other fragments.)
본 발명의 일 실시예에 따르면, 서비스 프래그먼트를 비롯한 관련 프래그먼트들를 함께 이용하여, 단말은 어느 시점에서든지 해당 서비스와 관련된 상세 정보를 결정할 수 있다. 여기서, 상기 상세 정보는 사용자에게 친숙한 디스플레이 안에서 요약될 수 있다. 예를 들어, 요약된 상세 정보는 관련 컨텐츠가 무엇인지, 관련 컨텐츠가 언제, 어떻게 소비되었는지, 관련 컨텐츠가 얼마 인지를 나타낼 수 있다. (Together with the associated fragments the terminal may determine the details associated with the service at any point of time. These details may be summarized into a userfriendly display, for example, of what, how and when the associated content may be consumed and at what cost.)
본 발명의 일 실시예에 따른 서비스는 컨텐츠 아이템들의 그룹을 나타낼 수 있다. 즉, 서비스는 최종 유저에게 전달되는 논리적 그룹을 형성할 수 있다. 예를 들어, 몇몇의 TV 쇼들로 구성되는 TV 채널이 서비스에 해당할 수 있다. 서비스 프래그먼트는 모바일 방송 서비스를 기술하는 메타데이터를 포함할 수 있다. (A service may represent a bundle of content items, which forms a logical group to the enduser. An example would be a TV channel, composed of several TV shows. A 'Service' fragment contains the metadata describing the Mobile Broadcast service.)
ServiceType element는 해당 service fragment에서 기술하고 있는 서비스의 타입을 나타낼 수 있다. 나아가, 하나 이상의 타입이 혼합된 service types는 다수의 ServiceType 인스탄스들의 존재에 의해 표현될 수 있다. (The mixed service types may be indicated by the presence of multiple instances of ServiceType.) 이 엘레먼트는 서비스를 textual indicator, icon 또는 graphic represetation의 형태로 유저에게 렌더링하기 위하여, 단말에 의해 처리될 수 있다. (This element may be processed by the terminal strictly for rendering to the user for example as a textual indicator, an icon, or graphic representation for the service.)
본 발명의 일 실시예는 하이브리드 방송 시스템에서 사용하는 서비스 타입을 나타낼 수 있는 방법을 제공할 수 있다. 나아가, 본 발명의 일 실시예는 ServiceTypeRangeType 값에 하이브리드 방송 시스템에서 나타내야 하는 ServiceType value의 범위를 할당할 수 있다.
본 발명의 일 실시예에 따른 Service Type에 할당된 값은 다음과 같다. 서비스 타입 값이 0이면, Unspecified임을 나타낼 수 있고, 1이면 해당 서비스가 Basic TV임을 나타낼 수 있고, 2이면 해당 서비스가 Basic Radio임을 나타낼 수 있고, 3이면 해당 서비스가 Rights Issuer Service임을 나타낼 수 있고, 4이면 Cachecast임을 나타낼 수 있고, 5이면 File download services임을 나타낼 수 있고, 6이면 Software management services임을 나타낼 수 있고, 7이면 Notification임을 나타낼 수 있고, 8이면 Service Guide임을 나타낼 수 있고, 9이면 Terminal Provisioning services임을 나타낼 수 있고, 10이면 Auxiliary Data임을 나타낼 수 있고, 11이면 Streaming on demand임을 나타낼 수 있고, 12이면 File download on demand임을 나타낼 수 있고, 13이면 SmartCard Provisioning services임을 나타낼 수 있고, 14이면 Linear service임을 나타낼 수 있고, 15이면 Appbased service임을 나타낼 수 있고, 16이면 Companion Screen service임을 나타낼 수 있다. 상술한 값들 이외의 값들이 상술한 서비스 이외의 서비스를 나타내는 데 사용될 수 있다.
이 도면을 보면, 본 발명의 일 실시예에 따른 ServiceType element는 ServiceTypeRangeType이라는 타입을 가질 수 있다. 본 발명의 일 실시예에 따른 ServiceTypeRangeType은 ServiceTypeLRType, ServiceTypeOtherEnablersRangeType 및/또는 ServiceTypeProprietaryRangeType을 포함할 수 있다. 여기서, ServiceTypeLRType은 최소값으로 0을 갖고 최대값으로 13, 14, 15, 16 또는 그 이상의 값을 가질 수 있다.
도 28은 본 발명의 일 실시예에 따라 서비스 타입 값으로 14를 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Service fragment는 Home and Shopping이라는 이름을 갖고 ServiceType으로 14를 가질 수 있다. (L28010)
ServiceType 값 14는 Linear Service를 나타낼 수 있다. 이 경우, 본 발명의 일 실시예에 따른 수신 장치는 선택한 서비스의 타입이 Linear Service (value=14)인 경우 화면에 서비스 가이드의 스케쥴 정보가 포함되어 있음을 알 수 있다. 나아가, 본 발명의 일 실시예는 해당 서비스와 스케쥴 정보를 조합하여 사용자에게 방송 편성표와 같은 정보를 제공할 수 있다. (L28020) 또한, 서비스 타입을 Service fragment 내에서 시그널링을 하면 수신기는 시간 정보를 포함하는 서비스에 대해서만 상술한 스케쥴 정보를 조합하는 등의 작업을 수행하면 된다. 따라서, 본 발명의 일 실시예는 수신기의 성능을 향상 시킬 수 있다.
도 29는 본 발명의 일 실시예에 따라 서비스 타입 값으로 14 및 15를 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Service fragment는 MBC라는 이름을 갖고 ServiceType으로 14 및 15를 가질 수 있다. (L29010)
ServiceType 값 15는 Appbased service를 나타낼 수 있다. Appbased service 타입을 Service fragment 내에서 시그널링을 하면, 본 발명의 일 실시예에 따른 수신 장치는 해당 서비스에 Appbased Service가 포함되어 있음을 알 수 있다. (L29020) 따라서, 본 발명의 일 실시예는 Service fragment만 획득하더라도 ServiceType을 통하여 사용자에게 관련 App을 실행할 수 있음을 알려줄 수 있다. (L29030) 나아가, 이 도면에 도시된 바와 같이, MBC라는 서비스는 ServiceType 값 14도 포함하고 있으므로 해당 서비스가 Linear Service (value=14)인 경우의 본 발명의 효과를 똑같이 가질 수 있다. 이에 대한 설명은 전술하였다.
도 30은 본 발명의 일 실시예에 따라 서비스 타입 값으로 14 및 16을 갖는 서비스에 대한 xml schema 및 디스플레이 표시 예를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Service fragment는 MBC Companion Screen이라는 이름을 갖고 ServiceType으로 14 및 16을 가질 수 있다. (L30010)
ServiceType 값 16dms Companion Screen service를 나타낼 수 있다. Companion Screen service 타입을 Service fragment 내에서 시그널링을 하면, 본 발명의 일 실시예에 따른 수신 장치는 해당 서비스에 Companion Screen service가 포함되어 있음을 알 수 있다. (L30020) 따라서, 본 발명의 일 실시예는 Service fragment만 획득하더라도 ServiceType을 통하여 사용자에게 Companion Screen에서 제공되는 서비스가 있음을 알려줄 수 있다. (L30030) 나아가, 이 도면에 도시된 바와 같이, MBC Companion Screen이라는 서비스는 ServiceType 값 14도 포함하고 있으므로 해당 서비스가 Linear Service (value=14)인 경우의 본 발명의 효과를 똑같이 가질 수 있다. 이에 대한 설명은 전술하였다.
도 31은 본 발명의 일 실시예에 따른 Component fragment의 XML schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트 (Component fragment)는 컴포넌트가 참조하는 컨텐츠 또는 서비스의 일부분인 컴포넌트를 기술할 수 있다. (The 'Component' fragment describes a component that is a part of a service or a content that the component refers to.)
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트는 id 어트리뷰트, version 어트리뷰트, validFrom 어트리뷰트, validTo 어트리뷰트, ComponentType 엘레먼트, ComponentData 엘레먼트 및/또는 PrivateExt 엘레먼트를 포함할 수 있다.
id 어트리뷰트는 컴포넌트 프래그먼트의 ID를 나타낼 수 있다. 이 어트리뷰트의 값은 globally unique할 수 있다.
version 어트리뷰트는 컴포넌트 프래그먼트의 버전 정보를 나타탤 수 있다.
validFrom 어트리뷰트는 컴포넌트 프래그먼트가 유효한 처음 시점을 나타낼 수 있다.
validTo 어트리뷰트는 컴포넌트 프래그먼트가 유효한 마지막 시점을 나타낼 수 있다.
ComponentType 엘레먼트는 컴포넌트 프래그먼트가 기술하는 컨텐트의 타입을 나타낼 수 있다. 타입이 혼합된 경우에는 하나 이상의 ComponentType 엘레먼트를 사용하여 타입을 나타낼 수 있다.
ComponentData 엘레먼트는 컴포넌트 프래그먼트가 포함하는 컴포넌트 컨텐트 (Component Content)를 나타낼 수 있다. 이 엘레먼트는 비디오, 오디오 또는 CC (Closed Caption) 데이터를 나타낼 수 있다.
PrivateExt 엘레먼트는 사유적인 또는 어플리케이션에 한정된 확장을 위한 컨테이너를 나타낼 수 있다. (An element serving as a container for proprietary or applicationspecific extensions.)
도 32는 본 발명의 일 실시예에 따른 ComponentType 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트는 하이브리드 방송에서 보낼 수 있는 모든 ComponentType을 표현할 수 있다. 이를 위하여, 본 발명의 일 실시예는 타입의 범위를 정수값으로 표현할 수 있다.
본 발명의 일 실시예에 따르면, 모든 컴포넌트가 컴포넌트 데이터 (ComponentData)를 포함하고 있는 것은 아니므로 수신 장치는 컴포넌트 프래그먼트의 타입 값을 먼저 알아낸 뒤 컴포넌트 데이터의 정보를 알 수 있다.
본 발명의 일 실시예에 따른 각 컴포넌트들 사이의 상하 또는 종속 관계는 후술한다.
본 발명의 일 실시예에 따르면, ComponentType 엘레먼트의 타입을 나타내는 ComponentRangeType은 최소값으로 0을 최대값으로 13을 가질 수 있다.
이 도면에 도시된 바와 같이, ComponentType 엘레먼트의 값이 0이면, 정해지지 않은 컴포넌트 (Unspecified)를 나타낼 수 있고, 1이면 Continuous component를 나타낼 수 있고, 2이면 Elementary component를 나타낼 수 있고, 3이면 Composite component를 나타낼 수 있고, 4이면 PickOne component를 나타낼 수 있고, 5이면 Complex component를 나타낼 수 있고, 6이면 Presentable component를 나타낼 수 있고, 7이면 NRT File를 나타낼 수 있고, 8이면 NRT Content Item를 나타낼 수 있고, 9이면 Application를 나타낼 수 있고, 10이면 ATSC3.0 Application를 나타낼 수 있고, 11이면 On Demand component를, 12이면 Notification Stream을, 13이면 Appbased Enhancement를 14 내지 255이면 Reserved임을 나타낼 수 있다.
Continuous component는 하나의 연속하는 스트림에서 표현되는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 오디오, 비디오 또는 Closed Caption이 이에 해당할 수 있다.
Elementary component는 싱글 인코딩에 해당하는 Continuous component를 나타낼 수 있다. 즉, 별도의 인코더에 의해 인코딩되는 Continuous component를 나타낼 수 있다. 예를 들어, 사운드 시퀀스의 싱글 인코딩, 픽처 시퀀스의 싱글 인코딩 또는 싱글 closed caption 트랙이 이에 해당할 수 있다.
Composite component는 같은 Content type을 갖고, 같은 장면을 표현하고, 하나의 프레젠테이션을 만들기 위해 조합될 수 있는 Continuous component의 집합을 구성하는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 완전한 오디오를 제공하기 위해 혼합될 음악, 다이얼로그 또는 효과 음악이 이에 해당할 수 있다. 또한, 3D 영상을 제공하기 위해 조합될 좌영상 또는 우영상이 이에 해당할 수 있다.
PickOne component는 같은 Content type을 갖고, 같은 장면을 표현하고, 하나의 프레젠테이션을 만들기 위해 선택될 수 있는 Continuous component의 집합을 구성하는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 같은 사운드 시퀀스와 다른 비트레이트로 인코딩된 오디오 컴포넌트들의 집합, 같은 픽처 시퀀스와 다른 비트레이트로 인코딩된 비디오 컴포넌트들의 집합 또는 같은 다이얼로그를 위한 일반적인 closed caption 트랙 및 easy reader closed caption 트랙의 집합이 이에 해당할 수 있다.
Complex component는 Composite component 또는 PickOne component를 나타낼 수 있다.
Presentable component는 사용자에게 표시되는 Continuous component를 나타낼 수 있다. 이 컴포넌트는 Elementary component 또는 Complex component를 포함할 수 있다.
NRT File은 비실시간으로 전송되는 파일을 나타낼 수 있다.
NRT Content Item는 통합된 전체로 소비되어질 의도로 만들어진 하나 이상의 NRT 파일들의 집합을 나타낼 수 있다.
Application은 그 자체로 완전한 인헨스드 또는 인터렉티브 서비스를 구성하는 문서들의 집합을 나타낼 수 있다. 상기 문서들은 HTML, JavaScript, CSS, XML 및/또는 multimedia files을 포함할 수 있다. 이 Application은 이 application의 일부분이 아닌 다른 데이터에 접근할 수 있다. 이 Application은 NRT Content Item의 특별한 경우에 해당할 수 있다.
ATSC3.0 Application은 ATSC 3.0 Application Runtime Environment Specification를 따르는 Application을 나타낼 수 있다.
On Demand component는 on demand에 의하여 전송되는 컨텐트 컴포넌트를 나타낼 수 있다.
Notification Stream은 Linear Time Base 하에 어플리케이션의 액션들을 동기화하기 위한 notification을 전송할 수 있는 스트림을 나타낼 수 있다.
Appbased Enhancement는 액션들의 동기화된 notification을 전송하는 0개 이상의 Notification Streams, 하나 이상의 어플리케이션들, 어플리케이션에 의해 사용되는 0개 이상의 다른 NRT Content Items, 어플리케이션에 의해 관리되는 0개 이상의 On Demand components들을 포함할 수 있다.
도 33은 본 발명의 일 실시예에 따른 ComponentData 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 실제 Component Data의 특성을 서비스 가이드하기 위하여 ComponentData 엘레먼트를 스키마로 정의할 수 있다.
본 발명의 일 실시예에 따른 ComponentData 엘레먼트는 전술한 컴포넌트 프래그먼트의 ComponentType 엘레먼트의 값이 2, 3, 4 또는 6일 경우, 각각의 타입의 조합 및 관계에 따라 Component Data를 표현할 수 있도록 할 수 있다.
본 발명의 일 실시예에 따르면, 각 컴포넌트는 ContentType 어트리뷰트를 가질 수 있다. ContentType 어트리뷰트는 비디오, 오디오 및/또는 CC (Closed Caption) 값을 가질 수 있다.
이 도면에 도시된 스키마 구조와 같이, 본 발명의 일 실시예는 각 ContentType 어트리뷰트에 따라 Component Data가 기술될 수 있도록 하는 방법을 제공할 수 있다. 즉, 본 발명의 일 실시예에 따른 ComponentData 엘레먼트는 ContentType 어트리뷰트 값이 Video인 경우 VideoComponent 엘레먼트를 하위 엘레먼트로 가질 수 있고, ContentType 어트리뷰트 값이 Audio인 경우 AudioComponent 엘레먼트를 하위 엘레먼트로 가질 수 있고, ContentType 어트리뷰트 값이 CC인 경우 CCComponent 엘레먼트를 하위 엘레먼트로 가질 수 있다. 그리고, 상기 하위 엘레먼트에 각 Component Data가 기술될 수 있다.
도 34는 본 발명의 일 실시예에 따른 VideoComponent 엘레먼트 및 VideoRole 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 하이브리드 방송에서 사용되는 Video Component를 표현할 수 있도록하는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 VideoComponent 엘레먼트는 VideoRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 하위 엘레먼트로 가질 수 있다. (L34010)
VideoRole 엘레먼트는 해당 Video Component가 어떤 Role을 가지는지 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 추후 확장성을 고려하여 이 엘레먼트는 정수값을 가질 수 있다. 또한, 본 발명의 일 실시예는 Video Comonent가 presentable일 경우에 가지는 role 및 composite일 경우 가지는 role을 모두 나타낼 수 있도록 이 엘레먼트 값의 범위를 제공할 수 있다.
TargetUserProfile 엘레먼트 및 TargetDevice 엘레먼트는 모든 presentable componet의 common element에 해당할 수 있다. 이 엘레먼트들은 타겟의 속성을 나타낼 수 있다.
본 발명의 일 실시예에 따른 VideoRole 엘레먼트가 나타내는 값이 0이면 unspecified를, 1이면 Primary (default) video를, 2이면 Alternative camera view를, 3이면 Other alternative video component를, 4면 Sign language (e.g., ASL) inset을, 5면 Follow subject video를, 6이면 Base layer for scalable video encoding를, 7이면 Enhancement layer for scalable video encoding, with level을, 8이면 3D video left view를, 9이면 3D video right view를, 10이면 3D video depth information을, 11이면 Part of video array, <x,y> of <n,m>를, 12이면 FollowSubject metadata를, 13 내지 255이면 Reserved임을 나타낼 수 있다. 여기서, 이 엘레먼트 값 0 내지 5는 presentable Video Componet의 role을 나타낼 수 있고, 6 내지 12는 Composite Video Component의 role을 나타낼 수 있고, 13 내지 255는 Other Video Component의 role을 나타낼 수 있다. (L34020)
도 35는 본 발명의 일 실시예에 따른 AudioComponent 엘레먼트 및 AudioRole 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 하이브리드 방송에서 사용되는 Audio Component를 표현할 수 있도록하는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 AudioComponent 엘레먼트는 associatedTo 어트리뷰트 및/또는 NumberOfAudioChnnels 어트리뷰트를 가질 수 있고, AudioRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 하위 엘레먼트로 가질 수 있다. (L35010)
associatedTo 어트리뷰트는 해당 Audio Component가 Presentable Video Component에 연관되어 있는지를 나타낼 수 있다. 이 어트리뷰트는 컴포넌트 프래그먼트의 id값을 가질 수 있다.
NumberOfAudioChnnels 어트리뷰트는 Audio Component의 채널 수를 나타낼 수 있다.
AudioRole 엘레먼트는 해당 Audio Component가 어떤 Role을 가지는지 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 추후 확장성을 고려하여 이 엘레먼트는 정수값을 가질 수 있다.
TargetUserProfile 엘레먼트 및 TargetDevice 엘레먼트는 모든 presentable componet의 common element에 해당할 수 있다. 이 엘레먼트들은 타겟의 속성을 나타낼 수 있다.
본 발명의 일 실시예에 따른 AudioRole 엘레먼트는 0 내지 7 값을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified, 1이면 Complete main, 2이면 Music, 3이면 Dialog, 4이면 Effects, 5이면 Visually impaired, 6이면 Hearing impaired, 7이면 Commentary, 8 내지 255이면 Reserved임을 나타낼 수 있다. (L35020)
도 36는 본 발명의 일 실시예에 따른 CCComponent 엘레먼트 및 CCRole 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 하이브리드 방송에서 사용되는 CC Component를 표현할 수 있도록하는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 CCComponent 엘레먼트는 associatedTo 어트리뷰트를 가질 수 있고, CCRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 하위 엘레먼트로 가질 수 있다. (L36010)
associatedTo 어트리뷰트는 해당 CC Component가 Presentable Video Component에 연관되어 있는지를 나타낼 수 있다. 이 어트리뷰트는 컴포넌트 프래그먼트의 id값을 가질 수 있다.
CCRole 엘레먼트는 해당 CC Component가 어떤 Role을 가지는지 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 추후 확장성을 고려하여 이 엘레먼트는 정수값을 가질 수 있다.
TargetUserProfile 엘레먼트 및 TargetDevice 엘레먼트는 모든 presentable componet의 common element에 해당할 수 있다. 이 엘레먼트들은 타겟의 속성을 나타낼 수 있다.
본 발명의 일 실시예에 따른 CCRole 엘레먼트는 0 내지 2 값을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified, 1이면 normal, 2이면 easy reader임을 나타낼 수 있다. (L36020)
도 37은 본 발명의 일 실시예에 따라 scalable video coding에서 하나의 베이스 레이어 (base layer)와 두개의 인헨스먼트 레이어 (enhancement layer)를 포함하는 Composite Video Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 상단에 위치하는 컴포넌트 프래그먼트 (L37010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 좌측에 위치하는 컴포넌트 프래그먼트 (L37020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Elementary 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, VideoComponent 엘레먼트 및 VideoRole 엘레먼트를 이용하여 해당 컴포넌트가 Video에 관한 것이고 Base Layer of SVC 컴포넌트임을 나타낼 수 있다.
이 도면의 우측에 위치하는 컴포넌트 프래그먼트 (L37030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Elementary 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, VideoComponent 엘레먼트 및 VideoRole 엘레먼트를 이용하여 해당 컴포넌트가 Video에 관한 것이고 Enhancemnet Layer of SVC 컴포넌트임을 나타낼 수 있다.
도 38은 본 발명의 일 실시예에 따라 3D video left view와 3D video right view를 포함하는 Composite Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 상단에 위치하는 컴포넌트 프래그먼트 (L38010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 좌측에 위치하는 컴포넌트 프래그먼트 (L38020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pickone 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, VideoComponent 엘레먼트 및 VideoRole 엘레먼트를 이용하여 해당 컴포넌트가 Video에 관한 것이고 3D video left view 컴포넌트임을 나타낼 수 있다.
이 도면의 우측에 위치하는 컴포넌트 프래그먼트 (L38030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pickone 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, VideoComponent 엘레먼트 및 VideoRole 엘레먼트를 이용하여 해당 컴포넌트가 Video에 관한 것이고 3D video right view 컴포넌트임을 나타낼 수 있다.
도 39는 본 발명의 일 실시예에 따라 Comple Audio Component를 기술하는 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 최상단에 위치하는 컴포넌트 프래그먼트 (L39010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pickone 컴포넌트임을 나타낼 수 있다.
이 도면의 두번째 열의 좌측에 위치하는 컴포넌트 프래그먼트 (L39020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pickone 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, AudioComponent 엘레먼트 및 AudioRole 엘레먼트를 이용하여 해당 컴포넌트가 Audio에 관한 것이고 Completely Main 컴포넌트임을 나타낼 수 있다.
이 도면의 두번째 열의 우측에 위치하는 컴포넌트 프래그먼트 (L39030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 세번째 열의 좌측에 위치하는 컴포넌트 프래그먼트 (L39040)는 id 값으로 "bcast://lge.com/Component/4"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pickone 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, AudioComponent 엘레먼트 및 AudioRole 엘레먼트를 이용하여 해당 컴포넌트가 Audio에 관한 것이고 Music 컴포넌트임을 나타낼 수 있다.
이 도면의 세번째 열의 우측에 위치하는 컴포넌트 프래그먼트 (L39050)는 id 값으로 "bcast://lge.com/Component/5"를 갖고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pickone 컴포넌트임을 나타낼 수 있고, ComponentData 엘레먼트, ContnetType 어트리뷰터, AudioComponent 엘레먼트 및 AudioRole 엘레먼트를 이용하여 해당 컴포넌트가 Audio에 관한 것이고 Dialog 컴포넌트임을 나타낼 수 있다.
도 40은 본 발명의 일 실시예에 따른 컨텐트 프래그먼트 (content fragment) 내의 Component 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 컨텐트에 포함되는 컴포넌트를 서브 엘레먼트로 구성할 수 있다. 즉, 컨텐트 프래그먼트 내부에 Component 엘레먼트를 포함시킬 수 있다. 여기서, 서브 엘레먼트는 하위 엘레먼트와 동일한 의미를 가질 수 있다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 컨텐트에 포함되는 컴포넌트 정보를 나타낼 수 있다.
본 발명의 일 실시예에 따른 Component 엘레먼트의 타입은 ComponentElementType인데 ComponentElementType은 컨텐트에 포함되는 컴포넌트 정보를 시퀀스 형태로 정의할 수 있다. 따라서, 컨텐트에 포함되는 모든 타입의 컴포넌트들이 기술될 수 있다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 VideoData 엘레먼트, AudioData 엘레먼트 및/또는 CCData 엘레먼트를 서브 엘레먼트로 가질 수 있다. 또한, VideoData 엘레먼트는 VideoRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 서브 엘레먼트로 가질 수 있고, AudioData 엘레먼트는 AudioRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 서브 엘레먼트로 가질 수 있고, CCData 엘레먼트는 CCRole 엘레먼트, TargetUserProfile 엘레먼트 및/또는 TargetDevice 엘레먼트를 서브 엘레먼트로 가질 수 있다. 상술한 엘레먼트들에 대한 상세한 설명은 전술하였다.
도 41은 본 발명의 일 실시예에 따른 Video, Audio 및 CC Component를 포함하는 Linear Service에 대한 컨텐트 프래그먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따라 컨텐트 프래그먼트 내에 Component 엘레먼트를 구성하면, Component 사이의 Reference 규정이 필요 없게 되므로 효율적일 수 있다. 따라서, 본 발명의 일 실시예에 따른 수신기는 컨텐트 프래그먼트를 수신하면, 해당 컨텐트가 어떤 컴포넌트로 구성되어 있고, 어떤 role을 가지는지에 대하여 직관적으로 파악할 수 있다.
본 발명의 일 실시예에 따르면, Component 엘레먼트는 컨텐트 프래그먼트에 포함된 PricateExt 엘레먼트 내에서 정의될 수 있다.
이 도면의 좌측의 그림 및 스키마를 보면, 2D 테니스 방송 컨텐트는 Video, Audio 및 CC 컴포넌트를 포함할 수 있다. 이 컨텐트의 Video 컴포넌트는 Primary (default) video를 나타내고, Audio 컴포넌트는 Complete main을 나타내고, CC 컴포넌트는 normal을 나타낼 수 있다.
이 도면의 우측의 그림 및 스키마를 보면, 3D 테니스 방송 컨텐트는 두개의 Video 컴포넌트, Audio 컴포넌트 및 CC 컴포넌트를 포함할 수 있다. 이 컨텐트의 첫번째 Video 컴포넌트는 3D video left view를 나타내고, 두번째 Video 컴포넌트는 3D video right view를 나타내고, Audio 컴포넌트는 Complete main을 나타내고, CC 컴포넌트는 normal을 나타낼 수 있다.
도 42는 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 컨텐트 프래그먼트 내에 Component 엘레먼트를 정의하는 경우의 Component 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 하나의 컨텐트를 구성하는 컴포넌트들 사이에 연관관계에 대한 정의가 필요할 수 있다.
본 발명의 일 실시예에 따라, 컨텐트 프래그먼트 내에 Component 엘레먼트를 구성하면 컨텐트 프래그먼트 내에서, 해당 컨텐트에 포함되는 모든 컴포넌트 (Video, Audio 및/또는 CC 컴포넌트)를 기술하기 때문에 컴포넌트들 간의 연관관계를 따로 기술할 필요가 없을 수 있다.
도 43은 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 AssociatedTo 어트리뷰트를 사용하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 Presentable Video, Audio 및 CC Component간 연관 (Association)관계를 규정하기 위하여 Audio component와 CC component의 속성으로 associatedTo 어트리뷰트를 기술할 수 있다. 이로써, 본 발명의 일 실시예에 따른 수신기는 Audio component를 수신하면, 이와 연관관계를 맺고 있는 Video component를 알 수 있다. 마찬가지로, CC component를 수신하면, 이와 연관관계를 맺고 있는 Video component를 알 수 있다.
이 도면을 보면, 본 발명의 일 실시예는 컴포넌트 프래그먼트 하위의 ComponentData 엘레먼트 하위의 AudioComponent 엘레먼트의 어트리뷰트로서 associatedTo 어트리뷰트를 정의할 수 있고, CCComponent 엘레먼트의 어트리뷰트로서 associatedTo 어트리뷰트를 정의할 수 있다.
도 44는 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하기 위하여 associatedAudio 및 associatedCC 어트리뷰트를 사용하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 Presentable Video, Audio 및 CC Component간 연관 (Association)관계를 규정하기 위하여 Video component의 속성으로 associatedAudio 및 associatedCC 어트리뷰트를 기술할 수 있다. 이로써, 본 발명의 일 실시예에 따른 수신기는 Video component를 수신하면, 이와 연관관계를 맺고 있는 모든 Audio 및/또는 CC component를 알 수 있다.
이 도면을 보면, 본 발명의 일 실시예는 컴포넌트 프래그먼트 하위의 ComponentData 엘레먼트 하위의 VideoComponent 엘레먼트의 어트리뷰트로서 associatedAudio 및/또는 associatedCC 어트리뷰트를 정의할 수 있다.
도 45는 AssociatedTo 어트리뷰트를 사용하여 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Audio Component를 기술하는 컴포넌트 프래그먼트에서 AudioComponent 엘레먼트에 associatedTo 어트리뷰트를 정의하여 "bcast://lge.com/Component/1"를 참조함으로써 해당 Presentable Audio Component와 연관된 Presentable Video Component를 기술하는 컴포넌트 프래그먼트를 시그널링할 수 있다.
본 발명의 일 실시예에 따르면, Presentable CC Component를 기술하는 컴포넌트 프래그먼트에서 CCComponent 엘레먼트에 associatedTo 어트리뷰트를 정의하여 "bcast://lge.com/Component/1"를 참조함으로써 해당 Presentable CC Component와 연관된 Presentable Video Component를 기술하는 컴포넌트 프래그먼트를 시그널링할 수 있다.
도 46은 associatedAudio 및/또는 associatedCC 어트리뷰트를 사용하여 Video, Audio 및 CC 컴포넌트 사이에 연관관계를 설명하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Video Component를 기술하는 컴포넌트 프래그먼트에서 VideoComponent 엘레먼트에 associatedAudio 및 associatedCC 어트리뷰트를 정의하여 각각 "bcast://lge.com/Component/2", "bcast://lge.com/Component/3"을 참조함으로써 해당 Presentable Video Component와 연관된 Presentable Audio Component 및 Presentable CC Component를 기술하는 컴포넌트 프래그먼트들을 시그널링할 수 있다.
도 47은 본 발명의 일 실시예에 따른 프래그먼트들 사이의 참조관계를 나타낸 도면이다.
본 발명의 일 실시예에 따라 차세대 하이브리드 방송 시스템의 서비스 가이드를 제공하기 위하여 Service, Content 및 Component 프래그먼트를 정의하는 방법을 전술하였다.
본 발명의 일 실시예는 전술한 각 프래그먼트 사이의 참조관계를 정의함으로써 차세대 하이브리드 방송 시스템의 서비스 가이드가 어나운스먼트 (announcement)될 수 있는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따르면, Component 프래그먼트에서 Service 및/또는 Content 프래그먼트를 참조할 수 있다.
이 도면을 보면, Component 프래그먼트에서 Service 및 Content 프래그먼트를 참조할 수 있고, Content 프래그먼트에서 Service 프래그먼트를 참조할 수 있고, Schedule 프래그먼트에서 Service, Content 및 Component 프래그먼트를 참조할 수 있다.
도 48은 본 발명의 일 실시예에 따라 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 Component 프래그먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Component 프래그먼트는 ServiceReference 엘레먼트, ContentReference 엘레먼트 및/또는 ComponentReference 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트는 각각의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다.
ServiceReference 엘레먼트는 해당 Component 프래그먼트에서 참조하는 Service 프래그먼트를 나타낼 수 있고, 참조하는 Service 프래그먼트의 id 값을 가질 수 있다.
ContentReference 엘레먼트는 해당 Component 프래그먼트에서 참조하는 Content 프래그먼트를 나타낼 수 있고, 참조하는 Content 프래그먼트의 id 값을 가질 수 있다.
ComponentReference 엘레먼트는 해당 Component 프래그먼트에서 참조하는 상위의 Component 프래그먼트를 나타낼 수 있고, 참조하는 상위의 Component 프래그먼트의 id 값을 가질 수 있다. 이 경우, 전술한 ComponentType 엘레먼트가 나타내는 타입값의 분류에 따라 Component 프래그먼트 사이의 참조관계 또는 상하관계가 성립될 수 있다.
도 49는 본 발명의 일 실시예에 따라 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 Schedule 프래그먼트의 xml shema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Schedule 프래그먼트는 ServiceReference 엘레먼트, ContentReference 엘레먼트 및/또는 ComponentReference 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트는 각각의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다.
ServiceReference 엘레먼트는 참조하는 Service 프래그먼트를 나타낼 수 있고, 참조하는 Service 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Service의 시간 정보를 제공할 수 있다.
ContentReference 엘레먼트는 참조하는 Content 프래그먼트를 나타낼 수 있고, 참조하는 Content 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Content의 시간 정보를 제공할 수 있다.
ComponentReference 엘레먼트는 참조하는 Component 프래그먼트를 나타낼 수 있고, 참조하는 Component 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Component의 시간 정보를 제공할 수 있다.
도 50은 Service, Content 및 Component 프레그먼트 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
이 도면을 보면, 전술한 바와 같이, Presentable Audio Component를 기술하는 컴포넌트 프래그먼트, Presentable CC Component를 기술하는 컴포넌트 프래그먼트는 associatedTo 어트리뷰트를 이용하여 Presentable Video Component를 기술하는 컴포넌트 프래그먼트를 참조할 수 있다.
나아가, Presentable Audio Component를 기술하는 컴포넌트 프래그먼트, Presentable CC Component를 기술하는 컴포넌트 프래그먼트 및 Presentable Video Component를 기술하는 컴포넌트 프래그먼트는 ContentReference 엘레먼트를 이용하여 id 값이 "bcast://lge.com/Content/1"인 Content 프래그먼트를 참조할 수 있다.
나아가, id 값이 "bcast://lge.com/Content/1"인 Content 프래그먼트는 ServiceReference 엘레먼트를 이용하여 id 값이 "bcast://lge.com/Service/1"인 Service 프래그먼트를 참조할 수 있다.
이와 같이, 본 발명의 일 실시예는 프래그먼트 사이의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 서비스 가이드 모델을 구성할 수 있다.
도 51은 Continuous Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 컴포넌트 프래그먼트 간의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 Continuous Component들의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, ComponentType 값 1 내지 6에 해당하는 컴포넌트인 Continuous component, Elementary component, Composite component, PickOne component, Complex component 및/또는 Presentable component는 Continuous Component에 해당할 수 있고, 이 도면에 도시된 바와 같이, 상술한 Continuous Component 간의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, Second Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/4")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/3"를 기술함으로써 First Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")를 참조할 수 있다.
마찬가지로, First Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/2"를 기술함으로써 Base Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")를 참조할 수 있다.
마찬가지로, Base Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/1"를 기술함으로써 Composite Component를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")를 참조할 수 있다.
도 52는 Appbased Enhancement와 관련한 Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 컴포넌트 프래그먼트 간의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 Appbased Enhancement와 관련한 Component들의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, ComponentType 값 7 내지 13에 해당하는 컴포넌트인 NRT File, NRT Content Item, Application, ATSC3.0 Application, On Demand component, Notification Stream 및/또는 Appbased Enhancement는 Appbased Enhancement와 관련한 Component에 해당할 수 있고, 이 도면에 도시된 바와 같이, 상술한 Appbased Enhancement와 관련한 Component간의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, NRT File을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/2"를 기술함으로써 NRT Content Item을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")를 참조할 수 있다.
마찬가지로, NRT Content Item을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/1"를 기술함으로써 Appbased Enhancement를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")를 참조할 수 있다.
마찬가지로, On Demand component를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/5")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/1"를 기술함으로써 Appbased Enhancement를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")를 참조할 수 있다.
마찬가지로, Application를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/4")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/1"를 기술함으로써 Appbased Enhancement를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")를 참조할 수 있다.
도 53은 본 발명의 일 실시예에 따라 컨텐트 프래그먼트에서 관련 서비스 프래그먼트를 참조하는 경우 제공할 수 있는 기능을 나타낸 도면이다.
본 발명의 일 실시예는 컨텐트에서 참조하는 Service 프래그먼트를 표현할 때, 하이브리드 방송망에서 지원하는 기능을 상세히 나타낼 수 있는 서비스 가이드 방법을 제공할 수 있다.
본 발명의 일 실시예에 따른 Content 프래그먼트는 ServiceReference 엘레먼트를 가질 수 있고, ServiceReference 엘레먼트는 idRef 어트리뷰트, weigh 어트리뷰트 및/또는 relationship 어트리뷰트를 포함할 수 있다.
idRef 어트리뷰트는 참조하는 Content 프래그먼트에서 참조하는 Service 프래그먼트의 id를 나타낼 수 있다.
weigh 어트리뷰트는 Service 프래그먼트 참조시 그 중요도를 나타낼 수 있다.
relationship 어트리뷰트는 Service 프래그먼트 참조시 Content 프래그먼트와 Service 프래그먼트와의 관계를 나타낼 수 있다. 나아가, 이 어트리뷰트의 값은 추후 확장성을 위하여 정수값으로 표현될 수 있다. 이 어트리뷰트의 값이 0이면 unspecified, 1이면 ProgramOf, 2이면 ContentItemOf, 3이면 OnDemandComponentOf, 4 내지 255이면 reserved임을 나타낼 수 있다. ProgramOf는 해당 Content가 참조되는 Service의 Program에 해당함을 나타낼 수 있고, ContentItemOf는 해당 Content가 참조되는 Service의 ContentItem에 해당함을 나타낼 수 있고, OnDemandComponentOf는 해당 Content가 참조되는 Service의 OnDemandComponent에 해당함을 나타낼 수 있다.
도 54는 본 발명의 일 실시예에 따른 relationship 어트리뷰트를 이용하여 컨텐트 프래그먼트에서 관련 서비스 프래그먼트를 참조하는 실시예를 나타낸 도면이다.
본 발명의 일 실시예 따른 수신기는 relationship 어트리뷰트를 이용하여 Content 프래그먼트에서 Service 프래그먼트를 참조하는 경우 양 프래그먼트 사이의 관계를 알 수 있다. 따라서, 본 발명의 일 실시예는 relationship 어트리뷰트를 통하여 Component level까지 분석하지 않더라도 해당 서비스가 사용자에게 어떤 속성의 컨텐트로 구성되는지 서비스 가이드로 표현할 수 있다.
이 도면을 보면, 총 3개의 Content 프래그먼트는 ServiceReference 엘레먼트를 이용하여 id 값으로 "bcast://lge.com/Service/1"를 갖는 Service 프래그먼트를 참조하고 있다. 좌측의 컨텐트 프래그먼트는 relationship 어트리뷰트 값으로 1을 가짐으로써 참조되는 서비스 프래그먼트의 Program임을 나타낼 수 있고, 중간의 컨텐트 프래그먼트는 relationship 어트리뷰트 값으로 2를 가짐으로써 참조되는 서비스 프래그먼트의 ContentItem임을 나타낼 수 있고, 우측의 컨텐트 프래그먼트는 relationship 어트리뷰트 값으로 3을 가짐으로써 참조되는 서비스 프래그먼트의 OnDemandComponent임을 나타낼 수 있다.
도 55은 본 발명의 다른 일 실시예에 따른 프래그먼트들 사이의 참조관계를 나타낸 도면이다.
본 발명의 일 실시예에 따라 차세대 하이브리드 방송 시스템의 서비스 가이드를 제공하기 위하여 Service, Content 및 Component 프래그먼트를 정의하는 방법을 전술하였다.
본 발명의 일 실시예는 전술한 각 프래그먼트 사이의 참조관계를 정의함으로써 차세대 하이브리드 방송 시스템의 서비스 가이드가 어나운스먼트 (announcement)될 수 있는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따르면, Service 프래그먼트에서 Content 프래그먼트 및/또는 Component 프래그먼트를 참조할 수 있다.
이 도면을 보면, 서비스 프래그먼트에서 컨텐트 프래그먼트 및/또는 컴포넌트 프래그먼트를 참조할 수 있고, 컨텐트 프래그먼트에서 컴포넌트 프래그먼트를 참조할 수 있고, Schedule 프래그먼트에서 Service, Content 및/또는 Component 프래그먼트를 참조할 수 있다.
본 발명의 일 실시예에 따르면, 특정 서비스를 구성하는 컨텐트, 컴포넌트 요소를 찾기 위한 리소스의 절약이 가능할 수 있다.
도 56은 본 발명의 다른 일 실시예에 따른 프래그먼트들과의 참조관계를 나타내는 엘레먼트를 포함하는 서비스 프래그먼트, 컨텐트 프래그먼트 및 컴포넌트 프래그먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 서비스 가이드의 각 프래그먼트는 참조관계를 가질 수 있다.
본 발명의 일 실시예에 따른 서비스 프래그먼트는 ContentReference 엘레먼트 및/또는 ComponentReference 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트는 각각의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다. (L56010)
ContentReference 엘레먼트는 해당 서비스 프래그먼트에서 참조하는 Content 프래그먼트를 나타낼 수 있고, 참조하는 Content 프래그먼트의 id 값을 가질 수 있다.
ComponentReference 엘레먼트는 해당 서비스 프래그먼트에서 참조하는 Component 프래그먼트를 나타낼 수 있고, 참조하는 Component 프래그먼트의 id 값을 가질 수 있다.
본 발명의 일 실시예에 따른 컨텐트 프래그먼트는 ComponentReference 엘레먼트를 포함할 수 있다. 이 엘레먼트는 이 엘레먼트의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다. (L56020)
ComponentReference 엘레먼트는 해당 컨텐트 프래그먼트에서 참조하는 Component 프래그먼트를 나타낼 수 있고, 참조하는 Component 프래그먼트의 id 값을 가질 수 있다.
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트는 ComponentReference 엘레먼트를 포함할 수 있다. 이 엘레먼트는 이 엘레먼트의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다. (L56030)
ComponentReference 엘레먼트는 해당 Component 프래그먼트에서 참조하는 하위의 Component 프래그먼트를 나타낼 수 있고, 참조하는 하위의 Component 프래그먼트의 id 값을 가질 수 있다. 이 경우, 전술한 ComponentType 엘레먼트가 나타내는 타입값의 분류에 따라 Component 프래그먼트 사이의 참조관계 또는 상하관계가 성립될 수 있다.
본 발명의 일 실시예에 따른 Schedule 프래그먼트는 ServiceReference 엘레먼트, ContentReference 엘레먼트 및/또는 ComponentReference 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트는 각각의 id를 나타내는 idRef 어트리뷰트를 가질 수 있다. (미도시)
ServiceReference 엘레먼트는 참조하는 Service 프래그먼트를 나타낼 수 있고, 참조하는 Service 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Service의 시간 정보를 제공할 수 있다.
ContentReference 엘레먼트는 참조하는 Content 프래그먼트를 나타낼 수 있고, 참조하는 Content 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Content의 시간 정보를 제공할 수 있다.
ComponentReference 엘레먼트는 참조하는 Component 프래그먼트를 나타낼 수 있고, 참조하는 Component 프래그먼트의 id 값을 가질 수 있다. 이로써, Schedule 프래그먼트에서 해당 Component의 시간 정보를 제공할 수 있다.
도 57은 Service, Content 및 Component 프레그먼트 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
이 도면을 보면, 전술한 바와 같이, Presentable Audio Component를 기술하는 컴포넌트 프래그먼트, Presentable CC Component를 기술하는 컴포넌트 프래그먼트는 associatedTo 어트리뷰트를 이용하여 Presentable Video Component를 기술하는 컴포넌트 프래그먼트를 참조할 수 있다.
Id 값이 "bcast://lge.com/Service/1"인 Service 프래그먼트는 ContentReference 엘레먼트를 이용하여 id 값이 "bcast://lge.com/Content/1"인 Content 프래그먼트를 참조할 수 있다.
Id 값이 "bcast://lge.com/Content/1"인 Content 프래그먼트는 ComponentReference 엘레먼트를 이용하여 id 값이 "bcast://lge.com/Component/1"인 Component 프래그먼트 (Presentable Video Component)를 참조할 수 있다.
이와 같이, 본 발명의 일 실시예는 프래그먼트 사이의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 서비스 가이드 모델을 구성할 수 있다.
본 발명의 일 실시예는 서비스 프래그먼트에서 컨텐트 프래그먼트를 참조하고, 컨텐트 프래그먼트에서 컴포넌트 프레그먼트를 참조하는 방식처럼 상위 레벨에서 하위 레벨을 참조하는 방향을 사용함으로써 리소스를 줄일 수 있다.
도 58은 Continuous Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 컴포넌트 프래그먼트 간의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 Continuous Component들의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, ComponentType 값 1 내지 6에 해당하는 컴포넌트인 Continuous component, Elementary component, Composite component, PickOne component, Complex component 및/또는 Presentable component는 Continuous Component에 해당할 수 있고, 이 도면에 도시된 바와 같이, 상술한 Continuous Component 간의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, Composite Component를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/2"를 기술함으로써 Base Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")를 참조할 수 있다.
마찬가지로, Base Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/3"를 기술함으로써 First Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")를 참조할 수 있다.
마찬가지로, First Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/4"를 기술함으로써 Second Enhancement Layer를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/4")를 참조할 수 있다.
도 59는 Appbased Enhancement와 관련한 Component를 기술하는 Component 프레그먼트들 사이의 참조관계를 설명하는 다른 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예는 컴포넌트 프래그먼트 간의 참조관계를 정의함으로써 하이브리드 방송 시스템에서 제공할 수 있는 Appbased Enhancement와 관련한 Component들의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, ComponentType 값 7 내지 13에 해당하는 컴포넌트인 NRT File, NRT Content Item, Application, ATSC3.0 Application, On Demand component, Notification Stream 및/또는 Appbased Enhancement는 Appbased Enhancement와 관련한 Component에 해당할 수 있고, 이 도면에 도시된 바와 같이, 상술한 Appbased Enhancement와 관련한 Component간의 참조관계를 표현할 수 있다.
본 발명의 일 실시예에 따르면, Appbased Enhancement를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/1")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/2", "bcast://lge.com/Component/4" 및 "bcast://lge.com/Component/5" 를 기술함으로써 NRT Content Item을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2"), Application를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/4") 및 On Demand component를 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/5")를 참조할 수 있다.
마찬가지로, NRT Content Item을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/2")는 ComponentReference 엘레먼트에 "bcast://lge.com/Component/3"를 기술함으로써 NRT File을 기술하는 컴포넌트 프래그먼트 (id="bcast://lge.com/Component/3")를 참조할 수 있다.
도 60, 61은 본 발명의 일 실시예에 따른 Component 프래그먼트의 구성을 나타낸 도면이다.
두 도면에 걸쳐 그려진 테이블은 연결된 하나의 테이블에 해당한다.
본 발명의 일 실시예에 다른 컴포넌트 프래그먼트는 id 어트리뷰트, version 어트리뷰트, validFrom 어트리뷰트, validTo 어트리뷰트, ServiceReference 엘레먼트, ContentReference 엘레먼트, ComopnentReference 엘레먼트, ComponentType 엘레먼트, ComponentRole 엘레먼트, PrivateExt 엘레먼트 및/또는 ProprietaryElements 엘레먼트를 포함할 수 있다. ServiceReference 엘레먼트, ContentReference 엘레먼트 및 ComopnentReference 엘레먼트는 각각 idRef 어트리뷰트를 포함할 수 있다. 상술한 id 어트리뷰트 및/또는 idRef 어트리뷰트는 URI 형태를 가질 수 있고, 상술한 어트리뷰트 및/또는 엘레먼트에 대한 상세한 설명은 후술한다.
도 62는 본 발명의 다른 일 실시예에 따른 Component 프래그먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트 (Component fragment)는 컴포넌트가 참조하는 컨텐트 또는 서비스의 일부분인 컴포넌트를 기술할 수 있다. (The 'Component' fragment describes a component that is a part of a service or a content that the component refers to.)
본 발명의 일 실시예에 따른 컴포넌트 프래그먼트는 id 어트리뷰트, version 어트리뷰트, validFrom 어트리뷰트, validTo 어트리뷰트, ServiceReference 엘레먼트, ContentReference 엘레먼트, ComopnentReference 엘레먼트, ComponentType 엘레먼트, ComponentRole 엘레먼트, PrivateExt 엘레먼트 및/또는 ProprietaryElements 엘레먼트를 포함할 수 있다.
id 어트리뷰트는 컴포넌트 프래그먼트의 ID를 나타낼 수 있다. 이 어트리뷰트의 값은 globally unique할 수 있다.
version 어트리뷰트는 컴포넌트 프래그먼트의 버전 정보를 나타탤 수 있다.
validFrom 어트리뷰트는 컴포넌트 프래그먼트가 유효한 처음 시점을 나타낼 수 있다.
validTo 어트리뷰트는 컴포넌트 프래그먼트가 유효한 마지막 시점을 나타낼 수 있다.
ServiceReference 엘레먼트는 해당 컴포넌트 프래그먼트가 속하는 서비스 프래그먼트를 참조할 수 있다.
ContentReference 엘레먼트는 해당 컴포넌트가 속하는 컨텐트 프래그먼트를 참조할 수 있다.
ComopnentReference 엘레먼트는 해당 컴포넌트가 속하는 컴포넌트 프래그먼트를 참조할 수 있다.
ComponentType 엘레먼트는 컴포넌트 프래그먼트가 기술하는 컨텐트의 타입을 나타낼 수 있다. 타입이 혼합된 경우에는 하나 이상의 ComponentType 엘레먼트를 사용하여 타입을 나타낼 수 있다.
ComponentRole 엘레먼트는 해당 컴포넌트의 role을 나타낼 수 있다. 본 발명의 일 실시예에 따르면 해당하는 컴포넌트가 Presentable Video, Composite Video, Presentable Audio 또는 Presentable CC component인 경우에 Component Role을 가지며, 이 엘레멘트에 대한 값에 대한 상세한 설명은 후술한다.
PrivateExt 엘레먼트는 사유적인 또는 어플리케이션에 한정된 확장을 위한 컨테이너를 나타낼 수 있다. (An element serving as a container for proprietary or applicationspecific extensions.)
ProprietaryElements 엘레먼트은 사유적인 또는 어플리케이션에 한정된 엘레먼트를 나타낼 수 있다. 이 엘레멘트는 하나 이상의 서브 엘레먼트 또는 어트리뷰트를 포함할 수 있다.
도 63은 본 발명의 다른 일 실시예에 따른 ComponentType 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트는 하이브리드 방송에서 보낼 수 있는 모든 ComponentType을 표현할 수 있다. 이를 위하여, 본 발명의 일 실시예는 타입의 범위를 정수값으로 표현할 수 있다.
본 발명의 일 실시예에 따르면, 모든 컴포넌트가 컴포넌트 데이터 (ComponentData)를 포함하고 있는 것은 아니므로 수신 장치는 컴포넌트 프래그먼트의 타입 값을 먼저 알아낸 뒤 컴포넌트 데이터의 정보를 알 수 있다.
본 발명의 일 실시예에 따른 각 컴포넌트들 사이의 상하 또는 종속 관계는 후술한다.
본 발명의 일 실시예에 따르면, ComponentType 엘레먼트의 타입을 나타내는 ComponentRangeType은 최소값으로 0을 최대값으로 15를 가질 수 있다.
이 도면에 도시된 바와 같이, ComponentType 엘레먼트의 값이 0이면, 정해지지 않은 컴포넌트 (Unspecified)를 나타낼 수 있고, 1이면 Continuous component를 나타낼 수 있고, 2이면 Elementary component를 나타낼 수 있고, 3이면 Composite component를 나타낼 수 있고, 4이면 PickOne component를 나타낼 수 있고, 5이면 Complex component를 나타낼 수 있고, 6이면 Presentable Video component를 나타낼 수 있고, 7이면 Presentable Audio component를 나타낼 수 있고, 8이면 Presentable CC component를 나타낼 수 있고, 9이면 NRT File를 나타낼 수 있고, 10이면 NRT Content Item를 나타낼 수 있고, 11이면 Application를 나타낼 수 있고, 12이면 ATSC3.0 Application를 나타낼 수 있고, 13이면 On Demand component를, 14이면 Notification Stream을, 15이면 Appbased Enhancement를 16 내지 255이면 Reserved임을 나타낼 수 있다.
Continuous component는 하나의 연속하는 스트림에서 표현되는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 오디오, 비디오 또는 Closed Caption이 이에 해당할 수 있다.
Elementary component는 싱글 인코딩에 해당하는 Continuous component를 나타낼 수 있다. 즉, 별도의 인코더에 의해 인코딩되는 Continuous component를 나타낼 수 있다. 예를 들어, 사운드 시퀀스의 싱글 인코딩, 픽처 시퀀스의 싱글 인코딩 또는 싱글 closed caption 트랙이 이에 해당할 수 있다.
Composite component는 같은 Content type을 갖고, 같은 장면을 표현하고, 하나의 프레젠테이션을 만들기 위해 조합될 수 있는 Continuous component의 집합을 구성하는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 완전한 오디오를 제공하기 위해 혼합될 음악, 다이얼로그 또는 효과 음악이 이에 해당할 수 있다. 또한, 3D 영상을 제공하기 위해 조합될 좌영상 또는 우영상이 이에 해당할 수 있다.
PickOne component는 같은 Content type을 갖고, 같은 장면을 표현하고, 하나의 프레젠테이션을 만들기 위해 선택될 수 있는 Continuous component의 집합을 구성하는 컨텐트 컴포넌트를 나타낼 수 있다. 예를 들어, 같은 사운드 시퀀스와 다른 비트레이트로 인코딩된 오디오 컴포넌트들의 집합, 같은 픽처 시퀀스와 다른 비트레이트로 인코딩된 비디오 컴포넌트들의 집합 또는 같은 다이얼로그를 위한 일반적인 closed caption 트랙 및 easy reader closed caption 트랙의 집합이 이에 해당할 수 있다.
Complex component는 Composite component 또는 PickOne component를 나타낼 수 있다.
Presentable component는 사용자에게 표시되는 Continuous component를 나타낼 수 있다. 이 컴포넌트는 Elementary component 또는 Complex component를 포함할 수 있다.
Presentable Video component는 사용자에게 표시되는 Video Continuous component를 나타낼 수 있다.
Presentable Audio component는 사용자에게 표시되는 Audio Continuous component를 나타낼 수 있다.
Presentable CC component 사용자에게 표시되는 CC Continuous component를 나타낼 수 있다.
NRT File은 비실시간으로 전송되는 파일을 나타낼 수 있다.
NRT Content Item는 통합된 전체로 소비되어질 의도로 만들어진 하나 이상의 NRT 파일들의 집합을 나타낼 수 있다.
Application은 그 자체로 완전한 인헨스드 또는 인터렉티브 서비스를 구성하는 문서들의 집합을 나타낼 수 있다. 상기 문서들은 HTML, JavaScript, CSS, XML 및/또는 multimedia files을 포함할 수 있다. 이 Application은 이 application의 일부분이 아닌 다른 데이터에 접근할 수 있다. 이 Application은 NRT Content Item의 특별한 경우에 해당할 수 있다.
ATSC3.0 Application은 ATSC 3.0 Application Runtime Environment Specification를 따르는 Application을 나타낼 수 있다.
On Demand component는 on demand에 의하여 전송되는 컨텐트 컴포넌트를 나타낼 수 있다.
Notification Stream은 Linear Time Base 하에 어플리케이션의 액션들을 동기화하기 위한 notification을 전송할 수 있는 스트림을 나타낼 수 있다.
Appbased Enhancement는 액션들의 동기화된 notification을 전송하는 0개 이상의 Notification Streams, 하나 이상의 어플리케이션들, 어플리케이션에 의해 사용되는 0개 이상의 다른 NRT Content Items, 어플리케이션에 의해 관리되는 0개 이상의 On Demand components들을 포함할 수 있다.
도 64는 본 발명의 일 실시예에 따른 ComponentRole 엘레먼트의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예는 ComponentRole 엘레먼트를 사용하여 하이브리드 방송에서 보낼 수 있는 모든 컴포넌트의 role를 표현할 수 있다. 이를 위하여, ComponentRole 엘레먼트의 값은 정수값으로 표현될 수 있다.
본 발명의 일 실시예에 따른 ComponentRole 엘레먼트는 0 내지 21까지의 값을 가질 수 있다.
본 발명의 일 실시예는 Component가 presentable일 경우에 가지는 role 및 composite일 경우 가지는 role을 모두 나타낼 수 있도록 이 엘레먼트 값의 범위를 제공할 수 있다.
본 발명의 일 실시예에 따른 ComponentRole 엘레먼트가 나타내는 값이 0이면 unspecified를, 1이면 Primary (default) video를, 2이면 Alternative camera view를, 3이면 Other alternative video component를, 4면 Sign language (e.g., ASL) inset을, 5면 Follow subject video를, 6이면 Base layer for scalable video encoding를, 7이면 Enhancement layer for scalable video encoding, with level을, 8이면 3D video left view를, 9이면 3D video right view를, 10이면 3D video depth information을, 11이면 Part of video array, <x,y> of <n,m>를, 12이면 FollowSubject metadata를, 13이면 Complete main을, 14면 Music을, 15면 Dialog를, 16이면 Effects를, 17이면 Visually impaired를, 18이면 Hearing impaired를, 19면 Commentary를, 20이면 Normal을, 21이면 Easy reader를, 22 내지 255이면 reserved임을 나타낼 수 있다. 여기서, 이 엘레먼트 값 1 내지 5는 presentable Video Componet의 role을 나타낼 수 있고, 6 내지 12는 Composite Video Component의 role을 나타낼 수 있고, 13 내지 19는 presentable Audio Componet의 role을 나타낼 수 있고, 20 내지 21은 presentable CC Componet의 role을 나타낼 수 있다.
도 65는 본 발명의 다른 일 실시예에 따라 scalable video coding에서 하나의 베이스 레이어 (base layer)와 두개의 인헨스먼트 레이어 (enhancement layer)를 포함하는 Composite Video Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 상단에 위치하는 컴포넌트 프래그먼트 (L65010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 좌측에 위치하는 컴포넌트 프래그먼트 (L65020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Elementary 및 Base Layer of SVC 컴포넌트임을 나타낼 수 있다.
이 도면의 우측에 위치하는 컴포넌트 프래그먼트 (L65030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Elementary 및 Enhancement Layer of SVC 컴포넌트임을 나타낼 수 있다.
도 66은 본 발명의 다른 일 실시예에 따라 3D video left view와 3D video right view를 포함하는 Composite Component에 대하여 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 상단에 위치하는 컴포넌트 프래그먼트 (L66010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 좌측에 위치하는 컴포넌트 프래그먼트 (L66020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pickone 및 3D video left view 컴포넌트임을 나타낼 수 있다.
이 도면의 우측에 위치하는 컴포넌트 프래그먼트 (L66030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pickone 및 3D video right view 컴포넌트임을 나타낼 수 있다.
도 67은 본 발명의 다른 일 실시예에 따라 Comple Audio Component를 기술하는 컴포넌트 프래그먼트들의 xml schema를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 이 도면의 최상단에 위치하는 컴포넌트 프래그먼트 (L67010)는 id 값으로 "bcast://lge.com/Component/1"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Pickone 컴포넌트임을 나타낼 수 있다.
이 도면의 두번째 열의 좌측에 위치하는 컴포넌트 프래그먼트 (L67020)는 id 값으로 "bcast://lge.com/Component/2"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pickone 및 Audio Compoletely Main 컴포넌트임을 나타낼 수 있다.
이 도면의 두번째 열의 우측에 위치하는 컴포넌트 프래그먼트 (L67030)는 id 값으로 "bcast://lge.com/Component/3"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/1"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous 및 Composite 컴포넌트임을 나타낼 수 있다.
이 도면의 세번째 열의 좌측에 위치하는 컴포넌트 프래그먼트 (L67040)는 id 값으로 "bcast://lge.com/Component/4"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/3"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pickone 및 Audio Music 컴포넌트임을 나타낼 수 있다.
이 도면의 세번째 열의 우측에 위치하는 컴포넌트 프래그먼트 (L67050)는 id 값으로 "bcast://lge.com/Component/5"를 갖고, ServiceReference 엘레먼트를 이용하여 Service1을 참조하고, ContentReference 엘레먼트를 이용하여 Content1을 참조하고, ComponentReference 엘레먼트를 이용하여 "bcast://lge.com/Component/3"을 참조하고, ComponentType 엘레먼트를 이용하여 해당 컴포넌트가 Continuous, Pickone 및 Audio Dialog 컴포넌트임을 나타낼 수 있다.
도 68은 본 발명의 일 실시예에 따른 Content 프래그먼트의 구성을 나타낸 도면이다.
본 발명의 일 실시예는 컨텐트 프래그먼트의 하위 엘레먼트로 Component를 정의하여 디바이스 및 사용자에게 어나운스먼트 (anonouncement)하는 방법을 제공할 수 있다.
본 발명의 일 실시예에 따르면, 컴포넌트 프래그먼트를 별도로 구성함으로써 불가피했던 구성요소 및/또는 어트리뷰트들의 중첩 또는 반복 사용을 줄일 수 있다. 또한, 사용자에게 어나운스먼트 정보들을 직관적으로 제공할 수 있다.
본 발명의 일 실시예에 따른 컨텐트 프래그먼트는 id 어트리뷰트, version 어트리뷰트, validFrom 어트리뷰트, validTo 어트리뷰트, globalContentID 어트리뷰트, emergency 어트리뷰트, baseCID 어트리뷰트, ServiceReference 엘레먼트, ProtectionKeyID 엘레먼트, Name 엘레먼트, Description 엘레먼트, StartTime 엘레먼트, EndTime 엘레먼트, AudioLanguage 엘레먼트, TextLanguage 엘레먼트, Length 엘레먼트, ParentalRating 엘레먼트, TargetUserProfile 엘레먼트, Genre 엘레먼트, Extension 엘레먼트, PreviewDataReference 엘레먼트, BroadcastArea 엘레먼트, TermsOfUse 엘레먼트 및/또는 PrivateExt 엘레먼트를 포함할 수 있다.
id 어트리뷰트는 컨텐트 프래그먼트의 ID를 나타낼 수 있다.
version 어트리뷰트는 해당 컨텐트 프래그먼트의 버전 정보를 나타낼 수 있다.
validFrom 어트리뷰트는 해당 컨텐트 프래그먼트가 유효한 처음 시간 정보를 나타낼 수 있다.
validTo 어트리뷰트는 해당 컨텐트 프래그먼트가 유효한 마지막 시간 정보를 나타낼 수 있다.
globalContentID 어트리뷰트는 해당 컨텐트 프래그먼트가 기술하는 컨텐트를 식별하는 식별자를 나타낼 수 있다.
emergency 어트리뷰트는 해당 컨텐트 프래그먼트가 기술하는 컨텐트가 emergenct 성격의 컨텐트인지 여부를 나타낼 수 있다.
baseCID 어트리뷰트는 서비스 또는 프로그램의 CID에 대한 정보를 나타낼 수 있다.
ServiceReference 엘레먼트는 해당 컨텐트 프래그먼트가 참조하는 서비스를 나타낼 수 있다.
ProtectionKeyID 엘레먼트는 보호된 컨텐트에 접근하기 위해 필요한 Key 식별자를 나타낼 수 있다.
Name 엘레먼트는 해당 컨텐트 프래그먼트의 이름을 나타낼 수 있다.
Description 엘레먼트는 해당 컨텐트 프래그먼트에 대한 설명을 나타낼 수 있다.
StartTime 엘레먼트는 해당 컨텐트의 프레젠테이션을 위한 시작 시간 정보를 나타낼 수 있다.
EndTime 엘레먼트 해당 컨텐트의 프레젠테이션을 위한 종료 시간 정보를 나타낼 수 있다.
AudioLanguage 엘레먼트는 해당 컨텐트가 오디오 스트림과 함께 이용가능하며 이 때 사용되는 오디오의 언어 정보를 나타낼 수 있다.
TextLanguage 엘레먼트는 해당 컨텐트가 텍스트 컴포넌트와 함께 이용가능하며 이 때 사용되는 텍스트의 언어 정보를 나타낼 수 있다.
Length 엘레먼트는 해당 A/V 컨텐트의 지속시간을 나타낼 수 있다.
ParentalRating 엘레먼트는 해당 컨텐트가 어린이들에게 적합한지에 대한 기준 정보를 나타낼 수 있다
TargetUserProfile 엘레먼트는 목표하는 사용자에 대한 정보를 나타낼 수 있다.
Genre 엘레먼트는 해당 컨텐트의 장르정보를 나타낼 수 있다.
Extension 엘레먼트는 해당 컨텐트 프래그먼트와 관련있는 부가 정보를 나타낼 수 있다.
PreviewDataReference 엘레먼트는 해당 컴포넌트 프래그먼트가 참조하는 PreviewData 프래그먼트를 나타낼 수 있다.
BroadcastArea 엘레먼트는 브로드캐스트 컨텐츠를 위한 위치 정보를 포함하는 브로드캐스트 지역 정보를 나타낼 수 있다.
TermsOfUse 엘레먼트는 해당 프래그먼트와 관련있는 Terms of Use를 나타낼 수 있다.
PrivateExt 엘레먼트는 사유적인 또는 어플리케이션에 한정된 확장을 위한 컨테이너를 나타낼 수 있다. (An element serving as a container for proprietary or applicationspecific extensions.) 이 엘레먼트는 ProprietaryElements 엘레먼트를 서브 엘레먼트로 가질 수 있고, ProprietaryElements 엘레먼트는 사유적인 또는 어플리케이션에 한정된 엘레먼트를 나타낼 수 있다. ProprietaryElements 엘레먼트는 하나 이상의 서브 엘레먼트 또는 어트리뷰트를 포함할 수 있다.
본 발명의 일 실시예에 따른 컨텐트 프래그먼트의 PrivateExt 엘레먼트는 E1 레벨의 엘레먼트이므로 Component 엘레먼트는 PrivateExt 엘레먼트의 서브 엘레먼트로서 E2 레벨에 해당할 수 있다. 이 때, Component 엘레먼트는 상술한 ProprietaryElements 엘레먼트에 해당할 수 있다.
도 69, 70, 71, 72는 본 발명의 일 실시예에 따른 Component 엘레먼트의 구성을 나타낸 도면이다.
총 4개의 도면에 걸쳐 그려진 테이블은 연결된 하나의 테이블에 해당한다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 E2 레벨에 해당할 수 있고, 컴포넌트에 대한 상세 내용을 기술할 수 있기 때문에 컴포넌트의 개수만큼 존재할 수 있고 존재하지 않을 수도 있다. 따라서, 0 내지 N의 cardinality를 가질 수 있다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 서브 엘레먼트로 ComponentType 엘레먼트, ComponentRole 엘레먼트, StartTime 엘레먼트, EndTime 엘레먼트, Language 엘레먼트, Length 엘레먼트, ParentalRating 엘레먼트, DeviceCapability 엘레먼트 및/또는 TargetDevice 엘레먼트를 포함할 수 있다.
ComponentType 엘레먼트는 컴포넌트의 타입을 기술하는 엘레먼트일 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 하위에 존재하므로 E3 레벨에 해당할 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 타입을 나타내는 필수 요소이기 때문에 cardinality는 1을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified, 1이면 Presentable Video component, 2이면 Presentable Audio component, 3이면 Presentable CC component, 4이면 Appbased Enhancement, 5 내지 255이면 Reserved for future use임을 나타낼 수 있다.
ComponentRole 엘레먼트는 컴포넌트의 role를 기술하는 엘레먼트일 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 하위에 존재하므로 E3 레벨에 해당할 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 타입을 나타내는 필수 요소이기 때문에 cardinality는 1을 가질 수 있다. 각 컴포넌트는 전술한 ComponentType 엘레먼트의 타입에 따라 role을 가질 수 있으며 ComponentRole 엘레먼트의 값에 따라 해당하는 role을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified를, 1이면 Primary (default) video를, 2이면 Alternative camera view를, 3이면 Other alternative video component를, 4면 Sign language (e.g., ASL) inset을, 5면 Follow subject video를, 6이면 Complete main을, 7이면 Music을, 8이면 Dialog를, 9이면 Effects를, 10이면 Visually impaired를, 11이면 Hearing impaired를, 12면 Commentary를, 13이면 Normal을, 14이면 Easy reader를, 15이면 App, 16이면 NRT Content Item, 17이면 On Demand component, 18이면 Notification Stream, 19이면 StartOver, 20이면 Companion Screen, 21 내지 255이면 Reserved for future use임을 나타낼 수 있다.
StartTime 엘레먼트는 해당 컴포넌트의 디스플레이가 시작하는 시간을 나타낼 수 있다.
EndTime 엘레먼트는 해당 컴포넌트의 디스플레이가 종료하는 시간을 나타낼 수 있다.
Language 엘레먼트는 해당 컴포넌트의 표현 언어를 나타낼 수 있다. 이 엘레먼트는 어트리뷰트로 languageSDPTag 어트리뷰트를 가질 수 있다. languageSDPTag 어트리뷰트는 세션 디스크립션에서 나타내는 언어를 일치시키기 위해 태그되는 값을 나타낼 수 있다.
Length 엘레먼트는 해당 컴포넌트의 디스플레이가 진행되는 지속 시간을 나타낼 수 있다.
ParentalRating 엘레먼트는 해당 컴포넌트의 등급 표시 정보를 나타낼 수 있다.
DeviceCapability 엘레먼트는 해당 컴포넌트를 렌더링하는 디바이스의 성능 정보를 나타낼 수 있다. 본 발명의 일 실시예는 이 엘레먼트를 이용하여 컴포넌트를 렌더링하기 위한 디바이스의 capability 정보를 제공할 수 있다. 이 엘레먼트의 값 2 내지 8은 디바이스의 Video Rendering Capability 정보를 나타내고, 9 내지 15는 디바이스의 Audio Surround Sound Capability 정보를 나타내고, 16은 Audio Mixing/Rendering Capability 정보를 나타내고, 17 내지 21은 Input Capability 정보를 나타낼 수 있다. 이 엘레먼트의 값이 0이면 Unspecified, 1이면 Broadband connection, 2이면 SD, 3이면 HD, 4이면 UHD, 5이면 8K, 6이면 3D video, 7이면 High Dynamic Range Imaging, 8이면 Wide Color Gamut, 9이면 2.0 channels, 10이면 2.1 channels, 11이면 5.1 channels, 12이면 6.1 channels, 13이면 7.1 channels, 14이면 22.1 channels, 15이면 3D audio, 16이면 Dialog Level adjustment, 17이면 magic remote control input, 18이면 touch screen input, 19이면 mouse input, 20이면 keyboard input, 21이면 app rendering, 22 내지 255이면 Reserved for future use임을 나타낼 수 있다. 여기서, 상술한 Broadband connection은 해당 component를 delivery하기 위해서 broadband connection이 필요한지 여부를 나타낼 수 있고, Video Rendering Capability 정보는 Resolution, 2D, 3D 및/또는 기타 rendering 관련 정보를 나타낼 수 있다. Audio Surround Sound Capability 정보는 audio channel 정보를 나타낼 수 있고, Audio Mixing/Rendering Capability 정보의 Dialog level adjustment는 audio Dialog level을 조절할 수 있는지 여부를 나타낼 수 있다. Input Capability 정보는 특정 Input device에 맞추어 제작된 방송 프로그램임을 나타낼 수 있다. app rendering은 app rendering이 필요한지 여부를 나타낼 수 있다.
TargetDevice 엘레먼트는 컴포넌트가 디스플레이되는 타겟 디바이스의 정보를 나타낼 수 있다. 이 엘레먼트의 값이 0이면 Unspecified, 1이면 Primary, 2이면 Companion, 3이면 Inset on Primary Screen ("PictureinPicture"), 4이면 Reserved for future use임을 나타낼 수 있다.
도 73은 본 발명의 일 실시예에 따른 Component 엘레먼트의 xml shema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Component 엘레먼트는 서브 엘레먼트로 ComponentType 엘레먼트, ComponentRole 엘레먼트, StartTime 엘레먼트, EndTime 엘레먼트, Language 엘레먼트, Length 엘레먼트, ParentalRating 엘레먼트, DeviceCapability 엘레먼트 및/또는 TargetDevice 엘레먼트를 포함할 수 있다. 상술한 각 엘레먼트에 대한 상세한 설명은 전술하였다.
도 74는 본 발명의 일 실시예에 따른 Language 엘레먼트 및 ComponentType 엘레먼트의 xml shema를 나타낸 도면이다.
본 발명의 일 실시예에 따른 Language 엘레먼트는 해당 컴포넌트의 표현 언어를 나타낼 수 있다. 이 엘레먼트는 어트리뷰트로 languageSDPTag 어트리뷰트를 가질 수 있다. languageSDPTag 어트리뷰트는 세션 디스크립션에서 나타내는 언어를 일치시키기 위해 태그되는 값을 나타낼 수 있다. (L74010)
본 발명의 일 실시예에 따른 ComponentType 엘레먼트는 컴포넌트의 타입을 기술하는 엘레먼트일 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 하위에 존재하므로 E3 레벨에 해당할 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 타입을 나타내는 필수 요소이기 때문에 cardinality는 1을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified, 1이면 Presentable Video component, 2이면 Presentable Audio component, 3이면 Presentable CC component, 4이면 Appbased Enhancement, 5 내지 255이면 Reserved for future use임을 나타낼 수 있다. (L74020)
도 75는 본 발명의 일 실시예에 따른 ComponentRole 엘레먼트의 xml shema를 나타낸 도면이다.
ComponentRole 엘레먼트는 컴포넌트의 role를 기술하는 엘레먼트일 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 하위에 존재하므로 E3 레벨에 해당할 수 있다. 이 엘레먼트는 컴포넌트 엘레먼트의 타입을 나타내는 필수 요소이기 때문에 cardinality는 1을 가질 수 있다. 각 컴포넌트는 전술한 ComponentType 엘레먼트의 타입에 따라 role을 가질 수 있으며 ComponentRole 엘레먼트의 값에 따라 해당하는 role을 가질 수 있다. 이 엘레먼트의 값이 0이면 unspecified를, 1이면 Primary (default) video를, 2이면 Alternative camera view를, 3이면 Other alternative video component를, 4면 Sign language (e.g., ASL) inset을, 5면 Follow subject video를, 6이면 Complete main을, 7이면 Music을, 8이면 Dialog를, 9이면 Effects를, 10이면 Visually impaired를, 11이면 Hearing impaired를, 12면 Commentary를, 13이면 Normal을, 14이면 Easy reader를, 15이면 App, 16이면 NRT Content Item, 17이면 On Demand component, 18이면 Notification Stream, 19이면 StartOver, 20이면 Companion Screen, 21 내지 255이면 Reserved for future use임을 나타낼 수 있다.
도 76은 본 발명의 일 실시예에 따른 DeviceCapability 엘레먼트 및 TargetDevice 엘레먼트의 xml schema를 나타낸 도면이다.
DeviceCapability 엘레먼트는 해당 컴포넌트를 렌더링하는 디바이스의 성능 정보를 나타낼 수 있다. 본 발명의 일 실시예는 이 엘레먼트를 이용하여 컴포넌트를 렌더링하기 위한 디바이스의 capability 정보를 제공할 수 있다. 이 엘레먼트의 값 2 내지 8은 디바이스의 Video Rendering Capability 정보를 나타내고, 9 내지 15는 디바이스의 Audio Surround Sound Capability 정보를 나타내고, 16은 Audio Mixing/Rendering Capability 정보를 나타내고, 17 내지 21은 Input Capability 정보를 나타낼 수 있다. 이 엘레먼트의 값이 0이면 Unspecified, 1이면 Broadband connection, 2이면 SD, 3이면 HD, 4이면 UHD, 5이면 8K, 6이면 3D video, 7이면 High Dynamic Range Imaging, 8이면 Wide Color Gamut, 9이면 2.0 channels, 10이면 2.1 channels, 11이면 5.1 channels, 12이면 6.1 channels, 13이면 7.1 channels, 14이면 22.1 channels, 15이면 3D audio, 16이면 Dialog Level adjustment, 17이면 magic remote control input, 18이면 touch screen input, 19이면 mouse input, 20이면 keyboard input, 21이면 app rendering, 22 내지 255이면 Reserved for future use임을 나타낼 수 있다. 여기서, 상술한 Broadband connection은 해당 component를 delivery하기 위해서 broadband connection이 필요한지 여부를 나타낼 수 있고, Video Rendering Capability 정보는 Resolution, 2D, 3D 및/또는 기타 rendering 관련 정보를 나타낼 수 있다. Audio Surround Sound Capability 정보는 audio channel 정보를 나타낼 수 있고, Audio Mixing/Rendering Capability 정보의 Dialog level adjustment는 audio Dialog level을 조절할 수 있는지 여부를 나타낼 수 있다. Input Capability 정보는 특정 Input device에 맞추어 제작된 방송 프로그램임을 나타낼 수 있다. app rendering은 app rendering이 필요한지 여부를 나타낼 수 있다. (L76010)
TargetDevice 엘레먼트는 컴포넌트가 디스플레이되는 타겟 디바이스의 정보를 나타낼 수 있다. 이 엘레먼트의 값이 0이면 Unspecified, 1이면 Primary, 2이면 Companion, 3이면 Inset on Primary Screen ("PictureinPicture"), 4이면 Reserved for future use임을 나타낼 수 있다. (L76020)
도 77은 Presentable Video Component (2D/HD) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Video Component (2D/HD) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우, 어나운스먼트는 Content fragment 내의 PrivateExt 엘레먼트의 subelement로서 Component 엘레먼트 두 개를 이용할 수 있다. (L77010)
Presentable Video Component (2D/HD)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 1 (Video)을 갖고, ComponentRole 엘레먼트의 값으로 1 (Primary Video)을 갖고, DeviceCapability 엘레먼트의 값으로 3 (HD)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L77010)
Presentable Audio Component (5.1 channels)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 2 (Audio)를 갖고, ComponentRole 엘레먼트의 값으로 6 (Completely Main)을 갖고, Language 엘레먼트의 값으로 KOR (한국어)를 갖고, DeviceCapability 엘레먼트의 값으로 11 (5.1 channels)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L77010)
본 발명의 일 실시예에 따른 수신기 (디바이스)는 DeviceCapability 엘레먼트 값을 획득한 후, 해당 기능을 지원할 수 있는지 여부를 판단하여, 사용자에게 Capability 정보를 제공할 수 있다.
이 도면에서, 우측 상단의 그림은 HD 및 5.1 channels를 지원하는 디바이스의 표출되는 화면을 나타낼 수 있다. 이 경우, 본 발명의 일 실시예는 해당 디바이스가 HD 및 5.1 channels을 지원할 수 있음을 화면상에 나타낼 수 있다. (L77020)
이 도면에서, 우측 하단의 그림은 HD를 지원하지만, 5.1 channels를 지원하지 않는 디바이스의 표출되는 화면을 나타낼 수 있다. 이 경우, 본 발명의 일 실시예에 따르면, 5.1 channels을 지원하지 못하는 수신기에서 Capability 정보를 획득 시, 지원하지 못하는 5.1 channels audio 정보를 Grayout 처리하여 화면에 보여줄 수 있다. (L77030)
도 78은 Presentable Video component (UHD) 및 Presentable ENG audio component를 브로드캐스트로 전송하고, Presentable SPA audio component를 브로드밴드로 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Video component (UHD) 및 Presentable ENG audio component를 브로드캐스트로 전송하고, Presentable SPA audio component를 브로드밴드로 전송하는 경우, 어나운스먼트는 Content fragment 내의 PrivateExt 엘레먼트의 subelement로서 Component 엘레먼트 세 개를 이용할 수 있다. (L78010)
Presentable Video component (UHD)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 1 (Video)을 갖고, ComponentRole 엘레먼트의 값으로 1 (Primary Video)을 갖고, DeviceCapability 엘레먼트의 값으로 4 (UHD)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L78010)
Presentable ENG audio component (through Broadcast)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 2 (Audio)를 갖고, ComponentRole 엘레먼트의 값으로 6 (Completely Main)을 갖고, Language 엘레먼트의 값으로 ENG (영어)를 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L78010)
Presentable SPA audio component (through Broadband)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 2 (Audio)를 갖고, ComponentRole 엘레먼트의 값으로 6 (Completely Main)을 갖고, Language 엘레먼트의 값으로 SPA (스페인어)를 갖고, DeviceCapability 엘레먼트의 값으로 1 (브로드밴드로 컴포넌트가 전송됨)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L78010)
본 발명의 일 실시예에 따른 수신기 (디바이스)는 DeviceCapability 엘레먼트 값을 획득한 후, 해당 기능을 지원할 수 있는지 여부를 판단하여, 사용자에게 Capability 정보를 제공할 수 있다.
이 도면에서, 우측 그림은 Brodaband connection을 지원하지 못하는 경우 또는 지원할 수 있지만 연결되어 있지 않은 경우에 수신기 (디바이스)에 표출되는 화면을 나타낼 수 있다. (L78020)
본 발명의 일 실시예에 따른 수신기는 DeviceCapability의 값이 1인 경우, Broadband로 해당 component가 전송됨을 알 수 있다. 이 경우, Brodaband connection을 지원하지 못하는 디바이스 또는 지원할 수 있지만 연결되어 있지 않은 디바이스는 브로드밴드로 전송되는 Component의 정보를 Grayout처리하여 화면에 보여줄 수 있다. 이 경우, SPA 오디오 정보를 Grayout처리하여 화면에 보여줄 수 있다. (L78020)
도 79는 Presentable Video Component (UHD/Wide Color Gamut) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우 Component 엘레먼트의 xml 스키마 구조의 일 실시예를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Presentable Video Component (UHD/Wide Color Gamut) 및 Presentable Audio Component (5.1 channels)를 전송하는 경우, 어나운스먼트는 Content fragment 내의 PrivateExt 엘레먼트의 subelement로서 Component 엘레먼트 두 개를 이용할 수 있다. (L79010)
Presentable Video Component (UHD/Wide Color Gamut)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 1 (Video)을 갖고, ComponentRole 엘레먼트의 값으로 1 (Primary Video)을 갖고, DeviceCapability 엘레먼트의 값으로 4 (UHD) 및 8 (WCG)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L79010)
Presentable Audio Component (5.1 channels)를 위한 컴포넌트 엘레먼트는 ComponentType 엘레먼트의 값으로 2 (Audio)를 갖고, ComponentRole 엘레먼트의 값으로 6 (Completely Main)을 갖고, Language 엘레먼트의 값으로 KOR (한국어)를 갖고, DeviceCapability 엘레먼트의 값으로 11 (5.1 channels)을 갖고, TargetDevice 엘레먼트의 값으로 1 (Primary Device)을 가질 수 있다. (L79010)
본 발명의 일 실시예에 따른 수신기 (디바이스)는 DeviceCapability 엘레먼트 값을 획득한 후, 해당 기능을 지원할 수 있는지 여부를 판단하여, 사용자에게 Capability 정보를 제공할 수 있다.
이 도면에서, 우측 상단의 그림은 UHD, WCG (Wide Color Gamut) 및 5.1 channels을 지원하는 디바이스의 표출되는 화면을 나타낼 수 있다. 이 경우, 본 발명의 일 실시예는 해당 디바이스가 UHD, WCG 및 5.1 channels을 지원할 수 있음을 화면상에 나타낼 수 있다. (L79020)
이 도면에서, 우측 하단의 그림은 UHD 및 5.1 channels를 지원하지만, WCG를 지원하지 않는 디바이스의 표출되는 화면을 나타낼 수 있다. 이 경우, 본 발명의 일 실시예에 따르면, 5.1 channels을 지원하지 못하는 수신기에서 Capability 정보를 획득 시, 지원하지 못하는 WCG 정보를 Grayout 처리하여 화면에 보여줄 수 있다. (L79030)
도 80은 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트 (component element)를 나타낸 도면이다.
컴포넌트 엘레멘트는 컴포넌트 서브 엘레먼트 (Component subelement)의 루트 엘레먼트 (root element)이다. 컴포넌트 엘레먼트는 E2 레벨로 시작한다. 컴포넌트 엘레먼트는 컴포넌트에 대한 상세 내용을 기술하기 때문에 컴포넌트의 수만큼의 엘레먼트 (element)로 기술될 수 있다. 일부 검토넌트에 대하여, 컴포넌트 엘레먼트가 생략되는 것도 가능하다. 따라서, 컴포넌트 엘레먼트는 0..N의 cardinality를 가진다. 컴포넌트 엘레먼트는 ComponentType 속성, ComponentRole 엘레먼트, Language 엘레먼트 및/또는 EssentialCapabilities 엘레먼트를 포함할 수 있다.
ComponentType 필드는 컴포넌트의 종류 (type) 를 나타내는 속성 (attribute) 정보를 포함한다. 즉, ComponentType 필드는 컴포넌트의 Type을 나타내는 attribute이다. ComponentType 필드는 컴포넌트의 종류를 나타내는 필수 요소이기 때문에 Cardinality는 1로 정의될 수 있다. ComponentType 필드는 값에 따라, 컴포넌트가 Presentable Video, Presentable Audio, Presentable CC (closed caption) 및/또는 Presentable App 에 해당됨을 식별할 수 있다.
도시된 메시지에는 하나 이상의 필드가 포함될 수 있고, 각각의 필드는 각각의 의미 또는 정보를 포함할 수 있다. 각각의 필드에는 type 정보가 할당될 수 있고, type 정보는 'E', 'A', 'E1', 'E2', 또는 'E[n]' 의 값을 가질 수 있다. 'E'는 해당 필드가 엘레먼트에 해당됨을 나타낸다. 'A'는 해당 필드가 속성 (attribute) 정보에 해당됨을 나타낸다. 'E1'은 해당 필드가 서브 엘레먼트임을 나타낸다. 서브 엘레먼트는 엘레먼트 내에서 정의되는 하위 엘레먼트에 해당된다. 'E2'는 서브 엘레먼트의 서브 엘레먼트를 나타낸다. 즉, 'E[n]' 은 엘레먼트의 [n1] 번째 하위 엘레먼트를 나타낼 수 있다.
도 81은 본 발명의 일 실시예에 따른, ComponentRol 엘레먼트를 나타낸 도면이다.
ComponentRole 엘레먼트는 컴포넌트의 역할 (role)을 기술하는 엘레먼트이다. ComponentRole 엘레먼트는 컴포넌트의 하위 엘레먼트로 정의되는 것이 바람직하므로, ComponentRole 엘레먼트는 E3의 레벨로 시작될 수 있다. ComponentRole 엘레먼트는 String 값을 가질 수 있다. ComponentRole 엘레먼트의 값은, Announcement Data 제작 시에 방송사에서 임의의 유효한 String 값으로 지정될 수 있다. ComponentRole 엘레먼트의 값은 확장 가능한 String 값이기 때문에, 어떠한 값의 Capability String 이라도 기술이 가능하다. 타겟 장치 (Target Device; 예를 들면, 수신기)에서는, ComponentRole 엘레먼트의 값을 이용하여, 엔드 유저 (End User; 예를 들면, 시청자) 에게 유용한 정보를 보여줄 수 있다.
ComponentRole 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다.
ComponentRole 엘레먼트가 나타낼 수 있는 컴포넌트의 종류는, presentable video component에 대하여는, "Primary video", "Alternative camera view", "Other alternative video component", "Sign language inset" 및/또는 "Follow subject video" 를 포함할 수 있다.
ComponentRole 엘레먼트가 나타낼 수 있는 컴포넌트의 종류는, presentable audio component에 대하여는, "Complete main", "Music", "Dialog", "Effects", "Visually impaired", "Hearing impaired" 및/또는 "Commentary" 를 포함할 수 있다.
ComponentRole 엘레먼트가 나타낼 수 있는 컴포넌트의 종류는, presentable CC component에 대하여는, "Normal" 및/또는 "Easy reader"를 포함할 수 있다.
ComponentRole 엘레먼트가 나타낼 수 있는 컴포넌트의 종류는, presentable App (application) component에 대하여는, "On Demand", "Startover", 및/또는 "CompanionScreen" 를 포함할 수 있다.
도 82는 본 발명의 다른 실시예에 따른. 컴포넌트 엘레먼트를 XML 형태로 나타낸 도면이다.
본 발명의 일 실시예에 따른 컴포넌트 엘레먼트는, 컴포넌트가 다수의 종류의 미디어로 구성되는 경우, 각각의 컴포넌트의 종류를 시그널링할 수 있어, 수신측에서는 시청자 또는 수신기가 원하는 종류의 컴포넌트를 사전에 식별할 수 있는 효과가 있다. 또한, 컴포넌트의 역할을 문자 형태로 제공할 수 있어, 해당 정보를 소비하는 시청자가 원하는 컴포넌트를 용이하게 인식하거나, 선택할 수 있는 효과가 있다.
본 발명의 일 실시예에 따른 컴포넌트 엘레먼트는 OMA BCAST에서 기 정의된 Service Guide Content Fragement에 확장 형태로 포함될 수 도 있을 것이다.
도 83은 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트를 나타낸 도면이다.
컴포넌트 엘레멘트는 컴포넌트 서브 엘레먼트 (Component subelement)의 루트 엘레먼트 (root element)이다. 컴포넌트 엘레먼트는 E2 레벨로 시작한다. 컴포넌트 엘레먼트는 컴포넌트에 대한 상세 내용을 기술하기 때문에 컴포넌트의 수만큼의 엘레먼트 (element)로 기술될 수 있다. 일부 검토넌트에 대하여, 컴포넌트 엘레먼트가 생략되는 것도 가능하다. 따라서, 컴포넌트 엘레먼트는 0..N의 cardinality를 가진다. 컴포넌트 엘레먼트는 PresentableVideoComponent 엘레먼트, PresentableAudioComponent 엘레먼트, PresentableCCComponent 엘레먼트 및/또는 PresentableAppComponent 엘레먼트를 포함할 수 있다.
PresentableVideoComponent 엘레먼트는 Presentable Video Component를 기술하는 엘레먼트이다. PresentableVideoComponent 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로써, E3 level로 시작할 수 있다. PresentableVideoComponent 엘레먼트는 string 값을 가지며, video component의 역할 (role)을 기술할 수 있다. PresentableVideoComponent 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다. PresentableVideoComponent 엘레먼트가 나타낼 수 있는 컴포넌트의 역할은 "Primary video", "Alternative camera view", "Other alternative video component", "Sign language inset" 및/또는 "Follow subject video" 를 포함할 수 있다.
PresentableAudioComponent 엘레먼트는 Presentable Audio Component를 기술하는 엘레먼트이다. PresentableAudioComponent 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로써 E3 레벨로 시작할 수 있다. PresentableAudioComponent 엘레먼트는 string 값을 가지며, audio component의 역할 (role) 을 기술한다. PresentableAudioComponent 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다. PresentableAudioComponent 엘레먼트가 나타낼 수 있는 컴포넌트의 역할은 "Complete main", "Music", "Dialog", "Effects", "Visually impaired", "Hearing impaired" 및/또는 "Commentary" 를 포함할 수 있다.
도 84는 본 발명의 다른 실시예에 따른, PresentableCCComponent 엘레먼트 및 PresentableAppComponent 엘레먼트를 나타낸 도면이다.
본 도면에서 설명되는 엘레먼트는, 도 83에서 설명된 컴포넌트 엘레먼트에 포함될 수 있다.
PresentableCCComponent 엘레먼트는 Presentable CC Component를 기술하는 엘레먼트이다. PresentableCCComponent 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로써 E3 레벨로 시작할 수 있다. PresentableCCComponent 엘레먼트는 string 값을 가지며, cc component의 역할 (role)을 기술할 수 있다. PresentableCCComponent 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다. PresentableCCComponent 엘레먼트가 나타낼 수 있는 컴포넌트의 역할은, "Normal" 및/또는 "Easy reader"를 포함할 수 있다.
PresentableAppComponent 엘레먼트는 Presentable App Component를 기술하는 엘레먼트이다. PresentableAppComponent 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로써 E3 레벨로 시작할 수 있다. PresentableAppComponent 엘레먼트는 string 값을 가지며, app component의 역할 (role)을 기술한다. PresentableAppComponent 엘레먼트는 컴포넌트에 대하여, 시청자가 인식할 수 있는 문자의 형태의 설명을 제공하는 정보를 포함한다. PresentableAppComponent 엘레먼트가 나타낼 수 있는 컴포넌트의 역할은, On Demand", "Startover", 및/또는 "CompanionScreen" 를 포함할 수 있다.
본 실시예에 따라 컴포넌트 엘레먼트를 구성하는 경우, Component fragment를 새롭게 구성하기 위해 필요한 구성 요소 및/또는 속성 값들의 반복 사용을 줄일 수 있고, End User에게 Announcement 정보들을 효율적이고, 직관적으로 제공할 수 있다.
도 85는 본 발명의 다른 실시예에 따른, 컴포넌트 엘레먼트를 XML 형태로 나타낸 도면이다.
본 발명의 다른 실시예에 따른 컴포넌트 엘레먼트는, 컴포넌트가 다수의 종류의 미디어로 구성되는 경우, 각각의 컴포넌트의 종류를 시그널링할 수 있어, 수신측에서는 시청자 또는 수신기가 원하는 종류의 컴포넌트를 사전에 식별할 수 있는 효과가 있다. 또한, 컴포넌트의 역할을 문자 형태로 제공할 수 있어, 해당 정보를 소비하는 시청자가 원하는 컴포넌트를 용이하게 인식하거나, 선택할 수 있는 효과가 있다. 또한, 본 발명의 다른 실시예에 따르면, 컴포넌트의 Type 별로 Component element를 구성하고, 각 Component의 Role을 String으로 기술함으로써 확장 가능성이 확보할 수 있는 효과가 있다.
본 발명의 일 실시예에 따른 컴포넌트 엘레먼트는 OMA BCAST에서 기 정의된 Service Guide Content Fragement에 확장 형태로 포함될 수 도 있을 것이다.
도 86은 본 발명의 일 실시예에 따른, Essential Capabilities 엘레먼트를 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 컴포넌트 엘레먼트는 Capability 항목을 포함할 수 있다. Capability 항목은, 수신기가 해당 컴포넌트를 적절히 디코딩하기 위하여 요구되는 수신기의 성능을 알리는 정보에 해당될 수 있다. Capability 항목은 Capability code와 String의 조합으로 구성될 수 있다. 본 발명의 일 실시예는 Capability code와 Capability category 에 새로운 값을 추가로 정의하는 것을 제안한다.
도면을 참조하면, Capability 항목은, 컴포넌트 엘레먼트의 하위 엘레먼트로 정의될 수 있다. Capability 항목은 EssentialCapabilities 엘레먼트, CapabilituCodes 엘레먼트, CapabilityString 엘레먼트 및/또는 Category 속성 정보를 포함할 수 있다.
EssentialCapabilities 엘레먼트는 서비스 (미디어, 방송 서비스)의 의미있는 프레젠테이션을 위하여 요구되는 capability를 기술한다. EssentialCapabilities 엘레먼트는 CapabilityCodes 엘레먼트, 및/또는 CapabilityString 엘레먼트를 포함할 수 있다. EssentialCapabilities 엘레먼트는 컴포넌트 엘레먼트의 하위 엘레먼트로 정의될 수 있으므로, E3 레벨로 시작될 수 있다.
CapabilityCodes 엘레먼트는 capability의 종류를 식별하는 code에 대한 값을 가진다. CapabilityCodes 엘레먼트는 하나 이상의 capability를 가리킬 수 있다.
CapabilityString 엘레먼트는 capability를 설명하는 string를 포함할 수 있다. CapabilityString 엘레먼트는 capability에 대한 설명을 문자로 표현하기 위한 정보를 포함할 수 있다. CapabilityString 엘레먼트는 Category 속성 정보를 포함할 수 있다.
Category 속성 정보는 CapabilityString 엘레먼트에 의하여 설명되는 capability 의 카테고리 (category)를 가리키는 정보이다.
도 87은 본 발명의 일 실시예에 따른, CapabilityCode 엘레먼트의 값에 따른 capability의 의미를 나타낸 도면이다.
CapabilityCode 엘레먼트의 값에 따른 의미는 도면을 참조하는 것으로 설명을 대체한다.
본 발명의 일 실시예에 따르면, Download Protocols의 항목에 새로운 값을 정의하고, 해당 값이 나타내는 capability가 'IP via Broadband' 에 해당되도록 설정될 수 있다. 즉, 차세대 방송 시스템에서는 브로드밴드의 IP를 통한 데이터의 수신이 가능하므로, IP via Broadband에 해당하는 Download protocol에 capability의 한 종류로 추가할 수 있다.
본 발명의 일 실시예에 따르면, CapabilityCode 엘레먼트가 Rendering Capability를 식별할 수도 있다. CapabilityCode 엘레먼트의 값에 따라, 컴포넌트를 사용하기 위하여 수신기가 필요로 하는 Rendering Capability가 시그널링될 수 있다. CapabilityCode 엘레먼트가 나타내는 Rendering Capability는, 수신기가 어떠한 종류의 비디오, 오디오, 어플리케이션, 및/또는 CC를 렌더링할 수 있는지를 가리킬 수 있다.
도 88은 본 발명의 일 실시예에 따른, Category 속성 정보의 값에 따른 Capability Category를 나타낸 도면이다.
본 발명에 따르면, capability가 Rendering Capability의 카테고리에 포함되는 것을 식별할 수 있도록, Category 속성 정보의 값을 추가로 정의할 수 있다. 예를 들면, Category 속성 정보의 값이 0x06 을 가지는 경우, capability가 Rendering Capability의 카테고리에 포함됨을 나타낼 수 있다.
도 89는 본 발명의 일 실시예에 따른, 컴포넌트 별로 Pay Per View (PPV) 가 제공되는 과정을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, Component 별로, Payperview 서비스를 제공할 수 있다. 즉, 본 발명에 따르면, 하나의 서비스 또는 컨텐츠 내에서, 특정 컴포넌트를 유료로 서비스할 수 있다. 예를 들면, 본 발명에 따르면, Announcement에서 Component 를 정의하여, Component에 따라서 Payperview 서비스를 제공할 수 있다.
이를 위하여, 컴포넌트 엘레먼트 (Component element)에 대한 속성 및/또는 요소 정보를 Content 내에 기술하여 송신할 수 있다. 각 Component는 Pay에 대한 정보를 가질 수 있다. 방송 프로그램 (미디어, 방송 서비스, 또는 방송 컨텐츠) 은 무료일 수 있지만, 방송 프로그램의 각 컴포넌트의 부가적인 정보의 양과 질에 따라서 방송사는, 컴포넌트에 대하여 요금을 부과할 수 있다. 예를 들면, 방송사는, HD는 무료이지만 고화질을 위한 UHD를 시청하기 위한 데이터를 전송하는 Video component를 소비하기 위하여는, 시청자가 요금을 내도록 설정할 수 있다. 또는 방송사는 Audio의 Stereo 음향을 위한 Audio component에 대하여 요금을 부가할 수 있도록 설정할 수 있다. 또는 방송사는 선거 프로그램을 보는 중, voting app을 사용하기 위히여 필요한 컴포넌트에 대하여는, 요금을 지불하여야 해당 컴포넌트를 시청자가 소비할 수 있도록 설정할 수 있다. 이는 본 발명에서 제시하는 바와 같이, Component 별로 ESG를 전송함으로써, 가능한 Payperview 방안이다.
각 컴포넌트 별로, PPV가 설정 가능하도록 하기 위하여, 컴포넌트 엘레먼트는 각 컴포넌트에 대하여 PPV 관련 정보를 포함할 수 있다. 또는 ComponentRole 엘레먼트는 각 component role에 대하여 PPV 관련 정보를 포함할 수 있다. PPV 관련 정보는 컴포넌트 또는 component role에 대하여 PPV가 적용되는지 여부를 식별하는 정보, PPV 를 위한 결제 방식에 대한 정보, PPV 를 위한 가격 정보, PPV에 대한 결제가 진행된 이후 인증과 관련된 정보, 및/또는 PPV가 결제된 이후, 해당 컴포넌트를 유효하게 사용할 수 있는 기간 정보를 포함할 수 있다.
도면을 참조하여, 본 발명이 적용될 수 있는 일 실시예를 설명하면, ESG (Electronic Service Guide)에서 방송 프로그램에 PPV로 시청 가능한 요소가 있음을 알 수 있다. 수신기는 PPV로 제공되는 컴포넌트의 항목을 ESG를 통하여 디스플레이할 수 있다. 시청자가 PPV로 시청 가능한 요소가 있는 방송 프로그램을 선택하면, 수신기는 PPV로 시청 가능한 요소가 해당 프로그램에 존재함을 알리고, 시청자에게 해당 요소를 PPV로 시청할 것인지를 묻는 UI (User Interface)를 디스플레이하여, 시청자의 선택을 수신할 수 있다. 본 실시예에서는 방송 프로그램이 기본적으로 제공하는 영상이외에 추가의 영상이 존재하는 경우를 도시하였다. 시청자가 Alternative View에 해당하는 Video component를 보기위해 해당 금액을 결재하면, Alternative View 화면을 볼 수 있다. 이 과정에서, 전술한 제어 유닛은, PPV 관련 정보를 이용하여, 특정 컴포넌트에 대하여 PPV가 적용되는지를 식별하는 표시를 포함하는 방송 편성표를 생성할 수 있다. 전술한 디스플레이 유닛은, 생성된 방송 편성표를 디스플레이할 수 있다.
Alternative View 화면을 나중에 보기로 선택할 수 있다. 이 경우, 수신기는 현재 영상이 종료되거나, 시청자가 원하는 특정 시점에서 Alternative View 화면을 디스플레이할 수 있다. 또는 메인 디바이스가 제공하는 기본 영상과 함께, Alternative View 화면을 실시간으로 Companion Device를 이용하여 시청하는 것도 가능하다..
도 90는 본 발명의 일 실시예에 따른, 방송 프로그램의 각 컴포넌트 별로 미디어가 제공되는 순서를 나타낸 도면이다.
수신기는 방송 신호를 통하여 ESG (Electronic Service Guide) 데이터를 수신한다 (JS90010). ESG 데이터는 전술한 엘레먼트, Service fragment, Content fragment, Schedule fragment 및/또는 Component Fragment 를 포함할 수 있다.
수신기는 Service fragment를 파싱하여, 채널 리스트에 표시될 방송사 리스트를 생성한다 (JS90020).
수신기는 Content fragment를 파싱하여, 각 방송사 별로 제공되는 프로그램의 리스트를 생성한다 (JS90030).
수신기는 Schedule fragment를 파싱하여, 각 방송사 별로 제공되는 프로그램의 스케쥴을 생성한다 (JS90040).
수신기는, 시청자/사용자로부터 방송 편성표를 디스플레이하도록 하는 명령을 수신한다 (JS90050).
수신기는 방송 서비스 또는 방송 프로그램에 포함되는 컴포넌트에 대한 역할이 ESG에 표시되었는지 판단한다 (JS90060).
방송 서비스 또는 방송 프로그램에 포함되는 컴포넌트에 대한 역할이 ESG에 표시되는 경우, 수신기는 방송 편성표에서 각 프로그램에 대한 상세 정보를 디스플레이한다 (JS90070). 수신기는 컴포넌트의 역할에 대한 정보는 전술한 컴포넌트 엘레먼트 및 그 하위 엘레먼트에서 획득할 수 있다.
수신기는, 시청자/사용자로부터, 특정 프로그램에 대한 선택 또는 예약 시청 명령을 수신한다 (JS90080).
수신기는, 시청자/사용자에 의하여 선택된 방송 프로그램에 진입 (디코딩) 한다 (JS90090).
수신기는 방송 프로그램에 포함되는 각 컴포넌트의 역할의 특성에 맞도록 Video, Audio, CC 및/또는 App를 화면에 디스플레이한다 (JS90100). 수신기는 시청자/사용자가 시청하기를 원하는 Video, Audio, CC 및/또는 App의 컴포넌트를 선택하는 명령을 시청자/사용자로부터 수신할 수 있다. 이 경우, 각 컴포넌트에 대한 PPV 정책이 있는 경우, 전술한 방식으로 PPV가 처리될 수 있다. ESG에는, 각 컴포넌트에 대하여, PPV 정책이 있는지 알리는 표시가 디스플레이될 수 있다.
수신기가 디스플레이하는 미디어를 시청자/사용자가 시청한다 (JS90100).
한편, 방송 서비스 또는 방송 프로그램에 포함되는 컴포넌트에 대한 역할이 ESG에 표시되는 않는 경우, 수신기는 방송 편성표에 프로그램의 이름 및/또는 프로그램의 시간 정보를 디스플레이한다 (JS90120).
수신기는, 시청자/사용자로부터, 방송 편성표에서 특정 프로그램에 대한 선택 또는 예약 시청 명령을 수신한다 (JS90130).
수신기는 시청자/사용자가 선택한 방송 프로그램에 진입 (디코딩) 한다 (JS90140).
한편, 방송 시청중, 시청자/사용자가 방송 편성표를 디스플레이하도록 하는 명령을 입력하면, 수신기는 (JS90050) 단계부터 제시된 절차를 수행한다.
도 91은 본 발명의 일 실시예에 따른, 방송 프로그램의 각 컴포넌트 별로 미디어가 제공되는 화면을 나타낸 도면이다.
L91010을 참조하면, ESG에 CNTV라는 방송 서비스 (방송국)에서 제공하는 'G' 프로그램에 대하여, 각각의 컴포넌트의 역할이 기재된 도면과, 그렇지 않은 도면이 도시되어있다. 예를 들면, 컴포넌트의 역할이 ESG에 표시되는 경우는, ESG는 'G' 프로그램에 대하여, 'Alternative View', 'Follow Subject' 및 'Sign Language' 를 제공하는 컴포넌트가 존재함을 나타내고 있다.
L91020을 참조하면, 'G' 프로그램이 디스플레이되는 경우, 수신기는 'Sign language' 나, 'follow subject video' 를 함께 디스플레이하거나, 이러한 컴포넌트들에 대한 thumbnail 이미지를 디스플레이할 수 있다. 여기서 'Sign language'는 수화에 해당될 수 있고, 'follow subject video'는 현재 프로그램과 관련된 영상에 해당될 수 있다.
L91030을 참조하면, 'G' 프로그램에 대하여, 'Alternative View'를 시청자가 선택한 경우, 현재 프로그램에서 기본적으로 제공하는 영상이외에, 다른 영상을 제공하는 장면이 도시되어 있다.
도 92는 본 발명의 일 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들어, 'B' 프로그램에 대하여는 수화 (sign language) 컨텐츠가 제공될 수 있다. 따라서, 수화 컨텐츠를 이용하기를 원하는 시청자는, 'sign language' 가 표시된 프로그램을 선택하여, 해당 프로그램을 채널 전환을 하거나, 해당 프로그램에 대한 시청 예약을 수행할 수 있다. 수신기는 시청 예약이 된 프로그램의 시작시간이 되면, 해당 프로그램의 시청 여부에 대한 문의를 시청자에게 제공하고, 해당 프로그램을 디스플레이할 수 있다.
도 93은 본 발명의 다른 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'G'프로그램에 대하여 'Alternative View' 가 존재함을 나타낼 수 있다. 시청자가 'G' 프로그램을 선택하면, 수신기는 시청자에게 'Alternative View'를 시청할 것인지에 대한 문의를 제공할 수 있다. 수신기가 시청자로부터 'Alternative View'를 시청할 것을 지시하는 명령을 수신하면, 수신기는 현재 영상을 'Alternative View' 로 교체하여 디스플레이할 수 있다. 또는 수신기는 'Alternative View'를 compainion device로 전달하여, companion device에서 'Alternative View'가 디스플레이될 수 있도록 처리할 수 있다.
도 94는 본 발명의 다른 실시예에 따른, 비디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'I' 프로그램에 대한 'Follow subject video' 컴포넌트가 존재함을 나타낼 수 있다. 시청자가 'I' 프로그램을 선택하면, 수신기는 시청자에게 'Follow subject video'를 확인할 것인지에 대한 문의를 제공할 수 있다. 수신기가 시청자로부터 'Follow subject video'를 확인할 것을 지시하는 명령을 수신하면, 수신기는 현재 영상을 'Follow subject video' 로 교체하여 디스플레이할 수 있다. 또는 수신기는 'Follow subject video'를 compainion device로 전달하여, companion device에서 'Follow subject video'가 디스플레이될 수 있도록 처리할 수 있다.
도 95는 본 발명의 일 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'I' 프로그램에 대한 'Music' 컴포넌트가 존재함을 나타낼 수 있다. 'Music' 컴포넌트는 해당 프로그램에 대하여 보다 나은 음질의 오디오를 제공하는 컴포넌트에 해당될 수 있다. 시청자는 보다 나은 음질의 오디오를 제공받기 위하여 'I' 프로그램을 선택하여, 해당 프로그램과 'Music' 컴포넌트를 함께 소비할 수 있다.
도 96은 본 발명의 다른 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'G' 프로그램에 대한 'Dialog' 컴포넌트가 존재함을 나타낼 수 있다. 'Dialog' 컴포넌트는 해당 프로그램에서 특정 출연자의 대사나 발언에 대한 별도의 컴포넌트에 해당된다. 시청자는 'Dialog' 컴포넌트를 제공하는 'G' 프로그램을 선택하여, 해당 프로그램의 출연진의 Dialog 를 별도의 스피커를 통하여 재생하여, 해당 컨텐츠를 소비할 수 있다. 'Dialog' 컴포넌트가 별도로 제공되는 경우, 수신기는 Dialog의 레벨을 별도로 조절할 수 있다.
도 97은 본 발명의 다른 실시예에 따른, 오디오 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'D' 프로그램에 대한 'Visually Impaired' 컴포넌트가 존재함을 나타낼 수 있다. 'Visually Impaired' 컴포넌트는 해당 프로그램에서 제공하는 시각적인 컨텐츠에 대한 음성적 설명을 제공하는 컴포넌트에 해당될 수 있다. 'Visually Impaired' 컴포넌트는 시각 장애인을 위하여, 프로그램에 대한 음성적 설명을 제공하는 컴포넌트에 해당될 수 있다. 시청자는 'Visually Impaired' 컴포넌트를 제공하는 'D' 프로그램을 선택하여, 'Visually Impaired' 컴포넌트에 해당되는 컨텐츠를 소비할 수 있다. 이때, 수신기는 'Visually Impaired' 컴포넌트를 main deivce에서 재생할 수도 있도, companion device로 'Visually Impaired' 컴포넌트를 전달하여, companion device에서 해당 컴포넌트를 재생할 수 있도록 처리할 수 있다.
도 98은 본 발명의 일 실시예에 따른, CC (Closed Caption) 컴포넌트에 대한 역할 (role)이 ESG에 표시되는 경우를 나타낸 도면이다.
수신기는 시청자의 방송 편성표에 대한 요청을 수신하고, 방송 편성표를 디스플레이한다. 방송 편성표에는 현재 시각 이후의 방송 프로그램에 대한 정보가 디스플레이된다. 특정 프로그램에 대하여는 특정한 역할에 해당되는 컴포넌트가 제공된다는 것이 ESG에 표시될 수 있다. 예를 들면, 방송 편성표는 'D' 프로그램에 대한 'Easy Reader' 컴포넌트가 존재함을 나타낼 수 있다. 'Easy Reader' 컴포넌트는 해당 프로그램의 컨텐츠에 대한 자막 또는 서브타이틀을 제공하는 컴포넌트에 해당될 수 있다. 자막 또는 서브타이틀은 하나 이상의 언어로 제공될 수 있다. 시청자는 'Easy Reader' 컴포넌트를 제공하는 'D' 프로그램을 선택하여, 'Easy Reader' 컴포넌트에 해당되는 컨텐츠를 소비할 수 있다. 이때, 수신기는 'Easy Reader' 컴포넌트를 main deivce에서 재생할 수도 있도, companion device로 'Easy Reader' 컴포넌트를 전달하여, companion device에서 해당 컴포넌트를 재생할 수 있도록 처리할 수 있다.
도 99는 본 발명의 일 실시예에 따른, 방송 신호를 수신 처리하는 과정을 나타낸 순서도이다.
수신기는 하나 이상의 컴포넌트 (component) 를 포함하는 방송 컨텐트 및 상기 하나 이상의 컴포넌트를 설명하는 컴포넌트 엘레먼트 (element) 를 포함하는 방송 신호를 수신한다 (JS99010).
수신기는 컴포넌트 엘레먼트를 파싱하고, 상기 파싱된 컴포넌트 엘레먼트를 참조하여 상기 방송 컨텐트를 디코딩한다 (JS99020). 여기서, 컴포넌트 엘레먼트는, 컴포넌트를 처리하기 위하여 요구되는 방송 수신기의 성능 (Capability) 를 설명하는 성능 엘레먼트를 포함할 수 있다. 또는 컴포넌트 엘레먼트는 전술한 바와 같이 구성될 수도 있다.
수신기는 디코딩된 방송 컨텐트를 디스플레이한다 (JS99030).
도 100은 본 발명의 일 실시예에 따른, 방송 신호를 송신 처리하는 과정을 나타낸 순서도이다.
송신기는 방송 컨텐트에 포함되는 하나 이상의 컴포넌트 (component) 를 생성한다 (JS100010).
송신기는 하나 이상의 컴포넌트를 설명하는 컴포넌트 엘레먼트 (element) 를 생성한다 (JS100020). 여기서, 상기 컴포넌트 엘레먼트는, 상기 컴포넌트를 처리하기 위하여 요구되는 방송 수신기의 성능 (Capability) 를 설명하는 성능 엘레먼트를 포함할 수 있다. 또는 컴포넌트 엘레먼트는 전술한 바와 같이 구성될 수도 있다.
송신기는 하나 이상의 컴포넌트와 상기 컴포넌트 엘레먼트를 포함하는 방송 신호를 생성한다 (JS100030).
송신기는 생성된 방송 신호를 전송한다 (JS100040).
도 101은 본 발명의 일 실시예에 따른, 방송 수신기를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 수신기는 방송 신호 인터페이스, 제어 유닛 및/또는 디스플레이 유닛을 포함할 수 있다.
방송 신호 인터페이스 (J101010)는 하나 이상의 컴포넌트 (component) 를 포함하는 방송 컨텐트 및 상기 하나 이상의 컴포넌트를 설명하는 컴포넌트 엘레먼트 (element) 를 포함하는 방송 신호를 수신한다. 방송 신호 인터페이스는 브로드캐스트, 브로드밴드 및/또는 IP 네트워크로 전송되는 데이터를 수신할 수 있다.
제어 유닛 (J101020) 은 컴포넌트 엘레먼트를 파싱하고, 파싱된 컴포넌트 엘레먼트를 참조하여 상기 방송 컨텐트를 디코딩한다. 컴포넌트 엘레먼트는, 컴포넌트를 처리하기 위하여 요구되는 방송 수신기의 성능 (Capability) 를 설명하는 성능 엘레먼트를 포함할 수 있다. 또는 컴포넌트 엘레먼트는 전술한 바와 같이 구성될 수도 있다.
디스플레이 유닛 (J101030) 은 디코딩된 방송 컨텐트를 디스플레이한다.
도 102는 본 발명의 일 실시예에 따른, 방송 송신기를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 송신기는 컴포넌트 생성부 (J102010), 시그널링 정보 생성부 (J102020) 및/또는 방송 신호 생성부 (J102030)를 포함할 수 있다.
컴포넌트 생성부 (J102010)는 방송 컨텐트에 포함되는 하나 이상의 컴포넌트 (component) 를 생성한다.
시그널링 정보 생성부 (J102020) 는 하나 이상의 컴포넌트를 설명하는 컴포넌트 엘레먼트 (element) 를 생성한다. 시그널링 정보 생성부는 본 발명에서 설명된 시그널링 정보, 및/또는 서비스/컨텐츠/컴포넌트를 설명하는 정보를 생성할 수 있다. 컴포넌트 엘레먼트는, 상기 컴포넌트를 처리하기 위하여 요구되는 방송 수신기의 성능 (Capability) 를 설명하는 성능 엘레먼트를 포함할 수 있다. 또는 컴포넌트 엘레먼트는 전술한 바와 같이 구성될 수도 있다.
방송 신호 생성부 (J102030)는 하나 이상의 컴포넌트와 컴포넌트 엘레먼트를 포함하는 방송 신호를 생성하고, 생성된 방송 신호를 전송한다.
모듈 또는 유닛은 메모리(또는 저장 유닛)에 저장된 연속된 수행과정들을 실행하는 프로세서들일 수 있다. 전술한 실시예에 기술된 각 단계들은 하드웨어/프로세서들에 의해 수행될 수 있다. 전술한 실시예에 기술된 각 모듈/블락/유닛들은 하드웨어/프로세서로서 동작할 수 있다. 또한, 본 발명이 제시하는 방법들은 코드로서 실행될 수 있다. 이 코드는 프로세서가 읽을 수 있는 저장매체에 쓰여질 수 있고, 따라서 장치(apparatus)가 제공하는 프로세서에 의해 읽혀질 수 있다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 통상의 기술자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명이 제안하는 방법을 네트워크 디바이스에 구비된, 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CDROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.
본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 이해된다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.
본 명세서에서 장치 및 방법 발명이 모두 언급되고, 장치 및 방법 발명 모두의 설명은 서로 보완하여 적용될 수 있다.

Claims (10)

  1. 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보를 포함하는 방송 신호를 수신하는 수신부;
    상기 서비스 가이드 정보는 상기 방송 서비스에 관한 정보를 포함하는 서비스 프래그먼트 및 상기 방송 서비스의 컨텐트 데이터에 관한 정보를 포함하는 컨텐트 프래그먼트를 포함하고,
    상기 컨텐트 프래그먼트는, 프라이빗 익스텐션 엘레먼트(PrivateExtension element)를 포함하고,
    상기 프라이빗 익스텐션 엘레먼트는,
    상기 컨텐트 데이터에 포함되는 컴포넌트 데이터를 기술하기 위한 컴포넌트 엘레먼트(component element)를 포함하고, 상기 컴포넌트 엘레먼트는 상기 컴포넌트 데이터에 대한 언어 속성(attribute) 정보를 포함하고,
    상기 컨텐트 데이터를 디코딩하고 프리젠팅하기 위해 필요한 캐패빌리티(Capability)를 나타내는 캐패빌리티 엘레먼트를 포함하고;
    상기 서비스 가이드 정보 및 상기 컨텐트 데이터를 디코딩하는 디코더;
    상기 캐패빌리티 엘레먼트에 기초하여 상기 컨텐트 데이터의 비디오 해상도 정보를 표시하고, 상기 표시된 비디오 해상도 정보를 상기 수신부가 지원 가능한지 여부를 디스플레이하는 디스플레이부; 를 포함하는 멀티미디어 수신기.
  2. 제 1항에 있어서,
    상기 비디오 해상도는 UHD (Ultra High Definition) 비디오 또는 WCG (Wide Color Gamut) 비디오에 대응되는 비디오 해상도를 포함하는 멀티미디어 수신기.
  3. 제 1항에 있어서,
    상기 캐패빌리티(Capability) 엘레먼트는, 상기 컨텐트 데이터의 오디오 채널 정보를 포함하는 멀티미디어 수신기.
  4. 제 1항에 있어서,
    상기 디스플레이부는 상기 캐패빌리티(Capability) 엘레먼트 중 상기 수신부가 지원하지 못하는 캐패빌리티(Capability) 정보와 상기 수신부가 지원하지 하는 캐패빌리티(Capability) 정보를 서로 다르게 표시하는 멀티미디어 수신기.
  5. 제 1항에 있어서,
    상기 방송 신호는 상기 방송 신호 물리계층에 대한 제 1 시그널링 정보, 상기 멀티 미디어 정보를 획득하기 위한 제 2 시그널링 정보를 포함하고,
    상기 제 2 시그널링 정보는, 상기 방송 서비스에 대한 정보와 상기 방송 신호의 PLP (Physical layer pipe)사이의 매핑 정보를 포함하는 멀티미디어 수신기.
  6. 방송 서비스의 접근 정보를 포함하는 서비스 가이드 정보를 포함하는 방송 신호를 수신기가 수신하는 단계,
    상기 서비스 가이드 정보는 상기 방송 서비스에 관한 정보를 포함하는 서비스 프래그먼트 및 상기 방송 서비스의 컨텐트 데이터에 관한 정보를 포함하는 컨텐트 프래그먼트를 포함하고,
    상기 컨텐트 프래그먼트는, 프라이빗 익스텐션 엘레먼트(PrivateExtension element)를 포함하고, 및
    상기 프라이빗 익스텐션 엘레먼트는,
    상기 컨텐트 데이터에 포함되는 컴포넌트 데이터를 기술하기 위한 컴포넌트 엘레먼트(component element) 를 포함하고, 상기 컴포넌트 엘레먼트는 상기 컴포넌트 데이터에 대한 언어 속성(attribute) 정보를 포함하고,
    상기 컨텐트 데이터를 디코딩하고 프리젠팅하기 위해 필요한 캐패빌리티(Capability)를 나타내는 캐패빌리티 엘레먼트를 포함하고;
    상기 서비스 가이드 정보 및 상기 컨텐트 데이터를 디코딩하는 단계;
    상기 캐패빌리티 엘레먼트에 기초하여 상기 컨텐트 데이터의 비디오 해상도 정보를 표시하고, 상기 표시된 비디오 해상도 정보를 상기 수신기가 지원 가능한지 여부를 디스플레이하는 단계;를 포함하는, 멀티미디어 신호 처리 방법.
  7. 제 6항에 있어서,
    상기 비디오 해상도는 UHD (Ultra High Definition) 비디오 또는 WCG (Wide Color Gamut) 비디오에 대응되는 비디오 해상도를 포함하는 멀티미디어 신호 처리 방법.
  8. 제 6항에 있어서,
    상기 캐패빌리티(Capability) 엘레먼트는, 상기 컨텐트 데이터의 오디오 채널 정보를 포함하는 멀티미디어 신호 처리 방법.
  9. 제 6항에 있어서,
    상기 디스플레이하는 단계는 상기 캐패빌리티(Capability) 엘레먼트 중 상기 수신기가 지원하지 못하는 캐패빌리티(Capability) 정보와 상기 수신기가 지원하지 하는 캐패빌리티(Capability) 정보를 서로 다르게 표시하는 멀티미디어 신호 처리 방법.
  10. 제 6항에 있어서,
    상기 방송 신호는 상기 방송신호의 물리계층에 대한 제 1 시그널링 정보, 상기 멀티 미디어 정보를 획득하기 위한 제 2 시그널링 정보를 포함하고,
    상기 제 2 시그널링 정보는, 상기 방송 서비스에 대한 정보와 상기 방송 신호의 PLP (Physical layer pipe) 사이의 매핑 정보를 포함하는 멀티미디어 신호 처리 방법.

KR1020187002642A 2014-04-27 2015-04-27 멀티미디어 수신기 및 멀티미디어 신호 처리 방법 KR101944834B1 (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201461984854P 2014-04-27 2014-04-27
US61/984,854 2014-04-27
US201461991624P 2014-05-12 2014-05-12
US61/991,624 2014-05-12
US201462000515P 2014-05-19 2014-05-19
US62/000,515 2014-05-19
US201462003039P 2014-05-27 2014-05-27
US62/003,039 2014-05-27
PCT/KR2015/004169 WO2015167186A1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020167011406A Division KR101825000B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Publications (2)

Publication Number Publication Date
KR20180014223A KR20180014223A (ko) 2018-02-07
KR101944834B1 true KR101944834B1 (ko) 2019-02-01

Family

ID=54358852

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020167020594A KR101801594B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
KR1020187002642A KR101944834B1 (ko) 2014-04-27 2015-04-27 멀티미디어 수신기 및 멀티미디어 신호 처리 방법
KR1020167011406A KR101825000B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
KR1020167020593A KR101801593B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
KR1020167019990A KR101801592B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
KR1020167030472A KR101865299B1 (ko) 2014-04-27 2015-04-27 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020167020594A KR101801594B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Family Applications After (4)

Application Number Title Priority Date Filing Date
KR1020167011406A KR101825000B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
KR1020167020593A KR101801593B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
KR1020167019990A KR101801592B1 (ko) 2014-04-27 2015-04-27 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
KR1020167030472A KR101865299B1 (ko) 2014-04-27 2015-04-27 방송 전송 장치, 방송 전송 장치의 동작 방법, 방송 수신 장치 및 방송 수신 장치의 동작 방법

Country Status (8)

Country Link
US (13) US20170188099A1 (ko)
EP (4) EP3139526A4 (ko)
JP (2) JP6599864B2 (ko)
KR (6) KR101801594B1 (ko)
CN (7) CN110177290B (ko)
CA (3) CA2941597C (ko)
MX (1) MX357843B (ko)
WO (5) WO2015167186A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101801594B1 (ko) * 2014-04-27 2017-11-27 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
CA2948786C (en) * 2014-05-19 2019-03-19 Sharp Kabushiki Kaisha A method for decoding a service guide
US20170238061A1 (en) * 2014-05-22 2017-08-17 Sharp Kabushiki Kaisha Method for decoding
US20170118503A1 (en) * 2014-06-20 2017-04-27 Sharp Kabushiki Kaisha Methods for xml representation of device capabilities
CA2959353A1 (en) * 2014-09-05 2016-03-10 Sharp Kabushiki Kaisha Syntax and semantics for device capabilities
KR101812186B1 (ko) * 2014-09-25 2017-12-26 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
CN108024120B (zh) * 2016-11-04 2020-04-17 上海动听网络科技有限公司 音频生成、播放、接听方法及装置和音频传输系统
KR101967299B1 (ko) * 2017-12-19 2019-04-09 엘지전자 주식회사 방송 신호를 수신하는 차량용 수신 장치 및 방송 신호를 수신하는 차량용 수신 방법
US11360466B2 (en) * 2019-01-04 2022-06-14 Gracenote, Inc. Generation of media station previews using a secondary tuner
CN112990120B (zh) * 2021-04-25 2022-09-16 昆明理工大学 一种利用相机风格分离域信息的跨域行人重识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110307925A1 (en) 2005-01-27 2011-12-15 Arthur Vaysman Generating user-interactive displays using program content from multiple providers
US20140047496A1 (en) 2012-08-07 2014-02-13 Kyungho Kim Method and an apparatus for processing a broadcast signal including an interactive broadcast service

Family Cites Families (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5900908A (en) * 1995-03-02 1999-05-04 National Captioning Insitute, Inc. System and method for providing described television services
JP4221624B2 (ja) 1998-02-12 2009-02-12 ソニー株式会社 Epg送信装置および方法、epg受信装置および方法、並びに記録媒体
GB2338364B (en) 1998-06-12 2003-03-05 British Sky Broadcasting Ltd Improvements in receivers for television signals
US6732370B1 (en) * 1998-11-30 2004-05-04 Diva Systems Corporation Service provider side interactive program guide encoder
KR100828884B1 (ko) 1999-03-05 2008-05-09 캐논 가부시끼가이샤 데이터베이스 주석 및 검색
US7934232B1 (en) * 2000-05-04 2011-04-26 Jerding Dean F Navigation paradigm for access to television services
KR100391179B1 (ko) * 2000-08-02 2003-07-12 한국전력공사 고방사성미세분진폐기물 원격조종이동형청소장치
US20020078459A1 (en) * 2000-08-30 2002-06-20 Mckay Brent Interactive electronic directory service, public information and general content delivery system and method
TW548983B (en) * 2000-10-26 2003-08-21 Gen Instrument Corp Initial viewing period for scalable authorization of streaming multimedia content
US20020170068A1 (en) 2001-03-19 2002-11-14 Rafey Richter A. Virtual and condensed television programs
US7110664B2 (en) 2001-04-20 2006-09-19 Front Porch Digital, Inc. Methods and apparatus for indexing and archiving encoded audio-video data
US7035468B2 (en) 2001-04-20 2006-04-25 Front Porch Digital Inc. Methods and apparatus for archiving, indexing and accessing audio and video data
US7512964B2 (en) * 2001-06-29 2009-03-31 Cisco Technology System and method for archiving multiple downloaded recordable media content
US7908628B2 (en) 2001-08-03 2011-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content coding and formatting
US7092888B1 (en) 2001-10-26 2006-08-15 Verizon Corporate Services Group Inc. Unsupervised training in natural language call routing
US20040017831A1 (en) * 2002-04-05 2004-01-29 Jian Shen System and method for processing SI data from multiple input transport streams
US7774815B1 (en) 2002-09-30 2010-08-10 Arris Group, Inc. Context-sensitive interactive television ticker
US8712218B1 (en) 2002-12-17 2014-04-29 At&T Intellectual Property Ii, L.P. System and method for providing program recommendations through multimedia searching based on established viewer preferences
GB0307451D0 (en) * 2003-03-31 2003-05-07 Matsushita Electric Ind Co Ltd Digital receiver with aural interface
GB2405557A (en) 2003-08-27 2005-03-02 Nokia Corp Service identification data relating services at a given frequency to services and identifying their media format
KR100565614B1 (ko) * 2003-09-17 2006-03-29 엘지전자 주식회사 캡션 송수신 방법
US7418472B2 (en) 2003-09-30 2008-08-26 Microsoft Corporation Systems and methods for determining remote device media capabilities
US20050188411A1 (en) 2004-02-19 2005-08-25 Sony Corporation System and method for providing content list in response to selected closed caption word
US7469979B2 (en) 2004-03-19 2008-12-30 Steelcase Inc. Pedestal system
CN1674645A (zh) * 2004-03-24 2005-09-28 乐金电子(沈阳)有限公司 数字电视及其电子节目单的表示方法
KR100617128B1 (ko) * 2004-11-17 2006-08-31 엘지전자 주식회사 디지털 방송 방법 및 장치
US20070124788A1 (en) 2004-11-25 2007-05-31 Erland Wittkoter Appliance and method for client-sided synchronization of audio/video content and external data
US7614068B2 (en) * 2005-03-18 2009-11-03 Nokia Corporation Prioritization of electronic service guide carousels
US8387089B1 (en) 2005-05-06 2013-02-26 Rovi Guides, Inc. Systems and methods for providing a scan
CN101238732B (zh) * 2005-08-11 2012-11-21 三星电子株式会社 在广播系统中发送/接收广播服务的接入信息的方法和装置及其系统
US7738863B2 (en) 2005-08-25 2010-06-15 Nokia Corporation IP datacasting middleware
US8607271B2 (en) 2005-08-26 2013-12-10 Nokia Corporation Method to deliver messaging templates in digital broadcast service guide
US8024768B2 (en) 2005-09-15 2011-09-20 Penthera Partners, Inc. Broadcasting video content to devices having different video presentation capabilities
JP2009512305A (ja) 2005-10-14 2009-03-19 ノキア コーポレイション サービス・ガイドによる端末プロビジョニング宣言
EP1943837A4 (en) 2005-11-01 2010-08-04 Nokia Corp IDENTIFICATION OF THE SCOPE OF FRAGMENTS OF A SERVICE ELECTRONIC GUIDE AND HIERARCHISATION IN THE FIELD OF APPLICATION
US8763036B2 (en) 2005-11-04 2014-06-24 Nokia Corporation Method for indicating service types in the service guide
KR100871243B1 (ko) 2005-11-07 2008-11-28 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 소스 전송 방법 및 장치
US20070110057A1 (en) * 2005-11-07 2007-05-17 Sung-Oh Hwang Method and apparatus for transmitting service guide source in a mobile broadcast system
US7801910B2 (en) 2005-11-09 2010-09-21 Ramp Holdings, Inc. Method and apparatus for timed tagging of media content
US20100021447A1 (en) * 2005-11-22 2010-01-28 Universität Leipzig Medicament for Treating Problems Relating to Fertility and Pregnancy, and Autoimmune Diseases, and for Inducing an Immunological Tolerance in Transplant Patients, and Method for Producing Said Medicament
EP1955458B1 (en) 2005-11-29 2012-07-11 Google Inc. Social and interactive applications for mass media
KR101179828B1 (ko) 2005-12-16 2012-09-04 삼성전자주식회사 디지털 비디오 방송 시스템에서 전자 서비스 가이드의데이터 모델과 서비스 데이터 스트림과의 연결관계에 따른전자 서비스 가이드의 구성 방법 및 장치
KR100890037B1 (ko) 2006-02-03 2009-03-25 삼성전자주식회사 휴대 방송 시스템에서 서비스 가이드 또는 서비스 가이드프레그먼트에 대한 공유 방법 및 시스템
US8458753B2 (en) * 2006-02-27 2013-06-04 Time Warner Cable Enterprises Llc Methods and apparatus for device capabilities discovery and utilization within a content-based network
US8115869B2 (en) 2007-02-28 2012-02-14 Samsung Electronics Co., Ltd. Method and system for extracting relevant information from content metadata
CN101094434B (zh) 2006-06-19 2011-02-02 华为技术有限公司 在移动广播系统中订阅业务相关通知的方法
KR100793801B1 (ko) * 2006-07-06 2008-01-11 엘지전자 주식회사 티브이의 방송 프로그램 안내 표시 방법 및 장치
CN101132292A (zh) 2006-08-22 2008-02-27 华为技术有限公司 一种传输电子节目指南的方法及系统
US20080091713A1 (en) 2006-10-16 2008-04-17 Candelore Brant L Capture of television metadata via OCR
US8296808B2 (en) 2006-10-23 2012-10-23 Sony Corporation Metadata from image recognition
US7689613B2 (en) 2006-10-23 2010-03-30 Sony Corporation OCR input to search engine
US7814524B2 (en) 2007-02-14 2010-10-12 Sony Corporation Capture of configuration and service provider data via OCR
KR100856208B1 (ko) * 2006-12-15 2008-09-03 삼성전자주식회사 Dvb-h 시스템에서 방송 데이터 서비스의 어플리케이션정보를 제공하기 위한 방법 및 이를 위한 시스템
DE202007001277U1 (de) * 2007-01-23 2008-03-13 Dbt Gmbh Führungsschuh für einen Walzenlader und Verschleißeinsätze für Führungsschuhe
WO2008144404A1 (en) * 2007-05-16 2008-11-27 Massachusetts Instutute Of Technology Systems and methods for model-based estimation of cardiac output and total peripheral resistance
KR101356499B1 (ko) 2007-05-18 2014-01-29 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보송수신 장치
KR101377951B1 (ko) * 2007-05-18 2014-03-25 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보수신 장치
JP4345848B2 (ja) 2007-05-25 2009-10-14 船井電機株式会社 デジタル放送受信機
KR20080107137A (ko) 2007-06-05 2008-12-10 엘지전자 주식회사 서비스 가이드 정보 송수신 방법 및 서비스 가이드 정보송수신 장치
KR101461958B1 (ko) * 2007-06-29 2014-11-14 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101486373B1 (ko) 2007-07-29 2015-01-26 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR101420871B1 (ko) 2007-08-21 2014-07-17 삼성전자주식회사 휴대 방송 서비스에서 멀티 콘텐츠를 제공하는 방법 및장치와 그 시스템
KR101572874B1 (ko) * 2007-08-24 2015-11-30 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US20090070659A1 (en) * 2007-09-11 2009-03-12 Legend Silicon Corp. Ldpc decoder with an improved llr update method using a set of relative values free from a shifting action
KR101418591B1 (ko) * 2007-10-05 2014-07-10 삼성전자주식회사 휴대 방송 시스템에서의 서비스 가이드 제공 방법 및 장치
KR20090069689A (ko) 2007-12-26 2009-07-01 엘지전자 주식회사 서비스 가이드 정보 처리 방법 및 서비스 가이드 정보 처리장치
CN101500135A (zh) 2008-02-03 2009-08-05 北京视博数字电视科技有限公司 条件接收系统的节目定购方法、系统及其终端
US9503691B2 (en) 2008-02-19 2016-11-22 Time Warner Cable Enterprises Llc Methods and apparatus for enhanced advertising and promotional delivery in a network
EP2257450B1 (de) * 2008-03-25 2011-10-12 Autoliv Development AB Gurtstraffer
US20090249392A1 (en) * 2008-03-28 2009-10-01 Lg Electronics Inc. Digital broadcast receiver and method for processing caption thereof
US20090253416A1 (en) * 2008-04-04 2009-10-08 Samsung Electronics Co. Ltd. Method and system for providing user defined bundle in a mobile broadcast system
EP2109313B1 (en) 2008-04-09 2016-01-13 Sony Computer Entertainment Europe Limited Television receiver and method
CN101583092A (zh) * 2008-05-14 2009-11-18 三星电子株式会社 数据再现设备和数据再现方法
KR101635890B1 (ko) 2008-11-18 2016-07-04 엘지전자 주식회사 방송 신호를 수신하는 방법 및 방송 수신기
JP5225037B2 (ja) * 2008-11-19 2013-07-03 株式会社東芝 番組情報表示装置および方法
CA2745021C (en) * 2008-12-02 2014-10-28 Lg Electronics Inc. Method for displaying 3d caption and 3d display apparatus for implementing the same
US8161512B2 (en) * 2008-12-09 2012-04-17 Lg Electronics Inc. Method for processing targeting descriptor in non-real-time receiver
CA2690174C (en) 2009-01-13 2014-10-14 Crim (Centre De Recherche Informatique De Montreal) Identifying keyword occurrences in audio data
KR20100084104A (ko) 2009-01-15 2010-07-23 삼성전자주식회사 디지털 방송 시스템에서 리치미디어를 이용한 서비스 가이드 제공 방법 및 이를 위한 시스템
US20100180310A1 (en) * 2009-01-15 2010-07-15 Samsung Electronics Co., Ltd. Rich media-enabled service guide provision method and system for broadcast service
JP2010200087A (ja) * 2009-02-26 2010-09-09 Funai Electric Co Ltd 映像機器
KR101076587B1 (ko) 2009-03-03 2011-10-26 엘지전자 주식회사 방송망을 통해 전달되는 서비스 가이드를 통해 선별적으로 컨텐트를 수신하는 방법 및 이를 이용한 단말
JP5440836B2 (ja) * 2009-03-24 2014-03-12 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
US20100250764A1 (en) 2009-03-31 2010-09-30 Nokia Corporation Method and Apparatus for Signaling Layer Information of Scalable Media Data
US8621520B2 (en) * 2009-05-19 2013-12-31 Qualcomm Incorporated Delivery of selective content to client applications by mobile broadcast device with content filtering capability
KR20100124966A (ko) * 2009-05-20 2010-11-30 삼성전자주식회사 복수의 형식을 가지는 디지털 방송 송수신 방법 및 장치
KR20100127162A (ko) * 2009-05-25 2010-12-03 엘지전자 주식회사 단말 내에서 브로드캐스트 서비스를 통해 관련된 콘텐츠를 검색하고 주문하는 방법 및 장치
US20100316131A1 (en) 2009-06-12 2010-12-16 Motorola, Inc. Macroblock level no-reference objective quality estimation of video
US8438600B2 (en) 2009-08-20 2013-05-07 Lg Electronics Inc. Method of processing EPG metadata in network device and network device for controlling the same
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
JP2011091619A (ja) 2009-10-22 2011-05-06 Sony Corp 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
US8914835B2 (en) * 2009-10-28 2014-12-16 Qualcomm Incorporated Streaming encoded video data
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR101179826B1 (ko) 2010-02-26 2012-09-04 고려대학교 산학협력단 열량조절이 가능한 전기로 및 이를 이용한 금속 및 실리콘의 용융방법
US9215493B2 (en) * 2010-03-11 2015-12-15 Lg Electronics Inc. Non-real-time broadcast service processing system and processing method thereof
US8730301B2 (en) 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
KR20110105092A (ko) 2010-03-18 2011-09-26 삼성전자주식회사 휴대방송 시스템에서 서비스 접속 정보를 제공하기 위한 장치 및 방법
US8572488B2 (en) 2010-03-29 2013-10-29 Avid Technology, Inc. Spot dialog editor
WO2011122914A2 (ko) 2010-04-02 2011-10-06 삼성전자 주식회사 2차원 컨텐트와 3차원 컨텐트를 제공하기 위한 디지털 방송 컨텐트 전송 방법 및 그 장치, 디지털 방송 컨텐트 수신 방법 및 그 장치
US9307272B2 (en) * 2010-04-16 2016-04-05 Lg Electronics Inc. Purchase transaction method for IPTV product and IPTV receiver thereof
US20110289533A1 (en) 2010-05-18 2011-11-24 Rovi Technologies Corporation Caching data in a content system
WO2011146276A2 (en) 2010-05-19 2011-11-24 Google Inc. Television related searching
US8694533B2 (en) 2010-05-19 2014-04-08 Google Inc. Presenting mobile content based on programming context
KR20120014509A (ko) * 2010-08-09 2012-02-17 삼성모바일디스플레이주식회사 액정 표시 패널 및 액정 표시 패널 제조 방법
US8898723B2 (en) * 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
CN105554551A (zh) 2011-03-02 2016-05-04 华为技术有限公司 3d格式描述信息的获取方法和装置
US8670505B2 (en) * 2011-03-31 2014-03-11 Subrahmanya Kondageri Shankaraiah Early detection of segment type using BPSK and DBPSK modulated carriers in ISDB-T receivers
US9171549B2 (en) * 2011-04-08 2015-10-27 Dolby Laboratories Licensing Corporation Automatic configuration of metadata for use in mixing audio programs from two encoded bitstreams
CN103503439A (zh) * 2011-05-01 2014-01-08 三星电子株式会社 在数字广播系统中发送/接收广播服务的方法和装置及其系统
TWI562560B (en) 2011-05-09 2016-12-11 Sony Corp Encoder and encoding method providing incremental redundancy
WO2012169779A2 (ko) 2011-06-07 2012-12-13 엘지전자 주식회사 방송 서비스 전송 방법, 그 수신 방법 및 그 수신 장치
US9584238B2 (en) * 2011-06-24 2017-02-28 Nokia Corporation Accessing service guide information in a digital video broadcast system
WO2013055191A2 (ko) 2011-10-13 2013-04-18 삼성전자주식회사 방송 시스템에서의 제어 메시지 구성 장치 및 방법
CN109600632B (zh) * 2011-10-13 2020-12-25 三星电子株式会社 用于发送和接收多媒体服务的方法和装置
US9106265B2 (en) * 2011-11-04 2015-08-11 Silicon Laboratories Inc. Receive data flow path using a single FEC decoder
US9113230B2 (en) 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
EP2618532A1 (en) * 2012-01-19 2013-07-24 Panasonic Corporation Improved Component Interleaving for Rotated Constellations
US9071799B2 (en) * 2012-02-17 2015-06-30 Echostar Technologies L.L.C. Channel tuning redirect
US9936231B2 (en) * 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
KR101915128B1 (ko) 2012-05-17 2018-11-05 엘지전자 주식회사 전자 장치 및 서비스 프로바이더에 대한 정보를 제공하는 방법
SG10201706533QA (en) 2013-02-11 2017-09-28 Bang & Clean Gmbh Method and device for cleaning interiors of tanks and systems
KR102061044B1 (ko) * 2013-04-30 2020-01-02 삼성전자 주식회사 수화 번역 및 화면 해설 서비스 방법 및 시스템
KR101500135B1 (ko) 2013-09-04 2015-03-06 주식회사 포스코 블로우 튜브의 패킹 조립장치
US9888279B2 (en) * 2013-09-13 2018-02-06 Arris Enterprises Llc Content based video content segmentation
CN103848358B (zh) 2014-03-24 2017-03-01 谢国贤 一种塔吊塔身双油缸顶升机构
CN106105249B (zh) 2014-04-21 2019-07-26 夏普株式会社 用于解码服务指南的方法
KR101801594B1 (ko) * 2014-04-27 2017-11-27 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20170238061A1 (en) * 2014-05-22 2017-08-17 Sharp Kabushiki Kaisha Method for decoding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110307925A1 (en) 2005-01-27 2011-12-15 Arthur Vaysman Generating user-interactive displays using program content from multiple providers
US20140047496A1 (en) 2012-08-07 2014-02-13 Kyungho Kim Method and an apparatus for processing a broadcast signal including an interactive broadcast service

Also Published As

Publication number Publication date
US10848797B2 (en) 2020-11-24
CN105981374A (zh) 2016-09-28
WO2015167190A1 (ko) 2015-11-05
EP3139618A1 (en) 2017-03-08
US10666993B2 (en) 2020-05-26
WO2015167184A1 (ko) 2015-11-05
CN110177290B (zh) 2021-10-26
US20170013285A1 (en) 2017-01-12
EP3073730A1 (en) 2016-09-28
US20190222870A1 (en) 2019-07-18
US10284886B2 (en) 2019-05-07
CN110267068A (zh) 2019-09-20
CN106134213A (zh) 2016-11-16
MX357843B (es) 2018-07-26
US20200329261A1 (en) 2020-10-15
CN106170983A (zh) 2016-11-30
US20180146220A1 (en) 2018-05-24
KR20180014223A (ko) 2018-02-07
CN106134112A (zh) 2016-11-16
KR101801593B1 (ko) 2017-11-27
US10306278B2 (en) 2019-05-28
US20210105511A1 (en) 2021-04-08
CN110234021B (zh) 2021-07-23
CN106134112B (zh) 2019-03-08
CA2941597A1 (en) 2015-11-05
US20170188099A1 (en) 2017-06-29
KR20160142851A (ko) 2016-12-13
CA3077488A1 (en) 2015-11-05
WO2015167187A1 (ko) 2015-11-05
EP3139526A4 (en) 2017-10-11
CN110234021A (zh) 2019-09-13
CA3077439A1 (en) 2015-11-05
US20170171635A1 (en) 2017-06-15
US10306277B2 (en) 2019-05-28
KR101801594B1 (ko) 2017-11-27
JP2017507506A (ja) 2017-03-16
CN106170983B (zh) 2019-07-16
JP6599864B2 (ja) 2019-11-06
EP3139526A1 (en) 2017-03-08
US20170180761A1 (en) 2017-06-22
US10743044B2 (en) 2020-08-11
CA2941597C (en) 2020-05-05
KR20160106095A (ko) 2016-09-09
US20200137430A1 (en) 2020-04-30
US20190246150A1 (en) 2019-08-08
CA3077488C (en) 2022-08-16
KR101801592B1 (ko) 2017-11-27
KR20160102509A (ko) 2016-08-30
CN105981374B (zh) 2019-08-09
EP3073730A4 (en) 2017-08-16
EP3139623A4 (en) 2017-10-11
US20200245005A1 (en) 2020-07-30
US11070859B2 (en) 2021-07-20
KR20160071405A (ko) 2016-06-21
KR20160105835A (ko) 2016-09-07
CA3077439C (en) 2023-04-25
KR101825000B1 (ko) 2018-03-22
US10567815B2 (en) 2020-02-18
CN110177290A (zh) 2019-08-27
EP3139618A4 (en) 2017-10-11
WO2015167186A1 (ko) 2015-11-05
KR101865299B1 (ko) 2018-06-07
JP2017514329A (ja) 2017-06-01
CN110267068B (zh) 2021-11-02
US20160269792A1 (en) 2016-09-15
EP3139623A1 (en) 2017-03-08
JP6360184B2 (ja) 2018-08-01
US20190098342A1 (en) 2019-03-28
MX2016010117A (es) 2016-10-07
US10887635B2 (en) 2021-01-05
US10939147B2 (en) 2021-03-02
US11570494B2 (en) 2023-01-31
US9888271B2 (en) 2018-02-06
CN106134213B (zh) 2019-07-12
WO2015167189A1 (ko) 2015-11-05

Similar Documents

Publication Publication Date Title
KR101944834B1 (ko) 멀티미디어 수신기 및 멀티미디어 신호 처리 방법
US20200336792A1 (en) Service guide information transmission method, service guide information reception method, service guide information transmission device, and service guide information reception device

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant