KR101003390B1 - 조정 가능한 지연 오프셋을 갖는 강력한 모드의 스태거캐스팅 방법 및 수신기 - Google Patents

조정 가능한 지연 오프셋을 갖는 강력한 모드의 스태거캐스팅 방법 및 수신기 Download PDF

Info

Publication number
KR101003390B1
KR101003390B1 KR1020057013630A KR20057013630A KR101003390B1 KR 101003390 B1 KR101003390 B1 KR 101003390B1 KR 1020057013630 A KR1020057013630 A KR 1020057013630A KR 20057013630 A KR20057013630 A KR 20057013630A KR 101003390 B1 KR101003390 B1 KR 101003390B1
Authority
KR
South Korea
Prior art keywords
signal
encoded
video
content
encoding
Prior art date
Application number
KR1020057013630A
Other languages
English (en)
Other versions
KR20050092448A (ko
Inventor
제프리 쿠퍼
쿠마르 라마스와미
질 보이스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20050092448A publication Critical patent/KR20050092448A/ko
Application granted granted Critical
Publication of KR101003390B1 publication Critical patent/KR101003390B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/02Arrangements for detecting or preventing errors in the information received by diversity reception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/08Arrangements for detecting or preventing errors in the information received by repeating transmission, e.g. Verdan system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/02Amplitude-modulated carrier systems, e.g. using on-off keying; Single sideband or vestigial sideband modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/37Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability with arrangements for assigning different transmission priorities to video input data or to video coded data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/39Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving multiple description coding [MDC], i.e. with separate layers being structured as independently decodable descriptions of input picture data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2383Channel coding or modulation of digital bit-stream, e.g. QPSK modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • H04N21/4383Accessing a communication channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/631Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L2001/0098Unequal error protection

Abstract

스태거캐스팅 방법 및 장치는 시간 지속기간을 갖는 콘텐츠를 나타내는 제 1 신호와 상기 콘텐츠를 또한 나타내는 제 2 신호를 인코딩하는 것을 포함한다. 시간 지연 기간은 상기 콘텐츠에 대한 시간 지속기간에 대해 명시된다. 제 1 및 제 2 인코딩된 신호를 포함하는 복합 신호가 생성된다. 복합 신호에서, 제 1 인코딩된 신호는 제 2 인코딩된 신호에 대해 콘텐츠의 시간 지속기간에 대한 시간 지연 기간만큼 지연된다. 만약 복합 신호에서 에러가 검출된다면, 수신된 제 2 인코딩된 신호는 콘텐츠를 생성하기 위해 디코딩되고, 그렇지 않고 에러가 검출되지 않는다면, 지연되어 수신된 제 1 인코딩된 신호가 콘텐츠를 생성하기 위해 디코딩된다.

Description

조정 가능한 지연 오프셋을 갖는 강력한 모드의 스태거캐스팅 방법 및 수신기 {ROBUST MODE STAGGERCASTING WITH ADJUSTABLE DELAY OFFSET}
본 특허출원은 2003년 1월 28일자로 출원된 가특허출원, 제 60/443,672호로부터 우선권을 청구한다.
본 발명은 스태거캐스팅(staggercasting) 방법 및 장치에 관한 것이다.
1995년 9월 16일자로 ATSC(Advanced Television Systems Committee: 차세대 텔레비전 시스템 위원회)이 제안하고 본 명세서에서 인용된 미국에서의 현재 디지털 텔레비전 송신 표준은 단일 반송파 변조 기술인 8 레벨 잔류 측파대 변조(8-VSB) 기술을 사용한다. 이것은 단일 반송파 변조 기술이므로, 다중경로로 인해 초래된 페이딩과 다른 신호 감쇠와 같이 통신 채널에서 신호가 저하(degradation)되기 쉽다. 일부 이러한 페이딩은 채널 등화 기술에 의해 보상될 수 있지만, 만약 페이딩이 충분히 길고 충분히 심각하다면, 수신기는 신호를 잃고, 복조기 시스템은 동기(synchronization)를 놓칠 것이다. 신호를 다시 얻고, 복조기를 재동기화시키는 것은 몇 초가 걸릴 수 있으며, 이것은 시청자에게 상당히 못마땅할 수 있다.
이러한 문제를 극복하기 위해, 제 1 ATSC 제안은 제한된 시간 기간 동안 예컨대 10% 미만 동안에 좀더 강력한 변조 기술을 사용하게 함으로써 제 2 통신 채널 을 생성하게 한다. 예컨대, 2- 또는 4-VSB 변조 기술이 선택된 프레임에 사용될 수 있다. 제 2 ATSC 제안은, 8-VSB 변조 기술을 유지하면서, 좀더 강력한 인코딩 기술, 예컨대 트렐리스 인코딩을 허용한다. 이러한 시스템은, 기존의 수신기와의 역호환성(backwards compatibility)을 유지하면서, 호환성이 있는 수신기에 대해 개선된 성능을 허용한다.
페이딩을 극복하기 위한 또 다른 알려진 기술은 스태거캐스팅이다. 본 명세서에서 인용된 PCT 출원(제 US02/22723호)(K.Ramaswamy 등이 2002년 7월 17일자로 출원함)과 PCT 출원(제 US02/23032호)(J.A.Cooper 등이 2002년 7월 19일자로 출원함)은 스태거캐스팅 통신 시스템을 개시하고 있다. 스태거캐스팅 통신 시스템은 두 성분의 콘텐츠를 나타내는 신호를 포함하는 복합 신호를 송신하며, 이러한 신호 중 하나는 다른 하나의 신호에 대해 지연된다. 이를 달리 표현하면, 두 성분의 콘텐츠를 나타내는 신호 중 하나는 다른 하나의 신호보다 앞선다. 복합 신호는 통신 채널을 통해 하나 이상의 수신기에 방송된다. 수신기에서, 시간상 앞서 있는 성분의 콘텐츠를 나타내는 신호는, 이것이 다른 하나의 성분의 콘텐츠를 나타내는 신호와 시간상에서 재동기화되도록 지연 버퍼를 통해 지연된다. 정상적인 조건 하에서, 지연되지 않고 수신된 성분의 콘텐츠를 나타내는 신호가 콘텐츠를 재생하는데 사용된다. 그러나, 만약 신호 페이딩이 발생한다면, 페이딩이 종료하여 복합 신호가 다시 이용될 수 있거나, 지연 버퍼가 비어있게 될 때까지, 지연 버퍼 내에 있는 이전에 수신되고 시간상 앞서 있는 콘텐츠를 나타내는 신호가 콘텐츠를 재생하는데 사용된다. 만약 지연 기간 및 관련 지연 버퍼가 충분히 크다면, 가장 가능성있는 페이딩 이 보상될 수 있을 것이다.
그러나, 채널 특징은 시간에 따라 변할 수 있다. 어떤 시간에 가장 발생 가능성이 있는 페이딩을 극복하기에 충분한 지연 기간은 또 다른 시간에는 불충분할 수 있다. 콘텐츠를 나타내는 신호의 이러한 지연 기간을 명시하는 성능이 바람직할 수 있다.
스태거캐스팅 방법 및 장치는 콘텐츠를 나타내는 제 1 신호와 상기 콘텐츠를 또한 나타내는 제 2 신호를 인코딩하는 것을 포함한다. 시간 지연 기간은 상기 콘텐츠에 대해 명시된다. 제 1 및 제 2 인코딩된 신호를 포함하는 복합 신호가 생성된다. 복합 신호에서, 제 1 인코딩된 신호는 제 2 인코딩된 신호에 대해 콘텐츠의 시간 지연 기간만큼 지연된다. 만약 복합 신호에서 에러가 검출된다면, 수신된 제 2 인코딩된 신호는 콘텐츠를 생성하기 위해 디코딩되고, 그렇지 않고 에러가 검출되지 않는다면, 지연되어 수신된 제 1 인코딩된 신호가 콘텐츠를 생성하기 위해 디코딩된다.
도 1은 스태거캐스팅 송신기의 일부분에 대한 블록도.
도 2는 스태거캐스팅 수신기의 일부분에 대한 블록도.
도 3은 도 1 및 도 2에 예시된 스태거캐스팅 통신 시스템의 동작을 이해하는데 유용한 패킷 타이밍 도.
도 4는 개선된 스태거캐스팅 통신 시스템의 동작을 이해하는데 유용한 GOP 타이밍 도.
도 5는 도 2에 예시된 수신기에서 사용될 수 있는 선택기의 블록도.
도 6은 스태거캐스팅 수신기의 또 다른 실시예의 일부분에 대한 블록도.
도 7은 도 6에 예시된 스태거캐스팅 수신기의 동작을 이해하는데 유용한 비디오 프레임 타이밍 도.
도 8은 프로그램 맵 테이블(PMT) 및/또는 프로그램 및 정보 시스템 프로토콜-가상 채널 테이블(PSIP-VCT)에 대한 확장된 구문(syntax) 및 의미(semantics)를 예시한 도면.
도 9는 콘텐츠를 나타내는 신호의 다수의 해상도 버전을 송신하기 위한 스태거캐스팅 송신기의 또 다른 실시예의 일부분에 대한 블록도.
도 10은 콘텐츠를 나타내는 신호의 송신된 다수의 해상도 버전을 수신하기 위한 스태거캐스팅 수신기의 또 다른 실시예의 일부분에 대한 블록도.
도 11은 이중 비월된 콘텐츠를 나타내는 신호를 송신하기 위한 송신기의 일부분에 대한 블록도.
도 12는 이중 비월된 콘텐츠를 나타내는 신호를 수신하기 위한 수신기의 일부분에 대한 블록도.
도 13은 도 11에 예시된 이중 비월 송신기와, 도 12에 예시된 이중 비월 수신기의 동작을 이해하는데 유용한 디스플레이를 도시한 도면.
도 1은 본 발명의 원리에 따른 스태거캐스팅 송신기(100)의 일부분에 대한 블록도이다. 당업자는 이 도면을 간략화하기 위해 도시되지 않은 다른 요소가 완성된 송신기에 필요하다는 점을 이해할 것이다. 당업자는 이들 요소가 무엇인지, 그리고 이들 다른 요소를 선택하고, 설계하고, 구현하며 및 예시된 요소와 상호연결하는 방법을 또한 이해할 것이다.
도 1에서, 예시된 실시예에서, 비디오 이미지 신호, 오디오 사운드 이미지, 프로그램 데이터, 또는 이들의 임의의 조합일 수 있는 콘텐츠 소스(미도시)가 콘텐츠를 나타내는 신호를 송신기(100)의 입력 단자(105)에 제공한다. 입력 단자(105)는 강력한 모드의 인코더(110)와 정상 모드의 인코더(120)의 각 입력 단자에 결합된다. 강력한 모드의 인코더(110)의 출력 단자는 멀티플렉서(140)의 제 1 입력 단자에 결합된다. 정상 모드 모드의 인코더(120)의 출력 단자는 지연 디바이스(130)의 입력 단자에 결합된다. 지연 디바이스(130)의 출력 단자는 멀티플렉서(140)의 제 2 입력 단자에 결합된다. 멀티플렉서(140)의 출력 단자는 변조기(150)의 입력 단자에 결합된다. 변조기(150)의 출력 단자는 출력 단자(115)에 결합된다. 출력 단자(115)는 통신 채널(미도시)에 결합된다.
동작시, 정상 모드의 인코더(120)는 소스 인코딩 기술을 사용하여 콘텐츠 비디오, 오디오 및/또는 데이터를 인코딩한다. 예시된 실시예에서, 비록 임의의 이러한 소스 인코딩 기술이 사용될 수 있을지라도, 소스 인코딩 기술은 MPEG2 인코딩 기술이다. 소스 인코딩 방법은 해상도, 프레임율, 양자화 레벨 등을 포함하는 미리 결정된 파라미터를 사용하여 실행된다. 추가적인 처리는 소스 인코딩된 콘텐츠를 나타내는 신호를 시스템 인코딩하기 위해 정상 모드의 인코더(120)에서 실행된다. 예시된 실시예에서, 소스 코딩된 콘텐츠를 나타내는 신호는 인코딩된 비디오, 오디오 및/또는 데이터를 포함하는 일련의 전송 패킷으로 형성된다. 이들 전송 패킷은, 비록 임의의 이러한 시스템 인코딩이 사용될 수 있을 지라도, MPEG2 표준에 따라 포맷된다.
강력한 모드의 인코더(110)는 또한 소스 인코딩 기술을 사용하여 콘텐츠 비디오, 오디오 및/또는 데이터를 인코딩한다. 강력한 모드의 인코더(110)에 의해 사용되는 소스 인코딩 기술은 정상 모드의 인코더(120)의 소스 인코딩 기술에 비해 좀더 강력하다. 예시된 실시예에서, 사용된 강력한 모드의 인코딩은 ISO/IEC MPEG 및 ITU-T VCEG 위원회의 조인트 비디오 팀(Joint Video Team)에 의해 현재 개발중이고 이후 JVT 코딩으로 명명될 MPEG AVC/H.264로 표시되는 비디오 코딩 기술이다. 그러나, 임의의 이러한 소스 인코딩 기술이 사용될 수 있다. 예컨대, MPEG 정상 모드의 인코더(120)에 비해 강력한 인코딩을 제공하는 개선된 트렐리스 코딩과 같은 다른 소스 코딩 기술이 또한 사용될 수 있다. 강력한 인코딩 방법이 또한 해상도, 프레임율, 양자화 레벨 등을 포함하는 미리 결정된 파라미터를 사용하여 실행되지만, 강력한 인코딩 방법에 대한 이들 파라미터의 값은 정상 인코딩 방법에 대한 파라미터와는 서로 다를 수 있다. 소스 인코딩된 콘텐츠를 나타내는 신호를 시스템 인코딩하기 위해 강력한 모드의 인코더(110)에서 처리가 또한 실행된다. 예시된 실시예에서, 소스 코딩된 콘텐츠를 나타내는 신호가, 비록 임의의 이러한 시스템 인코딩이 다시 사용될 수 있을 지라도, 또한 MPEG2 표준에 따라 일련의 전송 패킷으로 형성된다.
정상 모드로 인코딩된 신호는 시스템이 예상 페이딩 기간의 범위에 걸쳐서 동작하게 하고자 하는 양만큼 지연 디바이스(130)에 의해 지연된다. 이러한 파라미터의 값은 통신 채널의 특징에 의존한다. 예컨대, 많은 빌딩과 비행기와 같은 이동하는 객체가 있는 도시 환경에서, 페이딩은 훨씬 더 흔한 것이며, 시골의 평탄한 환경에서보다 더 길게 지속할 수 있다. 예시된 실시예에서, 지연은 대략 0.5초에서 수 초까지 변경될 수 있다.
도 3은 도 1 및 도 2에 예시된 스태거캐스팅 통신 시스템의 동작을 이해하는데 유용한 패킷 타이밍 도이다. 도 3은 멀티플렉서(140)의 입력 단자에서 시스템 코딩된 전송 패킷 스트림을 예시한다. 도 3에서, 강력한 모드의 인코더(110)로부터의 패킷은 소문자: "a", "b", "c" 등등을 사용하여 표기된 정사각형 모양의 수평 행(300)으로 표시되어 있다. 정상 모드의 인코더(120)로부터의 패킷은 숫자: "0", "1"... 및 대문자: "A", "B", "C" 등등을 사용하여 표기된 정사각형 모양의 수평 행(310)으로 표시되어 있다. 동일한 문자로 표기된 패킷은 동일한 시간으로부터의 콘텐츠를 나타내는 데이터를 포함한다. 즉, 강력한 모드의 인코더(110)로부터의 패킷 "a"은 정상 모드의 인코더(120)로부터의 패킷 "A" 내의 데이터에 의해 표시된 콘텐츠에 시간상으로 대응하는 콘텐츠를 나타내는 데이터를 포함한다. 정상 모드 및 강력한 모드의 패킷 스트림에서의 각 패킷은 이러한 패킷 스트림에 속한 것으로 이들 패킷을 식별케 하는 데이터를 헤더 내에서 포함한다. 지연 디바이스(130)는 정상 모드의 인코더(120)의 패킷을 시간 지연(Tadv)만큼 지연시킨다. 즉, 강력한 모 드의 패킷은 대응하는 정상 모드의 패킷에 비해 Tadv만큼 시간상으로 앞서 있다. 도 3에서 예시된 실시예에서, Tadv는 10 패킷 시간 기간이다. 이러한 시간 기간은 전술한 바와 같이 대략 0.5초에서 수 초까지로 변할 수 있다.
강력한 모드 및 지연된 정상 모드의 패킷 스트림은 멀티플렉서(140)에서 복합 패킷 스트림으로 함께 멀티플렉싱된다. 복합 패킷 스트림은 시간 영역에서 멀티플렉싱되며, 이것은 연속 패킷을 전달하는 단일 데이터 스트림이 한번에 하나씩 생성됨을 의미한다. 식별 및 제어 데이터(미도시)와 같은 다른 데이터를 포함하는 추가적인 패킷이 또한 멀티플렉서(140)에 의해 생성된 복합 패킷 스트림 내로 멀티플렉싱될 수 있다. 게다가, 다른 콘텐츠를 나타내는 신호 중 하나 이상을 나타내는 정상 모드 및 강력한 모드의 패킷 스트림 모두를 아마도 포함할 다른 콘텐츠 소스를 나타내는 다른 패킷(또한 미도시됨)이 또한 멀티플렉서(140)에 의해 생성된 복합 패킷 스트림 내로 전적으로 알려져 있는 방식으로 멀티플렉싱될 수 있다. 도 3의 패킷 스트림(300 및 310)은 복합 패킷 스트림에서 성분 콘텐츠를 나타내는 신호를 나타낸다. 알 수 있는 바와 같이, 정상 모드의 인코더(120)로부터의 패킷 "A"은 강력한 모드의 인코더(110)로부터의 패킷 "k"와 동일한 시간에 송신된다.
멀티플렉서(140)로부터의 복합 패킷 스트림은 그러면 통신 채널을 통한 통신을 위해 채널 코딩된다. 예시된 실시예에서, 채널 코딩은 복합 패킷 스트림을 변조기(150)에서 변조함으로써 실행된다. 정상 모드의 패킷 스트림에 대한 채널 코딩은 강력한 모드의 패킷 스트림에 대한 채널 코딩과 다르다. 좀더 구체적으로, 강력한 모드의 패킷 스트림에 적용된 변조는 정상 모드의 패킷 스트림에 적용된 변조보다 더 강력하다. 예시된 실시예에서, 정상 모드의 패킷 스트림 내의 패킷이 변조될 때, 변조는 ATSC 표준에 따라 8-VSB 변조이다. 강력한 모드의 패킷 스트림 내의 패킷이 변조될 때, 변조는 전술된 바와 같이 예컨대 4-VSB 또는 2-VSB와 같이 좀더 강력한 변조이다.
요약하면, 예시된 실시예에서, 정상 모드의 패킷 스트림은 MPEG2 인코딩 기술을 사용하여 소스 인코딩되고, 8-VSB 변조를 사용하여 채널 인코딩된다. 이것은 이전의 ATSC 표준과 완벽하게 역호환성을 갖는다. 또한, 예시된 실시예에서, 강력한 모드의 패킷 스트림은 JVT 인코딩 기술을 사용하여 소스 인코딩되고, 4-VSB 및/또는 2-VSB 변조를 사용하여 채널 인코딩된다. 당업자는, 앞서 언급한 새로운 ATSC 표준이 강력한 모드의 패킷 스트림의 채널 인코딩, 즉 4-VSB 및/또는 2-VSB만을 지칭하고, 소스 인코딩 기술을 명시하지 않음을 이해할 것이다. 그 결과, 이러한 임의의 소스 인코딩 기술은 이 표준에 따라 사용될 수 있으며, 예시된 실시예에서의 JVT 인코딩 기술은 강력한 모드의 패킷 스트림에 대한 이러한 소스 인코딩의 한 예이다. 본 출원의 나머지부분에서, '정상 모드의 패킷 스트림'은 MPEG2 소스 인코딩 기술을 사용하여 소스 인코딩되고, MPEG2 표준에 따라 패킷으로 시스템 인코딩되며, 8-VSB 변조를 사용하여 채널 인코딩된 패킷 스트림을 지칭할 것이며, '강력한 모드의 패킷 스트림'은 JVT 소스 인코딩 기술을 사용하여 소스 인코딩되고, MPEG2 표준에 따라 패킷으로 시스템 인코딩되며, 4-VSB 및/또는 2-VSB 변조를 사용하여 채널 인코딩된 패킷을 지칭할 것이다.
그러면, 변조된 복합 신호는 통신 채널(미도시)에 공급되며, 이러한 채널은 무선 RF 채널이나, 케이블 텔레비전 시스템과 같은 유선 채널일 수 있다. 복합 신호는 통신 채널에 의해 저하될 수 있다. 예컨대, 복합 신호의 신호 세기는 변할 수 있다. 특히, 복합 신호는 다중경로나 다른 신호 감쇠 메커니즘으로 인해 페이딩할 수 있다. 하나 이상의 수신기가 아마도 저하되었을 복합 신호를 통신 채널로부터 수신한다.
도 2는 본 발명의 원리에 따른 스태거캐스팅 수신기(200)의 일부분에 대한 블록도이다. 도 2에서, 입력 단자(205)는, (도 1의) 송신기(100)에 의해 생성된 변조된 복합 신호를 수신할 수 있도록 통신 채널(미도시)에 연결될 수 있다. 입력 단자(205)는 복조기(207)의 입력 단자에 결합된다. 복조기(207)의 출력 단자는 디멀티플렉서(210)의 입력 단자에 결합된다. 디멀티플렉서(210)의 제 1 출력 단자는 선택기(230)에 결합된다. 디멀티플렉서(210)의 제 2 출력 단자는 지연 디바이스(220)에 결합된다. 지연 디바이스(220)의 출력 단자는 선택기(230)의 제 2 입력 단자에 결합된다. 선택기(230)의 출력 단자는 멀티-표준 디코더(240)의 신호 입력 단자에 결합된다. 디멀티플렉서(210)의 제어 신호 출력 단자는 선택기(230) 및 멀티-표준 디코더(240)의 각 대응하는 입력 단자에 결합된다. 멀티-표준 디코더(240)의 출력 단자는 출력 단자(215)에 결합된다. 출력 단자(215)는 콘텐츠를 나타내는 신호를 생성하며, 이러한 신호는 비디오 콘텐츠에 의해 표시되는 이미지를 재생하기 위한 이미지 재생 디바이스와, 오디오 콘텐츠에 의해 표시되는 사운드를 재생하기 위한 사운드 재생 디바이스를 구비하고 및 가능하다면 시청자가 수신된 데이터 콘텐츠와 상호동작하게 하기 위한 사용자 입력 디바이스를 포함하는 텔레비전 수신기와 같은 이용 회로(미도시)에 공급된다.
동작시, 복조기(207)는 정상 모드의 패킷 스트림(8-VSB) 또는 강력한 모드의 패킷 스트림(4-VSB 및/또는 2-VSB) 중 어느 하나로부터의 패킷을 수신하는데 필요한 적절한 복조 기술을 사용하여 수신된 변조된 신호를 복조한다. 결과적인 신호는 수신된 복합 패킷 스트림 신호이다. 수신된 복합 패킷 스트림 신호는 디멀티플렉서(210)에 의해 각 수신된 패킷의 헤더 내의 식별 데이터에 따라 정상 모드의 소스 인코딩된 성분의 패킷 스트림과 강력한 모드의 소스 인코딩된 성분의 패킷스트림 각각으로 디멀티플렉스된다. 수신된 정상 모드의 패킷 스트림은 선택기(230)에 직접 공급된다. 수신된 강력한 모드의 패킷 스트림은 지연 디바이스(220)를 통과하며, 이러한 지연 디바이스(220)는 수신된 강력한 모드의 패킷 스트림을 도 1의 송신기(100)에서 정상 패킷 스트림이 지연되는 동일한 시간 지연 기간만큼 지연시킨다. 그 결과, 선택기(230)의 입력 단자에서의 두 패킷 스트림 신호에 의해 표시된 콘텐츠는 시간에 따라 정렬된다.
수신된 복합 신호 중 일부분이 사용할 수 없어야 한다면, 디멀티플렉서(210)는 또한 제어 신호 출력 단자에서 에러 신호를 생성한다. 예컨대 신호대잡음 비 검출기나 비트-에러율 검출기와 같은, 몇몇 기술 중 임의의 기술이 사용될 수 있다. 게다가, 수신된 복합 신호 내의 에러는 손실된 패킷을 검출함으로써 검출될 수 있다. 각 패킷은 이 패킷이 어떠한 패킷 스트림에 속해 있는 지와 패킷 시퀀스 번호를 식별케 하는 데이터를 그 헤더 내에 포함한다. 만약 패킷 스트림에 대한 시퀀스 번호가 손실된다면, 패킷은 손실되며, 에러가 검출된다. 이 경우, 그 패킷이 손실된 패킷 스트림이 알려질 수 있으며, 단지 이 패킷 스트림만 에러를 갖는 것으로 검출될 수 있다. 이들 또는 임의의 다른 이러한 검출기는 단독으로 또는 조합되어 사용될 수 있다.
비록 제어 신호가 디멀티플렉서(210)로부터 출력되는 것으로 예시되었을 지라도, 당업자는, 다른 에러 검출기가 수신기 내의 다른 장소로부터의 신호를 필요로 할 수 있음을 이해할 것이다. 어떠한 장치가 사용되더라도, 복합 신호의 일부분이 사용될 수 없을 경우에 활성 상태가 되는 에러 신호(E)가 생성된다. 선택기(230)는 이 에러 신호(E)에 응답하여 두 패킷 스트림 신호 중 하나를 멀티-표준 디코더(240)에 통과시키도록 조정된다. 멀티-표준 디코더(240)는 좀더 후술될 방식으로 이 패킷 스트림 신호를 디코딩하도록 조정된다.
멀티-표준 디코더(240)는 선택기(230)에 의해 어떠한 패킷 스트림이 디코더 내로 공급되는지에 상관없이 시스템 디코딩(패킷해제) 및 소스 디코딩 모두를 실행한다. 멀티-표준 디코더(240)는 서로 다른 코딩 표준에 따라 패킷 스트림 신호의 소스 디코딩을 실행하도록 구성될 수 있다. 예컨대, 정상 모드의 인코딩된 패킷 스트림이 선택기(230)로부터 수신될 때, 멀티-표준 디코더(240)는 MPEG2 표준에 따라 이들 패킷을 패킷해제 및 소스 디코딩하고, 콘텐츠를 나타내는 신호를 재생성하도록 구성된다. 유사하게, 강력한 모드의 인코딩된 패킷 스트림이 선택기(230)로부터 수신될 때, 멀티-디코더(240)는 MPEG2 표준에 따라 패킷을 패킷해제하고, JVT 표준에 따라 이 패킷을 소스 디코딩하며, 콘텐츠를 나타내는 신호를 재생성하도록 구성 된다.
도 2의 수신기(200)의 동작은 도 3을 다시 참조함으로써 이해될 수 있다. 시간(t0)은 수신기가 턴온되는 시간이나 사용자가 수신할 새로운 콘텐츠 소스를 명시하는 시간을 표시한다. t0과 t4 사이의 시간, Tadv 동안에, 강력한 모드의 패킷 "a" 내지 "j"가 지연 디바이스(220) 내로 로딩되고, "0" 내지 "9"로 표기된 정상 모드의 패킷이 수신된다. 시간(t4)에, 정상 모드의 패킷 "A"이 디멀티플렉서(210)로부터 이용 가능하게 되고, 지연된 강력한 모드의 패킷 "a"가 지연 디바이스(220)로부터 이용 가능하게 된다. 정상 조건 하에서, 에러 신호는 에러 신호 라인(E) 상에서 활성 상태가 아니다. 이에 응답하여, 선택기(230)는 정상 모드의 패킷 스트림을 멀티-표준 디코더(240)에 결합시키며, 멀티-표준 디코더(240)는 전술된 바와 같이 정상 모드의 패킷으로부터 콘텐츠를 나타내는 신호를 생성하기 시작한다. 이것이 정상 모드 패킷 "A" 내지 "G"에서 사선(301)으로 예시되어 있다.
시간(t1)에서 시간(t2)까지, 심각한 페이딩이 통신 채널에서 발생하며, 시간(t2)에서 시간(t3)까지, 수신기는 변조된 신호를 복구하고, 이 신호에 재동기화한다. 이러한 시간(t1에서 t3)까지 동안, 정상 모드의 패킷 "H" 내지 "M"과 강력하나 모드의 패킷 "r" 내지 "w"이 손실된다. 이것이 이들 패킷에서 사선(302)으로 표시되어 있다. 그러나, 강력한 모드의 패킷 "h" 내지 "m"은 이전에 성공적으로 수신되었다. 지연 디바이스(220) 때문에, 이들 강력한 모드의 패킷은 시간(t1)에서 시간(t3)까지 선택기(230)로의 다른 입력에서 이용될 수 있다.
페이딩 발생이 검출되고, 에러 신호 라인(E) 상의 활성 에러 신호에 의해 표시된다. 에러 신호 라인(E) 상의 활성 에러 신호에 응답하여, 선택기(230)는 이전에 수신된 강력한 모드의 패킷 "h" 내지 "m"을 멀티-표준 디코더(240)에 결합한다. 동시에, 멀티-표준 디코더(240)는 강력한 모드의 패킷을 패킷해제 및 디코딩하도록 구성된다. 그 결과, 시간(t1)에서 시간(t3)까지, 강력하나 모드의 패킷 스트림으로부터의 패킷 "h" 내지 "m"이 디코딩되고, 콘텐츠를 나타내는 신호가 이용 회로(미도시)에 이용 가능하게 유지된다. 이것이 강력한 모드 패킷 "h" 내지 "m"에서 사선(301)으로 예시되어 있다.
시간(t3)에서, 페이딩이 종료하고, 복합 신호는 다시 이용 가능하게 된다. 그 결과, 정상 모드의 패킷 "N","O","P",...,가 이용 가능하게 된다. 페이딩의 사라짐이 검출되고, 에러 신호 라인(E) 상의 비활성 에러 신호에 의해 표시된다. 이에 응답하여, 선택기(230)는 정상 모드의 패킷 스트림을 멀티-표준 디코더(240)에 결합한다. 동시에, 멀티-표준 디코더(240)는 정상 모드의 패킷을 패킷해제 및 디코딩하도록 구성되며, 콘텐츠를 나타내는 신호를 계속해서 생성한다.
페이딩 및 복구 동안에, 시간(t1)에서 시간(t3)까지, 강력한 패킷 "r" 내지 "w"가 손실되었다. 그 결과, 시간(t6) 내지 시간(t7)까지, 정상 모드의 패킷 "R" 내지 "W"가 수신될 때, 지연 디바이스(220)에는 대응하는 어떠한 강력한 모드의 패킷도 존재하지 않는다. 이 시간 동안에, 페이딩에 대비할 어떠한 보호수단도 없다. 그러나, 지연 디바이스가 다시 채워지면, 페이딩 보호 수단이 다시 이용 가능하게 된다.
전술된 바와 같이, 콘텐츠를 나타내는 신호는, 시간(t1) 내지 시간(t3)까지 페이딩이 발생함에도 불구하고 이동 회로(미도시)에 이용 가능하게 유지된다. 게다가, 강력한 소스 코딩 및 채널 코딩(변조) 기술 때문에, 강력한 모드의 패킷이 더 심각한 채널 저하에서도 생존할 수 있으며, 그에 따라 정상 모드의 패킷이 존재하지 않을 경우에도 이용될 수 있다. 강력한 모드의 패킷 스트림에 의해 전달된 콘텐츠 신호의 품질은 정상 모드의 패킷 스트림에서의 신호 품질과 다를 수 있다. 특히, 강력한 모드의 패킷 스트림에서의 콘텐츠 신호의 품질은 정상 모드의 패킷 스트림에서의 신호 품질보다 더 낮을 수 있다. 더 낮은 품질의 콘텐츠 신호는 더 높은 품질의 콘텐츠 신호보다 더 적은 수의 비트를 송신해야 하며, 이러한 강력한 모드의 패킷 스트림은 정상 모드의 패킷 스트림보다 더 낮은 처리량을 요구할 것이다. 그에 따라, 제 2의 더 낮은 처리량의 패킷 스트림의 부담이 있지만, 페이딩 이벤트의 발생시 적절한 저하를 허용하게 될 시스템이 가능하다.
또한 상술한 바와 같이, 콘텐츠 신호는 비디오, 오디오 및/또는 데이터를 포함한다. 특히, 오디오 데이터는, 오디오 데이터가 또한 페이딩의 발생에도 불구하고 이용 가능하게 유지되도록, 정상 모드의 패킷 스트림과 강력한 모드의 패킷 스트림 모두에서 전달될 수 있다. 강력한 모드의 패킷 스트림에 의해 전달된 오디오 콘텐츠 신호는 정상 모드의 패킷 스트림에서의 품질과는 다른 품질, 구체적으로는 더 낮은 품질을 가질 수 있다. 더 낮은 품질의 오디오 신호는 더 적은 비트 및 더 적은 패킷으로 전달될 수 있으며, 그에 따라 강력한 모드의 패킷 스트림에 관한 상대적으로 낮은 요구조건을 가질 것이다. 이것은 또한 페이딩 현상이 발생하는 경우 에 적절한 저하를 허용할 것이다.
전술된 시스템을 통해, 정상 모드의 패킷 스트림에서 강력한 모드의 패킷 스트림으로의 전환은 언제라도 발생할 수 있다. 만약 강력한 패킷 스트림이 정상 패킷 스트림에서의 콘텐츠를 나타내는 데이터와 동일한 콘텐츠를 나타내는 데이터를 패킷 레벨 이하로 전달한다면, 이것은 문제를 제공하지 않을 것이다. 그러나, 만약 강력한 패킷 스트림이 정상 패킷 스트림에서의 콘텐츠를 나타내는 데이터와 다른 콘텐츠를 나타내는 데이터를 전달한다면, 예컨대 이 콘텐츠가 다른 해상도, 양자화 레벨, 프레임율 등으로 표시된다면, 시청자는 재생된 이미지에서의 변화를 인지할 수 있으며, 이러한 변화는 못마땅한 것일 수 있다. 더 나쁜 경우에, 만약 패킷 스트림 전환이 화상을 디코딩하는 중간에 발생한다면, 이 화상 및 다른 주위의 화상의 디코딩이 함께 실패할 수 있으며, 비디오 이미지는, 디코더가 독립적으로 디코딩될 수 있는 화상에 재동기화할 때까지 훨씬 더 긴 시간 기간동안 중단될 수 있다.
전술된 바와 같이, 정상 모드의 패킷 스트림은 소스, 시스템 및 채널 인코딩의 조합에 의해 전달된다. 예시된 실시예에서, 소스 및 시스템 코딩은 알려진 MPEG 2 코딩 방식에 따르며, 채널 인코딩은 8-VSB 변조 기술을 사용한다. MPEG 소스 코딩 방식은 비디오 이미지 신호를 독립적인 디코딩 세그먼트 시퀀스로서 인코딩한다. 기본 스트림 세그먼트로도 명명되는 독립 디코딩 세그먼트(IDS)는 임의의 다른 독립 디코딩 세그먼트와 독립적으로 정확하게 디코딩될 수 있는 세그먼트이다. MPEG 표준에서, 독립 디코딩 세그먼트는 시퀀스, 화상 그룹(GOP) 및/또는 화상을 포함한다. 이들 독립 디코딩 세그먼트는 고유한 시작 코드에 의해 압축된 비트스트림에서 경계가 정해진다. 즉, 독립 디코딩 세그먼트는 세그먼트 시작 코드에서 시작해서 그 다음 세그먼트 시작 코드를 포함하지 않는 지점까지의 모든 데이터인 것으로 간주된다. MPEG2 표준에서의 화상은 인트라-코딩(I 화상), 상호-예측(P 화상), 또는 양방향 예측(B) 화상 중 어느 하나이다. I 화상은 임의의 다른 화상에 대해 참조하지 않고 인코딩된다. GOP는 I, P 및/또는 B 화상의 조합으로 인코딩된 화상 그룹을 포함한다. 폐쇄된 GOP에서, GOP 내의 모든 화상은 임의의 다른 GOP 내의 화상을 참조하지 않고도 디코딩될 수 있다. 각 GOP의 시작은 MPEG 2 패킷 스트림에서 분명하게 식별된다.
또한 전술된 바와 같이, 강력한 모드의 패킷 스트림은 소스, 시스템 및 채널 인코딩의 조합에 의해 전달된다. 예시된 실시예에서, 소스 인코딩은 JVT 인코딩 방식에 따르며, 시스템 인코딩은 MPEG2 표준에 따르며, 채널 인코딩은 2-VSB 및/또는 4-VSB 변조 기술을 사용한다. JVT 소스 코딩 표준을 사용하여 코딩된 화상은 코딩된 슬라이스로 구성되며, 주어진 화상은 서로 다른 코딩 유형의 슬라이스를 포함할 수 있다. 각 슬라이스는 인트라-코딩된(I) 슬라이스, 상호-예측된(P) 슬라이스, 양방향-예측된(B) 슬라이스, 단지 공간 예측만이 사용되는 SI 슬라이스, 또는 심지어 서로 다른 참조 화상이 사용될 경우에도 정확하게 재생될 수 있는 SP 슬라이스 일 수 있다. JVT 소스 코딩 표준은 또한 순시 디코딩 리프레시(IDR) 화상을 포함한다. IDR은 특정한 유형의 JVT 인코딩된 화상이며, 이것은 단지 I 슬라이스만을 포함하고, IDS의 시작부분을 지정한다. IDR은 현재의 화상 및 모든 이후에 인코딩된 화상 이 이전 화상을 참조할 필요 없이도 디코딩될 수 있다는 점을 표시한다. IDR은 MPEG2 표준에서 GOP에 필적하는 모든 미리 결정된 수의 화상에 대해 한번만 인코딩될 수 있다. JVT 소스 인코딩 방식에서, 독립 디코딩 세그먼트는 JVT 패킷 스트림에서 분명하게 식별되는 IDR에 의해 경계가 정해질 수 있다.
정상 및 강력한 소스 인코딩 방식에 몇몇 제약을 가함으로써, 못마땅한 아티팩트를 최소화하면서도, 정상 모드의 패킷 스트림에서 강력한 모드의 패킷 스트림으로 전환할 수 있는 시스템이 개발될 수 있다. 만약 독립 디코딩 세그먼트가 정상(MPEG2) 및 강력한(JVT) 패킷 스트림 모두에서 동일한 콘텐츠 위치에서 시작하도록 인코딩된다면, 못마땅한 아티팩트를 최소환 갖는 독립 디코딩 세그먼트 위치에서 정상 패킷 스트림과 강력한 패킷 스트림 사이에 전환이 이뤄질 수 있다. 예시된 실시예에서, 정상(MPEG2) 패킷 스트림에서 사용된 독립 디코딩 세그먼트는 폐쇄된 GOP이며, I 화상으로 시작한다. 대응하는 강력한(JVT) 패킷 스트림에서, 각 독립 디코딩 세그먼트는 IDR 화상으로 시작한다. 정상(MPEG) 모드의 패킷 스트림에서의 I 화상과 강력한(JVT) 모드의 패킷 스트림에서의 IDR 화상 모두는 콘텐츠 소스(미도시)로부터 동일한 비디오 화상을 인코딩한다. 두 소스 인코딩 방식은 IDS가 다른 방식으로 형성되고 경계가 정해지게 한다. 예컨대, MPEG2 소스 인코딩 방식은 또한 슬라이스가 화상을 표시하도록 형성되게 한다. 임의의 이러한 방식은, IDS가 동일한 콘텐츠 위치에서 패킷 스트림 모두 내에 삽입된다면, 사용될 수 있다.
다시 도 1을 참조하면, 입력 단자(105)는 또한 점선으로 예시된 장면 단절 검출기(160)의 입력 단자에 결합된다. 장면 단절 검출기(160)의 출력 단자는 정상 모드의 인코더(120)와 강력한 모드의 인코더(110)의 각 제어 입력 단자에 결합된다.
동작시, 장면 단절 검출기(160)는 비디오 콘텐츠에서 새로운 장면의 발생을 검출한다. 새로운 장면의 검출에 응답하여, 제어 신호가 정상 모드의 인코더(120)와 강력한 모드의 인코더(110)에 전송된다. 정상 모드의 인코더(120)와 강력한 모드의 인코더(110) 모두는 제어 신호에 응답하여 새로운 독립 디코딩 세그먼트를 인코딩하기 시작한다. 정상 모드의 인코더(120)는 새로운 I 화상을 삽입하고, 강력한 모드의 인코더(110)는 IDR 화상을 그 각자의 인코딩된 패킷 스트림 내로 삽입한다. 정상 모드의 인코더(120) 및 강력한 모드의 인코더(110)는 동일한 시간 지속기간을 갖는 대응하는 독립 디코딩 세그먼트를 생성하도록 동작한다. 전술된 바와 같이, 인코딩된 콘텐츠를 나타내는 신호는 각 패킷 스트림으로 시스템 코딩된다.
지연 디바이스(130)는 독립 디코딩 세그먼트 시간 지속기간과 동일한 지연을 초래하도록 세팅된다. 멀티플렉서(140)는 강력한 모드로 인코딩된 패킷 스트림과 지연된 정상 모드로 인코딩된 패킷 스트림을 결합하여 복합 패킷 스트림이 되게 한다. 복합 패킷 스트림은 변조기(150)에 의해 적절한 방식으로 채널 인코딩(변조)되어, 출력 단자(115)를 통해 통신 채널에 공급된다.
이러한 동작 모드에서 송신기의 동작은 도 4를 참조하여 더 잘 이해될 수 있다. 도 4는 멀티플렉서(140)에 대한 입력에서의 패킷 스트림을 예시한다. 도 4에서, 강력한 모드의 인코더(110)로부터의 독립 디코딩 세그먼트(IDS) 시퀀스가 일련의 직사각형(400)으로 예시되며, 정상 모드의 인코더(120)로부터의 독립 디코딩 시 퀀스 세그먼트는 일련의 직사각형(410)으로서 예시된다. 전술한 바와 같이, 콘텐츠 내의 시간 위치와, 강력한 모드의 인코더(110) 및 정상 모드의 인코더(120)로부터의 독립 디코딩 세그먼트의 지속기간은 동일하다. 지연 디바이스(130)에 의해 초래된 지연은 IDS의 시간 지속기간과 동일하기 때문에, 강력한 모드의 인코더(110)로부터의 IDS는 정상 모드의 인코더(120)로부터의 바로 이전의 IDS와 정렬된다.
장면 단절 검출기(160)에 의해 검출된 장면 변화를 표시할 수 있는 시간(t0)에, 지연되지 않고 강력한 모드로 인코딩된 IDS N과 이전에 지연되고 정상 모드로 인코딩된 IDS N-1이 시작한다. 각 강력한 모드(JVT 소스 코딩된) IDS는 각 슬라이스를 나타내는 일련의 직사각형(440)으로 예시되고, 독립 디코딩 리프레시(IDR) 화상으로 시작한다. IDR 화상 다음에는 B, P, SI 및/또는 SP 슬라이스가 온다. 이들 슬라이스는, 다시 전송 패킷 "a", "b", "c" 등으로 된 시퀀스(450)로 시스템 코딩된다. 유사하게, 각 정상 모드 IDS(MPEG2 소스 코딩됨)는 I 화상으로 시작하는 GOP를 표시하는 일련의 직사각형(420)으로서 예시된다. I 화상 다음에는 P 화상 및 B 화상으로 된 배열이 온다. 이들 I, P 및 B 화상은, 다시 전송 패킷, "A", "B", "C" 등으로 된 시퀀스(430)로 시스템 코딩된다. 예시된 배열은 단지 예이며, 임의의 적절한 배열이 사용될 수 있다.
이러한 복합 신호는 수신기에 의해 수신된다. 다시 도 2의 수신기(200)를 참조하면, 시간(t0)에서, 수신된 강력한 모드의 IDS N은 시간(Tadv) 동안에 지연 디바이스(220) 내로 로딩된다. 지연 디바이스(220)는 송신기에서 지연 디바이스(130)가 정상 패킷 스트림에 초래했던 것과 동일한 지연(하나의 IDS 시간 기간)을 수신된 강력한 패킷 스트림에 초래한다. 그 결과, 선택기(230)의 입력 단자에서의 수신된 정상 패킷 스트림과 지연된 강력한 패킷 스트림은 콘텐츠를 나타내는 신호에 대해 시간적으로 재정렬된다.
정상 조건 하에서, 선택기(230)는 정상 모드 패킷 스트림을 멀티-표준 디코더(240)에 결합하고, 멀티-표준 디코더는 좀더 상세하게 전술된 바와 같이 정상 모드의 패킷을 디코딩하도록 조정된다. 만약 에러가 복합 신호나 이러한 신호의 일부분에서 검출된다면, 전술된 바와 같이, 정상 모드의 패킷 스트림과 강력한 모드의 패킷 스트림 사이에서 전환이 실행된다. 이러한 실시예에서, IDS의 시작부분에서, 선택기(230)는 강력한 모드의 패킷 스트림을 멀티-표준 디코더(240)에 결합하고, 멀티-표준 디코더(240)는 좀더 상세하게 전술된 바와 같이 강력한 모드의 패킷을 디코딩하도록 조정된다. 만약 복합 신호에서 어떠한 추가적인 에러도 검출되지 않는다면, 그 다음 IDS의 시작 부분에서, 선택기(230)는 정상 모드의 패킷 스트림을 멀티-표준 디코더(240)에 결합하고, 멀티-표준 디코더(240)는 정상 모드의 패킷을 다시 디코딩하도록 조정된다.
도 2의 수신기(200)에서, 정상 모드의 패킷 스트림의 디코딩에서 강력한 모드의 패킷 스트림의 디코딩으로의 전환 또는 그 역방향의 전환은 IDS의 시작부분에서 발생한다. 각 IDS는 I 화상(정상 모드)이나, IDR 화상(강력한 모드)중 어느 하나로 시작하는 독립 디코딩 세그먼트이며, 임의의 다른 화상을 참조하지 않고도 성공적으로 디코딩될 수 있다. 또한, 후속한 화상은 IDS 이전에 있는 화상을 참조하 지 않고도 디코딩될 수 있다. 그에 따라, 콘텐츠를 나타내는 신호의 디코딩 및 디스플레이는 전환에 의해 초래되는 못마땅한 아티팩트가 없이도 즉시 실행될 수 있다.
정상 모드의 비디오 패킷 스트림의 디코딩에서 강력한 모드의 패킷 스트림으로의 전환 및 그 반대 방향으로의 전환에 의해 초래된 비디오 아티팩트를 추가로 최소화하기 위해, 결과적인 비디오 신호의 이미지 특징은, 전환이 발생할 때, 정상 모드의 비디오 신호의 이미지 특징과 강력한 모드의 비디오 신호의 이미지 특징 사이에서 점진적으로 변화할 수 있다. 이것은 예컨대 강력한 모드의 비디오 스트림의 공간 해상도, 프레임율 등이 정상 모드의 비디오 스트림의 것보다 더 작은 경우와 같이, 특히, 강력한 모드의 비디오 스트림이 정상 모드의 비디오 스트림에 비해 더 낮은 품질인 경우에 바람직하다.
도 5는 도 3에 예시된 수신기에서 사용될 수 있는 선택기(230")의 블록도이다. 이러한 선택기(230")는 정상 모드의 비디오 신호의 비디오 특징과 강력한 모드의 비디오 신호의 비디오 특징 사이에서 이들 신호 사이의 전환이 있을 때 결과적인 비디오 신호의 비디오 특징(예컨대, 해상도, 프레임율 등)을 점진적으로 변화시킬 수 있다. 도 5의 a)는 선택기(230")의 동작을 예시한 기능적 블록도이며, 도 5의 b)는 도 2에 예시된 수신기에서 사용될 수 있는 이러한 선택기(230")의 실시예를 예시한 구조적 블록도이다.
도 5의 a)에서, 강력한 모드의 비디오 신호는 트랙(232)의 한 단부에 결합되며, 정상 모드의 비디오 신호는 트랙(232)의 다른 한 단부에 결합된다. 슬라이더 (234)는 트랙(232)을 따라 슬라이딩하며, 선택기(230")의 출력 단자에 결합된 결과적인 비디오 신호를 생성한다. 결과적인 비디오 신호는 (도 2의) 수신기(200)의 출력 단자(215)에 결합된다. 제어 입력 단자가 에러 신호(E)를 디멀티플렉서(210)로부터 수신하기 위해 결합된다. 제어 입력 단자가 제어 회로(231)의 입력 단자에 결합된다. 트랙(232)을 따라서의 슬라이더(234)의 위치는 점선으로 표시된 바와 같이 제어 회로(231)에 의해 제어된다.
동작시, 슬라이더(234)가 트랙(232)의 상위 단부에 있을 경우에, 강력한 모드의 비디오 신호의 특징(예컨대, 해상도, 프레임율 등)을 갖는 결과적인 비디오 신호는 선택기(230")의 출력 단자에 결합된다. 슬라이더(234)가 트랙(232)의 하위 단부에 있을 경우에, 정상 모드의 비디오 신호의 특징을 갖는 결과적인 비디오 신호는 선택기(230")의 출력 단자에 결합된다. 슬라이더(234)가 트랙(232)의 상위 단부와 하위 단부 사이에서 이동함에 따라, 선택기(230")의 출력 단자에서의 결과적인 비디오 신호의 특징은 정상 모드 및 강력한 모드의 비디오 신호의 특징들 사이에 있도록 조정된다. 슬라이더(234)가 트랙(232)의 상위 단부에 더 근접할수록, 결과적인 비디오 신호의 특징은 정상 모드의 비디오 신호의 특징보다는 강력한 모드의 비디오 신호의 특징에 더 근접한다. 슬라이더(234)가 트랙(232)의 하위 단부에 더 근접할수록, 결과적인 비디오 신호의 특징은 강력한 모드의 비디오 신호의 특징보다는 정상적인 모드의 비디오 신호의 특징에 더 근접한다.
에러 신호(E)의 값은, 전술한 바와 같이 전환이 발생할 때를 표시한다. 대략 전환이 발생하는 시간에서의 하나 이상의 비디오 화상의 시간 기간 동안에, 전환이 하나의 비디오 신호(예컨대, 정상 모드의 비디오 신호나 강력한 모드의 비디오 신호)로부터 다른 하나의 비디오 신호로 발생할 때, 슬라이더(234)는 트랙(232)의 한 단부에서 다른 한 단부로 점진적으로 이동한다. 예컨대, 정상 모드의 비디오 신호로부터 강력한 모드의 비디오 신호로의 전환 동안에, 슬라이더(234)는 트랙의 바닥에서 시작한다. 전환 이전의 몇몇 비디오 화상 동안에, 슬라이더는 트랙(232)의 바닥에서 정상으로 점진적으로 이동한다. 정상 모드의 패킷 스트림에서 강력한 모드의 패킷 스트림으로의 전환이 있을 때, 슬라이더는 트랙(232)의 정상에 있다. 그 결과, 결과적인 비디오 신호의 특징은, 강력한 모드의 패킷 스트림으로의 전환이 발생하기 이전 수 비디오 화상 동안에 정상 비디오 신호의 특징으로부터 강력한 모드의 비디오 신호의 특징으로 점진적으로 변화한다. 유사하게, 강력한 모드의 패킷 스트림에서 정상 모드의 패킷 스트림으로의 전환이 있을 때, 슬라이더는 트랙(232)의 정상에 있다. 전환 이후 수 비디오 화상 동안에, 슬라이더는 트랙(232)의 정상에서 바닥으로 점진적으로 이동한다. 그 결과, 결과적인 비디오 신호의 특징은, 정상 모드의 패킷 스트림으로의 전환이 발생한 이후 수 비디오 화상 동안에 강력한 비디오 신호의 특징으로부터 정상 모드의 비디오 신호의 특징으로 점진적으로 변화한다.
도 5의 b)에서, (도 2의) 멀티-표준 디코더(240)로부터의 비디오 신호는 가변 비디오 품질 필터(236)의 제 1 입력 단자와 선택기(238)의 제 1 입력 단자에 결합된다. 비디오 품질 필터(236)의 출력 단자는 선택기(238)의 제 2 입력 단자에 결합된다. 선택기(238)의 출력 단자는 결과적인 비디오 신호를 생성하고, (도 2의) 출력 단자(215)에 결합된다. 디멀티플렉서(210)로부터의 에러 신호(E)는 제어 회로(231)에 결합된다. 제어 회로(231)의 제 1 출력 단자는 비디오 품질 필터(236)의 제어 입력 단자에 결합되고, 제어 회로(231)의 제 2 출력 단자는 선택기(238)의 제어 입력 단자에 결합된다.
동작시, 디코딩된 비디오 신호의 비디오 특징은 제어 회로(231)로부터의 제어 신호에 응답하여 비디오 품질 필터(236)에 의해 변경된다. 제어 회로(231)로부터의 제어 신호는 정상 모드의 비디오 신호의 비디오 특징과 강력한 모드의 비디오 신호의 비디오 특징 사이에서 비디오 특징의 범위를 갖는 비디오 신호를 생성하기 위해 비디오 품질 필터(236)를 조정한다. 정상 조건 하에서, 어떠한 전환도 발생하지 않을 때, 제어 회로(231)는 디코더 비디오 신호를 출력 단자에 결과적인 비디오 신호로서 결합시키기 위해 선택기(238)를 조정한다.
전술한 바와 같이, 정상 모드의 비디오 신호와 강력한 모드의 비디오 신호 사이의 전환을 표시하는 에러 신호(E)의 값의 변화에 응답하여, 전환 시간 인근의 시간 기간 동안에, 제어 회로(231)는 비디오 품질 필터(236)로부터 출력 단자로 비디오 신호를 결합시키기 위해 선택기(238)를 조정하고, 결과적인 비디오 신호의 비디오 특징을 점진적으로 변화시키기 위해 품질 필터(236)를 조정한다. 좀더 구체적으로, 만약 정상 모드의 비디오 신호로부터 강력한 모드의 비디오 신호로의 전환이 발생한다면, 전환이 발생하기 이전 수 비디오 화상의 시간 기간 동안에, 비디오 품질 필터(236)는 정상 비디오 신호의 비디오 특징으로부터 강력한 비디오 신호의 비디오 특징으로 결과적인 비디오 신호의 비디오 특징을 점진적으로 변화시키도록 조 정된다. 이 시간 기간의 시작부분에서, 선택기(238)는 필터링된 비디오 신호를 결과적인 비디오 신호로서 출력 단자에 결합시키도록 조정된다. 이 시간 기간이 완료될 때, 그리고 디코딩된 비디오 신호가 강력한 모드의 패킷 스트림으로부터 유도될 때, 선택기(238)는 디코딩된 비디오 신호를 결과적인 비디오 신호로서 출력 단자에 결합시키도록 조정된다. 유사하게, 만약 강력한 모드의 비디오 신호로부터 정상 모드의 비디오 신호로의 전환이 발생한다면, 이 전환이 발생한 이후 수 비디오 화상의 시간 기간 동안에, 비디오 품질 필터(236)는 강력한 비디오 신호의 비디오 특징으로부터 정상 비디오 신호의 비디오 특징으로 결과적인 비디오 신호의 비디오 특징을 점진적으로 변화시키도록 조정된다. 이 시간 기간의 시작부분에서, 선택기(238)는 필터링된 비디오 신호를 결과적인 비디오 신호로서 출력 단자에 결합시키도록 조정된다. 이 시간 기간이 완성될 때, 그리고 디코딩된 비디오 신호가 정상 모드의 패킷 스트림으로부터 유도될 때, 선택기(238)는 디코딩된 비디오 신호를 결과적인 비디오 신호로서 출력 단자에 결합시키도록 조정된다.
서로 다른 비디오 품질(해상도, 프레임율 등)을 갖는 비디오 신호 사이에서의 갑작스런 전환은 시청자에게 못마땅할 수 있는 아티팩트를 초래할 수 있다. 결과적인 비디오 신호의 비디오 품질은 정상 모드의 비디오 신호로부터 강력한 모드의 비디오 신호로 전환하기 이전에 점진적으로 감소되고, 강력한 모드의 비디오 신호로부터 정상 모드의 비디오 신호로의 전환 이후에 점진적으로 증가되기 때문에, 이러한 전환으로부터 초래되는 못마땅한 아티팩트는 최소화된다.
스태거캐스팅 통신 시스템의 또 다른 실시예는 또한 못마땅한 아티팩트를 최 소화하면서 또한 전환을 제공할 수 있으며, 정상 및 강력한 모드의 패킷 스트림 내에서 IDS를 임의로 특수하게 배치하는 것을 필요로 하지 않는다. 수신기(200')가 도 6에 예시되어 있다. 도 6에서, 도 2에서의 수신기(200)의 요소와 유사한 요소가 동일한 참조번호로 표기되고, 이후에 더 상세하게 기술되지는 않을 것이다. 도 6에서, 디멀티플렉서(210)의 제 1 출력 단자는 정상 모드의 디코더(240')의 입력 단자에 결합된다. 정상 모드의 디코더(240')의 제 1 출력 단자는 선택기(230')의 제 1 입력 단자에 결합되고, 정상 모드의 디코더(240')의 제 2 출력 단자는 정상 모드의 프레임 저장수단(250')의 제 1 입력 단자에 결합된다. 지연 디바이스(220)의 출력 단자는 강력한 모드의 디코더(240")의 입력 단자에 결합된다. 강력한 모드의 디코더(240")의 제 1 출력 단자는 선택기(230')의 제 2 입력 단자에 결합되고, 강력한 모드의 디코더(240")의 제 2 출력 단자는 강력한 모드의 프레임 저장수단(250")의 제 1 입력 단자에 결합된다. 선택기(230')의 출력 단자는 정상 모드의 프레임 저장수단(250')과 강력한 모드의 프레임 저장 수단(250")의 각 제 2 입력 단자에 결합된다. 정상 모드의 프레임 저장수단(250')의 출력 단자는 정상 모드의 디코더(240')의 제 2 입력 단자에 결합되고, 강력한 모드의 프레임 저장수단(250")의 출력 단자는 강력한 모드의 디코더(240")의 제 2 입력 단자에 결합된다.
동작시, 지연 디바이스(220)는 (도 1의) 송신기(100)에서의 지연 디바이스(130)가 정상 모드의 패킷 스트림 내에 초래한 것과 동일한 지연을 강력한 모드의 패킷 스트림에 초래한다. 그 결과, 정상 모드의 디코더(240')와 강력한 모드의 디코더(240")의 각 입력 단자에서의 패킷 스트림 신호는 콘텐츠를 나타내는 신호에 대해 시간적으로 정렬된다.
앞서 상술된 바와 같이, 정상 및 지연된 강력한 모드의 패킷 스트림 모두는 대응하는 콘텐츠를 나타내는 신호 스트림을 생성하도록 시스템 및 소스 디코딩된다. 예시된 실시예에서, 이들 콘텐츠를 나타내는 신호 스트림은 비디오 화상의 각 시퀀스이다. 정상 모드 디코딩 및 강력한 모드의 디코딩 모두에서, 주위의 화상을 나타내는 비디오 데이터가 예측 화상이나 슬라이스를 디코딩하는데 필요하다. 정상 모드의 프레임 저장수단(250')은 정상 모드의 디코더(240')에 대한 이들 주위의 화상을 보유하고 있으며, 강력한 모드의 프레임 저장수단(250")은 강력한 모드의 디코더(250")에 대한 이들 주위의 화상을 보유하고 있다.
도 6에서 예시된 수신기에서, 전환은 IDS 단위보다는 화상 단위로 실행된다. 정상 모드의 디코더(240')는 정상 모드의 패킷을 연속 비디오 화상을 포함하고 있는 관련된 콘텐츠를 나타내는 신호로 디코딩한다. 동시에, 강력한 모드의 디코더(240")는 강력한 모드의 패킷을 연속적인 비디오 화상을 포함하고 있는 관련된 콘텐츠를 나타내는 신호로 디코딩한다. 전술된 바와 같이, 디멀티플렉서(210)는 복조기(207)로부터의 복합 신호나 적어도 그 일부분이 사용할 수 없음을 표시하는 에러 신호를 에러 신호 라인(E) 상에서 생성한다. 도 6에 예시된 실시예에서, 이 에러 신호는 디멀티플렉싱된 패킷 스트림에서 손실된 패킷을 검출함으로써 생성될 수 있다. 그에 따라, 에러 신호 라인(E) 상의 에러 신호는 패킷이 손실됨을 표시할 뿐만 아니라, 어떠한 패킷 스트림이 패킷을 손실 중인지를 표시한다. 패킷은 패킷 스트림에 의해 전달되는 비디오 화상을 형성하는 데이터의 부분을 페이로드에서 전달하 고, 이 패킷이 속해 있는 패킷 스트림을 식별케 하는 데이터를 헤더에서 전달하기 때문에, 패킷을 손실중인 패킷 스트림은 에러가 있는 것으로 표기될 수 있다.
비디오 화상은 정상 및 강력한 모드의 패킷 스트림 모두에서 성공적으로 수신될 수 있고; 정상 모드의 패킷 스트림에서 성공적으로 수신될 수 있지만 강력한 모드의 패킷 스트림에서는 에러가 있게 수신될 수 있고; 정상 패킷 스트림에서 에러가 있게 수신될 수 있지만 강력한 패킷 스트림에서는 성공적으로 수신될 수 있거나; 또는 정상 및 강력한 모드의 패킷 스트림 모두에서 에러가 있게 수신될 수 있다.
정상 조건 하에서, 즉 어떠한 에러도 정상 모드나 강력한 모드의 패킷 스트림 중 어디에서도 검출되지 않을 때, 정상 모드의 디코더(240')와 강력한 모드의 디코더(240") 모두는 대응하는 비디오 화상을 성공적으로 디코딩한다. 선택기(230')는 정상 모드의 디코더(240')로부터 유도된 콘텐츠를 나타내는 비디오 화상을 출력 단자(215)에 결합한다. 또한, 정상 조건 하에서, 정상 모드 디코더(240')는 비디오 화상을 정상 모드의 프레임 저장수단(250')에 공급하고, 강력한 모드의 디코더(240")는 강력한 모드의 프레임 저장 수단(250")에 비디오 화상을 공급한다.
만약 강력한 모드의 패킷 스트림에서 에러가 검출되지만 정상 모드의 패킷 스트림에서는 어떠한 에러도 검출되지 않는다면, 단지 정상 모드의 디코더(240')만이 대응하는 비디오 화상을 성공적으로 디코딩한다. 선택기(230')는 정상 모드의 디코더(240')로부터 유도된 콘텐츠를 나타내는 비디오 화상을 출력 단자(215)에 결합한다. 또한, 정상 모드의 디코더(240')가 디코딩된 비디오 화상을 정상 모드의 프레임 저장수단(250')에 공급한다. 그러나, 강력한 모드의 디코더(240")는 대응하는 비디오 화상을 성공적으로 디코딩하지 않았기 때문에, 어떠한 비디오 화상도 강력한 모드의 프레임 저장 수단(250")에 공급하지 않는다. 대신, 정상 모드의 디코더(240')로부터의 성공적으로 디코딩된 비디오 화상이 선택기(230')로부터 강력한 모드의 프레임 저장 수단(250")으로 라우팅된다.
만약 정상 모드의 패킷 스트림에는 에러가 검출되지만, 강력한 모드의 패킷 스트림에서는 어떠한 에러도 검출되지 않는다면, 단지 강력한 모드의 디코더(240")만이 대응하는 비디오 화상을 성공적으로 디코딩한다. 선택기(230')는 강력한 모드의 디코더(240")로부터 유도된 콘텐츠를 나타내는 비디오 화상을 출력 단자(215)에 결합시킨다. 또한, 강력한 모드의 디코더(240")는 디코딩된 비디오 화상을 강력한 모드의 프레임 저장수단(250")에 공급한다. 그러나, 정상 모드의 디코더(240')는 대응하는 비디오 화상을 성공적으로 디코딩하지 않았기 때문에, 어떠한 비디오 화상도 정상 모드의 프레임 저장수단(250')에 공급하지 않는다. 대신, 강력한 모드의 디코더(240")로부터의 성공적으로 디코딩된 비디오 화상이 선택기(230')로부터 정상 모드의 프레임 저장수단(250')에 라우팅된다.
앞의 두 경우에, 비디오 화상을 성공적으로 디코딩하지 않았던 디코더와 관련된 프레임 저장수단에 저장되는 비디오 화상은 다른 디코더로부터의 비디오 화상이다. 이것은, 정확한 비디오 화상이 이 프레임 저장수단에 저장되었을 경우에 실행될 디코딩에 비해 후속한 디코딩을 저하시킬 수 있다. 이것은, 대체된 비디오 화상이 에러가 있는 비디오 화상보다 더 낮은 품질인 경우에, 특히 사실이다. 그러 나, 후속한 디코딩의 정확도는, 어떠한 비디오 화상도 전혀 이 프레임 저장수단에 저장되어 있지 않은 경우보다는 양호하다.
정상 모드 및 강력한 모드의 패킷 모두에서 비디오 화상에서 에러가 검출된다면, 어떠한 정확한 비디오 화상도 디코딩되지 않고, 다른 차단 기술이 실행되어야 한다.
도 6에 예시된 수신기(200')의 동작은 도 7을 참조하여 더 잘 이해될 수 있다. 도 7에서, 상부의 직사각형 세트(MPEG)는 각각 정상 모드의 디코더(240')의 입력(420) 및 출력(520)을 나타내고; 중간에 있는 직사각형 세트(JVT)는 각각 강력한 모드의 디코더(240")의 입력(440) 및 출력(540)을 나타내며; 바닥에 있는 직사각형 세트(OUTPUT)는 출력 단자(215)에서의 비디오 화상(460)과 그 소스(560)를 나타낸다. MPEG 디코딩을 참조하면: 상위 직사각형 세트(420)는 정상 모드의 디코더(240')의 입력 단자에서의 소스 코딩된 비디오 화상(I, P 및/또는 B)을 나타낸다. 하위 직사각형 세트(520)는 정상 모드의 디코더(240')의 출력 단자에서의 결과적인 비디오 화상을 나타낸다. 유사하게, JVT 디코딩을 참조하면: 상위 직사각형 세트(440)는 강력한 모드의 디코더(240")의 입력 단자에서의 소스 코딩된 IDR 화상(복수의 I 슬라이스만을 포함할 수 있음)과 그 다음에 오는 소스 코딩된 비디오 슬라이스(I, P, B, SI 및/또는 SP)를 나타낸다. 하위 직사각형 세트(540)는 강력한 모드의 디코더(240")의 출력 단자에서의 결과적인 비디오 화상을 나타낸다. 출력 단자(215)를 참조하면, 상위 직사각형 세트(460)는 출력 비디오 화상을 나타내고, 하위 직사각형 세트(560)는 이 특정한 비디오 화상의 소스를 나타낸다.
좀더 구체적으로, 정상 모드(MPEG)의 패킷 스트림에서, 비디오 화상(6, 10 및 13)은 사선으로 표시된 바와 같이 각각 적어도 하나의 패킷을 손실하고 있다. 유사하게, 강력한 모드(JVT)의 패킷 스트림에서, 비디오 화상(7 및 10)은 사선으로 표시된 바와 같이 적어도 하나의 패킷을 손실하고 있다. 정상 모드 및 강력한 모드의 패킷 스트림 모두에 대한 모든 다른 비디오 화상은 모든 패킷을 포함하며, 성공적으로 디코딩될 수 있다.
비디오 화상(0 내지 5, 8, 9, 11, 12 및 14)의 경우, 선택기(230')는 도 7에서 "M"으로 표시된 바와 같이 정상 모드의 디코더(240')(MPEG)로부터 유도된 비디오 화상을 출력 단자(215)에 결합한다. 게다가, 이들 비디오 화상의 경우, 정상 모드의 디코더(240')로부터의 비디오 화상은 정상 모드의 프레임 저장수단(250')에 공급되고, 강력한 모드의 디코더(240")로부터의 비디오 화상은 강력한 모드의 프레임 저장수단(250")에 공급된다.
화상 6 및 13의 경우, 정상 모드의 패킷 스트림에서의 비디오 화상은 에러가 있지만, 강력한 모드의 패킷 스트림에서의 대응하는 비디오 화상은 완전하고 이용 가능하다. 이들 화상의 경우, 선택기(230')는 도 7에서 "J"로 표기된 바와 같이 비디오 화상을 강력한 모드의 디코더(240")로부터 출력 단자(215)로 결합한다. 이들 화상의 경우, 어떠한 정상 모드의 비디오 화상도 없기 때문에, 강력한 모드의 디코더(240")로부터의 강력한 모드의 비디오 화상은 강력한 모드의 프레임 저장수단(250")과 정상 모드의 프레임 저장수단(250')에 결합된다.
도 7에서, 정상 모드의 패킷 스트림에서의 비디오 화상은 완전하지만, 강력 한 모드의 패킷 스트림에서의 대응하는 비디오 화상은 에러가 있다. 이러한 화상의 경우, 선택기(230')는 도 7에서 "M"으로 표기된 바와 같이 비디오 화상을 정상 모드의 디코더(240')에서 출력 단자(215)에 결합한다. 이러한 화상의 경우 어떠한 강력한 모드의 비디오 화상도 없기 때문에, 정상 모드의 디코더(240')로부터의 정상 모드의 비디오 화상은 정상 모드의 프레임 저장수단(250')과 강력한 모드의 프레임 저장수단(250") 모두에 결합된다.
화상 10의 경우, 정상 모드 및 강력한 모드의 패킷 스트림 모두에서의 비디오 화상은 에러가 있다. 어떠한 유효 비디오 화상도 없기 때문에, 에러 차단의 일부 형태가 사용될 수 있다. 이것이 도 7에서 "XX"로 표기된다. 정상 모드의 디코더(240')와 강력한 모드의 디코더(240") 중 어느 하나로부터 어떠한 유효 비디오 화상도 없기 때문에, 어떠한 디코딩된 비디오 화상도 정상 모드의 프레임 저장수단(250')이나 강력한 모드의 프레임 저장수단(250")에 저장되지 않을 것이다. 프레임 저장수단(250' 및 250")에 저장된 데이터는 또한 에러 차단의 일부 형태로부터 유도될 수 있다.
두 패킷 스트림을 비디오 화상의 스트림으로 디코딩하고, 각 비디오 화상의 시작부분에서 하나의 비디오 스트림에서 다른 하나의 비디오 스트림으로 전환함으로써, 패킷 스트림을 적절하게 디코딩하는데 실패함으로 인한 비디오 아티팩트가 최소화될 수 있다. 도 5에 예시된 바와 같이 비디오 품질을 점진적으로 변화시키면서 전환하는 것은 도 6에 예시된 수신기에서 사용될 수 있다. 그러나, 도 6의 수신기에서의 전환이 각 화상에서 발생하기 때문에, 이러한 전환으로부터의 아티팩트는 도 2에서처럼 전환이 IDS 경계에서 발생할 때와 같이 못마땅하지는 않다.
그러나, 저하된 채널 조건은 결국 정상 모드의 패킷 스트림과 강력한 모드의 패킷 스트림 사이에 빈번한 전환을 초래할 수 있다. 이러한 빈번한 전환은 결국 시청자에게 못마땅할 수 있는 아티팩트를 초래한다. 이것은 특히, 강력한 모드의 비디오 화상의 비디오 품질이 정상 모드의 비디오 신호의 비디오 품질과 상당히 다른 경우에 진실이다.
정상 모드의 패킷 스트림과 강력한 모드의 패킷 스트림 사이의 지나치게 빈번한 전환에 의해 초래된 아티팩트를 최소화하기 위해, (도 2의) 선택기(230)와 (도 6)의 선택기(230')는 미리 결정된 빈도수보다 좀더 자주 전환하는 것을 제한하도록 구성된다. 좀더 구체적으로, 선택기(230 또는 230')는 전환이 요구되는 빈도수를 모니터링하고, 이것을 미리결정된 임계치와 비교한다. 만약 요구되는 전환의 빈도수가 임계치를 초과한다면, 실제 전환이 발생한 빈도수가 일부 최대 빈도수 이하로 제한된다. 이것이 전환 히스테리시스(hysteresis) 형태이다.
예컨대, 정상 모드의 패킷 스트림이 높은 품질{예컨대 고선명(HD)}의 비디오 신호를 전달하고, 강력한 모드의 패킷 스트림이 낮은 품질{예컨대, 표준 선명(SD)}의 강력한 모드의 패킷 스트림을 전달한다고 가정하자. 정상 모드의 HD 패킷 스트림이 이용 가능하지 않을 때, 강력한 모드의 SD 패킷 스트림이 이미지를 생성하기 위해 처리된다. HD 디스플레이 디바이스 상의 디스플레이를 위해 SD 비디오 신호를 업스케일링(upscaling)하면 열악한 품질의 비디오 영상을 생성한다. 만약 정상 모드의 패킷 스트림이 빈번하게 페이딩 인 및 아웃(fading in and out)하고 있지만, 강력한 모드의 패킷 스트림이 이용 가능하게 유지된다면, 정상 모드의 HD 비디오 신호와 강력한 모드의 SD 비디오 신호 사이의 빈번한 전환이 발생한다. 높은 품질과 낮은 품질의 이미지 사이의 빈번한 전환이 있게 되는 HD 및 SD 패킷 스트림 사이의 빈번한 전환은 시청자에게 못마땅할 수 있는 아티팩트를 생성한다.
이 예를 계속 설명해보면, 만약 에러 신호(E)가 전환이 예컨대 분당 두 번 이상 발생해야 한다고 표시한다면(즉, 정상 모드의 패킷이 손실됨), 실제 전환은 전술된 전환 아티팩트를 최소화하도록 제한된다. 이 예에서, 이들 조건 하에서, 선택기(230 또는 230')는 예컨대 모든 전환에 대해 적어도 1분 동안 강력한 모드의 패킷 스트림을 선택한다. 이것은 전환의 수를 감소시킬 것이고, 그에 따라 이들 전환으로부터 결국 초래된 가시적인 아티팩트를 최소화할 것이다. 당업자는 이것이 전환 히스테리시스를 구현하는 단 하나의 실시예임을 이해할 것이다. 히스테리시스를 일으키는 최대 전환 빈도수 및 제한된 전환 빈도수에 대한 임계치는 이 예의 임계치와는 다르게 만들어질 수 있다. 이러한 임계치는 못마땅한 가시적인 아티팩트를 최소화하는 임계치를 찾도록 경험적으로 결정될 수 있다. 나아가, 임계치는 수신기의 동작 동안에 동적으로 변경될 수 있다. 마지막으로, 다른 히스테리시스 알고리즘이 정상적으로는 과도한 전환을 초래할 조건에 있을 때의 전환을 제한하도록 개발될 수 있다.
도 3 및 도 4를 다시 참조하면, 임의의 방송이나 채널 변경의 시작부분에서, 정상 모드의 패킷(310, 410)이 (도 2 및 도 6의) 지연 디바이스(220)를 채우고 있 는 Tadv로 표기된 기간이 있다. 도 2 및 도 6에서 예시된 수신기에서, 지연 회로(220)가 가득 찬 이후에만, 수신기는 동작을 하기 시작한다. 그러나, 이것은 수신기가 스위치온되거나 채널이 변경될 때 부당한 지연을 초래한다. 시간 기간(Tadv) 동안, 그러나, 강력한 모드의 패킷 스트림(300, 400)은 즉시 이용 가능하다.
도 2에서, 지연되지 않은 강력한 모드의 패킷 스트림은 점선으로 예시된 바와 같이 디멀티플렉서(210)로부터 선택기(230)의 제 3 입력 단자에 직접 결합된다. 수신기가 전원이 들어오거나 새로운 채널이 선택될 때, 선택기(230)는 지연되지 않은 강력한 모드의 패킷 스트림을 멀티-표준 디코더(240)에 결합한다. 멀티-표준 디코더(240)는 앞서 상세하게 기술된 바와 같이 강력한 모드의 패킷을 패킷해제하고 디코딩하도록 조정되고, 비디오 신호는 출력 단자(215)에서 이용 회로에 직접 이용될 수 있게 된다. 정상 모드의 패킷 스트림이 이용 가능하게 될 때, 선택기(230)는 정상 모드의 패킷 스트림 신호를 멀티-표준 디코더(240)에 결합할 것이다.
도 6에서, 지연되지 않는 강력한 모드의 패킷 스트림은 디멀티플렉서(210)로부터 강력한 모드의 디코더(240")에 직접 결합된다. 수신기가 전원이 들어오거나 새로운 채널이 선택될 때, 강력한 모드의 디코더(240")는 앞서 좀더 상세하게 기술된 바와 같이 디멀티플렉서(210)로부터 강력한 모드의 패킷 스트림을 패킷해제 및 디코딩하고, 강력한 모드의 비디오 신호를 생성하도록 조정된다. 선택기(230')는 강력한 모드의 비디오 신호를 강력한 모드의 디코더(240")로부터 출력 단자(215)를 거쳐서 이용 회로에 결합하도록 조정된다. 정상 모드의 패킷 스트림이 이용 가능하 게 될 때, 정상 모드의 디코더(240')는 이 패킷 스트림을 패킷해제 및 디코딩하여 정상 모드 비디오 신호를 생성한다. 선택기(230')는 정상 모드의 비디오 신호를 출력 단자(215)를 거쳐서 이용 회로에 결합하도록 조정된다.
어느 경우에도, 정상 모드 및 강력한 모드의 패킷 스트림에서의 데이터는 정상 모드의 패킷 스트림이 이용 가능하게 되었고 수신기의 정상 동작이 개시될 수 있을 때를 결정하기 위해 분석된다. 알려진 MPEG2 시스템(전송 패킷) 인코딩에 따라, 송신기에서 시스템 시간 클록(STC)에 관계된 정보가 프로그램 클록 기준(PCR) 데이터를 통해 인코딩된 패킷 스트림에 배치된다. 패킷 스트림의 일부분(액세스 유닛으로 명명됨)이 디코딩되어야 할 때를 표시하는, 표시 시간 스탬프(PTS: Presentation Time Stamp)로 명명된 추가적인 정보가 이러한 액세스 유닛 각각의 시작부분에서 적어도 포함된다. 정상 모드 및 강력한 모드의 패킷 스트림이 멀티-표준 디코더(240)(도 2)나 정상 모드의 디코더(240') 및 강력한 모드의 디코더(240")(도 6)에 의해 패킷해제 및 디코딩될 때, 수신기 내의 시스템 시간 클록(STC)은 송신기 내의 STC에 PCR 데이터를 통해서 동기화된다. 정상 모드의 패킷 스트림에서의 PTS의 값이 수신기 STC의 값과 동일할 때, 이것은 정상 모드의 패킷 스트림이 강력한 모드의 패킷 스트림과 동기화되어 있음을 표시하며, 수신기는 전술된 바와 같이 정상 모드의 패킷 스트림을 디코딩함으로써 정상 동작을 시작할 수 있다.
많은 콘텐츠를 나타내는 신호가 하나의 멀티플렉싱된 전송 패킷 스트림 상에서 송신될 수 있기 때문에, 서로 다른 패킷 스트림에 대한 정보를 공급하기 위한 알려진 수단이 개발되었다. 각 패킷 스트림은 패킷 식별자(PID)에 의해 식별되며, 이러한 PID는 이 패킷 스트림 내의 각 패킷의 헤더에 포함된다. 미리 결정된 알려진 PID를 갖는 하나의 패킷 스트림이 모든 다른 패킷 스트림에 대한 식별 정보 및 다른 정보를 포함하는 하나 이상의 데이터 테이블을 포함한다. 이러한 알려진 테이블 구조가 임의의 다른 정상 모드의 패킷 스트림에 관계되지 않는 강력한 모드의 패킷 스트림에 대한 정보를 전달하도록 사용될 수 있다. 그러나, 다른 정상 모드의 패킷 스트림에 관계된 강력한 패킷 스트림에 대한 추가적인 정보는 송신기에서 수신기로 전송되어야 한다.
이들 기존의 테이블에 대한 확장된 구문 및 의미는 필요한 데이터를 전달할 수 있다. 도 8은 프로그램 맵 테이블(PMT) 및/또는 프로그램 및 정보 시스템 프로토콜-가상 채널 테이블(PSIP-VCT)에 대한 확장된 구문 및 의미를 예시하는 테이블이다. 도 8 내의 각 행은 확장된 테이블에서의 데이터 아이템이나, 의사-코드 형태의 메타-구문론적 설명(meta-syntactical description) 중 어느 하나를 나타낸다. 제 1 열은 데이터 아이템의 이름이나 메타-구문론적 규격중 어느 하나이다. 제 2 열은 데이터 아이템이나 구문론적 규격의 설명이다. 제 3 열은 임의의 데이터 아이템의 크기에 대한 표시이다.
확장된 구문에서의 제 1 아이템(802)은 다른 정상 모드의 패킷 스트림을 스태거캐스팅하는데 사용되는 강력한 패킷 스트림의 수이다. 그러면, 강력한 모드의 패킷 스트림의 각각의 이러한 스태거캐스팅에 대한 정보는 테이블의 그 다음 행 및 마지막 행에서의 메타-구문론적 규격에 의해 표시된 바와 같이 이 테이블에 포함된 다. 일부 이러한 정보는 모든 강력한 모드의 패킷 스트림에 대해 필요하다. 예컨대, 데이터(804)는 강력한 모드의 패킷 스트림에 대한 프로그램 식별자(PID)를 나타내고; 데이터(806)는 이 패킷 스트림에 의해 전달되고 있는 데이터 유형을 나타내며; 데이터(808)는 이 패킷 스트림과 관련된 정상 모드의 패킷 스트림의 PID를 나타내며; 데이터(810)는 (도 1의) 송신기(100)에서의 지연 디바이스(130)에 의해 정상 모드의 패킷 스트림 내에 초래되고 있는 지연을 나타낸다.
그러나, 일부 이러한 정보는 특정한 데이터 유형의 강력한 모드의 패킷 스트림에만 관계된다. 예컨대, 만약 강력한 모드의 패킷 스트림이 비디오 데이터를 전달한다면, 압축 포맷, 프레임율, 비월 포맷, 수평 및 수직 해상도, 및 비트율에 관계된 정보(812)는, 강력한 모드의 패킷 스트림에 의해 표시된 비디오 이미지가 적절하게 디코딩되고 디스플레이될 수 있도록 송신기에서 수신기로 전송된다. 유사하게, 만약 강력한 모드의 패킷 스트림이 오디오 데이터를 전달한다면, 압축 포맷, 비트율, 샘플율, 및 오디오 모드(서라운드, 스테레오, 또는 모노)에 관계된 정보(814)가, 강력한 모드의 패킷 스트림에 의해 표시된 사운드가 적절하게 디코딩되고 재생될 수 있도록 송신기로부터 수신기에 전송된다.
데이터의 하나의 다른 부분은 강력한 모드의 패킷 스트림에 의해 전달된 콘텐츠를 나타내는 신호의 상대적인 품질에 관계된다. 전술된 바와 같이, 강력한 모드의 패킷 스트림에 의해 전달된, 콘텐츠를 나타내는 신호의 품질은 이러한 강력한 모드의 패킷 스트림과 관련된 정상 모드의 패킷 스트림에 의해 전달된 신호의 품질과는 다를 수 있다. 전술된 예에서, 강력한 모드의 패킷에 의해 전달된 콘텐츠를 나타내는 신호의 품질은 관련된 정상 모드의 패킷 스트림에 의해 전달된 신호의 품질보다 더 낮게 되도록 명시된다. 그러나, 일부 조건 하에서, 제공자는 강력한 모드의 패킷 스트림 상에 더 높은 품질의 신호를 송신할 수 있다. 이러한 조건에서, 수신기가 관련된 정상 모드의 패킷 스트림 대신에 강력한 모드의 패킷 스트림에 의해 전달된 콘텐츠를 나타내는 신호를 사용하는 것이 선호된다. 이것은 데이터(816)에 의해 수신기에 표시된다.
강력한 모드의 패킷 스트림을 정상 모드의 패킷 스트림에 관련시키는 정보를 제공함으로써, (도 2의) 수신기(200)나 (도 6의) 수신기(200')는 멀티플렉싱된 패킷 스트림에서 정상 모드 및 강력한 모드의 패킷 스트림 모두를 찾을 수 있으며, 전술된 바와 같이 동시에 이들 모두를 처리할 수 있다. 도 2 및 도 6의 수신기의 성능을 포함하지 않는 종래의 수신기는 이러한 정보를 무시하고, 정상 모드의 패킷 스트림을 알려진 방식으로 처리할 것이다.
전술된 바와 같이, 강력한 모드의 패킷 스트림과 이와 관련된 정상 모드의 패킷 스트림 사이에서 (도 1의) 송신기(100)에서의 지연 디바이스(130)에 의해 초래된 지연은 도 8에 예시된 테이블에 있는 데이터(810)로서 송신된다. 이로 인해 송신기는 지연 기간을 변경할 수 있으며, 수신기가 그 지연 기간을 적절하게 조정할 수 있다. 예컨대, 일부 채널 조건 하에서, 페이딩은 다른 조건에서보다 좀더 발생 가능성이 있을 수 있거나, 페이딩의 특징이 변경될 수 있다(즉, 페이딩이 더 길 수 있다). 이러한 조건 하에서, 지연 기간은 증가할 수 있다. 지연의 길이가 수신기에 송신되고, 수신기는 (도 2 및 도 6의) 지연 디바이스(220)를 동일한 지연 기 간에 적응시킬 것이다. 다른 조건은 또한 다른 지연 기간을 필요로 할 수 있다.
전술된 스태거캐스팅 개념은 확장될 수 있다. 다른 비디오 품질(예컨대, 해상도, 프레임율 등)을 갖는 비디오 신호로 인코딩된 동일한 콘텐츠를 나타내는 신호의 다수의 버전이 스태거캐스팅될 수 있다. 도 9는 콘텐츠를 나타내는 신호의 다수의 버전을 송신하기 위한 스태거캐스팅 송신기의 또 다른 실시예의 일부분에 대한 블록도이다. 도 9에서, 도 1에 예시된 송신기에 있는 요소와 동일한 요소들은 동일한 참조번호로 표시되며, 이후에 상세하게 기술되지 않을 것이다.
도 10은 스태거캐스팅 수신기의 대응하는 실시예의 일부분에 대한 블록도이다. 도 10에서, 도 2에 예시된 수신기에서의 요소와 동일한 요소들은 동일한 참조번호로 표시되고 이후에 상세하게 기술되지 않을 것이다.
도 9의 a)에서, 입력 단자(105)는 계층적 인코더(160)의 입력 단자에 결합된다. 계층적 인코더(160)는 복수의 출력 패킷 스트림 신호를 소스 인코딩하고 패킷화한다. 복수의 출력 패킷 스트림 신호 중 처음 하나(0)는 멀티플렉서(140')의 대응하는 입력 단자에 결합된다. 복수의 출력 패킷 스트림 신호 중 나머지, (1) 내지 (n)은 대응하는 복수의 지연 디바이스{130(1) 내지 130(n)}의 각 입력 단자에 결합된다. 지연 디바이스{130(2)}에 의해 초래된 지연 기간은 지연 디바이스{130(1)}에 의해 초래된 지연 기간보다 더 크고; 지연 디바이스{130(3)}(미도시)에 의해 초래된 지연 기간은 지연 디바이스{130(2)}에 의해 초래된 지연 기간보다 더 크며; 기타 이러한 관계에 있다. 지연은 도 3에 예시된 바와 같이 패킷 측면에서 명시될 수 있고; 도 4에 예시된 바와 같이 독립 디코딩 세그먼트 측면으로 명시될 수 있으며; 또는 도 7에 예시된 바와 같이 비디오 화상 기간 측면으로 명시될 수 있다. 복수의 지연 디바이스{130(1) 내지 130(n)}의 각 출력 단자는 멀티플렉서(140')의 대응하는 입력 단자에 결합된다.
동작시, 제 1 패킷 스트림 신호(0)는 최저 비디오 품질에서 소스 인코딩된 기본 비디오 신호를 전달한다. 제 2 패킷 스트림 신호(1)는 추가적인 비디오 정보를 전달한다. 이러한 추가적인 비디오 정보는, 기본 비디오 신호(0)와 결합될 때, 기본 비디오 신호(0) 단독으로의 비디오 품질보다 더 높은 비디오 품질을 갖는 비디오 신호를 생성한다. 제 3 패킷 스트림 신호(2)는 추가적인 비디오 정보를 더 전달한다. 이 신호에서의 비디오 정보는, 기본 비디오 신호(0)와 제 2 패킷 스트림 신호(1)의 비디오 정보와 결합될 때, 기본 신호(0) 및 제 2 신호(1)의 조합의 비디오 품질보다 더 높은 비디오 품질을 갖는 비디오 신호를 생성한다. 계층적인 인코더(160)로부터 패킷 스트림 신호(n)까지의 추가적인 패킷 스트림 신호 내의 비디오 정보가 더 높은 비디오 품질의 비디오 신호를 생성하기 위해 결합될 수 있다. 멀티플렉싱된 신호는 출력 단자(115)를 통해 수신기에 채널 인코딩(변조)되고 공급된다.
도 10의 a)는 도 9의 a)에 예시된 송신기에 대응하는 수신기이다. 디멀티플렉서(210)는 복수의 패킷 스트림{(0) 내지 (n)}을 추출한다. 패킷 스트림{(n)}은 계층적 디코더(260)의 대응하는 입력 단자에 결합된다. 복수의 패킷 스트림 중 나머지{(0) 내지 (n-1)}(미도시)는 대응하는 복수의 지연 디바이스(220)의 각 입력 단자에 결합된다. 복수의 지연 디바이스(220)는 계층적 디코더(260)의 입력 단자에 서 복수의 패킷 스트림{(0) 내지 (n)} 모두를 시간적으로 재정렬하도록 조정된다. 디멀티플렉서(210)로부터의 신호 라인(E) 상의 에러 신호는 계층적 디코더(260)의 제어 입력 단자에 결합된다. 계층적 디코더(260)의 출력 단자는 출력 단자(215)에 결합된다.
동작시, 복조기(207)는 앞서 좀더 상세하게 기술된 바와 같이 적절하게 수신된 신호를 채널 디코딩(복조)한다. 멀티플렉서(210)는 도 9의 a)에 예시된 패킷 스트림{(0) 내지 (n)}에 대응하는 비디오 정보의 계층을 전달하는 복수의 패킷 스트림{(0) 내지 (n)}을 추출한다. 이들 패킷 스트림은 복수의 지연 디바이스(220)에 의해 시간적으로 정렬된다. 디멀티플렉서(210)로부터의 에러 신호는 어떠한 패킷 스트림이 이용 가능하지 않은지, 예컨대 패킷을 손실하고 있는지를 표시한다. 복수의 패킷 스트림은 패킷해제되며, 이용 가능한 패킷 스트림으로부터 계층적으로 디코딩될 수 있는 최고 품질의 비디오 이미지가 계층적 디코더(260)에 의해 생성된다. 즉, 만약 페이딩 현상이 있지만, 단지 기본 비디오 신호를 전달하는 패킷 스트림{(0)}만 이용 가능하지 않다면, 계층적 디코더(260)는 단지 패킷 스트림{(0)}만을 패킷해제 및 디코딩한다. 만약 패킷 스트림{(1)}이 또한 이용 가능하다면, 계층적 디코더(260)는 패킷 스트림{(0)} 및 패킷 스트림{(1)} 모두를 패킷해제 및 디코딩하고, 더 높은 품질의 비디오 신호를 생성하며, 기타 이러한 방식으로 진행된다. 만약 모든 패킷 스트림{(0) 내지 (n)}이 이용 가능하다면, 계층적 디코더(260)는 이들 모두를 패킷해제 및 디코딩하고, 최고 비디오 품질의 비디오 신호를 생성한다.
도 9의 b)에서, 입력 단자(105)는 복수의 비디오 인코더(170)의 각 입력 단자에 결합된다. 복수의 비디오 인코더(170) 중 제 1 인코더{170(0)}의 출력 단자가 멀티플렉서(140')의 대응하는 입력 단자에 결합된다. 복수의 비디오 인코더(170)의 나머지{170(1) 내지 170(n)}의 출력 단자는 복수의 지연 디바이스{130(1) 내지 130(n)}의 각 입력 단자에 결합된다. 지연 디바이스{130(2)}에 의해 초래된 지연 기간은 지연 디바이스{130(1)}에 의해 초래된 것보다 더 크고; 지연 디바이스{130(3)}(미도시)에 의해 초래된 지연 기간은 지연 디바이스{130(2)}에 의해 초래된 것보다 더 크며; 기타 이러한 관계에 있다. 지연은 도 3에 예시된 바와 같이 패킷 측면에서 명시될 수 있고; 도 4에 예시된 바와 같이 독립 디코더 세그먼트 측면에서 명시될 수 있거나; 또는 도 7에 예시된 바와 같이 비디오 프레임 기간 측면에서 명시될 수 있다. 복수의 지연 디바이스의 각 출력 단자는 멀티플렉서(140')의 대응하는 입력 단자에 결합된다.
동작시, 제 1 인코더{170(0)}는 최저 품질의 비디오 신호, 즉 예시된 실시예에서, 쿼터-커먼-인터페이스-포맷(QCIF) 비디오 신호를 나타내는 정보를 전달하는 패킷 스트림을 생성하기 위해 콘텐츠를 나타내는 신호를 소스 인코딩하고, 결과적으로 소스 인코딩된 신호를 시스템 인코딩(패킷화)한다. 제 2 인코더{170(1)}는 유사하게 제 1 인코더{170(0)}에 의해 생성된 것보다 더 높은 품질의 비디오 신호, 즉 예시된 실시예에서 커먼-인터페이스-포맷(CIF) 비디오 신호를 나타내는 정보를 전달하는 패킷 스트림을 생성한다. 도시되지 않은 다른 비디오 인코더는 연속적으로 더 높은 비디오 품질로 비디오 신호를 전달하는 패킷 스트림을 유사하게 생성한 다. SD 비디오 인코더{170(n-1)}는 유사하게 SD 품질 비디오 신호를 전달하는 패킷 스트림을 생성하고, HD 비디오 인코더{170(n)}는 유사하게 HD 품질 비디오 신호를 전달하는 패킷 스트림을 생성한다. 이들 패킷 스트림은 멀티플렉서(140')에 의해 멀티플렉싱되고, 그 후에 채널 인코딩(변조)되며, 출력 단자(115)를 통해 수신기에 송신된다.
도 10의 b)는 도 9의 b)에 예시된 송신기에 대응하는 수신기이다. 도 10의 b)에서, 디멀티플렉서(210)는 복수의 패킷 스트림{(0) 내지 (n)}을 추출한다. 패킷 스트림{(n)}은 HD 디코더{270(n)}의 입력 단자에 결합된다. 나머지 패킷 스트림{(0) 내지 (n-1)}은 복수의 지연 디바이스(220)의 각 입력 단자에 결합된다. 복수의 지연 디바이스(220)의 각 출력 단자는 복수의 비디오 디코더(270)의 대응하는 입력 단자에 결합된다. 복수의 비디오 디코더(270)의 각 출력 단자는 선택기의 대응하는 입력 단자에 결합된다. 디멀티플렉서(210)로부터의 에러 신호 라인(E) 상의 에러 신호는 선택기(280)의 제어 입력 단자에 결합된다.
동작시, 복조기(207)는 앞서 좀더 상세하게 기술된 바와 같이 수신된 복합 신호를 적절하게 채널 디코딩(복조)한다. 디멀티플렉서(210)는 도 9의 b)에서 예시된 복수의 비디오 인코더(170)에 의해 생성된 것에 대응하는 패킷 스트림{(0) 내지 (n)}을 추출한다. 복수의 지연 디바이스(220)는 복수의 비디오 디코더(270)의 각 입력 단자에서 모든 이들 패킷 스트림{(0) 내지 (n)}을 시간적으로 재정렬한다. 각 패킷 스트림은 이 패킷 스트림에 의해 전달된 비디오 신호를 디코딩하기에 적절한 비디오 디코더에 결합된다. 예컨대, QCIF 품질 비디오 신호를 전달하는 패킷 스트 림은 QCIF 디코더{270(0)}에 결합되고; CIF 품질 비디오 신호를 전달하는 패킷 스트림은 CIF 디코더{270(1)}에 결합되며; 기타 이러한 관계가 성립한다. 복수의 비디오 디코더(270)에서의 각 비디오 디코더는 비디오 신호를 생성하기 위해 각 비디오 디코더에 공급된 신호를 패킷해제 및 소스 디코딩한다. 디멀티플렉서(210)로부터의 에러 신호(E)는 패킷 스트림{(0) 내지 (n)} 중 어떤 것이 에러(예컨대 패킷 손실)로 인해 이용 가능하지 않은지를 표시한다. 선택기(280)는 이용 가능한 패킷 스트림으로부터 생성된 최고 품질의 비디오 신호를 출력 단자(215)에 결합하도록 조정된다.
당업자는 이미지 스케일링이 도 9에 예시된 송신기 시스템에서 더 낮은 품질의 비디오 이미지 신호 중 일부에 필요할 수 있다는 점을 이해할 것이다. 인코더, 즉 도 9의 a)의 계층적 인코더(160)나 도 9의 b)의 복수의 인코더(170) 중 어느 하나는 필요한 임의의 이러한 이미지 스케일링 회로(도면을 간략화하기 위해 도시되지 않음)를 포함한다.
도 9 및 도 10에 예시된 통신 시스템의 경우, (도 9의 a)에서의) 계층적 인코더(160)나 (도 9의 b)에서의) 복수의 비디오 인코더(170) 중 임의의 하나에 의해 생성된 패킷 스트림 중 임의의 스트림은 앞서 좀더 상세하게 기술된 바와 같이 강력한 소스 인코딩 방식(JVT)에 따라 소스 인코딩될 수 있고, 강력한 변조 방식(4-VSB 및/또는 2-VSB)에 의해 채널 인코딩(변조)될 수 있다. 이 패킷 스트림의 대응하는 복조 및 디코딩은 도 10의 수신기에서 발생한다. 또한, 최저 품질의 비디오 신호는 가장 앞서 있으며, 그 결과, 최고의 페이딩 저항을 갖는다. 나아가, 최저 비디오 품질의 신호는 최소 수의 비트로 인코딩될 수 있으며, 그에 따라 송신하는데 적은 시간이 걸린다. 패킷 스트림에 의해 전달된 비디오 신호의 비디오 품질이 증가함에 따라, 이 패킷 스트림이 앞서 있는 시간이 감소하고, 그 결과 페이딩 저항이 감소한다. 그에 따라, 채널 특징이 어떠한 페이딩도 갖지 않을 때, 최고 비디오 품질의 신호를 전달하는 패킷 스트림(들)이 이용 가능하게 유지된다. 가벼운 페이딩은 더 낮은 비디오 품질의 신호를 전달하는 패킷 스트림(들)을 이용 가능한 상태로 유지하게 하며, 심각한 페이딩은 최저 품질의 비디오 신호를 전달하는 패킷 스트림만을 이용 가능한 상태로 유지하게 한다. 채널 품질 저하에 따른 비디오 품질에서의 이러한 점진적인 감소가 시청자에 대한 바람직한 특징이다.
전술되고 도 1 및 도 9의 b)에 예시된 바와 같이, 동일한 콘텐츠를 나타내는 신호는 높은 품질의 비디오 신호를 전달하는 패킷 스트림과 감소한 비디오 품질의 비디오 신호를 전달하는 하나 이상의 패킷 스트림으로서 스태거캐스팅될 수 있다. 이러한 통신 시스템에서, 그러므로, 일부 수신기, 예컨대 셀룰러 폰이나 개인 휴대단말 장치(PDA)에서의 텔레비전 수신기는 감소한 품질의 콘텐츠를 나타내는 신호만을 추출 및 디코딩할 수 있을 것이다. 이러한 수신기에서, 디스플레이 디바이스는 더 낮은 해상도를 가지며, 감소한 품질의 비디오 신호를 단지 디스플레이할 수 있을 것이다. 나아가, 배터리 전력의 사용으로 인해, 처리된 데이터의 양을 최소화하는 것이 유리하게 된다. 이들 고려사항 모두는 이러한 수신기가 적절한 비디오 품질의 비디오 신호를 전달하는 패킷 스트림만을 디코딩하고 이러한 이미지를 디스플레이하는 것을 제안한다.
도 10의 c)는 수신기를 예시한다. 도 10의 c)에서, 입력 단자(205)는 복조기(207)의 입력 단자에 결합된다. 복조기(207)의 출력 단자는 디멀티플렉서(210)의 입력 단자에 결합된다. 디멀티플렉서(210)의 출력 단자는 디코더(270)의 입력 단자에 결합된다. 디코더의 출력 단자는 출력 단자(215)에 결합된다.
동작시, 복조기(207)는 앞서 좀더 상세하게 기술된 바와 같이 적절한 방식으로 수신된 복합 신호를 복조한다. 디멀티플렉서(210)는 원하는 품질의 비디오 신호를 갖는 단일 패킷 스트림만을 선택한다. 예컨대, 이것은 도 9의 b)의 QCIF 인코더{170(0)}에 의해 생성되고 패킷 스트림{(0)} 상에 전달된 것과 같은 QCIF 포맷 비디오 신호일 수 있다. 패킷 스트림{(0)}은 QCIF 포맷 비디오 신호를 생성하기 위해 디멀티플렉서(210)에 의해 추출되고 디코더(270)에 의해 디코딩된다. 이러한 수신기는 원하는 더 낮은 품질의 비디오 신호의 패킷 스트림{(0)}의 PID를 결정하기 위해 도 8에 예시된 테이블을 단지 수신할 필요가 있다. 테이블에 송신된 해상도 데이터(812)로부터, 이동 수신기는 처리하는데 바람직한 감소한 품질의 비디오 신호를 전달하는 패킷 스트림을 선택할 수 있다.
도 9 및 도 10에 예시된 통신 시스템은 더 확장될 수 있다. 전술된 시스템에서, 추가적인 패킷 스트림에서 전달된 비디오 정보는 악화된 채널 조건 하에서 적절한 저하를 제공하는데 사용될 수 있다. 그러나, 이러한 시스템은 양호한 채널 조건 하에서 비디오 신호의 품질을 개선할 수 있는 추가적인 비디오 정보를 또한 송신할 수 있다. 정상 비디오 신호를 전달하는 패킷 스트림 외에, 증가한 비디오 정보를 전달하는 패킷 스트림을 포함함으로써, 증가한 비디오 이미지가 송신될 수 있 다.
도 11은 이중 비월된 비디오 신호를 송신하기 위한 송신기의 일부분에 대한 블록도이며, 도 12는 이중 비월된 비디오 신호를 수신하기 위한 수신기의 일부분에 대한 블록도이다. 도 13은 도 11에 예시된 이중 비월 송신기와 도 12에 예시된 이중 비월 수신기의 동작을 이해하는데 유용한 디스플레이 도이다. 도 11에서, 도 1에 예시된 요소와 동일한 이들 요소는 동일한 참조번호에 의해 표시되고 이후에 상세하게 기술되지 않을 것이다. 도 12에서, 도 6에 예시된 요소와 동일한 이들 요소는 동일한 참조번호에 의해 표시되고, 이후에 상세하게 기술되지 않을 것이다.
도 13을 참조하면, 콘텐츠 소스는 디스플레이 경계(1320) 내의 비디오 라인 시퀀스(1310)로서 도 13의 상부에 개략적으로 예시된 순차 주사 비디오 디스플레이를 생성한다. 정상 HD 비디오 이미지 화상은 1080 개의 라인을 포함한다. 이러한 HD 비디오 이미지는 비월 포맷에서 초당 30개의 프레임이라는 비율로 송신된다. 즉, 인터레이서는 두 개의 필드: 단지 홀수 번호의 라인을 포함하는 제 1 필드와, 단지 짝수 번호의 라인을 포함하는 제 2 필드를 생성한다. 이들 필드는 초당 60개의 필드라는 비율로 연속해서 송신된다.
도 11에서, 입력 단자(105)는 이중 출력 인터레이서(102)에 결합된다. 이중 출력 인터레이서(102)의 제 1 출력 단자는 강력한 모드의 인코더(110)의 입력 단자에 결합된다. 이중 출력 인터레이서(102)의 제 2 출력 단자는 정상 모드의 인코더(120)의 입력 단자에 결합된다.
다시 도 13을 참조하면, 프레임 디스플레이 이미지{1330(A)}는 이중 출력 인 터레이서(102)의 제 1 출력 단자에서 생성된 비디오 신호(A)에 대응하고, 프레임 디스플레이 이미지{1330(B)}는 이중 출력 인터레이서(102)의 제 2 출력 단자에서 생성된 비디오 신호(B)에 대응한다. 프레임 디스플레이 이미지{1330(A) 및 1330(B)}에서, 실선이 하나의 필드에서 송신되고, 점선이 그 다음 필드에서 송신된다. 프레임 디스플레이 이미지{1330(A)}에서, 실선은 홀수 라인이며, 점선은 짝수 라인이고; 프레임 디스플레이 이미지{1330(B)}에서, 실선은 짝수 라인이고, 점선은 홀수 라인이다. 이것은 프레임 디스플레이 이미지{1330(A) 및 1330(B)} 아래의 필드 디스플레이 이미지{1340(A), 1340(B), 1350(A) 및 1350(B)}에서 좀더 상세하게 예시된다. 필드 1에서, 비디오 신호(A)는 필드 디스플레이 이미지{1340(A)}에서 예시된 바와 같이 홀수 라인을 송신하고, 비디오 신호(B)는 필드 디스플레이 이미지{1340(B)}에서 예시된 바와 같이 짝수 라인을 송신한다. 필드 2에서, 비디오 신호(A)는 필드 디스플레이 이미지{1350(B)}에 예시된 바와 같이 짝수 라인을 송신하고, 비디오 신호(B)는 필드 디스플레이 이미지{1350(B)}에서 예시된 바와 같이 홀수 라인을 송신한다.
앞서 좀더 상세하게 기술된 바와 같이, 비디오 신호(A)는 JVT 소스 인코딩을 사용하여 인코딩된 다음 강력한 모드의 인코더(110)에 의해 시스템 인코딩(패킷화)된다. 비디오 신호(B)는 MPEG2 소스 인코딩을 사용하여 소스 인코딩되고, 정상 모드 인코더에 의해 시스템 인코딩(패킷화)된다. 변조기 채널은 4-VSB 및/또는 2-VSB 변조를 사용하여 강력한 모드의 패킷 스트림을 인코딩(변조)하고, 8-VSB 변조를 사용하여 정상 모드의 패킷 스트림을 변조한다.
도 12에서, 디멀티플렉서(210)의 제 1 출력 단자는 정상 모드의 디코더(240')의 입력 단자에 결합되고, 디멀티플렉서(210)의 제 2 출력 단자는 지연 디바이스(220)의 입력 단자에 결합된다. 정상 모드의 디코더(240')의 출력 단자는 이중 입력 디인터레이서(202)의 제 1 신호 입력 단자에 결합되고, 강력한 모드의 디코더(240")의 출력 단자는 이중 입력 디인터레이서(202)의 제 2 신호 입력 단자에 결합된다. 디멀티플렉서(210)로부터의 에러 신호는 이중 입력 디인터레이서(202)의 제어 입력 단자에 결합된다. 이중 입력 디인터레이서(202)의 출력 단자는 출력 단자(215)에 결합된다.
앞서 좀더 상세하게 기술된 바와 같이, 복조기(207)는 4-VSB 및/또는 2-VSB 복조를 사용하여 강력한 모드의 패킷 스트림을 채널 디코딩(복조)하고, 8-VSB 복조를 사용하여 정상 모드의 패킷 스트림을 복조한다. 정상 모드의 디코더(240')는 비디오 신호(B)를 재생하기 위해 JVT 디코딩을 사용하여 정상 모드의 패킷 스트림을 시스템 디코딩(패킷해제)하고 소스 디코딩한다. 강력한 모드의 디코더(240")는 비디오 신호(A)를 재생하기 위해 MPEG2 디코딩을 사용하여 강력한 모드의 패킷 스트림을 패킷해제 및 소스 디코딩한다.
이중 입력 디인터레이서(202)는 순차 주사 필드를 생성하기 위해 강력한 모드의 디코더(240")로부터의 비디오 신호(A)의 비월 주사 라인을 정상 모드의 디코더(240')로부터의 비디오 신호(B)의 비월 주사 라인을 결합하도록 동작한다. 필드 1의 경우, 필드 디스플레이 이미지{1340(A)}에서 예시된 비디오 신호(A)로부터의 홀수 주사 라인은 필드 디스플레이 이미지{1340(B)}에서 예시된 비디오 신호(B)로 부터의 짝수 주사 라인과 결합된다. 결과적인 순차 주사 필드는 필드 디스플레이 이미지(1345)에서 예시되어 있다. 필드 2의 경우, 필드 디스플레이 이미지{1350(A)}에서 예시된 비디오 신호(A)로부터의 짝수 주사 라인은 필드 디스플레이 이미지{1350(B)}에서 예시된 비디오 신호(B)로부터의 홀수 주사 라인과 결합된다. 결과적인 순차 주사 필드는 필드 디스플레이 이미지(1355)에서 예시되어 있다. 그에 따라, 순차 주사 필드는 각 필드 기간에 이중 입력 디인터레이서(202)의 출력 단자에서 생성될 수 있다. HD 신호의 경우, 이것은 풀 1080 라인 이미지가 초당 60회 생성된다는 점을 의미한다.
전술되고 도 11, 도 12 및 도 13에서 예시된 이중 비월 기술은 또한 채널 조건이 저하하는 경우에 적절한 저하의 더 넓은 범위를 제공하기 위해 전술된 기술과 결합될 수 있다. 만약 채널 조건이 비디오 신호(A 또는 B)를 전달하는 패킷 스트림 중 하나가 이용 가능하지 않게 하면, 에러 신호(E)는 이것을 이중 입력 디인터레이서(202)에 표시한다. 이중 입력 디인터레이서(202)는 이용 가능한 비디오 신호로부터 표준 HD 비월 비디오 신호를 생성하기 시작한다. 디스플레이 디바이스(미도시)는, 다른 비디오 신호가 다시 이용 가능하게 될 때까지 표준 비월 비디오 신호에 의해 표시된 이미지를 디스플레이하도록 재구성된다. 만약 HD 비디오 신호 중 어떤 것도 이용 가능하지 않다면, 최고 품질의 이용 가능한 비디오 신호가 도 9의 송신기와 도 10의 수신기를 참조하여 앞서 상세하게 기술된 바와 같이 디스플레이될 수 있다.
동일한 기술이 임의의 비월 포맷 비디오 신호, 예컨대 SD 비디오 신호를 순 차 주사 비디오 신호로 프레임율의 두 배에서 변환하는데 사용될 수 있다. 두 개의 비디오 신호(A 및 B)가 도 11 및 도 12에서 예시된 바와 같이 스태거캐스팅될 필요가 없다. 이들 신호가 동시에 방송되어야 하는 것만이 필요하다. 그러나, 스태거캐스팅은 전술한 바와 같이 페이딩 현상이 있을 때 적절한 저하를 추가로 제공한다.
전술된 통신 시스템은 디지털 개인용 비디오 레코더(PVR)와 같은 레코딩 디바이스와 협력하도록 추가로 확장될 수 있다. 이러한 PVR 디바이스는 이러한 디바이스의 감소한 가격으로 인해 디지털 텔레비전 수신기에 포함되고 있다. 도 9의 b)에서, PVR 디바이스(295)는 점선으로 예시된 바와 같이 선택기(280)에 양방향으로 결합된 비디오 단자(Vid)와, 선택기(280)에 또한 양방향으로 결합된 제어 단자(Ctl)를 포함한다. 선택기(280)는 또한 점선으로 예시된 바와 같이 사용자의 제어 소스에 또한 결합된다.
선택기(280)는 출력 단자(215)에 결합된 입력 비디오 신호와는 독립적으로 임의의 원하는 비디오 신호를 복수의 비디오 검출기(270)로부터 PVR(295)에 결합하도록 구성된다. 선택기(280)는 입력 비디오 신호를 재생하기 위해 PVR(295)로부터 출력 단자(215)에 결합하도록 또한 구성된다. 선택기(280)는 또한 제어 데이터를 PVR(295)에 공급하며, PVR(295)은 상태 데이터를 양방향 제어 단자를 통해 선택기(280)에 공급한다.
PVR(295)은 몇몇 동작 모드로 제어될 수 있다. 하나의 동작 모드에서, 가장 양호한 이용 가능한 비디오 신호가 레코딩하기 위해 PVR(295)에 결합된다. 이러한 동작 모드에서, 선택기(280)는 출력 단자(215)에 결합된 것과 동일한 입력 비디오 신호를 PVR(295)에 결합한다. 이것은 결국 가장 양호한 품질의 비디오 신호가 레코딩되게 하지만, PVR(295)에서 대부분의 저장 공간을 차지할 것이다. 이것은 비디오 신호를 전달하는 정상 모드 및 강력한 모드의 패킷 스트림과, 제공되는 적절한 저하를 이용할 것이다. 대안적으로, 출력 단자(215)에 결합된 것보다 더 낮은 해상도의 비디오 신호가 PVR(295)에 결합될 수 있다. 예컨대, 선택기(280)는 가장 양호한 이용 가능한 비디오 신호를 출력 단자(215)에 결합할 수 있지만, 선택기(280)는 더 열악한 품질의 비디오 신호를 생성하는 비디오 디코더(270)를 PVR(295)에 결합할 수 있다. 이러한 더 열악한 품질의 비디오 신호는 SD 디코더{270(n-1)}로부터의 SD 품질의 비디오 신호와 같이 이용 가능한 비디오 신호 중 선택된 신호일 수 있으며, 적절한 저하가 이 더 열악한 비디오 디코더에 의해 공급된다. 이러한 신호는 가장 양호한 이용 가능한 비디오 신호보다 더 적은 공간을 PVR(295)에서 필요로 할 것이다. 이것은 PVR(295)에서 저장 공간을 보존하는 것을 도울 것이며, 더 긴 레코딩 시간을 허용할 것이다. 선택된 더 낮은 품질의 비디오 신호가 이용가능하지 않게 되는 경우에, 더 낮은 품질의 신호가 다시 이용 가능할 때까지 더 높은 품질의 신호가 레코딩될 수 있다. 레코딩할 더 열악한 품질의 비디오(즉, SD, 또는 CIF, 또는 QCIF)에 대한 선택은 시청자에 의해 사용자 입력 단자를 통해 직접 선택될 수 있다. 대안적으로, 선택기(280)는 일부 기준에 따라 이러한 선택을 자동으로 제어할 수 있다. 예컨대, PVR(295)로부터의 상태 신호는 PVR(295)에서 남은 공간의 양을 표시할 수 있다. 남은 저장 양이 감소함에 따라, 선택기(280)는 감소한 비디오 품질을 갖는 비디오 디코더(270)를 PVR(295)에 자동으로 결합할 수 있다. 다른 기 준은 유도될 수 있고, 어떠한 비디오 신호가 선택기(280)에 의해 PVR(295)에 결합될 것인지를 제어하는데 사용될 수 있다.
유사하게, 사용자는 송신기에 의해 방송되고 있는 텔레비전 프로그램의 선택 및 디스플레이를 제어하고자 원할 수 있다. 기존의 방송 시스템에서, 송신된 패킷 스트림 중 하나는 현재 방송중인 모든 프로그램 및 가까운 장래에 방송될 예정인 프로그램에 대한 정보를 포함하고 있는 사용자 프로그램 가이드를 전달한다. 프로그램 가이드 데이터로부터, 모든 이러한 프로그램, 이들의 채널 및 시간을 나열하고 있는 테이블의 이미지가 도 10의 b)에서 예시된 바와 같이 온-스크린 디스플레이 생성기(OSD)(282)에 의해 생성될 수 있다. 사용자는 원하는 프로그램을 찾고, 사용자 인터페이스를 사용하여 시청하기 위해 이러한 프로그램을 선택할 때의 보조 수단으로서 프로그램 가이드 정보의 디스플레이를 제어할 수 있다. 사용자 인터페이스는 정보를 시청자에게 제공하기 위한 이미지를 디스플레이하고, 시청자로부터의 입력을 요청하고, 수신기나 원격 제어기 상에 병합될 수 있는 제어로부터 시청자 입력을 수용한다. 기존의 시스템은 시청자가 프로그램의 좀더 상세한 설명, 등급(G, PG, R 등), 시간 지속기간, 남은 시간 등과 같은 나열된 프로그램에 대한 추가적인 정보를 요청하게 한다.
상술된 스태거캐스팅 시스템에 관계된 추가적인 정보는 디스플레이된 프로그램 테이블이나 추가적인 정보 디스플레이에 추가될 수 있다. 이러한 정보는 도 8에 예시된 PSIP-VCT/PMT 테이블로부터 유도될 수 있다. 예컨대, 추가적인 표시자는 디스플레이된 프로그램 테이블에 추가될 수 있고, 및/또는 이 프로그램이 스태거캐스 팅되고 있음과; 스태거캐스팅되고 있는 비디오 신호가 어떠한 비디오 품질을 갖고 있는 지와; 스태거캐스팅되고 있는 오디오 신호가 어떠한 오디오 품질을 갖고 있는 지 등을 표시하는 추가적인-정보 디스플레이에 추가될 수 있다. 시청자를 위해 이러한 정보를 디스플레이함으로써, 시청자는 디스플레이 상의 프로그램을 기본적으로 선택할 수 있다. 좀더 상세하게, 시청자는 스태거캐스팅되고 있는 프로그램을 선택할 수 있거나; 또는 예컨대 디스플레이 디바이스를 공급되고 있는 신호에 매칭시키기 위해 원하는 비디오 품질의 비디오 신호를 갖는 프로그램을 선택할 수 있다.
현재의 수신기는 또한 시청자가 특정한 파라미터를 설정하게 한다. 예컨대, 사용자는 모든 송신된 채널, 또는 단지 시청자가 가입한 채널, 또는 가입한 채널+페이-퍼-뷰 채널 등을 이것이 디스플레이될 때마다 온-스크린-디스플레이를 수동으로 변경시켜야할 필요 없이 자동으로 시청하기 원할 수 있다. 사용자 인터페이스는 사용자에게 스크린 이미지를 OSD(282)를 통해서 제공하며, 이러한 OSD(282) 상에서, 이러한 선택은 사용자 제어기를 사용하여 이뤄질 수 있다. 추가적인 스크린 이미지가 생성될 수 있거나, 기존의 스크린 이미지가 변경될 수 있으며, 이러한 이미지 상에서, 시청자는 전술된 바와 같이 스태거캐스팅되었던 비디오 신호의 선택 및 디스플레이에 대한 선택을 설정한다. 예컨대, 시청자는 프로그램 테이블이 단지 스태거캐스팅된 프로그램만을 디스플레이할 것을 선택하거나, 비디오 신호를 전달하는 스태거캐스팅된 프로그램을 최소한의 비디오 품질로 또는 이러한 품질 이상으로 디스플레이할 것을 선택할 수 있다.
게다가, 전술된 바와 같이, 도 8의 PSIP-VCT/PMT 테이블에서의 Robust-Mode-High-Quality 플래그(816)는 강력한 모드의 패킷 스트림이 최고 품질의 비디오 신호를 전달하고 있음과, 이 패킷 스트림이 이용 불가능하지 않다면 사용되어야 한다는 점을 표시한다. 이러한 데이터는 또한 프로그램 테이블에 디스플레이될 수 있으며, 시청자는 이러한 플래그를 기초로 해서 이 테이블로부터 또한 선택을 할 수 있다. 게다가, 시청자는 이러한 플래그를 기초로 해서 파라미터를 설정할 수 있다. 예컨대, 시청자는 이러한 플래그가 설정된 채널만을 디스플레이할 것을 선택할 수 있다.
상술한 바와 같이, 본 발명은 스태거캐스팅 방법 및 장치에 이용된다.

Claims (19)

  1. 스태거캐스팅(staggercasting) 방법으로서,
    콘텐츠를 나타내는 제 1 신호를 인코딩하는 단계와;
    상기 콘텐츠를 나타내는 제 2 신호를 인코딩하는 단계와;
    제 2 인코딩된 신호에 대한 제 1 인코딩된 신호의 지연 전송 시간으로 사용되는 시간 지연 기간을 상기 콘텐츠에 대해 명시하는 단계와;
    명시된 시간 지연 기간에 의존하여 제 1 인코딩된 신호를 지연하는 단계와;
    지연된 제 1 인코딩된 신호, 제 2 인코딩된 신호 및 시간 지연 기간을 나타내는 신호를 포함하는 복합 신호를 생성하는 단계로서, 제 1 인코딩된 신호는 상기 콘텐츠의 제 2 인코딩된 신호에 대해 상기 시간 지연 기간만큼 지연되는, 복합 신호를 생성하는 단계를
    포함하는, 스태거캐스팅 방법.
  2. 제 1항에 있어서, 상기 시간 지연 기간을 나타내는 신호는 상기 제 1 및 제 2 인코딩된 신호에 관련된 데이터와 상기 시간 지연 기간을 나타내는 데이터를 포함하는 데이터 테이블을 나타내는 신호를 포함하는, 스태거캐스팅 방법.
  3. 제 2항에 있어서, 상기 데이터 테이블은 프로그램 맵 테이블(PMT)인, 스태거캐스팅 방법.
  4. 제 2항에 있어서, 상기 데이터 테이블은 프로그램 및 정보 시스템 프로토콜-가상 채널 테이블(PSIP-VCT)인, 스태거캐스팅 방법.
  5. 제 2항에 있어서, 상기 시간 지연 기간을 나타내는 데이터는 미리 결정된 길이의 다수의 시간 간격을 나타내는 숫자를 포함하는, 스태거캐스팅 방법.
  6. 제 1항에 있어서,
    상기 콘텐츠를 나타내는 제 1 신호를 인코딩하는 단계는 역호환성(backward compatible)을 갖는 인코딩 기술을 사용하는 단계를 포함하고,
    상기 콘텐츠를 나타내는 제 2 신호를 인코딩하는 단계는 상기 콘텐츠를 나타내는 제 1 신호를 인코딩하는 단계에서 사용된 상기 인코딩 기술에 비해 상대적으로 강력한 인코딩 기술을 사용하는 단계를 포함하는,
    스태거캐스팅 방법.
  7. 제 6항에 있어서, 상기 콘텐츠를 나타내는 제 1 신호를 인코딩하는 단계는 8-VSB 변조를 사용하여 상기 콘텐츠를 나타내는 신호를 변조하는 단계를 포함하고,
    상기 콘텐츠를 나타내는 제 2 신호를 인코딩하는 단계는 4-VSB 또는 2-VSB 변조 중 하나를 사용하여 상기 콘텐츠를 나타내는 신호를 변조하는 단계를 포함하는, 스태거캐스팅 방법.
  8. 제 7항에 있어서, 상기 콘텐츠를 나타내는 신호는 비디오 신호이고,
    상기 콘텐츠를 나타내는 제 1 신호를 인코딩하는 단계는 MPEG2 비디오 압축 인코딩을 사용하여 상기 콘텐츠를 나타내는 신호를 소스 인코딩하는 단계와, MPEG2 패킷 포맷을 사용하여 상기 소스 인코딩된 콘텐츠를 나타내는 신호를 시스템 인코딩하는 단계를 더 포함하고,
    상기 콘텐츠를 나타내는 제 2 신호를 인코딩하는 단계는 JVT 비디오 압축 인코딩을 사용하여 상기 콘텐츠를 나타내는 신호를 소스 인코딩하는 단계와, MPEG2 패킷 포맷을 사용하여 상기 소스 인코딩된 콘텐츠를 나타내는 신호를 시스템 인코딩하는 단계를 더 포함하는, 스태거캐스팅 방법.
  9. 콘텐츠를 나타내는 제 1 인코딩된 신호, 상기 콘텐츠를 나타내는 제 2 인코딩된 신호 및 명시된 시간 지연 기간을 나타내는 신호를 포함하는 복합 신호를 수신하기 위한 스태거캐스팅 수신기로서, 상기 제 1 인코딩된 신호는 상기 제 2 인코딩된 신호에 대해 상기 콘텐츠의 명시된 시간 지연 기간만큼 지연되는, 스태거캐스팅 수신기에 있어서,
    제 1 및 제 2 인코딩된 신호와 시간 지연 기간을 나타내는 신호를 추출하기 위해 상기 복합 신호에 응답하는 디멀티플렉서와;
    상기 추출된 제 1 및 제 2 인코딩된 신호 중에서 선택하는 선택기와;
    선택된 신호에 응답하는 디코더와;
    상기 디멀티플렉서와 상기 선택기 사이에 결합되고, 명시된 시간 지연 기간만큼 상기 추출된 제 2 인코딩된 신호를 지연하기 위해, 추출된 시간 지연 기간을 나타내는 신호에 응답하여, 추출된 제 2 인코딩된 신호에 상기 추출된 시간 지연 기간을 도입하고, 이를 통해 상기 추출된 제 1 및 제 2 인코딩된 신호가 시간적으로 재정렬되게 하는 지연 디바이스를,
    포함하는, 스태거캐스팅 수신기.
  10. 제 9항에 있어서, 상기 시간 지연 기간을 나타내는 신호는 상기 제 1 및 제 2 인코딩된 신호에 관련된 데이터와 상기 시간 지연 기간을 나타내는 데이터를 포함하는 데이터 테이블을 나타내는 신호를 포함하는, 스태거캐스팅 수신기.
  11. 제 10항에 있어서, 상기 데이터 테이블은 프로그램 맵 테이블(PMT)인, 스태거캐스팅 수신기.
  12. 제 10항에 있어서, 상기 데이터 테이블은 프로그램 및 정보 시스템 프로토콜-가상 채널 테이블(PSIP-VCT)인, 스태거캐스팅 수신기.
  13. 제 9항에 있어서, 상기 제 1 인코딩된 신호는 역호환성을 갖는 인코딩 기술을 사용하여 인코딩되고, 상기 제 2 인코딩된 신호는 상기 인코딩 기술에 비해 상대적으로 강력한 인코딩 기술을 사용하여 인코딩되는, 스태거캐스팅 수신기.
  14. 제 13항에 있어서, 상기 제 1 인코딩된 신호는 8-VSB 변조를 사용하여 채널 인코딩되고, 상기 제 2 인코딩된 신호는 4-VSB 또는 2-VSB 변조 중 하나를 사용하여 채널 인코딩되며,
    상기 복합 신호에 응답하고, 상기 제 1 인코딩된 신호를 8-VSB 복조를 사용하여 복조하며, 상기 제 2 인코딩된 신호를 4-VSB 또는 2-VSB 복조 중 하나를 사용하여 복조하는 복조기를 포함하는, 스태거캐스팅 수신기.
  15. 제 14항에 있어서, 상기 콘텐츠를 나타내는 신호는 비디오 신호이고, 상기 제 1 인코딩된 신호는 MPEG2 비디오 압축 인코딩을 사용하여 소스 인코딩되고, MPEG2 패킷 포맷을 사용하여 시스템 인코딩되고, 상기 제 2 인코딩된 신호는 JVT 비디오 압축 인코딩을 사용하여 소스 인코딩되고, MPEG2 패킷 포맷을 사용하여 시스템 인코딩되며;
    상기 디코더는, MPEG2 패킷 포맷을 사용하여 상기 제 1 인코딩된 신호를 디코딩하고, MPEG2 소스 디코딩을 사용하여 상기 제 1 인코딩된 신호를 소스 디코딩하며,
    MPEG2 패킷 포맷을 사용하여 상기 제 2 인코딩된 신호를 시스템 디코딩하고, JVT 소스 디코딩을 사용하여 상기 제 2 인코딩된 신호를 소스 디코딩하는, 스태거캐스팅 수신기.
  16. 제 9항에 있어서, 상기 제 1 및 상기 제 2 인코딩된 신호는 채널 인코딩되고,
    상기 채널 코딩된 제 1 및 제 2 신호 중 하나는 상기 제 1 및 제 2 신호 중 다른 하나보다 더 강력한 채널 코딩을 나타내는, 스태거캐스팅 수신기.
  17. 삭제
  18. 삭제
  19. 삭제
KR1020057013630A 2003-01-28 2004-01-21 조정 가능한 지연 오프셋을 갖는 강력한 모드의 스태거캐스팅 방법 및 수신기 KR101003390B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US44367203P 2003-01-28 2003-01-28
US60/443,672 2003-01-28

Publications (2)

Publication Number Publication Date
KR20050092448A KR20050092448A (ko) 2005-09-21
KR101003390B1 true KR101003390B1 (ko) 2010-12-23

Family

ID=32825358

Family Applications (9)

Application Number Title Priority Date Filing Date
KR1020057013499A KR101006851B1 (ko) 2003-01-28 2004-01-20 강력한 모드의 스태거캐스팅
KR1020057013630A KR101003390B1 (ko) 2003-01-28 2004-01-21 조정 가능한 지연 오프셋을 갖는 강력한 모드의 스태거캐스팅 방법 및 수신기
KR1020057013678A KR101015390B1 (ko) 2003-01-28 2004-01-21 아티팩트가 없는 강력한 모드의 스태거캐스팅
KR1020057013633A KR101006857B1 (ko) 2003-01-28 2004-01-22 이동 수신기용의 비디오의 해상도가 감소한 강력한 모드의 스태거캐스팅
KR1020057013675A KR20050092451A (ko) 2003-01-28 2004-01-23 멀티-해상도 신호에 대한 다수의 지연을 갖는 강력한모드의 스태거캐스팅
KR1020057013958A KR101012186B1 (ko) 2003-01-28 2004-01-23 강인한 모드의 스태거캐스팅 고속 채널 변경
KR1020057013677A KR100991705B1 (ko) 2003-01-28 2004-01-26 콘텐츠를 저장하는 강력한 모드의 스태거캐스팅
KR1020057013834A KR100954659B1 (ko) 2003-01-28 2004-01-27 로버스트 모드 스태거캐스팅의 사용자 제어형 전환 모드들
KR1020057013961A KR20050098273A (ko) 2003-01-28 2004-01-27 강인한 모드의 스태거캐스팅 비디오 화질 향상

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020057013499A KR101006851B1 (ko) 2003-01-28 2004-01-20 강력한 모드의 스태거캐스팅

Family Applications After (7)

Application Number Title Priority Date Filing Date
KR1020057013678A KR101015390B1 (ko) 2003-01-28 2004-01-21 아티팩트가 없는 강력한 모드의 스태거캐스팅
KR1020057013633A KR101006857B1 (ko) 2003-01-28 2004-01-22 이동 수신기용의 비디오의 해상도가 감소한 강력한 모드의 스태거캐스팅
KR1020057013675A KR20050092451A (ko) 2003-01-28 2004-01-23 멀티-해상도 신호에 대한 다수의 지연을 갖는 강력한모드의 스태거캐스팅
KR1020057013958A KR101012186B1 (ko) 2003-01-28 2004-01-23 강인한 모드의 스태거캐스팅 고속 채널 변경
KR1020057013677A KR100991705B1 (ko) 2003-01-28 2004-01-26 콘텐츠를 저장하는 강력한 모드의 스태거캐스팅
KR1020057013834A KR100954659B1 (ko) 2003-01-28 2004-01-27 로버스트 모드 스태거캐스팅의 사용자 제어형 전환 모드들
KR1020057013961A KR20050098273A (ko) 2003-01-28 2004-01-27 강인한 모드의 스태거캐스팅 비디오 화질 향상

Country Status (11)

Country Link
US (5) US8059711B2 (ko)
EP (9) EP1588548B1 (ko)
JP (9) JP2006521722A (ko)
KR (9) KR101006851B1 (ko)
CN (9) CN100387043C (ko)
BR (9) BRPI0406991A (ko)
DE (1) DE602004029551D1 (ko)
ES (1) ES2353872T3 (ko)
MX (9) MXPA05008094A (ko)
MY (1) MY145224A (ko)
WO (9) WO2004070986A2 (ko)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020122491A1 (en) * 2001-01-03 2002-09-05 Marta Karczewicz Video decoder architecture and method for using same
US20080030623A1 (en) * 2001-07-19 2008-02-07 Kumar Ramaswamy Robust reception of digital broadcast transmission
US7693220B2 (en) * 2002-01-03 2010-04-06 Nokia Corporation Transmission of video information
CN100387043C (zh) * 2003-01-28 2008-05-07 汤姆森特许公司 健壮模式交错播送的方法和设备
US8027381B2 (en) * 2003-01-28 2011-09-27 Thomson Licensing Robust mode staggercasting user controlled switching modes
US7810124B2 (en) * 2003-01-28 2010-10-05 Thomson Licensing Robust mode staggercasting fast channel change
US8321907B2 (en) * 2004-02-09 2012-11-27 Panasonic Corporation Broadcast receiving apparatus, broadcast receiving method, broadcast receiving program, and broadcast receiving circuit
EP1784984A1 (en) 2004-08-31 2007-05-16 Thomson Licensing Fast motion estimation for multiple reference pictures
KR100621413B1 (ko) * 2004-10-19 2006-09-19 삼성전자주식회사 디지털 방송의 채널 네비게이션 방법 및 이 방법이적용되는 디지털 방송 수신 장치
US7474359B2 (en) 2004-12-06 2009-01-06 At&T Intellectual Properties I, L.P. System and method of displaying a video stream
JP2006163178A (ja) * 2004-12-09 2006-06-22 Mitsubishi Electric Corp 符号化装置及び復号装置
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
CL2006000541A1 (es) 2005-03-10 2008-01-04 Qualcomm Inc Metodo para el procesamiento de datos multimedia que comprende: a) determinar la complejidad de datos multimedia; b) clasificar los datos multimedia en base a la complejidad determinada; y aparato asociado.
KR20100037659A (ko) * 2005-05-24 2010-04-09 노키아 코포레이션 디지털 방송에서 계층적인 전송/수신을 위한 방법 및 장치
US8054849B2 (en) 2005-05-27 2011-11-08 At&T Intellectual Property I, L.P. System and method of managing video content streams
JP4505020B2 (ja) * 2005-06-27 2010-07-14 パイオニア株式会社 補間装置
US7711045B2 (en) * 2005-07-13 2010-05-04 Samsung Electronics Co., Ltd. Digital broadcast transmitter/receiver having improved receiving performance and signal processing method thereof
US20070044123A1 (en) * 2005-08-16 2007-02-22 Alcatel System and method for smoothing channel changing in internet protocol television systems
US8879856B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Content driven transcoder that orchestrates multimedia transcoding using content information
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US8654848B2 (en) 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
KR100740202B1 (ko) * 2005-10-21 2007-07-18 삼성전자주식회사 듀얼 전송 스트림 생성 장치 및 그 방법
KR100740210B1 (ko) * 2005-10-21 2007-07-18 삼성전자주식회사 듀얼 전송 스트림 생성 장치 및 그 방법
US8135046B2 (en) 2005-11-11 2012-03-13 Broadcom Corporation Method and apparatus for demultiplexing, merging, and duplicating packetized elementary stream/program stream/elementary stream data
JP4684885B2 (ja) * 2005-12-27 2011-05-18 株式会社日立製作所 デジタル放送受信装置
JP5161426B2 (ja) * 2006-01-31 2013-03-13 株式会社ジャパンディスプレイセントラル 表示制御装置
KR101226324B1 (ko) * 2006-02-02 2013-01-24 삼성전자주식회사 디지털 방송 서비스를 제공하는 이동통신 시스템에서 하나의 채널을 통하여 다수의 방송 프로그램들을 동시에 제공하는 방법
US7620102B2 (en) * 2006-02-06 2009-11-17 Samsung Electronics Co., Ltd. Digital broadcasting transmission and reception system
JP2009531967A (ja) * 2006-03-29 2009-09-03 トムソン ライセンシング マルチビュービデオ符号化方法および装置
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
JP2007281868A (ja) * 2006-04-06 2007-10-25 Nippon Hoso Kyokai <Nhk> 送信装置及び受信装置
CN101422037B (zh) * 2006-04-18 2014-04-09 汤姆逊许可公司 缩短数字视频设备频道变换时间的方法
EP2013987B1 (en) 2006-04-29 2012-12-26 Thomson Licensing Seamless handover of multicast sessions in internet protocol based wireless networks using staggercasting
JP2007325153A (ja) * 2006-06-05 2007-12-13 Matsushita Electric Ind Co Ltd デジタル放送受信機
US9046649B2 (en) 2006-08-31 2015-06-02 Micron Technology, Inc. Communication methods, methods of forming an interconnect, signal interconnects, integrated circuit structures, circuits, and data apparatuses
US7844142B2 (en) 2006-08-31 2010-11-30 Micron Technology, Inc. Communication methods, methods of forming an interconnect, signal interconnects, integrated circuit structures, circuits, and data apparatuses
US8458744B2 (en) * 2006-11-07 2013-06-04 Thomson Licensing Method for reducing channel change times and synchronizing audio/video content during channel change
KR100862307B1 (ko) * 2006-12-29 2008-10-13 엘지이노텍 주식회사 디엠비 및 브이에스비 튜너 모듈
US9282327B2 (en) * 2007-01-04 2016-03-08 Thomson Licensing Llc Method and apparatus for video error concealment in multi-view coded video using high level syntax
DE102007003187A1 (de) * 2007-01-22 2008-10-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines zu sendenden Signals oder eines decodierten Signals
EP1954056A1 (en) * 2007-01-31 2008-08-06 Global IP Solutions (GIPS) AB Multiple description coding and transmission of a video signal
US8073049B2 (en) 2007-02-01 2011-12-06 Google Inc. Method of coding a video signal
DE102007045741A1 (de) * 2007-06-27 2009-01-08 Siemens Ag Verfahren und Vorrichtung zum Codieren und Decodieren von Multimediadaten
US8347339B2 (en) 2007-07-05 2013-01-01 Coherent Logix, Incorporated Transmission of multimedia streams to mobile devices with variable training information
JP5312456B2 (ja) * 2007-07-05 2013-10-09 コーヒレント・ロジックス・インコーポレーテッド 移動体テレビジョン放送システム
US10848811B2 (en) 2007-07-05 2020-11-24 Coherent Logix, Incorporated Control information for a wirelessly-transmitted data stream
US8358705B2 (en) * 2007-07-05 2013-01-22 Coherent Logix, Incorporated Transmission of multimedia streams to mobile devices with uncoded transport tunneling
US8332896B2 (en) 2007-07-05 2012-12-11 Coherent Logix, Incorporated Transmission of multimedia streams to mobile devices with cross stream association
US8290035B2 (en) * 2007-07-11 2012-10-16 Limberg Allen Leroy Systems for reducing adverse effects of deep fades in DTV signals designed for mobile reception
US8290060B2 (en) * 2007-08-21 2012-10-16 Limberg Allen Leroy Staggercasting of DTV signals that employ concatenated convolutional coding
EP2186338A1 (en) * 2007-08-28 2010-05-19 Thomson Licensing Staggercasting with no channel change delay
US8046453B2 (en) * 2007-09-20 2011-10-25 Qurio Holdings, Inc. Illustration supported P2P media content streaming
WO2009038615A1 (en) * 2007-09-21 2009-03-26 Thomson Licensing Apparatus and method for synchronizing user observable signals
WO2009047697A2 (en) * 2007-10-08 2009-04-16 Nxp B.V. System and method for error concealment
US20100254489A1 (en) * 2007-11-14 2010-10-07 Thomson Licensing Code enhanced staggercasting
CA2704485C (en) * 2007-11-14 2017-07-18 Richard W. Citta Code enhanced staggercasting
CN101247204B (zh) * 2007-11-23 2011-05-11 清华大学 全球数字广播系统中的鲁棒性模式检测实现方法
JP2009141543A (ja) * 2007-12-05 2009-06-25 Nec Saitama Ltd 携帯電話端末および携帯電話端末制御方法
US20090231437A1 (en) * 2008-03-11 2009-09-17 Yao-Chang Huang Tv data processing method and tv data receiver utilizing which
WO2009126253A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Staggercasting with temporal scalability
US8782723B2 (en) * 2008-05-02 2014-07-15 Thomson Licensing Method and apparatus for power savings in staggercasting
EP2654266B1 (en) 2008-06-07 2018-12-12 Coherent Logix Incorporated Transmitting and receiving control information for use with multimedia streams
US20110090958A1 (en) * 2008-06-17 2011-04-21 Avinash Sridhar Network abstraction layer (nal)-aware multiplexer with feedback
FR2933263A1 (fr) 2008-06-30 2010-01-01 Thomson Licensing Methode de reception de flux de donnees et methode d'emission correspondante
WO2010038197A1 (en) 2008-09-30 2010-04-08 Nxp B.V. Profile for frame rate conversion
JP5369599B2 (ja) * 2008-10-20 2013-12-18 富士通株式会社 映像符号化装置、映像符号化方法
US9077937B2 (en) * 2008-11-06 2015-07-07 Alcatel Lucent Method and apparatus for fast channel change
KR101516968B1 (ko) * 2008-11-06 2015-05-04 삼성전자주식회사 오디오 신호 처리 방법 및 이를 이용한 방송 출력 장치
US8374254B2 (en) * 2008-12-15 2013-02-12 Sony Mobile Communications Ab Multimedia stream combining
JP2010226258A (ja) * 2009-03-19 2010-10-07 Fujitsu Ltd 情報取得システム、送信装置、データ捕捉装置、送信方法及びデータ捕捉方法
CA2758104C (en) 2009-04-07 2015-04-07 Lg Electronics Inc. Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
CN101909196B (zh) 2009-06-05 2013-04-17 华为技术有限公司 一种频道切换处理方法及系统以及相关设备
WO2011030477A1 (ja) * 2009-09-11 2011-03-17 パナソニック株式会社 コンテンツ送信装置、コンテンツ受信装置、コンテンツ送信プログラム、コンテンツ受信プログラム、コンテンツ送信方法、及びコンテンツ受信方法
CN101674485B (zh) * 2009-10-13 2012-02-08 中兴通讯股份有限公司 一种打包复用码流选择输出装置和方法
US20110113301A1 (en) * 2009-11-06 2011-05-12 Limberg Allen Leroy Diversity broadcasting of gray-labeled CCC data using 8-VSB AM
KR101750048B1 (ko) 2009-11-13 2017-07-03 삼성전자주식회사 변속 재생 서비스 제공 방법 및 장치
KR101272982B1 (ko) * 2009-12-21 2013-06-10 한국전자통신연구원 아이피티비 셋탑박스 및 그의 채널 전환 방법
KR20110105710A (ko) * 2010-03-19 2011-09-27 삼성전자주식회사 복수의 챕터를 포함하는 콘텐트를 적응적으로 스트리밍하는 방법 및 장치
EP2395754A1 (en) * 2010-06-14 2011-12-14 Thomson Licensing Receiver and method at the receiver for enabling channel change with a single decoder
JP2013535921A (ja) * 2010-08-06 2013-09-12 トムソン ライセンシング 信号を受信する装置および方法
CN103141066B (zh) * 2010-10-12 2015-06-10 松下电器产业株式会社 发送电路、接收电路、发送方法、接收方法、通信系统及其通信方法
KR102172279B1 (ko) * 2011-11-14 2020-10-30 한국전자통신연구원 스케일러블 다채널 오디오 신호를 지원하는 부호화 장치 및 복호화 장치, 상기 장치가 수행하는 방법
US8929432B2 (en) * 2012-09-07 2015-01-06 Sony Corporation Combination A/53 and A/153 receiver using a HIHO viterbi decoder
US9609336B2 (en) * 2013-04-16 2017-03-28 Fastvdo Llc Adaptive coding, transmission and efficient display of multimedia (acted)
EP2903284A1 (en) * 2013-06-05 2015-08-05 Axis AB Method for encoding digital video data
US20150146012A1 (en) * 2013-11-27 2015-05-28 Sprint Communications Company L.P. Video presentation quality display in a wireless communication device
US9794313B2 (en) * 2014-05-09 2017-10-17 Cisco Technology, Inc. Methods and systems to facilitate synchronization of multiple media streams
CN104361733B (zh) * 2014-11-26 2017-10-27 中国科学院电子学研究所 一种基于交叉编码的动态验证无线遥控的方法
US9832521B2 (en) * 2014-12-23 2017-11-28 Intel Corporation Latency and efficiency for remote display of non-media content
CN105120364A (zh) * 2015-08-24 2015-12-02 天脉聚源(北京)科技有限公司 一种用于电视互动系统安全传输互动信号的方法
EP3185455A1 (en) * 2015-12-21 2017-06-28 Thomson Licensing Method and apparatus for detecting packet loss in staggercasting
US9813659B1 (en) * 2016-05-11 2017-11-07 Drone Racing League, Inc. Diversity receiver
EP3244623A1 (en) * 2016-05-13 2017-11-15 Thomson Licensing Method and apparatus for bandwidth optimization using staggercast
US10218986B2 (en) * 2016-09-26 2019-02-26 Google Llc Frame accurate splicing
US10779017B2 (en) * 2018-12-10 2020-09-15 Warner Bros. Entertainment Inc. Method and system for reducing drop-outs during video stream playback
WO2021126156A1 (en) * 2019-12-16 2021-06-24 Realtime Data Llc Systems and methods for uninterrupted reception of streaming data

Family Cites Families (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US743660A (en) * 1903-05-15 1903-11-10 Elmer E Reese Mail-box.
CA1065409A (en) 1974-02-27 1979-10-30 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of National Defence Of Her Majesty's Canadian Government Improving error rate on radio teletype circuits
JPS6445342A (en) 1987-08-14 1989-02-17 Nippon Catalytic Chem Ind Production of 1,4-dihydroxy-2-naphthoic acid aryl ester
US4870497A (en) 1988-01-22 1989-09-26 American Telephone And Telegraph Company Progressive transmission of high resolution two-tone facsimile images
JPH0750708B2 (ja) * 1989-04-26 1995-05-31 株式会社東芝 半導体装置
US20020129374A1 (en) * 1991-11-25 2002-09-12 Michael J. Freeman Compressed digital-data seamless video switching system
US5446759A (en) 1992-03-12 1995-08-29 Ntp Incorporated Information transmission system and method of operation
US5289276A (en) * 1992-06-19 1994-02-22 General Electric Company Method and apparatus for conveying compressed video data over a noisy communication channel
US5371551A (en) 1992-10-29 1994-12-06 Logan; James Time delayed digital video system using concurrent recording and playback
US5477283A (en) * 1993-05-24 1995-12-19 Casey; Alan F. Image projecting device
JP3135417B2 (ja) 1993-05-26 2001-02-13 株式会社日立製作所 放送方式および放送送受信システムおよび放送受信機
US5414725A (en) * 1993-08-03 1995-05-09 Imra America, Inc. Harmonic partitioning of a passively mode-locked laser
US6028649A (en) * 1994-04-21 2000-02-22 Reveo, Inc. Image display systems having direct and projection viewing modes
US5610848A (en) * 1994-05-13 1997-03-11 Hughes Aircraft Company Robust resonance reduction using staggered posicast filters
US5477263A (en) 1994-05-26 1995-12-19 Bell Atlantic Network Services, Inc. Method and apparatus for video on demand with fast forward, reverse and channel pause
JPH08213972A (ja) * 1995-02-06 1996-08-20 Nec Corp ダイバーシティ送受信方式
US5822324A (en) 1995-03-16 1998-10-13 Bell Atlantic Network Services, Inc. Simulcasting digital video programs for broadcast and interactive services
US5532748A (en) * 1995-03-31 1996-07-02 Matsushita Electric Corporation Of America Hybrid analog/digital television transmission system
US5592471A (en) 1995-04-21 1997-01-07 Cd Radio Inc. Mobile radio receivers using time diversity to avoid service outages in multichannel broadcast transmission systems
EP0744847B1 (fr) 1995-05-23 2005-08-24 Koninklijke Philips Electronics N.V. Système de transmission d'information utilisant, en redondance, au moins deux canaux
US5910960A (en) * 1995-06-07 1999-06-08 Discovision Associates Signal processing apparatus and method
US5703677A (en) * 1995-11-14 1997-12-30 The Trustees Of The University Of Pennsylvania Single lens range imaging method and apparatus
US5703877A (en) * 1995-11-22 1997-12-30 General Instrument Corporation Of Delaware Acquisition and error recovery of audio data carried in a packetized data stream
JP3371186B2 (ja) 1995-11-27 2003-01-27 ソニー株式会社 ビデオデータ配信システムおよびビデオデータ受信装置
US5799037A (en) * 1996-02-16 1998-08-25 David Sarnoff Research Center Inc. Receiver capable of demodulating multiple digital modulation formats
US5892535A (en) * 1996-05-08 1999-04-06 Digital Video Systems, Inc. Flexible, configurable, hierarchical system for distributing programming
JPH1045342A (ja) 1996-07-31 1998-02-17 Toshiba Corp エレベータの制振装置
US6185427B1 (en) * 1996-09-06 2001-02-06 Snaptrack, Inc. Distributed satellite position system processing and application network
JPH10145342A (ja) * 1996-11-08 1998-05-29 Sony Corp 送信装置、受信装置および送受信装置
KR100263036B1 (ko) * 1996-11-20 2000-08-01 김영환 디지탈 케이블티브이 시스템의 원격제어장치
US6480541B1 (en) 1996-11-27 2002-11-12 Realnetworks, Inc. Method and apparatus for providing scalable pre-compressed digital video with reduced quantization based artifacts
US6038257A (en) 1997-03-12 2000-03-14 Telefonaktiebolaget L M Ericsson Motion and still video picture transmission and display
US6055277A (en) 1997-05-29 2000-04-25 Trw Docket No. Communication system for broadcasting to mobile users
JP3179060B2 (ja) * 1997-06-19 2001-06-25 株式会社東芝 情報データ多重化伝送システムとその多重化装置及び分離装置
US6148005A (en) 1997-10-09 2000-11-14 Lucent Technologies Inc Layered video multicast transmission system with retransmission-based error recovery
US5978029A (en) * 1997-10-10 1999-11-02 International Business Machines Corporation Real-time encoding of video sequence employing two encoders and statistical analysis
SG85096A1 (en) * 1998-02-11 2001-12-19 Samsung Electronics Co Ltd Decimation of baseband dtv signals prior to channel equalization in digital television signal receivers
US6414725B1 (en) 1998-04-16 2002-07-02 Leitch Technology Corporation Method and apparatus for synchronized multiple format data storage
JP2000068863A (ja) * 1998-08-19 2000-03-03 Fujitsu Ltd 符号化装置及びその方法
JP3974712B2 (ja) 1998-08-31 2007-09-12 富士通株式会社 ディジタル放送用送信・受信再生方法及びディジタル放送用送信・受信再生システム並びにディジタル放送用送信装置及びディジタル放送用受信再生装置
US7336712B1 (en) 1998-09-02 2008-02-26 Koninklijke Philips Electronics N.V. Video signal transmission
JP2003523103A (ja) 1998-09-16 2003-07-29 エイシーティヴィー,インコーポレイテッド 圧縮ディジタルデータのシームレスビデオ切り換えシステム
JP4126779B2 (ja) 1998-10-21 2008-07-30 ヤマハ株式会社 デジタル信号処理装置
US6418549B1 (en) 1998-10-30 2002-07-09 Merunetworks, Inc. Data transmission using arithmetic coding based continuous error detection
US6370666B1 (en) * 1998-12-02 2002-04-09 Agere Systems Guardian Corp. Tuning scheme for error-corrected broadcast programs
US6195024B1 (en) 1998-12-11 2001-02-27 Realtime Data, Llc Content independent data compression method and system
JP4244424B2 (ja) * 1999-02-05 2009-03-25 パナソニック株式会社 テレビ放送用送受信システム
US6366888B1 (en) 1999-03-29 2002-04-02 Lucent Technologies Inc. Technique for multi-rate coding of a signal containing information
US6735423B1 (en) * 1999-05-18 2004-05-11 General Instrument Corporation Method and apparatus for obtaining optimal performance in a receiver
JP2000354023A (ja) 1999-06-14 2000-12-19 Mitsubishi Electric Corp 伝送方式
US7155735B1 (en) 1999-10-08 2006-12-26 Vulcan Patents Llc System and method for the broadcast dissemination of time-ordered data
US6711657B1 (en) 1999-10-21 2004-03-23 Oracle Corp. Methods for managing memory in a run-time environment including registration of a deallocation routine at explicit, lazy initialization
US6687305B1 (en) 1999-11-08 2004-02-03 Hitachi, Ltd. Receiver, CPU and decoder for digital broadcast
US6771657B1 (en) 1999-12-09 2004-08-03 General Instrument Corporation Non real-time delivery of MPEG-2 programs via an MPEG-2 transport stream
US6700624B2 (en) 1999-12-30 2004-03-02 Lg Electronics Inc. Combined terrestrial wave/cable broadcast receiver and program information processing method therefor
US6701528B1 (en) 2000-01-26 2004-03-02 Hughes Electronics Corporation Virtual video on demand using multiple encrypted video segments
US6304809B1 (en) * 2000-03-21 2001-10-16 Ford Global Technologies, Inc. Engine control monitor for vehicle equipped with engine and transmission
US6889351B1 (en) 2000-03-30 2005-05-03 Koninklijke Philips Electronics, N.V. Backward compatible multiple data stream transmission method and system for compressed domain signals
JP2001285736A (ja) 2000-03-31 2001-10-12 Canon Inc テレビジョン放送受信装置、テレビジョン放送受信システム、テレビジョン放送受信方法、及び記憶媒体
US6847395B2 (en) 2000-04-17 2005-01-25 Triveni Digital Inc. Digital television signal test equipment
JP2001326875A (ja) 2000-05-16 2001-11-22 Sony Corp 画像処理装置および画像処理方法、並びに記録媒体
US7600245B2 (en) * 2000-06-27 2009-10-06 At&T Intellectual Property I, L.P. System and methods for subscribers to view, select and otherwise customize delivery of programming over a communication system
US7003794B2 (en) 2000-06-27 2006-02-21 Bamboo Mediacasting, Inc. Multicasting transmission of multimedia information
US6816194B2 (en) * 2000-07-11 2004-11-09 Microsoft Corporation Systems and methods with error resilience in enhancement layer bitstream of scalable video coding
JP3631123B2 (ja) 2000-10-03 2005-03-23 三洋電機株式会社 デジタル放送受信装置
JP3731465B2 (ja) * 2000-10-13 2006-01-05 株式会社ケンウッド ディジタル放送受信機及びディジタル放送受信方法
JP3645168B2 (ja) 2000-10-18 2005-05-11 独立行政法人産業技術総合研究所 光軸調整方法およびその調整プログラムを記録した記録媒体
JP4449206B2 (ja) 2000-11-14 2010-04-14 ソニー株式会社 階層変調放送受信装置及び階層変調放送受信方法
EP1217841A2 (en) 2000-11-27 2002-06-26 Media Glue Corporation Bitstream separating and merging system, apparatus, method and computer program product
JP2002223441A (ja) 2000-11-27 2002-08-09 Media Glue Corp 符号化信号分離・合成装置、符号化信号分離・合成方法および符号化信号分離・合成プログラムを記録した媒体
US7058127B2 (en) * 2000-12-27 2006-06-06 International Business Machines Corporation Method and system for video transcoding
US7103669B2 (en) 2001-02-16 2006-09-05 Hewlett-Packard Development Company, L.P. Video communication method and system employing multiple state encoding and path diversity
US20020136538A1 (en) 2001-03-22 2002-09-26 Koninklijke Philips Electronics N.V. Smart quality setting for personal TV recording
EP1261204A2 (en) 2001-03-29 2002-11-27 Matsushita Electric Industrial Co., Ltd. Method and apparatus for data reproduction
US7206352B2 (en) * 2001-04-02 2007-04-17 Koninklijke Philips Electronics N.V. ATSC digital television system
US7675994B2 (en) * 2001-04-02 2010-03-09 Koninklijke Philips Electronics N.V. Packet identification mechanism at the transmitter and receiver for an enhanced ATSC 8-VSB system
US20020191116A1 (en) 2001-04-24 2002-12-19 Damien Kessler System and data format for providing seamless stream switching in a digital video recorder
JP2002344838A (ja) 2001-05-15 2002-11-29 Funai Electric Co Ltd 受信チャンネル番号表示機能を有する放送受信装置
US6970513B1 (en) * 2001-06-05 2005-11-29 At&T Corp. System for content adaptive video decoding
JP2003016725A (ja) * 2001-06-27 2003-01-17 Sony Corp コンテンツデータの送信装置および送信方法、並びにコンテンツデータの処理装置および処理方法
US20040028076A1 (en) 2001-06-30 2004-02-12 Strolle Christopher H Robust data extension for 8vsb signaling
WO2003009578A2 (en) 2001-07-19 2003-01-30 Thomson Licensing S.A. Robust reception of digital broadcast transmission
US20080030623A1 (en) 2001-07-19 2008-02-07 Kumar Ramaswamy Robust reception of digital broadcast transmission
CN1258917C (zh) 2001-07-19 2006-06-07 汤姆森许可公司 用于处理发射信号的衰落信号质量的方法和装置
JP2003134064A (ja) * 2001-10-26 2003-05-09 Hitachi Ltd デジタル放送補完方法およびデジタル放送受信システム
US7262806B2 (en) * 2001-11-21 2007-08-28 Broadcom Corporation System and method for aligned compression of interlaced video
US6646578B1 (en) 2002-11-22 2003-11-11 Ub Video Inc. Context adaptive variable length decoding system and method
US20040117840A1 (en) 2002-12-12 2004-06-17 Boudreau Paul A. Data enhanced multi-media system for a set-top terminal
US7092442B2 (en) * 2002-12-19 2006-08-15 Mitsubishi Electric Research Laboratories, Inc. System and method for adaptive field and frame video encoding using motion activity
CN100387043C (zh) 2003-01-28 2008-05-07 汤姆森特许公司 健壮模式交错播送的方法和设备
US7810124B2 (en) 2003-01-28 2010-10-05 Thomson Licensing Robust mode staggercasting fast channel change
US7403660B2 (en) 2003-04-30 2008-07-22 Nokia Corporation Encoding picture arrangement parameter in picture bitstream
US20060017360A1 (en) * 2004-07-22 2006-01-26 Daniel Lyvers Modular fascia for refrigerator storage assemblies and methods of making same
JP5229527B2 (ja) * 2006-08-25 2013-07-03 ソニー株式会社 二次電池用電解液および二次電池

Also Published As

Publication number Publication date
CN1745583A (zh) 2006-03-08
EP1588558A4 (en) 2006-10-04
WO2004070953A3 (en) 2007-11-01
WO2004071064A3 (en) 2005-01-27
EP1588491A2 (en) 2005-10-26
EP1588490B1 (en) 2012-03-21
WO2004068775A3 (en) 2005-02-03
CN1795676A (zh) 2006-06-28
BRPI0407079A (pt) 2006-01-24
KR101012186B1 (ko) 2011-02-07
EP1588491A4 (en) 2006-10-04
EP1588559A4 (en) 2006-10-04
CN100574411C (zh) 2009-12-23
MXPA05008010A (es) 2005-09-20
EP1588560A4 (en) 2006-10-18
KR101015390B1 (ko) 2011-02-22
EP1588549A2 (en) 2005-10-26
US8699564B2 (en) 2014-04-15
CN1759597A (zh) 2006-04-12
CN100440965C (zh) 2008-12-03
US20060050781A1 (en) 2006-03-09
BRPI0407047A (pt) 2006-01-17
US8036262B2 (en) 2011-10-11
US20060262651A1 (en) 2006-11-23
CN100387043C (zh) 2008-05-07
MXPA05008011A (es) 2005-09-20
WO2004068838A3 (en) 2005-12-29
KR20050094881A (ko) 2005-09-28
WO2004070986A2 (en) 2004-08-19
WO2004070986A3 (en) 2005-01-27
EP1588547A4 (en) 2006-10-04
JP4575358B2 (ja) 2010-11-04
CN1745582A (zh) 2006-03-08
WO2004068714A3 (en) 2006-01-05
JP2006517078A (ja) 2006-07-13
US8027386B2 (en) 2011-09-27
EP1602231A2 (en) 2005-12-07
CN100379284C (zh) 2008-04-02
CN1826808A (zh) 2006-08-30
BRPI0406969A (pt) 2006-01-10
US8126061B2 (en) 2012-02-28
MXPA05008007A (es) 2005-09-20
BRPI0406991A (pt) 2006-01-10
CN1778113A (zh) 2006-05-24
WO2004070953A2 (en) 2004-08-19
WO2004068714A2 (en) 2004-08-12
KR20050092440A (ko) 2005-09-21
EP1588549A4 (en) 2007-02-28
BRPI0407034A (pt) 2007-03-20
MXPA05008093A (es) 2006-02-08
CN100505823C (zh) 2009-06-24
US20060126733A1 (en) 2006-06-15
KR20050092451A (ko) 2005-09-21
CN100367792C (zh) 2008-02-06
EP1588548A2 (en) 2005-10-26
MXPA05008006A (es) 2005-09-20
KR20050098261A (ko) 2005-10-11
EP1588490A2 (en) 2005-10-26
KR100991705B1 (ko) 2010-11-04
WO2004070990A2 (en) 2004-08-19
US20060050780A1 (en) 2006-03-09
KR20050095909A (ko) 2005-10-04
WO2004070990A3 (en) 2005-01-27
WO2004070952A2 (en) 2004-08-19
WO2004070952A3 (en) 2005-04-07
BRPI0406980A (pt) 2006-01-10
US8059711B2 (en) 2011-11-15
EP1588558A2 (en) 2005-10-26
MXPA05008095A (es) 2006-02-08
KR101006857B1 (ko) 2011-01-12
MXPA05008094A (es) 2006-02-08
BRPI0407062A (pt) 2007-03-20
CN1826809A (zh) 2006-08-30
EP1588548A4 (en) 2006-10-04
JP4597956B2 (ja) 2010-12-15
KR20050098267A (ko) 2005-10-11
US20060056505A1 (en) 2006-03-16
JP2006521722A (ja) 2006-09-21
EP1588560A2 (en) 2005-10-26
MXPA05008009A (es) 2005-09-20
WO2004066706A2 (en) 2004-08-12
JP2007525855A (ja) 2007-09-06
JP2007525041A (ja) 2007-08-30
ES2353872T3 (es) 2011-03-07
JP2006524445A (ja) 2006-10-26
JP4575357B2 (ja) 2010-11-04
KR20050092448A (ko) 2005-09-21
KR100954659B1 (ko) 2010-04-27
EP1602231A4 (en) 2006-10-18
KR20050092449A (ko) 2005-09-21
WO2004071064A2 (en) 2004-08-19
BRPI0407029A (pt) 2006-01-10
DE602004029551D1 (de) 2010-11-25
JP2006521723A (ja) 2006-09-21
CN101156443B (zh) 2011-08-10
CN1778113B (zh) 2010-08-18
EP1588559A2 (en) 2005-10-26
KR101006851B1 (ko) 2011-01-12
KR20050098273A (ko) 2005-10-11
EP1588547A2 (en) 2005-10-26
EP1588490A4 (en) 2008-11-26
WO2004068775A2 (en) 2004-08-12
MY145224A (en) 2012-01-13
EP1588548B1 (en) 2010-10-13
JP2006520556A (ja) 2006-09-07
WO2004068838A2 (en) 2004-08-12
JP2006516864A (ja) 2006-07-06
CN1745569A (zh) 2006-03-08
JP2006520139A (ja) 2006-08-31
CN101156443A (zh) 2008-04-02
MXPA05008008A (es) 2005-09-20
BRPI0406983A (pt) 2007-04-10
JP4764816B2 (ja) 2011-09-07
WO2004066706A3 (en) 2005-03-24

Similar Documents

Publication Publication Date Title
KR101003390B1 (ko) 조정 가능한 지연 오프셋을 갖는 강력한 모드의 스태거캐스팅 방법 및 수신기
US20100315561A1 (en) Robust mode staggercasting fast channel change
US8027381B2 (en) Robust mode staggercasting user controlled switching modes
US20060082474A1 (en) Robust mode staggercasting with multiple delays for multi-resolution signals

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131119

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141126

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151118

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161123

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20171117

Year of fee payment: 8