KR20070021284A - Method, apparatus, and system for enhancing robustness of predictive video codecs using a side-channel based on distributed source coding techniques - Google Patents
Method, apparatus, and system for enhancing robustness of predictive video codecs using a side-channel based on distributed source coding techniques Download PDFInfo
- Publication number
- KR20070021284A KR20070021284A KR1020067027942A KR20067027942A KR20070021284A KR 20070021284 A KR20070021284 A KR 20070021284A KR 1020067027942 A KR1020067027942 A KR 1020067027942A KR 20067027942 A KR20067027942 A KR 20067027942A KR 20070021284 A KR20070021284 A KR 20070021284A
- Authority
- KR
- South Korea
- Prior art keywords
- standard
- bit stream
- auxiliary channel
- signal
- predictive
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/89—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
채널 오차들 또는 손실들이 발생할 때, 비디오 데이터 코딩과 같은, 데이터 코딩 성능을 개선하는 분배된 소스 코딩 기술들을 제공하는 방법, 장치, 및 시스템. 데이터의 재구성에서의 오차들은 여분의 정보를 송신하는 것에 의해서 제거되거나 감소된다. 예측된 시퀀스와 원 시퀀스 사이의 상호관계는 코드북을 설계하고 원 이미지를 나타내는 데 요구되는 코세트를 찾는 데 사용될 수 있다. 이 정보는 다른 채널, 즉 제 2 채널을 통해서 송신될 수 있다.A method, apparatus, and system for providing distributed source coding techniques that improve data coding performance, such as video data coding, when channel errors or losses occur. Errors in the reconstruction of the data are eliminated or reduced by sending extra information. The correlation between the predicted sequence and the original sequence can be used to design the codebook and find the corset required to represent the original image. This information may be transmitted on another channel, namely the second channel.
데이터 인코딩, 데이터 디코딩, 인코더, 디코더. Data encoding, data decoding, encoder, decoder.
Description
35 U.S.C §119 하에서의 우선권 주장의 청구항35 Claims of priority claims under U.S.C §119
본 출원은 출원 명칭이 "분산된 소스 코딩 기술들에 기초한 사이드-채널을 이용한 예측 비디오 코덱의 견고성을 개선시키는 방법, 장치, 및 시스템"이며, 2004년 6월 1일에 출원되었으며, 본 명세서의 출원인에게 양도되어, 본 명세서에서 전체로써 통합된, 미국 가특허 출원 제 60/576,193에 대한 우선권을 주장한다.This application is entitled “ Method, Apparatus, and System for Improving the Robustness of Predictive Video Codec Using Side-Channel Based on Distributed Source Coding Techniques”, filed June 1, 2004, Claims priority to US provisional patent application 60 / 576,193, assigned to the applicant and incorporated herein in its entirety.
본 출원에 대한 공동 출원에 대한 참조Reference to Joint Application for this Application
본 출원은 출원 명칭이 "멀티미디어 전송을 위한 사이드 정보를 위한 인코딩하고 디코딩하는 방법, 장치 및 시스템"이며, 2003년 3월 24일에 출원되었으며, 본 명세서의 출원인에게 양도되어, 본 명세서에서 전체로써 통합된, 미국 특허 출원 번호 10/396,982에 관련이 있다.This application is entitled "Method, Apparatus and System for Encoding and Decoding for Side Information for Multimedia Transmission", filed March 24, 2003, assigned to the applicant of this specification, US Patent Application No. 10 / 396,982, which is incorporated by reference.
배경기술Background
1. 기술 분야1. Technology Field
본 출원은 오차가 있을 수 있는 네트워크에 의한 멀티미디어에 통상적으로 관련이 있고 보다 상세하게는 무선 네트워크에 의한 멀티미디어에 대하여 사용되는 비디오 코딩 및 디코딩 기술들에 관련이 있다.The present application is generally related to multimedia by a network, which may be in error, and more particularly to video coding and decoding techniques used for multimedia by a wireless network.
2. 배경 기술2. Background Technology
ITU-T H.263, H.263+, H263++, ISO MPEG-4 및 JVT H.264와 같은, 현재의 비디오 압축 기술들은 압축 비디오 영역에서 매우 효율적이다. 비교적 낮은 비트율로 좋은 비주얼 품질을 달성하는 능력은, 무선 채널들과 같은, 밴드폭 제한된 채널에 대한 이머징 (emerging) 멀티미디어 에플리케이션에서의 비디오 에플리케이션들에 대한 인기가 증가되도록 하였다. 하지만, 현재의 비디오 코덱에서 사용되는 압축 기술들의 예측 특성은 압축된 비디오 비트 스트림들을 매우 취약하게 만들고 채널에서의 패킷 손실로 인해 쉽게 저하된다.Current video compression techniques, such as ITU-T H.263, H.263 +, H263 ++, ISO MPEG-4 and JVT H.264, are very efficient in the compressed video domain. The ability to achieve good visual quality at relatively low bit rates has led to an increase in popularity for video applications in emerging multimedia applications for bandwidth limited channels, such as wireless channels. However, the prediction characteristics of the compression techniques used in current video codecs make the compressed video bit streams very vulnerable and easily degraded due to packet loss in the channel.
채널 오차들 또는 패킷 손실은 비디오 인코더와 디코더 사이에서 동기화의 손실을 초래할 수 있다. 보다 상세하게는, 인코더에서 재구성된 비디오 프레임의 국소적으로 디코딩된 카피는 디코더에서 상응하는 재구성된 비디오 프레임과 일치하지 않을 수도 있다. 수신자의 디코더와 송신자의 디코더 사이의 드리프트 (drift) 가 있기 때문에, 비디오 인코더와 디코더 사이에서의 동기화의 이러한 손실은 또한 때때로 "드리프트" 라고 불린다. 드리프트는 디코딩된 비디오 품질에서 큰 손실을 초래할 수 있다.Channel errors or packet loss can result in a loss of synchronization between the video encoder and the decoder. More specifically, the locally decoded copy of the reconstructed video frame at the encoder may not match the corresponding reconstructed video frame at the decoder. Because there is a drift between the receiver's decoder and the sender's decoder, this loss of synchronization between the video encoder and the decoder is also sometimes called "drift". Drift can cause large losses in the decoded video quality.
드리프트로 인한 디코딩된 품질의 감소는 현재 비디오 코덱들의 기초가 되는 예측 기반 코딩에 대한 직접적 결과가 된다. 즉, 현재 비디오 프레임을 지금 디코딩하기 위해서, 모든 이전 비디오 프레임들이 정확하게 재구성될 것이 필요하다. 이러한 문제는 패킷 손실들이 배선-선 (wire-line) 네트워크보다 훨씬 자 주 있고 버스트 (burst) 가 발생하는 경향이 있는 무선 채널에서 악화된다.The reduction in decoded quality due to drift is a direct result of the prediction based coding underlying current video codecs. In other words, to decode the current video frame now, all previous video frames need to be correctly reconstructed. This problem is exacerbated in wireless channels, where packet losses are much more frequent than wire-line networks and tend to burst.
자동 재송 요청 (ARQ : Automatic Repeat Request) 와 같은, 재-전송 체계들또는 순방향 오류 정정 (FEC : Forward Error Correction) 체계들은 인코더와 디코더 사이의 드리프트 문제들을 처리하고 그것에 의해서 패킷 손실들로 인한 품질의 손실을 완화시키기 위해서 사용되었다. 하지만, ARQ 또는 FEC 체계들 (또는 둘의 조합) 은, 비디오 에플리케이션의 레이턴시 제약이 그러한 체계들의 사용을 가로막기 때문에, 효과적인 것으로 입증되지 못했다. 또한, FEC 기초 체계들은 데이터가 수신될 것이라는 것을 보장할 수 없으며, 수신되지 않았다면, 드리프트가 다음 인트라-프레임1 (intra-frame) 이 수신될 때까지, 계속될 것이다. (여기서, 인트라-프레임1은 예측 루프를 파괴해서 드리프트를 중단시키기 위하여 비디오 인코더들에 의해서 사용됨.)Re-transmission schemes or Forward Error Correction (FEC) schemes, such as Automatic Repeat Request (ARQ), handle drift problems between the encoder and decoder and thereby ensure It was used to mitigate the loss. However, ARQ or FEC schemes (or a combination of both) have not proven effective because the latency constraints of video applications prevent the use of such schemes. In addition, FEC basic schemes cannot guarantee that data will be received, and if not, the drift will continue until the next intra-frame 1 is received. (Intra-frame 1 is used by video encoders to break the prediction loop to stop drift.)
Wyner-Ziv 이론은 A. D. Wyner 및 J.Ziv의 "디코더에서 사이드 정보를 가진 소스 코딩을 위한 비율 왜곡 기능 (The rate distortion function for source coding with side information at the decoder)" IEEE Trans . Inf . Theory , vol. 22, pp. 1-10, 1976년 1월호에서 설명된다. 이 이론은 사이드 정보를 가진 소스 코디의 문제를 해결한다. 두 개의 상호 관련된 소스들 X 및 Y를 고려한다. 오직 디코더가 소스 Y 에 대한 액세스를 가질 때 인코더는 소스 X를 압축하는 것이필요하다. 평균 제곱 오차가 왜곡 크기이며 X = Y + N 이며, X 코딩을 위한 비율-왜곡 성능은 인코더가 Y에 대한 액세스를 가지던지 아니던 간에 동일하다.Wyner-Ziv theory of AD Wyner and J.Ziv "rate distortion function for source coding with side information at the decoder (The rate distortion function for source coding with side information at the decoder)" IEEE Trans . Inf . Theory , vol. 22, pp. 1-10, January 1976 issue. This theory solves the problem of source coordination with side information. Consider two correlated sources X and Y. Only when the decoder has access to source Y the encoder needs to compress the source X. The mean squared error is the distortion magnitude and X = Y + N, and the ratio-distortion performance for X coding is the same whether or not the encoder has access to Y.
최근에, Wyner-Ziv 프레임워크 사이에서 사이드-정보를 가진 소스 코딩의 원리에 기초해서, 접합 소스-채널 코딩 기술들이 드리프트의 문제를 해결하는 것을 제안하고 있다. 예를 들어, R. Puri 및 K. Ramchandran의 Allerton Conference on Communication , Control and Computing, 2002에서의 "PRISM: 분배된 압축 원리들에 기초한 새로운 견고성 비디오 코딩 아키텍처 (A New Robust Video Coding Architecture based on Distributed Compression Principles)"; A. Sehgal, A. Jagmohan, 및 N. Ahuja의 IEEE Trans . on Multimedia, vol. 6, pp.249-258, 2004에서의 "비디오의 Wyner-ziv 코딩: 오차 복구형 압축 프레임워크 (Wyner-ziv Coding of Video: An Error-Resilient Compression Framework)"; A. Aaron, S. Rane, R. Zhang, 및 B. Girod의 Proc . IEEE Data Compression Conf .,2003에서의 "비디오의 Wyner-Ziv 코딩: 압축 및 오차 복구에 대한 에플리케이션 (Wyner-Ziv Coding of Video: Applications to compression and error resilience)"; 및 A. Aaron, S. Rane, D. Rebollo-Monedero, 및 B. Girod의 Proc . IEEE Int . Conf . Image Proc ., 2003에서의 "비디오 파형들의 계통적 손실있는 순방향 오차 보호 (Systematic Lossy Forward Error Protection for Video Waveforms)" 를 참조한다.Recently, based on the principle of source coding with side-information between the Wyner-Ziv frameworks, junction source-channel coding techniques have been proposed to solve the problem of drift. For example, Allerton of R. Puri and K. Ramchandran Conference on Communication , Control and "PRISM: A New Robust Video Coding Architecture based on Distributed Compression Principles" in Computing , 2002; IEEE of A. Sehgal, A. Jagmohan, and N. Ahuja Trans . on Multimedia , vol. 6, pp. 249-258, 2004, "Wyner-ziv Coding of Video: An Error-Resilient Compression Framework"; Proc . In A. Aaron, S. Rane, R. Zhang, and B. Girod . IEEE Data Compression Conf . , "Wyner-Ziv Coding of Video: Applications to compression and error resilience" in 2003; And Proc . By A. Aaron, S. Rane, D. Rebollo-Monedero, and B. Girod . IEEE Int . Conf . Image Proc . See, "Systematic Lossy Forward Error Protection for Video Waveforms," in 2003.
R. Puri 및 K. Ramchandran의 Allerton Conference on Communication , Control and Computing, 2002에서의 "PRISM: 분배된 압축 원리들에 기초한 새로운 견고성 비디오 코딩 아키텍처 (A New Robust Video Coding Architecture based on Distributed Compression Principle)"; 및 A. Aaron, S. Rane, R. Zhang, 및 B. Girod의 Proc . IEEE DATA Compression Conf .,2003에서의 "비디오의 Wyner-Ziv 코 딩: 압축 및 오차 복구에 대한 에플리케이션 (Wyner-Ziv Coding of Video: Applications to compression and error resilience)"에서 설명된 코덱들은 예측 코딩 프레임워크를 피하는 완전한 (full-fledged) 비디오 코덱이다. Allerton by R. Puri and K. Ramchandran Conference on Communication , Control and "PRISM: A New Robust Video Coding Architecture based on Distributed Compression Principle" in Computing , 2002; And Proc . In A. Aaron, S. Rane, R. Zhang, and B. Girod . IEEE DATA Compression Conf . Codecs described in "Wyner-Ziv Coding of Video: Applications to compression and error resilience" in 2003, are full -fledged) Video codec.
한편, A. Sehgal, A. Jagmohan, 및 N. Ahuja의 IEEE Trans . on Multimedia, vol. 6, pp.249-258, 2004에서의 "비디오의 Wyner-ziv 코딩: 오차 복구형 압축 프레임워크 (Wyner-ziv Coding of Video: An Error-Resilient Compression Framework)"; 및 A. Aaron, S. Rane, D. Rebollo-Monedero, 및 B. Girod의 Proc . IEEE Int . Conf . Image Proc ., 2003에서의 "비디오 파형들의 계통적 손실있는 순방향 오차 보호 (Systematic Lossy Forward Error Protection for Video Waveforms)" 에서 설명된 코덱들은 예측 코딩 프레임워크를 유지하지만 여분의 정보를 송신해서 드리프트의 영향을 완화시킨다.Meanwhile, IEEE of A. Sehgal, A. Jagmohan, and N. Ahuja Trans . on Multimedia , vol. 6, pp. 249-258, 2004, "Wyner-ziv Coding of Video: An Error-Resilient Compression Framework"; And Proc . By A. Aaron, S. Rane, D. Rebollo-Monedero, and B. Girod . IEEE Int . Conf . Image Proc . The codecs described in "Systematic Lossy Forward Error Protection for Video Waveforms of Video Waveforms" in 2003 maintain a predictive coding framework but transmit extra information to mitigate the effects of drift.
이러한 발전에도 불구하고, 그러한 무선 채널들에 대해서 전송된 압축된 비디오 비트 스트림상에서의 패킷 손실의 영향을 완화시키는 것을 돕는 것에 의해서 무선 채널들에 대한 견고성 비디오 전달을 가능하게 할 뿐만 아니라, 다음의 요구사항을 만족시키는 기술이 필요하다.Despite these developments, in addition to enabling robust video delivery over wireless channels by helping to mitigate the effects of packet loss on the compressed video bit stream transmitted for such wireless channels, You need skills that satisfy your needs.
● 현존하는 압축 기술들로 작동될 수 있음.Can work with existing compression techniques.
● 낮은 프로세싱 레이턴시를 가짐.Low processing latency.
● 비디오 인코더와 디코더 사이에서의 드리프트를 빠르게 제거/감소시킴.• Quickly remove / reduce drift between video encoder and decoder.
● 비디오 코덱에 의해서 사용되는 것과 비교될 때 낮은 비트율을 요구함.Require a lower bit rate compared to that used by the video codec.
실시형태의 요약Summary of Embodiments
본 명세서에서 개시된 실시형태들은 채널 오차들 또는 패킷 손실들이 발생할 때 비디오 코딩 성능을 개선시키는 분배된 소스 코딩 기술들을 제공하는 것에 의해서 상기 필요를 만족시킨다.Embodiments disclosed herein satisfy this need by providing distributed source coding techniques that improve video coding performance when channel errors or packet losses occur.
다음의 용어들이 사용된다.The following terms are used.
● 주 스트림 : 예측 코덱들을 사용해서 압축된 비디오 데이터Main stream: video data compressed using predictive codecs
● 주 채널 : 주 스트림이 전송되는 논리 채널● Main channel: Logical channel through which the main stream is sent
● WyZER 스트림 : 분배된 코딩 원리들을 사용해서 구성된 Wyner Ziv Error Resilience 스트림● WyZER stream: Wy ner Z iv E rror R esilience stream composed using the distributed coding principles
● 보조 채널: WyZER 스트림이 전송된 논리 채널● Secondary channel: Logical channel through which the WyZER stream is sent
● 주 채널 인코더 : 주 스트림을 인코딩하는 데 사용된 인코더● Main Channel Encoder: the encoder used to encode the main stream
● 주 채널 디코더 : 주 스트림을 디코딩하는 데 사용된 디코더● main channel decoder: decoder used to decode the main stream
● WyZER 인코더 : WyZER 스트림을 인코딩하는 데 사용되는 인코더● WyZER encoder: Encoder used to encode the WyZER stream
● WyZER 디코더 : WyZER 스트림을 디코딩하는 데 사용되는 디코더● WyZER Decoder: Decoder used to decode WyZER streams
● 사이드 정보 : 수신기에서 프레임을 재구성하기 위해서 WyZER 디코더에 의해서 사용된 디코딩된 주 스트림 데이터Side information: Decoded main stream data used by the WyZER decoder to reconstruct a frame at the receiver.
● DSC : 분배된 소스 코딩 DSC: distributed source coding
채널 오차가 존재하는 디코더에서의 재구성된 비디오 프레임과 인코더에서의 비디오 프레임사이의 상호 관계가 평가된다. 일 실시형태에서, 상호 관계는 이산 코싸인 변환 (DCT : discrete cosine transform) 도메인에서 계산된다. 상호 관계는 2003년 3월 24일에 출원된, 발명 명칭이 "멀티미디어 전송을 위한 사이 드 정보를 인코딩하고 디코딩하는 방법, 장치 및 시스템 (Method, Apparatus and System for Encoding and Decoding Side Information for Multimedia Transmission)"인, 미국 특허 출원 번호 10/396,982에서 설명된 코세트 (coset) 를 찾는 데 사용될 수 있다.The correlation between the reconstructed video frame at the decoder with the channel error and the video frame at the encoder is evaluated. In one embodiment, the correlation is calculated in the discrete cosine transform (DCT) domain. The interrelationship was filed on March 24, 2003, entitled "Method, Apparatus and System for Encoding and Decoding Side Information for Multimedia Transmission". "Can be used to find the coset described in US Patent Application No. 10 / 396,982.
본 발명의 실시형태들은 오차 복구 스트림으로써 WyZER 스트림에 의해서 종래의 비디오 코덱에서의 드리프트 문제를 완화시키는 것을 도울 수 있다. 실시형태들은 여분의 정보를 송신하는 것에 의해서 드리프트를 제거하거나 감소시키는 것을 도울 수 있다. 예를 들면, 일 실시형태에서, WyZER 스트림이 비디오 품질을 개선하고 드리프트를 중지시키기 위해서 사용될 수 있는 보조 채널기술이 사용될 수 있다. 예측된 시퀀스와 원 시퀀스 사이의 상호 관계는 코드북을 설계하고 원 이미지를 나타내는데 요구되는 코세트 (coset) 들을 찾는데 사용될 수 있다. 이 정보는 다른 채널, 즉 제 2 채널에 대해서 송신될 수도 있다. 다른 실시형태에서, 요구되는 코세트들의 개수는 헤더 정보의 형태로 제 2 채널에 대해서 WyZER 디코더에 전달될 수 있다.Embodiments of the present invention may help to mitigate the drift problem in conventional video codecs by the WyZER stream as an error recovery stream. Embodiments can help eliminate or reduce drift by sending extra information. For example, in one embodiment, an auxiliary channel technique can be used in which the WyZER stream can be used to improve video quality and stop drift. The interrelationship between the predicted sequence and the original sequence can be used to find the corsets required to design the codebook and represent the original image. This information may be transmitted for another channel, namely the second channel. In another embodiment, the number of required corsets may be communicated to the WyZER decoder for the second channel in the form of header information.
일 실시형태에서, DSC를 사용해서, 비디오 시퀀스의 다른 기술이 수신기에서의 재구성된 비디오 프레임에서, 채널 손실들에 의해서 초래된, 오차들을 수정하기 위해서 사용될 수 있는 제 2 채널에 대해서 더 낮은 비율로 송신될 수 있다. 제 2 채널에 대해서 송신된 비트 스트림은 예측 디코더에 의해서 재구성된 비디오 프레임의 도움으로 디코딩될 수 있다. 결과적으로, 오차 전파의 영향은 완화될 수 있다.In one embodiment, using DSC, another technique of the video sequence is at a lower rate relative to the second channel that can be used to correct errors caused by channel losses in the reconstructed video frame at the receiver. Can be sent. The bit stream transmitted for the second channel can be decoded with the help of the video frame reconstructed by the prediction decoder. As a result, the influence of error propagation can be mitigated.
일 실시형태에서, 디코더가 오직 주 스트림 데이터만을 디코딩할 수 있다면, 디코더는 보조 채널상에 전송된 추가적 정보를 버릴 것이다. 디코더가 스트림 모두를 디코딩한다면, 디코더는 주 스트림 데이터를 먼저 디코딩하고 그 후 이 정보를 사용해서 WyZER 스트림 데이터를 디코딩하며 최종 재구성된 이미지를 사용자에게 준다.In one embodiment, if the decoder can only decode main stream data, the decoder will discard the additional information transmitted on the auxiliary channel. If the decoder decodes all of the streams, the decoder first decodes the main stream data and then uses this information to decode the WyZER stream data and give the user the final reconstructed image.
도면의 간단한 설명Brief description of the drawings
도 1 은 무선 통신 시스템의 블록도이다.1 is a block diagram of a wireless communication system.
도 2(a) 는 H.263+ 인코더 및 DSC 기술들로 인코딩된 비디오 시퀀스를 위한 잡음 비율 (PSNR) 대 프레임 개수로 피크 신호를 나타낸 도면이다.FIG. 2 (a) is a diagram illustrating a peak signal with noise ratio (PSNR) to frame number for a video sequence encoded with an H.263 + encoder and DSC techniques.
도 2(b) 는 H.263+ 인코더, FEC, 및 DSC 기술들로 인코딩된 비디오 시퀀스를 위한 PSNR 대 프레임 개수의 도면이다.2 (b) is a diagram of PSNR vs. frame number for a video sequence encoded with H.263 + encoder, FEC, and DSC techniques.
도 2(c) 는 H.263+ 인코더, FEC, 및 DSC 기술들로 인코딩된 다른 비디오 시퀀스를 위한 PSNR 대 프레임 개수의 도면이다.FIG. 2 (c) is a diagram of PSNR versus frame number for another video sequence encoded with an H.263 + encoder, FEC, and DSC techniques.
도 2(d) 는 H.263+ 인코더, FEC 및 DSC 기술들로 인코딩된 "Stefan"으로 명칭된 비디오 시퀀스를 위한 PSNR 대 오차 확률의 도면이다.FIG. 2 (d) is a diagram of PSNR versus error probability for a video sequence named “Stefan” encoded with H.263 + encoder, FEC and DSC techniques.
도 2(e) 는 H.263+ 인코더, FEC 및 DSC 기술들로 인코딩된 "Football"으로 명칭된 비디오 시퀀스를 위한 PSNR 대 오차 확률의 도면이다.2 (e) is a diagram of PSNR vs. error probability for a video sequence named “Football” encoded with H.263 + encoder, FEC and DSC techniques.
도 2(f) 는 FEC 및 DSC 기술들로 인코딩된 "Football" 비디오 시퀀스를 위한 평균 버스트 길이 대 PSNR 비율의 도면이다.2 (f) is a diagram of the average burst length to PSNR ratio for a “Football” video sequence encoded with FEC and DSC techniques.
도 3 은 DSC 기술들을 구현할 수 있는 무선 통신 시스템의 부분을 도시하는 블록도이다.3 is a block diagram illustrating a portion of a wireless communication system that can implement DSC techniques.
도 4 는 사이드-채널 인코더에 대한 인트라-프레임 비트 할당을 결정하는 실시형태를 도시하는 흐름도이다.4 is a flow diagram illustrating an embodiment for determining intra-frame bit allocation for a side-channel encoder.
도 5 는 사이드-채널 인코더에 의해서 사용될 수 있는 소스 코드북의 구분의 최대 개수를 결정하는 실시형태를 도시하는 흐름도이다.5 is a flow diagram illustrating an embodiment for determining the maximum number of divisions of a source codebook that can be used by the side-channel encoder.
도 6 은 WyZER 인코더의 블록도이다.6 is a block diagram of a WyZER encoder.
도 7 은 WyZER 디코더의 블록도이다.7 is a block diagram of a WyZER decoder.
상세한 설명details
현재의 비디오 코딩 표준은 비디오 신호들을 위한 좋은 압축 성능을 달성하기 위해서 예측 프레임워크를 사용한다. 그러한 압축 체계들의 예들은 MPEG-4, H.263+ 및 H.264를 포함한다. 하지만, 그러한 압축된 비트 스트림들은 오차가 있을 수 있는 채널들에 대해서 전송될 때, 비디오 품질은 도면 2(a)-(c) 에서 객관적 PSNR 메트릭 (metric) 을 사용해서 증명되듯이, 심각하게 훼손된다. 오차가 있을 수 있는 채널들의 예들은 cdma2000®, WCDMA, GSM 및 다른 이머징 무선 네트워크를 포함한다. 본 발명에서, 예측 코덱들을 사용해서 압축된 비디오 데이터는 "주 스트림"이라고 불리고 주 스트림이 전송되는 논리 채널은 "주 채널" 이라고 불린다.Current video coding standards use a prediction framework to achieve good compression performance for video signals. Examples of such compression schemes include MPEG-4, H.263 + and H.264. However, when such compressed bit streams are transmitted for channels that may be in error, video quality is severely compromised, as demonstrated by using an objective PSNR metric in FIGS. 2 (a)-(c). do. Examples of channels that may be in error include cdma2000®, WCDMA, GSM and other emerging wireless networks. In the present invention, video data compressed using prediction codecs is called a "main stream" and a logical channel through which the main stream is transmitted is called a "main channel".
채널 오차들의 부정적 효과들을 완화시키는 예들은 오차들을 가진 전송 유닛들의 재전송 (RLP 재전송, 하이브리드 ARQ등), 오차 복구 패킷화 (전송 유닛들에서 의미적으로 더 중요한 비트들이 더 큰 오차 방어로 공급되는 데이터 분배, 데이터 인터리빙 (data interleaving) 등), 손실된 소스 데이터의 범위를 제한하는 비트 스트림 신택스 (재동기화 마커, 가역 가변 길이 코딩화 RVLC (reversible variable length coding) 등) 를 포함한다.Examples of mitigating the negative effects of channel errors include retransmission of transmission units with errors (RLP retransmission, hybrid ARQ, etc.), error recovery packetization (data where the more significant bits in the transmission units are fed with greater error protection). Distribution, data interleaving, etc.), and bit stream syntax that limits the range of lost source data (resynchronization markers, reversible variable length coding, etc.).
본 발명에서, 개별적 비트 스트림은 오차 복구를 개선하기 위해서 주 스트림과 함께 사용되도록 생성된다. 이 스트림은 분배된 소스 코딩 원리들에 기초해서 비디오 데이터의 Wyner-Ziv 코딩을 사용해서 구성된다. 우리는 이 스트림을 Wyner Ziv Error Resilience 스트림 (WyZER 스트림) 이라 부른다. WyZER 스트림은 MPEG-4, H.263+ 및 H.264와 같은 비디오 코덱을 위해서 사용된 주 채널과는 다른 논리 채널, "제 2 채널" 상에서 송신된다. 예측 비디오 코더에 의해서 재구성된 비디오 프레임은 WyZER 스트림을 디코딩할 목적으로 WyZER 디코더에 사이드-정보로써 역할을 한다.In the present invention, individual bit streams are created for use with the main stream to improve error recovery. This stream is constructed using Wyner-Ziv coding of video data based on distributed source coding principles. We call this stream Wy ner Z ev er R e silience stream (WyZER stream). The WyZER stream is transmitted on a logical channel, " second channel, " different from the primary channel used for video codecs such as MPEG-4, H.263 + and H.264. The video frame reconstructed by the predictive video coder serves as side-information to the WyZER decoder for the purpose of decoding the WyZER stream.
본 발명의 다른 태양에 따르면, 기술들이 R. Zhang, S. L. Regunathan, 및 K. Rose의 Proc . 33 rd Ann . Asilomar Conf . on Sig . Syst . Comp ., 1999에서의 "인터넷을 통한 견고성 비디오 통신을 위한 최적의 인트라/인터 모드 스위칭 (Optimal intra/inter mode switching for robust video communication over Internet)" 에서 개시된 개념들의 일부를 사용해서 이산 코싸인 변환 (DCT) 도메인에서 프레임 자체와 잘못 재구성된 프레임 사이에의 상호 관계를 평가하기 위해서 제공된다.According to another aspect of the invention, the techniques are described in R. Zhang, SL Regunathan, and K. Rose Proc . 33 rd Ann . Asilomar Conf . on Sig . Syst . Comp . Discrete Cosine Transformation (DCT) using some of the concepts disclosed in 1999, "Optimal intra / inter mode switching for robust video communication over Internet." It is provided to evaluate the interrelationship between the frame itself and the misconstructed frame in the domain.
본 발명의 다른 태양에 따르면, WyZER 인코더는 DCT의 에너지 밀집 특성을 이용하기 위해서 DCT 도메인에서 동작한다. 사이드-채널 및 상호 관계 평가를 위해서 사용가능한 비율에 의존해서, 가능한 많은 DCT 계수들이, DC 및 저-주파수 계수에서 시작해서, 인코딩된다.According to another aspect of the invention, the WyZER encoder operates in the DCT domain to take advantage of the energy density characteristics of the DCT. Depending on the rate available for side-channel and correlation evaluation, as many DCT coefficients as possible, starting from DC and low-frequency coefficients, are encoded.
고객이 주 스트림 및 WyZER 스트림 모두에서 수신하지만 오직 주 스트림만을 디코딩할 수 있다면, (즉, MPEG-4 또는 H.263+ 또는 H.264 디코더와 같은, 예측 디코더만을 가지면), 고객은 오직 주 스트림을 디코딩하고 WyZER 스트림을 무시할 것이다. 예측 디코더 및 WyZER 모두를 가진 고객은, 비트 스트림들 모두를 디코딩할 수 있고, 따라서 오직 예측 디코더만 가진 고객보다 더 좋은 품질의 디코딩된 비디오를 수신할 수 있다.If the customer receives in both the main stream and the WyZER stream but can only decode the main stream (i.e. has only a predictive decoder, such as an MPEG-4 or H.263 + or H.264 decoder), then the customer only Will decode and ignore the WyZER stream. A customer with both a predictive decoder and a WyZER can decode all of the bit streams and thus receive a higher quality decoded video than a customer with only a predictive decoder.
A. Sehgal, A. Jagmohan, 및 N. Ahuja의 IEEE Trans . on Multimedia, vol. 6, pp.249-258, 2004에서의 "비디오의 Wyner-ziv 코딩: 오차 복구형 압축 프레임워크 (Wyner-ziv Coding of Video: An Error-Resilient Compression Framework)"; 및 A. Aaron, S. Rane, D. Rebollo-Monedero, 및 B. Girod의 Proc . IEEE Int . Conf . Image Proc ., 2003에서의 "비디오 파형들의 계통적 손실있는 순방향 오차 보호 (Systematic Lossy Forward Error Protection for Video Waveforms)"에서의 알고리즘 또한 보조 채널디코더에서 사이드 정보로써 예측 코더에 의해서 재구성된 잘못된 프레임을 사용하지만, 상기 문헌들에서 개시된 기술들과 본 발명 사이에는 많은 중요한 차이가 있다. 예를 들면, A. Sehgal, A. Jagmohan, 및 N. Ahuja의 IEEE Trans. on Multimedia, vol. 6, pp.249-258, 2004에서의 "비디오의 Wyner-ziv 코딩: 오차 복구형 압축 프레임워크 (Wyner-ziv Coding of Video: An Error-Resilient Compression Framework)"에서는, 저자들은 "페그 (peg)" 프레임들로써 일부 프레임들을 표시한다. 이 기술들은 오차 전파가 하나의 페그 프레임에서 다음 프레임으로 발생하는 것을 허용한다. 각각의 페그 프레임에서, 일부 여분의 정보가 인코더에서 디코더로 송신되며, 그것은 디코더가 페그 프레임에서 오차들을 수정하는 것을 허용한다.By A. Sehgal, A. Jagmohan, and N. AhujaIEEE Trans . on Multimedia, vol. 6, pp. 249-258, 2004, "Wyner-ziv Coding of Video: An Error-Resilient Compression Framework"; And by A. Aaron, S. Rane, D. Rebollo-Monedero, and B. GirodProc . IEEE Int . Conf . Image Proc .Algorithm in “Systematic Lossy Forward Error Protection for Video Waveforms of Video Waveforms,” in 2003, also uses wrong frames reconstructed by the predictive coder as side information in the auxiliary channel decoder, There are many important differences between the disclosed techniques and the present invention. For example, A. Sehgal, A. Jagmohan, and N. AhujaIEEE Trans. on Multimedia, vol. 6, pp. 249-258, 2004, in "Wyner-ziv Coding of Video: An Error-Resilient Compression Framework," authors write "peg" "Display some frames as frames. These techniques allow error propagation to occur from one peg frame to the next. In each peg frame, some extra information is sent from the encoder to the decoder, which allows the decoder to correct the errors in the peg frame.
대조적으로, 본 발명의 태양들은, 가능한 빨리, 드리프트, 즉 오차들을 중지시키고, 또는 감소시킨다. 이 방법으로, 비주얼 측면에서 중요한 다소 안정된 품질을 유지하는 것을 가능하게 한다.In contrast, aspects of the present invention stop or reduce drift, ie errors, as soon as possible. In this way, it becomes possible to maintain a rather stable quality, which is important in visual terms.
한편, A. Aaron, S. Rane, D. Rebollo-Monedero, 및 B. Girod의 Proc . IEEE Int. Conf . Image Proc ., 2003에서의 "비디오 파형들의 계통적 손실있는 순방향 오차 보호 (Systematic Lossy Forward Error Protection for Video Waveforms)"에서는, 비디오 시퀀스의 독립적 기술 (description) 이 각각의 프레임으로, 하지만 더 조악한 양자화 (quantization) 로 송신된다. 이 더 조악한 기술은 Wyner-Ziv 프레임워크를 사용해서 코딩되고 사이드-정보로써 역할을 하는 디코더에서 오차있는 프레임의 도움으로 디코딩될 수 있다. 따라서, 상기 문서의 방법은, 그 방법이 잘해야 조악한 기술을 회복할 수 있기 때문에 드리프트를 중지시키려고 시도하지 않는다. 상기 문서에서 설명된 기술들은 또한 픽셀 도메인에서 작용하며 DCT 도메인에서 작용하지 않으며, 따라서 공간적 상호 관계를 활용하는 것을 포기한다.Meanwhile, A. Aaron, S. Rane, D. Rebollo-Monedero, and B. Girod's Proc . IEEE Int. Conf . Image Proc . In 2003, "Systematic Lossy Forward Error Protection for Video Waveforms," an independent description of the video sequence is transmitted in each frame, but with coarser quantization. do. This coarser technique can be coded using the Wyner-Ziv framework and decoded with the help of error frames in a decoder that acts as side-information. Thus, the method of the document does not attempt to stop the drift because the method may at best recover poor technology. The techniques described in this document also work in the pixel domain and do not work in the DCT domain, thus giving up taking advantage of spatial interrelationships.
사이드 정보를 가진 소스 코딩을 위해서, 디코더가 소스와 사이드-정보 사이에서 상호 관계 잡음 N을 받기 쉬운 인코딩된 코드워드 (codeword) 를 디코딩할 수 잇는 것이 필요한 반면에, 인코더는 왜곡 제약 하에서 소스를 인코딩하는 것이 필 요하다. Wyner 및 Ziv에 의해서 증명된 결과들이 본질적으로 점근적 (asymptotic) 이며 비-해석적 (non-constructive) 이지만, 이 문제를 해결하는 많은 해석적 방법들이 이후에 제안되어 왔으며 여기에서 소스 코드북이 상호 관계 잡음 N에 일치되는 채널 코드의 코세트들에 분배된다. 분배들 또는 코세트들의 개수는 N의 통계에 의존한다.For source coding with side information, it is necessary for the decoder to be able to decode an encoded codeword susceptible to correlation noise N between the source and side-information, while the encoder encodes the source under distortion constraints. It is necessary to do. Although the results demonstrated by Wyner and Ziv are inherently asymptotic and non-constructive, many interpretative methods to solve this problem have since been proposed, where the source codebook is interrelated. It is distributed to the corsets of the channel code that match the noise N. The number of distributions or corsets depends on the statistics of N.
도 1 은 일 실시형태에 따른 무선 채널에 대한 인코딩된 비디오의 태양을 도시하는 시스템 블록도이다. 시스템은, 무선 주 채널 (25) 을 통해서 예측 디코더 (20) 에 비트 스트림을 통신하는, 프레임 버퍼를 포함하는, 예측 인코더 (10), 및 무선 보조 채널(45) 을 통해서 보조 채널(WyZER) 디코더 (40) 에 비트 스트림을 통신하는 보조 채널(WyZER) 인코더 (30) 로 구성된다.1 is a system block diagram illustrating aspects of encoded video for a wireless channel according to one embodiment. The system includes a
도 1 에서, 예측 디코더 (20) 는 무선 채널 (25) 을 통해서 예측 인코더 (10) 로부터 비트 스트림을 수신하며 인코더 (10) 에 대한 비디오 신호 X 입력의 표현인 신호 를 재구성한다. 예측 디코더 (20) 재구성된 비트 스트림, 는 무선 채널을 통해서 비트 스트림의 전송에서의 오차들에 의해서 영향을 받을 수도 있다. 재구성된 신호 는 최종 재구성으로써 를 출력하는 WyZER 디코더 (40) 에 대한 사이드 정보로써 역할을 한다.In FIG. 1,
입력 비디오 신호 X는 일 실시형태에서 예측 인코더 (10) 에 의해서 인코딩된 현재의 비디오 신호이며, 예측 인코더 (10) 은 입력 비디오 신호를 압축시키고 이동 평가 (ME ; Motion Estimation) 및 변위된 프레임 차이 (DFD : Displaced Frame Difference) 의 변환과 같은, 기술들에 기초하여 압축된 비트 스트림을 송신할 수도 있다. WyZER 인코더 (30) 은 Wyner-Ziv 프레임워크를 사용해서 X의 독립적 기술을 WyZER 디코더 (40) 로 송신한다.The input video signal X is, in one embodiment, the current video signal encoded by the
WyZER 디코더 (40) 는 그 후 제 2 채널을 통해서 송신된 비트 스트림을 디코딩하고, 재구성된 신호 를 사용해서, 로써 비디오 신호 X의 최종 재구성 을 출력한다. 최종 재구성된 신호 는, 전술한 바와 같이, WyZER 디코더 (40) 가 무선 채널을 통한 비트 스트림의 전송 동안 발생하는 일부 오차들을 수정할 수 있기 때문에, 재구성된 신호 보다 통상적으로 더 좋은 원 비디오 신호 X의 재구성이 될 것이다. 최종 재구성 신호 는 예측 디코더 (20) 의 프레임 버퍼에 다시 기록될 수도 있다.
이 실시형태에서, WyZER 인코더 (30) 의 설계의 목적으로, WyZER 인코더에 할당된 비율은 고정되며, 상호 관계 구조는 X = + Z가 되며, 여기에서, X 는 원 입력 신호를 나타내며, 는 예측 디코더에 의한 원 신호 X의 재구성을 나타내며, Z는 상호 관계 노이즈 벡터를 나타내도록 가정된다.In this embodiment, for the purpose of designing the
또한, 이 실시형태에서, 이산 코싸인 변환 (DCT) 도메인에서 동작이 실행되기 때문에, 상호 관계 노이즈 벡터 Z의 성분들이 독립적이라고 가정된다. 성분들은, 동일한 차이를 가진 (variance) 분산으로, 가우시안 (Gaussian) 은 최대 엔트로피를 가지며 그것으로써 최악 경우 분석을 제공하기 때문에, 분산된 가우시안 으로 모델링될 수 있다. WyZER 인코더 (30) 은, X에서 각각의 성분에 대해서, 소스 코드북의 분배의 개수, 즉, 코세트의 개수를 찾는 것이 필요하며, 따라서 WyZER 인코더 (30) 는 Z의 각각의 성분의 변이를 인지하는 것이 필요하다. 이 변이들을 찾기 위해서, 상호 관계 평가 기술들이 이하에서 설명되는 바와 같이 사용될 수 있다.Also, in this embodiment, since the operation is performed in the discrete cosine transform (DCT) domain, the components of the correlation noise vector Z are assumed to be independent. The components can be modeled as distributed Gaussian, with Gaussian having maximum entropy and thereby providing worst case analysis, with variance variance with equal differences.
예를 들면, 일 실시형태에서, 상호 관계 평가 알고리즘은 R. Zhang, S. L. Regunathan, 및 K. Rose의 Proc . 33 rd Ann . Asilomar Conf . on Sig . Syst . Comp., 1999에서의 "인터넷을 통한 견고성 비디오 통신을 위한 최적의 인트라/인터 모드 스위칭 (Optimal intra/inter mode switching for robust video communication over Internet)" 에서 제시된 알고리즘의 일부 태양을 이용한다. 하지만, 상기 문헌과 달리, 본 발명의 실시형태는 DCT 도메인에서 구현된다. 주 채널 및 보조 채널모두에 대해서, 두개의 채널상에서의 패킷 소멸은 독립적이며, 패킷들은 독립적으로 디코딩될 수 있다고 가정된다. 패킷 손실의 가능성은 블록에 대한 정보의 손실의 가능성과 동일하다고 가정된다. 블록이 손실될 때 예측 디코더는 블록을 이전 프레임에서의 동일한 위치의 프레임 메모리에서의 블록으로 대체한다. 주 채널 및 보조 채널상의 패킷 손실 가능성은, 각각, p 및 q로 표시된다.For example, in one embodiment, the correlation evaluation algorithm is described in R. Zhang, SL Regunathan, and K. Rose's Proc . 33 rd Ann . Asilomar Conf . on Sig . Syst . Comp ., 1999, employs some aspects of the algorithm presented in "Optimal intra / inter mode switching for robust video communication over Internet." However, unlike the above documents, embodiments of the present invention are implemented in the DCT domain. For both primary and secondary channels, packet extinction on both channels is independent and it is assumed that packets can be decoded independently. The probability of packet loss is assumed to be equal to the probability of loss of information for the block. When a block is lost, the prediction decoder replaces the block with a block in frame memory at the same location in the previous frame. The probability of packet loss on the primary and secondary channels is denoted by p and q, respectively.
"멀티미디어 통신을 위한 사이드 정보를 인코딩하고 디코딩하는 방법, 장치 및 시스템 (Method, Apparatus and System for Encoding and Decoding Side Information for Multimedia Transmission)"으로 불리는, 공동 출원중인 미국 출원 번호 10/396,982에서 설명된 바와 같이, WyZER 인코더는 WyZER 디코더에 코세트 인 덱스를 통신할 수 있다. WyZER 디코더는 그 후 인덱스를 디코딩하여 함께 사이드 정보를 표상하는 코드워드 (codeword) 를 포함하는 코세트를 식별한다. 일 실시형태에서, S. S. Pradhan 및 K. Ramchandran의, Proc . IEEE DATA Compression Conf ., 1999에서의 "신드롬을 이용한 분산된 소스 코딩 (DISCUS) : 설계 및 구성 (Distributed source coding using syndromes (DISCUS) : Design and construction)"에서 개시된 개념들이 사용될 수 있다. 통상적으로, 소스 코드북은 임의의 채널 코드의 코세트들로 분배될 수 있다.As described in co-pending US Application No. 10 / 396,982, referred to as "Method, Apparatus and System for Encoding and Decoding Side Information for Multimedia Transmission". Likewise, the WyZER encoder can communicate the corset index to the WyZER decoder. The WyZER decoder then decodes the index to identify a corset containing a codeword that together represent side information. In one embodiment, SS Pradhan and K. Ramchandran, Proc . IEEE DATA Compression The concepts disclosed in Conf ., 1999, "Distributed source coding using syndromes (DISCUS): Design and construction" can be used. Typically, the source codebook may be distributed into corsets of any channel code.
WyZER 인코더의 상세한 블록도가 도 6 에 도시된다. WyZER 인코더는 3 개의 블록들, 왜곡 통계 계산기, 코세트 인코더 및 프레임 통계 계산기로 구성된다. WyZER 인코더는 디코더에서 비디오 프레임의 예측된 재구성 및 현재 비디오 프레임 데이터를 사용하여 상호 관계 노이즈의 통계를 계산한다. 이 통계들은 코세트 인코더에 의해서 사용되며 WyZER 비트 스트림을 발생시킨다. WyZER 인코딩 후에 프레임 통계가 업데이트되며 따라서 프레임 통계들은 다음 프레임에서 사용될 수 있다.A detailed block diagram of the WyZER encoder is shown in FIG. The WyZER encoder consists of three blocks, a distortion statistics calculator, a corset encoder and a frame statistics calculator. The WyZER encoder uses the predicted reconstruction of the video frame and the current video frame data at the decoder to calculate statistics of correlation noise. These statistics are used by the corset encoder and generate a WyZER bit stream. Frame statistics are updated after WyZER encoding so frame statistics can be used in the next frame.
도 7 은 WyZER 디코더의 블록도를 도시한다. 코세트 비트들 및 코세트 인덱스 정보로 구성된 WyZER 비트들이 (주 디코더로부터의) 사이드 정보와 함께 사용되어 WyZER 디코딩된 출력을 발생시킨다.7 shows a block diagram of a WyZER decoder. WyZER bits consisting of corset bits and corset index information are used with side information (from the main decoder) to generate a WyZER decoded output.
R. Zhang, S. L. Regunathan, 및 K. Rose의 Proc. 33rd Ann.Asilomar Conf. on Sig. Syst. Comp., 1999에서의 "인터넷을 통한 견고성 비디오 통신을 위한 최적의 인트라/인터 모드 스위칭 (Optimal intra/inter mode switching for robust video communication over Internet)"의 표기법에 따라서, 는 nth 프레임의 kth 블록에서의 지그-재그 스캔 순서로 ith DCT 계수의 원 값이 된다. 는 인코더 재구성값을 나타내며, 즉, 는 의 양자화 표현이다. 예측 디코더에 의해서 로써 이 계수들이 재구성되게 한다. 재구성 는 인코더에 대한 임의의 변수이다.R. Zhang, SL Regunathan, and K. Rose Proc. 33rd Ann. Asilomar Conf. on Sig. Syst. In accordance with the notation of "Optimal intra / inter mode switching for robust video communication over Internet" in Comp., 1999, Is the original value of the i th DCT coefficient in the zig-zag scan order in the k th block of the n th frame. Denotes the encoder reconstruction value, i.e. Is Is a quantized representation of. By predictive decoder This allows these coefficients to be reconstructed. Reconstruction Is any variable for the encoder.
어떠한 제 2 채널도 없는 상황을 고려한다. 두가지 경우, 블록이 코딩된 인트라 (I 블록) 또는 인터 (예측, 즉 P 블록) 의 경우가 존재한다. I 블록은 자기-포함적 (self-contained) 이며, 즉, 데이터의 하나의 완벽한 블록이 되게하거나, 또는 표시하기 위해서 필요한 모든 정보를 포함한다. P 블록은 자기-포함적이 아니며 이동 벡터들 및 미분 텍스처 (texture) 정보와 같은, 이전 프레임에 대한 미분 정보를 통상적으로 포함할 것이다. p는 채널 오차들로 인해서 정보 유닛이 손실되는 가능성이라고 고려된다. 또한, 손실된 정보 유닛에 대응하는 이 영역은 이전에 재구성된, 공통-위치된 비디오에 의해서 채워진다고 가정한다. 그 후, 블록이 인트라-코딩되었다면,Consider the situation where there is no second channel. In both cases, there are cases where a block is coded intra (I block) or inter (prediction, ie P block). I blocks are self-contained, that is, they contain all the information needed to be or represent one complete block of data. The P block is not self-inclusive and will typically include differential information for the previous frame, such as motion vectors and differential texture information. p is considered the possibility that an information unit is lost due to channel errors. It is also assumed that this area corresponding to the lost information unit is filled by the previously reconstructed, co-located video. Then, if the block is intra-coded,
식 (1) Formula (1)
블록이 인터(예측)-코딩되었다면,If the block is inter-coded,
식 (2) Formula (2)
이며, 여기에서, 는 의 예측이며, 즉, nth 프레임에서 kth 블록에 대한 가장 좋은 예측은 (n-1)th 프레임에서의 jth 블록이다. 블록이 손실될 때, 블록은 이전 프레임에서 동일한 위치에서의 블록으로 대체된다. 특정 블록에 대한 예측 비트 스트림이 오차없이 수신되더라도, 는 와 동일하지 않으며, 즉, 블록은 그럼에도 불구하고 이전 오차들이 존재하기 때문에 오차가 있을 수도 있다. 이러한 경우에 대한 예상된 왜곡은 다음과 같다.Where, Is And the prediction, that is, the best prediction for the k th block in the n th frame (n-1) is the j th block in the th frame. When a block is lost, the block is replaced with the block at the same position in the previous frame. Even if the prediction bit stream for a particular block is received without error, Is Is not the same, i.e., the block may nevertheless exist because previous errors exist. The expected distortion for this case is as follows.
식 (3) Formula (3)
예상된 왜곡, 는 블록에서 모든 DCT 계수들에 대해서 계산될 수 있으며 WyZER 인코더는 이 수정을 위해서 인코딩해야한다. 목적은 잘못 재구성된 DCT 계수들을 오차없는 양자화된 표현으로 개량해서 드리프트를 중지시키는 것이다. 하지만, 제 2 채널의 비율 제약이 주어진 모든 계수들을 인코딩하는 것은 가능하지 않을 수도 있다. 여기에서 올바른 접근 방법은 예상된 왜곡을 최소화시키는 DCT 계수들의 서브세트를 개량하는 가능한 비율을 사용하는 것이다. 하지만, 모든 블록에 대한 이러한 최적화를 수행하는 것은 매우 복잡하다. 오프라인 테 스트에 기초할 때 가장 좋은 전략은 대부분의 시간에서 더 높은 주파수 계수들을 개량하기 전에 더 낮은 주파수 계수들을 개량하는 것이다. 이것은 또한 비주얼 관점에서 의미가 있다. 따라서, 온라인 알고리즘에 대해서, 제 2 채널에 대한 주어진 비율하에서 수용될 수 있는 오직 m개의 가장 낮은 주파수 DCT 계수들이 전송되었다. 이러한 m개의 DCT 계수들에 대해서, WyZER 디코더는, 주 스트림 및 WyZER 스트림 모두가 도달할 때 디코더에서 계수들의 인코더 재구성을 회복할 것이다. 이 m개의 DCT 계수들에 대해서, 디코더에서의 재구성은 다음과 같을 것이다.Expected distortion, Can be calculated for all DCT coefficients in the block and the WyZER encoder must encode for this modification. The goal is to stop drift by improving misreconstructed DCT coefficients into error-free quantized representations. However, it may not be possible to encode all coefficients given the ratio constraint of the second channel. The correct approach here is to use a possible ratio that refines the subset of DCT coefficients that minimizes the expected distortion. However, performing this optimization for every block is very complicated. The best strategy when based on offline testing is to improve the lower frequency coefficients before improving the higher frequency coefficients most of the time. This is also meaningful from a visual point of view. Thus, for the on-line algorithm, only the m lowest frequency DCT coefficients that were acceptable under the given rate for the second channel were transmitted. For these m DCT coefficients, the WyZER decoder will recover the encoder reconstruction of the coefficients at the decoder when both the main stream and the WyZER stream arrive. For these m DCT coefficients, the reconstruction at the decoder would be as follows.
식 (4) Formula (4)
WyZER 인코더에 의해서 인코딩되지 않은 남아있는 DCT 계수들에 대해서, 는 상기 식 (2) 에 의해서 주어진다.For remaining DCT coefficients that are not encoded by the WyZER encoder, Is given by the above formula (2).
식 (3) 을 사용해서 예상된 왜곡 을 계산하기 위해서, ( 및 는 이미 인코더에 인지되었기 때문에) 및 을 계산하는 것이 필요하다. 식 (1), (2) 및 (4) 는 및 를 및 와 관계되도록 사용될 수 있다. 이렇게 WyZER 인코더는 (R. Zhang, S. L. Regunathan, 및 K. Rose의 Proc. 33rd Ann. Asilomar Conf. on Sig. Syst. Comp., 1999에서의 "인터넷을 통한 견고성 비디오 통신을 위한 최적의 인트라/인터 모드 스위칭 (Optimal intra/inter mode switching for robust video communication over Internet)"에 의해서 사용된 알고리즘과 유사한) 단순한 귀납 알고리즘을 사용해서 및 를 계산하고 이렇게 식 (3) 을 사용해서 을 계산할 수 있다. 인코딩의 목적으로, 예측 인코더는 프레임을 비-중첩 공간 블록들의 그리드 (grid) 로 나누는 것을 주의한다. 예측 블록 (상기 분석에서 (n-1)th 프레임에서의 jth 블록) 이 비-중첩 블록들의 이러한 그리드로 정렬되지 않는다면, (j 는 (n-1)th 프레임에서 명확한 블록이 아니기 때문에) WyZER 인코더는 (n-1)th 프레임을 인코딩하는 동안 및 의 값들을 저장하지 않을 것이다. 이 경우에서, 명확한 블록 (valid block) 인 (n-1)th 프레임에서 j 블록에 대한 최대 중첩을 가진 블록이 계산에서 사용된다. 대신에, jth 블록을 중첩하는 (n-1)th 프레임에서의 대응하는 블록들의 가중치 부여된 평균이 또한 사용될 수 있다.Expected Distortion Using Equation (3) To calculate, And Is already known to the encoder) And It is necessary to calculate. Formulas (1), (2) and (4) are And To And Can be used to relate to This WyZER encoder is described in (R. Zhang, SL Regunathan, and K. Rose, Proc. 33rd Ann. Asilomar Conf. On Sig. Syst. Comp., 1999, "Optimal Intra / Inter for Robust Video Communication over the Internet. Using a simple induction algorithm (similar to the algorithm used by "Optimal intra / inter mode switching for robust video communication over Internet") And Calculate and use equation (3) Can be calculated. For the purpose of encoding, the prediction encoder is careful to divide the frame into a grid of non-overlapping spatial blocks. If the prediction block (j th block in (n-1) th frame in the analysis) is not aligned with this grid of non-overlapping blocks, then WyZER (because j is not an explicit block in (n-1) th frame) While the encoder encodes (n-1) th frames And It will not store the values of. In this case, the block with the maximum overlap for the j block in the (n-1) th frame, which is a valid block, is used in the calculation. Instead, a weighted average of the corresponding blocks in the (n-1) th frame overlapping j th blocks can also be used.
상호 관계 노이즈 평가 () 는 코세트의 개수 또는 소스 코드북의 분배의 개수를 결정한다. 이 정보, 코세트의 개수는 헤더 정보의 형태로 제 2 채널을 통해서 WyZER 디코더에 통신할 수 있다. 헤더의 크기를 제한하기 위해서, 코세 트의 개수가 취할 수 있는 가능한 값은, 각각의 계수에 대해서, 제한될 수도 있다. 가능한 값들에 대한 제한은 광범위한 테스트에 기초할 수도 있다.Correlation Noise Evaluation ( ) Determines the number of corsets or the number of distributions of the source codebook. This information, the number of corsets, can communicate to the WyZER decoder via the second channel in the form of header information. In order to limit the size of the header, the possible values that the number of corsets can take may be limited for each coefficient. The limitation on possible values may be based on extensive testing.
도 2(a)-(f) 는 전술한 WyZER 코덱의 효율성을 입증하는 다양한 성능 비교에 대한 시물레이션 결과의 그래프이다. 시물레이션에 대해서, 당업자에게 공지된, 표준 비디오 시퀀스들은 예측 비디오 코덱으로 사용된 H.263+ 코더로 인코딩되었다. 제 2 채널은 주 채널 상에서 약 30%의 비율로 할당된다.2 (a)-(f) are graphs of simulation results for various performance comparisons demonstrating the effectiveness of the WyZER codec described above. For the simulation, standard video sequences, known to those skilled in the art, were encoded with an H.263 + coder used as the predictive video codec. The second channel is allocated at a rate of about 30% on the primary channel.
도 2(a) 는 전술한 DSC 기술들 (204) 및 H.263+ 인코더 (202) 로 인코딩된 비디오 시퀀스에 대한 노이즈 비율 (PSNR) 대 프레임 개수의 피크 신호의 도면이다. 도 2(a) 에서, 표준 "Flower Garden" 비디오 시퀀스 (352x240, 15 fps, 29개의 인트라 프레임이 뒤따르는 1 개의 인트라 프레임) 의 3번째 프레임은 하락되어 있다. 공정한 비교를 위해서, H.263+은 동일한 크기의 여분의 비율로 보충된다. 도 2(a) 는 DSC 기술들을 가진 경우, PSNR은, 30번째 프레임 시퀀스의 종결시까지 H.263+ 보다 약 7-8dB 더 좋게, 드리프트가 수정되기 때문에, 하락되어있는 프레임에 이어서 꾸준하게 증가시킨다.FIG. 2 (a) is a diagram of a peak signal of noise ratio (PSNR) to frame number for a video sequence encoded with the DSC techniques 204 and H.263 + encoder 202 described above. In Figure 2 (a), the third frame of the standard "Flower Garden" video sequence (352x240, 15 fps, one intra frame followed by 29 intra frames) is dropped. For a fair comparison, H.263 + is supplemented with an extra proportion of the same size. Figure 2 (a) shows that with DSC techniques, the PSNR increases steadily following the dropped frame because the drift is corrected, about 7-8 dB better than H.263 + until the end of the 30th frame sequence. .
전술한 DSC 기술들은 CDMA 2000 1X 표준 5를 따르는 무선 네트워크를 통해서 송신되는 멀티미디어 데이터 스트림들에 패킷 오차들을 추가하는 무선 채널 시물레이터를 사용해서 또한 테스트되었다. 이러한 테스트를 위해서, DSC 기술은 보조 채널상의 일부분의 비율이 순방향 수정 코덱 (FEC)에 할당되도록 하고 남아있는 부분은 WyZER 스트림에 할당되도록 변형되었다. 이것을 하는 이유는, FEC가 사용되는 경우와는 다르게, WyZER 스트림은 손실로부터 즉시 회복될 수 없으며 (도 2(a) 참조) 소멸의 개수가 FEC의 수정 성능보다 더 적기 때문이다. 이것은 비주얼 및 PSNR 관점 모두에서 중요하다. 하지만, 전술한 바와 같이, 그것이 오차 회복을 보장하지 않기 때문에, 사이드-채널에 대한 전체 비율이 FEC들에 할당되지 않는다. 이것은 큰 오차 버스트를 종종 가지는 무선 채널들에 대해서 특히 해당된다.The aforementioned DSC techniques have also been tested using a wireless channel simulator that adds packet errors to multimedia data streams transmitted over a wireless network conforming to the CDMA 2000
도 2(b) 는 전술한 H.263+ 인코더 (212), FEC (214), 및 DSC 기술 (216) 로 인코딩된 비디오 시퀀스에 대한 PSNR 대 프레임 개수의 도면이다. 도 2(b) 를 생성할 때 사용된 표준 비디오 시퀀스는 "Stefan" 비디오 시퀀스 (352x240, 15 fps, 1 GOP) 이다. 도 2(b) 에서, 비교된 3 개의 다른 인코딩 기술들이 다음과 같다.FIG. 2 (b) is a diagram of PSNR versus frame number for video sequences encoded with the H.263 + encoder 212, FEC 214, and DSC technique 216 described above. The standard video sequence used when generating FIG. 2 (b) is a “Stefan” video sequence (352 × 240, 15 fps, 1 GOP). In FIG. 2 (b), the three different encoding techniques compared are as follows.
1) 주 및 제 2 채널에 할당된 전체에 동일한 비율로 인코딩된 H.263+ (커브 (212)) 1) H.263 + (curve 212) encoded in equal proportions in total assigned to primary and secondary channels
2) FEC (Reed-Solomon 코드를 사용) 에 할당된 풀 보조 채널(커브 (214)), 및 2) the full auxiliary channel (curve 214) assigned to the FEC (using Reed-Solomon code), and
3) 보조 채널상에 비율의 일부를 FEC (RS 코드들이 다시 사용) 에 할당하는 것에 의해서 수정되는, 제안된 알고리즘 (커브 (216)).3) The proposed algorithm (curve 216), which is modified by assigning a portion of the ratio to the FEC (RS codes are used again) on the auxiliary channel.
FEC 및 DSC 기술들 모두에 대해서, 상기 (2) 및 (3) 에 대해서, 레이턴시 제약은 1 프레임이다. 테스트들은 (3) 의 경우에 WyZER 스트림과 FEC 사이에서 적절한 비율 배분을 찾기 위해서 수행되었다. 대부분의 경우에, FEC 및 WyZER 스트림에 대략 같은 비율로 할당하는 것이 가장 좋았으며, 이것이 여기에서 나타내 진 결과에 대한 셋업이다. 주 및 WyZER 스트림은 동일한 (시물레이션된) 무선 채널에 대해서 송신되었다.For both FEC and DSC techniques, for (2) and (3) above, the latency constraint is one frame. Tests were performed in the case of (3) to find the proper ratio allocation between the WyZER stream and the FEC. In most cases, it was best to allocate approximately equal proportions to the FEC and WyZER streams, which is the setup for the results presented here. The main and WyZER streams were transmitted on the same (simulated) radio channel.
도 2(b) 에서 도시된 Stefan 시퀀스의 경우에서, 제시된 WyZER (216) 방법은, 오직 FEC 만의 경우 (214) 보다 2.9dB 높으며, 베이스라인 H.263+보다 5.2dB 높은 평균 PSNR을 달성하면서, 다른 것들보다 뛰어나다 (커브 212).In the case of the Stefan sequence shown in FIG. 2 (b), the WyZER 216 method presented is 2.9 dB higher than 214 for FEC only and achieves an average PSNR of 5.2 dB higher than baseline H.263 +, Better than others (curve 212).
도 2(c) 는 전술한 H.263+ 인코더 (222), FEC (224), 및 WyZER 기술 (226) 로 인코딩된 다른 비디오 시퀀스에 대한 PSNR 대 프레임 개수의 도면이다. 도 2(c) 를 만들때 사용된 표준 비디오 시퀀스는 "Football" 비디오 시퀀스 (352x240, 15 fps, 1 GOP) 이다. 도 2(c) 는 8.5%의 패킷 손실 비율에 대해서, Stefan 및 Football 시퀀스 (352x240, 15 fps, 1 GOP) 의 통상적 성능을 보여준다.FIG. 2 (c) is a diagram of PSNR vs. frame number for another video sequence encoded with H.263 + encoder 222,
도 2(c) 에서, 제안된 DSC 기술 (226) 의 PSNR은 프레임 23 및 26 에서, 2 개의 큰 하강을 가지지만, 둘 모두의 경우에서 빠르게 회복된다. 이 테스트에 대한 WyZER 기술 (226) 에 대한 평균 PSNR 은 FEC 만의 경우 (224) 보다 3.1 dB 높으며, 베이스라인 H.263+ 보다 5.6 dB 높다 (커브 (222)).In Figure 2 (c), the PSNR of the proposed DSC technique 226 has two large drops, in frames 23 and 26, but recovers quickly in both cases. The average PSNR for the WyZER technique 226 for this test is 3.1 dB higher than 224 for FEC only and 5.6 dB higher than baseline H.263 + (curve 222).
도 2(d) 는 H.263+ 인코더 (232), FEC (234), 및 DSC 기술 (236) 으로 인코딩된 비디오 시퀀스 "Stefan"에 대한 PSNR 대 오차 확률의 도면이다. 도 2(e) 는 H.263+ 인코더 (242), FEC (244), 및 DSC 기술 (246) 로 인코딩된 비디오 시퀀스 "Football"에 대한 PSNR 대 오차 확률의 도면이다. 도 2(d) 및 2(e) 에 도시된 바와 같이, 인코딩의 3가지 방법의 통상적 성능에서, 본 발명의 방법들은 다른 두가지 방법보다 일관적으로 뛰어나다. 결과들이 SIF (352x240) 시퀀스에 대해서 오직 주어지지만, 유사한 양상이, QCIF, CIF 같은, 다른 공간 크기의 비디오 시퀀스에 대해서 관찰된다.FIG. 2 (d) is a plot of PSNR versus error probability for video sequence “Stefan” encoded with H.263 + encoder 232, FEC 234, and DSC technology 236. 2 (e) is a plot of PSNR vs. error probability for video sequence “Football” encoded with H.263 + encoder 242, FEC 244, and DSC technology 246. As shown in Figures 2 (d) and 2 (e), in the conventional performance of the three methods of encoding, the methods of the present invention are consistently superior to the other two methods. Results are given only for the SIF (352x240) sequence, but a similar aspect is observed for other spatial size video sequences, such as QCIF, CIF.
실험들이 버스트 길이의 성능에 대한 영향을 연구하기 위해서 수행되어왔다. 도 2(f) 는 FEC (252) 및 DSC (254) 로 인코딩된 "Football" 비디오 시퀀스 (176x144, 15fps, 30 프레임) 에 대한 PSNR 대 평균 버스트 길이의 도면이다. 도 2(f) 에 도시된 바와 같이, 평균 버스트 길이가 0.6 보다 크다면, 본 발명에 따른 기술들 (254) 은 FEC (252) 만의 경우보다 뛰어나지만, 버스트 길이가 0.6 보다 작다면, FEC만의 경우보다 열악하다.Experiments have been performed to study the effect of burst length on performance. FIG. 2 (f) is a plot of PSNR versus average burst length for a “Football” video sequence (176 × 144, 15 fps, 30 frames) encoded with FEC 252 and DSC 254. As shown in FIG. 2 (f), if the average burst length is greater than 0.6, the techniques 254 according to the present invention are superior to the case of FEC 252 alone, but if the burst length is less than 0.6, only FEC Worse than the case.
따라서 상술한 기술들을 사용한 시물레이션 결과는 공평한 레이턴시 제약하에서 순방향 오차 수정 코덱과 같은 종래의 오차 보호 체계를 통해서 성능면에서 중요한 진전을 보여준다.Therefore, simulation results using the above-described techniques show significant progress in performance through conventional error protection schemes such as forward error correction codecs under fair latency constraints.
설명된 DSC 기술들은 많은 무선 장치들 및 무선 표준으로 동작할 수도 있다. 설명된 DSC 기술들을 구현할 수 있는 무선 장치들의 예들이 휴대 전화, 무선 통신 가능 PC, 개인 휴대용 정보 단말기 (PDA), 및 다른 무선 장치들을 포함한다. 설명된 DSC 기술들이 작동할 수 있는 무선 표준들의 예는 이동 통신을 위한 글로벌 시스템 (GSM : Global System for Mobile Communication), 범용 패킷 무선 서비스 (GPRS : General Packet Radio Service), 향상된 데이터 GSM 환경 (EDGE : Enhanced Data GSM Environment), TIA/EIA-95-B (IS-95), TIA/EIA-98-C (IS-98), CDMA2000, 광대역 CDMA (WCDMA : Wideband CDMA) 등으로 불리는 표준들을 포함한다.The DSC techniques described may operate with many wireless devices and wireless standards. Examples of wireless devices that can implement the described DSC techniques include cellular telephones, wireless communicable PCs, personal digital assistants (PDAs), and other wireless devices. Examples of wireless standards in which the described DSC technologies can operate include Global System for Mobile Communication (GSM), General Packet Radio Service (GPRS), and Enhanced Data GSM Environment (EDGE). Standards include Enhanced Data GSM Environment (TIA / EIA-95-B (IS-95), TIA / EIA-98-C (IS-98), CDMA2000, Wideband CDMA (WCDMA), and the like.
도 3 은 DSC 기술들을 구현할 수 있는 무선 통신 시스템의 부분을 도시하는 블록도이다. 도 1 에 도시한 바와 같이, 무선 통신 시스템은, 이동 기지국 (MS) 으로도 불리는, 제 1 무선 통신 장치 (WCD) (302) 를 포함한다. 무선 통신 시스템은 무선 구조의 부분일 수 있는, 제 2 무선 장치 (304), 및 다른 무선 장치들, 즉, 무선 구조에 접속되는 통신선 장치 (landline device) 를 포함한다.3 is a block diagram illustrating a portion of a wireless communication system that can implement DSC techniques. As shown in FIG. 1, a wireless communication system includes a first wireless communication device (WCD) 302, also called a mobile base station (MS). The wireless communication system includes a
제 1 무선 장치 (302) 는 WyZER 인코더 (306), WyZER 디코더 (308), 전송기 (310) 및 수신기 (312) 를 포함한다. 제 2 무선 장치 (304) 는 WyZER 인코더 (320), WyZER 디코더 (322), 전송기 (324) 및 수신기 (324) 를 포함한다. 제 2 무선 장치 (304) 는 입력 신호 X1, 예를 들어, 비디오 신호를 수신할 수도 있다. 입력 신호 X1는 DSC 인코더 (320) 에 접속된다. DSC 인코더 (320) 에는 예측 인코더 (330) 및 WyZER 인코더 (332) 가 포함된다. 입력 신호는 상술한 DSC 기술들에 따라 인코딩되고, 주 스트림 및 WyZER 스트림은 예측 인코더 (320) 및 WyZER 인코더 (332) 로부터 전송기 (324) 로 출력된다.The
주 및 WyZER 스트림들은 제 1 무선 장치 (302) 의 수신기 (312) 로 무선 통신 채널 (복수의 논리 채널들이 두개의 스트림들을 전송하기 위해서 사용될 수 있다) 을 통하여 전송된다. 주 스트림은 제 1 무선 장치 (302) 에서 수신기 (312) 로부터 DSC 디코더 (308) 내의 예측 디코더 (334) 로 출력된다. WyZER 스트림은 수신기 (312) 로부터 WyZER 디코더 (336) 로 출력된다. 예측 디코더 (334) 의 출력 은 또한 WyZER 디코더 (336) 의 입력이다. 상술한 DSC 기술 들에 따라 예측 디코더 및 WyZER 디코더는 서로 협력하여 입력 신호 X1의 재구성 신호 를 생성하고 출력한다.The primary and WyZER streams are sent to the
상기 설명한 방법과 유사한 방법으로, 제 1 무선 장치는 제 1 무선 장치 (302) 의 DSC 인코더 (306) 내에 포함된 예측 인코더 (340) 및 WyZER 인코더 (342) 에 의해서 인코딩된 입력 신호 X2를 수신할 수도 있다. 주 및 WyZER 스트림들은 DSC 인코더 (306) 로부터 전송기 (310) 로 출력된다. 제 2 무선 장치 (304) 의 수신기 (326) 은 비트 스트림들을 수신하고 예측 비트 스트림을 제 2 무선 장치 (304) 의 DSC 디코더 (322) 에서 예측 디코더 (344) 에 출력하고 WyZER 스트림을 DSC 디코더 (322) 내의 WyZER 디코더 (346) 으로 출력한다. 예측 디코더 (344) 의 출력 은 또한 WyZER 디코더 (346) 에 대한 입력이다. 전술한 DSC 기술들에 따라서 예측 및 WyZER 디코더들은 서로 협력하여 입력 신호 X2의 재구성 신호 을 생성하고 출력한다.In a manner similar to the method described above, the first wireless device receives an input signal X 2 encoded by the
다른 실시형태에서, 무선 장치는 오직 DSC 인코더 또는 오직 DSC 디코더만을 포함할 수도 있다. 예를 들면, 장치가 인코딩된 데이터를 방송, 즉 전송하지만 수신하지는 않도록 구성된다면, 장치는 상기 방송 데이터를 인코딩하는 DSC 인코더를 가지지만 장치가 인코딩된 데이터를 수신하지 않기 때문에 DSC 디코더를 가지지 않을 수도 있다. 마찬가지로, 신호를 수신하고 디코딩하지만 인코딩된 데이터를 전송하지는 않도록 구성된 장치는 디코더를 포함하지만 인코더는 포함하지 않을 수도 있다. 이러한 타입의 시스템의 예는, 방송국이 인코딩된 데이터를 하나 이상의 사용자, 통상적으로 많은 사용자들에 전송하지만, 사용자들은 방송국에 다시 인코딩된 데이터를 전송하지는 않는, 비디오 방송 시스템과 같은, 방송 시스템이 될 것이다. 이 예에서, 방송국 무선 장치는 방송 데이터를 인코딩하는 DSC 인코더를 포함할 수 있으며, 사용자 무선 장치는 수신된 인코딩된 방송을 디코딩하기 위해서 DSC 디코더를 포함할 수 있다.In another embodiment, the wireless device may include only a DSC encoder or only a DSC decoder. For example, if the device is configured to broadcast, i.e. transmit, but not receive encoded data, the device may have a DSC encoder that encodes the broadcast data but may not have a DSC decoder because the device does not receive the encoded data. have. Similarly, an apparatus configured to receive and decode a signal but not to transmit encoded data may include a decoder but not an encoder. An example of this type of system would be a broadcast system, such as a video broadcast system, where a broadcaster transmits encoded data to one or more users, typically many users, but the users do not transmit the encoded data back to the broadcaster. will be. In this example, the broadcast station wireless device may include a DSC encoder for encoding broadcast data, and the user wireless device may include a DSC decoder to decode the received encoded broadcast.
도 4 는 WyZER 인코더에 대한 인트라 프레임 비트 할당을 결정하는 실시형태를 도시하는 순서도이다. 순서도는 데이터 블록들에 분배되는, 전체 데이터 프레임이 조사되는 블록 (402) 에서 시작된다. 순서도는 어느 데이터 블록들이 보호될 것인지를 결정하는 블록 (404) 에서 계속된다. 예를 들면, 데이터 블록들은, 개별적 데이터 블록의 손실이, 특정 블록이 손실 또는 오염되었다면 수신기의 데이터 프레임의 재구성이 이루어지는 해로운 영향에 기초해서 "랭크된다 (rank)". 손실을 가진 블록들은 더 높은 랭크를 가진 재구성에 더 해로울 것이다.4 is a flowchart illustrating an embodiment of determining intra frame bit allocation for a WyZER encoder. The flowchart begins at
순서도는 WyZER 인코더에 할당되는 데이터량이 결정되는 블록 (406) 에서 계속된다. 통상적으로, 할당된 데이터량은 제 2 채널로 송신되어야만 하며 추가적 시스템 리소스들을 소비하기 때문에, 제 2 채널에 할당되는 최소의 데이터량을 할당하는 것이 바람직하다. 따라서, 더 많은 데이터가, 특정 데이터 블록을 보호하는 것이 얼마나 바람직한 것인가에 의존하여, 제 2 채널로 전송되고 할당될 것이다. 예를 들면, 데이터 블록이 높게 "랭크된다면", 더 낮게 "랭크된" 블록보 다 상기 블록에 대해서 더 많은 데이터가 제 2 채널로 전송되고, 할당될 것이다.The flowchart continues at
도 5 는 WyZER 인코더에 의해서 사용되는 소스 코드북의 분배의 최대 개수를 결정하는 실시형태를 도시하는 순서도이다. 순서도는 상호 관계 노이즈 평가가 결정되는 블록 (502) 에서 시작한다. 예를 들면, 변환 계수의 상호 관계 노이즈는, 데이터 블록을 나타내는, 예측 비트 스트림이 예측 인코더에서 예측 디코더로 성공적으로 전송되는 경우에 대해서 판단될 수도 있다. 블록이 성공적으로 전송되더라도, 디코딩된 데이터는 이전 블록들에서의 오차들로 인한 오차들을 가질 수도 있다. 순서도는, 데이터 블록을 나타내는 데 사용되는 ,소스 코드북의 개수가 결정되는 블록 (504) 에서 계속된다. 소스 코드북의 분배 개수는 또한 코세트라고 불린다.5 is a flowchart illustrating an embodiment for determining the maximum number of distributions of source codebooks used by the WyZER encoder. The flowchart begins at
일 실시형태에서, 코세트들의 개수는 WyZER 스트림의 헤더에서의 무선 보조 채널통신으로 WyZER 디코더에 통신될 수도 있다.In one embodiment, the number of corsets may be communicated to the WyZER decoder with wireless auxiliary channel communication in the header of the WyZER stream.
당업자는 신호 및 정보가 다양한 다른 기술들 및 테크놀로지를 사용해서 나타날 수 있음을 이해할 것이다. 예를 들면, 상기 명세를 통해서 참조될 수 있는 데이터, 명령들, 커맨드, 정보, 신호, 비트, 심볼, 및 칩들이 전아, 전류, 전자기파, 자계 또는 자성 입자, 광계 또는 광자 또는 그것들의 조합으로 나타날 수 있다.Those skilled in the art will appreciate that signals and information may be represented using a variety of other technologies and technologies. For example, data, instructions, commands, information, signals, bits, symbols, and chips that may be referenced throughout the specification may appear as precursors, currents, electromagnetic waves, magnetic or magnetic particles, photons or photons, or combinations thereof. Can be.
또한, 당업자는 여기에서 개시된 실시형태들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 회로들, 및 알고리즘 단계들을 전자 하드웨어, 컴퓨터 소프트웨어, 또는 이들의 결합으로 구현할 수도 있음을 알 수 있다. 하드웨어 와 소프트웨어의 이러한 대체 가능성을 분명히 설명하기 위하여, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들을 주로 그들의 기능의 관점에서 상술하였다. 그러한 기능이 하드웨어로 구현될지 소프트웨어로 구현될지는 전체 시스템에 부과된 특정한 애플리케이션 및 설계 제약조건들에 의존한다. 당업자는 설명된 기능을 각각의 특정한 애플리케이션에 대하여 변경된 방식으로 구현할 수도 있지만, 그러한 구현 방식은 본 발명의 범주를 벗어나도록 하는 것으로 해석하지는 않아야 한다.In addition, those skilled in the art may appreciate that the various exemplary logical blocks, modules, circuits, and algorithm steps described in connection with the embodiments disclosed herein may be implemented in electronic hardware, computer software, or a combination thereof. . To clearly illustrate this alternative possibility of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above primarily in terms of their functionality. Whether such functionality is implemented in hardware or software depends upon the particular application and design constraints imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementations should not be interpreted as causing a departure from the scope of the present invention.
여기에서 개시된 실시형태들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 회로들은 범용 프로세서, 디지털 신호 프로세서 (DSP), 주문형 집적회로 (ASIC), 필드 프로그래머블 게이트 어레이 신호 (FPGA), 또는 기타 프로그래머블 논리 디바이스, 별도의 게이트 또는 트랜지스터 논리, 별도의 하드웨어 컴포넌트들, 또는 여기서 설명된 기능을 수행하도록 설계되는 이들의 임의의 결합으로 구현 또는 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 다른 방법으로, 그 프로세서는 임의의 종래 프로세서, 제어기, 마이크로 제어기, 또는 상태 기계일 수도 있다. 또한, 프로세서는 컴퓨팅 디바이스들의 결합, 예를 들어, DSP 와 마이크로프로세서의 결합, 복수의 마이크로프로세서들, DSP 코어와 결합된 하나 이상의 마이크로프로세서들 또는 임의의 기타 다른 구성물로 구현될 수도 있다.The various illustrative logical blocks, modules, circuits described in connection with the embodiments disclosed herein may be general purpose processors, digital signal processors (DSPs), application specific integrated circuits (ASICs), field programmable gate array signals (FPGAs), or Other programmable logic devices, separate gate or transistor logic, separate hardware components, or any combination thereof, designed to perform the functions described herein, may be implemented or performed. A general purpose processor may be a microprocessor, but in other ways, the processor may be any conventional processor, controller, microcontroller, or state machine. A processor may also be implemented as a combination of computing devices, eg, a combination of a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other configuration.
여기에 개시된 실시형태들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수도 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM, 또는 당업계에 알려진 임의의 다른 형태의 저장 매체에 상주할 수도 있다. 예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 ASIC 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, software module, or a combination of the two executed by a processor. The software module may reside in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, removable disk, CD-ROM, or any other form of storage medium known in the art. An exemplary storage medium is coupled to the processor, which can read information from and write information to the storage medium. In the alternative, the storage medium may be integral to the processor. The processor and the storage medium may reside within an ASIC. The ASIC may reside in a user terminal. In the alternative, the processor and the storage medium may reside as discrete components in a user terminal.
개시되어 있는 실시형태들에 대한 상기의 설명은 당업자로 하여금 본 발명을 제조 또는 이용할 수 있도록 제공된다. 당업자는 이들 실시형태에 대한 다양한 변형들을 명백히 알 수 있으며, 여기에서 정의된 일반적인 원리들은 본 발명의 사상 또는 범위를 벗어나지 않고도 다른 실시형태들에 적용될 수도 있다. 따라서, 본 발명은 여기에서 설명된 실시형태들에 제한되는 것이 아니라, 여기에서 개시된 원리 및 신규한 특징들과 부합하는 최광의 범위를 부여하려는 것이다.The previous description of the disclosed embodiments is provided to enable any person skilled in the art to make or use the present invention. Those skilled in the art will clearly appreciate various modifications to these embodiments, and the general principles defined herein may be applied to other embodiments without departing from the spirit or scope of the invention. Thus, the present invention is not intended to be limited to the embodiments described herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
Claims (63)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020067027942A KR100877127B1 (en) | 2004-06-01 | 2005-05-31 | Method, apparatus, and system for enhancing robustness of predictive video codecs using a side-channel based on distributed source coding techniques |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US60/576,193 | 2004-06-01 | ||
US11/140,086 | 2005-05-27 | ||
KR1020067027942A KR100877127B1 (en) | 2004-06-01 | 2005-05-31 | Method, apparatus, and system for enhancing robustness of predictive video codecs using a side-channel based on distributed source coding techniques |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070021284A true KR20070021284A (en) | 2007-02-22 |
KR100877127B1 KR100877127B1 (en) | 2009-01-09 |
Family
ID=43653395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020067027942A KR100877127B1 (en) | 2004-06-01 | 2005-05-31 | Method, apparatus, and system for enhancing robustness of predictive video codecs using a side-channel based on distributed source coding techniques |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100877127B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100915097B1 (en) * | 2007-11-02 | 2009-09-02 | 성균관대학교산학협력단 | Apparatus and method of decompressing distributed video coded video using error correction |
KR101107320B1 (en) * | 2008-12-02 | 2012-01-20 | 한국전자통신연구원 | Distrubuted video coding apparatus |
-
2005
- 2005-05-31 KR KR1020067027942A patent/KR100877127B1/en not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100915097B1 (en) * | 2007-11-02 | 2009-09-02 | 성균관대학교산학협력단 | Apparatus and method of decompressing distributed video coded video using error correction |
KR101107320B1 (en) * | 2008-12-02 | 2012-01-20 | 한국전자통신연구원 | Distrubuted video coding apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR100877127B1 (en) | 2009-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8331445B2 (en) | Method, apparatus, and system for enhancing robustness of predictive video codecs using a side-channel based on distributed source coding techniques | |
US8218633B2 (en) | Bidirectionally decodable Wyner-Ziv video coding | |
TWI406572B (en) | Error resilient video transmission using instantaneous receiver feedback and channel quality adaptive packet retransmission | |
US6920179B1 (en) | Method and apparatus for video transmission over a heterogeneous network using progressive video coding | |
Pereira et al. | Multiple description image and video coding for wireless channels | |
Qian et al. | A general joint source-channel matching method for wireless video transmission | |
KR100877127B1 (en) | Method, apparatus, and system for enhancing robustness of predictive video codecs using a side-channel based on distributed source coding techniques | |
Wang et al. | Robust video transmission over a lossy network using a distributed source coded auxiliary channel | |
Adsumilli et al. | Adapive Wireless Video Communications: Challenges and Approaches | |
Majumdar et al. | Drift reduction in predictive video transmission using a distributed source coded side-channel | |
Majumdar et al. | PRISM: an error-resilient video coding paradigm for wireless networks | |
Wu et al. | Multiple-description image coding with distributed source coding and side information | |
Gao et al. | Multiple description video coding over multiple path routing networks | |
Vilei et al. | A novel unbalanced multiple description scheme for video transmission over wlan | |
Zhang et al. | A transform domain classification based Wyner-Ziv video codec | |
Tonoli et al. | Error resilience in current distributed video coding architectures | |
Pereira et al. | Multiple description video coding for UMTS | |
Wang et al. | Robust video transmission with distributed source coded auxiliary channel | |
Wang et al. | On enhancing mpeg video broadcast over wireless networks with an auxiliary broadcast channel | |
Zhang et al. | Full search of side-information in distributed video coding | |
Lin et al. | Multiple description video coding based on forward error correction within expanding windows | |
Li et al. | Error resilient video transmission with adaptive stream-shuffling and bi-directional error concealment | |
Majumdar | PRISM: A video coding paradigm based on source coding with side-information | |
Rehman | Rate-distortion optimized rate allocation for pixel-domain Wyner-Ziv video coding without feed-back channel | |
Ekmekci et al. | Temporal layered vs. multistate video coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121129 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20131129 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20141128 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |