KR20010034208A - 계층화 mpeg 인코더 - Google Patents

계층화 mpeg 인코더 Download PDF

Info

Publication number
KR20010034208A
KR20010034208A KR1020007007858A KR20007007858A KR20010034208A KR 20010034208 A KR20010034208 A KR 20010034208A KR 1020007007858 A KR1020007007858 A KR 1020007007858A KR 20007007858 A KR20007007858 A KR 20007007858A KR 20010034208 A KR20010034208 A KR 20010034208A
Authority
KR
South Korea
Prior art keywords
signal
video
dynamic range
information
component
Prior art date
Application number
KR1020007007858A
Other languages
English (en)
Inventor
마이클 틴커
글렌 아더 레이트메이어
Original Assignee
윌리암 제이. 버크
사르노프 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/050,304 external-priority patent/US6118820A/en
Application filed by 윌리암 제이. 버크, 사르노프 코포레이션 filed Critical 윌리암 제이. 버크
Publication of KR20010034208A publication Critical patent/KR20010034208A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

본 발명은 고품질의 압축, 전송 및 압축 해제하기 위해 표준 품질의 회로들을 이용하는 시스템에서 실질상 비디오 정보의 충실도를 유지하도록 고품질 비디오 정보를 압축(218; 215, 217; 410, 406, 408, 411, 412, 420; 520, 522), 다중화 그리고, 선택적 실시예들에서, 암호화(22), 전송(3), 암호 해제(42), 압축 해제(43) 및 나타내기(5) 위한 방법 및 수반되는 장치들에 관한 것이다.

Description

계층화 MPEG 인코더 {LAYERED MPEG ENCODER}
여러 통신 시스템들에서 전송될 데이터는 이용 가능한 대역폭이 보다 효율적으로 이용되도록 압축된다. 예를 들어, 동화상 표준화 그룹(MPEG)은 디지털 데이터 전달 시스템들에 관한 여러 표준들을 제공한다. MPEG-1은 ISO/IEC 표준들(11172)에 적용되고 이 표준을 참조로 구체화된다. MPEG-2는 ISO/IEC 표준들(13818)에 적용되고 이 표준을 참조로 구체화된다. 압축 디지털 비디오 시스템은 차세대 텔레비젼 시스템 위원회(ATSC) 디지털 텔레비젼 표준 문서로 설명되고 이 문서를 참고로 구체화된다.
전술된 표준들은 고정 또는 가변 길이 디지털 통신 시스템을 이용하는 비디오, 오디오 및 다른 정보의 압축과 전달에 아주 적합한 데이터 프로세싱과 조정 기법들을 설명한다. 특히, 전술된 표준들, 및 다른 "MPEG과 같은" 표준들과 기법들은 프레임 내부 코딩 기법들(런-길이 코딩, 호프만 코딩 등)과 프레임 간 코딩 기법들(순방향 및 역방향 예측 코딩, 움직임 보상 등)을 이용하여 실예로, 비디오 정보를 압축한다. 특히, 비디오 프로세싱 시스템들의 경우에, MPEG 및 MPEG과 같은 비디오 프로세싱 시스템들은 프레임 내부 및/또는 프레임 간 움직임 보상 인코딩으로 또는 프레임 내부 및/또는 프레임 간 움직임 보상 인코딩 없이 비디오 프레임들의 예측을 기초로 한 보상 인코딩이 특징이다.
디지털 비디오 프로세싱과 디지털 이미지 프로세싱 환경에서, 디지털 이미지의 픽셀 밀도와 픽셀 칼라 심도(depth)와 같은 정보는 0과 2n-1사이의 이진 정수로서 인코딩된다. 예를 들어, 영화 제작자들과 텔레비젼 스튜디오들은 통상적으로 0과 1023 사이의 휘도와 색차값을 제공하는 10 비트 픽셀 밀도와 픽셀 칼라 심도를 가지는 비디오 정보를 이용한다. 영화와 스튜디오에서 10 비트 다이나믹 범위의 비디오 정보가 유지될 수 있는 반면에, 전술된 표준들(그리고 이 표준들이 적용되는 통신 시스템들)은 통상적으로 다이나믹 범위의 8 비트만을 이용한다. 따라서, 최종 정보 소비자에 제공되는 영화, 비디오 또는 다른 정보 소스의 품질은 이런 정보를 소비자에게 제공하기 위해 이용되는 정보 인코딩 방법들과 통신 네트워크들의 다이나믹 범위 제한에 의해 떨어진다.
따라서, 상대적으로 낮은 다이나믹 범위 기법들에 따라 인코딩되고 전송되는 영화, 비디오 그리고 다른 형태의 상대적으로 높은 다이나믹 범위 정보의 다이나믹 범위를 유지하기 위한 방법 및 장치를 제공하는 것이 바람직하다. 또한, 전술된 MPEG과 같은 표준들과 기법들과 같은 상대적으로 낮은 이 다이나믹 범위 기법들 고유의 경제적 스캐일을 이용하는 동안 다이나믹 범위를 유지하는 것이 바람직한 것 같다.
본 발명은 일반적으로 통신 시스템들, 특히, 개선된 정보 품질과 보안성을 제공하는 MPEG과 같은 정보 분배 시스템에 관한 것이다.
도 1은 본 발명에 따른 오디오-비디오 정보 전달 시스템의 하이 레벨 블록도이다.
도 2는 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합하고 본 발명에 따른 비디오 압축 유니트와 비디오 압축 해제 유니트의 하이 레벨 블록도이다.
도 3은 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합하고 본 발명에 따른 비디오 압축 유니트와 비디오 압축 해제 유니트의 선택적 실시예의 하이 레벨 블록도이다.
도 4는 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합하고 본 발명에 따른 비디오 압축 유니트와 비디오 압축 해제 유니트의 선택적 실시예의 하이 레벨 블록도이다.
도 5a는 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합하고 본 발명에 따른 비디오 압축 유니트의 선택적 실시에의 하이 레벨 블록도이다.
도 5b와 5c는 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합하고 본 발명에 따른 비디오 압축 해제 유니트의 선택적 실시예의 하이 레벨 블록도이다.
도 6a는 강화된 대역폭 MPEG 인코더를 도시한다.
도 6b는 도 6a의 강화된 대역폭 MPEG 인코더를 이용하는 시스템에서 사용하기 적합한 강화된 대역폭 MPEG 디코더를 도시한다.
본 발명은 실질상 비디오 정보의 충실도를 유지하도록 고품질 비디오 정보를 압축, 다중화 그리고, 선택적 실시예들에서, 암호화, 전송, 암호 해제, 압축 해제 및 나타내기 위한 저 비용 방법 및 수반되는 장치들에 관한 것이다. 또한, 표준 품질 회로들은 예를 들어, 본 발명의 이용에 적합한 고품질의 압축 장치를 동작시키도록 사용된다. 선택적 실시예들에서, 전처리 기법들은 본 발명에 의해 이용되는 표준 압축, 전송 및 압축 해제 시스템들의 명확한 다이나믹 범위를 넓히는데 이용된다.
특히, 본 발명에 따른 장치는 다수의 최대 다이나믹 범위의 소자들로 구성되는 비디오 정보 신호 분배용 시스템에 사용하기 적합하고 최대 다이나믹 범위의 소자들의 최대 다이나믹 범위를 실질상 유지하도록 비디오 정보 신호를 압축 인코딩하기 위한 압축 인코더로 구성되는데, 이 압축 인코더는 적어도 두 개의 표준 인코더들로 구성되고, 각 표준 인코더들은 세 개의 성분 비디오 신호들까지 응답하고, 각 표준 압축 인코더들은 실질상 비디오 신호 중 단지 하나의 성분의 다이나믹 범위와 공간 해상도를 유지하는 경향이 있으며, 각 표준 압축 인코더들은 압축 출력 비디오 신호를 제공하고; 그리고 다중화 정보 스트림을 생성하기 위해 둘 또는 그 이상의 표준 압축 인코더들의 압축 출력 비디오 신호들을 다중화하기 위한 다중화기를 제공한다.
본 발명의 다른 실시예에서, 세 개의 표준 YUV 형 MPEG 인코더들(예를 들어, 4:2:0 또는 4:2:2) 각각은 인코더의 휘도 인코딩 부분만을 이용하는 세 개의 성분 비디오 신호들 중 각각을 인코딩하도록 이용된다. 표준 전송 시스템은 세 개의 인코딩 성분 비디오 신호들을 세 개의 표준 YUV 형 MPEG 디코더들(예를 들어, 4:2:0 또는 4:2:2)에 전달하는데, 이 디코더들은 각각 휘도 디코딩 부분을 이용하는 각각의 인코딩 성분 비디오 신호를 디코딩하도록 이용된다.
본 발명은 첨부되는 도면들과 함께 다음의 실시예들을 참고로 쉽게 이해될 수 있다.
쉽게 이해되도록, 가능하면, 동일한 도면 부호들은 숫자가 공통되는 동일한 소자들을 지정하도록 사용된다.
다음 설명을 참조한 후에, 당업자들은 본 발명이 통상적으로 충실도를 감소시키게 하는 프로세싱과 전송 기법들을 이용하여 프로세싱되고 전송되는 어떠한 정보 프로세싱 시스템에서도 쉽게 이용될 수 있다는 것이 명확하게 이해될 것이다. 본 발명의 실시예는 예를 들어, 영화관들에 예를 들어, 영화 및 다른 고품질의 오디오-비디오 프로그래밍을 분배하기에 적합한 보안성이 있고, 고품질의 정보 분배 시스템 환경 하에서 설명될 것이다. 그러나, 본 발명의 관점과 교훈은 훨씬 넓은 범위까지 사용 가능하므로, 본 발명은 개시된 실시예들에 한정되서는 안된다.
도 1은 본 발명에 따른 고 충실도 정보 전달 시스템과 방법의 하이 레벨 기능도이다. 특히, 도 1은 고 충실도 정보 스트림, 예를 들어 오디오-비디오 정보 스트림의 압축과 보안 관리; 보안 관리되고, 압축된 오디오-비디오 정보를 표준 기술을 이용하는 정보 소비자에 전달하며; 그리고 오리지날 고 충실도 오디오-비디오 정보 스트림을 실질상 검색하기 위하여 전송된 스트림을 로킹 해제하고 압축 해제하는데 적합한 고 충실도의 정보 전달 시스템 및 방법의 하이 레벨 블록도이다.
도 1의 시스템 및 방법에 있어서, 디지털 소스(1)는 디지털 정보 스트림(S1), 예를 들어 고 충실도의 오디오-비디오 정보 스트림을 사전 전송 프로세싱 기능(2)에 제공한다. 사전 전송 프로세싱 기능(2)은 압축 기능(21), 암호화 및 해킹 방지 기능(22)과 선택적으로, 정보 스트림(S23)을 제공하는 분산을 위한 저장 기능(23)으로 구성된다. 전송 및 전달 기능(3)은 정보 스트림(S23)을 사후 전송 프로세싱 기능(4)에 분산한다. 사후 전송 프로세싱 기능(4)은 디스플레이를 위한 선택적 저장 기능(41), 암호 해제 기능(42) 및 출력 정보 스트림(S43)을 제공하는 압축 해제 기능(43)으로 구성된다. 출력 정보 스트림(S43)은 프레젠테이션 디바이스(5), 예를 들어 디스플레이 디바이스와 결합된다.
도 1의 시스템 및 방법은 예를 들어, 영화관들에 예를 들어, 영화 및 다른 고품질의 오디오-비디오 프로그래밍을 분산하기에 적합한 보안성이 있고, 고품질의 정보 분산 시스템 환경 하에서 설명될 것이다. 우선, 시스템의 적절한 충실도와 보안성 파라미터들이 논의될 것이다. 다음에, 시스템에 의한 충실도와 보안성 파라미터들의 구현이 논의될 것이다. 마지막으로, 시스템 성분들의 특정 수행들이 논의될 것이다.
사실상, 영화와 같은 시청각 프로그래밍을 극장에서 관람하기 위한 소비자의 열정은 오디오와 비디오 프레젼테이션의 품질(내용물 인식이 필수적이 아닌, 충실도 인식)과 밀접한 관련이 있다. 따라서, 가정용 고화질 텔레비젼(HDTV) 분야에서, 영화관 또는 영화를 통해서 소비자에게 보여지는 비디오와 오디오의 품질은 좋은 장치를 구비한 가정에서 느끼는 HDTV보다 우수해야 한다. 또한, 영화관 소유주들과 판권 보유자들은 프로그래밍(예를 들어, 프로그래밍의 안정성 있는 배급, 제한된 상영 공간들, 상영 시간 또는 상영 횟수 등)과 관련된 변수들을 제한하거나 또는 조정함으로써 이득을 취하기 때문에, 다양한 분배와 보안적 특성을 수행하는 것이 바람직하다.
적절한 비디오 충실도를 제공하기 위하여, 도 1의 시스템과 방법에 대한 일 실시예는 색차 레벨(즉, YUV)보다는 성분 레벨(즉, RGB)로 압축 코딩을 이용한다. 이 실시예는 도 2에 대해 아래에 더욱 상세히 논의될 것이다. 간단히 말해서, 도 2의 실시예는 MPEG 시스템들에서 통상적으로 사용되는 4:2:0 해상도 비디오보다는, 4:4:4 해상도 비디오를 유지하는 압축 코딩을 제공한다.
MPEG의 8 비트 4:4:4 해상도는 본 발명의 몇몇 응용 분야에 적합한 결과를 도출한다. 높은 충실도를 요하는 이 응용 분야에 있어서, 본 발명은 주요 색 당 적어도 10 비트 로그의 색 심도와 같은, MPEG 시스템들에서 일반적인 8 비트 색 심도 이상인 효과적인 색 심도를 바람직하게 이용한다. 표준 8 비트 MPEG 소자들(디코더들, 인코더들 등)을 이용하여 증가된 색 심도(즉, 8 비트 이상의)를 달성하기 위하여, 설명되는 것과 같이, 추가의 사전 인코딩 및/또는 사후 디코딩 프로세싱이 이용될 수 있다.
도 1의 시스템과 방법의 다른 실시예는 상대적으로 높은 다이나믹 범위의 신호의 다이나믹 범위를 유지하기 위한 영역 픽셀 심도 압축 기법들을 이용한다. 도 1의 방법과 시스템에서 이용하기에 적합한 영역 픽셀 심도 압축 기법과 장치는 도 6의 개선된 MPEG 인코더에 대하여 아래에서 및 1998년 3월 30일에 출원된, 공동 계류중인 미국 특허 번호 09/050,304와 1998년 1월 16일에 출원된 임시 미국 특허 번호 60/071,294에서 더욱 상세히 설명되는데, 이 두 출원은 모두 이 출원들 전체를 참조로 구체화된다. 간단히 말해서, 전술된 방법과 장치는 상대적으로 높은 다이나믹 범위의 신호를 다수의 세그먼트들(예를 들어, 비디오 신호 내의 거대 구획(macroblocks)들)로 분할하고; 각 세그먼트 내의 관련 파라미터(예를 들어, 휘도, 색차 또는 움직임 벡터 파라미터)의 최대 및 최소 값들을 결정하고, 관련 파라미터의 각 값을, 예를 들어, 관련 파라미터의 최대 및 최소 값들에 의해 한정된 낮은 다이나믹 범위로 재배치하며; 표준(예를 들어, 낮은 다이나믹 범위) 방식으로 재배치된 세그먼트들을 인코딩하며; 과정이 오리지날의, 상대적으로 높은 다이나믹 범위의 신호를 검색하기 위해 바뀌는 수신 유니트에 이어서 전송하기 위한 전송 스트림을 형성하기 위하여 인코딩된 재배치 정보 세그먼트들과 해당 최대 및 최소 파라미터 값들을 다중화시킨다. 영역을 기초로 한 색 심도를 증가시키기 위한 기법은 이미지에서 보다 낳은 화상 품질을 제공하기 위하여 디지털화 단계의 일부로서 사용될 수 있고 전술된 임시 미국 특허에서 개시된다.
도 1의 시스템의 다른 견지는 스트림 내의 제한된(예를 들어, 매 순간) 랜덤 액세스 점들을 포함함으로써, 적어도 암호화되지 않은 정보 스트림(예를 들어, 광고, 예고편 등)에 적절한 레벨의 랜덤 액세스를 용이하게 하는 것이다. 이런 랜덤 액세스 점들은 예를 들어, MPEG 명세서들에서 설명되는 표준 방식으로 제공될 수 있다.
도 1의 시스템(100)의 다른 견지는 표준 필름 프레임 비율들 또는 24Hz와 25Hz를 포함하는 모든 프레임 비율들을 위한 고 품질의 인코딩을 이용하는 것이다. 시스템(100)은 고 대역폭(예를 들어, 40 Mbits/sec) 압축 인코딩 및 디코딩 개략도를 이용한다. 또한, 시스템은 오리지날 이미지들 외부에 라인들을 불필요하게 압축하지 않고, 본 발명에 의해 이용되는 인코더 및/또는 디코더의 기능 내의 모든 종횡비를 압축하고, 압축 해제하며, 그리고 디스플레이 할 수 있다. 또한, 이 결과로 특정 종횡비가 "레터박스"로 공지된, 인코더 및/또는 디코더의 기능 이내가 아니고 다른 이미지 크로핑 기법들이 사용될 수 있는 것이 명확히 이해되야 한다. 이 시스템은 또한 48 또는 72Hz(또는 유럽의 50과 75Hz)와 같은 고 디스플레이 비율을 가지는 화상을 이동시키는 초고 해상도(예를 들어, 2000 픽셀들 대 1000 픽셀들)를 실시간으로 압축 해제 할 수 있다. 물론, 시스템의 대역폭과 해상 기능은 디스플레이 디바이스 해상도, 전송 시스템 등과 같은 시스템 내에 사용되는 특정 하부-시스템 소자들에 의해 제한된다.
시스템은 이미지들 사이의 중복을 감소시키기 위하여 움직임 예측 알고리즘들을 선택적으로 이용한다. 적절한 움직임 예측 기법들은 1996년 3월 4일에 출원된 미국 특허 번호 08/612,005; 1996년 8월 23일에 출원된 08/735,869; 1997년 5월 30일에 출원된 60/048,181; 1997년 6월 27일에 출원된 08/884,666 및 1996년 10월 23일에 출원된 08/735,871에서 기술되는데, 이 출원은 출원건 전체를 참조로 본 발명에서 구체화 된다.
고 충실도 오디오를 유지하기 위하여, 시스템은 48 KHz 오디오 샘플링을 이용하여 이미지로 인코딩된 8 채널 음향과 같은 표준 오디오 포멧을 바람직하게 이용한다.
디지털 소스(1)는 실시예에서, 예를 들어, 영화관에서 이용 적합한 해상도를 가지는 고 해상도 디지털 비디오와 같은 고 충실도 오디오-비디오 정보 소스로 구성된다. 예를 들어, 영화에서 유래한 동영상은 텔레비젼 영화(telecine) 또는 다른 공지된 방법들을 이용하여 전자 방식으로 주사될 수 있다. 유사하게, 동영상은 충분한 고 해상도와 색 심도(즉, 영화와 비슷한 해상도와 색심도)를 가지는 카메라로 초기에 얻을 수 있거나, 또는 존재하는 비디오 소스 또는 파일로부터 전기적으로 주사될 수 있다.
도 1의 시스템(100)의 사전 전송 프로세싱 기능(2)은 사전 전송 정보 스트림(S22)을 생성하는 디지털 정보 스트림(S1)을 수신하고 처리한다. 사전 전송 정보 스트림(S22)은 패키징을 전송하고 전달하기 위한 전송 및 전달 기능(3)에 직접 결합될 수 있다. 선택적으로, 사전 전송 정보 스트림(S22)은 전송 및 전달 기능(3)을 통해서 다음의 분배 이전에 저장을 위한 실시예에서 하드 디스크 어래이, 분배 유니트를 저장에 결합될 수 있다. 사전 전송 정보 스트림(S22)은 예를 들어, 패킷화된 기본 스트림, 전송 스트림 또는 비동기 전송 모드(ATM) 스트림으로 구성될 수 있다. 사전 전송 정보 스트림(S22)은 또한 TCP/IP 스트림으로 구성될 수 있다.
압축 유니트(21)는 압축 정보 스트림(S21)을 생성하기 위하여 "필름 이미지" 품질(즉, 다이나믹 범위의 필름을 유지하는)로 높은 다이나믹 범위의 정보 스트림(S1), 실시예에서 비디오 스트림을 인코딩한다. 압축 유니트(21)의 여러 실시예들은 도 2와 3에 대해 아래에 설명된다. 압축 정보 스트림(S21)은 압축 해제 유니트(43)에 의해 그 다음에 압축될 때, 실질상 초기 비디오 또는 다른 높은 다이나믹 범위 정보 소스의 전체 대역폭이 검색될 것이다. MPEG과 같은 압축 기법들은 비디오 압축을 위해 특정하게 설계되고 색 공간 예를 들어, 필름 영역에 반대될 때, 특히 비디오 영역에서 사용되는 YUV를 이용한다. 특히, 비디오에 적용하는 다양한 제약들은 필름 또는 전자 필름 등가물에 적용되지 않고, 따라서, 현 표준 비디오 압축 포멧들은 필름과 관련된 디지털 영상들의 압축에 반드시 적절하지는 않다.
암호화 및 해킹 방지 유니트(22)는 압축 정보 스트림(S22)을 생성하기 위하여 압축 정보 스트림(S21)을 암호화 시킨다. 암호화 및 해킹 방지 유니트(22)는 특히 동화상 정보 스트림들과 같은 높은 다이나믹 범위의 정보 스트림들에 대한 해킹을 방지하도록 설계된다. 암호화 및 해킹 방지 유니트(22)는 워터마킹(watermarking)과 암호화, 이 두 가지 방식으로 해킹을 처리한다.
암호화와 해킹 방지 유니트(22)에서 사용되기 적합한 워터마킹 기법들과 장치들은 1997년 12월 30일에 출원된 미국 특허 번호 09/001,205와 1997년 12월 24일에 출원된 미국 특허 번호 08/997,965에서 개시되어 있는데, 이 두 출원은 이 출원건 전체를 참조로 본 발명에서 구체화된다. 개시된 워터마킹 기법들과 장치들은 예를 들어, 스트림 소스를 확인할 수 있는 압축 정보 스트림들을 변형하는데 사용된다. 이 방식으로, 동화상의 해적 카피는 예를 들어, 분배 채널(또는 분배기)이 동화상을 제어할 수 있는지 없는지를 결정하기 위해 조사될 수 있다
표준 암호화 방식들 및 장치는 암호화 및 해킹 방지 유니트(22)에서 사용될 수 있다. 이런 방식들은 예를 들어, 이중키 암호화와 기본적이고, 보호되는 데이터의 이용을 차단하도록 의도되는 다른 방식들을 포함한다. 이 방식으로, 해킹의 경우에도, 동화상은 원 소유자의 인가(즉, 암호 해제키)없이는 디스플레이 될 수 없다. 따라서, 동화상들은 물리적 수단들만에 의해 보안 관리되는 커다란 패키지들에서 물리적으로 전송된 동화상들의 현재 실행을 제거하는 전자적 수단들에 의해 보안 관리되면서 전송될 수 있다.
분배를 위한 선택적 저장 유니트(23)는 압축 및 암호화된 동화상들을 영화관과 같은 최종 사용자에게 전달/전송하기 이전에 압축 및 암호화된 동화상들을 임시로 저장한다. 분배를 위한 선택적 저장 유니트(23)는 하드 디스크, 컴퓨터 메모리, 디지털 테이프 등과 같은 컴퓨터 재료로 적합한 어떠한 매체라도 사용하여 수행될 수 있다. 자기 매체 상에 인코딩하는 부분 응답을 위한 장치는 컴퓨터 디스크들과 테이프들 상의 저장 양을 증가시키는데 사용될 수 있고, 따라서, 디지털화된 동화상들을 저장하는데 필요한 매체 비용을 감소시킨다. 이 장치는 출원건 전체를 참고로 본 발명에서 구체화되는 1995년 11월 29일에 출원된 미국 특허 번호 08/565,608에 개시 되어있다.
전송 및 전달 기능(3)은 정보 스트림(S23)을 사후 전송 프로세싱 기능(4)에 분배한다. 스트림에 의해 인코딩되고 암호화되는 동화상들의 디지털 특성 때문에, 전송 및 전달 기능(3)은 필름 상의 동화상들을 위해 사용될 수 없는 방식으로 수행될 수 있다. 예를 들어, 전송 및 전달 기능(3)은 예를 들어, 영화관에 데이터를 물리적으로 전송하기 위한 디지털 저장 매체를 이용하여 수행될 수 있다. 이 경우에, 물리적 매체는 암호화와 워터마킹의 보안성을 제공하는 동안, 필름보다 덜 크다. 전송 및 전달 기능(3)은 또한 분배점에서 영화관까지 데이터를 전자적으로 전송하기 위한, 전자 통신 매체(예를 들어, 공용 또는 개인용 통신 네트워크, 위성 연계, 텔레콤 네트워크 등)를 이용하여 수행될 수 있다. 이 경우에 이 지점들 사이에 전송되는 어떠한 물리적 저장도 없다.
전송 및 전달 기능(3)은 위성 연계, 공용 또는 개인용 원격통신 네트워크, 단파 연결 또는 광섬유 연결의 하나 또는 그 이상으로 구성된 통신 시스템을 이용하여 수행될 수 있다. 전송 및 전달 기능(3)을 수행하기에 적합한 다른 형태의 통신 연결은 당업자들에게 공지된다.
디스플레이를 위한 선택적 저장 기능(41), 암호 해제 및 해킹 방지 기능(42) 및 압축 해제 기능(43)으로 구성된 사후 전송 프로세싱 기능(4)은 프레젼테이션 디바이스(5), 실시예에서는 디스플레이 디바이스에 결합되는 출력 정보 스트림(S43)을 생성한다.
디스플레이를 위한 선택적 저장 기능(41)은 예를 들어, 전송된 동화상을 나타내는 정보 스트림을 영화관 내에 저장하기 위해 사용된다. 전송된 정보 스트림의 디지털 특성 때문에, 저장은 훨씬 더 보안성이 있고, 훨씬 덜 크며, 그리고 필름보다 훨씬 더 확고하다. 영화관에서 상영되는 모든 필름들은 단일 공간에 저장되고 필요한 케이블만을 이용하여 영화관 내에서 영사기(예를 들어, 프레젼테이션 디바이스(5))를 통해서 항상 디스플레이 될 수 있다. 분배를 위한 선택적 저장 기능(23)은 디스플레이를 위한 저장 기능(41)을 위해 사용될 수 있다. 사용될 때, 디스플레이를 위한 선택적 저장 기능(41)은 저장 정보 스트림들을 암호 해제 및 해킹 방지 유니트(42)에 스트림(S41)으로 결합시킨다.
표준 암호 해제 기법들과 장치들은 암호화 및 해킹 방지 유니트(22)에서 사용되는 암호화 방법 및 장치와 호환이 가능한 한, 암호 해제 및 해킹 방지 유니트(42)에서 사용될 수 있다. 즉, 암호화 및 압축된 동화상들은 동화상들이 관람객에게 디스플레이 되도록 영화관에서 암호 해제되고 압축 해제되야 한다. 암호 해제 및 해킹 방지 유니트(42)는 압축 해제 기능(43)과 결합되는 암호 해제된 정보 스트림(S42)를 생성한다.
바람직한 암호 해제 방법은 동화상의 디지털 방식이 고유 권한 없이는 이 방식을 이용하려고 시도하는 어떠한 사람이나 장치에도 어려울 것이라는 것을 확인시켜주는 인증서와 신뢰성 있는 권한을 이용한다. 권한을 부여 받지 못한 어떠한 사용자도 고유 키 또는 키들 없이는 동화상 비트를 암호 해제 할 수 없어서, 이 동화상 비트는 고유 권한 부여된 영화관들에서만 이용 가능할 것이다. 따라서, 고유 암호 해제키들 없이는 디스플레이가 불가능 할 것이기 때문에, 동화상 자체의 디지털 방식을 해킹하는 것은 해커에게는 소용이 없을 것이다. 이전에 논의된 바와 같이, 보안 관리의 부가적인 층은 디지털 비트 스트림의 워터마크를 이용하여 제공되고, 그 결과로 해킹의 경우에, 해킹된 카피와 그 소스는 쉽게 확인될 수 있다. 워터마크들은 압축된 비트 스트림에 삽입되기 때문에, 상이한 워터마크들을 각 비트 스트림에 삽입하는 것이 가능하여, 그 결과로 전송되는 각 카피는 고유하게 확인될 수 있다.
압축 해제 기능(43)은 실시간으로 동화상들(또는 다른 정보 스트림)을 압축 해제하고 압축 해제된 정보 스트림(S43)을 프레젼테이션 유니트(5)에 결합시킨다. 압축 해제 기능(43)과 프레젼테이션 기능(5)은 독립되고, 결합된 압축 해제 기능(43)과 프레젼테이션 기능(5)을 형성하기 위해 집적될 수 있다. 이 방식으로, 독립되고, 결합된 압축 해제 기능(43)과 프레젼테이션 기능(5)은 이미지들 자체와는 달리 어떠한 출력도 가지지 않기 때문에, 모든 매체 상의 압축 해제된 이미지들을 기록하거나 얻을 기회는 없다. 이것은 오리지날의 합법적인 전자 카피가 행해지고 디스플레이 될 수 없도록 디지털화된 영화에서 재료의 보호를 위해 매우 중요하다.
프레젼테이션 유니트(5)는 시스템을 통해서 다이나믹 범위의 출력의 RGB 입력을 취하고 이 색들을 신뢰 가능하게, 가능하면, 오리지날 이미지의 완전 대조 및 명도로 디스플레이 한다.
도 1은 또한 42-n을 통한 추가의 암호 해제 및 해킹 방지 유니트(42-1), 43-n을 통한 추가의 압축 해제 기능들(43-1)과 5-n을 통한 추가의 프레젼테이션 유니트(5-1)을 도시한다. 도 1에서 도시된 바와 같이, 42-n을 통한 추가의 암호 해제 및 해킹 방지 유니트들(42-1)은 각각 디스플레이를 위한 선택적 저장 유니트(41)로부터 동일한 신호(S41)를 수신하기 위해 결합된다. 이런 배열은 실예로, 여러 스크린을 통해서 개봉 영화를 동시에 상영하는 여러 스크린(즉, 디스플레이 디바이스(5))을 가진 영화관에 적합하다. 통상적으로, 상이한 영화는 각기 추가의 스크린 상에서 상영되기 때문에, 각 스크린은 각 암호 해제 기능과 압축 해제 기능에 의해 지지된다. 따라서, 디스플레이를 위한 저장 유니트(41)는 42-n을 통한 각 추가의 암호 해제와 해킹 방지 유니트(42-1)를 위해 상이한 출력 신호(도시되지 않음)를 제공하기 위해 이용될 수 있다.
도 2 내지 4는 본 발명에 따른 비디오 압축 유니트(21)와 비디오 압축 해제 유니트(43)의 하이 레벨 블록도들이며 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합한 하이 레벨 블록도들이다. 각 실시예는 전자 영화 품질 비디오 정보를 인코딩하고 디코딩하는 현재 기술이 바람직한 효과를 갖는다는 것이 인식되야 한다. 예를 들어, 현재의 MPEG 인코더들은 통상적으로 YUV 공간을 이용하고, U와 V 채널들을 추림(decimating)하며 그리고 Y 채널 정보(예를 들어, 공지된 4:2:0 비디오 방식)보다 훨씬 낮은 대역폭에서 추림된 U와 V 채널 정보를 인코딩한다. 유사하게, 현재의 MPEG 디코터들은 통상적으로 Y 채널과 추림된 U와 V 채널 비디오의 전 대역폭을 생성하기 위하여 4:2:0 방식의 인코딩 비디오를 디코딩한다. 따라서, 본 발명의 아래의 실시예들을 이용하여, 전자 영화 정보와 같은 높은 다이나믹 범위의 정보는 정상적인 방식으로 효율적으로 인코딩되고, 전송되며, 그리고 다이나믹 범위가 전혀 손실되지 않고 디코딩될 수 있다. 물론, 여러 인코더들 및/또는 디코더들은 공지된 반도체 제조 기술을 이용하여 단일 집적 회로를 구현하기 위하여 이용될 수 있다.
도 2는 본 발명에 따른 비디오 압축 유니트(21)과 비디오 압축 해제 유니트(43)의 하이 레벨 블록도이고 도 1의 오디오-비디오 정보 전달 시스템에 사용되기 적합한 하이 레벨 블록도이다. 특히, 도 2에서 도시된 비디오 압축 유니트(21)는 표준 MPEG 인코더들(218R, 218G 및 218B)과 다중화기(219)로 구성된다. 유사하게, 도 2에서 도시된 비디오 압축 해제 유니트(43)는 역다중화기(431)와 세 개의 표준 MPEG 디코더들(432R, 432G 및 432B)로 구성된다.
비디오 압축 유니트(21)에서, 완전 심도(즉, 완전한 다이나믹 범위)의 적색(S1R) 입력 비디오 신호는 제 1의 표준 MPEG 인코더(218R)의 휘도 입력과 결합되고; 완전 심도의 녹색(S1G) 입력 비디오 신호는 제 2의 표준 MPEG 인코더(218B)의 휘도 입력과 결합되며; 그리고 완전 심도의 녹색(S1G) 입력 비디오 신호는 제 3의 표준 MPEG 인코더(218G)의 입력에 결합된다.
각 표준 MPEG 인코더들(218R, 218G 및 218B)은 다중화기(219)에 결합된 각각 완전 심도의 압축 출력 신호들(S218R, S218G 및 S218B)를 생성한다. 다중화기(219)는 압축 비트 스트림(S21)을 형성하기 위하여 인코딩되고, 완전 심도의 압축 비디오 출력 신호들(S218R, S218G 및 S218B)을 다중화시킨다.
표준 MPEG 인코더들(218R, 218G 및 218B)은 통상적으로 4:2:0의 해상도를 가지는 YUV 공간 비디오를 인코딩하기 위해 사용된다. 즉, 인코더들은 통상적으로 휘도 채널을 인코딩하는 완전 해상도와 색차 채널들을 인코딩하는 감소된 해상도를 제공하기 위해 이용된다. 따라서, MPEG 인코더들(218R, 218G 및 218B)의 휘도 부분만을 이용하여, 도 2의 비디오 압축 유니트(21)는 휘도와 색차 정보를 인코딩하는(RGB 공간에서) 완전 심도를 제공한다. 인코딩된 입력 스트림들에 응하여 RGB 출력 신호들을 제공하는 MPEG 디코더들이 존재하는 것 또한 인식되야 한다. 그러나, 이 디코더들은 통상적으로 비용이 더 들고 불충분한 해상도를 제공한다.
비디오 압축 해제 유니트(43)에서, 역다중화기(431)는 압축 비트 스트림(S21)에 대응하는 압축 비트 스트림(S42)을 수신한다. 역다중화기는 압축 비트 스트림(S42)에서 완전 심도의 압축 비디오 스트림들(S218R, S218G 및 S218B)에 대응하는 세 개의 완전 심도의 압축 비디오 스트림들(S431R, S431G 및 S431B)을 추출한다. 완전 심도의 압축 비디오 스트림들(S218R, S218G 및 S218B)은 각각 표준 MPEG 디코더들(432R, 432G, 432B)의 휘도 입력과 결합된다. 표준 MPEG 디코더들(432R, 432G, 432B)은 각각 완전 심도의 적색(S43R) 비디오 신호, 완전 심도의 청색(S43B) 비디오 신호 및 완전 심도의 녹색(S43G) 비디오 신호를 대응적으로 생성한다.
표준 MPEG 디코더들(432R, 432G, 432B)은 통상적으로 4:2:0 해상도를 가지는 YUV 공간 비디오를 디코딩하기 위하여 사용된다. 따라서, MPEG 인코더들(432R, 432G, 432B)의 휘도 부분만을 이용함으로써, 도 2의 비디오 압축 해제 유니트(43)는 비디오 압축 유니트(21)에 초기에 제공되는 휘도와 색차 정보를 디코딩하는(RGB 공간에서) 완전 심도를 제공한다. 이 방식으로, 도 2에서 도시되는 비디오 압축 유니트(21)와 비디오 압축 해제 유니트(43)의 실시예는 전자 영화의 품질을 인코딩, 전송 및 디코딩하는 기능들을 경제적으로 수행한다.
도 3은 본 발명에 따른 비디오 압축 유니트(21)와 비디오 압축 해제 유니트(43)의 선택적 실시예의 하이 레벨 블록도이고 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합한 하이 레벨 블록도이다. 특히, 도 3에서 도시된 비디오 압축 유니트(21)는 포맷 컨버터(211), 로우/하이 패스 필터 소자들(LPF/HPFs)(212과 213), 움직임 예측 유니트(214), MPEG-2 압축 유니트(215), 증가 계층 데이터 압축 유니트(217)와 다중화기(216)로 구성된다. 유사하게, 도 3에서 도시된 비디오 압축 해제 유니트(43)는 역다중화기(433), MPEG 디코더(310), 증가 계층 디코더(320), 제 1 가산기(330), 제 3 가산기(340) 및 포맷 컨버터(350)로 구성된다.
포맷 컨버터(211)는 입력 RGB 비디오 신호(S1R, S1B 및 S1G)를 완전 심도 휘도 신호(Y), 제 1 완전 심도 색차 신호(U') 및 제 2 완전 심도 색차 신호(V')로 전환시킨다. 제 1 및 2 완전 심도 색차 신호들(U'와 V')은 각각, 제 1 및 2 로우/하이 패스 필터 소자들(212, 213)과 결합된다.
제 1 및 2 로우/하이 패스 필터 소자들(212, 213)은 각각 실시예에서, 로우 패스 디지털 필터와 보상 하이 패스 디지털 필터로 구성된다. 즉, 로우 패스 디지털 필터의 고주파 3dB 롤오프(roll-off) 주파수는 하이 패스 디지털 필터의 저주파 3dB 롤오프 주파수와 대략 같다. 롤오프 주파수는 로우 패스 디지털 필터를 통해서, 표준 한정 색차 신호와 정상적으로 관련되 주파수 성분들을 통과하는 주파수로 선택된다. 롤오프 주파수는 또한 하이 패스 디지털 필터를 통해서, 단지 높은 한정 색차 신호와 정상적으로 관련된 추가의 주파수 성분들을 통과한다.
제 1 로우/하이 패스 필터 소자(212)와 제 1 로우/하이 패스 필터 소자(213)는 각각, 제 1 로우 패스 필터링되고 추림된 색차 신호(UL)와 제 2 로우 패스 필터링되고 추림된 색차 신호(VL)를 생성한다. 휘도 신호(Y), 제 1 로우 패스 필터링된 색차 신호(UL) 및 제 2 로우 패스 필터링된 색차 신호(VL)는 움직임 예측 유니트(214)와 결합된다.
당업자들은 특정 위상 보상, 지연 및 버퍼링 기술들이 휘도 신호(Y), 제 1 로우 패스 필터링된 색차 신호(UL) 및 제 2 로우 패스 필터링된 색차 신호(VL)가 적절하게 동기화되게 하는 예를 들어, 그룹 지연 및 다른 필터링 장치들을 보상하기 위해 사용되야 한다.
완전 심도 휘도 신호(Y), 제 1 색차 신호(UL) 및 제 2 색차 신호(VL)는 4:4:4 해상도를 가지는 비디오 신호를 생성한다. 반대로, 휘도 신호(Y), 제 1 로우 패스 필터링된 색차 신호(UL) 및 제 2 로우 패스 필터링된 색차 신호(VL)는 실시예에서, 표준 MPEG 4:2:2 또는 4:2:0 해상도를 가지는 비디오 신호를 생성한다. 따라서, 움직임 예측 유니트(214)와 MPEG2 압축 유니트(215)는 예를 들어, 응용 특정 집적 회로들(ASICs)에서 사용하기 위한 저가(즉, "쉽게 구입 가능한") 소자들 또는 셀들을 이용하는 공지된 방식으로 수행될 수 있다.
움직임 예측 유니트(214)와 MPEG2 압축 유니트(215)는 다중화기(216)와 결합되는 압축 비디오 스트림(S215)을 출력에서 생성한다. 또한, 움직임 예측 유니트(214)는 예를 들어, 예측되는 YUV 비디오 스트림의 각 매크로 블록에 대한 움직임 벡터들을 나타내는 움직임 벡터 데이터 신호(MV DATA)를 생성한다.
제 1 로우/하이 패스 필터 소자(212)와 제 2 로우/하이 패스 필터 소자(213)는 각각 제 1 하이 패스 필터링된 색차 신호(UH) 및 제 2 하이 패스 필터링된 색차 신호(VH)를 생성한다. 제 1 하이 패스 필터링된 색차 신호(UH) 및 제 2 하이 패스 필터링된 색차 신호(VH)는 증가 계층 데이터 압축 유니트(217)와 결합된다.
증가 계층 데이터 압축 유니트(217)는 제 1 하이 패스 필터링된 색차 신호(UH), 제 2 하이 패스 필터링된 색차 신호(VH) 및 움직임 벡터 데이터 신호(MV DATA)를 수신한다. 이에 응하여, 증가 계측 데이터 압축 유니트(217)는 압축 비디오 스트림(S215)에 증가 계층으로 구성되는 정보 스트림(S217)을 출력에서 생성한다. 증가 계층 정보 스트림(S217)은 압축 비디오 스트림(S215) 내의 표준 주파수 색차 정보(즉, UL와 VL)에 대응하는 고주파 색차 정보(즉, UH와 VH)로 구성된다. 표준 주파수 색차 정보(즉, UL와 VL)에 관하여 생성되는 증가 계층 정보 스트림(S217) 내의 움직임 벡터 정보는 표준 주파수 성분들에 첨가되는 공간 오프셋들 또한 대응 고주파 성분들에 첨부되도록 사용된다. 증가 계층 정보 스트림(S217)은 다중화기(216)와 결합된다.
다중화기(216)는 압축 비트 스트림(S21)을 형성하기 위하여 압축 비디오 스트림(S215)과 증가 계층 정보 스트림(S217)을 다중화시킨다. 도 3의 실시예에서, 압축 비디오 스트림(S215)은 표준 MPEG2 스트림으로 구성된다. 증가 계층 정보 스트림(S217)은 또한 도시된 움직임 벡터들과 선택적으로, 다른 표준 MPEG 압축 파라미터들(도시되지 않음)과 같은 MPEG 압축으로부터의 압축 파라미터들을 이용하여 압축된다.
비디오 압축 해제 유니트(43)에서, 역다중화기(433)는 압축 비트 스트림(S21)에 대응하는 압축 비트 스트림(S42)을 수신한다. 역다중화기(433)는 압축 비트 스트림(S42)으로부터, 압축 비디오 스트림(S215)과 증가 계층 정보 스트림(S217)을 얻는다. 증가 계층 정보 스트림(S217)이 증가 계층 디코더(320)과 결합하는 반면에, 압축 비디오 스트림(S215)은 MPEG 디코더(310)와 결합된다.
MPEG 디코더(310)는 휘도 신호(Y), 제 1 로우 표준 해상도 색차 신호(UL) 및 제 2 표준 해상도 필터링된 색차 신호(VL)를 생성하기 위하여 압축 비디오 스트림(S215)를 디코딩하는 표준 방식으로 동작한다. 제 1 로우 표준 해상도 색차 신호(UL)는 제 1 가산기(330)의 제 1 입력과 결합되는 반면에, 제 2 표준 해상도 필터링된 색차 신호(VL)는 제 2 가산기(340)의 제 1 입력과 결합된다. 휘도 신호(Y)는 포맷 컨버터(350)의 휘도 입력과 결합된다.
증가 계층 디코더(320)는 제 1 색차 신호(UH)와 제 2 색차 신호(VH)의 고주파 성분들을 얻기 위하여 증가 계층 정보 스트림(S217)을 디코딩한다. 제 1 색차 신호(UH)의 고주파 성분들은 제 1 가산기(330)의 제 2 입력과 결합되는 반면에, 제 2 색차 신호(VH)의 고주파 성분들은 제 2 가산기(340)의 제 2 입력과 결합된다.
제 1 가산기(330)는 완전 심도 제 1 색차 신호(U')를 생성하기 위하여 제 1 표준 해상도 색차 신호(UL)와 제 1 색차 신호(UH)의 고주파 성분들을 더하는 공지된 방식으로 동작한다. 제 2 가산기(340)는 완전 심도 제 2 색차 신호(U')를 생성하기 위하여 제 2 표준 해상도 색차 신호(VL)와 제 2 색차 신호(VH)의 고주파 성분들을 더하는 공지된 방식으로 동작한다. 제 1 완전 심도 색차 신호(U')와 제 2 완전 심도 색차 신호(V')는 포맷 컨버터(350)와 결합된다. 포맷 컨버터(350)는 Y, U' 및 V' 성분들로 나타나는 4:4:4 YUV 공간 비디오 신호를 대응 RGB 공간 신호들(S43R, S43G 및 S43B)로 전환하는 표준 방식으로 동작한다.
도 3에서 도시된 비디오 압축 유니트(21)와 비디오 압축 해제 유니트(43)의 실시예는 표준 해상도 비디오 스트림(S215)과 해당 증가 계층 비디오 스트림(S217)으로 구성되는 전자 영화 품질의 비디오 정보 스트림을 제공하는 현재의 MPEG 인코더와 디코더 기술의 바람직한 효과를 나타낸다. 증가 계층 비디오 스트림(S217) 없이, 증가 계층 디코더(320)는 널을 출력한다. 따라서, 이 경우에, 제 1 가산기(320)의 출력은 제 1 표준 해상도 색차 신호(UL)만으로 구성되는 반면에, 제 2 가산기(340)의 출력은 제 2 표준 해상도 색차 신호(VL)만으로 구성될 것이다.
본 발명의 일 실시예에서, 증가 계층 디코더(320)는 외부 제어 소스(즉, 사용자 제어) 또는 암호 해제 유니트(42)(즉, 소스 또는 액세스 제어)에 의해 생성된 제어 신호(CONTROL)에 반응한다.
도 4는 본 발명에 따른 비디오 압축 유니트(21)와 비디오 압축 해제 유니트(43)의 선택적 실시예의 하이 레벨 블록도이고 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합한 하이 레벨 블록도이다. 특히, 도 4에서 도시된 비디오 압축 유니트(21)는 포맷 컨버터(211), 로우 패스 필터들(LPFs)(402와 404)의 쌍, 세 개의 MPEG 인코더들(410 내지 412), MPEG 디코더(420), 감산기들(406과 408)의 쌍 및 다중화기(440)으로 구성된다. 유사하게, 도 4에서 도시된 비디오 압축 해제 유니트(43)는 역다중화기(450), 제 2, 3 및 4 MPEG 디코더들(421 내지 423), 제 1 및 2 가산기들(466 및 468) 및 포맷 컨버터(470)로 구성된다.
포맷 컨버터(211)는 입력 RGB 비디오 신호(S1R, S1B 및 S1G)를 완전 심도 휘도 신호(Y), 제 1 완전 심도 색차 신호(U') 및 제 2 완전 심도 색차 신호(V')로 전환시킨다. 제 1 및 2 완전 심도 색차 신호들(U'와 V')은 각각, 제 1 및 2 로우/하이 패스 필터들(402, 404)과 결합된다. 제 1 및 2 완전 심도 색차 신호들(U' 및 V')은 또한 제 1 감산기(406)의 제 1 입력과 제 2 감산기(408)의 제 1 입력과 결합된다.
제 1 및 2 로우/하이 패스 필터들(402, 404)은 각각 제 1 로우 패스 필터링되고 추림된 색차 신호(U)와 제 2 로우 패스 필터링되고 추림된 색차 신호(V)를 생성한다. 휘도 신호(Y), 제 1 로우 패스 필터링되고 추림된 색차 신호(U) 및 제 2 로우 패스 필터링되고 추림된 색차 신호(V)는 제 1 MPEG 인코더(410)와 결합된다. 제 1 MPEG 인코더(410)는 실시예에서, 4:2:0 압축 출력 스트림(CYUV)을 생성하는 표준 방식으로 동작한다. MPEG 인코딩된 출력 스트림(CYUV)은 다중화기(440)와 MPEG 디코더(420)와 결합된다.
MPEG 디코더(420)는 제 1 디코딩된 색차 신호(UD)와 제 2 디코딩된 색차 신호(VD)를 생성하기 위하여 MPEG 인코더(410)를 통해서 생성되는 인코딩된 출력 스트림(CYUV)을 디코딩한다. 제 1 디코딩된 색차 신호(UD)와 제 2 디코딩된 색차 신호(VD)는 각각 제 1 감산기(406)의 제 2 입력과 제 2 감산기(408)의 제 2 입력과 결합된다.
제 1 감산기(406)는 제 1 색 서브차 신호(dU)를 생성하기 위하여 제 1 완전 심도 색차 신호(U')에서 제 1 디코딩된 색차 신호(UD)를 뺀다. 제 2 감산기(408)는 제 2 색 서브차 신호(dV)를 생성하기 위하여 제 2 완전 심도 색차 신호(V')에서 제 2 디코딩된 색차 신호(VD)를 뺀다.
제 1 색 서브차 신호(dU)는 제 2 MPEG 디코더(411)의 휘도 입력과 결합된다. 제 2 색 서브차 신호(dV)는 제 3 MPEG 디코더(412)의 휘도 입력과 결합된다. 제 2 MPEG 인코더(411)는 제 1 인코딩된 색 서브차 신호(CdU)를 생성하기 위하여 제 1 색 서브차 신호(dU)를 압축 코딩하는 표준 방식으로 동작한다. 제 3 MPEG 인코더(412)는 제 2 코딩된 색 서브차 신호(CdV)를 생성하기 위하여 제 2 색 서브차 신호(dV)를 압축 코딩하는 표준 방식으로 동작한다. 제 1 및 2 압축 코딩된 색 서브차 신호들(CdU,CdV)은 다중화기(440)와 결합된다.
다중화기(440)는 압축 비트 스트림(S21)을 형성하기 위하여 제 1 MPEG 인코더(410)(CYUV), 제 2 MPEG 인코더(411)(CdU), 제 3 MPEG 인코더(412)(CdV)로부터 압축 코딩된 출력 스트림들을 다중화시킨다.
비디오 압축 해제 유니트(43)에서, 역다중화기(450)는 다중화기(440)의 출력에서 생성되는 압축 비트 스트림(S21)에 대응하는 압축 비트 스트림(S42)를 수신한다. 역다중화기(450)는 압축 비트 스트림(S42)으로부터 제 1 MPEG 인코더(410)(CYUV), 제 2 MPEG 인코더(411)(CdU), 제 3 MPEG 인코더(412)(CdV)의 출력에 대응하는 세 개의 압축 비디오 스트림들을 얻는다. 특히, 역다중화기(450)는 MPEG 인코더(410)에 의해 생성된 압축 YUV 스트림(CYUV)을 얻고, MPEG 디코더(421)의 입력에 이 압축 YUV 스트림(CYUV)을 결합시킨다. 역다중화기(450)는 또한 압축 제 1 색 서브차 스트림(CdU)을 얻고, 제 3 MPEG 디코더(422)의 입력에 이 압축 스트림(CdU)을 결합시킨다. 역다중화기(450)는 또한 압축 제 2 색 서브차 스트림(CdV)을 얻고, 제 4 MPEG 디코더(423)의 입력에 이 압축 스트림(CdV)을 결합시킨다.
제 2 MPEG 디코더(421)는 실시예에서, 휘도 신호(Y), 제 1 로우 패스 필터링되고 추림된 색차 신호(U) 및 제 2 로우 패스 필터링되고 추림된 색차 신호(V)를 생성하기 위하여 4:2:0 압축을 이용하는 표준 방식으로 압축 YUV 스트림(CYUV)을 디코딩한다. 휘도 신호(Y)는 포맷 컨버터(470)과 직접 결합된다. 제 1 로우 패스 필터링되고 추림된 색차 신호(U)는 제 1 가산기(466)의 제 1 입력과 결합된다. 제 2 로우 패스 필터링되고 추림된 색차 신호(V)는 제 2 가산기(468)의 제 1 입력과 결합된다.
제 3 MPEG 디코더(422)는 휘도 출력에서 제 1 색 서브차 신호(dU)를 생성하기 위하여 제 1 인코딩된 색 서브차 신호(CdU)를 디코딩하는 표준 방식으로 동작한다. 제 4 MPEG 디코더(423)는 휘도 출력에서 제 2 색 서브차 신호(dV)를 생성하기 위하여 제 2 인코딩된 색 서브차 신호(CdV)를 디코딩하는 표준 방식으로 동작한다. 제 1 및 2 색 서브차 신호(dU와 dV)는 각각 제 1 가산기(466)의 제 2 입력과 제 2 가산기(468)의 제 2 입력과 결합된다.
제 1 가산기(466)는 출력에서 완전 심도 제 1 색차 신호(U')를 생성하기 위하여 제 1 로우 패스 필터링되고 추림된 색차 신호(U)와 제 1 색 서브차 신호(dU)를 더하는 표준 방식으로 동작하고, 그 다음에 포맷 컨버터(470)와 결합된다. 제 2 가산기(468)는 완전 심도 제 2 색차 신호(V')를 생성하기 위하여 제 2 로우 패스 필터링되고 추림된 색차 신호(V)를 제 1 색 서브차 신호(dV)에 더하는 표준 방식으로 동작하고, 그 다음에 포맷 컨버터(470)와 결합된다.
포맷 컨버터(370)는 완전 심도 휘도 신호(Y), 완전 심도 제 1 색차 신호(U') 및 완전 심도 제 2 색차 신호(V')를 적색(R), 녹색(G) 및 청색(B)인 RGB 공간 출력 신호로 전환하는 표준 방식으로 동작한다.
도 4의 실시예에서, MPEG 인코더들(410 내지 421)과 MPEG 디코더들(420 내지 423)은 통상적으로 공지된 4:2:0 해상도 포맷에 따른 비디오 정보 신호들에 영향을 미치도록 사용되는 표준(즉, 저가의) MPEG 인코더들과 디코더들이다. 도 4의 비디오 압축 유니트(21)는 세 개의 압축 신호들(CYUV,CdU및CdV)을 생성하도록 동작한다. 두 개의 압축 색 서브차 신호들(CdU및CdV)은 완전 심도 색차 신호들(U' 및 V')과 MPEG 인코더(410)의 압축 출력 스트림(CYUV)과 결합되는 로우 패스 필터링되고 추림되는 색차 신호들(U 및 V) 사이의 차를 나타낸다.
MPEG 디코더(420)는 출력 인코더(410)의 압축 출력 스트림 내에 결합되는 실제 색차 신호들(UD및VD)을 검색하기 위해 사용된다. 검색된 색차 신호들은 그 다음에 각 색 서브차 신호들을 생성하기 위하여 완전 심도 색차 신호들에서 빼진다. 색 서브차 신호들은 그 다음에 각 MPEG 인코더들에 의해 인코딩되고 다중화기(440)에 의해 다중화된다.
비디오 압축 해제 유니트는 YUV, dU 및 dV 신호들을 각각 생성하기 위하여 CYUV,CdU및CdV신호들을 디코딩하도록 동작한다. 색 서브차 신호(dU)는 완전 심도 색차 신호(U')를 생성하기 위하여 디코딩된 색차 신호(U)에 다시 더해진다. 유사하게, 색 서브차 신호(dV)는 완전 심도 색차 신호(V')를 생성하기 위하여 디코딩된 색차 신호(V)에 다시 더해진다. 이 방식으로 표준 MPEG 인코더들과 디코더들은 4:4:4 루마(luma)/크로마(chroma) 비디오 정보 신호들을 생성할 수 있는 시스템을 저비용으로 수행하기 위하여 사용된다.
도 5a는 본 발명에 따른 비디오 압축 유니트(21)의 선택적 실시예의 하이 레벨 블록도이고 도 1의 오디오-비디오 정보 전달 시스템에서 사용하기 적합한 하이 레벨 블록도이다. 도 5b와 5c는 본 발명에 따른 비디오 압축 해제 유니트(43)의 선택적 실시예의 하이 레벨 블록도이고 도 5a의 비디오 압축 유니트(21)를 이용하는 오디오-비디오 정보 전달 시스템에서 사용하기 적합한 하이 레벨 블록도이다.
도 5a 내지 5c에서 도시된 비디오 압축 유니트(21)와 비디오 압축 해제 유니트(43)의 선택적 실시예들은 YIQ는 동일한 비디오를 나타내는 YUV보다 저 대역폭을 요한다는 발명자의 인식에 기초한다. 특히, YUV 신호의 색 성분들(즉, U 및 V의 색차 신호들)은 표준 MPEG 시스템들 내의 동일 양의 대역폭을 요한다. 지금까지, YUV 신호들은 유럽 PAL 아날로그 텔레비젼 방식에 기초하고 있다. 반대로, 미국 NTSC 아날로그 텔레비젼 방식은 비디오의 YIQ 신호를 이용하고 있다. YIQ 신호는 저 대역폭을 I 성분보다 Q 성분을 위해 이용한다. 이것은 Q 색 벡터가 색차 스펙트럼 중 일부 "자주빛"을 나타내고, 스펙트럼의 일부 자주색에 대한 약간의 정확성 감소는 사람의 눈에 분명하게 구별되지는 않기 때문에 가능하다. 따라서, 비슷한 화상 품질을 제공하는 동안, YIQ 비디오 신호를 위해 필요한 총 대역폭은 YUV 비디오 신호를 위해 필요한 총 대역폭보다 좁다.
도 5a에서, 도 5a에서 도시된 비디오 압축 유니트(21)는 포맷 컨버터(502), "로우 수평, 로우 수직"(LL) 공간 필터들(504 와 506)의 쌍, "로우 수평, 하이 수직"(LH) 공간 필터(508), "하이 수평, 로우 수직"(HL) 공간 필터(510), 공간 주파수 변환기들(즉, 다운 컨버터)(509 와 511)의 쌍, MPEG 인코더들(520 와 522)들의 쌍 및 다중화기(440)으로 구성된다.
포맷 컨버터(502)는 입력 RGB 비디오 신호들(S1R, S1G 및 S1B)을 완전 심도 휘도 신호(Y), 완전 심도 동위상 색차 신호(I') 및 완전 심도 4 위상 색차 신호(Q')로 변환시킨다. 완전 심도 휘도 신호(Y)는 제 1 MPEG 인코더(520)의 휘도 입력(Y)에 결합된다. 완전 심도 동위상 색차 신호(I')와 완전 심도 4 위상 색차 신호(Q')는 각각, 제 1 LL 공간 필터(504)와 제 2 LL 공간 필터(506)에 결합된다. 완전 심도 4 위상 색차 신호(Q')는 또한 LH 공간 필터(508)와 HL 공간 필터(510)에 결합된다. 완전 심도 동위상 색차 신호(I')는 또한 제 2 MPEG 디코더(522)의 휘도 입력(Y)에 결합된다.
LL 공간 필터(504)는 이 때 MPEG 인코더(520)의 제 1 색차 입력과 결합되는 LL 공간 필터링되고 서브 샘플링된 동위상 색차 신호(ILL)를 생성하기 위하여 공지된 방식으로 수평 로우 패스 필터와 수직 로우 패스 필터에서 완전 심도 동위상 색차 신호(I')를 동작시킨다. LL 공간 필터(506)는 이 때 MPEG 인코더(520)의 제 2 색차 입력과 결합되는 LL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLL)를 생성하기 위하여 공지된 방식으로 수평 로우 패스 필터와 수직 로우 패스 필터에서 완전 심도 동위상 색차 신호(Q')를 동작시킨다.
제 1 MPEG 인코더(520)는 실시예에서, 4:2:0 압축 출력 스트림(CYIQ)을 생성하기 위하여 공지된 방식으로 동작한다. 제 1 MPEG 인코딩 출력 스트림(CYIQ)은 다중화기(524)의 제 1 입력과 결합된다.
제 1 MPEG 인코딩 출력 스트림(CYIQ)(520G)의 성분 신호의 상대적 공간 주파수 합성을 나타내는 도면은 LL 공간 필터들(504 및 506)의 동작을 설명하는데 도움이 되도록 제공된다.
도면(520G)은 세 개의 동일 크기 박스를 도시한다. 각 박스는 이미지 성분(즉, fv, v 및 fh)의 수평 주파수들의 기능으로서 이미지 성분의 수직 주파수들을 도시함으로써 이미지 성분(즉, Y, I 또는 Q)의 공간 주파수 합성을 도시한다. 제 1 박스는 완전 심도 휘도 신호(Y)의 공간 주파수 합성을 나타내고, 제 2 박스는 LL 공간 필터링되고 서브 샘플링된 동위상 색차 신호(ILL)의 공간 주파수 합성을 나타내며, 그리고 제 3 박스는 LL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLL)의 공간 주파수 합성을 나타낸다. 박스는 4 개의 쿼드란트(quadrant)들, 좌측 하부의 로우 수평 주파수 로우 수직 주파수(LL) 쿼드란트, 좌측 상부의 로우 수평 주파수 하이 수직 주파수(LH) 쿼드란트, 우측 하부의 하이 수평 주파수 로우 수직 주파수(HL) 쿼드란트 및 우측 상부의 하이 수평 주파수 로우 수직 주파수(HH) 쿼드란트로 나눠진다. 쿼드란트 내의 정보는 주파수 컨버터들을 이용하는 공지된 방식으로 다른 쿼드란트로 스펙트럼으로 이동될 수 있다.
완전 심도 휘도 신호(Y)가 박스 전체를 차지한다는(즉, 전체 공간 주파수 합성을 유지하는) 것이 검사를 통해서 관찰될 수 있다. 그러나, LL 공간 필터링되고 서브 샘플링된 동위상 색차 신호(ILL)와 4 위상 색차 신호(QLL) 모두 각 박스들의 좌측 하부 쿼드란트만(즉, 각각 수직 및 수평 방향으로 1/2 오리지날 공간 주파수 합성)을 차지한다. 제 2 및 제 3 박스들의 어두운 부분들은 각각, LL 공간 필터들(504 및 506)의 동작에 의해 제거된 공간 주파수 합성의 일부를 나타낸다.
이미지들을 전술된 주파수 쿼드란트들로 나누는 공간 필터들은 당 기술분야에서 널리 공지되어 있다. 예를 들어, 4 부분 거울 필터들(QMF)은 이 기능을 수행하는데 적합하다. 따라서, 기술자는 QMF 기술을 이용하여 LL 공간 필터들(504 및 506), LH 공간 필터들(508) 및 HL 공간 필터(510)를 수행한다.
LH 공간 필터(508)는 이 때 제 1 주파수 다운 컨버터(509)와 결합되는 LH 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLH)를 생성하기 위하여 공지된 방식으로 수평 로우 패스 필터와 수직 하이 패스 필터에서 완전 심도 4 위상 색차 신호(Q')를 동작시킨다. 제 1 주파수 다운 컨버터(509)는 LH 쿼드란트에서 LL 쿼드란트까지의 LH 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLH)의 스펙트럼 에너지를 이동시키는 방식으로 동작시킨다. 형성된 스펙트럼 이동된 4 위상 색차 신호(QLH)는 이 때 제 2 MPEG 인코더(522)의 제 1 색차 입력과 결합된다.
HL 공간 필터(510)는 이 때 제 2 주파수 다운 컨버터(511)와 결합되는 LH 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QHL)를 생성하기 위하여 공지된 방식으로 수평 하이 패스 필터와 수직 로우 패스 필터에서 완전 심도 4 위상 색차 신호(Q')를 동작시킨다. 제 2 주파수 다운 컨버터(511)는 HL 쿼드란트에서 LL 쿼드란트까지의 HL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QHL)의 스펙트럼 에너지를 이동시키는 방식으로 동작시킨다. 형성된 스펙트럼 이동된 4 위상 색차 신호(QHL)는 이 때 제 2 MPEG 인코더(522)의 제 2 색차 입력과 결합된다.
제 2 MPEG 인코더(522)는 실시예에서, 4:2:0 압축 출력 스트림(CI'Q)을 생성하는 공지된 방식으로 동작한다. 제 2 MPEG 인코딩 출력 스트림(CI'Q)은 다중화기(524)의 제 2 입력과 결합된다.
다중화기(524)는 압축 비트 스트림(S21)을 형성하기 위하여 제 1 MPEG 인코더(520)와 제 2 MPEG 인코더(522)로부터의 압축 코딩된 출력 스트림들을 다중화시킨다.
제 2 MPEG 인코딩 출력 스트림(CI'Q)(522G)의 성분 신호들의 상대적 공간 주파수 합성을 나타내는 도면은 LH 공간 필터(508), HL 공간 필터(510) 및 주파수 다운 컨버터(509 및 511)을 설명하는데 도움이되도록 제공된다.
도면(522G)은 세 개의 동일 크기 박스를 도시한다. 제 1 박스는 완전 심도 동위상 색차 신호(I')의 공간 주파수 합성을 나타내고, 제 2 박스는 HL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QHL')의 공간 주파수 합성을 나타내며, 그리고 제 3 박스는 LH 공간 필터링되고 서브 샘플링되며 주파수 다운 컨버딩된 4 위상 색차 신호(QLH')의 공간 주파수 합성을 나타낸다.
완전 심도 동위상 색차 신호(I')가 박스 전체를 차지한다는(즉, 전체 공간 주파수 합성을 유지하는) 것이 검사를 통해서 관찰될 수 있다. 그러나, LH 공간 필터링되고 서브 샘플링되며 주파수 컨버팅된 4 위상 색차 신호(QLH')와 HL 공간 필터링되고 서브 샘플링되며 주파수 다운 컨버팅된 4 위상 색차 신호(QHL') 모두 각 박스들의 좌측 하부 쿼드란트만(즉, 각각 수직 및 수평 방향으로 1/2 오리지날 공간 주파수 합성)을 차지한다. 제 2 및 제 3 박스들의 어두운 부분들(좌측 하부 쿼드란트들에 따라)은 각각, HL 공간 필터(510)와 LH 공간 필터(508)의 동작에 의해 제거된 공간 주파수 합성의 일부를 나타낸다. QLH'및 QHL'은 각각 화살표로 지시된 퀀드란트들로부터 LL 쿼드란트까지 주파수 다운 컨버터들(509 및 511)에 의해 스펙트럼적으로 이동된다.
다중화된 출력 스트림(S21)은 완전 심도 휘도 신호(Y), 완전 심도 동위상 색차 신호(I') 및 부분 해상도 4 위상 색차 신호(Q+QLH'+QHL')로 구성된다. 사실상, 다중화된 출력 스트림(S21)은 4:4:3 코딩된 비디오 정보의 YIQ 신호로 구성된다. 그러나, 다중화 출력 스트림은 전 대역폭 휘도 신호, 전 대역폭 동위상 색차 신호 및 공간 대역폭 4 위상 색차 신호로 구성된 YIQ 포맷 텔레비젼 신호를 이용한 RGB(또는 YUQ) 포맷 텔레비젼 신호를 재형성하기 위한 텔레비젼 기술분야에서 공지되어 있다. 따라서, 전술된 바와 같이, 도 5a의 비디오 압축 유니트(21)의 실시예는 회로의 복잡성을 추가로 감소시키기 위하여 YIQ 포맷 텔레비젼 신호 내의 색차 성분들의 비대칭 대역폭을 바람직하게 이용한다.
도 5b와 5c는 본 발명에 따른 비디오 압축 해제 유니트(43)의 선택적 실시예의 하이 레벨 블록도이고 도 5a의 비디오 압축 유니트(21)를 이용하는 오디오-비디오 정보 전달 시스템에서 사용하기 적합한 하이 레벨 블록도이다.
도 5b는 역다중화기(530), MPEG 디코더(543) 및 포맷 컨버터(550)으로 구성된 비디오 압축 해제 유니트(43)을 도시한다. 역다중화기(530)는 다중화기(524)의 출력에서 생성된 압축 비트 스트림(S21)에 대응하는 압축 비트 스트림(S42)을 수신한다. 역다중화기(530)는 MPEG 디코더(543)와 결합되고, 도 5a의 제 1 MPEG 인코더(520)의 출력에 대응하는 압축 비디오 스트림(CYIQ)을 얻는다.
MPEG 디코더(543)는 완전 심도 휘도 신호(Y), LL 공간 필터링되고 서브 샘플링된 동위상 색차 신호(ILL) 및 LL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLL)를 검색하기 위하여 4:2:0 압축 해제를 이용하는 표준 방식으로 압축 스트림(CYIQ)을 디코딩하는데, 각각의 이 신호는 포맷 컨버터(550)와 결합된다.
포맷 컨버터(550)는 완전 심도 휘도 신호(Y), LL 공간 필터링되고 서브 샘플링된 동위상 색차 신호(ILL) 및 LL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLL)로 구성되는 YIQ 공간 비디오 신호를 적색(R), 녹색(G) 및 청색(B)인 RGB 신호들로 변환하는 표준 방식으로 동작한다.
도 5c는 역다중화기(530), 제 1 및 제 2 MPEG 디코더들(542, 544), 주파수 업 컨버터들(546, 548), 가산기(552) 및 포맷 컨버터(550)으로 구성된 비디오 압축 해제 유니트(43)를 도시한다. 역다중화기(530)는 다중화기(524)의 출력에서 생성된 압축 비트 스트림(S21)에 대응하는 압축 비트 스트림(S42)를 검색한다. 역다중화기(530)는 제 1 MPEG 디코더(542)와 결합되고, 도 5a의 제 1 MPEG 인코더(520)의 출력에 대응하는 압축 비디오 스트림(CYIQ)을 얻는다. 역다중화기(530)는 제 2 MPEG 디코더(544)와 결합되고, 도 5a의 제 2 MPEG 인코더(522)의 출력에 대응하는 압축 비디오 스트림(CI'Q)을 얻는다.
제 1 MPEG 디코더(542)는 완전 심도 휘도 신호(Y) 및 LL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLL)를 검색하기 위하여 4:2:0 압축 해제를 이용하는 표준 방식으로 압축 YIQ 스트림(CYIQ)을 디코딩한다. 표준 MPEG 디코더는 또한 LL 공간 필터링되고 서브 샘플링된 동위상 색차 신호(ILL)를 검색하는 반면에, 이 신호는 도 5c의 비디오 압축 해제 유니트(43)에서 사용되지 않는다는 것이 인식되야 한다. 완전 심도 휘도 신호(Y)는 포맷 컨버터(550)의 휘도 입력과 결합된다. LL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLL)는 가산기(552)의 제 1 입력과 결합된다.
제 2 MPEG 디코더(544)는 완전 심도 동위상 색차 신호(I'), LH 공간 필터링되고 서브 샘플링되며 주파수 다운 컨버팅된 4 위상 색차 신호(QLH') 및 HL 공간 필터링되고 서브 샘플링되며, 주파수 컨버딩된 4 위상 색차 신호(QHL')를 검색하기 위하여 4:2:0 압축 해제를 이용하는 표준 방식으로 압축 스트림(CI'Q)을 디코딩한다. 완전 심도 동위상 색차 신호(I')는 포맷 컨버터(550)의 제 1 색차 신호와 결합된다. LH 공간 필터링되고 서브 샘플링되며 주파수 다운 컨버팅된 4 위상 색차 신호(QLH')는 제 1 주파수 업 컨버터(546)와 결합된다. HL 공간 필터링되고 서브 샘플링되며, 주파수 컨버딩된 4 위상 색차 신호(QHL')는 제 2 주파수 업 컨버터(548)와 결합된다.
주파수 업 컨버터(546)는 LH 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLH')를 생성하기 위하여 LH 공간 필터링되고 서브 샘플링되며 주파수 다운 컨버팅된 4 위상 색차 신호(QLH')를 업 컨버팅하는 공지된 방식으로 동작한다. 즉, 주파수 업 컨버터(546)는 LL 쿼드란트에서 LH 쿼드란트까지 LH 공간 필터링되고 서브 샘플링되며 주파수 다운 컨버팅된 4 위상 색차 신호(QLH')의 스펙트럼 에너지를 이동시킨다. 형성된 업 컨버팅 신호(QLH)는 가산기(552)의 제 2 입력과 결합된다.
주파수 업 컨버터(548)는 HL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QHL')를 생성하기 위하여 HL 공간 필터링되고 서브 샘플링되며, 주파수 컨버딩된 4 위상 색차 신호(QHL')를 업 컨버팅하는 공지된 방식으로 동작한다. 즉, 주파수 업 컨버터(546)는 LL 쿼드란트에서 HL 쿼드란트까지 HL 공간 필터링되고 서브 샘플링되며 주파수 다운 컨버팅된 4 위상 색차 신호(QHL')의 스펙트럼 에너지를 이동시킨다. 형성된 업 컨버팅 신호(QHL)는 가산기(552)의 제 3 입력과 결합된다.
가산기(552)는 근사치의 완전 해상도 4 위상 색차 신호(Q")를 생성하기 위하여 LL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLL), LH 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QLH) 및 HL 공간 필터링되고 서브 샘플링된 4 위상 색차 신호(QHL)를 더한다. 근사치의 해상도 4 위상 색차 신호(Q")는 완전 심도 4 위상 색차 신호(Q')의 약 4분의 3의 해상도를 가진다. 근사치의 해상도 4 위상 색차 신호(Q")는 포맷 컨버터(550)의 제 2 색차 입력과 결합된다.
포맷 컨버터(550)는 완전 심도 휘도 신호(Y), 완전 심도 동위상 색차 신호(I') 및 근사치의 완전 해상도 4 위상 색차 신호(Q")로 구성되는 YIQ 공간 비디오 신호를 적색(R), 녹색(G) 및 청색(B)인 RGB 공간 출력 신호들로 변환하는 표준 방식으로 동작한다.
포맷 컨버터(550)에 제공된 성분 신호들의 상대적 공간 주파수 합성을 나타내는 도면(543G)은 본 발명을 설명하는데 도움이 되도록 제공된다.
도면(543G)은 세 개의 동일 크기의 박스들을 도시한다. 제 1 박스는 완전 심도 휘도 신호(Y)의 공간 주파수 합성을 나타내고, 제 2 박스는 완전 심도 동위상 색차 신호(I')의 공간 주파수 합성을 나타내며, 그리고 제 3 박스는 근사치의 완전 해상도 4 위상 색차 신호(Q")의 공간 주파수 합성을 나타낸다.
완전 심도 휘도 신호(Y)와 동위상 색차 신호(I')는 각 박스들 전체를 차지한다는 것이 검사들 통해서 확인될 수 있다. 반대로, 근사치의 완전 해상도 4 위상 색차 신호(Q")는 이 박스들의 4분의 3을 차지한다. 제 3 박스의 어두운 부분은 도 5a의 비디오 압축 유니트(21)의 동작에 의해 제거된 완전 심도 4 위상 색차 신호(Q')의 일부를 나타낸다.
근사치의 완전 해상도 4 위상 색차 신호(Q")만이 HH 쿼드란트(즉, 고주파 수평 및 고주파 수직 쿼드란트)에 대한 정보가 부족하다는 것이 인식되야 한다. 그러나, HH 쿼드란트로부터의 정보의 손실은 다른 쿼드란트들 중 하나로부터의 정보의 손실보다 사람의 눈으로는 인식하기 어렵다. 또한, 완전 심도 동위상 색차 신호(I')는 이 정보 중 일부를 제공하는 표준 방식으로 사용될 수 있다. 따라서, 4 위상 색차 신호(Q")가 절충되는 범위에서, 이 절충의 영향은 상대적으로 낮고, 이 절충은 표준 YIQ 프로세싱 기술을 이용하여 다소 개선될 수 있다.
본 발명은 따라서, 예를 들어, 표준 8 비트 다이나믹 범위를 가지는 4:4:4 해상도의 MPEG 비디오 신호들 상에서 동작하는데 까지 설명되었다. MPEG 인코더들, 디코더들, 다중화기들 및 다양한 형태로 전술된 다른 소자들은 8 비트 텔레비젼 및 비디오 분야의 필요에 부응하여 적용되거나 대량 생산되는 경향이 있기 때문에, 표준(즉, "규격의) 소자들8 비트 다이나믹 범위가 사용된다.
4:4:4 코딩으로 8 비트 다이나믹 범위는 감동의 화상 품질을 제공하는 반면에, 이것은 전자 영화 품질 응용에는 불충분하다. 따라서, 본 발명의 개시의 다음 부분은 높은 다이나믹 범위의 시스템, 실시예에서, 10 비트 다이나믹 범위의 시스템을 수행하기에 적합한 전술된 특징으로의 변형을 설명할 것이다. 특히, 개선된 MPEG 인코더 및 해당 개선된 MPEG 디코더가 기술될 것이다. 개선된 인코더 및 디코더는 1998년 3월 30일에 출원된 공동 미국 특허 번호 09/050,304와 1998년 1월 16일에 출원된 임시 미국 특허 번호 60/071,294에서 상세히 기술되는 영역 픽셀 심도 압축 방법 및 장치에 기초하는데, 이 두 출원들은 이 출원들 전체를 참조로 구체화된다.
간단히 말해서, 전술된 방법과 장치는 상대적으로 높은 다이나믹 범위의 신호를 다수의 세그먼트들(예를 들어, 비디오 신호 내의 거대 구획(macroblocks)들)로 분할하고; 각 세그먼트 내의 관련 파라미터(예를 들어, 휘도, 색차 또는 움직임 벡터 파라미터)의 최대 및 최소 값들을 결정하고, 관련 파라미터의 각 값을, 예를 들어, 관련 파라미터의 최대 및 최소 값들에 의해 한정된 낮은 다이나믹 범위로 재배치하며; 표준(예를 들어, 낮은 다이나믹 범위) 방식으로 재배치된 세그먼트들을 인코딩하며; 과정이 오리지날의, 상대적으로 높은 다이나믹 범위의 신호를 검색하기 위해 바뀌는 수신 유니트에 이어서 전송하기 위한 전송 스트림을 형성하기 위하여 인코딩된 재배치 정보 세그먼트들과 해당 최대 및 최소 파라미터 값들을 다중화시킨다. 영역을 기초로 한 색 심도를 증가시키기 위한 기법은 이미지에서 보다 낳은 화상 품질을 제공하기 위하여 디지털화 단계의 일부로서 사용될 수 있고 전술된 임시 미국 특허에서 개시된다.
도 6a는 강화된 대역폭 MPEG 인코더를 도시한다. 특히, 도 6a는 표준 MPEG 인코더(620)와 강화된 대역폭 MPEG 인코더를 함께 형성하는 해당 영역의 맵과 스캐일 유니트(610)을 도시한다.
영역 맵 및 스캐일 유니트(610)는 비디오 소스(도시되지 않음)와 같은 정보 소스로부터, 상대적으로 높은 다이나믹 범위의 정보 신호(Y10), 실시예에서, 10 비트 다이나믹 범위의 휘도 신호를 수신한다. 영역 맵 및 스캐일 유니트(610)는 상대적으로 높은 다이나믹 범위의 정보 신호(Y10)의 각 화상 신호, 프레임 신호 및 필드 신호를 각각 다수의 서브 화상 영역들, 서브 프레임 영역들 또는 서브 필드 영역들로 분할한다. 이 서브 영역들은 실시예에서, 움직임 벡터 정보 등에 관한 화상, 프레임, 조각의 거대구획, 블록 및 픽셀 위치에 기초한 고정 또는 가변의 조정 영역으로 구성된다. 비디오 정보 스트림의 경우에, 바람직한 영역은 거대구획 영역 크기로 구성된다.
다수의 각 서브 영역은 실시예에서, 처리된 영역 내의 픽셀들에 의해 이용되는 최대 휘도 레벨(YMAX)과 최소 휘도 레벨(YMIN)을 확인하도록 처리된다. 각 영역 내의 휘도 정보는 그 다음에 실시예에서, 상대적으로 낮은 다이나믹 범위, 실시예에서, 8 비트 정보 신호(Y8)의 출력으로 생성하기 위하여 각 영역의 확인된 최소 휘도 레벨(YMIN)과 최대 휘도 레벨(YMAX)에 대응하는 상한 및 하한을 가지는 오리지날 10 비트 다이나믹 범위(즉, 0 내지 1023)에서 8 비트 다이나믹 범위(즉, 0 내지 255)까지 스캐일링(즉, 리매핑) 된다. 각 영역에 관련된 최대 및 최소 값들과 이 영역들을 확인하는 정보는 맵 영역 ID 신호로서의 출력과 결합된다.
인코더(610), 실시예에서, MPEG과 같은 비디오 인코더는 리매핑된, 상대적으로 낮은 다이나믹 범위의 정보 신호(Y8)를 영역 맵 및 스캐일 유니트(610)으로부터 수신한다. 비디오 인코더(15)는 압축 비디오 신호(CY8), 실시예에서, MPEG과 같은 비디오 기본 스트림을 생성하기 위하여 상대적으로 낮은 다이나믹 범위의 정보 신호(Y8)를 인코딩한다.
전술된 개선된 MPEG 인코더는 이전의 모든 특징으로 기술된 모든 표준 MPEG 인코더들을 대체하기 위해 사용될 수 있다. 바람직하게 개선된 MPEG 인코더가 10 비트 휘도 신호(Y10)를 표준 MPEG 인코더의 휘도 입력과 결합되는 8 비트 휘도 신호(Y8)로 압축됨으로써 도시된다. 전술된 바와 같이, MPEG 인코더의 휘도 입력(Y)에 적용된 신호는 통상적으로 8 비트 완전 심도로 인코딩되는 반면에, MPEG 인코더의 색차 입력들(U, V)에 적용되는 신호들은 통상적으로 완전 심도보다 낮게 인코딩되어, 인코더는 일반적으로 4:2:0 압축 신호를 생성한다. 영역 맵 및 스캐일 유니트(또는 추가의 유니트)가 상대적으로 높은 다이나믹 범위의 신호(예를 들어, 10 비트)를 MPEG 인코더 색차 입력에 필요한 완전 심도 범위 이하로 적용되는데 사용될 수 있다. 이 적용은 본 발명의 범위 내에서 발명자에 의해 고려된다.
도 6b는 강화된 대역폭 MPEG 디코더를 도시하고 도 6a의 강화된 대역폭 MPEG 인코더를 이용하는 시스템에 사용하기 적합하다. 특히, 도 6b는 표준 MPEG 디코더(630)와 강화된 대역폭 MPEG 디코더를 함께 형성하는 해당 반전된 영역 맵 및 스캐일 유니트(640)를 도시한다.
디코더(630), 실시예에서, MPEG과 같은 비디오 디코더는 공지된 방식으로, 상대적으로 낮은 다이나믹 범위의 정보 신호(Y8)를 검색하기 위하여 압축 비디오 신호(CY8)를 수신하고 디코딩하며, 그 다음에 반전된 영역 맵 및 스캐일 유니트(640)와 결합된다.
반전된 영역 맵 및 스캐일 유니트(640)는 상대적으로 낮은 다이나믹 범위의 정보 신호(Y8), 실시예에서, 8 비트 휘도 신호와 해당 맵 영역 ID 신호를 수신한다. 반전된 영역 맵 및 스캐일 유니트(640)는 오리지날 10 비트 다이나믹 범위의 비디오신호(S1)에 대응하는 10 비트 비디오 신호(S15)를 생성하기 위하여, 영역 베이시스에 의한 영역 상에 8 비트 기저대역 비디오 신호(S13)를 리매핑한다. 형성된 10 비트 비디오 신호는 추가의 프로세싱을 위한 비디오 프로세서(도시되지 않음)와 결합된다. 반전된 영역 맵 및 스캐일 유니트(640)는 맵 영역 ID 신호(S14)로부터, 각 화상, 프레임 또는 필드 서브 영역과 에 관련된 이전에 확인된 최대 휘도 레벨(YMAX)과 최소 휘도 레벨(YMIN), 상대적으로 낮은 다이나믹 범위의 정보 신호(Y8) 내의 특정 서브 영역을 가지는 검색된 최대 및 최소 값들에 필요한 모든 확인 정보를 검색한다. 각 영역에 관련된 휘도 정보는 그 다음에 오리지날 10 비트 휘도 신호(Y10)를 실질상 재성성하기 위하여 영역과 관련된 확인된 최대 휘도 레벨(YMAX)과 최소 휘도 레벨(YMIN)에 의해 경계지어지는 8 비트 다이나믹 범위에서 오리지날 10 비트(즉, 0 내지 1023) 다이나믹 범위까지 스캐일링(즉, 리매핑)된다.
맵 영역 ID 신호는 압축 비디오 신호(CY8)의 오리지날 다이나믹 범위를 재저장하는데 필요하기 때문에, 두 신호들 모두는 도 6b의 개선된 MPEG 디코더와 같은 디코더와 결합된다. 이 신호들은 개선된 디코더에 직접 또는 전송 메카지즘을 통해서 결합될 수 있다. 예를 들어, 인코딩된 비트 스트림을 다중화기에 제공하는 개선된 인코더(예를 들어, 도 2의 MPEG 인코더(218R)와 다중화기(219))의 경우에, 해당 맵 영역 ID는 개별적인 다중화된 스트림 또는 사용자 스트림의 일부로서 포함될 수 있다. 개선된 인코더는 역다중화기로부터 표준 방식으로 두 스트림 모두를 검색할 것이다(예를 들어, 도 2의 MPEG 디코더(432R)와 역다중화기(431)).
이전의 모든 특징들에서 기술된 모든 MPEG 인코더는 도 6a에서 기술된 개선된 MPEG 인코더로 대체될 수 있다는 것을 인식하는 것이 중요하다. 유사하게, 이전의 모든 특징들에서 기술된 모든 MPEG 디코더는 도 6b에서 기술된 개선된 MPEG 디코더로 대체될 수 있다. 개선된 디코더가 대응하는 개선된 인코더 없이 사용되는 경우에, 반전된 영역 맵 및 스캐일 유니트(640)는 개선된 기능을 제공하지는 않을 것이다. 그러나, 반전된 영역 맵 및 스캐일 유니트(640)에 적용되는 상대적으로 낮은 다이나믹 범위의 신호가 추가로 질이 저하되지는 않을 것이다.
따라서, 본 발명의 전술한 실시예의 도 6a와 6b 각각의 개선된 MPEG 인코더와 개선된 MPEG 디코더의 현명한 응용에 의해, 전자 영화 품질 시스템의 휘도 및 색차 성분들 모두에 대한 개선된 다이나믹 범위는 실현될 수 있다. 또한, 기술된 실시예들은 주로 규격 소자들을 이용하는 경제적인 방식으로 수행될 수 있다.
본 발명을 구체화시키는 여러 실시예들이 본 발명에서 상세히 도시되고 기술되지만, 당업자들은 본 발명을 계속해서 구체화시키는 다른 여러 실시예들을 쉽게 고안할 수 있다.

Claims (10)

  1. 다수의 최대 다이나믹 범위의 성분들(R,G,B; Y,U,V; Y,I,Q)로 구성되는 비디오 정보 신호(S1)를 분배하기 위한 장치에 있어서,
    최고 세 개의 성분 비디오 신호들에 반응하며, 상기 비디오 정보 신호 중 적어도 하나의 성분이 다이나믹 범위와 공간 해상도를 유지하도록 하고, 압축 출력 비디오 신호(S218)를 제공하는 적어도 두 개의 표준 인코더들(218; 215, 217; 410, 406, 408, 411, 412, 420; 520, 522)로 구성되며, 상기 최대 다이나믹 범위의 성분들의 최대 다이나믹 범위를 유지하는 방식으로 상기 비디오 정보 신호를 압축 인코딩하기 위한 상기 압축 인코더(21); 및
    다중화된 정보 스트림(S21)을 형성하기 위하여 상기 둘 또는 그 이상의 표준 압축 인코더들의 상기 압축 출력 비디오 신호들을 다중화시키기 위한 다중화기(219; 216; 440; 524)를 포함하는 것을 특징으로 하는 장치.
  2. 제 1 항에 있어서,
    워터 마킹 프로세스 및 암호화 프로세스 중 하나에 따라 상기 둘 또는 그 이상의 표준 압축 인코더들의 상기 압축 출력 비디오 신호들 중 적어도 하나를 암호화하기 위한 암호화 인코더(22)를 더 포함하는 것을 특징으로 하는 장치.
  3. 제 1 항에 있어서, 상기 압축 인코더는:
    리매핑된 성분 비디오 신호(Y8)와 해당 맵 영역 확인 스트림(맵 영역 ID)을 형성하기 위하여, 성분 비디오 신호를 하나 또는 그 이상의 정보 영역들로 분할하고, 각 영역 내부의 최대 및 최소 정보 파라미터에 따라 각 정보 영역에 관련되는 하나 또는 그 이상의 상대적으로 높은 다이나믹 범위의 정보 파라미터들을 리매핑 하기 위한 상기 적어도 두 개의 표준 인코더들에 관련된 적어도 하나의 영역 맵과 스캐일 유니트(610)를 포함하는데, 상기 하나 또는 그 이상의 리매핑된 정보 파라미터들은 상대적으로 낮은 다이나믹 범위를 가지며; 및
    압축 인코딩 정보 스트림을 형성하기 위하여 상기 리매핑된 정보 스트림을 압축 인코딩하기 위한 상기 영역 맵과 스캐일 유니트와 결합되는 압축 인코더(620)를 더 포함하는 것을 특징으로 하는 장치.
  4. 제 1 항에 있어서, 상기 압축 인코더는:
    상기 휘도 성분의 다이나믹 범위와 공간 해상도를 유지하는 방식으로 상기 비디오 신호의 휘도 성분(Y)을 인코딩하기 위한 제 1 표준 인코더(218R);
    상기 제 1 색차 성분의 다이나믹 범위와 공간 해상도를 유지하는 방식으로 상기 비디오 신호의 제 1 색차 성분(U)을 인코딩하기 위한 제 2 표준 인코더(218G); 및
    상기 제 2 색차 성분의 다이나믹 범위와 공간 해상도를 유지하는 방식으로 상기 비디오 신호의 제 2 색차 성분(V)을 인코딩하기 위한 제 3 표준 인코더(218B)를 포함하는 것을 특징으로 하는 장치.
  5. 각각 최대 다이나믹 범위를 가지는 휘도 성분(Y), 제 1 색 성분(U') 및 제 2 색 성분(V')으로 구성되는 비디오 신호를 처리하기 위한 장치에 있어서,
    제 1 인코딩된 비디오 신호(CYUV; S215)를 생성하기 위하여 상기 비디오 신호를 인코딩하고, 상기 비디오 신호의 상기 휘도 성분(Y)의 다이나믹 범위 전체, 상기 비디오 신호의 상기 제 1 색 성분의 상기 다이나믹 범위의 제 1 부분(U; UL) 및 상기 비디오 신호의 상기 제 2 색 성분의 상기 다이나믹 범위의 제 1 부분(V; VL)을 인코딩하기 위한 제 1 인코더(410; 215); 및
    상기 비디오 신호의 상기 제 1 색 성분의 상기 다이나믹 범위의 제 2 부분(dU; UH)과 상기 비디오 신호의 상기 제 2 색 성분의 상기 다이나믹 범위의 제 2 부분(dV; VH)을 인코딩하기 위한 제 2 인코더(406, 408, 411, 412, 420; 217)를 포함하는 것을 특징으로 하는 장치.
  6. 제 5 항에 있어서,
    상기 비디오 신호의 각각 상기 제 1 및 제 2 성분들의 제 1 다이나믹 범위의 일부들로서 상기 제 1 인코더와 결합되는, 로우 패스 필터링된 제 1 색 성분 신호(UL)와 하이 패스 필터링된 제 1 색 성분 신호(UH)를 생성하기 위하여 상기 비디오 신호의 상기 제 1 색 성분을 필터링하기 위한 제 1 필터 소자(212); 및
    상기 비디오 신호의 각각 상기 제 1 및 제 2 성분들의 제 2 다이나믹 범위의 일부들로서 상기 제 2 인코더와 결합되는, 로우 패스 필터링된 제 2 색 성분 신호(VL)와 하이 패스 필터링된 제 2 색 성분 신호(VH)를 생성하기 위하여 상기 비디오 신호의 상기 제 2 색 성분을 필터링하기 위한 제 2 필터 소자(213)를 포함하는 것을 특징으로 하는 장치.
  7. 제 5 항에 있어서, 상기 제 2 인코더는:
    제 1 디코딩된 색 성분 신호(UD)와 제 2 디코딩된 색 성분 신호(VD)를 각각 생성하기 위하여 상기 제 1 인코딩된 비디오 신호(CYUV)의 상기 제 1 및 제 2 색 성분들을 디코딩하기 위한 디코더(420);
    제 1 색차 신호(dU)를 생성하기 위하여 상기 비디오 신호의 상기 제 1 색 성분에서 상기 제 1 디코딩된 색 성분 신호를 빼기 위한 제 1 감산기(406);
    제 2 색차 신호(dU)를 생성하기 위하여 상기 비디오 신호의 상기 제 2 색 성분에서 상기 제 2 디코딩된 색 성분 신호를 빼기 위한 제 2 감산기(408);
    휘도 입력으로 상기 제 1 색차 신호를 수신하고, 인코딩된 제 1 색차 신호(CdU)를 생성하기 위하여 상기 제 1 색차 신호를 인코딩하기 위한 제 1 표준 인코더(411);
    휘도 입력으로 상기 제 2 색차 신호를 수신하고, 인코딩된 제 2 색차 신호(CdV)를 생성하기 위하여 상기 제 2 색차 신호를 인코딩하기 위한 제 2 표준 인코더(412)를 포함하는 것을 특징으로 하는 장치.
  8. 제 5 항에 있어서,
    상기 제 1 색 성분은 동위상 색 성분(I')을 포함하며 상기 제 2 색 성분은 4 위상 색 성분(Q')을 포함하는데, 상기 제 1 인코더는:
    상기 비디오 신호의 상기 제 1 색 성분의 제 1 다이나믹 범위 부분으로서 상기 제 1 인코더와 결합되는 LL 필터링된 제 1 색 성분 신호(ILL)를 생성하기 위하여 상기 비디오 신호의 상기 제 1 색 성분을 필터링하기 위한 제 1 수평 로우 패스/수직 로우 패스(LL) 필터(504); 및
    상기 비디오 신호의 상기 제 2 색 성분의 제 1 다이나믹 범위 부분으로서 상기 제 1 인코더와 결합되는 LL 필터링된 제 1 색 성분 신호(QLL)를 생성하기 위하여 상기 비디오 신호의 상기 제 2 색 성분을 필터링하기 위한 제 2 수평 로우 패스/수직 로우 패스(LL) 필터(506)를 더 포함하는 것을 특징으로 하는 장치.
  9. 정보 스트림(S42)으로부터 다수의 압축 성분 비디오 정보 신호들(R, G, B; Y, U, V; Y, I, Q)을 얻기 위한 역다중화기(431); 및
    완전 범위 성분 비디오 정보 신호들을 생성하기 위하여 상기 압축 성분 비디오 정보 신호들을 디코딩하기 위한 다수의 디코더들(432; 310, 320; 421 내지 423)을 포함하며,
    상기 압축 성분 비디오 정보 신호들은
    (a) 최대 다이나믹 범위의 적색 비디오 정보로 구성되는 제 1 신호, 최대 다이나믹 범위의 녹색 비디오 정보로 구성되는 제 2 신호 및 최대 다이나믹 범위의 청색 비디오 정보로 구성되는 제 3 신호; 및
    (b) 최대 다이나믹 범위의 휘도 정보, 공간 다이나믹 범위의 제 1 색차 정보 및 공간 다이나믹 범위의 제 2 색차 정보로 구성되는 제 1 신호, 잔류 다이나믹 범위의 제 1 색차 정보로 구성되는 제 2 신호 및 잔류 다이나믹 범위의 제 2 색차 정보로 구성되는 제 3 신호 중 하나의 신호로 구성되는 것을 특징으로 하는 수신기.
  10. 다수의 최대 다이나믹 범위의 성분들(R,G,B; Y,U,V; Y,I,Q)로 구성되는 비디오 정보 신호(S1)를 분배하기 위한 방법에 있어서,
    세 개의 성분 비디오 신호들까지 반응하고, 상기 비디오 신호 중 하나의 성분만의 다이나믹 범위와 공간 해상도를 유지하도록 하며, 압축 출력 비디오 신호를 제공하는 적어도 두 개의 표준 인코더들(218; 215, 217; 410, 406, 408, 411, 412, 420; 520, 522) 및 상기 비디오 신호의 상기 최대 다이나믹 범위를 유지하는 방식으로 상기 비디오 신호의 상기 각각의 다수의 최대 다이나믹 범위 성분을 이용하는 압축 인코딩(21) 단계; 및
    다중화된 정보 스트림(S21)을 형성하기 위하여 상기 둘 또는 그 이상의 표준 압축 인코더들의 상기 압축 출력 비디오 신호들, 세 개의 성분 비디오 신호들까지 반응하고 상기 비디오 신호 중 하나의 성분만의 다이나믹 범위와 공간 해상도를 유지하도록 하는 상기 각 표준 압축 인코더들을 다중화시키는 단계를 포함하는 것을 특징으로 하는 방법.
KR1020007007858A 1998-01-16 1999-01-19 계층화 mpeg 인코더 KR20010034208A (ko)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US7129498P 1998-01-16 1998-01-16
US7129698P 1998-01-16 1998-01-16
US60/071,294 1998-01-16
US60/071,296 1998-01-16
US7982498P 1998-03-30 1998-03-30
US09/050,304 1998-03-30
US09/050,304 US6118820A (en) 1998-01-16 1998-03-30 Region-based information compaction as for digital images
US60/079,824 1998-03-30
US09/092,225 US6829301B1 (en) 1998-01-16 1998-06-05 Enhanced MPEG information distribution apparatus and method
US09/092,225 1998-06-05
PCT/US1999/000352 WO1999037097A1 (en) 1998-01-16 1999-01-19 Layered mpeg encoder

Publications (1)

Publication Number Publication Date
KR20010034208A true KR20010034208A (ko) 2001-04-25

Family

ID=27535113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007007858A KR20010034208A (ko) 1998-01-16 1999-01-19 계층화 mpeg 인코더

Country Status (6)

Country Link
US (2) US6829301B1 (ko)
EP (1) EP1050168A1 (ko)
JP (1) JP2003524904A (ko)
KR (1) KR20010034208A (ko)
AU (1) AU2216199A (ko)
WO (1) WO1999037097A1 (ko)

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6829301B1 (en) 1998-01-16 2004-12-07 Sarnoff Corporation Enhanced MPEG information distribution apparatus and method
US6560285B1 (en) * 1998-03-30 2003-05-06 Sarnoff Corporation Region-based information compaction as for digital images
US6424998B2 (en) * 1999-04-28 2002-07-23 World Theatre, Inc. System permitting the display of video or still image content on selected displays of an electronic display network according to customer dictates
US8090619B1 (en) 1999-08-27 2012-01-03 Ochoa Optics Llc Method and system for music distribution
US8656423B2 (en) 1999-08-27 2014-02-18 Ochoa Optics Llc Video distribution system
US6952685B1 (en) 1999-08-27 2005-10-04 Ochoa Optics Llc Music distribution system and associated antipiracy protection
US6647417B1 (en) 2000-02-10 2003-11-11 World Theatre, Inc. Music distribution systems
US7209900B2 (en) 1999-08-27 2007-04-24 Charles Eric Hunter Music distribution systems
US20030133692A1 (en) * 1999-08-27 2003-07-17 Charles Eric Hunter Video distribution system
US7647618B1 (en) 1999-08-27 2010-01-12 Charles Eric Hunter Video distribution system
US7428011B1 (en) 1999-09-02 2008-09-23 Fujifilm Corporation Wide dynamic range electronic image recording and reproducing system
DE19957466A1 (de) * 1999-11-24 2001-05-31 Deutsche Telekom Ag Verfahren zur Verteilung von Kino-Programmen
DE19959442C2 (de) * 1999-12-09 2001-10-18 Music Aliens Ag Verfahren und Anordnung zur Übertragung von Daten und/oder Informationen und/oder Signalen, insbesondere dynamischen Inhalts, und deren Verwendung
US9252898B2 (en) 2000-01-28 2016-02-02 Zarbaña Digital Fund Llc Music distribution systems
KR100463764B1 (ko) * 2000-07-21 2004-12-29 마츠시타 덴끼 산교 가부시키가이샤 신호 전달 시스템
US8112311B2 (en) 2001-02-12 2012-02-07 Ochoa Optics Llc Systems and methods for distribution of entertainment and advertising content
EP1235185B1 (en) * 2001-02-21 2011-11-23 Boly Media Communications Inc. Method of compressing digital images
US7960005B2 (en) 2001-09-14 2011-06-14 Ochoa Optics Llc Broadcast distribution of content for storage on hardware protected optical storage media
US8903089B2 (en) 2002-01-18 2014-12-02 Nagra France Device for secure transmission recording and visualization of audiovisual programs
FR2835141B1 (fr) * 2002-01-18 2004-02-20 Daniel Lecomte Dispositif pour securiser la transmission, l'enregistrement et la visualisation de programmes audiovisuels
US8027562B2 (en) * 2002-06-11 2011-09-27 Sanyo Electric Co., Ltd. Method and apparatus for recording images, method and apparatus for recording and reproducing images, and television receiver utilizing the same
EP1537529A1 (en) * 2002-08-28 2005-06-08 Koninklijke Philips Electronics N.V. Method and arrangement for watermark detection
US20060126718A1 (en) * 2002-10-01 2006-06-15 Avocent Corporation Video compression encoder
US7321623B2 (en) * 2002-10-01 2008-01-22 Avocent Corporation Video compression system
CN1578477B (zh) 2003-07-16 2011-05-04 三星电子株式会社 用于色彩图像的视频编码/解码装置和方法
US9560371B2 (en) 2003-07-30 2017-01-31 Avocent Corporation Video compression system
US8588291B2 (en) * 2003-09-22 2013-11-19 Broadcom Corporation Multiple decode user interface
US7630509B2 (en) * 2003-09-29 2009-12-08 Alcatel-Lucent Usa Inc. Color selection scheme for digital video watermarking
US8861922B2 (en) * 2003-09-29 2014-10-14 Alcatel Lucent Watermarking scheme for digital video
US7646881B2 (en) * 2003-09-29 2010-01-12 Alcatel-Lucent Usa Inc. Watermarking scheme for digital video
US20050129130A1 (en) * 2003-12-10 2005-06-16 Microsoft Corporation Color space coding framework
US7006700B2 (en) * 2004-06-25 2006-02-28 Avocent Corporation Digital video compression command priority
US7457461B2 (en) * 2004-06-25 2008-11-25 Avocent Corporation Video compression noise immunity
KR100657268B1 (ko) * 2004-07-15 2006-12-14 학교법인 대양학원 컬러 영상의 신축적 부호화, 복호화 방법 및 장치
US9420230B2 (en) * 2004-11-12 2016-08-16 Nbcuniversal Media, Llc Distributed composition of broadcast television programs
US8761251B2 (en) 2005-04-13 2014-06-24 Thomson Licensing Luma-chroma coding with one common or three distinct spatial predictors
EP1737240A3 (en) * 2005-06-21 2007-03-14 Thomson Licensing Method for scalable image coding or decoding
EP1753242A2 (en) 2005-07-18 2007-02-14 Matsushita Electric Industrial Co., Ltd. Switchable mode and prediction information coding
EP1746838A1 (en) * 2005-07-18 2007-01-24 Matsushita Electric Industrial Co., Ltd. Moving picture coding apparatus and moving picture decoding apparatus
JP4839035B2 (ja) * 2005-07-22 2011-12-14 オリンパス株式会社 内視鏡用処置具および内視鏡システム
US20070160134A1 (en) * 2006-01-10 2007-07-12 Segall Christopher A Methods and Systems for Filter Characterization
US8718147B2 (en) 2006-02-17 2014-05-06 Avocent Huntsville Corporation Video compression algorithm
US7555570B2 (en) 2006-02-17 2009-06-30 Avocent Huntsville Corporation Device and method for configuring a target device
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
US8509310B2 (en) 2006-03-28 2013-08-13 Samsung Electronics Co., Ltd. Method, medium, and system encoding and/or decoding an image
WO2007127452A2 (en) 2006-04-28 2007-11-08 Avocent Corporation Dvc delta commands
US7659897B1 (en) * 2006-06-30 2010-02-09 Nvidia Corporation System, method, and computer program product for video benchmarking
KR101311403B1 (ko) * 2006-07-04 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
US7840078B2 (en) * 2006-07-10 2010-11-23 Sharp Laboratories Of America, Inc. Methods and systems for image processing control based on adjacent block characteristics
US8422548B2 (en) * 2006-07-10 2013-04-16 Sharp Laboratories Of America, Inc. Methods and systems for transform selection and management
US7885471B2 (en) * 2006-07-10 2011-02-08 Sharp Laboratories Of America, Inc. Methods and systems for maintenance and use of coded block pattern information
US8130822B2 (en) * 2006-07-10 2012-03-06 Sharp Laboratories Of America, Inc. Methods and systems for conditional transform-domain residual accumulation
US8532176B2 (en) * 2006-07-10 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for combining layers in a multi-layer bitstream
US8059714B2 (en) * 2006-07-10 2011-11-15 Sharp Laboratories Of America, Inc. Methods and systems for residual layer scaling
WO2008049446A1 (en) 2006-10-25 2008-05-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Quality scalable coding
EP1933564A1 (en) * 2006-12-14 2008-06-18 Thomson Licensing Method and apparatus for encoding and/or decoding video data using adaptive prediction order for spatial and bit depth prediction
EP1933565A1 (en) * 2006-12-14 2008-06-18 THOMSON Licensing Method and apparatus for encoding and/or decoding bit depth scalable video data using adaptive enhancement layer prediction
US8255226B2 (en) * 2006-12-22 2012-08-28 Broadcom Corporation Efficient background audio encoding in a real time system
US8503524B2 (en) * 2007-01-23 2013-08-06 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction
US7826673B2 (en) * 2007-01-23 2010-11-02 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction with color-conversion
US8233536B2 (en) 2007-01-23 2012-07-31 Sharp Laboratories Of America, Inc. Methods and systems for multiplication-free inter-layer image prediction
US8665942B2 (en) 2007-01-23 2014-03-04 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction signaling
US7760949B2 (en) 2007-02-08 2010-07-20 Sharp Laboratories Of America, Inc. Methods and systems for coding multiple dynamic range images
US8767834B2 (en) 2007-03-09 2014-07-01 Sharp Laboratories Of America, Inc. Methods and systems for scalable-to-non-scalable bit-stream rewriting
US8155437B2 (en) * 2007-09-07 2012-04-10 CVISION Technologies, Inc. Perceptually lossless color compression
US8175158B2 (en) * 2008-01-04 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction parameter determination
HUE024173T2 (en) 2008-04-16 2016-05-30 Ge Video Compression Llc Bit depth scalability
EP2300094B1 (en) * 2008-06-02 2013-07-24 Loma Vista Medical, Inc., Inflatable medical devices
US20100161779A1 (en) * 2008-12-24 2010-06-24 Verizon Services Organization Inc System and method for providing quality-referenced multimedia
JP2010219624A (ja) * 2009-03-13 2010-09-30 Toshiba Corp 画像信号処理装置及び画像信号処理方法
EP2643809B1 (en) * 2010-11-23 2020-06-24 Dolby Laboratories Licensing Corporation Content metadata enhancement of high dynamic range images
JP2013055615A (ja) * 2011-09-06 2013-03-21 Toshiba Corp 動画像符号化装置およびその方法、ならびに動画像復号装置およびその方法
US9712847B2 (en) * 2011-09-20 2017-07-18 Microsoft Technology Licensing, Llc Low-complexity remote presentation session encoder using subsampling in color conversion space
EP3168809B1 (en) 2012-08-08 2023-08-30 Dolby Laboratories Licensing Corporation Image processing for hdr images
KR20140037309A (ko) * 2012-09-13 2014-03-27 삼성전자주식회사 이미지 압축 회로와 이를 포함하는 디스플레이 시스템
JP6125215B2 (ja) 2012-09-21 2017-05-10 株式会社東芝 復号装置、及び符号化装置
US9979960B2 (en) * 2012-10-01 2018-05-22 Microsoft Technology Licensing, Llc Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions
US9661340B2 (en) 2012-10-22 2017-05-23 Microsoft Technology Licensing, Llc Band separation filtering / inverse filtering for frame packing / unpacking higher resolution chroma sampling formats
US9264683B2 (en) 2013-09-03 2016-02-16 Sony Corporation Decoding device and decoding method, encoding device, and encoding method
CN106233706B (zh) 2014-02-25 2020-01-03 苹果公司 用于提供具有标准动态范围和高动态范围两者的视频的向后兼容的装置和方法
US9749646B2 (en) 2015-01-16 2017-08-29 Microsoft Technology Licensing, Llc Encoding/decoding of high chroma resolution details
US9854201B2 (en) 2015-01-16 2017-12-26 Microsoft Technology Licensing, Llc Dynamically updating quality to higher chroma sampling rate
JP6744723B2 (ja) * 2016-01-27 2020-08-19 キヤノン株式会社 画像処理装置および画像処理方法、コンピュータプログラム
US10368080B2 (en) 2016-10-21 2019-07-30 Microsoft Technology Licensing, Llc Selective upsampling or refresh of chroma sample values
EP3562043B1 (en) * 2018-04-27 2023-06-07 University Of Cyprus Methods for compression of multivariate correlated data for multi-channel communication

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4947447A (en) 1986-04-24 1990-08-07 Hitachi, Ltd. Method for data coding
JP2508439B2 (ja) 1987-05-29 1996-06-19 ソニー株式会社 高能率符号化装置
US5070402A (en) 1987-11-27 1991-12-03 Canon Kabushiki Kaisha Encoding image information transmission apparatus
JP2931311B2 (ja) 1988-01-26 1999-08-09 富士写真フイルム株式会社 ディジタル電子スチルカメラ
JP2900385B2 (ja) 1988-12-16 1999-06-02 ソニー株式会社 フレーム化回路及び方法
JP2830111B2 (ja) 1989-07-21 1998-12-02 ソニー株式会社 高能率符号化装置
GB8929152D0 (en) 1989-12-22 1990-02-28 Gen Electric A digital augmentation system for actv-ii
JP2861287B2 (ja) * 1990-06-15 1999-02-24 キヤノン株式会社 ディジタル信号処理装置
JPH04185172A (ja) 1990-11-20 1992-07-02 Matsushita Electric Ind Co Ltd ディジタル画像信号の高能率符号化装置
JP3432821B2 (ja) * 1991-06-27 2003-08-04 日本放送協会 広帯域カラー画像信号送信装置および受信装置
JP3245977B2 (ja) 1992-06-30 2002-01-15 ソニー株式会社 ディジタル画像信号の伝送装置
US5392072A (en) 1992-10-23 1995-02-21 International Business Machines Inc. Hybrid video compression system and method capable of software-only decompression in selected multimedia systems
KR0176474B1 (ko) 1992-12-01 1999-04-15 김광호 고속화상 재생에 적합한 디지탈 비디오 테이프레코더용 데이타 코딩기술
JP3381855B2 (ja) 1992-12-28 2003-03-04 ソニー株式会社 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
US5614952A (en) * 1994-10-11 1997-03-25 Hitachi America, Ltd. Digital video decoder for decoding digital high definition and/or digital standard definition television signals
CA2115976C (en) * 1993-02-23 2002-08-06 Saiprasad V. Naimpally Digital high definition television video recorder with trick-play features
JP3360695B2 (ja) 1993-06-17 2002-12-24 ソニー株式会社 画像データの量子化回路
US5497246A (en) 1993-07-15 1996-03-05 Asahi Kogaku Kogyo Kabushiki Kaisha Image signal processing device
US5486929A (en) * 1993-09-03 1996-01-23 Apple Computer, Inc. Time division multiplexed video recording and playback system
JP3372611B2 (ja) 1993-10-18 2003-02-04 キヤノン株式会社 映像伝送システム、映像処理装置及び映像処理方法
JP3889040B2 (ja) 1994-09-02 2007-03-07 メディアテック インコーポレイション 広域−局所ブロック動き推定用の方法及び装置
EP0857392B1 (en) 1995-10-25 2004-08-11 Sarnoff Corporation Overlapping block zerotree wavelet image coder
US6084908A (en) 1995-10-25 2000-07-04 Sarnoff Corporation Apparatus and method for quadtree based variable block size motion estimation
US5682441A (en) 1995-11-08 1997-10-28 Storm Technology, Inc. Method and format for storing and selectively retrieving image data
US5757855A (en) 1995-11-29 1998-05-26 David Sarnoff Research Center, Inc. Data detection for partial response channels
JP3491431B2 (ja) 1996-02-20 2004-01-26 株式会社日立製作所 テレビジョン信号受信装置
JPH09233495A (ja) * 1996-02-21 1997-09-05 Sony Corp デジタルビデオテープレコーダ
KR19990036188A (ko) 1996-06-05 1999-05-25 엠. 제이. 엠. 반캄 부호화된 디지탈 비디오 신호의 복호화 방법 및 장치
US6084912A (en) 1996-06-28 2000-07-04 Sarnoff Corporation Very low bit rate video coding/decoding method and apparatus
US6037984A (en) 1997-12-24 2000-03-14 Sarnoff Corporation Method and apparatus for embedding a watermark into a digital image or image sequence
US6208745B1 (en) 1997-12-30 2001-03-27 Sarnoff Corporation Method and apparatus for imbedding a watermark into a bitstream representation of a digital image sequence
US6829301B1 (en) 1998-01-16 2004-12-07 Sarnoff Corporation Enhanced MPEG information distribution apparatus and method
US6118820A (en) 1998-01-16 2000-09-12 Sarnoff Corporation Region-based information compaction as for digital images
US6560285B1 (en) 1998-03-30 2003-05-06 Sarnoff Corporation Region-based information compaction as for digital images

Also Published As

Publication number Publication date
WO1999037097A1 (en) 1999-07-22
US6829301B1 (en) 2004-12-07
AU2216199A (en) 1999-08-02
EP1050168A1 (en) 2000-11-08
USRE42589E1 (en) 2011-08-02
JP2003524904A (ja) 2003-08-19

Similar Documents

Publication Publication Date Title
KR20010034208A (ko) 계층화 mpeg 인코더
KR100205701B1 (ko) 송신 장치, 수신 장치 및 이들을 통합한 통신처리 시스템과, 디지탈 텔레비젼 방송 시스템
JP6299890B2 (ja) 画像処理装置および方法、記録媒体、並びに、プログラム
US6957350B1 (en) Encrypted and watermarked temporal and resolution layering in advanced television
US6810131B2 (en) Information processing method and apparatus
US20160286226A1 (en) Apparatus, a method and a computer program for video coding and decoding
JP4018335B2 (ja) 画像復号装置及び画像復号方法
US20120230388A1 (en) Method and system for protecting image data in frame buffers of video compression systems
JP4644851B2 (ja) ビデオシーケンス供給方法、ビデオストリーム送信装置、ビデオストリーム受信装置、およびビデオストリーム伝送システム
AU2002318344B2 (en) Encrypted and watermarked temporel and resolution layering in advanced television
JP3703088B2 (ja) 拡張画像符号化装置及び拡張画像復号化装置
Spinsante et al. Masking video information by partial encryption of H. 264/AVC coding parameters
JP2006525731A (ja) 新標準への移行をサポートする多階層符号化
JP2008048447A (ja) 次世代テレビジョンにおける暗号化および透かし処理を施される時間的および解像度レイヤ構造
JP4018305B2 (ja) 画像処理方法及びその装置と記憶媒体
JPH0654325A (ja) 画像暗号化伝送方式
AU2008200152B2 (en) Encrypted and watermarked temporel and resolution layering in advanced television
JP2008035551A (ja) 次世代テレビジョンにおける暗号化および透かし処理を施される時間的および解像度レイヤ構造
KR0171756B1 (ko) 디지탈 디비에스수신기의 정지영상 추출장치 및 그 추출방법
WO2006129222A2 (en) Viewing of video data in a normal mode and a tease mode
Chen et al. Medical Video Encryption Based on H. 264/AVC with Near-Lossless Compression
JP2006157712A (ja) デジタルテレビ装置及びコンテンツ送信方法

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid