KR20150140744A - 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화 - Google Patents

다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화 Download PDF

Info

Publication number
KR20150140744A
KR20150140744A KR1020157031763A KR20157031763A KR20150140744A KR 20150140744 A KR20150140744 A KR 20150140744A KR 1020157031763 A KR1020157031763 A KR 1020157031763A KR 20157031763 A KR20157031763 A KR 20157031763A KR 20150140744 A KR20150140744 A KR 20150140744A
Authority
KR
South Korea
Prior art keywords
block
base layer
ilr
image
picture
Prior art date
Application number
KR1020157031763A
Other languages
English (en)
Other versions
KR101915156B1 (ko
Inventor
유웬 헤
얀 예
Original Assignee
브이아이디 스케일, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브이아이디 스케일, 인크. filed Critical 브이아이디 스케일, 인크.
Publication of KR20150140744A publication Critical patent/KR20150140744A/ko
Application granted granted Critical
Publication of KR101915156B1 publication Critical patent/KR101915156B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

스케일러블 비트스트림의 향상 레이어 화상을 예측함에 있어서 보조하기 위해, 비디오 디바이스는 향상된 레이어간 참조((enhanced inter-layer reference; E-ILR) 화상을 생성할 수도 있다. E-ILR 화상은 하나 이상의 E-ILR 블록을 포함할 수도 있다. E-ILR 블록은 차동 방법, 잔차 방법, 양 예측 방법, 및/또는 단 예측 방법을 사용하여 생성될 수도 있다. 비디오 디바이스는 제 1 시간 인스턴스를 결정할 수도 있다. 비디오 디바이스는 제 1 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상의 블록으로부터 제 1 시간 인스턴스에 의해 특징지어지는 제 1 베이스 레이어 화상의 블록을 감산하여 제 1 시간 인스턴스에 의해 특징지어지는 차동 블록을 생성할 수도 있다. 비디오 디바이스는 차동 블록에 대해 모션 보상을 수행하고 모션 보상된 차동 신호를 제 2 시간 인스턴스에 의해 특징지어지는 제 2 베이스 레이어 화상의 블록에 가산하여 E-ILR 블록을 생성할 수도 있다.

Description

다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 향상{INTER-LAYER REFERENCE PICTURE ENHANCEMENT FOR MULTIPLE LAYER VIDEO CODING}
관련 출원에 대한 교차 참조
본 출원은 2013년 4월 5일자로 출원된 미국 특허 가출원 제61/809,115호, 2013년 4월 16일자로 출원된 미국 특허 가출원 제61/812,687호, 및 2013년 7월 11일자 출원된 미국 특허 가출원 제61/845,318호의 이익을 주장하는데, 상기 가출원의 내용은 이로써 참조에 의해 본원에 통합된다.
지난 이십 년 넘게, 효율적인 디지털 비디오 통신, 분배, 및 소비를 가능하게 하기 위해, 디지털 비디오 압축 기술이 개발되어 왔고 표준화되어 왔다. MPEG-2 및 H.264 (MPEG-4 파트10)와 같은 상업적으로 널리 전개된 표준의 대부분은 ISO/IEC 및 ITU-T에 의해 개발된다. 비디오 압축 기술의 출현 및 성숙으로 인해, 고효율 비디오 코딩(high efficiency video coding; HEVC)이 개발될 수도 있다.
스마트폰 및 태블릿의 해상도 및 계산 성능에서의 성장을 통해, 비디오 챗(chat), 모바일 비디오 기록 및 공유, 비디오 스트리밍과 같은 추가적인 비디오 애플리케이션은 이질적인 환경(heterogeneous environment)에서의 비디오 송신을 요구할 수도 있다. 다양한 소비자 디바이스(예를 들면, PC, 스마트폰, 태블릿, TV 등등)를 고려하는 3 스크린 및 N 스크린과 같은 시나리오는, 컴퓨팅 파워, 메모리/스토리지 사이즈, 디스플레이 해상도, 디스플레이 프레임 레이트 등등의 관점에서 폭 넓게 변하는 성능을 갖는 디바이스 상에서의 비디오 소비를 수용할 수도 있다. 네트워크 및 송신 채널은 패킷 손실율, 가용 채널 대역폭, 버스트 에러율 등등의 관점에서 폭 넓게 변하는 특성을 가질 수도 있다. 비디오 데이터는 유선 네트워크 및 무선 네트워크의 조합을 통해 송신될 수도 있는데, 이것은 기저의 송신 채널 특성을 더 복잡하게 할 수도 있다.
스케일러블 비디오 코딩(scalable video coding)은, 이질적인 네트워크를 통해 상이한 성능을 갖는 디바이스 상에서 실행하는 비디오 애플리케이션에 대한 품질 경험(quality of experience)을 향상시키기 위한 솔루션을 제공할 수도 있다. 스케일러블 비디오 코딩은, 일단, 최상의 표현(예를 들면, 시간적 해상도, 공간적 해상도, 품질 등등)으로 신호를 인코딩할 수도 있고, 클라이언트 디바이스 상에서 실행하는 애플리케이션에 의해 요구되는 특정 레이트 및 표현에 따라 비디오 스트림의 서브셋으로부터의 디코딩을 가능하게 할 수도 있다. 스케일러블 비디오 코딩은 비스케일러블(non-scalable) 솔루션과 비교하여 대역폭 및 스토리지를 절약할 수도 있다. MPEG-2 비디오, H.263, MPEG4 비주얼 및 H.264와 같은 그러나 이들에 제한되지 않는 비디오 표준은 스케일러빌러티(scalability)의 몇몇 모드를 지원하는 툴 및/또는 프로파일을 구비할 수도 있다.
비디오 코딩 방법을 구현하기 위해 시스템, 방법 및 수단이 제공된다. 비디오 디바이스(예를 들면, 이들은 인코더 및/또는 디코더를 포함할 수도 있다)는, 예를 들면, 스케일러블 비트스트림의 향상 레이어(enhancement layer; EL) 화상(예를 들면, 및/또는 EL 블록)을 예측함에 있어서 보조하기 위해, 하나 이상의 향상된 레이어간 참조(enhanced inter-layer reference; E-ILR) 블록을 포함하는 E-ILR 화상을 생성할 수도 있다. 비디오 디바이스는, 예를 들면, E-ILR 프로세싱을 수행할 것을 디코더에게 나타낼 수도 있는 E-ILR 활성화 플래그(E-ILR enabled flag)를 수신할 수도 있다. 예를 들면, 비디오 디바이스는 차동 향상 방법(differential enhancement method)을 사용하여 E-ILR 블록을 생성할 수도 있다. 비디오 디바이스는 하기의 것 중 하나 이상을 수행하도록 구성될 수도 있는 프로세서를 포함할 수도 있다. 프로세서는 제 2 시간 인스턴스(time instance)에 의해 특징지어지는 제 2 베이스 레이어 화상(base layer picture)과 연관된 베이스 레이어 모션 정보에 기반하여 제 1 시간 인스턴스를 결정할 수도 있다. 베이스 레이어 모션 정보는, 다운샘플링된 베이스 레이어 블록 및/또는 업샘플링된 베이스 레이어 블록의 모션 벡터 및/또는 모션 정보 클래스를 포함할 수도 있다.
프로세서는, 제 1 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상의 블록으로부터 제 1 시간 인스턴스에 의해 특징지어지는 제 1 베이스 레이어 화상의 블록을 감산하여 제 1 시간 인스턴스에 의해 특징지어지는 차동 블록을 생성할 수도 있다. 제 1 베이스 레이어 화상의 블록은 제 1 베이스 레이어 화상의 업샘플링된 블록 또는 다운샘플링된 블록일 수도 있다. 프로세서는 차동 블록에 대한 모션 보상을 수행할 수도 있다. 모션 보상은, 예를 들면, 베이스 레이어와 향상 레이어 사이의 공간 비율에 따라, 제 2 베이스 레이어 화상의 블록과 연관된 베이스 레이어 모션 정보(예를 들면, 스케일링된(scaled) 베이스 레이어 모션 정보)를 사용하여 차동 블록에 대해 수행될 수도 있다.
프로세서는 모션 보상된 차동 블록에 가중치(weight)를 곱할 수도 있다. 가중치는 0보다 크거나 같고 1보다 작거나 같을 수 있다. 프로세서는 모션 보상된 차동 블록에 오프셋을 가산할 수도 있다. 프로세서는, 모션 보상된 차동 화상을 제 2 시간 인스턴스에 의해 특징지어지는 제 2 베이스 레이어 화상의 블록에 가산하여 제 2 시간 인스턴스에 의해 특징지어지는 E-ILR 블록을 생성할 수도 있다. 제 2 베이스 레이어 화상의 블록은 제 2 베이스 레이어 화상의 업샘플링된 블록 또는 다운샘플링된 블록일 수도 있다. 프로세서는 E-ILR 블록을 포함하는 제 2 시간 인스턴스에 의해 특징지어지는 E-ILR 화상을 생성할 수도 있다. 프로세서는, 제 2 시간 인스턴스에 의해 특징지어지는 업샘플링된 베이스 레이어 화상 및/또는 E-ILR 화상을 사용하여 제 2 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상을 예측할 수도 있다.
비디오 디바이스는 잔차 향상 방법(residual enhancement method)을 사용하여 E-ILR 블록을 생성할 수도 있다. 비디오 디바이스는 하기의 것 중 하나 이상을 수행하도록 구성될 수도 있는 프로세서를 포함할 수도 있다. 프로세서는 제 2 시간 인스턴스에 의해 특징지어지는 제 2 베이스 레이어 화상과 연관된 베이스 레이어 모션 정보에 기반하여 제 1 시간 인스턴스를 결정할 수도 있다.
제 2 베이스 레이어 화상의 블록으로부터 제 1 시간 인스턴스에 의해 특징지어지는 제 1 베이스 레이어 화상의 블록을 감산하여 프로세서는 잔차를 생성할 수도 있다. 프로세서는 잔차에 대해 모션 보상을 수행할 수도 있다. 모션 보상은 제 2 베이스 레이어 화상의 블록과 연관된 베이스 레이어 모션 정보를 사용하여 잔차에 대해 수행될 수도 있다. 프로세서는 잔차에 가중치를 곱할 수도 있다. 프로세서는 잔차에 오프셋을 가산할 수도 있다.
프로세서는, 제 1 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상의 블록에 잔차를 가산하여, 제 2 시간 인스턴스에 의해 특징지어지는 향상된 레이어간 참조(E-ILR) 블록을 생성할 수도 있다. 프로세서는 E-ILR 블록을 포함하는 제 2 시간 인스턴스에 의해 특징지어지는 E-ILR 화상을 생성할 수도 있다. 프로세서는, 제 2 시간 인스턴스에 의해 특징지어지는 업샘플링된 베이스 레이어 화상 및/또는 E-ILR 화상을 사용하여 제 2 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상을 예측할 수도 있다. 제 1 베이스 레이어 화상의 블록은 제 1 베이스 레이어 화상의 업샘플링된 블록 또는 다운샘플링된 블록일 수도 있다. 제 2 베이스 레이어 화상의 블록은 제 2 베이스 레이어 화상의 업샘플링된 블록 또는 다운샘플링된 블록일 수도 있다.
비디오 디바이스는 양 예측(bi-prediction)을 사용하여 레이어간 참조 블록(예를 들면, E-ILR 블록)을 생성할 수도 있다. 비디오 디바이스는 하기의 것 중 하나 이상을 수행하도록 구성될 수도 있는 프로세서를 포함할 수도 있다. 프로세서는 제 3 시간 인스턴스에 의해 특징지어지는 제 3 베이스 레이어 화상과 연관된 제 1 베이스 레이어 모션 정보에 기반하여 제 1 시간 인스턴스를 결정할 수도 있다. 프로세서는 제 3 시간 인스턴스에 의해 특징지어지는 제 3 베이스 레이어 화상과 연관된 제 2 베이스 레이어 모션 정보에 기반하여 제 2 시간 인스턴스를 결정할 수도 있다. 프로세서는, 제 1 시간 인스턴스에 의해 특징지어지는 제 1 베이스 레이어 화상의 블록 및 제 2 시간 인스턴스에 의해 특징지어지는 제 2 베이스 레이어 화상의 블록을 사용하여 제 3 시간 인스턴스에 의해 특징지어지는 향상된 레이어간 참조(E-ILR) 블록을 생성할 수도 있다. 제 1 베이스 레이어 화상의 블록은 제 1 베이스 레이어 화상의 업샘플링된 블록 또는 다운샘플링된 블록일 수도 있다. 제 2 베이스 레이어 화상의 블록은 제 2 베이스 레이어 화상의 업샘플링된 블록 또는 다운샘플링된 블록일 수도 있다.
프로세서는, 제 1 베이스 레이어 화상의 블록을 제 2 베이스 레이어 화상의 블록에 더해서 결합된 베이스 레이어 블록을 생성하는 것에 의해 E-ILR 블록을 생성하도록 구성될 수도 있다. 프로세서는, 결합된 베이스 레이어 블록을 2로 나누어, 평균치의(averaged) 베이스 레이어 블록을 생성할 수도 있다. 프로세서는, 제 1 시간 인스턴스에 의해 특징지어지는 제 1 향상 레이어 화상의 블록을 제 2 시간 인스턴스에 의해 특징지어지는 제 2 향상 레이어 화상의 블록에 가산하여, 결합된 향상 레이어 블록을 생성할 수도 있다. 프로세서는, 결합된 베이스 레이어 블록을 2로 나누어, 평균치의 향상 레이어 블록을 생성할 수도 있다. 프로세서는, 평균치의 향상 레이어 블록으로부터 평균치의 베이스 레이어 블록을 감산하여, 차동 블록을 생성할 수도 있다. 프로세서는 차동 블록에 대한 모션 보상을 수행할 수도 있다. 프로세서는 모션 보상된 차동 블록에 가중치를 곱할 수도 있다. 프로세서는, 제 3 시간 인스턴스에 의해 특징지어지는 베이스 레이어 화상의 블록에 모션 보상된 차동 블록을 가산하여, E-ILR 블록을 생성할 수도 있다. 제 3 베이스 레이어 화상의 블록은 제 3 베이스 레이어 화상의 업샘플링된 블록 또는 다운샘플링된 블록일 수도 있다.
도 1은 N 레이어를 갖는 예시적인 스케일러블 비디오 코딩 시스템의 도면이다.
도 2는 다수의 레이어 비디오 코딩을 사용하여 입체의(예를 들면, 2 뷰의) 비디오 코딩에 대한 시간 및 레이어간 예측의 예의 도면이다.
도 3은 예시적인 단일 레이어 인코더의 도면이다.
도 4는 예시적인 단일 레이어 디코더의 도면이다.
도 5는 예시적인 2 레이어 스케일러블 인코더의 도면이다.
도 6은 예시적인 2 레이어 스케일러블 디코더의 도면이다.
도 7은 레이어간 화상(inter-layer prediction; ILP) 프로세싱 및 관리 유닛의 예의 도면이다.
도 8은 레이어간 참조 화상의 예시적인 배치의 도면이다.
도 9는 단 예측(uni-prediction) 코딩된 블록을 사용하는 E-ILR 블록의 생성의 예의 도면이다.
도 10은 차동 화상 및 단 예측 코딩된 블록을 사용하는 E-ILR 블록의 생성의 예의 도면이다.
도 11은 양 예측 코딩된 블록을 사용하는 E-ILR 블록의 생성의 예의 도면이다.
도 12는 단 예측 모드에 대한 가중치 리스트의 인덱스로 참조 인덱스를 매핑하는 룩업 테이블에 대한 셋업의 예의 플로우차트이다.
도 13은 양 예측 모드에 대한 가중치 리스트의 인덱스로 참조 인덱스를 매핑하는 룩업 테이블에 대한 셋업의 예의 플로우차트이다.
도 14는 단 예측 모드에 대한 가중치 추정치를 계산하는 예의 플로우차트이다.
도 15는 양 예측 모드에 대한 가중치 추정치를 계산하는 예의 플로우차트이다.
도 16은 ILR 향상을 위한 영역 기반 가중치(region-based weight)의 예의 도면이다.
도 17은 향상된 ILR 화상의 참조 화상 리스트에서의 예시적인 배치의 도면이다.
도 18은 블록 모드 인코딩을 위한 주사 패턴의 예의 도면이다.
도 19는 수평 주사로 코딩되는 2D 맵의 예의 도면이다.
도 20a는 하나 이상의 개시된 실시형태가 구현될 수도 있는 예시적인 통신 시스템의 시스템 도면이다.
도 20b는 도 20a에 예시된 통신 시스템 내에서 사용될 수도 있는 예시적인 무선 송수신 유닛(wireless transmit/receive unit; WTRU)의 시스템 도면이다.
도 20c는 도 20a에서 예시된 통신 시스템 내에서 사용될 수도 있는 예시적인 코어 네트워크와 예시적인 무선 액세스 네트워크의 시스템 도면이다.
도 20d는 도 20a에서 예시된 통신 시스템 내에서 사용될 수도 있는 다른 예시적인 코어 네트워크 및 다른 예시적인 무선 액세스 네트워크의 시스템 도면이다.
도 20e는 도 20a에서 예시된 통신 시스템 내에서 사용될 수도 있는 다른 예시적인 코어 네트워크 및 다른 예시적인 무선 액세스 네트워크의 시스템 도면이다.
이제, 예시적인 실시형태의 상세한 설명이 다양한 도면을 참조로 설명될 것이다. 이 설명은 가능한 구현예의 상세한 예를 제공하지만, 상세는 예시적인 것으로 의도된 것이며 본 출원의 범위를 어떤 식으로도 제한하도록 의도된 것이 아님을 유의해야 한다. 또한, 도면은 예시적인 것으로 의미하는 플로우차트를 예시할 수도 있다. 다른 실시형태가 사용될 수도 있다. 메시지의 순서는 적절한 경우 변경될 수도 있다. 메시지는 필요하지 않은 경우 생략될 수도 있고, 추가적인 플로우가 추가될 수도 있다.
MPEG-2 비디오, H.263, MPEG4 비주얼 및 H.264와 같은 비디오 표준은 스케일러빌러티 모드를 지원하는 툴 및/또는 프로파일을 구비할 수도 있다. 고효율 비디오 코딩 스케일러블 확장(HECV scalable extension)은 공간 스케일러빌러티(예를 들면, 스케일러블 비트스트림은 하나보다 많은 공간 해상도의 신호를 포함할 수도 있다) 및/또는 품질 스케일러빌러티(예를 들면, 스케일러블 비트스트림은 하나보다 많은 품질 레벨의 신호를 포함할 수도 있다)를 지원할 수도 있다. MPEG은 뷰 스케일러빌러티를 지원할 수도 있다(예를 들면, 스케일러블 비트스트림은 2D, 및 3D 비디오 신호를 포함할 수도 있다).
도 1은 N 레이어를 갖는 예시적인 스케일러블 비디오 코딩 시스템(100)의 도면이다. 레이어1(예를 들면, 베이스 레이어)에 의해 표현될 공간 및/또는 시간 신호 해상도는 다운샘플러(101)에서 입력 비디오 신호(120)의 다운샘플링에 의해 생성될 수도 있다. 인코더(121)에서의 인코딩 단계에서, 양자화기(예를 들면, Q1)의 적절한 설정은 인코딩된 베이스 레이어 비트스트림(122)의 소정의 품질 레벨로 이어질 수도 있다. 하나 이상의 상위 레이어(higher layer)를 인코딩하기 위해, 예를 들면, 베이스 레이어 재구성(예를 들면, Y1)을 위해, 상위 레이어의 인코딩 및/또는 디코딩에서 상위 레이어 해상도 레벨의 근사가 사용될 수도 있다. 인코딩된 베이스 레이어는, 베이스 레이어 재구성 신호를 생성하도록, 디코더(123)에 의해 디코딩될 수도 있다. 업샘플링 유닛(110)은 베이스 레이어 재구성 신호의 레이어2의 해상도로의 업샘플링을 수행할 수도 있다. 그 다음, 업샘플링된 베이스 레이어 재구성 신호는 입력 비디오 신호(120)의 다운샘플링된 버전으로부터 감산될 수도 있다. 예를 들면, 입력 비디오 신호(120)는 다운샘플러(102)에서 다운샘플링될 수도 있고 그 다음, 차이 신호를 생성하도록, 124에서, 업샘플링된 베이스 레이어 재구성 신호는 다운샘플링된 입력 비디오 신호로부터 감산될 수도 있다. 차이 신호는, 레이어2 비트스트림(126)을 생성하도록, 레이어2 인코더(125)에서 인코딩될 수도 있다. 다운샘플링 및 업샘플링은 레이어(예를 들면, 레이어1, 레이어2, …, 레이어N)의 각각의 전체에 걸쳐 수행될 수도 있다. 다운샘플링 및 업샘플링 비율은 두 개의 주어진 레이어 사이의 스케일러빌러티의 차원에 따라 상이할 수도 있다.
도 1에 예시된 바와 같이, 상위의 레이어n(예를 들면 2≤n≤N)의 경우, 현재의 레이어n 신호로부터 업샘플링된 하위 레이어(lower layer) 신호(예를 들면, 레이어n-1 신호)를 감산하는 것에 의해 차동 신호가 생성될 수도 있고, 차동 신호는 인코딩될 수도 있다. 두 개의 레이어(예를 들면, n1 및 n2)에 의해 표현되는 비디오 신호가 동일한 공간 해상도를 가지면, 대응하는 다운샘플링 및 업샘플링 동작은 생략될 수도 있다. 상위 레이어로부터의 디코딩 정보를 사용하지 않고도 레이어n(예를 들면, 1≤n≤N) 또는 복수의 레이어가 디코딩될 수도 있다. 베이스 레이어를 제외한 레이어의 각각에 대한 잔차 신호(예를 들면, 두 레이어 사이의 차이 신호)의 코딩에 의존하는 것은, 도 1의 시스템에 의해 사용될 수도 있지만, 시각적 아티팩트(artifact)를 야기할 수도 있다. 시각적 아티팩트는, 잔차 신호의 다이내믹 레인지를 제한하기 위해 잔차 신호를 양자화하고 및/또는 정규화하는 프로세스에 의해, 잔차의 코딩 동안 수행되는 추가 양자화에 의해, 및/또는 잔차 신호에서의 모션 추정이 종래의 모션 추정과는 상이할 수도 있기 때문에 야기될 수도 있다.
스케일러블 비디오 코딩(Scalable Video Coding; SVC)은, 예를 들면, 부분적인 비트 스트림의 레이트가 주어지면, 상대적으로 높은 재구성 품질을 유지하면서, 부분적인 비트 스트림의 인코딩, 송신, 및/또는 디코딩이 더 낮은 시간 해상도, 더 낮은 공간 해상도, 감소된 충실도(fidelity) 등등을 제공하는 것을 가능하게 할 수도 있는 H.264의 확장일 수도 있다. SVC의 설계 피쳐는 단일 루프 디코딩으로 칭해질 수도 있다. 단일 루프 디코딩에서, SVC 디코더는 디코딩되고 있는 레이어에서 모션 보상 루프를 셋업할 수도 있고, 다른 하위 레이어(들)에서 모션 보상 루프(들)를 셋업할 필요가 없을 수도 있다. 예를 들면, 비트스트림이 두 개의 레이어, 즉, 레이어1(예를 들면, 베이스 레이어) 및 레이어2(예를 들면, 향상 레이어)를 포함하고, 디코더가 레이어2 비디오를 재구성하는 경우, 디코딩된 화상 버퍼 및/또는 모션 보상된 예측은, (예를 들면, 레이어2가 의존하는 베이스 레이어인 레이어1에 대해서가 아니라) 레이어2에 대해 셋업될 수도 있다. SVC는 완전히 재구성될 하위 레이어로부터의 참조 화상을 구비할 필요가 없을 수도 있다. 이러한 셋업은 디코더에서 계산적 복잡도 및/또는 메모리 복잡도를 감소시킬 수도 있다. 단일 루프 디코딩은 제한된 레이어간 텍스쳐 예측에 의해 달성될 수도 있는데, 여기서는, 예를 들면, 주어진 레이어의 현재 블록에 대해, 대응하는 하위 레이어 블록이 제한된 인트라 모드에서 코딩되면, 하위 레이어로부터의 공간 텍스쳐 예측이 허용될 수도 있다. 하위 레이어 블록이 인트라 모드에서 코딩되는 경우, 하위 레이어 블록은 모션 보상 동작 및/또는 디코딩된 화상 버퍼 없이 재구성될 수도 있다.
SVC는, 예를 들면, 향상 레이어의 레이트-왜곡(rate-distortion) 효율성을 향상시키기 위해, 하위 레이어로부터의 추가적인 레이어간 예측, 예컨대 모션 벡터 예측, 잔차 예측, 모드 예측 등등을 사용할 수도 있다. 레이어간 예측은 화상 레벨 ILP, 블록 레벨 ILP, 및/또는 등등을 참조할 수도 있다. 단일 루프 디코딩이 디코더에서 계산적 복잡도 및/또는 메모리 복잡도를 감소시킬 수도 있지만, 단일 루프 디코딩은, 만족스러운 성능을 달성하기 위해 블록 레벨의 레이어간 예측 방법에 크게 의존하는 것에 의해 구현 복잡도를 증가시킬 수도 있다. 단일 루프 디코딩 제약을 부과하는 것에 의해 야기되는 성능 페널티를 보상하기 위해, 인코더 설계 및 계산 복잡도는, 소망의 성능이 달성될 수도 있도록, 증가될 수도 있다.
다중 뷰 비디오 코딩(Multi-view video coding; MVC)은 H.264의 확장이다. MVC는 뷰 스케일러빌러티를 제공할 수도 있다. 뷰 스케일러빌러티에서, 베이스 레이어 비트스트림은 디코딩되어, 종래의 2D 비디오를 재구성할 수도 있다. 동일한 비디오 신호의 다른 뷰 표현을 재구성하도록, 추가적인 향상 레이어가 디코딩될 수도 있다. 뷰의 각각이 함께 결합되어 적절한 3D 디스플레이에 의해 디스플레이되는 경우, 유저는, 예를 들면, 적절한 깊이 감(depth perception)을 갖는 3D 비디오를 경험할 수도 있다.
도 2는 좌측 뷰(예를 들면, 레이어1)(201) 및 우측 뷰(예를 들면, 레이어2)(202)를 갖는 입체 비디오를 코딩하기 위해 MVC를 사용하는 예시적인 예측 구조(200)의 도면이다. 도 2의 좌측 뷰 비디오(201)는 IBBP 예측 구조로 코딩될 수도 있다. 도 2의 우측 뷰 비디오(202)는 IBBP 예측 구조로 코딩될 수도 있다. 우측 뷰(202)에서, 좌측 뷰(201)의 제 1 I 화상(204)과 연결되는(collocated) 제 1 화상(203)은 P 화상으로서 인코딩될 수도 있다. 우측 뷰(202)의 다른 화상은 B 화상으로서 인코딩될 수도 있는데, 예를 들면, 제 1 예측은 우측 뷰(202)의 시간 참조로부터 유래하고, 제 2 예측은 좌측 뷰(201)의 레이어간 참조로부터 유래한다. (예를 들면, 3D 안경을 이용하는) 입체의 3D TV는 3D 컨텐츠(예를 들면, 영화, 라이브 스포츠 등등)를 디스플레이할 수도 있다. SVC와는 달리, MVC는 단일 루프 디코딩 피쳐를 지원하지 않을 수도 있다. 우측 뷰(예를 들면, 레이어2) 비디오(202)의 디코딩은, 예를 들면, 도 2에서 도시된 바와 같이, 이용가능하게 되는 좌측 뷰(예를 들면, 레이어1) 비디오(201)의 화상을 사용할 수도 있다. 이와 같이, 모션 보상 루프는 뷰/레이어 둘 모두에서 수행될 수도 있다. MVC는 H.264/AVC에 대한 하이 레벨 구문 변경을 포함할 수도 있고 및/또는 어떠한 블록 레벨 변경도 포함하지 않을 수도 있다. MVC는, 다수의 뷰에 걸쳐 레이어간 예측을 수행하도록 도 2의 예를 확장하는 것에 의해, 두 개보다 많은 뷰의 코딩을 지원할 수도 있다.
3D 비디오(예를 들면, 입체의 3D 비디오)는 두 개의 뷰, 예를 들면, 좌측 뷰 및 우측 뷰를 포함할 수도 있다. 입체의 3D 비디오 컨텐츠 전달은 두 개의 뷰를 하나의 프레임으로 패킹 및/또는 멀티플렉싱하는 것에 의해(예를 들면, 이것은 프레임 호환가능으로 칭해질 수도 있음), 그리고 패킹된 비디오를 표준(예를 들면, H.264/AVC)으로 압축하여 송신하는 것에 의해 달성될 수도 있다. 수신기 측에서, 디코딩 이후, 프레임은 언팩되고 두 개의 뷰로서 디스플레이될 수도 있다. 뷰의 멀티플렉싱은 시간 도메인 및/또는 공간 도메인에서 수행될 수도 있다. 공간 도메인에서 수행되는 경우, 예를 들면, 동일한 화상 사이즈를 유지하기 위해, 두 개의 뷰는 2의 인자에 의해 공간적으로 다운샘플링될 수고 있고 다양한 배치에 의해 패킹될 수도 있다. 예를 들면, 나란한 배치는 다운샘플링된 좌측 뷰를 화상의 좌측 절반 상에 그리고 다운샘플링된 우측 뷰를 화상의 우측 절반 상에 놓을 수도 있다. 다른 배치는 상하(top-and-bottom), 라인별(line-by-line), 체커보드 등등을 포함할 수도 있다. 특정 배치는 프레임 호환가능 3D 비디오를 달성하기 위해 사용될 수도 있고 프레임 패킹 배치(SEI) 메시지에 의해 전달될 수도 있다. 이러한 배치가 대역폭 요건에서의 최소 증가를 가지고 3D 전달을 달성할 수도 있지만(예를 들면, 패킹된 프레임이 압축하기가 어려울 수도 있기 때문에 약간의 증가가 존재할 수도 있음), 공간적 다운샘플링은 뷰에서 앨리어싱(aliasing)을 야기할 수도 있고 3D 비디오의 시각적 품질 및 유저 경험을 감소시킬 수도 있다. 호환 가능한(예를 들면, 동일한 프레임으로 패킹된 두 개의 뷰) 베이스 레이어 비디오를 프레임화하기 위해 스케일러블 확장이 제공될 수도 있고 향상된 3D 경험을 위한 풀 해상도의 뷰를 복원하기 위해 하나 이상의 향상 레이어가 제공될 수도 있다. 풀 해상도의 MFC를 가능하게 하기 위한 기저의 기술은 공간 스케일러빌러티 기술과 관련될 수도 있다.
3DV로서 칭해질 수도 있는 3D 스케일러블 비디오 코딩이 제공될 수도 있다. 자동입체(autostereoscopic) 디스플레이 및 애플리케이션은 안경 없이 3D 경험을 허용할 수도 있다. 안경 없는 3D 경험을 달성하기 위해, 두 개보다 많은 뷰가 필요 될 수도 있다. 다수의 뷰(예를 들면, 9개의 뷰 또는 10개의 뷰)를 코딩하는 것은 비용이 많이 들 수도 있다. 뷰의 깊이 정보를 제공하는 깊이 맵과 함께 상대적으로 큰 디스패리티를 갖는 더 적은 뷰(예를 들면, 2개 또는 3개의 뷰)를 코딩하는 하이브리드 방식이 제공될 수도 있다. 디스플레이 측에서, 코딩된 뷰 및 깊이 맵은 디코딩될 수도 있고, 나머지 뷰는 뷰 합성 기술을 사용하여 디코딩된 뷰 및 그들의 깊이 맵을 사용하여 생성될 수도 있다. 3DV는, 예를 들면, H.264/AVC, MVC, 및/또는 HEVC 표준의 조합을 사용하여, 뷰 및 깊이 맵을 코딩하기 위해 다양한 방법을 사용할 수도 있다. 베이스 레이어는 하나의 표준(예를 들면, H.264/AVC)으로 코딩될 수도 있고 하나 이상의 향상 레이어는 다른 표준(예를 들면, HEVC)으로 코딩될 수도 있다.
표 1은 본원에서 논의되는 스케일러빌러티의 타입, 및 이들 스케일러빌러티를 지원할 수도 있는 대응하는 표준을 예시한다. 표 1에 예시된 바와 같이, 비트 깊이 스케일러빌러티 및 크로마 포맷 스케일러빌러티는 비디오 포맷(예를 들면, 8비트보다 더 큰 비디오 및 YUV 4:2:0보다 더 큰 크로마 샘플링 포맷)으로 묶일 수도 있다.
Figure pct00001
HEVC 스케일러블 확장에 대해 다양한 설계가 제공될 수도 있다. 예를 들면, HEVC 스케일러블 확장은 레이어간 참조(ILR) 화상 기반(예를 들면, 이것은 RefIdx로 칭해질 수도 있다)일 수도 있고 및/또는 ILR 블록 기반(예를 들면, 이것은 인트라BL로서 칭해질 수도 있다)일 수도 있다. RefIdx는, 레이어간 참조 화상을 생성하도록, 레이어간 예측(ILP) 프로세스를 추가할 수도 있다. RefIdx는 향상 레이어(EL) 인코딩 및/또는 디코딩 프로세스에 대해 저레벨 변화를 사용하지 않을 수도 있다. EL 코덱 설계는, 예를 들면, 약간의 높은 레벨 변화(예를 들면, 참조 리스트 구성)를 갖는 단일 레이어 HEVC 코덱의 설계를 재사용할 수도 있다. 인트라BL은, 재구성된 화상 및 모션을 포함하는 베이스 레이어로부터의 정보를 활용하기 위해, 코딩 블록에서 코딩 모드를 추가할 수도 있다.
레이어간 예측 기반의 프로세스(예를 들면, 이것은 RefIdx의 프로세스일 수도 있다)에서, 하나 이상의 레이어간 참조(ILR) 화상은 하나 이상의 베이스 레이어(base layer; BL) 재구성 화상으로부터 생성될 수도 있다. ILR 화상은 EL 인코딩 및 디코딩을 위해 사용되는 장기간 참조 화상으로서 마킹될 수도 있다. ILP 프로세스는 BL 재구성 화상을 EL의 해상도로 업샘플링하는 것을 포함할 수도 있다. ILP 프로세스는 (예를 들면, 시간적으로 연결된 BL 화상의) BL 모션 정보를 ILR 화상의 것에 매핑하는 것을 포함할 수도 있다. 업샘플링된 ILR 화상 품질을 향상시키기 위해, 교차 평면 필터링(cross-plane filtering), 에지 가이드식 프로세싱(edge guided processing) 등등과 같은 그러나 이들에 한정되지 않는 다양한 기술이 사용될 수도 있다. EL의 모션 예측을 위해 사용될 수도 있는 ILR 화상의 모션 정보를 향상시키기 위해, 모션 매핑 기술이 사용될 수도 있다. ILR 화상은, EL 화상, 예를 들면, 연결된(예를 들면, 시간적으로 연결된) EL 화상의 예측을 위해 사용될 수도 있다.
ILR 화상의 고주파 신호는 업샘플링된 BL 재구성 화상을 (예를 들면, BL 재구성 화상만을) 사용하여 복원되지 않을 수도 있는데, 예를 들면, BL에 누락될 수도 있고 따라서 업샘플링된 BL 참조 화상에 포함되지 않을 수도 있는 고주파 정보 때문이다. 누락되어 있는 고주파 정보는, 예를 들면, 2개의 레이어가 상이한 공간 해상도를 가질 수도 있는 경우, (예를 들면, 인코더 측에서) BL 소스 화상을 생성할 때 입력 비디오 스트림을 고해상도 신호로부터 베이스 레이어의 해상도로 다운샘플링하는 것에 의해 기인할 수도 있다. 누락되어 있는 고주파 정보는 입력 비디오 스트림으로부터의 BL을 코딩할 때 수행되는 양자화에 기인할 수도 있다. EL에서의 시간 재구성 화상(temporal reconstructed picture)은 고주파 정보(예를 들면, 고주파 정보의 일부)를 구비할 수도 있다. 이와 같이, 고주파 정보는 EL 시간 재구성 화상을 사용하여 복원될 수도 있다.
RefIdx 프레임워크에서의 차동 코딩이 사용될 수도 있다. 차동 화상은, 재구성된 EL 화상(예를 들면, 연결된 재구성 EL 화상)으로부터 업샘플링된 BL 화상을 감산하는 것에 의해 생성될 수도 있다. 차동 화상은 EL 참조 화상 리스트에 삽입될 수도 있다. 차동 코딩은, 예를 들면, 본원에서 설명되는 바와 같이, 가중치가 부여된 예측(weighted prediction)을 사용할 수도 있다. 차동 화상은, 베이스 레이어 화상을 EL의 해상도로 업샘플링하는 것에 의해 생성되는 참조 화상과는 상이할 수도 있다. 차동 화상은 차동 코딩 모드에 대해(예를 들면, 차동 코딩 모드에 대해서만) 사용될 수도 있다. 참조 리스트의 사이즈 제한 때문에, 인코더는 자신이 적용할 수 있는 차동 화상의 수에 제한될 수도 있다. 레이어간 예측 및 EL 인터 예측(inter prediction)을 결합하는 예측 방법이 사용될 수도 있다. 레이어간 예측 및 EL 인터 예측을 결합하는 예측 방법은 인트라BL 방식에 기반할 수도 있고 및/또는 EL 코딩에 대해 블록 레벨 변화를 요구할 수도 있다.
방법, 시스템, 및 수단은, 예를 들면, 업샘플링된 BL 화상 및 모션 보상을 갖는 시간 재구성 EL 화상을 결합하는 것에 의해 레이어간 참조 화상의 향상을 제공한다. RefIdx 프레임 워크는, 향상된 레이어간 참조 화상이 정규 참조 화상으로서 취급될 수도 있기 때문에, 예를 들면, 향상된 레이어간 참조FMF 장기간 참조화상으로 마킹하는 것에 의해 사용될 수도 있다.
도 3은 예시적인 블록 기반의 단일 레이어 비디오 인코더(300)의 도면이다. 단일 레이어 인코더(300)는, 예를 들면, 효율적인 압축을 달성하도록 입력 비디오 신호를 예측하기 위해, 공간 예측(예를 들면, 인트라 예측) 및/또는 시간 예측(예를 들면, 인터 예측 및/또는 모션 보상된 예측)을 활용할 수도 있다. 인코더(300)는, 예를 들면, 블록 단위로 입력 비디오 스트림(302)을 수신할 수도 있다. 예를 들면, 인코더는 입력 비디오 스트림(302)의 하나 이상의 화상을 블록으로 구획하고 하나 이상의 블록을, 예를 들면, 하나씩 인코딩할 수도 있다. 인코더(300)는 입력 비디오(302)의 비디오 블록을 모드 결정 및 기타 인코더 제어 로직 유닛(340), 공간 예측 유닛(330), 및/또는 모션 예측 유닛(332)으로 전송할 수도 있다. 모드 결정 로직 유닛(340)은, 예를 들면, 레이트 및/또는 왜곡 고려사항과 같은 소정의 기준에 기반하여, 가정 적절한 예측의 형태를 결정하기 위해 사용될 수도 있다.
인코더(300)는 예측 신호(338)(예를 들면, 예측 블록) 및 입력 비디오 스트림(302)의 비디오 블록을 사용하여 가산기에서 예측 잔차(318)를 생성할 수도 있다. 예측 신호(338)는, 예를 들면, 현재 블록에 대한 예측의 결정된 형태에 기반하여, 모드 결정 로직 유닛(340)에 의해 결정될 수도 있다. 예측 잔차(318)는 입력 신호(302)와 예측 신호(338) 사이의 차이 신호일 수도 있다.
인코더(300)는 변환 유닛(304) 및 양자화 유닛(306)에서 예측 잔차(318)를, 각각, 변환하고 양자화할 수도 있다. 예측 잔차(318)를 변환하고 양자화하는 것에 의해, 인코더(300)는 잔차 계수 블록(324)을 생성할 수도 있다. 잔차 계수 블록(324)은 양자화된 잔차로서 칭해질 수도 있다. 잔차 계수 블록(324)은 모드 정보(예를 들면, 인트라 또는 인터 예측), 모션 정보, 및/또는 예측 정보(예를 들면, 모션 벡터, 참조 화상 인덱스, 인트라 예측 모드 등등)(328)와 함께 결합되고 엔트로피 코더(308)에서 압축될 수도 있다. 모션 정보는 블록의 모션 정보 클래스(예를 들면, 모션 정보와 연관된 참조 화상의 인덱스) 및 블록의 모션 벡터(예를 들면, 모션의 양)를 포함할 수도 있다. 엔트로피 코더(308)는, 잔차 계수 블록(324) 및 코딩 모드, 모션 정보, 및/또는 예측 정보(328)를 사용하여 출력 비디오 비트스트림(320)을 생성할 수도 있다. 출력 비디오 비트스트림(320)은 복수의 화상의 코딩된 정보를 포함할 수도 있다. 화상은 하나 이상의 블록 또는 하나 이상의 사이즈를 포함할 수도 있다. 블록은, 예를 들면, 64×64, 32×32, 16×16, 8×8, 4×4, 직사각형 등등의 임의의 사이즈일 수도 있다.
인코더(300)는, 재구성된 잔차를 획득하기 위해 양자화된 잔차(324)에 대해 310에서 역양자화를 그리고 312에서 역변환을 적용하는 것에 의해 그리고 재구성된 잔차를 가산기(322)에서 예측 신호(326)(예를 들면, 예측 블록)에 가산하는 것에 의해, 재구성된 비디오 신호(342)(예를 들면, 재구성된 비디오 블록)를 생성할 수도 있다. 재구성된 비디오 신호(342)는 필터링되지 않은 재구성된 신호로 칭해질 수도 있다. 재구성된 비디오 신호(342)는 공간 예측 유닛(330)에 제공될 수도 있다. 재구성된 비디오 신호(342)는 루프 필터 유닛(336)에서 루프 필터 프로세서(예를 들면, 블록제거용 필터(deblocking filter), 샘플 적응적 오프셋, 적응적 루프 필터 및/또는 등등)를 거칠 수도 있다. 필터링된 재구성된 비디오 신호(344)는, 예를 들면, 미래의 비디오 신호를 예측하기 위해 사용되도록, 참조 화상 저장소(334)에 저장될 수도 있다. 참조 화상 저장소(334)는 디코딩된 화상 버퍼(decoded picture buffer; DPB)로 칭해질 수도 있다. 참조 화상 저장소(334)는, 예를 들면, 입력 비디오(302)의 후속 블록의 예측을 위해, 필터링된 재구성된 비디오 신호(344)를 모션 예측 유닛(332)으로 제공할 수도 있다.
도 4는 예시적인 블록 기반의 단일 레이어 디코더(400)의 도면이다. 디코더(400)는, 예를 들면, 도 3의 인코더(300)에 의해 생성되었을 수도 있는 비디오 비트스트림(402)(예를 들면, 비트스트림(320)일 수도 있다)을 수신할 수도 있다. 비디오 비트스트림(402)은 복수의 화상의 코딩된 정보를 포함할 수도 있다. 화상은 하나 이상의 블록 또는 하나 이상의 사이즈를 포함할 수도 있다. 블록은, 예를 들면, 64×64, 32×32, 16×16, 8×8, 4×4, 직사각형 등등의 임의의 사이즈일 수도 있다. 디코더(400)는 디스플레이될 비디오 신호를 재구성할 수도 있다. 비디오 디코더(400), 비트스트림(402)은, 잔차 계수(406) 및/또는 코딩 모드, 예측 모드, 및 모션 정보(408)에 관한 정보를 생성하도록, 엔트로피 디코더(404)에 의해 파싱될 수도 있다. 잔차 계수(406)는, 재구성된 잔차(426)를 획득하도록 410에서 역양자화되고 412에서 역변환될 수도 있다.
코딩 모드, 예측 모드, 및 모션 정보(408)는 비트스트림(402)의 비디오 블록(예를 들면, 동일하거나 또는 상이한 비디오 블록)의 공간 예측 유닛(424)을 통한 공간 예측 및/또는 시간 예측 유닛(422)을 통한 시간 예측을 사용하여 예측 신호(430)를 획득하기 위해 사용될 수도 있다. 예측 신호(430) 및 재구성된 잔차(426)는 재구성된 비디오 신호(428)를 생성하도록 가산기(414)에서 가산될 수도 있다. 재구성된 비디오 신호(428)는 공간 예측 유닛(424)에 제공될 수도 있다. 재구성된 비디오는 필터링된 재구성 비디오 신호(418)를 생성하도록 루프 필터링 유닛(416)에 의해 필터링될 수도 있다. 필터링된 재구성된 비디오 신호(418)는 참조 화상 저장소(420)에 저장될 수도 있다. 필터링된 재구성된 비디오 신호(418)는 디스플레이될 수도 있고 및/또는 비디오 신호의 블록(예를 들면, 비트스트림(402))을 디코딩하는 데 사용될 수도 있다.
도 5는 예시적인 2 레이어 스케일러블 인코더(500)의 도면이다. 2 레이어 스케일러블 비디오 인코더(500)는 레이어간 예측을 포함할 수도 있다. 레이어간 예측은 화상 레벨 ILP, 블록 레벨 ILP, 및/또는 등등을 참조할 수도 있다. 도 5에서 향상 레이어 비디오 입력(502)이 수신될 수도 있다. 향상 레이어 비디오 입력(502)은 베이스 레이어 비디오 입력(506)을 생성하도록 다운샘플링 유닛(504)에서 다운샘플링될 수도 있다. 베이스 레이어 인코더(508)(예를 들면, HEVC 인코더)가 베이스 레이어 비디오 입력(506)을 (예를 들면, 블록 단위로, 화상 단위로 등등으로) 인코딩할 수도 있고 베이스 레이어 비트스트림(510)을 생성할 수도 있다. 비디오 인코더(300)는 베이스 레이어 인코더(508)의 예일 수도 있다. 베이스 레이어 인코더(508)는 베이스 레이어 정보(512)(예를 들면, 코딩 모드 정보, 예측 모드 정보, 및/또는 모션 정보)를 레이어간 예측 프로세싱 및 관리 유닛(514)으로 전송할 수도 있다. 베이스 레이어 인코더(508)는 베이스 레이어 재구성 화상(base layer reconstructed picture)(예를 들면, 비트스트림의 하나 이상의 화상)을 베이스 레이어 디코딩된 화상 버퍼(522)에 저장할 수도 있다. 베이스 레이어 인코더(508)는, 베이스 레이어 입력(506)을 인코딩하고 베이스 레이어 비트스트림(510)을 생성하도록, 디코딩된 화상 버퍼(522)로부터 취출되는 화상 및/또는 베이스 레이어 정보(512)를 사용할 수도 있다.
향상 레이어 인코더(516)는 향상 레이어 비디오 입력(502)을 수신할 수도 있다. 향상 레이어 비디오 입력(502)은 베이스 레이어 비디오 입력(506)보다 더 높은 공간 해상도 및/또는 더 높은 값의 다른 비디오 파라미터에 있을 수도 있다. 향상 레이어 인코더(516)는 향상 레이어 비디오 입력(502)을 사용하여 향상 레이어 비트스트림(518)을 생성할 수도 있다. 향상 레이어 인코더(516)은, 예를 들면, 압축을 달성하도록 공간 예측 및/또는 시간 예측을 사용하는 것에 의해, 베이스 레이어 비디오 인코더(508)와 실질적으로 유사한 방식으로 EL 비트스트림(518)을 생성할 수도 있다. 향상 레이어 인코더(516)는 향상 레이어 정보(520)(예를 들면, 코딩 모드 정보, 예측 모드 정보, 및/또는 모션 정보)를 레이어간 예측 프로세싱 및 관리 유닛(514)으로 전송할 수도 있다. 향상 레이어 인코더(516)는 향상 레이어 재구성 화상(enhancement layer reconstructed picture)(예를 들면, 비트스트림의 하나 이상의 화상) 및/또는 향상 레이어 정보(520)를 향상 레이어 디코딩된 화상 버퍼(524)에 저장할 수도 있다. 향상 레이어 인코더(516)는, 향상 레이어 입력(502)을 인코딩하고 향상 레이어 비트스트림(518)을 생성하도록, 디코딩된 화상 버퍼(524)로부터 취출되는 화상 및/또는 향상 레이어 정보(520)를 사용할 수도 있다.
향상 레이어 인코더(516)는 자신의 코딩 성능을 향상시키기 위해 레이어간 예측(ILP)을 수행할 수도 있다. 향상 레이어 인코더(516)는 레이어간 예측 프로세싱 및 관리 유닛(514)으로부터 도움을 받아 ILP를 수행할 수도 있다. 예를 들면, 레이어간 예측 프로세싱 및 관리 유닛(514)은, 디코딩된 화상 버퍼(524)에 참조 화상을 제공하기 위해, 베이스 레이어 비디오 입력(506)을 사용하여 생성되는 하나 이상의 참조 화상을 제공할 수도 있다. 현재의 향상 레이어에서의 코딩된 비디오 신호에 기반하여 예측 신호를 유도하는 공간 및 시간 예측과는 달리, 레이어간 예측은 베이스 레이어 입력(506)(예를 들면, 및/또는 두 개보다 많은 레이어가 스케일러블 시스템에 존재하는 경우 다른 하위 레이어)으로부터의 코딩된 비디오 신호에 기반하여 예측 신호를 유도할 수도 있다. 화상 레벨 ILP 및/또는 블록 레벨 ILP가 인코더(500)에 의해 사용될 수도 있다. 비트스트림 멀티플렉서(528)가 베이스 레이어 비트스트림(510)과 향상 레이어 비트스트림(518)을 결합하여, 스케일러블 비트스트림(530)을 생성할 수도 있다. 스케일러블 비트스트림(530)은 복수의 화상을 포함할 수도 있다. 화상은 하나 이상의 블록 또는 하나 이상의 사이즈를 포함할 수도 있다. 블록은, 예를 들면, 64×64, 32×32, 16×16, 8×8, 4×4, 직사각형 등등의 임의의 사이즈일 수도 있다.
도 6은 예시적인 2 레이어 스케일러블 인코더(600)의 도면이다. 디코더(600)는 스케일러블 인코더(500)에 대응할 수도 있다. 디코더(600)는 스케일러블 비트스트림(602)을 수신할 수도 있다. 스케일러블 비트스트림(602)은 복수의 화상을 포함할 수도 있다. 화상은 하나 이상의 블록 또는 하나 이상의 사이즈를 포함할 수도 있다. 블록은, 예를 들면, 64×64, 32×32, 16×16, 8×8, 4×4, 직사각형 등등의 임의의 사이즈일 수도 있다. 디코더(600)는 스케일러블 비트스트림(602)을 디멀티플렉서(604)로 제공할 수도 있다. 디멀티플렉서(604)는 스케일러블 비트스트림(602)을 베이스 레이어 비트스트림(606) 및 향상 레이어 비트스트림(610)으로 분리할 수도 있다. 디멀티플렉서(604)는 스케일러블 비트스트림(602)을 베이스 레이어 비트스트림(606) 및 향상 레이어 비트스트림(610)으로 분리할 수도 있다. 디멀티플렉서(604)는 또한 레이어간 예측 정보(614)를 레이어간 예측 프로세싱 및 관리 유닛(616)으로 전송할 수도 있다.
베이스 레이어 디코더(608)가 베이스 레이어 비트스트림(606)을 수신할 수도 있다. 디코더(400)는 베이스 레이어 디코더(608)의 예일 수도 있다. 베이스 레이어 디코더(608)는 베이스 레이어 비트스트림(606)을 디코딩하고 재구성 베이스 레이어 비디오(622)를 생성할 수도 있다. 베이스 레이어 디코딩된 화상 버퍼(618)는, 예를 들면, 베이스 레이어 비트스트림(606)을 디코딩함에 있어서 베이스 레이어 디코더(608)를 보조하기 위해, 베이스 레이어 비디오(622)의 하나 이상의 화상을 저장할 수도 있다. 베이스 레이어 디코딩된 화상 버퍼(618)는 베이스 레이어 비디오(622)에 관한 정보(예를 들면, 업샘플링된 베이스 레이어 화상)를 레이어간 예측 프로세싱 및 관리 유닛(616)으로 제공할 수도 있다.
향상 레이어 디코더(612)가 향상 레이어 비트스트림(610)을 수신할 수도 있다. 향상 레이어 디코더(612)는, 예를 들면, ILP를 통해, 현재의 레이어 및/또는 자신의 종족 레이어 중 하나 이상(예를 들면, 베이스 레이어)으로부터의 정보를 사용하여 향상 레이어 비트스트림(610)를 디코딩할 수도 있다. 향상 레이어 디코더는 재구성된 향상 레이어 비디오(624)를 생성하도록 향상 레이어 비트스트림(610)을 디코딩할 수도 있다. 향상 레이어 디코딩된 화상 버퍼(620)는, 예를 들면, 향상 레이어 비트스트림(610)을 디코딩함에 있어서 향상 레이어 디코더(612)를 보조하기 위해, 향상 레이어 비디오(624)의 하나 이상의 화상 및/또는 레이어간 예측 프로세싱 및 관리 유닛(616)으로부터의 하나 이상의 레이어간 화상을 저장할 수도 있다.
도 7은 예시적인 레이어간 예측 프로세싱 및 관리 유닛(700)의 도면이다. ILP 프로세싱 및 관리 유닛(514 및 616)은 ILP 프로세싱 및 관리 유닛(700)의 예일 수도 있다. ILP 프로세싱 및 관리 유닛(700)은 향상 레이어 비디오 입력(702)을 수신할 수도 있다. 향상 레이어 비디오 입력(702)은 ILP 프로세싱 유닛(704)의 최적화 타겟으로서 사용될 수도 있다. ILP 프로세싱 및 관리 유닛(700)은 향상 레이어 비디오(702)를 ILP 프로세싱 유닛(704) 및/또는 ILP 관리 유닛(706)으로 제공할 수도 있다. ILP 프로세싱 유닛(704)은 향상 레이어 화상(710) 및/또는 베이스 레이어 DPB(708)로부터 베이스 레이어 화상을 수신할 수도 있다.
ILP 프로세싱 유닛(704)은 하나 이상의(예를 들면, 두 개의) 레이어간 참조(ILR) 화상(712)을 생성할 수도 있다. ILR 화상은 현재의 EL 화상을 인코딩 및/또는 디코딩하기 위해 인코더 및/또는 디코더에 의해 사용될 수도 있다. ILR 화상은 연결된 BL 재구성 화상(716)을 업샘플링하는 것에 의해 생성되는 ILR 화상일 수도 있다. 연결된 BL 재구성 화상을 업샘플링하는 것에 의해 생성되는 ILR 화상은 정규 ILR 화상으로서 칭해질 수도 있다. ILR 화상은 향상된 레이어간 참조(E-ILR) 화상일 수도 있다. E-ILR 화상은 시간 EL 재구성 화상과 정규 ILR 화상을 결합하는 것에 의해 생성될 수도 있다. ILR(예를 들면, E-ILR) 화상(들)은 EL DPB(714)에 삽입될 수도 있다. 삽입 위치는 ILP 관리 유닛(706)에 의해 관리될 수도 있다. EL DPB(714)는 ILR 화상 중 하나 이상을 EL 인코더 및/또는 EL 디코더(720)로 제공할 수도 있다.
도 8은 참조 화상 리스트에서의 ILR 화상(들) 및/또는 E-ILR 화상(들)의 배치의 예의 도면(800)이다. ILR 화상 및/또는 E-ILR 화상(804)은 인코더 및/또는 디코더에 의해 식별될 수도 있다. 도 8에 예시된 바와 같이, E-ILR 화상(804)은 (예를 들면, 리스트 L0 및/또는 L1 중) 상이한 위치에 위치될 수도 있다. 예를 들면, E-ILR 화상(804)은 B 슬라이스의 리스트 L0에 또는 B 슬라이스의 리스트 L1에 위치될 수도 있다. E-ILR 화상(804)은 P 슬라이스의 리스트 L0에서 ILR 화상(802) 뒤에 또는 P 슬라이스의 리스트 L0에서 ILR 화상(802) 이전에 위치될 수도 있다. E-ILR 화상은 재순서화 정보를 시그널링하는 것에 의해 재순서화될 수도 있다. 디코더에게 E-ILR 프로세싱을 수행할 것을 플래그가 나타낼 수도 있다. 표 2는 본원에서 사용되는 심볼의 리스트를 예시한다.
Figure pct00002
레이어간(IL)은, EL 코딩을 위해 참조 화상을 제공할 수도 있는 가상의 화상 레이어일 수도 있다. BL 화상의 인터 코딩된 블록의 모션 정보는, 연결된 BL 모션이 모션 필드 매핑을 사용하여 IL에 매핑된 이후 IL 블록에 대한 시간적 대응관계를 나타낼 수도 있다. 레이어간 모션 벡터가 제공될 수도 있다. 예를 들면, 레이어간 모션 벡터는 식 (1)에 의해 제공될 수도 있다:
Figure pct00003
정규 레이어간 참조 화상이 제공될 수도 있다. 예를 들면, 정규 ILR 화상은 식 (2)에 따라 생성될 수도 있다:
Figure pct00004
도 9는 단 예측 코딩된 블록을 사용하는 E-ILR 블록의 생성의 예의 도면이다. 도 9는 E-ILR 블록을 생성하는 잔차 방법 및/또는 차동 방법을 설명하기 위해 사용될 수도 있다. 도면(900)은 시간 T에서의 베이스 레이어(BL) 화상 BLT(908), 시간 T에서의 레이어간(IL) 참조 화상 ILT(910), 및 시간 T에서의 향상 레이어(EL) 화상 ELT(912)의 예를 도시한다. 블록 B(BLT)(926)는 BL 화상 BLT(908) 내에 위치되는 블록일 수도 있다. 블록 B(ILT)(928)는 IL 화상 ILT(910) 내에 위치되는 블록일 수도 있다. 블록 B(ELT)(930)은 EL 화상 ELT(912) 내에 위치되는 블록일 수도 있다. 모션 벡터 MVBLX(932)는 블록 B(BLT)(926)과 연관된 모션 벡터일 수도 있다. 모션 벡터 MVILX(934)는 블록 B(ILT)(928)과 연관된 모션 벡터일 수도 있다. 모션 벡터 MVELX(936)는 블록 B(ELT)(930)과 연관된 모션 벡터일 수도 있다.
도면(900)은 시간 X에서의 BL 화상 BLX(902), 시간 X에서의 IL 참조 화상 ILX(904), 및 시간 X에서의 EL 화상 ELX(906)의 예를 도시한다. 블록 B(BLX)(920)는 BL 화상 BLX(902) 내에 위치되는 블록일 수도 있다. 모션 보상된 블록 MC(ILX, MVILX)(922)는 IL 화상 ILX(904) 내에 위치되는 블록일 수도 있다. 모션 보상된 블록 MC(ELX, MVELX)(924)는 EL 화상 ELX(906) 내에 위치되는 블록일 수도 있다. BL 참조 화상(914), IL 참조 화상(916), 및 EL 참조 화상(918)은 각각의 화상(902, 904, 및 906)의 예시적인 이미지일 수도 있다. 시간 X에서의 화상(예를 들면, 또는 블록)은 시간 T에서의 화상(예를 들면, 또는 블록) 이전에 인코딩될 수도 있다. 이와 같이, 시간 X에 의해 특징지어지는 화상(902, 904, 906)은 시간 T에서 EL 화상(912)에 대한 참조 화상으로서 사용될 수도 있다. 화상(902, 904, 906, 908, 910, 및/또는 912)은 픽셀 도메인의 화상일 수도 있다.
IL 참조 화상 ILT(910)는 BL 화상 BLT(908)를 업샘플링하는 것에 의해 생성될 수도 있다. 블록 B(ILT)(928)는 블록 B(BLT)(926)를 업샘플링하는 것에 의해 생성될 수도 있다. IL 참조 화상 ILX(904)는 BL 화상 BLT(902)를 업샘플링하는 것에 의해 생성될 수도 있다. 모션 보상된 블록 MC(ILX, MVILX)(922)는 블록 B(BLX)(920)를 업샘플링하는 것에 의해 생성될 수도 있다. 이와 같이, IL 참조 화상 ILT(910) 및/또는 블록 B(ILT)(928)는, 각각, 업샘플링된 BL 화상(910) 및/또는 업샘플링된 BL 블록(928)으로서 칭해질 수도 있다. IL 참조 화상 ILX(904) 및/또는 모션 보상된 블록 MC(ILX, MVILX)(922)은, 각각, 업샘플링된 BL 화상(904) 및/또는 업샘플링된 BL 블록(922)으로 칭해질 수도 있다.
블록 B(BLT)(926)은 IL 블록 B(ILT)(928)의 연결된 블록일 수도 있다. B(BLT)(926)이 인터 모드 블록으로서 인코딩되면, E-ILR 블록 Enh(B(ILT))는 IL 블록 B(ILT)(928)를 사용하여 생성될 수도 있다(예를 들면, IL 블록 B(ILT)(928)이 향상될 수도 있다). 예를 들면, (예를 들면, 단 예측 모드에 대해) 식 (3)에 따라 E-ILR 블록 Enh(B(ILT))이 생성될 수도 있다:
Figure pct00005
B(BLT)(926)가 인터 모드 블록으로서 인코딩되면, E-ILR 블록 Enh(B(ILT))는 IL 블록 B(ILT)(928)를 사용하여 생성될 수도 있다(예를 들면, IL 블록 B(ILT)(928)가 향상될 수도 있다). 예를 들면, (예를 들면, 양 예측 모드에 대해) 식 (4)에 따라 E-ILR 블록 Enh(B(ILT))가 생성될 수도 있다:
Figure pct00006
고주파 신호를 포함하는 E-ILR 블록은, 예를 들면, 식 (3) 및/또는 식 (4)를 사용하여, 화상(ELX(906) 및/또는 ILX(904))를 이용한 모션 보상을 사용하여 생성될 수도 있다.
E-ILR 블록을 생성할 때, 가중치(ω)가 사용될 수도 있다. 가중치(ω)는 0보다 크거나 같고 1보다 작거나 같을 수 있다. 가중치(ω)는 하나 이상의(예를 들면, 각각의) 참조 화상에 대해 변경될 수도 있다(예를 들면, 적응적으로 변경될 수도 있다). 예를 들면, 가중치는 최소자승법(least square method)을 사용하여 추정될 수도 있다. 최적화 타겟은 EL 블록 B(ELT)(930)와 업샘플링된 BL 블록 B(ILT)(928) 사이의 차이일 수도 있다. 관측치는 시간 인스턴스 X에서의 EL MC(ELX, MVELX)(924)의 재구성된 블록과 블록 MC(ILX, MVILX)(922) 사이의 차이일 수도 있다. 가중치는 타겟과 가중치가 부여된 관측치 사이의 차이를 최소화하는 것에 의해 추정되는 관측치와 타겟 사이의 비율(예를 들면, 최적 비율)일 수도 있다.
가중치(ω)는 상이한 분류 방법에 기반하여 추정될 수도 있다. 예를 들면, 가중치는 리스트, 예컨대 리스트0 및 리스트1과 관련될 수 있다. 가중치는 두 개의 리스트로부터의 고유한 참조 화상 조합과 관련될 수도 있다. 가중치는, 예를 들면, 정수 모션 벡터, 하프 픽셀 모션 벡터, 쿼터(quarter) 픽셀 모션 벡터, 및/또는 등등과 같은 모션 벡터의 정밀도와 관련될 수도 있다. 가중치는, 예를 들면, 단 예측, 양 예측 등등과 같은 예측 모드와 관련될 수도 있다. 더 미세한 분류는, 가중치의 시그널링 오버헤드를 대가로, 더 정확한 가중치 및/또는 더 나은 향상 품질로 나타날 수도 있다. 인코더는 추정된 가중치를 시그널링에 의해 언제 적용할지를 결정할 수도 있다. 결정은, 예를 들면, 애플리케이션에 기반하여, RD 최적화, RD 복잡도 최적화, 및/또는 등등에 기반하여 이루어질 수도 있다. RD 복잡도 최적화에서, 인코더는, 증가된 계산 복잡도에 대해 RD 성능이 충분히 향상되지 않으면 가중치를 적용하지 않을 것을 결정할 수도 있다. ILR 화상에서의 모션 보상에서 사용되는 보간 필터는 BL 및/또는 EL 디코딩에서 것과는 상이할 수도 있다. 예를 들면, 필터는, 예를 들면, 복잡도를 감소시키기 위해, BL 코딩 및/또는 EL 코딩에 대해서는 정규 보간 필터(예를 들면, 이중 선형 보간 필터(bilinear interpolation filter))보다 더 짧을 수도 있다.
EL의 잔차는 레이어간 차이를 사용하여 예측될 수도 있다. E-ILR 블록 Enh(B(ILT))는 IL 블록 B(ILT)(928)를 사용하여 생성될 수도 있다(예를 들면, IL 블록 B(ILT)(928)는 향상될 수도 있다). 예를 들면, E-ILR 블록 Enh(B(ILT))는 식 (5) 및/또는 식 (6)에 따라 생성될 수도 있다.
Figure pct00007
Figure pct00008
식 (3) 및 (4)는 모션 보상을 차동 화상과 결합하는 것에 의해 단순화될 수도 있다. 차동 화상의 예는 식 (7)에 의해 정의된다. ILX는 시간 X에서의 IL 차동 화상일 수도 있다. Ioffset는 오프셋 값일 수도 있는데, 2BitDetpth -1일 수도 있다. 예를 들면, Ioffset는 8비트 컨텐츠에 대해 128이다.
Figure pct00009
예를 들면, EL 화상 ELT(912)의 예측을 보조하기 위해, 하나 이상의 참조 화상이 생성될 수도 있다. 예를 들면, 정규 IL 참조 화상은, 연결된 BL 화상 BLT(908)를 업샘플링하여 업샘플링된 BL 화상(또는 IL 참조 화상) ILT(910)를 생성하는 것에 의해 생성될 수도 있다. EL 화상 ELT(912)에 대한 향상된 레이어간 참조(E-ILR) 화상이 생성될 수도 있다. 예를 들면, E-ILR 화상은 하나 이상의 블록을 포함할 수도 있다. 블록은 다양한 사이즈로 이루어질 수도 있다. 예를 들면, 블록은 64×64, 32×32, 16×16, 8×8, 4×4, 직사각형 등등일 수도 있다. E-ILR 화상의 블록은 하나 이상의 E-ILR 블록 및/또는 하나 이상의 정규 ILR 블록(예를 들면, 연결된 BL 블록을 업샘플링하는 것에 의해 생성되는 블록)을 포함할 수도 있다. E-ILR 블록은 본원에서 설명되는 기술(예를 들면, 잔차, 차동, 단 예측, 양 예측, 및/또는 등등) 중 하나 이상을 사용하여 생성될 수도 있다.
E-ILR 화상의 E-ILR 블록은, 예를 들면, 식 (5) 및/또는 식 (6)에 따라, 잔차 블록을 사용하여 생성될 수도 있다. E-ILR 화상의 E-ILR 블록은 다음의 것 중 하나 이상에 따라 생성될 수도 있다. E-ILR 블록은 EL 화상 ELT(912)의 블록 B(ELT)(930)를 예측하기 위해 사용될 수도 있다. 연결된 블록 B(BLT)(926)이 인터 코딩되는지 또는 인트라 코딩되는지의 여부가 결정될 수도 있다. 블록 B(BLT)(926)가 인터 코딩된다고 결정되면, 블록에 대한 모션 정보가 결정될 수도 있다. 모션 정보는 블록의 모션 정보 클래스(예를 들면, 모션 정보와 연관된 참조 화상의 인덱스) 및/또는 모션 벡터(예를 들면, 모션의 사이즈)를 포함할 수도 있다. 잔차를 생성하기 위한 시간 인스턴스는 블록 B(BLT)(926)와 연관된 모션 정보를 사용하여 결정될 수도 있다. 예를 들면, 블록 B(BLT)(926)의 모션 정보(예를 들면, 모션 벡터 MVBLX(932))는 시간 인스턴스 X(예를 들면, 참조 블록 B(BLX)(920) 및/또는 BL 화상 BLX(902))를 결정하기 위해 사용될 수도 있다.
시간 X에서의 BL 블록은 시간 T에서의 BL 블록으로부터 감산되어 잔차를 생성할 수도 있다. 예를 들면, 모션 보상된 블록 MC(ILX, MVILX)(922)은 업샘플링된 BL 블록 B(ILT)(928)으로부터 감산되어 잔차를 생성할 수도 있다. 잔차는 시간 T를 특징으로 할 수도 있다. 업샘플링된 BL 블록 B(ILT)(928)와 연관된 모션 정보(예를 들면, MVILX(934))에 기반하여 잔차를 생성하기 위해 MC 블록 MC(ILX, MVILX)(922)을 사용하는 것이 결정될 수도 있다.
잔차는 가중치(ω)로 곱해질 수도 있다. 가중치(ω)는 0보다 크거나 같고 1보다 작거나 같을 수 있다. 예를 들면, 상이한 시간 인스턴스 사이의 잔차 신호의 DC 변동을 보상하기 위해, 잔차에 오프셋이 가산될 수도 있다. 예를 들면, 단 예측 모드에 대해 식 (10)에 따라, 및/또는 양 예측 모드에 대해 식 (11)에 따라, 잔차에 오프셋이 가산될 수도 있다. 오프셋은 가중치와 관련될 수도 있고 및/또는 가중치로 추정될 수도 있다. 가중치 및 오프셋은, 가중치 및 오프셋이 사용되는 경우 하나의 파라미터 세트로서 시그널링될 수도 있다. 잔차는 시간 T에 의해 특징지어지는 E-ILR 블록(예를 들면, Enh(B(ILT))을 생성하기 위해 EL 블록 MC(ELX, MVBLX)(924)에 가산될 수도 있다. EL 블록 B(ELT)(930)와 연관된 모션 정보(예를 들면, MVELX(936))에 기반하여 E-ILR 블록을 생성하기 위해 EL 블록 MC(ELX, MVELX)(924)을 사용하는 것이 결정될 수도 있다. 시간 T에서의 E-ILR 블록은 EL 블록 B(ELT)(930)을 예측하기 위해 사용될 수도 있다. 예를 들면, E-ILR 블록은 EL 화상 ELT(912)을 예측하기 위해 사용될 수도 있는 시간 T에 의해 특징지어지는 E-ILR 화상을 생성하기 위해 사용될 수도 있다.
E-ILR 화상의 E-ILR 블록은, 예를 들면, 식 (3) 및/또는 식 (4)를 참조로 설명된 바와 같이, 차동 블록을 사용하여 생성될 수도 있다. EL 화상 ELT(912)에 대한 E-ILR 화상은 다음의 것 중 하나 이상에 따라 생성될 수도 있다. E-ILR 블록은 EL 화상 ELT(912)의 블록 B(ELT)(930)를 예측하기 위해 사용될 수도 있다. 연결된 블록 B(BLT)(926)이 인터 코딩되는지 또는 인트라 코딩되는지의 여부가 결정될 수도 있다. 블록 B(BLT)(926)가 인터 코딩된다고 결정되면, 블록에 대한 모션 정보가 결정될 수도 있다. 모션 정보는 블록의 모션 정보 클래스(예를 들면, 모션이 유래하는 곳) 및/또는 모션 벡터(예를 들면, 모션의 사이즈)를 포함할 수도 있다. 차동을 생성하기 위한 시간 인스턴스는 블록 B(BLT)(926)와 연관된 모션 정보를 사용하여 결정될 수도 있다. 예를 들면, 블록 B(BLT)(926)의 모션 정보(예를 들면, 모션 벡터 MVBLX(932))는 시간 인스턴스 X(예를 들면, 참조 블록 B(BLX)(920) 및/또는 BL 화상 BLX(902))를 결정하기 위해 사용될 수도 있다.
시간 X에서의 BL 블록이 시간 X에서의 EL 블록에 의해 감산되어 차동 블록을 생성할 수도 있다. 예를 들면, 모션 보상된 블록 MC(ILX, MVILX)(922)는 업샘플링된 BL 블록 B(ILT)(928)와 연관된 모션 정보 MVILX(934)를 사용하여 결정될 수도 있다. 모션 정보 MVILX(934)는, 예를 들면, 향상 레이어와 베이스 레이어 사이의 공간 비율에 따라, 모션 정보 MVBLX(932)를 스케일링하는 것에 의해 결정될 수도 있다. 모션 보상된 향상 레이어 블록 MC(ELX, MVELX)(924)는, 업샘플링된 BL 블록 B(ELT)(930)와 연관된 모션 정보 MVELX(936)를 사용하여 결정될 수도 있다. 모션 보상된 블록 MC(ILX, MVILX)(922)는 모션 보상된 향상 레이어 블록 MC(ELX, MVELX)(924)로부터 감산되어 차동 블록을 생성할 수도 있다. 차동 블록은 시간 X를 특징으로 할 수도 있다.
차동 블록은 가중치(ω)로 곱해질 수도 있다. 가중치(ω)는 0보다 크거나 같고 1보다 작거나 같을 수 있다. 차동 블록에 오프셋이 가산될 수도 있다. 예를 들면, 식 (10) 및/또는 (11)에 따라 차동 블록에 오프셋이 가산될 수도 있다. 오프셋은 가중치와 관련될 수도 있고 및/또는 가중치로 추정될 수도 있다. 가중치 및 오프셋은, 가중치 및 오프셋이 사용되는 경우 하나의 파라미터 세트로서 시그널링될 수도 있다.
차동 블록은 BL 화상의 업샘플링된 블록에 가산되어 시간 T에 의해 특징지어지는 E-ILR 블록을 생성할 수도 있다. 예를 들면, 차동 블록은 업샘플링된 BL 블록 B(ILT)(928)에 가산되어 시간 T에 의해 특징지어지는 E-ILR 블록(예를 들면, Enh(B(ILT))을 생성할 수도 있다. 시간 T에서의 E-ILR 블록은 EL 블록 B(ELT)(930)을 예측하기 위해 사용될 수도 있다. 예를 들면, E-ILR 블록은 EL 화상 ELT(912)를 예측하기 위해 사용될 수도 있는 시간 T에 의해 특징지어지는 E-ILR 화상을 생성하기 위해 사용될 수도 있다.
공간 스케일러빌러티에 의해 특징지어지는 BL 및 EL을 참조로 설명되었지만, BL과 EL 사이에 다른 타입의 스케일러빌러티(예를 들면, SNR 스케일러빌러티, 표준 스케일러빌러티 등등)가 존재하는 경우 E-ILR 블록이 생성될 수도 있다. BL과 EL 사이에 공간 스케일러빌러티가 존재하지 않는 경우 E-ILR 블록을 생성하기 위해, 도 9를 참조로 설명된 것과 유사한 잔차 방법이 수행될 수도 있다. 예를 들면, BL과 EL 사이에 공간 스케일러빌러티가 존재하지 않는 경우, (예를 들면, 시간 X에서의 MC 블록이 아니라) 시간 X에서의 MC BL이 (예를 들면, 시간 T에서의 업샘플링된 BL 블록이 아니라) 시간 T에서의 BL 블록으로부터 감산되어(예를 들면, 직접적으로 감산되어), 예를 들면, 재샘플링 프로세스 없이, 잔차 블록을 생성할 수도 있다. BL과 EL 사이에 공간 스케일러빌러티가 존재하지 않는 경우 E-ILR 블록을 생성하기 위해, 도 9를 참조로 설명된 것과 유사한 차동 방법이 수행될 수도 있다. 예를 들면, BL과 EL 사이에 공간 스케일러빌러티가 존재하지 않는 경우, (예를 들면, 시간 X에서의 MC 블록이 아니라) 시간 X에서의 MC BL이 시간 X에서의 MC EL 블록으로부터 감산되어(예를 들면, 직접적으로 감산되어) 차동 블록을 생성할 수도 있고, 및/또는 차동 블록은 (예를 들면, 시간 T에서의 업샘플링된 BL 블록이 아니라) 시간 T에서의 BL 블록에 가산되어 E-ILR 블록을 생성할 수도 있다.
식 (3), (4)는, 예를 들면, 차동 화상을 사용하여, 식 (8) 및 (9)로 변환될 수도 있다. 모션 보상 동작의 수는 절반만큼(예를 들면, 두 개의 모션 보상 동작으로부터 하나의 모션 보상 동작으로) 감소될 수도 있다. E-ILR 블록 Enh(B(ILT))은 식 (8) 및/또는 식 (9)에 따라 생성될 수도 있다:
Figure pct00010
Figure pct00011
도 10은 차동 화상 및 단 예측 코딩된 블록을 사용하는 E-ILR 블록의 생성의 예의 도면이다. 예를 들면, 도 10과 관련하여 설명되는 차동 방법은 차동 블록을 사용하여 E-ILR 블록을 생성하기 위해, 식 (7), (8)(예를 들면, 단 예측의 경우), 및/또는 (9)(예를 들면, 양 예측의 경우)를 사용할 수도 있다. 도면(1000)은 시간 T에서의 BL 화상 BLT(1008), 시간 T에서의 IL 참조 화상 ILT(1010), 및 시간 T에서의 EL 화상 ELT(1012)를 도시한다. 블록 B(BLT)(1026)은 BL 화상 BLT(1008) 내에 위치되는 블록일 수도 있다. 블록 B(ILT)(1028)은 IL 화상 ILT(1010) 내에 위치되는 블록일 수도 있다. 블록 B(ELT)(1030)은 EL 화상 ELT(1012) 내에 위치되는 블록일 수도 있다. 모션 벡터 MVBLX(1032)는 블록 B(BLT)(1026)과 연관된 모션 벡터일 수도 있다. 모션 벡터 MVILX(1034)는 블록 B(ILT)(1028)과 연관된 모션 벡터일 수도 있다.
도면(1000)은 시간 X에서의 BL 화상 BLX(1002), 시간 X에서의 IL 차동 화상 ILDX(1004), 및 시간 X에서의 EL 화상 ELX(1006)의 예를 도시한다. 블록 B(BLX)(1020)는 BL 화상 BLX(1002) 내에 위치되는 블록일 수도 있다. 모션 보상된 차동 블록 MC(ILDX, MVILDX)(1022)는 IL 차동 화상 ILDX(1004) 내에 위치되는 블록일 수도 있다. EL 블록 B(ELX)(1024)는 EL 화상 ELX(1006) 내에 위치되는 블록일 수도 있다. BL 참조 화상(1014) 및 EL 참조 화상(1018)은 각각의 화상(1002 및 1006)의 예시적인 이미지일 수도 있다. IL 차동 화상(1016)은 시간 X에서의 IL 차동 화상 ILDX(1004)의 예일 수도 있다. IL 차동 화상 ILDX(1004)는, 예를 들면, 식 (7) 따라, (예를 들면, 공간 해상도가 BL 및 EL에 대해 동일하지 않으면) 향상 레이어 화상 ELX(1006)로부터 BL 화상 BLX(1002)의 업샘플링된 버전을 감산하는 것에 의해 생성될 수도 있다. IL 차동 화상 ILDX(1004)은, 예를 들면, 공간 해상도가 두 개의 레이어에 대해 동일하면, 향상 레이어 화상 ELX(1006)로부터 BL 화상 BLX(1002)를 감산하는 것에 의해 생성될 수도 있다. 시간 X에서의 화상(예를 들면, 또는 블록)은 시간 T에서의 화상(예를 들면, 또는 블록) 이전에 인코딩될 수도 있다. 이와 같이, 시간 X에 의해 특징지어지는 화상(1002, 1004, 1006)은 시간 T에서의 EL 화상(1012)에 대해 참조 화상으로서 사용될 수도 있다. 블록 레벨 구현예에서, 예를 들면, E-ILR 블록이 생성될 수도 있고 화상(1004)이 참조 화상으로서 사용될 수도 있다. 화상 레벨 구현예에서, 예를 들면, 화상(1004)은 E-ILR 화상을 생성하기 위해 사용될 수도 있다.
IL 참조 화상 ILT(1010)는 BL 화상 BLT(1008)를 업샘플링하는 것에 의해 생성될 수도 있다. 블록 B(ILT)(1028)는 블록 B(BLT)(1026)를 업샘플링하는 것에 의해 생성될 수도 있다. 이와 같이, IL 참조 화상 ILT(1010) 및/또는 블록 B(ILT)(1028)는, 각각, 업샘플링된 BL 화상(1010) 및/또는 업샘플링된 BL 블록(1028)으로서 칭해질 수도 있다.
IL 차동 화상(1016)은 차동 화상의 예이다. 차동 화상에 의해, E-ILR 블록 및/또는 화상의 생성은 식 (8) 및/또는 (9)를 사용하여 수행될 수도 있다. 모션 보상이 수행되는 횟수는, 도 9를 참조로 설명된 차동 방법과는 반대로, 도 10을 참조로 설명된 차동 방법을 사용하여 감소될 수도 있다(예를 들면, 모션 보상은 도 9를 참조로 설명된 차동 방법에 따라 2회 수행될 수도 있고 도 10을 참조로 설명된 차동 방법에 따르면 1회 수행될 수도 있다). 필터링 프로세스가 적용될 수도 있는데, 예를 들면, 노이즈를 포함할 수도 있는 고주파 신호를 차동 화상이 포함할 수도 있기 때문이다. 예를 들면, 차동 블록(예를 들면, MC(ILDX, MVILDX)(1022)) 및/또는 블록에 대해, 이것이 E-ILR 블록 및/또는 화상의 생성에 대해 사용되기 이전에 노이즈 제거용 필터링(denoising filtering)이 적용될 수도 있다.
예를 들면, EL 화상 ELT(1012)의 예측을 보조하기 위해, 하나 이상의 참조 화상이 생성될 수도 있다. 예를 들면, 정규 IL 참조 화상은, 연결된 BL 화상 BLT(1008)를 업샘플링하여 업샘플링된 BL 화상(또는 IL 참조 화상) ILT(1010)를 생성하는 것에 의해 생성될 수도 있다. EL 화상 ELT(1012)에 대한 E-ILR 화상은 다음의 것 중 하나 이상에 따라 생성될 수도 있다. 예를 들면, E-ILR 화상은 하나 이상의 블록을 포함할 수도 있다. 블록은 다양한 사이즈로 이루어질 수도 있다. 예를 들면, 블록은 64×64, 32×32, 16×16, 8×8, 4×4, 직사각형 등등일 수도 있다. E-ILR 화상의 블록은 하나 이상의 E-ILR 블록 및/또는 하나 이상의 정규 ILR 블록(예를 들면, 연결된 BL 블록을 업샘플링하는 것에 의해 생성되는 블록)을 포함할 수도 있다. E-ILR 블록은 본원에서 설명되는 기술(예를 들면, 잔차, 차동, 단 예측, 양 예측, 및/또는 등등) 중 하나 이상을 사용하여 생성될 수도 있다.
E-ILR 화상의 E-ILR 블록은, 예를 들면, 식 7 내지 9를 참조로 설명된 바와 같이, 차동 블록을 사용하여 생성될 수도 있다. EL 화상 ELT(1012)에 대한 E-ILR 화상은 다음의 것 중 하나 이상에 따라 생성될 수도 있다. E-ILR 블록은 EL 화상 ELT(1012)의 블록 B(ELT)(1030)를 예측하기 위해 사용될 수도 있다. 연결된 블록 B(BLT)(1026)이 인터 코딩되는지 또는 인트라 코딩되는지의 여부가 결정될 수도 있다. 블록 B(BLT)(1026)가 인터 코딩된다고 결정되면, 블록에 대한 모션 정보가 결정될 수도 있다. 모션 정보는 블록의 모션 정보 클래스(예를 들면, 모션 정보와 연관된 참조 화상의 인덱스) 및/또는 모션 벡터(예를 들면, 모션의 사이즈)를 포함할 수도 있다. 차동 화상/블록을 생성하기 위한 시간 인스턴스는 블록 B(BLT)(1026)와 연관된 모션 정보를 사용하여 결정될 수도 있다. 예를 들면, 블록 B(BLT)(1026)의 모션 정보(예를 들면, 모션 벡터 MVBLX(1032))는 시간 인스턴스 X(예를 들면, 참조 블록 B(BLX)(1020) 및/또는 BL 화상 BLX(1002))를 결정하기 위해 사용될 수도 있다.
시간 X에서의 BL 블록이 시간 X에서의 EL 블록으로부터 감산되어 차동 블록을 생성할 수도 있다. 예를 들면, BL 블록 B(BLX)(1020)의 업샘플링된 버전이 EL 블록 B(ELX)(1024)로부터 감산되어 차동 블록을 생성할 수도 있다. 차동 블록은 시간 X를 특징으로 할 수도 있다. IL 블록 B(ILT)(1028)와 연관된 모션 정보(예를 들면, MVILX(1034)) 및/또는 BL 블록 B(BLT)(1026)와 연관된 모션 정보(예를 들면, MVBLX(1032))에 기반하여 차동 블록을 생성하기 위해, BL 블록 B(BLX)(1020)의 업샘플링된 버전을 사용하는 것이 결정될 수도 있다.
모션 보상은, 모션 보상된 차동 블록 MC(ILDX, MVILDX)(1022)를 생성하기 위해, 차동 블록에 대해 수행될 수도 있다. 예를 들면, 모션 보상은 베이스 레이어 모션 정보를 사용하여 차동 블록에 대해 수행될 수도 있다. 베이스 레이어 모션 정보은 스케일링된 베이스 레이어 모션 정보일 수도 있다. 예를 들면, 베이스 레이어 모션 정보는 베이스 레이어와 향상 레이어 사이의 공간 비율에 기반하여 스케일링될 수도 있다. 베이스 레이어 모션 정보는 모션 정보 MVILX(1034)일 수도 있는데, 이것은 향상 레이어와 베이스 레이어 사이의 공간 비율에 따라 모션 정보 MVBLX(1032)를 스케일링하는 것에 의해 결정될 수도 있다. 이와 같이, 모션 보상은, 스케일링된 모션 정보 MVILX(1034)를 사용하여 모션 보상된 차동 블록 MC(ILDX, MVILDX)(1022)를 생성하기 위해 차동 블록에 대해 수행될 수도 있다.
모션 보상된 차동 블록 MC(ILDX, MVILDX)(1022)는 가중치(ω)로 곱해질 수도 있다. 가중치(ω)는 0보다 크거나 같고 1보다 작거나 같을 수 있다. 모션 보상된 차동 블록 MC(ILDX, MVILDX)(1022)에 오프셋이 가산될 수도 있다. 예를 들면, 식 (7), (10), 및/또는 (11)에 따라 모션 보상된 차동 블록 MC(ILDX, MVILDX)(1022)에 오프셋이 가산될 수도 있다. 오프셋(Ioffset)은 차동 블록/화상의 다이내믹 레인지를 (예를 들면, 식 (7)에 따라) 모션 보상이 사용될 수도 있는 화상의 다이내믹 레인지로 시프트하도록 가산될 수도 있다. 차동 블록의 모션 보상 이후, (예를 들면, 식 (10) 및/또는 (11)에서 나타내어진 바와 같이) 차동 신호를 복원하기 위해 Ioffset은 감산될 수도 있다. 예를 들면, 오프셋 O(ILX) 및/또는 O(IL0, IL1)은, (예를 들면, 식 (10) 및/또는 (11)에서 나타내어진 바와 같이) 가중치 부여 이후에 가산될 수도 있다. 오프셋 O(x)는 모델 파라미터의 세트 (W, O)를 형성하는 가중치와 관련될 수도 있다.
모션 보상된 차동 블록 MC(ILDX, MVILDX)(1022)는 시간 T에서의 BL 블록에 가산되어 시간 T에 의해 특징지어지는 E-ILR 블록을 생성할 수도 있다. 예를 들면, 모션 보상된 차동 블록 MC(ILDX, MVILDX)(1022)는 업샘플링된 BL 블록 블록 B(ILT)(1028)에 가산되어 시간 T에 의해 특징지어지는 E-ILR 블록(예를 들면, Enh(B(ILT))을 생성할 수도 있다. 시간 T에서의 E-ILR 블록은 EL 블록 B(ELT)(1030)을 예측하기 위해 사용될 수도 있다. 예를 들면, E-ILR 블록은 EL 화상 ELT(1012)를 예측하기 위해 사용될 수도 있는 시간 T에 의해 특징지어지는 E-ILR 화상을 생성하기 위해 사용될 수도 있다.
공간 스케일러빌러티에 의해 특징지어지는 BL 및 EL을 참조로 설명되었지만, BL과 EL 사이에 다른 타입의 스케일러빌러티(예를 들면, SNR 스케일러빌러티, 표준 스케일러빌러티 등등)가 존재하는 경우 E-ILR 블록이 생성될 수도 있다. BL과 EL 사이에 공간 스케일러빌러티가 존재하지 않는 경우 E-ILR 블록을 생성하기 위해, 도 10을 참조로 설명된 것과 유사한 차동 방법이 수행될 수도 있다. 예를 들면, BL과 EL 사이에 공간 스케일러빌러티가 존재하지 않는 경우, (예를 들면, 시간 X에서의 업샘플링된 BL 블록이 아니라) 시간 X에서의 BL 블록이 시간 X에서의 EL 블록으로부터 감산되어(예를 들면, 직접적으로 감산되어) 시간 X에서 차동 블록을 생성할 수도 있고, 및/또는 모션 보상된 차동 블록은 (예를 들면, 시간 T에서의 업샘플링된 BL 블록이 아니라) 시간 T에서의 BL 블록에 가산되어 E-ILR 블록을 생성할 수도 있다. 또한, 모션 보상은, 모션 보상된 차동을 생성하기 위해, (예를 들면, 시간 T에서의 업샘플링된 BL 블록이 아니라) 시간 T에서의 BL 블록과 연관된 모션 정보를 사용하여 차동 블록에 대해 수행될 수도 있다.
ILR 블록(예를 들면, 정규 ILR 블록 및/또는 E-ILR 블록)은 양 예측을 사용하여 생성될 수도 있다. E-ILR 블록은, 예를 들면, 식 (4), (6), 및/또는 (9)에 따라, 양 예측을 사용하여 생성될 수도 있다. 예를 들면, E-ILR 블록은 두 개 이상의 다른 시간 인스턴스로부터의 블록을 사용하여 하나의 시간 인스턴스 동안 생성될 수도 있다. 일 예는 도 11을 참조로 제공되지만, 양 예측을 사용한 E-ILR 블록의 생성은 다른 방식(예를 들면, 잔차 방법, (예를 들면, 도 10을 참조로 설명된 바와 같은) 단일 모션 보상을 사용하는 차동 방법, (예를 들면, 도 9를 참조로 설명된 바와 같은), 두 개의 모션 보상 동작을 사용하는 차동 방법, 등등)으로 수행될 수도 있다.
도 11은 차동 및 양 예측 코딩된 블록을 사용하는 E-ILR 블록의 생성의 예의 도면이다. 도면(1100)은 시간 R0에서의 BL 화상 BL0(1102), 시간 R0에서의 IL 참조 화상 IL0(1104), 및 시간 R0에서의 EL 화상 EL0(1106)의 예를 제공한다. 도면(1100)은 시간 PT에서의 BL 화상 BLT(1108), 시간 PT에서의 IL 화상 ILT(1110), 및 시간 PT에서의 EL 화상 ELT(1112)의 예를 제공한다. 도면(1100)은 시간 R1에서의 BL 화상 BL1(1114), 시간 R1에서의 IL 참조 화상 IL1(1116), 및 시간 R1에서의 EL 화상 EL1(1118)의 예를 제공한다.
블록 B(BL0)(1128)은 BL 화상 BL0(1102) 내에 위치되는 블록일 수도 있다. 모션 보상된 블록 MC(IL0, MVIL0)(1130)는 IL 화상 IL0(1104) 내에 위치되는 블록일 수도 있다. 모션 보상된 블록 MC(EL0, MVEL0)(1142)는 EL 화상 EL0(1106) 내에 위치되는 블록일 수도 있다. 블록 B(BLT)(1132)는 BL 화상 BLT(1108) 내에 위치되는 블록일 수도 있다. 블록 B(ILT)(1134)는 IL 화상 ILT(1110) 내에 위치되는 블록일 수도 있다. 블록 B(ELT)(1136)는 EL 화상 ELT(1112) 내에 위치되는 블록일 수도 있다. 블록 B(BL1)(1138)은 BL 화상 BL1(1114) 내에 위치되는 블록일 수도 있다. 모션 보상된 블록 MC(IL1, MVIL1)(1140)는 IL 화상 IL0(1116) 내에 위치되는 블록일 수도 있다. 모션 보상된 블록 MC(EL1, MVEL1)(1144)는 EL 화상 EL0(1118) 내에 위치되는 블록일 수도 있다. 시간 R0에서의 화상(예를 들면, 또는 블록) 및/또는 시간 R1에서의 화상(예를 들면, 또는 블록)은 시간 PT에서의 화상(예를 들면, 또는 블록) 이전에 인코딩될 수도 있다. 이와 같이, 시간 R0에 의해 특징지어지는 화상(1102, 1104, 1106) 및/또는 시간 R1에 의해 특징지어지는 화상(1114, 1116, 1118)은 시간 PT에서의 EL 화상 ELT(1112)에 대해 참조 화상으로서 사용될 수도 있다.
IL 참조 화상 ILT(1110)는 BL 화상 BLT(1108)를 업샘플링하는 것에 의해 생성될 수도 있다. 블록 B(ILT)(1134)는 블록 B(BLT)(1132)를 업샘플링하는 것에 의해 생성될 수도 있다. IL 참조 화상 IL0(1104)은 BL 화상 BL0(1102)를 업샘플링하는 것에 의해 생성될 수도 있다. 모션 보상된 블록 MC(IL0, MVIL0)(1130)은 블록 B(BL0)(1128)를 업샘플링하는 것에 의해 생성될 수도 있다. IL 참조 화상 IL1(1116)은 BL 화상 BL1(1114)를 업샘플링하는 것에 의해 생성될 수도 있다. 모션 보상된 블록 MC(IL1, MVIL1)(1140)은 블록 B(BL1)(1138)를 업샘플링하는 것에 의해 생성될 수도 있다. 이와 같이, IL 참조 화상 ILT(1110) 및/또는 블록 B(ILT)(1134)는, 각각, 업샘플링된 BL 화상(1110) 및/또는 업샘플링된 BL 블록(1134)으로서 칭해질 수도 있다. IL 참조 화상 IL0(1104) 및/또는 모션 보상된 블록 MC(IL0, MVIL0)(1130)은, 각각, 업샘플링된 BL 화상(1104) 및/또는 업샘플링된 BL 블록(1130)으로 칭해질 수도 있다. IL 참조 화상 IL1(1116) 및/또는 모션 보상된 블록 MC(IL1, MVIL1)(1140)은, 각각, 업샘플링된 BL 화상(1116) 및/또는 업샘플링된 BL 블록(1140)으로 칭해질 수도 있다.
예를 들면, EL 화상 ELT(1112)의 예측을 보조하기 위해, 하나 이상의 참조 화상이 생성될 수도 있다. 예를 들면, 정규 IL 참조 화상은, 연결된 BL 화상 BLT(1108)를 업샘플링하여 업샘플링된 BL 화상(또는 IL 참조 화상) ILT(1110)를 생성하는 것에 의해 생성될 수도 있다. EL 화상 ELT(1112)에 대한 E-ILR 화상이 생성될 수도 있다. 예를 들면, E-ILR 화상은 하나 이상의 블록을 포함할 수도 있다. 블록은 다양한 사이즈로 이루어질 수도 있다. 예를 들면, 블록은 64×64, 32×32, 16×16, 8×8, 4×4, 직사각형 등등일 수도 있다. E-ILR 화상의 블록은 하나 이상의 E-ILR 블록 및/또는 하나 이상의 정규 ILR 블록(예를 들면, 연결된 BL 블록을 업샘플링하는 것에 의해 생성되는 블록)을 포함할 수도 있다. E-ILR 블록은 본원에서 설명되는 기술(예를 들면, 잔차, 차동, 단 예측, 양 예측, 및/또는 등등) 중 하나 이상을 사용하여 생성될 수도 있다.
E-ILR 화상의 E-ILR 블록은 차동 및 양 예측 모드를 사용하여 생성될 수도 있다. EL 화상 ELT(1112)에 대한 E-ILR 화상은 다음의 것 중 하나 이상에 따라 생성될 수도 있다. E-ILR 블록은 EL 화상 ELT(1112)의 블록 B(ELT)(1136)를 예측하기 위해 사용될 수도 있다. 연결된 블록 B(BLT)(1132)이 인터 코딩되는지 또는 인트라 코딩되는지의 여부가 결정될 수도 있다. 블록 B(BLT)(1132)가 인터 코딩된다고 결정되면, 블록에 대한 모션 정보가 결정될 수도 있다. 예를 들면, 블록 B(BLT)(1132)가 양 예측되면, 블록 B(BLT)(1132)은 두 세트의 모션 정보를 포함할 수도 있다. 모션 정보는 블록의 모션 정보 클래스(예를 들면, 모션이 유래하는 곳) 및/또는 모션 벡터(예를 들면, 모션의 사이즈)를 포함할 수도 있다. 차동을 생성하기 위한 두 시간 인스턴스는 블록 B(BLT)(1132)와 연관된 모션 정보를 사용하여 결정될 수도 있다. 예를 들면, 블록 B(BLT)(1132)의 제 1 모션 정보(예를 들면, 모션 벡터 MVBL0(1120))는 시간 인스턴스 R0(예를 들면, 참조 블록 B(BL0)(1128) 및/또는 BL 화상 BL0(1102))를 결정하기 위해 사용될 수도 있고, 블록 B(BLT)(1132)의 제 2 모션 정보(예를 들면, 모션 벡터 MVBL1(1122))는 시간 인스턴스 R1(예를 들면, 참조 블록 B(BL1)(1138) 및/또는 BL 화상 BL0(1114))을 결정하기 위해 사용될 수도 있다.
시간 R0에서의 BL 블록이 시간 R1에서의 BL 블록에 가산되어 결합된 BL 블록을 생성할 수도 있다. 예를 들면, 결합된 BL 블록은 2에 의해 나누어져서 평균치의 BL 블록을 생성할 수도 있다. 예를 들면, 모션 보상된 블록 MC(IL0, MVIL0)(1130)은 모션 보상된 블록 MC(IL1, MVIL1)(1140)에 가산되어 결합된 BL 블록을 생성할 수도 있다. 결합된 BL 블록은 2에 의해 나누어져서 평균치의 BL 블록을 생성할 수도 있다. 모션 보상된 블록 MC(IL0, MVIL0)(1130)는 업샘플링된 BL 블록 B(ILT)(1134)와 연관된 모션 정보 MVIL0(1124)를 사용하여 결정될 수도 있다. 모션 보상된 블록 MC(IL1, MVIL1)(1140)는 업샘플링된 BL 블록 B(ILT)(1134)와 연관된 모션 정보 MVIL1(1126)을 사용하여 결정될 수도 있다.
가중치가 부여된 평균을 사용하여 평균치의 BL 블록이 생성될 수도 있다. 예를 들면, P=(p0*w0+p1*w1)/(w0+w1)에 따라 가중치가 부여된 평균을 사용하여 평균치의 BL 블록이 생성될 수도 있다. 예를 들면, 모션 보상된 블록 MC(IL0, MVIL0)(1130)을 모션 보상된 블록 MC(IL1, MVIL1)(1140)에 가산하여 결합된 BL 블록을 생성하기 이전에, 모션 보상된 블록 MC(IL0, MVIL0)(1130)는 제 1 가중치로 곱해질 수도 있고 모션 보상된 블록 MC(IL1, MVIL1)(1140)는 제 2 가중치로 곱해질 수도 있다. 제 1 가중치 및 제 2 가중치는 상이할 수도 있다. 결합된 블록은 결합된 제 1 가중치 및 제 2 가중치에 의해 나누어져서 평균치의 BL 블록을 생성할 수도 있다.
시간 R0에서의 EL 블록은 시간 R1에서의 EL 블록에 가산되어 결합된 EL 블록을 생성할 수도 있다. 결합된 EL 블록은 2에 의해 나누어져서 평균치의 EL 블록을 생성할 수도 있다. 예를 들면, 모션 보상된 EL 블록 MC(EL0, MVEL0)(1142)는 모션 보상된 EL 블록 MC(EL1, MVEL1)(1144)에 가산되어 결합된 EL 블록을 생성할 수도 있다. 결합된 EL 블록은 2에 의해 나누어져서 평균치의 EL 블록을 생성할 수도 있다. 모션 보상된 EL 블록 MC(EL0, MVEL0)(1142)는 EL 블록 B(ELT)(1136)과 연관된 모션 정보 MVEL0(1146)을 사용하여 결정될 수도 있다. 모션 보상된 EL 블록 MC(EL1, MVEL1)(1144)는 EL 블록 B(ELT)(1136)과 연관된 모션 정보 MVEL0(1148)을 사용하여 결정될 수도 있다. 모션 MVEL0(1146) 및 MVEL1(1148)은, 예를 들면, 각각, MVIL0 및 MVIL1로부터 결정될 수도 있는데, 그 이유는 IL 및 EL이 동일한 공간 해상도를 가질 수도 있기 때문이다.
가중치가 부여된 평균을 사용하여 평균치의 EL 블록이 생성될 수도 있다. 예를 들면, P=(p0*w0+p1*w1)/(w0+w1)에 따라 가중치가 부여된 평균을 사용하여 평균치의 BL 블록이 생성될 수도 있다. 예를 들면, 모션 보상된 EL 블록 MC(EL0, MVEL0)(1142)을 모션 보상된 블록 MC(EL1, MVEL1)(1144)에 가산하여 결합된 BL 블록을 생성하기 이전에, 모션 보상된 블록 MC(EL0, MVEL0)(1142)는 제 1 가중치로 곱해질 수도 있고 모션 보상된 블록 MC(EL1, MVEL1)(1144)는 제 2 가중치로 곱해질 수도 있다. 제 1 가중치 및 제 2 가중치는 상이할 수도 있다. 결합된 블록은 결합된 제 1 가중치 및 제 2 가중치에 의해 나누어져서 평균치의 EL 블록을 생성할 수도 있다.
평균치의 BL 블록은 평균치의 EL 블록으로부터 감산되어 차동 블록을 생성할 수도 있다. 차동 블록은 가중치(ω)로 곱해질 수도 있다. 가중치(ω)는 0보다 크거나 같고 1보다 작거나 같을 수 있다. 차동 블록에 오프셋이 가산될 수도 있다. 예를 들면, 식 (7), (10) 및/또는 (11)에 따라 차동 블록에 오프셋이 가산될 수도 있다. 차동 블록은 시간 PT에 의해 특징지어지는 BL 화상의 블록에 가산될 수도 있다. 예를 들면, 차동 블록은 업샘플링된 BL 블록 B(ILT)(1134)에 가산되어 시간 T에 의해 특징지어지는 E-ILR 블록(예를 들면, Enh(B(ILT)))을 생성할 수도 있다. 시간 PT에서의 E-ILR 블록은 EL 블록 B(ELT)(1136)을 예측하기 위해 사용될 수도 있다. 예를 들면, E-ILR 블록은 EL 화상 ELT(1112)를 예측하기 위해 사용될 수도 있는 시간 PT에 의해 특징지어지는 E-ILR 화상을 생성하기 위해 사용될 수도 있다.
공간 스케일러빌러티에 의해 특징지어지는 BL 및 EL을 참조로 설명되었지만, BL과 EL 사이에 다른 타입의 스케일러빌러티(예를 들면, SNR 스케일러빌러티, 표준 스케일러빌러티 등등)가 존재하는 경우 E-ILR 블록이 생성될 수도 있다. 예를 들면, BL과 EL 사이에 공간 스케일러빌러티가 존재하지 않는 경우, (예를 들면, 시간 R0에서의 업샘플링된 BL 블록이 아니라) 시간 R0에서의 BL 블록 및 (예를 들면, 시간 R1에서의 업샘플링된 BL 블록이 아니라) 시간 R1에서의 BL 블록이 사용되어 차동 블록을 생성할 수도 있고, 및/또는 (예를 들면, 시간 PT에서의 업샘플링된 BL 블록이 아니라) 시간 PT에서의 BL 블록이 차동 블록에 가산되어 E-ILR 블록을 생성할 수도 있다.
가중치를 부여하는 파라미터 대신 또는 가중치를 부여하는 파라미터 외에 E-ILR 화상에 대한 E-ILR 블록을 생성할 때, 오프셋이 사용될 수도 있다. 오프셋 O(x)는 DC 에러를 보상하기 위해 사용될 수도 있다. 가중치 및/또는 오프셋은 파라미터의 쌍을 포함할 수도 있다. 가중치 및/또는 오프셋은 선형 모델을 묘사할 수도 있다. 오프셋 O(x)가 없으면, 가중치 파라미터는 선형 모델을 묘사하지 않을 수도 있다. 파라미터 추정에서, 가중치 및/또는 오프셋은, 예를 들면, 최소자승법과 같은 최적화 프로세스를 사용하여 공동으로 추정될 수도 있다. 예를 들면, 오프셋은 가중치(ω)에 추가하여 사용될 수도 있다. 식 (8) 및 (9)는 오프셋을 사용하는 식 (10) 및 (11)로 변환될 수도 있다:
Figure pct00012
Figure pct00013
O(ILX) 및 O(IL0, IL1)는, 원래의 화상과 향상된 ILR 화상 사이의 에러를 보상하기 위해 사용될 수도 있는 오프셋일 수도 있다. O(ILX) 및 O(IL0, IL1)는 단 예측 모션에 대한 참조 화상 및/또는 양 예측 모션에 대한 참조 화상의 세트와 관련될 수도 있다.
E-ILR 블록을 (예를 들면, 식 (8) 및/또는 (9)에 따라) 생성할 때 적용되는 가중치는 하나 이상의 참조 화상과 관련될 수도 있다. HEVC 스케일러블 확장에서, 예를 들면, 참조 화상은 둘 모두의 리스트에서 나타날 수도 있다. 참조 화상 인덱스를 가중치 리스트의 인덱스로 매핑하기 위해, 룩업 테이블이 사용될 수도 있다. 예를 들면, 단 예측 모드에 대한 lut_weight_uni를 포함하는 다수의(예를 들면, 두 개의) 룩업 테이블이 존재할 수도 있는데, 이것은 단 예측의 참조 리스트 및 참조 인덱스를 단 예측에 대한 가중치 리스트의 인덱스 weight_uni_list로 매핑할 수도 있다. 다른 테이블은 양 예측 모드에 대한 것일 수도 있으며, 양 예측의 리스트0의 참조 인덱스 및/또는 리스트1의 참조 인덱스를 양 예측에 대한 가중치 리스트의 인덱스 weight_bi_list로 매핑할 수도 있다.
Figure pct00014
도 12는 단 예측 모드에 대한 가중치 리스트의 인덱스로 참조 인덱스를 매핑하는 룩업 테이블에 대한 셋업의 예의 플로우차트이다. 도 13은 양 예측 모드에 대한 가중치 리스트의 인덱스로 참조 인덱스를 매핑하는 룩업 테이블에 대한 셋업의 예의 플로우차트이다. 단 예측에 대한 및/또는 양 예측에 대한 가중치 리스트에서의 엔트리(예를 들면, 각각의 엔트리)의 경우, 가중치 리스트에서 동일한 인덱스를 갖는 블록 중 하나 이상(예를 들면, 각각)에 기반하여 가중치를 추정하기 위해 최소자승법이 사용될 수도 있다. 원래의 EL 화상의 블록은 식 (8) 및 (9)의 최적화 타겟으로서 사용될 수도 있는데, 이것은 식 (8)(9)에서의 Enh(B(ILT)가 파라미터 추정에서 원래의 EL 화상의 연결된 블록과 동일할 수도 있다는 것을 의미한다.
가중치 파라미터 시그널링은 참조 화상과 관련될 수도 있다. 가중치 매핑에 대해 두 개 이상의 룩업 테이블이 존재할 수도 있다. 한 테이블은, 예를 들면, 식 (3), (5), (8), 및/또는 (10)과 같은 단 예측 모드 용도를 위한 것일 수도 있다. 한 테이블은, 예를 들면, 식 (4), (6), (9), 및/또는 (11)과 같은 양 예측 모드 용도를 위한 것일 수도 있다. 단 예측 모드의 경우, 가중치는 화상 순서 카운트(picture order count; POC)에 의해 식별되는 참조 화상과 관련될 수도 있다. 양 예측 모드의 경우, 가중치는 참조 화상 쌍과 관련될 수도 있다. 참조 쌍에서, 하나의 참조 화상은 리스트0으로부터 유래할 수도 있고 나머지 다른 참조 화상은 리스트1로부터 유래할 수도 있다. 예를 들면, 참조 화상의 쌍 (r0(POC0), r1(POC1))(예를 들면, 이 경우 제 1 엔트리는 리스트0으로부터 유래하고, 제 2 엔트리는 리스트1로부터 유래한다)은, r0와 r1이 리스트 둘 다에 있는 경우, (r1(POC1), r0(POC0))와 동일한 것으로 간주될 수도 있다. 두 개 이상의 리스트(예를 들면, 리스트0 및 리스트1)에서 나타나는 동일한 참조 화상이 존재할 수도 있다. 따라서, POC의 리스트는, 중복된 참조 화상을 제거하도록, 이미 프로세싱된 참조 화상의 POC를 저장하는 데 사용될 수도 있다. 가중치는 룩업 테이블을 사용하는 참조 화상과 관련될 수도 있다.
도 12는 단 예측 매핑을 셋업하기 위해 사용될 수도 있다. 프로시져(1200)는 다음 중 하나 이상을 포함할 수도 있다. 프로시져(1200)는, lut_weight_uni의 사이즈가 리셋될 수도 있고, size_lut_weight_uni가 0과 동일하게 될 수도 있고, poc_list가 리셋될 수도 있고, 및/또는 poc_list가 비워지도록 설정될 수도 있는 1202에서 시작할 수도 있다. 1204에서, list_0 및 list_1이 프로세싱되었는지가 결정된다. 만약 그렇다면, 프로시져(1200)는 1206에서 종료한다. 만약 아니라면, 1208에서, 리스트, 즉 list_x(예를 들면, list_0 또는 list_1)가 ref_idx가 0인 상태에서 프로세싱을 위해 선택될 수도 있다. 예를 들면, list_0는 프로시져가 1208에 최초로 진입할 때 선택될 수도 있고 list_1은 프로시져가 1208에 두 번째로 진입할 때 선택될 수도 있다. 1210에서, list_x에서의 참조 화상이 프로세싱되었는지의 여부가 결정될 수도 있다. 만약 그렇다면, 프로시져는 1204로 리턴할 수도 있다. 예를 들면, list_0의 모든 참조 화상이 프로세싱되었다면, 프로시져(1200)는, 예를 들면, list_1의 모든 참조 화상도 또한 프로세싱되었는지를 체크하기 위해, 1204로 리턴할 수도 있다. 만약 아니라면, 프로시져(1200)는 1210으로 계속 진행할 수도 있다. 1210에서, ref_idx를 갖는 참조 화상(R)은 list_x로부터 선택될 수도 있다. 1212에서, 참조 화상(R)이 poc_list에 있는지의 여부가 결정될 수도 있다. 만약 그렇다면, 1218에서, ref_idx는 예를 들면 1만큼 증가될 수도 있고 프로시져(1200)는 1210으로 리턴할 수도 있다. 만약 아니라면, 1216에서, 룩업 테이블 및 poc_list는 그에 따라 업데이트될 수도 있다. 예를 들면, lut_weight_uni[list_x] [ref_idx]는 size_lut_weight_uni와 동일하게 설정될 수도 있고, poc_list[size_lut_weight_uni]는 poc(R)과 동일하게 설정될 수도 있고, 및/또는 size_lut_weight_uni는 예를 들면 1만큼 증가될 수도 있다. 1216 이후에, 프로시져(1200)는 1218로 계속 진행할 수도 있고 ref_idx는 예를 들면 1만큼 증가될 수도 있다. 1218 이후, 프로시져(1200)는 1210으로 리턴할 수도 있다. 프로시져(1200)는, list_x 내의 모든 참조 화상이 프로세싱될 때까지 루프 1210-1218을 계속할 수도 있다.
도 13은 양 예측 매핑을 셋업하기 위해 사용될 수도 있다. 프로시져(1300)는 다음 중 하나 이상을 포함할 수도 있다. 프로시져(1300)는, lut_weight_bi의 사이즈가 리셋될 수도 있고, size_lut_weight_bi가 0과 동일하게 될 수도 있고, poc_list가 리셋될 수도 있고, poc_list가 비워지도록 설정될 수도 있고, 및/또는 ref_idx0가 0과 동일하게 될 수도 있는 1302에서 시작할 수도 있다. 1304에서, list_0가 프로세싱되었는지가 결정될 수도 있다. 만약 그렇다면, 프로시져(1300)는 1306에서 종료한다. 만약 아니라면, 1308에서, ref_idx0을 갖는 참조 화상(R0)이 list_0으로부터 선택될 수도 있고 및/또는 ref_idx1은 1과 동일하게 될 수도 있다. 1310에서, list_1에서의 참조 화상이 프로세싱되었는지의 여부가 결정될 수도 있다. 만약 그렇다면, 1312에서, ref_idx0는, 예를 들면, 1만큼 증가될 수도 있고 프로시져는 리턴 1304로 리턴할 수도 있다. 만약 아니라면, 1314에서, ref_idx1을 갖는 참조 화상(R1)이 list_1로부터 선택될 수도 있다. 1316에서, (R0, R1) 또는 (R1, R0)가 poc_list 내에 있는지의 여부가 결정될 수도 있다. 만약 그렇다면, 1320에서, ref_idx1은, 예를 들면, 1만큼 증가될 수도 있고 프로시져(1300)는 리턴 1310으로 리턴할 수도 있다. 만약 아니라면, 1318에서, 룩업 테이블 및 poc_list는 그에 따라 업데이트될 수도 있다. 예를 들면, lut_weight_bi[ref_idx0] [ref_idx1]는 size_lut_weight_bi와 동일하게 설정될 수도 있고, poc_list[(size_lut_weight_bi)*2]는 poc(R0)와 동일하게 설정될 수도 있고, poc_list[(size_lut_weight_bi)*2+1]은 poc(R1)과 동일하게 설정될 수도 있고, 및/또는 size_lut_weight_bi는, 예를 들면, 1만큼 증가될 수도 있다. 1318 이후에, 프로시져(1300)는 1320으로 계속 진행할 수도 있고 ref_idx1은 예를 들면 1만큼 증가될 수도 있다. 1320 이후, 프로시져(1300)는 1310으로 리턴할 수도 있다. 프로시져(1300)는, list_1 내의 모든 참조 화상이 프로세싱될 때까지 루프 1310-1320을 계속할 수도 있다.
타겟 신호(T) 및 관측 신호(O)가 주어지면, 최적의 가중치에 대한 최소자승법에 의한 솔루션은 Cor(T,O)/Cor(O)와 동일할 수도 있는데, 여기서 Cor(T,O)는 T와 O 사이의 상관관계(correlation)일 수도 있고, Cor(O)는 O의 자동 상관관계일 수도 있다. 도 14는 최소자승법에 의한 단 예측에 대한 가중치 추정치를 계산하는 예의 플로우차트이다. 도 14에서, 동일한 가중치를 구비하는 단 예측 모드 코딩된 블록은 가중치 추정을 위해 교차 상관관계 및 자동 상관관계를 수집하도록 트래버싱될(traversed) 수도 있다. 도 15는 최소자승에 의해 양 예측 모드에 대한 가중치 추정치를 계산하는 예의 플로우차트이다. 도 15에서, 동일한 가중치를 구비하는 양 예측 모드 코딩된 블록은 가중치 추정을 위해 교차 상관관계 및 자동 상관관계를 수집하도록 트래버싱될 수도 있다.
프로시져(1400)는 다음 중 하나 이상을 포함할 수도 있다. 프로시져(1400)는, 두 개의 참조 화상 리스트로부터 단 예측 가중치 리스트가 셋업될 수도 있는 1402에서 시작할 수도 있다. 1404에서, 단 예측 가중치 리스트 내의 화상이 완료되었는지의 여부가 결정된다. 만약 그렇다면, 프로시져(1400)는 1420에서 종료한다. 만약 아니라면, 1406에서, 가중치 추정을 위해 가중치 리스트로부터 화상(P)이 선택될 수도 있고, AO는 0으로 설정될 수도 있고, 및/또는 AS는 0으로 설정될 수도 있다. 1408에서, 현재 화상 내의 블록(들)이 프로세싱되었는지의 여부가 결정될 수도 있다. 만약 그렇다면, 1410에서, 화상(P)에 대한 가중치가, 예를 들면, W(P)=Ao/As에 따라 계산될 수도 있고, 프로시져(1400)는 1404로 리턴할 수도 있다. 만약 아니라면, 1412에서, 현재의 블록이 단 예측을 사용하고 있는지의 여부 및 참조 화상이 P인지의 여부가 결정될 수도 있다. 만약 아니라면, 프로시져(1400)는 1418에서 다음 블록으로 이동할 수도 있고 그 다음 1406으로 리턴할 수도 있다. 만약 그렇다면, 1414에서, 차이 블록(D) 및 모션 보상된 블록(S)이, 예를 들면, D = B(ELT) - B(ILT) 및/또는 S = MC(ILDX, MVIL)에 따라 계산될 수도 있다. 1416에서, D와 S 사이의 픽셀의 상관관계 (D(i)*S(i)), 및 블록 내에서의 S의 자동 상관 (S(i)*S(i))이, 예를 들면, Ao += sum(D(i) * S(i)) 및/또는 As += sum(S(i) * S(i))에 따라 Ao 및 As에 누적될 수도 있다. 1418에서, 프로시져(1400)는 다음 블록으로 이동할 수도 있고 그 다음 1406으로 리턴할 수도 있다.
프로시져(1500)는 다음 중 하나 이상을 포함할 수도 있다. 프로시져(1500)는, 두 개의 참조 화상 리스트로부터 양 예측 가중치 리스트가 셋업될 수도 있는 1502에서 시작할 수도 있다. 1504에서, 양 예측 가중치 리스트 내의 화상이 완료되었는지의 여부가 결정된다. 만약 그렇다면, 프로시져(1500)는 1520에서 종료하고, 만약 그렇지 않다면, 1506에서, 가중치 추정을 위해, 엔트리 (P0, P1)이 가중치 리스트로부터 선택될 수도 있고, AO가 0으로 설정될 수도 있고, 및/또는 AS가 0으로 설정될 수도 있다. 1508에서, 현재 화상 내의 블록(들)이 프로세싱되었는지의 여부가 결정될 수도 있다. 만약 그렇다면, 1510에서, (P0, P1)에 대한 가중치가, 예를 들면, W(P0, P1) = Ao/As에 따라 계산될 수도 있고, 프로시져(1500)는 1504로 리턴할 수도 있다. 만약 아니라면, 1512에서, 현재의 블록이 양 예측을 사용하는지의 여부 및 참조 화상이 (P0, P1) 또는 (P1, P0)인지의 여부가 결정될 수도 있다. 만약 아니라면, 1518에서, 프로시져(1500)는 다음 블록으로 이동할 수도 있고 그 다음 1506으로 리턴할 수도 있다. 만약 그렇다면, 1514에서, 차이 블록(D) 및 모션 보상된 블록(S)이, 예를 들면, D = B(ELT) - B(ILT) 및/또는 S = (MC(ILDX0, MV0 IL) + MC(ILDX1, MV1 IL))/2에 따라 계산될 수도 있다. 1516에서, Ao += sum(D(i) * S(i)) 및/또는 As += sum(S(i) * S(i))이다. 1518에서, 프로시져(1500)는 다음 블록으로 이동할 수도 있고 그 다음 1506으로 리턴할 수도 있다.
인코더는 화상(예를 들면, 각각의 화상)의 가중치 및/또는 오프셋 정보를, 예를 들면, ILP 향상 프로세싱을 위해, 디코더로 시그널링할 수도 있다. 루마 성분 및 크로마 성분에 대한 가중치 및/또는 오프셋은 상이할 수도 있다. 루마 성분 및 크로마 성분에 대한 가중치 및/또는 오프셋은, 예를 들면, 개별적으로 시그널링될 수도 있다. 예를 들면, 디코더 측에서의 복잡도를 감소시키기 위해, 크로마에 대한 가중치는 1로 설정될 수도 있고 및/또는 크로마에 대한 오프셋은 0으로 설정될 수도 있다. 가중치 및/또는 오프셋은 고정된 지점에서 코딩될 수도 있다. 가중치 및 오프셋 파라미터에 대한 시그널링의 예는 표 3에서 제공될 수도 있다.
Figure pct00015
도 16은 ILR 향상을 위한 영역 기반 가중치의 예의 도면이다. 도 16에 예시된 바와 같이, 가중치 및/또는 오프셋은 영역(예를 들면, 또는 블록) 기반일 수도 있다. 도면(1600)은, 화상의 하나보다 많은 영역에 가중치가 어떻게 할당될 수도 있는지의 예를 예시한다. 화상은 상이한 방식으로 다수의 영역으로 구획될 수도 있다. 예를 들면, 화상은 균등하게 구획될 수도 있고, 오브젝트를 가지고 구획될 수도 있고, 모션을 가지고 구획될 수도 있고, 등등일 수도 있다. 도 16은 균등한 구획의 예를 도시한다. 영역(예를 들면, 각각의 영역)은 자기 자신의 가중치 및/또는 오프셋을 구비할 수도 있다. 예를 들면, E-ILR 화상의 블록(예를 들면, 각각의 블록)은 자기 자신의 가중치 및/또는 오프셋을 구비할 수도 있고, 단 예측 및/또는 양 예측 블록은, 예를 들면, 가중치 및 오프셋 코딩의 오버헤드를 감소시키기 위해, 동일한 영역에서 가중치 및/또는 오프셋을 공유할 수도 있다. 영역 기반의 가중치 및/또는 오프셋 정보를 인코딩하기 위해, 예측성 코딩(predictive coding)이 적용될 수도 있다. 가중치 및/또는 오프셋 정보는 슬라이스의 NAL, HEVC에서의 적응 파라미터 세트(Adaptation Parameter Set; APS)의 NAL, 및/또는 등등에서 전달될 수도 있다.
레이어간 참조 화상 향상에서 사용되는 모션 정보는, 모션 필드 매핑 프로세스로부터 유래할 수도 있는 및/또는 BL 압축된 및/또는 압축되지 않은 모션 정보로부터 유도될 수도 있는(예를 들면, 직접적으로 유도될 수도 있는) 레이어간 모션으로부터 유래할 수도 있다. ILR 향상 프로세스에서의 모션 보상을 위한 블록 사이즈는, 예를 들면, ILR 향상이 BL로부터의 모션을 유도하면, 16×16 블록 사이즈로 할당되지 않을 수도 있다. 압축되지 않은 모션은, 압축된 모션과 비교하여, 모션 정보(예를 들면, 더 정확한 모션 정보)를 제공할 수도 있다. EL 코딩을 향상시키기 위해 다단계 모션 압축 방법이 제공될 수도 있다. 이 방법은 ILR 향상을 위해 적용될 수도 있다. 압축되지 않은 모션의 블록 사이즈는, 예를 들면, 4×4일 수도 있다. 압축된 모션의 블록 사이즈는, 예를 들면, 16×16일 수도 있다. BL은 ILR 향상을 위해 8×8 사이즈의 모션을 제공할 수도 있다. 8×8 사이즈의 모션은 4×4 사이즈의 압축되지 않은 모션과 비교하여 메모리 절약을 제공할 수도 있고 및/또는 16×16 사이즈의 압축된 모션과 비교하여 더 정확할 수도 있다. 8×8 사이즈의 모션은, 예를 들면, BL의 미래의 화상의 인코딩을 위해, 압축되어 16×16 모션을 얻을 수도 있다.
DPB에서의 BL 모션은, 예를 들면, 메모리 사이즈를 절약하기 위해, 압축될 수도 있다. 이 압축된 BL 모션은 대략적인 입도에서(in a coarse granularity) 레이어간 모션을 만들 수도 있다. BL 모션의 스케일링은, 두 레이어의 해상도가 상이하면, 정확도를 손실할 수도 있다. 예를 들면, BL 모션은 2x 공간 스케일러빌러티에 대해 2x만큼 스케일업될 수도 있다. 원래의 BL 모션이 1/4 픽셀 정밀도이면, 모션 정밀도는 1/2 픽셀 정밀도일 수도 있다. 식 (8) 및 (9)에서 사용되는 레이어간 모션 정확도를 향상시키는 것은 ILP를 향상시킬 수도 있다.
모션 개선은 매핑된 모션을 개선의 중심으로서 적용하고 그 이웃(예를 들면, 가장 근처의 이웃) 중 하나 이상을 검색할 수도 있다. 모션은, 예를 들면, 식 (12)를 사용하여, 델타 모션을 수신하도록 개선될 수도 있다:
Figure pct00016
MVILX는 BL 모션으로부터 유도되는 모션일 수도 있다. 오차 제곱합(sum of square error; SSE), 절대 변환 차의 합(sum of absolute transform difference; SATD), 및/또는 등등을 사용하여 평가될 수도 있다. 연결된 블록이 BL에서 인트라 코딩되면, MVILX는 이용불가능할 수도 있다. 모션은 하나 이상의 공간적으로 이웃한 블록의 모션으로부터 유도될 수도 있다. 최소 왜곡은, 예를 들면, 식 (13)을 사용하여 결정될 수도 있다. 향상 레이어 시간 모션은 시간적 거리에 따른 스케일링을 사용하여 결정될 수도 있다.
Figure pct00017
BL로부터 유도되는 모션은 레이어간 참조 화상 향상에 대해 효율적일 수도 있다. BL에서의 모션은, 레이트 오버헤드를 고려할 수도 있는 레이트-왜곡 코스트(rate-distortion cost)를 사용하여 BL 인코더에 의해 결정될 수도 있다. BL 인코더는 ILR 향상 프로세스에서의 레이트를 고려할 수도 있다. 모션 정보는 BL로부터 유도될 수도 있다. 양 예측 모드의 경우, BL 인코더는 두 세트의 모션 정보, 예를 들면, 리스트0 및 리스트1을 제공할 수도 있다. ILR 향상은 리스트0, 리스트1, 또는 둘 모두의 사용을 결정할 수도 있다. 결정은 왜곡에 기반할 수도 있다. 리스트0 및/또는 리스트1의 모션에 대한 왜곡은, 예를 들면, 각각, 식 (14)(15)를 사용하여 결정될 수도 있다. 식 16은 리스트0 및 리스트1의 모션을 사용한 양 예측에 대해 사용될 수도 있다. 인코더 및/또는 디코더는 ILR 향상에 대해 최소 왜곡에 의해 특징지어지는 리스트를 사용할 것을 결정할 수도 있다.
Figure pct00018
모션 개선 및/또는 선택 프로세스는 명시적이거나 암시적일 수도 있다. 명시적 모션 개선 및/또는 선택은 인코더에서 수행될 수도 있고, 인코더는 개선 및/또는 선택 정보를 디코더로 시그널링할 수도 있다. 개선 및/또는 선택 정보를 시그널링함으로써, 오버헤드를 증가시키는 것에 의해 디코딩 복잡도는 감소될 수도 있다. 암시적 모드에서, 인코더 및 디코더는 개선 및/또는 선택을 수행할 수도 있다. 인코더가 모션 정보를 디코더로 시그널링할 필요가 없을 수도 있다. 이렇게 함으로써, 오버헤드 비트는, 예를 들면, 디코딩 복잡도를 증가시키는 것에 의해, 절약될 수도 있다.
E-ILR 화상의 하나 이상의 블록은, (예를 들면, 식 3, 4, 7, 8, 9, 및 10을 설명된 바와 같은) 차동 기반 방법, (예를 들면, 식 5, 6을 참조로 설명된 바와 같은) 잔차 기반 방법, 정규 ILR 블록 생성 방법(예를 들면, 연결된 BL 블록을 업샘플링하는 것), 단 예측 기반 방법, 양 예측 기반 방법, 다른 E-ILR 블록 생성 방법, 및/또는 조합을 사용하여 생성될 수도 있다. 향상 방법은, 다수의 향상 방법이 사용되면, 영역(예를 들면, 각각의 영역)에 대해 명시적으로 또는 암시적으로 나타내어질 수도 있다. 모드는, 모션(예를 들면, 큰 모션, 작은 모션, 제로 모션), 텍스쳐(예를 들면, 연속적인 톤, 비연속적인 톤, 다수의 색상), 에지 강도(예를 들면, 강, 중, 약), 및/또는 등등과 같은 하나 이상의 국소적 특성에 따라 결정될 수도 있다. E-ILR 화상의 블록은, 예를 들면, 사용되는 생성 방법에 기반하여, 상이한 특성을 가질 수도 있다. E-ILR 블록은, 베이스 레이어 인코딩에서의 향상된 및/또는 증가된 고주파 정보, 베이스 레이어 압축으로부터의 보상된 저주파 에너지 손실, 및/또는 완화된 압축 아티팩트(예를 들면, 링잉, 블록화)를 특징으로 할 수도 있다. E-ILR 블록 생성 방법(예를 들면, 차동 기반, 잔차 기반, 단 예측 기반, 양 예측 기반 등등)은 결합되어 E-ILR 화상을 생성할 수도 있다. E-ILR 블록 생성 방법이 함께 결합되면, 압축 효율성도 향상될 수도 있다. 현재 화상의 인코딩을 위해 인코더에 의해 사용되는 E-ILR 블록 생성 방법은, 예를 들면, 디코딩 복잡도를 감소시키기 위해, 시그널링될 수도 있다(예를 들면, 명시적으로 시그널링될 수도 있다). 디코더는, 예를 들면, E-ILR 블록 생성 방법(들)의 각각을 시도하는 대신, 인코더에 의해 시그널링되는 E-ILR 블록 생성 방법(들)을 적용할 수도 있다. 디코더는, 예를 들면, 생성 방법이 암시적으로 시그널링되는 경우, 각각의 블록의 국소적 특성에 따라 E-ILR 블록 생성 방법을 온라인에서 유도할 수도 있다.
예를 들면, 참조 화상 리스트의 사이즈를 증가시키는 것에 의해 그리고 E-ILR 화상을 참조 화상 리스트에 삽입하는 것에 의해, 두 개 이상의 E-ILR 블록 생성 방법은 결합되어 E-ILR 화상의 블록을 생성할 수도 있다. E-ILR 화상은 리스트0, 리스트1, 또는 둘 모두에 삽입될 수도 있다. 도 17은 참조 화상 리스트(들)로의 E-ILR 화상의 예시적인 배치의 도면이다. 도면(1700)에서, 하나 이상의 ILR 화상(1702)은 B 슬라이스의 리스트0에 배치될 수도 있고 하나 이상의 E-ILR 화상은 B 슬라이스의 리스트1에 배치될 수도 있다. P 슬라이스에서, 하나 이상의 E-ILR 화상(1704)은 리스트0에서 하나 이상의 ILR 화상(1702) 뒤에 배치될 수도 있다.
E-ILR 블록 생성 방법은, 예를 들면, 블록 기반 조합(예를 들면, 명시적 조합)을 사용하여, E-ILR 화상을 생성하도록 결합될 수도 있다. E-ILR 화상의 블록(예를 들면, 각각의 블록)은 상이한 E-ILR 블록 생성 방법을 사용하여 생성될 수도 있다. 인코더 및 디코더는 E-ILR 화상을 생성할 수도 있고 및/또는 E-ILR 화상을 참조 화상 리스트에 삽입할 수도 있다. 인코더는 E-ILR 화상의 블록(예를 들면, 각각의 블록)에 대해 사용되는 E-ILR 블록 생성 방법을 결정할 수도 있다. 예를 들면, E-ILR 블록 생성 방법은 레이트-왜곡 최적화 기준에 기반하여 선택될 수도 있다. 인코더는 블록의 생성 방법을 디코더로 시그널링할 수도 있다. 정보는, 예를 들면, 적응 파라미터 세트(APS)와 같은 레이어간 프로세싱 파라미터 세트를 전달하기 위해 사용되는 NAL 단위에 임베딩될 수도 있다. E-ILR 블록 생성 방법 정보를 인코딩하기 위해, 가변 블록 사이즈 기반 코딩(예를 들면, 쿼드트리 기반 코딩)이 사용될 수도 있다. 블록(예를 들면, 각각의 블록)의 E-ILR 블록 생성 방법 정보는 런렝쓰 코딩으로 인코딩될 수도 있다.
도 18은 런렝쓰 코딩에 대한 상이한 주사 패턴의 예의 도면이다. 예를 들면, 런렝쓰 코딩에 대한 주사 패턴은 수평(1802), 수직(1804), 수평 지그재그(1806), 수직 지그재그(1808), 수평 래스터(1810), 수직 래스터(1812), 및/또는 등등을 포함할 수도 있다. 2D 데이터 맵은, 예를 들면, 상이한 주사 패턴을 갖는 인코딩을 위해, 1D 맵으로 변환될 수도 있다. 런은 데이터의 중복 횟수로서 칭해질 수도 있다. 2D 맵의 런렝쓰 코딩을 위한 하나 이상의(예를 들면, 두 개의) 타입의 런은, 예를 들면, 정보를 더 효율적으로 압축하기 위해 제공될 수도 있다. 런은 인코딩 데이터를, 변환된 1D 순서에서의 바로 이웃과 비교하는 것에 의해 유도될 수도 있다. 런은 종래의 런렝쓰 코딩에서 사용될 수도 있다. 런은 데이터를 공간적 이웃과 비교하는 것에 의해 유도될 수도 있다.
도 19는 수평 주사로 인코딩되는 2D 맵(1900)의 예의 도면이다. 주사 후 인코딩될 심볼은 하나 이상의 파라미터(예를 들면, 3개의 파라미터, 예컨대 런, 타입, 및/또는 값을 포함함)로서 표현될 수도 있다. 런은 중복 횟수를 지칭할 수도 있다. 예를 들면, 런은 값을 변경하지 않고 이동된 거리를 지칭할 수도 있다. 타입은 런의 타입을 지칭할 수도 있다. 값은 중복된 값 직후의 데이터를 지칭할 수도 있다. 방향은 이동 방향을 지칭할 수도 있다. 도 19에 도시된 바와 같이, H는, 런이 수평 주사 순서에서 유도될 수도 있다는 것을 나타낼 수도 있다. T는 런이 그 위쪽 이웃으로부터 유도된다는 것을 나타낸다. 이진 맵의 경우, 값이 이전 데이터로부터 유도될 수도 있을 때, 값은 코딩되지 않을 수도 있다. 압축 비율은 상이한 주사 패턴과 함께 변할 수도 있는데, 데이터의 상이한 분포 때문이다. 인코더는 맵(예를 들면, 각각의 맵)에 대한 주사 패턴을 결정할 수도 있고 및/또는 디코더로 주사 패턴을 시그널링할 수도 있다.
블록 기반 조합(예를 들면, 암시적 조합)이 제공될 수도 있다. 인코더 및 디코더는 E-ILR 화상을 생성할 수도 있고 E-ILR 화상을 참조 화상 리스트에 삽입할 수도 있다. 인코더 및/또는 디코더는, 예를 들면, 블록의 생성 방법 정보를 (예를 들면, 명시적으로) 교환하는 대신, 하나 이상의 특성에 기반하여 블록의 생성 방법 정보를 결정하기 위해, 유도 프로세스(예를 들면, 동일한 유도 프로세스)를 적용할 수도 있다. 예를 들면, 블록은 하나 이상의 국소적 이미지 통계적 피쳐에 기반하여 하나 이상의 타입으로 분류될 수도 있는데, 통계적 피쳐는 (예를 들면, 블록이 편평한 경우 또는 블록이 에지 블록인 경우) 예를 들면 텍스쳐를 포함할 수도 있다. E-ILR 블록 생성 방법은 블록 타입에 기반하여 적용될 수도 있다.
도 20a는 하나 이상의 개시된 실시형태가 구현될 수도 있는 예시적인 통신 시스템(2000)의 도면이다. 통신 시스템(2000)은 보이스, 데이터, 비디오, 메시징, 브로드캐스트 등등과 같은 컨텐츠를 다수의 무선 유저에게 제공하는 다중 액세스 시스템일 수도 있다. 통신 시스템(2000)은, 무선 대역폭을 포함하는 시스템 리소스의 공유를 통해 다수의 무선 유저가 이러한 컨텐츠에 액세스하는 것을 가능하게 할 수도 있다. 예를 들면, 통신 시스템(2000)은, 코드 분할 다중 액세스(code division multiple access; CDMA), 시분할 다중 액세스(time division multiple access; TDMA), 주파수 분할 다중 액세스(frequency division multiple access; FDMA), 직교 FDMA(orthogonal FDMA; OFDMA), 싱글 캐리어 FDMA(single-carrier FDMA; SC-FDMA) 등등과 같은 하나 이상의 채널 액세스 방법을 활용할 수도 있다.
도 20a에 도시된 바와 같이, 통신 시스템(2000)은 무선 송수신 유닛(WTRU)(2002a, 2002b, 2002c, 및/또는 2002d)(일반적으로 또는 일괄적으로 WTRU(2002)로 칭해질 수도 있음), 무선 액세스 네트워크(radio access network; RAN)(2003/2004/2005), 코어 네트워크(2006/2007/2009), 공중 교환 전화망(public switched telephone network; PSTN)(2008), 인터넷(2010), 및 기타 네트워크(2012)를 포함할 수도 있지만, 개시된 실시형태는 임의의 수의 WTRU, 기지국(base station), 네트워크, 및/또는 네트워크 엘리먼트를 고려한다는 것을 알 수 있을 것이다. WTRU(2002a, 2002b, 2002c, 2002d)의 각각은 무선 환경에서 동작 및/또는 통신하도록 구성되는 임의의 타입의 디바이스일 수도 있다. 예로서, WTRU(2002a, 2002b, 2002c, 2002d)는 무선 신호를 송신 및/또는 수신하도록 구성될 수도 있고, 무선 송수신 유닛(WTRU), 이동국(mobile station), 고정식 또는 이동식 가입자 유닛, 페이저, 셀룰러 전화, 개인 휴대형 정보 단말기(personal digital assistant; PDA), 스마트폰, 랩탑, 넷북, 퍼스널 컴퓨터, 무선 센서, 가전기기(consumer electronics) 등등을 포함할 수도 있다.
통신 시스템(2000)은 기지국(2014a) 및 기지국(2014b)을 또한 포함할 수도 있다. 기지국(2014a, 2014b)의 각각은, 코어 네트워크(2006/2007/2009), 인터넷(2010), 및/또는 기타 네트워크(2012)와 같은 하나 이상의 통신 네트워크에 대한 액세스를 용이하게 하기 위해 WTRU(2002a, 2002b, 2002c, 2002d) 중 적어도 하나와 무선으로 인터페이싱하도록 구성되는 임의의 타입의 디바이스일 수도 있다. 예로서, 기지국(2014a, 2014b)은 기지국 트랜시버(base transceiver station; BTS), 노드 B, eNode B, 홈 노드 B, 홈 eNode B, 사이트 컨트롤러, 액세스 포인트(access point; AP), 무선 라우터 등등일 수도 있다. 기지국(2014a, 2014b) 각각이 단일의 엘리먼트로서 묘사되지만, 기지국(2014a, 2014b)은 임의의 수의 인터커넥트된(interconnected) 기지국 및/또는 네트워크 엘리먼트를 포함할 수도 있음을 알 수 있을 것이다.
기지국(2014a)은, 기지국 컨트롤러(base station controller; BSC), 무선 네트워크 컨트롤러(radio network controller; RNC), 중계 노드 등등과 같은 다른 기지국 및/또는 네트워크 엘리먼트(도시되지 않음)를 또한 포함할 수도 있는 RAN(2003/2004/2005)의 일부일 수도 있다. 기지국(2014a) 및/또는 기지국(2014b)은 특정 지리적 영역 내에서 무선 신호를 송신 및/또는 수신하도록 구성될 수도 있으며, 셀(도시되지 않음)로서 칭해질 수도 있다. 셀은 셀 섹터로 더 분할될 수도 있다. 예를 들면, 기지국(2014a)과 관련된 셀은 3개의 섹터로 분할될 수도 있다. 따라서, 일 실시형태에서, 기지국(2014a)은 3개의 트랜시버, 즉, 셀의 각각의 섹터에 대해 하나의 트랜시버를 포함할 수도 있다. 다른 실시형태에서, 기지국(2014a)은 다중입력 다중출력(multiple-input multiple-output; MIMO) 기술을 활용할 수도 있고, 따라서, 셀의 각각의 섹터에 대해 다수의 트랜시버를 활용할 수도 있다.
기지국(2014a, 2014b)은, 임의의 적절한 무선 통신 링크(예를 들면, 무선 주파수(radio frequency; RF), 마이크로파, 적외선(infrared; IR), 자외선(ultraviolet; UV), 가시광 등등)일 수도 있는 무선 인터페이스(air interface; 2015/2016/2017)를 통해 WTRU(2002a, 2002b, 2002c, 2002d) 중 하나 이상과 통신할 수도 있다. 무선 인터페이스(2015/2016/2017)는 임의의 적절한 무선 액세스 기술(radio access technology; RAT)을 사용하여 확립될 수도 있다.
더 구체적으로는, 위에서 언급된 바와 같이, 통신 시스템(2000)은 다중 액세스 시스템일 수도 있고 CDMA, TDAM, FDAM, OFDMA, SC-FDMA 등등과 같은 하나 이상의 채널 액세스 방식을 활용할 수도 있다. 예를 들면, RAN(2003/2004/2005) 내의 기지국(2014a) 및 WTRU(2002a, 2002b, 2002c)는, 광대역 CDMA(wideband CDMA; WCDMA)를 사용하여 무선 인터페이스(2015/2016/2017)를 확립할 수도 있는, 범용 이동 통신 시스템(Universal Mobile Telecommunications System; UMTS) 지상 무선 액세스(Terrestrial Radio Access)(UTRA)와 같은 무선 기술을 구현할 수도 있다. WCDMA는 고속 패킷 액세스(High-Speed Packet Access; HSPA) 및/또는 진화된 HSPA(Evolved HSPA; HSPA+)와 같은 통신 프로토콜을 포함할 수도 있다. HSPA는 고속 다운링크 패킷 액세스(High-Speed Downlink Packet Access; HSDPA) 및/또는 고속 업링크 패킷 액세스(High-Speed Uplink Packet Access; HSUPA)를 포함할 수도 있다.
일 실시형태에서, 기지국(2014a) 및 WTRU(2002a, 2002b, 2002c)는, 롱 텀 에볼루션(LTE) 및/또는 LTE-어드밴스드(LTE- Advanced; LTE-A)를 사용하여 무선 인터페이스(2015/2016/2017)를 확립할 수도 있는 진화된 UMTS 지상 무선 액세스(Evolved UMTS Terrestrial Radio Access; E-UTRA)와 같은 무선 기술을 구현할 수도 있다.
일 실시형태에서, 기지국(2014a) 및 WTRU(2002a, 2002b, 2002c)는, IEEE 802.16(즉, 와이맥스(Worldwide Interoperability for Microwave Access; WiMAX)), CDMA2000, CDMA2000 1X, CDMA2000 EV-DO, IS-2000(Interim Standard 2000), IS-95(Interim Standard 95), IS-856(Interim Standard 856), 이동 통신용 글로벌 시스템(Global System for Mobile communications; GSM), EDGE(Enhanced Data rates for GSM Evolution), GSM EDGE(GERAN) 등등과 같은 무선 기술을 구현할 수도 있다.
도 20a의 기지국(2014b)은, 예를 들면, 무선 라우터, 홈 노드 B, 홈 eNode B, 또는 액세스 포인트일 수도 있고, 사업장, 가정, 차량, 캠퍼스 등등과 같은 국소화된 영역에서 무선 연결성을 용이하게 하기 위해 임의의 적절한 RAT를 활용할 수도 있다. 일 실시형태에서, 기지국(2014b) 및 WTRU(2002c, 2002d)는 무선 로컬 에어리어 네트워크(wireless local area network; WLAN)를 확립하기 위해 IEEE 802.11과 같은 무선 기술을 구현할 수도 있다. 다른 실시형태에서, 기지국(2014b) 및 WTRU(2002c, 2002d)는 무선 사설 영역 네트워크(wireless personal area network; WPAN)를 확립하기 위해 IEEE 802.15와 같은 무선 기술을 구현할 수도 있다. 또 다른 실시형태에서, 기지국(2014b) 및 WTRU(2002c, 2002d)는 피코셀 또는 펨토셀을 확립하기 위해 셀룰러 기반 RAT(예를 들면, WCDMA, CDMA2000, GSM, LTE, LTE-A 등등)를 활용할 수도 있다. 도 20a에 도시된 바와 같이, 기지국(2014b)은 인터넷(2010)에 대한 직접 연결을 구비할 수도 있다. 따라서, 기지국(2014b)은 코어 네트워크(2006/2007/2009)를 통해 인터넷(2010)에 액세스할 필요가 없을 수도 있다.
RAN(2003/2004/2005)은, WTRU(2002a, 2002b, 2002c, 2002d) 중 하나 이상으로 보이스, 데이터, 애플리케이션, 및/또는 인터넷 전화 프로토콜(voice over internet protocol; VoIP) 서비스를 제공하도록 구성된 임의의 타입의 네트워크일 수도 있는 코어 네트워크(2006/2007/2009)와 통신할 수도 있다. 예를 들면, 코어 네트워크(2006/2007/2009)는 호 제어(call control), 과금 서비스, 모바일 위치 기반 서비스, 선불 통화, 인터넷 연결성, 비디오 분배 등등을 제공할 수도 있고 및/또는 유저 인증과 같은 하이 레벨의 보안 기능을 수행할 수도 있다. 도 20a에 도시되진 않지만, RAN(2003/2004/2005) 및/또는 코어 네트워크(2006/2007/2009)는, RAN(2003/2004/2005)과 동일한 RAT 또는 상이한 RAT를 활용하는 다른 RAN과 직접 또는 간접 통신할 수도 있음을 알 수 있을 것이다. 예를 들면, E-UTRA 무선 기술을 활용할 수도 있는 RAN(2003/2004/2005)에 연결되는 것 외에, 코어 네트워크(2006/2007/2009)는 GSM 무선 기술을 활용하는 RAN(도시되지 않음)과 또한 통신할 수도 있다.
코어 네트워크(2006/2007/2009)는 WTRU(2002a, 2002b, 2002c, 2002d)가 PSTN(2008), 인터넷(2010), 및/또는 기타 네트워크(2012)에 액세스하는 데 게이트웨이로서 또한 기능할 수도 있다. PSTN(2008)은, 기존 전화 서비스(plain old telephone service; POTS)를 제공하는 회선 교환 전화 네트워크를 포함할 수도 있다. 인터넷(2010)은, TCP/IP(transmission control protocol/internet protocol; 전송 제어 프로토콜/인터넷 프로토콜) 일군(suite)에서의 TCP, 유저 데이터그램 프로토콜(user datagram protocol; UDP) 및 IP와 같은 공통 통신 프로토콜을 사용하는 인터커넥트된 컴퓨터 네트워크 및 디바이스의 글로벌 시스템을 포함할 수도 있다. 네트워크(2012)는 다른 서비스 공급자에 의해 소유되는 및/또는 운영되는 유선 또는 무선 통신 네트워크를 포함할 수도 있다. 예를 들면, 네트워크(2012)는, RAN(2003/2004/2005)과 동일한 RAT 또는 상이한 RAT를 활용할 수도 있는 하나 이상의 RAN에 연결된 다른 코어 네트워크를 포함할 수도 있다.
통신 시스템(2000)에서의 WTRU(2002a, 2002b, 2002c, 2002d) 중 몇몇 또는 전체는 다중 모드 성능을 포함할 수도 있다, 즉, WTRU(2002a, 2002b, 2002c, 2002d)는 상이한 무선 링크를 통해 상이한 무선 네트워크와 통신하기 위한 다수의 트랜시버를 포함할 수도 있다. 예를 들면, 도 20a에 도시된 WTRU(2002c)는, 셀룰러 기반 무선 기술을 활용할 수도 있는 기지국(2014a)과, 그리고 IEEE 802 무선 기술을 활용할 수도 있는 기지국(2014b)과 통신하도록 구성될 수도 있다.
도 20b는 예시적인 WTRU(2002)의 시스템 도면이다. 도 20b에 도시된 바와 같이, WTRU(2002)는 프로세서(2018), 트랜시버(2020), 송신/수신 엘리먼트(2022), 스피커/마이크(2024), 키패드(2026), 디스플레이/터치패드(2028), 비착탈식 메모리(2030), 착탈식 메모리(2032), 전원(2034), 글로벌 포지셔닝 시스템(global positioning system; GPS) 칩셋(2036), 및 기타 주변장치(2038)를 포함할 수도 있다. WTRU(2002)는 한 실시형태와 여전히 일치하면서 상기 엘리먼트의 임의의 부조합(sub-combination)을 포함할 수도 있음을 알 수 있을 것이다. 또한, 실시형태는, 기지국(2014a 및 2014b), 및/또는, 다른 것들 중에서도, 기지국 트랜시버(BTS), 노드 B, 사이트 컨트롤러, 액세스 포인트(AP), 홈 노드 B, 진화형 홈 노드 B(eNodeB), 홈 진화형 노드 B(home evolved node-B; HeNB), 홈 진화형 노드 B 게이트웨이, 프록시 노드와 같은 그러나 이들에 한정되지 않는 기지국(2014a 및 2014b)이 나타낼 수도 있는 노드가 도 20b에서 묘사되고 본원에서 설명되는 엘리먼트 중 일부 또는 그 엘리먼트의 각각을 포함할 수도 있다는 것을 고려한다.
프로세서(2018)는 범용 프로세서, 특수 목적의 프로세서, 종래의 프로세서, 디지털 신호 프로세서(digital signal processor; DSP), 복수의 마이크로프로세서, DSP 코어와 연관된 하나 이상의 마이크로프로세서, 컨트롤러, 마이크로컨트롤러, 주문형 반도체(Application Specific Integrated Circuit; ASIC), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array; FPGA) 회로, 임의의 다른 타입의 집적 회로(integrated circuit; IC), 상태 머신 등등일 수도 있다. 프로세서(2018)는 신호 코딩, 데이터 프로세싱, 전력 제어, 입/출력 프로세싱, 및/또는 WTRU(2002)가 무선 환경에서 동작하는 것을 가능하게 하는 임의의 다른 기능성(functionality)을 수행할 수도 있다. 프로세서(2018)는, 송신/수신 엘리먼트(2022)에 커플링될 수도 있는 트랜시버(2020)에 커플링될 수도 있다. 도 20b는 프로세서(2018)와 트랜시버(2020)를 별개의 컴포넌트로서 묘사하지만, 프로세서(2018)와 트랜시버(2020)는 전자적 패키지 또는 칩에 함께 집적될 수도 있음이 이해될 것이다.
송신/수신 엘리먼트(2022)는 무선 인터페이스(2015/2016/2017)를 통해 기지국(예를 들면, 기지국(2014a))으로 신호를 송신하거나, 또는 그 기지국으로부터 신호를 수신하도록 구성될 수도 있다. 예를 들면, 일 실시형태에서, 송신/수신 엘리먼트(2022)는 RF 신호를 송신 및/또는 수신하도록 구성되는 안테나일 수도 있다. 일 실시형태에서, 송신/수신 엘리먼트(2022)는, 예를 들면, IR, UV, 또는 가시광 신호를 송신 및/또는 수신하도록 구성되는 방출기/검출기(emitter/detector)일 수도 있다. 다른 일 실시형태에서, 송신/수신 엘리먼트(2022)는 RF 및 광 신호를 송신 및 수신하도록 구성될 수도 있다. 송신/수신 엘리먼트(2022)는 무선 신호의 임의의 조합을 송신 및/또는 수신하도록 구성될 수도 있음을 알 수 있을 것이다.
또한, 송신/수신 엘리먼트(2022)가 도 20b에서 단일의 엘리먼트로서 묘사되지만, WTRU(2002)는 임의의 수의 송신/수신 엘리먼트(2022)를 포함할 수도 있다. 더 구체적으로는, WTRU(2002)는 MIMO 기술을 활용할 수도 있다. 따라서, 일 실시형태에서, WTRU(2002)는, 무선 인터페이스(2015/2016/2017)를 통해 무선 신호를 송신 및 수신하기 위한 2개 이상의 송신/수신 엘리먼트(2022)(예를 들면, 다수의 안테나)를 포함할 수도 있다.
트랜시버(2020)는, 송신/수신 엘리먼트(2022)에 의해 송신될 신호를 변조하도록 그리고 송신/수신 엘리먼트(2022)에 의해 수신되는 신호를 복조하도록 구성될 수도 있다. 위에서 언급된 바와 같이, WTRU(2002)는 다중 모드 성능을 가질 수도 있다. 따라서, 트랜시버(2020)는, WTRU(2002)가, 예를 들면, UTRA 및 IEEE 802.11과 같은 다수의 RAT를 통해 통신하는 것을 가능하게 하기 위한 다수의 트랜시버를 포함할 수도 있다.
WTRU(2002)의 프로세서(2018)는, 스피커/마이크(2024), 키패드(2026), 및/또는 디스플레이/터치패드(2028)(예를 들면, LCD(liquid crystal display; 액정 디스플레이) 디스플레이 유닛 또는 유기 발광 다이오드(organic light- emitting diode; OLED) 디스플레이 유닛)에 커플링될 수도 있고, 그리고 이들로부터 유저 입력 데이터를 수신할 수도 있다. 프로세서(2018)는 유저 데이터를 스피커/마이크(2024), 키패드(2026), 및/또는 디스플레이/터치패드(2028)로 또한 출력할 수도 있다. 또한, 프로세서(2018)는, 비착탈식 메모리(2030) 및/또는 착탈식 메모리(2032)와 같은 임의의 타입의 적절한 메모리로부터의 정보에 액세스할 수도 있고, 그리고 그 임의의 타입의 적절한 메모리에 데이터를 저장할 수도 있다. 비착탈식 메모리(2030)는 랜덤 액세스 메모리(random-access memory; RAM), 리드 온리 메모리(read-only memory; ROM), 하드디스크, 또는 임의의 다른 타입의 메모리 저장 디바이스를 포함할 수도 있다. 착탈식 메모리(2032)는 가입자 식별 모듈(subscriber identity module; SIM) 카드, 메모리 스틱, 시큐어 디지털(secure digital; SD) 메모리 카드 등등을 포함할 수도 있다. 일 실시형태에서, 프로세서(2018)는, 서버 또는 가정용 컴퓨터(도시되지 않음)와 같은 WTRU(2002)에 물리적으로 위치되지 않는 메모리로부터의 정보에 액세스할 수도 있고, 그리고 그 메모리에 데이터를 저장할 수도 있다.
프로세서(2018)는 전원(2034)으로부터 전력을 수신할 수도 있고, WTRU(2002)의 다른 컴포넌트로 전력을 분배하도록 및/또는 그 전력을 제어하도록 구성될 수도 있다. 전원(2034)은 WTRU(2002)에 전력을 공급하기 위한 임의의 적절한 디바이스일 수도 있다. 예를 들면, 전원(2034)은 하나 이상의 드라이 셀 배터리(예를 들면, 니켈 카드뮴(NiCd), 니켈 아연(NiZn), 니켈 금속 수소(NiMh), 리튬 이온(Li ion) 등등), 솔라 셀, 연료 전지 등등을 포함할 수도 있다.
프로세서(2018)는, WTRU(2002)의 현재 위치에 관한 위치 정보(예를 들면, 경도 및 위도)를 제공하도록 구성될 수도 있는 GPS 칩셋(2036)에 또한 커플링될 수도 있다. 또한, GPS 칩셋(2036)으로부터의 정보 외에, 또는 그 정보 대신, WTRU(2002)는 무선 인터페이스(2015/2016/2017)를 통해 기지국(예를 들면, 기지국(2014a, 2014b))으로부터 위치 정보를 수신할 수도 있고/있거나 2개 이상의 가까운 기지국으로부터 수신되고 있는 신호의 타이밍에 기반하여 그 위치를 결정할 수도 있다. WTRU(2002)는 한 실시형태와 여전히 일치하면서 임의의 적절한 위치 결정 방법을 통해 위치 정보를 획득할 수도 있음을 알 수 있을 것이다.
프로세서(2018)는, 추가적인 특징, 기능성, 및/또는 유선 또는 무선 연결성을 제공하는 하나 이상의 소프트웨어 및/또는 하드웨어 모듈을 포함할 수도 있는 기타 주변장치(2038)에 추가로 커플링될 수도 있다. 예를 들면, 주변장치(2038)는 가속도계, 전자 콤파스, 위성 트랜시버, (사진 및 비디오용의) 디지털 카메라, 범용 직렬 버스(universal serial bus; USB) 포트, 진동 디바이스, 텔레비전 트랜시버, 핸즈프리 헤드셋, Bluetooth® 모듈, 주파수 변조(frequency modulated; FM) 라디오 유닛, 디지털 뮤직 플레이어, 미디어 플레이어, 비디오 게임 플레이어 모듈, 인터넷 브라우저 등등을 포함할 수도 있다.
도 20c는 한 실시형태에 따른 RAN(2003)과 코어 네트워크(2006)의 시스템 도면이다. 위에서 언급된 바와 같이, RAN(2003)은 무선 인터페이스(2015)를 통해 WTRU(2002a, 2002b, 2002c)와 통신하기 위해 E-UTRA 무선 기술을 활용할 수도 있다. RAN(2003)은 코어 네트워크(2006)와 또한 통신할 수도 있다. 도 20c에 도시된 바와 같이, RAN(2003)은, 무선 인터페이스(2015)를 통해 WTRU(2002a, 2002b, 2002c)와 통신하기 위한 하나 이상의 트랜시버를 각각 포함할 수도 있는 노드 B(2040a, 2040b, 2040c)를 포함할 수도 있다. 노드 B(2040a, 2040b, 2040c) 각각은 RAN(2003) 내의 특정 셀(도시되지 않음)과 관련될 수도 있다. RAN(2003)은 RNC(2042a, 2042b)를 또한 포함할 수도 있다. RAN(2003)은, 일 실시형태와 여전히 일치하면서, 임의의 수의 노드 B 및 RNC를 포함할 수도 있다는 것을 알 수 있을 것이다.
도 20c에 도시된 바와 같이, 노드 B(2040a, 2040b)는 RNC(2042c)와 통신할 수도 있다. 추가적으로, 노드 B(2040c)는 RNC(2042b)와 통신할 수도 있다. 노드 B(2040a, 2040b, 2040c)는 Iub 인터페이스를 통해 각각의 RNC(2042a, 2042b)와 통신할 수도 있다. RNC(2042a, 2042b)는 다른 Iur 인터페이스를 통해 서로 통신할 수도 있다. RNC(2042a, 2042b)의 각각은, 자신이 연결되는 각각의 노드 B(2040a, 2040b, 2040c)를 제어하도록 구성될 수도 있다. 또한, RNC(2042a, 2042b)의 각각은 다른 기능성, 예컨대 외부 루프 전력 제어, 부하 제어, 수락 제어(admission control), 패킷 스케줄링, 핸드오버 제어, 매크로 다이버시티, 보안 기능, 데이터 암호화 등등을 수행하거나 지원하도록 구성될 수도 있다.
도 20c에 도시된 코어 네트워크(2006)는 미디어 게이트웨이(media gateway; MGW)(2044), 모바일 스위칭 센터(mobile switching center; MSG)(2046), 서빙 GPRS 지원 노드(serving GPRS support node; SGSN)(2048), 및/또는 게이트웨이 GPRS 지원 노드(gateway GPRS support node; GGSN)(2050)을 포함할 수도 있다. 상기 엘리먼트의 각각이 코어 네트워크(2006)의 일부로서 묘사되지만, 이들 엘리먼트 중 임의의 하나는 코어 네트워크 오퍼레이터 이외의 엔티티에 의해 소유되고 및/또는 그 엔티티에 의해 운영될 수도 있다는 것을 알 수 있을 것이다.
RAN(2003)에서의 RNC(2042a)는 IuCS 인터페이스를 통해 코어 네트워크(2006)의 MSC(2046)에 연결될 수도 있다. MSC(2046)는 MGW(2044)에 연결될 수도 있다. MSC(2046) 및 MGW(2044)는, WTRU(2002a, 2002b, 2002c)와 전통적인 지상 회선(land-line) 통신 디바이스 사이의 통신을 용이하게 하기 위해, PSTN(2008)과 같은 회선 교환 네트워크에 대한 액세스를 WTRU(2002a, 2002b, 2002c)에게 제공할 수도 있다.
RAN(2003)에서의 RNC(2042a)는 IuPS 인터페이스를 통해 코어 네트워크(2006)의 SGSN(2048)에 연결될 수도 있다. SGSN(2048)은 GGSN(2050)에 연결될 수도 있다. SGSN(2048) 및 GGSN(2050)은, WTRU(2002a, 2002b, 2002c)와 IP 대응 디바이스(IP-enabled device) 사이의 통신을 용이하게 하기 위해, 패킷 교환 네트워크, 예컨대 인터넷(2010)에 대한 액세스를 WTRU(2002a, 2002b, 2002c)에게 제공할 수도 있다.
위에서 언급된 바와 같이, 코어 네트워크(2006)는 네트워크(2012)에 또한 연결될 수도 있는데, 네트워크(2012)는 다른 서비스 공급자에 의해 소유되고 및/또는 운영되는 다른 유선 또는 무선 네트워크를 포함할 수도 있다.
도 20d는 한 실시형태에 따른 RAN(2004)과 코어 네트워크(2007)의 시스템 도면이다. 위에서 언급된 바와 같이, RAN(2004)은 무선 인터페이스(2016)를 통해 WTRU(2002a, 2002b, 2002c)와 통신하기 위해 E-UTRA 무선 기술을 활용할 수도 있다. RAN(2004)은 코어 네트워크(2007)와 또한 통신할 수도 있다.
RAN(2004)은 eNode B(2060a, 2060b, 2060c)를 포함할 수도 있지만, RAN(2004)은 한 실시형태와 여전히 일치하면서 임의의 수의 eNode B를 포함할 수도 있다. eNode B(2060a, 2060b, 2060c) 각각은 무선 인터페이스(2016)를 통해 WTRU(2002a, 2002b, 2002c)와 통신하기 위한 하나 이상의 트랜시버를 포함할 수도 있다. 일 실시형태에서, eNode B(2060a, 2060b, 2060c)는 MIMO 기술을 구현할 수도 있다. 따라서, eNode B(2060a)는, 예를 들면, WTRU(2002a)로 무선 신호를 송신하고 그 WTRU(2002a)로부터 무선 신호를 수신하기 위해 다수의 안테나를 사용할 수도 있다.
eNode B(2060a, 2060b, 2060c)의 각각은 특정 셀(도시되지 않음)과 관련될 수도 있고 무선 리소스 관리 결정, 핸드오버 결정, 업링크 및/또는 다운링크에서의 유저의 스케줄링 등등을 핸들링하도록 구성될 수도 있다. 도 20d에 도시된 바와 같이, eNode B(2060a, 2060b, 2060c)는 X2 인터페이스를 통해 서로 통신할 수도 있다.
도 20d에 도시된 코어 네트워크(2007)는 이동성 관리 엔티티 게이트웨이(mobility management entity gateway; MME)(2062), 서빙 게이트웨이(2064), 및 패킷 데이터 네트워크(packet data network; PDN) 게이트웨이(2066)를 포함할 수도 있다. 상기 엘리먼트의 각각이 코어 네트워크(2007)의 일부로서 묘사되지만, 이들 엘리먼트 중 임의의 하나는 코어 네트워크 오퍼레이터 이외의 엔티티에 의해 소유되거나 및/또는 그 엔티티에 의해 운영될 수도 있다는 것을 알 수 있을 것이다.
MME(2062)는 S1 인터페이스를 통해 RAN(2004) 내의 eNode B(2060a, 2060b, 2060c)의 각각에 연결될 수도 있고 제어 노드로서 기능할 수도 있다. 예를 들면, MME(2062)는 WTRU(2002a, 2002b, 2002c)의 유저를 인증하는 것, 베어러 활성/비활성, WTRU(2002a, 2002b, 2002c)의 초기 연결 동안 특정 서빙 게이트웨이를 선택하는 것 등등을 담당할 수도 있다. MME(2062)는, GSM 또는 WCDMA와 같은 다른 무선 기술을 활용하는 다른 RAN(도시되지 않음)과 RAN(2004) 사이를 스위칭하는 제어 플레인 기능을 또한 제공할 수도 있다.
서빙 게이트웨이(2064)는 S1 인터페이스를 통해 RAN(2004) 내의 eNode B(2060a, 2060b, 2060c)의 각각에 연결될 수도 있다. 서빙 게이트웨이(2064)는 일반적으로 유저 데이터 패킷을, WTRU(2002a, 2002b, 2002c)로 그리고 WTRU(2002a, 2002b, 2002c)로부터 라우팅하고 포워딩할 수도 있다. 서빙 게이트웨이(2064)는 다른 기능, 예컨대 eNode B간 핸드오버 동안 유저 플레인을 앵커링하는 것, 다운링크 데이터가 WTRU(2002a, 2002b, 2002c)에 대해 이용가능할 때 페이징을 트리거하는 것, WTRU(2002a, 2002b, 2002c)의 상황(context)를 관리하고 저장하는 것 등등을 또한 수행할 수도 있다.
서빙 게이트웨이(2064)는, WTRU(2002a, 2002b, 2002c)와 IP 대응 디바이스 사이의 통신을 용이하게 하기 위해, 인터넷(2010)과 같은 패킷 교환 네트워크를 WTRU(2002a, 2002b, 2002c)에 제공할 수도 있는 PDN 게이트웨이(2066)에 또한 연결될 수도 있다.
코어 네트워크(2007)는 다른 네트워크와의 통신을 용이하게 할 수도 있다. 예를 들면, 게이트웨이(2007)는, WTRU(2002a, 2002b, 2002c)와 전통적인 지상 회선 통신 디바이스 사이의 통신을 용이하게 하기 위해, PSTN(2008)과 같은 회선 교환 네트워크에 대한 액세스를 WTRU(2002a, 2002b, 2002c)에게 제공할 수도 있다. 예를 들면, 코어 네트워크(2007)는, 코어 네트워크(2007)와 PSTN(2008) 사이의 인터페이스로서 기능하는 IP 게이트웨이(예를 들면, IP 멀티미디어 서브시스템(IP multimedia subsystem; IMS) 서버)를 포함할 수도 있거나, 또는 그 IP 게이트웨이와 통신할 수도 있다. 또한, 코어 네트워크(2007)는, 다른 서비스 공급자에 의해 소유되는 및/또는 다른 서비스 공급자에 의해 운영되는 다른 유선 또는 무선 네트워크를 포함할 수도 있는 네트워크(2012)에 대한 액세스를 WTRU(2002a, 2002b, 2002c)에게 제공할 수도 있다.
도 20e는 한 실시형태에 따른 RAN(2005)과 코어 네트워크(2009)의 시스템 도면이다. RAN(2005)은, 무선 인터페이스(2017)를 통해 WTRU(2002a, 2002b, 2002c)와 통신하기 위해 IEEE 802.16 무선 기술을 활용하는 액세스 서비스 네트워크(access service network; ASN)일 수도 있다. 하기에 더 논의되는 바와 같이, WTRU(2002a, 2002b, 2002c), RAN(2005), 및 코어 네트워크(2009)의 상이한 기능적 엔티티 사이의 통신 링크는 기준 포인트(reference point)로서 정의될 수도 있다.
도 20e에 도시된 바와 같이, RAN(2005)은 기지국(2080a, 2080b, 2080c) 및 ASN 게이트웨이(2082)를 포함할 수도 있지만, RAN(2005)은, 실시형태와 여전히 일치하면서, 임의의 수의 기지국 및 ASN 게이트웨이를 포함할 수도 있다는 것을 알 수 있을 것이다. 기지국(2080a, 2080b, 2080c) 각각은, RAN(2005) 내의 특정 셀(도시되지 않음)과 관련될 수도 있고 무선 인터페이스(2017)를 통해 WTRU(2002a, 2002b, 2002c)와 통신하기 위한 하나 이상의 트랜시버를 포함할 수도 있다. 일 실시형태에서, 기지국(2080a, 2080b, 2080c)은 MIMO 기술을 구현할 수도 있다. 따라서, 기지국(2080a)은, 예를 들면, WTRU(2002a)로 무선 신호를 송신하고 그 WTRU(2002a)로부터 무선 신호를 수신하기 위해 다수의 안테나를 사용할 수도 있다. 또한, 기지국(2080a, 2080b, 2080c)은, 핸드오프 트리거링(handoff triggering), 터널 확립, 무선 리소스 관리, 트래픽 분류, 서비스 품질(quality of service; QoS) 정책 강화(enforcement) 등등과 같은 이동성 관리 기능을 또한 제공할 수도 있다. ASN 게이트웨이(2082)는 트래픽 애그리게이션 포인트(traffic aggregation point)로서 기능할 수도 있으며 페이징, 가입자 프로파일의 캐싱, 코어 네트워크(2009)로의 라우팅 등등을 담당할 수도 있다.
WTRU(2002a, 2002b, 2002c)와 RAN(2005) 사이의 무선 인터페이스(2017)는, IEEE 802.16 명세(specification)를 구현하는 R1 기준 포인트로서 정의될 수도 있다. 또한, WTRU(2002a, 2002b, 2002c)의 각각은 코어 네트워크(2009)와의 논리 인터페이스(logical interface)(도시되지 않음)를 확립할 수도 있다. WTRU(2002a, 2002b, 2002c)와 코어 네트워크(2009) 사이의 논리 인터페이스는 R2 기준 포인트로서 정의될 수도 있는데, R2 기준 포인트는 인증(authentication), 인가(authorization), IP 호스트 구성 관리, 및/또는 이동성 관리를 위해 사용될 수도 있다.
기지국(2080a, 2080b, 2080c) 각각의 사이의 통신 링크는, WTRU 핸드오버 및 기지국 사이의 데이터의 전송을 용이하게 하기 위한 프로토콜을 포함하는 R8 기준 포인트로서 정의될 수도 있다. 기지국(2080a, 2080b, 2080c)과 ASN 게이트웨이(2082) 사이의 통신 링크는 R6 기준 포인트로서 정의될 수도 있다. R6 기준 포인트는 WTRU(2002a, 2002b, 2002c)의 각각과 관련된 이동성 이벤트에 기반하여 이동성 관리를 용이하게 하기 위한 프로토콜을 포함할 수도 있다.
도 20e에 도시된 바와 같이, RAN(2005)은 코어 네트워크(2009)에 연결될 수도 있다. RAN(2005)과 코어 네트워크(2009) 사이의 통신 링크는, 예를 들면, 데이터 전송 및 이동성 관리 성능을 용이하게 하기 위한 프로토콜을 포함하는 R3 기준 포인트로서 정의될 수도 있다. 코어 네트워크(2009)는 모바일 IP 홈 에이전트(mobile IP home agent; MIP-HA)(2084), 인증, 인가, 어카운팅(authentication, authorization, accounting; AAA) 서버(2086), 및 게이트웨이(2088)를 포함할 수도 있다. 상기 엘리먼트의 각각이 코어 네트워크(2009)의 일부로서 묘사되지만, 이들 엘리먼트 중 임의의 하나는 코어 네트워크 오퍼레이터 이외의 엔티티에 의해 소유되고 및/또는 그 엔티티에 의해 운영될 수도 있다는 것을 알 수 있을 것이다.
MIP-HA는 IP 어드레스 관리를 담당할 수도 있고, WTRU(2002a, 2002b, 2002c)가 상이한 ASN 및/또는 상이한 코어 네트워크 사이에서 로밍하는 것을 가능하게 할 수도 있다. MIP-HA(2084)는, WTRU(2002a, 2002b, 2002c)와 IP 대응 디바이스 사이의 통신을 용이하게 하기 위해, 패킷 교환 네트워크, 예컨대 인터넷(2010)에 대한 액세스를 WTRU(2002a, 2002b, 2002c)에게 제공할 수도 있다. AAA 서버(2086)는 유저 인증 및 유저 서비스 지원을 담당할 수도 있다. 게이트웨이(2088)는 다른 네트워크와의 네트워킹을 용이하게 할 수도 있다. 예를 들면, 게이트웨이(2088)는, WTRU(2002a, 2002b, 2002c)와 전통적인 지상 회선 통신 디바이스 사이의 통신을 용이하게 하기 위해, PSTN(2008)과 같은 회선 교환 네트워크에 대한 액세스를 WTRU(2002a, 2002b, 2002c)에게 제공할 수도 있다. 또한, 게이트웨이(2088)는, 다른 서비스 공급자에 의해 소유되는 및/또는 다른 서비스 공급자에 의해 운영되는 다른 유선 또는 무선 네트워크를 포함할 수도 있는 네트워크(2012)에 대한 액세스를 WTRU(2002a, 2002b, 2002c)에게 제공할 수도 있다.
도 20e에 도시되지 않지만, RAN(2005)은 다른 ASN에 연결될 수도 있고 코어 네트워크(2009)는 다른 코어 네트워크에 연결될 수도 있다는 것을 알 수 있을 것이다. RAN(2005)과 다른 ASN 사이의 통신 링크는 R4 기준 포인트로서 정의될 수도 있는데, R4 기준 포인트는 RAN(2005)과 다른 ASN 사이에서 WTRU(2002a, 2002b, 2002c)의 이동성을 조정하기(coordinating) 위한 프로토콜을 포함할 수도 있다. 코어 네트워크(2009)와 다른 코어 네트워크 사이의 통신 링크는 R5 기준으로서 정의될 수도 있는데, R5 기준은 홈 코어 네트워크와 방문 코어 네트워크(visited core network) 사이에서의 상호연동(interworking)을 용이하게 하기 위한 프로토콜을 포함할 수도 있다.
상기에서 설명되는 프로세스는, 컴퓨터 또는 프로세서에 의한 실행을 위해 컴퓨터 판독가능 매체에 통합되는 컴퓨터 프로그램, 소프트웨어, 또는 펌웨어로 구현될 수도 있다. 컴퓨터 판독가능 매체의 예는 전자 신호(유선 또는 무선 연결을 통해 송신됨) 및 컴퓨터 판독가능 저장 매체를 포함한다. 컴퓨터 판독가능 저장 매체의 예는, 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 레지스터, 캐시 메모리, 반도체 메모리 디바이스, 내장 하드 디스크 및 착탈식 디스크와 같은 자기 매체, 광자기 매체, 및 CD-ROM 디스크 및 디지털 다기능 디스크(digital versatile disk; DVD)와 같은 광학 매체를 포함하지만, 이들에 한정되는 것은 아니다. 소프트웨어와 연관된 프로세서는, WTRU, UE, 단말, 기지국, RNC, 또는 임의의 호스트 컴퓨터에서 사용하기 위한 무선 주파수 트랜시버를 구현하기 위해 사용될 수도 있다.

Claims (20)

  1. 비디오 디바이스로서,
    프로세서를 포함하고, 상기 프로세서는,
    제 2 시간 인스턴스(time instance)에 의해 특징지어지는 제 2 베이스 레이어 화상(base layer picture)과 연관된 베이스 레이어 모션 정보에 기반하여 제 1 시간 인스턴스를 결정하고,
    상기 제 1 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상(enhancement layer picture)의 블록으로부터 상기 제 1 시간 인스턴스에 의해 특징지어지는 제 1 베이스 레이어 화상의 블록을 감산하여 상기 제 1 시간 인스턴스에 의해 특징지어지는 차동 블록(differential block)을 생성하고,
    상기 차동 블록 상에 모션 보상을 수행하고,
    상기 제 2 시간 인스턴스에 의해 특징지어지는 상기 제 2 베이스 레이어 화상의 블록에 상기 모션 보상된 차동 블록을 가산하여 상기 제 2 시간 인스턴스에 의해 특징지어지는 향상된 레이어간 참조(enhanced inter-layer reference; E-ILR) 블록을 생성하도록 구성되는 것인 비디오 디바이스.
  2. 제 1 항에 있어서,
    상기 제 1 베이스 레이어 화상의 블록은 상기 제 1 베이스 레이어 화상의 업샘플링된 블록이고,
    상기 제 2 베이스 레이어 화상의 블록은 상기 제 2 베이스 레이어 화상의 업샘플링된 블록인 것인 비디오 디바이스.
  3. 제 1 항에 있어서,
    상기 프로세서는 상기 제 2 베이스 레이어 화상의 블록에 상기 모션 보상된 차동 블록을 가산하여 상기 E-ILR 블록을 생성하기 이전에, 상기 모션 보상된 차동 블록에 가중치를 곱하도록 구성되는 것인 비디오 디바이스.
  4. 제 3 항에 있어서,
    상기 가중치는 0보다 크거나 같고 1보다 작거나 같은 것인 비디오 디바이스.
  5. 제 1 항에 있어서,
    상기 프로세서는 상기 제 2 베이스 레이어 화상의 블록에 상기 모션 보상된 차동 블록을 가산하여 상기 E-ILR 블록을 생성하기 이전에, 상기 모션 보상된 차동 블록에 오프셋을 가산하도록 구성되는 것인 비디오 디바이스.
  6. 제 1 항에 있어서,
    상기 모션 보상은 상기 제 2 베이스 레이어 화상의 블록과 연관된 상기 베이스 레이어 모션 정보를 사용하여 상기 차동 블록 상에 수행되는 것인 비디오 디바이스.
  7. 제 6 항에 있어서,
    상기 베이스 레이어 모션 정보는 모션 정보 클래스 및 모션 벡터 중 하나 이상을 포함하는 것인 비디오 디바이스.
  8. 제 1 항에 있어서,
    상기 프로세서는 상기 E-ILR 블록을 포함하는 상기 제 2 시간 인스턴스에 의해 특징지어지는 E-ILR 화상을 생성하도록 구성되는 것인 비디오 디바이스.
  9. 제 8 항에 있어서,
    상기 프로세서는 상기 E-ILR 화상을 사용하여 상기 제 2 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상을 예측하도록 구성되는 것인 비디오 디바이스.
  10. 비디오 디바이스로서,
    프로세서를 포함하고, 상기 프로세서는,
    제 2 시간 인스턴스에 의해 특징지어지는 제 2 베이스 레이어 화상과 연관된 베이스 레이어 모션 정보에 기반하여 제 1 시간 인스턴스를 결정하고,
    상기 제 2 베이스 레이어 화상의 블록으로부터 상기 제 1 시간 인스턴스에 의해 특징지어지는 제 1 베이스 레이어 화상의 모션 보상 블록을 감산하여 잔차(residual) 블록을 생성하고,
    상기 제 1 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상의 모션 보상된 블록에 상기 잔차 블록을 가산하여 상기 제 2 시간 인스턴스에 의해 특징지어지는 향상된 레이어간 참조(E-ILR) 블록을 생성하도록 구성되는 것인 비디오 디바이스.
  11. 제 10 항에 있어서,
    상기 제 1 베이스 레이어 화상의 블록은 상기 제 1 베이스 레이어 화상의 업샘플링된 블록이고,
    상기 제 2 베이스 레이어 화상의 블록은 상기 제 2 베이스 레이어 화상의 업샘플링된 블록인 것인 비디오 디바이스.
  12. 제 10 항에 있어서,
    상기 프로세서는 상기 향상 레이어 화상의 모션 보상된 블록에 상기 잔차 블록을 가산하여 상기 E-ILR 블록을 생성하기 이전에, 상기 잔차 블록에 가중치를 곱하도록 구성되는 것인 비디오 디바이스.
  13. 제 10 항에 있어서,
    상기 프로세서는 상기 향상 레이어 화상의 모션 보상된 블록에 상기 잔차 블록을 가산하여 상기 E-ILR 블록을 생성하기 이전에, 상기 잔차 블록에 오프셋을 가산하도록 구성되는 것인 비디오 디바이스.
  14. 제 10 항에 있어서,
    상기 프로세서는 상기 제 2 베이스 레이어 화상의 블록과 연관된 상기 베이스 레이어 모션 정보를 사용하여, 상기 제 1 베이스 레이어 화상의 블록 상에 모션 보상을 수행하여 상기 제 1 베이스 레이어 화상의 모션 보상된 블록을 생성하도록 구성되는 것인 비디오 디바이스.
  15. 제 10 항에 있어서,
    상기 프로세서는 상기 E-ILR 블록을 포함하는 상기 제 2 시간 인스턴스에 의해 특징지어지는 E-ILR 화상을 생성하도록 구성되는 것인 비디오 디바이스.
  16. 제 15 항에 있어서,
    상기 프로세서는 상기 E-ILR 화상을 사용하여 상기 제 2 시간 인스턴스에 의해 특징지어지는 향상 레이어 화상을 예측하도록 구성되는 것인 비디오 디바이스.
  17. 비디오 디바이스로서,
    프로세서를 포함하고, 상기 프로세서는,
    제 3 시간 인스턴스에 의해 특징지어지는 제 3 베이스 레이어 화상과 연관된 제 1 베이스 레이어 모션 정보에 기반하여 제 1 시간 인스턴스를 결정하고,
    상기 제 3 시간 인스턴스에 의해 특징지어지는 상기 제 3 베이스 레이어 화상과 연관된 제 2 베이스 레이어 모션 정보에 기반하여 제 2 시간 인스턴스를 결정하고,
    상기 제 1 시간 인스턴스에 의해 특징지어지는 제 1 베이스 레이어 화상의 블록 및 상기 제 2 시간 인스턴스에 의해 특징지어지는 제 2 베이스 레이어 화상의 블록을 사용하여 상기 제 3 시간 인스턴스에 의해 특징지어지는 향상된 레이어간 참조(E-ILR) 블록을 생성하도록 구성되는 것인 비디오 디바이스.
  18. 제 17 항에 있어서,
    상기 E-ILR 블록을 생성하도록 구성되는 상기 프로세서는,
    상기 제 2 베이스 레이어 화상의 블록에 상기 제 1 베이스 레이어 화상의 블록을 가산하여, 결합된 베이스 레이어 블록을 생성하고,
    상기 결합된 베이스 레이어 블록을 2로 나누어 평균치의(averaged) 베이스 레이어 블록을 생성하고,
    상기 제 2 시간 인스턴스에 의해 특징지어지는 제 2 향상 레이어 화상의 블록에 상기 제 1 시간 인스턴스에 의해 특징지어지는 제 1 향상 레이어 화상의 블록을 가산하여, 결합된 향상 레이어 블록을 생성하고,
    상기 결합된 베이스 레이어 블록을 2로 나누어 평균치의 향상 레이어 블록을 생성하고,
    상기 평균치의 향상 레이어 블록으로부터 상기 평균치의 베이스 레이어 블록을 감산하여 차동 블록을 생성하고,
    상기 제 3 베이스 레이어 화상의 블록에 상기 차동 블록을 가산하여 상기 E-ILR 블록을 생성하도록 구성되는 프로세서를 포함하는 것인 비디오 디바이스.
  19. 제 18 항에 있어서,
    상기 제 1 베이스 레이어 화상의 블록은 상기 제 1 베이스 레이어 화상의 업샘플링된 블록이고,
    상기 제 2 베이스 레이어 화상의 블록은 상기 제 2 베이스 레이어 화상의 업샘플링된 블록이며,
    상기 제 3 베이스 레이어 화상의 블록은 상기 제 3 베이스 레이어 화상의 업샘플링된 블록인 것인 비디오 디바이스.
  20. 제 18 항에 있어서,
    상기 프로세서는 상기 제 3 베이스 레이어 화상의 블록에 상기 차동 블록을 가산하여 상기 E-ILR 블록을 생성하기 이전에, 상기 차동 블록에 가중치를 곱하도록 구성되는 것인 비디오 디바이스.
KR1020157031763A 2013-04-05 2014-04-04 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화 KR101915156B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361809115P 2013-04-05 2013-04-05
US61/809,115 2013-04-05
US201361812687P 2013-04-16 2013-04-16
US61/812,687 2013-04-16
US201361845318P 2013-07-11 2013-07-11
US61/845,318 2013-07-11
PCT/US2014/032904 WO2014165721A1 (en) 2013-04-05 2014-04-04 Inter-layer reference picture enhancement for multiple layer video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020187031068A Division KR102118524B1 (ko) 2013-04-05 2014-04-04 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화

Publications (2)

Publication Number Publication Date
KR20150140744A true KR20150140744A (ko) 2015-12-16
KR101915156B1 KR101915156B1 (ko) 2018-11-06

Family

ID=50733377

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020157031763A KR101915156B1 (ko) 2013-04-05 2014-04-04 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화
KR1020187031068A KR102118524B1 (ko) 2013-04-05 2014-04-04 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020187031068A KR102118524B1 (ko) 2013-04-05 2014-04-04 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화

Country Status (7)

Country Link
US (1) US10708605B2 (ko)
EP (2) EP2982117B1 (ko)
JP (2) JP6360154B2 (ko)
KR (2) KR101915156B1 (ko)
CN (2) CN105122805B (ko)
TW (1) TW201511526A (ko)
WO (1) WO2014165721A1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2997732A1 (en) * 2013-05-15 2016-03-23 VID SCALE, Inc. Single loop decoding based inter layer prediction
FR3008840A1 (fr) * 2013-07-17 2015-01-23 Thomson Licensing Procede et dispositif de decodage d'un train scalable representatif d'une sequence d'images et procede et dispositif de codage correspondants
US20150195549A1 (en) * 2014-01-08 2015-07-09 Qualcomm Incorporated Support of non-hevc base layer in hevc multi-layer extensions
US10390087B2 (en) 2014-05-01 2019-08-20 Qualcomm Incorporated Hypothetical reference decoder parameters for partitioning schemes in video coding
US20160064039A1 (en) * 2014-08-26 2016-03-03 Microsoft Corporation Thumbnail Generation
US20190191191A1 (en) * 2017-12-19 2019-06-20 Western Digital Technologies, Inc. Hybrid techniques for content distribution with edge devices
US10742736B2 (en) 2017-12-19 2020-08-11 Western Digital Technologies, Inc. Integrated erasure coding for data storage and transmission
US10720124B2 (en) * 2018-01-15 2020-07-21 Microsoft Technology Licensing, Llc Variable pixel rate display interfaces
US11544830B2 (en) 2018-01-23 2023-01-03 Imax Corporation Enhancing image data with appearance controls
WO2019168673A1 (en) * 2018-02-27 2019-09-06 Magic Leap, Inc. Matching meshes for virtual avatars
KR102030630B1 (ko) * 2018-04-30 2019-11-08 서울과학기술대학교 산학협력단 하이브리드 망 기반의 스테레오스코픽 3차원 360도 가상 현실 서비스 제공 시스템
BR112021006706A2 (pt) * 2018-10-09 2021-07-27 V-Nova International Limited decodificador de aprimoramento para sinais de vídeo com melhoria de múltiplos níveis e ajuste de formato de codificação
WO2020084506A1 (en) 2018-10-23 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Harmonized local illumination compensation and intra block copy coding
CN116939198A (zh) 2018-10-23 2023-10-24 北京字节跳动网络技术有限公司 并置的局部照明补偿和修改的帧间预测编解码
US20200186795A1 (en) * 2018-12-07 2020-06-11 Beijing Dajia Internet Information Technology Co., Ltd. Video coding using multi-resolution reference picture management
CN113475072B (zh) * 2019-03-04 2023-12-15 北京字节跳动网络技术有限公司 视频处理中滤波信息的信令
CN111726632B (zh) * 2019-03-18 2022-08-26 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
US20230052774A1 (en) * 2019-12-05 2023-02-16 Electronics And Telecommunications Research Institute Method, apparatus, and recording medium for region-based differential image encoding/decoding
US11677934B2 (en) * 2021-09-24 2023-06-13 Apple Inc. Encoding and decoding video content

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3788823B2 (ja) * 1995-10-27 2006-06-21 株式会社東芝 動画像符号化装置および動画像復号化装置
JP2002315004A (ja) * 2001-04-09 2002-10-25 Ntt Docomo Inc 画像符号化方法及び装置、画像復号方法及び装置、並びに画像処理システム
US7903742B2 (en) 2002-07-15 2011-03-08 Thomson Licensing Adaptive weighting of reference pictures in video decoding
WO2006006793A1 (en) * 2004-07-15 2006-01-19 Samsung Electronics Co., Ltd. Video encoding and decoding methods and video encoder and decoder
DE102004059993B4 (de) 2004-10-15 2006-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium
KR100746006B1 (ko) * 2005-07-19 2007-08-06 삼성전자주식회사 계층적 구조에 적합하게 시간적 다이렉트 모드로인코딩하며, 디코딩하는 방법 및 장치
JP2009512306A (ja) 2005-10-11 2009-03-19 ノキア コーポレイション スケーラブルビデオコーディングのためのデコードされたピクチャーの効率的なバッファマネージメント
JP5587552B2 (ja) * 2005-10-19 2014-09-10 トムソン ライセンシング スケーラブル映像符号化を用いた多視点映像符号化
WO2007080480A2 (en) 2006-01-09 2007-07-19 Nokia Corporation Error resilient mode decision in scalable video coding
EP1933563A1 (en) * 2006-12-14 2008-06-18 Thomson Licensing Method and apparatus for encoding and/or decoding bit depth scalable video data using adaptive enhancement layer residual prediction
US8711948B2 (en) * 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
JP5044518B2 (ja) * 2008-09-17 2012-10-10 株式会社東芝 画像処理装置及びコンピュータ端末
WO2010044757A1 (en) * 2008-10-17 2010-04-22 Agency For Science, Technology And Research Method for encoding a digital picture, encoder, and computer program element
EP2394432A4 (en) * 2009-02-03 2016-12-14 Thomson Licensing METHODS AND APPARATUS FOR MOTION COMPENSATION WITH SMOOTH REFERENCE IMAGE IN BIT DEPTH EXTENSIBILITY
EP3001683A3 (en) * 2011-04-15 2016-04-06 SK Planet Co., Ltd. High speed scalable video coding device and method using multi-track video
GB2492396A (en) * 2011-06-30 2013-01-02 Canon Kk Decoding a Scalable Video Bit-Stream
JP5830993B2 (ja) 2011-07-14 2015-12-09 ソニー株式会社 画像処理装置及び画像処理方法
JP2013042225A (ja) * 2011-08-11 2013-02-28 Jvc Kenwood Corp 動画像復号装置、動画像復号方法及び動画像復号プログラム
CN110035286B (zh) 2012-07-09 2021-11-12 Vid拓展公司 用于多层视频编码的编解码器架构
US9357211B2 (en) * 2012-12-28 2016-05-31 Qualcomm Incorporated Device and method for scalable and multiview/3D coding of video information
US20140254681A1 (en) * 2013-03-08 2014-09-11 Nokia Corporation Apparatus, a method and a computer program for video coding and decoding

Also Published As

Publication number Publication date
JP2018174566A (ja) 2018-11-08
EP2982117B1 (en) 2018-07-25
EP3410715A1 (en) 2018-12-05
US10708605B2 (en) 2020-07-07
JP6360154B2 (ja) 2018-07-18
JP2016535465A (ja) 2016-11-10
KR102118524B1 (ko) 2020-06-09
CN110855994B (zh) 2023-09-19
KR20180120788A (ko) 2018-11-06
CN105122805A (zh) 2015-12-02
US20160065976A1 (en) 2016-03-03
CN105122805B (zh) 2019-10-15
CN110855994A (zh) 2020-02-28
EP2982117A1 (en) 2016-02-10
KR101915156B1 (ko) 2018-11-06
WO2014165721A1 (en) 2014-10-09
JP6592145B2 (ja) 2019-10-16
TW201511526A (zh) 2015-03-16

Similar Documents

Publication Publication Date Title
JP6592145B2 (ja) 多重レイヤビデオコーディングに対するインターレイヤ基準画像エンハンスメント
JP6574223B2 (ja) 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
US20210250592A1 (en) Intra block copy mode for screen content coding
TWI660621B (zh) 視訊解碼及編碼方法
CN108322744B (zh) 用于可缩放的高效视频译码(hevc)的参考图片集(rps)信令
US10277909B2 (en) Single loop decoding based interlayer prediction
KR101840915B1 (ko) 스케일러블 비디오 코딩을 위한 모션 정보 시그널링
US20190014333A1 (en) Inter-layer prediction for scalable video coding
TW201735641A (zh) 使用適應性濾波增強運動補償系統及方法
KR20160058163A (ko) 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant