KR20090108073A - 비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측 - Google Patents

비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측 Download PDF

Info

Publication number
KR20090108073A
KR20090108073A KR1020097016451A KR20097016451A KR20090108073A KR 20090108073 A KR20090108073 A KR 20090108073A KR 1020097016451 A KR1020097016451 A KR 1020097016451A KR 20097016451 A KR20097016451 A KR 20097016451A KR 20090108073 A KR20090108073 A KR 20090108073A
Authority
KR
South Korea
Prior art keywords
motion vector
block
partition
blocks
vector information
Prior art date
Application number
KR1020097016451A
Other languages
English (en)
Other versions
KR101165212B1 (ko
Inventor
시앙린 왕
저스틴 릿지
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Priority claimed from PCT/IB2008/050022 external-priority patent/WO2008084423A1/en
Publication of KR20090108073A publication Critical patent/KR20090108073A/ko
Application granted granted Critical
Publication of KR101165212B1 publication Critical patent/KR101165212B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

확장된 공간 스케일러빌러티 경우에 있어서 모션 벡터들에 대해 인터-계층 예측을 개선시킬 뿐만 아니라, 비디오 코딩에서 확장된 공간 스케일러빌러티를 위해 개선된 인터-계층 예측을 제공하기 위한 시스템 및 방법을 제공한다. 다양한 실시 예들에서, 매크로블록 모드의 예측을 위해, 베이스 계층으로부터의 실제 레퍼런스 프레임 인덱스 및 모션 벡터들이 2개의 블록들이 병합되어야 하는지 결정하기 위해 사용된다. 또한 4 x 4 블록의 다수개의 대표적인 픽셀들이 가상 베이스 계층 매크로블록의 각각의 4 x 4 블록을 표현하기 위해 사용될 수 있다. 가상 베이스 계층 매크로블록 내의 관련 블록용 파티션 및 모션 벡터 정보가, 4 x 4 블록들의 파티션 및 모션 벡터들 모두로부터 얻어질 수 있다.

Description

비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측{Improved inter-layer prediction for extended spatial scalability in video coding}
본 발명은 개괄적으로, 비디오 코딩 분야에 관한 것이다. 보다 상세하게는, 본 발명은 확장된 공간 스케일러빌러티를 지원하는 스케일러블 비디오 코딩에 관련된다.
이 섹션에서는 청구항에서 상술된 본 발명에 대한 배경기술 또는 컨텍스트(context)를 제공하려고 한다. 여기에서의 설명은 추구될 수 있지만, 반드시 이전에 생각되거나 추구되었던 것들은 아닌 개념들을 포함할 수도 있다. 그러므로, 여기에서 달리 표시되지 않으면, 이 섹션에서 기술된 것은 이 출원에서의 설명 및 청구항들에 대한 선행기술이 아니고 이 섹션에 포함됨으로 인해 선행기술인 것으로 인정되는 것은 아니다.
상이한 표준들이 상이한 기술들을 위해 측정되었다. 비디오 코딩 표준들은 ITU-T H.261, ISO/IEC MPEG-I 비주얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비주얼, ITU-T H.263, ISO/IEC MPEG-4 비주얼 및 ITU-T H.264 (ISO/IEC MPEG-4 AVC(Advanced Video Coding) 또는, 약어로, H.264/ AVC로 또한 알려짐)를 포함한 다. 또한 새로운 비디오 코딩 표준들을 개발하려는 노력 중에 있다. 개발 중인 이런 표준은 H.264/AVC에 대한 스케일러블 확장판이 될, 스케일러블 비디오 코딩(scalable video coding : SVC, 이하 SVC로 표기함)이다. SVC의 최신 드래프트는 H.264/ 개선된 비디오 코딩(Advanced Video Coding: AVC, 이하 AVC로 표기함) 표준의 아넥스(Annex) F(지금은 아넥스 G)이다. 특히 아넥스 F는, 베이스(base) 계층 매크로블록(macroblock: MB, 이하 MB로 표기) 및 인핸스먼트(enhancement) 계층 매크로블록의 에지 정렬(alignment)이 유지되지 않는 상황들에서 신호들의 인코딩 및 디코딩을 위해 제공되는, 확장된 공간 스케일러빌러티(extended spatial scalability : ESS, 이하 ESS로 표기함)로 알려진 특징을 포함한다. 공간(spatial) 스케일링이 1 또는 2의 비율(ratio)로 수행되고, 매크로블록 에지가 상이한 계층들을 통해 정렬될 때, 공간 스케일러빌러티(scalability)의 특별한 케이스로 간주된다.
예컨대 다이애딕(dyadic) 해상도 스케일링(2 거듭제곱의 스케일링 해상도)일 때, 매크로블록들의 에지 정렬이 유지될 수 있다. 이 현상은 왼쪽의 반(half) 해상도 프레임(베이스 계층 프레임(1000))이 오른쪽의 풀(full) 해상도 버전의 프레임(인핸스먼트 계층 프레임(1100))을 제공하기 위해 업샘플링되는 도 1에 도해된다. 베이스 계층 프레임(1000) 내의 매크로블록 MB0를 보면, 업샙플링 이후의 이 매크로블록의 경계선이 인핸스먼트 계층 프레임(1100) 내의 외부 경계선으로 보여진다. 이 상황에서, 업샘플링된 매크로블록이 인핸스먼트 계층의 정확히 4개의 풀-해상도 매크로블록들-MB1, MB2, MB3, MB4-를 포함하고 있다는 것을 주목해야 한다. 4개의 인핸스먼트 계층의 매크로블록들 MB1, MB2, MB3, MB4의 에지들은 매크로블록 MB0의 업샘플링된 경계선과 정확히 일치한다. 확인되는 베이스 계층 매크로블록이 인핸스먼트 계층의 매크로블록들 MB1, MB2, MB3, MB4의 각각을 커버하는 오직 하나의 베이스 계층 매크로블록이라는 것이 중요하다. 환언하면, 어떤 다른 베이스 계층 매크로블록도 MB1, MB2, MB3, MB4의 예측을 하기 위해 필요하지 않다.
한편 비-다이애딕 스케일러빌러티의 경우에, 상황이 상당히 다르다. 이는 스케일링 인자가 1.5인 도 2에 도해된다. 이 경우에, 베이스 계층 프레임(100) 내의 베이스 계층 매크로블록들 MB10 및 MB20이 상위 해상도 인핸스먼트 계층 프레임(110) 내의 16 x 16으로부터 24 x 24까지 업샘플링된다. 그러나 인핸스먼트 계층 매크로블록 MB30을 고려했을 때, 이 매크로블록은 2개의 상이한 업 샘플링된 매크로블록들-MB10 및 MB20 -에 의해 커버된다는 것이 명확하게 관찰가능하다. 따라서 2개의 베이스-계층 매크로블록들 MB10 및 MB20이 인핸스먼트 계층 MB30에 대한 예측을 하기 위해 요구된다. 사실상, 사용되는 스케일링 인자에 의존하여, 단일 인핸스먼트 계층 매크로블록이 최대 4개의 기본 계층 매크로블록들에 의해 커버될 수 있다.
H.264/AVC 표준의 아넥스 F의 현재 드래프트에서, 다수의 베이스 계층 매크로블록들이 예측을 형성하기 위해 필요할 수 있더라도, 인핸스먼트 계층 매크로블록이 연관된 베이스 계층 프레임에 관련되어 코딩되는 것이 가능하다. 코딩 효율성 이 예측 정확도와 밀접하게 관련 있기 때문에, 코딩 효율성을 향상시키기 위해서 인핸스먼트 계층 매크로블록의 정확한 예측을 하는 것이 바람직하다.
H.264/AVC 표준의 아넥스 F의 현재 드래프트에서, 현재 인핸스먼트 계층 매크로블록의 다수의 양상들이 그것의 대응하는 베이스 계층 매크로블록들로부터 예측될 수 있다. 예컨대 베이스 계층으로부터의 인트라-코딩된(intra-coded) 매크로블록들(인트라-매크로블록들 또는 인트라-MB들로 또한 지칭됨)이 전체적으로 디코딩되고 재구성되어서, 그것들이 업샘플링될 수 있고 대응 인핸스먼트 계층에서 휘도(luminance) 및 색차(chrominance) 픽셀 값들을 직접적으로 예측하기 위해 사용되도록 할 수 있다. 또한 베이스 계층으로부터의 인터-코딩된 매크로블록들(인터-매크로블록들 또는 인터-MB들로 지칭됨)이 전체적으로 재구성되지 않는다. 대신에 각각의 베이스 계층 인터-MB의 예측 레지듀얼(residual)만이 디코딩되고, 그리고 인핸스먼트 계층 예측 레지듀얼(residual)을 예측하기 위해 사용될 수 있지만, 어떤 모션 보상(motion compensation)도 베이스 계층 인터-MB에서 수행되지 않는다. 이것은 '레지듀얼 예측'으로 지칭된다. 또한 인터-MB들의 경우에, 베이스 계층 모션 벡터들이 또한 업샘플링되고, 인핸스먼트 계층 모션 벡터들을 예측하기 위해 사용된다.
상술에 더하여, H.264/AVC 표준의 아넥스 F에서, base _ mode _ flag이라고 불리는 플래그가 각각의 인핸스먼트 계층 매크로블록을 위해 정의된다. 이 플래그가 1과 동일할 때, 인핸스먼트 계층의 매크로블록의 유형, 모드 및 모션 벡터들이 베이스 계층 MB(들)로부터 완전히-예측되어야 한다(추론되어야 한다). 베이스 계층 MB(들)로부터 인핸스먼트 계층 매크로블록의 매크로블록 유형, 모드, 및 모션 벡터들을 얻기 위한 동일한 방법이 인코더 및 디코더 모두에 알려져있기 때문에, 이 경우에 매크로블록의 모션 벡터 정보뿐만 아니라, 매크로블록 유형 및 모드를 비트스트림으로 더 코딩할 필요가 없다. base _ mode _ flag가 0과 동일하다면, 인핸스먼트 계층 매크로블록의 매크로블록 유형 및 모드 정보가 추론되지 않는다.
위에서 논의되는 것과 같이, 인핸스먼트 계층 매크로블록의 매크로블록 유형 및 모든 정보가 일정한 상황들에서 그것의 베이스 계층 MB(들)로부터 완전히 예측될 수 있다. H.264/AVC 표준의 아넥스 F의 현재 드래프트에 따라, 인핸스먼트 계층 매크로블록들이 베이스 계층 매크로블록들과 에지-정렬되지 않을 때, 각각의 인핸스먼트 계층 매크로블록들을 위해서, 가상 베이스 계층 매크로블록이 인핸스먼트 계층 매크로블록을 커버하는 베이스 계층 매크로블록들에 기초하여 얻어진다. 가상 베이스 계층 매크로블록의 유형, 모드 및 모션 벡터들이 베이스 계층 MB(들)에 기초하여 모두 결정된다. 그 다음에 가상 베이스 계층 매크로블록은 이 인핸스먼트 계층 매크로블록을 정확히 커버하는 베이스 계층으로부터의 오직 하나의 매크로블록으로 간주될 것이다. base_mode_flag가 현재 인핸스먼스 계층 매크로블록에 대해서 1과 동일하다면, 그것의 유형, 모드, 및 모션 벡터들이 가상 베이스 계층 매크로블록의 유형, 모드, 및 모션 벡터들과 동일하게 설정된다.
가상 베이스 계층 매크로블록의 유형, 모드, 및 모션 벡터들을 결정하기 위한 H.264/AVC 표준의 아넥스 F의 현재 드래프트에서 정의된 방법은 바톰-업(bottom-up) 프로세스이다. 우선 가상 베이스 계층 매크로블록의 각각의 4 x 4 블록을 위해서 블록 내의 두 번째 로우(row) 및 두 번째 칼럼 내에 위치된 하나의 픽셀이 도 3에 도시된 블록의 대표적인 포인트로서 사용된다. 도 3에서 매크로블록이 도면부호 300으로 표현된다. 매크로블록 내의 4 x 4 블록들은 도면부호 310에서 표현되고, 각각의 4 x 4 블록 내의 대표적인 픽셀이 도면 부호 320으로 표현된다. 가상 베이스 계층 매크로블록의 각각의 4 x 4 블록의 하나의 픽셀의 사용은, 가상 베이스 계층 매크로블록 내의 현재 4 x 4 블록이 베이스 계층으로부터의 오직 하나의 4 x 4 블록에 의해서 커버될 때 간단하다는 이점을 갖는다. 그러나 가상 베이스 계층 매크로블록 내의 현재 4 x 4 블록이 베이스 계층으로부터의 다수의 4 x 4 블록들에 의해 커버될 때, 이런 방법이 정확하지 않을 수 있다.
도 4(a) 및 도 4(b)는 가상 베이스 계층 매크로블록(300) 및 대응 베이스 계층 매크로블록(들) 간의 관계를 도시한다. 업샘플링 이후에, 베이스 계층 내의 영역이 현재 인핸스먼트 계층 매크로블록을 정확히 커버하는 것이 도 4(b)에 도면부호 410에서 표현된다. 이것은 가상 베이스 계층 매크로블록(300)에 대응하는 영역이기도하다. 가상 베이스 계층 매크로블록(300) 내의 4 x 4 블록 내의 대표적인 픽셀이 pe로 라벨이 붙여진다. 베이스 계층의 대응 픽셀은 pb이다. H.264/AVC 표준의 아넥스 F의 현재 드래프트에 따라, pb가 위치되어 있는, 도 4(b)에서 도면부호 420으로 표기된 베이스 계층의 4 x 4 블록의 매크로블록 파티션(partition) 정보가, pe가 위치되어 있는 인핸스먼트 계층의 4 x 4 블록을 위한 파티션 정보로서 사용된다. 환언하면, 픽셀 pe를 커버하는 베이스 계층의 4 x 4 블록의 매크로블록 파티 션(partition) 정보가, pe가 위치되어 있는 4 x 4 블록을 위한 파티션 정보로서 사용된다. 이런 방식으로 가상 베이스 계층 매크로블록(300) 내의 각각의 4 x 4 블록이 파티션 정보를 구비할 수 있다. 파티션 정보와 연관된 모션 벡터들이 또한 인핸스먼트 계층 모션 벡터들을 위한 예측자(predictor)들로서 또한 사용된다.
가상 베이스 계층 매크로블록 내의 4개의 8 x 8 블록들의 각각 내에서, 블록 병합(merging) 프로세스가 4 x 4 블록 레벨에서 활성화된다. 도 5에서 도시되는 것과 같이, 블록 1, 블록 2, 블록 3, 및 블록 4가 모두 베이스 계층의 동일한 단일 파티션으로부터 자신의 파티션을 얻는다면, 8 x 8 블록 모드가 8 x 8로서 설정된다. 그렇지 않고, 블록 1 및 블록 2가 베이스 계층의 동일한 하나의 파티션으로부터 자신의 파티션을 얻고, 블록 3 및 블록 4가 또한 베이스 계층의 또 다른 동일한 하나의 파티션으로부터 자신의 파티션을 얻는다면, 8 x 8 블록 모드가 8 x 4로서 설정된다. 유사하게 블록 1 및 블록 3이 베이스 계층의 동일한 하나의 파티션으로부터 자신의 파티션을 얻고, 블록 2 및 블록 4가 또한 베이스 계층의 또 다른 동일한 하나의 파티션으로부터 자신의 파티션을 얻는다면, 8 x 8 블록 모드가 4 x 8로서 설정된다. 그렇지 않다면 8 x 8 블록 모드가 4 x 4로서 설정된다. 이 프로세스는 나머지 3개의 8 x 8 블록들 전부 내에서 개별적으로 반복된다.
모든 4개의 8 x 8 블록들이 8 x 8 모드에 있다면, 블록 합병 프로세스가 도 6에 도시된 것과 같이 8 x 8 블록 레벨에서 수행된다. 도 6에서, 블록 1, 블록 2, 블록 3, 및 블록 4 모두가 8 x 8 블록을 표현한다. 블록 1, 블록 2, 블록 3, 및 블 록 4 모두가 베이스 계층의 동일한 단일의 파티션으로부터 자신의 파티션을 얻는다면, 가상 베이스 계층 매크로블록의 모드가 16 x 16으로서 설정된다. 블록 1 및 블록 2가 동일한 파티션을 가지고, 블록 3 및 블록 4가 또한 베이스 계층의 동일한 파티션을 가진다면, 가상 베이스 계층 매크로블록의 모드가 16 x 8로서 설정된다. 블록 1 및 블록 3이 동일한 파티션을 가지고, 블록 2 및 블록 4가 또한 베이스 계층의 동일한 파티션을 가진다면, 가상 베이스 계층 매크로블록의 모드가 8 x 16으로서 설정된다. 그렇지 않다면 가상 베이스 계층 매크로블록의 모드가 8 x 8로서 설정된다.
H.264/AVC 표준의 아넥스 F의 현재 드래프트에 따라, 매크로블록 모드의 예측이 베이스 계층으로부터의 파티션 정보에만 기초한다. 이 배열에서, 블록들이 베이스 계층으로부터 동일한 파티션 정보를 공유할 때만, 블록들이 합병될 수 있다. 그러나 확장된 공간 스케일러빌러티의 경우에, 베이스 계층의 상이한 파티션들이 동일한 레퍼런스 프레임 인덱스 및 모션 벡터들을 갖는 것이 상당히 일반적이다. 예컨대 베이스 계층의 2개의 이웃하는 매크로블록들이 동일한 레퍼런스 프레임 인덱스 및 모션 벡터들을 가질 수 있다. 또한 확장된 공간 스케일러빌러티의 경우에, 인핸스먼트 계층 매크로블록이 베이스 계층의 다수의 매크로블록들에 의해 커버되는 것이 매우 일반적이다. 따라서 2개의 매크로블록들이 합병되어야 하는지 여부를 결정하는데 있어 오직 파티션 정보만의 사용이 매크로블록의 내부의 작은 파티션들을 생성하는데 종종 필수적이지 않다. 이런 작은 파티션들은 모션 보상에서 샘플 보간법(interpolation) 프로세스들 동안에 계산 복잡도를 증가시킨다.
상술한 것에 비추어, 확장된 공간 스케일러빌러티의 경우에 모션 벡터들 뿐만 아니라, 매크로블록 모드를 위한 개선된 인터-계층 예측을 위한 시스템을 제공하는 것이 바람직할 것이다.
본 발명의 다양한 실시 예들은 확장된 공간 스케일러빌러티에 관해 상술된 케이스에서 매크로블록 모드에 대해 인터-계층 예측을 개선시키기 위한 시스템 및 방법을 제공한다. 다양한 실시 예들이 또한 확장된 공간 스케일러빌러티의 케이스에서 모션 벡터들에 대해 인터-계층 예측을 향상시키기 위한 시스템 및 방법이 제공한다. 매크로블록 모드를 예측하기 위한 종래의 시스템은 베이스 계층으로부터의 파티션 정보에만 기초하고; 블록들이 베이스 계층으로부터 동일한 파티션 정보를 공유할 때만 블록들이 병합될 수 있다. 반면에 본 발명의 실시 예들에서, 병합 프로세스가 레퍼런스 프레임 인덱스 및 모션 벡터 정보에 의존하는 것으로 이뤄진다. 블록들이 베이스 계층으로부터 동일한 레퍼런스 프레임 인덱스 및 모션 벡터 정보를 공유할 때, 이런 블록들이 적절할 때 병합될 수 있다. 따라서 2개의 블록들이 베이스 게층의 상이한 파티션들을 갖더라도, 그 2개의 블록들이 함께 병합되는 것이 가능할 수 있다. 이 시스템 및 방법은 작은 블록 파티션들을 불필요하게 생성하는 것을 회피할 수 있고, 차례로 모션 보상의 보간법 프로세스에서 계산 복잡도를 감소시킬 것이다.
다양한 실시 예들이 스케일러블 비트스트림 내의 비디오 프레임의 적어도 일부를 나타내는 인핸스먼트 계층 블록을 인코딩하기 위한 방법, 컴퓨터 프로그램 제품, 및 장치를 제공하며, 여기서 복수의 레퍼런스 계층 블록들에 대응하는 복수의 레퍼런스 프레임 인덱스 값들에 적어도 부분적으로 기초하여 인핸스먼트 계층 블록의 파티션(partition)을 특정하는 코딩 모드 지시자(indicator)가 얻어지고, 이때 동일한 레퍼런스 프레임 인덱스를 갖는 레퍼런스 계층 블록들이 파티션 크기를 얻기 위해 병합된다. 코딩 모드 지시자를 이용하여 인핸스먼트 계층 블록이 인코딩된다. 실시 예들은 또한 스케일러블 비트스트림 내의 비디오 프레임의 적어도 일부를 나타내는 인핸스먼트 계층 블록을 디코딩하기 위한 방법, 컴퓨터 프로그램 제품, 및 장치를 제공하며, 여기서 복수의 레퍼런스 계층 블록들에 대응하는 복수의 레퍼런스 프레임 인덱스 값들에 적어도 부분적으로 기초하여 인핸스먼트 계층 블록의 파티션(partition)을 특정하는 코딩 모드 지시자가 얻어지고, 이때 동일한 레퍼런스 프레임 인덱스를 갖는 레퍼런스 계층 블록들이 파티션 크기를 얻기 위해 병합된다. 코딩 모드 지시자를 이용하여 인핸스먼트 계층 블록이 디코딩된다.
다양한 실시 예들이 스케일러블 비트스트림 내의 비디오 프레임의 적어도 일부를 나타내는 인핸스먼트 계층 블록을 인코딩하기 위한 방법, 컴퓨터 프로그램 제품, 및 장치를 제공하며, 여기서 복수의 레퍼런스 블록들 중 적어도 하나로부터의 파티션 및 모션 벡터 정보에 기초하여 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보가 얻어진다. 파티션 및 모션 벡터 정보를 이용하여 인핸스먼트 계층 블록이 인코딩된다. 여전히 다른 실시 예들이 스케일러블 비트스트림 내의 비디오 프레임의 적어도 일부를 나타내는 인핸스먼트 계층 블록을 디코딩하기 위한 방법, 컴퓨터 프로그램 제품, 및 장치를 제공하며, 여기서 복수의 레퍼런스 블록들 중 적어도 하나로부터의 파티션 및 모션 벡터 정보에 기초하여 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보가 얻어진다. 파티션 및 모션 벡터 정보를 이용하여 인핸스먼트 계층 블록이 디코딩된다.
본 발명의 또 하나의 실시 예에서 블록 병합 조건이 완화될 수 있다. 이 실시 예에서, 블록들이 동일한 레퍼런스 프레임 인덱스 및 유사한 모션 벡터들을 공유하는한, 이웃 블록들이 함께 병합될 수 있다. 병합된 더 큰 블록을 위한 모션 벡터들이 병합될(사전-병합) 블록들의 모션 벡터들로부터 얻어진다.
또한 가상 베이스 계층 매크로블록 내의 각각의 4 x 4 블록이 블록 내의 두 번째 로우 및 두 번째 칼럼 내에 위치된 단일의 픽셀에 의해 본질적으로 표현되는것이 통상적이고, 그리고 현재 블록을 위한 파티션 정보가, 대표적인 픽셀을 베이스 계층에 맵핑하고 그 다음에 베이스 계층에 4 x 4 블록을 위치시킴으로써 획득되었다. 반대로 본 발명의 다양한 실시 예들에서, 4 x 4 블록 내의 다수개의 대표적인 픽셀들이 블록을 표현하기 위해 사용될 수 있다. 다수개의 4 x 4 블록이 가상 베이스 계층 매크로블록 내의 현재 블록을 위해 베이스 계층에서 입수될 수 있을 때, 가상 베이스 계층 매크로블록 내의 현재 블록용 파티션 및 모션 벡터 정보가 4 x 4 블록들의 파티션 정보 및 모션 벡터들 모두로부터 얻어질 수 있다. 베이스 계층으로부터 모션 벡터 정보뿐만 아니라 파티션을 얻을 때 4 x 4 블록 내의 하나 이상의 대표적인 픽셀을 사용한다면, 인핸스먼트 계층에서 모션 벡터들의 더 정확한 예측을 획득하는 것이 가능하다. 따라서 모션 벡터들의 그런 개선된 예측은 코딩 효율성을 개선시킬 수 있다.
본 발명의 다양한 실시 예들이 모든 일반적인 프로그래밍 언어, 예컨대 C/C++ 또는 어셈블리 언어를 사용해서 소프트웨어에서 직접적으로 구현될 수 있다. 본 발명의 실시 예들은 하드웨어에서 또한 구현될 수 있고 소비자 기기들에서 또한 사용될 수 있다.
본 발명의 구성 및 동작 양식과 함께, 본 발명의 이들 및 다른 이점들 및 특징들은, 첨부된 도면들과 관련하여 이해될 때 다음의 상세한 설명으로부터 명확해질 것이고, 여기서 비슷한 요소들은 아래에서 설명되는 여러 가지 도면들에 걸쳐 비슷한 숫자들로 표시된다.
도 1은 다이애딕 해상도 스케일링에서 매크로블록 경계선들의 포지셔닝을 보여주고 있고;
도 2는 비-다이애딕 해상도 스케일링에서 매크로블록 경계선들의 포지셔닝을 보여주고 있고;
도 3은 16개의 4 x 4 블록들의 각각에서 대표적인 픽셀을 갖는, 가상 베이스 계층 매크로블록의 표현이고;
도 4(a)는 가상 베이스 계층 매크로블록의 표현이고, 도 4(b)는 도 4(a)의 가상 베이스 계층 매크로블록 및 복수 개의 베이스 계층 매크로블록들 간의 관계를 보여주고;
도 5는 어떻게 블록들이 H.264/AVC 표준의 아넥스 F에 따라 가상 베이스 계층 매크로블록 내의 4 x 4 블록 레벨에서 병합될 수 있는가를 보여주고;
도 6은 어떻게 블록들이 H.264/AVC 표준의 아넥스 F에 따라 가상 베이스 계층 매크로블록 내의 8 x 8 블록 레벨에서 병합될 수 있는가를 보여주고;
도 7은 단일의 대표적인 픽셀이 H.264/AVC 표준의 아넥스 F에 따라 사용될 때, 베이스 계층의 다수개의 4 x 4 블록들에 의해 커버되는 4 x 4 블록을 보여주는 표현이고;
도 8은 본 발명의 실시 예에 따라 4 x 4 블록 내의 다수개의 대표적인 픽셀들의 사용을 보여주는 표현이고;
도 9는 본 발명의 다양한 실시예들에서 이용되는 일반적인 멀티미디어 통신 시스템을 보여주고 있고;
도 10은 본 발명의 구현에서 이용될 수 있는 통신 기기의 투시도이며; 그리고
도 11은 도 10의 통신 기기의 전화 회로에 관한 도식적 표현이다.
본 발명의 다양한 실시 예들은 확장된 공간 스케일러빌러티에 관해 상술된 z케이스에서 매크로블록 모드에 대해 인터-계층 예측을 개선시키기 위한 시스템 및 방법을 제공한다. 다양한 실시 예들이 또한 확장된 공간 스케일러빌러티의 케이스에서 모션 벡터들에 대해 인터-계층 예측을 향상시키기 위한 시스템 및 방법이 제공한다. 매크로블록 모드를 예측하기 위한 종래의 시스템은 베이스 계층으로부터의 파티션 정보에만 기초하고; 블록들이 베이스 계층으로부터 동일한 파티션 정보를 공유할 때만 블록들이 병합될 수 있다. 반면에 본 발명의 실시 예들에서, 병합 프 로세스가 레퍼런스 프레임 인덱스 및 모션 벡터 정보에 의존하는 것으로 이뤄진다. 블록들이 베이스 계층으로부터 동일한 레퍼런스 프레임 인덱스 및 모션 벡터 정보를 공유할 때, 이런 블록들이 적절할 때 병합될 수 있다. 따라서 2개의 블록들이 베이스 게층의 상이한 파티션들을 갖더라도, 그 2개의 블록들이 함께 병합되는 것이 가능할 수 있다.
본 발명의 또 하나의 실시 예에서 블록 병합 조건이 완화될 수 있다. 이 실시 예에서, 블록들이 동일한 레퍼런스 프레임 인덱스 및 유사한 모션 벡터들을 공유하는한, 이웃 블록들이 함께 병합될 수 있다. 병합된 더 큰 블록을 위한 모션 벡터들이 병합될(사전-병합) 블록들의 모션 벡터들로부터 얻어진다.
또한 가상 베이스 계층 매크로블록 내의 각각의 4 x 4 블록이 블록 내의 두 번째 로우 및 두 번째 칼럼 내에 위치된 단일의 픽셀에 의해 본질적으로 표현되는 것이 통상적이고, 그리고 현재 블록을 위한 파티션 정보가, 대표적인 픽셀을 베이스 계층에 맵핑하고 그 다음에 베이스 계층에 4 x 4 블록을 위치시킴으로써 획득되었다. 반대로 본 발명의 다양한 실시 예들에서, 4 x 4 블록 내의 다수개의 대표적인 픽셀들이 블록을 표현하기 위해 사용될 수 있다. 다수개의 4 x 4 블록이 가상 베이스 계층 매크로블록 내의 현재 블록을 위해 베이스 계층에서 입수될 수 있을 때, 가상 베이스 계층 매크로블록 내의 현재 블록용 파티션 및 모션 벡터 정보가 그 4 x 4 블록들의 파티션 정보 및 모션 벡터들 모두로부터 얻어질 수 있다. 베이스 계층으로부터 모션 벡터 정보뿐만 아니라 파티션을 얻을 때 4 x 4 블록 내의 하나 이상의 대표적인 픽셀을 사용한다면, 인핸스먼트 계층에서 모션 벡터들의 더 정 확한 예측을 획득하는 것이 가능하다.
본 발명의 다양한 실시 예들에서, 가상 베이스 계층 매크로블록의 유형, 모드 및 모션 벡터들을 결정하기 위한 방법은 여전히 바톰-업 프로세스이다. 그러나 다수의 변화들이 상술된 개선을 이루기 위해 구현된다.
블록 병합에 관해서, 2개의 블록들이 베이스 계층으로부터의 유사하거나 동일한 모션 벡터들 및 동일한 레퍼런스 프레임 인덱스를 갖고 있다면, 그 2개의 블록들이 병합된다. 도 4(b)에서 보여지는 것과 같이, 베이스 계층 MB1 및 베이스 계층 MB2는 모두 인터(inter) 16 x 16 모드를 갖고, 또한 동일한 레퍼런스 프레임 인덱스 및 모션 벡터들을 가진다는 것이 예를 들기 위해 가정된다. 도 4(a)와 도 4(b)에서 보여지는 관계에 따라, 가상 베이스 계층 매크로블록 내의 4 x 4 블록들 M 및 P가 베이스 계층 MB1으로부터 파티션 정보를 얻고, 반면에 4 x 4 블록 N 및 Q는 베이스 계층 MB2로부터 파티션 정보를 얻는다. 본 발명의 하나의 실시 예에 따라, 블록들 M, N, P, 및 Q가 베이스 계층으로부터의 동일한 레퍼런스 프레임 인덱스 및 모션 벡터 정보를 갖고 있기 때문에 병합되는 것이 가능하다. 병합 이후에, 8 x 8 블록의 모드가 8 x 8이다. 그러나 H.264/AVC 표준의 아넥스 F에서 현재 정의되는 방법에 따라서, 그런 병합은 그것들이 상이한 베이스 계층 매크로블록들로부터 나왔고, 따라서 상이한 파티션들에 속하기 때문에 허용되지 않을 것이다. 종래의 규칙들을 사용해서 병합한 이후에 8 x 8 블록의 모드는 서브파티션이 필요하지 않더라도 4 x 8일 것이다. 또한 이런 불필요한 서브-파티션 때문에, 추가적인 블록 병합이 또한 불가능하다. 예컨대 도 4에서 베이스 계층 매크로블록들 MB3 및 MB4가 인터 16 x 16 모드를 또한 갖고, MB1 및 MB2과 동일한 레퍼런스 프레임 인덱스 및 모션 벡터들을 갖는다면, 본 발명의 실시 예들에 따라서, 가상 베이스 계층 매크로블록(300) 내의 블록들이 결국에는 모두 함께 병합될 것이고, 인터 16 x 16의 모드가 가상 베이스 계층에 정해질 것이다. 그러나 H.264/AVC 표준의 아넥스 F에서 현재 정의되는 방법에 따라서, 가상 베이스 계층 매크로블록(300)의 모드가 8 x 8이다[몇몇 8 x 8블록들을 추가의 서브-파티션들을 가짐].
불필요한 작은 파티션들의 사용이 코딩 효율에 영향을 미치치 않을 수 있더라도, 계산 복잡도에 영향을 미칠 수 있다. 모션 보상 프로세스 동안에, 샘플 보간법이 파티션 또는 서브-파티션 베이시스로 수행되는 것이 일반적이다. 더 큰 파티션에서의 보간법은 더 큰 파티션과 동일한 전체 크기를 갖는 다수 개의 더 작은 파티션들보다 일반적으로 덜 복잡하다. 이것은 우선적으로 더 큰 파티션에서 보간법을 수행할 때, 더 많은 중간(intermediate) 데이터가 계산 복잡도를 감소시키기 위해 공유되고 이용될 수 있기 때문이다.
본 발명의 다른 하나의 실시 예에서, 블록 병합의 조건은 일정 범위만큼 완화될 수 있다. 블록들이 동일한 레퍼런스 프레임 인덱스 및 유사한 모션 벡터들을 공유하는한, 이웃 블록들이 함께 병합될 수 있다. 모션 벡터들의 유사성이 미리결정된 문턱값
Figure 112009048074916-PCT00001
통해 측정될 수 있다. 2개의 모션벡터들이 각각
Figure 112009048074916-PCT00002
라고 가정한다면, 2개의 모션 벡터들 간의 차이가
Figure 112009048074916-PCT00003
로 표현될 수 있다. 이 경우에 D는 일정 왜곡(distortion) 측정값(measure)이다. 예컨대 왜곡 측정값이 2개의 벡터들 간의 제곱차(squared difference)의 합으로 정의될 수 있다 왜곡 측정값은 2개의 벡터들 간의 절대 차의 합으로 또한 정의될 수 있다.
Figure 112009048074916-PCT00004
가 문턱 값
Figure 112009048074916-PCT00005
보다 더 크지 않는한, 2개의 모션 벡터들은 유사한 것을 간주된다.
문턱값
Figure 112009048074916-PCT00006
이 예컨대
Figure 112009048074916-PCT00007
= 0, 1, 또는 2 기타 등등인 수로서 정의될 수 있다.
Figure 112009048074916-PCT00008
Figure 112009048074916-PCT00009
또는
Figure 112009048074916-PCT00010
기타 등등의 1%와 같은 퍼센티지 수로서 또한 정의될 수 있다.
Figure 112009048074916-PCT00011
정의의 몇몇 다른 형태들이 또한 정의된다.
Figure 112009048074916-PCT00012
이 0과 같을 때,
Figure 112009048074916-PCT00013
Figure 112009048074916-PCT00014
이 완전히 같을 것이 요구된고, 이것은 이전에 설명된 본 발명의 실시 예에서 설명된 조건이다.
병합된 더 큰 블록용 모션 벡터들이 병합 전에 그것들의 블록들의 모션 벡터로부터 얻어진다(derived). 유도(derivation) 방법은 차이 기준(criteria)에 기초할 수 있다. 예컨대 얻어진 모션 벡터가 병합 전 블록들의 모션 벡터들의 평균 또는 가중된 평균일 수 있다. 또한 그것들의 모션 벡터들의 중앙값(median)일 수 있다.
다음으로 4 x 4 블록의 파티션 정보 및 모션 벡터의 유도를 설명한다. 이전 에 설명된 것과 같이, 확장된 공간 스케일러빌러티의 케이스에서, 인핸스먼트 계층 매크로블록(그리고 가상 베이스 계층 MB)에서 4 x 4 블록이 최대 4개의 베이스 계층 4 x 4 블록들에 의해 커버될 수 있다. 단일의 픽셀이 블록용 대표로서 4 x 4 블록에서 사용된다면, 베이스 계층 4 x 4 블록들 중 하나가 선택되고, 선택된 블록의 파티션 및 모션 벡터 정보가 현재 4 x 4 블록의 예측으로 사용된다. 이런 방법이 도 7에서 증명되는 것과 같이 정확하지 않을 수 있다. 도 7에서 베이스 계층으로부터의 업샘플링된 4 x 4 블록들의 경계선들이 도면부호 700에서 표현된다. 가상 베이스 계층 매크로블록 내의 첫 번째 4 x 4 블록(710)이 베이스 계층으로부터의 4개의 4 x 4 블록들(720, 722, 724, 726)에 의해 실제로 커버될 수 있음을 알 수 있다. 대표적인 픽셀(도 7에서 도면 부호 730에서 표시됨)을 사용할 때, 베이스 계층으로부터의 4개의 4 x 4 블록들 중 하나(도 7의 도면 부호 720)가 선택되고, 나머지 3개의 4 x 4 블록들이 상이한 파티션 및 모션 벡터 정보를 가질 수 있더라도, 선택된 블록의 파티션 및 모션 벡터 정보가 첫 번째 4 x 4 블록(710)을 위한 예측으로서 사용된다.
본 발명의 실시 예에서, 4 x 4 블록용 대표로서 하나의 픽셀을 사용하는 대신에, 다수개의 픽셀들이 현재 4 x 4 블록을 위해 베이스 계층으로부터 파티션 및 모션 벡터 정보를 얻는 때에 사용될 수 있다. 예컨대 도 8에서 표시되는 것과 같이, 4개의 샘플들(800, 810, 820, 830)이 4 x 4 블록(840)을 위한 대표적인 픽셀들로서 사용될 수 있다. 각각의 대표적인 샘플들을 위해, 대응 베이스 계층 4 x 4 블록이 위치될 수 있다[베이스 계층 4 x 4 블록은 도 8에서 840, 850, 860, 870임]. 총합해서, 베이스 계층으로부터 최대 4개의 4 x 4 블록들이 있을 수 있다. 현재 4 x 4 블록용 파티션 및 모션 벡터 정보는 이때 베이스 계층으로부터의 4개의 4 x 4 블록의 파티션 및 모션 벡터 정보로부터 얻어질 수 있다.
베이스 계층으로부터의 다수개의 4 x 4 블록들로부터의 파티션 및 모션 벡터 정보를 얻기 위해, 다음 규칙들이 하나의 실시 예에서 적용된다. 첫째로, 베이스 계층으로부터의 4 x 4 블록들이 상이한 레퍼런스 프레임 인덱스들을 갖는다면, 더 작은 레퍼런스 프레임 인덱스 값을 갖는 블록이 선택되어야 한다. 둘째로, 베이스 계층으로부터의 하나 이상의 4 x 4 블록이 최소 레퍼런스 프레임 인덱스 값을 갖는다면, 4 x 4 블록들의 모션 벡터들의 평균 또는 가중된 평균이 현재 4 x 4 블록의 모션 벡터들의 예측으로서 계산되고 사용되어야 한다. 상술된 가중 평균 오퍼레이션이 사용될 때, 베이스 계층으로부터의 각각의 모션 벡터용 가증 계수가 다수개의 인자들에 기초하여 판단될 수 있다. 이런 인자들은 현재 4 x 4 블록 내에서 모션 벡터가 표현하는 영역의 크기, 모션 벡터의 델타 모션 벡터(즉 모션 벡터와 그 모션 벡터의 이웃 모션 벡터들 사이의 차이(differential) 모션 벡터), 모션 벡터의 파티션 크기, 및 모션 벡터의 매크로블록 유형 및 모드 기타 등등을 포함하지만 이에 제한되는 것은 아니다.
도 9는 본 발명에서 이용되는 일반적인 멀티미디어 통신 시스템을 보여주고 있다. 도 4에서 보이는 바와 같이, 데이터 소스(100)는 아날로그식의 비압축 디지털 또는 압축 디지털 포맷, 또는 이들 포맷들의 임의의 조합으로 소스 신호를 제공한다. 인코더(110)는 소스 신호를 코딩된 미디어 비트스트림으로 인코딩한다. 인코 더(110)는 하나 이상의 미디어 유형, 예컨대 오디오 및 비디오를 인코딩할 수 있을 수도 있고, 또는 하나 이상의 인코더(110)가 소스 신호의 상이한 미디어 유형들을 코딩하기 위해 요구될 수도 있다. 인코더(110)는 또한 합성적으로 산출된 입력, 예컨대 그래픽 및 텍스트를 얻을 수도 있고, 또는 그것은 합성 미디어의 코딩된 비트스트림들을 산출할 수도 있다. 다음에서, 설명을 단순화하기 위해 하나의 미디어 유형으로 된 하나의 코딩된 미디어 비트스트림에 관한 프로세싱만이 고려된다. 그러나, 전형적으로 실시간 브로드캐스트 서비스들은 몇몇 스트림들(전형적으로 적어도 하나의 오디오, 비디오 및 텍스트 자막달기(sub-titling) 스트림)을 포함함이 유념되어야 할 것이다. 또한 그 시스템은 많은 인코더들을 포함할 수도 있지만, 일반성을 잃지 않고 설명을 단순화하기 위해 이하에서는 단지 하나의 인코더(110)만이 고려된다는 것이 유념되어야 할 것이다.
코딩된 미디어 비트스트림은 저장소(120)로 전송된다. 저장소(120)는 코딩된 미디어 비트스트림을 저장하기 위한 임의의 유형의 대용량 메모리를 포함할 수도 있다. 저장소(120) 내 그 코딩된 미디어 비트스트림의 포맷은 기본적인 자기포함(self-contained) 비트스트림 포맷일 수도 있고, 또는 하나 또는 그 이상의 코딩된 미디어 비트스트림들이 콘테이너(container) 파일 내로 캡슐화될 수도 있다. 어떤 시스템들은 "라이브"(live)로 동작할 수도 있는데, 즉 저장소를 생략하고 코딩된 미디어 비트스트림을 인코더(110)로부터 직접 송신기(130)로 전송한다. 그 후에 그 코딩된 미디어 비트스트림은, 필요에 기반하여, 서버로서도 불리는 송신기(130)로 전송된다. 전송에서 사용되는 포맷은 기본적인 자기포함 비트스트림 포맷, 패킷 스트림 포맷일 수도 있고, 또는 하나 이상의 코딩된 미디어 비트스트림들이 콘테이너 파일 내로 캡슐화될 수도 있다. 인코더(110), 저장소(120) 및 송신기(130)는 동일한 물리적 기기에 있을 수도 있고 또는 그들은 개별적인 기기들에 포함되어 있을 수도 있다. 인코더(110) 및 송신기(130)는 라이브 실시간 콘텐트를 사용하여 동작할 수도 있고, 이 경우에 그 코딩된 미디어 비트스트림은 전형적으로 영속하여 저장되지 않고, 오히려 콘텐트 인코더(110)에 그리고/또는 송신기(130)에 작은 시간 기간들 동안 버퍼링되어 프로세싱 지연, 전송 지연, 및 코딩된 미디어 비트율에서의 편차들을 평탄화한다.
송신기(130)는 통신 프로토콜 스택을 사용하여 그 코딩된 미디어 비트스트림을 송신한다. 그 스택은 실시간 전송 프로토콜(RTP), 사용자 데이터그램 프로토콜(User Datagram Protocol; UDP) 및 인터넷 프로토콜(Internet Protocol; IP)을 포함할 수도 있지만, 이에 제한되는 것은 아니다. 통신 프로토콜 스택이 패킷지향적(packet-oriented)인 경우, 송신기(130)는 그 코딩된 미디어 비트스트림을 패킷들 내로 캡슐화한다. 예를 들면, RTP가 사용될 때, 송신기(130)는 RTP 페이로드 포맷에 따라 그 코딩된 미디어 비트스트림을 RTP 패킷들 내로 캡슐화한다. 전형적으로, 각 미디어 유형은 전용의 RTP 페이로드 포맷을 가진다. 다시, 시스템이 하나 이상의 송신기(130)를 포함할 수도 있지만, 단순성을 위해 이하의 설명에서는 단지 하나의 송신기(130)만을 고려함을 유념하여야 할 것이다.
송신기(130)는 통신 네트워크를 통해 게이트웨이(140)에 연결될 수도 있거나 또는 연결되지 않을 수도 있다. 게이트웨이(140)는 여러 가지 유형의 기능들, 예컨 대 하나의 통신 프로토콜 스택부터 다른 통신 프로토콜 스택까지에 따른 패킷 스트림의 해석(translation), 데이터 스트림들의 병합 및 분기, 및 하향링크 및/또는 수신기 성능에 따른 데이터 스트림의 조작, 예컨대 일반 하향링크 네트워크 조건들에 따라 전달 스트림의 비트율을 제어하는 것을 수행할 수도 있다. 게이트웨이(140)의 예들에는, 다지점 회의 제어 유닛(multipoint conference control unit; MCU), 회선교환방식(circuit-switched) 및 패킷교환방식(packet-switched) 화상 통화(video telephony) 간의 게이트웨이, 셀룰러 활용 푸쉬투토크(Push-to-talk over Cellular; PoC) 서버, 디지털 비디오 브로드캐스팅-핸드헬드(digital video broadcasting-handheld; DVB-H) 시스템 내 IP 캡슐화기 또는 홈 무선 네트워크에 로컬로 브로드캐스트 전송을 전달하는 셋톱 박스가 있다. RTP가 사용될 때, 게이트웨이(140)는 RTP 믹서(mixer)로 불리고 RTP 연결의 말단지점으로서 활동한다.
시스템은, 전송된 신호를 전형적으로 수신할 수 있고, 복조할 수 있고, 그리고 코딩된 미디어 비트스트림으로 역캡슐화할 수 있는 하나 이상의 수신기들(150)을 포함한다. 그 코딩된 미디어 비트스트림은 전형적으로 또한 디코더(160)에 의해 프로세싱되고, 그 디코더의 출력은 하나 이상의 비압축 미디어 스트림들이다. 디코딩될 비트스트림은 사실상 임의 유형의 네트워크 내에 위치한 원격 기기로부터 수신될 수 있음을 주목해야할 것이다. 또한 디코딩될 비트스트림은 로컬 하드웨어 또는 소프트웨어로부터 수신될 수 있음이 이해되어야 할 것이다. 마지막으로, 렌더러(renderer, 170)는 예를 들어 확성기 또는 디스플레이로 그 비압축 미디어 스트림들을 재현할 수도 있다. 수신기(150), 디코더(160) 및 렌더러(170)는 동일한 물 리적 기기에 있을 수도 있고 또는 그것들은 개별적인 기기들에 포함되어 있을 수도 있다.
도 10 및 도 11은 자신의 내부에서 본 발명이 구현될 수도 있는 하나의 대표적인 전자 기기(12)를 보여주고 있다. 그러나, 본 발명이 하나의 특정 유형의 전자 기기(12)에 제한되는 것을 의도하지는 않음을 이해하여야 할 것이다. 도 2 및 도 3의 전자 기기(12)는 하우징(30), 액정 표시 장치 형태의 디스플레이(32), 키패드(34), 마이크로폰(36), 이어피스(ear-piece, 38), 배터리(40), 적외선 포트(42), 안테나(44), 본 발명의 하나의 실시예에 따른 UICC 형태의 스마트 카드(46), 카드 리더(48), 무선 인터페이스 회로(52), 코덱 회로(54), 콘트롤러(56) 및 메모리(58)를 포함한다. 개개의 회로들 및 요소들은 모두, 관련 기술분야에서, 예를 들어 노키아(Nokia)의 모바일 전화 영역에서, 잘 알려진 유형이다.
통신 기기들은 CDMA(Code Division Multiple Access), GSM(Global System for Mobile Communications), UMTS(Universal Mobile Telecommunications System), TDMA(Time Division Multiple Access), FDMA(Frequency Division Multiple Access), TCP/IP(Transmission Control Protocol/Internet Protocol), SMS(Short Messaging Service), MMS(Multimedia Messaging Service), 이메일, 인스턴트 메시징 서비스(Instant Messaging Service; IMS), 블루투스, IEEE 802.11 등을 포함하는 그러나 이에 제한되지 않는 다양한 전송 기술들을 사용하여 통신할 수도 있다. 통신 기기는, 무선(radio), 적외선, 레이저, 케이블 연결 및 그와 동종의 것을 포함하는 그러나 이에 제한되지 않는 다양한 매체들을 사용하여 통신할 수도 있다.
본 발명은 방법 단계들에 관한 일반적인 콘텍스트에서 기술되고, 이것은 네트워크접속 환경에서 컴퓨터에 의해 실행되는, 프로그램 코드와 같은 컴퓨터실행가능 명령들을 포함하는 프로그램 생성물에 의해 하나의 실시예로 구현될 수도 있다. 컴퓨터판독가능 매체는 ROM(Read Only Memory), RAM(Random Access Memory), CDs(compact discs), DVD(digital versatile discs) 기타 등등을 포함하는 그러나 이에 제한되지 않는 분리형 저장 기기 및 비분리형 저장 기기를 포함할 수 있다. 일반적으로 프로그램 모듈들은, 특정한 작업들을 수행하거나 또는 특정한 추상적 데이터 유형들을 구현하는, 루틴(routine)들, 프로그램들, 오브젝트(object)들, 콤포넌트들, 데이터 구조들 등을 포함한다. 컴퓨터실행가능 명령들, 연관 데이터 구조들 및 프로그램 모듈들은 여기에서 개시된 방법들의 단계들을 실행하기 위한 프로그램 코드의 예들을 나타낸다. 이러한 실행가능 명령들의 특정 시퀀스 또는 연관 데이터 구조들은 이러한 단계들에서 기술되는 기능들을 구현하기 위한 대응 활동들의 예들을 나타낸다.
본 발명의 소프트웨어 및 웹 구현들은 다양한 데이터베이스 탐색 단계들, 상관 단계들, 비교 단계들 및 결정 단계들을 달성하기 위한 규칙 기반 로직 및 다른 로직을 구비한 표준 프로그래밍 기술들로써 달성될 수 있다. 또한 여기에서 그리고 청구항들에서 사용되는 것으로서 "콤포넌트" 및 "모듈"이라는 용어들은 수동 입력들을 수신하기 위한 장비 및/또는 하드웨어 구현들 및/또는 소프트웨어 코드의 하나 이상의 라인들을 사용한 구현들을 포함하도록 의도됨을 유념하여야 할 것이다.
본 발명의 실시예들에 관한 앞에서의 설명은 예시 및 설명을 위해 제공되었 다. 그것은 본 발명을 개시된 정확한 형태로 제한하거나 또는 철저하게 규명하도록 의도된 것은 아니고, 변경예들 및 변형예들이 상기의 교시에 비추어서 가능하거나 또는 본 발명의 실제 실행으로부터 획득될 수도 있다. 예상되는 특정 용도에 적합한 다양한 변경예들로 그리고 다양한 실시예들로 본 발명을 관련 기술분야에서 숙련된 자가 활용할 수 있게 하도록 본 발명의 원리들 및 그것의 실제 적용예를 설명하기 위한 실시예들이 선택되었고 기술되었다. 본 명세서에서 설명된 실시 예들이 특징들은 방법들, 장치들, 컴퓨터 프로그램 제품들, 및 시스템들의 모든 가능한 결합들로 결합될 수 있다.

Claims (48)

  1. 스케일러블 비트스트림 내의 비디오 프레임의 적어도 일부를 나타내는 인핸스먼트 계층 블록을 인코딩하기 위한 방법으로서,
    복수의 레퍼런스 계층 블록들에 대응하는 복수의 레퍼런스 프레임 인덱스 값들에 적어도 부분적으로 기초하여 상기 인핸스먼트 계층 블록의 파티션(partition)을 특정하는 코딩 모드 지시자를 얻고 [동일한 레퍼런스 프레임 인덱스를 갖는 상기 레퍼런스 계층 블록들이 파티션 크기를 얻기 위해 병합됨]; 그리고
    상기 코딩 모드 지시자를 이용하여 상기 인핸스먼트 계층 블록을 인코딩하는 것을 포함하는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  2. 제1항에 있어서,
    동일한 모션 벡터 정보를 갖는 상기 레퍼런스 계층 블록들이, 상기 파티션 크기를 얻기 위해 병합되는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  3. 제1항에 있어서,
    미리결정된 문턱값 이하의 차이 메트릭(difference metric)을 갖는 모션 벡터 정보를 지닌 상기 레퍼런스 계층 블록들이, 상기 파티션 크기를 얻기 위해 병합되는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  4. 제3항에 있어서,
    상기 차이 메트릭은 모션 벡터 성분들의 절대차의 합에 의해 얻어지고,
    상기 문턱값은 1과 같은, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  5. 제1항에 있어서,
    복수의 대표 픽셀들이 각각의 개별적인 레퍼런스 계층 블록에 대해서 파티션 및 모션 벡터 정보를 선택하기 위해 사용되는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  6. 제1항에 있어서,
    상기 복수의 레퍼런스 계층 블록들이 상이한 레퍼런스 프레임 인덱스들을 갖고 있다면, 최소 레퍼런스 프레임 인덱스들을 갖는 레퍼런스 블록으로부터의 모션 벡터 정보가 선택되는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  7. 제1항의 프로세스들을 수행하기 위한 컴퓨터 코드가 포함된 컴퓨터 판독가능 매체 내에 구체화된 컴퓨터 프로그램 제품.
  8. 프로세서; 및
    상기 프로세서에 연결되어 통신하는 메모리 유닛을 포함하는 장치로서, 상기 메모리 유닛은:
    복수의 레퍼런스 계층 블록들에 대응하는 복수의 레퍼런스 프레임 인덱스 값들에 적어도 부분적으로 기초하여 인핸스먼트 계층 블록의 파티션(partition)을 특정하는 코딩 모드 지시자를 얻기 위한 컴퓨터 코드 [동일한 레퍼런스 프레임 인덱스를 갖는 상기 레퍼런스 계층 블록들이 파티션 크기를 얻기 위해 병합됨]; 및
    상기 코딩 모드 지시자를 이용하여 상기 인핸스먼트 계층 블록을 인코딩하기 위한 컴퓨터 코드를 포함하는, 장치.
  9. 제8항에 있어서,
    동일한 모션 벡터 정보를 갖는 상기 레퍼런스 계층 블록들이, 상기 파티션 크기를 얻기 위해 병합되는, 장치
  10. 제8항에 있어서,
    미리결정된 문턱값 이하의 차이 메트릭(difference metric)을 갖는 모션 벡터 정보를 지닌 상기 레퍼런스 계층 블록들이, 상기 파티션 크기를 얻기 위해 병합되는, 장치.
  11. 제10항에 있어서,
    상기 차이 메트릭은 모션 벡터 성분들의 절대차의 합에 의해 얻어지고,
    상기 문턱값은 1과 같은, 장치.
  12. 제8항에 있어서,
    복수의 대표 픽셀들이 각각의 개별적인 레퍼런스 계층 블록에 대해서 파티션 및 모션 벡터 정보를 선택하기 위해 사용되는, 장치.
  13. 제8항에 있어서,
    상기 복수의 레퍼런스 계층 블록들이 상이한 레퍼런스 프레임 인덱스들을 갖고 있다면, 최소 레퍼런스 프레임 인덱스들을 갖는 레퍼런스 블록으로부터의 모션 벡터 정보가 선택되는, 장치.
  14. 복수의 레퍼런스 계층 블록들에 대응하는 복수의 레퍼런스 프레임 인덱스 값들에 적어도 부분적으로 기초하여 인핸스먼트 계층 블록의 파티션(partition)을 특정하는 코딩 모드 지시자를 얻기 위한 수단 [동일한 레퍼런스 프레임 인덱스를 갖는 상기 레퍼런스 계층 블록들이 파티션 크기를 얻기 위해 병합됨]; 및
    상기 코딩 모드 지시자를 이용하여 상기 인핸스먼트 계층 블록을 인코딩하기 위한 수단을 포함하는, 장치.
  15. 스케일러블 비트스트림 내의 비디오 프레임의 적어도 일부를 나타내는 인핸스먼트 계층 블록을 디코딩하기 위한 방법으로서,
    복수의 레퍼런스 계층 블록들에 대응하는 복수의 레퍼런스 프레임 인덱스 값 들에 적어도 부분적으로 기초하여 상기 인핸스먼트 계층 블록의 파티션(partition)을 특정하는 코딩 모드 지시자를 얻고 [동일한 레퍼런스 프레임 인덱스를 갖는 상기 레퍼런스 계층 블록들이 파티션 크기를 얻기 위해 병합됨]; 그리고
    상기 코딩 모드 지시자를 이용하여 상기 인핸스먼트 계층 블록을 디코딩하는 것을 포함하는, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  16. 제15항에 있어서,
    동일한 모션 벡터 정보를 갖는 상기 레퍼런스 계층 블록들이, 상기 파티션 크기를 얻기 위해 병합되는, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  17. 제15항에 있어서,
    미리결정된 문턱값 이하의 차이 메트릭(difference metric)을 갖는 모션 벡터 정보를 지닌 상기 레퍼런스 계층 블록들이, 상기 파티션 크기를 얻기 위해 병합되는, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  18. 제17항에 있어서,
    상기 차이 메트릭은 모션 벡터 성분들의 절대차의 합에 의해 얻어지고,
    상기 문턱값은 1과 같은, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  19. 제15항에 있어서,
    복수의 대표 픽셀들이 각각의 개별적인 레퍼런스 계층 블록에 대해서 파티션 및 모션 벡터 정보를 선택하기 위해 사용되는, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  20. 제15항에 있어서,
    상기 복수의 레퍼런스 계층 블록들이 상이한 레퍼런스 프레임 인덱스들을 갖고 있다면, 최소 레퍼런스 프레임 인덱스들을 갖는 블록으로부터의 모션 벡터 정보가 선택되는, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  21. 제15항의 프로세스들을 수행하기 위한 컴퓨터 코드가 포함된 컴퓨터 판독가능 매체 내에 구체화된 컴퓨터 프로그램 제품.
  22. 프로세서; 및
    상기 프로세서에 연결되어 통신하는 메모리 유닛을 포함하는 장치로서, 상기 메모리 유닛은:
    복수의 레퍼런스 계층 블록들에 대응하는 복수의 레퍼런스 프레임 인덱스 값들에 적어도 부분적으로 기초하여 인핸스먼트 계층 블록의 파티션(partition)을 특정하는 코딩 모드 지시자를 얻기 위한 컴퓨터 코드 [동일한 레퍼런스 프레임 인덱스를 갖는 상기 레퍼런스 계층 블록들이 파티션 크기를 얻기 위해 병합됨]; 및
    상기 코딩 모드 지시자를 이용하여 상기 인핸스먼트 계층 블록을 디코딩하기 위한 컴퓨터 코드를 포함하는, 장치.
  23. 제22항에 있어서,
    동일한 모션 벡터 정보를 갖는 상기 레퍼런스 계층 블록들이, 상기 파티션 크기를 얻기 위해 병합되는, 장치
  24. 제22항에 있어서,
    미리결정된 문턱값 이하의 차이 메트릭(difference metric)을 갖는 모션 벡터 정보를 지닌 상기 레퍼런스 계층 블록들이, 상기 파티션 크기를 얻기 위해 병합되는, 장치.
  25. 제24항에 있어서,
    상기 차이 메트릭은 모션 벡터 성분들의 절대차의 합에 의해 얻어지고,
    상기 문턱값은 1과 같은, 장치.
  26. 제22항에 있어서,
    복수의 대표 픽셀들이 각각의 개별적인 레퍼런스 계층 블록에 대해서 파티션 및 모션 벡터 정보를 선택하기 위해 사용되는, 장치.
  27. 제22항에 있어서,
    상기 복수의 레퍼런스 계층 블록들이 상이한 레퍼런스 프레임 인덱스들을 갖고 있다면, 최소 레퍼런스 프레임 인덱스들을 갖는 레퍼런스 계층 블록으로부터의 모션 벡터 정보가 선택되는, 장치.
  28. 복수의 레퍼런스 계층 블록들에 대응하는 복수의 레퍼런스 프레임 인덱스 값들에 적어도 부분적으로 기초하여 인핸스먼트 계층 블록의 파티션(partition)을 특정하는 코딩 모드 지시자를 얻기 위한 수단 [동일한 레퍼런스 프레임 인덱스를 갖는 상기 레퍼런스 계층 블록들이 파티션 크기를 얻기 위해 병합됨]; 및
    상기 코딩 모드 지시자를 이용하여 상기 인핸스먼트 계층 블록을 디코딩하기 위한 수단을 포함하는, 장치.
  29. 스케일러블 비트스트림 내의 비디오 프레임의 적어도 일부를 나타내는 인핸스먼트 계층 블록을 인코딩하기 위한 방법으로서,
    복수의 레퍼런스 블록들로부터의 파티션 및 모션 벡터 정보에 기초하여 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻고; 그리고
    상기 파티션 및 모션 벡터 정보를 이용하여 상기 인핸스먼트 계층 블록을 인코딩하는 것을 포함하는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  30. 제29항에 있어서,
    맵핑된 레퍼런스 블록들의 각각이 상이한 레퍼런스 프레임 인덱스들을 갖는다면, 최소 레퍼런스 프레임 인덱스를 갖는 레퍼런스 블록으로부터의 모션 벡터 정보가 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위해 선택되는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  31. 제29항에 있어서,
    맵핑된 블록들 중 하나 이상이 최소의 레퍼런스 프레임 인덱스들을 갖는다면, 상기 최소의 레퍼런스 프레임 인덱스들을 갖는 레퍼런스 블록들 각각용 모션 벡터 정보의 평균이 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위해 선택되는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  32. 제31항에 있어서,
    상기 평균은 가중 계수들을 사용하여 가중된 평균으로 이뤄지고,각각의 맵핑된 레퍼런스 블록 내의 모션 벡터용 상기 가중 계수는, 상기 레퍼런스 블록 내에서 모션 벡터가 표현하는 영역의 크기; 상기 모션 벡터의 델타 모션 벡터; 상기 레퍼런스 블록의 파티션 크기; 상기 레퍼런스 블록의 블록 유형; 및 상기 레퍼런스 계층 블록의 블록 모드 중 적어도 하나를 사용하여 결정되는, 인핸스먼트 계층 블록을 인코딩하기 위한 방법.
  33. 제29항의 프로세스들을 수행하기 위한 컴퓨터 코드가 포함된 컴퓨터 판독가 능 매체 내에 구체화된 컴퓨터 프로그램 제품.
  34. 프로세서; 및
    상기 프로세서에 연결되어 통신하는 메모리 유닛을 포함하는 장치로서, 상기 메모리 유닛은:
    복수의 레퍼런스 블록들로부터의 파티션 및 모션 벡터 정보에 기초하여 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위한 컴퓨터 코드; 그리고
    상기 파티션 및 모션 벡터 정보를 이용하여 상기 인핸스먼트 계층 블록을 인코딩하는 것을 포함하는, 장치.
  35. 제34항에 있어서,
    맵핑된 레퍼런스 블록들의 각각이 상이한 레퍼런스 프레임 인덱스들을 갖는다면, 최소 레퍼런스 프레임 인덱스를 갖는 레퍼런스 블록으로부터의 모션 벡터 정보가 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위해 선택되는, 장치.
  36. 제34항에 있어서,
    맵핑된 블록들 중 하나 이상이 최소의 레퍼런스 프레임 인덱스들을 갖는다면, 상기 최소의 레퍼런스 프레임 인덱스들을 갖는 레퍼런스 블록들 각각용 모션 벡터 정보의 평균이 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위해 선택되는, 장치.
  37. 제36항에 있어서,
    상기 평균은 가중 계수들을 사용하여 가중된 평균으로 이뤄지고, 각각의 맵핑된 레퍼런스 블록 내의 모션 벡터용 상기 가중 계수는, 상기 레퍼런스 블록 내에서 모션 벡터가 표현하는 영역의 크기; 상기 모션 벡터의 델타 모션 벡터; 상기 레퍼런스 블록의 파티션 크기; 상기 레퍼런스 블록의 블록 유형; 및 상기 레퍼런스 계층 블록의 블록 모드 중 적어도 하나를 사용하여 결정되는, 장치.
  38. 복수의 레퍼런스 블록들로부터의 파티션 및 모션 벡터 정보에 기초하여 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위한 수단; 및
    상기 파티션 및 모션 벡터 정보를 이용하여 상기 인핸스먼트 계층 블록을 인코딩하기 위한 수단을 포함하는, 장치.
  39. 스케일러블 비트스트림 내의 비디오 프레임의 적어도 일부를 나타내는 인핸스먼트 계층 블록을 디코딩하기 위한 방법으로서,
    복수의 레퍼런스 블록들로부터의 파티션 및 모션 벡터 정보에 기초하여 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻고; 그리고
    상기 파티션 및 모션 벡터 정보를 이용하여 상기 인핸스먼트 계층 블록을 디 코딩하는 것을 포함하는, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  40. 제39항에 있어서,
    맵핑된 레퍼런스 블록들의 각각이 상이한 레퍼런스 프레임 인덱스들을 갖는다면, 최소 레퍼런스 프레임 인덱스를 갖는 레퍼런스 블록으로부터의 모션 벡터 정보가 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위해 선택되는, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  41. 제39항에 있어서,
    맵핑된 블록들 중 하나 이상이 최소의 레퍼런스 프레임 인덱스들을 갖는다면, 상기 최소의 레퍼런스 프레임 인덱스들을 갖는 레퍼런스 블록들 각각용 모션 벡터 정보의 평균이 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위해 선택되는, 인핸스먼트 계층 블록을 디코딩하기 위한 방법.
  42. 제41항에 있어서,
    상기 평균은 가중 계수들을 사용하여 가중된 평균으로 이뤄지고,각각의 맵핑된 레퍼런스 블록 내의 모션 벡터용 상기 가중 계수는, 상기 레퍼런스 블록 내에서 모션 벡터가 표현하는 영역의 크기; 상기 모션 벡터의 델타 모션 벡터; 상기 레퍼런스 블록의 파티션 크기; 상기 레퍼런스 블록의 블록 유형; 및 상기 레퍼런스 계층 블록의 블록 모드 중 적어도 하나를 사용하여 결정되는, 인핸스먼트 계층 블록 을 디코딩하기 위한 방법.
  43. 제39항의 프로세스들을 수행하기 위한 컴퓨터 코드가 포함된 컴퓨터 판독가능 매체 내에 구체화된 컴퓨터 프로그램 제품.
  44. 프로세서; 및
    상기 프로세서에 연결되어 통신하는 메모리 유닛을 포함하는 장치로서, 상기 메모리 유닛은:
    복수의 레퍼런스 블록들로부터의 파티션 및 모션 벡터 정보에 기초하여 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위한 컴퓨터 코드; 그리고
    상기 파티션 및 모션 벡터 정보를 이용하여 상기 인핸스먼트 계층 블록을 디코딩하기 위한 컴퓨터 코드를 포함하는, 장치.
  45. 제44항에 있어서,
    맵핑된 레퍼런스 블록들의 각각이 상이한 레퍼런스 프레임 인덱스들을 갖는다면, 최소 레퍼런스 프레임 인덱스를 갖는 레퍼런스 블록으로부터의 모션 벡터 정보가 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위해 선택되는, 장치.
  46. 제44항에 있어서,
    맵핑된 블록들 중 하나 이상이 최소의 레퍼런스 프레임 인덱스들을 갖는다면, 상기 최소의 레퍼런스 프레임 인덱스들을 갖는 레퍼런스 블록들 각각용 모션 벡터 정보의 평균이 상기 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위해 선택되는, 장치.
  47. 제46항에 있어서,
    상기 평균은 가중 계수들을 사용하여 가중된 평균으로 이뤄지고,각각의 맵핑된 레퍼런스 블록 내의 모션 벡터용 상기 가중 계수는, 상기 레퍼런스 블록 내에서 모션 벡터가 표현하는 영역의 크기; 상기 모션 벡터의 델타 모션 벡터; 상기 레퍼런스 블록의 파티션 크기; 상기 레퍼런스 블록의 블록 유형; 및 상기 레퍼런스 계층 블록의 블록 모드 중 적어도 하나를 사용하여 결정되는, 장치.
  48. 복수의 레퍼런스 블록들로부터의 파티션 및 모션 벡터 정보에 기초하여 인핸스먼트 계층 블록용 파티션 및 모션 벡터 정보를 얻기 위한 수단; 및
    상기 파티션 및 모션 벡터 정보를 이용하여 상기 인핸스먼트 계층 블록을 디코딩하기 위한 수단을 포함하는, 장치.
KR1020097016451A 2007-01-08 2008-01-05 비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측 KR101165212B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US60/884,008 2007-01-08
PCT/IB2008/050022 WO2008084423A1 (en) 2007-01-08 2008-01-05 Improved inter-layer prediction for extended spatial scalability in video coding

Publications (2)

Publication Number Publication Date
KR20090108073A true KR20090108073A (ko) 2009-10-14
KR101165212B1 KR101165212B1 (ko) 2012-07-11

Family

ID=41551506

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097016451A KR101165212B1 (ko) 2007-01-08 2008-01-05 비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측

Country Status (1)

Country Link
KR (1) KR101165212B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011139099A3 (ko) * 2010-05-04 2012-03-01 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006058921A1 (en) * 2004-12-03 2006-06-08 Thomson Licensing Method for scalable video coding
US20080267291A1 (en) * 2005-02-18 2008-10-30 Joseph J. Laks Thomson Licensing Llc Method for Deriving Coding Information for High Resolution Images from Low Resolution Images and Coding and Decoding Devices Implementing Said Method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011139099A3 (ko) * 2010-05-04 2012-03-01 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9357218B2 (en) 2010-05-04 2016-05-31 Lg Electronics Inc. Method and apparatus for processing a video signal
US9363520B2 (en) 2010-05-04 2016-06-07 Lg Electronics Inc. Method and apparatus for processing a video signal
US9936202B2 (en) 2010-05-04 2018-04-03 Lg Electronics Inc. Method and apparatus for processing a video signal
US10397580B2 (en) 2010-05-04 2019-08-27 Lg Electronics Inc. Method and apparatus for processing a video signal
US10666947B2 (en) 2010-05-04 2020-05-26 Lg Electronics Inc. Method and apparatus for processing a video signal
US11006123B2 (en) 2010-05-04 2021-05-11 Lg Electronics Inc. Method and apparatus for processing a video signal

Also Published As

Publication number Publication date
KR101165212B1 (ko) 2012-07-11

Similar Documents

Publication Publication Date Title
CA2674438C (en) Improved inter-layer prediction for extended spatial scalability in video coding
US11425408B2 (en) Combined motion vector and reference index prediction for video coding
US10715779B2 (en) Sharing of motion vector in 3D video coding
KR101129972B1 (ko) 비트스트림으로 인코딩된 움직임 벡터를 디코딩하는 방법과 장치, 움직임 벡터를 비트스트림으로 인코딩하는 방법과 장치 및 컴퓨터 판독가능 매체
EP2041979B1 (en) Inter-layer prediction for extended spatial scalability in video coding
RU2387094C1 (ru) Способ и устройство для кодирования/декодирования видеосигнала
CN101702963A (zh) 用于为视频编码中的空间可伸缩性提供改进的残差预测的系统和方法
KR20140130152A (ko) 비디오 코딩을 위한 방법 및 장치
KR20090089328A (ko) 버추얼 디코딩된 기준 픽처 마킹 및 기준 픽처 리스트
CN104641652A (zh) 用于视频译码的帧封装立体三维(3d)视频数据的指示
JP2021517423A (ja) 双方向イントラ予測のシグナリング
KR101165212B1 (ko) 비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측
CN117651132A (zh) 发送信号通知神经网络环路后滤波器信息的方法和设备

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
E902 Notification of reason for refusal
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150617

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160616

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170616

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190617

Year of fee payment: 8