KR20090046815A - 비디오 디코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치 - Google Patents

비디오 디코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치 Download PDF

Info

Publication number
KR20090046815A
KR20090046815A KR1020097002021A KR20097002021A KR20090046815A KR 20090046815 A KR20090046815 A KR 20090046815A KR 1020097002021 A KR1020097002021 A KR 1020097002021A KR 20097002021 A KR20097002021 A KR 20097002021A KR 20090046815 A KR20090046815 A KR 20090046815A
Authority
KR
South Korea
Prior art keywords
parameter
model
partition
curve
block
Prior art date
Application number
KR1020097002021A
Other languages
English (en)
Other versions
KR101526914B1 (ko
Inventor
오스카 디보라 에스코다
펭 잉
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20090046815A publication Critical patent/KR20090046815A/ko
Application granted granted Critical
Publication of KR101526914B1 publication Critical patent/KR101526914B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/507Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction using conditional replenishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비디오 인코딩 및 디코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치가 제공된다. 상기 장치는 적어도 하나의 파라미터 모델에 응답하여 화상의 적어도 부분을 적응적으로 파티셔닝함으로써 화상에 대응하는 이미지 데이터를 인코딩하는 인코더(900)를 포함한다. 적어도 하나의 파라미터모델은 적어도 하나의 곡선의 암시적 및 명시적 구성 중 적어도 하나를 수반한다.

Description

비디오 디코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치{METHODS AND APPARATUS FOR ADAPTIVE GEOMETRIC PARTITIONING FOR VIDEO DECODING}
본 출원은 본 명세서에 참고용으로 병합되는 2006년 8월 2일에 출원된 미국 가출원 번호 제 60/834,993의 이익을 주장한다. 더욱이, 본 출원은, 본 명세서에 참고용으로 병합되고 본 출원과 공동 출원되고 공동 양수된 "비디오 인코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치(METHODS AND APPARATUS FOR ADAPTIVE GEOMETRIC PARTITIONING FOR VIDEO ENCODING)"라는 명칭의 가출원되지 않은 관리 번호(PU060147)와 관계있다.
본 원리는 일반적으로 비디오 인코딩 및 디코딩에 관한 것으로, 더 구체적으로 비디오 인코딩 및 디코딩을 위한 적응성 기하학적 파티셔닝(partitioining)을 위한 방법 및 장치에 관한 것이다.
대부분의 비디오 코딩 기술은 비디오 이미지를 모델링하기 위한 예측 플러스 잔여 코딩을 이용한다. 다른 접근법은, 또한 리프팅(lifting) 방식이 (움직임 보상을 하거나 또는 하지 않는) 웨이브릿(wavelet) 변환을 생성하는데 사용될 때와 같이, 신호 변환의 몇몇 프로세스로의 단계로서 예측을 고려할 수 있다. 예측은 파티션에 기초하여 각 프레임 상에서 수행된다. 즉, 각 프레임은 블록들, 또는 트리 구 조에서 네스팅된(nested) 블록들의 세트로 파티셔닝되고, 그런 후에 각 블록 파티션은 인트라 또는 인터 예측자 플러스 몇몇 잔여 코딩을 이용함으로써 코딩된다. 블록들로의 프레임 파티셔닝은 통상적으로 프레임 전체에 걸쳐 있는 블록들(소위 매크로블록이라 불림)인 영역의 그리드를 한정함으로써 수행되고, 그런 후에, 각 매크로블록은 또한 추가로 더 작은 블록들(또한 서브블록 또는 서브-매크로블록이라 불림)로 파티셔닝될 수 있다. 일반적으로, 상이한 텍스처, 칼라, 부드러움(smoothness) 및/또는 상이한 움직임을 갖는 객체(object) 및/또는 프레임 영역의 경계 상의 매크로블록은 가능한 한 동일한 객관적 및/또는 주관적인 품질을 가지고, 매크로블록의 코딩을 가능한 한 효과적으로 만들기 위해 서브블록으로 추가로 분할되는 경향이 있다.
최근의 연구에 있어서, 트리 구조는 이미지 정보를 코딩하는데 표준 이하로-최적화(sub-optimal)되는 것으로 알려져 왔다. 이러한 연구는, 이미지의 트리-기반의 코딩이 규칙적인 에지 또는 윤곽(contour)으로 분리된 이종의 영역(여기서 영역은 평평한, 부드럽고, 또는 고정적인 텍스처와 같은 잘-한정된 그리고 균일한 특성을 갖는 것으로 간주된다)을 최적으로 코딩할 수 없다는 것을 확증한다. 이러한 문제는, 트리 구조가 에지, 윤곽 또는 지향된 텍스처를 따라 존재하는 기하학적 중복(redundancy)을 최적으로 포착할 수 없다는 점에서 발생한다. 이러한 개념은, 매크로블록의 적응형 트리 파티셔닝이 심지어 간단한 고정된-크기의 프레임 파티셔닝보다 더 우수할지라도, 효과적인 방식으로 코딩 목적을 위해 2D 데이터에 포함된 기하학적 정보를 포착할 정도로 충분히 최적화되지 않다는 것을 의미한다.
프레임 파티셔닝은 효과적인 비디오 코딩에서 핵심적인 중요한 프로세스이다. 국제 표준화 기구/국제 전기 표준 회의(ISO/IEC) 동화상 전문가 그룹-4(MPEG-4) 파트 10 개선된 비디오 코딩(AVC) 표준/국제 원격 통신 연합, 원격 통신 섹터(ITU-T) H.264 권고(이후부터 "MPEG-4 AVC 표준"이라 지칭)와 같은 최근의 비디오 압축 기술은 트리-기반의 프레임 파티션을 이용한다. 이것은, 일반적으로 국제 표준화 기구/국제 전기 표준 회의(ISO/IEC) 동화상 전문가 그룹-2(MPEG-2) 표준 및 국제 원격 통신 연합, 원격 통신 섹터(ITU-T) H.263 권고(이후부터 "H.263 권고"라고 지칭함)와 같은 더 오래된 비디오 코딩 표준 및 권고에 사용된 간단한 균일한 블록 파티션보다 더 효과적인 것으로 여겨진다. 그러나, 트리 기반의 프레임 파티셔닝은 여전히 가능한 한 효과적으로 비디오 정보를 코딩하지 않는데, 이는 2차원(2D) 데이터의 기하학적 구조를 효과적으로 포착할 수 없기 때문이다.
트리-구조의 매크로블록 파티셔닝은 현재의 주요한 비디오 코딩 표준에서 채택된다. 국제 원격 통신 연합, 원격 통신 섹터(ITU-T)H.261 권고(이후부터 "H.261 권고"라고 지칭함), 국제 표준화 기구/국제 전기 표준 회의(ISO/IEC) 동화상 전문가 그룹-1(MPEG-1) 표준, 및 ISO/IEC MPEG-2 표준/ITU-T H.263 권고(이후부터 "MPEG-2 표준"이라 지칭함)는 단지 16x16 매크로블록(MB) 파티션만을 지원한다. ISO/IEC 동화상 전문가 그룹-4(MPEG-4) 파트 10 개선된 비디오 코딩(AVC) 표준/ITU-T H.264 권고(이후부터 "MPEG-4 AVC 표준"이라 지칭함) 간단한 프로파일 또는 ITU-T H.263(+) 권고는 16x16 MB에 대해 16x16 및 8x8 파티션 양쪽 모두를 지원한다. MPEG-4 AVC 표준은 트리-구조로 된 계층형 매크로블록 파티션을 지원한다. 16x16 MB는 크기 16x8, 8x16, 또는 8x8의 매크로블록 파티션으로 파티셔닝될 수 있다. 8x8 파티션은 또한 서브-매크로블록으로 알려져 있다. 서브-매크로블록은 크기 8x4, 4x8, 및 4x4의 서브-매크로블록 파티션으로 추가로 분리될 수 있다. 도 1을 참조하면, MPEG-4 AVC 표준 매크로블록 분할(division) 세트는 일반적으로 참조 번호(100)로 표시된다. 특히, 매크로블록 파티션은 참조 번호(110)로 표시되고, 서브-매크로블록 파티션은 참조 번호(120)로 표시된다. 최근의 연구에서, 트리 구조는 이미지 정보를 코딩하는데 표준 이하로-최적화되는 것으로 알려져 왔다. 이러한 연구 의 일부는, 트리-기반의 코딩 시스템이 규칙적인 에지 또는 윤곽에 의해 분리된 이종의 영역을 최적으로 코딩할 수 없다는 것을 설명한다.
그 주제에 대한 이전의 몇몇 작업은, 움직임 보상을 위한 간단한 트리 기반의 파티셔닝에 의해 공급된 것 이외의 다른 유형의 블록 파티셔닝에 대한 필요성을 실험적으로 확인했다. 이러한 기술은, 트리 기반의 블록 파티션 이외에, 움직임 추정 및 보상을 위해 움직임 에지에 더 잘 적응될 수 있는 몇몇 추가적인 매크로블록 파티션의 이용을 제안한다.
H.263 코덱의 프레임워크 내에서 하나의 종래 기술의 접근법(이후부터 "제 1의 종래 기술의 접근법"이라 지칭함)에서, 2개의 추가 대각선 움직임 보상 모드를 이용하는 것이 제안된다. 이러한 모드 중 하나가 선택될 때, 해당 매크로블록은 대각선 세그먼트에 의해 분리된 2개의 유사한 삼각형으로 파티셔닝된다. 코딩 모드에 따라, 이것은 하나의 모드에 대해 하단 좌측 코너로부터 상단 우측 코너로 가고, 제 2 모드에 대해 상단 좌측 코너로부터 하단 우측 코너로 간다. 도 2a 및 도 2b를 참조하면, 본 명세서에 기재된 지정된 "제 1 종래 기술의 접근법"에 대응하는 추가 움직임 보상 코딩 모드는 일반적으로 각각 참조 번호(200 및 250)로 표시된다. 움직임 보상 코딩 모드(200)는 우측-상부 대각선 에지 코딩 모드에 대응하고, 움직임 보상 코딩 모드(250)는 좌측-상부 대각선 에지 코딩 모드에 대응한다.
제 1 종래 기술의 접근법은, 이들 모드가 고정된 대각선 방향에 의해 16x8 또는 8x16 움직임 보상 모드의 간단한 변형이라는 점에서 매우 제한된다. 이들이 한정하는 에지는 매우 조잡하고, 비디오 프레임에서 발견된 매우 다양한 에지에 맞출 정도로 충분히 정밀하지 않다. 기하학적 정보의 명시적(explicit) 코딩은 없는데, 이것은 인코더에서 이러한 정보의 적응된 처리를 나쁘게 한다. 2개의 모드는 코딩 모드의 목록에 도입되며, 이것은 모드 목록에 있는 이들 2개의 모드 뒤에 위치한 다른 코딩 모드의 코딩 오버헤드(overhead)를 증가시킨다.
제 1 종래 기술의 접근법으로부터의 직접적인 전개는, 본 명세서에서 각각 제 2, 제 3, 및 제 4 종래 기술의 접근법이라 지칭된 3개의 다른 종래 기술의 접근법에 관련된다. 이들 작업에서 집합적으로, 제 1 종래 기술의 접근법에 설명된 것보다 움직임 보상 코딩 모드의 더 큰 세트가 도입된다. 제 2, 제 3, 및 제 4 종래 기술의 접근법에 대해 설명된 시스템은 지향된 파티션을 포함하는 추가 코딩 모드의 큰 집합(collection)을 도입한다. 이들 모드는 16x8, 8x16 모드의 상이한 평행 이동된(translated) 버전 뿐 아니라 지그재그 프로파일을 갖는 제 1 종래 기술의 접근법에 제안된 모드의 상이한 평행 이동된 버전이다. 도 3을 참조하면, 지정된 "제 2", "제 3", 및 "제 4 종래 기술의 접근법"에 관련된 움직임 보상 코딩 모드는 일반적으로 참조 번호(300)로 표시된다. 18개의 움직임 보상 코딩 모드가 도시된다.
제 1 종래 기술의 접근법의 경우에서와 같이, 움직임 보상에 대한 제 2, 제 3, 및 제 4 종래 기술의 접근법에 한정된 파티션은 비디오 프레임 컨텐츠에 대해 매우 거칠고 부정확하다. 지향된 파티션의 세트가 제 1 종래 기술의 접근법에서의 세트보다 수적으로 우세하더라도, 비디오 프레임에서 발견된 매우 다양한 에지의 효과적인 코딩을 위해 여전히 충분히 정밀하지 않다. 이 경우에, 기하학적 정보의 명시적 코딩이 없는데, 이것은 인코더에서 기하학적 정보의 적응된 처리를 갖는 것에 손해를 준다. 더욱이, 모드의 훨씬 더 큰 세트를 코딩하기 위해 도입된 오버헤드는 모드의 목록에서 지향된 모드에 따르는 비-방향 모드에 더 많은 악영향을 끼친다.
제 4 종래 기술의 접근법은, 움직임 보상 기반의 예측을 위한 이전의 목적 이외에, 제 2, 제 3, 및 제 4 종래 기술의 접근법으로부터 지향된 모드의 파티션 내에서 인트라 예측의 이용을 제안한다. 제 5 종래 기술의 접근법의 한계는 제 2, 제 3, 및 제 4 종래 기술의 접근법으로부터 물려받고, 이에 따라 이전 단락에 언급된 모든 접근법도 또한 제 5 종래 기술의 접근법에 적용된다.
제 6 종래 기술의 접근법은 문헌에서 발견된 작업으로부터 가장 유연한 프레임워크를 제안한다. 제 6 종래 기술의 접근법은, 2개의 경계점을 연결하는 세그먼트가 블록 파티션을 생성하는데 사용되는 단지 2개만의 모드의 도입을 제안한다. 제안된 움직임 보상 코딩 모드 중 첫 번째 모드는 하나의 매크로블록을, 2개의 매 크로블록 경계점을 연결하는 세그먼트에 의해 분리된 2개의 파티션으로 분할한다. 도 4a를 참조하면, 본 명세서에 기재된 지정된 "제 6 종래 기술의 접근법"의 제 1 움직임 보상 코딩 모드에 따른 매크로블록 파티셔닝은 일반적으로 참조 번호(400)로 표시된다.
제안된 제 2 모드는 매크로블록을 서브블록으로 분할하는 1차 분할에 기초하고, 그런 후에, 각 서브블록은 각 서브블록의 경계 상의 2개의 지점을 연결하는 세그먼트를 이용하여 분할된다. 도 4b를 참조하면, 본 명세서에 기재된 지정된 "제 6 종래 기술의 접근법"의 제 2 움직임 보상 코딩 모드에 따른 매크로블록 파티셔닝은 일반적으로 참조 번호(450)로 표시된다.
몇몇 한계는 여전히 제 6 종래 기술의 접근법에 개설된 방식에 대해 존재하고, 다음을 포함한다.
제 6 종래 기술의 접근법에 관련된 제 1 한계에서, 세그먼트에 의해 2개의 경계점의 연결로서 한정된 블록 파티셔닝은 더 복잡한 경계 또는 윤곽의 경우를 효과적으로 다룰 수 없다. 이로 인해, 제 6 종래 기술의 접근법은 매크로 블록을 서브블록으로 분할하는 것과, 모든 서브블록마다 점 연결 세그먼트의 이용을 제안하여, 더 복잡한 형태에 근사되는데, 이것은 효과적이지 않다.
제 6 종래 기술의 접근법에 관련된 제 2 한계에서, 움직임 보상에 대한 파티션만이 인식되어, 생성된 파티션 내에 몇몇 인트라 코딩 기술의 이용을 무시한다. 이것은 제안된 기술이 노출 효과(uncovering effect)(새로운 데이터가 시퀀스 동안 객체 뒤로부터 나타나는 상황)를 다룰 수 없게 하거나, 간단히 임의의 비디오 프레 임에서 비-시간 예측 방식으로 정보를 코딩할 수 없게 한다.
제 6 종래 기술의 접근법에 관련된 제 3 한계에서, 경계점을 코딩함으로써 파티션 코딩은 왜곡 및 코딩 비용에 관해 충분히 효과적이지 않다. 이것은, 파티션 경계의 기하학적 특성을 적절히 나타낼 수 없고; 이에 따라 비디오 프레임에서 데이터의 기하학적 특성을 적절히 보여주지 않기 때문이다. 더욱이, 비디오 프레임에서의 데이터는 일반적으로 상이한 비디오 성분 및/또는 객체의 국부적인 배향 및 국부적인 위치와 같은 기하학적 정보에 대한 상이한 통계를 제공한다. 경계점의 간단한 이용은 그러한 정보를 반영할 수 없다. 따라서, 코딩 목적을 위해 그러한 통계를 이용할 수 없다.
제 6 종래 기술의 접근법에 관련된 제 4 한계에서, 상이한 비디오 압축 품질은 최상의 왜곡 대 코딩 비용 절충(trade-off)을 달성하기 위해 상이한 기하학적 정보 정밀도 요건을 갖는다. 제 6 종래 기술의 접근법은 비디오 압축 품질에 따라 블록 파티션을 인코딩하기 위해 송신된 정보에 적응하지 않는다. 더욱이, 제 6 종래 기술의 접근법이 파티션 기하학적 정보의 적절한 표현을 갖지 않고 및/또는 다른 방식으로도 나타내지 않기 때문에, 제 6 종래 기술의 접근법은 필요시, 몇몇 다른 종류의 기하학적 정보보다 더 높은 정밀도를 가진 몇몇 종류의 기하학적 정보의 인코딩을 장려할 수 없다.
제 6 종래 기술의 접근법에 관련된 제 5 한계에서, 제 6 종래 기술의 접근법은, 부분적으로 경계의 일측 상에 그리고 부분적으로 타측 상에 있는 파티션의 경계 상에 놓이는 그러한 픽셀을 다루는 것으로 여겨지지 않는다. 이들 픽셀은 필요 시, 파티션 양측으로부터 정보를 혼합할 수 있어야 한다.
도 8을 참조하면, MPEG-4 AVC 표준에 따라 비디오 인코딩을 수행할 수 있는 비디오 인코더는 일반적으로 참조 번호(800)로 표시된다.
비디오 인코더(800)는 조합기(885)의 비-반전 입력과 신호 통신하는 출력을 갖는 프레임 순서 매김(ordering) 버퍼(810)를 포함한다. 조합기(885)의 출력은 변환기(transformer) 및 양자화기(825)의 제 1 입력과 신호 통신하도록 연결된다. 변환기 및 양자화기(825)의 출력은 엔트로피 코더(845)의 제 1 입력, 및 역 변환기 및 역 양자화기(850)의 제 1 입력과 신호 통신하도록 연결된다. 엔트로피 코더(845)의 출력은 조합기(890)의 제 1 비반전 입력과 신호 통신하도록 연결된다. 조합기(890)의 출력은 출력 버퍼(835)의 제 1 입력과 신호 통신하도록 연결된다.
인코더 제어기(805)의 제 1 입력은 프레임 순서 매김 버퍼(810)의 제 2 입력, 역 변환기 및 역 양자화기(850)의 제 2 입력, 화상-유형 결정 모듈(815)의 입력, 매크로블록-유형(MB-유형) 결정 모듈(820)의 입력, 인트라 예측 모듈(860)의 제 2 입력, 디블록킹(deblocking) 필터(865)의 제 2 입력, 움직임 보상기(870)의 제 1 입력, 움직임 추정기(875)의 제 1 입력, 기준 화상 버퍼(880)의 제 2 입력과 신호 통신하도록 연결된다.
인코더 제어기(805)의 제 2 출력은 보충 개선 정보(SEI: Supplemental Enhancement Information) 삽입기(830)의 제 1 입력, 변환기 및 양자화기(825)의 제 2 입력, 엔트로피 코더(845)의 제 2 입력, 출력 버퍼(835)의 제 2 입력, 시퀀스 파라미터 세트(SPS: Sequence Parameter Set) 및 화상 파라미터 세트(PPS: Picture Parameter Set) 삽입기(840)의 입력과 신호 통신하도록 연결된다.
화상-유형 결정 모듈(815)의 제 1 출력은 프레임 순서 매김 버퍼(810)의 제 3 입력과 신호 통신하도록 연결된다. 화상-유형 결정 모듈(815)의 제 2 출력은 매크로블록-유형 결정 모듈(820)의 제 2 입력과 신호 통신하도록 연결된다.
시퀀스 파라미터 세트(SPS) 및 화상 파라미터 세트(PPS) 삽입기(840)의 출력은 조합기(890)의 제 3 비반전 입력과 신호 통신하도록 연결된다.
역 양자화기 및 역 변환기(850)의 출력은 조합기(825)의 제 1 비반전 입력과 신호 통신하도록 연결된다. 조합기(825)의 출력은 인트라 예측 모듈(860)의 제 1 입력 및 디블록킹 필터(865)의 제 1 입력과 신호 통신하도록 연결된다. 디블록킹 필터(865)의 출력은 기준 화상 버퍼(880)의 제 1 입력과 신호 통신하도록 연결된다. 기준 화상 버퍼(880)의 출력은 움직임 추정기(875)의 제 2 입력과 신호 통신하도록 연결된다. 움직임 추정기(875)의 제 1 출력은 움직임 보상기(870)의 제 2 입력과 신호 통신하도록 연결된다. 움직임 추정기(875)의 제 2 출력은 엔트로피 코더(845)의 제 3 입력과 신호 통신하도록 연결된다.
움직임 보상기(870)의 출력은 스위치(897)의 제 1 입력과 신호 통신하도록 연결된다. 인트라 예측 모듈(860)의 출력은 스위치(897)의 제 2 입력과 신호 통신하도록 연결된다. 매크로블록-유형 결정 모듈(820)의 출력은 스위치(897)의 제 3 입력과 신호 통신하도록 연결된다. 스위치(897)의 출력은 조합기(825)의 제 2 비반전 입력과 신호 통신하도록 연결된다.
프레임 순서 매김 버퍼(810) 및 인코더 제어기(805)의 입력은 입력 화 상(801)을 수신하기 위해 인코더(800)의 입력으로서 이용가능하다. 더욱이, 보충 개선 정보(SEI) 삽입기(830)의 입력은 메타데이터를 수신하기 위해 인코더(800)의 입력으로서 이용가능하다. 출력 버퍼(835)의 출력은 비트스트림을 출력하기 위해 인코더(800)의 출력으로서 이용가능하다.
도 10을 참조하면, MPEG-4 AVC 표준에 따라 비디오 디코딩을 수행할 수 있는 비디오 디코더는 일반적으로 참조 번호(1000)로 표시된다.
비디오 디코더(1000)는 엔트로피 디코더(1045)의 제 1 입력과 신호 통신하도록 연결된 출력을 갖는 입력 버퍼(1010)를 포함한다. 엔트로피 디코더(1045)의 제 1 출력은 역 변환기 및 역 양자화기(1050)의 제 1 입력과 신호 통신하도록 연결된다. 역 변환기 및 역 양자화기(1050)의 출력은 조합기(1025)의 제 2 비반전 입력과 신호 통신하도록 연결된다. 조합기(1025)의 출력은 디블록킹 필터(1065)의 제 2 입력과 인트라 예측 모듈(1060)의 제 1 입력과 신호 통신하도록 연결된다. 디블록킹 필터(1065)의 제 2 출력은 기준 화상 버퍼(1080)의 제 1 입력과 신호 통신하도록 연결된다. 기준 화상 버퍼(1080)의 출력은 움직임 보상기(1070)의 제 2 입력과 신호 통신하도록 연결된다.
엔트로피 디코더(1045)의 제 2 출력은 움직임 보상기(1070)의 제 3 입력 및 디블록킹 필터(1065)의 제 1 입력과 신호 통신하도록 연결된다. 엔트로피 디코더(1045)의 제 3 출력은 디코더 제어기(1005)의 입력과 신호 통신하도록 연결된다. 디코더 제어기(1005)의 제 1 출력은 엔트로피 디코더(1045)의 제 2 입력과 신호 통신하도록 연결된다. 디코더 제어기(1005)의 제 2 출력은 역 변환기 및 역 양자화 기(1050)의 제 2 입력과 신호 통신하도록 연결된다. 디코더 제어기(1005)의 제 3 출력은 디블록킹 필터(1065)의 제 3 입력과 신호 통신하도록 연결된다. 디코더 제어기(1005)의 제 4 출력은 인트라 예측 모듈(1060)의 제 2 입력과, 움직임 보상기(1070)의 제 1 입력과, 기준 화상 버퍼(1080)의 제 2 입력과 신호 통신하도록 연결된다.
움직임 보상기(1070)의 출력은 스위치(1097)의 제 1 입력과 신호 통신하도록 연결된다. 인트라 예측 모듈(1060)의 출력은 스위치(1097)의 제 2 입력과 신호 통신하도록 연결된다. 스위치(1097)의 출력은 조합기(1025)의 제 1 비반전 입력과 신호 통신하도록 연결된다.
입력 버퍼(1010)의 입력은 입력 비트스트림을 수신하기 위해 디코더(1000)의 입력으로서 이용가능하다. 디블록킹 필터(1065)의 제 1 출력은 출력 화상을 출력하기 위해 디코더(1000)의 출력으로서 이용가능하다.
종래 기술의 이들 및 다른 결점 및 단점은 비디오 인코딩 및 디코딩을 위한 적응성 기하학적 파티셔닝을 위한 방법 및 장치와 관련있는 본 원리에 의해 다루어진다.
본 원리의 양상에 따라, 장치가 제공된다. 상기 장치는 적어도 하나의 파라미터 모델에 응답하는 화상의 적어도 부분을 적응성 파티셔닝함으로써 화상에 대응하는 이미지 데이터를 인코딩하기 위한 인코더를 포함한다. 적어도 하나의 파리미터 모델은 적어도 하나의 곡선의 암시적(implicit) 및 명시적(explicit) 구성 중 적어도 하나를 수반한다.
본 원리의 다른 양상에 따라, 방법이 제공된다. 상기 방법은 적어도 하나의 파라미터 모델에 응답하는 화상의 적어도 부분을 적응성 파티셔닝함으로써 화상에 대응하는 이미지 데이터를 인코딩하는 단계를 포함한다. 적어도 하나의 파리미터 모델은 적어도 하나의 곡선의 암시적 및 명시적 구성 중 적어도 하나를 수반한다.
본 원리의 또 다른 양상에 따라, 장치가 제공된다. 상기 장치는 적어도 하나의 파라미터 모델을 이용하여 파티셔닝된 화상의 적어도 부분을 재구성함으로써 화상에 대응하는 이미지 데이터를 디코딩하기 위한 디코더를 포함한다. 적어도 하나의 파리미터 모델은 적어도 하나의 곡선의 암시적 및 명시적 구성 중 적어도 하나를 수반한다.
본 원리의 또 다른 양상에 따라, 방법이 제공된다. 상기 방법은, 적어도 하나의 파라미터 모델을 이용하여 파티셔닝된 화상의 적어도 부분을 재구성함으로써 화상에 대응하는 이미지 데이터를 디코딩하는 단계를 포함한다. 적어도 하나의 파라미터 모델은 적어도 하나의 곡선의 암시적 및 명시적 구성의 적어도 하나를 수반한다.
본 원리의 이들 및 다른 양상, 특징 및 장점은 첨부 도면과 관련하여 읽혀질 예시적인 실시예에 대한 다음의 상세한 설명으로부터 명백해질 것이다.
본 원리는 다음의 예시적인 도면에 따라 더 잘 이해될 수 있다.
도 1은 본 원리가 적용될 수 있는 MPEG-4 AVC 표준 매크로블록 분할 세트를 도시한 도면.
도 2a 및 도 2b는 본 명세서에 기재된 지정된 "제 1 종래 기술의 접근법"에 대응하는 추가 움직임 보상 코딩 모드를 도시한 도면.
도 3은 본 명세서에 기재된 지정된 "제 2", "제 3", 및 "제 4 종래 기술의 접근법"에 관련된 움직임 보상 코딩 모드를 도시한 도면.
도 4a는 본 명세서에 기재된 지정된 "제 6 종래 기술의 접근법"의 제 1 움직임 보상 코딩 모드에 따른 매크로블록 파티셔닝을 도시한 도면.
도 4b는 본 명세서에 기재된 지정된 "제 6 종래 기술의 접근법"의 제 2 움직임 보상 코딩 모드에 따른 매크로블록 파티셔닝을 도시한 도면.
도 5는 본 원리의 일실시예에 따라 파티션(P0 및 P1)을 갖는 다항식 모델에 기초한 부드러운 경계 파티션을 도시한 도면.
도 6은 본 원리의 일실시예에 따라, 파라미터 모델로서 사용하기 위한 파라미터 기재된 기하학적 구조(각도 및 위치)를 갖는 1차 다항식을 이용하는 일례를 도시한 도면.
도 7은 본 원리의 일실시예에 따라, 1차 다항식을 이용하여 파라미터 모델{f(x,y)}로부터 생성된 파티션 마스크를 도시한 도면.
도 8은 MPEG-4 AVC 표준에 따라 비디오 인코딩을 수행할 수 있는 비디오 인코더를 도시한 블록도.
도 9는 본 원리의 일실시예에 따라, 본 원리와의 사용을 위해 확장된, MPEG-4 AVC 표준에 따라 비디오 인코딩을 수행할 수 있는 비디오 인코더를 도시한 블록 도.
도 10은 MPEG-4 AVC 표준에 따라 비디오 디코딩을 수행할 수 있는 비디오 디코더를 도시한 블록도.
도 11은 본 원리의 일실시예에 따라, 본 원리와의 사용을 위해 확장된, MPEG-4 AVC 표준에 따라 비디오 디코딩을 수행할 수 있는 비디오 디코더를 도시한 블록도.
도 12는 본 원리의 일실시예에 따라, 디블록킹 절차와 함께 파라미터 모델 기반으로 파티셔닝된 매크로블록 및 그 이용을 도시한 도면.
도 13은 본 원리의 일실시예에 따라, 좌측 블록의 파라미터로부터 우측 블록에 대한 파티션 파라미터 예측의 일례를 도시한 도면.
도 14는 본 원리의 일실시예에 따라, 상부 블록의 파라미터로부터 하부 블록에 대한 파티션 파라미터 예측의 일례를 도시한 도면.
도 15는 본 원리의 일실시예에 따라, 상부 및 좌측 블록의 파라미터로부터 우측 블록에 대한 파티션 파라미터 예측의 일례를 도시한 도면.
도 16은 본 원리의 일실시예에 따라, 모델-기반의 파티션 파라미터 및 예측 검색을 이용한 기하학적 모드 추정을 위한 예시적인 방법을 도시한 도면.
도 17은 본 원리의 일실시예에 따라, 기하학적으로 파티셔닝된 예측 블록을 코딩하기 위한 예시적인 방법을 도시한 흐름도.
도 18a는 본 원리의 일실시예에 따라, 기하학적으로 파티셔닝된 인터 예측 블록을 코딩하기 위한 예시적인 방법을 도시한 흐름도.
도 18b는 본 원리의 일실시예에 따라, 기하학적으로 파티셔닝된 인트라 예측 블록을 코딩하기 위한 예시적인 방법을 도시한 흐름도.
도 19는 본 원리의 일실시예에 따라, 다수의 유형의 모델을 가지고 코딩하기 위한 예시적인 방법을 도시한 흐름도.
도 20은 본 원리의 일실시예에 따라, 기하학적으로 파티셔닝된 예측 블록을 디코딩하기 위한 예시적인 방법을 도시한 흐름도.
도 21a는 본 원리의 일실시예에 따라, 기하학적으로 파티셔닝된 인터 예측 블록을 디코딩하기 위한 예시적인 방법을 도시한 흐름도.
도 21b는 본 원리의 일실시예에 따라, 기하학적으로 파티셔닝된 인트라 예측 블록을 디코딩하기 위한 예시적인 방법을 도시한 흐름도.
도 22는 본 원리의 일실시예에 따라, 다수의 유형의 모델을 가지고 디코딩하기 위한 예시적인 방법을 도시한 흐름도.
도 23은 본 원리의 일실시예에 따라, 슬라이스 헤더 신택스(syntax) 코딩을 위한 예시적인 방법을 도시한 흐름도.
도 24는 본 원리의 일실시예에 따라, 기하학적 파라미터 정밀도를 도출하기 위한 예시적인 방법을 도시한 흐름도.
도 25는 본 원리의 일실시예에 따라, 기하학적 블록을 재구성하기 위한 예시적인 방법을 도시한 흐름도.
도 26은 본 원리의 일실시예에 따라, 현재 블록에 대한 최상의 모드를 검색하기 위한 예시적인 방법을 도시한 흐름도.
도 27은 본 원리의 일실시예에 따라, 슬라이스 헤더 신택스 디코딩을 위한 예시적인 방법을 도시한 흐름도.
본 원리는 비디오 인코딩 및 디코딩을 위한 적응성 기하학적 파티셔닝을 위한 방법 및 장치에 관한 것이다.
본 설명은 본 원리를 예시한다. 따라서, 당업자는 본 명세서에 명백히 설명되거나 도시되지 않았지만, 본 원리를 구현하고 본 원리의 사상 및 범주 내에 포함되는 다양한 장치를 구상할 수 있다는 것이 인식될 것이다.
본 명세서에 언급된 모든 예 및 조건부 언어는, 종래 기술을 촉진시키기 위해 본 발명자(들)에 의해 제공된 본 원리 및 개념을 이해하는데 있어서 독자에게 도움을 주기 위해 교육적인 목적을 위해 의도되고, 그러한 특히 언급된 예 및 조건에 한정되지 않는 것으로 해석되어야 한다.
더욱이, 본 원리의 원리, 양상, 및 실시예를 언급한 모든 진술 뿐 아니라 특정 예는 구조적 및 기능적 등가물 모두를 포함하도록 의도된다. 추가적으로, 그러한 등가물이 현재 알려진 등가물 및 미래에 개발될 등가물, 즉 구조에 상관없이 동일한 기능을 수행하는 개발된 임의의 요소를 포함하도록 의도된다.
따라서, 예를 들어, 본 명세서에 제시된 블록도가 본 원리를 구현하는 예시적인 회로의 개념도를 나타낸다는 것임을 당업자가 인식할 것이다. 유사하게, 임의의 흐름 차트, 흐름도, 상태 전이도, 의사 코드 등은 실질적으로 컴퓨터 판독가능 매체에서 표현될 수 있고, 컴퓨터 또는 프로세스가 명백히 도시되는 지에 관계없이 컴퓨터 또는 프로세스에 의해 실행될 수 있는 다양한 프로세스를 나타낸다는 것이 인식될 것이다.
도면에 도시된 다양한 요소의 기능은 전용 하드웨어 뿐 아니라 적절한 소프트웨어와 연관되어 소프트웨어를 실행할 수 있는 하드웨어의 이용을 통해 제공될 수 있다. 프로세스에 의해 제공될 때, 그 기능은 단일 전용 프로세서에 의해, 단일 공유 프로세서에 의해, 또는 몇몇이 공유될 수 있는 복수의 개별적인 프로세서에 의해 제공될 수 있다. 더욱이, "프로세서" 또는 "제어기"라는 용어의 명백한 이용은 전적으로 소프트웨어를 실행할 수 있는 하드웨어만을 언급하도록 해석되지 않아야 하고, 제한 없이 디지털 신호 프로세서("DSP") 하드웨어, 소프트웨어를 저장하기 위한 판독 전용 메모리("ROM"), 랜덤 엑세스 메모리("RAM"), 및 비휘발성 저장부를 암시적으로 포함할 수 있다.
종래 및/또는 관습적인 다른 하드웨어도 또한 포함될 수 있다. 유사하게, 도면에 도시된 임의의 스위치는 단지 개념적이다. 그 기능은 프로그램 로직의 동작을 통해, 전용 로직을 통해, 프로그램 제어와 전용 로직의 상호작용을 통해 수행될 수 있으며, 또는 심지어 수동으로, 특정 기술이 문맥으로부터 더 구체적으로 이해될 때 구현자에 의해 선택가능하다.
청구범위에서, 특수한 기능을 수행하기 위한 수단으로서 표현된 임의의 요소는, 예를 들어 a) 그 기능을 수행하는 회로 요소의 조합, 또는 b) 그러므로 그 기능을 수행하기 위해 그러한 소프트웨어를 실행하기 위한 적절한 회로와 조합된, 펌웨어, 마이크로코드 등을 포함하는 임의의 형태의 소프트웨어를 포함하는 그 기능 을 수행하는 임의의 방식을 포함하도록 의도된다. 그러한 청구범위에 의해 한정된 본 원리는, 다양하게 언급된 수단에 의해 제공된 기능성이 청구범위가 청구하는 방식으로 조합되고 연관된다는 점에 있다. 따라서, 그러한 기능성을 제공할 수 있는 임의의 수단이 본 명세서에 도시된 수단과 동등하다고 간주된다.
본 원리의 "일실시예" 또는 "실시예"에 대한 본 명세서에서의 참조는, 실시예와 연계하여 설명된 특정한 특징, 구조, 특성 등이 본 원리의 적어도 하나의 실시예에 포함된다는 것을 의미한다. 따라서, 명세서 전체에 여러 장소에 나타나는 구문 "일실시예" 또는 "실시예"의 출현은 반드시 동일한 실시예를 언급하지는 않는다.
"블록" 및 "영역"이라는 용어는 본 명세서에 상호 교환적으로 사용된다는 것이 인식될 것이다.
"기존의 비디오 코딩 표준" 및 "비디오 코딩 권고"라는 구문은, 아직 개발되지 않지만 본 원리의 응용 시간 내에 존재하는 것을 포함하는 임의의 기존의 비디오 코딩 표준 및 권고를 언급할 수 있다는 것이 추가로 인식될 것이다. 그러한 표준 및 권고는 H.261, H.262, H.263, H.263+, H.263++, MPEG-1, MPEG-2, MPEG-4 AVC 등을 포함하지만 여기에 한정되지 않는다.
더욱이, 비디오 코딩 표준 및/또는 권고에 대해 사용될 때 "확장된 버전"이라는 용어는 변형되고, 발전되거나, 그 밖의 방식으로 확장된 버전을 나타낸다.
또한, "이미지 데이터"라는 구문은 임의의 정지(still) 이미지 및 이동 이미지(즉, 움직임을 포함하는 이미지의 시퀀스)에 대응하는 데이터를 언급하도록 의도 되는 것이 인식될 것이다.
추가적으로, 본 명세서에 사용된 바와 같이, "고 레벨 신택스"는 매크로블록 층 위에 계층적으로 존재하는 비트스트림에 있는 신택스를 언급한다. 예를 들어, 본 명세서에 사용된 바와 같이, 고 레벨 신택스는 슬라이스 헤더 레벨, 보충 개선 정보(SEI) 레벨, 화상 파라미터 세트 레벨, 시퀀스 파라미터 세트 레벨 및 NAL 유닛 헤더 레벨을 언급하지만 여기에 한정되지 않는다.
예를 들어 "A 및/또는 B"의 경우에서, "및/또는"이라는 용어의 이용은 제 1 기록된 옵션(A)의 선택, 제 2 기록된 옵션(B)의 선택, 또는 양쪽 옵션(A 및 B)의 선택을 포함하도록 의도된다는 것이 인식될 것이다. 추가 예로서, "A, B, 및/또는 C"의 경우에, 그러한 구문 기재는 제 1 기록된 옵션(A)의 선택, 제 2 기록된 옵션(B)의 선택`, 제 3 기록된 옵션(C)의 선택, 제 1 및 제 2 기록된 옵션(A 및 B)의 선택, 제 1 및 제 3 기록된 옵션(A 및 C)의 선택, 제 2 및 제 3 기록된 옵션(B 및 C)의 선택, 또는 모든 3개의 옵션(A 및 B 및 C)의 선택을 포함하도록 의도된다. 이것은 기록된 항목만큼, 당업자에 의해 쉽게 명백한 바와 같이 확장될 수 있다.
전술한 바와 같이, 본 원리는 비디오 인코딩 및 디코딩을 위한 적응성 기하학적 파티셔닝을 위한 방법 및 장치에 관한 것이다.
본 원리의 하나 이상의 실시예는 트리 기반의 접근법의 비효율성을 극복하기 위해 국부적인 신호 기하학적 구조를 포착하고 나타낼 수 있는, 프레임 영역 파티셔닝을 위한 파라미터 모델을 이용한다. 본 원리의 다양한 실시예에 사용된 파라미터 모델링은 적어도 하나의 곡선(1차 다항식의 특정한 경우에, 직선이 되는)의 암 시적 또는 명시적 구성에 의해 이미지 부분(또는 매크로블록) 내에 적어도 하나의 파티션을 한정할 때, 그리고 이것의 특정한 실시예가 소위 "암시적 곡선" 구성에 따라 파티션 및 곡선을 결합하여 한정하는 경우 한정된다. 본 원리에 따라 사용된 일반적인 곡선의 구성은, 제 6 종래 기술의 접근법이 블록의 외주(periphery) 상에 위치된 2개의 주어진 점 사이에 직선 연결로서 블록 내에 슬라이싱된 파티션 사이의 경계를 한정한다는 점에서 전술한 제 6 종래 기술의 접근법과 구별된다.
예측될 프레임의 영역 또는 블록이 주어지면, 기하학적 파티션 모드는 고전적인 트리 파티셔닝에 근거한 모드에 더하여 테스트된다. 관련된 블록 또는 영역은 파라미터 모델의 하나 또는 세트에 의해 기재된 몇몇 영역으로 파티셔닝된다. 특히, 이것의 형태는 2개의 파티션으로의 블록 또는 영역의 파티션일 수 있으며, 여기서 그 경계는 파라미터 모델 또는 함수{f(x,y,
Figure 112009006016297-PCT00001
)}에 의해 기재되고, 여기서 x 및 y는 좌표축을 나타내고,
Figure 112009006016297-PCT00002
는 파티션의 형태를 나타내는 정보를 포함하는 파라미터 세트를 나타낸다. 일단 프레임 블록 또는 영역이 {f(x,y,
Figure 112009006016297-PCT00003
)}을 이용하여 파티션으로 분할되면, 각 생성된 파티션은 몇몇 왜곡 및 코딩 비용 측정 절충에 근거하여, 가장 적절한 예측자에 의해 예측된다.
그러한 파티션 설명이 관심 있는 이유는, 최근의 연구에서, 트리 구조가 이미지 정보를 코딩하기 위해 부분 최적화되는 것으로 드러났기 때문이다. 이러한 연구는, 이미지의 트리-기반의 코딩이 규칙적인 에지 또는 윤곽선에 의해 분리된 이종의 영역을 최적으로 코딩할 수 없다는 것을 주장한다. 이러한 문제는, 트리 구조 가 에지, 윤곽선 또는 지향된 텍스처를 따라 존재하는 기하학적 중복을 최적으로 포착할 수 없다는 점에서 발생한다. 비디오 시퀀스에서, 에지 및/또는 윤곽선이 코딩될 필요가 있는 상황의 상이한 경우는 흔하다. 이러한 경우 중 하나는, 인트라 코딩된 데이터가 인코딩될 때이다. 상이한 종류의 시각적 데이터 사이의 경계는 가장 관련된 종류의 정보, 예를 들어 에지 및 객체 윤곽선 중 하나이다. 인터 코딩된 데이터에서, 이동 객체 주위에 그리고 상이한 움직임의 영역 사이의 윤곽선은 또한 관련 중요성이 있다.
본 원리의 일실시예는 2차원(2D) 데이터의 기하학적 구조에 적응된 일반적인 기하학적 프레임 파티셔닝에 대한 기술을 제공한다. 그런 후에, 생성된 영역의 각 하나는 예측의 가장 효과적인 유형, 예를 들어 인터 및/또는 인트라 예측 유형을 이용함으로써 인코딩된다. 일실시예는 블록 또는 프레임 영역에서 기하학적 파티션의 생성을 포함한다. 고전적인 트리 대신에, 기하학적으로 적응된 파티션으로의 블록 또는 프레임 영역의 파티션은 송신될 정보의 양 뿐 아니라 예측 절차에 의해 생성된 잔여량의 감소를 허용한다. 본 원리에 따라, 파라미터 모델은 각 블록 내의 파티션 경계를 생성, 근사 및/또는 코딩하는데 사용된다. 그러한 접근법은 2D 데이터의 주요 기하학적 특성의 더 우수한 포착을 허용한다. 예를 들어, 모델 파라미터는, 예를 들어 파티션 경계 각도, 위치, 불연속성(discontinuity), 및/또는 심지어 곡률을 수반하지만 여기에 한정되지 않은 정보를 독립적으로 운반하도록 한정될 수 있다. 파티션 코딩을 위한 파라미터 모델의 이용은 매우 간결한 파티션 에지 묘사를 허용하고, 이것은 코딩될 파라미터의 수를 최소화한다. 더욱이, 파티션 모델 파 라미터는 통계 및 특성에 따라 파라미터 각각을 최상으로 코딩하기 위해 독립적인 또는 상이한 기하학적 정보를 분리(decouple)하는 것과 같이 한정될 수 있다. 기하학적 정보의 그러한 모델-기반의 처리는 또한 기하학적 파라미터당 부여된 코딩 정보의 양에 대한 선택적인 감소 또는 증가를 허용한다. 코딩 효율에 더하여, 그러한 특징은 코딩 효율에 대한 영향을 최소화하는 한편 계산상 복잡도를 제어하는데 유용하다.
파라미터 모델 기반의 파티션 묘사를 이용하는 것의 장점 중 하나는, 블록에서 2개의 파티션 사이의 부드러운 파티션 경계를 효과적으로 설명할 가능성이다. 여러 번, 인트라 프레임에서 2개의 상이한 이동 객체, 또는 에지 사이의 경계는 몇몇 종류의 다항식{
Figure 112009006016297-PCT00004
}에 의해 모델링될 수 있고, 미세하게 근사될 수 있다. 도 5를 참조하면, 파티션(P0 및 P1)을 갖는 다항식 모델에 근거한 부드러운 경계 파티션은 일반적으로 참조 번호(500)로 표시된다.
기하학적 이미지 및 비디오 코딩의 목적을 위해,
Figure 112009006016297-PCT00005
(또한 다음에서 f(x,y)로 표현됨) 파라미터는, 이들 파라미터가 국부적인 각도, 위치 및/또는 몇몇 곡률 크기와 같은 기하학적 정보를 나타내도록 작용될 수 있다. 따라서, 1차 다항식(
Figure 112009006016297-PCT00006
)의 특정한 경우에, 블록 파티션은, 좌표축의 주어진 세트에 대해 각도 및 거리를 나타내도록 표현될 수 있다:
f(x,y) = xcosθ+ysinθ-ρ,
여기서 파티션 경계는 f(x,y)=0이 되도록 그러한 위치(x,y)에 걸쳐 한정된 다.
도 6을 참조하면, 파라미터 모델로서 사용하기 위해 파라미터 기재된 기하학적 구성(각도 및 위치)을 갖는 1차 다항식을 이용하는 일례는 일반적으로 참조 번호(600)로 표시된다.
매 블록으로부터 2개의 영역의 생성에 관한 실시예에서, 다음과 같은 암시적인 구성은 파티션을 나타내는데 사용될 수 있다:
Figure 112009006016297-PCT00007
제로 라인(f(x,y)=0))의 일측 상에 위치한 모든 픽셀은 하나의 파티션 영역(예를 들어, 파티션 1)에 속하는 것으로 분류된다. 다른 측 상에 위치한 모든 픽셀은 교대 영역(예를 들어, 파티션 0)에서 분류된다.
파티션 경계 상의 픽셀을 다루는 선택적인 방법:
파티션의 별개의 특성을 고려하면, 분리 라인 또는 곡선의 이웃 상에서, 몇몇 픽셀이 하나 또는 다른 파티션에 부분적으로 속하는 것으로 단지 고려될 수 있다는 것을 발견했다. 이것은, 파라미터 모델 구성이 연속적이고, 파티션 실현이 별개라는 점 때문이다.
그러한 픽셀은 파티션 측의 각 하나를 나타내는데 사용된 예측자의 영향을 받을 수 있다. 따라서, 픽셀은 파티션 1 및 0의 라벨과 다른 라벨을 가지고, "부분 표면"이라고 라벨이 붙여질 수 있다. 간략함을 위해, 하나 또는 다른 파티션에서 의 픽셀을 1 또는 0으로 라벨을 붙이는 규약을 채택한다. 이에 따라 "부분 표면" 픽셀은 그 사이에 몇몇 값으로 식별될 수 있고, 이것은 또한 해당 픽셀이 얼마나 파티션 0이 되는지에 대한 정보를 포함할 수 있다(예를 들어, 1의 값은 완전함을 나타내고, 0.5는 절반-절반을 나타내고, 0은 없음을 나타낸다). 물론, 이전의 그리고 전체에 걸친 전술한 번호 매김 배열은 예시 및 명확함을 위해 제공되고, 본 명세서에 제공된 본 원리의 기술이 주어지면, 당업자는 본 원리의 사상을 유지하면서, 본 원리와 사용하기 위한 이들 및 다양한 다른 번호 매김 배열을 구상할 것이다. 전술한 내용은 파티션 0에 대한 라벨 붙임의 다음의 정의로 통상 표현된다:
Figure 112009006016297-PCT00008
Label(x,y)=1은, 픽셀이 제 1 파티션 내에 포함되는지를 나타낸다. Label(x,y)=0은, 제 2 파티션에서, 부분적으로 분류되는 특정한 픽셀에 대해 값 상태의 나머지라는 것을 나타내며, 이것은 또한 제 1 파티션으로부터 그 예측 값에 대한 기여의 가중치를 나타낸다. 제 2 파티션으로부터의 예측은 가중치(1-Label(x,y))를 가지고 "부분 표면" 픽셀의 값에 기여한다. 이러한 일반적인 픽셀 분류는 파티션 마스크의 형태 하에 생성된다. 도 7을 참조하면, 1차 다항식을 이용하여 파라미터 모델(f(x,y))로부터 생성된 파티션 마스크는 일반적으로 참조 번호(700)로 표시된다. 전술한 바와 같이, 전술한 부동 소수점 숫자는 단지 가능한 선택 값의 예에 불과하다. 게다가, f(x,y)에 따라, 0.5 이외의 임계값이 가능하다. "부분 표면"으로서 분류된 모든 픽셀은, 또한 중첩하는 파티션 중 하나 내에 하나 이상의 이웃 픽셀의 함수, 또는 중첩하는 2 이상의 파티션의 함수의 조합으로서 예측될 수 있다. 또한, 본 명세서에 기재된 본 원리의 임의의 양상이 정수 구현, 및/또는 룩업 테이블의 이용에 적응될 수 있다는 것을 당업자는 인식할 것이다.
샘플링 파티션 함수, f(x,y), 파라미터 공간에 대한 고려사항:
모델 파라미터는 디코더가 해당 블록 또는 영역의 파티션을 결정하게 하도록 인코딩되고 송신될 필요가 있다. 이러한 목적을 위해, 파티션 파라미터의 정밀도는 블록 또는 파티션 영역을 나타내기 위해 부여하려고 하는 코딩 비용의 최대량에 따라 제한된다.
일반성의 손실 없이, 가능한 파티션(또는 기하학적 모델)의 사전(dictionary)은 f(x,y)의 각 파라미터에 대한 값 범위 및 샘플링 정밀도를 결정함으로써 선험적으로(a priori) 정의된다. 예를 들어, 기하학적 1차 다항식 경계의 경우에, 이것은 다음이 되도록 정의될 수 있다:
Figure 112009006016297-PCT00009
Figure 112009006016297-PCT00010
여기서 △ρ 및 △θ는 선택된 양자화(파라미터 정밀도) 단계이다. 그럼에도 불구하고, 선택된 값에서의 오프셋이 확립될 수 있다. θ 및 ρ에 대한 양자화된 지수는 파티션 형태를 코딩하도록 송신된 정보이다. 그러나, 수직 및 수평 방향 모드(MPEG-4 AVC 표준에 대해 정의된 바와 같이)가 개별적인 코딩 모드로서 사용되는 경우에, ρ=0 및 각도 0 및 90을 갖는 기하학적인 파티션은 가능한 파티션 구성 세트로부터 제거된다. 이것은 비트를 절약할 뿐 아니라 복합성을 감소시킬 수 있다.
디코더는 인코더에 의해 사용된 파라미터 정밀도를 알 필요가 있다. 이것은 이미 존재하는 몇몇 데이터(예를 들어, MPEG-4 AVC 표준에서 양자화 파라미터)의 함수로서 명시적으로 또는 암시적으로 파티션 파라미터의 모든 유형에 대해 송출될 수 있다. 파라미터 정밀도는 시퀀스, 화상, 및/또는 슬라이스 레벨과 같은 몇몇 고 레벨 신택스에 따라 적응될 수 있다.
본 원리에 대해 본 명세서에 기재된 영역 파티셔닝을 이용하는 비디오 통신 시스템은, 영역 파티셔닝을 이용하는 모든 영역에 대해, 파티션의 형태를 나타내기 위해 필요한 인코딩된 파라미터 세트를 송신해야 한다. 모든 기하학적인 인코딩된 영역에 대해, 송신된 데이터의 나머지는 트리 기반의 파티션 모드에 의해 송신된 종류와 유사한 종류일 것이다. 더욱이, 각 모델-기반의 파티션에 대해, 예측 정보는 송신되어야 한다. 더욱이, 잔여 예측 에러는 또한 결국 예측 이후에 인코딩될 수 있다.
파라미터 모델 기반의 기하학적 영역 파티셔닝의 이용은 프레임의 파티셔닝에 종속하는 비디오 인코더/디코더에서의 모든 프로세스에 영향을 끼친다. 본 원리로부터 유리할 수 있고 본 원리에 적응될 수 있는 비디오 시스템에서의 더 흔한 프로세스/모듈의 몇몇은, 인코더/디코더의 일반적인 제어; 영역 예측(움직임 보상/인 트라 데이터 예측); 움직임 추정; 엔트로피 코딩/디코딩; 및 결점 감소를 위한 인-루프(in-loop) 필터링을 포함하지만, 여기에 한정되지 않는다.
이후부터, MPEG-4 AVC 표준 프레임워크에 대한 일실시예가 설명된다. 그러나, 본 원리가 단지 MPEG-4 AVC에만 한정되지 않고, 본 원리의 사상을 유지하면서 다른 비디오 코딩 표준 및 권고에 대해 쉽게 이용될 수 있음이 인식될 것이다.
본 원리에 따라 파라미터 모델 파티션을 고려하기 위해 MPEG-4 AVC 표준 비디오 인코더 및 디코더의 확장:
이제, 본 원리에 따라 MPEG-4 AVC 표준의 확장에 관련된 일실시예가 설명될 것이다. MPEG-4 AVC 표준은 코딩 성능을 최적화하기 위해 트리-기반의 프레임 파티셔닝에 의존한다. 본 원리의 일실시예에 따라 MPEG-4 AVC 표준을 확장하는 것은 MPEG-4 AVC 표준이 적용되는 트리-기반의 프레임 파티셔닝에 고유한 한계를 극복하는데 도움을 준다.
파라미터 모델-기반의 영역 파티셔닝의 이용은 새로운 블록 코딩 모드의 형태 하에 MPEG-4 AVC 표준에 포함될 수 있다. MPEG-4 AVC 표준 트리-기반의 프레임 파티셔닝은 필요시 각 화상을 16x16, 16x8, 8x16, 8x8, 8x4, 4x8, 및 4x4 블록으로 분할한다. 이들 파티션 유형의 각각은, 동시에 모드에 따라 인터 또는 인트라 유형일 수 있는 코딩 모드와 연관된다. 이들 블록 파티션 모드 이외에, 파라미터 모델(f(x,y))이 블록 내에 파티션을 나타내는데 사용되도록 추가 파티션 블록 모드를 도입한다. 파라미터 모델로 분할된 그러한 블록 모드는 본 명세서에서 "기하학적 모드"로 언급된다. 그 목적은 파티션을 가능한 한 크게 생성하는 것이고; 따라서, 파라미터 모델의 목적은 16x16 크기 블록, 또는 트리-기반의 파티션의 리프들(leaves) 집합에 적용되는 것이다. 그러나, 압축 효율이 중요할 때, 8x8 "기하학적모드" 블록도 또한 고려된다. 8x8 "기하학적 모드" 블록의 이용은 또한 복잡성 인자에 따라 인에이블될 수 있거나 디스에이블될 수 있다. 고 레벨 신택스는 8x8 "기하학적 모드"가 사용되는 지의 여부를 나타내기 위해 신호 발신(signaled)될 수 있다. 이것은 그러한 모드가 사용되지 않을 때 코딩 오버헤드를 절약할 수 있다. 신택스 레벨의 특정 예는 시퀀스, 화상 및/또는 슬라이스 레벨을 포함하지만 여기에 한정되지 않는다.
코딩 모드의 새로운 집단을 삽입하기 위해, 인코더 및/또는 디코더는 변형될 수 있다. 도 8, 9, 10 및 11에 도시된 바와 같이, MPEG-4 AVC 표준에서 주요 빌딩 블록의 기능성은 기하학적 정보를 포착하고 코딩할 수 있는 새로운 모드를 다루기 위해 변형되고 확장될 수 있다.
도 9를 참조하면, 본 원리와 함께 사용하기 위해 확장된, MPEG-4 AVC 표준에 따라 비디오 인코딩을 수행할 수 있는 비디오 인코더는 일반적으로 참조 번호(900)로 표시된다.
비디오 인코더(900)는 조합기(985)의 비반전 입력과 신호 통신할 수 있는 출력을 갖는 프레임 순서 매김 버퍼(910)를 포함한다. 조합기(985)의 출력은 기하학적 확장부를 갖는 변환기 및 양자화기(927)의 제 1 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 변환기 및 양자화기(927)의 출력은 기하학적 확장부를 갖는 엔트로피 코더(945)의 제 1 입력 및 역 변환기 및 역 양자화기(950)의 제 1 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 엔트로피 코더(945)의 출력은 조합기(990)의 제 1 비반전 입력과 신호 통신하도록 연결된다. 조합기(990)의 출력은 출력 버퍼(935)의 제 1 입력과 신호 통신하도록 연결된다.
기하학적 확장부를 갖는 인코더 제어기(905)의 제 1 출력은 프레임 순서 매김 버퍼(910)의 제 2 입력과, 역 변환기 및 역 양자화기(950)의 제 2 입력과, 화상-유형 결정 모듈(915)의 입력과, 기하학적 확장부를 갖는 매크로블록-유형(MB-유형) 결정 모듈(920)의 입력과, 기하학적 확장부를 갖는 인트라 예측 모듈(960)의 제 2 입력과, 기하학적 확장부를 갖는 디블록킹 필터(965)의 제 2 입력과, 기하학적 확장부를 갖는 움직임 보상기(970)의 제 1 입력과, 기하학적 확장부를 갖는 움직임 추정기(975)의 제 1 입력과, 기준 화상 버퍼(980)의 제 2 입력과 신호 통신하도록 연결된다.
기하학적 확장부를 갖는 인코더 제어기(905)의 제 2 출력은 보충 개선 정보(SEI) 삽입기(930)의 제 1 입력과, 기하학적 확장부를 갖는 변환기 및 양자화기(927)의 제 2 입력과, 기하학적 확장부를 갖는 엔트로피 코더(945)의 제 2 입력과, 출력 버퍼(935)의 제 2 입력과, 시퀀스 파라미터 세트(SPS) 및 화상 파라미터 세트(PPS) 삽입기(940)의 입력과 신호 통신하도록 연결된다.
화상-유형 결정 모듈(915)의 제 1 출력은 프레임 순서 매김 버퍼(910)의 제 3 입력과 신호 통신하도록 연결된다. 화상-유형 결정 모듈(915)의 제 2 출력은 기하학적 확장부를 갖는 매크로블록-유형 결정 모듈(920)의 제 2 입력과 신호 통신하도록 연결된다.
시퀀스 파라미터 세트(SPS) 및 화상 파라미터 세트(PPS) 삽입기(940)의 출력은 조합기(990)의 제 3 비반전 입력과 신호 통신하도록 연결된다.
역 양자화기 및 역 변환기(950)의 출력은 조합기(925)의 제 1 비반전 입력과 신호 통신하도록 연결된다. 조합기(925)의 출력은 기하학적 확장부를 갖는 인트라 예측 모듈(960)의 제 1 입력과, 기하학적 확장부를 갖는 디블록킹 필터(965)의 제 1 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 디블록킹 필터(965)의 출력은 기준 화상 버퍼(980)의 제 1 입력과 신호 통신하도록 연결된다. 기준 화상 버퍼(980)의 출력은 기하학적 확장부를 갖는 움직임 추정기(975)의 제 2 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 움직임 추정기(975)의 제 1 출력은 기하학적 확장부를 갖는 움직임 보상기(970)의 제 2 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 움직임 추정기(975)의 제 2 출력은 기하학적 확장부를 갖는 엔트로피 코더(945)의 제 3 입력과 신호 통신하도록 연결된다.
기하학적 확장부를 갖는 움직임 보상기(970)의 출력은 스위치(997)의 제 1 입력과 신호 통신하도록 연결된다. 인트라 예측 모듈(860)의 출력은 스위치(997)의 제 2 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 매크로블록-유형 결정 모듈(920)의 출력은 스위치(997)의 제 3 입력과 신호 통신하도록 연결된다. 스위치(997)의 출력은 조합기(925)의 제 2 비반전 입력과, 조합기(985)의 반전 입력과 신호 통신하도록 연결된다.
프레임 순서 매김 버퍼(910) 및 기하학적 확장부를 갖는 인코더 제어기(905)의 입력은 입력 화상(901)을 수신하기 위해 인코더(900)의 입력으로서 이용가능하 다. 더욱이, 보충 개선 정보(SEI) 삽입기(930)의 입력은 메타데이터를 수신하기 위해 인코더(900)의 입력으로서 이용가능하다. 출력 버퍼(935)의 출력은 비트스트림을 출력하기 위해 인코더(900)의 출력으로서 이용가능하다.
도 11을 참조하면, 본 원리와 함께 사용하기 위해 확장된, MPEG-4 AVC 표준에 따라 비디오 디코딩을 수행할 수 있는 비디오 디코더는 일반적으로 참조 번호(1100)로 표시된다.
비디오 디코더(1100)는 기하학적 확장부를 갖는 엔트로피 디코더(1145)의 제 1 입력과 신호 통신하도록 연결된 출력을 갖는 입력 버퍼(1110)를 포함한다. 기하학적 확장부를 갖는 엔트로피 디코더(1145)의 제 1 출력은 기하학적 확장부를 갖는 역 변환기 및 역 양자화기(1150)의 제 1 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 역 변환기 및 역 양자화기(1150)의 출력은 조합기(1125)의 제 2 비반전 입력과 신호 통신하도록 연결된다. 조합기(1125)의 출력은 기하학적 확장부를 갖는 디블록킹 필터(1165)의 제 2 입력과, 기하학적 확장부를 갖는 인트라 예측 모듈(1160)의 제 1 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 디블록킹 필터(1165)의 제 2 출력은 기준 화상 버퍼(1180)의 제 1 입력과 신호 통신하도록 연결된다. 기준 화상 버퍼(1180)의 출력은 기하학적 확장부를 갖는 움직임 보상기(1170)의 제 2 입력과 신호 통신하도록 연결된다.
기하학적 확장부를 갖는 엔트로피 디코더(1145)의 제 2 출력은 기하학적 확장부를 갖는 움직임 보상기(1170)의 제 3 입력과, 기하학적 확장부를 갖는 디블록킹 필터(1165)의 제 1 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 엔트로피 디코더(1145)의 제 3 출력은 기하학적 확장부(1105)를 갖는 디코더 제어기의 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 디코더 제어기(1105)의 제 1 출력은 기하학적 확장부를 갖는 엔트로피 디코더(1145)의 제 2 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 디코더 제어기(1105)의 제 2 출력은 기하학적 확장부를 갖는 역 변환기 및 역 양자화기(1150)의 제 2 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 디코더 제어기(1105)의 제 3 출력은 기하학적 확장부를 갖는 디블록킹 필터(1165)의 제 3 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 디코더 제어기(1105)의 제 4 출력은 기하학적 확장부를 갖는 인트라 예측 모듈(1160)의 제 2 입력과, 움직임 보상기(1170)의 제 1 입력과, 기준 화상 버퍼(1180)의 제 2 입력과 신호 통신하도록 연결된다.
기하학적 확장부를 갖는 움직임 보상기(1170)의 출력은 스위치(1197)의 제 1 입력과 신호 통신하도록 연결된다. 기하학적 확장부를 갖는 인트라 예측 모듈(1160)의 출력은 스위치(1197)의 제 2 입력과 신호 통신하도록 연결된다. 스위치(1197)의 출력은 조합기(1125)의 제 1 비반전 입력과 신호 통신하도록 연결된다.
입력 버퍼(1110)의 입력은 입력 비트스트림을 수신하기 위해 디코더(1100)의 입력으로서 이용가능하다. 기하학적 확장부를 갖는 디블록킹 필터(1165)의 제 1 출력은 출력 화상을 출력하기 위해 디코더(1100)의 출력으로서 이용가능하다.
MPEG-4 AVC 표준에 대해 본 원리의 이용에 관련된 가능한 변형/확장에 관해, 인코더 및/또는 디코더 제어 모듈은 "기하학적 모드"에 필요한 모든 결정 규칙 및 코딩 프로세스 구조를 포함하도록 변형/확장될 수 있다.
MPEG-4 AVC 표준에 대해 본 원리의 이용에 관련된 다른 가능한 변형/확장에 관해, 움직임 보상 모듈은 f(x,y) 및 그 파라미터에 의해 나타낸 임의의 파티션을 갖는 블록을 보상하기 위해 적응될 수 있다.
MPEG-4 AVC 표준에 대해 본 원리의 이용에 관련된 또 다른 가능한 변형/확장에 관해, 움직임 추정 모듈은 파라미터 모델-기반의 코딩 모드에서 이용가능한 파티션의 상이한 종류에 대해 가장 적절한 움직임 벡터를 테스트하고 선택하기 위해 적응될 수 있다.
MPEG-4 AVC 표준에 대해 본 원리의 이용에 관련된 또 다른 가능한 변형/확장에 관해, 인트라 프레임 예측은 각 파티션에서 가장 적절한 예측 모드를 선택할 가능성으로 파라미터 모델-기반의 블록 파티셔닝을 고려하기 위해 적응될 수 있다.
MPEG-4 AVC 표준에 대해 본 원리의 이용에 관련된 추가로 가능한 변형/확장에 관해, 디블록킹 인-루프 필터 모듈은 파라미터 모델-기반의 파티션을 갖는 블록 내의 움직임 영역의 더 복잡한 형태를 다루기 위해 적응될 수 있다.
MPEG-4 AVC 표준에 대해 본 원리의 이용에 관련된 또 다른 변형/확장에 관해, 엔트로피 코딩 및/또는 디코딩은 파라미터 모델-기반의 모드와 연관된 새로운 데이터를 코딩 및/또는 디코딩하기 위해 적응되고 확장될 수 있다. 더욱이, 움직임 예측은 움직임 영역의 더 복잡한 형태를 다루기 위해 적응될 수 있다. 효과적인 코딩 파라미터 모델-기반의 파티션 파라미터에 대한 예측자가 또한 생성되고 사용될 수 있다.
인코더 특정 블록:
- 인코더 제어:
인코더 제어 모듈은 파라미터 모델-기반의 블록 파티션을 기초로 한 새로운 모드를 고려하기 위해 확장될 수 있다. 이들 모드(기하학적 모드라 불림)는 MPEG-4 AVC 표준에서 기존의 모드 내에 삽입된다. 움직임 보상을 위한 인터 모드의 특정한 경우에, 16x16 및 8x8 파라미터 모델-기반의 파티셔닝된 블록이 있다. 이들 각 모드는 각각 매크로블록-크기 모드 및 서브-매크로블록-크기 모드 내에 삽입된다. 구조적 유사성에 의해, 이들 모드는 기하학적 16x16 모드에 대해 16x8 및/또는 8x16 이전, 사이, 또는 이후에, 그리고 기하학적 8x8 모드에 대해 8x4 및/또는 4x8 이전, 사이, 또는 이후에 논리적으로 삽입된다. 예시적인 구현에서, 16x8 및 8x16 뿐 아니라 낮은 비트율에 대해 8x4 및 4x8의 저비용의 이용을 허용하기 위해, 16x16 및 8x8 기하학적 모드는 MPEG-4 AVC 방향 동족체(homologue) 바로 뒤에 삽입된다. 범용 이용 통계에 따라, 표 1 및 표 2에 도시된 바와 같이, 16x16 및 8x8 기하학적 모드는 MEPG-4 AVC 방향 모드( 및 서브-모드) 바로 앞에 삽입될 수 있다.
매크로블록 모드 서브-매크로블록 모드:
16x16 블록 8x8 블록
16x8 블록 8x4 블록
8x16 블록 4x8 블록
16x16 기하학적 블록 8x8 기하학적 블록
8x8 서브-매크로블록 4x4 블록
...
매크로블록 모드 서브-매크로블록 모드:
16x16 블록 8x8 블록
16x16 기하학적 블록 8x8 기하학적 블록
16x8 블록 8x4 블록
8x16 블록 4x8 블록
8x8 서브-매크로블록 4x4 블록
...
- 움직임 추정:
움직임 추정 모듈은, 필요시 기하학적 구성에 적응된 블록 파티션을 다루도록 적응될 수 있다. 일례로서, 기하학적 모드에서, 움직임은, 고전적인 트리 기반의 파티션 모드 16x8, 8x16, 8x4 또는 4x8에 대해 동일한 방식으로 설명된다. 더욱이, 이들 모드는 본 파라미터 모델-기반의 파티션 모드의 몇몇 특정한 경우와 같이 기능할 수 있다. 이와 같이, 이들 모드는 사용 중인 파라미터 모델의 가능한 구성으로부터 배제된다. 파티션마다 그 필요성, 및 P 또는 B 블록이 코딩되는 지에 따라, 하나 또는 다수의 기준으로 모델링될 수 있다.
P-모드 예: 전체 P-모드 파라미터 모델-기반의 파티셔닝된 블록에서, 파티션 양쪽은 기준 프레임으로부터 선택된 매칭 패치(patch)에 의해 모델링된다. 각 패치는 선택된 기하학적 파티션에 맞춰지도록 적합한 형태를 가져야 한다. P 매크로블록 및 P 서브-매크로블록에서와 동일한 방식으로, 움직임 벡터는 파티션마다 송신된다. 이것의 일례에서, 움직임 벡터 뿐 아니라 f(x,y) 모델 파라미터는, 블록에 포함된 정보가 몇몇 왜곡 측정치(D) 및 몇몇 코딩 비용 측정치(R)에 관해 가장 잘 설명되도록 선택된다. 이 목적을 위해, 모든 파라미터는, D 및 R이 협력하여 최소화되도록 각 블록에 대해 협력하여 최적화된다:
Figure 112009006016297-PCT00011
여기서 λ은 곱셈 인자이고, MV1 및 MV0은 파티션에서 움직임 벡터 양쪽을 나타내고, e 및 ρ는 1차 다항식의 특정 경우에 대해 파티션 파라미터를 나타내고, 각 Ωx는 각 종류의 정보에 대한 유효 값의 세트를 나타낸다.
본 원리의 하나 이상의 실시예와 함께 사용하기 위해 왜곡 측정치의 적응의 일례는 각 파티션에 대한 생성된 마스크의 이용이다(도 7에서 마스크 예를 참조). 그런 후에, 임의의 고전적인 블록-기반의 왜곡 측정치는 파티션을 고려하기 위해 변형될 수 있는데, 이는 그 결과가 다음이 되도록 하기 위해서이다:
Figure 112009006016297-PCT00012
상기 수학식에서, MASKP1(x,y) 및 MASKP0(x,y) 각각은 f(x,y) 파티션 각각을 나타낸다. 이것의 빠른 구현은, 매우 작은{예를 들어, 주어진 임계치(예를 들어 0.5와 같은)보다 작은} 마스크 값에 대한 덧셈 연산의 수를 0으로 감소시킴으로써 가능하다. 그러한 간략화의 일례는 또한 0.5 이하의 모든 값이 0으로 반올림(rounded)되고, 0.5보다 큰 모든 값은 1로 반올림되는 간략화된 마스크를 생성하기 위해서일 수 있다. 그런 후에, 일실시예에서, 마스크가 1인 그러한 위치만이 왜곡을 계산하도록 합산된다. 그러한 경우에, 덧셈 연산만이 필요하고, 각 마스크에서 0의 값을 갖는 모든 위치는 무시될 수 있다.
일실시예에서, 파티션 마다 움직임 검색을 수행하는 것 이외에, 파티션 자체는 움직임 정보와 함께 결정되어야 한다. 따라서, 검색은 f(x,y) 파라미터 상에서도 수행된다. 도 16을 참조하면, 모델-기반의 파티션 파라미터를 갖는 기하학적 모드 추정 및 예측 검색(예를 들어, 움직임 추정을 위한 움직임 벡터 검색)을 위한 예시적인 방법은 일반적으로 참조 번호(1600)로 표시된다.
상기 방법(1600)은 제어를 루프 제한 블록(1610)에 귀속시키는 시작 블록(1605)을 포함한다. 루프 제한 블록(1610)은 가능한 에지의 총 개수에 대해 루프를 수행하고(에지의 양은 기하학적 정밀도에 종속된다), 변수(i)를 초기화하고, 제어를 기능 블록(1615)에 귀속시킨다. 기능 블록(1615)은 파라미터 세트(i)를 갖는 파티션을 생성하고, 제어를 기능 블록(1620)에 귀속시킨다. 기능 블록(1620)은 최상의 예측자가 주어진 파티션 세트(i)를 검색하고, 제어를 결정 블록(1625)에 귀속시킨다. 결정 블록(1625)은 최상의 파티션 및 최상의 예측이 결정되었는지를 결정한다. 만약 결정되었다면, 제어는 기능 블록(1630)에 귀속된다. 그렇지 않다면, 제어는 루프 제한 블록(1635)에 귀속된다.
기능 블록(1630)은 최상의 기하학적 파라미터 및 예측자 선택을 저장하고, 제어를 루프 제한 블록(1635)에 귀속시킨다.
루프 제한 블록(1635)은 가능한 에지의 총 개수에 대해 루프를 종료하고, 제어를 종료 블록(1640)에 귀속시킨다.
블록 파티션에 대한 몇몇 가능한 유형의 모델의 이용이 바람직한 경우에, 움직임 추정은 데이터에 적응된 최상의 모델을 찾기 위해 상이한 모델을 테스트하는 것을 수반할 수 있다. 디코더 측에서의 최상의 모델의 선택은 필요한 측 정보를 송출함으로써 다루어질 수 있다.
- 엔트로피 코딩:
통계 뿐 아니라 기하학적 파티션 정보를 자체적으로 포함할 수 있는 이웃하는 인코딩된-디코딩된 블록으로부터의 예측 모델에 따라 기하학적 파라미터를 코딩하기 위해 엔트로피 코딩이 확장될 수 있다. 파라미터 모델로 파티셔닝된 블록에 대한 움직임 벡터 예측자는 각 파티셔닝된 블록의 기하학적 구성 뿐 아니라 이웃하는 이미 인코딩된 블록의 기하학적 구성에 적응된다. 각 기하학적 파티션 움직임 벡터는 공간 및/또는 시간 이웃 블록으로부터 움직임 벡터의 적응적으로 선택된 세트로부터 예측된다. 이것의 실시예는 현재 블록 파티션의 기하학적 구성에 따라, 1 또는 3 공간 이웃의 이용이다. 움직임 벡터의 수가 3일 때, 이들은 중간 필터링(median filtered)된다. 그런 후에, 예측된 움직임 벡터는 가변 길이 코딩(VLC) 또는 수치 코딩(AC) 기반의 코딩을 이용하여 MPEG-4 AVC 표준에 따라 코딩된다.
모델-기반의 파티션 파라미터에 대한 2개의 예시적인 코딩 접근법이 이제 설명될 것이다.
모델-기반의 파티션 파라미터에 대한 제 1 예시적인 코딩 접근법에서, 그러한 파라미터는, 어떠한 이웃 모델-기반의(또는 기하학적) 블록도 존재하지 않을 때 예측 없이 코딩된다. 그런 후에, 1차 다항식 경우에 대해, 가변 길이 코딩의 일실시예에서, 각도는 균일한 코드로 코딩될 수 있고, 그 반경은 골롬(Golomb) 코드를 이용할 수 있다.
모델-기반의 파티션 파라미터에 대한 제 2 예시적인 코딩 접근법에서, 그러한 파라미터는 적어도 하나의 이웃 모델-기반의(또는 기하학적) 블록이 존재할 때 예측을 통해 코딩된다. 파라미터 예측의 일실시예는 이전의 이웃 블록으로부터 파라미터 모델을 현재 블록으로 투사함으로써 수행된다. 더욱이, 1차 다항식 경우에서, 이전 블록의 라인을 현재 블록으로 계속 이어지게 함으로써 파라미터를 예측하는 것이다. 2개의 블록이 이용가능할 때, 예측된 라인은 매크로블록 경계와의 이웃 라인의 양쪽 교차점을 연결하는 라인이다.
도 13을 참조하면, 좌측 블록의 파라미터로부터 우측 블록에 대한 파티션 파라미터 예측의 일례는 일반적으로 참조 번호(1300)로 표시된다.
도 14를 참조하면, 상부 블록의 파라미터로부터 하부 블록에 대한 파티션 파라미터 예측의 일례는 일반적으로 참조 번호(1400)로 표시된다.
도 15를 참조하면, 상부 및 좌측 블록의 파라미터로부터 우측 블록에 대한 파티션 파라미터 예측의 일례는 일반적으로 참조 번호(1500)로 표시된다.
그런 후에, 예측된 파라미터는 골롬 코드를 이용하여 차동적으로 코딩된다. 각도의 특정 경우에서, 주기성은 후치(posterior) VLC 또는 AC 코딩에 대한 최상의 가능한 통계를 갖기 위해 적절히 이용될 수 있다. VLC의 일례에서, 골롬 코드를 사용할 수 있다.
기하학적 블록 모드의 코딩 절차 구조에 관련하여, 도 17, 18 및 19는 일반적인 파라미터 모델 기반의 블록에 대한 코딩 흐름도의 특정 실시예를 도시한다. 더욱이, 파라미터 모델-기반의 블록을 코딩하기 위해, 움직임 데이터 이외에, 블록 코딩 절차의 몇몇 지점에서, 파티션 파라미터가 인코딩될 것이다.
도 17을 참조하면, 기하학적으로 파티셔닝된 예측 블록을 코딩하는 예시적인 방법은 일반적으로 참조 번호(1700)로 표시된다.
방법(1700)은 제어를 결정 블록(1710)에 귀속시키는 시작 블록(1705)을 포함한다. 결정 블록(1710)은 현재 모드 유형이 기하학적 모드 유형인지를 결정한다. 만약 그렇다면, 제어는 기능 블록(1715)에 귀속된다. 그렇지 않다면, 제어는 종료 블록(1730)에 귀속된다.
기능 블록(1715)은 기하학적 모드 유형을 코딩하고, 제어를 기능 블록(1720)에 귀속시킨다. 기능 블록(1720)은 기하학적 파티션 파라미터를 코딩하고, 제어를 기능 블록(1725)에 귀속시킨다. 기능 블록(1725)은 파티션 예측을 코딩하고, 제어를 종료 블록(1730)에 귀속시킨다.
도 18a를 참조하면, 기하학적으로 파티셔닝된 인터 예측 블록을 코딩하는 예시적인 방법은 일반적으로 참조 번호(1800)로 표시된다.
방법(1800)은 제어를 결정 블록(1804)에 귀속시키는 시작 블록(1802)을 포함한다. 결정 블록(1804)은 현재 모드 유형이 기하학적 인터 모드 유형인지를 결정한다. 만약 그렇다면, 제어는 기능 블록(1806)에 귀속된다. 그렇지 않다면, 제어는 종료 블록(1812)에 귀속된다.
기능 블록(1806)은 기하학적 인터모드 유형을 코딩하고, 제어를 기능 블록(1808)에 귀속시킨다. 기능 블록(1808)은 기하학적 파티션 파라미터(예를 들어, 예측을 위해 이용가능한 경우 이웃하는 기하학적 데이터를 이용하고, 이에 따라 코딩 표에 적응시키는)를 코딩하고, 제어를 기능 블록(1810)에 귀속시킨다. 기능 블록(1810)은 파티션 인터 예측(예를 들어, 예측을 위해 이용가능한 경우 이웃하는 디코딩된 데이터를 이용하고, 이에 따라 코딩 표에 적응시키는)을 코딩하고, 제어를 종료 블록(1812)에 귀속시킨다.
도 18b를 참조하면, 기하학적으로 파티셔닝된 인트라 예측 블록을 코딩하는 예시적인 방법은 일반적으로 참조 번호(1850)로 표시된다.
방법(1850)은 제어를 결정 블록(1854)에 귀속시키는 시작 블록(1852)을 포함한다. 결정 블록(1854)은 현재 모드 유형이 기하학적 인터 모드 유형인지를 결정한다. 만약 그렇다면, 제어는 기능 블록(1856)에 귀속된다. 그렇지 않다면, 제어는 종료 블록(1862)에 귀속된다.
기능 블록(1856)은 기하학적 인터 모드 유형을 코딩하고, 제어를 기능 블록(1858)에 귀속시킨다. 기능 블록(1858)은 기하학적 파티션 파라미터(예를 들어, 예측을 위해 이용가능한 경우 이웃하는 기하학적 데이터를 이용하고, 이에 따라 코딩 표에 적응시키는)를 코딩하고, 제어를 기능 블록(1860)에 귀속시킨다. 기능 블록(1860)은 파티션 인터 예측(예를 들어, 예측을 위해 이용가능한 경우 이웃하는 디코딩된 데이터를 이용하고, 이에 따라 코딩 표에 적응시키는)을 코딩하고, 제어를 종료 블록(1862)에 귀속시킨다.
도 19를 참조하면, 다수의 유형의 모델로 코딩하는 예시적인 방법은 일반적으로 참조 번호(1900)로 표시된다.
방법(1900)은 제어를 결정 블록(1910)에 귀속시키는 시작 블록(1905)을 포함한다. 결정 블록(1910)은 현재 모드 유형이 기하학적 모드 유형인지를 결정한다. 만약 그렇다면, 제어는 기능 블록(1915)에 귀속된다. 그렇지 않다면, 제어는 종료 블록(1950)에 귀속된다.
기능 블록(1915)은 기하학적 모드 유형을 코딩하고, 제어를 준비 블록(1920)에 귀속시킨다. 준비 블록(1920)은 현재 파티션에 대한 파라미터 모델 A 또는 B를 선택한다. 파라미터 모델 A가 선택되면, 제어는 기능 블록(1935)에 귀속된다. 이와 달리, 파라미터 모델 B가 선택되면, 제어는 기능 블록(1925)에 귀속된다.
기능 블록(1935)은 파라미터 모델 A에 대응하도록 코드를 지정하고, 제어를 기능 블록(1940)에 귀속시킨다. 기능 블록(1940)은 파라미터 모델 A에 대한 기하학적 파티션 파라미터를 코딩하고, 제어를 기능 블록(1945)에 귀속시킨다.
기능 블록(1925)은 파라미터 모델 B에 대응하도록 코드를 지정하고, 제어를 기능 블록(1930)에 귀속시킨다. 기능 블록(1930)은 파라미터 모델 B에 대한 기하학적 파티션 파라미터를 코딩하고, 제어를 기능 블록(1945)에 귀속시킨다.
기능 블록(1945)은 파티션 예측을 코딩하고, 제어를 종료 블록(1950)에 귀속시킨다.
인코더/디코더 공유된 블록:
- 움직임 보상:
움직임 보상 모듈은 파라미터 모델-기반의 파티셔닝된 블록에서 비-정사각형/비-직사각형 파티션을 보상하기 위해 확장될 수 있다. 움직임 보상 절차에 대한 블록 재구성은 본 명세서에 설명된 움직임 추정 절차로부터 직접 따른다. 더욱이, 보상은 움직임 벡터와 연관된 2개의 파티션 형태의 픽스맵(pixmap)과 함께 파티션의 최상의 세트를 예측자로서 사용하는 것에 대응한다. 위에서 정의된 바와 같이, "부분 표면"은 주어진 규칙에 따라, 움직임 벡터와 연관된 픽스맵의 조합으로서 계산된다.
-인트라 예측:
인트라 예측은 블록의 파라미터 모델 기반의 파티션에 따라 인트라 데이터를 예측하기 위해 갱신된다. 파라미터 모델-기반의 파티션을 갖는 인트라 예측은, 생성된 파티션의 각 하나를 채우기 위해, 그 대신 인트라 예측이 사용된다는 기본적인 차이점을 가지고, 파라미터 모델-기반의 파티션을 갖는 움직임 보상 및 움직임 추정과 동일한 방식으로 한정된다.
- 인-루프 디블록킹 필터:
인-루프 디블록킹 필터링은 예측의 블록 구조에 의해, 그리고 잔여 코딩 이산 코사인 변환(DCT)에 의해 유도된 블록킹 결점을 감소시킨다. 인-루프 디블록킹 필터링은 인코딩된 비디오 데이터에 따라, 그리고 블록 경계를 가로지르는 픽셀 사이의 국부적인 세기 차이에 따라 필터 세기를 적응시킨다. 본 원리의 실시예는 비디오 데이터 표현의 새로운 형태를 도입한다. 파라미터 모델-기반의 파티션을 포함하는 블록은 4x4 블록마다 일정한 움직임 벡터 값, 또는 일정한 기준 프레임 값을 가질 필요가 없다. 더욱이, 파라미터 모델-기반의 파티션을 통해, 그러한 임의의 파티셔닝된 블록에서, 주어진 움직임 벡터에 의해 영향이 미치는 영역, 블록 경계는 파라미터 모델에 의해 실시된 형태에 의해 한정된다. 따라서, 4x4 블록은, 주어진 위치에서 사용된 움직임 벡터 및 사용된 기준 프레임에 관해, 이것이 갖는 모든 암시를 통해, 하나의 파티션 내로 절반이 되도록, 그리고 다른 파티션 내로 다른 절반이 되도록 나타날 수 있다. 인-루프 디블록킹 필터 모듈은 이에 따라 필터 세기 결정 프로세스에 적응함으로써 확장된다. 이러한 프로세스는 내부 블록 파티션의 특정 형태를 고려하여 필터 세기를 결정할 수 있어야 한다. 필터에 대한 블록 경계의 부분에 따라, 다른 MPEG-4 AVC 모드에 의해 이루어진 바와 같이, 4x4 블록에 따르지 않고 파티션 형태에 따라 적절한 움직임 벡터 및 기준 프레임을 취할 필요가 있다. 도 12를 참조하면, 파라미터 모델 기반의 파티셔닝된 매크로블록은 일반적으로 참조 번호(1200)로 표시된다. 파라미터 모델 기반의 파티셔닝된 매크로블록은, 디블록킹 필터링을 받는 각 4x4 블록 측마다 한 번 계산되는 디블록킹 필터링 세기 결정 필터링 세기에 대해 정보가 어떻게 선택되는지의 표시를 갖는 디블록킹 영역의 몇몇 예를 포함한다.
필터링 세기 계산에 대해 고려된 파티션은 필터링을 위해 대부분 블록 측과 중첩하는 파티션을 선택함으로써 선택된다. 그러나, 코너 블록에서의 계산을 간략화하기 위해, 제 2 대안적인 방법은, 필터링되는 블록 에지 양쪽 모두의 최대 부분을 포함하는 파티션으로부터 움직임 및 기준 프레임 정보를 갖도록 전체 변환 블록을 고려하는 것이다.
파라미터 모델-기반의 블록 파티셔닝의 이용과 디블록킹 인-루프 필터링을 조합하는 제 3 대안적인 방법은, 블록 경계가 모델-기반의 블록 파티셔닝된 모드(예를 들어 기하학적 모드)에 의해 영향을 미칠 때마다 블록 경계를 통해 어느 정도의 필터링을 항상 허용하는 것이다. 기하학적 모드는 경계에 영향을 미치고/이웃하는 임의의 블록일 수 있다. 동시에, 디블록킹 필터링은 그러한 변환 블록에 적용될 수 있거나 적용되지 않을 수 있으며, 이러한 변환 블록은 기하학적 모드에서, 매크로블록의 경계 상에 위치되지 않는다.
디블록킹 인-루프 필터링을 조합하는 제 4 대안은, 처음 2가지 방법 중 임의의 방법을 고려하지만, 변환 블록에서 어느 정도의 필터링의 이용을 유발하는 조건 세트에 다음을 추가한다: 블록 경계가 모델-기반의 파티션 곡선과 매크로블록 경계 사이의 접합을 포함하는 변환 블록에 의해 영향을 받는 경우, 어느 정도의 디블록킹을 이용한다.
디코더 특정 블록:
- 디코더 제어 모듈:
디코더 제어 모듈은 파라미터 모델-기반의 블록 파티션에 기초한 새로운 모드를 고려하기 위해 확장될 수 있다. 이들 모드(기하학적 모드)는 인코더 단부에서 수행된 것과 동일한 방식으로 MPEG-4 AVC 표준에서 기존의 모드 내에 삽입된다. 디코더 제어 모듈은 인코더 측에서 인코딩된 정보를 정확히 복구하기 위해 그 구조와 인코더의 디코딩 절차 시퀀스를 완벽히 매칭시키도록 변형될 수 있다.
-엔트로피 디코딩:
엔트로피 디코딩은 모델-기반의 블록 파티셔닝 이용을 위해 확장될 수 있다. 전술한 엔트로피 코딩 절차에 따라, 엔트로피 디코딩은 전술한 인코딩 절차에 매칭하도록 확장될 필요가 있다. 도 20, 21, 및 22는, 일단 어떤 블록 모드가 사용되는지를 나타내는 코드워드가 이미 디코딩되었고 디코더 제어를 위해 이용가능하면, 파라미터 모델-기반의 코딩 모드에 관련된 정보를 디코딩하기 위해 이것의 가능한 특정한 실시예를 도시한다.
도 20을 참조하면, 기하학적으로 파티셔닝된 예측 블록을 디코딩하는 예시적인 방법은 일반적으로 참조 번호(2000)로 표시된다.
방법(2000)은 제어를 기능 블록(2010)에 귀속시키는 시작 블록(2005)을 포함한다. 기능 블록(2010)은 현재 모드 유형이 기하학적 모드 유형인지를 결정한다. 만약 그렇다면, 제어는 기능 블록(2015)에 귀속된다. 그렇지 않으면, 제어는 종료 블록(2025)에 귀속된다.
기능 블록(2015)은 기하학적 파티션 파라미터를 디코딩하고, 제어를 기능 블록(2020)에 귀속시킨다. 기능 블록(2020)은 파티션 예측을 디코딩하고, 제어를 종료 블록(2025)에 귀속시킨다.
도 21a를 참조하면, 기하학적으로 파티셔닝된 인터 예측 블록을 디코딩하는 예시적인 방법은 일반적으로 참조 번호(2100)로 표시된다.
방법(2100)은 제어를 기능 블록(2114)에 귀속시키는 시작 블록(2112)을 포함한다. 기능 블록(2114)은 현재 모드 유형이 기하학적 모드 유형인지를 결정한다. 만약 그렇다면, 제어는 기능 블록(2116)에 귀속된다. 그렇지 않다면, 제어는 종료 블록(2120)에 귀속된다.
기능 블록(2116)은 기하학적 파티션 파라미터(예를 들어, 예측을 위해 이용가능한 경우 이웃하는 기하학적 데이터를 이용하고, 이에 따라 코딩 표에 적응시키는)를 디코딩하고, 제어를 기능 블록(2118)에 귀속시킨다. 기능 블록(2118)은 파티션 인터 예측(예를 들어, 예측을 위해 이용가능한 경우 이웃하는 디코딩된 데이터를 이용하고, 이에 따라 코딩 표에 적응시키는)을 디코딩하고, 제어를 종료 블록(2120)에 귀속시킨다.
도 21b를 참조하면, 기하학적으로 파티셔닝된 인트라 예측 블록을 디코딩하는 예시적인 방법은 일반적으로 참조 번호(2150)로 표시된다.
방법(2150)은 제어를 기능 블록(2164)에 귀속시키는 시작 블록(2162)을 포함한다. 기능 블록(2164)은 현재 모드 유형이 기하학적 모드 유형인지를 결정한다. 만약 그렇다면, 제어는 기능 블록(2166)에 귀속된다. 그렇지 않다면, 제어는 종료 블록(2170)에 귀속된다.
기능 블록(2166)은 기하학적 파티션 파라미터(예를 들어, 예측을 위해 이용가능한 경우 이웃하는 기하학적 데이터를 이용하고, 이에 따라 코딩 표에 적응시키는)를 디코딩하고, 제어를 기능 블록(2168)에 귀속시킨다. 기능 블록(2168)은 파티션 인트라 예측(예를 들어, 예측을 위해 이용가능한 경우 이웃하는 디코딩된 데이터를 이용하고, 이에 따라 코딩 표에 적응시키는)을 디코딩하고, 제어를 종료 블록(2170)에 귀속시킨다.
도 22를 참조하면, 다수의 유형의 모델로 디코딩하는 예시적인 방법은 일반적으로 참조 번호(2200)로 표시된다.
방법(2200)은 제어를 결정 블록(2210)에 귀속시키는 시작 블록(2205)을 포함한다. 결정 블록(2210)은 현재 모드 유형이 기하학적 모드 유형인지를 결정한다. 만약 그렇다면, 제어는 기능 블록(2215)에 귀속된다. 그렇지 않다면, 제어는 종료 블록(2240)에 귀속된다.
기능 블록(2215)은 파라미터 모델 선택을 디코딩하고, 제어를 준비 블록(2220)에 귀속시킨다. 준비 블록(2220)은 현재 파티션에 대한 파라미터 모델 A 또는 B를 선택한다. 파라미터 모델 A가 선택되면, 제어는 기능 블록(2225)에 귀속된다. 그렇지 않으면, 파라미터 모델 B가 선택되면, 제어는 기능 블록(2230)에 귀속된다.
기능 블록(225)은 파라미터 모델 A에 대한 기하학적 파티션을 디코딩하고, 제어를 기능 블록(2235)에 귀속시킨다.
기능 블록(2230)은 파라미터 모델 B에 대한 기하학적 파티션 파라미터를 디코딩하고, 제어를 기능 블록(2235)에 귀속시킨다.
기능 블록(2235)은 파티션 예측을 디코딩하고, 제어를 종료 블록(2240)에 귀속시킨다.
도 23을 참조하면, 슬라이스 헤더 신택스 코딩을 위한 예시적인 방법은 일반적으로 참조 번호(2300)로 표시된다.
방법(2300)은 제어를 기능 블록(2310)에 귀속시키는 시작 블록을 포함한다. 기능 블록(2310)은 슬라이스 관련 정보 Ⅰ을 코딩하고, 제어를 기능 블록(2315)에 귀속시킨다. 기능 블록(2315)은 슬라이스 품질(QP) 코딩 정보를 코딩하고, 제어를 기능 블록(2320)에 귀속시킨다. 기능 블록(2320)은 기하학적 파라미터 정밀도 정보를 코딩하고, 제어를 기능 블록(2325)에 귀속시킨다. 기능 블록(2325)은 슬라이스 관련 정보 Ⅱ를 코딩하고, 제어를 종료 블록(230)에 귀속시킨다. "슬라이스 관련 정보 Ⅰ" 및 "슬라이스 관련 정보"라는 구문은, 기하학적 정밀도 파라미터가 슬라이스 헤더의 기존의 신택스 내에 삽입되도록 슬라이스 헤더 관련 정보를 나타낸다.
도 24를 참조하면, 기하학적 파라미터 정밀도를 유도하는 예시적인 방법은 일반적으로 참조 번호(2400)로 표시된다.
방법(2400)은 제어를 기능 블록(2410)에 귀속시키는 시작 블록(2405)을 포함한다. 기능 블록(2410)은 본(즉, 현재) 매크로블록에 대한 QP 파라미터를 취하고, 제어를 기능 블록(2415)에 귀속시킨다. 기능 블록(2415)은 기하학적 파라미터 정밀도를 계산하고, 제어를 종료 블록(2420)에 귀속시킨다.
도 25를 참조하면, 기하학적 블록을 재구성하는 예시적인 방법은 일반적으로 참조 번호(2500)로 표시된다.
방법(2500)은 제어를 기능 블록(2510)에 귀속시키는 시작 블록(2505)을 포함한다. 기능 블록(2510)은 파라미터로부터 기하학적 파티션을 결정하고, 제어를 기능 블록(2515)에 귀속시킨다. 기능 블록(2515)은 파티션 예측을 재조직화(recomposes)하고, 제어를 기능 블록(2520)에 귀속시킨다. 기능 블록(2520)은 안티-얼라이싱(anti-aliasing) 절차를 적용하고, 제어를 기능 블록(2525)에 귀속시킨다. 기능 블록(2525)은 재구성된 잔여물을 추가하고, 제어를 종료 블록(2530)에 귀속시킨다.
도 26을 참조하면, 현재 블록에 대한 최상의 모드를 검색하는 예시적인 방법은 일반적으로 참조 번호(2600)로 표시된다.
방법(2600)은 제어를 기능 블록(2610), 기능 블록(2615), 기능 블록(2620), 기능 블록(2625), 및 기능 블록(2630)에 귀속시키는 시작 블록(2605)을 포함한다. 기능 블록(2610)은 16x16 블록 모드를 테스트하고, 제어를 기능 블록(2635)에 귀속시킨다. 기능 블록(2615)은 16x8 블록 모드를 테스트하고, 제어를 기능 블록(2635)에 귀속시킨다. 기능 블록(2620)은 8x16 블록 모드를 테스트하고, 제어를 기능 블록(2635)에 귀속시킨다. 기능 블록(2625)은 16x16 기하학적 블록 모드를 테스트하고, 제어를 기능 블록(2635)에 귀속시킨다. 기능 블록(2630)은 8x8 블록 모드를 테스트하고, 제어를 기능 블록(2635)에 귀속시킨다.
기능 블록(2635)은 현재 블록에 대한 최상의 모드를 선택하고, 제어를 종료 블록(2640)에 귀속시킨다.
도 27을 참조하면, 슬라이스 헤더 신택스 디코딩을 위한 예시적인 방법은 일반적으로 참조 번호(2700)로 표시된다.
방법(2700)은 제어를 기능 블록(2710)에 귀속시키는 시작 블록(2705)을 포함한다. 기능 블록(2710)은 슬라이스 관련 정보 Ⅰ를 디코딩하고, 제어를 기능 블록(2715)에 귀속시킨다. 기능 블록(2715)은 슬라이스 품질(QP) 코딩 정보를 디코딩하고, 제어를 기능 블록(2720)에 귀속시킨다. 기능 블록(2720)은 기하학적 파라미터 정밀도 정보를 디코딩하고, 제어를 기능 블록(2725)에 귀속시킨다. 기능 블록(2725)은 슬라이스 관련 정보 Ⅱ를 디코딩하고, 제어를 종료 블록(2730)에 귀속시킨다.
이제 몇몇이 위에서 언급된 본 발명의 많은 부수적인 장점/특징 중 몇몇에 대한 설명이 주어질 것이다. 예를 들어, 하나의 장점/특징은 적어도 하나의 파라미터 모델에 응답하여 화상의 적어도 부분을 적응적으로 파티셔닝함으로써 화상에 대응하는 이미지 데이터를 인코딩하기 위한 인코더를 포함하는 장치이다. 적어도 하나의 파라미터 모델은 적어도 하나의 곡선의 암시적 및 명시적 구성 중 적어도 하나를 수반한다.
다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나는 기하학적 신호 모델로부터 유도된다.
또 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나는 하나 이상의 이미지 윤곽 및 하나 이상의 경계 중 적어도 하나를 나타낸다.
또 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 적어도 하나의 다항식은 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나로서 사용된다.
더욱이, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 1차 다항식 모델은 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나로서 사용된다.
더욱이, 다른 장점/특징은 인코더를 갖는 장치인데, 여기서 1차 다항식 모델은 전술한 바와 같이 사용되고, 1차 다항식 모델은 각도 파라미터 및 거리 파라미터를 포함한다.
또한, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 주어진 이미지 부분에 대한 적어도 하나의 파라미터 모델은 하나보다 많은 파라미터 모델이 이용가능한 경우 모델 세트로부터 적응적으로 선택되고, 그 선택은 명시적으로 또는 암시적으로 코딩된다.
추가적으로, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 인코더는 적어도 하나의 고 레벨 신택스 요소를 이용하여 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도의 명시적 또는 암시적 코딩을 수행한다.
더욱이, 다른 장점/특징은 전술한 적어도 하나의 고 레벨 신택스 요소를 이용하는 인코더를 갖는 장치인데, 여기서 적어도 하나의 고 레벨 신택스 요소는 슬라이스 헤더 레벨, 보충 개선 정보(SEI) 레벨, 화상 파라미터 세트 레벨, 시퀀스 파라미터 세트 레벨, 및 네트워크 추상(abstraction) 층 유닛 헤더 레벨 중 적어도 하나에 위치된다.
더욱이, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도는 압축 효율 및 인코더 복잡성 중 적어도 하나를 제어하기 위해 적응된다.
또한, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도는 압축 품질 파라미터에 따라 적응된다.
추가적으로, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 적어도 하나의 화상의 적어도 하나의 파티션과 연관된 예측자 데이터는 공간 이웃 블록 및 시간 이웃 블록 중 적어도 하나로부터 예측된다.
더욱이, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나에 대한 파티션 모델 파라미터는 공간 이웃 블록 및 시간 이웃 블록 중 적어도 하나로부터 예측된다.
더욱이, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 인코더는, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나에 따라, 하나보다 많은 파티션에 부분적으로 놓이는 픽셀에 대한 예측 값을 계산하는데, 안티-얼라이싱 절차와, 픽셀의 대응하는 위치에 대한 예측 값의 부분의 조합, 및 픽셀의 대응하는 위치에 대한 총 예측 값과, 이웃과, 상이한 파티션의 예측자 중 적어도 하나를 이용하여, 하나보다 많은 파티션으로부터 계산하며, 여기서 픽셀이 부분적으로 놓이는 것으로 간주된다.
또한, 다른 장점/특징은 전술한 인코더를 갖는 장치인데, 여기서 인코더는 기존의 비디오 코딩 표준 또는 비디오 코딩 권고의 기존의 하이브리드 예측 인코더의 확장된 버전이다.
추가적으로, 다른 장점/특징은 전술한 기존의 비디오 코딩 표준 또는 비디오 코딩 권고의 기존의 하이브리드 예측 인코더의 확장된 버전인 인코더를 갖는 장치인데, 여기서 인코더는 각각 매크로블록 및 서브-매크로블록 중 적어도 하나에 대한 코딩 모드로서 화상의 매크로블록 및 서브-매크로블록 중 적어도 하나에 파라미터 모델 기반의 파티션을 적용한다.
더욱이, 다른 장점/특징은 전술한 파라미터 모델 기반의 파티션을 적용하는 인코더를 갖는 장치인데, 여기서 파라미터 모델-기반의 코딩 모드는 기존의 비디오 코딩 표준 또는 비디오 코딩 권고의 기존의 매크로블록 및 서브-매크로블록 코딩 모드 내에 삽입된다.
더욱이, 다른 장점/특징은 전술한 파라미터 모델 기반의 파티션을 적용하는 인코더를 갖는 장치인데, 여기서 인코더는 파티션 예측 데이터와 함께 파라미터 모델-기반의 파티션을 생성하기 위해 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 모델 파라미터를 인코딩한다.
또한, 다른 장점/특징은 전술한 파라미터 모델 기반의 파티션을 적용하는 인코더를 갖는 장치인데, 여기서 인코더는 왜곡 측정치 및 코딩 비용 측정치 중 적어도 하나를 협력하여 최소화하기 위해 적어도 하나의 파라미터 모델, 적어도 하나의 곡선, 및 파티션 예측 중 적어도 하나의 모델 파라미터를 선택한다.
추가적으로, 다른 장점/특징은 전술한 파라미터 모델 기반의 파티션을 적용하는 인코더를 갖는 장치인데, 여기서 적어도 2개의 파라미터 모델-기반의 파티션과 겹치는 적어도 하나의 화상의 픽셀은 적어도 2개의 파라미터 모델-기반의 파티션의 예측으로부터 가중된 선형 평균이다.
더욱이, 다른 장점/특징은 전술한 파라미터 모델 기반의 파티션을 적용하는 인코더를 갖는 장치인데, 여기서 파티션 예측은 인터 및 인트라 유형 중 적어도 하나이다.
더욱이, 다른 장점/특징은 전술한 파라미터 모델 기반의 파티션을 적용하는 인코더를 갖는 장치인데, 여기서 인코더는 파티션 모델 파라미터 코딩을 위해 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나에 대한 파라미터 예측을 선택적으로 사용한다.
또한, 다른 장점/특징은 전술한 파라미터 예측을 선택적으로 사용하는 인코더를 갖는 장치인데, 여기서 화상들의 특정한 화상의 현재 블록에 대한 예측은 이웃한 블록으로부터 현재 블록으로의 곡선 외삽법에 기초한다.
추가적으로, 다른 장점/특징은 전술한 파라미터 예측을 선택적으로 사용하는 인코더를 갖는 장치인데, 여기서 인코더는 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터가 예측되는 지에 따라 이미지 데이터를 인코딩하기 위해 상이한 콘텍스트(context) 또는 코딩 표를 사용한다.
더욱이, 다른 장점/특징은 전술한 파라미터 모델 기반의 파티션을 적용하는 인코더를 갖는 장치인데, 여기서 인코더는 국제 표준화 기구/국제 전기 표준 회의(ISO/IEC) 동화상 전문가 그룹-4(MPEG-4) 파트 10 개선된 비디오 코딩(AVC) 표준/국제 원격 통신 연합, 원격 통신 섹터(ITU-T) H.264 권고를 위한 인코더의 확장된 버전이다.
더욱이, 다른 장점/특징은 전술한 파라미터 모델 기반의 파티션을 적용하는 인코더를 갖는 장치인데, 여기서 인코더는, 파라미터 모델-기반의 파티션 모드가 사용될 때 매크로블록 및 서브-매크로블록 중 적어도 하나의 비-트리-기반의 파티셔닝으로 인해 적어도 하나의 파라미터 모델-기반의 파티션에 의해 영향을 받는 변환-크기 블록을 다루도록 적응된 디블록킹 필터링 및 기준 프레임 필터링 중 적어도 하나를 적용한다.
본 원리의 이들 및 다른 특징 및 장점은 본 명세서에 가르침에 기초하여 당업자에 의해 쉽게 확인될 수 있다. 본 원리의 가르침이 하드웨어, 소프트웨어, 펌웨어, 특수 목적의 프로세서, 또는 이들의 조합의 다양한 형태로 구현될 수 있음이 이해될 것이다.
더 바람직하게, 본 원리의 가르침은 하드웨어와 소프트웨어의 조합으로서 구현된다. 더욱이, 소프트웨어는 프로그램 저장 유닛 상에서 실체적으로 구현된 애플리케이션 프로그램으로서 구현될 수 있다. 애플리케이션 프로그램은 임의의 적합한 아키텍처를 포함하는 기계로 업로딩되고, 이러한 기계에 의해 실행될 수 있다. 바람직하게, 그 기계는 하나 이상의 중앙 처리 유닛("CPU"), 랜덤 엑세스 메모리("RAM"), 및 입/출력("I/O") 인터페이스와 같은 하드웨어를 갖는 컴퓨터 플랫폼 상에서 구현된다. 컴퓨터 플랫폼은 또한 운영 체제 및 마이크로명령 코드를 포함할 수 있다. 본 명세서에 기재된 다양한 프로세스 및 기능은 CPU에 의해 실행될 수 있는, 마이크로명령 코드의 부분 또는 애플리케이션 프로그램의 부분, 또는 이들의 임의의 조합 중 어느 하나일 수 있다. 더욱이, 추가 데이터 저장 유닛 및 프린팅 유닛과 같은 다양한 다른 주변 유닛은 컴퓨터 플랫폼에 연결될 수 있다.
첨부 도면에 도시된 구성 시스템 성분 및 방법의 몇몇이 바람직하게 소프트웨어로 구현될 수 있기 때문에, 시스템 성분 또는 프로세스 기능 블록 사이의 실제 연결은 본 원리가 프로그래밍되는 방식에 따라 달라질 수 있음이 추가로 이해될 것이다. 본 명세서에 가르침이 주어지면, 당업자는 본 원리의 이들 및 유사한 구현 또는 구성을 구상할 수 있을 것이다.
예시적인 실시예가 첨부 도면을 참조하여 본 명세서에 설명되었지만, 본 원리가 이러한 정확한 실시예에 한정되지 않고, 다양한 변화 및 변형이 본 원리의 범주 또는 사상에서 벗어나지 않고도 당업자에 의해 달성될 수 있음이 이해될 것이다. 모든 그러한 변화 및 변형은 첨부된 청구범위에서 설명된 본 원리의 범주 내에 포함되도록 의도된다.
상술한 바와 같이, 본 발명은 일반적으로 비디오 인코딩 및 디코딩에 관한 것으로, 비디오 인코딩 및 디코딩을 위한 적응성 기하학적 파티셔닝 방법 및 장치 등에 이용된다.

Claims (53)

  1. 장치로서,
    적어도 하나의 파라미터 모델을 이용하여 파티셔닝된(partitioned) 화상의 적어도 부분을 재구성함으로써 화상에 대응하는 이미지 데이터를 디코딩하는 디코더(1100)로서, 상기 적어도 하나의 파라미터 모델은 적어도 하나의 곡선의 암시적(implicit) 및 명시적(explicit) 구성 중 적어도 하나를 수반하는, 디코더(1100)를
    포함하는, 장치.
  2. 제 1항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나는 기하학적 신호 모델로부터 유도되는, 장치.
  3. 제 1항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나는 하나 이상의 이미지 윤곽(contour) 및 하나 이상의 움직임 경계 중 적어도 하나를 나타내는, 장치.
  4. 제 1항에 있어서, 적어도 하나의 다항식은 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나로서 사용되는, 장치.
  5. 제 1항에 있어서, 1차 다항식 모델은 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나로서 사용되는, 장치.
  6. 제 5항에 있어서, 1차 다항식 모델은 각도 파라미터 및 거리 파라미터를 포함하는, 장치.
  7. 제 1항에 있어서, 주어진 이미지 부분에 대한 적어도 하나의 파라미터 모델은 하나보다 많은 파라미터 모델이 이용가능할 때 모델의 세트에 따라 적응적으로 디코딩되는(1900), 장치.
  8. 제 1항에 있어서, 상기 인코더(1100)는 적어도 하나의 고 레벨 신택스(syntax) 요소를 이용하여 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도에 대한 명시적 또는 암시적 디코딩을 수행하는, 장치.
  9. 제 8항에 있어서, 적어도 하나의 고 레벨 신택스 요소는 슬라이스 헤더 레벨, 보충 개선 정보(SEI: Supplemental Enhancement Information) 레벨, 화상 파라미터 세트 레벨, 시퀀스 파라미터 세트 레벨 및 네트워크 추상(abstraction) 층 유닛 헤더 레벨 중 적어도 하나로부터 디코딩되는, 장치.
  10. 제 1항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도는 압축 해제 효율 및 디코더 복잡성 중 적어도 하나를 제어하기 위해 적응되는, 장치.
  11. 제 10항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도는 압축 해제 품질 파라미터에 따라 적응되는, 장치.
  12. 제 1항에 있어서, 적어도 하나의 화상의 적어도 하나의 파티션과 연관된 예측자(predictor) 데이터는 공간 이웃 블록 및 시간 이웃 블록 중 적어도 하나로부터 예측되는, 장치.
  13. 제 1항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나에 대한 파티션 모델 파라미터는 공간 이웃 블록 및 시간 이웃 블록 중 적어도 하나로부터 예측되는, 장치.
  14. 제 1항에 있어서, 상기 디코더(1100)는, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나에 따라, 하나보다 많은 파티션에 부분적으로 놓이는 픽셀에 대한 예측 값을 계산하는데, 안티-얼라이싱(anti-aliasing) 절차, 픽셀의 대응하는 위치에 대한 예측 값의 부분의 조합, 픽셀의 대응하는 위치에 대한 총 예측 값, 이웃, 상이한 파티션의 예측자를 이용하여, 하나보단 많은 파티션으로부터 계산하며, 여기서, 픽셀이 부분적으로 놓이는 것으로 간주되는, 장치.
  15. 제 1항에 있어서, 상기 디코더(1100)는 기존의 비디오 코딩 표준 또는 비디오 코딩 권고의 기존의 하이브리드 예측 디코더의 확장된 버전인, 장치.
  16. 제 15항에 있어서, 상기 디코더(1100)는 각각 매크로블록 및 서브-매크로블록 중 적어도 하나에 대한 코딩 모드로서 화상의 매크로블록 및 서브-매크로블록 중 적어도 하나에 파라미터 모델 기반의 파티션을 적용하는, 장치.
  17. 제 16항에 있어서, 파라미터 모델-기반의 코딩 모드는 기존의 비디오 코딩 표준 또는 비디오 코딩 권고의 기존의 매크로블록 및 서브-매크로블록 코딩 모드 내에 삽입되는, 장치.
  18. 제 16항에 있어서, 상기 디코더(1100)는 파티션 예측 데이터와 함께 파라미터 모델-기반의 파티션을 결정하기 위해 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 모델 파라미터를 디코딩하는, 장치.
  19. 제 16항에 있어서, 적어도 2개의 파라미터 모델-기반의 파티션과 겹치는 화상의 적어도 하나의 픽셀은 적어도 2개의 파라미터 모델-기반의 파티션의 예측과, 적어도 2개의 파라미터 모델-기반의 파티션 중 하나의 예측 중 적어도 하나로부터의 이웃한 픽셀 중 적어도 하나로부터 가중된 선형 평균인, 장치.
  20. 제 16항에 있어서, 파티션 예측은 인터 및 인트라 유형 중 적어도 하나인, 장치.
  21. 제 16항에 있어서, 상기 디코더(1100)는 파티션 모델 파라미터 코딩을 위해 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나에 대한 파라미터 예측을 선택적으로 사용하는, 장치.
  22. 제 21항에 있어서, 화상들 중 특정한 화상의 현재 블록에 대한 예측은 이웃 블록으로부터 현재 블록으로의 곡선 외삽법에 기초하는, 장치.
  23. 제 21항에 있어서, 상기 디코더(1100)는, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터가 예측되는지에 따라 이미지 데이터를 디코딩하기 위해 상이한 콘텍스트(context) 또는 코딩 표를 사용하는, 장치.
  24. 제 16항에 있어서, 상기 디코더(1100)는 국제 표준화 기구/국제 전기 표준 회의(ISO/IEC) 동화상 전문가 그룹-4(MPEG-4) 파트 10 개선된 비디오 코딩(AVC) 표준/국제 원격 통신 연합, 원격 통신 섹터(ITU-T) H.264 권고를 위한 디코더의 확장 된 버전인, 장치.
  25. 제 16항에 있어서, 상기 디코더(1100)는, 파라미터 모델-기반의 파티션 모드가 사용될 때 매크로블록 및 서브-매크로블록 중 적어도 하나의 비-트리-기반의 파티셔닝으로 인해 적어도 하나의 파라미터 모드-기반의 파티션에 의해 영향을 받은 변환-크기 블록을 다루도록 적응된 디블록킹 필터링 및 기준 프레임 필터링 중 적어도 하나를 적용하고, 상기 디블록킹 필터링 및 기준 프레임 필터링은, 적어도 하나의 파라미터 모델-기반의 파티션 중 사용되는 어느 하나와 적어도 하나의 파라미터 모델-기반의 파티션의 선택된 형태 중 적어도 하나에 의존하는, 장치.
  26. 제 15항에 있어서, 상기 디코더(1100)는 선택된 파라미터 모델-기반의 파티션이 사용중인 경우에 따라, 역 잔여 변환 및 역 양자화 절차(1150) 중 적어도 하나에 적응하는, 장치.
  27. 방법으로서,
    적어도 하나의 파라미터 모델을 이용하여 파티셔닝된 화상의 적어도 부분을 재구성함으로써(2000, 2500) 화상에 대응하는 이미지 데이터를 디코딩하는 단계로서, 상기 적어도 하나의 파라미터 모델은 적어도 하나의 곡선의 암시적 및 명시적 구성 중 적어도 하나를 수반하는, 디코딩 단계를
    포함하는, 방법.
  28. 제 27항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나는 기하학적 신호 모델(500, 600)로부터 유도되는, 방법.
  29. 제 27항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나는 하나 이상의 이미지 윤곽 및 하나 이상의 움직임 경계(500) 중 적어도 하나를 나타내는, 방법.
  30. 제 27항에 있어서, 적어도 하나의 다항식은 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선(500) 중 적어도 하나로서 사용되는, 방법.
  31. 제 27항에 있어서, 1차 다항식 모델은 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선(600) 중 적어도 하나로서 사용되는, 방법.
  32. 제 31항에 있어서, 상기 1차 다항식 모델은 각도 파라미터 및 거리 파라미터(600)를 포함하는, 방법.
  33. 제 27항에 있어서, 주어진 이미지 부분에 대한 파라미터 모델은 하나보다 많은 파라미터 모델이 이용가능할 때(2200) 모델의 세트에 따라 적응적으로 디코딩되는, 방법.
  34. 제 27항에 있어서, 상기 디코딩 단계는 적어도 하나의 고 레벨 신택스 요소(2720)를 이용하여 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도에 대한 명시적 또는 암시적 디코딩을 수행하는, 방법.
  35. 제 34항에 있어서, 상기 적어도 하나의 고 레벨 신택스 요소는 슬라이스 헤더 레벨, 보충 개선 정보(SEI) 레벨, 화상 파라미터 세트 레벨, 시퀀스 파라미터 세트 레벨 및 네트워크 추상 층 유닛 헤더 레벨 중 적어도 하나로부터 디코딩되는, 방법.
  36. 제 27항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도는 압축 해제 효율 및 디코더 복잡성 중 적어도 하나를 제어하기 위해 적응되는, 방법.
  37. 제 36항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터의 정밀도는 압축 해제 품질 파라미터(2410, 2415)에 따라 적응되는, 방법.
  38. 제 27항에 있어서, 적어도 하나의 화상의 적어도 하나의 파티션과 연관된 예 측자 데이터는 공간 이웃 블록 및 시간 이웃 블록(2118, 2168) 중 적어도 하나로부터 예측되는, 방법.
  39. 제 27항에 있어서, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나에 대한 파티션 모델 파라미터는 공간 이웃 블록 및 시간 이웃 블록(2116, 2166) 중 적어도 하나로부터 예측되는, 방법.
  40. 제 27항에 있어서, 상기 디코딩 단계는, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나에 따라, 하나보다 많은 파티션에 부분적으로 놓이는 픽셀에 대한 예측 값을 계산하는데, 안티-얼라이싱 절차(700), 픽셀의 대응하는 위치에 대한 예측 값의 부분의 조합, 픽셀의 대응하는 위치에 대한 총 예측 값, 이웃, 상이한 파티션의 예측자를 이용하여, 하나보단 많은 파티션으로부터 계산하며, 여기서, 픽셀이 부분적으로 놓이는 것으로 간주(2520)되는, 방법.
  41. 제 27항에 있어서, 상기 디코딩 단계는 기존의 비디오 코딩 표준 또는 비디오 코딩 권고의 기존의 하이브리드 예측 디코더의 확장된 버전에서 수행되는, 방법.
  42. 제 41항에 있어서, 상기 디코딩 단계는 각각 매크로블록 및 서브-매크로블록 중 적어도 하나에 대한 코딩 모드로서 화상의 매크로블록 및 서브-매크로블록 중 적어도 하나에 파라미터 모델 기반의 파티션을 적용하는, 방법.
  43. 제 42항에 있어서, 파라미터 모델-기반의 코딩 모드는 기존의 비디오 코딩 표준 또는 비디오 코딩 권고의 기존의 매크로블록 및 서브-매크로블록 코딩 모드 내에 삽입되는, 방법.
  44. 제 42항에 있어서, 상기 디코딩 단계는, 파티션 예측 데이터와 함께 파라미터 모델-기반의 파티션을 결정하기 위해 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 모델 파라미터를 디코딩하는(2000), 방법.
  45. 제 42항에 있어서, 적어도 2개의 파라미터 모델-기반의 파티션과 겹치는 적어도 하나의 화상의 픽셀은, 적어도 2개의 파라미터 모델-기반의 파티션의 예측과, 적어도 2개의 파라미터 모델-기반의 파티션 중 하나의 예측 중 적어도 하나로부터의 이웃한 픽셀 중 적어도 하나로부터 가중된 선형 평균인, 방법.
  46. 제 42항에 있어서, 파티션 예측은 인터(2100) 및 인트라(2150) 유형 중 적어도 하나인, 방법.
  47. 제 42항에 있어서, 상기 디코딩 단계는 파티션 모델 파라미터 코딩(2100, 2150)을 위해 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나 에 대한 파라미터 예측을 선택적으로 사용하는, 방법.
  48. 제 47항에 있어서, 화상들 중 특정한 화상의 현재 블록에 대한 예측은 이웃 블록으로부터 현재 블록으로의 곡선 외삽법에 기초하는(1300, 1400, 1500), 방법.
  49. 제 47항에 있어서, 상기 디코딩 단계는, 적어도 하나의 파라미터 모델 및 적어도 하나의 곡선 중 적어도 하나의 파라미터가 예측되는지에 따라 이미지 데이터를 디코딩하기 위해 상이한 콘텍스트 또는 코딩 표를 사용하는(1808, 1858), 방법.
  50. 제 42항에 있어서, 상기 디코딩 단계는, 국제 표준화 기구/국제 전기 표준 회의(ISO/IEC) 동화상 전문가 그룹-4(MPEG-4) 파트 10 개선된 비디오 코딩(AVC) 표준/국제 원격 통신 연합, 원격 통신 섹터(ITU-T) H.264 권고를 위한 디코더의 확장된 버전에서 수행되는, 방법.
  51. 제 42항에 있어서, 상기 디코딩 단계는, 파라미터 모델-기반의 파티션 모드가 사용될 때 매크로블록 및 서브-매크로블록 중 적어도 하나의 비-트리-기반의 파티셔닝으로 인해 적어도 하나의 파라미터 모드-기반의 파티션에 의해 영향을 받은 변환-크기 블록을 다루도록 적응된 디블록킹 필터링 및 기준 프레임 필터링 중 적어도 하나를 적용하고, 상기 디블록킹 필터링 및 기준 프레임 필터링은, 적어도 하나의 파라미터 모델-기반의 파티션 중 사용되는 어느 하나와 적어도 하나의 파라미 터 모델-기반의 파티션의 선택된 형태 중 적어도 하나에 의존하는, 방법.
  52. 제 38항에 있어서, 상기 디코딩 단계는 선택된 파라미터 모델-기반의 파티션이 사용중인 경우에 따라, 잔여 역 변환 및 역-양자화 절차(1150) 중 적어도 하나를 적응시키는, 방법.
  53. 인코딩된 비디오 신호 데이터를 갖는 저장 매체로서,
    적어도 하나의 파라미터 모델에 응답하여 화상의 적어도 부분을 적응적으로 파티셔닝함으로써 인코딩된 화상에 대응하는 이미지 데이터를 포함하며, 상기 적어도 하나의 파라미터 모델은 적어도 하나의 곡선의 암시적 및 명시적 구성 중 적어도 하나를 수반하는, 인코딩된 비디오 신호 데이터를 갖는 저장 매체.
KR1020097002021A 2006-08-02 2007-07-31 비디오 디코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치 KR101526914B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US83499306P 2006-08-02 2006-08-02
US60/834,993 2006-08-02
PCT/US2007/017114 WO2008016605A2 (en) 2006-08-02 2007-07-31 Adaptive geometric partitioning for video decoding

Publications (2)

Publication Number Publication Date
KR20090046815A true KR20090046815A (ko) 2009-05-11
KR101526914B1 KR101526914B1 (ko) 2015-06-08

Family

ID=38997679

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020097002015A KR101380580B1 (ko) 2006-08-02 2007-07-31 비디오 인코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치
KR1020097002021A KR101526914B1 (ko) 2006-08-02 2007-07-31 비디오 디코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020097002015A KR101380580B1 (ko) 2006-08-02 2007-07-31 비디오 인코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치

Country Status (7)

Country Link
US (6) US20120177106A1 (ko)
EP (2) EP2047687B1 (ko)
JP (5) JP2009545920A (ko)
KR (2) KR101380580B1 (ko)
CN (2) CN101502120B (ko)
BR (2) BRPI0714859A2 (ko)
WO (2) WO2008016609A2 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101369174B1 (ko) * 2013-03-20 2014-03-10 에스케이텔레콤 주식회사 고해상도 동영상의 부호화/복호화 방법 및 장치
KR20170124082A (ko) * 2016-04-29 2017-11-09 세종대학교산학협력단 영상 신호 부호화/복호화 방법 및 장치
WO2017222237A1 (ko) * 2016-06-22 2017-12-28 한국전자통신연구원 화면 내 예측 방법 및 장치
US11539979B2 (en) 2016-10-04 2022-12-27 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11601677B2 (en) 2016-10-04 2023-03-07 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11849074B2 (en) 2016-04-29 2023-12-19 Industry Academy Cooperation Foundation Of Sejong University Video signal encoding/decoding method and apparatus

Families Citing this family (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2047687B1 (en) 2006-08-02 2018-05-16 Thomson Licensing DTV Adaptive geometric partitioning for video encoding
ZA200901048B (en) * 2006-09-29 2010-05-26 Thomson Licensing Geometric intra prediction
US7756348B2 (en) * 2006-10-30 2010-07-13 Hewlett-Packard Development Company, L.P. Method for decomposing a video sequence frame
KR101365570B1 (ko) * 2007-01-18 2014-02-21 삼성전자주식회사 인트라 예측 부호화, 복호화 방법 및 장치
KR101366093B1 (ko) * 2007-03-28 2014-02-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
US8160150B2 (en) * 2007-04-10 2012-04-17 Texas Instruments Incorporated Method and system for rate distortion optimization
KR101680951B1 (ko) 2007-04-12 2016-11-29 톰슨 라이센싱 비디오 인코더에서 고속으로 기하학적 모드를 결정하기 위한 방법들 및 장치
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
KR101408698B1 (ko) * 2007-07-31 2014-06-18 삼성전자주식회사 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치
BRPI0818344A2 (pt) 2007-10-12 2015-04-22 Thomson Licensing Métodos e aparelhos para codificação e decodificação de vídeo de partições de modo bi-preditivo geometricamente particionadas
CN101415121B (zh) * 2007-10-15 2010-09-29 华为技术有限公司 一种自适应的帧预测的方法及装置
KR101496324B1 (ko) * 2007-10-17 2015-02-26 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
WO2009088976A1 (en) * 2008-01-07 2009-07-16 Thomson Licensing Methods and apparatus for video encoding and decoding using parametric filtering
US9967590B2 (en) 2008-04-10 2018-05-08 Qualcomm Incorporated Rate-distortion defined interpolation for video coding based on fixed filter or adaptive filter
US8831086B2 (en) 2008-04-10 2014-09-09 Qualcomm Incorporated Prediction techniques for interpolation in video coding
KR101595899B1 (ko) * 2008-04-15 2016-02-19 오렌지 선형 형태의 픽셀들의 파티션들로 슬라이스 된 이미지 또는 이미지들의 시퀀스의 코딩 및 디코딩
ES2752001T3 (es) * 2008-04-15 2020-04-02 Orange Predicción de imágenes por determinación previa de una familia de píxeles de referencia, codificación y decodificación que usan dicha predicción
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8325796B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video coding using adaptive segmentation
KR101597253B1 (ko) * 2008-10-27 2016-02-24 에스케이 텔레콤주식회사 동영상 부호화/복호화 장치, 이를 위한 적응적 디블록킹 필터링 장치와 필터링 방법, 및 기록 매체
JP2012089905A (ja) * 2009-01-13 2012-05-10 Hitachi Ltd 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法
CN102349298B (zh) * 2009-03-12 2016-08-03 汤姆森特许公司 用于去伪像滤波的基于区域的滤波器参数选择的方法和装置
BRPI1011698B1 (pt) 2009-03-23 2019-04-02 Ntt Docomo, Inc. Método de decodificação preditiva de imagem, dispositivo de decodificação preditiva de imagem, método de codificação preditiva de imagem, e dispositivo de codificação preditiva de imagem
CA3159686C (en) * 2009-05-29 2023-09-05 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method
WO2010151334A1 (en) * 2009-06-26 2010-12-29 Thomson Licensing Methods and apparatus for video encoding and decoding using adaptive geometric partitioning
EP3651466A1 (fr) * 2009-07-03 2020-05-13 Orange Prédiction d'un vecteur mouvement d'une partition d'image courante de forme géometrique ou de taille différente de celle d'au moins une partition d'image de référence voisine, codage et decodage utilisant une telle prediction
KR101837206B1 (ko) * 2009-07-23 2018-03-09 톰슨 라이센싱 비디오 인코딩 및 디코딩에서 적응적 변환 선택을 위한 방법들 및 장치
KR101456498B1 (ko) * 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101510108B1 (ko) 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP2011049740A (ja) * 2009-08-26 2011-03-10 Sony Corp 画像処理装置および方法
US10178396B2 (en) 2009-09-04 2019-01-08 Stmicroelectronics International N.V. Object tracking
US8848802B2 (en) * 2009-09-04 2014-09-30 Stmicroelectronics International N.V. System and method for object based parametric video coding
KR101629475B1 (ko) * 2009-09-23 2016-06-22 삼성전자주식회사 기하학 기반의 블록 분할 인트라 예측을 이용한 깊이영상 부호화 방법 및 장치
KR101807886B1 (ko) 2009-10-14 2017-12-11 돌비 인터네셔널 에이비 깊이 맵 처리를 위한 방법 및 디바이스
KR101484280B1 (ko) * 2009-12-08 2015-01-20 삼성전자주식회사 임의적인 파티션을 이용한 움직임 예측에 따른 비디오 부호화 방법 및 장치, 임의적인 파티션을 이용한 움직임 보상에 따른 비디오 복호화 방법 및 장치
USRE47243E1 (en) 2009-12-09 2019-02-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
KR101700358B1 (ko) * 2009-12-09 2017-01-26 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101675118B1 (ko) 2010-01-14 2016-11-10 삼성전자 주식회사 스킵 및 분할 순서를 고려한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
US8879632B2 (en) * 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
US20110249734A1 (en) * 2010-04-09 2011-10-13 Segall Christopher A Methods and Systems for Intra Prediction
US20110249743A1 (en) * 2010-04-09 2011-10-13 Jie Zhao Super-block for high performance video coding
CN102215396A (zh) 2010-04-09 2011-10-12 华为技术有限公司 一种视频编解码方法和系统
US8619857B2 (en) 2010-04-09 2013-12-31 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
US8644375B2 (en) 2010-04-09 2014-02-04 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
JP5856143B2 (ja) * 2010-04-13 2016-02-09 ジーイー ビデオ コンプレッション エルエルシー 細分割を使用した2次元情報信号の空間的なサンプリングの符号化
KR101447796B1 (ko) 2010-04-13 2014-10-07 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 평면 간 예측
DK2559246T3 (en) 2010-04-13 2016-09-19 Ge Video Compression Llc Fusion of sample areas
PT3301648T (pt) 2010-04-13 2020-04-20 Ge Video Compression Llc Herança em matriz de amostras em subdivisão multitree
US8521006B2 (en) 2010-05-06 2013-08-27 Intel Corporation Boundary detection in media streams
US9020043B2 (en) 2010-05-10 2015-04-28 Google Inc. Pathway indexing in flexible partitioning
US9094658B2 (en) 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
TWI600318B (zh) * 2010-05-18 2017-09-21 Sony Corp Image processing apparatus and image processing method
US8855205B2 (en) 2010-05-26 2014-10-07 Newratek Inc. Method of predicting motion vectors in video codec in which multiple references are allowed, and motion vector encoding/decoding apparatus using the same
US20110310976A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Joint Coding of Partition Information in Video Coding
JP2012023597A (ja) * 2010-07-15 2012-02-02 Sony Corp 画像処理装置及び画像処理方法
SG187094A1 (en) 2010-07-20 2013-03-28 Ntt Docomo Inc Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
KR101681303B1 (ko) * 2010-07-29 2016-12-01 에스케이 텔레콤주식회사 블록 분할예측을 이용한 영상 부호화/복호화 방법 및 장치
EP2421266A1 (en) 2010-08-19 2012-02-22 Thomson Licensing Method for reconstructing a current block of an image and corresponding encoding method, corresponding devices as well as storage medium carrying an images encoded in a bit stream
US9202289B2 (en) * 2010-09-30 2015-12-01 Electronics And Telecommunications Research Institute Method for coding and decoding target block partition information using information about neighboring blocks
JP2012080369A (ja) * 2010-10-01 2012-04-19 Sony Corp 画像処理装置及び画像処理方法
US8861617B2 (en) 2010-10-05 2014-10-14 Mediatek Inc Method and apparatus of region-based adaptive loop filtering
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
KR101712156B1 (ko) * 2010-12-06 2017-03-06 에스케이 텔레콤주식회사 임의의 형태의 블록을 이용한 인터예측에 의한 영상의 부호화/복호화 방법 및 장치
KR102086145B1 (ko) * 2010-12-13 2020-03-09 한국전자통신연구원 인트라 예측 방법 및 그 장치
KR101438471B1 (ko) 2011-01-03 2014-09-16 미디어텍 인크. 필터 유닛 기반 인-루프 필터링 방법
DE102011006036B4 (de) 2011-01-14 2012-12-27 Siemens Aktiengesellschaft Verfahren und Vorrichtungen zur Bildung eines Prädiktionswertes
CN102611884B (zh) 2011-01-19 2014-07-09 华为技术有限公司 图像编解码方法及编解码设备
CN102884794B (zh) 2011-03-07 2016-08-10 松下知识产权经营株式会社 运动补偿装置、运动图像编码装置、运动图像解码装置、运动补偿方法、以及集成电路
US8718389B2 (en) * 2011-04-13 2014-05-06 Huawei Technologies Co., Ltd. Image encoding and decoding methods and related devices
KR101215152B1 (ko) 2011-04-21 2012-12-24 한양대학교 산학협력단 인루프 필터링을 적용한 예측 방법을 이용한 영상 부호화/복호화 방법 및 장치
US9338476B2 (en) 2011-05-12 2016-05-10 Qualcomm Incorporated Filtering blockiness artifacts for video coding
US8989256B2 (en) 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
US8964833B2 (en) 2011-07-19 2015-02-24 Qualcomm Incorporated Deblocking of non-square blocks for video coding
EP2750387B1 (en) 2011-09-22 2019-06-19 LG Electronics Inc. Video decoding method and video decoding apparatus
US9838692B2 (en) * 2011-10-18 2017-12-05 Qualcomm Incorporated Detecting availabilities of neighboring video units for video coding
KR20130050149A (ko) * 2011-11-07 2013-05-15 오수미 인터 모드에서의 예측 블록 생성 방법
TWI505696B (zh) 2011-11-08 2015-10-21 Samsung Electronics Co Ltd 解碼影像的方法
EP2777286B1 (en) 2011-11-11 2017-01-04 GE Video Compression, LLC Effective wedgelet partition coding
KR101663394B1 (ko) 2011-11-11 2016-10-06 지이 비디오 컴프레션, 엘엘씨 적응적 분할 코딩
EP3657788B1 (en) * 2011-11-11 2021-08-04 GE Video Compression, LLC Effective prediction using partition coding
US20130136180A1 (en) * 2011-11-29 2013-05-30 Futurewei Technologies, Inc. Unified Partitioning Structures and Signaling Methods for High Efficiency Video Coding
KR101718894B1 (ko) 2011-11-29 2017-03-23 삼성전자주식회사 기기 제어를 위한 유저 인터페이스 제공 시스템 및 방법
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
US9531990B1 (en) 2012-01-21 2016-12-27 Google Inc. Compound prediction using multiple sources or prediction modes
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US8737824B1 (en) 2012-03-09 2014-05-27 Google Inc. Adaptively encoding a media stream with compound prediction
US20130287109A1 (en) * 2012-04-29 2013-10-31 Qualcomm Incorporated Inter-layer prediction through texture segmentation for video coding
US9185429B1 (en) 2012-04-30 2015-11-10 Google Inc. Video encoding and decoding using un-equal error protection
US9185414B1 (en) 2012-06-29 2015-11-10 Google Inc. Video encoding using variance
GB2504069B (en) 2012-07-12 2015-09-16 Canon Kk Method and device for predicting an image portion for encoding or decoding of an image
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
CN103634612A (zh) * 2012-08-22 2014-03-12 成都爱斯顿测控技术有限公司 工业级音频视频处理平台
CN102833551B (zh) * 2012-09-25 2014-10-29 中南大学 一种Slice级编解码端联合时间最小化方法
JP5841670B2 (ja) 2012-09-28 2016-01-13 日本電信電話株式会社 イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
US9826229B2 (en) 2012-09-29 2017-11-21 Google Technology Holdings LLC Scan pattern determination from base layer pixel information for scalable extension
US9350988B1 (en) 2012-11-20 2016-05-24 Google Inc. Prediction mode-based block ordering in video coding
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9681128B1 (en) 2013-01-31 2017-06-13 Google Inc. Adaptive pre-transform scanning patterns for video and image compression
CN103313053B (zh) * 2013-05-14 2016-05-25 浙江万里学院 一种面向视觉对象的形状编码方法
US9247251B1 (en) 2013-07-26 2016-01-26 Google Inc. Right-edge extension for quad-tree intra-prediction
WO2015015681A1 (ja) * 2013-07-31 2015-02-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像符号化方法および画像符号化装置
US9609343B1 (en) * 2013-12-20 2017-03-28 Google Inc. Video coding using compound prediction
US9392272B1 (en) 2014-06-02 2016-07-12 Google Inc. Video coding using adaptive source variance based partitioning
US10200717B2 (en) * 2014-06-19 2019-02-05 Sharp Kabushiki Kaisha Image decoding device, image coding device, and predicted image generation device
CN104036510A (zh) * 2014-06-20 2014-09-10 常州艾格勒信息技术有限公司 一种新型图像分割系统及方法
US9578324B1 (en) 2014-06-27 2017-02-21 Google Inc. Video coding using statistical-based spatially differentiated partitioning
US20160050440A1 (en) * 2014-08-15 2016-02-18 Ying Liu Low-complexity depth map encoder with quad-tree partitioned compressed sensing
US20170332092A1 (en) * 2014-10-31 2017-11-16 Samsung Electronics Co., Ltd. Method and device for encoding or decoding image
KR101624659B1 (ko) 2015-01-05 2016-05-27 삼성전자주식회사 영상의 복호화 방법 및 장치
KR101624660B1 (ko) 2015-04-14 2016-05-27 삼성전자주식회사 영상의 복호화 방법 및 장치
WO2016182317A1 (ko) * 2015-05-12 2016-11-17 삼성전자 주식회사 인트라 예측을 수행하는 영상 복호화 방법 및 그 장치 및 인트라 예측을 수행하는 영상 부호화 방법 및 그 장치
JP6510902B2 (ja) * 2015-06-15 2019-05-08 日本放送協会 符号化装置、復号装置及びプログラム
CN106331706B (zh) * 2016-05-03 2019-04-30 上海兆芯集成电路有限公司 基于曲线拟合的率失真优化方法以及使用该方法的装置
CN109565592B (zh) 2016-06-24 2020-11-17 华为技术有限公司 一种使用基于分割的视频编码块划分的视频编码设备和方法
CN109565595B (zh) 2016-06-24 2021-06-22 华为技术有限公司 一种使用基于分割的视频编码块划分的视频编码设备和方法
EP3301931A1 (en) 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for omnidirectional video coding with adaptive intra prediction
KR20180045530A (ko) 2016-10-26 2018-05-04 디지털인사이트 주식회사 임의의 블록 분할을 사용하는 비디오 코딩 방법 및 장치
KR20230054495A (ko) * 2016-12-28 2023-04-24 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
WO2018141416A1 (en) 2017-02-06 2018-08-09 Huawei Technologies Co., Ltd. Video encoder and decoder for predictive partitioning
EP3632106A1 (en) 2017-06-30 2020-04-08 Huawei Technologies Co., Ltd. Encoder, decoder, computer program and computer program product for processing a frame of a video sequence
CA3068393A1 (en) * 2017-06-30 2019-01-03 Sharp Kabushiki Kaisha Systems and methods for geometry-adaptive block partitioning of a picture into video blocks for video coding
BR112019028012A2 (pt) 2017-06-30 2020-07-07 Huawei Technologies Co., Ltd. dispositivo e método para determinar um vetor de movimento, codificador e decodificador de vídeo para codificar e decodificar uma pluralidade de fotos
CN111034197B (zh) * 2017-08-22 2022-07-12 松下电器(美国)知识产权公司 图像编码器、图像解码器、图像编码方法和图像解码方法
EP3454556A1 (en) 2017-09-08 2019-03-13 Thomson Licensing Method and apparatus for video encoding and decoding using pattern-based block filtering
WO2019069782A1 (ja) * 2017-10-06 2019-04-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2019078581A1 (ko) 2017-10-16 2019-04-25 디지털인사이트주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN111771377A (zh) 2018-01-30 2020-10-13 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
US11233996B2 (en) * 2018-02-22 2022-01-25 Lg Electronics Inc. Image decoding method and apparatus according to block division structure in image coding system
US10708625B2 (en) * 2018-06-12 2020-07-07 Alibaba Group Holding Limited Adaptive deblocking filter
US11695967B2 (en) 2018-06-22 2023-07-04 Op Solutions, Llc Block level geometric partitioning
US10284844B1 (en) 2018-07-02 2019-05-07 Tencent America LLC Method and apparatus for video coding
US10382772B1 (en) * 2018-07-02 2019-08-13 Tencent America LLC Method and apparatus for video coding
JP2021536191A (ja) * 2018-09-07 2021-12-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America ビデオコーディング用システムおよび方法
EP3861732A4 (en) * 2018-10-01 2022-07-06 OP Solutions, LLC EXPONENTIAL PARTITIONING METHODS AND SYSTEMS
CN111147850B (zh) * 2018-11-02 2022-10-11 北京字节跳动网络技术有限公司 用于基于历史的运动矢量预测的表维护
KR102653562B1 (ko) 2018-11-06 2024-04-02 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 위치에 따른 인트라 예측
CN112219400B (zh) 2018-11-06 2024-03-26 北京字节跳动网络技术有限公司 依赖位置的对运动信息的存储
CN113170184A (zh) 2018-11-22 2021-07-23 北京字节跳动网络技术有限公司 默认运动候选的配置方法
WO2020108591A1 (en) * 2018-12-01 2020-06-04 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
WO2020125803A1 (en) * 2018-12-21 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Intra prediction using polynomial model
CN112565785B (zh) * 2018-12-28 2022-04-26 杭州海康威视数字技术股份有限公司 一种编解码方法及其设备
SG11202108103WA (en) 2019-01-28 2021-08-30 Op Solutions Llc Inter prediction in geometric partitioning with an adaptive number of regions
JP2022523309A (ja) * 2019-01-28 2022-04-22 オーピー ソリューションズ, エルエルシー 指数関数的分割におけるインター予測
US10742972B1 (en) * 2019-03-08 2020-08-11 Tencent America LLC Merge list construction in triangular prediction
WO2020248105A1 (zh) * 2019-06-10 2020-12-17 Oppo广东移动通信有限公司 预测值的确定方法、编码器以及计算机存储介质
BR112021025846A2 (pt) * 2019-06-21 2022-02-08 Huawei Tech Co Ltd Derivação de peso de amostra de croma para modo de partição geométrica
KR20230135185A (ko) 2019-06-21 2023-09-22 후아웨이 테크놀러지 컴퍼니 리미티드 서브 블록 파티셔닝 모드를 위한 인코더, 디코더 및 대응 방법
US11190777B2 (en) * 2019-06-30 2021-11-30 Tencent America LLC Method and apparatus for video coding
KR20220030995A (ko) * 2019-07-14 2022-03-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩에서 변환 블록 크기 제한
US11375243B2 (en) * 2019-07-17 2022-06-28 Tencent America LLC Method and apparatus for video coding
WO2021015581A1 (ko) * 2019-07-23 2021-01-28 한국전자통신연구원 기하학적 분할을 사용하는 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체
US11317090B2 (en) * 2019-08-12 2022-04-26 Tencent America LLC Method and apparatus for video coding
MX2022003940A (es) 2019-10-03 2022-04-25 Huawei Tech Co Ltd Proceso de codificacion para modo de particion geometrica.
US11533498B2 (en) 2019-11-21 2022-12-20 Tencent America LLC Geometric partitioning mode in video coding
US11317094B2 (en) * 2019-12-24 2022-04-26 Tencent America LLC Method and apparatus for video coding using geometric partitioning mode
MX2022007973A (es) * 2019-12-30 2022-07-05 Fg innovation co ltd Dispositivo y metodo para codificar datos de video.
CN113473141A (zh) * 2020-03-31 2021-10-01 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器及计算机可读存储介质
WO2022047099A1 (en) * 2020-08-28 2022-03-03 Op Solutions, Llc Methods and systems of adaptive geometric partitioning
WO2022047117A1 (en) * 2020-08-28 2022-03-03 Op Solutions, Llc Methods and systems of adaptive geometric partitioning
US20230237612A1 (en) * 2022-01-26 2023-07-27 Intuitive Research And Technology Corporation Determining volume of a selectable region using extended reality
WO2023158765A1 (en) * 2022-02-16 2023-08-24 Beijing Dajia Internet Information Technology Co., Ltd. Methods and devices for geometric partitioning mode split modes reordering with pre-defined modes order
WO2023224279A1 (ko) * 2022-05-16 2023-11-23 현대자동차주식회사 기하학적 움직임 예측을 사용하는 비디오 코딩을 위한 방법 및 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2500439B2 (ja) * 1993-05-14 1996-05-29 日本電気株式会社 動画像の予測符号化方式
JPH08205172A (ja) * 1995-01-26 1996-08-09 Mitsubishi Electric Corp 領域分割型動き予測回路、領域分割型動き予測回路内蔵画像符号化装置および領域分割型動き予測画像復号化装置
JPH0965338A (ja) * 1995-08-28 1997-03-07 Graphics Commun Lab:Kk 画像符号化装置および画像復号化装置
JP3392628B2 (ja) * 1996-03-29 2003-03-31 富士通株式会社 輪郭抽出方法及びシステム
KR100371130B1 (ko) * 1996-05-28 2003-02-07 마쯔시다덴기산교 가부시키가이샤 화상예측 복호화 장치 및 그 방법과 화상예측 부호화 장치및 그 방법
US7643559B2 (en) * 2001-09-14 2010-01-05 Ntt Docomo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
KR100973216B1 (ko) * 2002-04-23 2010-07-30 노키아 코포레이션 비디오 부호화 시스템에서 양자화 변수들을 표시하는 방법 및 장치
US20040091047A1 (en) 2002-11-11 2004-05-13 Sony Corporation Method and apparatus for nonlinear multiple motion model and moving boundary extraction
KR20050105271A (ko) * 2003-03-03 2005-11-03 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 인코딩
KR100513014B1 (ko) * 2003-05-22 2005-09-05 엘지전자 주식회사 비디오 코딩 시스템 및 비디오 코딩 방법
JP2005123732A (ja) * 2003-10-14 2005-05-12 Matsushita Electric Ind Co Ltd デブロックフィルタ処理装置およびデブロックフィルタ処理方法
JP4142563B2 (ja) * 2003-12-12 2008-09-03 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
JP4313710B2 (ja) * 2004-03-25 2009-08-12 パナソニック株式会社 画像符号化方法および画像復号化方法
CN100473161C (zh) * 2005-09-09 2009-03-25 海信集团有限公司 基于avs的4×4离散余弦变换的快速并行装置及其方法
EP2047687B1 (en) 2006-08-02 2018-05-16 Thomson Licensing DTV Adaptive geometric partitioning for video encoding
JP6327003B2 (ja) 2014-06-20 2018-05-23 三菱ケミカル株式会社 イミノジ酢酸型キレート樹脂の製造方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101369174B1 (ko) * 2013-03-20 2014-03-10 에스케이텔레콤 주식회사 고해상도 동영상의 부호화/복호화 방법 및 장치
US11849074B2 (en) 2016-04-29 2023-12-19 Industry Academy Cooperation Foundation Of Sejong University Video signal encoding/decoding method and apparatus
KR20170124082A (ko) * 2016-04-29 2017-11-09 세종대학교산학협력단 영상 신호 부호화/복호화 방법 및 장치
US11849111B2 (en) 2016-04-29 2023-12-19 Industry Academy Cooperation Foundation Of Sejong University Video signal encoding/decoding method and apparatus
WO2017222237A1 (ko) * 2016-06-22 2017-12-28 한국전자통신연구원 화면 내 예측 방법 및 장치
US11128861B2 (en) 2016-06-22 2021-09-21 Electronics And Telecommunications Research Institute Intra prediction method and device
US11601677B2 (en) 2016-10-04 2023-03-07 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11831916B1 (en) 2016-10-04 2023-11-28 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11758189B2 (en) 2016-10-04 2023-09-12 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11818396B2 (en) 2016-10-04 2023-11-14 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11831914B2 (en) 2016-10-04 2023-11-28 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11831915B1 (en) 2016-10-04 2023-11-28 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11831917B1 (en) 2016-10-04 2023-11-28 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11758190B2 (en) 2016-10-04 2023-09-12 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11758191B2 (en) 2016-10-04 2023-09-12 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11539979B2 (en) 2016-10-04 2022-12-27 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11902579B2 (en) 2016-10-04 2024-02-13 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11902578B2 (en) 2016-10-04 2024-02-13 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11910018B2 (en) 2016-10-04 2024-02-20 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11949913B2 (en) 2016-10-04 2024-04-02 B1 Institute Of Image Technology, Inc. Method and apparatus of encoding/decoding image data based on tree structure-based block division

Also Published As

Publication number Publication date
CN101502120A (zh) 2009-08-05
JP2009545920A (ja) 2009-12-24
JP2014060764A (ja) 2014-04-03
US20240129524A1 (en) 2024-04-18
WO2008016609A2 (en) 2008-02-07
CN101502120B (zh) 2012-08-29
CN101502119B (zh) 2012-05-23
JP2009545919A (ja) 2009-12-24
US11252435B2 (en) 2022-02-15
BRPI0715507A2 (pt) 2013-06-18
US11895327B2 (en) 2024-02-06
EP2050279B1 (en) 2018-08-29
EP2047687B1 (en) 2018-05-16
KR101526914B1 (ko) 2015-06-08
US20210044826A1 (en) 2021-02-11
KR20090046814A (ko) 2009-05-11
JP2015144487A (ja) 2015-08-06
US20120177106A1 (en) 2012-07-12
WO2008016609A3 (en) 2008-10-09
JP6109712B2 (ja) 2017-04-05
WO2008016605A3 (en) 2008-10-23
EP2050279A2 (en) 2009-04-22
US20090196342A1 (en) 2009-08-06
BRPI0714859A2 (pt) 2013-05-21
EP2047687A2 (en) 2009-04-15
JP2014060763A (ja) 2014-04-03
WO2008016605A2 (en) 2008-02-07
CN101502119A (zh) 2009-08-05
US20220132162A1 (en) 2022-04-28
KR101380580B1 (ko) 2014-04-02
US20170280156A1 (en) 2017-09-28

Similar Documents

Publication Publication Date Title
KR101380580B1 (ko) 비디오 인코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치
KR101524394B1 (ko) 인코딩 방법 및 장치, 디코딩 방법 및 장치 및 컴퓨터 판독가능한 저장 매체
KR20170093833A (ko) 인트라 모드들의 코딩
KR20120089290A (ko) 비디오 엔코딩 및 디코딩을 위한 dc 인트라 예측 모드의 방법 및 장치
Xiu et al. Decoder-side intra mode derivation for block-based video coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
E902 Notification of reason for refusal
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180516

Year of fee payment: 4