KR101709358B1 - 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들 - Google Patents

디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들 Download PDF

Info

Publication number
KR101709358B1
KR101709358B1 KR1020117021308A KR20117021308A KR101709358B1 KR 101709358 B1 KR101709358 B1 KR 101709358B1 KR 1020117021308 A KR1020117021308 A KR 1020117021308A KR 20117021308 A KR20117021308 A KR 20117021308A KR 101709358 B1 KR101709358 B1 KR 101709358B1
Authority
KR
South Korea
Prior art keywords
region
parameter
filter parameter
picture
based filter
Prior art date
Application number
KR1020117021308A
Other languages
English (en)
Other versions
KR20110126693A (ko
Inventor
윤페이 젱
치안 수
조엘 솔
펭 인
시아오안 루
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20110126693A publication Critical patent/KR20110126693A/ko
Application granted granted Critical
Publication of KR101709358B1 publication Critical patent/KR101709358B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들이 제공된다. 장치는 픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 인코딩하기 위한 인코더(100)를 포함한다. 인코더(100)는 영역-기반 필터 파라미터 선택을 이용하여 그 영역에 대한 디-아티팩트 필터링을 수행하기 위한 디-아티팩트 필터(165)를 포함한다. 영역은 비-블록-경계, 블록 경계, 및 그 조합 중 임의의 하나를 포함하고, 비-블록-경계는 임의의 블록 경계들을 배제한다.

Description

디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들{METHODS AND APPARATUS FOR REGION-BASED FILTER PARAMETER SELECTION FOR DE-ARTIFACT FILTERING}
관련 출원서들에 대한 상호-참조
본 출원서는 여기에 그 전체가 참고로 첨부되고 2009년 3월 12일에 출원된 미합중국 예비출원서 일련번호 61/159,573(대리인 문서번호 PU090032)의 잇점을 청구한다.
본 원리들은 일반적으로는 비디오 인코딩 및 디코딩에 관한 것으로, 특히 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들에 관한 것이다.
비디오 코딩 표준들은 블록-기반 변환들(예를 들면, 유비쿼터스 이산 코사인 변환, 또는 DCT) 및 모션 보상을 채용하여 압축 효율을 달성한다. 모션-보상된 예측에서 변환 계수들의 조잡한 양자화, 및 인접하는 블록들에 의한 상이한 레퍼런스 로케이션들 또는 상이한 레퍼런스 픽쳐들의 이용은 에지들, 텍스쳐들 또는 블록 불연속점들 주위의 왜곡과 같은 시각적으로 교란시키는 아티팩트들을 유발시킬 수 있다. 종래 기술의 표준화를 위한 국제 기구/국제 전기기술 위원회(ISO/IEC) 동화상 전문가 그룹-4(MPEG-4) 파트 10 진보된 비디오 코딩(AVC) 표준/국제 통신 유니온, 통신 섹터(ITU-T) H.264 추천(이하에서는, "MPEG-4 AVC 표준")에서, 블록 경계들을 따라 발생하는 아티팩트들과 싸우기 위해 적응형 디-블록킹 필터가 도입된다.
블록 불연속점들 위 뿐만 아니라 이미지 특이점들(예를 들면, 에지들 및/또는 텍스쳐들) 주위에서도, 이들이 나타날 수 있는 곳마다, 아티팩트들과 싸우도록 더 일반적인 디-아티팩팅 접근법들이 제안되었다. 제1 종래 기술 접근법에서, 성능을 최대화시키기 위해, 디-아티팩팅 필터들을 위한 임계는 비디오 코딩 절차에 의해 부여되는 로컬 인코딩 조건들을 고려해야 한다. 예를 들면, 하나의 단일 프레임 내에서, MPEG-4 AVC 표준은 각각이 상이한 양자화 노이즈 통계들 및 대응하는 필터링 요구들에 종속되는 다양한 예측 모드들(인트라, 인터, 스킵, 등)을 제공한다. 그러므로, 제1 종래기술 접근법에서, 임계는 코딩 모드들 및 양자화 파라미터(QP)에 기초하여 적응된다. 그러나, 제1 종래 기술 접근법의 임계는 비디오 컨텐트 자체를 고려하지 않는다.
MPEG-4 AVC 표준에서의 디블록킹 필터
종래 기술 MPEG-4 AVC 표준 내에서, 루프내 디블록킹 필터가 채택되었다. 필터는 블록 경계들을 따라 발생하는 아티팩트들을 감쇠시키도록 작용한다. 그러한 아티팩트들은 모션 보상된 예측뿐만 아니라 변환(DCT) 계수들의 조잡한 양자화에 의해 유발된다. 블록 에지들에게 저대역통과 필터들을 적응형으로 적용함으로써, 디블록킹 필터는 주관적 및 객관적 비디오 품질을 개선시킬 수 있다. 필터는 블록 에지 주위의 샘플들의 분석을 수행함으로써 동작하고, 실제 이미지 컨텐트에 관련된 일반적으로 더 큰 세기 차이들을 보존하면서도 블록형(blocky) 아티팩트들로 기인될 수 있는 작은 세기 차이들을 감쇠시키도록 필터링 강도를 적응시킨다. 수 개의 블록 코딩 모드들 및 조건들은 또한 필터들이 적용되는 세기를 나타내도록 서브한다. 이들은 인터/인트라 예측 결정들, 코딩된 레지듀얼들의 존재, 및 인접하는 블록들 사이의 모션 차이들을 포함한다. 블록-레벨 상에서의 적응성 이외에도, 디블록킹 필터는 또한 슬라이스-레벨 및 샘플-레벨에서 적응형이다. 슬라이스 레벨에서, 필터링 세기는 비디오 시퀀스의 개별적인 특성들로 조정될 수 있다. 샘플 레벨에서, 필터링은 샘플 값 및 양자화기-기반 임계들에 따라 각 개별적인 샘플에서 턴오프될 수 있다.
MPEG-4 AVC 표준 디블록킹 필터에 의해 제거된 블록형 아티팩트들은 압축된 비디오에 존재하는 유일한 아티팩트들이 아니다. 조잡한 양자화는 또한 링잉(ringing), 에지 왜곡, 또는 텍스쳐 오염과 같은 다른 아티팩트들에도 책임이 있다. 디블록킹 필터는 블록 내부에서 나타나는 양자화 에러들에 의해 야기된 아티팩트들을 감소시킬 수 없다. 더구나, 디블록킹에 채용된 저대역 통과 필터링 기술들은 스무드 이미지 모델을 담당하고 에지들 또는 텍스쳐들과 같은 이미지 특이점들을 처리하는데 적합하지 않다.
스파시티-기반 디-아티팩팅
스파시티-기반 디-노이징 기술들에 의해 영감을 받아, 제1 종래 기술 접근법에 대해 상기 언급된 바와 같이 압축 디-아티팩팅을 위한 비선형 루프내 필터가 제안되었다. 제1 종래 기술 접근법은 과도-완전한 세트의 변환들에 의해 제공된 디-노이징된 추정들의 세트를 이용한다. 제1 종래 기술 접근법의 구현은 웨이블렛들 또는 DCT와 같은 주어진 2차원(2D) 직교 변환 H의 모든 가능한 변환들 Hi를 이용함으로써 과도-완전한 세트의 변환들을 생성한다. 그러므로, 이미지 I가 제공되는 경우에, 이미지 I의 상이한 변환된 버전들 Yi의 시리즈는 다양한 변환들 Hi를 적용함으로써 생성된다. 그리고나서, 각 변환된 버전 Yi는 통상적으로 스레시홀딩(thresholding) 오퍼레이션과 관련된 디-노이징 절차를 거쳐, Y'i의 시리즈를 생성한다. 그리고나서, 변환되고 스레시홀딩된 계수들 Y'i는 공간 도메인으로 다시 역 변환되고, 디-노이징된 추정들 I'i를 발생시킨다. 과도-완전한 세팅들에서, 디-노이징된 추정들의 일부는 다른 것들보다 더 나은 성능을 제공하고 최종 필터링된 버전 I'는 그러한 디-노이징된 추정들의 평균화를 통한 조합으로부터 잇점을 가질 것으로 예상된다. 제1 종래 기술 접근법 디-노이징 필터는 디-노이징된 추정들 I'i의 가중 평균화를 제안하고, 여기에서 가중들은 최상 디-노이징된 추정들을 강조하도록 최적화된다.
디-아티팩팅 작업에 대해, 예를 들면 임계와 같은 필터링 파라미터들의 선택이 매우 중요하다. 적용되는 임계는 더 나은 디-노이징 추정들을 강조하는데 이용되는 평균화 가중들을 계산하는데 뿐만 아니라 필터의 디-노이징 용량을 제어하는데 핵심적인 역할을 한다. 부적절한 임계 선택은 결과적으로 오버-스무딩된 재구성된 픽쳐들로 나타나거나, 아티팩트들의 존속을 허용할 수 있다. 제1 종래기술 접근법에서, 양자화 파라미터(QP) 및 코딩 모드 정보에 기초한 픽셀 클래스 당 선택된 임계들은 사이드 정보로서 인코딩되어 디코더에 송신된다. 임계는 비디오 컨텐트에 기초하여 적응되지 않는다.
비디오 컨텐트는 공간적 및 시간적 양쪽으로 가변된다. 동일한 양자화 파라미터(QP) 또는 코딩 모드 하에서 비디오 시퀀스의 노이즈 또는 아티팩트들은 매우 상이할 수 있고, 이는 상이한 필터링 파라미터들을 요구한다.
종래 기술의 이들 및 다른 약점들 및 단점들은 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들에 관한 것인 본 원리들에 의해 어드레싱된다.
본 원리들의 하나의 양태에 따르면, 장치가 제공된다. 장치는 픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 인코딩하기 위한 인코더를 포함한다. 인코더는 영역-기반 필터 파라미터 선택을 이용하여 그 영역에 대해 디-아티팩트 필터링을 수행하기 위한 디-아티팩트 필터를 포함한다. 영역은 비-블록-경계, 블록 경계, 및 그 조합 중 임의의 하나를 포함하고, 비-블록-경계는 임의의 블록 경계들을 배제한다.
본 원리들의 또 하나의 양태에 따르면, 방법이 제공된다. 방법은 픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 인코딩하는 단계를 포함한다. 인코딩 단계는 영역-기반 필터 파라미터 선택을 이용하여 그 영역에 대해 디-아티팩트 필터링을 수행하는 단계를 포함한다. 영역은 비-블록-경계, 블록 경계, 및 그 조합 중 임의의 하나를 포함하고, 비-블록 경계는 임의의 블록 경계들을 배제한다.
본 원리들의 또 다른 하나의 양태에 따르면, 픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 디코딩하기 위한 디코더가 제공된다. 디코더는 영역-기반 필터 파라미터 선택을 이용하여 그 영역에 대해 디-아티팩트 필터링을 수행하기 위한 디-아티팩트 필터를 포함한다. 영역은 비-블록-경계, 블록 경계, 및 그 조합 중 임의의 하나를 포함하고, 비-블록-경계는 블록 경계들을 배제한다.
본 원리들의 추가 양태에 따르면, 방법이 제공된다. 방법은 픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 디코딩하는 단계를 포함한다. 디코딩 단계는 영역-기반 필터 파라미터 선택을 이용하여 그 영역에 대해 디-아티팩트 필터링을 수행하는 단계를 포함한다. 영역은 비-블록-경계, 블록-경계, 및 그 조합 중 임의의 하나를 포함하고, 비-블록-경계는 임의의 블록 경계들을 배제한다.
본 원리들의 이들 및 다른 양태들, 특징들 및 장점들은 첨부된 도면들과 관련하여 읽어져야 되는 예로 든 실시예들의 이하의 상세한 설명으로부터 명백하게 될 것이다.
본 원리들은 이하의 예로 든 도면들에 따라 더 잘 이해될 수 있다.
도 1은 본 원리들의 하나의 실시예에 따라, 본 원리들이 적용될 수 있는 예로 든 비디오 인코더를 도시하는 블록도이다.
도 2는 본 원리들의 하나의 실시예에 따라, 본 원리들이 적용될 수 있는 예로 든 비디오 디코더를 도시하는 블록도이다.
도 3은 본 원리들의 하나의 실시예에 따라, 비디오 인코더에서 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법의 예를 도시하는 흐름도이다.
도 4는 본 원리들의 하나의 실시예에 따라, 비디오 디코더에서 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법의 예를 도시하는 흐름도이다.
도 5는 본 원리들의 하나의 실시예에 따라, 비디오 인코더 및/또는 비디오 디코더에서 디-아티팩트 필터링을 위한 클래스-기반 필터 파라미터 선택 방법의 예를 도시하는 흐름도이다.
본 원리들은 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치에 관한 것이다.
본 설명은 본 원리들을 예시하고 있다. 그러므로, 본 기술분야의 숙련자들은, 여기에 명시적으로 기재되거나 도시되지 않더라도, 본 원리들을 실시하고 그 사상 및 범주 내에 포함되는 다양한 배열들을 고안할 수 있을 것이라는 것은 자명하다.
여기에 인용된 모든 예들 및 조건어들은 발명자(들)에 의해 본 기술분야를 심화시키는데 공헌된 본 원리들 및 개념들을 이해하는데 독자에게 도움을 주기 위해 교육적 목적으로 된 것이고, 그러한 구체적으로 인용된 예들 및 조건들에 대한 제한이 아닌 것으로 해석되어야 된다.
더구나, 여기에서 그 특정 예들뿐만 아니라, 본 원리들의 원리들, 양태들 및 실시예들을 인용하는 모든 언급들은 그 구조적 및 기능적 등가물들 양쪽 모두를 포함하려는 것이다. 추가적으로, 그러한 등가물들은 장래에 개발된 등가물들, 즉 구조에 관계없이 동일한 기능을 수행하는 개발된 임의의 구성요소들뿐만 아니라, 현재 주지된 등가물들 양쪽 모두를 포함하려는 것이다.
그러므로, 예를 들면, 본 기술분야의 숙련자들이라면, 여기에 프리젠팅된 블록도들은 본 원리들을 실시하는 예시적 회로의 개념적 뷰들을 표현하고 있다는 것을 잘 알고 있을 것이다. 유사하게, 임의의 플로우차트들, 흐름도들, 상태 변이도들, 의사코드, 등은 컴퓨터 판독가능한 매체로 실질적으로 표현되고, 컴퓨터 또는 프로세서가 명시적으로 도시되어 있는지 여부에 관계없이, 그러한 컴퓨터 또는 프로세서에 의해 실행될 수 있는 다양한 프로세스들을 나타낸다는 것은 자명하다할 것이다.
도면들에 도시된 다양한 구성요소들의 기능들은 적절한 소프트웨어와 연관된 소프트웨어를 실행할 수 있는 하드웨어뿐만 아니라 전용 하드웨어의 이용을 통해서도 제공될 수 있다. 프로세서에 의해 제공되는 경우에, 기능들은 단일 전용 프로세서에 의해, 단일 공유 프로세서에 의해, 또는 그 일부가 공유될 수 있는 복수의 개별적인 프로세서들에 의해 제공될 수 있다. 더구나, 용어 "프로세서"또는 "컨트롤러"의 명시적 이용은 소프트웨어를 실행할 수 있는 하드웨어를 독점적으로 지칭하는 것으로 해석되어서는 안 되고, 제한없이, 디지털 신호 프로세서("DSP") 하드웨어, 소프트웨어를 저장하기 위한 판독 전용 메모리("ROM"), 랜덤 액세스 메모리("RAM"), 및 비휘발성 스토리지를 내재적으로 포함할 수 있다.
종래 및/또는 관례적인 다른 하드웨어가 또한 포함될 수 있다. 유사하게, 도면들에 도시된 임의의 스위치들은 단지 개념적일 뿐이다. 그들의 기능은 프로그램 로직의 동작을 통해, 전용 로직을 통해, 프로그램 제어 및 전용 로직의 인터액션을 통해, 또는 심지어 수동으로 수행될 수 있고, 특정 기술은 컨텍스트로부터 더 구체적으로 이해되는 대로 구현자에 의해 선택할 수 있다.
그 청구항들에서, 지정된 기능을 수행하기 위한 수단으로서 표현되는 임의의 구성요소는 예를 들면, a) 그 기능을 수행하는 회로 구성요소들의 조합, 또는 b) 기능을 수행하도록 소프트웨어를 실행하기 위한 적절한 회로와 조합된 펌웨어, 마이크로코드, 등을 포함하는 임의의 형태로 된 소프트웨어를 포함하여 그 기능을 수행하는 임의의 방식을 포함하려는 것이다. 그러한 청구항들에 의해 정의되는 본 원리들은, 다양한 인용된 수단들에 의해 제공된 기능들이 청구항들이 요구하는 방식으로 조합되고 합쳐진다는 사실에 있다. 그러므로, 이들 기능들을 제공할 수 있는 임의의 수단은 여기에 도시된 것들과 등가인 것으로 간주된다.
명세서에서 본 원리들의 "하나의 실시예"또는 "실시예"뿐만 아니라 다른 변동들에 대한 참조는, 그 실시예와 관련하여 기재된 특정 특징, 구조, 특성 등이 본 원리들의 적어도 하나의 실시예에 포함된다는 것을 의미한다. 그러므로, 명세서 전체에 걸쳐 다양한 장소들에서 나타나는, 구문 "하나의 실시예에서"또는"실시예에서"뿐만 아니라 임의의 다른 변동들의 출현은 반드시 모두가 동일한 실시예를 지칭하는 것은 아니다.
이하 "/", "및/또는", 및 "적어도 하나"의 임의의 하나의 이용은, 예를 들면 "A/B", "A 및/또는 B", 및 "A 및 B 중 적어도 하나"의 경우에, 제1 리스트된 옵션 (A)만의 선택, 또는 제2 리스트된 옵션 (B)만의 선택, 또는 양쪽 옵션들 (A 및 B)의 선택을 포함하려 한다는 것은 자명하다. 하나의 추가 예로서, "A, B 및/또는 C"및 "A, B 및 C의 적어도 하나"의 경우들에서, 그러한 구문들은 제1 리스팅된 옵션 (A)만의 선택, 또는 제2 리스팅된 옵션 (B)만의 선택, 또는 제3 리스팅된 옵션 (C)만의 선택, 또는 제1 및 제2 리스팅된 옵션들 (A 및 B)만의 선택, 또는 제1 및 제3 리스팅된 옵션들 (A 및 C)만의 선택, 또는 제2 및 제3 리스팅된 옵션들 (B 및 C)만의 선택, 또는 모두 3가지 옵션들 (A 및 B 및 C)의 선택을 포함하려는 것이다. 이것은 본 기술분야 및 관련 기술분야들의 통상의 기술자들에게 자명한 바와 같이, 다수의 아이템들이 리스팅되는 대로 확장될 수 있다.
더구나, 본 원리들의 하나의 이상의 실시예들은 MPEG-4 AVC 표준에 대해 여기에 설명되어 있지만, 본 원리들은 이러한 표준으로만 제한되지 않고, 따라서 본 원리들의 사상을 유지하면서도 MPEG-4 AVC 표준의 확장들을 포함하는 다른 비디오 코딩 표준들, 추천들, 및 그 확장들과 관련하여 활용될 수도 있다는 것은 자명하다.
추가적으로, 본 원리들의 하나 이상의 실시예들은 스레시홀딩 파라미터에 대해 여기에 설명되어 있지만, 본 원리들은 본 원리들이 적용될 수 있는 필터 파라미터들에 대한 임계 파라미터들만으로 제한되지 않고, 따라서 본 원리들의 사상을 유지하면서도 본 및 관련 기술분야들에서 숙련자에 의해 용이하게 결정되는 임의의 다른 필터 파라미터들에 적용될 수 있다는 것은 자명하다.
또한, 여기에 이용된 바와 같이, 단어들 "픽쳐"및 "이미지"는 상호교환가능하게 이용되고, 정지 이미지 또는 비디오 시퀀스로부터의 하나의 픽쳐를 지칭한다. 주지된 바와 같이, 하나의 픽쳐는 하나의 프레임 또는 하나의 필드일 수 있다.
또한, 여기에 이용된 바와 같이, 단어 "신호"는 다른 것들 중에서, 대응하는 디코더에게 무언가를 나타내는 것을 지칭한다. 예를 들면, 인코더는 디-아티팩트 필터링에 대해 영역-기반 필터 파라미터 선택을 위한 복수의 파라미터들 중 특정 하나를 시그널링할 수 있다. 이와 같이, 동일한 파라미터는 인코더 측 및 디코더 측 양쪽에서 이용될 수 있다. 그러므로, 예를 들면, 인코더는 디코더가 동일한 특정 파라미터를 이용할 수 있도록 특정 파라미터를 디코더에 송신하거나, 디코더가 다른 것들뿐만 아니라 그 특정 파라미터를 이미 가지고 있는 경우에 시그널링은 단순히 디코더가 특정 파라미터를 알고 선택할 수 있게 하는데 이용될 수 있다(송신 없음). 임의의 실제 기능들의 송신을 회피함으로써, 비트 절감이 실현될 수 있다. 시그널링은 다양한 방식들로 달성될 수 있다는 것은 자명하다. 예를 들면, 하나 이상의 구문 요소들, 플래그들, 등은 정보를 대응하는 디코더에 시그널링하는데 이용될 수 있다. 상기는 단어 "신호"의 동사 형태와 관련되지만, 단어 "신호"는 명사로서 여기에 이용될 수도 있다.
추가적으로, 여기에 이용된 바와 같이, 구문 "하이 레벨 구문"은 계층적으로 매크로블록 레이어 위에 상주하는 비트스트림에 존재하는 구문을 지칭한다. 예를 들면, 하이 레벨 구문은, 여기에 이용된 바와 같이, 슬라이스 헤더 레벨, 부가적 인핸스먼트 정보(SEI) 레벨, 픽쳐 파라미터 세트(PPS) 레벨, 시퀀스 파라미터 세트(SPS) 레벨 및 네트워크 추상화 레이어(NAL) 유닛 헤더 레벨에서의 구문을 지칭하고 이들로 제한되지 않는다.
더구나, 여기에 이용된 바와 같이, 구문 "영역-기반 파라미터 선택"은 픽쳐 영역(이번에는, 픽쳐 영역의 특징들에 좌우될 수 있음)에 기초한 파라미터의 선택, 조정 및/또는 적응의 임의의 하나를 지칭한다.
또한, 여기에 이용된 바와 같이, 구문 "픽쳐 영역"(또는, 단순히 요약하여 "영역")은 예를 들면 하나 이상의 블록들 또는 임의의 크기의 임의의 형태들을 포함하거나 다르게는 이들로부터 포뮬레이팅되는 픽쳐의 일부를 지칭한다. 하나 이상의 블록들은 예를 들면 슈퍼 매크로블록, 매크로블록, 매크로블록 파티션, 서브-매크로블록 파티션, 등과 관련될 수 있다. 더구나, 블록 경계들로 제한되는 종래의 디-블록킹 필터과는 반대로, 본 원리들에 따른 픽쳐 영역은 블록 경계들뿐만 아니라 비-블록-경계를 포함할 수 있다. 즉, 일부 실시예들에서, 픽쳐 영역은 단지 비-블록-경계(즉, 임의의 블록 경계들을 배제함)만을 포함할 수 있다. 그러므로, 블록 경계들 이외의 영역들이 유리하게는 필터링되어, 그로부터 아티팩트들을 제거하거나 감소시킬 수 있다.
또한, 여기에 이용된 바와 같이, 구문 "영역 표시"는 본 원리들이 적용될 수 있는 픽쳐에서의 하나의 영역의 표시를 지칭한다. 예를 들면, 영역 표시는 본 원리들에 따라 영역-기반 필터 파라미터 선택이 적용될 수 있는 픽쳐의 특정 부분을 시그널링하거나 다르게는 식별하는데 이용될 수 있다.
도 1을 참조하면, 본 원리들에 따라 비디오 인코딩을 수행할 수 있는 비디오 인코더는 참조번호 100에 의해 일반적으로 표시되어 있다.
비디오 인코더(100)는 조합기(185)의 비-반전 입력과 신호 통신 상태인 출력을 가지는 프레임 순서화 버퍼(110)를 포함한다. 조합기(185)의 출력은 변환기 및 양자화기(125)의 제1 입력과 신호 통신 상태로 접속된다. 변환기 및 양자화기(125)의 출력은 엔트로피 코더(145)의 제1 입력, 및 역 변환기 및 역 양자화기(150)의 제1 입력과 신호 통신 상태로 접속된다. 엔트로피 코더(145)의 출력은 조합기(190)의 제1 비-반전 입력과 신호 통신 상태로 접속된다. 조합기(190)의 출력은 출력 버퍼(135)의 제1 입력과 신호 통신 상태로 접속된다.
인코더 컨트롤러(105)의 제1 출력은 프레임 순서화 버퍼(110)의 제2 입력, 역 변환기 및 역 양자화기(150)의 제2 입력, 픽쳐-타입 결정 모듈(115)의 입력, 매크로블록-타입(MB-타입) 결정 모듈(120)의 제1 입력, 인트라 예측 모듈(160)의 제2 입력, 디-아티팩팅 필터(165)의 제2 입력, 모션 보상기(170)의 제1 입력, 모션 추정기(175)의 제1 입력, 및 레퍼런스 픽쳐 버퍼(180)의 제2 입력과 신호 통신 상태로 접속된다.
인코더 컨트롤러(105)의 제2 출력은 부가적 인핸스먼트 정보(SEI) 삽입기(130)의 제1 입력, 변환기 및 양자화기(125)의 제2 입력, 엔트로피 코더(145)의 제2 입력, 출력 버퍼(135)의 제2 입력, 및 시퀀스 파라미터 세트(SPS) 및 픽쳐 파라미터 세트(PPS) 삽입기(140)의 입력과 신호 통신 상태로 접속된다.
SEI 삽입기(130)의 출력은 조합기(190)의 제2 비-반전 입력과 신호 통신 상태로 접속된다.
픽쳐-타입 결정 모듈(115)의 제1 출력은 프레임 순서화 버퍼(110)의 제3 입력과 신호 통신 상태로 접속된다. 픽쳐-타입 결정 모듈(115)의 제2 출력은 매크로블록-타입 결정 모듈(120)의 제2 입력과 신호 통신 상태로 접속된다.
시퀀스 파라미터 세트(SPS) 및 픽쳐 파라미터 세트(PPS) 삽입기(140)의 출력은 조합기(190)의 제3 비-반전 입력과 신호 통신 상태로 접속된다.
역 양자화기 및 역 변환기(150)의 출력은 조합기(119)의 제1 비-반전 입력과 신호 통신 상태로 접속된다. 조합기(119)의 출력은 인트라 예측 모듈(160)의 제1 입력, 및 디-아이팩팅 필터(165)의 제1 입력과 신호 통신 상태로 접속된다. 디-아티팩팅 필터(165)의 출력은 레퍼런스 픽쳐 버퍼(180)의 제1 입력과 신호 통신 상태로 접속된다. 레퍼런스 픽쳐 버퍼(180)의 출력은 모션 추정기(175)의 제2 입력, 및 모션 보상기(170)의 제3 입력과 신호 통신 상태로 접속된다. 모션 추정기(175)의 제1 출력은 모션 보상기(170)의 제2 입력과 신호 통신 상태로 접속된다. 모션 추정기(175)의 제2 출력은 엔트로피 코더(145)의 제3 입력과 신호 통신 상태로 접속된다.
모션 보상기(170)의 출력은 스위치(197)의 제1 입력과 신호 통신 상태로 접속된다. 인트라 예측 모듈(160)의 출력은 스위치(197)의 제2 입력과 신호 통신 상태로 접속된다. 매크로블록-타입 결정 모듈(120)의 출력은 스위치(197)의 제3 입력과 신호 통신 상태로 접속된다. 스위치(197)의 제3 입력은 스위치의 "데이터"입력(제어 입력, 즉 제3 입력과 비교됨)이 모션 보상기(170) 또는 인트라 예측 모듈(160)에 의해 제공되어야 되는지 여부를 결정한다. 스위치(197)의 출력은 조합기(119)의 제2 비-반전 입력 및 조합기(185)의 반전 입력과 신호 통신 상태로 접속된다.
프레임 순서화 버퍼(110)의 제1 입력, 및 인코더 컨트롤러(105)의 입력은 입력 픽쳐를 수신하기 위한, 인코더(100)의 입력들로서 가용하다. 더구나, 부가적 인핸스먼트 정보(SEI) 삽입기(130)의 제2 입력은 메타데이터를 수신하기 위한, 인코더(100)의 입력으로서 가용하다. 출력 버퍼(135)의 출력은 비트스트림을 출력하기 위한, 인코더(100)의 출력으로서 가용하다.
도 2를 참조하면, 본 원리들에 따라 비디오 디코딩을 수행할 수 있는 비디오 디코더는 참조번호 200에 의해 일반적으로 표시된다.
비디오 디코더(200)는 엔트로피 디코더(245)의 제1 입력과 신호 통신 상태로 접속된 출력을 가지는 입력 버퍼(210)를 포함한다. 엔트로피 디코더(245)의 제1 출력은 역 변환기 및 역 양자화기(250)의 제1 입력과 신호 통신 상태로 접속된다. 역 변환기 및 역 양자화기(250)의 출력은 조합기(225)의 제2 비-반전 입력과 신호 통신 상태로 접속된다. 조합기(225)의 출력은 디-아티팩팅 필터(265)의 제2 입력 및 인트라 예측 모듈(260)의 제1 입력과 신호 통신 상태로 접속된다. 디-아티팩팅 필터(265)의 제2 출력은 레퍼런스 픽쳐 버퍼(280)의 제1 입력과 신호 통신 상태로 접속된다. 레퍼런스 픽쳐 버퍼(280)의 출력은 모션 보상기(270)의 제2 입력과 신호 통신 상태로 접속된다.
엔트로피 디코더(245)의 제2 출력은 모션 보상기(270)의 제3 입력, 디-아티팩팅 필터(265)의 제1 입력, 및 인트라 예측기(260)의 제3 입력과 신호 통신 상태로 접속된다. 엔트로피 디코더(245)의 제3 출력은 디코더 컨트롤러(205)의 입력과 신호 통신 상태로 접속된다. 디코더 컨트롤러(205)의 제1 출력은 엔트로피 디코더(245)의 제2 입력과 신호 통신 상태로 접속된다. 디코더 컨트롤러(205)의 제2 출력은 역 변환기 및 역 양자화기(250)의 제2 입력과 신호 통신 상태로 접속된다. 디코더 컨트롤러(205)의 제3 출력은 디-아티팩팅 필터(265)의 제3 입력과 신호 통신 상태로 접속된다. 디코더 컨트롤러(205)의 제4 출력은 인트라 예측 모듈(260)의 제2 입력, 모션 보상기(270)의 제1 입력, 및 레퍼런스 픽쳐 버퍼(280)의 제2 입력과 신호 통신 상태로 접속된다.
모션 보상기(270)의 출력은 스위치(297)의 제1 입력과 신호 통신 상태로 접속된다. 인트라 예측 모듈(260)의 출력은 스위치(297)의 제2 입력과 신호 통신 상태로 접속된다. 스위치(297)의 출력은 조합기(225)의 제1 비-반전 입력과 신호 통신 상태로 접속된다.
입력 버퍼(210)의 입력은 입력 비트스트림을 수신하기 위한, 디코더(200)의 입력으로서 가용하다. 디-아티팩팅 필터(265)의 제1 출력은 출력 픽쳐를 출력하기 위한, 디코더(200)의 출력으로서 가용하다.
상기 언급된 바와 같이, 본 원리들은 디-아티팩팅 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들에 관한 것이다. 유리하게는, 본 원리들은 비디오 컨텐트에 기초하여 개선된 필터링 파라미터 조정(파라미터 선택 및 적응을 의미함)을 제공한다. 필터링 파라미터 조정은 스파시티-기반 디-아티팩팅 필터에 중요하다. 하나의 실시예에서, 영역-기반 파라미터 선택 접근법을 이용하고, 이는 종래 기술의 스파시티-기반 디-아티팩팅 필터와 비교할 때 코딩 효율을 증가시킨다.
특정 실시예에서, 비디오 압축에서 블록-기반 필터 파라미터 조정을 이용하여 스파시티-기반 디-아티팩팅 필터 성능을 개선한다. 더 구체적으로는, 필터 파라미터들을 양자화 파라미터(QP) 및 코딩 정보뿐만 아니라 비디오 시퀀스들의 영역들에도 기초하여 적응시킬 것이다. 원리는 파라미터들을 컨텐트 자체에 더 근접하게 적응시키는 것이다. 하나의 예로서 MPEG-4 AVC 표준 및 스레시홀딩 파라미터를 이용하여 본 원리들의 하나의 예로 든 구현을 설명할 것이다. 그러나, 상기 언급된 바와 같이, 본 원리들은 임의의 특정 비디오 코딩 표준들 및/또는 추천들로 제한되지 않고 따라서 본 원리들의 사상을 유지하면서도 임의의 다른 비디오 코딩 표준 및/또는 추천 및/또는 그 확장에도 적용될 수 있다는 것은 자명하다. 더구나, 본 원리들은 영역-기반 필터 파라미터 선택에 대해 스레시홀딩 파라미터의 이용으로만 제한되지 않고, 따라서 다른 필터 파라미터들은 본 원리들의 사상을 유지하면서도 본 원리들에 따라 활용될 수도 있다는 점은 자명하다.
하나의 예에서, 영역은 블록이고, 64x64, 128x128, 256x256, 512x512, 등을 포함하고 이들로 제한되지 않는 가변 블록 크기를 가질 수 있다. 블록 크기는 예를 들면 하이 레벨 구문 요소를 이용하여 시그널링될 수 있다. 그러한 하이 레벨 구문 요소는 예를 들면 각 슬라이스에 대한 슬라이스 헤더 내에 상주할 수 있고, 이것으로 제한되지 않는다. 물론, 본 원리들은 블록들만으로 제한되지 않고, 따라서 본 원리들의 사상을 유지하면서도 다른 픽쳐 파티션 크기들 및 형태들이 이용될 수 있다는 것은 자명하다.
하나의 실시예에서, 각 블록에 대해, 각 클래스에 대한 필터 파라미터는 이러한 블록에 대한 스파시티-기반 디-아티팩팅 필터링에 이용되는 파라미터를 나타내도록 시그널링된다. 파라미터는 예를 들면 하이 레벨 구문 요소를 이용하여 시그널링될 수 있다. 그러한 하이 레벨 구문 요소는 슬라이스 헤더 또는 블록 레벨에 상주할 수 있고, 이들로 제한되지 않는다. 하나의 실시예에서, 파라미터를 시그널링하기 위한 오버헤드를 줄이기 위해, 수 개의 방법들이 적용될 수 있다.
하나의 실시예에서, 양자화 파라미터(QP) 및 코딩 정보에 기초하는, 각 클래스에 대한 고유 파라미터 테이블이 인코더 및 디코더 양쪽에 저장된다. 각 블록에 대해, 단지 스케일링 인자를 시그널링한다.
다르게는, 하나의 실시예에서, 파라미터는 현재 블록의 통계들에 기초하여 적응된다. 통계들은 예를 들면 디-아티팩팅 필터링 이전의 로컬 분산(시그널링될 필요는 없음), 및/또는 노이즈의 분산(시그널링되어야 됨)일 수 있다.
또 하나의 실시예에서, 각 클래스에 대한 파라미터들의 세트는 인코더 및 디코더 양쪽에 저장된다. 각 블록에 대해, 단지 각 클래스에 대한 인덱스를 시그널링한다.
또 하나의 실시예에서, 플래그는 파라미터 적응이 적용되는지 여부를 나타내는데 이용된다.
상기 방법들 및 변동들은 본 원리들의 사상을 유지하면서도 휘도 및/또는 색차에 적용될 수 있다는 것은 자명하다.
표 1은 본 원리들의 하나의 예에 따른 슬라이스 헤더 구문을 예시하고 있다.
표 1의 구문 요소들의 적어도 일부에 대한 의미는 이하와 같다.
block_adaptive_flag가 1과 같다는 것은 블록-기반 파라미터 적응이 슬라이스에 이용된다는 것을 지정한다. block_adaptive_flag가 0과 같다는 것은 블록-기반 파라미터 적응이 슬라이스에 이용되지 않는다는 것을 지정한다.
block_size_idx는 블록의 크기를 지정한다.
parameter_adaptive_flag[i]가 1과 같다는 것은 파라미터 적응이 블록 i에 이용된다는 것을 지정한다. parameter_adaptive_flag[i]가 0과 같다는 것은 파라미터 적응이 블록 i에 이용되지 않는다는 것을 지정한다.
parameter_idx[i][j]는 블록 i 및 클래스 j에 대한 파라미터 인덱스를 지정한다.
도 3을 참조하면, 비디오 인코더에서 디-아티팩팅 필터링을 위한 영역-기반 필터 파라미터 선택 방법의 예는 참조번호 300에 의해 일반적으로 표시된다. 방법(300)은 제어를 기능 블록(308)으로 패싱하는 시작 블록(305)을 포함한다. 기능 블록(308)은 필터 파라미터 세트를 생성하고(예를 들면 저장된 파라미터 테이블로부터 필터 파라미터 세트를 획득하는 것을 포함하고 이것으로 제한되지 않음), 제어를 루프 제한 블록(310)에 패싱한다. 루프 제한 블록(310)은 각 블록 크기(예를 들면 64x64, 128x128, 등이지만 이들로 제한되지 않음)에 걸쳐 루프를 시작하고 제어를 루프 제한 블록(315)에게 패싱한다. 루프 제한 블록(315)은 각 블록(루프 제한 블록(310)에 따른 지정된 블록 크기를 가짐)에 걸쳐 루프를 시작하고, 제어를 루프 제한 블록(320)에게 패싱한다. 루프 제한 블록(320)은 필터 파라미터 세트에 걸쳐 루프를 시작하고, 제어를 기능 블록(325)에 패싱한다. 기능 블록(325)은 디-아티팩트 필터링을 수행하고, 제어를 루프 제한 블록(330)에게 패싱한다. 루프 제한 블록(330)은 필터 파라미터 세트에 걸쳐 루프를 종료시키고, 제어를 기능 블록(335)에 패싱한다. 기능 블록(335)은 최상의 필터 파라미터들을 설정하고(이것에 적응시키고), 제어를 루프 제한 블록(340)에 패싱한다. 루프 제한 블록(340)은 각 블록(지정된 크기를 가짐)에 걸쳐 루프를 종료하고, 제어를 루프 제한 블록(345)에 패싱한다. 루프 제한 블록(345)은 각 블록 크기에 걸쳐 루프를 종료하고, 제어를 기능 블록(350)에 패싱한다. 기능 블록(350)은 최상 블록 크기를 설정하고, 제어를 기능 블록(355)에 패싱한다. 기능 블록(355)은 블록 크기를 인코딩하고, 제어를 기능 블록(360)에 패싱한다. 기능 블록(360)은 각 블록에 대한 필터 파라미터들을 인코딩하고, 제어를 종료 블록(399)에 패싱한다.
도 4를 참조하면, 비디오 디코더에서 디-아티팩트 필터링을 위한 영역 기반 필터 파라미터 선택 방법의 예는 참조번호 400에 의해 일반적으로 표시된다. 방법(400)은 제어를 기능 블록(408)에 패싱하는 시작 블록(405)을 포함한다. 기능 블록(408)은 필터 파라미터 세트를 생성하고(예를 들면 저장된 파라미터 테이블로부터 필터 파라미터 세트를 획득하는 것을 포함하고 이것으로 제한되지 않음), 제어를 기능 블록(410)에게 패싱한다. 기능 블록(410)은 블록 크기를 파싱하고, 제어를 기능 블록(415)에 패싱한다. 기능 블록(415)은 각 블록에 대한 필터 파라미터를 파싱하고, 제어를 루프 제한 블록(420)에 패싱한다. 루프 제한 블록(420)은 각 블록(루프 제한 블록(410)에 따른 지정된 블록 크기를 가짐)에 걸쳐 루프를 시작하고, 제어를 기능 블록(425)에 패싱한다. 기능 블록(425)은 필터 파라미터들을 설정하고, 제어를 기능 블록(430)에 패싱한다. 기능 블록(430)은 디-아티팩트 필터링을 수행하고, 제어를 루프 제한 블록(435)에 패싱한다. 루프 제한 블록(435)은 각 블록(지정된 크기를 가짐)에 걸쳐 루프를 종료하고, 제어를 종료 블록(499)에 패싱한다.
도 5를 참조하면, 비디오 인코더 및/또는 비디오 디코더에서 디-아티팩트 필터링을 위한 클래스-기반 필터 파라미터 선택 방법의 예는 참조번호 500에 의해 일반적으로 표시된다. 본 및 관련 기술분야의 통상의 기술자에게 명백한 바와 같이, 방법(500)과 관련하여 설명된 파라미터들은 클래스-기반으로 설명되어 있지만, 또한 영역-기반일 수 있다는 것도 자명하다. 방법(500)은 제어를 기능 블록(510)으로 패싱하는 시작 블록(505)을 포함한다. 기능 블록(510)은 클래스들에 기초하여 영역-기반 필터 파라미터 선택에 대한 파라미터들을 인덱싱하여 클래스-기반 파라미터 세트들을 획득하고, 제어를 기능 블록(515)으로 패싱한다. 기능 블록(515)은 각 클래스에 대한 각각의 클래스-기반 파라미터 세트를 저장하고, 제어를 기능 블록(520)에게 패싱한다. 기능 블록(520)은 인덱스에 의해, 각 영역에 대한 파라미터를 시그널링하고, 제어를 종료 블록(599)에 패싱한다. 본 및 관련 기술분야들에서 통상의 기술자들에게 자명한 바와 같이, 기능 블록(520)은 인코더에서 구현되는 경우에 시그널링(인덱스에 의해 각 영역에 대한 파라미터를 시그널링하는 때와 같음)을 수행하고, 수신(인덱스에 의해 각 영역에 대한 파라미터를 수신하는 때와 같음)을 수행한다.
이제, 그 일부가 상기 언급된 본 발명의 다수의 부수적인 장점들/특징들에 대한 설명이 제공될 것이다. 예를 들면, 하나의 장점/특징은 픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 인코딩하기 위한 인코더를 구비하는 장치이다. 인코더는 영역-기반 필터 파라미터 선택을 이용하여 그 영역에 대한 디-아티팩트 필터링을 수행하기 위한 디-아티팩트 필터를 포함한다. 그 영역은 비-블록-경계, 블록 경계, 및 그 조합 중 임의의 하나를 포함하고, 비-블록-경계는 임의의 블록 경계들을 배제한다.
또 하나의 장점/특징은 상기 설명된 바와 같은 인코더를 구비하는 장치이고, 영역-기반 필터 파라미터 선택은 상기 영역과 관련된 적어도 양자화 노이즈 및 코딩 정보에 기초한 영역-기반 필터 파라미터 적응과 조합된다.
또 다른 하나의 장점/특징은 상기 설명된 바와 같은 인코더를 구비하는 장치이고, 영역 표시 및 필터 파라미터 중 적어도 하나는 하이 레벨 구문 요소 및 블록 레벨 구문 요소 중 적어도 하나를 이용하여 시그널링된다.
또 다른 하나의 장점/특징은 상기 설명된 바와 같은 인코더를 구비하는 장치이고, 그 영역은 다양한 블록 크기들 및 형태들을 가질 수 있다.
더구나, 또 하나의 장점/특징은 상기 설명된 바와 같은 인코더를 구비하는 장치이고, 그 픽쳐 데이터는 픽쳐의 복수의 영역들에 대해 인코딩된다. 인코더는 고유 파라미터 테이블을 저장하고, 고유 파라미터 테이블로부터의 파라미터를 복수의 영역들 각각에 적응시키며, 파라미터를 스케일링 인자를 이용하여 시그널링한다.
더구나, 또 하나의 장점/특징은 상기 설명된 바와 같은 인코더를 구비하는 장치이고, 픽쳐 데이터는 픽쳐의 복수의 영역들에 대해 인코딩된다. 인코더는 컨텐트 통계들에 기초하여 복수의 영역들 각각에 파라미터를 적응시키고, 그 파라미터를 대응하는 디코더에 시그널링하는 것을 금지시킨다.
또한, 또 하나의 장점/특징은 상기 설명된 바와 같은 인코더를 구비하는 장치이고, 픽쳐 데이터는 픽쳐의 복수의 영역들에 대해 인코딩된다. 영역-기반 필터 파라미터 선택을 위한 복수의 파라미터들 각각은 복수의 클래스들에 기초하여 인덱싱되어, 복수의 클래스-기반 파라미터 세트들을 획득한다. 복수의 클래스-기반 파라미터 세트들의 각각의 하나는 복수의 클래스들 각각에 대해 저장된다. 복수의 영역들 각각에 대한 파라미터는 인덱스에 의해 시그널링된다.
본 원리들의 이들 및 다른 특징들 및 장점들은 본 사상들에 기초하여 관련 기술분야의 통상의 기술자에 의해 용이하게 확인될 수 있다. 본 원리들의 사상들은 하드웨어, 소프트웨어, 펌웨어, 특별 목적 프로세서들, 또는 그 조합들의 다양한 형태들로 구현될 수 있다는 것은 자명하다.
가장 바람직하게는, 본 원리들의 사상들은 하드웨어 및 소프트웨어의 조합으로 구현된다. 더구나, 소프트웨어는 프로그램 저장 유닛 상에 실체적으로 실시되는 어플리케이션 프로그램으로 구현될 수 있다. 어플리케이션 프로그램은 임의의 적합한 아키텍쳐를 포함하는 머신에 로딩되어 실행될 수 있다. 양호하게는, 머신은 하나 이상의 중앙 처리 유닛들("CPU"), 랜덤 액세스 메모리("RAM"), 및 입/출력("I/O") 인터페이스들과 같은 하드웨어를 구비하는 컴퓨터 플랫폼 상에 구현된다. 컴퓨터 플랫폼은 오퍼레이팅 시스템 및 마이크로명령 코드를 또한 포함할 수 있다. 여기에 기재된 다양한 프로세스들 및 기능들은 CPU에 의해 실행될 수 있는, 마이크로명령 코드의 일부, 또는 어플리케이션 프로그램의 일부, 또는 임의의 그 조합일 수 있다. 뿐만 아니라, 추가적인 데이터 저장 유닛 및 프린팅 유닛과 같은 다양한 다른 주변장치 유닛들이 컴퓨터 플랫폼에 접속될 수 있다.
첨부된 도면들에 도시된 구성하는 시스템 컴포넌트들 및 방법들의 일부는 양호하게는 소프트웨어로 구현되기 때문에, 시스템 컴포넌트들 또는 프로세스 기능 블록들 사이의 실제 접속은 본 원리들이 프로그래밍되는 방식에 따라 상이할 수 있다는 것도 추가적으로 자명하다. 본 사상들이 주어지는 경우, 본 관련 기술분야의 통상의 기술자라면 본 원리들의 이들 및 유사한 구현들 또는 구성들을 고안할 수 있을 것이다.
예시적 실시예들이 첨부된 도면들을 참조하여 여기에 기재되었지만, 본 원리들은 이들 정확한 실시예들로 제한되지 않고 본 기술분야의 통상의 기술자에 의해 본 원리들의 범주 및 사상에서 벗어나지 않고서도 다양한 변경들 및 변형들이 달성될 수 있다는 것은 자명하다. 모든 그러한 변경들 및 변형들은 첨부된 청구항들에 제시된 본 원리들의 범주 내에 포함된다고 할 것이다.

Claims (20)

  1. 비디오 인코딩 장치로서,
    픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 인코딩하기 위한 인코더
    를 포함하고,
    상기 인코더는, 상기 영역에 기초하여 적어도 하나의 영역-기반 필터 파라미터를 선택하고 상기 영역-기반 필터 파라미터를 이용하여 상기 영역에 대한 디-아티팩트 필터링(de-artifact filtering)을 수행하도록 구성되는 디-아티팩트 필터를 포함하고,
    상기 영역-기반 필터 파라미터는 상기 영역의 컨텐트에 기초하여 선택되고,
    상기 인코더는 상기 영역의 로컬 분산에 기초하여 디-아티팩트 필터링 이전에 상기 영역-기반 필터 파라미터를 적응시키고,
    상기 인코더는 상기 영역-기반 필터 파라미터가 로컬 분산에 기초하여 적응될 때 상기 로컬 분산을 시그널링하지 않는, 비디오 인코딩 장치.
  2. 제1항에 있어서, 상기 영역-기반 필터 파라미터는 상기 영역과 관련된 코딩 정보 및 양자화 노이즈에 기초하여 선택되는, 비디오 인코딩 장치.
  3. 제1항에 있어서, 상기 픽쳐 데이터는 상기 픽쳐의 복수의 영역들에 대해 인코딩되고, 상기 인코더는 고유 파라미터 테이블을 저장하고, 상기 고유 파라미터 테이블로부터의 파라미터를 상기 복수의 영역들 각각에 적응시키며, 상기 파라미터를 스케일링 인자를 이용하여 시그널링하는, 비디오 인코딩 장치.
  4. 삭제
  5. 제1항에 있어서, 상기 픽쳐 데이터는 상기 픽쳐의 복수의 영역들에 대해 인코딩되고,
    상기 인코더는 하나 이상의 픽셀 클래스들 각각에 대한 필터 파라미터들의 세트를 저장하도록 구성되고,
    상기 인코더는, 상기 복수의 영역들 각각에 대하여, 상기 하나 이상의 픽셀 클래스들 각각에 대한 상기 필터 파라미터들의 세트로부터 적어도 하나의 제1 영역-기반 필터 파라미터를 선택하도록 구성되고,
    상기 인코더는 상기 복수의 영역들 각각에 대하여 상기 선택된 제1 영역-기반 필터 파라미터의 인덱스를 시그널링하도록 구성되며,
    상기 인코더는 디-아티팩트 필터링에 상기 선택된 제1 영역-기반 필터 파라미터를 이용하도록 구성되는, 비디오 인코딩 장치.
  6. 비디오 인코딩 방법으로서,
    픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 인코딩하는 단계
    를 포함하고,
    상기 인코딩 단계는 상기 영역에 대한 적어도 하나의 영역-기반 필터 파라미터를 선택하고 상기 영역-기반 필터 파라미터를 이용하여 상기 영역에 대한 디-아티팩트 필터링을 수행하는 단계를 포함하고,
    상기 영역-기반 필터 파라미터는 상기 영역의 컨텐트에 기초하여 선택되고,
    상기 인코딩 단계는 상기 영역의 로컬 분산에 기초하여 디-아티팩트 필터링 이전에 상기 영역-기반 필터 파라미터를 적응시키고,
    상기 인코딩 단계는 상기 영역-기반 필터 파라미터가 로컬 분산에 기초하여 적응될 때 상기 로컬 분산을 시그널링하지 않는, 비디오 인코딩 방법.
  7. 제6항에 있어서, 상기 영역-기반 필터 파라미터는 상기 영역과 관련된 코딩 정보 및 양자화 노이즈에 기초하여 선택되는, 비디오 인코딩 방법.
  8. 제6항에 있어서, 상기 픽쳐 데이터는 상기 픽쳐의 복수의 영역들에 대해 인코딩되고, 상기 인코딩 단계는,
    고유 파라미터 테이블을 저장하는 단계;
    상기 고유 파라미터 테이블로부터의 파라미터를 상기 복수의 영역들 각각에 적응시키는 단계; 및
    상기 파라미터를 스케일링 인자를 이용하여 시그널링하는 단계
    를 포함하는, 비디오 인코딩 방법.
  9. 삭제
  10. 제6항에 있어서, 상기 픽쳐 데이터는 상기 픽쳐의 복수의 영역들에 대해 인코딩되고,
    하나 이상의 픽쳐 클래스들 각각에 대한 필터 파라미터들의 세트가 저장되고,
    상기 복수의 영역들 각각에 대하여, 상기 하나 이상의 픽셀 클래스들 각각에 대한 필터 파라미터들의 세트로부터 적어도 하나의 제1 영역-기반 필터 파라미터가 선택되고,
    상기 선택된 제1 영역-기반 필터 파라미터의 인덱스는 상기 복수의 영역들 각각에 대하여 시그널링되며,
    상기 선택된 제1 영역-기반 필터 파라미터는 디-아티팩트 필터링에 이용되는, 비디오 인코딩 방법.
  11. 비디오 디코딩 장치로서,
    픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 디코딩하기 위한 디코더
    를 포함하고,
    상기 디코더는 상기 영역에 대하여 선택된 적어도 하나의 영역-기반 필터 파라미터를 이용하여 상기 영역에 대한 디-아티팩트 필터링을 수행하기 위한 디-아티팩트 필터를 포함하며,
    상기 영역-기반 필터 파라미터는 상기 영역의 컨텐트에 기초하여 선택되고,
    상기 디코더는 상기 영역의 로컬 분산에 기초하여 디-아티팩트 필터링 이전에 상기 영역-기반 필터 파라미터를 적응시키고,
    상기 영역의 상기 로컬 분산은 비트스트림에서 시그널링되지 않는, 비디오 디코딩 장치.
  12. 제11항에 있어서, 상기 영역-기반 필터 파라미터는 상기 영역과 관련된 코딩 정보 및 양자화 노이즈에 기초하여 선택되는, 비디오 디코딩 장치.
  13. 제11항에 있어서, 상기 영역은 다양한 블록 크기들 및 형태들을 가질 수 있는, 비디오 디코딩 장치.
  14. 제11항에 있어서, 상기 픽쳐 데이터는 상기 픽쳐의 복수의 영역들에 대해 디코딩되고,
    상기 디코더는 하나 이상의 픽셀 클래스들 각각에 대한 필터 파라미터들의 세트를 저장하도록 구성되고,
    상기 디코더는, 상기 복수의 영역들 각각에 대하여, 상기 하나 이상의 픽셀 클래스들 각각에 대한 필터 파라미터들의 세트로부터 선택되는 적어도 하나의 제1 영역-기반 필터 파라미터에 대한 적어도 하나의 인덱스를 수신하도록 구성되고,
    상기 디코더는 디-아티팩트 필터링에 상기 선택된 제1 영역-기반 필터 파라미터를 이용하도록 구성되는, 비디오 디코딩 장치.
  15. 삭제
  16. 제11항에 있어서, 상기 픽쳐 데이터는 상기 픽쳐의 복수의 영역들에 대해 디코딩되고, 상기 영역-기반 필터 파라미터 선택을 위한 복수의 파라미터들 각각은 복수의 클래스들에 기초하여 인덱싱되어, 복수의 클래스-기반 파라미터 세트들을 획득하며, 상기 복수의 클래스-기반 파라미터 세트들의 각각의 하나는 상기 복수의 클래스들 각각에 대해 저장되고, 상기 디코더는 상기 복수의 영역들 각각에 대한 파라미터에 대한 인덱스를 수신하는, 비디오 디코딩 장치.
  17. 비디오 디코딩 방법으로서,
    픽쳐의 적어도 하나의 영역에 대한 픽쳐 데이터를 디코딩하는 단계
    를 포함하고,
    상기 디코딩 단계는 상기 영역에 대하여 선택된 적어도 하나의 영역-기반 필터 파라미터를 이용하여 상기 영역에 대한 디-아티팩트 필터링을 수행하는 단계를 포함하고,
    상기 영역-기반 필터 파라미터는 상기 영역의 컨텐트에 기초하여 선택되고,
    상기 영역-기반 필터 파라미터는 상기 영역의 로컬 분산에 기초하여 디-아티팩트 필터링 이전에 적응되고,
    상기 영역의 상기 로컬 분산은 비트스트림에서 시그널링되지 않는, 비디오 디코딩 방법.
  18. 제17항에 있어서, 상기 영역-기반 필터 파라미터는 상기 영역과 관련된 코딩 정보 및 양자화 노이즈에 기초하여 선택되는, 비디오 디코딩 방법.
  19. 제17항에 있어서, 상기 픽쳐 데이터는 상기 픽쳐의 복수의 영역들에 대해 디코딩되고, 상기 디코딩 단계는,
    스케일링 인자를 이용하여 상기 복수의 영역들 각각에 대한 파라미터의 표시를 수신하는 단계;
    상기 복수의 영역들 각각에 대한 파라미터를 포함하는 고유 파라미터 테이블을 저장하는 단계; 및
    상기 고유 파라미터 테이블로부터의 파라미터를 상기 복수의 영역들 각각에 적응시키는 단계
    를 포함하는, 비디오 디코딩 방법.
  20. 비디오 디코딩 방법으로서,
    픽쳐의 복수의 영역들에 대한 픽쳐 데이터를 디코딩하는 단계
    를 포함하고,
    상기 복수의 영역들 각각은 적어도 하나의 블록을 포함하고,
    상기 디코딩 단계는 상기 영역에 기초하여 선택된 적어도 하나의 제1 영역-기반 필터 파라미터를 이용하여 상기 영역에 대한 디-아티팩트 필터링을 수행하는 단계를 포함하고,
    상기 디코딩 단계는, 하나 이상의 픽셀 클래스들 각각에 대한 필터 파라미터들의 세트를 저장하는 단계, 및 상기 복수의 영역들 각각에 대하여 상기 하나 이상의 픽셀 클래스들 각각에 대한 필터 파라미터들의 세트로부터 선택된 적어도 하나의 영역-기반 필터 파라미터에 대한 인덱스를 수신하는 단계를 포함하고, 상기 선택된 영역-기반 필터 파라미터는 디-아티팩트 필터링에 이용되고,
    상기 영역-기반 필터 파라미터는 상기 영역의 로컬 분산에 기초하여 디-아티팩트 필터링 이전에 적응되고,
    상기 영역의 상기 로컬 분산은 비트스트림에서 시그널링되지 않는, 비디오 디코딩 방법.
KR1020117021308A 2009-03-12 2010-03-10 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들 KR101709358B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15957309P 2009-03-12 2009-03-12
US61/159,573 2009-03-12
PCT/US2010/000715 WO2010104570A1 (en) 2009-03-12 2010-03-10 Methods and apparatus for region-based filter parameter selection for de-artifact filtering

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020177004255A Division KR102003137B1 (ko) 2009-03-12 2010-03-10 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들

Publications (2)

Publication Number Publication Date
KR20110126693A KR20110126693A (ko) 2011-11-23
KR101709358B1 true KR101709358B1 (ko) 2017-02-22

Family

ID=42321017

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020117021308A KR101709358B1 (ko) 2009-03-12 2010-03-10 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들
KR1020177004255A KR102003137B1 (ko) 2009-03-12 2010-03-10 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020177004255A KR102003137B1 (ko) 2009-03-12 2010-03-10 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들

Country Status (7)

Country Link
US (1) US9294784B2 (ko)
EP (1) EP2406957A1 (ko)
JP (3) JP2012520607A (ko)
KR (2) KR101709358B1 (ko)
CN (3) CN106954072B (ko)
BR (1) BRPI1007869B1 (ko)
WO (1) WO2010104570A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089426A (ko) * 2018-01-22 2019-07-31 삼성전자주식회사 아티팩트 감소 필터를 이용한 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106067982A (zh) * 2010-06-07 2016-11-02 数码士有限公司 解码高分辨率图像的方法和装置
US20120008687A1 (en) * 2010-07-06 2012-01-12 Apple Inc. Video coding using vector quantized deblocking filters
US9628821B2 (en) 2010-10-01 2017-04-18 Apple Inc. Motion compensation using decoder-defined vector quantized interpolation filters
CN103096054B (zh) * 2011-11-04 2015-07-08 华为技术有限公司 一种视频图像滤波处理方法和装置
US20150365703A1 (en) * 2014-06-13 2015-12-17 Atul Puri System and method for highly content adaptive quality restoration filtering for video coding
EP3151559A1 (en) * 2015-09-29 2017-04-05 Thomson Licensing Method for coding and decoding a plurality of picture blocks and corresponding devices
JP7179023B2 (ja) 2017-05-31 2022-11-28 インターデジタル マディソン パテント ホールディングス, エスアーエス ピクチャの符号化および復号の方法およびデバイス

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008153856A1 (en) 2007-06-08 2008-12-18 Thomson Licensing Methods and apparatus for in-loop de-artifacting filtering based on multi-lattice sparsity-based filtering

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884342A (ja) * 1994-09-14 1996-03-26 Mitsubishi Electric Corp 映像信号復号化装置
US5771318A (en) * 1996-06-27 1998-06-23 Siemens Corporate Research, Inc. Adaptive edge-preserving smoothing filter
US7346224B2 (en) * 2003-11-07 2008-03-18 Mitsubishi Electric Research Laboratories, Inc. System and method for classifying pixels in images
EP1718081A1 (en) * 2004-02-19 2006-11-02 Olympus Corporation Imaging system and image processing program
US20060039624A1 (en) * 2004-08-20 2006-02-23 Hao-Song Kong System and method for fuzzy filtering images
KR20060020801A (ko) * 2004-09-01 2006-03-07 매그나칩 반도체 유한회사 적응적인 잡음 제거가 가능한 필터를 갖는 이미지센서 및이미지센서의 적응적인 잡음 제거 방법
JP2006148878A (ja) * 2004-10-14 2006-06-08 Mitsubishi Electric Research Laboratories Inc 画像中の画素を分類する方法
US8218634B2 (en) * 2005-01-13 2012-07-10 Ntt Docomo, Inc. Nonlinear, in-the-loop, denoising filter for quantization noise removal for hybrid video compression
US8208564B2 (en) * 2005-06-24 2012-06-26 Ntt Docomo, Inc. Method and apparatus for video encoding and decoding using adaptive interpolation
TWI272838B (en) * 2005-06-30 2007-02-01 Sony Taiwan Ltd Zebra pattern display apparatus
US8189934B2 (en) 2006-03-27 2012-05-29 Panasonic Corporation Image coding apparatus and image decoding apparatus
EP2047687B1 (en) 2006-08-02 2018-05-16 Thomson Licensing DTV Adaptive geometric partitioning for video encoding
JP5801032B2 (ja) * 2006-11-08 2015-10-28 トムソン ライセンシングThomson Licensing インループのアーチファクト除去フィルタリングのための方法および装置
WO2008075247A1 (en) * 2006-12-18 2008-06-26 Koninklijke Philips Electronics N.V. Image compression and decompression
KR101303667B1 (ko) * 2007-08-28 2013-09-04 삼성전자주식회사 의사 윤곽을 탐지 및 제거하는 방법 및 장치, 픽셀의 윤곽여부를 확인하는 방법 및 장치 그리고 심플리시티를계산하는 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008153856A1 (en) 2007-06-08 2008-12-18 Thomson Licensing Methods and apparatus for in-loop de-artifacting filtering based on multi-lattice sparsity-based filtering

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CAMILO C DOREA et al: "A direction-adaptive in-loop deartifacting filter video coding", Image Processing, 2009. ICIP 2008, 2008-10-12, pages 1624-1627.*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089426A (ko) * 2018-01-22 2019-07-31 삼성전자주식회사 아티팩트 감소 필터를 이용한 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
KR102520626B1 (ko) 2018-01-22 2023-04-11 삼성전자주식회사 아티팩트 감소 필터를 이용한 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치

Also Published As

Publication number Publication date
BRPI1007869A2 (pt) 2018-03-06
JP2018033181A (ja) 2018-03-01
CN106954072A (zh) 2017-07-14
US20120002722A1 (en) 2012-01-05
KR20110126693A (ko) 2011-11-23
CN106954071A (zh) 2017-07-14
KR102003137B1 (ko) 2019-07-23
CN106954071B (zh) 2020-05-19
JP6479548B2 (ja) 2019-03-06
JP2015146643A (ja) 2015-08-13
CN102349298A (zh) 2012-02-08
CN106954072B (zh) 2020-05-05
US9294784B2 (en) 2016-03-22
EP2406957A1 (en) 2012-01-18
JP2012520607A (ja) 2012-09-06
BRPI1007869B1 (pt) 2021-08-31
WO2010104570A1 (en) 2010-09-16
CN102349298B (zh) 2016-08-03
KR20170020939A (ko) 2017-02-24
JP6646029B2 (ja) 2020-02-14

Similar Documents

Publication Publication Date Title
US11102515B2 (en) In loop chroma deblocking filter
KR101566557B1 (ko) 예측 데이터 리파인먼트를 이용한 비디오 코딩 방법 및 장치
KR101709358B1 (ko) 디-아티팩트 필터링을 위한 영역-기반 필터 파라미터 선택 방법들 및 장치들
KR101680915B1 (ko) 비디오 인코딩 및 디코딩을 위한 희소성-기반 아티팩트 제거 필터링 방법 및 장치
KR101757947B1 (ko) 비디오 인코딩 및 디코딩에서의 크로마 성분에 대한 예측 픽셀의 적응성 필터링을 위한 방법 및 장치
US9020287B2 (en) Methods and apparatus for filter parameter determination and selection responsive to variable transforms in sparsity-based de-artifact filtering
US20100272191A1 (en) Methods and apparatus for de-artifact filtering using multi-lattice sparsity-based filtering
KR101907122B1 (ko) 영역 기반 필터에 대해서 협력적 분할 부호화하는 방법 및 장치
KR101687181B1 (ko) 비디오 인코더와 디코더를 위한 효율적인 적응형 필터링 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant