KR20150015497A - 3차원 비디오 코딩을 위한 뷰 간 필터 파라미터 재사용 - Google Patents

3차원 비디오 코딩을 위한 뷰 간 필터 파라미터 재사용 Download PDF

Info

Publication number
KR20150015497A
KR20150015497A KR1020147034035A KR20147034035A KR20150015497A KR 20150015497 A KR20150015497 A KR 20150015497A KR 1020147034035 A KR1020147034035 A KR 1020147034035A KR 20147034035 A KR20147034035 A KR 20147034035A KR 20150015497 A KR20150015497 A KR 20150015497A
Authority
KR
South Korea
Prior art keywords
view
sao
coding
video
dependent
Prior art date
Application number
KR1020147034035A
Other languages
English (en)
Other versions
KR101636269B1 (ko
Inventor
리동 수
이-젠 치우
지핀 뎅
웬하오 장
유 한
시아오시아 카이
홍 지앙
Original Assignee
인텔 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코포레이션 filed Critical 인텔 코포레이션
Publication of KR20150015497A publication Critical patent/KR20150015497A/ko
Application granted granted Critical
Publication of KR101636269B1 publication Critical patent/KR101636269B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

3차원(3D) 비디오 인코딩을 위한 코딩 종속 뷰에 대한 독립 뷰 또는 코딩된 종속 뷰의 필터 파라미터, 특히 SAO(Sample Adaptive Offset) 파라미터의 재사용에 관한 기법이 본 명세서에 설명된다.

Description

3차원 비디오 코딩을 위한 뷰 간 필터 파라미터 재사용{INTER-VIEW FILTER PARAMETERS RE-USE FOR THREE DIMENSIONAL VIDEO CODING}
비디오 코딩은 비디오(비디오 데이터)를 준비하는 프로세스이고, 여기서 비디오가 기록 및 재생을 위한 적절한 포맷 및 사양을 충족시키도록 인코딩된다. 비디오는 2차원(2D)에서 3차원(3D)으로 진화하였다. 그러나, 장치는 여전히 2D 인코더 및 디코더를 사용한다. 예를 들면, 종래의 2D 비디오 인코더 및 디코더와 하위 호환이 되도록 하기 위해, 독립 뷰(independent view) 또는 기본 뷰(base view)으로 지칭될 수 있는 3D 뷰 중 하나는 다른 뷰에 대한 참조없이 독립적으로 코딩될 수 있다. 종속 뷰 또는 보조 뷰로 지칭될 수 있는 다른 뷰는 동일한 뷰에서의 상관 관계뿐만 아니라 이웃한 뷰 및 관련된 깊이 맵 사이의 상관 관계를 이용함으로써 코딩될 수 있다.
스테레오 경우의 예에서, 카메라는 뷰의 서로 다른 포인트에서 동일한 장면을 동시에 캡처할 수 있으므로 멀티뷰 비디오는 상당량의 뷰 간 통계적 의존성을 포함한다. 이것은 시간적으로 이웃한 화상으로부터 예측될 뿐만 아니라 인접한 코딩된 뷰에서의 대응하는 화상으로부터 예측되는 시간적 예측 및 뷰 간 예측을 조합하는 데 이용될 수 있다. 따라서, 종속 뷰의 경우, 텍스처 및 깊이는 다른 코딩된 뷰의 화상 또는 동일한 뷰에서의 이전에 코딩된 화상으로부터 예측될 수 있다.
3D 비디오 코딩(3DVC)은 3D 디스플레이에 적용하기 위한 다양한 비디오 압축 표준 중 하나를 나타낸다. 3DVC는 ISO/IEC MPEG(Moving Picture Experts Group)에 의해 관리된다. 3DVC는 HEVC(High Efficient Video Coding) 표준에 기초할 수 있으며, HEVC는 최신 종래의 비디오 코딩 표준 중 하나이다. 3DVC는 또한 통상적인 H.264/AVC에 기초할 수 있다. 3DVC에서, MVD(Multi-view Video plus Depth) 개념은 제한된 수의 뷰 및 관련된 깊이 맵이 코딩되고 비트 스트림으로 다중화되는 3D 비디오 콘텐츠를 나타내는 데 사용된다. 각 뷰의 카메라 파라미터는 또한 뷰 합성을 위해 비트 스트림으로 패킹된다. 3차원 또는 3D 비디오 코딩 및 압축을 위해, 멀티뷰, 관련된 깊이 맵 및 카메라 파라미터는 다양한 3D 비디오 애플리케이션을 지원하기 위해 비트 스트림에서 코딩된다.
SAO(Sample Adaptive Offset)는 재구성된 화상의 품질을 향상시키기 위해 HEVC 표준으로 채택된 인루프 필터 기술이다. 필터 제어 플래그, SAO 타입, 오프셋 값 등을 포함하는 SAO 필터 파라미터는 인코더에 의해 결정된 후에 디코더로 전송된다. HEVC-3DVC는 독립적 뷰가 HEVC 인코더에 의해 코딩되는 차세대 3D 비디오 코딩 표준이다.
비디오 코딩 및 압축에서, 계산 자원과 같은 자원의 사용을 최소화하는 방법 및 프로세스를 제공하는 지속적인 도전 과제가 존재한다. 특히, 인코딩 및 디코딩을 위해 자원 효율적인 코딩 및 압축 방식을 제공하기 위한 지속적인 필요성이 존재한다. 이는 비디오 코딩 및 압축이 3D 비디오를 지원하도록 진화함에 따라 더욱 큰 목표가 된다.
도 1은 3차원 비디오를 위해 SAO(Sample Adaptive Offset) 재사용을 구현하기 위한 예시적인 시스템의 예시도이다.
도 2는 3차원 비디오를 위해 SAO(Sample Adaptive Offset) 재사용을 구현하기 위한 예시적인 비디오 인코더의 예시도이다.
도 3은 3차원 비디오를 위해 SAO(Sample Adaptive Offset) 재사용을 구현하기 위한 예시적인 비디오 디코더의 예시도이다.
도 4는 고효율 비디오 코딩에서 SAO(Sample Adaptive Offset) 타입 및 에지 타입을 예시한 테이블이다.
도 5는 SAO(Sample Adaptive Offset) 파라미터가 현재 프레임에서 현재 코딩 유닛을 인코딩하는데 재사용되는 가능한 참조 코딩 유닛에 대한 예시도이다.
도 6a 및 도 6b는 3차원 비디오 디코딩을 위해 SAO(Sample Adaptive Offset) 재사용을 위한 예시적인 프로세스의 흐름도이다.
도 7은 3차원 비디오를 위해 SAO(Sample Adaptive Offset) 재사용을 구현하는 예시적인 시스템의 예시도이다.
도 8은 모두가 본 발명의 적어도 일부 구현에 따라 배치되는 예시적인 장치의 예시도이다.
다음의 상세한 설명은 첨부된 도면을 참조하여 제공된다. 도면에서, 참조 번호의 가장 왼쪽의 숫자는 일반적으로 참조 번호가 처음 나타나는 도면을 식별한다. 서로 다른 도면에서 동일한 참조 번호의 사용은 유사하거나 동일한 항목을 나타낸다.
이 문서는 종속 뷰 코딩을 위해 HEVC(High Efficient Video Coding)에 의해 구현되는 것과 같은 3차원(3D) 비디오 코딩(3DVC)에 대한 SAO(Sample Adaptive Offset) 필터를 구현하기 위한 하나 이상의 시스템, 장치, 방법 등을 개시하고, 다른 종속 뷰를 인코딩하기 위해 독립 뷰 또는 코딩된 종속 뷰의 SAO 필터 파라미터를 직접 재사용하거나 다른 종속 뷰를 인코딩하기 위해 독립 뷰 또는 코딩된 종속 뷰의 SAO 필터 파라미터의 부분만을 재사용한다.
도 1은 설명된 다양한 실시예를 구현하는데 이용될 수 있는 예시적인 시스템/컴퓨팅 장치(100)를 도시한다. 그러나, 본 명세서에서 개시된 기술은 다른 컴퓨팅 장치, 시스템 및 환경에서 구현될 수 있다는 것이 쉽게 이해될 것이다. 도 1에 도시된 컴퓨팅 장치(100)는 컴퓨팅 장치의 일례이며, 컴퓨터 및 네트워크 아키텍처의 사용 또는 기능의 범위에 관해 어떤 제한을 제시하도록 의도된 것은 아니다.
적어도 하나의 구현에서, 컴퓨팅 장치(100)는 적어도 하나의 처리 유닛(102) 및 시스템 메모리(104)를 포함한다. 컴퓨팅 장치의 정확한 구성 및 타입에 따라, 시스템 메모리(104)는 (RAM과 같은) 휘발성, (ROM, 플래시 메모리 등과 같은) 비휘발성 또는 이의 어떤 조합일 수 있다. 시스템 메모리(104)는 특정 구현에서 본 명세서에 설명된 알고리즘 방법 및 기술을 구현할 수 있는 운영 체제(106), 하나 이상의 프로그램 모듈(108)을 포함할 수 있다. 시스템 메모리(104)는 본 문서에서 후술되는 바와 같이 매크로 블록/형상 데이터베이스를 포함할 수 있는 프로그램 데이터(110)를 더 포함할 수 있다. 더욱이, 인코더(112)는 본 예에 포함된다. 인코더(112)는 본 명세서에서 설명된 3D 비디오 코딩 또는 3DVC를 구현하는 데 사용될 수 있다. 인코더(112)는 처리 유닛(102), 시스템 메모리(104), 및 본 명세서에서 설명된 다른 메모리 입/출력 장치, 및 도시되지 않은 다른 컴포넌트/장치에 동작 가능하게 결합되고, 이들과 통신할 수 있다.
본 예에서, 인코더(112)는 SAO(Sample Adaptive Offset) 필터(114)를 포함한다. 더 논의되는 바와 같이, SAO 필터(114)는 3DVC 종속 뷰 코딩을 하고, 다른 종속 뷰를 인코딩하기 위해 독립 뷰 또는 코딩된 종속 뷰의 SAO 필터 파라미터를 직접 재사용하기 위해 사용될 수 있다. 어떤 경우에, SAO 필터(114)는 다른 종속 뷰를 인코딩하기 위해 독립 뷰 또는 코딩된 종속 뷰의 SAO 필터 파라미터의 부분만의 재사용을 위해 사용된다. 더욱이, 장치(100)는 디코더(116)를 포함할 수 있다. 인코더(112) 및 디코더(116)의 둘 다의 예시적인 기능은 아래에 더 설명된다.
컴퓨팅 장치(100)의 기본 구현은 점선(118)에 의해 경계가 표시된다. 예를 들면, 특정 구현에서, 인코더(112) 및/또는 디코더(116)는 비디오, 특히 비디오 디코딩/인코딩을 포함하는 미디어 기능을 갖는 3D 및 미디어를 포함하는 중앙 처리 유닛(CPU)의 통합된 그래픽 칩셋의 부분일 수 있다. 특정 구현에서, ASIC(application specific integrated circuit)는 고정된 기능 인코더/디코더로서의 인코더(112) 및/또는 디코더(116)를 포함할 수 있다.
비디오 인코딩을 가진 장치는 설명된 기술, 방법 및 장치를 이용할 수 있다는 것이 고려된다. 이러한 장치의 예는 미디어 플레이어, 비디오 회의 장치 등을 포함한다.
특정 구현에서, 프로그램 모듈(108)은 본 명세서에 설명된 비디오 인코딩 기술 및 방법을 구현하도록 구성된 코덱 또는 소프트웨어/펌웨어 기반 인코더와 같은 (도시되지 않은) 특정 모듈을 포함할 수 있다. 예를 들면, 특정 구현에서의 이러한 모듈은 인코더(112)의 프로세스를 수행할 수 있다. 예시적인 코덱은 AVC, VC1 및 SVC를 포함한다.
컴퓨팅 장치(100)는 추가적인 특징 또는 기능을 가질 수 있다. 예를 들면, 컴퓨팅 장치(100)는 또한 이동식 저장 장치(120) 및 비이동식 저장 장치(122)와 같은 추가적인 데이터 저장 장치를 포함할 수 있다. 특정 구현에서, 이동식 저장 장치(120) 및 비이동식 저장 장치(122)는 상술한 다양한 기능을 수행하기 위해 처리 유닛(102)에 의해 실행할 수 있는 명령어를 저장하기 위한 컴퓨터 액세스 가능한 매체의 일례이다. 일반적으로, 도면을 참조하여 설명된 기능 중 하나는 소프트웨어, 하드웨어(예를 들어, 고정된 논리 회로) 또는 이러한 구현의 조합을 이용하여 구현될 수 있다. 프로그램 코드는 하나 이상의 컴퓨터 액세스 가능한 매체 또는 다른 컴퓨터 판독 가능한 저장 장치에 저장될 수 있다. 따라서, 본 명세서에서 설명된 프로세스 및 컴포넌트는 컴퓨터 프로그램 제품에 의해 구현될 수 있다. 상술한 바와 같이, 컴퓨터 액세스 가능한 매체는 컴퓨터 판독 가능한 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 이동식 및 비이동식 매체를 포함한다. 용어 "컴퓨터 액세스 가능한 매체"는 비일시적(non-transitory) 저장 장치를 나타내며, RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크(DVD) 또는 다른 광 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 컴퓨팅 장치, 예를 들어 컴퓨팅 장치(100)에 의해 액세스하기 위한 정보를 저장하는 데 사용될 수 있는 임의의 다른 비일시적 매체를 포함하지만, 이에 제한되지 않는다. 이러한 컴퓨터 액세스 가능한 매체의 하나는 컴퓨팅 장치(100)의 일부일 수 있다.
일 구현에서, 컴퓨터 액세스 가능한 매체인 이동식 저장 장치(120)는 저장된 명령어의 세트를 갖는다. 처리 유닛(102)에 의해 실행될 때, 명령어의 세트는 처리 유닛(102)이 본 명세서에 설명된 바와 같이 동작, 태스크, 기능 및/또는 방법, 및 이들의 임의의 변형을 실행하도록 한다.
컴퓨팅 장치(100)는 또한 키보드, 마우스, 펜, 음성 입력 장치, 터치 입력 장치 등과 같은 하나 이상의 입력 장치(124)를 포함할 수 있다. 컴퓨팅 장치(100)는 추가적으로 디스플레이, 스피커, 프린터 등과 같은 하나 이상의 출력 장치(126)를 포함할 수 있다.
컴퓨팅 장치(100)는 또한 컴퓨팅 장치(100)가 (도시되지 않은) 하나 이상의 다른 장치와 유선 또는 무선으로 통신하도록 하는 하나 이상의 통신 접속부(128)를 포함할 수 있다. 예시된 컴퓨팅 장치(100)는 적절한 장치의 일례이며, 설명된 다양한 실시예의 사용 또는 기능의 범위에 관해 어떠한 제한을 제시하도록 의도되지 않는 것으로 이해된다.
도 2는 종속 뷰 코딩을 위해 3DVC에 대한 SAO 필터(114)를 구현하며, 다른 종속 뷰를 인코딩하기 위해 독립 뷰 또는 코딩된 종속 뷰의 SAO 필터 파라미터를 직접 재사용하거나, 다른 종속 뷰를 인코딩하기 위해 독립 뷰 또는 코딩된 종속 뷰의 SAO 필터 파라미터의 부분만을 재사용하는 예시적인 비디오 인코더(112)를 도시한다. 특정 구현에서, 비디오 인코더(112)는 중앙 처리 유닛의 일부, 집적 회로 칩셋의 일부 또는 별도의 컴포넌트/장치로서 구현될 수 있다. 상술한 바와 같이, 특정 구현에서, 비디오 인코더(112)는 코덱과 같은 펌웨어 또는 소프트웨어로 구현될 수 있다. 더욱이, 도 2는 단지 예시적이고, 추가적인 블록 또는 컴포넌트 및/또는 블록 또는 컴포넌트의 서로 다른 배치를 포함할 수 있다.
논의된 바와 같이, 3DVC 시스템에서 독립 뷰 및 종속 뷰로 알려져 있거나 지정된 멀티뷰가 있다. 독립 뷰는 예를 들어 HEVC 표준 인코더(예를 들어, 인코더(112))를 이용하여 기본 뷰로서 코딩된다. 종속 뷰는 동일한 뷰에서 시간적 및 공간적 상관 관계를 이용할 뿐만 아니라, 이웃한 뷰 사이의 뷰 간 상관 관계를 이용하여 코딩될 수 있다. 종속 뷰를 코딩하기 위한 뷰 간 코딩 툴은 움직임 보상 예측(MCP)에 대한 대안으로 추가되는 변이 보상 예측(DCP)이다. MCP는 동일한 뷰의 기존의 코딩된 화상을 이용하는 화상 간 예측을 나타낼 수 있지만, DCP는 다른 뷰의 기존의 코딩된 화상을 이용하는 화상 간 예측을 나타낼 수 있다.
구현예에서, 비디오 인코더(112)는 3DVC 비트 스트림(202)의 형태로 대응하는 인코딩된 프레임을 생성하도록 인코딩되는 이미지 프레임을 포함하는 비인코딩 및/또는 비압축된 비디오를 수신한다. 본 구현에서, 비디오 인코더(112)의 하나 이상의 컴포넌트 또는 블록은 본 명세서에서 설명된 하나 이상의 표준 및 프로세스 및 기술과 일치하는 3DVC 인코딩을 수행하도록 구성될 수 있다.
예를 들면, 비디오 인코더(112)는 다음과 같은 컴포넌트 중 하나 이상을 포함한다. 다른 컴포넌트가 포함될 수 있고, 컴포넌트가 조합될 수 있다는 것(즉, 조합된 컴포넌트의 기능)이 이해되어야 한다. 코딩 유닛 또는 CU에 대한 참조는 코딩될 수 있는 화상의 일부 또는 슬라이스로 지향될 수 있다.
1) 컴포넌트(204-1)는 SAO 필터(114)를 3D 종속 재구성된 종속 뷰에 적용하는 매커니즘일 수 있다.
2) 컴포넌트(204-2)는 종속 뷰를 인코딩하기 위해 다른 코딩된 뷰의 SAO 파라미터를 재사용하는 매커니즘일 수 있다. 이러한 구현예는 뷰 간 SAO 파라미터 재사용으로 지칭될 수 있다. 구현예에서, SAO 파라미터는 SAO 제어 플래그, SAO 타입, SAO 오프셋 값 등을 포함할 수 있다.
3) 컴포넌트(204-3)는 종속 뷰를 인코딩하기 위해 독립 뷰의 SAO 파라미터를 직접 재사용하는 매커니즘일 수 있다.
4) 컴포넌트(204-4)는 종속 뷰를 인코딩하기 위해 독립 뷰의 SAO 파라미터의 일부를 직접 재사용하고, 인코더(112)가 종속 뷰에 대한 SAO 파라미터의 다른 일부를 생성하여, 생성된 파라미터를 종속 뷰에 대한 디코더로 전송하도록 하는 매커니즘일 수 있다.
5) 컴포넌트(204-5)는 다른 종속 뷰를 인코딩하기 위해 코딩된 종속 뷰의 SAO 파라미터를 직접 재사용하는 매커니즘일 수 있다.
6) 컴포넌트(204-6)는 다른 종속 뷰를 인코딩하기 위해 코딩된 종속 뷰의 SAO 파라미터의 일부를 직접 재사용하고, 인코더(112)가 코딩 종속 뷰에 대한 SAO 파라미터의 다른 일부를 생성하여, 생성된 파라미터를 종속 뷰에 대한 디코더로 전송하도록 하는 매커니즘일 수 있다.
7) 컴포넌트(204-7)는 다른 뷰의 SAO 파라미터를 재사용하지 않고, 인코더(112)가 현재 코딩 종속 뷰에 대한 모든 SAO 파라미터를 생성하여, 생성된 파라미터를 디코더로 전송하도록 하는 매커니즘일 수 있다.
8) 컴포넌트(204-8)는 인코더(112)가 다른 코딩된 뷰의 SAO 파라미터를 재사용할 지의 여부를 적응적으로 판단한 후, 판단 플래그를 디코더로 전송하도록 하는 매커니즘일 수 있다. 판단 플래그는 시퀀스 레벨 플래그, 화상 그룹(GOP) 레벨 플래그, 슬라이스 레벨 플래그 또는 코딩 유닛 레벨 플래그일 수 있다. 일반적으로 사용되는 3개의 비디오 색 공간 Y, Cb 및 Cr은 동일한 판단 플래그를 공유하거나 각각 개별 판단 플래그를 가질 수 있다.
9) 컴포넌트(204-9)는 Y, Cb 및 Cr 색 공간에 대해 서로 다른 SAO 파라미터 재사용 방식을 적용하는 (예를 들어, Y 컴포넌트에 대한 적응적 재사용을 적용하지만, Cb 및 Cr 색 공간에 대한 필수의 재사용을 적용하는) 매커니즘일 수 있다.
10) 컴포넌트(204-10)는 코딩된 뷰의 배열된(collocated) 코딩 유닛으로부터 SAO 파라미터를 재사용하는 매커니즘일 수 있다.
11) 컴포넌트(204-11)는 변이 벡터가 가리키는 코딩된 뷰에서의 코딩 유닛으로부터 SAO 파라미터를 재사용하는 매커니즘일 수 있다.
12) 컴포넌트(204-12)는 깊이 정보 및 카메라 파라미터에 의해 선택된 코딩된 뷰에서의 코딩 유닛으로부터 SAO 파라미터를 재사용하는 매커니즘일 수 있다.
13) 컴포넌트(204-13)는 종속 뷰에서 현재 코딩 유닛을 인코딩하기 위해 공간적 또는 시간적 이웃한 코딩된 코딩 유닛의 SAO 파라미터를 재사용하거나 부분적으로 재사용하는 매커니즘일 수 있으며, 이는 뷰 내 SAO 파라미터 재사용이라 할 수 있다. 공간적 이웃한 코딩 유닛은 좌측 이웃한 코딩 유닛, 상부 이웃한 코딩 유닛, 상부 좌측 이웃한 코딩 유닛 또는 다른 이용 가능한 코딩된 공간적 이웃한 코딩 유닛일 수 있다. 시간적 이웃한 코딩 유닛은 뷰 내 기준 프레임에서의 배열된 코딩 유닛, 움직임 벡터가 가리키는 뷰 내 기준 프레임에서의 코딩 유닛일 수 있다. 구현예에서, 인코더(112)는 어떠한 이웃한 코딩 유닛이 사용되는지를 판단하여, 판단 결과를 디코더로 전송한다.
14) 컴포넌트(204-14)는 인코더(112)가 뷰 내 또는 뷰 간 SAO 파라미터 재사용을 적용할지를 적응적으로 판단한 후에 판단 결과를 디코더로 전송하도록 하는 매커니즘일 수 있다.
15) 컴포넌트(204-14)는 코딩 유닛의 예측 모드에 기초하여 뷰 간 또는 뷰 내 SAO 파라미터 재사용을 적용하도록 하는 매커니즘일 수 있다. 예를 들면, 코딩 유닛이 뷰 내 예측되면, 뷰 내 SAO 파라미터 재사용을 적용한다. 코딩 유닛이 뷰 간 예측되면, 뷰 간 SAO 파라미터 재사용을 적용한다.
도 3은 예시적인 비디오 디코더(116)를 도시한다. 비디오 디코더는 3DVC 비트 스트림(202)을 수신하고, 3DVC 비트 스트림(202)에서 디먹스(de multiplexer)(300)를 수행한다. 기본 뷰 또는 독립 뷰 비트 스트림(302), 및 보조 뷰 또는 종속 뷰 비트 스트림(304)은 디먹싱(de-muxing) 블록(300)으로부터의 출력이다. 기본 뷰 디코딩 흐름 블록(306)은 기본 뷰 비트 스트림(302)을 처리하고, 보조 뷰 디코딩 흐름 블록(308)은 보조 뷰 스트림(304)을 처리한다. HEVC 표준 기반 3DVC의 경우, 기본 뷰 비트 스트림(302)은 HEVC 디코더에 의해 디코딩될 수 있다.
보조 뷰 스트림(304)은 출력 비디오(310)를 재구성하기 위해 독립적으로 디코딩되지 않는다. 뷰 간 예측이 일부 종속 뷰 블록의 인코딩에 이용될 수 있기 때문에 보조 뷰 스트림(304)은 기본 뷰 재구성된 비디오(312)와 함께 디코딩된다. 기본 뷰(독립 뷰)의 재구성된 프레임은 보조 뷰(종속 뷰)의 코딩을 위한 뷰 간 기준 프레임으로서 추가될 수 있다. 이것은 SAO 재사용을 보여주는 314에 의해 예시된다. 따라서, 기본 뷰 또는 다른 디코딩된 종속 뷰의 디코딩된 SAO 정보는 현재 종속 뷰의 SAO 필터링에 재사용될 수 있다.
구현예에서, 3DVC 적용에서, 각 뷰에 대해, SAO는 재구성된 신호의 주관적 및 객관적 품질 둘 다를 개선하기 위해 디블록킹 필터 후에 조건부로 수행될 수 있다. 독립 뷰 및 종속 뷰에 대한 SAO 필터링은 각각 개별 SAO 파라미터를 사용하여 수행된다. SAO는 재구성된 픽셀을 서로 다른 카테고리로 분류한 후, 각 카테고리 픽셀에 대한 휘도 및/또는 색차 성분에 오프셋을 추가함으로써 왜곡을 감소시키는 데 사용될 수 있다.
구현예는 인코더(114)에서 계산/결정되고, 디코더(116)로 전송되는 특정 카테고리의 오프셋 테이블을 위해 제공한다. 특정 구현예는 인코더(114) 및 디코더가 서로 다른 장치에 있고, 3DVC 비트 스트림(202)이 인코더(114)에서 디코더(116)로 전송되는 것을 제공한다. 도 4의 테이블 1은 5개의 서로 다른 SAO 타입의 일례를 보여주고, 테이블 2는 에지 타입의 5개의 서로 다른 종류의 일례를 보여준다.
인코더(114) 측에서의 SAO 필터링은 다음과 같이 구현될 수 있다:
1) 화상을 최대 코딩 유닛(LCU)-정렬된 영역으로 분할한다.
2) 비율 왜곡 최적화(RDO)를 통해 각 영역을 서로 다른 SAO 타입으로 분류한다. 본 구현예에서는, 도 4의 테이블 1에 보여준 바와 같이 "saoTypeldx"로 나타낸 5개의 가능한 SAO 타입이 있다.
3) 특정 영역의 경우,
a) "saoTypeIdx" = 4이면,
i) 픽셀의 강도에 따라 픽셀를 서로 다른 밴드 타입으로 분류한다. 0 내지 255의 강도는 "bandldx"로 나타낸 32개의 밴드 타입으로 동등하게 분할된다. 예를 들면, 특정 영역 동안에 전송된 연속 4 밴드에 대한 4 오프셋 값을 가진 오프셋 테이블이 있다. 한편, "sao_band_position"은 SAO가 적용되는 제 1 밴드를 신호하는데 사용된다. 따라서, 특정 오프셋 값은 밴드 타입에 따라 각 픽셀에 대해 유도될 수 있다.
ⅱ) 각 픽셀에 대해, 오프셋 값을 원래의 픽셀 값에 추가한다.
b) 그 밖에, "saoTypeldx"= 0, 1, 2 또는 3이면,
i) 각 픽셀에 대한 에지 타입을 계산한다. 본 예에서는, 테이블 2에 보여준 바와 같이 "edgeldx"로 나타낸 각 에지 오프셋(EO) 타입에 대한 5개 종류의 에지 타입이 있다. 오프셋 값은 에지 타입에 따라 특정 픽셀에 대해 획득된다.
ⅱ) 각 픽셀에 대해, 오프셋 값을 원래의 픽셀 값에 추가한다.
c) 그 밖에, SAO를 수행하지 않는다.
디코더(116) 측에서의 SAO 필터링은 다음과 같이 구현될 수 있다:
1) 특정 영역에서의 모든 픽셀에 대해서는 픽셀 당 SAO 필터링을 수행한다.
2) 각 영역은 어떤 SAO 타입에 속하는지를 나타내기 위해 "saoTypeldx"를 수신한다. "saoTypeIdx=4이면, 현재 영역은 또한 밴드 위치를 수신할 것이다.
3) 특정 영역에서의 각 픽셀에 대해,
a) saoTypeldx" = 0, 1, 2 또는 3이면, "edgeldx"을 계산하고, 에지 타입의 수신된 오프셋을 픽셀 값에 추가한다.
b) 그 밖에, "saoTypeIdx" = 4이면, 밴드 Idx를 계산하고, 밴드 타입의 수신된 오프셋을 픽셀 값에 추가한다.
c) 그 밖에, SAO를 수행하지 않는다.
도 5는 현재 뷰(502)에서의 코딩 유닛과 기준 프레임 또는 기준 뷰(504)에서의 코딩 유닛 사이의 매핑(500)을 도시한다. 종속 뷰에 대한 SAO 파라미터 재사용을 위한 다양한 가능한 후보가 있다. 3DVC 시스템에서 다수의 뷰는 높은 유사성을 가질 수 있다. 그래서, 종속 뷰에 대한 SAO 필터링을 수행할 때, SAO 제어 플래그, SAO 타입, SAO 오프셋 값, SAO 밴드 위치와 같은 SAO 파라미터는 이미 코딩된 독립 뷰 또는 종속 뷰로부터 상속받을 수 있다. 또한, SAO 파라미터는 동일한 뷰(즉, 현재 뷰(502))에서의 사전 코딩된 기준 프레임으로부터 상속받을 수 있다. 시간적 기준 프레임(506) 또는 뷰 간 기준 프레임(508)으로부터 상속받기 위해서는 1) 표준의 필수 사양에 따라, 2) 인코더에 의해 적응적으로 판단된 후, 플래그가 디코더로 전송될 수 있거나, 3) 현재 코딩 유닛의 예측 모드에 의해 판단될 수 있으며, 여기서 예측 모드는 움직임 보상 예측(MCP) 또는 변이 보상 예측(DCP)을 사용할 수 있다.
기준 코딩 유닛은 a) 현재 프레임(510)에서의 공간적 이웃 코딩 유닛, b) 시간적 기준 프레임(506)에서의 배열된 또는 움직임 보상된 예측(MCP) 코딩 유닛, 또는 c) 뷰 간 기준 프레임(508)에서의 배열된 또는 변이 보상된 예측(DCP) 코딩 유닛일 수 있다.
예를 들면, 현재 코딩 유닛이 DCP로 코딩(즉, 변이 벡터 또는 DV(512)로 예측)될 경우, 뷰 간 상관 관계는 이러한 블록에 대한 시간적 상관 관계보다 강하다. 따라서, SAO 정보는 SAODCP(514)로 나타내는 뷰 간 기준 프레임(508)에서의 대응하는 블록으로부터 상속받는다.
현재 블록이 MCP인 경우(즉, 움직임 벡터 또는 MV(516)로 예측되는 경우), SAO 정보는 SAOMCP(518)로 나타내는 시간적 기준 프레임에서의 대응하는 블록으로부터 상속받는다.
현재 블록이 인트라 코딩되면, SAO 정보는 기준 프레임에서의 배열된 블록(SAOcol-A(520) 또는 SAOcol-B(522)) 또는 공간적 이웃한 블록(SAO a(524), SAO b(526) 또는 SAO c(528))으로부터 상속받을 수 있다.
인코더 및 디코더가 동일한 SAO 필터링을 생성할 수 있도록 어떤 블록이 선택되고, 무슨 종류의 SAO 정보가 상속받아야 하는 지에 관한 표준 사양을 제공하는 것에 관한 일관성(consistency)이 존재해야 한다. 기준 프레임에서의 대응하는 블록은 블록 위치, 코딩된 움직임/변이 벡터, 깊이 정보, 카메라 파라미터 등과 같은 공지된 정보를 이용하여 서로 다른 방법에 의해 도출될 수 있다. 예를 들면, 대응하는 코딩 유닛은 (a) 현재 코딩 유닛의 동일한 위치를 가진 시간적/뷰 간 기준 프레임에서의 배열된 코딩 유닛; (b) 기존의 코딩된 움직임/변이 벡터를 이용하는 움직임/변이 보상된 코딩 유닛; (c) 깊이 정보 및 카메라 파라미터에 의해 검색된 움직임/변이 보상된 코딩 유닛 등일 수 있다.
게다가, 시간적/뷰 간 대응하는 코딩 유닛이 블록 기반 예측으로 인해 다수의 블록을 중첩할 수 있으므로, 다양한 방법이 대응하는 블록을 나타내기 위해 주요한 중첩 블록과 같이 사용될 수 있다.
예시적인 구현에 대한 위의 설명에서, 설명을 위해, 특정 번호, 재료의 구성 및 다른 상세 사항은 청구된 바와 같이 본 발명을 더 잘 설명하기 위해 제시된다. 그러나, 청구된 본 발명은 본 명세서에서 설명된 예시적인 것과 다른 상세 사항을 이용하여 실시될 수 있다는 것이 당업자에게는 자명할 것이다. 다른 경우에, 잘 알려진 특징은 예시적인 구현에 대한 설명을 명확히 하기 위해 생략되거나 간략화된다.
본 발명자는 설명된 예시적인 구현이 주로 예가 되도록 의도한다. 본 발명자는 이러한 예시적인 구현이 첨부된 청구 범위를 제한하도록 의도하지 않는다. 오히려, 본 발명자는 청구된 발명이 또한 다른 현재 또는 미래의 기술과 관련하여 다른 방식으로 실시되거나 구현될 수 있다는 것을 고려하였다.
본 출원에 사용되는 바와 같이, 용어 "또는"은 배타적인 "또는" 보다는 포함적인 "또는"을 의미하도록 의도된다. 즉, 달리 지정하거나 문맥에서 명확하지 않으면, "X가 A 또는 B를 사용한다(X employs A or B)"는 자연 포괄 순열(natural inclusive permutation) 중 어느 것을 의미하도록 의도된다. 즉, X가 A를 사용하거나, X가 B를 사용하거나, 또는 X가 A 및 B 모두를 사용하면, "X가 A 또는 B를 사용한다"가 이 경우 중 어느 하나에서 만족된다. 게다가, 본 출원 및 첨부 청구범위에 사용되는 바와 같은 관사 "a" 및 "an"은 일반적으로 단수 형태로 정해지도록 달리 지정되거나 문맥에서 명백하지 않으면 "하나 이상"을 의미하는 것으로 해석되어야 한다.
이러한 프로세스는 하드웨어, 소프트웨어 및/또는 펌웨어 단독으로 또는 조합하여 머신에서 구현될 수 있는 동작의 시퀀스를 나타내는 논리 흐름 그래프에서의 블록의 집합으로 예시된다. 소프트웨어/펌웨어의 맥락에서, 블록은 하나 이상의 프로세서에 의해 실행될 때 열거된 동작을 수행하는 하나 이상의 컴퓨터 판독 가능한 저장 매체에 저장된 명령어를 나타낸다.
프로세스가 설명되는 순서가 제한으로 해석되는 것으로 의도되지 않으며, 다수의 설명된 처리 블록이 프로세스 또는 대안적 프로세스를 구현하기 위해 임의의 순서로 조합될 수 있다는 것을 주목한다. 추가적으로, 개별 블록은 본 명세서에 설명된 발명의 대상의 사상 및 범위로부터 벗어나지 않고 프로세스에서 삭제될 수 있다.
이웃한 뷰 사이의 높은 상관 관계에 기초하여, 현재 코딩 유닛과 뷰 간 기준 프레임에서의 대응하는 코딩 유닛 사이의 SAO 파라미터는 매우 유사할 수 있다. 제안된 SAO 파라미터 재사용 방법을 이용함으로써, 제안된 방법 및 기술은 SAO 정보를 나타내는 비트(즉, 비디오의 처리)를 저장할 수 있다. 논의된 바와 같이, 방법 및 기술은 인코더 및 디코더에서 수행될 수 있다. 특정 구현에서, 플래그는 설정될 수 있고, 이러한 SAO 파라미터 재사용을 이용하는지를 나타내기 위해 인코더에서 디코더로 제공될 수 있다.
도 6은 SAO 파라미터 재사용을 위한 예시적인 방법을 도시하는 예시적인 프로세스의 흐름도(600)를 도시한다. 이것은 코딩 유닛 또는 CU인 SAO 파라미터 재사용 프로세스 및 기술의 기본 유닛에 기초한다. 각각의 화상은 인코딩 및 디코딩 전에 CU로 분할될 수 있다. SAO 파라미터 재사용 프로세스 및 기술을 수행할 때, 첫번째는 기준 프레임에서의 대응하는 CU를 찾고, 두번째는 현재 CU를 인코딩하기 위해 대응하는 CU로부터 SAO 필터 제어 플래그, saoTypeldx, 밴드 위치 및 오프셋 값과 같은 SAO 정보를 재사용한다.
블록(602)에서, 현재 코딩 유닛(CU)에 대해, SAO 필터링이 수행된다. 현재 CU가 독립 뷰로부터인지 판단이 이루어진다. 판단이 블록(604)의 YES 브랜치에 따르는 "YES"인 경우, 블록(606)에서, CU에 대한 SAO 필터링이 수행된다. 이것은 현재 CU에 적용되는 HEVC 표준의 전형적인 SAO 필터 프로세스일 수 있다.
현재 CU가 독립 뷰가 아닌 경우, 즉 현재 CU 종속 뷰이고, 블록(604)의 NO 브랜치에 따르는 경우, SAO 재사용은 현재 CU에 적용된다. 종속 뷰에서의 현재 CU가 변이 보상으로 코딩되는 경우, 뷰 간 기준 프레임으로부터의 기준 CU의 SAO 파라미터는 현재 CU를 필터링하기 위해 재사용된다. 그렇지 않으면, 뷰 내 기준 프레임으로부터의 기준 프레임의 SAO 파라미터가 현재 CU를 필터링하기 위해 재사용된다. 현재 CU가 변이 보상 코딩되고, 블록(610)의 YES 브랜치에 따르는 경우, 블록(612)에서, 대응하는 CU는 뷰 간 기준 프레임에서 발견된다. 그렇지 않으면, 현재 CU가 변이 보상 코딩되지 않고, 블록(610)의 NO 브랜치에 따르는 경우, 블록(614)에서, 대응하는 CU는 뷰 내 기준 프레임에서 발견된다.
SAO 타입(도 5의 테이블 1 참조)이 [0,4]의 범위 내에 있지 않고, NO 브랜치(616)에 따르는 경우, 블록(618)에서, SAO 필터링이 수행되지 않는다. 이것은 SAO 필터링이 비활성화된다는 것을 나타낼 수 있다. 다시 말하면, 현재 CU에 대한 SAO 필터링이 없을 것이다.
SAO 타입(도 5의 테이블 1 참조)이 [0,4]의 범위 내에 있는 경우, SAO 필터링이 수행된다. SAO 타입이 4이면, 블록(620)의 YES 브랜치에 따르고, 블록(622) 및 블록(624)에서, 밴드 위치 및 오프셋 값은 현재 CU를 필터링하기 위해 재사용된다. 그렇지 않으면, SAO 타입이 4가 아니면, 에지 오프셋 타입 및 오프셋 값은 현재 CU를 필터링하기 위해 재사용된다.
도 7은 본 발명에 따른 다른 예시적인 시스템(700)을 도시한다. 다양한 구현에서, 시스템(700)이 이러한 문맥으로 제한되지 않지만, 시스템(700)은 미디어 시스템일 수 있다. 예를 들면, 시스템(700)은 개인용 컴퓨터(PC), 랩톱 컴퓨터, 울트라 랩톱 컴퓨터, 태블릿, 터치 패드, 휴대용 컴퓨터, 핸드헬드 컴퓨터, 팜톱 컴퓨터, 개인 휴대 정보 단말기(PDA), 셀룰러 전화, 셀룰러 전화/PDA 겸용 장치, 텔레비전, 스마트 장치(예를 들어, 스마트 폰, 스마트 태블릿 또는 스마트 텔레비전), 모바일 인터넷 장치(MID), 메시징 장치, 데이터 통신 장치 등으로 통합될 수 있다.
다양한 구현예에서, 시스템(700)은 디스플레이(720)에 결합된 플랫폼(702)을 포함한다. 플랫폼(702)은 콘텐츠 서비스 장치(730) 또는 콘텐츠 전송 장치(740) 또는 다른 유사한 콘텐츠 소스와 같은 콘텐츠 장치로부터 콘텐츠를 수신할 수 있다. 하나 이상의 내비게이션 특징을 포함하는 내비게이션 제어기(750)는 예를 들어 플랫폼(702) 및/또는 디스플레이(720)와 상호 작용하는 데 사용될 수 있다. 이러한 컴포넌트의 각각은 아래에서 더 상세히 설명된다.
다양한 구현예에서, 플랫폼(702)은 칩셋(705), 프로세서(710), 메모리(712), 저장소(714), 그래픽 서브시스템(715), 애플리케이션(716) 및/또는 무선 장치(radio)(718)의 임의의 조합을 포함할 수 있다. 칩셋(705)은 프로세서(710), 메모리(712), 저장소(714), 그래픽 서브시스템(715), 애플리케이션(716) 및/또는 무선 장치(718) 사이에서 상호 통신을 제공할 수 있다. 예를 들면, 칩셋(705)은 저장소(714)와의 상호 통신을 제공할 수 있는 (도시되지 않은) 저장 어댑터를 포함할 수 있다.
프로세서(710)는 CISC(Complex Instruction Set Computer) 또는 RISC(Reduced Instruction Set Computer) 프로세서, x86 명령어 세트 호환 가능한 프로세서, 멀티코어 또는 임의의 다른 마이크로 프로세서 또는 중앙 처리 유닛(CPU)으로서 구현될 수 있다. 다양한 구현예에서, 프로세서(710)는 듀얼 코어 프로세서, 듀얼 코어 모바일 프로세서 등일 수 있다.
메모리(712)는 랜덤 액세스 메모리(RAM), 동적 랜덤 액세스 메모리(DRAM) 또는 정적 RAM(SRAM)과 같은 휘발성 메모리 장치로서 구현될 수 있지만 이에 제한되지 않는다.
저장소(714)는 자기 디스크 드라이브, 광학 디스크 드라이브, 테이프 드라이브, 내부 저장 장치, 부착된 저장 장치, 플래시 메모리, 배터리 백업 SDRAM(동기식 DRAM) 및/또는 네트워크 액세스 가능한 저장 장치와 같은 비휘발성 저장 장치로서 구현될 수 있지만, 이에 제한되지 않는다. 다양한 구현예에서, 저장소(714)는 예를 들어 다수의 하드 드라이브가 포함될 때 가치있는 디지털 미디어에 대한 저장 성능 강화된 보호를 증가시키는 기술을 포함할 수 있다.
그래픽 서브시스템(715)은 디스플레이를 위한 정지 또는 비디오와 같은 이미지의 처리를 수행할 수 있다. 그래픽 서브시스템(715)은 예를 들어 그래픽 처리 유닛(GPU) 또는 시각 처리 유닛(VPU)일 수 있다. 아날로그 또는 디지털 인터페이스는 그래픽 서브시스템(715) 및 디스플레이(720)를 통신 가능하게 결합하는 데 사용될 수 있다. 예를 들면, 인터페이스는 고화질 멀티미디어 인터페이스, 디스플레이 포트, 무선 HDMI 및/또는 무선 HD 컴플라이언트(compliant) 기술 중 어느 하나일 수 있다. 그래픽 서브시스템(715)은 프로세서(710) 또는 칩셋(705)으로 통합될 수 있다. 일부 구현에서, 그래픽 서브시스템(715)은 칩셋(705)에 통신 가능하게 결합된 독립형 카드일 수 있다.
본 명세서에 설명된 그래픽 및/또는 비디오 처리 기술은 다양한 하드웨어 아키텍처로 구현될 수 있다. 예를 들면, 그래픽 및/또는 비디오 기능은 칩셋 내에 통합될 수 있다. 대안으로, 별도의 그래픽 및/또는 비디오 프로세서가 사용될 수 있다. 또 다른 구현으로서, 그래픽 및/또는 비디오 기능은 멀티코어 프로세서를 포함하는 범용 프로세서에 의해 제공될 수 있다. 추가의 실시예에서, 기능은 가전 장치(consumer electronics device)로 구현될 수 있다.
무선 장치(718)는 다양한 적절한 무선 통신 기술을 이용하여 신호를 송수신할 수 있는 하나 이상의 무선 장치를 포함할 수 있다. 이러한 기술은 하나 이상의 무선 네트워크를 통한 통신을 포함할 수 있다. 예시적인 무선 네트워크는 무선 근거리 통신망(WLAN), 무선 개인 통신망(WPAN), 무선 도시권 통신망(WMAN), 셀룰러 네트워크 및 위성 네트워크를 포함한다(그러나 이에 제한되지 않는다). 이러한 네트워크를 통해 통신할 시에, 무선 장치(718)는 어떤 버전에서 하나 이상의 적용 가능한 표준에 따라 동작할 수 있다.
다양한 구현예에서, 디스플레이(720)는 어떤 텔레비전 타입의 모니터 또는 디스플레이를 포함할 수 있다. 디스플레이(720)는 예를 들어 컴퓨터 디스플레이 스크린, 터치 스크린 디스플레이, 비디오 모니터, 텔레비전형 장치 및/또는 텔레비전을 포함할 수 있다. 디스플레이(720)는 디지털 및/또는 아날로그일 수 있다. 다양한 구현에서, 디스플레이(720)는 홀로그래픽 디스플레이일 수 있다. 또한, 디스플레이(720)는 시각적 투사(visual projection)를 수신할 수 있는 투명한 표면일 수 있다. 이러한 투사는 정보, 이미지 및/또는 객체의 다양한 형태를 전달할 수 있다. 예를 들면, 이러한 투사는 모바일 증강 현실(mobile augmented reality)(MAR) 애플리케이션에 대한 시각적 오버레이(overlay)일 수 있다. 하나 이상의 소프트웨어 애플리케이션(716)의 제어 하에, 플랫폼(702)은 디스플레이(720) 상에 사용자 인터페이스(722)를 표시할 수 있다.
다양한 구현예에서, 콘텐츠 서비스 장치(730)는 어떤 국가, 국제 및/또는 독립 서비스에 의해 호스팅될 수 있고, 따라서 예를 들어 인터넷을 통해 플랫폼(702)에 액세스할 수 있다. 콘텐츠 서비스 장치(730)는 플랫폼(702) 및/또는 디스플레이(720)에 결합될 수 있다. 플랫폼(702) 및/또는 콘텐츠 서비스 장치(730)는 미디어 정보를 네트워크(760)로 전달하고, 네트워크(760)로부터 미디어 정보를 전달하기 위해 (예를 들어, 송신 및/또는 수신을 위해) 네트워크(760)에 결합될 수 있다. 콘텐츠 전송 장치(740)는 또한 플랫폼(702) 및/또는 디스플레이(720)에 결합될 수 있다.
다양한 구현예에서, 콘텐츠 서비스 장치(730)는 케이블 텔레비전 박스, 개인용 컴퓨터, 네트워크, 전화, 디지털 정보 및/또는 콘텐츠를 전송할 수 있는 인터넷 가능 장치 또는 어플라이언스(appliance), 및 네트워크(760)를 통해 또는 직접 콘텐츠 제공자와 플랫폼(702) 및 디스플레이(720) 사이에 콘텐츠를 단방향 또는 양방향으로 전달할 수 있는 어떤 다른 유사한 장치를 포함할 수 있다. 콘텐츠는 네트워크(760)를 통해 시스템(700)의 컴포넌트 및 콘텐츠 제공자 중 어느 하나로 및 로부터 단방향 및/또는 양방향으로 전달될 수 있다는 것이 이해될 것이다. 콘텐츠의 예는 예를 들어 비디오, 음악, 의료 및 게임 정보 등을 포함하는 어떤 미디어 정보를 포함할 수 있다.
콘텐츠 서비스 장치(730)는 미디어 정보, 디지털 정보 및/또는 다른 콘텐츠를 포함하는 케이블 텔레비전 프로그램과 같은 콘텐츠를 수신할 수 있다. 콘텐츠 제공자의 예는 어떤 케이블 또는 위성 텔레비전 또는 무선 장치 또는 인터넷 콘텐츠 제공자를 포함할 수 있다. 제공된 예는 어떤 방식으로든지 본 발명에 따른 구현을 제한하는 것으로 의미되지 않는다.
다양한 구현에서, 플랫폼(702)은 하나 이상의 내비게이션 특징을 가진 내비게이션 제어기(750)로부터 제어 신호를 수신할 수 있다. 제어기(750)의 내비게이션 특징은 예를 들어 사용자 인터페이스(722)와 상호 작용하는 데 사용될 수 있다. 실시예에서, 내비게이션 제어기(750)는 사용자가 공간적(예를 들어, 연속적 및 다차원) 데이터를 컴퓨터로 입력하도록 하는 컴퓨터 하드웨어 컴포넌트(특히, 인간 인터페이스 장치)일 수 있는 포인팅 장치일 수 있다. 그래픽 사용자 인터페이스(GUI)와 텔레비전 및 모니터와 같은 많은 시스템은 사용자가 데이터를 제어하여 물리적 제스처를 이용하여 컴퓨터 또는 텔레비전에 제공하도록 한다.
제어기(750)의 내비게이션 특징의 움직임은 포인터, 커서, 포커스 링, 또는 디스플레이 상에 표시된 다른 시각적 표시기의 움직임에 의해 디스플레이(예를 들어, 디스플레이(720)) 상에 복제될 수 있다. 예를 들면, 소프트웨어 애플리케이션(716)의 제어 하에, 내비게이션 제어기(750) 상에 위치된 내비게이션 특징은 예를 들어 사용자 인터페이스(722) 상에 표시된 가상 내비게이션 특징에 맵핑될 수 있다. 실시예에서, 제어기(750)는 별도의 컴포넌트가 아니고, 플랫폼(702) 및/또는 디스플레이(720)로 통합될 수 있다. 그러나, 본 발명은 본 명세서에 도시되거나 설명된 요소 또는 문맥으로 제한되지 않는다.
다양한 구현에서, (도시되지 않은) 드라이버는 사용자가 예를 들어 활성화될 때 초기 부팅 후 버튼의 터치로 텔레비전과 같은 플랫폼(702)을 순간적으로 턴 온 및 턴 오프할 수 있도록 하는 기술을 포함할 수 있다. 플랫폼이 턴 "오프(off)"될 때에도 프로그램 논리는 플랫폼(702)이 콘텐츠를 미디어 어댑터 또는 다른 콘텐츠 서비스 장치(730) 또는 콘텐츠 전송 장치(740)로 스트리밍하도록 할 수 있다. 게다가, 칩셋(705)은 예를 들어 5.1 서라운드 사운드 오디오 및/또는 고화질 7.1 서라운드 사운드 오디오에 대한 하드웨어 및/또는 소프트웨어 지원을 포함할 수 있다. 드라이버는 통합된 그래픽 플랫폼을 위한 그래픽 드라이버를 포함할 수 있다. 실시예에서, 그래픽 드라이버는 주변 컴포넌트 상호 연결(PCI) 익스프레스 그래픽 카드를 포함할 수 있다.
다양한 구현에서, 시스템(700)에 도시된 컴포넌트 중 하나 이상이 통합될 수 있다. 예를 들면, 플랫폼(702) 및 콘텐츠 서비스 장치(730)가 통합될 수 있거나, 플랫폼(702) 및 콘텐츠 전송 장치(740)가 통합될 수 있거나, 예를 들어 플랫폼(702), 콘텐츠 서비스 장치(730) 및 콘텐츠 전송 장치(740)가 통합될 수 있다. 다양한 실시예에서, 플랫폼(702) 및 디스플레이(720)는 통합된 유닛일 수 있다. 디스플레이(720) 및 콘텐츠 서비스 장치(730)가 통합될 수 있거나, 예를 들어 디스플레이(720) 및 콘텐츠 전송 장치(740)가 통합될 수 있다. 이러한 실시예는 본 발명을 제한하는 것으로 의미되지 않는다.
다양한 실시예에서, 시스템(700)은 무선 시스템, 유선 시스템 또는 둘 다의 조합으로서 구현될 수 있다. 무선 시스템으로서 구현되는 경우, 시스템(700)은 하나 이상의 안테나, 송신기, 수신기, 송수신기, 증폭기, 필터, 제어 논리 등과 같은 무선 공유 매체를 통해 통신하기에 적합한 컴포넌트 및 인터페이스를 포함할 수 있다. 무선 공유 매체의 예는 RF 스펙트럼 등과 같은 무선 스펙트럼의 일부를 포함할 수 있다. 유선 시스템으로서 구현되는 경우, 시스템(700)은 입출력(I/O) 어댑터와 같이 유선 통신 매체를 통해 통신하기에 적합한 컴포넌트 및 인터페이스, 대응하는 유선 통신 매체, 네트워크 인터페이스 카드(NIC), 디스크 제어기, 비디오 제어기, 오디오 제어기 등과 I/O 어댑터를 연결하기 위한 물리적 커넥터를 포함할 수 있다. 유선 통신 매체의 예는 와이어, 케이블, 금속 리드(lead), 인쇄 회로 기판(PCB), 백플레인, 스위치 패브릭, 반도체 재료, 연선(twisted wire pair), 동축 케이블, 광섬유 등을 포함할 수 있다.
플랫폼(702)은 정보를 통신하기 위해 하나 이상의 논리 또는 물리적 채널을 설정할 수 있다. 정보는 미디어 정보 및 제어 정보를 포함할 수 있다. 미디어 정보는 사용자에 대해 의미하는 콘텐츠를 나타내는 임의의 데이터를 나타낼 수 있다. 콘텐츠의 예는 예를 들어 음성 대화, 화상 회의, 스트리밍 비디오, 전자 메일("이메일") 메시지, 음성 메일 메시지, 영숫자 심볼, 그래픽, 이미지, 비디오, 텍스트 등으로부터의 데이터를 포함할 수 있다. 음성 대화로부터의 데이터는 예를 들어 음성 정보, 침묵 주기(silence period), 배경 잡음, 편안한 잡음, 톤 등일 수 있다. 제어 정보는 자동화 시스템을 위한 명령, 명령어 또는 제어 단어를 나타내는 어떤 데이터를 나타낼 수 있다. 예를 들면, 제어 정보는 시스템을 통해 미디어 정보를 라우팅하거나, 미리 정해진 방식으로 미디어 정보를 처리하기 위해 노드에 지시하는 데 사용될 수 있다. 그러나, 실시예는 도 7에 도시되거나 설명된 요소 또는 문맥으로 제한되지 않는다.
상술한 바와 같이, 시스템(700)은 다양한 물리적 스타일 또는 폼 팩터로 실시될 수 있다. 도 8은 시스템(700)이 구현될 수 있는 소형 폼 팩터 장치(800)의 구현예를 도시한다. 실시예에서, 예를 들면, 장치(800)는 무선 능력을 갖는 모바일 컴퓨팅 장치로서 구현될 수 있다. 모바일 컴퓨팅 장치는 처리 시스템과, 예를 들어 하나 이상의 배터리와 같은 모바일 전원 또는 공급 장치를 갖는 임의의 장치를 나타낼 수 있다.
상술한 바와 같이, 이동 컴퓨팅 장치의 예는 개인용 컴퓨터(PC), 랩톱 컴퓨터, 울트라 랩톱 컴퓨터, 태블릿, 터치 패드, 휴대용 컴퓨터, 핸드헬드 컴퓨터, 팜톱 컴퓨터, 개인 휴대 정보 단말기(PDA), 셀룰러 전화, 셀룰러 전화/PDA 겸용 장치, 텔레비전, 스마트 장치(예를 들어, 스마트 폰, 스마트 태블릿 또는 스마트 텔레비전), 모바일 인터넷 장치(MID), 메시징 장치, 데이터 통신 장치 등을 포함할 수 있다.
모바일 컴퓨팅 장치의 예는 또한 시계형 컴퓨터(wrist computer), 손가락 컴퓨터(finger computer), 링 컴퓨터, 안경 컴퓨터, 벨트 클립 컴퓨터, 팔 밴드 컴퓨터, 구두 컴퓨터, 의류 컴퓨터 및 다른 착용 가능한 컴퓨터와 같이 사람에 의해 착용되도록 배치되는 컴퓨터를 포함할 수 있다. 다양한 실시예에서, 예를 들면, 모바일 컴퓨팅 장치는 컴퓨터 애플리케이션 뿐만 아니라, 음성 통신 및/또는 데이터 통신을 실행할 수 있는 스마트 폰으로 구현될 수 있다. 일부 실시예가 예로서 스마트 폰으로 구현된 모바일 컴퓨팅 장치로 설명될 수 있지만, 다른 실시예가 또한 다른 무선 모바일 컴퓨팅 장치를 사용하여 구현될 수 있다는 것이 이해될 수 있다. 실시예는 이러한 문맥에서 제한되지 않는다.
도 8에 도시된 바와 같이, 장치(800)는 하우징(802), 디스플레이(804), 입출력(I/O) 장치(806) 및 안테나(808)를 포함할 수 있다. 장치(800)는 또한 내비게이션 특징을 포함할 수 있다. 디스플레이(804)는 모바일 컴퓨팅 장치에 적절한 정보를 표시하기 위한 임의의 적합한 디스플레이 유닛을 포함할 수 있다. I/O 장치(806)는 정보를 모바일 컴퓨팅 장치로 입력하기 위한 임의의 적합한 I/O 장치를 포함할 수 있다. I/O 장치(806)에 대한 예는 영숫자 키보드, 숫자 키패드, 터치 패드, 입력 키, 버튼, 스위치, 로커 스위치, 마이크, 스피커, 음성 인식 장치 및 소프트웨어 등을 포함할 수 있다. 정보는 또한 (도시되지 않은) 마이크를 경유하여 장치(800)로 입력될 수 있다. 이러한 정보는 (도시되지 않은) 음성 인식 장치에 의해 디지털화될 수 있다. 실시예는 이러한 문맥에서 제한되지 않는다.
다양한 실시예는 하드웨어 요소, 소프트웨어 요소 또는 둘 다의 조합을 이용하여 구현될 수 있다. 하드웨어 요소의 예는 프로세서, 마이크로 프로세서, 회로, 회로 요소(예를 들어, 트랜지스터, 레지스터, 커패시터, 인덕터 등), 집적 회로, 주문형 반도체(ASIC), 프로그램 가능한 논리 장치(PLD), 디지털 신호 프로세서(DSP), 필드 프로그램 가능한 게이트 어레이(FPGA), 논리 게이트, 레지스터, 반도체 장치, 칩, 마이크로 칩, 칩셋 등을 포함할 수 있다. 소프트웨어의 예는 소프트웨어 컴포넌트, 프로그램, 애플리케이션, 컴퓨터 프로그램, 애플리케이션 프로그램, 시스템 프로그램, 머신 프로그램, 운영 체제 소프트웨어, 미들웨어, 펌웨어, 소프트웨어 모듈, 루틴, 서브루틴, 기능, 방법, 절차, 소프트웨어 인터페이스, 애플리케이션 프로그램 인터페이스(API), 명령어 세트, 컴퓨팅 코드, 컴퓨터 코드, 코드 세그먼트, 컴퓨터 코드 세그먼트, 워드, 값, 심볼 또는 이들의 임의의 조합을 포함할 수 있다. 실시예가 하드웨어 요소 및/또는 소프트웨어 요소를 이용하여 구현되는지를 판단하는 것은 원하는 계산 속도, 전력 레벨, 열 허용 오차, 처리 주기 버짓(processing cycle budget), 입력 데이터 전송 속도, 출력 데이터 전송 속도, 메모리 자원, 데이터 버스 속도 및 다른 설계 또는 성능 제한과 같은 다수의 요인에 따라 달라질 수 있다.
적어도 하나의 실시예의 하나 이상의 양태는 머신에 의해 판독될 때 머신이 본 명세서에 설명된 기술을 수행하기 위해 논리를 제작하도록 하는 프로세서 내에 다양한 논리를 나타내는 머신 판독 가능한 매체 상에 저장된 대표적인 명령어에 의해 구현될 수 있다. "IP 코어"로 알려진 이러한 표현은 유형의(tangible) 머신 판독 가능한 매체 상에 저장되고, 논리 또는 프로세서를 실제로 만드는 제작 머신으로 적재하도록 다양한 고객 또는 제조 설비에 공급될 수 있다.
본 명세서에 설명된 특정 특징이 다양한 구현을 참조하여 설명되었지만, 이러한 설명은 제한적인 의미로 해석되도록 의도되지 않는다. 따라서, 본 발명이 속하는 기술분야의 통상의 기술자에게 명백한 본 명세서에 설명된 구현뿐만 아니라 다른 구현에 대한 다양한 수정은 본 발명의 사상 및 범위 내에 있는 것으로 간주된다.
본 발명에 따른 실현은 특정 실시예의 맥락에서 설명되었다. 이러한 실시예는 예시적이고 제한적이지 않도록 의도된다. 많은 변형, 수정, 추가 및 개선이 가능하다. 따라서, 하나의 경우로서 본 명세서에 설명된 컴포넌트에 대해 복수의 경우가 제공될 수 있다. 다양한 컴포넌트, 동작 및 데이터 저장 사이의 경계는 다소 임의적이며, 특정 동작은 특정한 예시적 구성과 관련하여 예시된다. 기능의 다른 할당이 고려되며 다음의 청구범위 내에 속할 수 있다. 마지막으로, 다양한 구성에서 개별 컴포넌트로서 제공된 구조 및 기능은 조합된 구조 또는 컴포넌트로서 구현될 수 있다. 이들 및 다른 변형, 수정, 추가 및 개량은 다음의 청구범위에 정의된 바와 같이 본 발명의 범위 내에 속할 수 있다.

Claims (26)

  1. 3차원 비디오 코딩(3DVC(3D video coding)) 비트 스트림을 제공하기 위해 3D 코딩을 구현하는 비디오 인코더로서,
    SAO(sample adaptive offset) 필터 파라미터로 비인코딩/비압축된 비디오 스트림의 독립 뷰(an independent view)를 인코딩하기 위해 상기 비인코딩/비압축된 비디오 스트림을 수신하고 다른 종속 뷰(other dependent views)를 인코딩하기 위해 상기 독립 뷰의 상기 SAO 필터 파라미터를 사용하는 SAO 필터와,
    인코딩된 독립 뷰 및 종속 뷰를 수신하고 상기 3DVC 비트 스트림을 출력하는 출력 컴포넌트를 포함하는
    3D 코딩 구현 비디오 인코더.
  2. 제 1 항에 있어서,
    상기 SAO 필터는 선택된 수의 상기 SAO 필터 파라미터를 상기 종속 뷰에 제공하는
    3D 코딩 구현 비디오 인코더.
  3. 제 1 항에 있어서,
    상기 SAO 필터 파라미터는 제어 플래그, SAO 타입 및 SAO 오프셋 값 중 하나 이상을 포함하는
    3D 코딩 구현 비디오 인코더.
  4. 제 1 항에 있어서,
    코딩된 종속 뷰의 SAO 필터 파라미터는 다른 종속 뷰를 인코딩하는데 직접 재사용되는
    3D 코딩 구현 비디오 인코더.
  5. 제 1 항에 있어서,
    코딩된 종속 뷰의 SAO 필터 파라미터는 다른 종속 뷰를 인코딩하기 위해 코딩된 종속 뷰의 SAO 필터 파라미터의 일부로서 직접 재사용되고, 상기 비디오 인코더가 종속 뷰를 코딩하기 위해 다른 SAO 필터 파라미터를 생성하게 해주는
    3D 코딩 구현 비디오 인코더.
  6. 제 1 항에 있어서,
    SAO 필터 파라미터만이 재사용되지 않고 SAO 필터 파라미터는 현재 코딩 유닛 종속 뷰에 대해 생성되는
    3D 코딩 구현 비디오 인코더.
  7. 제 1 항에 있어서,
    종속 뷰에 대한 SAO 필터 파라미터의 재사용에 관한 결정이 이루어지는
    3D 코딩 구현 비디오 인코더.
  8. 제 1 항에 있어서,
    상기 SAO 필터 파라미터는 Y, Cb, Cr 색 공간에 대한 재사용 방식을 적용하는 데 사용되는
    3D 코딩 구현 비디오 인코더.
  9. 제 1 항에 있어서,
    상기 SAO 필터 파라미터는 깊이 및 카메라 파라미터로부터 선택되는
    3D 코딩 구현 비디오 인코더.
  10. 제 1 항에 있어서,
    상기 SAO 필터 파라미터는 공간적 또는 시간적 코딩된 코딩 유닛이고, 종속 뷰에서 현재 코딩 유닛을 인코딩하는 데 사용되는
    3D 코딩 구현 비디오 인코더.
  11. 제 1 항에 있어서,
    뷰 간(inter-veiw) 또는 뷰 내(intra-view) SAO 필터 파라미터 재사용을 적용할지를 결정하는 컴포넌트를 더 포함하는
    3D 코딩 구현 비디오 인코더.
  12. 제 1 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 3DVC 비트 스트림은 독립 및 종속 뷰의 상기 SAO 필터 파라미터를 사용하도록 구현된 디코더로 전송되는
    3D 코딩 구현 비디오 인코더.
  13. 제 1 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 비디오 인코더는 중앙 처리 유닛, 집적 회로 칩셋 또는 코덱 중 하나로서 구성되는
    3D 코딩 구현 비디오 인코더.
  14. 3차원 비디오 코딩(3DVC) 비트 스트림을 처리하는 비디오 디코더로서,
    상기 3DVC 비트 스트림을 수신하고 상기 3DVC 비트 스트림을 기본 뷰 스트림 및 보조 뷰 스트림으로 분리하는 디멀티플렉서 - 상기 기본 뷰 스트림은 SAO(sample adaptive offset) 필터 파라미터를 포함함 - 와,
    상기 기본 뷰 스트림을 처리하고 상기 SAO 필터 파라미터를 사용하기 위한 기본 뷰 디코딩 블록과,
    상기 보조 뷰 스트림을 처리하는 보조 뷰 스트림 디코딩 블록 - 상기 기본 뷰 스트림의 상기 SAO 필터 파라미터는 상기 보조 뷰 스트림을 위해 선택적으로 사용됨 - 을 포함하는
    3DVC 비트 스트림 처리 비디오 디코더.
  15. 제 14 항에 있어서,
    상기 기본 뷰 스트림 및 상기 보조 뷰 스트림은 함께 디코딩되는
    3DVC 비트 스트림 처리 비디오 디코더.
  16. 제 15 항에 있어서,
    상기 기본 뷰 스트림의 재구성된 프레임은 보조 뷰 프레임을 디코딩하기 위해 뷰 간 기준 프레임으로서 추가되는
    3DVC 비트 스트림 처리 비디오 디코더.
  17. 하나 이상의 프로세서와,
    상기 프로세서에 구성된 메모리와,
    상기 프로세서 및 상기 메모리에 구성된 비디오 인코더를 포함하고,
    상기 비디오 인코더는
    비디오 비트 스트림을 공급하는 비디오 입력과,
    상기 비디오 스트림을 수신하여 SAO(sample adaptive offset) 필터 파라미터로 상기 비디오 스트림의 독립 뷰를 인코딩하고, 다른 종속 뷰를 인코딩하기 위해 상기 독립 뷰의 상기 SAO 필터 파라미터를 사용하는 SAO 필터와,
    인코딩된 독립 뷰 및 종속 뷰를 수신하고 상기 3DVC 비트 스트림을 출력하는 비디오 입력을 포함하는
    장치.
  18. 제 17 항에 있어서,
    상기 비디오 입력은 비코딩/비압축되는
    장치.
  19. 제 17 항에 있어서,
    종속 뷰는 동일한 뷰에서 시간적 및 공간적 상관 관계 및 이웃한 뷰 사이의 뷰 간 상관 관계를 이용하여 코딩되는
    장치.
  20. 제 19 항에 있어서,
    뷰 간 코딩은 변이 보상 예측(disparity-compensated prediction(DCP)) 또는 움직임 보상 예측(motion-compensated prediction(MCP)) 중 하나를 사용하여 수행되는
    장치.
  21. 제 17 항에 있어서,
    상기 종속 뷰에 대해 상기 독립 뷰의 상기 SAO 필터 파라미터의 모두 또는 서브세트를 사용하거나 상기 SAO 필터 파라미터를 전혀 사용하지 않는 것에 관한 결정이 이루어지는
    장치.
  22. 제 17 항에 있어서,
    상기 SAO 필터 파라미터는 디코더로 전달되는 제어 플래그, SAO 타입 및 SAO 오프셋 값 중 하나 이상을 포함하는
    장치.
  23. 제 17 항에 있어서,
    코딩된 종속 뷰의 SAO 필터 파라미터는 다른 종속 뷰를 인코딩하는
    장치.
  24. 3차원 비디오 코딩(3DVC)을 위한 파라미터 재사용을 구현하는 방법으로서,
    SAO(sample adaptive offset) 필터링 파라미터를 생성하기 위해 독립 뷰의 코딩 유닛(coding unit(CU))에 대한 SAO 필터링을 수행하는 단계와,
    상기 SAO 필터링 파라미터가 상기 독립 뷰의 종속 뷰의 코딩 유닛에 적용될 것인지를 결정하는 단계를 포함하는
    3DVC 파라미터 재사용 구현 방법.
  25. 제 24 항에 있어서,
    종속 뷰 내의 현재 CU가 변이 보상으로 코딩되는 경우, 뷰 간 기준 프레임으로부터의 기준 CU의 SAO 필터링 파라미터는 상기 현재 CU를 필터링하기 위해 재사용되는
    3DVC 파라미터 재사용 구현 방법.
  26. 제 24 항에 있어서,
    종속 뷰 내의 현재 CU가 변이 보상으로 코딩되지 않는 경우, 뷰 내 기준 프레임으로부터의 기준 CU의 SAO 파라미터는 현재 CU를 필터링하기 위해 재사용되는
    3DVC 파라미터 재사용 구현 방법.
KR1020147034035A 2012-07-04 2012-07-04 3차원 비디오 코딩을 위한 뷰 간 필터 파라미터 재사용 KR101636269B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/078184 WO2014005305A1 (en) 2012-07-04 2012-07-04 Inter-view filter parameters re-use for three dimensional video coding

Publications (2)

Publication Number Publication Date
KR20150015497A true KR20150015497A (ko) 2015-02-10
KR101636269B1 KR101636269B1 (ko) 2016-07-05

Family

ID=49881253

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147034035A KR101636269B1 (ko) 2012-07-04 2012-07-04 3차원 비디오 코딩을 위한 뷰 간 필터 파라미터 재사용

Country Status (5)

Country Link
US (1) US9769450B2 (ko)
EP (1) EP2870750A4 (ko)
KR (1) KR101636269B1 (ko)
CN (1) CN104335587B (ko)
WO (1) WO2014005305A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201119206D0 (en) * 2011-11-07 2011-12-21 Canon Kk Method and device for providing compensation offsets for a set of reconstructed samples of an image
EP2870750A4 (en) 2012-07-04 2016-03-23 Intel Corp REUSE OF INTER-IMAGE FILTER PARAMETERS FOR THREE-DIMENSIONAL VIDEO CODING
WO2014050732A1 (ja) * 2012-09-28 2014-04-03 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
EP2905961A4 (en) * 2012-10-05 2016-07-06 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING A VIDEO SIGNAL
KR20160147069A (ko) * 2013-01-07 2016-12-21 미디어텍 인크. 3차원 비디오 코딩에서의 직접 모드 및 스킵 모드에 대한 공간 모션 벡터 예측 유도 방법 및 장치
US9756340B2 (en) 2014-02-03 2017-09-05 Mitsubishi Electric Corporation Video encoding device and video encoding method
EP3138293A4 (en) 2014-04-29 2017-05-24 Microsoft Technology Licensing, LLC Encoder-side decisions for sample adaptive offset filtering
US10869031B2 (en) * 2014-07-07 2020-12-15 Hfi Innovation Inc. Method of intra block copy search and compensation range
JP6052319B2 (ja) * 2015-03-25 2016-12-27 Nttエレクトロニクス株式会社 動画像符号化装置
US10404992B2 (en) * 2015-07-27 2019-09-03 Qualcomm Incorporated Methods and systems of restricting bi-prediction in video coding
US10553029B1 (en) 2016-09-30 2020-02-04 Amazon Technologies, Inc. Using reference-only decoding of non-viewed sections of a projected video
US10412412B1 (en) 2016-09-30 2019-09-10 Amazon Technologies, Inc. Using reference-only decoding of non-viewed sections of a projected video
US10609356B1 (en) * 2017-01-23 2020-03-31 Amazon Technologies, Inc. Using a temporal enhancement layer to encode and decode stereoscopic video content
GB2574422A (en) * 2018-06-05 2019-12-11 Canon Kk Video coding and decoding
GB2574421A (en) 2018-06-05 2019-12-11 Canon Kk Video coding and decoding
GB2574426A (en) 2018-06-05 2019-12-11 Canon Kk Video coding and decoding
GB2574424A (en) 2018-06-05 2019-12-11 Canon Kk Video coding and decoding
GB2574425A (en) 2018-06-05 2019-12-11 Canon Kk Video coding and decoding
CN110944188B (zh) * 2018-09-21 2022-04-08 杭州海康威视数字技术股份有限公司 样点自适应补偿的方法、装置和系统
KR102527298B1 (ko) * 2018-12-06 2023-04-27 엘지전자 주식회사 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
US11146808B2 (en) * 2019-06-27 2021-10-12 Tencent America LLC Method and apparatus for video coding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080093425A (ko) * 2006-11-17 2008-10-21 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
CN101491101A (zh) * 2006-07-18 2009-07-22 汤姆森许可贸易公司 用于自适应参考滤波的方法和装置
WO2010123862A1 (en) * 2009-04-20 2010-10-28 Dolby Laboratories Licensing Corporation Adaptive interpolation filters for multi-layered video delivery
CN101965732A (zh) * 2008-01-07 2011-02-02 汤姆森特许公司 用于使用参数滤波进行视频编码和解码的方法和装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2532162B1 (en) * 2010-02-01 2017-08-30 Dolby Laboratories Licensing Corporation Filtering for image and video enhancement using asymmetric samples
USRE49308E1 (en) * 2010-09-29 2022-11-22 Electronics And Telecommunications Research Instit Method and apparatus for video-encoding/decoding using filter information prediction
US9363533B2 (en) * 2010-09-29 2016-06-07 Electronics And Telecommunications Research Institute Method and apparatus for video-encoding/decoding using filter information prediction
US20140146891A1 (en) * 2011-06-10 2014-05-29 Mediatek Inc. Method and Apparatus of Scalable Video Coding
KR20170005464A (ko) * 2011-08-30 2017-01-13 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
WO2013091513A1 (en) * 2011-12-22 2013-06-27 Mediatek Inc. Method and apparatus of texture image compression in 3d video coding
US9451252B2 (en) * 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
EP2870750A4 (en) 2012-07-04 2016-03-23 Intel Corp REUSE OF INTER-IMAGE FILTER PARAMETERS FOR THREE-DIMENSIONAL VIDEO CODING

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101491101A (zh) * 2006-07-18 2009-07-22 汤姆森许可贸易公司 用于自适应参考滤波的方法和装置
KR20080093425A (ko) * 2006-11-17 2008-10-21 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
CN101965732A (zh) * 2008-01-07 2011-02-02 汤姆森特许公司 用于使用参数滤波进行视频编码和解码的方法和装置
WO2010123862A1 (en) * 2009-04-20 2010-10-28 Dolby Laboratories Licensing Corporation Adaptive interpolation filters for multi-layered video delivery

Also Published As

Publication number Publication date
CN104335587A (zh) 2015-02-04
EP2870750A4 (en) 2016-03-23
US20150312545A1 (en) 2015-10-29
WO2014005305A1 (en) 2014-01-09
KR101636269B1 (ko) 2016-07-05
US9769450B2 (en) 2017-09-19
CN104335587B (zh) 2018-06-19
EP2870750A1 (en) 2015-05-13

Similar Documents

Publication Publication Date Title
KR101636269B1 (ko) 3차원 비디오 코딩을 위한 뷰 간 필터 파라미터 재사용
JP6550633B2 (ja) 3dビデオコーディングのための予測パラメータ継承
KR101668202B1 (ko) 스케일러블 비디오 코딩을 위한 인터레이어 샘플 적응 필터 파라미터 재사용
US9497485B2 (en) Coding unit size dependent simplified depth coding for 3D video coding
US9860514B2 (en) 3D video coding including depth based disparity vector calibration
KR101626683B1 (ko) 멀티뷰 비디오 코딩 방안
WO2014000168A1 (en) Cross-layer cross-channel residual prediction
EP2865185A1 (en) Cross-layer cross-channel sample prediction
EP2984824A1 (en) Coding unit size dependent simplified depth coding for 3d video coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant