KR102548327B1 - 코딩된 이미지 또는 화상을 디코딩하기 위한 방법, 장치 및 매체 - Google Patents

코딩된 이미지 또는 화상을 디코딩하기 위한 방법, 장치 및 매체 Download PDF

Info

Publication number
KR102548327B1
KR102548327B1 KR1020207031771A KR20207031771A KR102548327B1 KR 102548327 B1 KR102548327 B1 KR 102548327B1 KR 1020207031771 A KR1020207031771 A KR 1020207031771A KR 20207031771 A KR20207031771 A KR 20207031771A KR 102548327 B1 KR102548327 B1 KR 102548327B1
Authority
KR
South Korea
Prior art keywords
delta
value
blocks
block
video
Prior art date
Application number
KR1020207031771A
Other languages
English (en)
Other versions
KR20200139775A (ko
Inventor
스테판 웽거
산 류
Original Assignee
텐센트 아메리카 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 아메리카 엘엘씨 filed Critical 텐센트 아메리카 엘엘씨
Publication of KR20200139775A publication Critical patent/KR20200139775A/ko
Application granted granted Critical
Publication of KR102548327B1 publication Critical patent/KR102548327B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

디코더에서 코딩된 비디오 시퀀스의 코딩된 이미지 또는 화상을 디코딩하기 위한 방법 - 이미지 또는 화상은 비평면 표면의 평면 표면 상의 프로젝션을 나타내고, 디코더는 역양자화 단계를 이용함 - 은 복수의 제1 블록들 중 적어도 하나의 제1 블록에 관한 적어도 하나의 중간 델타 양자화기 파라미터(QP) 값을 획득하는 단계를 포함할 수 있다. 이 방법은 제2 블록에 관한 QP 값을 디코딩하는 단계를 포함할 수 있다. 이 방법은 델타 QP 값과 QP 값을 조합하여 최종 QP 값을 생성하는 단계를 포함할 수 있다. 이 방법은 최종 QP 값을 사용하여 제2 블록에 관련된 적어도 하나의 값을 역양자화하는 단계를 포함할 수 있다.

Description

코딩된 이미지 또는 화상을 디코딩하기 위한 방법, 장치 및 매체
인용에 의한 통합
본 개시내용은, 2018년 10월 01일자로 출원된 미국 출원 번호 제16/148,380호, "TECHNIQUES FOR QP CODING FOR 360 IMAGE AND VIDEO CODING"의 우선권의 이익을 주장하고, 그 전체 내용이 인용에 의해 본 명세서에 통합된다.
분야
개시된 주제는 이미지 및 비디오 코딩 및 디코딩에 관한 것이고, 더욱 구체적으로는, 평면 비디오 코덱에의 입력이 360 비디오와 같은 비평면 콘텐츠로부터 인공적으로 생성되었던 환경들에서, 콘텐츠의 (공간적) 기하구조의 통계의 관계에 기초한 양자화기 파라미터 구문 요소(quantizer parameter syntax element)의 효율적인 코딩에 관한 것이다.
수십년 동안 움직임 보상(motion compensation)을 갖는 인터-화상 예측(inter-picture prediction)을 사용하는 비디오 코딩 및 디코딩이 알려져 있다. 압축되지 않은 디지털 비디오는 일련의 화상들로 구성될 수 있고, 각각의 화상은, 예를 들어, 1920x1080 루미넌스 샘플들 및 연관된 크로미넌스 샘플들의 공간 차원(spatial dimension)을 갖는다. 이 일련의 화상들은, 예를 들어, 초당 60개 화상 또는 60 Hz의, 고정된 또는 가변 화상 레이트(비공식적으로 프레임 레이트로도 알려져 있음)를 가질 수 있다. 압축되지 않은 비디오는 상당한 비트레이트 요건들을 갖는다. 예를 들어, 샘플당 8 비트에서의 1080p60 4:2:0 비디오(60 Hz 프레임 레이트에서의 1920x1080 루미넌스 샘플 해상도)는 1.5 Gbit/s 대역폭에 가까울 것을 요구한다. 한 시간의 그러한 비디오는 600 기가바이트보다 많은 저장 공간을 필요로 한다.
비디오 코딩 및 디코딩의 하나의 목적은, 압축을 통한, 입력 비디오 신호에서의 중복성(redundancy)의 감소일 수 있다. 압축은 전술한 대역폭 또는 저장 공간 요건들을, 일부 경우들에서, 2 자릿수 이상 감소시키는 데 도움이 될 수 있다. 무손실 및 손실 압축 둘 다뿐만 아니라 이들의 조합이 이용될 수 있다. 무손실 압축은 압축된 원래 신호로부터 원래 신호의 정확한 사본이 재구성될 수 있는 기법들을 지칭한다. 손실 압축을 이용할 때, 재구성된 신호는 원래 신호와 동일하지 않을 수 있지만, 원래 신호와 재구성된 신호 사이의 왜곡은 재구성된 신호를 의도된 응용에 유용하게 만들 정도로 충분히 작다. 비디오의 경우, 손실 압축이 널리 이용된다. 용인되는 왜곡의 양은 응용에 의존한다; 예를 들어, 특정 소비자 스트리밍 응용들의 사용자들은 텔레비전 기여 응용들(television contribution applications)의 사용자들보다 더 높은 왜곡을 용인할 수 있다. 달성가능한 압축비는 더 높은 허용가능한/용인가능한 왜곡이 더 높은 압축비를 산출할 수 있다는 것을 반영할 수 있다.
비디오 인코더 및 디코더는, 예를 들어, 움직임 보상, 변환, 양자화, 및 엔트로피 코딩을 포함하는, 수개의 넓은 카테고리들로부터의 기법들을 활용할 수 있으며, 이들 중 일부는 아래에 소개될 것이다.
위의 기술들에 따른 비디오 코딩은, 역사적으로, 종종 단일 카메라로부터 캡처된 입력 콘텐츠를 가정하였다. 주의를 끌었던 다른 콘텐츠는 입체적 콘텐츠(stereoscopic content)로 알려져 있다: 적합한 렌더러(renderer)에서 조합될 때, 캡처 축이 대략 평행하도록 공간적으로 정렬된 카메라들로부터의 2개의 카메라 신호는 특정 조건들 하에서 볼 때 3차원 화상의 환영(illusion)을 제공할 수 있다. 카메라 신호들이 고도로 상관됨에 따라, 2개의 신호를 상관시켜서 두 신호가 개별적으로 코딩되었을 때의 코딩 효율보다 높은 코딩 효율을 획득하는 특정 비디오 코딩 기술들이 고안되었다. 이러한 기술들 중 하나가, H.264와 H.265 둘 다에서 프로파일들의 형태로 이용가능한, 멀티뷰 코딩(multiview coding)으로 알려져 있다. 일부 경우들에서, 그러한 멀티뷰 코딩은, 만약에 있다면, 다수의 카메라 신호들의 유사성을 여전히 활용하면서, 2개보다 많은 카메라 신호들의 조합된 코딩으로 확장될 수 있다. 그러나, 전술한 의미에서의 멀티뷰 코딩은 여전히 평면 카메라 이미지들 상에서 동작한다.
최근에, 평행하지 않은 캡처 각도들에서 잠재적으로 많은 카메라들을 포함하는 입력 디바이스들이 이용가능하게 되었다. 물리적 레이아웃에 기초하여 가능한 정도까지, 그러한 입력 디바이스들은 구형 공간 볼륨을 캡처하는 것을 허용한다. 이러한 카메라들은 시장에서 거래될 수 있고, 모든 차원들에서 360도 시야(360 degree field of view)를 캡처할 수 있기 때문에 본 명세서에서 "360 카메라들(360 cameras)"로 지칭된다. 스틸 이미지 360 카메라들은 비교적 넓은 각도를 캡처할 수 있는 렌즈를 갖는 단일 카메라를 장착하는 팬-틸트 카메라 헤드(pan-tilt camera head)를 사용함으로써 동작할 수 있다. 촬영하기 전에 팬-틸트 헤드의 양 축을 특정 위치들로 회전시킴으로써, 스틸 이미지들의 시퀀스가 개별 스틸 이미지들이 어느 정도 중첩하는 방식으로 카메라에 의해 캡처될 수 있다. 팬 틸트 카메라 헤드를 제어하기 위해 사용되는 제어 정보와 일치하는 기하학적 정보를 사용하여, 이러한 이미지들을 기하학적으로 정정하고 함께 스티칭하여, 예를 들어, 압축 및 송신의 목적으로 종래의 이미지 처리 기술들에 입력될 수 있는 평면 이미지를 형성할 수 있다. 지리-정정(geo-correction) 및 스티칭 프로세스는 본 명세서에서 "프로젝션(projection)"으로 지칭된다. 360 이미지를 렌더링하는 것은, 뷰잉에 적합한 평면 이미지를 생성하기 위해, 360 캡처된 장면, 역방향 기하학적 정정(reverse geometric correction), 디-스티칭(de-stitching) 등에 관한 뷰포인트 또는 뷰잉 방향의 선택을 수반할 수 있다. 역방향 기하학적 정정 및 디-스티칭은 본 명세서에서 "디-프로젝션(de-projection)" 또는 "역 프로젝션(inverse projection)"으로 지칭된다. 이상적으로는, 그 이미지에 묘사된 장면은, 평면 이미지가 뷰잉 방향에서 또는 선택된 뷰포인트로부터 캡처되었을 경우와 동일할 것이다.
위의 개념은 비디오의 캡처로 확장될 수 있는데, 그것은 비디오가 충분히 짧은 시간 간격으로 캡처되고 렌더링되는 일련의 스틸 이미지들에 의해 표현될 수 있기 때문이다. 360 비디오 가능 카메라들은 2가지 기본 변형으로 상업적으로 이용가능하다. 제1 변형은, 한 번의 회전 과정에서 360도 장면(한 차원에서)이 촬영될 수 있도록 배열된 하나 이상의 카메라 및 적절한 렌즈를 갖는 급속 회전 카메라 헤드(rapidly rotating camera head)를 사용한다. 하나 이상의 카메라 및 렌즈는 다른 차원이 커버되도록 배열될 수 있다. 예를 들어, 초당 60 프레임의 프레임 레이트를 획득하기 위해, 카메라 헤드는, 예를 들어, 분당 3600 회전수의 최소값으로 회전해야 한다. 카메라 블러(camera blur)를 피하기 위해, 카메라들의 캡처 시간을 매우 짧게 선택해야 할 수 있고, 이는 카메라 센서들이 노출되는 광자 수를 제한하여, 잡음 있는 이미지들을 초래하거나, 장면의 높은 조명을 필요로 하거나, 둘 다를 초래할 수 있다. 다른 구현들은 모든 카메라들 및 렌즈들의 중첩 뷰(overlapping view)가 전체 360도 구체(whole 360 degree sphere)를 캡처하도록 배열되는 많은 카메라들 및 적절한 렌즈들의 사용을 통해 기계적으로 중요한 회전 헤드를 생략할 수 있어, 더 많은 카메라들 및 렌즈들을 요구하는 추가 비용으로 앞서 언급한 문제들을 피할 수 있다. 2가지 개념의 혼합 형태가 또한 가능하다. 기계적 컴포넌트들에 비해 전자-광학 컴포넌트들의 비용이 감소함에 따라, 기계적 360 카메라들로부터 멀티-렌즈 카메라들로 향하는 경향이 있는 것으로 보인다. 또한, 일부 설계들은, 물리 디바이스인 360 카메라가 반드시 어딘가에 장착될 필요가 있고 장착 하드웨어가 뷰어들에게 관심이 제한될 가능성이 있다는 이해에 기초하여, 특정의, 종종 비교적 좁은, 캡처 각도들에서 캡처를 생략한다. 위의 스틸 카메라에서와 같이, 많은 360 가능 카메라(360 capable camera)들은 (동일한 순간에, 또는 회전 헤드의 경우에는 거의 그렇게 캡처된) 이미지들을 함께 기하학적으로 프로젝션하여, 카메라의 360도 뷰를 나타내는 일련의 프로젝션된 이미지들을 형성한다.
구형 캡처 장면(spherical capture scene)을 나타내는 이미지를 평면 표면 상에 프로젝션하는 것은 수세기 동안 알려져 있고 잘 연구된 문제였다. 하나의 잘 알려진 프로젝션은, 예를 들어, 1569년에 소개된 메르카토르(Mercator) 프로젝션인데, 이는 원통형 프로젝션이며 전세계의 많은 지도들에서 여전히 사용되고 있다. 그 이후에, 예를 들어, 정방형 프로젝션, 원뿔 프로젝션, 아이토프(Aitoff) 프로젝션, 해머(Hammer) 프로젝션, 플레이트 캐리(Plate Carree) 프로젝션 등을 포함하는 많은 다른 프로젝션들이 고안되었다. 도 1을 참조하면, 구형 캡처 장면을 평면 표면 상에 매핑하는 데에 적합할 수 있고 360도 비디오 압축의 맥락에서 연구된 (많은 것들 중) 몇 개의 프로젝션이 도시되어 있다. 지구본(101)이 도시되어 있고, 지구본의 평면 지도에 대한 3개의 프로젝션이 있다. 제1 프로젝션은 정방형 프로젝션(102)으로서 알려져 있다. 제2 프로젝션은 정육면체 프로젝션(cubical projection)이고, 지구본의 표면은 각각의 차원에서 90도 변위로 6개의 방향을 나타내는 6개의 정사각형, 평평한, 정사각형 표면 상에 프로젝션된다. 6개의 정사각형은 단일 평면 표면 상에 배열될 수 있어, 정육면체 지도(103)를 초래한다. 여기에 제시된 평면 표면에서의 정육면체의 표면들의 배열은 여러 옵션들 중 하나이다. 마지막으로, 이십면체 프로젝션(icosahedronal projection)은 이십면체(104)의 표면 상에 지구본의 표면을 프로젝션하고(3차원 대칭 기하학적 도면이 20개의 삼각형 평평한 표면으로 구성됨), 이들 20개 삼각형 표면은 단일 평면 표면(105) 상에 배열될 수 있다. 또한, 단일 평면 표면(105) 상에 20개의 삼각형 표면을 공간적 할당하기 위한 많은 합리적인 옵션이 존재한다.
이들, 및 다른 적합한 프로젝션 포맷들은 구형 표면을 평면 표면에 매핑하려고 시도한다. 평면 표현은 반드시 구체의 기하학적 특징들의 수학적으로 정확한 표현일 수는 없고, 오히려 어느 정도의 오류가 있는 근사치이다. 공간적으로, 그 오류가 어디에 위치하고 그것이 얼마나 커질 수 있는지는 프로젝션의 성질(nature)에 의존한다. 예를 들어, 등거리 프로젝션은 적도에서 멀리 떨어진 위도들에서 종방향 거리들을 상당히 과장한다는 것이 잘 알려져 있다. 예를 들어, 등거리 프로젝션된 세계 지도에서, 그린란드 섬은 오스트레일리아 대륙보다 더 크게 묘사되지만, 실제로는 표면적의 약 1/3에 불과하다.
본 개시내용의 양태에 따르면, 디코더에서 코딩된 비디오 시퀀스의 코딩된 이미지 또는 화상을 디코딩하기 위한 방법 - 이미지 또는 화상은 비평면 표면의 평면 표면 상의 프로젝션을 나타내고, 디코더는 역양자화 단계를 이용함 - 은 복수의 제1 블록들 중 적어도 하나의 제1 블록에 관한 적어도 하나의 중간 델타 양자화기 파라미터(quantizer parameter, QP) 값을 획득하는 단계; 제2 블록에 관한 QP 값을 디코딩하는 단계; 델타 QP 값과 QP 값을 조합하여 최종 QP 값을 생성하는 단계; 및 최종 QP 값을 사용하여 제2 블록에 관련된 적어도 하나의 값을 역양자화하는 단계를 포함하고; 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 단일 제1 블록에 포함되는 경우, 델타 QP 값은 단일 제1 블록의 중간 델타 QP 값으로 설정되거나; 또는 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 다수의 제1 블록들에 포함되는 경우, 델타 QP 값은 복수의 제1 블록들 중 다수의 제1 블록들 중 적어도 하나의 제1 블록의 중간 델타 QP 값에 기초하여 설정된다.
본 개시내용의 양태에 따르면, 디바이스는 프로그램 코드를 저장하도록 구성되는 적어도 하나의 메모리; 프로그램 코드를 판독하고 프로그램 코드에 의해 명령된 바와 같이 동작하도록 구성되는 적어도 하나의 프로세서를 포함할 수 있고, 그 동작은, 복수의 제1 블록들 중 적어도 하나의 제1 블록에 관한 적어도 하나의 중간 델타 양자화기 파라미터(QP) 값을 획득하는 것; 제2 블록에 관한 QP 값을 디코딩하는 것; 델타 QP 값과 QP 값을 조합하여 최종 QP 값을 생성하는 것; 및 최종 QP 값을 사용하여 제2 블록에 관련된 적어도 하나의 값을 역양자화하는 것이고; 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 단일 제1 블록에 포함되는 경우, 델타 QP 값은 단일 제1 블록의 중간 델타 QP 값으로 설정되거나; 또는 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 다수의 제1 블록들에 포함되는 경우, 델타 QP 값은 복수의 제1 블록들 중 다수의 제1 블록들 중 적어도 하나의 제1 블록의 중간 델타 QP 값에 기초하여 설정된다.
본 개시내용의 양태에 따르면, 비일시적 컴퓨터 판독가능 매체는 명령어들을 저장할 수 있고, 이 명령어들은, 디바이스의 하나 이상의 프로세서에 의해 실행될 때, 하나 이상의 프로세서로 하여금: 복수의 제1 블록들 중 적어도 하나의 제1 블록에 관한 적어도 하나의 중간 델타 양자화기 파라미터(QP) 값을 획득하게 하고; 제2 블록에 관한 QP 값을 디코딩하게 하고; 델타 QP 값과 QP 값을 조합하여 최종 QP 값을 생성하게 하고; 최종 QP 값을 사용하여 제2 블록에 관련된 적어도 하나의 값을 역양자화하게 하며; 여기서, 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 단일 제1 블록에 포함되는 경우, 델타 QP 값은 단일 제1 블록의 중간 델타 QP 값으로 설정되거나; 또는 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 다수의 제1 블록들에 포함되는 경우, 델타 QP 값은 복수의 제1 블록들 중 다수의 제1 블록들 중 적어도 하나의 제1 블록의 중간 델타 QP 값에 기초하여 설정된다.
개시된 주제의 추가의 특징들, 본질 및 다양한 이점들이 다음의 상세한 설명 및 첨부 도면들로부터 더 명백할 것이다.
도 1은 종래 기술에 따른 몇몇 프로젝션들의 개략도이다.
도 2는 일 실시예에 따른 통신 시스템의 단순화된 블록도의 개략도이다.
도 3은 일 실시예에 따른 통신 시스템의 단순화된 블록도의 개략도이다.
도 4는 360 통신/스트리밍 시스템의 단순화된 블록도의 개략도이다.
도 5는 일 실시예에 따른 디코더의 단순화된 블록도의 개략도이다.
도 6은 일 실시예에 따른 인코더의 단순화된 블록도의 개략도이다.
도 7은 프로젝션들의 개략도이다.
도 8은 티소 인디카트릭스(Tissot Indicatrix)를 갖는 지구 표면의 정방형 프로젝션의 개략도이다.
도 9는 지구 표면의 Kavrayskiy-VII 프로젝션의 개략도이다.
도 10은 일 실시예에 따른 QP 델타 지도를 구성하기 위한 예시적인 프로세스의 흐름도이다.
도 11은 일 실시예에 따른 프로젝션의 상세들의 개략도이다.
도 12는 일 실시예에 따른 지구 표면의 Kavrayskiy-VII 프로젝션에 적절한 델타 QP 지도의 개략도이다.
도 13은 일 실시예에 따른 프로젝션들에 적절한 델타 QP 지도들의 개략도이다.
도 14는 일 실시예에 따른 디코더에서의 샘플들의 재구성의 흐름도이다.
도 15는 최종 QP 값을 생성하고 최종 QP 값을 사용하여 역양자화를 수행하는 흐름도이다.
도 16은 일 실시예에 따른 컴퓨터 시스템의 개략도이다.
삭제
360 비디오 압축 시스템은 360 비디오 시퀀스의 이미지를 평면 화상으로 매핑하기 위해 먼저 프로젝션, 예를 들어, 정방형 프로젝션, 정육면체 프로젝션 등을 사용하여 동작할 수 있고, 그 평면 화상, 또는 그의 시퀀스는 압축을 거칠 수 있다. 평면 이미지들 및 비디오에 대한 압축 기법들은 잘 알려져 있지만, 각각의 샘플의 관련성이 대략 유사한 입력 자료에 대해 최적화된다. 그러나, 프로젝션 단계를 통해 도입된 기하학적 부정확성들 및 오류들은, 평면 표현의 특정 영역들 및 샘플들이 프로젝션된 구체 상의 비교적 더 작은 표면적을 나타낸다는 점에서, 다른 것들보다 덜 관련성이 있도록 평면 이미지를 렌더링한다. (평면 프로젝션 대신에) 구체의 표면을 표현하는 성능을 측정할 때 가장 높은 레이트 왜곡 성능을 얻기 위해, 수정되지 않은 형태에서는 최적이 아니므로 평면 압축 기술에 특정 최적화들이 요구된다. 특히, 양자화기 파라미터는 프로젝션에서 단일 샘플에 의해 표현되는 구체 상의 표면적을 반영하기 위해 특정 방식으로 조정될 필요가 있을 수 있다. 구체 상의 역 프로젝션 후에 동일한 충실도를 유지하기 위해, 프로젝션의 특정 영역들은 더 조대한 양자화(coarser quantization)를 필요로 하고 다른 영역들은 더 미세한 양자화(finer quantization)를 필요로 할 수 있다. 요구되는 양자화기 조정의 양(이후 델타-QP)은 비디오 압축 기술 또는 표준의 특성들과 프로젝션의 기하학적 속성들의 조합으로부터 도출될 수 있다. 코딩된 비디오 비트스트림에서 조정된 QP를 시그널링하는 것이 가능할 수 있다. 그러나, 그러한 시그널링 비용 비트들, 및 그 비트들은, 인코더 및 디코더가, 프로젝션의 특성들의 공통 지식에 기초하여, 요구되는 델타 QP들에 따라 그들의 QP를 조정할 때 세이브될 수 있다(그에 의해 시스템의 레이트-왜곡 성능(rate-distortion performance)을 증가시킴).
삭제
도 2는 본 개시내용의 일 실시예에 따른 통신 시스템(200)의 단순화된 블록도를 예시한다. 통신 시스템(200)은 네트워크(250)를 통해 상호접속되는 적어도 2개의 단말(210-220)을 포함할 수 있다. 데이터의 단방향 송신을 위해, 제1 단말(210)은 네트워크(250)를 통해 다른 단말(220)로 송신하기 위해 로컬 위치에서 비디오 데이터를 코딩할 수 있다. 제2 단말(220)은 네트워크(250)로부터 다른 단말의 코딩된 비디오 데이터를 수신하고, 코딩된 데이터를 디코딩하고 복구된 비디오 데이터를 디스플레이할 수 있다. 단방향 데이터 송신은 미디어 서빙 응용들(media serving applications) 등에서 일반적일 수 있다.
도 2는, 예를 들어, 영상 회의 동안 발생할 수 있는 코딩된 비디오의 양방향 송신을 지원하기 위해 제공되는 제2 쌍의 단말들(230, 240)을 예시한다. 데이터의 양방향 송신을 위해, 각각의 단말(230, 240)은 네트워크(250)를 통해 다른 단말로 송신하기 위해 로컬 위치에서 캡처된 비디오 데이터를 코딩할 수 있다. 각각의 단말(230, 240)은 또한 다른 단말에 의해 송신된 코딩된 비디오 데이터를 수신할 수 있고, 코딩된 데이터를 디코딩할 수 있고, 복구된 비디오 데이터를 로컬 디스플레이 디바이스에서 디스플레이할 수 있다.
도 2에서, 단말들(210-240)은 서버들, 개인용 컴퓨터들 및 스마트폰들로서 예시될 수 있지만, 본 개시내용의 원리들은 그렇게 제한되지 않는다. 본 개시내용의 실시예들은 랩톱 컴퓨터들, 태블릿 컴퓨터들, 미디어 플레이어들 및/또는 전용 영상 회의 장비를 이용한 응용을 찾는다. 네트워크(250)는, 예를 들어, 와이어라인(wireline) 및/또는 무선 통신 네트워크들을 포함하여, 단말들(210-240) 사이에 코딩된 비디오 데이터를 전달하는 임의의 수의 네트워크들을 나타낸다. 통신 네트워크(250)는 회선 교환 및/또는 패킷 교환 채널들에서 데이터를 교환할 수 있다. 대표적인 네트워크들은 통신 네트워크들, 로컬 영역 네트워크들, 광역 네트워크들 및/또는 인터넷을 포함한다. 본 논의의 목적을 위해, 네트워크(250)의 아키텍처 및 토폴로지는 아래에서 본 명세서에서 설명되지 않는 한 본 개시내용의 동작에 중요하지 않을 수 있다.
도 3은, 개시된 주제를 위한 응용의 예로서, 스트리밍 환경에서의 비디오 인코더 및 디코더의 배치를 예시한다. 개시된 주제는, 예를 들어, 영상 회의, 디지털 TV, CD, DVD, 메모리 스틱 등을 포함하는 디지털 미디어 상의 압축된 비디오의 저장 등을 포함하여, 다른 비디오 인에이블 응용들에 동등하게 적용가능할 수 있다.
스트리밍 시스템은, 예를 들어, 압축되지 않은 비디오 샘플 스트림(302)을 생성하는, 비디오 소스(301), 예를 들어 디지털 카메라를 포함할 수 있는 캡처 서브시스템(capture subsystem)(313)을 포함할 수 있다. 인코딩된 비디오 비트스트림들과 비교할 때 많은 데이터 볼륨을 강조하기 위해 굵은 라인으로 묘사된 그 샘플 스트림(302)은 카메라(301)에 결합된 인코더(303)에 의해 처리될 수 있다. 인코더(303)는 아래에서 더 상세히 설명되는 바와 같이 개시된 주제의 양태들을 가능하게 하거나 구현하기 위해 하드웨어, 소프트웨어, 또는 이들의 조합을 포함할 수 있다. 샘플 스트림과 비교할 때 더 적은 데이터 볼륨을 강조하기 위해 얇은 라인으로 묘사된 인코딩된 비디오 비트스트림(304)은 미래의 사용을 위해 스트리밍 서버(305) 상에 저장될 수 있다. 하나 이상의 스트리밍 클라이언트(306, 308)는 스트리밍 서버(305)에 액세스하여 인코딩된 비디오 비트스트림(304)의 사본들(307, 309)을 검색할 수 있다. 클라이언트(306)는 인코딩된 비디오 비트스트림의 착신(incoming) 사본(307)을 디코딩하고 디스플레이(312) 또는 다른 렌더링 디바이스(묘사되지 않음) 상에 렌더링될 수 있는 발신(outgoing) 비디오 샘플 스트림(311)을 생성하는 비디오 디코더(310)를 포함할 수 있다. 일부 스트리밍 시스템들에서, 비디오 비트스트림들(304, 307, 309)은 특정 비디오 코딩/압축 표준들에 따라 인코딩될 수 있다. 해당 표준들의 예들은 ITU-T 권고안(Recommendation) H.265를 포함한다. 다용도 비디오 코딩(Versatile Video Coding) 또는 VVC로서 비공식적으로 알려진 비디오 코딩 표준이 개발 중이다. 개시된 주제는 VVC의 맥락에서 사용될 수 있다.
통신 시스템(200) 또는 도 3의 스트리밍 시스템은 360 비디오의 사용을 가능하게 하도록 확장될 수 있다. 도 4를 참조하면, 이러한 360 시스템의 레이아웃은 다음과 같을 수 있다. 360 비디오 캡처 유닛(401)은 360 가능 비디오 카메라(402) 및 인입하는 360 이미지들(403)을 평면 이미지들(405)로 프로젝션하는 프로젝터(404)를 포함할 수 있다. 360 이미지들(403) 및 평면 이미지들(405)은 코딩된 비디오 시퀀스들(407)과 같은 압축된 신호와 비교할 때 높은 데이터 레이트를 강조하기 위해 굵은 화살표로 묘사되어 있다. 평면 이미지들은, 예를 들어, 프로젝터(404)에 의해 생성되었거나 프로젝터(404)로부터 획득된 프로젝션에 관련된 부가 메타정보를 또한 포함할 수 있는 하나 이상의 코딩된 비디오 시퀀스(407)로 평면 인코더(406)에 의해 변환될 수 있다. 코딩된 비디오 시퀀스들(407)은 네트워크(묘사되지 않음)를 통해 디코더/렌더러에 직접 포워딩될 수 있거나, 스트리밍 서버(408) 상에 저장될 수 있다. 스트리밍 서버(408)는 코딩된 비디오 시퀀스들을 360 비디오 가능 엔드포인트(409)에 직접 스트리밍할 수 있고, 360 비디오 가능 엔드포인트(409)는 (평면) 디코더(410) 및 디프로젝터(411)를 포함할 수 있다. 디프로젝터(411)는, 예를 들어, 프로젝터(404)에 의해 도입되는 프로젝션을 역으로 하여, 바람직하게는 가상 현실 고글(묘사되지 않음), 의사-3D 가능 스크린(pseudo-3D capable screen)(412) 등과 같은 디바이스에 의한 디스플레이에 적합한 하나 이상의 이미지 시퀀스를 형성할 수 있다. 디프로젝터는 사용자가 뷰잉 각도, 뷰포인트 등을 선택할 수 있게 하는 사용자 인터페이스(묘사되지 않음)에 의해 제어될 수 있다. 이 데이터 흐름은 프로젝터(404) 및 인코더(406)에 의해 프로젝션되고 압축된 바와 같은 전체 360 비디오 제시를 360 가능 엔드포인트(409)에 스트리밍되도록 요구할 수 있다.
대안으로서 또는 추가로, 일부 경우에 수신 엔드포인트는 전체 360도 장면을 재구성하는 데 필요한 모든 데이터의 디코딩, 또는 역 프로젝션을 수행하기 위해 접속성(connectivity) 또는 계산 자원들을 갖지 않을 수 있다. 이러한 경우에, 전통적인(비-360 가능) 엔드포인트(413)는 네트워크에 위치한 360 프로세서(415)에 뷰포인트에 관련된, 예를 들어, 사용자 인터페이스로부터 획득된, 메타 정보(414)를 전송할 수 있다. 360 프로세서는 획득된 메타 정보에 기초하여 360 가능 엔드포인트의 태스크들을 수행하고, 이후 전통적인 엔드포인트(413)에 의한 소비를 위해 렌더링된 평면 비디오(416)를 전통적인(평면 최적화된) 인코더에서 재-인코딩할 수 있다. 이러한 시나리오에서, 360 장면의 계산적으로 과중한 디코딩 및 역 프로젝션은 360 프로세서(415)와 같은 클라우드-기반 자원들로 오프로드(offload)될 수 있다. 설명된 바와 같이, 360 프로세서는 압축해제(decompression) 및 압축 메커니즘들 둘 다를 갖는다는 점에서 트랜스코더(transcoder)로서 작동할 수 있다.
일부 경우들에서, 360 데이터의 일부는, 적절히 형성되고 적절하게 마킹될 때, 선택적 포워딩 유닛(Selective Forwarding Unit, SFU)에 의해 제거될 수 있다. 예를 들어, 프로젝션 포맷이 정육면체 프로젝션이면, 임의의 주어진 뷰포인트에 대해, 6개의 평면 정사각형 표현 중 적어도 3개 및 최대 5개는 렌더링을 위해 요구되지 않는다(불투명 소스 구체가 가정됨). 예를 들어, 360 프로세서(415)가 사용하고 있는 것과 같은 메타데이터를 수신하였기 때문에, 뷰포인트를 인식하는 적절히 구성된 SFU는, 비트스트림이 예를 들어, 슬라이스들, 타일들, 계층들, 뷰들 등의 사용을 통해 적절히 형성된다고 가정하여, 불필요한 360 데이터를 포워딩하는 것을 생략할 수 있다. 그러한 SFU는 전체 트랜스코더가 요구할 수 있는 신호 처리 기술들 중 일부를 포함하지 않는 경량 트랜스코더(lightweight transcoder)로서 간주될 수 있다.
도 5는 본 발명의 일 실시예에 따른 비디오 디코더(310)의 기능 블록도일 수 있다.
수신기(510)가 디코더(310)에 의해 디코딩될 하나 이상의 코덱 비디오 시퀀스를 수신할 수 있다; 동일한 또는 다른 실시예에서, 한 번에 하나의 코딩된 비디오 시퀀스를 수신할 수 있으며, 여기서 각각의 코딩된 비디오 시퀀스의 디코딩은 다른 코딩된 비디오 시퀀스들과 독립적이다. 코딩된 비디오 시퀀스는, 인코딩된 비디오 데이터를 저장하는 저장 디바이스에 대한 하드웨어/소프트웨어 링크일 수 있는, 채널(512)로부터 수신될 수 있다. 수신기(510)는 인코딩된 비디오 데이터를 다른 데이터, 예를 들어, 코딩된 오디오 데이터 및/또는 보조 데이터 스트림들과 함께 수신할 수 있고, 이들은 그것들 각자의 사용 엔티티들(묘사되지 않음)에 포워딩될 수 있다. 수신기(510)는 코딩된 비디오 시퀀스를 다른 데이터로부터 분리할 수 있다. 네트워크 지터를 방지하기 위해, 수신기(510)와 엔트로피 디코더/파서(520)(이후 "파서") 사이에 버퍼 메모리(515)가 결합될 수 있다. 수신기(510)가 충분한 대역폭 및 제어가능성의 저장/포워드 디바이스로부터, 또는 등시 동기식 네트워크(isosynchronous network)로부터 데이터를 수신하고 있을 때, 버퍼(515)는 필요하지 않을 수 있거나, 작을 수 있다. 인터넷과 같은 최선 노력 패킷 네트워크들 상에서의 사용을 위해, 버퍼(515)는 요구될 수 있고, 비교적 클 수 있고, 유리하게는 적응적 크기로 될 수 있다.
비디오 디코더(310)는 엔트로피 코딩된 비디오 시퀀스로부터 심볼들(521)을 재구성하기 위해 파서(520)를 포함할 수 있다. 해당 심볼들의 카테고리들은 디코더(310)의 동작을 관리하기 위해 사용되는 정보, 및 잠재적으로, 도 3에 도시된 바와 같이, 디코더의 일체 부분(integral part)은 아니지만 디코더에 결합될 수 있는 디스플레이(312)와 같은 렌더링 디바이스를 제어하기 위한 정보를 포함한다. 렌더링 디바이스(들)에 대한 제어 정보는 보충 증강 정보(Supplementary Enhancement Information)(SEI 메시지들) 또는 비디오 사용성 정보(Video Usability Information)(VUI) 파라미터 세트 프래그먼트들(묘사되지 않음)의 형태로 될 수 있다. 파서(520)는 수신되는 코딩된 비디오 시퀀스를 파싱/엔트로피 디코딩할 수 있다. 코딩된 비디오 시퀀스의 코딩은 비디오 코딩 기술 또는 표준에 따를 수 있고, 가변 길이 코딩, 허프만 코딩(Huffman coding), 맥락 민감성(context sensitivity)을 갖거나 갖지 않는 산술 코딩 등을 포함하는, 본 기술분야의 통상의 기술자에게 잘 알려진 원리들을 따를 수 있다. 파서(520)는, 코딩된 비디오 시퀀스로부터, 그룹에 대응하는 적어도 하나의 파라미터에 기초하여, 비디오 디코더 내의 픽셀들의 서브그룹들 중 적어도 하나에 대한 서브그룹 파라미터들의 세트를 추출할 수 있다. 서브그룹들은 화상 그룹들(Groups of Pictures, GOPs), 화상들, 타일들, 슬라이스들, 매크로블록들, 코딩 유닛들(Coding Units, CUs), 블록들, 변환 유닛들(Transform Units, TUs), 예측 유닛들(Prediction Units, PUs) 등을 포함할 수 있다. 엔트로피 디코더/파서는 또한 코딩된 비디오 시퀀스로부터 변환 계수들, 양자화기 파라미터 값들, 움직임 벡터들 등과 같은 정보를 추출할 수 있다.
파서(520)는 버퍼(515)로부터 수신된 비디오 시퀀스에 대해 엔트로피 디코딩/파싱 동작을 수행하여, 심볼들(521)을 생성할 수 있다. 파서(520)는 인코딩된 데이터를 수신하고, 특정 심볼들(521)을 선택적으로 디코딩할 수 있다. 또한, 파서(520)는 특정 심볼들(521)이 움직임 보상 예측 유닛(553)에 제공될 것인지, 스케일러/역변환 유닛(551)에 제공될 것인지, 인트라 예측 유닛(552)에 제공될 것인지, 또는 루프 필터(556)에 제공될 것인지를 결정할 수 있다.
심볼들(521)의 재구성은 코딩된 비디오 화상 또는 그것의 부분들의 타입(예컨대: 인터 및 인트라 화상, 인터 및 인트라 블록), 및 다른 인자들에 의존하여 다수의 상이한 유닛들을 수반할 수 있다. 어느 유닛들이 수반되는지, 그리고 어떻게 되는지는 파서(520)에 의해 코딩된 비디오 시퀀스로부터 파싱된 서브그룹 제어 정보에 의해 제어될 수 있다. 파서(520)와 아래의 다수의 유닛 사이의 그러한 서브그룹 제어 정보의 흐름은 명확성을 위해 묘사되어 있지 않다.
이미 언급된 기능 블록들 이외에, 디코더(310)는 아래에 설명되는 바와 같이 개념적으로 다수의 기능 유닛으로 세분될 수 있다. 상업적 제약 하에서 동작하는 실제 구현에서, 이들 유닛 중 다수는 서로 밀접하게 상호작용하고, 적어도 부분적으로 서로 통합될 수 있다. 그러나, 개시된 주제를 설명하기 위해, 아래의 기능 유닛들로의 개념적 세분이 적절하다.
제1 유닛은 스케일러/역변환 유닛(551)이다. 스케일러/역변환 유닛(551)은, 파서(520)로부터의 심볼(들)(521)로서, 어느 변환을 사용할지, 블록 크기, 양자화 인자, 양자화 스케일링 행렬들(quantization scaling matrices) 등을 포함하여, 제어 정보뿐만 아니라 양자화된 변환 계수를 수신한다. 그것은 집계기(aggregator)(555)에 입력될 수 있는 샘플 값들을 포함하는 블록들을 출력할 수 있다.
일부 경우들에서, 스케일러/역변환(551)의 출력 샘플들은 인트라 코딩된 블록에 관련될 수 있다; 즉, 이전에 재구성된 화상들로부터의 예측 정보를 사용하는 것이 아니고, 현재 화상의 이전에 재구성된 부분들로부터의 예측 정보를 사용할 수 있는 블록에 관련될 수 있다. 그러한 예측 정보는 인트라 화상 예측 유닛(552)에 의해 제공될 수 있다. 일부 경우들에서, 인트라 화상 예측 유닛(552)은 현재 (부분적으로 재구성된) 화상(558)으로부터 페치된 주위의 이미 재구성된 정보를 사용하여, 재구성 중인 블록의 동일한 크기 및 형상의 블록을 생성한다. 집계기(555)는, 일부 경우들에서, 샘플당 기준으로, 인트라 예측 유닛(552)이 생성한 예측 정보를 스케일러/역변환 유닛(551)에 의해 제공된 출력 샘플 정보에 추가한다.
다른 경우들에서, 스케일러/역변환 유닛(551)의 출력 샘플들은 인터 코딩되고, 잠재적으로 움직임 보상된 블록에 관련될 수 있다. 그러한 경우에, 움직임 보상 예측 유닛(553)은 참조 화상 메모리(557)에 액세스하여 예측에 사용되는 샘플들을 페치할 수 있다. 블록에 관련된 심볼들(521)에 따라 페치된 샘플들을 움직임 보상한 후에, 이들 샘플은 집계기(555)에 의해 스케일러/역변환 유닛의 출력(이 경우 잔차 샘플들 또는 잔차 신호라고 불림)에 추가되어 출력 샘플 정보를 생성할 수 있다. 움직임 보상 유닛이 예측 샘플들을 페치하는 참조 화상 메모리 내의 어드레스들은, 예를 들어 X, Y, 및 참조 화상 컴포넌트들을 가질 수 있는 심볼들(521)의 형태로 움직임 보상 유닛에 이용가능한 움직임 벡터들에 의해 제어될 수 있다. 움직임 보상은 또한 서브샘플 정확한 움직임 벡터들이 사용 중일 때 참조 화상 메모리로부터 페치된 샘플 값들의 보간, 움직임 벡터 예측 메커니즘 등을 포함할 수 있다.
집계기(555)의 출력 샘플들에 대해 루프 필터 유닛(556) 내의 다양한 루프 필터링 기법들이 수행될 수 있다. 비디오 압축 기술들은, 파서(520)로부터의 심볼들(521)로서 루프 필터 유닛(556)에 이용가능하게 되고 코딩된 비디오 비트스트림에 포함된 파라미터들에 의해 제어되지만, 코딩된 화상 또는 코딩된 비디오 시퀀스의 이전(디코딩 순서로) 부분들의 디코딩 동안 획득된 메타-정보에 응답할 뿐만 아니라, 이전에 재구성된 및 루프-필터링된 샘플 값들에 응답할 수도 있는 인-루프 필터(in-loop filter) 기술들을 포함할 수 있다.
루프 필터 유닛(556)의 출력은 렌더링 디바이스(312)에 출력될 뿐만 아니라 미래의 인터-화상 예측에서 사용하기 위해 참조 화상 메모리(557)에 저장될 수도 있는 샘플 스트림일 수 있다.
특정 코딩된 화상들은, 완전히 재구성되면, 미래 예측을 위한 참조 화상들로서 사용될 수 있다. 코딩된 화상이 완전히 재구성되고 코딩된 화상이 참조 화상으로서 식별되면(예를 들어, 파서(520)에 의해), 현재 참조 화상(558)은 참조 화상 버퍼(557)의 일부가 될 수 있고, 다음의 코딩된 화상의 재구성을 개시하기 전에 새로운(fresh) 현재 화상 메모리가 재할당될 수 있다.
비디오 디코더(310)는 ITU-T Rec. H.265와 같은 표준에 문서화될 수 있는 미리 결정된 비디오 압축 기술에 따라 디코딩 동작들을 수행할 수 있다. 코딩된 비디오 시퀀스는, 비디오 압축 기술 문서 또는 표준에서 그리고 구체적으로 그 내부의 프로파일 문서에서 특정된 바와 같은, 비디오 압축 기술 또는 표준의 구문을 고수한다는 점에서, 사용 중인 비디오 압축 기술 또는 표준에 의해 특정된 구문을 따를 수 있다. 또한 준수를 위해 필요한 것은 코딩된 비디오 시퀀스의 복잡성이 비디오 압축 기술 또는 표준의 레벨에 의해 정의된 경계 내에 있는 것일 수 있다. 일부 경우들에서, 레벨들은 최대 화상 크기, 최대 프레임 레이트, 최대 재구성 샘플 레이트(예를 들어, 초당 메가샘플수로 측정됨), 최대 참조 화상 크기 등을 제한한다. 레벨들에 의해 설정된 한계들은, 일부 경우들에서, HRD(Hypothetical Reference Decoder) 사양들 및 코딩된 비디오 시퀀스에서 시그널링된 HRD 버퍼 관리를 위한 메타데이터를 통해 추가로 제한될 수 있다.
일 실시예에서, 수신기(510)는 인코딩된 비디오와 함께 추가적인(중복) 데이터를 수신할 수 있다. 이 추가적인 데이터는 코딩된 비디오 시퀀스(들)의 일부로서 포함될 수 있다. 이 추가적인 데이터는 데이터를 적절히 디코딩하고/하거나 원래의 비디오 데이터를 더 정확하게 재구성하기 위해 비디오 디코더(310)에 의해 사용될 수 있다. 추가적인 데이터는 예를 들어, 시간, 공간, 또는 신호 대 잡음비(SNR) 향상 계층들, 중복 슬라이스들, 중복 화상들, 순방향 오류 정정 코드들 등의 형태로 될 수 있다.
도 6은 본 개시내용의 일 실시예에 따른 비디오 인코더(303)의 기능 블록도일 수 있다.
인코더(303)는 인코더(303)에 의해 코딩될 비디오 이미지(들)를 캡처할 수 있는 비디오 소스(301)(인코더의 일부가 아님)로부터 비디오 샘플들을 수신할 수 있다.
비디오 소스(301)는, 임의의 적합한 비트 심도(예를 들어: 8 비트, 10 비트, 12 비트, …), 임의의 색공간(예를 들어, BT.601 Y CrCB, RGB, …), 및 임의의 적합한 샘플링 구조(예를 들어, Y CrCb 4:2:0, Y CrCb 4:4:4)일 수 있는 디지털 비디오 샘플 스트림의 형태로 비디오 인코더(303)에 의해 코딩될 소스 비디오 시퀀스를 제공할 수 있다. 미디어 서빙 시스템에서, 비디오 소스(301)는 이전에 준비된 비디오를 저장하는 저장 디바이스일 수 있다. 영상 회의 시스템에서, 비디오 소스(303)는 비디오 시퀀스로서 로컬 이미지 정보를 캡처하는 카메라일 수 있다. 비디오 데이터는 순차적으로 볼 때 움직임을 부여하는 복수의 개별 화상으로서 제공될 수 있다. 화상들 자체는 픽셀들의 공간 어레이로서 조직될 수 있고, 여기서 각각의 픽셀은 사용 중인 샘플링 구조, 색 공간 등에 의존하여 하나 이상의 샘플을 포함할 수 있다. 본 기술분야의 통상의 기술자는 픽셀들과 샘플들 사이의 관계를 쉽게 이해할 수 있다. 아래의 설명은 샘플들에 초점을 맞춘다.
일 실시예에 따르면, 인코더(303)는 소스 비디오 시퀀스의 화상들을 실시간으로 또는 응용에 의해 요구되는 임의의 다른 시간 제약들 하에서 코딩된 비디오 시퀀스(643)로 코딩 및 압축할 수 있다. 적절한 코딩 속도를 시행하는 것이 제어기(650)의 하나의 기능이다. 제어기는 아래에 설명되는 바와 같이 다른 기능 유닛들을 제어하고 이들 유닛들에 기능적으로 결합된다. 결합은 명확성을 위해 묘사되어 있지 않다. 제어기에 의해 설정된 파라미터들은 레이트 제어 관련 파라미터들(화상 스킵, 양자화기, 레이트-왜곡 최적화 기법들의 람다 값, …), 화상 크기, 화상 그룹(GOP) 레이아웃, 최대 움직임 벡터 검색 범위 등을 포함할 수 있다. 본 기술분야의 통상의 기술자는 제어기(650)의 다른 기능들을 쉽게 식별할 수 있는데 그 이유는 그것들이 특정 시스템 설계에 대해 최적화된 비디오 인코더(303)에 관련될 수 있기 때문이다.
일부 비디오 인코더들은 본 기술분야의 통상의 기술자가 "코딩 루프"로서 쉽게 인식하는 것에서 동작한다. 과도하게 단순화된 설명으로서, 코딩 루프는, (코딩될 입력 화상, 및 참조 화상(들)에 기초하여 심볼들을 생성하는 것을 담당하는) 인코더(630)(이후 "소스 코더")의 인코딩 부분, 및 (심볼들과 코딩된 비디오 비트스트림 사이의 임의의 압축이 개시된 주제에서 고려되는 비디오 압축 기술들에서 무손실이기 때문에) (원격) 디코더가 또한 생성할 샘플 데이터를 생성하기 위해 심볼들을 재구성하는 인코더(303)에 임베드된 (로컬) 디코더(633)로 구성될 수 있다. 그 재구성된 샘플 스트림은 참조 화상 메모리(634)에 입력된다. 심볼 스트림의 디코딩이 디코더 위치(로컬 또는 원격)와는 독립적으로 비트-정확한(bit-exact) 결과들을 야기하기 때문에, 참조 화상 버퍼 콘텐츠도 또한 로컬 인코더와 원격 인코더 사이에서 비트 정확하다. 다시 말해서, 인코더의 예측 부분은 디코딩 동안 예측을 사용할 때 디코더가 "보는" 것과 정확히 동일한 샘플 값들을 참조 화상 샘플로서 "본다". 참조 화상 동기성(reference picture synchronicity)의 이러한 기본적인 원리(그리고 예를 들어, 채널 오류들 때문에 동기성이 유지될 수 없는 경우, 결과적인 드리프트)는 본 기술분야의 통상의 기술자에게 잘 알려져 있다.
"로컬" 디코더(633)의 동작은 도 5와 관련하여 위에서 이미 상세히 설명된 "원격" 디코더(310)와 동일할 수 있다. 그러나, 도 5를 또한 간단히 참조하면, 심볼들이 이용가능하고 엔트로피 코더(645) 및 파서(520)에 의한 코딩된 비디오 시퀀스로의 심볼들의 인코딩/디코딩이 무손실일 수 있기 때문에, 채널(512), 수신기(510), 버퍼(515), 및 파서(520)를 포함하는, 디코더(310)의 엔트로피 디코딩 부분들은 로컬 디코더(633)에서 완전히 구현되지 않을 수 있다.
이 시점에서 이루어질 수 있는 관찰은, 디코더에 존재하는 파싱/엔트로피 디코딩을 제외한 임의의 디코더 기술이 또한 필연적으로, 대응하는 인코더에서, 실질적으로 동일한 기능 형식으로 존재할 필요가 있다는 점이다. 인코더 기술들은 포괄적으로 설명된 디코더 기술들의 역이기 때문에 그것들에 대한 설명은 축약될 수 있다. 특정 영역들에서만 더 상세한 설명이 요구되고 아래에 제공된다.
동작의 일부로서, 소스 코더(630)는, "참조 프레임들"로서 지정된 비디오 시퀀스로부터의 하나 이상의 이전에 코딩된 프레임을 참조하여 예측적으로 입력 프레임을 코딩하는, 움직임 보상된 예측 코딩을 수행할 수 있다. 이러한 방식으로, 코딩 엔진(632)은 입력 프레임의 픽셀 블록들과 입력 프레임에 대한 예측 참조(들)로서 선택될 수 있는 참조 프레임(들)의 픽셀 블록들 사이의 차이들을 코딩한다.
로컬 비디오 디코더(633)는, 소스 코더(630)에 의해 생성된 심볼들에 기초하여, 참조 프레임들로서 지정될 수 있는 프레임들의 코딩된 비디오 데이터를 디코딩할 수 있다. 코딩 엔진(632)의 동작들은 유리하게는 손실 프로세스들일 수 있다. 코딩된 비디오 데이터가 비디오 디코더(도 6에 도시되지 않음)에서 디코딩될 수 있는 경우, 재구성된 비디오 시퀀스는 전형적으로 일부 오류들을 갖는 소스 비디오 시퀀스의 복제본(replica)일 수 있다. 로컬 비디오 디코더(633)는 참조 프레임들에 대해 비디오 디코더에 의해 수행될 수 있는 디코딩 프로세스들을 복제하고 재구성된 참조 프레임들이 참조 화상 캐시(634)에 저장되게 할 수 있다. 이러한 방식으로, 인코더(303)는 (송신 오류들이 없이) 원단(far-end) 비디오 디코더에 의해 획득될 재구성된 참조 프레임들로서 공통 콘텐츠를 갖는 재구성된 참조 프레임들의 사본들을 로컬로 저장할 수 있다.
예측기(635)는 코딩 엔진(632)에 대한 예측 검색들을 수행할 수 있다. 즉, 코딩될 새로운 프레임에 대해, 예측기(635)는 새로운 화상들에 대한 적절한 예측 참조로서 역할을 할 수 있는 참조 화상 움직임 벡터들, 블록 형상들 등과 같은 특정 메타데이터 또는 샘플 데이터(후보 참조 픽셀 블록들로서)에 대해 참조 화상 메모리(634)를 검색할 수 있다. 예측기(635)는 적절한 예측 참조들을 찾기 위해 샘플 블록-바이-픽셀 블록(sample block-by-pixel block) 기준으로 동작할 수 있다. 일부 경우들에서, 예측기(635)에 의해 획득된 검색 결과들에 의해 결정된 바와 같이, 입력 화상은 참조 화상 메모리(634)에 저장된 다수의 참조 화상으로부터 인출된 예측 참조들을 가질 수 있다.
제어기(650)는, 예를 들어, 비디오 데이터를 인코딩하기 위해 사용되는 파라미터들 및 서브그룹 파라미터들의 설정을 포함하여, 비디오 코더(630)의 코딩 동작을 관리할 수 있다.
전술한 모든 기능 유닛들의 출력은 엔트로피 코더(645)에서 엔트로피 코딩을 거칠 수 있다. 엔트로피 코더는 다양한 기능 유닛들에 의해 생성된 심볼들을, 예를 들어, 허프만 코딩, 가변 길이 코딩, 산술 코딩 등과 같은 본 기술분야의 통상의 기술자에게 알려진 기술들에 따라 심볼들을 무손실 압축함으로써, 코딩된 비디오 시퀀스로 변환한다.
송신기(640)는, 인코딩된 비디오 데이터를 저장하는 저장 디바이스에 대한 하드웨어/소프트웨어 링크일 수 있는, 통신 채널(660)을 통한 송신을 준비하기 위해 엔트로피 코더(645)에 의해 생성된 코딩된 비디오 시퀀스(들)를 버퍼링할 수 있다. 송신기(640)는 비디오 코더(630)로부터의 코딩된 비디오 데이터를 송신될 다른 데이터, 예를 들어, 코딩된 오디오 데이터 및/또는 보조 데이터 스트림(소스들이 도시되지 않음)과 병합할 수 있다.
제어기(650)는 인코더(303)의 동작을 관리할 수 있다. 코딩 동안, 제어기(650)는, 각자의 화상에 적용될 수 있는 코딩 기법들에 영향을 미칠 수 있는, 특정 코딩된 화상 타입을 각각의 코딩된 화상에 할당할 수 있다. 예를 들어, 화상들은 종종 다음 프레임 타입들 중 하나로서 할당될 수 있다:
인트라 화상(Intra Picture)(I 화상)은 예측의 소스로서 시퀀스 내의 임의의 다른 프레임을 사용하지 않고 코딩되고 디코딩될 수 있는 것일 수 있다. 일부 비디오 코덱들은, 예를 들어, 독립 디코더 리프레시(Independent Decoder Refresh) 화상들을 포함하는, 상이한 타입들의 인트라 화상들을 허용한다. 본 기술분야의 통상의 기술자는 I 화상들의 해당 변형들 및 그것들 각자의 응용들 및 특징들을 인식한다.
예측 화상(Predictive picture)(P 화상)은 각각의 블록의 샘플 값들을 예측하기 위해 많아야 하나의 움직임 벡터 및 참조 인덱스를 사용하여 인트라 예측 또는 인터 예측을 사용하여 코딩되고 디코딩될 수 있는 것일 수 있다.
양방향 예측 화상(Bi-directionally Predictive Picture)(B 화상)은 각각의 블록의 샘플 값들을 예측하기 위해 많아야 2개의 움직임 벡터 및 참조 인덱스를 사용하여 인트라 예측 또는 인터 예측을 사용하여 코딩되고 디코딩될 수 있는 것일 수 있다. 유사하게, 다중-예측 화상들은 단일 블록의 재구성을 위해 2개보다 많은 참조 화상 및 연관된 메타데이터를 사용할 수 있다.
소스 화상들은 일반적으로 복수의 샘플 블록(예를 들어, 각각 4x4, 8x8, 4x8, 또는 16x16 샘플들의 블록들)으로 공간적으로 세분되고 블록-바이-블록(block-by-block) 기준으로 코딩될 수 있다. 블록들은 블록들의 각자의 화상들에 적용되는 코딩 할당에 의해 결정된 다른(이미 코딩된) 블록들을 참조하여 예측적으로 코딩될 수 있다. 예를 들어, I 화상들의 블록들은 비예측적으로 코딩될 수 있거나 그것들은 동일한 화상의 이미 코딩된 블록들을 참조하여 예측적으로 코딩될 수 있다(공간 예측 또는 인트라 예측). P 화상의 픽셀 블록들은, 하나의 이전에 코딩된 참조 화상을 참조하여 공간 예측을 통해 또는 시간 예측을 통해, 비예측적으로 코딩될 수 있다. B 화상들의 블록들은, 하나 또는 2개의 이전에 코딩된 참조 화상을 참조하여 공간 예측을 통해 또는 시간 예측을 통해, 비예측적으로 코딩될 수 있다.
비디오 코더(303)는 ITU-T Rec. H.265와 같은 미리 결정된 비디오 코딩 기술 또는 표준에 따라 코딩 동작들을 수행할 수 있다. 그것의 동작 중에, 비디오 코더(303)는, 입력 비디오 시퀀스에서 시간 및 공간 중복성을 이용하는 예측 코딩 동작들을 포함하여, 다양한 압축 동작들을 수행할 수 있다. 따라서, 코딩된 비디오 데이터는 사용 중인 비디오 코딩 기술 또는 표준에 의해 특정된 구문을 따를 수 있다.
일 실시예에서, 송신기(640)는 인코딩된 비디오와 함께 추가적인 데이터를 송신할 수 있다. 비디오 코더(630)는 코딩된 비디오 시퀀스의 일부로서 그러한 데이터를 포함할 수 있다. 추가적인 데이터는 시간/공간/SNR 향상 계층들, 중복 화상들 및 슬라이스들과 같은 다른 형태들의 중복 데이터, SEI(Supplementary Enhancement Information) 메시지들, VUI(Visual Usability Information) 파라미터 세트 프래그먼트들 등을 포함할 수 있다.
평면 비디오 소스로부터 샘플들을 코딩 또는 디코딩할 때, 모든 샘플들은 카메라의 뷰포인트로부터 측정되는 바와 같이, 충분한 거리에서 캡처 축과 수직인 프로젝션면(projection plane)의 대략 동일한 각도 간격(angular interval)을 나타낼 수 있다. 도 7을 참조하면, 예로서, 카메라(705)에 의해 캡처되는, 샘플(702, 703, 704)로 분할되는, 프로젝션된 표면(701)의 수직 차원을 고려한다. 샘플 크기들은 비율에 맞지 않게 그려져 있으며; 실제 시스템에서, 카메라의 수직 해상도는 720, 1080, 또는 더 많은 샘플들일 수 있고, 3개만이 아니다. 샘플들을 나타내는 각도 간격(706, 708)이 대략 동일하다는 것이 관찰될 수 있다. 장면이 합리적으로 평평하고 캡처 축(709)에 대략 수직이라고 가정하면, 샘플들(702, 703, 704)은 또한 대략 동일한 크기로 되어 있다. 이 관계는 포토그래피의 출현 이후 알려졌고, 장면의 크기와 관련하여 캡처되는 장면에 대한 카메라의 가까운 거리와 같은, 광학 보정을 요구하는 상황들 하에서도, 이 관계를 만들기 위해 카메라용 렌즈들을 가능한 한 가깝게 설계할 수 있다.
여전히 도 7을 참조하면, 이제, 하나의 차원만이 묘사된 정방형 프로젝션의 단순화된 표현을 사용하여 구체(710)(구체의 1/4만이 묘사됨)인 장면의 캡처를 고려한다. 캡처 축(711)이 구체의 적도(묘사되지 않음)에 수직이라고 가정한다. 동일한 각도 폭(묘사되지 않음)을 갖는 3개의 샘플(713, 714, 715)이 도시되어 있다. 직관적으로, 적도에 가까운 샘플들은 극 영역들을 묘사하는 것을 담당하는 샘플들보다 구체의 상당히 작은 표면적을 나타낸다는 것이 분명해 보인다. 예를 들어, 구체의 최북단 위도를 나타내는 샘플(715)을 고려한다. 분할기들(716, 717)을 통해 도시된 그것의 관련된 표면적은 샘플(713)에 관련된 표면적보다 상당히 더 크다.
위의 예가 극단적인 것으로 보일 수 있지만, 실제 응용들을 위해, 구체 상에서 측정되는 바와 같은 표면적에 의해 보증되는 것보다 몇 배 더 큰 특정 극 영역들을 묘사하는 일반적으로 사용되는 프로젝션들이 존재한다는 점에 유의해야 한다. "그린란드/오스트레일리아" 예는 위의 내용을 참조한다.
도 8은 지구 표면의 정방형 프로젝션(801)을 도시한다. 잘 알려진 티소의 인디카트릭스의 예가 도시되어 있다. 지도 상에 중첩된 각각의 타원(802, 803, 804)은 지구본 상의 원형 표면적을 나타낸다. 프로젝션은 동일한 샘플 크기를 갖는 샘플 지도로 표현된다고 가정한다. 명확하게, 적도에서 멀리 떨어진 지역들, 예를 들어, 타원(804)으로 나타낸 지역에서는, 예를 들어, 적도 상의 타원(802)보다 프로젝션 내의 더 많은 표면적, 및 따라서 더 많은 샘플들이 지구본의 표면 상의 동일한 영역을 나타낸다.
도 9는 프로젝션의 다른 예, 즉, 티소 인디카트릭스로 다시 오버레이된 지구 표면의 Kavrayskiy-VII 프로젝션(901)을 도시한다. 그것은 또한 몇몇 위도 및 경도 "라인들", 더욱 구체적으로는, 각각 일정한 위도 또는 경도의 라인들을 포함한다. 지구본의 표면 상에서, 라인들 각각은 직각으로 다른 라인들과 만나고, 각각의 만나는 지점 사이의 표면 거리는 동일한 것으로 가정된다. 그러나, 프로젝션에서, 특히 특정 극 지역들은 물론 자오선(meridian)으로부터 멀리 떨어진 지역에서, "정사각형" 표면적들은 비-정사각형 영역들로 표현된다. 북부 중앙 아프리카를 커버하는 표면적(902)을 고려한다. 적도와 자오선 둘 다에 가까운 경우, 그것은 (정확하지는 않지만) 대략적으로 정사각형으로 표현된다. 극단적인 반례로서, 알래스카의 대부분을 커버하는 표면적(903)을 고려한다. 이 (지구본 상에서, 대략적으로 정사각형) 표면적의 형상은 극도로 왜곡된다. 이것은 도 11에 예시되어 있다. 북서 반구의 작은 부분(903)만을 묘사한 도 9의 프로젝션의 발췌가 도시되어 있으며; 그 안에 샘플 블록(905)이 있다. 표면적(1102)의 형상은 지구본 상의 표면적의 근접 근사(close approximation)인 정사각형 표면(1104)으로 역방향-프로젝션(1103)될 수 있다. 도면의 하단에는, 동일한 표면적(903) 및 블록(905)이 위에 도시된 바와 같이 프로젝션된다. (프로젝션 상에서 정사각형) 블록(1105)의 비-정사각형, 왜곡된 기하구조에 유의한다. 또한, 왜곡된 블록(1105)에 대한 블록(905)의 역방향-프로젝션은 영역(903)을 사각형(quadrangle)으로 단순화하는 단순화(simplification)라는 점에 유의한다. 프로젝션 내의 표면적의 에지들(1106, 1107)의 곡선 성질을 고려한다면, 블록(1105)은 훨씬 더 왜곡될 것이다.
압축에 사용되는 평면 이미지 상으로의 구형 장면의 프로젝션으로 인해, 그 이미지의 특정 샘플들이 구형 장면의 상당히 더 많은 표면적 또는 각도 폭을 나타낸다면, 그러한 샘플들은 압축해제 및 디-프로젝션 후 구형 장면의 충실한 재현에 더 적절해진다. 유사하게, 예를 들어, 정방형 프로젝션을 사용할 때, 구체의 적도 지역들을 묘사하는 샘플들은 비교적 작은 표면적을 커버할 수 있고, 이는 그것들이 구형 장면의 충실한 재현에 비교적 덜 적절하게 만든다. 평면 이미지들 및 비디오들에 최적화된 전통적인 이미지 및 비디오 코덱들은 이러한 불균등을 반드시 해결하지는 않는다.
해야 할 하나의 관찰은, 평면 인코더가 사용중인 프로젝션의 성질 및 속성들에 관한 정보를 잘 가질 수 있다는 것이다. 또한, 실제 시스템 설계에서, 이 정보는 예를 들어, 비트스트림을 통해 디-프로젝터(de-projector)에도 알려질 필요가 있다. 이러한 정보가 없다면, 디-프로젝터가 평면 디코더에 의해 생성된 샘플 스트림에서 의미있게 동작하지 못할 수 있다. 인코더 및 디코더 시스템들 둘 다가 (디-프로젝터가 프로젝터에 의해 생성된 바와 같은 장면을 역-프로젝션할 수 있도록 전송 시스템으로부터 수신 시스템으로 반드시 송신되어야 하는) 사용중인 프로젝션에 관한 부가 정보를 쉽게 획득할 수 있으므로, 비디오 코딩 자체는 그 정보를 다시 코딩할 필요가 없고; 인코더는 디코더에 의해 그것에 관한 사전 지식을 추정할 수 있다. 물론, 그 부가 정보는 또한 비디오 비트스트림에 포함될 수 있고, 이 경우에 달리 그것을 전송할 필요가 없을 수 있다.
일 실시예에 따르면, 프로젝션된 360 비디오의 코딩에 최적화된 평면 비디오 인코더가 사용중인 프로젝션의 속성들에 관한 인코더의 지식에 기초하여 그것이 생성하는 코딩된 비디오 시퀀스들을 최적화할 수 있다.
이상적으로는, 프로젝션된 360 재료를 압축하는 평면 비디오 인코더가 360 구체의 더 큰 캡처 각도들 또는 표면적들을 나타내는 샘플들에 대해 강조할 수 있고, 반대로 360 구체의 더 작은 캡처 각도들 또는 표면적들을 나타내는 샘플들에 대해서는 덜 강조할 수 있다. 일 예로서 정방형 프로젝션을 사용하고 360 구체의 모든 표면적들이 사용자에게 유사하게 적절하다고 가정하면(사용자들이 극 지역들의 상세사항들에 거의 관심이 없기 때문에 지도 프로젝션들에 반드시 해당되지는 않음 - 하지만 360 비디오에 대한 유효한 가정일 수 있음), 극 지역들을 커버하는 샘플들에 대해 더 강조하고, 적도 지역들을 커버하는 것에 대해 덜 강조하는 것이 합리적이다.
많은 비디오 코덱들은 적절한 양자화기 파라미터(QP)를 선택함으로써 비교적 적은 수의 샘플들, 즉, 변환 유닛, 블록, 매크로블록, 및/또는 그와 유사한 것(이후 "블록")에 대해 소비된 비트들의 수를 비교적 미세하게 조정하는 것을 허용한다.
동일한 또는 다른 실시예에서, 비디오 인코더는 360 프로젝션의 성질에 관한 사전 지식을 사용하여, 큰 캡처 각도들 또는 표면적들을 나타내는 샘플들을 포함하는 블록들과 비교할 때, 작은 캡처 각도들 또는 표면적들을 나타내는 샘플들을 포함하는 블록들에 대해 더 조대한 양자화(수치적으로 더 높은 QP)를 선택한다. 이 선택은 인코더에서 국부적으로 구현될 수 있고, 그것을 구현하기 위해 디코더에서 또는 비디오 압축 기술 또는 표준 자체에서 어떠한 변경들도 요구되지 않는다. 동일한 또는 다른 실시예에 따르면, 인코더는, (평면-최적화된) 레이트 제어에 의해 선택되는 바와 같은 QP 값들에 대한 함께 사용될 수 있는(예를 들어, 가산되거나, 추후 정규화함) 양자화 단계 크기 차이 값들(이후 "델타 QP 값들")의 지도를 (초기화 동안에 그리고 프로젝션의 상세사항들이 알려지면 잠재적으로 한 번만) 생성하고 사용할 수 있다. 동일한 또는 다른 실시예에서, 델타 QP 지도는 구체 상에 디-프로젝션된 블록의 표면적에 기초하여 생성될 수 있다. 많은 비디오 코덱에서, QP 단계 크기들과 소비된 비트들의 수 사이의 근사 관계(approximate relationship)가 알려져 있다. H.265에서, 예를 들어, 3개의 QP 단계 크기와 비트 레이트를 두 배로 하는 것의 근사 관계가 있을 수 있다. 동일한 또는 다른 실시예에서, 델타 QP 값은 QP 값과 비트레이트 사이의 전술한 관계, 및 디-프로젝션된 블록의 표면적과 관련하여 적절하게 설정함으로써 계산될 수 있다.
간략하게 도 9를 참조하면, 일 예로서, 블록(904)을 고려한다. 이 블록은 적도 옆에 있고 정규화를 위해 사용될 수 있다. 따라서, 이 블록 및 그의 좌우에 있는 이웃들(뿐만 아니라 적도의 바로 남쪽에 있는 인접한 블록들)은 0의 QP 델타를 사용할 수 있다.
이제 북부 알래스카를 커버하는 블록(905)을 고려한다. 구체 상에 디-프로젝션될 때 이 블록의 표면적은 티소 프로젝션의 타원들의 크기의 상대적인 증가에 의해 추정될 수 있고, 그 추정은 블록이 적도 블록의 절반보다 작은 표면적을 갖는 것일 수 있다. 따라서, H.265에서의 3개의 양자화 단계 크기가 비트레이트의 대략 절반으로 이어질 수 있으므로, 이 블록은 더 조대하게, 특히 3개의 양자화 단계 크기에 의해 양자화될 수 있다. 이러한 방식을 일관되게 적용할 때, 구체 상의 임의의 주어진 영역을 나타내는 비트들의 수는 프로젝션에 의해 도입되는 기하학적 아티팩트들(geometric artifacts)에 관계없이 대략 동일하다.
도 10은 델타 QP 지도를 생성하기 위한 예시적인 프로세스(1000)의 흐름도이다. 일부 구현들에서, 도 10의 하나 이상의 프로세스 블록은 인코더에 의해 수행될 수 있다. 일부 구현들에서, 도 10의 하나 이상의 프로세스 블록은 인코더로부터 분리되거나 또는 인코더를 포함하는 다른 디바이스 또는 디바이스들의 그룹에 의해 수행될 수 있다.
도 10을 참조하면, 델타 QP 지도를 채우는(populate) 메커니즘은 다음과 같이 설명될 수 있다. 프로젝션이 세분되는 모든 블록들에 걸쳐 루프(1001)가 실행될 수 있다. 블록 크기는, 예를 들어, 8x8 또는 16x16 샘플들일 수 있다. 루프 내에서, 각각의 블록에 대해, 블록의 4개의 좌표를 구체 상에 역방향-프로젝션(1002)하여, 공간에 4개의 점을 산출할 수 있다. 역방향 프로젝션의 성질은 순방향 프로젝션(forward projection)에 의존한다. 공간의 제5 점, 즉, 구체의 중심이 또한 알려질 수 있다. 이들 4개 또는 5개의 점을 사용하여, 4개의 점에 의해 식별되는 구체의 표면 상의 표면적, 및 일부 경우에, 구체의 중심이 계산될 수 있다(1003). 구체의 중심의 위치가 알려지지 않을 때, 표면적은, 일부 경우에, 4개의 점이 평행사변형을 형성한다는 가정 하에서 근사화될 수 있다. 이 경우에, 근사화의 성질은, 직사각형 프로젝션의 경우에 표면적이 평평한 반면, 구체 상에서 곡선일 것이기 때문에, 근사화된 표면적이 구체 상에 정확하게 프로젝션된 표면적보다 작다는 것일 수 있다.
구체 상의 표면적은 블록(예를 들어, 8x8, 또는 16x16 샘플들)의 표면적과 관련하여 배치되어, 프로젝션 증가(1004)를 산출할 수 있다. 프로젝션 증가는, 알려진 특성들 또는 문제의 평면 비디오 코덱의 특성들을 사용하여, 이 블록에 대한 델타 QP 값을 결정하는데 사용될 수 있다. 예를 들어, HEVC에서, 2배의 프로젝션 증가는 3배의 QP 값 변화로 이어질 수 있다는 관계가 될 수 있다.
도 10은 프로세스(1000)의 예시적인 블록들을 도시하지만, 일부 구현들에서, 프로세스(1000)는 추가적인 블록들, 더 적은 블록들, 상이한 블록들, 또는 도 10에 묘사된 것들과는 상이하게 배열된 블록들을 포함할 수 있다. 추가적으로, 또는 대안적으로, 프로세스(1000)의 블록들 중 2개 이상이 병렬로 수행될 수 있다.
도 12를 참조하면, 위의 메커니즘에 의해 생성되었을 수 있거나, 설계로 하드-코딩되었을 수 있거나, 일부 다른 메커니즘에 의해 인코더에 이용가능할 수 있는 델타 QP 지도의 예가 도시되어 있다. 굵은 선(1101)으로 묘사된 예시적인 프로젝션에서 지구본의 1/4이 도시되고, 여기서 Kavrayskiy-VII 프로젝션이 한번 더 도시된다. 프로젝션(1201)은 블록들(1202)의 그리드에 의해 오버레이된다(단일 블록만이 숫자(1202)로 표시된다). 그 블록들 각각은 예시적인 델타 QP 값과 함께 도시된다. 델타 QP 값들은 프로젝션에서의 0/0 위도/경도 지점으로부터의 거리에 따라 증가한다는 것이 관찰될 수 있다.
정방형 프로젝션들에 대한 델타 QP 지도의 생성(묘사되지 않음)은 블록들의 각각의 행 내의 동일한 값들의 델타 QP 값들의 선택, 및 행의 거리가 적도로부터 증가함에 따라 행들 사이의 점진적으로 증가하는 델타 QP 값들의 선택을 수반할 수 있다. 정확히, 하나의 델타 QP 값으로부터 다음 값으로의 변화가 (행들 사이에서) 발생하는 위치는, QP 값 감소와 비트레이트 증가 사이의 관계를 포함하여, 비디오 압축 기술 또는 표준의 특성에 의존한다.
도 13은, 추가 예들로서, 정육면체 및 이십면체 프로젝션들에 대한 델타 QP 지도들을 도시한다. 이들 프로젝션에서, 6개의 정육면체 및 20개의 이십면체 표면들은 이미 설명한 바와 같은 단일 평면 표면으로 조립될 수 있다. 이들 6개 또는 20개의 표면의 기하학적 왜곡이 서로 유사하기 때문에, 델타 QP 지도는 프로젝션들에 도시된 정사각형들 또는 삼각형들 중 하나에 대해서만 설명하면 된다.
제1 예로서 이십면체 프로젝션을 취하면, 전체 프로젝션(1301)이 도시되고, 그의 20개의 삼각형 중 하나(1302)가 확대된다. 각각의 삼각형은 특정 수의 블록들에 의해 커버될 수 있고; 여기서, 삼각형을 수평으로 커버하기 위해 6개의 블록이 요구되고, 수직으로는 5개의 블록이 요구되지만, 그 수는 블록 크기, 원하는 전체 프로젝션 크기 등에 따라 상이할 수 있다. 각각의 블록(1303)에 대해, 정수는 H.265와 같은 비디오 압축 기술을 사용할 때 합리적인 QP 값 증가를 보여준다. 각각의 삼각형이 구체의 표면 상의 비교적 작은 영역을 커버하기 때문에, 기하학적 왜곡들은 비교적 경미하고, 따라서, 델타 QP 값의 합리적인 변화들은 동등하게 작다. H.265와 같은 코덱에 대해, 각각의 삼각형의 코너들을 커버하는 블록들만이 QP 값의 약간의 조정을 요구할 수 있다.
정육면체 프로젝션(1304)의 경우에, 대조적으로, 콘텐츠를 충실히 표현하기 위해 블록(1306) 당 델타 QP 값의 상당한 변동이 요구될 수 있다. 6x6 블록들로 분할되는 정육면체의 하나의 표면(1305)이 다시 묘사되어 있다. H.265와 같은 코딩 기술의 경우, 묘사된 36개의 블록 중 4개만이 충실한 표현을 위한 QP 값의 조정을 요구하지 않으며, 따라서, 4개의 블록만이 0의 델타 QP 값을 갖는다.
정육면체 프로젝션과 이십면체 프로젝션을 포함하는 다른 등면체(isohedron) 프로젝션 양자 모두에 대해, 델타 QP 값들의 증가는 등면체의 중심에서 0으로 시작하여 모든 방향들에서 균일하게 중심으로부터의 거리가 증가함에 따라 증가하는 델타 QP 값의 증가로서 설명될 수 있다. 증가의 레이트는 거리가 증가함에 따라 증가할 수 있어, 표면의 에지들에 접근함에 따라 증가하는 캡처 각도를 반영할 수 있다.
본 기술분야의 통상의 기술자는, 응용에 의해 요구되는 바와 같이, 델타 QP 특성, 블록 크기, 블록 형상 등에 대한 다양한 다른 프로젝션 및 비트레이트에 대해 위의 메커니즘을 용이하게 적응시킬 수 있다.
특정 프로젝션들을 사용할 때, 델타 QP 값은 화상, 또는 타일, 또는 슬라이스의 인코딩 동안 여러 번 변화할 수 있다. 이러한 변화들 각각에는 약간의 비용이 들 수 있다. 그러나, 이러한 변화들은, 이미 설명한 바와 같이, 사용중인 비디오 압축 기술 또는 표준에 관한 사전 지식에 기초하여 인코더와 디코더 둘 다에서 구성될 수 있는 델타 QP 지도, 및 인코더와 디코더 둘 다에서 동등하게 알려지는 프로젝션의 특성들의 사용을 통해 예측가능하다.
동일한 또는 다른 실시예에서, 디코더는, 프로젝션의 특성 및 그에 기초하는 압축 기술 또는 표준에 관한 지식에 기초하여, 이미 설명한 바와 같이, 델타 QP 지도를 구성할 수 있다. 동일한 또는 다른 실시예에서, 프로젝션의 특성들은, 예를 들어, 시퀀스 파라미터 세트, 화상 파라미터 세트, 시퀀스 헤더, 화상 그룹(group of pictures, GOP) 헤더, 화상 헤더, 슬라이스 헤더, 또는 유사한 구문 구조들(이후 고레벨 구문(high level syntax) 구조들, 또는 HLS 구조들)에 위치된 하나 이상의 규범적 구문 요소(normative syntax element)로서 코딩된 비디오 비트스트림 내부에서 디코더에 이용가능하게 될 수 있다. 동일한 또는 다른 실시예에서, 프로젝션의 특성들은 대역-외 메커니즘(out-of-band mechanism)을 통해 디코더에 이용가능하게 될 수 있다.
특성의 코딩은 많은 형태를 취할 수 있다. 동일한 또는 다른 실시예에서, 단일의 또는 적은 수의 구문 요소의 추상 값(abstract value)은 디코더가 기초로 하는 동일한 사양 또는 상이한 사양일 수 있는 비디오 코딩 기술 사양에 정의될 수 있는 복수의 메커니즘들 중에서 델타 QP 지도 생성 메커니즘을 직접적으로 또는 간접적으로 지시하는데 사용될 수 있다. 직접 지시는 델타 QP 지도 생성 메커니즘에 대한 직접 참조일 수 있다. 간접 지시는, 예를 들어, 그 사양이 QP 지도 생성 메커니즘 및 구체 표면에 대한 평면 표면의 기하학적 매핑 또는 그의 역과 같은 다른 특성들을 포함할 수 있는 프로젝션에 대한 참조일 수 있다. 예를 들어, 예컨대, 8 비트의 부호없는 정수로서 코딩된 구문 요소 "projection_id"가 있을 수 있다. 이 구문 요소는 최대 256개의 프로젝션의 시그널링을 허용할 것이며, 그 각각은 그 자신의 델타 QP 지도 생성 메커니즘을 포함할 수 있다. HLS 구조의 구문 해석도(syntax diagram)에서의 대응하는 엔트리는 다음과 같은 형태를 취할 수 있다:
Figure 112020117207172-pct00001
델타 QP 지도의 코딩의 다른 형태들도 가능할 수 있다. 예를 들어, 델타 QP 지도는 고레벨 구문 구조로 직접 코딩될 수 있다. 이러한 코딩은 0 내지 7과 같은 적합한 넘버링 범위의 정수 값들의 2차원 행렬의 형태일 수 있고, 행렬의 각각의 요소는 n×n 샘플들의 블록을 나타내고, n은, 예를 들어, 4, 8, 또는 16일 수 있다. 예를 들어, 비디오 압축 기술 또는 표준 사양 작업에 일반적으로 채택되는 구문을 사용하고, 샘플들에서 모두 측정되는, 평면 화상의 크기를 나타내는 "planar_size x"와 "planar_size y", 및 2의 제곱인 블록 크기들을 갖는 정사각형 블록들의 가정 하에서, 이러한 지도는 다음과 같이 표현될 수 있다:
Figure 112020117350801-pct00019
위의 구문 해석도에서, "x" 및 "y"는 러닝 변수(running variable)들이고, "planar_size_x" 및 "planar_size_y"는 (프로젝션된) 평면 표면의, 샘플들에서 측정되는, 크기를 나타내고, "blocksize"는 델타 QP 값이 코딩되는 블록의 크기를 나타낸다. 블록 크기는, 예를 들어, 가장 작은 변환과 동일한 크기, 예를 들어, 4x4인 것으로 선택될 수 있다. 그 경우, "qp_delta" 구문 요소들의 수는 비교적 클 수 있지만, 그 큰 수는 프로젝션에서의 개별 샘플들의 관련성의 근접 근사를 허용할 수 있다. 더 큰 블록 크기들이 또한 선택될 수 있고, 그것은 더 적은 델타 QP 값들이 코딩될 필요가 있으므로 직접 코딩된 델타 QP 지도에 대해 비트들을 세이브할 수 있다; 그러나, 프로젝션에서의 개별 샘플들의 관련성의 근사는 근접하지 않을 수 있다. 많은 관련 비디오 압축 기술들 또는 표준들은 변환을 사용하며, 양자화는 변환 계수들에서 동작한다. 그러한 이유로, 델타 QP 지도를 가장 작은 변환 블록 크기보다 더 작은 입도(granularity)로 코딩하는 데 있어서 제한된 이점이 있다. 델타 QP 지도에 사용되는 블록의 크기는 "log2_blocksize"(일반적으로 사용되는 변환 크기들이 2의 제곱이기 때문에 log2)와 같은 구문 요소에서 코딩될 수 있다.
동일한 또는 다른 실시예에서, 이러한 직접 코딩된 델타 QP 지도는 예를 들어 적절한 런-길이 코딩 메커니즘(run-length coding mechanism), .zip과 같은 이 기술분야에 알려진 일반 압축 알고리즘 등을 사용하여 적합하게 엔트로피 코딩될 수 있다. 본 기술분야의 통상의 기술자는 델타 QP 지도에 대한 이러한 코딩 메커니즘을 쉽게 고안할 수 있다.
위의 2개의 메커니즘과 유사한 목적을 서빙할 수 있는 다른 메커니즘들 사이의 선택은 애플리케이션 요건들에, 그리고 이러한 애플리케이션이 가질 수 있는 압축, 계산, 및 메모리 제약들에 의존할 수 있다.
또한, 델타 QP 지도의 사용을 가능하게 할 수 있는 구문 요소 "enable_qpmap"을 포함하는 것이 합리적일 수 있다. 그 구문 요소에 대한 값이 "거짓"일 때, 평면 디코더는 델타 QP 지도를 사용하지 않을 수 있다. 그러나, 그 구문 요소에 대한 값이 "참"일 때, 디코더는 위에서 설명한 방식으로, 즉, 디코딩 동안 평면 디코딩 프로세스에 도달한 QP 값들에/로부터 델타 QP 값들을 가산 또는 감산함으로써, 델타 QP 지도를 사용할 수 있다.
도 14는 일 실시예에 따른 디코더에서의 샘플들의 재구성을 위한 예시적인 프로세스(1400)의 흐름도이다. 일부 구현들에서, 도 14의 하나 이상의 프로세스 블록은 디코더에 의해 수행될 수 있다. 일부 구현들에서, 도 14의 하나 이상의 프로세스 블록은 디코더로부터 분리되거나 또는 디코더를 포함하는 다른 디바이스 또는 디바이스들의 그룹에 의해 수행될 수 있다.
동일한 또는 다른 실시예에서, 디코더는 다음과 같이 델타 QP 지도를 사용할 수 있다. 도 14를 참조하면, 디코딩 프로세스의 초기 일부 시점에서, 델타 QP 지도가 디코딩되고(1401) 메모리에 저장된다(1402). 디코딩은 늘 그렇듯이 평면 디코더에서 진행한다. 구체적으로, 디코딩은 비트스트림으로부터의 QP 값의 디코딩을 수반할 수 있다(1403). 그 QP 값은 변환 유닛(Transform Unit, TU)과 관련된다. 그 TU의 공간적 위치는 디코더에 의해 알려진다. 이 시점에서, 디코더는 저장된 델타 QP 지도에 액세스하고(1404) 블록에 관련된 하나 이상의 델타 QP 값(예를 들어, 중간 델타 QP 값들)을 식별할 수 있다.
델타 QP 지도의 블록 크기와 TU 크기는 반드시 동일할 필요는 없으며, TU 및 델타 QP 지도 블록의 에지들에 대해 반드시 정렬될 필요는 없다. TU의 공간 영역이 델타 QP 지도의 블록에 완전히 포함된다면, 최종 QP 값을 획득(1405)하기 위해, 예를 들어, 디코딩된 바와 같은 TU의 QP 값에 그 값을 가산 또는 감산함으로써, 직접 적용될 수 있는 단일 델타 QP 값만이 있을 수 있다. TU의 공간 영역이 델타 QP 지도의 다수의 블록들에 걸쳐 있다면, 적용가능한 델타 QP 값의 결정은 간단하지 않은데, 그 이유는 다양한 블록들의 델타 QP 지도에서의 델타 QP 값이 상이할 수 있기 때문이다. 특정 대안들이 그 자체로 제시되고, 비디오 코딩 기술 또는 표준은 다음의 대안들 중 하나 이상을 특정할 수 있거나, 또는 본 기술분야의 통상의 기술자가 쉽게 식별할 수 있는 다른 적합한 대안을 특정할 수 있다.
제1 대안으로서, TU의 적어도 부분들이 미세한 표현을 필요로 한다는 이론에 따라, 가능한 가장 미세한 양자화가 선택될 수 있다; 즉, 디코딩된 QP 값에 가산/감산될 때, 수치적으로 가장 작은 최종 QP 값을 초래하는 델타 QP 값이 선택된다.
제2 대안으로서, 다양한 델타 QP 값들은, 예를 들어, 적절한 라운딩과 함께, 적용가능한 델타 QP 값들의 중간값, 평균, 또는 임의의 다른 조합을 계산함으로써 조합될 수 있다.
제3 대안으로서, TU들뿐만 아니라 델타 QP 블록들은 샘플들로서 표현된 공간 영역들을 커버한다는 점에 유의해야 한다. 특정 비디오 압축 기술들 및 표준들에서는, 샘플 공간에서 TU들과도 델타 QP 블록들과도 중첩이 존재하지 않을 수 있다; 즉, 각각의 샘플 위치는 정확히 하나의 TU 및 정확히 하나의 델타 QP 블록에 속한다. 그러한 비디오 압축 기술들 및 표준들의 경우, TU에 대한 델타 QP 값의 선택은 TU에서의 특정 샘플 위치가 델타 QP 지도의 어느 블록에 속하는지를 식별함으로써 이루어질 수 있다. TU에서의 이러한 샘플 위치들은, 예를 들어, TU의 상단 좌측 샘플 위치, 중심 샘플 위치, 또는 TU에서의 임의의 다른 샘플 위치를 포함할 수 있다. 그러면, TU의 디코딩을 위한 델타 QP 값은 그 샘플 위치를 포함하는 델타 QP 지도에서의 블록과 연관된 델타 QP 값일 수 있다.
인코더 및 디코더가 동일한 조합 메커니즘을 사용하는 한, 불일치들 및 코딩 드리프트가 회피될 수 있다. 비디오 압축 기술 사양 또는 표준은 어느 조합을 사용할지를 쉽게 정의할 수 있다.
위에서 획득한 최종 QP 값은 변환 계수들의 역양자화(1406)를 위해 사용될 수 있다. 이어서, 역양자화된(de-quantized) 변환 계수들은 역변환(1407)을 거쳐 비디오 코딩 기술 또는 표준에 따른 추가 처리(묘사되지 않음)를 위해 사용되는 중간 샘플 값들을 획득한다. 처리는 코딩된 비디오 시퀀스의 종료(묘사되지 않음)까지 다음 TU들로 계속된다.
도 14는 프로세스(1400)의 예시적인 블록들을 도시하지만, 일부 구현들에서, 프로세스(1400)는 추가적인 블록들, 더 적은 블록들, 상이한 블록들, 또는 도 14에 묘사된 것들과는 상이하게 배열된 블록들을 포함할 수 있다. 추가적으로, 또는 대안적으로, 프로세스(1400)의 블록들 중 2개 이상이 병렬로 수행될 수 있다.
도 15는 최종 QP 값을 생성하고 최종 QP 값을 사용하여 역양자화를 수행하기 위한 예시적인 프로세스(1500)의 흐름도이다. 일부 구현들에서, 도 15의 하나 이상의 프로세스 블록은 디코더에 의해 수행될 수 있다. 일부 구현들에서, 도 15의 하나 이상의 프로세스 블록은 디코더로부터 분리되거나 또는 디코더를 포함하는 다른 디바이스 또는 디바이스들의 그룹에 의해 수행될 수 있다.
도 15에 도시된 바와 같이, 프로세스(1500)는 복수의 제1 블록들 중 적어도 하나의 제1 블록에 관한 적어도 하나의 중간 델타 양자화기 파라미터(QP) 값을 획득하는 것(블록 1501)을 포함할 수 있다.
도 15에 더 도시된 바와 같이, 프로세스(1500)는 제2 블록에 관한 QP 값을 디코딩하는 것(블록 1502)을 포함할 수 있다.
도 15에 더 도시된 바와 같이, 프로세스(1500)는 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 단일 제1 블록에 포함되는지를 결정하는 것(블록 1503)을 포함할 수 있다.
도 15에 더 도시된 바와 같이, 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 단일 제1 블록에 포함된다면(블록 1503 - 예), 프로세스(1500)는 델타 QP 값을 단일 제1 블록의 중간 델타 QP 값으로 설정하는 것(블록 1504)을 포함할 수 있다.
도 15에 더 도시된 바와 같이, 제2 블록 내의 샘플들의 각자의 공간적 위치들이 복수의 제1 블록들 중 다수의 제1 블록들에 포함된다면(블록 1503 - 아니오), 프로세스(1500)는 복수의 제1 블록들 중 다수의 제1 블록들 중 적어도 하나의 제1 블록의 중간 델타 QP 값에 기초하여 델타 QP 값을 설정하는 것(블록 1505)을 포함할 수 있다.
도 15에 더 도시된 바와 같이, 프로세스(1500)는 델타 QP 값과 QP 값을 조합하여 최종 QP 값을 생성하는 것(블록 1506)을 포함할 수 있다.
도 15에 더 도시된 바와 같이, 프로세스(1500)는 최종 QP 값을 사용하여 제2 블록에 관련된 적어도 하나의 값을 역양자화하는 것(블록 1507)을 포함할 수 있다.
도 15는 프로세스(1500)의 예시적인 블록들을 도시하지만, 일부 구현들에서, 프로세스(1500)는 추가적인 블록들, 더 적은 블록들, 상이한 블록들, 또는 도 15에 묘사된 것들과는 상이하게 배열된 블록들을 포함할 수 있다. 추가적으로, 또는 대안적으로, 프로세스(1500)의 블록들 중 2개 이상이 병렬로 수행될 수 있다.
위에서 설명한 360 이미지 및 비디오 코딩에 대한 QP 선택을 위한 기법들은 컴퓨터 판독가능 명령어들을 사용하고 하나 이상의 컴퓨터 판독가능 매체에 물리적으로 저장되는 컴퓨터 소프트웨어로서 구현될 수 있다. 예를 들어, 도 16은 개시된 주제의 특정 실시예들을 구현하기에 적합한 컴퓨터 시스템(1600)을 도시한다.
컴퓨터 소프트웨어는, 컴퓨터 중앙 처리 유닛(CPU)들, 그래픽 처리 유닛(GPU)들 등에 의해, 직접, 또는 해석, 마이크로-코드 실행 등을 통해 실행될 수 있는 명령어들을 포함하는 코드를 생성하기 위해 어셈블리, 컴파일(compilation), 링킹(linking), 또는 유사한 메커니즘들이 수행될 수 있는 임의의 적합한 머신 코드 또는 컴퓨터 언어를 사용하여 코딩될 수 있다.
명령어들은, 예를 들어, 개인용 컴퓨터, 태블릿 컴퓨터, 서버, 스마트폰, 게이밍 디바이스, 사물 인터넷 디바이스 등을 포함하여, 다양한 타입의 컴퓨터들 또는 그것의 컴포넌트들 상에서 실행될 수 있다.
컴퓨터 시스템(1600)에 대한 도 16에 도시된 컴포넌트들은 사실상 예시적인 것이고, 본 개시내용의 실시예들을 구현하는 컴퓨터 소프트웨어의 사용 또는 기능성의 범위에 대한 임의의 제한을 암시하도록 의도되지 않는다. 컴포넌트들의 구성이 컴퓨터 시스템(1600)의 예시적인 실시예에서 예시된 컴포넌트들 중 임의의 하나 또는 이들의 조합과 관련하여 임의의 종속성 또는 요건을 갖는 것으로 해석되어서도 안 된다.
컴퓨터 시스템(1600)은 특정 휴먼 인터페이스 입력 디바이스들을 포함할 수 있다. 그러한 휴먼 인터페이스 입력 디바이스는, 예를 들어, 촉각 입력(예컨대: 키스트로크, 스와이프, 데이터 글러브 움직임), 오디오 입력(예컨대: 음성, 손뼉), 시각적 입력(예컨대, 제스처), 후각적 입력(묘사되지 않음)을 통한 하나 이상의 인간 사용자에 의한 입력에 응답할 수 있다. 휴먼 인터페이스 디바이스들은 또한 오디오(예컨대: 음성, 음악, 주변 사운드), 이미지들(예컨대: 스캐닝된 이미지들, 스틸 이미지 카메라로부터 획득된 사진 이미지들), 비디오(예컨대 2차원 비디오, 입체적 비디오를 포함하는 3차원 비디오)와 같은, 인간에 의한 의식적인 입력과 반드시 직접적으로 관련되는 것은 아닌 특정 미디어를 캡처하기 위해 사용될 수 있다.
입력 휴먼 인터페이스 디바이스들은: 키보드(1601), 마우스(1602), 트랙패드(1603), 터치 스크린(1610), 데이터-글러브(data-glove)(1604), 조이스틱(1605), 마이크로폰(1606), 스캐너(1607), 카메라(1608) 중 하나 이상(각각의 하나만이 묘사됨)을 포함할 수 있다.
컴퓨터 시스템(1600)은 특정 휴먼 인터페이스 출력 디바이스들을 또한 포함할 수 있다. 그러한 휴먼 인터페이스 출력 디바이스들은, 예를 들어, 촉각 출력, 사운드, 광, 및 냄새/맛을 통해 하나 이상의 인간 사용자의 감각들을 자극하고 있을 수 있다. 그러한 휴먼 인터페이스 출력 디바이스들은 촉각 출력 디바이스들(예를 들어 터치-스크린(1610), 데이터-글러브(1604), 또는 조이스틱(1605)에 의한 촉각 피드백이지만, 입력 디바이스들로서 역할을 하지 않는 촉각 피드백 디바이스들도 있을 수 있음), 오디오 출력 디바이스들(예컨대: 스피커들(1609), 헤드폰들(묘사되지 않음)), 시각적 출력 디바이스들(예컨대 음극선관(CRT) 스크린들, 액정 디스플레이(LCD) 스크린들, 플라즈마 스크린들, 유기 발광 다이오드(OLED) 스크린들을 포함하는 스크린들(1610), 각각은 터치-스크린 입력 능력이 있거나 없고, 각각은 촉각 피드백 능력이 있거나 없고 - 이들 중 일부는 스테레오그래픽 출력과 같은 수단을 통해 2차원 시각적 출력 또는 3보다 많은 차원의 출력을 출력할 수 있음; 가상 현실 안경(묘사되지 않음), 홀로그래픽 디스플레이들 및 연기 탱크들(묘사되지 않음)), 및 프린터들(묘사되지 않음)일 수 있다.
컴퓨터 시스템(1600)은 인간 액세스가능한 저장 디바이스들 및 그것들과 연관된 매체들, 예컨대 CD/DVD 등의 매체(1621)를 갖는 CD/DVD ROM/RW(1620)를 포함하는 광학 매체, 썸-드라이브(1622), 이동식 하드 드라이브 또는 솔리드 스테이트 드라이브(1623), 테이프 및 플로피 디스크(묘사되지 않음)와 같은 레거시 자기 매체, 보안 동글(묘사되지 않음)과 같은 특수화된 ROM/ASIC/PLD 기반 디바이스들 등을 또한 포함할 수 있다.
본 기술분야의 통상의 기술자들은 또한, 현재 개시된 주제와 관련하여 사용되는 용어 "컴퓨터 판독가능 매체"가 송신 매체, 반송파들, 또는 다른 일시적 신호들을 포함하지 않는다는 것을 이해해야 한다.
컴퓨터 시스템(1600)은 하나 이상의 통신 네트워크에 대한 인터페이스(들)를 또한 포함할 수 있다. 네트워크들은 예를 들어 무선, 와이어라인, 광학일 수 있다. 네트워크들은 추가로 로컬, 광역, 대도시, 차량 및 산업, 실시간, 지연-허용(delay-tolerant) 등일 수 있다. 네트워크들의 예들은 로컬 영역 네트워크들, 예컨대 이더넷, 무선 LAN들, 이동 통신 세계화 시스템(global systems for mobile communications, GSM), 3세대(3G), 4세대(4G), 5세대(5G), 롱-텀 에볼루션(Long-Term Evolution, LTE) 등을 포함하는 셀룰러 네트워크들, 케이블 TV, 위성 TV 및 지상파 브로드캐스트 TV를 포함하는 TV 와이어라인 또는 무선 광역 디지털 네트워크들, CANBus를 포함하는 차량 및 산업 등을 포함한다. 특정 네트워크들은 일반적으로 특정 범용 데이터 포트들 또는 주변 버스들(1649)(예컨대, 예를 들어, 컴퓨터 시스템(1600)의 범용 직렬 버스(USB) 포트들)에 부착된 외부 네트워크 인터페이스 어댑터들을 요구한다; 다른 것들은 일반적으로 아래에 설명되는 바와 같은 시스템 버스로의 부착에 의해 컴퓨터 시스템(1600)의 코어에 통합된다(예를 들어, PC 컴퓨터 시스템으로의 이더넷 인터페이스 또는 스마트폰 컴퓨터 시스템으로의 셀룰러 네트워크 인터페이스). 이들 네트워크들 중 임의의 것을 사용하여, 컴퓨터 시스템(1600)은 다른 엔티티들과 통신할 수 있다. 그러한 통신은 단방향성 수신 전용(예를 들어, 브로드캐스트 TV), 단방향성 송신 전용(예를 들어, CANbus 대 특정 CANbus 디바이스들), 또는 예를 들어 로컬 영역 또는 광역 디지털 네트워크들을 사용하는 다른 컴퓨터 시스템들과의 양방향성일 수 있다. 위에서 설명된 바와 같은 네트워크들 및 네트워크 인터페이스들 각각에 대해 특정 프로토콜들 및 프로토콜 스택들이 사용될 수 있다.
전술한 휴먼 인터페이스 디바이스들, 인간-액세스가능한 저장 디바이스들, 및 네트워크 인터페이스들은 컴퓨터 시스템(1600)의 코어(1640)에 부착될 수 있다.
코어(1640)는 하나 이상의 중앙 처리 유닛(CPU)(1641), 그래픽 처리 유닛(GPU)(1642), 필드 프로그래머블 게이트 영역(FPGA)(1643)의 형식으로 특수화된 프로그래머블 처리 유닛, 특정 태스크에 대한 하드웨어 가속기(1644) 등을 포함할 수 있다. 이들 디바이스는, 판독 전용 메모리(ROM)(1645), 랜덤 액세스 메모리(RAM)(1646), 내부 비-사용자 액세스가능 하드 드라이브들, 솔리드 스테이트 드라이브(SSD)들 등과 같은 내부 대용량 스토리지(1647)와 함께, 시스템 버스(1648)를 통해 접속될 수 있다. 일부 컴퓨터 시스템들에서, 시스템 버스(1648)는 추가적인 CPU들, GPU들 등에 의한 확장을 가능하게 하기 위해 하나 이상의 물리적 플러그의 형태로 액세스가능할 수 있다. 주변 디바이스들은 코어의 시스템 버스(1648)에 직접, 또는 주변 버스(1649)를 통해 부착될 수 있다. 주변 버스를 위한 아키텍처들은 PCI(peripheral component interconnect), USB 등을 포함한다.
CPU들(1641), GPU들(1642), FPGA들(1643), 및 가속기들(1644)은, 조합하여, 전술한 컴퓨터 코드를 구성할 수 있는 특정 명령어들을 실행할 수 있다. 그 컴퓨터 코드는 ROM(1645) 또는 RAM(1646)에 저장될 수 있다. 과도적인 데이터가 또한 RAM(1646)에 저장될 수 있는 반면, 영구 데이터는, 예를 들어, 내부 대용량 저장소(1647)에 저장될 수 있다. 메모리 디바이스들 중 임의의 것에 대한 고속 저장 및 검색은, 하나 이상의 CPU(1641), GPU(1642), 대용량 스토리지(1647), ROM(1645), RAM(1646) 등과 밀접하게 연관될 수 있는, 캐시 메모리의 사용을 통해 가능하게 될 수 있다.
컴퓨터 판독가능 매체는 다양한 컴퓨터 구현 동작들을 수행하기 위한 컴퓨터 코드를 그 위에 가질 수 있다. 매체 및 컴퓨터 코드는 본 개시내용의 목적을 위해 특별히 설계되고 구성된 것들일 수 있거나, 또는 그것들은 컴퓨터 소프트웨어 기술분야의 기술자들에게 잘 알려져 있고 이용가능한 종류의 것일 수 있다.
제한이 아니라 예로서, 아키텍처를 갖는 컴퓨터 시스템(1600), 및 구체적으로 코어(1640)는 프로세서(들)(CPU들, GPU들, FPGA, 가속기들 등을 포함함)가 하나 이상의 유형의(tangible) 컴퓨터 판독가능 매체에 구현된 소프트웨어를 실행하는 결과로서 기능성을 제공할 수 있다. 그러한 컴퓨터 판독가능 매체는 위에 소개된 바와 같은 사용자-액세스가능한 대용량 스토리지뿐만 아니라, 코어-내부 대용량 스토리지(1647) 또는 ROM(1645)과 같은 비일시적인 본질의 것인 코어(1640)의 특정 스토리지와 연관된 매체일 수 있다. 본 개시내용의 다양한 실시예들을 구현하는 소프트웨어가 그러한 디바이스들에 저장되고 코어(1640)에 의해 실행될 수 있다. 컴퓨터 판독가능 매체는 특정 필요에 따라 하나 이상의 메모리 디바이스 또는 칩을 포함할 수 있다. 소프트웨어는 코어(1640) 및 구체적으로 그 내부의 프로세서들(CPU, GPU, FPGA 등을 포함함)로 하여금, RAM(1646)에 저장된 데이터 구조들을 정의하는 것 및 소프트웨어에 의해 정의된 프로세스들에 따라 그러한 데이터 구조들을 수정하는 것을 포함하여, 본 명세서에 설명된 특정 프로세스들 또는 특정 프로세스들의 특정 부분들을 실행하게 할 수 있다. 추가로 또는 대안으로서, 컴퓨터 시스템은, 본 명세서에 설명된 특정 프로세스들 또는 특정 프로세스들의 특정 부분들을 실행하기 위해 소프트웨어 대신에 또는 그와 함께 동작할 수 있는, 회로(예를 들어: 가속기(1644))에 하드와이어링되거나 다른 방식으로 구현된 로직의 결과로서 기능성을 제공할 수 있다. 소프트웨어에 대한 참조는, 적절한 경우, 로직을 포함할 수 있고, 그 반대도 가능하다. 컴퓨터 판독가능 매체에 대한 참조는, 적절한 경우, 실행을 위한 소프트웨어를 저장하는 회로(예컨대 집적 회로(IC)), 또는 실행을 위한 로직을 구현하는 회로, 또는 둘 다를 포함할 수 있다. 본 개시내용은 하드웨어 및 소프트웨어의 임의의 적합한 조합을 포함한다.
본 개시내용이 수 개의 예시적인 실시예들을 설명하였지만, 본 개시내용의 범위 내에 속하는 변경들, 치환들, 및 다양한 대체 균등물들이 존재한다. 따라서, 본 기술분야의 통상의 기술자들은, 비록 본 명세서에 명시적으로 도시되거나 설명되지는 않았지만, 본 개시내용의 원리들을 구현하고 따라서 그것의 진의 및 범위 내에 있는, 다수의 시스템들 및 방법들을 고안할 수 있을 것이라는 점이 인정될 것이다.
두문자어들
Quantizer Parameter (QP)
Versatile Video Coding (VVC)
Selective Forwarding Unit (SFU)
Supplementary Enhancement Information (SEI)
Video Usability Information (VUI)
Groups of Pictures (GOPs)
Coding Units (CUs)
Transform Units (TUs)
Prediction Units (PUs)
Hypothetical Reference Decoder (HRD)
signal-to-noise ratio (SNR)
group of pictures (GOP)
Intra Picture (I picture)
Predictive picture (P picture)
Bi-directionally Predictive Picture (B Picture)
High Efficiency Video Coding (HEVC)
High Level Syntax (HLS)

Claims (20)

  1. 디코더에서 코딩된 비디오 시퀀스의 코딩된 이미지 또는 화상(picture)을 디코딩하기 위한 방법으로서, 상기 이미지 또는 화상은 비평면 표면(non-planar surface)의 평면 표면 상의 프로젝션(projection)을 나타내고, 상기 디코더는 역양자화 단계(de-quantization step)를 이용하며, 상기 방법은:
    복수의 제1 블록들 중 적어도 하나의 제1 블록에 관한 적어도 하나의 중간 델타 양자화기 파라미터(quantizer parameter, QP) 값을 획득하는 단계;
    제2 블록에 관한 QP 값을 디코딩하는 단계;
    델타 QP 값과 상기 QP 값을 조합하여 최종 QP 값을 생성하는 단계; 및
    상기 최종 QP 값을 사용하여 상기 제2 블록에 관련된 적어도 하나의 값을 역양자화하는 단계
    를 포함하고;
    상기 제2 블록 내의 샘플들의 각자의 공간적 위치들이 상기 복수의 제1 블록들 중 단일 제1 블록에 포함되는 경우, 상기 델타 QP 값은 상기 단일 제1 블록의 중간 델타 QP 값으로 설정되거나; 또는
    상기 제2 블록 내의 샘플들의 각자의 공간적 위치들이 상기 복수의 제1 블록들 중 다수의 제1 블록들에 포함되는 경우, 상기 델타 QP 값은 상기 복수의 제1 블록들 중 상기 다수의 제1 블록들 중 적어도 하나의 제1 블록의 중간 델타 QP 값에 기초하여 설정되고,
    상기 적어도 하나의 제1 블록에 관한 적어도 하나의 중간 델타 QP 값을 획득하는 단계는 프로젝션 포맷에 관한 적어도 하나의 구문 요소(syntax element)를 디코딩하는 단계, 및 고유의 델타 QP 지도 생성 메커니즘을 포함하는 상기 프로젝션 포맷의 특성을 사용하여 상기 다수의 제1 블록들에 관한 상기 델타 QP 지도를 생성하는 단계를 포함하고,
    상기 방법은
    상기 다수의 제1 블록들의 중간 QP 델타 값들을 사용하여, 상기 제2 블록에 관한 QP 값과 조합될 때 수치적으로 가장 작은 최종 QP 값을 초래하는 중간 델타 QP 값을 결정하는 단계; 및
    상기 수치적으로 가장 작은 최종 QP 값을 초래하는 상기 중간 델타 QP 값을 상기 델타 QP 값으로서 설정하는 단계 - 상기 델타 QP 지도 내의 델타 QP 값에 관한 변환 유닛(TU)의 공간 영역은 상기 델타 QP 지도의 다수 블록들에 걸쳐 있음 -
    를 추가로 포함하는, 방법.
  2. 제1항에 있어서, 상기 조합은 상기 QP 값과 상기 델타 QP 값의 가산인, 방법.
  3. 제1항에 있어서, 상기 조합은 상기 QP 값으로부터의 상기 델타 QP 값의 감산인, 방법.
  4. 제1항에 있어서, 상기 델타 QP 지도를 확립하는 단계는: 상기 델타 QP 지도에서 델타 QP 값들을 나타내는 복수의 정수 값들을 디코딩하는 단계를 포함하고, 상기 복수의 정수 값들은 엔트로피 코딩된 포맷으로 비트스트림에 포함되는, 방법.
  5. 제1항에 있어서,
    상기 복수의 제1 블록들 중 상기 다수의 제1 블록들의 중간 델타 QP 값들을 상기 다수의 제1 블록들의 중간 델타 QP 값들의 평균 및 라운딩의 계산에 의해 조합하는 단계를 추가로 포함하는, 방법.
  6. 제1항에 있어서, 상기 디코더는 역변환을 사용하고, 상기 제2 블록에 관한 값은 상기 제2 블록의 변환 계수인, 방법.
  7. 제1항에 있어서,
    상기 수치적으로 가장 작은 최종 QP 값을 초래하는 상기 중간 델타 QP 값과 상기 QP 값을 감산하여 상기 최종 QP 값을 생성하는 단계를 추가로 포함하는, 방법.
  8. 제1항에 있어서,
    상기 복수의 제1 블록들 중 상기 다수의 제1 블록들의 중간 델타 QP 값들을 상기 다수의 제1 블록들의 중간 델타 QP 값들의 중간값의 계산에 의해 조합하는 단계를 추가로 포함하는, 방법.
  9. 디코더에서 코딩된 비디오 시퀀스의 코딩된 이미지 또는 화상을 디코딩하기 위한 디바이스로서, 상기 이미지 또는 화상은 비평면 표면의 평면 표면 상의 프로젝션을 나타내고, 상기 디바이스는:
    프로그램 코드를 저장하도록 구성되는 적어도 하나의 메모리;
    상기 프로그램 코드를 판독하고 상기 프로그램 코드에 의해 명령된 바와 같이 동작하여 제1항 내지 제8항 중 어느 한 항에 따른 방법을 수행하도록 구성되는 적어도 하나의 프로세서
    를 포함하는, 디바이스.
  10. 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은, 디바이스의 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금 제1항 내지 제8항 중 어느 한 항에 따른 방법을 실행하게 하는 하나 이상의 명령어를 포함하는, 비일시적 컴퓨터 판독가능 매체.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020207031771A 2018-10-01 2019-05-16 코딩된 이미지 또는 화상을 디코딩하기 위한 방법, 장치 및 매체 KR102548327B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/148,380 US10638146B2 (en) 2018-10-01 2018-10-01 Techniques for QP coding for 360 image and video coding
US16/148,380 2018-10-01
PCT/US2019/032579 WO2020072101A1 (en) 2018-10-01 2019-05-16 Techniques for qp coding for 360 image and video coding

Publications (2)

Publication Number Publication Date
KR20200139775A KR20200139775A (ko) 2020-12-14
KR102548327B1 true KR102548327B1 (ko) 2023-06-28

Family

ID=69946936

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207031771A KR102548327B1 (ko) 2018-10-01 2019-05-16 코딩된 이미지 또는 화상을 디코딩하기 위한 방법, 장치 및 매체

Country Status (6)

Country Link
US (1) US10638146B2 (ko)
EP (1) EP3861733A4 (ko)
JP (1) JP6983463B2 (ko)
KR (1) KR102548327B1 (ko)
CN (1) CN112119634B (ko)
WO (1) WO2020072101A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104773B3 (de) 2021-02-26 2022-03-17 IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH Kommissionierroboter mit optimierter trajektorie und verfahren zum steuern eines kommissionierroboters
CN114422802B (zh) * 2022-03-28 2022-08-09 浙江智慧视频安防创新中心有限公司 一种基于码本的自编码机图像压缩方法
WO2024080917A1 (en) * 2022-10-13 2024-04-18 Telefonaktiebolaget Lm Ericsson (Publ) Quantization parameter (qp) coding for video compression

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050180502A1 (en) * 2004-02-06 2005-08-18 Atul Puri Rate control for video coder employing adaptive linear regression bits modeling

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7082450B2 (en) 2001-08-30 2006-07-25 Nokia Corporation Implementation of a transform and of a subsequent quantization
WO2011142279A1 (ja) * 2010-05-13 2011-11-17 シャープ株式会社 符号化装置、復号装置、およびデータ構造
US20120230418A1 (en) 2011-03-08 2012-09-13 Qualcomm Incorporated Coding of transform coefficients for video coding
US10298939B2 (en) * 2011-06-22 2019-05-21 Qualcomm Incorporated Quantization in video coding
US20130022108A1 (en) * 2011-06-30 2013-01-24 General Instrument Corporation Quantization parameter derivation from qp predictor
IN2014CN03020A (ko) 2011-11-04 2015-07-03 Panasonic Corp
US20150172544A1 (en) 2012-07-04 2015-06-18 Zhipin Deng Panorama based 3d video coding
US20140079135A1 (en) * 2012-09-14 2014-03-20 Qualcomm Incoporated Performing quantization to facilitate deblocking filtering
US20150373327A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Block adaptive color-space conversion coding
US10448056B2 (en) * 2016-07-15 2019-10-15 Qualcomm Incorporated Signaling of quantization information in non-quadtree-only partitioned video coding
US20180048907A1 (en) * 2016-08-11 2018-02-15 Qualcomm Incorporated Video coding tools for in-loop sample processing
US11284089B2 (en) * 2016-09-02 2022-03-22 Vid Scale, Inc. Method and system for signaling of 360-degree video information
EP3301921A1 (en) * 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for calculating quantization parameters to encode and decode an immersive video
US10904531B2 (en) * 2017-03-23 2021-01-26 Qualcomm Incorporated Adaptive parameters for coding of 360-degree video
US10638133B2 (en) * 2018-01-31 2020-04-28 Qualcomm Incorporated Delta quantization parameter (QP) coding options for video

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050180502A1 (en) * 2004-02-06 2005-08-18 Atul Puri Rate control for video coder employing adaptive linear regression bits modeling

Also Published As

Publication number Publication date
EP3861733A4 (en) 2021-09-08
CN112119634A (zh) 2020-12-22
JP6983463B2 (ja) 2021-12-17
US20200107037A1 (en) 2020-04-02
WO2020072101A1 (en) 2020-04-09
EP3861733A1 (en) 2021-08-11
CN112119634B (zh) 2022-10-25
JP2021516932A (ja) 2021-07-08
KR20200139775A (ko) 2020-12-14
US10638146B2 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
KR102545299B1 (ko) 비디오 디코딩을 위한 방법 및 장치
KR102506525B1 (ko) 비디오 디코딩을 위한 방법, 장치 및 매체
KR102479457B1 (ko) 비디오 압축에서의 비-정사각형 블록들에 대한 인트라 예측을 위한 방법 및 장치
CA3135214C (en) Techniques and apparatus for generalized trisoup geometry coding
TW201946448A (zh) 用於三百六十度視訊寫碼之環路濾波器填補
KR102548327B1 (ko) 코딩된 이미지 또는 화상을 디코딩하기 위한 방법, 장치 및 매체
US11295541B2 (en) Method and apparatus of 360 degree camera video processing with targeted view
US20230128826A1 (en) Generating holographic or lightfield views using crowdsourcing
US10904528B2 (en) Techniques for QP selection for 360 image and video coding
US11012710B2 (en) Techniques for intra prediction for 360 image and video coding
US10904558B2 (en) Method and apparatus for motion compensation for 360 video coding
US20210329262A1 (en) Coefficient scanning methods on adaptive angle mode
CN118541733A (zh) 位置压缩中的网格顶点分组

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right