KR102028186B1 - 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법 - Google Patents

색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법 Download PDF

Info

Publication number
KR102028186B1
KR102028186B1 KR1020167010164A KR20167010164A KR102028186B1 KR 102028186 B1 KR102028186 B1 KR 102028186B1 KR 1020167010164 A KR1020167010164 A KR 1020167010164A KR 20167010164 A KR20167010164 A KR 20167010164A KR 102028186 B1 KR102028186 B1 KR 102028186B1
Authority
KR
South Korea
Prior art keywords
color
precision
lut
parameter
value
Prior art date
Application number
KR1020167010164A
Other languages
English (en)
Other versions
KR20160058163A (ko
Inventor
얀 예
지에 동
유웬 헤
Original Assignee
브이아이디 스케일, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브이아이디 스케일, 인크. filed Critical 브이아이디 스케일, 인크.
Publication of KR20160058163A publication Critical patent/KR20160058163A/ko
Application granted granted Critical
Publication of KR102028186B1 publication Critical patent/KR102028186B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)

Abstract

3차원(3D) 룩업 테이블(LUT) 코딩에서의 효율을 향상시키고/향상시키거나 3D LUT의 테이블 크기를 감소시키기 위한 시스템 및 방법이 제공될 수 있다. 예를 들어, 3D LUT와 연관된 옥탄트가 색공간 구분을 위해 제공될 수 있으며, 코딩이 옥탄트와 연관된 옥트리에 대해 수행될 수 있으며, 코딩은 옥탄트와 연관된 옥트리의 인코딩 노드와 노드에 속하는 3D LUT의 대응 정점의 인코딩을 포함할 수 있다. 노드에 의해 나타내어지는 변환 파라미터는 감소된 정밀도로 손실 코딩된다. 3D LUT는 또한 (시퀀스 및/또는 픽쳐 레벨에 기초하여) 시그널링될 수 있다.

Description

색역 확장성을 위한 3D 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법{SYSTEMS AND METHODS FOR PROVIDING 3D LOOK-UP TABLE CODING FOR COLOR GAMUT SCALABILITY}
관련 출원의 상호 참조
본 출원은 그 내용이 여기에 참조로 본 명세서에 통합된, 2013년 1월 7일자로 출원된 미국 가특허 출원 제61/880,715호의 이익을 주장한다.
3차원(3D) 룩업 테이블(LUT)은 컬러리스트에 의한 컬러 그레이딩 프로세스로부터 생성될 수 있거나, (예를 들어, 하나의 색공간의 원래 신호와 다른 색공간의 대응 신호를 사용하여) 인코더에 의해 추정될 수 있다. 3D LUT는 인코더로부터 디코더로 비트스트림으로 전송될 필요가 있을 수 있어, 디코더는 레이어 간(inter-layer) 프로세싱 중에 색역(color gamut) 변환 프로세스(예를 들어, 동일한 색역 변환 프로세스)를 적용할 수 있다.
테이블의 크기가 클 수 있으므로, LUT의 시그널링 오버헤드가 상당할 수 있다. 예를 들어, 샘플 비트 심도는 8비트일 수 있으며, 단위 옥탄트(octant) 크기는 16x16x16일 수 있으며(예를 들어, 색공간은 16x16x16 옥탄트의 표현으로 분할될 수 있다), 이와 같이 3D LUT 테이블에 17x17x17 항목이 있을 수 있다. 3D LUT의 각 항목은 3개 성분을 가질 수 있다. 따라서, 총 비압축 테이블 크기는 117,912(17x17x17x3x8)비트일 수 있으며, 이는 상당한 시그널링 오버 헤드로 귀결될 수 있다. 오버헤드의 이러한 양으로 인해, 3D LUT는 시퀀스 레벨로 시그널링되어야 할 수 있는데, 예를 들어 개별 픽쳐(picture)가 이러한 오버헤드를 제공할 수 없을 수 있기 때문이다. 시퀀스 레벨에서, 시퀀스의 각 픽쳐는 동일 3D LUT를 사용할 수 있으며, 이는 차선의 색역 변환으로 귀결될 수 있고/있거나 향상 레이어 코딩 효율을 저하시킬 수 있다. 컬러리스트는 (예술적 생산의 이유로) 픽쳐에서 픽쳐로 또는 장면에서 장면으로의 색역을 변경할 수 있어, 3D LUT의 픽쳐-레벨 시그널링이 효과적인 색역 예측에 요구될 수 있다.
3차원(3D) 룩업 테이블(LUT)의 효율을 향상시키고/향상시키거나 3D LUT의 테이블 크기(예를 들어, 코딩된 표현의 비트 크기)를 감소시키기 위한 시스템 및 방법이 제공될 수 있다. 예를 들어, 3D LUT와 연관된 옥탄트가 색공간 구분을 위해 제공될 수 있으며, 코딩이 옥탄트와 연관된 옥트리(octree)에 대해 수행될 수 있다. 하나 이상의 옥탄트는 불균등 옥탄트일 수 있다. 옥탄트의 파라미터는 감소된 정밀도로 손실 코딩될(lossy coded) 수 있다. 3D LUT는 정점(vertex)을 포함할 수 있다. 하나 이상의 옥탄트가 더 거칠어질 수 있어, 이웃할 수 있는 정점들 사이에 더 큰 거리가 있을 수 있다.
옥탄트는 또한 코딩을 위한 옥트리로 구성될 수 있는 레이어 트리 구조의 3D 데이터를 제공할 수 있다. 다음 중 적어도 하나가 적용될 수 있다: 옥트리는 복수의 레이어를 포함할 수 있으며, 옥트리의 각 노드는 옥탄트 중 하나를 나타낼 수 있거나, 각 노드는 루트로부터 참조될 수 있다. 또한, 옥탄트 중 하나 이상이 하나 이상의 레이어에서 분할될 수 있고/있거나 옥탄트 적어도 하나가 서브 옥탄트로 구분될 수 있다. 3D LUT의 정점들 중의 정점은 옥트리에서 다른 레이어에서의 옥탄트를 나타낼 수 있는 하나 이상의 노드에 속하고/속하거나 이에 대응할 수 있다. 옥트리에 대한 코딩은 예를 들어 재귀적으로 코딩 옥탄트 함수를 호출 및 실행함으로써 수행될 수 있어, 레이어 우선 운행순으로 3D LUT에서 그와 연관된 노드 및 정점을 인코딩한다. 또한, 3D LUT가 (예를 들어, 시퀀스 및/또는 픽쳐 레벨에 기초하여) 시그널링될 수 있다.
도 1은 N 레이어와 같은 하나 이상의 레이어를 갖는 확장성 비디오 코딩 시스템의 블록도를 나타낸다.
도 2는 멀티 뷰 비디오 코딩(MVC)을 사용하는 스테레오스코픽(예를 들어, 2-뷰) 비디오 코딩을 위한 시간적 및/또는 레이어 간 예측을 나타낸다.
도 3은 CIE 색 정의의 BT.709(HDTV) 및 BT.2020(UHDTV) 간의 컬러 주요 비교를 나타낸다.
도 4a 및 4b는 각각 BT.709 색역과 P3 색역 간의 최종 사용자에 대한 시각적 차이를 나타낸다.
도 5는 픽쳐 레벨 레이어 간 예측(ILP)으로의 색역 확장성(CGS) 코딩을 도시한다.
도 6은 8비트 YUV 신호에 대한 3차원 룩업 테이블을 나타낸다.
도 7은 삼선형 3D LUT를 나타낸다.
도 8은 3D LUT 코딩을 위한 옥트리를 나타낸다.
도 9a 및 9b는 2개 레이어를 갖는 글로벌 3D LUT와 3개 레이어를 갖는 픽쳐 레벨 3D LUT를 각각 나타내고, 3개 레이어를 갖는 픽쳐 레벨 3D LUT는 2개 레이어를 갖는 더 거친 글로벌 3D LUT로부터 예측될 수 있다.
도 10a는 하나 이상의 개시된 실시예가 구현될 수 있는 예시적인 통신 시스템의 도면을 도시한다.
도 10b는 도 10a에 나타낸 통신 시스템 내에서 사용될 수 있는 예시적인 무선 송신/수신 유닛(WTRU)의 시스템도를 도시한다.
도 10c는 도 10a에 나타낸 통신 시스템 내에서 사용될 수 있는 예시적인 무선 액세스 네트워크 및 예시적인 코어 네트워크의 시스템도를 도시한다.
도 10d는 도 10a에 나타낸 통신 시스템 내에서 사용될 수 있는 다른 예시적인 무선 액세스 네트워크 및 예시적인 코어 네트워크의 시스템도를 도시한다.
도 10e는 도 10a에 나타낸 통신 시스템 내에서 사용될 수 있는 다른 예시적인 무선 액세스 네트워크 및 예시적인 코어 네트워크의 시스템도를 도시한다.
현재 비디오 데이터는 유선 네트워크와 무선 네트워크의 조합을 통해 송신될 수 있으며, 이는 기본 송신 채널 특성을 더욱 복잡하게 할 수 있다. 이러한 시나리오에서, 확장성 비디오 코딩의 전제는 이종 네트워크를 통해 다른 기능을 갖는 디바이스에서 실행되는 비디오 애플리케이션을 위한 경험의 질을 개선하기 위한 매력적인 해결책을 제공할 수 있다. 예를 들어, 확장성 비디오 코딩은 시간 해상도, 공간 해상도, 품질 및/또는 등과 같은 최고의 표현에서 신호를 (예를 들어, 한번) 인코딩할 수 있지만, 특정 클라이언트 디바이스에서 실행되는 특정 애플리케이션에 의해 사용되는 특정 레이트 및/또는 표현에 따라 비디오 비트스트림의 서브셋으로부터 디코딩을 가능하게 할 수 있다. 대역폭과 스토리지가 비확장성 해결책에 비해 절약될 수 있다. MPEG-2 비디오, H.263, MPEG4 비주얼 및/또는 H.264와 같은 국제 비디오 표준이 확장성의 일부 모드를 지원하는 툴 및/또는 프로파일을 가질 수 있다.
도 1은 단순 블록 기반 하이브리드 확장성 비디오 인코딩 시스템의 블록도를 나타낸다. 레이어 1(베이스 레이어)로 나타내어지는 공간적/시간적 신호 해상도는 입력 비디오 신호의 다운샘플링에 의해 생성될 수 있다. 후속 인코딩 단계에서, 양자화기(Q1)의 적절한 설정은 기본 정보의 특정 품질 레벨로 귀결될 수 있다. 보다 효율적으로 후속 상위 레이어를 인코딩하기 위해, 상위 레이어의 해상도 레벨의 근사치일 수 있는 베이스 레이어 재구축 Y1이 후속 레이어의 인코딩/디코딩에 이용될 수 있다. 업샘플링 유닛은 레이어 2의 해상도로 베이스 레이어 재구축 신호의 업샘플링을 수행할 수 있다. 다운샘플링 및 업샘플링은 레이어(1,2...N) 전체에 걸쳐 수행될 수 있으며, 다운샘플링 및 업샘플링 비율은 2개의 주어진 레이어 간의 확장성의 크기에 따라 다를 수 있다. 도 1의 시스템에서, 주어진 상위 레이어 n(2≤n≤N)에 대해, 차동 신호가 현재 레이어 n 신호로부터 업샘플링된 하위 레이어 신호(예를 들어, 레이어 n-1 신호)를 감산함으로써 생성될 수 있다. 이렇게 얻어진 차분 신호가 인코딩될 수 있다. 2개 레이어(예를 들어, n1 및 n2)로 나타내어지는 비디오 신호가 같은 공간 해상도를 가질 수 있으면, 대응하는 다운샘플링과 업샘플링 연산은 생략될 수 있다. 주어진 레이어 n(1≤n≤N) 또는 복수의 레이어는 상위 레이어로부터 디코딩된 정보를 사용하지 않고 디코딩될 수 있다. 그러나, 도 1의 시스템에 의해 제공되는, 베이스 레이어를 제외한 각 레이어에 대한 잔차 신호(즉, 2개 레이어 사이의 차분 신호)의 코딩에 따르는 것은 예를 들어, 잔차 신호를 양자화 및/또는 정규화하는 것으로 인한 비주얼 아티팩트를 때로 야기할 수 있어 잔차의 코딩 중에 수행되는 동적 범위 및/또는 추가적인 양자화를 제한한다. 상위 레이어 인코더의 일부 또는 전부는 인코딩 모드로서 모션 추정 및 모션 보상 예측을 채용할 수 있다. 그러나, 잔차 신호의 모션 추정 및 보상은 통상적인 모션 추정과 다를 수 있으며 비주얼 아티팩트를 만들기 쉬울 수 있다. 이러한 비주얼 아티팩트를 최소화하기 위해, 복잡한 잔차 양자화뿐만 아니라 예를 들어 잔차 신호를 양자화 및/또는 정규화하는 것과 잔차의 코딩 중에 수행되는 추가 양자화 사이의 연결 양자화가 제공 및/또는 사용될 수 있어 시스템 복잡도를 증가시킨다.
확장성 비디오 코딩(Scalable Video Coding, SVC)은 부분 비트스트림의 레이트를 갖는 비교적 높은 재구축 품질을 유지하면서 더 낮은 시간적 또는 공간 해상도 또는 감소된 충실도를 비디오 서비스에 제공하기 위해 부분 비트스트림의 송신 및 디코딩을 가능하게 할 수 있는 H.264의 확장일 수 있다. SVC의 하나의 설계 피쳐는 단일 루프 디코딩일 수 있다. 단일 루프 디코딩은, SVC 디코더가 디코딩되고 있는 레이어에서 하나의 모션 보상 루프를 설정할 수 있으며, 다른 하위 레이어(들)에서 모션 보상 루프(들)를 설정할 필요가 없을 수도 있다는 사실을 나타낼 수 있다. 예를 들어, 비트스트림은 레이어 1(베이스 레이어) 및 레이어 2(향상 레이어)와 같은 2개 레이어를 포함할 수 있다. 디코더가 레이어 2 비디오를 재구축하기를 원하는 경우, 디코딩된 픽쳐 버퍼 및 모션 보상 예측은 레이어 2에 대해 설정될 수 있지만 레이어 1(예를 들어, 레이어 2가 따를 수 있는 베이스 레이어)에 대해서는 설정되지 않는다. 따라서, SVC는 예를 들어, 완전하게 재구축되는 하위 레이어로부터 기준 픽쳐를 필요 및/또는 사용하지 않을 수 있어, 디코더에서 연산 복잡도 및 메모리 요건을 감소시킨다.
단일 루프 디코딩은 제한된 레이어 간 텍스쳐 예측에 의해 달성될 수 있으며, 주어진 레이어에서의 현재 블록에 있어서, 대응 하위 레이어 블록이 인트라 모드에서 코딩될 수 있으면 하위 레이어로부터의 공간적 텍스쳐 예측이 허용될 수 있다(이는 제한된 인트라 예측으로도 칭해질 수 있음). 예를 들어, 하위 레이어 블록이 인트라 모드에서 코딩될 수 있는 경우, 모션 보상 연산과 디코딩된 픽쳐 버퍼에 대한 필요 없이 재구축될 수 있다. 향상 레이어의 레이트 왜곡 효율을 향상시키기 위해, SVC는 하위 레이어로부터 모션 벡터 예측, 잔차 예측, 모드 예측 및/또는 등과 같은 추가적인 레이어 간 예측 기술을 사용할 수 있다. SVC의 단일 루프 디코딩 피쳐가 코덱에서 연산 복잡도 및 메모리 요건을 감소시킬 수 있지만, 만족할만한 성능을 달성하기 위해서 블록 레벨 레이어 간 예측 방법에 크게 의존함으로써 구현 복잡도를 증가시킬 수 있다. 또한, 단일 루프 디코딩 제한을 부과함으로써 발생되는 성능 저하를 보상하기 위해, 인코더 설계 및 연산 복잡도는, 원하는 성능을 달성될 수 있도록 증가될 수 있다. 인터레이싱된 컨텐츠의 코딩은 SVC에 의해 양호하게 지원되지 않을 수 있으며, 이는 방송 업계에 의한 그 채용에 영향을 줄 수 있다. 따라서, SVC 인코더와 디코더 설계 및 시스템 구현의 복잡도는 시장에서의 한정된 SVC 채용을 야기할 수 있다.
멀티 뷰 비디오 코딩(Multi-view Video Coding, MVC)은 뷰 확장성을 제공할 수 있는 H.264의 다른 확장일 수 있다. 뷰 확장성에서, 베이스 레이어는 통상적인 2D 비디오를 재구축하기 위해 디코딩될 수 있으며, 추가적인 향상 레이어는 동일 비디오 신호의 다른 뷰 표현을 재구축하기 위해 디코딩될 수 있다. 뷰가 함께 결합될 수 있고 적절한 3D 디스플레이에 의해 표시될 수 있는 경우, 사용자는 적절한 심도 인식을 갖는 3D 비디오를 경험할 수 있다. 도 2는 좌측 뷰(레이어 1)와 우측 뷰(Layer 2)를 갖는 스테레오스코픽 비디오를 코딩하기 위해 MVC를 사용하는 예시적인 예측 구조를 제공할 수 있다. 0의 좌측 뷰 비디오는 IBBP 예측 구조로 코딩될 수 있다. 우측 뷰 비디오는 PBBB 예측 구조로 코딩될 수 있다. 우측 뷰에서, 좌측 뷰에서 제1 I 픽쳐와 배치된 제1 픽쳐는 P 픽쳐로서 코딩될 수 있다. 우측 뷰의 다른 픽쳐는 우측 뷰의 시간 참조로부터의 제1 예측과 좌측 뷰의 레이어 간 참조로부터의 제2 예측을 갖는 B 픽쳐로서 코딩될 수 있다.
3D 안경을 사용할 수 있는 스테레오스코픽 3D TV는 가정에서 3D 컨텐츠(예를 들어, 영화, 스포츠 중계 및/또는 등)를 즐기는 데 사용될 수 있다. SVC와 달리, MVC는 단일 루프 디코딩 피쳐를 지원하지 않을 수 있다. 도 2에 나타낸 바와 같이, 우측 뷰(레이어 2) 비디오의 디코딩은, 모션 보상 루프가 양쪽 뷰/레이어에서 지원될 수 있도록 좌측 뷰(레이어 1)의 픽쳐(예를 들어, 모든 또는 전체 픽쳐)가 이용 가능하게 되는 것을 필요로 할 수 있다. 그러나, MVC는 높은 레벨의 구문 변경을 포함할 수 있다는 점에서 설계상 이점을 가질 수 있으며, H.264/AVC에 대한 블록 레벨의 변경을 포함하지 않을 수 있다. 기본 MVC 인코더/디코더 로직이 동일하게 유지될 수 있으므로 이것은 더 용이한 구현으로 귀결될 수 있으며 용이하게 복제될 수 있고/있거나 슬라이스/픽쳐 레벨의 참조 픽쳐가 MVC를 가능하게 하도록 올바르게 구성되는 것을 필요로 할 수 있다. 이는, 최근 3D 비디오 컨텐츠의 급증과 함께(예를 들어, 주로 3D 영화 제작 및 3D 스포츠 중계 방송), MVC가 SVG에 비해 훨씬 더 넓은 상업적인 성공을 즐길 수 있게 하거나 이를 허용하게 할 수 있다. MVC는 복수의 뷰에 걸쳐 레이어 간 예측을 수행하기 위해서 0에서의 예를 확장함으로써 2개 뷰 초과의 코딩을 또한 지원할 수 있다.
3D 비디오 코딩에서, 예를 들어, MPEG 프레임 호환(MPEG Frame Compatible, MFC) 코딩이 또한 제공되고/되거나 사용될 수 있다. 예를 들어, 본 명세서에 설명된 바와 같이, 3D 컨텐츠는 좌측 및 우측 뷰와 같은 2개의 뷰를 포함할 수 있는 스테레오스코픽 3D 비디오일 수 있다. 스테레오스코픽 3D 컨텐츠 전송은 2개의 뷰를 하나의 프레임으로 팩킹/멀티플렉싱(따라서, 그 이름이 프레임 호환)하고/하거나 팩킹된 비디오를 H.264/AVC와 같은 기존 표준으로 압축 및 송신함으로써 달성될 수 있다. 수신측에서, 디코딩 후에, 프레임은 2개의 뷰로 언팩킹 및 표시될 수 있다. 뷰의 이러한 멀티플렉싱은 시간 영역 또는 공간 영역에서 수행될 수 있다. 2개 뷰는 2개의 팩터에 의해 공간적으로 다운샘플링될 수 있으며 (예를 들어, 동일한 픽쳐 크기를 유지하기 위해 공간 영역에서 행해질 때) 다양한 구성에 의해 팩킹될 수 있다. 예를 들어, 사이드 바이 사이드(side-by-side) 구성은 픽쳐의 좌측 절반 상에 다운샘플링된 좌측 뷰를, 그리고 픽쳐의 우측 절반 상에 다운샘플링된 우측 뷰를 둘 수 있다. 다른 구성은 탑-앤드-바텀(top-and-bottom), 라인-바이-라인(line-by-line), 체커보드 및/또는 등을 포함할 수 있다. 프레임 호환성 3D 비디오를 달성하는 데 사용될 수 있는 구체적인 구성은 부가 확장 정보(SEI) 메시지를 프레임 팩킹 구성에 의해 반송될 수 있다. 이러한 구성은 대역폭 요건에서 최소한의 증가로 3D 전달을 달성할 수 있지만(예를 들면, 팩킹된 프레임이 압축하기 더 어려울 수 있으므로, 여전히 일부 증가가 있을 수 있다), 공간적 다운샘플링은 뷰의 앨리어싱을 야기하고 3D 비디오의 비주얼 품질 및 사용자 경험을 저하시킬 수 있다. 따라서, MFC의 개발은 예를 들어, 향상된 3D 경험을 위해, 프레임 호환성(즉, 동일 프레임으로 패킹된 2개 뷰) 베이스 레이어 비디오로의 확장성 확장(scalable extension)을 제공하고/하거나 해상도 뷰를 복구하기 위해 하나 이상의 향상 레이어를 제공하는 것에 초점을 맞출 수 있다. 이와 같이, 3D 비디오 전송을 제공하는 것을 향해 조정되었지만, 전체 해상도 MFC를 가능하게 하는 중요한 기본 기술은 공간 확장성 기술에 밀접하게(예를 들어, 더 밀접하게) 관련이 있을 수 있다.
HEVC의 확장성 향상에 대한 요건 및/또는 이용 사례가 제공, 제조 및/또는 사용될 수 있다. 추가적으로, 하나 이상의 타겟이 예를 들어, 공간 확장성을 위해 확립되어 있을 수 있다. 더 높은 해상도의 비디오에 대해 측정된, 비확장성 코딩을 사용하는 경우에 비해, 2x 공간 확장성에 대한 25% 비트 레이트 감소 및 1.5x 공간 확장성에 대한 50% 비트 레이트 감소의 타겟이 달성될 수 있다. 확장성 HEVC에 대한 이용 사례를 넓히기 위해, 소위 확장성이 사용될 수 있다. 베이스 레이어가 H.264/AVC 또는 심지어 MPEG2와 같은 이전 표준으로 인코딩될 수 있을 때 표준 확장성은 확장성의 유형을 나타낼 수 있으며, 하나 이상의 향상 레이어는 HEVC 표준과 같은 더욱 최근의 표준을 사용하여 인코딩될 수 있다. 표준 확장성은 이미 이전 표준을 사용하여 인코딩될 수 있는 레거시 컨텐츠에 대한 백워드 호환성을 제공하고, 더 양호한 코딩 효율을 제공할 수 있는 HEVC와 같은 다가오는 표준으로 인코딩된 하나 이상의 향상 레이어를 갖는 레거시 컨텐츠의 품질을 향상시키는 것을 목표로 할 수 있다.
3D 비디오 코딩 또는 3DV로 칭해지는 다른 3D 확장성 비디오 코딩 기술이 또한 제공되고/되거나 사용될 수 있다. 3DV의 주요 작업은 오토스테레오스코픽 애플리케이션을 목적으로 한 뷰 확장성의 다양한 특색을 개발하는 것일 수 있다. 오토스테레오스코픽 디스플레이와 애플리케이션은 번거로운 안경 없이 사람들이 3D를 경험하는 것을 허용하거나 이를 가능하게 할 수 있다. 안경 없이 적절한 또는 양호한 3D 경험을 달성하기 위해서, 2개 초과의 뷰가 제공 및/또는 사용될 수 있다. (예를 들어, 9개 뷰 또는 10개 뷰와 같은) 많은 뷰를 코딩하는 고가일 수 있다. 따라서, 3DV는 뷰의 심도 정보를 제공할 수 있는 심도 맵과 함께 비교적 큰 차이를 갖는 몇몇 뷰(예를 들어, 2개 또는 3개 뷰)를 코딩하는 하이브리드 접근을 제공 및/또는 사용할 수 있다. 디스플레이측에서, 코딩된 뷰 및 심도 맵이 디코딩될 수 있으며, 나머지 뷰는 뷰 합성 기술을 사용하여 디코딩된 뷰와 그 심도 맵을 사용하여 생성될 수 있다. 3DV는 뷰와 심도 맵을 코딩하는 위한 다양한 방법을 고려할 수 있으며 예를 들어, 하나의 표준(예를 들어, H.264/AVC)으로 베이스 레이어를 코딩하는 것을 포함하여 H.264/AVC, MVC 및 HEVC와 같은 다른 표준의 조합을 사용하여 이를 코딩하고 다른 표준(예를 들어, HEVC)으로 하나 이상의 향상 레이어를 코딩한다. 3DV는 선택하기 위해 애플리케이션에 대한 상이한 옵션의 메뉴를 제공할 수 있다.
표 1은 본 명세서에서 설명된 확장성의 상이한 유형을 요약한다. 표 1의 하단에, 비트 심도 확장성 및 크로마 포맷 확장성이 프로페셔널 비디오 애플리케이션에 의해 주로 사용되는 비디오 포맷(예를 들어, 8비트 비디오보다 너 높고, YUV4:2:0보다 더 높은 크로마 샘플링 포맷)에 연결될 수 있다.
진보된 디스플레이 기술로, ITU BT.2020에서 특정될 수 있는 초고해상도 TV(UHDTV)는 HDTV 사양(BT.709)에 비해 더 큰 해상도, 더 큰 비트 심도, 더 높은 프레임 레이트 및 더 넓은 색역을 지원할 수 있다. 이러한 기술로, 사용자 경험은, BT.2020이 제공할 수 있는 높은 충실도의 품질로 인해 크게 향상될 수 있다. UHDTV는 프레임 레이트가 120Hz까지이고 픽쳐 샘플의 비트 심도가 10비트 또는 12비트인 4K(3840x2160) 및 8K(7680x4320) 해상도까지 지원할 수 있다. UHDTV의 색공간은 BT.2020에 의해 정의될 수 있다. 도 3은 CIE 색정의에서 BT.709(HDTV)와 BT.2020(UHDTV) 간 비교를 나타낸다. BT.2020에서 렌더링된 컬러의 볼륨은 BT.709에서보다 넓을 수 있으며, 이는 더 많은 가시 컬러 정보가 UHDTV 사양을 사용하여 렌더링될 수 있다는 것을 의미할 수 있다.
확장성 표준
뷰 확장성 2D->3D(2개 이상의 뷰) MVC, MFC, 3DV
공간 확장성 720p->1080p SVC, 확장성 HEVC
품질(SNR) 확장성 35dB->38dB SVC, 확장성 HEVC
시간 확장성 30fps->60fps H.264, SVC, 확장성 HEVC
표준 확장성 H.264/AVC->HEVC 3DV, 확장성 HEVC
비트 심도 확장성 8비트 비디오->10비트 비디오 확장성 HEVC*
크로마 포맷 확장성 YUV4:2:0->YUV4:2:2, YUV4:4:4 확장성 HEVC*
종횡비 확장성 4:3->16:9 확장성 HEVC*
색역 확장성 BT.709(HDTV)->BT.2020(UHDTV) 확장성 HEVC*
표 1. 확장성의 상이한 유형들
제공 및/또는 사용될 수 있는 확장성 중 하나의 유형은 색역 확장성일 수 있다. 색역 확장성(color gamut scalable, CGS) 코딩은 2개 이상의 레이어가 다른 색역 및 비트 심도를 가질 수 있는 멀티 레이어 코딩일 수 있다. 예를 들어, 표 1에 나타낸 바와 같이, 2 레이어 확장성 시스템에서 베이스 레이어는 BT.709에서 정의된 HDTV 색역일 수 있으며, 향상 레이어는 BT.2020에서 정의된 UHDTV 색역일 수 있다. 사용될 수 있는 다른 색역은 P3 색역일 수 있다. P3 색역은 디지털 시네마 애플리케이션에서 사용될 수 있다. CGS 코딩의 레이어 간 프로세스는 베이스 레이어 색역을 향상 레이어 색역으로 변환하기 위해 색역 변환 방법을 사용할 수 있다. 색역 변환이 적용될 수 있는 후에, 생성된 레이어 간 참조 픽쳐는 예를 들어, 더 양호하거나 개선된 정밀도로 향상 레이어 픽쳐를 예측하는 데 사용될 수 있다. 도 4a 및 4b는 각각 BT.709의 색역과 P3의 색역 간에 최종 사용자에 대한 비주얼 차이의 예를 도시한다. 도 4a 및 4b에서, 동일한 컨텐츠가 다른 색역을 사용하여 2회 컬러 그레이딩될 수 있다. 예를 들어, 도 4a의 컨텐츠는 BT.709에서 컬러 그레이딩되고, BT.709 디스플레이 상에서 렌더링/표시될 수 있으며, 도 4b의 컨텐츠는 P3에서 컬러 그레이딩되고 BT.709 디스플레이 상에서 렌더링/표시될 수 있다. 나타낸 바와 같이, 두 이미지 사이에서 현저한 컬러 차이가 존재한다.
예를 들어, 도 5의 CGS 코딩 시스템을 사용하여, 예를 들어 도 4a가 베이스 레이어에서 코딩되고 도 4b가 향상 레이어에서 코딩되면, 추가적인 레이어 간 프로세싱이 향상 레이어 코딩 효율을 개선하기 위해 제공 및/또는 사용될 수 있다. 색역 변환 방법은 CGS용 레이어 간 프로세싱에도 사용될 수 있다. 색역 변환 방법의 사용을 통해 BT.709 공간의 컬러는 P3 공간으로 트랜슬레이팅될 수 있으며, 보다 효과적으로 P3 공간에서의 향상 레이어 신호를 예측하는 데 사용될 수 있다.
BL 색역과 EL 색역이 고정될 수 있는 경우에도(예를 들어, BL은 709에 있을 수 있으며 EL은 2020에 있을 수 있음) 색역 변환을 위한 모델 파라미터가 상이한 컨텐츠에 대해 다를 수 있다. 이러한 파라미터는, 컬러리스트(들)가 그 또는 그녀 또는 그들의 예술적 의도를 반영하기 위해 다른 공간 및 다른 컨텐츠에 다른 그레이딩 파라미터를 적용할 수 있는 컨텐츠 생성의 포스트 프로덕션 중에 컬러 그레이딩 프로세스에 의존할 수 있다. 또한, 컬러 그레이딩을 위한 입력 비디오는 높은 충실도의 픽쳐를 포함할 수 있다. 확장성 코딩 방식에서, BL 픽쳐의 코딩은 양자화 잡음을 도입할 수 있다. 계층 예측 구조와 같은 코딩 구조로, 양자화 레벨은 픽쳐 당 또는 픽쳐의 그룹 당 조정될 수 있다. 따라서, 컬러 그레이딩에서 생성된 모델 파라미터는 코딩 목적으로 충분하게 정확하지 않을 수 있다. 인코더가 실시간으로 모델 파라미터를 추정하여 코딩 노이즈를 보상하는 것이 더 효과적일 수 있다. 인코더는 픽쳐 당 또는 픽쳐의 그룹 당 이러한 파라미터를 추정할 수 있다. 예를 들어, 컬러 그레이딩 프로세스 중에 및/또는 인코더에 의해 생성된 이러한 모델 파라미터는, 디코더가 레이어 간 예측 중에 동일한 색역 변환 프로세스를 수행할 수 있도록 시퀀스 및/또는 픽쳐 레벨에서 디코더에 시그널링될 수 있다.
선형 또는 구분 선형과 같은 다양한 색역 변환 방법이 있을 수 있다. 영화 산업에서, 3D 룩업 테이블(3D LUT)이 하나의 색역 방법 또는 기술로 다른 것으로의 색역 변환을 위해 사용될 수 있다. 또한, CGS 코딩을 위한 3D LUT가 제공 및/또는 사용될 수 있다. 도 5는 픽쳐 레벨 레이어 간 예측(inter-layer prediction, ILP)을 갖는 예시적인 CGS 코딩 방식을 도시한다. ILP는 베이스 레이어(BL) 색역으로부터 향상 레이어(EL) 색역으로의 색역 변환, BL 공간 해상도로부터 EL 공간 해상도로의 업샘플링, 및/또는 BL 샘플 비트 심도로부터 EL 샘플 비트 심도로의 역(inverse) 톤 매핑(예를 들어, 샘플 비트 심도의 변환)을 포함한다.
본 명세서에 설명된 바와 같이, 3D LUT는 색역 변환을 위해 사용될 수 있다. 예를 들어, (y,u,v)가 베이스 레이어의 색역에서 샘플 트리플렛으로서 표기될 수 있고, (Y,U,V)가 EL 색역에서 트리플렛으로 표기될 수 있다. 3D LUT에서, BL 색공간의 범위는 도 6에 나타낸 바와 같이 동등한 옥탄트로 구분될 수 있다. 3D LUT의 입력은 BL 색역의 (y,u,v)일 수 있으며, 3D LUT의 출력은 EL 색역의 매핑된 트리플렛(Y,U,V)일 수 있다. 변환 프로세스 중에, 입력(y,u,v)가 옥탄트의 정점 중 하나와 중첩할 수 있으면, 출력(Y,U,V)는 아마도 직접 3D LUT 항목 중 하나를 참조함으로써 도출될 수 있다. 그렇지 않으면, 입력(y,u,v)가 옥탄트 내에 있을 수 있으면(하지만 예를 들어 그 정점 중 하나 상에 있지는 않음), 도 7에 나타낸 바와 같이 삼선형 보간이 그 가장 가까운 8개 정점과 함께 적용될 수 있다. 삼선형 보간은 이하의 식 중 하나 이상을 사용하여 수행될 수 있다:
Figure 112016037325674-pct00001
Figure 112016037325674-pct00002
여기에서,
Figure 112016037325674-pct00003
는 BL 색역의 정점을 나타낼 수 있으며(즉, 3D LUT에의 입력),
Figure 112016037325674-pct00004
는 EL 색역의 정점을 나타낼 수 있으며(즉, 항목
Figure 112016037325674-pct00005
에서의 3D LUT의 출력),
Figure 112016037325674-pct00006
이다.
본 명세서에 설명된 바와 같이, 3D LUT는 컬러리스트에 의해 컬러 그레이딩 프로세스로부터 생성될 수 있거나, 예를 들어 하나의 색공간에서의 원래 신호 및 다른 색공간에서의 대응 신호를 사용하여 인코더에 의해 추정될 수 있다. 3D LUT는, 디코더가 레이어 간 프로세싱 중에 동일한 색역 변환 프로세스를 적용할 수 있도록 인코더에서 디코더로 비트스트림으로 전송될 수 있다. 테이블의 크기가 커질 수 있으므로, 크거나 높은(예를 들어, 상당한) 3D LUT의 시그널링 오버헤드가 증가될 수 있다. 예를 들어, 도 6에 나타낸 바와 같이, 샘플 비트 심도는 8비트일 수 있다. 단위 옥탄트 크기가 16x16x16일 수 있는 경우, 3D LUT 테이블에서 17x17x17 항목이 있을 수 있다. 3D LUT의 각 항목은 또한 3개의 성분을 포함할 수 있다. 따라서, 총 비압축 테이블 크기는 117912(17x17x17x3x8)비트일 수 있다. 오버헤드의 이러한 양으로, 개별 픽쳐가 이렇게 큰 오버헤드를 제공할 수 없을 수 있기 때문에, (예를 들어, 단지) 3D LUT는 (예를 들어, 단지) 시퀀스 레벨에서 시그널링될 수 있다. 시퀀스의 픽쳐는 동일 3D LUT를 사용할 수 있으며, 이는 차선의 색역 변환으로 도출될 수 있으며, 향상 레이어 코딩 효율을 저하시킬 수 있다.
이와 같이, 시스템 및/또는 방법이 3D LUT 코딩을 개선하기 위해 제공될 수 있다. 예를 들어, 불균등한 옥탄트가 색공간 구분에 사용될 수 있으면 3D LUT의 테이블 크기가 감소될 수 있다. 일부 컬러 영역에 있어서, 옥탄트는 3D LUT 테이블의 항목의 수를 줄이기 위해 더 거칠 수 있다(예를 들어, 인접한 정점 사이에 더 큰 거리가 있을 수 있다).
이러한 종류의 계층 트리 구조 3차원 데이터에 있어서, 옥트리가 효율적인 코딩을 위해 제공 및/또는 사용될 수 있다. 도 8에 나타낸 바와 같이, 4개의 레이어가 있을 수 있으며, 레이어 1의 옥탄트 3 및 6이 분할될 수 있다. 옥트리의 각 노드는 하나의 옥탄트를 나타낼 수 있으며, 각 노드는 루트에서 참조될 수 있다. 예를 들어, 레이어 1의 옥탄트 3에 속하는 레이어 2의 옥탄트 0은 루트 노드로부터 "0~3~0"으로 참조될 수 있으며, "~"은 레이어 구분자로서 사용될 수 있다. 옥탄트는 추가로 분할될 수 있다면 8개의 서브 옥탄트로 구분될 수 있다. 옥트리의 좌측 옥탄트는 레이어-2 노드 및 일부 레이어-1 노드를 포함하는 도 8에 예에 대해 인코딩될 수 있다(예를 들어, 추가로 분할될 수 있는 3 및 6 제외). 3D LUT의 하나의 정점은 다른 레이어에서 복수의 노드에 속할 수 있다. 예를 들어, 도 8의 정점 N은 노드 0-0, 0-1, 0-2, 0-3 및 0-3-0에 속할 수 있다. 옥트리를 사용하여 3D LUT를 코딩할 때, 중첩 관계는 정점의 불필요한 시그널링을 피하기 위해 고려될 수 있으며(예를 들어, 각 정점은 1회 코딩될 수 있음), 본 명세서에 설명된 바와 같이 효율적인 3D LUT를 제공하기 위해 사용될 수 있다.
표 2는 3D LUT 코딩을 위한 구문 요소를 열거한다. 표 2의 함수 coding_octant()는 예를 들어, 표 3의 컨텍스트에서 설명된 바와 같이, 레이어 우선 운행 순으로 3D LUT의 정점을 인코딩하기 위해 재귀적으로 호출될 수 있다. 함수 u(n), ue(v) 및 se(v)는 다음과 같이 정의될 수 있다: u(n): n비트를 사용하는 부호 없는 정수, ue(v): 0차 Exp-Golomb 코딩된 부호 없는 정수, 및/또는 se(v): 0차 Exp-Golomb 코딩된 부호 있는 정수.
Figure 112016037325674-pct00007
표 2. 3D LUT 코딩의 구문
num_layers_minus1:(num_layers_minus1+1)은 옥트리가 갖는 레이어의 수를 계산하는 데 사용될 수 있다. 이는 도 8의 옥트리 예에 있어서 2일 수 있다.
prediction_mode는 옥트리 코딩을 위한 3개의 가능한 예측 모드를 포함할 수 있다. prediction_mode가 0일 수 있는 경우, 현재 3D LUT로부터의 부모 옥탄트는 그 자녀 옥탄트의 각각을 코딩하기 위한 예측으로서 사용될 수 있다. 각 자녀 옥탄트/정점에 대한 예측값은 삼선형 보간으로 그 부모 옥탄트로부터 생성될 수 있다. 이러한 예측 모드는 표 3의 컨텍스트에서 추가로 설명될 수 있다. prediction_mode가 1일 수 있는 경우, 기존의 글로벌 3D LUT(예를 들어, 본 명세서에서 후술하는 바와 같이 정의됨)는 현재 3D LUT를 코딩하기 위한 예측으로서 사용될 수 있으며, 각 정점에 대한 예측은 기존의 글로벌 3D LUT의 배치된 정점으로부터 생성될 수 있다(예를 들어, 존재하지 않는다면 배치된 정점이 보간될 수 있음). prediction_mode가 2일 수 있는 경우, 현재 3D LUT와 기존의 글로벌 3D LUT 양쪽이 예측으로서 사용될 수 있으며, 각 옥탄트/정점 코딩에 사용되는 예측이 별도로 각 옥탄트/정점에 대해 시그널링될 수 있다.
LUT_precision_luma_minus1이 제공 및/또는 사용될 수 있다. LUT_precision_luma_minus1+1은 코딩되는 LUT 파라미터와 luma(Y) 성분에 대한 그 예측 사이의 차이를 코딩하는 데 사용되는 예측 파라미터일 수 있다.
LUT_precision_chroma_minus1이 제공 및/또는 사용될 수 있다. LUT_precision_chroma_minus1+1은 LUT 파라미터와 크로마(U, V) 성분에 대한 그 예측 사이의 차이를 코딩하는 데 사용되는 정밀도 파라미터일 수 있다. 정밀도 파라미터는 루마 신호에 대한 것과 다를 수 있다.
본 명세서에서 설명된 바와 같이, LUT_precision_luma_minus1 및 LUT_precision_chroma_minus1은 LUT 파라미터 디코딩 프로세스를 위해 사용될 수 있다. 이러한 정밀도 파라미터의 더 작은 값은 3D LUT를 보다 정확하게 만들 수 있고, 색역 변환의 왜곡을 감소시킬 수 있다. 또한, 더 작은 값은 코딩 비트의 수를 증가시킬 수 있다. 따라서, 이러한 정밀도 파라미터의 적절한 값은 레이트 왜곡 최적화(rate-distortion optimization, RDO) 프로세스에 의해 결정될 수 있다.
표 3은 레이어 우선 운행순의 옥트리 코딩에 대한 예시적인 구문 요소를 열거한다. 레이어 우선 운행순 코딩의 예가 도 8에 나타내어질 수 있다. 예를 들어, 3D LUT가 도 8에 2개의 표현으로 나타내어질 수 있다. 예를 들어, 좌측 상에, 3D LUT는 더 작은 옥탄트로 재귀적으로 분할되고 있는 개시 옥탄트에서 나타내어질 수 있으며, 각 옥탄트는 8개 정점을 갖는다. 우측 상에, 3D LUT의 대응 옥트리 표현이 나타내어질 수 있다. 우측 상의 옥트리의 각 노드는 좌측 상의 하나의 옥탄트(또는 동등하게 8개 정점)에 대응할 수 있다. 각 옥탄트(또는 각 옥트리 노드)를 코딩하기 위해, 8개의 표시 정점이 코딩될 수 있다. 이는 표 3에서 "for(i=0;i<8:i++)"의 "for" 루프에 의해 반영될 수 있다. 도 8에서, 레이어 0의 개시 옥탄트는 그 각각이 그 자신의 8개 정점을 갖는 레이어 1의 8개 옥탄트의 코딩에 선행하여 "px"로 표기된 8개 정점의 형태로 코딩될 수 있다. 레이어 1의 이러한 정점 중 19개는 고유할 수 있으며(예를 들어, "qx"로 표기될 수 있음), 코딩될 필요가 있을 수 있다. 이는 표 3의 구문과 다른 구문 사이의 차이일 수 있다. 레이어 1의 옥탄트가 코딩될 수 있는 후에, 레이어 1의 옥탄트 3 및 6이 레이어 2의 8개 자녀 옥탄트 각각으로 다시 분할될 수 있다.
나타낸 바와 같이, 제안된 시그널링은, 주어진 정점이 코딩되었을 때의 플래그일 수 있으며, 정점이 옥트리에서 하나 초과의 노드에 의해 공유될 수 있는 상태에서 반복적으로 정점을 전송하는 것을 회피할 수 있다. 도 8의 예에서, 이는 레이어 1의 코딩되는 정점의 수를 64(8×8)에서 19로 감소시킬 수 있다. 추가적으로, prediction_mode가 2인 경우, 제안된 방법은 각 정점에 대해 예측 방법을 시그널링할 수 있다(예를 들어, 기존 3D LUT의 배치된 정점 또는 현재 3D LUT의 부모 정점).
Figure 112016037325674-pct00008
표 3. coding_octant()에 대한 구문 요소
나타낸 바와 같이, vertex_prediction_mode가 제공 및/또는 사용될 수 있으며, 0은 현재 정점을 예측하기 위해 현재 3D LUT의 부모 옥탄트를 사용하는 것을 나타낼 수 있으며, 1은 현재 정점을 예측하기 위해 기존의 글로벌 3D LUT의 배치된 옥탄트를 사용하는 것을 나타낼 수 있다. prediction_mode가 2와 동등하지 않을 수 있는 경우, vertex_prediction_mode는 prediction_mode와 동등하도록 설정될 수 있다.
현재 3D LUT의 부모 옥탄트는 (예를 들어, 정점 예측 모드가 0으로 설정될 수 있을 경우에) 현재 정점을 예측하는 데 사용될 수 있다. 이전에 설명한 바와 같이, 레이어 우선 운행 순서가 사용될 수 있으므로, 레이어(1)의 부모 옥탄트는 레이어(1+1)의 자녀 옥탄트 전에 코딩될 수 있다. 도 8의 예에서, 레이어 0에서의 8개 정점 px가 우선 코딩될 수 있다. 19개 정점 qx 중 하나를 코딩하는 경우, 예측자는 레이어 0에서 8개 정점 px로부터 삼선형 보간을 사용하여 우선 형성될 수 있다. 정점 qx를 직접 코딩하는 대신, qx와 그 예측자 사이의 차이가 비트 오버헤드를 감소시키기 위해 코딩될 수 있다.
nonzero_residual_flag가 제공 및/또는 사용될 수 있으며, 예를 들어, 1은 코딩되는 논제로 잔차가 있을 수 있다는 것을 나타낼 수 있으며; 0은 잔차가 제로일 수 있다는 것을 나타낼 수 있으며; 및/또는 디코딩된 값은 그 예측과 동등할 수 있다.
deltaY 또는 루마 성분의 델타가 인코딩될 수 있다. deltaY는 다음과 같이 계산될 수 있다:
Figure 112016037325674-pct00009
루마 성분의 LUT 파라미터는 다음과 같이 디코더에서 재구축될 수 있다.
Figure 112016037325674-pct00010
(LUT_precision_luma_minus1+1)이 2의 거듭제곱일 수 있는 경우, 식 (1)에서의 나눗셈은 log2(LUT_precision_luma_minus1+1)비트 우측 시프팅하여 치환될 수 있고/있거나 식 (2)의 곱셈은 log(LUT_percision_luma_minus1+1)비트를 좌측 시프팅하여 치환될 수 있다. 좌측/우측 시프트는 하드웨어로 구현하기에 용이할 수 있으므로, 색역 확장성 코딩 시스템은 (LUT_percision_luma_minus1+1)이 2의 거듭제곱이 되게 하는 것이 유리하다는 것을 알 수 있다. 이러한 경우에, 표 2의 구문 요소는 대신 log2(LUT_percision_luma_minus1+1)의 값을 나타내도록 변경될 수 있다.
deltaU 또는 chromaU의 델타 성분이 인코딩될 수 있으며, 예를 들어, 다음과 같이 계산될 수 있다:
Figure 112016037325674-pct00011
크로마 U 성분의 LUT 파라미터는 다음과 같이 디코더에서 재구축될 수 있다.
Figure 112016037325674-pct00012
delta V 또는 chromaV의 델타 성분이 인코딩될 수 있다. delta V는 다음과 같이 계산될 수 있다:
Figure 112016037325674-pct00013
chroma V 성분의 LUT 파라미터는 다음과 같이 디코더에서 재구축될 수 있다.
Figure 112016037325674-pct00014
루마 성분과 마찬가지로, 색역 확장성 코딩 시스템은, 좌측/우측 시프트가 곱셈 및 나눗셈 대신에 사용될 수 있도록 (LUT_precision_chroma_minus1+1)이 2의 거듭제곱이 되게 하는 것이 유리하다는 것을 알 수 있다.
(LUT_precision_luma_minus1+1) 또는 (LUT_precision_chroma_minus1+1)이 2의 거듭제곱이 아닐 수 있는 경우, 제수가 ASIC와 같은 하드웨어 구현으로 구현하기에 고비용일 수 있으므로, 나눗셈은 직접 나눗셈을 적용하는 대신 곱셈과 시프팅의 조합에 의해 근사화될 수 있다. 예를 들어, 식(1)(3)(5)는 (7)(8)(9)로서 구현될 수 있다:
Figure 112016037325674-pct00015
여기에서 (LUT_precision_luma_minus1+1) 및 (LUT_precision_chroma_minus1+1)은 다음과 같이 계산될 수 있다:
Figure 112016037325674-pct00016
LUT_precision_luma_minus1이 0일 수 있으므로 deltaY가 계산될 수 있다. LUT_precision_chroma_minus1이 0일 수 있으므로 deltaU 및 deltaV가 계산될 수 있다.
또한, prediction_Y, prediction_U 및 prediction_V는 하나 이상의 LUT 파라미터의 예측일 수 있다. 이는 prediction_mode에 따라 도출될 수 있다. prediction_mode가 0일 수 있는 경우, 예측은 현재 정점의 상위 레이어로부터의 삼선형 보간일 수 있다. 예를 들어, 현재 인코딩 정점이 도 9b의 정점 V일 수 있는 경우, 그 예측은 레이어 1에서의 옥탄트 3의 8개 정점으로부터 삼선형 보간될 수 있다. prediction_mode가 1일 수 있다면, 예측은 글로벌 LUT의 배치된 정점과 동등할 수 있다.
octant_split_flag가 제공 및/또는 사용될 수 있으며, 예를 들어, 1은 현재 옥탄트가 추가로 분할될 수 있으며, 8개의 자녀 옥탄트가 코딩될 것이라는 것을 나타낼 수 있다. 0과 동등할 수 있는 octant_split_flag는, 현재 옥탄트가 리프(leaf) 옥탄트일 수 있다는 것을 나타낼 수 있다.
표 3의 dy[i], du[i] 및 dv[i]의 값이 표 4에서 정의될 수 있다.
Figure 112016037325674-pct00017
표 4. dy, du 및 dv의 정의
그 정점이 (y,u,v)에 위치될 수 있는 옥탄트의 정점 인덱스를 도출하기 위해 새로운 함수 getVertex(y,u,v,i)가 사용될 수 있다. 함수 getVertex(y,u,v,i)는 다음의 의사 코드를 사용하여 계산될 수 있다:
Figure 112016037325674-pct00018
octant_len_y, octant_len_u 및 octant_len_v의 값은 각각 루마에 대한 최소 옥탄트, 컬러 성분 u 및 컬러 성분 v의 길이를 나타낼 수 있다. size_in_vertices의 값은 각 차원에 대한 정점의 최대 수일 수 있다.
flag coded_flag[n]이 설정될 수 있다(예를 들어, 일단 n의 값이 getVertex(y,u,v.i)를 사용하여 계산될 수 있다). 플래그는, 정점 "n"이 코딩되었을 수 있다는 것을 추적하고/하거나 정점 "n"을 다시 코딩하는 것을 피하기 위해 후속적으로 사용될 수 있다.
시퀀스 및 픽쳐 레벨 3D LUT 시그널링이 또한 제공 및/또는 사용될 수 있다. 예를 들어, 3D LUT 시그널링을 위해, 시스템은 시퀀스 레벨의 분석에 기초하여 3D LUT를 시그널링할 수 있다. 이는 글로벌 또는 시퀀스 레벨 3D LUT일 수 있다. 이러한 시퀀스 레벨 3D LUT는 비디오 파라미터 세트(VPS), 시퀀스 파라미터 세트(SPS) 또는 픽쳐 파라미터 세트(PPS)와 같은 높은 레벨의 파라미터 세트로 반송될 수 있다. 비디오 시퀀스의 픽쳐는 글로벌 3D LUT를 사용할 수 있다.
표 5는 PPS에서 글로벌 3D LUT를 시그널링하는 예시적인 구문 표를 나타낸다. 3D LUT를 사용하는 것 외에도, 표 5의 구문은 선형 매핑, 구분 선형 매핑 및/또는 등과 같은 다른 유형의 색역 변환 방법을 사용하는 것을 지원할 수 있다. 특정 색역 변환 방법은 ue(v) 코딩을 사용하여 PPS로 코딩될 수 있으며, 이는 추가적인 색역 변환 방법이 지원될 수 있게 할 수 있다. 또한, 표 5는 색역 확장성을 지원하는 구문 요소가 포함될 수 있는지 여부를 나타내는 플래그(color_gamut_scalability_flag)를 포함한다. CGS가 2개의 특정 레이어 간에 지원될 수 있는지 여부가 (예를 들어, scalability_mask를 사용하여) VPS에서 시그널링될 수 있지만, VSP와 PPS 간에 파싱 독립성을 갖는 것이 바람직할 수 있다. 따라서, PPS의 추가적인 1비트 플래그가 표 5에서와 같이 포함될 수 있어 CGS를 나타낸다.
Figure 112016037325674-pct00019
표 5. 글로벌 3D LUT 시그널링(예로서 PPS를 사용)
나타낸 바와 같이, color_gamut_scalability_flag가 제공될 수 있다. color_gamut_scalability_flag는 색역 확장성 관련 매핑 정보가 존재하는지 여부를 나타내는 데 사용될 수 있다.
color_gamut_conversion_method는 또한 2개의 레이어 간 색역 변환을 수행하기 위해 사용되는 특정 방법을 나타내는 데 사용될 수 있다. 색역 변환 방법의 세트는 선형 매핑, 구분 선형, 3D LUT, 다항식 모델 등을 포함할 수 있다. color_gamut_conversion_method가 3D LUT로 설정될 수 있는 경우, 표 2에 정의된 3D_LUT() 시그널링이 사용될 수 있다.
비디오 시퀀스의 하나 이상의 픽쳐에 대해, 인코더는 (예를 들어, 확장성 코딩 효율을 더욱 개선하기 위해) 픽쳐 레벨 3D LUT를 비트스트림으로 시그널링하기로 결정할 수 있다. 이렇게 갱신된 3D LUT 정보는 코딩된 슬라이스 데이터와 함께 슬라이스 세그먼트 헤더 내측에 시그널링될 수 있고/있거나 적응 파라미터 세트(APS)와 같은 별도의 NAL 유닛에서 시그널링될 수 있다. 글로벌 3D LUT와 구분하기 위해, 후자의 경우는 픽쳐 레벨 3D LUT일 수 있다.
Figure 112016037325674-pct00020
표 6. 픽쳐 레벨 3D LUT 시그널링(예를 들어 슬라이스 세그먼트 헤더 사용)
3D_LUT_present_flag는 픽쳐 레벨 3D LUT 정보가 존재하는지 여부를 나타내는 데 사용될 수 있다.
픽쳐 레벨 3D LUT는 현재 3D LUT의 부모 정점으로부터 예측함으로써 코딩될 수 있으며, 그 예측으로서 글로벌 3D LUT를 사용하여 코딩될 수 있고/있거나 예측으로서 정점 레벨에서 예측 모드를 시그널링하는 것 양쪽을 사용할 수 있다. 이는 표 2의 prediction__mode의 값을 적절한 값으로 설정하여 달성될 수 있다. 픽쳐 레벨 3D LUT는 글로벌 3D LUT에 비해 다른 레이어 수를 가질 수 있다. 예를 들어, 더 많은 레이어를 가질 수 있어 픽쳐 레벨 3D LUT를 더욱 정확하게 하며, 이는 차례로 색역 변환 프로세스를 개선할 수 있으며, 따라서 향상 레이어 코딩 효율을 개선할 수 있다. 픽쳐 레벨 3D LUT가 시퀀스 레벨 3D LUT보다 더 많은 레이어를 갖는 경우, 예측으로서 시퀀스 레벨 3D LUT를 사용하여 이를 코딩하는 것이 유리할 수 있다. 이 경우에, 글로벌 3D LUT에 이미 존재하지 않을 수 있는 이러한 배치된 정점은 글로벌 3D LUT에 이미 존재하는 그 이웃 정점으로부터 삼선형 보간에 의해 도출될 수 있다. 도 9a 및 9b는 이러한 예를 나타내며, 여기에서 픽쳐 레벨 3D LUT(도 9b)는 3개 레이어를 가질 수 있고, 글로벌 3D LUT(도 9a)는 2개 레이어를 가질 수 있으며 예측으로서 사용될 수 있다. 픽쳐 레벨 3D LUT의 레이어 2의 정점 V가 코딩될 수 있는 경우에, 예측은 글로벌 3D LUT의 레이어 1에서의 이웃 정점 P0, P1,...P7로부터 삼선형 보간될 수 있다.
도 10a는 하나 이상의 개시된 실시예가 구현될 수 있고/있거나 사용될 수 있는 예시적인 통신 시스템(100)의 도면을 도시한다. 통신 시스템(100)은 예를 들어, 복수의 무선 사용자에 대해, 음성, 데이터, 비디오, 메시징, 방송 등과 같은 컨텐츠를 제공하는 다중 접속 시스템일 수 있다. 통신 시스템(100)은 무선 대역폭을 포함하여 시스템 리소스의 공유를 통해 이러한 컨텐츠에 복수의 무선 사용자가 접속 가능하게 할 수 있다. 예를 들어, 통신 시스템(100)은 코드 분할 다중 접속(CDMA), 시분할 다중 접속(TDMA), 주파수 분할 다중 접속(FDMA), 직교 FDMA(OFDMA), 단일 캐리어 FDMA(SC-FDMA) 등과 같은 하나 이상의 채널 접속 방법을 채용할 수 있다.
도 10a에 나타낸 바와 같이, 통신 시스템(100)은 (일반적으로 또는 집합적으로 WTRU(102)로 나타낼 수 있는) 무선 송신/수신 유닛(WTRU)(102a, 102b, 102c 및/또는 102d), 무선 접속 네트워크(RAN)(103/104/105), 코어 네트워크(106/107/109), 공중 전화망(PSTN)(108), 인터넷(110) 및 다른 네트워크(112)를 포함할 수 있지만, 개시된 실시예는 임의의 수의 WTRU, 기지국, 네트워크 및/또는 네트워크 요소를 고려한다는 것이 이해될 것이다. 각각의 WTRU(102a, 102b, 102c 및/또는 102d)는 무선 환경에서 동작 및/또는 통신하도록 구성된 임의의 유형의 디바이스일 수 있다. 예시의 방식으로, WTRU(102a, 102b, 102c 및/또는 102d)는 무선 신호를 송신 및/또는 수신하도록 구성될 수 있으며, 사용자 기기(UE), 이동국, 고정 또는 모바일 가입자 유닛, 호출기, 셀룰러 폰, 개인 디지털 보조기기(PDA), 스마트폰, 랩톱, 넷북, 퍼스널 컴퓨터, 무선 센서, 가전 장치 등을 포함할 수 있다.
통신 시스템(100)은 기지국(114a)과 기지국(114b)을 또한 포함할 수 있다. 기지국(114a, 114b)의 각각은 코어 네트워크(106/107/109), 인터넷(110) 및/또는 네트워크(112)와 같은 하나 이상의 통신 네트워크에 대한 접속을 용이하게 하기 위해 WTRU(102a, 102b, 102c 및/또는 102d) 중 적어도 하나와 무선으로 인터페이싱하도록 구성된 임의의 유형의 디바이스일 수 있다. 예시의 방식으로, 기지국(114a 및/또는 114b)은 베이스 트랜시버 스테이션(BTS) 노드 B, e노드 B, 홈 노드 B, 홈 e노드 B, 사이트 컨트롤러, 접속 포인트(AP), 무선 라우터 등일 수 있다. 기지국(114a, 114b)이 각각 단일 요소로서 도시되지만, 기지국(114a, 114b)은 임의의 수의 상호 연결된 기지국 및/또는 네트워크 요소를 포함할 수 있다는 것이 이해될 것이다.
기지국(114a)은 RAN(103/104/105)의 일부일 수 있으며, 이는 또한 다른 기지국 및/또는 기지국 제어(BSC), 무선 네트워크 제어기(RNC), 중계 노드 등과 같은 다른 네트워크 요소(미도시)를 포함할 수 있다. 기지국(114a) 및/또는 기지국(114b)은 셀(미도시)로서 칭해질 수 있는 특정 지리적 영역 내에서 무선 신호를 송신 및/또는 수신하도록 구성될 수 있다. 셀은 셀 섹터로 추가로 분할될 수 있다. 예를 들어, 기지국(114a)과 연결된 셀은 3개의 섹터로 분할될 수 있다. 따라서, 일 실시예에서, 기지국(114a)은 3개의 트랜시버, 즉 셀의 각 섹터에 대해 하나를 포함할 수 있다. 다른 실시예에서, 기지국(114a)은 다중 입력 다중 출력(MIMO) 기술을 채용할 수 있으므로, 셀의 각 섹터에 대해 복수의 트랜시버를 이용할 수 있다.
기지국(114a 및/또는 114b)은 임의의 적절한 무선 통신 링크(예를 들어, 무선 주파수(RF), 마이크로파, 적외선(IR), 자외선(UV), 가시광 등)일 수 있는 무선 인터페이스(115/116/117)를 통해 WTRU(102a, 102b, 102c 및/또는 102d) 중 하나 이상과 통신할 수 있다. 무선 인터페이스(115/116/117)는 임의의 적절한 무선 접속 기술(RAT)을 사용하여 확립될 수 있다.
상술한 바와 같이, 보다 구체적으로는, 통신 시스템(100)은 다중 접속 시스템 일 수 있으며, CDMA, TDMA, FDMA, OFDMA, SC-FDMA 등과 같은 하나 이상의 채널 접속 방식을 채용할 수 있다. 예를 들어, RAN(103/104/105)의 기지국(114a)과 WTRU(102a, 102b 및/또는 102c)는 범용 모바일 통신 시스템(UMTS) 지상 무선 접속(UTRA)과 같은 무선 기술을 구현할 수 있으며, 이는 광대역 CDMA(WCDMA)를 사용하여 무선 인터페이스(115/116/117)를 확립할 수 있다. WCDMA는 고속 패킷 접속(HSPA) 및/또는 진화형 HSPA(HSPA+)와 같은 통신 프로토콜을 포함할 수 있다. HSPA는 고속 다운링크 패킷 접속(HSDPA) 및/또는 고속 업링크 패킷 접속(HSUPA)을 포함할 수 있다.
다른 실시예에서, 기지국(114a)과 WTRU(102a, 102b 및/또는 102c)는 롱텀 에볼루션(LTE) 및/또는 LTE-어드밴스(LTE-A)를 사용하여 무선 인터페이스(115/116/117)를 확립할 수 있는 진화형 UMTS 지상 무선 접속(E-UTRA)과 같은 무선 기술을 구현할 수 있다.
다른 실시예에서, 기지국(114a)과 WTRU(102a, 102b 및/또는 102c)는 IEEE 802.16(즉, 마이크로웨이브 접속(WiMAX의)을 위한 세계적인 상호운용), CDMA2000, CDMA20001X, CDMA2000 EV-DO, 잠정 표준 2000(IS-2000), 잠정 표준 95(IS-95), 잠정 표준 856(IS-856), 모바일 통신용 글로벌 시스템(GSM), GSM 에볼루션을 위한 향상된 데이터 레이트(EDGE) GSM EDGE(GERAN) 등과 같은 무선 기술을 구현할 수 있다.
도 10a의 기지국(114b)은 무선 라우터, 홈 노드 B, 홈 e노드 B, 또는 접속 포인트일 수 있으며, 예를 들어, 비지니스, 홈, 차량, 캠퍼스 등의 장소와 같은 국부화된 영역에서의 무선 접속을 용이하게 하기 위해 임의의 적절한 RAT를 이용할 수 있다. 일 실시예에서, 기지국(114b)과 WTRU(102c, 102d)는 무선 근거리 통신망(WLAN)을 확립하기 위해 IEEE 802.11과 같은 무선 기술을 구현할 수 있다. 다른 실시예에서, 기지국(114b)과 WTRU(102c, 102d)는 무선 개인 영역 네트워크(WPAN)를 확립하기 위해 IEEE 802,15와 같은 무선 기술을 구현할 수 있다. 또 다른 실시예에서, 기지국(114b)과 WTRU(102c, 102d)는 피코셀 또는 펨토셀을 확립하기 위해 셀룰라 기반 RAT(예를 들어, WCDMA, CDMA2000, GSM, LIE, LTE-A 등)를 이용할 수 있다. 도 10a에 나타낸 바와 같이, 기지국(114b)은 인터넷(110)에 대한 직접 접속을 가질 수 있다. 따라서, 기지국(114b)은 코어 네트워크(106/107/109)를 통해 인터넷(110)에 접속하는 데 필요하지 않을 수 있다.
RAN(103/104/105)은 음성, 데이터, 애플리케이션 및/또는 음성 인터넷 프로토콜(VoIP) 서비스를 하나 이상의 WTRU(102a, 102b, 102c 및/또는 102d)에 제공하도록 구성된 임의의 유형의 네트워크일 수 있는 코어 네트워크(106/107/109)와 통신할 수 있다. 예를 들어, 코어 네트워크(106/107/109)는 통화 제어, 과금 서비스, 모바일 위치 기반 서비스, 선불 통화, 인터넷 접속, 비디오 분배 등을 제공할 수 있고/있거나 사용자 인증과 같은 높은 레벨의 보안 기능을 수행할 수 있다. 도 10a에 나타내지 않았지만, RAN(103/104/105) 및/또는 코어 네트워크(106/107/109)는 RAN(103/104/105)과 동일한 RAT 또는 다른 RAT를 채용하는 다른 RAN과 직접 또는 간접으로 통신할 수 있다. 예를 들어, E-UTRA 무선 기술을 이용할 수 있는 RAN(103/104/105)에 접속되는 것 외에도, 코어 네트워크(106/107/109)는 또한 GSM 무선 기술을 채용하는 다른 RAN(미도시)과 통신할 수 있다.
코어 네트워크(106/107/109)는 또한 PSTN(108), 인터넷(110) 및/또는 다른 네트워크(112)에 WTRU(102a, 102b, 102c 및/또는 102d)가 접속하는 게이트웨이로서 기능할 수 있다. PSTN(108)은 일반 전화 서비스(POTS)를 제공하는 회로 전환 전화망을 포함할 수 있다. 인터넷(110)은 전송 제어 프로토콜(TCP), 사용자 데이터그램 프로토콜(UDP) 및 TCP/IP 인터넷 프로토콜 스위트의 인터넷 프로토콜(IP)과 같은 공통 통신 프로토콜을 사용하는 디바이스 및 상호 접속된 컴퓨터 네트워크의 글로벌 시스템을 포함할 수 있다. 네트워크(112)는 다른 서비스 공급자에 의해 소유되고/되거나 운용되는 유선 또는 무선 통신 네트워크를 포함할 수 있다. 예를 들어, 네트워크(112)는 RAN(103/104/105)과 동일한 RAT 또는 다른 RAT을 채용할 수 있는 하나 이상의 RAN에 접속된 다른 코어 네트워크를 포함할 수 있다.
통신 시스템(100)의 일부 또는 모두의 WTRU(102a, 102b, 102c 및/또는 102d)가 멀티 모드 기능을 포함할 수 있으며, 즉 WTRU(102a, 102b, 102c 및/또는 102d)는 다른 무선 링크를 통해 다른 무선 네트워크와 통신하기 위한 복수의 트랜시버를 포함할 수 있다. 예를 들어, 도 10a에 나타낸 WTRU(102c)는 셀룰러 기반 무선 기술을 채용할 수 있는 기지국(114a)과, IEEE 802 무선 기술을 채용할 수 있는 기지국(114b)과 통신하도록 구성될 수 있다.
도 10b는 예시적인 WTRU(102)의 시스템도를 도시한다. 도 10b에 나타낸 바와 같이, WTRU(102)는 프로세서(118), 트랜시버(120), 송신/수신 요소(122), 스피커/마이크로폰(124), 키패드(126), 디스플레이/터치패드(128), 비이동식 메모리(130), 이동식 메모리(132), 전원(134), 위성 위치 확인 시스템(GPS) 칩셋(136) 및 다른 주변 장치(138)를 포함할 수 있다. WTRU(102)가 상술한 요소의 임의의 하위 조합을 포함할 수 있으며, 나머지는 실시예와 일치한다는 것이 이해될 것이다. 또한, 실시예는, 기지국(114a 및 114b) 및/또는 노드를 고려하며, 기지국(114a, 114b)은 그 중에서 트랜시버 스테이션(BTS), 노드 B, 사이트 컨트롤러, 접속 포인트(AP), 홈 노드 B, 진화형 홈 노드 B(e노드 B), 홈 진화형 노드 B(HeNB), 홈 진화형 노드 B 게이트웨이, 프록시 노드를 나타낼 수 있지만, 이에 한정되는 것은 아니며, 도 10b에 도시되고 본 명세서에 설명된 요소의 일부 또는 전부를 포함할 수 있다.
프로세서(118)는 범용 프로세서, 전용 프로세서, 통상적인 프로세서, 디지털 신호 프로세서(DSP), 복수의 마이크로프로세서, DSP 코어와 연관된 하나 이상의 마이크로프로세서, 컨트롤러, 마이크로컨트롤러, 주문형 집적 회로(ASIC), 필드 프로그래머블 게이트 어레이(FPGA) 회로, 집적 회로(IC)의 임의의 다른 유형, 상태 머신 등일 수 있다. 프로세서(118)는 신호 코딩, 데이터 프로세싱, 전력 제어, 입력/출력 프로세싱 및/또는 WTRU(102)를 무선 환경에서 동작 가능하게 하는 임의의 다른 기능을 수행할 수 있다. 프로세서(118)는 송신/수신 요소(122)에 연결될 수 있는 트랜시버(120)에 연결될 수 있다. 도 10b는 프로세서(118)와 트랜시버(120)를 별개 요소로서 도시하지만, 프로세서(118) 및 트랜시버(120)는 전자 패키지 또는 칩에 함께 통합될 수 있다는 것이 이해될 수 있다.
송신/수신 요소(122)는 무선 인터페이스(115/116/117)를 통해 기지국(예를 들어, 기지국(114a))으로 신호를 송신하거나 이로부터 신호를 수신하도록 구성될 수 있다. 예를 들어, 일 실시예에서, 송신/수신 요소(122)는 RF 신호를 송신 및/또는 수신하도록 구성된 안테나일 수 있다. 다른 실시예에서, 송신/수신 요소(122)는 예를 들어, IR, UV 또는 가시광 신호를 송신 및/또는 수신하도록 구성된 이미터/검출기일 수 있다. 또 다른 실시예에서, 송신/수신 요소(122)는 RF 및 광 신호 양쪽을 송신 및 수신하도록 구성될 수 있다. 송신/수신 요소(122)는 무선 신호의 임의의 조합을 송신 및/또는 수신하도록 구성될 수 있다는 것이 이해될 것이다.
또한, 송신/수신 요소(122)가 단일 요소로서 도 10b에 도시되어 있지만, WTRU(102)는 임의의 수의 송신/수신 요소(122)를 포함할 수 있다. 보다 구체적으로는, WTRU(102)는 MIMO 기술을 채용할 수 있다. 따라서, 일 실시예에서, WTRU(102)는 무선 인터페이스(115/116/117)를 통해 무선 신호를 송신 및 수신하기 위하여 2개 이상의 송신/수신 요소(122)(예를 들어, 복수의 안테나)를 포함할 수 있다.
트랜시버(120)는 송신/ 수신 요소(122)에 의해 송신되는 신호를 변조하고, 송신/수신 요소(122)에 의해 수신되는 신호를 복조하도록 구성될 수 있다. 상술한 바와 같이, WTRU(102)는 멀티 모드 기능을 가질 수 있다. 따라서, 트랜시버(120)는 예를 들어, UTRA 및 IEEE 802.11과 같은 복수의 RAT를 통해 WTRU(102)가 통신 가능하게 하기 위한 복수의 트랜서버를 포함할 수 있다.
WTRU(102)의 프로세서(118)는 스피커/마이크로폰(124), 키패드(126) 및/또는 디스플레이/터치패드(128)(예를 들어, 액정 디스플레이(LCD) 디스플레이 유닛 또는 유기 발광 다이오드(OLED) 디스플레이 유닛)에 연결될 수 있으며, 이로부터 사용자 입력 데이터를 수신할 수 있다. 프로세서(118)는 또한 스피커/마이크로폰(124), 키패드(126) 및/또는 디스플레이/터치패드(128)에 사용자 데이터를 출력할 수 있다. 또한, 프로세서(118)는 비이동식 메모리(130) 및/또는 이동식 메모리(132)와 같은 임의의 유형의 적절한 메모로부터의 정보에 접속할 수 있고 이에 데이터를 저장할 수 있다. 비이동식 메모리(130)는 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 하드 디스크 또는 임의의 다른 유형의 메모리 저장 디바이스를 포함할 수 있다. 이동식 메모리(132)는 가입자 식별 모듈(SIM) 카드, 메모리 스틱, 보안 디지털(SD) 메모리 카드 등을 포함할 수 있다. 다른 실시예에서, 프로세서(118)는 서버 또는 홈 컴퓨터(미도시)에서와 같이 물리적으로 WTRU(102)에 위치되지 않은 메모리로부터의 정보에 접속할 수 있고 이에 데이터를 저장할 수 있다.
프로세서(118)는 전원(134)으로부터 전력을 받을 수 있으며, WTRU(102)의 다른 구성 요소에 전력을 분배 및/또는 제어하도록 구성될 수 있다. 전원(134)은 WTRU(102)를 구동하기 위한 임의의 적절한 디바이스일 수 있다. 예를 들어, 전원(134)은 하나 이상의 드라이 셀 배터리(예를 들어, 니켈 카드뮴(NiCd), 니켈 아연(NiZn), 니켈 금속 하이브리드(NiMH), 리튬 이온(Li 이온) 등), 태양 전지, 연료 전지 등을 포함할 수 있다.
프로세서(118)는 WTRU(102)의 현재 위치에 대한 위치 정보(예를 들어, 위도와 경도)를 제공하도록 구성될 수 있는 GPS 칩셋(136)에 또한 연결될 수 있다. GPS 칩셋(136)으로부터의 정보에 추가하여 또는 그 대신 WTRU(102)는 기지국(예를 들어, 기지국(114a, 114b))으로부터 무선 인터페이스(115/116/117)를 통해 위치 정보를 수신할 수 있고/있거나 2개 이상의 인접 기지국에서 수신되고 있는 신호의 타이밍에 기초하여 그 위치를 결정할 수 있다. WTRU(102)는 임의의 적절한 위치 결정 방법에 의해 위치 정보를 취득할 수 있으며 나머지는 실시예와 일치한다는 것이 이해될 것이다.
프로세서(118)는 또한 추가의 피쳐, 기능 및/또는 유선 또는 무선 접속을 제공하는 하나 이상의 소프트웨어 및/또는 하드웨어 모듈을 포함할 수 있는 다른 주변 장치(138)에 연결될 수 있다. 예를 들어, 주변 장치(138)는 가속도계, 전자 나침반, 위성 트랜시버, (사진 또는 비디오용) 디지털 카메라, 범용 직렬 버스(USB) 포트, 진동 디바이스, 텔레비젼 트랜시버, 핸즈프리 헤드셋, 블루투스® 모듈, 주파수 변조(FM) 라디오 유닛, 디지털 음악 플레이어, 미디어 플레이어, 비디오 게임 플레이어 모듈, 인터넷 브라우저 등을 포함할 수 있다.
도 10c는 실시예에 따른 RAN(103)과 코어 네트워크(106)의 시스템도를 도시한다. 상술한 바와 같이, RAN(103)은 무선 인터페이스(115)를 통해 WTRU(102a, 102b 및/또는 102c)와 통신하기 위해 UTRA 무선 기술을 채용할 수 있다. RAN(103)은 또한 코어 네트워크(106)와 통신할 수 있다. 도 10c에 나타낸 바와 같이, RAN(103)은 무선 인터페이스(115)를 통해 WTRU(102a, 102b 및/또는 102c)와 통신하기 위한 하나 이상의 트랜시버를 각각 포함할 수 있는 노드 B(140a, 140b 및/또는 140c)를 포함할 수 있다. 노드 B(140a, 140b 및/또는 140c)는 각각 RAN(103) 내의 특정 셀(미도시)과 연관될 수 있다. RAN(103)은 또한 RNC(142a 및/또는 142b)를 포함할 수 있다. RAN(103)은 임의의 수의 노드 B와 RNC를 포함할 수 있는 것이며, 나머지는 실시예와 일치한다는 것이 이해될 것이다.
도 10c에 나타낸 바와 같이, 노드 B(140a 및/또는 140b)는 RNC(142a)와 통신할 수 있다. 또한, 노드 B(140c)는 RNC(142b)와 통신할 수 있다. 노드 B(140a, 140b 및/또는 140c)는 Iub 인터페이스를 통해 각 RNC(142a, 142b)와 통신할 수 있다. RNC(142a, 142b)는 Iur 인터페이스를 통해 서로 통신할 수 있다. RNC(142a, 142b)의 각각은 그것이 접속되어 있는 각각의 노드 B(140a, 140b 및/또는 140c)를 제어하도록 구성될 수 있다. 또한, 각각의 RNC(142a, 142b)는 외부 루프 전력 제어, 부하 제어, 수락 제어, 패킷 스케줄링, 핸드오버 제어, 매크로 다이버시티, 보안 기능, 데이터 암호화 등과 같은 다른 기능을 수행 또는 지원하도록 구성될 수 있다.
도 10c에 나타내어진 코어 네트워크(106)는 미디어 게이트웨이(MGW)(144), 모바일 스위칭 센터(MSC)(146), 담당 GPRS 지원 노드(SGSN)(148) 및/또는 게이트웨이 GPRS 지원 노드(GGSN)(150)를 포함할 수 있다. 상술한 요소의 각각이 코어 네트워크(106)의 일부로서 도시되어 있지만, 이러한 요소 중 임의의 하나가 코어 네트워크 운용자 이외의 다른 엔티티에 의해 소유 및/또는 운영될 수 있다는 것이 이해될 것이다.
RAN의 RNC(142a)(103)는 IuCS 인터페이스를 통해 코어 네트워크(106)의 MSG(146)에 접속될 수 있다. MSC(146)는 MGW(144)에 접속될 수 있다. MSC(146)와 MGW(144)는 WTRU(102a, 102b 및/또는 102c)와 통상적인 지상 라인 통신 디바이스 간 통신을 용이하게 하기 위해 PSTN(108)과 같은 회로 스위칭 네트워크에 대한 액세스를 갖는 WTRU(102a, 102b 및/또는 102c)를 제공할 수 있다.
RAN(103)의 RNC(142a)는 IuPS 인터페이스를 통해 코어 네트워크(106)의 SGSN(148)에 또한 접속될 수 있다. SGSN(148)은 GGSN(150)에 접속될 수 있다. SGSN(148)과 GGSN(150)은 WTRU(102a, 102b 및/또는 102c)와 IP 인에이블된 디바이스 간 통신을 용이하게 하기 위해 인터넷(110)과 같은 패킷 스위칭 네트워크에 대한 액세스를 갖는 WTRU(102a, 102b 및/또는 102c)를 제공할 수 있다.
상술한 바와 같이, 코어 네트워크(106)는 또한 다른 서비스 공급자에 의해 소유 및/또는 운영되는 다른 유선 또는 무선 네트워크를 포함할 수 있는 네트워크(112)에 접속될 수 있다.
도 10d는 실시예에 따른 RAN(104)과 코어 네트워크(107)의 시스템도를 도시한다. 상술한 바와 같이, RAN(104)은 무선 인터페이스(116)를 통해 WTRU(102a, 102b 및/또는 102c)와 통신하기 위해 E-UTRA 무선 기술을 채용할 수 있다. RAN(104)은 코어 네트워크(107)와 또한 통신할 수 있다.
RAN(104)은 e노드 B(160a, 160b 및/또는 160c)를 포함할 수 있지만, RAN(104)은 임의의 수의 e노드 B를 포함할 수 있으며 나머지는 실시예와 일치한다는 것이 이해될 것이다. e노드 B(160a, 160b 및/또는 160c)는 각각 무선 인터페이스(116)를 통해 WTRU(102a, 102b 및/또는 102c)와 통신하기 위한 하나 이상의 트랜시버를 포함할 수 있다. 일 실시예에서, e 노드 B(160a, 160b 및/또는 160c)는 MIMO 기술을 구현할 수 있다. 따라서, e노드 B(160a)는 예를 들어, WTRU(102a)로 무선 신호를 송신하고 이로부터 무선 신호를 수신하기 위해 복수의 안테나를 사용할 수 있다.
e노드 B(160a, 160b 및/또는 160c)의 각각은 특정 셀(미도시)과 연관될 수 있으며, 무선 리소스 관리 결정, 핸드오버 결정, 업링크 및/또는 다운링크에서의 사용자의 스케줄링 등을 처리하도록 구성될 수 있다. 도 10d에 나타낸 바와 같이, e노드 B(160a, 160b 및/또는 160c)는 X2 인터페이스를 통해 서로 통신할 수 있다.
도 10d에 나타낸 코어 네트워크(107)는 이동성 관리 게이트웨이(MME)(162), 담당 게이트웨이(164) 및 패킷 데이터 네트워크(PDN) 게이트웨이(166)를 포함할 수 있다. 상술한 각 요소가 코어 네트워크(107)의 일부로서 도시되어 있지만, 이러한 요소 중 임의의 하나가 코어 네트워크 운영자 외의 다른 엔티티에 의해 소유 및/또는 운영될 수 있다는 것이 이해될 것이다.
MME(162)는 S1 인터페이스를 통해 RAN(104)의 e노드 B(160a, 160b, 및/또는 160c)의 각각에 접속될 수 있으며, 제어 노드로서의 역할을 할 수 있다. 예를 들어, MME(162)는 WTRU(102a, 102b 및/또는 102c)의 사용자 인증, 베어러 활성/비활성, WTRU(102a, 102b 및/또는 102c)의 초기 연결 중의 특정 담당 게이트웨이 선택 등을 담당할 수 있다. MME(162)는 RAN(104)과 GSM 및 WCDMA와 같은 다른 무선 기술을 채용하는 다른 RAN(미도시) 간 스위칭을 위한 제어면 기능을 또한 제공할 수 있다.
담당 게이트웨이(564)는 S1 인터페이스를 통해 RAN(104)의 e노드 B(160a, 160b 및/또는 160c)의 각각에 접속될 수 있다. 담당 게이트웨이(164)는 WTRU(102a, 102b 및/또는 102c)로/로부터의 사용자 데이터 패킷을 일반적으로 라우팅 및 전달할 수 있다. 담당 게이트웨이(164)는 또한 e노드 B 핸드오버 중 사용자 플레인 고정, WTRU(102a, 102b 및/또는 102c)에 대해 다운링크 데이터가 이용가능한 경우 페이징 트리거링, WTRU(102a, 102b 및/또는 102c)의 컨텍스트의 관리 및 저장 등과 같은 다른 기능을 수행할 수 있다.
담당 게이트웨이(164)는 또한 WTRU(102a, 102b 및/또는 102c)와 IP 인에이블된 디바이스 간 통신을 용이하게 하기 위해 인터넷(110)과 같은 패킷 스위칭 네트워크에 대한 액세스를 갖는 WTRU(102a, 102b 및/또는 102c)를 제공할 수 있는 PDN 게이트웨이(166)에 접속될 수 있다.
코어 네트워크(107)는 다른 네트워크와의 통신을 용이하게 할 수 있다. 예를 들어, 코어 네트워크(107)는 WTRU(102a, 102b 및/또는 102c)와 통상적인 지상 라인 통신 디바이스 간 통신을 용이하게 하기 위해, PSTN(108)과 같은 회로 스위칭 네트워크에 대한 액세스를 갖는 WTRU(102a, 102b 및/또는 102c)를 제공할 수 있다. 예를 들어, 코어 네트워크(107)는 코어 네트워크(107)와 PSTN(108) 간 인터페이스로서의 역할을 하는 IP 게이트웨이(예를 들어, IP 멀티미디어 서브시스템(IMS) 서버)를 포함할 수 있거나 이와 통신할 수 있다. 또한, 코어 네트워크(107)는 다른 서비스 공급자에 의해 소유 및/또는 운영되는 다른 유선 또는 무선 네트워크를 포함할 수 있는 네트워크(112)에 대한 액세스를 갖는 WTRU(102a, 102b 및/또는 102c)를 제공할 수 있다.
도 10e는 실시예에 따른 RAN(105)과 코어 네트워크(109)의 시스템도를 도시한다. RAN(105)은 무선 인터페이스(117)를 통해 WTRU(102a, 102b 및/또는 102c)와 통신하기 위해 IEEE 802.16 무선 기술을 채용하는 액세스 서비스 네트워크(ASN)일 수 있다. 추가로 후술하는 바와 같이, WTRU(102a, 102b 및/또는 102c), RAN(105) 및 코어 네트워크(109)의 다른 기능 엔티티 간 통신 링크는 기준점으로서 정의될 수 있다.
도 10e에 나타낸 바와 같이, RAN(105)은 기지국(180a, 180b 및/또는 180c) 및 ASN 게이트웨이(182)를 포함할 수 있지만, RAN(105)이 임의의 수의 기지국과 ASN을 포함할 수 있으며 나머지는 실시예와 일치한다는 것이 이해될 것이다. 기지국(180a, 180b 및/또는 180c)은 각각 RAN(105)의 특정 셀(미도시)과 연관될 수 있으며, 각각 무선 인터페이스(117)를 통해 WTRU(102a, 102b 및/또는 102c)와 통신하기 위해 하나 이상의 트랜시버를 포함할 수 있다. 일 실시예에서, 기지국(180a, 180b 및/또는 180c)은 MIMO 기술을 구현할 수 있다. 따라서, 기지국(180a)은 예를 들어, WTRU(102a)로 무선 신호를 송신하고 이로부터 무선 신호를 수신하기 위해 복수의 안테나를 사용할 수 있다. 기지국(180a, 180b 및/또는 180c)은 또한 핸드오프 트리거링, 터널 확립, 무선 리소스 관리, 트래픽 분류, 서비스 품질(QoS) 정책 시행 등과 같은 이동성 관리 기능을 제공할 수 있다. ASN 게이트웨이(182)는 트래픽 집약점으로서의 기능을 할 수 있으며, 페이징, 가입자 프로필의 캐싱, 코어 네트워크(109)에 대한 라우팅 등을 담당할 수 있다.
WTRU(102a, 102b 및/또는 102c)와 RAN(105) 간 무선 인터페이스(117)는 IEEE 802.16 사양을 구현하는 R1 기준점으로서 정의될 수 있다. 또한, WTRU(102a, 102b 및/또는 102c) 각각은 코어 네트워크(109)와의 로직 인터페이스(미도시)를 확립할 수 있다. WTRU(102a, 102b 및/또는 102c)와 코어 네트워크(109) 간 로직 인터페이스는 인증, 허가, IP 호스트 구성 관리 및/또는 이동성 관리에 사용될 수 있는 R2 기준점으로서 정의될 수 있다.
각각의 기지국(180a, 180b 및/또는 180c) 간 통신 링크는 WTRU 핸드오버와 기지국 간 데이터 전송을 용이하게 하기 위한 프로토콜을 포함하는 R8 기준점으로서 정의될 수 있다. 기지국(180a, 180b 및/또는 180c)과 ASN 게이트웨이(182) 간 통신 링크는 R6 기준점으로서 정의될 수 있다. R6 기준점은 WTRU(102a, 102b 및/또는 102c)의 각각과 연관된 이동성 이벤트에 기초하여 이동성 관리를 용이하게 하기 위한 프로토콜을 포함할 수 있다.
도 10e에 나타낸 바와 같이, RAN(105)은 코어 네트워크(109)에 접속될 수 있다. RAN(105)과 코어 네트워크(109) 간 통신 링크는 예를 들어, 데이터 전송 및 이동성 관리 기능을 용이하게 하기 위한 프로토콜을 포함하는 R3 기준점으로서 정의될 수 있다. 코어 네트워크(109)는 모바일 IP 홈 에이전트(MIP-HA)(184), 인증, 허가, 과금(AAA) 서버(186) 및 게이트웨이(188)를 포함할 수 있다. 상술한 각 요소가 코어 네트워크(109)의 일부로서 도시되어 있지만, 이러한 요소 중 임의의 하나가 코어 네트워크 운영자 외의 다른 엔티티에 의해 소유 및/또는 운영될 수 있다는 것이 이해될 것이다.
MIP-HA는 IP 어드레스 관리를 담당할 수 있으며, 다른 ASN 및/또는 다른 코어 네트워크 간에 로밍하기 위해 WTRU(102a, 102b 및/또는 102c)를 인에이블할 수 있다. MIP-HA(184)는 WTRU(102a, 102b 및/또는 102c)와 IP 인에이블된 디바이스 간 통신을 용이하게 하기 위해 인터넷(110)과 같은 패킷 스위칭 네트워크에 대한 액세스를 갖는 WTRU(102a, 102b 및/또는 102c)를 제공할 수 있다. AAA 서버(186)는 사용자 인증 및 사용자 서비스 지원을 담당할 수 있다. 게이트웨이(188)는 다른 네트워크와의 연동을 용이하게 할 수 있다. 예를 들어, 게이트웨이(188)는 WTRU(102a, 102b 및/또는 102c)와 통상적인 육상 라인 통신 디바이스 간 통신을 용이하게 하기 위해 PSTN(108)과 같은 회로 스위칭 네트워크에 대한 액세스를 갖는 WTRU(102a, 102b 및/또는 102c)를 제공할 수 있다. 또한, 게이트웨이(188)는 다른 서비스 공급자에 의해 소유 및/또는 운영되는 다른 유선 또는 무선 네트워크를 포함할 수 있는 네트워크(112)에 대한 액세스를 갖는 WTRU(102a, 102b 및/또는 102c)를 제공할 수 있다.
도 10e에 나타내지 않았지만, RAN(105)은 다른 ASN에 접속될 수 있고, 코어 네트워크(109)는 다른 코어 네트워크에 접속될 수 있다는 것이 이해되어야 하고, 이해될 수 있고/있거나 이해될 것이다. RAN(105)과 다른 ASN 간 통신 링크는 RAN(105)과 다른 ASN 간 WTRU(102a, 102b 및/또는 102c)의 이동성을 조정하기 위한 프로토콜을 포함할 수 있는 R4 기준점으로서 정의될 수 있다. 코어 네트워크(109)와 다른 코어 네트워크 간 통신 링크는 홈 코어 네트워크와 방문된 코어 네트워크 간의 연동을 용이하게 하기 위한 프로토콜을 포함할 수 있는 R5 기준으로서 정의될 수 있다.
특징 및 요소가 특정 조합으로 상술되어 있지만, 본 기술분야의 통상의 기술자는, 각 특징 또는 요소가 단독으로 또는 다른 특징 및 요소와의 임의의 조합으로 사용될 수 있다는 것을 이해할 것이다. 또한, 본 명세서에 설명되는 방법은 컴퓨터 또는 프로세서에 의해 실행하기 위한 컴퓨터 판독 가능 매체에 통합된 컴퓨터 프로그램, 소프트웨어 또는 펌웨어에서 구현될 수 있다. 컴퓨터 판독 가능 매체의 예는 전자 신호(유선 또는 무선 접속을 통해 전송됨)와 컴퓨터 판독 가능 저장 매체를 포함한다. 컴퓨터 판독 가능 저장 매체의 예는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 레지스터, 캐시 메모리, 반도체 메모리 디바이스, 내부 하드 디스크 및 이동식 디스크와 같은 자기 매체, 자기 광 매체, 및 CD-ROM 디스크와 같은 광학 매체 및 디지털 다기능 디스크(DVD)를 포함하지만 이에 한정되는 것은 아니다. 소프트웨어와 연관되는 프로세서는 WTRU, UE, 단말, 기지국, RNC 또는 임의의 호스트 컴퓨터에서 사용하기 위한 무선 주파수 트랜시버를 구현하는 데 사용될 수 있다.

Claims (23)

  1. 컬러값 변환을 위한 방법에 있어서,
    비트스트림에서, 3D 룩업 테이블(look-up table, LUT)을 복수의 옥탄트(octant)로 분할하기 위한 제1 파라미터와 연관되고 제2 파라미터와 연관된 3D LUT를 수신하는 단계로서, 각각의 옥탄트는 제1 색공간의 일부를 나타내고, 상기 제2 파라미터는 옥탄트에 의해 나타내어지는 제1 색공간의 일부에 대해 상기 제1 색공간으로부터 제2 색공간으로의 매핑을 정의하는 것인, 3D LUT를 수신하는 단계;
    상기 비트스트림에서, 상기 3D LUT와 연관된 컬러 매핑 계수 잔차값의 제1 정밀도를 나타내는 컬러 매핑 파라미터 정밀도 표시자를 수신하는 단계; 및
    상기 제1 색공간으로부터 상기 제2 색공간으로의 컬러값 변환에 대한 상기 컬러 매핑 계수 잔차값을 포함하는 상기 제2 파라미터를 디코딩하는 단계로서, 상기 제2 파라미터를 디코딩하는 단계는 상기 컬러 매핑 파라미터 정밀도 표시자의 값에 의해 상기 컬러 매핑 계수 잔차값을 좌측 시프팅(left-shifting)하는 단계를 포함하는 것인, 상기 제2 파라미터를 디코딩하는 단계를 포함하는, 컬러값 변환 방법.
  2. 제1항에 있어서,
    상기 좌측 시프팅된 컬러 매핑 계수 잔차값 및 컬러 매핑 계수 예측값에 기초하여 컬러 매핑 계수를 도출하는 단계; 및
    상기 컬러 매핑 계수를 사용하여 상기 제1 색공간 내의 제1 컬러값을 상기 제2 색공간 내의 제2 컬러값으로 변환하는 단계를 더 포함하는 것인, 컬러값 변환 방법.
  3. 삭제
  4. 제1항에 있어서,
    베이스 레이어(base layer) 픽쳐로부터 레이어 간(inter-layer) 참조 픽쳐를 생성하기 위해 상기 컬러값 변환을 사용하는 단계; 및
    상기 레이어 간 참조 픽쳐를 사용하여 향상(enhancement) 레이어 픽쳐를 예측하는 단계를 더 포함하는, 컬러값 변환 방법.
  5. 제1항에 있어서,
    제2 3D LUT, 제2 정밀도 - 상기 제2 정밀도는 상기 제1 정밀도와는 상이함 - 를 나타내는 제2 매핑 파라미터 정밀도 표시자 및 상기 제2 3D LUT와 연관된 파라미터를 포함하는 제2 비트스트림을 수신하는 단계; 및
    상기 제2 정밀도를 나타내는 상기 제2 매핑 파라미터 정밀도 표시자에 기초하여 상기 제2 3D LUT와 연관된 상기 파라미터를 디코딩하는 단계를 더 포함하는, 컬러값 변환 방법.
  6. 비디오 디코더에 있어서,
    프로세서를 포함하고, 상기 프로세서는,
    비트스트림에서, 3D 룩업 테이블(LUT)를 복수의 옥탄트로 분할하기 위한 제1 파라미터와 연관되고 제2 파라미터와 연관된 3D LUT를 수신하고 - 각각의 옥탄트는 제1 색공간의 일부를 나타내고, 상기 제2 파라미터는 옥탄트에 의해 나타내어지는 제1 색공간의 일부에 대해 상기 제1 색공간으로터 제2 색공간으로의 매핑을 정의함 - ;
    상기 비트스트림에서, 상기 3D LUT와 연관된 컬러 매핑 계수 잔차값의 제1 정밀도를 나타내는 컬러 매핑 파라미터 정밀도 표시자를 수신하고;
    상기 제1 색공간으로부터 상기 제2 색공간으로의 컬러값 변환에 대한 상기 컬러 매핑 계수 잔차값을 포함하는 상기 제2 파라미터를 디코딩하도록 구성되고,
    상기 디코딩은 상기 컬러 매핑 파라미터 정밀도 표시자의 값에 의해 상기 컬러 매핑 계수 잔차값을 좌측 시프팅(left-shifting)하는 것을 포함하는, 비디오 디코더.
  7. 제6항에 있어서, 상기 프로세서는 또한,
    상기 좌측 시프팅된 컬러 매핑 계수 잔차값 및 컬러 매핑 계수 예측값에 기초하여 컬러 매핑 계수를 도출하고;
    상기 컬러 매핑 계수를 사용하여 상기 제1 색공간 내의 제1 컬러값을 상기 제2 색공간 내의 제2 컬러값으로 변환하도록 구성되는 것인, 비디오 디코더.
  8. 삭제
  9. 제6항에 있어서,
    상기 프로세서는 또한,
    제2 3D LUT, 제2 정밀도 - 상기 제2 정밀도는 상기 제1 정밀도와는 상이함 - 를 나타내는 제2 매핑 파라미터 정밀도 표시자 및 상기 제2 3D LUT와 연관된 파라미터를 포함하는 제2 비트스트림을 수신하고,
    상기 제2 정밀도를 나타내는 상기 제2 매핑 파라미터 정밀도 표시자에 기초하여 상기 제2 3D LUT와 연관된 상기 파라미터를 디코딩하도록 구성되는 것인, 비디오 디코더.
  10. 비디오 인코딩 방법에 있어서,
    제2 픽쳐를 생성하기 위해 제1 픽쳐에 컬러 변환 모델 - 상기 컬러 변환 모델은 하나 이상의 옥탄트를 포함하는 3D 룩업 테이블(LUT)을 사용하여 표현되고, 옥탄트는 상기 옥탄트에 대한 색역(color gamut) 변환을 정의하기 위한 파라미터를 포함하며, 상기 파라미터는 제1 색공간으로부터 제2 색공간으로의 컬러값 변환에 대한 컬러 매핑 계수 잔차값을 포함함 - 을 적용하는 단계;
    상기 컬러 매핑 계수 잔차값의 정밀도와 연관된 값에 의해 상기 컬러 매핑 계수 잔차값을 우측 시프팅(right-shifting)하는 단계; 및
    상기 우측 시프팅된 컬러 매핑 계수 잔차값 및 상기 컬러 매핑 계수 잔차값의 정밀도를 나타내는 컬러 매핑 파라미터 정밀도 표시자를 포함하는 비디오 비트스트림을 생성하는 단계를 포함하는, 비디오 인코딩 방법.
  11. 제10항에 있어서,
    상기 제1 픽쳐는 베이스 레이어 픽쳐이고, 상기 제2 픽쳐는 레이어 간 참조 픽쳐인 것인, 비디오 인코딩 방법.
  12. 제10항에 있어서,
    상기 컬러 매핑 파라미터 정밀도 표시자는 상기 파라미터에 대한 정밀도 값을 포함하며, 상기 정밀도 값은 손실 코딩되기 전의 상기 파라미터의 정밀도보다 작거나 동일한 것인, 비디오 인코딩 방법.
  13. 제10항에 있어서,
    제1 정밀도 값이 루마(luma) 성분에 적용되고, 제2 정밀도 값이 크로마(chroma) 성분에 적용되는 것인, 비디오 인코딩 방법.
  14. 제10항에 있어서,
    레이트 왜곡 최적화 기술을 사용하여 상기 정밀도를 결정하는 단계를 더 포함하는, 비디오 인코딩 방법.
  15. 삭제
  16. 제10항에 있어서,
    제4 픽쳐를 생성하기 위해 제3 픽쳐에 제2 컬러 변환 모델 - 상기 제2 컬러 변환 모델은 제2 3D LUT를 사용하여 표현되고, 상기 제2 3D LUT와 연관된 파라미터는 제2 정밀도로 코딩됨 - 을 적용하는 단계; 및
    상기 제2 3D LUT와 연관된 상기 파라미터 및 상기 제2 정밀도를 나타내는 제2 컬러 매핑 파라미터 정밀도 표시자를 포함하는 제2 비디오 비트스트림을 생성하는 단계를 더 포함하는, 비디오 인코딩 방법.
  17. 비디오 인코더에 있어서,
    프로세서를 포함하고, 상기 프로세서는,
    제2 픽쳐를 생성하기 위해 제1 픽쳐에 컬러 변환 모델 - 상기 컬러 변환 모델은 하나 이상의 옥탄트를 포함하는 3D 룩업 테이블(LUT)을 사용하여 표현되고, 옥탄트는 상기 옥탄트에 대한 색역 변환을 정의하기 위한 하나 이상의 파라미터를 포함하고, 상기 하나 이상의 파라미터는 제1 색공간으로부터 제2 색공간으로의 컬러값 변환에 대한 컬러 매핑 계수 잔차값을 포함함 - 을 적용하고,
    상기 3D LUT와 연관된 상기 하나 이상의 파라미터를 상기 컬러 매핑 계수 잔차값의 제1 정밀도로 코딩하고 - 상기 코딩은 상기 컬러 매핑 계수 잔차값을 생성하는 것과, 상기 컬러 매핑 계수 잔차값의 제1 정밀도와 연관된 값에 의해 상기 컬러 매핑 계수 잔차값을 우측 시프팅(right-shifting)하는 것은 포함함 -,
    상기 우측 시프팅된 컬러 매핑 계수 잔차값 및 상기 컬러 매핑 계수 잔차값의 제1 정밀도를 나타내는 컬러 매핑 파라미터 정밀도 표시자를 포함하는 비디오 비트스트림을 생성하도록 구성되는 것인, 비디오 인코더.
  18. 제17항에 있어서,
    상기 제1 픽쳐는 베이스 레이어 픽쳐이고, 상기 제2 픽쳐는 향상 레이어 픽쳐를 예측하기 위한 레이어 간 참조 픽쳐인 것인, 비디오 인코더.
  19. 삭제
  20. 제17항에 있어서, 상기 프로세서는,
    제4 픽쳐를 생성하기 위해 제3 픽쳐에 제2 컬러 변환 모델 - 상기 제2 컬러 변환 모델은 제2 3D LUT를 사용하여 표현되고, 상기 제2 3D LUT와 연관된 파라미터는 제2 정밀도로 코딩되며, 상기 제2 정밀도는 상기 제1 정밀도와는 상이함 - 을 적용하고;
    상기 제2 3D LUT와 연관된 상기 파라미터 및 상기 제2 정밀도를 나타내는 제2 컬러 매핑 파라미터 정밀도 표시자를 포함하는 제2 비디오 비트스트림을 생성하도록 구성되는 것인, 비디오 인코더.
  21. 삭제
  22. 삭제
  23. 삭제
KR1020167010164A 2013-09-20 2014-09-19 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법 KR102028186B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361880715P 2013-09-20 2013-09-20
US61/880,715 2013-09-20
PCT/US2014/056608 WO2015042432A1 (en) 2013-09-20 2014-09-19 Systems and methods for providing 3d look-up table coding for color gamut scalability

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020197028387A Division KR20190112854A (ko) 2013-09-20 2014-09-19 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20160058163A KR20160058163A (ko) 2016-05-24
KR102028186B1 true KR102028186B1 (ko) 2019-10-02

Family

ID=51691147

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020197028387A KR20190112854A (ko) 2013-09-20 2014-09-19 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법
KR1020167010164A KR102028186B1 (ko) 2013-09-20 2014-09-19 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020197028387A KR20190112854A (ko) 2013-09-20 2014-09-19 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법

Country Status (9)

Country Link
US (3) US9955174B2 (ko)
EP (2) EP3386179A1 (ko)
JP (2) JP6449892B2 (ko)
KR (2) KR20190112854A (ko)
CN (2) CN110033494A (ko)
DK (1) DK3047639T3 (ko)
HK (1) HK1222075A1 (ko)
RU (1) RU2016115055A (ko)
WO (1) WO2015042432A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021086021A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021086022A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 색상 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021086023A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 변환을 이용하여 레지듀얼 처리를 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021101317A1 (ko) * 2019-11-22 2021-05-27 엘지전자 주식회사 무손실 색상 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102257783B1 (ko) * 2013-04-08 2021-05-28 돌비 인터네셔널 에이비 Lut를 인코딩하는 방법, lut를 디코딩하는 방법 및 대응하는 장치들
CN110033494A (zh) * 2013-09-20 2019-07-19 Vid拓展公司 视频解码器设备和方法
US9948916B2 (en) 2013-10-14 2018-04-17 Qualcomm Incorporated Three-dimensional lookup table based color gamut scalability in multi-layer video coding
CN108337519B (zh) 2013-12-13 2021-12-03 Vid拓展公司 视频编码设备及方法
US10531105B2 (en) 2013-12-17 2020-01-07 Qualcomm Incorporated Signaling partition information for 3D lookup table for color gamut scalability in multi-layer video coding
US9756337B2 (en) 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
US20160286224A1 (en) * 2015-03-26 2016-09-29 Thomson Licensing Method and apparatus for generating color mapping parameters for video encoding
MX359573B (es) 2015-05-15 2018-09-24 Hewlett Packard Development Co Cartuchos de impresion y dispositivos de memoria que contienen tablas de color multidimensionales comprimidas.
JP6872098B2 (ja) * 2015-11-12 2021-05-19 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US10674043B2 (en) 2016-07-08 2020-06-02 Hewlett-Packard Development Company, L.P. Color table compression
US10602028B2 (en) 2016-07-08 2020-03-24 Hewlett-Packard Development Company, L.P. Color table compression
US9992382B2 (en) 2016-07-08 2018-06-05 Hewlett-Packard Development Company, L.P. Color table compression
US10839598B2 (en) * 2016-07-26 2020-11-17 Hewlett-Packard Development Company, L.P. Indexing voxels for 3D printing
JP6769231B2 (ja) * 2016-10-17 2020-10-14 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
EP3367659A1 (en) * 2017-02-28 2018-08-29 Thomson Licensing Hue changing color gamut mapping
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US10805646B2 (en) 2018-06-22 2020-10-13 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
EP3467777A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing A method and apparatus for encoding/decoding the colors of a point cloud representing a 3d object
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
WO2019156141A1 (ja) * 2018-02-08 2019-08-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7273029B2 (ja) * 2018-04-10 2023-05-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
WO2019233558A1 (en) 2018-06-05 2019-12-12 Telefonaktiebolaget Lm Ericsson (Publ) Low-power approximate dpd actuator for 5g-new radio
US11824502B2 (en) 2018-06-05 2023-11-21 Telefonaktiebolaget Lm Ericsson (Publ) Digital predistortion low power implementation
WO2019234613A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Partition tree with partition into 3 sub-blocks by horizontal and vertical splits
WO2020003274A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Checking order of motion candidates in lut
TWI752331B (zh) 2018-06-29 2022-01-11 大陸商北京字節跳動網絡技術有限公司 當向Merge/AMVP添加HMVP候選時的部分/完全修剪
BR112020024202A2 (pt) 2018-06-29 2021-02-17 Beijing Bytedance Network Technology Co., Ltd. método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório
MX2020013828A (es) 2018-06-29 2021-03-25 Beijing Bytedance Network Tech Co Ltd Interaccion entre lut y amvp.
TWI723444B (zh) 2018-06-29 2021-04-01 大陸商北京字節跳動網絡技術有限公司 使用一個或多個查找表來按順序存儲先前編碼的運動信息並使用它們來編碼後面的塊的概念
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
EP3791589A1 (en) * 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Which lut to be updated or no updating
CN115134599A (zh) 2018-06-29 2022-09-30 抖音视界有限公司 更新查找表(lut)的条件
JP7181395B2 (ja) 2018-07-02 2022-11-30 北京字節跳動網絡技術有限公司 イントラ予測モードを有するルックアップテーブルおよび非隣接ブロックからのイントラモード予測
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
US10771797B2 (en) * 2018-07-30 2020-09-08 Logmein, Inc. Enhancing a chroma-subsampled video stream
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
EP3672244B1 (en) 2018-12-20 2020-10-28 Axis AB Methods and devices for encoding and decoding a sequence of image frames in which the privacy of an object is protected
MX2021006569A (es) * 2018-12-21 2021-07-07 Panasonic Ip Corp America Metodo de codificacion de datos tridimensionales, metodo de decodificacion de datos tridimensionales, dispositivo codificador de datos tridimensionales y dispositivo decodificador de datos tridimensionales.
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
CN113728651B (zh) * 2019-04-02 2022-10-25 北京字节跳动网络技术有限公司 视频处理中的自适应环路滤波
CN113711609B (zh) 2019-04-19 2023-12-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程中的增量运动矢量
CN113711608B (zh) 2019-04-19 2023-09-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程的适用性
EP3922015A4 (en) 2019-04-19 2022-07-20 Beijing Bytedance Network Technology Co., Ltd. GRADIENT CALCULATION IN VARIOUS MOTION VECTOR REFINEMENTS
CN114041287A (zh) 2019-06-21 2022-02-11 北京字节跳动网络技术有限公司 自适应环内颜色空间转换和其他视频编解码工具的选择性使用
US10970882B2 (en) * 2019-07-24 2021-04-06 At&T Intellectual Property I, L.P. Method for scalable volumetric video coding
US10979692B2 (en) 2019-08-14 2021-04-13 At&T Intellectual Property I, L.P. System and method for streaming visible portions of volumetric video
WO2021047540A1 (en) 2019-09-09 2021-03-18 Beijing Bytedance Network Technology Co., Ltd. Coefficient scaling for high precision image and video coding
CN114731392A (zh) 2019-09-21 2022-07-08 北京字节跳动网络技术有限公司 用于图像和视频编解码的高精度变换和量化
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
CN110781932B (zh) * 2019-10-14 2022-03-11 国家广播电视总局广播电视科学研究院 一种多类别图像转换与对比的超高清片源色域检测方法
WO2021088951A1 (en) 2019-11-07 2021-05-14 Beijing Bytedance Network Technology Co., Ltd. Quantization properties of adaptive in-loop color-space transform for video coding
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11475605B2 (en) 2020-01-09 2022-10-18 Apple Inc. Geometry encoding of duplicate points
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
CN114363702B (zh) * 2021-12-28 2023-09-08 上海网达软件股份有限公司 Sdr视频转换为hdr视频的方法、装置、设备及存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2899461B2 (ja) 1990-12-20 1999-06-02 株式会社リコー 色信号補間方法、色信号補間装置および色補正方法
US5583656A (en) 1992-12-31 1996-12-10 Eastman Kodak Company Methods and apparatus for attaching compressed look-up table (LUT) representations of N to M-dimensional transforms to image data and for processing image data utilizing the attached compressed LUTs
US5504821A (en) 1993-03-31 1996-04-02 Matsushita Electric Industrial Co., Ltd. Color converting apparatus for performing a three-dimensional color conversion of a colored picture in a color space with a small capacity of memory
US5737032A (en) 1995-09-05 1998-04-07 Videotek, Inc. Serial digital video processing with concurrent adjustment in RGB and luminance/color difference
KR100189908B1 (ko) 1996-05-06 1999-06-01 윤종용 2차원 색도분할을 이용한 색보정장치 및 그 방법
US6400843B1 (en) * 1999-04-22 2002-06-04 Seiko Epson Corporation Color image reproduction with accurate inside-gamut colors and enhanced outside-gamut colors
US6301393B1 (en) * 2000-01-21 2001-10-09 Eastman Kodak Company Using a residual image formed from a clipped limited color gamut digital image to represent an extended color gamut digital image
RU2190306C2 (ru) 2000-05-10 2002-09-27 Государственное унитарное предприятие "Калужский научно-исследовательский институт телемеханических устройств" Способ обработки цветного полутонового изображения с использованием векторной диффузии ошибки цвета и устройство для его осуществления
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US7643675B2 (en) 2003-08-01 2010-01-05 Microsoft Corporation Strategies for processing image information using a color information data structure
KR100552695B1 (ko) 2003-11-20 2006-02-20 삼성전자주식회사 칼라영상의 색조절방법 및 장치
US7659911B2 (en) 2004-04-21 2010-02-09 Andreas Wittenstein Method and apparatus for lossless and minimal-loss color conversion
CN101005620B (zh) 2004-09-03 2011-08-10 微软公司 为隔行扫描和逐行扫描视频编码和解码宏块和运动信息中的革新
US7755817B2 (en) * 2004-12-07 2010-07-13 Chimei Innolux Corporation Color gamut mapping
EP1846914B1 (en) 2005-01-26 2017-04-26 Canon Kabushiki Kaisha Color conversion using barycentric projections
US7961963B2 (en) 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
CN1859576A (zh) 2005-10-11 2006-11-08 华为技术有限公司 对空间分层编码视频图象的上采样方法及其系统
JP5039142B2 (ja) 2006-10-25 2012-10-03 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 品質スケーラブルな符号化方法
US8233536B2 (en) 2007-01-23 2012-07-31 Sharp Laboratories Of America, Inc. Methods and systems for multiplication-free inter-layer image prediction
JP2008211310A (ja) 2007-02-23 2008-09-11 Seiko Epson Corp 画像処理装置および画像表示装置
JP4996501B2 (ja) * 2007-04-06 2012-08-08 キヤノン株式会社 多次元データの符号化装置及び復号装置並びにその制御方法
US8237990B2 (en) * 2007-06-28 2012-08-07 Adobe Systems Incorporated System and method for converting over-range colors
US8625676B2 (en) * 2007-06-29 2014-01-07 Pai Kung Limited Liability Company Video bitstream decoding using least square estimates
US7684084B2 (en) * 2007-09-25 2010-03-23 Xerox Corporation Multiple dimensional color conversion to minimize interpolation error
US9538176B2 (en) * 2008-08-08 2017-01-03 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
US8169434B2 (en) * 2008-09-29 2012-05-01 Microsoft Corporation Octree construction on graphics processing units
WO2010103433A1 (en) 2009-03-09 2010-09-16 Koninklijke Philips Electronics N.V. Multi primary conversion
US8860745B2 (en) * 2009-06-01 2014-10-14 Stmicroelectronics, Inc. System and method for color gamut mapping
US9185422B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Variable localized bit-depth increase for fixed-point transforms in video coding
JP5663093B2 (ja) * 2010-10-01 2015-02-04 ドルビー ラボラトリーズ ライセンシング コーポレイション 参照ピクチャー処理のための最適化されたフィルタ選択
CN101977316B (zh) 2010-10-27 2012-07-25 无锡中星微电子有限公司 一种可伸缩编码方法
UA109312C2 (uk) 2011-03-04 2015-08-10 Імпульсно-кодова модуляція з квантуванням при кодуванні відеоінформації
GB2495468B (en) * 2011-09-02 2017-12-13 Skype Video coding
US11184623B2 (en) * 2011-09-26 2021-11-23 Texas Instruments Incorporated Method and system for lossless coding mode in video coding
KR20130068823A (ko) 2011-12-16 2013-06-26 삼성전자주식회사 영상 신호 처리를 위한 방법 및 장치
EP2803190B1 (en) * 2012-01-09 2017-10-25 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for multiple layered video coding systems
US9673936B2 (en) * 2013-03-15 2017-06-06 Google Inc. Method and system for providing error correction to low-latency streaming video
KR102257783B1 (ko) 2013-04-08 2021-05-28 돌비 인터네셔널 에이비 Lut를 인코딩하는 방법, lut를 디코딩하는 방법 및 대응하는 장치들
CN110033494A (zh) * 2013-09-20 2019-07-19 Vid拓展公司 视频解码器设备和方法
US9756337B2 (en) * 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
MX2016012130A (es) * 2014-03-19 2017-04-27 Arris Entpr Inc Codificacion escalable de secuencias de video utilizando mapeo de tonos y diferentes gamas de colores.
JP6330507B2 (ja) * 2014-06-19 2018-05-30 ソニー株式会社 画像処理装置及び画像処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Color Gamut Scalable Video Coding using 3D LUT: New Results", JCT-VC of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JCTVC-N0168 (2013.08.02.)
"Color Mapping SEI message",JCT-VC of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JCTVC-N0180 (2013.08.02.)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021086021A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021086022A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 색상 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2021086023A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 변환을 이용하여 레지듀얼 처리를 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US11652999B2 (en) 2019-10-28 2023-05-16 Lg Electronics Inc. Image encoding/decoding method and apparatus using adaptive transform, and method for transmitting bitstream
US11677946B2 (en) 2019-10-28 2023-06-13 Lg Electronics Inc. Image encoding/decoding method and device using adaptive color transform, and method for transmitting bitstream
WO2021101317A1 (ko) * 2019-11-22 2021-05-27 엘지전자 주식회사 무손실 색상 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US11575919B2 (en) 2019-11-22 2023-02-07 Lg Electronics Inc. Image encoding/decoding method and device using lossless color transform, and method for transmitting bitstream

Also Published As

Publication number Publication date
EP3047639B1 (en) 2018-07-18
US20180213241A1 (en) 2018-07-26
US10390029B2 (en) 2019-08-20
CN105556943A (zh) 2016-05-04
US20190356925A1 (en) 2019-11-21
US9955174B2 (en) 2018-04-24
KR20160058163A (ko) 2016-05-24
JP2019068451A (ja) 2019-04-25
EP3386179A1 (en) 2018-10-10
JP2016534679A (ja) 2016-11-04
HK1222075A1 (zh) 2017-06-16
EP3047639A1 (en) 2016-07-27
WO2015042432A1 (en) 2015-03-26
CN110033494A (zh) 2019-07-19
US20160295219A1 (en) 2016-10-06
DK3047639T3 (en) 2018-10-15
JP6701310B2 (ja) 2020-05-27
CN105556943B (zh) 2019-03-29
RU2016115055A (ru) 2017-10-25
JP6449892B2 (ja) 2019-01-09
KR20190112854A (ko) 2019-10-07

Similar Documents

Publication Publication Date Title
KR102028186B1 (ko) 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법
US10841615B2 (en) Systems and methods for model parameter optimization in three dimensional based color mapping
JP7012048B2 (ja) マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
US11109044B2 (en) Color space conversion
KR101786414B1 (ko) 보간을 이용하는 루마 및 크로마의 위상 정렬을 위한 컬러 색역 스케일러블 비디오 코딩 디바이스 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right