KR20210027091A - 이머시브 영상 처리 방법 및 이머시브 영상 합성 방법 - Google Patents

이머시브 영상 처리 방법 및 이머시브 영상 합성 방법 Download PDF

Info

Publication number
KR20210027091A
KR20210027091A KR1020200099704A KR20200099704A KR20210027091A KR 20210027091 A KR20210027091 A KR 20210027091A KR 1020200099704 A KR1020200099704 A KR 1020200099704A KR 20200099704 A KR20200099704 A KR 20200099704A KR 20210027091 A KR20210027091 A KR 20210027091A
Authority
KR
South Korea
Prior art keywords
atlas
image
patch
flag
syntax
Prior art date
Application number
KR1020200099704A
Other languages
English (en)
Inventor
윤국진
정준영
이광순
신홍창
음호민
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US17/006,389 priority Critical patent/US11483534B2/en
Publication of KR20210027091A publication Critical patent/KR20210027091A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시에 따른 이머시브 영상 처리 방법은, 소스 영상들에 대한 프루닝 우선 순위를 결정하는 단계, 상기 프루닝 우선 순위에 기초하여, 상기 소스 영상들로부터 패치들을 추출하는 단계, 상기 추출된 패치들에 기초하여, 적어도 하나의 아틀라스를 생성하는 단계, 및 메타데이터를 부호화하는 단계를 포함한다. 이때, 아틀라스가 제1 소스 영상의 전 영역의 정보를 포함하는 패치를 포함하는지 여부를 나타내는 제1 플래그가 상기 메타데이터로 부호화될 수 있다.

Description

이머시브 영상 처리 방법 및 이머시브 영상 합성 방법{METHOD FOR PROCESSING IMMERSIVE VIDEO AND METHOD FOR PRODUCING IMMVERSIVE VIDEO}
본 개시는 회전 및 병진 움직임에 대한 운동 시차를 지원하는 이머시브 영상의 처리/출력 방법에 관한 것이다.
가상현실(virtual reality) 서비스는 전방위 영상을 실사 혹은 CG (Computer Graphics) 형태로 생성하여 HMD, 스마트폰 등에 재생함으로써 몰입감 및 현장감이 극대화된 서비스를 제공하는 방향으로 진화하고 있다. 현재 HMD를 통해 자연스럽고 몰입감 있는 전방위 영상을 재생하려면 6 자유도 (DoF: Degrees of Freedom)를 지원해야 하는 것으로 알려져 있다. 6DoF 영상은 (1) 좌우 회전, (2) 상하 회전, (3) 좌우 이동, (4) 상하 이동 등 여섯 방향에 대해 자유로운 영상을 HMD 화면을 통해 제공해야 한다. 하지만 현재 실사에 기반한 대부분의 전방위 영상은 회전운동만을 지원하고 있다. 이에, 6DoF 전방위 영상의 획득, 재현 기술 등의 분야에 대한 연구가 활발히 진행 중에 있다.
본 개시에서는 운동시차를 지원하는 대용량의 이머시브 영상 서비스 제공을 위해, 최소한의 비디오 및 메타데이터 전송 만으로 운동시차를 지원하는 영상 재현이 가능한 파일 포맷을 제공하는 것을 목적으로 한다.
또한, 본 개시는 뷰포트 영상 합성을 위한 정보들의 부호화/복호화 구조를 제공하는 것을 목적으로 한다.
또한, 본 개시는 추가 시점 영상들 간 프루닝 우선 순위를 결정하는 방법을 제공하는 것을 목적으로 한다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시에 따른 이머시브 영상 처리 방법은, 소스 영상들에 대한 프루닝 우선 순위를 결정하는 단계, 상기 프루닝 우선 순위에 기초하여, 상기 소스 영상들로부터 패치들을 추출하는 단계, 상기 추출된 패치들에 기초하여, 적어도 하나의 아틀라스를 생성하는 단계, 및 메타데이터를 부호화하는 단계를 포함할 수 있다. 이때, 아틀라스가 제1 소스 영상의 전 영역의 정보를 포함하는 패치를 포함하는지 여부를 나타내는 제1 플래그가 상기 메타데이터로 부호화될 수 있다.
본 개시에 따른 이머시브 영상 처리 방법에 있어서, 상기 제1 소스 영상이 상기 아틀라스에 포함되어 있는지 여부를 나타내는 제2 플래그의 값이 참인 경우, 상기 제1 플래그가 부호화될 수 있다.
본 개시에 따른 이머시브 영상 처리 방법에 있어서, 상기 제1 플래그 및 상기 제2 플래그는, 각 소스 영상에 대해 상기 제1 플래그 및 상기 제2 플래그가 부호화되었는지 여부를 나타내는 제3 플래그가 참인 경우, 부호화될 수 있다.
본 개시에 따른 이머시브 영상 처리 방법에 있어서, 상기 메타데이터는 상기 아틀라스의 타입을 나타내는 정보를 포함하고, 상기 타입은 상기 아틀라스가 뷰 렌더링시 이용되는지 여부를 나타낼 수 있다.
본 개시에 따른 이머시브 영상 처리 방법에 있어서, 상기 아틀라스에 대응하는 점유 지도를 생성하는 단계를 더 포함하고, 상기 메타데이터는 상기 점유 지도와 상기 아틀라스가 상이한 크기로 부호화되는지 여부를 나타내는 정보를 더 포함할 수 있다.
본 개시에 따른 이머시브 영상 처리 방법에 있어서, 상기 메타데이터는 카메라 좌표계 정보를 포함하고, 상기 카메라 좌표계 정보는, x축, y축 및 z축의 양의 방향을 결정하기 위한 것일 수 있다.
본 개시에 따른 이머시브 영상 합성 방법은, 비트스트림으로부터 영상 데이터 및 메타데이터를 파싱하는 단계, 상기 영상 데이터를 복호화하여 적어도 하나의 아틀라스를 획득 단계, 및 메타데이터에 기초하여, 사용자 움직임에 따른 뷰포트 영상 합성에 요구되는 패치들을 아틀라스로부터 추출하는 단계를 포함할 수 있다. 이때, 상기 메타데이터는 아틀라스가 제1 소스 영상의 전 영역의 정보를 포함하는 패치를 포함하는지 여부를 나타내는 제1 플래그를 포함할 수 있다.
본 개시에 따른 이머시브 영상 합성 방법에 있어서, 상기 제1 소스 영상이 상기 아틀라스에 포함되어 있는지 여부를 나타내는 제2 플래그의 값이 참인 경우, 상기 제1 플래그가 복호화될 수 있다.
본 개시에 따른 이머시브 영상 합성 방법에 있어서, 상기 제1 플래그 및 상기 제2 플래그는, 각 소스 영상에 대해 상기 제1 플래그 및 상기 제2 플래그가 존재하는지 여부를 나타내는 제3 플래그가 참인 경우, 복호화될 수 있다.
본 개시에 따른 이머시브 영상 합성 방법에 있어서, 상기 메타데이터는 상기 아틀라스의 타입을 나타내는 정보를 포함하고, 상기 타입은 상기 아틀라스가 뷰 렌더링시 이용되는지 여부를 나타낼 수 있다.
본 개시에 따른 이머시브 영상 합성 방법에 있어서, 상기 아틀라스에 대응하는 점유 지도를 획득하는 단계를 더 포함하고, 상기 메타데이터는 상기 점유 지도와 상기 아틀라스가 상이한 크기인지 여부를 나타내는 정보를 더 포함한다.
본 개시에 따른 이머시브 영상 합성 방법에 있어서, 상기 메타데이터는 카메라 좌표계 정보를 포함하고, 상기 카메라 좌표계 정보는, x축, y축 및 z축의 양의 방향을 결정하기 위한 것일 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 의하면, 최소한의 비디오 및 메타데이터 전송 만으로 운동시차를 지원하는 영상 재현이 가능한 파일 포맷을 제공할 수 있다.
본 개시에 의하면, 뷰포트 영상 합성을 위한 정보들의 부호화/복호화 구조를 제공할 수 있다.
본 개시에 의하면, 추가 시점 영상들 간 프루닝 우선 순위를 결정하는 방법을 제공할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 이머시브 영상 처리 장치의 블록도이다.
도 2는 패치 영상에 포함된 패치들을 패킹하여, 아틀라스가 생성되는 에를 나타낸 것이다.
도 3는 본 개시의 일 실시예에 따른 이머시브 영상 출력 장치의 블록도이다.
도 4 및 도 5는 각각 이머시브 영상 처리 방법 및 이머시브 영상 출력 방법의 흐름도를 도시한 것이다.
도 6 및 도 7은 소스 영상들 간 프루닝 우선 순위가 상이하게 설정되는 예를 나타낸 것이다.
도 8은 아틀라스들 간 우선 순위에 기초하여, 디코딩 대상이 선택되는 예를 나타낸 것이다.
도 9는 아틀라스 내 특정 타일에 관심 영역 패치들이 집중 배치되는 예를 나타낸 것이다.
도 10은 복수의 패치 영상들로부터 유도된 패치들이 하나의 아틀라스에 배치되는 예를 나타낸다.
도 11은 크기가 축소된 점유 지도가 전송되는 예를 나타낸 것이다.
본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 개시의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.
본 개시에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 개시의 어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결 되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 개시의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 개시의 본질에서 벗어나지 않는 한 본 개시의 권리범위에 포함된다.
본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 즉, 본 개시에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 개시의 실시 또는 본 개시의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
본 개시의 일부의 구성 요소는 본 개시에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 개시는 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 개시의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 개시의 권리범위에 포함된다.
이하, 도면을 참조하여 본 개시의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
이머시브 영상은, 사용자의 시청 위치가 변경될 경우, 뷰 포트도 동적으로 변경될 수 있는 영상을 의미한다. 이머시브 영상을 구현하기 위해, 복수개의 입력 영상들이 요구된다. 복수개의 입력 영상들 각각을 소스 영상 또는 소스 시점이라 호칭할 수 있다.
이머시브 영상은 3DoF (Degree of Freedom), 3DoF+, Windowed-6DoF 또는 6DoF 타입 등으로 분류될 수 있다. 3DoF 기반의 이머시브 영상은, 텍스처 영상만을 이용하여 구현될 수 있다. 반면, 3DoF+ 또는 6DoF 등 깊이 정보를 포함하는 이머시브 영상을 렌더링하기 위해서는, 텍스처 영상뿐만 아니라, 깊이 영상도 요구된다.
후술되는 실시예들은 3DoF+ 및/또는 6DoF 등 깊이 정보를 포함하는 이머시브 영상 처리를 위한 것으로 가정한다. 또한, 소스 영상은 텍스처 영상 및 깊이 영상으로 구성된 것으로 가정한다.
도 1은 본 개시의 일 실시예에 따른 이머시브 영상 처리 장치의 블록도이다.
도 1을 참조하면, 본 개시에 따른 이머시브 영상 처리 장치는 시점 최적화부(View Optimizer, 110), 아틀라스(Atlas) 생성부(120), 메타데이터 생성부(130), 영상 인코더부(140) 및 비트스트림 생성부(150)를 포함할 수 있다.
시점 최적화부(110)는 소스 영상들을 기본 영상 및 추가 영상으로 분류한다. 기본 영상은 프루닝 우선 순위가 가장 높은 소스 영상을 나타내고, 추가 영상은 기본 영상보다 프루닝 우선 순위가 낮은 소스 영상을 나타낸다.
시점 최적화부(110)는 소스 영상들 중 적어도 하나를 기본 영상으로 결정할 수 있다. 기본 영상으로 선택되지 않은 소스 영상은 추가 영상으로 분류될 수 있다.
시점 최적화부(110)는 소스 영상의 시점 위치를 고려하여, 기본 영상을 결정할 수 있다. 일 예로, 복수의 소스 영상들 중 시점 위치가 중심인 소스 영상이 기본 영상으로 선택될 수 있다.
또는, 시점 최적화부(110)는 카메라 파라미터에 기초하여, 기본 영상을 선택할 수 있다. 구체적으로, 시점 최적화부(110)는 카메라 인덱스, 카메라간 우선 순위, 카메라의 위치 또는 관심 영역 카메라인지 여부 중 적어도 하나에 기초하여 기본 영상을 선택할 수 있다.
일 예로, 카메라 인덱스가 가장 작은 소스 영상, 카메라 인덱스가 가장 큰 소스 영상, 기 정의된 값과 동일한 카메라 인덱스를 갖는 소스 영상, 우선순위가 가장 높은 카메라를 통해 촬영된 소스 영상, 우선 순위가 가장 낮은 카메라를 통해 촬영된 소스 영상, 기 정의된 위치(예컨대, 중심 위치)의 카메라를 통해 촬영된 소스 영상 또는 관심 영역 카메라를 통해 촬영된 소스 영상 중 적어도 하나가 기본 시점 영상으로 결정될 수 있다.
또는, 시점 최적화부(110)는 소스 영상들의 품질에 기초하여, 기본 영상을 결정할 수 있다. 일 예로, 소스 영상들 중 품질이 가장 높은 소스 영상이 기본 영상으로 결정될 수 있다.
또는, 시점 최적화부(110)는 소스 영상들 간, 데이터 중복 정도를 검사한 뒤, 타 소스 영상들의 중복 데이터 비율을 고려하여, 기본 영상을 결정할 수 있다. 일 예로, 타 소스 영상들과의 중복 데이터 비율이 가장 높은 소스 영상 또는 타 소스 영상들과의 중복 데이터 비율이 가장 낮은 소스 영상을 기본 영상으로 결정할 수 있다.
복수개의 소스 영상들이 기본 영상으로 설정될 수도 있다.
아틀라스 생성부(120)는 프루닝을 수행하여 패치 영상을 생성한다. 그리고, 패치 영상으로부터 패치를 추출하고, 기본 영상 및/또는 추출된 패치를 결합하여 아틀라스를 생성한다.
생성된 아틀라스는 텍스처 아틀라스 및 깊이 아틀라스로 구성될 수 있다. 텍스처 아틀라스는 기본 텍스처 영상 및/또는 텍스처 패치들이 결합된 영상을 나타내고, 깊이 아틀라스는 기본 깊이 영상 및/또는 깊이 패치들이 결합된 영상을 나타낸다.
아틀라스 생성부(120)는 프루닝부(Pruning unit, 122), 집합부(Aggreegation Unit, 124) 및 패치 패킹부(Patch Packing Unit, 126)을 포함할 수 있다.
프루닝부(122)는 프루닝 우선 순위에 기초하여, 추가 영상에 대한 프루닝을 수행한다. 구체적으로, 추가 영상보다 프루닝 우선 순위가 높은 참조 영상을 이용하여 추가 영상에 대한 프루닝을 수행할 수 있다.
참조 영상은, 기본 영상을 포함한다. 아울러, 추가 영상의 프루닝 우선 순위에 따라, 참조 영상은 다른 추가 영상을 더 포함할 수도 있다.
추가 영상을 참조 영상으로 이용할 수 있는지 여부를 선택적으로 결정할 수도 있다. 일 예로, 추가 영상을 참조 영상으로 이용하지 않도록 설정된 경우, 기본 영상만이 참조 영상으로 설정될 수 있다.
반면, 추가 영상이 참조 영상으로 이용 가능하도록 설정된 경우, 기본 영상 및 추가 영상보다 프루닝 우선 순위가 높은 다른 추가 영상이 참조 영상으로 설정될 수 있다.
프루닝 과정을 통해, 추가 영상과 참조 영상간의 중복 데이터가 제거될 수 있다. 추가 영상으로부터 검출된 중복 데이터를 제거함으로써, 추가 영상과 참조 영상간의 중복 데이터가 제거된 패치 영상이 생성될 수 있다.
중복 데이터 판별은 깊이 영상들을 비교하여 수행될 수 있다. 구체적으로, 추가 깊이 영상 및 참조 깊이 영상 각각의 대응 위치들간 깊이 정보를 비교하여, 그 차분이 문턱값 이하인 경우, 대응 위치가 추가 깊이 영상과 참조 깊이 영상간의 중복 데이터를 검출할 수 있다.
패치 영상은 유효(Valid) 영역 및/또는 무효(Invaild) 영역을 포함한다. 유효 영역은, 추가 영상과 참조 영상 간 중복 영역을 제외한 영역을 의미한다. 즉, 유효 영역은 추가 영상에는 포함되나 참조 영상에는 포함되지 않는 데이터를 포함하는 영역을 나타낸다. 무효 영역은, 추가 영상과 참조 영상 간 중복 데이터가 제거된 영역을 의미한다. 유효 영역이 포함하는 픽셀/데이터를 유효 픽셀/유효 데이터라 호칭할 수 있고, 무효 영역이 포함하는 픽셀/데이터를 무효 픽셀/무효 데이터라 호칭할 수 있다.
집합부(124)는 패치 영상으로부터 패치를 추출한다. 구체적으로, 패치 영상 내 유효 데이터를 포함하는 사각 형태의 영역을 패치로서 추출할 수 있다. 유효 영역의 형태와 관계없이, 사각 형태로 패치가 추출되는 바, 비사각 형태의 유효 영역으로부터 추출된 패치는 유효 데이터뿐만 아니라 무효 데이터도 포함될 수 있다.
집합부(124)는 적어도 하나 이상의 패치 영상으로부터 추출된 패치들을 군집화할 수 있다.
프루닝되지 않은 소스 영상에 대해서는, 소스 영상 전체가 하나의 패치로 추출될 수 있다. 구체적으로, 프루닝되지 않은 소스 영상을 소정의 투사 포맷으로 전개한 2D 영상 전체를 하나의 패치로 설정할 수 있다. 투사 포맷은, 비등장방형(ERP, Equirectangular Projection Format), 큐브맵(Cube-map) 또는 퍼스텍티브 투사 포맷(Perspective Projection Format) 중 적어도 하나를 포함할 수 있다.
여기서, 프루닝되지 않은 소스 영상은, 프루닝 우선 순위가 가장 높은 기본 영상을 의미한다. 또는, 기본 영상 및 참조 영상과 중복 데이터가 존재하지 않은 추가 영상을 프루닝되지 않은 소스 영상으로 정의할 수도 있다.
소스 영상에 대해 프루닝이 수행되었는지 여부에 따라, 패치들을 완전 영상 패치 또는 조각 영상 패치로 분류할 수 있다. 완전 영상 패치는 프루닝되지 않은 소스 영상으로부터 추출된 패치를 나타낸다. 즉, 완전 영상 패치는 기본 영상의 패치 또는 프루닝되지 않은 추가 영상의 패치를 나타낼 수 있다. 조각 영상 패치는 프루닝된 추가 영상으로부터 추출된 패치를 나타낸다. 즉, 조각 영상 패치는 중복 데이터가 제거된 패치 영상으로부터 추출된 패치를 나타낼 수 있다.
패킹부(126)는, 사각 형태의 영상 위 군집화된 패치들 각각을 패킹할 수 있다. 패킹 시, 패치의 크기 변환, 회전 또는 플립 등의 변형이 수반될 수 있다. 패치들이 패킹된 영상을 아틀라스라 정의할 수 있다.
구체적으로, 패킹부(126)는, 기본 텍스처 영상 및/또는 텍스처 패치들을 패킹하여 텍스처 아틀라스를 생성할 수 있고, 기본 깊이 영상 및/또는 깊이 패치들을 패킹하여 깊이 아틀라스를 생성할 수 있다.
완전 영상 패치와 조각 영상 패치가 상이한 아틀라스에 배치되도록 설정될 수 있다. 또는, 완전 영상 패치와 조각 영상 패치를 혼합하여 아틀라스를 구성할 수도 있다.
아틀라스가 특정 소스 영상에 대한 완전 영상 패치를 포함하는 것은, 아틀라스가 특정 소스 영상의 데이터를 모두 포함함을 나타낸다.
도 2는 패치 영상에 포함된 패치들을 패킹하여, 아틀라스가 생성되는 에를 나타낸 것이다.
도 2의 (a)는 패치 영상을 나타내고, 도 2의 (b)는 패치들이 패킹된 아틀라스를 나타낸다.
아틀라스 생성부(120)가 생성하는 아틀라스의 개수는 카메라 리그의 배치 구조, 깊이 맵의 정확도 또는 소스 영상의 개수 중 적어도 하나에 기초하여 결정될 수 있다.
메타데이터 생성부(130)는 시점 영상 합성을 위한 메타데이터를 생성한다. 메타데이터는 카메라 관련 데이터, 프루닝 관련 데이터, 아틀라스 관련 데이터 또는 패치 관련 데이터 중 적어도 하나를 포함할 수 있다.
프루닝 관련 데이터는, 소스 영상들 간 프루닝 우선 순위를 결정하기 위한 정보들을 포함한다. 일 예로, 소스 영상이 루트 노드인지 여부를 나타내는 플래그 또는 소스 영상이 리프 노드인지 여부를 나타내는 플래그 중 적어도 하나가 부호화될 수 있다. 루트 노드는 프루닝 우선 순위가 가장 높은 소스 영상(즉, 기본 영상)을 나타내고, 리프 노드는 프루닝 우선 순위가 가장 낮은 소스 영상을 나타낸다.
소스 영상이 루트 노드가 아닌 경우, 부모 노드 인덱스가 추가 부호화될 수 있다. 부모 노드 인덱스는, 부모 노드인 소스 영상의 영상 인덱스를 나타낼 수 있다.
또는, 소스 영상이 리프 노드가 아닌 경우, 자식 노드 인덱스가 추가 부호화될 수 있다. 자식 노드 인덱스는, 자식 노드인 소스 영상의 영상 인덱스를 나타낼 수 있다.
아틀라스 관련 데이터는, 아틀라스의 개수 정보, 아틀라스들 간 우선 순위 정보, 아틀라스가 완전한 영상을 포함하는지 여부를 나타내는 플래그 또는 아틀라스의 스케일링 관련 정보 중 적어도 하나를 포함할 수 있다.
패치 관련 데이터는, 아틀라스 영상 내 패치의 위치 및/또는 크기, 패치가 속하는 소스 영상 및 소스 영상 내 패치의 위치 및/또는 크기를 특정하기 위한 정보들을 포함한다. 일 예로, 아틀라스 영상 내 패치의 위치를 나타내는 위치 정보 또는 아틀라스 영상 내 패치의 크기를 나타내는 크기 정보 중 적어도 하나가 부호화될 수 있다. 또한, 패치가 유래된 소스 영상을 식별하기 위한 소스 인덱스가 부호화될 수 있다. 소스 인덱스는, 패치의 원 출처인 소스 영상의 인덱스를 나타낸다. 또한, 소스 영상 내 패치에 대응되는 위치를 나타내는 위치 정보 또는 소스 영상 내 패치에 대응되는 크기를 나타내는 위치 정보가 부호화될 수 있다.
영상 인코더부(140)는 아틀라스를 인코딩한다. 영상 인코더부(140)는 텍스처 아틀라스를 인코딩하는 텍스처 영상 인코더부(142) 및 깊이 아틀라스를 인코딩하는 뎁스 영상 인코더부(144)를 포함할 수 있다.
비트스트림 생성부(150)는 인코딩된 영상 데이터 및 메타데이터를 기초로 비트스트림을 생성한다. 생성된 비트스트림은 이머시브 영상 출력 장치로 전송될 수 있다.
도 3는 본 개시의 일 실시예에 따른 이머시브 영상 출력 장치의 블록도이다.
도 3을 참조하면, 본 개시에 따른 이머시브 영상 출력 장치는 비트스트림 파싱부(210), 영상 디코더부(220), 메타데이터 처리부(230) 및 영상 합성부(240)를 포함할 수 있다.
비트스트림 파싱부(210)는 비트스트림으로부터 영상 데이터 및 메타데이터를 파싱한다. 영상 데이터는 부호화된 아틀라스의 데이터를 포함할 수 있다.
영상 디코더부(220)는 파싱된 영상 데이터를 복호화한다. 영상 디코더부(220)는 텍스처 아틀라스를 디코딩하기 위한 텍스처 영상 디코더부(222) 및 깊이 아틀라스를 디코딩하기 위한 뎁스 영상 디코더부(224)를 포함할 수 있다.
메타데이터 처리부(230)는 파싱된 메타데이터를 언포맷팅한다.
언포맷팅된 메타데이터는 시점 영상을 합성하는데 이용될 수 있다. 일 예로, 이머시브 영상 출력 장치로, 사용자의 움직임 정보가 입력되면, 메타데이터 처리부(230)는 사용자의 움직임에 따른 뷰포트 영상을 재현하기 위해, 영상 합성에 필요한 아틀라스 및 영상 합성에 필요한 패치들, 및/또는 아틀라스 내 상기 패치들의 위치/크기 등을 결정할 수 있다.
영상 합성부(240)는 사용자의 움직임에 따른 뷰포트 영상을 동적으로 합성할 수 있다. 구체적으로, 영상 합성부(240)는 사용자의 움직임에 따라 메타데이터 처리부(230)에서 결정된 정보를 이용하여, 아틀라스로부터 뷰포트 영상을 합성하는데 필요한 패치들을 추출할 수 있다. 구체적으로, 뷰포트 영상을 합성하는데 필요한 소스 영상의 정보를 포함하는 아틀라스 및 상기 아틀라스 내 상기 소스 영상으로부터 추출된 패치들을 추출하고, 추출된 패치들을 합성하여, 뷰포트 영상을 생성할 수 있다.
도 4 및 도 5는 각각 이머시브 영상 처리 방법 및 이머시브 영상 출력 방법의 흐름도를 도시한 것이다. 도 4 및 도 5에 개시된 순서와 상이한 순서로 이머시브 영상을 처리 또는 출력하는 것 역시 가능하다.
이머시브 영상 처리 장치는 소스 영상들의 프루닝 우선 순위를 결정할 수 있다(S411). 구체적으로, 소스 영상들을 기본 영상 및 추가 영상으로 분류하고, 추가 영상들 간 프루닝 우선 순위를 설정할 수 있다.
이후, 프루닝 우선 순위에 기초하여, 소스 영상들에 대해 프루닝을 수행하고(S412), 프루닝 수행 결과로 생성된 패치 영상으로부터 패치를 추출할 수 있다(S413). 프루닝되지 않은 소스 영상(예컨대, 기본 영상)은, 소스 영상 전체가 하나의 패치로 추출될 수 있다.
이후, 추출된 패치들을 결합하여, 아틀라스를 생성하고(S414), 생성된 아틀라스의 정보 및 아틀라스에 포함된 패치들의 정보를 메타데이터로 생성할 수 있다(S415).
아틀라스를 부호화하고(S416), 메타데이터 및 부호화된 아틀라스를 이머시브 영상 출력 장치로 전송할 수 있다.
이머시브 영상 출력 장치는 이머시브 영상 처리 장치로부터 수신한 비트스트림을 파싱하여, 아틀라스 데이터를 추출하고, 추출된 데이터를 기초로, 아틀라스를 복호화할 수 있다(S511).
또한, 사용자의 움직임이 발생하면, 메타데이터에 기초하여, 사용자의 움직임에 따른 뷰포트 영상 합성을 위해 요구되는 아틀라스를 결정하고, 상기 아틀라스에 포함된 패치들을 추출할 수 있다(S512).
패치들이 추출되면, 추출된 패치들을 합성하여, 뷰포트 영상을 생성할 수 있다(S513). 이때, 생성된 패치들을 합성하기 위해, 각 패치의 크기/위치 정보 및 카메라 파라미터 등이 이용될 수 있다.
상술한 설명에 기초하여, 본 개시에서 제안하는 영상 처리 방법에 대해 더욱 상세히 살펴보기로 한다.
프루닝을 통해 추가 영상과 기본 영상간의 중복 데이터 및/또는 추가 영상 간의 중복 데이터가 계층적으로 제거될 수 있다. 이때, 최종 출력되는 패치의 형태는 프루닝 우선 순위에 따라 상이할 수 있다. 일 예로, 프루닝 우선 순위가 높을수록, 추가 영상에 대한 정보(예컨대, 크기가 큰 패치)가 더 많이 잔존하게 된다.
도 6을 예로 들어 설명하면, 도 6에 도시된 예에서와 같이 프루닝 우선 순위가 설정되었을 때, 추가 영상들 중 프루닝 우선 순위가 가장 높은 추가 영상 v2의 정보가 가장 많이 보존되고, 프루닝 우선 순위가 가장 낮은 추가 영상 v4의 정보가 가장 적게 보존된다.
위 특성에 기초하여, 영역 별 시청 품질을 조절할 수 있다. 일 예로, 관심 영역에 대한 시청 품질을 향상시키기 위해, 관심 영역 카메라의 프루닝 우선 순위를 높게 설정할 수 있다. 일 예로, 도 7에 도시된 예에서와 같이, 관심 영역 카메라들을 통해 촬영된 추가 영상들 v2 및 v3의 프루닝 우선 순위를 비 관심 영역 카메라들을 통해 촬영된 추가 영상들 v4보다 높게 설정할 경우, 관심 영역 카메라를 통해 촬영된 추가 영상들 v2 및 v3의 정보가 비 관심 영역 카메라를 통해 촬영된 추가 영상 v4의 정보보다 더 많이 보존된다. 이에 따라, 관심 영역을 포함하는 영상 합성 시 시청 품질을 향상시킬 수 있다.
이머시브 영상 처리 장치는, 소스 영상이 관심 영역 영상인지 여부에 기초하여, 프루닝 우선 순위를 결정할 수 있다. 관심 영역 영상은 관심 영역을 포함하는 소스 영상, 관심 영역 카메라를 통해 촬영된 소스 영상 또는 프루닝되지 않은 소스 영상을 의미할 수 있다. 일 예로, 관심 영역 영상인 소스 영상이 관심 영역 영상이 아닌 소스 영상보다 높은 프루닝 우선 순위를 갖도록 설정할 수 있다.
관심 영역에 대한 정보가 부호화되어 메타데이터로 전송될 수 있다. 관심 영역에 대한 정보는, 소스 영상이 관심 영역 영상인지 여부를 나타낼 수 있다.
이머시브 영상 처리 장치는 복수개의 아틀라스들을 생성할 수 있다. 이머시브 영상 출력 장치는 복수개의 아틀라스들을 복호화하고, 뷰포트 대응하는 영상을 합성할 수 있다.
이때, 이머시브 영상 출력 장치가 포함하는 영상 디코더의 개수가 아틀라스 영상의 개수보다 적을 경우, 모든 아틀라스들을 복호화하는 것이 불가능하다.
이에, 본 개시에서는, 아틀라스들 간 우선 순위를 설정한 뒤, 설정된 우선 순위에 따라, 복호화 우선 순위를 결정하는 방법을 제안한다. 구체적으로, 아틀라스들의 개수가 M개이고, 영상 디코더의 개수가 N개인 경우, M개의 아틀라스 중 우선 순위가 높은 N개의 영상이 영상 디코더를 통해 복호화될 수 있다.
도 8은 아틀라스들 간 우선 순위에 기초하여, 디코딩 대상이 선택되는 예를 나타낸 것이다.
도 8에 도시된 예에서와 같이, 이머시브 영상 출력 장치가 2개의 영상 디코더를 포함하고 있을 경우, 우선 순위가 높은 2개의 아틀라스들 만이 디코딩 대상으로 선택될 수 있다.
아틀라스들 간 우선 순위는, 아틀라스가 관심 영역 영상의 정보를 포함하는지 여부에 기초하여 결정될 수 있다. 구체적으로, 관심 영역 영상으로부터 유래된 패치(이하, 관심 영역 패치라 함)를 포함하는 아틀라스가 그렇지 않은 아틀라스보다 높은 우선 순위를 갖도록 설정할 수 있다. 관심 영역 패치들이 복수 아틀라스들에 분산 저장된 경우, 각 아틀라스가 포함하는 관심 영역 패치들의 개수를 기초로, 아틀라스들 간 우선 순위를 결정할 수 있다. 구체적으로, 제1 아틀라스가 포함하는 관심 영역 패치들의 개수가 제2 아틀라스가 포함하는 관심 영역 패치들의 개수보다 많을 경우, 제1 아틀라스가 제2 아틀라스보다 높은 우선 순위를 갖도록 설정할 수 있다.
또는, 완전 영상 패치를 포함하는 아틀라스가 조각 영상 패치들만을 포함하는 아틀라스보다 높은 우선 순위를 갖도록 설정할 수 있다.
아틀라스 우선 순위에 대한 정보가 메타데이터로 부호화/복호화될 수 있다. 일 예로, 표 1은 아틀라스 우선 순위 정보를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00001
표 1에서, 신택스 num_atlases_minus1은 아틀라스들의 개수를 결정하는데 이용된다. 구체적으로, 신택스 num_atlases_minus1은 아틀라스들의 총 개수에서 1을 차분한 값을 나타낼 수 있다.
신택스 atlas_id[i]는 i번째 아틀라스에 할당되는 식별자 또는 인덱스를 나타낸다.
신택스 atlas_priority[i]는 i번째 아틀라스의 우선 순위를 나타낸다. atlas_priority[i]의 값이 낮을수록 아틀라스의 우선 순위가 높음을 나타낸다.
이머시브 영상 처리 장치가 모든 아틀라스들을 복호화하기에 충분한 영상 복호화기를 구비하지 못한 경우, 각 아틀라스의 우선 순위를 참조하여, 복호화 대상을 선정할 수 있다.
다른 예로, 아틀라스가 관심 영역 패치를 포함하는지 여부를 나타내는 플래그가 부호화/복호화될 수 있다. 일 예로, i번째 아틀라스가 관심 영역 패치를 포함하는지 여부를 나타내는 플래그 atlas_ROI_flag[i]가 부호화될 수 있다.
이머시브 영상 처리 장치가 모든 아틀라스들을 복호화하기에 충분한 영상 복호화기를 구비하지 못한 경우, 관심 영역 패치를 포함하는 아틀라스를 그렇지 않은 아틀라스보다 우선하여 복호화할 수 있다.
관심 영역 패치들이 복수의 아틀라스들에 분산 배치되는 경우, 우선 순위가 낮은 아틀라스에 포함된 관심 영역 패치는, 아틀라스 영상 출력 장치가 포함하는 영상 디코더의 개수에 따라, 우선 순위가 낮은 아틀라스에 포함된 관심 영역 패치가 복호화되지 않는 경우가 발생할 수 있다. 이 경우, 관심 영역 영상의 합성 품질이 저하되는 문제점이 발생한다.
위 문제점을 해소하기 위해, 이머시브 영상 처리 장치는, 관심 영역 패치들이 하나의 아틀라스에 배치되도록 설정할 수 있다. 하나의 아틀라스에 모든 관심 영역 패치들을 배치할 수 없는 경우에는, 상기 아틀라스에 일부 관심 영역 패치들을 배치하고, 다음 아틀라스에 나머지 관심 영역 패치들을 배치할 수 있다.
다른 예로, 아틀라스 내 특정 영역에 관심 영역 패치들을 배치할 수 있다. 일 예로, 아틀라스가 복수개의 타일들로 분할되는 경우, 관심 영역 패치들이 특정 타일에 집중 분포되도록 설정할 수 있다. 이 경우, 타일드 영상에서 영역 기반 전송이 활성화된 경우, 관심 영역 패치들을 포함하는 타일만을 전송할 수도 있다.
도 9는 아틀라스 내 특정 타일에 관심 영역 패치들이 집중 배치되는 예를 나타낸 것이다.
도 9에 도시된 예에서와 같이, 아틀라스가 4개의 타일들로 구성된 경우, 4개의 타일들 중 첫번째 타일에만 관심 영역 패치들을 배치할 수 있다.
첫번째 타일 내 관심 영역 패치들을 배치하고 남은 잔여 타일에는 비 관심 여역 패치들을 배치할 수 있다.
또는, 하나의 타일에 모든 관심 영역 패치들을 배치할 수 없을 경우, 첫번째 타일에 관심 영역 패치들을 배치하고 남은 잔여 관심 영역 패치들을 두번째 타일에 배치할 수 있다.
아틀라스 영상 내 관심 영역 패치들을 포함하는 영역의 정보가 메타데이터로 부호화/복호화될 수 있다. 상기 정보는 관심 영역 패치들을 포함하는 영역의 크기 정보 또는 위치 정보 중 적어도 하나를 포함할 수 있다.
일 예로, 표 2는 관심 영역 패치들을 포함하는 영역의 크기 정보를 포함하는 신택스 테이블을 나타낸다.
Figure pat00002
표 2에서, 신택스 region_width_in_atlas[i]는 i번째 아틀라스 내 관심 영역 패치들을 포함하는 영역의 너비를 나타낸다.
신택스 region_height_in_atlas[i]는 i번째 아틀라스 내 관심 영역 패치들을 포함하는 영역의 높이를 나타낸다.
표 3은 관심 영역 패치들을 포함하는 영역의 위치 정보를 포함하는 신택스 테이블을 나타낸다.
Figure pat00003
표 3에서, 신택스 region_pos_in_atlas_x[i]는 i번째 아틀라스 내 관심 영역 패치들을 포함하는 영역의 x축 좌표를 나타낸다.
신택스 region_pos_in_atlas_y[i]는 i번째 아틀라스 내 관심 영역 패치들을 포함하는 영역의 y축 좌표를 나타낸다.
신택스 region_pos_in_atlas_x[i] 및 신택스 region_pos_in_atlas_y[i]는 관심 영역 패치들을 포함하는 영역의 좌측 상단 좌표 또는 중심 좌표를 나타낼 수 있다.
표 2 및 표 3에 예시된 실시예들을 조합하여, 관심 영역 패치들을 포함하는 영역의 크기를 나타내는 정보 및 관심 영역 패치들을 포함하는 영역의 위치를 나타내는 정보를 모두 부호화/복호화할 수도 있다.
아틀라스 내 완전 영상 패치와 조각 영상 패치가 혼합되어 있을 경우, 완전 영상 패치를 관심 영역 패치로 설정할 수도 있다. 이 경우, 표 2 및 표 3에 도시된 신택스들은 아틀라스 내 완전 영상 패치의 크기 및 완전 영상 패치의 위치를 나타낼 수 있다.
아틀라스 영상이 프루닝되지 않은 소스 영상(예컨대, 기본 영상)을 포함하는지 여부를 나타내는 정보가 메타데이터로 부호화/복호화될 수 있다. 일 예로, 아틀라스 영상이 프루닝되지 않은 소스 영상을 포함하는지 여부를 나타내는 플래그가 부호화될 수 있다. 일 예로, 표 4는 상기 플래그를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00004
표 4에서, 신택스 basic_atlas_flag[i]는 i번째 아틀라스가 프루닝되지 않은 소스 영상(예컨대, 기본 영상)을 포함하는지 여부를 나타낸다. 프루닝되지 않은 소스 영상은, 하나의 완전 영상 패치로서 아틀라스에 포함된다. 이에 따라, 신택스 basic_atlas_flag[i]는 i번째 아틀라스가 완전 영상 패치를 포함하는지 여부를 나타낼 수 있다.
신택스 basic_atlas_flag[i]가 1인 것은, i번째 아틀라스가 완전 영상 패치(즉, 기본 영상)만으로 구성되거나, 완전 영상 패치 및 조각 영상 패치가 혼합되어 구성되었음을 나타낸다.
반면, 신택스 basic_atlas_flag[i]가 0인 것은, i번째 아틀라스가 완전 영상 패치를 포함하지 않음을 나타낸다. 즉, 신택스 basic_atals_flag[i]가 0인 것은, i번째 아틀라스가 조간 영상 패치들만으로 구성되었음을 나타낸다.
뷰포트 영상을 합성하기 위해, 기본 영상과 같이, 특정 시점을 온전히 구현하기 위한 데이터가 요구된다. 뷰 렌더링에 필수적으로 요구되는 아틀라스를 식별하기 위해, 복수개의 아틀라스들 중 기본 영상에 대한 완전 영상 패치 또는 프루닝되지 않은 추가 영상에 대한 완전 영상 패치를 포함하는 아틀라스의 식별자를 기 정의된 값으로 설정할 수 있다. 여기서, 기 정의된 값은, 0 또는 아틀라스들의 개수에서 1을 차분한 값일 수 있다. 이 결과, 아틀라스 식별자에 기초하여, 아틀라스가 완전 영상 패치를 포함하는지 여부가 결정될 수도 있다.
일 예로, 기본 영상에 대한 완전 영상 패치를 포함하는 아틀라스의 식별자 atlas_id를 0으로 설정할 수 있다. 식별자 atlas_id[i]가 0이 아닌 아틀라스들은 기본 영상을 포함하지 않는 것으로 이해될 수 있다.
신택스 atlas_id[i] 및 신택스 basic_atlas_flag[i]를 고려하여, i번째 아틀라스 내 완전 영상 패치가 포함되어 있는지 여부를 결정할 수 있다.
일 예로, 신택스 atlas_id[i]가 기 정의된 값(예컨대, 0)을 갖는 경우, i번째 아틀라스는 완전 영상 패치(예컨대, 기본 영상)을 포함하는 것으로 결정될 수 있다. 식별자가 기 정의된 값을 갖는 아틀라스에 대해서는, 신택스 basic_atlas_flag[i]의 부호화가 생략되고, 그 값은 1인 것으로 간주될 수 있다.
반면, 식별자가 기 정의된 값을 갖지 않는 아틀라스에 대해서는, 신택스 basic_atlas_flag[i]가 추가 부호화될 수 있다. 식별자가 기 정의된 값을 갖지 않고, 신택스 basic_atlas_flag[i]가 0인 아틀라스 영상은 완전 영상 패치를 포함하지 않는 것으로 결정될 수 있다.
아틀라스 타입을 나타내는 정보가 메타데이터에 포함될 수 있다. 아틀라스 타입은, 메인 아틀라스 또는 보조 아틀라스 중 하나를 나타낸다.
아틀라스 타입에 따라, 아틀라스가 기본 영상의 정보를 포함하는지 여부, 아틀라스가 완전 영상 패치를 포함하는지 여부, 아틀라스가 추가 영상의 정보를 포함하는지 여부, 아틀라스가 기본 영상의 깊이 정보를 포함하는지 여부, 아틀라스가 추가 영상의 깊이 정보를 포함하는지 여부, 또는 아틀라스가 뷰 렌더링시 필요한 정보를 포함하는지 여부 중 적어도 하나가 결정될 수 있다.
일 예로, 기본 영상의 정보를 포함하는 아틀라스, 기본 영상의 깊이 정보를 포함하는 아틀라스 또는 뷰 렌더링시 필요한 정보를 포함하는 아틀라스가 메인 아틀라스로 설정될 수 있다.
표 5는 아틀라스 타입 관련 정보를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00005
신택스 atlas_type[i]는 아틀라스가 메인 아틀라스인지 또는 보조 아틀라스인지 여부를 나타낸다.
일 예로, 신택스 atlas_type의 값이 0인 것은, 아틀라스가 메인 아틀라스임을 나타낸다. 반면, 신택스 atlas_type의 값이 1인 것은, 아틀라스가 보조 아틀라스임을 나타낸다.
이에 따라, 신택스 atlas_type의 값이 0인 것은, 아틀라스가 기본 영상 또는 뷰 렌더링에 필요한 적어도 하나 이상의 패치를 포함함을 나타낸다. 반면, 신택스 atlas_type의 값이 1인 것은, 아틀라스가 기본 영상을 포함하지 않음 또는 뷰 렌더링에 필요한 패치들을 포함하지 않음을 나타낸다.
이머시브 영상의 효율적인 부호화/복호화 및 전송을 위해, 복수의 패치 영상들로부터 유도된 패치들을 하나의 아틀라스에 배치할 수 있다. 패치들의 패킹 시, 패치들의 소스 정보가 요구된다. 일 예로, 패치들이 유래된 소스 영상의 인덱스를 가리키는 소스 인덱스가 메타데이터에 포함될 수 있다.
도 10은 복수의 패치 영상들로부터 유도된 패치들이 하나의 아틀라스에 배치되는 예를 나타낸다.
도 10에 도시된 예에서, 인덱스가 1인 추가 영상 1로부터 유도된 패치 2(Patch 2) 및 패치 5(Patch 5)와, 인덱스가 2인 추가 영상 2로부터 유도된 3패치 (Patch 3) 및 패치 7(Patch 7)이 하나의 아틀라스에 패킹될 수 있다.
뷰 렌더링을 위해, 패치가 유래된 소스 영상의 정보가 메타데이터에 포함될 수 있다. 일 예로, 패치 2 및 패치 5는 인덱스가 1인 소스 영상(즉, 추가 영상 1)로부터 유도되었으므로, 패치 2 및 패치 5의 소스 인덱스는 1로 설정될 수 있다. 반면, 패치 3 및 패치 7은 인덱스가 2인 소스 영상(즉, 추가 영상 2)로부터 유도되었으므로, 패치 3 및 패치 7의 소스 인덱스는 2로 설정될 수 있다.
패치별 소스 인덱스가 메타데이터에 포함될 수 있다. 다만, 동일한 추가 영상으로부터 유도된 패치들은 동일한 소스 인덱스를 갖는데, 이들의 소스 인덱스를 각각 부호화하는 것은, 동일한 값을 반복적으로 부호화/복호화하게 되어, 부/복호화 효율을 저하시킬 수 있다.
위와 같은 문제점을 해소하기 위해, 패치가 이전 패치와 동일한 소스 인덱스를 갖는지 여부를 나타내는 플래그를 부호화/복호화할 수 있다. 상기 플래그의 값에 따라, 패치의 소스 인덱스를 추가 부호화/복호화할 것인지 여부가 결정될 수 있다. 일 예로, 표 6 및 표 7은 상기 플래그를 포함하는 신택스 테이블을 나타낸다.
Figure pat00006
Figure pat00007
표 6에서, 신택스 num_patches_minus1[a]는 인덱스가 a인 아틀라스가 포함하는 패치들의 개수를 결정하는데 이용된다. 일 예로, num_patches_minus1[a]는 인덱스가 a인 아틀라스가 포함하는 패치들의 총 개수에서 1을 차분한 값일 수 있다.
신택스 atlas_width[a] 및 신택스 atlas_height[a]는 각각 인덱스가 a인 아틀라스의 너비 및 높이를 나타낼 수 있다.
신택스 view_id_equal_flag[a][i]는 i번째 패치의 소스 인덱스가 이전 패치(즉, i-1번?? 패치)의 소스 인덱스와 동일한지 여부를 나타낸다. 아틀라스 내 첫번째 패치(i가 0인 패치)에 대해서는, 신택스 view_id_equal_flag[a][i]의 부호화/복호화가 생략될 수 있다. 신택스 view_id_equal_flag[a][i]의 부호화/복호화가 생략되는 경우, 그 값은 0인 것으로 간주될 수 있다.
신택스 view_id_equal_flag[i]의 값이 0인 것은, i번째 패치의 소스 인덱스가 이전 패치의 소스 인덱스와 상이함을 나타낸다. i번째 패치와 이전 패치의 소스 인덱스가 상이한 경우, i번째 패치의 소스 인덱스를 가리키는 신택스 view_id[a][i]가 추가 부호화/복호화될 수 있다.
반면, i번째 패치와 이전 패치의 소스 인덱스가 동일한 경우, i번째 패치의 소스 인덱스를 가리키는 신택스 view_id[a][i]의 부호화/복호화가 생략될 수 있다. 신택스 view_id[a][i]의 부호화/복호화가 생략되는 경우, 그 값은 이전 패치의 소스 인덱스(예컨대, view_id[a][i-1])와 동일한 값인 것으로 간주될 수 있다.
신택스 view_id_equal_flag[a][i]를 이용함으로써, view_id_equal_flag가 0인 패치에 대해서만, 소스 인덱스를 부호화/복호화하고, view_id_equal_flag가 1인 패치에 대해서는 소스 인덱스의 부호화/복호화가 생략될 수 있다. 즉, view_id_equal_flag가 0인 경우에만 신택스 view_id를 파싱함으로써, 메모리 효율을 증가하고, 패치들의 분석 시간을 단출할 수 있는 효과가 유발된다.
플래그의 의미를 보다 명확히 하기 위해, 표 7에 도시된 예에서와 같이, view_id_equal_flag[a][i] 대신 previous_view_id_equal_flag[a][i]로 명명된 플래그를 사용할 수도 있다.
신택스 patch_id[a][i]는 i번째 패치에 할당되는 식별자를 나타낸다. 상기 식별자는, 패치 영상에 부여되는 고유의 인식값으로, 패치들 간 연관 관계를 나타낼 수 있다. 하나의 패치 영상에 복수개의 식별자들이 할당될 수도 있다.
연관 관계는, 패치들이 동일한 소스 영상에 포함되는지 여부, 패치들이 동일한 관심 영역에 포함되는지 여부 또는 패치들이 특정 객체에 포함되는지 여부 중 적어도 하나를 가리킬 수 있다.
연관성이 있는 패치들에는 동일한 식별자를 할당할 수 있다. 일 예로, 아틀라스에 포함된 패치 A와 패치 B가 유사한 경우, 패치 A에 대한 식별자 patch_id[a][A] 및 패치 B에 대한 식별자 patch_id[a][B]를 동일한 값으로 설정할 수 있다.
신택스 patch_id[a][i]를 이용함으로써, 연관성 또는 유사성이 있는 패치들을 보다 쉽게 탐색할 수 있다.
신택스 patch_width_in_view[a][i] 및 신택스 patch_height_in_view[a][i]는 각각 소스 영상 내 i번째 패치의 너비 및 높이를 나타낸다.
신택스 patch_pos_in_atlas_x[a][i] 및 신택스 patch_pos_in_atlas_y[a][i]는 각각 아틀라스 내 i번째 패치의 x축 좌표 및 y축 좌표를 나타낸다. 상기 신택스 patch_pos_in_atlas_x[a][i] 및 신택스 patch_pos_in_atlas_y[a][i]에 의해 특정되는 좌표는 i번째 패치의 좌측 상단 위치 또는 중심 위치를 나타낼 수 있다.
신택스 patch_pos_in_view_x[a][i] 및 신택스 patch_pos_in_view_y[a][i]는 각각 소스 영상 내 i번째 패치에 대응하는 영역의 x축 좌표 및 y축 좌표를 나타낸다. 상기 신택스 patch_pos_in_view_x[a][i] 및 신택스 patch_pos_in_view_y[a][i]에 의해 특정되는 좌표는 i번째 패치에 대응하는 영역의 좌측 상단 위치 또는 중심 위치를 나타낼 수 있다.
신택스 patch_rotation[a][i]는 i번째 패치의 회전 유무를 나타낸다. 일 예로, 신택스 patch_rotation[a][i]는, i번째 패치의 회전 방향(시계 방향 또는 반시계 방향), 회전 각도, 좌우 플립 여부 또는 상하 플립 여부 중 적어도 하나를 특정한다.
아틀라스가 포함하는 패치들의 개수에 기초하여, 아틀라스가 완전 영상 패치를 포함하는지 여부를 결정할 수 있다. 일 예로, 아틀라스가 포함하는 패치들의 개수가 1개인 경우(예컨대, 신택스 num_patches_minus1의 값이 0인 경우), 아틀라스가 기본 영상만을 포함하는 것으로 결정될 수 있다.
다만, 아틀라스가 포함하는 패치들의 개수만으로는, 아틀라스가 완전 영상 패치를 포함하는지 여부를 정확하게 결정할 수 있다. 일 예로, 아틀라스가 복수개의 패치들을 포함하는 경우(예컨대, 신택스 num_patches_minus1의 값이 1 이상인 경우), 아틀라스의 구성 상태는 다음 1) 내지 3) 중 하나일 수 있다.
1) 복수개의 완전 영상 패치들로 구성
2) 하나 이상의 완전 영상 패치와 하나 이상의 조각 영상 패치로 구성
3) 복수개의 조각 영상 패치들로 구성
상기 1) 또는 상기 2)의 경우에는, 아틀라스가 완전 영상 패치를 포함함에도, 아틀라스가 포함하는 패치들의 개수 정보(즉, 신택스 num_patches_minus1)로는 아틀라스가 완전 영상 패치를 포함하는지 여부를 인지할 수 없다.
이에 따라, 아틀라스에 포함된 패치가 완전 영상 패치인지 여부를 나타내는 정보를 추가로 부호화/복호화할 수 있다. 일 예로, 표 8은 패치가 완전 영상 패치인지 여부를 나타내는 플래그를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00008
표 8에서, 신택스 basic_patch_flag[a][i]는 i번째 패치가 완전 영상 패치인지 여부를 나타낸다. 일 예로, 신택스 basic_patch_flag[a][i]의 값이 1인 것은, i번째 패치가 기본 영상의 패치(즉, 완전 영상 패치)임을 나타낸다. 반면, 신택스 basic_patch_flag[a][i]의 값이 1인 것은, i번째 패치가 프루닝된 추가 영상의 패치(즉, 조각 영상 패치)임을 나타낸다.
패치의 식별자에 기초하여, 패치 타입을 결정할 수도 있다. 일 예로, 기본 영상 또는 프루닝되지 않은 추가 영상으로부터 유도된 패치의 식별자는 기 정의된 값을 갖도록 설정할 수 있다. 여기서, 기 정의된 값은 0일 수 있다.
이에 따라, view_id의 값이 0인 것은, 패치가 완전 영상 패치임을 나타낼 수 있다. 반면, view_id가 0보다 큰 값을 갖는 것은, 패치가 조각 영상 패치임을 나타낼 수 있다.
이머시브 영상 처리 장치가 복수개의 아틀라스들을 생성하는 경우, 전송 데이터량을 증가하고, 이머시브 영상 출력 장치의 디코딩 능력(capacity)이 증가하는 문제가 발생할 수 있다. 위와 같은 부/복호화 효율 저하 문제를 해소하기 위해, 생성되는 아틀라스들의 개수를 감소시킬 수 있다. 구체적으로, 패치를 축소하고, 축소된 패치를 아틀라스에 패킹함으로써, 생성되는 아틀라스들의 개수를 감소시킬 수 있다.
패치 스케일링은, 텍스처 패치에만 적용될 수 있다. 여기서, 텍스처 패치는 소스 영상의 텍스처 정보로만 구성된 패치를 나타낸다. 또는, 텍스처 패치와 동일한 비율로 깊이 패치를 스케일링할 수도 있다.
패치의 스케일링이 허용되는지 여부를 나타내는 플래그가 메타데이터로 부호화/복호화될 수 있다. 일 예로, 표 9는 상기 플래그를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00009
표 9에서, 신택스 masp_texture_patch_scale_enabled_flag는 패치의 스케일링이 허용됨을 나타낸다. 신택스 masp_texture_patch_scale_enabled_flag의 값이 1인 경우, 하위 레벨에서, 패치의 스케일링 팩터를 결정하기 위한 신택스가 추가 부호화/복호화될 수 있다. 반면, 신택스 masp_texture_patch_scale_enabled_flag의 값이 0인 경우, 하위 레벨에서, 패치의 스케일링 팩터를 결정하기 위한 신택스가 존해하지 않는다.
텍스처 패치에 대해서만 스케일링이 허용되거나, 텍스처 패치와 깊이 패치간 스케일링 비율이 상이한 경우, 텍스처 아틀라스와 깊이 아틀라스의 패킹 구조가 상이할 수 있다. 이에 따라, 텍스처 아틀라스 및 깊이 아틀라스 각각의 패킹 구조를 개별적으로 부호화/복호화할 수 있다. 일 예로, 표 10은 텍스처 아틀라스 및 깊이 아틀라스의 패킹 구조를 나타내는 신택스 테이블을 나타낸 것이다.
Figure pat00010
표 10에서, 신택스 pdu_texture_2d_pos_x 및 신택스 pdu_texture_2d_pos_y는 텍스처 아틀라스 내 텍스처 패치의 x 좌표 및 y 좌표를 나타낸다. 이때, 상기 신택스들에 의해 결정되는 좌표는, 텍스처 패치의 좌측 상단 좌표 또는 중심 좌표일 수 있다.
신택스 pdu_texture_2d_delta_size_x 및 신택스 pdu_texture_2d_delta_size_y는 각각 텍스처 패치의 너비 및 높이를 나타낸다.
신택스 patch_texture_orientation_index는 텍스처 패치의 회전 상태를 나타낸다. 일 예로, patch_texture_orientatiton_index는 텍스처 패치의 회전 방향(시계 방향 또는 반시계 방향), 회전 각도, 좌우 플립 여부 또는 상하 플립 여부 중 적어도 하나를 특정한다.
신택스 pdu_texture_scale_factor는 텍스처 패치의 스케일링 팩터를 나타낸다. 신택스 pdu_texture_scale_factor가 가리키는 스케일링 팩터를 기초로, 축소된 텍스처 패치를 원래 크기로 복원할 수 있다.
신택스 pdu_depth_2d_pos_x 및 신택스 pdu_depth_2d_pos_y는 깊이 아틀라스 내 깊이 패치의 x 좌표 및 y 좌표를 나타낸다. 이때, 상기 신택스들에 의해 결정되는 좌표는, 깊이 패치의 좌측 상단 좌표 또는 중심 좌표일 수 있다.
신택스 pdu_depth_2d_delta_size_x 및 신택스 pdu_depth_2d_delta_size_y는 각각 깊이 패치의 너비 및 높이를 나타낸다.
신택스 patch_depth_orientation_index는 깊이 패치의 회전 상태를 나타낸다. 일 예로, patch_depth_orientatiton_index는 깊이 패치의 회전 방향(시계 방향 또는 반시계 방향), 회전 각도, 좌우 플립 여부 또는 상하 플립 여부 중 적어도 하나를 특정한다.
패치를 기반으로, 사용자의 움직임에 대응하는 뷰포트 영상을 렌더링하기 위해서는, 패치가 추출된 소스 영상을 촬영한 카메라의 내외부 파라미터 정보가 요구된다. 일 예로, 뷰포트 영상 렌더링을 위해, 카메라의 초점 거리, 주점, 위치 또는 포즈 중 적어도 하나에 대한 정보가 요구될 수 있다.
뷰포트 영상 렌더링을 위해, 카메라 파라미터 정보가 메타데이터에 포함될 수 있다. 카메라 파라미터 정보의 부호화를 위해, 카메라별 고유의 식별자를 할당할 수 있다. 일 예로, 표 11은 카메라 식별자를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00011
표 11에서, 신택스 num_cameras_minus1은 카메라들의 개수를 결정하기 위해 이용된다. 일 예로, num_cameras_minus1은, 카메라들의 총 개수에서 1을 차분한 값일 수 있다.
신택스 cam_id[i]는 i번째 카메라에 할당되는 식별자를 나타낸다.
카메라 식별자(예컨대, cam_id)와 소스 영상 식별자(예컨대, view_id)를 연동시켜, 각 패치의 카메라 파라미터를 유도할 수 있다. 또한, 카메라의 움직임 또는 촬영 상황을 고려하여, 특정 식별자를 갖는 카메라의 내외부 파라미터 정보를 갱신할 수 있다. 즉, 신택스 cam_id를 이용하여, 특정 카메라의 내외부 파라미터 정보를 업데이트할 수 있다.
패치들은 사용자 움직임 또는 사용자 위치에 따른 뷰포트 영상을 합성하는데 이용된다. 이때, 뷰포트 영상 합성을 위해, 패치별 카메라 파라미터가 요구된다.
카메라 파라미터는 좌표계에 따라 표현 방식이 상이할 수 있다. 이에 따라, 카메라의 좌표계를 결정하기 위한 정보가 메타데이터에 포함될 수 있다. 일 예로, 표 12는 카메라의 좌표계를 결정하기 위한 플래그를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00012
표 12에서, 신택스 omaf_cam_flag는 카메라의 좌표계 특성을 나타낸다. 일 예로, 신택스 omaf_cam_flag의 값이 1인 것은, OMAF (Omni-directional Media Application Format) 표준에서 정의된 좌표계에 따라 카메라 파라미터들이 정의되어 있음을 나타낸다. 반면, 신택스 omaf_cam_flag의 값이 0인 것은, 카메라 파라미터들이 OMAF 표준에서 정의된 것과 상이한 좌표계로 정의되어 있음을 나타낸다.
OAMF 표준 포맷이 적용된 장치로 전달된 카메라 파라미터가 OMAF 표준에서 정의된 좌표계와 상이한 좌표계로 정의된 경우, 상기 단말이 상기 카메라 파라미터를 해석하기 위한 정보가 추가 요구된다. 이에, 본 개시에서는, 카메라 좌표계 정보가 추가된 카메라 파라미터와 관련된 신택스 구조 'camera_intrinsics'를 제안한다. 일 예로, 표 13은 카메라 파라미터 해석 정보가 추가된 신택스 테이블을 나타낸다.
Figure pat00013
표 13에서, 신택스 omaf_coordinate_system_flag는 단말에 입력된 카메라 파라미터가 OMAF 표준에 정의된 좌표계를 따르는지 여부를 나타낸다. 일 예로, 신택스 omaf_coordinate_system_flag의 값이 1인 것은, 카메라 파라미터가 OMAF 표준에 정의된 좌표계를 따름을 나타낸다. 반면, 신택스 omaf_coordinate_system_flag의 값이 0인 것은, 카메라 파라미터가 OMAF 표준에 정의된 좌표계를 따르지 않음을 나타낸다. 신택스 omaf_coordinate_system_flag의 값이 0인 경우, 카메라의 좌표계를 특정하기 위한 정보가 추가 부호화/복호화될 수 있다.
일 예로, 신택스 positive_x, 신택스 positive_y 및 신택스 positive_z는 각각 x축, y축 및 z축의 양의 방향이 카메라의 어느 방향에 대응하는지를 나타낸다. 일 예로, 표 14는 신택스 positive_x, 신택스 positive_y 및 신택스 positive_z의 값에 따른, x축, y축 및 z축 양의 방향과 카메라 방향관의 상관관계를 나타낸다.
Figure pat00014
신택스 coordinate_system_type은 좌표계가 왼존 좌표계인지 또는 오른손 좌표계인지 여부를 나타낸다. 일 예로, 신택스 coordinate_system_type의 값이 0인 것은, 왼손 좌표계임을 나타내고, 신택스 coordinate_system_type의 값이 1인 것은, 오른손 좌표계임을 나타낸다. 신택스 coordinate_system_type에 기초하여, 각 중심축에 대한 회전(Yaw, Pitch, Roll) 방향의 양의 방향을 결정할 수 있다.
이머시브 영상 처리 장치는 소스 영상들을 복수개의 그룹으로 분류하고, 그룹별 독립적으로 아틀라스 영상을 생성할 수 있다. 일 예로, 24개의 소스 영상들을 8개 소스 영상 단위로 3개의 그룹으로 분류한 뒤, 각 그룹마다 독립적으로 아틀라스 영상을 생성할 수 있다. 즉, 기본 영상의 선택 및 프루닝 수행 등은 그룹별 독립적으로 수행될 수 있다.
그룹을 처리 단위로 설정함으로써, 뷰포트 영상 재현시 화질 향상 및 그룹별 랜덤 액세스가 허용되는 장점이 유발된다.
하나의 그룹은 적어도 하나의 기본 영상을 포함한다. 또한, 그룹별 프루닝 우선 순위가 설정될 수 있다. 각 그룹의 아틀라스 영상은, 해당 그룹의 프루닝 우선 순위를 참조하여, 생성될 수 있다.
하나의 소스 영상이 복수개의 그룹에 속할 수도 있다. 일 예로, 제1 그룹의 기본 영상으로 설정된 소스 영상이 제2 그룹의 기본 영상으로 설정될 수도 있다.
그룹 단위로 영상 처리가 이루어지는 경우, 그룹에 관한 정보가 메타데이터에 포함될 수 있다. 일 예로, 표 15 및 표 16은 그룹 정보를 포함하는 신택스 테이블을 나타낸다.
Figure pat00015
Figure pat00016
표 15에서, 신택스 group_mode는 영상 처리가 그룹 단위로 수행되는지 여부를 나타낸다. 일 예로, 신택스 group_mode가 1인 것은, 영상 처리가 그룹 단위로 수행됨을 나타낸다. 반면, 신택스 group_mode가 0인 것은, 영상 처리가 그룹 단위로 수행되지 않음을 나타낸다. 신택스 group_mode가 0인 경우, 소스 영상 전체를 하나의 그룹으로 취급하여 영상 처리가 수행될 수 있다.
영상 처리가 그룹 단위로 수행되는 것으로 결정되는 경우, 그룹의 개수를 나타내는 정보가 부호화/복호화될 수 있다. 일 예로, 신택스 num_of_groups는 그룹들의 개수를 나타낸다.
또는, 그룹들의 총 개수에서 오프셋값을 차분하여 유도되는 신택스를 부호화/복호화할 수도 있다. 일 예로, 표 16의 예에서와 같이, 그룹들의 총 개수에서 1을 차분한 값을 나타내는 신택스 num_of_groups_minus1을 부호화/복호화할 수 있다.
복수개의 그룹들이 존재하는 경우, 각 그룹의 속성을 나타내는 정보가 추가 부호화/복호화될 수 있다.
일 예로, 신택스 group_id는 각 그룹의 고유 식별자를 나타낸다. 신택스 group_id가 가리키는 식별자는 해당 그룹에 포함된 아틀라스와 연동하기 위해 사용될 수 있다. 그룹의 개수가 1개인 경우, 신택스 group_id의 부호화/복호화가 생략될 수 있다.
신택스 roi_group_flag는 각 그룹이 관심 영역 그룹인지 여부를 나타낸다. 관심 영역 그룹은 뷰포트 영상 재현시 중요한 영역의 정보를 포함하거나, 운영자 또는 감독 등에 의해 추천되는 그룹을 가리킨다.
이머시브 영상 처리 장치는 깊이 아틀라스에 문턱값을 적용하여, 아틀라스 점유 지도를 생성할 수 있다. 아틀라스 점유 지도는, 아틀라스 내 각 픽셀이 렌더링에 필요한 정보를 포함하고 있는지 여부를 나타낸다. 일 예로, 깊이 아틀라스 내 픽셀값이 문턱값 이상인 경우, 해당 픽셀은 유효한 것으로 판단되고, 아틀라스 점유 지도 내 상기 픽셀와 동일 위치(Co-located) 픽셀의 값은 1로 설정될 수 있다. 반면, 깊이 아틀라스 내 픽셀값이 문턱값보다 작은 경우, 해당 픽셀은 유효하지 않은 것으로 판단되고, 아틀라스 점유 지도 내 상기 픽셀과 동일 위치 픽셀의 값은 0으로 설정될 수 있다.
깊이 아틀라스들의 개수 만큼 점유 지도들이 생성될 수 있다. 이에 따라, 깊이 아틀라스들의 개수가 많을수록 생성되는 점유 지도들의 개수도 증가하게 된다. 점유 지도들의 개수가 증가하는 경우, 전송 데이터량 및 이머시브 영상 출력 장치에서 필요한 영상 디코더의 개수도 증가해야하는 문제가 발생할 수 있다. 이에, 이머시브 영상 처리 장치에서, 점유 지도를 특정 비율만큼 축소한 뒤, 전송하는 방안을 고려할 수 있다.
도 11은 크기가 축소된 점유 지도가 전송되는 예를 나타낸 것이다.
이머시브 영상 처리 장치는, 깊이 아틀라스 내 각 픽셀의 값을 문턱값과 비교하여, 점유 지도를 생성할 수 있다. 그리고 나서, 생성된 점유 지도를 특정 비율만큼 축소하고, 축소된 점유 지도를 부호화하여 이머시브 영상 출력 장치로 전송할 수 있다.
이머시브 영상 출력 장치는 축소된 점유 지도를 수신한 뒤, 이를 원래 크기로 복원하여 깊이 아틀라에스 포함된 픽셀들의 유효성을 결정할 수 있다.
점유 지도가 축소되었는지 여부를 나타내는 정보가 메타데이터로 부호화/복호화될 수 있다. 일 예로, 표 17은 상기 정보를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00017
표 17에서, 신택스 msp_occupancy_scale_enabled_flag는 점유 지도를 스케일링하는 것이 허용되었는지 여부를 나타낸다. 신택스 msp_occupancy_scale_enabled_flag의 값이 1인 것은, 깊이 아틀라스와 점유 지도의 크기가 상이할 수 있음을 나타낸다. 반면, 신택스 msp_occupancy_scale_enabled_flag의 값이 0인 것은, 깊이 아틀라스와 점유 지도의 크기가 동일함을 나타낸다.
신택스 msp-_occupancy_scale_enabled_flag의 값이 1인 경우, 점유 지도의 축소 비율을 나타내는 정보가 추가 부호화/복호화될 수 있다. 일 예로, 점유 지도의 가로 방향 스케일링 팩터를 나타내는 신택스 occupancy_scale_factor_x 및 점유 지도의 세로 방향 스케일링 팩터를 나타내는 신택스 occupancy_scale_factor_y가 부호화/복호화될 수 있다.
완전 영상 패치에 대해, 완전 영상 패치의 프로젝션 포맷을 나타내는 정보가 메타데이터로 부호화/복호화될 수 있다. 표 18은 완전 영상 패치에 대해 상기 정보를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00018
신택스 compatible_flag[a][i]는 완전 영상 패치가 기존 OMAF 또는 360VR에서 재현 가능한 프로젝션 포맷(예컨대, ERP, 큐브맵 또는 Perspective Projection Formation)으로 설정되어 있는지 여부를 나타낸다. 일 예로, 신택스 compatible_flag[a][i]의 값이 1인 것은, 완전 영상 패치가 기존 OMAF 또는 360VR에서 재현 가능한 프로젝션 포맷으로 설정되어 있음을 나타낸다. 반면, 신택스 compatible_flag[a][i]의 값이 0인 것은, 완전 영상 패치가 기존 OMAF 또는 360VR에서 재현 가능하지 않은 프로젝션 포맷으로 설정되어 있음을 나타낸다.
신택스 compatible_flag[a][i]는 i번째 패치가 완전 영상 패치로 결정된 경우(예컨대, 신택스 basic_patch_flag[a][i]의 값이 1인 경우)에 한하여, 부호화/복호화될 수 있다.
점유 지도 생성시 유효 픽셀과 무효 픽셀의 판정 기준이 되는 깊이 문턱값이 메타데이터로 부호화/복호화될 수 있다. 이때, 상기 정보는 패치별로 부호화/복호화될 수 있다. 일 예로, 신택스 patch_occupancy_map_threshold[a][i]는 i번째 패치의 점유 지도 구성을 위해 사용된 깊이 문턱값을 나타낸다.
단, 완전 영상 패치는 유효 픽셀들로만 구성된 바, 완전 영상 패치에 대해서는 상기 정보의 부호화/복호화가 생략될 수 있다. 즉, 신택스 basic_patch_flag[a][i]의 값이 0인 경우에 한하여, 신택스 patch_occupancy_map_threshold[a][i]가 추가 부호화/복호화될 수 있다.
일반적으로, 아틀라스는 기본 영상 및 프루닝 과정을 거쳐 중복 데이터가 제거된 패치 영상을 이용하여 구성된다. 사용자의 위치에 따른 뷰포트 영상 렌더링을 위해, 사용자 시접에 근접하는 소스 영상들을 포함하는 아틀라스를 추출해야 한다. 즉, 이머시브 영상의 전송 및 랜덤 액세스를 위해, 아틀라스에 포함된 소스 영상의 정보 및 기본 영상의 정보를 전달할 필요가 있다.
일 예로, 16개의 소스 영상들이 각각 8개의 소스 영상들을 포함하는 2개의 그룹들로 분할된 경우, 제1 그룹에 대한 아틀라스는, 1번부터 8번 소스 영상들의 프루닝 과정을 거쳐 생성되고, 제2 그룹에 대한 아틀라스는 9번부터 16번 소스 영상들의 프루닝 과정을 거쳐 생성될 수 있다. 뷰포트 영상 생성을 위해, 랜덤/공간(spatial) 액세스 또는 사용자 위치 기반 아틀라스만을 이용하는 경우, 아틀라스 내 패치들의 소스 정보 및 아틀라스 내 가장 우선적으로 복호화되어야 하는 기본 영상을 나타내는 정보가 요구된다.
표 19는 사용자 위치 기반 랜덤 액세스를 위해 요구되는 정보를 포함하는 신택스 테이블을 나타낸다.
Figure pat00019
표 19에서, 신택스 num_view_minus1은 소스 영상들이 개수를 결정하기 위해 이용된다. 일 예로, 신택스 num_view_minus1은 소스 영상들의 개수에서 1을 차분한 값을 나타낼 수 잇다.
신택스 atlas_count_minus1은 아틀라스들의 개수를 결정하기 위해 이용된다. 일 예로, 신택스 atlas_count_minus1은 아틀라?뇬㈏? 개수에서 1을 차분한 값을 나타낼 수 있다.
소스 영상의 패치가 특정 아틀라스에 포함되어 있는지 여부를 나타내는 정보가 부호화/복호화될 수 있다. 신택스 view_enabled_in_atlas_flag[a][v]는 v번째 소스 영상의 패치가 a번째 아틀라스에 포함되어 있는지 여부를 나타낸다. 일 예로, view_enabled_in_atlas_flag[a][v]의 값이 1인 것은, v번째 소스 영상의 패치가 a번째 아틀라스에 포함되어 있음을 나타낸다. 반면, view_enabled_in_atlas_flag[a][v]의 값이 1인 것은, a번째 아틀라스가 v번째 소스 영상의 패치를 포함하지 않음을 나타낸다. 즉, view_enabled_in_atlas_flag[a][v]의 값이 1인 경우, a번째 아틀라스 내 소스 인덱스가 v인 패치가 적어도 하나 존재할 수 있다.
단, 1개의 아틀라스만이 존재하는 경우, 모든 소스 영상들의 패치가 동일한 아틀라스에 포함된다. 이에 따라, 아틀라스의 개수가 1개인 경우에는 신택스 view_enabled_in_atlas_flag[a][v]의 부호화/복호화가 생략될 수 있다. 즉, 신택스 view_enabled_in_atlas_flag[a][v]는 아틀라스가 복수개 존재하는 경우(예컨대, 신택스 atlas_count_minus1의 값이 0보다 큰 경우)에 한하여 부호화/복호화될 수 있다. 신택스 view_enabled_in_atlas_flag[a][v]의 부호화/복호화가 생략되는 경우, 그 값은 1인 것으로 간주될 수 있다.
a번째 아틀라스가 v번재 소스 영상으로부터 추출된 패치를 포함하는 경우, v번째 소스 영상이 a번째 아틀라스에 완전 영상 패치로서 포함되었는지 여부를 나타내는 신택스 view_complete_in_atlas_flag[a][v]가 부호화/복호화될 수 있다. 신택스 view_complete_in_atlas_flag[a][v]는 아틀라스의 개수가 1개인 경우 또는 신택스 view_enabled_in_atlas_flag[a][v]의 값이 1인 경우 부호화/복호화될 수 있다.
일 예로, 신택스 view_complete_in_atlas_flag[a][v]는가 1인 것은, v번째 소스 영상이 완전 영상 패치로서 a번째 아틀라스에 포함되어 있음을 나타낸다. 즉, view_complete_in_atlas_flag[a][v]가 1인 것은, v번째 소스 영상이 기본 영상임을 나타낸다. 반면, 신택스 view_complete_in_atlas_flag[a][v]가 0인 것은, v번째 소스 영상의 조각 영상 패치가 a번째 아틀라스에 포함됨을 나타낸다. 즉, view_complete_in_atlas_flag[a][v]가 0인 것은, v번째 소스 영상이 프루닝된 추가 영상임을 나타낸다.
이머시브 영상 처리 장치는 표 19의 소스 영상 파라미터 리스트 'view_params_list'에 포함된 정보들을 기초로, 뷰포트 영상을 합성하는데 필요한 아틀라스 및 기본 영상을 결정할 수 있다.
랜덤/공간 액세스 가능 여부를 나타내는 정보가 메타데이터로 부호화/복호화될 수도 있다. 일 예로, 표 20은 상기 정보를 포함하는 신택스 테이블을 나타낸 것이다.
Figure pat00020
표 20의 예에서, 신택스 spatial_acess_flag는 랜덤/공간 액세스가 허용되는지 여부를 나타낸다. 각 소스 영상 및 아틀라스 간 매핑 관계를 나타내는 신택스 view_enabled_in_atlas_flag[a][v] 및 신택스 view_complete_in_atlas_flag[a][v]는 신택스 spatial_access_flag의 값이 1인 경우에 한하여 부호화/복호화될 수 있다. 즉, spatial_access_flag는 각 소스 영상에 대해 view_enabled_in_atlas_flag[a][v] 및 view_complete_in_atlas_flag[a][v]가 존재하는지 여부를 나타낼 수 있다.
상술한 실시예들에서 소개된 신택스 요소들의 명칭은, 본 개시에 따른 실시예들을 설명하기 위해 임시로 부여된 것에 불과하다. 본 개시에서 제안된 것과 상이한 이름으로 신택스 요소들을 명명할 수도 있다.
상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 개시는 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 개시의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 개시는 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
이상 설명된 본 개시에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 개시에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 개시가 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 개시의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 개시가 상기 실시예들에 한정되는 것은 아니며, 본 개시가 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 개시의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 개시의 사상의 범주에 속한다고 할 것이다.

Claims (12)

  1. 소스 영상들에 대한 프루닝 우선 순위를 결정하는 단계;
    상기 프루닝 우선 순위에 기초하여, 상기 소스 영상들로부터 패치들을 추출하는 단계;
    상기 추출된 패치들에 기초하여, 적어도 하나의 아틀라스를 생성하는 단계; 및
    메타데이터를 부호화하는 단계를 포함하되,
    아틀라스가 제1 소스 영상의 전 영역의 정보를 포함하는 패치를 포함하는지 여부를 나타내는 제1 플래그가 상기 메타데이터로 부호화되는 것을 특징으로 하는, 이머시브 영상 처리 방법.
  2. 제1 항에 있어서,
    상기 제1 소스 영상이 상기 아틀라스에 포함되어 있는지 여부를 나타내는 제2 플래그의 값이 참인 경우, 상기 제1 플래그가 부호화되는 것을 특징으로 하는, 이머시브 영상 처리 방법.
  3. 제2 항에 있어서,
    상기 제1 플래그 및 상기 제2 플래그는, 각 소스 영상에 대해 상기 제1 플래그 및 상기 제2 플래그가 부호화되었는지 여부를 나타내는 제3 플래그가 참인 경우, 부호화되는 것을 특징으로 하는, 이머시브 영상 처리 방법.
  4. 제1 항에 있어서,
    상기 메타데이터는 상기 아틀라스의 타입을 나타내는 정보를 포함하고,
    상기 타입은 상기 아틀라스가 뷰 렌더링시 이용되는지 여부를 나타내는 것을 특징으로 하는, 이머시브 영상 처리 방법.
  5. 제1 항에 있어서,
    상기 아틀라스에 대응하는 점유 지도를 생성하는 단계를 더 포함하고,
    상기 메타데이터는 상기 점유 지도와 상기 아틀라스가 상이한 크기로 부호화되는지 여부를 나타내는 정보를 더 포함하는, 이머시브 영상 처리 방법.
  6. 제1 항에 있어서,
    상기 메타데이터는 카메라 좌표계 정보를 포함하고, 상기 카메라 좌표계 정보는, x축, y축 및 z축의 양의 방향을 결정하기 위한 것을 특징으로 하는, 이머시브 영상 처리 방법.
  7. 비트스트림으로부터 영상 데이터 및 메타데이터를 파싱하는 단계;
    상기 영상 데이터를 복호화하여 적어도 하나의 아틀라스를 획득 단계; 및
    메타데이터에 기초하여, 사용자 움직임에 따른 뷰포트 영상 합성에 요구되는 패치들을 아틀라스로부터 추출하는 단계를 포함하되,
    상기 메타데이터는 아틀라스가 제1 소스 영상의 전 영역의 정보를 포함하는 패치를 포함하는지 여부를 나타내는 제1 플래그를 포함하는 것을 특징으로 하는, 이머시브 영상 합성 방법.
  8. 제7 항에 있어서,
    상기 제1 소스 영상이 상기 아틀라스에 포함되어 있는지 여부를 나타내는 제2 플래그의 값이 참인 경우, 상기 제1 플래그가 복호화되는 것을 특징으로 하는, 이머시브 영상 합성 방법.
  9. 제8 항에 있어서,
    상기 제1 플래그 및 상기 제2 플래그는, 각 소스 영상에 대해 상기 제1 플래그 및 상기 제2 플래그가 존재하는지 여부를 나타내는 제3 플래그가 참인 경우, 복호화되는 것을 특징으로 하는, 이머시브 영상 합성 방법.
  10. 제7 항에 있어서,
    상기 메타데이터는 상기 아틀라스의 타입을 나타내는 정보를 포함하고,
    상기 타입은 상기 아틀라스가 뷰 렌더링시 이용되는지 여부를 나타내는 것을 특징으로 하는, 이머시브 영상 합성 방법.
  11. 제7 항에 있어서,
    상기 아틀라스에 대응하는 점유 지도를 획득하는 단계를 더 포함하고,
    상기 메타데이터는 상기 점유 지도와 상기 아틀라스가 상이한 크기인지 여부를 나타내는 정보를 더 포함하는, 이머시브 영상 합성 방법.
  12. 제7 항에 있어서,
    상기 메타데이터는 카메라 좌표계 정보를 포함하고, 상기 카메라 좌표계 정보는, x축, y축 및 z축의 양의 방향을 결정하기 위한 것을 특징으로 하는, 이머시브 영상 합성 방법.
KR1020200099704A 2019-08-29 2020-08-10 이머시브 영상 처리 방법 및 이머시브 영상 합성 방법 KR20210027091A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/006,389 US11483534B2 (en) 2019-08-29 2020-08-28 Method for processing immersive video and method for producing immersive video

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
KR20190106718 2019-08-29
KR1020190106718 2019-08-29
KR1020190114843 2019-09-18
KR20190114843 2019-09-18
KR20190118157 2019-09-25
KR1020190118157 2019-09-25
KR20200039979 2020-04-01
KR1020200039979 2020-04-01
KR1020200040946 2020-04-03
KR20200040946 2020-04-03
KR20200074168 2020-06-18
KR1020200074168 2020-06-18

Publications (1)

Publication Number Publication Date
KR20210027091A true KR20210027091A (ko) 2021-03-10

Family

ID=75148605

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200099704A KR20210027091A (ko) 2019-08-29 2020-08-10 이머시브 영상 처리 방법 및 이머시브 영상 합성 방법

Country Status (1)

Country Link
KR (1) KR20210027091A (ko)

Similar Documents

Publication Publication Date Title
TWI740347B (zh) 發信點雲多媒體資料的視埠以及興趣區域的方法及裝置
RU2716156C1 (ru) Способ и устройство для составления всенаправленного изображения в выходной формат макета
JP2024023826A (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置及び三次元データ復号装置
Salahieh et al. Test model for immersive video
US11483534B2 (en) Method for processing immersive video and method for producing immersive video
US11616938B2 (en) Method for processing immersive video and method for producing immersive video
US20220321912A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
EP3992911A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
WO2021241190A1 (ja) メディア配信装置およびメディア配信方法、並びにプログラム
US20230232031A1 (en) Method for decoding immersive video and method for encoding immersive video
KR20210027091A (ko) 이머시브 영상 처리 방법 및 이머시브 영상 합성 방법
US11477429B2 (en) Method for processing immersive video and method for producing immersive video
US11350074B2 (en) Method for processing immersive video and method for producing immersive video
US11838485B2 (en) Method for processing immersive video and method for producing immersive video
US20210006830A1 (en) Method for processing immersive video and method for producing immersive video
KR20210036834A (ko) 이머시브 영상 처리 방법 및 이머시브 영상 합성 방법
KR20210036795A (ko) 이머시브 영상 처리 방법 및 이머시브 영상 합성 방법
KR20210157887A (ko) 이머시브 영상 처리 방법 및 이머시브 영상 합성 방법
US20230119281A1 (en) Method for decoding immersive video and method for encoding immersive video
KR102591133B1 (ko) 이머시브 영상 부호화 방법 및 이머시브 영상 복호화 방법
KR20200095408A (ko) 이머시브 비디오 포맷팅 방법 및 장치
KR20210035060A (ko) 이머시브 영상 처리 방법 및 이머시브 영상 합성 방법
US11140377B2 (en) Method for processing immersive video and method for producing immersive video
US20230319248A1 (en) Method for switching atlas according to user's watching point and device therefor
KR20230110178A (ko) 이머시브 영상 복호화 방법 및 이머시브 영상 부호화 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal