KR20180122967A - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR20180122967A
KR20180122967A KR1020180052006A KR20180052006A KR20180122967A KR 20180122967 A KR20180122967 A KR 20180122967A KR 1020180052006 A KR1020180052006 A KR 1020180052006A KR 20180052006 A KR20180052006 A KR 20180052006A KR 20180122967 A KR20180122967 A KR 20180122967A
Authority
KR
South Korea
Prior art keywords
information
sphere
coordinate system
dimensional
image
Prior art date
Application number
KR1020180052006A
Other languages
English (en)
Other versions
KR102628508B1 (ko
Inventor
방건
김휘용
최진수
강정원
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20180122967A publication Critical patent/KR20180122967A/ko
Application granted granted Critical
Publication of KR102628508B1 publication Critical patent/KR102628508B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • G06T3/12
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • G06T3/067
    • G06T3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Abstract

전방향 비디오에 관한 영상 처리 장치 및 방법이 제공된다. 본 개시의 영상 처리 방법은 전방향 비디오의 영상 정보 및 깊이 정보 중 적어도 하나를 획득하는 단계 및 상기 획득된 정보를 소정의 입체도형에 기초한 3차원 공간 좌표계에 매핑하는 단계를 포함한다.

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD}
본 개시는 전방향 비디오에 관한 영상 처리 장치 및 방법에 관한 것이다. 보다 구체적으로, 본 개시는 전방향 비디오의 영상 정보 및 깊이 정보를 3차원 공간 상에 표현하는 장치 및 방법에 관한 것이다.
기존 360도 비디오(또는 전방향 비디오)는 2차원 비디오의 고정된 시점을 벗어나 비디오 시청 시 사용자가 원하는 방향의 시점에서 비디오를 볼 수 있는 비디오이다. 도 1은 본 개시의 일 실시 예에 따른 360도 비디오를 획득하기 위한 다양한 종류의 전방향 카메라를 설명하기 위한 도면이다. 도 2는 본 개시의 일 실시 예에 따른 사용자에게 제공되는 360도 비디오의 재현 공간을 설명하기 위한 도면이다. 도 1 및 2를 참조하면, 기존의 360도 비디오 관련 기술은 여러 대의 카메라(110), 어안렌즈(120) 또는 반사경(130) 등을 이용하여 한 지점으로부터 360도의 모든 방향 또는 그 일부를 촬영 또는 생성할 수 있다. 또한, 3차원 가상 공간 상에서의 다면체(210)나 구(220)에 상기 촬영된 또는 생성된 영상을 투영시키고, 상기 다면체(210)나 구(220)에 투영된 영상에 기초하여 사용자가 바라보는 방향에 관한 영역을 재현시킬 수 있다. 예컨대, 다면체(210) 상에서 사용자가 바라보는 방향에 대응하는 소정의 영역(212)과 다면체(210)가 교차하는 해당 영역(214)에 투영된 영상이 사용자에게 제공될 수 있다. 또한, 예컨대, 구(220) 상에서 사용자가 바라보는 방향에 대응하는 소정의 영역(222)과 구(220)가 교차하는 해당 영역(224)에 투영된 영상이 사용자에게 제공될 수 있다.
도 3은 본 개시의 일 실시 예에 따른 n-자유도(degree of freedom)에 따른 시청의 일례를 설명하기 위한 도면이다.
도 3을 참조하면, 3-자유도 시청(310)의 경우, 기존의 360도 비디오 제공 장치에서는 구체(312)의 원점(314)을 중심으로 3차원 좌표축상의 회전만이 허용되는 3-자유도만이 시청자에게 제공될 수 있기 때문에, 시청자의 시청 자유도를 제약하는 문제가 있다. 따라서, 6-자유도 시청(320)과 같이, 사용자가 6-자유도의 자유로운 시점 이동을 하더라도 이에 대응하는 영역을 볼 수 있도록, 예를 들어 물체의 측면도 볼 수 있도록 물체의 영상 정보뿐만 아니라 깊이 정보를 제공하는 기술에 관한 연구가 요구된다.
본 개시의 기술적 과제는, 전방향 비디오에 관한 영상 처리 장치 및 방법을 제공하는 것이다.
본 개시의 다른 기술적 과제는, 전방향 비디오의 영상 정보 및 깊이 정보를 3차원 공간 상에 표현하는 장치 및 방법을 제공하는 것이다.
본 개시의 다른 기술적 과제는, 3차원 공간 상에 표현된 전방향 비디오의 영상 정보 및 깊이 정보를 변환하여 2차원 평면 상에 표현하는 장치 및 방법을 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따르면, 전방향 비디오의 영상 정보 및 깊이 정보 중 적어도 하나를 획득하는 단계; 및 상기 획득된 정보를 소정의 입체도형에 기초한 3차원 공간 좌표계에 매핑하는 단계를 포함하는 영상 처리 방법이 제공될 수 있다.
본 개시의 다른 양상에 따르면, 전방향 비디오의 영상 정보 및 깊이 정보 중 적어도 하나를 획득하고, 상기 획득된 정보를 소정의 입체도형에 기초한 3차원 공간 좌표계에 매핑하는 것을 특징으로 하는 영상 처리 장치가 제공될 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, 전방향 비디오에 관한 영상 처리 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 360도 영상, Light Field 영상, Point Cloud 영상 등의 전방향 비디오의 영상 정보 및 깊이 정보를 3차원 공간 상에 표현하는 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 3차원 공간 상에 표현된 전방향 비디오의 영상 정보 및 깊이 정보를 변환하여 2차원 평면 상에 표현하고, 이를 다시 역변환 하는 장치 및 방법이 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시 예에 따른 360도 비디오를 획득하기 위한 다양한 종류의 전방향 카메라를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 사용자에게 제공되는 360도 비디오의 재현 공간을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른 n-자유도(degree of freedom)에 따른 시청의 일례를 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 360도 비디오에 관한 프로젝션의 예를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 360도 비디오를 ERP 포맷의 비디오로 변환하는 과정을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 포인트 클라우드 영상 및 라이트 필드 영상의 일례를 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 3차원 구를 이용하여 영상 정보 및 깊이 정보를 표현하는 일례를 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 divergent 방식으로 획득된 3차원 영상 정보 및 깊이 정보를 3차원 구를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 convergent 방식으로 획득된 3차원 영상 정보 및 거리 정보를 3차원 구를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 영상에 포함된 객체 영역을 구 좌표계를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 가시 방향과 방사 방향을 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시 예에 따른 깊이 정보를 표현하는 일례를 설명하기 위한 도면이다.
도 13은 본 개시의 일 실시 예에 따른 다계층 구를 이용하여 영상 정보 및 깊이 정보를 표현하는 일례를 설명하기 위한 도면이다.
도 14는 본 개시의 다른 실시 예에 따른 다계층 구를 이용하여 영상 정보 및 깊이 정보를 표현하는 일례를 설명하기 위한 도면이다.
도 15는 본 개시의 일 실시 예에 따른 다계층 구를 이용하여 표현된 영상 정보 및 깊이 정보에 기초하여 물체 영역을 복원하는 일례를 설명하기 위한 도면이다.
도 16은 본 개시의 다른 실시 예에 따른 다계층 구를 이용하여 표현된 영상 정보 및 깊이 정보에 기초하여 물체 영역을 복원하는 일례를 설명하기 위한 도면이다.
도 17은 본 개시의 일 실시 예에 따른 일정한 간격에 따라 크기가 커지는 다계층 구의 일례를 설명하기 위한 도면이다.
도 18a 및 도 18b는 본 개시의 일 실시 예에 따른 컬러 정보를 다계층 구를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
도 19a 및 도 19b는 본 개시의 일 실시 예에 따른 거리 정보를 다계층 구를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
도 20은 본 개시의 일 실시 예에 따른 공통 프로젝션 포맷을 생성하는 동작방법을 설명하기 위한 흐름도이다.
도 21은 본 개시의 일 실시 예에 따른 영상 정보 또는 깊이 정보의 중요도에 따라 구 간격을 변경하는 일례를 설명하기 위한 도면이다.
도 22는 본 개시의 일 실시 예에 따른 3차원 구에 매핑된 영상 정보 및 깊이 정보를 Octree 형태로 분할하는 일례를 설명하기 위한 도면이다.
도 23은 본 개시의 일 실시 예에 따른 균일 스케일 공간과 로그 스케일 공간에 표현된 4계층 구의 일례를 설명하기 위한 도면이다.
도 24는 본 개시의 일 실시 예에 따른 균일 스케일 거리를 로그 스케일 거리로 변환하는 일례를 설명하기 위한 도면이다.
도 25는 본 개시의 일 실시 예에 따른 균일 스케일 공간과 지수 스케일 공간에 표현된 4계층 구의 일례를 설명하기 위한 도면이다.
도 26은 본 개시의 일 실시 예에 따른 균일 스케일 거리를 지수 스케일 거리로 변환하는 일례를 설명하기 위한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.
본 발명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 발명의 어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 즉, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
본 발명의 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 4는 본 개시의 일 실시 예에 따른 360도 비디오에 관한 프로젝션의 예를 설명하기 위한 도면이다.
360도 비디오(또는 전방향 비디오)는 영상의 모양이나 특성이 기존의 2차원 비디오와는 다르지만, 360도 비디오를 직사각형 범위 내로 프로젝션하여 2차원 형태로 변환하게 되면, 기존 2차원 비디오를 처리하는 방법이나 장치를 이용하더라도 2차원 형태로 변환된 360도 비디오에 대해 후처리, 저장, 편집, 보정, 압축 부호화 또는 재현 등의 다양한 영상 처리 기법이 적용될 수 있다. 도 4를 참조하면, 360도 비디오에 관한 대표적인 프로젝션 포맷으로서 ERP(Equi-Rectanuglar Projection, 410), CMP(Cube Map Projection, 420), ISP(IcoSahedral Projection, 430), OCP(OCtahedron Projection, 미도시), tetrahedron(미도시), dodecahedron(미도시) 등이 있다. 상기 다양한 프로젝션 포맷 중에서 360도 영상에 대해 일반적으로 사용하는 프로젝션 포맷은 ERP이다.
도 5는 본 개시의 일 실시 예에 따른 360도 비디오를 ERP 포맷의 비디오로 변환하는 과정을 설명하기 위한 도면이다.
360도 비디오가 3차원 구 표면(510)상에 투영되어 있는 경우, 임의의 샘플(512)에 대해 3차원 XYZ 좌표계를 이용하여 상기 샘플(512)의 경도 θ 및 위도
Figure pat00001
를 계산할 수 있다. 그리고, 상기 계산된 경도(θ) 및 위도(
Figure pat00002
)를 이용하여 ERP 좌표계 상에서의 위치 u, v를 계산할 수 있다. 이때 u의 경우, u축의 가운데를 중심으로 좌우를 각각 위도(
Figure pat00003
) -180도와 위도(
Figure pat00004
) 180도로 놓고 u를 구할 수 있다. 또한, u의 경우와 마찬가지로, v의 경우에도, v축의 가운데를 중심으로 위아래를 각각 경도(θ) -90도와 경도(θ) 90도로 놓고 v를 구할 수 있다. 그리고, ERP 비디오가 소정의 가로(W)x세로(H)의 해상도를 가지는 경우, 상기 계산된 u 및 v에 대해 상기 해상도 정보가 반영된 m, n을 구할 수 있다. 따라서, 3차원 구 표면(510)상의 임의의 샘플(512)에 대해 상기 샘플(512)에 대응하는 ERP 좌표계(520)상에서의 ERP 샘플(522)을 획득할 수 있다. 예컨대, (θ,
Figure pat00005
)의 유도과정, (u,v)의 유도과정 및 (m,n)의 유도과정은 각각 수학식 1 내지 수학식 3과 같이 표현될 수 있다.
Figure pat00006
Figure pat00007
Figure pat00008
CMP 포맷 영상, ISP 영상 등의 경우에도 상기 과정과 유사한 방법을 이용하여 3차원 360도 비디오로부터 변환될 수 있다.
도 4 또는 도 5을 참조하여 설명한 바와 같이, 3차원 구 표면상에 투영된(또는 매핑된) 기존의 360도 비디오를 2차원 형태로 변환시킨 프로젝션 포맷은 ERP, CMP, ISP, OCP, tetrahedron, dodecahedron 등이 있다. 상기 포맷 형태들의 경우, 객체들의 영상 정보 및 깊이 정보를 구의 표면에만 매핑시켜 사용자의 머리 회전만을 지원하는 3-자유도만을 지원할 수 있기 때문에, 사용자가 자유롭게 움직이면서 3차원 공간을 둘러볼 수 있는 6-자유도의 자유로운 시점 이동을 제공하는데 한계가 있다. 한편, 360도 영상을 비롯한 라이트 필드(Light Field) 영상, 포인트 클라우드(Point Cloud) 영상, 파노라마 영상 또는 일반 비디오 영상 등 다양한 종류의 촬영 영상에 대해, 자유롭게 시점 이동이 가능한 6-자유도를 제공하기 위해서는 촬영 영상 내에 포함된 객체들의 깊이 정보가 있어야 한다. 예컨대, 깊이 정보는 촬영 영상 내의 객체에 대해 카메라로부터 상기 객체까지의 거리값을 의미할 수 있다. 촬영 영상에 관한 깊이 정보가 획득된 경우, 상기 깊이 정보를 영상의 형태로 표현함으로써 깊이 영상을 획득할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 포인트 클라우드 영상 및 라이트 필드 영상의 일례를 설명하기 위한 도면이다.
포인트 클라우드 방식(610)은 주변에 서로 다른 위치에서 동시에 한 장면에 대해서 촬영을 하고 촬영된 결과를 3차원으로 복원하는 방법으로서, 상기 과정을 통해 포인트 클라우드 영상(612)을 획득할 수 있다. 라이트 필드 방식(620)은 라이트 필드 카메라를 이용하여 다시점 영상과 상기 다시점 영상에 대응하는 깊이 영상을 구하는 방법으로서, 도 6을 참조하면, 360도 카메라를 이용함으로써 360도 영상 및 깊이 영상(622)을 획득할 수 있다. 포인트 클라우드 방식 및 라이트 필드 방식은 단수 또는 다수의 영상 정보와 깊이 정보를 함께 얻을 수 있는 방법이다. 예컨대, 영상 정보는 R, G, B 또는 Y, Cb, Cr 등의 밝기 정보와 색상 정보를 의미하고, 깊이 정보는 영상을 획득하는 센서로부터 해당 객체까지의 거리 정보를 의미할 수 있다.
한편, 포인트 클라우드 영상은 수많은 3차원 값을 갖는 포인트들로 구성되어 있고, 좋은 품질의 포인트 클라우드를 획득하기 위해 한 장면에 대해 방대한 데이터가 요구되기 때문에 영상을 압축을 하거나 재생하는데 많은 시간과 많은 계산이 필요하다는 문제가 있다. 또한, 라이트 필드 영상은 매우 많은 시점 수의 영상들로 구성되기 때문에 각 영상들을 일괄적으로 저장하거나 편집하는 등의 관리가 복잡하다는 문제가 있다.
따라서, 본 개시에 따를 때, 360도 비디오 표현 방식의 한계인 3-자유도 제약을 극복하고, 라이트 필드 영상이나 포인트 클라우드 영상 표현 방법에서 높은 복잡도 및 많은 데이터가 요구되는 문제를 해결하기 위한 3차원 영상 처리 방법이 제공될 수 있다.
도 7은 본 개시의 일 실시 예에 따른 3차원 구를 이용하여 영상 정보 및 깊이 정보를 표현하는 일례를 설명하기 위한 도면이다.
본 개시의 영상 처리 방법은 라이트 필드 영상이나 포인트 클라우드 영상에 포함된 영상 정보 및 깊이 정보를 가상의 3차원 구(710)를 이용하여 나타낼 수 있다. 예컨대, 영상 정보는 3차원 구 표면의 화소값(712)으로 표현될 수 있고, 또한, 각 화소의 깊이값은 구 안쪽 방향으로의 거리 정보(화살표의 길이, 714)로 표현될 수 있다. 따라서, 기존의 360도 비디오 표현 방법은 3차원 영상 정보를 구 표면의 화소값으로 매핑하여 표현함으로써 3차원 영상 정보만을 표현할 수 있는 반면, 본 개시의 영상 처리 방법은 영상 정보는 구 표면의 화소값으로 매핑하고, 또한, 각 화소에 대응하는 깊이 정보는 구 안쪽 방향으로의 거리 정보로 표현함으로써 영상 정보 및 깊이 정보를 함께 나타낼 수 있다. 따라서, 본 개시의 영상 처리 방법은 도 3의 6-자유도 시청(320)에서 시청자의 시점이 이동하더라도 깊이 정보 위치의 화소값을 복원할 수 있기 때문에 이동된 시점에서 물체의 측면에 해당하는 영상 정보를 복원할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 divergent 방식으로 획득된 3차원 영상 정보 및 깊이 정보를 3차원 구를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
영상 정보 및 깊이 정보를 3차원 구에 어떻게 표시했는지를 3차원 구의 한 단면(810)을 통해 살펴보면, 영상 정보는 구의 표면(812)의 화소값으로 매핑시킬 수 있고, 또한, 깊이 정보는 빗금친 영역(814)과 같이 구의 내부에 매핑시킬 수 있다. 예컨대, 깊이 정보는 구의 중심으로부터 매핑된 영역의 표면까지의 거리를 의미할 수 있다. 깊이 정보를 나타내는 방법에 대해서는 도 10을 참조하여 구체적으로 후술한다.
도 9는 본 개시의 일 실시 예에 따른 convergent 방식으로 획득된 3차원 영상 정보 및 거리 정보를 3차원 구를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
우선 convergence 카메라 형태의 영상 촬영 방법의 일 실시 예(910)에 따라 3차원 비디오의 영상 정보 및 깊이 정보를 획득하고, 획득된 정보들을 3차원 구 좌표계를 이용하여 표현할 수 있다. 예컨대, 3차원 구를 이용한 표현 방법의 일 실시 예(920)에 따라 3차원 구에 XYZ 좌표계를 설정함으로써 3차원 비디오의 영상 정보 및 깊이 정보를 표현할 수 있다. 구체적으로, 예컨대, 3차원 구의 한 단면에 표시된 일 실시 예(930)에 따르면, 영상 정보는 구의 표면의 화소값으로 매핑시킬 수 있고, 깊이 정보는 구의 중심으로부터 객체(빗금친 영역, 932)의 표면까지의 거리로 매핑시킬 수 있다.
도 7 내지 도 9에서 상술한 바와 같이, 3차원 피사체들에 대한 영상 정보 및 깊이 정보를 가상의 3차원 구를 이용하여 표현하는 경우. 영상 정보는 구 표면상의 화소값으로 표현할 수 있고, 각 화소에 대응되는 깊이 정보는 구 안쪽 방향 또는 바깥쪽 방향으로의 거리 정보로 표현할 수 있다. 본 개시에 따를 때, 편의상 깊이 정보를 구 안쪽 방향(즉, 구 표면에서 구 중심 방향)의 거리 정보로서 표현하는 것을 가정하여 설명하지만, 그러나 깊이 정보를 반대 방향의 거리 정보로 표현하는 경우(예를 들어 구 중심을 기준으로 방사 방향으로의 거리 정보로 표현하거나 구 표면을 기준으로 구 중심에서 바깥쪽 방향으로의 거리 정보)도 포함할 수 있다.
도 10은 본 개시의 일 실시 예에 따른 영상에 포함된 객체 영역을 구 좌표계를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
임의의 공간상의 샘플의 정보에 대해서 구 좌표계(r, θ,
Figure pat00009
) 또는 직교 좌표계(X, Y, Z)를 이용하여 나타낼 수 있으며, 본 개시에서는 편의상 구 좌표계를 기준으로 상기 샘플을 표현하기로 한다. 도 10을 참조하면, 영상에 포함된 객체 영역이 구 안쪽에 위치한 제1 실시 예(1010), 영상에 포함된 객체 영역이 구 표면을 지나고 또한 구 안쪽에 위치한 제2 실시 예(1020) 및 영상에 두 개의 객체 영역이 포함된 제3 실시 예(1030)에서 물체 표면의 위치 A, B, C 각각은 표 1과 같이 구 좌표계를 이용하여 나타낼 수 있다.
Figure pat00010
표 1의 ‘가시 방향 표현’의 의미에 대해서는 도 11을 참조하여 구체적으로 후술한다. 도 11은 본 발명의 일 실시 예에 따른 가시 방향과 방사 방향을 설명하기 위한 도면이다. 구의 중심(1110)으로부터 공간 상의 한 점을 향하여 지나는 직선의 방향은 구의 중심(1110)을 기준으로 한 방사 방향(radial direction)이라 할 수 있다. 예컨대, 제1 화살표(1112)의 방향은 구의 중심(1110)으로부터 공간 상의 한 점(예를 들어, A(1114) 또는 B(1116))을 향하고 있으며, 이는 구의 중심(1110)을 기준으로 한 방사 방향이라 할 수 있다. 또는 제2 화살표(1122)의 방향은 구의 중심(1110)으로부터 공간 상의 한 점(예를 들어, A’(1124) 또는 B’(1126))을 향하고 있으며, 이는 구의 중심(1110)을 기준으로 한 방사 방향이라 할 수 있다. 한편, 객체 표면상의 점은 방사 방향에서 관측이 가능한 경우와 그렇지 않은 경우로 구분될 수 있다. 예컨대, 점 A(1114)는 방사 방향(즉, 구의 중심(1110)에서 점 A(1114)를 향하는 방향)에서의 관측이 가능하지만, 점 B(1116)는 물체 내부에 가려져 방사 방향에서의 관측이 불가능하다. 이때, 점 B(1116)는 방사 방향과 반대 방향(즉, 구 표면(1118)에서 구의 중심(1114)을 향하는 방향)에서는 관측이 가능하다. 즉, 물체 표면상의 위치한 임의의 한 점이 방사 방향의 직선상의 어느 한 점에서 관측된다고 할 때, 항상 방사 방향 또는 방사 방향의 반대 방향 중 하나의 방향에서만 해당 점을 관측할 수 있다. 또한, 예컨대, 점 A’(1124)는 방사 방향에서의 관측이 불가능하지만 그 반대 방향(예를 들어 점 X(1128)에서 구 중심(1110) 방향)에서는 관측이 가능하며, 점 B’(1126)는 방사 방향으로 관측이 가능하지만 구 외부위치에서 구 중심 방향(1110)으로는 관측이 불가능하다.
본 개시에서는 객체 표면상의 한 점에 대해 방사 직선 상에서 관측이 가능한 방향을 가시 방향으로 정의하고, 가시 방향의 표현을 위해 지시자 i를 도입하여, 후술하는 바와 같이 정의할 수 있다. 예컨대, 가시 방향이 방사 방향과 같은 경우 i=1(참), 가시 방향과 방사 방향이 다를 경우 i=0(거짓)이라고 정의할 수 있다. 예컨대, 도 11의 물체 표면 A(1114), B(1116), A'(1124), B'(1126)에 대한 가시 방향 표현 지시자 i의 값은 각각 iA = 1, iB = 0, iA' = 0, iB' = 1로 나타낼 수 있다.
도 12는 본 개시의 일 실시 예에 따른 깊이 정보를 표현하는 일례를 설명하기 위한 도면이다.
도 12를 참조하여, 주어진 기준점으로부터 물체 표면까지의 깊이 정보(거리 정보)를 표현하는 방법에 대해 설명한다. 구 면에 위치한 화소 A점(1210)으로부터 구 중심(1220) 방향으로의 직선(점선 방향)상에 매핑된 물체 표면 B점(1212)까지의 거리 정보는 A점(1210)과 B점(1212) 사이의 거리로 나타낼 수 있다. 구 면에 존재하는 모든 화소들 각각에 대응하는 물체 표면의 거리도 상기 A점(1210)과 B점(1212)간의 거리 정보를 구하는 방법을 이용하여 구할 수 있다. 한편, 거리 정보는 도 12의 실시 예와 같이 구 면상의 화소 위치에서부터 구 중심 방향으로 구할 수도 있고, 이와 반대로 구 중심에서 대상 화소 방향으로 구할 수도 있는데, 전자에서 구한 거리와 후자에서 구한 거리를 합산하면 구의 반경이 되기 때문에, 어떤 방법을 이용하더라도 동일한 결과를 얻을 수 있으나, 편의상 구 면상의 화소 위치에서부터 구 중심 방향으로 거리 정보를 구하는 방법을 이용하여 후술한다.
상기 도 12의 실시 예를 통해 획득한 거리 정보(또는 깊이 정보)는 다양한 스케일로 표현될 수 있다. 예컨대, A점(1210)과 B점(1212)의 거리를 균일한 스케일로 표현할 수도 있지만 로그 스케일이나 sine 스케일, 또는 n 제곱 스케일 등으로 표현할 수 있으나, 이에 제한되지 않는다. 상기와 같은 비균일 스케일 표현 방법은 구 중심으로부터 멀어질수록 정보의 중요성이 떨어지거나 증가하는 경우에 매우 유리하게 이용될 수 있다. 예컨대, 구의 표면적은 구의 반경의 제곱에 비례하므로 구의 반경이 두 배가 되면 구의 표면적은 네 배가 되며, 같은 시야각 범위를 동일한 조밀도로 표현하기 위해서는 균일 스케일의 경우 화소 수도 네 배가 되어야 한다. 만일 구 중심으로부터 거리가 멀어질수록 영상의 정보가 덜 중요하여 고해상도 표현이 필요 없는 경우라면, 구 중심에서 방사 방향으로의 거리를 로그 함수와 같이 그 변화율이 단조 감소하는 함수로 표현하면 거리가 증가하더라도 구 면에 존재하는 화소 수의 증가를 균일 스케일에 비해 작게 유지할 수 있다.
도 13은 본 개시의 일 실시 예에 따른 다계층 구를 이용하여 영상 정보 및 깊이 정보를 표현하는 일례를 설명하기 위한 도면이다.
도 12는 구 중심에서 방사 방향으로 하나의 물체 표면만이 존재하는 경우에 대한 일례이지만, 도 10의 영상에 두 개의 객체 영역이 포함된 제3 실시 예(1030)과 같이 여러 개의 물체 표면이 존재하는 경우도 발생할 수 있다. 이러한 경우 다계층 구를 이용하여 영상 정보와 깊이 정보를 표현하는 것이 유리할 수 있다. 도 13을 참조하면, 두 개의 물체 표면이 존재하는 경우를 나타내며, 이 경우 두 개의 구(예컨대, 제1 구(1310), 제2 구(1320))를 이용하여 각각의 구에 대해 영상 정보(화소값)와 각 화소에 대응하는 깊이 정보(거리값)을 나타낼 수 있다. 이렇게 다계층 구를 사용하여 깊이 정보를 표현할 때는 깊이 정보를 중복하여 표현하지 않도록 하기 위해 인접한 두 계층 사이에 존재하는 물체의 표면이 두 계층 중 하나의 계층에서만 표현되도록 제약할 수 있다. 다계층 구는 다양한 형태로 구성이 가능하며, 바람직하게는 동일한 중심과 서로 다른 크기(반경)를 갖도록 구성하는 것이 처리 과정을 단순화할 수 있다. 또한, 다계층 구는 거리값을 매핑하는 경우 3차원 공간상의 점을 보다 정밀하게 표현하기 위해 선택적으로 이용될 수 있다.
도 14는 본 개시의 다른 실시 예에 따른 다계층 구를 이용하여 영상 정보 및 깊이 정보를 표현하는 일례를 설명하기 위한 도면이다.
도 14는 하나의 물체 표면을 다계층 구를 이용하여 표현한 일례로서, 제1 영역(1430) 및 제2 영역(1432)에 포함된 화살표들 각각의 끝점에 위치한 물체 표면은 두 개의 구의 사이에 존재하므로 바깥쪽 구(1420)의 표면을 기준으로만 깊이 정보를 표현할 수 있다. 또한, 제1 영역(1430) 및 제2 영역(1432)을 제외한 나머지 제3 영역(1434)에 포함된 화살표들 각각의 끝점에 위치한 물체 표면은 안쪽 구(1420)의 표면 내부에만 존재하므로 안쪽 구(1420)의 표면만을 기준으로 깊이 정보를 표현할 수 있다. 한편, 제3 영역(1434)에 포함된 화살표들 각각의 끝점에 위치한 물체 표면의 경우 바깥쪽 구(1420) 표면에서도 안쪽 구(1410)의 표면까지의 거리(즉, 두 개의 구의 반경 차이)를 깊이 정보로 추가로 표현하는 것이 바깥쪽 구(1420)의 표면으로부터의 물체 표면까지의 거리를 보다 쉽게 구할 수 있다. 즉, 바깥쪽 구(1420)의 표면으로부터의 깊이 정보와 안쪽 구(1410)의 표면으로부터의 깊이 정보를 더하면 바깥쪽 구(1420)의 표면으로부터 물체 표면까지의 거리를 구할 수 있다.
도 15는 본 개시의 일 실시 예에 따른 다계층 구를 이용하여 표현된 영상 정보 및 깊이 정보에 기초하여 물체 영역을 복원하는 일례를 설명하기 위한 도면이다.
도 15는 최외각 구의 안쪽에 존재하는 물체 표면 영역(또는 물체 영역, 1502)의 깊이 정보를 다 계층 구로 나누어 표현하는 일례로서, 물체 표면 영역(1502)은 바깥쪽 구(1520)의 표면으로부터의 거리로 표현되는 바깥쪽 깊이 정보와 안쪽 구(1510)의 표면으로부터의 거리로 표현되는 안쪽 깊이 정보로 구분될 수 있다. 또한, 바깥쪽 깊이 정보와 안쪽 깊이 정보 또는 각 깊이에 대한 가시 방향 정보를 이용하면 물체 표면 영역(1502)을 3차원 공간상에 다시 복원할 수 있다. 예컨대, 두 개의 구 사이에 존재하는 물체 표면에 해당하는 임의의 B점(1530)의 경우 해당 가시 방향 지시자 값이 0이면 물체 표면 영역(1502)은 제1 복원 형태(1540)로 복원이 되고, 반면 해당 가시 방향 지시자 값이 1이면 물체 표면 영역(1502)은 제2 복원 형태로 복원이 된다.
도 16은 본 개시의 다른 실시 예에 따른 다계층 구를 이용하여 표현된 영상 정보 및 깊이 정보에 기초하여 물체 영역을 복원하는 일례를 설명하기 위한 도면이다.
도 16을 참조하면, 도 15와 동일한 물체 영역(1602)에 대해 두 계층의 구 표면 사이에 물체 영역(1602)이 존재하도록 다계층 구가 설정될 수 있다. 이 경우 바깥쪽 구(1620)의 표면으로부터 물체 표면까지의 거리는 바깥쪽 구(1620)로부터 안쪽 방향으로 측정하여 표현하고, 안쪽 구(1610)의 표면으로부터 물체 표면까지의 거리는 안쪽 구(1610)로부터 바깥쪽 방향으로 측정하여 표현할 수 있다. 도 16의 실시 예와 같이 거리를 측정하는 방향이 모든 구면에 동일하지 않은 경우에도 도 10 내지 도 15에서 상술했던 실시 예들을 쉽게 적용할 수 있기 때문에 자세한 설명은 생략하기로 한다.
도 17은 본 개시의 일 실시 예에 따른 일정한 간격에 따라 크기가 커지는 다계층 구의 일례를 설명하기 위한 도면이다.
도 17은 제1 계층 구(1710), 제2 계층 구(1720), 제3 계층 구(1730) 및 제4 계층 구(1740)의 총 4개의 계층으로 구성된 3차원 구를 이용하여 영상 정보 및 깊이 정보를 매핑한 일례를 나타낸 것으로서, 빗금친 영역(1750)은 매핑된 물체 영역을 나타낼 수 있다. 또한, 구의 크기(즉, 반경)는 일정한 간격 n(n은 0보다 큰 정수)만큼씩 증가하도록 다계층 구가 설정되었으며, 일정한 간격으로 증가하도록 다계층 구가 설정되면 영상 처리 과정이 보다 단순해질 수 있다.
도 18a 및 도 18b는 본 개시의 일 실시 예에 따른 컬러 정보를 다계층 구를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
도 18a 및 도 18b를 참조하면, 단계 S1830에서 소정의 조건에 따라 다계층 구의 생성 여부를 결정하고, 단계 S1850에서 임의의 물체 영역(1802)의 샘플들 중 구의 중심으로부터의 거리가 d인 샘플(1804)의 컬러값 P를 구좌표계상의 Lm에 매핑시킬수 있다.
도 19a 및 도 19b는 본 개시의 일 실시 예에 따른 거리 정보를 다계층 구를 이용하여 표현하는 일례를 설명하기 위한 도면이다.
도 19a 및 도 19b를 참조하면, 단계 S1930에서 소정의 조건에 따라 다계층 구의 생성 여부를 결정하고, 단계 S1950에서 임의의 물체 영역(1902)의 샘플들 중 구의 중심으로부터의 거리가 d인 샘플(1904)의 거리값 d를 구좌표계상의 Lm에 매핑시킬수 있다.
한편, 컬러 정보와 거리 정보를 다계층 구에 매핑하는 경우, 다계층 구에 컬러값만이 표현되는 경우, 거리 정보는 구의 반경(Rm)이 대표값이 되어 표현될 수 있다. 또한, 다계층 구에 컬러값과 거리 정보가 함께 표현되는 경우, 거리 정보는 반경 Rm인 구에 매핑된 d가 거리 정보로서 기록될 수 있다.
한편, m(m은 0보다 큰 정수)개의 3차원 구에 매핑된 물체 영역에 해당하는 영상 정보와 깊이 정보는 m개의 2차원 프로젝션 포맷으로 변환될 수 있다. 각각의 구를 기반으로 표현된 영상 정보와 깊이 정보를 2차원 평면상에 배치하는 경우, 동일한 2차원 좌표값을 매개로 이에 대응하는 화소값과 깊이값을 일관성 있게 인덱싱할 필요가 있다. 예컨대, 구 면에 위치한 영상 화소값들과 각 화소별 깊이값들이 동일한 기하학적 구조를 갖는 2차원 평면상에 배치되도록 하면 복잡도 측면에서 보다 유리할 수 있다. 따라서, m개의 3차원 구를 기반으로 표현된 영상 정보와 깊이 정보 세트(set)에 대해, 상기 세트에 대응하여 생성된 다수의 2차원 평면상의 영상 정보와 깊이 정보 세트에 기초하여 하나의 2차원 평면상의 공통 프로젝션 포맷을 생성할 수 있으며, 공통 프로젝션 포맷에 대해서는 도 18을 참조하여 구체적으로 후술한다.
도 20은 본 개시의 일 실시 예에 따른 공통 프로젝션 포맷을 생성하는 동작방법을 설명하기 위한 흐름도이다.
단계 S2020에서 다계층 구의 픽셀의 R값이 (-)값이냐 (+)값이냐에 따라 두 개의 공통 프로젝션 포맷 ERP_front와 ERP_back이 각각 생성될 수 있다. 예컨대, 프로젝션은 컬러값이 프로젝션된 포맷(ERP_texture)과 거리값이 프로젝션된 포맷(ERP_depth) 두 개가 생성될 수 있다. 또한, 거리값이 프로젝션된 포맷(ERP_depth)의 값은 각 구의 거리(Rm)만으로 표현되거나 또는 거리 정보(d)가 표현된 것으로 생성될 수 있다.
단계 S2050에서 생성된 ERP_front 또는 ERP_back의 변환된 위치에 픽셀이 존재하는지를 판단하고, 상기 판단 결과에 따라 변환된 위치에 픽셀이 존재하면 단계 S2060에서 변환된 위치의 픽셀을 그대로 둔다. 또한, 상기 판단 결과에 따라 변환된 위치에 픽셀이 존재하지 않으면 단계 S2070에서 변환된 위치에 픽셀값을 할당할 수 있다.
한편, ERP 포맷 변환을 기준으로 공통 프로젝션 포맷을 생성하는 방법을 상술하였지만 이에 제한되지 않으며, 다양한 프로젝션 포맷이 이용될 수 있다.
한편, m은 다계층 구의 개수를 의미할 수 있고, n은 다계층 구의 최대 개수를 의미할 수 있다.
도 21은 본 개시의 일 실시 예에 따른 영상 정보 또는 깊이 정보의 중요도에 따라 구 간격을 변경하는 일례를 설명하기 위한 도면이다.
구 중심으로부터의 거리에 따라 영상 정보 또는 깊이 정보의 중요도가 달라지는 경우 구의 간격이 다르게 설정될 수 있다. 예컨대, 구의 간격이 조밀하면 깊이 정보 또한 조밀하게 표현될 수 있고, 반면 구 간격이 듬성듬성하면 표현되는 깊이 정보 또한 듬성듬성하게 표현되어 물체 측면의 정보 해상도가 감소할 수 있다. 예컨대, 제1 계층 구(2110), 제2 계층 구(2120) 및 제3 계층 구(2130)는 구의 중심으로부터 가까운 거리에 있고 제4 계층 구(2140)는 구의 중심으로부터 상대적으로 먼 거리에 있기 때문에 제3 계층 구(2130)과 제4 계층 구(2140)간의 간격이 나머지 다른 계층 구들간의 간격보다 상대적으로 클 수 있다. 또한, 예컨대, 제1 계층 구(2110), 제2 계층 구(2120) 및 제3 계층 구(2130)는 물체가 존재하는 빗금친 영역(2150)에 대해 제4 계층 구(2140)보다 상대적으로 더 많이 인접하고 있기 때문에, 제3 계층 구(2130)과 제4 계층 구(2140)간의 간격보다 나머지 다른 계층 구들간의 간격이 상대적으로 좁을 수 있다.
한편, 3차원 구를 기반으로 표현된 영상 정보 및 깊이 정보는 다양한 3차원 분할 방식으로 분할하여 부호화되거나 처리될 수 있다. 도 22는 본 개시의 일 실시 예에 따른 3차원 구에 매핑된 영상 정보 및 깊이 정보를 Octree 형태로 분할하는 일례를 설명하기 위한 도면이다. 또한, 도 20 등에서 상술한 바와 같이 3차원 구를 기반으로 표현된 영상 정보와 깊이 정보는 2차원 평면으로 프로젝션하여 표현될 수 있으며, 상기 2차원 평면으로 표현된 정보도 Quadtree 등의 다양한 2차원 분할 방식으로 분할하여 부호화되거나 처리될 수 있다.
또한, 3차원 구를 기반으로 표현된 영상 정보나 깊이 정보는 저장, 전송, 부호화, 복호화, 수신, 변환 또는 렌더링 하는 등의 다양한 영상 처리 과정에 이용될 수 있다. 또한, 영상 정보와 깊이 정보 외에 가시 방향 정보, 구의 개수, 각 구의 크기, 거리 스케일 정보 또는 2차원 평면으로의 프로젝션 방식 등의 다양한 파라미터 정보가 이용될 수 있다. 상기 정보는 파일이나 전송스트림, 압축스트림, 파라미터셋 등의 다양한 방식을 이용하여 다른 장치에게 전달될 수 있다. 예컨대, HEVC나 AVC등 영상 압축 방식에서는 상기 파라미터 정보를 VPS(Video Parameter Set), SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 등의 파라미터셋에 포함시키거나 SEI(Supplemental Enhancement Information), VUI(Video Usability Information) 등의 부가정보 메시지에 포함시킴으로써 상기 파라미터 정보를 저장 또는 송수신할 수 있다. 또한, 예컨대, 가시 방향 정보는 깊이값마다 표현할 수 있다. 이때 구면의 각 화소별로 화소값, 깊이값, 가시 방향 정보가 존재할 수 있으며, 각각의 값은 2차원 평면상의 이미지 형태로써 기하학적 변환하여 배치될 수 있다. 표 2는 상기 파라미터 정보를 표현하는 신택스 및 이를 처리하기 위한 시맨틱스의 일례를 나타낸다.
<Syntax>
Figure pat00011
<Semantics>
num_spheres: 다계층 구를 구성하기 위한 구의 개수를 나타내는 정보이다.
projection_direction: 3차원 공간상의 영상 정보를 구면의 화소 위치로 매핑할 때 어느 방향의 구 면에 매핑되는지를 나타내는 정보이다. 예컨대, 3차원 공간 상의 영상 정보가 구면 외부에서 구면 방향으로 프로젝션 되었다면 0의 값을 갖고, 반대로 구면 내부에서 구면 방향으로 프로젝션 되었다면 1의 값을 갖도록 설정할 수 있다.
radial_distance_scale_type: 3차원 구의 중심을 원점으로 구 바깥으로 뻗어 나가는 방사 방향 직선상에서의 거리 스케일 종류를 나타내는 정보이다. 예컨대, 방사 방향으로 거리가 선형적으로 증가하면 0의 값을 갖고, 비선형적으로 증가하면 1의 값을 갖도록 설정할 수 있다.
linear_scale_value: 방사 방향으로 거리가 선형적으로 변화하는 경우(즉, radial_distance_scale_type 값이 0인 경우), 선형 스케일 값을 나타내는 정보이다. 예컨대, 1, 2, 3 등의 값을 가질 수 있다.
nonlinear_scaling_method: 방사 방향으로 거리가 비선형적으로 변화하는 경우(즉, radial_distance_scale_type 값이 1인 경우), 비선형 함수의 종류를 나타내는 정보이다. 예컨대, 표 3과 같이 nonlinear_scaling_method 값에 따라 다양한 거리 변환 함수를 사용할 수 있다.
Figure pat00012
nonlinear_scaling_parameter: 방사 방향으로 거리가 비선형적으로 변화하는 경우(즉, radial_distance_scale_type 값이 1인 경우), 비선형 변환에 사용되는 상수값(표 3을 참조하면, a값)을 나타내는 정보이다.
min_radius: 구의 최소 반경을 나타내는 정보이다.
max_radius: 구의 최대 반경을 나타내는 정보이다.
radial_distance_offset_value: 방사 방향으로 표현된 거리 값에 대해 일정한 상수값을 항상 더하여 복원하는 경우, 그 상수값에 해당하는 정보이다.
uniform_radius_spacing_flag: 다계층 구에서 인접한 두 구 사이의 간격, 즉 두 구 사이의 반경 차이가 항상 일정한지를 나타내는 정보이다. 예컨대, 인접한 두 구 사이의 간격이 항상 일정한 경우에는 1의 값을 갖고, 그렇지 않은 경우에는 0의 값을 갖도록 설정할 수 있다.
delta_radius_uniform_spacing: 다계층 구에서 인접한 두 구 사이의 간격이 항상 일정한 경우, 그 간격값을 나타내는 정보이다.
delta_radius[k]: 다계층 구에서 구의 중심에서 가까운 순서로 (k+1)번째 구의 반경과 k번째 반경과의 차이값을 나타내는 정보이다.
도 23은 본 개시의 일 실시 예에 따른 균일 스케일 공간과 로그 스케일 공간에 표현된 4계층 구의 일례를 설명하기 위한 도면이다.
제1 실시 예(2310)는 실제 3차원 공간상의 거리 비율이 구 좌표계 상에서도 동일하게 유지되는 균일 스케일 공간에서 서로 다른 반경 A, B, C, D를 각각 갖는 4계층의 구들을 나타낸 실시 예이다. 제1 실시 예(2310)의 경우, 구의 중심에서 바깥쪽으로 갈수록 구 사이의 간격이 증가하도록 표현함으로써 구의 중심과 가까운 영상 정보 및 깊이 정보는 좀더 촘촘하게 표현될 수 있고 구의 중심에서 먼 영상 정보 및 깊이 정보는 상대적으로 듬성듬성 표현될 수 있다. 한편, 제1 실시 예(2310)과 같은 균일 스케일 공간을 표 2의 신택스와 시멘틱스를 이용하여 표현하면, 구 좌표계 상에서 방사 방향의 거리가 선형적으로 증가하고(즉, radial_distance_scale_type 값이 0) 선형 스케일값(즉, linear_scale_value 값)이 1인 경우로 나타낼 수 있다.
제2 실시 예(2320)는 제1 실시 예(2310)와 같은 균일 스케일 공간을 구 중심에서 방사 방향으로 이동함에 따라 로그 스케일로 거리가 증가하는 로그 스케일 공간으로 변환하여 표현한 실시 예이다. 도 24는 본 개시의 일 실시 예에 따른 균일 스케일 거리를 로그 스케일 거리로 변환하는 일례를 설명하기 위한 도면으로서, 로그 함수(예를 들어
Figure pat00013
)와 그 역함수(예를 들어
Figure pat00014
)를 이용함으로써 제1 실시 예(2310)에서의 구의 반경 A, B, C, D와 이에 대응하는 제2 실시 예(2320)에서의 A', B', C', D'간의 변환과 역변환이 가능하다.
제2 실시 예(2320)와 같이 로그 스케일로 방사 방향의 거리를 표현하면 제1 실시 예(2310)보다 구의 중심에서 상당히 먼 공간의 영상도 작은 영역으로 제한하여 표현할 수 있게 되고, 더 작은 화소수로 구 표면을 표현할 수 있다. 따라서, 제2 실시 예(2320)의 방식은 구 중심에 가까울수록 보다 고해상도의 영상 정보와 깊이 정보를 표현하고, 구 중심에서 멀어질수록 저해상도의 영상 정보와 깊이 정보를 표현하는 경우에 매우 유용할 수 있다. 특히, 제2 실시 예(2320)와 같이 인접한 두 구 사이의 간격을 일정하게 유지하면(즉, 표 2의 uniform_radius_spacing_flag 값이 1인 경우) 정보 표현 및 처리 과정이 보다 단순해질 수 있다.
도 25는 본 개시의 일 실시 예에 따른 균일 스케일 공간과 지수 스케일 공간에 표현된 4계층 구의 일례를 설명하기 위한 도면이다.
제3 실시 예(2510)는 실제 3차원 공간상의 거리 비율이 구 좌표계 상에서도 동일하게 유지되는 균일 스케일 공간에서 서로 다른 반경 A, B, C, D를 각각 갖는 4계층의 구들을 나타낸 실시 예이다.
제4 실시 예(2520)는 제1 실시 예(2510)와 같은 균일 스케일 공간을 구 중심에서 방사 방향으로 이동함에 따라 지수 스케일로 거리가 증가하는 지수 스케일 공간으로 변환하여 표현한 실시 예이다. 도 26은 본 개시의 일 실시 예에 따른 균일 스케일 거리를 지수 스케일 거리로 변환하는 일례를 설명하기 위한 도면으로서, 지수 함수(예를 들어
Figure pat00015
)와 그 역함수(예를 들어
Figure pat00016
)를 이용함으로써 제3 실시 예(2510)에서의 구의 반경 A, B, C, D와 이에 대응하는 제4 실시 예(2520)에서의 A', B', C', D'간의 변환과 역변환이 가능하다.
제4 실시 예(2520)와 같이 지수 스케일로 방사 방향의 거리를 표현하면 제3 실시 예(2510)보다 구의 중심으로 가까이 갈수록 구의 간격이 더욱 촘촘해지도록 표현할 수 있다. 예컨대, 제3 실시 예(2510)의 구의 반경 D값과 제4 실시 예(2520)의 구의 반경 D'값이 동일하도록 설정하면, 제3 실시 예(2510)의 구의 반경 C, B, A는 제4 실시 예(2520)에서의 C', B', A'와 같이 지수 스케일 공간상에서 구의 중심으로 갈수록 구의 반경이 작아지도록 표현될 수 있다.
한편, 상술한 3차원 구 기반의 영상 정보 및 깊이 정보 표현 방법은 구 대신 정육면체, 직육면체 또는 실린더 등을 이용할 수 있으며, 상기 입체 도형을 이용하는 경우 구에서와 동일, 유사한 방식으로 영상 정보 및 깊이 정보를 표현할 수 있다.
또한, 3차원 구를 기반으로 표현된 영상 정보나 깊이 정보는 처리 장치의 목적에 따라 저장, 전송, 부호화, 복호화, 수신, 변환, 재생 또는 렌더링 하는 등의 다양한 영상 처리 과정에 이용될 수 있다.
또한, 영상 정보와 깊이 정보 외에 가시 방향 정보, 구의 개수, 각 구의 크기, 거리 스케일 정보 또는 2차원 평면으로의 프로젝션 방식 등의 다양한 파라미터 정보가 이용될 수 있다.
본 개시에 따르면, 전방향 비디오에 관한 영상 처리 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 360도 영상, Light Field 영상, Point Cloud 영상 등의 전방향 비디오의 영상 정보 및 깊이 정보를 3차원 공간 상에 표현하는 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 3차원 공간 상에 표현된 전방향 비디오의 영상 정보 및 깊이 정보를 변환하여 2차원 평면 상에 표현하고, 이를 다시 역변환 하는 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 전방향 비디오를 시청하는 사용자의 시점 이동 시 이동된 시점에 대응하는 영상 정보의 손실을 최소화하여 영상을 복원하는 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 기존의 360도 비디오 표현 방법의 단점인 3-자유도 시점 변화만을 지원하는 제약을 극복하고 6-자유도 시점 변화를 지원하는 장치 및 방법이 제공될 수 있다.
상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (20)

  1. 전방향 비디오의 영상 정보 및 깊이 정보 중 적어도 하나를 획득하는 단계; 및
    상기 획득된 정보를 소정의 입체도형에 기초한 3차원 공간 좌표계에 매핑하는 단계를 포함하는 영상 처리 방법.
  2. 제1항에 있어서,
    상기 입체도형은 구, 정육면체, 직육면체 및 실린더 중 적어도 하나인 영상 처리 방법.
  3. 제1항에 있어서,
    상기 입체도형이 구이면,
    상기 소정의 입체도형에 기초한 3차원 공간 좌표계는 구면 좌표계인 영상 처리 방법.
  4. 제3항에 있어서,
    상기 획득된 정보가 상기 전방향 비디오의 영상 정보이면,
    상기 영상 정보를 상기 구면 좌표계의 표면 상의 화소값으로 매핑하는 단계를 포함하는 영상 처리 방법.
  5. 제3항에 있어서,
    상기 획득된 정보가 상기 전방향 비디오의 깊이 정보이면,
    상기 깊이 정보를 상기 구면 좌표계의 표면으로부터 안쪽 방향 또는 바깥쪽 방향으로의 거리로 매핑하는 단계를 포함하는 영상 처리 방법.
  6. 제1항에 있어서,
    상기 획득된 정보를 소정의 입체도형에 기초한 복수의 3차원 공간 좌표계들에 매핑하는 단계를 포함하는 영상 처리 방법.
  7. 제6항에 있어서,
    상기 입체도형이 구이면,
    상기 획득된 정보를 다계층 구면 좌표계에 매핑하는 단계를 포함하는 영상 처리 방법.
  8. 제7항에 있어서,
    상기 다계층 구면 좌표계에 매핑된 정보를 2차원 평면상의 정보로 변환하는 단계; 및
    상기 변환된 정보를 이용하여 공통 프로젝션 포맷을 생성하는 단계를 더 포함하는 영상 처리 방법.
  9. 제7항에 있어서,
    상기 획득된 정보에 기초하여 상기 다계층 구면 좌표계를 구성하는 적어도 일부의 구면 좌표계간의 간격을 다르게 설정하는 단계를 포함하는 영상 처리 방법.
  10. 제1항에 있어서,
    상기 전방향 비디오에 관한 파라미터 정보를 획득하는 단계를 더 포함하는 영상 처리 방법.
  11. 제10항에 있어서,
    상기 소정의 입체도형에 기초한 3차원 공간 좌표계가 다계층 구면 좌표계이면,
    상기 파라미터 정보는 상기 영상 정보, 상기 깊이 정보, 가시 방향 정보, 상기 다계층 구면 좌표계를 구성하는 구의 개수, 구의 크기, 거리 스케일 정보 및 2차원 평면으로의 프로젝션 방식 중 적어도 하나인 영상 처리 방법.
  12. 전방향 비디오의 영상 정보 및 깊이 정보 중 적어도 하나를 획득하고, 상기 획득된 정보를 소정의 입체도형에 기초한 3차원 공간 좌표계에 매핑하는 것을 특징으로 하는 영상 처리 장치.
  13. 제12항에 있어서,
    상기 입체도형은 구, 정육면체, 직육면체 및 실린더 중 적어도 하나인 영상 처리 장치.
  14. 제12항에 있어서,
    상기 입체도형이 구이면,
    상기 소정의 입체도형에 기초한 3차원 공간 좌표계는 구면 좌표계인 영상 처리 장치.
  15. 제14항에 있어서,
    상기 획득된 정보가 상기 전방향 비디오의 영상 정보이면,
    상기 영상 정보를 상기 구면 좌표계의 표면 상의 화소값으로 매핑하는 영상 처리 장치.
  16. 제14항에 있어서,
    상기 획득된 정보가 상기 전방향 비디오의 깊이 정보이면,
    상기 깊이 정보를 상기 구면 좌표계의 표면으로부터 안쪽 방향 또는 바깥쪽 방향으로의 거리로 매핑하는 영상 처리 장치.
  17. 제12항에 있어서,
    상기 획득된 정보를 소정의 입체도형에 기초한 복수의 3차원 공간 좌표계들에 매핑하는 영상 처리 장치.
  18. 제17항에 있어서,
    상기 입체도형이 구이면,
    상기 획득된 정보를 다계층 구면 좌표계에 매핑하는 영상 처리 장치.
  19. 제18항에 있어서,
    상기 다계층 구면 좌표계에 매핑된 정보를 2차원 평면상의 정보로 변환하고, 상기 변환된 정보를 이용하여 공통 프로젝션 포맷을 생성하는 영상 처리 장치.
  20. 제12항에 있어서,
    상기 전방향 비디오에 관한 파라미터 정보를 획득하고,
    상기 소정의 입체도형에 기초한 3차원 공간 좌표계가 다계층 구면 좌표계이면, 상기 파라미터 정보는 상기 영상 정보, 상기 깊이 정보, 가시 방향 정보, 상기 다계층 구면 좌표계를 구성하는 구의 개수, 구의 크기, 거리 스케일 정보 및 2차원 평면으로의 프로젝션 방식 중 적어도 하나인 영상 처리 장치.
KR1020180052006A 2017-05-04 2018-05-04 영상 처리 장치 및 방법 KR102628508B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170057079 2017-05-04
KR20170057079 2017-05-04

Publications (2)

Publication Number Publication Date
KR20180122967A true KR20180122967A (ko) 2018-11-14
KR102628508B1 KR102628508B1 (ko) 2024-01-24

Family

ID=64015410

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180052006A KR102628508B1 (ko) 2017-05-04 2018-05-04 영상 처리 장치 및 방법

Country Status (2)

Country Link
US (1) US10957009B2 (ko)
KR (1) KR102628508B1 (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
KR20180051288A (ko) * 2016-11-08 2018-05-16 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
EP3565259A1 (en) * 2016-12-28 2019-11-06 Panasonic Intellectual Property Corporation of America Three-dimensional model distribution method, three-dimensional model receiving method, three-dimensional model distribution device, and three-dimensional model receiving device
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
GB2565043B (en) * 2017-06-22 2022-02-23 Avago Tech Int Sales Pte Lid Apparatus and method for stitching together multiple images
US20190005709A1 (en) * 2017-06-30 2019-01-03 Apple Inc. Techniques for Correction of Visual Artifacts in Multi-View Images
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
KR102442089B1 (ko) * 2017-12-20 2022-09-13 삼성전자주식회사 이미지의 관심 영역의 위치에 따라 이미지를 다면체에 매핑하는 장치 및 그 영상 처리 방법
WO2020101451A1 (ko) * 2018-11-15 2020-05-22 한국전자통신연구원 지역 기반 화면간/화면내 예측 기술을 이용한 부호화/복호화 방법 및 장치
KR102295809B1 (ko) * 2019-10-25 2021-09-01 주식회사 멀티플아이 이동체의 전방향에 대한 거리 취득 장치 및 방법
US11823402B2 (en) 2021-05-03 2023-11-21 Electronics And Telecommunications Research Institute Method and apparatus for correcting error in depth information estimated from 2D image
KR102372298B1 (ko) * 2021-07-26 2022-03-10 주식회사 멀티플아이 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치
KR102361133B1 (ko) * 2021-09-23 2022-02-14 주식회사 멀티플아이 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150249815A1 (en) * 2013-05-01 2015-09-03 Legend3D, Inc. Method for creating 3d virtual reality from 2d images
JP2017017689A (ja) * 2015-07-01 2017-01-19 株式会社リコー 全天球動画の撮影システム、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0569758A3 (en) * 1992-05-15 1995-03-15 Eastman Kodak Co Method and device for producing and storing three-dimensional characters and for three-dimensional typesetting.
JP2010097419A (ja) 2008-10-16 2010-04-30 Toshiba Plant Systems & Services Corp 三次元データ処理装置、三次元データ処理プログラム、および三次元データ処理方法
US9031805B2 (en) * 2011-03-22 2015-05-12 Yamaha Corporation Geomagnetic field measurement device, offset determination method, and computer readable recording medium therefor
KR101818778B1 (ko) 2012-03-23 2018-01-16 한국전자통신연구원 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법
US9384585B2 (en) 2012-10-23 2016-07-05 Electronics And Telecommunications Research Institute 3-dimensional shape reconstruction device using depth image and color image and the method
CN106062827B (zh) * 2013-12-15 2020-09-01 7893159加拿大有限公司 3d模型比较方法和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150249815A1 (en) * 2013-05-01 2015-09-03 Legend3D, Inc. Method for creating 3d virtual reality from 2d images
JP2017017689A (ja) * 2015-07-01 2017-01-19 株式会社リコー 全天球動画の撮影システム、及びプログラム

Also Published As

Publication number Publication date
US20180322611A1 (en) 2018-11-08
KR102628508B1 (ko) 2024-01-24
US10957009B2 (en) 2021-03-23

Similar Documents

Publication Publication Date Title
KR20180122967A (ko) 영상 처리 장치 및 방법
US10540818B2 (en) Stereo image generation and interactive playback
US10474227B2 (en) Generation of virtual reality with 6 degrees of freedom from limited viewer data
Smolic et al. 3DAV exploration of video-based rendering technology in MPEG
US10499033B2 (en) Apparatus, a method and a computer program for coding and rendering volumetric video
US10444931B2 (en) Vantage generation and interactive playback
JP7271099B2 (ja) ファイルの生成装置およびファイルに基づく映像の生成装置
KR20180111798A (ko) 파노라마 프레임 생성 프로세스에서 프레임의 적응적 스티칭
KR20140100656A (ko) 전방향 영상 및 3차원 데이터를 이용한 시점 영상 제공 장치 및 방법
US20150002636A1 (en) Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
US20130249901A1 (en) Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
JP2017532847A (ja) 立体録画及び再生
RU2453922C2 (ru) Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты)
JP2006113807A (ja) 多視点画像の画像処理装置および画像処理プログラム
Thatte et al. Depth augmented stereo panorama for cinematic virtual reality with head-motion parallax
WO2012140397A2 (en) Three-dimensional display system
GB2554925A (en) Display of visual data with a virtual reality headset
WO2020184174A1 (ja) 画像処理装置および画像処理方法
Devernay et al. New view synthesis for stereo cinema by hybrid disparity remapping
JP6575999B2 (ja) 照明情報取得装置、照明復元装置、およびこれらのプログラム
US11710256B2 (en) Free-viewpoint method and system
JP4722055B2 (ja) 3次元モデルを縮尺変更する方法及び縮尺変更ユニット
WO2019077199A1 (en) APPARATUS, METHOD, AND COMPUTER PROGRAM FOR VOLUMETRIC VIDEO
WO2018158494A1 (en) Method and apparatus for a multi-camera unit
WO2023085075A1 (ja) 情報処理装置および方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right