KR20210001254A - 가상 시점 영상 생성 방법 및 장치 - Google Patents
가상 시점 영상 생성 방법 및 장치 Download PDFInfo
- Publication number
- KR20210001254A KR20210001254A KR1020190077089A KR20190077089A KR20210001254A KR 20210001254 A KR20210001254 A KR 20210001254A KR 1020190077089 A KR1020190077089 A KR 1020190077089A KR 20190077089 A KR20190077089 A KR 20190077089A KR 20210001254 A KR20210001254 A KR 20210001254A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- generating
- user
- foreground
- virtual viewpoint
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 11
- 238000003709 image segmentation Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000000123 paper Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 208000019888 Circadian rhythm sleep disease Diseases 0.000 description 1
- 208000001456 Jet Lag Syndrome Diseases 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 208000033915 jet lag type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G06T3/0093—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
Abstract
3차원 가상 시점 영상을 생성하는 방법으로서, 사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 상기 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 단계, 그리고 상기 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 상기 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 단계를 포함하는, 가상 시점 영상 생성 방법이 제공된다.
Description
본 기재는 3차원 가상 시점 영상을 생성하는 방법 장치에 관한 것이다.
3차원 영상은 가상 시점 위치에서 생성된 영상으로서, 동일한 장면에 대해 다른 시점에서 획득한 단일 또는 복수 개의 영상을 이용하여 양안 시차와 운동 시차가 제공되는 영상이다. 가상 위치에서 시점 영상을 생성하기 위해 3차원 거리 정보인 깊이 정보(depth information)가 사용된다.
참조 시점과 가상 시점 간의 3차원 기하관계에 대한 정보와 참조 시점 영상에 대응되는 깊이 정보의 정확도는 가상 위치에서 생성되는 가상 시점 영상의 품질에 영향을 미친다. 정확한 깊이 정보를 추정하는 것은 기술적으로 어려운 문제점이 있다.
참조 시점 영상이 둘 이상인 경우 각 깊이 영상 간에 일관성이 일치되어야 하므로, 장면의 모든 화소에 대한 깊이 정보를 이용하는 3차원 시점 영상을 생성하는 것은 복잡도가 매우 높은 문제점이 있다.
한 실시예는 3차원 가상 시점 영상을 생성하는 방법을 제공한다.
한 실시예는 3차원 가상 시점 영상을 생성하는 장치를 제공한다.
한 실시예에 따르면, 3차원 가상 시점 영상을 생성하는 방법이 제공된다. 상기 가상 시점 영상 생성 방법은, 사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 단계, 그리고 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 단계를 포함한다.
상기 가상 시점 영상 생성 방법은 복원하는 단계 이후, 복수의 영상을 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 제2 영상에 시차를 부여하는 단계를 더 포함할 수 있다.
상기 가상 시점 영상 생성 방법에서 제2 영상에 시차를 부여하는 단계는, 제2 영상에서 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 제3 영상을 생성하는 단계, 그리고 제3 영상에 대해 영상 워핑(image warping)을 수행하는 단계를 포함할 수 있다.
상기 가상 시점 영상 생성 방법에서 영상 워핑을 수행하는 단계는, 제3 영상에서 배경 영역과 전경 영역을 분리하고, 배경 영역과 전경 영역에 대해 영상 워핑을 수행할 수 있다.
상기 가상 시점 영상 생성 방법에서 영상 워핑을 수행하는 단계는, 전경 영역 중 사용자로부터 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑을 수행할 수 있다.
다른 실시예에 따르면, 3차원 가상 시점 영상을 생성하는 장치가 제공된다. 상기 가상 시점 영상 생성 장치는, 사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 영상 정보 생성부, 그리고 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 영상 생성부를 포함한다.
상기 가상 시점 영상 생성 장치는, 복수의 영상을 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 제2 영상에 시차를 부여하는 시차 생성부를 더 포함할 수 있다.
상기 가상 시점 영상 생성 장치에서 시차 생성부는, 제2 영상에서 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 제3 영상을 생성하고, 제3 영상에 대해 영상 워핑(image warping)을 수행할 수 있다.
상기 가상 시점 영상 생성 장치에서 시차 생성부는, 제3 영상에서 배경 영역과 전경 영역을 분리하고, 배경 영역과 전경 영역에 대해 영상 워핑을 수행할 수 있다.
상기 가상 시점 영상 생성 장치에서 시차 생성부는, 전경 영역 중 사용자로부터 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑을 수행할 수 있다.
또 다른 실시예에 따르면, 3차원 가상 시점 영상을 생성하는 장치가 제공된다. 상기 가상 시점 영상 생성 장치는, 프로세서 및 메모리를 포함하고, 프로세서는 메모리에 저장된 프로그램을 실행하여, 사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 단계, 그리고 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 단계를 수행할 수 있다.
상기 가상 시점 영상 생성 장치에서 프로세서는, 복원하는 단계 이후, 복수의 영상을 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 제2 영상에 시차를 부여하는 단계를 더 수행할 수 있다.
상기 가상 시점 영상 생성 장치에서 프로세서는, 제2 영상에 시차를 부여하는 단계에서, 제2 영상에서 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 제3 영상을 생성하는 단계, 그리고 제3 영상에 대해 영상 워핑(image warping)을 수행하는 단계를 수행할 수 있다.
상기 가상 시점 영상 생성 장치에서 프로세서는, 영상 워핑을 수행하는 단계에서, 제3 영상에서 배경 영역과 전경 영역을 분리하고, 배경 영역과 전경 영역에 대해 영상 워핑을 수행할 수 있다.
상기 가상 시점 영상 생성 장치에서 프로세서는, 영상 워핑을 수행하는 단계에서, 전경 영역 중 사용자로부터 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑을 수행할 수 있다.
각 계층 영상을 미리 생성해둘 수 있기 때문에 사용자가 시청하는 단말에서의 구현 복잡도를 낮출 수 있다.
또한, HMD(Head Mounted Display)와 같은 몰입형 디스플레이에서 사용자가 주시하는 영역을 중심으로 전경과 배경을 분할하여 관심 객체의 입체감을 증대시킬 수 있다.
도 1은 한 실시예에 따른 가상 시점 영상 생성 장치의 블록도이다.
도 2는 한 실시예에 따른 사용자의 움직임 정보를 설명하기 위한 도면이다.
도 3은 한 실시예에 따른 영상 분할을 설명하기 위한 도면이다.
도 4는 한 실시예에 따른 사용자의 중심축 이동에 따른 장면 변화를 나타내는 도면이다.
도 5는 한 실시예에 따른 장면에 대한 카메라 시점이 3개일 때 영상 생성 과정을 나타내는 도면이다.
도 6은 한 실시예에 따른 영상 생성 결과를 나타내는 도면이다.
도 7a 및 도 7b는 한 실시예에 따른 깊이 계층별 영상 생성 및 완성 과정을 나타내는 도면이다.
도 8은 한 실시예에 따른 시차 생성 과정을 설명하기 위한 도면이다.
도 9 및 도 10은 한 실시예에 따른 가상 시점 영상 생성 방법의 흐름도이다.
도 11은 한 실시예에 따른 가상 시점 영상 생성 장치를 나타내는 블록도이다.
도 2는 한 실시예에 따른 사용자의 움직임 정보를 설명하기 위한 도면이다.
도 3은 한 실시예에 따른 영상 분할을 설명하기 위한 도면이다.
도 4는 한 실시예에 따른 사용자의 중심축 이동에 따른 장면 변화를 나타내는 도면이다.
도 5는 한 실시예에 따른 장면에 대한 카메라 시점이 3개일 때 영상 생성 과정을 나타내는 도면이다.
도 6은 한 실시예에 따른 영상 생성 결과를 나타내는 도면이다.
도 7a 및 도 7b는 한 실시예에 따른 깊이 계층별 영상 생성 및 완성 과정을 나타내는 도면이다.
도 8은 한 실시예에 따른 시차 생성 과정을 설명하기 위한 도면이다.
도 9 및 도 10은 한 실시예에 따른 가상 시점 영상 생성 방법의 흐름도이다.
도 11은 한 실시예에 따른 가상 시점 영상 생성 장치를 나타내는 블록도이다.
아래에서는 첨부한 도면을 참고로 하여 본 기재의 실시예에 대하여 본 기재가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 기재는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 기재를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 한 실시예에 따른 가상 시점 영상 생성 장치의 블록도이다. 도 2는 한 실시예에 따른 사용자의 움직임 정보를 설명하기 위한 도면이다. 도 3은 한 실시예에 따른 영상 분할을 설명하기 위한 도면이다. 도 4는 한 실시예에 따른 사용자의 중심축 이동에 따른 장면 변화를 나타내는 도면이다. 도 5는 한 실시예에 따른 장면에 대한 카메라 시점이 3개일 때 영상 생성 과정을 나타내는 도면이다. 도 6은 한 실시예에 따른 영상 생성 결과를 나타내는 도면이다. 도 7a 및 도 7b는 한 실시예에 따른 깊이 계층별 영상 생성 및 완성 과정을 나타내는 도면이다. 도 8은 한 실시예에 따른 시차 생성 과정을 설명하기 위한 도면이다.
도 1을 참조하면, 한 실시예에 따른 가상 시점 영상 생성 장치(100)는, 입력부(110), 영상정보 생성부(120), 영상 생성부(140), 영상 완성부(150), 시차 생성부(160)를 포함한다.
입력부(110)는 목표 장면이 서로 다른 위치에서 촬영된 카메라 영상을 수신한다. 입력부(110)는 한 실시예로서 센서를 통해 목표 장면을 바라보는 사용자의 움직임 정보를 수신한다. 사용자 움직임 정보는 도 2와 같은 움직임 자유도 정보를 포함할 수 있다. 움직임 자유도 정보는 사용자 중심을 기준으로 3방향 회전 이동 정보(상하회전, 좌우회전, 전후회전), 사용자 중심을 기준으로 중심축이 이동하는 정보(상하이동, 좌우이동, 전후이동)일 수 있다. 사용자의 움직임 정보는 사용자가 바라보는 시선의 위치도 포함할 수 있다. 입력부(110)는 다중 참조 시점 영상과 사용자 움직임 정보를 영상정보 생성부(120)에게 전달한다.
영상정보 생성부(120)는 사용자가 주시하는 시점의 영상의 깊이 정보에 기반하여 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할한다. 영상정보 생성부(120)는 한 실시예로서, 영상 분할부(121), 깊이 추정부(122)를 포함할 수 있다.
영상 분할 과정과 깊이 추정 과정은 공통적으로 필요한 정보(예를 들어, 객체의 경계 부분)를 추정하는 과정과 동시에 진행될 수 있고, 중간과정에서 상호 간에 필요한 데이터를 서로 주고 받을 수 있다.
영상 분할부(121)는 입력부(110)로부터 전달받은 다중 참조 시점 영상과 사용자의 움직임 정보에 기반하여 영상을 분할한다. 영상 분할부(121)는 영상 분할(image segmentation) 방법을 이용하여 참조 시점 영상에서 객체들을 분할한다. 영상 분할 방법은 한 실시예로서, 컴퓨터 비전 알고리즘을 이용하여 분할하는 방법, 사전에 생성된 객체 분할 마스크 영상에 기반하여 분할하는 방법, 깊이를 기준으로 장면을 분할하는 방법 중 하나일 수 있다.
도 3을 참조하면, 영상(301)과 영상(302)은 사용자가 영상(300)을 바라볼 때 주시영역에 의해 지정되는 관심 객체에 대한 장면 분할을 나타낸다. 영상이 분할될 때, 전경(foreground)에 해당하는 관심 영역과 배경(background)이 분리된다.
영상 분할부(121)는 영상(303), 영상(304), 및 영상(305)과 같이 영상(300)을 사용자로부터의 거리정보인 깊이 정보를 기준으로 3개의 계층으로 분할할 수 있다. 계층의 수는 목표 장면의 구성과 깊이 정보의 분포도에 따라 다양하게 설정될 수 있다.
도 3과 같이 전경과 배경이 분리된 상태에서, 사용자가 움직이는 방향의 반대방향으로 전경이 움직이게 되면 사용자는 운동 시차(motion parallax)를 느끼게 되므로, 정면에 대한 깊이감을 감지하게 된다.
도 4을 참조하면, 사용자의 중심축 이동에 따라 전경 객체가 반대 방향으로 움직이는 것을 확인할 수 있다. 영상(410)은 영상(420)을 중심으로 사용자가 좌측으로 움직인 영상이고, 영상(430)은 사용자가 우측으로 움직인 영상이다. 객체(421)와 객체(422)는 서로 반대 방향으로 움직이게 된다. 사용자로부터 객체(421)까지의 거리는 사용자로부터 객체(422)까지의 거리보다 가깝기 때문에 움직이는 시차가 더 크다. 실제 자연환경에서는 객체(421)와 객체(422)를 제외한 나머지 배경 영역도 함께 움직이는 것처럼 보여야 하지만, 객체만 움직이는 유사(pseudo) 운동 시차 효과를 적용할 때, 사용자는 장면에 대한 깊이감을 인지하게 된다. 유사 운동 시차 효과만 주는 경우 3차원의 입체감이 없는 종이가 좌우로 움직이는 듯한 카드보드 효과(cardboard effect)가 발생하고, 분할된 전경 객체가 움직인 이후에 전경 객체에 의해 가려졌던 영역(occluded area)이 발생하는 문제가 있다. 이와 같은 문제는 깊이 추정부(122), 영상 생성부(140), 영상 완성부(150), 시차 생성부(160)에 의해 처리될 수 있다.
도 5를 참조하면, 중앙 참조 시점인 영상(521)을 기준으로 영상(511)은 좌측 참조 시점, 영상(531)은 우측 참조 시점을 나타낸다. 영상(510)은 중앙 참조 시점인 영상(521)에서 사용자가 중심축을 좌측으로 이동할 때 전경영역이 반대방향인 우측으로 움직여서 생기는 가려진 영역(occluded area)을 나타낸다. 영상(530)은 중앙 참조 시점인 영상(521)에서 사용자가 중심축을 우측으로 이동할 때 전경영역이 반대방향인 좌측으로 움직여서 생기는 가려진 영역을 나타낸다.
가려진 영역은 영상(511)과 영상(531)과 같이 다른 시점에 위치한 카메라에 의한 참조 시점 정보를 이용하여 채워질 수 있다.
깊이 추정부(122)는 참조 시점 각각에 대응되는 깊이 영상을 생성한다.
실사장면에 대한 깊이 영상은 스테레오 정합이라는 깊이(또는 변이) 추정 기법을 통해 계산될 수 있다. 두 시점 이상의 카메라를 통해 촬영된 영상 간의 모든 화소에 대한 대응점을 찾아내고, 3차원 기하관계를 통해 대응점 간의 거리인 변이(disparity)가 z축의 거리값, 깊이값(depth)으로 변환된다. 깊이 추정 기법을 통해 획득된 깊이 정보는 장면의 모든 화소에 대응하는 정보이므로, 연속적인 분포를 갖는다. 영상합성을 통해 가상 시점을 생성할 때, 연속적인 깊이 정보가 이용되기 때문에, 생성된 장면이 실제의 기하에 가깝도록 재구성될 수 있다.
영상 생성부(140)는 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원한다. 구체적으로, 영상 생성부(140)는 참조 시점인 영상(511), 영상(521), 및 영상(531)의 각각에 대응하는 깊이 영상(또는 변이 영상)인 영상(512), 영상(522), 및 영상(532)와 참조 시점 간 기하관계를 이용하는 영상 워핑(image warping) 방법을 사용하여 가려진 영역을 채울 수 있다. 영상 생성부(140)에 의한 영상 생성 과정을 거치면 도 6과 같은 영상이 생성된다. 영상(610)과 영상(630)에서 점선으로 표기된 영역은 영상 워핑을 통해 채워진 결과를 나타낸다. 모든 참조 시점에서 보이지 않아 알 수 없는 미지의 영역(unknown area)이 생기므로, 영상 생성부(140)에 의한 영상 생성 과정에도 불구하고, 다 채워지지 못한 영역이 남게 된다. 미지의 영역은 영상 완성부(150)를 통해 복원될 수 있다.
참조 시점과 가상 시점 간의 3차원 기하관계와 참조 시점 영상에 대응되는 깊이 정보가 담긴 깊이 영상이 입력되면, 3차원 기하관계를 이용하는 영상합성 기법을 통해 사실적인 3차원 영상이 생성된다. 이때, 이용되는 깊이 영상은 참조 시점 영상의 모든 화소 내지 모든 영상 영역에 대응된다. 참조 시점과 가상 시점 간의 3차원 기하관계에 대한 정보와 참조 시점 영상에 대응되는 깊이 정보의 정확도는 가상 위치에서 생성되는 가상 시점 영상의 품질에 영향을 미친다. 3차원 기하관계는 카메라 캘리브레이션 방법에 의해 획득되고, 깊이 정보는 능동형 센서를 통해 획득되거나 스테레오 정합과 같은 컴퓨터 비전 알고리즘에 의해 추정될 수 있다.
영상 완성부(150)는 한 실시예로서, 이미지 인페인팅(image inpainting) 방법, 주변의 인접한 정보를 이용하여 보간하는 방법, 같은 장면 내에서 가장 유사한 패치를 찾아 순차적으로 채워나가는 방법 중 하나의 방법을 사용하여 미지의 영역을 복원할 수 있다. 영상 완성부(150)는 한 실시예로서, 경쟁적 구도를 이용하는 학습 방식인 생성적 적대 신경망(Generative adversarial network, GAN)을 이용하여 수많은 테스트 영상으로부터 미지의 영역을 원본과 비슷하게 복원하는 이미지 인페인팅 방법을 사용하여 미지의 영역을 복원할 수 있다.
도 7a를 참조하면, 중앙 참조 시점인 영상(720)을 기준으로 영상(710)은 좌측 참조 시점, 영상(730)은 우측 참조 시점을 나타낸다. 영상(721), 영상(722), 및 영상(723)은 중앙 참조 시점인 영상(720)이 깊이 정보에 따라 3개의 계층으로 분할된 영상을 나타낸다. 도 7a와 같이, 깊이 정보를 이용하여 장면단위로 분할할 수 있고, 다른 실시예로서 객체단위로 분할할 수 있다.
영상 생성부(140)는 각 계층으로 분할된 영상 중 전경에 의해 가려진 영역이 있는 영상(721)과 영상(722)에 대해 도 5에서 설명한 각 참조 시점의 깊이 정보를 이용하여 가려진 영역을 채우는 과정을 수행한다. 영상 완성부(150)는 영상 생성 후 남겨진 미지의 영역에 대해 영상 완성 과정을 수행한다. 미지의 영역은 영상 완성 과정을 통해 영상(744) 및 영상(745)과 같이 복원된다. 이때, 영상(724)과 영상(725)의 복원대상 영역은 전경에 의해 가려진 배경 영역에 속하기 때문에, 복원에 이용되는 참조 시점 영상은 전경이 제외되고 배경이 포함된 영상이다. 영상 완성부(150)는 배경만 포함되는 영상에 특화된 학습된 네트워크를 사용하여 미지의 영역을 복원할 수 있다. 학습된 네트워크를 사용하는 것을 통해 복원의 정확도를 향상시킬 수 있다.
도 7b는 영상 생성부(140) 및 영상 완성부(150)를 통해 가려진 영역 및 미지의 영역이 복원된 복수의 영상이, 사용자의 중심 및 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치된 영상을 나타낸다. 사용자의 움직임에 따른 장면 변화는 시차 생성부(160)를 통해 처리된다.
시차 생성부(160)는 영상 생성부(140) 및 영상 완성부(150)를 통해 가려진 영역 및 미지의 영역이 복원된 복수의 영상을, 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 영상에 시차를 부여할 수 있다.
사용자의 중심축이 특정 방향으로 움직이면 각 계층별로 전경에 해당하는 영상이 사용자의 이동 방향과 반대 방향으로 움직이고, 움직이는 복수 개의 전경 영상이 사용자의 거리에 따라 이동되는 변화폭이 달라져야 사용자가 장면에 대한 운동시차를 느낄 수 있다.
도 8을 참조하면, 영상(810), 영상(820), 영상(830)은 서로 다른 시점에서 획득된 카메라 시점 영상이고, 영상(840), 영상(850), 영상(860)은 영상 완성 과정을 거친 영상에 시차를 부여한 영상이다. 영상(850)은 중앙 참조 시점 영상으로 영상(820)과 동일하고, 영상(840)은 영상(850)에서 사용자 중심축이 좌측으로 움직였을 때의 영상이다. 도 8과 같이, 객체(811)와 객체(841), 객체(831)와 객체(861)는 서로 바라보는 방향이 다르다. 실제 자연환경에서 사용자의 시점이 이동함에 따라 관심 객체의 측면 부분이 드러나기 때문에, 사용자는 객체의 입체감을 인지할 수 있다. 영상(840) 및 영상(860)과 같이 전경에 해당하는 객체(850)를 그대로 좌우로 평행이동(shift)시키고 위치만 바꾼다면, 사용자의 중심축 이동의 변화폭이 작은 경우에는 차이가 미미하지만, 사용자의 중심축 이동 변화폭이 커지는 경우에는 3차원의 입체감이 없는 종이가 좌우로 움직이는 듯한 효과(즉, 카드보드 효과)가 발생할 수 있다. 이 때문에, 사용자는 부자연스러움을 느낄 수 있다.
이와 같은 문제를 해결하기 위해, 시차 생성부(160)는 영상 생성부(140) 및 영상 완성부(150)를 통해 가려진 영역 및 미지의 영역이 복원된 복수의 영상을, 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 영상에서 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 영상을 생성하고, 생성된 영상에 대해 영상 워핑(image warping)을 수행할 수 있다.
구체적으로, 시차 생성부(160)는 전경 영역과 배경 영역을 분리한다. 배경 영역에 대해서 영상 생성부(140)와 영상 완성부(150)를 통해 가려진 영역 및 미지의 영역까지 채워졌기 때문에, 시차 생성부(160)는 깊이 추정부(122)를 통해 생성된 깊이 영상의 깊이 정보를 이용하여 영상 워핑 과정을 수행할 수 있다. 시차 생성부(160)는 배경 영역에 대한 영상 워핑 후 사용자를 기준으로 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑 과정을 수행할 수 있다. 전경 영상이 워핑될 경우 객체의 새로운 면이 나타날 수 있는데, 이는 인접한 참조 시점을 이용하여 채워질 수 있다. 이를 통해, 자연스러운 시차가 생성될 수 있다.
또 다른 실시예로서, 시차 생성부(160)는 참조 시점 영상을 가시 영역과 비가시 영역(즉, 가려진 영역)으로 분리할 수 있다. 여기서 가시 영역은 참조 시점 영상에서 사용자에게 보이는 기본 영상을 말하며, 가려진 영역은 시점 이동 시에 새롭게 나타나는 영역을 말한다. 가려진 영역은 기본 영상에서 객체들에 의해 가려져서 사용자에게 보일 수 없는 영역의 정보를 포함한다. 도 5에서 영상(510)과 영상(530)은 사용자 움직임에 따라 새롭게 나타나는, 가려진 영역을 나타낼 수 있고, 비가시 영역은 가려진 영역에 대응하는 정보를 포함할 수 있다. 시차 생성부(160)에 의해 가려진 영역이 분리될 때 가려진 영역은 어떤 정보도 포함하고 있지 않지만, 이후 영상 생성부(140)와 영상 완성부(150)에 의해 가려진 영역에 정보가 채워질 수 있다. 이후, 시차 생성부(160)는 깊이 추정부(122)에 의해 생성된 깊이 영상의 깊이 정보를 이용하여 영상 워핑 과정을 수행할 수 있다. 시차 생성부(160)는 앞서 설명한 것과 마찬가지로, 사용자를 기준으로 가장 먼 영역에 대응하는 비가시 영역부터 사용자와 가까운 영역에 대응하는 기본 영역 순으로 영상 워핑 과정을 수행할 수 있다. 이때, 영상 워핑 과정에 의해 새로운 영역이 나타날 수 있는데, 영상 워핑에 의해 나타나는 새로운 영역은 인접한 참조시점 혹은 주변 화소를 이용하여 채워질 수 있다. 위에서 설명한 대로, 참조 시점 영상이 복수의 계층으로 분리되지 않고, 가시 영역 및 비가시영역으로만 분리되면, 줄어든 계층의 개수만큼 장면을 구성하는 정보의 양도 감소하게 되어서, 신속하고 자연스럽게 운동시차가 제공될 수 있다.
영상(870), 영상(880), 및 영상(890)은 각 참조 시점에서 분할된 관심 객체의 깊이가 제외된 영상을 나타낸다.
시차 생성부(160)는 관심 객체에 대한 깊이값을 유사(pseudo) 깊이값으로 할당하여 관심 객체의 입체감을 조절할 수 있다. 예를 들어, 시차 생성부(160)는 중앙 참조 시점에서 사용자가 객체(881)를 주시하면서 사용자의 중심축을 이동시키는 경우 객체(881)의 깊이 히스토그램에 대해 히스토그램 균일화(equalization), 히스토그램 스트레칭(stretching) 등의 깊이 조절 과정을 수행할 수 있다. 이를 통해, 객체의 워핑 양상을 다르게 주면서 관심 객체에 대한 더욱 강조된 입체감을 형성할 수 있다.
위에서는 이해를 돕기 위해, 한 실시예에 따른 가상 시점 영상 생성 장치(100)의 블록도를 나타낸 도 1을 토대로 도 3 내지 도 8에서 2차원 배열인 영상을 예시로 들어 실시예를 설명하였지만, 본 기재는 3차원 공간 상의 문제로 확장될 수 있다. 3차원 공간 상의 3D 화소는 복셀(voxel)이라고 불리운다. 본 기재에서 설명되는 배경과 객체는 3차원 공간 상에 모델링 되어, 포인트 클라우드(point cloud)나 3D 메쉬(polygonal mesh)와 같은 단위로 표현될 수 있다. 3차원 영상의 경우에도 앞서 설명한 것처럼 사용자 시점의 움직임에 따라 전경에 의해 가려진 영역이 발생한다. 이를 위해 한 실시예에 따르면, 가상 시점 영상 생성 장치(100)는 3차원 공간을 깊이에 따라 또는 시점에 따라 복수의 계층으로 나누고, 각 분할된 계층에서 나타나는 새로운 영역(즉, 새롭게 나타나서 정보가 없는 3차원 공간의 복셀)을 참조 시점 영상 및 깊이 정보에 기반하여 미리 복원하여 3차원 운동 시차를 제공할 수 있다.도 9 및 도 10은 한 실시예에 따른 가상 시점 영상 생성 방법의 흐름도이다.
도 9 및 도 10을 참조하면, 한 실시예에 따른 가상 시점 영상 생성 방법은, 사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 단계(S100), 그리고 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 단계(S200)를 포함한다.
복원하는 단계(S200) 이후, 복수의 영상을 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 제2 영상에 시차를 부여하는 단계(S300)를 더 포함할 수 있다.
제2 영상에 시차를 부여하는 단계(S300)는, 제2 영상에서 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 제3 영상을 생성하는 단계(S310), 그리고 제3 영상에 대해 영상 워핑(image warping)을 수행하는 단계(S320)를 포함할 수 있다.
영상 워핑을 수행하는 단계(S320)는, 제3 영상에서 배경 영역과 전경 영역을 분리하고, 배경 영역과 전경 영역에 대해 영상 워핑을 수행할 수 있다.
영상 워핑을 수행하는 단계(S320)는, 전경 영역 중 사용자로부터 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑을 수행할 수 있다.
복수의 영상으로 분할하는 단계(S100), 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 단계(S200), 제2 영상에 시차를 부여하는 단계(S300)는 위에서 설명한 도 1의 영상정보 생성부(120), 영상 생성부(140), 시차 생성부(160)의 동작 내용과 동일하므로, 상세한 설명은 생략한다.
도 11은 한 실시예에 따른 가상 시점 영상 생성 장치를 나타내는 블록도이다.
도 11을 참조하면, 한 실시예에 따른 가상 시점 영상 생성 장치는, 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 컴퓨터 시스템(1100)은, 버스(1120)를 통해 통신하는 프로세서(1110), 메모리(1130), 사용자 인터페이스 입력 장치(1160), 사용자 인터페이스 출력 장치(1170), 및 저장 장치(1180) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(1100)은 또한 네트워크에 결합된 네트워크 인터페이스(1190)를 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(1130) 또는 저장 장치(1180)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 저장 장치(1180)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory)(1131) 및 RAM(random access memory)(1132)를 포함할 수 있다. 본 기재의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.
한 실시예에 따른 가상 시점 영상 생성 장치는 프로세서(1110) 및 메모리(1130)를 포함하고, 프로세서(1110)는 메모리(1130)에 저장된 프로그램을 실행하여, 사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 단계, 그리고 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 단계를 수행한다.
프로세서(1110)는, 복원하는 단계 이후, 복수의 영상을 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 제2 영상에 시차를 부여하는 단계를 더 수행할 수 있다.
프로세서(1110)는, 제2 영상에 시차를 부여하는 단계에서, 제2 영상에서 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 제3 영상을 생성하는 단계, 그리고 제3 영상에 대해 영상 워핑(image warping)을 수행하는 단계를 수행할 수 있다.
프로세서(1110)는, 영상 워핑을 수행하는 단계에서, 제3 영상에서 배경 영역과 전경 영역을 분리하고, 배경 영역과 전경 영역에 대해 영상 워핑을 수행할 수 있다.
프로세서(1110)는, 영상 워핑을 수행하는 단계에서, 전경 영역 중 사용자로부터 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑을 수행할 수 있다.
프로세서(1110)의 동작 내용은 위에서 설명한 도 1의 영상정보 생성부(120), 영상 생성부(140), 시차 생성부(160)의 동작 내용과 동일하므로, 상세한 설명은 생략한다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
Claims (15)
- 3차원 가상 시점 영상을 생성하는 방법으로서,
사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 상기 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 단계, 그리고
상기 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 상기 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 단계
를 포함하는 가상 시점 영상 생성 방법. - 제1항에서,
상기 복원하는 단계 이후,
상기 복수의 영상을 상기 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 제2 영상에 시차를 부여하는 단계를 더 포함하는, 가상 시점 영상 생성 방법. - 제2항에서,
상기 제2 영상에 시차를 부여하는 단계는,
상기 제2 영상에서 상기 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 제3 영상을 생성하는 단계, 그리고
상기 제3 영상에 대해 영상 워핑(image warping)을 수행하는 단계를 포함하는, 가상 시점 영상 생성 방법. - 제3항에서,
상기 영상 워핑을 수행하는 단계는,
상기 제3 영상에서 배경 영역과 전경 영역을 분리하고, 상기 배경 영역과 전경 영역에 대해 영상 워핑을 수행하는, 가상 시점 영상 생성 방법. - 제4항에서,
상기 영상 워핑을 수행하는 단계는,
상기 전경 영역 중 상기 사용자로부터 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑을 수행하는, 가상 시점 영상 생성 방법. - 3차원 가상 시점 영상을 생성하는 장치로서,
사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 상기 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 영상 정보 생성부, 그리고
상기 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 상기 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 영상 생성부
를 포함하는 가상 시점 영상 생성 장치. - 제6항에서,
상기 복수의 영상을 상기 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 제2 영상에 시차를 부여하는 시차 생성부를 더 포함하는, 가상 시점 영상 생성 장치. - 제7항에서,
상기 시차 생성부는,
상기 제2 영상에서 상기 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 제3 영상을 생성하고, 상기 제3 영상에 대해 영상 워핑(image warping)을 수행하는, 가상 시점 영상 생성 장치. - 제8항에서,
상기 시차 생성부는,
상기 제3 영상에서 배경 영역과 전경 영역을 분리하고, 상기 배경 영역과 전경 영역에 대해 영상 워핑을 수행하는, 가상 시점 영상 생성 장치. - 제9항에서,
상기 시차 생성부는,
상기 전경 영역 중 상기 사용자로부터 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑을 수행하는, 가상 시점 영상 생성 장치. - 3차원 가상 시점 영상을 생성하는 장치로서,
프로세서 및 메모리를 포함하고,
상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여,
사용자가 주시하는 시점의 제1 영상의 깊이 정보에 기반하여 상기 제1 영상을, 서로 다른 계층을 나타내는 복수의 영상으로 분할하는 단계, 그리고
상기 복수의 영상 중 전경에 의해 가려진 영역을 갖는 영상에서, 상기 가려진 영역을 참조 시점 영상의 깊이 정보에 기반하여 복원하는 단계
를 수행하는, 가상 시점 영상 생성 장치. - 제11항에서,
상기 프로세서는,
상기 복원하는 단계 이후,
상기 복수의 영상을 상기 사용자가 주시하는 방향의 깊이를 기준으로 순차 배치한 제2 영상에 시차를 부여하는 단계를 더 수행하는, 가상 시점 영상 생성 장치. - 제12항에서,
상기 프로세서는,
상기 제2 영상에 시차를 부여하는 단계에서,
상기 제2 영상에서 상기 사용자의 중심축이 상하, 좌우, 및 전후 중 어느 하나의 방향으로 이동될 때 생성되는 제3 영상을 생성하는 단계, 그리고
상기 제3 영상에 대해 영상 워핑(image warping)을 수행하는 단계를 수행하는, 가상 시점 영상 생성 장치. - 제13항에서,
상기 프로세서는,
상기 영상 워핑을 수행하는 단계에서,
상기 제3 영상에서 배경 영역과 전경 영역을 분리하고, 상기 배경 영역과 전경 영역에 대해 영상 워핑을 수행하는, 가상 시점 영상 생성 장치. - 제14항에서,
상기 프로세서는,
상기 영상 워핑을 수행하는 단계에서,
상기 전경 영역 중 상기 사용자로부터 가장 먼 전경 영역부터 가까운 전경 영역 순으로 영상 워핑을 수행하는, 가상 시점 영상 생성 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190077089A KR102454167B1 (ko) | 2019-06-27 | 2019-06-27 | 가상 시점 영상 생성 방법 및 장치 |
US16/913,568 US11037362B2 (en) | 2019-06-27 | 2020-06-26 | Method and apparatus for generating 3D virtual viewpoint image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190077089A KR102454167B1 (ko) | 2019-06-27 | 2019-06-27 | 가상 시점 영상 생성 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210001254A true KR20210001254A (ko) | 2021-01-06 |
KR102454167B1 KR102454167B1 (ko) | 2022-10-14 |
Family
ID=74044156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190077089A KR102454167B1 (ko) | 2019-06-27 | 2019-06-27 | 가상 시점 영상 생성 방법 및 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11037362B2 (ko) |
KR (1) | KR102454167B1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020213088A1 (ja) * | 2019-04-17 | 2020-10-22 | 楽天株式会社 | 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 |
US11328182B2 (en) * | 2020-06-09 | 2022-05-10 | Microsoft Technology Licensing, Llc | Three-dimensional map inconsistency detection using neural network |
US11538140B2 (en) * | 2020-11-13 | 2022-12-27 | Adobe Inc. | Image inpainting based on multiple image transformations |
US11961184B2 (en) | 2021-09-17 | 2024-04-16 | Samsung Electronics Co., Ltd. | System and method for scene reconstruction with plane and surface reconstruction |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120026662A (ko) * | 2010-09-10 | 2012-03-20 | 삼성전자주식회사 | 폐색 영역 복원 장치 및 방법 |
KR20140021766A (ko) * | 2012-08-10 | 2014-02-20 | 광운대학교 산학협력단 | 가상시점 영상 생성을 위한 경계 잡음 제거 및 홀 채움 방법 |
US20140098100A1 (en) * | 2012-10-05 | 2014-04-10 | Qualcomm Incorporated | Multiview synthesis and processing systems and methods |
US20140333739A1 (en) * | 2011-12-02 | 2014-11-13 | Lg Electronics Inc | 3d image display device and method |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8902283B2 (en) * | 2010-10-07 | 2014-12-02 | Sony Corporation | Method and apparatus for converting a two-dimensional image into a three-dimensional stereoscopic image |
KR20130001869A (ko) * | 2011-06-28 | 2013-01-07 | 삼성전자주식회사 | 영상처리장치 및 영상처리방법 |
JP5983935B2 (ja) * | 2011-11-30 | 2016-09-06 | パナソニックIpマネジメント株式会社 | 新視点画像生成装置および新視点画像生成方法 |
KR20130070304A (ko) | 2011-12-19 | 2013-06-27 | 한국전자통신연구원 | 무안경식 입체영상 디스플레이 장치 및 그 방법 |
KR101859774B1 (ko) | 2011-12-27 | 2018-05-18 | 한국전자통신연구원 | 디지털 홀로그래픽 콘텐츠 제작 시스템 |
KR101411568B1 (ko) | 2012-08-10 | 2014-06-27 | 광운대학교 산학협력단 | 컴퓨터 홀로그램 생성을 위한 가상시점 깊이영상 합성 방법 |
US10192147B2 (en) * | 2016-08-30 | 2019-01-29 | Microsoft Technology Licensing, Llc | Foreign substance detection in a depth sensing system |
EP3340618A1 (en) * | 2016-12-22 | 2018-06-27 | Thomson Licensing | Geometric warping of a stereograph by positional constraints |
KR102013917B1 (ko) | 2017-06-28 | 2019-08-23 | (주)다이브코어 | Vr에서의 깊이 계층 이미지 표시장치 및 방법 |
WO2020250175A1 (en) * | 2019-06-11 | 2020-12-17 | Immervision Inc. | Method for optimal body or face protection with adaptive dewarping based on context segmentation layers |
-
2019
- 2019-06-27 KR KR1020190077089A patent/KR102454167B1/ko active IP Right Grant
-
2020
- 2020-06-26 US US16/913,568 patent/US11037362B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120026662A (ko) * | 2010-09-10 | 2012-03-20 | 삼성전자주식회사 | 폐색 영역 복원 장치 및 방법 |
US20140333739A1 (en) * | 2011-12-02 | 2014-11-13 | Lg Electronics Inc | 3d image display device and method |
KR20140021766A (ko) * | 2012-08-10 | 2014-02-20 | 광운대학교 산학협력단 | 가상시점 영상 생성을 위한 경계 잡음 제거 및 홀 채움 방법 |
US20140098100A1 (en) * | 2012-10-05 | 2014-04-10 | Qualcomm Incorporated | Multiview synthesis and processing systems and methods |
Also Published As
Publication number | Publication date |
---|---|
US11037362B2 (en) | 2021-06-15 |
US20200410746A1 (en) | 2020-12-31 |
KR102454167B1 (ko) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102454167B1 (ko) | 가상 시점 영상 생성 방법 및 장치 | |
JP7403528B2 (ja) | シーンの色及び深度の情報を再構成するための方法及びシステム | |
US8471898B2 (en) | Medial axis decomposition of 2D objects to synthesize binocular depth | |
US9013482B2 (en) | Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium | |
EP2340534B1 (en) | Optimal depth mapping | |
US7983477B2 (en) | Method and apparatus for generating a stereoscopic image | |
US8878835B2 (en) | System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images | |
US20110205226A1 (en) | Generation of occlusion data for image properties | |
US20180192033A1 (en) | Multi-view scene flow stitching | |
KR100517517B1 (ko) | 중간 시점 영상 합성 방법 및 그를 적용한 3d 디스플레이장치 | |
Cheng et al. | Spatio-temporally consistent novel view synthesis algorithm from video-plus-depth sequences for autostereoscopic displays | |
Ceulemans et al. | Robust multiview synthesis for wide-baseline camera arrays | |
US9196080B2 (en) | Medial axis decomposition of 2D objects to synthesize binocular depth | |
JP7480163B2 (ja) | 画像の奥行きマップの処理 | |
KR20170046434A (ko) | 영상 처리 방법 및 영상 처리 장치 | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
KR101920113B1 (ko) | 임의시점 영상생성 방법 및 시스템 | |
US20130229408A1 (en) | Apparatus and method for efficient viewer-centric depth adjustment based on virtual fronto-parallel planar projection in stereoscopic images | |
De Sorbier et al. | Augmented reality for 3D TV using depth camera input | |
dos Anjos et al. | A navigation paradigm driven classification for video-based rendering techniques | |
Tran et al. | On consistent inter-view synthesis for autostereoscopic displays | |
JP2020035218A (ja) | 画像処理装置、方法及びプログラム | |
Tran et al. | View synthesis with depth information based on graph cuts for FTV | |
KR20190072742A (ko) | 캘리브레이션된 멀티 카메라 입력 기반 실시간 초다시점 중간시점 영상 합성 방법 및 시스템 | |
Bokov et al. | Multilayer RGBD-Video Completion for Hole Filling in 3D-View Synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |