KR20210112263A - 가상시점 영상 구성 방법 및 장치 - Google Patents

가상시점 영상 구성 방법 및 장치 Download PDF

Info

Publication number
KR20210112263A
KR20210112263A KR1020210028907A KR20210028907A KR20210112263A KR 20210112263 A KR20210112263 A KR 20210112263A KR 1020210028907 A KR1020210028907 A KR 1020210028907A KR 20210028907 A KR20210028907 A KR 20210028907A KR 20210112263 A KR20210112263 A KR 20210112263A
Authority
KR
South Korea
Prior art keywords
viewpoint image
ray
input
virtual
virtual viewpoint
Prior art date
Application number
KR1020210028907A
Other languages
English (en)
Inventor
곽상운
윤정일
엄기문
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20210112263A publication Critical patent/KR20210112263A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T3/0093
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 개시는 가상시점 영상 구성 방법에 대한 것이다. 본 개시에 의하면 서로 다른 위치에서 촬영된 적어도 하나의 입력시점 영상(input-viewpoint image)을 확인하는 과정과, 상기 적어도 하나의 입력시점 영상의 장면에 대응되는 적어도 하나의 객체점과, 상기 적어도 하나의 입력시점 영상의 촬영위치 사이의 관계를 확인하는 과정과, 상기 적어도 하나의 객체점과, 상기 촬영위치 사이의 관계를 기반으로, 광레이(Ray)의 방향성을 고려하여 상기 적어도 하나의 입력시점 영상에 대한 가중치를 결정하는 과정과, DIBR(Depth Image Based Rendering) 방식에 기초하되, 결정된 상기 가중치를 상기 적어도 하나의 입력시점 영상에 반영하고, 상기 적어도 하나의 입력시점 영상을 워핑하여 적어도 하나의 가상시점 영상을 구성하는 과정을 포함하는 가상시점 영상 구성 방법을 제공한다.

Description

가상시점 영상 구성 방법 및 장치{METHOD FOR GENERATING VIRTUAL VIEWPOINT IMAGE NAD APPARATUS FOR THE SAME}
본 개시는 가상시점 영상 구성 방법에 관한 것이며, 구체적으로 DIBR 방식에 의해 가상시점의 영상을 합성하는 방법 및 장치에 관한 것이다.
가상시점(virtual-viewpoint) 영상의 생성 기술은 서로 다른 위치에서 촬영된 적어도 하나의 입력시점 영상(input-viewpoint image)으로부터 가상의 위치에서의 시점 영상을 생성하는 기술이다. 도 1을 참조하면, 시점 1 및 시점 2에서 획득된 영상(즉, 입력시점 영상)을 사용하여 시점 1 및 시점 2의 중간에 위치한 가상의 시점이 생성될 수 있다. 그리고 더 많은 시점에서 획득되는 영상을 사용하면 임의의 위치의 가상시점에 대한 영상이 생성될 수 있다.
가상시점 영상을 구성하는 방법으로서, 3차원 워핑(warping)을 이용하여, 입력시점 영상으로부터 가상시점 영상을 직접 합성하는 방법(DIBR; Depth Image Based Rendering)이 사용되고 있다. 도 2를 참조하면 3차원 워핑을 이용하는 DIBR방법은, 입력시점 영상 내의 각 점들의 3차원 세계 좌표가 입력시점 영상의 깊이 정보로부터 계산되고, 계산된 3차원 세계 좌표는 가상시점 위치 상의 영상 좌표로 변환하여 구성한다.
최근, 가상시점 영상을 구성하는 방법으로서, 빛(또는 레이(ray))의 샘플링(Sampling) 및 보간(Interpolation)을 이용하는 LFR(Light Field Rendering) 방식이 시도되고 있다. 도 3을 참조하면, LFR 방식은, 공간 상의 빛들을 방향성을 가지는 레이(Ray) 벡터 형태로 레이 데이터베이스(Ray Database)에 저장하고, 가상시점 위치에 따라 필요한 Ray들을 샘플링 및 보간하여 재구성함으로써, 가상시점 영상을 합성한다.
이러한, LFR 방식은 가상시점의 위치에 따른 레이(Ray)의 방향성을 정확히 표현할 수 있으므로, 현실감 높은(Photo-Realistic) 영상을 구현할 수 있다. 하지만, 가상시점을 제공할 수 있는 범위가 상대적으로 좁고, 장면에서 표현하는 공간 상의 모든 레이(Ray)들에 대한 매개 변수화(Parameterization)를 수행한 후, 레이 데이터베이스(Ray Database)에 저장해야 하므로 복잡도가 높은 문제가 있다.
본 개시의 목적은, 전술한 종래 기술의 문제점을 해결하기 위한 것으로써, DIBR 방식에 의해 가상시점의 영상을 구성하는 방법 및 장치를 제공하는 데 있다.
또한, 본 개시는 서로 다른 위치에서 촬영된 적어도 하나의 입력시점 영상에 광레이(Ray)의 방향성을 고려한 가중치를 반영하여 보다 정확한 가상시점의 영상을 구성하는 방법 및 장치를 제공한다.
본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 개시의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 개시의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 개시의 일 양상에 따르면 가상시점 영상 구성 방법이 제공될 수 있다. 상기 방법은, 가상시점 영상을 구성하는 방법에 있어서, 서로 다른 위치에서 촬영된 적어도 하나의 입력시점 영상(input-viewpoint image)을 확인하는 과정과, 상기 적어도 하나의 입력시점 영상의 장면에 대응되는 적어도 하나의 객체점과, 상기 적어도 하나의 입력시점 영상의 촬영위치 사이의 관계를 확인하는 과정과, 상기 적어도 하나의 객체점과, 상기 촬영위치 사이의 관계를 기반으로, 광레이(Ray)의 방향성을 고려하여 상기 적어도 하나의 입력시점 영상에 대한 가중치를 결정하는 과정과, 결정된 상기 가중치를 상기 적어도 하나의 입력시점 영상에 반영하고, 상기 적어도 하나의 입력시점 영상을 워핑하여 적어도 하나의 가상시점 영상을 구성하는 과정을 포함할 수 있다.
상기 적어도 하나의 객체점과, 상기 촬영위치 사이의 관계를 확인하는 과정은, 상기 가상시점으로부터 상기 적어도 하나의 입력시점 영상의 촬영위치까지의 제1광레이(Ray)와 상기 가상시점으로부터 상기 적어도 하나의 객체점까지의 제2광레이(Ray) 사이의 각 크기를 확인하는 과정을 포함할 수 있다.
상기 가중치를 결정하는 과정은, 상기 제1광레이(Ray)와 상기 제2광레이(Ray) 사이의 각 크기를 고려하여, 상기 적어도 하나의 입력시점 영상의 상기 가중치를 결정하는 과정을 포함할 수 있다.
상기 제1광레이(Ray)와 상기 제2광레이(Ray) 사이의 각 크기가 작을수록, 상기 적어도 하나의 입력시점 영상의 상기 가중치를 상대적으로 크게 설정하는 것이 바람직하다.
상기 적어도 하나의 객체점과, 상기 촬영위치 사이의 관계를 확인하는 과정은, 상기 가상시점으로부터 상기 적어도 하나의 객체점까지의 제1벡터를 확인하는 과정과, 상기 가상시점의 중심으로부터 상기 촬영위치의 중심점까지의 제2벡터를 확인하는 과정과, 상기 제1벡터와 상기 제2벡터 사이의 내적을 확인하는 과정을 포함할 수 있다.
상기 가중치를 결정하는 과정은, 상기 제1벡터와 상기 제2벡터 사이의 내적이 0 및 π에서의 가중치를 π/2에서의 가중치보다 상대적으로 높게 설정하는 것이 바람직하다.
상기 가중치를 결정하는 과정은, 하기의 수학식 1의 연산에 의해 상기 가중치를 산출하는 과정을 포함하되, [수학식 1]은 wi=cos(θn)+offset일 수 있다. 여기서, wi는 i위치의 가상시점에서의 가중치를 나타내고, θn는 n번째 상기 촬영위치와 i위치의 가상시점 사이의 각 크기를 나타낸다.
상기 가중치를 결정하는 과정은, 하기의 수학식 2의 연산에 의해 상기 가중치를 산출하는 과정을 포함하는 할 수 있으며, [수학식 2]는 wi=max(cos(θn), t)일 수 있다. 여기서, wi는 i위치의 가상시점에서의 가중치를 나타내고, θn는 n번째 상기 촬영위치와 i위치의 가상시점 사이의 각 크기를 나타낸다.
본 개시의 일 양상에 따르면 가상시점 영상 구성 장치가 제공될 수 있다. 상기 장치는 가상시점 영상을 구성하는 장치에 있어서, 적어도 하나의 프로세서, 및 적어도 하나의 저장매체를 포함하되, 상기 적어도 하나의 프로세서는, 서로 다른 위치에서 촬영된 적어도 하나의 입력시점 영상(input-viewpoint image)을 확인하고, 상기 적어도 하나의 입력시점 영상의 장면에 대응되는 적어도 하나의 객체점과, 상기 적어도 하나의 입력시점 영상의 촬영위치 사이의 관계를 확인하고, 상기 적어도 하나의 객체점과, 상기 촬영위치 사이의 관계를 기반으로, 광레이(Ray)의 방향성을 고려하여 상기 적어도 하나의 입력시점 영상에 대한 가중치를 결정하고, , 결정된 상기 가중치를 상기 적어도 하나의 입력시점 영상에 반영하고, 상기 적어도 하나의 입력시점 영상을 워핑하여 적어도 하나의 가상시점 영상을 구성하는 동작을 포함하여 수행할 수 있다.
상기 프로세서는, 상기 적어도 하나의 객체점과, 상기 촬영위치 사이의 관계를 확인하고, 상기 촬영위치로부터 상기 적어도 하나의 객체점까지의 제1광레이(Ray)와 상기 가상시점으로부터 상기 적어도 하나의 객체점까지의 제2광레이(Ray) 사이의 각 크기를 확인하고, 상기 제1광레이(Ray)와 상기 제2광레이(Ray) 사이의 각 크기를 고려하여 상기 가중치를 결정하는 동작을 수행할 수 있다.
본 개시의 일 실시예에 따르면 라이트 필드 영상의 가상시점 합성에서의 레이 방향성을 고려하여 워핑 영상을 혼합함으로써 가상시점 영상 품질을 향상시킬 수 있다.
또한, 가상시점 중심으로부터 각 입력 카메라들의 중심까지의 벡터 및 공간상의 점 P까지의 벡터가 이루는 각을 도출하여, 가상시점 영상의 각 픽셀에 대해 바라보는 방향이 유사한 입력 영상의 광레이에 해당하는 픽셀을 찾을 수 있고, 이에 높은 혼합 가중치를 부여하여 보다 실제에 가까운 가상시점 영상을 합성할 수 있다.
도 1은 일반적인 가상시점 영상을 구성하는 방식을 예시하는 도면이다.
도 2는 종래의 DIBR(Depth Image Based Rendering) 방식에 의해 가상시점 영상을 구성하는 방식을 예시하는 도면이다.
도 3은 종래의 LFR(Light Field Rendering) 방식에 의해 가상시점 영상을 구성하는 방식을 예시하는 도면이다.
도 4는 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법에서 사용되는 광레이, 입력시점 영상, 및 가상시점 영상의 관계를 설명하는 도면이다.
도 5는 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법의 순서를 도시하는 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법에서 사용되는 광레이의 관계를 예시하는 도면이다.
도 7은 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법에서 가상시점 영상에 적용되는 가중치를 예시하는 도면이다.
도 8은 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법에서 사용되는 가상시점 영상의 광레이와, 입력시점 영상의 광레이 사이의 각도 관계를 예시하는 도면이다.
도 9a 및 도 9b는 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법에 의해 설정되는 가중치를 예시하는 도면이다.
도 10은 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법을 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다.
본 개시의 어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 “직접 연결되어” 있다거나, “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.
도 4는 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법에서 사용되는 광레이, 입력시점 영상, 및 가상시점 영상의 관계를 설명하는 도면이다.
도 4를 참조하면, 서로 다른 촬영위치에서 복수의 카메라 장치가 마련될 수 있으며, 복수의 카메라 장치(C1, C2, C3, C4, C5, …)를 통해 입력시점 영상(input-viewpoint image)을 촬영할 수 있다. 가상시점 영상 구성 장치는, 이렇게 촬영된 복수의 입력시점 영상(input-viewpoint image)의 조합으로 다시점 영상을 구성할 수 있다.
여기서, 카메라 장치(C1, C2, C3, C4, C5, …)는 피사체(400)가 존재하는 영역을 향하도록 배열되는데, 이때, 피사체는 소정의 점들의 조합으로 구성될 수 있다. 카메라 장치로부터 피사체의 특정한 점(P, 401)까지 광레이(ray)가 형성될 수 있다.
가상시점 영상 구성 장치는, DIBR(Depth Image Based Rendering) 방식에 따라, 입력시점 영상을 구성할 수 있으며, 입력시점 영상의 촬영위치와 가상 시점의 위치 관계를 바탕으로 가상시점 영상을 구성할 수 있다. 특히, 가상시점 영상 구성 장치는, 입력시점 영상의 촬영위치에서 특정한 점까지의 입력시점 영상 광레이(ray)와 가상 시점에서 특정한 점까지의 가상시점 영상 광레이(ray) 사이의 관계를 기반으로 가상시점 영상을 구성할 수 있다.
본 개시의 일 실시예에 따른 가상시점 영상 구성 방법에 의해 가상시점 영상을 구성하는 동작에 대해 설명한다.
가상시점 영상 구성 방법은 가상시점 영상 구성 장치에 의해 구성될 수 있는데, 가상시점 영상 구성 장치는 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법의 동작을 처리하도록 구성된 전자장치 또는 컴퓨팅 장치를 포함할 수 있다. 가상시점 영상 구성 방법의 동작을 처리하도록 구성된 전자장치 또는 컴퓨팅 장치의 구성에 대해서는 하기의 도 9에 개시된 구성을 참조한다.
도 5는 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법의 순서를 도시하는 흐름도이다.
도 5를 참조하면, 가상시점 영상 구성 방법은 적어도 하나의 입력시점 영상을 조합하여 적어도 하나의 가상시점 영상을 구성하도록 구성된다. 이를 고려하여, 가상시점 영상 구성 방법은 우선적으로 적어도 하나의 가상시점 영상에 기초가 되는 적어도 하나의 입력시점 영상을 준비하는 동작을 포함할 수 있다(S501).
나아가, 가상시점 영상의 구성시, 적어도 하나의 입력시점 영상과 가상시점 영상의 위치 관계가 고려되므로, S501 단계에서, 적어도 하나의 입력시점 영상을 촬영한 카메라의 정보(이하, '카메라 정보'라 함)가 더 확인될 수 있다. 여기서, 카메라 정보는 DIBR(Depth Image Based Rendering) 방식에 의해 가상시점 영상을 구성하는데 사용되는 카메라와 관련되는 정보로서, 카메라 내부 파라미터 및 외부 파라미터를 포함할 수 있다. 예컨대, 카메라 내부 파라미터는 초점 거리, 촬영 방향, 촬영 각도 등을 포함할 수 있고, 외부 파라미터는 다시점 카메라 장치에 구비되는 적어도 하나의 카메라 장치 배열을 나타내는 좌표 정보 등을 포함할 수 있다.
S502 단계에서, 가상시점 영상 구성 장치는 적어도 하나의 입력시점 영상을 구성하는데 기초가되는 광레이(ray) 정보(이하, 입력 광레이 정보)를 확인할 수 있다. 또한, S502 단계에서, 가상시점 영상 구성 장치는 가상시점 영상을 구성하는데 요구되는 광레이 정보(이하, 가상 광레이 정보)를 확인할 수 있다.
S503 단계에서, 가상시점 영상 구성 장치는 적어도 하나의 입력시점 영상에 각각 대응되는 입력 광레이 정보와, 가상 광레이 정보 사이의 관계를 확인할 수 있다. 그리고, S504 단계에서, 가상시점 영상 구성 장치는 S503을 통해 확인한 정보를 바탕으로, 입력시점 영상에 적용할 가중치를 산출할 수 있다.
나아가, 가중치 산출 동작은 하기의 도 6, 도 7a, 및 도 7b를 통해 상세히 설명한다.
한편, S505 단계에서, 가상시점 영상 구성 장치는 입력시점 영상을 가상 시점의 위치에 워핑하여 가상시점 영상을 구성할 수 있다. 이때, 가상시점 영상 구성 장치는 전술한 S504를 통해 확인된 가중치를 입력시점 영상에 반영하여 가상시점 영상을 구성할 수 있다.
나아가, 가상시점 영상을 구성하는 동작에 대해서는 하기의 도 8을 통해 상세히 설명한다.
도 6a 내지 도 6c는 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법에서 사용되는 광레이의 관계를 예시하는 도면이다.
도 6a를 참조하면, 피사체가 존재하는 공간 상의 임의의 점(P, Q, R)에 대해 합성해야 할 가상시점 영상의 광레이를 Rayv, 입력시점 영상의 광레이를 Rayc, 입력시점 영상에 대응되는 카메라의 방향과 일치하는 가상시점 영상의 광레이를 Raytrue로 지시한다.
좀 더 구체적으로, 가상시점 영상에서 P점을 향하는 광레이를 Rayv_P, 가상시점 영상에서 Q점을 향하는 광레이를 Rayv_Q, 가상시점 영상에서 R점을 향하는 광레이를 Rayv_R로 지시한다. 입력시점 영상의에서, 제1카메라 장차(C1)으로부터 P점, Q점, R점을 향하는 광레이를 각각 RayC1_P, RayC1_Q, RayC1_R로 지시하고, 이와 같은 방식으로, 제2, 제3, 제4, 제5카메라 장치(C2, C3, C4, C5)으로부터 P점, Q점, R점을 향하는 광레이를 예시할 수 있다.
이에 기초하여, 가상시점 영상 구성 장치는 제1카메라(C1)의 중심을 지나는 Raytrue_1와 Rayv_P이 이루는 제1각(θP_C1), 제2카메라(C2)의 중심을 지나는 Raytrue_2와 Rayv_P이 이루는 제2각(θP_C2), 제3카메라(C3)의 중심을 지나는 Raytrue_3와 Rayv_P이 이루는 제2각(θP_C3), 제4카메라(C4)의 중심을 지나는 Raytrue_4와 Rayv_P이 이루는 제4각(θP_C4), 제5카메라(C5)의 중심을 지나는 Raytrue_5와 Rayv_P이 이루는 제5각(θP_C5) 등을 확인할 수 있다.
이에 기초하여, 가상시점 영상 구성 장치는 입력시점 영상의 광레이(Ray_c1, Ray_c2, ...Ray_ci)와 가상시점 광레이 사이의 관계를 확인할 수 있다.
나아가, 가상시점 영상 구성 장치는 전술한 도 6a의 방식과 마찬가지로, 도 6b 및 도 6c에 예시되는 Q점, R점에 대해서도, 카메라의 중심을 지나는 Raytrue와, 광레이 Rayv_Q, 광레이 Rayv_R 사이의 관계를 확인할 수 있다.
또한, 가상시점 영상 구성 장치는 확인된 각도 정보를 반영하여, 입력시점 영상에 대한 가중치를 결정할 수 있다.
예를 들어, 피사체들이 존재하는 영역을 촬영하는 카메라 장치(C1, C2, C3, C4, C5, … Ci)가 도 6a 내지 도 6c와 같이 마련되는 경우, 카메라 장치(C1, C2, C3, C4, C5, … Ci)를 통해 획득되는 복수의 입력시점 영상을 조합하여 가상시점(V)을 기준으로 하는 가상시점 영상을 구성함을 예시한다. 피사체를 이루는 특정점들(P, Q, R)에 대해서 각 카메라 장치(C1, C2, C3, C4, C5, … Ci)의 위치에서의 광레이(RayC1_P, RayC1_Q, RayC1_R, RayC2_P, RayC2_Q, RayC2_R, RayC3_P, RayC3_Q, RayC3_R, ..., RayCi_P, RayCi_Q, RayCi_R)가 형성될 수 있다. 가상시점 영상 구성 장치는 가상시점(V)을 기준으로 피사체를 이루는 특정점들(P, Q, R)까지의 가상 광레이(RayV_P, RayV_Q, RayV_R)를 고려하여 가상시점 영상을 구성하여야 하는데, 해당 광레이 RayV_P, RayV_Q, RayV_R)는 실제 존재하는 광레이가 아니므로, 카메라 장치(C1, C2, C3, C4, C5, … Ci)의 위치에서의 광레이(RayC1_P, RayC1_Q, RayC1_R, RayC2_P, RayC2_Q, RayC2_R, RayC3_P, RayC3_Q, RayC3_R, ..., RayCi_P, RayCi_Q, RayCi_R)와, 실제 광레이(Raytrue_1, Raytrue_2, ..., Raytrue_i)를 사용하여 가상시점 영상을 구성할 수 있다. 이때, 가상시점 영상 구성 장치는 가상 광레이(RayV_P, RayV_Q, RayV_R)와 실제 광레이(Raytrue_1, Raytrue_2, ..., Raytrue_i)가 이루는 각도 정보를 기반으로, 입력시점 광레이(RayC1_P, RayC1_Q, RayC1_R, RayC2_P, RayC2_Q, RayC2_R, RayC3_P, RayC3_Q, RayC3_R, ..., RayCi_P, RayCi_Q, RayCi_R)에 적용할 가중치를 설정할 수 있다.,
예컨대, 특정점 P점에 대해서는 제2카메라(C2), 특정점 Q점에 대해서는 제3카메라(C3)가, 특정점 R점에 대해서는 제4카메라(C4)가 상대적으로 가장 작은 각도를 가지며, 가상시점에서의 광레이와, 촬영시점의 광레이가 상대적으로 가장 유사하게 나타난다. 따라서, 특정점 P, Q, R점에 대한 가상시점 영상의 구성시, 가상시점 영상 구성 장치는 각각 제2, 제3, 및 제4입력시점 영상의 특정점 P, Q, R점의 값에 상대적으로 가장 높은 가중치를 적용할 수 있도록, 가중치를 설정할 수 있다(도 7 참조)
가상시점 영상 구성 장치는 가상시점 중심으로부터 제2카메라 장치 중심까지의 벡터(VC_2)와 가상시점에서 특정점(P)까지의 벡터(VP)를 이용하여 각도 정보를 산출할 수 있으며, 이렇게 산출된 각도(θ) 정보를 기반으로 가중치를 설정할 수 있다. 각도(θ) 정보는 [0 π]의 범위를 가지며 0에 가까울 수록 또는 π에 가까울수록 가상 광레이의 방향이 실제 카메라 장치의 방향과 유사하게 나타날 수 있다.
이에 기초하여, 가상시점 영상 구성 장치는 0과 π에서 상대적으로 가장 높은 가중치를 갖도록 설정하고, π/2에서 상대적으로 가장 낮은 가중치를 갖도록 설정하는 것이 바람직하다.
일 예로, 가상시점 영상 구성 장치는 벡터(VC_i)와 벡터(VP) 사이의 내적을 2-norm으로 나누어 각도(θ)에 대한 코사인(cosine) 함수를 적용하여 가중치를 설정할 수 있다. 나아가, 가상시점 영상 구성 장치는 전술한 코사인(cosine) 함수에 소정의 오프셋(off-set)을 가산하여 가중치를 설정할 수도 있다. 구체적으로, 가상시점 영상 구성 장치는 하기의 수학식 1의 연산을 통해 가중치를 설정할 수도 있다.
[수학식 1]
wi=cos(θn)+offset
여기서, wi는 i위치의 가상시점에서의 가중치를 나타내고, θn는 n번째 상기 촬영위치와 i위치의 가상시점 사이의 각 크기를 나타낸다.
전술한 바와 같이, 코사인(cosine) 함수에 소정의 오프셋(off-set)을 가산하여 가중치를 설정할 경우, 모든 각도(θ) 영역에서 가중치를 양수로 설정할 수 있다. 또한, 광레이의 방향성에 따른 특성을 반영하는 혼합 가중치를 설정할 수 있다(도 9a 참조).
다른 예로서, 가상시점 영상 구성 장치는 하기의 수학식 2의 연산을 통해 가중치를 설정할 수도 있다.
[수학식 2]
wi=max(cos(θn), t)
여기서, wi는 i위치의 가상시점에서의 가중치를 나타내고, θn는 n번째 상기 촬영위치와 i위치의 가상시점 사이의 각 크기를 나타낸다. 그리고, t를 기준으로 Truncation할 경우, 모든 각도(θ) 영역에서 가중치를 양수이면서 방향성의 특성을 반영할 수 있다(도 9b 참조).
도 10은 본 개시의 일 실시예에 따른 가상시점 영상 구성 방법을 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
도 10을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (1)

  1. 가상시점 영상을 구성하는 방법에 있어서,
    서로 다른 위치에서 촬영된 적어도 하나의 입력시점 영상(input-viewpoint image)을 확인하는 과정과,
    상기 적어도 하나의 입력시점 영상의 장면에 대응되는 적어도 하나의 객체점과, 상기 적어도 하나의 입력시점 영상의 촬영위치 사이의 관계를 확인하는 과정과,
    상기 적어도 하나의 객체점과, 상기 촬영위치 사이의 관계를 기반으로, 광레이(Ray)의 방향성을 고려하여 상기 적어도 하나의 입력시점 영상에 대한 가중치를 결정하는 과정과,
    DIBR(Depth Image Based Rendering) 방식에 기초하되, 결정된 상기 가중치를 상기 적어도 하나의 입력시점 영상에 반영하고, 상기 적어도 하나의 입력시점 영상을 워핑하여 적어도 하나의 가상시점 영상을 구성하는 과정을 포함하는 가상시점 영상 구성 방법.
KR1020210028907A 2020-03-04 2021-03-04 가상시점 영상 구성 방법 및 장치 KR20210112263A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200027392 2020-03-04
KR1020200027392 2020-03-04

Publications (1)

Publication Number Publication Date
KR20210112263A true KR20210112263A (ko) 2021-09-14

Family

ID=77774605

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210028907A KR20210112263A (ko) 2020-03-04 2021-03-04 가상시점 영상 구성 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20210112263A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023027520A1 (ko) 2021-08-25 2023-03-02 주식회사 엘지에너지솔루션 결합부의 위치 조절이 가능한 전지모듈 검사장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023027520A1 (ko) 2021-08-25 2023-03-02 주식회사 엘지에너지솔루션 결합부의 위치 조절이 가능한 전지모듈 검사장치

Similar Documents

Publication Publication Date Title
US11189043B2 (en) Image reconstruction for virtual 3D
US10559095B2 (en) Image processing apparatus, image processing method, and medium
JP7123736B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2019061558A (ja) 画像処理装置、画像処理方法およびプログラム
US10692262B2 (en) Apparatus and method for processing information of multiple cameras
JP2009211335A (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20150177062A1 (en) Information processing apparatus, information processing method, and storage medium
US11276142B2 (en) Apparatus and method for synthesizing virtual viewpoint images
CN109495733B (zh) 三维影像重建方法、装置及其非暂态电脑可读取储存媒体
US20200286205A1 (en) Precise 360-degree image producing method and apparatus using actual depth information
JP7326442B2 (ja) 広角画像からの視差推定
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
US20200202495A1 (en) Apparatus and method for dynamically adjusting depth resolution
KR20210112263A (ko) 가상시점 영상 구성 방법 및 장치
JP2001016621A (ja) 多眼式データ入力装置
US11143499B2 (en) Three-dimensional information generating device and method capable of self-calibration
JP6674644B2 (ja) 画像処理装置及び画像処理方法
JP2016114445A (ja) 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置
CN110691228A (zh) 基于三维变换的深度图像噪声标记方法、装置和存储介质
JP6684454B2 (ja) 画像処理装置及び画像処理方法
KR20200003597A (ko) 증강현실 영상 보정 장치 및 방법
KR102430726B1 (ko) 멀티 카메라의 정보 처리 장치 및 방법
KR20210051403A (ko) 다시점 촬영 가이딩 장치 및 방법
KR101632069B1 (ko) 양안 기반에서 굴절 매질을 이용한 깊이 지도 생성 방법 및 장치
JP2006078291A (ja) 全方位三次元計測装置