KR102547717B1 - 3d 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법 - Google Patents

3d 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법 Download PDF

Info

Publication number
KR102547717B1
KR102547717B1 KR1020160121620A KR20160121620A KR102547717B1 KR 102547717 B1 KR102547717 B1 KR 102547717B1 KR 1020160121620 A KR1020160121620 A KR 1020160121620A KR 20160121620 A KR20160121620 A KR 20160121620A KR 102547717 B1 KR102547717 B1 KR 102547717B1
Authority
KR
South Korea
Prior art keywords
simulation
view
cameras
area
convergence point
Prior art date
Application number
KR1020160121620A
Other languages
English (en)
Other versions
KR20170074164A (ko
Inventor
박정철
이범렬
정일권
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20170074164A publication Critical patent/KR20170074164A/ko
Application granted granted Critical
Publication of KR102547717B1 publication Critical patent/KR102547717B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 다시점 콘텐츠의 생성을 위한 시뮬레이션에 대한 것으로, 더 자세하게는 효율적인 실사 기반 다시점 콘텐츠 생성을 위하여 3D 개발엔진을 이용한 시뮬레이션 장치 및 그 방법에 대한 것으로써 복수의 다시점 카메라, 카메라 원형 정렬부, 가상 영역 정보 수신부, 시뮬레이션 환경 구현부를 포함하고, 실제의 카메라를 이용한 다시점 콘텐츠를 제작함에 있어 실제 카메라를 세팅하기 전에 가상 시뮬레이션을 수행함으로써 선명도 영역과 다시점 영역을 각 파라미터 별로 측정할 때 많은 시간이 소요가 되는 것을 방지하는 효과를 제공하는 데 그 목적이 있다.

Description

3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법{multi-focus contents generation simulation apparatus using 3D engine development and method therefor}
본 발명은 다시점 콘텐츠의 생성을 위한 시뮬레이션에 대한 것으로, 더 자세하게는 효율적인 실사 기반 다시점 콘텐츠 생성을 위하여 3D 개발엔진을 이용한 시뮬레이션 장치 및 그 방법에 대한 것이다.
입체 3D 콘텐츠를 이용하는 방식으로는 양안 기반 안경식 입체 3D 콘텐츠가 영화를 제작하는 데 있어 일반적으로 상용화 되어 있다.
그러나 이러한 입체 3D 콘텐츠를 통한 3D 입체 영상은 스크린과 시청자 사이에 물체가 떠 보이는 깊이감을 통해서 시청자로 하여금 3차원 효과를 느끼게 하기 위해서는 안경이라는 장치를 사용해야 하는 불편함이 있다.
이러한 불편함을 해결하기 위하여 스크린과 같은 매질이 없는 빈 공간에 입체 영상이 생성하는 홀로그램으로 구현된 3차원 입체 영상이 존재한다.
이러한 홀로그램 영상은 다양한 위치에서 볼 수 있는 자유 시점(Free viewpoint)과 물체의 볼륨을 느낄 수 있는 볼륨감을 장점으로 하지만 현재의 기술로는 사람 크기만한 홀로그램 영상을 생성하기에는 기술적인 어려움과 많은 비용이 들기 때문에 구현하기 어렵다는 단점이 존재한다.
그러나 이러한 단점을 극복하기 위해 특정한 방향에서 보는 다시점 영상을 2차원 디스플레이로 재생시켜 깊이감을 통해서 홀로그램과 같은 유사 홀로그램을 느낄 수 있는 다시점 콘텐츠에 대한 많은 연구가 수행 중이다.
다시점 콘텐츠 생성 방법으로 가장 많이 사용되는 것은 양안 카메라에서 획득된 영상으로부터 disparity 혹은 depth map을 계산 후 이를 이용하여 중간 시점을 생성하여 다시점 영상으로 만드는 방법이다.
하지만, 다양한 형태의 다시점 영상을 제작하기 위해서는 기존의 연구방법에 의해서 제시된 disparity 혹은 depth map을 이용한 중간 시점 보간 방법에 의한 다시점 영상의 품질이 높지 못하기 때문에 다시점 콘텐츠 제작 방법은 디자이너의 감에 의해서 결정이 되는 것이 일반적이다.
그리하여 실사 영상을 이용하여 다시점 콘텐츠를 생성하는 것 보다는 상용화 툴을 이용하여 다시점 콘텐츠 제작 방법이 더 많이 사용되고 있다.
본 발명은 효율적인 실사 기반 다시점 콘텐츠 생성을 위하여 3D 엔진을 이용한 가상의 시스템을 통하여 다수의 카메라의 중심인 수렴점(CP)과 카메라의 거리인 수렴 점 거리(DistCP), FOV(Field Of View), 카메라 각도(Camera Angle)의 값에 따라서 측정된 선명도 영역(Clearness Field, CnF)와 다시점 영역(Multi-View Field, MVF)에 따라 실제 카메라를 세팅하기 전에 가상 공간에서의 시뮬레이션을 할 수 있는 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법을 제공하는 데 그 목적이 있다.
본 발명의 실시 예에 따르면 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 피사체에 대하여 다시점 실사 영상을 획득하는 복수의 다시점 카메라; 상기 복수의 다시점 카메라를 상호 등간격으로 일정한 카메라 각도와 수렴점 거리를 가지도록 정렬하는 카메라 원형 정렬부; 3D 개발엔진로부터 상기 피사체에 대한 카메라 각도와 수렴점 거리에 따른 선명도 영역 및 다시점 영역에 대한 정보를 수신하는 가상 영역 정보 수신부; 및 상기 수신한 다시점 실사 영상을 상기 수신한 선명도 영역 및 다시점 영역에 대한 정보에 따라 일정한 선명도 이상의 다시점 콘텐츠로 생성 가능하도록 상기 복수의 다시점 카메라의 정렬을 제어하는 시뮬레이션 환경을 구현하는 시뮬레이션 환경 구현부를 포함할 수 있다.
본 발명의 일 실시 예에 따르면 상기 3D 개발 엔진으로 unity3D 기반 가상 시스템이 사용될 수 있다.
본 발명의 일 실시 예에 따르면 상기 선명도 영역은 카메라 각도와 수렴점 거리에 따라 변경되며, 상기 선명도 영역에 따라 깊이 영역을 산출할 수 있다.
본 발명의 일 실시 예에 따르면 상기 다시점 영역은 카메라 각도와 수렴점 거리에 따라 변경되며, 상기 다시점 영역에 따라 회전 영역을 산출할 수 있다.
본 발명의 일 실시 예에 따르면 상기 수렴점 거리가 커질수록 선명도 영역의 값은 증가하고 깊이 영역의 면적은 넓어지며, 상기 카메라 각도가 커질수록 선명도 영역의 값은 감소하고 깊이 영역의 면적은 좁아질 수 있다.
본 발명의 실시 예에 따르면 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 방법은 피사체에 대하여 다시점 실사 영상을 획득하는 단계; 상기 복수의 다시점 카메라를 상호 등간격으로 일정한 카메라 각도와 수렴점 거리를 가지도록 정렬하는 단계; 3D 개발엔진로부터 상기 피사체에 대한 카메라 각도와 수렴점 거리에 따른 선명도 영역 및 다시점 영역에 대한 정보를 수신하는 단계; 및 상기 수신한 다시점 실사 영상을 상기 수신한 선명도 영역 및 다시점 영역에 대한 정보에 따라 일정한 선명도 이상의 다시점 콘텐츠로 생성 가능하도록 상기 복수의 다시점 카메라의 정렬을 제어하는 시뮬레이션 환경을 구현하는 단계를 포함할 수 있다.
본 발명의 일 실시 예에 따르면 상기 선명도 영역은 카메라 각도와 수렴점 거리에 따라 변경되며, 상기 선명도 영역에 따라 깊이 영역을 산출할 수 있다.
본 발명의 일 실시 예에 따르면 상기 다시점 영역은 카메라 각도와 수렴점 거리에 따라 변경되며, 상기 다시점 영역에 따라 회전 영역을 산출할 수 있다.
본 발명의 일 실시 예에 따르면 상기 수렴점 거리가 커질수록 선명도 영역의 값은 증가하고 깊이 영역의 면적은 넓어지며, 상기 카메라 각도가 커질수록 선명도 영역의 값은 감소하고 깊이 영역의 면적은 좁아지는 것을 특징으로 할 수 있다.
본 발명에 따르면 실제의 카메라를 이용한 다시점 콘텐츠를 제작함에 있어 실제 카메라를 세팅하기 전에 가상 시뮬레이션을 수행함으로써 선명도 영역과 다시점 영역을 각 파라미터 별로 측정할 때 많은 시간이 소요가 되는 것을 방지하는 효과를 제공할 수 있다.
도 1은 본 발명의 실시 예에 따른 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치를 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치의 구성도이다.
도 3은 본 발명의 일 실시 예에 따른 깊이 영역에 대한 선명도 측정을 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른 각도에 따른 다시점영역 측정을 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따른 각도에 따른 unity3D를 이용하여 시뮬레이션 한 값과 실제 카메라를 통해 얻은 값을 비교한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 실제 깊이 영역과 unity3D를 이용한 가상 깊이 영역을 비교한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 수렴점 거리 및 카메라 각도에 따른 깊이 영역에 대한 차트를 나타낸 도면이다.
도 8은 본 발명의 일 실시 예에 따른 FOV 변화에 따른 카메라 뷰를 나타낸 도면이다.
도 9는 본 발명의 일 실시 예에 따른 FOV에 따른 깊이 영역 차트를 나타낸 도면이다.
도 10은 본 발명의 일 실시 예에 따른 본 발명의 실시 예에 따른 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 방법의 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하, 도면을 참조하여 본 발명의 실시 예에 따른 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법에 대하여 설명한다.
도 1은 본 발명의 실시 예에 따른 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치를 나타낸 도면이다.
도 1을 참조하면 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치는 피사체가 존재하는 수렴점(Convergence Point, CP)과 다시점 실사 영상을 획득하는 복수의 다시점 카메라와 수렴점에 위치한 피사체에 대해 복수의 다시점 카메라를 상호 등간격으로 일정한 카메라 각도와 수렴점 거리를 가지도록 정렬된 카메라 원형 정렬부를 포함할 수 있다.
도 1을 참조하면 카메라의 시각(Field Of View, FOV), 다시점 카메라들의 Focus가 모이는 지점인 수렴점(CP), 카메라에서 수렴점까지의 거리인 수렴점 거리(DistCP), 수렴점을 중점으로 하는 카메라들 사이의 각도인 카메라 각도(Camera Angle, CA), 수렴점을 중심으로 두고 수렴점까지의 거리를 반지름으로 하여 그린 원인 CP 원을 포함할 수 있다.
본 발명의 일 실시 예에 따르면 카메라 각도와 수렴점 거리를 변화 시키면서 선명도 영역(Clearness Field)를 측정하여 깊이 영역을 구할 수 있다.
그리고 CP 원에서 카메라를 0.5ㅀ, 1ㅀ, 2ㅀ의 다양한 각도로 배치하여 원기둥의 회전 영역을 측정할 수 있다.
여기서 선명도 영역(Clearness Field)은 CnF, 다시점 영역(Multi-View Field)를 MVF이라고 정의할 수 있다.
도 2는 본 발명의 실시 예에 따른 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치(1000)의 구성도이다.
도 2를 참조하면 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치(1000)는 복수의 다시점 카메라(100), 카메라 원형 정렬부(200), 가상 영역 정보 수신부(300), 시뮬레이션 환경 구현부(400)를 포함할 수 있다.
복수의 다시점 카메라(100)는 피사체에 대하여 다시점 실사 영상을 획득할 수 있다.
카메라 원형 정렬부(200)는 복수의 다시점 카메라를 상호 등간격으로 일정한 카메라 각도와 수렴점 거리를 가지도록 정렬할 수 있다.
가상 영역 정보 수신부(300)는 3D 개발엔진으로부터 상기 피사체에 대한 카메라 각도와 수렴점 거리에 따른 선명도 영역 및 다시점 영역에 대한 정보를 수신할 수 있다.
시뮬레이션 환경 구현부(400)는 수신한 다시점 실사 영상을 상기 수신한 선명도 영역 및 다시점 영역에 대한 정보에 따라 일정한 선명도 이상의 다시점 콘텐츠로 생성 가능하도록 상기 복수의 다시점 카메라의 정렬을 제어하는 시뮬레이션 환경을 구현할 수 있다.
본 발명의 일 실시 예에 따르면 3D 개발 엔진으로 unity3D 기반 가상 시스템이 사용될 수 있다.
본 발명의 일 실시 예에 따르면 선명도 영역은 카메라 각도와 수렴점 거리에 따라 변경되며, 상기 선명도 영역에 따라 깊이 영역을 산출할 수 있다.
본 발명의 일 실시 예에 따르면 다시점 영역은 카메라 각도와 수렴점 거리에 따라 변경되며, 상기 다시점 영역에 따라 회전 영역을 산출할 수 있다.
본 발명의 일 실시 예에 따르면 수렴점 거리가 커질수록 선명도 영역의 값은 증가하고 깊이 영역의 면적은 넓어지며, 상기 카메라 각도가 커질수록 선명도 영역의 값은 감소하고 깊이 영역의 면적은 좁아질 수 있다.
도 3은 본 발명의 일 실시 예에 따른 깊이 영역에 대한 선명도 측정을 나타낸 도면이다.
본 발명의 일 실시 예에 따르면 선명도 영역(Clearness Field)은 CnF, 다시점 영역(Multi-View Field)은 MVF라고 표시할 수 있으며, CnF는 도 3과 같이 물체의 선명한 영상에 대한 영역을 나타낼 수 있다.
도 4는 본 발명의 일 실시 예에 따른 각도에 따른 다시점영역 측정을 나타낸 도면이다.
도 4를 참조하면 MVF는 원기둥 중심의 문자 A가 이동하는 회전 영역을 나타낸다.
본 발명의 일 실시 예에 따르면 깊이 영역에 대한 CnF와 회전 영역에 대한 MVF는 실감나는 다시점 영상을 제작하기 위해서는 시점감과 깊이감을 측정하기 위한 변수로 사용될 수 있다.
본 발명의 일 실시 예에 따르면 실제 다시점 영상 생성 장치와 unity3D 기반 가상 시스템에서의 결과 비교를 위하여 가상의 시뮬레이터의 구현을 위해 unity3D 기반 가상 시스템에서의 수치와 실제 시스템에서의 수치 비교를 통해 가상 시뮬레이터의 사용가능 여부를 확인할 수 있다.
본 발명의 일 실시 예에 따르면 사용된 실제 시스템은 아래 표 1의 Camera Parameter와 같이 구성될 수 있으며 가상 시스템도 아래와 같은 수치를 가지고 구성하여 상호 결과를 대비할 수 있다.
DistCP 카메라 각도 FOV
4m 1ㅀ 25ㅀ
표 2를 참조하면 unity3D를 이용하여 표 1 파라미터를 기준으로 CnF를 측정한 값이 나타나 있다.
이를 통해 도 4와 같이 x축과 z축의 결과를 얻을 수 있다.
Z 축 3.64 3.28 3.85 4 4.36 4 3.92 3.31
X 축 0 1.17 1.36 1.03 0 -1.06 -1.39 -1.19
도 5는 본 발명의 일 실시 예에 따른 각도에 따른 unity3D를 이용하여 시뮬레이션 한 값과 실제 카메라를 통해 얻은 값을 비교한 도면이다.
도 5를 참조하면 실선으로 표시된 표 2에 따라 unity3D를 이용하여 시뮬레이션 한 값은 점선으로 표시된 실제로 카메라를 통해 촬영된 영상을 이용하여 다시점 영상으로 만든 후 측정한 실제 카메라를 통해 얻은 값은 그 결과가 거의 일치한다는 것이 나타나 있다.
도 6은 본 발명의 일 실시 예에 따른 실제 깊이 영역과 unity3D를 이용한 가상 깊이 영역을 비교한 도면이다.
도 6을 참조하면 본 발명의 일 실시 예에 따라 실제 깊이 영역인 세모 점으로 이루어진 영역과 unity3D를 이용한 가상 깊이 영역인 네모 점으로 이루어진 영역과 비교한 결과가 나타나 있다.
도 6을 참조하면 실제 깊이 영역과 unity3D를 이용한 가상 깊이 영역은 일치하는 것을 알 수 있다.
도 7은 본 발명의 일 실시 예에 따른 수렴점 거리 및 카메라 각도에 따른 깊이 영역에 대한 차트를 나타낸 도면이다.
본 발명의 일 실시 예에 따르면 가상 시뮬레이션 상 수렴점 거리(DistCP)와 카메라 각도(Angle of Camera)는 CnF와 MVF에 영향을 줄 수 있다.
수렴점 거리를 3 ~ 5m까지 변화시키고, 카메라 각도는 0.5 ~ 2ㅀ까지 변화시키는 환경에서 본 발명의 일 실시 예에 따라 CnF를 측정한 결과 표 3과 같은 수치가 도출되었다.
DistCP 카메라 각도
(Angle of Camera)
축(Axis) 깊이 영역 (m)
3 0.5° Z 2.49 2.24 2.95 3 3.66 3 2.95 2.23
X 0 0.76 1.06 1 0 -1 -1.05 -0.76
Z 2.76 2.49 2.92 3 3.3 3 2.93 2.44
X 0 0.86 1.01 0.86 0 -0.89 -1 -0.83
Z 2.87 2.52 2.81 3 3.13 3 2.8 2.6
X 0 0.87 0.97 0.53 0 -0.55 -0.96 -0.9
4 0.5° Z 3.33 3.06 4 4.06 4.69 4.05 4 3.01
X 0 1.08 1.51 1.44 0 -1.46 -1.52 -1.04
Z 3.64 3.28 3.85 4 4.36 4 3.92 3.31
X 0 1.17 1.36 1.03 0 -1.06 -1.39 -1.19
Z 3.86 3.5 3.75 4 4.14 4 3.74 3.45
X 0 1.26 1.32 0.61 0 -0.67 -1.31 -1.23
5 0.5° Z 4.26 3.8 4.8 5 5.76 5 4.75 3.76
X 0 1.35 1.8 1.6 0 -1.7 -1.78 -1.34
Z 4.59 4.13 4.75 5 5.43 5 4.7 4.11
X 0 1.47 1.71 1.14 0 -1.24 -1.7 -1.48
Z 4.86 4.44 4.67 5 5.16 5 4.6 4.34
X 0 1.61 1.68 0.77 0 -0.72 -1.66 -1.57
표 3에 따른 본 발명의 일 실시 예에 따른 수렴점 거리 및 카메라 각도에 따른 깊이 영역에 대한 차트는 도 7과 같다.
표 3와 그림 7을 참조하면 결과를 보면 수렴점 거리(DistCP)가 커질수록 선명도 영역의 값이 증가하고, 깊이 영역의 면적은 넓어지는 것이 나타나 있다.
이와는 반대로 카메라 각도가 커지면 선명도 영역(CnF)의 값은 줄어들며 깊이 영역의 면적은 줄어드는 것을 알 수 있다.
또한 수렴점 거리P가 커지면서 카메라 각도가 좁아지고, 깊이 영역의 면적이 넓어짐에 따라서 넓은 영역의 깊이감을 느낄 수 있다.
본 발명의 일 실시 예에 따르면 회전각은 카메라 각도의 의해서 결정될 수 있다.
도 7 (e)를 참조하면 가장 넓은 시야각인 2ㅀ의 간격에서 깊이 영역의 면적이 가장 좁아지는 것이 나타나 있으며, 이로 인하여 깊이 영역의 면적이 좁아지면 깊이감이 떨어지게 된다는 것을 알 수 있다.
따라서 시점감을 높인다면 깊이감은 떨어지기 때문에 시점감을 높이기 위해서 카메라 각도를 무한정 늘릴 수는 없는 문제점이 존재한다.
도 8은 본 발명의 일 실시 예에 따른 FOV 변화에 따른 카메라 뷰를 나타낸 도면이다.
도 8을 참조하면 FOV 변화에 따른 카메라 view가 나타나 있으며, FOV가 늘어남에 따라서 겹치는 공간이 증가될 수 있다.
수렴점 거리가 3m, 카메라 각도는 1˚로 CnF를 측정한 결과는 아래 표 4와 같다.
DistCP FOV
(Field of View)

(Axis)
깊이 영역 (m)
3 25° Z 2.76 2.49 2.92 3 3.3 3 2.93 2.44
X 0 0.86 1.01 0.86 0 -0.89 -1 -0.83
30° Z 2.64 2.2 2.78 3 3.44 3 2.76 2.24
X 0 0.87 1.18 0.98 0 -0.97 -1.16 -0.9
35° Z 2.61 2.06 2.55 3 3.51 3 2.6 2.09
X 0 0.95 1.26 1.03 0 -1.03 -1.27 -0.98
40° Z 2.59 1.97 2.5 3 3.59 3 2.52 1.97
X 0 1.08 1.47 1.14 0 -1.13 -1.41 -1.07
도 9는 본 발명의 일 실시 예에 따른 FOV에 따른 깊이 영역 차트를 나타낸 도면이다.
도 9를 참조하면 표 4의 결과가 차트로 나타나 있고, 이러한 차트를 살펴보면 FOV가 늘어남에 따라서 깊이 영역의 면적이 늘어나는 것을 알 수 있다.
도 10은 본 발명의 일 실시 예에 따른 본 발명의 실시 예에 따른 3D 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 방법의 흐름도이다.
피사체에 대하여 다시점 실사 영상을 복수의 다시점 카메라로 획득한다(1010).
본 발명의 일 실시 예에 따르면 복수의 다시점 카메라를 이용하여 수렴점에 존재하는 피사체에 대한 다시점 실사 영상을 획득할 수 있다.
복수의 다시점 카메라를 상호 등간격으로 일정한 카메라 각도와 수렴점 거리를 가지도록 정렬한다(1020).
본 발명의 일 실시 예에 따르면 피사체가 존재하는 수렴점(Convergence Point, CP)과 다시점 실사 영상을 획득하는 복수의 다시점 카메라와 수렴점에 위치한 피사체에 대해 복수의 다시점 카메라를 상호 등간격으로 일정한 카메라 각도와 수렴점 거리를 가지도록 정렬할 수 있다.
카메라 각도와 수렴점 거리에 따른 선명도 영역 및 다시점 영역에 대한 정보를 수신한다(1030)
본 발명의 일 실시 예에 따르면 3D 개발엔진으로부터 상기 피사체에 대한 카메라 각도와 수렴점 거리에 따른 선명도 영역 및 다시점 영역에 대한 정보를 수신할 수 있다.
선명도 영역 및 다시점 영역에 대한 정보에 따라 일정한 선명도 이상의 다시점 콘텐츠를 생성 가능하도록 복수의 다시점 카메라의 정렬을 제어한다(1040).
본 발명의 일 실시 예에 따르면 수신한 선명도 영역 및 다시점 영역에 대한 정보에 따라 일정한 선명도 이상의 다시점 콘텐츠를 생성 가능하도록 복수의 다시점 카메라의 정렬을 제어함으로써 시뮬레이션을 할 수 있다.
본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100 : 복수의 다시점 카메라 200 : 카메라 원형 정렬부
300 : 가상 영역 정보 수신부 400 : 시뮬레이션 환경 구현부
1000 : 다시점 콘텐츠 생성 시뮬레이션 장치

Claims (10)

  1. 피사체에 대하여 다시점 실사 영상을 획득하는 복수의 실제 카메라의 정렬을 위한 다시점 콘텐츠 생성 시뮬레이션 장치로서,
    시뮬레이션 환경 내에서, 복수의 시뮬레이션 카메라와 상기 복수의 시뮬레이션 카메라의 수렴점까지의 수렴점 거리를 미리 결정된 제1 범위 내에서 변경시키고, 상기 시뮬레이션 환경 내에서 상기 복수의 시뮬레이션 카메라의 각도를 미리 결정된 제2 범위 내에서 변경시키는 카메라 원형 정렬부; 및
    상기 제1 범위 내에서 변경되는 수렴점 거리 및 상기 제2 범위 내에서 변경되는 상기 복수의 시뮬레이션 카메라의 각도를 바탕으로 상기 시뮬레이션 환경의 선명도 영역(Clearness Field)를 측정하고, 상기 선명도 영역에 기반하여 깊이 영역을 측정하고, 상기 깊이 영역의 크기를 바탕으로 상기 다시점 실사 영상을 획득하기 위한 상기 복수의 실제 카메라의 각도를 결정하는 시뮬레이션 환경 구현부
    를 포함하는 다시점 콘텐츠 생성 시뮬레이션 장치.
  2. 제1항에 있어서,
    상기 시뮬레이션 환경 구현부는,
    상기 깊이 영역의 크기를 최대화하도록 상기 복수의 시뮬레이션 카메라의 각도를 결정하는, 다시점 콘텐츠 생성 시뮬레이션 장치.
  3. 제1항에 있어서
    상기 시뮬레이션 환경 구현부는 또한,
    상기 복수의 시뮬레이션 카메라의 시각(field of view, FOV)의 변화에 따라 상기 깊이 영역을 측정하는, 다시점 콘텐츠 생성 시뮬레이션 장치.
  4. 삭제
  5. 삭제
  6. 피사체에 대하여 다시점 실사 영상을 획득하는 복수의 실제 카메라의 정렬을 위한 다시점 콘텐츠 생성 시뮬레이션 방법으로서,
    시뮬레이션 환경 내에서, 복수의 시뮬레이션 카메라와 상기 복수의 시뮬레이션 카메라의 수렴점까지의 수렴점 거리를 미리 결정된 제1 범위 내에서 변경시키는 단계;
    상기 시뮬레이션 환경 내에서 상기 복수의 시뮬레이션 카메라의 각도를 미리 결정된 제2 범위 내에서 변경시키는 단계;
    상기 제1 범위 내에서 변경되는 수렴점 거리 및 상기 제2 범위 내에서 변경되는 상기 복수의 시뮬레이션 카메라의 각도를 바탕으로 상기 시뮬레이션 환경의 선명도 영역(Clearness Field)를 측정하고, 상기 선명도 영역에 기반하여 깊이 영역을 측정하는 단계;
    상기 깊이 영역의 크기를 바탕으로 상기 다시점 실사 영상을 획득하기 위한 상기 복수의 실제 카메라의 각도를 결정하는 단계
    를 포함하는 다시점 콘텐츠 생성 시뮬레이션 방법.
  7. 제6항에 있어서,
    상기 깊이 영역의 크기를 바탕으로 상기 다시점 실사 영상을 획득하기 위한 상기 복수의 실제 카메라의 각도를 결정하는 단계는,
    상기 깊이 영역의 크기를 최대화하도록 상기 복수의 시뮬레이션 카메라의 각도를 결정하는 단계
    를 포함하는, 다시점 콘텐츠 생성 시뮬레이션 방법.
  8. 제6항에 있어서,
    상기 제1 범위 내에서 변경되는 수렴점 거리 및 상기 제2 범위 내에서 변경되는 상기 복수의 시뮬레이션 카메라의 각도를 바탕으로 상기 시뮬레이션 환경의 선명도 영역(Clearness Field)를 측정하고, 상기 선명도 영역에 기반하여 깊이 영역을 측정하는 단계는,
    상기 복수의 시뮬레이션 카메라의 시각(field of view, FOV)의 변화에 따라 상기 깊이 영역을 측정하는 단계
    를 포함하는, 다시점 콘텐츠 생성 시뮬레이션 방법.
  9. 삭제
  10. 삭제
KR1020160121620A 2015-12-21 2016-09-22 3d 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법 KR102547717B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150183197 2015-12-21
KR1020150183197 2015-12-21

Publications (2)

Publication Number Publication Date
KR20170074164A KR20170074164A (ko) 2017-06-29
KR102547717B1 true KR102547717B1 (ko) 2023-06-26

Family

ID=59280321

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160121620A KR102547717B1 (ko) 2015-12-21 2016-09-22 3d 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102547717B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210114668A (ko) 2020-03-11 2021-09-24 주식회사 케이티 대상 물체에 대한 입체 영상을 생성하는 장치, 방법 및 컴퓨터 프로그램
KR102533399B1 (ko) * 2022-10-18 2023-05-17 주식회사 아이코닉무브먼트 미디어 파사드 구현을 위한 3d 게임엔진 기반 미디어 콘텐츠 제작 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9299184B2 (en) * 2009-04-07 2016-03-29 Sony Computer Entertainment America Llc Simulating performance of virtual camera

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
고미애 외 2인, ‘초다시점 영상과 단위픽셀 디자인을 이용한 초다시점 3D영상 구현’, 추계학술발표대회 논문집, 2015.10.28.*
조용주, ‘무안경식 다시점 입체 영상 디스플레이 콘텐츠 생성을 위한 최적화 기술 개발’, 일반연구자지원사업 최종보고서, 상명대학교, 2014.05.30.*

Also Published As

Publication number Publication date
KR20170074164A (ko) 2017-06-29

Similar Documents

Publication Publication Date Title
RU2769303C2 (ru) Оборудование и способ для формирования представления сцены
US20230291884A1 (en) Methods for controlling scene, camera and viewing parameters for altering perception of 3d imagery
EP3350989B1 (en) 3d display apparatus and control method thereof
CN101247530A (zh) 增强图像的立体效果的三维图像显示设备和方法
KR101732131B1 (ko) 사용자 위치 기반의 영상 제공 장치 및 방법
CN110335307B (zh) 标定方法、装置、计算机存储介质和终端设备
JP2011164781A (ja) 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法
Patel et al. Distance measurement system using binocular stereo vision approach
CN113411574A (zh) 一种裸眼3d显示效果的评价方法、装置、介质及系统
KR102547717B1 (ko) 3d 개발엔진을 이용한 다시점 콘텐츠 생성 시뮬레이션 장치 및 그 방법
CN107341834B (zh) 一种保持双目视差的全景立体校正方法及系统
KR101960577B1 (ko) 뷰 공간에 관한 스테레오 정보를 송수신하는 방법
KR101634225B1 (ko) 다시점 입체 영상 보정 장치 및 방법
KR20130121511A (ko) 무안경 3차원 영상 디스플레이 장치 및 방법
TWI486052B (zh) 立體影像處理裝置以及立體影像處理方法
CN116804537A (zh) 一种双目测距系统及方法
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
US11727833B2 (en) Information processing apparatus and information processing method for suppressing crosstalk while suppressing degradation in image quality
WO2021093803A1 (zh) 立体摄像机的校正品质的检测方法及检测系统
JP2010079506A (ja) 画像生成装置、方法、通信システム及びプログラム
Prevoteau et al. Multiview shooting geometry for multiscopic rendering with controlled distortion
KR20140113066A (ko) 차폐 영역 정보를 기반으로 하는 다시점 영상 생성 방법 및 장치
Gu et al. Elemental image generation algorithm using reverse iteration along optical path
CN102855660B (zh) 一种确定虚拟场景景深的方法及装置
KR100893381B1 (ko) 실시간 입체영상 생성방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant