KR20200129657A - 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법 - Google Patents

혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법 Download PDF

Info

Publication number
KR20200129657A
KR20200129657A KR1020190054393A KR20190054393A KR20200129657A KR 20200129657 A KR20200129657 A KR 20200129657A KR 1020190054393 A KR1020190054393 A KR 1020190054393A KR 20190054393 A KR20190054393 A KR 20190054393A KR 20200129657 A KR20200129657 A KR 20200129657A
Authority
KR
South Korea
Prior art keywords
view image
camera
image
video sequence
data
Prior art date
Application number
KR1020190054393A
Other languages
English (en)
Other versions
KR102222290B1 (ko
Inventor
임완택
Original Assignee
스크린커플스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스크린커플스(주) filed Critical 스크린커플스(주)
Priority to KR1020190054393A priority Critical patent/KR102222290B1/ko
Publication of KR20200129657A publication Critical patent/KR20200129657A/ko
Application granted granted Critical
Publication of KR102222290B1 publication Critical patent/KR102222290B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명의 실시 형태는 대상 객체의 중심을 향한 다시점 영상을 획득하는 다시점 영상 획득 과정; 카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하는 교정 과정; 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리 과정; 전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 3D 메쉬 데이터 획득 과정;을 포함할 수 있다.

Description

혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법{Method for gaining 3D model video sequence}
본 발명은 3D 모델 비디오 시퀀스 획득 방법으로서, 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법에 관한 것이다.
기존의 실사 기반의 홀로그램 비디오 콘텐츠 획득 방식은, 도 1에 도시한 바와 같이 2차원 단시점(일방향)의 그린스크린 영상을 촬영하여 배경을 제거한 후 2D 프레임을 추출하는 방식이다.
따라서 기존의 실사 기반의 전방위 3D 모델 획득 방식은, 정지된 객체에 대하여 다양한 각도에서 촬영 또는 스캔하는 방식으로 비디오 콘텐츠의 획득이 어려운 구조를 가지기 때문에, 360°다시점 체험이 요구되는 가상 및 혼합현실 환경에서는 비효율적인 방식이다.
일반적으로 정지된 객체의 3D 스캐닝 서비스 또는 기술이 대다수를 차지하며, 움직이는 객체에 대한 전방위 3D 모델 데이터를 개발한 기술(제품)이 없는 실정이다.
따라서 다가올 4차 산업 서비스(보안, 에너지, 디스플레이, 의료, 교육 등)를 위해 다양한 산업 분야에서 활용될 혼합현실 관련 기술로서, 원천적으로 현실 데이터를 360°3차원 데이터로 생성하는 시퀀스 획득 기술의 개발 필요성이 절실하다.
한국등록특허 10-0717065
본 발명의 기술적 과제는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 수단을 제공하는데 있다.
본 발명의 실시 형태는 대상 객체의 중심을 향한 다시점 영상을 획득하는 다시점 영상 획득 과정; 카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하는 교정 과정; 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리 과정; 전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 3D 메쉬 데이터 획득 과정;을 포함할 수 있다.
상기 다시점 영상 획득 과정은, 각 카메라를 통해 촬영된 단일시점 영상에서 특징점을 추출하여, 각 단일시점 영상의 특징점에 대한 틀어짐을 매칭시켜 다시점 영상을 획득함을 특징으로 할 수 있다.
상기 교정 과정은, 각 단일시점 영상을 촬영한 카메라의 파라미터를 획득하고, 획득한 카메라 파라미터를 조절하여 단시점 영상을 교정할 수 있다.
상기 전처리 과정에서 영상 보정은, 카메라의 위치와 이를 보는 영상점간의 두 벡터들은 공통평면에 위치하도록 하는 등극선(epipolar) 기하학을 적용하여 호모그래피(homography)를 계산하여 각 단일 시점의 시점 영상을 일치시키도록 보정할 수 있다.
상기 전처리 과정에서 조명 보상은, 각 카메라에 구비된 깊이 센서를 이용하여 대상 객체의 깊이를 감지하며, 각 카메라에서 촬영된 단일 시점 영상에 대한 깊이 맵(depth map)을 이용하여 각 단일 시점의 밝기를 일정한 값으로 보정할 수 있다.
상기 3D 메쉬 데이터 획득 과정은, 보정된 다시점 영상을 이용하여 3D 메쉬 모델 시퀀스를 획득하는 과정; 3D 메쉬 모델 시퀀스를 이용하여 3D 메쉬 데이터를 획득하는 과정;을 포함할 수 있다.
본 발명의 실시 형태에 따르면 다시점 카메라 시스템을 이용하여 움직이는 객체에 대한 360도 라이브 시퀀스 획득이 가능하고, 전방위 비디오 시퀀스를 이용하여 3D 모델 형태의 데이터 획득이 가능하게 된다.
도 1은 기존의 2차원 단시점의 그린스크린 영상을 이용한 홀로그램 비디오 콘텐츠 획득 방식의 예시 그림.
도 2는 본 발명의 실시예에 따른 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 시스템의 구성도.
도 3은 본 발명의 실시예에 따른 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법을 도시한 플로차트.
도 4는 본 발명의 실시예에 따른 시점간의 특징점 매칭 결과의 예시.
도 5는 본 발명의 실시예에 따른 카메라 보정을 위한 보정판의 예시 그림.
도 6은 본 발명의 실시예에 따라 다른 두 시점의 epipolar 기하학 계산의 예시 그림.
도 7은 본 발명의 실시예에 따라 조명 보상 전후를 도시한 그림.
도 8은 본 발명의 실시예에 따른 3D 메쉬 데이터의 수정과정의 예시.
도 9는 본 발명의 실시예에 따른 시청자의위치에 따른 3D 메쉬의 렌더링 예시.
도 10은 본 발명의 실시예에 따라 카메라 파라미터와 좌표계의 변환 예시.
도 11은 본 발명의 실시예에 따라 다시점 영상의 특징점 추출 및 매칭 예시.
도 12는 본 발명의 실시예에 따라 매칭점과 카메라 파라미터 정보를 이용한 3D Point Cloud의 획득 예시.
도 13은 본 발명의 실시예에 따라 대략적인 3D Point Cloud와 다시점 영상을 이용한 정밀한 3D Point Cloud 데이터 획득 예시.
이하, 본 발명의 장점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은, 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 또한, 본 발명을 설명함에 있어 관련된 공지 기술 등이 본 발명의 요지를 흐리게 할 수 있다고 판단되는 경우 그에 관한 자세한 설명은 생략하기로 한다.
도 2는 본 발명의 실시예에 따른 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 시스템의 구성도이다.
본 발명은 다시점 카메라 시스템을 이용하여 움직이는 객체에 대한 360° 라이브 시퀀스 획득이 가능하고, 전방위 비디오 시퀀스를 이용하여 3D 모델 형태의 데이터 획득이 가능하도록 한다. 따라서 기존의 3D 스캔 시스템은 정지 상태의 마네킨을 만들어 낸다고 하면 본 발명의 3D 라이브 시퀀셜 시스템은 시간에 따른 동작 변화를 그대로 담아낼 수 있다.
이를 위하여 본 발명은 도 1에 도시한 바와 같이 대상 객체의 중심을 향한 다시점 영상을 획득하는 복수개의 카메라를 구비한다. 복수개의 카메라를 통해 획득한 다시점 영상을 이용하여 영상 처리 장치가 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스를 생성해낸다.
영상 처리 장치는, 컴퓨터, 서버 등과 같이 CPU와 메모리를 구비하여 연산 처리가 가능한 장치로서, 본 발명의 영상 처리 장치는, 복수개의 카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하여 교정한 후, 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리를 수행하고, 전처리된 다시점 영상을 이용하여 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하게 된다. 이하 도 3 내지 도 13과 함께 상술한다.
도 3은 본 발명의 실시예에 따른 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법을 도시한 플로차트이며, 도 4는 본 발명의 실시예에 따른 시점간의 특징점 매칭 결과의 예시이며, 도 5는 본 발명의 실시예에 따른 카메라 보정을 위한 보정판의 예시 그림이며, 도 6은 본 발명의 실시예에 따라 다른 두 시점의 epipolar 기하학 계산의 예시 그림이며, 도 7은 본 발명의 실시예에 따라 조명 보상 전후를 도시한 그림이며, 도 8은 본 발명의 실시예에 따른 3D 메쉬 데이터의 수정과정의 예시이며, 도 9는 본 발명의 실시예에 따른 시청자의위치에 따른 3D 메쉬의 렌더링 예시이며, 도 10은 본 발명의 실시예에 따라 카메라 파라미터와 좌표계의 변환 예시이며, 도 11은 본 발명의 실시예에 따라 다시점 영상의 특징점 추출 및 매칭 예시이며, 도 12는 본 발명의 실시예에 따라 매칭점과 카메라 파라미터 정보를 이용한 3D Point Cloud의 획득 예시이며, 도 13은 본 발명의 실시예에 따라 대략적인 3D Point Cloud와 다시점 영상을 이용한 정밀한 3D Point Cloud 데이터 획득 예시이다.
본 발명의 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법은, 도 3에 도시한 바와 같이 대상 객체의 중심을 향한 다시점 영상을 획득하는 다시점 영상 획득 과정과, 다시점 영상의 파라미터를 획득하여 획득한 파라미터를 조절하는 교정 과정과, 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리 과정과, 전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 3D 메쉬 데이터 획득 과정을 포함할 수 있다.
다시점 영상 획득 과정은, 복수개의 카메라가 대상 객체의 중심을 향한 다시점 영상을 획득하는 과정이다.
3D 메쉬(Mesh) 획득을 고려하여 카메라가 촬영하는 대상 객체는 다음과 같은 특성을 가진다.
- 피해야 할 대상 객체의 특성
ㆍ투명한 표면을 가진 객체(비누방울, 유리, etc.)
ㆍ강한 빛을 발광/반사 하는 객체(거울, 전구, etc.)
ㆍ표면의 변화가 거의 없는 단조로운 객체
- 카메라간의 틀어짐(겹침) 정도
ㆍ시점간의 매칭되는 특징점 증가
ㆍ특징점 추출 기법의 GPGPU 프로그래밍을 통한 병렬고속화 및 특징점 최대화
따라서 다시점 영상 획득 과정은, 각 카메라를 통해 촬영된 단일시점 영상에서 특징점을 추출하여, 각 단일시점 영상의 특징점에 대한 틀어짐을 매칭시켜 다시점 영상을 획득할 수 있게 된다.
예를 들어, 도 4(a)에 도시한 바와 특징점의 틀어짐을 매칭시키게 되면 두 개의 영상일 매칭되나, 도 4(b)에 도시한 바와 같이 특징점의 매칭이 대부분 이루어지지 않는다면 다시점 영상을 획득할 수 없게 된다.
교정 과정은, 카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하는 과정이다. 각 카메라의 파라미터가 서로 다를 수 있기 때문에 이들을 일치시켜 촬영되는 단일 시점 영상의 촬영 속성을 일치시키기 위함이다.
바람직하게는 교정 과정은, 각 단일시점 영상을 촬영한 카메라의 파라미터를 획득하고, 획득한 카메라 파라미터를 조절하여 단시점 영상을 교정하게 된다. 예를 들어, 각 카메라의 초점거리(focal length), 확대인자(scale factor), 영상의 중심(image center), 렌즈 왜곡 파라미터(lens distortion parameter)를 포함하는 카메라 내부 파라미터와, 각 카메라의 회전(rotation) 및 이동(translation)을 포함하는 카메라 외부 파라미터를 획득하여, 각 카메라의 내부 파라미터와 외부 파라미터가 동일한 값을 가지도록 교정하는 것이다.
참고로 이러한 교정은, 점/선의 속성을 이용한 방법, 도 5에 도시한 바와 같이 특정 패턴(보정판)을 이용한 방법을 통해 카메라 교정이 이루어질 수 있다.
전처리 과정은, 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 과정이다.
전처리 과정은, 영상 보정과 조명 보상으로 이루어질 수 있다.
첫째로, 전처리 과정에서의 영상 보정은, 카메라의 미세한 뒤틀림에 의한 오차 개선을 위한 영상 보정이 이루어지며, 카메라 쌍별 카메라 rectification 및 calibration을 수행하고 입체보정객체를 활용한 입체적 보정이 이루어질 수 있다. 또한 깊이 센서(Depth sensor)를 이용하여 depth 및 RGB 영상의 통합적 보정이 이루어질 수 있다.
나아가, 영상 보정은, 카메라의 위치와 이를 보는 영상점간의 두 벡터들은 공통평면에 위치하도록 하는 등극선(epipolar) 기하학을 적용하여 호모그래피(homography)를 계산하여 각 단일 시점의 시점 영상을 일치시키도록 하는 보정이 이루어질 수 있다.
등극선 기하학(epipolar Geometry)은, 양안시(Stereo vision)의 이론적 배경으로 3차원의 한 점을 두 카메라에서 얻은 영상정보는 카메라의 위치와 이를 보는 영상점의 두 벡터는 공통평면상에 존재한다는 이론으로서, 이러한 등극선 기하학을 적용하여 도 6과 같이 다른 두 시점의 등극선(epipolar) 기하학을 계산하여 각 단일 시점의 시점 영상을 일치시키는 보정을 하는 것이다.
둘째로, 전처리 과정에서의 조명 보상은, 각 카메라에 구비된 깊이 센서를 이용하여 대상 객체의 깊이를 감지하며, 각 카메라에서 촬영된 단일 시점 영상에 대한 깊이 맵(depth map)을 이용하여 각 단일 시점의 밝기를 일정한 값으로 보정하는 것이다. 즉, 다시점 영상에서 조명에 의한 밝기를 일정하게 유지하도록, Depth 카메라 기반의 depth map을 이용하여 카메라 개수 축소 및 개선하여 최적화하는 것이다. 참고로 도 7은 조명 보상 전후를 도시한 그림이다.
3D 메쉬 데이터 획득 과정은, 전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 과정이다. 즉, 도 8과 같이 고품질 3D 메쉬(Mesh) 데이터를 위한 수정 및 프레임 연결하고, 도 9와 같이 시청자의 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하게 된다. 참고로, 3D 메쉬 데이터라 함은, 3D 모델을 획득하기 위해 필요로 하는 3차원 형상 데이터로서, 3차원 형상 데이터가 STL(Standard Triangulated Language) 데이터 형식으로 보관될 수도 있다.
3D 메쉬 데이터 획득 과정은, 보정된 다시점 영상을 이용하여 3D 메쉬 모델 시퀀스를 획득하는 과정과, 3D 메쉬 모델 시퀀스를 이용하여 3D 메쉬 데이터를 획득하는 과정을 가질 수 있다. 상기에서 시퀀스를 획득하는 과정과 3D 메쉬 데이터를 획득하는 과정은 공지된 다양한 방식이 적용될 수 있을 것이다.
예를 들어, 3D 메쉬 모델 시퀀스를 획득하는 과정은, 고품질 3D Mesh 데이터 획득을 위한 카메라 사이의 중간시점 비디오 시퀀스 생성하여 3D 메쉬 모델 시퀀스를 획득한다.
- 중간시점 생성을 위한 깊이정보의 획득
ㆍ두 시점의 비디오 시퀀스에 스테레오매칭을 적용하여 깊이정보 획득
ㆍToF(Time-of-Flight) 형식의 깊이 카메라를 이용한 깊이 정보 획득
ㆍMicrosoft사의 Kinect2의 깊이 정보를 이용한 깊이 정보의 획득
- 핀홀카메라 모델과 3D 워핑을 이용한 중간시점의 비디오 시퀀스 획득
ㆍCalibration을 통해 획득한 카메라 파라미터(K, R|t)를 이용한 좌표계 변환(도 10)
ㆍ좌표계 변환을 통한 중간시점의 시퀀스 영상 생성
또한 3D 메쉬 모델 시퀀스를 이용하여 3D 메쉬 데이터를 획득하는 예시를 상술하면 다음과 같다.
- 다시점 영상의 특징점 획득 및 매칭(도 11)
ㆍ특징점 추출을 위한 SIFT 알고리즘의 구현
ㆍ다시점 영상의 추출된 특징점을 이용한 매칭 알고리즘(RANSAC) 구현
- 매칭점을 이용한 3D Mesh 데이터 획득(도 12)
ㆍ매칭 점을 이용한 SfM(Structure from Motion)을 구하고, 대략적인 point cloud 데이터의 획득매칭 점을 이용한 SfM(Structure from Motion)을 구하고, 대략적인 point cloud 데이터의 획득
- 대략적인 point cloud 데이터와 다시점 영상을 이용한 정밀한 point cloud 데이터 획득(도 13)
ㆍPMVS(Patch-based Multi-View Stereoscopic)
상술한 본 발명의 설명에서의 실시예는 여러가지 실시가능한 예중에서 당업자의 이해를 돕기 위하여 가장 바람직한 예를 선정하여 제시한 것으로, 이 발명의 기술적 사상이 반드시 이 실시예만 의해서 한정되거나 제한되는 것은 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 다양한 변화와 변경 및 균등한 타의 실시예가 가능한 것이다.

Claims (6)

  1. 대상 객체의 중심을 향한 다시점 영상을 획득하는 다시점 영상 획득 과정;
    카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하는 교정 과정;
    교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리 과정;
    전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 3D 메쉬 데이터 획득 과정;
    을 포함하는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법.
  2. 청구항 1에 있어서, 상기 다시점 영상 획득 과정은,
    각 카메라를 통해 촬영된 단일시점 영상에서 특징점을 추출하여, 각 단일시점 영상의 특징점에 대한 틀어짐을 매칭시켜 다시점 영상을 획득함을 특징으로 하는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법.
  3. 청구항 2에 있어서, 상기 교정 과정은,
    각 단일시점 영상을 촬영한 카메라의 파라미터를 획득하고, 획득한 카메라 파라미터를 조절하여 단시점 영상을 교정함을 특징으로 하는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법.
  4. 청구항 1에 있어서, 상기 전처리 과정에서 영상 보정은,
    카메라의 위치와 이를 보는 영상점간의 두 벡터들은 공통평면에 위치하도록 하는 등극선(epipolar) 기하학을 적용하여 호모그래피(homography)를 계산하여 각 단일 시점의 시점 영상을 일치시키도록 보정함을 특징으로 하는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법.
  5. 청구항 1에 있어서, 상기 전처리 과정에서 조명 보상은,
    각 카메라에 구비된 깊이 센서를 이용하여 대상 객체의 깊이를 감지하며, 각 카메라에서 촬영된 단일 시점 영상에 대한 깊이 맵(depth map)을 이용하여 각 단일 시점의 밝기를 일정한 값으로 보정함을 특징으로 하는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법.
  6. 청구항 1에 있어서, 상기 3D 메쉬 데이터 획득 과정은,
    보정된 다시점 영상을 이용하여 3D 메쉬 모델 시퀀스를 획득하는 과정;
    3D 메쉬 모델 시퀀스를 이용하여 3D 메쉬 데이터를 획득하는 과정;
    을 포함하는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법.
KR1020190054393A 2019-05-09 2019-05-09 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법 KR102222290B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190054393A KR102222290B1 (ko) 2019-05-09 2019-05-09 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190054393A KR102222290B1 (ko) 2019-05-09 2019-05-09 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법

Publications (2)

Publication Number Publication Date
KR20200129657A true KR20200129657A (ko) 2020-11-18
KR102222290B1 KR102222290B1 (ko) 2021-03-03

Family

ID=73697529

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190054393A KR102222290B1 (ko) 2019-05-09 2019-05-09 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법

Country Status (1)

Country Link
KR (1) KR102222290B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114125434A (zh) * 2021-11-26 2022-03-01 重庆盛泰光电有限公司 一种tof摄像头的3d校正装置
WO2022108067A1 (en) * 2020-11-19 2022-05-27 Samsung Electronics Co., Ltd. Method for rendering relighted 3d portrait of person and computing device for the same
CN115147524A (zh) * 2022-09-02 2022-10-04 荣耀终端有限公司 一种3d动画的生成方法及电子设备
US11823327B2 (en) 2020-11-19 2023-11-21 Samsung Electronics Co., Ltd. Method for rendering relighted 3D portrait of person and computing device for the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240070356A (ko) * 2022-11-07 2024-05-21 팜피 주식회사 전처리된 이미지를 이용하여 3d 객체를 생성하는 방법 및 이를 위한 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060041060A (ko) * 2004-11-08 2006-05-11 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
KR100717065B1 (ko) 2006-05-03 2007-05-10 삼성전자주식회사 홀로그램 기록 재생 장치, 홀로그램 기록 재생 방법 및홀로그램 기록매체
KR100755450B1 (ko) * 2006-07-04 2007-09-04 중앙대학교 산학협력단 평면 호모그래피를 이용한 3차원 재구성 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060041060A (ko) * 2004-11-08 2006-05-11 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
KR100717065B1 (ko) 2006-05-03 2007-05-10 삼성전자주식회사 홀로그램 기록 재생 장치, 홀로그램 기록 재생 방법 및홀로그램 기록매체
KR100755450B1 (ko) * 2006-07-04 2007-09-04 중앙대학교 산학협력단 평면 호모그래피를 이용한 3차원 재구성 장치 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022108067A1 (en) * 2020-11-19 2022-05-27 Samsung Electronics Co., Ltd. Method for rendering relighted 3d portrait of person and computing device for the same
US11823327B2 (en) 2020-11-19 2023-11-21 Samsung Electronics Co., Ltd. Method for rendering relighted 3D portrait of person and computing device for the same
CN114125434A (zh) * 2021-11-26 2022-03-01 重庆盛泰光电有限公司 一种tof摄像头的3d校正装置
CN115147524A (zh) * 2022-09-02 2022-10-04 荣耀终端有限公司 一种3d动画的生成方法及电子设备
CN115147524B (zh) * 2022-09-02 2023-01-17 荣耀终端有限公司 一种3d动画的生成方法及电子设备

Also Published As

Publication number Publication date
KR102222290B1 (ko) 2021-03-03

Similar Documents

Publication Publication Date Title
KR102222290B1 (ko) 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법
US9438878B2 (en) Method of converting 2D video to 3D video using 3D object models
EP3018903B1 (en) Method and system for projector calibration
KR101761751B1 (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
US10609282B2 (en) Wide-area image acquiring method and apparatus
US10373362B2 (en) Systems and methods for adaptive stitching of digital images
JP5340952B2 (ja) 三次元投影ディスプレイ
US9357206B2 (en) Systems and methods for alignment, calibration and rendering for an angular slice true-3D display
JPWO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
JP2010113720A (ja) 距離情報を光学像と組み合わせる方法及び装置
US11398007B2 (en) Video generation device, video generation method, program, and data structure
US9380263B2 (en) Systems and methods for real-time view-synthesis in a multi-camera setup
KR100668073B1 (ko) 다시점 영상의 왜곡 보정처리 방법
CN104599317A (zh) 一种实现3d扫描建模功能的移动终端及方法
CN111009030A (zh) 一种多视高分辨率纹理图像与双目三维点云映射方法
JPH11175762A (ja) 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
KR20190062102A (ko) 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치
KR101817753B1 (ko) 3차원 모델의 형상이 개선된 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법
KR101817756B1 (ko) 인터랙티브한 시점 제어가 가능한 3차원 모델 기반의 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법
CN105282534B (zh) 用于嵌入立体图像的系统及方法
KR101351745B1 (ko) 3차원 얼굴 생성 장치 및 방법
KR101748674B1 (ko) 3차원 영상 생성 방법 및 장치
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
CN106408598A (zh) 一种基于阵列镜头的三维人像重构打印装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant