KR102222290B1 - Method for gaining 3D model video sequence - Google Patents

Method for gaining 3D model video sequence Download PDF

Info

Publication number
KR102222290B1
KR102222290B1 KR1020190054393A KR20190054393A KR102222290B1 KR 102222290 B1 KR102222290 B1 KR 102222290B1 KR 1020190054393 A KR1020190054393 A KR 1020190054393A KR 20190054393 A KR20190054393 A KR 20190054393A KR 102222290 B1 KR102222290 B1 KR 102222290B1
Authority
KR
South Korea
Prior art keywords
camera
view image
image
obtaining
view
Prior art date
Application number
KR1020190054393A
Other languages
Korean (ko)
Other versions
KR20200129657A (en
Inventor
임완택
Original Assignee
스크린커플스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스크린커플스(주) filed Critical 스크린커플스(주)
Priority to KR1020190054393A priority Critical patent/KR102222290B1/en
Publication of KR20200129657A publication Critical patent/KR20200129657A/en
Application granted granted Critical
Publication of KR102222290B1 publication Critical patent/KR102222290B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명의 실시 형태는 대상 객체의 중심을 향한 다시점 영상을 획득하는 다시점 영상 획득 과정; 카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하는 교정 과정; 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리 과정; 전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 3D 메쉬 데이터 획득 과정;을 포함할 수 있다.An embodiment of the present invention provides a multi-view image acquisition process of obtaining a multi-view image toward the center of a target object; A calibration process of acquiring camera parameters and adjusting the acquired camera parameters; A pre-processing process in which image correction and illumination compensation are performed on the corrected multi-view image; It may include a 3D mesh data acquisition process of obtaining rendering of 3D mesh data according to a viewer's viewing position by using the preprocessed multi-view image.

Description

혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법{Method for gaining 3D model video sequence}Real-life-based omnidirectional 3D model video sequence acquisition method for dynamic 3D reality data driving in mixed reality environment {Method for gaining 3D model video sequence}

본 발명은 3D 모델 비디오 시퀀스 획득 방법으로서, 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법에 관한 것이다.The present invention relates to a method for obtaining a 3D model video sequence, and to a method for obtaining a 3D model video sequence based on a real-world image for driving dynamic 3D reality data in a mixed reality environment.

기존의 실사 기반의 홀로그램 비디오 콘텐츠 획득 방식은, 도 1에 도시한 바와 같이 2차원 단시점(일방향)의 그린스크린 영상을 촬영하여 배경을 제거한 후 2D 프레임을 추출하는 방식이다.As shown in FIG. 1, the conventional real-life-based holographic video content acquisition method is a method of extracting a 2D frame after removing a background by photographing a green screen image of a two-dimensional single view (one direction).

따라서 기존의 실사 기반의 전방위 3D 모델 획득 방식은, 정지된 객체에 대하여 다양한 각도에서 촬영 또는 스캔하는 방식으로 비디오 콘텐츠의 획득이 어려운 구조를 가지기 때문에, 360°다시점 체험이 요구되는 가상 및 혼합현실 환경에서는 비효율적인 방식이다.Therefore, the conventional 3D model acquisition method based on real-life photographs or scans a stationary object from various angles, so that it is difficult to acquire video content, and therefore, virtual and mixed reality that requires a 360° multi-view experience. It's an inefficient way in the environment.

일반적으로 정지된 객체의 3D 스캐닝 서비스 또는 기술이 대다수를 차지하며, 움직이는 객체에 대한 전방위 3D 모델 데이터를 개발한 기술(제품)이 없는 실정이다.In general, a 3D scanning service or technology for a stationary object accounts for the majority, and there is no technology (product) that has developed all-round 3D model data for a moving object.

따라서 다가올 4차 산업 서비스(보안, 에너지, 디스플레이, 의료, 교육 등)를 위해 다양한 산업 분야에서 활용될 혼합현실 관련 기술로서, 원천적으로 현실 데이터를 360°3차원 데이터로 생성하는 시퀀스 획득 기술의 개발 필요성이 절실하다.Therefore, as a mixed reality-related technology that will be used in various industries for the forthcoming 4th industrial service (security, energy, display, medical, education, etc.), the development of a sequence acquisition technology that essentially generates real data as 360° 3D data. The need is desperate.

한국등록특허 10-0717065Korean Patent Registration 10-0717065

본 발명의 기술적 과제는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 수단을 제공하는데 있다.An object of the present invention is to provide a real-life based omnidirectional 3D model video sequence acquisition means for driving dynamic 3D reality data in a mixed reality environment.

본 발명의 실시 형태는 대상 객체의 중심을 향한 다시점 영상을 획득하는 다시점 영상 획득 과정; 카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하는 교정 과정; 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리 과정; 전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 3D 메쉬 데이터 획득 과정;을 포함할 수 있다.An embodiment of the present invention provides a multi-view image acquisition process of obtaining a multi-view image toward the center of a target object; A calibration process of acquiring camera parameters and adjusting the acquired camera parameters; A pre-processing process in which image correction and illumination compensation are performed on the corrected multi-view image; It may include a 3D mesh data acquisition process of obtaining rendering of 3D mesh data according to a viewer's viewing position by using the preprocessed multi-view image.

상기 다시점 영상 획득 과정은, 각 카메라를 통해 촬영된 단일시점 영상에서 특징점을 추출하여, 각 단일시점 영상의 특징점에 대한 틀어짐을 매칭시켜 다시점 영상을 획득함을 특징으로 할 수 있다.The multi-view image acquisition process may be characterized in that a multi-view image is obtained by extracting a feature point from a single-view image captured by each camera and matching the distortion of the feature point of each single-view image.

상기 교정 과정은, 각 단일시점 영상을 촬영한 카메라의 파라미터를 획득하고, 획득한 카메라 파라미터를 조절하여 단시점 영상을 교정할 수 있다.In the calibration process, parameters of a camera in which each single-view image is captured, and the acquired camera parameters are adjusted to correct the single-view image.

상기 전처리 과정에서 영상 보정은, 카메라의 위치와 이를 보는 영상점간의 두 벡터들은 공통평면에 위치하도록 하는 등극선(epipolar) 기하학을 적용하여 호모그래피(homography)를 계산하여 각 단일 시점의 시점 영상을 일치시키도록 보정할 수 있다.In the pre-processing process, the image correction is performed by calculating a homography by applying an epipolar geometry in which two vectors between the camera position and the image point viewing it are located on a common plane, thereby calculating the viewpoint image of each single viewpoint. It can be calibrated to match.

상기 전처리 과정에서 조명 보상은, 각 카메라에 구비된 깊이 센서를 이용하여 대상 객체의 깊이를 감지하며, 각 카메라에서 촬영된 단일 시점 영상에 대한 깊이 맵(depth map)을 이용하여 각 단일 시점의 밝기를 일정한 값으로 보정할 수 있다.In the pre-processing process, the illumination compensation detects the depth of the target object using a depth sensor provided in each camera, and uses a depth map for a single view image captured by each camera to determine the brightness of each single view. Can be corrected to a constant value.

상기 3D 메쉬 데이터 획득 과정은, 보정된 다시점 영상을 이용하여 3D 메쉬 모델 시퀀스를 획득하는 과정; 3D 메쉬 모델 시퀀스를 이용하여 3D 메쉬 데이터를 획득하는 과정;을 포함할 수 있다.The process of obtaining 3D mesh data may include obtaining a 3D mesh model sequence using a corrected multi-view image; It may include a process of obtaining 3D mesh data using a 3D mesh model sequence.

본 발명의 실시 형태에 따르면 다시점 카메라 시스템을 이용하여 움직이는 객체에 대한 360도 라이브 시퀀스 획득이 가능하고, 전방위 비디오 시퀀스를 이용하여 3D 모델 형태의 데이터 획득이 가능하게 된다.According to an embodiment of the present invention, it is possible to obtain a 360-degree live sequence for a moving object using a multi-view camera system, and to obtain data in the form of a 3D model using an omni-directional video sequence.

도 1은 기존의 2차원 단시점의 그린스크린 영상을 이용한 홀로그램 비디오 콘텐츠 획득 방식의 예시 그림.
도 2는 본 발명의 실시예에 따른 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 시스템의 구성도.
도 3은 본 발명의 실시예에 따른 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법을 도시한 플로차트.
도 4는 본 발명의 실시예에 따른 시점간의 특징점 매칭 결과의 예시.
도 5는 본 발명의 실시예에 따른 카메라 보정을 위한 보정판의 예시 그림.
도 6은 본 발명의 실시예에 따라 다른 두 시점의 epipolar 기하학 계산의 예시 그림.
도 7은 본 발명의 실시예에 따라 조명 보상 전후를 도시한 그림.
도 8은 본 발명의 실시예에 따른 3D 메쉬 데이터의 수정과정의 예시.
도 9는 본 발명의 실시예에 따른 시청자의위치에 따른 3D 메쉬의 렌더링 예시.
도 10은 본 발명의 실시예에 따라 카메라 파라미터와 좌표계의 변환 예시.
도 11은 본 발명의 실시예에 따라 다시점 영상의 특징점 추출 및 매칭 예시.
도 12는 본 발명의 실시예에 따라 매칭점과 카메라 파라미터 정보를 이용한 3D Point Cloud의 획득 예시.
도 13은 본 발명의 실시예에 따라 대략적인 3D Point Cloud와 다시점 영상을 이용한 정밀한 3D Point Cloud 데이터 획득 예시.
1 is an exemplary diagram of a holographic video content acquisition method using a conventional two-dimensional single view green screen image.
2 is a block diagram of a system for acquiring a real-life 3D model video sequence based on a real-world image for driving dynamic 3D reality data in a mixed reality environment according to an embodiment of the present invention.
3 is a flowchart showing a method of obtaining a real-life 3D model video sequence based on a real-world image for driving dynamic 3D reality data in a mixed reality environment according to an embodiment of the present invention.
4 is an example of a result of matching feature points between viewpoints according to an embodiment of the present invention.
5 is an exemplary illustration of a correction plate for camera correction according to an embodiment of the present invention.
6 is an exemplary diagram of the calculation of epipolar geometry at two different points in time according to an embodiment of the present invention.
7 is a diagram showing before and after illumination compensation according to an embodiment of the present invention.
8 is an example of a process of modifying 3D mesh data according to an embodiment of the present invention.
9 is an example of rendering a 3D mesh according to a viewer's position according to an embodiment of the present invention.
10 is an example of conversion of a camera parameter and a coordinate system according to an embodiment of the present invention.
11 is an example of extracting and matching feature points of a multi-view image according to an embodiment of the present invention.
12 is an example of obtaining a 3D Point Cloud using matching points and camera parameter information according to an embodiment of the present invention.
13 is an example of obtaining precise 3D point cloud data using a rough 3D point cloud and a multi-view image according to an embodiment of the present invention.

이하, 본 발명의 장점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은, 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 또한, 본 발명을 설명함에 있어 관련된 공지 기술 등이 본 발명의 요지를 흐리게 할 수 있다고 판단되는 경우 그에 관한 자세한 설명은 생략하기로 한다.Hereinafter, advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and is provided to completely inform the scope of the invention to those of ordinary skill in the art to which the present invention pertains. As such, the invention is only defined by the scope of the claims. In addition, in describing the present invention, when it is determined that related known technologies or the like may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

도 2는 본 발명의 실시예에 따른 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 시스템의 구성도이다.2 is a block diagram of a system for acquiring a real-life 3D model video sequence based on a real-world image for driving dynamic 3D reality data in a mixed reality environment according to an embodiment of the present invention.

본 발명은 다시점 카메라 시스템을 이용하여 움직이는 객체에 대한 360° 라이브 시퀀스 획득이 가능하고, 전방위 비디오 시퀀스를 이용하여 3D 모델 형태의 데이터 획득이 가능하도록 한다. 따라서 기존의 3D 스캔 시스템은 정지 상태의 마네킨을 만들어 낸다고 하면 본 발명의 3D 라이브 시퀀셜 시스템은 시간에 따른 동작 변화를 그대로 담아낼 수 있다.The present invention enables acquisition of a 360° live sequence for a moving object using a multi-view camera system, and data acquisition in the form of a 3D model using an omnidirectional video sequence. Therefore, assuming that the existing 3D scan system creates a mannequin in a stationary state, the 3D live sequential system of the present invention can capture the change in motion over time as it is.

이를 위하여 본 발명은 도 1에 도시한 바와 같이 대상 객체의 중심을 향한 다시점 영상을 획득하는 복수개의 카메라를 구비한다. 복수개의 카메라를 통해 획득한 다시점 영상을 이용하여 영상 처리 장치가 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스를 생성해낸다.To this end, the present invention includes a plurality of cameras for acquiring a multi-view image toward the center of a target object, as shown in FIG. 1. Using multi-view images acquired through a plurality of cameras, the image processing device generates a real-life 3D model video sequence based on real-life for dynamic 3D reality data driving in a mixed reality environment.

영상 처리 장치는, 컴퓨터, 서버 등과 같이 CPU와 메모리를 구비하여 연산 처리가 가능한 장치로서, 본 발명의 영상 처리 장치는, 복수개의 카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하여 교정한 후, 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리를 수행하고, 전처리된 다시점 영상을 이용하여 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하게 된다. 이하 도 3 내지 도 13과 함께 상술한다.The image processing device is a device capable of arithmetic processing by having a CPU and a memory such as a computer or a server, and the image processing device of the present invention acquires a plurality of camera parameters, adjusts and corrects the acquired camera parameters, and then calibrates them. Pre-processing in which image correction and lighting compensation are performed on the multi-view image is performed, and rendering of 3D mesh data according to the viewing position of the viewer is obtained by using the pre-processed multi-view image. It will be described in detail with reference to FIGS. 3 to 13 below.

도 3은 본 발명의 실시예에 따른 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법을 도시한 플로차트이며, 도 4는 본 발명의 실시예에 따른 시점간의 특징점 매칭 결과의 예시이며, 도 5는 본 발명의 실시예에 따른 카메라 보정을 위한 보정판의 예시 그림이며, 도 6은 본 발명의 실시예에 따라 다른 두 시점의 epipolar 기하학 계산의 예시 그림이며, 도 7은 본 발명의 실시예에 따라 조명 보상 전후를 도시한 그림이며, 도 8은 본 발명의 실시예에 따른 3D 메쉬 데이터의 수정과정의 예시이며, 도 9는 본 발명의 실시예에 따른 시청자의위치에 따른 3D 메쉬의 렌더링 예시이며, 도 10은 본 발명의 실시예에 따라 카메라 파라미터와 좌표계의 변환 예시이며, 도 11은 본 발명의 실시예에 따라 다시점 영상의 특징점 추출 및 매칭 예시이며, 도 12는 본 발명의 실시예에 따라 매칭점과 카메라 파라미터 정보를 이용한 3D Point Cloud의 획득 예시이며, 도 13은 본 발명의 실시예에 따라 대략적인 3D Point Cloud와 다시점 영상을 이용한 정밀한 3D Point Cloud 데이터 획득 예시이다.FIG. 3 is a flowchart showing a method of obtaining a real-world-based omnidirectional 3D model video sequence for driving dynamic 3D reality data in a mixed reality environment according to an embodiment of the present invention, and FIG. 4 is a view point according to an embodiment of the present invention. It is an example of the result of matching feature points between, and FIG. 5 is an example of a correction plate for camera calibration according to an embodiment of the present invention, and FIG. 6 is an example of epipolar geometry calculation of two different viewpoints according to an embodiment of the present invention, 7 is a diagram showing before and after illumination compensation according to an embodiment of the present invention, FIG. 8 is an example of a correction process of 3D mesh data according to an embodiment of the present invention, and FIG. 9 is a viewer according to an embodiment of the present invention. It is an example of rendering a 3D mesh according to the position of, FIG. 10 is an example of conversion of a camera parameter and a coordinate system according to an embodiment of the present invention, and FIG. 11 is an example of extracting and matching feature points of a multi-view image according to an embodiment of the present invention. 12 is an example of obtaining a 3D point cloud using matching point and camera parameter information according to an embodiment of the present invention, and FIG. 13 is a precise 3D point cloud using a rough 3D point cloud and a multi-view image according to an embodiment of the present invention. This is an example of acquiring Point Cloud data.

본 발명의 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법은, 도 3에 도시한 바와 같이 대상 객체의 중심을 향한 다시점 영상을 획득하는 다시점 영상 획득 과정과, 다시점 영상의 파라미터를 획득하여 획득한 파라미터를 조절하는 교정 과정과, 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리 과정과, 전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 3D 메쉬 데이터 획득 과정을 포함할 수 있다.The method of obtaining a 3D model video sequence based on realism of the present invention includes a multi-view image acquisition process of acquiring a multi-view image toward the center of a target object as shown in FIG. 3, and acquisition of a multi-view image parameter. A calibration process for adjusting one parameter, a pre-processing process in which image correction and lighting compensation are performed for the corrected multi-view image, and 3D mesh data rendering according to the viewing position of the viewer are obtained using the pre-processed multi-view image. It may include a process of obtaining 3D mesh data.

다시점 영상 획득 과정은, 복수개의 카메라가 대상 객체의 중심을 향한 다시점 영상을 획득하는 과정이다.The multi-view image acquisition process is a process in which a plurality of cameras acquire a multi-view image toward the center of a target object.

3D 메쉬(Mesh) 획득을 고려하여 카메라가 촬영하는 대상 객체는 다음과 같은 특성을 가진다.In consideration of obtaining a 3D mesh, the target object photographed by the camera has the following characteristics.

- 피해야 할 대상 객체의 특성-Characteristics of target objects to be avoided

ㆍ투명한 표면을 가진 객체(비누방울, 유리, etc.)ㆍObjects with a transparent surface (soap drops, glass, etc.)

ㆍ강한 빛을 발광/반사 하는 객체(거울, 전구, etc.)ㆍObjects that emit/reflect strong light (mirror, light bulb, etc.)

ㆍ표면의 변화가 거의 없는 단조로운 객체ㆍA monotonous object with almost no surface change

- 카메라간의 틀어짐(겹침) 정도-Degree of distortion (overlap) between cameras

ㆍ시점간의 매칭되는 특징점 증가ㆍIncrease of matching feature points between time points

ㆍ특징점 추출 기법의 GPGPU 프로그래밍을 통한 병렬고속화 및 특징점 최대화 ㆍHigh-speed parallelism and maximized feature point through GPGPU programming of feature point extraction technique

따라서 다시점 영상 획득 과정은, 각 카메라를 통해 촬영된 단일시점 영상에서 특징점을 추출하여, 각 단일시점 영상의 특징점에 대한 틀어짐을 매칭시켜 다시점 영상을 획득할 수 있게 된다.Accordingly, in the process of obtaining a multi-view image, a multi-view image can be obtained by extracting a feature point from a single-view image captured by each camera and matching the distortion of the feature point of each single-view image.

예를 들어, 도 4(a)에 도시한 바와 특징점의 틀어짐을 매칭시키게 되면 두 개의 영상이 매칭되나, 도 4(b)에 도시한 바와 같이 특징점의 매칭이 대부분 이루어지지 않는다면 다시점 영상을 획득할 수 없게 된다.For example, when matching the misalignment of the feature points as shown in FIG. 4(a), two images are matched, but if most of the feature points are not matched as shown in FIG. 4(b), a multi-view image is obtained. It becomes impossible to do it.

교정 과정은, 카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하는 과정이다. 각 카메라의 파라미터가 서로 다를 수 있기 때문에 이들을 일치시켜 촬영되는 단일 시점 영상의 촬영 속성을 일치시키기 위함이다.The calibration process is a process of acquiring camera parameters and adjusting the acquired camera parameters. Since the parameters of each camera may be different, the purpose is to match the shooting properties of the single-view image by matching them.

바람직하게는 교정 과정은, 각 단일시점 영상을 촬영한 카메라의 파라미터를 획득하고, 획득한 카메라 파라미터를 조절하여 단일시점 영상을 교정하게 된다. 예를 들어, 각 카메라의 초점거리(focal length), 확대인자(scale factor), 영상의 중심(image center), 렌즈 왜곡 파라미터(lens distortion parameter)를 포함하는 카메라 내부 파라미터와, 각 카메라의 회전(rotation) 및 이동(translation)을 포함하는 카메라 외부 파라미터를 획득하여, 각 카메라의 내부 파라미터와 외부 파라미터가 동일한 값을 가지도록 교정하는 것이다.Preferably, in the calibration process, parameters of a camera that has captured each single-view image are acquired, and the acquired camera parameters are adjusted to correct the single-view image. For example, in-camera parameters including focal length, scale factor, image center, and lens distortion parameter of each camera, and rotation of each camera ( By acquiring the external parameters of the camera including rotation) and translation, the internal parameters and external parameters of each camera are corrected so that they have the same value.

참고로 이러한 교정은, 점/선의 속성을 이용한 방법, 도 5에 도시한 바와 같이 특정 패턴(보정판)을 이용한 방법을 통해 카메라 교정이 이루어질 수 있다.For reference, camera calibration may be performed through a method using a dot/line attribute or a method using a specific pattern (correction plate) as shown in FIG. 5.

전처리 과정은, 교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 과정이다.The pre-processing is a process in which image correction and illumination compensation are performed on the corrected multi-view image.

전처리 과정은, 영상 보정과 조명 보상으로 이루어질 수 있다.The pre-processing process may consist of image correction and illumination compensation.

첫째로, 전처리 과정에서의 영상 보정은, 카메라의 미세한 뒤틀림에 의한 오차 개선을 위한 영상 보정이 이루어지며, 카메라 쌍별 카메라 rectification 및 calibration을 수행하고 입체보정객체를 활용한 입체적 보정이 이루어질 수 있다. 또한 깊이 센서(Depth sensor)를 이용하여 depth 및 RGB 영상의 통합적 보정이 이루어질 수 있다.First, in the image correction in the preprocessing process, the image correction is performed to improve the error due to the slight distortion of the camera, the camera rectification and calibration are performed for each camera pair, and the three-dimensional correction using the three-dimensional correction object can be performed. In addition, an integrated correction of the depth and RGB images may be performed using a depth sensor.

나아가, 영상 보정은, 카메라의 위치와 이를 보는 영상점간의 두 벡터들은 공통평면에 위치하도록 하는 등극선(epipolar) 기하학을 적용하여 호모그래피(homography)를 계산하여 각 단일 시점의 시점 영상을 일치시키도록 하는 보정이 이루어질 수 있다.Furthermore, for image correction, homography is calculated by applying an epipolar geometry in which two vectors between the position of the camera and the image point viewing it are located on a common plane to match the viewpoint image of each single viewpoint. Correction to be made can be made.

등극선 기하학(epipolar Geometry)은, 양안시(Stereo vision)의 이론적 배경으로 3차원의 한 점을 두 카메라에서 얻은 영상정보는 카메라의 위치와 이를 보는 영상점의 두 벡터는 공통평면상에 존재한다는 이론으로서, 이러한 등극선 기하학을 적용하여 도 6과 같이 다른 두 시점의 등극선(epipolar) 기하학을 계산하여 각 단일 시점의 시점 영상을 일치시키는 보정을 하는 것이다.Epipolar Geometry is the theoretical background of stereo vision, and the image information obtained from two cameras at a point in three dimensions is that the two vectors of the position of the camera and the image point viewing it exist on a common plane. As a theory, this isopolar geometry is applied to calculate the epipolar geometry of two different viewpoints as shown in FIG. 6 to perform correction to match the viewpoint images of each single viewpoint.

둘째로, 전처리 과정에서의 조명 보상은, 각 카메라에 구비된 깊이 센서를 이용하여 대상 객체의 깊이를 감지하며, 각 카메라에서 촬영된 단일 시점 영상에 대한 깊이 맵(depth map)을 이용하여 각 단일 시점의 밝기를 일정한 값으로 보정하는 것이다. 즉, 다시점 영상에서 조명에 의한 밝기를 일정하게 유지하도록, Depth 카메라 기반의 depth map을 이용하여 카메라 개수 축소 및 개선하여 최적화하는 것이다. 참고로 도 7은 조명 보상 전후를 도시한 그림이다.Second, the illumination compensation in the preprocessing process detects the depth of the target object using a depth sensor provided in each camera, and uses a depth map for a single view image captured by each camera. It is to correct the brightness of the viewpoint to a certain value. That is, the number of cameras is reduced and improved by using a depth map based on a depth camera so as to maintain a constant brightness due to lighting in a multi-view image. For reference, FIG. 7 is a diagram illustrating before and after illumination compensation.

3D 메쉬 데이터 획득 과정은, 전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 과정이다. 즉, 도 8과 같이 고품질 3D 메쉬(Mesh) 데이터를 위한 수정 및 프레임 연결하고, 도 9와 같이 시청자의 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하게 된다. 참고로, 3D 메쉬 데이터라 함은, 3D 모델을 획득하기 위해 필요로 하는 3차원 형상 데이터로서, 3차원 형상 데이터가 STL(Standard Triangulated Language) 데이터 형식으로 보관될 수도 있다.The process of obtaining 3D mesh data is a process of obtaining rendering of 3D mesh data according to a viewer's viewing position using a preprocessed multi-view image. That is, as shown in FIG. 8, correction and frame connection are performed for high-quality 3D mesh data, and rendering of 3D mesh data according to a viewer's position is obtained as shown in FIG. 9. For reference, 3D mesh data is 3D shape data required to acquire a 3D model, and 3D shape data may be stored in a standard triangulated language (STL) data format.

3D 메쉬 데이터 획득 과정은, 보정된 다시점 영상을 이용하여 3D 메쉬 모델 시퀀스를 획득하는 과정과, 3D 메쉬 모델 시퀀스를 이용하여 3D 메쉬 데이터를 획득하는 과정을 가질 수 있다. 상기에서 시퀀스를 획득하는 과정과 3D 메쉬 데이터를 획득하는 과정은 공지된 다양한 방식이 적용될 수 있을 것이다.The process of obtaining 3D mesh data may include a process of obtaining a 3D mesh model sequence using a corrected multi-view image and a process of obtaining 3D mesh data using a 3D mesh model sequence. Various known methods may be applied to the process of acquiring the sequence and the process of acquiring 3D mesh data in the above.

예를 들어, 3D 메쉬 모델 시퀀스를 획득하는 과정은, 고품질 3D Mesh 데이터 획득을 위한 카메라 사이의 중간시점 비디오 시퀀스 생성하여 3D 메쉬 모델 시퀀스를 획득한다.For example, in the process of obtaining a 3D mesh model sequence, a 3D mesh model sequence is obtained by generating a mid-view video sequence between cameras for obtaining high quality 3D mesh data.

- 중간시점 생성을 위한 깊이정보의 획득-Acquisition of depth information to create an intermediate point of view

ㆍ두 시점의 비디오 시퀀스에 스테레오매칭을 적용하여 깊이정보 획득ㆍAcquisition of depth information by applying stereo matching to the video sequence of two viewpoints

ㆍToF(Time-of-Flight) 형식의 깊이 카메라를 이용한 깊이 정보 획득ㆍAcquisition of depth information using ToF (Time-of-Flight) type depth camera

ㆍMicrosoft사의 Kinect2의 깊이 정보를 이용한 깊이 정보의 획득ㆍAcquisition of depth information using depth information of Microsoft's Kinect2

- 핀홀카메라 모델과 3D 워핑을 이용한 중간시점의 비디오 시퀀스 획득-Acquisition of mid-view video sequence using pinhole camera model and 3D warping

ㆍCalibration을 통해 획득한 카메라 파라미터(K, R|t)를 이용한 좌표계 변환(도 10)ㆍCoordinate system transformation using camera parameters (K, R|t) acquired through calibration (Fig. 10)

ㆍ좌표계 변환을 통한 중간시점의 시퀀스 영상 생성ㆍGenerating a sequence image at the mid-point through coordinate system conversion

또한 3D 메쉬 모델 시퀀스를 이용하여 3D 메쉬 데이터를 획득하는 예시를 상술하면 다음과 같다.In addition, an example of acquiring 3D mesh data using a 3D mesh model sequence will be described in detail below.

- 다시점 영상의 특징점 획득 및 매칭(도 11)-Acquisition and matching of feature points of multi-view images (Fig. 11)

ㆍ특징점 추출을 위한 SIFT 알고리즘의 구현ㆍImplementation of SIFT algorithm for feature extraction

ㆍ다시점 영상의 추출된 특징점을 이용한 매칭 알고리즘(RANSAC) 구현ㆍImplementation of matching algorithm (RANSAC) using extracted feature points of multi-view image

- 매칭점을 이용한 3D Mesh 데이터 획득(도 12)-Acquisition of 3D Mesh data using matching points (Fig. 12)

ㆍ매칭 점을 이용한 SfM(Structure from Motion)을 구하고, 대략적인 point cloud 데이터의 획득매칭 점을 이용한 SfM(Structure from Motion)을 구하고, 대략적인 point cloud 데이터의 획득ㆍCalculate SfM (Structure from Motion) using matching points and obtain approximate point cloud data Calculate SfM (Structure from Motion) using matching points and acquire approximate point cloud data

- 대략적인 point cloud 데이터와 다시점 영상을 이용한 정밀한 point cloud 데이터 획득(도 13)-Acquisition of precise point cloud data using approximate point cloud data and multi-view images (Fig. 13)

ㆍPMVS(Patch-based Multi-View Stereoscopic)ㆍPMVS(Patch-based Multi-View Stereoscopic)

상술한 본 발명의 설명에서의 실시예는 여러가지 실시가능한 예중에서 당업자의 이해를 돕기 위하여 가장 바람직한 예를 선정하여 제시한 것으로, 이 발명의 기술적 사상이 반드시 이 실시예만 의해서 한정되거나 제한되는 것은 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 다양한 변화와 변경 및 균등한 타의 실시예가 가능한 것이다.The embodiments in the description of the present invention described above are presented by selecting the most preferable examples to aid the understanding of those skilled in the art from among various possible examples, and the technical idea of the present invention is not necessarily limited or limited only by this embodiment. , Various changes and modifications and other equivalent embodiments are possible within the scope of the technical spirit of the present invention.

Claims (6)

대상 객체의 중심을 향한 다시점 영상을 획득하는 다시점 영상 획득 과정;
카메라 파라미터를 획득하여 획득한 카메라 파라미터를 조절하는 교정 과정;
교정된 다시점 영상에 대한 영상 보정 및 조명 보상이 이루어지는 전처리 과정;
전처리된 다시점 영상을 이용하여, 시청자의 시청 위치에 따른 3D 메쉬 데이터의 렌더링을 획득하는 3D 메쉬 데이터 획득 과정;을 포함하고,
상기 다시점 영상 획득 과정은, 각 카메라를 통해 촬영된 단일시점 영상에서 특징점을 추출하여, 각 단일시점 영상의 특징점에 대한 틀어짐을 매칭시켜 다시점 영상을 획득하며,
상기 교정 과정은, 각 단일시점 영상을 촬영한 카메라의 파라미터를 획득하고, 획득한 카메라 파라미터를 조절하여 단일시점 영상을 교정하도록, 각 카메라의 초점거리(focal length), 확대인자(scale factor), 영상의 중심(image center), 렌즈 왜곡 파라미터(lens distortion parameter)를 포함하는 카메라 내부 파라미터와, 각 카메라의 회전(rotation) 및 이동(translation)을 포함하는 카메라 외부 파라미터를 획득하여, 각 카메라의 내부 파라미터와 외부 파라미터가 동일한 값을 가지도록 교정하고,
상기 전처리 과정에서 조명 보상은, 각 카메라에 구비된 깊이 센서를 이용하여 대상 객체의 깊이를 감지하며, 각 카메라에서 촬영된 단일 시점 영상에 대한 깊이 맵(depth map)을 이용하여 각 단일 시점의 밝기를 일정한 값으로 보정하며,
상기 3D 메쉬 데이터 획득 과정은, 보정된 다시점 영상을 이용하여 3D 메쉬 모델 시퀀스를 획득하는 과정; 3D 메쉬 모델 시퀀스를 이용하여 3D 메쉬 데이터를 획득하는 과정;을 포함하는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법.
A multi-view image acquisition process of obtaining a multi-view image toward the center of the target object;
A calibration process of acquiring camera parameters and adjusting the acquired camera parameters;
A pre-processing process in which image correction and illumination compensation are performed on the corrected multi-view image;
Including; 3D mesh data acquisition process of obtaining rendering of 3D mesh data according to the viewing position of the viewer by using the preprocessed multi-view image,
In the multi-view image acquisition process, feature points are extracted from single-view images captured by each camera, and a multi-view image is obtained by matching distortions of the feature points of each single-view image,
In the calibration process, a focal length, a scale factor of each camera, and a scale factor of each camera are obtained so as to obtain the parameters of a camera that has captured each single-view image and adjust the acquired camera parameters to correct the single-view image. By acquiring camera internal parameters including image center and lens distortion parameter, and camera external parameters including rotation and translation of each camera, Calibrate so that the parameter and the external parameter have the same value,
In the pre-processing process, the illumination compensation detects the depth of the target object using a depth sensor provided in each camera, and uses a depth map for a single view image captured by each camera to determine the brightness of each single view Is corrected to a constant value,
The process of obtaining 3D mesh data may include obtaining a 3D mesh model sequence using a corrected multi-view image; A process of acquiring 3D mesh data using a 3D mesh model sequence; a photorealistic-based omnidirectional 3D model video sequence acquisition method for driving dynamic 3D reality data in a mixed reality environment including.
삭제delete 삭제delete 청구항 1에 있어서, 상기 전처리 과정에서 영상 보정은,
카메라의 위치와 이를 보는 영상점간의 두 벡터들은 공통평면에 위치하도록 하는 등극선(epipolar) 기하학을 적용하여 호모그래피(homography)를 계산하여 각 단일 시점의 시점 영상을 일치시키도록 보정함을 특징으로 하는 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3D 모델 비디오 시퀀스 획득 방법.
The method according to claim 1, wherein the image correction in the pre-processing process,
The two vectors between the position of the camera and the image point viewing it are computed by applying an epipolar geometry to be located on a common plane, and corrected to match the viewpoint image of each single viewpoint. Real-life-based omnidirectional 3D model video sequence acquisition method for driving dynamic 3D reality data in a mixed reality environment.
삭제delete 삭제delete
KR1020190054393A 2019-05-09 2019-05-09 Method for gaining 3D model video sequence KR102222290B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190054393A KR102222290B1 (en) 2019-05-09 2019-05-09 Method for gaining 3D model video sequence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190054393A KR102222290B1 (en) 2019-05-09 2019-05-09 Method for gaining 3D model video sequence

Publications (2)

Publication Number Publication Date
KR20200129657A KR20200129657A (en) 2020-11-18
KR102222290B1 true KR102222290B1 (en) 2021-03-03

Family

ID=73697529

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190054393A KR102222290B1 (en) 2019-05-09 2019-05-09 Method for gaining 3D model video sequence

Country Status (1)

Country Link
KR (1) KR102222290B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101460A1 (en) * 2022-11-07 2024-05-16 팜피 주식회사 Method for generating 3d object by using preprocessed images and device therefor

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11823327B2 (en) 2020-11-19 2023-11-21 Samsung Electronics Co., Ltd. Method for rendering relighted 3D portrait of person and computing device for the same
WO2022108067A1 (en) * 2020-11-19 2022-05-27 Samsung Electronics Co., Ltd. Method for rendering relighted 3d portrait of person and computing device for the same
CN114125434A (en) * 2021-11-26 2022-03-01 重庆盛泰光电有限公司 3D correcting unit of TOF camera
CN115147524B (en) * 2022-09-02 2023-01-17 荣耀终端有限公司 3D animation generation method and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100755450B1 (en) * 2006-07-04 2007-09-04 중앙대학교 산학협력단 3d reconstruction apparatus and method using the planar homography

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100603601B1 (en) * 2004-11-08 2006-07-24 한국전자통신연구원 Apparatus and Method for Production Multi-view Contents
KR100717065B1 (en) 2006-05-03 2007-05-10 삼성전자주식회사 Hologram recording and reproducing apparatus, hologram recording and reproducing method and hologram recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100755450B1 (en) * 2006-07-04 2007-09-04 중앙대학교 산학협력단 3d reconstruction apparatus and method using the planar homography

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101460A1 (en) * 2022-11-07 2024-05-16 팜피 주식회사 Method for generating 3d object by using preprocessed images and device therefor

Also Published As

Publication number Publication date
KR20200129657A (en) 2020-11-18

Similar Documents

Publication Publication Date Title
KR102222290B1 (en) Method for gaining 3D model video sequence
US9438878B2 (en) Method of converting 2D video to 3D video using 3D object models
EP3018903B1 (en) Method and system for projector calibration
KR101761751B1 (en) Hmd calibration with direct geometric modeling
US9357206B2 (en) Systems and methods for alignment, calibration and rendering for an angular slice true-3D display
EP3163535B1 (en) Wide-area image acquisition method and device
JP5340952B2 (en) 3D projection display
CN110809786B (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
US20140375775A1 (en) Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US20140327736A1 (en) External depth map transformation method for conversion of two-dimensional images to stereoscopic images
JP2010113720A (en) Method and apparatus for combining range information with optical image
US11398007B2 (en) Video generation device, video generation method, program, and data structure
KR100668073B1 (en) Method for calibrating distortion of multi-view image
US9380263B2 (en) Systems and methods for real-time view-synthesis in a multi-camera setup
CN111009030A (en) Multi-view high-resolution texture image and binocular three-dimensional point cloud mapping method
WO2018032841A1 (en) Method, device and system for drawing three-dimensional image
CN110648274A (en) Fisheye image generation method and device
US10802390B2 (en) Spherical omnipolar imaging
KR101817753B1 (en) PTM making system with improved shape of 3D model and method using the same
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
KR20140004604A (en) Apparatus and method for generating 3 dimension face
CN105282534B (en) For being embedded in the system and method for stereo-picture
KR101351745B1 (en) Apparatus and method for generating 3 dimension face
KR101748674B1 (en) Method and apparatus for producing three-dimensional image
Gurrieri et al. Stereoscopic cameras for the real-time acquisition of panoramic 3D images and videos

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant