KR102572415B1 - Method and apparatus for creating a natural three-dimensional digital twin through verification of a reference image - Google Patents

Method and apparatus for creating a natural three-dimensional digital twin through verification of a reference image Download PDF

Info

Publication number
KR102572415B1
KR102572415B1 KR1020220152625A KR20220152625A KR102572415B1 KR 102572415 B1 KR102572415 B1 KR 102572415B1 KR 1020220152625 A KR1020220152625 A KR 1020220152625A KR 20220152625 A KR20220152625 A KR 20220152625A KR 102572415 B1 KR102572415 B1 KR 102572415B1
Authority
KR
South Korea
Prior art keywords
reference image
digital twin
image frames
twin space
unit
Prior art date
Application number
KR1020220152625A
Other languages
Korean (ko)
Other versions
KR20230062462A (en
Inventor
김화성
신현규
Original Assignee
(주)넥스트빅스튜디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)넥스트빅스튜디오 filed Critical (주)넥스트빅스튜디오
Priority to KR1020220152625A priority Critical patent/KR102572415B1/en
Publication of KR20230062462A publication Critical patent/KR20230062462A/en
Application granted granted Critical
Publication of KR102572415B1 publication Critical patent/KR102572415B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Abstract

심층 신경망을 이용하여 3차원 디지털 트윈 공간을 제공하기 위한 장치 및 방법이 개시된다. 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 3차원 디지털 트윈 공간을 구성하는데 사용할 레퍼런스 이미지 프레임들을 선정하는 프레임 선택부; 적어도 둘의 레퍼런스 이미지 프레임에서 객체영상을 검출하고, 해당 객체영상을 추출하는 객체영상 추출부; 적어도 둘의 레퍼런스 이미지 프레임의 객체영상으로부터 특징점을 추출하고, 각 객체영상에서 각각 매칭되는 특징점들을 찾아 연결하여 특징점을 매칭하는 특징점 매칭부; 매칭된 특징점을 이용하여 특징점의 속성을 결정하고, 결정된 특징점의 속성에 기초하여 카메라 정보를 결정하는 카메라 정보 결정부; 상기 카메라 정보에 포함된 각각의 레퍼런스 이미지 프레임의 카메라간 상대적인 위치에 기초하여 프레임 선택부가 영상처리에 적합한 프레임을 선택하였는지 여부를 판단하는 레퍼런스 이미지 프레임 검증부; 선정된 레퍼런스 이미지 프레임들을 기반으로 3차원 복원(3D reconstruction)을 수행하여 3차원 디지털 트윈 공간을 생성하는 3차원 디지털 트윈 공간 생성부; 및 생성된 3차원 디지털 트윈 공간에 사용자 단말의 접근을 관리하는 3차원 디지털 트윈 공간 관리부를 포함한다.An apparatus and method for providing a 3D digital twin space using a deep neural network are disclosed. a frame selector selecting reference image frames to be used to construct a 3D digital twin space among a plurality of image frames constituting a video obtained from a user terminal; an object image extraction unit for detecting object images from at least two reference image frames and extracting the corresponding object images; a feature point matching unit that extracts feature points from object images of at least two reference image frames, finds and connects matching feature points in each object image, and matches the feature points; a camera information determination unit determining attributes of the feature points using the matched feature points, and determining camera information based on the attributes of the determined feature points; a reference image frame verifying unit determining whether or not a frame selecting unit has selected a frame suitable for image processing based on the relative position between cameras of each reference image frame included in the camera information; a 3D digital twin space generating unit generating a 3D digital twin space by performing 3D reconstruction based on selected reference image frames; and a 3D digital twin space manager managing access of the user terminal to the created 3D digital twin space.

Description

레퍼런스 이미지의 검증을 통해 자연스러운 3차원 디지털 트윈을 생성하기 위한 방법 및 장치{METHOD AND APPARATUS FOR CREATING A NATURAL THREE-DIMENSIONAL DIGITAL TWIN THROUGH VERIFICATION OF A REFERENCE IMAGE}METHOD AND APPARATUS FOR CREATING A NATURAL THREE-DIMENSIONAL DIGITAL TWIN THROUGH VERIFICATION OF A REFERENCE IMAGE}

본 발명은 3차원 디지털 트윈 공간을 제공하는 기술에 관한 것으로, 더욱 상세하게는 레퍼런스 이미지의 검증을 통해 자연스러운 3차원 디지털 트윈을 생성하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a technology for providing a 3D digital twin space, and more particularly, to a method and apparatus for generating a natural 3D digital twin through verification of a reference image.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, material described in this section is not prior art to the claims in this application, and inclusion in this section is not an admission that it is prior art.

영상 콘텐츠 제작 분야는 노동집약적 작업 방식으로 효율성이 매우 낮다. 예를 들어, 배우가 연기하는 배경을 실제로 제작하기 위해서는 많은 시간과 비용이 소모된다. In the field of video content production, efficiency is very low due to labor-intensive work methods. For example, it takes a lot of time and money to actually produce a background in which actors act.

이를 해결하기 위해, 영상 산업의 혁신적 흐름으로 "가상 제작(Virtual Production)"이 대두되고 있다. LED 판넬벽에 가상으로 제작한 배경을 띄워 촬영하는 방식이 사용되고 있다.To solve this problem, "Virtual Production" is emerging as an innovative trend in the video industry. A method of filming by floating a virtually created background on the LED panel wall is being used.

그러나, 가상 배경을 제작하는 데에도, 3차원 형상 복원을 하는 데 필요한 스캔 데이터의 품질을 육안으로 검수하는 등 노동집약적 작업 방식으로 그 효율성이 매우 낮다. However, even in producing a virtual background, the efficiency is very low due to labor-intensive work methods such as visually inspecting the quality of scan data required for 3D shape restoration.

따라서, 사용자가 촬영한 동영상에 기초하여 자동적으로 디지털 트윈 공간을 생성하여, 이를 제공하는 기술의 필요성이 대두되었다.Therefore, the need for a technology that automatically creates and provides a digital twin space based on a video taken by a user has emerged.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 심층 신경망을 이용하여 3차원 디지털 트윈 공간을 제공하기 위한 장치 및 방법을 제공하는 데 있다.An object of the present invention to solve the above problems is to provide a device and method for providing a 3D digital twin space using a deep neural network.

상기 목적을 달성하기 위한 본 발명의 일 측면은, 심층 신경망을 이용하여 3차원 디지털 트윈 공간을 제공하기 위한 장치를 제공한다.One aspect of the present invention for achieving the above object provides an apparatus for providing a three-dimensional digital twin space using a deep neural network.

상기 장치는, 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 3차원 디지털 트윈 공간을 구성하는데 사용할 레퍼런스 이미지 프레임들을 선정하는 프레임 선택부; 선정된 적어도 둘의 레퍼런스 이미지 프레임들에서 객체영상을 검출하고, 해당 객체영상을 추출하는 객체영상 추출부; 적어도 둘의 레퍼런스 이미지 프레임들 각각의 객체영상으로부터 특징점을 추출하고, 추출된 특징점들을 서로 매칭시키는 특징점 매칭부; 매칭된 특징점들을 이용하여 특징점들 각각의 속성을 결정하고, 결정된 특징점들 각각의 속성에 기초하여 카메라 정보를 결정하는 카메라 정보 결정부; 상기 카메라 정보에 포함된 각각의 레퍼런스 이미지 프레임와 대응하는 카메라들 사이의 상대적인 위치에 기초하여 상기 레퍼런스 이미지 프레임들을 검증하는 레퍼런스 이미지 프레임 검증부; 검증된 레퍼런스 이미지 프레임들을 기반으로 3차원 복원(3D reconstruction)을 수행하여 3차원 디지털 트윈 공간을 생성하는 3차원 디지털 트윈 공간 생성부; 및 생성된 3차원 디지털 트윈 공간에 대한 사용자 단말의 접근을 관리하는 3차원 디지털 트윈 공간 관리부를 포함한다.The apparatus includes: a frame selector for selecting reference image frames to be used to construct a 3D digital twin space among a plurality of image frames constituting a video obtained from a user terminal; an object image extraction unit for detecting an object image from at least two selected reference image frames and extracting the corresponding object image; a feature point matching unit that extracts feature points from the object images of each of the at least two reference image frames and matches the extracted feature points with each other; a camera information determination unit for determining attributes of each of the feature points using the matched feature points, and determining camera information based on the attributes of each of the determined feature points; a reference image frame verifying unit verifying the reference image frames based on relative positions between each reference image frame included in the camera information and corresponding cameras; a 3D digital twin space generation unit generating a 3D digital twin space by performing 3D reconstruction based on verified reference image frames; and a 3D digital twin space manager managing access of the user terminal to the created 3D digital twin space.

상기 객체영상 추출부는, 적어도 둘의 레퍼런스 이미지 프레임 각각에서 색상의 차이를 이용하여 전경과 배경을 분리하여 상기 객체영상을 추출할 수 있다.The object image extraction unit may extract the object image by separating a foreground and a background using a difference in color in each of at least two reference image frames.

상기 프레임 선택부는, 상기 동영상을 구성하고 연속한 시간으로 연결되는 상기 복수의 이미지 프레임들의 집합에서 일정한 제1 시간 간격과 대응하는 이미지 프레임들을 레퍼런스 이미지 프레임들로 선택할 수 있다.The frame selector may select, as reference image frames, image frames corresponding to a first constant time interval from the set of the plurality of image frames constituting the video and connected in successive times.

상기 레퍼런스 이미지 프레임 검증부는, 복수의 레퍼런스 이미지들 중 객체와 가장 가까운 거리의 레퍼런스 이미지 프레임에 해당하는 카메라의 위치를 기준 위치로 정하고, 상기 기준 위치와 객체의 기준점을 이은 선분을 반지름으로 갖는 2차원 원을 상기 기준점을 중심으로 그리고, 나머지 레퍼런스 이미지들에 대응하는 카메라의 위치들을 상기 기준점을 원점으로 갖는 좌표계에 나타내고,The reference image frame verifying unit determines the position of the camera corresponding to the reference image frame closest to the object among the plurality of reference images as a reference position, and sets a two-dimensional space having a radius of a line segment connecting the reference position and the reference point of the object. A circle is drawn with the reference point as the center, and camera positions corresponding to the remaining reference images are displayed in a coordinate system having the reference point as the origin,

상기 그려진 원을 균등하게 n(n은 4 이상의 자연수)등분하고, 각각의 상기 카메라의 위치와 상기 기준점을 이은 선분들과 상기 n등분된 원을 구성하는 n개의 호들 각각과의 교점의 개수를 비교하고,The drawn circle is evenly divided into n (n is a natural number of 4 or more), and the number of intersections between the position of each camera and the line segments connecting the reference point and each of the n arcs constituting the n-divided circle is compared. do,

비교 결과에 기초하여 레퍼런스 이미지 프레임의 재선정 여부를 결정할 수 있다.Based on the comparison result, it may be determined whether to re-select the reference image frame.

상기 레퍼런스 이미지 프레임 검증부는, 상기 동영상에서 연속한 시간으로 연결되는 상기 복수의 이미지 프레임들의 집합에서 상기 제1 시간 간격보다 작은 제2 시간 간격마다 레퍼런스 이미지 프레임들을 재선정할 수 있다.The reference image frame verifier may re-select reference image frames at every second time interval smaller than the first time interval from the set of the plurality of image frames connected at consecutive times in the video.

상기 레퍼런스 이미지 프레임 검증부는, 하기의 수학식을 만족하는 경우, 선택된 레퍼런스 이미지 프레임들이 영상처리에 부적합하게 선택되었다고 판단하며,The reference image frame verifier determines that the selected reference image frames are inappropriately selected for image processing when the following equation is satisfied,

상기의 수학식에서, 교점의 개수가 평균 교점보다 적은 호의 개수는, n등분된 호 중에서 카메라의 위치와 기준점을 이은 선분들과의 교점의 개수가 평균 교점보다 적은 호의 개수를 의미하고, 평균 교점은 (선택된 레퍼런스 이미지들의 개수)/n으로 계산될 수 있다.In the above equation, the number of arcs with the number of intersections less than the average intersection means the number of arcs in which the number of intersections between the camera position and the line connecting the reference point is less than the average intersection among arcs divided into n, and the average intersection is (number of selected reference images)/n.

상기 레퍼런스 이미지 프레임 검증부는, 부적합한 프레임을 선택하였다고 판단한 경우, 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 3차원 디지털 트윈 공간을 구성하는데 사용할 레퍼런스 이미지 프레임들을 재선정할 수 있다.When it is determined that an inappropriate frame has been selected, the reference image frame verifying unit may re-select reference image frames to be used to construct a 3D digital twin space from among a plurality of image frames constituting a video obtained from a user terminal.

상기 레퍼런스 이미지 프레임 검증부는, 하기의 수학식을 만족하도록 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 3차원 디지털 트윈 공간을 구성하는데 사용할 레퍼런스 이미지 프레임들을 재선정하며,The reference image frame verifier reselects reference image frames to be used to construct a 3D digital twin space among a plurality of image frames constituting a video obtained from a user terminal so as to satisfy the following equation,

상기의 수학식에서, 교점의 개수가 평균 교점보다 적은 호의 개수는, n등분된 호 중에서 카메라의 위치와 기준점을 이은 선분들과의 교점의 개수가 평균 교점보다 적은 호의 개수를 의미하고, 평균 교점은 (선택된 레퍼런스 이미지들의 개수)/n으로 계산될 수 있다.In the above equation, the number of arcs with the number of intersections less than the average intersection means the number of arcs in which the number of intersections between the camera position and the line connecting the reference point is less than the average intersection among arcs divided into n, and the average intersection is (number of selected reference images)/n.

본 발명의 실시예들에 따른 디지털 트윈 공간 제공 서비스를 통해 사용자가 동영상을 입력하면, 사용자에게 동영상에 대응하는 디지털 트윈 공간을 제공하는 효과가 있다. When a user inputs a video through the digital twin space providing service according to embodiments of the present invention, there is an effect of providing a digital twin space corresponding to the video to the user.

또한, 동영상을 구성하는 복수의 프레임들 중에서 영상처리에 적합한 프레임들을 재선정하는 과정을 통하여, 디지털 트윈 공간을 정확하게 생성하는 효과를 극대화할 수 있다.In addition, through the process of reselecting frames suitable for image processing among a plurality of frames constituting a video, the effect of accurately creating a digital twin space can be maximized.

실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from the embodiments are not limited to the effects mentioned above, and other effects not mentioned are clearly derived and understood by those skilled in the art based on the detailed description below. It can be.

실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 3차원 디지털 트윈 공간을 제공하기 위한 장치 및 방법에 대한 개요도이다.
도 2는 도 1에 따른 디지털 트윈 공간 제공 서버의 기능적 모듈을 예시적으로 나타낸 블록도이다.
도 3은 레퍼런스 이미지들을 이용하여 3차원 좌표를 결정하는 개념을 나타낸 도면이다.
도 4는 레퍼런스 이미지 프레임 검증부가 영상처리에 적합한 레퍼런스 이미지 프레임을 선택하였는지 여부를 판단하는 개념도이다.
도 5는 본 발명의 일 실시예를 나타낸 도면이다.
도 6은 일 실시예에 따른 제1 심층 신경망의 구조를 예시적으로 나타낸 도면이다.
도 7는 일 실시예에 따른 제2 심층 신경망의 구조를 예시적으로 나타낸 도면이다.
도 8은 일 실시예에 따른 디지털 트윈 공간 제공 서버에 대한 하드웨어 구성을 예시적으로 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS Included as part of the detailed description to aid understanding of the embodiments, the accompanying drawings provide various embodiments and, together with the detailed description, describe technical features of the various embodiments.
1 is a schematic diagram of an apparatus and method for providing a 3D digital twin space according to an embodiment of the present invention.
2 is a block diagram showing functional modules of the digital twin space providing server according to FIG. 1 as an example.
3 is a diagram illustrating a concept of determining 3D coordinates using reference images.
4 is a conceptual diagram for determining whether a reference image frame verifying unit has selected a reference image frame suitable for image processing.
5 is a diagram showing one embodiment of the present invention.
6 is a diagram exemplarily illustrating the structure of a first deep neural network according to an embodiment.
7 is a diagram exemplarily illustrating the structure of a second deep neural network according to an embodiment.
8 is a diagram showing a hardware configuration of a digital twin space providing server according to an exemplary embodiment.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that it does not preclude the possibility of addition or existence of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 3차원 디지털 트윈 공간을 제공하기 위한 장치 및 방법에 대한 개요도이다.1 is a schematic diagram of an apparatus and method for providing a 3D digital twin space according to an embodiment of the present invention.

도 1을 참조하면, 3차원 디지털 트윈 공간을 제공하기 위한 방법은 디지털 트윈 공간 제공 서버(100, 3차원 디지털 트윈 공간을 제공하기 위한 장치와 혼용하여 지칭될 수 있음), 및 사용자 단말(200)을 이용하여 수행될 수 있다. 이때, 디지털 트윈 공간 제공 서버(100), 및 사용자 단말(200)을 제공 시스템으로 지칭할 수도 있다.Referring to FIG. 1, a method for providing a 3D digital twin space includes a digital twin space providing server (100, which may be referred to interchangeably with a device for providing a 3D digital twin space), and a user terminal 200 can be performed using In this case, the digital twin space providing server 100 and the user terminal 200 may be referred to as a providing system.

디지털 트윈 공간 제공 서버(100)는 사용자 단말로부터 획득된 동영상에 기초하여 3차원 디지털 공간을 생성하여, 이를 제공하는 서버일 수 있다. 또한, 디지털 트윈 공간 제공 서버(100)는 중앙 서버, 관리 서버, 클라우드 서버, 웹서버, 클라이언트 서버 등의 형태로 구현될 수 있다. The digital twin space providing server 100 may be a server that creates and provides a 3D digital space based on a video obtained from a user terminal. In addition, the digital twin space providing server 100 may be implemented in the form of a central server, a management server, a cloud server, a web server, a client server, and the like.

사용자 단말(200)은, 3차원 디지털 공간 제공 서비스를 이용하기 위해 등록된 사용자가 사용하는 사용자 단말로서, 사용자 등록을 위한 데이터를 디지털 트윈 공간 제공 서버(100)에 제공할 수 있다.The user terminal 200 is a user terminal used by a registered user to use a 3D digital space providing service, and may provide data for user registration to the digital twin space providing server 100.

사용자 단말(200)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.For example, the user terminal 200 includes a communicable desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, and a mobile phone. ), smart watch, smart glass, e-book reader, portable multimedia player (PMP), portable game device, navigation device, digital camera, digital multimedia broadcasting (DMB) It may be a player, a digital audio recorder, a digital audio player, a digital video recorder, a digital video player, a personal digital assistant (PDA), and the like.

도 2는 도 1에 따른 디지털 트윈 공간 제공 서버의 기능적 모듈을 예시적으로 나타낸 블록도이다. 도 3은 레퍼런스 이미지들을 이용하여 3차원 좌표를 결정하는 개념을 나타낸 도면이다.2 is a block diagram showing functional modules of the digital twin space providing server according to FIG. 1 as an example. 3 is a diagram illustrating a concept of determining 3D coordinates using reference images.

도 2를 참조하면, 디지털 트윈 공간 제공 서버(100)는, 제1 심층 신경망 기반 프레임 선택부(101), 객체영상 추출부(102), 특징점 매칭부(103), 카메라 정보 결정부(104), 3차원 좌표 결정부(105), 깊이정보 결정부(106), 레퍼런스 이미지 프레임 검증부(106), 3차원 디지털 트윈 공간 생성부(107), 및 3차원 디지털 트윈 공간 관리부(108)를 포함할 수 있다.Referring to FIG. 2, the digital twin space providing server 100 includes a first deep neural network based frame selection unit 101, an object image extraction unit 102, a feature point matching unit 103, and a camera information determination unit 104 , 3D coordinate determination unit 105, depth information determination unit 106, reference image frame verification unit 106, 3D digital twin space generation unit 107, and 3D digital twin space management unit 108 can do.

제1 심층 신경망 기반 프레임 선택부(101)는, 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 3차원 디지털 트윈 공간을 구성하는데 사용할 레퍼런스 이미지 프레임들을 선정할 수 있다.The first deep neural network-based frame selection unit 101 may select reference image frames to be used to construct a 3D digital twin space from among a plurality of image frames constituting a video obtained from a user terminal.

이때, 사용자 단말로부터 획득되는 동영상은, 4K 또는 8K 동영상으로서 고화질 영상인 것이 바람직하며, 디지털 트윈 공간을 생성하기 위한 실제 공간을 다양한 각도와 방향에서 시간의 흐름에 따라 이동하면서 촬영한 영상에 해당할 수 있다.At this time, the video obtained from the user terminal is preferably a high-definition video as a 4K or 8K video, and corresponds to an image taken while moving over time from various angles and directions in the real space for creating a digital twin space. can

본 발명의 일실시예는, 제1 심층 신경망 기반 프레임 선택부(101)는, 동영상에서 연속한 시간으로 연결되는 복수의 이미지 프레임들의 집합에서 일정한 제1 시간 간격과 대응하는 이미지 프레임들을 레퍼런스 이미지 프레임들로 선택할 수 있다. 예를 들어, 2초 사이의 시간 간격마다 이미지 프레임들을 선택하는 방식으로, 레퍼런스 이미지 프레임들을 선택할 수 있다.In one embodiment of the present invention, the first deep neural network-based frame selection unit 101 selects image frames corresponding to a first constant time interval from a set of a plurality of image frames connected at consecutive times in a video as a reference image frame. can be selected with For example, reference image frames may be selected in a manner of selecting image frames at every time interval of 2 seconds.

만약, 제1 심층 신경망 기반 프레임 선택부(101)가 영상처리에 적합한 레퍼런스 이미지 프레임을 선택하지 못한 경우, 본 발명의 일실시예에서, 프레임 선택부는 촬영된 영상으로부터 3차원 깊이정보를 얻어낼 수 없음을 사용자 단말에게 전송하고, 사용자 단말로부터 영상처리에 적합한 레퍼런스 이미지 프레임들을 획득하기 위해 복수의 프레임의 동영상을 추가적으로 요구할 수 있다.If the first deep neural network-based frame selector 101 fails to select a reference image frame suitable for image processing, in an embodiment of the present invention, the frame selector may obtain 3D depth information from the captured image. None may be transmitted to the user terminal, and a video of a plurality of frames may be additionally requested to obtain reference image frames suitable for image processing from the user terminal.

제1 심층 신경망 기반 프레임 선택부(101)는, 미리 지도학습된 제1 심층 신경망(10)을 이용하여, 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 레퍼런스 이미지 프레임으로 선정하기에 적합하지 않은 이미지 프레임을 필터링할 수 있다.The first deep neural network-based frame selection unit 101 selects a reference image frame from among a plurality of image frames constituting a video obtained from a user terminal using the first deep neural network 10 that has been trained in advance. Unsuitable image frames can be filtered out.

예를 들어, 제1 심층 신경망(10)은 CNN(Convolutional Neural Network) 기반의 심층 신경망일 수 있다. For example, the first deep neural network 10 may be a convolutional neural network (CNN)-based deep neural network.

구체적으로, 제1 심층 신경망(10)은, 이미지 프레임들 중에서 블러(blur)나 역광이 있는 이미지 프레임을 분류하도록 지도학습되거나, 이미지 프레임들 중에서 화이트밸런스(White Balance)가 맞지않은 이미지 프레임을 분류하도록 지도학습될 수 있다.Specifically, the first deep neural network 10 is supervised to classify image frames with blur or backlight among image frames, or classifies image frames that do not have a white balance among image frames. can be taught to do so.

여기서, 화이트밸런스가 맞지않은 이미지 프레임은 빛의 온도(또는 색 온도)에 따라 피사체의 색감이 원래 갖고 있는 색감과 상이하게 표현된 이미지 프레임을 의미할 수 있다.Here, the image frame with an incorrect white balance may mean an image frame in which the color of the subject is expressed differently from the original color according to the temperature of light (or color temperature).

이를 위해, 제1 심층 신경망(10)은, 미리 수집된 훈련 데이터를 이용하여 지도학습될 수 있다.To this end, the first deep neural network 10 may be supervised using pre-collected training data.

훈련 데이터는, 블러나 역광이 있는 이미지 프레임 및 화이트밸런스가 맞지않은 이미지 프레임으로 라벨링되어 있지 않은 이미지들을 훈련입력값으로하고, 블러나 역광이 있는 이미지 프레임 및 화이트밸런스가 맞지않은 이미지 프레임으로 라벨링되어 있는 이미지들을 훈련출력값으로 하는 데이터들의 집합일 수 있다.For the training data, images that are not labeled as image frames with blur or backlight and image frames with unbalanced white balance are taken as training input values, and labeled as image frames with blur or backlight and image frames with unbalanced white balance. It may be a set of data with images as training output values.

제1 심층 신경망 기반 프레임 선택부(101)는, 이러한 훈련입력값을 제1 심층 신경망(10)에 입력데이터로 제공하고, 제1 심층 신경망(10)의 출력값을 훈련출력값과 비교하여 제1 심층 신경망(10)을 구성하는 파라미터들을 미세튜닝(fine-tuning)하는 방식으로 제1 심층 신경망(10)을 지도학습시킬 수 있다.The first deep neural network-based frame selector 101 provides these training input values to the first deep neural network 10 as input data, compares the output value of the first deep neural network 10 with the training output value, and The first deep neural network 10 may be trained by fine-tuning parameters constituting the neural network 10 .

객체영상 추출부(102)는, 적어도 둘의 레퍼런스 이미지 프레임에서 객체를 검출하고, 색상의 차이를 이용하여 전경(foreground)과 배경(background)을 분리하여 객체영상을 추출할 수 있다. 전경과 배경을 분리하는 기술은, 클러스터링(clustering), 쓰레쉬홀드(threshold), 영역확장(region growing), 엣지 검출(edge detection) 등 다양한 방법이 이용될 수 있다. 각각의 내용에 대해서는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명하다 할 것이므로, 그 상세한 설명은 생략하기로 하겠다.The object image extraction unit 102 may extract an object image by detecting an object in at least two reference image frames and separating a foreground from a background using a color difference. Various methods such as clustering, threshold, region growing, and edge detection may be used as a technique for separating the foreground and the background. Since each content is obvious to those skilled in the art to which the present invention pertains, detailed descriptions thereof will be omitted.

특징점 매칭부(103)는 적어도 둘의 레퍼런스 이미지 프레임의 객체영상으로부터 특징점을 추출하고, 각 객체영상에서 각각 매칭되는 특징점들을 찾아 연결하여 특징점을 매칭할 수 있다. 이때 특징점 매칭부(103)는 적어도 둘의 레퍼런스 이미지 프레임들 중 기준이 되는 기준 이미지 프레임의 객체영상으로부터 특징점을 추출할 수 있으며, 해리스 코너(Harris corner)를 이용하여 특징점을 추출할 수 있으나, 본 발명이 이에 한정되는 것은 아니며, 다양한 방식에 의해 특징점을 추출할 수 있다.The feature point matching unit 103 may extract feature points from the object images of at least two reference image frames, find and connect matched feature points in each object image, and match the feature points. At this time, the feature point matching unit 103 may extract a feature point from the object image of the standard reference image frame among at least two reference image frames, and may extract the feature point using a Harris corner. The invention is not limited thereto, and feature points can be extracted by various methods.

다음으로, 특징점 매칭부(103)는 나머지 적어도 하나의 레퍼런스 이미지 프레임의 객체영상을 추적하여 기준이 되는 기준 프레임의 객체영상에 대응하는 각 레퍼런스 이미지 프레임의 객체영상의 대응점을 추출할 수 있다. 이때의 특징점 매칭부(32)는 Kande-Lucas-Tomashi(KLT) 추적기(tracker)를 이용하여 나머지 적어도 하나의 레퍼런스 이미지 프레임의 객체영상을 추적할 수 있지만 본 발명은 이에 한정되는 것은 아니며, 다양한 방식에 의해 나머지 적어도 하나의 프레임의 객체영상을 추적할 수 있다.Next, the feature point matcher 103 may track the object image of the remaining at least one reference image frame and extract a corresponding point of the object image of each reference image frame corresponding to the object image of the standard reference frame. At this time, the feature point matching unit 32 may track the object image of the remaining at least one reference image frame using a Kande-Lucas-Tomashi (KLT) tracker, but the present invention is not limited thereto, and various methods are used. It is possible to track the object image of the remaining at least one frame.

본 발명의 일실시예에서, 객체영상에서 추출되는 특징점을 정확하게 연결하여, 레퍼런스 이미지 프레임에서 관찰되는 2차원 특징과 복원하고자 하는 3차원 구조와의 초기관계를 결정할 수 있는 것이다.In one embodiment of the present invention, it is possible to determine an initial relationship between a 2D feature observed in a reference image frame and a 3D structure to be restored by accurately connecting feature points extracted from an object image.

카메라 정보 결정부(104)는 매칭된 특징점을 이용하여 특징점의 속성(특징점의 움직이는 방향, 움직인 거리, 속도 등)을 결정하고, 특징점의 속성에 기초하여 카메라 정보를 결정할 수 있다. 여기서, 특징점의 속성은, 특징점의 움직임 벡터를 포함할 수 있다. 예를 들어, 움직임 벡터는 특징점이 연속된 레퍼런스 이미지 프레임 사이에서 이동된 방향과 거리, 및/또는 속도를 지시할 수 있다.The camera information determination unit 104 may determine properties of the feature point (moving direction of the feature point, moving distance, speed, etc.) using the matched feature point, and may determine camera information based on the feature point attribute. Here, the attribute of the feature point may include a motion vector of the feature point. For example, the motion vector may indicate a moving direction, distance, and/or speed of feature points between successive reference image frames.

즉, 카메라 정보 결정부(104)는, 특징점의 속성을 기반으로 카메라의 3차원의 물체가 2차원의 이미지에 투영되는 방식을 결정하는 카메라의 내부변수(intrinsic parameter) 및 카메라의 상대적인 위치와 방향을 포함하는 카메라 정보를 결정하는 것으로서, 카메라 내부변수는 초점거리, 주점, 비대칭계수 및 왜곡변수를 포함할 수 있다.That is, the camera information determining unit 104 determines the method in which a 3D object of the camera is projected onto a 2D image based on the attributes of feature points, an intrinsic parameter of the camera and the relative position and direction of the camera. As determining camera information including , camera internal variables may include a focal length, a principal point, an asymmetry coefficient, and a distortion variable.

이는 투영 기하정보를 유클리드 기하정보로 변환하기 위해 필요한 것으로서, 2차원 영상정보의 기하학적인 특성을 이용하여 투영기하에서 유클리드 기하로 3차원 구조를 변환하는 동시에 실세계에서의 카메라의 내부변수와 카메라간 상대적인 위치를 계산하는 것이다.This is necessary to convert projection geometry information into Euclidean geometry information. Using the geometrical characteristics of 2D image information, the 3D structure is converted from projection geometry to Euclidean geometry, and at the same time, the internal variables of the camera and the relative position between the cameras in the real world are converted. is to calculate

3차원 좌표 결정부(105)는 카메라 정보 결정부(104)가 결정한 카메라 정보를 기반으로, 특징점에 삼각측량 기법 등을 이용하여 특징점의 3차원 공간상에서의 좌표를 결정할 수 있다. 특징점의 3차원 공간상 좌표를 결정하는 방식은 삼각측량 기법에 한정되는 것은 아니고, 더욱 다양한 방식으로 결정될 수 있을 것이다.Based on the camera information determined by the camera information determination unit 104, the 3D coordinate determination unit 105 may determine the coordinates of the feature point in the 3D space by using a triangulation technique on the feature point. A method of determining the coordinates of feature points in 3D space is not limited to the triangulation technique, and may be determined in a variety of ways.

특징점 매칭부(103), 카메라 정보 결정부(104) 및 3차원 좌표 결정부(105)의 동작은 SFM(Structure from Motion)으로 알려진 알고리즘으로, 동영상 또는 연속된 영상의 입력으로부터 3차원 정보를 추정하는 기술에 해당할 수 있다. 즉, 이러한 SFM 방식은 추출된 특징점의 궤도를 이용하여 카메라의 움직임 및 객체의 3차원 위치 좌표를 결정하는 것이다.The operation of the feature point matching unit 103, the camera information determination unit 104, and the 3D coordinate determination unit 105 is an algorithm known as SFM (Structure from Motion), which estimates 3D information from video or continuous video input. may apply to the technology. That is, this SFM method determines the movement of the camera and the 3D positional coordinates of the object using the trajectory of the extracted feature points.

본 발명의 일실시예는, 이러한 SFM 방식을 이용하는 것으로서, SFM 방식에 의하면, 카메라 정보와 각 레퍼런스 이미지 프레임의 카메라간 상대적인 위치를 계산하고, 이를 이용하여 도 3에서와 같이 2차원 이미지인 레퍼런스 이미지 프레임(image k-1 ~ k+1)의 특징점들 사이의 매칭 과정을 통해 3차원 구조를 계산할 수 있다.An embodiment of the present invention uses such an SFM method, and according to the SFM method, the relative position between the camera information and the camera of each reference image frame is calculated, and using this, a reference image, which is a two-dimensional image, as shown in FIG. 3 is calculated. A 3D structure may be calculated through a matching process between feature points of the frames (images k-1 to k+1).

디지털 트윈 공간 제공 서버(100)는, 제2 심층 신경망 기반 보간부(109)를 더 포함할 수 있다.The digital twin space providing server 100 may further include a second deep neural network based interpolator 109 .

제2 심층 신경망 기반 보간부(109)는, 제2 심층 신경망을 이용하여 3차원 디지털 트윈 공간 생성부(107)에 의해 생성된 3차원 디지털 트윈 공간을 구성하는 포인트 클라우드의 포인트들에 대해 보간(interpolation)을 수행하여 노이즈 포인트들을 제거하거나, 포인트들을 포인트 클라우드에 새롭게 추가할 수 있다. 여기서 보간은 선형 또는 비선형 보간일 수 있다.The second deep neural network-based interpolator 109 interpolates points of a point cloud constituting the 3D digital twin space generated by the 3D digital twin space generator 107 using the second deep neural network ( interpolation) to remove noise points or newly add points to the point cloud. Here, interpolation may be linear or non-linear interpolation.

예를 들어, 노이즈 포인트들은 객체를 구성하는 포인트들 중에서 급격하게 돌출된 좌표에 해당하는 포인트이거나, 객체를 구성하는 주변 포인트들과 비교하여 상대적으로 색상값이 크게 상이한 포인트일 수 있다.For example, the noise points may be points corresponding to rapidly protruding coordinates among points constituting the object, or points having a relatively large color value compared to neighboring points constituting the object.

또한, 제2 심층 신경망 기반 보간부(109)는, 포인트 클라우드를 구성하는 포인트들 각각을 인접한 주변 포인트들과 서로 비교하여 상대적으로 주변 포인트들의 수가 적은 포인트를 선정하고, 선정된 포인트와 인접하는 포인트를 새롭게 포인트 클라우드에 추가할 수도 있다.In addition, the second deep neural network-based interpolator 109 compares each of the points constituting the point cloud with neighboring points, selects a point having a relatively small number of neighboring points, and selects a point adjacent to the selected point. may be newly added to the point cloud.

제2 심층 신경망은, 포인트 클라우드를 구성하는 포인트들을 입력받고, 상술한 노이즈 포인트들의 제거나 포인트를 추가하는 비선형 보간을 수행하여 보간된 포인트들을 출력할 수 있고, 제2 심층 신경망 기반 보간부(109)는, 이러한 제2 심층 신경망을 이용하여 비선형 보간을 수행할 수 있다.The second deep neural network may receive points constituting the point cloud, perform nonlinear interpolation to remove the above-described noise points or add points, and output interpolated points, and the second deep neural network-based interpolator 109 ) can perform nonlinear interpolation using this second deep neural network.

도 4는 레퍼런스 이미지 프레임 검증부가 영상처리에 적합한 레퍼런스 이미지 프레임가 선택되었는지 여부를 검증하는 개념도이다. 도 4를 참조하면, 7개의 레퍼런스 이미지 프레임이 선택되었음을 알 수 있다.4 is a conceptual diagram for verifying whether or not a reference image frame suitable for image processing is selected by a reference image frame verifier. Referring to FIG. 4 , it can be seen that 7 reference image frames are selected.

레퍼런스 이미지 프레임 검증부(106)는, 선택된 레퍼런스 이미지 프레임들이 3차원 디지털 트윈 공간을 구성하는 데 적합한지 여부를 검증할 수 있다. The reference image frame verification unit 106 may verify whether the selected reference image frames are suitable for constructing a 3D digital twin space.

예를 들어, 레퍼런스 이미지 프레임 검증부(106)는, 레퍼런스 이미지 프레임들 각각에서 역광의 유무와 정도, 흔들림의 유무와 정도, 화이트 밸런스, 의도하지 않은 객체(예를 들어 사람)이 촬영되어 있는지 여부 등을 판단하고, 판단 결과에 따라 레퍼런스 이미지 프레임을 보정하거나, 선택된 레퍼런스 이미지들 중 일부를 레퍼런스 이미지에서 제외할 수 있다.For example, the reference image frame verifying unit 106 may determine whether or not there is backlighting in each of the reference image frames, the presence and degree of shaking, white balance, and whether an unintended object (eg, a person) is captured. etc. may be determined, and the reference image frame may be corrected according to the determination result, or some of the selected reference images may be excluded from the reference image.

또한, 도 4를 참조하면, 레퍼런스 이미지 프레임 검증부(106)는, 복수의 레퍼런스 이미지들 중 객체와 가장 가까운 거리의 레퍼런스 이미지 프레임과 대응하는 카메라의 위치를 기준 위치(A)로 정하고, 기준 위치와 객체의 기준점을 이은 선분을 반지름으로 갖는 2차원 원을 상기 기준점을 중심으로 그리고, 나머지 레퍼런스 이미지들에 대응하는 카메라들의 위치를 객체의 기준점을 원점으로 갖는 좌표계에 나타낼 수 있다. In addition, referring to FIG. 4 , the reference image frame verifying unit 106 determines the position of the camera corresponding to the reference image frame closest to the object among the plurality of reference images as the reference position A, and determines the reference position A. A two-dimensional circle having a radius of a line segment connecting ? and the reference point of the object may be centered on the reference point, and positions of cameras corresponding to the remaining reference images may be expressed in a coordinate system having the reference point of the object as the origin.

예를 들어, 객체의 기준점이 (0, 0, 0)이고, 기준 위치 A가 (Rx, Ry, Rz)인 경우, 를 반지름으로 하는 원을 객체의 기준점으로부터 그릴 수 있다. 이때, 객체의 기준점은 객체의 중심점이나 기준 위치의 레퍼런스 이미지 프레임 중에 임의의 점일 수 있고, 카메라의 위치에 대하여는 Z값은 고려하지 않고, X값과 Y값만을 기준으로 나타낼 수 있다.For example, if the reference point of the object is (0, 0, 0) and the reference position A is (Rx, Ry, Rz), A circle with a radius of can be drawn from the reference point of the object. In this case, the reference point of the object may be the center point of the object or an arbitrary point in the reference image frame of the reference position, and the camera position may be expressed based on only the X and Y values without considering the Z value.

이후, 일 실시예에서, 레퍼런스 이미지 프레임 검증부(106)는, 그려진 원을 4등분하고, 각각의 카메라의 위치와 기준점을 이은 선분들과 4등분된 호와의 교점의 개수를 비교하여 디지털 트윈을 구성하는데 적합한 프레임을 선택하였는지 여부를 판단할 수 있다. Thereafter, in one embodiment, the reference image frame verifying unit 106 divides the drawn circle into quarters, and compares the number of intersections between the positions of each camera and the lines connecting the reference points and the arcs divided into quarters, thereby making a digital twin. It is possible to determine whether or not a frame suitable for constructing is selected.

예를 들어, 레퍼런스 이미지 프레임 검증부(106)는 상기 선분과 상기 호의 평균 교점의 개수에 기초하여 선택된 레퍼런스 이미지 프레임들이 영상처리에 적합한 지 여부를 판단할 수 있다.For example, the reference image frame verifying unit 106 may determine whether the selected reference image frames are suitable for image processing based on the number of average intersection points of the line segment and the arc.

도 4를 참고하면, 4 등분된 호 중 하나인 제1 호(270도 내지 360도 사이의 반경과 대응)에는 B 위치의 카메라와 C 위치의 카메라 각각이 기준점에 이은 선분들과 제1 호의 교점은 2개임을 확인할 수 있고, 마찬가지로 제2 호(0도 내지 90도 사이의 반경과 대응)는 1개, 제3 호(90도 내지 180도 사이의 반경과 대응)는 3개, 제4 호(180도 내지 270 사이의 반경과 대응)는 0개임을 알 수 있다. 그리고 각 호마다 교점의 평균 개수를 나타내는 평균 교점의 수은 7/4=1.75개임을 알 수 있다. Referring to FIG. 4, in arc 1 (corresponding to a radius between 270 and 360 degrees), which is one of the arcs divided into 4 equal parts, a camera at position B and a camera at position C, respectively, are the intersection of the lines following the reference point and the arc 1. It can be confirmed that there are two, and similarly, the second arc (corresponding to the radius between 0 and 90 degrees) is one, the third arc (corresponding to the radius between 90 and 180 degrees) is three, and the fourth arc It can be seen that (corresponding to the radius between 180 degrees and 270 degrees) is zero. In addition, it can be seen that the average number of intersections representing the average number of intersections for each arc is 7/4=1.75.

레퍼런스 이미지 프레임 검증부(106)는, 교점의 개수가 평균 교점의 수보다 적은 호의 개수가 2개 이상인 경우, 선택된 레퍼런스 이미지 프레임들이 영상처리에 부적합하게 선택되었다고 판단할 수 있다.The reference image frame verifying unit 106 may determine that the selected reference image frames are unsuitable for image processing when the number of arcs in which the number of intersection points is less than the average number of intersection points is two or more.

본 발명의 다른 실시예에서, 레퍼런스 이미지 프레임 검증부(106)는, 그려진 원을 균등하게 n(n은 4 이상의 자연수)등분하여 n개의 호들을 결정하고, 각각의 카메라의 위치와 기준점을 이은 선분들과 n등분된 호와의 교점의 개수를 비교하여 영상처리에 적합한 프레임을 선택하였는지 여부를 판단할 수 있다. 예를 들어, 레퍼런스 이미지 프레임 검증부(106)는 수학식 1을 만족하는 경우, 선택된 레퍼런스 이미지 프레임들이 3차원 디지털 트윈 공간을 생성하는데 부적합한 것으로 판단할 수 있다.In another embodiment of the present invention, the reference image frame verifying unit 106 determines n number of arcs by equally dividing the drawn circle into n (where n is a natural number greater than or equal to 4), and the line connecting the position of each camera and the reference point. It is possible to determine whether a frame suitable for image processing has been selected by comparing the number of intersections between the number of people and the arc divided into n equal parts. For example, when Equation 1 is satisfied, the reference image frame verifier 106 may determine that the selected reference image frames are unsuitable for generating a 3D digital twin space.

수학식 1에서, 교점의 개수가 평균 교점보다 적은 호의 개수는, n등분된 호 중에서 카메라의 위치와 기준점을 이은 선분들과의 교점의 개수가 평균 교점보다 적은 호의 개수를 의미하고, 평균 교점은 로 계산될 수 있다.In Equation 1, the number of arcs with the number of intersections less than the average intersection means the number of arcs in which the number of intersections between the camera position and the line connecting the reference point is less than the average intersection among arcs divided into n, and the average intersection is can be calculated as

레퍼런스 이미지 프레임 검증부(106)가 부적합한 프레임을 선택하였다고 판단한 경우, 레퍼런스 이미지 프레임 검증부는 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 3차원 디지털 트윈 공간을 구성하는데 사용할 레퍼런스 이미지 프레임들을 재선정할 수 있다.When it is determined that the reference image frame verification unit 106 has selected an inappropriate frame, the reference image frame verification unit selects the reference image frames to be used in constructing the 3D digital twin space from among a plurality of image frames constituting the video obtained from the user terminal. may be re-selected.

레퍼런스 이미지 프레임 검증부(106)는 수학식 2를 만족하도록 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 3차원 디지털 트윈 공간을 구성하는데 사용할 레퍼런스 이미지 프레임들을 재선정할 수 있다.The reference image frame verification unit 106 may re-select reference image frames to be used to construct the 3D digital twin space from among a plurality of image frames constituting the video obtained from the user terminal so as to satisfy Equation 2.

수학식 2에서, 교점의 개수가 평균 교점보다 적은 호의 개수는, n등분된 호 중에서 카메라의 위치와 기준점을 이은 선분들과의 교점의 개수가 평균 교점보다 적은 호의 개수를 의미하고, 평균 교점은 로 계산될 수 있다.In Equation 2, the number of arcs with the number of intersections less than the average intersection means the number of arcs in which the number of intersections between the camera position and the line connecting the reference point is less than the average intersection among arcs divided into n, and the average intersection is can be calculated as

즉, 레퍼런스 이미지 프레임 검증부(106)는 교점의 개수가 평균 교점보다 적은 호의 개수를, 전체 레퍼런스 이미지의 개수인 n개 중 과반 수 미만으로 유지하도록 하여 영상처리에 적합한 레퍼런스 이미지 프레임들을 선택하게 할 수 있다. 이를 통하여, 객체의 전방위적으로 균등하게 레퍼런스 이미지 프레임들을 선정함으로써 3차원 디지털 트윈 공간의 일부가 부적절하게 생성되는 것을 방지할 수 있다.That is, the reference image frame verifying unit 106 selects reference image frames suitable for image processing by maintaining the number of arcs having fewer intersection points than the average intersection point to less than a majority of n, which is the total number of reference images. can Through this, it is possible to prevent improper generation of a part of the 3D digital twin space by uniformly selecting reference image frames in all directions of the object.

또한, 레퍼런스 이미지 프레임 검증부(106)는, 레퍼런스 이미지들을 재선정할 때, 동영상에서 연속한 시간으로 연결되는 복수의 이미지 프레임들의 집합에서 일정한 제1 시간 간격보다 작은 제2 시간 간격마다 레퍼런스 이미지 프레임들을 재선택할 수 있다. 여기서, 제2 시간 간격은 제1 시간 간격에서 미리 설정된 값만큼 작은 값으로 결정될 수 있다.In addition, the reference image frame verifying unit 106, when reselecting the reference images, reference image frames for every second time interval smaller than the first constant time interval in the set of a plurality of image frames connected at consecutive times in the video. can be reselected. Here, the second time interval may be determined as a value smaller than a preset value in the first time interval.

또한, 레퍼런스 이미지 프레임 검증부(106)는, 제2 시간 간격마다 재선택된 레퍼런스 이미지 프레임들 중에서, 교점의 개수가 평균 교점의 수보다 적은 호의 외곽에 위치하는 카메라들 각각과 대응하는 레퍼런스 이미지 프레임들을 탐색하고, 탐색된 레퍼런스 이미지 프레임들 사이의 시간 간격에 해당하는 제2 시간 간격 내에 있는 이미지 프레임들 중에서 적어도 일부를 기존의 동영상을 구성하는 이미지 프레임들의 집합에서 추가로 레퍼런스 이미지 프레임으로서 선정할 수 있다.Also, the reference image frame verifying unit 106 selects reference image frames corresponding to each of the cameras located on the periphery of an arc having a smaller number of intersection points than the average number of intersection points among the reference image frames reselected at every second time interval. Search, and at least some of the image frames within the second time interval corresponding to the time interval between the searched reference image frames may be additionally selected as a reference image frame from a set of image frames constituting an existing video. .

구체적으로, 레퍼런스 이미지 프레임 검증부(106)는, 탐색된 레퍼런스 이미지 프레임들 사이의 시간 간격에 해당하는 제2 시간 간격 내에 있는 이미지 프레임들 중에서 하기 수학식 3을 만족하는 제3 시간 간격마다 추가로 레퍼런스 이미지 프레임을 선정할 수 있다.Specifically, the reference image frame verifying unit 106 additionally performs a third time interval satisfying Equation 3 among image frames within a second time interval corresponding to a time interval between the searched reference image frames. A reference image frame can be selected.

수학식 3에서, k는 레퍼런스 이미지 프레임을 추가로 선정하기 위한 보정 계수로서, 관리자에 의해 미리 설정되는 값에 해당하며, 예를 들어 0.926 으로 설정될 수 있다.In Equation 3, k is a correction coefficient for additionally selecting a reference image frame, and corresponds to a value preset by a manager, and may be set to, for example, 0.926.

레퍼런스 이미지 프레임 검증부(106)가 레퍼런스 이미지 프레임들을 재선정하는 경우, 특징점 매칭부(103), 카메라 정보 결정부(104) 및 3차원 좌표 결정부(105)가 상기 기술된 동작을 다시 수행하여, 객체의 3차원 위치정보를 다시 결정할 수 있다.When the reference image frame verification unit 106 reselects the reference image frames, the feature point matching unit 103, the camera information determination unit 104, and the 3D coordinate determination unit 105 perform the above-described operation again, The 3D location information of the object may be determined again.

3차원 디지털 트윈 공간 생성부(107)는 선정된 레퍼런스 이미지 프레임들을 기반으로 3차원 복원(3D reconstruction)을 수행하여 3차원 디지털 트윈 공간을 생성할 수 있다. 이때, 디지털 트윈 공간은, 실제 공간을 가상 세계에 쌍둥이처럼 똑같이 구현하는 기술을 의미한다. 또한, 디지털 트윈은 특정 공간에 발생할 수 있는 문제를 시뮬레이션으로 미리 파악할 수 있다.The 3D digital twin space generator 107 may generate a 3D digital twin space by performing 3D reconstruction based on the selected reference image frames. At this time, the digital twin space means a technology that implements the real space in the virtual world identically like twins. In addition, the digital twin can identify problems that may occur in a specific space in advance through simulation.

자세하게는, 3차원 디지털 트윈 공간 생성부(107)는 선정된 레퍼런스 이미지 프레임들과, 깊이 정보를 기초로 3차원 가상공간에 물리공간의 실제객체들에 대응되는 가상객체들을 복수의 포인트들로 구성된 포인트 클라우드(point cloud)로 모델링한 3차원 디지털 트윈 공간을 생성할 수 있다.In detail, the 3D digital twin space generating unit 107 is configured with a plurality of points in the 3D virtual space based on the selected reference image frames and depth information, corresponding to real objects in the physical space. A three-dimensional digital twin space modeled as a point cloud can be created.

또한, 3차원 디지털 트윈 공간 생성부(107)는, 사용자 단말로부터의 입력을 반영하면서 3차원 디지털 트윈 공간을 실시간으로 생성할 수 있다. 예를 들어, 3차원 디지털 트윈 공간 생성부(107)는, 사용자 단말로부터 실제객체를 측정한 센서 데이터를 실시간으로 수신하고, 수신된 센서 데이터를 가상 컨텐츠로 변환한 후 3차원 디지털 트윈 공간의 가상객체 이미지 주변에 상기 가상 컨텐츠를 삽입한 3차원 디지털 트윈 공간을 생성함으로써, 생성된 디지털 트윈 공간을 통해 사용자가 실제 객체와 비교하여 디지털 트윈 공간을 효과적으로 모니터링할 수 있다.In addition, the 3D digital twin space generator 107 may generate a 3D digital twin space in real time while reflecting an input from a user terminal. For example, the 3D digital twin space generator 107 receives sensor data obtained by measuring a real object from a user terminal in real time, converts the received sensor data into virtual content, and then converts the 3D digital twin space into virtual content. By creating a 3D digital twin space in which the virtual content is inserted around the object image, the user can effectively monitor the digital twin space in comparison with the real object through the created digital twin space.

3차원 디지털 트윈 공간 관리부(108)는 생성된 3차원 디지털 트윈 공간에 사용자 단말의 접근을 관리할 수 있다. 3차원 디지털 트윈 공간 관리부(108)는 생성된 3차원 디지털 트윈 공간을 사용자 단말의 디스플레이에서 출력하도록 제어할 수 있다. The 3D digital twin space management unit 108 may manage access of a user terminal to the created 3D digital twin space. The 3D digital twin space manager 108 may control the generated 3D digital twin space to be output on the display of the user terminal.

또한, 3차원 디지털 트윈 공간 관리부(108)는, 사용자 단말에 3차원 디지털 트윈 공간을 구성하는 점군(point cloud)을 편집할 수 있는 온라인 상의 툴(tool)을 제공할 수 있다. 예를 들어, 3차원 디지털 트윈 공간 관리부(108)는, 사용자 단말이 디지털 트윈 공간을 구성하는 점군에 포인트를 추가하거나 삭제할 수 있는 사용자 인터페이스를 사용자 단말에 제공할 수 있다.In addition, the 3D digital twin space management unit 108 may provide a user terminal with an online tool capable of editing a point cloud constituting the 3D digital twin space. For example, the 3D digital twin space management unit 108 may provide the user terminal with a user interface through which the user terminal can add or delete points to a point cloud constituting the digital twin space.

도 5는 본 발명의 일 실시예를 나타낸 도면이다.5 is a diagram showing one embodiment of the present invention.

도 5를 참조하면, 디지털 트윈 공간 제공 서버(100)는 생성된 3차원 디지털 트윈 공간을 사용자 단말(예; LED 판넬벽)에 출력하도록 제어할 수 있다. 이를 통해, 영화 콘텐츠 제작 시 배우가 연기하는 배경을 3차원 가상 공간인 디지털 트윈 공간으로 대체하여 배경 제작 비용과 시간을 절약할 수 있다. Referring to FIG. 5 , the digital twin space providing server 100 may control the generated 3D digital twin space to be output to a user terminal (eg, LED panel wall). Through this, when producing movie content, it is possible to save background production cost and time by replacing the background where actors act with a digital twin space, a three-dimensional virtual space.

특히, 3차원 디지털 트윈 공간의 경우, 노동집약적인 작업을 통해 3차원 공간 상에서 포인트 클라우드를 생성하고, 편집을 통해 수작업으로 보정하는 것이 일반적이며, 이 때문에 초기에 유의미한 3차원 디지털 트윈 공간이 생성되어야 보정작업이 최소화될 수 있다.In particular, in the case of the 3D digital twin space, it is common to create a point cloud in the 3D space through labor-intensive work and manually correct it through editing. For this reason, a meaningful 3D digital twin space must be initially created. Corrective work can be minimized.

본 발명의 상술한 일 실시예에 따른 레퍼런스 이미지 검증부를 통해 레퍼런스 이미지를 평가하고 재구성하는 방식으로 노동집약적 작업을 큰 폭으로 줄여 생산성 향상을 도모하고 더욱 나은 3차원 복원 결과를 획득할 수 있다.The method of evaluating and reconstructing the reference image through the reference image verification unit according to the above-described embodiment of the present invention can significantly reduce labor-intensive work, improve productivity, and obtain better 3D restoration results.

도 6은 일 실시예에 따른 제1 심층 신경망의 구조를 예시적으로 나타낸 도면이다.6 is a diagram exemplarily illustrating the structure of a first deep neural network according to an embodiment.

도 6을 참조하면, 일 실시예에 따른 제1 심층 신경망(neural network, 10)은, 미리 설정된 크기의 이미지 프레임들을 입력 이미지로 입력받아, 특징 맵을 추출하는 컨볼루셔널 계층(11), 추출된 특징에 대해 활성화 함수를 이용해 출력을 활성화할지 여부를 결정하는 활성화 계층(12), 활성화 계층(12)에 따른 출력에 대해 샘플링을 수행하는 풀링 계층(13), 클래스에 따른 분류를 수행하는 완전 연결 계층(14), 완전 연결 계층(14)에 따른 출력을 최종적으로 출력하는 출력 계층(15)을 포함할 수 있다.Referring to FIG. 6, a first deep neural network 10 according to an embodiment includes a convolutional layer 11 that receives image frames of a preset size as input images and extracts a feature map, An activation layer 12 that determines whether to activate an output using an activation function for a selected feature, a pooling layer 13 that performs sampling on outputs according to the activation layer 12, and a full classification that performs classification according to class. An output layer 15 that finally outputs an output according to the connection layer 14 and the fully connected layer 14 may be included.

컨볼루셔널 계층(11)은 입력 이미지와 필터를 서로 합성곱함으로써 입력 데이터의 특징을 추출하는 계층일 수 있다. 여기서 필터는 입력 이미지의 특징적 부분을 검출하는 함수로서, 일반적으로 행렬로 표현되며 학습 데이터에 의해 지속적으로 학습됨에 따라 결정되는 함수일 수 있다. 컨볼루셔널 계층(11)에 의해 추출된 특징은 특징 맵(feature map)으로 지칭될 수도 있다. 또한, 합성곱을 수행하는 간격 값을 스트라이드(stride)라고 지칭할 수 있는데, 스트라이드 값에 따라 다른 크기의 특징 맵이 추출될 수 있다. 이때, 특징 맵은 필터의 크기가 입력 이미지보다 작으면, 기존의 입력 이미지보다 더 작은 크기를 갖게 되는데, 여러 단계를 거쳐 특징이 소실되는 것을 방지하기 위하여 패딩 과정이 추가로 수행될 수 있다. 이때, 패딩 과정은 생성된 특징 맵의 외곽에 미리 설정된 값(예를 들면 0이나 1)을 추가함으로써 입력 이미지의 크기와 특징 맵의 크기를 동일하게 유지하는 과정일 수 있다. The convolutional layer 11 may be a layer that extracts features of input data by convolutional multiplying an input image and a filter. Here, the filter is a function that detects a characteristic part of the input image, and is generally expressed as a matrix and may be a function that is determined as it is continuously learned by training data. A feature extracted by the convolutional layer 11 may be referred to as a feature map. In addition, an interval value for performing convolution may be referred to as a stride, and feature maps of different sizes may be extracted according to the stride value. In this case, if the size of the filter is smaller than the input image, the feature map has a size smaller than that of the existing input image. A padding process may be additionally performed to prevent features from being lost through several steps. In this case, the padding process may be a process of maintaining the same size of the feature map as the size of the input image by adding a preset value (eg, 0 or 1) to the outside of the generated feature map.

여기서 본 발명의 일 실시예에 따른 컨볼루셔널 계층(11)은, 1Х1 컨볼루셔널 계층과 3Х3 컨볼루셔널 계층을 순차로 반복 연결한 구조를 사용할 수 있으나 이에 한정되는 것은 아니다.Here, the convolutional layer 11 according to an embodiment of the present invention may use a structure in which a 1Х1 convolutional layer and a 3Х3 convolutional layer are sequentially and repeatedly connected, but is not limited thereto.

활성화 계층(12)는 어떠한 값(또는 행렬)으로 추출된 특징을 활성화 함수에 따라 비선형 값으로 바꾸어 활성화 여부를 결정하는 계층으로, 활성화 함수로는 시그모이드(sigmoid) 함수, ReLU 함수, 소프트맥스(softmax) 함수 등이 사용될 수 있다. 예를 들어, 소프트맥스 함수는 입력된 값을 0~1사이의 값으로 모두 정규화하며 출력 값들의 총합은 항상 1이 되는 특성을 가진 함수일 수 있다.The activation layer 12 is a layer that determines whether to activate by converting a feature extracted with a certain value (or matrix) into a nonlinear value according to an activation function. The activation function includes a sigmoid function, a ReLU function, and a softmax. (softmax) function or the like may be used. For example, the softmax function may be a function that normalizes all input values to values between 0 and 1, and the sum of output values is always 1.

풀링 계층(130)은 활성화 계층(12)의 출력에 대하여 서브 샘플링(subsampling) 또는 풀링(pooling)을 수행하여 특징맵을 대표하는 특징을 선정하는 계층으로서, 특징맵의 일정 영역에 대하여 가장 큰 값을 추출하는 맥스 풀링(max pooling), 평균값을 추출하는 애버리지 풀링(average pooling) 등이 수행될 수 있다. 이때, 풀링 계층은 활성화 함수 이후에 반드시 수행되는 것이 아니라 선택적으로 수행될 수 있다.The pooling layer 130 is a layer that selects a feature representative of a feature map by performing subsampling or pooling on the output of the activation layer 12, and has the largest value for a certain region of the feature map. Max pooling for extracting , average pooling for extracting an average value, and the like may be performed. In this case, the pooling layer is not necessarily performed after the activation function, but may be selectively performed.

또한, 여기서 제1 심층 신경망(10)은, 컨볼루셔널 계층(11), 활성화 계층(12), 풀링 계층(13)의 연결 구조가 복수개 포함될 수도 있다.In addition, the first deep neural network 10 may include a plurality of connection structures of the convolutional layer 11, the activation layer 12, and the pooling layer 13.

예를 들어, 제1 심층 신경망(10)은, CNN 기반의 YOLO(You Look Only Once), SSD(Single Shot MultiBox Detector), Faster R-CNN 등이거나 이를 기반으로 개량된 형태의 심층 신경망일 수 있으나 이에 한정되는 것은 아니다.For example, the first deep neural network 10 may be a CNN-based YOLO (You Look Only Once), SSD (Single Shot MultiBox Detector), Faster R-CNN, or the like, or an improved deep neural network based thereon. It is not limited to this.

도 7는 일 실시예에 따른 제2 심층 신경망의 구조를 예시적으로 나타낸 도면이다.7 is a diagram exemplarily illustrating the structure of a second deep neural network according to an embodiment.

도 7을 참조하면, 제2 심층 신경망(20)은, 입력 벡터들 각각을 순차적으로 입력받고, 입력 벡터들 각각의 성분값 개수와 동일한 개수(n)의 입력 노드들로 구성되는 입력층(21), 입력층(21)으로부터 전달받은 출력값들을 이용하여 얻어지는 출력 벡터(Y`)를 출력층(23)에 전달하는 은닉층(22), 및 출력 벡터(Y`)에 활성화 함수를 적용하여 출력 벡터(Y`)에 대응하는 확률(p)을 출력하는 출력층(23)을 포함할 수 있다.Referring to FIG. 7 , the second deep neural network 20 sequentially receives each of the input vectors and has an input layer 21 composed of the same number (n) of input nodes as the number of component values of each of the input vectors. ), the hidden layer 22 that transfers the output vector (Y`) obtained using the output values received from the input layer 21 to the output layer 23, and the output vector (Y`) by applying an activation function to the output vector ( An output layer 23 outputting a probability p corresponding to Y′) may be included.

이때, 제2 심층 신경망(20)은, 미리 수집된 훈련 데이터를 이용하여 미리 지도학습되며, 훈련 데이터 셋은, 특정 포인트 클라우드를 구성하는 포인트들에 대응하는 입력 벡터들을을 훈련 입력값으로 하고, 해당 포인트 클라우드를 구성하는 포인트들에 대하여 보간이 완료된 포인트들과 대응하는 목표 출력 벡터(Y)를 제2 심층 신경망(20)의 훈련 출력값으로 하는 데이터의 집합일 수 있다.At this time, the second deep neural network 20 is previously supervised using pre-collected training data, and the training data set uses input vectors corresponding to points constituting a specific point cloud as training input values, It may be a set of data in which the target output vector (Y) corresponding to points for which interpolation is completed with respect to points constituting the corresponding point cloud is used as a training output value of the second deep neural network 20 .

제2 심층 신경망(20)의 동작을 설명하면, 제2 심층 신경망(20)은, 훈련 입력값으로 제공된 입력 벡터들(D1~Dn)을 순차적으로 입력받으면, 은닉층(22)의 출력으로서 획득되는 출력 벡터(Y`)와 훈련 출력값으로 제공받은 목표 출력 벡터(Y)를 이용하여 손실함수(loss function)을 연산하고, 연산된 손실함수의 결과값이 최소화되도록 지도학습된다.Referring to the operation of the second deep neural network 20, when the input vectors D1 to Dn provided as training input values are sequentially received, the second deep neural network 20 obtains as an output of the hidden layer 22 A loss function is calculated using the output vector (Y′) and the target output vector (Y) provided as the training output value, and supervised learning is performed so that the result of the calculated loss function is minimized.

예를 들어, 손실 함수(H(Y,Y`))는, 크로스 엔트로피(Cross Entropy) 함수일 수 있다. 출력 벡터(Y`)와 목표 출력 벡터(Y) 사이의 크로스 엔트로피(H(Y,Y`))는 다음의 수학식 4와 같이 정의될 수 있다.For example, the loss function H(Y,Y′) may be a cross entropy function. The cross entropy (H(Y,Y`)) between the output vector (Y′) and the target output vector (Y) may be defined as in Equation 4 below.

수학식 4에서 Ym은 목표 출력 벡터(Y)의 m(m은 1 이상의 자연수)번째 성분이고, Y`m은 출력 벡터(Y`)의 m번째 성분일 수 있다.In Equation 4, Ym is the m-th component (m is a natural number greater than or equal to 1) of the target output vector Y, and Y'm may be the m-th component of the output vector Y'.

입력층(11)은 입력 벡터들(D1~Dn)을 순차적으로 입력받고, 입력받은 입력 벡터의 성분값들에 대하여, 입력 노드들과 대응하는 하나 이상의 연결 강도값들을 적용하여 은닉층(12)에 전달할 수 있다.The input layer 11 sequentially receives the input vectors D1 to Dn, and applies one or more connection strength values corresponding to the input nodes to the component values of the received input vectors to obtain the hidden layer 12. can be conveyed

예를 들어, 입력 노드들 각각에 대응하는 하나 이상의 연결 강도값들은 NХn의 크기를 갖는 제1 연결강도 행렬(WNХn)로 표현할 수 있다. 이때, N은 입력노드들과 동일한 개수인 N일 수 있고, n은 입력 벡터(D1~Dn)의 성분 개수인 n과 동일하게 설정된다. 제1 연결강도 행렬(WNХn)은 임의의 초기값으로 설정된 후 지도학습을 통해 지속적으로 갱신될 수 있다.For example, one or more connection strength values corresponding to each of the input nodes may be expressed as a first connection strength matrix (W NХn ) having a size of NХn. In this case, N may be the same number N as the input nodes, and n is set equal to n, the number of components of the input vectors D1 to Dn. The first connection strength matrix (W NХn ) may be set to an arbitrary initial value and then continuously updated through supervised learning.

종합하면, 입력층(11)은 순차적으로 입력받은 입력 벡터(D1~Dn)에 제1 연결강도 행렬(WNХn)을 행렬곱 연산하여 얻어진 중간 연산 벡터(X)을 은닉층(12)에 전달할 수 있다.In summary, the input layer 11 performs a matrix multiplication operation of the first connection strength matrix (W NХn ) on the input vectors (D1 to Dn) sequentially received, and transmits the intermediate operation vector (X) to the hidden layer (12). there is.

은닉층(12)은, 입력층(11)으로부터 전달받은 중간 연산 벡터(X)에 은닉 노드들 각각에 대응하는 하나 이상의 연결 강도를 적용하여 출력 벡터(Y`)를 생성하고, 생성된 출력 벡터(Y`)를 출력층(13)에 전달할 수 있다. The hidden layer 12 generates an output vector Y′ by applying one or more connection strengths corresponding to each of the hidden nodes to the intermediate operation vector X received from the input layer 11, and generates an output vector ( Y') to the output layer 13.

이때, 은닉 노드들 각각에 대응하는 하나 이상의 연결 강도값들은 nХN의 크기를 갖는 제2 연결강도 행렬(UnХN)로 표현할 수 있다. 즉, 제2 연결강도 행렬(UnХN)은 n개의 차원으로 사상된 중간 연산 벡터(X)를 다시 N개의 차원으로 복원한다.In this case, one or more connection strength values corresponding to each of the hidden nodes may be expressed as a second connection strength matrix U nХN having a size of nХN. That is, the second connection strength matrix (U nХN ) restores the intermediate operation vector (X) mapped in n dimensions back to N dimensions.

한편, 제2 연결강도 행렬(UnХN)의 초기값은 임의의 값으로 설정된 후, 출력 벡터(Y`)가 훈련 출력값인 목표 출력 벡터(Y)가 되도록 지속적으로 갱신될 수 있다. 즉, 제2 연결강도 행렬(UnХN)은 훈련 데이터를 지속적으로 지도학습함에 따라 갱신될 수 있다.Meanwhile, after the initial value of the second connection strength matrix (U nХN ) is set to an arbitrary value, the output vector (Y′) may be continuously updated to become the target output vector (Y), which is a training output value. That is, the second connection strength matrix (U nХN ) may be updated as training data is continuously supervised.

출력층(13)은, 은닉층(12)으로부터 전달받은 출력 벡터(Y`)에 활성화 함수를 적용함으로써 출력 벡터(Y`)에 대응하는 확률(p)을 출력할 수 있다. 활성화 함수는 다양한 범위를 가지는 값들을 0과 1 사이의 값으로 확대 또는 축소함으로써 확률로 변환하는 효과가 있다. 예를 들어, 활성화 함수는, LeRU 함수 또는 Softmax 함수일 수 있으나 이에 한정되는 것은 아니다.The output layer 13 may output a probability p corresponding to the output vector Y′ by applying an activation function to the output vector Y′ received from the hidden layer 12 . The activation function has the effect of converting values having various ranges into probabilities by expanding or reducing values between 0 and 1. For example, the activation function may be a LeRU function or a Softmax function, but is not limited thereto.

예를 들어, 제2 심층 신경망(20)은 RNN, Fast RNN, AutoEncoder 등일 수 있으나 이에 한정되는 것은 아니다.For example, the second deep neural network 20 may be RNN, Fast RNN, AutoEncoder, etc., but is not limited thereto.

제2 심층 신경망 기반 보간부(109)는, 출력층(13)을 통해 출력되는 확률(p)이 가장 높은 값과 대응하는 출력 벡터(Y`)에 의해 지시되는 포인트들을 보간된 포인트들로서 획득할 수 있다.The second deep neural network-based interpolator 109 may obtain points indicated by an output vector Y′ corresponding to a value having the highest probability p output through the output layer 13 as interpolated points. there is.

도 8은 일 실시예에 따른 디지털 트윈 공간 제공 서버에 대한 하드웨어 구성을 예시적으로 나타낸 도면이다.8 is a diagram showing a hardware configuration of a digital twin space providing server according to an exemplary embodiment.

도 8을 참조하면, 디지털 트윈 공간 제공 서버(100, 3차원 디지털 트윈 공간을 제공하기 위한 장치로 혼용하여 지칭될 수 있음)는, 적어도 하나의 프로세서(110); 및 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함할 수 있다.Referring to FIG. 8 , a digital twin space providing server (100, which may be interchangeably referred to as a device for providing a 3D digital twin space) includes at least one processor 110; and a memory for storing instructions instructing the at least one processor 110 to perform at least one operation.

상기 적어도 하나의 동작은, 도 1 내지 도 5를 참조하여 설명한 디지털 트윈 공간 제공 서버(100)의 동작이나 기능부들의 동작 중 적어도 일부를 포함할 수 있다.The at least one operation may include at least a part of the operation of the digital twin space providing server 100 or the operation of functional units described with reference to FIGS. 1 to 5 .

여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다.Here, the at least one processor 110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor for performing methods according to embodiments of the present invention. can

메모리(120)는 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중에서 적어도 하나로 구성될 수 있다.The memory 120 may include at least one of volatile storage media and non-volatile storage media. For example, the memory 120 may include at least one of a read only memory (ROM) and a random access memory (RAM).

저장 장치(160)는, 예를 들어 HDD(hard disk drive), SSD(solid state drive) 등일 수 있다.The storage device 160 may be, for example, a hard disk drive (HDD) or a solid state drive (SSD).

또한, 디지털 트윈 공간 제공 서버(100)는, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 디지털 트윈 공간 제공 서버(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 디지털 트윈 공간 제공 서버(100)에 포함된 각각의 구성 요소들은 버스(bus, 170)에 의해 연결되어 서로 통신을 수행할 수 있다.In addition, the digital twin space providing server 100 may include a transceiver 130 that performs communication through a wireless network. In addition, the digital twin space providing server 100 may further include an input interface device 140, an output interface device 150, a storage device 160, and the like. Each component included in the digital twin space providing server 100 may be connected by a bus 170 to communicate with each other.

디지털 트윈 공간 제공 서버(100)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.For example, the digital twin space providing server 100 includes a communicable desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, and a mobile phone. (mobile phone), smart watch, smart glass, e-book reader, PMP (portable multimedia player), portable game device, navigation device, digital camera, DMB (digital It may be a multimedia broadcasting) player, digital audio recorder, digital audio player, digital video recorder, digital video player, personal digital assistant (PDA), and the like. .

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

100: 3차원 디지털 트윈 공간을 제공하기 위한 장치
101: 제1 심층신경망 기반 프레임 선택부
102: 객체영상 추출부
103: 특징점 매칭부
104: 카메라 정보 결정부
105: 3차원 좌표 결정부
106: 레퍼런스 이미지 프레임 검증부
107: 3차원 디지털 트윈 공간 생성부
108: 3차원 디지털 트윈 공간 관리부
109: 제2 심층신경망 기반 보간부
200: 사용자 단말
100: device for providing a three-dimensional digital twin space
101: First deep neural network based frame selection unit
102: object image extraction unit
103: feature point matching unit
104: camera information determining unit
105: 3-dimensional coordinate determination unit
106: reference image frame verification unit
107: 3D digital twin space generation unit
108: 3D digital twin space management unit
109: second deep neural network based interpolator
200: user terminal

Claims (1)

심층 신경망을 이용하여 3차원 디지털 트윈 공간을 제공하기 위한 장치로서,
미리 지도학습된 제1 심층 신경망을 이용하여, 사용자 단말로부터 획득된 동영상을 구성하는 복수의 이미지 프레임들 중에서 3차원 디지털 트윈 공간을 구성하는데 사용할 레퍼런스 이미지 프레임들을 선정하는 제1 심층 신경망 기반 프레임 선택부;
선정된 적어도 둘의 레퍼런스 이미지 프레임들에서 객체영상을 검출하고, 해당 객체영상을 추출하는 객체영상 추출부;
적어도 둘의 레퍼런스 이미지 프레임들 각각의 객체영상으로부터 특징점을 추출하고, 추출된 특징점들을 서로 매칭시키는 특징점 매칭부;
매칭된 특징점들을 이용하여 특징점들 각각의 속성을 결정하고, 결정된 특징점들 각각의 속성에 기초하여 카메라 정보를 결정하는 카메라 정보 결정부;
상기 카메라 정보에 포함된 각각의 레퍼런스 이미지 프레임와 대응하는 카메라들 사이의 상대적인 위치에 기초하여 상기 레퍼런스 이미지 프레임들을 검증하는 레퍼런스 이미지 프레임 검증부;
검증된 레퍼런스 이미지 프레임들을 기반으로 3차원 복원(3D reconstruction)을 수행하여 3차원 디지털 트윈 공간을 생성하는 3차원 디지털 트윈 공간 생성부;
생성된 3차원 디지털 트윈 공간에 대한 사용자 단말의 접근을 관리하는 3차원 디지털 트윈 공간 관리부; 및
제2 심층 신경망을 이용하여, 상기 3차원 디지털 트윈 공간을 구성하는 포인트 클라우드에 대한 보간(interpolation)을 수행하는 제2 심층 신경망 기반 보간부를 포함하고,
상기 프레임 선택부는,
상기 동영상을 구성하고 연속한 시간으로 연결되는 상기 복수의 이미지 프레임들의 집합에서 일정한 제1 시간 간격과 대응하는 이미지 프레임들을 레퍼런스 이미지 프레임들로 선택하며,
상기 레퍼런스 이미지 프레임 검증부는,
복수의 레퍼런스 이미지들 중 객체와 가장 가까운 거리의 레퍼런스 이미지 프레임에 해당하는 카메라의 위치를 기준 위치로 정하고, 상기 기준 위치와 객체의 기준점을 이은 선분을 반지름으로 갖는 2차원 원을 상기 기준점을 중심으로 그리고, 나머지 레퍼런스 이미지들에 대응하는 카메라의 위치들을 상기 기준점을 원점으로 갖는 좌표계에 나타내고,
상기 그려진 원을 균등하게 n(n은 4 이상의 자연수)등분하고, 각각의 상기 카메라의 위치와 상기 기준점을 이은 선분들과 상기 n등분된 원을 구성하는 n개의 호들 각각과의 교점의 개수를 비교하고,
비교 결과에 기초하여 레퍼런스 이미지 프레임의 재선정 여부를 결정하되,
상기 레퍼런스 이미지 프레임 검증부는.
하기 수학식을 만족하는 경우, 선택된 레퍼런스 이미지 프레임들이 3차원 디지털 트윈 공간을 생성하는데 부적합한 것으로 판단하되,

상기 수학식에서, 교점의 개수가 평균 교점보다 적은 호의 개수는, n등분된 호들 중에서 카메라의 위치와 기준점을 이은 선분들과의 교점의 개수가 평균 교점보다 적은 호의 개수를 의미하고, 평균 교점은 로 계산되는, 장치.
An apparatus for providing a three-dimensional digital twin space using a deep neural network,
A first deep neural network-based frame selection unit that selects reference image frames to be used in constructing a 3D digital twin space from among a plurality of image frames constituting a video obtained from a user terminal by using a first deep neural network trained in advance. ;
an object image extraction unit for detecting an object image from at least two selected reference image frames and extracting the corresponding object image;
a feature point matching unit that extracts feature points from the object images of each of the at least two reference image frames and matches the extracted feature points with each other;
a camera information determination unit for determining attributes of each of the feature points using the matched feature points, and determining camera information based on the attributes of each of the determined feature points;
a reference image frame verification unit verifying the reference image frames based on relative positions between each reference image frame included in the camera information and corresponding cameras;
a 3D digital twin space generation unit generating a 3D digital twin space by performing 3D reconstruction based on verified reference image frames;
a 3D digital twin space management unit that manages access of a user terminal to the created 3D digital twin space; and
A second deep neural network-based interpolation unit performing interpolation on a point cloud constituting the 3D digital twin space using a second deep neural network;
The frame selector,
Selecting image frames corresponding to a predetermined first time interval as reference image frames from the set of the plurality of image frames constituting the video and connected in successive times;
The reference image frame verification unit,
Among the plurality of reference images, the position of the camera corresponding to the reference image frame closest to the object is set as the reference position, and a two-dimensional circle having a radius of a line segment connecting the reference position and the reference point of the object is centered on the reference point. Then, the positions of the camera corresponding to the remaining reference images are displayed in a coordinate system having the reference point as an origin,
The drawn circle is evenly divided into n (n is a natural number of 4 or more), and the number of intersections between the position of each camera and the line segments connecting the reference point and each of the n arcs constituting the n-divided circle is compared. do,
Based on the comparison result, it is determined whether to reselect the reference image frame,
The reference image frame verification unit.
When the following equation is satisfied, it is determined that the selected reference image frames are unsuitable for creating a 3D digital twin space,

In the above equation, the number of arcs with the number of intersections less than the average intersection means the number of arcs in which the number of intersections of the lines connecting the camera position and the reference point is less than the average intersection among the arcs divided into n, and the average intersection is The device, calculated as .
KR1020220152625A 2021-10-29 2022-11-15 Method and apparatus for creating a natural three-dimensional digital twin through verification of a reference image KR102572415B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220152625A KR102572415B1 (en) 2021-10-29 2022-11-15 Method and apparatus for creating a natural three-dimensional digital twin through verification of a reference image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210147051A KR102468718B1 (en) 2021-10-29 2021-10-29 Method and device for providing 3d digital twin space using deep neural network
KR1020220152625A KR102572415B1 (en) 2021-10-29 2022-11-15 Method and apparatus for creating a natural three-dimensional digital twin through verification of a reference image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210147051A Division KR102468718B1 (en) 2021-10-29 2021-10-29 Method and device for providing 3d digital twin space using deep neural network

Publications (2)

Publication Number Publication Date
KR20230062462A KR20230062462A (en) 2023-05-09
KR102572415B1 true KR102572415B1 (en) 2023-09-01

Family

ID=84234727

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210147051A KR102468718B1 (en) 2021-10-29 2021-10-29 Method and device for providing 3d digital twin space using deep neural network
KR1020220152625A KR102572415B1 (en) 2021-10-29 2022-11-15 Method and apparatus for creating a natural three-dimensional digital twin through verification of a reference image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210147051A KR102468718B1 (en) 2021-10-29 2021-10-29 Method and device for providing 3d digital twin space using deep neural network

Country Status (1)

Country Link
KR (2) KR102468718B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116524030B (en) * 2023-07-03 2023-09-01 新乡学院 Reconstruction method and system for digital twin crane under swinging condition

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210295599A1 (en) * 2020-03-20 2021-09-23 Streem, Inc. 3d model reconstruction and scale estimation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102245693B1 (en) * 2018-09-18 2021-04-29 서울대학교산학협력단 Apparatus for three dimension image reconstruction and method thereof
KR20200109799A (en) * 2019-03-14 2020-09-23 주식회사 케이티 Apparatus for estimating depth of object in image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210295599A1 (en) * 2020-03-20 2021-09-23 Streem, Inc. 3d model reconstruction and scale estimation

Also Published As

Publication number Publication date
KR20230062462A (en) 2023-05-09
KR102468718B1 (en) 2022-11-18

Similar Documents

Publication Publication Date Title
US10679061B2 (en) Tagging virtualized content
US10803546B2 (en) Systems and methods for unsupervised learning of geometry from images using depth-normal consistency
CN111127304B (en) Cross-domain image conversion
US20210142478A1 (en) Multi-dimensional model merge for style transfer
US11704357B2 (en) Shape-based graphics search
CN104394422A (en) Video segmentation point acquisition method and device
JP7451716B2 (en) Optimal format selection for video players based on expected visual quality
EP3326156B1 (en) Consistent tessellation via topology-aware surface tracking
JP7129529B2 (en) UV mapping to 3D objects using artificial intelligence
US10217224B2 (en) Method and system for sharing-oriented personalized route planning via a customizable multimedia approach
WO2021222386A1 (en) Photometric-based 3d object modeling
KR102572415B1 (en) Method and apparatus for creating a natural three-dimensional digital twin through verification of a reference image
JP2019091436A (en) Classification of 2d image according to type of 3d arrangement
US20210166476A1 (en) Automatic 3D Image Reconstruction Process from Real-World 2D Images
CN113902061A (en) Point cloud completion method and device
CN114792355B (en) Virtual image generation method and device, electronic equipment and storage medium
CN110516598B (en) Method and apparatus for generating image
JP2021039758A (en) Similar region emphasis method and system using similarity among images
US20160182769A1 (en) Apparatus and method for generating motion effects by analyzing motions of objects
Zhao et al. Pui-net: A point cloud upsampling and inpainting network
TWI711004B (en) Picture processing method and device
US20230145498A1 (en) Image reprojection and multi-image inpainting based on geometric depth parameters
CN111652831A (en) Object fusion method and device, computer-readable storage medium and electronic equipment
Yadavannavar et al. Evidence Based Image Selection for 3D Reconstruction
CN114820908B (en) Virtual image generation method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right