KR20220074103A - Device and method of image registration for 3d models - Google Patents
Device and method of image registration for 3d models Download PDFInfo
- Publication number
- KR20220074103A KR20220074103A KR1020200162217A KR20200162217A KR20220074103A KR 20220074103 A KR20220074103 A KR 20220074103A KR 1020200162217 A KR1020200162217 A KR 1020200162217A KR 20200162217 A KR20200162217 A KR 20200162217A KR 20220074103 A KR20220074103 A KR 20220074103A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- virtual
- model
- photographing
- matching
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
본 발명에 따르면 3차원 모델에 대한 영상 정합 방법은 3차원 모델에 대한 영상 정합 장치에서 수행된다.
여기에서, 상기 3차원 모델에 대한 영상 정합 방법은 가상 환경에서 시설물의 3차원 모델을 구현하는 단계; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계; 상기 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함한다.
본 발명은 카메라로 촬영한 영상과 가상 환경에서 구현된 촬영 대상의 3차원 모델을 정합시킴으로써, 3차원 모델을 통해서도 촬영 대상을 정확하게 점검 및 진단할 수 있다.According to the present invention, an image registration method for a 3D model is performed in an image registration apparatus for a 3D model.
Here, the image registration method for the three-dimensional model may include: implementing a three-dimensional model of a facility in a virtual environment; generating a virtual image of the 3D model through virtual imaging in the virtual environment; calculating an error between the virtual image and the captured image obtained by photographing the actual facility by the photographing apparatus; and matching the virtual image and the captured image by correcting the calculated error.
According to the present invention, by matching an image captured by a camera with a three-dimensional model of an object to be photographed implemented in a virtual environment, it is possible to accurately check and diagnose an object to be photographed even through the three-dimensional model.
Description
본 발명은 3차원 모델에 대한 영상 정합 장치 및 방법에 관한 것으로서, 보다 상세하게는, 카메라로 촬영한 영상과 가상 환경에서 구현된 촬영 대상의 3차원 모델을 정합시킴으로써, 3차원 모델을 통해서도 촬영 대상을 정확하게 점검 및 진단할 수 있는 3차원 모델에 대한 영상 정합 장치 및 방법에 관한 것이다.The present invention relates to an image matching apparatus and method for a three-dimensional model, and more particularly, by matching an image captured by a camera with a three-dimensional model of a photographing object implemented in a virtual environment, It relates to an image matching apparatus and method for a 3D model capable of accurately checking and diagnosing .
안전 진단 및 손상도 점검 등을 포함하는 시설물 관리를 위한 방법 중 하나로서, 영상 장비를 활용하여 시설물의 상태 및 위치와 관련된 정보를 얻고 이를 활용하는 방법이 있다. 상기 영상 장비를 통해 얻어진 정보를 가상 환경 등에서 구현한 관리 대상 시설물의 3차원 모델에 적용하면 원격지에서도 용이하게 관리 대상인 시설물을 정밀점검 할 수 있는 이점이 있다.As one of the methods for facility management including safety diagnosis and damage level inspection, there is a method of obtaining and utilizing information related to the condition and location of a facility by using an imaging device. When the information obtained through the imaging equipment is applied to a three-dimensional model of a facility to be managed implemented in a virtual environment, etc., there is an advantage in that the facility to be managed can be easily inspected in a remote location.
한편, 인력의 접근이 용이하지 않은 상황이나 장소에서는 무인비행체를 활용함으로써, 시설물에 대한 정밀점검을 수행할 수 있다. 이러한 무인비행체를 활용한 시설물의 점검 및 관리 방법은 무인비행체를 통해 촬영한 영상에 나타나는 시설물 일부가 어떤 위치에 있는 것인지 정확하게 알 수 있어야 하며, 시설물에 발생한 미세한 손상 등을 정밀하게 파악할 수 있는 기술이 필요하게 된다.On the other hand, by using an unmanned aerial vehicle in a situation or place where access by manpower is not easy, a detailed inspection of the facility can be performed. The inspection and management method of facilities using such an unmanned aerial vehicle must be able to accurately identify the location of some of the facilities displayed in the image captured by the unmanned aerial vehicle, and the technology that can accurately identify minute damage to the facility is required. will be needed
구체적으로, 무인비행체에 장착된 촬영 장치로부터 영상을 획득하고, 이러한 영상으로부터 시설물에 대한 정량 정보를 추출하기 위해서는 영상이 촬영된 위치와 촬영 당시 카메라의 자세를 3차원 공간 상에서 결정해야 한다. 이에 따라, 무인비행체(또는 이에 탑재되는 촬영 장치)에 대한 위치 및 자세를 측정하기 위한 장치로서 GNSS(Global Navigation Satellite System; 글로벌 위성항법 시스템) 신호 수신 장치 및 IMU(Inertial Measurement Unit; 관성 측정 장치)가 사용될 수 있으며, 편의에 따라서 상기 두 장치의 기능이 하나로 병합된 GNSS/IMU가 사용될 수 있다.Specifically, in order to obtain an image from a photographing device mounted on an unmanned aerial vehicle and to extract quantitative information about a facility from such an image, the location at which the image was captured and the posture of the camera at the time of photographing must be determined in three-dimensional space. Accordingly, as a device for measuring the position and attitude of an unmanned aerial vehicle (or a photographing device mounted thereon), a GNSS (Global Navigation Satellite System) signal receiving device and IMU (Inertial Measurement Unit; Inertial Measurement Unit) are used. may be used, and according to convenience, a GNSS/IMU in which the functions of the two devices are merged into one may be used.
그러나, GNSS 신호가 무인비행체의 정확한 위치를 결정할 수 있을 만큼 수신되지 않는 상황에서는 획득한 영상의 촬영 위치 및 자세를 결정하는데 어려움이 발생할 수 있다. 예를 들어, 교량 시설물의 하부에 대한 정밀점검을 위해 교량 시설물 하부로 무인비행체를 이동시키는 경우 GNSS 신호의 수신이 원활하지 않을 수 있으며, 이러한 경우 획득한 영상과 영상에 대한 위치 정보 및 자세 정보 등이 정확히 일치하게 않게 되므로, 앞서 말한 3차원 모델로 구현된 시설물에 획득한 영상을 정확하게 정합시키기 어려운 문제가 발생할 수 있다.However, in a situation where the GNSS signal is not received enough to determine the exact position of the unmanned aerial vehicle, it may be difficult to determine the position and posture of the acquired image. For example, if an unmanned aerial vehicle is moved to the lower part of the bridge facility for a detailed inspection of the lower part of the bridge facility, the reception of the GNSS signal may not be smooth. Since this does not match exactly, it may be difficult to accurately match the image acquired to the facility implemented with the aforementioned three-dimensional model.
또한, GNSS 신호 수신과 관련된 문제 이외에도, 영상 장비의 카메라 정렬 상태가 정확하게 결정되어 있지 않을 경우 또는 구현된 3차원 모델의 형상이 정확하지 않은 경우에도 획득한 영상의 정합에 어려움이 생길 수 있다는 문제점이 있다.In addition, there is a problem that, in addition to the problems related to GNSS signal reception, there may be difficulties in matching the acquired images even if the camera alignment state of the imaging equipment is not accurately determined or the shape of the implemented 3D model is not accurate. have.
본 발명은 상술한 문제점을 해결하기 위해 고안된 것으로서, 촬영 장치를 통해 획득한 촬영 영상과 3차원 모델을 대상으로 생성된 가상 영상을 비교하여 두 영상 간의 오차를 산출하고, 산출된 오차를 보정하는 과정을 통해 정확한 정합을 이루어 낼 수 있다.The present invention is devised to solve the above problems, and a process of calculating an error between the two images by comparing a captured image obtained through a photographing device and a virtual image generated for a 3D model, and correcting the calculated error Accurate matching can be achieved through
본 발명의 일 측면에 따르면, 3차원 모델에 대한 영상 정합 방법은 3차원 모델에 대한 영상 정합 장치에서 수행된다. 여기에서, 상기 3차원 모델에 대한 영상 정합 방법은 가상 환경에서 시설물의 3차원 모델을 구현하는 단계; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계; 상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.According to an aspect of the present invention, the method of matching an image to a 3D model is performed by an apparatus for matching an image to a 3D model. Here, the image registration method for the three-dimensional model may include: implementing a three-dimensional model of a facility in a virtual environment; generating a virtual image of the 3D model through virtual imaging in the virtual environment; calculating an error between the generated virtual image and a photographed image obtained by photographing an actual facility by the photographing apparatus; and matching the virtual image and the captured image by correcting the calculated error.
일 실시예에서, 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;는, 상기 촬영 장치가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집하는 단계; 및 상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;를 포함할 수 있다.In one embodiment, generating a virtual image of the 3D model; collecting the photographing position and photographing posture information for each of the photographed images acquired by the photographing apparatus; and deriving a photographing position and photographing posture in the virtual environment corresponding to the collected photographing position and photographing posture information, and generating a virtual image for the three-dimensional model based on the derived photographing position and photographing posture. ; may be included.
일 실시예에서, 상기 오차를 산출하는 단계는, 상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출하는 단계;를 포함할 수 있다.In an embodiment, the calculating of the error may include extracting an outline of a facility included in the virtual image and the captured image.
일 실시예에서, 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.In an embodiment, the matching of the virtual image and the captured image may include matching the virtual image and the captured image based on a projection transformation method using the extracted outline.
일 실시예에서, 상기 오차를 산출하는 단계는, 상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키는 단계; 및 상기 매칭된 영상이 서로 투영되도록 중첩시키는 단계;를 포함할 수 있다.In an embodiment, the calculating of the error may include: matching images determined to have the same photographing position and photographing posture among the virtual image and the photographed image; and overlapping the matched images to be projected on each other.
일 실시예에서, 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.In an embodiment, the matching of the virtual image and the captured image may include matching the virtual image and the captured image by applying the projection transformation method to each of the overlapping images.
일 실시예에서, 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출하는 단계;를 포함할 수 있다.In an embodiment, matching the virtual image and the captured image based on a projection transformation method may include calculating transformation coordinates in the virtual environment with respect to the acquired coordinates of the captured image.
본 발명의 다른 일 측면에 따르면, 3차원 모델에 대한 영상 정합 장치는 3차원 모델에 대한 영상 정합 방법을 수행한다. 여기에서, 상기 3차원 모델에 대한 영상 정합 장치는 가상 환경에서 시설물의 3차원 모델을 구현하는 3차원 모델 생성부; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 가상 영상 생성부; 상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 오차 산출부; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 영상 정합부;를 포함할 수 있다.According to another aspect of the present invention, an apparatus for registering an image for a 3D model performs an image matching method for a 3D model. Here, the image matching apparatus for the three-dimensional model may include: a three-dimensional model generator for implementing a three-dimensional model of a facility in a virtual environment; a virtual image generating unit generating a virtual image of the 3D model through virtual imaging in the virtual environment; an error calculation unit for calculating an error between the generated virtual image and a captured image obtained by photographing an actual facility by the photographing apparatus; and an image matching unit configured to match the virtual image and the captured image by correcting the calculated error.
본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 구현된 3차원 모델의 가상 영상과 정합할 촬영 영상 간의 불일치 발생을 정확하게 검출하고, 이를 보정하여 실제 시설물과 거의 동일한 3차원 모델을 구현할 수 있는 효과가 있다.An apparatus and method for matching an image for a three-dimensional model according to an embodiment of the present invention accurately detects the occurrence of a discrepancy between a virtual image of an implemented three-dimensional model and a captured image to be matched, and corrects it to correct a three-dimensional (3D) almost identical to an actual facility There is an effect that the model can be implemented.
본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 시설물에 대한 3차원 모델에 촬영 영상을 정확하게 정합할 수 있으므로, 원격지에서도 관리 대상인 시설물을 용이하게 정밀 점검할 수 있는 효과가 있다.Since the image registration apparatus and method for a three-dimensional model according to an embodiment of the present invention can accurately match a photographed image to a three-dimensional model for a facility, it is possible to easily and precisely check a facility to be managed even at a remote location. have.
본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 3차원 모델에 대한 가상 영상과 촬영 영상 간의 오차를 자동적으로 산출하여 보정하므로, 영상 간의 정합을 위한 작업자의 후보정 작업이 별도로 필요하지 않게 되는 이점이 있다.Since the image registration apparatus and method for a 3D model according to an embodiment of the present invention automatically calculates and corrects an error between a virtual image and a captured image of the 3D model, the operator's post-correction work for image registration is separately The advantage is that it is not necessary.
도 1은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치에서 이용될 수 있는 촬영 장치(10)를 설명하기 위한 참고도이다.
도 2는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치를 설명하기 위한 블록도이다.
도 3 내지 도 5는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 참고도이다.
도 6은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 흐름도이다.1 is a reference diagram for explaining a photographing
2 is a block diagram illustrating an image matching apparatus for a 3D model according to an embodiment of the present invention.
3 to 5 are reference diagrams for explaining an image matching method for a 3D model according to an embodiment of the present invention.
6 is a flowchart illustrating an image matching method for a 3D model according to an embodiment of the present invention.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the accompanying drawings as follows. Here, repeated descriptions, well-known functions that may unnecessarily obscure the gist of the present invention, and detailed descriptions of configurations will be omitted. The embodiments of the present invention are provided in order to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer description.
명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.
또한, 명세서에 기재된 "...부"의 용어는 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, the term "...unit" described in the specification means a unit that processes one or more functions or operations, which may be implemented as hardware or software or a combination of hardware and software.
도 1은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치에서 이용될 수 있는 촬영 장치(10)를 설명하기 위한 참고도이다.1 is a reference diagram for explaining a photographing
도 1을 참조하면, 촬영 장치(10)는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법에서 정밀 점검, 진단 또는 관리 대상이 되는 시설물의 영상을 촬영하고, 영상 정보를 획득할 수 있는 장치로서, 구비되는 렌즈를 통해 입력되는 광 신호들을 전자 신호들로 변환하는 이미지 센서를 포함하거나 이와 동등한 기능을 수행할 수 있는 장치를 의미할 수 있다. 도 1에서 촬영 장치(10)는 본 발명의 바람직한 예시로서 무인비행체로 도시되었으며, 무인비행체 형태의 촬영 장치(10)는 촬영 장치(10)의 위치 및 자세 정보를 획득하기 위한 GNSS/IMU, 촬영 장치(10)에 탑재되는 카메라 및 상기 카메라를 고정하기 위한 짐발을 포함하여 구성될 수 있다.Referring to FIG. 1 , the photographing
또한, 촬영 장치(10)는 획득한 영상 정보를 내부에 구비되는 저장부에 저장하거나, 무선 네트워크를 통해 실시간으로 3차원 모델에 대한 영상 정합 장치 또는 다른 서버에 전송할 수 있다. 또한, 촬영 장치(10)는 무선 통신 제어를 포함하는 다양한 방식에 의하여 동작이 제어될 수 있다.Also, the photographing
도 2는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 (100)의 구성을 도시한 블록도이다.2 is a block diagram illustrating the configuration of an
도 2를 참조하면, 본 발명의 일 실시예에 따른 시설물 정밀점검 시스템(100)은 3차원 모델 생성부(110), 가상 영상 생성부(120), 오차 산출부(130) 및 영상 정합부(140)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the
3차원 모델 생성부(110), 가상 영상 생성부(120), 오차 산출부(130) 및 영상 정합부(140) 각각은 컴퓨터 프로그램들 혹은 컴퓨터에 의해 판독 가능한 매체에 저장된 데이터와 같은 명령어들을 실행하기 위한 하나 또는 그 이상의 프로세서들, 메모리들, 및 다른 적절한 구성 요소들을 포함함으로써 본 명세서에 기재된 다양한 단계들을 수행할 수 있다.Each of the 3D
예를 들면, 컴퓨터 프로그램들 또는 명령어들은 해당 구성의 내부 혹은 외부에 있는 컴퓨터에 의해 판독 가능한 매체에 저장될 수 있다.For example, computer programs or instructions may be stored in a computer-readable medium internal to or external to the configuration.
3차원 모델 생성부(110)는 가상 환경에서 시설물의 3차원 모델을 구현할 수 있다.The
여기에서, 가상 환경은 사용자가 상기 시설물의 3차원 모델을 구현할 수 있는 가상의 공간을 의미할 수 있다. 예를 들어, 상기 가상 환경은 사용자 단말에 설치될 수 있는 특정 소프트웨어의 실행을 통해 임의로 생성될 수 있는 것으로서, 사용자 단말의 디스플레이 장치를 통해 시각적으로 표현되는 3차원 공간을 의미할 수 있다. 이에 따라, 3차원 모델 생성부(110)는 사용자가 미리 형성한 시설물의 3차원 모델에 대한 정보에 기초하여 상기 가상 환경 상에 시설물의 3차원 모델을 구현할 수 있다.Here, the virtual environment may mean a virtual space in which a user can implement a 3D model of the facility. For example, the virtual environment may be arbitrarily created through the execution of specific software that may be installed in the user terminal, and may refer to a three-dimensional space visually expressed through the display device of the user terminal. Accordingly, the 3D
가상 영상 생성부(120)는 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성할 수 있다.The
일 실시예에서, 가상 영상 생성부(120)는 촬영 장치(10)가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집할 수 있다.In an embodiment, the
예를 들어, 가상 영상 생성부(120)는 촬영 장치(10)의 GNSS/IMU로부터 촬영 장치(10)의 촬영 시 위치 및 자세 정보를 직접 수신 받아 수집할 수 있으며, 다른 한편으로는, 촬영 장치(10)에 포함되는 저장 장치로부터 촬영 시의 위치 및 자세 정보를 전달받아 수집할 수 있다.For example, the virtual
일 실시예에서, 가상 영상 생성부(120)는 상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 상기 3차원 모델에 대한 가상 영상을 생성할 수 있다.In an embodiment, the
예를 들어, 가상 영상 생성부(120)는 촬영 장치(10)가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집함으로써, 상기 획득한 촬영 영상 각각에 대한 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출할 수 있으며, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 가상 환경 상에서 가상 촬영을 수행함으로써, 촬영 장치(10)가 촬영한 촬영 영상과 유사한 가상 영상을 생성할 수 있다.For example, the virtual
오차 산출부(130)는 상기 생성된 가상 영상 및 촬영 장치(10)가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출할 수 있다. 여기에서, 상술한 바와 같이 가상 영상 생성부(120)가 촬영 장치(10)가 촬영한 촬영 영상과 유사한 가상 영상을 생성한다고 하더라도, GNSS/IMU 등을 통해 위치 및 자세를 결정하기 어려운 상황이 발생하는 경우를 포함하는 다양한 이유로 오차가 발생될 여지가 있으며, 이러한 오차를 보정하여 해소하기 위해서는 상기 가상 영상과 획득한 촬영 영상 간의 오차를 먼저 정확하게 산출할 필요가 있다.The
일 실시예에서, 오차 산출부(130)는 상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키고, 상기 매칭된 영상이 서로 투영되도록 중첩시킬 수 있다.In an embodiment, the
이와 관련하여, 도 3 및 도 4는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 참고도이다.In this regard, FIGS. 3 and 4 are reference diagrams for explaining an image matching method for a 3D model according to an embodiment of the present invention.
여기에서, 도 3의 (a)는 본 발명의 일 실시예에 따른 촬영 장치(10)가 촬영한 시설물에 대한 촬영 영상 중 하나를 도시한 것이며, 도 3의 (b)는 촬영 장치(10)가 촬영한 영상(a)에 대한 촬영 위치 및 자세를 적용하여 생성된 가상 영상을 도시한 것이다. 또한, 도 4는 위 영상(a) 및 (b)를 서로 투영되도록 중첩한 예를 도시한 것이다.Here, (a) of FIG. 3 shows one of the photographed images of the facility photographed by the photographing
도 4에 도시된 바와 같이, 오차 산출부(130)는 상기 매칭된 영상 각각을 중첩시켜 비교하는 방법을 통해 상기 매칭된 영상 각각에 대한 오차를 산출할 수 있다.As shown in FIG. 4 , the
일 실시예에서, 오차 산출부(130)는 상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출할 수 있다. 이와 관련하여, 도 5는 본 발명의 3차원 모델에 대한 영상 정합 장치를 통해 추출한 외곽선의 예를 도시하고 있다. 여기에서, 오차 산출부(130)는 각 영상에 포함되는 시설물에 대한 외곽선을 추출함으로써, 상기 중첩된 영상 간의 오차를 산출하는데 이용할 수 있다. 예를 들어, 오차 산출부(130)는 상기 중첩된 영상에서 촬영 영상의 외곽선 및 가상 영상의 외곽선을 비교하여 오차를 산출하되, 각 영상의 외곽선에 대한 특징점을 도출하고, 각 영상에 대해서 도출된 특징점 간의 좌표 비교를 통해 오차를 산출할 수 있다.In an embodiment, the
영상 정합부(140)는 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.The
일 실시예에서, 영상 정합부(140)는 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출할 수 있다.In an embodiment, the
본 발명의 3차원 모델에 대한 영상 정합 방법은 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출함으로써, 상기 획득한 촬영 영상을 상기 가상 영상과 같은 기준에서 비교할 수 있도록 한다. 여기에서, 하기 수학식 1은 상기 획득한 촬영 영상의 좌표를 가상 환경에서의 좌표로 변환하기 위한 것으로서, 이러한 변환 과정에는 다양한 변수가 이용될 수 있다.In the image matching method for a three-dimensional model of the present invention, the obtained captured image can be compared on the same basis as the virtual image by calculating transform coordinates in the virtual environment for the obtained coordinates of the captured image. Here, the following Equation 1 is for converting the obtained coordinates of the captured image into coordinates in a virtual environment, and various variables may be used in this transformation process.
[수학식 1][Equation 1]
(여기에서, 는 촬영 영상에 대한 변환 좌표, s는 축척, r은 y축 회전 각도, p는 x축 회전 각도, h는 z축 회전 각도, 는 x축 이동 거리, 는 y축 이동 거리, 및 는 각각 변환 이전의 촬영 영상 좌표임)(From here, is the transformation coordinate for the captured image, s is the scale, r is the y-axis rotation angle, p is the x-axis rotation angle, h is the z-axis rotation angle, is the x-axis travel distance, is the y-axis travel distance, and are the coordinates of the captured image before transformation, respectively)
일 실시예에서, 영상 정합부(140)는 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.In an embodiment, the
일 실시예에서, 영상 정합부(140)는 상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.In an embodiment, the
본 발명의 3차원 모델에 대한 영상 정합 방법은 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 영상 간에 발생한 오차를 최소화하는 보정을 수행할 수 있다. 구체적으로 예를 들어, 영상 정합부(140)는 상기 추출된 외각선에 대한 임의의 특징점을 도출하고, 해당 특징점을 포함하는 외곽선의 기울기로부터 산출되는 가중치 행렬을 상기 특징점에 적용함으로써, 특징점 간의 위치 오차를 최소화할 수 있다.The image registration method for a 3D model of the present invention may perform correction to minimize an error occurring between images based on a projection transformation method using the extracted outline. Specifically, for example, the
도 6은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating an image matching method for a 3D model according to an embodiment of the present invention.
도 6을 참조하면, 사용자는 촬영 장치를 통해 관리 대상이 되는 시설물에 대한 촬영 영상을 획득해 놓을 수 있으며, 특정 소프트웨어 등을 통해 상기 관리 대상이 되는 시설물의 3차원 모델을 생성하여 가상 환경 상에 구현할 수 있다(S601).Referring to FIG. 6 , a user may acquire a photographed image of a facility to be managed through a photographing device, and create a three-dimensional model of the facility to be managed through a specific software and display it in a virtual environment. It can be implemented (S601).
다음으로, 가상 영상 생성부는 획득한 촬영 영상의 위치 및 자세 정보과 대응되도록 가상 환경 상에서 구현된 시설물을 촬영하여 가상 영상을 생성할 수 있다(S602).Next, the virtual image generator may generate a virtual image by photographing a facility implemented in a virtual environment to correspond to the position and posture information of the acquired image (S602).
다음으로, 오차 산출부는 생성된 가상 영상과 미리 획득한 촬영 영상 간의 오차를 산출할 수 있다(S603).Next, the error calculator may calculate an error between the generated virtual image and the previously acquired image (S603).
다음으로, 영상 정합부를 통해 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합할 수 있으며, 이를 통해 사용자는 별도의 후보정 과정 없이 3차원 모델을 이용하여 실제 시설물을 점검 및 관리할 수 있다(S604).Next, the virtual image and the captured image can be matched by correcting the calculated error through the image matching unit, and through this, the user can check and manage the actual facility using the 3D model without a separate post-correction process. (S604).
전술한 3차원 모델에 대한 영상 정합 방법은 도면에 제시된 순서도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.The above-described image registration method for the three-dimensional model has been described with reference to the flowchart shown in the drawings. For simplicity, the method has been shown and described as a series of blocks, but the invention is not limited to the order of the blocks, and some blocks may occur with other blocks in an order different from or concurrently with those shown and described herein. Also, various other branches, flow paths, and orders of blocks may be implemented that achieve the same or similar result. In addition, not all illustrated blocks may be required for implementation of the methods described herein.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiment of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as described in the claims below. You will understand that it can be done.
10: 촬영 장치
100: 3차원 모델에 대한 영상 정합 장치
110: 3차원 모델 생성부
120: 가상 영상 생성부
130: 오차 산출부
140: 영상 정합부10: shooting device
100: image matching device for 3D model
110: 3D model generation unit
120: virtual image generating unit
130: error calculation unit
140: image matching unit
Claims (8)
가상 환경에서 시설물의 3차원 모델을 구현하는 단계;
상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;
상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및
상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하는,
3차원 모델에 대한 영상 정합 방법.
In the image registration method for the 3D model performed in the image registration apparatus for the 3D model,
implementing a three-dimensional model of a facility in a virtual environment;
generating a virtual image of the 3D model through virtual imaging in the virtual environment;
calculating an error between the generated virtual image and a photographed image obtained by photographing an actual facility by the photographing apparatus; and
Compensating the calculated error to match the virtual image and the captured image; including,
Image registration method for 3D model.
상기 3차원 모델에 대한 가상 영상을 생성하는 단계;는,
상기 촬영 장치가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집하는 단계; 및
상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
According to claim 1,
generating a virtual image for the 3D model;
collecting, by the photographing device, photographing position and photographing posture information for each of the captured images; and
deriving a photographing position and photographing posture in the virtual environment corresponding to the collected photographing position and photographing posture information, and generating a virtual image for the 3D model based on the derived photographing position and photographing posture; characterized in that it comprises,
Image registration method for 3D model.
상기 오차를 산출하는 단계는,
상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
According to claim 1,
The step of calculating the error is
Extracting an outline of a facility included in the virtual image and the captured image; characterized in that it comprises,
Image registration method for 3D model.
상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
4. The method of claim 3,
Matching the virtual image and the captured image;
matching the virtual image and the captured image based on a projection transformation method using the extracted outline;
Image registration method for 3D model.
상기 오차를 산출하는 단계는,
상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키는 단계; 및
상기 매칭된 영상이 서로 투영되도록 중첩시키는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
5. The method of claim 4,
The step of calculating the error is
matching images determined to have the same shooting position and shooting posture among the virtual image and the captured image; and
Superimposing the matched images to be projected on each other; characterized in that it comprises,
Image registration method for 3D model.
상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
6. The method of claim 5,
Matching the virtual image and the captured image;
and matching the virtual image and the captured image by applying the projection transformation method to each of the overlapping images.
Image registration method for 3D model.
투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
5. The method of claim 4,
Matching the virtual image and the captured image based on the projection transformation method;
Calculating transformation coordinates in the virtual environment for the acquired coordinates of the captured image; characterized in that it comprises,
Image registration method for 3D model.
가상 환경에서 시설물의 3차원 모델을 구현하는 3차원 모델 생성부;
상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 가상 영상 생성부;
상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 오차 산출부; 및
상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 영상 정합부;를 포함하는,
3차원 모델에 대한 영상 정합 장치.In the image registration apparatus for a three-dimensional model for performing the image registration method for the three-dimensional model,
a three-dimensional model generator that implements a three-dimensional model of a facility in a virtual environment;
a virtual image generating unit generating a virtual image of the 3D model through virtual imaging in the virtual environment;
an error calculation unit for calculating an error between the generated virtual image and a captured image obtained by photographing an actual facility by the photographing apparatus; and
An image matching unit for matching the virtual image and the captured image by correcting the calculated error;
Image matching device for 3D model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200162217A KR102576449B1 (en) | 2020-11-27 | 2020-11-27 | Device and method of image registration for 3d models |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200162217A KR102576449B1 (en) | 2020-11-27 | 2020-11-27 | Device and method of image registration for 3d models |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220074103A true KR20220074103A (en) | 2022-06-03 |
KR102576449B1 KR102576449B1 (en) | 2023-09-11 |
Family
ID=81983700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200162217A KR102576449B1 (en) | 2020-11-27 | 2020-11-27 | Device and method of image registration for 3d models |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102576449B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116758124A (en) * | 2023-06-16 | 2023-09-15 | 北京代码空间科技有限公司 | 3D model correction method and terminal equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050078136A (en) * | 2004-01-30 | 2005-08-04 | 삼성전자주식회사 | Method for providing local information by augmented reality and local information service system therefor |
KR20100047563A (en) * | 2008-10-29 | 2010-05-10 | 에이알비전 (주) | Augmented reality apparatus for simulation discipline and virtual image composition method |
KR20120069994A (en) * | 2010-12-21 | 2012-06-29 | 박경호 | A position-tracking system using augmented reality and location based service |
KR20120071281A (en) * | 2010-12-22 | 2012-07-02 | 한국전자통신연구원 | Apparatus and method for fusion of real and virtual environment on mobile |
KR102038127B1 (en) | 2018-12-07 | 2019-10-29 | 주식회사 한국건설관리공사 | Facility management apparatus and method using unmanned vehicle |
KR20200049337A (en) * | 2018-10-31 | 2020-05-08 | 에스케이텔레콤 주식회사 | Apparatus and method for registering images |
-
2020
- 2020-11-27 KR KR1020200162217A patent/KR102576449B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050078136A (en) * | 2004-01-30 | 2005-08-04 | 삼성전자주식회사 | Method for providing local information by augmented reality and local information service system therefor |
KR20100047563A (en) * | 2008-10-29 | 2010-05-10 | 에이알비전 (주) | Augmented reality apparatus for simulation discipline and virtual image composition method |
KR20120069994A (en) * | 2010-12-21 | 2012-06-29 | 박경호 | A position-tracking system using augmented reality and location based service |
KR20120071281A (en) * | 2010-12-22 | 2012-07-02 | 한국전자통신연구원 | Apparatus and method for fusion of real and virtual environment on mobile |
KR20200049337A (en) * | 2018-10-31 | 2020-05-08 | 에스케이텔레콤 주식회사 | Apparatus and method for registering images |
KR102038127B1 (en) | 2018-12-07 | 2019-10-29 | 주식회사 한국건설관리공사 | Facility management apparatus and method using unmanned vehicle |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116758124A (en) * | 2023-06-16 | 2023-09-15 | 北京代码空间科技有限公司 | 3D model correction method and terminal equipment |
CN116758124B (en) * | 2023-06-16 | 2024-09-24 | 北京代码空间科技有限公司 | 3D model correction method and terminal equipment |
Also Published As
Publication number | Publication date |
---|---|
KR102576449B1 (en) | 2023-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10825198B2 (en) | 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images | |
EP3208774B1 (en) | Methods for localization using geotagged photographs and three-dimensional visualization | |
US7782361B2 (en) | Method and apparatus for measuring position and orientation | |
US6442293B1 (en) | Image forming apparatus, image forming method and computer-readable storage medium having an image forming program | |
JP5992184B2 (en) | Image data processing apparatus, image data processing method, and image data processing program | |
US7970576B2 (en) | Information processing apparatus and information processing method | |
JP4448187B2 (en) | Image geometric correction method and apparatus | |
US20130230214A1 (en) | Scene structure-based self-pose estimation | |
JP6516558B2 (en) | Position information processing method | |
US11221216B2 (en) | Placement table for unmanned aerial vehicle, surveying method, surveying device, surveying system and program | |
JP5134784B2 (en) | Aerial photogrammetry | |
JP6433200B2 (en) | Arithmetic apparatus, arithmetic method, and program | |
JPWO2004113836A1 (en) | Shooting image display method | |
KR20200064542A (en) | Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof | |
JP2008131177A (en) | Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method | |
CN111750838B (en) | Method, device and equipment for generating agricultural land planning map and storage medium | |
US10943360B1 (en) | Photogrammetric machine measure up | |
CN106767895B (en) | The system and method for solving camera elements of exterior orientation are oriented using index point | |
US20220026208A1 (en) | Surveying system, surveying method, and surveying program | |
JP2019032218A (en) | Location information recording method and device | |
KR101346192B1 (en) | Aviation surveying system for correction realtime of aviation image | |
CN110044266B (en) | Photogrammetry system based on speckle projection | |
JP3808833B2 (en) | Aerial photogrammetry | |
KR102576449B1 (en) | Device and method of image registration for 3d models | |
KR102226256B1 (en) | Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |