KR20220074103A - Device and method of image registration for 3d models - Google Patents

Device and method of image registration for 3d models Download PDF

Info

Publication number
KR20220074103A
KR20220074103A KR1020200162217A KR20200162217A KR20220074103A KR 20220074103 A KR20220074103 A KR 20220074103A KR 1020200162217 A KR1020200162217 A KR 1020200162217A KR 20200162217 A KR20200162217 A KR 20200162217A KR 20220074103 A KR20220074103 A KR 20220074103A
Authority
KR
South Korea
Prior art keywords
image
virtual
model
photographing
matching
Prior art date
Application number
KR1020200162217A
Other languages
Korean (ko)
Other versions
KR102576449B1 (en
Inventor
방기인
이광일
Original Assignee
주식회사 소프트그래피
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 소프트그래피 filed Critical 주식회사 소프트그래피
Priority to KR1020200162217A priority Critical patent/KR102576449B1/en
Publication of KR20220074103A publication Critical patent/KR20220074103A/en
Application granted granted Critical
Publication of KR102576449B1 publication Critical patent/KR102576449B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따르면 3차원 모델에 대한 영상 정합 방법은 3차원 모델에 대한 영상 정합 장치에서 수행된다.
여기에서, 상기 3차원 모델에 대한 영상 정합 방법은 가상 환경에서 시설물의 3차원 모델을 구현하는 단계; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계; 상기 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함한다.
본 발명은 카메라로 촬영한 영상과 가상 환경에서 구현된 촬영 대상의 3차원 모델을 정합시킴으로써, 3차원 모델을 통해서도 촬영 대상을 정확하게 점검 및 진단할 수 있다.
According to the present invention, an image registration method for a 3D model is performed in an image registration apparatus for a 3D model.
Here, the image registration method for the three-dimensional model may include: implementing a three-dimensional model of a facility in a virtual environment; generating a virtual image of the 3D model through virtual imaging in the virtual environment; calculating an error between the virtual image and the captured image obtained by photographing the actual facility by the photographing apparatus; and matching the virtual image and the captured image by correcting the calculated error.
According to the present invention, by matching an image captured by a camera with a three-dimensional model of an object to be photographed implemented in a virtual environment, it is possible to accurately check and diagnose an object to be photographed even through the three-dimensional model.

Description

3차원 모델에 대한 영상 정합 장치 및 방법{DEVICE AND METHOD OF IMAGE REGISTRATION FOR 3D MODELS}DEVICE AND METHOD OF IMAGE REGISTRATION FOR 3D MODELS

본 발명은 3차원 모델에 대한 영상 정합 장치 및 방법에 관한 것으로서, 보다 상세하게는, 카메라로 촬영한 영상과 가상 환경에서 구현된 촬영 대상의 3차원 모델을 정합시킴으로써, 3차원 모델을 통해서도 촬영 대상을 정확하게 점검 및 진단할 수 있는 3차원 모델에 대한 영상 정합 장치 및 방법에 관한 것이다.The present invention relates to an image matching apparatus and method for a three-dimensional model, and more particularly, by matching an image captured by a camera with a three-dimensional model of a photographing object implemented in a virtual environment, It relates to an image matching apparatus and method for a 3D model capable of accurately checking and diagnosing .

안전 진단 및 손상도 점검 등을 포함하는 시설물 관리를 위한 방법 중 하나로서, 영상 장비를 활용하여 시설물의 상태 및 위치와 관련된 정보를 얻고 이를 활용하는 방법이 있다. 상기 영상 장비를 통해 얻어진 정보를 가상 환경 등에서 구현한 관리 대상 시설물의 3차원 모델에 적용하면 원격지에서도 용이하게 관리 대상인 시설물을 정밀점검 할 수 있는 이점이 있다.As one of the methods for facility management including safety diagnosis and damage level inspection, there is a method of obtaining and utilizing information related to the condition and location of a facility by using an imaging device. When the information obtained through the imaging equipment is applied to a three-dimensional model of a facility to be managed implemented in a virtual environment, etc., there is an advantage in that the facility to be managed can be easily inspected in a remote location.

한편, 인력의 접근이 용이하지 않은 상황이나 장소에서는 무인비행체를 활용함으로써, 시설물에 대한 정밀점검을 수행할 수 있다. 이러한 무인비행체를 활용한 시설물의 점검 및 관리 방법은 무인비행체를 통해 촬영한 영상에 나타나는 시설물 일부가 어떤 위치에 있는 것인지 정확하게 알 수 있어야 하며, 시설물에 발생한 미세한 손상 등을 정밀하게 파악할 수 있는 기술이 필요하게 된다.On the other hand, by using an unmanned aerial vehicle in a situation or place where access by manpower is not easy, a detailed inspection of the facility can be performed. The inspection and management method of facilities using such an unmanned aerial vehicle must be able to accurately identify the location of some of the facilities displayed in the image captured by the unmanned aerial vehicle, and the technology that can accurately identify minute damage to the facility is required. will be needed

구체적으로, 무인비행체에 장착된 촬영 장치로부터 영상을 획득하고, 이러한 영상으로부터 시설물에 대한 정량 정보를 추출하기 위해서는 영상이 촬영된 위치와 촬영 당시 카메라의 자세를 3차원 공간 상에서 결정해야 한다. 이에 따라, 무인비행체(또는 이에 탑재되는 촬영 장치)에 대한 위치 및 자세를 측정하기 위한 장치로서 GNSS(Global Navigation Satellite System; 글로벌 위성항법 시스템) 신호 수신 장치 및 IMU(Inertial Measurement Unit; 관성 측정 장치)가 사용될 수 있으며, 편의에 따라서 상기 두 장치의 기능이 하나로 병합된 GNSS/IMU가 사용될 수 있다.Specifically, in order to obtain an image from a photographing device mounted on an unmanned aerial vehicle and to extract quantitative information about a facility from such an image, the location at which the image was captured and the posture of the camera at the time of photographing must be determined in three-dimensional space. Accordingly, as a device for measuring the position and attitude of an unmanned aerial vehicle (or a photographing device mounted thereon), a GNSS (Global Navigation Satellite System) signal receiving device and IMU (Inertial Measurement Unit; Inertial Measurement Unit) are used. may be used, and according to convenience, a GNSS/IMU in which the functions of the two devices are merged into one may be used.

그러나, GNSS 신호가 무인비행체의 정확한 위치를 결정할 수 있을 만큼 수신되지 않는 상황에서는 획득한 영상의 촬영 위치 및 자세를 결정하는데 어려움이 발생할 수 있다. 예를 들어, 교량 시설물의 하부에 대한 정밀점검을 위해 교량 시설물 하부로 무인비행체를 이동시키는 경우 GNSS 신호의 수신이 원활하지 않을 수 있으며, 이러한 경우 획득한 영상과 영상에 대한 위치 정보 및 자세 정보 등이 정확히 일치하게 않게 되므로, 앞서 말한 3차원 모델로 구현된 시설물에 획득한 영상을 정확하게 정합시키기 어려운 문제가 발생할 수 있다.However, in a situation where the GNSS signal is not received enough to determine the exact position of the unmanned aerial vehicle, it may be difficult to determine the position and posture of the acquired image. For example, if an unmanned aerial vehicle is moved to the lower part of the bridge facility for a detailed inspection of the lower part of the bridge facility, the reception of the GNSS signal may not be smooth. Since this does not match exactly, it may be difficult to accurately match the image acquired to the facility implemented with the aforementioned three-dimensional model.

또한, GNSS 신호 수신과 관련된 문제 이외에도, 영상 장비의 카메라 정렬 상태가 정확하게 결정되어 있지 않을 경우 또는 구현된 3차원 모델의 형상이 정확하지 않은 경우에도 획득한 영상의 정합에 어려움이 생길 수 있다는 문제점이 있다.In addition, there is a problem that, in addition to the problems related to GNSS signal reception, there may be difficulties in matching the acquired images even if the camera alignment state of the imaging equipment is not accurately determined or the shape of the implemented 3D model is not accurate. have.

한국등록특허 제10-2038127호Korean Patent Registration No. 10-2038127

본 발명은 상술한 문제점을 해결하기 위해 고안된 것으로서, 촬영 장치를 통해 획득한 촬영 영상과 3차원 모델을 대상으로 생성된 가상 영상을 비교하여 두 영상 간의 오차를 산출하고, 산출된 오차를 보정하는 과정을 통해 정확한 정합을 이루어 낼 수 있다.The present invention is devised to solve the above problems, and a process of calculating an error between the two images by comparing a captured image obtained through a photographing device and a virtual image generated for a 3D model, and correcting the calculated error Accurate matching can be achieved through

본 발명의 일 측면에 따르면, 3차원 모델에 대한 영상 정합 방법은 3차원 모델에 대한 영상 정합 장치에서 수행된다. 여기에서, 상기 3차원 모델에 대한 영상 정합 방법은 가상 환경에서 시설물의 3차원 모델을 구현하는 단계; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계; 상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.According to an aspect of the present invention, the method of matching an image to a 3D model is performed by an apparatus for matching an image to a 3D model. Here, the image registration method for the three-dimensional model may include: implementing a three-dimensional model of a facility in a virtual environment; generating a virtual image of the 3D model through virtual imaging in the virtual environment; calculating an error between the generated virtual image and a photographed image obtained by photographing an actual facility by the photographing apparatus; and matching the virtual image and the captured image by correcting the calculated error.

일 실시예에서, 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;는, 상기 촬영 장치가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집하는 단계; 및 상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;를 포함할 수 있다.In one embodiment, generating a virtual image of the 3D model; collecting the photographing position and photographing posture information for each of the photographed images acquired by the photographing apparatus; and deriving a photographing position and photographing posture in the virtual environment corresponding to the collected photographing position and photographing posture information, and generating a virtual image for the three-dimensional model based on the derived photographing position and photographing posture. ; may be included.

일 실시예에서, 상기 오차를 산출하는 단계는, 상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출하는 단계;를 포함할 수 있다.In an embodiment, the calculating of the error may include extracting an outline of a facility included in the virtual image and the captured image.

일 실시예에서, 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.In an embodiment, the matching of the virtual image and the captured image may include matching the virtual image and the captured image based on a projection transformation method using the extracted outline.

일 실시예에서, 상기 오차를 산출하는 단계는, 상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키는 단계; 및 상기 매칭된 영상이 서로 투영되도록 중첩시키는 단계;를 포함할 수 있다.In an embodiment, the calculating of the error may include: matching images determined to have the same photographing position and photographing posture among the virtual image and the photographed image; and overlapping the matched images to be projected on each other.

일 실시예에서, 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.In an embodiment, the matching of the virtual image and the captured image may include matching the virtual image and the captured image by applying the projection transformation method to each of the overlapping images.

일 실시예에서, 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출하는 단계;를 포함할 수 있다.In an embodiment, matching the virtual image and the captured image based on a projection transformation method may include calculating transformation coordinates in the virtual environment with respect to the acquired coordinates of the captured image.

본 발명의 다른 일 측면에 따르면, 3차원 모델에 대한 영상 정합 장치는 3차원 모델에 대한 영상 정합 방법을 수행한다. 여기에서, 상기 3차원 모델에 대한 영상 정합 장치는 가상 환경에서 시설물의 3차원 모델을 구현하는 3차원 모델 생성부; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 가상 영상 생성부; 상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 오차 산출부; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 영상 정합부;를 포함할 수 있다.According to another aspect of the present invention, an apparatus for registering an image for a 3D model performs an image matching method for a 3D model. Here, the image matching apparatus for the three-dimensional model may include: a three-dimensional model generator for implementing a three-dimensional model of a facility in a virtual environment; a virtual image generating unit generating a virtual image of the 3D model through virtual imaging in the virtual environment; an error calculation unit for calculating an error between the generated virtual image and a captured image obtained by photographing an actual facility by the photographing apparatus; and an image matching unit configured to match the virtual image and the captured image by correcting the calculated error.

본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 구현된 3차원 모델의 가상 영상과 정합할 촬영 영상 간의 불일치 발생을 정확하게 검출하고, 이를 보정하여 실제 시설물과 거의 동일한 3차원 모델을 구현할 수 있는 효과가 있다.An apparatus and method for matching an image for a three-dimensional model according to an embodiment of the present invention accurately detects the occurrence of a discrepancy between a virtual image of an implemented three-dimensional model and a captured image to be matched, and corrects it to correct a three-dimensional (3D) almost identical to an actual facility There is an effect that the model can be implemented.

본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 시설물에 대한 3차원 모델에 촬영 영상을 정확하게 정합할 수 있으므로, 원격지에서도 관리 대상인 시설물을 용이하게 정밀 점검할 수 있는 효과가 있다.Since the image registration apparatus and method for a three-dimensional model according to an embodiment of the present invention can accurately match a photographed image to a three-dimensional model for a facility, it is possible to easily and precisely check a facility to be managed even at a remote location. have.

본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 3차원 모델에 대한 가상 영상과 촬영 영상 간의 오차를 자동적으로 산출하여 보정하므로, 영상 간의 정합을 위한 작업자의 후보정 작업이 별도로 필요하지 않게 되는 이점이 있다.Since the image registration apparatus and method for a 3D model according to an embodiment of the present invention automatically calculates and corrects an error between a virtual image and a captured image of the 3D model, the operator's post-correction work for image registration is separately The advantage is that it is not necessary.

도 1은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치에서 이용될 수 있는 촬영 장치(10)를 설명하기 위한 참고도이다.
도 2는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치를 설명하기 위한 블록도이다.
도 3 내지 도 5는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 참고도이다.
도 6은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 흐름도이다.
1 is a reference diagram for explaining a photographing apparatus 10 that can be used in an apparatus for matching an image for a 3D model according to an embodiment of the present invention.
2 is a block diagram illustrating an image matching apparatus for a 3D model according to an embodiment of the present invention.
3 to 5 are reference diagrams for explaining an image matching method for a 3D model according to an embodiment of the present invention.
6 is a flowchart illustrating an image matching method for a 3D model according to an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the accompanying drawings as follows. Here, repeated descriptions, well-known functions that may unnecessarily obscure the gist of the present invention, and detailed descriptions of configurations will be omitted. The embodiments of the present invention are provided in order to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer description.

명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

또한, 명세서에 기재된 "...부"의 용어는 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, the term "...unit" described in the specification means a unit that processes one or more functions or operations, which may be implemented as hardware or software or a combination of hardware and software.

도 1은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치에서 이용될 수 있는 촬영 장치(10)를 설명하기 위한 참고도이다.1 is a reference diagram for explaining a photographing apparatus 10 that can be used in an apparatus for matching an image for a 3D model according to an embodiment of the present invention.

도 1을 참조하면, 촬영 장치(10)는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법에서 정밀 점검, 진단 또는 관리 대상이 되는 시설물의 영상을 촬영하고, 영상 정보를 획득할 수 있는 장치로서, 구비되는 렌즈를 통해 입력되는 광 신호들을 전자 신호들로 변환하는 이미지 센서를 포함하거나 이와 동등한 기능을 수행할 수 있는 장치를 의미할 수 있다. 도 1에서 촬영 장치(10)는 본 발명의 바람직한 예시로서 무인비행체로 도시되었으며, 무인비행체 형태의 촬영 장치(10)는 촬영 장치(10)의 위치 및 자세 정보를 획득하기 위한 GNSS/IMU, 촬영 장치(10)에 탑재되는 카메라 및 상기 카메라를 고정하기 위한 짐발을 포함하여 구성될 수 있다.Referring to FIG. 1 , the photographing apparatus 10 captures an image of a facility to be precisely inspected, diagnosed, or managed in the image matching method for a three-dimensional model according to an embodiment of the present invention, and obtains image information. As a capable device, it may refer to a device capable of performing an equivalent function or including an image sensor that converts optical signals input through a provided lens into electronic signals. In FIG. 1 , the photographing device 10 is illustrated as an unmanned aerial vehicle as a preferred example of the present invention, and the unmanned aerial vehicle-shaped photographing apparatus 10 includes a GNSS/IMU for acquiring the position and posture information of the photographing apparatus 10 , and photographing. It may be configured to include a camera mounted on the device 10 and a gimbal for fixing the camera.

또한, 촬영 장치(10)는 획득한 영상 정보를 내부에 구비되는 저장부에 저장하거나, 무선 네트워크를 통해 실시간으로 3차원 모델에 대한 영상 정합 장치 또는 다른 서버에 전송할 수 있다. 또한, 촬영 장치(10)는 무선 통신 제어를 포함하는 다양한 방식에 의하여 동작이 제어될 수 있다.Also, the photographing apparatus 10 may store the acquired image information in a storage unit provided therein, or transmit it to an image matching apparatus for a 3D model or another server in real time through a wireless network. In addition, the operation of the photographing apparatus 10 may be controlled by various methods including wireless communication control.

도 2는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 (100)의 구성을 도시한 블록도이다.2 is a block diagram illustrating the configuration of an image matching apparatus 100 for a 3D model according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 시설물 정밀점검 시스템(100)은 3차원 모델 생성부(110), 가상 영상 생성부(120), 오차 산출부(130) 및 영상 정합부(140)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the facility inspection system 100 according to an embodiment of the present invention includes a three-dimensional model generator 110 , a virtual image generator 120 , an error calculator 130 , and an image matching unit ( 140) may be included.

3차원 모델 생성부(110), 가상 영상 생성부(120), 오차 산출부(130) 및 영상 정합부(140) 각각은 컴퓨터 프로그램들 혹은 컴퓨터에 의해 판독 가능한 매체에 저장된 데이터와 같은 명령어들을 실행하기 위한 하나 또는 그 이상의 프로세서들, 메모리들, 및 다른 적절한 구성 요소들을 포함함으로써 본 명세서에 기재된 다양한 단계들을 수행할 수 있다.Each of the 3D model generation unit 110 , the virtual image generation unit 120 , the error calculation unit 130 , and the image matching unit 140 executes instructions such as computer programs or data stored in a computer-readable medium. The various steps described herein may be performed by including one or more processors, memories, and other suitable components for

예를 들면, 컴퓨터 프로그램들 또는 명령어들은 해당 구성의 내부 혹은 외부에 있는 컴퓨터에 의해 판독 가능한 매체에 저장될 수 있다.For example, computer programs or instructions may be stored in a computer-readable medium internal to or external to the configuration.

3차원 모델 생성부(110)는 가상 환경에서 시설물의 3차원 모델을 구현할 수 있다.The 3D model generator 110 may implement a 3D model of a facility in a virtual environment.

여기에서, 가상 환경은 사용자가 상기 시설물의 3차원 모델을 구현할 수 있는 가상의 공간을 의미할 수 있다. 예를 들어, 상기 가상 환경은 사용자 단말에 설치될 수 있는 특정 소프트웨어의 실행을 통해 임의로 생성될 수 있는 것으로서, 사용자 단말의 디스플레이 장치를 통해 시각적으로 표현되는 3차원 공간을 의미할 수 있다. 이에 따라, 3차원 모델 생성부(110)는 사용자가 미리 형성한 시설물의 3차원 모델에 대한 정보에 기초하여 상기 가상 환경 상에 시설물의 3차원 모델을 구현할 수 있다.Here, the virtual environment may mean a virtual space in which a user can implement a 3D model of the facility. For example, the virtual environment may be arbitrarily created through the execution of specific software that may be installed in the user terminal, and may refer to a three-dimensional space visually expressed through the display device of the user terminal. Accordingly, the 3D model generation unit 110 may implement a 3D model of the facility in the virtual environment based on information on the 3D model of the facility previously formed by the user.

가상 영상 생성부(120)는 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성할 수 있다.The virtual image generator 120 may generate a virtual image of the 3D model through virtual imaging in the virtual environment.

일 실시예에서, 가상 영상 생성부(120)는 촬영 장치(10)가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집할 수 있다.In an embodiment, the virtual image generator 120 may collect information on a photographing position and a photographing posture for each photographed image obtained by the photographing apparatus 10 .

예를 들어, 가상 영상 생성부(120)는 촬영 장치(10)의 GNSS/IMU로부터 촬영 장치(10)의 촬영 시 위치 및 자세 정보를 직접 수신 받아 수집할 수 있으며, 다른 한편으로는, 촬영 장치(10)에 포함되는 저장 장치로부터 촬영 시의 위치 및 자세 정보를 전달받아 수집할 수 있다.For example, the virtual image generating unit 120 may directly receive and collect position and posture information when the photographing device 10 is photographed from the GNSS/IMU of the photographing device 10 , and on the other hand, the photographing device 10 may collect it. The location and posture information at the time of photographing may be received and collected from the storage device included in (10).

일 실시예에서, 가상 영상 생성부(120)는 상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 상기 3차원 모델에 대한 가상 영상을 생성할 수 있다.In an embodiment, the virtual image generator 120 derives a photographing position and a photographing posture in the virtual environment corresponding to the collected photographing position and photographing posture information, and based on the derived photographing position and photographing posture A virtual image of the 3D model may be generated.

예를 들어, 가상 영상 생성부(120)는 촬영 장치(10)가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집함으로써, 상기 획득한 촬영 영상 각각에 대한 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출할 수 있으며, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 가상 환경 상에서 가상 촬영을 수행함으로써, 촬영 장치(10)가 촬영한 촬영 영상과 유사한 가상 영상을 생성할 수 있다.For example, the virtual image generating unit 120 collects photographing position and photographing posture information for each of the captured images obtained by the photographing device 10 , so that the photographing position of each of the obtained captured images in the virtual environment and a photographing posture may be derived, and a virtual image similar to the photographed image captured by the photographing apparatus 10 may be generated by performing virtual photographing in a virtual environment based on the derived photographing position and photographing posture.

오차 산출부(130)는 상기 생성된 가상 영상 및 촬영 장치(10)가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출할 수 있다. 여기에서, 상술한 바와 같이 가상 영상 생성부(120)가 촬영 장치(10)가 촬영한 촬영 영상과 유사한 가상 영상을 생성한다고 하더라도, GNSS/IMU 등을 통해 위치 및 자세를 결정하기 어려운 상황이 발생하는 경우를 포함하는 다양한 이유로 오차가 발생될 여지가 있으며, 이러한 오차를 보정하여 해소하기 위해서는 상기 가상 영상과 획득한 촬영 영상 간의 오차를 먼저 정확하게 산출할 필요가 있다.The error calculator 130 may calculate an error between the generated virtual image and a captured image obtained by photographing an actual facility by the photographing apparatus 10 . Here, even if the virtual image generating unit 120 generates a virtual image similar to the captured image captured by the photographing device 10 as described above, it is difficult to determine the position and posture through GNSS/IMU, etc. Errors may occur for various reasons, including the case of

일 실시예에서, 오차 산출부(130)는 상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키고, 상기 매칭된 영상이 서로 투영되도록 중첩시킬 수 있다.In an embodiment, the error calculator 130 may match images determined to have the same photographing position and photographing posture among the virtual image and the photographed image, and may overlap the matched images to be projected on each other.

이와 관련하여, 도 3 및 도 4는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 참고도이다.In this regard, FIGS. 3 and 4 are reference diagrams for explaining an image matching method for a 3D model according to an embodiment of the present invention.

여기에서, 도 3의 (a)는 본 발명의 일 실시예에 따른 촬영 장치(10)가 촬영한 시설물에 대한 촬영 영상 중 하나를 도시한 것이며, 도 3의 (b)는 촬영 장치(10)가 촬영한 영상(a)에 대한 촬영 위치 및 자세를 적용하여 생성된 가상 영상을 도시한 것이다. 또한, 도 4는 위 영상(a) 및 (b)를 서로 투영되도록 중첩한 예를 도시한 것이다.Here, (a) of FIG. 3 shows one of the photographed images of the facility photographed by the photographing apparatus 10 according to an embodiment of the present invention, and (b) of FIG. 3 is the photographing apparatus 10 Shows a virtual image generated by applying the shooting position and posture to the image (a) captured by . In addition, FIG. 4 shows an example in which the above images (a) and (b) are superimposed to be projected onto each other.

도 4에 도시된 바와 같이, 오차 산출부(130)는 상기 매칭된 영상 각각을 중첩시켜 비교하는 방법을 통해 상기 매칭된 영상 각각에 대한 오차를 산출할 수 있다.As shown in FIG. 4 , the error calculator 130 may calculate an error for each of the matched images through a method of overlapping and comparing each of the matched images.

일 실시예에서, 오차 산출부(130)는 상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출할 수 있다. 이와 관련하여, 도 5는 본 발명의 3차원 모델에 대한 영상 정합 장치를 통해 추출한 외곽선의 예를 도시하고 있다. 여기에서, 오차 산출부(130)는 각 영상에 포함되는 시설물에 대한 외곽선을 추출함으로써, 상기 중첩된 영상 간의 오차를 산출하는데 이용할 수 있다. 예를 들어, 오차 산출부(130)는 상기 중첩된 영상에서 촬영 영상의 외곽선 및 가상 영상의 외곽선을 비교하여 오차를 산출하되, 각 영상의 외곽선에 대한 특징점을 도출하고, 각 영상에 대해서 도출된 특징점 간의 좌표 비교를 통해 오차를 산출할 수 있다.In an embodiment, the error calculator 130 may extract an outline of a facility included in the virtual image and the captured image. In this regard, FIG. 5 shows an example of an outline extracted through an image matching apparatus for a three-dimensional model of the present invention. Here, the error calculating unit 130 may extract an outline of a facility included in each image, and thus may be used to calculate an error between the overlapped images. For example, the error calculator 130 compares the outline of the captured image and the outline of the virtual image in the overlapped image to calculate the error, derives feature points for the outline of each image, and derives the An error may be calculated by comparing the coordinates between the feature points.

영상 정합부(140)는 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.The image matching unit 140 may match the virtual image and the captured image by correcting the calculated error.

일 실시예에서, 영상 정합부(140)는 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출할 수 있다.In an embodiment, the image matching unit 140 may calculate transformation coordinates in the virtual environment with respect to the acquired coordinates of the captured image.

본 발명의 3차원 모델에 대한 영상 정합 방법은 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출함으로써, 상기 획득한 촬영 영상을 상기 가상 영상과 같은 기준에서 비교할 수 있도록 한다. 여기에서, 하기 수학식 1은 상기 획득한 촬영 영상의 좌표를 가상 환경에서의 좌표로 변환하기 위한 것으로서, 이러한 변환 과정에는 다양한 변수가 이용될 수 있다.In the image matching method for a three-dimensional model of the present invention, the obtained captured image can be compared on the same basis as the virtual image by calculating transform coordinates in the virtual environment for the obtained coordinates of the captured image. Here, the following Equation 1 is for converting the obtained coordinates of the captured image into coordinates in a virtual environment, and various variables may be used in this transformation process.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

(여기에서,

Figure pat00002
는 촬영 영상에 대한 변환 좌표, s는 축척, r은 y축 회전 각도, p는 x축 회전 각도, h는 z축 회전 각도,
Figure pat00003
는 x축 이동 거리,
Figure pat00004
는 y축 이동 거리,
Figure pat00005
Figure pat00006
는 각각 변환 이전의 촬영 영상 좌표임)(From here,
Figure pat00002
is the transformation coordinate for the captured image, s is the scale, r is the y-axis rotation angle, p is the x-axis rotation angle, h is the z-axis rotation angle,
Figure pat00003
is the x-axis travel distance,
Figure pat00004
is the y-axis travel distance,
Figure pat00005
and
Figure pat00006
are the coordinates of the captured image before transformation, respectively)

일 실시예에서, 영상 정합부(140)는 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.In an embodiment, the image matching unit 140 may match the virtual image and the captured image based on a projection transformation method using the extracted outline.

일 실시예에서, 영상 정합부(140)는 상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.In an embodiment, the image matching unit 140 may register the virtual image and the captured image by applying the projection transformation method to each of the overlapping images.

본 발명의 3차원 모델에 대한 영상 정합 방법은 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 영상 간에 발생한 오차를 최소화하는 보정을 수행할 수 있다. 구체적으로 예를 들어, 영상 정합부(140)는 상기 추출된 외각선에 대한 임의의 특징점을 도출하고, 해당 특징점을 포함하는 외곽선의 기울기로부터 산출되는 가중치 행렬을 상기 특징점에 적용함으로써, 특징점 간의 위치 오차를 최소화할 수 있다.The image registration method for a 3D model of the present invention may perform correction to minimize an error occurring between images based on a projection transformation method using the extracted outline. Specifically, for example, the image matching unit 140 derives an arbitrary feature point for the extracted outline and applies a weight matrix calculated from the slope of the outline including the feature point to the feature point, thereby positioning between the feature points. error can be minimized.

도 6은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating an image matching method for a 3D model according to an embodiment of the present invention.

도 6을 참조하면, 사용자는 촬영 장치를 통해 관리 대상이 되는 시설물에 대한 촬영 영상을 획득해 놓을 수 있으며, 특정 소프트웨어 등을 통해 상기 관리 대상이 되는 시설물의 3차원 모델을 생성하여 가상 환경 상에 구현할 수 있다(S601).Referring to FIG. 6 , a user may acquire a photographed image of a facility to be managed through a photographing device, and create a three-dimensional model of the facility to be managed through a specific software and display it in a virtual environment. It can be implemented (S601).

다음으로, 가상 영상 생성부는 획득한 촬영 영상의 위치 및 자세 정보과 대응되도록 가상 환경 상에서 구현된 시설물을 촬영하여 가상 영상을 생성할 수 있다(S602).Next, the virtual image generator may generate a virtual image by photographing a facility implemented in a virtual environment to correspond to the position and posture information of the acquired image (S602).

다음으로, 오차 산출부는 생성된 가상 영상과 미리 획득한 촬영 영상 간의 오차를 산출할 수 있다(S603).Next, the error calculator may calculate an error between the generated virtual image and the previously acquired image (S603).

다음으로, 영상 정합부를 통해 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합할 수 있으며, 이를 통해 사용자는 별도의 후보정 과정 없이 3차원 모델을 이용하여 실제 시설물을 점검 및 관리할 수 있다(S604).Next, the virtual image and the captured image can be matched by correcting the calculated error through the image matching unit, and through this, the user can check and manage the actual facility using the 3D model without a separate post-correction process. (S604).

전술한 3차원 모델에 대한 영상 정합 방법은 도면에 제시된 순서도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.The above-described image registration method for the three-dimensional model has been described with reference to the flowchart shown in the drawings. For simplicity, the method has been shown and described as a series of blocks, but the invention is not limited to the order of the blocks, and some blocks may occur with other blocks in an order different from or concurrently with those shown and described herein. Also, various other branches, flow paths, and orders of blocks may be implemented that achieve the same or similar result. In addition, not all illustrated blocks may be required for implementation of the methods described herein.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiment of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as described in the claims below. You will understand that it can be done.

10: 촬영 장치
100: 3차원 모델에 대한 영상 정합 장치
110: 3차원 모델 생성부
120: 가상 영상 생성부
130: 오차 산출부
140: 영상 정합부
10: shooting device
100: image matching device for 3D model
110: 3D model generation unit
120: virtual image generating unit
130: error calculation unit
140: image matching unit

Claims (8)

3차원 모델에 대한 영상 정합 장치에서 수행되는 3차원 모델에 대한 영상 정합 방법에 있어서,
가상 환경에서 시설물의 3차원 모델을 구현하는 단계;
상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;
상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및
상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하는,
3차원 모델에 대한 영상 정합 방법.
In the image registration method for the 3D model performed in the image registration apparatus for the 3D model,
implementing a three-dimensional model of a facility in a virtual environment;
generating a virtual image of the 3D model through virtual imaging in the virtual environment;
calculating an error between the generated virtual image and a photographed image obtained by photographing an actual facility by the photographing apparatus; and
Compensating the calculated error to match the virtual image and the captured image; including,
Image registration method for 3D model.
제1항에 있어서,
상기 3차원 모델에 대한 가상 영상을 생성하는 단계;는,
상기 촬영 장치가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집하는 단계; 및
상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
According to claim 1,
generating a virtual image for the 3D model;
collecting, by the photographing device, photographing position and photographing posture information for each of the captured images; and
deriving a photographing position and photographing posture in the virtual environment corresponding to the collected photographing position and photographing posture information, and generating a virtual image for the 3D model based on the derived photographing position and photographing posture; characterized in that it comprises,
Image registration method for 3D model.
제1항에 있어서,
상기 오차를 산출하는 단계는,
상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
According to claim 1,
The step of calculating the error is
Extracting an outline of a facility included in the virtual image and the captured image; characterized in that it comprises,
Image registration method for 3D model.
제3항에 있어서,
상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
4. The method of claim 3,
Matching the virtual image and the captured image;
matching the virtual image and the captured image based on a projection transformation method using the extracted outline;
Image registration method for 3D model.
제4항에 있어서,
상기 오차를 산출하는 단계는,
상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키는 단계; 및
상기 매칭된 영상이 서로 투영되도록 중첩시키는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
5. The method of claim 4,
The step of calculating the error is
matching images determined to have the same shooting position and shooting posture among the virtual image and the captured image; and
Superimposing the matched images to be projected on each other; characterized in that it comprises,
Image registration method for 3D model.
제5항에 있어서,
상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
6. The method of claim 5,
Matching the virtual image and the captured image;
and matching the virtual image and the captured image by applying the projection transformation method to each of the overlapping images.
Image registration method for 3D model.
제4항에 있어서,
투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
5. The method of claim 4,
Matching the virtual image and the captured image based on the projection transformation method;
Calculating transformation coordinates in the virtual environment for the acquired coordinates of the captured image; characterized in that it comprises,
Image registration method for 3D model.
3차원 모델에 대한 영상 정합 방법을 수행하는 3차원 모델에 대한 영상 정합 장치에 있어서,
가상 환경에서 시설물의 3차원 모델을 구현하는 3차원 모델 생성부;
상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 가상 영상 생성부;
상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 오차 산출부; 및
상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 영상 정합부;를 포함하는,
3차원 모델에 대한 영상 정합 장치.
In the image registration apparatus for a three-dimensional model for performing the image registration method for the three-dimensional model,
a three-dimensional model generator that implements a three-dimensional model of a facility in a virtual environment;
a virtual image generating unit generating a virtual image of the 3D model through virtual imaging in the virtual environment;
an error calculation unit for calculating an error between the generated virtual image and a captured image obtained by photographing an actual facility by the photographing apparatus; and
An image matching unit for matching the virtual image and the captured image by correcting the calculated error;
Image matching device for 3D model.
KR1020200162217A 2020-11-27 2020-11-27 Device and method of image registration for 3d models KR102576449B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200162217A KR102576449B1 (en) 2020-11-27 2020-11-27 Device and method of image registration for 3d models

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200162217A KR102576449B1 (en) 2020-11-27 2020-11-27 Device and method of image registration for 3d models

Publications (2)

Publication Number Publication Date
KR20220074103A true KR20220074103A (en) 2022-06-03
KR102576449B1 KR102576449B1 (en) 2023-09-11

Family

ID=81983700

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200162217A KR102576449B1 (en) 2020-11-27 2020-11-27 Device and method of image registration for 3d models

Country Status (1)

Country Link
KR (1) KR102576449B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758124A (en) * 2023-06-16 2023-09-15 北京代码空间科技有限公司 3D model correction method and terminal equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050078136A (en) * 2004-01-30 2005-08-04 삼성전자주식회사 Method for providing local information by augmented reality and local information service system therefor
KR20100047563A (en) * 2008-10-29 2010-05-10 에이알비전 (주) Augmented reality apparatus for simulation discipline and virtual image composition method
KR20120069994A (en) * 2010-12-21 2012-06-29 박경호 A position-tracking system using augmented reality and location based service
KR20120071281A (en) * 2010-12-22 2012-07-02 한국전자통신연구원 Apparatus and method for fusion of real and virtual environment on mobile
KR102038127B1 (en) 2018-12-07 2019-10-29 주식회사 한국건설관리공사 Facility management apparatus and method using unmanned vehicle
KR20200049337A (en) * 2018-10-31 2020-05-08 에스케이텔레콤 주식회사 Apparatus and method for registering images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050078136A (en) * 2004-01-30 2005-08-04 삼성전자주식회사 Method for providing local information by augmented reality and local information service system therefor
KR20100047563A (en) * 2008-10-29 2010-05-10 에이알비전 (주) Augmented reality apparatus for simulation discipline and virtual image composition method
KR20120069994A (en) * 2010-12-21 2012-06-29 박경호 A position-tracking system using augmented reality and location based service
KR20120071281A (en) * 2010-12-22 2012-07-02 한국전자통신연구원 Apparatus and method for fusion of real and virtual environment on mobile
KR20200049337A (en) * 2018-10-31 2020-05-08 에스케이텔레콤 주식회사 Apparatus and method for registering images
KR102038127B1 (en) 2018-12-07 2019-10-29 주식회사 한국건설관리공사 Facility management apparatus and method using unmanned vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758124A (en) * 2023-06-16 2023-09-15 北京代码空间科技有限公司 3D model correction method and terminal equipment
CN116758124B (en) * 2023-06-16 2024-09-24 北京代码空间科技有限公司 3D model correction method and terminal equipment

Also Published As

Publication number Publication date
KR102576449B1 (en) 2023-09-11

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
EP3208774B1 (en) Methods for localization using geotagged photographs and three-dimensional visualization
US7782361B2 (en) Method and apparatus for measuring position and orientation
US6442293B1 (en) Image forming apparatus, image forming method and computer-readable storage medium having an image forming program
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
US7970576B2 (en) Information processing apparatus and information processing method
JP4448187B2 (en) Image geometric correction method and apparatus
US20130230214A1 (en) Scene structure-based self-pose estimation
JP6516558B2 (en) Position information processing method
US11221216B2 (en) Placement table for unmanned aerial vehicle, surveying method, surveying device, surveying system and program
JP5134784B2 (en) Aerial photogrammetry
JP6433200B2 (en) Arithmetic apparatus, arithmetic method, and program
JPWO2004113836A1 (en) Shooting image display method
KR20200064542A (en) Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof
JP2008131177A (en) Correcting device for on-board camera, correcting method, and production method for vehicle using same correcting method
CN111750838B (en) Method, device and equipment for generating agricultural land planning map and storage medium
US10943360B1 (en) Photogrammetric machine measure up
CN106767895B (en) The system and method for solving camera elements of exterior orientation are oriented using index point
US20220026208A1 (en) Surveying system, surveying method, and surveying program
JP2019032218A (en) Location information recording method and device
KR101346192B1 (en) Aviation surveying system for correction realtime of aviation image
CN110044266B (en) Photogrammetry system based on speckle projection
JP3808833B2 (en) Aerial photogrammetry
KR102576449B1 (en) Device and method of image registration for 3d models
KR102226256B1 (en) Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant