KR101837403B1 - Method and Apparatus for Fast mosaicking of Unmanned Aerial Vehicle Images - Google Patents

Method and Apparatus for Fast mosaicking of Unmanned Aerial Vehicle Images Download PDF

Info

Publication number
KR101837403B1
KR101837403B1 KR1020160169769A KR20160169769A KR101837403B1 KR 101837403 B1 KR101837403 B1 KR 101837403B1 KR 1020160169769 A KR1020160169769 A KR 1020160169769A KR 20160169769 A KR20160169769 A KR 20160169769A KR 101837403 B1 KR101837403 B1 KR 101837403B1
Authority
KR
South Korea
Prior art keywords
image
images
mosaic
image plane
mosaic image
Prior art date
Application number
KR1020160169769A
Other languages
Korean (ko)
Inventor
신대식
오미경
김재인
김태정
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020160169769A priority Critical patent/KR101837403B1/en
Application granted granted Critical
Publication of KR101837403B1 publication Critical patent/KR101837403B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Abstract

The present invention relates to a method and device for high-speed image mosaicking and, more specifically, relates to a method and device to generate a mosaic image of a target area at high speed by using images photographed through an unmanned aircraft. According to the present invention, the device for mosaicking of an image photographed through an unmanned aircraft includes: an image obtaining part obtaining images, which are overlapped and photographed about a target area by the unmanned aircraft flying along a preset route; a mosaic image plane determining part determining a reference image which becomes a mosaic image plane; a conversion relation deriving part deriving a conversion relation between each of the obtained images and the mosaic image plane corresponding to the reference image; a geometric correction part performing geometric correction on the obtained images by using the conversion relation between each of the images and the mosaic image plane; and an image collecting part collecting the images, which have gone through the geometric correction, as a single mosaic image.

Description

고속 영상 모자이킹 방법 및 장치{Method and Apparatus for Fast mosaicking of Unmanned Aerial Vehicle Images}TECHNICAL FIELD [0001] The present invention relates to a high-speed image mosaicking method and apparatus,

본 발명은 무인항공기에서 촬영된 영상에 대한 고속 영상 모자이킹 방법 및 장치에 관한 것으로서, 무인항공기로부터 촬영된 영상들을 이용하여 대상지역에 대한 모자이크 영상을 고속으로 생성하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a high-speed image mosaicking method and apparatus for an image photographed on an unmanned airplane, and more particularly, to a method and apparatus for generating a mosaic image for a target area at high speed using images photographed from an unmanned airplane.

높은 공간 해상도와 주기 해상도를 갖는 무인항공기 영상은 재난관리, 농업 모니터링, 추적 및 감시 등을 포함하는 많은 응용분야에 혁신을 불러오고 있다. 그러나 무인항공기 영상의 높은 공간해상도는 반대로 개별 영상이 포괄할 수 있는 지상 면적을 제한하게 된다. 이 때문에 무인항공기 영상을 이용하여 넓은 지역을 모니터링 하기 위해서는 대상지역을 촬영한 다수의 영상들을 단일의 영상으로 집성하는 영상 모자이킹 과정이 필수적이다.Unmanned aerial vehicles with high spatial resolution and period resolution are bringing innovation to many applications, including disaster management, agricultural monitoring, tracking and surveillance. However, the high spatial resolution of unmanned aerial photographs, on the contrary, limits the surface area that individual images can cover. Therefore, in order to monitor a wide area using an unmanned aerial vehicle image, it is essential that an image mosaicking process of collecting a plurality of images of a target area into a single image is essential.

무인항공기 영상의 모자이킹 방법은 대상지역에 대한 사전 정보의 유무와 그 종류에 따라 크게 DSM(Digital Surface Model) 기반, GCP(Ground Control Point) 기반, 그리고 대응점 기반 방식으로 구분될 수 있다. 여기서 DSM과 GCP기반 방식은 정확도 높은 모자이크 영상 생성을 가능케 하지만, 대상지역에 대한 사전 정보가 요구된다는 점 때문에 활용성 측면에서 한계점을 가진다. 이 때문에 많은 영상 모니터링 분야에서 방법론의 범용성을 고려하여 인접영상 사이의 대응점 정보만으로 모자이크 영상을 생성할 수 있는 대응점 기반 방식을 영상의 모자이킹 방법으로 널리 사용하고 있다.The mosaicking method of the unmanned airplane image can be divided into DSM (Digital Surface Model) based, GCP (Ground Control Point) based, and correspondent point based method depending on the presence or absence of prior information about the target area and its type. Although DSM and GCP based methods enable accurate mosaic image generation, they have limitations in terms of availability because they require advance information on the target area. For this reason, considering the versatility of the methodology in many image monitoring fields, a correspondence point based method capable of generating a mosaic image based only on the correspondence point information between adjacent images is widely used as a method of mosaicing the image.

대응점 기반 방식의 영상 모자이킹 방법은 일반적으로 영상획득, 대응점 추출, 영상 기하보정, 영상 방사보정, 그리고 영상집성 과정으로 구성된다. 종래의 대응점 기반 방식의 영상 모자이킹 방법에서는 모자이킹을 위한 전제조건으로서 인접영상 사이에 높은 중복도를 가정한다. 이는 인접한 두 영상 사이의 상대적 변환관계를 추정할 때, 충분한 수의 대응점을 사용함으로써 추정의 안정성 및 정확도를 높이기 위한 방안이라 할 수 있다. 그러나 영상의 높은 중복도는 대응점 추출을 위해 비교해야 할 영상 쌍의 수는 물론, 개별 영상 쌍에서도 대응점 추출을 위한 탐색영역을 크게 증가시킨다. 이는 결과적으로 영상 모자이킹 과정에서 가장 많은 처리시간을 요구하는 대응점 추출과정의 연산량을 더욱 가중시키는 원인으로 작용하게 된다.Corresponding point based image mosaicking method generally consists of image acquisition, corresponding point extraction, image geometry correction, image radiation correction, and image acquisition. Conventional correspondence-based image mosaicking method assumes high redundancy between adjacent images as a prerequisite for the mosaic. This is a way to increase the stability and accuracy of estimation by using a sufficient number of correspondence points when estimating the relative transformation relation between two adjacent images. However, the high degree of redundancy of the image greatly increases the number of image pairs to be compared for the corresponding point extraction as well as the search area for the corresponding point extraction in the individual image pairs. As a result, it causes the calculation amount of the correspondence point extraction process which requires the most processing time in the image mosaicking process to be increased.

상술한 문제점을 회피하여 모자이크 영상을 빠르게 생성하기 위한 시도도 있었으나, 영상에 대한 정밀 외부표정요소 취득을 가정하는 등, 본질적인 해결방법은 제시되지 못하였다.Although an attempt has been made to quickly generate a mosaic image by avoiding the above-described problem, an essential solution has not been proposed, for example, assuming acquisition of a precise external facial expression element for an image.

관련 선행 문헌으로서, 대한민국등록특허번호 제 10-1323099 호 (2013년 05월 28일 공고) 등이 참조될 수 있다.As a related prior art, Korean Patent No. 10-1323099 (published on May 28, 2013) and the like can be referred to.

본 발명의 일 목적은, 넓은 대상지역을 촬영한 다수의 무인항공기 영상들을 고속으로 모자이킹 하는 방법 및 장치를 제공하는 데 있다.It is an object of the present invention to provide a method and apparatus for high-speed mosaicking of a plurality of unmanned aerial photographs of a large target area.

본 발명에 따른, 무인항공기에서 촬영된 영상에 대한 고속 영상 모자이킹 장치는, 기 설정된 비행경로를 따라 이동하는 상기 무인항공기에서 대상지역에 대해 서로 중복이 되도록 촬영한 영상들을, 상기 무인항공기로부터 취득하는 영상 취득부, 상기 취득된 영상들 중 모자이크 영상 평면이 되는 기준 영상을 결정하는 모자이크 영상 평면 결정부, 상기 기준 영상에 대응되는 모자이크 영상 평면과, 상기 취득된 영상들 각각의 변환관계를 도출하는 변환관계 도출부, 상기 취득된 영상들 각각과 상기 기준 영상에 대응되는 모자이크 영상 평면간에 도출된 변환관계를 이용하여, 상기 취득된 영상들에 대한 기하보정을 수행하는 영상 기하보정부 및 상기 기하보정이 수행된 영상들을 단일의 모자이크 영상으로 집성하는 영상 집성부를 포함하는 것을 특징으로 한다.A high-speed image mosaicking apparatus for an image photographed by an unmanned airplane according to the present invention is characterized in that images captured by the unmanned airplane moving along a predetermined flight path so as to be overlapped with each other are acquired from the unmanned airplane A mosaic image plane determining unit for determining a reference image that is a mosaic image plane among the acquired images, a mosaic image plane determining unit for determining a mosaic image plane corresponding to the reference image, An image geometry correcting unit for performing geometric correction on the acquired images by using a conversion relation derived between each of the obtained images and a mosaic image plane corresponding to the reference image, And an image collecting unit for collecting the performed images into a single mosaic image .

실시 예에 있어서, 상기 모자이크 영상 평면 결정부는, 상기 무인항공기에서 촬영된 영상들의 촬영시점에 취득된 외부표정요소를 이용하여, 상기 모자이크 평면으로 설정되는 상기 기준영상을 결정하고, 상기 외부표정요소는, 상기 영상들을 촬영하는 영상센서의 3차원 위치 정보 및 회전각 정보를 포함하는 것을 특징으로 한다.In one embodiment, the mosaic image plane determining unit determines the reference image set to the mosaic plane by using an external facial expression element acquired at the time of capturing images photographed by the UAV, And three-dimensional position information and rotation angle information of an image sensor for photographing the images.

실시 예에 있어서, 상기 기준 영상은, 상기 3차원 위치 정보를 기반으로 분석되는 상기 취득된 영상들의 영상분포에서, 가장 중심에 위치한 영상인 것을 특징으로 한다.In an exemplary embodiment, the reference image may be the most centrally located image in the image distribution of the acquired images analyzed based on the three-dimensional position information.

실시 예에 있어서, 상기 모자이크 영상 평면 결정부는, 상기 취득된 영상들 중 촬영된 위치가 상호 인접한 영상들간에 대응점을 추출하고, 추출된 대응점 수를 가중치로하여, 최대 신장 트리(MST, Maximum Spanning Tree)를 계산하여, 트리의 깊이를 최소로 만드는 노드를 상기 기준영상을 결정하는 것을 특징으로 한다.In an exemplary embodiment, the mosaic image plane determining unit may extract correspondence points between images of the acquired images that are adjacent to each other, extract a corresponding maximum number of corresponding points from a maximum spanning tree (MST) ), And determines the reference image as a node that minimizes the depth of the tree.

실시 예에 있어서, 상기 모자이크 영상 평면 결정부는, 상기 비행경로에 기반하여 상기 취득된 영상들 각각의 행과 열 정보로부터, 상기 상호 인접한 영상들에서 중복 부분을 추출하고, 추출된 중복 부분을 기준으로 적어도 하나의 대응점 추출 영역을 결정하는 것을 특징으로 한다.In one embodiment, the mosaic image plane determining unit may extract an overlapping portion from the adjacent images from the row and column information of each of the acquired images based on the flight path, And at least one corresponding point extraction area is determined.

실시 예에 있어서, 상기 취득된 영상들 중 촬영된 위치가 상호 인접한 영상들간에 대응점 추출은, 상기 결정된 적어도 하나의 대응점 추출 영역이 서로 중복된 영역에서만 이루어지는 것을 특징으로 한다.In an exemplary embodiment, the corresponding points extraction is performed between images in which captured positions of the acquired images are mutually adjacent, only in the region where the determined corresponding point extraction regions are overlapped with each other.

본 발명에 따른, 무인항공기에서 촬영된 영상에 대한 고속 영상 모자이킹 방법은, 기 설정된 비행경로를 따라 이동하는 상기 무인항공기에서 대상지역에 대해 서로 중복이 되도록 촬영한 영상들을, 상기 무인항공기로부터 취득하는 단계, 상기 취득된 영상들 중 모자이크 영상 평면이 되는 기준 영상을 결정하는 단계, 상기 기준 영상에 대응되는 모자이크 영상 평면과, 상기 취득된 영상들 각각의 변환관계를 도출하는 단계, 상기 취득된 영상들 각각과 상기 기준 영상에 대응되는 모자이크 영상 평면간에 도출된 변환관계를 이용하여, 상기 취득된 영상들에 대한 기하보정을 수행하는 단계 및 상기 기하보정이 수행된 영상들을 단일의 모자이크 영상으로 집성하는 단계를 포함하는 것을 특징으로 한다.A high-speed image mosaicking method for an image photographed on an unmanned airplane according to the present invention is a method for acquiring images taken from an unmanned airplane moving along a predetermined flight path so as to be overlapped with each other with respect to a target area, Determining a reference image that is a mosaic image plane of the acquired images, deriving a mosaic image plane corresponding to the reference image, and a conversion relation of each of the acquired images, Performing a geometric correction on each of the acquired images by using a conversion relation derived between each of the reference images and a mosaic image plane corresponding to the reference image and collecting the geometrically corrected images into a single mosaic image The method comprising the steps of:

본 발명에 따른 고속 영상 모자이킹 방법 및 장치는, 인접 영상간 높은 중복도 보장에 따른 속도 저감 문제와 정밀 외부표정요소 확보와 같은 사전 제약 문제를 극복함으로써 고속으로 모자이크 영상을 생성할 수 있다.The high-speed image mosaicking method and apparatus according to the present invention can generate a mosaic image at high speed by overcoming a pre-constraint problem such as a speed reduction problem due to a high degree of redundancy between neighboring images and securing accurate external facial expression elements.

나아가, 본 발명에 따른 고속 영상 모자이킹 방법 및 장치는, 비행경로에 대한 각 영상의 행과 열 정보로부터, 인접 영상들과의 중복이 어느 부분에서 이루어지고 있는지 미리 파악함으로써, 인접 영상들과 서로 중복된 영역만을 고려하여 대응점을 추출할 수 있다. 따라서, 대응점 추출 속도 및 정확도를 향상시킬 수 있다.Further, the method and apparatus for high-speed image mosaicking according to the present invention grasp, in advance, which part of the image is overlapped with the adjacent images from the row and column information of each image on the flight path, The corresponding points can be extracted by considering only the overlapping regions. Therefore, it is possible to improve the extraction speed and accuracy of the corresponding point.

도 1은 본 발명의 일실시예에 따른 고속 영상 모자이킹 장치를 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 고속 영상 모자이킹 장치의 동작 설명을 위한 흐름도이다.
도 3은 도 2의 영상 취득 과정을 설명하기 위한 참고 도면이다.
도 4는 도 2의 모자이크 평면 결정 과정을 설명하기 위한 참고 도면이다.
도 5는 도 2의 변환관계 도출 과정을 설명하기 위한 참고 도면이다.
1 is a view for explaining a high-speed image mosaicking apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an operation of a high-speed image mosaicking apparatus according to an embodiment of the present invention.
3 is a reference diagram for explaining the image acquisition process of FIG.
4 is a reference view for explaining the mosaic plane determination process of FIG.
5 is a reference diagram for explaining the conversion relationship derivation process of FIG.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like or similar components are denoted by the same reference numerals, and redundant explanations thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout.

도 1은 본 발명의 일실시예에 따른 고속 영상 모자이킹 장치(100)를 설명하기 위한 도면이다. 도 1을 참조하면, 본 발명의 일실시예에 따른 고속 영상 모자이킹 장치(100)는, 영상 취득부(110), 모자이크 영상 평면 결정부 (120), 변환관계 도출부(130), 영상 기하보정부(140), 및 영상 집성부(150)를 포함한다.1 is a view for explaining a high-speed image mosaicking apparatus 100 according to an embodiment of the present invention. 1, a high-speed image mosaicking apparatus 100 according to an embodiment of the present invention includes an image acquisition unit 110, a mosaic image plane determination unit 120, a conversion relation deriving unit 130, A correction unit 140, and an image processor 150.

영상 취득부(110)는 무인항공기(10)에서 촬영된 영상들을 취득한다.The image acquisition unit 110 acquires images photographed by the unmanned air vehicle 10.

무인항공기(10)는 사전에 계획된 비행경로(20)(기 설정된 비행경로)를 따라 이동하며 대상지역(또는 촬영 대상지역)에 대해 서로 중복이 되도록 영상을 촬영하고, 영상 취득부(110)로 영상을 전송한다. 이 때, 촬영시점에서 외부표정요소정보가 더 취득될 수 있으며, 취득된 외부표정요소 정보 또한 영상 취득부(110)로 전송할 수 있다. The unmanned airplane 10 moves along the previously planned flight path 20 (predetermined flight path), captures an image so that the object region (or the object region) is overlapped with the object region (or the object region) And transmits the image. At this time, the external facial expression element information can be further acquired at the time of photographing, and the acquired external facial expression element information can also be transmitted to the image capturing unit 110. [

외부표정요소 정보는, 영상촬영시 무인항공기에 탑재된 영상센서 및 영상센서와 연동하는 적어도 하나의 다른 센서로부터 획득될 수 있다.The external facial expression element information may be acquired from an image sensor mounted on an unmanned airplane when capturing an image and at least one other sensor interlocked with the image sensor.

여기서 외부표정요소는 영상센서의 3차원 위치(Tx, Ty, Tz) 및 X,-Y-Z 축 각각에 대한 회전각(ω,

Figure 112016122289601-pat00001
, κ)을 포함한다.Here, the external facial expressions include three-dimensional positions (Tx, Ty, Tz) of the image sensor and rotational angles (ω,
Figure 112016122289601-pat00001
, K).

영상 취득부(110)에는 무인항공기(10)로부터 수신된 영상 및 외부표정요소 정보가 기록된다(도 2의 S110).The image acquisition unit 110 records the image and external facial expression element information received from the UAV 10 (S110 in FIG. 2).

모자이크 영상 평면 결정부(120)는 상기 취득된 영상들 중에서 모자이크 영상 평면으로 설정할 기준영상을 결정한다(도 2의 S120). The mosaic image plane determination unit 120 determines a reference image to be set as a mosaic image plane among the acquired images (S120 in FIG. 2).

즉, 결정된 기준영상은 모자이크 영상 평면이 되는 것이다.That is, the determined reference image is a mosaic image plane.

여기서 기준영상은 영상들의 외부표정요소를 이용하여 결정하거나, 외부표정요소 정보가 부재할 경우에는 인접영상간에 대응점을 추출하고 그들의 연결성을 분석하여 결정한다.Here, the reference image is determined by using the external facial expression elements of the images, or when the external facial expression element information is absent, the corresponding points are extracted from the adjacent images and their connectivity is analyzed and determined.

예를 들어, 모자이크 영상 평면 결정부(120)는 상기 기준영상을 결정함에 있어 외부표정요소 정보가 이용 가능할 경우에는 외부표정요소의 위치정보를 이용하여 영상 분포의 중심에 가장 가까운 영상을 기준영상으로 결정한다. For example, when determining that the reference image is available, the mosaic image plane determining unit 120 uses the location information of the external facial expression element to determine the closest image to the center of the image distribution as a reference image .

반면, 외부표정요소 정보가 부재할 경우에는 인접영상간의 대응점을 추출하고, 추출된 대응점 수를 가중치로 최대 신장 트리(MST, Maximum Spanning Tree)를 계산하여 트리의 깊이를 최소로 만드는 노드를 기준영상으로 결정한다.On the other hand, when there is no external facial expression information, the correspondence point between neighboring images is extracted, and the maximum spanning tree (MST) is calculated by weighting the number of corresponding points extracted. .

여기서 모자이크 영상 평면 결정부(120)는 인접영상간에 대응점을 추출하기에 앞서 도 3에 도시된 것과 같이, 전체 비행경로(20)에 대한 각 영상의 행과 열 정보로부터 인접 영상들과 대응점 추출의 대상이 되는 영상의 어느 부분에서 중복이 이루어지고 있는지를 파악한다. 3, the mosaic image plane determining unit 120 extracts the corresponding points from the row and column information of each image for the entire flight path 20, as shown in FIG. 3, It is determined which portion of the target image overlaps.

모자이크 영상 평면 결정부(120)는 영상이 촬영된 위치, 영상을 촬영한 센서의 위치, 센서의 각도 등 다양한 위치 정보를 이용하여, 영상들간 서로 중복이 일어나는 부분과, 일어나지 않는 부분을 구분할 수 있다.The mosaic image plane determining unit 120 can distinguish between overlapping portions and non-overlapping portions between images using various positional information such as a position at which the image is captured, a position of the sensor where the image is captured, and an angle of the sensor .

모자이크 영상 평면 결정부(120)는, 대응점 추출의 대상이 되는 영상에서, 인접 영상들과 중복이 이루어지지 않는 부분들에 대해서는, 대응점을 추출하지 않는다. The mosaic image plane determination unit 120 does not extract the corresponding point in the portion of the image that is the object of the corresponding point extraction and in which the adjacent images are not overlapped.

도 4는, 개별 영상들 각각이 가질 수 있는 정합 영역 마스크의 형태를 -1 에서 15까지의 인덱싱을 부여하여, 개념적으로 나타낸 개념도이다. 모자이크 영상 평면 결정부(120)는 각각의 정합 영역마다, 인접 영상들과의 중복이 이루어지는 부분에서 대응점을 추출한다.FIG. 4 is a conceptual diagram conceptually showing the shape of a matching area mask that each of the individual images can have, which is indexed from -1 to 15. FIG. The mosaic image plane determination unit 120 extracts corresponding points from the overlapping portions of adjacent images for each matching region.

예를 들어, 각각의 정합 영역은, 도 4에서 "1번"으로 인덱싱된 정합 영역 마스크에서와 같이, 상측 가장자리 영역(1a), 좌측 가장자리 영역(1b), 하측 가장자리 영역(1c), 우측 가장 자리 영역(1d)로 구분될 수 있다. 예를 들어, "1"번으로 인덱싱된 정합 영역 마스크에서, 상측 가장자리 영역(1a)에 대해서만, 인접 영상들과, 증복이 일어날 수 있으며, 모자이크 영상 평면 결정부(120)는, 상측 가장자리 영역(1a)에 대해서만, 인접 영상들과의 대응점 추출을 수행할 수 있다.For example, each of the matching regions may be divided into an upper edge region 1a, a left edge region 1b, a lower edge region 1c, a right edge region 1b, And a spot area 1d. For example, in the matching area mask indexed with the number "1 ", only the upper edge region 1a may be adjacent to the adjacent images, and the mosaic image plane determining unit 120 may determine the upper edge region 1a), it is possible to perform the corresponding point extraction with the adjacent images.

따라서, 본 발명에 따르면, 대응점 추출에 소요되는 시간이 줄어들 수 있다.Therefore, according to the present invention, the time required for extracting corresponding points can be reduced.

이를 통해 각 영상에 대해서 대응점 추출 영역을 도 4에서와 같이 총 16개 형태로 사전 정의할 수 있게 되며, 인접 영상들과의 대응점 추출은 서로 중복된 영역만을 고려함에 따라 대응점 추출 속도는 물론 정확도 모두를 향상시킬 수 있다.As a result, the correspondence point extraction region for each image can be predefined as a total of 16 types as shown in FIG. 4. The correspondence point extraction with neighboring images considers only the overlapping regions, Can be improved.

변환관계 도출부(130)는 영상의 외부표정요소 또는 대응점 정보를 이용하여 모자이크 영상 평면으로의 각 영상별 변환관계를 도출한다.The conversion relation deriving unit 130 derives a conversion relation for each image to a mosaic image plane using an external facial expression element or corresponding point information of the image.

예를 들어, 변환관계 도출부(130)는 모자이크 영상 평면으로의 변환관계를 도출함에 있어 각 영상별 외부표정요소 정보가 존재할 경우, 어떤 한 영상의 변환관계는 [수학식 1]에서와 같이 기준영상의 영상 좌표계에서 지상 좌표계로 가는 변환행렬의 역행렬과 해당 영상의 영상 좌표계에서 지상 좌표계로 가는 변환행렬과의 곱으로 계산된다.For example, when deriving the conversion relation to the mosaic image plane, the conversion relation deriving unit 130 may determine that the conversion relation of one image exists in the reference Is calculated as the product of the inverse of the transformation matrix from the image coordinate system to the ground coordinate system of the image and the transformation matrix from the image coordinate system to the ground coordinate system of the corresponding image.

[수학식 1][Equation 1]

Figure 112016122289601-pat00002
Figure 112016122289601-pat00002

[수학식 1]에서

Figure 112016122289601-pat00003
는 i번째 영상의 영상 좌표계에서 지상 좌표계로 가는 3×3크기의 변환행렬,
Figure 112016122289601-pat00004
는 기준영상의 영상 좌표계에서 지상 좌표계로 가는 3×3크기의 변환행렬,
Figure 112016122289601-pat00005
는 i번째 영상 좌표계에서 모자이크 영상 평면으로 가는 3×3크기의 변환행렬.In Equation (1)
Figure 112016122289601-pat00003
Is a 3x3 transform matrix from the image coordinate system of the i-th image to the ground coordinate system,
Figure 112016122289601-pat00004
Is a 3x3 transform matrix from the image coordinate system of the reference image to the ground coordinate system,
Figure 112016122289601-pat00005
Is a 3x3 transform matrix from the i-th image coordinate system to the mosaic image plane.

반면, 외부표정요소 정보가 부재할 경우에는 대응점 정보를 이용하여 추정된 인접 영상간의 상대적 변환관계들로부터 각 영상별 모자이크 영상 평면으로의 변환관계가 도출된다. 예를 들어, 도 5에서와 같이 총 7개의 영상(A~G)이 취득 되었고, 인접영상간에 추출된 대응점의 수 n으로부터 최대 신장 트리와 트리의 깊이를 최소로 만드는 기준영상 C가 결정되었을 때, 모자이크 영상 평면에 대한 영상 B의 변환관계는 [수학식 2]에서와 같이 영상 B에서 기준영상 C에 이르기까지 서로 연결되는 상대적 변환관계들의 곱으로 계산된다.On the other hand, when the external facial expression information is not available, the conversion relation from the relative transformation relations between the neighboring images estimated using the corresponding point information to the mosaic image plane for each image is derived. For example, when a total of seven images (A to G) are acquired as shown in FIG. 5 and a reference image C that minimizes the maximum extension tree and tree depth from the number n of corresponding points extracted between adjacent images is determined , And the transformation relation of the image B with respect to the mosaic image plane is calculated as a product of relative transformation relations connected to each other from the image B to the reference image C as shown in Equation (2).

[수학식 2]&Quot; (2) "

Figure 112016122289601-pat00006
Figure 112016122289601-pat00006

[수학식 2]에서

Figure 112016122289601-pat00007
는 영상 B의 영상 좌표계에서 영상 A의 영상 좌표계로 가는 3×3크기의 변환행렬,
Figure 112016122289601-pat00008
는 영상 A의 영상 좌표계에서 영상 C(기준영상)의 영상 좌표계로 가는 3×3크기의 변환행렬,
Figure 112016122289601-pat00009
는 영상 B의 영상 좌표계에서 모자이크 영상 평면으로 가는 3×3크기의 변환행렬.In Equation (2)
Figure 112016122289601-pat00007
A 3x3 transform matrix from the image coordinate system of the image B to the image coordinate system of the image A,
Figure 112016122289601-pat00008
Is a 3x3 transform matrix from the image coordinate system of image A to the image coordinate system of image C (reference image)
Figure 112016122289601-pat00009
Is a 3x3 transform matrix from the image coordinate system of image B to the mosaic image plane.

여기서 상대적 변환관계 추정에는 8개의 자유도를 갖는 비선형 모델인 중심투영변환이 사용될 수 있다.Here, the relative transformation relationship estimation can be performed using a central projection transformation, which is a nonlinear model with eight degrees of freedom.

또한, 본 발명에서와 같이 인접 영상과의 중복도에 제한을 두고 있지 않은 경우에는 모델 추정의 안정성을 보장하기 위해 6개의 자유도를 갖는 선형모델인 어핀변환을 변환모델로서 적용하거나, 중복도에 따라 적응적으로 변환모델을 선택할 수 있다.Also, in the case where the degree of overlap with the adjacent image is not limited as in the present invention, in order to ensure the stability of the model estimation, it is possible to apply the affine transformation, which is a linear model having six degrees of freedom, The conversion model can be selected adaptively.

한편, 영상 기하보정부(140)는 상기 변환관계 도출부(130)에서 결정된 모자이크 영상 평면에 대한 각 영상별 변환관계를 이용하여 영상들을 보정한다.On the other hand, the image geometry correcting unit 140 corrects the images using the conversion relation of each image for the mosaic image plane determined by the conversion relation deriving unit 130. [

영상 기하보정부(140)는 각 영상의 변환관계로부터 결과영상의 크기를 정의하고, 개별 화소 위치에 대응되는 입력영상의 화소 위치를 계산한 뒤, 화소값 보간을 통해 수행함으로써, 영상에 대한 기하보정을 수행한다.The image geometry correcting unit 140 defines the size of the resulting image from the transformation relation of each image, calculates the pixel position of the input image corresponding to the individual pixel position, and then performs the interpolation of the pixel value, Perform calibration.

그리고 영상 집성부(150)는 영상 기하보정부(140)에서 보정한 영상들을 단일의 모자이크 영상으로 집성한다. 여기에서는 요구되는 결과 품질에 따라 인접영상 사이에 발생되는 밝기값 및 형상학적 불일치를 최소화하기 위한 방사보정부를 더 포함할 수 있다.The image controller 150 aggregates the images corrected by the image geometry corrector 140 into a single mosaic image. Herein, the image processing apparatus may further include a bulletin board for minimizing the brightness value and the geometrical inconsistency generated between the adjacent images according to the required result quality.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

Claims (7)

무인항공기에서 촬영된 영상에 대한 고속 영상 모자이킹 장치에 관한 것으로서,
기 설정된 비행경로를 따라 이동하는 상기 무인항공기에서 대상지역에 대해 서로 중복이 되도록 촬영한 영상들을, 상기 무인항공기로부터 취득하는 영상 취득부;
상기 취득된 영상들 중 모자이크 영상 평면이 되는 기준 영상을 결정하는 모자이크 영상 평면 결정부;
상기 기준 영상에 대응되는 모자이크 영상 평면과, 상기 취득된 영상들 각각의 변환관계를 도출하는 변환관계 도출부;
상기 취득된 영상들 각각과 상기 기준 영상에 대응되는 모자이크 영상 평면간에 도출된 변환관계를 이용하여, 상기 취득된 영상들에 대한 기하보정을 수행하는 영상 기하보정부; 및
상기 기하보정이 수행된 영상들을 단일의 모자이크 영상으로 집성하는 영상 집성부를 포함하고,
상기 모자이크 영상 평면 결정부는,
상기 취득된 영상들 중 촬영된 위치가 상호 인접한 영상들간에 대응점을 추출하고, 추출된 대응점 수를 가중치로하여, 최대 신장 트리(MST, Maximum Spanning Tree)를 계산하여, 트리의 깊이를 최소로 만드는 노드를 상기 기준영상으로 결정하는 것을 특징으로 하는 고속 영상 모자이킹 장치.
The present invention relates to a high-speed image mosaicking apparatus for an image photographed on a UAV,
An image acquisition unit for acquiring, from the unmanned airplane, images photographed so as to be overlapped with respect to a target area in the unmanned airplane moving along a predetermined flight path;
A mosaic image plane determining unit for determining a reference image that is a mosaic image plane among the acquired images;
A transformation relation deriving unit for deriving a transformation relation between each of the acquired images and a mosaic image plane corresponding to the reference image;
An image geometry correcting unit for performing geometric correction on the acquired images by using a conversion relation derived between each of the obtained images and a mosaic image plane corresponding to the reference image; And
And an image collecting unit for collecting the images subjected to the geometric correction into a single mosaic image,
Wherein the mosaic image plane determining unit comprises:
The corresponding points are extracted between the captured images of the acquired images and the maximum number of corresponding points is used as a weight to calculate the maximum spanning tree (MST) to minimize the depth of the tree And determining the node as the reference image.
제1항에 있어서,
상기 모자이크 영상 평면 결정부는,
상기 무인항공기에서 촬영된 영상들의 촬영시점에 취득된 외부표정요소를 이용하여, 상기 모자이크 영상 평면으로 설정되는 상기 기준영상을 결정하고,
상기 외부표정요소는, 상기 영상들을 촬영하는 영상센서의 3차원 위치 정보 및 회전각 정보를 포함하는 것을 특징으로 하는 고속 영상 모자이킹 장치.
The method according to claim 1,
Wherein the mosaic image plane determining unit comprises:
Determining the reference image set to the mosaic image plane using an external facial expression element acquired at the time of photographing of the images photographed on the unmanned airplane,
Wherein the external facial expression element includes three-dimensional position information and rotation angle information of an image sensor for photographing the images.
제2항에 있어서,
상기 기준 영상은, 상기 3차원 위치 정보를 기반으로 분석되는 상기 취득된 영상들의 영상분포에서, 가장 중심에 위치한 영상인 것을 특징으로 하는 고속 영상 모자이킹 장치.
3. The method of claim 2,
Wherein the reference image is the most centrally located image in the image distribution of the acquired images analyzed based on the three-dimensional location information.
삭제delete 제1항에 있어서,
상기 모자이크 영상 평면 결정부는,
상기 비행경로에 기반하여 상기 취득된 영상들 각각의 행과 열 정보로부터, 상기 상호 인접한 영상들에서 중복 부분을 추출하고, 추출된 중복 부분을 기준으로 적어도 하나의 대응점 추출 영역을 결정하는 것을 특징으로 하는 고속 영상 모자이킹 장치.
The method according to claim 1,
Wherein the mosaic image plane determining unit comprises:
Extracting an overlapping portion from the adjacent images from the row and column information of each of the acquired images based on the flight path, and determining at least one corresponding point extraction region based on the extracted overlapping portion. High-speed image mosaic device.
제5항에 있어서,
상기 취득된 영상들 중 촬영된 위치가 상호 인접한 영상들간에 대응점 추출은, 상기 결정된 적어도 하나의 대응점 추출 영역이 서로 중복된 영역에서만 이루어지는 것을 특징으로 하는 고속 영상 모자이킹 장치.
6. The method of claim 5,
Wherein the corresponding point extraction is performed between images in which captured positions of the acquired images are mutually adjacent, only in an area in which the determined corresponding point extraction regions overlap with each other.
무인항공기에서 촬영된 영상에 대한 고속 영상 모자이킹 방법에 관한 것으로서,
기 설정된 비행경로를 따라 이동하는 상기 무인항공기에서 대상지역에 대해 서로 중복이 되도록 촬영한 영상들을, 상기 무인항공기로부터 취득하는 단계;
상기 취득된 영상들 중 모자이크 영상 평면이 되는 기준 영상을 결정하는 단계;
상기 기준 영상에 대응되는 모자이크 영상 평면과, 상기 취득된 영상들 각각의 변환관계를 도출하는 단계;
상기 취득된 영상들 각각과 상기 기준 영상에 대응되는 모자이크 영상 평면간에 도출된 변환관계를 이용하여, 상기 취득된 영상들에 대한 기하보정을 수행하는 단계; 및
상기 기하보정이 수행된 영상들을 단일의 모자이크 영상으로 집성하는 단계를 포함하고,
상기 기준 영상을 결정하는 단계에서는,
상기 취득된 영상들 중 촬영된 위치가 상호 인접한 영상들 간에 대응점을 추출하고, 추출된 대응점 수를 가중치로하여, 최대 신장 트리(MST, Maximum Spanning Tree)를 계산하여, 트리의 깊이를 최소로 만드는 노드를 상기 기준 영상으로 결정하는 것을 특징으로 하는 고속 영상 모자이킹 방법.
The present invention relates to a method for high-speed image mosaicking of an image taken on an unmanned aerial vehicle,
Acquiring, from the unmanned airplane, images photographed so as to be overlapped with each other with respect to a target area in the unmanned airplane moving along a predetermined flight path;
Determining a reference image that is a mosaic image plane among the acquired images;
Deriving a mosaic image plane corresponding to the reference image and a conversion relation of each of the acquired images;
Performing a geometric correction on the acquired images using a conversion relation derived between each of the acquired images and a mosaic image plane corresponding to the reference image; And
And aggregating the images subjected to the geometric correction into a single mosaic image,
In the step of determining the reference image,
The corresponding points are extracted from the captured images of the acquired images and the maximum number of corresponding points is used as a weight to calculate the maximum spanning tree (MST), and the depth of the tree is minimized And determining a node as the reference image.
KR1020160169769A 2016-12-13 2016-12-13 Method and Apparatus for Fast mosaicking of Unmanned Aerial Vehicle Images KR101837403B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160169769A KR101837403B1 (en) 2016-12-13 2016-12-13 Method and Apparatus for Fast mosaicking of Unmanned Aerial Vehicle Images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160169769A KR101837403B1 (en) 2016-12-13 2016-12-13 Method and Apparatus for Fast mosaicking of Unmanned Aerial Vehicle Images

Publications (1)

Publication Number Publication Date
KR101837403B1 true KR101837403B1 (en) 2018-04-19

Family

ID=62087740

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160169769A KR101837403B1 (en) 2016-12-13 2016-12-13 Method and Apparatus for Fast mosaicking of Unmanned Aerial Vehicle Images

Country Status (1)

Country Link
KR (1) KR101837403B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186433A (en) * 2019-03-27 2019-08-30 成都睿铂科技有限责任公司 A kind of airborne survey method and device for rejecting extra aerophotograph
KR20220088549A (en) * 2020-12-18 2022-06-28 인하대학교 산학협력단 Method of Relative Radiometric Calibration for Multiple Images

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999006943A1 (en) 1997-08-01 1999-02-11 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
JP2005184710A (en) 2003-12-24 2005-07-07 Kitakyushu Foundation For The Advancement Of Industry Science & Technology Adaptive spatial charge scanning device and adaptive spatial charge scanning method, as well as image coding device and image coding method
CN1333360C (en) 2004-04-28 2007-08-22 复旦大学 Center line automatic locating method of virtual endoscope system
US20070296824A1 (en) 2006-06-22 2007-12-27 Mallory Jackson Paine Computer generated mosaics
KR101124437B1 (en) * 2011-12-26 2012-03-21 중앙항업(주) Methods for generation of oblique-projected mosaic image using gps/ins and aerial images captured obliquely
JP2014228881A (en) * 2013-05-17 2014-12-08 株式会社日立製作所 Mosaic image generation device, generation method, and generation program
CN104462260A (en) 2014-11-21 2015-03-25 深圳大学 Community search algorithm based on k-kernel
US20150215590A1 (en) 2014-01-24 2015-07-30 Microsoft Corporation Image demosaicing
US20170310892A1 (en) 2012-11-21 2017-10-26 Thales Method of 3d panoramic mosaicing of a scene

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999006943A1 (en) 1997-08-01 1999-02-11 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
JP2005184710A (en) 2003-12-24 2005-07-07 Kitakyushu Foundation For The Advancement Of Industry Science & Technology Adaptive spatial charge scanning device and adaptive spatial charge scanning method, as well as image coding device and image coding method
CN1333360C (en) 2004-04-28 2007-08-22 复旦大学 Center line automatic locating method of virtual endoscope system
US20070296824A1 (en) 2006-06-22 2007-12-27 Mallory Jackson Paine Computer generated mosaics
KR101124437B1 (en) * 2011-12-26 2012-03-21 중앙항업(주) Methods for generation of oblique-projected mosaic image using gps/ins and aerial images captured obliquely
US20170310892A1 (en) 2012-11-21 2017-10-26 Thales Method of 3d panoramic mosaicing of a scene
JP2014228881A (en) * 2013-05-17 2014-12-08 株式会社日立製作所 Mosaic image generation device, generation method, and generation program
US20150215590A1 (en) 2014-01-24 2015-07-30 Microsoft Corporation Image demosaicing
CN104462260A (en) 2014-11-21 2015-03-25 深圳大学 Community search algorithm based on k-kernel

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186433A (en) * 2019-03-27 2019-08-30 成都睿铂科技有限责任公司 A kind of airborne survey method and device for rejecting extra aerophotograph
CN110186433B (en) * 2019-03-27 2019-11-22 成都睿铂科技有限责任公司 A kind of airborne survey method and device for rejecting extra aerophotograph
US11927442B2 (en) 2019-03-27 2024-03-12 Chengdu Rainpoo Technology Co., Ltd. Aerial survey method and apparatus capable of eliminating redundant aerial photos
KR20220088549A (en) * 2020-12-18 2022-06-28 인하대학교 산학협력단 Method of Relative Radiometric Calibration for Multiple Images
KR102428839B1 (en) 2020-12-18 2022-08-04 인하대학교 산학협력단 Method of Relative Radiometric Calibration for Multiple Images

Similar Documents

Publication Publication Date Title
CN110728715B (en) Intelligent inspection robot camera angle self-adaptive adjustment method
CN112907676B (en) Calibration method, device and system of sensor, vehicle, equipment and storage medium
US10109104B2 (en) Generation of 3D models of an environment
WO2017080108A1 (en) Flying device, flying control system and method
WO2017080102A1 (en) Flying device, flying control system and method
Ruan et al. Calibration of 3D sensors using a spherical target
TWI693959B (en) Control device, flying body and recording medium
US20220264014A1 (en) Controlling a line of sight angle of an imaging platform
EP3510562A1 (en) Method and system for calibrating multiple cameras
US20210387636A1 (en) Method for estimating distance to and location of autonomous vehicle by using mono camera
CN111612794A (en) Multi-2D vision-based high-precision three-dimensional pose estimation method and system for parts
KR20160077684A (en) Apparatus and method for tracking object
CN112907675B (en) Calibration method, device, system, equipment and storage medium of image acquisition equipment
JP2019032218A (en) Location information recording method and device
KR102169687B1 (en) Method for acquisition of hyperspectral image using an unmanned aerial vehicle
AU2022231762B2 (en) A bundle adjustment system
CN109325913A (en) Unmanned plane image split-joint method and device
KR101837403B1 (en) Method and Apparatus for Fast mosaicking of Unmanned Aerial Vehicle Images
CN106846385B (en) Multi-sensing remote sensing image matching method, device and system based on unmanned aerial vehicle
WO2020114433A1 (en) Depth perception method and apparatus, and depth perception device
JP6155091B2 (en) Mosaic image generation apparatus, generation method, and mosaic image generation program
JP2018009918A (en) Self-position detection device, moving body device, and self-position detection method
KR101938067B1 (en) Method and Apparatus for Stereo Matching of Wide-Angle Images using SIFT Flow
KR102195040B1 (en) Method for collecting road signs information using MMS and mono camera
US20180114293A1 (en) Large scale image mosaic construction for agricultural applications

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant