KR20220069541A - Map making Platform apparatus and map making method using the platform - Google Patents

Map making Platform apparatus and map making method using the platform Download PDF

Info

Publication number
KR20220069541A
KR20220069541A KR1020200156771A KR20200156771A KR20220069541A KR 20220069541 A KR20220069541 A KR 20220069541A KR 1020200156771 A KR1020200156771 A KR 1020200156771A KR 20200156771 A KR20200156771 A KR 20200156771A KR 20220069541 A KR20220069541 A KR 20220069541A
Authority
KR
South Korea
Prior art keywords
image
images
point
coordinates
unit
Prior art date
Application number
KR1020200156771A
Other languages
Korean (ko)
Other versions
KR102475790B1 (en
Inventor
김동욱
김진호
Original Assignee
김동욱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김동욱 filed Critical 김동욱
Priority to KR1020200156771A priority Critical patent/KR102475790B1/en
Publication of KR20220069541A publication Critical patent/KR20220069541A/en
Application granted granted Critical
Publication of KR102475790B1 publication Critical patent/KR102475790B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/32UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

A map making platform apparatus and a map making method using the same are disclosed. The map making platform apparatus calculates a drone shooting cost for a certain area based on a certain area, provides an image of the certain area taken by a drone, determines an external facial expression element including the shooting position and attitude information of the image based on a tie point included in a plurality of images obtained by photographing the certain area doubly, performs relative facial expressions on at least two or more images based on the external facial expression elements to remove disparity, identifies spatial coordinates, generates 3D object data and outputs them.

Description

지도제작플랫폼장치 및 이를 이용한 지도제작방법{Map making Platform apparatus and map making method using the platform}Map making platform apparatus and map making method using the platform

본 발명의 실시 예는 지도제작을 위한 플랫폼에 관한 것으로, 보다 상세하게는 드론을 이용하여 촬영한 2차원 영상을 이용하여 3차원 지도를 제작할 수 있도록 하는 플랫폼장치 및 이를 이용한 지도제작방법에 관한 것이다.An embodiment of the present invention relates to a platform for map production, and more particularly, to a platform device for producing a three-dimensional map using a two-dimensional image captured using a drone, and a map production method using the same .

스마트시티, 네비게이션, 포털 지도 서비스 등 3차원 지도정보의 중요성이 부각되고 있다. 기존의 3차원 지도 제작은 항공기를 이용하여 지형에 대한 영상을 촬영하고 각 영상의 투영위치 및 영상의 촬영 자세정보를 획득하여 지형에 대한 3차원 좌표를 구하는 방법으로 이루어진다. 3차원 지도 제작을 위한 항공기에는 정밀한 투영위치 및 자세정보를 획득할 수 있는 고가의 장비가 탑재되어 있어 지형에 대한 정확한 3차원 좌표를 구할 수 있는 장점은 있으나 한 번 촬영 할 때 많은 비용이 소요되는 단점이 존재할 뿐만 아니라 일반 개인이나 일반 회사가 3차원 지도 제작을 위한 전용 항공기를 이용하여 3차원 지도를 제작하는 것은 현실적으로 거의 불가능하다. 이에 다른 방법으로 저렴한 비용으로 항공 사진을 얻는 다른 방법으로 드론을 이용하는 방법이 있다. 그러나 드론을 통해 얻은 항공 사진은 단순 2차원 영상이므로 이를 기초로 3차원 영상을 생성하기 위해서는 별도의 방법이 요구된다.The importance of 3D map information such as smart city, navigation, and portal map service is emerging. Existing three-dimensional map production consists of a method of obtaining three-dimensional coordinates of the terrain by photographing an image of the terrain using an aircraft, and obtaining the projection position of each image and the photographing posture information of the image. Aircraft for 3D map production are equipped with expensive equipment that can acquire precise projected position and attitude information, which has the advantage of obtaining accurate 3D coordinates for the terrain, but it is expensive when shooting once. In addition to the disadvantages, it is practically impossible for a general individual or a general company to produce a 3D map using a dedicated aircraft for 3D map production. Another way to get aerial photos at low cost is to use drones. However, since aerial photos obtained through drones are simple two-dimensional images, a separate method is required to generate a three-dimensional image based on them.

본 발명의 실시 예가 이루고자 하는 기술적 과제는, 드론을 이용하여 촬영한 2차원 영상을 이용하여 3차원 지도를 제작할 수 있는 플랫폼장치 및 이를 이용한 지도제작방법을 제공하는 데 있다.The technical problem to be achieved by the embodiment of the present invention is to provide a platform apparatus capable of producing a three-dimensional map using a two-dimensional image captured using a drone, and a map production method using the same.

상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 지도제작플랫폼장치의 일 예는, 일정 지역에 대한 드론 촬영 비용을 면적 기준으로 산정하고, 상기 일정 지역을 드론으로 촬영한 영상을 제공하는 드론촬영서비스부; 일정 지역을 중첩 촬영한 복수의 영상에 포함된 타이포인트를 기초로 영상의 촬영위치 및 자세정보를 포함하는 외부표정요소를 결정하는 번들조정부; 및 외부표정요소를 기초로 적어도 둘 이상의 영상에 대한 상대표정을 수행하여 시차를 제거하고, 시차 제거된 적어도 둘 이상의 영상으로부터 객체의 적어도 하나 이상의 지점에 대한 공간좌표를 파악하고, 공간좌표를 기초로 점, 선 또는 면 형태의 3차원 객체 데이터를 생성하여 출력하는 지도제작부;를 포함한다.In order to achieve the above technical problem, an example of a mapping platform apparatus according to an embodiment of the present invention is to calculate the drone shooting cost for a certain area based on the area, and provide an image photographed by a drone in the predetermined area the drone photography service department; a bundle adjustment unit for determining an external expression element including a photographing position and posture information of an image based on a tie point included in a plurality of images overlapping a predetermined area; and removing parallax by performing relative expressions on at least two or more images based on external expression elements, identifying spatial coordinates of at least one or more points of an object from at least two or more images from which parallax has been removed, and based on the spatial coordinates and a cartography unit that generates and outputs three-dimensional object data in the form of points, lines, or surfaces.

상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 지도제작플랫폼을 이용한 지도제작방법의 일 예는, 일정 지역에 대한 드론 촬영 비용을 면적 기준으로 산정하고, 상기 일정 지역을 드론으로 촬영한 영상을 제공하는 단계; 일정 지역을 중첩 촬영한 복수의 영상에 포함된 타이포인트를 기초로 영상의 촬영위치 및 자세정보를 포함하는 외부표정요소를 결정하는 단계; 및 외부표정요소를 기초로 적어도 둘 이상의 영상에 대한 상대표정을 수행하여 시차를 제거하고, 시차 제거된 적어도 둘 이상의 영상으로부터 객체의 적어도 하나 이상의 지점에 대한 공간좌표를 파악하고, 공간좌표를 기초로 점, 선 또는 면 형태의 3차원 객체 데이터를 생성하여 출력하는 단계;를 포함한다.An example of a map production method using a map production platform according to an embodiment of the present invention for achieving the above technical task is to calculate the drone shooting cost for a certain area based on the area, and photograph the predetermined area with a drone providing an image; determining an external expression element including a photographing position and posture information of an image based on a tie point included in a plurality of images overlapping a predetermined area; and removing parallax by performing relative expressions on at least two or more images based on external expression elements, identifying spatial coordinates of at least one or more points of an object from at least two or more images from which parallax has been removed, and based on the spatial coordinates and generating and outputting three-dimensional object data in the form of points, lines, or surfaces.

본 발명의 실시 예에 따르면, 일정 지역에 대한 드론 촬영 영상을 제공할 수 있을 뿐만 아니라 2차원 영상으로부터 정확한 3차원 촬영위치 및 자세정보 등의 외부표정요소(exterior orientation parameter)를 결정할 수 있어 드론 촬영 영상 등을 정확하게 정렬시킬 수 있다. 또한, 고가의 스테레오 모니터 등의 장비가 필요한 입체시 방법 없이 일반 컴퓨터를 통해 2차원 영상으로부터 3차원 좌표를 구하여 3차원 지도제작을 위한 3차원 객체를 생성할 수 있다.According to an embodiment of the present invention, it is possible to provide not only a drone-captured image for a certain area, but also to determine an exact 3D shooting position and an exterior orientation parameter such as posture information from a 2D image, so that drone shooting is possible. Images can be precisely aligned. In addition, it is possible to generate a 3D object for 3D map production by obtaining 3D coordinates from a 2D image through a general computer without a stereoscopic method that requires equipment such as an expensive stereo monitor.

도 1은 본 발명의 실시 예에 따른 지도제작플랫폼을 위한 전반적인 시스템 개요를 도시한 도면,
도 2는 본 발명의 실시 예에 따른 지도제작플랫폼장치의 일 예의 구성을 도시한 도면,
도 3은 본 발명의 실시 예에 따른 번들 조정을 위한 화면 인터페이스의 일 예를 도시한 도면,
도 4는 본 발명의 실시 예에 따른 3차원 지도제작을 위한 화면 인터페이스의 일 예를 도시한 도면,
도 5는 본 발명의 실시 예에 따른 번들조정부의 상세 구성의 일 예를 도시한 도면,
도 6 내지 도 8은 타인포인트를 이용한 번들 조정 과정을 통해 영상을 정렬하는 과정을 도시한 도면,
도 9는 본 발명의 실시 예에 따른 지도제작부의 상세 구성의 일 예를 도시한 도면,
도 10은 본 발명의 실시 예에 따른 초기 상대표정 수행 후의 두 영상을 표시한 도면,
도 11은 본 발명의 실시 예에 따른 공간좌표의 높이값 변화에 대한 영상좌표의 변화의 예를 도시한 도면,
도 12는 본 발명의 실시 예에 따라 2차원 영상으로부터 3차원 객체를 생성하는 일 예를 도시한 도면,
도 13은 본 발명의 실시 예에 따른 지도제작플랫폼을 이용한 지도제작방법의 일 예를 도시한 흐름도이다.
1 is a diagram showing an overall system overview for a mapping platform according to an embodiment of the present invention;
2 is a diagram showing the configuration of an example of a mapping platform apparatus according to an embodiment of the present invention;
3 is a view showing an example of a screen interface for bundle adjustment according to an embodiment of the present invention;
4 is a view showing an example of a screen interface for 3D map production according to an embodiment of the present invention;
5 is a view showing an example of the detailed configuration of the bundle adjustment unit according to an embodiment of the present invention;
6 to 8 are views illustrating a process of aligning images through a bundle adjustment process using tine points;
9 is a view showing an example of a detailed configuration of a map making unit according to an embodiment of the present invention;
10 is a view showing two images after performing an initial relative expression according to an embodiment of the present invention;
11 is a view showing an example of a change in image coordinates with respect to a change in height value of spatial coordinates according to an embodiment of the present invention;
12 is a diagram illustrating an example of generating a 3D object from a 2D image according to an embodiment of the present invention;
13 is a flowchart illustrating an example of a mapping method using a mapping platform according to an embodiment of the present invention.

이하에서, 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 지도제작플랫폼장치 및 이를 이용한 지도제작방법에 대해 상세히 설명한다.Hereinafter, a map making platform apparatus and a map making method using the same according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 지도제작플랫폼을 위한 전반적인 시스템 개요를 도시한 도면이다.1 is a diagram illustrating an overall system overview for a mapping platform according to an embodiment of the present invention.

도 1을 참조하면, 지도제작플랫폼장치(100)는 유선 또는 무선 통신망을 통해 적어도 하나 이상의 사용자 단말(120)과 연결된다. 사용자 단말(120)은 본 실시 예의 지도제작플랫폼을 이용하는 자의 단말로서, 일반 컴퓨터, 스마트폰, 태블릿PC 등 통신이 가능한 다양한 종류의 단말일 수 있다.Referring to FIG. 1 , the mapping platform apparatus 100 is connected to at least one user terminal 120 through a wired or wireless communication network. The user terminal 120 is a terminal of a person using the mapping platform of the present embodiment, and may be various types of terminals capable of communication, such as a general computer, a smart phone, and a tablet PC.

드론(110)은 영상을 촬영할 수 있는 카메라와 3차원 공간위치를 파악할 수 있는 기기(예를 들어, GNSS(Global Navigation Satellite System) 장비 등), 그리고 촬영 자세정보(촬영 방향이나 기울기 등) 등을 파악할 수 있는 각종 센서(예를 들어, 지자기센서, 자이로센서, 가속도 센서 등)를 포함할 수 있다. The drone 110 provides a camera capable of capturing an image, a device capable of determining a three-dimensional spatial location (eg, GNSS (Global Navigation Satellite System) equipment, etc.), and photographing posture information (such as a photographing direction or inclination). It may include various sensors that can be grasped (eg, a geomagnetic sensor, a gyro sensor, an acceleration sensor, etc.).

지도제작플랫폼장치(100)는 드론(110)이 촬영한 영상을 제공받거나 사용자 단말(120)로부터 영상을 수신할 수 있다. 본 실시 예는 이해를 돕기 위하여 지도제작플랫폼장치(100)와 드론(110)이 직접 통신을 수행하는 예를 도시하고 있으나, 드론(110)이 촬영한 영상을 별도의 저장매체(예를 들어, USB(Univesral Servial Bus) 등)에 옮겨 담은 후 그 저장매체를 이용하여 지도제작플랫폼장치(100)에 드론 촬영영상을 전달할 수 있다. The mapping platform apparatus 100 may receive an image captured by the drone 110 or receive an image from the user terminal 120 . Although this embodiment shows an example in which the mapping platform apparatus 100 and the drone 110 directly communicate for better understanding, the image captured by the drone 110 is stored on a separate storage medium (eg, After being transferred to a USB (Universal Servial Bus), etc.), the drone shot image can be delivered to the mapping platform apparatus 100 using the storage medium.

지도제작플랫폼장치(100)는 3차원 지도를 제작할 수 있는 각종 기능을 제공한다. 예를 들어, 지도제작플랫폼장치(100)는 드론을 이용한 촬영비용을 견적하여 제시하는 기능, 드론 촬영 영상 또는 사용자 단말(120)로부터 수신한 영상의 촬영위치 및 자세정보 등의 외부표정요소를 결정하여 제공하는 번들조정기능, 2차원 영상을 이용하여 3차원 지도를 제작하는 기능 등을 포함할 수 있다. 각 기능에 대하여 도 2 이하에서 살펴본다.The mapping platform apparatus 100 provides various functions for producing a three-dimensional map. For example, the mapping platform device 100 determines external expression factors such as a function to estimate and present a shooting cost using a drone, a shooting position and posture information of a drone shot image or an image received from the user terminal 120 . It may include a bundle adjustment function that is provided by doing this, and a function of creating a 3D map using a 2D image. Each function will be described below in FIG. 2 .

도 2는 본 발명의 실시 예에 따른 지도제작플랫폼장치의 일 예의 구성을 도시한 도면이다.2 is a diagram showing the configuration of an example of a mapping platform apparatus according to an embodiment of the present invention.

도 2를 참조하면, 지도제작플랫폼장치(100)는 드론촬영서비스부(200), 번들조정부(210) 및 지도제작부(220)를 포함한다. 지도제작플랫폼장치(100)는 컴퓨터, 서버, 클라우드 시스템 등 다양한 형태로 구현될 수 있다. 예를 들어, 본 실시 예의 각 구성은 소프트웨어 구현되어 메모리에 탑재된 후 프로세서에 의해 수행될 수 있다.Referring to FIG. 2 , the mapping platform apparatus 100 includes a drone photographing service unit 200 , a bundle adjustment unit 210 , and a map production unit 220 . The mapping platform apparatus 100 may be implemented in various forms, such as a computer, a server, and a cloud system. For example, each configuration of the present embodiment may be implemented by software, loaded in a memory, and then performed by a processor.

드론촬영서비스부(200)는 일정 지역에 대한 드론 촬영 비용을 촬영 면적 기준으로 산정하고, 일정 지역을 드론으로 촬영한 영상을 제공한다. 드론촬영서비스부(200)는 사용자로부터 촬영 지역을 선택받기 위한 지도 화면을 제공할 수 있다. 사용자는 지도 화면에서 촬영 지역을 선택할 수 있다. 예를 들어, 드론촬영서비스부(200)는 폴리곤객체 생성툴을 제공하고, 사용자는 폴리곤 형태로 지도에서 원하는 촬영 지역을 표시할 수 있다. The drone photographing service unit 200 calculates the drone photographing cost for a certain area based on the photographing area, and provides an image captured by the drone in the predetermined area. The drone photographing service unit 200 may provide a map screen for receiving a selection of a photographing area from the user. The user can select a shooting area on the map screen. For example, the drone photographing service unit 200 may provide a polygon object creation tool, and the user may display a desired photographing area on the map in the form of a polygon.

드론촬영서비스부(200)는 사용자가 지도에 표시한 촬영 지역의 좌표(예를 들어, 위경도 등)를 파악한 후 이를 기초로 촬영 지역의 실 면적을 구하고, 면적 기준으로 촬영 비용을 산출할 수 있다. 드론 촬영은 관리자가 직접 드론을 조정하여 촬영 지역의 좌표를 확인하면서 영상을 촬영할 수 있다. 드론촬영서비스부(200)는 드론 촬영 영상 원본과 각 영상에 대한 외부표정요소를 드론촬영서비스의 결과물로 사용자에게 제공할 수 있다.The drone shooting service unit 200 may determine the coordinates (eg, latitude and longitude, etc.) of the shooting area marked by the user on the map, and then obtain the actual area of the shooting area based on this, and calculate the shooting cost based on the area. have. In drone shooting, an administrator can directly control the drone to shoot video while checking the coordinates of the shooting area. The drone photographing service unit 200 may provide the original drone photographed image and an external expression element for each image to the user as a result of the drone photographing service.

드론은 촬영 지역을 중첩 촬영한다. 예를 들어, 드론이 일정 방향으로 이동하면서 연속 촬영하는 경우에 연속 촬영된 영상의 일부분은 서로 중첩될 수 있다. 다만, 드론의 경우 GNSS나 IMU(Inertial Measurement Unit) 등을 사용하므로 촬영위치와 촬영자세 등의 측정값의 정확도가 떨어질 수 있고, 기체의 특성상 바람의 영향을 많이 받기 때문에 드론에서 파악한 3차원 위치정보나 자세정보 등을 그대로 이용하여 3차원 지도를 제작할 경우 그 정확도가 떨어지는 경우가 발생할 수 있다. 이를 번들조정부(210)를 통해 조정할 수 있다.The drone superimposes the shooting area. For example, when a drone continuously takes pictures while moving in a certain direction, portions of the continuously shot images may overlap each other. However, in the case of drones, since GNSS or IMU (Inertial Measurement Unit) is used, the accuracy of measurement values such as shooting location and shooting posture may be reduced. When a 3D map is produced using posture information, etc. as it is, the accuracy may be lowered. This may be adjusted through the bundle adjustment unit 210 .

번들조정부(210)는 2차원 영상의 촬영위치와 자세정보 등의 외부표정요소를 결정하여 제공한다. 예를 들어, 번들조정부(210)는 드론이 촬영한 복수의 영상 또는 사용자 단말(120)로부터 수신한 복수의 영상에 대하여 외부표정요소(즉, 각 영상의 촬영위치 및 자세정보)를 결정할 수 있다. 번들조정부(210)는 각 영상의 절대좌표값인 GCP(Ground Control Point)를 각 영상에서 지정하여 번들조정 값을 구한 후 그 결과를 사용자 단말로 제공할 수 있다. 각 영상의 번들 조정을 위한 사용자 인터페이스 화면의 일 예가 도 3에 도시되어 있다.The bundle adjustment unit 210 determines and provides external expression elements such as a photographing position and posture information of a two-dimensional image. For example, the bundle adjustment unit 210 may determine an external expression element (ie, photographing location and posture information of each image) for a plurality of images captured by the drone or a plurality of images received from the user terminal 120 . . The bundle adjustment unit 210 may obtain a bundle adjustment value by designating a Ground Control Point (GCP), which is an absolute coordinate value of each image, in each image, and then provide the result to the user terminal. An example of a user interface screen for adjusting bundles of each image is shown in FIG. 3 .

번들조정부(210)는 라이센스를 구매한 사용자 단말에 다운로드되어 의해 구동될 수 있다. 라이센스 계약 기간이 종료되면 번들조정부(210)는 사용자 단말(120)에서 더 이상 동작하지 않을 수 있다. 다른 예로, 번들조정부(210)의 기능은 지도제작플랫폼장치(100)에 의해 제공될 수 있다. 즉, 사용자는 로그인 과정을 거쳐 지도제작플랫폼장치(100)에 접속한 후 지도제작플랫폼장치(100)에 의해 제공되는 번들조정 기능을 이용할 수 있다. The bundle adjustment unit 210 may be downloaded and driven by a user terminal that has purchased a license. When the license contract period ends, the bundle adjustment unit 210 may no longer operate in the user terminal 120 . As another example, the function of the bundle adjustment unit 210 may be provided by the mapping platform apparatus 100 . That is, the user can use the bundle adjustment function provided by the mapping platform apparatus 100 after accessing the mapping platform apparatus 100 through a login process.

사용자는 필요에 따라 드론촬영서비스와 번들조정서비스 중 어느 하나만을 이용하거나 두 가지 서비스를 동시에 이용할 수 있다. 예를 들어, 사용자는 드론을 통해 일정 지역의 영상 촬영과 그 영상의 번들조정을 함께 요청할 수 있다.Users can use either one of the drone photography service and the bundle adjustment service, or both services at the same time, as needed. For example, the user may request to take an image of a certain area and adjust the bundle of the image through the drone.

번들조정부(210)는 종래의 다양한 번들 조정 방법을 이용할 수 있다. 다만 보다 정확한 외부표정요소를 결정하기 위하여, 번들조정부(210)는 일정 지역을 중첩 촬영한 복수의 영상에 포함된 공통의 특징점을 기초로 영상의 정확한 촬영위치 및 자세정보 등의 외부표정요소를 획득할 수 있다. 공통의 특징점을 이용한 번들조정의 구체적인 방법에 대해서는 도 5 내지 도 8에서 다시 설명한다.The bundle adjustment unit 210 may use various conventional bundle adjustment methods. However, in order to determine a more accurate external expression element, the bundle adjustment unit 210 acquires an external expression element such as an accurate photographing position and posture information of an image based on a common feature point included in a plurality of images overlapped with a certain area can do. A specific method of bundle adjustment using common feature points will be described again with reference to FIGS. 5 to 8 .

지도제작부(220)는 영상의 외부표정요소를 기초로 적어도 둘 이상의 영상에 대한 상대표정을 수행하여 시차를 제거하고, 시차 제거된 적어도 둘 이상의 영상으로부터 객체의 적어도 하나 이상의 지점에 대한 공간좌표(즉, 3차원 공간의 절대좌표값)를 파악하고, 파악한 공간좌표를 이용하여 점, 선 또는 면 형태의 3차원 객체 데이터를 생성하여 출력한다. 예를 들어, 지도제작부(220)는 2차원 영상을 화면에 표시하고 사용자로부터 3차원 좌표를 구하고자 하는 객체의 지점을 선택받으면, 시차 제거 후 각 지점의 3차원 좌표를 구할 수 있다. 3차원 지도 제작을 위한 사용자 인터페이스 화면의 일 예가 도 4에 도시되어 있다.The cartography unit 220 removes the parallax by performing relative expressions on at least two or more images based on the external expression element of the image, and spatial coordinates of at least one or more points of the object from the at least two or more images from which the parallax has been removed (that is, , the absolute coordinate value of 3D space), and using the identified spatial coordinates, generates and outputs 3D object data in the form of points, lines, or surfaces. For example, when the cartography unit 220 displays a 2D image on the screen and receives a selection from the user of a point of an object for which 3D coordinates are to be obtained, the 3D coordinates of each point may be obtained after the parallax is removed. An example of a user interface screen for 3D map production is illustrated in FIG. 4 .

지도제작부(220)는 라이센스를 구매한 사용자 단말에 다운로드되어 의해 구동될 수 있다. 라이센스 계약 기간이 종료되면 지도제작부(220)는 더 이상 동작하지 않을 수 있다. 다른 예로, 지도제작부(220)의 기능은 지도제작플랫폼장치(100)에 의해 제공될 수 있다. 즉, 사용자는 로그인 과정을 거쳐 지도제작플랫폼장치(100)에 접속한 후 지도제작플랫폼장치(100)에 의해 제공되는 도 4와 같은 지도제작 기능을 이용할 수 있다. The map making unit 220 may be downloaded and driven by a user terminal that has purchased a license. When the license contract period ends, the mapping unit 220 may no longer operate. As another example, the functions of the mapping unit 220 may be provided by the mapping platform apparatus 100 . That is, after the user accesses the mapping platform apparatus 100 through a login process, the user can use the mapping function as shown in FIG. 4 provided by the mapping platform apparatus 100 .

3차원 지도 제작을 위한 시차 제거 방법의 일 예로 입체시 방법이 존재한다. 입체시 방법은 두 영상에서 3차원 좌표를 구하고자 하는 지점을 특정한 후 스테레오 입체시 모니터 등을 이용하여 두 영상의 특정 지점이 입체적으로 일치하도록 정렬하여 두 영상의 Y 시차를 제거하는 방법이다. 이 외에도 본 실시 예에는 시차를 제거하는 종래의 다양한 상대표정 방법이 적용될 수 있다. As an example of a method for removing parallax for 3D map production, there is a stereoscopic vision method. The stereoscopic method is a method of removing the Y disparity between two images by specifying a point from which three-dimensional coordinates are to be obtained from two images and then aligning the specific points of the two images to match three-dimensionally using a stereo stereoscopic monitor or the like. In addition to this, various conventional relative expression methods for removing parallax may be applied to the present embodiment.

다른 실시 예로, 본 실시 예의 지도제작부(220)는 고가의 스테레오 입체시 장비 없이 일반 컴퓨터를 이용한 상대표정을 수행하여 3차원 좌표를 구하하는 방법을 제시한다. 예를 들어, 지도제작부(220)는 두 영상을 화면에 표시하고 공간좌표의 높이값을 변화시켜 두 영상에 표시된 두 지점을 일치시는 과정을 통해 시차를 제거하고 3차원 좌표를 구할 수 있다. 이에 대한 구체적인 방법에 대해서는 도 9 내지 도 12에서 다시 살펴본다.In another embodiment, the cartography unit 220 of this embodiment proposes a method of obtaining three-dimensional coordinates by performing a relative expression using a general computer without expensive stereo stereoscopic vision equipment. For example, the cartography unit 220 may display the two images on the screen and change the height value of the spatial coordinates to remove the parallax and obtain the three-dimensional coordinates through the process of matching the two points displayed on the two images. A detailed method for this will be looked at again with reference to FIGS. 9 to 12 .

도 3은 본 발명의 실시 예에 따른 번들 조정을 위한 화면 인터페이스의 일 예를 도시한 도면이다.3 is a diagram illustrating an example of a screen interface for bundle adjustment according to an embodiment of the present invention.

도 3을 참조하면, 번들 조정 화면 인터페이스(300)는 화면 왼쪽에 영상 리스트 표시창(310)을 포함하고, 화면 오른쪽에 영상 리스트 표시창(310)에서 선택된 영상을 표시하는 복수 개의 영상 뷰어창(320)이 포함한다. 사용자가 뷰어창(320)에 표시된 영상을 선택하고, 그 영상에서 GCP를 선택하면, 지도제작플랫폼장치(100)의 번들조정부(210)는 해당 영상의 촬영위치 및 자세정보 등을 포함하는 외부표정요소를 결정한다. Referring to FIG. 3 , the bundle adjustment screen interface 300 includes an image list display window 310 on the left side of the screen, and a plurality of image viewer windows 320 that display images selected from the image list display window 310 on the right side of the screen. This includes When the user selects an image displayed on the viewer window 320 and selects GCP from the image, the bundle adjustment unit 210 of the mapping platform apparatus 100 provides an external expression including the shooting location and posture information of the image. determine the elements.

예를 들어, 번들조정부(210)는 사용자가 어떤 영상을 선택하면 그 영상과 중첩되는 서로 다른 두 개의 영상을 추가 선택하고, 사용자가 선택한 영상과 추가 선택된 2개의 영상을 포함한 총 3개의 영상을 기준으로 도 5 내지 도 8에 기술된 방법에 따라 번들 조정을 수행할 수 있다. 번들조정부(210)는 사용자가 선택한 영상과 중첩 부분의 비율이 높은 순 또는 공통 특징점(즉, 타이포인트)의 개수가 많은 순으로 추가 영상을 선택할 수 있다. 다른 예로, 사용자가 번들 조정에 사용할 세 개의 영상을 인터페이스 화면(300)에서 직접 선택할 수도 있다.For example, when the user selects an image, the bundle adjustment unit 210 additionally selects two different images overlapping the image, and based on a total of three images including the user selected image and the additionally selected two images. As a result, bundle adjustment may be performed according to the method described in FIGS. 5 to 8 . The bundle adjustment unit 210 may select the additional images in the order in which the ratio of the overlapping portion to the image selected by the user is high or in the order in which the number of common feature points (ie, tie points) is large. As another example, the user may directly select three images to be used for bundle adjustment on the interface screen 300 .

도 4는 본 발명의 실시 예에 따른 3차원 지도제작을 위한 화면 인터페이스의 일 예를 도시한 도면이다.4 is a diagram illustrating an example of a screen interface for 3D map production according to an embodiment of the present invention.

도 4를 참조하면, 지도제작 화면 인터페이스(400)는 화면 왼쪽에 영상 리스크가 표시창(410)을 포함하고, 화면 오른쪽에 영상 리스트 표시창(410)에서 선택된 영상을 표시하는 복수 개의 영상 뷰어창(420)을 포함한다. 사용자는 뷰어창(420)에 표시된 영상 중 3차원 좌표를 구하고자 하는 객체가 존재하는 제1 영상을 선택하면, 지도제작플랫폼장치(100)의 지도제작부(220)는 사용자가 선택한 제1 영상과 일정 부분이 중첩되는 제2 영상을 선택하여 표시한다. 예를 들어, 지도제작부(220)는 제1 영상과 영상 중첩 부분이 가장 많은 제2 영상을 자동 파악하여 화면에 표시할 수 있다. 다른 실시 예로, 사용자가 인터페이스 화면(400)을 통해 제1 영상과 제2 영상을 모두 직접 선택할 수도 있다. Referring to FIG. 4 , the mapping screen interface 400 includes a video risk display window 410 on the left side of the screen, and a plurality of image viewer windows 420 that display images selected from the image list display window 410 on the right side of the screen. ) is included. When the user selects a first image in which an object for which three-dimensional coordinates are to be obtained exists among the images displayed on the viewer window 420, the cartography unit 220 of the mapping platform apparatus 100 is displayed with the first image selected by the user. A second image overlapping a predetermined portion is selected and displayed. For example, the map making unit 220 may automatically determine the second image having the largest overlap between the first image and the image and display it on the screen. In another embodiment, the user may directly select both the first image and the second image through the interface screen 400 .

사용자가 제1 영상에서 3차원 좌표를 구하고자 하는 지점을 선택하면, 지도제작부(220)는 제1 영상은 고정하고 공간좌표의 높이값에 따라 변경되는 영상좌표의 지점을 제2 영상에 표시한다. 지도제작부(220)는 공간좌표의 높이값을 변화시켜 제2 영상에 표시된 지점이 제1 영상에 고정 표시된 지점과 일치하도록 조정할 수 있으며, 제1 영상과 제2 영상의 각 지점이 일치할 때 사용자가 선택한 지점의 3차원 좌표를 파악할 수 있다. 제1 영상과 제2 영상을 화면에 각각 표시하고 두 영상에 표시된 두 지점을 일치시키는 예가 도 10 및 도 11에 도시되어 있다. 또한 이러한 방법으로 제1 영상에 표시된 객체의 적어도 하나 이상의 지점에 대한 3차원 좌표를 파악하여 해당 객체를 3차원 지도 제작을 위한 3차원 객체로 출력하는 예가 도 12에 도시되어 있다.When the user selects a point at which to obtain three-dimensional coordinates in the first image, the map making unit 220 fixes the first image and displays the point of the image coordinates that change according to the height value of the spatial coordinates on the second image . The map making unit 220 may change the height value of the spatial coordinates to adjust the points displayed on the second image to coincide with the points fixedly displayed on the first image, and when the points on the first image and the second image coincide with each other, the user 3D coordinates of the selected point can be grasped. Examples of displaying the first image and the second image on a screen and matching two points displayed on the two images are shown in FIGS. 10 and 11 . Also, FIG. 12 shows an example in which three-dimensional coordinates of at least one or more points of an object displayed on the first image are identified in this way and the corresponding object is output as a three-dimensional object for producing a three-dimensional map.

도 3 및 도 4의 화면 인터페이스(300,400)는 본 발명의 이해를 돕기 위한 하나의 예일 뿐 번들조정과 지도제작을 위한 화면 인터페이스(300,400)는 실시 예에 따라 다양하게 변형하여 사용할 수 있다.The screen interfaces 300 and 400 of FIGS. 3 and 4 are only examples for helping the understanding of the present invention, and the screen interfaces 300 and 400 for bundle adjustment and map production can be used with various modifications depending on the embodiment.

도 5는 본 발명의 실시 예에 따른 번들조정부의 상세 구성의 일 예를 도시한 도면이다. 도 6 내지 도 8은 타인포인트를 이용한 번들 조정 과정을 통해 영상을 정렬하는 과정을 도시한 도면이다. 이하 도 6 내지 도 8을 함께 참조하여 살펴본다.5 is a diagram illustrating an example of a detailed configuration of a bundle adjustment unit according to an embodiment of the present invention. 6 to 8 are diagrams illustrating a process of aligning images through a bundle adjustment process using tine points. Hereinafter, it will be described with reference to FIGS. 6 to 8 together.

먼저 도 5를 참조하면, 번들조정부(210)는 특징점추출부(500), 특징점산정부(510) 및 표정결정부(520)를 포함한다. First, referring to FIG. 5 , the bundle adjustment unit 210 includes a feature point extraction unit 500 , a feature point calculation unit 510 , and an expression determination unit 520 .

특징점추출부(500)는 중첩되는 부분을 가지는 적어도 세 개 이상의 영상에서 공통의 특징점을 추출한다. 각 영상에서 특징점 추출은 SIFT(Scale-Invariant Feature Transform), SURF(Speeded Up Roubst Features) 등과 같은 종래의 다양한 방법을 사용할 수 있다. 영상의 특징점 추출 그 자체는 이미 널리 알려진 기술이므로 이에 대한 상세한 설명은 생략한다. 영상 특징점의 3차원 공간좌표는 미리 알려져 있다고 가정한다. The feature point extraction unit 500 extracts a common feature point from at least three or more images having overlapping portions. For extracting feature points from each image, various conventional methods such as Scale-Invariant Feature Transform (SIFT) and Speeded Up Roubst Features (SURF) may be used. Since extracting feature points of an image itself is a well-known technique, a detailed description thereof will be omitted. It is assumed that the three-dimensional spatial coordinates of image feature points are known in advance.

복수의 영상에서 추출한 특징점들 중 동일한 특징점을 타이포인트라고 한다. 예를 들어, 두 장의 영상에서 추출한 동일한 특징점을 2중 타이포인트라고 하고, 세 장의 영상에서 추출한 동일한 특징점을 3중 타이포인트라고 한다. 본 실시 예는 설명의 편의를 위하여, 특징점추출부(500)가 3중 타이포인트를 추출하는 경우로 한정하여 설명한다. 예를 들어, 특징점추출부(500)는 도 6과 같이 3개의 영상(600,610,620)에서 복수 개의 3중 타이포인트(602,612,622)를 추출할 수 있다. Among the feature points extracted from a plurality of images, the same feature point is called a tie point. For example, the same feature point extracted from two images is called a double tie point, and the same feature point extracted from three images is called a triple tie point. For convenience of description, the present embodiment is limited to a case in which the feature point extraction unit 500 extracts triple tie points. For example, the feature point extraction unit 500 may extract a plurality of triple tie points 602 , 612 , and 622 from three images 600 , 610 , and 620 as shown in FIG. 6 .

특징점산정부(510)는 3개의 영상의 각각의 추정 위치 및 추정 자세에 기초하여, 복수의 3중 타이포인트 중에서 추정 위치 및 추정 자세에 부합하는 적합 타이포인트의 개수를 산정한다. 예를 들어, 3중 타이포인트가 도 6과 같을 때, 특징점산정부(510)는 도 7과 같이 3 개의 영상(600,610,620)을 3중 타이포인트(602,612,622)를 기초로 정렬할 수 있다. 그러나 3개 영상(600,610,620)의 3중 타이포인트(602,612,622)는 모두 완전하게 중첩되지 않고, 일부 중첩되는 않는 3중 타이포인트가 존재할 수 있다. 그러나 이때 어느 3중 타이포인트가 에러 포인트인지는 알 수가 없다.The feature point calculating unit 510 calculates the number of suitable tie points corresponding to the estimated position and the estimated posture among the plurality of triple tie points based on the estimated positions and the estimated postures of the three images, respectively. For example, when the triple tie points are the same as in FIG. 6 , the feature point calculating unit 510 may align the three images 600 , 610 , and 620 based on the triple tie points 602 , 612 and 622 as shown in FIG. 7 . However, all of the triple tie points 602 , 612 , and 622 of the three images 600 , 610 , and 620 do not completely overlap, and some non-overlapping triple tie points may exist. However, at this time, it is not known which triple tie point is the error point.

특징점산정부(510)는 먼저 복수의 3중 타이포인트 중 무작위로 3중 타이포인트를 선택한 후 이로부터 각 영상의 3차원 추정위치 및 추정자세를 도출할 수 있다. 예를 들어, 3중 타이포인트의 3차원 공간좌표와 영상에 표시되는 3중 타이포인트의 영상좌표가 주어지면 공선조건 등에 따라 영상의 투영중심(즉, 추정위치)과 촬영자세정보(즉, 추정자세)를 파악할 수 있다. 공선조건과 3차원 공간좌표와 영상좌표를 이용하여 영상의 투영중심 및 자세정보를 파악하는 방법은 사진측량 분야에서 이미 널리 알려진 기술이므로 이에 대한 상세한 설명은 생략한다.The feature point calculating unit 510 may first randomly select a triple tie point from among a plurality of triple tie points, and then derive a three-dimensional estimated position and an estimated posture of each image therefrom. For example, given the three-dimensional spatial coordinates of the triple tie point and the image coordinates of the triple tie point displayed on the image, the projection center (ie, estimated position) of the image and the photographing posture information (ie, estimation) according to collinear conditions, etc. behavior) can be identified. A method of determining the projection center and posture information of an image using collinear conditions, three-dimensional spatial coordinates, and image coordinates is a well-known technique in the field of photogrammetry, so a detailed description thereof will be omitted.

특징점산정부(510)는 복수의 3중 포인트 중 각 영상에서 구한 추정위치 및 추정자세에 부합하는 적합포인트의 개수를 산정한다. 예를 들어, 6개의 3중 타이포인트가 존재하고, 이 중 어느 하나의 3중 타이포인트를 이용하여 각 영상(600,610,620))의 추정위치 및 추정자세를 구했다면, 특징점산정부(510)는 나머지 3중 타이포인트에 대한 제1 영상 내 투영 영상좌표를 구하고, 투영 영상좌표와 제1 영상에 존재하는 3중 타이포인트의 영상좌표를 비교하여 그 거리가 일정 미만이면 그 3중 타이포인트를 적합한 타이포인트로 결정할 수 있다.The feature point calculating unit 510 calculates the number of fit points corresponding to the estimated position and the estimated posture obtained from each image among the plurality of triple points. For example, if there are six triple tie points, and the estimated position and the estimated posture of each image (600, 610, 620)) are obtained using any one of the triple tie points, the feature point calculating unit 510 performs the remaining Obtain the projection image coordinates in the first image for the triple tie point, compare the projected image coordinates with the image coordinates of the triple tie point existing in the first image, and if the distance is less than a certain amount, the triple tie point is selected as a suitable tie points can be determined.

표정결정부(520)는 무작위로 선정한 3중 타이포이트를 기초로 각 영상의 추정위치 및 추정자세를 구하고, 각 추정위치 및 추정자세에서 적합 타이포인트의 개수를 찾는 과정을 반복 수행하여 적합 타이포인트의 개수가 가장 많을 때의 추정위치 및 추정자세를 각 영상의 최종위치 및 최종자세로 결정할 수 있다. 가장 많은 개수의 적합 타이포인트를 이용하여 세 개의 영상(600,610,620)을 정렬한 예가 도 8에 도시되어 있다.The expression determining unit 520 obtains the estimated position and the estimated posture of each image based on the randomly selected triple typography, and repeats the process of finding the number of suitable tie points in each estimated position and the estimated posture to find the suitable tie points. The estimated position and the estimated posture when the number of is the largest may be determined as the final position and final posture of each image. An example of aligning three images 600 , 610 , and 620 using the largest number of suitable tie points is shown in FIG. 8 .

도 9는 본 발명의 실시 예에 따른 지도제작부의 상세 구성의 일 예를 도시한 도면이다.9 is a diagram illustrating an example of a detailed configuration of a map making unit according to an embodiment of the present invention.

도 9를 참조하면, 지도제작부(220)는 상대표정부(900), 영상표시부(910), 위치조정부(920) 및 좌표파악부(930)를 포함한다. Referring to FIG. 9 , the map making unit 220 includes a relative expression unit 900 , an image display unit 910 , a position adjustment unit 920 , and a coordinate finding unit 930 .

상대표정부(900)는 일정 영역이 중첩된 제1 영상 및 제2 영상의 촬영위치 및 자세정보를 포함하는 외부표정요소를 기초로 상대표정(relative orientation)을 수행한다(S210). 상대표정부(900)는 사진측량 분야에서 널리 알려진 상대표정 관계식을 이용하여 상대표정을 수행한다. 상대표정을 통해 정확한 3차원 공간좌표를 파악하기 위해서는 제1 영상과 제2 영상의 특정 지점을 서로 일치시키는 과정이 필요하다. 종래에는 입체시 방법을 이용하여 두 영상의 특정 지점을 일치시키는 과정을 수행하였으나, 본 실시 예는 이러한 과정없이 상대표정을 수행한다.The relative expression unit 900 performs a relative orientation based on an external expression element including photographing positions and posture information of the first image and the second image in which a predetermined region is overlapped (S210). The relative expression unit 900 performs a relative expression using a relative expression relational expression widely known in the field of photogrammetry. In order to grasp accurate three-dimensional spatial coordinates through the relative expression, a process of matching specific points of the first image and the second image with each other is required. Conventionally, a process of matching specific points of two images is performed using a stereoscopic method, but in this embodiment, a relative expression is performed without such a process.

보다 구체적으로 살펴보면, 상대표정부(900)는 제1 영상과 제2 영상에서 임의의 초기 영상좌표(예를 들어, 두 영상의 각 중앙좌표)와 임의의 공간좌표 높이값(즉, Z축 좌표값)을 설정한 후 공선조건을 이용하여 에피폴라 기하를 만족하는 초기 공간좌표를 파악한다. 다시 말해, 두 영상의 초기 영상좌표가 주어지고 공간좌표 중 높이값이 주어지므로, 상대표정부(900)는 공선조건과 에피폴라 기하 조건을 이용하여 공간좌표 중 미지수인 X축 좌표값과 Y축 좌표값을 계산할 수 있다. More specifically, the relative expression unit 900 includes an arbitrary initial image coordinate (eg, each central coordinate of the two images) and an arbitrary spatial coordinate height value (ie, Z-axis coordinate) in the first image and the second image. After setting the value), the initial spatial coordinates satisfying the epipolar geometry are identified using the collinear condition. In other words, since the initial image coordinates of the two images are given and the height value among the spatial coordinates is given, the relative representation unit 900 uses the collinear condition and the epipolar geometric condition to determine the X-axis coordinate value and the Y-axis, which are unknown among the spatial coordinates. Coordinate values can be calculated.

다시 말해, 상대표정부(900)는 사진측량 분야에서 널리 알려진 상대표정 관계식에 초기 영상좌표와 초기 공간좌표를 입력한 후 두 개의 미지수(X축 좌표값과 Y축 좌표값)를 최소제곱법 등을 이용하여 구할 수 있다. 상대표정 관계식을 이용하여 공간좌표값을 파악하는 방법은 이미 널리 알려져 있으므로 이에 대한 상세한 설명은 생략한다.In other words, the relative expression unit 900 inputs the initial image coordinates and the initial spatial coordinates to the relative expression relational expression widely known in the field of photogrammetry, and then converts the two unknowns (X-axis coordinate value and Y-axis coordinate value) to least squares method, etc. can be obtained using Since a method of determining a spatial coordinate value using a relative expression relational expression is already well known, a detailed description thereof will be omitted.

상대표정부(900)가 구한 공간좌표는 임의의 초기 영상좌표와 임의의 공간좌표 높이값을 이용하여 파악한 값일 뿐 두 영상의 특정 지점을 정확하게 일치시킨 값이 아니다. 상대표정부(900)가 초기에 구한 공간좌표를 정확하게 조정하기 위한 구성으로 영상표시부(910) 및 위치조정부(920)가 필요하다.The spatial coordinates obtained by the relative expression unit 900 are values obtained by using arbitrary initial image coordinates and arbitrary spatial coordinate height values, and not values obtained by precisely matching specific points of two images. The image display unit 910 and the position adjustment unit 920 are required as a configuration for accurately adjusting the spatial coordinates obtained by the relative expression unit 900 initially.

영상표시부(910)는 제1 영상 및 제2 영상을 화면에 각각 표시한다. 예를 들어, 도 10과 같이 두 영상(1000,1010)을 화면에 표시할 수 있다. 이하에서 도 10을 함께 참조하여 설명한다.The image display unit 910 displays the first image and the second image on the screen, respectively. For example, two images 1000 and 1010 may be displayed on the screen as shown in FIG. 10 . Hereinafter, it will be described with reference to FIG. 10 together.

위치조정부(920)는 사용자로부터 3차원 좌표를 구하고자 하는 지점을 입력받아 제1 영상(1000)에 해당 지점(즉, 제1 지점)(1002)을 표시한다. 위치조정부(920)는 상대표정부(900)가 구한 초기 공간좌표에서 높이값의 변화에 따라 변경되는 제2 영상(1010)의 영상좌표(즉, 제2 지점)(1012)를 구하여 제2 영상에 표시한다. 예를 들어, 영상표시부(910)는 공선조건을 이용하여 공간좌표에 해당하는 제2 영상(1010)의 영상좌표(1012)를 구하여 표시할 수 있다. 이때 제1 영상(1000)의 공간좌표의 높이값은 고정하고, 제2 영상(1010)의 공간좌표의 높이값을 변경하여 제2 지점을 파악할 수 있다. The position adjusting unit 920 receives a point from which a three-dimensional coordinate is to be obtained from the user and displays the corresponding point (ie, the first point) 1002 on the first image 1000 . The position adjusting unit 920 obtains the image coordinates (ie, the second point) 1012 of the second image 1010 that is changed according to the change of the height value in the initial spatial coordinates obtained by the relative expression unit 900 to obtain the second image. displayed on For example, the image display unit 910 may obtain and display the image coordinates 1012 of the second image 1010 corresponding to the spatial coordinates using the collinear condition. In this case, the second point may be identified by fixing the height value of the spatial coordinates of the first image 1000 and changing the height value of the spatial coordinates of the second image 1010 .

상대표정부(900)는 위치조정부(920)에 의해 초기 공간좌표의 높이값이 변경되면 변경된 높이값을 기초로 에피폴라 기하를 만족하는 공간좌표를 파악하는 상대표정을 다시 수행한다. 위치조정부(920)는 높이값 변화에 따라 새롭게 구한 공간좌표(즉, 변경된 공간좌표의 높이값(Z축 좌표값)과 이를 기초로 상대표정 관계식을 통해 새롭게 구한 공간좌표의 X축 및 Y축 좌표값)에 해당하는 제2 영상의 영상좌표를 공선조건을 통해 구하고, 제2 영상(1010)의 영상좌표에 'X'자(1012)를 표시한다. When the height value of the initial spatial coordinates is changed by the position adjusting unit 920 , the relative expression unit 900 performs a relative expression for recognizing the spatial coordinates satisfying the epipolar geometry based on the changed height value. The position adjustment unit 920 determines the spatial coordinates newly obtained according to the change in the height value (that is, the changed height value (Z-axis coordinate value) of the spatial coordinates) and the X-axis and Y-axis coordinates of the spatial coordinates newly obtained through the relative expression relational expression based on this value (Z-axis coordinate value). The image coordinate of the second image corresponding to the value) is obtained through the collinear condition, and an 'X' character 1012 is displayed on the image coordinate of the second image 1010 .

위치조정부(920)는 제2 영상(1010)의 제2 지점(1012)이 제1 영상(1000)의 제1 지점(1002)과 일치할 때까지 제2 영상(1010)의 공간좌표의 높이값을 변경한다. 예를 들어, 공간좌표의 높이값 변화에 따라 도 11과 같이 제2 영상(1010)의 제2 지점(1110)이 이동하여 제1 영상(1000)의 제1 지점(1002)과 일치할 수 있다. 제1 지점(1002)과 제2 지점(1012)이 일치하는지 여부는 사용자가 두 영상에 각각 표시된 'X' 표시가 영상 내 동일 지점을 가리키는지 확인하여 파악할 수 있다. 다른 실시 예로, 위치조정부(920)는 두 영상(1000,1010) 내 제1 지점(1002)과 제2 지점(1012)이 동일한 위치인지 여부를 종래의 다양한 영상인식방법 또는 딥러닝 등의 인공지능모델을 통해 파악할 수 있으며, 이 경우 사용자의 입력없이 위치조정부(920)가 높이값을 자동으로 변경하면서 제1 지점(1002)과 제2 지점(1012)이 일치하는 공간좌표의 높이값을 파악할 수 있다.The position adjusting unit 920 controls the height value of the spatial coordinates of the second image 1010 until the second point 1012 of the second image 1010 coincides with the first point 1002 of the first image 1000 . change the For example, as shown in FIG. 11 , the second point 1110 of the second image 1010 may move to coincide with the first point 1002 of the first image 1000 according to a change in the height value of the spatial coordinates. . Whether the first point 1002 and the second point 1012 match can be determined by the user checking whether the 'X' mark respectively displayed on the two images points to the same point in the images. In another embodiment, the position adjusting unit 920 determines whether the first point 1002 and the second point 1012 in the two images 1000 and 1010 are the same location using various conventional image recognition methods or artificial intelligence such as deep learning. It can be identified through the model, and in this case, the height value of the spatial coordinates where the first point 1002 and the second point 1012 coincide with the position adjusting unit 920 automatically changing the height value without user input. have.

제1 영상(1000)의 제1 지점(1002)과 제2 영상(1010)의 제2 지점(1100)이 일치하면, 좌표파악부(930)는 제2 영상(1010)의 제2 지점(1110)의 영상좌표에 해당하는 공간좌표를 파악한다. 제1 지점과 제2 지점이 일치할 때의 높이값을 알고 있으므로, 좌표파악부(930)는 제2 지점(1110)의 영상좌표와 공간좌표의 높이값을 기초로 공선조건을 이용하여 제2 지점(1110)의 영상좌표에 해당하는 3차원 공간좌표를 파악할 수 있다. When the first point 1002 of the first image 1000 matches the second point 1100 of the second image 1010 , the coordinate determiner 930 controls the second point 1110 of the second image 1010 . ) to determine the spatial coordinates corresponding to the image coordinates. Since the height value when the first point and the second point coincide with each other is known, the coordinate grasping unit 930 uses the collinear condition on the basis of the height value of the image coordinate and the spatial coordinate of the second point 1110 to obtain the second 3D spatial coordinates corresponding to the image coordinates of the point 1110 may be identified.

예를 들어, 초기 상대표정을 통해 구한 초기 공간좌표의 높이값이 5이고, 제1 지점(1002)과 제2 지점(1012)을 일치시키기 위하여 높이값을 '+2'만큼 변경하였다면, 좌표파악부(930)는 초기 공간좌표의 높이값에 조정한 높이값을 가감한 '7'을 3차원 좌표를 구하고자 하는 지점의 공간좌표의 높이값으로 결정할 수 있다. 좌표파악부(930)는 제1 지점(1002)과 제2 지점(1100)이 일치할 때의 높이값과 제2 영상(1010)의 제2 지점(1100)의 영상좌표를 기초로 공선조건을 만족하는 공간좌표의 X축 및 Y축의 좌표를 구할 수 있다. For example, if the height value of the initial spatial coordinate obtained through the initial relative expression is 5, and the height value is changed by '+2' to match the first point 1002 and the second point 1012, the coordinates are identified The unit 930 may determine '7' by adding or subtracting the adjusted height value to the height value of the initial spatial coordinates as the height value of the spatial coordinates of the point for which the three-dimensional coordinates are to be obtained. The coordinate determiner 930 determines a collinear condition based on a height value when the first point 1002 and the second point 1100 coincide and the image coordinate of the second point 1100 of the second image 1010. The coordinates of the X-axis and Y-axis of the spatial coordinates that are satisfied can be obtained.

이와 같은 방법으로 영상 내 다양한 지점에 대한 3차원 좌표를 구할 수 있다. 이때 3차원 좌표는 영상 내 각 지점 사이의 상대좌표값이다. 영상 내 특정 지점에 대한 높이 실측값(즉, GCP)이 존재하면, 이를 기초로 영상 내 각 지점(1002)의 절대좌표값을 구할 수 있다.In this way, three-dimensional coordinates for various points in the image can be obtained. In this case, the three-dimensional coordinates are relative coordinate values between each point in the image. If an actual height value (ie, GCP) for a specific point in the image exists, the absolute coordinate value of each point 1002 in the image can be obtained based on this.

도 10은 본 발명의 실시 예에 따른 초기 상대표정 수행 후의 두 영상을 표시한 도면이다.10 is a view showing two images after performing an initial relative expression according to an embodiment of the present invention.

도 10을 참조하면, 지도제작플랫폼장치(100)는 두 영상의 초기영상좌표(예를 들어, 영상의 중앙좌표)를 설정하고, 두 영상의 외부표정요소와 공선조건을 이용하여 에피폴라 기하를 만족하는 공간좌표를 구하는 초기 상대표정을 수행할 수 있다. Referring to FIG. 10 , the mapping platform apparatus 100 sets initial image coordinates (eg, central coordinates of images) of two images, and uses external expression elements and collinear conditions of the two images to generate epipolar geometry. An initial relative expression to obtain a satisfactory spatial coordinate can be performed.

지도제작플랫폼장치(100)는 초기 상대표정을 수행한 후 두 영상을 각각 표시하고, 제1 영상(1000)에는 3차원 좌표를 구하고자 하는 제1 지점(1002)을 표시한다. 지도제작플랫폼장치(100)는 초기 상대표정을 통해 구한 공간좌표에 해당하는 제2 영상(1010)의 영상좌표에 제2 지점(10122)을 표시한다. After performing the initial relative expression, the mapping platform apparatus 100 displays two images, respectively, and displays a first point 1002 from which three-dimensional coordinates are to be obtained on the first image 1000 . The mapping platform apparatus 100 displays the second point 10122 on the image coordinates of the second image 1010 corresponding to the spatial coordinates obtained through the initial relative expression.

도 11은 본 발명의 실시 예에 따른 공간좌표의 높이값 변화에 대한 영상좌표의 변화의 예를 도시한 도면이다.11 is a diagram illustrating an example of a change in image coordinates with respect to a change in height value of spatial coordinates according to an embodiment of the present invention.

도 11을 참조하면, 지도제작플랫폼장치(100)는 초기 상대표정을 통해 구한 초기 공간좌표의 높이값을 변경하고 그에 해당하는 제2 영상의 영상좌표(1100)를 파악하여 표시한다. Referring to FIG. 11 , the mapping platform apparatus 100 changes the height value of the initial spatial coordinate obtained through the initial relative expression, and identifies and displays the image coordinate 1100 of the second image corresponding thereto.

보다 구체적으로 살펴보면, 지도제작플랫폼장치(100)는 제1 영상(1000)의 제1 지점(1002)을 고정한다. 즉, 지도제작플랫폼장치(100)는 제1 영상의 높이값을 초기 상대표정을 통해 구한 초기 높이값으로 고정하고, 제2 영상(1010)에 대해서만 공간좌표의 높이값을 변경한다. 지도제작플랫폼장치(100)는 변경된 높이값을 기초로 상대표정을 수행하여 새로운 공간좌표를 구하고, 새로운 공간좌표에 해당하는 영상좌표의 제2 지점(1110)을 제2 영상(1010)에 표시한다. 제2 영상(1010)의 제2 지점(1100)이 제1 영상의(1000) 제1 지점(1002)과 동일한 곳(예를 들어, 영상 내 동일 객체의 동일 위치 등)을 가리킬 때까지 높이값 변경은 반복 수행된다.More specifically, the mapping platform apparatus 100 fixes the first point 1002 of the first image 1000 . That is, the mapping platform apparatus 100 fixes the height value of the first image to the initial height value obtained through the initial relative expression, and changes the height value of the spatial coordinates only for the second image 1010 . The mapping platform apparatus 100 obtains new spatial coordinates by performing relative expressions based on the changed height value, and displays the second point 1110 of the image coordinates corresponding to the new spatial coordinates on the second image 1010. . The height value until the second point 1100 of the second image 1010 points to the same location as the first point 1002 of 1000 of the first image (eg, the same location of the same object in the image) Changes are repeated.

도 12는 본 발명의 실시 예에 따라 2차원 영상으로부터 3차원 객체를 생성하는 일 예를 도시한 도면이다.12 is a diagram illustrating an example of generating a 3D object from a 2D image according to an embodiment of the present invention.

도 12를 참조하면, 사용자는 영상에서 3차원 좌표를 구하고자 하는 객체의 적어도 하나 이상의 지점을 선택한다. 예를 들어, 사용자는 도 4의 화면 인터페이스를 통해 선택한 영상(1200)에서 각 지점을 선택하고 3차원 좌표를 구하여 3차원 객체(1210)를 생성할 수 있다. 도 12와 같이 건물 지붕(1210)에 대한 3차원 객체 데이터 생성을 원하는 경우, 사용자는 건물 지붕의 각 모서리 지점을 선택하고, 각 모서리 지점에 대한 3차원 좌표를 도 9 내지 도 11에서 살핀 방법을 통해 구할 수 있다. Referring to FIG. 12 , a user selects at least one point of an object for which three-dimensional coordinates are to be obtained from an image. For example, the user may select each point in the image 1200 selected through the screen interface of FIG. 4 and obtain 3D coordinates to generate the 3D object 1210 . If you want to generate 3D object data for the building roof 1210 as shown in FIG. 12 , the user selects each corner point of the building roof, and the 3D coordinates for each corner point in FIGS. 9 to 11 . can be obtained through

객체(1210)의 적어도 하나 이상의 지점에 대한 3차원 좌표가 구해지면, 지도제작플랫폼장치(100)는 객체(1210)의 각 지점의 3차원 좌표값을 이용하여 점, 선 또는 면으로 구성되는 3차원 객체 데이터를 생성하여 출력한다.When the three-dimensional coordinates for at least one point of the object 1210 are obtained, the cartography platform apparatus 100 uses the three-dimensional coordinate values of each point of the object 1210 to form a point, a line, or a plane 3 Creates and outputs dimension object data.

이와 같은 방법으로 2차원 영상(1200)에 존재하는 각 객체(1210)를 3차원 객체로 생성할 수 있다. 지도제작플랫폼장치(100)는 3차원 객체를 조합하여 3차원 지도를 생성할 수 있다.In this way, each object 1210 present in the 2D image 1200 may be generated as a 3D object. The cartography platform apparatus 100 may generate a 3D map by combining 3D objects.

도 13은 본 발명의 실시 예에 따른 지도제작플랫폼을 이용한 지도제작방법의 일 예를 도시한 흐름도이다.13 is a flowchart illustrating an example of a mapping method using a mapping platform according to an embodiment of the present invention.

도 13을 참조하면, 지도제작플랫폼장치(100)는 사용자의 요청에 따라 일정 지역을 드론으로 촬영한 2차원 영상을 획득하여 제공할 수 있다(S1300). 지도제작플랫폼장치(100)는 지도 화면을 제공하고, 지도 화면을 통해 사용자가 원하는 촬영 지역을 입력받을 수 있다. 또한, 지도제작플랫폼장치(100)는 사용자가 선택한 면적에 따라 비용을 산출할 수 있다.Referring to FIG. 13 , the mapping platform apparatus 100 may obtain and provide a two-dimensional image captured by a drone in a predetermined area according to a user's request (S1300). The map making platform device 100 provides a map screen, and through the map screen, a user may receive a desired shooting area. In addition, the mapping platform apparatus 100 may calculate the cost according to the area selected by the user.

지도제작플랫폼장치(100)는 드론 촬영 영상 또는 사용자 단말로부터 수신한 영상에 대한 번들조정을 수행할 수 있다(S1310). 다른 실시 예로, 드론 촬영 영상의 촬영위치와 자세정보를 그대로 이용하는 경우에, 번들조정과정은 생략될 수도 있다. 종래의 다양한 번들조정 방법이 본 실시 예에 적용될 수 있으며, 번들 조정에 대한 다른 실시 예가 도 5 내지 8에 도시되어 있다. The mapping platform apparatus 100 may perform bundle adjustment on the drone-captured image or the image received from the user terminal (S1310). In another embodiment, in the case of using the photographing position and posture information of the drone photographed image as it is, the bundle adjustment process may be omitted. Various conventional bundle adjustment methods can be applied to this embodiment, and another embodiment of bundle adjustment is shown in FIGS. 5 to 8 .

지도제작플랫폼장치(100)는 2차원 영상에서 사용자가 선택한 지점에 대한 3차원 공간좌표를 구한다(S1320). 지도제작플랫폼장치(100)는 도 10과 같이 제1 영상과 제2 영상의 두 개의 영상을 표시한 후 공간좌표의 높이 변화를 제2 영상에 반영하여 두 영상의 지점을 일치시키는 과정을 통해 3차원 좌표를 구할 수 있다. 3차원 좌표를 구하는 구체적인 방법의 예가 도 9 내지 도 11에 도시되어 있다.The mapping platform apparatus 100 obtains three-dimensional spatial coordinates for a point selected by the user in the two-dimensional image (S1320). The mapping platform apparatus 100 displays two images of the first image and the second image as shown in FIG. 10 and then reflects the height change of the spatial coordinates in the second image to match the points of the two images. dimensional coordinates can be obtained. Examples of a specific method for obtaining three-dimensional coordinates are shown in FIGS. 9 to 11 .

지도제작플랫폼장치(100)는 객체에 대한 적어도 하나 이상의 지점에 대한 3차원 좌표를 이용하여 점, 선 또는 면의 형태로 나타나는 3차원 객체 데이터를 생성하여 출력한다(S1330).The cartography platform apparatus 100 generates and outputs 3D object data expressed in the form of points, lines, or surfaces by using 3D coordinates of at least one or more points of the object (S1330).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a network-connected computer system so that the computer-readable code can be stored and executed in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at with respect to preferred embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (9)

일정 지역에 대한 드론 촬영 비용을 면적 기준으로 산정하고, 상기 일정 지역을 드론으로 촬영한 영상을 제공하는 드론촬영서비스부;
일정 지역을 중첩 촬영한 복수의 영상에 포함된 타이포인트를 기초로 영상의 촬영위치 및 자세정보를 포함하는 외부표정요소를 결정하는 번들조정부; 및
외부표정요소를 기초로 적어도 둘 이상의 영상에 대한 상대표정을 수행하여 시차를 제거하고, 시차 제거된 적어도 둘 이상의 영상으로부터 객체의 적어도 하나 이상의 지점에 대한 공간좌표를 파악하고, 공간좌표를 기초로 점, 선 또는 면 형태의 3차원 객체 데이터를 생성하여 출력하는 지도제작부;를 포함하는 것을 특징으로 하는 지도제작플랫폼장치.
a drone photographing service unit that calculates a drone photographing cost for a certain area based on the area and provides an image captured by a drone in the predetermined area;
a bundle adjustment unit for determining an external expression element including a photographing position and posture information of an image based on a tie point included in a plurality of images overlapping a predetermined area; and
Removes parallax by performing relative expressions on at least two or more images based on external expression elements, finds spatial coordinates of at least one or more points of an object from at least two or more images from which parallax is removed, and points based on spatial coordinates , a cartography unit for generating and outputting three-dimensional object data in the form of a line or plane; Cartography platform device comprising a.
제 1항에 있어서, 상기 드론촬영서비스부는,
촬영 지역을 선택받기 위한 지도 화면을 제공하는 것을 특징으로 하는 지도제작플랫폼장치
According to claim 1, wherein the drone photography service unit,
Map production platform device, characterized in that it provides a map screen for receiving a selection of a shooting area
제 1항에 있어서, 상기 번들조정부는,
복수의 영상 중 3개의 영상으로부터 복수의 3중 타이포인트를 추출하는 특징점추출부;
상기 3개의 영상의 각각의 추정 위치 및 추정 자세에 기초하여, 상기 복수의 3중 타이포인트 중에서 상기 추정 위치 및 추정 자세에 부합하는 적합 포인트의 개수를 산정하는 특징점산정부; 및
상기 적합포인트의 개수에 기초하여 상기 3개의 영상의 추정 위치 및 추정 자세를 상기 3개의 영상의 최종 위치 및 최종 자세로 결정하는 표정결정부;를 포함하는 것을 특징으로 하는 지도제작플랫폼장치.
According to claim 1, wherein the bundle adjustment unit,
a feature point extraction unit for extracting a plurality of triple tie points from three images among a plurality of images;
a feature point calculation unit configured to calculate the number of fit points matching the estimated position and the estimated posture among the plurality of triple tie points based on the estimated positions and the estimated postures of the three images; and
and an expression determining unit that determines the estimated positions and the estimated postures of the three images as final positions and final postures of the three images based on the number of the fit points.
제 1항에 있어서, 상기 지도제작부는,
제1 영상 및 제2 영상의 촬영위치 및 자세정보를 포함하는 외부표정요소를 기초로 상기 제1 영상 및 상기 제2 영상의 일정 위치의 영상좌표에 대한 공간좌표를 파악하는 상대표정을 수행하는 상대표정부;
상기 제1 영상 및 제2 영상을 각각 표시하는 영상표시부;
상기 제1 영상에서 객체의 제1 지점을 표시하고, 공간좌표의 높이값 변화에 따라 변경되는 영상좌표의 제2 지점을 상기 제2 영상에 표시하는 위치조정부; 및
상기 제1 영상에 표시된 제1 지점과 상기 제2 영상에 표시된 제2 지점이 일치하면 상기 제2 영상에 표시된 제2 지점의 영상좌표를 기초로 상기 객체의 제1 지점의 공간좌표를 파악하여 출력하는 좌표파악부;를 포함하는 것을 특징으로 하는 지도제작플랫폼장치.
According to claim 1, wherein the cartography unit,
An image of performing a relative expression for recognizing spatial coordinates of image coordinates of a predetermined position of the first image and the second image based on an external expression element including the photographing position and posture information of the first image and the second image representative government;
an image display unit for displaying the first image and the second image, respectively;
a position adjusting unit for displaying a first point of an object in the first image and displaying a second point of image coordinates that change according to a change in a height value of spatial coordinates on the second image; and
When the first point displayed on the first image matches the second point displayed on the second image, the spatial coordinates of the first point of the object are identified and output based on the image coordinates of the second point displayed on the second image A map making platform device comprising a; a coordinate grasping unit.
지도제작플랫폼장치가 수행하는 지도제작방법에 있어서,
일정 지역에 대한 드론 촬영 비용을 면적 기준으로 산정하고, 상기 일정 지역을 드론으로 촬영한 영상을 제공하는 단계;
일정 지역을 중첩 촬영한 복수의 영상에 포함된 타이포인트를 기초로 영상의 촬영위치 및 자세정보를 포함하는 외부표정요소를 결정하는 단계; 및
외부표정요소를 기초로 적어도 둘 이상의 영상에 대한 상대표정을 수행하여 시차를 제거하고, 시차 제거된 적어도 둘 이상의 영상으로부터 객체의 적어도 하나 이상의 지점에 대한 공간좌표를 파악하고, 공간좌표를 기초로 점, 선 또는 면 형태의 3차원 객체 데이터를 생성하여 출력하는 단계;를 포함하는 것을 특징으로 하는 지도제작플랫폼을 이용한 지도제작방법.
In the mapping method performed by the mapping platform device,
estimating a drone photographing cost for a predetermined area based on the area, and providing an image captured by a drone in the predetermined area;
determining an external expression element including a photographing position and posture information of an image based on a tie point included in a plurality of images overlapping a predetermined area; and
Removes parallax by performing relative expressions on at least two or more images based on external expression elements, finds spatial coordinates of at least one or more points of an object from at least two or more images from which parallax is removed, and points based on spatial coordinates , generating and outputting three-dimensional object data in the form of a line or plane;
제 5항에 있어서, 상기 드론촬영영상을 제공하는 단계는,
지도화면을 제공하는 단계;
지도화면에서 촬영 지역을 선택받는 단계; 및
상기 촬영 지역의 면적에 따른 비용을 산정하는 단계;를 포함하는 것을 특징으로 하는 지도제작플랫폼을 이용한 지도제작방법.
The method of claim 5, wherein the providing of the drone-captured image comprises:
providing a map screen;
receiving a selection of a shooting area on the map screen; and
Calculating the cost according to the area of the photographing area; a method for making a map using a map making platform, comprising: a.
제 5항에 있어서, 상기 공간좌표를 파악하는 단계는,
제1 영상 및 제2 영상의 촬영위치 및 자세정보를 포함하는 외부표정요소를 기초로 상기 제1 영상 및 상기 제2 영상의 일정 위치의 영상좌표에 대한 공간좌표를 파악하는 상대표정을 수행하는 단계;
상기 제1 영상 및 제2 영상을 각각 표시하는 단계;
상기 제1 영상에서 객체의 제1 지점을 표시하고, 공간좌표의 높이값 변화에 따라 변경되는 영상좌표의 제2 지점을 상기 제2 영상에 표시하는 단계; 및
상기 제1 영상에 표시된 제1 지점과 상기 제2 영상에 표시된 제2 지점이 일치하면 상기 제2 영상에 표시된 제2 지점의 영상좌표를 기초로 상기 객체의 제1 지점의 공간좌표를 파악하여 출력하는 단계;를 포함하는 것을 특징으로 하는 지도제작플랫폼을 이용한 지도제작방법.
The method of claim 5, wherein the step of determining the spatial coordinates,
Performing a relative expression for recognizing spatial coordinates of image coordinates of predetermined positions of the first image and the second image based on an external expression element including the photographing position and posture information of the first image and the second image ;
displaying the first image and the second image, respectively;
displaying a first point of an object in the first image, and displaying a second point of image coordinates that change according to a change in a height value of spatial coordinates on the second image; and
When the first point displayed on the first image matches the second point displayed on the second image, the spatial coordinates of the first point of the object are identified and output based on the image coordinates of the second point displayed on the second image A method of making a map using a map making platform, comprising the steps of:
제 5항에 있어서,
복수의 영상 중 3개의 영상으로부터 복수의 3중 타이포인트를 추출하는 단계;
상기 3개의 영상의 각각의 추정 위치 및 추정 자세에 기초하여, 상기 복수의 3중 타이포인트 중에서 상기 추정 위치 및 추정 자세에 부합하는 적합 포인트의 개수를 산정하는 단계; 및
상기 적합포인트의 개수에 기초하여 상기 3개의 영상의 추정 위치 및 추정 자세를 상기 3개의 영상의 최종 위치 및 최종 자세로 결정하는 단계;를 상기 공간좌표를 파악하는 단계의 이전에 더 포함하는 것을 특징으로 하는 지도제작플랫폼을 이용한 지도제작방법.
6. The method of claim 5,
extracting a plurality of triple tie points from three images among a plurality of images;
calculating the number of fit points matching the estimated position and the estimated posture among the plurality of triple tie points based on the estimated positions and the estimated postures of the three images; and
determining the estimated positions and the estimated postures of the three images as the final positions and final postures of the three images based on the number of the fit points; A method of making a map using a map making platform.
제 5항 내지 제 8항 중 어느 한 항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium in which a program for performing the method according to any one of claims 5 to 8 is recorded.
KR1020200156771A 2020-11-20 2020-11-20 Map making Platform apparatus and map making method using the platform KR102475790B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200156771A KR102475790B1 (en) 2020-11-20 2020-11-20 Map making Platform apparatus and map making method using the platform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200156771A KR102475790B1 (en) 2020-11-20 2020-11-20 Map making Platform apparatus and map making method using the platform

Publications (2)

Publication Number Publication Date
KR20220069541A true KR20220069541A (en) 2022-05-27
KR102475790B1 KR102475790B1 (en) 2022-12-08

Family

ID=81791358

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200156771A KR102475790B1 (en) 2020-11-20 2020-11-20 Map making Platform apparatus and map making method using the platform

Country Status (1)

Country Link
KR (1) KR102475790B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102534829B1 (en) * 2022-12-13 2023-05-26 (주)로우코리아 An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same
KR102592988B1 (en) * 2023-04-20 2023-10-20 국방과학연구소 Method and device for detecting object in aerial images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101574636B1 (en) * 2015-07-23 2015-12-07 주식회사 지오스토리 Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
KR20190030456A (en) * 2017-09-14 2019-03-22 삼성전자주식회사 Mehtod and apparatus for stereo matching
KR101967284B1 (en) * 2017-11-21 2019-08-13 (주)쓰리디랩스 Apparatus and method for aligning multi image
KR102107465B1 (en) * 2018-09-12 2020-05-07 남서울대학교 산학협력단 System and method for generating epipolar images by using direction cosine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101574636B1 (en) * 2015-07-23 2015-12-07 주식회사 지오스토리 Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
KR20190030456A (en) * 2017-09-14 2019-03-22 삼성전자주식회사 Mehtod and apparatus for stereo matching
KR101967284B1 (en) * 2017-11-21 2019-08-13 (주)쓰리디랩스 Apparatus and method for aligning multi image
KR102107465B1 (en) * 2018-09-12 2020-05-07 남서울대학교 산학협력단 System and method for generating epipolar images by using direction cosine

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102534829B1 (en) * 2022-12-13 2023-05-26 (주)로우코리아 An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same
KR102592988B1 (en) * 2023-04-20 2023-10-20 국방과학연구소 Method and device for detecting object in aerial images

Also Published As

Publication number Publication date
KR102475790B1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
CN110568447B (en) Visual positioning method, device and computer readable medium
US9928656B2 (en) Markerless multi-user, multi-object augmented reality on mobile devices
US10681269B2 (en) Computer-readable recording medium, information processing method, and information processing apparatus
JP7273927B2 (en) Image-based positioning method and system
EP3274964B1 (en) Automatic connection of images using visual features
KR20130051501A (en) Online reference generation and tracking for multi-user augmented reality
US9460554B2 (en) Aerial video annotation
JP2010109783A (en) Electronic camera
CN110335351B (en) Multi-modal AR processing method, device, system, equipment and readable storage medium
KR102475790B1 (en) Map making Platform apparatus and map making method using the platform
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
CA3209009A1 (en) Computer vision systems and methods for supplying missing point data in point clouds derived from stereoscopic image pairs
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
KR20140055898A (en) Digital map generating system for performing spatial modelling through a distortion correction of image
JP2017201261A (en) Shape information generating system
US8509522B2 (en) Camera translation using rotation from device
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP2022075583A (en) Method of generating map and image-based positioning system using the same
CN110800023A (en) Image processing method and equipment, camera device and unmanned aerial vehicle
Rhee et al. Investigation of 1: 1,000 scale map generation by stereo plotting using UAV images
KR102520189B1 (en) Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
KR101189167B1 (en) The method for 3d object information extraction from single image without meta information
KR101585203B1 (en) System for measuring height of building automatically using DEM for 3D model using aerial photograph
CN114387532A (en) Boundary identification method and device, terminal, electronic equipment and unmanned equipment
JP6959305B2 (en) Generation device, generation method, and generation program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant