KR102613590B1 - Method of determining the location of a drone using 3D terrain location information and a drone thereof - Google Patents

Method of determining the location of a drone using 3D terrain location information and a drone thereof Download PDF

Info

Publication number
KR102613590B1
KR102613590B1 KR1020210151605A KR20210151605A KR102613590B1 KR 102613590 B1 KR102613590 B1 KR 102613590B1 KR 1020210151605 A KR1020210151605 A KR 1020210151605A KR 20210151605 A KR20210151605 A KR 20210151605A KR 102613590 B1 KR102613590 B1 KR 102613590B1
Authority
KR
South Korea
Prior art keywords
drone
information
feature
image
tile map
Prior art date
Application number
KR1020210151605A
Other languages
Korean (ko)
Other versions
KR20230065732A (en
Inventor
김재학
이대희
Original Assignee
주식회사 지오스토리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지오스토리 filed Critical 주식회사 지오스토리
Priority to KR1020210151605A priority Critical patent/KR102613590B1/en
Publication of KR20230065732A publication Critical patent/KR20230065732A/en
Application granted granted Critical
Publication of KR102613590B1 publication Critical patent/KR102613590B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Abstract

본 발명은 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법으로서, 상기 3차원 지형지물 정보를 취득할 이미지 촬영 노선과 관련된 2차원 타일맵을 수신하는 단계, 상기 이미지 촬영 노선의 이미지를 일정 주기로 수신하고, 외부에서 수신된 신호를 이용하여, 상기 이미지가 수신된 동일한 시간에 상기 드론이 위치한 2차원 평면좌표를 산출하는 단계, 상기 수신된 이미지에 포함된 관심 지형지물을 분류하고, 상기 분류된 관심 지형지물간의 이미지 좌표를 이용하여, 상기 관심 지형지물의 시퀀스 정보를 추출하는 단계, 상기 이미지에서 추출된 관심 지형지물의 시퀀스 정보와 상기 2차원 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보가 일정수준 이상 일치하는 2차원 타일맵의 서브그룹을 1차 추출하는 단계, 상기 산출된 드론의 2차원 평면좌표의 시간 t와 시간 t+1의 좌표값을 이용하여 상기 드론의 방향각을 계산하고, 상기 계산된 방향각과 상기 2차원 타일맵의 서브그룹의 방향각 차이가 일정 수준 이하를 만족하는 2D 타일맵 서브그룹을 2차 추출하는 단계 및 상기 2차 추출된 2D 타일맵 서브그룹에 포함된 지형지물의 평면 좌표 및 높이값을 이용하여 상기 이미지를 촬영한 카메라의 평면 좌표 및 높이값을 계산함으로써, 상기 드론의 위치를 계산하는 단계를 포함하고, 상기 2차원 타일맵을 서브그룹은 상기 영상 촬영 노선의 방향각 정보를 포함하고, 2D 타일맵에 포함된 주요 지형지물의 2D 평면좌표 및 높이값을 활용하여, 드론의 정밀 위치 및 주변 지형지물의 3차원 위치정보를 실시간으로 추출할 수 있다. The present invention is a method of determining the location of a drone using 3D feature location information, comprising the steps of receiving a 2D tile map related to an image taking route to acquire the 3D feature information, and capturing images of the image taking route at a regular interval. receiving and using a signal received from outside to calculate two-dimensional plane coordinates where the drone is located at the same time the image was received, classifying features of interest included in the received image, and classifying the classified Extracting sequence information of the feature of interest using image coordinates between features of interest, wherein the sequence information of the feature of interest extracted from the image and the sequence information of the feature included in a subgroup of the two-dimensional tile map are at a certain level. A step of first extracting a subgroup of the two-dimensional tile map that matches the above, calculating the direction angle of the drone using the calculated two-dimensional plane coordinates of the drone at time t and the coordinate value of time t + 1, and Secondary extracting a 2D tile map subgroup in which the difference between the calculated orientation angle and the orientation angle of the subgroup of the 2D tile map satisfies a certain level or less, and the extraction of features included in the secondary extracted 2D tile map subgroup. Comprising the step of calculating the location of the drone by calculating the plane coordinates and height value of the camera that captured the image using the plane coordinates and height value, wherein the two-dimensional tile map subgroup is the image capture route. By including orientation angle information and utilizing the 2D plane coordinates and height values of major features included in the 2D tile map, the precise location of the drone and 3D location information of surrounding features can be extracted in real time.

Description

3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법 및 이를 이용한 드론{Method of determining the location of a drone using 3D terrain location information and a drone thereof}Method of determining the location of a drone using 3D terrain location information and a drone using the same {Method of determining the location of a drone using 3D terrain location information and a drone thereof}

본 발명은 드론의 위치 결정 방법에 관한 것으로서, 더욱 상세하게는 드론의 정밀 위치 및 주변 지형지물의 3차원 위치정보를 실시간으로 추출할 수 있는 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법 및 이를 이용한 드론에 관한 것이다.The present invention relates to a method for determining the position of a drone, and more specifically, to a method for determining the position of a drone using 3D feature location information that can extract the precise location of the drone and 3D location information of surrounding features in real time, and a method for determining the position of a drone using the same. It's about drones used.

도로 및 지형지물을 재촬영하여 3D 맵을 업데이트를 하는 경우 많은 시간과 비용이 소요되므로, 기존 3D Map 정보를 이용하되 관심대상의 변화만을 감지하여 3D 맵을 업데이트할 수 있는 기술이 필요하다. 이때, 업데이트하는 3D 맵의 정확도를 높이기 위해서는 도로 및 지형지물을 촬영하는 드론의 위치정확도를 높일 필요가 있다. 기존에는 고가의 정밀 위치 결정 모듈을 이용하거나 다음과 같은 선행기술에서와 같이 특정 위치 컨텍스트 식별자 (location context identifier) 또는 과속방지턱을 감지하는 G 센서를 이용하여 모바일 장치의 위치를 결정하고 있다.Because updating a 3D map by rephotographing roads and terrain takes a lot of time and money, a technology is needed that can update the 3D map by using existing 3D map information but only detecting changes in objects of interest. At this time, in order to increase the accuracy of the updated 3D map, it is necessary to increase the location accuracy of the drone that photographs roads and terrain features. Conventionally, the location of a mobile device is determined using an expensive precise positioning module or using a specific location context identifier or a G sensor that detects a speed bump as in the following prior art.

선행기술 1(한국공개특허 KR 10-2012-0117896 A)는 로컬화된 환경들과 연계된 위치 기반 서비스들을 위한 맵 핸들링에 관한 특허로서, 특정 위치 컨텍스트 식별자 (location context identifier)와 연관된 특정 로컬화된 환경 (localized environment) 에 대응하는 맵 정보를 저장한다. 선행기술 1은 모바일 디바이스의 위치를 결정하기 위하여 특정 위치 컨텍스트 식별자를 구비하고 있다.Prior Art 1 (Korean Patent Publication KR 10-2012-0117896 A) is a patent on map handling for location-based services associated with localized environments, and refers to a specific localization associated with a specific location context identifier. Stores map information corresponding to the localized environment. Prior art 1 has a specific location context identifier to determine the location of the mobile device.

선행기술 2(한국공개특허 KR 10-2019-0061135 A)는 주행 차량의 위치 추정 장치 및 그 방법에 관한 특허로서, 차량의 주행 중 과속방지턱을 감지하는 G 센서를 구비하고, G 센서로부터 입력된 감지정보로부터 과속방지턱이 감지되면 추정된 차량의 위치를 기반으로 지도 데이터부로부터 차량 주변의 지도정보를 추출하여 과속방지턱의 위치를 결정하고, 추정된 차량의 위치와 과속방지턱의 위치를 매칭하여 차량의 위치를 보정하고 있다.Prior Art 2 (Korean Patent Publication KR 10-2019-0061135 A) is a patent on a device and method for estimating the position of a driving vehicle, and includes a G sensor that detects speed bumps while the vehicle is running, and the data input from the G sensor. When a speed bump is detected from the detection information, map information around the vehicle is extracted from the map data unit based on the estimated vehicle location to determine the location of the speed bump, and the estimated vehicle location is matched with the location of the speed bump to determine the vehicle The position of is being corrected.

따라서, 본 발명이 해결하고자 하는 첫 번째 과제는 2D 타일맵에 포함된 주요 지형지물의 2D 평면좌표 및 높이값을 활용하여, 드론의 정밀 위치 및 주변 지형지물의 3차원 위치정보를 실시간으로 추출할 수 있는 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법을 제공하는 것이다.Therefore, the first problem that the present invention aims to solve is to extract the precise location of the drone and the 3D location information of surrounding features in real time by utilizing the 2D plane coordinates and height values of major features included in the 2D tile map. It provides a method for determining the location of a drone using 3D feature location information.

본 발명이 해결하고자 하는 두 번째 과제는 고가의 정밀 위치 결정 모듈이 없더라도, 기존에 실측된 지형지물 3D 위치정보 및 카메라 기반의 물체인식 기술, 관심 물체의 옵티컬 플로우 정보를 이용하여, 높은 정확도의 드론 위치 계산이 가능한 3차원 지형지물 위치 정보를 이용하여 위치를 결정하는 드론을 제공하는 것이다.The second problem that the present invention aims to solve is to create a high-accuracy drone using existing measured 3D location information of terrain features, camera-based object recognition technology, and optical flow information of objects of interest, even without an expensive precision positioning module. It provides a drone that determines the location using 3D location information of geographical features that can calculate the location.

또한, 상기된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.In addition, the object is to provide a computer-readable recording medium on which a program for executing the above-described method is recorded on a computer.

본 발명은 상기 첫 번째 과제를 달성하기 위하여, 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법으로서, 상기 3차원 지형지물 정보를 취득할 이미지 촬영 노선과 관련된 2차원 타일맵을 수신하는 단계; 상기 이미지 촬영 노선의 이미지를 일정 주기로 수신하고, 외부에서 수신된 신호를 이용하여, 상기 이미지가 수신된 동일한 시간에 상기 드론이 위치한 2차원 평면좌표를 산출하는 단계; 상기 수신된 이미지에 포함된 관심 지형지물을 분류하고, 상기 분류된 관심 지형지물간의 이미지 좌표를 이용하여, 상기 관심 지형지물의 시퀀스 정보를 추출하는 단계; 상기 이미지에서 추출된 관심 지형지물의 시퀀스 정보와 상기 2차원 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보가 일정수준 이상 일치하는 2차원 타일맵의 서브그룹을 1차 추출하는 단계; 상기 산출된 드론의 2차원 평면좌표의 시간 t와 시간 t+1의 좌표값을 이용하여 상기 드론의 방향각을 계산하고, 상기 계산된 방향각과 상기 2차원 타일맵의 서브그룹의 방향각 차이가 일정 수준 이하를 만족하는 2D 타일맵 서브그룹을 2차 추출하는 단계; 및 상기 2차 추출된 2D 타일맵 서브그룹에 포함된 지형지물의 평면 좌표 및 높이값을 이용하여 상기 이미지를 촬영한 카메라의 평면 좌표 및 높이값을 계산함으로써, 상기 드론의 위치를 계산하는 단계를 포함하고, 상기 2차원 타일맵을 서브그룹은 상기 영상 촬영 노선의 방향각 정보를 포함하는 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법을 제공한다.In order to achieve the first task, the present invention provides a method for determining the position of a drone using 3D feature location information, comprising: receiving a 2D tile map related to an image taking route to acquire the 3D feature information; Receiving images of the image capture route at regular intervals and calculating two-dimensional plane coordinates where the drone is located at the same time when the images are received, using a signal received from an external source; Classifying features of interest included in the received image and extracting sequence information of the features of interest using image coordinates between the classified features of interest; First extracting a subgroup of a two-dimensional tile map in which sequence information of a feature of interest extracted from the image matches sequence information of a feature included in a subgroup of the two-dimensional tile map to a certain level or more; The heading angle of the drone is calculated using the calculated two-dimensional plane coordinates of the drone at time t and the coordinate value of time t + 1, and the difference between the calculated heading angle and the heading angle of the subgroup of the two-dimensional tile map is Secondary extraction of 2D tile map subgroups that meet a certain level or less; And calculating the location of the drone by calculating the plane coordinates and height value of the camera that captured the image using the plane coordinates and height value of the feature included in the secondary extracted 2D tile map subgroup. And, the 2D tile map subgroup provides a method of determining the location of a drone using 3D feature location information including directional angle information of the image capture route.

본 발명의 일 실시 예에 의하면, 상기 지형지물의 높이값 변화폭을 기준으로 상기 2차원 타일맵을 서브그룹으로 분할하여 저장하고, 상기 서브그룹은 2차원 평면좌표상의 방향각 정보를 포함할 수 있다.According to an embodiment of the present invention, the two-dimensional tile map is divided into subgroups and stored based on the change range of the height value of the feature, and the subgroups may include orientation angle information on two-dimensional plane coordinates.

또한, 상기 카메라 평면 좌표 및 높이값을 계산할 때, 상기 2차 추출된 2차원 타일맵의 서브 그룹에 포함된 일정 수준 이상의 높이값을 갖는 상기 지형지물의 최상단의 평면 좌표 및 높이 정보를 이용하여 상기 수신된 이미지의 카메라 평면 좌표 및 높이값을 계산할 수 있다.In addition, when calculating the camera plane coordinates and height value, the plane coordinates and height information of the top of the feature having a height value above a certain level included in the subgroup of the secondary extracted two-dimensional tile map are used to receive the The camera plane coordinates and height values of the captured image can be calculated.

본 발명의 다른 실시 예에 의하면, 상기 이미지의 속성정보로 상기 이미지의 카메라 평면 좌표 및 높이값을 저장할 수 있다.According to another embodiment of the present invention, the camera plane coordinates and height value of the image can be stored as attribute information of the image.

본 발명은 상기 두 번째 과제를 달성하기 위하여, 상기 3차원 지형지물 정보를 취득할 이미지 촬영 노선과 관련된 2차원 타일맵을 수신하는 타일맵 수신부; 상기 이미지 촬영 노선의 이미지를 일정 주기로 수신하는 이미지 수신부; 상기 수신된 이미지에 포함된 관심 지형지물을 분류하고, 상기 분류된 관심 지형지물간의 이미지 좌표를 이용하여, 상기 관심 지형지물의 시퀀스 정보를 추출하는 시퀀스 추출부; 상기 이미지에서 추출된 관심 지형지물의 시퀀스 정보와 상기 2차원 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보가 일정수준 이상 일치하는 2차원 타일맵의 서브그룹을 1차 추출하는 서브그룹 1차 결정부; 외부에서 수신된 신호를 이용하여, 상기 이미지가 수신된 동일한 시간에 상기 드론가 위치한 2차원 평면좌표를 산출하고, 상기 산출된 드론의 2차원 평면좌표의 시간 t와 시간 t+1의 좌표값을 이용하여 상기 드론의 방향각을 계산하고, 상기 계산된 방향각과 상기 2차원 타일맵의 서브그룹의 방향각 차이가 일정 수준 이하를 만족하는 2D 타일맵 서브그룹을 2차 추출하는 서브그룹 2차 결정부; 및 상기 2차 추출된 2D 타일맵 서브그룹에 포함된 지형지물의 평면 좌표 및 높이값을 이용하여 상기 이미지를 촬영한 카메라의 평면 좌표 및 높이값을 계산함으로써, 상기 드론의 위치를 계산하는 위치 계산부를 포함하는 3차원 지형지물 위치 정보를 이용한 드론을 제공한다. In order to achieve the second task, the present invention includes a tile map receiver that receives a 2-dimensional tile map related to an image taking route to acquire the 3-dimensional feature information; an image receiving unit that receives images of the image taking route at regular intervals; a sequence extraction unit that classifies the feature of interest included in the received image and extracts sequence information of the feature of interest using image coordinates between the classified features of interest; A subgroup primary decision unit that first extracts a subgroup of the two-dimensional tile map where the sequence information of the feature of interest extracted from the image and the sequence information of the feature included in the subgroup of the two-dimensional tile map match a certain level or more. ; Using a signal received from outside, calculate the two-dimensional plane coordinates where the drone is located at the same time when the image was received, and use the coordinate values of time t and time t+1 of the calculated two-dimensional plane coordinates of the drone. A subgroup secondary decision unit that calculates the orientation angle of the drone and secondarily extracts a 2D tile map subgroup in which the difference between the calculated orientation angle and the orientation angle of the subgroup of the 2D tile map satisfies a certain level or less. ; and a position calculation unit that calculates the location of the drone by calculating the plane coordinates and height values of the camera that captured the image using the plane coordinates and height values of the features included in the secondary extracted 2D tile map subgroup. It provides a drone using 3D geographical feature location information.

본 발명의 일 실시 예에 의하면, 상기 지형지물의 높이값 변화폭을 기준으로 상기 2차원 타일맵을 서브그룹으로 분할하여 저장하고, 상기 서브그룹은 2차원 평면좌표상의 방향각 정보를 포함할 수 있다.According to an embodiment of the present invention, the two-dimensional tile map is divided into subgroups and stored based on the change range of the height value of the feature, and the subgroups may include orientation angle information on two-dimensional plane coordinates.

또한, 상기 카메라의 평면 좌표 및 높이값을 계산할 때, 상기 2차 추출된 2차원 타일맵의 서브 그룹에 포함된 일정 수준 이상의 높이값을 갖는 상기 지형지물의 최상단의 평면 좌표 및 높이 정보를 이용하여 상기 수신된 이미지의 카메라 평면 좌표 및 높이값을 계산할 수 있다.In addition, when calculating the plane coordinates and height value of the camera, the plane coordinates and height information of the top of the feature having a height value above a certain level included in the subgroup of the secondarily extracted two-dimensional tile map are used to calculate the plane coordinates and height value of the camera. The camera plane coordinates and height values of the received image can be calculated.

본 발명의 다른 실시 예에 의하면, 상기 이미지의 속성정보로 상기 이미지의 카메라 평면 좌표 및 높이값을 저장할 수 있다.According to another embodiment of the present invention, the camera plane coordinates and height value of the image can be stored as attribute information of the image.

상기 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기된 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다. In order to solve the above-described other technical problems, the present invention provides a computer-readable recording medium that records a program for executing on a computer the method of determining the position of a drone using the above-described 3D feature location information.

본 발명에 따르면, 2D 타일맵에 포함된 주요 지형지물의 2D 평면좌표 및 높이값을 활용하여, 드론의 정밀 위치 및 주변 지형지물의 3차원 위치정보를 실시간으로 추출할 수 있다. According to the present invention, the precise location of the drone and 3D location information of surrounding features can be extracted in real time by utilizing the 2D plane coordinates and height values of major features included in the 2D tile map.

또한, 본 발명에 따르면, 고가의 정밀 위치 결정 모듈이 없더라도, 기존에 실측된 지형지물 3D 위치정보 및 카메라 기반의 물체인식 기술, 관심 물체의 옵티컬 플로우 정보를 이용하여, 높은 정확도의 드론 위치 계산이 가능할 수 있다.In addition, according to the present invention, even without an expensive precise positioning module, high-accuracy drone positioning can be calculated using existing measured 3D location information of terrain features, camera-based object recognition technology, and optical flow information of the object of interest. It may be possible.

나아가, 본 발명에 따르면, 하천, 산림 및 도시의 주요 지형지물의 관리를 크라우드소싱 방법으로 업데이트하고, 카메라와 통신 기능을 가진 드론을 이용하여 효율적인 주요 지형지물의 정보 관리가 가능하다.Furthermore, according to the present invention, the management of major geographical features of rivers, forests, and cities can be updated using a crowdsourcing method, and information on major geographical features can be efficiently managed using drones with cameras and communication functions.

도 1은 본 발명의 일 실시예에 따른 2D 타일맵을 도시한 것이다.
도 2는 2D 타일맵에 포함된 지형지물의 시퀀스 정보를 설명하기 위한 도면이다.
도 3은 2D 타일맵의 서브그룹에 포함된 방향각 정보의 개념을 나타내기 위한 도면이다.
도 4는 본 발명의 바람직한 일 실시 예에 따른 3차원 지형지물 위치 정보를 이용하여 위치를 결정하는 드론과 타일맵 서버를 나타내는 구성도이다.
도 5는 카메라 좌표와 실공간 3차원 좌표의 관계를 나타낸 도면이다.
도 6은 2D 타일맵의 지형지물 위치정보를 이용하여 카메라 중심좌표를 결정하는 방법을 설명하기 위한 도면이다.
도 7은 카메라 프레임과 이미지 프레임의 관계를 나타내기 위한 도면이다.
도 8은 신규 지형지물 위치 계산을 위한 이미지 프레임과 실공간 프레임의 관계를 나타낸 도면이다.
도 9는 드론의 진행방향에 대해, 매우 짧은 두장의 영상을 도시한 것이다.
도 10은 본 발명의 바람직한 일 실시 예에 따른 드론 위치 결정방법의 흐름도이다.
도 11은 본 발명의 바람직한 일 실시 예에 따른 지형지물 위치정보 갱신방법의 흐름도이다.
도 12는 지형지물의 등고선을 반영하여 급격한 드론의 높이값의 변화가 없도록 촬영노선을 설계한 예시이다.
Figure 1 shows a 2D tile map according to an embodiment of the present invention.
Figure 2 is a diagram for explaining sequence information of features included in a 2D tile map.
Figure 3 is a diagram illustrating the concept of direction angle information included in a subgroup of a 2D tile map.
Figure 4 is a configuration diagram showing a drone and a tile map server that determines a location using 3D feature location information according to a preferred embodiment of the present invention.
Figure 5 is a diagram showing the relationship between camera coordinates and real-space 3D coordinates.
Figure 6 is a diagram for explaining a method of determining camera center coordinates using feature location information of a 2D tile map.
Figure 7 is a diagram showing the relationship between camera frames and image frames.
Figure 8 is a diagram showing the relationship between an image frame and a real-space frame for calculating the location of a new feature.
Figure 9 shows two very short images of the drone's direction of travel.
Figure 10 is a flowchart of a method for determining a drone location according to a preferred embodiment of the present invention.
Figure 11 is a flowchart of a method for updating geographical feature location information according to a preferred embodiment of the present invention.
Figure 12 is an example of designing a shooting route to reflect the contours of geographical features and prevent sudden changes in the height value of the drone.

본 발명에 관한 구체적인 내용의 설명에 앞서 이해의 편의를 위해 본 발명이 해결하고자 하는 과제의 해결 방안의 개요 혹은 기술적 사상의 핵심을 우선 제시한다.Before explaining the specific contents of the present invention, for convenience of understanding, an outline of a solution to the problem that the present invention seeks to solve or the core of the technical idea is first presented.

본 발명의 일 실시예에 따르면, 타일맵 서버는 드론으로부터 출발지 및 목적지 정보를 전송받아 드론이 촬영할 이미지 촬영 경로를 고려하여, 지형지물의 정보를 2D 타일맵 형태로 변환하여 드론에 제공한다.According to an embodiment of the present invention, the tile map server receives the starting point and destination information from the drone, considers the image capturing path to be captured by the drone, converts the information on the terrain into a 2D tile map, and provides it to the drone.

드론은 2D 타일맵에 포함된 주요 지형지물의 2D 평면좌표 및 높이값을 활용하여, 드론의 정밀 위치 및 주변 지형지물의 3차원 위치정보를 실시간으로 추출할 수 있다. 이 때 촬영한 이미지에서 추출한 지형지물간의 시퀀스 정보와 2D 타일맵에 포함된 지형지물의 시퀀스 정보를 이용하여 원하는 지형지물 정보를 효과적으로 추출할 수 있다. The drone can extract the precise location of the drone and the 3D location information of surrounding features in real time by utilizing the 2D plane coordinates and height values of major features included in the 2D tile map. At this time, the desired feature information can be effectively extracted using the sequence information between features extracted from the captured image and the sequence information of features included in the 2D tile map.

이하, 바람직한 실시 예를 들어 본 발명을 더욱 상세하게 설명한다. 그러나 이들 실시 예는 본 발명을 보다 구체적으로 설명하기 위한 것으로, 본 발명의 범위가 이에 의하여 제한되지 않는다는 것은 당업계의 통상의 지식을 가진 자에게 자명할 것이다. Hereinafter, the present invention will be described in more detail with reference to preferred embodiments. However, these examples are for illustrating the present invention in more detail, and it will be apparent to those skilled in the art that the scope of the present invention is not limited thereto.

도 1은 본 발명의 일 실시예에 따른 2D 타일맵을 도시한 것이다.Figure 1 shows a 2D tile map according to an embodiment of the present invention.

도 1의 2D 타일맵은 지구의 면적을 타일 형태로 나타낸 것이다. 레벨1 은 6144 km * 6144 km 의 면적을 갖도록 선정할 수 있다. 이러한 경우, 레벨 3는 1/4에 해당되는 1536 km * 1536 km 크기를 갖는다. The 2D tile map in Figure 1 shows the area of the Earth in the form of tiles. Level 1 can be selected to have an area of 6144 km * 6144 km. In this case, level 3 has a size of 1536 km * 1536 km, which is 1/4.

도심지와 같이 지형지물이 밀집한 지역에서는 레벨 13에 해당되는 1.5 km * 1.5 km 나 레벨 14에 해당되는 725 m Ⅹ 725 m 크기를 기본 2D 타일맵 정보로 선정하는 것이 바람직하다.In areas with dense terrain, such as urban areas, it is desirable to select the size of 1.5 km * 1.5 km corresponding to level 13 or 725 m Ⅹ 725 m corresponding to level 14 as the basic 2D tile map information.

2D 타일맵 정보에 관심물체 정보로 분류되는 지형지물(하천, 건물, 철탑 등)의 평면 좌표값을 기준으로 높이값, 색깔, 분류 정보 등을 별도의 속성정보로 저장할 수 있다.Height value, color, classification information, etc. can be stored as separate attribute information based on the plane coordinate value of the geographical feature (river, building, iron tower, etc.) classified as object of interest information in the 2D tile map information.

본 발명의 일 실시예에 따르면, 상기 2D 타일맵은 지형지물 위치정보와 속성정보를 포함하여 드론의 실시간 정밀 위치 결정에 활용할 수 있다.According to an embodiment of the present invention, the 2D tile map includes feature location information and attribute information and can be used to determine the real-time precise location of the drone.

2D 타일맵은 지형지물의 위치정보(평면 좌표 및 높이값)을 기반으로 지형지물의 속성정보(지형지물 분류정보, 색깔, 모양, 텍스트 정보 등)이 포함될 수 있다. 또한, 일정 면적을 기준으로 레벨 정보를 가지며, 상기 지형지물의 높이값 변화폭을 기준으로 2D 타일맵을 서브그룹으로 분류하여 제공하는 것이 바람직하다.The 2D tile map may include attribute information (feature classification information, color, shape, text information, etc.) of the feature based on the location information (plane coordinates and height value) of the feature. In addition, it is desirable to provide level information based on a certain area and classify the 2D tile map into subgroups based on the change range of the height value of the feature.

다른 실시예로서, 상기 지형지물의 높이값 변화폭과 드론 촬영 노선의 방향각 정보를 고려하여 2D 타일맵을 서브그룹으로 분류할 수 있다. 상기 지형지물의 위치정보를 이용하면, 연속적인 지형지물의 배치정보가 포함된 지형지물의 시퀀스 정보를 알 수 있게 된다.As another embodiment, the 2D tile map may be classified into subgroups by considering the change in height value of the feature and the direction angle information of the drone shooting route. By using the location information of the feature, it is possible to know the sequence information of the feature including the arrangement information of continuous features.

도 2는 2D 타일맵에 포함된 지형지물의 시퀀스 정보를 설명하기 위한 도면이다.Figure 2 is a diagram for explaining sequence information of features included in a 2D tile map.

도 2를 참조하면, 2D 타일맵의 레벨 13에서 주요 지형지물의 정보를 나타내고 있다. 각 지형지물은 하천을 중심으로 반시계 순서로 원형 건물, 사각 건물1, 사각 건물 2, 철탑의 정보로 구성되어 있다. 각 지형지물을 그룹핑하여 하나의 서브그룹 공간정보로 구분하고, 해당 서브그룹 공간정보에 각 지형지물의 높이정보를 포함할 수 있다. 2D 타일맵에 포함되는 정보는 2D 타일맵의 레벨정보와 하천 또는 도로를 따라 형성된 서브그룹 공간정보로 구분하여, 서브그룹 공간정보별로 각 지형지물의 2차원 평면좌표와 이에 매칭되는 높이, 색깔, 분류코드, 텍스트 등의 속성정보를 저장할 수 있다. 따라서 드론의 위치정보, 지형지물의 높이정보, 또는 드론 촬영 노선의 방향각 정보 중 적어도 하나 이상을 알게 되면 2D 타일맵의 서브그룹에서 가장 가깝게 위치하거나 근접한 서브그룹을 추출하고, 서브그룹에 포함된 지형지물의 위치정보를 추출할 수 있다. 한편, 상기 서브그룹에는 지형지물의 높이정보 또는 드론 촬영 노선의 방향각 정보가 포함되는 것이 바람직하다.Referring to Figure 2, information on major geographical features is shown at level 13 of the 2D tile map. Each geographical feature consists of information about a circular building, a square building 1, a square building 2, and a steel tower in counterclockwise order centered on the river. Each geographical feature can be grouped and divided into one subgroup spatial information, and the height information of each geographical feature can be included in the subgroup spatial information. The information included in the 2D tile map is divided into the level information of the 2D tile map and subgroup spatial information formed along rivers or roads, and the 2D plane coordinates of each feature and the matching height, color, and classification for each subgroup spatial information. You can store attribute information such as code and text. Therefore, if at least one of the drone's location information, the height information of the feature, or the direction angle information of the drone's shooting route is known, the closest or closest subgroup is extracted from the subgroup of the 2D tile map, and the feature included in the subgroup is extracted. Location information of water can be extracted. Meanwhile, it is preferable that the subgroup includes height information of geographical features or direction angle information of the drone shooting route.

드론의 GPS 위치 및 WiFi 위치와 50m 이내에 존재하는 일정 거리에 내에 존재하는 서브그룹을 우선 추출하고, 각각의 서브그룹 공간정보와 일련의 지형지물 위치 정보를 시퀀스 정보로 추출하여 현재의 이미지 정보에서 추출한 일련의 지형지물의 시퀀스 정보와 일치하는 서브그룹 정보를 1차 추출할 수 있다. First, subgroups that exist within a certain distance within 50m of the drone's GPS location and WiFi location are extracted, and each subgroup's spatial information and a series of feature location information are extracted as sequence information and extracted from the current image information. Subgroup information matching the sequence information of a series of geographical features can be initially extracted.

예를 들어, 도 2에서는 원형 건물이 하천 아래에 배치되어 있고, 사각 건물 1과 사각 건물 2가 하천의 위쪽에 배치되어 있다. 이러한 각 지형지물의 위치에 따른 일련의 시퀀스 정보를 이용하여, 현재 드론의 위치정보를 빠르게 계산할 수 있다. For example, in Figure 2, a circular building is placed below the stream, and square building 1 and square building 2 are placed above the stream. Using a series of sequence information according to the location of each feature, the current location information of the drone can be quickly calculated.

위치 계산에 사용되는 2D 타일맵 정보는 별도의 레이어(layer)로 구성하여 보다 빠르게 추출이 가능하게 관리할 수 있다. 또한 이미지에서 나타나는 지형지물을 빠르게 추출하기 위해, 드론에 위치계산에 사용되는 지형지물은 일정 높이값을 갖는 지형지물을 포함하여 구성할 수 있다. 가령 10m 이상의 지형지물로만 지형지물 정보를 구성한 경우, 드론에 이동에 따라 산림 등에 의해 가려지는 화면 가림을 최소화할 수 있다. The 2D tile map information used for position calculation can be managed by organizing it into a separate layer so that it can be extracted more quickly. Additionally, in order to quickly extract the features that appear in the image, the features used to calculate the location of the drone can be configured to include features with a certain height value. For example, if the terrain information is composed only of features over 10m, screen blocking by forests, etc. can be minimized as the drone moves.

한편, 영상의 원하는 지형지물을 분류하고 추출하기 위해, 머신러닝 방법을 이용한 지도학습/비지도학습을 통해 지형지물을 추출하여 지형지물의 이미지 좌표를 자동 취득할 수 있는 물체 인식 모듈을 사용할 수 있다. 취득한 지형지물의 이미지 좌표에 매칭되는 3차원 위치정보가 2D 타일맵에 포함된 경우, 해당 지형지물의 위치정보를 이용하여, 현재 드론의 카메라의 위치정보, 즉 카메라의 중심좌표 계산이 가능하다. 이때 드론의 위치계산에 사용되는 지형지물의 평면위치와 높이값과 카메라의 핀홀모델을 이용하여, 현재 이미지의 카메라 평면위치 및 높이값 계산이 가능하게 된다.Meanwhile, in order to classify and extract desired features in the image, an object recognition module can be used that can automatically acquire the image coordinates of the features by extracting the features through supervised/unsupervised learning using machine learning methods. If 3D location information matching the image coordinates of the acquired feature is included in the 2D tile map, it is possible to calculate the current location information of the drone's camera, that is, the center coordinates of the camera, using the location information of the feature. At this time, it is possible to calculate the camera plane position and height value of the current image by using the plane position and height value of the feature used in calculating the drone's position and the pinhole model of the camera.

도 3은 2D 타일맵의 서브그룹에 포함된 방향각 정보의 개념을 나타내기 위한 도면이다.Figure 3 is a diagram illustrating the concept of direction angle information included in a subgroup of a 2D tile map.

도 3을 참조하면, 드론 촬영 노선의 방향각 정보 또는 드론의 이동방향이 도시되어 있다. 드론 촬영 노선의 방향각 정보로부터 드론 이동방향을 산출할 수 있고, 그 역도 가능하다. 정해진 기준방향을 기준으로 이동방향과 이루는 각이 방향각이 될 수 있다.Referring to FIG. 3, directional angle information of the drone photography route or the direction of movement of the drone is shown. The direction of drone movement can be calculated from the directional angle information of the drone shooting route, and vice versa. The angle formed with the direction of movement based on a determined reference direction may be the direction angle.

또한, 촬영된 이미지에서 검증 지형지물의 옵티컬 플로우(optical flow) 정보 즉, 동일한 물체에 대해 인접한 이미지에서 상대적으로 움직인 거리와 방향에 대한 정보를 이용하여 연속적으로 촬영된 이미지간의 회전각 변화량을 계산하여, 검증 지형지물의 3차원 위치 좌표를 계산할 수 있다.In addition, the amount of rotation angle change between continuously captured images is calculated using the optical flow information of the verification feature in the captured image, that is, information about the distance and direction of relative movement in adjacent images for the same object. , the 3D location coordinates of the verification feature can be calculated.

상기 계산된 검증 지형지물의 3차원 위치정보가 일정 수준의 위치정확도를 만족하는 경우, 변경된 지형지물 또는 신규 지형지물이 추가된 2D 타일맵으로 기존 2D 타일맵을 갱신하여 저장한 다음, 타일맵 서버로 전송하고, 타일맵 서버는 다수의 드론에서 크라우드소싱 방법으로 전송받은 카메라의 중심좌표(X, Y, 높이값), 2D 타일맵 갱신정보를 활용하여, 데이터 후처리를 통해 지형지물의 3차원 위치정보를 취득하여 3D 맵 업데이트가 가능하다.If the calculated 3D location information of the verification feature satisfies a certain level of location accuracy, the existing 2D tile map is updated and stored as a 2D tile map with changed or new features added, and then sent to the tile map server. The tile map server uses the camera's center coordinates (X, Y, height value) and 2D tile map update information received through crowdsourcing from multiple drones to post-process the data to provide 3D location information of the feature. It is possible to update the 3D map by acquiring .

도 4는 본 발명의 바람직한 일 실시 예에 따른 3차원 지형지물 위치 정보를 이용하여 위치를 결정하는 드론과 타일맵 서버를 나타내는 구성도이다.Figure 4 is a configuration diagram showing a drone and a tile map server that determines a location using 3D feature location information according to a preferred embodiment of the present invention.

도 4를 참조하면, 본 실시 예에 따른 3차원 지형지물 위치 정보를 이용하여 위치를 결정하는 드론과 타일맵 서버는 드론(10)과 타일맵 서버(20)로 구성된다.Referring to FIG. 4, the drone and tile map server that determines the location using 3D feature location information according to this embodiment consists of a drone 10 and a tile map server 20.

드론(10)은 타일맵 수신부(100), 초기 위치정보 생성부(105), 서브그룹 필터링부(110), 서브그룹 1차 결정부(115), 서브그룹 2차 결정부(120), 위치 계산부(125), 위치 갱신부(130), 이미지 수신부(135), 시퀀스 추출부(140), 서브그룹 추출부(145), 위치 산출부(150), 회전각 계산부(155), 지형지물 위치 계산부(160), 타일맵 정보 업데이트부(165), 및 송신부(170)로 구성된다.The drone 10 includes a tile map receiver 100, an initial location information generator 105, a subgroup filtering unit 110, a subgroup primary decision unit 115, a subgroup secondary decision unit 120, and a location Calculator 125, position update unit 130, image receiver 135, sequence extractor 140, subgroup extractor 145, position calculator 150, rotation angle calculator 155, topography It consists of a water location calculation unit 160, a tile map information update unit 165, and a transmission unit 170.

타일맵 서버(20)는 촬영노선 결정부(200), 타일맵 송신부(210), 3D 데이터 후처리부(220), 타일맵 정보 수신부(230), 및 타일맵 갱신부(240)로 구성된다.The tile map server 20 consists of a shooting route determination unit 200, a tile map transmission unit 210, a 3D data post-processing unit 220, a tile map information reception unit 230, and a tile map update unit 240.

본 실시 예에 따른 타일맵 서버(20)는 드론(10)으로부터 출발지 및 목적지 정보를 전송받으면, 예상 촬영 노선에 대응하는 2D 타일맵을 드론(10)으로 제공하고, 드론(10)로부터 수신한 이미지 정보 및 업데이트된 2D 타일맵 정보를 이용하여 데이터 후처리를 진행하는 타일맵 서버(20)와 타일맵 서버(20)에서 수신한 2D 타일맵을 이용하여 실시간으로 드론(10)의 정밀 위치를 계산하고, 기존 지형지물의 위치정보 변화 및 신규 지형지물의 위치정보를 추출하는 드론으로 구성된다.When the tile map server 20 according to this embodiment receives the origin and destination information from the drone 10, it provides a 2D tile map corresponding to the expected shooting route to the drone 10, and provides the 2D tile map corresponding to the expected shooting route to the drone 10. The precise location of the drone 10 is determined in real time using the tile map server 20, which performs data post-processing using image information and updated 2D tile map information, and the 2D tile map received from the tile map server 20. It consists of a drone that calculates changes in location information of existing features and extracts location information of new features.

타일맵 수신부(100)는 타일맵 서버(20)로부터 지형지물 정보 취득을 위한 촬영 노선 정보를 반영한 2D 타일맵을 수신하고, 수신한 2D 타일맵을 서브그룹 필터링부(110)로 전송한다.The tile map receiver 100 receives a 2D tile map reflecting the shooting route information for acquiring geographical feature information from the tile map server 20, and transmits the received 2D tile map to the subgroup filtering unit 110.

초기 위치정보 생성부(105)는 드론(10)에 포함된 GPS 모듈이나 수신된 WiFi 신호를 이용하거나, 외부에서 계산된 현재 드론의 위치정보를 이용하여 드론(10)의 초기 위치정보를 생성할 수 있다. 초기 위치정보 생성부(105)는 드론(10)의 현재 위치에 상응하는 2D 타일맵의 서브그룹을 추출하는데 기초가 되는 드론(10)의 현재 위치정보를 생성한다.The initial location information generator 105 generates the initial location information of the drone 10 using the GPS module included in the drone 10 or a received WiFi signal, or using the current location information of the drone calculated externally. You can. The initial location information generator 105 generates the current location information of the drone 10, which is the basis for extracting a subgroup of the 2D tile map corresponding to the current location of the drone 10.

서브그룹 필터링부(110)는 드론(10)의 초기 위치정보 생성부(105)로부터 수신한 초기 위치정보를 반영하여, 촬영 노선 상의 일정 거리내에서 존재하는 2D 타일맵의 서브그룹을 추출할 수 있다. The subgroup filtering unit 110 can extract a subgroup of the 2D tile map that exists within a certain distance on the shooting route by reflecting the initial location information received from the initial location information generation unit 105 of the drone 10. there is.

서브그룹 필터링부(110)는 촬영 노선에 존재하는 하천 또는 도로의 길이를 반영하여 2D 타일맵 정보를 다시 서브그룹으로 분리하여 저장할 수 있다. 해당 서브그룹은 주요 지형지물에 대해 특정 맵좌표계를 반영한 2차원 평면좌표를 기준으로 지형지물의 속성정보를 포함한다. 상기 속성정보에는 지형지물의 종류, 높이값, 색깔, 텍스트 등의 정보가 포함될 수 있다. 또한 서브그룹마다 하천 또는 도로의 방향 또는 이동 가능 경로의 방향각 정보를 포함할 수 있다. 주요 지형지물은 주로 특정 경로를 기준으로 배치되어 있다고 가정할 수 있기 때문에 하천, 도로 및 이동 가능한 경로의 방향각 정보를 서브그룹의 정보로 저장 가능하다. 또한 서브그룹을 구성하는 지형지물간의 위치정보를 반영하여, 지형지물간의 시컨스 정보가 저장될 수 있다.The subgroup filtering unit 110 may separate the 2D tile map information into subgroups and store them, reflecting the length of the river or road that exists in the shooting route. The subgroup contains attribute information of major features based on two-dimensional plane coordinates that reflect a specific map coordinate system. The attribute information may include information such as the type of feature, height value, color, and text. Additionally, each subgroup may include information on the direction of a river or road or the directional angle of a possible path. Since it can be assumed that major geographical features are mainly arranged based on a specific route, the directional angle information of rivers, roads, and possible routes can be stored as subgroup information. Additionally, sequence information between features may be stored by reflecting the location information between features constituting the subgroup.

초기 위치정보 생성부(105)가 생성한 드론(10)의 초기 위치정보는 수 미터의 낮은 위치정확도를 갖으므로, 서브그룹 1차 결정부(115)는 지형지물간의 시퀀스 정보를 이용하여 현재 드론(10)의 위치 계산에 사용될 2D 타일맵의 서브그룹 후보를 추출할 수 있다. Since the initial location information of the drone 10 generated by the initial location information generation unit 105 has a low location accuracy of several meters, the subgroup primary decision unit 115 uses sequence information between geographical features to determine the current drone location information. Subgroup candidates of the 2D tile map to be used for position calculation in (10) can be extracted.

시퀀스 추출부(140)가 자동 분류한 관심 지형지물의 상대적인 위치정보의 연속적인 시퀀스 정보를 이용하여, 서브그룹 1차 결정부(115)에서 2D 타일맵의 서브그룹 후보를 결정할 수 있다. 이 때, 현재 이미지에서 분류된 지형지물 시퀀스 정보와 수신된 2D 타일맵에 저장된 지형지물의 시퀀스 정보가 상이할 수 있으므로, 두 지형지물의 시퀀스 정보 비교시, 일정 비율로 시퀀스 정보가 일치하는 경우, 해당 2D 타일맵을 서브그룹 후보로 선정할 수 있다.Using the continuous sequence information of the relative location information of the feature of interest automatically classified by the sequence extraction unit 140, the subgroup primary decision unit 115 can determine a subgroup candidate for the 2D tile map. At this time, the sequence information of the feature classified in the current image and the sequence information of the feature stored in the received 2D tile map may be different, so when comparing the sequence information of the two features, if the sequence information matches at a certain rate, the corresponding 2D tile map A tile map can be selected as a subgroup candidate.

시퀀스 추출부(140)는 이미지상에서 관심 지형지물을 자동 분류할 수 있도록 지도 학습 또는 비지도 학습을 이용한 이미지 물체인식 모듈을 적용하여 이미지 수신부(135)에서 촬영된 관심 지형지물을 자동 분류하여, 상기 관심 지형지물의 2차원 좌표를 취득할 수 있다.The sequence extraction unit 140 automatically classifies the feature of interest photographed by the image receiver 135 by applying an image object recognition module using supervised learning or unsupervised learning to automatically classify the feature of interest in the image. The two-dimensional coordinates of the feature of interest can be acquired.

서브그룹 2차 결정부(120)는 드론(10)의 위치정보의 방향각 정보와 서브그룹 1차 결정부(115)에서 수신된 2D 타일맵의 서브그룹 후보의 방향각 정보를 비교하여, 일정 수준을 만족하는 서브그룹을 2차 추출할 수 있다. The subgroup secondary decision unit 120 compares the orientation angle information of the location information of the drone 10 with the orientation angle information of the subgroup candidate in the 2D tile map received from the subgroup primary decision unit 115, and determines a certain Subgroups that satisfy the level can be extracted secondarily.

드론의 초기 위치정보의 위치정확도는 매우 낮은 경우에도, 일정 시간마다 추출된 2D 평면좌표의 변화량이 일정한 경우에 계산된 방향각은 고정밀도를 갖는 위치정보의 방향각과 유사하다고 볼 수 있다.Even when the location accuracy of the drone's initial location information is very low, when the amount of change in 2D plane coordinates extracted at certain times is constant, the calculated direction angle can be considered similar to the direction angle of location information with high precision.

위치 계산부(125)는 방향각 정보를 반영하여 2차 추출된 2D 타일맵 서브그룹의 지형지물 3차원 위치정보를 이용하여, 카메라의 초점 위치, 즉 카메라의 중심좌표의 평면좌표와 높이값(X, Y, 높이값)을 계산할 수 있다. 카메라의 평면좌표와 높이값은 드론의 평면좌표와 높이값에 대응한다.The position calculation unit 125 uses the 3D position information of the feature of the 2D tile map subgroup, which is secondarily extracted by reflecting the orientation angle information, to calculate the focus position of the camera, that is, the plane coordinate of the center coordinate of the camera and the height value ( X, Y, height values) can be calculated. The plane coordinates and height value of the camera correspond to the plane coordinates and height value of the drone.

이 때 필요한 카메라 켈리브레이션 정보는 카메라 내부 정보에 해당되는 카메라 이미지의 픽셀 크기 및 촛점거리, 스큐(skew) 변수값의 정보가 필요하다.The camera calibration information needed at this time requires information on the pixel size, focal length, and skew variable value of the camera image corresponding to the camera's internal information.

카메라의 내부 켈리브레이션 정보가 존재하는 경우, 촬영 노선을 촬영한 이미지에서 물체 인식 모듈을 이용하여 관심 지형지물을 자동 분류하고, 해당 지형지물의 이미지 좌표를 취득하고, 해당 이미지 좌표에 매칭되는 실제 3차원 위치정보를 2D 타일맵의 서브그룹 정보에서 추출하여, 이미지 프레임과 실공간 프레임의 관계를 카메라 핀홀 모델을 이용하여 카메라의 중심좌표(X, Y, 높이값)를 최소제곱법을 이용하여 계산할 수 있다. 카메라 핀홀 모델은 하나의 바늘구멍(pinhole)을 통해 외부의 상이 이미지로 투영된다는 모델이다. 이 때, 이 바늘구멍(pinhole)이 렌즈 중심에 해당되며 이곳에서 뒷면의 상이 맺히는 곳까지의 거리가 카메라 초점거리이다.If the camera's internal calibration information exists, automatically classify the feature of interest using an object recognition module in the image taken along the shooting route, obtain the image coordinates of the feature, and determine the actual 3D position matching the image coordinates. Information can be extracted from the subgroup information of the 2D tile map, the relationship between the image frame and the real space frame can be calculated using the camera pinhole model, and the camera's center coordinates (X, Y, height value) can be calculated using the least squares method. . The camera pinhole model is a model in which an external image is projected as an image through a single pinhole. At this time, this pinhole corresponds to the center of the lens, and the distance from this point to where the image on the back is formed is the camera focal length.

이 때, 관심지형지물의 이미지 좌표가 필요하므로, 관심 지형지물의 최하단 이미지 좌표보다는 최상단 이미지 좌표의 취득이 더욱 용이하다. 따라서 2D 타일맵의 서브그룹에서 제공하는 높이값은 최상단의 높이값이다. 또한 일정 높이 이상의 높이값을 갖는 지형지물은 이미지 좌표 추출이 보다 용이하므로, 드론 정밀 위치 결정을 위해서 이용되는 지형지물의 좌표 및 속성 정보를 별도의 2D 타일맵 레이어로 분류하여, 실시간 모바일 응용프로그램의 계산속도를 향상시킬 수 있다.At this time, since the image coordinates of the feature of interest are needed, it is easier to obtain the top image coordinates than the bottom image coordinates of the feature of interest. Therefore, the height value provided by the subgroup of the 2D tile map is the height value of the top. In addition, it is easier to extract image coordinates for features with a height value above a certain height, so the coordinates and attribute information of features used for precise drone positioning are classified into a separate 2D tile map layer for calculation of real-time mobile applications. Speed can be improved.

위치 갱신부(130)는 위치 계산부(125)와 위치 산출부(150)에서 수신된 드론의 위치 정보를 이용하여 드론의 위치 정보를 갱신한다.The location update unit 130 updates the location information of the drone using the location information of the drone received from the location calculation unit 125 and the location calculation unit 150.

위치 갱신부(130)는 위치 계산부(125)와 위치 산출부(150)에서 수신된 드론의 위치 정보에 대하여 다른 가중치를 부여하여 드론의 위치 정보를 재계산할 수 있다.The location update unit 130 may recalculate the location information of the drone by assigning different weights to the location information of the drone received from the location calculation unit 125 and the location calculation unit 150.

송신부(170)는 위치 갱신부(130)에서 갱신된 드론의 위치 정보를 타일맵 서버(20)의 3D 데이터 후처리부(220)로 송신한다.The transmitter 170 transmits the drone's location information updated by the location update unit 130 to the 3D data post-processing unit 220 of the tile map server 20.

도 5는 이미지 좌표와 실공간 3차원 좌표의 관계를 나타낸 도면이다.Figure 5 is a diagram showing the relationship between image coordinates and real space 3D coordinates.

도 5는 카메라 핀홀 모델에서 관심 물체의 평면위치 및 높이값 계산 방법이다. 카메라의 위치정보 계산 수식은 아래와 같다.Figure 5 shows a method for calculating the plane position and height value of an object of interest in a camera pinhole model. The formula for calculating the camera’s location information is as follows.

D1''은 관심물체의 최하단까지의 실제 거리이고, D1은 최상단까지의 실제 거리이다. f는 카메라의 초점거리이고, Hc는 카메라의 높이값이다. D1'은 카메라 이동방향에 수직한 선이 관심물체에서 상기 카메라 이동방향에 수직으로 내렸을 때 만나는 점과 카메라 간의 거리이다.D1'' is the actual distance to the bottom of the object of interest, and D1 is the actual distance to the top. f is the focal length of the camera, and Hc is the height value of the camera. D1' is the distance between the camera and the point where a line perpendicular to the camera movement direction meets when it is drawn from the object of interest perpendicular to the camera movement direction.

카메라 프레임 기준으로 관심 대상물에 대해 Ψ는 X축의 회전각이고, θ 은 Y축의 회전각이다. 따라서, 도 5를 참조하면, 다음의 수학식이 도출된다.With respect to the object of interest based on the camera frame, Ψ is the rotation angle of the X-axis, and θ is the rotation angle of the Y-axis. Therefore, referring to FIG. 5, the following equation is derived.

x, y는 관심 물체의 이미지 상의 x, y좌표이다. 따라서 이미지 좌표 y는 H-Hc와 비례관계를 갖는다. x, y are the x, y coordinates on the image of the object of interest. Therefore, the image coordinate y has a proportional relationship with H-Hc.

도 6은 2D 타일맵의 지형지물 위치정보를 이용하여 카메라 중심좌표를 결정하는 방법을 설명하기 위한 도면이다.Figure 6 is a diagram for explaining a method of determining camera center coordinates using feature location information of a 2D tile map.

도 6을 참조하여 이미지에서 취득한 지형지물의 거리정보를 이용하여, 드론의 위치를 결정하는 방법은 다음과 같다.Referring to FIG. 6, the method of determining the location of the drone using the distance information of the feature acquired from the image is as follows.

지형지물의 3차원 위치정보는 수신된 2D 타일맵에서 추출한 정보인 것이 바람직하다.It is desirable that the 3D location information of the feature is information extracted from the received 2D tile map.

관심 지형지물 OBJ1, OBJ2의 이미지 좌표가 (P1xt, P1yt), (P2xt, P2yt)이고, 실공간에서 평면좌표 및 높이값은 OBJ1(X1, Y1, H1), OBJ2(X2, Y2, H2)이고, 카메라의 높이값은 Hc이다. The image coordinates of the features of interest OBJ1 and OBJ2 are (P1x t , P1y t ) and (P2x t , P2y t ), and the plane coordinates and height values in real space are OBJ1(X1, Y1, H1) and OBJ2(X2, Y2). , H2), and the height value of the camera is Hc.

아래 수학식 2와 수학식 3을 이용하여 카메라의 3차원 위치정보 좌표 (X, Y, Hc)를 계산할 수 있다. You can calculate the camera's 3D location information coordinates (X, Y, Hc) using Equation 2 and Equation 3 below.

α, β 는 카메라에서 관심 지형지물 OBJ1과 OBJ2의 상단까지의 Y축으로의 고도각에 해당되는 것으로, 수학식 1의 θ를 구하는 방법과 같은 방법으로 계산될 수 있다. α, β correspond to the elevation angle on the Y axis from the camera to the top of the features of interest OBJ1 and OBJ2, and can be calculated in the same way as calculating θ in Equation 1.

D1, D2는 관심 지형지물의 최상단까지의 실거리이며, D1", D2" 는 관심지형지물의 최하단까지의 실거리이다.D1, D2 are the actual distances to the top of the feature of interest, and D1", D2" are the actual distance to the bottom of the feature of interest.

수학식 2는 OBJ2 와 카메라의 위치 관계식을 나타낸 것이다Equation 2 shows the positional relationship between OBJ2 and the camera.

수학식 3은 카메라와 OBJ1과의 관계식을 나타낸 것이다.Equation 3 shows the relationship between the camera and OBJ1.

수학식 2와 수학식 3은 아래와 같이 행렬식 B = Ax 로 변경하고, 카메라의 초점위치, 즉 카메라의 중심좌표의 실시간 정밀 위치 (Xt, Yt, Hc)를 수학식 4로부터 구할 수 있다.Equation 2 and Equation 3 can be changed to the determinant B = Ax as shown below, and the real-time precise position (Xt, Yt, Hc) of the camera's focal position, that is, the center coordinate of the camera, can be obtained from Equation 4.

이 때 적어도 4 점 이상의 지형지물 위치정보를 이용하여, 최소제곱법으로 카메라의 정밀 위치/카메라의 중심좌표를 계산하는 것이 바람직하다.At this time, it is desirable to calculate the precise position of the camera/center coordinates of the camera using the least squares method using the location information of at least 4 features.

여기서, 는 행렬 B이고, 는 행렬 A이며, 는 행렬 x이다. here, is matrix B, is matrix A, is the matrix x.

수학식 4를 행렬식으로 변환하여 Error를 아래와 같이 정의할 수 있다.By converting Equation 4 to a determinant, Error can be defined as follows.

위의 Error를 최소화하기 위해 최소제곱법으로 일정 기준보다 같거나 작은 에러값이 구해질 때까지 반복 계산한 경우, 카메라 중심좌표행렬 x 를 추출할 수 있다. In order to minimize the above error, if repeated calculations are made using the least squares method until an error value equal to or smaller than a certain standard is obtained, the camera center coordinate matrix x can be extracted.

한편, 이미지 수신부(135)는 이미지 촬영 노선의 이미지를 일정 주기로 수신한다. Meanwhile, the image receiver 135 receives images of the image capture route at regular intervals.

시퀀스 추출부(140)는 이미지 수신부(135)에서 수신된 이미지에 포함된 관심 지형지물을 분류하고, 상기 분류된 관심 지형지물간의 이미지 좌표를 이용하여, 상기 관심 지형지물의 시퀀스 정보를 추출한다. 또한, 일 실시 예로서, 시퀀스 추출부(140)는 드론(10)의 정밀 위치 또는 카메라의 중심좌표(X, Y, 높이값)가 계산된 이후에 서브그룹 추출부(145)를 호출할 수 있다. 이 경우 보다 정확한 드론(10)의 위치를 기초로 서브그룹을 추출할 수 있게 된다.The sequence extractor 140 classifies the feature of interest included in the image received from the image receiver 135 and extracts sequence information of the feature of interest using image coordinates between the classified features of interest. Additionally, as an example, the sequence extractor 140 may call the subgroup extractor 145 after the precise position of the drone 10 or the center coordinates (X, Y, height value) of the camera are calculated. there is. In this case, it is possible to extract subgroups based on the more accurate location of the drone 10.

서브그룹 추출부(145)는 이미지에서 추출된 관심 지형지물의 시퀀스 정보와 2D 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보를 비교하여 2D 타일맵의 서브그룹을 추출한다. The subgroup extraction unit 145 extracts a subgroup of the 2D tile map by comparing the sequence information of the feature of interest extracted from the image with the sequence information of the feature included in the subgroup of the 2D tile map.

또한, 서브그룹 추출부(145)에서는 이미지에서 추출한 지형지물과 2D 타일맵의 지형지물의 시퀀스 정보 비교시, 일정 수준 이상 동일한 경우, 해당 2D 타일맵의 서브그룹을 추출한다. 다른 실시 예로서, 서브그룹 추출부(145)는 서브그룹 1차 결정부(115)로 대체될 수 있다.Additionally, the subgroup extraction unit 145 extracts a subgroup of the 2D tile map if the sequence information of the feature extracted from the image and the feature of the 2D tile map are identical to a certain level or more. As another example, the subgroup extraction unit 145 may be replaced with the subgroup primary determination unit 115.

위치 산출부(150)와 위치 계산부(125)의 차이점은 방향각 정보를 위치 산출부(150)에서는 사용하지 않는다는 점이다.The difference between the position calculation unit 150 and the position calculation unit 125 is that the direction angle information is not used in the position calculation unit 150.

또한, 위치 산출부(150)는 드론(10)가 촬영 노선을 따라 순수 병진 운동을 한다는 가정하에 실시간 지형지물의 위치정보를 계산하여 2D 타일맵 정보를 저장 및 갱신하는 것을 목적으로 수행된다. In addition, the location calculation unit 150 calculates real-time location information of geographical features under the assumption that the drone 10 makes a pure translational movement along the shooting route, and stores and updates 2D tile map information.

따라서 일정 주기로 드론에서 촬영된 연속적 이미지간의 z축 회전량이 일정 수준 이하를 만족하는 경우, 계산된 카메라의 중심좌표(X, Y, 높이값)간의 이격거리를 정보를 이용하여, 관심 지형지물의 실제 3차원 위치정보를 계산할 수 있다. 상기 연속적 이미지의 z축 회전량은 드론의 이동 방향에 수직인 축(예를 들면 평면좌표가 xy좌표일 때 z축의 회전량 변화를 의미함)의 회전량을 의미한다.Therefore, if the z-axis rotation amount between consecutive images captured by a drone at a certain period meets a certain level or less, the calculated separation distance between the camera's center coordinates (X, Y, height value) is used to determine the actual 3 of the feature of interest. Dimensional position information can be calculated. The z-axis rotation amount of the continuous image refers to the rotation amount of the axis perpendicular to the moving direction of the drone (for example, when the plane coordinate is xy coordinate, it means the change in the z-axis rotation amount).

도 7은 카메라 프레임과 이미지 프레임의 관계를 나타내기 위한 도면이다.Figure 7 is a diagram showing the relationship between camera frames and image frames.

도 7을 참조하면, 카메라 좌표와 이미지 좌표의 관계는 수학식 6와 같이 나타낼 수 있다.Referring to FIG. 7, the relationship between camera coordinates and image coordinates can be expressed as Equation 6.

여기에서 f는 카메라의 초점 길이(focal length) 이고, α = f/s 이고, s는 이미지의 픽셀사이즈이다. u, v는 이미지 좌표이고, xc, yc, zc는 카메라 좌표이다.Here, f is the focal length of the camera, α = f/s, and s is the pixel size of the image. u, v are image coordinates, and x c , y c , z c are camera coordinates.

도 7에서 이미지 좌표는 u, v는 이미지의 픽셀 사이즈 s를 곱하여 u*s, v*s가 되는 것이 도시되어 있고, 카메라 좌표와 이미지 좌표가 초점 길이 f 만큼 떨어져 있음을 알 수 있다.In Figure 7, it is shown that the image coordinates u and v are multiplied by the pixel size s of the image to become u*s and v*s, and it can be seen that the camera coordinates and the image coordinates are separated by the focal length f.

한편, 각 축에 대한 회전 행렬 구성은 아래의 수학식 7과 같다. 또한 회전량의 변화가 매우 작다고 가정하는 경우, cos(x) ≒ 1, sin(x) ≒ x, sin(x)sin(y) ≒ 0 값을 갖으므로, 아래 회전 행렬은 다음과 같이 변경할 수 있다. 또한 카메라의 Z축 방향의 회전(Yaw)이 없는 병진운동을 하는 경우는 회전행렬은 보다 단순해 진다.Meanwhile, the rotation matrix configuration for each axis is as shown in Equation 7 below. Also, assuming that the change in rotation amount is very small, the values are cos(x) ≒ 1, sin(x) ≒ x, and sin(x)sin(y) ≒ 0, so the rotation matrix below can be changed as follows: there is. Additionally, in the case of translational movement without rotation (Yaw) in the Z-axis direction of the camera, the rotation matrix becomes simpler.

카메라 좌표계의 좌표축에 대해, Rzc,Ψ 는 Z축을 회전시킨 회전량이고, Ryc,ф 는 Y축을 회전시킨 회전량이고, Rxc,ф 는 X축을 회전시킨 회전량이다. With respect to the coordinate axis of the camera coordinate system, Rz c ,Ψ is the rotation amount by rotating the Z axis, Ry c ,ф is the rotation amount by rotating the Y axis, and Rx c ,ф is the rotation amount by rotating the X axis.

수학식 7에서 c는 cosine 함수를 나타내고, s는 sine 함수를 나타낸다. In Equation 7, c represents the cosine function and s represents the sine function.

카메라의 높이 Hc(z=h)는 아래 수학식 8과 같이 계산할 수 있다.The height Hc (z=h) of the camera can be calculated as shown in Equation 8 below.

수학식 8에서 c는 cosine 함수를 나타내고, s는 sine 함수를 나타낸다. In Equation 8, c represents the cosine function and s represents the sine function.

r31은 회전 행렬 R의 3행 1열의 원소값을, r32는 회전 행렬 R의 3행 2열의 원소값, r33는 회전 행렬 R의 3행 1열의 원소값을 나타낸다. r 31 represents the element value of the 3rd row and 1st column of the rotation matrix R, r 32 represents the element value of the 3rd row and 2nd column of the rotation matrix R, and r 33 represents the element value of the 3rd row and 1st column of the rotation matrix R.

도 8은 신규 지형지물 위치 계산을 위한 이미지 프레임과 실공간 프레임의 관계를 나타낸 도면이다. Figure 8 is a diagram showing the relationship between an image frame and a real-space frame for calculating the location of a new feature.

도 8을 참조하면, 핀홀(pinhole) 카메라 모델이 도시되어 있다. 해당 모델은 이미지-실공간 모델에도 적용 가능하다. 여기에서 실공간 좌표계와 이미지 좌표계가 원점이 서로 다르므로, 아래와 같이 표현될 수 있다. R 은 회전행렬, C 는 이미지 좌표계와 실좌표계와의 이격거리 행렬이다.Referring to Figure 8, a pinhole camera model is shown. The model can also be applied to the image-real space model. Here, since the real space coordinate system and the image coordinate system have different origins, they can be expressed as follows. R is the rotation matrix, and C is the separation distance matrix between the image coordinate system and the real coordinate system.

여기서, Xw는 실공간 좌표계의 좌표이고, xi는 이미지 좌표계의 좌표이며, 행렬 P는 실공간 좌표를 이미지 좌표로 변환하는 변환행렬이다.Here ,

회전행렬의 적용 이유는 이미지 촬영시에 Yaw(Z축), Pitch(Y축) Roll(X축) 로 카메라의 회전 움직임이 반영되어 이미지가 촬영되기 때문이다.The reason for applying the rotation matrix is that when taking an image, the rotational movement of the camera is reflected in Yaw (Z-axis), Pitch (Y-axis), and Roll (X-axis) to capture the image.

회전각 계산부(155)는 연속된 두장의 이미지 영상에 관심 지형지물이 존재하는 경우, 카메라의 회전각 변화량 및 관심 지형지물의 이미지 좌표의 변화량 및 카메라의 중심좌표의 이동량 정보를 이용하여, SVD 알고리즘을 이용하여, 관심 지형지물의 3차원 위치정보를 계산할 수 있다.When a feature of interest exists in two consecutive images, the rotation angle calculation unit 155 uses the rotation angle change of the camera, the change in image coordinates of the feature of interest, and the movement amount of the center coordinate of the camera to use the SVD algorithm. Using , you can calculate 3D location information of the feature of interest.

도 9는 드론의 진행방향에 대해, 매우 짧은 두장의 영상을 도시한 것이다. Figure 9 shows two very short images of the drone's direction of travel.

도 9를 참조하면, 순수 병진운동하는 경우에는 드론의 진행방향에 대해, 매우 짧은 두장의 영상에서 회전각의 변화가 0에 가까운 경우이며, 동일한 소실점(에피폴)이 존재하는 경우이다. 드론의 방향각을 변화없이 일정하게 유지하면서 이동하고, 매우 짧은 주기로 이미지를 촬영하는 경우에는 연속적으로 촬영된 두장의 이미지간의 방향각의 변화는 0로 가정할 수 있다. 흰선은 에피폴라라인을 나타낸다.Referring to FIG. 9, in the case of pure translation, the change in rotation angle in the drone's moving direction in two very short images is close to 0, and the same vanishing point (epipole) exists. If the drone moves while keeping its directional angle constant and images are captured in a very short cycle, the change in directional angle between two images taken continuously can be assumed to be 0. The white line represents the epipolar line.

지형지물 위치 계산부(160)가 검증한 결과 이미지 좌표에 매칭되는 검증 지형지물의 3차원 위치정보가 일정 수준 이상의 정확도를 만족하는 경우, 타일맵 정보 업데이트부(165)는 실시간 2D 타일 정보를 갱신한다. As a result of the verification by the feature location calculation unit 160, if the 3D location information of the verified feature matching the image coordinates satisfies a certain level of accuracy or higher, the tile map information update unit 165 updates the 2D tile information in real time. .

2D 타일맵의 서브그룹에 포함된 지형지물의 3차원 위치정보를 기준으로 회전각 계산부(155)의 기능을 통해, 이미 3차원 위치정보를 알고 있는 검증 지형지물에 대해, 현재 촬영된 이미지 정보를 이용하여 3차원 위치정보를 계산함으로써, 계산된 위치정보와 기 저장된 위치정보의 차이로 위치정보 정확도를 계산할 수 있다.Based on the 3D location information of the feature included in the subgroup of the 2D tile map, the currently captured image information is used for the verification feature for which the 3D location information is already known through the function of the rotation angle calculation unit 155. By calculating 3D location information, location information accuracy can be calculated based on the difference between the calculated location information and the previously stored location information.

따라서 일정 수준을 만족하는 위치정보 정확도를 갖는 실시간 2D 타일 정보를 저장하여 갱신하고, 저장된 정보는 타일맵 서버(20)의 타일맵 정보 수신부(230)에서 수신된다. Therefore, real-time 2D tile information with location information accuracy that satisfies a certain level is stored and updated, and the stored information is received from the tile map information receiver 230 of the tile map server 20.

타일맵 서버(20)의 3D 데이터 후처리부(220)에서는 크라우드소싱 방법으로 다수의 드론에서 수신한 2D 타일맵 갱신 정보를 이용하여, 보다 정밀한 지형지물 위치정보를 추출하기 위한 데이터를 후처리를 진행한다.The 3D data post-processing unit 220 of the tile map server 20 uses 2D tile map update information received from multiple drones using a crowdsourcing method to post-process the data to extract more precise location information of geographical features. do.

타일맵 정보 갱신부(165)는 타일맵 서버(20)에 저장된 2D 타일맵을 타일맵 정보 수신부(230)로부터 업데이트된 타일맵 정보로 갱신한다.The tile map information updating unit 165 updates the 2D tile map stored in the tile map server 20 with the tile map information updated from the tile map information receiving unit 230.

한편, 타일맵 서버(20)는 주행노선 결정부(200), 타일맵 송신부(210), 3D 데이터 후처리부(220), 타일맵 정보 수신부(230), 및 타일맵 갱신부(240)로 구성된다.Meanwhile, the tile map server 20 consists of a driving route decision unit 200, a tile map transmitter 210, a 3D data post-processing unit 220, a tile map information reception unit 230, and a tile map update unit 240. do.

주행노선 결정부(200)는 드론(10)으로부터 출발지 및 목적지 정보를 전송받아 드론이 촬영할 이미지 촬영 노선을 결정한다.The driving route decision unit 200 receives the starting point and destination information from the drone 10 and determines the image capturing route to be captured by the drone.

타일맵 송신부(210)는 상기 결정된 촬영 노선을 포함하는 2D 타일맵을 드론(10)으로 전송한다.The tile map transmitter 210 transmits a 2D tile map including the determined filming route to the drone 10.

3D 데이터 후처리부(220)는 다수의 드론에서 취득된 실시간 2D 타일 정보와 함께 전송된 이미지 정보를 이용하여, 관심 지형지물에 대한 보다 높은 정확도의 3차원 위치정보를 산출한다.The 3D data post-processing unit 220 uses image information transmitted together with real-time 2D tile information acquired from multiple drones to calculate 3D location information with higher accuracy for the feature of interest.

크라우드 소싱으로 다수의 드론에서 취합된 3차원 위치정보로 지형지물의 위치정보의 변화나 신규 지형지물의 위치정보를 통계적 방법으로 처리 가능하다.With 3D location information collected from multiple drones through crowdsourcing, changes in the location information of geographic features or location information of new features can be processed using statistical methods.

동일한 지형지물에 대해 서로 다른 3차원 위치정보가 전송되므로, 최소제곱법을 이용하여, 일정 수준의 위치 정확도를 만족하는 지형지물의 3차원 위치정보를 추출하여, 2D 타일맵의 정보를 업데이트할 수 있다.Since different 3D location information is transmitted for the same feature, the least squares method can be used to extract the 3D location information of the feature that satisfies a certain level of location accuracy and update the information in the 2D tile map. .

타일맵 정보 수신부(230)는 타일맵 정보 업데이트부(165)에서 업데이트된 2D 타일맵 정보를 수신한다.The tile map information receiving unit 230 receives updated 2D tile map information from the tile map information updating unit 165.

타일맵 갱신부(240)는 3D 데이터 후처리부(220)와 타일맵 정보 수신부(230)로부터 수신한 2D 타일맵과 위치정보, 속성정보들로 기존 2D 타일맵을 갱신한다.The tile map update unit 240 updates the existing 2D tile map using the 2D tile map, location information, and attribute information received from the 3D data post-processing unit 220 and the tile map information receiving unit 230.

도 10은 본 발명의 바람직한 일 실시 예에 따른 드론 위치 결정방법의 흐름도이다.Figure 10 is a flowchart of a method for determining a drone location according to a preferred embodiment of the present invention.

도 10을 참조하면, 본 실시 예에 따른 드론 위치 결정방법은 도 4에 도시된 드론 위치 결정장치에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 4에 도시된 드론 위치 결정장치에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 드론 위치 결정방법에도 적용된다. Referring to FIG. 10, the drone location determination method according to this embodiment consists of steps processed in time series in the drone location determination device shown in FIG. 4. Therefore, even if the content is omitted below, the content described above regarding the drone positioning device shown in FIG. 4 also applies to the drone positioning method according to this embodiment.

1000 단계에서 드론 위치 결정장치는 3차원 지형지물 정보를 취득할 이미지 촬영 노선과 관련된 2차원 타일맵을 수신한다. 지형지물 정보를 수집할 노선에 대해, 지형지물의 속성 및 높이값 정보를 포함한 2D 타일맵 정보를 타일맵 서버(20)로부터 수신할 수 있다.In step 1000, the drone positioning device receives a 2D tile map related to the image taking route to acquire 3D terrain information. For the route on which geographical feature information is to be collected, 2D tile map information including the attributes and height value information of the geographical feature may be received from the tile map server 20.

1005 단계에서 드론 위치 결정장치는 상기 지형지물의 높이값 변화폭을 기준으로 상기 2차원 타일맵을 서브그룹으로 분할하여 저장한다.In step 1005, the drone positioning device divides the two-dimensional tile map into subgroups and stores them based on the change range of the height value of the feature.

드론에서 촬영한 이미지는 지면으로부터 드론의 높이값에 따라 이미지의 픽셀 해상도가 좌우된다. 따라서 지형지물의 등고선을 반영하여 급격한 드론의 높이값의 변화가 없도록 촬영노선을 설계할 필요가 있다.For images taken from a drone, the pixel resolution of the image depends on the height of the drone from the ground. Therefore, it is necessary to design the shooting route so that there is no sudden change in the drone's height value by reflecting the contour lines of the terrain features.

도 12는 지형지물의 등고선을 반영하여 급격한 드론의 높이값의 변화가 없도록 촬영노선을 설계한 예시이다.Figure 12 is an example of designing a shooting route to reflect the contours of geographical features and prevent sudden changes in the height value of the drone.

도 12에서는 지형지물의 높이값의 분포에 따라, A, B, C 지역으로 구분하여 촬영지역을 구분한다. C 지형은 좌우방향으로 지형지물의 높이값의 변화가 일정기준값보다 작으므로 A, B 지형과 다르게 설계된다.In Figure 12, the shooting area is divided into areas A, B, and C according to the distribution of the height values of the features. C terrain is designed differently from A and B terrains because the change in height value of the feature in the left and right directions is less than a certain standard value.

따라서 촬영지역에 대해 도 12와 같이 일정범위내에서 유사한 고도값을 갖는 지역을 분류하고, 해당지역에 대해 촬영노선을 세부 설계하고, 각 촬영노선에 대해, 2D 방향각 및 촬영노선의 높이값을 저장하여 제공한다.Therefore, for the filming area, areas with similar altitude values within a certain range are classified as shown in Figure 12, a filming route is designed in detail for the area, and for each filming route, the 2D direction angle and height value of the filming route are calculated. Save and provide.

1010 단계에서 드론 위치 결정장치는 이미지 촬영 노선의 이미지를 일정 주기로 수신하고, 외부에서 수신된 신호를 이용하여, 상기 이미지가 수신된 동일한 시간에 상기 드론이 위치한 2차원 평면좌표를 산출한다.In step 1010, the drone positioning device receives images of the image capture route at regular intervals and uses signals received from the outside to calculate two-dimensional coordinates where the drone is located at the same time when the images are received.

드론 위치 결정장치는 드론의 초기 위치정보로부터 일정 거리내에 포함된 2D 타일맵 서브그룹 정보를 필터링하여 추출할 수 있다. 필터링된 2D 타일맵 내에서 현재 위치에 필요한 서브그룹을 추출하여, 현재의 드론을 위치를 결정하게 된다.The drone positioning device can filter and extract 2D tile map subgroup information contained within a certain distance from the drone's initial location information. By extracting the subgroup required for the current location within the filtered 2D tile map, the current location of the drone is determined.

드론의 초기 위치정보는 GPS 모듈이나 Wi-Fi의 신호로부터 대략적으로 계산될 수 있다. 도심지에서는 GPS 정보와 Wi-Fi 정보를 모두 이용하여 드론의 위치정확도를 높일 수 있다. 그러나 상기 GPS 모듈이나 Wi-Fi의 신호를 이용한 위치정확도의 경우, 수m 수준의 위치오차가 발생할 수 있으므로, 지형지물의 위치정보를 수집하는 경우, 고가의 GPS를 이용하여, 10cm 이내의 기기 위치정확도를 확보하고, 또한 드론의 위치 계산도 후처리를 통하여 이루어지는 것이 바람직하다.The drone's initial location information can be roughly calculated from signals from the GPS module or Wi-Fi. In urban areas, the location accuracy of drones can be improved by using both GPS information and Wi-Fi information. However, in the case of location accuracy using the GPS module or Wi-Fi signal, location errors of several meters may occur, so when collecting location information of geographical features, expensive GPS must be used to ensure that the device location accuracy is within 10 cm. It is desirable to secure and also calculate the drone's position through post-processing.

한편, 라이다(Lidar) 등의 장비를 이용하여 확보된 지형지물의 평면좌표 및 높이값의 3차원 위치정보를 활용하는 경우, 드론의 모노 카메라 이미지에서 관심 지형지물을 화면좌표를 추출하고, 이에 매칭되는 실공간의 3차원 좌표간의 모델을 이용하여 카메라의 실시간 정밀 위치계산이 가능하다. 이때, 카메라의 위치는 드론의 위치가 같다고 가정한다.On the other hand, when utilizing 3D location information of the plane coordinates and height value of a feature obtained using equipment such as Lidar, the screen coordinates of the feature of interest are extracted from the drone's mono camera image and matched accordingly. It is possible to calculate the real-time precise position of the camera using a model between three-dimensional coordinates in real space. At this time, it is assumed that the position of the camera is the same as that of the drone.

1020 단계에서 드론 위치 결정장치는 상기 수신된 이미지에 포함된 관심 지형지물을 분류하고, 상기 분류된 관심 지형지물간의 이미지 좌표를 이용하여, 상기 관심 지형지물의 시퀀스 정보를 추출한다. 드론에서 카메라를 통해 수신한 이미지에서 관심 지형지물을 자동 인식하여 분류하고, 관심 지형지물 간에 위치정보 기반의 시퀀스 정보를 추출할 수 있다.In step 1020, the drone positioning device classifies the feature of interest included in the received image and extracts sequence information of the feature of interest using image coordinates between the classified features of interest. It is possible to automatically recognize and classify features of interest from images received through a camera on a drone, and extract sequence information based on location information between features of interest.

이 때 지형지물의 인식은 딥러닝 및 머신러닝을 통해 학습된 물체인식 모듈을 이용하여, 이미지에 포함된 관심 지형지물의 인식이 가능하다.At this time, the recognition of features of interest included in the image is possible using an object recognition module learned through deep learning and machine learning.

또한 지형지물을 이미지에서 인식하는 경우, 실제 카메라와 지형지물의 거리정보를 계산을 위해, 지형지물의 하천, 도로 및 설치 평면과의 인접하는 최하단 이미지 좌표의 취득이 필요하다. 그러나 이미지 촬영시, 촬영 노선에서 움직이는 물체 및 물리적인 촬영위치의 한계로 지형지물의 최하단 촬영이 불가능한 경우가 많이 발생한다. 따라서 본 발명에서는 지형지물의 최상단 위치정보를 이용하여, 카메라 위치정보를 계산하는 것이 바람직하다.In addition, when recognizing a geographical feature in an image, it is necessary to obtain the coordinates of the lowest image adjacent to the river, road, and installation plane of the geographical feature in order to calculate the distance information between the actual camera and the geographical feature. However, when taking images, there are many cases where it is impossible to take pictures of the lowest point of a geographical feature due to limitations in physical shooting locations and moving objects along the shooting route. Therefore, in the present invention, it is desirable to calculate camera location information using the top location information of the feature.

1030 단계에서 드론 위치 결정장치는 이미지에서 추출된 관심 지형지물의 시퀀스 정보와 상기 2차원 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보가 일정수준 이상 일치하는 2차원 타일맵의 서브그룹을 1차 추출한다. In step 1030, the drone positioning device first extracts a subgroup of the two-dimensional tile map where the sequence information of the feature of interest extracted from the image and the sequence information of the feature included in the subgroup of the two-dimensional tile map match at least a certain level. do.

필터링된 2D 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보와 이미지에서 추출된 관심 지형지물의 시퀀스 정보를 비교하고, 시퀀스 정보가 일정 비율 이상 동일한 2D 타일맵의 서브그룹 후보를 추출할 수 있다.The sequence information of features included in the subgroup of the filtered 2D tile map can be compared with the sequence information of the feature of interest extracted from the image, and subgroup candidates of the 2D tile map whose sequence information is the same at a certain rate or more can be extracted.

드론의 초기 위치정보의 정확도가 매우 낮은 경우, 수신된 2D 타일 정보의 지형지물의 위치정보간의 연속적 시퀀스 정보와 이미지에서 취득된 지형지물의 시퀀스 정보를 비교하여 2D 타일맵의 서브그룹을 추출할 수 있다. 시퀀스 정보의 비교시에는 2D 타일맵의 지형지물과 현재 이미지에서 추출한 시퀀스 정보와 차이가 발생할 수 있으므로, 일정 비율을 만족하는 경우, 서브그룹 후보로 추출할 수 있다.If the accuracy of the drone's initial location information is very low, a subgroup of the 2D tile map can be extracted by comparing the continuous sequence information between the location information of the features in the received 2D tile information and the sequence information of the features acquired from the image. When comparing sequence information, differences may occur between the features of the 2D tile map and the sequence information extracted from the current image, so if a certain ratio is satisfied, they can be extracted as subgroup candidates.

1040 단계에서 드론 위치 결정장치는 상기 산출된 드론의 2차원 평면좌표의 시간 t와 시간 t+1의 좌표값을 이용하여 상기 드론의 방향각을 계산하고, 상기 계산된 방향각과 상기 2차원 타일맵의 서브그룹의 방향각 차이가 일정 수준 이하를 만족하는 2D 타일맵 서브그룹을 2차 추출한다. In step 1040, the drone positioning device calculates the heading angle of the drone using the calculated two-dimensional plane coordinates of the drone at time t and the coordinate values of time t+1, and uses the calculated heading angle and the two-dimensional tile map. A 2D tile map subgroup whose orientation angle difference between subgroups satisfies a certain level or less is secondarily extracted.

즉, 드론의 위치정보 변화량을 이용, 드론의 방향각을 계산하고, 2D 타일맵의 서브그룹 후보의 방향각과 드론의 방향각을 비교하고, 그 차이가 일정 수준 이하인 2D 타일맵의 서브그룹 후보를 재추출할 수 있다. 따라서, 2D 타일맵 서브그룹에는 해당 서브그룹의 방향각 정보가 포함되는 것이 바람직하다. 드론은 하천 또는 도로의 방향대로 촬영 노선이 설정되므로, 드론 이동시의 방향각 역시 하천 또는 도로의 방향대로 설정될 것이다.In other words, the direction angle of the drone is calculated using the amount of change in the drone's location information, the direction angle of the subgroup candidate in the 2D tile map is compared with the direction angle of the drone, and the subgroup candidate in the 2D tile map whose difference is below a certain level is selected. It can be re-extracted. Therefore, it is desirable that the 2D tile map subgroup includes orientation angle information of the corresponding subgroup. Since the drone's shooting route is set according to the direction of the river or road, the direction angle when the drone moves will also be set according to the direction of the river or road.

다수의 2D 타일맵에서 최적의 서브그룹을 추출하기 위해서는 현재 드론의 위치정보를 이용하여 추출 가능하나, 모바일의 기기의 위치정확도가 수m 수준의 정확도를 가지므로 드론의 이동 방향각 정보를 이용하여 2D 타일맵의 서브그룹 후보를 재추출할 수 있다. In order to extract the optimal subgroup from multiple 2D tile maps, it is currently possible to extract it using the drone's location information. However, since the location accuracy of mobile devices is at the level of several meters, the drone's movement direction information must be used to extract it. Subgroup candidates from the 2D tile map can be re-extracted.

이 때에는 이미지 수신 주기와 동기화된 드론의 위치정보를 추출하고, 추출된 위치정보(시간 t와 시간 t+1의 위치정보)를 평면좌표로 변환하여 방향각을 추출하고, 해당 방향각의 변화량이 일정 수준내에서 유지되는 경우, 현재의 드론의 방향각과 2D 타일맵 서브그룹에 포함된 방향각 정보를 비교하여, 그 차이가 일정 수준을 만족하는 서브그룹 후보를 재추출할 수 있다. In this case, the location information of the drone synchronized with the image reception period is extracted, the extracted location information (location information at time t and time t+1) is converted to plane coordinates to extract the direction angle, and the change in direction angle is If it is maintained within a certain level, the heading angle of the current drone can be compared with the heading angle information included in the 2D tile map subgroup, and a subgroup candidate whose difference satisfies a certain level can be re-extracted.

여기에서 2D 타일맵의 서브그룹의 방향각은 서브그룹 내에 지형지물이 존재하는 하천, 도로 또는 이동 가능한 공간의 방향각에 해당된다.Here, the direction angle of the subgroup of the 2D tile map corresponds to the direction angle of the river, road, or movable space where the feature exists within the subgroup.

1050 단계에서 드론 위치 결정장치는 상기 2차 추출된 2D 타일맵 서브그룹에 포함된 지형지물의 평면 좌표 및 높이값을 이용하여 상기 이미지를 촬영한 카메라의 평면 좌표 및 높이값을 계산한다.In step 1050, the drone positioning device calculates the plane coordinates and height values of the camera that captured the image using the plane coordinates and height values of the features included in the secondary extracted 2D tile map subgroup.

2차 추출된 2D 타일맵의 서브그룹에 포함된 지형지물의 최상단 위치정보를 이용, 촬영 카메라의 실시간 중심좌표와 높이값을 계산하는 것이 바람직하다.It is desirable to calculate the real-time center coordinates and height value of the shooting camera using the top location information of the feature included in the subgroup of the secondary extracted 2D tile map.

1050 단계는 카메라 핀홀 모델을 이용하여, 이미지에서 인식된 관심 지형지물의 이미지 좌표와 2D 타일맵의 서브그룹의 3차원 위치정보를 매칭하여, 카메라의 초점좌표, 즉 카메라의 중심좌표를 계산하는 단계이다. 이 때에는 최소제곱법을 이용하여, 카메라 중심좌표 계산이 가능하다. 이때에는 카메라의 내부 켈리브레이션 변수로 초점거리, 카메라 픽셀사이즈 및 Skew 변수값이 필요하다.Step 1050 is a step of calculating the focus coordinates of the camera, that is, the center coordinates of the camera, by matching the image coordinates of the feature of interest recognized in the image with the 3D location information of the subgroup of the 2D tile map, using the camera pinhole model. . In this case, it is possible to calculate the camera center coordinates using the least squares method. In this case, the focal length, camera pixel size, and skew variable values are required as the camera's internal calibration variables.

1060 단계에서 드론 위치 결정장치는 촬영 카메라의 중심좌표 위치정보를 이미지 속성정보로 저장한다.In step 1060, the drone positioning device stores the center coordinate location information of the shooting camera as image attribute information.

드론에서 저장된 이미지의 속성정보로 실시간 카메라의 정밀 중심좌표를 저장하는 단계이다. 카메라의 중심좌표가 저장된 경우, 크라우드 소싱으로 서버로 취합된 이미지에 대해, 카메라의 중심좌표를 이용하여 쉽게 이미지 그룹화가 가능하며, 해당 이미지의 정보를 기반으로, 지형지물의 정밀 3차원 위치정보를 통계적 방법을 이용하여 후처리하여 보다 높은 정확도의 지형지물 3차원 위치정보를 추출할 수 있다.This is the step of storing the precise center coordinates of the real-time camera as attribute information of the image saved from the drone. If the center coordinates of the camera are stored, images collected on the server through crowdsourcing can be easily grouped using the center coordinates of the camera, and based on the information in the image, precise 3D location information of geographical features can be statistically collected. By post-processing using this method, 3D location information of geographical features with higher accuracy can be extracted.

도 11은 본 발명의 바람직한 일 실시 예에 따른 지형지물 위치정보 갱신방법의 흐름도이다.Figure 11 is a flowchart of a method for updating geographical feature location information according to a preferred embodiment of the present invention.

도 11을 참조하면, 본 실시 예에 따른 지형지물 위치정보 갱신방법은 도 4에 도시된 지형지물 위치정보 갱신장치에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 4에 도시된 지형지물 위치정보 갱신장치에 관하여 이상에서 기술된 내용은 본 실시 예에 따른 지형지물 위치정보 갱신방법에도 적용된다. Referring to FIG. 11, the method for updating feature location information according to this embodiment consists of steps processed in time series in the feature location information updating device shown in FIG. 4. Therefore, even if the content is omitted below, the content described above regarding the feature location information updating device shown in FIG. 4 also applies to the feature location information updating method according to this embodiment.

1100 단계에서 지형지물 위치정보 갱신장치는 3차원 지형지물 정보를 취득할 이미지 촬영 노선과 관련된 2차원 타일맵을 수신한다. 지형지물 정보를 수집할 노선에 대해, 지형지물의 속성 및 높이값 정보를 포함한 2D 타일맵 정보를 타일맵 서버(20)로부터 수신하는 것이 바람직하다.In step 1100, the feature location information updating device receives a 2D tile map related to the image taking route for acquiring 3D feature information. For a route on which to collect feature information, it is desirable to receive 2D tile map information including feature attribute and height value information from the tile map server 20.

1110 단계에서 지형지물 위치정보 갱신장치는 상기 이미지 촬영 노선의 이미지를 일정 주기로 수신한다.In step 1110, the feature location information update device receives images of the image capture route at a regular interval.

1105 단계에서 드론 위치 결정장치는 상기 지형지물의 높이값 변화폭을 기준으로 상기 2차원 타일맵을 서브그룹으로 분할하여 저장한다.In step 1105, the drone positioning device divides the two-dimensional tile map into subgroups and stores them based on the change range of the height value of the feature.

드론에서 촬영한 이미지는 지면으로부터 드론의 높이값에 따라 이미지의 픽셀 해상도가 좌우된다. 따라서 지형지물의 등고선을 반영하여 급격한 드론의 높이값의 변화가 없도록 촬영노선을 설계할 필요가 있다.For images taken from a drone, the pixel resolution of the image depends on the height of the drone from the ground. Therefore, it is necessary to design the shooting route so that there is no sudden change in the drone's height value by reflecting the contour lines of the terrain features.

1120 단계에서 지형지물 위치정보 갱신장치는 상기 수신된 이미지에 포함된 관심 지형지물을 분류하고, 상기 분류된 관심 지형지물간의 이미지 좌표를 이용하여, 상기 관심 지형지물의 시퀀스 정보를 추출한다.In step 1120, the feature location information update device classifies the feature of interest included in the received image and extracts sequence information of the feature of interest using image coordinates between the classified features of interest.

1130 단계에서 지형지물 위치정보 갱신장치는 상기 이미지에서 추출된 관심 지형지물의 시퀀스 정보와 상기 2차원 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보가 일정수준 이상 일치하는 2차원 타일맵의 서브그룹을 추출한다.In step 1130, the feature location information update device creates a subgroup of a two-dimensional tile map in which the sequence information of the feature of interest extracted from the image and the sequence information of the features included in the subgroup of the two-dimensional tile map match at least a certain level. Extract.

1130 단계 이전에 드론의 초기 위치정보를 이용하여 상기 초기 위치정보로부터 일정 거리내에 포함된 2D 타일맵 서브그룹 정보를 필터링하여 추출할 수도 있다. 드론의 정밀 위치정보(카메라의 중심좌표)가 계산된 경우에는 일정 거리내에 포함된 2D 타일맵 서브그룹을 필터링하는 것이 바람직하다.Before step 1130, the initial location information of the drone may be used to filter and extract 2D tile map subgroup information included within a certain distance from the initial location information. When the drone's precise location information (camera's center coordinates) has been calculated, it is desirable to filter 2D tile map subgroups included within a certain distance.

1140 단계에서 지형지물 위치정보 갱신장치는 추출된 2차원 타일맵의 서브 그룹에 포함된 지형지물의 평면좌표값 및 높이값 이용하여 상기 수신된 카메라의 평면 좌표와 높이값을 결정한다.In step 1140, the feature location information update device determines the received plane coordinates and height values of the camera using the plane coordinates and height values of the features included in the subgroup of the extracted two-dimensional tile map.

1150 단계에서 지형지물 위치정보 갱신장치는 상기 연속하여 수신된 이미지의 상대적 회전각의 변화량을 상기 연속하여 수신된 이미지에서 분류된 검증 지형지물의 옵티컬 플로우 정보로 계산한다.In step 1150, the feature location information update device calculates the amount of change in the relative rotation angle of the continuously received images as optical flow information of the verification feature classified in the continuously received images.

일정 주기로 드론에서 촬영된 연속적 이미지간의 z축 회전량이 일정 수준 이하를 만족하는 경우, 추출된 카메라의 중심좌표 및 옵티컬 플로우 정보를 이용하여 두 장의 연속된 이미지의 회전각 정보를 계산하고, 연속된 영상에서 존재하는 지형지물의 3차원 위치정보를 계산할 수 있다.If the z-axis rotation amount between consecutive images captured by a drone at a certain period meets a certain level or less, the rotation angle information of two consecutive images is calculated using the extracted center coordinates and optical flow information of the camera, and the consecutive images are You can calculate 3D location information of existing features.

드론에 장착된 카메라를 이용하여, 지형지물의 이미지를 취득하는 경우, 연속된 2장의 이미지를 이용하여 스테레오 영상으로 사용이 가능하다. 따라서 연속된 2장의 이미지에서 관심 지형지물의 3차원 위치정보 취득이 가능하다. When acquiring images of geographical features using a camera mounted on a drone, two consecutive images can be used as stereo images. Therefore, it is possible to acquire 3D location information of the feature of interest from two consecutive images.

이 때, 카메라의 Z축(평면에서 수직인 축)의 회전각의 변화는 매우 짧은 시간(약 1/10초 이하) 동안 매우 작은 회전각의 변화가 있는 것으로 가정할 수 있고, 또한 드론가 촬영방향을 유지하면서 이동하는 경우, 순수 병진운동에 가까운 상태로 가정할 수 있다.At this time, it can be assumed that there is a very small change in the rotation angle of the camera's Z-axis (vertical axis in the plane) for a very short period of time (approximately 1/10 second or less), and also that the drone changes the shooting direction. When moving while maintaining , it can be assumed to be close to pure translational motion.

이 때, 순간적인 카메라의 회전각의 변화는 관심 지형지물의 옵티컬 플로우 정보를 이용하여 계산 가능하다. At this time, the instantaneous change in camera rotation angle can be calculated using the optical flow information of the feature of interest.

옵티컬 플로우 정보를 계산하기 위해서는, 일정 주기마다 취득된 연속된 이미지간의 발생하는 회전각 변화 행렬 및 이미지간의 이격거리 정보가 필요하다. In order to calculate optical flow information, the rotation angle change matrix that occurs between successive images acquired at regular intervals and the separation distance information between images are required.

이 때, 카메라는 순수 병진운동하는 것으로 가정하였으므로, cos(x) ≒ 1, sin(x) ≒ x, sin(x)sin(y) ≒ 0 값을 갖는 것으로 변경 가능하고, 두 장의 연속된 이미지가 촬영되는 순간에 드론의 진행방향은 거의 변경되지 않는 순수 병진 운동하는 것으로 가정하기 카메라의 Z축의 회전량은 0 에 가까운 것으로 가정하여 회전 행렬을 단순화하여, 실시간 계산 속도를 향상 시킬 수 있다. 이미지 촬영시에 Yaw(Z축), Pitch(Y축) Roll(X축) 로 카메라의 회전 움직임이 반영되어 이미지가 촬영된다.At this time, since the camera is assumed to be in pure translation, it can be changed to have the values cos(x) ≒ 1, sin(x) ≒ x, and sin(x)sin(y) ≒ 0, and two consecutive images At the moment of filming, the direction of the drone is assumed to be in pure translational motion with little change, and the rotation amount of the camera's Z axis is assumed to be close to 0. By simplifying the rotation matrix, real-time calculation speed can be improved. When taking an image, the rotational movement of the camera is reflected through Yaw (Z-axis), Pitch (Y-axis), and Roll (X-axis) to capture the image.

모바일 장치가 순수 병진운동을 한다고 가정하면, 상대적인 카메라 프레임은 진행에 대해 방향각의 변화가 없으므로, Z축 회전각의 변화량을 ψ = 0 으로 가정할 수 있다. 또한 카메라 프레임의 X, Y 축의 회전량도 거의 0 에 가까운 것으로 가정할 수 있다.Assuming that the mobile device performs pure translational motion, the relative camera frame does not change direction with respect to movement, so the change in the Z-axis rotation angle can be assumed to be ψ = 0. Additionally, the rotation amount of the X and Y axes of the camera frame can be assumed to be close to 0.

따라서 옵티컬 플로우는 아래와 같은 수식을 따르며, 미지수는 ωy= θ, wx = ф 로 줄어든다. 여기에서 두 이미지의 초점 위치의 이동량은 (Tx, Ty, 이고, Z는 카메라의 높이이다. t, t-1 시간에 촬영된 이미지에 관심 물체의 이미지 좌표는 (u’, v’), (u, v)이다.Therefore, the optical flow follows the formula below, and the unknowns are reduced to ωy = θ, wx = ф. Here, the amount of movement of the focus position of the two images is (Tx, Ty, and Z is the height of the camera. The image coordinates of the object of interest in the image taken at time t, t-1 are (u', v'), ( u, v).

상기 식으로부터 상기 연속하여 수신된 이미지의 상대적 회전각의 변화량 ωy= θ, wx = ф를 구할 수 있게 된다.From the above equation, it is possible to obtain the change amount ωy=θ, wx=ф in the relative rotation angle of the continuously received images.

1160 단계에서 지형지물 위치정보 갱신장치는 상기 연속하여 수신된 이미지간의 상대적 회전각 변화량 및 상기 카메라 평면 좌표 이동량을 이용하여 상기 검증 지형지물의 3차원 위치정보를 계산한다.In step 1160, the feature location information update device calculates the 3D location information of the verification feature using the relative rotation angle change between successively received images and the camera plane coordinate movement amount.

즉, 2D 타일 정보에 포함된 지형지물의 3차원 위치정보와 연속된 이미지의 회전각 및 카메라 중심좌표 이동량으로 계산된 동일 지형지물의 3차원 위치정보의 차이를 계산할 수 있다.In other words, the difference between the 3D location information of the feature included in the 2D tile information and the 3D location information of the same feature calculated from the rotation angle and camera center coordinate movement amount of successive images can be calculated.

카메라의 외부 캘리브레이션 정보를 알게 되면, 관심 지형지물의 이미지 좌표에 대응되는 3차원 위치정보를 추출할 수 있다. 카메라의 외부 캘리브레이션 정보는 연속된 두 이미지상의 회전각의 차이 및 카메라 중심좌표 이동거리로 구성된다.Once the camera's external calibration information is known, 3D location information corresponding to the image coordinates of the feature of interest can be extracted. The camera's external calibration information consists of the difference in rotation angle between two consecutive images and the camera center coordinate moving distance.

이중에서 회전각의 차이는 관심 지형지물의 광속흐름 정보를 이용하여 최소제곱법을 이용하여 추출 가능하고, 카메라 중심좌표 이동거리는 2D 타일맵의 서브그룹에 포함된 지형지물의 3차원 위치좌표를 이용하여 카메라 중심좌표를 취득하여, 카메라의 중심좌표 이동거리를 추출할 수 있다.Among these, the difference in rotation angle can be extracted using the least squares method using the light flux flow information of the feature of interest, and the camera center coordinate moving distance can be extracted using the 3D position coordinates of the feature included in the subgroup of the 2D tile map. By acquiring the center coordinates, the center coordinate movement distance of the camera can be extracted.

1170 단계에서 지형지물 위치정보 갱신장치는 상기 검증 지형지물에 대하여 계산된 위치정보와 상기 추출된 2차원 타일맵의 서브그룹에 포함된 검증 지형지물의 3차원 위치정보의 거리차가 일정 수준 이하인 경우, 상기 변경 지형지물 또는 신규 지형지물의 3차원 위치정보를 상기 2차원 타일맵에 업데이트한다.In step 1170, if the distance difference between the location information calculated for the verification feature and the 3D location information of the verification feature included in the subgroup of the extracted 2D tile map is below a certain level, the feature location information update device The 3D location information of the changed or new feature is updated in the 2D tile map.

즉, 현재 취득된 연속된 두장의 이미지에서 2D 타일맵에 포함된 검증 지형지물의 3차원 위치정보를 계산하여, 위치 정보의 정확도를 만족하는 경우, 2D 타일맵의 변경 지형지물 또는 신규 지형지물 위치정보를 갱신한다.In other words, the 3D location information of the verification feature included in the 2D tile map is calculated from the two consecutive images currently acquired, and if the accuracy of the location information is satisfied, the location information of the changed feature or new feature in the 2D tile map is calculated. Update .

1170 단계에서는 1160 단계에서 계산된 검증 지형지물의 3차원 위치정보 정확도가 일정 수준을 만족하는지 검증하는 것을 포함한다.Step 1170 includes verifying whether the accuracy of the 3D location information of the verification feature calculated in step 1160 satisfies a certain level.

수신된 2D 타일맵의 지형지물이 촬영된 연속된 두장의 이미지에 존재하는 검증 지형지물의 3차원 위치정보를 계산하고, 서버에서 수신한 2D 타일맵에 존재하는 위치정보와 비교하는 것이 바람직하다. 상기 비교를 통해, 일정 수준이상의 위치 정확도를 만족하는 경우, 기존의 2D 타일맵의 정보를 갱신하여 저장한다. 2D 타일맵의 정보를 갱신하는 것은 기존 지형지물의 변경 또는 삭제, 신규 지형지물의 위치정보를 추가하는 것을 포함한다.It is desirable to calculate the 3D location information of the verification feature present in two consecutive images in which the feature of the received 2D tile map is captured and compare it with the location information present in the 2D tile map received from the server. Through the above comparison, if the location accuracy exceeds a certain level is satisfied, the information of the existing 2D tile map is updated and stored. Updating the information of a 2D tile map includes changing or deleting existing features and adding location information of new features.

본 발명의 실시예에 따르면, 지형지물의 변화 감지를 위한 방법으로 크라우드소싱(crowdsourcing) 방법을 활용할 수 있다. 크라우드소싱(crowdsourcing) 방법은 드론의 카메라를 이용하여 노선의 정보를 촬영하고, 촬영된 이미지를 분석하여 변화가 탐지된 실시간 지형지물 정보를 업데이트할 수 있게 한다. 다수의 드론로부터 수신한 2D 타일맵 정보를 취합함으로써, 타일맵 서버(20)에 저장된 2D 타일맵 정보를 정밀하게 수정할 수 있게 된다.According to an embodiment of the present invention, a crowdsourcing method can be used as a method for detecting changes in geographical features. The crowdsourcing method uses a drone's camera to photograph route information and analyzes the captured images to update real-time geographic feature information where changes are detected. By collecting 2D tile map information received from multiple drones, it is possible to precisely modify the 2D tile map information stored in the tile map server 20.

본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터,데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~unit' used in this embodiment refers to software or hardware components such as FPGA (field-programmable gate array) or ASIC, and the '~unit' performs certain roles. However, '~part' is not limited to software or hardware. The '~ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

상술한 모든 기능은 상기 기능을 수행하도록 코딩된 소프트웨어나 프로그램 코드 등에 따른 마이크로프로세서, 제어기, 마이크로제어기, ASIC(Application Specific Integrated Circuit) 등과 같은 프로세서에 의해 수행될 수 있다. 상기 코드의 설계, 개발 및 구현은 본 발명의 설명에 기초하여 당업자에게 자명하다고 할 것이다.All of the above-described functions can be performed by a processor such as a microprocessor, controller, microcontroller, application specific integrated circuit (ASIC), etc. according to software or program code coded to perform the above functions. The design, development and implementation of the above code will be apparent to those skilled in the art based on the description of the present invention.

이상 본 발명에 대하여 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시켜 실시할 수 있음을 이해할 수 있을 것이다. 따라서 상술한 실시 예에 한정되지 않고, 본 발명은 이하의 특허청구범위의 범위 내의 모든 실시 예들을 포함한다고 할 것이다.Although the present invention has been described above with reference to embodiments, those skilled in the art can implement the present invention by making various modifications and changes without departing from the technical spirit and scope of the present invention. You will understand. Therefore, it is not limited to the above-described embodiments, and the present invention includes all embodiments within the scope of the following claims.

Claims (9)

3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법으로서,
상기 3차원 지형지물 위치 정보를 취득할 이미지 촬영 노선과 관련된 2차원 타일맵을 수신하는 단계;
상기 이미지 촬영 노선의 이미지를 일정 주기로 수신하고, 외부에서 수신된 신호를 이용하여, 상기 이미지가 수신된 동일한 시간에 상기 드론이 위치한 2차원 평면좌표를 산출하는 단계;
상기 수신된 이미지에 포함된 관심 지형지물을 분류하고, 상기 분류된 관심 지형지물간의 이미지 좌표를 이용하여, 상기 관심 지형지물의 시퀀스 정보를 추출하는 단계;
상기 이미지에서 추출된 관심 지형지물의 시퀀스 정보와 상기 2차원 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보가 일정수준 이상 일치하는 2차원 타일맵의 서브그룹을 1차 추출하는 단계;
상기 산출된 드론의 2차원 평면좌표의 시간 t와 시간 t+1의 좌표값을 이용하여 상기 드론의 방향각을 계산하고, 상기 계산된 방향각과 상기 2차원 타일맵의 서브그룹의 방향각 차이가 일정 수준 이하를 만족하는 2D 타일맵 서브그룹을 2차 추출하는 단계; 및
상기 2차 추출된 2D 타일맵 서브그룹에 포함된 지형지물의 평면 좌표 및 높이값을 이용하여 상기 이미지를 촬영한 카메라의 평면 좌표 및 높이값을 계산함으로써, 상기 드론의 위치를 계산하는 단계를 포함하고,
상기 2차원 타일맵을 서브그룹은 상기 영상 촬영 노선의 방향각 정보를 포함하는 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법.
A method for determining the location of a drone using 3D feature location information,
Receiving a two-dimensional tile map related to an image taking route to acquire the three-dimensional feature location information;
Receiving images of the image capture route at regular intervals and calculating two-dimensional plane coordinates where the drone is located at the same time when the images are received, using a signal received from an external source;
Classifying features of interest included in the received image and extracting sequence information of the features of interest using image coordinates between the classified features of interest;
First extracting a subgroup of a two-dimensional tile map in which sequence information of a feature of interest extracted from the image matches sequence information of a feature included in a subgroup of the two-dimensional tile map to a certain level or more;
The heading angle of the drone is calculated using the calculated two-dimensional plane coordinates of the drone at time t and the coordinate value of time t + 1, and the difference between the calculated heading angle and the heading angle of the subgroup of the two-dimensional tile map is Secondary extraction of 2D tile map subgroups that meet a certain level or less; and
Comprising the step of calculating the location of the drone by calculating the plane coordinates and height value of the camera that captured the image using the plane coordinates and height value of the feature included in the secondary extracted 2D tile map subgroup; ,
A method of determining the location of a drone using 3D feature location information, wherein the 2D tile map subgroup includes directional angle information of the image capture route.
제1 항에 있어서,
상기 지형지물의 높이값 변화폭을 기준으로 상기 2차원 타일맵을 서브그룹으로 분할하여 저장하고, 상기 서브그룹은 2차원 평면좌표상의 방향각 정보를 포함하는 것을 특징으로 하는 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법.
According to claim 1,
The two-dimensional tile map is divided into subgroups and stored based on the change range of the height value of the feature, and the subgroups include orientation angle information in two-dimensional plane coordinates using three-dimensional feature location information. How to determine the location of a drone.
제1 항에 있어서,
상기 카메라 평면 좌표 및 높이값을 계산할 때, 상기 2차 추출된 2차원 타일맵의 서브 그룹에 포함된 일정 수준 이상의 높이값을 갖는 상기 지형지물의 최상단의 평면 좌표 및 높이 정보를 이용하여 상기 수신된 이미지의 카메라 평면 좌표 및 높이값을 계산하는 것을 특징으로 하는 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법.
According to claim 1,
When calculating the camera plane coordinates and height value, the plane coordinates and height information of the top of the feature having a height value above a certain level included in the subgroup of the secondary extracted two-dimensional tile map are used to obtain the received image. A method for determining the location of a drone using 3D feature location information, characterized by calculating camera plane coordinates and height values.
제1 항에 있어서,
상기 이미지의 속성정보로 상기 이미지의 카메라 평면 좌표 및 높이값을 저장하는 3차원 지형지물 위치 정보를 이용한 드론의 위치 결정 방법.
According to claim 1,
A method of determining the location of a drone using 3D feature location information that stores the camera plane coordinates and height value of the image as attribute information of the image.
3차원 지형지물 위치 정보를 이용한 드론에 있어서,
상기 3차원 지형지물 위치 정보를 취득할 이미지 촬영 노선과 관련된 2차원 타일맵을 수신하는 타일맵 수신부;
상기 이미지 촬영 노선의 이미지를 일정 주기로 수신하는 이미지 수신부;
상기 수신된 이미지에 포함된 관심 지형지물을 분류하고, 상기 분류된 관심 지형지물간의 이미지 좌표를 이용하여, 상기 관심 지형지물의 시퀀스 정보를 추출하는 시퀀스 추출부;
상기 이미지에서 추출된 관심 지형지물의 시퀀스 정보와 상기 2차원 타일맵의 서브그룹에 포함된 지형지물의 시퀀스 정보가 일정수준 이상 일치하는 2차원 타일맵의 서브그룹을 1차 추출하는 서브그룹 1차 결정부;
외부에서 수신된 신호를 이용하여, 상기 이미지가 수신된 동일한 시간에 상기 드론가 위치한 2차원 평면좌표를 산출하고, 상기 산출된 드론의 2차원 평면좌표의 시간 t와 시간 t+1의 좌표값을 이용하여 상기 드론의 방향각을 계산하고, 상기 계산된 방향각과 상기 2차원 타일맵의 서브그룹의 방향각 차이가 일정 수준 이하를 만족하는 2D 타일맵 서브그룹을 2차 추출하는 서브그룹 2차 결정부; 및
상기 2차 추출된 2D 타일맵 서브그룹에 포함된 지형지물의 평면 좌표 및 높이값을 이용하여 상기 이미지를 촬영한 카메라의 평면 좌표 및 높이값을 계산함으로써, 상기 드론의 위치를 계산하는 위치 계산부를 포함하는 3차원 지형지물 위치 정보를 이용하여 위치를 결정하는 드론.
In a drone using 3D feature location information,
a tile map receiver that receives a 2-dimensional tile map related to an image taking route to acquire the 3-dimensional feature location information;
an image receiving unit that receives images of the image taking route at regular intervals;
a sequence extraction unit that classifies the feature of interest included in the received image and extracts sequence information of the feature of interest using image coordinates between the classified features of interest;
A subgroup primary decision unit that first extracts a subgroup of the two-dimensional tile map where the sequence information of the feature of interest extracted from the image and the sequence information of the feature included in the subgroup of the two-dimensional tile map match a certain level or more. ;
Using a signal received from outside, calculate the two-dimensional plane coordinates where the drone is located at the same time when the image was received, and use the coordinate values of time t and time t+1 of the calculated two-dimensional plane coordinates of the drone. A subgroup secondary decision unit that calculates the orientation angle of the drone and secondarily extracts a 2D tile map subgroup in which the difference between the calculated orientation angle and the orientation angle of the subgroup of the 2D tile map satisfies a certain level or less. ; and
A position calculation unit that calculates the location of the drone by calculating the plane coordinates and height values of the camera that captured the image using the plane coordinates and height values of the features included in the secondary extracted 2D tile map subgroup. A drone that determines its location using 3D location information of geographical features.
제5 항에 있어서,
상기 지형지물의 높이값 변화폭을 기준으로 상기 2차원 타일맵을 서브그룹으로 분할하여 저장하고, 상기 서브그룹은 2차원 평면좌표상의 방향각 정보를 포함하는 것을 특징으로 하는 3차원 지형지물 위치 정보를 이용하여 위치를 결정하는 드론.
According to clause 5,
The two-dimensional tile map is divided into subgroups and stored based on the change range of the height value of the feature, and the subgroups use 3D feature location information, wherein the subgroups include orientation angle information on two-dimensional plane coordinates. A drone that determines its location.
제5 항에 있어서,
상기 카메라의 평면 좌표 및 높이값을 계산할 때, 상기 2차 추출된 2차원 타일맵의 서브 그룹에 포함된 일정 수준 이상의 높이값을 갖는 상기 지형지물의 최상단의 평면 좌표 및 높이 정보를 이용하여 상기 수신된 이미지의 카메라 평면 좌표 및 높이값을 계산하는 것을 특징으로 하는 3차원 지형지물 위치 정보를 이용하여 위치를 결정하는 드론.
According to clause 5,
When calculating the plane coordinates and height value of the camera, the received plane coordinates and height information of the top of the feature having a height value above a certain level included in the subgroup of the secondary extracted two-dimensional tile map are used. A drone that determines its location using 3D feature location information, characterized by calculating the camera plane coordinates and height value of the image.
제5 항에 있어서,
상기 이미지의 속성정보로 상기 이미지의 카메라 평면 좌표 및 높이값을 저장하는 3차원 지형지물 위치 정보를 이용하여 위치를 결정하는 드론.
According to clause 5,
A drone that determines its location using 3D feature location information that stores the camera plane coordinates and height value of the image as attribute information of the image.
제1 항 내지 제4 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium recording a program for executing the method of any one of claims 1 to 4 on a computer.
KR1020210151605A 2021-11-05 2021-11-05 Method of determining the location of a drone using 3D terrain location information and a drone thereof KR102613590B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210151605A KR102613590B1 (en) 2021-11-05 2021-11-05 Method of determining the location of a drone using 3D terrain location information and a drone thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210151605A KR102613590B1 (en) 2021-11-05 2021-11-05 Method of determining the location of a drone using 3D terrain location information and a drone thereof

Publications (2)

Publication Number Publication Date
KR20230065732A KR20230065732A (en) 2023-05-12
KR102613590B1 true KR102613590B1 (en) 2023-12-13

Family

ID=86385829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210151605A KR102613590B1 (en) 2021-11-05 2021-11-05 Method of determining the location of a drone using 3D terrain location information and a drone thereof

Country Status (1)

Country Link
KR (1) KR102613590B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130037697A (en) * 2013-03-12 2013-04-16 노인철 The conflict prevention system and methods of unmanned aerial vehicle
KR101617078B1 (en) * 2014-02-24 2016-04-29 주식회사 한화 Apparatus and method for image matching unmanned aerial vehicle image with map image
KR20170111921A (en) * 2016-03-30 2017-10-12 팅크웨어(주) Method and system for controlling unmanned air vehicle
US10453351B2 (en) * 2017-07-17 2019-10-22 Aurora Flight Sciences Corporation System and method for detecting obstacles in aerial systems
KR102396330B1 (en) * 2019-12-26 2022-05-11 주식회사 딥인스펙션 System and method for establishing recovery of runway based on image, ai and reinforcement learning at war

Also Published As

Publication number Publication date
KR20230065732A (en) 2023-05-12

Similar Documents

Publication Publication Date Title
US11835357B2 (en) Camera based localization for autonomous vehicles
CN112785702B (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
US11094112B2 (en) Intelligent capturing of a dynamic physical environment
CN109405824A (en) A kind of multi-source perceptual positioning system suitable for intelligent network connection automobile
KR20190094405A (en) Method and system for video-based positioning and mapping
WO2018126228A1 (en) Sign and lane creation for high definition maps used for autonomous vehicles
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
KR102167835B1 (en) Apparatus and method of processing image
US11430199B2 (en) Feature recognition assisted super-resolution method
JP7273927B2 (en) Image-based positioning method and system
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
Ruotsalainen et al. Heading change detection for indoor navigation with a smartphone camera
CN112700486A (en) Method and device for estimating depth of road lane line in image
CN114969221A (en) Method for updating map and related equipment
Pauls et al. Automatic mapping of tailored landmark representations for automated driving and map learning
KR102613590B1 (en) Method of determining the location of a drone using 3D terrain location information and a drone thereof
US20230104937A1 (en) Absolute scale depth calculation device, absolute scale depth calculation method, and computer program product
KR102516450B1 (en) Method of generating map and visual localization system using the map
KR20230065733A (en) Method of updating 3D terrain location information and apparatus thereof
KR20230065731A (en) Method of updating 3D facility location information and apparatus thereof
CN116508071A (en) System and method for annotating automotive radar data
KR20230065730A (en) Method of determining the location of a mobile device using 3D facility location information and apparatus thereof
JP2017182564A (en) Positioning device, positioning method, and positioning computer program
WO2021004813A1 (en) Method and mobile entity for detecting feature points in an image
CN113011212A (en) Image recognition method and device and vehicle

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant