KR102520676B1 - Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same - Google Patents

Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same Download PDF

Info

Publication number
KR102520676B1
KR102520676B1 KR1020220024973A KR20220024973A KR102520676B1 KR 102520676 B1 KR102520676 B1 KR 102520676B1 KR 1020220024973 A KR1020220024973 A KR 1020220024973A KR 20220024973 A KR20220024973 A KR 20220024973A KR 102520676 B1 KR102520676 B1 KR 102520676B1
Authority
KR
South Korea
Prior art keywords
tree
information
data
module
lidar
Prior art date
Application number
KR1020220024973A
Other languages
Korean (ko)
Inventor
류영렬
양태강
권령섭
Original Assignee
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교 산학협력단 filed Critical 서울대학교 산학협력단
Priority to KR1020220024973A priority Critical patent/KR102520676B1/en
Application granted granted Critical
Publication of KR102520676B1 publication Critical patent/KR102520676B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/006Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

The present invention relates to a technology for detecting various information on trees using a vehicle sensor system which integrates four sensors: a thermal imaging camera, a camera, a LiDAR, and GPS. By installing the camera, the thermal imaging camera, the GPS, and the LiDAR sensor on the top of the vehicle and using fused high-dimensional data, tree species detection, which requires skilled manpower, is replaced with deep learning. The advantage of maximizing reliability and accuracy is realized by directly measuring structural information of trees, which was previously measured indirectly, through the LiDAR sensor.

Description

라이다 및 카메라 수집정보 기반 수목정보 탐지장치 및 이를 이용한 수목정보 탐지방법{Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same}Tree species detection apparatus based on LiDAR and camera collection information and tree information detection method using the same {Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same}

본 발명은 열화상 카메라, 카메라, 라이다, GPS 네 가지 센서를 통합한 차량 센서 시스템을 사용하여 수목의 다양한 정보를 탐지하는 기술에 대한 것이다. The present invention relates to a technology for detecting various information of a tree using a vehicle sensor system integrating four sensors: a thermal imaging camera, camera, LIDAR, and GPS.

식생조사는 녹지 및 산림 생태계에 분포하고 있는 식물군락의 체계화나 종 조성 식물사회학적 구조 등의 특성을 밝히기 위해 필수적으로 선행되어야 하는 항목이다. 식생조사는 주로 직접 관찰을 우선으로 하며, 현지에서 야장을 작성하거나 사진촬영, 녹음 등을 통한 기록을 충실히 수행하여야 한다.Vegetation investigation is an essential precedent for identifying characteristics such as systematization of plant communities distributed in green and forest ecosystems, species composition, and plant sociological structure. Vegetation surveys give priority to direct observation, and records must be faithfully performed through field records or photography and recording.

식생조사시 획득한 정보를 기입하는 종이를 일반적으로 야장(혹은 조사표)이라고 한다. 이때 사용되는 종이 야장은 몇 가지 문제점을 가지고 있다. 식생평가를 위해서는 현장에서 수기로 기록된 야장을 직접 컴퓨터에 입력하는 과정을 거쳐야 한다. 이 과정에서 복귀 후 별도의 정보 이동 입력 시간이 추가로 소요되며, 입력과정에서 발생할 수 있는 입력오류, 입력 지체에 따른 야장 망실 및 훼손 우려, 입력 후 종이 야장 정보와 컴퓨터 입력 정보의 대조 시간 등이 발생한다.The paper on which information obtained during vegetation survey is written is generally called field field (or survey table). The paper yard used at this time has several problems. In order to evaluate vegetation, it is necessary to go through the process of directly inputting field records manually recorded in the field into a computer. In this process, it takes additional time to transfer and input information after returning, and input errors that may occur during the input process, concerns about loss and damage of the field field due to delay in input, time to compare paper field information and computer input information after input, etc. Occurs.

특히, 도시 내에 존재하는 도시 규모의 식생 또는 수종(樹種)에 대한 데이터를 확보할 수 있는 방법은 조사인력을 투입하여 대상 수종에 대한 도시내 위치와 종류를 관측하는 것이 주를 이루고 있으며, 이에 정확한 도시 내 존재하는 수종의 파악은 많은 시간과 비용을 소모하게 하는 문제를 가지고 있다.In particular, the method to secure data on urban-scale vegetation or tree species existing in a city is mainly to observe the location and type of target tree species within the city by injecting survey personnel. Identification of tree species existing in a city has a problem that consumes a lot of time and money.

최근 도시의 녹화 공간을 파악하는 기술은 항공사진을 통해 분석하는 기술이 도입되어, 식생의 분포를 파악하는 기술이 공개(한국 등록특허 제10-1150510호)되어 있으나, 이 경우에도 정확한 수종의 파악과 분류는 구현할 수 없다. 특히 녹화지대의 3차원 구조의 식생구조를 파악하는 정도에 그치고 있으며, 기본 자료 확보를 위해 운영하는 항공기의 운용비용이 매우 고가이며, 항공경로를 수정이 어려워 재촬영이 어려우며, 필요시마다 촬영이 어려운 문제로 실용성이 매우 떨어지게 되는 단점이 있다. 나아가, 항공촬영의 경우, 수종의 상부 부분만을 촬영하게 되는 바, 정확한 수종을 파악하는데 한계가 있다. 이에, 보다 정확한 수종의 파악과 분포를 신속하게 구현할 수 있는 기술의 필요성이 커지고 있다.Recently, a technology to analyze the greening space of a city has been introduced through aerial photography, and a technology to determine the distribution of vegetation has been disclosed (Korean Registered Patent No. 10-1150510), but even in this case, accurate identification of tree species Overclassification cannot be implemented. In particular, it is limited to grasping the vegetation structure of the three-dimensional structure of the greening area, and the operating cost of the aircraft operated to secure basic data is very expensive, and it is difficult to re-shoot because it is difficult to modify the flight route, and it is difficult to take pictures whenever necessary. There is a disadvantage that the practicality is very low as a problem. Furthermore, in the case of aerial photography, since only the upper part of the tree species is photographed, there is a limit to accurately identifying the tree species. Accordingly, there is a growing need for a technology capable of quickly realizing more accurate identification and distribution of tree species.

이에, 본 출원인은 한국등록특허 제10-2308456호에서는, 차량에 라이다 센서를 장착하여, 수종을 탐지하는 기법을 제안하여, 딥러닝모델을 적용하여 자동적으로 수종을 결정하는 방법을 제안한바 있다.Accordingly, in Korea Patent Registration No. 10-2308456, the present applicant proposes a technique for detecting tree species by mounting a lidar sensor on a vehicle, and a method for automatically determining tree species by applying a deep learning model. .

그러나, 도시 스케일의 수목 정보의 관리를 위해서는 수목의 정보가 수종의 분류에 한정되지 않고, 해당 수목들의 상세 구조정보(수고, 흉고, 수관고, 지하고, 수관폭 등) 및 수목의 상태정보(수목의 온도, 위치정보 등)가 함께 필요하게 된다.However, in order to manage tree information on a city scale, tree information is not limited to the classification of tree species, and detailed structural information (height, chest height, crown height, basement height, crown width, etc.) and tree state information ( tree temperature, location information, etc.) are required together.

도시 규모의 수종 데이터를 수집하는 빠르고 자율적인 방법에서, 기존 방식은 사람이 일일이 대상 수종을 관측하는 방식으로, 가로수의 다양한 정보(ex 수종명, 수고, 흉고 직경 등)를 수집하기 위해서는 많은 시간과 노동력이 소모되는 단점이 있다. 더불어 수종의 경우 분류하는데 숙련된 인력이 필요하고, 수고와 흉고직경 등의 수목 구조 정보는 간접 측량의 방식을 사용해서 측정해왔으므로 그 측정값이 정확하지 않다.In the fast and autonomous method of collecting city-scale tree species data, the existing method is a method in which a person observes the target tree species one by one. The downside is that it consumes manpower. In addition, skilled manpower is required to classify tree species, and tree structure information such as height and breast height has been measured using an indirect measurement method, so the measured values are not accurate.

본 출원인의 한국등록특허 제10-2308456호의 기술은 노동력과 시간을 절감하여 수종을 탐지하는 탁월한 효과를 제공하지만, 상세한 수목의 구조 정보(수목의 온도, 수고, 흉고 등의 수목구조 정보)까지는 산출할 수 없으며, 이에, 상세한 수목정보를 도출할 수 있는 기술개발의 필요성이 대두된다.The technology of Korean Patent Registration No. 10-2308456 of the present applicant provides an excellent effect of detecting tree species by saving labor and time, but calculates detailed tree structure information (tree structure information such as tree temperature, height, chest height, etc.) Therefore, the need for technology development that can derive detailed tree information is emerging.

한국등록특허 제10-2308456호Korean Patent Registration No. 10-2308456 한국등록특허 제10-1150510호Korean Patent Registration No. 10-1150510 한국등록특허 제10-1561669호Korean Patent Registration No. 10-1561669

본 발명은 상술한 필요성을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 차량 상단에 카메라, 열화상 카메라, GPS, 라이다 센서를 설치하여 융합된 고차원 데이터를 사용함으로써 숙련된 인력이 필요한 수종 탐지를 딥러닝으로 대체하고, 간접 측량이 이루어지던 수목의 구조 정보를 라이다 센서를 통해 직접 측량함으로써 신뢰성 및 정확도를 극대화할 수 있는 동시에, 차량을 통해서 도시 식생을 스캔하고 자동적으로 가로수의 수종, 구조 정보, 온도 정보, 위치 정보를 탐지함으로써 기존 사람이 직접 관측하던 방식에 비해 조경관리에 드는 노동력과 시간을 절감하고, 관리의 규모를 도시 스케일로 확장할 수 있는 기술을 제공하는 데 있다.The present invention has been made to solve the above-mentioned needs, and an object of the present invention is to install a camera, a thermal imaging camera, a GPS, and a lidar sensor on top of a vehicle to detect tree species requiring skilled manpower by using converged high-dimensional data. is replaced by deep learning, and reliability and accuracy can be maximized by directly measuring tree structure information, which used to be indirect surveying, through lidar sensors, while scanning urban vegetation through vehicles and automatically By detecting information, temperature information, and location information, it is to provide a technology that can reduce the labor and time required for landscaping management compared to the existing method of direct observation by a person, and expand the scale of management to the city scale.

상술한 과제를 해결하기 위한 수단으로서, 본 발명의 실시예에서는, 도 1 내지 도 4에 도시된 것과 같이, 데이터의 위치 정보 생성하는 단계인, 지상에서 이동하는 이동형 주행장치(S: 차량); 상기 이동형 주행장치(S)에 장착되어, 주변경관에 대한 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지, 위치데이터를 형성하는 센서모듈(100); 상기 센서모듈(100)에서 제공되는 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 융합하여 수종분류에 적용되는 정보를 포함하는 융합데이터를 형성하고, 수종에 대한 정보를 산출하는 수종정보 산출모듈(200); 상기 수종정보 산출모듈(200)에서 산출되는 수종에 대한 구조정보를 저장하여 분류하는 도시 가로수 데이터베이스(300);를 포함하며, 상기 수종정보 산출모듈(200)은, 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 융합하여 수종분류에 적용되는 정보를 포함하는 융합데이터를 딥러딩모델에 입력변수로 하여 수목의 온도 정보와 위치정보를 포함하는 수종 정보를 생성하고, 상기 포인트 클라우드 데이터에서 수목 포인트 클라우드 데이터를 분류하여, 수목의 수고, 흉고직경, 수관폭, 지하고, 수관고 중 어느 하나를 포함하는 수목구조정보를 취득하는, 라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지장치를 제공할 수 있도록 한다.As a means for solving the above problems, in an embodiment of the present invention, as shown in FIGS. 1 to 4, the step of generating location information of data, a mobile traveling device (S: vehicle) that moves on the ground; a sensor module (100) mounted on the mobile traveling device (S) to form image data, point cloud data, thermal image, and location data for the surrounding scenery; Tree species information calculation module 200 that fuses image data, point cloud data, and thermal images provided from the sensor module 100 to form convergence data including information applied to tree species classification, and calculates information about tree species. ); and an urban street tree database 300 for storing and classifying structural information on tree species calculated by the tree species information calculation module 200, wherein the tree species information calculation module 200 includes image data, point cloud data, and columns. By fusing image images, using the fusion data including information applied to tree species classification as an input variable to the deep learning model, tree species information including temperature information and location information of trees is generated, and tree point cloud data is obtained from the point cloud data. To provide a tree information detection device applying lidar and composite camera modules to obtain tree structure information including any one of tree height, breast height diameter, crown width, basement, and crown height by classifying do.

또한, 본 발명이 다른 실시예에서는, 상술한 수목정보 탐지장치를 적용하여 수목정보를 탐지하되, 지상에서 이동하는 이동형 주행장치(S)에 장착된 카메라모듈(110), 라이다모듈(120),열화상모듈(130), GPS모듈(130)을 포함하는 센서모듈(100)에서 제공되는 데이터를 입력받아 데이터취득부(210)에서 전처리하는 1단계; 상기 캘리브레이션부(220)에서 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 캘리브레이션을 통해 융합하여, 딥러닝에 사용될 융합데이터를 형성하는 2단계; 상기 딥러닝부(230)에서, 수종분류에 적용되는 정보를 포함하는 상기 융합데이터를 딥러딩모델에 입력변수로 하여 수목의 온도 정보와 위치정보를 포함하는 수종 정보를 생성하는 3단계; 상기 수목 구조 정보 산출부(240)에서, 상기 포인트 클라우드 데이터에서 수목 포인트 클라우드 데이터를 분류하여, 수목의 수고, 흉고직경, 수관폭, 지하고, 수관고를 포함하는 수목 구조 정보룰 산출하는 4단계; 상기 딥러닝부(230)에서 도출되는 수종 정보와, 상기 수목구조정보 산출부(240)에서 도출되는 수목 구조 정보, 상기 데이터취득부(210)에서 취득된 수목 표면 온도와 위치 정보를 활용하여 가로수 데이터베이스 구축을 수행하는 5단계; 를 포함하는, 라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지방법을 제공할 수 있도록 한다.In addition, in another embodiment of the present invention, the above-described tree information detection device is applied to detect tree information, but the camera module 110 and lidar module 120 mounted on the mobile traveling device (S) moving on the ground Step 1 of receiving data provided from the sensor module 100 including the thermal image module 130 and the GPS module 130 and pre-processing it in the data acquisition unit 210; a second step of fusing image data, point cloud data, and thermal images through calibration in the calibration unit 220 to form convergence data to be used for deep learning; a third step of generating, in the deep learning unit 230, tree species information including temperature information and location information of trees by using the fusion data including information applied to tree species classification as an input variable to a deep learning model; Step 4 of classifying tree point cloud data from the point cloud data in the tree structure information calculation unit 240 and calculating tree structure information including tree height, breast height diameter, crown width, height below ground level, and crown height of the tree; The tree species information derived from the deep learning unit 230, the tree structure information derived from the tree structure information calculation unit 240, and the tree surface temperature and location information obtained from the data acquisition unit 210 are utilized to make a street tree. 5 steps to perform database construction; Including, it is possible to provide a tree information detection method applying LiDAR and a composite camera module.

본 발명의 실시예에 따르면, 차량 상단에 카메라, 열화상 카메라, GPS, 라이다 센서를 설치하여 융합된 고차원 데이터를 사용함으로써 숙련된 인력이 필요한 수종 탐지를 딥러닝으로 대체하고, 간접 측량이 이루어지던 수목의 구조 정보를 라이다 센서를 통해 직접 측량함으로써 신뢰성 및 정확도를 극대화할 수 있는 효과가 있다According to an embodiment of the present invention, by installing a camera, a thermal imaging camera, a GPS, and a lidar sensor on top of a vehicle and using converged high-dimensional data, tree species detection requiring skilled personnel is replaced with deep learning, and indirect surveying is performed. It has the effect of maximizing reliability and accuracy by directly measuring the structure information of the fallen tree through the lidar sensor.

또한, 본 발명에 따르면, 차량을 통해서 도시 식생을 스캔하고 자동적으로 가로수의 수종, 구조 정보, 온도 정보, 위치 정보를 탐지함으로써 기존 사람이 직접 관측하던 방식에 비해 조경관리에 드는 노동력과 시간을 절감하고, 관리의 규모를 도시 스케일로 확장할 수 있다.In addition, according to the present invention, by scanning urban vegetation through a vehicle and automatically detecting tree species, structure information, temperature information, and location information of street trees, labor and time required for landscaping management are reduced compared to the existing method directly observed by a person. and the scale of management can be expanded to the city scale.

나아가, 이동형 장비(차량)에 탑재하는 라이다와 카메라 모듈, 열화상 카메라모듈을 통해 다양한 센싱 데이터를 확보하고 이에 대한 분석을 통해 정확한 수종을 탐지하는 동시에, 수목 자체의 구조적인 정보를 도출하는 데이터를 구현하고 수목구조정보를 산출하는 방식을 구현한다. 이를통해 기존 항공기 기반 시스템에 비해 매우 저렴한 비용으로 정확한 수종 탐지 및 수목 구조 정보의 도출이 가능하며, 차량기반의 시스템인바, 동일한 지역에 대한 반복촬영이 가능하게 되며, 탐지하고자 하는 수종의 전면부의 촬영을통해 보다 정확한 수종 탐지 및 수목 구조 정보의 도출이 가능한 장점이 구현된다.Furthermore, various sensing data are secured through lidar, camera modules, and thermal imaging camera modules mounted on mobile equipment (vehicles), and through analysis of these data, accurate tree species are detected and data that derives structural information of the tree itself. and a method for calculating tree structure information. Through this, it is possible to accurately detect tree species and derive tree structure information at a very low cost compared to existing aircraft-based systems, and since it is a vehicle-based system, it is possible to repeatedly photograph the same area, and to photograph the front of the tree species to be detected. Through this, the advantage of being able to more accurately detect tree species and derive tree structure information is realized.

또한, 기존 출원인의 기존 등록특허(한국등록특허 제10-2308456호)의 라이다 및 카메라 데이터 각각에 대한 딥러닝 적용 기법의 오차율을 개선기 위해, 두 개의 딥러닝 모델을 하나로 통합하여 전체 프로세서 관리 및 개선을 용이하게 하고, 열화상 카메라 데이터에서 비롯된 온도 정보를 딥러닝 변수에 추가로 포함하여 수종 정보 탐지 딥러닝 모델의 성능을 개선하였다.In addition, in order to improve the error rate of the deep learning application technique for each lidar and camera data of the previous registered patent (Korean Patent Registration No. 10-2308456) of the previous applicant, two deep learning models are integrated into one to manage the entire processor And it facilitates improvement, and improves the performance of the deep learning model for detecting species information by additionally including the temperature information derived from the thermal image camera data as a deep learning variable.

또한, 본 발명에서는, 인풋 단계에서 센서들 간의 데이터를 캘리브레이션을 통해 융합한 고차원데이터 (RGB 및 온도 정보를 포함하는 포인트클라우드)를 사용함으로써, 각 센서가 생성해내는 데이터의 차원이 다른 문제 [포인트클라우드는 3차원, 이미지들은 2차원; 각 차원이 담고 있는 정보 (포인트클라우드:intensity,이미지:온도,RGB) 포함 시 4차원,3차원] 로부터 비롯되는 단일 딥러닝 모델 구성의 어려움을 해소하여 효율화할 수 있도록 하였다.In addition, in the present invention, by using high-dimensional data (point cloud including RGB and temperature information) that fuses data between sensors through calibration in the input stage, the problem of different dimensions of data generated by each sensor [point cloud] Clouds are 3D, images are 2D; When the information contained in each dimension (point cloud: intensity, image: temperature, RGB) is included, the difficulty of constructing a single deep learning model derived from 4-dimensional, 3-dimensional] has been resolved to improve efficiency.

도 1 및 도 2는 본 발명의 실시예에 따른 라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지장치(이하, '본 발명'이라 한다.)의 시스템 구성 블록도이다.
도 3 및 도 4는 도 1의 시스템을 이용하여 수종탐지를 수행하는 과정을 도시한 순서도이다.
도 5 내지 도 14는 도 1 및 도 2의 구성을 설명하기 위한 개념도이다.
1 and 2 are block diagrams of a system configuration of an apparatus for detecting tree information (hereinafter, referred to as 'the present invention') to which a lidar and composite camera module are applied according to an embodiment of the present invention.
3 and 4 are flowcharts illustrating a process of performing tree species detection using the system of FIG. 1 .
5 to 14 are conceptual diagrams for explaining the configuration of FIGS. 1 and 2 .

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예를 참조하면 명확해질 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete and the spirit of the present invention will be sufficiently conveyed to those skilled in the art.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings in the context of the related art, and unless explicitly defined in this application, they should not be interpreted in ideal or excessively formal meanings. don't

도 1 및 도 2는 본 발명의 실시예에 따른 라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지장치(이하, '본 발명'이라 한다.)의 시스템 구성 블록도이다. 도 3 및 도 4는 도 1의 시스템을 이용하여 수종탐지를 수행하는 과정을 도시한 순서도이다.1 and 2 are block diagrams of a system configuration of an apparatus for detecting tree information (hereinafter, referred to as 'the present invention') to which a lidar and composite camera module are applied according to an embodiment of the present invention. 3 and 4 are flowcharts illustrating a process of performing tree species detection using the system of FIG. 1 .

도 1 내지 도 4를 참조하면, 본 발명은 지상에서 이동하는 이동형 주행장치(S: 차량);1 to 4, the present invention is a mobile traveling device (S: vehicle) that moves on the ground;

상기 이동형 주행장치(S)에 장착되어, 주변경관에 대한 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지, 위치데이터를 형성하는 센서모듈(100)과, 상기 센서모듈(100)에서 제공되는 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 융합하여 수종분류에 적용되는 정보를 포함하는 융합데이터를 형성하고, 수종에 대한 정보를 산출하는 수종정보 산출모듈(200) 및 상기 수종정보 산출모듈(200)에서 산출되는 수종에 대한 구조정보를 저장하여 분류하는 도시 가로수 데이터베이스(300)를 포함하여 구성된다.A sensor module 100 mounted on the mobile traveling device S to form image data, point cloud data, thermal image, and location data of the surrounding scenery, image data provided from the sensor module 100, Convergence data including information applied to tree species classification is formed by converging point cloud data and thermal images, and is calculated by the tree species information calculation module 200 and the tree species information calculation module 200 that calculates information on tree species. It is configured to include a city street tree database 300 that stores and classifies structural information on tree species to be classified.

특히, 상기 수종정보 산출모듈(200)은, 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 융합하여 수종분류에 적용되는 정보를 포함하는 융합데이터를 딥러딩모델에 입력변수로 하여 수목의 온도 정보와 위치정보를 포함하는 수종 정보를 생성하고, 상기 포인트 클라우드 데이터에서 수목 포인트 클라우드 데이터를 분류하여, 수목의 수고, 흉고직경, 수관폭, 지하고, 수관고 중 어느 하나를 포함하는 수목구조정보를 취득하도록 하며, 취득된 정보들은 도시 가로수 데이터베이스(300)로 구축할 수 있도록 한다. 이러한 과정은, 추후 도시 규모에서 정기적으로 편리하게 도심 녹지를 관리하고 수목 데이터베이스를 업데이트 하여 모니터링할 수 있게 된다.In particular, the tree species information calculation module 200 converges image data, point cloud data, and thermal images, and sets fusion data including information applied to tree species classification as an input variable to a deep learning model to obtain tree temperature information and Tree species information including location information is generated, tree point cloud data is classified from the point cloud data, and tree structure information including any one of tree height, diameter at chest height, crown width, basement height, and crown height is acquired. and the acquired information can be built into the city street tree database 300. This process can be regularly and conveniently managed on a city scale and monitored by updating the tree database.

본 발명은 이동형 주행장치(S)는, 도 5에 도시된 것과 같이, 자동차에 배치되는 적어도 하나의 라이다(LiDAR: Light Detection and Ranging) 센서 모듈(120) 및 카메라모듈(110), 열화상 카메라모듈(130), GPS모듈(140)을 모함하는 센서모듈(100)을 장착하는 방식에 대해 기재하고 있으나 이는 일 실시예에 따른 것으로서, 라이다 데이터 및 영상을 융합하여 객체를 검출하는 다양한 분야에 적용될 수 있으며, 자동차에 한정하지 않고, 다양한 이동형 장치(원동기, 드론, 헬기 등)에 응용될 수 있음은 자명하다 할 것이다. 다만, 본 발명의 바람직한 실시예에서는, 저렴한 비용으로 수목 구조 정보를 도출하기 위한 방안으로 자동차를 적용하여 구현하는 것을 적용예로 하여 설명하기로 한다.As shown in FIG. 5, the mobile traveling device S of the present invention includes at least one LiDAR (Light Detection and Ranging) sensor module 120 and a camera module 110 disposed in a vehicle, and a thermal image Although the method of mounting the sensor module 100 containing the camera module 130 and the GPS module 140 is described, this is according to an embodiment, and various fields of detecting objects by converging lidar data and images It can be applied to, and it will be obvious that it can be applied to various mobile devices (motor, drone, helicopter, etc.), not limited to automobiles. However, in a preferred embodiment of the present invention, as a method for deriving tree structure information at low cost, implementation by applying a car will be described as an application example.

상기 카메라모듈(110)은 이동형 주행장치(S: 차량)의 상부에 장착되며, 차량의 주변환경(전방)을 촬영한 영상을 생성하고, 생성된 영상을 수목 정보 산출모듈(200)의 데이터취득부(210)으로 전달하는 동작을 수행한다. 여기서, 영상은 복수의 이미지를 포함하고, 각각의 이미지에는 사람의 눈과 비슷한 컬러정보가 포함되어 있는 3D 형태의 이미지 데이터를 의미한다. 카메라 모듈은 차량 주변의 영상에 대한 이미지를 생성할 수 있다면 다양한 형태의 영상 촬영장치로 구현될 수 있다.The camera module 110 is mounted on the upper part of the mobile traveling device (S: vehicle), generates an image of the surrounding environment (front) of the vehicle, and acquires the data of the tree information calculation module 200 from the generated image. An operation of transmitting to the unit 210 is performed. Here, the video includes a plurality of images, and each image refers to 3D image data including color information similar to that of the human eye. The camera module may be implemented in various types of image capturing devices as long as it can generate an image of an image around the vehicle.

상기 열화상 카메라모듈(130)은 차량 외부의 주변 경관에 포함되는 수목의 열화상 이미지를 촬영하여 송신할 수 있는 장치 모듈로, 열화상카메라와 이를 통해 촬영되는 이이지를 전송할 수 있는 전송장치를 포함하는 개념이다.The thermal imaging camera module 130 is a device module capable of capturing and transmitting a thermal image of a tree included in the surrounding landscape outside the vehicle, and includes a thermal imaging camera and a transmission device capable of transmitting EZ images captured through the thermal imaging camera. It is a concept that

상기 라이다 모듈(120)은 차량의 상부에 장착되며, 차량의 주변(전방)을 향하여 레이저를 발사한다. 본 발명의 실시예에서는, 전방 외에도 360도 회전이 가능한 구조의 라이다 모듈(이를테면, Velodyne라이다)을 적용할 수 있으나, 이에 한정되는 것은 아니다. 본 발명에 적용되는 라이다모듈의 경우 공지의 라이다 센서를 다양하게 결합하여 구현이 가능하며, 360도 회전이 가능한 모듈구조, 또는 적어도 하나 이상의 라이다 모듈을 조합하여 3차원 포인트 클라우드 취득이 가능한 구조로 구현하는 것도 가능하다. 라이다 모듈(120)은 라이다 센서에 의해 발사된 레이저는 산란되거나 반사되어 차량으로 되돌아올 수 있다. 라이다 센서는 레이저를 이용하여 측정한 거리정보(Distance Information)를 3D 공간에서 점들의 집합(Point Set) 형태로 나타내며, 이러한 거리정보를 포함하는 라이다 데이터(이하, 포인트 클라우드 데이터'라 한다.)를 수종탐지모듈(200)로 전달한다. 예를 들어, 라이다 센서는 레이저가 되돌아오는 시간, 강도, 주파수의 변화, 편광 상태의 변화를 기초로, 차량의 주변에 위치하는 타겟의 물리적 특성에 대한 정보를 획득할 수 있다.The lidar module 120 is mounted on the top of the vehicle and emits a laser toward the periphery (front) of the vehicle. In an embodiment of the present invention, a lidar module (eg, Velodyne lidar) having a structure capable of rotating 360 degrees in addition to the front can be applied, but is not limited thereto. In the case of the lidar module applied to the present invention, it can be implemented by combining known lidar sensors in various ways, and it is possible to obtain a 3D point cloud by combining a module structure capable of rotating 360 degrees or at least one lidar module. It is also possible to implement it as a structure. In the lidar module 120, the laser emitted by the lidar sensor may be scattered or reflected and returned to the vehicle. The lidar sensor represents distance information measured using a laser in the form of a set of points in 3D space, and lidar data including such distance information (hereinafter, referred to as 'point cloud data'. ) is transmitted to the tree species detection module 200. For example, the LIDAR sensor may obtain information about physical characteristics of a target located around the vehicle based on a change in time, intensity, frequency, and polarization state of the laser beam.

상기 GPS모듈(140)은 차량의 위치 정보를 산출하고, 상술한 카메라모듈(110), 라이다모듈(120), 열화상카메라모듈(130)에서 센싱되는 데이터에 대한 위치정보를 도출하여 결합할 수 있는 위치 데이터를 형성할 수 있도록 한다.The GPS module 140 calculates the location information of the vehicle, and derives and combines location information about the data sensed by the camera module 110, lidar module 120, and thermal image camera module 130 described above. It enables the formation of positional data that can be used.

본 발명에서는 차량 상단에 상술한 카메라, 열화상 카메라, GPS, 라이다 센서를 설치하여 융합된 고차원 데이터를 사용함으로써 숙련된 인력이 필요한 수종 탐지를 딥러닝으로 대체하고, 간접 측량이 이루어지던 수목의 구조 정보를 라이다 센서를 통해 직접 측량함으로써 기존의 전통적 방식을 개선할 수 있는 장치 및 시스템 기술을 제공할 수 있다.In the present invention, by installing the above-described camera, thermal imaging camera, GPS, and LiDAR sensor on top of the vehicle and using converged high-dimensional data, detection of tree species requiring skilled personnel is replaced with deep learning, and It is possible to provide a device and system technology that can improve the existing traditional method by directly measuring structural information through a LIDAR sensor.

이를 위해, 본 발명의 센서모듈(100)은, 도 1 및 도 2에 도시된 것과 같이, 상기 이동형 주행장치(S)에 장착되어, 주변경관에 대한 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지, 위치데이터를 형성하는 기능을 수행한다.To this end, the sensor module 100 of the present invention, as shown in FIGS. 1 and 2, is mounted on the mobile traveling device (S), image data for the surrounding scenery, point cloud data, thermal image, It performs a function of forming location data.

상기 센서모듈(100)은, 차량이 주행하는 주변 경관의 이미지 데이터를 수집하는 카메라모듈(110)과, 차량이 주행하는 주변 경관의 포인트 클라우드 데이터를 수집하는 라이다모듈(120), 차량이 주행하는 주변 경관의 열화상 이미지 데이터를 수집하는 열화상 카메라모듈(130)과, 주행하는 차량의 위치 정보를 수집하며, 상술한 주변 경관에 대한 데이터의 위치정보를 도출할 수 있는 정보를 제공하는 GPS모듈(140)을 포함하여 구성될 수 있다.The sensor module 100 includes a camera module 110 that collects image data of the surrounding scenery in which the vehicle is driving, a lidar module 120 that collects point cloud data of the surrounding scenery in which the vehicle is driving, and a vehicle driving A thermal imaging camera module 130 that collects thermal image data of the surrounding landscape, and a GPS that collects location information of a driving vehicle and provides information for deriving the location information of the data on the surrounding landscape. It may be configured to include module 140 .

상술한 센서모듈(100)에서 제공되는 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지 데이터는 수종정보 산출모듈(200)로 전송되며, 상기 수종정보 산출모듈(200)에서는, 상기 센서모듈(100)에서 제공되는 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 융합하여 수종분류에 적용되는 정보를 포함하는 융합데이터를 형성하고, 수종에 대한 정보를 산출하게 된다.Image data, point cloud data, and thermal image data provided by the sensor module 100 described above are transmitted to the tree species information calculation module 200, and in the tree species information calculation module 200, the sensor module 100 The provided image data, point cloud data, and thermal image are fused to form fusion data including information applied to tree species classification, and information on tree species is calculated.

이를 위해, 상기 수종정보 산출모듈(200)은, 도 1 및 도 2에 도시된 것과 같이, 상기 이동형 주행장치(S)에 장착되는, 카메라모듈(110), 라이다모듈(120), 열화상모듈(130), GPS모듈(130)을 포함하는 센서모듈(100)에서 제공되는 데이터를 입력받아 전처리하는 데이터취득부(210)와, 상기 센서모듈(100)에서 제공되는, 주변경관에 대한 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 캘리브레이션을 통해 융합하여, 딥러닝에 사용될 융합데이터를 형성하는 캘리브레이션부(220), 수종분류에 적용되는 정보를 포함하는 상기 융합데이터를 딥러딩모델에 입력변수로 하여 수목의 온도 정보와 위치정보를 포함하는 수종 정보를 생성하는 딥러닝부(230), 상기 포인트 클라우드 데이터에서 분리된 '수목 포인트 클라우드'를 바탕으로, 수고, 흉고직경, 수관폭, 지하고, 수관고를 산출하는 수목구조정보 산출부(240)을 포함하여 구성될 수 있다.To this end, the tree species information calculation module 200, as shown in FIGS. 1 and 2, mounted on the mobile traveling device (S), the camera module 110, lidar module 120, thermal image The data acquisition unit 210 for receiving and pre-processing the data provided from the sensor module 100 including the module 130 and the GPS module 130, and the image of the surrounding scenery provided from the sensor module 100 Calibration unit 220 that fuses data, point cloud data, and thermal images through calibration to form convergence data to be used for deep learning, and inputs the convergence data including information applied to species classification to the deep learning model The deep learning unit 230 generates tree species information including temperature information and location information of trees by using a tree height, height at breast height, crown width, and height based on the 'tree point cloud' separated from the point cloud data. , a tree structure information calculating unit 240 that calculates the height of a tree can be configured.

상기 데이터취득부(210)는, 다양한 센서에서 제공되는 데이터를 가공 전처리하고, 분류하는 기능을 수행하며, 구체적으로, 카메라 렌즈에 의해 발생되는 이미지 데이터 및 열화상 이미지의 가장자리의 왜곡을 제거하는 제1처리부(212)와, 포인트 클라우드 데이터의 노이즈를 통계적 아웃라이너 방법을 적용하여 제거하는 제2처리부(214), 3차원 포인트 클라우드 데이터를 2차원 xy 평면 격자로 투영한 뒤, 각 격자의 포인트의 최대 높이, 최소 높이, 평균 높이를 활용하여 지면을 제거하는 제3처리부(216)을 포함하여 구성될 수 있다.The data acquisition unit 210 performs a function of pre-processing and classifying data provided from various sensors, and specifically, a device that removes image data generated by a camera lens and distortion of the edge of a thermal image. A first processing unit 212, a second processing unit 214 that removes the noise of the point cloud data by applying a statistical outliner method, and projecting the 3D point cloud data into a 2D xy plane lattice, It may be configured to include a third processing unit 216 that removes the ground by utilizing the maximum height, minimum height, and average height.

상기 데이터취득부(210)의 기능을 설명하면, 우선, 데이터의 전처리를 수행하는 제1처리부(212)의 기능으로, 도 6의 예시도((a) 왜곡 보정 전 (b) 왜곡 보정후)와 같이, 주변 경관에 대한 이미지 데이터와 열화상 이미지 데이터에 대한 왜곡보정을 수행하는 기능을 수행한다. 이는, 카메라 렌즈에 의해 발생되는 이미지의 가장자리의 왜곡(X-->X')을 카메라의 내부 파라미터 값을 사용하여 제거하는 알고리즘을 적용하여 수행할 수 있다.Describing the function of the data acquisition unit 210, first, as a function of the first processing unit 212 that pre-processes data, the exemplary diagram of FIG. 6 ((a) before distortion correction (b) after distortion correction) As in, it performs a function of performing distortion correction on the image data of the surrounding landscape and the thermal image data. This can be performed by applying an algorithm that removes the distortion (X-->X') of the edge of the image caused by the camera lens using the camera's internal parameter values.

다음으로, 도 7에 도시된 것은, 포인트 클라우드 아웃라이너의 제거를 수행하는 제2처리부(214)의 기능으로, (a) 노이즈 제거 전 (b) 노이즈 제거 후의 이미지를 도시한 것이다. 이는, 포인트 클라우드 데이터 특성 상 노이즈가 많이 발생하므로 이를 통계적 아웃라이어 제거 방법에 의해 제거하는 알고리즘을 통해 구현할 수 있다.Next, shown in FIG. 7 is a function of the second processing unit 214 that removes the point cloud outliner, and shows an image (a) before noise removal (b) after noise removal. Since a lot of noise occurs due to the characteristics of point cloud data, it can be implemented through an algorithm that removes it by a statistical outlier removal method.

또한, 도 8에 도시된 것은, 본 발명의 제3처리부(216)의 기능으로, (a) 포인트 클라우드 지면 제거 전 (b) 포인트 클라우드 지면 제거 후의 이미지를 도시한 것이다. 지면 포인트 클라우드는 이어지는 과정 전에 제거되어야 함으로, 3차원 포인트 클라우드를 2차원 xy 평면 격자로 투영한 뒤, 각 격자의 포인트의 최대 높이, 최소 높이, 평균 높이를 활용하여 지면을 제거하는 알고리즘을 적용하여 구현할 수 있도록 한다.Also, shown in FIG. 8 is a function of the third processing unit 216 of the present invention, which shows an image (a) before point cloud ground removal and (b) after point cloud ground removal. Since the ground point cloud must be removed before the next process, after projecting the 3D point cloud into a 2D xy plane lattice, applying an algorithm that removes the ground using the maximum height, minimum height, and average height of the points of each lattice make it possible to implement

상술한 데이터취득부(210)에서 전처리된 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지 데이터는, 캘리브레이션부(220)부에서 캘리브레이션을 통해 융합하여, 딥러닝에 사용될 융합데이터를 형성하게 된다. The image data, point cloud data, and thermal image data preprocessed in the above-described data acquisition unit 210 are fused through calibration in the calibration unit 220 to form fusion data to be used for deep learning.

즉, 상기 캘리브레이션부(220)에서는, 서로 다른 센서로부터 취득된 데이터를 캘리브레이션하여 융합된 데이터 생성하도록 한다. 일반적으로 이미지의 경우 2차원의 공간 정보와 R,G,B 3채널을 더하여 3차원의 데이터이고 포인트 클라우드의 경우 3차원 공간정보에 intensity(레이저 반환 강도)의 1채널을 더하여 4차원의 데이터로 구성되게 된다. 이러한 데이터에 대하여, 센서 간 캘리브레이션을 통해 3차원 공간정보에 intensity, R, G, B, 온도의 5채널을 가지는 고차원 데이터를 생성하도록 한다. 나아가, GPS모듈(130)과 라이다모듈(120)의 캘리브레이션을 통해 획득한 모든 데이터의 위치 정보를 생성할 수 있도록 한다.That is, the calibration unit 220 calibrates data acquired from different sensors to generate merged data. In general, in the case of an image, it is 3-dimensional data by adding 2-dimensional spatial information and 3 channels of R, G, and B. In the case of a point cloud, 4-dimensional data is obtained by adding 1 channel of intensity (laser return intensity) to 3-dimensional spatial information. will be composed For these data, high-dimensional data with 5 channels of intensity, R, G, B, and temperature is created in 3-dimensional spatial information through inter-sensor calibration. Furthermore, it is possible to generate location information of all data acquired through calibration of the GPS module 130 and the LIDAR module 120.

도 9는 이러한 캘리브레이션부(220)의 기능을 설명하기 위한 예시도로, 본 발명의 상기 캘리브레이션부(220)에서는, 포인트 클라우드를 카메라 이미지와 열화상 이미지에 투영하는 방식으로 센서 간 캘리브레이션을 수행하게 된다.9 is an exemplary diagram for explaining the function of the calibration unit 220. The calibration unit 220 of the present invention performs inter-sensor calibration by projecting a point cloud onto a camera image and a thermal image. .

도 10은 도 9에서 상술한 캘리브레이션부(220)의 기능을 구체적으로 적용한 것으로, (A) 데이터취득부를 통해 입수된 각각의 센서에서의 이미지 데이터, 열화상데이터, 라이다 데이터에 대하여, (B) 센서간 데이터 융합을 통해 고차원의 융합데이트를 형성한 결과물을 도시한 것이다. 이 경우, (a)는 라이다 데이터와 열화상 데이터를 융합한 결과, (b)는 라이다 데이터와 카메라 데이터를 융합한 결과를 도시한 것이다.10 is a concrete application of the function of the calibration unit 220 described above in FIG. 9, (A) for image data, thermal image data, and LIDAR data obtained from each sensor obtained through the data acquisition unit, (B ) It shows the result of forming high-dimensional fusion data through data fusion between sensors. In this case, (a) shows the result of fusing lidar data and thermal image data, and (b) shows the result of fusing lidar data and camera data.

또한, 본 발명은, 도 11에서와 같이, 상술한 캘리브레이션부(220)는 (A) 다양한 센서에서 탐지되 데이터(일예로, 카메라 이미지 데이터)에 대하여, 라이다 데이터를 융합하여, 수종 정보를 가진 개별 수목 점군 데이터를 획득할 수 있다.In addition, in the present invention, as shown in FIG. 11, the above-described calibration unit 220 (A) fuses lidar data with respect to data detected by various sensors (eg, camera image data) to obtain species information It is possible to obtain point cloud data of individual trees with

상기 딥러닝부(230)에서는, 수종분류에 적용되는 정보를 포함하는 상기 융합데이터를 딥러딩모델에 입력변수로 하여 수목의 온도 정보와 위치정보를 포함하는 수종 정보를 생성하는 기능을 수행한다.The deep learning unit 230 performs a function of generating tree species information including temperature information and location information of trees by using the fusion data including information applied to tree species classification as an input variable to a deep learning model.

상기 수목구조정보 산출부(240)에서는, 전체 포인트 클라우드 데이터에서 분리된 '수목 포인트 클라우드'를 바탕으로, 수고, 흉고직경, 수관폭, 지하고, 수관고를 산출하도록 한다. 즉, 딥러닝을 통한 수종 정보의 결과물로 도출된 개별 수목 포인트 클라우드를 활용하여 수목 구조 정보 도출할 수 있도록 한다.The tree structure information calculation unit 240 calculates the height, chest diameter, crown width, height of the tree, and crown height based on the 'tree point cloud' separated from the entire point cloud data. That is, it is possible to derive tree structure information by using the individual tree point cloud derived as a result of tree species information through deep learning.

이를 위해, 상기 수목 구조 정보 산출부(240)는, 도 1 및 도 2에서와 같이, 상기 수목 포인트 클라우드의 최대 높이와 최소 높이의 차를 통해 수고를 도출하는 수고 도출부(242), 상기 수목 포인트 클라우드의 z 값을 기준으로 포인트 밀도를 계산하여 수관부와 기둥부를 분리하고, 최대 높이와 최소 높이의 차를 통해 수관고와 지하고 도출하는 수관고 도출부(244), 도출된 상기 수관부 정보를 사용하여 가장 긴 변을 계산하여 수관폭 도출하는 수관폭 도출부(246), 도출된 상기 기둥부의 단면을 도출하고, 원 검출알고리즘을 통해 지름을 산출하여 흉고직경을 도출하는 흉고도출부(248)을 포함하여 구성될 수 있다.To this end, the tree structure information calculation unit 240, as shown in FIGS. 1 and 2, the effort derivation unit 242 for deriving the effort through the difference between the maximum height and the minimum height of the tree point cloud, the tree A crown height derivation unit 244 that separates the crown portion and the column portion by calculating the point density based on the z value of the point cloud, and derives the crown height and the basement through the difference between the maximum height and the minimum height. A crown width derivation unit 246 for deriving the crown width by calculating the longest side using the information, a chest height derivation unit for deriving the diameter of the breast height by deriving the cross section of the derived column part and calculating the diameter through a circle detection algorithm ( 248).

이러한 수목 구조 정보 산출부(240)를 통해 산출되는 수목의 구조 정보의 도출 과정은 도 12와 같이 프로그램화하여 구현될 수 있으며, 이상의 정보는 도 13과 같이, 수목 구조정보로 데이터베이스화하여 분류 저장할 수 있게 된다. 즉, 도 13에서의 데이터는 도 1에서 상술한 상기 도시 가로수 데이터베이스(300)로 구축할 수 있다. 즉 본 발명의 상기 딥러닝부(230)에서 도출되는 수종 정보와, 상기 수목구조정보 산출부(240)에서 도출되는 수목 구조 정보, 상기 데이터취득부(210)에서 취득된 수목 표면 온도와 위치 정보를 활용하여 가로수 데이터베이스 구축을 수행할 수 있게 된다.The process of deriving the tree structure information calculated through the tree structure information calculation unit 240 can be implemented by programming as shown in FIG. 12, and the above information is classified and stored as a database as tree structure information as shown in FIG. be able to That is, the data in FIG. 13 can be constructed with the city street tree database 300 described above in FIG. 1 . That is, tree species information derived from the deep learning unit 230, tree structure information derived from the tree structure information calculation unit 240, and tree surface temperature and location information obtained from the data acquisition unit 210 of the present invention. It is possible to build a street tree database by using .

이상의 상술한 본 발명을 적용하여 라이다 및 복합 카메라 모듈을 적용하는 수목정보를 탐지하는 방법을 도 3 및 도 4를 참조하여 설명하면 다음과 같다.A method of detecting tree information using lidar and composite camera modules by applying the above-described present invention will be described with reference to FIGS. 3 and 4.

상술한 본 발명을 적용하는 라이다 및 복합 카메라 모듈을 적용하는 수목정보를 탐지하는 방법은, 지상에서 이동하는 이동형 주행장치(S)에 장착된 카메라모듈(110), 라이다모듈(120),열화상모듈(130), GPS모듈(130)을 포함하는 센서모듈(100)에서 제공되는 데이터를 입력받아 데이터취득부(210)에서 전처리하는 1단계가 수행된다. 이 경우, 관측자료는 라이다 포인트 클라우드(3차원 공간정보), 카메라 이미지, 열화상 이미지, 그리고 GPS 위치 정보이다.The above-described method for detecting tree information using lidar and composite camera modules to which the present invention is applied includes a camera module 110 mounted on a mobile traveling device (S) moving on the ground, a lidar module 120, A first step of receiving data provided from the sensor module 100 including the thermal image module 130 and the GPS module 130 and pre-processing it in the data acquisition unit 210 is performed. In this case, the observation data are lidar point cloud (3D spatial information), camera image, thermal image, and GPS location information.

해당 관측정보에 대하여 데이터취득부에서는, 카메라 렌즈에 의해 발생되는 이미지 데이터 및 열화상 이미지의 가장자리의 왜곡을 제거하고(제1처리부(212)), 포인트 클라우드 데이터의 노이즈를 통계적 아웃라이너 방법을 적용하여 제거하며 (제2처리부(214)), 나아가 3차원 포인트 클라우드 데이터를 2차원 xy 평면 격자로 투영한 뒤, 각 격자의 포인트의 최대 높이, 최소 높이, 평균 높이를 활용하여 지면을 제거(제3처리부(216))하는 과정이 수행될 수 있다.With respect to the observation information, the data acquisition unit removes image data generated by the camera lens and distortion of the edge of the thermal image (first processing unit 212), and applies a statistical outliner method to noise of the point cloud data. and removes it (second processing unit 214), and further, after projecting the 3D point cloud data into a 2D xy plane lattice, using the maximum height, minimum height, and average height of the points of each lattice to remove the ground (first 3 processing unit 216) may be performed.

이후, 2단계의 과정으로, 상기 캘리브레이션부(220)에서 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 캘리브레이션을 통해 융합하여, 딥러닝에 사용될 융합데이터를 형성하는 단계가 수행될 수 있다. 관측자료 중 라이다 포인트클라우드와 카메라 이미지, 열화상 카메라를 캘리브레이션을 통해 융합하여 딥러닝에 사용될 고차원 융합데이터를 구축한다. 가로수의 수종 분류는 한 가지 센서의 취득 데이터 단독으로 이루어지기에는 고난이도의 작업으로, 세 가지 센서의 데이터를 융합하여 수종 분류에 사용될 더 많은 정보를 포함한 고차원 데이터를 구축함으로써 그 신뢰성을 극대화할 수 있도록 한다. 더불어, GPS와 포인트 클라우드를 융합함으로써 포인트 클라우드에 위치 정보를 포함시킨다.Thereafter, as a two-step process, a step of forming convergence data to be used for deep learning by fusing image data, point cloud data, and thermal images through calibration in the calibration unit 220 may be performed. Among observation data, LiDAR point cloud, camera image, and thermal imaging camera are converged through calibration to build high-dimensional convergence data to be used for deep learning. Tree species classification of roadside trees is a task of high difficulty to be performed with only one sensor's acquisition data, so data from three sensors are converged to build high-dimensional data that includes more information to be used for tree species classification, thereby maximizing its reliability. do. In addition, by converging GPS and point clouds, location information is included in the point cloud.

다음으로, 3단계의 과정으로, 딥러닝을 통한 수종정보의 취득 과정이 수행될 수 있도록 한다. 즉 상기 딥러닝부(230)에서, 수종분류에 적용되는 정보를 포함하는 상기 융합데이터를 딥러딩모델에 입력변수로 하여 수목의 온도 정보와 위치정보를 포함하는 수종 정보를 생성하게 된다.Next, as a three-step process, a process of obtaining tree species information through deep learning can be performed. That is, the deep learning unit 230 generates tree species information including temperature information and location information of trees by using the fusion data including information applied to tree species classification as an input variable to the deep learning model.

이는, 상술한 2단계에서 구축한 고차원 융합 데이터를 활용하여 수종을 탐지하는 딥러닝 모델을 구축한 후, 수종 정보를 생성하여 상술한 본 발명에서의 수목정보 데이터 베이스에 전달한다. 동시에, 전체 포인트클라우드에서 수목 포인트 클라우드만을 분리해낸다. 이 수목 포인트 클라우드는 상술한 것과 같이, 수목 구조 정보 분석에 사용된다. 또한 수목 포인트 클라우드는 센서 간 캘리브레이션을 통해 온도 정보와 위치정보를 포함하고 있어, 도시 가로수 데이터베이스에 수목의 온도와 위치 정보를 제공할 수 있게 된다.After constructing a deep learning model for detecting tree species by utilizing the high-dimensional convergence data constructed in the above-described step 2, tree species information is generated and transmitted to the tree information database in the present invention described above. At the same time, only the tree point cloud is separated from the entire point cloud. As described above, this tree point cloud is used for tree structure information analysis. In addition, the tree point cloud includes temperature and location information through sensor-to-sensor calibration, so that the tree temperature and location information can be provided to the city street tree database.

다음으로, 4단계의 과정으로, 상기 수목 구조 정보 산출부(240)에서, 상기 포인트 클라우드 데이터에서 수목 포인트 클라우드 데이터를 분류하여, 수목의 수고, 흉고직경, 수관폭, 지하고, 수관고를 포함하는 수목 구조 정보룰 산출하는 단계가 수행된다. 즉, 상술한 3단계에서 취득한 수목 포인트 클라우드를 활용하여 수고, 흉고직경, 수관폭, 지하고, 수관고를 계산하는 알고리즘을 구축한다. 이들은 수목 구조 정보로 분류되어 이후 도시 가로수 데이터베이스에 전달된다.Next, in a four-step process, the tree structure information calculation unit 240 classifies the tree point cloud data from the point cloud data, and includes the height of the tree, diameter at breast height, crown width, basement height, and crown height of the tree. A step of calculating tree structure information is performed. That is, by using the tree point cloud acquired in the above-mentioned 3 steps, an algorithm for calculating the height, chest diameter, crown width, height of the tree, and crown height is constructed. These are classified as tree structure information and then transmitted to the city street tree database.

이후, 상기 딥러닝부(230)에서 도출되는 수종 정보와, 상기 수목구조정보 산출부(240)에서 도출되는 수목 구조 정보, 상기 데이터취득부(210)에서 취득된 수목 표면 온도와 위치 정보를 활용하여 가로수 데이터베이스 구축을 수행하는 5단계가 수행된다.Thereafter, the tree species information derived from the deep learning unit 230, the tree structure information derived from the tree structure information calculation unit 240, and the tree surface temperature and location information acquired from the data acquisition unit 210 are utilized. 5 steps are performed to build a street tree database.

본 발명에서는 효과적인 도시 규모의 수목 데이터베이스 구축을 위해 차량 기반 센서 시스템의 데이터 융합기술을 구현하고, 더블어 통합 수목 데이터베이스 구축 방법을 제공하여, 나무의 다양한 특징을 추출하고 도시 녹지 공간의 데이터베이스를 유지하는 데 사용될 수 있다. 또한 센서 시스템을 차량 부착형이 아닌 사람 부착형, 드론 부착형 등으로 응용하여 도시 가로수 뿐만 아니라 공원 및 산림 지역에서도 효과적인 수목 데이터베이스 구축을 할 수 있다.In the present invention, data convergence technology of a vehicle-based sensor system is implemented to build an effective city-scale tree database, and a method for constructing an integrated tree database is provided to extract various characteristics of trees and maintain a database of urban green spaces. can be used In addition, by applying the sensor system to a person-attached type or a drone-attached type rather than a vehicle-attached type, an effective tree database can be established not only in city streets, but also in parks and forests.

특히, 차량을 통해서 도시 식생을 스캔하고 제안된 알고리즘을 통해서 자동적으로 가로수의 수종, 구조 정보, 온도 정보, 위치 정보를 탐지함으로써 기존 사람이 직접 관측하던 방식에 비해 조경관리에 드는 노동력과 시간을 절감하고, 관리의 규모를 도시 스케일로 확장할 수 있다.In particular, by scanning urban vegetation through a vehicle and automatically detecting tree species, structure information, temperature information, and location information of street trees through the proposed algorithm, labor and time required for landscaping management are reduced compared to the existing method directly observed by humans. and the scale of management can be expanded to the city scale.

나아가, 본 발명은 도시 3D 모델에서 도시 공간의 계획 및 모델링, 시설 관리, 매핑 등 다양한 애플리케이션에 사용될 수 있다. 더 발전된 형태로는 로봇 공학, 원격 탐사, 환경 평가, 엔터테인먼트 산업, 실내 모델링 등을 포함하는 다른 기술 분야에도 사용할 수 있다.Furthermore, the present invention can be used for various applications such as planning and modeling of urban space, facility management, and mapping in a city 3D model. In more advanced forms, it can also be used in other technology fields including robotics, remote sensing, environmental assessment, entertainment industry, indoor modeling and more.

또한, 본 발명에 따른, 상술한 수목 정보 탐지 방법을 실행하는 시스템에 적용되는 기능 구성 및 수행동작은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다.In addition, functional configurations and execution operations applied to a system executing the above-described tree information detection method according to the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented with any number of hardware or/and software components that perform specific functions. For example, the present invention relates to integrated circuit components, such as memory, processing, logic, look-up tables, etc., that can perform various functions by means of the control of one or more microprocessors or other control devices. can be hired

본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, 파이썬(Python), C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “~모듈”, “~부”, "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Similar to components of the present invention that may be implemented as software programming or software elements, the present invention may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, including Python ), C, C++, Java, assembler, and the like, programming or scripting languages may be implemented. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, the present invention may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “~ module”, “~ unit”, “mechanism”, “element”, “means”, and “component” may be used broadly and are not limited to mechanical and physical components. The term may include a meaning of a series of software routines in association with a processor or the like.

이상에서와 같이 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 바람직한 실시예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아니다. 이처럼 이 기술 분야의 통상의 전문가라면 본 발명의 기술 사상의 범위 내에서 본 발명의 실시예의 결합을 통해 다양한 실시예들이 가능함을 이해할 수 있을 것이다.As described above, the technical spirit of the present invention has been specifically described in the preferred embodiment, but the above preferred embodiment is for explanation and not for limitation. As such, those skilled in the art will understand that various embodiments are possible through the combination of the embodiments of the present invention within the scope of the technical spirit of the present invention.

100: 센서모듈
200: 수목정보 산출모듈
210: 데이터취득부
220: 캘리브레이션부
230: 딥러닝부
240: 수목구조정보 산출부
300: 도시 가로수 데이터베이스
100: sensor module
200: tree information calculation module
210: data acquisition unit
220: calibration unit
230: deep learning unit
240: tree structure information calculation unit
300: city street tree database

Claims (11)

지상에서 이동하는 이동형 주행장치(S: 차량);
상기 이동형 주행장치(S)에 장착되어, 주변경관에 대한 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지, 위치데이터를 형성하는 카메라모듈(110), 라이다모듈(120), 열화상카메라모듈(130) 및 GPS모듈(140)을 포함하는 센서모듈(100); 상기 센서모듈(100)에서 제공되는 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 융합하여 수종분류에 적용되는 정보를 포함하는 융합데이터를 형성하고, 상기 융합데이터를 기반으로 수종에 대한 정보를 산출하는 수종정보 산출모듈(200); 상기 수종정보 산출모듈(200)에서 산출되는 수종에 대한 구조정보를 저장하여 분류하는 도시 가로수 데이터베이스(300);를 포함하며,
상기 수종정보 산출모듈(200)은,
상기 센서모듈(100)의 제공 정보인 포인트 클라우드데이터를 카메라 이미지 데이터와 열화상 이미지에 투영하여 센서간 캘리브레이션을 통해 3차원 공간정보에 intensity, R, G, B, 온도의 5채널을 가지는 고차원 융합데이터를 생성하며, 상기 GPS모듈(140)과 라이다모듈(120)의 캘리브레이션을 통해 획득한 모든 데이터의 위치 정보를 생성하는 캘리브레이션부(220);와
상기 융합데이터를 딥러딩모델에 입력변수로 하여 수목의 온도 정보와 위치정보를 포함하는 수종 정보를 생성하는 딥러닝부(230);
상기 융합데이터를 구성하는 상기 포인트 클라우드 데이터에서 분리된 '수목 포인트 클라우드'를 바탕으로, 수고, 흉고직경, 수관폭, 지하고, 수관고를 산출하는 수목구조정보 산출부(240);를 포함하는,
라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지장치.
A mobile traveling device that moves on the ground (S: vehicle);
A camera module 110, a lidar module 120, and a thermal imaging camera module 130 that are mounted on the mobile traveling device S and form image data, point cloud data, thermal image, and location data for the surrounding scenery. ) and the sensor module 100 including the GPS module 140; Convergence of image data, point cloud data, and thermal images provided by the sensor module 100 forms fusion data including information applied to tree species classification, and calculates information on tree species based on the fusion data Tree species information calculation module 200; A city street tree database 300 for storing and classifying structural information on tree species calculated by the tree species information calculation module 200;
The species information calculation module 200,
High-dimensional convergence with five channels of intensity, R, G, B, and temperature in three-dimensional spatial information through calibration between sensors by projecting point cloud data, which is information provided by the sensor module 100, onto camera image data and thermal images A calibration unit 220 that generates data and generates location information of all data acquired through calibration of the GPS module 140 and the lidar module 120;
a deep learning unit 230 for generating tree species information including temperature information and location information of trees by using the convergence data as an input variable to a deep learning model;
A tree structure information calculation unit 240 that calculates height, chest diameter, crown width, basement height, and crown height based on the 'tree point cloud' separated from the point cloud data constituting the convergence data; including,
Tree information detection device applying LIDAR and composite camera module.
청구항 1에 있어서,
상기 수종정보 산출모듈(200)은,
상기 이동형 주행장치(S)에 장착되는, 카메라모듈(110); 라이다모듈(120);열화상모듈(130); GPS모듈(140);을 포함하는 센서모듈(100)에서 제공되는 데이터를 입력받아 전처리하는 데이터취득부(210);를 더 포함하는,
라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지장치.
라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지장치.
The method of claim 1,
The species information calculation module 200,
A camera module 110 mounted on the mobile traveling device (S); lidar module 120; thermal imaging module 130; GPS module 140; data acquisition unit 210 for receiving and pre-processing the data provided from the sensor module 100 including; Further comprising,
Tree information detection device applying LIDAR and composite camera module.
Tree information detection device applying LIDAR and composite camera module.
청구항 2에 있어서,
상기 데이터취득부(210)는,
카메라 렌즈에 의해 발생되는 이미지 데이터 및 열화상 이미지의 가장자리의 왜곡을 제거하는 제1처리부(212);
포인트 클라우드 데이터의 노이즈를 통계적 아웃라이너 방법을 적용하여 제거하는 제2처리부(214);
3차원 포인트 클라우드 데이터를 2차원 xy 평면 격자로 투영한 뒤, 각 격자의 포인트의 최대 높이, 최소 높이, 평균 높이를 활용하여 지면을 제거하는 제3처리부(216);
을 포함하는,
라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지장치.
The method of claim 2,
The data acquisition unit 210,
a first processing unit 212 that removes image data generated by the camera lens and distortion of edges of the thermal image;
a second processing unit 214 for removing noise of point cloud data by applying a statistical outliner method;
a third processing unit 216 that projects the 3D point cloud data onto a 2D xy plane lattice and then removes the ground using the maximum height, minimum height, and average height of the points of each lattice;
including,
Tree information detection device applying LIDAR and composite camera module.
삭제delete 삭제delete 삭제delete 청구항 3에 있어서,
상기 도시 가로수 데이터베이스(300)는,
상기 딥러닝부(230)에서 도출되는 수종 정보와, 상기 수목구조정보 산출부(240)에서 도출되는 수목 구조 정보, 상기 데이터취득부(210)에서 취득된 수목 표면 온도와 위치 정보를 활용하여 가로수 데이터베이스 구축을 수행하는,
라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지장치.
The method of claim 3,
The city street tree database 300,
The tree species information derived from the deep learning unit 230, the tree structure information derived from the tree structure information calculation unit 240, and the tree surface temperature and location information obtained from the data acquisition unit 210 are utilized to make a street tree. to build a database,
Tree information detection device applying LIDAR and composite camera module.
청구항 7의 수목정보 탐지장치를 적용하여 수목정보를 탐지하되,
지상에서 이동하는 이동형 주행장치(S)에 장착된 카메라모듈(110), 라이다모듈(120),열화상모듈(130), GPS모듈(140)을 포함하는 센서모듈(100)에서 제공되는 데이터를 입력받아 데이터취득부(210)에서 전처리하는 1단계;
상기 캘리브레이션부(220)에서 이미지 데이터, 포인트 클라우드 데이터, 열화상이미지를 캘리브레이션을 통해 융합하여, 딥러닝에 사용될 융합데이터를 형성하는 2단계;
상기 딥러닝부(230)에서, 수종분류에 적용되는 정보를 포함하는 상기 융합데이터를 딥러딩모델에 입력변수로 하여 수목의 온도 정보와 위치정보를 포함하는 수종 정보를 생성하는 3단계;
상기 수목 구조 정보 산출부(240)에서, 상기 포인트 클라우드 데이터에서 수목 포인트 클라우드 데이터를 분류하여, 수목의 수고, 흉고직경, 수관폭, 지하고, 수관고를 포함하는 수목 구조 정보룰 산출하는 4단계;
상기 딥러닝부(230)에서 도출되는 수종 정보와, 상기 수목구조정보 산출부(240)에서 도출되는 수목 구조 정보, 상기 데이터취득부(210)에서 취득된 수목 표면 온도와 위치 정보를 활용하여 가로수 데이터베이스 구축을 수행하는 5단계;를 포함하며,
상기 2단계는,
상기 센서모듈(100)의 제공 정보인 포인트 클라우드데이터를 카메라 이미지 데이터와 열화상 이미지에 투영하여 센서간 캘리브레이션을 통해 3차원 공간정보에 intensity, R, G, B, 온도의 5채널을 가지는 고차원 융합데이터를 생성하며, 상기 GPS모듈(140)과 라이다모듈(120)의 캘리브레이션을 통해 획득한 모든 데이터의 위치 정보를 생성하는 단계인,
라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지방법.
Tree information is detected by applying the tree information detection device of claim 7,
Data provided by the sensor module 100 including the camera module 110, the lidar module 120, the thermal image module 130, and the GPS module 140 mounted on the mobile traveling device (S) moving on the ground. Step 1 of receiving and pre-processing in the data acquisition unit 210;
a second step of fusing image data, point cloud data, and thermal images through calibration in the calibration unit 220 to form convergence data to be used for deep learning;
a third step of generating, in the deep learning unit 230, tree species information including temperature information and location information of trees by using the fusion data including information applied to tree species classification as an input variable to a deep learning model;
Step 4 of classifying tree point cloud data from the point cloud data in the tree structure information calculation unit 240 and calculating tree structure information including tree height, breast height diameter, crown width, height below ground level, and crown height of the tree;
The tree species information derived from the deep learning unit 230, the tree structure information derived from the tree structure information calculation unit 240, and the tree surface temperature and location information obtained from the data acquisition unit 210 are utilized to make a street tree. Including; 5 steps to perform database construction;
The second step is
High-dimensional convergence with five channels of intensity, R, G, B, and temperature in three-dimensional spatial information through calibration between sensors by projecting point cloud data, which is information provided by the sensor module 100, onto camera image data and thermal images A step of generating data and generating location information of all data acquired through calibration of the GPS module 140 and the lidar module 120,
Tree information detection method applying LIDAR and composite camera module.
삭제delete 삭제delete 컴퓨터에 청구항 8에 따른 라이다 및 복합 카메라 모듈을 적용하는 수목정보 탐지방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program for executing a tree information detection method applying the lidar and composite camera module according to claim 8 to a computer.
KR1020220024973A 2022-02-25 2022-02-25 Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same KR102520676B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220024973A KR102520676B1 (en) 2022-02-25 2022-02-25 Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220024973A KR102520676B1 (en) 2022-02-25 2022-02-25 Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same

Publications (1)

Publication Number Publication Date
KR102520676B1 true KR102520676B1 (en) 2023-04-11

Family

ID=85976726

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220024973A KR102520676B1 (en) 2022-02-25 2022-02-25 Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same

Country Status (1)

Country Link
KR (1) KR102520676B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100935857B1 (en) * 2009-08-25 2010-01-07 홍종옥 System for generating 3d forest geographical information data using aerial lidar data and digital aerial photo data and method therefor
KR101150510B1 (en) 2010-08-27 2012-05-31 (주)아세아항측 Method for Generating 3-D High Resolution NDVI Urban Model
KR101561669B1 (en) 2014-12-30 2015-10-30 동국대학교 산학협력단 Mobile electronic field node device for phytosociological vegetation structure investigation
KR102308456B1 (en) 2020-09-25 2021-10-05 서울대학교산학협력단 Tree species detection system based on LiDAR and RGB camera and Detection method of the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100935857B1 (en) * 2009-08-25 2010-01-07 홍종옥 System for generating 3d forest geographical information data using aerial lidar data and digital aerial photo data and method therefor
KR101150510B1 (en) 2010-08-27 2012-05-31 (주)아세아항측 Method for Generating 3-D High Resolution NDVI Urban Model
KR101561669B1 (en) 2014-12-30 2015-10-30 동국대학교 산학협력단 Mobile electronic field node device for phytosociological vegetation structure investigation
KR102308456B1 (en) 2020-09-25 2021-10-05 서울대학교산학협력단 Tree species detection system based on LiDAR and RGB camera and Detection method of the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
조두영 외 1인. 항공라이다 자료를 이용한 가로수 정보의 추출. Journal of Korea Spatial Information Society. 2012년 12월, 제20권, 제6호, pp.45-57 (2012.12.) 1부.* *

Similar Documents

Publication Publication Date Title
US9798928B2 (en) System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability
US8208689B2 (en) Method for determination of stand attributes and a computer program for performing the method
KR100795396B1 (en) Method for monitoring altered city using airborne laser surveying data and digital orthophoto
Rumpler et al. Evaluations on multi-scale camera networks for precise and geo-accurate reconstructions from aerial and terrestrial images with user guidance
KR102308456B1 (en) Tree species detection system based on LiDAR and RGB camera and Detection method of the same
CN108227738A (en) A kind of unmanned plane barrier-avoiding method and system
KR20110127202A (en) Fusion of a 2d electro-optical image and 3d point cloud data for scene interpretation and registration performance assessment
Sauerbier et al. The practical application of UAV-based photogrammetry under economic aspects
Patrucco et al. Thermal and optical data fusion supporting built heritage analyses
Barrile et al. 3D modeling with photogrammetry by UAVs and model quality verification
Kukko et al. Mobile mapping system and computing methods for modelling of road environment
Yang et al. Airborne LiDAR and photogrammetric point cloud fusion for extraction of urban tree metrics according to street network segmentation
KR102520676B1 (en) Tree species detection apparatus based on camera, thermal camera, GPS, and LiDAR and Detection method of the same
KR20220066783A (en) Estimation method of forest biomass
WO2020118623A1 (en) Method and system for generating an environment model for positioning
Che Ku Abdullah et al. Integration of point clouds dataset from different sensors
JP6087218B2 (en) Image analysis device
CN105631431B (en) The aircraft region of interest that a kind of visible ray objective contour model is instructed surveys spectral method
Saponaro et al. Influence of co-alignment procedures on the co-registration accuracy of multi-epoch SFM points clouds
KR102067034B1 (en) Apparatus for extracting vegetation section for 3d navigation and method thereof
Loghin et al. Supervised classification and its repeatability for point clouds from dense VHR tri-stereo satellite image matching using machine learning
Permana et al. Analysis of aerial photography with unmanned aerial vehicle (uav) using ecognition developer to estimate the number of trees in the forest area
Amigo et al. Automatic context learning based on 360 imageries triangulation and 3D LiDAR validation
CA2984976C (en) Apparatus and method for the automated detection of trees
CN117670979B (en) Bulk cargo volume measurement method based on fixed point position monocular camera

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant