KR102540636B1 - Method for create map included direction information and computer program recorded on record-medium for executing method therefor - Google Patents

Method for create map included direction information and computer program recorded on record-medium for executing method therefor Download PDF

Info

Publication number
KR102540636B1
KR102540636B1 KR1020220139934A KR20220139934A KR102540636B1 KR 102540636 B1 KR102540636 B1 KR 102540636B1 KR 1020220139934 A KR1020220139934 A KR 1020220139934A KR 20220139934 A KR20220139934 A KR 20220139934A KR 102540636 B1 KR102540636 B1 KR 102540636B1
Authority
KR
South Korea
Prior art keywords
generating
direction information
map
point cloud
image
Prior art date
Application number
KR1020220139934A
Other languages
Korean (ko)
Other versions
KR102540636B9 (en
Inventor
임송원
김재승
Original Assignee
주식회사 모빌테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모빌테크 filed Critical 주식회사 모빌테크
Priority to KR1020220139934A priority Critical patent/KR102540636B1/en
Application granted granted Critical
Publication of KR102540636B1 publication Critical patent/KR102540636B1/en
Publication of KR102540636B9 publication Critical patent/KR102540636B9/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

A method for generating a map including directional information for traffic facilities existing on a road is proposed. The method comprises: a step in which a map generation unit receives at least one image captured by at least one camera fixed on a vehicle; a step in which the map generation unit detects traffic facilities in the received at least one image; a step in which the map generation unit generates directional information based on point cloud data acquired by a lidar corresponding to the detected traffic facilities; and a step in which the map generation unit generates a map including the generated directional information. The present invention is a technology developed through the Urban Change Detection Platform Using Mobility Services at the 2022 Seoul Innovation Challenge (Finals) (IC210027) conducted by the Seoul Industry Promotion Agency. Additionally, The present invention is a technology developed through Project Number 22AMDP-C160637-02 by the National Institute of Land, Infrastructure and Transport Science and Technology under the Ministry of Land, Infrastructure and Transport. Therefore, the method allows effective use of precision road maps through the generated directional information.

Description

방향 정보를 포함한 지도 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램{Method for create map included direction information and computer program recorded on record-medium for executing method therefor}Method for creating map included direction information and computer program recorded on record-medium for executing method therefor}

본 발명은 정밀도로지도에 관한 것이다. 보다 상세하게는, 도로에 존재하는 교통 시설물에 대한 방향 정보를 포함한 지도 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램에 관한 것이다.The present invention relates to maps with precision. More specifically, it relates to a method for generating a map including direction information on traffic facilities existing on a road and a computer program recorded on a recording medium to execute the method.

차량의 자율주행(automatic driving)은 차량 스스로 판단하여 주행할 수 있는 시스템을 의미한다. 이와 같은, 자율주행은 시스템이 주행에 관여하는 정도와 운전차가 차량을 제어하는 정도에 따라 비자동화부터 완전 자동화까지 점진적인 단계로 구분될 수 있다. 일반적으로, 자율주행의 단계는 국제자동차기술자협회(SAE(Society of Automotive Engineers) International)에서 분류한 6단계의 레벨로 구분된다. 국제자동차기술자협회가 분류한 6단계에 따르면, 레벨 0단계는 비자동화, 레벨 1단계는 운전자 보조, 레벨 2단계는 부분 자동화, 레벨 3단계는 조건부 자동화, 레벨 4단계는 고도 자동화, 그리고 레벨 5단계는 완전 자동화 단계이다.Autonomous driving of a vehicle refers to a system that can judge and drive a vehicle by itself. Such autonomous driving may be classified into gradual stages from non-automation to complete automation according to the degree of involvement of the system in driving and the degree of control of the vehicle by the driver. In general, the level of autonomous driving is divided into six levels classified by the Society of Automotive Engineers (SAE) International. According to the six levels classified by the International Association of Automotive Engineers, level 0 is non-automation, level 1 is driver assistance, level 2 is partial automation, level 3 is conditional automation, level 4 is highly automated, and level 5 The steps are fully automated steps.

자율주행은 인지(perception), 측위(localization), 경로 계획(path planning) 및 제어(control)의 메커니즘을 통해 수행된다. 그리고, 다양한 기업체들은 자율주행 메커니즘에서 인지 및 경로 계획을 인공지능(AI)을 이용하여 구현하기 위해 개발 중에 있다.Autonomous driving is performed through mechanisms of perception, localization, path planning, and control. In addition, various companies are developing to implement recognition and path planning in autonomous driving mechanisms using artificial intelligence (AI).

이와 같은, 자율주행을 위해서는 도로에 관한 다양한 정보가 선제적으로 수집되어야 한다. 그러나, 현실적으로 차량의 센서 만을 이용하여 방대한 정보를 실시간 수집하여 분석하는 것은 쉽지 않다. 이에 따라, 자율주행이 현실화되기 위해서는 실제 자율 주행에 필요한 각종 정보를 제공해 줄 수 있는 정밀도로지도가 필수적이다For such autonomous driving, various information on roads must be preemptively collected. However, in reality, it is not easy to collect and analyze vast amounts of information in real time using only vehicle sensors. Accordingly, in order for autonomous driving to become a reality, maps with high precision that can provide various information necessary for actual autonomous driving are essential.

여기서, 정밀도로지도는 도로와 주변 지형의 정보를 정확도 ±25㎝로 구축한 3차원 전자지도를 말한다. 이러한, 정밀도로지도는 일반적인 전자지도의 정보(길안내를 위해 필요한 노드 정보들과 링크 정보들)에 더하여, 도로의 폭, 도로의 곡률, 도로의 경사도, 차선 정보(점선, 실선, 정지선 등), 면형 정보(횡단보도, 과속방지턱, 갓길 등), 노면 마크 정보, 표지 판 정보, 시설물 정보(신호등, 연석, 맨홀 등) 등과 같은 정밀 정보를 포함하는 지도이다.Here, the high-precision road map refers to a three-dimensional electronic map constructed with information on roads and surrounding topography with an accuracy of ±25 cm. In addition to general electronic map information (node information and link information necessary for route guidance), these precision maps include road width, road curvature, road slope, lane information (dotted lines, solid lines, stop lines, etc.) It is a map that includes precise information such as surface type information (crosswalks, speed bumps, shoulders, etc.), road surface mark information, sign information, facility information (traffic lights, curbs, manholes, etc.).

이러한, 정밀도로지도를 생성하기 위해서는 이동 지도제작 시스템(Mobile Mapping System, MMS), 항공사진 촬영 정보 등 다양한 관련 자료들이 요구된다.In order to create a map with such precision, various related data such as a Mobile Mapping System (MMS) and aerial photographic information are required.

특히, MMS는 차량에 장착되어 차량의 운행과 함께 도로 주변에 있는 지형지물의 위치측정 및 시각정보를 획득하도록 이루어진다. 즉, MMS는 차체의 위치와 자세정보를 취득하기 위한 GPS(Global Positioning System), 관성 항법 장치(Inertial Navigation System; INS), 관성 측정 장치(Inertial Measurement Unit; IMU), 지형지물의 형상과 정보를 수집하기 위한 카메라, 라이다(Light Detection and Ranging, LiDAR) 센서 및 기타 센서에 의해 수집된 정보들을 기반으로 생성될 수 있다.In particular, the MMS is mounted on a vehicle to measure the position of a feature in the vicinity of a road and acquire visual information while driving the vehicle. That is, the MMS collects GPS (Global Positioning System), Inertial Navigation System (INS), Inertial Measurement Unit (IMU), shape and information of landmarks to acquire position and attitude information of the vehicle body. It may be generated based on information collected by a camera, a LiDAR (Light Detection and Ranging) sensor, and other sensors for processing.

이러한, MMS를 이용하여 제작된 정밀도로지도는 다양한 표지판, 신호등 등의 다양한 교통 시설물들을 포함하고 있다. 이에 따라, 정밀도로지도를 효과적으로 이용하기 위해서는 교통 시설물에 대한 방향 정보가 필요하다.These high-precision maps produced using MMS include various traffic facilities such as various signs and traffic lights. Accordingly, in order to effectively use the map with high precision, direction information on traffic facilities is required.

최근에는 라이다로부터 획득된 점군 데이터를 활용하여 방향 정보를 생성하는 알고리즘들이 개발되고 있으나, 구조가 매우 복잡하여 활용도가 떨어지는 문제점이 있었다.Recently, algorithms for generating direction information by using point cloud data obtained from LIDAR have been developed, but their structure is very complicated and their usability is poor.

또한, 정밀도로지도에 포함된 교통 시설물에 관한 학습 데이터를 생성하기 위해서는 교통 시설물이 포함된 대량의 이미지가 필요하다. 그러나, 교통 시설물이 포함된 이미지에 관한 공개된 데이터셋이 존재하지 않을 뿐만 아니라, 교통 시설물이 포함된 이미지의 양이 제한적이기 때문에, 데이터 확보에 어려움이 있었다.In addition, in order to generate learning data about traffic facilities included in the map with high precision, a large amount of images including traffic facilities are required. However, it was difficult to obtain data because there is no publicly available data set for images including traffic facilities and the amount of images including traffic facilities is limited.

한편, 항공 라이다를 이용하여 3D 모델링을 수행할 경우에는 객체의 상부에 위치하는 라이다로부터 획득된 점군 데이터가 수집되기 때문에, 객체의 하부로 갈수록 수집되는 점군의 밀도가 낮아지게 된다. 이에 따라, 기존의 모델링 기법들은 수집된 전체 점군에 대하여 한꺼번에 모델링을 진행하기 때문에, 점군의 밀도 차이에 따라 노이즈가 발생되고, 이로 인해 모델링 된 객체의 정확도가 떨어지는 문제점이 있었다.On the other hand, when 3D modeling is performed using an aerial lidar, since point cloud data obtained from a lidar located on the upper part of an object is collected, the density of the point cloud collected decreases toward the lower part of the object. Accordingly, since the existing modeling techniques perform modeling on all the collected point clouds at once, noise is generated according to the difference in density of the point clouds, and as a result, there is a problem in that the accuracy of the modeled object is lowered.

한편, 일반적으로 라이다(lidar)로부터 획득된 점군 데이터에 카메라(camera)로부터 촬영된 이미지의 색상을 부여하여 컬러맵을 생성하기 위해서는 특정 거리 단위로 누적된 점군 데이터를 한 장의 이미지에 투영한다. 이에 따라, 생성된 컬러맵은 이미지 상에서 특정 객체에 의해 가려진 것으로 표현되나 점군 데이터 상에는 인식된 영역에 대하여, 이미지의 잘못된 색상이 적용되는 노이즈가 발생되는 문제점이 있었다.Meanwhile, in general, in order to generate a color map by assigning a color of an image captured from a camera to point cloud data obtained from a lidar, point cloud data accumulated in units of a specific distance is projected onto a single image. Accordingly, the generated color map is expressed as being occluded by a specific object on the image, but there is a problem in that noise is generated in which the wrong color of the image is applied to the recognized area on the point cloud data.

또한, 생성된 컬러맵은 하늘의 색상이나 빛 반사로 인하여 특정 어두운 색상을 갖는 객체에 밝은 색상이 적용되는 노이즈가 발생되는 문제점이 있었다.In addition, the generated color map has a problem in that noise is generated in which a bright color is applied to an object having a specific dark color due to the color of the sky or light reflection.

본 발명은 서울특별시 서울산업진흥원 (2022년도 서울혁신챌린지(결선)) (IC210027) '모빌리티 서비스를 이용한 도시 변화 탐지 플랫폼'을 통해 개발된 기술이다.The present invention is a technology developed through the Seoul Business Agency (2022 Seoul Innovation Challenge (final)) (IC210027) 'Urban change detection platform using mobility service'.

또한, 본 발명은 국토교통부 산하의 국토교통과학기술진흥원 '과제번호 22AMDP-C160637-02'을 통해 개발된 기술이다.In addition, the present invention is a technology developed through 'Task No. 22AMDP-C160637-02' of the Ministry of Land, Infrastructure and Transport under the Ministry of Land, Infrastructure and Transport Science and Technology Promotion Agency.

대한민국 공개특허공보 제10-2013-0123041호, '라이다 장치를 활용한 실내지도 자동 생성 방법', (2013.11.12. 공개)Republic of Korea Patent Publication No. 10-2013-0123041, 'Method of automatically generating indoor map using LIDAR device', (published on November 12, 2013)

본 발명의 일 목적은 도로에 존재하는 교통 시설물에 대한 방향 정보를 포함한 지도 생성 방법을 제공하는 것이다.One object of the present invention is to provide a method for generating a map including direction information about traffic facilities existing on a road.

본 발명의 다른 목적은 도로에 존재하는 교통 시설물에 대한 방향 정보를 포함한 지도 생성 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제공하는 것이다.Another object of the present invention is to provide a computer program recorded on a recording medium in order to execute a method of generating a map including direction information about traffic facilities existing on a road.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 도로에 존재하는 교통 시설물에 대한 방향 정보를 포함한 지도 생성 방법을 제안한다. 상기 방법은 지도 생성부가, 차량에 고정 설치된 적어도 하나의 카메라(camera)에 의해 촬영된 적어도 하나의 이미지를 수신하는 단계, 상기 지도 생성부가, 상기 수신한 적어도 하나의 이미지 상에서 교통 시설물을 검출하는 단계, 상기 지도 생성부가, 상기 검출된 교통 시설물에 해당하는 라이다(lidar)에 의해 획득된 점군 데이터를 기준으로 방향 정보를 생성하는 단계 및 상기 지도 생성부가, 상기 생성된 방향 정보가 포함된 지도를 생성하는 단계를 포함한다.In order to achieve the technical problem as described above, the present invention proposes a map generation method including direction information about traffic facilities existing on a road. The method includes receiving, by a map generator, at least one image captured by at least one camera fixed to a vehicle, and detecting, by the map generator, a traffic facility on the received at least one image. , generating, by the map generating unit, direction information based on point cloud data obtained by a lidar corresponding to the detected traffic facility, and generating a map including the generated direction information by the map generating unit. It includes the steps of creating

구체적으로, 상기 교통 시설물을 검출하는 단계는 딥 러닝(deep learning) 기반의 객체 검출 알고리즘을 이용하여 상기 2D 이미지 상에서 교통 시설물을 검출하는 것을 특징으로 한다.Specifically, the detecting of the traffic facility may include detecting the traffic facility on the 2D image using a deep learning-based object detection algorithm.

상기 방향 정보를 생성하는 단계는 상기 검출된 교통 시설물이 사전 설정된 거리 이내에 위치한 경우 방향 정보를 생성하는 것을 특징으로 한다.The generating of the direction information may include generating direction information when the detected traffic facility is located within a preset distance.

상기 방향 정보를 생성하는 단계는 상기 검출된 교통 시설물에 포함된 점군의 개수가 사전 설정된 값 이상인 경우 방향 정보를 생성하는 것을 특징으로 한다.The generating of the direction information may include generating direction information when the number of point groups included in the detected traffic facility is equal to or greater than a preset value.

상기 방향 정보를 생성하는 단계는 상기 검출된 교통 시설물의 바운딩 박스(bounding box)의 가로폭 및 세로폭 사이의 비율이 사전 설정된 값 이하인 경우 방향 정보를 생성하는 것을 특징으로 한다.The generating of the direction information may include generating the direction information when a ratio between a horizontal width and a vertical width of a bounding box of the detected traffic facility is equal to or less than a preset value.

상기 교통 시설물을 검출하는 단계는 거리 기반의 유클리디안 클러스트링(Euclidean clustering)을 이용하여 상기 2D 이미지 상에서 교통 시설물을 검출하는 것을 특징으로 한다.The detecting of traffic facilities may include detecting traffic facilities on the 2D image using distance-based Euclidean clustering.

상기 방향 정보를 생성하는 단계는 상기 검출된 교통 시설물에 포함된 점군을 복셀 그리드(voxel grid) 형태로 필터링하여 다운 샘플링(down sampling)하는 것을 특징으로 한다.The generating of the direction information may include filtering and down-sampling the point cloud included in the detected traffic facility in the form of a voxel grid.

상기 방향 정보를 생성하는 단계는 상기 검출된 교통 시설물에 대한 점군을 RANSAC(random sample consensus) 알고리즘을 이용하여 무작위로 탐색하여 대표 평면을 획득하는 것을 특징으로 한다.The generating of the direction information may include obtaining a representative plane by randomly searching the point cloud for the detected traffic facility using a random sample consensus (RANSAC) algorithm.

상기 방향 정보를 생성하는 단계는 상기 검출된 교통 시설물에 대한 점군 데이터를 누적하여 사전에 설정된 특정 값을 만족할 경우 상기 대표 평면을 획득하는 것을 특징으로 한다.The generating of the direction information may include acquiring the representative plane when a predetermined value is satisfied by accumulating point cloud data for the detected traffic facility.

상기 방향 정보를 생성하는 단계는 상기 검출된 교통 시설물에 대한 점군 데이터를 사전 설정된 라이다의 회전수 만큼 누적하여 상기 대표 평면을 획득하는 것을 특징으로 한다.The generating of the direction information may include obtaining the representative plane by accumulating the point cloud data for the detected traffic facility by a predetermined number of revolutions of the lidar.

상기 방향 정보를 생성하는 단계는 상기 대표 평면을 기준으로 평면 방정식을 이용하여 평면에서 수직으로 뻗어 나가는 법선 벡터를 계산하는 것을 특징으로 한다.The generating of the direction information may include calculating a normal vector extending vertically from the plane using a plane equation based on the representative plane.

상기 지도를 생성하는 단계는 상기 생성된 방향 정보를 상기 지도의 메타 정보에 포함시키는 것을 특징으로 한다.The generating of the map may include including the generated direction information in meta information of the map.

상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 도로에 존재하는 교통 시설물에 대한 방향 정보를 포함한 지도 생성 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제안한다. 상기 컴퓨터 프로그램은 메모리(memory), 송수신기(transceiver) 및 상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합될 수 있다. 그리고, 상기 컴퓨터 프로그램은 상기 프로세서가, 차량에 고정 설치된 적어도 하나의 카메라(camera)에 의해 촬영된 적어도 하나의 이미지를 수신하는 단계, 상기 프로세서가, 상기 수신한 적어도 하나의 이미지 상에서 교통 시설물을 검출하는 단계, 상기 프로세서가, 상기 검출된 교통 시설물에 해당하는 라이다(lidar)에 의해 획득된 점군(point group) 데이터를 기준으로 방향 정보를 생성하는 단계 및 상기 프로세서가, 상기 생성된 방향 정보가 포함된 지도를 생성하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.In order to achieve the technical problem as described above, the present invention proposes a computer program recorded on a recording medium to execute a method of generating a map including direction information about traffic facilities existing on a road. The computer program may be combined with a computing device comprising a memory, a transceiver, and a processor that processes instructions resident in the memory. The computer program may include receiving, by the processor, at least one image taken by at least one camera fixed to a vehicle; detecting, by the processor, a traffic facility on the received at least one image; generating, by the processor, direction information based on point group data obtained by a lidar corresponding to the detected traffic facility; and by the processor, the generated direction information is It may be a computer program recorded on a recording medium to execute the step of generating the included map.

기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.

본 발명의 실시 예들에 따르면, 이미지 상에 검출된 교통 시설물에 대하여 점군 데이터를 기준으로 방향 정보를 생성함으로써, 생성된 방향 정보를 통해 정밀도로지도를 효과적으로 이용하도록 할 수 있다.According to embodiments of the present invention, by generating direction information for traffic facilities detected on an image based on point cloud data, it is possible to effectively use a map with precision through the generated direction information.

본 발명의 효과들은 이상에서 언급한 효과로 제한되지 아니하며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속한 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 데이터 생성 시스템을 나타낸 구성도이다.
도 2는 본 발명의 일 실시예에 따른 데이터 생성 장치의 논리적 구성도이다.
도 3은 본 발명의 일 실시예에 따른 데이터 생성 장치의 하드웨어 구성도이다.
도 4는 본 발명의 일 실시예에 따른 방향 정보를 포함한 지도 생성 방법을 나타낸 순서도이다.
도 5는 본 발명의 일 실시예에 따른 교통 시설물에 대한 학습 데이터 생성 방법을 나타낸 순서도이다.
도 6은 본 발명의 일 실시예에 따른 항공 라이다를 이용한 지도 생성 방법을 나타낸 순서도이다.
도 7은 본 발명의 일 실시예에 따른 프로젝션 기반의 컬러맵 생성 방법을 나타낸 순서도이다.
도 8은 본 발명의 일 실시예에 따른 색상 보정을 적용한 컬러맵 생성 방법을 나타낸 순서도이다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 방향 정보를 포함한 지도 생성 방법을 설명하기 위한 예시도이다.
도 11 내지 도 13은 본 발명의 일 실시예에 따른 교통 시설물에 대한 학습 데이터 생성 방법을 설명하기 위한 예시도이다.
도 14 내지 도 16은 본 발명의 일 실시예에 따른 항공 라이다를 이용한 지도 생성 방법을 설명하기 위한 예시도이다.
도 17 및 도 18은 본 발명의 일 실시예에 따른 프로젝션 기반의 컬러맵 생성 방법을 설명하기 위한 예시도이다.
도 19 및 도 24는 본 발명의 일 실시예에 따른 색상 보정을 적용한 컬러맵 생성 방법을 설명하기 위한 예시도이다.
1 is a configuration diagram showing a data generating system according to an embodiment of the present invention.
2 is a logical configuration diagram of a data generating device according to an embodiment of the present invention.
3 is a hardware configuration diagram of a data generating device according to an embodiment of the present invention.
4 is a flowchart illustrating a method of generating a map including direction information according to an embodiment of the present invention.
5 is a flowchart illustrating a method of generating learning data for a traffic facility according to an embodiment of the present invention.
6 is a flowchart illustrating a method of generating a map using an aerial lidar according to an embodiment of the present invention.
7 is a flowchart illustrating a projection-based color map generation method according to an embodiment of the present invention.
8 is a flowchart illustrating a method for generating a color map to which color correction is applied according to an embodiment of the present invention.
9 and 10 are exemplary diagrams for explaining a method of generating a map including direction information according to an embodiment of the present invention.
11 to 13 are exemplary diagrams for explaining a method of generating learning data for traffic facilities according to an embodiment of the present invention.
14 to 16 are exemplary diagrams for explaining a map generation method using an aerial lidar according to an embodiment of the present invention.
17 and 18 are exemplary diagrams for explaining a projection-based color map generation method according to an embodiment of the present invention.
19 and 24 are exemplary diagrams for explaining a color map generation method to which color correction is applied according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in this specification should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in this specification, and are excessively inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in this specification are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to context, and should not be interpreted in an excessively reduced sense.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, '구성된다' 또는 '가지다' 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in this specification include plural expressions unless the context clearly indicates otherwise. In this application, terms such as 'consisting of' or 'having' should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or steps are included. It should be construed that it may not be, or may further include additional components or steps.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Also, terms including ordinal numbers such as first and second used in this specification may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

어떤 구성 요소가 다른 구성 요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "'직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. On the other hand, when a component is referred to as "'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings. The spirit of the present invention should be construed as extending to all changes, equivalents or substitutes other than the accompanying drawings.

한편, MMS를 이용하여 제작된 정밀도로지도는 다양한 표지판, 신호등 등의 다양한 교통 시설물들을 포함하고 있다. 이에 따라, 정밀도로지도를 효과적으로 이용하기 위해서는 교통 시설물에 대한 방향 정보가 필요하다.On the other hand, the high-precision map produced using MMS includes various traffic facilities such as various signs and traffic lights. Accordingly, in order to effectively use the map with high precision, direction information on traffic facilities is required.

최근에는 라이다로부터 획득된 점군 데이터를 활용하여 방향 정보를 생성하는 알고리즘들이 개발되고 있으나, 구조가 매우 복잡하여 활용도가 떨어지는 문제점이 있었다.Recently, algorithms for generating direction information by using point cloud data obtained from LIDAR have been developed, but their structure is very complicated and their usability is poor.

또한, 정밀도로지도에 포함된 교통 시설물에 관한 학습 데이터를 생성하기 위해서는 교통 시설물이 포함된 대량의 이미지가 필요하다. 그러나, 교통 시설물이 포함된 이미지에 관한 공개된 데이터셋이 존재하지 않을 뿐만 아니라, 교통 시설물이 포함된 이미지의 양이 제한적이기 때문에, 데이터 확보에 어려움이 있었다.In addition, in order to generate learning data about traffic facilities included in the map with high precision, a large amount of images including traffic facilities are required. However, it was difficult to obtain data because there is no publicly available data set for images including traffic facilities and the amount of images including traffic facilities is limited.

한편, 항공 라이다를 이용하여 3D 모델링을 수행할 경우에는 객체의 상부에 위치하는 라이다로부터 획득된 점군 데이터가 수집되기 때문에, 객체의 하부로 갈수록 수집되는 점군의 밀도가 낮아지게 된다. 이에 따라, 기존의 모델링 기법들은 수집된 전체 점군에 대하여 한꺼번에 모델링을 진행하기 때문에, 점군의 밀도 차이에 따라 노이즈가 발생되고, 이로 인해 모델링 된 객체의 정확도가 떨어지는 문제점이 있었다.On the other hand, when 3D modeling is performed using an aerial lidar, since point cloud data obtained from a lidar located on the upper part of an object is collected, the density of the point cloud collected decreases toward the lower part of the object. Accordingly, since the existing modeling techniques perform modeling on all the collected point clouds at once, noise is generated according to the difference in density of the point clouds, and as a result, there is a problem in that the accuracy of the modeled object is lowered.

한편, 일반적으로 라이다(lidar)로부터 획득된 점군 데이터에 카메라(camera)로부터 촬영된 이미지의 색상을 부여하여 컬러맵을 생성하기 위해서는 특정 거리 단위로 누적된 점군 데이터를 한 장의 이미지에 투영한다. 이에 따라, 생성된 컬러맵은 이미지 상에서 특정 객체에 의해 가려진 것으로 표현되나 점군 데이터 상에는 인식된 영역에 대하여, 이미지의 잘못된 색상이 적용되는 노이즈가 발생되는 문제점이 있었다.Meanwhile, in general, in order to generate a color map by assigning a color of an image captured from a camera to point cloud data obtained from a lidar, point cloud data accumulated in units of a specific distance is projected onto a single image. Accordingly, the generated color map is expressed as being occluded by a specific object on the image, but there is a problem in that noise is generated in which the wrong color of the image is applied to the recognized area on the point cloud data.

또한, 생성된 컬러맵은 하늘의 색상이나 빛 반사로 인하여 특정 어두운 색상을 갖는 객체에 밝은 색상이 적용되는 노이즈가 발생되는 문제점이 있었다.In addition, the generated color map has a problem in that noise is generated in which a bright color is applied to an object having a specific dark color due to the color of the sky or light reflection.

이러한 한계를 극복하고자, 본 발명은 도로에 존재하는 교통 시설물에 대한 방향 정보를 포함한 지도를 생성할 수 있고, 도로에 존재하는 교통 시설물에 대한 인식을 용이하게 할 수 있고, 항공 장치에 설치된 라이다로부터 획득된 점군 데이터를 이용하여 효율적으로 3D 지도를 생성할 수 있고, 라이다로부터 획득된 점군 데이터에 카메라로부터 촬영된 이미지의 색상을 부여하여 컬러맵을 생성할 수 있는 다양한 수단들을 제안하고자 한다.In order to overcome these limitations, the present invention can generate a map including direction information on traffic facilities present on the road, facilitate recognition of traffic facilities present on the road, and lidar installed in an airborne device. We propose various means that can efficiently create a 3D map using the point cloud data obtained from LIDAR and generate a color map by assigning the color of an image taken from a camera to the point cloud data obtained from LIDAR.

도 1은 본 발명의 일 실시예에 따른 데이터 생성 시스템을 나타낸 구성도이다.1 is a configuration diagram showing a data generating system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 데이터 생성 시스템(300)은 데이터 수집 장치(100) 및 데이터 생성 장치(200)를 포함하여 구성될 수 있다.As shown in FIG. 1 , a data generating system 300 according to an embodiment of the present invention may include a data collecting device 100 and a data generating device 200 .

이와 같은, 일 실시예에 따른 데이터 생성 시스템의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.Since the components of the data generation system according to one embodiment are merely functionally distinct elements, two or more components are integrated and implemented in an actual physical environment, or one component is implemented in an actual physical environment. They may be implemented separately from each other.

각각의 구성 요소에 대하여 설명하면, 데이터 수집 장치(100)는 지도 생성 및 학습 데이터 생성에 필요한 데이터를 수집할 수 있다.Each of the components will be described. The data collection device 100 may collect data necessary for generating a map and generating learning data.

데이터 수집 장치(100)는 라이다(lidar), 카메라(camera), 레이더(radar), 초음파 센서(ultrasonic sensor), 앤코더(encoder), 온도센서(temperature) 및 습도센서(humidity sensor) 중 하나 이상을 포함하여 구성될 수 있다. 하지만, 이에 한정된 것은 아니고, 데이터 수집 장치(100)는 도로정밀지도를 생성하기 위하여 다양한 정보를 센싱 할 수 있는 센서들이 적용될 수 있다.The data collection device 100 may include one of a lidar, a camera, a radar, an ultrasonic sensor, an encoder, a temperature sensor, and a humidity sensor. It may be configured to include the above. However, the data collection device 100 is not limited thereto, and sensors capable of sensing various types of information may be applied to the data collection device 100 to generate a precise road map.

특히, 본 발명의 일 실시예에 따른 데이터 수집 장치(100)는 라이다 및 카메라를 포함하여 구성될 수 있으며, 라이다에 의해 획득된 점군 데이터 및 카메라에 의해 촬영된 이미지를 수집할 수 있다.In particular, the data collection device 100 according to an embodiment of the present invention may include a lidar and a camera, and may collect point cloud data acquired by the lidar and images captured by the camera.

여기서, 라이다는 차량(10) 또는 항공 장치(20)의 주위로 레이저 펄스를 발사하고 차량 주위에 위치하는 객체들에 의해 반사되어 돌아온 빛을 감지하여, 차량 주위에 대한 3차원 영상에 해당하는 점군 데이터를 생성할 수 있다.Here, lidar emits laser pulses around the vehicle 10 or airborne device 20 and detects light reflected by objects located around the vehicle and returns, resulting in a 3D image corresponding to the surroundings of the vehicle. Point cloud data can be created.

카메라는 라이다를 중심으로 라이다로부터 수집되는 공간의 이미지를 획득할 수 있다. 이러한, 카메라는 컬러(Color) 카메라, 근적외선(NIR, Near InfraRed) 카메라, 단적외선(SWIR, Short Wavelength InfraRed) 카메라 및 장적외선(LWIR, Long WaveLength InfraRed) 카메라 중에서 어느 하나를 포함할 수 있다.The camera may obtain an image of a space collected from the lidar centered on the lidar. Such a camera may include any one of a color camera, a near infrared (NIR) camera, a short wavelength infrared (SWIR) camera, and a long wavelength infrared (LWIR) camera.

이러한, 데이터 수집 장치(100)는 차량(10) 또는 항공 장치(20)에 설치될 수 있다. 예를 들어, 데이터 수집 장치(100)는 차량(10)의 상부에 설치되어, 주변의 점군 데이터 또는 이미지를 수집하거나, 항공 장치(20)의 하부에 설치되어, 항공에서 지상의 객체에 대한 점군 데이터 또는 이미지를 수집할 수 있다.The data collection device 100 may be installed in the vehicle 10 or the airborne device 20 . For example, the data collection device 100 is installed on the upper part of the vehicle 10 to collect point cloud data or images of the surroundings, or is installed on the lower part of the airborne device 20 and is installed on the ground object in the air. Data or images may be collected.

다음 구성으로, 데이터 생성 장치(200)는 데이터 수집 장치(100)로부터 라이다에 의해 획득된 점군 데이터 및 카메라에 의해 촬영된 이미지를 수신할 수 있다.With the following configuration, the data generating device 200 may receive point cloud data acquired by the LIDAR and an image captured by the camera from the data collecting device 100 .

데이터 생성 장치(200)는 수신한 점군 데이터 및 카메라를 이용하여 도로정밀지도를 생성할 수 있으며, 도로정밀지도를 활용한 학습 데이터를 생성할 수 있다.The data generating device 200 may generate a detailed road map using the received point cloud data and a camera, and may generate learning data using the detailed road map.

특징적으로, 본 발명의 일 실시예에 따르면, 데이터 생성 장치(200)는 차량(10)에 고정 설치된 적어도 하나의 카메라에 의해 촬영된 적어도 하나의 이미지를 수신하고, 수신한 적어도 하나의 이미지 상에서 교통 시설물을 검출하고, 검출된 교통 시설물에 대하여 라이다에 의해 획득된 점군 데이터를 기준으로 방향 정보를 생성하고, 생성된 방향 정보가 포함된 지도를 생성할 수 있다.Characteristically, according to an embodiment of the present invention, the data generating device 200 receives at least one image taken by at least one camera fixed to the vehicle 10, and traffic is transmitted on the received at least one image. A facility may be detected, direction information may be generated based on point cloud data obtained by LIDAR for the detected traffic facility, and a map including the generated direction information may be generated.

본 발명의 다른 실시예에 따르면, 데이터 생성 장치(200)는 교통 시설물 샘플 이미지를 수집하고, 수집된 교통 시설물 샘플 이미지를 차량에 설치된 카메라로부터 촬영된 이미지로 인식될 수 있도록 가공한 적어도 하나의 가공 이미지를 생성하고, 생성된 적어도 하나의 가공 이미지에 배경을 삽입하여 학습 데이터를 생성할 수 있다.According to another embodiment of the present invention, the data generating device 200 collects traffic facility sample images, and processes the collected traffic facility sample images to be recognized as images captured by a camera installed in a vehicle. Learning data may be generated by generating an image and inserting a background into at least one generated processed image.

또한, 본 발명의 다른 실시예에 따르면, 데이터 생성 장치(200)는 항공 장치(20)에 설치된 라이다로부터 획득된 점군 데이터를 수신하고, 수신한 점군 데이터의 탑-뷰(Top-view)를 투영하고, 투영된 점군 데이터를 지면과 수직한 방향으로 스캔(scan)하여 객체에 대한 지도를 생성할 수 있다.In addition, according to another embodiment of the present invention, the data generating device 200 receives point cloud data acquired from lidar installed in the airborne device 20, and displays a top-view of the received point cloud data. A map of an object can be created by projecting and scanning the projected point cloud data in a direction perpendicular to the ground.

또한, 본 발명의 다른 실시예에 따르면, 데이터 생성 장치(200)는 카메라로부터 촬영된 이미지와, 라이다로부터 획득된 점군 데이터를 수신하고, 수신한 점군 데이터를 이미지 상에 투영하고, 이미지에 투영된 점군 데이터를 거리(distance)를 기반으로 필터링 하고, 필터링 된 점군 데이터에 이미지의 색상을 부여하여 컬러맵을 생성할 수 있다.In addition, according to another embodiment of the present invention, the data generating apparatus 200 receives an image captured by a camera and point cloud data obtained from LIDAR, projects the received point cloud data onto an image, and projects the received point cloud data onto the image. A color map can be created by filtering the filtered point cloud data based on distance and assigning an image color to the filtered point cloud data.

또한, 본 발명의 또 다른 실시예에 따르면, 데이터 생성 장치(200)는 라이다로부터 획득된 점군 데이터에 카메라를 통해 촬영된 이미지의 색상을 부여하고, 색상이 부여된 점군 데이터에서 사전 설정된 색상을 갖는 점을 분리하고, 분리된 점의 색상을 이웃하는 점의 색상을 기초로 보정하여 컬러맵을 생성할 수 있다.In addition, according to another embodiment of the present invention, the data generating apparatus 200 assigns a color of an image captured by a camera to point cloud data obtained from LIDAR, and sets a preset color in the color-added point cloud data. A color map can be generated by separating the points having the same color and correcting the color of the separated points based on the colors of neighboring points.

한편, 본 발명의 다양한 실시예들은 서로 구분되어 각각의 기능을 수행하는 것으로 설명하고 있으나, 이에 한정된 것은 아니고, 서로의 기능을 조합하여 적용할 수 있다.Meanwhile, various embodiments of the present invention have been described as being separated from each other and performing respective functions, but the present invention is not limited thereto and may be applied in combination with each other.

지금까지 상술한 바와 같은, 데이터 수집 장치(100) 및 데이터 생성 장치(200)는 장치들 사이를 직접 연결하는 보안 회선, 공용 유선 통신망 또는 이동 통신망 중 하나 이상이 조합된 네트워크를 이용하여 데이터를 송수신할 수 있다.As described above, the data collecting device 100 and the data generating device 200 transmit and receive data using a network in which at least one of a secure line, a common wired communication network, and a mobile communication network directly connects devices. can do.

예를 들어, 공용 유선 통신망에는 이더넷(ethernet), 디지털가입자선(x Digital Subscriber Line, xDSL), 광동축 혼합망(Hybrid Fiber Coax, HFC), 광가입자망(Fiber To The Home, FTTH)가 포함될 수 있으나, 이에 한정되는 것도 아니다. 그리고, 이동 통신망에는 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 와이드 밴드 코드 분할 다중 접속(Wideband CDMA, WCDMA), 고속 패킷 접속(High Speed Packet Access, HSPA), 롱텀 에볼루션(Long Term Evolution, LTE), 5세대 이동통신(5th generation mobile telecommunication)가 포함될 수 있으나, 이에 한정되는 것은 아니다. For example, public wired communication networks may include Ethernet, x Digital Subscriber Line (xDSL), Hybrid Fiber Coax (HFC), and Fiber To The Home (FTTH). It may be, but is not limited thereto. In addition, in the mobile communication network, Code Division Multiple Access (CDMA), Wideband CDMA (WCDMA), High Speed Packet Access (HSPA), Long Term Evolution, LTE) and 5th generation mobile telecommunication may be included, but is not limited thereto.

이하, 상술한 바와 같은 데이터 생성 장치(200)에 대하여 구체적으로 설명하도록 한다.Hereinafter, the data generating device 200 as described above will be described in detail.

도 2는 본 발명의 일 실시예에 따른 데이터 생성 장치의 논리적 구성도이다.2 is a logical configuration diagram of a data generating device according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 데이터 생성 장치(200)는 통신부(205), 입출력부(210), 저장부(215), 데이터 수집부(220), 지도 생성부(225) 및 학습 데이터 생성부(230)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the data generating device 200 according to an embodiment of the present invention includes a communication unit 205, an input/output unit 210, a storage unit 215, a data collection unit 220, and a map generation unit 225. ) and a learning data generator 230.

이와 같은, 데이터 생성 장치(200)의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.Since the components of the data generating device 200 are merely functionally distinct elements, two or more components are integrated and implemented in an actual physical environment, or one component is separated from each other in an actual physical environment. and can be implemented.

각각의 구성 요소에 대하여 설명하면, 통신부(205)는 데이터 수집 장치(100)와 데이터를 송수신할 수 있다. 구체적으로, 통신부(205)는 데이터 수집 장치(100)로부터 라이다에 의해 획득된 점군 데이터와 카메라를 통해 촬영된 이미지를 수신할 수 있다.Describing each component, the communication unit 205 may transmit and receive data to and from the data collection device 100 . Specifically, the communication unit 205 may receive point cloud data obtained by LIDAR and an image captured by a camera from the data collection device 100 .

다음 구성으로, 입출력부(210)는 사용자 인터페이스(UI)를 통해 사용자로부터 신호를 입력 받거나, 연산 결과를 외부로 출력할 수 있다. 구체적으로, 입출력부(210)는 방향 정보를 생성하기 위한 설정 값, 학습 데이터를 생성하기 위한 설정 값, 지도를 생성하기 위한 설정 값 등을 입력 받거나, 생성된 지도 또는 학습 데이터 등을 출력할 수 있다.With the following configuration, the input/output unit 210 may receive a signal from a user through a user interface (UI) or output an operation result to the outside. Specifically, the input/output unit 210 may receive inputs of setting values for generating direction information, setting values for generating learning data, setting values for generating maps, and the like, or may output generated maps or learning data. there is.

다음 구성으로, 저장부(215)는 데이터 수집 장치(100)로부터 수신한 점군 데이터 또는 이미지와, 생성된 지도 또는 학습 데이터 등을 저장할 수 있다. 구체적으로, 저장부(215)는 방향 정보를 생성하기 위한 알고리즘, 학습 데이터를 생성하기 위한 알고리즘, 지도를 생성하기 위한 알고리즘 등을 저장할 수 있다.With the following configuration, the storage unit 215 may store point cloud data or images received from the data collection device 100 and generated map or learning data. Specifically, the storage unit 215 may store an algorithm for generating direction information, an algorithm for generating learning data, an algorithm for generating a map, and the like.

다음 구성으로, 데이터 수집부(220)는 통신부(205)를 통해 데이터 수집 장치(100)로부터 라이다에 의해 획득된 점군 데이터 및 카메라에 의해 촬영된 이미지를 수집하도록 제어할 수 있다. 구체적으로, 데이터 수집부(220)는 라이다로부터 지속적으로 획득된 점군 데이터를 수신하도록 제어하며, 카메라로부터 사전 설정된 간격으로 촬영된 이미지를 수신하도록 제어할 수 있다.With the following configuration, the data collection unit 220 may control to collect the point cloud data obtained by the LIDAR and the image taken by the camera from the data collection device 100 through the communication unit 205 . Specifically, the data collection unit 220 may control to receive point cloud data continuously acquired from LIDAR and to receive images photographed at preset intervals from a camera.

다음 구성으로, 지도 생성부(225)는 이미지 상에 검출된 교통 시설물에 대하여 점군 데이터를 기준으로 방향 정보를 생성함으로써, 생성된 방향 정보를 통해 정밀도로지도를 효과적으로 이용하도록 할 수 있다.With the following configuration, the map generator 225 generates direction information based on point cloud data for traffic facilities detected on the image, so that the map can be effectively used with precision through the generated direction information.

구체적으로, 지도 생성부(225)는 딥 러닝(deep learning) 기반의 객체 검출 알고리즘을 이용하여 2D 이미지 상에서 교통 시설물을 검출할 수 있다. 여기서, 지도 생성부(225)는 검출된 교통 시설물이 사전 설정된 거리 이내에 위치하거나, 검출된 교통 시설물에 포함된 점군의 개수가 사전 설정된 값 이상인 경우 방향 정보를 생성할 수 있다. 또한, 지도 생성부(225)는 검출된 교통 시설물의 바운딩 박스(bounding box)의 가로폭 및 세로폭 사이의 비율이 사전 설정된 값 이하인 경우 방향 정보를 생성할 수 있다. 즉, 지도 생성부(225)는 교통 시설물에 대한 정확한 방향성을 추출하기 위하여, 교통 시설물이 일정 거리 이내에 들어오거나, 검출된 교통 시설물의 바운딩 박스가 불균형하지 않고, 검출된 교통 시설물에 포함된 점군 개수가 일정 이상일 경우에만 방향 정보를 추출하도록 할 수 있다.Specifically, the map generator 225 may detect traffic facilities on the 2D image using a deep learning-based object detection algorithm. Here, the map generator 225 may generate direction information when the detected traffic facility is located within a preset distance or when the number of point groups included in the detected traffic facility is greater than or equal to a preset value. In addition, the map generator 225 may generate direction information when the ratio between the horizontal width and the vertical width of the detected bounding box of the traffic facility is equal to or less than a preset value. That is, in order to extract an accurate direction for the traffic facility, the map generator 225 determines the number of point clouds included in the detected traffic facility when the traffic facility is within a certain distance or the bounding box of the detected traffic facility is not imbalanced. Direction information can be extracted only when is greater than or equal to a certain level.

이때, 지도 생성부(225)는 거리 기반의 유클리디안 클러스트링(Euclidean clustering)을 이용하여 2D 이미지 상에서 교통 시설물을 검출할 수 있다. 즉, 지도 생성부(225)는 방향 정보를 생성하기 위한 점군 데이터를 추출할 때, 검출된 교통 시설물 이외에 다른 객체의 점군 데이터가 추출되는 것을 방지하기 위하여, 유클리디안 클러스터링 알고리즘을 통해 교통 시설물에 대한 클러스터를 구성하도록 할 수 있다.In this case, the map generator 225 may detect traffic facilities on the 2D image using distance-based Euclidean clustering. That is, when the map generator 225 extracts point cloud data for generating direction information, in order to prevent point cloud data of objects other than the detected traffic facility from being extracted, the map generator 225 determines the location of the traffic facility through the Euclidean clustering algorithm. You can configure a cluster for

또한, 지도 생성부(225)는 검출된 교통 시설물에 포함된 점군을 복셀 그리드(voxel grid) 형태로 필터링하여 다운 샘플링(down sampling)할 수 있다. 즉, 지도 생성부(225)는 검출된 교통 시설물에 포함된 점군 중 불균형한 점군들을 균형 있는 형태로 다운 샐플링 할 수 있다.In addition, the map generator 225 may perform down sampling by filtering the point cloud included in the detected traffic facility in the form of a voxel grid. That is, the map generator 225 may down-sample unbalanced point clouds among the point clouds included in the detected traffic facility in a balanced form.

또한, 지도 생성부(225)는 검출된 교통 시설물에 대한 점군 데이터를 누적하여 사전에 설정된 특정 값을 만족할 경우 방향 정보를 생성할 수 있다. 즉, 지도 생성부(225)는 점군을 누적하여 교통 시설물에 대한 충분한 점군을 확보한 상태로 방향 정보를 생성하도록 할 수 있다. 예를 들어, 지도 생성부(225)는 검출된 교통 시설물에 대한 점군 데이터를 사전 설정된 라이다의 회전수 만큼 누적한 후 방향 정보를 생성하도록 할 수 있다.In addition, the map generator 225 may accumulate point cloud data for detected traffic facilities and generate direction information when a predetermined specific value is satisfied. That is, the map generating unit 225 may generate direction information in a state in which sufficient point clouds for traffic facilities are secured by accumulating point clouds. For example, the map generator 225 may generate direction information after accumulating point cloud data for detected traffic facilities by a predetermined number of rotations of lidar.

또한, 지도 생성부(225)는 검출된 교통 시설물에 대한 점군을 RANSAC(Random Sample Consensus) 알고리즘을 이용하여 무작위로 탐색하여 대표 평면을 획득할 수 있다. 즉, 지도 생성부(225)는 검출된 교통 시설물에 대한 점군에서 랜덤하게 세개의 점을 선택하고, 선택된 세개의 점을 지나는 평면을 구할 수 있다. 이때, 평면과의 거리가 사전 설정된 값보다 작은 인라이어(inlier) 점들을 확인하고, 인라이어 점의 개수를 구할 수 있다. 이때, 지도 생성부(225)는 인라이어 점의 개수가 가장 큰 평면을 대표 평면으로 선택할 수 있다. In addition, the map generator 225 may obtain a representative plane by randomly searching point clouds for detected traffic facilities using a Random Sample Consensus (RANSAC) algorithm. That is, the map generator 225 may randomly select three points from the point group for the detected traffic facility and obtain a plane passing through the selected three points. In this case, inlier points having a distance from the plane smaller than a preset value may be identified, and the number of inlier points may be obtained. In this case, the map generator 225 may select a plane having the greatest number of inlier points as a representative plane.

또한, 지도 생성부(225)는 대표 평면을 기준으로 평면 방정식을 이용하여 평면에서 수직으로 뻗어 나가는 법선 벡터를 계산할 수 있다. 즉, 지도 생성부(225)는 하기의 수학식에 기재된 평면 방정식을 통해 대표 평면에 대한 방향 정보를 구할 수 있다.In addition, the map generator 225 may calculate a normal vector extending vertically from the plane using a plane equation based on the representative plane. That is, the map generator 225 may obtain direction information on a representative plane through a plane equation described in the following equation.

[수학식 1][Equation 1]

Ax + By + Cz + D = 0 Ax + By + Cz + D = 0

(여기서, (A, B, C)는 대표평면에 대한 법선 벡터이며, D는 법선 벡터의 길이이며, (x, y, z)는 대표평면 상에 임의의 점이 될 수 있다.)(Where (A, B, C) is the normal vector for the representative plane, D is the length of the normal vector, and (x, y, z) can be any point on the representative plane.)

그리고, 지도 생성부(225)는 생성된 교통 시설물에 대한 방향 정보가 포함된 지도를 생성할 수 있다. 이때, 지도 생성부(225)는 생성된 법선 벡터를 지도 상에 표시하거나, 지도의 메타 정보에 포함시킬 수 있다.Also, the map generator 225 may generate a map including direction information about the created traffic facility. In this case, the map generator 225 may display the generated normal vector on the map or include it in meta information of the map.

예를 들어, 방향 정보가 포함된 지도는 특정 방향을 가리키는 교통 시설물에 대한 정보가 필요한 운전자에게 선택적으로 정보를 제공하거나, 교통 시설물을 관리하는 관리자에게 최초 설치된 방향과 대비하여 교통 시설물 방향이 변경된 경우 유지 보수가 필요한 것으로 판단할 수 있도록 지원할 수 있다.For example, a map containing direction information selectively provides information to a driver who needs information on traffic facilities pointing in a specific direction, or when the direction of a traffic facility is changed compared to the initially installed direction to a manager who manages traffic facilities We can assist you in determining that maintenance is required.

한편, 기존의 모델링 기법들은 전체 점군 데이터를 한꺼번에 스캔하여 모델링을 진행하게 된다. 그러나, 항공 장치에 설치된 라이다로부터 수집된 점군 데이터는 특성상 객체의 하부로 갈수록 점군의 밀도가 낮기 때문에, 기존의 모델링 기법으로는 지도 생성이 부적합하다.Meanwhile, existing modeling techniques perform modeling by scanning all point cloud data at once. However, since point cloud data collected from LIDAR installed in an airborne device has a lower density of point clouds toward the lower part of the object, conventional modeling techniques are not suitable for map generation.

이에 따라, 지도 생성부(225)는 항공 장치에 설치된 라이다로부터 획득된 점군 데이터의 탑-뷰를 투영하고, 객체의 테두리를 인식하여 지면과 수직한 방향으로 스캔함으로써, 3D 모델링의 정확도를 높일 수 있다.Accordingly, the map generator 225 projects the top-view of the point cloud data obtained from the lidar installed in the airborne device, recognizes the edge of the object and scans it in a direction perpendicular to the ground, thereby increasing the accuracy of 3D modeling. can

구체적으로, 지도 생성부(225)는 투영된 점군 데이터의 기준 영역을 검출하고, 기준 영역을 기준으로 지면과 수직한 방향으로 스캔하면서, 객체의 테두리를 검출할 수 있다. 여기서, 기준 영역은 점군 데이터에 포함된 객체의 최하부면의 테두리가 될 수 있다. 즉, 지도 생성부(225)는 객체의 최하부면인 기준 영역을 검출하고, 기준 영역으로부터 객체의 상부 방향으로 스캔하면서 객체의 테두리를 검출할 수 있다.Specifically, the map generator 225 may detect a reference area of the projected point cloud data, and may detect an edge of an object while scanning in a direction perpendicular to the ground based on the reference area. Here, the reference region may be the edge of the lowermost surface of the object included in the point cloud data. That is, the map generator 225 may detect the reference area, which is the lowermost surface of the object, and detect the edge of the object while scanning from the reference area in the upper direction of the object.

이를 위해, 지도 생성부(225)는 스캔된 점군 데이터 중 사전 설정된 거리 이내에 위치하는 점군에서 폐곡선을 추출하고, 폐곡선을 객체의 테두리로 검출할 수 있다. 예를 들어, 지도 생성부(225)는 알파 쉐이프(alpha shape) 알고리즘을 기초로 객체의 테두리를 검출할 수 있다. 즉, 지도 생성부(225)는 스캔된 점군 데이터 중 사전 설정된 거리 이내에 위치하는 점군에서 임의로 선택된 두 점의 윤곽을 연결하는 반지름 а인 원을 그려 복수개의 원으로 둘러 쌓인 객체의 테두리를 형성할 수 있다.To this end, the map generator 225 may extract a closed curve from a point cloud located within a preset distance among the scanned point cloud data and detect the closed curve as an edge of the object. For example, the map generator 225 may detect an edge of an object based on an alpha shape algorithm. That is, the map generator 225 may form a border of an object surrounded by a plurality of circles by drawing a circle having a radius а connecting the contours of two randomly selected points from a point cloud located within a preset distance among the scanned point cloud data. there is.

또한, 지도 생성부(225)는 기준 영역의 넓이를 기준으로 검출된 테두리의 넓이가 사전 설정된 값 이상 차이가 나는 경우, 기준 영역으로부터 차이가 발생된 테두리 이전에 검출된 테두리들을 검출할 수 있다.In addition, the map generator 225 may detect borders detected before the edge of which the difference occurs from the reference area, when the width of the border detected based on the area of the reference area differs by more than a preset value.

또한, 지도 생성부(225)는 기준 영역으로부터 차이가 발생된 테두리 이전에 검출된 테두리까지 영역을 모델링할 수 있다. 이때, 지도 생성부(225)는 이전 기준 영역으로부터 차이가 발생된 테두리를 새로운 기준 영역으로 갱신할 수 있다. In addition, the map generator 225 may model an area from the reference area to an edge detected before the edge where the difference occurs. At this time, the map generator 225 may update the border where the difference occurs from the previous reference area to a new reference area.

여기서, 지도 생성부(225)는 기준 영역으로부터 차이가 발생된 테두리 이전에 검출된 테두리에 포함된 점군을 삼각형으로 연결하여 객체를 모델링(modeling)하되, 삼각형의 내각의 최소값이 최대가 되도록 할 수 있다. 즉, 지도 생성부(225)는 들로네 삼각분할(delaunay triangulation)을 통해 객체를 모델링할 수 있다. 다시 말하면, 지도 생성부(225)는 검출된 테두리의 모든 점군을 포함하는 최초 삼각형(super triangle)을 구성하고, 최초 삼각형 안에서 각 점을 대상으로 세 점을 포함하는 원 안에 다른 점이 존재하지 않으면, 그 삼각형을 델로니 삼각형으로 추가할 수 있다. 이때, 최초 삼각형은 모든 델로니 삼각망 구성 과정이 수행되면 삭제할 수 있다. 이후, 지도 생성부(225)는 모델링 된 객체를 메시화하여 외부면을 형성할 수 있다.Here, the map generator 225 may model the object by connecting a point group included in a border detected before the edge where the difference occurs from the reference area into a triangle, but maximizing the minimum value of the interior angle of the triangle. there is. That is, the map generator 225 may model the object through delaunay triangulation. In other words, the map generator 225 constructs a super triangle including all point groups of the detected border, and if there are no other points in the circle containing the three points for each point in the initial triangle, We can add that triangle as a Delaunay triangle. At this time, the initial triangle can be deleted after all the Delaunay triangular network construction processes are performed. Then, the map generator 225 may form an external surface by meshing the modeled object.

더하여, 지도 생성부(225)는 하부 영역보다 상부 영역이 큰 객체에 대해서는 반대로 객체의 최상부의 테두리를 기준 영역으로 설정하고, 기준 영역을 중심으로 객체의 하부로 스캔하면서 객체를 모델링할 수도 있다.In addition, for an object whose upper area is larger than its lower area, the map generator 225 may model the object by setting the uppermost edge of the object as the reference area and scanning the lower part of the object with the reference area as the center.

또한, 지도 생성부(225)는 점군 데이터를 이미지 상에 투영하고, 이미지에 투영된 점군 데이터를 거리(distance) 기반으로 필터링한 후 컬러맵을 생성함으로써, 이미지 상에서 특정 객체에 의해 가려진 것으로 표현되나 점군 데이터 상에는 인식된 영역에 대하여, 이미지의 잘못된 색상이 적용되는 노이즈를 효과적으로 제거할 수 있다.In addition, the map generator 225 projects the point cloud data onto the image, filters the projected point cloud data on the image based on distance, and generates a color map, so that it is expressed as being occluded by a specific object on the image. On the point cloud data, it is possible to effectively remove noise applied with the wrong color of the image with respect to the recognized area.

구체적으로, 지도 생성부(225)는 라이다의 이동 거리를 기준으로 점군 데이터를 그룹핑하여 단위 점군 데이터를 생성하고, 생성된 단위 점군 데이터를 이동 거리 내에 촬영된 이미지에 투영할 수 있다. 이때, 지도 생성부(225)는 생성된 단위 점군 데이터를 이동 거리의 중간 지점에서 촬영된 이미지에 투영할 수 있다. 예를 들어, 지도 생성부(225)는 라이다 및 카메라와 함께 설치된 GPS 수신기에 의해 획득된 GPS 데이터를 기준으로 거리를 계산하여 가상의 이벤트 기준점을 생성할 수 있다. 이때, 거리를 기준으로 한 가상의 이벤트 기준점이 10m 지점 및 20m 지점인 경우, 지도 생성부(225)는 10m 지점 및 20m 지점의 사이 값인 15m 지점에서 카메라에 의해 획득된 이미지를 선택할 수 있다. 여기서, 그룹핑 된 단위 점군 데이터는 월드 좌표계 기준의 위치 정보를 포함할 수 있다.Specifically, the map generating unit 225 may generate unit point cloud data by grouping the point cloud data based on the movement distance of the lidar, and project the generated unit point cloud data onto an image captured within the movement distance. At this time, the map generator 225 may project the generated unit point cloud data onto an image captured at an intermediate point of the movement distance. For example, the map generator 225 may generate a virtual event reference point by calculating a distance based on GPS data obtained by a GPS receiver installed together with a lidar and a camera. In this case, when the virtual event reference points based on the distance are the 10m point and the 20m point, the map generator 225 may select an image acquired by the camera at the 15m point, which is a value between the 10m point and the 20m point. Here, the grouped unit point cloud data may include location information based on the world coordinate system.

또한, 지도 생성부(225)는 이미지를 촬영한 카메라 정보, 이미지의 가로축 픽셀(x) 및 세로축 픽셀(y)를 포함하는 이미지 테이블에 단위 점군 데이터를 투영할 수 있다. 즉, 지도 생성부(225)는 이미지 테이블 상에서 이미지의 각 픽셀에 매칭되는 점에 대한 정보를 저장할 수 있다. 여기서, 점에 대한 정보는 라이다 기준의 위치 정보(x, y, z), 인텐시티 값, 매칭되는 색상 정보(r, g, b) 및 월드 좌표계 기준의 위치 정보를 포함할 수 있다.In addition, the map generator 225 may project unit point cloud data onto an image table including information about a camera that has taken an image, a horizontal axis pixel (x), and a vertical axis pixel (y) of the image. That is, the map generator 225 may store information on points matching each pixel of the image on the image table. Here, the information on the point may include position information (x, y, z) based on lidar, an intensity value, matched color information (r, g, b), and position information based on the world coordinate system.

또한, 지도 생성부(225)는 이미지 테이블의 각 픽셀 당 점에 대한 정보 중 라이다 기준의 위치 정보를 이용하여 점의 거리를 검출할 수 있다. 이때, 지도 생성부(225)는 하나의 픽셀에 복수의 점에 대한 정보가 저장되는 경우, 복수의 점 중 라이다를 기준으로 거리가 가장 가까운 점을 제외한 나머지 점을 삭제할 수 있다. 즉, 지도 생성부(225)는 하나의 픽셀에 복수 개의 점이 존재하는 경우, 가장 가까운 점을 제외한 나머지 점들을 이미지 상에 가려진 영역에 해당되는 점으로 판단하고 삭제할 수 있다.In addition, the map generator 225 may detect the distance of a point by using location information of a lidar criterion among information on a point per pixel of the image table. In this case, when information on a plurality of points is stored in one pixel, the map generator 225 may delete the remaining points except for a point having the closest distance based on lidar among the plurality of points. That is, when there are a plurality of points in one pixel, the map generator 225 determines that the remaining points except for the nearest point are points corresponding to the hidden area on the image and deletes them.

또한, 지도 생성부(225)는 필터링이 수행된 픽셀에 대하여 사전 설정된 픽셀 개수만큼 이웃하는 픽셀에 존재하는 점 간의 거리를 비교하여, 필터링이 수행된 픽셀을 기준으로 사전 설정된 값보다 거리가 먼 픽셀을 제거할 수 있다.In addition, the map generation unit 225 compares distances between points existing in neighboring pixels by a preset number of pixels with respect to the filtered pixel, and compares the distance between points that exist in neighboring pixels to the pixel on which the filtering is performed. can be removed.

그리고, 지도 생성부(225)는 필터링 된 이미지 테이블에 포함된 점들의 인텐시티 값, 색상 정보 및 월드 좌표계 기준의 위치 정보를 기준으로 컬러맵을 생성할 수 있다.In addition, the map generator 225 may generate a color map based on intensity values of points included in the filtered image table, color information, and location information based on the world coordinate system.

또한, 지도 생성부(225)는 이미지의 색상이 부여된 점군 데이터에서 사전 설정된 색상을 갖는 점을 분리하고, 분리된 점의 색상을 이웃하는 점의 색상을 기초로 보정하여 컬러맵을 생성함으로써, 하늘의 색상이나 빛 반사로 인해 특정 어두운 색상을 갖는 객체에 밝은 색상이 적용되는 노이즈를 효과적으로 제거할 수 있다.In addition, the map generator 225 separates points having a preset color from point cloud data to which the color of the image is assigned, corrects the color of the separated points based on the colors of neighboring points, and generates a color map, Noise in which a bright color is applied to an object having a specific dark color due to the color of the sky or light reflection can be effectively removed.

구체적으로, 지도 생성부(225)는 점군 데이터에 포함된 각 점과 동일한 좌표에 위치한 이미지의 색상을 부여할 수 있다. 즉, 지도 생성부(225)는 라이다의 이동 거리를 기준으로 점군 데이터를 그룹핑하여 단위 점군 데이터를 생성하고, 생성된 단위 점군 데이터를 이동 거리 내에 촬영된 이미지에 투영할 수 있다. 그리고, 지도 생성부(225)는 투영된 점들의 인텐시티, 색상 정보 및 월드 좌표계 기준의 위치 정보를 기준으로 컬러맵을 생성할 수 있다.Specifically, the map generator 225 may assign a color to an image located at the same coordinates as each point included in the point cloud data. That is, the map generator 225 may generate unit point cloud data by grouping the point cloud data based on the movement distance of the lidar, and project the generated unit point cloud data onto an image captured within the movement distance. In addition, the map generator 225 may generate a color map based on the intensities of the projected points, color information, and location information based on the world coordinate system.

또한, 지도 생성부(225)는 지면을 기준으로 특정 높이 이상의 점들 중 사전 설정된 색상을 갖는 점을 분리할 수 있다. 이때, 지도 생성부(225)는 색상이 부여된 점군 데이터의 밝기 값을 기준으로 한 히스토그램(histogram)을 생성하여, 인텐시티 값이 사전 설정된 값 이상인 점을 검출할 수 있다. 또한, 지도 생성부(225)는 색상이 부여된 점군 데이터에서 사전 설정된 색상을 갖되, 채도가 사전 설정된 값보다 낮고, 명도가 사전 설정된 값보다 높은 점들을 분리할 수 있다.Also, the map generator 225 may separate points having a preset color from among points having a specific height or higher with respect to the ground. At this time, the map generator 225 may generate a histogram based on the brightness value of the color-applied point cloud data, and detect points having an intensity value greater than or equal to a preset value. In addition, the map generator 225 may separate points having a preset color, saturation lower than a preset value, and brightness higher than a preset value from the color-applied point cloud data.

예를 들어, 지도 생성부(225)는 정밀도로지도에서 하늘의 색상이나, 빛 반사로 인해 밝은 색이 나무에 입혀지는 것을 보정할 수 있다. 이를 위해, 지도 생성부(225)는 차선에 영향을 주지 않기 위하여 지면을 기준으로 특정 높이 이상의 점들 중 사전 설정된 색상을 갖는 점을 분리할 수 있다. 이때, 지도 생성부(225)는 하늘의 색생이나 빛 반사에 대응하는 점 만을 분리할 수 있도록, 색상이 부여된 점군 데이터에서 사전 설정된 색상을 갖되, 채도가 사전 설정된 값보다 낮고, 명도가 사전 설정된 값보다 높은 점들을 분리할 수 있다. 예를 들어, 지도 생성부(225)는 하늘의 색상에 대응할 수 있는 160 ~ 300의 Hue 값을 갖는 점을 분리할 수 있다. 이때, 160 ~ 300의 Hue 값을 갖는 점을 분리하게 되면, 푸른 계열의 교통 시설물에 포함된 점들도 함께 분리될 수 있다. 이에 따라, 지도 생성부(225)는 160 ~ 300의 Hue 값을 갖는 점을 분리하되, 인텐시티(intensity) 값이 사전 설정된 값보다 높은 점은 제외시킬 수 있다. 즉, 지도 생성부(225)는 평평한 형태를 갖는 표지판이 인텐시티 값이 높은 것을 이용하여, 인텐시티 값을 기준으로 교통 시설물에 해당하는 점들은 제외시킬 수 있다. 여기서, 인텐시티 값은 라이다의 신호 강도가 될 수 있다. 예를 들어, 지도 생성부(225)는 160 ~ 300의 Hue 값을 갖는 점 중 인텐시티 값이 250 이상인 점들은 제외시킬 수 있다.For example, the map generation unit 225 may correct the color of the sky on the map or the bright color of trees due to light reflection on the map with precision. To this end, the map generator 225 may separate points having a preset color from among points having a specific height or higher with respect to the ground so as not to affect the lane. At this time, the map generator 225 has a preset color from the color-applied point cloud data, but has a saturation lower than the preset value and a preset brightness so that only points corresponding to the color of the sky or the reflection of light can be separated. Points higher than the value can be isolated. For example, the map generator 225 may separate points having a Hue value of 160 to 300 that may correspond to the color of the sky. At this time, if the dots having a Hue value of 160 to 300 are separated, the dots included in the blue-based traffic facility may also be separated. Accordingly, the map generator 225 separates points having a Hue value of 160 to 300, but may exclude points having an intensity value higher than a preset value. That is, the map generator 225 may exclude points corresponding to traffic facilities based on the intensity value by using that a sign having a flat shape has a high intensity value. Here, the intensity value may be signal strength of LIDAR. For example, the map generator 225 may exclude points having an intensity value of 250 or more among points having a Hue value of 160 to 300.

그리고, 지도 생성부(225)는 분리된 점을 제거 후 컬러맵을 생성할 수 있다. 하지만, 이에 한정된 것은 아니고, 지도 생성부(225)는 분리된 점 각각의 색상을 분리된 점을 제외한 분리된 점과 가장 근접하는 점의 색상으로 보정할 수 있다. 예를 들어, 지도 생성부(225)는 분리된 점 각각의 색상을 상기 분리된 점을 제외한 분리된 점과 사전 설정된 거리 이내에 위치한 점의 평균 색상 값으로 보정할 수 있다. 이때, 지도 생성부(225)는 옥트리(octree) 알고리즘을 이용하여 분리된 점과 가장 근접하는 점을 검출할 수 있다.Also, the map generator 225 may generate a color map after removing the separated points. However, the map generator 225 is not limited thereto, and the map generator 225 may correct the color of each separated point to the color of a point closest to the separated point except for the separated point. For example, the map generator 225 may correct the color of each separated point to an average color value of points located within a preset distance from the separated point except for the separated point. At this time, the map generator 225 may detect a point closest to the separated point using an octree algorithm.

다음 구성으로, 학습 데이터 생성부(230)는 지도 생성부(225)에 의해 생성된 지도를 학습 데이터로 가공할 수 있다. 예를 들어, 학습 데이터 생성부(230)는 생성된 지도를 자율주행에 사용될 학습 데이터로 가공할 수 있다.With the following configuration, the learning data generating unit 230 may process the map generated by the map generating unit 225 into learning data. For example, the learning data generator 230 may process the generated map into learning data to be used for autonomous driving.

더하여, 학습 데이터 생성부(230)는 교통 시설물에 대한 학습 인식률을 높이기 위하여, 교통 시설물에 대하여 별도로 학습 데이터를 생성할 수 있다. 이때, 학습 데이터 생성부(230)는 생성한 지도에 대한 학습 데이터와 교통 시설물에 대한 학습 데이터를 하나의 학습 데이터로 생성하여 외부에 제공할 수 있다.In addition, the learning data generation unit 230 may separately generate learning data for traffic facilities in order to increase the learning recognition rate for traffic facilities. In this case, the learning data generation unit 230 may generate the generated learning data for the map and the learning data for the traffic facility as one learning data, and provide it to the outside.

즉, 학습 데이터 생성부(230)는 도로교통공단에서 제공하는 교통 시설물 샘플 이미지를 실제로 카메라에 의해 촬영된 이미지와 유사하게 가공하여 학습 데이터를 생성할 수 있다.That is, the learning data generation unit 230 may generate learning data by processing a traffic facility sample image provided by the Korea Road Traffic Authority to be similar to an image actually captured by a camera.

이를 위해, 학습 데이터 생성부(230)는 교통 시설물 샘플 이미지를 수집하고, 수집된 교통 시설물 샘플 이미지를 차량에 설치된 카메라로부터 촬영된 이미지로 인식될 수 있도록 가공한 적어도 하나의 가공 이미지를 생성하고, 생성된 적어도 하나의 가공 이미지에 배경을 삽입하여 학습 데이터를 생성할 수 있다.To this end, the learning data generation unit 230 collects sample traffic facility images, and generates at least one processed image processed so that the collected sample traffic facility images can be recognized as images captured by a camera installed in a vehicle, Learning data may be generated by inserting a background into at least one generated processed image.

구체적으로, 학습 데이터 생성부(230)는 수집된 교통 시설물 샘플 이미지를 특정 각도 범위(range) 내에서 뒤틀림(shearing)을 적용한 복수의 제1 가공 이미지를 생성할 수 있다. 이때, 학습 데이터 생성부(230)는 수집된 교통 시설물 샘플 이미지를 -10 ~ 10°사이의 랜덤 값으로 뒤틀림을 적용할 수 있다. 즉, 학습 데이터 생성부(230)는 카메라에 의해 촬영된 방향, 각도 등에 따른 다양한 유형의 학습 데이터를 생성하기 위하여 교통 시설물 샘플 이미지를 특정 각도 범위 내에서 뒤틀림을 적용할 수 있다. 이때, 교통 시설물 샘플 이미지는 교통 시설물의 정면도(front view)가 될 수 있다.Specifically, the learning data generation unit 230 may generate a plurality of first processed images by applying shearing to the collected traffic facility sample images within a specific angular range. In this case, the learning data generation unit 230 may apply distortion to the collected traffic facility sample images with a random value between -10 and 10°. That is, the learning data generation unit 230 may apply distortion to the traffic facility sample image within a specific angle range in order to generate various types of learning data according to the direction and angle captured by the camera. In this case, the traffic facility sample image may be a front view of the traffic facility.

또한, 학습 데이터 생성부(230)는 생성된 제1 가공 이미지에 가우시안 블러(gaussian blur)를 적용한 제2 가공 이미지를 생성할 수 있다. 이때, 학습 데이터 생성부(230)는 제1 가공 이미지에 사전에 설정된 픽셀(pixel)에 대한 반경(radius) 값 내에서 랜덤(random)으로 가우시안 블러를 적용할 수 있다. 즉, 학습 데이터 생성부(230)는 카메라의 촬영 환경에 따라 선명하거나 흐릿하게 보이는 다양한 유형의 학습 데이터를 생성하기 위하여 가우시안 블러를 적용할 수 있다.Also, the learning data generator 230 may generate a second processed image by applying Gaussian blur to the generated first processed image. In this case, the learning data generation unit 230 may randomly apply Gaussian blur to the first processed image within a preset radius value for a pixel. That is, the learning data generation unit 230 may apply Gaussian blur to generate various types of learning data that appear clear or blurry according to the shooting environment of the camera.

또한, 학습 데이터 생성부(230)는 제2 가공 이미지에 인텐시티(intensity) 값을 적용한 복수의 제3 가공 이미지를 생성할 수 있다. 여기서, 인텐시티 값은 밝기 강도가 될 수 있다. 즉, 학습 데이터 생성부(230)는 제2 가공 이미지에 사전에 설정된 인텐시티 값 범위 내에서 랜덤으로 인텐시티 값을 적용할 수 있다. 즉, 학습 데이터 생성부(230)는 카메라의 촬영 환경에 따라 다양한 인텐시티 값을 갖는 학습 데이터를 생성하기 위하여, 랜덤으로 인텐시티 값을 적용할 수 있다. 이때, 학습 데이터 생성부(230)는 제2 가공 이미지의 특정 영역에 선택적으로 인텐시티 값을 적용할 수 있다. 즉, 하나의 교통 시설물 이미지에도 다양한 영역에서 인텐시티 값이 다른 상황이 존재할 수 있기 때문에, 특정 영역에 선택적으로 인텐시티 값을 적용할 수 있다.Also, the learning data generation unit 230 may generate a plurality of third processed images by applying an intensity value to the second processed image. Here, the intensity value may be brightness intensity. That is, the learning data generator 230 may randomly apply an intensity value within a preset intensity value range to the second processed image. That is, the learning data generating unit 230 may randomly apply an intensity value to generate learning data having various intensity values according to the shooting environment of the camera. In this case, the learning data generator 230 may selectively apply an intensity value to a specific region of the second processed image. That is, since a situation in which intensity values are different in various regions may exist even in one traffic facility image, intensity values may be selectively applied to specific regions.

그리고, 학습 데이터 생성부(230)는 생성된 적어도 하나의 가공 이미지에 배경을 삽입하여 학습 데이터를 생성할 수 있다. 여기서, 배경은 차량에 탑재된 카메라를 통해 수집된 복수의 2D 이미지 상의 랜덤 영역이 될 수 있다. 이때, 학습 데이터 생성부(230)는 배경에 가공 이미지의 크기를 랜덤하게 적용하여 학습 데이터를 생성할 수 있다. 또한, 학습 데이터 생성부(230)는 배경에 가공 이미지의 위치를 랜덤하게 적용하여 학습 데이터를 생성할 수 있다.Also, the learning data generation unit 230 may generate learning data by inserting a background into at least one generated processed image. Here, the background may be a random area on a plurality of 2D images collected through a camera mounted in a vehicle. In this case, the learning data generation unit 230 may generate learning data by randomly applying the size of the processed image to the background. In addition, the learning data generation unit 230 may generate learning data by randomly applying the position of the processed image to the background.

이와 같이, 학습 데이터 생성부(230)는 교통 시설물 샘플 이미지를 실제로 카메라로부터 촬영된 이미지로 인식될 수 있도록 가공하고, 가공 이미지에 배경을 삽입하여 학습 데이터를 생성함으로써, 이미지의 양이 제한적인 교통 시설물에 대하여 충분한 학습 데이터를 확보할 수 있다.In this way, the learning data generation unit 230 processes the traffic facility sample image so that it can be recognized as an image actually captured by the camera and inserts a background into the processed image to generate learning data. Sufficient learning data can be secured for the facility.

이하 상술한 바와 같은, 본 발명의 일 실시예에 따른 데이터 생성 장치(200)의 논리적 구성요소를 구현하기 위한 하드웨어에 대하여 보다 구체적으로 설명한다.As described above, hardware for implementing the logical components of the data generating apparatus 200 according to an embodiment of the present invention will be described in more detail.

도 3은 본 발명의 일 실시예에 따른 데이터 생성 장치의 하드웨어 구성도이다.3 is a hardware configuration diagram of a data generating device according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 데이터 생성 장치(200)는 프로세서(Processor, 250), 메모리(Memory, 255), 송수신기(Transceiver, 260), 입출력장치(Input/output device, 265), 데이터 버스(Bus, 270) 및 스토리지(Storage, 275)를 포함하여 구성될 수 있다.As shown in FIG. 3, the data generating device 200 includes a processor 250, a memory 255, a transceiver 260, an input/output device 265, and a data bus Bus, 270) and storage (Storage, 275) can be configured to include.

프로세서(250)는 메모리(255)에 상주된 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(280a)에 따른 명령어를 기초로, 데이터 생성 장치(200)의 동작 및 기능을 구현할 수 있다. 메모리(255)에는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(280a)가 상주(loading)될 수 있다. 송수신기(260)는 데이터 수집 장치(100)와 데이터를 송수신할 수 있다. 입출력장치(265)는 데이터 생성 장치(200)의 기능 동작에 필요한 데이터를 입력 받고, 데이터 생성 결과 등을 출력할 수 있다. 데이터 버스(270)는 프로세서(250), 메모리(255), 송수신기(260), 입출력장치(265) 및 스토리지(275)와 연결되어, 각각의 구성 요소 사이가 서로 데이터를 전달하기 위한 이동 통로의 역할을 수행할 수 있다.The processor 250 may implement operations and functions of the data generating device 200 based on instructions according to the software 280a in which the method according to the embodiments of the present invention is resident in the memory 255 . Software 280a in which a method according to embodiments of the present invention is implemented may be loaded in the memory 255 . The transceiver 260 may transmit and receive data to and from the data collection device 100 . The input/output device 265 may receive data required for the functional operation of the data generating device 200 and output data generation results. The data bus 270 is connected to the processor 250, the memory 255, the transceiver 260, the input/output device 265, and the storage 275, and is a movement path for transferring data between each component. role can be fulfilled.

스토리지(275)는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(280a)의 실행을 위해 필요한 애플리케이션 프로그래밍 인터페이스(Application Programming Interface, API), 라이브러리(library) 파일, 리소스(resource) 파일 등을 저장할 수 있다. 스토리지(275)는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(280b)를 저장할 수 있다. 또한, 스토리지(275)는 본 발명의 실시예들에 따른 방법의 수행에 필요한 정보들을 저장할 수 있다.The storage 275 stores an application programming interface (API), a library file, a resource file, etc. necessary for the execution of the software 280a in which the method according to the embodiments of the present invention is implemented. can be saved The storage 275 may store software 280b in which a method according to embodiments of the present invention is implemented. Also, the storage 275 may store information necessary for performing a method according to embodiments of the present invention.

본 발명의 일 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된 방향 정보를 포함한 지도 생성 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가, 차량에 고정 설치된 적어도 하나의 카메라(camera)에 의해 촬영된 적어도 하나의 이미지를 수신하는 단계, 상기 수신한 적어도 하나의 이미지 상에서 교통 시설물을 검출하는 단계, 상기 검출된 교통 시설물에 대하여 라이다(lidar)에 의해 획득된 점군 데이터를 기준으로 방향 정보를 생성하는 단계, 상기 생성된 방향 정보가 포함된 지도를 생성하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to one embodiment of the present invention, the software (280a, 280b) for implementing a method of generating a map including direction information resident in the memory 255 or stored in the storage 275 is provided by the processor 250 fixed to the vehicle. Receiving at least one image captured by at least one installed camera, detecting a traffic facility on the received at least one image, using lidar for the detected traffic facility It may be a computer program recorded on a recording medium to execute the steps of generating direction information based on the acquired point cloud data and generating a map including the generated direction information.

본 발명의 일 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된 교통 시설물에 대한 학습 데이터 생성 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가, 사전 저장된 교통 시설물 샘플 이미지를 수집하는 단계, 상기 수집된 교통 시설물 샘플 이미지를 차량에 설치된 카메라(camera)로부터 촬영된 이미지로 인식될 수 있도록 한 적어도 하나의 가공 이미지를 생성하는 단계, 상기 생성된 적어도 하나의 가공 이미지에 배경을 삽입하여 학습 데이터를 생성하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to an embodiment of the present invention, the software 280a, 280b for implementing a method of generating learning data for traffic facilities resident in the memory 255 or stored in the storage 275 is provided by the processor 250, pre-stored Collecting traffic facility sample images; generating at least one processed image so that the collected traffic facility sample images can be recognized as images taken from a camera installed in a vehicle; In order to execute the step of generating learning data by inserting a background into a processed image, it may be a computer program recorded on a recording medium.

본 발명의 일 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된 항공 라이다를 이용한 지도 생성 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가, 항공 장치에 설치된 라이다(lidar)로부터 획득된 점군 데이터를 수신하는 단계, 상기 수신한 점군 데이터의 탑-뷰(Top-view)를 투영하는 단계 및 상기 투영된 점군 데이터를 지면과 수직한 방향으로 스캔(scan)하여 지도를 생성하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to one embodiment of the present invention, the software 280a, 280b for implementing a method of generating a map using an airborne lidar resident in the memory 255 or stored in the storage 275 is provided by the processor 250, the airborne device. Receiving point cloud data obtained from a lidar installed in , projecting a top-view of the received point cloud data, and scanning the projected point cloud data in a direction perpendicular to the ground ( In order to execute the step of generating a map by scanning, it may be a computer program recorded on a recording medium.

본 발명의 일 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된 프로젝션 기반의 컬러맵 생성 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가, 카메라(camera)로부터 촬영된 이미지와, 라이다(lidar)로부터 획득된 점군 데이터를 수신하는 단계, 상기 수신한 점군 데이터를 상기 이미지 상에 투영하는 단계, 상기 이미지에 투영된 점군 데이터를 거리(distance)를 기반으로 필터링 하는 단계 및 상기 필터링 된 점군 데이터에 상기 이미지의 색상을 부여하여 컬러맵을 생성하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to an embodiment of the present invention, the software 280a, 280b for implementing a projection-based color map generation method resident in the memory 255 or stored in the storage 275 is provided by the processor 250, the camera Receiving an image captured from ) and point cloud data obtained from a lidar, projecting the received point cloud data onto the image, and projecting the projected point cloud data onto the image based on a distance It may be a computer program recorded on a recording medium to execute the filtering step and the step of generating a color map by assigning the color of the image to the filtered point cloud data.

본 발명의 일 실시예에 따르면, 메모리(255)에 상주되거나 또는 스토리지(275)에 저장된 색상 보정을 적용한 컬러맵 생성 방법을 구현하기 위한 소프트웨어(280a, 280b)는 프로세서(250)가, 라이다(lidar)로부터 획득된 점군 데이터에 카메라(camera)를 통해 촬영된 이미지의 색상을 부여하는 단계, 상기 색상이 부여된 점군 데이터에서 사전 설정된 색상을 갖는 점을 분리하는 단계, 상기 분리된 점의 색상을 이웃하는 점의 색상을 기초로 보정하여 컬러맵을 생성하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to one embodiment of the present invention, the software 280a, 280b for implementing a method of generating a color map to which color correction is applied resides in the memory 255 or stored in the storage 275, the processor 250 is a lidar assigning a color of an image captured by a camera to point cloud data obtained from a lidar, separating a point having a preset color from the color-added point cloud data, and separating the separated point color It may be a computer program recorded on a recording medium in order to execute the step of generating a color map by correcting based on the color of neighboring points.

보다 구체적으로, 프로세서(250)는 ASIC(Application-Specific Integrated Circuit), 다른 칩셋(chipset), 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리(255)는 ROM(Read-Only Memory), RAM(Random Access Memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 송수신기(260)는 유무선 신호를 처리하기 위한 베이스밴드 회로를 포함할 수 있다. 입출력장치(265)는 키보드(keyboard), 마우스(mouse), 및/또는 조이스틱(joystick) 등과 같은 입력 장치 및 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic LED, OLED) 및/또는 능동형 유기 발광 다이오드(Active Matrix OLED, AMOLED) 등과 같은 영상 출력 장치 프린터(printer), 플로터(plotter) 등과 같은 인쇄 장치를 포함할 수 있다. More specifically, the processor 250 may include an Application-Specific Integrated Circuit (ASIC), another chipset, a logic circuit, and/or a data processing device. The memory 255 may include read-only memory (ROM), random access memory (RAM), flash memory, a memory card, a storage medium, and/or other storage devices. The transceiver 260 may include a baseband circuit for processing wired/wireless signals. The input/output device 265 includes an input device such as a keyboard, a mouse, and/or a joystick, and a Liquid Crystal Display (LCD), an Organic LED (OLED), and/or a liquid crystal display (LCD). Alternatively, an image output device such as an active matrix OLED (AMOLED) may include a printing device such as a printer or a plotter.

본 명세서에 포함된 실시 예가 소프트웨어로 구현될 경우, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리(255)에 상주되고, 프로세서(250)에 의해 실행될 수 있다. 메모리(255)는 프로세서(250)의 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(250)와 연결될 수 있다.When the embodiments included in this specification are implemented as software, the above-described method may be implemented as a module (process, function, etc.) that performs the above-described functions. A module may reside in memory 255 and be executed by processor 250 . The memory 255 may be internal or external to the processor 250 and may be connected to the processor 250 by various well-known means.

도 3에 도시된 각 구성요소는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Each component shown in FIG. 3 may be implemented by various means, eg, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one embodiment of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), FPGAs ( Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, etc.

또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한, 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, in the case of implementation by firmware or software, an embodiment of the present invention is implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above, and is stored on a recording medium readable through various computer means. can be recorded. Here, the recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in computer software. For example, recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs (Compact Disk Read Only Memory) and DVDs (Digital Video Disks), floptical It includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, such as a floptical disk, and ROM, RAM, flash memory, and the like. Examples of program instructions may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. These hardware devices may be configured to operate as one or more pieces of software to perform the operations of the present invention, and vice versa.

이하, 본 발명의 일 실시예에 따른 방향 정보를 포함한 지도 생성 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method for generating a map including direction information according to an embodiment of the present invention will be described in detail.

도 4는 본 발명의 일 실시예에 따른 방향 정보를 포함한 지도 생성 방법을 나타낸 순서도이다.4 is a flowchart illustrating a method of generating a map including direction information according to an embodiment of the present invention.

도 4를 참조하면, S110 단계에서 데이터 생성 장치는 카메라로부터 촬영된 이미지를 수신할 수 있다. Referring to FIG. 4 , in step S110, the data generating device may receive an image captured by a camera.

다음으로, S120 단계에서 데이터 생성 장치는 수신한 적어도 하나의 이미지 상에서 교통 시설물을 검출할 수 있다. 이때, 데이터 생성 장치는 딥 러닝(deep learning) 기반의 객체 검출 알고리즘을 이용하여 이미지 상에서 교통 시설물을 검출할 수 있다. 여기서, 데이터 생성 장치는 교통 시설물에 대한 정확한 방향성을 추출하기 위하여, 교통 시설물이 일정 거리에 들어오거나, 검출된 교통 시설물의 바운딩 박스가 불균형하지 않고, 검출된 교통 시설물에 포함된 점군 개수가 일정 이상일 경우에만 S130 단계에서 방향 정보를 추출하도록 할 수 있다.Next, in step S120, the data generating device may detect traffic facilities on at least one received image. In this case, the data generating device may detect traffic facilities on the image using a deep learning-based object detection algorithm. Here, in order to extract an accurate direction for the traffic facility, the data generating device is provided when the traffic facility is within a certain distance, the bounding box of the detected traffic facility is not imbalanced, and the number of point clouds included in the detected traffic facility is greater than or equal to a certain distance. In this case, direction information may be extracted in step S130.

다음으로, S130 단계에서 데이터 생성 장치는 검출된 교통 시설물에 해당하는 라이다에 의해 획득된 점군 데이터를 기준으로 방향 정보를 생성할 수 있다. 이때, 데이터 생성 장치는 거리 기반의 유클리디안 클러스트링(Euclidean clustering)을 이용하여 2D 이미지 상에서 교통 시설물을 검출할 수 있다. 즉, 데이터 생성 장치는 방향 정보를 생성하기 위한 점군 데이터를 추출할 때, 검출된 교통 시설물 이외에 다른 객체의 점군 데이터가 추출되는 것을 방지하기 위하여, 유클리디안 클러스터링 알고리즘을 통해 교통 시설물에 대한 클러스터를 구성하도록 할 수 있다.Next, in step S130, the data generating device may generate direction information based on point cloud data acquired by lidar corresponding to the detected traffic facility. In this case, the data generating apparatus may detect traffic facilities on the 2D image using distance-based Euclidean clustering. That is, when extracting point cloud data for generating direction information, the data generating device generates clusters for traffic facilities through a Euclidean clustering algorithm in order to prevent point cloud data of objects other than the detected traffic facility from being extracted. can be configured.

또한, 데이터 생성 장치는 검출된 교통 시설물에 포함된 점군을 복셀 그리드(voxel grid) 형태로 필터링하여 다운 샘플링(down sampling)할 수 있다. 즉, 데이터 생성 장치는 검출된 교통 시설물에 포함된 점군 중 불균형한 점군들을 균형 있는 형태로 다운 샐플링 할 수 있다.In addition, the data generating apparatus may perform down sampling by filtering the point cloud included in the detected traffic facility in the form of a voxel grid. That is, the data generating apparatus may down-sample unbalanced point clouds among the point clouds included in the detected traffic facility into a balanced form.

또한, 데이터 생성 장치는 검출된 교통 시설물에 대한 점군 데이터를 누적하여 사전에 설정된 특정 값을 만족할 경우 방향 정보를 생성할 수 있다. 즉, 데이터 생성 장치는 점군을 누적하여 교통 시설물에 대한 충분한 점군을 확보한 상태로 방향 정보를 생성하도록 할 수 있다.Also, the data generating device may accumulate point cloud data for the detected traffic facility and generate direction information when a predetermined specific value is satisfied. That is, the data generating device may generate direction information in a state in which sufficient point clouds for traffic facilities are secured by accumulating point clouds.

또한, 데이터 생성 장치는 검출된 교통 시설물에 대한 점군을 RANSAC(random sample consensus) 알고리즘을 이용하여 무작위로 탐색하여 대표 평면을 획득할 수 있다. 즉, 데이터 생성 장치는 검출된 교통 시설물에 대한 점군에서 랜덤하게 세개의 점을 선택하고, 선택된 세개의 점을 지나는 평면을 구한다. 이때, 평면과의 거리가 사전 설정된 값보다 작은 인라이어 점들을 확인하고, 인라이어의 개수를 구할 수 있다. 이때, 데이터 생성 장치는 인라이어 개수가 가장 큰 평면을 대표 평면으로 선택할 수 있다.In addition, the data generating apparatus may obtain a representative plane by randomly searching the point cloud for the detected traffic facility using a random sample consensus (RANSAC) algorithm. That is, the data generating device randomly selects three points from the point cloud for the detected traffic facility and obtains a plane passing through the selected three points. At this time, inlier points having a distance from the plane smaller than a preset value may be identified, and the number of inliers may be obtained. In this case, the data generating device may select a plane having the largest number of inliers as a representative plane.

또한, 데이터 생성 장치는 대표 평면을 기준으로 평면 방정식을 이용하여 평면에서 수직으로 뻗어 나가는 법선 벡터를 계산할 수 있다.In addition, the data generating device may calculate a normal vector extending vertically from the plane using a plane equation based on the representative plane.

그리고, S140 단계에서, 데이터 생성 장치는 생성된 교통 시설물에 대한 방향 정보가 포함된 지도를 생성할 수 있다. 이때, 데이터 생성 장치는 생성된 법선 벡터를 지도 상에 표시하거나, 지도의 메타 정보에 포함시킬 수 있다.And, in step S140, the data generating device may generate a map including direction information about the generated traffic facilities. In this case, the data generating device may display the generated normal vector on the map or include it in meta information of the map.

이하, 본 발명의 일 실시예에 따른 교통 시설물에 대한 학습 데이터 생성 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method for generating learning data for traffic facilities according to an embodiment of the present invention will be described in detail.

도 5는 본 발명의 일 실시예에 따른 교통 시설물에 대한 학습 데이터 생성 방법을 나타낸 순서도이다.5 is a flowchart illustrating a method of generating learning data for a traffic facility according to an embodiment of the present invention.

도 5를 참조하면, S210 단계에서, 데이터 생성 장치는 교통 시설물 샘플 이미지를 수집할 수 있다. 여기서, 교통 시설물 샘플 이미지는 도로교통공단에서 제공하는 교통 시설물의 정면도(front view)가 될 수 있다.Referring to FIG. 5 , in step S210 , the data generating device may collect sample images of traffic facilities. Here, the traffic facility sample image may be a front view of traffic facilities provided by the Road Traffic Authority.

다음으로, S220 단계에서, 데이터 생성 장치는 수집된 교통 시설물 샘플 이미지를 차량에 설치된 카메라로부터 촬영된 이미지로 인식될 수 있도록 가공한 적어도 하나의 가공 이미지를 생성할 수 있다.Next, in step S220, the data generating device may generate at least one processed image by processing the collected traffic facility sample image to be recognized as an image captured by a camera installed in the vehicle.

구체적으로, 데이터 생성 장치는 수집된 교통 시설물 샘플 이미지를 특정 각도 범위(range) 내에서 뒤틀림(shearing)을 적용한 복수의 제1 가공 이미지를 생성할 수 있다. 이때, 데이터 생성 장치는 수집된 교통 시설물 샘플 이미지를 -10 ~ 10°사이의 랜덤 값으로 뒤틀림을 적용할 수 있다. 즉, 데이터 생성 장치는 카메라에 의해 촬영된 방향, 각도 등에 따른 다양한 유형의 학습 데이터를 생성하기 위하여 교통 시설물 샘플 이미지를 특정 각도 범위 내에서 뒤틀림을 적용할 수 있다.Specifically, the data generating device may generate a plurality of first processed images by applying shearing to the collected traffic facility sample images within a specific angular range. In this case, the data generating device may apply distortion to the collected traffic facility sample image with a random value between -10 and 10°. That is, the data generating device may apply distortion to the traffic facility sample image within a specific angular range in order to generate various types of learning data according to directions and angles photographed by the camera.

또한, 데이터 생성 장치는 생성된 제1 가공 이미지에 가우시안 블러(gaussian blur)를 적용한 제2 가공 이미지를 생성할 수 있다. 이때, 데이터 생성 장치는 제1 가공 이미지에 사전에 설정된 픽셀(pixel)에 대한 반경(radius) 값 내에서 랜덤(random)으로 가우시안 블러를 적용할 수 있다. 즉, 데이터 생성 장치는 카메라의 촬영 환경에 따라 선명하거나 흐릿하게 보이는 다양한 유형의 학습 데이터를 생성하기 위하여 가우시안 블러를 적용할 수 있다.Also, the data generating apparatus may generate a second processed image by applying Gaussian blur to the generated first processed image. In this case, the data generating device may randomly apply Gaussian blur to the first processed image within a preset radius value for each pixel. That is, the data generating device may apply Gaussian blur to generate various types of learning data that appear clear or blurry according to the shooting environment of the camera.

또한, 데이터 생성 장치는 제2 가공 이미지에 인텐시티(intensity) 값을 적용한 복수의 제3 가공 이미지를 생성할 수 있다. 즉, 데이터 생성 장치는 제2 가공 이미지에 사전에 설정된 인텐시티 값 범위 내에서 랜덤으로 인텐시티 값을 적용할 수 있다. 데이터 생성 장치는 카메라의 촬영 환경에 따라 다양한 인텐시티 값을 갖는 학습 데이터를 생성하기 위하여, 랜덤으로 인텐시티 값을 적용할 수 있다. 이때, 데이터 생성 장치는 제2 가공 이미지의 특정 영역에 선택적으로 인텐시티 값을 적용할 수 있다. 즉, 하나의 교통 시설물 이미지에도 다양한 영역에서 인텐시티 값이 다른 상황이 존재할 수 있기 때문에, 특정 영역에 선택적으로 인텐시티 값을 적용할 수 있다.Also, the data generating apparatus may generate a plurality of third processed images by applying an intensity value to the second processed image. That is, the data generating device may randomly apply an intensity value within a preset intensity value range to the second processed image. The data generating device may randomly apply an intensity value to generate learning data having various intensity values according to a photographing environment of a camera. In this case, the data generating device may selectively apply an intensity value to a specific region of the second processed image. That is, since a situation in which intensity values are different in various regions may exist even in one traffic facility image, intensity values may be selectively applied to specific regions.

그리고, S230 단계에서, 데이터 생성 장치는 생성된 적어도 하나의 가공 이미지에 배경을 삽입하여 학습 데이터를 생성할 수 있다. 여기서, 배경은 차량에 탑재된 카메라를 통해 수집된 복수의 2D 이미지 상의 랜덤 영역이 될 수 있다. 이때, 데이터 생성 장치는 배경에 가공 이미지의 크기를 랜덤하게 적용하여 학습 데이터를 생성할 수 있다. 또한, 데이터 생성 장치는 배경에 가공 이미지의 위치를 랜덤하게 적용하여 학습 데이터를 생성할 수 있다.And, in step S230, the data generating device may generate learning data by inserting a background into at least one generated processed image. Here, the background may be a random area on a plurality of 2D images collected through a camera mounted in a vehicle. In this case, the data generating device may generate learning data by randomly applying the size of the processed image to the background. In addition, the data generating device may generate training data by randomly applying a position of a processed image to a background.

이하, 본 발명의 일 실시예에 따른 항공 라이다를 이용한 지도 생성 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method for generating a map using an aerial lidar according to an embodiment of the present invention will be described in detail.

도 6은 본 발명의 일 실시예에 따른 항공 라이다를 이용한 지도 생성 방법을 나타낸 순서도이다.6 is a flowchart illustrating a method of generating a map using an aerial lidar according to an embodiment of the present invention.

도 6을 참조하면, S310 단계에서, 데이터 생성 장치는 항공 장치에 설치된 라이다로부터 획득된 지면에 대한 점군 데이터를 수신할 수 있다.Referring to FIG. 6 , in step S310 , the data generating device may receive point cloud data on the ground acquired from a LIDAR installed in the airborne device.

다음으로, S320 단계에서, 데이터 생성 장치는 수신한 점군 데이터의 탑-뷰를 투영할 수 있다. 즉, 데이터 생성 장치는 항공 장치를 기준으로 지면을 수직으로 바라보는 시점의 점군 데이터를 생성할 수 있다.Next, in step S320, the data generating apparatus may project a top-view of the received point cloud data. That is, the data generating device may generate point cloud data at a point of view when the ground is viewed vertically with respect to the airborne device.

그리고, S330 단계에서, 데이터 생성 장치는 투영된 점군 데이터를 지면과 수직한 방향으로 스캔하여 지도를 생성할 수 있다.In step S330, the data generating device may generate a map by scanning the projected point cloud data in a direction perpendicular to the ground.

구체적으로, 데이터 생성 장치는 투영된 점군 데이터의 기준 영역을 검출하고, 기준 영역을 기준으로 지면과 수직한 방향으로 스캔하면서, 객체의 테두리를 검출할 수 있다. 여기서, 기준 영역은 점군 데이터에 포함된 객체의 최하부면이 될 수 있다. 즉, 데이터 생성 장치는 객체의 최하부면인 기준 영역을 검출하고, 기준 영역으로부터 객체의 상부 방향으로 스캔하면서 객체의 테두리를 검출할 수 있다.Specifically, the data generating apparatus may detect a reference area of the projected point cloud data and detect an edge of the object while scanning in a direction perpendicular to the ground based on the reference area. Here, the reference region may be the lowermost surface of an object included in the point cloud data. That is, the data generating apparatus may detect the reference area, which is the lowermost surface of the object, and detect the edge of the object while scanning from the reference area toward the top of the object.

이를 위해, 데이터 생성 장치는 스캔된 점군 데이터 중 사전 설정된 거리 이내에 위치하는 점군에서 폐곡선을 추출하고, 폐곡선을 객체의 테두리로 검출할 수 있다.To this end, the data generating apparatus may extract a closed curve from a point cloud located within a preset distance among the scanned point cloud data and detect the closed curve as an edge of the object.

또한, 데이터 생성 장치는 기준 영역의 넓이를 기준으로 검출된 테두리의 넓이가 사전 설정된 값 이상 차이가 나는 경우, 기준 영역으로부터 차이가 발생된 테두리 이전에 검출된 테두리들을 검출할 수 있다.In addition, the data generating apparatus may detect borders detected before the edge of which the difference occurs from the reference area when the difference between the width of the detected edge and the width of the reference area is equal to or greater than a preset value.

또한, 데이터 생성 장치는 기준 영역으로부터 차이가 발생된 테두리 이전에 검출된 테두리까지 영역을 모델링할 수 있다. 이때, 데이터 생성 장치는 이전 기준 영역으로부터 차이가 발생된 테두리를 새로운 기준 영역으로 갱신할 수 있다.Also, the data generating apparatus may model an area from the reference area to an edge detected prior to the edge where the difference occurs. At this time, the data generating device may update the border where the difference occurs from the previous reference area to a new reference area.

여기서, 데이터 생성 장치는 기준 영역으로부터 차이가 발생된 테두리 이전에 검출된 테두리에 포함된 점군을 삼각형으로 연결하여 객체를 모델링하되, 삼각형의 내각의 최소값이 최대가 되도록 할 수 있다. 즉, 데이터 생성 장치는 들로네 삼각분할(delaunay triangulation)을 통해 모델링할 수 있다. 다시 말하면, 데이터 생성 장치는 검출된 테두리의 모든 점군을 포함하는 최초 삼각형(super triangle)을 구성하고, 최초 삼각형 안에서 각 점을 대상으로 세 점을 포함하는 원 안에 다른 점이 존재하지 않으면, 그 삼각형을 델로니 삼각형으로 추가할 수 있다. 이때, 최초 삼각형은 모든 델로니 삼각망 구성 과정이 수행되면 삭제할 수 있다. 이후, 데이터 생성 장치는 모델링 된 객체를 메시화하여 외부면을 형성할 수 있다.Here, the data generating apparatus may model the object by connecting a point cloud included in an edge detected prior to an edge that has a difference from the reference area in a triangle, so that the minimum value of the interior angle of the triangle is maximized. That is, the data generating device may be modeled through Delaunay triangulation. In other words, the data generating device constructs a super triangle including all point groups of the detected border, and if no other points exist within the circle containing the three points for each point in the initial triangle, the triangle is formed. It can be added as a Delaunay triangle. At this time, the initial triangle can be deleted after all the Delaunay triangular network construction processes are performed. Thereafter, the data generating device may mesh the modeled object to form an external surface.

이하, 본 발명의 일 실시예에 따른 프로젝션 기반의 컬러맵 생성 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method for generating a projection-based color map according to an embodiment of the present invention will be described in detail.

도 7은 본 발명의 일 실시예에 따른 프로젝션 기반의 컬러맵 생성 방법을 나타낸 순서도이다.7 is a flowchart illustrating a projection-based color map generation method according to an embodiment of the present invention.

도 7을 참조하면, S410 단계에서, 데이터 생성 장치는 카메라(camera)로부터 촬영된 이미지와, 라이다(lidar)로부터 획득된 점군 데이터를 수신할 수 있다.Referring to FIG. 7 , in step S410, the data generating apparatus may receive an image taken from a camera and point cloud data obtained from a lidar.

다음으로, S420 단계에서, 데이터 생성 장치는 수신한 점군 데이터를 이미지 상에 투영할 수 있다.Next, in step S420, the data generating device may project the received point cloud data onto an image.

구체적으로, 데이터 생성 장치는 라이다의 이동 거리를 기준으로 점군 데이터를 그룹핑하여 단위 점군 데이터를 생성하고, 생성된 단위 점군 데이터를 이동 거리 내에 촬영된 이미지에 투영할 수 있다. 이때, 데이터 생성 장치는 생성된 단위 점군 데이터를 이동 거리의 중간 지점에서 촬영된 이미지에 투영할 수 있다. 여기서, 그룹핑 된 단위 점군 데이터는 월드 좌표계 기준의 위치 정보를 포함할 수 있다. 즉, 데이터 생성 장치는 이미지를 촬영한 카메라 정보, 이미지의 가로축 픽셀(x) 및 세로축 픽셀(y)를 포함하는 이미지 테이블에 단위 점군 데이터를 투영할 수 있다. 즉, 데이터 생성 장치는 이미지 테이블 상에서 이미지의 각 픽셀에 매칭되는 점에 대한 정보를 저장할 수 있다. 여기서, 점에 대한 정보는 라이다 기준의 위치 정보(x, y, z), 인텐시티 값, 매칭되는 색상 정보(r, g, b) 및 월드 좌표계 기준의 위치 정보를 포함할 수 있다.Specifically, the data generating apparatus may generate unit point cloud data by grouping the point cloud data based on the moving distance of the lidar, and project the generated unit point cloud data onto an image captured within the moving distance. In this case, the data generating device may project the generated unit point cloud data onto an image captured at an intermediate point of the moving distance. Here, the grouped unit point cloud data may include location information based on the world coordinate system. That is, the data generating apparatus may project the unit point cloud data onto an image table including information about a camera that has captured the image, a horizontal axis pixel (x), and a vertical axis pixel (y) of the image. That is, the data generating device may store information on points matching each pixel of the image on the image table. Here, the information on the point may include position information (x, y, z) based on lidar, an intensity value, matched color information (r, g, b), and position information based on the world coordinate system.

다음으로, S430 단계에서, 데이터 생성 장치는 이미지에 투영된 점군 데이터를 거리(distance)를 기반으로 필터링할 수 있다.Next, in step S430, the data generating apparatus may filter the point cloud data projected onto the image based on the distance.

구체적으로, 데이터 생성 장치는 이미지 테이블의 각 픽셀 당 점에 대한 정보 중 라이다 기준의 위치 정보를 이용하여 점의 거리를 검출할 수 있다. 이때, 데이터 생성 장치는 하나의 픽셀에 복수의 점에 대한 정보가 저장되는 경우, 복수의 점 중 라이다를 기준으로 거리가 가장 가까운 점을 제외한 나머지 점을 삭제할 수 있다.Specifically, the data generating apparatus may detect the distance of a dot by using positional information of a lidar reference among information on a dot per pixel of an image table. In this case, when information on a plurality of points is stored in one pixel, the data generating device may delete the remaining points except for the point having the closest distance based on lidar among the plurality of points.

또한, 데이터 생성 장치는 거리가 가장 가까운 점을 기준으로 사전 설정된 픽셀 개수만큼 이웃하는 픽셀 간 거리를 비교하여, 사전 설정된 값보다 거리가 먼 픽셀을 제거할 수 있다.Also, the data generating apparatus may compare distances between neighboring pixels by a predetermined number of pixels based on a point having the closest distance, and may remove a pixel having a distance greater than a predetermined value.

그리고, S440 단계에서, 데이터 생성 장치는 필터링 된 이미지 테이블에 포함된 점들의 인텐시티 값, 색상 정보 및 월드 좌표계 기준의 위치 정보를 기준으로 컬러맵을 생성할 수 있다.In step S440, the data generating device may generate a color map based on the intensity values of the points included in the filtered image table, color information, and location information based on the world coordinate system.

이하, 본 발명의 일 실시예에 따른 색상 보정을 적용한 컬러맵 생성 방법에 대하여 상세히 설명하도록 한다.Hereinafter, a method for generating a color map to which color correction is applied according to an embodiment of the present invention will be described in detail.

도 8은 본 발명의 일 실시예에 따른 색상 보정을 적용한 컬러맵 생성 방법을 나타낸 순서도이다.8 is a flowchart illustrating a method for generating a color map to which color correction is applied according to an embodiment of the present invention.

도 8을 참조하면, S510 단계에서, 데이터 생성 장치는 라이다(lidar)로부터 획득된 점군 데이터에 카메라(camera)를 통해 촬영된 이미지의 색상을 부여할 수 있다.Referring to FIG. 8 , in step S510, the data generating apparatus may assign a color of an image captured through a camera to point cloud data obtained from a lidar.

구체적으로, 데이터 생성 장치는 라이다의 이동 거리를 기준으로 점군 데이터를 그룹핑하여 단위 점군 데이터를 생성하고, 생성된 단위 점군 데이터를 이동 거리 내에 촬영된 이미지에 투영할 수 있다. 그리고, 데이터 생성 장치는 투영된 점들의 인텐시티, 색상 정보 및 월드 좌표계 기준의 위치 정보를 기준으로 컬러맵을 생성할 수 있다.Specifically, the data generating apparatus may generate unit point cloud data by grouping the point cloud data based on the moving distance of the lidar, and project the generated unit point cloud data onto an image captured within the moving distance. In addition, the data generating apparatus may generate a color map based on intensities of projected points, color information, and location information based on a world coordinate system.

다음으로, S510 단계에서, 데이터 생성 장치는 지면을 기준으로 특정 높이 이상의 점들 중 사전 설정된 색상을 갖는 점을 분리할 수 있다. 이때, 데이터 생성 장치는 색상이 부여된 점군 데이터의 밝기 값을 기준으로 한 히스토그램(histogram)을 생성하여, 인텐시티 값이 사전 설정된 값 이상인 점을 검출할 수 있다. 또한, 데이터 생성 장치는 색상이 부여된 점군 데이터에서 사전 설정된 색상을 갖되, 채도가 사전 설정된 값보다 낮고, 명도가 사전 설정된 값보다 높은 점들을 분리할 수 있다.Next, in step S510, the data generating device may separate points having a preset color from among points having a specific height or higher with respect to the ground. In this case, the data generating apparatus may generate a histogram based on the brightness value of the color-applied point cloud data, and detect a point having an intensity value greater than or equal to a preset value. In addition, the data generating apparatus may separate points having a preset color, but having a saturation lower than a preset value and a brightness higher than the preset value from the color-assigned point cloud data.

그리고, S530 단계에서, 데이터 생성 장치는 분리된 점을 제거 후 컬러맵을 생성할 수 있다. 하지만, 이에 한정된 것은 아니고, 데이터 생성 장치는 분리된 점 각각의 색상을 분리된 점을 제외한 분리된 점과 가장 근접하는 점의 색상으로 보정할 수 있다.And, in step S530, the data generating device may generate a color map after removing the separated points. However, the present invention is not limited thereto, and the data generating apparatus may correct the color of each separated dot to the color of a dot closest to the separated dot except for the separated dot.

도 9 및 도 10은 본 발명의 일 실시예에 따른 방향 정보를 포함한 지도 생성 방법을 설명하기 위한 예시도이다.9 and 10 are exemplary diagrams for explaining a method of generating a map including direction information according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 데이터 생성 장치는 카메라로부터 촬영된 도로 이미지에서 교통 시설물을 검출할 수 있다. 예를 들어, 데이터 생성 장치는 딥러닝 방식을 활용한 검출 알고리즘인 YOLO를 통해 교통 시설물을 인식할 수 있다. 즉, 데이터 생성 장치는 YOLO 알고리즘을 통해 교통 시설물을 포함한 바운딩 박스(bounding box)를 검출하고, 검출된 바운딩 박스 내에서 교통 시설물을 추가로 검출할 수 있다.As shown in FIG. 9 , the data generating device may detect traffic facilities from a road image captured by a camera. For example, the data generating device may recognize traffic facilities through YOLO, a detection algorithm using a deep learning method. That is, the data generating device may detect a bounding box including traffic facilities through the YOLO algorithm and additionally detect traffic facilities within the detected bounding box.

그리고, 데이터 생성 장치는 검출된 교통 시설물 이미지와 동시에 라이다에 의해 획득된 점군 데이터를 이용하여 교통 시설물에 대한 방향 정보를 생성할 수 있다.In addition, the data generating device may generate direction information about a traffic facility by using the detected traffic facility image and the point cloud data acquired by the LIDAR at the same time.

이때, 데이터 생성 장치는 (A)와 같이, 검출된 교통 시설물에 포함된 점군 데이터의 개수가 부족하거나, 바운딩 박스가 불균형한 경우 방향 정보를 추출하지 않고, (B)와 같이 바운딩 박스가 불균형하지 않고, 점군 데이터의 개수가 사전 설정된 값 이상인 경우 교통 시설물의 방향 정보를 생성하도록 할 수 있다.At this time, the data generating apparatus does not extract direction information when the number of point cloud data included in the detected traffic facility is insufficient or the bounding box is unbalanced as in (A), and the bounding box is not unbalanced as in (B). direction information of a traffic facility may be generated when the number of point cloud data is greater than or equal to a preset value.

이를 통해, 도 10에 도시된 바와 같이, 데이터 생성 장치는 이미지 상에 검출된 교통 시설물에 대하여 점군 데이터를 기준으로 방향 정보를 생성함으로써, 생성된 방향 정보를 통해 정밀도로지도를 효과적으로 이용하도록 할 수 있다.Through this, as shown in FIG. 10, the data generating device generates direction information based on the point cloud data for traffic facilities detected on the image, so that the map can be effectively used with precision through the generated direction information. there is.

예를 들어, 방향 정보가 포함된 정밀도로지도는 특정 방향을 가리키는 교통 시설물에 대한 정보가 필요한 운전자에게 선택적으로 정보를 제공하거나, 교통 시설물을 관리하는 관리자에게 최초 설치된 방향과 대비하여 교통 시설물 방향이 변경된 경우 유지 보수가 필요한 것으로 판단할 수 있도록 지원할 수 있다.For example, maps with high precision, including direction information, can selectively provide information to drivers who need information about traffic facilities pointing in a specific direction, or to managers who manage traffic facilities when the direction of a traffic facility is determined compared to the originally installed direction. If it is changed, we can support you to determine that maintenance is required.

도 11 내지 도 13은 본 발명의 일 실시예에 따른 교통 시설물에 대한 학습 데이터 생성 방법을 설명하기 위한 예시도이다.11 to 13 are exemplary diagrams for explaining a method of generating learning data for traffic facilities according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 도로 이미지로부터 교통 시설물에 대하여 크롤링을 진행하였으나, 데이터의 양도 적을 뿐만 아니라, 교통 시설물 영역을 직접 잘라내야 하는 문제점이 있었다. 또한, '속도제한'과 같은 교통 시설물은 많이 존재하지만, '통행우선', '자전거나란히통행허용' 등과 같은 희소한 교통 시설물은 크롤링을 통해서도 얻기가 어려운 것을 확인하였다.As shown in FIG. 11, although crawling has been performed for traffic facilities from a road image, there is a problem in that the amount of data is small and the traffic facility area must be directly cut out. In addition, although there are many traffic facilities such as 'speed limit', it was confirmed that it is difficult to obtain rare traffic facilities such as 'passing priority' and 'bicycles are allowed' even through crawling.

이에 따라, 도 12에 도시된 바와 같이, 도로교통공단에서 제공한 교통 시설물 샘플 이미지를 기반으로 뒤틀림만 적용한 합성 이미지를 생성하여 분류 모델을 학습하였으나, 실제 환경의 이미지와 차이가 심해 분류 정확도가 낮은 것을 확인하였다.Accordingly, as shown in FIG. 12, a synthetic image to which only distortion was applied was created based on the sample image of traffic facilities provided by the Korea Road Traffic Authority to learn a classification model, but the classification accuracy was low due to a large difference from the image of the actual environment. confirmed that

따라서, 본 발명의 일 실시예에 따른 지도 생성 장치는 교통 시설물 샘플 이미지를 실제 환경의 이미지와의 유사도를 높이기 위하여, 도 13에 도시된 바와 같이, 교통 시설물 샘플 이미지(A)에 뒤틀림, 가우시안 블러 및 랜덤한 인텐시티 값을 적용하여 가공 이미지를 생성하고, 가공 이미지에 랜덤 영역의 배경을 삽입하여 (B)와 같은 복수의 학습 데이터를 생성할 수 있다.Therefore, in order to increase the similarity between the traffic facility sample image and the image of the real environment, the map generating apparatus according to an embodiment of the present invention, as shown in FIG. 13, distorts and Gaussian blur in the traffic facility sample image A. And it is possible to generate a plurality of learning data as shown in (B) by generating a processed image by applying a random intensity value and inserting a background of a random area into the processed image.

그리고, 생성된 학습 데이터의 학습 효과를 확인하기 위하여, 도 12와 같은 교통 시설물 샘플 이미지에 뒤틀림만 적용한 학습 데이터와, 본 발명의 일 실시예에 따라 생성된 학습 데이터를 통해 동일한 학습 모델(CoATNet)을 학습시켰다.In addition, in order to confirm the learning effect of the generated learning data, the same learning model (CoATNet) is obtained through learning data obtained by applying only distortion to the sample image of a traffic facility as shown in FIG. 12 and learning data generated according to an embodiment of the present invention. learned

그 결과, 뒤틀림만 적용한 학습 데이터는 246개의 테스트 이미지에서 8%의 정확도를 보였으나, 본 발명의 일 실시예에 따른 교통 시설물에 대한 학습 데이터 생성 방법을 적용한 학습 데이터로 학습 후 동일하게 테스트한 결과 66.2%의 정확도를 보였다.As a result, the training data to which only warping was applied showed an accuracy of 8% in 246 test images, but the same test result after learning with training data to which the method of generating learning data for traffic facilities according to an embodiment of the present invention was applied It showed an accuracy of 66.2%.

최종적으로, 본 발명의 일 실시예에 따른 교통 시설물에 대한 학습 데이터 생성 방법을 적용하여 107개의 표지판에 대해서 총 42,920장의 학습 데이터를 생성하였고, 분류 모델(EfficientNet V2 m)을 학습시켰다.Finally, a total of 42,920 pieces of learning data were generated for 107 signs by applying the learning data generation method for traffic facilities according to an embodiment of the present invention, and a classification model (EfficientNet V2 m) was trained.

그 결과, 총 2,454장의 이미지(실제 주행 데이터에서 추출한 1,982장, 크롤링 및 크롭을 통해 얻은 472장)에 대해서 상기 학습된 분류 모델을 평가하였을 때, 96.169%의 정확도를 보이는 것을 확인하였다.As a result, when the learned classification model was evaluated for a total of 2,454 images (1,982 extracted from actual driving data, 472 obtained through crawling and cropping), it was confirmed that 96.169% accuracy was shown.

도 14 내지 도 16은 본 발명의 일 실시예에 따른 항공 라이다를 이용한 지도 생성 방법을 설명하기 위한 예시도이다.14 to 16 are exemplary diagrams for explaining a map generation method using an aerial lidar according to an embodiment of the present invention.

도 14에 도시된 바와 같이, 데이터 생성 장치는 항공 장치를 기준으로 지면을 수직으로 바라보는 시점의 점군 데이터(A)를 투영하고, 투영된 점군 데이터의 기준 영역을 검출하고, 기준 영역을 기준으로 지면과 수직한 방향으로 스캔하면서, 객체의 테두리(B)를 검출할 수 있다.As shown in FIG. 14, the data generating device projects point cloud data A at the point of view of the ground vertically with respect to the airborne device, detects a reference area of the projected point cloud data, and based on the reference area While scanning in a direction perpendicular to the ground, the edge B of the object may be detected.

즉, 도 15에 도시된 바와 같이, 데이터 생성 장치는 객체의 최하부면의 테두리인 기준 영역을 검출하고, 기준 영역으로부터 객체의 상부 방향으로 스캔하면서 객체의 테두리를 검출할 수 있다.That is, as shown in FIG. 15 , the data generating apparatus may detect a reference area, which is the edge of the lowermost surface of the object, and detect the edge of the object while scanning from the reference area toward the top of the object.

이때, 데이터 생성 장치는 기준 영역의 넓이를 기준으로 검출된 테두리의 넓이가 사전 설정된 값 이상 차이가 나는 경우, 기준 영역으로부터 차이가 발생된 테두리 이전에 검출된 테두리들을 검출할 수 있다.In this case, when the width of the detected border with respect to the width of the reference area differs by more than a preset value, the data generating device may detect borders detected before the border where the difference occurs from the reference area.

또한, 데이터 생성 장치는 기준 영역으로부터 차이가 발생된 테두리 이전에 검출된 테두리까지 영역을 모델링할 수 있다. 이때, 데이터 생성 장치는 이전 기준 영역으로부터 차이가 발생된 테두리를 새로운 기준 영역으로 갱신할 수 있다.Also, the data generating apparatus may model an area from the reference area to an edge detected prior to the edge where the difference occurs. At this time, the data generating device may update the border where the difference occurs from the previous reference area to a new reference area.

여기서, 도 16의 (A)에 도시된 바와 같이, 데이터 생성 장치는 들로네 삼각분할(delaunay triangulation)을 통해 객체를 모델링할 수 있다. 다시 말하면, 데이터 생성 장치는 검출된 테두리의 모든 점군을 포함하는 최초 삼각형(super triangle)을 구성하고, 최초 삼각형 안에서 각 점을 대상으로 세 점을 포함하는 원 안에 다른 점이 존재하지 않으면, 그 삼각형을 델로니 삼각형으로 추가할 수 있다. Here, as shown in (A) of FIG. 16 , the data generating apparatus may model the object through Delaunay triangulation. In other words, the data generating device constructs a super triangle including all point groups of the detected border, and if no other points exist within the circle containing the three points for each point in the initial triangle, the triangle is formed. It can be added as a Delaunay triangle.

이후, 도 16의 (B)에 도시된 바와 같이, 데이터 생성 장치는 모델링 된 객체를 메시화하여 외부면을 형성할 수 있다.Then, as shown in (B) of FIG. 16 , the data generating device may mesh the modeled object to form an external surface.

도 17 및 도 18은 본 발명의 일 실시예에 따른 프로젝션 기반의 컬러맵 생성 방법을 설명하기 위한 예시도이다.17 and 18 are exemplary diagrams for explaining a projection-based color map generation method according to an embodiment of the present invention.

도 17의 (A)에 도시된 바와 같이, a 방향으로 발사된 레이저 펄스에 의해 검출된 점군 데이터는 주차 금지 표지판에 의해 도로의 일부 영역에 가려진 영역이 발생된다. 그러나, b 방향으로 발사된 레이저 펄스에 의해 검출된 점군 데이터는 a 방향에서 가려진 영역에 대한 점군 데이터를 포함한다.As shown in (A) of FIG. 17 , the point cloud data detected by the laser pulse emitted in the direction a is generated in a part of the road covered by the parking prohibition sign. However, the point cloud data detected by the laser pulse emitted in the b direction includes point cloud data for an area covered in the a direction.

이에 따라, a 방향에서 카메라에 의해 촬영된 이미지에 a 방향 및 b 방향에서 수집된 점군 데이터를 투영할 경우, 주차 금지 표지판에 의해 가려진 영역을 주차 금지 표지판의 색상을 부여하는 노이즈(noise)가 발생된다.Accordingly, when point cloud data collected in directions a and b are projected onto an image captured by a camera in direction a, noise is generated in which the color of the parking prohibition sign is assigned to the area covered by the parking prohibition sign. do.

이에 따라, 본 발명은 점군 데이터를 이미지 상에 투영하고, 이미지에 투영된 점군 데이터를 거리 기반으로 필터링한 후 컬러맵을 생성함으로써, 이미지 상에서 특정 객체에 의해 가려진 것으로 표현되나 점군 데이터 상에는 인식된 영역에 대하여, (B)에 도시된 바와 같이 이미지의 잘못된 색상이 적용되는 노이즈를 효과적으로 제거할 수 있다.Accordingly, the present invention projects point cloud data onto an image, filters the projected point cloud data on the image based on a distance, and generates a color map, so that areas that are represented as occluded by a specific object on the image but recognized on the point cloud data For , as shown in (B), it is possible to effectively remove noise to which the wrong color of the image is applied.

더하여 도 18의 (A)에 도시된 바와 같이, 쓰레기통의 후방에 이미지 상에 가려진 영역에 의해 노이즈가 발생된 것을 확인할 수 있다. 그러나, 본 발명의 실시예에 따른 필터링을 적용하는 경우, (B)와 같이 가려진 영역의 노이즈가 제거된 것을 확인할 수 있다.In addition, as shown in (A) of FIG. 18 , it can be confirmed that noise is generated by a region hidden on the image behind the trash can. However, when filtering according to the embodiment of the present invention is applied, it can be confirmed that noise in the covered area is removed as shown in (B).

도 19 및 도 20은 본 발명의 일 실시예에 따른 색상 보정을 적용한 컬러맵 생성 방법을 나타낸 순서도이다.19 and 20 are flowcharts illustrating a method of generating a color map to which color correction is applied according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 색상 보정을 적용한 컬러맵 생성 방법은 이미지의 색상이 부여된 점군 데이터에서 사전 설정된 색상을 갖는 점을 분리하고, 분리된 점의 색상을 이웃하는 점의 색상을 기초로 보정하여 컬러맵을 생성함으로써, 하늘의 색상이나 빛 반사로 인해 특정 어두운 색상을 갖는 객체에 밝은 색상이 적용되는 노이즈를 효과적으로 제거할 수 있다.A color map generation method using color correction according to an embodiment of the present invention separates a point having a preset color from point cloud data to which an image color is assigned, and determines the color of the separated point based on the color of a neighboring point. By generating a color map by correcting it, it is possible to effectively remove noise in which a bright color is applied to an object having a specific dark color due to the color of the sky or light reflection.

즉, 도 19에 도시된 바와 같이, 이미지의 색상이 부여된 점군 데이터(A)에서 사전 설정된 색상을 갖는 점을 분리하여 (B)와 같이 하늘의 색상이나 빛 반사로 인한 노이즈 점들을 검출할 수 있다.That is, as shown in FIG. 19, it is possible to detect noise points due to sky color or light reflection as shown in (B) by separating points having a preset color from point cloud data (A) to which an image color is assigned. there is.

그리고, 지도 생성 장치는 octree 알고리즘을 이용하여 검출된 노이즈 점들과 가장 가까이 있는 점을 검출하고, 가장 가까이 있는 점의 색상으로 노이즈 점을 보정하여, 도 20에 도시된 바와 같은 컬러맵을 생성할 수 있다.In addition, the map generating device may generate a color map as shown in FIG. 20 by detecting a point closest to the detected noise points using an octree algorithm and correcting the noise point with the color of the nearest point. there is.

한편, 도 21의 (A)는 본 발명의 일 실시예에 따른 색상 보정을 적용한 컬러맵 생성 방법을 적용하기 전 컬러맵을 나타낸 도면이며, (B)는 적용후 컬러맵을 나타낸 도면이다.Meanwhile, (A) of FIG. 21 is a diagram showing a color map before applying a color map generation method to which color correction is applied according to an embodiment of the present invention, and (B) is a diagram showing a color map after application.

도시된 바와 같이, 하늘의 색상이나 빛 반사로 인한 노이즈 점들을 분리하는 경우, 푸른 계열을 갖는 교통 시설물의 점들도 함께 색상이 변경되는 문제점이 있었다.As shown, when noise points due to the color of the sky or light reflection are separated, there is a problem in that the color of the points of the traffic facility having a blue system is also changed.

이에 따라, 지도 생성 장치는 교통 시설물이 인텐시티 값이 상대적으로 높은 것을 이용하여, 검출된 노이즈 점들 중 인텐시티 값이 사전에 설정된 값보다 높은 점들은 노이즈 점에서 제외시킬 수 있다.Accordingly, the map generating apparatus may exclude points having an intensity value higher than a preset value among the detected noise points from the noise points by using that the intensity value of the traffic facility is relatively high.

도 22를 참조하면, 본 발명에 따른 효과를 확인하기 위하여, 특정 거리에 대하여 컬러맵을 생성한 결과, 필터링 전(A)의 컬러맵과 대비하여 필터링 후(B) 노이즈 점들이 효과적으로 보정된 것을 확인할 수 있었다.Referring to FIG. 22, as a result of generating a color map for a specific distance, in order to confirm the effect according to the present invention, noise points are effectively corrected after filtering (B) in comparison with the color map before filtering (A). I was able to confirm.

도 23을 참조하면, 추가로 우천시 특정 거리에 대하여 컬러맵을 생성한 결과, 필터링 전(A)의 컬러맵과 대비하여 필터링 후(B) 노이즈 점들이 효과적으로 보정된 것을 확인할 수 있었다.Referring to FIG. 23 , as a result of generating a color map for a specific distance in case of rain, it was confirmed that noise points were effectively corrected after filtering (B) compared to the color map before filtering (A).

더하여, 도 24를 참조하면, 도 22 및 도 23의 각 거리에 대한 이미지의 첫 프레임에 대하여 히스토그램을 통해 명도 분포를 확인한 결과, 밝은 날과 우천 시에 밝은 값을 가진 픽셀들이 비슷하게 분포되어 있는 것을 확인할 수 있었다.In addition, referring to FIG. 24, as a result of checking the brightness distribution through the histogram for the first frame of the image for each distance in FIGS. I was able to confirm.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으나, 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적해석에 의해 선정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.As described above, although preferred embodiments of the present invention have been disclosed in the present specification and drawings, it is in the technical field to which the present invention belongs that other modified examples based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein. It is self-evident to those skilled in the art. In addition, although specific terms have been used in the present specification and drawings, they are only used in a general sense to easily explain the technical content of the present invention and help understanding of the present invention, but are not intended to limit the scope of the present invention. Accordingly, the foregoing detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be selected by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100 : 데이터 수집 장치 200 : 데이터 생성 장치
300 : 데이터 생성 시스템
205 : 통신부 210 : 입출력부
215 : 저장부 220 : 데이터 수집부
225 : 지도 생성부 230 : 학습 데이터 생성부
100: data collection device 200: data generating device
300: data generation system
205: communication unit 210: input/output unit
215: storage unit 220: data collection unit
225: map generation unit 230: learning data generation unit

Claims (10)

지도 생성부가, 차량에 고정 설치된 적어도 하나의 카메라(camera)에 의해 촬영된 적어도 하나의 이미지를 수신하는 단계;
상기 지도 생성부가, 상기 수신한 적어도 하나의 이미지 상에서 교통 시설물을 검출하는 단계;
상기 지도 생성부가, 상기 검출된 교통 시설물에 해당하는 라이다(lidar)에 의해 획득된 점군 데이터를 기준으로 방향 정보를 생성하는 단계; 및
상기 지도 생성부가, 상기 생성된 방향 정보가 포함된 지도를 생성하는 단계; 를 포함하는 것을 특징으로 하고,
상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물에 대한 점군 데이터를 누적하여 사전에 설정된 특정 값을 만족할 경우 상기 대표 평면을 획득하는 것을 특징으로 하며,
상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물에 대한 점군 데이터를 사전 설정된 라이다의 회전수 만큼 누적하여 상기 대표 평면을 획득하는 것을 특징으로 하는, 방향 정보를 포함한 지도 생성 방법.
Receiving, by a map generator, at least one image captured by at least one camera fixedly installed in a vehicle;
detecting, by the map generating unit, a traffic facility on the received at least one image;
generating, by the map generating unit, direction information based on point cloud data obtained by a lidar corresponding to the detected traffic facility; and
generating, by the map generator, a map including the generated direction information; It is characterized by including,
The step of generating the direction information is
It is characterized in that the representative plane is obtained when the point cloud data for the detected traffic facility is accumulated and a specific value set in advance is satisfied,
The step of generating the direction information is
Characterized in that, the representative plane is obtained by accumulating the point cloud data for the detected traffic facility by a predetermined number of revolutions of the lidar, the map generation method including direction information.
제1 항에 있어서, 상기 교통 시설물을 검출하는 단계는
딥 러닝(deep learning) 기반의 객체 검출 알고리즘을 이용하여 상기 2D 이미지 상에서 교통 시설물을 검출하는 것을 특징으로 하는, 방향 정보를 포함한 지도 생성 방법.
The method of claim 1 , wherein detecting the traffic facility comprises:
A method for generating a map including direction information, characterized by detecting traffic facilities on the 2D image using a deep learning-based object detection algorithm.
제1 항에 있어서, 상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물이 사전 설정된 거리 이내에 위치한 경우 방향 정보를 생성하는 것을 특징으로 하는, 방향 정보를 포함한 지도 생성 방법.
The method of claim 1, wherein generating the direction information
Characterized in that, generating direction information when the detected traffic facility is located within a preset distance, a map generating method including direction information.
제3 항에 있어서, 상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물에 포함된 점군의 개수가 사전 설정된 값 이상인 경우 방향 정보를 생성하는 것을 특징으로 하는, 방향 정보를 포함한 지도 생성 방법.
The method of claim 3, wherein generating the direction information
A method of generating a map including direction information, characterized in that generating direction information when the number of point groups included in the detected traffic facility is equal to or greater than a preset value.
제1 항에 있어서, 상기 교통 시설물을 검출하는 단계는
거리 기반의 유클리디안 클러스트링(Euclidean clustering)을 이용하여 상기 2D 이미지 상에서 교통 시설물을 검출하는 것을 특징으로 하는, 방향 정보를 포함한 지도 생성 방법.
The method of claim 1 , wherein detecting the traffic facility comprises:
A method for generating a map including direction information, characterized by detecting traffic facilities on the 2D image using distance-based Euclidean clustering.
제5 항에 있어서, 상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물에 포함된 점군을 복셀 그리드(voxel grid) 형태로 필터링하여 다운 샘플링(down sampling)하는 것을 특징으로 하는, 방향 정보를 포함한 지도 생성 방법.
The method of claim 5, wherein generating the direction information
A method for generating a map including direction information, characterized in that down sampling is performed by filtering the point cloud included in the detected traffic facility in the form of a voxel grid.
제6 항에 있어서, 상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물에 대한 점군을 RANSAC(random sample consensus) 알고리즘을 이용하여 무작위로 탐색하여 대표 평면을 획득하는 것을 특징으로 하는, 방향 정보를 포함한 지도 생성 방법.
7. The method of claim 6, wherein generating the direction information
Characterized in that, a representative plane is obtained by randomly searching the point cloud for the detected traffic facility using a random sample consensus (RANSAC) algorithm.
메모리(memory);
송수신기(transceiver); 및
상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합되어,
상기 프로세서가, 차량에 고정 설치된 적어도 하나의 카메라(camera)에 의해 촬영된 적어도 하나의 이미지를 수신하는 단계;
상기 프로세서가, 상기 수신한 적어도 하나의 이미지 상에서 교통 시설물을 검출하는 단계;
상기 프로세서가, 상기 검출된 교통 시설물에 해당하는 라이다(lidar)에 의해 획득된 점군(point group) 데이터를 기준으로 방향 정보를 생성하는 단계; 및
상기 프로세서가, 상기 생성된 방향 정보가 포함된 지도를 생성하는 단계;를 포함하여 실행시키되,
상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물에 대한 점군 데이터를 누적하여 사전에 설정된 특정 값을 만족할 경우 상기 대표 평면을 획득하는 것을 특징으로 하며,
상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물에 대한 점군 데이터를 사전 설정된 라이다의 회전수 만큼 누적하여 상기 대표 평면을 획득하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
memory;
transceiver; and
In combination with a computing device configured to include a processor for processing instructions resident in the memory,
receiving, by the processor, at least one image taken by at least one camera fixedly installed in the vehicle;
detecting, by the processor, a traffic facility on the received at least one image;
generating, by the processor, direction information based on point group data obtained by a lidar corresponding to the detected traffic facility; and
Including, executing, by the processor, generating a map including the generated direction information,
The step of generating the direction information is
It is characterized in that the representative plane is obtained when the point cloud data for the detected traffic facility is accumulated and a specific value set in advance is satisfied,
The step of generating the direction information is
A computer program recorded on a recording medium, characterized in that the representative plane is obtained by accumulating the point cloud data for the detected traffic facility by a predetermined number of revolutions of the lidar.
제8 항에 있어서, 상기 방향 정보를 생성하는 단계는
상기 검출된 교통 시설물이 사전 설정된 거리 이내에 위치한 경우 방향 정보를 생성하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
The method of claim 8, wherein generating the direction information
A computer program recorded on a recording medium, characterized in that for generating direction information when the detected traffic facility is located within a preset distance.
제8 항에 있어서, 상기 교통 시설물을 검출하는 단계는
거리 기반의 유클리디안 클러스트링(Euclidean clustering)을 이용하여 상기 2D 이미지 상에서 교통 시설물을 검출하는 것을 특징으로 하는, 기록매체에 기록된 컴퓨터 프로그램.
9. The method of claim 8, wherein detecting the traffic facility comprises:
A computer program recorded on a recording medium, characterized in that for detecting traffic facilities on the 2D image using distance-based Euclidean clustering.
KR1020220139934A 2022-10-27 2022-10-27 Method for create map included direction information and computer program recorded on record-medium for executing method therefor KR102540636B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220139934A KR102540636B1 (en) 2022-10-27 2022-10-27 Method for create map included direction information and computer program recorded on record-medium for executing method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220139934A KR102540636B1 (en) 2022-10-27 2022-10-27 Method for create map included direction information and computer program recorded on record-medium for executing method therefor

Publications (2)

Publication Number Publication Date
KR102540636B1 true KR102540636B1 (en) 2023-06-13
KR102540636B9 KR102540636B9 (en) 2024-04-08

Family

ID=86762768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220139934A KR102540636B1 (en) 2022-10-27 2022-10-27 Method for create map included direction information and computer program recorded on record-medium for executing method therefor

Country Status (1)

Country Link
KR (1) KR102540636B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130123041A (en) 2012-05-02 2013-11-12 현대엠엔소프트 주식회사 Method of automatic generation of indoor map utilizing the ridar equipment
KR20150018990A (en) * 2013-08-12 2015-02-25 현대모비스 주식회사 Apparatus and method for guiding caution information of driving
KR20190080009A (en) * 2017-12-28 2019-07-08 한국국토정보공사 Automatic drawing method using lane information
KR102091580B1 (en) * 2019-07-09 2020-03-20 주식회사 모빌테크 Method for collecting road signs information using MMS
JP2020095250A (en) * 2018-12-12 2020-06-18 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Updating map data for autonomous driving vehicle based on sensor data
KR20200109260A (en) * 2019-03-11 2020-09-22 베이징 호라이즌 로보틱스 테크놀로지 리서치 앤드 디벨롭먼트 컴퍼니 리미티드 Map construction method, apparatus, device and readable storage medium
KR102176834B1 (en) * 2019-01-23 2020-11-10 국민대학교산학협력단 Environment feature based position recognition apparatus and method for autonomous vehicles
KR102426583B1 (en) * 2021-08-30 2022-07-29 (주)뷰런테크놀로지 Method of detecting signpost using lidar sensor and signpost detection device performing method
KR102441244B1 (en) * 2017-11-30 2022-09-06 현대오토에버 주식회사 Apparatus for generating precise map and method thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130123041A (en) 2012-05-02 2013-11-12 현대엠엔소프트 주식회사 Method of automatic generation of indoor map utilizing the ridar equipment
KR20150018990A (en) * 2013-08-12 2015-02-25 현대모비스 주식회사 Apparatus and method for guiding caution information of driving
KR102441244B1 (en) * 2017-11-30 2022-09-06 현대오토에버 주식회사 Apparatus for generating precise map and method thereof
KR20190080009A (en) * 2017-12-28 2019-07-08 한국국토정보공사 Automatic drawing method using lane information
JP2020095250A (en) * 2018-12-12 2020-06-18 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Updating map data for autonomous driving vehicle based on sensor data
KR102176834B1 (en) * 2019-01-23 2020-11-10 국민대학교산학협력단 Environment feature based position recognition apparatus and method for autonomous vehicles
KR20200109260A (en) * 2019-03-11 2020-09-22 베이징 호라이즌 로보틱스 테크놀로지 리서치 앤드 디벨롭먼트 컴퍼니 리미티드 Map construction method, apparatus, device and readable storage medium
KR102091580B1 (en) * 2019-07-09 2020-03-20 주식회사 모빌테크 Method for collecting road signs information using MMS
KR102426583B1 (en) * 2021-08-30 2022-07-29 (주)뷰런테크놀로지 Method of detecting signpost using lidar sensor and signpost detection device performing method

Also Published As

Publication number Publication date
KR102540636B9 (en) 2024-04-08

Similar Documents

Publication Publication Date Title
JP7485749B2 (en) Video-based localization and mapping method and system - Patents.com
CN110988912B (en) Road target and distance detection method, system and device for automatic driving vehicle
CN111874006B (en) Route planning processing method and device
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
CN112740225B (en) Method and device for determining road surface elements
JPWO2020090428A1 (en) Feature detection device, feature detection method and feature detection program
CN112308913B (en) Vehicle positioning method and device based on vision and vehicle-mounted terminal
CN114413881A (en) Method and device for constructing high-precision vector map and storage medium
CN117576652B (en) Road object identification method and device, storage medium and electronic equipment
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
CN112257668A (en) Main and auxiliary road judging method and device, electronic equipment and storage medium
CN115457358A (en) Image and point cloud fusion processing method and device and unmanned vehicle
CN112580489A (en) Traffic light detection method and device, electronic equipment and storage medium
Koc-San et al. A model-based approach for automatic building database updating from high-resolution space imagery
KR102540636B1 (en) Method for create map included direction information and computer program recorded on record-medium for executing method therefor
KR102540629B1 (en) Method for generate training data for transportation facility and computer program recorded on record-medium for executing method therefor
KR102540624B1 (en) Method for create map using aviation lidar and computer program recorded on record-medium for executing method therefor
KR102540634B1 (en) Method for create a projection-based colormap and computer program recorded on record-medium for executing method therefor
Kim et al. Urban localization based on aerial imagery by correcting projection distortion
KR102540632B1 (en) Method for create a colormap with color correction applied and computer program recorded on record-medium for executing method therefor
CN114898321A (en) Method, device, equipment, medium and system for detecting road travelable area
Lee et al. Semi-automatic framework for traffic landmark annotation
KR102675138B1 (en) Method for calibration of multiple lidars, and computer program recorded on record-medium for executing method therefor
KR102616437B1 (en) Method for calibration of lidar and IMU, and computer program recorded on record-medium for executing method therefor
KR102618951B1 (en) Method for visual mapping, and computer program recorded on record-medium for executing method therefor

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]