KR102428050B1 - Information supplement method, lane recognition method, intelligent driving method and related products - Google Patents

Information supplement method, lane recognition method, intelligent driving method and related products Download PDF

Info

Publication number
KR102428050B1
KR102428050B1 KR1020217021148A KR20217021148A KR102428050B1 KR 102428050 B1 KR102428050 B1 KR 102428050B1 KR 1020217021148 A KR1020217021148 A KR 1020217021148A KR 20217021148 A KR20217021148 A KR 20217021148A KR 102428050 B1 KR102428050 B1 KR 102428050B1
Authority
KR
South Korea
Prior art keywords
point cloud
cloud data
target
frame
intensity
Prior art date
Application number
KR1020217021148A
Other languages
Korean (ko)
Other versions
KR20210093351A (en
Inventor
셴주 첸
유키안 리우
Original Assignee
저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20210093351A publication Critical patent/KR20210093351A/en
Application granted granted Critical
Publication of KR102428050B1 publication Critical patent/KR102428050B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

본 발명의 실시예는 정보 보완 방법, 차선 인식 방법, 지능형 주행 방법 및 관련 제품을 공개하였으며, 상기 정보 보완 방법은, 각 프레임에 깊이 정보와 강도 정보가 포함된 다중 프레임 포인트 클라우드 데이터를 획득하는 단계; 상기 다중 프레임 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 하나의 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하는 단계;를 포함하며, 여기서, 상기 목표 포인트 클라우드 데이터의 깊이 정보는 상기 기준 포인트 클라우드 데이터의 깊이 정보보다 조밀하고, 또한 상기 목표 포인트 클라우드 데이터의 강도 정보는 상기 기준 포인트 클라우드 데이터의 강도 정보보다 조밀하며, 상기 기준 포인트 클라우드 데이터는 상기 다중 프레임 포인트 클라우드 데이터 중의 어느 하나의 포인트 클라우드 데이터이다.An embodiment of the present invention discloses an information supplementation method, a lane recognition method, an intelligent driving method, and related products, wherein the information supplementation method includes: acquiring multi-frame point cloud data including depth information and intensity information in each frame ; Target point cloud data corresponding to the reference point cloud data by supplementing the reference point cloud data according to the depth information and intensity information of the point cloud data of at least one frame of the multi-frame point cloud data except for the reference point cloud data obtaining; wherein the depth information of the target point cloud data is denser than the depth information of the reference point cloud data, and the intensity information of the target point cloud data is intensity information of the reference point cloud data More compact, the reference point cloud data is any one of the multiple frame point cloud data.

Description

정보 보완 방법, 차선 인식 방법, 지능형 주행 방법 및 관련 제품Information supplement method, lane recognition method, intelligent driving method and related products

본 출원은 2019년 10월 31일 중국 특허국에 제출된, 출원번호가 201911050904.4이고, 출원의 명칭이 "정보보완 방법, 차선인식 방법, 지능형 주행 방법 및 관련 제품"인 중국 특허 출원의 우선권을 요구하며, 내용 전부를 인용을 통해 본 출원에 결합시켰다.This application claims priority to the Chinese patent application filed with the Chinese Patent Office on October 31, 2019, the application number is 201911050904.4, and the application is entitled "Information Supplementation Method, Lane Recognition Method, Intelligent Driving Method and Related Products" and all contents are incorporated into the present application by reference.

본 출원은 컴퓨터 비전 기술분야에 관한 것으로서, 구체적으로는 정보 보완 방법, 차선 인식 방법, 지능형 주행 방법 및 관련 제품에 관한 것이다.This application relates to the field of computer vision technology, and more specifically, to an information supplementation method, a lane recognition method, an intelligent driving method, and related products.

현재, 목표 탐지 측면에서, 레이저 레이더(Light Detection And Ranging, 약칭: LiDAR)를 이용하여 목표물을 향해 여러 행의 스캔라인의 펄스 레이저를 투사하여, 역방향 산란 반사를 통해 목표를 측정한다. 레이저는 가시광에 속하지 않기 때문에, 설사 조명 조건이 좋지 않은 경우에도, LiDAR는 양호하게 작동할 수 있으며, 따라서, 레이저 레이더는 각종 분야에 광범위하게 응용되고 있다. 예를 들어, 무인주행 시, LiDAR를 이용하여 차선을 추출할 수 있다. 비록 LiDAR는 광선의 영향을 받지 않으나, 수직 해상도와 수평각 해상도의 제한으로 인해, LiDAR의 측정 데이터가 매우 희소하며, LiDAR의 측량 데이터를 충분히 이용하기 위해서는 먼저 측량 데이터 중 희소한 심층 정보를 조밀한 심층 정보로 보완한다. 그러나 LiDAR의 측량 데이터에는 강도 정보가 더 포함되어 있으나, 강도 신호는 목표의 표면 재질, 레이저의 입사각 방향 등 기타 요소와 관련이 있어, 강도 정보를 보완할 수 없게 만들기 때문에, 현재 LiDAR의 측량 데이터에 대한 이용률이 낮다. 강도 정보를 보완할 수 없기 때문에, 보완 후의 심층 정보만으로 차선을 인식할 경우, 환경 휘도가 깊이 정보의 획득에 영향을 미칠 수 있어 인식률이 낮고, 강건성이 떨어진다.Currently, in terms of target detection, laser radar (Light Detection And Ranging, abbreviation: LiDAR) is used to project a pulse laser of several rows of scan lines toward a target, and measure the target through backward scattering reflection. Since the laser does not belong to visible light, even in the case of poor lighting conditions, LiDAR can work well, and therefore laser radar is widely applied in various fields. For example, during unmanned driving, a lane can be extracted using LiDAR. Although LiDAR is not affected by light rays, due to the limitations of vertical and horizontal angular resolution, LiDAR measurement data is very sparse, and in order to fully utilize LiDAR survey data, sparse deep information among the survey data must first be gathered into dense depth. complemented by information. However, although LiDAR's survey data contains more intensity information, the intensity signal is related to other factors such as the target surface material and the direction of the laser's angle of incidence, making it impossible to supplement the intensity information. use is low. Since the intensity information cannot be supplemented, if the lane is recognized only with the deep information after supplementation, the environmental luminance may affect the acquisition of the depth information, resulting in a low recognition rate and poor robustness.

본 출원의 실시예는 포인트 클라우드 데이터 리소스의 이용률을 높이고 차선의 인식 정밀도를 높일 수 있는 정보 보완 방법, 차선 인식 방법, 지능형 주행 방법 및 관련 제품을 제공한다.An embodiment of the present application provides an information supplementation method, a lane recognition method, an intelligent driving method, and related products that can increase the utilization rate of point cloud data resources and increase the lane recognition precision.

첫 번째 측면으로, 본 출원의 실시예는 정보 보완방법을 제공하며, 이는As a first aspect, an embodiment of the present application provides an information supplementation method, which

각 프레임에 깊이 정보와 강도 정보가 포함된 다중 프레임 포인트 클라우드 데이터를 획득하는 단계;acquiring multi-frame point cloud data including depth information and intensity information in each frame;

상기 다중 프레임 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 하나의 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하는 단계;를 포함하며,Target point cloud data corresponding to the reference point cloud data by supplementing the reference point cloud data according to the depth information and intensity information of the point cloud data of at least one frame of the multi-frame point cloud data except for the reference point cloud data Including;

여기서, 상기 목표 포인트 클라우드 데이터의 깊이 정보는 상기 기준 포인트 클라우드 데이터의 깊이 정보보다 조밀하고, 또한 상기 목표 포인트 클라우드 데이터의 강도 정보는 상기 기준 포인트 클라우드 데이터의 강도 정보보다 조밀하며, 상기 기준 포인트 클라우드 데이터는 상기 다중 프레임 포인트 클라우드 데이터 중의 어느 하나의 포인트 클라우드 데이터이다.Here, the depth information of the target point cloud data is denser than the depth information of the reference point cloud data, and the intensity information of the target point cloud data is denser than the intensity information of the reference point cloud data, and the reference point cloud data is any one point cloud data among the multi-frame point cloud data.

두 번째 측면으로, 본 출원의 실시예는 차선 인식방법을 제공하며, 이는In a second aspect, an embodiment of the present application provides a lane recognition method, which

도로의 포인트 클라우드 데이터를 수집하는 단계;collecting point cloud data of the road;

첫 번째 측면의 상기 정보 보완방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계;acquiring a target intensity map corresponding to the point cloud data by supplementing the point cloud data using the information supplementation method of the first aspect;

상기 목표강도 맵에 따라 차선을 인식하여 차선 인식 결과를 획득하는 단계를 포함한다.and obtaining a lane recognition result by recognizing a lane according to the target intensity map.

세 번째 측면으로, 본 출원의 실시예는 지능형 주행방법을 제공하며, 이는In a third aspect, an embodiment of the present application provides an intelligent driving method, which

지능형 주행장치 주변 장면의 포인트 클라우드 데이터를 수집하는 단계;collecting point cloud data of scenes around the intelligent driving device;

첫 번째 측면의 상기 정보 보완 방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계;acquiring a target intensity map corresponding to the point cloud data by supplementing the point cloud data using the information supplementation method of the first aspect;

상기 목표 강도 맵에 따라 상기 주변 장면 중의 목표 대상을 인식하는 단계;recognizing a target object in the surrounding scene according to the target intensity map;

인식 결과에 따라, 상기 지능형 주행장치의 주행을 제어하는 단계를 포함한다.and controlling the driving of the intelligent driving device according to the recognition result.

네 번째 측면으로, 본 출원의 실시예는 정보 보완 장치를 제공하며, 이는In a fourth aspect, an embodiment of the present application provides an information supplementation device, which

각 프레임에 깊이 정보와 강도 정보가 포함된 다중 프레임의 포인트 클라우드 데이터를 획득하기 위한 획득유닛;an acquisition unit for acquiring point cloud data of multiple frames including depth information and intensity information in each frame;

상기 다중 프레임의 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 한 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하기 위한 보완 유닛을 포함하며;Target point cloud data corresponding to the reference point cloud data by supplementing the reference point cloud data according to the depth information and intensity information of the point cloud data of at least one frame except for the reference point cloud data among the point cloud data of the multiple frames a supplementary unit for obtaining

여기서, 상기 목표 포인트 클라우드 데이터의 깊이 정보는 상기 기준 포인트 클라우드 데이터의 깊이 정보보다 조밀하고, 또한 상기 목표 포인트 클라우드 데이터의 강도 정보는 상기 기준 포인트 클라우드 데이터의 강도 정보보다 조밀하며, 상기 기준 포인트 클라우드 데이터는 상기 다중 프레임 포인트 클라우드 데이터 중의 어느 하나의 포인트 클라우드 데이터이다.Here, the depth information of the target point cloud data is denser than the depth information of the reference point cloud data, and the intensity information of the target point cloud data is denser than the intensity information of the reference point cloud data, and the reference point cloud data is any one point cloud data among the multi-frame point cloud data.

다섯 번째 측면으로, 본 출원의 실시예는 차선 인식장치를 제공하며, 이는In a fifth aspect, an embodiment of the present application provides a lane recognition device, which

도로의 포인트 클라우드 데이터를 수집하기 위한 수집유닛;a collection unit for collecting road point cloud data;

첫 번째 측면의 상기 정보 보완방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하기 위한 보완유닛;a supplementation unit for supplementing the point cloud data by using the information supplementation method of the first aspect to obtain a target intensity map corresponding to the point cloud data;

상기 목표 강도 맵에 따라 차선을 인식하여 차선 인식 결과를 획득하기 위한 인식유닛을 포함하는 것을 특징으로 한다.and a recognition unit for recognizing a lane according to the target intensity map to obtain a lane recognition result.

여섯 번째 방면으로, 본 출원의 실시예는 지능형 주행장치를 제공하며, 이는In a sixth aspect, an embodiment of the present application provides an intelligent driving device, which

지능형 주행장치 주변 장면의 포인트 클라우드 데이터를 수집하기 위한 수집유닛;a collecting unit for collecting point cloud data of scenes around the intelligent driving device;

첫 번째 측면의 상기 정보 보완방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하기 위한 보완유닛;a supplementation unit for supplementing the point cloud data by using the information supplementation method of the first aspect to obtain a target intensity map corresponding to the point cloud data;

상기 목표 강도 맵에 따라 상기 주변 장면 중의 목표 대상을 인식하기 위한 인식유닛;a recognition unit for recognizing a target object in the surrounding scene according to the target intensity map;

인식 결과에 따라, 상기 지능형 주행장치의 주행을 제어하기 위한 제어유닛을 포함한다.and a control unit for controlling the driving of the intelligent driving device according to the recognition result.

일곱 번째 측면으로, 본 출원의 실시예는 프로세서, 메모리, 통신 인터페이스 및 하나 또는 다수의 프로그램을 포함하는 전자장치를 제공하며, 여기서, 상기 하나 또는 다수의 프로그램은 상기 메모리에 저장되고, 또한 상기 프로세서에 의해 실행되도록 설정되며, 상기 프로그램은 첫 번째 측면, 두 번째 측면 또는 세 번째 측면의 상기 방법 중의 단계를 실행하기 위한 명령을 포함한다.In a seventh aspect, an embodiment of the present application provides an electronic device including a processor, a memory, a communication interface, and one or more programs, wherein the one or more programs are stored in the memory, and the processor wherein the program comprises instructions for executing the steps of the method of the first aspect, the second aspect or the third aspect.

여덟 번째 측면으로, 본 출원의 실시예는 컴퓨터 가독 저장매체를 제공하며, 상기 컴퓨터 가독 저장매체에 컴퓨터 프로그램이 저장되고, 컴퓨터는 상기 컴퓨터 프로그램에 의해 첫 번째 측면, 두 번째 측면 또는 세 번째 측면의 상기 방법을 실행 한다.As an eighth aspect, an embodiment of the present application provides a computer-readable storage medium, wherein a computer program is stored in the computer-readable storage medium, and the computer is configured to use the first aspect, the second aspect or the third aspect by the computer program. Execute the above method.

아홉 번째 측면으로, 본 출원의 실시예는 컴퓨터 프로그램 제품을 제공하며, 상기 컴퓨터 프로그램 제품은 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 가독 저장매체를 포함하고, 상기 컴퓨터 가독 저장매체를 통해 컴퓨터가 첫 번째 측면, 두 번째 측면 또는 세 번째 측면의 상기 방법을 실행 한다.In a ninth aspect, an embodiment of the present application provides a computer program product, the computer program product comprising a non-transitory computer readable storage medium storing a computer program, the computer readable storage medium through the first aspect, The method of the second aspect or the third aspect is carried out.

본 출원의 실시예의 실시는 다음과 같은 유익한 효과를 가진다:Implementation of the embodiments of the present application has the following advantageous effects:

본 출원의 실시예에서, 포인트 클라우드 데이터 중의 깊이 정보와 강도 정보를 보완함으로써, 수집된 희소 포인트 클라우드 데이터를 조밀한 포인트 클라우드 데이터로 보완하고, 포인트 클라우드 데이터 중의 강도 정보에 대한 보완을 구현하여, 포인트 클라우드 데이터 리소스의 이용률이 향상된다.In the embodiment of the present application, by supplementing the depth information and the intensity information in the point cloud data, the collected sparse point cloud data is supplemented with the dense point cloud data, and by implementing the supplementation of the intensity information in the point cloud data, the point Utilization of cloud data resources is improved.

본 출원의 실시예 중의 기술방안을 보다 명확하게 설명하기 위하여, 이하 실시예의 설명에 필요한 첨부도면에 대해 간단히 소개하며, 아래에 기재된 첨부도면은 본 출원의 일부 실시예로서, 당업계의 보통 기술자에게 있어서, 창조적인 노동을 기울이지 않는 전제하에, 이러한 도면을 근거로 다른 도면을 더 획득할 수 있음은 자명하다.
도 1은 본 출원의 실시예가 제공하는 정보 보완 방법의 흐름도이다.
도 2는 본 출원의 실시예가 제공하는 또 다른 정보 보완 방법의 흐름도이다.
도 3은 본 출원의 실시예가 제공하는 정보 보완 모델의 구조도이다.
도 4는 본 출원의 실시예가 제공하는 차선 인식 방법의 흐름도이다.
도 5는 본 출원의 실시예가 제공하는 지능형 주행 방법의 흐름도이다.
도 6은 본 출원의 실시예가 제공하는 정보 보완 장치의 구조도이다.
도 7은 본 출원의 실시예가 제공하는 차선 인식 장치의 구조도이다.
도 8은 본 출원의 실시예가 제공하는 지능형 주행 장치의 구조도이다.
도 9는 본 출원의 실시예가 제공하는 정보 보완 장치의 기능유닛 구성 블록도이다.
도 10은 본 출원의 실시예가 제공하는 차선 인식 장치의 기능 유닛 구성 블록도이다.
도 11은 본 출원의 실시예가 제공하는 지능형 주행 장치의 기능 유닛 구성 블록도이다.
In order to more clearly explain the technical solutions in the embodiments of the present application, the accompanying drawings necessary for the description of the embodiments are briefly introduced below, and the accompanying drawings described below are some embodiments of the present application, and are provided to those skilled in the art. Therefore, it is self-evident that other drawings can be obtained based on these drawings under the premise that creative labor is not spent.
1 is a flowchart of an information supplementation method provided by an embodiment of the present application.
2 is a flowchart of another information supplementation method provided by an embodiment of the present application.
3 is a structural diagram of an information complementation model provided by an embodiment of the present application.
4 is a flowchart of a lane recognition method provided by an embodiment of the present application.
5 is a flowchart of an intelligent driving method provided by an embodiment of the present application.
6 is a structural diagram of an information supplementing device provided by an embodiment of the present application.
7 is a structural diagram of a lane recognition apparatus provided by an embodiment of the present application.
8 is a structural diagram of an intelligent driving device provided by an embodiment of the present application.
9 is a block diagram of a functional unit of an information supplementing device provided by an embodiment of the present application.
10 is a block diagram of a functional unit of a lane recognition apparatus provided by an embodiment of the present application.
11 is a block diagram of a functional unit of an intelligent driving device provided by an embodiment of the present application.

이하 본 출원의 실시예 중의 첨부도면을 결합하여 본 출원의 실시예 중의 기술방안에 대해 분명하고 완전하게 설명한다. 기재되는 실시예는 실시예 전체가 아니라, 본 출원의 일부 실시예임은 자명하다. 본 출원 중의 실시예에 따라, 당업계의 보통 기술자가 창조적인 노동을 기울이지 않은 전제하에 획득한 모든 다른 실시예들은 본 출원의 보호범위에 속한다.Hereinafter, the technical solutions in the embodiments of the present application will be clearly and completely described in conjunction with the accompanying drawings in the embodiments of the present application. It is apparent that the described embodiments are not all of the examples, but only some examples of the present application. According to the embodiment in the present application, all other embodiments obtained by a person skilled in the art without creative labor fall within the protection scope of the present application.

본 출원의 명세서와 청구항 및 상기 첨부도면 중의 용어 "제1", "제2", "제3" 및 "제4" 등은 각기 다른 대상을 구별하기 위한 것이지, 특정 순서를 설명하기 위한 것이 아니다. 또한, 용어 "포함하다"와 "구비한다" 및 이들의 임의의 변형은 비배타적인 포함을 아우르고자 하는 의도이며, 예를 들어 일련의 단계 또는 유닛을 포함하는 과정, 방법, 시스템, 제품 또는 장치는 이미 열거된 단계 또는 유닛에 한정되지 않고, 열거되지 않은 단계 또는 유닛을 선택적으로 더 포함하거나, 또는 이러한 과정, 방법, 제품 또는 장치에 대한 고유의 다른 단계 또는 유닛을 선택적으로 더 포함할 수 있다.The terms "first", "second", "third", and "fourth" in the specification and claims of the present application and the accompanying drawings are for distinguishing different objects from each other, and not for describing a specific order. . Also, the terms "comprise" and "comprises" and any variations thereof are intended to encompass non-exclusive inclusions, e.g., a process, method, system, product or apparatus comprising a series of steps or units. is not limited to already listed steps or units, and may optionally further include steps or units not listed, or may optionally further include other steps or units inherent to such a process, method, product or device. .

본문에서 언급되는 "실시예"는, 실시예와 결합하여 기재되는 특정 특징, 결과 또는 특성이 본 출원의 적어도 하나의 실시예에 포함될 수 있음을 의미한다. 명세서 중의 각 위치에 상기 단어가 출현하더라도 반드시 동일한 실시예를 지칭하는 것이 아니며, 다른 실시예와 서로 배척되는 독립적이거나 또는 선택된 실시예를 지칭하는 것도 아니다. 당업자라면 본문에 기재된 실시예는 다른 실시예와 서로 결합될 수 있다는 것을 명시적 또는 암묵적으로 이해할 수 있다."Example" referred to in the text means that a specific feature, result or characteristic described in combination with the example may be included in at least one embodiment of the present application. The appearance of the word in each position in the specification does not necessarily refer to the same embodiment, nor does it refer to an independent or selected embodiment that is mutually exclusive from other embodiments. Those skilled in the art may explicitly or implicitly understand that the embodiments described herein may be combined with other embodiments.

LiDAR는 목표(관찰점)로 레이저빔을 발사하고, 목표로부터 반사되어 돌아오는 에코신호를 수신하여, 에코신호를 발사신호와 비교하여 목표의 포인트 클라우드 데이터를 획득하며, 상기 포인트 클라우드 데이터에는 목표의 깊이 정보(XYZ 좌표정보), 에코 횟수, 강도 정보, RGB 화소값, 스캔 각도, 스캔 방향 등이 포함된다. LiDAR는 수직 해상도와 수평각 해상도가 제한적이어서, 포인트 클라우드 데이터가 매우 희소하다. 포인트 클라우드 데이터를 충분히 이용하기 위하여, 먼저 포인트 클라우드 데이터 중의 희소한 깊이 정보를 조밀한 깊이 정보로 보완한다. 그러나, 포인트 클라우드 데이터에는 강도 정보가 더 포함되어 있으며, 강도정보는 LiDAR의 입사각, 목표와의 거리 및 목표의 표면 재질 등 기타 요소와 관련이 있기 때문에, 강도 정보를 보완할 수 없게 만들고, 나아가 강도 정보를 이용할 수 없게 되어, LiDAR의 측정 데이터의 이용률이 낮은 결과를 초래한다. 강도 정보를 이용할 수 없기 때문에, 보완 후의 깊이 정보만으로 차선을 인식 시, 환경 휘도가 깊이 정보의 획득에 영향을 미칠 수 있기 때문에, 차선 인식률이 낮아지고, 강건성이 떨어질 수 있다. 이상의 단점을 해결하기 위하여, 본 출원의 기술방안을 특별히 제시함으로써, 포인트 클라우드 데이터의 희소한 깊이 정보와 강도 정보의 동기적인 보완을 구현하고, 차선 인식의 강건성을 향상시키고자 한다.LiDAR emits a laser beam to a target (observation point), receives an echo signal that is reflected back from the target, compares the echo signal with the firing signal to obtain the target point cloud data, and the point cloud data includes the target's point cloud data. Depth information (XYZ coordinate information), number of echoes, intensity information, RGB pixel values, scan angles, scan directions, and the like are included. LiDAR has limited vertical and horizontal angular resolution, so point cloud data is very sparse. In order to fully utilize the point cloud data, the sparse depth information in the point cloud data is first supplemented with dense depth information. However, the point cloud data contains more intensity information, and since the intensity information is related to other factors such as the incident angle of the LiDAR, the distance to the target, and the surface material of the target, the intensity information cannot be supplemented, and furthermore, the intensity information is not available. The information becomes unavailable, resulting in low utilization of the measurement data of the LiDAR. Since the intensity information cannot be used, when the lane is recognized only with the depth information after supplementation, the environmental luminance may affect the acquisition of the depth information, and thus the lane recognition rate may be lowered and robustness may be deteriorated. In order to solve the above shortcomings, the technical solution of the present application is specially proposed to realize synchronous complementation of scarce depth information and intensity information of point cloud data, and to improve the robustness of lane recognition.

도 1을 참조하면, 도 1은 본 출원의 실시예가 제공하는 정보 보완 방법의 흐름도로서, 상기 방법은 이하 단계를 포함하나 이에 한정되지 않는다.Referring to FIG. 1 , FIG. 1 is a flowchart of an information supplementation method provided by an embodiment of the present application, the method including but not limited to the following steps.

101: 다중 프레임의 포인트 클라우드 데이터를 획득하는 단계.101: Acquiring point cloud data of multiple frames.

여기서, 상기 다중 프레임 포인트 클라우드 데이터는 연속적으로 수집하여 획득된 포인트 클라우드 데이터로서, 즉 상기 다중 프레임의 포인트 클라우드는 이웃한 포인트 클라우드 데이터일 수도 있고, 비연속적으로 수집한 포인트 클라우드 데이터일 수도 있다. 본 출원에서는 이웃한 포인트 클라우드 데이터를 예로 들어 구체적으로 설명한다.Here, the multi-frame point cloud data is point cloud data obtained by continuously collecting, that is, the point cloud of the multi-frame may be neighboring point cloud data or may be point cloud data obtained non-continuously. In the present application, the neighboring point cloud data will be described in detail as an example.

또한, 상기 프레임 포인트 클라우드 데이터는 깊이 정보와 강도 정보를 포함한다.In addition, the frame point cloud data includes depth information and intensity information.

102: 상기 다중 프레임 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 하나의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하는 단계.102: According to depth information and intensity information of at least one point cloud data other than the reference point cloud data among the multi-frame point cloud data, supplement the reference point cloud data, and target point cloud data corresponding to the reference point cloud data step to obtain.

상기 기준 포인트 클라우드 데이터는 다중 프레임 포인트 클라우드 데이터 중의 어느 하나의 포인트 클라우드 데이터이며, 상기 적어도 하나의 포인트 클라우드 데이터는 상기 다중 프레임의 포인트 클라우드 데이터 중 상기 기준 포인트 클라우드 데이터를 제외한 포인트 클라우드 데이터 중의 모든 포인트 클라우드 데이터이거나 또는 일부 포인트 클라우드 데이터이다.The reference point cloud data is any one point cloud data among multi-frame point cloud data, and the at least one point cloud data includes all point clouds among the point cloud data except for the reference point cloud data among the point cloud data of the multi-frame. data or some point cloud data.

일반적으로, 상기 기준 포인트 클라우드 데이터는 상기 다중 프레임의 포인트 클라우드 데이터의 중간 위치에 놓이는 포인트 클라우드 데이터이며, 이에 따라 상기 기준 포인트 클라우드 데이터의 전후로 동일한 수량의 포인트 클라우드 데이터를 가지므로, 정보 보완을 수행 시, 기준 포인트 클라우드 데이터를 정보가 조밀한 목표 포인트 클라우드 데이터로 보완하기가 더욱 좋다.In general, the reference point cloud data is point cloud data placed in an intermediate position of the point cloud data of the multiple frames, and accordingly, it has the same amount of point cloud data before and after the reference point cloud data. , it is better to supplement the reference point cloud data with the information-dense target point cloud data.

여기서, 상기 목표 포인트 클라우드 데이터의 깊이 정보는 상기 기준 포인트 클라우드 데이터의 깊이 정보보다 조밀하고, 상기 목표 포인트 클라우드 데이터의 강도 정보는 상기 기준 포인트 클라우드 데이터의 강도 정보보다 조밀하다.Here, the depth information of the target point cloud data is denser than the depth information of the reference point cloud data, and the intensity information of the target point cloud data is denser than the intensity information of the reference point cloud data.

또한, 상기 목표 포인트 클라우드 데이터는 목표 깊이 맵과 목표 강도 맵을 포함한다. 목표 깊이 맵 중의 깊이 정보는 상기 기준 포인트 클라우드 데이터에 대응되는 깊이 정보보다 조밀하고, 목표 강도 맵 중의 강도 정보는 기준 포인트 클라우드 데이터에 대응되는 강도 맵 중의 강도 정보보다 조밀하다.In addition, the target point cloud data includes a target depth map and a target intensity map. The depth information in the target depth map is denser than the depth information corresponding to the reference point cloud data, and the intensity information in the target intensity map is denser than the intensity information in the intensity map corresponding to the reference point cloud data.

이하 기준 포인트 클라우드 데이터에 대해 깊이 정보와 강도 정보를 보완하는 과정을 상세히 서술한다.Hereinafter, a process of supplementing depth information and intensity information for reference point cloud data will be described in detail.

도 2를 참조하면, 도 2는 본 출원의 실시예가 제공하는 또 다른 정보 보완 방법의 흐름도로서, 상기 방법은 이하 단계를 포함하나 이에 한정되지 않는다:Referring to FIG. 2 , FIG. 2 is a flowchart of another information supplementation method provided by an embodiment of the present application, the method including but not limited to the following steps:

201: 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 깊이 정보를 재투영하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵을 획득하는 단계.201: Re-projecting depth information of the point cloud data of each frame in the point cloud data set to obtain a depth map corresponding to the point cloud data of each frame in the point cloud data set.

상기 포인트 클라우드 데이터 집합은 상기 적어도 한 프레임의 포인트 클라우드 데이터와 상기 기준 포인트 클라우드 데이터로 구성된다.The point cloud data set includes the point cloud data of the at least one frame and the reference point cloud data.

상기 포인트 클라우드 집합 중의 각 프레임의 포인트 클라우드 데이터에 대해 재투영을 실시하여, 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵과 강도 맵을 획득하며, 재투영은 종래의 기술이므로, 설명을 생략한다.Re-projection is performed on the point cloud data of each frame in the point cloud set to obtain a depth map and an intensity map corresponding to the point cloud data of each frame. Since re-projection is a conventional technique, a description thereof will be omitted.

202: 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 깊이 정보 보완을 수행하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하는 단계.202: According to the depth map corresponding to the point cloud data of each frame in the point cloud data set, performing depth information supplementation on the reference point cloud data to obtain a target depth map corresponding to the reference point cloud data step.

선택적으로, 레이저 레이더는 각 프레임의 포인트 클라우드 데이터를 수집 시 위치와 자세에 변화가 발생할 수 있기 때문에, 각 프레임의 포인트 클라우드 데이터를 수집 시의 레이더 좌표계는 각각 다르며, 따라서 상기 적어도 하나의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 레이더 좌표계를 획득하고, 상기 기준 포인트 클라우드 데이터에 대응되는 기준 레이더 좌표계를 획득하며; 각각의 제1 레이더 좌표계를 상기 기준 레이더 좌표계로 변환 시 대응되는 각각의 제1 변환 매트릭스를 획득하고; 각각의 제1 변환 매트릭스에 따라 상기 적어도 하나의 포인트 클라우드 데이터 중 상기 제1 변환 매트릭스와 대응되는 포인트 클라우드 데이터의 깊이 맵을 변환하며, 즉 상기 포인트 클라우드 데이터의 깊이 맵을 기준 레이더 좌표계로 변환하여, 상기 포인트 클라우드 데이터에 대응되는 제1 깊이 맵을 획득함으로써, 상기 적어도 하나의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 깊이 맵을 획득할 수 있으며; 이후, 상기 적어도 하나의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 깊이 맵을 상기 기준 포인트 클라우드 데이터에 대응되는 깊이 맵에 중첩시켜, 상기 기준 포인트 클라우드 데이터를 획득한다.Optionally, since the laser radar may change the position and attitude when collecting the point cloud data of each frame, the radar coordinate system when collecting the point cloud data of each frame is different, and thus the at least one point cloud data acquiring a first radar coordinate system corresponding to the point cloud data of each frame, and acquiring a reference radar coordinate system corresponding to the reference point cloud data; obtaining a corresponding respective first transformation matrix when transforming each first radar coordinate system into the reference radar coordinate system; transforming the depth map of the point cloud data corresponding to the first transformation matrix among the at least one point cloud data according to each first transformation matrix, that is, converting the depth map of the point cloud data into a reference radar coordinate system, acquiring a first depth map corresponding to the point cloud data of each frame among the at least one point cloud data by acquiring a first depth map corresponding to the point cloud data; Thereafter, a first depth map corresponding to the point cloud data of each frame among the at least one point cloud data is superimposed on the depth map corresponding to the reference point cloud data to obtain the reference point cloud data.

설명해두어야 할 점으로, 상기 적어도 하나의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 깊이 맵을 상기 기준 포인트 클라우드 데이터의 깊이 맵과 중첩시켜 새로운 깊이 맵을 획득한다. 만약 상기 적어도 하나의 포인트 클라우드 데이터 중의 i번째 프레임의 포인트 클라우드 데이터의 깊이 맵을 중첩 시, 최신 깊이 맵에 이미 상기 i번째 프레임의 포인트 클라우드 데이터 깊이 맵 중의 하나의 관측점의 깊이 정보가 포함되어 있다면, 상기 관측점의 깊이 정보의 중첩을 무시하고, 만약 상기 관측점의 깊이 정보가 포함되지 않은 경우, 상기 관측점의 깊이 정보를 최신 깊이 맵에 중첩하여 현재의 최신 깊이 맵을 획득하며, 상기 적어도 하나의 포인트 클라우드 데이터에 대응되는 모든 깊이 맵을 전부 중첩 완료하였다면, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득할 수 있다.It should be explained that a depth map of the point cloud data of each frame among the at least one point cloud data is overlapped with the depth map of the reference point cloud data to obtain a new depth map. If the depth map of the point cloud data of the i-th frame among the at least one point cloud data is superimposed, the latest depth map already includes depth information of one observation point in the point cloud data depth map of the i-th frame, Ignoring the overlap of the depth information of the viewpoint, if the depth information of the viewpoint is not included, the depth information of the viewpoint is superimposed on the latest depth map to obtain a current latest depth map, wherein the at least one point cloud If all depth maps corresponding to the data are completely overlapped, a target depth map corresponding to the reference point cloud data may be obtained.

203: 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 강도 정보를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계.203: Acquiring a target intensity map corresponding to the reference point cloud data by supplementing intensity information with respect to the reference point cloud data according to the target depth map corresponding to the reference point cloud data.

이로써 알 수 있듯이, 본 출원의 실시예에서는 포인트 클라우드 데이터 중의 깊이 정보와 강도 정보를 보완함으로써, 수집된 희소한 포인트 클라우드 데이터를 조밀한 포인트 클라우드 데이터로 보완하며; 깊이 정보와 강도 정보를 동기적으로 보완하기 때문에, 보완 과정에서 2개의 정보 사이에 서로 참고가 되며, 나아가 정보 보완의 정확도가 향상되고, 보완의 오류를 피할 수 있으며; 또한 포인트 클라우드 데이터 중의 강도 정보에 대한 보완을 구현하여 포인트 클라우드 데이터 리소스의 이용률이 향상된다.As can be seen, in the embodiment of the present application, the collected sparse point cloud data is supplemented with dense point cloud data by supplementing the depth information and intensity information in the point cloud data; Since the depth information and the intensity information are synchronously supplemented, the two pieces of information are referred to each other in the supplementation process, and furthermore, the accuracy of information supplementation is improved, and supplementary errors can be avoided; In addition, the utilization rate of the point cloud data resource is improved by implementing the supplementation of the intensity information in the point cloud data.

일부 가능한 실시방식에서, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵에 대해 거리 보정을 실시하여 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 획득하고; 이후, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 대해 각도 보정을 실시하여 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 획득하며; 마지막으로, 상기 적어도 하나의 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵과 상기 기준 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 중첩하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득할 수 있다.In some possible implementations, distance correction is performed on the intensity map corresponding to the point cloud data of each frame in the point cloud data set to obtain a first intensity map corresponding to the point cloud data of each frame in the point cloud data set. obtain; Thereafter, angle correction is performed on the first intensity map corresponding to the point cloud data of each frame in the point cloud data set to obtain a second intensity map corresponding to the point cloud data of each frame in the point cloud data set, ; Finally, by overlapping the second intensity map corresponding to the point cloud data of the at least one frame and the second intensity map corresponding to the reference point cloud data, a target intensity map corresponding to the reference point cloud data is obtained. can

여기서, 상기 각 프레임의 포인트 클라우드 데이터에 대해 거리 보정과 각도 보정을 실시함에 있어서는 전후 순서가 없다. 예를 들어, 먼저 거리 보정을 실시한 다음 각도 보정을 실시할 수도 있고, 먼저 각도 보상을 실시한 후, 거리 보상을 실시할 수도 있으며, 각도 보상과 거리 보상을 동시에 실시할 수도 있다.Here, when the distance correction and the angle correction are performed on the point cloud data of each frame, there is no forward and backward sequence. For example, the distance compensation may be performed first and then the angle compensation may be performed, the angle compensation may be performed first, and then the distance compensation may be performed, or the angle compensation and the distance compensation may be performed simultaneously.

일부 가능한 실시방식에서, 레이저 레이더의 레이더 파라미터에 따라 거리 보정항을 획득할 수 있고; 거리 보정항(g(D))을 근거로, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵(

Figure 112021077790861-pct00001
)을 확정한다. 여기서, 상기 거리 보정항(g(D)) 및 제1 강도 맵(
Figure 112021077790861-pct00002
)은 공식 (1)을 만족시킨다:In some possible implementations, a distance correction term may be obtained according to a radar parameter of the laser radar; Based on the distance correction term (g(D)), a first intensity map (
Figure 112021077790861-pct00001
) is confirmed. Here, the distance correction term (g(D)) and the first intensity map (
Figure 112021077790861-pct00002
) satisfies formula (1):

Figure 112021077790861-pct00003
(1)
Figure 112021077790861-pct00003
(One)

Figure 112021077790861-pct00004
는 상기 포인트 클라우드 집합 중의 하나의 프레임의 포인트 클라우드 데이터의 강도 맵이고, D는 상기 프레임의 포인트 클라우드 데이터의 깊이 맵이며,
Figure 112021077790861-pct00005
,
Figure 112021077790861-pct00006
Figure 112021077790861-pct00007
는 레이저 레이더의 고유 파라미터이다.
Figure 112021077790861-pct00004
is the intensity map of the point cloud data of one frame of the point cloud set, D is the depth map of the point cloud data of the frame,
Figure 112021077790861-pct00005
,
Figure 112021077790861-pct00006
Wow
Figure 112021077790861-pct00007
is an intrinsic parameter of laser radar.

각 관측점(레이저 레이더 광선이 조사되는 물체의 표면)의 강도 정보는 각 관측점과 레이저 레이더의 거리(깊이 정보)와 관련이 있기 때문에, 따라서, 각 프레임의 포인트 클라우드 데이터의 강도 맵에 대해 하나의 거리 보정항, 즉 상기 거리의 영향과 반대인 파라미터를 추가하여, 상기 거리 보정항을 통해 거리가 강도 정보에 미치는 영향을 제거한다. 예를 들어, 각 관측점의 강도 정보와 거리가 정비례 관계를 나타낸다면, 반비례를 통해 거리가 각 관측점의 강도 정보에 미치는 영향을 제거한다. 따라서, 제1 강도 맵 중 거리가 다른 관측점의 강도 정보는 거리와 무관하다.Since the intensity information of each observation point (the surface of the object irradiated with the laser radar beam) is related to the distance (depth information) of each observation point and the laser radar, therefore, there is one distance for the intensity map of the point cloud data of each frame. A correction term, that is, a parameter opposite to the effect of the distance, is added, and the influence of the distance on the intensity information is removed through the distance correction term. For example, if the intensity information of each observation point and the distance show a direct proportional relationship, the effect of the distance on the intensity information of each observation point is removed through inverse proportion. Accordingly, intensity information of viewpoints having different distances in the first intensity map is independent of the distance.

또한, 거리 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 획득한 후, 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 확정할 수 있다.In addition, after performing distance correction to obtain a first intensity map corresponding to the point cloud data of each frame among the point cloud data set, each of the target depth map corresponding to the reference point cloud data and the point cloud data set The target intensity map corresponding to the reference point cloud data may be determined according to the first intensity map corresponding to the point cloud data of the frame.

구체적으로 설명하면, 깊이 맵 중 각 관측점의 깊이 정보, 즉 (X, Y, Z) 좌표는 상기 관측점의 공간 위치를 나타낸다. 따라서 기준 레이더 좌표계에서, 기준 포인트 클라우드 데이터의 목표 깊이 맵 상의 각 관측점에 대해 평면 피팅을 실시하여 목표 공간 평면 및 상기 목표 공간 평면의 향방을 획득하며, 상기 목표 공간 평면의 향방에 기초하여 상기 목표 공간 평면의 법선 벡터(

Figure 112021077790861-pct00008
)를 획득한 후, 상기 기준 포인트 클라우드 데이터의 목표 깊이 맵 중 각 관측점의 깊이 좌표(X, Y, Z)와 법선 벡터(
Figure 112021077790861-pct00009
)에 따라, 상기 기준 포인트 클라우드 데이터의 목표 깊이 맵 중 각 관측점의 입사각을 획득하며, 이에 따라 상기 기준 포인트 클라우드 데이터의 목표 깊이 맵에 대응되는 목표 입사각 매트릭스(
Figure 112021077790861-pct00010
)를 획득할 수 있으며, 상기 목표 입사각 매트릭스(
Figure 112021077790861-pct00011
)가 바로 기준 포인트 클라우드 데이터의 제1 입사각 매트릭스이기도 하다.More specifically, depth information of each observation point in the depth map, ie, (X, Y, Z) coordinates, indicates a spatial position of the observation point. Accordingly, in the reference radar coordinate system, plane fitting is performed for each observation point on the target depth map of the reference point cloud data to obtain a target space plane and a direction of the target space plane, and based on the direction of the target space plane, the target space The normal vector of the plane (
Figure 112021077790861-pct00008
), the depth coordinates (X, Y, Z) of each observation point in the target depth map of the reference point cloud data and the normal vector (
Figure 112021077790861-pct00009
), acquire the incidence angle of each observation point in the target depth map of the reference point cloud data, and accordingly, the target incidence angle matrix (
Figure 112021077790861-pct00010
) can be obtained, and the target angle of incidence matrix (
Figure 112021077790861-pct00011
) is also the first incident angle matrix of the reference point cloud data.

예를 들어 설명하면, 관측점의 깊이 정보가

Figure 112021077790861-pct00012
이고, 법선 벡터가
Figure 112021077790861-pct00013
이면, 즉 상기 관측점의 입사각은
Figure 112021077790861-pct00014
이고, 또한
Figure 112021077790861-pct00015
이다.For example, if the depth information of the viewpoint is
Figure 112021077790861-pct00012
, and the normal vector is
Figure 112021077790861-pct00013
If , that is, the angle of incidence of the observation point is
Figure 112021077790861-pct00014
is, and also
Figure 112021077790861-pct00015
to be.

이후, 상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제1 변환 매트릭스(즉 2개의 레이더 좌표계 사이의 변환 매트릭스)에 따라 상기 목표 입사각 매트릭스를 역변환시킨다. 즉 상기 제1 변환 매트릭스에 대응되는 역매트릭스를 사용하여 상기 목표 입사각 매트릭스에 대해 역변환을 실시하여, 상기 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스를 획득하며, 이를 통해 상기 포인트 클라우드 집합 중 각 프레임의 포인트 클라우드 데이터의 제1 입사각 매트릭스를 획득할 수 있다. 상기 제1 입사각 매트릭스 중의 각 입사각은 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터를 수집 시, 레이저 레이더의 입사광선과 목표 평면의 법선 간의 협각이며, 상기 목표 평면은 상기 프레임의 포인트 클라우드 데이터에 대응되는 모든 관측점이 소재하는 공간 평면, 예를 들어 상기 목표 공간 평면이다.Thereafter, the target incidence angle matrix is inversely transformed according to a first transformation matrix (ie, a transformation matrix between two radar coordinate systems) of the point cloud data of each frame among the point cloud data of the at least one frame. That is, inverse transform is performed on the target incident angle matrix using the inverse matrix corresponding to the first transformation matrix to obtain a first incident angle matrix corresponding to the point cloud data of the frame, and through this, each of the point cloud sets A first incident angle matrix of the point cloud data of the frame may be obtained. Each incident angle in the first incident angle matrix is a narrow angle between the incident ray of the laser radar and the normal of the target plane when the point cloud data of each frame in the point cloud data set is collected, and the target plane is in the point cloud data of the frame. The space plane in which all corresponding viewpoints are located, for example the target space plane.

또한, 각 관측점의 강도 정보는 입사각의 영향을 받을 수도 있으며, 즉 재질이 동일하고 레이저 레이더와의 거리가 동일한 관측점은, 입사각이 다를 경우, 강도 정보도 다를 수 있다.In addition, the intensity information of each observation point may be affected by the angle of incidence, that is, the observation point having the same material and the same distance from the laser radar may have different intensity information when the incident angle is different.

따라서, 상기 포인트 클라우드 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스를 사용하여 상기 포인트 클라우드 집합 중 각 프레임의 포인트 클라우드 데이터의 제1 강도 맵에 대해 각도 보정을 실시하여, 상기 포인트 클라우드 집합 중 각 프레임의 포인트 클라우드 데이터의 제2 강도 맵을 획득하며, 즉 상기 제2 강도 맵에서 각도(입사각)가 강도 정보에 미치는 영향이 제거된다.Accordingly, angle correction is performed on the first intensity map of the point cloud data of each frame in the point cloud set using the first incident angle matrix corresponding to the point cloud data of each frame in the point cloud set, and the point cloud A second intensity map of the point cloud data of each frame in the set is obtained, that is, the influence of an angle (incident angle) on intensity information is removed from the second intensity map.

구체적으로 설명하면, 상기 포인트 클라우드 집합 중 각 프레임의 포인트 클라우드 데이터의 제1 입사각 매트릭스와 사전 설정된 구속계수를 통해, 상기 포인트 클라우드 데이터의 제1 강도 맵에 대해 각도 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 제2 강도 맵을 획득한다. 여기서, 상기 제2 강도 맵은 공식 (2)를 만족시킨다:More specifically, by performing angle correction on the first intensity map of the point cloud data through a first incident angle matrix and a preset constraint coefficient of the point cloud data of each frame in the point cloud set, the point cloud data A second intensity map of the point cloud data of each frame in the set is obtained. Here, the second intensity map satisfies formula (2):

Figure 112021077790861-pct00016
(2);
Figure 112021077790861-pct00016
(2);

Figure 112021077790861-pct00017
는 포인트 클라우드 데이터 집합 중의 하나의 프레임의 포인트 클라우드 데이터의 제2 강도 맵이고,
Figure 112021077790861-pct00018
는 상기 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵이며,
Figure 112021077790861-pct00019
는 상기 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스이고,
Figure 112021077790861-pct00020
Figure 112021077790861-pct00021
은 사전설정된 구속계수이다.
Figure 112021077790861-pct00017
is a second intensity map of the point cloud data of one frame of the point cloud data set,
Figure 112021077790861-pct00018
is a first intensity map corresponding to the point cloud data of the frame,
Figure 112021077790861-pct00019
is a first incident angle matrix corresponding to the point cloud data of the frame,
Figure 112021077790861-pct00020
Wow
Figure 112021077790861-pct00021
is a preset constraint factor.

각 관측점에 대응되는 강도 정보가 입사각의 코사인값과 관련이 있기 때문에, 상기 코사인값과 반대되는 방식을 통해 각 관측점의 강도 정보를 보정함으로써, 입사각이 각 관측점의 강도 정보에 미치는 영향을 제거하며, 따라서 제2 강도 맵 중 각 관측점에 대응되는 강도 정보는 상기 관측점의 표면 재질과만 관련이 있고, 거리와 각도의 영향은 더 이상 받지 않게 된다. 즉 각 관측점의 강도 정보는 상기 관측점의 반사율과만 관련이 있다.Since the intensity information corresponding to each observation point is related to the cosine value of the angle of incidence, by correcting the intensity information of each observation point in a manner opposite to the cosine value, the effect of the angle of incidence on the intensity information of each observation point is eliminated, Accordingly, the intensity information corresponding to each observation point in the second intensity map is related only to the surface material of the observation point, and is no longer affected by distance and angle. That is, the intensity information of each observation point is only related to the reflectance of the observation point.

또한, 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 획득한 후, 상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵과 기준 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 중첩하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득한다.In addition, after obtaining the second intensity map corresponding to the point cloud data of each frame, the second intensity map corresponding to the point cloud data of each frame among the point cloud data of the at least one frame and corresponding to the reference point cloud data A target intensity map corresponding to the reference point cloud data is obtained by overlapping the second intensity map.

마찬가지로, 상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제2 강도 맵을 상기 기준 포인트 클라우드 데이터에 대응되는 제2 강도 맵과 중첩시켜 최신 강도 맵을 획득한다. 상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중의 i번째 프레임의 포인트 클라우드 데이터의 제2 강도 맵을 중첩 시, 상기 최신 강도 맵에 이미 상기 i번째 프레임의 포인트 클라우드 데이터의 제2 강도 맵 중 하나의 관측점의 강도 정보가 포함되어 있다면, 즉 상기 관측점의 강도 정보의 중첩을 무시하고, 만약 상기 관측점의 강도 정보가 포함되어 있지 않다면, 상기 관측점의 강도 정보를 상기 최신 강도 맵에 중첩시켜, 현재의 최신 강도 맵을 획득하며, 상기 적어도 하나의 프레임의 포인트 클라우드 데이터에 대응되는 모든 제2 강도 맵이 전부 중첩 완료되었다면, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵(

Figure 112021077790861-pct00022
)을 획득한다.Similarly, the latest intensity map is obtained by overlapping a second intensity map of the point cloud data of each frame among the point cloud data of the at least one frame with the second intensity map corresponding to the reference point cloud data. When the second intensity map of the point cloud data of the i-th frame among the point cloud data of the at least one frame is superimposed, the latest intensity map already contains a view point of one of the second intensity maps of the point cloud data of the i-th frame. If the intensity information is included, that is, the overlap of the intensity information of the observation point is ignored, and if the intensity information of the observation point is not included, the intensity information of the observation point is superimposed on the latest intensity map, and the current latest intensity map is obtained, and if all second intensity maps corresponding to the point cloud data of the at least one frame are all overlaid, the target intensity map corresponding to the reference point cloud data (
Figure 112021077790861-pct00022
) is obtained.

상기 목표 강도 맵(

Figure 112021077790861-pct00023
) 중의 관측점은 표면 재질만 같다면, 관측점과 레이저 레이더의 거리가 얼마이든, 입사각이 얼마이든, 그 대응되는 강도 정보는 동일하다는 것을 이해할 수 있다. 그러나, 실제 수집 시, 거리가 다르고, 입사각이 다른 관측점은 강도 정보가 상이하기 때문에, 이에 대응되는 강도 정보가 다르다. 만약 강도 맵을 직접 중첩할 수 있다면, 중첩 후의 강도 맵 중 재질이 동일한 관측점이지만, 만약 레이저 레이더와의 사이의 거리가 다르고, 입사각이 다를 경우, 이들에 대응되는 강도 정보가 다르기 때문에, 이를 통해 실제 강도 맵을 획득한다. 따라서, 목표 강도 맵(
Figure 112021077790861-pct00024
)을 획득한 후, 목표 강도 맵(
Figure 112021077790861-pct00025
)에 대해 역정규화 처리를 수행하며, 즉 상기 목표 입사각 매트릭스 및 사전 설정된 구속계수에 따라 상기 목표 강도 맵(
Figure 112021077790861-pct00026
)에 대해 역정규화 처리를 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 오리지널 강도 맵(
Figure 112021077790861-pct00027
)을 획득하며, 오리지널 강도 맵(
Figure 112021077790861-pct00028
)은 상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 강도 맵과 상기 기준 포인트 클라우드 데이터의 강도 맵을 직접 중첩시켜 획득된 강도 맵에 해당한다. 여기서, 상기 오리지널 강도 맵(
Figure 112021077790861-pct00029
)은 공식 (3)을 만족시킨다:The target intensity map (
Figure 112021077790861-pct00023
), if only the surface material is the same, it can be understood that the corresponding intensity information is the same regardless of the distance between the observation point and the laser radar or the incident angle. However, during actual collection, since the intensity information is different at observation points having different distances and different incident angles, intensity information corresponding thereto is different. If the intensity map can be directly superimposed, the material is the same observation point in the intensity map after superposition, but if the distance between the laser radar and the laser radar is different and the incident angle is different, the corresponding intensity information is different. Obtain a strength map. Thus, the target intensity map (
Figure 112021077790861-pct00024
), after obtaining the target intensity map (
Figure 112021077790861-pct00025
) is denormalized, that is, according to the target angle of incidence matrix and a preset constraint factor, the target intensity map (
Figure 112021077790861-pct00026
) is denormalized, and the original intensity map (
Figure 112021077790861-pct00027
), and the original intensity map (
Figure 112021077790861-pct00028
) corresponds to an intensity map obtained by directly overlapping the intensity map of the point cloud data of each frame among the point cloud data of the at least one frame and the intensity map of the reference point cloud data. Here, the original intensity map (
Figure 112021077790861-pct00029
) satisfies formula (3):

Figure 112021077790861-pct00030
(3);
Figure 112021077790861-pct00030
(3);

여기서,

Figure 112021077790861-pct00031
는 목표 입사각 매트릭스이고,
Figure 112021077790861-pct00032
는 목표 강도 맵이며,
Figure 112021077790861-pct00033
Figure 112021077790861-pct00034
은 사전 설정된 구속계수이다.here,
Figure 112021077790861-pct00031
is the target angle of incidence matrix,
Figure 112021077790861-pct00032
is the target intensity map,
Figure 112021077790861-pct00033
Wow
Figure 112021077790861-pct00034
is a preset constraint factor.

선택적으로, 상기 오리지널 강도 맵(

Figure 112021077790861-pct00035
)을 획득한 후, 상기 오리지널 강도 맵(
Figure 112021077790861-pct00036
)에 대해 가시화 프리젠테이션을 수행하여 포인트 클라우드 데이터의 강도 정보를 직접 보완한 후의 보완 결과를 표시함으로써 강도 정보의 보완을 구현할 수 있다.Optionally, the original intensity map (
Figure 112021077790861-pct00035
), after obtaining the original intensity map (
Figure 112021077790861-pct00036
), complementing the intensity information can be implemented by directly supplementing the intensity information of the point cloud data and displaying the supplementary results.

일부 가능한 구현방식에서, 상기 기준 포인트 클라우드 데이터에 대한 정보 보완은 신경망을 이용하여 실행되며, 상기 신경망은 아래의 단계로 훈련시켜 획득된다:In some possible implementations, the information supplementation for the reference point cloud data is performed using a neural network, which is obtained by training the neural network in the following steps:

단계 a: 샘플 포인트 클라우드 데이터에 대해 정보 보완을 수행하여, 보완 후의 샘플 포인트 클라우드 데이터를 출력하는 단계;Step a: performing information supplementation on the sample point cloud data, and outputting the supplemented sample point cloud data;

단계 b: 상기 보완 후의 샘플 포인트 클라우드 데이터에 따라, 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵 및 예측 오리지널 강도 맵을 획득하는 단계;Step b: according to the supplemented sample point cloud data, obtaining a predicted target depth map, a predicted target intensity map, and a predicted original intensity map of the sample point cloud data;

단계 c: 상기 샘플 포인트 클라우드 데이터의 라벨링된(labeled) 목표 깊이 맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵 및 예측 오리지널 강도 맵에 따라 상기 신경망의 네트워크 파라미터를 조정하는 단계.Step c: a labeled target depth map, a labeled target intensity map and a labeled original intensity map of the sample point cloud data, and a predicted target depth map, a predicted target intensity map and a predicted original intensity map of the sample point cloud data adjusting network parameters of the neural network according to the map.

구체적으로 설명하면, 먼저 샘플 데이터의 깊이 정보 및 강도 정보 보완 결과를 획득하여, 상기 샘플 포인트 클라우드 데이터에 대응되는 목표 깊이 맵, 목표 강도 맵 및 오리지널 강도 맵, 즉 라벨링된 목표 깊이 맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵(지도 라벨)을 획득해야 하며, 여기서, 보완 결과는 다른 방법을 이용하여 구현할 수도 있다. 이후 상기 샘플 포인트 클라우드 데이터를 초기의 신경망에 입력하여, 보완 후의 목표 깊이 맵, 목표 강도 맵 및 오리지널 강도 맵, 즉 예측 목표 강도 맵, 예측 목표 강도 맵 및 예측 오리지널 강도 맵(예측 결과)을 획득하고; 상기 예측 결과와 지도 라벨에 따라, 목표 손실값을 획득한다. 즉 상기 보완 후의 목표 깊이 맵에 대응되는 제1 손실값(상기 라벨링된 목표 깊이 맵과 상기 예측 목표 깊이 맵에 따라 확정), 목표 강도 맵에 대응되는 제2 손실값(상기 라벨링된 목표 강도 맵과 상기 예측 목표 강도 맵에 따라 확정), 및 상기 오리지널 강도 맵에 대응되는 제3 손실값(상기 라벨링된 오리지널 강도 맵과 상기 예측 오리지널 강도 맵에 따라 확정)에 따라, 목표 손실값을 획득한다. 여기서, 상기 목표 손실값은 공식 (4)를 만족시킨다:Specifically, by first obtaining the depth information and intensity information supplementation result of the sample data, the target depth map, the target intensity map, and the original intensity map corresponding to the sample point cloud data, that is, the labeled target depth map and the labeled target It is necessary to obtain an intensity map and a labeled original intensity map (map label), where the complementary result may be implemented using other methods. Thereafter, the sample point cloud data is input to the initial neural network to obtain a target depth map, a target intensity map and an original intensity map after supplementation, that is, a predicted target intensity map, a predicted target intensity map, and a predicted original intensity map (prediction result), ; A target loss value is obtained according to the prediction result and the map label. That is, a first loss value corresponding to the target depth map after supplementation (determined according to the labeled target depth map and the predicted target depth map), a second loss value corresponding to the target intensity map (the labeled target intensity map and according to the predicted target intensity map), and a third loss value corresponding to the original intensity map (determined according to the labeled original intensity map and the predicted original intensity map), a target loss value is obtained. Here, the target loss value satisfies formula (4):

Figure 112021077790861-pct00037
(4)
Figure 112021077790861-pct00037
(4)

여기서,

Figure 112021077790861-pct00038
는 제1 손실값이고,
Figure 112021077790861-pct00039
은 제2 손실값이며,
Figure 112021077790861-pct00040
은 제3 손실값이고,
Figure 112021077790861-pct00041
Figure 112021077790861-pct00042
는 사전 설정 가중계수이다.here,
Figure 112021077790861-pct00038
is the first loss value,
Figure 112021077790861-pct00039
is the second loss value,
Figure 112021077790861-pct00040
is the third loss value,
Figure 112021077790861-pct00041
Wow
Figure 112021077790861-pct00042
is a preset weighting factor.

기울기 하강법 및 상기 목표 손실을 통해 상기 초기의 신경망을 훈련시켜 상기 신경망을 획득한다.The neural network is obtained by training the initial neural network through gradient descent and the target loss.

일부 가능한 실시방식에서, 본 발명의 실시예가 제공하는 신경망의 구조는 도 3에 도시된 정보 보와 모델을 채택할 수 있다. 상기 정보 보완 모델은 멀티태스크 러닝 모델 구조이며, 상기 정보 보완 모델은 예측 네트워크 블록과 역정규화 네트워크 블록을 포함한다. 여기서,In some possible implementations, the structure of the neural network provided by the embodiment of the present invention may adopt the information beam and model shown in FIG. 3 . The information complementation model is a multitask learning model structure, and the information complementation model includes a predictive network block and a denormalized network block. here,

상기 예측 네트워크 블록은 인코딩 네트워크 블록, 컨볼루션 네트워크 블록, 디코딩 네트워크 블록을 포함한다. 상기 인코딩 네트워크는 4개의 잔류 네트워크로 구성되고, 컨볼루션 네트워크 블록은 컨볼루션층과 팽창 네트워크로 구성되며, 상기 디코딩 네트워크 블록은 5개의 전치 컨볼루션 네트워크로 구성된다.The prediction network block includes an encoding network block, a convolutional network block, and a decoding network block. The encoding network is composed of 4 residual networks, the convolutional network block is composed of a convolutional layer and an expansion network, and the decoding network block is composed of 5 pre-convolutional networks.

여기서, 상기 예측 네트워크 블록은, 인코딩 네트워크 블록, 컨볼루션 네트워크 블록 및 디코딩 네트워크 블록을 통해, 입력된 샘플 포인트 클라우드 데이터에 대해 정보 보완을 실시하여, 샘플 포인트 클라우드 데이터에 대응되는 예측 목표 깊이 맵(

Figure 112021077790861-pct00043
)과 예측 목표 강도 맵(
Figure 112021077790861-pct00044
)을 획득하기 위한 것이고;Here, the prediction network block performs information supplementation on the input sample point cloud data through the encoding network block, the convolutional network block, and the decoding network block, and a prediction target depth map corresponding to the sample point cloud data (
Figure 112021077790861-pct00043
) and the predicted target intensity map (
Figure 112021077790861-pct00044
) to obtain;

역정규화 네트워크 블록은, 예측 목표 강도맵(

Figure 112021077790861-pct00045
)에 대해 역정규화 처리를 실시하여, 예측 초기 강도 맵(
Figure 112021077790861-pct00046
)을 획득하기 위한 것이며;The denormalized network block is a prediction target intensity map (
Figure 112021077790861-pct00045
) is denormalized to the predicted initial intensity map (
Figure 112021077790861-pct00046
) to obtain;

이후, 샘플 포인트 클라우드 데이터의 지도 정보인 목표 깊이 맵, 중간 강도 맵과 목표 강도 맵을 기초로 샘플 포인트 클라우드 데이터에 대응되는 제1 손실값, 제2 손실값 및 제3 손실값을 계산하고, 제1 손실값, 제2 손실값과 제3 손실값에 대해 가중치 처리를 실시하여 목표 손실값을 획득하며, 목표 손실값을 기초로 정보 보완 모델에 대해 최적화 훈련을 실시한다.Thereafter, a first loss value, a second loss value, and a third loss value corresponding to the sample point cloud data are calculated based on the target depth map, the intermediate intensity map, and the target intensity map, which are map information of the sample point cloud data; Weight processing is performed on the first loss value, the second loss value, and the third loss value to obtain a target loss value, and optimization training is performed on the information supplementation model based on the target loss value.

이로써 알 수 있듯이, 보완 모델을 통해, 포인트 클라우드 데이터 중의 깊이 정보와 강도 정보를 보완함으로써, 수집된 희소 포인트 클라우드 데이터를 조밀한 포인트 클라우드 데이터로 보완하며; 깊이 정보와 강도 정보를 동시에 보완하므로, 보완 과정에서 2개의 정보 사이에 서로 참고가 될 수 있어 정보 보완의 정확도가 향상되고, 보완의 오류를 방지할 수 있으며; 또한, 포인트 클라우드 데이터 중의 강도 정보에 대한 보완을 구현하여, 포인트 클라우드 데이터 리소스의 이용률이 향상된다.As can be seen, the collected sparse point cloud data is supplemented with dense point cloud data by supplementing the depth information and intensity information in the point cloud data through the complementary model; Since the depth information and the intensity information are supplemented at the same time, the two pieces of information can be referred to each other in the supplementation process, thereby improving the accuracy of information supplementation and preventing supplementation errors; In addition, by implementing a supplement to the intensity information in the point cloud data, the utilization rate of the point cloud data resource is improved.

도 4를 참조하면, 도 4는 본 출원의 실시예가 제공하는 차선 인식 방법의 흐름도로서, 상기 방법은 이하 단계를 포함하나 이에 한정되지 않는다:Referring to FIG. 4 , FIG. 4 is a flowchart of a lane recognition method provided by an embodiment of the present application, the method including but not limited to the following steps:

401: 도로의 포인트 클라우드 데이터를 수집하는 단계.401: Collecting point cloud data of the road.

여기서, 레이저 레이더를 통해 도로의 포인트 클라우드 데이터를 수집할 수 있다.Here, it is possible to collect point cloud data of the road through laser radar.

402: 상기 포인트 클라우드 데이터에 대해 보완을 실시하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계.402: Acquiring a target intensity map corresponding to the point cloud data by supplementing the point cloud data.

여기서, 상기 정보 보완 방법을 이용하여 상기 포인트 클라우드 데이터에 대해 정보 보완을 실시하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하며, 상기 목표 강도 맵은 거리 및 입사각이 강도 정보에 미치는 영향을 제거한 목표 강도 맵으로서, 구체적인 보완 과정은 203 중의 상기 내용을 참조하면 되므로, 설명을 생략한다.Here, by performing information supplementation on the point cloud data using the information supplementation method, a target intensity map corresponding to the point cloud data is obtained, and the target intensity map shows the effect of distance and incident angle on intensity information. As the removed target intensity map, the detailed supplementation process may refer to the above contents in 203, and thus description thereof will be omitted.

403: 상기 목표 강도 맵에 따라 차선을 인식하여, 차선 인식 결과를 획득하는 단계.403: Recognizing a lane according to the target intensity map to obtain a lane recognition result.

상기 목표 강도 맵 중의 강도 정보에서 거리 및 입사각의 영향을 제거하였기 때문에, 상기 목표 강도 맵 중의 관측점의 강도 정보는 상기 관측점의 표면 재질과만 관련이 있으며, 다시 말해 상기 목표 강도 맵 중의 관측점의 강도 정보는 상기 관측점에 대응되는 재질의 표면 반사율을 반영한다. 따라서, 상기 목표 강도 중 강도 정보(표면 반사율)와 차선의 강도 정보(표면 반사율)에 대응되는 관측점을 전부 차선상의 점으로 확정하기만 하면, 상기 목표 강도 맵을 통해 차선을 인식할 수 있다.Since the influence of distance and incident angle is removed from the intensity information in the target intensity map, the intensity information of the observation point in the target intensity map is only related to the surface material of the observation point, that is, the intensity information of the observation point in the target intensity map. reflects the surface reflectance of the material corresponding to the observation point. Accordingly, as long as all observation points corresponding to the intensity information (surface reflectance) and the intensity information (surface reflectance) of the lane among the target intensities are determined as points on the lane, the lane can be recognized through the target intensity map.

따라서, 본 출원의 실시예에서, 보완 후의 목표 강도 맵을 이용하여 차선을 인식할 수 있다는 것을 알 수 있다. 레이저가 가시광 대역에 속하지 않기 때문에 설사 어둡거나 또는 열악한 상황에서도, 강도 정보가 조밀한 목표 강도 맵을 획득할 수 있어, 차선 인식의 안정성과 성공률이 향상된다.Accordingly, it can be seen that, in the embodiment of the present application, a lane can be recognized using the target intensity map after supplementation. Since the laser does not belong to the visible light band, even in dark or poor conditions, a target intensity map with dense intensity information can be obtained, improving the stability and success rate of lane recognition.

도 5는 본 출원의 실시예가 제공하는 지능형 주행 방법의 흐름도로서, 상기 방법은 이하 단계를 포함하나 이에 한정되지 않는다:5 is a flowchart of an intelligent driving method provided by an embodiment of the present application, the method including but not limited to the following steps:

501: 지능형 주행장치의 주변 장면의 포인트 클라우드 데이터를 수집하는 단계.501: Collecting point cloud data of the surrounding scene of the intelligent driving device.

여기서, 상기 지능형 주행 장치는 자율주행 차량, 첨단 운전자 보조 시스템(Advanced Driving Assistant System, ADAS)이 장착된 차량, 스마트 로봇, 등등일 수 있다.Here, the intelligent driving device may be an autonomous vehicle, a vehicle equipped with an Advanced Driving Assistant System (ADAS), a smart robot, or the like.

502: 상기 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계.502: Acquiring a target intensity map corresponding to the point cloud data by supplementing the point cloud data.

상기 정보 보완 방법을 이용하여 상기 포인트 클라우드 데이터의 강도 정보를 보완함으로써, 거리와 입사각의 영향이 제거된 목표 강도 맵을 획득하며, 구체적인 보완 과정은 203 중의 상기 내용을 참조하면 되므로, 설명을 생략한다.By supplementing the intensity information of the point cloud data using the information supplementation method, a target intensity map in which the effects of distance and incident angle are removed is obtained. .

503: 상기 목표 강도 맵에 따라 상기 주변 장면 중의 목표 대상을 인식하는 단계.503: Recognizing a target object in the surrounding scene according to the target intensity map.

여기서, 상기 목표 대상은 차선, 각종 신호등, 교통표지, 장애물, 행인 또는 기타 지능형 주행장치, 및 주행 시 만날 수 있는 각종 물체일 수 있다.Here, the target may be a lane, various traffic lights, traffic signs, obstacles, passers-by or other intelligent driving devices, and various objects that may be encountered while driving.

구체적으로, 상기 목표 강도 맵 중 각각의 관측점의 강도 정보, 즉 각 관측점의 표면 반사율을 획득한 후, 각각의 관측점의 표면 반사율을 각종 물체에 대응되는 표면 반사율과 비교하여, 각 관측점의 물체 유형을 확정하고, 이에 따라 상기 주변 장면 중의 목표 대상을 인식한다.Specifically, after obtaining the intensity information of each observation point in the target intensity map, that is, the surface reflectance of each observation point, the surface reflectance of each observation point is compared with the surface reflectance corresponding to various objects, and the object type of each observation point is determined is determined, and accordingly, the target object in the surrounding scene is recognized.

504: 인식 결과에 따라, 상기 지능형 주행 장치의 주행을 제어하는 단계.504: Controlling driving of the intelligent driving device according to the recognition result.

선택적으로, 인식한 상기 주변 장면 중의 목표 대상을 근거로, 경로를 계획하고, 계획된 주행 경로에 따라 지능형 장치의 주행을 자동으로 제어하며; 안내 메시지를 출력하여, 상기 안내 메시지를 통해 상기 지능형 주행 장치의 조작자에게 인식된 목표 대상을 근거로 상기 지능형 장치의 주행을 제어하도록 알릴 수 있다.Optionally, based on the recognized target object in the surrounding scene, plan a route, and automatically control the driving of the intelligent device according to the planned driving route; A guide message may be output to inform the operator of the intelligent driving device to control driving of the intelligent device based on the recognized target target through the guidance message.

따라서, 본 출원의 실시방안에서, 수집된 포인트 클라우드 데이터를 보완하여 목표 강도 맵을 획득하는 것을 알 수 있다. 레이저가 가시광 대역에 속하지 않기 때문에 설사 어둡거나 또는 열악한 상황에서도, 강도 정보가 조밀한 목표 강도 맵을 획득할 수 있으며; 또한, 상기 목표 강도 맵의 관측점의 반사율은 거리와 입사각도의 영향을 받지 않기 때문에, 상기 목표 강도 맵에 따라 목표 대상을 인식할 경우, 목표 대상의 인식 성공률이 높아질 수 있다. 따라서, 어떠한 환경 조건에서도, 지능형 주행 장치 주변의 환경의 레이아웃을 정확하게 획득할 수 있으며, 상기 환경 레이아웃에 따라 지능형 주행장치의 주행을 제어할 수 있고, 나아가 지능형 주행 장치의 주행의 안정성이 향상된다.Accordingly, in the implementation method of the present application, it can be seen that the target intensity map is obtained by supplementing the collected point cloud data. Since the laser does not belong to the visible light band, even in dark or poor conditions, it is possible to obtain a target intensity map with dense intensity information; In addition, since the reflectivity of the observation point of the target intensity map is not affected by the distance and the incident angle, when the target object is recognized according to the target intensity map, the recognition success rate of the target object may be increased. Therefore, it is possible to accurately obtain the layout of the environment around the intelligent driving device under any environmental conditions, control the driving of the intelligent driving device according to the environment layout, and further improve the driving stability of the intelligent driving device.

도 6은 본 출원의 실시예가 제공하는 정보 보완 장치(600)의 구조도이다. 정보 보완 장치(600)는 프로세서, 메모리, 통신 인터페이스 및 하나 또는 다수의 프로그램을 포함하며, 여기서, 상기 하나 또는 다수의 프로그램은 상기 하나 또는 다수의 애플리케이션 프로그램과 다르고, 또한 상기 하나 또는 다수의 프로그램은 상기 메모리에 저장되며, 또한 상기 프로세서에 의해 실행되도록 설정되고, 상기 프로그램은 이하 단계를 실행하기 위한 명령을 포함한다:6 is a structural diagram of an information supplementing apparatus 600 provided by an embodiment of the present application. The information complementing device 600 includes a processor, a memory, a communication interface, and one or more programs, wherein the one or more programs are different from the one or more application programs, and the one or more programs include: stored in the memory and configured to be executed by the processor, the program comprising instructions for executing the following steps:

각 프레임에 깊이 정보와 강도 정보가 포함된 다중 프레임 포인트 클라우드 데이터를 획득하는 단계;acquiring multi-frame point cloud data including depth information and intensity information in each frame;

상기 다중 프레임 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 하나의 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하는 단계;Target point cloud data corresponding to the reference point cloud data by supplementing the reference point cloud data according to the depth information and intensity information of the point cloud data of at least one frame of the multi-frame point cloud data except for the reference point cloud data obtaining a;

여기서, 상기 목표 포인트 클라우드 데이터의 깊이 정보는 상기 기준 포인트 클라우드 데이터의 깊이 정보보다 조밀하고, 또한 상기 목표 포인트 클라우드 데이터의 강도 정보는 상기 기준 포인트 클라우드 데이터의 강도 정보보다 조밀하며, 상기 기준 포인트 클라우드 데이터는 상기 다중 프레임 포인트 클라우드 데이터 중의 어느 하나의 포인트 클라우드 데이터이다.Here, the depth information of the target point cloud data is denser than the depth information of the reference point cloud data, and the intensity information of the target point cloud data is denser than the intensity information of the reference point cloud data, and the reference point cloud data is any one point cloud data among the multi-frame point cloud data.

일부 가능한 실시방식에서, 상기 다중 프레임 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 하나의 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementations, the reference point cloud data is supplemented according to the depth information and intensity information of the point cloud data of at least one frame excluding the reference point cloud data among the multiple frame point cloud data, and the reference point cloud data is added to the reference point cloud data. In terms of acquiring the corresponding target point cloud data, the program is specifically for executing the following instructions:

상기 적어도 하나의 프레임의 포인트 클라우드 데이터와 상기 기준 포인트 클라우드 데이터로 구성되는 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 깊이 정보를 재투영하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵을 획득하는 단계;The depth information of the point cloud data of each frame among the point cloud data set composed of the point cloud data of the at least one frame and the reference point cloud data is re-projected to the point cloud data of each frame in the point cloud data set. obtaining a corresponding depth map;

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 깊이 정보 보완을 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하는 단계;acquiring a target depth map corresponding to the reference point cloud data by supplementing the reference point cloud data with depth information according to a depth map corresponding to the point cloud data of each frame in the point cloud data set;

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 강도 정보 보완을 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계.Acquiring a target intensity map corresponding to the reference point cloud data by supplementing intensity information on the reference point cloud data according to the target depth map corresponding to the reference point cloud data.

일부 가능한 실시방식에서, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 깊이 정보 보완을 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementation methods, depth information is supplemented on the reference point cloud data according to a depth map corresponding to the point cloud data of each frame in the point cloud data set, and a target depth corresponding to the reference point cloud data is performed. In terms of acquiring the map, the program is specifically for executing the following steps of instructions:

상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제1 레이더 좌표계 및 상기 기준 포인트 클라우드 데이터에 대응되는 기준 레이더 좌표계를 획득하는 단계;acquiring a first radar coordinate system of the point cloud data of each frame among the point cloud data of the at least one frame and a reference radar coordinate system corresponding to the reference point cloud data;

각각의 제1 레이더 좌표계를 상기 기준 레이더 좌표계로 변환하는 각각의 제1 변환 매트릭스를 확정하는 단계;determining each first transformation matrix that transforms each first radar coordinate system into the reference radar coordinate system;

각각의 제1 변환 매트릭스에 따라 대응하는 프레임의 포인트 클라우드 데이터의 깊이 맵을 변환하여 제1 깊이 맵을 획득하는 단계;converting a depth map of the point cloud data of a corresponding frame according to each first transformation matrix to obtain a first depth map;

상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 깊이 맵을 상기 기준 포인트 클라우드 데이터의 깊이 맵과 중첩시켜, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하는 단계.obtaining a target depth map corresponding to the reference point cloud data by overlapping a first depth map corresponding to the point cloud data of each frame among the point cloud data of the at least one frame with the depth map of the reference point cloud data step.

일부 가능한 실시방식에서, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이에 따라, 상기 기준 포인트 클라우드 데이터에 대해 강도 정보 보완을 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementations, in terms of obtaining a target intensity map corresponding to the reference point cloud data by supplementing the intensity information on the reference point cloud data according to the target depth corresponding to the reference point cloud data, The program is specifically for executing the instructions of the following steps:

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 강도 정보를 재투영하여, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵을 획득하는 단계;obtaining an intensity map corresponding to the point cloud data of each frame in the point cloud data set by re-projecting intensity information of the point cloud data of each frame in the point cloud data set;

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵에 대해, 거리가 강도 정보에 미치는 영향을 제거하기 위한 거리 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 획득하는 단계;Distance correction is performed to remove the effect of distance on intensity information on the intensity map corresponding to the point cloud data of each frame in the point cloud data set, and the point cloud data of each frame in the point cloud data set is subjected to distance correction. obtaining a corresponding first intensity map;

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 확정하는 단계.determining a target intensity map corresponding to the reference point cloud data according to a target depth map corresponding to the reference point cloud data and a first intensity map corresponding to the point cloud data of each frame among the point cloud data set.

일부 가능한 실시방식에서, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵에 대해 거리 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 획득하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementations, distance correction is performed on the intensity map corresponding to the point cloud data of each frame in the point cloud data set, and the first intensity map corresponding to the point cloud data of each frame in the point cloud data set In the aspect of obtaining , the program is specifically for executing the instructions of the following steps:

레이저 레이더의 레이더 파라미터에 따라, 거리 보정항을 획득하는 단계;obtaining a distance correction term according to a radar parameter of the laser radar;

상기 거리 보정항에 따라, 상기 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 확정하는 단계.Determining a first intensity map corresponding to the point cloud data of each frame among the point cloud data according to the distance correction term.

일부 가능한 실시방식에서, 상기 목표 깊이 맵과 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 확정하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementations, in terms of determining the target intensity map corresponding to the reference point cloud data according to the target depth map and the first intensity map corresponding to the point cloud data of each frame in the point cloud data set, The program is specifically for executing the instructions of the following steps:

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스를 획득하는 단계;obtaining a first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set according to the target depth map corresponding to the reference point cloud data;

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 대해, 입사각도가 강도 정보에 미치는 영향을 제거하기 위한 각도 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 획득하는 단계;According to the first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, for the first intensity map corresponding to the point cloud data of each frame in the point cloud data set, the incident angle is the intensity information. obtaining a second intensity map corresponding to the point cloud data of each frame in the point cloud data set by performing angle correction to remove the influence;

상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 포인트 클라우드 데이터에 대응되는 제2 강도 맵과 상기 기준 포인트 클라우드 데이터에 대응되는 제2 강도맵을 중첩시켜, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계.A target intensity map corresponding to the reference point cloud data is obtained by overlapping a second intensity map corresponding to each point cloud data among the point cloud data of the at least one frame and a second intensity map corresponding to the reference point cloud data. steps to obtain.

일부 가능한 실시방식에서, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스를 획득하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementations, in terms of obtaining, according to the target depth map corresponding to the reference point cloud data, a first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, the program is specifically This is to run the following commands:

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵 중의 깊이 정보에 따라 평면 피팅을 수행하여, 목표 공간 평면을 획득하는 단계;acquiring a target space plane by performing plane fitting according to depth information in a target depth map corresponding to the reference point cloud data;

상기 기준 포인트 클라우드 데이터를 수집 시 레이저 레이더의 입사광선과 목표 평면의 법선 간의 협각에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스를 확정하는 단계, 여기서, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스는 상기 기준 포인트 클라우드 데이터의 제1 입사각 매트릭스이며;determining a target depth map corresponding to the reference point cloud data and a target incidence angle matrix corresponding to the reference point according to an angle between an incident ray of a laser radar and a normal of a target plane when collecting the reference point cloud data, wherein the reference point the target depth map corresponding to the cloud data and the target incidence angle matrix corresponding to the cloud data are the first incidence angle matrix of the reference point cloud data;

상기 적어도 하나의 프레임의 포인트 클라우드 데이터의 제1 변환 매트릭스에 따라 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스를 역변환시켜, 상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제1 입사각 매트릭스를 획득하는 단계.The target depth map corresponding to the reference point cloud data and the corresponding target incidence angle matrix are inversely transformed according to the first transformation matrix of the point cloud data of the at least one frame, so that each frame of the point cloud data of the at least one frame is inversely transformed. Obtaining a first angle of incidence matrix of the point cloud data.

일부 가능한 실시방식에서, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 대해 각도 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 획득하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementations, according to a first incidence angle matrix corresponding to the point cloud data of each frame in the set of point cloud data, an angle with respect to the first intensity map corresponding to the point cloud data of each frame in the set of point cloud data. In terms of performing correction to obtain a second intensity map corresponding to the point cloud data of each frame in the point cloud data set, the program is specifically for executing the following instructions:

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스, 사전 설정된 구속계수, 및 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 제1 강도 맵에 따라, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 확정하는 단계.According to a first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, a preset constraint factor, and a first intensity map of the point cloud data of each frame in the point cloud data set, the point cloud data Determining a second intensity map corresponding to the point cloud data of each frame in the set.

일부 가능한 실시방식에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 더 실행하기 위한 것이다:In some possible implementations, the program is specifically for further executing the instructions of the following steps:

상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵에 따라 상기 기준 포인트 클라우드 데이터에 대응되는 오리지널 강도 맵을 확정하는 단계.determining an original intensity map corresponding to the reference point cloud data according to the target intensity map corresponding to the reference point cloud data.

일부 가능한 실시방식에서, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵에 따라 상기 기준 포인트 클라우드 데이터에 대응되는 오리지널 강도 맵을 확정하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementation manners, in terms of determining the original intensity map corresponding to the reference point cloud data according to the target intensity map corresponding to the reference point cloud data, the program is specifically for executing the instructions of the following steps :

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스, 사전 설정된 구속계수에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 처리하여, 상기 기준 포인트 클라우드 데이터에 대응되는 오리지널 강도 맵을 확정하는 단계.By processing the target intensity map corresponding to the reference point cloud data according to the target depth map corresponding to the reference point cloud data, the target incident angle matrix corresponding to the reference point cloud data, and a preset constraint factor, the original intensity corresponding to the reference point cloud data Step to confirm the map.

일부 가능한 실시방식에서, 정보 보완 장치는 신경망을 통해 상기 기준 포인트 클라우드를 보완하며; 상기 프로그램은 또한 이하 단계의 명령을 실행하기 위한 것이기도 하다:In some possible implementations, the information supplementation device supplements the reference point cloud via a neural network; The program is also for executing the following steps of instructions:

샘플 포인트 클라우드 데이터에 대해 정보 보완을 실시하여, 보완 후의 샘플 포인트 클라우드 데이터를 출력하는 단계;performing information supplementation on the sample point cloud data and outputting the supplemented sample point cloud data;

상기 보완 후의 샘플 포인트 클라우드 데이터에 따라, 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵 및 예측 오리지널 강도 맵을 획득하는 단계;obtaining, according to the supplemented sample point cloud data, a predicted target depth map, a predicted target intensity map, and a predicted original intensity map of the sample point cloud data;

상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이 맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라 상기 신경망의 네트워크 파라미터를 조정하는 단계.of the neural network according to the labeled target depth map of the sample point cloud data, the labeled target intensity map and the labeled original intensity map, and the predicted target depth map, the predicted target intensity map and the predicted original intensity map of the sample point cloud data. Adjusting network parameters.

일부 가능한 실시방식에서, 상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이 맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라 상기 신경망의 네트워크 파라미터를 조정하는 측면에서, 상기 프로그램은 구체적으로 이하 단계의 명령을 실행하기 위한 것이다:In some possible implementations, a labeled target depth map of the sample point cloud data, a labeled target intensity map and a labeled original intensity map, and a predicted target depth map, a predicted target intensity map and a predicted original intensity of the sample point cloud data In terms of adjusting the network parameters of the neural network according to the map, the program is specifically for executing the following steps:

상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이 맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라, 제1 손실값, 제2 손실값 및 제3 손실값을 획득하는 단계; 여기서, 상기 제1 손실값은 상기 라벨링된 목표 깊이 맵과 상기 예측 목표 깊이 맵에 따라 확정되고; 상기 제2 손실값은 상기 라벨링된 목표 강도 맵과 상기 예측 목표 강도 맵에 따라 확정되며; 상기 제3 손실값은 상기 라벨링된 오리지널 강도 맵과 상기 예측 오리지널 강도 맵에 따라 확정되며;According to the labeled target depth map of the sample point cloud data, the labeled target intensity map and the labeled original intensity map, and the predicted target depth map, the predicted target intensity map and the predicted original intensity map of the sample point cloud data, a first obtaining a loss value, a second loss value, and a third loss value; wherein the first loss value is determined according to the labeled target depth map and the predicted target depth map; the second loss value is determined according to the labeled target intensity map and the predicted target intensity map; the third loss value is determined according to the labeled original intensity map and the predicted original intensity map;

상기 제1 손실값, 제2 손실값과 제3 손실값에 대해 가중치 처리를 실시하여, 목표 손실값을 획득하는 단계;obtaining a target loss value by weighting the first loss value, the second loss value, and the third loss value;

상기 목표 손실값에 따라 상기 신경망의 네트워크 파라미터를 조정하는 단계.adjusting network parameters of the neural network according to the target loss value.

도7은 본 출원의 실시예가 제공하는 차선 인식장치(700)의 구조도이다. 차선 인식장치(700)는 프로세서, 메모리, 통신 인터페이스 및 하나 또는 다수의 프로그램을 포함하며, 여기서, 상기 하나 또는 다수의 프로그램은 상기 하나 또는 다수의 애플리케이션 프로그램과 다르고, 상기 하나 또는 다수의 프로그램은 상기 메모리에 저장되며, 또한 상기 프로세서에 의해 실행되도록 설정되며, 상기 프로그램은7 is a structural diagram of the lane recognition device 700 provided by the embodiment of the present application. The lane recognition device 700 includes a processor, a memory, a communication interface, and one or more programs, wherein the one or more programs are different from the one or more application programs, and the one or more programs are stored in the memory and configured to be executed by the processor, the program comprising:

도로의 포인트 클라우드 데이터를 수집하는 단계;collecting point cloud data of the road;

상기 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계;acquiring a target intensity map corresponding to the point cloud data by supplementing the point cloud data;

상기 목표 강도 맵에 따라 차선을 인식하여, 차선 인식 결과를 획득하는 단계;를 실행하기 위한 명령을 포함한다.and recognizing a lane according to the target intensity map to obtain a lane recognition result.

도 8은 본 출원의 실시예가 제공하는 지능형 주행 장치(800)의 구조도이다. 지능형 주행 장치(800)는 프로세서, 메모리, 통신 인터페이스 및 하나 또는 다수의 프로그램을 포함하며, 여기서, 상기 하나 또는 다수의 프로그램은 상기 하나 또는 다수의 애플리케이션 프로그램과 다르고, 상기 하나 또는 다수의 프로그램은 상기 메모리에 저장되며, 또한 상기 프로세서에 의해 실행되도록 설정되며, 상기 프로그램은8 is a structural diagram of the intelligent driving device 800 provided by the embodiment of the present application. The intelligent driving device 800 includes a processor, a memory, a communication interface and one or more programs, wherein the one or more programs are different from the one or more application programs, and the one or more programs are stored in the memory and configured to be executed by the processor, the program comprising:

주변 장면의 포인트 클라우드 데이터를 수집하는 단계;collecting point cloud data of surrounding scenes;

상기 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계;acquiring a target intensity map corresponding to the point cloud data by supplementing the point cloud data;

상기 목표 강도 맵에 따라 상기 주변 장면 중의 목표 대상을 인식하는 단계;recognizing a target object in the surrounding scene according to the target intensity map;

인식 결과에 따라 주행을 제어하는 단계;를 실행하기 위한 명령을 포함한다.Controlling driving according to the recognition result; includes a command for executing.

도 9는 본 출원의 실시예가 제공하는 정보 보완장치의 기능유닛 구성 블록도이다. 정보 보완장치(900)는 획득유닛(910), 보완유닛(920)을 포함하며, 여기서,9 is a block diagram of a functional unit of an information supplementing device provided by an embodiment of the present application. The information supplementation device 900 includes an acquisition unit 910 and a supplementation unit 920, where,

획득유닛(910)은, 각 프레임의 포인트 클라우드 데이터에 깊이 정보와 강도 정보를 포함하는 다중 프레임의 포인트 클라우드 데이터를 획득하기 위한 것이고;The acquiring unit 910 is for acquiring point cloud data of multiple frames including depth information and intensity information in the point cloud data of each frame;

보완유닛(920)은, 상기 다중 프레임의 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 하나의 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하기 위한 것이며;The complementation unit 920 supplements the reference point cloud data according to the depth information and intensity information of the point cloud data of at least one frame except for the reference point cloud data among the point cloud data of the multiple frames, to acquire target point cloud data corresponding to the data;

여기서, 상기 목표 포인트 클라우드 데이터의 깊이 정보는 상기 기준 포인트 클라우드 데이터의 깊이 정보보다 조밀하고, 또한 상기 목표 포인트 클라우드 데이터의 강도 정보는 상기 기준 포인트 클라우드 데이터의 강도 정보보다 조밀하며, 상기 기준 포인트 클라우드 데이터는 상기 다중 프레임의 포인트 클라우드 데이터 중 어느 하나의 프레임의 포인트 클라우드 데이터이다.Here, the depth information of the target point cloud data is denser than the depth information of the reference point cloud data, and the intensity information of the target point cloud data is denser than the intensity information of the reference point cloud data, and the reference point cloud data is the point cloud data of any one frame among the point cloud data of the multiple frames.

일부 가능한 실시방식에서, 보완유닛(920)은 구체적으로,In some possible implementations, the supplemental unit 920 specifically,

적어도 하나의 프레임의 포인트 클라우드 데이터와 상기 기준 포인트 클라우드 데이터로 구성되는 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 깊이 정보를 재투영하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵을 획득하고;The depth information of the point cloud data of each frame among the point cloud data set composed of the point cloud data of at least one frame and the reference point cloud data is re-projected to correspond to the point cloud data of each frame in the point cloud data set obtain a depth map to be;

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 깊이 정보 보완을 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하며;performing depth information supplementation on the reference point cloud data according to a depth map corresponding to the point cloud data of each frame in the point cloud data set to obtain a target depth map corresponding to the reference point cloud data;

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 강도 정보 보완을 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하기 위한 것이다.According to the target depth map corresponding to the reference point cloud data, the intensity information is supplemented on the reference point cloud data to obtain a target intensity map corresponding to the reference point cloud data.

일부 가능한 실시방식에서, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 깊이 정보 보완을 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하는 측면에서, 보완유닛(920)은 구체적으로,In some possible implementation methods, depth information is supplemented on the reference point cloud data according to a depth map corresponding to the point cloud data of each frame in the point cloud data set, and a target depth corresponding to the reference point cloud data is performed. In terms of acquiring the map, the supplementary unit 920 is specifically,

상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제1 레이더 좌표계 및 상기 기준 포인트 클라우드 데이터에 대응되는 기준 레이더 좌표계를 획득하고;acquiring a first radar coordinate system of the point cloud data of each frame among the point cloud data of the at least one frame and a reference radar coordinate system corresponding to the reference point cloud data;

각각의 제1 레이더 좌표계를 상기 기준 레이더 좌표계로 변환하는 각각의 제1 변환 매트릭스를 확정하며;determine respective first transformation matrices for transforming each first radar coordinate system into the reference radar coordinate system;

각각의 제1 변환 매트릭스에 따라 대응되는 프레임의 포인트 클라우드 데이터의 깊이 맵을 변환하여, 제1 깊이 맵을 획득하고;transforming the depth map of the point cloud data of the corresponding frame according to each first transformation matrix to obtain a first depth map;

상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 깊이 맵을 상기 기준 포인트 클라우드 데이터의 깊이 맵과 중첩시켜, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하기 위한 것이다.obtaining a target depth map corresponding to the reference point cloud data by overlapping a first depth map corresponding to the point cloud data of each frame among the point cloud data of the at least one frame with the depth map of the reference point cloud data; it is for

일부 가능한 실시방식에서, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이에 따라, 상기 기준 포인트 클라우드 데이터에 대해 강도 정보 보완을 실시하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 측면에서, 보완유닛(920)은 구체적으로,In some possible implementations, in terms of obtaining a target intensity map corresponding to the reference point cloud data by supplementing the intensity information on the reference point cloud data according to the target depth corresponding to the reference point cloud data, Complementary unit 920 is specifically,

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 강도 정보를 재투영하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵을 획득하고;re-projecting intensity information of the point cloud data of each frame in the point cloud data set to obtain an intensity map corresponding to the point cloud data of each frame in the point cloud data set;

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵에 대해, 거리가 강도 정보에 미치는 영향을 제거하기 위한 거리 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 획득하며;Distance correction is performed to remove the effect of distance on intensity information on the intensity map corresponding to the point cloud data of each frame in the point cloud data set, and the point cloud data of each frame in the point cloud data set is subjected to distance correction. obtain a corresponding first intensity map;

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 확정하기 위한 것이다.to determine a target intensity map corresponding to the reference point cloud data according to a target depth map corresponding to the reference point cloud data and a first intensity map corresponding to the point cloud data of each frame among the point cloud data set .

일부 가능한 실시방식에서, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵에 대해 거리 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 획득하는 측면에서, 보완유닛(920)은 구체적으로,In some possible implementations, distance correction is performed on the intensity map corresponding to the point cloud data of each frame in the point cloud data set, and a first intensity map corresponding to the point cloud data of each frame in the point cloud data set is performed. In terms of obtaining , the supplementary unit 920 is specifically,

레이저 레이더의 레이더 파라미터에 따라, 거리 보정항을 획득하고;obtain a distance correction term according to the radar parameter of the laser radar;

상기 거리 보정항에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 확정하기 위한 것이다.According to the distance correction term, the first intensity map corresponding to the point cloud data of each frame among the point cloud data set is determined.

일부 가능한 실시방식에서, 상기 목표 깊이 맵과 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도맵에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 확정하는 측면에서, 보완유닛(920)은 구체적으로,In some possible implementations, in terms of determining the target intensity map corresponding to the reference point cloud data according to the target depth map and the first intensity map corresponding to the point cloud data of each frame among the point cloud data set, Complementary unit 920 is specifically,

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스를 획득하고;obtaining a first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set according to the target depth map corresponding to the reference point cloud data;

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 대해, 입사각도가 강도 정보에 미치는 영향을 제거하기 위한 각도 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 획득하며;According to the first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, for the first intensity map corresponding to the point cloud data of each frame in the point cloud data set, the incident angle is the intensity information. performing angle correction to remove the influence to obtain a second intensity map corresponding to the point cloud data of each frame among the point cloud data set;

상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 상기 기준 포인트 클라우드 데이터에 대응되는 제2 강도 맵과 중첩시켜, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하기 위한 것이다.A second intensity map corresponding to the point cloud data of each frame among the point cloud data of the at least one frame is overlapped with a second intensity map corresponding to the reference point cloud data, and a target intensity corresponding to the reference point cloud data is overlapped. to get a map.

일부 가능한 실시방식에서, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스를 획득하는 측면에서, 보완유닛(920)은 구체적으로,In some possible implementations, according to the target depth map corresponding to the reference point cloud data, in the aspect of obtaining the first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, the complementation unit 920 is specifically,

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵 중의 깊이 정보에 따라 평면 피팅을 실시하여, 목표 공간 평면을 획득하고;performing plane fitting according to depth information in the target depth map corresponding to the reference point cloud data to obtain a target space plane;

상기 기준 포인트 클라우드 데이터를 수집 시 레이저 레이더의 입사광선과 목표 평면의 법선 간의 협각에 따라, 상기 기준 포인트 클라우드 데이터의 제1 입사각 매트릭스인 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스를 확정하고,When collecting the reference point cloud data, according to an angle between the incident ray of the laser radar and the normal of the target plane, a target depth map corresponding to the reference point cloud data, which is the first incident angle matrix of the reference point cloud data, and a target angle of incidence determine the matrix,

상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제1 변환 매트릭스에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이맵과 대응하는 목표 입사각 매트릭스를 역변환시켜, 상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제1 입사각 매트릭스를 획득하기 위한 것이다.The at least one frame by inversely transforming a target depth map corresponding to the reference point cloud data and a target incidence angle matrix corresponding to the reference point cloud data according to a first transformation matrix of the point cloud data of each frame among the point cloud data of the at least one frame to obtain a first incident angle matrix of the point cloud data of each frame among the point cloud data of .

일부 가능한 실시방식에서, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스에 따라, 사익 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 대해 각도 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 획득하는 측면에서, 보완유닛(920)은 구체적으로,In some possible implementations, according to a first incidence angle matrix corresponding to the point cloud data of each frame in the point cloud data set, an angle with respect to the first intensity map corresponding to the point cloud data of each frame in the point cloud data set In terms of obtaining a second intensity map corresponding to the point cloud data of each frame in the point cloud data set by performing the correction, the complementation unit 920 specifically,

상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스, 사전 설정된 구속계수, 및 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 제1 강도 맵에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 확정하기 위한 것이다.According to a first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, a preset constraint factor, and a first intensity map of the point cloud data of each frame in the point cloud data set, the point cloud data This is to determine a second intensity map corresponding to the point cloud data of each frame in the set.

일부 가능한 실시방식에서, 보완유닛(920)은 또한, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵에 따라 상기 기준 포인트 클라우드 데이터에 대응되는 오리지널 강도 맵을 확정하기 위한 것이다.In some possible implementations, the complementing unit 920 is further configured to determine the original intensity map corresponding to the reference point cloud data according to the target intensity map corresponding to the reference point cloud data.

일부 가능한 실시방식에서, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵에 따라 상기 기준 포인트 클라우드 데이터에 대응되는 오리지널 강도 맵을 확정하는 측면에서, 보완유닛(920)은 구체적으로,In some possible implementations, in terms of determining the original intensity map corresponding to the reference point cloud data according to the target intensity map corresponding to the reference point cloud data, the complementation unit 920 specifically,

상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스, 사전 설정된 구속계수에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 처리하여, 상기 기준 포인트 클라우드 데이터에 대응되는 오리지널 강도 맵을 확정하기 위한 것이다.By processing the target intensity map corresponding to the reference point cloud data according to the target depth map corresponding to the reference point cloud data, the target incident angle matrix corresponding to the reference point cloud data, and a preset constraint factor, the original intensity corresponding to the reference point cloud data This is to confirm the map.

일부 가능한 실시방식에서, 상기 정보 보완 장치는 신경망을 통해 상기 기준 포인트 클라우드를 보완하고; 정보 보완장치(900)는 훈련유닛(930)을 더 포함하며, 훈련유닛(930)은In some possible implementations, the information supplementing device supplements the reference point cloud through a neural network; The information supplementing device 900 further includes a training unit 930, and the training unit 930 is

샘플 포인트 클라우드 데이터에 대해 정보 보완을 실시하여, 보완 후의 샘플 포인트 클라우드 데이터를 출력하는 단계;performing information supplementation on the sample point cloud data and outputting the supplemented sample point cloud data;

상기 보완 후의 샘플 포인트 클라우드 데이터에 따라, 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵을 획득하는 단계;obtaining, according to the supplemented sample point cloud data, a predicted target depth map, a predicted target intensity map, and a predicted original intensity map of the sample point cloud data;

상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라 상기 신경망의 네트워크 파라미터를 조정하는 단계; 실행하여 상기 신경망을 훈련시키기 위한 것이다.of the neural network according to the labeled target depth map of the sample point cloud data, the labeled target intensity map and the labeled original intensity map, and the predicted target depth map, the predicted target intensity map and the predicted original intensity map of the sample point cloud data. adjusting network parameters; to train the neural network by executing it.

일부 가능한 실시방식에서, 상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라 상기 신경망의 네트워크 파라미터를 조정하는 측면에서, 훈련유닛(930)은 구체적으로,In some possible implementations, a labeled target depth map of the sample point cloud data, a labeled target intensity map and a labeled original intensity map, and a predicted target depth map, a predicted target intensity map and a predicted original intensity map of the sample point cloud data In terms of adjusting the network parameters of the neural network according to the map, the training unit 930 specifically,

상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라, 제1 손실값, 제2 손실값 및 제3 손실값을 획득하고; 여기서, 상기 제1 손실값은 상기 라벨링된 목표 깊이 맵과 상기 예측 목표 깊이 맵에 따라 확정되고; 상기 제2 손실값은 상기 라벨링된 목표 강도 맵과 상기 예측 목표 강도 맵에 따라 확정되며; 상기 제3 손실값은 상기 라벨링된 오리지널 강도 맵과 상기 예측 오리지널 강도 맵에 따라 확정되며;According to the labeled target depth map of the sample point cloud data, the labeled target intensity map and the labeled original intensity map, and the predicted target depth map, the predicted target intensity map and the predicted original intensity map of the sample point cloud data, a first obtain a loss value, a second loss value, and a third loss value; wherein the first loss value is determined according to the labeled target depth map and the predicted target depth map; the second loss value is determined according to the labeled target intensity map and the predicted target intensity map; the third loss value is determined according to the labeled original intensity map and the predicted original intensity map;

상기 제1 손실값, 제2 손실값과 제3 손실값에 대해 가중치 처리를 실시하여, 목표 손실값을 획득하고;performing weight processing on the first loss value, the second loss value, and the third loss value to obtain a target loss value;

상기 목표 손실값에 따라 상기 신경망의 네트워크 파라미터를 조정하기 위한 것이다.It is to adjust a network parameter of the neural network according to the target loss value.

여기서, 훈련유닛(930)은 정보 보완 장치에 필수적인 것은 아니다.Here, the training unit 930 is not essential for the information supplementation device.

도 10은 본 출원의 실시예가 제공하는 차선 인식 장치의 기능 유닛 구성 블록도이다. 차선 인식장치(1000)는 수집유닛(1100), 보완유닛(1200), 인식유닛(1300)을 포함하며, 여기서,10 is a block diagram of a functional unit of a lane recognition apparatus provided by an embodiment of the present application. The lane recognition device 1000 includes a collection unit 1100, a supplementary unit 1200, and a recognition unit 1300, where,

수집유닛(1100)은 도로의 포인트 클라우드 데이터를 수집하기 위한 것이고;The collecting unit 1100 is for collecting the point cloud data of the road;

보완유닛(1200)은 첫 번째 측면의 상기 정보 보완 방법으로, 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하기 위한 것이며;The supplementation unit 1200 is the information supplementation method of the first aspect, for supplementing point cloud data to obtain a target intensity map corresponding to the point cloud data;

인식유닛(1300)은 상기 목표 강도 맵에 따라 차선을 인식하여, 차선 인식 결과를 획득하기 위한 것이다.The recognition unit 1300 is configured to recognize a lane according to the target intensity map and obtain a lane recognition result.

도 11은 본 출원의 실시예가 제공하는 지능형 주행 장치의 기능 유닛 구성 블록도이다. 지능형 주행 장치(1100)는 수집유닛(1110), 보완유닛(1120), 인식유닛(1130), 제어유닛(1140)을 포함하며, 여기서,11 is a block diagram of a functional unit of an intelligent driving device provided by an embodiment of the present application. The intelligent driving device 1100 includes a collection unit 1110 , a complementation unit 1120 , a recognition unit 1130 , and a control unit 1140 , where,

수집유닛(1210)은 주변 장면의 포인트 클라우드 데이터를 수집하기 위한 것이고;the collecting unit 1210 is for collecting point cloud data of the surrounding scene;

보완유닛(1220)은 첫 번째 측면의 상기 정보 보완 방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하기 위한 것이며;The supplementation unit 1220 is configured to supplement the point cloud data by using the information supplementation method of the first aspect to obtain a target intensity map corresponding to the point cloud data;

인식유닛(1230)은 상기 목표 강도 맵에 따라 상기 주변 장면 중의 목표 대상을 인식기 위한 것이고;the recognition unit 1230 is for recognizing a target object in the surrounding scene according to the target intensity map;

제어유닛(1240)은 인식 결과에 따라 주행을 제어하기 위한 것이다.The control unit 1240 is for controlling driving according to the recognition result.

본 출원의 실시예는 컴퓨터 저장 매체를 더 제공하며, 상기 컴퓨터 가독 저장 매체에 컴퓨터 프로그램이 저장되고, 상기 컴퓨터 프로그램은 프로세서에 의해 실행되어 상기 방법의 실시예에 기재된 정보 보완 방법의 일부 또는 전부의 단계, 차선 인식 방법의 일부 또는 전부의 단계, 또는 지능형 주행 방법의 일부 또는 전부의 단계를 구현한다.An embodiment of the present application further provides a computer storage medium, the computer program is stored in the computer readable storage medium, the computer program is executed by a processor to partially or all of the information supplementation method described in the embodiment of the method step, some or all of the steps of the lane recognition method, or some or all of the steps of the intelligent driving method.

본 출원의 실시예는 컴퓨터 프로그램 제품을 더 제공하며, 상기 컴퓨터 프로그램 제품은 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 가독 저장 매체를 포함한다. 상기 컴퓨터 프로그램의 실행을 통해 컴퓨터가 상기 방법의 실시예에 기재된 정보 보완 방법의 일부 또는 전부의 단계, 차선 인식 방법의 일부 또는 전부의 단계, 또는 지능형 주행 방법의 일부 또는 전부의 단계를 구현한다.An embodiment of the present application further provides a computer program product, wherein the computer program product includes a non-transitory computer-readable storage medium in which the computer program is stored. Through the execution of the computer program, the computer implements some or all of the steps of the information supplementation method described in the embodiment of the method, some or all of the steps of the lane recognition method, or some or all of the steps of the intelligent driving method.

설명해두어야 할 점으로, 전술한 각 방법의 실시예는 간단히 기술하기 위하여, 이를 모두 일련의 동작의 조합으로 표현하였으나, 당업자라면, 본 출원이 기술된 동작 순서의 제한을 받지 않는다는 것을 알아야 한다. 본 출원에 의거하여, 어떤 단계는 다른 순서를 이용하거나 또는 동시에 실시될 수도 있기 때문이다. 그 다음으로, 당업자라면, 또한 명세서에 기재된 실시예가 모두 임의의 실시예에 속하고 관련된 동작과 모듈은 반드시 본 출원에 필수적인 것이 아님을 알아야 한다.It should be noted that, for the sake of brevity, the embodiments of each method described above are all expressed as a combination of a series of operations, but those skilled in the art should understand that the present application is not limited by the order of operations described. This is because, in accordance with the present application, certain steps may be performed using a different order or performed concurrently. Next, those skilled in the art should also understand that all of the embodiments described in the specification belong to any embodiment, and the related operations and modules are not necessarily essential to the present application.

상기 실시예에서, 각 실시예에 대한 기술은 모두 치중하는 바가 있으며, 어떤 실시예에서 상세히 기술하지 않은 부분은 다른 실시예의 관련 기술을 참조할 수 있다.In the above embodiment, the descriptions for each embodiment are all focused, and parts not described in detail in one embodiment may refer to the related technology of another embodiment.

본 출원에서 제공되는 몇몇 실시예에서, 공개된 장치는 다른 방식을 통해 구현될 수도 있음을 이해해야 한다. 예를 들어 상기 장치의 실시예는 단지 예시적인 것으로, 예컨대 상기 유닛의 구분은 단지 일종의 논리 기능의 구분일 뿐, 실제 구현 시에는 별도의 구분 방식이 있을 수 있다. 예를 들어 다수의 유닛 또는 어셈블리는 결합될 수 있거나 또는 다른 시스템에 집적될 수 있거나, 또는 일부 특징은 생략되거나 또는 실행되지 않을 수 있다. 또한, 표시하거나 토론한 상호 간의 결합은 직접적인 결합이거나 일부 인터페이스를 통한 통신연결일 수 있고, 장치 또는 유닛의 간접 연결 또는 통신 연결은 전기적 또는 기타 형식일 수 있다.In some embodiments provided in this application, it should be understood that the disclosed apparatus may be implemented in other ways. For example, the embodiment of the device is merely exemplary, for example, the division of the unit is merely a division of a kind of logical function, and there may be a separate division method in actual implementation. For example, multiple units or assemblies may be combined or integrated into other systems, or some features may be omitted or not implemented. Further, the mutual coupling shown or discussed may be a direct coupling or a communication connection through some interface, and an indirect connection or communication connection of a device or unit may be in an electrical or other form.

상기 분리부재로써 설명된 유닛은 물리적으로 분리된 것일 수도 있고 아닐 수도 있으며, 유닛으로 표시된 부분은 물리적인 유닛일 수도 있고 아닐 수도 있다. 즉 한 곳에 위치할 수도 있고, 또는 다수의 네트워크 유닛에 분포될 수도 있다. 실제의 필요에 따라 그 중의 일부 또는 유닛 전부를 선택하여 본 실시예의 방안의 목적을 구현할 수 있다.The unit described as the separation member may or may not be physically separated, and the portion indicated as a unit may or may not be a physical unit. That is, it may be located in one place, or it may be distributed in a plurality of network units. According to actual needs, some or all of the units may be selected to implement the purpose of the scheme of the present embodiment.

또한, 본 출원의 각 실시예 중의 각 기능유닛은 하나의 처리유닛에 집적될 수도 있고, 각 유닛이 단독으로 물리적으로 존재할 수도 있으며, 2개 또는 2개 이상의 유닛이 하나의 유닛에 집적될 수도 있다. 상기 집적된 유닛은 하드웨어의 형식으로 구현될 수도 있고, 소프트웨어 프로그램 모듈의 형식으로 구현될 수도 있다.In addition, each functional unit in each embodiment of the present application may be integrated into one processing unit, each unit may exist alone physically, and two or two or more units may be integrated into one unit. . The integrated unit may be implemented in the form of hardware or may be implemented in the form of a software program module.

상기 집적된 유닛이 소프트웨어 프로그램 모듈 형식으로 구현되며 독립된 제품으로 판매되거나 사용되는 경우, 하나의 컴퓨터 가독 메모리에 저장될 수 있다. 이러한 이해에 따라, 본 출원의 기술방안은 본질적으로 또는 종래 기술에 기여하는 부분 또는 상기 기술방안의 전체 또는 일부는 소프트웨어 제품의 형식으로 구현될 수 있으며, 상기 컴퓨터 소프트웨어 제품은 하나의 메모리에 저장되고, 컴퓨터 장치(개인용 컴퓨터, 서버 또는 네트워크 장치 등일 수 있다)로 본 출원의 각 실시예의 상기 방법의 전부 또는 일부 단계를 실행하기 위한 약간의 명령을 포함한다. 전술한 메모리는 U디스크, 리드 온리 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 이동식 하드디스크, 자기디스크 또는 광디스크 등 각종 프로그램 코드를 저장할 수 있는 매체를 포함한다.When the integrated unit is implemented in the form of a software program module and sold or used as an independent product, it may be stored in one computer readable memory. According to this understanding, the technical solution of the present application essentially or a part contributing to the prior art, or all or part of the technical solution may be implemented in the form of a software product, wherein the computer software product is stored in one memory and , a computer device (which may be a personal computer, a server or a network device, etc.) and some instructions for executing all or some steps of the above method of each embodiment of the present application. The aforementioned memory includes a medium capable of storing various program codes, such as a U disk, a read-only memory (ROM), a random access memory (RAM), a removable hard disk, a magnetic disk, or an optical disk. .

당 업계의 보통 기술자라면 상기 실시예의 각종 방법 중의 전부 또는 일부 단계가 프로그램을 통해 관련 하드웨어를 명령하여 완수할 수 있다는 것을 이해할 수 있으며, 상기 프로그램은 컴퓨터 가독 메모리에 저장될 수 있다. 메모리는 플래시 디스크, 리드 온리 메모리(영문: Read-Only Memory, 약칭: ROM), 랜덤 액세스 메모리(영문: Random Access Memory, 약칭: RAM), 자기디스크 또는 광디스크 등을 포함할 수 있다.A person skilled in the art can understand that all or some steps of the various methods of the above embodiments can be accomplished by instructing the relevant hardware through a program, and the program can be stored in a computer readable memory. The memory may include a flash disk, a read-only memory (English: Read-Only Memory, abbreviation: ROM), a random access memory (English: Random Access Memory, abbreviation: RAM), a magnetic disk or an optical disk.

이상으로 본 출원의 실시예에 대해 상세히 소개하였으며, 본문 중 구체적인 예를 응용하여 본 출원의 원리 및 실시방식에 대해 설명하였다. 이상의 실시예의 설명은 단지 본 출원의 방법 및 그 핵심 사상의 이해를 돕기 위한 것에 불과하다. 이와 동시에, 당 업계의 일반 기술자에게 있어서, 본 출원의 사상에 의거하여, 구체적인 실시방식 및 응용 범위 내에서 변경되는 부분이 있을 수 있으며, 결론적으로 본 명세서의 내용은 본 출원을 제한하는 것으로 이해해서는 안 된다.The embodiments of the present application have been introduced in detail above, and the principles and implementation methods of the present application have been described by applying specific examples in the text. The description of the above embodiments is merely to help the understanding of the method of the present application and its core idea. At the same time, for those of ordinary skill in the art, based on the spirit of the present application, there may be changes within specific implementation methods and application ranges, and in conclusion, the content of the present specification should not be understood as limiting the present application. Can not be done.

Claims (19)

정보 보완 방법에 있어서,
각 프레임에 깊이 정보와 강도 정보가 포함된 다중 프레임 포인트 클라우드 데이터를 획득하는 단계; 및
상기 다중 프레임 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 하나의 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하는 단계 - 상기 기준 포인트 클라우드 데이터의 강도 정보의 보완은 깊이 정보로부터 획득되는 깊이 맵을 이용함 - ;를 포함하며,
여기서, 상기 목표 포인트 클라우드 데이터의 깊이 정보는 상기 기준 포인트 클라우드 데이터의 깊이 정보보다 조밀하고, 또한 상기 목표 포인트 클라우드 데이터의 강도 정보는 상기 기준 포인트 클라우드 데이터의 강도 정보보다 조밀하며, 상기 기준 포인트 클라우드 데이터는 상기 다중 프레임 포인트 클라우드 데이터 중의 어느 하나의 포인트 클라우드 데이터인 것을 특징으로 하는 정보 보완 방법.
In the information supplement method,
acquiring multi-frame point cloud data including depth information and intensity information in each frame; and
Target point cloud data corresponding to the reference point cloud data by supplementing the reference point cloud data according to the depth information and intensity information of the point cloud data of at least one frame of the multi-frame point cloud data except for the reference point cloud data obtaining - supplementing the intensity information of the reference point cloud data using a depth map obtained from the depth information;
Here, the depth information of the target point cloud data is denser than the depth information of the reference point cloud data, and the intensity information of the target point cloud data is denser than the intensity information of the reference point cloud data, and the reference point cloud data is any one point cloud data among the multi-frame point cloud data.
제1항에 있어서,
상기 다중 프레임 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 하나의 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하는 단계는,
포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 깊이 정보에 대해 재투영을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵을 획득하는 단계;
상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 깊이 정보 보완을 수행하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하는 단계;
상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 강도 정보를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계;를 포함하는 것을 특징으로 하는 방법.
According to claim 1,
Target point cloud data corresponding to the reference point cloud data by supplementing the reference point cloud data according to the depth information and intensity information of the point cloud data of at least one frame of the multi-frame point cloud data except for the reference point cloud data The steps to obtain
obtaining a depth map corresponding to the point cloud data of each frame in the point cloud data set by re-projecting the depth information of the point cloud data of each frame in the point cloud data set;
acquiring a target depth map corresponding to the reference point cloud data by performing depth information supplementation on the reference point cloud data according to a depth map corresponding to the point cloud data of each frame in the point cloud data set;
acquiring a target intensity map corresponding to the reference point cloud data by supplementing intensity information with respect to the reference point cloud data according to a target depth map corresponding to the reference point cloud data; Way.
제2항에 있어서,
상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 깊이 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대해 깊이 정보 보완을 수행하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하는 단계는,
상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제1 레이더 좌표계 및 상기 기준 포인트 클라우드 데이터에 대응되는 기준 레이더 좌표계를 획득하는 단계;
각각의 제1 레이더 좌표계를 상기 기준 레이더 좌표계로 변환하는 각각의 제1 변환 매트릭스를 확정하는 단계;
각각의 제1 변환 매트릭스에 따라 대응되는 프레임의 포인트 클라우드 데이터의 깊이 맵을 변환하여 제1 깊이 맵을 획득하는 단계;
상기 적어도 하나의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 깊이 맵과 상기 기준 포인트 클라우드 데이터의 깊이 맵을 중첩시켜, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵을 획득하는 단계;를 포함하는 것을 특징으로 하는 방법.
3. The method of claim 2,
Acquiring a target depth map corresponding to the reference point cloud data by performing depth information supplementation on the reference point cloud data according to a depth map corresponding to the point cloud data of each frame in the point cloud data set, ,
acquiring a first radar coordinate system of the point cloud data of each frame among the point cloud data of the at least one frame and a reference radar coordinate system corresponding to the reference point cloud data;
determining each first transformation matrix that transforms each first radar coordinate system into the reference radar coordinate system;
obtaining a first depth map by transforming a depth map of point cloud data of a corresponding frame according to each first transformation matrix;
obtaining a target depth map corresponding to the reference point cloud data by overlapping a first depth map corresponding to the point cloud data of each frame among the at least one point cloud data and a depth map of the reference point cloud data; A method comprising a.
제2항에 있어서,
상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이에 따라, 상기 기준 포인트 클라우드 데이터에 대해 강도 정보 보완을 수행하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계는,
상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 강도 정보를 재투영하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵을 획득하는 단계;
상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵에 대해, 거리가 강도 정보에 미치는 영향을 제거하기 위한 거리 보정을 수행하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 획득하는 단계;
상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 확정하는 단계;를 포함하는 것을 특징으로 하는 방법.
3. The method of claim 2,
The step of obtaining a target intensity map corresponding to the reference point cloud data by performing intensity information supplementation on the reference point cloud data according to a target depth corresponding to the reference point cloud data,
obtaining an intensity map corresponding to the point cloud data of each frame in the point cloud data set by re-projecting intensity information of the point cloud data of each frame in the point cloud data set;
For the intensity map corresponding to the point cloud data of each frame in the point cloud data set, distance correction is performed to remove the effect of the distance on the intensity information, and the point cloud data of each frame in the point cloud data set obtaining a corresponding first intensity map;
determining a target intensity map corresponding to the reference point cloud data according to a target depth map corresponding to the reference point cloud data and a first intensity map corresponding to the point cloud data of each frame among the point cloud data set; A method comprising a.
제4항에 있어서,
상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 강도 맵에 대해 거리 보정을 실시하여 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 획득하는 단계는,
레이저 레이더의 레이더 파라미터에 따라, 거리 보정항을 획득하는 단계;
상기 거리 보정항에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵을 확정하는 단계;를 포함하는 것을 특징으로 하는 방법.
5. The method of claim 4,
Obtaining a first intensity map corresponding to the point cloud data of each frame in the point cloud data set by performing distance correction on the intensity map corresponding to the point cloud data of each frame in the point cloud data set,
obtaining a distance correction term according to a radar parameter of the laser radar;
and determining a first intensity map corresponding to the point cloud data of each frame among the point cloud data sets according to the distance correction term.
제4항에 있어서,
상기 목표 깊이 맵과 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 확정하는 단계는,
상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스를 획득하는 단계;
상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 대해, 입사각도가 강도 정보에 미치는 영향을 제거하기 위한 각도 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 획득하는 단계;
상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 포인트 클라우드 데이터에 대응되는 제2 강도 맵과 상기 기준 포인트 클라우드 데이터에 대응되는 제2 강도맵을 중첩시켜, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계;를 포함하는 것을 특징으로 하는 방법.
5. The method of claim 4,
determining the target intensity map corresponding to the reference point cloud data according to the target depth map and the first intensity map corresponding to the point cloud data of each frame among the point cloud data set;
obtaining a first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set according to the target depth map corresponding to the reference point cloud data;
According to the first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, for the first intensity map corresponding to the point cloud data of each frame in the point cloud data set, the incident angle is the intensity information. obtaining a second intensity map corresponding to the point cloud data of each frame in the point cloud data set by performing angle correction to remove the influence;
A target intensity map corresponding to the reference point cloud data is obtained by overlapping a second intensity map corresponding to each point cloud data among the point cloud data of the at least one frame and a second intensity map corresponding to the reference point cloud data. A method comprising: obtaining;
제6항에 있어서,
상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵에 따라, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스를 획득하는 단계는,
상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵 중의 깊이 정보에 따라 평면 피팅을 수행하여, 목표 공간 평면을 획득하는 단계;
상기 기준 포인트 클라우드 데이터를 수집 시 레이저 레이더의 입사광선과 목표 평면의 법선 간의 협각에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스를 확정하는 단계, 여기서, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스는 상기 기준 포인트 클라우드 데이터의 제1 입사각 매트릭스이며;
상기 적어도 하나의 프레임의 포인트 클라우드 데이터의 제1 변환 매트릭스에 따라 상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스를 역변환시켜, 상기 적어도 하나의 프레임의 포인트 클라우드 데이터 중 각 프레임의 포인트 클라우드 데이터의 제1 입사각 매트릭스를 획득하는 단계;를 포함하는 것을 특징으로 하는 방법.
7. The method of claim 6,
obtaining a first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set according to the target depth map corresponding to the reference point cloud data;
acquiring a target space plane by performing plane fitting according to depth information in a target depth map corresponding to the reference point cloud data;
determining a target depth map corresponding to the reference point cloud data and a target incidence angle matrix corresponding to the reference point according to the angle between the incident ray of the laser radar and the normal of the target plane when collecting the reference point cloud data, wherein the reference point the target depth map corresponding to the cloud data and the target incidence angle matrix corresponding to the cloud data are the first incidence angle matrix of the reference point cloud data;
The target depth map corresponding to the reference point cloud data and the corresponding target incidence angle matrix are inversely transformed according to the first transformation matrix of the point cloud data of the at least one frame, so that each frame of the point cloud data of the at least one frame is inversely transformed. and obtaining a first angle of incidence matrix of the point cloud data.
제6항에 있어서,
상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스에 따라, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 강도 맵에 대해 각도 보정을 실시하여, 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 획득하는 단계는,
상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터에 대응되는 제1 입사각 매트릭스, 사전 설정된 구속계수, 및 상기 포인트 클라우드 데이터 집합 중 각 프레임의 포인트 클라우드 데이터의 제1 강도 맵에 따라, 상기 포인트 클라우드 데이터 집합 중의 각 프레임의 포인트 클라우드 데이터에 대응되는 제2 강도 맵을 확정하는 단계를 포함하는 것을 특징으로 하는 방법.
7. The method of claim 6,
In accordance with the first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, angle correction is performed on the first intensity map corresponding to the point cloud data of each frame in the point cloud data set, Acquiring a second intensity map corresponding to the point cloud data of each frame among the point cloud data set includes:
According to a first incident angle matrix corresponding to the point cloud data of each frame in the point cloud data set, a preset constraint factor, and a first intensity map of the point cloud data of each frame in the point cloud data set, the point cloud data and determining a second intensity map corresponding to the point cloud data of each frame in the set.
제6항에 있어서,
상기 방법은
상기 기준 포인트 클라우드 데이터에 대응되는 목표 깊이 맵과 대응하는 목표 입사각 매트릭스, 사전 설정된 구속계수에 따라, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 처리하여, 상기 기준 포인트 클라우드 데이터에 대응되는 오리지널 강도 맵을 확정하는 단계를 포함하는 것을 특징으로 하는 방법.
7. The method of claim 6,
the method
The original intensity corresponding to the reference point cloud data is processed by processing the target intensity map corresponding to the reference point cloud data according to the target depth map corresponding to the reference point cloud data, the target incident angle matrix corresponding to the reference point cloud data, and a preset constraint factor. A method comprising determining a map.
제1항에 있어서,
상기 정보 보완 방법은 신경망을 통해 실행되고; 상기 신경망은
샘플 포인트 클라우드 데이터에 대해 정보 보완을 실시하여, 보완 후의 샘플 포인트 클라우드 데이터를 출력하는 단계;
상기 보완 후의 샘플 포인트 클라우드 데이터에 따라, 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵 및 예측 오리지널 강도 맵을 획득하는 단계;
상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이 맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라 상기 신경망의 네트워크 파라미터를 조정하는 단계;를 이용하여 훈련을 수행하는 것을 특징으로 하는 방법.
According to claim 1,
The information supplementation method is implemented through a neural network; The neural network is
performing information supplementation on the sample point cloud data and outputting the supplemented sample point cloud data;
obtaining, according to the supplemented sample point cloud data, a predicted target depth map, a predicted target intensity map, and a predicted original intensity map of the sample point cloud data;
of the neural network according to the labeled target depth map of the sample point cloud data, the labeled target intensity map and the labeled original intensity map, and the predicted target depth map, the predicted target intensity map and the predicted original intensity map of the sample point cloud data. A method characterized in that the training is performed using; adjusting network parameters.
제10항에 있어서,
상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이 맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라 상기 신경망의 네트워크 파라미터를 조정하는 단계는,
상기 샘플 포인트 클라우드 데이터의 라벨링된 목표 깊이 맵, 라벨링된 목표 강도 맵과 라벨링된 오리지널 강도 맵, 및 상기 샘플 포인트 클라우드 데이터의 예측 목표 깊이 맵, 예측 목표 강도 맵과 예측 오리지널 강도 맵에 따라, 제1 손실값, 제2 손실값 및 제3 손실값을 획득하는 단계; 여기서, 상기 제1 손실값은 상기 라벨링된 목표 깊이 맵과 상기 예측 목표 깊이 맵에 따라 확정되고; 상기 제2 손실값은 상기 라벨링된 목표 강도 맵과 상기 예측 목표 강도 맵에 따라 확정되며; 상기 제3 손실값은 상기 라벨링된 오리지널 강도 맵과 상기 예측 오리지널 강도 맵에 따라 확정되며;
상기 제1 손실값, 제2 손실값과 제3 손실값에 대해 가중치 처리를 실시하여, 목표 손실값을 획득하는 단계;
상기 목표 손실값에 따라 상기 신경망의 네트워크 파라미터를 조정하는 단계;를 포함하는 것을 특징으로 하는 방법.
11. The method of claim 10,
of the neural network according to the labeled target depth map of the sample point cloud data, the labeled target intensity map and the labeled original intensity map, and the predicted target depth map, the predicted target intensity map and the predicted original intensity map of the sample point cloud data. The steps to adjust the network parameters are:
According to the labeled target depth map of the sample point cloud data, the labeled target intensity map and the labeled original intensity map, and the predicted target depth map, the predicted target intensity map and the predicted original intensity map of the sample point cloud data, a first obtaining a loss value, a second loss value, and a third loss value; wherein the first loss value is determined according to the labeled target depth map and the predicted target depth map; the second loss value is determined according to the labeled target intensity map and the predicted target intensity map; the third loss value is determined according to the labeled original intensity map and the predicted original intensity map;
obtaining a target loss value by weighting the first loss value, the second loss value, and the third loss value;
adjusting a network parameter of the neural network according to the target loss value.
차선 인식 방법에 있어서,
도로의 포인트 클라우드 데이터를 수집하는 단계;
제1항 내지 제11항 중의 어느 한 항에 따른 정보 보완방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계;
상기 목표 강도 맵에 따라 차선을 인식하여 차선 인식 결과를 획득하는 단계;를 포함하는 것을 특징으로 하는 차선 인식 방법.
In the lane recognition method,
collecting point cloud data of the road;
acquiring a target intensity map corresponding to the point cloud data by supplementing the point cloud data using the information supplementation method according to any one of claims 1 to 11;
and obtaining a lane recognition result by recognizing a lane according to the target intensity map.
지능형 주행 방법에 있어서,
지능형 주행장치 주변 장면의 포인트 클라우드 데이터를 수집하는 단계;
제1항 내지 제11항 중의 어느 한 항에 따른 정보 보완 방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하는 단계;
상기 목표 강도 맵에 따라 상기 주변 장면 중의 목표 대상을 인식하는 단계;
인식 결과에 따라, 상기 지능형 주행장치의 주행을 제어하는 단계;를 포함하는 것을 특징으로 하는 지능형 주행 방법.
In the intelligent driving method,
collecting point cloud data of scenes around the intelligent driving device;
12. A method comprising: acquiring a target intensity map corresponding to the point cloud data by supplementing the point cloud data using the information supplementation method according to any one of claims 1 to 11;
recognizing a target object in the surrounding scene according to the target intensity map;
and controlling the driving of the intelligent driving device according to the recognition result.
정보 보완 장치에 있어서,
각 프레임에 깊이 정보와 강도 정보가 포함된 다중 프레임의 포인트 클라우드 데이터를 획득하기 위한 획득유닛; 및
상기 다중 프레임의 포인트 클라우드 데이터 중 기준 포인트 클라우드 데이터를 제외한 적어도 한 프레임의 포인트 클라우드 데이터의 깊이 정보와 강도 정보에 따라, 기준 포인트 클라우드 데이터를 보완하여, 상기 기준 포인트 클라우드 데이터에 대응되는 목표 포인트 클라우드 데이터를 획득하기 위한 보완 유닛 - 상기 기준 포인트 클라우드 데이터의 강도 정보의 보완은 깊이 정보로부터 획득되는 깊이 맵을 이용함 - 을 포함하며;
여기서, 상기 목표 포인트 클라우드 데이터의 깊이 정보는 상기 기준 포인트 클라우드 데이터의 깊이 정보보다 조밀하고, 또한 상기 목표 포인트 클라우드 데이터의 강도 정보는 상기 기준 포인트 클라우드 데이터의 강도 정보보다 조밀하며, 상기 기준 포인트 클라우드 데이터는 상기 다중 프레임 포인트 클라우드 데이터 중의 어느 하나의 포인트 클라우드 데이터인 것을 특징으로 하는 정보 보완 장치.
An information supplementing device comprising:
an acquisition unit for acquiring point cloud data of multiple frames including depth information and intensity information in each frame; and
Target point cloud data corresponding to the reference point cloud data by supplementing the reference point cloud data according to the depth information and intensity information of the point cloud data of at least one frame of the point cloud data of the multiple frames except for the reference point cloud data a complementation unit for obtaining, wherein the complementation of the intensity information of the reference point cloud data uses a depth map obtained from the depth information;
Here, the depth information of the target point cloud data is denser than the depth information of the reference point cloud data, and the intensity information of the target point cloud data is denser than the intensity information of the reference point cloud data, and the reference point cloud data is any one point cloud data among the multi-frame point cloud data.
차선 인식 장치에 있어서,
도로의 포인트 클라우드 데이터를 수집하기 위한 수집유닛;
제1항 내지 제11항 중의 어느 한 항에 따른 정보 보완방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하기 위한 보완유닛;
상기 목표 강도 맵에 따라 차선을 인식하여 차선 인식 결과를 획득하기 위한 인식유닛;을 포함하는 것을 특징으로 하는 차선 인식 장치.
In the lane recognition device,
a collection unit for collecting road point cloud data;
a supplementation unit for supplementing the point cloud data using the information supplementation method according to any one of claims 1 to 11 to obtain a target intensity map corresponding to the point cloud data;
and a recognition unit configured to recognize a lane according to the target intensity map and obtain a lane recognition result.
지능형 주행 장치에 있어서,
지능형 주행장치 주변 장면의 포인트 클라우드 데이터를 수집하기 위한 수집유닛;
제1항 내지 제11항 중의 어느 한 항에 따른 정보 보완방법을 이용하여, 상기 포인트 클라우드 데이터를 보완하여, 상기 포인트 클라우드 데이터에 대응되는 목표 강도 맵을 획득하기 위한 보완유닛;
상기 목표 강도 맵에 따라 상기 주변 장면 중의 목표 대상을 인식하기 위한 인식유닛;
인식 결과에 따라, 상기 지능형 주행장치의 주행을 제어하기 위한 제어유닛;을 포함하는 것을 특징으로 하는 지능형 주행 장치.
In the intelligent driving device,
a collecting unit for collecting point cloud data of scenes around the intelligent driving device;
a supplementation unit for supplementing the point cloud data by using the information supplementation method according to any one of claims 1 to 11 to obtain a target intensity map corresponding to the point cloud data;
a recognition unit for recognizing a target object in the surrounding scene according to the target intensity map;
and a control unit for controlling the driving of the intelligent driving device according to the recognition result.
전자장치에 있어서,
프로세서, 메모리를 포함하며, 여기서, 상기 메모리는 컴퓨터 가독 명령을 저장하기 위한 것이고, 상기 프로세서는 상기 메모리에 저장된 명령을 호출하여, 제1항 내지 제11항 중의 어느 한 항에 따른 방법을 실행하기 위한 것임을 특징으로 하는 전자장치.
In an electronic device,
A processor, comprising: a memory, wherein the memory is for storing computer readable instructions, the processor calls the instructions stored in the memory to execute the method according to any one of claims 1 to 11 Electronic device, characterized in that for.
컴퓨터 가독 저장 매체에 있어서,
컴퓨터 프로그램을 저장하기 위한 것으로서, 상기 컴퓨터 프로그램이 프로세서에 의해 실행 시, 상기 프로세서가 제1항 내지 제11항 중의 어느 한 항에 따른 방법을 구현하는 것을 특징으로 하는 컴퓨터 가독 저장 매체.
A computer-readable storage medium comprising:
12. A computer-readable storage medium for storing a computer program, characterized in that when the computer program is executed by a processor, the processor implements the method according to any one of claims 1 to 11.
삭제delete
KR1020217021148A 2019-10-31 2020-09-08 Information supplement method, lane recognition method, intelligent driving method and related products KR102428050B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911050904.4 2019-10-31
CN201911050904.4A CN112749594B (en) 2019-10-31 2019-10-31 Information completion method, lane line identification method, intelligent driving method and related products
PCT/CN2020/114032 WO2021082745A1 (en) 2019-10-31 2020-09-08 Information completion method, lane line recognition method, intelligent driving method and related product

Publications (2)

Publication Number Publication Date
KR20210093351A KR20210093351A (en) 2021-07-27
KR102428050B1 true KR102428050B1 (en) 2022-08-01

Family

ID=75641251

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217021148A KR102428050B1 (en) 2019-10-31 2020-09-08 Information supplement method, lane recognition method, intelligent driving method and related products

Country Status (4)

Country Link
JP (1) JP2022511990A (en)
KR (1) KR102428050B1 (en)
CN (1) CN112749594B (en)
WO (1) WO2021082745A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113592932A (en) * 2021-06-28 2021-11-02 北京百度网讯科技有限公司 Training method and device for deep completion network, electronic equipment and storage medium
CN113850914A (en) * 2021-08-13 2021-12-28 江苏瑞沃建设集团有限公司 Matrix conversion method for linear laser three-dimensional scanning point cloud data
CN113706676B (en) * 2021-08-26 2024-01-16 京东鲲鹏(江苏)科技有限公司 Model self-supervision training method and device for point cloud data
CN114119889B (en) * 2021-11-12 2024-04-09 杭州师范大学 Cross-modal fusion-based 360-degree environmental depth completion and map reconstruction method
CN115905434B (en) * 2022-10-26 2023-10-13 南京航空航天大学 Road network track completion method based on learning interpolation prediction
CN116047537B (en) * 2022-12-05 2023-12-26 北京中科东信科技有限公司 Road information generation method and system based on laser radar
CN116299300B (en) * 2023-05-15 2023-08-08 北京集度科技有限公司 Determination method and device for drivable area, computer equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229366A (en) 2017-12-28 2018-06-29 北京航空航天大学 Deep learning vehicle-installed obstacle detection method based on radar and fusing image data

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6411942B2 (en) * 2015-04-23 2018-10-24 株式会社デンソー Object recognition device
US9972067B2 (en) * 2016-10-11 2018-05-15 The Boeing Company System and method for upsampling of sparse point cloud for 3D registration
CN106780590B (en) * 2017-01-03 2019-12-24 成都通甲优博科技有限责任公司 Method and system for acquiring depth map
EP3429207A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing A method and apparatus for encoding/decoding a colored point cloud representing the geometry and colors of a 3d object
CN108230379B (en) * 2017-12-29 2020-12-04 百度在线网络技术(北京)有限公司 Method and device for fusing point cloud data
KR102042343B1 (en) * 2018-04-13 2019-11-07 경북대학교 산학협력단 Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same
CN108898669A (en) * 2018-07-17 2018-11-27 网易(杭州)网络有限公司 Data processing method, device, medium and calculating equipment
CN109325972B (en) * 2018-07-25 2020-10-27 深圳市商汤科技有限公司 Laser radar sparse depth map processing method, device, equipment and medium
CN109613557B (en) * 2018-11-28 2022-04-29 南京莱斯信息技术股份有限公司 System and method for complementing laser radar three-dimensional point cloud target
CN109903372B (en) * 2019-01-28 2021-03-23 中国科学院自动化研究所 Depth map super-resolution completion method and high-quality three-dimensional reconstruction method and system
CN109900298B (en) * 2019-03-01 2023-06-30 武汉光庭科技有限公司 Vehicle positioning calibration method and system
CN110047144A (en) * 2019-04-01 2019-07-23 西安电子科技大学 A kind of complete object real-time three-dimensional method for reconstructing based on Kinectv2
CN109766878B (en) * 2019-04-11 2019-06-28 深兰人工智能芯片研究院(江苏)有限公司 A kind of method and apparatus of lane detection
CN110232315A (en) * 2019-04-29 2019-09-13 华为技术有限公司 Object detection method and device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229366A (en) 2017-12-28 2018-06-29 北京航空航天大学 Deep learning vehicle-installed obstacle detection method based on radar and fusing image data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국 공개특허공보 제10-2019-0082068호(2019.07.09.) 1부.*

Also Published As

Publication number Publication date
CN112749594B (en) 2022-04-22
JP2022511990A (en) 2022-02-01
WO2021082745A1 (en) 2021-05-06
CN112749594A (en) 2021-05-04
KR20210093351A (en) 2021-07-27

Similar Documents

Publication Publication Date Title
KR102428050B1 (en) Information supplement method, lane recognition method, intelligent driving method and related products
EP3690482B1 (en) Learning method and learning device for integrating an image acquired by a camera and a point-cloud map acquired by radar or lidar in a neural network and testing method and testing device using the same
CN110147706B (en) Obstacle recognition method and device, storage medium, and electronic device
CN110765894B (en) Target detection method, device, equipment and computer readable storage medium
CN109791052A (en) For generate and using locating reference datum method and system
US10877143B2 (en) Method and device for geo-referencing aerial image data with the aid of SAR image data
CN113378760A (en) Training target detection model and method and device for detecting target
CN112753038B (en) Method and device for identifying lane change trend of vehicle
WO2020237516A1 (en) Point cloud processing method, device, and computer readable storage medium
CN109840463B (en) Lane line identification method and device
US10728461B1 (en) Method for correcting misalignment of camera by selectively using information generated by itself and information generated by other entities and device using the same
US20180357778A1 (en) Image processing device, image processing method, and image processing program
CN113674287A (en) High-precision map drawing method, device, equipment and storage medium
CN115273039B (en) Small obstacle detection method based on camera
CN114140592A (en) High-precision map generation method, device, equipment, medium and automatic driving vehicle
CN116052124A (en) Multi-camera generation local map template understanding enhanced target detection method and system
CN109490926B (en) Path planning method based on binocular camera and GNSS
CN114565908A (en) Lane line detection method and device, electronic device and storage medium
CN113988197A (en) Multi-camera and multi-laser radar based combined calibration and target fusion detection method
CN114943941A (en) Target detection method and device
CN113421217A (en) Method and device for detecting travelable area
CN116229224A (en) Fusion perception method and device, electronic equipment and storage medium
CN114972945A (en) Multi-machine-position information fusion vehicle identification method, system, equipment and storage medium
CN112651405B (en) Target detection method and device
JP7360510B2 (en) High-precision map crosswalk generation method, device, and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant