KR20220130512A - Method and apparatus for rendering lidar data usning cyclegan - Google Patents

Method and apparatus for rendering lidar data usning cyclegan Download PDF

Info

Publication number
KR20220130512A
KR20220130512A KR1020210035507A KR20210035507A KR20220130512A KR 20220130512 A KR20220130512 A KR 20220130512A KR 1020210035507 A KR1020210035507 A KR 1020210035507A KR 20210035507 A KR20210035507 A KR 20210035507A KR 20220130512 A KR20220130512 A KR 20220130512A
Authority
KR
South Korea
Prior art keywords
lidar data
angle
image
rendering
lidar
Prior art date
Application number
KR1020210035507A
Other languages
Korean (ko)
Other versions
KR102602147B1 (en
Inventor
김곤우
목승찬
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020210035507A priority Critical patent/KR102602147B1/en
Publication of KR20220130512A publication Critical patent/KR20220130512A/en
Application granted granted Critical
Publication of KR102602147B1 publication Critical patent/KR102602147B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present specification relates to a method and device for rendering LiDAR data. According to one embodiment of the present specification, the method for rendering LiDAR data may include the steps of: acquiring LiDAR data including 3D location information from the LiDAR; converting the LiDAR data into a 2D spherical image based on an angle of a vertical channel which matches a preset effective angle among channels included in the acquired LiDAR data; and rendering a learning image, which is an image in which 3D point cloud data (PCD) appears, using a learning algorithm from the converted 2D spherical image.

Description

CycleGAN을 이용한 라이다 데이터의 렌더링 방법 및 장치 {METHOD AND APPARATUS FOR RENDERING LIDAR DATA USNING CYCLEGAN}Rendering method and apparatus of lidar data using CycleGAN {METHOD AND APPARATUS FOR RENDERING LIDAR DATA USNING CYCLEGAN}

본 명세서는 라이다 데이터의 렌더링 방법 및 장치에 관한 것이다. 보다 상세하게, CycleGAN을 이용하여 라이다 데이터를 렌더링하는 라이다 데이터의 렌더링 방법 및 장치에 관한 것이다.The present specification relates to a method and apparatus for rendering lidar data. More particularly, it relates to a method and apparatus for rendering lidar data for rendering lidar data using CycleGAN.

최근 인공지능의 발달로 자율 주행 차량이 주목을 받고 있다. 자율 주행 차량에서 라이다(Light Detection And Ranging, LiDAR)는 범위, 도로 표시 및 표면 데이터를 측정하기 위해 가장 중요한 센서로써, 주변의 사물을 인식하기 위해 레이저 신호를 이용하는 센서이다.Recently, with the development of artificial intelligence, autonomous vehicles are attracting attention. In autonomous vehicles, LiDAR (Light Detection And Ranging, LiDAR) is the most important sensor for measuring range, road marking and surface data, and it is a sensor that uses laser signals to recognize objects around it.

그러나, 이러한 라이다는 표면 반사 특성과 범위, 입사각, 대기 투과율에 의해 영향을 받으므로 시뮬레이션 환경에서 재현하기가 매우 어렵다. 또한, 라이다에 의해 생성된 라이다 데이터는 2차원 구형 이미지로 변형시 수직 채널의 각도가 균일하지 않아 2차원 구형 이미지로부터 정밀한 학습 이미지의 렌더링이 어렵다. 또한, 수직 채널의 각도 불균형으로 인해 렌더링된 학습 이미지를 다시 2차원 구형 이미지로 복원하는 작업이 매우 어려운 문제점이 있다. However, such lidar is very difficult to reproduce in a simulation environment because it is affected by surface reflection characteristics and range, angle of incidence, and atmospheric transmittance. In addition, when the lidar data generated by the lidar is transformed into a two-dimensional spherical image, the angle of the vertical channel is not uniform, so it is difficult to render a precise learning image from the two-dimensional spherical image. In addition, there is a problem in that it is very difficult to restore the rendered training image back to a two-dimensional spherical image due to the angular imbalance of the vertical channel.

본 명세서의 목적은 라이다 데이터에 포함된 수직 채널의 각도를 균일 하도록 전처리 하여 2차원 구형 이미지를 실제 3차원 라이다 데이터와 유사한 학습 이미지로 렌더링할 수 있는 라이다 데이터의 렌더링 방법 및 장치를 제공하는 것이다.An object of the present specification is to provide a method and apparatus for rendering lidar data that can render a two-dimensional spherical image as a learning image similar to the actual three-dimensional lidar data by preprocessing the angle of the vertical channel included in the lidar data to be uniform will do

또한, 본 명세서의 목적은 전체 손실에 자체 정규화 손실을 추가적으로 고려하여 원본 데이터를 보존하고 학습 성능을 향상 시킬 수 있는 라이다 데이터의 렌더링 방법 및 장치를 제공하는 것이다In addition, an object of the present specification is to provide a method and apparatus for rendering lidar data that can preserve original data and improve learning performance by additionally considering a self-normalization loss to the overall loss.

본 명세서의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 명세서의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 명세서의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 명세서의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present specification are not limited to the above-mentioned objects, and other objects and advantages of the present specification that are not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present specification. Moreover, it will be readily apparent that the objects and advantages of the present specification may be realized by the means and combinations thereof indicated in the claims.

본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 방법은 라이다(LiDAR)로부터 3차원 위치 정보를 포함하는 라이다 데이터를 획득하는 단계, 획득한 라이다 데이터에 포함된 채널 중 미리 설정된 유효 각도와 일치하는 수직 채널의 각도에 기초하여 상기 라이다 데이터를 2차원 구형 이미지로 변환하는 단계 및 변환된 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 3차원 PCD(Point Cloud Data)가 나타난 이미지인 학습 이미지를 렌더링하는 단계를 포함한다.A method of rendering lidar data according to an embodiment of the present specification includes acquiring lidar data including 3D position information from a lidar (LiDAR), and a preset effective angle among channels included in the acquired lidar data. Transforming the lidar data into a two-dimensional spherical image based on the angle of the vertical channel matching with rendering the .

본 명세서의 일 실시예에서 라이다 데이터를 2차원 구형 이미지로 변환하는 단계는 수직 채널의 각도를 해시 테이블에 미리 저장된 복수의 유효 각도와 비교하는 단계 및 수직 채널의 각도가 상기 복수의 유효 각도 중 하나와 일치하면 획득되는 하나의 유효 각도에 대응되는 픽셀 좌표(v) 및 상기 수직 채널을 제외한 나머지 채널로부터 산출되는 픽셀 좌표(u)를 이용하여 상기 라이다 데이터를 2차원 구형 이미지로 변환하는 단계를 포함한다.In an embodiment of the present specification, the step of converting the lidar data into a two-dimensional spherical image includes comparing the angle of the vertical channel with a plurality of effective angles stored in advance in a hash table, and the angle of the vertical channel is selected from among the plurality of effective angles. Converting the lidar data into a two-dimensional spherical image by using pixel coordinates (v) corresponding to one effective angle obtained when matching one and pixel coordinates (u) calculated from channels other than the vertical channel includes

본 명세서의 일 실시예에서 수직 채널의 각도를 해시 테이블에 저장된 미리 설정된 유효 각도와 비교하는 단계는 해시 테이블에 기반하는 해시 함수를 이용하여 상기 수직 채널의 각도를 상기 미리 설정된 유효 각도와 비교하는 단계를 포함한다.Comparing the angle of the vertical channel with the preset effective angle stored in the hash table in an embodiment of the present specification comprises comparing the angle of the vertical channel with the preset effective angle using a hash function based on the hash table includes

본 명세서의 일 실시예에서 학습 이미지를 렌더링하는 단계는 적대적 손실(adversarial loss), 순환 일관성 손실(Cycle consistenty loss), 자체 정규화 손실(self-regularization loss) 및 가중치 매개 변수에 기초하여 결정되는 전체 손실(total loss)이 최소화되도록 상기 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 학습 이미지를 렌더링하는 단계를 포함한다.In an embodiment of the present specification, the rendering of the training image includes an adversarial loss, a cyclic consistency loss, a self-regularization loss, and a total loss determined based on a weight parameter. and rendering a training image from the two-dimensional spherical image using a learning algorithm to minimize (total loss).

본 명세서의 일 실시예에서 자체 정규화 손실은 하기의 식 5에 의해 산출된다.In an embodiment of the present specification, the self-normalization loss is calculated by Equation 5 below.

<식 5><Equation 5>

Figure pat00001
Figure pat00001

본 명세서의 일 실시예에서 학습 알고리즘은 CycleGAN(Cycle-Generative Adversarial Network)이다.In one embodiment of the present specification, the learning algorithm is Cycle-Generative Adversarial Network (Cycle-Generative Adversarial Network).

본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 장치는 라이다(LiDAR)로부터 3차원 위치 정보를 포함하는 라이다 데이터를 획득하는 데이터 수신부, 획득한 라이다 데이터에 포함된 채널 중 미리 설정된 유효 각도와 일치하는 수직 채널의 각도에 기초하여 상기 라이다 데이터를 2차원 구형 이미지로 변환하는 전처리부 및 변환된 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 3차원 PCD(Point Cloud Data)가 나타난 이미지인 학습 이미지를 렌더링하는 렌더링부를 포함한다.The apparatus for rendering lidar data according to an embodiment of the present specification includes a data receiver that acquires lidar data including 3D position information from a lidar (LiDAR), and a preset validity among channels included in the acquired lidar data. An image in which three-dimensional PCD (Point Cloud Data) appears by using a preprocessing unit that converts the lidar data into a two-dimensional spherical image based on the angle of the vertical channel matching the angle and a learning algorithm from the converted two-dimensional spherical image and a rendering unit for rendering the training image.

본 명세서의 일 실시예에서 전처리부는 수직 채널의 각도를 해시 테이블에 저장된 미리 설정된 유효 각도와 비교하고, 상기 수직 채널의 각도가 상기 미리 설정된 유효 각도와 일치하면 상기 미리 설정된 유효 각도에 대응되는 픽셀 좌표를 출력하여 상기 라이다 데이터를 2차원 구형 이미지로 변환한다.In one embodiment of the present specification, the preprocessor compares the angle of the vertical channel with a preset effective angle stored in a hash table, and when the angle of the vertical channel matches the preset effective angle, pixel coordinates corresponding to the preset effective angle to convert the lidar data into a two-dimensional spherical image.

본 명세서의 일 실시예에서 전처리부는 해시 테이블에 포함된 해시 함수를 이용하여 상기 수직 채널의 각도를 미리 설정된 유효 각도와 비교한다.In an embodiment of the present specification, the preprocessor compares the angle of the vertical channel with a preset effective angle using a hash function included in the hash table.

본 명세서의 일 실시예에서 렌더링부는 적대적 손실(adversarial loss), 순환 일관성 손실(Cycle consistenty loss), 자체 정규화 손실(self-regularization loss) 및 가중치 매개 변수 w에 기초하여 결정되는 전체 손실(total loss)이 최소화되도록 상기 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 학습 이미지를 렌더링한다.In one embodiment of the present specification, the rendering unit is an adversarial loss, a cyclic consistency loss, a self-regularization loss, and a total loss determined based on a weight parameter w (total loss) A training image is rendered using a learning algorithm from the two-dimensional spherical image so that this is minimized.

본 명세서의 일 실시예에서 자체 정규화 손실은 하기의 식 5에 의해 산출된다.In an embodiment of the present specification, the self-normalization loss is calculated by Equation 5 below.

<식 5><Equation 5>

Figure pat00002
Figure pat00002

본 명세서의 일 실시예에서 학습 알고리즘은 CycleGAN(Cycle-Generative Adversarial Network)이다.In one embodiment of the present specification, the learning algorithm is Cycle-Generative Adversarial Network (Cycle-Generative Adversarial Network).

본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 방법 및 장치는 라이다 데이터에 포함된 수직 채널의 각도를 균일 하도록 전처리 하여 2차원 구형 이미지를 실제 3차원 라이다 데이터와 유사한 학습 이미지로 렌더링할 수 있다.The method and apparatus for rendering lidar data according to an embodiment of the present specification preprocesses the angle of the vertical channel included in the lidar data to be uniform, and renders a two-dimensional spherical image as a learning image similar to the actual three-dimensional lidar data. can

또한, 본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 방법 및 장치는 전체 손실에 자체 정규화 손실을 추가적으로 고려하여 원본 데이터를 보존하고 학습 성능을 향상 시킬 수 있다.In addition, the method and apparatus for rendering lidar data according to an embodiment of the present specification can preserve original data and improve learning performance by additionally considering a self-normalization loss to the total loss.

도 1은 본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 장치의 구성도이다.
도 2는 유효 각도 및 픽셀 좌표 v를 포함하는 해시 테이블을 나타낸 도면이다.
도 3은 (a) 2차원 구형 이미지, (b) 학습 이미지, (c) 실제 3차원 라이다 데이터를 나타낸 도면이다.
도 4는 본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 방법의 순서도이다.
1 is a block diagram of an apparatus for rendering lidar data according to an embodiment of the present specification.
2 is a diagram illustrating a hash table including an effective angle and a pixel coordinate v.
3 is a diagram showing (a) a two-dimensional spherical image, (b) a learning image, and (c) actual three-dimensional lidar data.
4 is a flowchart of a method of rendering lidar data according to an embodiment of the present specification.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자가 본 명세서의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 명세서를 설명함에 있어서 본 명세서와 관련된 공지 기술에 대한 구체적인 설명이 본 명세서의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 명세서에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features, and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which this specification belongs will be able to easily implement the technical idea of the present specification. In the description of the present specification, if it is determined that a detailed description of a known technology related to the present specification may unnecessarily obscure the gist of the present specification, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present specification will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술 되며, 이에 따라 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자가 본 명세서의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 명세서를 설명함에 있어서 본 명세서와 관련된 공지 기술에 대한 구체적인 설명이 본 명세서의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 명세서에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조 부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features, and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which this specification belongs will be able to easily implement the technical idea of the present specification. In the description of the present specification, if it is determined that a detailed description of a known technology related to the present specification may unnecessarily obscure the gist of the present specification, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present specification will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to refer to the same or similar components.

도 1은 본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 장치의 구성도이다. 1 is a block diagram of an apparatus for rendering lidar data according to an embodiment of the present specification.

도면을 참조하면 라이다 데이터의 렌더링 장치(10)는 데이터 수신부(100), 전처리부(200), 렌더링부(300)를 포함한다.Referring to the drawings, the apparatus 10 for rendering lidar data includes a data receiving unit 100 , a preprocessing unit 200 , and a rendering unit 300 .

데이터 수신부(100)는 라이다로부터 라이다 데이터를 획득한다. 라이다로부터 생성된 펄스 레이저 신호가 주변의 사물과 부딪힌 후 되돌아오면, 복귀한 펄스 레이저를 분석하여 주변 사물의 위치나 운동 방향, 속도 등을 확인할 수 있으므로 라이다 데이터는 주변 사물의 3차원 위치 정보를 포함할 수 있다. 즉, 라이다 데이터는 3차원 공간상에 퍼져 잇는 여러 포인트(Point)의 집합인 PCD(Point Cloud Data)일 수 있다.The data receiver 100 obtains lidar data from lidar. When the pulse laser signal generated from LiDAR comes back after colliding with a nearby object, the returned pulse laser can be analyzed to check the location, movement direction, and speed of the surrounding object. may include That is, the lidar data may be PCD (Point Cloud Data), which is a set of several points spread on a three-dimensional space.

전처리부(200)는 획득한 라이다 데이터에 포함된 채널 중 미리 설정된 유효 각도와 일치하는 수직 채널의 각도에 기초하여 라이다 데이터를 2차원 구형 이미지로 변환하는 전처리를 수행한다.The preprocessor 200 performs preprocessing of converting the lidar data into a two-dimensional spherical image based on an angle of a vertical channel that matches a preset effective angle among channels included in the acquired lidar data.

즉, 라이다 데이터는 3차원 PCD이므로 이를 2차원 구형 이미지로 변환하기 위해서는 3차원의 PCD가 2차원 이미지 좌표로 변경되어야 한다. 또한, 라이다 데이터는 변환된 2차원 구형 이미지로부터 3차원 PCD가 복원된 학습 이미지를 렌더링할 수 있고, 전처리부(200)는 이러한 전처리 과정을 수행함으로써 복원 시 실제 3차원 PCD와 유사한 복원을 할 수 있다.That is, since LiDAR data is a three-dimensional PCD, in order to convert it into a two-dimensional spherical image, the three-dimensional PCD must be changed to two-dimensional image coordinates. In addition, the lidar data can render a 3D PCD reconstructed learning image from the converted 2D spherical image, and the preprocessor 200 performs such a preprocessing process to restore similar to the actual 3D PCD. can

채널의 수는 라이다가 1회 회전하는 동안 얼마만큼 분할되어 스캔이 가능한지에 따라 결정된다. 예를 들어, 16채널 라이다의 경우 1회 회전 시 16개의 채널로 분할되어 주변 사물이 스캔 된다. 따라서, 획득한 라이다 데이터에 포함된 채널은 복수일 수 있으며, 포함된 채널의 수가 많을 수록 라이다 데이터의 Ponint Cloud는 세밀하고, 정밀하게 표현될 수 있다. The number of channels is determined by how much the lidar can be divided into scans during one revolution. For example, in the case of a 16-channel lidar, it is divided into 16 channels during one rotation and surrounding objects are scanned. Therefore, the number of channels included in the acquired lidar data may be plural, and as the number of included channels increases, the ponint cloud of lidar data can be expressed in detail and precisely.

또한, 채널의 수는 라이다의 종류에 따라 서로 다를 수 있고, 각 채널 간의 수직 채널 각도는 서로 다를 수 있다. 따라서, 전처리부(200)는 해시 테이블에 기반하는 해시 함수를 이용하여 수직 채널의 각도를 미리 설정된 유효 각도와 비교함으로써 라이다 데이터를 2차원 구형 이미지로 변환할 수 있다. 수직 채널의 각도에 기초하여 라이다 데이터를 2차원 구형 이미지 좌표로 변환하는 방법은 도 2를 참조하여 상세하게 설명하도록 한다.In addition, the number of channels may be different depending on the type of lidar, and vertical channel angles between channels may be different from each other. Accordingly, the preprocessor 200 may convert the lidar data into a two-dimensional spherical image by comparing the angle of the vertical channel with a preset effective angle using a hash function based on a hash table. A method of converting lidar data into two-dimensional spherical image coordinates based on the angle of the vertical channel will be described in detail with reference to FIG. 2 .

렌더링부(300)는 변환된 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 3차원 PCD(Point Cloud Data)가 나타난 이미지인 학습 이미지를 렌더링한다. 이때, 사용되는 학습 알고리즘은 CycleGAN(Cycle-Generative Adversarial Network)일 수 있다. The rendering unit 300 renders a learning image, which is an image in which three-dimensional PCD (Point Cloud Data) appears, by using a learning algorithm from the converted two-dimensional spherical image. In this case, the learning algorithm used may be a Cycle-Generative Adversarial Network (Cycle-Generative Adversarial Network).

이에 따라 렌더링부(300)는 적대적 손실(adversarial loss), 일관성 손실(Cycle consistenty loss), 자체 정규화 손실(self-regularization loss) 및 가중치 매개 변수에 기초하여 결정되는 전체 손실(total loss)이 최소화되도록 상기 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 학습 이미지를 렌더링할 수 있다.Accordingly, the rendering unit 300 is configured to minimize the adversarial loss, the cycle consistency loss, the self-regularization loss, and the total loss determined based on the weight parameter. A learning image may be rendered using a learning algorithm from the two-dimensional spherical image.

도 2는 유효 각도 및 픽셀 좌표 v를 포함하는 해시 테이블을 나타낸 도면이다.2 is a diagram illustrating a hash table including an effective angle and a pixel coordinate v.

먼저, 3차원 라이다 데이터는 2차원 구형 이미지에서 이미지 좌표인 (u,v)로 변환될 수 있다. 구체적으로, 3차원 PCD인 라이다 데이터의 어느 한 점 P는 직교좌표계에서 P(x,y,z)로 표현될 수 있고, 이는 하기의 식 1을 통해 2차원 이미지 좌표 (u,v)로 변환될 수 있다.First, 3D LiDAR data can be converted into (u,v) image coordinates in a 2D spherical image. Specifically, any one point P of LIDAR data, which is a three-dimensional PCD, may be expressed as P(x,y,z) in the Cartesian coordinate system, which is converted into two-dimensional image coordinates (u,v) through Equation 1 below. can be converted

<식 1><Equation 1>

Figure pat00003
Figure pat00003

이때, 픽셀 좌표 v는 해시 테이블에 기반하는 해시 함수를 통해 산출된다. 즉, 식 1에서 사용된 h는 해시 함수로써 라이다 데이터에 포함된 수직 채널의 각도가 복수의 유효 각도 중 하나와 일치하면 해시 테이블로부터 픽셀 좌표값을 반환 받는다.In this case, the pixel coordinate v is calculated through a hash function based on a hash table. That is, h used in Equation 1 is a hash function, and when the angle of the vertical channel included in the lidar data matches one of a plurality of valid angles, the pixel coordinate value is returned from the hash table.

구체적으로 도 2를 참조하면, 해시 테이블(210)에는 복수의 유효 각도 및 복수의 유효 각도에 대응되는 픽셀 좌표 v가 미리 저장되어 있다. 전처리부(200)는 획득한 라이다 데이터에 포함된 채널 중 수직 채널의 각도를 해시 테이블(210)에 미리 저장된 복수의 유효 각도와 비교한다. Specifically, referring to FIG. 2 , a plurality of effective angles and pixel coordinates v corresponding to the plurality of effective angles are previously stored in the hash table 210 . The preprocessor 200 compares the angle of the vertical channel among the channels included in the obtained lidar data with a plurality of effective angles stored in advance in the hash table 210 .

전처리부(200)는 수직 채널의 각도가 복수의 유효 각도 중 하나와 일치하면 일치하는 유효 각도에 대응되는 픽셀 좌표(v)를 획득한다. 예를 들어, 도면에서 수직 채널의 각도가 34이면 34의 값을 갖는 유효 각도(212)와 일치하므로 전처리부(200)는 대응되는 픽셀 좌표 v(214) 값인 14를 획득한다. 이러한 복수의 유효 각도는 라이다의 종류에 따라 서로 다를 수 있다.When the angle of the vertical channel coincides with one of the plurality of effective angles, the preprocessor 200 obtains pixel coordinates v corresponding to the matching effective angle. For example, if the angle of the vertical channel in the drawing is 34, it coincides with the effective angle 212 having a value of 34, so the preprocessor 200 obtains 14, which is a corresponding pixel coordinate v (214) value. The plurality of effective angles may be different depending on the type of lidar.

또한, 유효 각도와 일치하는 수직 채널 각도는 복수 일 수 있다. 도 2에 도시된 바와 같이, 복수의 수직 채널 각도 각각이 유효 각도 34 (212) 및 88 (216)과 일치하는 경우 전처리부(200)는 픽셀 좌표 v값으로 14 (214) 및 24(218)을 각각 획득할 수 있다. 즉, 전처리부(200)는 유효 각도와 일치하는 수직 채널 각도에 대하여만 픽셀 좌표 v를 획득하므로 학습 효과를 향상시켜 2차원 구형 이미지를 실제 3차원 라이다 데이터와 유사한 학습 이미지로 렌더링할 수 있다.Also, there may be a plurality of vertical channel angles that coincide with the effective angle. As shown in FIG. 2 , when each of the plurality of vertical channel angles coincides with the effective angles 34 (212) and 88 (216), the preprocessor 200 converts the pixel coordinates v to 14 (214) and 24 (218). can be obtained individually. That is, since the preprocessor 200 acquires pixel coordinates v only for the vertical channel angle that matches the effective angle, the learning effect can be improved, so that the two-dimensional spherical image can be rendered as a learning image similar to the actual three-dimensional lidar data. .

한편, 픽셀 좌표 u는 획득한 라이다 데이터에 포함된 채널 중 수직 채널을 제외한 나머지 채널로부터 산출될 수 있다. 상세하게는, 식 1로부터 픽셀 좌표 u가 산출될 수 있다. Meanwhile, the pixel coordinate u may be calculated from the remaining channels except for the vertical channel among the channels included in the obtained lidar data. Specifically, the pixel coordinate u may be calculated from Equation 1.

이후, 전처리부(200)는 픽셀 좌표 u 및 픽셀 좌표 v를 이용하여 라이다 데이터를 2차원 구형 이미지로 변환함으로써 전처리 수행을 완료한다.Thereafter, the preprocessor 200 completes the preprocessing by converting the lidar data into a two-dimensional spherical image using the pixel coordinate u and the pixel coordinate v.

도 3은 (a) 2차원 구형 이미지, (b) 학습 이미지, (c) 실제 3차원 라이다 데이터를 나타낸 도면이다.3 is a diagram showing (a) a two-dimensional spherical image, (b) a learning image, and (c) actual three-dimensional lidar data.

도면을 참조하면, (a)의 2차원 구형 이미지는 상술한 바와 같이 라이다 데이터의 3차원 PCD를 픽셀 좌표 u,v로 변환하여 획득한다. 이후, 렌더링부(300)는 학습 알고리즘을 통해 2차원 구형 이미지로부터 (b)의 3차원 PCD가 나타난 이미지인 학습 이미지를 렌더링한다. 이러한 렌더링 된 학습 이미지가 (c)에 도시된 실제 3차원 라이다 데이터와 얼마나 유사한지에 따라 학습 성능이 결정된다.Referring to the drawings, the two-dimensional spherical image of (a) is obtained by converting the three-dimensional PCD of the lidar data into pixel coordinates u,v as described above. Thereafter, the rendering unit 300 renders a learning image that is an image in which the 3D PCD of (b) appears from the 2D spherical image through the learning algorithm. Learning performance is determined according to how similar the rendered training image is to the actual 3D lidar data shown in (c).

한편, 렌더링부(300)가 렌더링 시 사용하는 학습 알고리즘은 CycleGAN (Cycle-Generative Adversarial Network)일 수 있다. 사용되는 학습 알고리즘은 반드시 CycleGAN으로 한정되는 것은 아니나 설명의 편의를 위해 이하에서 학습 알고리즘은 CycleGAN임을 전제로 하여 설명하도록 한다.Meanwhile, the learning algorithm used by the rendering unit 300 for rendering may be CycleGAN (Cycle-Generative Adversarial Network). The learning algorithm used is not necessarily limited to CycleGAN, but for convenience of explanation, the following description is made on the premise that the learning algorithm is CycleGAN.

CycleGAN은 쌍이 정해져 있지 않은 인풋 이미지에 대하여 학습 결과를 적용하며, 인풋 이미지로부터 학습 이미지를 생성시 다시 인풋 이미지로 복원 가능해야하는 제약 조건이 부여되는 학습 알고리즘이다.CycleGAN is a learning algorithm that applies a learning result to an unpaired input image, and is given a constraint that it can be restored back to the input image when a training image is generated from the input image.

즉, 2차원 구형 이미지(a)로부터 학습 이미지(b)를 생성시 다시 2차원 구형 이미지(a)로 복원이 가능하여야 한다. 이때, 학습 이미지를 생성하고 이를 다시 복원하는 과정에서 전체 손실(total loss)이 발생한다. 이러한 전체 손실이 최소화 되어야 학습 성능이 향상될 수 있다.That is, when the training image (b) is generated from the two-dimensional spherical image (a), it must be possible to restore the two-dimensional spherical image (a) again. At this time, a total loss occurs in the process of generating a training image and restoring it again. Learning performance can be improved only when this total loss is minimized.

한편, 전체 손실(total loss)은 적대적 손실(adversarial loss), 일관성 손실(Cycle consistenty loss), 자체 정규화 손실(self-regularization loss) 및 가중치 매개 변수 w에 기초하여 결정되며, 구체적으로 하기의 식 2에 의해 산출될 수 있다.On the other hand, the total loss is determined based on the adversarial loss, the cycle consistency loss, the self-regularization loss, and the weight parameter w, specifically, Equation 2 below can be calculated by

<식 2><Equation 2>

Figure pat00004
Figure pat00004

여기서, L은 전체 손실, w는 가중치 매개 변수, LGAN은 적대적 손실, Lcycle은 일관성 손실, Lself는 자체 정규화 손실을 의미한다.where L is the total loss, w is the weighting parameter, L GAN is the adversarial loss, L cycle is the coherence loss, and L self is the self-normalization loss.

가중치 매개 변수는 각 손실에 대해 가중치를 부여한 파라미터로, 모든 가중치 매개 변수의 합은 1이 된다. 예를 들어, 부여된 가중치에 따라 w1, w2, w3는 각각 0.6, 0.3, 0.1의 값을 가질 수 있다.The weighting parameter is a weighted parameter for each loss, and the sum of all weighting parameters is 1. For example, w1, w2, and w3 may have values of 0.6, 0.3, and 0.1, respectively, according to the assigned weight.

LGAN은 적대적 손실로 경쟁에 의해 발생하는 손실이다. 적대적 손실은 하기의 식 3에 의해 산출될 수 있다. LGAN is a hostile loss, which is a loss caused by competition. The hostile loss can be calculated by Equation 3 below.

<식 3><Equation 3>

Figure pat00005
Figure pat00005

여기서,

Figure pat00006
은 합성 도메인(Synthetic domain, S)의 2차 구형 이미지인 (a)로부터 실제 도메인(Real domain, R)의 학습 이미지(b)를 생성하는 생성자이고,
Figure pat00007
은 반대로 실제 도메인(Real domain)의 학습 이미지(b)로부터 합성 도메인(Synthetic domain)의 2차 구형 이미지를 생성하는 생성자이며, r 및 s 각각은 실제 도메인(R) 및 합성 도메인(S)에 포함된 원소를 의미한다.here,
Figure pat00006
is a constructor that generates a training image (b) of the real domain (Real domain, R) from (a), which is a secondary spherical image of the synthetic domain (S),
Figure pat00007
Conversely, is a generator that generates a secondary spherical image of the synthetic domain from the training image (b) of the real domain, and r and s are included in the real domain (R) and the synthetic domain (S), respectively. means an element.

또한,

Figure pat00008
Figure pat00009
은 각각 생성자가 생성한 학습 이미지를 진짜 이미지와 비교하여 진짜 이미지인지 또는 학습 이미지인지를 판별하는 판별자이다. In addition,
Figure pat00008
and
Figure pat00009
is a discriminator that compares the training image generated by the generator with the real image, respectively, and determines whether it is a real image or a training image.

생성자와 판별자는 경쟁관계로써 합성 도메인(S)과 실제 도메인(R)에서 생성 자가 생성한 이미지를 판별자가 실제 이미지(c)와 비교함으로써 이미지가 생성된 이미지인지 실제 이미지인지 판별한다. The generator and the discriminator are competing, and the discriminator compares the image generated by the generator in the synthetic domain (S) and the real domain (R) with the real image (c) to determine whether the image is a generated image or an actual image.

판별자는 생성 결과에 따라 0 또는 1을 반환하며, 적대적 손실은 이러한 반환값에 따라 결정된다. 즉, 생성자가 합성 이미지를 실제 이미지와 유사하게 생성할 수록, 판별자가 실제 이미지인지 아닌지 여부를 잘 판단할 수록 적대적 손실은 0에 가까워진다. The discriminator returns 0 or 1 depending on the generation result, and the hostile loss is determined by these return values. That is, the more similar the generator generates the synthetic image to the real image, the better the discriminator can judge whether it is a real image or not, the closer the adversarial loss is to zero.

Lcycle은 순환 일관성 손실로 적대적 손실 단독으로는 제대로 된 학습을 보장하기 어려우므로 일관성 손실이 사용된다. 즉, 합성 도메인과 실제 도메인을 순환하며 학습 이미지의 생성과 판별 과정을 거칠 때 결과 값은 cycle-consistent 해야하고, cycle-consistent하지 않으면 손실이 발생한다. 구체적으로 일관성 손실은 하기의 식 4에 의해 산출될 수 있다. L cycle is a loss of cyclic coherence, and since it is difficult to ensure proper learning with adversarial loss alone, coherence loss is used. That is, when the synthetic domain and the real domain go through the process of generating and discriminating training images, the result value must be cycle-consistent, and loss occurs if it is not cycle-consistent. Specifically, the consistency loss may be calculated by Equation 4 below.

<식 4><Equation 4>

Figure pat00010
Figure pat00010

여기서

Figure pat00011
이고,
Figure pat00012
이면 생성자가 생성하기 이전의 이미지로 복원이 제대로 된 것으로 cyle-consistent하다. 따라서 이 경우 일관성 손실은 0이다. 그러나, 이미지 복원이 제대로 수행되지 않을 경우 그만큼 일관성 손실이 발생한다.here
Figure pat00011
ego,
Figure pat00012
If this is the case, it is cyle-consistent as it is properly restored to the image before the creator created it. Therefore, the loss of consistency in this case is zero. However, if image restoration is not performed properly, consistency loss occurs.

Lself는 자체 정규화 손실로 생성자가 인풋 이미지에 대해 과도한 변경을 하는 경우 발생하는 손실이다. 즉, 인풋 이미지에 대하여 과도한 변경이 가해지면 학습 이미지로부터 다시 원래의 인풋 이미지로의 복원이 어려워진다. 또한, 이렇게 과도한 변경이 가해진 학습 이미지는 인풋 이미지와 큰 차이가 발생하여 의미 없는 데이타가 된다. 따라서 이러한 자체 정규화 손실을 고려하는 것은 중요하다. 자체 정규화 손실은 하기의 식 5에 의해 산출될 수 있다.L self is a self-normalization loss that occurs when the generator makes excessive changes to the input image. That is, if an excessive change is applied to the input image, it becomes difficult to restore the original input image from the training image. In addition, the training image to which this excessive change is applied has a large difference from the input image, resulting in meaningless data. Therefore, it is important to account for these self-normalization losses. The self-normalization loss can be calculated by Equation 5 below.

<식 5><Equation 5>

Figure pat00013
Figure pat00013

즉,

Figure pat00014
에 따라 실제 도메인(S)으로부터 생성된 학습 이미지(
Figure pat00015
)가 인풋 이미지인 실제 도메인의 이미지(r)와 유사 한지,
Figure pat00016
에 따라 합성 도메인(S)으로부터 생성된 학습 이미지(
Figure pat00017
)가 인풋 이미지인 합성 도메인의 이미지(r)와 유사 한지에 따라 자체 정규화 손실이 결정된다.in other words,
Figure pat00014
A training image generated from the real domain (S) according to
Figure pat00015
) is similar to the image (r) of the real domain, which is the input image,
Figure pat00016
A training image generated from the synthetic domain (S) according to
Figure pat00017
) is similar to the image (r) of the synthetic domain, which is the input image, the self-normalization loss is determined.

결국, 인풋 이미지와 학습 이미지의 차이가 적을수록 손실은 최소화된다. 이와 같이 본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 장치는 전체 손실에 자체 정규화 손실을 추가적으로 고려하여 원본 데이터를 보존하고 학습 성능을 향상 시킬 수 있다.In the end, the smaller the difference between the input image and the training image, the more the loss is minimized. As such, the apparatus for rendering lidar data according to an embodiment of the present specification can preserve original data and improve learning performance by additionally considering a self-normalization loss to the total loss.

도 4는 본 명세서의 일 실시예에 따른 라이다 데이터의 렌더링 방법의 순서도이다.4 is a flowchart of a method of rendering lidar data according to an embodiment of the present specification.

도면을 참조하면 라이다 데이터의 렌더링 장치(100)는 라이다(LiDAR)로부터 3차원 위치 정보를 포함하는 라이다 데이터를 획득한다(S100). 이후, 라이다 데이터의 렌더링 장치(100)는 획득한 라이다 데이터에 포함된 채널 중 미리 설정된 유효 각도와 일치하는 수직 채널의 각도에 기초하여 상기 라이다 데이터를 2차원 구형 이미지로 변환한다(S200).Referring to the drawing, the apparatus 100 for rendering lidar data obtains lidar data including 3D position information from lidar (LiDAR) (S100). Thereafter, the lidar data rendering apparatus 100 converts the lidar data into a two-dimensional spherical image based on an angle of a vertical channel that matches a preset effective angle among channels included in the acquired lidar data (S200). ).

구체적으로 라이다 데이터의 렌더링 장치(100)는 수직 채널의 각도를 해시 테이블에 미리 저장된 복수의 유효 각도와 비교하고, 수직 채널의 각도가 복수의 유효 각도 중 하나와 일치하면 획득되는 하나의 유효 각도에 대응되는 픽셀 좌표(v) 및 수직 채널을 제외한 나머지 채널로부터 산출되는 픽셀 좌표(u)를 이용하여 상기 라이다 데이터를 2차원 구형 이미지로 변환한다.Specifically, the rendering apparatus 100 of the lidar data compares the angle of the vertical channel with a plurality of effective angles stored in advance in the hash table, and when the angle of the vertical channel matches one of the plurality of effective angles, one effective angle is obtained. The LiDAR data is converted into a two-dimensional spherical image by using pixel coordinates (v) corresponding to , and pixel coordinates (u) calculated from channels other than the vertical channel.

이후, 라이다 데이터의 렌더링 장치(100)는 변환된 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 3차원 PCD(Point Cloud Data)가 나타난 이미지인 학습 이미지를 렌더링한다(S300).Thereafter, the rendering apparatus 100 of the lidar data uses a learning algorithm from the converted two-dimensional spherical image to render a learning image, which is an image in which three-dimensional PCD (Point Cloud Data) appears (S300).

구체적으로, 라이다 데이터의 렌더링 장치(100)는 적대적 손실(adversarial loss), 일관성 손실(Cycle consistenty loss), 자체 정규화 손실(self-regularization loss) 및 가중치 매개 변수에 기초하여 결정되는 전체 손실(total loss)이 최소화되도록 상기 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 학습 이미지를 렌더링한다.Specifically, the rendering apparatus 100 of the lidar data includes an adversarial loss, a cycle consistency loss, a self-regularization loss, and a total loss determined based on a weight parameter. loss) is minimized, and a training image is rendered using a learning algorithm from the two-dimensional spherical image.

이와 같이 라이다 데이터의 렌더링 장치(100)는 전체 손실에 자체 정규화 손실을 추가적으로 고려하여 원본 데이터를 보존하고 학습 성능을 향상 시킬 수 있다As such, the rendering apparatus 100 of the lidar data can preserve the original data and improve the learning performance by additionally considering the self-normalization loss to the total loss.

이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시 예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시 예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다.As described above, the present invention has been described with reference to the illustrated drawings, but the present invention is not limited by the embodiments and drawings disclosed in the present specification. It is obvious that variations can be made. In addition, although the effect of the configuration of the present invention has not been explicitly described and described while describing the embodiment of the present invention, it is natural that the effect predictable by the configuration should also be recognized.

Claims (12)

라이다(LiDAR)로부터 3차원 위치 정보를 포함하는 라이다 데이터를 획득하는 단계;
상기 획득한 라이다 데이터에 포함된 채널 중 미리 설정된 유효 각도와 일치하는 수직 채널의 각도에 기초하여 상기 라이다 데이터를 2차원 구형 이미지로 변환하는 단계; 및
상기 변환된 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 3차원 PCD(Point Cloud Data)가 나타난 이미지인 학습 이미지를 렌더링하는 단계를 포함하는
라이다 데이터의 렌더링 방법.
obtaining LiDAR data including 3D location information from LiDAR;
converting the lidar data into a two-dimensional spherical image based on an angle of a vertical channel that matches a preset effective angle among channels included in the acquired lidar data; and
Using a learning algorithm from the converted two-dimensional spherical image, comprising the step of rendering a learning image that is an image in which three-dimensional PCD (Point Cloud Data) appears
How to render lidar data.
제1항에 있어서,
상기 라이다 데이터를 2차원 구형 이미지로 변환하는 단계는
상기 수직 채널의 각도를 해시 테이블에 미리 저장된 복수의 유효 각도와 비교하는 단계; 및
상기 수직 채널의 각도가 상기 복수의 유효 각도 중 하나와 일치하면 획득되는 상기 하나의 유효 각도에 대응되는 픽셀 좌표(v) 및 상기 수직 채널을 제외한 나머지 채널로부터 산출되는 픽셀 좌표(u)를 이용하여 상기 라이다 데이터를 2차원 구형 이미지로 변환하는 단계를 포함하는
라이다 데이터의 렌더링 방법.
The method of claim 1,
The step of converting the lidar data into a two-dimensional spherical image includes:
comparing the angle of the vertical channel with a plurality of valid angles previously stored in a hash table; and
When the angle of the vertical channel coincides with one of the plurality of effective angles, the pixel coordinates (v) corresponding to the one effective angle and pixel coordinates (u) calculated from the remaining channels except for the vertical channel are used. converting the lidar data into a two-dimensional spherical image
How to render lidar data.
제2항에 있어서,
상기 수직 채널의 각도를 해시 테이블에 저장된 미리 설정된 유효 각도와 비교하는 단계는
상기 해시 테이블에 기반하는 해시 함수를 이용하여 상기 수직 채널의 각도를 상기 미리 설정된 유효 각도와 비교하는 단계를 포함하는
라이다 데이터의 렌더링 방법.
3. The method of claim 2,
Comparing the angle of the vertical channel with a preset effective angle stored in a hash table comprises:
Comprising the step of comparing the angle of the vertical channel with the preset effective angle using a hash function based on the hash table
How to render lidar data.
제1항에 있어서,
상기 학습 이미지를 렌더링하는 단계는
적대적 손실(adversarial loss), 순환 일관성 손실(Cycle consistenty loss), 자체 정규화 손실(self-regularization loss) 및 가중치 매개 변수에 기초하여 결정되는 전체 손실(total loss)이 최소화되도록 상기 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 학습 이미지를 렌더링하는 단계를 포함하는
라이다 데이터의 렌더링 방법.
According to claim 1,
The step of rendering the learning image is
Learning from the 2D spherical image so that adversarial loss, cyclic consistency loss, self-regularization loss, and total loss determined based on weight parameters are minimized Rendering the training image using the algorithm
How to render lidar data.
제4항에 있어서,
상기 자체 정규화 손실은
하기의 식 5에 의해 산출되는 라이다 데이터의 렌더링 방법.
<식 5>
Figure pat00018

5. The method of claim 4,
The self-normalization loss is
A rendering method of lidar data calculated by Equation 5 below.
<Equation 5>
Figure pat00018

제1항에 있어서,
상기 학습 알고리즘은
CycleGAN(Cycle-Generative Adversarial Network)인
라이다 데이터의 렌더링 방법.
According to claim 1,
The learning algorithm is
CycleGAN (Cycle-Generative Adversarial Network)
How to render lidar data.
라이다(LiDAR)로부터 3차원 위치 정보를 포함하는 라이다 데이터를 획득하는 데이터 수신부;
상기 획득한 라이다 데이터에 포함된 채널 중 미리 설정된 유효 각도와 일치하는 수직 채널의 각도에 기초하여 상기 라이다 데이터를 2차원 구형 이미지로 변환하는 전처리부; 및
상기 변환된 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 3차원 PCD(Point Cloud Data)가 나타난 이미지인 학습 이미지를 렌더링하는 렌더링부를 포함하는
라이다 데이터의 렌더링 장치.
a data receiving unit for obtaining lidar data including 3D position information from a lidar (LiDAR);
a pre-processing unit converting the lidar data into a two-dimensional spherical image based on an angle of a vertical channel that matches a preset effective angle among channels included in the obtained lidar data; and
Using a learning algorithm from the converted two-dimensional spherical image, comprising a rendering unit for rendering a learning image that is an image in which three-dimensional PCD (Point Cloud Data) appears
A rendering device for lidar data.
제7항에 있어서,
상기 전처리부는
상기 수직 채널의 각도를 해시 테이블에 저장된 미리 설정된 유효 각도와 비교하고, 상기 수직 채널의 각도가 상기 미리 설정된 유효 각도와 일치하면 상기 미리 설정된 유효 각도에 대응되는 픽셀 좌표를 출력하여 상기 라이다 데이터를 2차원 구형 이미지로 변환하는
라이다 데이터의 렌더링 장치.
8. The method of claim 7,
The preprocessor
The angle of the vertical channel is compared with a preset effective angle stored in a hash table, and when the angle of the vertical channel matches the preset effective angle, pixel coordinates corresponding to the preset effective angle are output to obtain the lidar data. Converting to a two-dimensional spherical image
A rendering device for lidar data.
제8항에 있어서,
상기 전처리부는
상기 해시 테이블에 포함된 해시 함수를 이용하여 상기 수직 채널의 각도를 상기 미리 설정된 유효 각도와 비교하는
라이다 데이터의 렌더링 장치.
9. The method of claim 8,
The preprocessor
Comparing the angle of the vertical channel with the preset effective angle using a hash function included in the hash table
A rendering device for lidar data.
제7항에 있어서,
상기 렌더링부는
적대적 손실(adversarial loss), 순환 일관성 손실(Cycle consistenty loss), 자체 정규화 손실(self-regularization loss) 및 가중치 매개 변수 w에 기초하여 결정되는 전체 손실(total loss)이 최소화되도록 상기 2차원 구형 이미지로부터 학습 알고리즘을 이용하여 학습 이미지를 렌더링하는 라이다 데이터의 렌더링 장치.
8. The method of claim 7,
The rendering unit
Adversarial loss, cyclic consistency loss, self-regularization loss, and total loss determined based on the weight parameter w are minimized from the 2D spherical image. A rendering device for lidar data that renders a training image using a learning algorithm.
제10항에 있어서,
상기 자체 정규화 손실은
하기의 식 5에 의해 산출되는 라이다 데이터의 렌더링 장치.
<식 5>
Figure pat00019

11. The method of claim 10,
The self-normalization loss is
A rendering device for lidar data calculated by the following Equation 5.
<Equation 5>
Figure pat00019

제7항에 있어서,
상기 학습 알고리즘은
CycleGAN(Cycle-Generative Adversarial Network)인
라이다 데이터의 렌더링 장치.
8. The method of claim 7,
The learning algorithm is
CycleGAN (Cycle-Generative Adversarial Network)
A rendering device for lidar data.
KR1020210035507A 2021-03-18 2021-03-18 Method and apparatus for rendering lidar data usning cyclegan KR102602147B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210035507A KR102602147B1 (en) 2021-03-18 2021-03-18 Method and apparatus for rendering lidar data usning cyclegan

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210035507A KR102602147B1 (en) 2021-03-18 2021-03-18 Method and apparatus for rendering lidar data usning cyclegan

Publications (2)

Publication Number Publication Date
KR20220130512A true KR20220130512A (en) 2022-09-27
KR102602147B1 KR102602147B1 (en) 2023-11-13

Family

ID=83451709

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210035507A KR102602147B1 (en) 2021-03-18 2021-03-18 Method and apparatus for rendering lidar data usning cyclegan

Country Status (1)

Country Link
KR (1) KR102602147B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102025113B1 (en) * 2018-08-27 2019-09-25 영남대학교 산학협력단 Method for generating an image using a lidar and device for the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102025113B1 (en) * 2018-08-27 2019-09-25 영남대학교 산학협력단 Method for generating an image using a lidar and device for the same

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Anirudh Topiwala, "Spherical Projection for Point Clouds", Published in Towards Data science, 2020.03.28.* *
Chao Yang, et. al., "Show, Attend, and Translate: Unsupervised Image Translation With Self-Regularization and Attention", IEEE Transactions on Image Processing ( Volume: 28, Issue: 10, Page(s): 4845 - 4856, 2019.05.08.* *
Seungcheol Park, et. al., "Curved-Voxel Clustering for Accurate Segmentation of 3D LiDAR Point Clouds with Real-Time Performance", 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2019.11.03.* *

Also Published As

Publication number Publication date
KR102602147B1 (en) 2023-11-13

Similar Documents

Publication Publication Date Title
CN112419494B (en) Obstacle detection and marking method and device for automatic driving and storage medium
CN110458112B (en) Vehicle detection method and device, computer equipment and readable storage medium
JP2018163554A (en) Image processing device, image processing method, image processing program, and teacher data generating method
US11818361B2 (en) Data compression apparatus, data compression method, and program
US11841421B2 (en) Synthetic aperture radar image analysis system, synthetic aperture radar image analysis method, and synthetic aperture radar image analysis program
US11803982B2 (en) Image processing device and three-dimensional measuring system
CN112106111A (en) Calibration method, calibration equipment, movable platform and storage medium
KR20200070094A (en) Method and system for generating 3d image of character
KR102229861B1 (en) Depth estimation apparatus and method using low-channel lidar and stereo camera
KR102025113B1 (en) Method for generating an image using a lidar and device for the same
CN116543361A (en) Multi-mode fusion sensing method and device for vehicle, vehicle and storage medium
JP6863634B1 (en) Model generator, learner generator, model generator, and learner generator
CN110738730A (en) Point cloud matching method and device, computer equipment and storage medium
KR20220130512A (en) Method and apparatus for rendering lidar data usning cyclegan
JP2019185295A (en) Image processing device and program for generating two-dimensional image
JP2018116452A (en) Data compression apparatus, data decompressor, control method, program and storage medium
KR102042343B1 (en) Apparatus and method for genaration of depth image based on point-cloud data obtained by 3d scanning and method for identifing 3d object using the same
JP6456084B2 (en) Image processing apparatus, image processing method, and program
CN112487893B (en) Three-dimensional target identification method and system
US11747141B2 (en) System and method for providing improved geocoded reference data to a 3D map representation
JP2016038669A (en) Projection image generation device, projection image generation program and projection image generation method
JPWO2003051034A1 (en) Electronic information embedding method and extraction method, electronic information embedding device and extraction device, and program thereof
US20230230265A1 (en) Method and apparatus for patch gan-based depth completion in autonomous vehicles
CN115082621B (en) Three-dimensional imaging method, device and system, electronic equipment and storage medium
KR20210050366A (en) Apparatus and method for determining camera pose

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant