KR101934297B1 - METHOD FOR DEVELOPMENT OF INTERSECTION RECOGNITION USING LINE EXTRACTION BY 3D LiDAR - Google Patents

METHOD FOR DEVELOPMENT OF INTERSECTION RECOGNITION USING LINE EXTRACTION BY 3D LiDAR Download PDF

Info

Publication number
KR101934297B1
KR101934297B1 KR1020160167855A KR20160167855A KR101934297B1 KR 101934297 B1 KR101934297 B1 KR 101934297B1 KR 1020160167855 A KR1020160167855 A KR 1020160167855A KR 20160167855 A KR20160167855 A KR 20160167855A KR 101934297 B1 KR101934297 B1 KR 101934297B1
Authority
KR
South Korea
Prior art keywords
intersection
vehicle
line segment
obstacle
lidar
Prior art date
Application number
KR1020160167855A
Other languages
Korean (ko)
Other versions
KR20180066711A (en
Inventor
박진배
임도영
김한솔
이창길
이지선
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020160167855A priority Critical patent/KR101934297B1/en
Publication of KR20180066711A publication Critical patent/KR20180066711A/en
Application granted granted Critical
Publication of KR101934297B1 publication Critical patent/KR101934297B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Abstract

3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법이 개시된다. 본 발명의 실시예들은, 라이다 센서(LiDAR)를 이용하여 차량 주변의 환경정보를 인식하는 단계; 환경 정보를 기초로, 기준 반경 범위 내의 장애물을 제거하는 단계; 그리고 선분 추출 기술을 이용하여, 추출된 선분을 이웃한 선분과 비교하여 교차로를 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.An intersection recognition method based on line segment extraction using 3D LiDAR is disclosed. Embodiments of the present invention include: recognizing environmental information around a vehicle using a LiDAR sensor; Removing an obstacle within a reference radius range based on environmental information; And recognizing the intersection by comparing the extracted line segment with neighboring line segments by using a line segment extraction technique.

Description

3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법{METHOD FOR DEVELOPMENT OF INTERSECTION RECOGNITION USING LINE EXTRACTION BY 3D LiDAR}TECHNICAL FIELD [0001] The present invention relates to an intersection recognition method based on segment extraction using 3D LiDAR,

본 발명은 3차원 레이저 스캐너를 이용한 선분추출 기반의 교차로 인식 방법에 관한 것이다.The present invention relates to an intersection recognition method based on line segment extraction using a 3D laser scanner.

차세대자동차 기술로 각광 받고 있는 자율주행자동차에 대한 연구개발이 활발히 이루어지고 있다. 차량의 자율 주행이 가능하기 위해서는 크게 주행환경인식, 경로계획, 경로추적 및 차량제어 기술로 필요하다. 특히, 주행환경인식은 자율 주행의 모든 시스템을 동작시키기 위한 기반이 된다. 왜냐하면, 경로계획, 경로추적 및 차량제어는 차량의 현재위치가 정확하게 인식된 상태에서 가능하기 때문이다. Research and development of self-propelled vehicles, which are attracting attention as a next-generation automobile technology, are being actively carried out. In order to enable autonomous driving of the vehicle, it is necessary to recognize the driving environment, route planning, route tracking, and vehicle control technology. In particular, the recognition of the driving environment is the basis for operating all systems of autonomous driving. This is because path planning, path tracing, and vehicle control are possible with the current position of the vehicle being accurately recognized.

이러한 차량의 현재위치를 판단하는 정보들로, 건물, 횡단보도, 교차로, 차선의 갯수 등이 있을 수 있다. 이 중 교차로는 주행경로의 구간을 연결해주는 노드로써 차량의 현재위치와 주행경로를 매칭하는데 중요한 기준이 된다. The information for determining the current position of such a vehicle may be a building, a crosswalk, an intersection, the number of lanes, and the like. The intersection is an important node for matching the current position of the vehicle with the travel route.

차량의 위치정보를 인식하는 센서로는, 카메라, RADAR, 라이다(LiDAR), GPS 등이 사용된다. 이 중에서도 조도의 영향을 덜 받는 LiDAR는 어두운 밤에도 사용할 수 있는 장점이 있고, 거리 및 높이 정보까지도 측정할 수 있어서 자율주행자동차에 많이 장착된다. 이에, 경로 생성 및 차량의 현재위치를 제공하는 중요한 위치정보인 교차로인식을 3차원 LiDAR를 통해 인식하는 방법들이 활발히 연구개발 되고 있다. A camera, a RADAR, a LiDAR, a GPS, or the like is used as a sensor for recognizing the position information of the vehicle. Among them, LiDAR, which is less influenced by illumination, has advantages of being able to use in dark night, and also can measure distance and height information, so it is mounted on autonomous vehicles. Therefore, methods for recognizing intersection recognition, which is crucial position information providing route generation and present position of a vehicle, through 3D LiDAR are actively researched and developed.

하지만, 기존의 방법들은 자동차, 사람 같은 특정 크기를 갖는 물체들만 인식함에 따라 교차로가 아닌 지점도 교차로로 인식하는 경우가 빈번하였다. However, existing methods recognize only objects having a specific size such as automobiles or people, so that the points other than the intersections are often recognized as intersections.

이에, 본 발명의 일 목적은, LiDAR를 이용하여 차량의 현재위치를 판단하는데 있어서, 교차로의 인식률을 보다 향상시킬 수 있는 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법을 제공하는 데 있다.It is therefore an object of the present invention to provide an intersection recognition method based on segment extraction using three-dimensional LiDAR that can improve the recognition rate of an intersection in determining the current position of a vehicle using LiDAR.

이를 위해, 본 발명의 실시예에 따른 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법은, 라이다 센서(LiDAR)를 이용하여 차량 주변의 환경정보를 인식하는 단계; 환경 정보를 기초로, 기준 반경 범위 내의 장애물을 제거하는 단계; 및선분 추출 기술을 이용하여, 추출된 선분을 이웃한 선분과 비교하여 교차로를 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.To this end, the intersection recognition method based on line segment extraction using 3D LiDAR according to an embodiment of the present invention includes: recognizing environmental information around a vehicle using LiDAR sensor; Removing an obstacle within a reference radius range based on environmental information; And recognizing an intersection by comparing the extracted line segment with neighboring line segments using a line segment extraction technique.

일 실시 예에서, 상기 장애물을 제거하는 단계는, 주행로의 폭과 차량의 크기를 고려하여 기준 반경 범위를 결정하는 단계; 및 결정된 기준 반경 범위 내에 존재하는 모든 장애물을 제거하는 단계를 포함하는 것을 특징으로 한다.In one embodiment, the step of removing the obstacle includes the steps of: determining a reference radius range in consideration of the width of the road and the size of the vehicle; And removing all obstacles present within the determined reference radius range.

일 실시 예에서, 상기 장애물을 제거하는 단계는, 차량의 현재 위치를 중심으로 반경 4m 내에 존재하는 모든 장애물을 제거하는 단계인 것을 특징으로 한다.In one embodiment, the step of removing the obstacle is characterized by removing all obstacles existing within a radius of 4 m around the current position of the vehicle.

일 실시 예에서, 상기 차량 주변의 환경정보를 인식하는 단계는, 라이다 센서(LiDAR)를 통해 입력된 3차원 스캔 데이터를 기초로 2차원 격자지도를 생성하고, 생성된 격자지도상에 차량의 현재 위치를 표시하는 단계를 포함하는 것을 특징으로 한다.In one embodiment, the step of recognizing the environment information of the surroundings of the vehicle includes the steps of generating a two-dimensional grid map based on the three-dimensional scan data input through the LiDAR sensor, And displaying the current position.

일 실시 예에서, 상기 추출된 선분을 이웃한 선분과 비교하여 교차로를 인식하는 단계는, 상기 생성된 격자지도에 정해진 개수의 방사선을 표시하는 단계; 각 방사선이 최초 장애물과 만나는 지점까지의 거리를 산출하는 단계; 산출된 거리의 최대값 및 평균값 정보를 이용하여 다수의 선분들을 추출하고, 추출된 다수의 선분들에 대해 병합과 분리(Split & merge)를 적용하는 단계; 및 최종 추출된 선분들을 이웃한 선분과의 길이차를 비교하여 교차로를 인식하는 단계를 포함하는 것을 특징으로 한다.In one embodiment, the step of comparing the extracted line segments with neighboring line segments to recognize an intersection comprises: displaying a predetermined number of rays on the generated grid map; Calculating a distance to a point at which each radiation meets the first obstacle; Extracting a plurality of lines by using the maximum value and average value information of the calculated distance, and applying a splitting & merge to the extracted lines; And recognizing the intersection by comparing the difference in length between the line segments that are finally extracted and neighboring line segments.

일 실시 예에서, 상기 추출된 선분을 이웃한 선분과 비교하여 교차로를 인식하는 단계는, 이웃한 선분과의 길이차가 최대값의 2/3 배보다 작은 선분은 추출하고 이를 만족하지 않는 선분은 제거하여 교차로를 인식하는 단계를 포함하는 것을 특징으로 한다.In one embodiment, the step of comparing the extracted line segments with neighboring line segments to recognize an intersection includes extracting line segments whose difference in length from neighboring line segments is less than 2/3 times the maximum value, Thereby recognizing the intersection.

일 실시 예에서, 차량이 주행하는 동안, 차량의 주행방향, 주행속도, 및 접근하는 장애물에 관한 정보를 기초로, 장애물 제어 과정 및 선분 추출 과정을 반복하여 교차로 인식을 업데이트하는 단계를 더 포함하는 것을 특징으로 한다.In one embodiment, the method further includes updating the intersection recognition by repeating the obstacle control process and the segment extraction process based on the information on the running direction, the running speed, and the approaching obstacle of the vehicle while the vehicle is running .

이상, 본 발명의 실시 예에 따른 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법에 의하면, 무인차량에 근접하는 장애물로 인해 발생할 수 있는 교차로 인식의 어려움을 해결할 수 있다. 또한, 격자지도에서 추출된 선분들을 각각 이웃한 선분들과 길이 비교하여 교차선 여부를 확인함으로써, 교차로 인식의 인식률을 높일 수 있다. 나아가, 무인차량의 주행경로에 중요한 위치정보가 되는 교차로 인식률을 향상시킴으로써, 자율주행차량이 경로계획, 차량추적, 및 차량제어에 명확한 근거를 제시할 수 있게 되었다.According to the intersection recognition method based on line segment extraction using 3D LiDAR according to the embodiment of the present invention, it is possible to solve the difficulty of recognizing an intersection that may occur due to an obstacle approaching an unmanned vehicle. Also, it is possible to increase the recognition rate of the intersection recognition by comparing the lengths of the lines extracted from the grid map with the neighboring lines and verifying whether the lines intersect each other. Furthermore, by improving the intersection recognition rate, which is important position information in the running route of the unmanned vehicle, the autonomous vehicle can provide a clear basis for route planning, vehicle tracking, and vehicle control.

도 1은 본 발명의 실시 예에 따른 교차로 인식 방법을 설명하기 위한 흐름도이다.
도 2는, 본 발명의 실시 예에 따라, 차량으로부터 반경 4m 내에 존재하는 장애물들을 제어한 모습을 보여주는 도면이다.
도 3a 및 도 3b는 본 발명의 실시 예에 따라, 차량에 근접한 장애물이 있는 경우 선분추출을 한 경우와 하지 않은 것을 비교한 도면이다.
도 4a 및 도 4b는, 본 발명의 실시 예에 따라, 장애물 틈 사이로 추출된 선분이 교차로인지를 판단하는 알로리즘을 정확성을 보여주는 도면이다.
1 is a flowchart illustrating an intersection recognizing method according to an embodiment of the present invention.
2 is a view showing a state in which obstacles existing within a radius of 4 m from a vehicle are controlled according to an embodiment of the present invention.
FIGS. 3A and 3B are diagrams showing the comparison between the case where the line segment is extracted and the case where the line segment is extracted when there is an obstacle close to the vehicle according to the embodiment of the present invention.
FIGS. 4A and 4B are diagrams illustrating accuracy of an algorithm for determining whether an extracted line segment is an intersection according to an embodiment of the present invention. FIG.

먼저, 본 발명의 실시예에 따른 교차로 인식 방법은 무인 차량 이외에도 무인 감시정찰이 필요한 모든 시스템에 적용될 수 있다.First, the intersection recognition method according to the embodiment of the present invention can be applied to all systems requiring an unmanned surveillance reconnaissance in addition to an unmanned vehicle.

또한, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

여기서 설명되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 즉, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구서요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항복들 중의 어느 항목을 포함한다.Terms including ordinals such as first, second, etc. described herein can be used to describe various elements, but the elements are not limited to these terms. That is, the terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second provisional component may also be referred to as a first component. The term " and / or " includes any combination of a plurality of related listed items or any of a plurality of related listed yields.

또한, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may be present in between have. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

또한, 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Also, the terms used in the present application are used only to describe certain embodiments and are not intended to limit the present invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, Should not be construed to preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.

또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Also, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 첨부한 도면들을 참조하여 본 발명에 바람직한 실시 예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. The description will be omitted.

본 발명에서는, 무인차량의 현재위치를 판단하는 중요 정보인 교차로인식을 위해, 3차원 LiDAR를 이용한 교차로 인식 방법을 제안하고자 한다. 이를 위해, 본 발명에서는 무인 차량에 근접하는 장애물 제거 기법과 선분추출을 이용한 교차로인식 기법을 적용하였다. 라이다(LiDAR)는 자기 위치 인식을 위해 사용되는 센서로 3차원 레이저 스캐너를 의미한다. 라이다(LiDAR)는 레이저 빔의 진행방향에 대한 거리 정보를 포함하여 공간에 대한 영상 모델링이 가능한 기술이다. 구체적으로, 대상물을 맞고 반사되는 레이저를 다중배열수신소자를 통해 수집하여 3차원 영상으로 구현하는 것인데, 주로 무인차량의 외부 루프(loff)에 많이 장착된다. 또한, 본 발명에 적용되는 제품 사양으로, 예를 들어 벨로다인 HDL-32L, LMS511-PRO, LMS291-S05 등이 적용될 수 있다.In the present invention, an intersection recognition method using three-dimensional LiDAR is proposed for recognizing an intersection, which is important information for determining the current position of an unmanned vehicle. For this purpose, in the present invention, an intersection recognition method using an obstacle removal technique and a line segment extraction approaching an unmanned vehicle is applied. LiDAR (LiDAR) is a sensor used for magnetic location recognition, which means a 3D laser scanner. LiDAR (LiDAR) is a technology capable of image modeling of space including distance information on the direction of the laser beam. Specifically, the laser beam reflected and reflected by the object is collected through a multi-array receiving element and implemented as a three-dimensional image, which is mainly installed in an outer loop of an unmanned vehicle. As a product specification to be applied to the present invention, for example, Velodyne HDL-32L, LMS511-PRO, LMS291-S05 and the like can be applied.

도 1은 본 발명의 실시 예에 따른 교차로 인식 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating an intersection recognizing method according to an embodiment of the present invention.

먼저, 라이다 센서(LiDAR)를 이용하여 무인차량 주변의 환경정보를 인식하는 단계를 수행한다(S10). 구체적으로, LiDAR를 통해 들어온 3차원 포인트를 입력받아 2차원 형태의 격자지도(grid-map)를 생성할 수 있다. 이때에, 생성된 격자지도의 각각의 셀에는 3차원 포인트의 높이 정보가 포함된다. First, a step of recognizing environmental information around the unmanned vehicle is performed using a LiDAR sensor (S10). Specifically, a three-dimensional point entered through LiDAR can be input to generate a two-dimensional grid-map. At this time, the height information of the three-dimensional point is included in each cell of the generated grid map.

한편, 일 실시 예에서는 라이다 센서(LiDAR) 이외에, 주변 환경정보 수집을 위해 GPS, 인코더, 카메라(전후방, 측위 등), CAN 수신기, 자이로스코프(gyroscope) 등이 더 사용될 수 있다. 이러한 센서들을 통해 수집된 환경정보는 생성된 격자지도에 예를 들어 좌표값 형태로 표시될 수 있다. 예를 들어, 카메라 및 라이다 센서를 통해 교차로의 정지선, 좌우차선 등을 인식하고, 자이로스코프를 통해 교차로에서의 무인차량의 헤딩 방향을 인식할 수 있다.In addition, in one embodiment, a GPS, an encoder, a camera (front and rear, positioning, etc.), a CAN receiver, a gyroscope, and the like may be further used for collecting environmental information in addition to the LiDAR sensor. Environmental information collected through these sensors may be displayed in the form of coordinate values, for example, in the generated grid map. For example, it is possible to recognize the stop line of the intersection, the left and right lanes and the like through the camera and the Lidar sensor, and recognize the heading direction of the unmanned vehicle at the intersection through the gyroscope.

다음, 수집된 환경 정보를 기초로, 무인 차량을 중심으로 기준 반경 범위 내의 장애물을 모두 제거하는 단계를 수행한다(S20). 구체적으로, 무인차량의 주행경로에서, 주행 중에 근접하는 장애물을 모두 제거하는 방법을 사용한다. 특히, 정해진 크기를 만족하는 장애물뿐만 아니라 그보다 크기가 작거나 불특정 크기를 갖거나, 위치가 고정되지 않고 이동하는 모든 장애물을 제거하는 것을 특징으로 한다.Next, based on the collected environment information, a step of removing all obstacles within a reference radius range around the unmanned vehicle is performed (S20). Specifically, a method of removing all the obstacles in the running route of the unmanned vehicle during traveling is used. In particular, the present invention is characterized by removing not only an obstacle satisfying a predetermined size, but also all obstacles that are smaller in size, have an unspecified size, or are not fixed in position.

기존에는, 자동차, 사람 등과 같은 특정 크기를 갖는 사물만을 인식하였다. 하지만, 도로 위에는 신호등, 도로안내표지판, 도로 위로 뻗은 나뭇가지와 같은 불특정한 크기를 갖는 장애물들이 많이 존재한다. 따라서, 기존방법으로는 제거하지 못하였던 장애물들을 주행로의 폭과 무인차량의 크기를 고려하여 제거하는 단계를 수행한다. 이와 관련하여, 도 2는, 차량으로부터 반경 4m 내에 존재하는 모든 장애물들을 제어한 모습을 보여주고 있다.In the past, only objects with specific sizes such as automobiles, people, etc. were recognized. On the road, however, there are many obstacles of unspecified size such as a traffic light, a road sign, and branches spread out on the road. Therefore, the obstacles that can not be removed by the conventional method are removed in consideration of the width of the travel route and the size of the unmanned vehicle. In this connection, FIG. 2 shows a state in which all obstacles existing within a radius of 4 m from the vehicle are controlled.

예를 들어, 도로의 폭은 대략 3.3m에서 3.6m의 크기를 갖기 때문에, 도 1과 같이 차량으로부터 반경 4m에 들어있는 모든 장애물들을 제거하여 교차로인식의 인식률을 높일 수 있다.For example, since the width of the road is approximately 3.3 m to 3.6 m, it is possible to increase the recognition rate of intersection recognition by removing all obstacles having a radius of 4 m from the vehicle as shown in Fig.

그런 다음, 선분 추출 기술을 이용하여 추출된 복수의 선분들을 각각 이웃한 선분들과 길이 비교하여 교차로를 인식하는 단계를 수행한다(S30).Then, the step of recognizing the intersection is performed by comparing lengths of the plurality of line segments extracted using the line segment extraction technique with neighboring line segments (S30).

구체적으로, 라이더 센서(LiDAR)으로부터 획득된 스캔 데이터 예를 들어, 1번부터 36번 순서대로 36개의 방사선을 격자지도에 그어, 첫 번째 장애물과 만나는 지점까지의 거리를 측정한다. 다음, 측정된 거리의 최대값과 평균값 정보를 이용하여 다수의 선분을 추출한다. 이때에, 추출된 선분과 선분의 번호차이를 이용하여 병합과 분리(Split & merge)를 수행한다. 선분의 병합과 분리는, 컴퓨터 비전 분야에서 Pavlidis와 Horowitz(Segmentation of plane curves, IEEE Transaction on Computers, Vol. C23, no. 8, pp. 860-870, 1974)에 의하여 개발되었으며, 최근에도 Borges, Aldon(Line extraction in 2D range images for mobile robots, Journal of Intelligent and Robotic System, vol. 40, pp. 267-297, 2004) 등 여러 연구실에서 널리 사용되고 있다. 따라서, 여기서는 구체적인 설명은 생략하겠다.Specifically, the scan data obtained from the LiDAR sensor (LiDAR), for example, 36 rays in the order of 1 to 36 are drawn on the grid map, and the distance to the point where the first obstacle meets is measured. Next, a plurality of line segments are extracted using the maximum value and the average value information of the measured distances. At this time, the split and merge are performed using the difference between the extracted line segment and the line segment number. The merging and separation of segments was developed by Pavlidis and Horowitz (Segmentation of plane curves, IEEE Transaction on Computers, Vol. C23, no. 8, pp. 860-870, 1974) Aldon (Line extraction in 2D range images for mobile robots, Journal of Intelligent and Robotic Systems, vol. 40, pp. 267-297, 2004). Therefore, a detailed description will be omitted here.

일 실시 예에서는, 선분의 병합과 분리의 계산 복잡도를 감소하기 위해 스캔 데이터의 입력 순서와 동일 방향(순방향)으로 선분들을 추출한 다음, 스캔 데이터의 입력 순서와 반대방향(역방향)으로 선분들의 끝단에 스캔 데이터가 포함될 선분을 결정하고, 열외 데이터를 갱신하는 방법을 채택함으로써, 스캔 데이터의 개수 N에 비례하는 계산 복잡도 이하로 감소시킬 수 있다.In one embodiment, line segments are extracted in the same direction (forward direction) as the input sequence of scan data in order to reduce the computational complexity of line segment merging and segmentation, and line segments in the opposite direction (reverse direction) It is possible to reduce the computation complexity to be less than the computational complexity proportional to the number N of scan data by adopting a method of determining a line segment to include the scan data at the end and updating the non-linear data.

다음, 이와 같이 병합 및 분리를 통해 최종적으로 추출된 선분을 이웃한 선분과의 길이차를 이용하여 교차로가 아닌 곳에서 교차로로 인식한 선분을 필터링한다. 구체적으로, 추출된 선분이 교차로에서 추출된 것인지 또는 근접하는 장애물로 인해 추출된 것인지 정확하게 분별하기 위해, 이웃한 선분과의 길이차이가 최대값의 2/3 배보다 작으면 추출하고, 그렇지 않으면 필터링하여 제거한다. 그러면, 근접하는 장애물로 인해 교차로 아닌 선분이 교차로로 오인식되는 문제가 해소될 수 있다.Next, by using the difference in length between the line segments extracted through merging and separation, the line segment recognized as an intersection is filtered. Specifically, in order to accurately discriminate whether the extracted line segment is extracted from an intersection or an adjacent obstacle, extraction is performed if the difference in length from the neighboring line segment is smaller than 2/3 times the maximum value, . Then, the problem that the line segment other than the intersection is mistaken as the intersection due to the adjacent obstacle can be solved.

이와 관련하여, 도 3a 및 도 3b는 차량에 근접한 장애물이 있는 경우 선분추출을 한 경우와 하지 않은 것을 비교한 도면이다. In this regard, FIGS. 3A and 3B are diagrams showing the comparison between the case where the line segment is extracted and the case where the line segment is not extracted when there is an obstacle close to the vehicle.

도 3a는 본 발명에서 제안한 방법이고, 도 3b에 도시된 도면이 기존방법을 이용한 교차로인식이다. 도 3a 및 도 3b에서 확인할 수 있듯이 무인차량에 근접하는 장애물이 있을 때, 도 3a에서는 선분추출(예, 7시 방향의 노란색 선분)이 제대로 이루어지고, 도 3b에서는 선분추출이 이루어지지 않았다(예, 7시방향에 아무런 선분이 검출되지 않음).FIG. 3A is a method proposed by the present invention, and the diagram shown in FIG. 3B is an intersection recognition using an existing method. As shown in FIGS. 3A and 3B, when there is an obstacle approaching the unmanned vehicle, segment extraction (for example, a yellow line segment at 7 o'clock direction) is performed properly in FIG. 3A and line segment extraction is not performed in FIG. 3B , No line segment is detected at 7 o'clock direction).

또한, 일 실시 예에서는 무인차량의 주행동안, 차량의 주행방향 및 주행속도를 기초로 접근하는 이동 장애물의 상대속도와 방향을 고려하여 전술한 장애물 제거과정 및 선분추출 과정을 실시간으로 업데이트할 수 있다. 이를 위해 전술한 과정들의 피드백을 수행할 수 있다. 또한, 그에 따라 새로운 경로를 탐색하여 격자지도상에 표시하거나 격자지도를 업데이트할 수 있다. Also, in one embodiment, the obstacle removing process and the segment extracting process described above can be updated in real time while considering the relative speed and direction of the moving obstacle approaching on the basis of the traveling direction and the traveling speed of the vehicle during running of the unmanned vehicle . For this, feedback of the above-described processes can be performed. Further, a new route can be searched for and displayed on the grid map or the grid map can be updated accordingly.

또한, 일 실시 예에서는 교차로로 인식된 후, 무인차량이 교차로를 탈출할 때까지 무인차량에 근접하는 차량의 상대속도와 무인차량의 진행방향(예, 4지 교차로인 경우 동쪽, 서쪽, 남쪽, 북쪽 등의 진출방향을 의미함), 및 설정된 차량속도와 사용자 설정시간을 기초로, 교차로 내에서의 충돌 여부를 예상할 수 있다. 이러한 경우, 근접하는 다른 차량들의 진행방향, 차량 속도, 및 교차로 중심 지역까지 소요되는 시간을 기초로 충돌추정시간(TTC)를 계산하여 경고해줄 수 있다.Further, in one embodiment, after recognizing the intersection, the relative speed of the vehicle approaching the unmanned vehicle until the unmanned vehicle escapes the intersection and the direction of travel of the unmanned vehicle (e.g., east, west, south, North, etc.), and based on the set vehicle speed and user set time, it is possible to predict whether or not the vehicle will collide within an intersection. In such a case, the collision estimation time (TTC) may be calculated and alerted based on the traveling direction of other nearby vehicles, the vehicle speed, and the time taken to the intersection center area.

또한, 일 실시 예에서는, 교차로의 가변신호를 예상 및 인식하여, 이동 장애물이나 다른 차량과의 충돌 여부 및 충돌추정시간(TTC)을 업데이트할 수도 있다.Also, in one embodiment, a variable signal at an intersection may be anticipated and recognized to update whether or not there is a conflict with a moving obstacle or another vehicle and a collision estimated time (TTC).

이상에서 설명한 바와 같이 본 발명에서는 무인차량에 근접하는 장애물이 있을 때 이를 정확하게 선분으로 추출할 수 있다. 그에 따라, 교차로인식의 인식률을 향상시킬 수 있다. As described above, in the present invention, when there is an obstacle approaching the unmanned vehicle, it can be accurately extracted as a line segment. Accordingly, the recognition rate of intersection recognition can be improved.

도 4a 및 도 4b는 본 발명의 실시 예에 따라, 장애물 틈 사이로 추출된 선분이 교차로인지를 판단하는 알로리즘을 정확성을 보여주는 도면이다. FIGS. 4A and 4B are diagrams illustrating the accuracy of the algorithm for determining whether an extracted line segment is an intersection according to an embodiment of the present invention. FIG.

도 4a 및 도 4b를 비교하면, 본 발명에서 제안한 방법을 이용하여 장애물 틈 사이로 추출 된 선분을 교차로인지 아닌지를 판단하는 알고리즘이 적용되었을 때의 유리한 효과를 확인할 수 있다. 도 4a에 도시된 도면은 본 발명의 알로리즘이 적용된 것이고, 도 4b에 도시된 도면은 기존방법을 적용하여 교차로를 잘못 인식(예, 4시방향의 빨간색 선분이 다른 선분들(12시, 9시, 6시방향의 빨간색 선분들)과 함께 교차로로 인식됨)된 것을 보여주고 있다. 즉, 도 4a에 도시된 도면에서는 제안된 알고리즘의 적용을 통해 근접하는 장애물로 인해 추출된 선분이 필터링(예, 4시방향의 노란색 선분은 교차로로 인식되지 않음)된 것을 볼 수 있다.Comparing FIGS. 4A and 4B, it can be seen that an advantageous effect is obtained when an algorithm for determining whether or not intersections are extracted between obstacle gaps is applied using the method proposed by the present invention. The diagram shown in FIG. 4A is a diagram to which the algorithm of the present invention is applied, and the diagram shown in FIG. 4B shows a case where an intersection is erroneously recognized by applying an existing method (for example, City, red line segments at 6 o'clock) are recognized as an intersection). That is, in the diagram shown in FIG. 4A, it can be seen that the extracted line segments due to the neighboring obstacles are filtered through the application of the proposed algorithm (for example, the yellow line segments in the 4: 00 direction are not recognized as intersections).

이상에서 살펴본 바와 같이, 본 발명의 실시 예에 따른 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법에 의하면, 무인차량에 근접하는 장애물로 인해 발생할 수 있는 교차로 인식의 어려움을 해결할 수 있다. 또한, 격자지도에서 추출된 선분들을 각각 이웃한 선분들과 길이 비교하여 교차선 여부를 확인함으로써, 교차로 인식의 인식률을 높일 수 있다. 나아가, 무인차량의 주행경로에 중요한 위치정보가 되는 교차로 인식률을 향상시킴으로써, 자율주행차량이 경로계획, 차량추적, 및 차량제어에 명확한 근거를 제시할 수 있게 되었다.As described above, according to the intersection recognition method based on line segment extraction using 3D LiDAR according to the embodiment of the present invention, it is possible to solve the difficulty of recognizing an intersection that may occur due to an obstacle approaching an unmanned vehicle. Also, it is possible to increase the recognition rate of the intersection recognition by comparing the lengths of the lines extracted from the grid map with the neighboring lines and verifying whether the lines intersect each other. Furthermore, by improving the intersection recognition rate, which is important position information in the running route of the unmanned vehicle, the autonomous vehicle can provide a clear basis for route planning, vehicle tracking, and vehicle control.

또한, 이상에서는 본 발명의 바람직한 실시 예를 예시적으로 설명하였으나, 본 발명의 범위는 이와 같은 특정 실시 예에만 한정되는 것은 아니므로, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다. 또한, 여기에서 기술된 본 발명에 따른 방법은 소프트웨어, 하드웨어, 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 본 발명에 따른 방법은 저장매체(예, 단말내부 메모리, 플래쉬 메모리, 하드디스크, 등)에 저장될 수 있고, 프로세서(예, 단말 내부 마이크로 프로세서)에 의해 실행될 수 있는 소프트웨어 프로그램 내에 포함되는 코드들 또는 명령어들로 구현될 수 있다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation, And may be modified, changed, or improved in various forms. Further, the method according to the present invention described herein can be implemented in software, hardware, or a combination thereof. For example, a method according to the present invention may be stored in a software program that can be stored in a storage medium (e.g., terminal internal memory, flash memory, hard disk, etc.) and executed by a processor May be implemented with embedded codes or instructions.

Claims (7)

라이다 센서(LiDAR)를 이용하여 차량 주변의 환경정보를 인식하는 단계;
환경 정보를 기초로, 기준 반경 범위 내의 장애물을 제거하는 단계; 및
선분 추출 기술을 이용하여, 추출된 선분을 이웃한 선분과 비교하여 교차로를 인식하는 단계를 포함하며,
상기 추출된 선분을 이웃한 선분과 비교하여 교차로를 인식하는 단계는,
격자지도에 정해진 개수의 방사선을 표시하는 단계;
각 방사선이 최초 장애물과 만나는 지점까지의 거리를 산출하는 단계;
산출된 거리의 최대값 및 평균값 정보를 이용하여 다수의 선분들을 추출하고, 추출된 다수의 선분들에 대해 병합과 분리를 적용하는 단계; 및
최종 추출된 선분들을 이웃한 선분과의 길이차를 비교하여 교차로를 인식하는 단계를 포함하는 것을 특징으로 하는 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법.
Recognizing environmental information around the vehicle using LiDAR sensor;
Removing an obstacle within a reference radius range based on environmental information; And
And recognizing the intersection by comparing the extracted line segment with neighboring line segments by using a line segment extraction technique,
Comparing the extracted line segments with neighboring line segments to recognize an intersection,
Displaying a predetermined number of radiations on the grid map;
Calculating a distance to a point at which each radiation meets the first obstacle;
Extracting a plurality of lines using the calculated maximum value and the average value information, and applying merging and separation to the extracted lines; And
And recognizing the intersection by comparing the lengths of the extracted line segments with neighboring line segments. The intersection recognition method is based on line segment extraction using 3D LiDAR.
제1항에 있어서,
상기 장애물을 제거하는 단계는,
주행로의 폭과 차량의 크기를 고려하여 기준 반경 범위를 결정하는 단계; 및
결정된 기준 반경 범위 내에 존재하는 모든 장애물을 제거하는 단계를 포함하는 것을 특징으로 하는 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법.
The method according to claim 1,
The step of removing the obstacle includes:
Determining a reference radius range in consideration of the width of the road and the size of the vehicle; And
And removing all the obstacles existing within the determined reference radius range based on the extracted intersection.
제2항에 있어서,
상기 장애물을 제거하는 단계는, 차량의 현재 위치를 중심으로 반경 4m 내에 존재하는 모든 장애물을 제거하는 단계인 것을 특징으로 하는 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법.
3. The method of claim 2,
Wherein the step of removing the obstacle is a step of removing all obstacles existing within a radius of 4m around the current position of the vehicle, wherein the intersection recognition method is based on line segment extraction using 3D LiDAR.
제1항에 있어서,
상기 차량 주변의 환경정보를 인식하는 단계는,
라이다 센서(LiDAR)를 통해 입력된 3차원 스캔 데이터를 기초로 2차원 격자지도를 생성하고, 생성된 격자지도상에 차량의 현재 위치를 표시하는 단계를 포함하는 것을 특징으로 하는 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법.
The method according to claim 1,
The step of recognizing the environmental information of the surroundings of the vehicle includes:
Generating a two-dimensional grid map based on the three-dimensional scan data input through the LiDAR sensor, and displaying the current position of the vehicle on the generated grid map. An Intersection Recognition Method Based on Segment Extraction Using.
삭제delete 제1항에 있어서,
상기 추출된 선분을 이웃한 선분과 비교하여 교차로를 인식하는 단계는,
이웃한 선분과의 길이차가 최대값의 2/3 배보다 작은 선분은 추출하고 이를 만족하지 않는 선분은 제거하여 교차로를 인식하는 단계를 포함하는 것을 특징으로 하는 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법.
The method according to claim 1,
Comparing the extracted line segments with neighboring line segments to recognize an intersection,
Extracting a line segment whose length difference from the neighboring line segment is smaller than 2/3 times the maximum value and recognizing the intersection line by eliminating the line segment that does not satisfy the line segment. Recognition method.
제1항에 있어서,
차량이 주행하는 동안, 차량의 주행방향, 주행속도, 및 접근하는 장애물에 관한 정보를 기초로, 장애물 제어 과정 및 선분 추출 과정을 반복하여 교차로 인식을 업데이트하는 단계를 더 포함하는 것을 특징으로 하는 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법.
The method according to claim 1,
Further comprising the step of updating the intersection recognition by repeating the obstacle control process and the segment extraction process based on the information about the running direction, the traveling speed, and the approaching obstacle of the vehicle while the vehicle is traveling A Cross - Section Recognition Method Based on Segment Extraction Using 3D LiDAR.
KR1020160167855A 2016-12-09 2016-12-09 METHOD FOR DEVELOPMENT OF INTERSECTION RECOGNITION USING LINE EXTRACTION BY 3D LiDAR KR101934297B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160167855A KR101934297B1 (en) 2016-12-09 2016-12-09 METHOD FOR DEVELOPMENT OF INTERSECTION RECOGNITION USING LINE EXTRACTION BY 3D LiDAR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160167855A KR101934297B1 (en) 2016-12-09 2016-12-09 METHOD FOR DEVELOPMENT OF INTERSECTION RECOGNITION USING LINE EXTRACTION BY 3D LiDAR

Publications (2)

Publication Number Publication Date
KR20180066711A KR20180066711A (en) 2018-06-19
KR101934297B1 true KR101934297B1 (en) 2019-01-02

Family

ID=62790524

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160167855A KR101934297B1 (en) 2016-12-09 2016-12-09 METHOD FOR DEVELOPMENT OF INTERSECTION RECOGNITION USING LINE EXTRACTION BY 3D LiDAR

Country Status (1)

Country Link
KR (1) KR101934297B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114475642B (en) * 2020-11-12 2023-12-05 上海海拉电子有限公司 Automatic driving-oriented intersection detection early warning method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150038776A (en) * 2013-09-30 2015-04-09 국민대학교산학협력단 Auto parking system using infra sensors

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Chen Tongtong et. al. "LIDAR-based Long Range Road Intersection Detection", 2011 Sixth International Conference on Image and Graphics(2011.08.)

Also Published As

Publication number Publication date
KR20180066711A (en) 2018-06-19

Similar Documents

Publication Publication Date Title
Badue et al. Self-driving cars: A survey
CN111670468B (en) Moving body behavior prediction device and moving body behavior prediction method
Asvadi et al. 3D object tracking using RGB and LIDAR data
JP6559535B2 (en) Obstacle map generation device, method thereof, and program thereof
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
Bahraini et al. SLAM in dynamic environments via ML-RANSAC
US11188091B2 (en) Mesh decimation based on semantic information
US20190147320A1 (en) "Matching Adversarial Networks"
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
WO2020236720A1 (en) Localization using semantically segmented images
Khatab et al. Vulnerable objects detection for autonomous driving: A review
US20210182596A1 (en) Localization using semantically segmented images
US10884428B2 (en) Mesh decimation techniques and validation
Lee et al. Moving object detection and tracking based on interaction of static obstacle map and geometric model-free approachfor urban autonomous driving
JP2019527832A (en) System and method for accurate localization and mapping
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
Hervieu et al. Road side detection and reconstruction using LIDAR sensor
Jaspers et al. Multi-modal local terrain maps from vision and lidar
CN110567465B (en) System and method for locating a vehicle using accuracy specifications
Dieterle et al. Sensor data fusion of LIDAR with stereo RGB-D camera for object tracking
Adachi et al. Visual navigation using a webcam based on semantic segmentation for indoor robots
CN114998276B (en) Robot dynamic obstacle real-time detection method based on three-dimensional point cloud
Chetan et al. An overview of recent progress of lane detection for autonomous driving
Lee et al. A geometric model based 2D LiDAR/radar sensor fusion for tracking surrounding vehicles
Vaquero et al. Improving map re-localization with deep ‘movable’objects segmentation on 3D LiDAR point clouds

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant