KR20150061445A - Apparatus for building 3D Load map and recognizing lane - Google Patents

Apparatus for building 3D Load map and recognizing lane Download PDF

Info

Publication number
KR20150061445A
KR20150061445A KR1020130145580A KR20130145580A KR20150061445A KR 20150061445 A KR20150061445 A KR 20150061445A KR 1020130145580 A KR1020130145580 A KR 1020130145580A KR 20130145580 A KR20130145580 A KR 20130145580A KR 20150061445 A KR20150061445 A KR 20150061445A
Authority
KR
South Korea
Prior art keywords
lane
map
dimensional
road
data
Prior art date
Application number
KR1020130145580A
Other languages
Korean (ko)
Inventor
이장명
김현우
황요섭
김윤기
한종호
이동혁
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Priority to KR1020130145580A priority Critical patent/KR20150061445A/en
Publication of KR20150061445A publication Critical patent/KR20150061445A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

The present invention relates to an apparatus for building a three-dimensional map and recognizing a lane. According to an embodiment of the present invention, the apparatus for building a three-dimensional map and recognizing a lane comprises: a laser scanner for collecting distance data and angle data respectively; a data processing unit for generating two-dimensional information using the angle data and distance data; a map building unit for building a three-dimensional map by combining the two-dimensional information and information such as a location, a position and the like of an actuator; a lane characteristic point extraction unit for extracting characteristic points of a lane from the three-dimensional map; and a curvature estimation unit for estimating a curved path through a curvature algorithm when a road lane is blocked.

Description

3차원 도로 지도 작성 및 차선인식 장치{Apparatus for building 3D Load map and recognizing lane}Technical Field [0001] The present invention relates to a three-

본 발명은 3차원 도로 지도 작성 및 차선인식 장치에 관한 것으로서, 더욱 상세하게는, 주행 가능한 구동체에 의해 3차원 도로 지도를 작성하면서도 차선을 인식할 수 있는 3차원 도로 지도 작성 및 차선인식 장치에 관한 것이다.More particularly, the present invention relates to a three-dimensional road map creation and lane recognition apparatus capable of recognizing a lane while generating a three-dimensional road map by a driveable drive body .

지난 수십 년 동안 자동차의 안전시스템은 크게 발전되어 왔다. 60년대의 안전벨트를 시작으로 90년대에는 승객의 안전성을 증가시키기 위한 Air Bag, ABS(Anti-lock brake system), EPS(Electric Power Steering) 등 전기적인 시스템의 영향을 주로 받게 된다. 그러나 이러한 시스템들은 자동차 시스템의 내부 상태에 따라 동작하기 때문에 수동적인 안전성만을 제공한다. 최근 미국, 일본 등을 선진국을 중심으로 보다 편안하고 풍요로운 삶을 영위하기 위해 지능화되고 고급스러운 시스템의 구축을 위해 많은 연구들을 하고 있다. Over the past several decades, automotive safety systems have evolved significantly. Starting with the seat belt in the 1960s, it was mainly influenced by electrical systems such as air bag, anti-lock brake system (ABS) and electric power steering (EPS) in order to increase the safety of passengers. However, since these systems operate according to the internal state of the vehicle system, they provide only passive safety. Recently, the United States and Japan have been conducting a lot of researches to build intelligent and luxurious systems in order to lead a more comfortable and affluent life in developed countries.

이러한 시스템을 우리는 능동형 안전 차량(ASV: Advanced Safety Vehicle) 라고 한다. ASV는 운전자의 사고를 미연에 방지하기 위한 시스템으로 운전자에게 사고의 위험성을 알려줌으로써 운전자가 능동적으로 대처하는 기술이다. 이것은 각종 지능형 안전기술을 차량에 적용하여 운전자의 주행 안정성과 편의성을 극대화시킨 인공지능형 첨단 안전차량이다. This system is called an Advanced Safety Vehicle (ASV). The ASV is a system that prevents the accident of the driver beforehand and informs the driver of the risk of the accident so that the driver actively copes. This is an artificial intelligent advanced safety vehicle that maximizes driver's stability and convenience by applying various intelligent safety technologies to vehicles.

ASV의 핵심 기술로는 차량충돌 경보시스템과 차선인지 시스템이 대표적이다. 차량충돌 경보시스템은 전후방 차간거리 감지 센서와 앞차와 뒤차의 거리감지로 충돌 될 가능성이 생길 경우 이를 운전자에게 알려주는 기술이다. 차선 이탈경보 시스템은 차선 이탈 감지 센서로 자동차의 주행차선을 체크하며 차선이탈이 예상되면 경보음으로 운전자에게 알려주는 시스템이다. ASV에서 전방 장애물을 인지 하기 위해 초음파 센서 및 RADAR로 차선을 인지하고 신호등과 같은 도로 상황을 인지하기 위한 Vision System, LRF 등이 주로 사용되는 센서다. 인지한 정보를 바탕으로 장애물인지, 지도 작성, 주행 등에 이용하며 주행 시에 위치 추정 및 충돌 방지, 경로 추종, 차선 인식 등에 이용된다. ASV's core technologies are the collision warning system and the lane recognition system. The vehicle collision warning system is a technology that notifies the driver when there is a possibility of a collision due to the front-to-rear distance sensor and the distance detection of the front and rear cars. The lane departure warning system checks the driving lane of the car with the lane departure detection sensor and informs the driver of the lane departure when the lane departure is expected. Vision System, LRF, etc. are mainly used to recognize the lane by ultrasonic sensor and RADAR to recognize the obstacle ahead in ASV, and to recognize the road situation such as traffic light. Based on the perceived information, it is used for obstacle recognition, mapping, and driving. It is also used for position estimation and collision avoidance, route tracking, lane recognition in driving.

ASV의 핵심 기술 중 차선인지를 위한 대표적인 기술로 Vision System과 레이저 센서를 이용한 기술을 들 수 있다. Vision System은 저가의 장비로도 풍부한 양의 도로의 정보를 추출할 수 있는 장점이 있다. 하지만 조도조건에 매우 민감하기 때문에 빛에 의해 생기는 그림자나 조도 차이로 생기는 빛의 saturation등으로 처리가 매우 어렵다. 그리고 앞선 연구에서는 vision기반의 차선인지에 있어 다양한 도로의 특징에 따라 hough, template matching, splines, polynomial estimation 등 다양한 연구로 접근하였지만, 곡선 도로형태에 따라서 취약한 단점을 가지고 있다. 이를 보완하기 위해 horizontal and vertical clothoidal curves, polynomial curve와 splines의 특성을 고려한 도로 모델링으로 접근하여 연구를 진행해오고 있지만, 이러한 방법도 잡음이나 false detection에 민감하여 잡음을 제거하거나 인식의 오류를 줄이기 위한 필터를 사용해야 하는 등의 정교한 제어가 필요하다. 뿐만 아니라 안정적으로 인식하기 위해 영상의 frame 수를 일정 수 이상 유지해야 하기 때문에 정교한 제어와 안정적인 frame 수를 유지하는 것은 큰 부담이 된다. 그리고 짙은 안개가 낀 날씨와 같이 Vision System은 날씨의 영향 또한 많이 받는다. 짙은 안개는 Vision System의 시야를 흐리게 하기 때문에 도로 정보를 판단하는 것이 어려울 뿐만 아니라 차선의 인식 또한 힘들게 된다.One of the core technologies of ASV is lane recognition, which is based on Vision System and laser sensor technology. The Vision System has the advantage that it can extract information of abundant amount of roads with low cost equipment. However, since it is very sensitive to the illumination conditions, it is very difficult to process due to the saturation of the light caused by the light or the difference of the illumination. In the previous research, various approaches such as hough, template matching, splines, and polynomial estimation have been proposed based on the characteristics of various roads in vision-based lane recognition. In order to compensate for this problem, we have been studying road modeling considering the characteristics of horizontal and vertical clothoid curves, polynomial curves and splines. However, this method is also sensitive to noise or false detection, And so on. In addition, since it is necessary to keep the number of frames of image more than a certain number in order to stably recognize, it is a great burden to maintain sophisticated control and stable frame number. And, like the misty weather, the Vision System is also influenced by the weather. Since dense fogs obscure the vision of the Vision System, it is difficult to judge the road information, and it is also difficult to recognize the lane.

KRKR 10-044038710-0440387 B1B1

본 발명의 목적은 주변 환경의 영향을 받지 않고 차선을 인식하여 주행을 하도록 하는 3차원 도로 지도 작성 및 차선인식 장치를 제공하는데 있다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a three-dimensional road map creation and lane recognition apparatus for recognizing a lane without being influenced by the surrounding environment and running the lane.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood from the following description.

전술한 목적을 달성하기 위한, 본 발명의 일면에 따른 3차원 도로 지도 작성 및 차선인식 장치는 거리 데이터와 각도 데이터를 각각 수집하는 레이저 스캐너와, 거리 각도 데이터와 거리 데이터를 이용하여 2차원 정보를 생성하는 데이터 처리부와, 정보와 구동체의 위치와 자세 등의 정보를 결합하여 3차원 지도를 형성하는 지도 형성부와, 3차원 지도로부터 도로 차선의 특징점을 추출하는 차선 특징점 추출부와, 도로 차선이 끊어진 경우 커버쳐 알고리즘을 통해 곡선 경로를 추정하는 곡률 추정부를 포함한다.According to an aspect of the present invention, there is provided a three-dimensional road map generating and lane recognizing apparatus including a laser scanner for collecting distance data and angle data, A lane feature point extracting unit for extracting feature points of a road lane from a three-dimensional map, a lane feature point extracting unit for extracting feature points of a road lane from the three-dimensional map, And a curvature estimator for estimating a curved path through the cover-collapse algorithm when the frame collapses.

본 발명에 따르면, 3차원 도로 지도 작성 및 차선인식 장치는 레이저 스캐너를 통해 2차원 정보를 획득하고 IMU(Inertia Measurement Unit)과 엔코더를 통해 구동체의 위치와 자세 등의 정보를 결합하여 3차원 지도를 형성한 후, 3차원 지도에서 도로의 아스팔트와 차선의 반사율에 의해 아스팔트가 차선보다 올라와 있는 형태의 지도를 형성하여 차선의 특징점을 추출하여 차선을 인식할 수 있다.According to the present invention, a three-dimensional road map making and lane recognizing device obtains two-dimensional information through a laser scanner and combines information such as the position and attitude of the driving body with an IMU (Inertia Measurement Unit) A map is formed in which the asphalt is higher than the lane by the reflectance of the asphalt and the lane of the road in the three-dimensional map, and the lane can be recognized by extracting the characteristic points of the lane.

또한, 점선 차선의 경우 커버쳐 알고리즘(곡률 검출 알고리즘)을 이용하여 점선 차선의 끊어진 부분을 예측하여 구동체가 직선차선, 점선차선, 점선 곡선차선 등을 모두 주행할 수 있게 한다는 장점이 있다.Also, in the case of a dotted lane, it is advantageous that the driver can predict the broken portion of the dotted lane by using the cover-shooter algorithm (curvature detection algorithm) so that the driver can drive the straight lane, the dotted lane, and the dotted lane.

도 1은 본 발명의 실시예에 따른 LRF의 스캔 방법을 나타내는 도면.
도 2는 본 발명의 실시예에 따른 지도 데이터의 좌표변환을 설명하기 위한 도면.
도 3은 본 발명의 실시예에 따른 3차원 도로 환경 지도를 나타내는 도면.
도 4는 본 발명의 실시예에 따른 점선 차선 지도를 나타내는 도면.
도 5는 점선 차선 지도에 있어서, 잡음이 포함된 점선 차선의 특징점을 나타내는 도면.
도 6은 본 발명의 실시예에 따른 점선 차선의 특징점 잡음 제거를 설명하기 위한 도면.
도 7은 본 발명의 실시예에 따른 차선의 특징점 추출을 설명하기 위한 도면.
도 8은 본 발명의 실시예에 따른 커버쳐 알고리즘을 이용한 곡선 추정을 설명하기 위한 도면.
도 9는 본 발명의 실시예에 따른 시스템 구성을 설명하기 위한 도면.
도 10은 본 발명의 실시예에 따른 로봇의 구조를 나타내는 도면.
도 11은 본 발명의 실시예에 따른 추종제어기의 구조를 나타내는 도면.
도 12는 본 발명의 실시예에 따른 차선 추종 실험 결과를 나타내는 도면.
도 13은 본 발명의 실시예에 따른 추종 오차를 나타내는 도면.
1 is a diagram illustrating a scanning method of an LRF according to an embodiment of the present invention.
2 is a diagram for explaining coordinate transformation of map data according to an embodiment of the present invention;
3 is a view showing a three-dimensional road environment map according to an embodiment of the present invention;
4 is a view showing a dotted lane map according to an embodiment of the present invention;
Fig. 5 is a diagram showing characteristic points of a dotted lane including noises in a dotted lane map; Fig.
6 is a view for explaining feature point noise elimination in a dotted lane according to an embodiment of the present invention;
FIG. 7 is a diagram for explaining minutiae extraction of a lane according to an embodiment of the present invention; FIG.
FIG. 8 is a diagram for explaining curve estimation using a covercher algorithm according to an embodiment of the present invention; FIG.
9 is a diagram for explaining a system configuration according to an embodiment of the present invention.
10 is a view showing a structure of a robot according to an embodiment of the present invention.
11 illustrates a structure of a tracking controller according to an embodiment of the present invention.
12 is a diagram showing a result of a lane-following test according to an embodiment of the present invention.
13 shows a tracking error according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.
BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described below, but may be embodied in various different forms, and these embodiments are not intended to be exhaustive or to limit the scope of the present invention to the precise form disclosed, It is provided to inform the person completely of the scope of the invention. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 목적은 주변 환경의 영향을 받지 않고 차선을 인식하여 주행을 하도록 하는데 있다. 이러한 목적을 위해, 본 발명에서는 레이저 스캐너를 통해 2차원 정보를 획득하고 IMU(Inertia Measurement Unit)과 엔코더를 통해 구동체의 위치와 자세 등의 정보를 결합하여 3차원 지도를 형성한 후, 3차원 지도에서 도로의 아스팔트와 차선의 반사율에 의해 아스팔트가 차선보다 올라와 있는 형태의 지도를 형성하여 차선의 특징점을 추출하여 차선을 인식한다. 또한, 점선 차선의 경우 커버쳐 알고리즘(곡률 검출 알고리즘)을 이용하여 점선 차선의 끊어진 부분을 예측하여 구동체가 직선차선, 점선차선, 점선 곡선차선 등을 모두 주행할 수 있게 한다. SUMMARY OF THE INVENTION An object of the present invention is to recognize a lane without being influenced by the surrounding environment so as to drive the vehicle. For this purpose, in the present invention, two-dimensional information is obtained through a laser scanner, and a three-dimensional map is formed by combining information such as position and attitude of an actuator through an IMU (Inertia Measurement Unit) and an encoder, In the map, asphalt and lane reflectance of the road are used to form a map with the asphalt rising above the lane to extract the feature points of the lane and recognize the lane. In the case of a dotted lane, a broken portion of a dotted line is predicted using a covercher algorithm (curvature detection algorithm) so that the driver can drive a straight lane, a dotted lane, and a dotted lane.

요컨대, 본 발명은 1) 레이저 스캐너(LRF), IMU, 및 엔코더 구비한 주행 로봇, 2) 도로 차선의 특징점을 추출하는 차선 특징점 추출부 3) 도로 차선이 끊어진 경우 커버쳐 알고리즘을 통해 곡선 경로를 추정하는 곡률 추정부를 포함하는 것을 특징으로 한다.In short, the present invention is characterized in that: (1) a traveling robot provided with a laser scanner (LRF), an IMU and an encoder; 2) a lane feature point extracting unit for extracting feature points of a road lane; and 3) And a curvature estimator for estimating a curvature of the image.

한편, IMU는 가속도 및 회전운동을 측정하는 전자기기로 모바일 로봇 등 주행가능한 구동체의 자세 및 방향을 측정하는 센서다.
On the other hand, IMU is an electronic device that measures acceleration and rotational motion and measures the posture and direction of a drivable body such as a mobile robot.

본 발명의 요점은 안개가 낀 날씨 때나 도로의 연석이 존재하지 않을 때도 도로를 주행할 수 있도록 3차원 지도를 만들어서 차선을 인식하는데 있다. 기존의 연구에서는 카메라를 사용할 경우 짙은 안개가 낀 날씨와 같이 Vision System은 날씨의 영향 또한 많이 받는다. 짙은 안개는 Vision System의 시야를 흐리게 하기 때문에 도로 정보를 판단하는 것이 어려울 뿐만 아니라 차선의 인식 또한 힘들게 된다. 또한 레이져 스캐너를 이용하여 도로의 연석을 인식하여 연석을 따라 이동할 경우 도로의 다양한 상황에 대처하기 어렵다. 예를 들어 연석이 없거나 도로, 차선이 많을 도로, 도로 폭이 기준과 다근 도로 등 여러 가지 경울를 고려해야 하기 때문에 주행이 어려워지게 된다. 이러한 단점을 해결하기 위해 도로 어느 곳에나 존재하는 차선을 환경의 영향을 받지 않고 차선을 인식하여 주행을 하도록 하는데 있다.The point of the present invention is to recognize a lane by making a three-dimensional map so that the road can be traveled even when there is no foggy weather or a curb of the road. In the existing study, when using the camera, the weather system is affected by the weather as well as the weather with heavy fog. Since dense fogs obscure the vision of the Vision System, it is difficult to judge the road information, and it is also difficult to recognize the lane. In addition, it is difficult to cope with various situations of the road when the laser scanner recognizes the curb of the road and moves along the curb. For example, it is difficult to travel because there are many curved roads, such as no curbs, roads, lane-length roads, road width standards and multiple roads. In order to solve these disadvantages, it is necessary to recognize the lane without any influence of the environment and to drive the lane existing anywhere on the road.

본 발명에서는 레이저 스캐너를 통해 시스템으로 들어오는 정보는 2차원 정보다. 이를 로봇의 위치와 자세 등의 정보와 결합하여 3차원적으로 가공하여 3차원 지도로 만들게 된다. 이렇게 만들어진 3차원 지도에서 도로의 아스팔트와 차선의 반사율에 위해서 아스팔트가 차선보다 올라와 있는 형태의 지도가 만들어지게 된다. 여기서 차선의 특징점을 추출하여 차선을 인식함으로서 차선을 따라 주행이 가능하게 된다. 또한 점선 차선의 경우 커버쳐 알고리즘을 이용하여 점선 차선의 끊어진 부분을 예측하여 직선차선, 점선차선, 점선 곡선차선 등을 모두 주행할 수 있게 된다. 2차원 적으로도 지도를 만들 수는 있지만 2차원 적으로 지도를 만들 경우 잡음을 처리하기 위해 여러 가지 필터를 이용하여 복작하게 데이터를 처리해야하는 어려움이 있다. 반면 3차원 적으로 지도를 작성할 경우 차선이 형성되는 높이가 한정되어 있고, 잡음은 차선의 높이를 벗어나서 주로 생기기 때문에 쉽게 잡음을 제거할 수 있게 된다.
In the present invention, the information coming into the system through the laser scanner is two-dimensional information. This is combined with information such as the position and posture of the robot, and then processed into a three-dimensional map. In this 3D map, asphalt and lane reflections are generated for the road asphalt. Here, by extracting the characteristic points of the lane and recognizing the lane, it is possible to travel along the lane. In the case of a dotted line lane, a broken lane of a dotted line can be predicted using a coverer algorithm, so that a straight lane, a dotted lane, and a dotted line lane can be driven. Although it is possible to create a map in two dimensions, there is a difficulty in processing data in a complex manner by using various filters in order to process a noise in a two-dimensional map. On the other hand, when the map is three-dimensionally formed, the height at which the lane is formed is limited, and the noise is generated mainly by deviating from the lane height, so that the noise can be easily removed.

1. 3차원 도로환경지도 1. 3D road environment map

1.1 3차원 지도 작성1.1 Three-dimensional mapping

본 발명에 따른 실시예에서 모바일 로봇에 사용한 레이저 스캔 센서는 거리와 각도 데이터를 데이터 처리부에 제공한다. 데이터 처리부에서 각도 데이터와 거리 데이터를 이용하여 (수학식 6)과 같이 X, Y 좌표를 형성하고 2차원 지도를 형성하게 된다.In the embodiment of the present invention, the laser scanning sensor used in the mobile robot provides distance and angle data to the data processing unit. The data processing unit forms the two-dimensional map by forming the X and Y coordinates using the angle data and the distance data as shown in Equation (6).

(수학식 1)(1)

Figure pat00001
,
Figure pat00001
,

Figure pat00002
Figure pat00002

(수학식 1)에서

Figure pat00003
는 LRF와 물체 사이의 거리고,
Figure pat00004
는 LRF의 스캔하는 점의 각도를 나타낸다. LRF는 0~240도를 스캔 할 수 있으며 0도에서부터 순차적으로 0.36도씩 회전하며 LRF 주위를 스캔한다.(1)
Figure pat00003
Is the distance between the LRF and the object,
Figure pat00004
Represents the angle of the scanning point of the LRF. LRF can scan from 0 to 240 degrees, and it rotates from 0.degree. To 0.36 degrees sequentially and scans around LRF.

도 1은 LRF가 물체를 순차적으로 스캔하는 것을 나타낸 도면이다. 도 1에서 A1, A2, A3는 LRF에서 레이저가 발사되어 반사되어 되돌아 오는 점을 나타낸 것이다. 그리고

Figure pat00005
는 0도 에서부터 0.36도씩 누적되어 가는 스캔 각도를 표현한 것이다. 이렇게 얻어진 2차원 스캔 좌표 데이터를 이용하여 2차원 지도를 만들 수 있다. 1 is a diagram illustrating an LRF sequentially scanning an object. In Fig. 1, A1, A2, and A3 indicate that the laser is emitted from the LRF and reflected back. And
Figure pat00005
Represents the scan angle accumulated from 0.degree. To 0.36deg. A two-dimensional map can be created using the obtained two-dimensional scan coordinate data.

도 2는 LRF가 스캔한 도로의 2차원적인 스캔 데이터와 모바일 로봇의 이동좌표 통해 스캔 데이터를 좌표변환 하는 것을 나타낸다. X0, Y0, Z0 는 맵을 작성하기 위한 기준이 되는 상대 좌표축을 의미한다. X1, Y1, Z1는 모바일 로봇의 이동좌표 축이 된다. 모바일 로봇의 이동 좌표와 자세의 변화는 모바일 로봇의 이동 좌표축을 변화시킨다. LRF에서 측정한 데이터를 적층하기 위해서는 X0, Y0, Z0를 기준으로 LRF데이터가 좌표화 되어야 한다. LRF데이터를 기준좌표축에 좌표화하기 위해서 (수학식 2)와 같은 직각 좌표계의 좌표 변환을 이용한다. 좌표변환을 통하여 얻어진 LRF의 좌표를 적층하여 3차원으로 도로 환경지도를 작성할 수 있게 된다.FIG. 2 shows coordinate conversion of two-dimensional scan data of the road scanned by the LRF and scan data through the moving coordinates of the mobile robot. X0, Y0, and Z0 denote relative coordinate axes that serve as a reference for creating a map. X1, Y1, and Z1 are the movement coordinate axes of the mobile robot. The change of the mobile coordinates and the posture of the mobile robot changes the mobile coordinate axis of the mobile robot. In order to stack the measured data in the LRF, the LRF data must be coordinate based on X0, Y0, and Z0. In order to coordinate the LRF data on the reference coordinate axis, coordinate conversion of a rectangular coordinate system such as (Equation 2) is used. It is possible to create a road environment map in three dimensions by laminating the coordinates of the LRF obtained through the coordinate transformation.

(수학식 2)(2)

Figure pat00006
Figure pat00006

(수학식 2) 에서

Figure pat00007
,
Figure pat00008
,
Figure pat00009
는 모바일 로봇의 좌표이며,
Figure pat00010
,
Figure pat00011
는 LRF가 스캔한 데이터의 좌표이다. 그리고
Figure pat00012
는 X0을기준으로 변화된 모바일 로봇의 이동좌표의 회전각도를 의미한다.
Figure pat00013
,
Figure pat00014
,
Figure pat00015
는 지도를 구성할 점들의 좌표다. (수학식 2)을 통해 변환된 LRF 데이터의 좌표점은 계속적인 적층을 통해 3차원의 지도를 만들어 낸다.(2)
Figure pat00007
,
Figure pat00008
,
Figure pat00009
Is the coordinates of the mobile robot,
Figure pat00010
,
Figure pat00011
Is the coordinate of the data scanned by the LRF. And
Figure pat00012
Represents the rotation angle of the mobile coordinates of the mobile robot changed with reference to X0.
Figure pat00013
,
Figure pat00014
,
Figure pat00015
Is the coordinates of the points that make up the map. The coordinate points of the LRF data transformed through (Equation 2) produce a three-dimensional map through continuous stacking.

도 3은 LRF를 이용하여 스캔한 데이터를 3차원 지도 알고리즘을 이용하여 3차원 지도 영상으로 복원한 이미지다. 좌측 상단의 시험 환경을 우측의 3차원 지도로 나타낸 것이고 좌측 하단의 도면은 차선을 나타낸 도면이다.3 is an image obtained by restoring scanned data using LRF to a three-dimensional map image using a three-dimensional map algorithm. The test environment at the upper left is represented by a three-dimensional map on the right side, and the lower left figure is a view showing a lane.

도 4의 좌측 도면은 교차로의 점선 곡선 차선을 나타낸 도면으로 이를 우측과 같이 3차원 도로 지도로 나타낼 수 있다. The left-hand side of FIG. 4 is a dotted line lane of an intersection, which can be represented by a three-dimensional road map as shown on the right.

도 5에서 차선의 특징점 알고리즘을 이용하여 차선을 찾아낼 수 있지만 위 도면의 좌측 부분과 같이 잡음이 발생하게 된다. 이렇게 발생한 잡음은 일반적으로 차선의 특징점들보다 높은 높이의 범위나 낮은 높이의 범위에 발생하게 된다. 차선의 특징점 높이 범위외의 데이터를 정리함으로써 잡음을 쉬게 제거할 수 있다.In FIG. 5, although the lane can be found by using the feature point algorithm of the lane, noise is generated as shown in the left part of the above drawing. Generally, this noise is generated in a range of a height higher than a lane characteristic point or a range of a lower height. Noise can be removed easily by arranging data outside the minutiae height range of the lane.

도 6에서 좌측 도면에 보이는 잡음을 우측 도면과 같이 제거함으로서 차선의 데이터만을 얻을 수 있게 된다. 2차원의 경우 복잡한 여러 가지 필터를 사용해야하기 때문에 실시간으로 연산처리 하는데 제약이 발생하지만 이와 같은 방법을 쓸 경우 연산처리가 간단하기 때문에 실시간 처리에 적합할 수 있다.
6, only the lane data can be obtained by removing the noise shown in the left drawing as shown in the right drawing. In the case of 2-D, it is necessary to use various complicated filters, so there is a limitation in the calculation processing in real time. However, if this method is used, it can be suitable for real-time processing because the calculation processing is simple.

2. 차선의 검출2. Detection of lane

차선과 아스팔트 사이 경계가 되는 차선을 판단하기 위해서는 도로 표면을 기준으로 도로 보다 낮게 형성되는 차선의 모서리 점들을 추출하는 것이 필요하다. 경계 점들을 구하기 위해 (수학식 3)을 이용한다.In order to determine the lane that is the boundary between the lane and the asphalt, it is necessary to extract the corner points of the lane lower than the road based on the road surface. (Equation 3) is used to obtain the boundary points.

(수학식 3)(3)

Figure pat00016
,
Figure pat00016
,

Figure pat00017
Figure pat00017

(수학식 3)에서

Figure pat00018
는 도로의 횡방향 좌표고,
Figure pat00019
는 도로의 높이 좌표를 나타낸다. (수학식 3)을 통해 두 점 사이의 높이 차와, 두 점의 기울기를 구할 수 있다. 높이 차가 있고, 일정 범위를 벗어난다는 것은 지형의 변화가 있다는 것이고, 두 점의 기울기가 일정 범위를 벗어난다는 것은 변화가 심한 부분 즉 모서리이기 때문에 특이점이 될 수 있다. 이 식을 통해 차선과 아스팔트의 경계가 되는 모서리점을 보다 용의하게 얻을 수 있다. (수학식 3)에서
Figure pat00020
는 특이점이 될 수 있는 두 점 사이의 최소 높이 차를 의미하며,
Figure pat00021
는 특이점이 될 수 있는 두 점 사이의 최소 각도를 의미한다.(3)
Figure pat00018
Is the lateral coordinate of the road,
Figure pat00019
Represents the height of the road. (Equation 3), the height difference between two points and the slope of two points can be obtained. There is a difference in height, and a deviation from a certain range means that there is a change in the terrain, and the deviation of the two points from a certain range may be a singularity because the change is a serious part or edge. Through this equation, it is possible to obtain the edge point which is the boundary between the lane and the asphalt more easily. (3)
Figure pat00020
Means the minimum height difference between two points that can be a singular point,
Figure pat00021
Means the minimum angle between two points that can be a singular point.

도 7의 좌측 상단의 도면은 안개 낀 도로의 실험 환경이다. 도 7의 좌측하단은 영상을 vision기법으로 처리한 결과를 보여주는 도면이다. 우측은 실험 환경에서 차선을 LRF를 이용하여 스캔 한 3D 환경지도다.
The upper left diagram in Fig. 7 is the experimental environment of the misty road. The lower left of FIG. 7 is a view showing a result of processing the image by the vision method. The right side is the 3D environment map scanned by LRF in the experimental environment.

3. 제어 알고리즘3. Control algorithm

3.1 커버쳐 알고리즘을 이용한 점선 곡선 차선 추정3.1 Dotted Curve Lane Estimation Using Coverage Algorithm

차선이 점선인 경우 차선이 그려지지 않은 부분은 추정을 해서 주행을 하도록 해야 한다. 차선이 그려지지 않은 부분을 추정하기 위해 커버쳐 알고리즘을 이용하였다. 일반적으로 커버쳐 알고리즘은 현재 위치와 최종 위치를 알 경우 두 지점의 거리와 회전각을 이용하여 로봇이 움직일 곡률반경을 만들어 낸다.If the lane is a dotted line, the part where the lane is not drawn should be estimated. The cover - up algorithm was used to estimate the area where the lane was not drawn. Generally, the cover algorithm uses the distance and the rotation angle of two points when it knows the current position and the final position, and creates the radius of curvature that the robot will move.

본 발명에 따른 실시예에서는 끊어진 차선이 발생할 경우 지나온 최근 차선의 일부를 이용하여 차선의 경향성을 파악하고 이 영향성을 이용하여 곡률 궤적을 만들어내도록 하였다.  In the embodiment according to the present invention, when a broken lane is generated, the tendency of the lane is grasped by using a part of the recent lane, and the curvature trajectory is created by using the influence.

커버쳐 알고리즘은 현재 위치와 목표점을 알 때 두 지점사이의 거리와 현재 위치에서의 자세와 목표지점에서의 자세를 이용하여 곡률 반경을 만들게 된다.The coverage algorithm uses the distance between the two points and the attitude at the current position and the attitude at the target point to determine the curvature radius when knowing the current position and the target point.

(수학식 4)(4)

Figure pat00022
,
Figure pat00023
Figure pat00022
,
Figure pat00023

(수학식 4)는 위지를 직교좌표와 각도로 나타낸 것이다.

Figure pat00024
은 현재 위치를 나타내며 현재 직교좌표의 x축 위치를
Figure pat00025
, y축 위치를
Figure pat00026
이라 한다. 그리고 현재 로봇이 바라보는 방향을
Figure pat00027
이라 한다. 목표점의 위치는
Figure pat00028
로 나타낸다.(Equation 4) represents the wedge in terms of orthogonal coordinates and angles.
Figure pat00024
Represents the current position and the x-axis position of the current Cartesian coordinate
Figure pat00025
, the y-axis position
Figure pat00026
Quot; And the current direction of the robot
Figure pat00027
Quot; The position of the target point is
Figure pat00028
Respectively.

Figure pat00029
는 목표점에서 로봇이 바라보는 방향을 나타낸다.
Figure pat00029
Represents the direction in which the robot looks at the target point.

(수학식 5)(5)

Figure pat00030
,
Figure pat00030
,

Figure pat00031
Figure pat00031

(수학식 5)을 이용하여 두 점의 거리와 회전각도를 계산한다.(Equation 5) to calculate the distance and rotation angle of the two points.

(수학식 6)(6)

Figure pat00032
Figure pat00032

(수학식 6)을 이용하여 반경을 계산한다. (수학식 6)에서 R은 반경을 나타낸다. (6). ≪ / RTI > In Equation (6), R represents a radius.

이 반경을 이용하여 (수학식 7)에 적용하면 곡선 경로 추정 좌표가 만들어 지게 된다.Applying this radius to (Equation 7), the curve path estimation coordinates are created.

(수학식 7)(7)

Figure pat00033
,
Figure pat00033
,

Figure pat00034
Figure pat00034

도 8은 좌측 부분의 점선 곡선 차선을 커버쳐 알고리즘으로 차선이 없는 부분에 대해 곡률 궤적을 만들어 냄으로서 주행경로를 만들어낸 도면이다. 우측 도면에서 빨간색 부분은 차선을 나타내고 초록색 점선은 주행경로를 나타낸다.
Fig. 8 is a view showing a route created by creating a curvature locus with respect to a portion without a lane by using a cover-up algorithm for a dotted line lane in the left part. In the right figure, the red part represents the lane and the green dotted line represents the travel path.

3.2 안정적 추종 제어 알고리즘 적용3.2 Application of stable tracking control algorithm

이 알고리즘은 모바일 로봇의 현재의 위치와 자세, 목표점의 위치와 자세의 차를 이용하여 궤적 상에 있거나 있지 않는 로봇의 시작점 에서부터 로봇의 목표점까지 Cartesian 궤적을 점차적으로 따라가도록 제어하기 위한 안정적 추종제어 알고리즘이다. 로봇의 위치를 (수학식 4)와 같이 3자유도 형식으로 표현한다. 그리고 (수학식 2)의 요소들은 모두 시간의 함수들이다. 그러므로

Figure pat00035
,
Figure pat00036
,
Figure pat00037
로 표현이 가능하며,
Figure pat00038
는 (수학식 8)에 의해 얻을 수 있다.This algorithm is based on a stable follow-up control algorithm to control the Cartesian trajectory gradually from the starting point of the robot which is not on the trajectory to the target point of the robot by using the difference between the current position and attitude of the mobile robot, to be. The position of the robot is expressed in a 3-degree-of-freedom form as shown in Equation (4). And the elements of (2) are all time functions. therefore
Figure pat00035
,
Figure pat00036
,
Figure pat00037
Can be expressed as,
Figure pat00038
Can be obtained by Equation (8).

(수학식 8)(8)

Figure pat00039
Figure pat00039

모바일 로봇의 움직임은 선속도와 각속도로 제어된다. 모바일 로봇의 기구학은 자코비안 행렬 J에 의해서 정의된다. The movement of the mobile robot is controlled by the linear velocity and the angular velocity. The kinematics of the mobile robot is defined by Jacobian matrix J.

(수학식 9)(9)

Figure pat00040
Figure pat00040

이 기구학 방정식은 무지향성이 아닌 모든 로봇에 공통된다. 모바일 로봇의 제어를 위해 이 알고리즘은 목표위치와 현재위치 두 가지 위치를 사용한다. (수학식 10)을 통해 시스템은 두 위치의 차

Figure pat00041
를 얻게 된다.This kinematic equation is common to all non-directional robots. For the control of the mobile robot, this algorithm uses two positions: target position and current position. ≪ / RTI > (10) < RTI ID = 0.0 >
Figure pat00041
.

(수학식 10)(10)

Figure pat00042
Figure pat00042

(수학식 10)에서

Figure pat00043
는 현재 로봇의 방향각을 의미한다. 최종적으로 로봇이 목표위치까지의 요구되는 선속도와 각속도는 (수학식 11)을 이용해 계산할 수 있다. (10)
Figure pat00043
Means the direction angle of the current robot. Finally, the required linear velocity and angular velocity of the robot up to the target position can be calculated using Equation (11).

(수학식 11)(11)

Figure pat00044
,
Figure pat00044
,

Figure pat00045
,
Figure pat00045
,

Figure pat00046
Figure pat00046

(수학식 11)에서

Figure pat00047
,
Figure pat00048
은 목표점까지 이동하는데 필요한 선속도와 각속도고,
Figure pat00049
,
Figure pat00050
는 현재의 선 속도와 각 속도를 나타낸다.
Figure pat00051
,
Figure pat00052
는 목표점의 좌표를 나타낸다.
(11)
Figure pat00047
,
Figure pat00048
Is the linear velocity and angular velocity necessary to move to the target point,
Figure pat00049
,
Figure pat00050
Represents the current linear velocity and angular velocity.
Figure pat00051
,
Figure pat00052
Represents the coordinates of the target point.

도 9에서 모바일 플랫폼의 왼쪽부분이 센서부를 나타내고, 오른쪽부분이 구동부를 나타낸다. 그리고 아래쪽 데이터 컨트롤 플랫폼 부분이 데이터 처리부를 나타낸다. 센서부는 도로 표면을 스캔할 수 있는 레이저 스캐너, 모바일 로봇의 자세 및 위치를 파악하기 위한 엔코더, IMU에서 받은 데이터를 합쳐 데이터 처리부로 보내는 센서 컨트롤러로 구성되어 있있다. 데이터 처리부는 센서부에서 받은 데이터를 이용하여 지도를 작성하고, 특징점을 추출한다. 그리고 차선을 추종하기 위해 구동부로 제어 명령을 내린다. 구동부는 데이터 처리부에서 보낸 명령을 해석하고 모터드라이브로 모터제어명령을 내리는 모터컨트롤러, 모바일 로봇을 구동하기 위한 모터드라이브 및 모터로 구성되어 있다.
In Fig. 9, the left portion of the mobile platform represents the sensor portion and the right portion represents the driving portion. And the lower data control platform part represents the data processing part. The sensor unit consists of a laser scanner that can scan the road surface, an encoder to determine the posture and position of the mobile robot, and a sensor controller that sends data received from the IMU to the data processing unit. The data processing unit creates a map using the data received from the sensor unit, and extracts feature points. Then, a control command is issued to the driving unit to follow the lane. The driving unit is composed of a motor controller for interpreting the command sent from the data processing unit and giving a motor control command to the motor drive, a motor drive for driving the mobile robot, and a motor.

도 10은 본 발명의 실시예에 따른 3차원 도로지도 작성 및 차선인식과 주행로봇이다. 이 로봇은 LRF(Laser Range Finder) 라는 레이저 스캐너가 도록 정보를 2차원적으로 스캔하게 된다. 그리고 IMU(Inertia Measurement Unit)라는 센서를 용하여 로봇의 자세나 방향의 정보를 얻는다. 모터의 Encoder 정보를 이용하여 로봇의 위치를 파악하게 된다. 이렇게 3가지 정보를 가공하여 3차원 도로지도를 만들게 된다. 10 is a three-dimensional road map creation and lane recognition and traveling robot according to an embodiment of the present invention. The robot scans the information two-dimensionally to make it a laser scanner called an LRF (Laser Range Finder). And we use the sensor called IMU (Inertia Measurement Unit) to obtain information about the robot's position and orientation. And the position of the robot is grasped by using the encoder information of the motor. These three kinds of information are processed to create a three-dimensional road map.

한편, 도 11은 본 발명의 실시예에 따른 추종제어기의 구조를 나타내는 도면이다.11 is a diagram illustrating a structure of a tracking controller according to an embodiment of the present invention.

도 11을 참조하면, pr(t)는 목표가 되는 목표점 위치를 나타내고 Pc(t)는 모바일 로봇의 현재 위치를 나타낸다. 현재 위치와 목 표 위치의 차 Pe인 에러 메트릭스를 통해 요구되는 선속도와 각속도로 구성된 q를 얻게 된다. 세번째 박스 T는 하드웨어의 구조를 고려해 하드웨어에 적합하게 변환하게 된다. 요구되는 속도가 반영된 모바일 로봇의 좌표는 자코비안 J와 결합하여 현재속도로 바뀌게 되고, 이것을 누적하여 현재 위치를 다시 피드백하게 된다.Referring to FIG. 11, p r (t) denotes a target position and P c (t) denotes a current position of the mobile robot. The error metric, P e , the difference between the current position and the target position, yields a q composed of the required linear velocity and angular velocity. The third box T is converted to hardware in consideration of the hardware structure. The coordinates of the mobile robot that reflects the required velocity are combined with the Jacobian J to change to the current velocity, which is accumulated and fed back to the current position.

도 12는 본 발명의 실시예에 따른 차선 추종 실험 결과를 나타내는 도면이다. 도 12에 있어서, 빨간색점들은 차선의 특징점들 중에서 밀도가 가장 높은점들을 나타낸 것이다. 그리고 파란색 점선으로 표시된 부분은 모바일 로봇이 이동한 경로를 나타내며 양쪽의 보라색 직선은 실제 차선을 나타낸다. 본 실험 결과 검출된 차선을 안정적인 추종 알고리즘을 이용해 안정적으로 주행하는 것을 볼 수 있다. 그리고 차선의 특징점이 지그재그로 나타나는 것은 양쪽 차선 모서리의 특징점밀도를 계산하기 때문에 검출된 특징점의 밀도에 따라 차선 내에서 불규칙하게 나타날 수 있다.12 is a view showing a result of a lane-following test according to an embodiment of the present invention. In FIG. 12, red dots indicate points having the highest density among the minutiae of the lane. The blue dashed line represents the path traveled by the mobile robot, and the purple lines on both sides represent actual lanes. As a result of this experiment, it can be seen that the detected lane is driven stably using the stable tracking algorithm. The zigzag feature points of the lane can be irregularly displayed in the lane according to the density of the detected feature points because the feature point density of both lane edges is calculated.

도 13은 본 발명의 실시예에 따른 추종 오차를 나타내는 도면이다. 도 13에 있어서, 파란색 실선은 실제 차선의 특징점을 검출한 것으로 모바일 로봇이 이선을 추종하여야 하지만 빨간색 점선과 같이 오차가 발생하였다. 최대 추종 오차는 147.65mm로 나타났다. 그러나 도 13과 같이 전체적인 주행을 볼 때 로봇의 주행경로는 차선을 벗어나지 않고 안정적으로 주행한 것을 볼 수 있다.
13 is a diagram illustrating a tracking error according to an embodiment of the present invention. In Fig. 13, the blue solid line indicates the characteristic point of the actual lane, and the mobile robot must follow the line, but an error occurs as indicated by a red dotted line. The maximum tracking error was 147.65mm. However, as shown in Fig. 13, it can be seen that the traveling path of the robot stably travels without losing the lane when the whole traveling is viewed.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included in the scope of the present invention.

Claims (1)

거리 데이터와 각도 데이터를 각각 수집하는 레이저 스캐너;
상기 거리 각도 데이터와 상기 거리 데이터를 이용하여 2차원 정보를 생성하는 데이터 처리부;
상기 2차원 정보와 구동체의 위치와 자세 등의 정보를 결합하여 3차원 지도를 형성하는 지도 형성부;
3차원 지도로부터 도로 차선의 특징점을 추출하는 차선 특징점 추출부; 및
도로 차선이 끊어진 경우 커버쳐 알고리즘을 통해 곡선 경로를 추정하는 곡률 추정부;
를 포함하는 차원 도로 지도 작성 및 차선인식 장치.
A laser scanner for collecting distance data and angle data, respectively;
A data processing unit for generating two-dimensional information using the distance angle data and the distance data;
A map forming unit for forming a three-dimensional map by combining the two-dimensional information and information such as position and orientation of the driving body;
A lane feature point extracting unit for extracting feature points of a road lane from a three-dimensional map; And
A curvature estimator for estimating a curved path through a cover image algorithm when a road lane is broken;
Dimensional road map creation and lane recognition device.
KR1020130145580A 2013-11-27 2013-11-27 Apparatus for building 3D Load map and recognizing lane KR20150061445A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130145580A KR20150061445A (en) 2013-11-27 2013-11-27 Apparatus for building 3D Load map and recognizing lane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130145580A KR20150061445A (en) 2013-11-27 2013-11-27 Apparatus for building 3D Load map and recognizing lane

Publications (1)

Publication Number Publication Date
KR20150061445A true KR20150061445A (en) 2015-06-04

Family

ID=53499424

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130145580A KR20150061445A (en) 2013-11-27 2013-11-27 Apparatus for building 3D Load map and recognizing lane

Country Status (1)

Country Link
KR (1) KR20150061445A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180061949A (en) * 2016-11-30 2018-06-08 주식회사 유진로봇 Obstacle Sensing Apparatus and Method for Multi-Channels Based Mobile Robot, Mobile Robot including the same
WO2018227980A1 (en) * 2017-06-13 2018-12-20 蔚来汽车有限公司 Camera sensor based lane line map construction method and construction system
KR20190104305A (en) * 2019-09-03 2019-09-09 주식회사 모빌테크 Apparatus for building map using LiDAR

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180061949A (en) * 2016-11-30 2018-06-08 주식회사 유진로봇 Obstacle Sensing Apparatus and Method for Multi-Channels Based Mobile Robot, Mobile Robot including the same
KR101878827B1 (en) * 2016-11-30 2018-07-17 주식회사 유진로봇 Obstacle Sensing Apparatus and Method for Multi-Channels Based Mobile Robot, Mobile Robot including the same
WO2018227980A1 (en) * 2017-06-13 2018-12-20 蔚来汽车有限公司 Camera sensor based lane line map construction method and construction system
KR20190104305A (en) * 2019-09-03 2019-09-09 주식회사 모빌테크 Apparatus for building map using LiDAR

Similar Documents

Publication Publication Date Title
CN108572663B (en) Target tracking
JP5016022B2 (en) Object motion detection system and method based on multiple 3D warping and vehicle equipped with such a system
JP6793845B2 (en) Vehicle control devices, vehicle control methods, and programs
CN110103967B (en) Automatic lane changing method for vehicle, vehicle control system and vehicle
Wijesoma et al. Road-boundary detection and tracking using ladar sensing
US20190146519A1 (en) Vehicle control device, vehicle control method, and storage medium
US9121717B1 (en) Collision avoidance for vehicle control
US11099561B1 (en) Control of an autonomous vehicle in unmapped regions
US20200241549A1 (en) Information processing apparatus, moving apparatus, and method, and program
KR101049906B1 (en) Autonomous mobile apparatus and method for avoiding collisions of the same
US11299176B2 (en) Vehicle control device
US20220063669A1 (en) Travel Control Method and Travel Control Device for Vehicle
JP7194640B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
CN114258366A (en) Polyline profile representation for autonomous vehicles
CN105830131A (en) Device for detecting the lateral position of a pedestrian relative to the trajectory of the vehicle
JP6985089B2 (en) Three-dimensional object grounding judgment device
Cherubini et al. A new tentacles-based technique for avoiding obstacles during visual navigation
Gern et al. Robust vehicle tracking fusing radar and vision
CN115143964A (en) Four-footed robot autonomous navigation method based on 2.5D cost map
JP2019158646A (en) Vehicle control device, vehicle control method, and program
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
KR20150061445A (en) Apparatus for building 3D Load map and recognizing lane
JP7121361B2 (en) Autonomous mobile
KR101850794B1 (en) Parking assist appratus and method for assisting parking
Li et al. Pitch angle estimation using a Vehicle-Mounted monocular camera for range measurement

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid