KR101998298B1 - Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor - Google Patents

Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor Download PDF

Info

Publication number
KR101998298B1
KR101998298B1 KR1020180162222A KR20180162222A KR101998298B1 KR 101998298 B1 KR101998298 B1 KR 101998298B1 KR 1020180162222 A KR1020180162222 A KR 1020180162222A KR 20180162222 A KR20180162222 A KR 20180162222A KR 101998298 B1 KR101998298 B1 KR 101998298B1
Authority
KR
South Korea
Prior art keywords
vehicle
lane
sensor
obstacle
image
Prior art date
Application number
KR1020180162222A
Other languages
Korean (ko)
Inventor
박세일
Original Assignee
위고코리아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 위고코리아 주식회사 filed Critical 위고코리아 주식회사
Priority to KR1020180162222A priority Critical patent/KR101998298B1/en
Application granted granted Critical
Publication of KR101998298B1 publication Critical patent/KR101998298B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/12Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an autonomous vehicle driving method using a camera and LiDAR sensors comprising the steps of: obtaining sensor values from a left LiDAR sensor and a right LiDAR sensor installed at a front side of a vehicle; allowing the left LiDAR sensor or the right LiDAR sensor to sense an object and checking the distance to an object sensed by one or two LiDAR sensors to determine whether an emergency occurs; checking the distance to the object to transmit a signal for performing an emergency stop when the distance is less than a set value; when performing the emergency stop is not necessary, checking whether an obstacle exists around the vehicle through a rotary LiDAR sensor; recognizing the position of an object through the obtained rotary LiDAR sensor value to determine the means to avoid the obstacle; when an object around the vehicle is recognized, transmitting a signal to perform a maneuver to avoid the obstacle; when no obstacle exists around the vehicle, obtaining data through a webcam camera; sensing a lane through the obtained data and tracking the lane along the sensed lane; and transmitting the speed and steering commands while making an emergency stop signal the highest priority, transmitting the speed and steering commands while making an obstacle avoidance signal the next priority, and transmitting the speed and steering commands through the lane tracking as the next priority to drive the vehicle. The present invention can ensure safe vehicle driving.

Description

카메라 및 라이다 센서를 이용한 차량 자율주행방법{Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor}{Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor}

본 발명은 카메라 및 라이다 센서를 이용한 차량 자율주행방법에 관한 것으로, 더욱 상세하게는 전면 2개의 라이다 센서는 비상상황의 정지를 위하여 사용되며, 차량 중앙에 회전 라이다 센서를 탑재하여 360도 회전 라이다 센서를 통하여 360도 환경 정보를 얻어 장애물 감지하는데 사용되며, 차량 전방에 설치된 웹캠(WebCam)카메라를 통하여 차선 인식 및 추적을 위하여 사용하여, 비상정지 상황, 장애물 감지, 차선 인식 및 추적을 진행하여 이를 통하여 안전하게 차량을 자율주행하기 위한 카메라 및 라이다 센서를 이용한 차량 자율주행방법에 관한 것이다.More particularly, the present invention relates to a vehicle autonomous traveling method using a camera and a Lidar sensor. More specifically, the present invention relates to a Lidar sensor for detecting an emergency situation, It is used to detect obstacles by 360 degree environment information through a rotary lidar sensor. It is used for lane recognition and tracking through a WebCam camera installed in the front of the vehicle. It can be used for emergency stop situations, obstacle detection, lane recognition and tracking And a method for autonomous driving of a vehicle using the camera and the Lidar sensor for autonomous driving of the vehicle through the vehicle.

최근 들어, 무인 자율 주행시스템과 관련하여, 특히 자동차 분야에서의 자율 주행과 관련된 많은 연구가 이루어지고 있다.In recent years, much research has been conducted in relation to the autonomous navigation system, especially regarding autonomous driving in the automobile field.

일반적으로 자율 주행시스템 또는 첨단 운전자 보조시스템 등은 도로맵 정보를 바탕으로 GPS 위치정보 및 각종 센서에서 취득한 신호를 이용하여 도로상의 시작점부터 종료점까지 자동차의 주행을 자동으로 제어하거나 운전자의 운전을 보조하여 안전운전을 가능하게 한다.In general, the autonomous driving system or advanced driver assistance system automatically controls the driving of the vehicle from the starting point to the ending point on the road by using the GPS position information and signals acquired from various sensors based on the road map information, It enables safe driving.

특히, 자율 주행시스템은 고속으로 움직이는 자동차의 주행환경을 실시간으로 인식 및 판단하기 위해 주변 사물을 인식할 수 있는 센서와 그래픽 처리 장치의 도움이 필요하다.Especially, the autonomous navigation system needs the help of sensors and graphic processing devices that can recognize nearby objects in order to recognize and judge the driving environment of a moving vehicle at high speed in real time.

센서는 사물과 사물의 거리를 측정하고 위험을 감지하여 사각지대 없이 모든 지역을 볼 수 있도록 도와준며, 그래픽 처리 장치는 여러 대의 카메라를 통해 자동차의 주변 환경을 파악하고 그 이미지를 분석해서 자동차가 안전하게 갈 수 있도록 도와준다.The sensor measures the distance of objects and objects, detects danger and helps to see all areas without blind spots. The graphic processing device analyzes the image of the surrounding environment of the vehicle through several cameras and car safely Help you to go.

종래에는 이러한 자율주행을 위하여 장애물 또는 장해요소에 의한 외란에 의해 발생되는 에러를 저감하기 위한 방법이 주로 연구되어 왔는데, 다수의 센서들을 이용하여 정밀성을 높이고자 할수록 구성 부품이 증가하고, 연산처리부담이 가중되는 단점이 있다.Conventionally, a method for reducing an error caused by disturbance due to an obstacle or an obstacle element for autonomous driving has been mainly studied. However, as the precision is increased by using a plurality of sensors, the number of components increases, This is a weighted disadvantage.

따라서 위치판단 및 목표지점으로의 항로 추적에 대한 신뢰성을 확보하면서도 항로 추적을 위한 연산처리의 부담을 저감시킬 수 있는 자율주행방법은 꾸준히 진행되고 있다.Therefore, an autonomous driving method that can reduce the burden of calculation processing for route tracking while ensuring reliability of position determination and route tracking to a target point is steadily progressing.

관련된 선행문헌으로는 대한민국 공개특허공보 제10-2018-0084463호 공개일 2018. 07. 25.(이하 [특허문헌1]이라함)에서는 차량간 통신을 이용한 자율주행 자동차의 차선 변경 장치 및 방법을 공개하고 있다. 상기 [특허문헌1]에서는 자율 주행차량간 V2V 통신을 이용하여 차선 변경을 수행하도록 한 차량간 통신을 이용한 자율주행 자동차의 차선 변경 장치 및 방법을 공개하고 있다.As a related prior art, Korean Patent Laid-Open Publication No. 10-2018-0084463, published on August 27, 2018 (hereinafter referred to as "Patent Document 1") discloses an apparatus and method for changing a lane of an autonomous vehicle using inter- It is open to the public. Patent Document 1 discloses an autonomous driving vehicle lane changing apparatus and method using inter-vehicle communication in which lane change is performed using V2V communication between autonomous driving vehicles.

또한, 대한민국 공개특허 제10-2018-0117754호 공개일 2018. 10. 30.(이하 [특허문헌2]이라함)에서는 차량 자율주행 제어 장치를 공개하고 있다. 상기 [특허문헌2]에서는 후방에 주행중인 후미 차량을 AVB 카메라 모듈을 통해 촬영하고, 촬영된 영상을 토대로 자기 차량의 자율 주행을 제어하는 차량 자율 주행 제어 함으로써, 차량간 추둘 사고 및 교통 체증을 감소시킬 수 있도록 하는 차량 자율주행 제어 장치를 공개하고 있다.In addition, Korean Patent Publication No. 10-2018-0117754, Laid-open Oct. 30, 2018 (hereinafter referred to as "Patent Document 2") discloses a vehicle autonomous-running control device. In the above-described Patent Document 2, the rear-end running vehicle is photographed through the AVB camera module and the autonomous-running control of the own vehicle is controlled on the basis of the photographed image, thereby reducing the accident between vehicles and the traffic congestion To the vehicle.

또한, 대한민국 등록특허 제10-1532320호 공고일 2015. 07. 22.(이하 [특허문헌3]이라함)에서는 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법을 공개하고 있다. 상기 [특허문헌3]에서는 자율주행 무인차량에 서로 이격되게 설치된 카메라를 이용하여, 전방의 동적물체를 감지하도록 한 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법에 관한 것으로, 주행중인 자율주행 무인차량의 주행정보와, 상기 자율주행 무인차량에 탑재된 쌍안 카메라에서 촬영한 이미지가 입력되는 데이터 입력단계와, 상기 쌍안 카메라로부터 동시에 촬영된 한 쌍의 이미지로부터 스테레오 정합을 실시하여 특징점 추출하는 스테레오 정합단계와, 상기 이미지에서 정해진 구간의 값을 갖는 영역이 하나의 수퍼픽셀이 되도록 상기 이미지를 복수의 수퍼픽셀로 분할하는 수퍼픽셀 변환단계와, 상기 복수의 수퍼픽셀마다 고차원 마르코프 랜덤필드를 계산하여 동적물체가 존재하는 수퍼픽셀을 검출하는 고차원 마르코 랜덤필드 계산단계와, 상기 고차원 마르코프 랜덤필드 계산단계에 동적물체가 있는 수퍼픽셀에 동적물체가 있는 것으로 판단하는 최적 정보선택단계를 포함하는 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법을 공개하고 있다.In addition, Korean Patent Registration No. 10-1532320 (hereinafter referred to as "Patent Document 3") discloses a dynamic object detection method using a binocular camera mounted on an autonomous vehicle. Patent Document 3 discloses a method for detecting a dynamic object using a binocular camera mounted on an autonomous traveling unmanned vehicle that detects a dynamic object in front by using a camera provided in a self-running unmanned vehicle so as to be spaced apart from each other. A data input step of inputting driving information of an autonomous driving unmanned vehicle and images photographed by a binocular camera mounted on the autonomous driving unmanned vehicle; and performing stereo matching from a pair of images simultaneously photographed from the binocular camera to extract feature points A super-pixel conversion step of dividing the image into a plurality of super-pixels so that an area having a value of an interval defined in the image is one super-pixel; and a high-order Markov random field for each of the plurality of super- A high-dimensional Marco that computes and detects superpixels in which dynamic objects exist. A method for detecting a dynamic object using a binocular camera mounted on an autonomous navigation unmanned vehicle, comprising: a random field calculation step; and an optimum information selection step of determining that there is a dynamic object in a super pixel having a dynamic object in the high dimensional Marcoff random field calculation step .

그러나 기존에 사용되고 있는 자율주행 장치 및 방법은 [특허문헌1]에서는 자율주행 자동차간의 V2V 통신을 이용하여 차선변경을 수행하는 것으로 자율주행 차량 주변에 또다른 자율주행 차량이 존재하여야 하며 해당 차량과의 V2V 통신을 진행해야만 가능하다는 문제점이 있으며, [특허문헌2]에서는 후미차량정보를 수집하기 위해서 V2V통신과 V2I통신을 지원되어야 하며 후미차량정보를 차량번호를 인식하여 차량의 상대속도를 산출하는 것을 나타내고 있으나 차량번호가 번호판에 이물질로 인하여 인식이 어려운 경우 또는 바이크와 같이 차량번호 인식이 안되는 경우에는 후미차량정보인 차량번호 인식이 안되어 상대속도 산출이 안된다는 문제점이 있다.However, in the existing autonomous navigation apparatus and method, the autonomous navigation apparatus and the method used in the above-described Patent Document 1 perform lane change by using V2V communication between autonomous vehicles, and another autonomous vehicle must exist around the autonomous vehicle. V2V communication is required to be carried out. [Patent Document 2] requires that V2V communication and V2I communication be supported in order to collect the rear vehicle information, and the rear vehicle information is recognized by recognizing the vehicle number to calculate the relative speed of the vehicle However, when the car number is difficult to recognize due to the foreign substance on the license plate, or when the car number is not recognized like a bike, the car number, which is the rear car information, can not be recognized and the relative speed can not be calculated.

또한, [특허문헌3]에서는 자율주행 차량의 전방에 위치한 동적물체를 탐지하는 것으로 차량의 주변환경을 탐지하지 못하여 자율주행시 정지된 물체를 회피하여 주행하거나 주행시 전방이 아닌 타측에서의 위험요소에 대하여 대응하여 진행되는 자율주행이 어렵다는 문제점이 있다. [Patent Document 3] discloses a technique of detecting a dynamic object located in front of an autonomous vehicle so that it can not detect the surrounding environment of the vehicle and avoids a stopped object in autonomous driving, There is a problem that it is difficult to carry out the autonomous traveling.

[특허문헌1] 대한민국 공개특허 제10-2018-0084463호 공개일 2018. 07. 25.[Patent Document 1] Korean Patent Laid-open No. 10-2018-0084463 Disclosure Date 2018. 07. 25. [특허문헌2] 대한민국 공개특허 제10-2018-0117754호 공개일 2018. 10. 30.[Patent Document 2] Korean Published Patent Application No. 10-2018-0117754 Publication Date Oct. 30, [특허문헌3] 대한민국 등록특허 제10-1532320호 공고일 2015. 07. 22.[Patent Document 3] Korean Patent Registration No. 10-1532320 Publication Date May 2015. 07 22.

본 발명에서는 이러한 종래의 문제점을 해결하기 위하여 개발된 것으로서, 카메라 및 라이다 센서를 이용한 차량 자율주행방법으로 차량의 속도와 조향을 제어하는 컨트롤러와 물리적인 데이터를 측정하는 센서 제어를 위한 컨트롤러가 구비되어 있으며, 라이다 센서를 통하여 비상상황시 차량을 정지하며, 회전 라이다 센서를 통하여 360도 환경 정보를 얻어 장애물을 감지하여 장애물을 회피하여 주행하며, 차량의 웹캠 카메라를 통하여 차선 인식 및 추적을 진행하여 안전하게 차량을 자율주행할 수 있는 카메라 및 라이다 센서를 이용한 차량 자율주행방법을 제공하는 것이다.The present invention has been developed in order to solve such conventional problems, and a controller for controlling the speed and steering of a vehicle and a sensor for measuring physical data is provided as a self-driving method using a camera and a Lidar sensor The vehicle is stopped in the emergency situation through the Raidasensor, 360 degrees environment information is obtained through the rotary Raidas sensor, and obstacles are detected to avoid obstacles. The lane recognition and tracking are performed through the webcam camera of the vehicle. The present invention provides a vehicle autonomous driving method using a camera and a lidar sensor capable of traveling safely and autonomously driving the vehicle.

상술한 목적을 달성하기 위해 개발된 본 발명의 카메라 및 라이다 센서를 이용한 차량 자율주행방법으로서, (a) 차량의 전방에 설치된 좌측 라이다 센서와 우측 라이다 센서에서 센서값을 획득하는 단계(S410); (b) 상기 좌측 라이다 센서 또는 우측 라이다 센서가 물체를 감지하고 하나 또는 두 개의 라이다 센서에서 감지된 물체와의 거리를 확인하여 비상여부를 결정하는 단계(S420); (c) 상기 (b)단계에서 물체와의 거리가 설정값 미만일 경우 비상정지를 진행하도록 신호를 전송하는 단계(S421); (d) 상기 (b)단계에서 비상정지를 진행할 필요가 없는 경우, 회전 라이다 센서를 통하여 차량 주변에 장애물이 있는지 확인하는 단계(S430); (e) 상기 (d)단계에서 획득한 회전 라이다 센서값을 통하여 물체의 위치를 인식하고 장애물 회피를 결정하는 단계(S440); (f) 상기 (e)단계에서 차량 주변에 물체가 인식되면 장애물 회피를 진행하도록 신호를 전송하는 단계(S441); (g) 상기 (e)단계에서 차량 주변에 장애물이 없을 경우 웹캠을 통하여 데이터를 획득하는 단계(S450); (h) 상기 (g)단계에서 획득된 데이터를 통하여 차선을 감지하는 단계(S460); (i) 상기 (h)단계에서 감지된 차선을 따라 차선을 추적하는 단계(S470); (j) 상기 (c)단계의 비상정지 신호를 최우선으로 속도 및 조향 명령을 전송하며, 다음 우선순위로 (f)단계 장애물 회피의 신호로 속도 및 조향 명령을 전송하며, 다음으로 (i)단계 차선 추적을 통한 속도 및 조향 명령을 전송하여 주행하는 단계(S480)를 포함하는 것을 특징으로 한다.(A) obtaining a sensor value from a left Lidar sensor and a right Lidar sensor installed in front of a vehicle, the method comprising the steps of: (a) S410); (b) determining whether the left or right Lidar sensor senses an object and determine the distance to the object detected by the one or two Lidar sensors to determine whether the object is in an emergency (S420); (c) transmitting (S421) a signal to proceed with the emergency stop when the distance to the object in step (b) is less than the set value; (d) if it is not necessary to proceed with the emergency stop in step (b), checking whether there is an obstacle around the vehicle through the rotary sensor (S430); (e) recognizing the position of the object through the rotary sensor value obtained in the step (d) and determining obstacle avoidance (S440); (f) transmitting (S441) a signal for avoiding an obstacle when an object is recognized around the vehicle in the step (e); (g) acquiring data through the webcam when there is no obstacle around the vehicle in the step (e) (S450); (h) detecting a lane through the data obtained in the step (g) (S460); (i) tracking the lane along the lane sensed in the step (h) (S470); (j) sending a speed and steering command with the emergency stop signal of the step (c) as a top priority, sending a speed and steering command to the signal of the obstacle avoidance in the next priority (f) (S480) by transmitting a speed and steering command through lane-tracking.

더욱 바람직하게는, (k) 상기 (a) 내지 (j) 단계를 통해 자율 주행시 목표 지점에 도달했는지 여부를 확인하고 목표점에 도달했으면 자율 주행을 정지하며, 목표 지점에 도달하지 못했을 경우 목표지점에 도달할 때까지 (a) 단계로 돌아가서 반복하여 실행하는 단계(S490)를 더 포함하는 것을 특징으로 한다.More preferably, (k) it is checked whether or not the target point has been reached at the time of the autonomous running through the steps (a) to (j), and if the target point is reached, the autonomous running is stopped; (S490) repeatedly to return to the step (a) until reaching the step (a).

또한 바람직하게는, 상기 (b)단계는 좌측 라이다 센서 또는 우측 라이다 센서가 물체를 감지하고 라이다 센서에서 감지된 물체와의 거리를 확인하여 물체와의 거리가 50cm 미만일 경우 비상여부를 결정하는 것을 특징으로 한다.Preferably, in the step (b), the left Lidar sensor or the right Lidar sensor senses the object and confirms the distance to the object detected by the Lidar sensor. If the distance to the object is less than 50 cm, .

또한 바람직하게는, 상기 (e)단계는 회전 라이다 센서를 이용하여 감지된 물체의 위치를 인식하고 설정된 범위에 일정 수의 포인트가 있는 경우, 피해야 할 물체가 있음을 인지하여 장애물 회피를 위한 조향 명령을 전송하는 것을 특징으로 한다.Preferably, the step (e) recognizes the position of the object sensed using the rotary sensor and recognizes that there is an object to be avoided when there are a certain number of points in the set range, And transmits the command.

또한 바람직하게는, 상기 (h)단계는 (h1) 웹캠 카메라를 통해 이미지 정보를 취득하는 단계; (h2) 영상 처리를 위해 영상의 해상도를 조정하는 단계; 및 (h3) RGB 이미지를 8비트 이미지로 설정하는 단계를 더 포함하는 것을 특징으로 한다.Further, preferably, the step (h) includes: (h1) acquiring image information through a webcam camera; (h2) adjusting a resolution of an image for image processing; And (h3) setting an RGB image as an 8-bit image.

또한 바람직하게는, 상기 (i)단계는 (i1) 입자 필터를 통하여 영상에서 작은 입자를 제거하는 단계; (i2) 그레이 모폴로지 필터를 적용하여 차선을 인식하는 단계; (i3) 차선에서 두 인접 점 사이의 거리가 동일한 5개의 점을 찾는 모서리 찾기 단계; (i4) 픽셀 좌표를 실제 좌표로 변환하는 단계; 및 (i5) 유입 차선 추적지점에서 알고리즘을 실행하는 단계를 더 포함하는 것을 특징으로 한다.Also preferably, step (i) comprises: (i1) removing small particles from the image through a particle filter; (i2) recognizing a lane by applying a gray morphology filter; (i3) an edge finding step of finding five points having the same distance between two adjacent points in the lane; (i4) converting pixel coordinates into actual coordinates; And (i5) executing an algorithm at the incoming lane tracking point.

또한 바람직하게는, 차량 자율주행방법을 위해 탑재된 차량 제어 시스템은, 차량의 속도와 조향 장치를 제어하는 플랫폼 컨트롤러(100); 상기 플랫폼 컨트롤러(100)에서 비상상태의 정지에 사용되는 좌측 및 우측 라이다 센서(111,112); 상기 플랫폼 컨트롤러(100)와 연결되어 사용자의 현재 위치를 계산하는 GPS(120); 상기 플랫폼 컨트롤러(100)와 연결되어 무선조종이 가능하도록 하는 무선수신기(130); 상기 플랫폼 컨트롤러(100)와 연결되어 조향을 제어하는 조향제어 시스템(140); 상기 플랫폼 컨트롤러(100)와 연결되어 제동을 제어하는 제동제어 시스템(150); 상기 플랫폼 컨트롤러(100)와 연결되어 구동을 제어하는 구동제어 시스템(160); 및 상기 플랫폼 컨트롤러(100)와 연결되어 회전 라이더(210)와 웹캠 카메라(220)를 제어하는 센서 컨트롤러(200)를 포함하며; 상기 좌측 및 우측 라이다 센서(111,112)는 차량의 전방에 설치되어 물체와의 거리를 확인하여 비상정지 여부를 결정하며; 상기 회전 라이다(210) 센서를 통해 차량 주변의 물체를 확인하여 장애물을 회피하며; 상기 웹캠 카메라(220)를 통하여 차선을 감지 및 추적하여 자율주행하는 것을 특징으로 한다.Also preferably, the vehicle control system mounted for the autonomous vehicle traveling method comprises: a platform controller (100) for controlling the speed of the vehicle and the steering device; Left and right Lidar sensors 111 and 112 used for stopping the emergency state in the platform controller 100; A GPS 120 connected to the platform controller 100 to calculate a current position of the user; A wireless receiver (130) connected to the platform controller (100) to enable radio control; A steering control system 140 connected to the platform controller 100 to control steering; A braking control system 150 connected to the platform controller 100 to control braking; A drive control system 160 connected to the platform controller 100 to control the drive; And a sensor controller (200) connected to the platform controller (100) and controlling the rotation rider (210) and the webcam camera (220); The left and right Lidar sensors 111 and 112 are installed in front of the vehicle to determine an emergency stop state by checking the distance to the object. (210) the obstacle is avoided by checking an object around the vehicle through a sensor (210); And detects and tracks the lane through the web camera camera 220 so as to autonomously run.

또한 바람직하게는, 상기 플랫폼 컨트롤러(100)는 상기 조향제어 시스템(140), 제동제어 시스템(150) 및 구동제어 시스템(160)과 PWM포트로 연결되는 것을 특징으로 한다.Preferably, the platform controller 100 is connected to the steering control system 140, the braking control system 150, and the drive control system 160 through a PWM port.

또한 바람직하게는, 상기 플랫폼 컨트롤러(100)는 GPS와 USB를 통해 연결되며, 상기 센서 컨트롤러(200)는 회전 라이다(210)센서 및 웹캠 카메라(220)와 USB를 통해 연결되는 것을 특징으로 한다.Preferably, the platform controller 100 is connected to a GPS via a USB, and the sensor controller 200 is connected to a rotation sensor 210 and a webcam camera 220 through a USB .

더욱 바람직하게는, 상기 플랫폼 컨트롤러(100)는 무선 수신기(130)를 제어하며, 무선 수신기(130)는 블루투스(Bluetooth)를 통해 무선조종 시스템과 통신하는 것을 특징으로 한다.More preferably, the platform controller 100 controls the wireless receiver 130 and the wireless receiver 130 communicates with the radio control system via Bluetooth.

본 발명에 따른 카메라 및 라이다 센서를 이용한 차량 자율주행방법에 의하면, 비상상황의 정지를 위하여 차량 전방에 탑재된 2개의 라이다 센서와, 360도 환경 정보를 얻어 장애물을 감지하는 차량 중앙에 탑재된 회전 라이다 센서와, 차선 인식 및 차선 추적을 위한 차량 전방에 설치된 웹캠 카메라를 통해 차량이 자율주행 함으로써 안전운전을 도모할 수 있다.According to the autonomous vehicle driving method using the camera and the Lydia sensor according to the present invention, in order to stop the emergency situation, two Raidas sensors mounted on the front of the vehicle and a 360 degree environment information are mounted in the center of the vehicle for detecting obstacles And the web camera camera installed at the front of the vehicle for lane recognition and lane-tracking can drive the vehicle autonomously, thereby enabling safe driving.

상기 목적 외에 본 발명의 다른 목적 및 이점들은 첨부한 도면을 참조한 실시예에 대한 상세한 설명을 통하여 명백하게 드러나게 될 것이다.Other objects and advantages of the present invention will become apparent from the detailed description of the embodiments with reference to the attached drawings.

도 1은 본 발명의 차량 모델링의 좌표를 나타내는 예시도
도 2는 본 발명의 차량 시스템의 좌표를 나타내는 예시도
도 3은 본 발명의 차량의 키네마틱 모델을 나타내는 예시도
도 4는 차량 제어 시스템 구성도
도 5는 오토 드라이빙 제어 알고리즘 장애물회피 제1 실시예
도 6은 오토 드라이빙 제어 알고리즘 장애물회피 제2 실시예
도 7은 차선 감지 및 추적 흐름도
도 8은 차선 추적 알고리즘
도 9는 자동 주행 제어 알고리즘
BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is an exemplary diagram showing coordinates of a vehicle modeling of the present invention; FIG.
2 is an exemplary diagram showing coordinates of a vehicle system according to the present invention;
3 is an exemplary diagram showing a kinematic model of a vehicle of the present invention.
4 shows a vehicle control system configuration diagram
Fig. 5 is a block diagram of the automatic driving control algorithm obstacle avoidance first embodiment
6 is a block diagram of an automatic driving control algorithm obstacle avoidance second embodiment
Figure 7 shows a lane detection and tracking flow chart
Figure 8 shows a lane-
Fig. 9 is a flowchart of an automatic driving control algorithm

본 발명에서는 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다.The present invention will now be described in detail with reference to the accompanying drawings.

먼저 본 발명은 카메라 및 라이다 센서를 이용한 차량 자율주행방법으로서, 3가지의 센서와 2개의 컨트롤러로 구성되어 있으며, 하나의 컨트롤러는 차량의 속도와 조향 제어에 사용되고, 다른 컨트롤러는 각종 물리적인 데이터를 측정하는 센서 제어에 사용된다. 자율주행 플랫폼에는 웹캠(WebCam)카메라, 라이다(LiDAR Lite V3)센서 및 360도 회전 라이다(Slamtec RPLiDAR)의 세가지 센서로 구성되며, 웹카메라는 주로 차선 인식 및 추적에 사용되고, 앞면의 2개의 라이다 센서는 비상상황의 정지에 사용되고, 회전 라이다(RPLiDAR) 센서는 360도 환경 정보를 얻는데 사용되며, 회전 라이다 센서의 데이터를 기반으로 장애물을 피할 수 있는 것을 특징으로 한다.First, the present invention relates to a vehicle autonomous traveling method using a camera and a Lydia sensor, which comprises three sensors and two controllers, one controller is used for vehicle speed and steering control, Is used for sensor control. The autonomous navigation platform consists of three sensors: a WebCam camera, a LiDAR Lite V3 sensor, and a Slamtec RPLiDAR. Web cameras are mainly used for lane identification and tracking, The Rida sensor is used to stop the emergency situation and the RPLiDAR sensor is used to obtain 360 degree environment information and it is able to avoid obstacles based on the data of the rotary sensor.

이때, 라이다(LiDAR)는 레이저 펄스를 발사하고, 그 빛이 주위의 대상 물체에서 반사되어 돌아오는 것을 받아 물체까지의 거리 등을 측정함으로써 주변의 모습을 정밀하게 그려내는 장치이다. 라이다는 영어로 Light Detection And Ranging의 약자로 전파 대신 빛을 쓰는 레이다를 뜻하는 것으로, 라이다는 전통적인 레이다와 원리가 같으나 그 사용하는 전자기파의 파장이 다르므로 실제 이용 기술과 활용 범위는 다르며, 라이다는 대상 물체까지의 거리 뿐 아니라 움직이는 속도와 방향, 온도, 주변의 대기 물질 분석 및 농도 측정 등에 쓰이며, 최근 들어 라이다는 3차원 영상을 구현하기 위해 필요한 정보를 습득하는 센서의 핵심 기술로 등장하였다. At this time, LiDAR is a device that fires laser pulses and reflects the light from the object to be reflected and measures the distance to the object to accurately depict the surroundings. Lada is an abbreviation of Light Detection And Ranging in English. Lada is a radar that uses light instead of radio waves. Lada has the same principle as a conventional radar. However, since the wavelength of the electromagnetic wave used is different, Lida is used not only for the distance to the object but also for analyzing the atmospheric matter and the concentration of the moving speed, direction, temperature, and surrounding. In recent years, Lada has been a core technology of sensor that acquires necessary information to realize 3D image .

본 발명의 카메라 및 라이다 센서를 이용한 차량 자율주행방법에 대하여 도 1 내지 도 3을 참조하여 상술한다.The autonomous vehicle driving method using the camera and the Lidar sensor of the present invention will be described in detail with reference to FIG. 1 to FIG.

도 1은 본 발명의 차량 모델링의 좌표를 나타내는 예시도이고, 도 2는 본 발명의 차량 시스템의 좌료를 나타내는 예시도이고, 도 3은 본 발명의 차량의 키네마틱 모델을 나타내는 예시도이다.Fig. 1 is an exemplary view showing the coordinates of the vehicle modeling of the present invention, Fig. 2 is an exemplary view showing a vehicle system of the present invention, and Fig. 3 is an exemplary view showing a kinematic model of the vehicle of the present invention.

도 1을 참조하면, XlMYl은 로컬 좌표 프레임이며, XgOYg은 글로벌 좌표 프레임을 나타낸다. 또한 Mr은 후방 축의 중심점이며, 로컬 좌표 프레임의 원점이다. Mf는 전방 축의 중심점을 나타낸다. 글로벌 좌표와 로컬 좌표 사이의 각도 차이는 θ값에 의해 주어지며, 회전변환행렬 수학식 1은 글로벌 좌표에 대한 로컬 좌표의 방향을 표현한다.Referring to FIG. 1, X l MY l denotes a local coordinate frame, and X g OY g denotes a global coordinate frame. Also, M r is the center point of the rear axis and is the origin of the local coordinate frame. M f represents the center point of the front axis. The angular difference between the global and local coordinates is given by the value of [theta], and the rotation transformation matrix equation (1) represents the direction of the local coordinates with respect to the global coordinates.

Figure 112018125983179-pat00001
Figure 112018125983179-pat00001

다음, 도 2를 참조하면, l은 축간 거리를 나타내며,

Figure 112018125983179-pat00002
는 휠 스티어링 각도를 나타내며, d는 두 개의 뒷바퀴 사이의 거리를 나타내며, ICR은 순간 회전 중심이며, dr과 df는 각각 Mr과 Mf의 순간 회전 반지름을 나타낸다. 차량의 전체적인 속도 Vr은 로컬 좌표 프레임의 Xl 축 방향과 함께 후륜의 속도를 나타내며, Vf는 앞쪽 휠의 속도를 나타낸다. 이때 Vr과 Vf의 관계는 수학식 2와 같다.Next, referring to FIG. 2, 1 denotes an inter-axis distance,
Figure 112018125983179-pat00002
D is the distance between the two rear wheels, ICR is the instantaneous center of rotation, and d r and d f represent the instantaneous radius of rotation of M r and M f , respectively. The overall speed V r of the vehicle, along with the X 1 axis direction of the local coordinate frame, represents the speed of the rear wheels, and V f represents the speed of the front wheels. The relationship between V r and V f is expressed by Equation (2).

Figure 112018125983179-pat00003
Figure 112018125983179-pat00003

이어서 도 3을 참조하면, 점 W는 차량의 무게중심을 나타내며, 점 W에 대한 차량의 구성은 글로벌 좌표[x,y,δ]T 에 의해서 정의되며, x, y 및 δ는 각각 차량의 x좌표, y좌표 및 방향을 나타내며, V는 차량을 속도를 나타내며, β는 차량의 속도 방향과 차량 방향 사이의 각도를 나타낸다. 3, the point W represents the center of gravity of the vehicle, the configuration of the vehicle for the point W is defined by the global coordinates [x, y, delta] T , and x, Coordinate, y coordinate and direction, V represents the speed of the vehicle, and β represents the angle between the vehicle's speed direction and the vehicle direction.

이어서, Wf와 Wr는 중심 중력지점과 앞쪽 휠 및 뒤쪽 휠 사이의 각각의 거리를 나타낸다. Next, W f and W r represent the respective distances between the center gravity point and the front wheel and the rear wheel.

또한, 고속으로 이동하는 지점의 좌표를 결정하는 방식으로 항법장치와 연결되어 사용하는 키네마틱 모델(The kinematic model)을 사용하며, 이때 취득되는 자료를 항법장치에서처럼 실시간 처리방식을 사용하지 않고, 후속계산에 의해 처리하면 처리된 자료를 수치지도 자료로 활용할 수 있다. 후속계산에 의한 방법은 실시간 처리방식에 의해 오차를 줄일 수 있으며, 잔차에 대한 세밀한 분석이 가능하고, 모형을 구성할 수 있다는 장점이 있다. 도로의 경우 고속으로 주행하는 자동차에서 이 방식에 의해 취득된 일련의 선형 자료를 후속 계산에 의해 처리하고, 이 자료에 도로의 속성을 부여하면 일거에 도로망도를 제작할 수 있다는 기술적 특징을 가지며, 차량의 키네마틱 모델(The kinematic model)은 수학식 3과 같이 계산되는 것을 나타낸다.Also, the kinematic model used in connection with the navigation device is used to determine the coordinates of a point moving at a high speed. The data obtained at this time is not used in the real time processing method as in the navigation device, When processed by calculation, processed data can be used as digital map data. The method of the subsequent calculation can reduce the error by the real-time processing method, enables detailed analysis of the residuals, and has a merit that the model can be constructed. In the case of roads, a series of linear data acquired by this method in a vehicle traveling at high speed is processed by subsequent calculation, and the characteristics of the road network can be produced at once by assigning attributes of roads to the data. The kinematic model of Equation (3) is calculated as Equation (3).

Figure 112018125983179-pat00004
Figure 112018125983179-pat00004

여기서 β는 다음 수학식 4와 같이 계산된다.Here,? Is calculated by the following equation (4).

Figure 112018125983179-pat00005
Figure 112018125983179-pat00005

다음, 본 발명에서 제안하는 차량 제어 시스템 구성 및 알고리즘을 도 4 내지 도 9를 참조하여 상술하면, 도 4는 차량 제어 시스템 구성도이고, 도 5는 오토 드라이빙 제어 알고리즘 장애물회피 제1 실시예이고, 도 6은 오토 드라이빙 제어 알고리즘 장애물회피 제2 실시예이고, 도 7은 차선 감지 및 추적 흐름도이고, 도 8은 차선 추적 알고리즘이고, 도 9는 자동 주행 제어 알고리즘이다.Next, the vehicle control system configuration and algorithm proposed in the present invention will be described in detail with reference to Figs. 4 to 9. Fig. 4 is a configuration diagram of the vehicle control system, Fig. 5 is the first embodiment of the auto driving control algorithm obstacle avoidance, Fig. 6 is a second embodiment of an auto driving control algorithm obstacle avoidance, Fig. 7 is a lane detection and tracking flowchart, Fig. 8 is a lane-tracking algorithm, and Fig. 9 is an automatic driving control algorithm.

본 발명의 자율주행시스템은 크게 차량 제어 시스템과 센서 시스템으로 나눌 수 있으며, 차량 제어 시스템은 도 4를 참조하면, 플랫폼 컨트롤러(100), 조향제어 시스템(140), 제동제어 시스템(150), 구동제어 시스템(160), 무선조종 시스템(131), 전방감지 라이더센서(111,112)와 센서 시스템과의 연결을 위한 인터페이스로 구성되어 있다. 플랫폼 컨트롤러(100)는 차량의 속도와 조향 장치를 제어하며, 비상상태의 정지에 사용될 라이다 센서(110)의 값을 취득한다. 상기 플랫폼 컨트롤러(100)는 MI-myRIO 컨트롤러를 사용하는 것이 바람직하지만, 차량의 속도와 조향 장치를 제어할 수 있기만 하면 어떠한 플랫폼 컨트롤러여도 상관없음은 물론이다. 4, the vehicle control system includes a platform controller 100, a steering control system 140, a braking control system 150, a drive control system 150, A control system 160, a radio control system 131, and front sensing rider sensors 111 and 112, and an interface for connection with the sensor system. The platform controller 100 controls the speed of the vehicle and the steering device, and acquires the value of the LR sensor 110 to be used for stopping the emergency state. The platform controller 100 preferably uses an MI-myRIO controller. However, it is needless to say that the platform controller 100 may be any platform controller as long as it can control the speed of the vehicle and the steering apparatus.

또한, 상기 플랫폼 컨트롤러(100)는 라이더 센서(111,112)와 조향제어 시스템(140), 제동제어 시스템(150), 구동제어 시스템(160)과 PWM포트에 의해 연결이 되며, 무선수신기(130)를 제어하고 무선수신기(130)는 Bluetooth를 통해 무선조종 시스템(131)과 통신한다. The platform controller 100 is connected to the rider sensors 111 and 112 via the PWM port with the steering control system 140, the braking control system 150 and the drive control system 160, And the wireless receiver 130 communicates with the radio control system 131 via Bluetooth.

또한, GPS(Global Positioning System)(120)는 GPS 위성에서 보내는 신호를 수신해 사용자의 현재 위치를 계산하는 위성항법시스템으로, 항공기, 선박, 자동차 등의 내비게이션장치에 주로 사용되며, 상기 GPS(120)는 제1 USB(121)를 통해 플랫폼 컨트롤러(100)에 연결되는 것을 나타낸다.The GPS (Global Positioning System) 120 is a satellite navigation system that receives a signal transmitted from a GPS satellite and calculates a current position of the user. The GPS is used mainly for a navigation device such as an aircraft, a ship, ) Is connected to the platform controller 100 via the first USB 121. [

이어서, 회전 라이다 센서(210) 및 웹캠 카메라(220)와 연결된 센서 컨트롤러(200)는 PC 또는 NVIDA Jetson TX2를 사용하는 것이 바람직하지만, 감지된 데이터를 분석하여 전송할 수 있기만 하면 어떠한 센서 컨트롤러여도 상관없음은 물론이다. It is preferable to use the PC or the NVIDA Jetson TX2 in connection with the rotation sensor 210 and the sensor controller 200 connected to the webcam camera 220. However, as long as the sensed data can be analyzed and transmitted, Of course not.

또한, 상기 센서 컨트롤러(200)는 회전 라이다 센서(210)와 웹캠 카메라(220)를 통하여 감지된 데이터를 분석하여 전송하고 플랫폼 컨트롤러(100)에서 수신된 조향 명령에 따라 장애물을 회피하여 차선을 인식 및 추적하여 주행하는 것을 기술적 특징으로 한다.The sensor controller 200 analyzes and transmits the sensed data through the rotary sensor 210 and the web camera 220 and avoids an obstacle in accordance with the steering command received by the platform controller 100, Recognizes and traces the vehicle.

상기 센서 컨트롤러(200)는 RS232 케이블(230)을 통하여 플랫폼 컨트롤러와 통신하며, 회전 라이다(RPLiDAR)센서(210) 및 웹캠 카메라(220)는 각각 USB를 통하여 센서 플랫폼 컨트롤러에 연결되는 것을 나타낸다.The sensor controller 200 communicates with the platform controller via the RS232 cable 230 and the RPLiDAR sensor 210 and the webcam camera 220 are respectively connected to the sensor platform controller via USB.

또한, 자율주행 알고리즘은 센서 플랫폼 컨트롤러에서 주로 처리되며, 주행 알고리즘을 기반으로 속도 및 조향 명령은 센서 컨트롤러에서 플랫폼 컨트롤러로 전송되는 것을 나타낸다.Also, the autonomous driving algorithm is mainly handled in the sensor platform controller, and the speed and steering commands are transmitted from the sensor controller to the platform controller based on the driving algorithm.

상기 자율주행 알고리즘은 차량 전면에 위치한 두 개의 라이다 센서를 통해 비상정지 여부를 감지하며 dlidar-l 와 dlidar-r 은 두 센서의 각각 감지 거리를 나타내며, 하나 또는 두 개의 라이다 센서가 물체를 감지하고 물체와의 거리가 50cm 미만일 경우 차량이 비상 정지하는 것을 나타내며 의사 제어 코드는 다음과 같다.The autonomous driving algorithm detects the presence of an emergency stop through two Lidar sensors located on the front of the vehicle, and d lidar-l and d lidar-r represent the sensing distances of the two sensors, respectively. And the distance to the object is less than 50cm, it indicates that the vehicle is in an emergency stop and the pseudo control code is as follows.

Figure 112018125983179-pat00006
Figure 112018125983179-pat00006

즉, 좌측 라이다 센서 또는 우측 라이다 센서에서 감지된 물체와의 거리가 50cm 미만일 경우에 차량의 속도와 조향을 0으로 제어하여 비상 정지하는 것을 기술적 특징으로 한다.That is, when the distance between the left side sensor or the right side sensor is less than 50 cm, the speed and steering of the vehicle are controlled to be zero, and an emergency stop is performed.

다음, 도 5를 참조하면, 오토 드라이빙 제어 알고리즘의 장애물 회피에 관련하여, 회전 라이다(RPLiDAR) 센서는 차량의 중앙 지점(RPLiDAR 센서의 0점) L 포인트에 위치한다.Next, referring to FIG. 5, regarding the obstacle avoidance of the auto driving control algorithm, the RRLiDAR sensor is located at the L-point of the center of the vehicle (zero point of the RPLiDAR sensor).

회전 라이다(RPLiDAR) 센서가 객체 포인트 P를 감지하면 거리 값 dls 과 베어링 각도 α를 피드백한다. 수학식 5, 수학식 6을 기반으로 회전 라이다(RPLiDAR) 센서와 로컬 좌표 프레임의 영점 사이의 거리는 lro 피드백 거리 및 베어링 각도를 변환하는 것을 나타낸다.When the RPLiDAR sensor detects the object point P, it feeds back the distance value d ls and the bearing angle α. La is rotated based on the equation (5), Equation 6 (RPLiDAR) shows the conversion of a distance and bearing angle, the distance l ro feedback between the sensor and the zero point of the local coordinate frame.

Figure 112018125983179-pat00007
Figure 112018125983179-pat00007

Figure 112018125983179-pat00008
Figure 112018125983179-pat00008

도 6을 참조하면, 회전 라이다(RPLiDAR) 센서는 360도 전방위를 스캐닝하면서 회전되며, 주변 윤곽에 대한 데이터를 생성하며, 센서 제어기는 회전 라이다(RPLiDAR) 센서로부터 감지 지점을 얻은 후 모든 지점 데이터를 분석하고 좌표 프레임에서 차량과 감지된 물체의 위치를 인식한다.Referring to FIG. 6, a RPLiDAR sensor rotates while scanning 360 degrees in all directions, generates data about a peripheral contour, and the sensor controller obtains a detection point from a RPLiDAR sensor, Analyzes the data and recognizes the position of the vehicle and the sensed object in the coordinate frame.

x 범위[0.5m, 2m] 와 y 범위[-0.4m, 0.4m]에 설정값 이상의 포인트가 있는 경우, 피해야 할 물체가 차량 앞에 있음을 인지하며, x 범위[0.2m, 1m] 및 y 범위[0.2m, 1m]에 설정값 이상의 포인트가 있는 경우, 피해야 할 차량 좌측에 물체가 있다고 인지한다. x range [0.5m, 1m] and the y range [0.5m, 2m] and the y range [-0.4m, 0.4m] [0.2m, 1m], there is an object on the left side of the vehicle to be avoided.

또한 x 범위[0.2m, 1m] 및 y 범위[-1m, -0.2m]에 설정값 이상의 포인트가 있는 경우, 피해야 할 차량 우측에 물체가 있다고 인지하여 센서 컨트롤러는 분석 결과에 따라 플랫폼 컨트롤러에 조향 명령을 전송해야 하는 것을 나타낸다.If there is more than the set point in the x range [0.2m, 1m] and the y range [-1m, -0.2m], the sensor controller recognizes that there is an object on the right side of the vehicle to be avoided, Indicates that the command should be sent.

또한, 조향 명령은 다음 표 1에 따라 결정되는 것을 특징으로 한다.Further, the steering command is determined according to Table 1 below.

Figure 112018125983179-pat00009
Figure 112018125983179-pat00009

표 1의 조향 명령은 케이스 0에서 장애물이 없으면 차량이 전진하며, 케이스 1에서 장애물이 우측에 있으면 차량은 전진하며, 케이스 2에서 전방에 장애물이 있고 우측에 장애물이 없으면 차량이 우회전하며, 케이스 3에서 차량의 좌측에 장애물이 없다면 차량은 좌회전하며, 케이스 4와 5에서 좌측 또는 우측에 장애물이 있고 전방에 장애물이 없으면 차량이 전진하며 케이스 6에서 우측에 장애물이 없다면 차량은 우회전하며, 케이스 7에서 차량의 전방, 좌측 및 우측에 장애물이 있으면 차량은 후방으로 이동하는 것을 나타낸다.The steering command in Table 1 is that the vehicle advances if there is no obstacle in Case 0, the vehicle advances if the obstacle is in the right side in Case 1, the vehicle turns right if there is an obstacle ahead in Case 2, The vehicle will turn left if there is no obstacle on the left side of the vehicle, the vehicle will advance if there is an obstacle on the left or right side in cases 4 and 5 and no obstacle ahead, If there are obstacles in the front, left, and right sides of the vehicle, it indicates that the vehicle moves backward.

따라서 상기 회전 라이다(RPLiDAR)센서로부터 감지된 데이터를 센서 컨트롤러를 통해 분석하여 전송하고 플랫폼 컨트롤러에서 수신된 조향 명령에 따라 장애물을 회피하여 주행하는 것을 기술적 특징으로 한다.Accordingly, the present invention is characterized in that data sensed by the RL PDAR sensor is analyzed and transmitted through a sensor controller, and an obstacle is avoided according to a steering command received from the platform controller.

다음, 차량 앞에는 웹캠(WebCam)카메라가 장착되어 있으며, 카메라를 사용하여 차선을 감지하고 차선을 추적한다. 차선 감지 및 추적 흐름도는 도 7을 참조하면, 처음 세 블록은 이미지 탐지를 통한 차선감지(300)에 사용되며, 다음, 5개 블록은 차선 추적(310)을 위해 사용된다.Next, the vehicle is equipped with a WebCam camera in front of the vehicle, and the camera is used to detect the lane and track the lane. 7, the first three blocks are used for lane detection 300 through image detection, and then five blocks are used for lane tracking 310. The lane detection and tracking flow diagram of FIG.

(a) 카메라를 통해 이미지 정보를 취득하는 단계(301); (a) acquiring (301) image information through a camera;

(b) 영상 처리를 위해 영상의 해상도 조정 단계(302);(b) adjusting an image resolution for image processing (302);

(c) 색 임계값(Color Threshold)은 RGB 이미지를 8비트 이미지로 설정하는 단계(303);(c) Color Threshold is a step 303 of setting an RGB image as an 8-bit image;

(d) 차선 추적을 위해 입자 필터는 영상에서 작은 입자를 제거하는 단계(311);(d) the particle filter for lane tracing includes removing (311) small particles from the image;

(e) 그레이 모폴로지(Gray morphology)기술로 이미지 데이터에서 원하는 데이터 이미지를 얻기 위한 필터를 적용하여 차선을 인식하는 단계(312);(e) recognizing a lane by applying a filter to obtain a desired data image in the image data with a gray morphology technique (312);

(f) 차선에서 두 인접 점 사이의 거리가 동일한 5개의 점을 찾는 모서리 찾기 단계(313);(f) a corner searching step (313) of finding five points having the same distance between two adjacent points in the lane;

(g) 픽셀을 실제 세계로 변환하면 픽셀 좌표를 실제 좌표로 변환하는 단계(314);(g) transforming the pixel to the real world, transforming the pixel coordinate to the real coordinate (314);

(h) 유입 차선 추적 지점에서 알고리즘 실행 단계(315);(h) executing an algorithm at an incoming lane tracking point (315);

여기서, 상기 차선 감지 및 추적 단계를 구체적으로 설명하면 다음과 같다.Hereinafter, the lane detection and tracking step will be described in detail.

(a)에서 웹캠 카메라를 통하여 이미지 정보를 취득하고, (b)에서 영상 처리를 위해 영상 크기가 640*480 해상도로 조정되며, (c)에서 색 임계값(Color Threshold)을 8비트 이미지로 설정하는 단계에서는 통상적으로 모니터나 프로젝터, TV와 같이 이미지를 표현하는 장치는 RGB(Red, Green, Blue)의 세가지 색상조합으로 색을 표현하며, 빛의 삼원색을 이용해 모든 색상을 표현하는 것을 나타내며, 여기서 RGB의 bit 에 따라 표현가능한 색상이 정해진다.(b), the image size is adjusted to 640 * 480 resolution for image processing, and (c) the color threshold is set as an 8-bit image in (c) A device that displays an image such as a monitor, a projector, or a TV usually represents a color using three color combinations of RGB (Red, Green, and Blue), and expresses all colors using the three primary colors of light, The colors that can be represented by the bits of RGB are determined.

또한, 색 임계값은 이미지의 중요한 구조를 나머지 이미지와 구분하며, 임계 값은 임계 값 범위 내의 모든 픽셀을 1로 설정하고 이미지의 다른 모든 픽셀을 0으로 설정하며, 그결과 이미지는 2진 이미지로 표현되는 것을 나타낸다.In addition, the color threshold distinguishes the important structure of the image from the rest of the image, and the threshold sets all pixels in the threshold range to 1 and sets all other pixels in the image to zero, Expresses what is expressed.

즉 bit를 bit-depth(비트 농도)라고도 표현하는데, 빛의 밝기를 얼마나 정밀하게 조정할수 있느냐라는 척도를 나타낸다. 여기서 색상갯수=2n(bit)가 된다.In other words, bit is also referred to as bit-depth (bit density), which indicates how precisely the brightness of light can be adjusted. Here, the number of colors = 2 n (bits).

따라서, RGB가 8비트로 되어 있다면 28=256으로, 256가지 색상으로 이미지를 표현하는 것을 나타낸다.Thus, if the RGB is 8 bits, then 2 8 = 256, which means that the image is expressed in 256 colors.

(d)에서 차선 추적을 위해 입자 필터를 통하여 작은 입자를 제거하며, (e)에서 그레이 모폴로지(Gray morphology)는 픽셀 값을 변경하여 이미지의 피처 모양을 수정하는 것을 나타내며, 화소끼리의 비교가 아닌 명도값 크기로 결과 영상을 출력하며, 물체와 배경의 밝기 격차가 클 때 유용하며 차선을 침식하여 인식한다.(d), the small particles are removed through a particle filter for lane tracking. In (e), gray morphology indicates that the shape of the feature of the image is modified by changing the pixel value, Outputs the result image with the brightness value size. It is useful when the brightness difference between the object and the background is large, and recognizes it by eroding the lane.

이어서 상기 (h)단계에서는 도 8과 같이 진행되며, Bi(xbi, ybi)와 C i (xci, yci)는 가장자리 찾기 및 픽셀을 실측 블록으로 변환하는데 적용되는 것을 나타낸다.In step (h), the process proceeds as shown in FIG. 8, where B i (x bi , y bi ) and C i (x ci , y ci ) are applied to edge detection and conversion of the pixel to the actual block.

또한 추적점 Ai(xai, yai)은 수학식 7과 수학식 8로 계산되는 것을 기술적 특징으로 한다.Also, the tracking point A i (x ai , y ai ) is calculated by Equation (7) and Equation (8).

Figure 112018125983179-pat00010
Figure 112018125983179-pat00010

Figure 112018125983179-pat00011
Figure 112018125983179-pat00011

도 9를 참조하면, 주행 중 차량의 전방에 설치된 2개의 라이다 센서, 즉 좌측 라이다 센서 값과 우측 라이다 센서 값을 획득한다.(S410)9, two Lidar sensors, that is, a left Lidar sensor value and a right Lidar sensor value, which are installed in front of the vehicle during driving, are obtained (S410)

상기 (S410)단계에서 주행 중 좌측 라이다 센서 또는 우측 라이다 센서가 물체를 감지하고 하나 또는 두 개의 라이다 센서에서 감지된 물체와의 거리가 50cm 미만인지 확인하여 비상여부를 결정한다(S420)In step S410, the left or right Lidar sensor senses an object and determines whether the distance from the object detected by the one or two Ladid sensors is less than 50 cm (S420)

상기 (S420)에서 물체와의 거리가 50cm 미만일 경우 비상정지를 진행하도록 신호를 전송한다.(S421)If the distance to the object is less than 50 cm, a signal is transmitted to proceed to the emergency stop (S421)

상기 (S420)에서 비상정지를 진행할 필요가 없는 경우, 회전 라이다 센서를 통하여 차량 주변에 장애물이 있는지 확인한다. (S430)If it is not necessary to proceed with the emergency stop in S420, the controller checks whether there is an obstacle around the vehicle through the rotary sensor. (S430)

상기 (S430)에서 획득한 회전 라이다 센서 값을 통하여 물체의 위치를 인식하고 장애물 회피를 결정한다.(S440)The position of the object is recognized through the rotary sensor value obtained in S430 and the obstacle avoidance is determined (S440)

상기 (S440)에서 차량 주변에 물체가 인식되면 장애물 회피를 진행하도록 신호를 전송한다.(S441)If an object is recognized in the vicinity of the vehicle in step S440, a signal is transmitted so as to proceed with obstacle avoidance (S441)

상기 (S440)에서 차량 주변에 장애물이 없을 경우 웹캠을 통하여 데이터를 획득한다.(S450)If there is no obstacle around the vehicle in S440, data is acquired through the webcam (S450)

상기 (S450)에서 획득된 데이터를 통하여 차선을 감지한다.(S460)The lane is detected through the data obtained in the step S450 (S460)

상기 (S460)에서 감지된 차선을 따라 차선을 추적한다.(S470)The lane is tracked along the lane sensed in step S460 (S470)

상기 (S421)의 비상정지 단계의 신호를 최우선으로 속도 및 조향 명령을 전송하며, 다음 우선순위로 (S441) 장애물 회피 단계의 비상정지 신호로 속도 및 조향 명령을 전송하며, 다음으로 (S470)에서 차선 추적을 통한 속도 및 조향 명령을 전송하여 주행한다.(S480)In step S421, the signal of the emergency stop phase is transmitted with priority to the speed and steering command, and the speed and steering command are transmitted to the emergency stop signal in the obstacle avoidance phase in the next priority order (S441) And transmits the speed and steering command through the lane-tracking (S480)

상기 (S480)을 통해 자율 주행시 목표 지점에 도달했는지 여부를 확인하고 목표점에 도달했으면 자율 주행을 정지하며, 목표 지점에 도달하지 못했을 경우 목표지점에 도달할 때까지 (S410) 단계로 반복하여 실행한다.(S490)In step S480, it is checked whether the target point has been reached in the autonomous running. When the target point is reached, the autonomous running is stopped. If the target point is not reached, the procedure is repeatedly performed until the target point is reached in step S410 (S490)

자율 주행 제어 알고리즘은 비상정지 알고리즘, 장애물 회피 알고리즘, 차선 감지 및 추적 알고리즘을 결합하여 진행되며, 비상정지 알고리즘의 우선순위가 가장 높다.The autonomous driving control algorithm combines the emergency stop algorithm, the obstacle avoidance algorithm, the lane detection and tracking algorithm, and the emergency stop algorithm has the highest priority.

차량은 비상정지 여부를 먼저 결정해야 하며, 차량이 비상 정지할 경우 의사 제어 코드로 알고리즘을 수행하며, 장애물 회피 알고리즘으로 진행된다. 차량이 비상 정지를 필요로 하지 않으면 장애물을 피해야 하는지 여부를 점검하며 차량이 장애물을 피해야 하는 경우 조향 명령에 따라 장애물을 회피하는 단계로 진행되며, 차선 감지 및 추적 알고리즘 단계로 넘어가게 되는 것을 나타낸다.The vehicle must first determine whether to stop the emergency, and if the vehicle is in an emergency stop, it executes the algorithm with the pseudo control code and proceeds to an obstacle avoidance algorithm. If the vehicle does not require an emergency stop, it checks to see if an obstacle should be avoided, and if the vehicle should avoid an obstacle, proceed to the step of avoiding the obstacle according to the steering command, and proceed to the lane detection and tracking algorithm step.

주행 중에는 비상정지 여부 선택 단계(S420)가 진행되며 주행 중이 아닐 경우에는 비상정지 여부(S420)단계가 자동으로 N으로 선택되어 회전 라이다 센서값을 획득(S430)하는 단계로 넘어간다.If it is determined that the vehicle is not traveling, the step S420 is automatically selected as N, and the process proceeds to step S430.

따라서 차량이 정지하거나 장애물을 피하지 않으면 차량은 차선 감지 및 추적 흐름도를 기반으로 점을 추적하는 것을 기술적 특징으로 한다.Therefore, if the vehicle stops or avoids obstacles, the vehicle traces points based on the lane detection and tracking flow chart.

본 발명은 이 분야의 통상의 지식을 가진 자가 다양한 변형에 의하여 카메라 및 라이다 센서를 이용한 차량 자율주행방법에 적용시킬 수 있으며, 기술적으로 용이하게 변형시키는 기술의 범주도 본 특허의 권리범위에 속하는 것으로 인정해야 할 것이다.The present invention can be applied to a vehicle autonomous driving method using a camera and a Lidar sensor according to various modifications by a person having ordinary skill in the art, .

100 : 플랫폼 컨트롤러 (PCU : Platform Control Unit)
110 : 라이다 센서
111 : 좌측 라이다 센서
112 : 우측 라이다 센서
120 : GPS(Global Positioning System)
121 : 제1 USB(Universal Serial Bus)
130 : 무선수신기
131 : 무선조종 시스템
140 : 조향제어 시스템
150 : 제동제어 시스템
151 : 브레이크 모터
160 : 구동제어 시스템
161 : 드라이브 모터
170 : 엔코더(Encoder)
200 : 센서 컨트롤러 (SCU : Sensor Control Unit)
210 : 회전 라이다 센서
211 : 제2 USB(Universal Serial Bus)
220 : 웹캠(Webcam) 카메라
221 : 제3 USB(Universal Serial Bus)
230 : RS232 케이블
300 : 차선 감지
301 : 이미지 획득
302 : 이미지 해상도 조정
303 : 색 임계값
310 : 차선 추적
311 : 입자 제거 필터
312 : 그레이 모폴로지(Gray Morphology)
313 : 모서리 찾기
314 : 픽셀 변환
315 : 차선 추적점 획득
100: Platform Control Unit (PCU)
110:
111: Left Lidar sensor
112: right side sensor
120: GPS (Global Positioning System)
121: First Universal Serial Bus (USB)
130: Wireless receiver
131: Radio control system
140: Steering control system
150: Braking control system
151: Brake motor
160: drive control system
161: Drive motor
170: Encoder
200: Sensor Controller (SCU: Sensor Control Unit)
210: Rotary Lidar sensor
211: Second Universal Serial Bus (USB)
220: Webcam camera
221: Third Universal Serial Bus (USB)
230: RS232 cable
300: Lane detection
301: Image acquisition
302: Adjust image resolution
303: Color Threshold
310: Lane Tracking
311: Particle removal filter
312: Gray Morphology
313: Finding a corner
314: Pixel Conversion
315: Lane Tracking Obtained

Claims (10)

(a) 차량의 전방에 설치된 좌측 라이다 센서와 우측 라이다 센서에서 센서값을 획득하는 단계(S410);
(b) 상기 좌측 라이다 센서 또는 우측 라이다 센서가 물체를 감지하고 하나 또는 두 개의 라이다 센서에서 감지된 물체와의 거리를 확인하여 비상여부를 결정하는 단계(S420);
(c) 상기 (b)단계에서 물체와의 거리가 설정값 미만일 경우 비상정지를 진행하도록 신호를 전송하는 단계(S421);
(d) 상기 (b)단계에서 비상정지를 진행할 필요가 없는 경우, 회전 라이다 센서를 통하여 차량 주변에 장애물이 있는지 확인하는 단계(S430);
(e) 상기 (d)단계에서 획득한 회전 라이다 센서값을 통하여 물체의 위치를 인식하고 장애물 회피를 결정하는 단계(S440);
(f) 상기 (e)단계에서 차량 주변에 물체가 인식되면 장애물 회피를 진행하도록 신호를 전송하는 단계(S441);
(g) 상기 (e)단계에서 차량 주변에 장애물이 없을 경우 웹캠을 통하여 데이터를 획득하는 단계(S450);
(h) 상기 (g)단계에서 웹캠 카메라를 통해 획득된 데이터에서 이미지 정보를 취득하고, 영상 처리를 위해 영상의 해상도를 조정하며, RGB 이미지를 8비트 이미지로 설정하여 차선을 감지하는 단계(S460);
(i) 상기 (h)단계에서 감지된 차선에서 입자 필터를 통해 영상에서 작은 입자를 제거하고, 그레이 모폴로지 필터를 적용하여 차선을 인식하며, 차선에서 두 인접 점 사이의 거리가 동일한 5개의 점을 찾아 픽셀 좌표를 실제 좌표로 변환하고, 유입 차선 추적 지점에서 알고리즘을 실행하여 차선을 추적하는 단계(S470);
(j) 상기 (c)단계의 비상정지 신호를 최우선으로 속도 및 조향 명령을 전송하며, 다음 우선순위로 (f)단계 장애물 회피의 신호로 속도 및 조향 명령을 전송하며, 다음으로 (i)단계 차선 추적을 통한 속도 및 조향 명령을 전송하여 주행하는 단계(S480); 및
(k) 상기 (a) 내지 (j) 단계를 통해 자율 주행시 목표 지점에 도달했는지 여부를 확인하고 목표점에 도달했으면 자율 주행을 정지하며, 목표 지점에 도달하지 못했을 경우 목표지점에 도달할 때까지 (a) 단계로 돌아가서 반복하여 실행하는 단계(S490)를 포함하는 것을 특징으로 하는 카메라 및 라이다 센서를 이용한 차량 자율주행방법.
(a) acquiring a sensor value from a left Lidar sensor and a right Lidar sensor installed in front of the vehicle (S410);
(b) determining whether the left or right Lidar sensor senses an object and determine the distance to the object detected by the one or two Lidar sensors to determine whether the object is in an emergency (S420);
(c) transmitting (S421) a signal to proceed with the emergency stop when the distance to the object in step (b) is less than the set value;
(d) if it is not necessary to proceed with the emergency stop in step (b), checking whether there is an obstacle around the vehicle through the rotary sensor (S430);
(e) recognizing the position of the object through the rotary sensor value obtained in the step (d) and determining obstacle avoidance (S440);
(f) transmitting (S441) a signal for avoiding an obstacle when an object is recognized around the vehicle in the step (e);
(g) acquiring data through the webcam when there is no obstacle around the vehicle in the step (e) (S450);
(h) acquiring image information from the data acquired through the webcam camera in step (g), adjusting the resolution of the image for image processing, and detecting the lane by setting an RGB image as an 8-bit image );
(i) removing small particles from the image through the particle filter in the lane detected in step (h), recognizing the lane by applying a gray morphology filter, and calculating five points having the same distance between two adjacent points in the lane Converting the pixel coordinates into actual coordinates, and executing the algorithm at the incoming lane tracking point to track the lane (S470);
(j) sending a speed and steering command with the emergency stop signal of the step (c) as a top priority, sending a speed and steering command to the signal of the obstacle avoidance in the next priority (f) A step S480 of traveling by transmitting a speed and steering command via lane-tracking; And
(k) It is checked whether or not the target point has been reached at the time of the autonomous running through the steps (a) to (j), and if the target point is reached, the autonomous running is stopped. The method of claim 1, further comprising the steps of: (a) returning to step (a); and repeating the step (S490).
삭제delete 제 1항에 있어서, 상기 (b)단계는
좌측 라이다 센서 또는 우측 라이다 센서가 물체를 감지하고 라이다 센서에서 감지된 물체와의 거리를 확인하여 물체와의 거리가 50cm 미만일 경우 비상정지를 결정하는 것을 특징으로 하는 카메라 및 라이다 센서를 이용한 차량 자율주행방법.
2. The method of claim 1, wherein step (b)
The left or right Lidar sensor senses an object and determines the distance from the object detected by the Lidar sensor to determine an emergency stop when the distance to the object is less than 50 cm. Autonomous vehicle driving method.
제 1항에 있어서, 상기 (f)단계는
회전 라이다 센서를 이용하여 감지된 물체의 위치를 인식하고 설정된 범위에 일정 수의 포인트가 있는 경우, 피해야 할 물체가 있음을 인지하여 장애물 회피를 위한 조향 명령을 전송하는 것을 특징으로 하는 카메라 및 라이다 센서를 이용한 차량 자율주행방법.
2. The method of claim 1, wherein step (f)
Recognizing the presence of an object to be avoided and transmitting a steering command for avoiding an obstacle when a predetermined number of points exist in the set range, Autonomous vehicle driving method using sensor.
삭제delete 삭제delete 차량 자율주행방법을 위해 탑재된 차량 제어 시스템은,
차량의 속도와 조향 장치를 제어하는 플랫폼 컨트롤러(100);
상기 플랫폼 컨트롤러(100)에서 비상상태의 정지에 사용되는 좌측 및 우측 라이다 센서(111,112);
상기 플랫폼 컨트롤러(100)와 연결되어 사용자의 현재 위치를 계산하는 GPS(120);
상기 플랫폼 컨트롤러(100)와 연결되어 무선조종이 가능하도록 하는 무선수신기(130);
상기 플랫폼 컨트롤러(100)와 연결되어 조향을 제어하는 조향제어 시스템(140);
상기 플랫폼 컨트롤러(100)와 연결되어 제동을 제어하는 제동제어 시스템(150);
상기 플랫폼 컨트롤러(100)와 연결되어 구동을 제어하는 구동제어 시스템(160); 및
상기 플랫폼 컨트롤러(100)와 연결되어 회전 라이더(210)와 웹캠 카메라(220)를 제어하는 센서 컨트롤러(200)를 포함하며;
상기 좌측 및 우측 라이다 센서(111,112)는 차량의 전방에 설치되어 물체와의 거리를 확인하여 비상정지 여부를 결정하며;
상기 회전 라이다(210) 센서를 통해 차량 주변의 물체를 확인하여 장애물을 회피하며;
상기 웹캠 카메라(220)를 통하여 획득된 데이터에서 이미지 정보를 취득하고, 영상 처리를 위해 영상의 해상도를 조정하며, RGB 이미지를 8비트 이미지로 설정하여 차선을 감지하고, 감지된 차선에서 입자 필터를 통해 영상에서 작은 입자를 제거하고, 그레이 모폴로지 필터를 적용하여 차선을 인식하며, 차선에서 두 인접 점 사이의 거리가 동일한 5개의 점을 찾아 픽셀 좌표를 실제 좌표로 변환하고, 유입 차선 추적 지점에서 알고리즘을 실행하여 차선을 감지 및 추적하며;
비상정지 신호, 장애물 회피, 차선 추적 순서로 우선순위를 설정하여 속도 및 조향 명령을 전송하여 주행하는 것을 특징으로 하는 카메라 및 라이다 센서를 이용한 차량 자율주행방법.
A vehicle control system mounted for an autonomous vehicle traveling method comprises:
A platform controller (100) for controlling the speed of the vehicle and the steering device;
Left and right Lidar sensors 111 and 112 used for stopping the emergency state in the platform controller 100;
A GPS 120 connected to the platform controller 100 to calculate a current position of the user;
A wireless receiver (130) connected to the platform controller (100) to enable radio control;
A steering control system 140 connected to the platform controller 100 to control steering;
A braking control system 150 connected to the platform controller 100 to control braking;
A drive control system 160 connected to the platform controller 100 to control the drive; And
And a sensor controller (200) connected to the platform controller (100) and controlling the rotation rider (210) and the webcam camera (220);
The left and right Lidar sensors 111 and 112 are installed in front of the vehicle to determine an emergency stop state by checking the distance to the object.
(210) the obstacle is avoided by checking an object around the vehicle through a sensor (210);
The image information is acquired from the data obtained through the web camera camera 220, the resolution of the image is adjusted for image processing, the lane is detected by setting the RGB image as an 8-bit image, In this paper, we propose an algorithm to remove the small particles from the image, apply the gray morphology filter to recognize the lane, convert the pixel coordinates to the actual coordinates by finding five points with the same distance between two adjacent points in the lane, To detect and track lanes;
And the vehicle is driven by sending a speed and a steering command by setting priority in the order of the emergency stop signal, obstacle avoidance, and lane tracing.
제 7항에 있어서,
상기 플랫폼 컨트롤러(100)는 상기 조향제어 시스템(140), 제동제어 시스템(150) 및 구동제어 시스템(160)과 PWM포트로 연결되는 것을 특징으로 하는 카메라 및 라이다 센서를 이용한 차량 자율주행방법.
8. The method of claim 7,
Wherein the platform controller (100) is connected to the steering control system (140), the braking control system (150), and the drive control system (160) by a PWM port.
제 7항에 있어서,
상기 플랫폼 컨트롤러(100)는 GPS와 USB를 통해 연결되며, 상기 센서 컨트롤러(200)는 회전 라이다(210)센서 및 웹캠 카메라(220)와 USB를 통해 연결되는 것을 특징으로 하는 카메라 및 라이다 센서를 이용한 차량 자율주행방법.
8. The method of claim 7,
The platform controller 100 is connected to a GPS via a USB and the sensor controller 200 is connected to a sensor 210 and a webcam camera 220 via a USB. Autonomous vehicle driving method using.
제 7항에 있어서,
상기 플랫폼 컨트롤러(100)는 무선 수신기(130)를 제어하며, 무선 수신기(130)는 블루투스(Bluetooth)를 통해 무선조종 시스템과 통신하는 것을 특징으로 하는 카메라 및 라이다 센서를 이용한 차량 자율주행방법.
8. The method of claim 7,
Wherein the platform controller 100 controls the wireless receiver 130 and the wireless receiver 130 communicates with the radio control system via Bluetooth.
KR1020180162222A 2018-12-14 2018-12-14 Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor KR101998298B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180162222A KR101998298B1 (en) 2018-12-14 2018-12-14 Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180162222A KR101998298B1 (en) 2018-12-14 2018-12-14 Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor

Publications (1)

Publication Number Publication Date
KR101998298B1 true KR101998298B1 (en) 2019-07-09

Family

ID=67261576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180162222A KR101998298B1 (en) 2018-12-14 2018-12-14 Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor

Country Status (1)

Country Link
KR (1) KR101998298B1 (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102186830B1 (en) 2020-03-13 2020-12-04 주식회사 자오스모터스 A lidar system for artificial intelligent
CN112147991A (en) * 2020-10-12 2020-12-29 北京信息职业技术学院 Automatic driving vehicle state behavior decision under internet environment
CN112363490A (en) * 2020-04-27 2021-02-12 北京理工大学 Road condition identification obstacle avoidance vehicle with remote information transmission and positioning functions
CN112558045A (en) * 2020-12-07 2021-03-26 福建(泉州)哈工大工程技术研究院 Offline acceptance method for multi-line laser radar function of automatic driving equipment
CN112764013A (en) * 2020-12-25 2021-05-07 北京百度网讯科技有限公司 Method, device and equipment for testing automatic driving vehicle perception system and storage medium
CN112793682A (en) * 2021-01-29 2021-05-14 中科大路(青岛)科技有限公司 Automatic driving patrol vehicle for airport
KR20210072843A (en) 2019-12-09 2021-06-18 에스엘 주식회사 Driving control system
KR20210083586A (en) 2019-12-27 2021-07-07 에스엘 주식회사 Display Unit
KR20210084721A (en) 2019-12-27 2021-07-08 에스엘 주식회사 Driving control system
USD927998S1 (en) 2019-04-25 2021-08-17 Waymo Llc Front sensor housing
USD928639S1 (en) 2019-04-25 2021-08-24 Waymo Llc Rear sensor housing
CN113432615A (en) * 2021-07-31 2021-09-24 重庆长安汽车股份有限公司 Detection method and system based on multi-sensor fusion drivable area and vehicle
CN113581166A (en) * 2020-04-30 2021-11-02 大众汽车股份公司 Vehicle assistance or control system and use thereof as a piloting means
CN113589323A (en) * 2021-07-07 2021-11-02 浙江理工大学 Road obstacle identification method based on height vector field
KR20220039382A (en) 2020-09-22 2022-03-29 에스엘 주식회사 Automotive transmission device
KR20220043733A (en) 2020-09-29 2022-04-05 에스엘 주식회사 Input device for vehicle DIS
USD950404S1 (en) 2019-05-01 2022-05-03 Waymo Llc Roof pod housing
KR20220073874A (en) 2020-11-26 2022-06-03 주식회사 케이에이알 Moving direction control system of autonomous driving vehicle using traffic environment information at short and long distance
USD954620S1 (en) 2017-04-28 2022-06-14 Waymo Llc Fender sensor housing
KR20220080478A (en) 2020-12-07 2022-06-14 동의대학교 산학협력단 System and method for controlling of mobility unit
USD954571S1 (en) 2019-04-25 2022-06-14 Waymo Llc Front sensor housing
USD956585S1 (en) 2019-04-25 2022-07-05 Waymo Llc Rear sensor housing
USD957969S1 (en) 2019-02-20 2022-07-19 Waymo Llc Sensor housing
USD964249S1 (en) 2019-04-25 2022-09-20 Waymo Llc Perimeter sensor housing
USD964909S1 (en) 2019-04-25 2022-09-27 Waymo Llc Perimeter sensor housing
USD964908S1 (en) 2019-04-25 2022-09-27 Waymo Llc Perimeter sensor housing
USD965498S1 (en) 2019-04-25 2022-10-04 Waymo Llc Perimeter sensor housing
USD968981S1 (en) 2019-02-20 2022-11-08 Waymo Llc Sensor assembly
US11493922B1 (en) 2019-12-30 2022-11-08 Waymo Llc Perimeter sensor housings
CN115452406A (en) * 2022-08-25 2022-12-09 一汽奔腾轿车有限公司 Driving assistance system based on public road testing device
CN115561772A (en) * 2022-08-26 2023-01-03 东莞理工学院 Laser radar driving environment cognitive system based on visual area guidance
US11557127B2 (en) 2019-12-30 2023-01-17 Waymo Llc Close-in sensing camera system
USD976719S1 (en) 2019-05-01 2023-01-31 Waymo Llc Roof pod housing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101532320B1 (en) 2014-04-18 2015-07-22 국방과학연구소 Method for detecting a moving object using stereo camera installed in autonomous vehicle
KR20160020172A (en) * 2014-08-13 2016-02-23 고려대학교 산학협력단 Method and Apparatus for detecting lane of road
KR20180071776A (en) * 2016-12-20 2018-06-28 엘지전자 주식회사 Autonomous Vehicle
KR20180084463A (en) 2017-01-17 2018-07-25 한국전자통신연구원 Lane changing apparatus and method of an autonomous vehicle using vehicle-to-vehicle communication
KR20180117754A (en) 2017-04-19 2018-10-30 해성옵틱스(주) Autonomous driving control apparatus for vehicles
KR20180126224A (en) * 2017-05-17 2018-11-27 주식회사 에스더블유엠 vehicle handling methods and devices during vehicle driving

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101532320B1 (en) 2014-04-18 2015-07-22 국방과학연구소 Method for detecting a moving object using stereo camera installed in autonomous vehicle
KR20160020172A (en) * 2014-08-13 2016-02-23 고려대학교 산학협력단 Method and Apparatus for detecting lane of road
KR20180071776A (en) * 2016-12-20 2018-06-28 엘지전자 주식회사 Autonomous Vehicle
KR20180084463A (en) 2017-01-17 2018-07-25 한국전자통신연구원 Lane changing apparatus and method of an autonomous vehicle using vehicle-to-vehicle communication
KR20180117754A (en) 2017-04-19 2018-10-30 해성옵틱스(주) Autonomous driving control apparatus for vehicles
KR20180126224A (en) * 2017-05-17 2018-11-27 주식회사 에스더블유엠 vehicle handling methods and devices during vehicle driving

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD954620S1 (en) 2017-04-28 2022-06-14 Waymo Llc Fender sensor housing
USD1038793S1 (en) 2019-02-20 2024-08-13 Waymo Llc Sensor assembly
USD1038787S1 (en) 2019-02-20 2024-08-13 Waymo Llc Sensor housing
USD996996S1 (en) 2019-02-20 2023-08-29 Waymo Llc Sensor assembly
USD991811S1 (en) 2019-02-20 2023-07-11 Waymo Llc Sensor housing
USD991812S1 (en) 2019-02-20 2023-07-11 Waymo Llc Sensor housing
USD991810S1 (en) 2019-02-20 2023-07-11 Waymo Llc Sensor housing
USD968981S1 (en) 2019-02-20 2022-11-08 Waymo Llc Sensor assembly
USD957968S1 (en) 2019-02-20 2022-07-19 Waymo Llc Sensor housing
USD957969S1 (en) 2019-02-20 2022-07-19 Waymo Llc Sensor housing
USD994514S1 (en) 2019-04-25 2023-08-08 Waymo Llc Front sensor housing
USD978058S1 (en) 2019-04-25 2023-02-14 Waymo Llc Perimeter sensor housing
USD1038792S1 (en) 2019-04-25 2024-08-13 Waymo Llc Rear sensor housing
USD1038791S1 (en) 2019-04-25 2024-08-13 Waymo Llc Front sensor housing
USD1036282S1 (en) 2019-04-25 2024-07-23 Waymo Llc Rear sensor housing
USD1036281S1 (en) 2019-04-25 2024-07-23 Waymo Llc Front sensor housing
USD995332S1 (en) 2019-04-25 2023-08-15 Waymo Llc Rear sensor housing
USD991808S1 (en) 2019-04-25 2023-07-11 Waymo Llc Front sensor housing
USD991807S1 (en) 2019-04-25 2023-07-11 Waymo Llc Rear sensor housing
USD928639S1 (en) 2019-04-25 2021-08-24 Waymo Llc Rear sensor housing
USD965498S1 (en) 2019-04-25 2022-10-04 Waymo Llc Perimeter sensor housing
USD954571S1 (en) 2019-04-25 2022-06-14 Waymo Llc Front sensor housing
USD956585S1 (en) 2019-04-25 2022-07-05 Waymo Llc Rear sensor housing
USD927998S1 (en) 2019-04-25 2021-08-17 Waymo Llc Front sensor housing
USD964908S1 (en) 2019-04-25 2022-09-27 Waymo Llc Perimeter sensor housing
USD964249S1 (en) 2019-04-25 2022-09-20 Waymo Llc Perimeter sensor housing
USD964909S1 (en) 2019-04-25 2022-09-27 Waymo Llc Perimeter sensor housing
USD950404S1 (en) 2019-05-01 2022-05-03 Waymo Llc Roof pod housing
USD1037031S1 (en) 2019-05-01 2024-07-30 Waymo Llc Roof pod housing
USD1033246S1 (en) 2019-05-01 2024-07-02 Waymo Llc Roof pod housing
USD976719S1 (en) 2019-05-01 2023-01-31 Waymo Llc Roof pod housing
USD991809S1 (en) 2019-05-01 2023-07-11 Waymo Llc Roof pod housing
KR20210072843A (en) 2019-12-09 2021-06-18 에스엘 주식회사 Driving control system
KR20210083586A (en) 2019-12-27 2021-07-07 에스엘 주식회사 Display Unit
KR20210084721A (en) 2019-12-27 2021-07-08 에스엘 주식회사 Driving control system
US11493922B1 (en) 2019-12-30 2022-11-08 Waymo Llc Perimeter sensor housings
US11887378B2 (en) 2019-12-30 2024-01-30 Waymo Llc Close-in sensing camera system
US11557127B2 (en) 2019-12-30 2023-01-17 Waymo Llc Close-in sensing camera system
US11880200B2 (en) 2019-12-30 2024-01-23 Waymo Llc Perimeter sensor housings
WO2021182728A1 (en) * 2020-03-13 2021-09-16 주식회사 자오스모터스 Lidar system corresponding to artificial intelligence
KR102186830B1 (en) 2020-03-13 2020-12-04 주식회사 자오스모터스 A lidar system for artificial intelligent
CN112363490A (en) * 2020-04-27 2021-02-12 北京理工大学 Road condition identification obstacle avoidance vehicle with remote information transmission and positioning functions
CN113581166A (en) * 2020-04-30 2021-11-02 大众汽车股份公司 Vehicle assistance or control system and use thereof as a piloting means
KR20220039382A (en) 2020-09-22 2022-03-29 에스엘 주식회사 Automotive transmission device
KR20220043733A (en) 2020-09-29 2022-04-05 에스엘 주식회사 Input device for vehicle DIS
CN112147991A (en) * 2020-10-12 2020-12-29 北京信息职业技术学院 Automatic driving vehicle state behavior decision under internet environment
KR20220073874A (en) 2020-11-26 2022-06-03 주식회사 케이에이알 Moving direction control system of autonomous driving vehicle using traffic environment information at short and long distance
KR20220080478A (en) 2020-12-07 2022-06-14 동의대학교 산학협력단 System and method for controlling of mobility unit
CN112558045B (en) * 2020-12-07 2024-03-15 福建(泉州)哈工大工程技术研究院 Offline acceptance method for multi-line laser radar function of automatic driving equipment
CN112558045A (en) * 2020-12-07 2021-03-26 福建(泉州)哈工大工程技术研究院 Offline acceptance method for multi-line laser radar function of automatic driving equipment
CN112764013B (en) * 2020-12-25 2024-03-01 北京百度网讯科技有限公司 Method, device, equipment and storage medium for testing sensing system of automatic driving vehicle
CN112764013A (en) * 2020-12-25 2021-05-07 北京百度网讯科技有限公司 Method, device and equipment for testing automatic driving vehicle perception system and storage medium
CN112793682A (en) * 2021-01-29 2021-05-14 中科大路(青岛)科技有限公司 Automatic driving patrol vehicle for airport
CN113589323A (en) * 2021-07-07 2021-11-02 浙江理工大学 Road obstacle identification method based on height vector field
CN113432615B (en) * 2021-07-31 2024-02-13 重庆长安汽车股份有限公司 Detection method and system based on multi-sensor fusion drivable area and vehicle
CN113432615A (en) * 2021-07-31 2021-09-24 重庆长安汽车股份有限公司 Detection method and system based on multi-sensor fusion drivable area and vehicle
CN115452406A (en) * 2022-08-25 2022-12-09 一汽奔腾轿车有限公司 Driving assistance system based on public road testing device
CN115561772A (en) * 2022-08-26 2023-01-03 东莞理工学院 Laser radar driving environment cognitive system based on visual area guidance
CN115561772B (en) * 2022-08-26 2023-08-29 东莞理工学院 Laser radar driving environment cognition system based on visual area guidance

Similar Documents

Publication Publication Date Title
KR101998298B1 (en) Vehicle Autonomous Driving Method Using Camera and LiDAR Sensor
US11041958B2 (en) Sensing assembly for autonomous driving
CN108973992B (en) Travel control device, travel control method, and storage medium
KR101622028B1 (en) Apparatus and Method for controlling Vehicle using Vehicle Communication
US20200241549A1 (en) Information processing apparatus, moving apparatus, and method, and program
JP7320001B2 (en) Information processing device, information processing method, program, mobile body control device, and mobile body
WO2020188928A1 (en) System which carries out decision-making on basis of data communication
WO2019176083A1 (en) Mobile object control device
JP7252801B2 (en) Autonomous vehicle traffic control system
JPWO2019181284A1 (en) Information processing equipment, mobile devices, and methods, and programs
CN111133489A (en) Vehicle control device, vehicle control method, and program
WO2005013236A1 (en) Safe movement support device
CN112309157B (en) Image display device
JP7324020B2 (en) Traffic control system
CN112650210A (en) Vehicle control device, vehicle control method, and storage medium
CA3086809A1 (en) High-speed image readout and processing
JP6614509B2 (en) Vehicle control device, vehicle control method, and program
WO2020116194A1 (en) Information processing device, information processing method, program, mobile body control device, and mobile body
EP3640920A1 (en) Machine learning for driverless driving
JP2020154623A (en) Traffic control system
US20230215273A1 (en) Object recognition device, movable body collision prevention device, and object recognition method
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
JP2023111162A (en) Movable body control device, movable body control method, and program
CN115147689A (en) Identification device, vehicle system, identification method, and storage medium
WO2024201837A1 (en) Recognition device, mobile body control device, recognition method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant