KR20240038680A - Autonomous driving apparatus and method - Google Patents
Autonomous driving apparatus and method Download PDFInfo
- Publication number
- KR20240038680A KR20240038680A KR1020240035177A KR20240035177A KR20240038680A KR 20240038680 A KR20240038680 A KR 20240038680A KR 1020240035177 A KR1020240035177 A KR 1020240035177A KR 20240035177 A KR20240035177 A KR 20240035177A KR 20240038680 A KR20240038680 A KR 20240038680A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- driving
- trajectory
- driving trajectory
- surrounding
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012937 correction Methods 0.000 claims abstract description 23
- 238000013459 approach Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000009434 installation Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G05D1/43—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/10—Path keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
-
- G05D1/246—
-
- G05D1/695—
-
- G05D2101/10—
Abstract
본 발명은 자율 주행 장치 및 방법에 관한 것으로서, 자율 주행 중인 자차량의 주변 차량을 검출하는 센서부, 지도 정보를 저장하는 메모리 및 메모리에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어하는 프로세서를 포함하고, 프로세서는, 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성하고, 메모리에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성하며, 메모리에 저장된 지도 정보에 기초하여 자차량의 예상 주행 궤적을 생성하고, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 비교를 통해 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단된 경우, 자차량으로부터 대상 주변 차량까지의 거리에 따른 위험도에 기초하여 자차량의 예상 주행 궤적을 보정하는 것을 특징으로 한다.The present invention relates to an autonomous driving device and method, which includes a sensor unit that detects vehicles around a self-driving vehicle, a memory that stores map information, and a processor that controls autonomous driving of the self-vehicle based on the map information stored in the memory. The processor generates an actual driving trajectory of surrounding vehicles based on driving information of surrounding vehicles detected by the sensor unit, generates an expected driving trajectory of surrounding vehicles based on map information stored in a memory, and a memory. An expected driving trajectory of the own vehicle is generated based on the map information stored in the host vehicle, and when it is determined that correction of the expected driving trajectory of the own vehicle is necessary through comparison between the actual driving trajectory and the expected driving trajectory of surrounding vehicles, the target is transferred from the own vehicle. It is characterized by correcting the expected driving trajectory of the own vehicle based on the degree of risk according to the distance to surrounding vehicles.
Description
본 발명은 자율 주행 차량에 적용되는 자율 주행 장치 및 방법에 관한 것이다.The present invention relates to an autonomous driving device and method applied to an autonomous vehicle.
오늘날의 자동차 산업은 차량 주행에 운전자의 개입을 최소화하는 자율 주행을 구현하기 위한 방향으로 나아가고 있다. 자율 주행 차량이란 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 말한다.Today's automobile industry is moving toward implementing autonomous driving that minimizes driver intervention in vehicle driving. An autonomous vehicle refers to a vehicle that recognizes the surrounding environment through external information detection and processing functions when driving, determines its own driving path, and drives independently using its own power.
자율 주행 차량은 운전자가 조향휠, 가속페달 또는 브레이크 등을 조작하지 않아도, 주행 경로 상에 존재하는 장애물과의 충돌을 방지하고 도로의 형상에 따라 차속과 주행 방향을 조절하면서 스스로 목적지까지 주행할 수 있다. 예를 들어, 직선 도로에서는 가속을 수행하고, 곡선 도로에서는 도로의 곡률에 대응하여 주행 방향을 변경하면서 감속을 수행할 수 있다.Self-driving vehicles can drive to their destination on their own, preventing collisions with obstacles in the driving path and adjusting vehicle speed and driving direction according to the shape of the road, without the driver having to operate the steering wheel, accelerator pedal, or brakes. there is. For example, acceleration can be performed on a straight road, and deceleration can be performed on a curved road by changing the driving direction in response to the curvature of the road.
자율 주행 차량의 안정적인 주행을 보장하기 위해서는 차량에 장착된 각 센서를 통해 주행 환경을 정확하게 계측해야 하고, 차량의 주행 상태를 지속적으로 모니터링하여 계측된 주행 환경에 맞추어 주행을 제어해야 한다. 이를 위해, 자율 주행 차량에는 주변 차량, 보행자, 고정 시설물 등의 주변 객체를 검출하기 위한 센서로서 라이다(Lidar) 센서, 레이더(Radar) 센서, 초음파 센서 및 카메라 센서 등 다양한 센서들이 적용되고 있으며, 이러한 센서로부터 출력되는 데이터는 주행 환경에 대한 정보, 이를테면 주변 객체의 위치, 형상, 이동 방향 및 이동 속도와 같은 상태 정보를 결정하는데 활용된다.In order to ensure stable driving of an autonomous vehicle, the driving environment must be accurately measured through each sensor mounted on the vehicle, and the driving status of the vehicle must be continuously monitored to control driving according to the measured driving environment. To this end, various sensors such as Lidar sensors, radar sensors, ultrasonic sensors, and camera sensors are applied to autonomous vehicles to detect surrounding objects such as surrounding vehicles, pedestrians, and fixed facilities. Data output from these sensors is used to determine information about the driving environment, such as status information such as the location, shape, direction of movement, and speed of surrounding objects.
나아가, 자율 주행 차량은 미리 저장된 지도 데이터를 이용하여 차량의 위치를 결정하고 보정함으로써 주행 경로 및 주행 차선을 최적으로 결정하고, 결정된 경로 및 차선을 벗어나지 않도록 차량의 주행을 제어하며, 주변에서 갑작스럽게 진입하는 차량 또는 주행 경로 상에 존재하는 위험 요소에 대한 방어 및 회피 운행을 수행하는 기능도 제공하고 있다.Furthermore, autonomous vehicles use pre-stored map data to determine and correct the vehicle's position to optimally determine the driving path and driving lane, control the vehicle's driving so that it does not deviate from the determined path and lane, and control the vehicle's driving to prevent sudden changes in the surrounding area. It also provides functions to perform defense and avoidance operations against incoming vehicles or hazards present on the driving path.
본 발명의 배경기술은 대한민국 공개특허공보 제10-1998-0068399호(1998.10.15 공개)에 개시되어 있다.The background technology of the present invention is disclosed in Republic of Korea Patent Publication No. 10-1998-0068399 (published on October 15, 1998).
본 발명의 일 측면에 따른 목적은 자율 주행 중인 차량과 주변 차량 간의 거리에 따른 위험도를 고려하여 자율 주행 차량의 주행 궤적을 보정함으로써 자율 주행 차량의 주행 안정성 및 주행 정확성을 향상시키기 위한 자율 주행 장치 및 방법을 제공하는 것이다.An object according to one aspect of the present invention is an autonomous driving device for improving the driving stability and driving accuracy of an autonomous vehicle by correcting the driving trajectory of the autonomous vehicle in consideration of the risk according to the distance between the autonomous vehicle and surrounding vehicles, and It provides a method.
본 발명의 일 측면에 따른 자율 주행 장치는 자율 주행 중인 자차량의 주변 차량을 검출하는 센서부, 지도 정보를 저장하는 메모리 및 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 센서부에 의해 검출된 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하고, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하며, 상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 예상 주행 궤적을 생성하고, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 비교를 통해 상기 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단된 경우, 상기 자차량으로부터 대상 주변 차량까지의 거리에 따른 위험도에 기초하여 상기 자차량의 예상 주행 궤적을 보정하는 것을 특징으로 한다.An autonomous driving device according to one aspect of the present invention includes a sensor unit that detects vehicles around a self-driving host vehicle, a memory that stores map information, and a processor that controls autonomous driving of the host vehicle based on the map information stored in the memory. It includes: the processor generates an actual driving trajectory of the surrounding vehicle based on the driving information of the surrounding vehicle detected by the sensor unit, and an expected driving trajectory of the surrounding vehicle based on the map information stored in the memory. Generates an expected driving trajectory of the host vehicle based on map information stored in the memory, and requires correction of the expected driving trajectory of the host vehicle through comparison between the actual driving trajectory and the expected driving trajectory of the surrounding vehicles. If it is determined that this is the case, the expected driving trajectory of the host vehicle is corrected based on the degree of risk according to the distance from the host vehicle to the target surrounding vehicles.
본 발명에 있어 상기 프로세서는, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 상기 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단하는 것을 특징으로 한다.In the present invention, the processor is characterized in that it determines that correction of the expected driving trajectory of the own vehicle is necessary when the trajectory error between the actual driving trajectory and the expected driving trajectory of the surrounding vehicle is more than a preset threshold.
본 발명에 있어 상기 대상 주변 차량은 상기 자차량의 좌측 및 우측에서 각각 주행 중인 제1 및 제2 대상 주변 차량을 포함하고, 상기 프로세서는, 상기 자차량 및 상기 제1 대상 주변 차량 간의 횡방향 거리와, 상기 자차량 및 상기 제2 대상 주변 차량 간의 횡방향 거리를 토대로 상기 자차량의 주행 위험도가 낮은 방향으로 상기 자차량의 예상 주행 궤적을 보정하는 것을 특징으로 한다.In the present invention, the target surrounding vehicle includes first and second target surrounding vehicles driving on the left and right sides of the host vehicle, respectively, and the processor determines the lateral distance between the host vehicle and the first target surrounding vehicle. And, based on the lateral distance between the host vehicle and the second target surrounding vehicle, the expected driving trajectory of the host vehicle is corrected in a direction where the driving risk of the host vehicle is low.
본 발명에 있어 상기 프로세서는, 상기 자차량의 주행 위험도가 낮은 방향으로 상기 자차량의 예상 주행 궤적을 보정하기 위한 1차 시프트값을 결정하고, 상기 자차량이 상기 제1 및 제2 대상 주변 차량으로 근접하는 경우에 대한 근접 위험도를 지표하는 가중치를 통해 상기 1차 시프트값을 보정하여 최종 시프트값을 결정한 후, 상기 결정된 최종 시프트값에 따라 상기 자차량의 예상 주행 궤적을 보정하는 것을 특징으로 한다.In the present invention, the processor determines a primary shift value for correcting the expected driving trajectory of the host vehicle in a direction with a low driving risk of the host vehicle, and the host vehicle determines the first and second target surrounding vehicles. After determining the final shift value by correcting the first shift value through a weight indicating the proximity risk for the case of approaching, the expected driving trajectory of the host vehicle is corrected according to the determined final shift value. .
본 발명의 일 측면에 따른 자율 주행 방법은 프로세서가, 메모리에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어하는 단계, 상기 프로세서가, 센서부에 의해 검출된 상기 자차량의 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하는 단계, 상기 프로세서가, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하는 단계, 상기 프로세서가, 상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 예상 주행 궤적을 생성하는 단계, 상기 프로세서가, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적을 비교하여 상기 자차량의 예상 주행 궤적의 보정이 필요한지 여부를 판단하는 단계, 및 상기 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단된 경우, 상기 프로세서가, 상기 자차량으로부터 대상 주변 차량까지의 거리에 따른 위험도에 기초하여 상기 자차량의 예상 주행 궤적을 보정하는 단계를 포함하는 것을 특징으로 한다.An autonomous driving method according to an aspect of the present invention includes the steps of a processor controlling autonomous driving of a host vehicle based on map information stored in a memory, the processor controlling the driving of vehicles around the host vehicle detected by a sensor unit. generating an actual driving trajectory of the surrounding vehicle based on information, the processor generating an expected driving trajectory of the surrounding vehicle based on map information stored in the memory, the processor generating a map stored in the memory Generating an expected driving trajectory of the host vehicle based on information, the processor comparing the actual driving trajectory and the expected driving trajectory of the surrounding vehicles to determine whether correction of the expected driving trajectory of the host vehicle is necessary. , and when it is determined that correction of the expected driving trajectory of the host vehicle is necessary, the processor corrects the expected driving trajectory of the host vehicle based on the degree of risk according to the distance from the host vehicle to the target surrounding vehicle. It is characterized by including.
본 발명은 상기 판단하는 단계에서, 상기 프로세서는, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 상기 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단하는 것을 특징으로 한다.The present invention is characterized in that in the determining step, the processor determines that correction of the expected driving trajectory of the own vehicle is necessary when the trajectory error between the actual driving trajectory and the expected driving trajectory of the surrounding vehicle is more than a preset threshold. Do it as
본 발명에 있어 상기 대상 주변 차량은 상기 자차량의 좌측 및 우측에서 각각 주행 중인 제1 및 제2 대상 주변 차량을 포함하고, 상기 보정하는 단계에서, 상기 프로세서는, 상기 자차량 및 상기 제1 대상 주변 차량 간의 제1 횡방향 거리와, 상기 자차량 및 상기 제2 대상 주변 차량 간의 제2 횡방향 거리를 토대로 상기 자차량의 주행 위험도가 낮은 방향으로 상기 자차량의 예상 주행 궤적을 보정하는 것을 특징으로 한다.In the present invention, the vehicles around the target include first and second vehicles around the target running on the left and right sides of the host vehicle, respectively, and in the step of correcting, the processor Characterized by correcting the expected driving trajectory of the host vehicle in a direction with a low driving risk of the host vehicle based on a first lateral distance between surrounding vehicles and a second lateral distance between the host vehicle and the second target surrounding vehicle. Do it as
본 발명에 있어 상기 보정하는 단계는, 상기 프로세서가, 상기 제1 및 제2 횡방향 거리를 비교하여 상기 자차량의 주행 위험도가 낮은 방향을 결정하고, 결정된 방향으로 상기 자차량의 예상 주행 궤적을 보정하기 위한 1차 시프트값을 결정하는 단계, 상기 프로세서가, 상기 자차량이 상기 제1 및 제2 대상 주변 차량으로 근접하는 경우에 대한 근접 위험도를 지표하는 가중치를 통해 상기 1차 시프트값을 보정하여 최종 시프트값을 결정하는 단계, 및 상기 프로세서가, 상기 결정된 최종 시프트값에 따라 상기 자차량의 예상 주행 궤적을 보정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, in the correction step, the processor compares the first and second lateral distances to determine a direction with a low driving risk of the host vehicle, and determines the expected driving trajectory of the host vehicle in the determined direction. Determining a primary shift value for correction, wherein the processor corrects the primary shift value through a weight indicating a proximity risk when the host vehicle approaches the first and second target surrounding vehicles. It is characterized in that it includes a step of determining a final shift value, and a step of correcting, by the processor, an expected driving trajectory of the host vehicle according to the determined final shift value.
본 발명의 일 측면에 따르면, 본 발명은 자율 주행 중인 차량의 주행 궤적의 보정 필요성을 판단하고, 그 판단 결과에 따라 주변 차량 간의 거리에 따른 위험도를 고려하여 자율 주행 차량의 주행 궤적을 보정함으로써 자율 주행 차량의 주행 안정성 및 주행 정확성을 향상시킬 수 있다.According to one aspect of the present invention, the present invention determines the need for correction of the driving trajectory of an autonomous vehicle, and according to the judgment result, corrects the driving trajectory of the autonomous vehicle in consideration of the degree of risk according to the distance between surrounding vehicles, thereby autonomously driving the vehicle. The driving stability and driving accuracy of a driving vehicle can be improved.
도 1은 본 발명의 일 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 자율 주행 장치에서 자율 주행 통합 제어부의 구체적 구성을 보인 블록구성도이다.
도 3은 본 발명의 일 실시예에 따른 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이다.
도 4는 본 발명의 일 실시예에 따른 자율 주행 장치가 적용되는 차량의 내부 구조의 예시를 보인 예시도이다.
도 5는 본 발명의 일 실시예에 따른 자율 주행 장치에서 라이다 센서, 레이더 센서 및 카메라 센서가 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 보인 예시도이다.
도 6은 본 발명의 일 실시예에 따른 자율 주행 장치에서 센서부가 주변 차량을 검출하는 예시를 보인 예시도이다.
도 7 및 도 8은 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하기 위한 흐름도이다.1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to an embodiment of the present invention can be applied.
Figure 2 is a block diagram showing the specific configuration of the autonomous driving integrated control unit in the autonomous driving device according to an embodiment of the present invention.
Figure 3 is an exemplary diagram showing an example of an autonomous driving device being applied to a vehicle according to an embodiment of the present invention.
Figure 4 is an exemplary diagram showing an example of the internal structure of a vehicle to which an autonomous driving device according to an embodiment of the present invention is applied.
Figure 5 is an exemplary diagram showing an example of a set distance and horizontal angle of view at which a lidar sensor, a radar sensor, and a camera sensor can detect surrounding objects in an autonomous driving device according to an embodiment of the present invention.
Figure 6 is an exemplary diagram showing an example of a sensor unit detecting surrounding vehicles in an autonomous driving device according to an embodiment of the present invention.
7 and 8 are flowcharts for explaining an autonomous driving method according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 자율 주행 장치 및 방법의 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, embodiments of the autonomous driving device and method according to the present invention will be described with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.
도 1은 본 발명의 일 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 자율 주행 장치에서 자율 주행 통합 제어부의 구체적 구성을 보인 블록구성도이며, 도 3은 본 발명의 일 실시예에 따른 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이고, 도 4는 본 발명의 일 실시예에 따른 자율 주행 장치가 적용되는 차량의 내부 구조의 예시를 보인 예시도이며, 도 5는 본 발명의 일 실시예에 따른 자율 주행 장치에서 라이다 센서, 레이더 센서 및 카메라 센서가 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 보인 예시도이고, 도 6은 본 발명의 일 실시예에 따른 자율 주행 장치에서 센서부가 주변 차량을 검출하는 예시를 보인 예시도이다.Figure 1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to an embodiment of the present invention can be applied, and Figure 2 is a detailed view of the autonomous driving integrated control unit in an autonomous driving device according to an embodiment of the present invention. It is a block diagram showing the configuration, Figure 3 is an example diagram showing an example of the self-driving device according to an embodiment of the present invention being applied to a vehicle, and Figure 4 is an example of the self-driving device being applied to a vehicle according to an embodiment of the present invention. It is an exemplary diagram showing an example of the internal structure of a vehicle, and Figure 5 shows the set distance and horizontal angle of view at which the lidar sensor, radar sensor, and camera sensor can detect surrounding objects in the autonomous driving device according to an embodiment of the present invention. This is an exemplary diagram showing an example, and Figure 6 is an exemplary diagram showing an example of a sensor unit detecting surrounding vehicles in an autonomous driving device according to an embodiment of the present invention.
먼저, 도 1 및 도 3을 참조하여 본 실시예에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 구조 및 기능에 대하여 설명한다. 도 1에 도시된 것과 같이 자율 주행 제어 시스템은 운전 정보 입력 인터페이스(101), 주행 정보 입력 인터페이스(201), 탑승자 출력 인터페이스(301) 및 차량 제어 출력 인터페이스(401)를 통해 차량의 자율 주행 제어에 필요한 데이터를 송수신하는 자율 주행 통합 제어부(600)를 중심으로 구현될 수 있다.First, the structure and function of the autonomous driving control system to which the autonomous driving device according to this embodiment can be applied will be described with reference to FIGS. 1 and 3. As shown in FIG. 1, the autonomous driving control system controls the autonomous driving of the vehicle through the driving
자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 사용자 입력부(100)에 대한 탑승자의 조작에 따른 운전 정보를 운전 정보 입력 인터페이스(101)를 통해 획득할 수 있다. 사용자 입력부(100)는 도 1에 예시로서 도시된 것과 같이 주행 모드 스위치(110) 및 사용자 단말(120, 예: 차량에 장착된 내비게이션 단말, 탑승자가 소지한 스마트폰 또는 태플릿 PC 등)을 포함할 수 있으며, 이에 따라 운전 정보는 차량의 주행 모드 정보 및 항법 정보를 포함할 수 있다. 예를 들어, 주행 모드 스위치(110)에 대한 탑승자의 조작에 따라 결정되는 차량의 주행 모드(즉, 자율 주행 모드/수동 주행 모드, 또는 스포츠 모드(Sport Mode)/에코 모드(Eco Mode)/안전 모드(Safe Mode)/일반 모드(Normal Mode))가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다. 또한, 탑승자가 사용자 단말(120)을 통해 입력하는 탑승자의 목적지, 목적지까지의 경로(목적지까지의 후보 경로 중 탑승자가 선택한 최단 경로 또는 선호 경로 등)와 같은 항법 정보가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다. 한편, 사용자 단말(120)은 차량의 자율 주행 제어를 위한 정보를 운전자가 입력하거나 수정하기 위한 UI(User Interface)를 제공하는 제어 패널(Control Panel)(예: 터치 스크린 패널)로 구현될 수도 있으며, 이 경우 전술한 주행 모드 스위치(110)는 사용자 단말(120) 상의 터치 버튼으로 구현될 수도 있다.The autonomous driving integrated
또한, 자율 주행 통합 제어부(600)는 차량의 주행 상태를 나타내는 주행 정보를 주행 정보 입력 인터페이스(201)를 통해 획득할 수 있다. 주행 정보는 탑승자가 조향휠을 조작함에 따라 형성되는 조향각과, 가속 페달 또는 브레이크 페달을 답입함에 따라 형성되는 가속 페달 스트로크 또는 브레이크 페달의 스트로크와, 차량에 형성되는 거동으로서 차속, 가속도, 요, 피치 및 롤 등 차량의 주행 상태 및 거동을 나타내는 다양한 정보를 포함할 수 있으며, 상기 각 주행 정보는 도 1에 도시된 것과 같이 조향각 센서(210), APS(Accel Position Sensor)/PTS(Pedal Travel Sensor)(220), 차속 센서(230), 가속도 센서(240), 요/피치/롤 센서(250)를 포함하는 주행 정보 검출부(200)에 의해 검출될 수 있다. 나아가, 차량의 주행 정보는 차량의 위치 정보를 포함할 수도 있으며, 차량의 위치 정보는 차량에 적용된 GPS(Global Positioning Sysetm) 수신기(260)를 통해 획득될 수 있다. 이러한 주행 정보는 주행 정보 입력 인터페이스(201)를 통해 자율 주행 통합 제어부(600)로 전달되어 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행을 제어하기 위해 활용될 수 있다.Additionally, the autonomous driving integrated
또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 제공되는 주행 상태 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있다. 즉, 자율 주행 통합 제어부(600)는 차량의 주행 상태 정보를 출력부(300)로 전달함으로써, 출력부(300)를 통해 출력되는 주행 상태 정보를 기반으로 탑승자가 차량의 자율 주행 상태 또는 수동 주행 상태를 확인하도록 할 수 있으며, 상기 주행 상태 정보는 이를테면 현재 차량의 주행 모드, 변속 레인지, 차속 등 차량의 주행 상태를 나타내는 다양한 정보를 포함할 수 있다. 또한, 자율 주행 통합 제어부(600)는 상기한 주행 상태 정보와 함께 차량의 자율 주행 모드 또는 수동 주행 모드에서 운전자에게 경고가 필요한 것으로 판단된 경우, 탑승자 출력 인터페이스(301)를 통해 경고 정보를 출력부(300)로 전달하여 출력부(300)가 운전자에게 경고를 출력하도록 할 수 있다. 이러한 주행 상태 정보 및 경고 정보를 청각적 및 시각적으로 출력하기 위해 출력부(300)는 도 1에 도시된 것과 같이 스피커(310) 및 디스플레이 장치(320)를 포함할 수 있다. 이때, 디스플레이 장치(320)는 전술한 사용자 단말(120)과 동일한 장치로 구현될 수도 있고, 분리된 독립적인 장치로 구현될 수도 있다.Additionally, the autonomous driving integrated
또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행 제어를 위한 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 차량에 적용된 하위 제어 시스템(400)으로 전달할 수 있다. 차량의 주행 제어를 위한 하위 제어 시스템(400)은 도 1에 도시된 것과 같이 엔진 제어 시스템(410), 제동 제어 시스템(420) 및 조향 제어 시스템(430)을 포함할 수 있으며, 자율 주행 통합 제어부(600)는 상기 제어 정보로서 엔진 제어 정보, 제동 제어 정보 및 조향 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 각 하위 제어 시스템(410, 420, 430)으로 전달할 수 있다. 이에 따라, 엔진 제어 시스템(410)은 엔진에 공급되는 연료를 증가 또는 감소시켜 차량의 차속 및 가속도를 제어할 수 있고, 제동 제어 시스템(420)은 차량의 제동력을 조절하여 차량의 제동을 제어할 수 있으며, 조향 제어 시스템(430)은 차량에 적용된 조향 장치(예: MDPS(Motor Driven Power Steering) 시스템)를 통해 차량의 조향을 제어할 수 있다.In addition, the autonomous driving integrated
상기한 것과 같이 본 실시예의 자율 주행 통합 제어부(600)는 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)를 통해 운전자의 조작에 따른 운전 정보 및 차량의 주행 상태를 나타내는 주행 정보를 각각 획득하고, 내부의 프로세서(610)에 의해 처리되는 자율 주행 알고리즘에 따라 생성되는 주행 상태 정보 및 경고 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있으며, 또한 내부의 프로세서(610)에 의해 처리되는 자율 주행 알고리즘에 따라 생성되는 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 하위 제어 시스템(400)으로 전달하여 차량의 주행 제어가 이루어지도록 동작할 수 있다.As described above, the autonomous driving integrated
한편, 차량의 안정적인 자율 주행을 보장하기 위해서는 차량의 주행 환경을 정확하게 계측함으로써 주행 상태를 지속적으로 모니터링하고 계측된 주행 환경에 맞추어 주행을 제어해야 할 필요가 있으며, 이를 위해 본 실시예의 자율 주행 장치는 도 1에 도시된 것과 같이 주변 차량, 보행자, 도로 또는 고정 시설물(예: 신호등, 이정표, 교통 표지판, 공사 펜스 등) 등 차량의 주변 객체를 검출하기 위한 센서부(500)를 포함할 수 있다. 센서부(500)는 도 1에 도시된 것과 같이 차량 외부의 주변 객체를 검출하기 위해 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 중 하나 이상을 포함할 수 있다.Meanwhile, in order to ensure stable autonomous driving of the vehicle, it is necessary to continuously monitor the driving state by accurately measuring the driving environment of the vehicle and control driving according to the measured driving environment. To this end, the autonomous driving device of this embodiment is As shown in FIG. 1, it may include a
라이다 센서(510)는 차량 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Vertical Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(510)는 차량의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(511), 상부 라이다 센서(512) 및 후방 라이다 센서(513)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 통합 제어부(600)의 메모리(620)에 미리 저장되어 있을 수 있으며, 자율 주행 통합 제어부(600)의 프로세서(610)는 라이다 센서(510)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The
레이더 센서(520)는 차량 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(520)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서(521), 좌측 레이더 센서(521), 우측 레이더 센서(522) 및 후방 레이더 센서(523)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)의 프로세서(610)는 레이더 센서(520)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The
카메라 센서(530)는 차량 주변을 촬상하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 카메라 센서(530)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)의 프로세서(610)는 카메라 센서(530)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다. 또한, 차량 내부를 촬상하기 위한 내부 카메라 센서(535)가 차량의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 통합 제어부(600)의 프로세서(610)는 내부 카메라 센서(535)를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 전술한 출력부(300)를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.The
라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)뿐만 아니라, 센서부(500)는 도 1에 도시된 것과 같이 초음파 센서(540)를 더 포함할 수도 있으며, 이와 함께 차량의 주변 객체를 검출하기 위한 다양한 형태의 센서가 센서부(500)에 더 채용될 수도 있다. 도 3은 본 실시예의 이해를 돕기 위해 전방 라이다 센서(511) 또는 전방 레이더 센서(521)가 차량의 전면에 설치되고, 후방 라이다 센서(513) 또는 후방 레이더 센서(524)가 차량의 후면에 설치되며, 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)가 각각 차량의 전면, 좌측면, 우측면 및 후면에 설치된 예시를 도시하고 있으나, 전술한 것과 같이 각 센서의 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 도 5는 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)가 전방의 주변 객체를 검출할 수 있는 설정 거리 및 수평 화각의 예시를 도시하고 있으며, 도 6은 각 센서가 주변 객체를 검출하는 예시를 도시하고 있다. 도 6은 주변 객체 검출의 일 예시일 뿐, 주변 객체 검출 방식은 센서의 설치 위치 및 설치 수에 의존하여 결정된다. 전술한 센서부(500)의 구성에 따라 자차량의 전방위 영역의 주변 차량 및 주변 객체가 검출될 수 있다.In addition to the
나아가, 센서부(500)는 차량에 탑승한 탑승자의 상태 판단을 위해, 탑승자의 음성 및 생체 신호(예: 심박수, 심전도, 호흡, 혈압, 체온, 뇌파, 혈류(맥파) 및 혈당 등)를 검출하기 위한 마이크 및 생체 센서를 더 포함할 수도 있으며, 생체 센서로는 심박수 센서, 심전도(Electrocardiogram) 센서, 호흡 센서, 혈압 센서, 체온 센서, 뇌파(Electroencephalogram) 센서, 혈류(Photoplethysmography) 센서 및 혈당 센서 등이 있을 수 있다.Furthermore, the
도 4는 차량의 내부 구조의 예시를 도시하고 있으며, 차량의 내부에는 차량의 운전자 또는 동승자와 같은 탑승자의 조작에 의해 그 상태가 제어되어 탑승자의 운전 또는 편의(예: 휴식, 엔터테인먼트 활동 등)를 지원하기 위한 내부 장치가 설치되어 있을 수 있다. 이러한 내부 장치에는 탑승자가 안착하는 차량 시트(S), 내부 라이트 및 무드등과 같은 조명 장치(L), 전술한 사용자 단말(120) 및 디스플레이 장치(320), 내부 테이블 등이 포함될 수 있으며, 이러한 내부 장치는 프로세서(610)에 의해 그 상태가 제어될 수 있다.Figure 4 shows an example of the internal structure of a vehicle, and the state of the interior of the vehicle is controlled by the operation of the vehicle's occupants, such as the driver or passenger, to facilitate the occupant's driving or convenience (e.g., rest, entertainment activities, etc.). Internal devices may be installed to support it. These internal devices may include the vehicle seat (S) on which the occupants sit, lighting devices (L) such as interior lights and mood lights, the
차량 시트(S)의 경우, 그 각도가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 조절될 수 있으며, 차량 시트(S)가 앞 열 시트(S1) 및 뒷 열 시트(S2)로 구성되어 있는 경우 앞 열 시트(S1)의 각도만 조절될 수 있다. 뒷 열 시트(S2)가 구비되어 있지 않은 경우로서 앞 열 시트(S1)가 시트 구조 및 발받침 구조로 구분되어 있는 경우에는 앞 열 시트(S1)의 시트 구조가 발받침 구조와 물리적으로 분리되고 그 각도가 조절되도록 구현될 수 있다. 또한, 차량 시트(S)의 각도를 조절하기 위한 액추에이터(예: 모터)가 마련되어 있을 수 있다. 조명 장치(L)의 경우, 그 온오프가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 제어될 수 있으며, 조명 장치(L)가 내부 라이트 및 무드등과 같이 복수의 조명 유닛을 포함할 경우 각각의 조명 유닛은 그 온오프가 독립적으로 제어될 수 있다. 사용자 단말(120) 또는 디스플레이 장치(320)는 탑승자의 시야각에 따라 그 각도가 프로세서(610)에 의해(또는 탑승자의 수동 조작에 의해) 조절될 수 있으며, 예를 들어 탑승자의 시선 방향에 그 화면이 존재하도록 각도가 조절될 수 있다. 이 경우, 사용자 단말(120) 및 디스플레이 장치(320)의 각도를 조절하기 위한 액추에이터(예: 모터)가 마련되어 있을 수 있다.In the case of the vehicle seat (S), the angle can be adjusted by the processor 610 (or by manual operation of the passenger), and the vehicle seat (S) is divided into the front row seat (S1) and the rear row seat (S2). If configured, only the angle of the front row seat (S1) can be adjusted. In the case where the rear row seat (S2) is not provided and the front row seat (S1) is divided into a seat structure and a footrest structure, the seat structure of the front row seat (S1) is physically separated from the footrest structure. The angle may be implemented to be adjusted. Additionally, an actuator (eg, motor) may be provided to adjust the angle of the vehicle seat (S). In the case of the lighting device (L), its on/off may be controlled by the processor 610 (or by manual operation of the passenger), and the lighting device (L) may operate a plurality of lighting units, such as an interior light and a mood light. When included, each lighting unit can be independently controlled on and off. The angle of the
자율 주행 통합 제어부(600)는 도 1에 도시된 것과 같이 네트워크를 통해 서버(700)와 통신할 수 있다. 자율 주행 통합 제어부(600) 및 서버(700) 간의 네트워크 방식으로는 WAN(Wide Area Network), LAN(Local Area Network), 또는 PAN(Personal Area Network) 등 다양한 통신 방식이 채용될 수 있다. 또한, 넓은 네트워크 커버리지를 확보하기 위해, LPWAN(Low Power Wide Area Network, 사물 인터넷 중 커버리지가 매우 넓은 네트워크로서, LoRa, Sigfox, Ingenu, LTE-M, NB-IOT 등의 상용화된 기술을 포함) 통신 방식이 채용될 수 있다. 예를 들어, LoRa(저전력의 통신이 가능하면서도 최대 20Km 정도로 넓은 커버리지를 가짐), 또는 Sigfox(환경에 따라 10Km(도심) 내지 30Km(도심을 벗어난 외곽 지역)의 커버리지를 가짐)의 통신 방식이 채용될 수 있으며, 나아가 전력 절약 모드(PSM: Power Saving Mode)를 갖는 LTE-MTC(Machine-type Communications)(또는, LTE-M), NB(Narrowband) LTE-M, NB IoT와 같은 3GPP(3rd Generation Partnership Project) 릴리즈 12, 13 기반의 LTE 네트워크 기술이 채용될 수도 있다. 서버(700)는 최신성이 유지되는 지도 정보(2차원 항법 지도 데이터, 3차원 격지 지도 데이터, 또는 3차원 고정밀 전자지도 데이터 등 다양한 지도 정보가 해당될 수 있다)를 제공할 수 있으며, 나아가 도로의 사고 정보, 도로 통제 정보, 교통량 정보 및 기상 정보 등 다양한 정보를 제공할 수도 있다. 자율 주행 통합 제어부(600)는 서버(700)로부터 최신의 지도 정보를 전달받아 메모리(620)에 저장된 지도 정보를 갱신할 수 있고, 사고 정보, 도로 통제 정보, 교통량 정보 및 기상 정보를 제공받아 차량의 자율 주행 제어에 활용할 수도 있다.The autonomous driving integrated
다음으로, 도 2를 참조하여 본 실시예의 자율 주행 통합 제어부(600)의 구조 및 기능에 대하여 설명한다. 도 2에 도시된 것과 같이 자율 주행 통합 제어부(600)는 프로세서(610) 및 메모리(620)를 포함할 수 있다.Next, the structure and function of the autonomous driving integrated
메모리(620)는 차량의 자율 주행 제어를 위해 필요한 기본 정보를 저장하거나, 프로세서(610)에 의해 차량의 자율 주행이 제어되는 과정에서 생성되는 정보를 저장할 수 있으며, 프로세서(610)는 메모리(620)에 저장된 정보에 접근(read, access)하여 차량의 자율 주행을 제어할 수 있다. 메모리(620)는 컴퓨터로 판독 가능한 기록 매체로 구현되어 프로세서(610)가 접근 가능하도록 동작할 수 있다. 구체적으로, 메모리(620)는 하드 드라이브(Hard Drive), 자기 테이프, 메모리 카드(Memory Card), ROM(Read-Only Memory), RAM(Random-Access Memory), DVD(Digital Video Disc) 또는 광학 디스크와 같은 광 데이터 저장장치로 구현될 수 있다.The memory 620 may store basic information necessary for autonomous driving control of the vehicle, or may store information generated in the process of controlling the autonomous driving of the vehicle by the processor 610, and the processor 610 may store the memory 620. You can control the autonomous driving of the vehicle by accessing (read, accessing) the information stored in ). The memory 620 may be implemented as a computer-readable recording medium so that the processor 610 can access it. Specifically, the memory 620 is a hard drive, magnetic tape, memory card, read-only memory (ROM), random-access memory (RAM), digital video disc (DVD), or optical disc. It can be implemented as an optical data storage device such as.
메모리(620)에는 프로세서(610)에 의한 자율 주행 제어에 요구되는 지도 정보가 저장되어 있을 수 있다. 메모리(620)에 저장된 지도 정보는 도로 단위의 정보를 제공하는 항법 지도(수치지형도)일 수도 있으나, 자율 주행 제어의 정밀도를 향상하기 위해 차선(Lane) 단위의 도로 정보를 제공하는 정밀 도로 지도, 즉 3차원 고정밀 전자지도 데이터로 구현됨이 바람직할 수 있다. 이에 따라, 메모리(620)에 저장된 지도 정보는 차선, 차로 중심선, 규제선, 도로 경계, 도로 중심선, 교통 표지, 노면 표지, 도로의 형상 및 높이, 차선 너비 등 차량의 자율 주행 제어에 필요한 동적 및 정적 정보를 제공할 수 있다.The memory 620 may store map information required for autonomous driving control by the processor 610. The map information stored in the memory 620 may be a navigation map (digital topographic map) that provides road-level information, but in order to improve the precision of autonomous driving control, a precision road map that provides lane-level road information, In other words, it may be desirable to implement it as 3D high-precision electronic map data. Accordingly, the map information stored in the memory 620 includes dynamic and Static information can be provided.
또한, 메모리(620)에는 차량의 자율 주행 제어를 위한 자율 주행 알고리즘이 저장되어 있을 수 있다. 자율 주행 알고리즘은 자율 주행 차량 주변을 인식하고 그 상태를 판단하여 그 판단 결과에 따라 차량의 주행을 제어하는 알고리즘(인식, 판단 및 제어 알고리즘)으로서, 프로세서(610)는 메모리(620)에 저장된 자율 주행 알고리즘을 실행하여 차량의 주변 환경에 능동적인 자율 주행 제어를 수행할 수 있다.Additionally, the memory 620 may store an autonomous driving algorithm for controlling the autonomous driving of a vehicle. The autonomous driving algorithm is an algorithm (recognition, judgment and control algorithm) that recognizes the surroundings of the autonomous vehicle, determines its status, and controls the driving of the vehicle according to the judgment result. The processor 610 uses the autonomous driving algorithm stored in the memory 620. By executing driving algorithms, active autonomous driving control can be performed based on the vehicle's surrounding environment.
프로세서(610)는 전술한 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)로부터 각각 입력되는 운전 정보 및 주행 정보와, 센서부(500)를 통해 검출된 주변 객체에 대한 정보와, 메모리(620)에 저장된 지도 정보 및 자율 주행 알고리즘을 기반으로 차량의 자율 주행을 제어할 수 있다. 프로세서(610)는 CISC(Complex Instruction Set Computer) 또는 RISC(Reduced Instruction Set Computer)와 같은 임베디드 프로세서(Embedded Processor), 또는 주문형 반도체(ASIC: Application Specific Integrated Circuit)와 같은 전용 반도체 회로로 구현될 수도 있다.The processor 610 includes driving information and driving information input from the driving
본 실시예에서 프로세서(610)는 자차량 및 주변 차량의 각 주행 궤적을 분석하여 자차량의 자율 주행을 제어할 수 있으며, 이를 위해 도 2에 도시된 것과 같이 프로세서(610)는 센서 처리 모듈(611), 주행 궤적 생성 모듈(612), 주행 궤적 분석 모듈(613), 주행 제어 모듈(614), 궤적 학습 모듈(615) 및 탑승자 상태 판단 모듈(616)을 포함할 수 있다. 도 2는 기능에 따라 각 모듈을 독립적인 블록으로 도시하고 있으나, 각 모듈이 하나의 모듈로 통합되어 각각의 기능을 통합적으로 수행하는 구성으로 구현될 수도 있다.In this embodiment, the processor 610 can control the autonomous driving of the own vehicle by analyzing each driving trajectory of the own vehicle and surrounding vehicles. To this end, as shown in FIG. 2, the processor 610 includes a sensor processing module ( 611), a driving trajectory generation module 612, a driving trajectory analysis module 613, a driving control module 614, a trajectory learning module 615, and an occupant status determination module 616. Figure 2 shows each module as an independent block according to its function, but each module may be integrated into one module and implemented in a configuration that performs each function in an integrated manner.
센서 처리 모듈(611)은 센서부(500)를 통해 자차량의 주변 차량이 검출된 결과를 기반으로 주변 차량의 주행 정보(즉, 주변 차량의 위치를 포함하며, 위치와 함께 주변 차량의 속도 및 이동 방향을 더 포함할 수도 있다)를 판단할 수 있다. 즉, 라이다 센서(510)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단하거나, 레이더 센서(520)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단하거나, 카메라 센서(530)를 통해 촬상된 이미지를 기반으로 주변 차량의 위치를 판단하거나, 초음파 센서(540)를 통해 수신된 신호를 기반으로 주변 차량의 위치를 판단할 수 있다. 이를 위해, 도 1에 도시된 것과 같이 센서 처리 모듈(611)은 라이다 신호 처리 모듈(611a), 레이더 신호 처리 모듈(611b) 및 카메라 신호 처리 모듈(611c)을 포함할 수 있다(초음파 신호 처리 모듈이 센서 처리 모듈(611)에 더 부가될 수도 있다). 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)를 활용하여 주변 차량의 위치를 결정하는 방법은 특정의 실시예로 그 구현 방식이 한정되지 않는다. 또한, 센서 처리 모듈(611)은 주변 차량의 위치, 속도 및 이동 방향뿐만 아니라 주변 차량의 크기 및 종류 등의 속성 정보를 판단할 수도 있으며, 상기와 같은 주변 차량의 위치, 속도, 이동 방향, 크기 및 종류와 같은 정보를 판단하기 위한 알고리즘이 미리 정의되어 있을 수 있다.The sensor processing module 611 includes driving information (i.e., the location of the surrounding vehicle) of the surrounding vehicle based on the result of detecting the vehicle surrounding the own vehicle through the
주행 궤적 생성 모듈(612)은 주변 차량의 실제 주행 궤적 및 예상 주행 궤적과, 자차량의 실제 주행 궤적을 생성할 수 있으며, 이를 위해 도 2에 도시된 것과 같이 주변 차량 주행 궤적 생성 모듈(612a) 및 자차량 주행 궤적 생성 모듈(612b)을 포함할 수 있다.The driving trajectory generation module 612 can generate the actual driving trajectory and expected driving trajectory of surrounding vehicles, and the actual driving trajectory of the own vehicle, and for this purpose, the surrounding vehicle driving trajectory generation module 612a is used as shown in FIG. 2. and a self-vehicle driving trajectory generation module 612b.
먼저, 주변 차량 주행 궤적 생성 모듈(612a)은 주변 차량의 실제 주행 궤적을 생성할 수 있다.First, the surrounding vehicle driving trajectory generation module 612a can generate the actual driving trajectory of surrounding vehicles.
구체적으로, 주변 차량 주행 궤적 생성 모듈(612a)은 센서부(500)에 의해 검출된 주변 차량의 주행 정보(즉, 센서 처리 모듈(611)에 의해 결정된 주변 차량의 위치)에 기초하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 이 경우, 주변 차량의 실제 주행 궤적을 생성하기 위해 주변 차량 주행 궤적 생성 모듈(612a)은 메모리(620)에 저장된 지도 정보를 참조할 수 있으며, 센서부(500)에 의해 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조(Cross Reference)하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 예를 들어, 주변 차량 주행 궤적 생성 모듈(612a)은 센서부(500)에 의해 특정 지점에서 주변 차량이 검출된 경우, 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조함으로써 지도 정보 상에서 현재 검출된 주변 차량의 위치를 특정할 수 있으며, 상기와 같이 주변 차량의 위치를 지속적으로 모니터링함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다. 즉, 주변 차량 주행 궤적 생성 모듈(612a)은 상기의 교차 참조를 기반으로, 센서부(500)에 의해 검출된 주변 차량의 위치를 메모리(620)에 저장된 지도 정보 상의 위치로 매핑하고 누적함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다.Specifically, the surrounding vehicle driving trajectory generation module 612a determines the surrounding vehicle driving information (i.e., the location of the surrounding vehicle determined by the sensor processing module 611) of the surrounding vehicle detected by the
한편, 주변 차량의 실제 주행 궤적은 후술하는 주변 차량의 예상 주행 궤적과 비교되어 메모리(620)에 저장된 지도 정보의 부정확 여부를 판단하기 위해 활용될 수 있다. 이 경우, 어느 특정한 주변 차량의 실제 주행 궤적을 예상 주행 궤적과 비교할 경우 지도 정보가 정확함에도 불구하고 부정확한 것으로 오판단하는 문제가 발생할 수 있다. 예를 들어, 다수의 주변 차량의 실제 주행 궤적과 예상 주행 궤적이 일치하고, 어느 특정 주변 차량의 실제 주행 궤적과 예상 주행 궤적이 상이할 경우, 상기 특정 주변 차량의 실제 주행 궤적만을 예상 주행 궤적과 비교하면 지도 정보가 정확함에도 불구하고 부정확한 것으로 오판단하게 될 수 있다. 따라서, 복수의 주변 차량의 실제 주행 궤적의 경향성이 예상 주행 궤적을 벗어나는지 여부를 판단할 필요성이 있으며, 이를 위해 주변 차량 주행 궤적 생성 모듈(612a)은 복수의 주변 차량의 실제 주행 궤적을 각각 생성할 수도 있다. 나아가, 주변 차량의 운전자가 직선 경로 주행을 위해 주행 과정에서 조향휠을 좌우측으로 다소 움직이는 경향이 있음을 고려하면 주변 차량의 실제 주행 궤적은 직선이 아닌 굴곡이 있는 형태로 생성될 수도 있으며, 후술하는 예상 주행 궤적 간의 오차 산출을 위해 주변 차량 주행 궤적 생성 모듈(612a)은 굴곡이 있는 형태로 생성되는 원시의 실제 주행 궤적에 소정의 평활화 기법을 적용하여 직선 형태의 실제 주행 궤적을 생성할 수도 있다. 평활화 기법으로는 주변 차량의 각 위치에 대한 보간(interpolation) 등 다양한 기법이 채용될 수 있다.Meanwhile, the actual driving trajectories of surrounding vehicles can be compared with the expected driving trajectories of surrounding vehicles, which will be described later, and used to determine whether the map information stored in the memory 620 is inaccurate. In this case, when comparing the actual driving trajectory of a specific nearby vehicle with the expected driving trajectory, a problem may arise where the map information is misjudged as inaccurate even though it is accurate. For example, if the actual and expected driving trajectories of a number of surrounding vehicles are identical, and the actual and expected driving trajectories of a specific surrounding vehicle are different, only the actual driving trajectory of the specific surrounding vehicle is the expected driving trajectory and Comparison may lead to misjudgment that the map information is inaccurate even though it is accurate. Therefore, there is a need to determine whether the tendency of the actual driving trajectories of a plurality of surrounding vehicles deviates from the expected driving trajectory, and for this purpose, the surrounding vehicle driving trajectory generation module 612a generates the actual driving trajectories of a plurality of surrounding vehicles, respectively. You may. Furthermore, considering that drivers of surrounding vehicles tend to move the steering wheel somewhat to the left and right during the driving process to drive on a straight path, the actual driving trajectory of surrounding vehicles may be generated in a curved form rather than a straight line, which will be described later. In order to calculate the error between the expected driving trajectories, the surrounding vehicle driving trajectory generation module 612a may apply a predetermined smoothing technique to the original actual driving trajectory generated in a curved shape to generate an actual driving trajectory in a straight shape. As a smoothing technique, various techniques such as interpolation for each position of surrounding vehicles can be employed.
또한, 주변 차량 주행 궤적 생성 모듈(612a)은 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성할 수 있다.Additionally, the surrounding vehicle driving trajectory generation module 612a may generate an expected driving trajectory of surrounding vehicles based on map information stored in the memory 620.
전술한 것과 같이 메모리(620)에 저장된 지도 정보는 3차원 고정밀 전자지도 데이터일 수 있으며, 따라서 지도 정보는 차선, 차로 중심선, 규제선, 도로 경계, 도로 중심선, 교통 표지, 노면 표지, 도로의 형상 및 높이, 차선 너비 등 차량의 자율 주행 제어에 필요한 동적 및 정적 정보를 제공할 수 있다. 일반적으로 차량은 차로의 중앙에서 주행하는 점을 고려하면, 자차량의 주변에서 주행하고 있는 주변 차량 또한 차로의 중앙에서 주행할 것으로 예상될 수 있으며, 따라서 주변 차량 주행 궤적 생성 모듈(612a)은 주변 차량의 예상 주행 궤적을 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.As described above, the map information stored in the memory 620 may be 3D high-precision electronic map data, and therefore the map information includes lanes, lane center lines, regulation lines, road boundaries, road center lines, traffic signs, road surface signs, and road shapes. It can provide dynamic and static information necessary for autonomous driving control of vehicles, such as height and lane width. Considering that vehicles generally drive in the center of the lane, surrounding vehicles driving around the own vehicle can also be expected to drive in the center of the lane, and therefore the surrounding vehicle driving trajectory generation module 612a The vehicle's expected driving trajectory can be generated as the lane center line reflected in map information.
자차량 주행 궤적 생성 모듈(612b)은 전술한 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 주행 정보에 기초하여 자차량이 현재까지 주행한 실제 주행 궤적을 생성할 수 있다.The host vehicle driving trajectory generation module 612b may generate the actual driving trajectory that the host vehicle has driven to date based on the driving information of the host vehicle obtained through the driving
구체적으로, 자차량 주행 궤적 생성 모듈(612b)은 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치(즉, GPS 수신기(260)를 통해 획득된 자차량의 위치 정보)와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조(Cross Reference)하여 자차량의 실제 주행 궤적을 생성할 수 있다. 예를 들어, 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치와 메모리(620)에 저장된 지도 정보 상의 임의의 위치를 교차 참조함으로써 지도 정보 상에서 현재 자차량의 위치를 특정할 수 있으며, 상기와 같이 자차량의 위치를 지속적으로 모니터링함으로써 자차량의 실제 주행 궤적을 생성할 수 있다. 즉, 자차량 주행 궤적 생성 모듈(612b)은 상기의 교차 참조를 기반으로, 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 위치를 메모리(620)에 저장된 지도 정보 상의 위치로 매핑하고 누적함으로써 자차량의 실제 주행 궤적을 생성할 수 있다.Specifically, the host vehicle driving trajectory generation module 612b includes the location of the host vehicle acquired through the driving information input interface 201 (i.e., the location information of the host vehicle acquired through the GPS receiver 260) and the memory 620. You can create the actual driving trajectory of your vehicle by cross-referencing an arbitrary location on the map information stored in ). For example, the current location of the host vehicle on the map information can be specified by cross-referencing the position of the host vehicle obtained through the driving
또한, 자차량 주행 궤적 생성 모듈(612b)은 메모리에 저장된 지도 정보에 기초하여 자차량이 목적지까지 주행해야 할 예상 주행 궤적을 생성할 수 있다.Additionally, the host vehicle driving trajectory generation module 612b may generate an expected driving trajectory along which the host vehicle should drive to the destination based on map information stored in the memory.
즉, 자차량 주행 궤적 생성 모듈(612b)은 주행 정보 입력 인터페이스(201)를 통해 획득되는 자차량의 현재 위치(즉, GPS 수신기(260)를 통해 획득된 자차량의 현재 위치 정보)와 메모리에 저장된 지도 정보를 이용하여 목적지까지의 예상 주행 궤적을 생성할 수 있으며, 자차량의 예상 주행 궤적은 주변 차량의 예상 주행 궤적과 마찬가지로 메모리(620)에 저장된 지도 정보에 반영되어 있는 차로 중심선으로서 생성될 수 있다.That is, the host vehicle driving trajectory generation module 612b stores the current location of the host vehicle acquired through the driving information input interface 201 (i.e., the current location information of the host vehicle acquired through the GPS receiver 260) and the memory. The expected driving trajectory to the destination can be generated using the stored map information, and the expected driving trajectory of the own vehicle can be generated as the lane center line reflected in the map information stored in the memory 620, like the expected driving trajectory of surrounding vehicles. You can.
주변 차량 주행 궤적 생성 모듈(612a) 및 자차량 주행 궤적 생성 모듈(612b)에 의해 생성된 주행 궤적은 메모리(620)에 저장될 수 있으며, 프로세서(610)에 의해 자차량의 자율 주행이 제어되는 과정에서 다양한 목적으로 활용될 수 있다.The driving trajectory generated by the surrounding vehicle driving trajectory generation module 612a and the own vehicle driving trajectory generating module 612b may be stored in the memory 620, and the autonomous driving of the own vehicle is controlled by the processor 610. It can be used for various purposes during the process.
주행 궤적 분석 모듈(613)은 주행 궤적 생성 모듈(612)에 의해 생성되어 메모리(620)에 저장된 각 주행 궤적(즉, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적, 자차량의 실제 주행 궤적)을 분석하여 현재 자차량에 대한 자율 주행 제어의 신뢰도를 진단할 수 있다. 자율 주행 제어의 신뢰도 진단은 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차를 분석하는 과정으로 진행될 수 있다.The driving trajectory analysis module 613 analyzes each driving trajectory generated by the driving trajectory generation module 612 and stored in the memory 620 (i.e., the actual driving trajectory and expected driving trajectory of surrounding vehicles, and the actual driving trajectory of the own vehicle). Through analysis, the reliability of autonomous driving control for the current vehicle can be diagnosed. Reliability diagnosis of autonomous driving control can be carried out through the process of analyzing trajectory errors between the actual driving trajectories of surrounding vehicles and the expected driving trajectories.
주행 제어 모듈(614)은 자차량의 자율 주행을 제어하는 기능을 수행할 수 있으며, 구체적으로 전술한 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)로부터 각각 입력되는 운전 정보 및 주행 정보와, 센서부(500)를 통해 검출된 주변 객체에 대한 정보와, 메모리(620)에 저장된 지도 정보를 종합적으로 이용하여 자율 주행 알고리즘을 처리하며, 차량 제어 출력 인터페이스(401)를 통해 제어 정보를 전달하여 하위 제어 시스템(400)으로 하여금 자차량의 자율 주행을 제어하도록 할 수 있고, 또한 탑승자 출력 인터페이스(301)를 통해 자차량의 주행 상태 정보 및 경고 정보를 출력부(300)로 전달하여 운전자가 인지하도록 할 수 있다. 또한, 주행 제어 모듈(614)은 상기와 같은 자율 주행을 통합적으로 제어할 때 전술한 센서 처리 모듈(611), 주행 궤적 생성 모듈(612) 및 주행 궤적 분석 모듈(613)에 의해 분석된 자차량 및 주변 차량의 주행 궤적을 고려하여 자율 주행을 제어함으로써 자율 주행 제어의 정밀도를 향상시키고 자율 주행 제어 안정성을 개선할 수 있다.The driving control module 614 can perform the function of controlling the autonomous driving of the own vehicle, and specifically, the driving information and driving information input from the driving
궤적 학습 모듈(615)은 자차량 주행 궤적 생성 모듈(612b)에 의해 생성된 자차량의 실제 주행 궤적에 대한 학습 또는 보정을 수행할 수 있다. 예를 들어, 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 메모리(620)에 저장된 지도 정보의 부정확한 것으로 판단하여 자차량의 실제 주행 궤적의 보정이 필요한 것으로 판단할 수 있으며, 이에 따라 자차량의 실제 주행 궤적을 보정하기 위한 횡방향 시프트값을 결정하여 자차량의 주행 궤적을 보정할 수 있다.The trajectory learning module 615 may learn or correct the actual driving trajectory of the host vehicle generated by the host vehicle driving trajectory creation module 612b. For example, if the trajectory error between the actual driving trajectory and the expected driving trajectory of surrounding vehicles is greater than a preset threshold, the map information stored in the memory 620 is judged to be inaccurate and correction of the actual driving trajectory of the own vehicle is determined to be necessary. Accordingly, the driving trajectory of the own vehicle can be corrected by determining the lateral shift value for correcting the actual driving trajectory of the own vehicle.
탑승자 상태 판단 모듈(616)은 전술한 내부 카메라 센서(535) 및 생체 센서에 의해 검출된 탑승자의 상태 및 생체 신호를 토대로 탑승자의 상태 및 거동을 판단할 수 있다. 탑승자 상태 판단 모듈(616)에 의해 판단된 탑승자의 상태는 자차량의 자율 주행 제어 또는 탑승자에 대한 경고를 출력하는 과정에서 활용될 수 있다.The occupant status determination module 616 may determine the occupant's status and behavior based on the occupant's status and biometric signals detected by the internal camera sensor 535 and the biometric sensor described above. The occupant's status determined by the occupant status determination module 616 may be utilized in the process of controlling autonomous driving of the own vehicle or outputting a warning to the occupant.
전술한 내용에 기초하여, 이하에서는 자율 주행 중인 자차량의 주행 궤적을 보정하는 실시예에 대하여 구체적으로 설명한다.Based on the foregoing, an embodiment of correcting the driving trajectory of an autonomous vehicle will be described below in detail.
전술한 것과 같이, 본 실시예의 프로세서(610)(의 주행 궤적 생성 모듈(612))는 센서부(500)에 의해 검출된 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성할 수 있다. 즉, 프로세서(610)는 센서부(500)에 의해 특정 지점에서 주변 차량이 검출된 경우, 검출된 주변 차량의 위치와 메모리(620)에 저장된 지도 정보 상의 위치를 교차 참조함으로써 지도 정보 상에서 현재 검출된 주변 차량의 위치를 특정할 수 있으며, 상기와 같이 주변 차량의 위치를 지속적으로 모니터링함으로써 주변 차량의 실제 주행 궤적을 생성할 수 있다.As described above, the processor 610 (driving trajectory generation module 612) of this embodiment can generate the actual driving trajectory of the surrounding vehicle based on the driving information of the surrounding vehicle detected by the
그리고, 프로세서(610)(의 주행 궤적 생성 모듈(612))는 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성할 수 있으며, 이 경우 프로세서(610)는 주변 차량의 예상 주행 궤적을 메모리(620)에 저장된 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.Additionally, the processor 610 (driving trajectory generation module 612) may generate an expected driving trajectory of a surrounding vehicle based on the map information stored in the memory 620. In this case, the processor 610 may generate an expected driving trajectory of the surrounding vehicle. The expected driving trajectory can be generated as the lane center line reflected in the map information stored in the memory 620.
그리고, 프로세서(610)(의 주행 궤적 생성 모듈(612))는 메모리(620)에 저장된 지도 정보에 기초하여 자차량의 예상 주행 궤적을 생성할 수 있으며, 이 경우 프로세서(610)는 자차량의 예상 주행 궤적을 지도 정보에 반영되어 있는 차로 중심선으로서 생성할 수 있다.In addition, the processor 610 (the driving trajectory generation module 612) may generate an expected driving trajectory of the host vehicle based on the map information stored in the memory 620. In this case, the processor 610 may generate the expected driving trajectory of the host vehicle. The expected driving trajectory can be created as the lane center line reflected in map information.
주변 차량의 실제 주행 궤적 및 예상 주행 궤적과 자차량의 예상 주행 궤적이 생성되면, 프로세서(610)(의 궤적 학습 모듈(615))는 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 비교를 통해 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단된 경우, 자차량으로부터 대상 주변 차량까지의 거리에 따른 위험도에 기초하여 자차량의 예상 주행 궤적을 보정할 수 있다. 여기서, 대상 주변 차량은 자차량의 좌측 및 우측에서 각각 주행 중인 제1 및 제2 대상 주변 차량을 포함할 수 있으며, 이하에서는 자차량이 제1 및 제2 대상 주변 차량의 사이에서 주행하는 경우를 가정한다. 또한, 본 실시예에서 자차량의 예상 주행 궤적의 보정 기준이 되는 주변 차량을 의미하는 것으로 설명하기 위해 '대상 주변 차량'의 용어로 표기하였으나, 대상 주변 차량은 전술한 주변 차량 주행 궤적 생성 모듈(612a)에 의해 실제 주행 궤적 및 예상 주행 궤적이 산출되는 주변 차량과 동일한 차량을 지칭할 수 있다.When the actual and expected driving trajectories of the surrounding vehicles and the expected driving trajectory of the own vehicle are generated, the processor 610 (trajectory learning module 615) compares the actual and expected driving trajectories of the surrounding vehicles to determine the own vehicle. If it is determined that correction of the expected driving trajectory of the vehicle is necessary, the expected driving trajectory of the own vehicle may be corrected based on the degree of risk according to the distance from the own vehicle to the target surrounding vehicles. Here, the target surrounding vehicle may include first and second target surrounding vehicles running on the left and right sides of the host vehicle, respectively. Hereinafter, the case where the host vehicle is traveling between the first and second target surrounding vehicles will be described. Assume. In addition, in this embodiment, the term 'target surrounding vehicle' is used to explain that it refers to the surrounding vehicle that serves as a correction standard for the expected driving trajectory of the own vehicle, but the target surrounding vehicle is the surrounding vehicle driving trajectory generation module described above ( It may refer to the same vehicle as the surrounding vehicle for which the actual driving trajectory and the expected driving trajectory are calculated by 612a).
프로세서(610)는 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단할 수 있다. 즉, 전술한 것과 같이 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 임계값 이상이면 메모리(620)에 저장된 지도 정보가 부정확한 것으로 판단할 수 있으며, 따라서 메모리(620)에 저장된 지도 정보를 토대로 생성되는 자차량의 예상 주행 궤적 또한 보정될 필요가 있다.The processor 610 may determine that correction of the expected driving trajectory of the own vehicle is necessary when the trajectory error between the actual driving trajectory and the expected driving trajectory of the surrounding vehicle is greater than or equal to a preset threshold. That is, as described above, if the trajectory error between the actual driving trajectory and the expected driving trajectory of the surrounding vehicle is greater than the threshold, the map information stored in the memory 620 may be determined to be inaccurate, and therefore the map information stored in the memory 620 The expected driving trajectory of the own vehicle generated based on this also needs to be corrected.
상기와 같이 자차량의 예상 주행 궤적이 보정될 필요가 있는 것으로 판단된 경우, 프로세서(610)는 자차량 및 제1 대상 주변 차량 간의 횡방향 거리와, 자차량 및 제2 대상 주변 차량 간의 횡방향 거리를 토대로 자차량의 주행 위험도가 낮은 방향으로 자차량의 예상 주행 궤적을 보정할 수 있다. 자차량 및 제1 대상 주변 차량 간의 횡방향 거리를 제1 횡방향 거리로 정의하고, 자차량 및 제2 대상 주변 차량 간의 횡방향 거리를 제2 횡방향 거리로 정의할 때, 제1 및 제2 횡방향 거리는 각각 자차량의 주행 방향으로 연장되는 직선과 제1 및 제2 대상 주변 차량 간의 거리를 의미할 수 있다. 프로세서(610)는 제1 및 제2 횡방향 거리를 비교하여 제1 횡방향 거리가 더 큰 경우 좌측 방향으로의 주행 위험도가 더 낮은 것으로 판단할 수 있고, 제2 횡방향 거리가 더 큰 경우 우측 방향으로의 주행 위험도가 더 낮은 것으로 판단할 수 있다.When it is determined that the expected driving trajectory of the host vehicle needs to be corrected as described above, the processor 610 calculates the lateral distance between the host vehicle and the first target surrounding vehicle, and the lateral distance between the host vehicle and the second target surrounding vehicle. Based on the distance, the expected driving trajectory of the own vehicle can be corrected in a direction with a lower driving risk. When the lateral distance between the host vehicle and the vehicle surrounding the first target is defined as the first lateral distance, and the lateral distance between the host vehicle and the vehicle surrounding the second target is defined as the second lateral distance, the first and second The lateral distance may refer to the distance between a straight line extending in the driving direction of the host vehicle and the first and second surrounding vehicles. The processor 610 may compare the first and second lateral distances and determine that the risk of driving in the left direction is lower when the first lateral distance is larger, and when the second lateral distance is larger, the risk of driving in the right direction is lower. The risk of driving in that direction can be judged to be lower.
이 경우, 프로세서(610)는 자차량을 횡방향으로 시프트하여 주행하도록 하기 위한(즉, 자차량의 예상 주행 궤적을 보정하기 위한) 시프트값을 결정하는 방식을 통해 자차량의 예상 주행 궤적을 보정할 수 있다. 즉, 프로세서(610)는 자차량의 주행 위험도가 낮은 방향으로 자차량의 예상 주행 궤적을 보정하기 위한 1차 시프트값을 결정하고, 자차량이 제1 및 제2 대상 주변 차량으로 근접하는 경우에 대한 근접 위험도를 지표하는 가중치를 통해 1차 시프트값을 보정하여 최종 시프트값을 결정한 후, 결정된 최종 시프트값에 따라 자차량의 예상 주행 궤적을 보정할 수 있다.In this case, the processor 610 corrects the expected driving trajectory of the host vehicle by determining a shift value for driving the host vehicle by shifting it in the lateral direction (i.e., to correct the expected driving trajectory of the host vehicle). can do. That is, the processor 610 determines a primary shift value for correcting the expected driving trajectory of the host vehicle in a direction with a low driving risk of the host vehicle, and when the host vehicle approaches the first and second target vehicles, After determining the final shift value by correcting the first shift value through a weight indicating the proximity risk, the expected driving trajectory of the own vehicle can be corrected according to the determined final shift value.
구체적으로, 프로세서(610)는 자차량의 주행 위험도가 낮은 방향으로 자차량의 예상 주행 궤적을 보정하기 위한 1차 시프트값을 결정할 수 있다. 예를 들어, 제1 횡방향 거리가 제2 횡방향 거리보다 큰 경우, 좌측 방향으로 자차량의 예상 주행 궤적을 시프트시키기 위한 1차 시프트값을 결정할 수 있으며, 1차 시프트값의 크기는, 예를 들어 제1 횡방향 거리에서 제2 횡방향 거리를 감산한 값의 1/2로 결정될 수 있다(즉, 자차량이 제1 및 제2 대상 주변 차량의 중앙에서 주행하도록 1차 시프트값의 크기가 결정될 수 있다). 마찬가지로, 제2 횡방향 거리가 제1 횡방향 거리보다 큰 경우, 우측 방향으로 자차량의 예상 주행 궤적을 시프트시키기 위한 1차 시프트값을 결정할 수 있으며, 1차 시프트값의 크기는, 예를 들어 제2 횡방향 거리에서 제1 횡방향 거리를 감산한 값의 1/2로 결정될 수 있다. 또한, 1차 시프트값의 부호를 통해 자차량의 예상 주행 궤적에 대한 시프트 방향을 나타내고(예: (-) 부호는 좌측, (+) 부호는 우측), 그 절대값으로 시프트값의 크기를 나타낼 수도 있다.Specifically, the processor 610 may determine a primary shift value for correcting the expected driving trajectory of the host vehicle in a direction where the driving risk of the host vehicle is low. For example, when the first lateral distance is greater than the second lateral distance, a primary shift value for shifting the expected driving trajectory of the host vehicle to the left can be determined, and the size of the primary shift value is, e.g. For example, it may be determined as 1/2 of the value obtained by subtracting the second lateral distance from the first lateral distance (i.e., the size of the first shift value so that the host vehicle travels in the center of the first and second target surrounding vehicles) can be determined). Likewise, when the second lateral distance is greater than the first lateral distance, a primary shift value for shifting the expected driving trajectory of the host vehicle to the right can be determined, and the size of the primary shift value is, for example, It may be determined as 1/2 of the value obtained by subtracting the first lateral distance from the second lateral distance. In addition, the sign of the primary shift value indicates the shift direction for the vehicle's expected driving trajectory (e.g., (-) sign is left, (+) sign is right), and its absolute value indicates the size of the shift value. It may be possible.
이후, 프로세서(610)는 자차량이 제1 및 제2 대상 주변 차량으로 근접하는 경우에 대한 근접 위험도를 지표하는 가중치를 통해 1차 시프트값을 보정하여 최종 시프트값을 결정할 수 있다. 자차량이 제1 및 제2 대상 주변 차량으로 근접하는 경우에 대한 근접 위험도를 지표하는 가중치란, 이를테면 제1 및 제2 대상 주변 차량 중 더 작은 체적(크기)을 갖는 대상 주변 차량 측에 근접한 상태에서 자차량이 주행하도록 하기 위해 1차 시프트값을 보정하기 위한 파라미터를 의미할 수 있다. 예를 들어, 제1 대상 주변 차량이 대형차이고 제2 대상 주변 차량이 소형차인 경우로서 제2 횡방향 거리가 제1 횡방향 거리보다 커서 1차 시프트값이 (+)의 값으로 결정된 경우를 가정할 때, 최종 시프트값은 상기한 가중치의 적용에 의해 1차 시프트값보다 더 큰 값을 갖도록 결정될 수 있다. 최종 시프트값을 결정하기 위한 1차 시프트값의 증감 정도, 즉 가중치는 설계자의 의도에 따라 다양하게 선택되어 메모리(620)에 미리 저장되어 있을 수 있다.Thereafter, the processor 610 may determine the final shift value by correcting the first shift value through a weight indicating the proximity risk when the own vehicle approaches the first and second target surrounding vehicles. The weight indicating the proximity risk in the case where the own vehicle approaches the first and second target vehicles is, for example, a state in which the host vehicle is close to the target vehicle with a smaller volume (size) among the first and second target vehicles. It may refer to a parameter for correcting the primary shift value to allow the host vehicle to drive. For example, assume that the vehicle around the first target is a large car and the vehicle around the second target is a small car, and the second lateral distance is larger than the first lateral distance, so the first shift value is determined to be a value of (+). When doing so, the final shift value may be determined to have a value greater than the first shift value by applying the above-mentioned weight. The degree of increase or decrease of the first shift value, that is, the weight, for determining the final shift value may be selected in various ways according to the designer's intention and may be stored in advance in the memory 620.
이에 따라, 프로세서(610)는 최종 시프트값에 따라 자차량의 예상 주행 궤적을 보정할 수 있다. 자차량의 예상 주행 궤적을 보정하는 것에 의해, 메모리(620)에 저장된 지도 정보에 따라 자차량의 자율 주행이 제어되는 과정에서 자차량 주행 궤적 생성 모듈(612b)에 의해 생성되는 자차량의 예상 주행 궤적이 그 보정 전 대비 최종 시프트값만큼 시프트되어 형성됨으로써 자차량의 자율 주행 안정성이 확보될 수 있다.Accordingly, the processor 610 can correct the expected driving trajectory of the host vehicle according to the final shift value. By correcting the expected driving trajectory of the host vehicle, the expected driving of the host vehicle is generated by the host vehicle driving trajectory generation module 612b in the process of controlling the autonomous driving of the host vehicle according to the map information stored in the memory 620. By shifting the trajectory by the final shift value compared to before correction, the autonomous driving stability of the own vehicle can be secured.
도 7 및 도 8은 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하기 위한 흐름도이다.7 and 8 are flowcharts for explaining an autonomous driving method according to an embodiment of the present invention.
도 7을 참조하여 본 발명의 일 실시예에 따른 자율 주행 방법을 설명하면, 먼저 프로세서(610)는 메모리(620)에 저장된 지도 정보에 기초하여 자차량의 자율 주행을 제어한다(S100).When explaining the autonomous driving method according to an embodiment of the present invention with reference to FIG. 7, first, the processor 610 controls autonomous driving of the host vehicle based on map information stored in the memory 620 (S100).
이후, 프로세서(610)는 자차량의 자율 주행이 이루어지는 과정에서 센서부(500)에 의해 검출되는 주변 차량의 주행 정보에 기초하여 주변 차량의 실제 주행 궤적을 생성한다(S200).Thereafter, the processor 610 generates the actual driving trajectory of the surrounding vehicle based on the driving information of the surrounding vehicle detected by the
이어서, 프로세서(610)는 메모리(620)에 저장된 지도 정보에 기초하여 주변 차량의 예상 주행 궤적을 생성한다(S300).Next, the processor 610 generates an expected driving trajectory of surrounding vehicles based on the map information stored in the memory 620 (S300).
이어서, 프로세서(610)는 메모리(620)에 저장된 지도 정보에 기초하여 자차량의 예상 주행 궤적을 생성한다(S400).Next, the processor 610 generates an expected driving trajectory of the host vehicle based on the map information stored in the memory 620 (S400).
이어서, 프로세서(610)는 주변 차량의 실제 주행 궤적 및 예상 주행 궤적을 비교하여 자차량의 예상 주행 궤적의 보정이 필요한지 여부를 판단한다(S500). S500 단계에서, 프로세서(610)는 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단한다.Next, the processor 610 determines whether correction of the expected driving trajectory of the own vehicle is necessary by comparing the actual driving trajectory and the expected driving trajectory of surrounding vehicles (S500). In step S500, the processor 610 determines that correction of the expected driving trajectory of the own vehicle is necessary when the trajectory error between the actual driving trajectory and the expected driving trajectory of the surrounding vehicle is greater than or equal to a preset threshold.
S500 단계에서 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단된 경우, 프로세서(610)는 자차량으로부터 대상 주변 차량까지의 거리에 따른 위험도에 기초하여 자차량의 예상 주행 궤적을 보정한다(S600). S600 단계에서, 프로세서는 자차량 및 제1 대상 주변 차량 간의 제1 횡방향 거리와, 자차량 및 제2 대상 주변 차량 간의 제2 횡방향 거리를 토대로 자차량의 주행 위험도가 낮은 방향으로 자차량의 예상 주행 궤적을 보정한다.If it is determined in step S500 that correction of the expected driving trajectory of the host vehicle is necessary, the processor 610 corrects the expected driving trajectory of the host vehicle based on the degree of risk according to the distance from the host vehicle to the target surrounding vehicle (S600). . In step S600, the processor moves the host vehicle in a direction with a low driving risk of the host vehicle based on the first lateral distance between the host vehicle and the first target surrounding vehicle and the second lateral distance between the host vehicle and the second target surrounding vehicle. Correct the expected driving trajectory.
도 8을 참조하여 S600 단계를 구체적으로 설명하면, 프로세서(610)는 제1 및 제2 횡방향 거리를 비교하여 자차량의 주행 위험도가 낮은 방향을 결정하고, 결정된 방향으로 자차량의 예상 주행 궤적을 보정하기 위한 1차 시프트값을 결정한다(S610).Describing step S600 in detail with reference to FIG. 8, the processor 610 determines a direction with a low driving risk of the host vehicle by comparing the first and second lateral distances, and sets the expected driving trajectory of the host vehicle in the determined direction. Determine the first shift value to correct (S610).
그리고, 프로세서(610)는 자차량이 제1 및 제2 대상 주변 차량으로 근접하는 경우에 대한 근접 위험도를 지표하는 가중치를 통해 1차 시프트값을 보정하여 최종 시프트값을 결정한다(S620).Then, the processor 610 determines the final shift value by correcting the first shift value through a weight indicating the proximity risk when the own vehicle approaches the first and second target surrounding vehicles (S620).
그리고, 프로세서(610)는 S620 단계에서 결정된 최종 시프트값에 따라 자차량의 예상 주행 궤적을 보정한다(630).Then, the processor 610 corrects the expected driving trajectory of the host vehicle according to the final shift value determined in step S620 (630).
S600 단계에 따라 자차량의 예상 주행 궤적이 보정되면, 프로세서(610)는 정상적으로 자율 주행을 제어한다(S700).When the expected driving trajectory of the host vehicle is corrected in step S600, the processor 610 normally controls autonomous driving (S700).
이와 같이 본 실시예는 자율 주행 중인 차량의 주행 궤적의 보정 필요성을 판단하고, 그 판단 결과에 따라 주변 차량 간의 거리에 따른 위험도를 고려하여 자율 주행 차량의 주행 궤적을 보정함으로써 자율 주행 차량의 주행 안정성 및 주행 정확성을 향상시킬 수 있다.In this way, this embodiment determines the need for correction of the driving trajectory of the autonomous vehicle, and according to the judgment result, corrects the driving trajectory of the autonomous vehicle by considering the risk according to the distance between surrounding vehicles, thereby ensuring the driving stability of the autonomous vehicle. and driving accuracy can be improved.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and those skilled in the art will recognize that various modifications and other equivalent embodiments can be made therefrom. You will understand. Therefore, the true technical protection scope of the present invention should be determined by the scope of the patent claims below.
100: 사용자 입력부
101: 운전 정보 입력 인터페이스
110: 주행 모드 스위치
120: 사용자 단말
200: 주행 정보 검출부
201: 주행 정보 입력 인터페이스
210: 조향각 센서
220: APS/PTS
230: 차속 센서
240: 가속도 센서
250: 요/피치/롤 센서
260: GPS 수신기
300: 출력부
301: 탑승자 출력 인터페이스
310: 스피커
320: 디스플레이 장치
400: 하위 제어 시스템
401: 차량 제어 출력 인터페이스
410: 엔진 제어 시스템
420: 제동 제어 시스템
430: 조향 제어 시스템
500: 센서부
510: 라이다 센서
511: 전방 라이다 센서
512: 상부 라이다 센서
513: 후방 라이다 센서
520: 레이더 센서
521: 전방 레이더 센서
522: 좌측 레이더 센서
523: 우측 레이더 센서
524: 후방 레이더 센서
530: 카메라 센서
531: 전방 카메라 센서
532: 좌측 카메라 센서
533: 우측 카메라 센서
534: 후방 카메라 센서
535: 내부 카메라 센서
540: 초음파 센서
600: 자율 주행 통합 제어부
610: 프로세서
611: 센서 처리 모듈
611a: 라이더 신호 처리 모듈
611b: 레이더 신호 처리 모듈
611c: 카메라 신호 처리 모듈
612: 주행 궤적 생성 모듈
612a: 주변 차량 주행 궤적 생성 모듈
612b: 자차량 주행 궤적 생성 모듈
613: 주행 궤적 분석 모듈
614: 주행 제어 모듈
615: 궤적 학습 모듈
616: 탑승자 상태 판단 모듈
620: 메모리
700: 서버100: User input unit 101: Driving information input interface
110: Driving mode switch 120: User terminal
200: Driving information detection unit 201: Driving information input interface
210: Steering angle sensor 220: APS/PTS
230: vehicle speed sensor 240: acceleration sensor
250: Yaw/Pitch/Roll Sensor 260: GPS Receiver
300: output unit 301: passenger output interface
310: Speaker 320: Display device
400: Sub-control system 401: Vehicle control output interface
410: Engine control system 420: Braking control system
430: Steering control system 500: Sensor unit
510: LiDAR sensor 511: Front LiDAR sensor
512: Upper LiDAR sensor 513: Rear LiDAR sensor
520: Radar sensor 521: Front radar sensor
522: Left radar sensor 523: Right radar sensor
524: Rear radar sensor 530: Camera sensor
531: Front camera sensor 532: Left camera sensor
533: Right camera sensor 534: Rear camera sensor
535: Internal camera sensor 540: Ultrasonic sensor
600: Autonomous driving integrated control unit 610: Processor
611: sensor processing module 611a: lidar signal processing module
611b: Radar signal processing module 611c: Camera signal processing module
612: Driving trajectory generation module 612a: Surrounding vehicle driving trajectory generation module
612b: Own vehicle driving trajectory generation module 613: Driving trajectory analysis module
614: Driving control module 615: Trajectory learning module
616: Occupant status determination module 620: Memory
700: Server
Claims (5)
상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 자율 주행을 제어하는 프로세서;를 포함하고,
상기 프로세서는,
상기 자차량의 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하고,
상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하며,
상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 예상 주행 궤적을 생성하고,
상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 비교를 통해 상기 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단된 경우, 상기 자차량의 위험도에 기초하여 상기 자차량의 예상 주행 궤적을 보정하는 것을 특징으로 하는 자율 주행 장치.
Memory to store map information; and
A processor that controls autonomous driving of the own vehicle based on map information stored in the memory,
The processor,
Generating an actual driving trajectory of the surrounding vehicle based on driving information of the vehicle surrounding the own vehicle,
Generates an expected driving trajectory of the surrounding vehicle based on map information stored in the memory,
Generating an expected driving trajectory of the host vehicle based on map information stored in the memory,
If it is determined that correction of the expected driving trajectory of the host vehicle is necessary through comparison between the actual driving trajectory and the expected driving trajectory of the surrounding vehicles, correcting the expected driving trajectory of the host vehicle based on the risk of the own vehicle. Featured autonomous driving device.
상기 프로세서는,
상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적 간의 궤적 오차가 미리 설정된 임계값 이상인 경우 상기 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단하는 것을 특징으로 하는 자율 주행 장치.
According to paragraph 1,
The processor,
An autonomous driving device characterized in that it is determined that correction of the expected driving trajectory of the own vehicle is necessary when the trajectory error between the actual driving trajectory and the expected driving trajectory of the surrounding vehicle is more than a preset threshold.
상기 대상 주변 차량은 상기 자차량의 좌측 및 우측에서 각각 주행 중인 제1 및 제2 대상 주변 차량을 포함하고,
상기 프로세서는,
상기 자차량 및 상기 제1 대상 주변 차량 간의 횡방향 거리와, 상기 자차량 및 상기 제2 대상 주변 차량 간의 횡방향 거리를 토대로 상기 자차량의 주행 위험도가 낮은 방향으로 상기 자차량의 예상 주행 궤적을 보정하는 것을 특징으로 하는 자율 주행 장치.
According to paragraph 1,
The target surrounding vehicles include first and second target surrounding vehicles running on the left and right sides of the host vehicle, respectively,
The processor,
Based on the lateral distance between the host vehicle and the first target surrounding vehicle, and the lateral distance between the host vehicle and the second target surrounding vehicle, the expected driving trajectory of the host vehicle is determined in a direction with a low driving risk of the host vehicle. An autonomous driving device characterized by correction.
상기 프로세서는,
상기 자차량의 주행 위험도가 낮은 방향으로 상기 자차량의 예상 주행 궤적을 보정하기 위한 1차 시프트값을 결정하고, 상기 자차량이 상기 제1 및 제2 대상 주변 차량으로 근접하는 경우에 대한 근접 위험도를 지표하는 가중치를 통해 상기 1차 시프트값을 보정하여 최종 시프트값을 결정한 후, 상기 결정된 최종 시프트값에 따라 상기 자차량의 예상 주행 궤적을 보정하는 것을 특징으로 하는 자율 주행 장치.
According to paragraph 3,
The processor,
Determine a primary shift value for correcting the expected driving trajectory of the host vehicle in a direction with a low driving risk of the host vehicle, and determine the proximity risk for the case where the host vehicle approaches the first and second target surrounding vehicles An autonomous driving device characterized in that the final shift value is determined by correcting the first shift value through a weight indicating , and then the expected driving trajectory of the own vehicle is corrected according to the determined final shift value.
상기 프로세서가, 상기 자차량의 주변 차량의 주행 정보에 기초하여 상기 주변 차량의 실제 주행 궤적을 생성하는 단계;
상기 프로세서가, 상기 메모리에 저장된 지도 정보에 기초하여 상기 주변 차량의 예상 주행 궤적을 생성하는 단계;
상기 프로세서가, 상기 메모리에 저장된 지도 정보에 기초하여 상기 자차량의 예상 주행 궤적을 생성하는 단계;
상기 프로세서가, 상기 주변 차량의 실제 주행 궤적 및 예상 주행 궤적을 비교하여 상기 자차량의 예상 주행 궤적의 보정이 필요한지 여부를 판단하는 단계; 및
상기 자차량의 예상 주행 궤적의 보정이 필요한 것으로 판단된 경우, 상기 프로세서가, 상기 자차량의 위험도에 기초하여 상기 자차량의 예상 주행 궤적을 보정하는 단계;
를 포함하는 것을 특징으로 하는 자율 주행 방법.A processor controlling autonomous driving of the own vehicle based on map information stored in a memory;
generating, by the processor, an actual driving trajectory of a surrounding vehicle based on driving information of the vehicle surrounding the own vehicle;
generating, by the processor, an expected driving trajectory of the surrounding vehicle based on map information stored in the memory;
generating, by the processor, an expected driving trajectory of the host vehicle based on map information stored in the memory;
determining, by the processor, whether correction of the expected driving trajectory of the host vehicle is necessary by comparing the actual driving trajectory and the expected driving trajectory of the surrounding vehicles; and
When it is determined that correction of the expected driving trajectory of the host vehicle is necessary, correcting, by the processor, the expected driving trajectory of the host vehicle based on the degree of risk of the host vehicle;
An autonomous driving method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020240035177A KR20240038680A (en) | 2019-05-20 | 2024-03-13 | Autonomous driving apparatus and method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190058599A KR102648602B1 (en) | 2019-05-20 | 2019-05-20 | Autonomous driving apparatus and method |
KR1020240035177A KR20240038680A (en) | 2019-05-20 | 2024-03-13 | Autonomous driving apparatus and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190058599A Division KR102648602B1 (en) | 2019-05-20 | 2019-05-20 | Autonomous driving apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240038680A true KR20240038680A (en) | 2024-03-25 |
Family
ID=73642104
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190058599A KR102648602B1 (en) | 2019-05-20 | 2019-05-20 | Autonomous driving apparatus and method |
KR1020240035177A KR20240038680A (en) | 2019-05-20 | 2024-03-13 | Autonomous driving apparatus and method |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190058599A KR102648602B1 (en) | 2019-05-20 | 2019-05-20 | Autonomous driving apparatus and method |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102648602B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112665538B (en) * | 2020-12-09 | 2023-10-13 | 云南昆船电子设备有限公司 | Vehicle autonomous navigation transverse ranging system and method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102565928B1 (en) * | 2016-07-21 | 2023-08-11 | 현대자동차주식회사 | Automatic Driving control apparatus, vehicle having the same and method for controlling the same |
KR20180064639A (en) * | 2016-12-06 | 2018-06-15 | 현대자동차주식회사 | Vehicle and control method thereof |
KR102406498B1 (en) * | 2016-12-07 | 2022-06-10 | 현대자동차주식회사 | Method for converting between Self-Driving Mode and Advanced Driver Assistance Mode |
KR102395285B1 (en) * | 2016-12-16 | 2022-05-09 | 현대자동차주식회사 | Method for determining danger of around vehicle |
KR102374078B1 (en) * | 2017-09-15 | 2022-03-14 | 현대모비스 주식회사 | Apparatus, method and system for autonomous driving |
-
2019
- 2019-05-20 KR KR1020190058599A patent/KR102648602B1/en active IP Right Grant
-
2024
- 2024-03-13 KR KR1020240035177A patent/KR20240038680A/en not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
KR102648602B1 (en) | 2024-03-18 |
KR20200133441A (en) | 2020-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112046501B (en) | Automatic driving device and method | |
JP2016172531A (en) | Vehicle control device | |
US11685402B2 (en) | Autonomous driving apparatus and method | |
CN112046502B (en) | Automatic driving device and method | |
CN112046500A (en) | Automatic driving device and method | |
KR20210037790A (en) | Autonomous driving apparatus and method | |
KR20240038680A (en) | Autonomous driving apparatus and method | |
US11934204B2 (en) | Autonomous driving apparatus and method | |
US20220253065A1 (en) | Information processing apparatus, information processing method, and information processing program | |
KR102539286B1 (en) | Autonomous driving apparatus and method | |
KR20240035960A (en) | Autonomous driving apparatus and method | |
KR20200133854A (en) | Autonomous driving apparatus and method | |
US20200369296A1 (en) | Autonomous driving apparatus and method | |
KR20200133855A (en) | Autonomous driving apparatus and method | |
KR102530702B1 (en) | Autonomous driving apparatus and method | |
KR20200133859A (en) | Autonomous driving apparatus and method | |
KR20200133857A (en) | Autonomous driving apparatus and method | |
KR102644325B1 (en) | Autonomous driving apparatus and method | |
KR102648470B1 (en) | Autonomous driving apparatus and method | |
KR102616971B1 (en) | Autonomous driving apparatus and method | |
KR102648603B1 (en) | Autonomous driving apparatus and method | |
KR20200133445A (en) | Autonomous driving apparatus and method | |
KR20200133860A (en) | Autonomous driving apparatus and method | |
KR20200133444A (en) | Autonomous driving apparatus and method | |
KR20200133851A (en) | Autonomous driving apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal |