KR20190073038A - System and Method for creating driving route of vehicle - Google Patents
System and Method for creating driving route of vehicle Download PDFInfo
- Publication number
- KR20190073038A KR20190073038A KR1020170174288A KR20170174288A KR20190073038A KR 20190073038 A KR20190073038 A KR 20190073038A KR 1020170174288 A KR1020170174288 A KR 1020170174288A KR 20170174288 A KR20170174288 A KR 20170174288A KR 20190073038 A KR20190073038 A KR 20190073038A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- intention
- neighboring
- neighboring vehicle
- map
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 56
- 230000002093 peripheral effect Effects 0.000 claims description 47
- 238000011156 evaluation Methods 0.000 claims description 20
- 238000010801 machine learning Methods 0.000 claims description 10
- 238000013135 deep learning Methods 0.000 claims description 5
- 241000396377 Tranes Species 0.000 claims 1
- 239000006185 dispersion Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 7
- 239000000470 constituent Substances 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/025—Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
- B62D15/0255—Automatic changing of lane, e.g. for passing another vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/025—Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
- B62D15/0265—Automatic obstacle avoidance by steering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3446—Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3461—Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3658—Lane guidance
-
- G06K9/00825—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B60W2550/30—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4043—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4045—Intention, e.g. lane change or imminent movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/805—Azimuth angle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 차량의 경로 생성 시스템 및 방법에 관한 것으로, 보다 상세하게는 주변차량의 의도 및 경로를 파악하여 자차량의 경로를 생성하는 기술에 관한 것이다.BACKGROUND OF THE
최근 들어 자동차 기술 분야에서는 사고 위험을 줄일 수 있는 주변차량 인지 방법 및 차선 인지 방법에 관한 연구가 활발히 진행되고 있다.Recently, in the field of automobile technology, researches on a method of recognizing a nearby vehicle that can reduce the risk of an accident and a method of recognizing a lane are being actively carried out.
일반적으로, 차선 감지 및 주변차량 감지는 차량에 구비된 카메라 혹은 센서를 통해 촬영되는 영상을 기반으로 이루어지고 있다.Generally, lane detection and surrounding vehicle detection are based on images captured through a camera or a sensor provided in a vehicle.
그러나 카메라 또는 센서 기반의 차선 감지 및 주변차량 감지 방법은 날씨 또는 외부 밝기의 요인에 따라 차선 감지 및 주변차량 감지가 제대로 행해지지 않을 수 있다. 예를 들어, 맑은 날씨에는 도로상의 차선을 쉽게 감지할 수 있지만, 주변이 어둡거나, 눈 또는 비로 인하여 날씨가 좋지 못한 상황에서는 카메라 또는 센서를 통해서는 차선을 감지하지 못하거나, 좁은 시야의 차선을 감지할 수 있는 정도에 그칠 수 있다. 또한, 햇빛이 강한 경우에도 역광으로 인해 카메라 또는 센서를 통해 촬영된 영상을 통해 차선을 쉽게 감지하지 못하는 경우도 발생한다.However, camera or sensor-based lane detection and nearby vehicle detection methods may not properly detect lanes or nearby vehicles depending on weather or external brightness factors. For example, in clear weather it is easy to detect lanes on the road, but in situations where the weather is bad due to poor surroundings, snow or rain, you may not be able to detect lanes through the camera or sensor, It can only be detected enough. In addition, even when the sunlight is strong, the lane can not be easily detected through the image taken through the camera or the sensor due to the backlight.
따라서, 차량에 구비되는 센서들로는 레이더(radar) 혹은 비전(vision) 센서가 주로 사용되고 있으나, 센서들의 한계성으로 인하여 차량간 통신 기법을 통한 주변차량 인지방법에 대해 많은 연구가 진행 중에 있다.Therefore, although radar or vision sensors are mainly used as sensors installed in a vehicle, there is a lot of research on a method of recognizing a nearby vehicle through inter-vehicle communication technique due to limitations of sensors.
종래 기술에 따른 주변차량 인지 방법들은 카메라 또는 센서를 통해 촬영되는 영상을 기반으로 인지하거나, 주변차량의 속도와 위치를 이용하여 주변차량의 위치를 추정하거나, 차선 변경 가능 여부 등을 알 수 있었다.The conventional vehicle recognition methods can recognize the location based on the image captured through the camera or the sensor, estimate the location of the nearby vehicle using the speed and location of the nearby vehicle, and determine whether the lane can be changed.
즉, 종래 기술에 따른 주변차량 인지방법 및 차선 변경을 위한 경로 생성 방법은 주변차량의 차선을 변경하는 의도 및 속도의 변화 등을 판단하지 못한 상태에서 자차량이 차선변경을 시도함으로써 자차량과 주변차량 간의 충돌 위험이 높아지는 문제점이 있다.That is, according to the related art vehicle recognition method and the route generation method for lane change, when the lane change is attempted by the vehicle in the state where the intention and speed change of the lane of the surrounding vehicle are not determined, There is a problem that the risk of collision between vehicles increases.
[특허문헌] 한국공개특허 2017-0070395호.[Patent Literature] Korean Laid-Open Patent Publication No. 2017-0070395.
본 발명의 목적은, 자차량의 차선 변경을 위한 공간을 탐색하고 경로를 생성하기 위하여 주변차량의 속도와 위치뿐만 아니라 주변차량의 주행 시 의도를 판단한 후, 판단된 의도에 따른 주변차량의 예측 경로를 생성하고, 생성된 주변차량의 예측 경로를 회피할 수 있는 자차량의 경로를 생성함으로써, 자차량과 주변차량의 충돌 위험을 감소시키고, 자차량의 차선 변경 시 위험 상황을 회피할 수 있는 차량의 경로 생성 시스템 및 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for searching a space for a lane change of a subject vehicle and determining a speed and a position of the surrounding vehicle, And generating a path of a vehicle in which the predicted path of the generated neighboring vehicle can be avoided to thereby reduce the risk of collision between the vehicle and the surrounding vehicle, And to provide a path generation system and method of the present invention.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the above-mentioned technical problems, and other technical problems which are not mentioned can be understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 차량의 경로 생성 시스템은 자차량과 인접한 주변차량을 선정하는 차량 선정부, 상기 주변차량의 위치와 속도가 구비된 정보를 이용하여 상기 주변차량의 의도를 판단하는 의도 판단부, 상기 판단된 주변차량의 의도에 따라 상기 주변차량의 경로를 예측하는 경로 예측부, 상기 주변차량의 예측된 경로를 이용하여 맵을 생성하는 맵 생성부 및 상기 자차량의 경로를 생성하는 경로 생성부를 포함한다.A route generating system of a vehicle according to an embodiment of the present invention includes a vehicle selecting section for selecting a nearby vehicle adjacent to the subject vehicle, an intention determining section for determining the intention of the nearby vehicle using information about the position and speed of the nearby vehicle, A map generating unit for generating a map using the predicted path of the neighboring vehicle, and a controller for generating a path of the vehicle based on the predicted path, And a path generating unit.
일 실시예에서, 상기 차량 선정부는, 들로네 삼각분할 방법을 이용하여 상기 자차량과 연결된 주변차량을 선정할 수 있다.In one embodiment, the vehicle selection unit can select a nearby vehicle connected to the child vehicle using the Amore triangulation method.
일 실시예에서, 상기 의도 판단부는, 상기 주변차량의 횡방향 위치, 종방향 위치, 횡방향 속도 및 종방향 속도를 포함하는 주변차량의 위치와 속도가 구비된 정보를 이용하여 주변차량의 의도를 판단할 수 있다.In one embodiment, the intention determining unit determines the intent of the neighboring vehicle by using information on the position and speed of the nearby vehicle including the lateral position, the longitudinal position, the lateral velocity, and the longitudinal velocity of the neighboring vehicle It can be judged.
일 실시예에서, 상기 의도 판단부는, 딥러닝 방법 또는 기계학습 방법으로 생성된 판별부를 이용하여 상기 주변차량의 의도를 판단할 수 있다.In one embodiment, the intention determining unit may determine the intention of the neighboring vehicle by using a determination unit generated by a deep learning method or a machine learning method.
일 실시예에서, 상기 의도 판단부는, 상기 판단된 주변차량의 의도를 판별부를 이용하여 다수의 의도의 종류로 분류할 수 있다.In one embodiment, the intention determining unit may classify intentions of the determined neighboring vehicles into a plurality of types of intent using the determination unit.
일 실시예에서, 상기 판별부는, 다수의 의도의 종류에서 각각의 평가값을 연산할 수 있다.In one embodiment, the determination unit may calculate each evaluation value in a plurality of types of intentions.
일 실시예에서, 상기 의도 판단부는, 상기 다수의 의도의 종류 간의 분산값의 차이에 따라 평가값을 선택할 수 있다.In one embodiment, the intention determining unit may select an evaluation value according to a difference of variance values between the types of the intention.
일 실시예에서, 상기 의도 판단부는, 상기 주변차량의 그리드 맵을 이용하여 상기 주변차량의 의도를 판단할 수 있다.In one embodiment, the intention determining unit may determine the intention of the neighboring vehicle using the grid map of the neighboring vehicle.
일 실시예에서, 상기 맵 생성부는, 상기 주변차량의 예측된 경로를 시간의 경과에 따라 원형 또는 타원형의 분포도를 생성하고, 상기 원형 또는 타원형의 분포도를 이용하여 그리드 맵을 생성할 수 있다.In one embodiment, the map generator may generate a circular or elliptical distribution diagram of the estimated path of the neighboring vehicle over time, and may generate the grid map using the circular or elliptical distribution diagram.
일 실시예에서, 상기 맵 생성부는, 상기 시간의 경과에 따라 상기 주변차량의 예측된 경로의 범위를 넓게 변동시킬 수 있다.In one embodiment, the map generator may widely vary the range of the predicted path of the neighboring vehicle as the time elapses.
일 실시예에서, 상기 경로 생성부는, 그리드 맵을 이용하여 상기 자차량의 경로를 생성할 수 있다.In one embodiment, the path generating unit may generate the path of the child vehicle using the grid map.
본 발명의 일 실시예에 따른 차량의 경로 생성 방법은 자차량과 인접한 주변차량을 선정하는 단계, 상기 주변차량의 위치와 속도가 구비된 정보를 이용하여 상기 주변차량의 의도를 판단하는 단계, 상기 판단된 주변차량의 의도에 따라 상기 주변차량의 경로를 예측하는 단계, 상기 주변차량의 예측된 경로를 이용하여 맵을 생성하는 단계 및 상기 자차량의 경로를 생성하는 단계를 포함한다.A method of generating a route of a vehicle according to an embodiment of the present invention includes the steps of: selecting a nearby vehicle adjacent to the subject vehicle; determining an intention of the neighboring vehicle using information about the position and speed of the nearby vehicle; Estimating a route of the neighboring vehicle according to the determined intention of the neighboring vehicle, generating a map using the predicted route of the neighboring vehicle, and generating the route of the child vehicle.
일 실시예에서, 상기 자차량과 인접한 주변차량을 선정하는 단계는, 들로네 삼각분할 방법을 이용하여 상기 자차량과 연결된 주변차량을 선정하는 단계를 포함할 수 있다.In one embodiment, the step of selecting a neighboring vehicle adjacent to the child vehicle may include a step of selecting a neighboring vehicle connected to the child vehicle using an Oranone triangulation method.
일 실시예에서, 상기 주변차량의 의도를 판단하는 단계는, 상기 주변차량의 횡방향 위치, 종방향 위치, 횡방향 속도 및 종방향 속도를 포함하는 주변차량의 위치와 속도가 구비된 정보를 이용하여 주변차량의 의도를 판단하는 단계를 포함할 수 있다.In one embodiment, the step of determining the intent of the neighboring vehicle may include using the information of the position and speed of the neighboring vehicle including the lateral position, the longitudinal position, the lateral velocity and the longitudinal velocity of the neighboring vehicle And determining the intention of the nearby vehicle.
일 실시예에서, 상기 주변차량의 의도를 판단하는 단계는, 딥러닝 방법 또는 기계학습 방법으로 생성된 판별부를 이용하여 상기 주변차량의 의도를 판단하는 단계를 포함할 수 있다.In one embodiment, the step of determining the intention of the neighboring vehicle may include the step of determining an intention of the neighboring vehicle using a discriminator generated by a deep learning method or a machine learning method.
일 실시예에서, 상기 주변차량의 의도를 판단하는 단계는, 상기 판단된 주변차량의 의도를 판별부를 이용하여 다수의 의도의 종류로 분류하는 단계를 포함할 수 있다.In one embodiment, the step of determining the intent of the neighboring vehicle may include classifying the intent of the determined neighboring vehicle into a plurality of types of intent using the determination unit.
일 실시예에서, 상기 주변차량의 의도를 판단하는 단계는, 상기 다수의 의도의 종류에서 각각의 평가값을 연산하는 단계를 포함할 수 있다.In one embodiment, determining the intent of the neighboring vehicle may include calculating each of the evaluation values in the plurality of types of intentions.
일 실시예에서, 상기 주변차량의 의도를 판단하는 단계는, 상기 다수의 의도의 종류 간의 분산값의 차이에 따라 평가값을 선택하는 단계를 포함할 수 있다.In one embodiment, the step of determining the intention of the neighboring vehicle may include the step of selecting an evaluation value according to a difference of variance values between the types of the intention.
일 실시예에서, 상기 주변차량의 예측된 경로를 이용하여 그리드 맵을 생성하는 단계는, 상기 주변차량의 예측된 경로를 시간의 경과에 따라 원형 또는 타원형의 분포도를 생성하는 단계 및 상기 원형 또는 타원형의 분포도를 이용하여 그리드 맵을 생성하는 단계를 포함할 수 있다.In one embodiment, generating the grid map using the predicted path of the neighboring vehicle may include generating a circular or elliptical distribution map of the predicted path of the neighboring vehicle over time, And generating a grid map using the distribution map of the grid map.
일 실시예에서, 상기 주변차량의 예측된 경로를 이용하여 그리드 맵을 생성하는 단계는, 상기 시간의 경과에 따라 상기 주변차량의 예측된 경로의 범위를 넓게 변동시키는 단계를 포함할 수 있다.In one embodiment, generating the grid map using the predicted path of the neighboring vehicle may include broadly varying the range of the predicted path of the neighboring vehicle as the time elapses.
본 발명의 일 실시예에 따른 차량의 경로 생성 시스템 및 방법에 따르면, 주변차량의 주행 시 의도를 판단한 후, 판단된 의도에 따른 주변차량의 예측 경로를 생성하고, 생성된 주변차량의 예측 경로를 회피할 수 있는 자차량의 경로를 생성하거나, 자차량의 차선변경 시점을 생성함으로써, 자차량과 주변차량의 충돌 위험을 감소시킬 수 있다.According to the system and method for generating a path of a vehicle according to an embodiment of the present invention, it is possible to generate a predicted path of a neighboring vehicle according to a determined intention after determining the intention of the neighboring vehicle while driving, It is possible to reduce the risk of collision between the subject vehicle and the surrounding vehicle by generating a path of the subject vehicle that can be avoided or by generating a lane change point of time of the subject vehicle.
본 발명의 일 실시예에 따른 차량의 경로 생성 시스템 및 방법에 따르면, 주변차량의 의도에 따른 주변차량의 예측 경로 및 자차량의 최적의 경로를 생성함으로써, 자차량의 차선 변경 시 위험 상황을 회피할 수 있다.According to the vehicle path generating system and method according to the embodiment of the present invention, by generating the predicted path of the neighboring vehicle and the optimum path of the vehicle in accordance with the intention of the neighboring vehicle, can do.
도 1은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템을 설명하는 구성도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 차량 선정부를 설명하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 의도 판단부를 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 경로 예측부를 설명하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 맵 생성부를 설명하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 경로 생성부에서 생성된 최종 경로를 설명하는 도면이다.
도 8은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템을 실행하는 컴퓨팅 시스템을 보여주는 도면이다.BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a block diagram illustrating a vehicle path generation system according to an embodiment of the present invention; FIG.
FIG. 2 and FIG. 3 are views for explaining a vehicle selection unit of a route generation system for a vehicle according to an embodiment of the present invention.
4 is a view for explaining an intention determining unit of a vehicle path generating system according to an embodiment of the present invention.
5 is a view for explaining a path predictor of a vehicle path generating system according to an embodiment of the present invention.
6 is a view for explaining a map generation unit of a route generation system of a vehicle according to an embodiment of the present invention.
7 is a view for explaining a final path generated by a path generating unit of a vehicle path generating system according to an embodiment of the present invention.
8 is a diagram illustrating a computing system that implements a path generation system for a vehicle in accordance with an embodiment of the present invention.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the difference that the embodiments of the present invention are not conclusive.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. Also, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.
도 1은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템을 설명하는 구성도이다.BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a block diagram illustrating a vehicle path generation system according to an embodiment of the present invention; FIG.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템(10)은 차량 선정부(100), 의도 판단부(200), 경로 예측부(300), 맵 생성부(400) 및 경로 생성부(500)를 포함한다.1, a vehicle
차량 선정부(100)는 자차량(1)에 영향을 주는 자차량(1)과 인접한 주변차량을 선정한다. 예를 들어, 차량 선정부(100)는 일정시간 동안 주변차량을 관측한 후, 관측된 주변차량을 들로네 삼각분할(Delaunay Triangulization) 방법을 이용하여 자차량(1)과 연결된 주변차량을 선정할 수 있다. The
예를 들어, 차량 선정부(100)는 자차량(1)의 전방에 1대의 주변차량을 선정하고, 후방에 1대의 주변차량을 선정하며, 전측방에 2대의 주변차량을 선정하고, 후측방에 2대의 주변차량을 선정할 수 있다.For example, the
예를 들어, 차량 선정부(100)는 자차량(1)의 전방에 1대의 주변차량을 선정하고, 후방에 1대의 주변차량을 선정하며, 좌측방에 1대의 주변차량을 선정하고, 우측방에 1대의 주변차량을 선정하며, 전측방에 2대의 주변차량을 선정하고, 후측방에 2대의 주변차량을 선정할 수 있다.For example, the
차량 선정부(100)는 들로네 삼각분할 방법에서 자차량(1)과 주변차량 간의 실선, 굵은 점선 또는 얇은 점선을 포함하는 표시 기호를 이용하여 자차량(1)과 주변차량 간의 연결 관계를 나타낼 수 있다. 여기서, 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 차량 선정부(100)는 도 2 및 도 3에서 자세하게 설명한다.The
의도 판단부(200)는 시간(t)에 대응하는 주변차량의 위치(p)와 속도(v)를 포함하는 정보 및 주변차량의 그리드 맵을 이용하여 주변차량의 의도(주행 의도)를 판단한다. 여기서, 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 의도 판단부(200)는 도 4에서 자세하게 설명한다.The
경로 예측부(300)는 의도 판단부(200)에서 판단된 의도에 따라 주변차량의 경로를 예측한다. 예를 들어, 경로 예측부(300)는 자전거 모델을 이용하여 판단된 의도에 따라 주변차량의 경로를 예측할 수 있다. 예를 들어, 판단된 의도에 따른 제 1 경로는 주변차량이 상대 위치를 유지하는 의도를 포함하고, 판단된 의도에 따른 제 2 경로는 주변차량이 상대 감속하는 의도를 포함하며, 판단된 의도에 따른 제 4 경로는 주변차량이 자차량 후방으로 이동하는 의도를 포함할 수 있으며, 판단된 의도에 따른 다양한 경로가 설정될 수 있고, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서, 이에 한정되지 않는다.The
여기서, 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 경로 예측부(300)는 도 5에서 자세하게 설명한다.Here, the
맵 생성부(400)는 예측된 주변차량의 경로를 그리드 맵(예를 들어, 2차원의 그리드 맵)으로 생성한다.The
맵 생성부(400)는 예측된 주변차량의 경로를 기준시간(t)을 기준으로 t+1, t+2, t+3, t+4 등을 포함하는 일정시간에 따라 그리드 맵 내 주변차량들의 위치(변위)를 변동시켜 나타낼 수 있으며, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서, 이에 한정되지 않는다. The
예를 들어, 맵 생성부(400)는 주변차량 중 분류된 제 1 주변차량(11, 제 1 타겟 차량)의 예측경로, 제 2 주변차량(12, 제 2 타겟 차량))의 예측경로, 제 3 주변차량(13, 제 3 타겟 차량))의 예측경로 및 제 4 주변차량(14, 제 4 타겟 차량))의 예측경로를 이용하여 그리드 맵으로 표현된 상세 경로를 생성할 수 있다. 여기서, 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 맵 생성부(400)는 도 6에서 자세하게 설명한다.For example, the
경로 생성부(500)는 맵 생성부(400)에서 생성된 그리드 맵을 이용하여 주변차량의 의도에 대응하는 자차량(1)의 최적의 경로를 생성한다. 여기서, 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 경로 생성부(500)는 도 7에서 자세하게 설명한다.The
도 2 및 3은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 차량 선정부를 설명하는 도면이다.2 and 3 are views for explaining a vehicle selecting unit of a vehicle path generating system according to an embodiment of the present invention.
차량 선정부(100)는 자차량(1)에 영향을 주는 자차량(1)과 인접한 주변차량을 선정한다. 예를 들어, 차량 선정부(100)는 일정시간 동안 주변차량을 관측한 후, 관측된 주변차량을 들로네 삼각분할(Delaunay Triangulization) 방법을 이용하여 자차량(1)과 연결된 주변차량을 선정할 수 있다. The
즉, 차량 선정부(100)는 들로네 삼각분할 방법을 이용하여 자차량(1)의 위치에서 주변차량의 위치를 판단할 수 있다.That is, the
예를 들어, 차량 선정부(100)는 임의의 차선으로 주행하는 자차량(1)에 구비된 스테레오 카메라에 의해 촬영된 영상으로부터 주변차량의 위치를 추정할 수 있다. 차량 선정부(100)는 들로네 삼각분할 방법을 이용하여 주변차량의 위치 추정을 위해, 스테레오 카메라로 촬영된 제 1 영상프레임 및 제 2 영상프레임 각각으로부터 특징점을 추출하고, 제 1 영상프레임의 특징점에 대응하는 제 2 영상프레임의 특징점을 정합할 수 있다.For example, the
차량 선정부(100)는 특징점 정합 후 각각 제 1 영상프레임 및 제 2 영상프레임으로부터 특징점의 이차원 좌표 즉, x좌표 및 y좌표를 산출하고, 들로네 삼각분할 방법을 이용하여 자차량에(1) 구비된 스테레오 카메라에서 특징점까지의 거리를 산출하여 산출된 거리를 깊이(depth)값 즉, z좌표로 산출하여 삼차원 좌표를 산출할 수 있다. The
차량 선정부(100)는 삼차원 좌표 산출 후, 이전 삼차원 영상프레임의 삼차원 좌표 및 현재 삼차원 영상 프레임의 삼차원 좌표를 통해 실제 공간의 변환량을 의미하는 모션 벡터를 연산하고, 모션 벡터의 이동 방향을 파라미터로 하는 특징 공간(feature space) 상에서 공간 상관도를 기초로 벡터를 그룹화하여 하나 이상의 모션 클러스터를 구성할 수 있다. 이후 차량 선정부(100)는 구성된 각 모션 클러스터에 대해 아웃라이어(outlier)를 제거함으로써 노이즈가 제거된 하나 이상의 모션 클러스터를 구성한다. 차량 선정부(100)는 주변차량이 일정한 속도로 주행한다는 가정 하에 각 모션 클러스터에 대해 연산된 상대적인 카메라의 위치를 추적함으로써 주변차량의 위치를 추정할 수 있는데, 이전 영상 프레임의 삼차원 좌표 및 현재 형상 프레임의 삼차원 좌표의 변화량으로 삼차원 좌표축에 대한 직선운동을 나타내는 병진 정보 및 삼차원 좌표축 주위의 회전운동을 나타내는 회전 정보를 산출하고 이를 주변차량의 위치로 추정할 수 있다.After calculating the three-dimensional coordinate, the
도 2의 (a)를 참조하면, 차량 선정부(100)는 자차량(1)의 전방에 1대의 주변차량을 선정하고, 후방에 1대의 주변차량을 선정하며, 전측방에 2대의 주변차량을 선정하고, 후측방에 2대의 주변차량을 선정할 수 있다.2 (a), the
도 2의 (b)를 참조하면, 차량 선정부(100)는 자차량(1)의 전방에 1대의 주변차량을 선정하고, 후방에 1대의 주변차량을 선정하며, 좌측방에 1대의 주변차량을 선정하고, 우측방에 1대의 주변차량을 선정하며, 전측방에 2대의 주변차량을 선정하고, 후측방에 2대의 주변차량을 선정할 수 있다.2 (b), the
도 3의 (a), (b) 및 (c)를 참조하면, 차량 선정부(100)는 들로네 삼각분할 방법에서 자차량(1)과 주변차량 간의 실선, 굵은 점선 또는 얇은 점선을 포함하는 표시 기호를 이용하여 자차량(1)과 주변차량 간의 연결 관계를 나타낼 수 있다. 여기서, 실선은 자차량(1)과 주변차량의 연결된 선이고, 굵은 점선은 자차량(1)과 연결된 점들간의 선이며, 얇은 점선은 자차량(1)과 연결되지 않은 주변차량과 연결된 점들을 포함한 선이다.3 (a), 3 (b), and 3 (c), the
도 4는 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 의도 판단부를 설명하는 도면이다.4 is a view for explaining an intention determining unit of a vehicle path generating system according to an embodiment of the present invention.
도 4를 참조하면, 의도 판단부(200)는 하기 수학식과 같이 시간(t)에 대응하는 주변차량(11, 12, 13, 14)의 위치(p)와 속도(v)를 포함하는 정보 및 주변차량(또는 주변 물체(object))의 그리드 맵을 이용하여 주변차량의 의도(주행 의도)를 판단한다. 여기서, 주변차량의 의도를 판단하는 방법은 딥러닝(Deep Learning) 방법 또는 기계학습(Machine Learning) 방법을 이용하여 주변차량의 의도를 판단할 수 있다. 예를 들어, 딥러닝 방법 또는 기계학습 방법은 다수의 비선형 변환기법의 조합을 통해 높은 수준의 주변차량의 의도를 판단하는 기계학습 알고리즘의 집합이며, 사람 또는 운전자의 사고방식을 컴퓨터에게 학습시킬 수 있는 기계학습 기술을 포함할 수 있다.Referring to FIG. 4, the
예를 들어, 주변차량의 위치(p)와 속도(v)를 포함하는 정보는 주변차량의 횡방향 위치, 종방향 위치, 횡방향 속도 및 종방향 속도를 포함할 수 있으며, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서, 이에 한정되지 않는다.For example, the information including the position p and the velocity v of the nearby vehicle may include the lateral position, the longitudinal position, the lateral velocity and the longitudinal velocity of the surrounding vehicle, The present invention is not limited thereto.
[수학식][Mathematical Expression]
여기서 i는 i 번째 주변차량(타겟차량)이고, 차량 선정부(100)에 의해 선정된 차량이며, N은 시간(t)에 따른 주변차량 또는 물체(object)의 이동 단계(스텝)이고, xit는 i 번째 주변차량 또는 물체(object)의 시간(t)에서의 위치이며, xit 벡터는 주변차량 또는 물체(object)의 횡방향 위치(Px,t i), 종방향 위치(Py,t i), 횡방향 속도(Vx,t i) 및 종방향 속도(Vy,t i)로 나타낼 수 있다.Here, i is an i-th peripheral vehicle (target vehicle), a vehicle selected by the
예를 들어, 의도 판단부(200)는 N이 6인 경우, 주변차량의 5번째 이동 단계(N-1)부터 현재의 주변차량의 이동 단계까지의 횡방향 위치, 종방향 위치, 횡방향 속도 및 종방향 속도를 주변차량으로부터 입력 받는 동시에 주변차량의 그리드맵을 이용하여 세부적인 주변차량의 의도를 판단할 수 있다.For example, when N is 6, the
예를 들어, 의도 판단부(200)는 N이 6인 경우, xi는 N(예를 들어, N이 6인 경우)과 주변차량의 위치 및 속도를 포함하는 정보(예를 들어, 주변차량의 횡방향 위치, 종방향 위치, 횡방향 속도 및 종방향 속도를 포함하는 값)를 곱하여 총 24개의 벡터값을 구할 수 있다.For example, if the intention of the
의도 판단부(200)는 하기 표 1과 같이, 시간(t)에 대응하는 주변차량의 위치(p)와 속도(v)를 포함하는 정보 및 주변차량의 그리드 맵을 이용하여 주변차량의 의도를 판단할 수 있다. 여기서, 주변차량의 위치(p)와 속도(v)를 포함하는 정보 및 주변차량의 그리드 맵에 관한 정보는 자차량(1)과 주변차량 간의 통신(예를 들어, V2V 통신)을 통해 송수신될 수 있다.The
[표 1][Table 1]
예를 들어, 의도 판단부(200)는 판단된 주변차량의 의도에 대응하는 판별부를 통해 세부적인 의도의 종류(예를 들어, 상기 표 1의 7개의 의도의 종류)를 분류할 수 있고, 분류된 세부적인 의도의 종류에 따른 평가값을 연산하며, 세부적인 의도의 종류 중에 일부를 선택할 수 있다.For example, the
예를 들어, 판별부는 순환(재귀) 신경망(Recursive Neural Networks, RNN) 또는 은닉 마르코브 모델(Hidden Markov Model, HMM)을 이용하여 세부적인 의도의 종류를 분류할 수 있다. 세부적인 의도의 종류에 관한 데이터는 개발자에 의해 마킹될 수 있고, 기계학습 방법(기계학습 분류방법)을 이용하여 자동으로 생성될 수 있다. 예를 들어, 순환 신경망(RNN)은 입력값으로 주어지는 몇 개 단어를 묶어서 분석한 후, 분석된 단어를 이용하여 세부적인 의도의 종류를 분류할 수 있으며, 순환 신경망(Recursive Neural Network) 또는 은닉 마르코브 모델(Hidden Markov Model, HMM)은 일반적인 기술이므로 자세한 설명은 생략한다.For example, the discriminator can classify the types of detailed intentions using Recursive Neural Networks (RNN) or Hidden Markov Model (HMM). Data on the type of detailed intent can be marked by the developer and automatically generated using the machine learning method (machine learning classification method). For example, a circular neural network (RNN) can classify several words given as input values, classify the type of detailed intent using the analyzed words, and use a recursive neural network or a hidden Marco Since the Hidden Markov Model (HMM) is a general technique, a detailed description is omitted.
예를 들어, 판별부는 세부적인 의도의 종류에서 각각의 평가값을 연산하고, 연산된 평가값의 크기(평가값의 수치)를 나타낼 수 있다. 즉, 판별부는 평가값의 크기를 상기 표 1과 같이 막대 그래프의 형태로 나타낼 수 있으며, 평가값의 크기는 평가값의 전체의 합을 정규화하여 1이 될 수도 있고, 1 내지 10까지의 범위로 설정될 수 있으며, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서, 이에 한정되지 않는다.For example, the discriminator can calculate each evaluation value in the kind of detailed intention and indicate the magnitude of the calculated evaluation value (numerical value of evaluation value). That is, the discriminator can represent the magnitude of the evaluation value in the form of a bar graph as shown in Table 1. The magnitude of the evaluation value may be 1 by normalizing the total sum of the evaluation values, And it is to be understood that the present invention is not limited thereto.
의도 판단부(200)는 세부적인 의도의 종류를 주변차량이 상대 위치를 유지하는 의도, 주변차량이 상대 감속하는 의도, 주변차량이 상대 가속하는 의도, 자차량(1)의 후방으로 이동하는 의도, 자차량(1)의 전방으로 이동하는 의도, 자차량(1)의 좌측으로 추월하는 의도, 자차량(1)의 우측으로 추월하는 의도 등으로 분류할 수 있고, 세부적인 의도의 종류에 따라 평가값을 다르게 생성할 수 있다.The
의도 판단부(200)는 주변차량의 경로 예측을 위하여 선택할 수 있는 주변차량의 의도의 개수는 평균값(mean)과 분산값(variance 또는 변동값)에 따라 결정될 수 있다. 예를 들어, 평균값(mean)은 의도 판단부(200)에 의해 각각의 의도의 판단을 일정 횟수 반복하여 측정한 값들의 평균값이고, 분산값은 각각의 의도의 종류의 구성요소(표 1의 ① 내지 ⑦) 간에 평가값의 차이를 의미한다. The
예를 들어, 의도 판단부(200)는 의도 종류의 구성요소 간의 분산값의 차이가 크면(분산값이 높은 값이면), 평균값보다 높은 2개의 평가값을 선택할 수 있고, 의도 종류의 구성요소 간의 분산값의 차이가 작으면(분산값이 작은 값이면), 평균값보다 높은 3개의 평가값을 선택할 수 있으며, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서, 이에 한정되지 않는다.For example, the
예를 들어, 의도 종류의 각각의 평가값이 0.40, 0.30, 0.05, 0.03, 0.07, 0.05, 0.10인 경우에 분산값은 0.018이며, 의도 판단부(200)는 분산값이 높은 값이라고 판단하여 평균값(예를 들어, 0.148)보다 높은 2개의 평가값(2개의 의도의 종류)을 선택할 수 있다.For example, if each of the evaluation values of the intention type is 0.40, 0.30, 0.05, 0.03, 0.07, 0.05, and 0.10, the variance value is 0.018, and the
예를 들어, 의도 종류의 각각의 평가값이 0.23, 0.25, 0.05, 017, 0.07, 0.10, 0.13인 경우에 분산값은 0.005이며, 의도 판단부(200)는 분산값이 작은 값이라고 판단하여 3개의 평가값(3개의 의도의 종류)을 선택할 수 있다.For example, if each of the evaluation values of the intention type is 0.23, 0.25, 0.05, 017, 0.07, 0.10, and 0.13, the variance value is 0.005 and the
도 5는 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 경로 예측부를 설명하는 도면이다.5 is a view for explaining a path predictor of a vehicle path generating system according to an embodiment of the present invention.
도 5의 (a) 및 (b)를 참조하면, 경로 예측부(300)는 의도 판단부(200)에서 판단된 의도에 따라 주변차량(11, 12, 13, 14)의 경로를 예측한다. 예를 들어, 경로 예측부(300)는 자전거 모델(Bicycle Model)을 이용하여 판단된 의도에 따라 주변차량의 경로를 예측할 수 있다. 여기서, 자전거 모델을 이용하여 판단된 의도에 따라 주변차량의 경로를 예측하는 방법은 주변차량의 파라미터를 이용하는 동역학 모델을 이용한 것일 수 있으며, 자전거 모델은 주변차량의 횡방향 운동과 주변차량의 중심점을 통과하는 연직 축 둘레의 요(yaw) 운동을 이용하여 주변차량의 상세 경로를 생성할 수 있다.Referring to FIGS. 5A and 5B, the
예를 들어, 경로 예측부(300)는 의도 판단부(200)에서 판단된 의도의 종류 중 주변차량(12)이 상대 위치를 유지하는 의도를 포함하는 제 1 경로를 예측할 수 있고, 의도 판단부(200)에서 판단된 의도의 종류 중 주변차량(12)이 상대 감속하는 의도를 포함하는 제 2 경로를 예측할 수 있으며, 의도 판단부(200)에서 판단된 의도의 종류 중 주변차량(12)이 자차량(1)의 후방으로 이동하는 의도를 포함하는 제 4 경로를 예측할 수 있고, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서, 이에 한정되지 않는다.For example, the
도 6은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 맵 생성부를 설명하는 도면이다.6 is a view for explaining a map generation unit of a route generation system of a vehicle according to an embodiment of the present invention.
도 6의 (a), (b) 및 (c)를 참조하면, 맵 생성부(400)는 주변차량의 예측된 경로를 이용하여 그리드 맵(grid map)을 생성한다. 여기서, 그리드 맵은 2차원의 그리드 맵일 수 있다.Referring to FIGS. 6A, 6B, and 6C, the
도 6의 (a)를 참조하면, 맵 생성부(400)는 주변차량의 예측된 경로를 생성할 수 있다.Referring to FIG. 6A, the
예를 들어, 제 1 주변차량(11)의 예측된 제 1 경로는 제 1 주변차량(11)이 상대 위치를 유지하는 의도를 포함하고, 제 1 주변차량(11)의 제 2 경로는 제 1 주변차량(11)이 상대 감속하는 의도를 포함하며, 제 1 주변차량(11)의 제 5 경로는 제 1 주변차량(11)이 자차량(1)의 전방으로 이동하는 의도를 포함할 수 있다.For example, the predicted first path of the first
예를 들어, 제 2 주변차량(12)의 예측된 제 1 경로는 제 2 주변차량(12)이 상대 위치를 유지하는 의도를 포함하고, 제 2 주변차량(12)의 제 2 경로는 제 2 주변차량(12)이 상대 감속하는 의도를 포함하며, 제 2 주변차량(12)의 제 4 경로는 제 2 주변차량(12)이 자차량(1)의 후방으로 이동하는 의도를 포함할 수 있다.For example, the predicted first path of the second
예를 들어, 제 3 주변차량(13)의 예측된 제 1 경로는 제 3 주변차량(13)이 상대 위치를 유지하는 의도를 포함하고, 제 3 주변차량(13)의 제 2 경로는 제 3 주변차량(13)이 상대 감속하는 의도를 포함하며, 제 3 주변차량(13)의 제 6 경로는 제 3 주변차량(13)이 자차량(1)의 좌측으로 이동하여 추월하려는 의도를 포함할 수 있다.For example, the predicted first path of the third
예를 들어, 제 4 주변차량(14)의 예측된 제 1 경로는 제 4 주변차량(14)이 상대위치를 유지하는 의도를 포함하고, 제 4 주변차량(14)의 제 2 경로는 제 4 주변차량(14)이 상대 감속하는 의도를 포함할 수 있다.For example, the predicted first path of the fourth
도 6의 (b)를 참조하면, 맵 생성부(400)는 주변차량의 예측된 경로가 시간이 지남에 따라 주변차량들의 위치(변위)가 변동되는 것을 원형 또는 타원형의 분포도로 생성한 것이고, 이러한 원형 또는 타원형의 분포도는 2차원 가우시안 분포(가우시안 2sigma 분포)를 기준으로 하며, 이러한 2차원 가우시안 분포는 연속적인 확률분포로써, 2차원 데이터(예를 들어, x1, x2)를 이용하여 원형 또는 타원형의 확률을 갖는 위치값으로 표현될 수 있다.Referring to FIG. 6B, the
도 6의 (c)를 참조하면, 맵 생성부(400)는 원형 또는 타원형의 분포도(주변차량의 예측된 경로를 기준시간(t)을 기준으로 t+1, t+2, t+3, t+4 등을 포함하는 일정시간에 따라 변동되는 분포도)를 그리드 맵 내 균등한 공간에 생성할 수 있다. 여기서, 그리드 맵은 주변차량의 측정된 위치를 생성하기 위한 수평 및 수직 라인으로 구성된 균등한 공간을 가진 격자맵을 의미한다.Referring to FIG. 6C, the
예를 들어, 맵 생성부(400)는 기준시간(t)에서 t+1, t+2, t+3 및 t+4와 같이 일정시간이 경과함에 따라 생성된 주변차량의 예측된 경로의 범위를 넓게 변동시킬 수 있다. 예를 들어, 맵 생성부(400)는 동적으로 변화하는 회전속도로 360도 회전을 하면서 주변차량의 모든 경로에 대한 그리드 맵을 생성할 수 있다. 또한, 맵 생성부(400)는 동적으로 변화하는 회전속도를 통해 그리드 맵 상에서 그리드 포인트들이 일정한 간격으로 나타나도록 할 수 있으며, 맵 생성부(400)는 회전을 하면서 1차적으로 그리드 맵을 작성하고, 비선형 구간에 대해 다시 회전을 하면서 2차적으로 그리드 맵을 완성할 수 있다.For example, the
도 7은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템의 경로 생성부에서 생성된 최종 경로를 설명하는 도면이다.7 is a view for explaining a final path generated by a path generating unit of a vehicle path generating system according to an embodiment of the present invention.
도 7을 참조하면, 경로 생성부(500)는 맵 생성부(400)에서 생성된 그리드 맵을 이용하여 주변차량(11, 12, 13, 14)의 예측된 경로에 대응하는 자차량(1)의 최적의 경로를 생성한다. 예를 들어, 경로 생성부(500)는 자차량(1)이 좌측으로 차선 변경 시 자차량(1)이 감속하는 동시에 직진이 가능한 경로(A)를 생성하거나, 자차량(1)이 우측으로 차선 변경 시 주변차량(14)의 접근 가능성이 있으므로 자차량(1)을 가속하는 동시에 직진이 가능한 경로(B)를 생성할 수 있다. 7, the
도 8은 본 발명의 일 실시예에 따른 차량의 경로 생성 시스템을 실행하는 컴퓨팅 시스템을 보여주는 도면이다.8 is a diagram illustrating a computing system that implements a path generation system for a vehicle in accordance with an embodiment of the present invention.
도 8을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.8, a
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Thus, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, in a software module executed by
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
10: 차량의 경로 생성 시스템
100: 차량 선정부
200: 의도 판단부
300: 경로 예측부
400: 맵 생성부
500: 경로 생성부
1000: 컴퓨팅 시스템
1100: 프로세서
1200: 시스템 버스
1300: 메모리
1310: ROM
1320: RAM
1400: 사용자 인터페이스 입력장치
1500: 사용자 인터페이스 출력장치
1600: 스토리지
1700: 네트워크 인터페이스10: Vehicle path generation system
100:
200: Intention judging unit
300: path prediction unit
400: map generating unit
500: path generating unit
1000: Computing System
1100: Processor
1200: System bus
1300: Memory
1310: ROM
1320: RAM
1400: User interface input device
1500: User interface output device
1600: Storage
1700: Network interface
Claims (20)
상기 주변차량의 위치와 속도가 구비된 정보를 이용하여 상기 주변차량의 의도를 판단하는 의도 판단부;
상기 판단된 주변차량의 의도에 따라 상기 주변차량의 경로를 예측하는 경로 예측부;
상기 주변차량의 예측된 경로를 이용하여 맵을 생성하는 맵 생성부; 및
상기 자차량의 경로를 생성하는 경로 생성부를 포함하는 것을 특징으로 하는 차량의 경로 생성 시스템.A vehicle selection unit for selecting a nearby vehicle adjacent to the vehicle;
An intention determining unit for determining an intention of the neighboring vehicle using information about the position and speed of the nearby vehicle;
A route predictor for predicting a route of the neighboring vehicle according to the determined intention of the neighboring vehicle;
A map generator for generating a map using the predicted path of the neighboring vehicle; And
And a route generating unit for generating a route of the own vehicle.
상기 차량 선정부는,
들로네 삼각분할 방법을 이용하여 상기 자차량과 연결된 주변차량을 선정하는 것을 특징으로 하는 차량의 경로 생성 시스템.The method according to claim 1,
The vehicle selection unit
And a neighboring vehicle connected to the child vehicle is selected by using the Trane triangulation method.
상기 의도 판단부는,
상기 주변차량의 횡방향 위치, 종방향 위치, 횡방향 속도 및 종방향 속도를 포함하는 주변차량의 위치와 속도가 구비된 정보를 이용하여 주변차량의 의도를 판단하는 것을 특징으로 하는 차량의 경로 생성 시스템. The method according to claim 1,
Wherein the intention determining unit includes:
Wherein the intention of the peripheral vehicle is determined by using the information including the position and speed of the peripheral vehicle including the lateral position, the longitudinal position, the lateral velocity and the longitudinal velocity of the peripheral vehicle. system.
상기 의도 판단부는,
딥러닝 방법 또는 기계학습 방법으로 생성된 판별부를 이용하여 상기 주변차량의 의도를 판단하는 것을 특징으로 하는 차량의 경로 생성 시스템.The method according to claim 1,
Wherein the intention determining unit includes:
Wherein the intention of the peripheral vehicle is determined using a discrimination unit generated by a deep learning method or a machine learning method.
상기 의도 판단부는,
상기 판단된 주변차량의 의도를 판별부를 이용하여 다수의 의도의 종류로 분류하는 것을 특징으로 하는 차량의 경로 생성 시스템.The method according to claim 1,
Wherein the intention determining unit includes:
And classifying the intention of the determined neighboring vehicle into a plurality of types of intent using the determination unit.
상기 판별부는,
다수의 의도의 종류에서 각각의 평가값을 연산하는 것을 특징으로 하는 차량의 경로 생성 시스템.The method of claim 5,
Wherein,
Wherein each evaluation value is calculated in a plurality of kinds of intentions.
상기 의도 판단부는,
상기 다수의 의도의 종류 간의 분산값의 차이에 따라 평가값을 선택하는 것을 특징으로 하는 차량의 경로 생성 시스템. The method of claim 6,
Wherein the intention determining unit includes:
And selects an evaluation value according to a difference of dispersion values among the types of intention.
상기 의도 판단부는,
상기 주변차량의 그리드 맵을 이용하여 상기 주변차량의 의도를 판단하는 것을 특징으로 하는 차량의 경로 생성 시스템.The method according to claim 1,
Wherein the intention determining unit includes:
And the intention of the neighboring vehicle is determined by using the grid map of the neighboring vehicle.
상기 맵 생성부는,
상기 주변차량의 예측된 경로를 시간의 경과에 따라 원형 또는 타원형의 분포도를 생성하고, 상기 원형 또는 타원형의 분포도를 이용하여 그리드 맵을 생성하는 것을 특징으로 하는 차량의 경로 생성 시스템.The method according to claim 1,
The map generation unit generates,
Wherein a circular or elliptical distribution map is generated in accordance with a passage of time of the predicted path of the surrounding vehicle and a grid map is generated using the circular or elliptical distribution map.
상기 맵 생성부는,
상기 시간의 경과에 따라 상기 주변차량의 예측된 경로의 범위를 넓게 변동시키는 것을 특징으로 하는 차량의 경로 생성 시스템.The method of claim 9,
The map generation unit generates,
And the range of the predicted path of the neighboring vehicle is widely varied according to the passage of time.
상기 경로 생성부는,
그리드 맵을 이용하여 상기 자차량의 경로를 생성하는 것을 특징으로 하는 차량의 경로 생성 시스템.The method according to claim 1,
The path-
And the path of the vehicle is generated using the grid map.
상기 주변차량의 위치와 속도가 구비된 정보를 이용하여 상기 주변차량의 의도를 판단하는 단계;
상기 판단된 주변차량의 의도에 따라 상기 주변차량의 경로를 예측하는 단계;
상기 주변차량의 예측된 경로를 이용하여 맵을 생성하는 단계; 및
상기 자차량의 경로를 생성하는 단계
를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법.Selecting a nearby vehicle adjacent to the subject vehicle;
Determining an intention of the neighboring vehicle using information about the position and speed of the nearby vehicle;
Predicting a route of the neighboring vehicle according to the determined intention of the neighboring vehicle;
Generating a map using the predicted path of the neighboring vehicle; And
Generating a path of the subject vehicle
Wherein the vehicle is a vehicle.
상기 자차량과 인접한 주변차량을 선정하는 단계는,
들로네 삼각분할 방법을 이용하여 상기 자차량과 연결된 주변차량을 선정하는 단계를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법.The method of claim 12,
The step of selecting a nearby vehicle adjacent to the child vehicle includes:
And selecting a neighboring vehicle connected to the child vehicle using an Oranone triangulation method.
상기 주변차량의 의도를 판단하는 단계는,
상기 주변차량의 횡방향 위치, 종방향 위치, 횡방향 속도 및 종방향 속도를 포함하는 주변차량의 위치와 속도가 구비된 정보를 이용하여 주변차량의 의도를 판단하는 단계를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법.The method of claim 12,
Wherein the step of determining the intention of the neighboring vehicle comprises:
Determining the intent of the neighboring vehicle based on information of the position and speed of the neighboring vehicle including the lateral position, the longitudinal position, the lateral velocity, and the longitudinal velocity of the neighboring vehicle A method of generating a path of a vehicle.
상기 주변차량의 의도를 판단하는 단계는,
딥러닝 방법 또는 기계학습 방법으로 생성된 판별부를 이용하여 상기 주변차량의 의도를 판단하는 단계를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법.The method of claim 12,
Wherein the step of determining the intention of the neighboring vehicle comprises:
And determining the intention of the neighboring vehicle by using a discrimination unit generated by a deep learning method or a machine learning method.
상기 주변차량의 의도를 판단하는 단계는,
상기 판단된 주변차량의 의도를 판별부를 이용하여 다수의 의도의 종류로 분류하는 단계를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법.The method of claim 12,
Wherein the step of determining the intention of the neighboring vehicle comprises:
And classifying the determined intention of the neighboring vehicle into a plurality of types of intent using the discriminator.
상기 주변차량의 의도를 판단하는 단계는,
상기 다수의 의도의 종류에서 각각의 평가값을 연산하는 단계를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법.18. The method of claim 16,
Wherein the step of determining the intention of the neighboring vehicle comprises:
And calculating each evaluation value in the kind of the plurality of intentions.
상기 주변차량의 의도를 판단하는 단계는,
상기 다수의 의도의 종류 간의 분산값의 차이에 따라 평가값을 선택하는 단계를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법. 18. The method of claim 17,
Wherein the step of determining the intention of the neighboring vehicle comprises:
And selecting an evaluation value according to a difference of variance values among the types of the intention.
상기 주변차량의 예측된 경로를 이용하여 그리드 맵을 생성하는 단계는,
상기 주변차량의 예측된 경로를 시간의 경과에 따라 원형 또는 타원형의 분포도를 생성하는 단계; 및
상기 원형 또는 타원형의 분포도를 이용하여 그리드 맵을 생성하는 단계를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법.The method of claim 12,
Wherein the generating the grid map using the predicted path of the neighboring vehicle comprises:
Generating a circular or elliptical distribution map of the predicted path of the neighboring vehicle over time; And
And generating a grid map using the circular or elliptical distribution map.
상기 주변차량의 예측된 경로를 이용하여 그리드 맵을 생성하는 단계는,
상기 시간의 경과에 따라 상기 주변차량의 예측된 경로의 범위를 넓게 변동시키는 단계를 포함하는 것을 특징으로 하는 차량의 경로 생성 방법.The method of claim 19,
Wherein the generating the grid map using the predicted path of the neighboring vehicle comprises:
And varying a range of a predicted path of the neighboring vehicle widely as the time elapses.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170174288A KR102463720B1 (en) | 2017-12-18 | 2017-12-18 | System and Method for creating driving route of vehicle |
US15/996,858 US11209284B2 (en) | 2017-12-18 | 2018-06-04 | System and method for creating driving route of vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170174288A KR102463720B1 (en) | 2017-12-18 | 2017-12-18 | System and Method for creating driving route of vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190073038A true KR20190073038A (en) | 2019-06-26 |
KR102463720B1 KR102463720B1 (en) | 2022-11-07 |
Family
ID=66815872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170174288A KR102463720B1 (en) | 2017-12-18 | 2017-12-18 | System and Method for creating driving route of vehicle |
Country Status (2)
Country | Link |
---|---|
US (1) | US11209284B2 (en) |
KR (1) | KR102463720B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021127507A1 (en) * | 2019-12-20 | 2021-06-24 | Waymo Llc | Vehicle intent prediction neural network |
KR20210106049A (en) * | 2020-02-19 | 2021-08-30 | 재단법인대구경북과학기술원 | Apparatus and method for setting driving route |
KR20220029267A (en) * | 2020-08-28 | 2022-03-08 | 모셔널 에이디 엘엘씨 | Trajectory planning of vehicles using route information |
KR20230014008A (en) * | 2021-07-20 | 2023-01-27 | 한양대학교 산학협력단 | Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6673293B2 (en) * | 2017-05-24 | 2020-03-25 | トヨタ自動車株式会社 | Vehicle system |
CN109429507A (en) * | 2017-06-19 | 2019-03-05 | 北京嘀嘀无限科技发展有限公司 | System and method for showing vehicle movement on map |
US11077756B2 (en) * | 2017-11-23 | 2021-08-03 | Intel Corporation | Area occupancy determining device |
JP7284576B2 (en) * | 2018-12-19 | 2023-05-31 | 株式会社Subaru | Action prediction system |
US11718300B2 (en) * | 2019-02-27 | 2023-08-08 | Zf Automotive Germany Gmbh | Method and control unit for a system for controlling a motor vehicle |
JP6913716B2 (en) * | 2019-07-17 | 2021-08-04 | 本田技研工業株式会社 | Vehicle control devices, vehicle control methods, and programs |
CN110775056B (en) * | 2019-11-25 | 2021-10-15 | 苏州智加科技有限公司 | Vehicle driving method, device, terminal and medium based on radar detection |
CN111006681B (en) * | 2019-12-25 | 2023-06-30 | 星觅(上海)科技有限公司 | Auxiliary navigation method, device, equipment and medium |
CN111209838B (en) * | 2019-12-31 | 2022-11-18 | 清华大学 | Driving intention-based dynamic identification method for lane change behavior of vehicles |
CN111735467A (en) * | 2020-05-09 | 2020-10-02 | 苏州工业园区职业技术学院 | Intelligent driving automobile motion planning system |
CN111754816B (en) * | 2020-06-04 | 2023-04-28 | 纵目科技(上海)股份有限公司 | Device, method, system, terminal and medium for identifying intention of mobile object |
CN114360289A (en) * | 2020-09-30 | 2022-04-15 | 奥迪股份公司 | Assistance system for a vehicle, corresponding method, vehicle and storage medium |
CN113581206A (en) * | 2021-08-03 | 2021-11-02 | 信通院车联网创新中心(成都)有限公司 | Preceding vehicle intention recognition system and recognition method based on V2V |
CN113788015B (en) * | 2021-08-04 | 2023-04-18 | 杭州飞步科技有限公司 | Method, device and equipment for determining vehicle track and storage medium |
CN114291116B (en) * | 2022-01-24 | 2023-05-16 | 广州小鹏自动驾驶科技有限公司 | Surrounding vehicle track prediction method and device, vehicle and storage medium |
CN114889610B (en) * | 2022-05-20 | 2024-06-14 | 重庆长安汽车股份有限公司 | Method and system for predicting lane change time of target vehicle based on cyclic neural network |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221667A (en) * | 2010-04-06 | 2011-11-04 | Toyota Motor Corp | Object risk prediction device |
JP2016045636A (en) * | 2014-08-21 | 2016-04-04 | 日産自動車株式会社 | Moving object route prediction device |
US20160313133A1 (en) * | 2015-04-27 | 2016-10-27 | GM Global Technology Operations LLC | Reactive path planning for autonomous driving |
JP2017004106A (en) * | 2015-06-05 | 2017-01-05 | トヨタ自動車株式会社 | Vehicular collision prevention support apparatus |
JP2017083919A (en) * | 2015-10-22 | 2017-05-18 | 株式会社東芝 | Device, method, and program for obstacle map generation |
KR20170070395A (en) | 2015-12-14 | 2017-06-22 | 현대모비스 주식회사 | System and method for recognizing surrounding vehicle |
US20170210378A1 (en) * | 2016-01-22 | 2017-07-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Surrounding vehicle classification and path prediction |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3843502B2 (en) * | 1996-09-30 | 2006-11-08 | マツダ株式会社 | Vehicle motion recognition device |
AU2001291299A1 (en) * | 2000-09-08 | 2002-03-22 | Raytheon Company | Path prediction system and method |
US7289019B1 (en) * | 2004-05-13 | 2007-10-30 | Jon Kertes | Vehicle avoidance collision system |
JP4400418B2 (en) * | 2004-10-29 | 2010-01-20 | 日産自動車株式会社 | Inter-vehicle distance control device, inter-vehicle distance control method, driving operation support device, and driving operation support method |
DE102006047634A1 (en) * | 2006-10-09 | 2008-04-10 | Robert Bosch Gmbh | Method for detecting an environment of a vehicle |
JP4416020B2 (en) * | 2007-08-03 | 2010-02-17 | トヨタ自動車株式会社 | Travel plan generator |
EP2081155B1 (en) * | 2008-01-21 | 2011-11-16 | Telefonaktiebolaget LM Ericsson (publ) | Prediction-based image processing |
JP4780168B2 (en) * | 2008-09-29 | 2011-09-28 | 日本ビクター株式会社 | Angular velocity sensor correction apparatus and angular velocity sensor correction method |
JP4853525B2 (en) * | 2009-02-09 | 2012-01-11 | トヨタ自動車株式会社 | Moving region prediction device |
JP4890577B2 (en) * | 2009-03-05 | 2012-03-07 | 本田技研工業株式会社 | Vehicle object detection device |
US20150246654A1 (en) * | 2012-01-13 | 2015-09-03 | Pulse Function F6 Ltd | Telematics system with 3d intertial sensors |
US10347127B2 (en) * | 2013-02-21 | 2019-07-09 | Waymo Llc | Driving mode adjustment |
JP5796597B2 (en) * | 2013-04-26 | 2015-10-21 | 株式会社デンソー | Vehicle determination method and vehicle determination device |
CN105683015B (en) * | 2013-09-05 | 2018-06-08 | 罗伯特·博世有限公司 | Enhancing lane departur warning based on the data from rear radar sensor |
US9199668B2 (en) * | 2013-10-28 | 2015-12-01 | GM Global Technology Operations LLC | Path planning for evasive steering maneuver employing a virtual potential field technique |
DE102014205014A1 (en) * | 2014-03-18 | 2015-09-24 | Ford Global Technologies, Llc | Method and device for detecting moving objects in the surroundings of a vehicle |
US9098753B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using multiple sensors |
US10345442B2 (en) * | 2014-05-27 | 2019-07-09 | Honda Motor Co., Ltd. | Collision possibility determination device |
US9766625B2 (en) * | 2014-07-25 | 2017-09-19 | Here Global B.V. | Personalized driving of autonomously driven vehicles |
RU2660158C1 (en) * | 2014-08-11 | 2018-07-05 | Ниссан Мотор Ко., Лтд. | Device and method of traffic control |
JP6486640B2 (en) * | 2014-10-09 | 2019-03-20 | 株式会社日立製作所 | Driving characteristic diagnostic device, driving characteristic diagnostic system, driving characteristic diagnostic method, information output device, information output method |
KR101610544B1 (en) * | 2014-11-21 | 2016-04-07 | 현대자동차주식회사 | System and method for autonomous driving of vehicle |
US10002531B2 (en) * | 2014-12-10 | 2018-06-19 | Here Global B.V. | Method and apparatus for predicting driving behavior |
EP3236206B1 (en) * | 2014-12-16 | 2019-06-05 | JVC KENWOOD Corporation | Direction estimation device and direction estimation method |
EP3272610B1 (en) * | 2015-04-21 | 2019-07-17 | Panasonic Intellectual Property Management Co., Ltd. | Information processing system, information processing method, and program |
JP6507862B2 (en) * | 2015-06-02 | 2019-05-08 | トヨタ自動車株式会社 | Peripheral monitoring device and driving support device |
JP6555033B2 (en) * | 2015-09-11 | 2019-08-07 | 株式会社Jvcケンウッド | Angular velocity sensor correction apparatus and angular velocity sensor correction method |
JP2017117344A (en) * | 2015-12-25 | 2017-06-29 | 株式会社デンソー | Travel support device |
JP6288590B2 (en) * | 2016-03-15 | 2018-03-07 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and vehicle control program |
US10435019B2 (en) * | 2016-03-24 | 2019-10-08 | Nissan Motor Co., Ltd. | Course prediction method and course prediction device |
DE102016205761A1 (en) * | 2016-04-07 | 2017-10-12 | Robert Bosch Gmbh | Method for operating a vehicle |
DE102016206067A1 (en) * | 2016-04-12 | 2017-10-12 | Bayerische Motoren Werke Aktiengesellschaft | A method, system and vehicle comprising the system for automatically triggering a vehicle function of a vehicle |
EP3521594B1 (en) * | 2016-09-28 | 2023-04-12 | Hitachi Astemo, Ltd. | Vehicle control device |
EP3828657A1 (en) * | 2016-12-23 | 2021-06-02 | Mobileye Vision Technologies Ltd. | Navigational system |
US11262761B2 (en) * | 2017-02-03 | 2022-03-01 | Honda Motor Co., Ltd. | Vehicle control system, vehicle control method, and vehicle control program |
WO2018147207A1 (en) * | 2017-02-13 | 2018-08-16 | 日立オートモティブシステムズ株式会社 | Vehicle travel control device, and vehicle travel control system |
JP2018135069A (en) * | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | Information processing system, information processing method, and program |
WO2018158875A1 (en) * | 2017-03-01 | 2018-09-07 | 本田技研工業株式会社 | Vehicle control system, vehicle control method, and vehicle control program |
JP6811303B2 (en) * | 2017-03-01 | 2021-01-13 | 本田技研工業株式会社 | Vehicle control devices, vehicle control methods, and programs |
EP4357869A3 (en) * | 2017-03-20 | 2024-06-12 | Mobileye Vision Technologies Ltd. | Trajectory selection for an autonomous vehicle |
US10324469B2 (en) * | 2017-03-28 | 2019-06-18 | Mitsubishi Electric Research Laboratories, Inc. | System and method for controlling motion of vehicle in shared environment |
US10994729B2 (en) * | 2017-03-29 | 2021-05-04 | Mitsubishi Electric Research Laboratories, Inc. | System and method for controlling lateral motion of vehicle |
US10108867B1 (en) * | 2017-04-25 | 2018-10-23 | Uber Technologies, Inc. | Image-based pedestrian detection |
JP6904849B2 (en) * | 2017-08-14 | 2021-07-21 | 本田技研工業株式会社 | Vehicle control devices, vehicle control methods, and programs. |
JP6937218B2 (en) * | 2017-10-19 | 2021-09-22 | 株式会社東芝 | Information processing equipment, information processing methods, and programs |
US10864819B2 (en) * | 2017-10-31 | 2020-12-15 | Speedgauge, Inc. | Driver alertness warning system and method |
JP6926957B2 (en) * | 2017-11-02 | 2021-08-25 | トヨタ自動車株式会社 | Lane change support device |
US20190164296A1 (en) * | 2017-11-27 | 2019-05-30 | Qualcomm Incorporated | Systems and methods for determining a confidence measure for a motion vector |
US10551199B2 (en) * | 2017-12-29 | 2020-02-04 | Lyft, Inc. | Utilizing artificial neural networks to evaluate routes based on generated route tiles |
WO2019136479A1 (en) * | 2018-01-08 | 2019-07-11 | The Regents On The University Of California | Surround vehicle tracking and motion prediction |
US11636375B2 (en) * | 2018-02-27 | 2023-04-25 | Toyota Research Institute, Inc. | Adversarial learning of driving behavior |
US10404261B1 (en) * | 2018-06-01 | 2019-09-03 | Yekutiel Josefsberg | Radar target detection system for autonomous vehicles with ultra low phase noise frequency synthesizer |
WO2020113187A1 (en) * | 2018-11-30 | 2020-06-04 | Sanjay Rao | Motion and object predictability system for autonomous vehicles |
US12005906B2 (en) * | 2019-10-15 | 2024-06-11 | Waymo Llc | Using driver assistance to detect and address aberrant driver behavior |
-
2017
- 2017-12-18 KR KR1020170174288A patent/KR102463720B1/en active IP Right Grant
-
2018
- 2018-06-04 US US15/996,858 patent/US11209284B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221667A (en) * | 2010-04-06 | 2011-11-04 | Toyota Motor Corp | Object risk prediction device |
JP2016045636A (en) * | 2014-08-21 | 2016-04-04 | 日産自動車株式会社 | Moving object route prediction device |
US20160313133A1 (en) * | 2015-04-27 | 2016-10-27 | GM Global Technology Operations LLC | Reactive path planning for autonomous driving |
JP2017004106A (en) * | 2015-06-05 | 2017-01-05 | トヨタ自動車株式会社 | Vehicular collision prevention support apparatus |
JP2017083919A (en) * | 2015-10-22 | 2017-05-18 | 株式会社東芝 | Device, method, and program for obstacle map generation |
KR20170070395A (en) | 2015-12-14 | 2017-06-22 | 현대모비스 주식회사 | System and method for recognizing surrounding vehicle |
US20170210378A1 (en) * | 2016-01-22 | 2017-07-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Surrounding vehicle classification and path prediction |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021127507A1 (en) * | 2019-12-20 | 2021-06-24 | Waymo Llc | Vehicle intent prediction neural network |
US11480963B2 (en) | 2019-12-20 | 2022-10-25 | Waymo Llc | Vehicle intent prediction neural network |
KR20210106049A (en) * | 2020-02-19 | 2021-08-30 | 재단법인대구경북과학기술원 | Apparatus and method for setting driving route |
KR20220029267A (en) * | 2020-08-28 | 2022-03-08 | 모셔널 에이디 엘엘씨 | Trajectory planning of vehicles using route information |
US11945472B2 (en) | 2020-08-28 | 2024-04-02 | Motional Ad Llc | Trajectory planning of vehicles using route information |
KR20230014008A (en) * | 2021-07-20 | 2023-01-27 | 한양대학교 산학협력단 | Method and apparatus for determining the possibility of collision of a driving vehicle using an artificial neural network |
Also Published As
Publication number | Publication date |
---|---|
KR102463720B1 (en) | 2022-11-07 |
US20190186940A1 (en) | 2019-06-20 |
US11209284B2 (en) | 2021-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102463720B1 (en) | System and Method for creating driving route of vehicle | |
US11816852B2 (en) | Associating LIDAR data and image data | |
CN107703948B (en) | Mobile robot local dynamic path planning method based on self-adaptive dynamic window | |
US11740352B2 (en) | Obstacle recognition device, vehicle system including the same, and method thereof | |
US11250288B2 (en) | Information processing apparatus and information processing method using correlation between attributes | |
US8260539B2 (en) | Object and vehicle detection and tracking using 3-D laser rangefinder | |
Dubé et al. | Detection of parked vehicles from a radar based occupancy grid | |
CN105460009B (en) | Automobile control method and device | |
CN112230193A (en) | Radar data processing apparatus and local stroke resolution adjustment method | |
KR102374211B1 (en) | Object recognition method and object recognition device performing the same | |
CN114080629A (en) | Object detection in point clouds | |
Satzoda et al. | On enhancing lane estimation using contextual cues | |
Sakic et al. | Camera-LIDAR object detection and distance estimation with application in collision avoidance system | |
Tabibiazar et al. | Kernel-based optimization for traffic density estimation in ITS | |
JP2013069045A (en) | Image recognition device, image recognition method, and image recognition program | |
Lim et al. | Gaussian process auto regression for vehicle center coordinates trajectory prediction | |
KR20180058606A (en) | Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device | |
JP2017116445A (en) | Object detection device | |
WO2022215409A1 (en) | Object tracking device | |
KR102305673B1 (en) | Method for predicting lane chage intention and route of surrounding vehicles using camera and v2v | |
Richter et al. | Advanced occupancy grid techniques for lidar based object detection and tracking | |
Kumar et al. | Entangled bimodal vision in vehicles for decision during risk situation | |
Nguyen et al. | Optimized grid-based environment perception in advanced driver assistance systems | |
US20220415054A1 (en) | Learning device, traffic event prediction system, and learning method | |
US11953590B1 (en) | Radar multipath detection based on changing virtual arrays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |