KR20210005395A - 자율주행차량의 유턴 전략 결정 장치 및 그 방법 - Google Patents

자율주행차량의 유턴 전략 결정 장치 및 그 방법 Download PDF

Info

Publication number
KR20210005395A
KR20210005395A KR1020190080541A KR20190080541A KR20210005395A KR 20210005395 A KR20210005395 A KR 20210005395A KR 1020190080541 A KR1020190080541 A KR 1020190080541A KR 20190080541 A KR20190080541 A KR 20190080541A KR 20210005395 A KR20210005395 A KR 20210005395A
Authority
KR
South Korea
Prior art keywords
turn
autonomous vehicle
strategy
determining
data
Prior art date
Application number
KR1020190080541A
Other languages
English (en)
Inventor
오태동
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020190080541A priority Critical patent/KR20210005395A/ko
Priority to US16/595,626 priority patent/US11294386B2/en
Priority to DE102019216206.1A priority patent/DE102019216206A1/de
Publication of KR20210005395A publication Critical patent/KR20210005395A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/114Yaw movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0891Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
    • B60R2021/0032Position of passenger
    • B60R2021/0037Position of passenger standing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0088Adaptive recalibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

본 발명은 자율주행차량의 유턴 전략 결정 장치 및 그 방법에 관한 것으로, 자율주행차량의 유턴시 안전을 위해 고려되어야 할 다양한 상황정보들을 그룹별로 세분화하여 심층 학습을 수행하고, 이렇게 학습된 결과에 기초하여 자율주행차량의 유턴 전략을 결정함으로써, 자율주행차량의 유턴 과정에서 최적의 주행경로 생성을 가능하게 하는 자율주행차량의 유턴 전략 결정 장치 및 그 방법을 제공하고자 한다.
이를 위하여, 본 발명은 자율주행차량의 유턴 전략 결정 장치에 있어서, 자율주행차량의 유턴시 고려되어야 할 상황정보들을 그룹별로 세분화하여 상황별 유턴 전략을 학습하는 학습부; 및 상기 학습부에 의해 학습된 상황별 유턴 전략에 기초하여 상기 자율주행차량의 유턴 전략을 결정하는 제어부를 포함한다.

Description

자율주행차량의 유턴 전략 결정 장치 및 그 방법{APPARATUS FOR DETERMINING U-TURN STRATEGY OF AUTONOMOUS VEHICLE AND METHOD THEREOF}
본 발명은 심층 학습을 기반으로 자율주행차량의 유턴 전략을 결정하는 기술에 관한 것이다.
일반적으로, 심층 학습(Deep Learning or Deep Neural Network)은 기계 학습(Machine Learning)의 한 종류로서, 입력과 출력 사이에 여러 층의 인공 신경망(ANN, Artificial Neural Network)이 구성되어 있으며, 이러한 인공 신경망은 구조와 해결할 문제 및 목적 등에 따라 콘볼루션 신경망(CNN, Convolution Neural Network) 또는 순환 신경망(RNN, Recurrent Neural Network) 등을 포함할 수 있다.
심층 학습은 분류(classification), 회기(regression), 위치 인식(localization), 검출(detection), 분할(segmentation) 등 다양한 문제를 해결하기 위해 사용된다. 특히, 자율주행시스템에서는 동적, 정적 장애물의 위치와 종류를 판별할 수 있는 의미론적 분할(Semantic Segmentation)과 객체 검출(Object Detection)이 중요하게 사용된다.
의미론적 분할은 이미지 내에서 객체를 찾기 위해 픽셀 단위의 분류 예측을 수행하여 의미가 같은 픽셀 단위로 분할하는 것을 의미하며, 이를 통해 이미지 내에 어떤 객체가 있는지 확인할 수 있을 뿐만 아니라 동일한 의미(동일 객체)를 갖는 픽셀의 위치까지 정확하게 파악할 수 있다.
객체 검출은 이미지 내 객체의 종류를 분류 및 예측하고, 경계 상자(Bounding Box)를 회귀 예측하여 객체의 위치정보를 찾는 것을 의미하며, 이를 통해 단순 분류와는 다르게 이미지에 있는 객체의 종류가 무엇인지 뿐만 아니라 그 객체의 위치정보까지 파악할 수 있다.
이러한 심층 학습을 기반으로 자율주행차량의 유턴 전략을 결정하는 기술은 제안된 바 없다.
US 2018/0362035 A1
본 발명은 자율주행차량의 유턴시 안전을 위해 고려되어야 할 다양한 상황정보들을 그룹별로 세분화하여 심층 학습을 수행하고, 이렇게 학습된 결과에 기초하여 자율주행차량의 유턴 전략을 결정함으로써, 자율주행차량의 유턴 과정에서 최적의 주행경로 생성을 가능하게 하는 자율주행차량의 유턴 전략 결정 장치 및 그 방법을 제공하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 장치는, 자율주행차량의 유턴 전략 결정 장치에 있어서, 자율주행차량의 유턴시 고려되어야 할 상황정보들을 그룹별로 세분화하여 상황별 유턴 전략을 학습하는 학습부; 및 상기 학습부에 의해 학습된 상황별 유턴 전략에 기초하여 상기 자율주행차량의 유턴 전략을 결정하는 제어부를 포함할 수 있다.
이러한 본 발명의 장치는 상황별로 복수의 유턴 전략을 저장하는 저장부를 더 포함할 수 있다.
여기서, 상기 복수의 유턴 전략은 상기 학습 결과에 상응하는 스코어와 매칭되어 저장될 수 잇다. 이때, 상기 복수의 유턴 전략은 제1 반경으로 유턴하는 제1 유턴 전략과 제2 반경으로 유턴하는 제2 유턴 전략과 선행차량이 유턴한 후 이어서 유턴하는 제3 유턴 전략과 유턴중 잠시 정차 후 유턴을 재개하는 제4 유턴 전략과 유턴중 후진 후 유턴을 재개하는 제5 유턴 전략 중 적어도 두개 이상을 포함할 수 있다.
또한, 상기 제어부는 현재 상황에 상응하는 복수의 유턴 전략 중에서 스코어가 가장 높은 유턴 전략을 상기 자율주행차량의 유턴 전략으로 결정할 수 있다.
또한, 상기 제어부는 상기 자율주행차량의 유턴 과정에서 획득한 위험도에 기초하여 현재 상황에 상응하는 각 유턴 전략의 스코어를 조절할 수도 있다. 이때, 상기 위험도는 주변 장애물(차량, 물건 등)과의 충돌 경고 횟수일 수 있다.
이러한 본 발명의 장치는 현재 시점의 상황정보들에 대한 그룹별 데이터를 입력하는 입력부를 더 포함할 수 있다.
여기서, 상기 입력부는 자율주행차량의 유턴시에 전방에서 유턴하고 있는 선행차량과의 충돌을 방지하기 위한 제1 그룹 데이터를 추출하는 제1 데이터 추출부와, 자율주행차량의 유턴시에 주변차량과의 충돌을 방지하기 위한 제2 그룹 데이터를 추출하는 제2 데이터 추출부와, 자율주행차량 유턴시에 보행자와의 충돌을 방지하기 위한 제3 그룹 데이터를 추출하는 제3 데이터 추출부와, 자율주행차량 유턴시에 전방에 위치한 다양한 신호등의 점등상태를 제4 그룹 데이터로서 추출하는 제4 데이터 추출부와, 정적 객체의 분포에 따른 주행가능영역과 공사구간에 따른 주행가능영역 및 사고구간에 따른 주행가능영역을 제5 그룹 데이터로서 추출하는 제5 데이터 추출부와, 도로의 구조에 따른 주행가능영역을 제6 그룹 데이터로서 추출하는 제6 데이터 추출부와, 상기 제5 데이터 추출부에 의해 추출된 주행가능영역과 제6 데이터 추출부에 의해 추출된 주행가능영역의 중첩영역을 제7 그룹 데이터로서 추출하는 제7 데이터 추출부 중 적어도 하나 이상을 포함할 수 있다.
이때, 상기 제1 그룹 데이터는 신호등 점등상태, 요레이트, 시간에 따른 종가속도의 누적값 중 적어도 하나 이상을 포함하고, 상기 제2 그룹 데이터는 주변차량의 위치, 속도, 가속도, 요레이트, 진행방향 중 적어도 하나 이상을 포함하며, 상기 제3 그룹 데이터는 보행자의 위치, 속도, 진행방향, 주변의 정밀지도 중 적어도 하나 이상을 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 방법은, 자율주행차량의 유턴 전략 결정 방법에 있어서, 학습부가 자율주행차량의 유턴시 고려되어야 할 상황정보들을 그룹별로 세분화하여 상황별 유턴 전략을 학습하는 단계; 및 제어부가 상기 학습부에 의해 학습된 상황별 유턴 전략에 기초하여 상기 자율주행차량의 유턴 전략을 결정하는 단계를 포함할 수 있다.
이러한 본 발명의 방법은 저장부가 상황별로 복수의 유턴 전략을 저장하는 단계를 더 포함할 수 있다.
여기서, 상기 복수의 유턴 전략은 상기 학습 결과에 상응하는 스코어와 매칭되어 저장될 수 있다. 이때, 상기 복수의 유턴 전략은 제1 반경으로 유턴하는 제1 유턴 전략과 제2 반경으로 유턴하는 제2 유턴 전략과 선행차량이 유턴한 후 이어서 유턴하는 제3 유턴 전략과 유턴중 잠시 정차 후 유턴을 재개하는 제4 유턴 전략과 유턴중 후진 후 유턴을 재개하는 제5 유턴 전략 중 적어도 두개 이상을 포함할 수 있다.
또한, 상기 자율주행차량의 유턴 전략을 결정하는 단계는, 현재 상황에 상응하는 복수의 유턴 전략 중에서 스코어가 가장 높은 유턴 전략을 상기 자율주행차량의 유턴 전략으로 결정할 수 있다.
이러한 본 발명의 방법은 상기 제어부가 자율주행차량의 유턴 과정에서 획득한 위험도에 기초하여 현재 상황에 상응하는 각 유턴 전략의 스코어를 조절하는 단계를 더 포함할 수 있다. 이때, 상기 위험도는 충돌 경고 횟수일 수 있다.
이러한 본 발명의 방법은 입력부가 현재 시점의 상황정보들에 대한 그룹별 데이터를 입력하는 단계를 더 포함할 수 있다.
여기서, 상기 그룹별 데이터를 입력하는 단계는, 자율주행차량의 유턴시에 전방에서 유턴하고 있는 선행차량과의 충돌을 방지하기 위한 제1 그룹 데이터를 추출하는 단계; 자율주행차량의 유턴시에 주변차량과의 충돌을 방지하기 위한 제2 그룹 데이터를 추출하는 단계; 자율주행차량 유턴시에 보행자와의 충돌을 방지하기 위한 제3 그룹 데이터를 추출하는 단계; 자율주행차량 유턴시에 전방에 위치한 다양한 신호등의 점등상태를 제4 그룹 데이터로서 추출하는 단계; 정적 객체의 분포에 따른 주행가능영역과 공사구간에 따른 주행가능영역 및 사고구간에 따른 주행가능영역을 제5 그룹 데이터로서 추출하는 단계; 도로의 구조에 따른 주행가능영역을 제6 그룹 데이터로서 추출하는 단계; 및 상기 제5 그룹 데이터의 주행가능영역과 제6 그룹 데이터의 주행가능영역의 중첩영역을 제7 그룹 데이터로서 추출하는 단계를 포함할 수 있다.
이때, 상기 제1 그룹 데이터는 신호등 점등상태, 요레이트, 시간에 따른 종가속도의 누적값 중 적어도 하나 이상을 포함하고, 상기 제2 그룹 데이터는 주변차량의 위치, 속도, 가속도, 요레이트, 진행방향 중 적어도 하나 이상을 포함하며, 상기 제3 그룹 데이터는 보행자의 위치, 속도, 진행방향, 주변의 정밀지도 중 적어도 하나 이상을 포함할 수 있다.
본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치 및 그 방법은, 자율주행차량의 유턴시 안전을 위해 고려되어야 할 다양한 상황정보들을 그룹별로 세분화하여 심층 학습을 수행하고, 이렇게 학습된 결과에 기초하여 자율주행차량의 유턴 전략을 결정함으로써, 자율주행차량의 유턴 과정에서 최적의 주행경로 생성을 가능하게 하는 것은 물론 자율주행차량의 유턴 과정에서 발생할 수 있는 사고를 획기적으로 감소시킬 수 있다.
도 1 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치의 구성도,
도 2a 내지 도 2e는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치가 상황별로 학습하는 유턴 전략에 대한 예시도,
도 3 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치의 상세 구성도,
도 4 는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치에 구비된 제1 데이터 추출부가 제1 그룹 데이터를 추출하는 상황을 나타내는 도면,
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치에 구비된 제2 데이터 추출부가 제2 그룹 데이터를 추출하는 상황을 나타내는 도면,
도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치에 구비된 제3 데이터 추출부가 제3 그룹 데이터를 추출하는 상황을 나타내는 도면,
도 7 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치에 구비된 제5 데이터 추출부가 제4 그룹 데이터로서 신호등의 점등상태를 추출하는 상황을 나타내는 도면,
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치에 구비된 제5 데이터 추출부가 제5 그룹 데이터로서 추출한 주행가능영역을 나타내는 도면,
도 9a 및 도 9b는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치에 구비된 제6 데이터 추출부가 제6 그룹 데이터로서 추출한 주행가능영역을 나타내는 도면,
도 10 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치에 구비된 제7 데이터 추출부가 제7 그룹 데이터로서 추출한 최종 주행가능영역을 나타내는 도면,
도 11 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치에 구비된 위험도 판단부가 위험도를 판단하는 과정을 나타내는 도면,
도 12 는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 방법에 대한 흐름도,
도 13 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 방법을 실행하기 위한 컴퓨팅 시스템을 보여주는 블록도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명에서 정보는 데이터를 포함하는 개념으로 사용한다.
도 1 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치의 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치(100)는, 저장부(10), 입력부(20), 학습부(30), 및 제어부(40)를 포함할 수 있다. 이때, 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치(100)를 실시하는 방식에 따라 각 구성요소는 서로 결합되어 하나로 구현될 수도 있고, 일부의 구성요소가 생략될 수도 있다. 특히, 학습부(30)는 제어부(40)의 하나의 기능 블록으로서 제어부(40)에 포함되도록 구현될 수 있다.
상기 각 구성요소들에 대하 살펴보면, 먼저 저장부(10)는 자율주행차량의 유턴시 안전을 위해 고려되어야 할 다양한 상황정보들을 그룹별로 세분화하여 심층 학습을 수행하는 과정과, 이렇게 학습된 결과에 기초하여 자율주행차량의 유턴 전략을 결정하는 과정에서 요구되는 각종 로직과 알고리즘 및 프로그램을 저장할 수 있다.
저장부(10)는 학습부(30)에 의한 학습된 결과로서 일례로 상황별 유턴 전략 모델을 저장할 수 있다.
저장부(10)는 상황별로 복수의 유턴 전략을 저장할 수도 있다. 이때, 각 유턴 전략은 학습 결과에 상응하는 스코어(score)를 구비할 수 있다. 여기서, 스코어는 유턴 전략으로 선택될 가능성을 나타낸다.
예를 들어, 특정 상황에서 제1 유턴 전략의 스코어가 80%, 제2 유턴 전략의 스코어가 10%, 제3 유턴 전략의 스코어가 5%, 제4 유턴 전략의 스코어가 3%, 제1 유턴 전략의 스코어가 2%인 경우, 상기 특정 상황에서의 유턴 전략은 스코어가 가장 높은 제1 유턴 전략으로 결정될 수 있다.
저장부(10)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 마이크로 타입(micro type), 및 카드 타입(예컨대, SD 카드(Secure Digital Card) 또는 XD 카드(eXtream Digital Card)) 등의 메모리와, 램(RAM, Random Access Memory), SRAM(Static RAM), 롬(ROM, Read-Only Memory), PROM(Programmable ROM), EEPROM(Electrically Erasable PROM), 자기 메모리(MRAM, Magnetic RAM), 자기 디스크(magnetic disk), 및 광디스크(optical disk) 타입의 메모리 중 적어도 하나의 타입의 기록 매체(storage medium)를 포함할 수 있다.
다음으로, 입력부(20)는 상황별 최적의 유턴 전략을 학습하는 과정에서 요구되는 데이터(학습 데이터)를 학습부(30)로 입력(제공)할 수 있다.
또한, 입력부(20)는 자율주행차량의 유턴 전략을 결정하는 과정에서 요구되는 현재 시점의 데이터를 제어부(40)로 입력하는 기능을 수행할 수 있다.
다음으로, 학습부(30)는 심층 학습을 기반으로 입력부(20)를 통해 입력되는 학습 데이터를 학습한다. 이때, 학습 데이터는 자율주행차량의 유턴시 안전을 위해 고려되어야 할 다양한 상황정보들이 그룹별로 세분화된 형태를 갖는다. 즉, 학습부(30)는 상황별 최적의 유턴 전략을 학습한다. 이때, 유턴 전략은 일례로 도 2a 내지 도 2e에 도시된 바와 같다.
도 2a 내지 도 2e는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치가 상황별로 학습하는 유턴 전략에 대한 예시도이다.
도 2a는 제1 유턴 전략으로서 작은 반경(제1 반경, 일례로 3m 이내)으로 유턴하는 타입을 나타내고, 도2b는 제2 유턴 전략으로서 큰 반경(제2 반경, 일례로 3m 초과)으로 유턴하는 타입을 나타내며, 도 2c는 제3 유턴 전략으로서 선행차량이 유턴한 후 이어서 유턴하는 타입을 나타내고, 도 2d는 유턴중 잠시 정차 후(주변차량이 지나간 후) 유턴을 재개하는 타입을 나타내며, 도 2e는 유턴중 후진 후 유턴을 재개하는 타입을 나타낸다.
본 발명의 일 실시예에서는 5개의 유턴 전략을 예로 들어 설명하였으나, 유턴 전략의 수는 설계자의 의도에 따라 가변될 수 있으나, 본 발명에는 아무런 영향을 미치지 않는다.
한편, 학습부(30)는 다양한 방식으로 학습을 수행할 수 있는데, 일례로 학습이 전혀 안된 초기에는 시뮬레이션 기반으로 학습을 수행할 수 있고, 학습이 어느정도 이루어진 중기에는 클라우드 서버(미도시)를 기반으로 학습을 수행할 수 있으며, 학습이 완료된 후에는 개인의 유턴성향을 기반으로 추가 학습을 수행할 수도 있다. 이때, 클라우드 서버는 유턴을 수행하는 복수의 차량 및 인프라로부터 각종 상황정보를 수집하고, 상기 수집된 상황정보를 학습데이터로서 자율주행차량으로 제공한다.
다음으로, 제어부(40)는 상기 각 구성요소들이 제 기능을 정상적으로 수행할 수 있도록 전반적인 제어를 수행한다. 이러한 제어부(40)는 하드웨어의 형태로 구현되거나, 또는 소프트웨어의 형태로 구현될 수 있고, 물론 하드웨어 및 소프트웨어가 결합된 형태로도 구현될 수 있다. 바람직하게는, 제어부(40)는 마이크로프로세서로 구현될 수 있으나 이에 한정되는 것은 아니다.
특히, 제어부(40)는 자율주행차량의 유턴시 안전을 위해 고려되어야 할 다양한 상황정보들을 그룹별로 세분화하여 심층 학습을 수행하고, 이렇게 학습된 결과에 기초하여 자율주행차량의 유턴 전략을 결정하는 과정에서 요구되는 각종 제어를 수행할 수 있다.
제어부(40)는 입력부(20)를 통해 입력되는 현재 시점의 주변상황에 대한 데이터를 학습부(30)의 학습결과에 적용하여 자율주행차량의 유턴 전략을 결정할 수 있다.
제어부(40)는 자율주행차량의 유턴 과정에서 획득한 위험도(일례로, 충돌 경고 횟수)에 기초하여 저장부(10)에 저장되어 있는 상황별 각 유턴 전략의 스코어를 조절할 수도 있다.
예를 들어, 특정 상황에서 제1 유턴 전략의 스코어가 80%, 제2 유턴 전략의 스코어가 10%, 제3 유턴 전략의 스코어가 5%, 제4 유턴 전략의 스코어가 3%, 제1 유턴 전략의 스코어가 2%인 경우, 제1 유턴 전략에 기초하여 유턴하는 과정에서 발생한 위험도 횟수에 따라 제1 유턴 전략의 스코어를 80%에서 70%로 줄이고, 제2 유턴 전략의 스코어를 10%에서 20%로 증가시킬 수 있다. 상기 특정 상황에서 제1 유턴 전략이 적용되는 경우에 위험도가 빈번하게 발생하면 제2 유턴 전략의 스코어가 제1 유턴 전략의 스코어보다 커질 수도 있다.
도 3 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 장치의 상세 구성도이다.
도 3에 도시된 바와 같이, 입력부(20)는 라이다(LiDAR: Light Detection And Ranging, 211) 센서, 카메라(212), 레이더(RaDAR: Radio Detecting And Ranging) 센서(213), V2X 모듈(214), 정밀지도(215), GPS(Global Positioning System) 수신기(216), 및 차량 네트워크(217)를 포함할 수 있다.
라이다 센서(211)는 환경인지 센서의 한 종류로서, 자율주행차량에 탑재되어 회전하면서 전방위에 레이저를 쏘아 반사되어 돌아오는 시간에 기초하여 반사체의 위치좌표 등을 측정한다.
카메라(212)는 자율주행차량의 실내 룸 미러 뒷쪽에 장착되어 차량 주변에 위치한 차선, 차량, 사람 등을 포함하는 영상을 촬영한다.
레이더 센서(213)는 전자기파 발사 후 물체에서 반사되는 전자기파를 수신하여 물체와의 거리, 물체의 방향 등을 측정한다. 이러한 레이더 센서(213)는 자율주행차량의 전방 범퍼와 후측방에 장차될 수 있으며, 장거리 물체 인식이 가능하고 기상의 영향을 거의 받지 않는다.
V2X 모듈(214)는 V2V 모듈(Vehicle to Vehicle, 미도시)과 V2I 모듈(Vehicle to Infrastructure, 미도시)을 포함할 수 있으며, V2V 모듈은 주변차량과 통신하여 타 주변차량의 위치, 속도, 가속도, 요레이트, 진행방향 등을 획득할 수 있고, V2I 모듈은 기반시설(Infrastructure)로부터 도로의 형태, 주변 구조물, 신호등 정보(위치, 점등상태(적색, 황색, 녹색 등))를 획득할 수 있다.
정밀지도(215)는 자율주행용 지도로서, 차량의 정확한 위치 측정 및 자율주행의 안전성 강화를 위해 차선, 신호등, 표지판 정보 등을 포함할 수 있다.
GPS 수신기(216)는 3개 이상의 GPS 위성으로부터 GPS 신호를 수신한다.
또한, 입력부(20)는 객체정보 검출부(221), 인프라정보 검출부(222), 및 위치정보 검출부(223)를 포함할 수 있다.
객체정보 검출부(221)는 라이다 센서(211), 카메라(212), 레이더 센서(213), 및 V2X 모듈(214)을 기반으로 자율주행차량 주변의 객체정보를 검출한다. 이때, 객체는 도로상에 위치한 차량과 사람 및 물체 등을 포함하며, 객체정보는 객체에 대한 정보로서 차량의 속도, 가속도, 요레이트, 요레이트, 시간에 따른 종가속도의 누적값 등을 포함할 수 있다.
인프라정보 검출부(222)는 라이다 센서(211), 카메라(212), 레이더 센서(213), V2X 모듈(214), 및 정밀지도(215)를 기반으로 자율주행차량 주변의 인프라정보를 검출한다. 이때, 인프라정보는 도로의 형태(차선, 중앙분리대 등), 주변 구조물, 신호등 점등상태, 횡단보도 외곽선, 도로 경계면 등을 포함한다.
위치정보 검출부(223)는 정밀 지도(215), GPS 수신기(216), 차량 네트워크(217)를 기반으로 자율주행차량의 위치정보를 검출한다.
또한, 입력부(20)는 제1 데이터 추출부(231), 제2 데이터 추출부(232), 제3 데이터 추출부(233), 제4 데이터 추출부(234), 제5 데이터 추출부(235), 제6 데이터 추출부(236), 제7 데이터 추출부(237)를 포함할 수 있다.
이하, 도 4 내지 도 10을 참조하여 자율주행차량의 유턴시 안전을 위해 고려되어야 할 다양한 상황정보들을 그룹별로 세분화하는 과정에 대해 살펴보기로 한다.
제1 데이터 추출부(231)는 도 4에 도시된 바와 같이, 자율주행차량 유턴시에 전방에서 먼저 유턴하고 있는 선행차량과의 충돌을 방지하기 위한 제1 그룹 데이터를 객체정보와 인프라정보로부터 추출한다. 이때, 제1 그룹 데이터는 선행차량의 거동과 관련된 데이터로서, 신호등 점등상태, 요레이트, 시간에 따른 종가속도의 누적값을 포함할 수 있다.
제2 데이터 추출부(232)는 도 5a 내지 도 5c에 도시된 바와 같이, 자율주행차량의 유턴시에 주변차량과의 충돌을 방지하기 위한 제2 그룹 데이터를 객체정보 객체정보와 인프라정보로부터 추출한다. 이때, 제2 그룹 데이터는 주변차량의 위치, 속도, 가속도, 요레이트, 진행방향 등을 포함할 수 있다.
도 5a는 주변차량으로서 우회전하는 차량과의 충돌이 발생하는 경우를 나타내고, 도 5b는 주변차량으로서 좌회전하는 차량과의 충돌이 발생하는 경우를 나타내며, 도 5c는 주변차량으로서 자율주행차량이 위치한 방향으로 직진하는 차량과의 충돌이 발생하는 경우를 나타낸다.
제3 데이터 추출부(233)는 도 6a 내지 도 6c에 도시된 바와 같이, 자율주행차량 유턴시에 보행자와의 충돌을 방지하기 위한 제3 그룹 데이터를 객체정보와 인프라정보로부터 추출한다. 이때, 제3 그룹 데이터는 보행자의 위치, 속도, 진행방향, 주변의 정밀지도 등을 포함할 수 있다.
도 6a는 보행자가 횡단보도를 횡단하고 있는 경우를 나타내고, 도 6b는 보행자가 도로를 횡단하고 있는 경우를 나타내며, 도 6c는 보행자들이 도로 경계면 주변에서 서성거리고 있는 경우를 나타낸다.
제4 데이터 추출부(234)는 도 7에 도시된 바와 같이 인프라정보와 위치정보에 기초하여, 자율주행차량의 주변에 위치한 각 신호등의 점등상태를 획득하고, 상기 획득한 각 신호등 점등상태 중에서 자율주행차량 유턴과 관련된 신호등의 점등상태를 제4 그룹 데이터로서 추출한다. 이때, 신호등은 자율주행차량의 유턴과 관련된 차량 신호등 및 보행자 신호등을 포함할 수 있다.
제5 데이터 추출부(235)는 도 8a 및 도 8b에 도시된 바와 같이 객체정보에 기초하여, 정적 객체의 분포에 따른 주행가능영역과 공사구간에 따른 주행가능영역 및 사고구간에 따른 주행가능영역을 제5 그룹 데이터로서 추출한다. 여기서, 주행가능영역은 자율주행차량이 위치한 차선의 반대 차선상의 영역을 의미한다. 일례로, 자율주행차량이 일 방향에서 타 방향으로 진행하는 차선에 위치하고 있다면, 반대 차선은 타 방향에서 일 방향으로 진행하는 차선을 의미한다.
제6 데이터 추출부(236)는 도 9a 및 도 9b에 도시된 바와 같이 인프라정보에 기초하여, 도로의 구조에 따른 주행가능영역을 제6 그룹 데이터로서 추출한다. 이때, 제6 데이터 추출부(236)는 카메라에 의해 촬영된 영상으로부터 주행가능영역을 추출할 수도 있고, 정밀지도상의 자율주행차량의 위치를 기준으로 주행가능영역을 추출할 수 있다. 여기서, 주행가능영역은 자율주행차량이 위치한 차선의 반대 차선상의 영역을 의미한다.
제7 데이터 추출부(237)는 도 10에 도시된 바와 같이, 제5 데이터 추출부(235)에 의해 추출된 주행가능영역과 제6 데이터 추출부(236)에 의해 추출된 주행가능영역의 중첩 영역(최종 주행가능영역)을 제7 그룹 데이터로서 추출한다.
학습부(30)는 심층 학습을 기반으로, 제1 데이터 추출부(231)에 의해 추출된 데이터와, 제2 데이터 추출부(232)에 의해 추출된 데이터와, 제3 데이터 추출부(233)에 의해 추출된 데이터와, 제4 데이터 추출부(234)에 의해 추출된 데이터와, 제7 데이터 추출부(237)에 의해 추출된 데이터를 이용하여 상황별 유턴 전략을 학습한다.
이렇게 학습부(30)에 의해 학습된 결과는 전략 결정부(41)가 유턴 전략을 결정하는데 이용될 수 있다.
학습부(30)는 인공 신경망으로서 합성곱 신경망(Convolutional Neural Network, CNN), 순환 신경망(Recurrent Neural Network, RNN), 제한 볼츠만 머신(Restricted Boltzmann Machine, RBM), 심층 신뢰 신경망(Deep Belief Network, DBN), 심층 Q-네트워크(Deep Q-Networks), GAN(Generative Adversarial Network), 소프트맥스(softmax) 중 적어도 하나를 이용할 수 있다. 이때, 인공 신경망의 히든 레이어는 적어도 10개 이상이고, 히든 레이어 내 히든 노드는 500개 이상이 바람직하지만 반드시 이에 한정되는 것은 아니다.
제어부(40)는 기능 블록으로서 전략 결정부(41)와 위험도 판단부(42)를 포함할 수 있다.
전략 결정부(41)는 제1 데이터 추출부(231)에 의해 추출된 데이터와, 제2 데이터 추출부(232)에 의해 추출된 데이터와, 제3 데이터 추출부(233)에 의해 추출된 데이터와, 제4 데이터 추출부(234)에 의해 추출된 데이터와, 제7 데이터 추출부(235)에 의해 추출된 데이터를 학습부(30)에 의해 학습된 결과에 적용하여 자율주행차량의 유턴 전략을 결정할 수 있다.
전략 결정부(41)는 상기 결정된 유턴 전략에 따라 유턴하는 과정에서 위험도 판단부(42)에 의해 판단된 위험도(일례로, 충돌 경고 횟수)에 기초하여, 저장부(10)에 저장되어 있는 상황별 각 유턴 전략의 스코어를 조절할 수도 있다.
위험도 판단부(42)는 TTC(Time To Collision), 주행 예상경로, 그리드 맵 등 다양한 방식으로 위험도를 판단할 수 있다.
예를 들어, TTC 기반으로 위험도를 판단하는 경우, 위험도 판단부(420는 TTC가 임계치 이하가 되는 횟수(경고 횟수)를 카운팅하여 위험도를 판단할 수 있다. 예를 들어, 경고 횟수가 1회라도 발생하면 위험도가 있는 것으로 판단하고, 경고 횟수가 증가할수록 위험도가 큰 것으로 판단할 수 있다.
위험도 판단부(42)는 TTC 기반으로 위험도를 판단하는 경우, 도 11에 도시된 바와 같이 종방향 TTC는 물론 횡방향 TTC도 고려하여 위험도를 판단하는 것이 바람직하다.
도 12 는 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 방법에 대한 흐름도이다.
먼저, 학습부(30)가 자율주행차량의 유턴시 고려되어야 할 상황정보들을 그룹별로 세분화하여 상황별 유턴 전략을 학습한다(1201).
이후, 제어부(30)가 학습부(30)에 의해 학습된 상황별 유턴 전략에 기초하여 상기 자율주행차량의 유턴 전략을 결정한다(1202).
도 13 은 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 방법을 실행하기 위한 컴퓨팅 시스템을 보여주는 블록도이다.
도 13을 참조하면, 상술한 본 발명의 일 실시예에 따른 자율주행차량의 유턴 전략 결정 방법은 컴퓨팅 시스템을 통해서도 구현될 수 있다. 컴퓨팅 시스템(1000)은 시스템 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, SSD(Solid State Drive), 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 저장부
20: 입력부
30: 학습부
40: 제어부

Claims (20)

  1. 자율주행차량의 유턴시 고려되어야 할 상황정보들을 그룹별로 세분화하여 상황별 유턴 전략을 학습하는 학습부; 및
    상기 학습부에 의해 학습된 상황별 유턴 전략에 기초하여 상기 자율주행차량의 유턴 전략을 결정하는 제어부
    를 포함하는 자율주행차량의 유턴 전략 결정 장치.
  2. 제 1 항에 있어서,
    상황별로 복수의 유턴 전략을 저장하는 저장부
    를 더 포함하는 자율주행차량의 유턴 전략 결정 장치.
  3. 제 2 항에 있어서,
    상기 복수의 유턴 전략은,
    상기 학습 결과에 상응하는 스코어와 매칭되는 것을 특징으로 하는 자율주행차량의 유턴 전략 결정 장치.
  4. 제 2 항에 있어서,
    상기 복수의 유턴 전략은,
    제1 반경으로 유턴하는 제1 유턴 전략과 제2 반경으로 유턴하는 제2 유턴 전략과 선행차량이 유턴한 후 이어서 유턴하는 제3 유턴 전략과 유턴중 잠시 정차 후 유턴을 재개하는 제4 유턴 전략과 유턴중 후진 후 유턴을 재개하는 제5 유턴 전략 중 적어도 두개 이상을 포함하는 자율주행차량의 유턴 전략 결정 장치.
  5. 제 3 항에 있어서,
    상기 제어부는,
    현재 상황에 상응하는 복수의 유턴 전략 중에서 스코어가 가장 높은 유턴 전략을 상기 자율주행차량의 유턴 전략으로 결정하는 것을 특징으로 하는 자율주행차량의 유턴 전략 결정 장치.
  6. 제 3 항에 있어서,
    상기 제어부는,
    상기 자율주행차량의 유턴 과정에서 획득한 위험도에 기초하여 현재 상황에 상응하는 각 유턴 전략의 스코어를 조절하는 것을 특징으로 하는 자율주행차량의 유턴 전략 결정 장치.
  7. 제 6 항에 있어서,
    상기 위험도는,
    충돌 경고 횟수인 것을 특징으로 하는 자율주행차량의 유턴 전략 결정 장치.
  8. 제 1 항에 있어서,
    현재 시점의 상황정보들에 대한 그룹별 데이터를 입력하는 입력부
    를 더 포함하는 자율주행차량의 유턴 전략 결정 장치.
  9. 제 8 항에 있어서,
    상기 입력부는,
    자율주행차량의 유턴시에 전방에서 유턴하고 있는 선행차량과의 충돌을 방지하기 위한 제1 그룹 데이터를 추출하는 제1 데이터 추출부와, 자율주행차량의 유턴시에 주변차량과의 충돌을 방지하기 위한 제2 그룹 데이터를 추출하는 제2 데이터 추출부와, 자율주행차량 유턴시에 보행자와의 충돌을 방지하기 위한 제3 그룹 데이터를 추출하는 제3 데이터 추출부와, 자율주행차량 유턴시에 전방에 위치한 다양한 신호등의 점등상태를 제4 그룹 데이터로서 추출하는 제4 데이터 추출부와, 정적 객체의 분포에 따른 주행가능영역과 공사구간에 따른 주행가능영역 및 사고구간에 따른 주행가능영역을 제5 그룹 데이터로서 추출하는 제5 데이터 추출부와, 도로의 구조에 따른 주행가능영역을 제6 그룹 데이터로서 추출하는 제6 데이터 추출부와, 상기 제5 데이터 추출부에 의해 추출된 주행가능영역과 제6 데이터 추출부에 의해 추출된 주행가능영역의 중첩영역을 제7 그룹 데이터로서 추출하는 제7 데이터 추출부 중 적어도 하나 이상을 포함하는 자율주행차량의 유턴 전략 결정 장치.
  10. 제 9 항에 있어서,
    상기 제1 그룹 데이터는 신호등 점등상태, 요레이트, 시간에 따른 종가속도의 누적값 중 적어도 하나 이상을 포함하고, 상기 제2 그룹 데이터는 주변차량의 위치, 속도, 가속도, 요레이트, 진행방향 중 적어도 하나 이상을 포함하며, 상기 제3 그룹 데이터는 보행자의 위치, 속도, 진행방향, 주변의 정밀지도 중 적어도 하나 이상을 포함하는 자율주행차량의 유턴 전략 결정 장치.
  11. 학습부가 자율주행차량의 유턴시 고려되어야 할 상황정보들을 그룹별로 세분화하여 상황별 유턴 전략을 학습하는 단계; 및
    제어부가 상기 학습부에 의해 학습된 상황별 유턴 전략에 기초하여 상기 자율주행차량의 유턴 전략을 결정하는 단계
    를 포함하는 자율주행차량의 유턴 전략 결정 방법.
  12. 제 11 항에 있어서,
    저장부가 상황별로 복수의 유턴 전략을 저장하는 단계
    를 더 포함하는 자율주행차량의 유턴 전략 결정 방법.
  13. 제 12 항에 있어서,
    상기 복수의 유턴 전략은,
    상기 학습 결과에 상응하는 스코어와 매칭되는 것을 특징으로 하는 자율주행차량의 유턴 전략 결정 방법.
  14. 제 12 항에 있어서,
    상기 복수의 유턴 전략은,
    제1 반경으로 유턴하는 제1 유턴 전략과 제2 반경으로 유턴하는 제2 유턴 전략과 선행차량이 유턴한 후 이어서 유턴하는 제3 유턴 전략과 유턴중 잠시 정차 후 유턴을 재개하는 제4 유턴 전략과 유턴중 후진 후 유턴을 재개하는 제5 유턴 전략 중 적어도 두개 이상을 포함하는 자율주행차량의 유턴 전략 결정 방법.
  15. 제 13 항에 있어서,
    상기 자율주행차량의 유턴 전략을 결정하는 단계는,
    현재 상황에 상응하는 복수의 유턴 전략 중에서 스코어가 가장 높은 유턴 전략을 상기 자율주행차량의 유턴 전략으로 결정하는 것을 특징으로 하는 자율주행차량의 유턴 전략 결정 방법.
  16. 제 13 항에 있어서,
    상기 제어부가 자율주행차량의 유턴 과정에서 획득한 위험도에 기초하여 현재 상황에 상응하는 각 유턴 전략의 스코어를 조절하는 단계
    를 더 포함하는 자율주행차량의 유턴 전략 결정 방법.
  17. 제 16 항에 있어서,
    상기 위험도는,
    충돌 경고 횟수인 것을 특징으로 하는 자율주행차량의 유턴 전략 결정 방법.
  18. 제 11 항에 있어서,
    입력부가 현재 시점의 상황정보들에 대한 그룹별 데이터를 입력하는 단계
    를 더 포함하는 자율주행차량의 유턴 전략 결정 방법.
  19. 제 18 항에 있어서,
    상기 그룹별 데이터를 입력하는 단계는,
    자율주행차량의 유턴시에 전방에서 유턴하고 있는 선행차량과의 충돌을 방지하기 위한 제1 그룹 데이터를 추출하는 단계;
    자율주행차량의 유턴시에 주변차량과의 충돌을 방지하기 위한 제2 그룹 데이터를 추출하는 단계;
    자율주행차량 유턴시에 보행자와의 충돌을 방지하기 위한 제3 그룹 데이터를 추출하는 단계;
    자율주행차량 유턴시에 전방에 위치한 다양한 신호등의 점등상태를 제4 그룹 데이터로서 추출하는 단계;
    정적 객체의 분포에 따른 주행가능영역과 공사구간에 따른 주행가능영역 및 사고구간에 따른 주행가능영역을 제5 그룹 데이터로서 추출하는 단계;
    도로의 구조에 따른 주행가능영역을 제6 그룹 데이터로서 추출하는 단계; 및
    상기 제5 그룹 데이터의 주행가능영역과 제6 그룹 데이터의 주행가능영역의 중첩영역을 제7 그룹 데이터로서 추출하는 단계
    를 포함하는 자율주행차량의 유턴 전략 결정 방법.
  20. 제 19 항에 있어서,
    상기 제1 그룹 데이터는 신호등 점등상태, 요레이트, 시간에 따른 종가속도의 누적값 중 적어도 하나 이상을 포함하고, 상기 제2 그룹 데이터는 주변차량의 위치, 속도, 가속도, 요레이트, 진행방향 중 적어도 하나 이상을 포함하며, 상기 제3 그룹 데이터는 보행자의 위치, 속도, 진행방향, 주변의 정밀지도 중 적어도 하나 이상을 포함하는 자율주행차량의 유턴 전략 결정 방법.
KR1020190080541A 2019-07-04 2019-07-04 자율주행차량의 유턴 전략 결정 장치 및 그 방법 KR20210005395A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190080541A KR20210005395A (ko) 2019-07-04 2019-07-04 자율주행차량의 유턴 전략 결정 장치 및 그 방법
US16/595,626 US11294386B2 (en) 2019-07-04 2019-10-08 Device and method for determining U-turn strategy of autonomous vehicle
DE102019216206.1A DE102019216206A1 (de) 2019-07-04 2019-10-22 Vorrichtung und Verfahren zum Bestimmen einer Kehrtwendestrategie eines autonomen Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190080541A KR20210005395A (ko) 2019-07-04 2019-07-04 자율주행차량의 유턴 전략 결정 장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR20210005395A true KR20210005395A (ko) 2021-01-14

Family

ID=74065203

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190080541A KR20210005395A (ko) 2019-07-04 2019-07-04 자율주행차량의 유턴 전략 결정 장치 및 그 방법

Country Status (3)

Country Link
US (1) US11294386B2 (ko)
KR (1) KR20210005395A (ko)
DE (1) DE102019216206A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102302132B1 (ko) * 2021-02-02 2021-09-14 한국자동차연구원 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템 및 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11650072B2 (en) * 2019-11-26 2023-05-16 International Business Machines Corporation Portable lane departure detection
CN113581205B (zh) * 2021-08-03 2023-01-31 京东鲲鹏(江苏)科技有限公司 一种调整车辆姿态的方法和装置
CN113895463B (zh) * 2021-11-25 2023-06-06 北京航空航天大学 一种适用于自动驾驶车辆掉头的路径规划方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180362035A1 (en) 2015-12-09 2018-12-20 Ford Global Technologies, Llc U-turn assistance

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10234297B2 (en) * 2014-12-10 2019-03-19 Here Global B.V. Apparatus and associated method for providing U-turn guidance
US20190113351A1 (en) * 2017-10-12 2019-04-18 Uber Technologies, Inc. Turn Based Autonomous Vehicle Guidance
US11427196B2 (en) * 2019-04-15 2022-08-30 Peloton Technology, Inc. Systems and methods for managing tractor-trailers
US11731612B2 (en) * 2019-04-30 2023-08-22 Baidu Usa Llc Neural network approach for parameter learning to speed up planning for complex driving scenarios

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180362035A1 (en) 2015-12-09 2018-12-20 Ford Global Technologies, Llc U-turn assistance

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102302132B1 (ko) * 2021-02-02 2021-09-14 한국자동차연구원 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템 및 방법

Also Published As

Publication number Publication date
US11294386B2 (en) 2022-04-05
DE102019216206A1 (de) 2021-01-07
US20210004011A1 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
Ma et al. Artificial intelligence applications in the development of autonomous vehicles: A survey
US10937178B1 (en) Image-based depth data and bounding boxes
US11420630B2 (en) Trajectory modifications based on a collision zone
US11091161B2 (en) Apparatus for controlling lane change of autonomous vehicle and method thereof
US11137766B2 (en) State machine for traversing junctions
US11643073B2 (en) Trajectory modifications based on a collision zone
US11748909B2 (en) Image-based depth data and localization
CN111874006B (zh) 路线规划处理方法和装置
CN112133089B (zh) 一种基于周围环境与行为意图的车辆轨迹预测方法、系统及装置
US11294386B2 (en) Device and method for determining U-turn strategy of autonomous vehicle
US10984543B1 (en) Image-based depth data and relative depth data
CN112789481A (zh) 对自上而下场景的轨迹预测
CN110909587A (zh) 场景分类
KR20210044961A (ko) 자율주행차량의 차선변경 전략 결정 장치 및 그 방법
CN112660128B (zh) 用于确定自动驾驶车辆的车道变更路径的设备及其方法
CN114072841A (zh) 根据图像使深度精准化
CN111986128A (zh) 偏心图像融合
CN114929543A (zh) 预测周围因素的加塞概率
KR20210005393A (ko) 자율주행차량의 유턴 제어 장치 및 그 방법
CN111976585A (zh) 基于人工神经网络的投射信息识别装置及其方法
US20230048926A1 (en) Methods and Systems for Predicting Properties of a Plurality of Objects in a Vicinity of a Vehicle
US20220383646A1 (en) Mobile object control device, mobile object control method, and storage medium
CN113753038A (zh) 一种轨迹预测方法、装置、电子设备和存储介质
Cattaneo Machine Learning Techniques for Urban Vehicle Localization
Lyubimov et al. Implementation of Unmanned Control of Wheeled Robots

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal