CN113519018B - 移动体控制装置和移动体控制方法 - Google Patents

移动体控制装置和移动体控制方法 Download PDF

Info

Publication number
CN113519018B
CN113519018B CN201980093642.1A CN201980093642A CN113519018B CN 113519018 B CN113519018 B CN 113519018B CN 201980093642 A CN201980093642 A CN 201980093642A CN 113519018 B CN113519018 B CN 113519018B
Authority
CN
China
Prior art keywords
learning
teacher
history data
unit
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980093642.1A
Other languages
English (en)
Other versions
CN113519018A (zh
Inventor
井对贵之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN113519018A publication Critical patent/CN113519018A/zh
Application granted granted Critical
Publication of CN113519018B publication Critical patent/CN113519018B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

本发明包括:学习用历史数据获取部(101),其获取在不存在风险的环境下驾驶学习用移动体时获得的驾驶历史数据以作为学习用历史数据;模仿学习部(102),其将学习用历史数据作为教师数据,进行模仿在不存在风险的环境下的学习用移动体的驾驶的学习,生成模仿学习模型;教师用历史数据获取部(103),其获取在与获取学习用历史数据的环境相同的环境下驾驶教师数据生成用移动体时获得的驾驶历史数据以作为教师用历史数据;教师数据生成部(104),其将教师用历史数据作为对模仿学习模型的输入,推定教师用历史数据是否与学习用历史数据一致,并赋予与风险相关的标签;以及认知学习部(105),其至少将与风险相关的标签作为教师数据,基于控制对象的移动体的传感器信息,对推断用于控制作为控制对象的移动体的结果的模型进行学习。

Description

移动体控制装置和移动体控制方法
技术领域
本发明涉及用于推定移动体周围的状况、并基于推定结果控制移动体的技术。
背景技术
为了自动控制移动体的移动,需要在推定移动体周围的状况的同时控制该移动体的移动的技术。汽车的自动驾驶控制的技术就是其代表例。
例如,在非专利文献1中公开了使用开源的自动驾驶模仿器(CARLA),将移动体的前置摄像机的图像输入神经网络,推定有无位于移动体前方的障碍物等移动体的周围状况的技术。此外,公开了一种针对包含在推定的移动体周围的状况中的显性风险、使移动体的紧急制动器进行动作的技术。
现有技术文献
[非专利文献]
非专利文献1:Axel Sauer,Nikolay Savinov,Andreas Geiger,“城市环境下驾驶的条件提供学习”
发明内容
发明所要解决的技术问题
在汽车自动驾驶的情况下,在实际的汽车驾驶中,不仅要考虑到显性风险,还要考虑到人突然冲出道路等潜在风险。因此,在如非专利文献1所公开的技术那样,基于将移动体的前置摄像机的图像等传感器信息输入到认知模型而得到的认知结果来行驶的情况下,需要包含潜在风险来学习认知模型。然而,存在难以针对潜在风险进行认知模型的学习的问题。此外,还存在难以规定移动体对潜在风险的所有理想行为的问题。
本发明是为了解决上述问题而完成的,其目的在于,在认知模型的学习中,在生成用于判定包含潜在风险在内的风险的教师数据时节省赋予识别信息的作业来进行判定风险的学习。
解决技术问题的技术方案
本发明所涉及的移动体控制装置包括:学习用历史数据获取部,其获取在不存在风险的环境下驾驶学习用移动体时获得的驾驶历史数据以作为学习用历史数据;模仿学习部,其将学习用历史数据获取部所获取的学习用历史数据作为教师数据,进行模仿在不存在风险的环境下的学习用移动体的驾驶的学习,生成模仿学习模型;教师用历史数据获取部,其获取在与获取学习用历史数据的环境相同的环境下驾驶教师数据生成用移动体时获得的驾驶历史数据以作为教师用历史数据;教师数据生成部,其将教师用历史数据获取部所获取的教师用历史数据作为对模仿学习部所生成的模仿学习模型的输入,推定教师用历史数据是否与学习用历史数据一致,并赋予与风险相关的标签;以及学习部,其至少将教师数据生成部所赋予的与风险相关的标签作为教师数据,基于搭载在控制对象的移动体上的传感器的传感器信息,对推断用于控制作为控制对象的移动体的结果的模型进行学习。
发明效果
根据本发明,在认知模型的学习中,可在生成用于判定包含潜在风险在内的风险的教师数据时节省赋予识别信息的作业来进行判定风险的学习。
附图说明
图1是表示实施方式1的移动体控制装置的结构的框图。
图2A和图2B是表示实施方式1的移动体控制装置的硬件结构例的图。
图3是表示实施方式1的移动体控制装置的认知模型的生成处理的动作的流程图。
图4是表示实施方式1的移动体控制装置的移动体的控制处理的动作的流程图。
图5是表示实施方式2的移动体控制装置的结构的框图。
图6是表示实施方式2的移动体控制装置的认知模型的生成处理的动作的流程图。
图7是表示实施方式2的移动体控制装置的移动体的控制处理的动作的流程图。
具体实施方式
下面,为了更详细地说明本发明,根据附图对用于实施本发明的方式进行说明。
实施方式1
图1是表示实施方式1的移动体控制装置100的结构的框图。
移动体控制装置100包括学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部(学习部)105、传感器信息获取部106、认知推断部107、控制参数生成部108和控制部109。
学习用历史数据获取部101获取在不存在风险的环境下驾驶学习用移动体时获得的该学习用移动体的驾驶历史数据以作为学习用历史数据。风险例如是显性风险、潜在风险和其他各种风险。
显性风险例如是障碍物。潜在风险例如是由于人和自行车等突然冲出车辆行驶的道路而引起的碰撞、以及在行驶道路的急弯处的碰撞。在不存在风险的环境下,例如在模仿器环境或排除潜在风险的实际测试课程中获得。
学习用历史数据由学习用移动体的传感器信息和移动体控制参数的组构成。
学习用移动体的传感器信息例如是与时间戳相关联的图像数据、LiDAR数据、毫米波雷达的数据或超声波传感器数据。学习用移动体的传感器信息可以通过组合各种传感器信息来构成。
移动体控制参数例如是控制学习移动体的加速器开度的参数、控制制动器开度的参数和控制方向盘转向角的参数。
学习用历史数据获取部101将获取的学习用历史数据输出到模仿学习部102。
模仿学习部102将从学习用历史数据获取部101输入的学习用历史数据作为教师数据,进行用于模仿在不存在风险的环境下的学习用移动体的驾驶的学习。模仿学习部102通过该学习来生成模仿学习模型。模仿学习部102将生成的模仿学习模型输出到教师数据生成部104。模仿学习部102中的学习算法可以应用有教师学习、逆强化学习等。另外,学习算法并不限于上述内容。
教师用历史数据获取部103在与获取学习用历史数据的环境相同的环境下,获取驾驶教师数据生成用移动体时获得的教师数据生成用移动体的驾驶历史数据以作为教师用历史数据。教师用历史数据由教师数据生成用移动体的传感器信息和移动体控制参数的组构成。
教师数据生成用移动体的传感器信息例如是与时间戳相关联的图像数据、LiDAR数据、毫米波雷达的数据或超声波传感器的数据。教师数据生成用移动体的传感器信息可以通过组合各种传感器信息来构成。
移动体控制参数例如是控制教师数据生成用移动体的加速器开度的参数、控制制动器开度的参数和控制方向盘转向角的参数。
教师用历史数据获取部103将获取的教师用历史数据输出到教师数据生成部104。
教师数据生成部104将从教师用历史数据获取部103输入的教师用历史数据作为对从模仿学习部102输入的模仿学习模型的输入,并且推定教师用历史数据是否与学习用历史数据一致。更具体地,教师数据生成部104推定表示教师用历史数据是否与学习用历史数据一致的一致程度。教师数据生成部104基于推定的一致程度,对构成教师用历史数据的教师数据生成用移动体的传感器信息赋予作为与风险相关的识别信息的标签。与风险相关的标签是表示存在风险的有风险标签、或表示不存在风险的无风险标签。
教师数据生成部104通过使用从教师用历史数据获取部103输入的教师用历史数据来生成与风险相关的标签以外的认知标签。此处,认知标签是表示其它车辆的位置信息、要跟随的标志信息、信号的颜色信息和本车相对于目标车道的位置信息的标签。教师数据生成部104将教师历史数据的传感器信息、与风险相关的标签和认知标签的组输出到认知学习部105。
例如,当使用逆强化学习算法之一的GAIL(Generative Adversarial ImitationLearning:生成对抗式模仿学习)作为用于模仿学习用移动体的驾驶的学习算法时,通过使用通过敌对学习输出可视为学习用移动体的驾驶历史数据的程度的识别器和通过竞争学习模仿学习用移动体的行为规则而获得的识别器,针对教师数据生成用移动体的驾驶历史数据,推定可视为学习用移动体的驾驶历史数据的程度。
认知学习部105将从教师数据生成部104输入的教师历史数据的传感器信息、与风险相关的标签和认知标签的组作为教师数据来学习认知模型。当输入由后述的传感器信息获取部106获取的传感器信息时,认知学习部105学习用于在后述的认知推断部107中推断认知结果的认知模型。此处,认知模型推断的认知结果至少包含表示移动体移动时有无风险的结果。认知结果也可构成为还包含其它车辆的位置信息、要跟随的标志信息、信号的颜色信息和本车相对于目标车道的位置信息的结果。认知学习部105将所学习的认知模型的模型参数输出到认知推断部107。
传感器信息获取部106获取从搭载在作为移动体控制装置100的控制对象的移动体上的传感器输入的传感器信息。控制对象的移动体的传感器信息例如是与时间戳相关联的图像数据、LiDAR数据、毫米波雷达的数据或超声波传感器的数据。控制对象的移动体的传感器信息可以通过组合各种传感器信息来构成。
传感器信息获取部106将获取的传感器信息加工成适合于后述的认知推断部107中的处理的数据形式。作为传感器信息的加工,可举出格式转换和数据的整形等。并且,传感器信息的加工不限于简单的转换。例如,当传感器信息是图像数据时,可以实施语义分割处理,以像素为单位进行等级分类,转换为对区域进行分割后的图像数据。传感器信息获取部106将加工后的传感器信息输出到认知推断部107。
认知推断部107对基于从认知学习部105输入的模型参数的认知模型,输入由传感器信息获取部106加工后的控制对象的移动体的传感器信息,并推断认知结果。认知推断部107至少推断表示伴随控制对象的移动体的移动而有无风险的认知结果。此外,认知推断部107可以构成为推断表示其它车辆的位置信息、要跟随的标志信息、信号的颜色信息和本车相对于目标车道的位置信息的认知结果。认知推断部107将推断出的认知结果输出到控制参数生成部108。
控制参数生成部108基于从认知推断部107输入的认知结果,生成控制对象的移动体的控制参数。控制参数生成部108例如生成控制作为控制对象的移动体的加速器开度的参数、控制制动器开度的参数和控制方向盘转向角的参数。此外,控制参数生成部108在推断出有风险的认知结果的地方,生成用于避免该风险的移动体控制参数。控制参数生成部108将生成的移动体控制参数输出到控制部109。
控制部109基于从控制参数生成部108输入的移动体控制参数,控制作为控制对象的移动体。
接着,对移动体控制装置100的硬件结构例进行说明。
图2A和图2B是示出实施方式1的移动体控制装置100的硬件结构例的图。
移动体控制装置100中的学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部105、传感器信息获取部106、认知推断部107、控制参数生成部108和控制部109的各个功能由处理电路实现。即,移动体控制装置100包括用于实现上述各功能的处理电路。该处理电路可以是如图2A所示的作为专用硬件的处理电路100a,也可以是如图2B所示的执行存储器100c中存储的程序的处理器100b。
如图2A所示,在学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部105、传感器信息获取部106、认知推断部107、控制参数生成部108以及控制部109是专用硬件的情况下,处理电路100a对应于例如单一电路、复合电路、编程处理器、并行编程处理器、ASIC(Application Specific IntegratedCircuit:专用集成电路)、FPGA(Field-programmable Gate Array:现场可编程门阵列)或将它们组合后的部件。学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部105、传感器信息获取部106、认知推断部107、控制参数生成部108和控制部109的各部的功能可以分别由处理电路实现,也可以将各部的功能汇总而由一个处理电路来实现。
如图2B所示,在学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部105、传感器信息获取部106、认知推断部107、控制参数生成部109和控制部109是处理器100b时,通过软件、固件或软件和固件的组合来实现各部的功能。软件或固件以程序的形式来表述,并存储于存储器100c。处理器100b读取并执行存储在存储器100c中的程序,以实现学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部105、传感器信息获取部106、认知推断部107、控制参数生成部108和控制部109的各个功能。即,学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部105、传感器信息获取部106、认知推断部107、控制参数生成部108和控制部109包括存储器100c,存储器100c用于存储在由处理器100b执行时最终执行后述的图3、图4、图6和图7所示的各步骤的程序。此外,这些程序使计算机执行学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部105、传感器信息获取部106、认知推断部107、控制参数生成部108和控制部109的步骤或方法。
此处,处理器100b例如是CPU(Central Processing Unit:中央处理单元)、处理装置、运算装置、处理器、微处理器、微机或DSP(Digital Signal Processor:数字信号处理器)等。
存储器100c例如可以是RAM(Random Access Memory:随机存取存储器)、ROM(ReadOnly Memory:只读存储器)、闪存、EPROM(Erasable Programmable ROM:可擦除可编程只读存储器)、EEPROM(Electrically EPROM:电可擦除可编程只读存储器)等非易失性或易失性半导体存储器,也可以是硬盘、软盘等磁盘,也可以是迷你光盘、CD(Compact Disc:压缩光盘)、DVD(Digital Versatile Disk:数字通用光盘)等光盘。
另外,对于学习用历史数据获取部101、模仿学习部102、教师用历史数据获取部103、教师数据生成部104、认知学习部105、传感器信息获取部106、认知推断部107、控制参数生成部108和控制部109的各个功能,可以通过专用硬件来实现一部分,通过软件或固件来实现一部分。像以上那样,移动体控制装置100中的处理电路100a可通过硬件、软件、固件或它们的组合来实现上述各个功能。
接着,对移动体控制装置100的动作进行说明。
将移动体控制装置100的动作分为认知模型的生成处理和控制对象的移动体的控制处理来说明。
首先,参照图3说明认知模型的生成处理的动作。
图3是表示实施方式1所涉及的移动体控制装置100的认知模型的生成处理的动作的流程图。
学习用历史数据获取部101获取学习用历史数据(步骤ST1),并输出到模仿学习部102。模仿学习部102将从学习用历史数据获取部101输入的学习用历史数据作为教师数据,进行用于模仿不存在风险的环境下的学习用移动体的驾驶的学习(步骤ST2)。模仿学习部102基于步骤ST2中的学习来生成模仿学习模型(步骤ST3)。模仿学习部102将步骤ST3中生成的模仿学习模型输出到教师数据生成部104。
教师用历史数据获取部103获取教师用历史数据(步骤ST4),并输出到教师数据生成部104。教师数据生成部104将从教师用历史数据获取部103输入的教师用历史数据输入到从模仿学习部102输入的模仿学习模型,并且推定教师用历史数据与学习用历史数据的一致程度(步骤ST5)。教师数据生成部104判定在步骤ST5中推定的一致程度是否为阈值以下(步骤ST6)。
在推定的一致程度为阈值以下时(步骤ST6;是),判定为教师数据生成用移动体处于考虑了风险的驾驶状态,赋予有风险标签(步骤ST7)。另一方面,在推定的一致程度不为阈值以下时(步骤ST6;否),判定为教师数据生成用移动体不处于考虑了风险的驾驶状态,赋予无风险标签(步骤ST8)。教师数据生成部104使用教师用历史数据生成认知标签(步骤ST9)。
教师数据生成部104将教师用历史数据的传感器信息、步骤ST7或步骤ST8中赋予的与风险相关的标签和步骤ST9中生成的认知标签的组输出到认知学习部105。认知学习部105将从教师数据生成部104输入的教师用历史数据的传感器信息、与风险相关的标签和认知标签的组作为教师数据来学习认知模型(步骤ST10)。认知学习部105将所学习的认知模型的模型参数输出到认知推断部107,结束处理。
接着,参照图4,对控制对象的移动体的控制处理的动作进行说明。
图4是表示实施方式1所涉及的移动体控制装置100的移动体的控制处理的动作的流程图。
传感器信息获取部106获取控制对象的移动体的传感器信息并进行加工(步骤ST21)。传感器信息获取部106将加工后的传感器信息输出到认知推断部107。认知推断部107对基于从认知学习部105输入的模型参数的认知模型,输入从传感器信息获取部106输入的加工后的传感器信息,并推断认知结果(步骤ST22)。认知推断部107将推断出的认知结果输出到控制参数生成部108。
控制参数生成部108基于从认知推断部107输入的认知结果,生成控制对象的移动体的控制参数(步骤ST23)。控制参数生成部108将生成的控制对象的移动体的控制参数输出到控制部109。控制部109基于从控制参数生成部108输入的控制参数,控制控制对象的移动体(步骤ST24)。之后,流程返回到步骤ST21的处理,并重复上述的处理。
上述内容中,示出教师数据生成部104基于推定的一致程度赋予与风险相关的标签的结构。教师数据生成部104还可以构成为在赋予有风险标签时对风险的类型进行分类。
当对风险的类型进行分类时,教师数据生成部104通过使用赋予了有风险标签的传感器信息来进行无教师的学习,并且将风险分类为预先设定的类型。教师数据生成部104针对进行了分类的风险的每种类型赋予能够识别该类型的标签。对风险进行分类的类型例如是交叉路口左转时的碰撞、交叉路口右转时的碰撞、交叉路口直行时的碰撞、因来自左侧道路旁的障碍物的跳出导致的碰撞、因来自右侧道路旁的障碍物的跳出导致的碰撞和急弯中的碰撞。另外,上述对风险进行分类的类型是一个示例,可以将各种风险设定为要进行分类的类型。
教师数据生成部104在赋予有风险标签、并对风险的类型进行分类时,将教师历史数据的传感器信息、可识别风险类型的标签和认知标签的组输出到认知学习部105。另外,在赋予无风险标签时,教师数据生成部104将教师历史数据的传感器信息、无风险标签和认知标签的组输出到认知学习部105。
认知学习部105将教师历史数据的传感器信息、可识别风险类型的标签和认知标签的组作为教师数据,对推断与风险类型相对应的认知结果的认知模型进行学习。认知推断部107至少推断表示伴随控制对象的移动体的移动而有无风险的认知结果、及在有风险时表示风险类型的认知结果。控制参数生成部108在输入有表示风险的类型的认知结果时,生成与该风险的类型相对应的控制参数。
如上所述,根据本实施方式1,构成为包括:学习用历史数据获取部101,其获取在不存在风险的环境下驾驶学习用移动体时获得的驾驶历史数据以作为学习用历史数据;模仿学习部102,其将学习用历史数据作为教师数据,进行模仿不存在风险的环境下的学习用移动体的驾驶的学习,生成模仿学习模型;教师用历史数据获取部103,其获取在与获取学习用历史数据的环境相同的环境下驾驶教师数据生成用移动体时获得的驾驶历史数据以作为教师用历史数据;教师数据生成部104,其将教师用历史数据作为对模仿学习模型的输入,推定教师用历史数据是否与学习用历史数据一致,并赋予与风险相关的标签;以及认知学习部105,其至少将与风险相关的标签作为教师数据,基于搭载在控制对象的移动体上的传感器的传感器信息,对推断用于控制作为控制对象的移动体的结果的认知模型进行学习。
由此,在认知模型的学习中,在生成用于判定包含潜在风险在内的风险的教师数据时,可以节省赋予识别信息的作业。
另外,根据本实施方式1,认知学习部105构成为将教师用历史数据和与风险相关的标签作为教师数据,对推断至少包含表示有无风险的结果在内的认知结果的认知模型进行学习,因此,可以学习能判定包含潜在风险在内的风险有无存在的模型。
另外,根据本实施方式1,认知模型构成为包括:认知推断部107,其输入控制对象的移动体的传感器信息,推断至少表示伴随控制对象的移动体的移动而有无风险的认知结果;以及控制参数生成部108,其基于推断出的认知结果,生成控制对象的移动体的控制参数,因此,能判定包含潜在风险在内的风险有无存在。此外,可以基于包含潜在风险在内的风险有无存在来控制移动体。
另外,根据本实施方式1,教师数据生成部104构成为使用作为与风险相关的标签而赋予了表示有风险的标签的教师用历史数据的传感器信息,进行无教师的学习,将风险分类为预先设定的类型,并赋予能够识别所分类的风险的类型的标签,认知学习部105将能够识别风险的类型的标签作为教师数据,对推断与风险的类型相对应的认知结果的认知模型进行学习。
由此,可以推断出与风险的类型相对应的认知结果,并且可以生成与风险的类型相对应的控制参数。
实施方式2
在本实施方式2中,表示推断关注风险的移动体的控制参数的结构。
图5是表示实施方式2所涉及的移动体控制装置100A的结构的框图。
实施方式2的移动体控制装置100A构成为包括控制学习部(学习部)110和控制推断部111,以代替实施方式1所示的移动体控制装置100的认知学习部105、认知推断部107和控制参数生成部108。另外,以下,对于与实施方式1的移动体控制装置100的结构要素相同或相当的部分标注与实施方式1中使用的标号相同的标号,并省略或者简化说明。
教师数据生成部104与实施方式1同样地推定教师用历史数据是否与学习用历史数据一致。教师数据生成部104基于推定出的一致程度赋予与风险相关的标签。教师数据生成部104将教师历史数据的传感器信息、与风险相关的标签和教师用历史数据的移动体控制参数的组输出到控制学习部110。
控制学习部110将从教师数据生成部104输入的教师历史数据的传感器信息、与风险相关的标签和教师用历史数据的移动体控制参数的组作为教师数据来学习控制模型。当输入由传感器信息获取部106获取的传感器信息时,控制学习部110学习用于推断与风险相关的标签和移动体控制参数的控制模型。
控制学习部110在控制模型的学习中,移动体控制参数的推断成为主推断,与风险相关的标签的推断成为辅助推断。控制学习部110通过将与风险相关的标签的推断设为辅助推断,可以学习进行关注风险的移动体控制参数的推断的控制模型。控制学习部110将学习的控制模型的模型参数输出到控制推断部111。
传感器信息获取部106将从搭载在作为控制对象的移动体上的传感器获取的传感器信息加工成适合于后述的控制推断部111中的处理的数据形式。
控制推断部111对基于从控制学习部110输入的模型参数的控制模型,输入由传感器信息获取部106加工后的控制对象的移动体的传感器信息。控制推断部111推断与风险相关的标签和控制对象的移动体的控制参数。控制推断部111将推断出的控制对象的移动体的控制参数输出到控制部109。
控制部109基于从控制推断部111输入的控制参数,控制作为控制对象的移动体。
对移动体控制装置100A的硬件结构例进行说明。另外,省略与实施方式1相同的结构的说明。移动体控制装置100A中的控制学习部110和控制推断部111是图2A所示的处理电路100a、或图2B所示的执行存储在存储器100c中的程序的处理器100b。
接着,对移动体控制装置100A的动作进行说明。与实施方式1同样,将移动体控制装置100A的动作分为控制模型的生成处理和控制对象的移动体的控制处理来说明。
图6和图7是表示实施方式2所涉及的移动体控制装置100A的动作的流程图。在图6和图7中,对与图3和图4所示的实施方式1的流程图相同的步骤赋予相同的标号,省略说明。
图6是表示实施方式2所涉及的移动体控制装置100A的控制模型的生成处理的动作的流程图。
教师数据生成部104在步骤ST7或步骤ST8中赋予与风险相关的标签时,将教师用历史数据的传感器信息、与风险相关的标签和教师用历史数据的移动体控制参数的组输出到控制推断部111。控制学习部110将从教师数据生成部104输入的教师用历史数据的传感器信息、与风险相关的标签和教师用历史数据的移动体控制参数的组作为教师数据来学习控制模型(步骤ST31)。控制学习部110将所学习的控制模型的模型参数输出到控制推断部111,结束处理。
图7是表示实施方式2所涉及的移动体控制装置100A的移动体的控制处理的动作的流程图。
传感器信息获取部106获取控制对象的移动体的传感器信息并进行加工(步骤ST21)。传感器信息获取部106将加工后的传感器信息输出到控制推断部111。控制推断部111对基于从控制学习部110输入的模型参数的控制模型,输入从传感器信息获取部106输入的加工后的传感器信息,并推断与风险相关的标签和控制对象的移动体的控制参数(步骤ST41)。控制推断部111将推断出的控制对象的移动体的控制参数输出到控制部109。
控制部109基于从控制推断部111输入的移动体控制参数,控制作为控制对象的移动体(步骤ST42)。之后,流程返回到步骤ST21的处理,并重复上述的处理。
如上所述,根据本实施方式2,构成为包括:学习用历史数据获取部101,其获取在不存在风险的环境下驾驶学习用移动体时获得的驾驶历史数据以作为学习用历史数据;模仿学习部102,其将学习用历史数据作为教师数据,进行模仿不存在风险的环境下的学习用移动体的驾驶的学习,生成模仿学习模型;教师用历史数据获取部103,其获取在与获取学习用历史数据的环境相同的环境下驾驶教师数据生成用移动体时获得的驾驶历史数据以作为教师用历史数据;教师数据生成部104,其将教师用历史数据作为对模仿学习模型的输入,推定教师用历史数据是否与学习用历史数据一致,并赋予与风险相关的标签;以及控制学习部110,其至少将与风险相关的标签作为教师数据,基于搭载在控制对象的移动体上的传感器的传感器信息,对推断用于控制作为控制对象的移动体的结果的控制模型进行学习。
由此,在控制模型的学习中,在生成用于判定包含潜在风险在内的风险的教师数据时,可以节省赋予识别信息的作业。
另外,根据本实施方式2,控制学习部110构成为将教师用历史数据和与风险相关的标签作为教师数据,对推断与风险相关的标签和控制对象的移动体的控制参数的控制模型进行学习,因此,可以学习能判定包含潜在风险在内的风险有无存在的模型,且能进行关注风险的移动体的控制参数的推断。
此外,根据本实施方式2,构成为包括控制推断部111,其对控制模型输入控制对象的移动体的传感器信息,推断与风险相关的标签和控制参数,因此能判定包含潜在风险在内的风险有无存在。此外,可以关注包含潜在风险在内的风险来控制移动体。
除上述内容以外,本发明在其发明范围内可以进行各实施方式的自由组合,对各实施方式的任意结构要素进行变形,或者在各实施方式中省略任意结构要素。
工业上的实用性
本发明的技术优选为应用于考虑移动体周围的风险来对车辆等移动体的移动进行自动控制的控制系统等。
标号说明
100、100A移动体控制装置,101学习用历史数据获取部,102模仿学习部,103教师用历史数据获取部,104教师数据生成部,105认知学习部,106传感器信息获取部,107认知推断部,108控制参数生成部,109控制部,110控制学习部,111控制推断部。

Claims (9)

1.一种移动体控制装置,其特征在于,包括:
学习用历史数据获取部,其获取在不存在风险的环境下驾驶学习用移动体时获得的驾驶历史数据以作为学习用历史数据;
模仿学习部,其将所述学习用历史数据获取部所获取的所述学习用历史数据作为教师数据,进行模仿在不存在所述风险的环境下的所述学习用移动体的驾驶的学习,生成模仿学习模型;
教师用历史数据获取部,其获取在与获取所述学习用历史数据的环境相同的环境下驾驶教师数据生成用移动体时获得的驾驶历史数据以作为教师用历史数据;
教师数据生成部,其将所述教师用历史数据获取部所获取的所述教师用历史数据作为对所述模仿学习部所生成的所述模仿学习模型的输入,推定所述教师用历史数据是否与所述学习用历史数据一致,并赋予与风险相关的标签;以及
学习部,其至少将所述教师数据生成部所赋予的与所述风险相关的标签作为教师数据,基于搭载在控制对象的移动体上的传感器的传感器信息,对推断用于控制所述控制对象的移动体的结果的模型进行学习。
2.如权利要求1所述的移动体控制装置,其特征在于,
所述学习部是认知学习部,该认知学习部将所述教师用历史数据获取部所获取的所述教师用历史数据、和所述教师数据生成部所赋予的与所述风险相关的标签作为教师数据,对至少推断包含表示有无所述风险的结果在内的认知结果的认知模型进行学习。
3.如权利要求1所述的移动体控制装置,其特征在于,
所述学习部是控制学习部,该控制学习部将所述教师用历史数据获取部所获取的所述教师用历史数据、和所述教师数据生成部所赋予的与所述风险相关的标签作为教师数据,对推断与所述风险相关的标签和所述控制对象的移动体的控制参数的控制模型进行学习。
4.如权利要求2所述的移动体控制装置,其特征在于,包括:
认知推断部,其对所述认知学习部所学习的所述认知模型输入所述控制对象的移动体的所述传感器信息,至少推断表示伴随所述控制对象的移动体的移动而有无所述风险的所述认知结果;及
控制参数生成部,其基于所述认知推断部推断出的所述认知结果,生成所述控制对象的移动体的控制参数。
5.如权利要求3所述的移动体控制装置,其特征在于,
包括控制推断部,该控制推断部对所述控制学习部所学习的所述控制模型输入所述控制对象的移动体的所述传感器信息,推断与所述风险相关的标签和所述控制参数。
6.如权利要求4所述的移动体控制装置,其特征在于,
包括传感器信息获取部,该传感器信息获取部获取所述控制对象的移动体的所述传感器信息,并将其加工成适合于所述认知推断部中的所述认知结果的推断的信息,并输出到所述认知推断部。
7.如权利要求5所述的移动体控制装置,其特征在于,
包括传感器信息获取部,该传感器信息获取部获取所述控制对象的移动体的所述传感器信息,并将其加工成适合于所述控制推断部中推断与所述风险相关的标签和所述控制参数的信息,并输出到所述控制推断部。
8.如权利要求2所述的移动体控制装置,其特征在于,
所述教师数据生成部使用赋予了表示有所述风险的标签作为与所述风险相关的标签的所述教师用历史数据的所述传感器信息来进行无教师的学习,将所述风险分类为预先设定的类型,并赋予能识别所分类的所述风险的类型的标签,
所述认知学习部将能识别所述风险的类型的标签作为所述教师数据,对推断与所述风险的类型相对应的所述认知结果的所述认知模型进行学习。
9.一种移动体控制方法,其特征在于,包括:
学习用历史数据获取部获取在不存在风险的环境下驾驶学习用移动体时获得的驾驶历史数据以作为学习用历史数据的步骤;
模仿学习部将所获取的所述学习用历史数据作为教师数据,进行模仿在不存在所述风险的环境下的所述学习用移动体的驾驶的学习,生成模仿学习模型的步骤;
教师用历史数据获取部获取在与获取所述学习用历史数据的环境相同的环境下驾驶教师数据生成用移动体时获得的驾驶历史数据以作为教师用历史数据的步骤;
教师数据生成部将所获取的所述教师用历史数据作为对所生成的所述模仿学习模型的输入,推定所述教师用历史数据是否与所述学习用历史数据一致,并赋予与所述风险相关的标签的步骤;以及
学习部至少将所赋予的与所述风险相关的标签作为教师数据,基于搭载在控制对象的移动体上的传感器的传感器信息,对推断用于控制所述控制对象的移动体的结果的模型进行学习的步骤。
CN201980093642.1A 2019-03-12 2019-03-12 移动体控制装置和移动体控制方法 Active CN113519018B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/010007 WO2020183609A1 (ja) 2019-03-12 2019-03-12 移動体制御装置および移動体制御方法

Publications (2)

Publication Number Publication Date
CN113519018A CN113519018A (zh) 2021-10-19
CN113519018B true CN113519018B (zh) 2023-01-03

Family

ID=72427350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980093642.1A Active CN113519018B (zh) 2019-03-12 2019-03-12 移动体控制装置和移动体控制方法

Country Status (4)

Country Link
US (1) US20220169277A1 (zh)
JP (1) JP7046262B2 (zh)
CN (1) CN113519018B (zh)
WO (1) WO2020183609A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137506A1 (ja) * 2020-12-25 2022-06-30 日本電気株式会社 運転評価システム、学習装置、評価結果出力装置、方法およびプログラム
TW202245689A (zh) * 2021-03-29 2022-12-01 日商日清食品控股股份有限公司 血糖值推定裝置、血糖值推定方法及程式
TW202300917A (zh) * 2021-06-22 2023-01-01 日商日清食品控股股份有限公司 血中三酸甘油酯推定裝置、血中三酸甘油酯推定方法及程式
TW202307430A (zh) * 2021-08-06 2023-02-16 日商日清食品控股股份有限公司 HbA1c風險推定裝置、HbA1c風險推定方法及程式
TW202306536A (zh) * 2021-08-06 2023-02-16 日商日清食品控股股份有限公司 肌酸酐風險推定裝置、肌酸酐風險推定方法及程式
TW202307431A (zh) * 2021-08-06 2023-02-16 日商日清食品控股股份有限公司 尿酸值推定裝置、尿酸值推定方法及程式
CN114692724B (zh) * 2022-03-03 2023-03-28 支付宝(杭州)信息技术有限公司 数据分类模型的训练方法、数据分类方法和装置
US20230398997A1 (en) * 2022-06-08 2023-12-14 GM Global Technology Operations LLC Control of vehicle automated driving operation with independent planning model and cognitive learning model
WO2024091059A1 (ko) * 2022-10-27 2024-05-02 한국과학기술원 효율적인 사이버 물리 시스템 목표 검증을 위한 모방 학습을 활용한 가상 환경 모델 생성 기법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008015966A1 (fr) * 2006-08-04 2008-02-07 Panasonic Corporation Indicateur d'informations de collision et procédé associé
JP2008250492A (ja) * 2007-03-29 2008-10-16 Toyota Motor Corp 運転者危険度取得装置
WO2009128398A1 (ja) * 2008-04-15 2009-10-22 日本電気株式会社 移動体警告装置、移動体警告方法および移動体警告プログラム
WO2014174656A1 (ja) * 2013-04-26 2014-10-30 株式会社 日立製作所 制御システム検査装置
CN107945574A (zh) * 2017-10-25 2018-04-20 东软集团股份有限公司 一种车辆碰撞预警方法、装置及设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219716A (ja) * 2006-02-15 2007-08-30 Nissan Motor Co Ltd 運転支援装置、運転支援方法および運転支援装置付き車両
US8401282B2 (en) * 2010-03-26 2013-03-19 Mitsubishi Electric Research Laboratories, Inc. Method for training multi-class classifiers with active selection and binary feedback
TWI455073B (zh) * 2011-12-14 2014-10-01 Ind Tech Res Inst 車用特定路況警示裝置、系統與方法
CN107531245B (zh) * 2015-04-21 2020-01-24 松下知识产权经营株式会社 信息处理系统、信息处理方法、以及程序
US10423884B2 (en) * 2015-06-04 2019-09-24 The Mathworks, Inc. Extension of model-based design to identify and analyze impact of reliability information on systems and components
US10346140B2 (en) * 2015-08-05 2019-07-09 General Electric Company System and method for model based technology and process for safety-critical software development
JP6504031B2 (ja) * 2015-11-13 2019-04-24 株式会社デンソー リスク情報蓄積装置
JP2017111726A (ja) * 2015-12-18 2017-06-22 パイオニア株式会社 報知装置及び報知方法
JP6811018B2 (ja) * 2016-03-07 2021-01-13 三菱重工業株式会社 品質評価システム、品質評価方法及びプログラム
US9928432B1 (en) * 2016-09-14 2018-03-27 Nauto Global Limited Systems and methods for near-crash determination
US10012993B1 (en) * 2016-12-09 2018-07-03 Zendrive, Inc. Method and system for risk modeling in autonomous vehicles
US10274338B2 (en) * 2016-12-11 2019-04-30 International Business Machines Corporation Risk situations for vehicle occupants based on data provided by vehicle sensors and contextual information
JP2018135068A (ja) * 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法及びプログラム
US11288612B2 (en) * 2017-05-23 2022-03-29 Uatc, Llc Generalized risk routing for human drivers
US10592634B1 (en) * 2017-06-06 2020-03-17 Ansys, Inc. Systems and methods for automatic handling of engineering design parameter violations
US20180370502A1 (en) * 2017-06-27 2018-12-27 Dura Operating, Llc Method and system for autonomous emergency self-learning braking for a vehicle
US10977562B2 (en) * 2017-08-07 2021-04-13 International Business Machines Corporation Filter for harmful training samples in active learning systems
US10845815B2 (en) * 2018-07-27 2020-11-24 GM Global Technology Operations LLC Systems, methods and controllers for an autonomous vehicle that implement autonomous driver agents and driving policy learners for generating and improving policies based on collective driving experiences of the autonomous driver agents
US11656620B2 (en) * 2018-12-31 2023-05-23 Luminar, Llc Generating environmental parameters based on sensor data using machine learning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008015966A1 (fr) * 2006-08-04 2008-02-07 Panasonic Corporation Indicateur d'informations de collision et procédé associé
JP2008250492A (ja) * 2007-03-29 2008-10-16 Toyota Motor Corp 運転者危険度取得装置
WO2009128398A1 (ja) * 2008-04-15 2009-10-22 日本電気株式会社 移動体警告装置、移動体警告方法および移動体警告プログラム
WO2014174656A1 (ja) * 2013-04-26 2014-10-30 株式会社 日立製作所 制御システム検査装置
EP2990899A1 (en) * 2013-04-26 2016-03-02 Hitachi, Ltd. Control system inspection device
CN107945574A (zh) * 2017-10-25 2018-04-20 东软集团股份有限公司 一种车辆碰撞预警方法、装置及设备

Also Published As

Publication number Publication date
WO2020183609A1 (ja) 2020-09-17
JP7046262B2 (ja) 2022-04-01
CN113519018A (zh) 2021-10-19
US20220169277A1 (en) 2022-06-02
JPWO2020183609A1 (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
CN113519018B (zh) 移动体控制装置和移动体控制方法
US10739773B2 (en) Generative adversarial inverse trajectory optimization for probabilistic vehicle forecasting
US10678252B2 (en) Systems, apparatus, and methods for embedded encodings of contextual information using a neural network with vector space modeling
US11814085B2 (en) System for grid-based merge cut-in prediction and method thereof
Lawitzky et al. Interactive scene prediction for automotive applications
US20210078168A1 (en) Method for generating a training data set for training an artificial intelligence module for a control device of a vehicle
EP3816864A1 (en) Device and method for the generation of synthetic data in generative networks
Remmen et al. Cut-in scenario prediction for automated vehicles
CN110663042A (zh) 交通参与者朝着自动化驾驶的车辆的方向的通信流
CN116523823A (zh) 用于半监督对象检测的鲁棒伪标签生成的系统和方法
US20230343153A1 (en) Method and system for testing a driver assistance system
CN114595738A (zh) 为识别模型生成训练数据的方法和生成识别模型的方法
CN115104132A (zh) 用于评价图像分类器的方法和装置
US20230177241A1 (en) Method for determining similar scenarios, training method, and training controller
JP2020187455A (ja) 物標識別装置および運転支援装置
Weber et al. Approach for improved development of advanced driver assistance systems for future smart mobility concepts
US11960292B2 (en) Method and system for developing autonomous vehicle training simulations
Reddy et al. Autonomous vehicle based on deep q-learning and yolov3 with data augmentation
Okuda et al. Multi-hierarchical modeling of driving behavior using dynamics-based mode segmentation
WO2021160273A1 (en) Computing system and method using end-to-end modeling for a simulated traffic agent in a simulation environment
JP7143538B2 (ja) 運転支援装置および運転支援方法
Nguyen et al. Modeling car-following behavior in downtown area based on unsupervised clustering and variable selection method
JP7370495B2 (ja) 制御装置および制御方法
Walke et al. Miniature model of autonomous vehicle using arduino UNO and open CV
CN117208019B (zh) 基于值分布强化学习的感知遮挡下纵向决策方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant