CN111507373A - 执行无缝参数变更的方法及装置 - Google Patents

执行无缝参数变更的方法及装置 Download PDF

Info

Publication number
CN111507373A
CN111507373A CN202010077090.XA CN202010077090A CN111507373A CN 111507373 A CN111507373 A CN 111507373A CN 202010077090 A CN202010077090 A CN 202010077090A CN 111507373 A CN111507373 A CN 111507373A
Authority
CN
China
Prior art keywords
kth
convolutional neural
neural network
target vehicle
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010077090.XA
Other languages
English (en)
Other versions
CN111507373B (zh
Inventor
金桂贤
金镕重
金鹤京
南云铉
夫硕熏
成明哲
申东洙
吕东勋
柳宇宙
李明春
李炯树
张泰雄
郑景中
诸泓模
赵浩辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of CN111507373A publication Critical patent/CN111507373A/zh
Application granted granted Critical
Publication of CN111507373B publication Critical patent/CN111507373B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)

Abstract

本发明公开通过选择基于位置的算法来执行无缝参数变更从而能够执行最佳自动驾驶的学习方法,其包括:步骤(a),若学习装置使第K卷积层在上述第K训练图像上施加至少一个第K卷积运算而生成第K特征地图;步骤(b),上述学习装置使第K输出层在上述第K特征地图上施加至少一个第K输出运算而生成第K预测自动驾驶源信息;步骤(c),上述学习装置使第K损失层参照上述第K预测自动驾驶源信息及与其对应的第K真值而生成第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的第K参数中的至少一部分;以及步骤(d),上述学习装置将第K位置信息标签化在上述第K卷积神经网络上并将标签化的第K卷积神经网络存储在数据库。

Description

执行无缝参数变更的方法及装置
技术领域
本发明涉及用于自动驾驶车辆的方法及装置,更详细地,涉及通过选择基于位置的算法来执行无缝(seamless)参数变更以能够在各个区域中执行最佳自动驾驶的方法及装置。
背景技术
深度卷积神经网络(Deep Convolutional Neural Network or Deep CNN)为深度学习领域中惊人发展的核心。在90年代,卷积神经网络已经用于解决字符识别问题,近来,广泛用于机器学习(Machine Learning)。例如,2012年,卷积神经网络在图像识别挑战赛(ImageNet Large Scale Visual Recognition Challenge)中战胜其他竞争对象夺得冠军。之后,卷积神经网络成为机器学习领域中非常有用的工具。
像这样的卷积神经网络广泛应用于自动驾驶领域。在自动驾驶领域中,卷积神经网络可执行检测客体、检测自由空间(free space)及语义分割(semantic segmentation)。
像这样,在自动驾驶领域中应用卷积神经网络的问题在于由于需要处理众多的卷积运算,所以需要大量的计算机电源。尤其在自动驾驶车辆中应用时,在车辆的计算机电源受到限制的情况下,卷积神经网络可能无法正常运行。
发明内容
本发明的目的在于解决上述问题。
本发明的再一目的在于,提供通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的方法。
并且,本发明的另一目的在于,提供通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法,使卷积神经网络(ConvolutionalNeural Network)较少消耗计算机资源。
并且,本发明的还有一个目的在于,提供通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法,使卷积神经网络可更准确地执行。
并且,本发明的又一目的在于,提供通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法,可使用各个时间范围的各个最佳的卷积神经网络。
用于达成如上所述的本发明的目的且实现下述的本发明的特征性效果的本发明的特征性结构如下。
本发明的一实施方式公开一种学习方法,通过选择基于位置的算法来执行无缝参数变更并使对象车辆能够在各个区域中执行最佳自动驾驶,其特征在于,包括:步骤(a),若学习装置获取对应至少一个第K区域的一个以上的第K训练图像,则使包括在上述学习装置的第一卷积神经网络至第M卷积神经网络中的一个第K卷积神经网络的至少一个第K卷积层在上述第K训练图像上施加至少一个第K卷积运算而生成一个以上的第K特征地图,其中,M为大于1的任意整数,K为1以上且M以下的整数;步骤(b),上述学习装置使上述第K卷积神经网络的至少一个第K输出层在上述第K特征地图上施加至少一个第K输出运算而生成一个以上的第K预测自动驾驶源信息;步骤(c),上述学习装置使上述第K卷积神经网络的至少一个第K损失层参照上述第K预测自动驾驶源信息及与其对应的一个以上的第K真值(groundtruth)而生成至少一个第K损失,利用上述第K损失执行反向传播(backpropagation),学习上述第K卷积神经网络的第K参数中的至少一部分;以及步骤(d),上述学习装置将上述第K区域的第K位置信息标签化(tagging)在上述第K卷积神经网络上并将标签化的上述第K卷积神经网络存储在数据库。
在一实施例中,还包括:步骤(e),上述学习装置执行步骤(i)及步骤(ii),在上述步骤(i)中,选自上述第一卷积神经网络至上述第M卷积神经网络,获取对与距上述第K区域的距离不足第一临界值的各个第K_1区域至第K_N区域对应的各个K_1卷积神经网络至第K_N卷积神经网络的信息,在上述步骤(ii)中,计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度,其中,N为大于0的任意整数;以及步骤(f),上述学习装置参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第二临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,生成与包括上述第K区域的第K广域区域对应的第K代表卷积神经网络。
在一实施例中,在上述步骤(e)中,上述学习装置根据下述数学式计算上述第K_1相似度至上述第K_N相似度,
数学式:
Figure BDA0002378751180000031
在上述数学式中,SK_Q是指上述第K_1相似度至上述第K_N相似度中的一个的第K_Q相似度,PKl是指上述第K参数的第l个构成参数,P(K_Q)l是指与上述第K_Q相似度对应的第K_Q卷积神经网络的第K_Q参数的第l个构成参数,其中,Q为1以上且N以下的整数。
在一实施例中,在上述步骤(f)中,上述学习装置在上述特定卷积神经网络及上述第K卷积神经网络中各个所有参数中,分别计算对与各个相对性相同位置对应的各个构成参数的平均,生成包括作为参数的上述平均的上述第K代表卷积神经网络。
在一实施例中,在上述第K广域区域内每个区域之间具有一个以上的包括地形特性、气象特性及建筑物布局特性中的至少一部分的共同特性。
在一实施例中,在上述步骤(a)中,上述学习装置反复执行使包括在上述第K卷积层的一个以上的各个第K卷积神经向输入到自身的值施加至少一个卷积运算并输出的值传递给自身的下一个第K卷积神经的流程,以使在上述第K训练图像施加上述第K卷积运算。
在一实施例中,在上述步骤(b)中,上述学习装置使由与上述第K卷积层对应的第K反卷积层实现的上述第K输出层将与第K反卷积运算对应的上述第K输出运算施加到上述第K特征地图,生成包括对与上述第K训练图像对应的第K预测分割图像的信息的上述第K预自动驾驶源信息。
在一实施例中,在上述步骤(b)中,上述学习装置使由第K全连接(Fully-Connected)层实现的上述第K输出层将与第K全连接网络运算对应的上述第K输出运算施加到上述第K特征地图,并生成包括对与上述第K训练图像对应的第K预测客体检测结果的信息的上述第K预自动驾驶源信息。
在一实施例中,在上述步骤(d)中,上述学习装置执行步骤(i)、步骤(ii)、步骤(iii)及步骤(iv),上述步骤(i)中,上述第K训练图像获取的与第K时点对应的第K时间信息一同在上述第K卷积神经网络标签化上述第K位置信息,将标签化的上述第K卷积神经网络存储在上述数据库,上述步骤(ii)中,获取选自上述第一卷积神经网络至上述第M卷积神经网络中的与上述第K时点的差为第三临界值以下的分别与第K_1时间至第K_N时点对应的各个第K_1卷积神经网络至第K_N卷积神经网络的信息,上述步骤(iii)中,计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度,上述步骤(iv)中,参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第四临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,生成包括上述第K时点的对应K时间范围的第K代表卷积神经网络。
本发明的再一实施方式公开一种测试方法,通过选择基于位置的算法来执行无缝参数变更并使对象车辆能够在各个区域中执行最佳自动驾驶,其特征在于,包括:步骤(a),上述步骤(a)执行流程(1)、流程(2)、流程(3)及流程(4),上述流程(1)中,若学习装置获取对应至少一个第K区域的一个以上的第K训练图像,则使包括在上述学习装置的第一卷积神经网络至第M卷积神经网络中的一个第K卷积神经网络的至少一个第K卷积层,在上述第K训练图像上施加至少一个第K卷积运算而生成一个以上的学习用第K特征地图,其中,M为大于1的任意整数,K为1以上且M以下的整数,上述流程(2)中,上述学习装置使上述第K卷积神经网络的至少一个第K输出层在上述学习用第K特征地图上施加至少一个第K输出运算而生成一个以上的学习用第K预测自动驾驶源信息,上述流程(3)中,上述学习装置使上述第K卷积神经网络的至少一个第K损失层参照上述学习用第K预测自动驾驶源信息及与其对应的一个以上的第K真值而生成至少一个第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的第K参数中的至少一部分,上述流程(4)中,在上述学习装置执行将上述第K区域的第K位置信息标签化在上述第K卷积神经网络上并将标签化的上述第K卷积神经网络存储在数据库的流程的状态下,测试装置在第K时点与上述对象车辆所处的上述第K区域对应的上述第K卷积神经网络,利用第K测试图像生成测试用第K预测自动驾驶源信息;以及步骤(b),上述测试装置使自动驾驶模块参照上述测试用第K预测自动驾驶源信息执行上述对象车辆的自动驾驶。
在一实施例中,在上述步骤(a)中,上述测试装置获取对包括上述第K区域的第K广域区域的第K代表卷积神经网络,使上述第K代表卷积神经网络生成上述测试用第K预自动驾驶源信息。
在一实施例中,在上述步骤(a)中生成上述测试用第K预测自动驾驶源信息的流程之前,还包括:步骤(a1),上述测试装置在上述第K时点之前的时点的第K-1时点上,在上述对象车辆位于与上述第K区域相邻的第K-1区域内的状态下,参照从搭载在上述对象车辆的全球定位系统(Global Positioning System)获取的目标位置信息,监测上述对象车辆在上述第K-1区域内第(K-1)_1细分区域中是否向上述第K-1区域内第(K-1)_2细分区域移动;以及步骤(a2),上述测试装置在感知到上述对象车辆在上述第(K-1)_1细分区域中向上述第(K-1)_2细分区域移动的情况下,参照上述对象车辆的预想移动路径,获取在上述第K时点上与上述对象车辆将要位于的上述第K区域对应的上述第K卷积神经网络。
在一实施例中,在上述步骤(a2)中执行如下步骤:步骤(i),在上述对象车辆向上述第(K-1)_2细分区域移动的时点上以自动驾驶模式动作的状态下,上述测试装置从上述自动驾驶模块获取对上述预想移动路径的信息;步骤(ii),在上述对象车辆向上述第(K-1)_2细分区域移动的时点上以半自动驾驶模式动作且上述对象车辆的目的地信息被输入到上述对象车辆的高级驾驶辅助系统(Advanced Driving Assistance System)的状态的情况下,上述测试装置参照从上述高级驾驶辅助系统获取的上述目的地信息,获取对上述预想移动路径的信息。
在一实施例中,在上述步骤(a2)中,在上述对象车辆向上述第(K-1)_2细分区域移动的视点以手动驾驶模式动作的状态或上述对象车辆以半自动驾驶模式动作但是上述对象车辆的目的地信息未被输入到上述对象车辆的高级驾驶辅助系统的状态的情况下,上述测试装置参照第K-P时点至上述第K-1时点的时间范围期间对上述对象车辆行驶的历史移动路径的信息执行逆向强化学习算法(Inverse Reinforcement Learning),获取上述预想移动路径,其中,P为1以上且T-1以下的整数。
在一实施例中,在上述步骤(a)中,在各个上述第一卷积神经网络至第M卷积神经网络与标签化与其对应的训练图像获取的各个获取位置及获取时点的信息一同存储在上述数据库的情况下,上述测试装置使对应上述第K区域并且还对应包括上述第K时点的第K时间范围的上述第K卷积神经网络生成上述测试用第K预测自动驾驶源信息。
本发明的另一实施方式公开一种学习装置,通过选择基于位置的算法来执行无缝参数变更并使对象车辆能够在各个区域中执行最佳自动驾驶,其特征在于,包括:至少一个存储器,用于存储一个以上的指令;以及至少一个处理器,配置为运行指令以执行如下流程:流程(I),若获取对应至少一个第K区域的一个以上的第K训练图像,则使包括在上述学习装置的第一卷积神经网络至第M卷积神经网络中的一个第K卷积神经网络的至少一个第K卷积层,在上述第K训练图像上施加至少一个第K卷积运算而生成一个以上的学习用第K特征地图,其中,M为大于1的任意整数,K为1以上且M以下的整数;流程(II),上述学习装置使上述第K卷积神经网络的至少一个第K输出层在上述学习用第K特征地图上施加至少一个第K输出运算而生成一个以上的学习用第K预测自动驾驶源信息;流程(III),上述学习装置使上述第K卷积神经网络的至少一个第K损失层参照上述学习用第K预测自动驾驶源信息及与其对应的一个以上的第K真值而生成至少一个第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的第K参数中的至少一部分;以及流程(IV),上述学习装置使上述第K区域的第K位置信息标签化在上述第K卷积神经网络上并将标签化的上述第K卷积神经网络存储在数据库的流程的状态下,测试装置在第K时点与上述对象车辆所处的上述第K区域对应的上述第K卷积神经网络,利用第K测试图像生成测试用第K预测自动驾驶源信息。
在一实施例中,上述处理器还执行流程(V)及流程(VI),上述流程(V)执行步骤(i)及步骤(ii),上述步骤(i)中,选自上述第一卷积神经网络至上述第M卷积神经网络,获取对与距上述第K区域的距离不足第一临界值的各个第K_1区域至第K_N区域对应的各个K_1卷积神经网络至第K_N卷积神经网络的信息,其中,N为大于0的任意整数,上述步骤(ii)中,计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度,上述流程(VI)中,参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第二临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,生成与包括上述第K区域的第K广域区域对应的第K代表卷积神经网络。
在一实施例中,在上述流程(V)中,上述处理器根据下述数学式计算上述第K_1相似度至上述第K_N相似度,
数学式:
Figure BDA0002378751180000071
上述数学式中,SK_Q是指上述第K_1相似度至上述第K_N相似度中的一个的第K_Q相似度,其中,Q为1以上且N以下的整数,PKl是指上述第K参数的第l个构成参数,P(K_Q)l是指与上述第K_Q相似度对应的第K_Q卷积神经网络的第K_Q参数的第l个构成参数。
在一实施例中,在上述流程(VI)中,上述处理器在上述特定卷积神经网络及上述第K卷积神经网络中各个所有参数中,分别计算对与各个相对性相同位置对应的各个构成参数的平均,生成包括作为参数的上述平均的上述第K代表卷积神经网络。
在一实施例中,在上述第K广域区域内每个区域之间具有一个以上的包括地形特性、气象特性及建筑物布局特性中的至少一部分的共同特性。
在一实施例中,在上述流程(I)中,上述处理器反复执行使包括在上述第K卷积层的一个以上的各个第K卷积神经向输入到自身的值施加至少一个卷积运算并输出的值传递给自身的下一个第K卷积神经的流程,以使在上述第K训练图像施加上述第K卷积运算。
在一实施例中,在上述流程(II)中,上述处理器使由与上述第K卷积层对应的第K反卷积层实现的上述第K输出层将与第K反卷积运算对应的上述第K输出运算施加到上述第K特征地图,生成包括对与上述第K训练图像对应的第K预测分割图像的信息的上述第K预测自动驾驶源信息。
在一实施例中,在上述流程(II)中,上述处理器使由第K全连接层实现的上述第K输出层将与第K全连接网络运算对应的上述第K输出运算施加到上述第K特征地图,并生成包括对与上述第K训练图像对应的第K预测客体检测结果的信息的上述第K预测自动驾驶源信息。
在一实施例中,在上述流程(IV)中,上述处理器执行步骤(i)、步骤(ii)、步骤(iii)及步骤(iv),上述步骤(i)中,上述第K训练图像获取的与第K时点对应的第K时间信息一同在上述第K卷积神经网络标签化上述第K位置信息,将标签化的上述第K卷积神经网络存储在上述数据库,上述步骤(ii)中,获取选自上述第一卷积神经网络至上述第M卷积神经网络中的与上述第K时点的差为第三临界值以下的分别与第K_1时间至第K_N时点对应的各个第K_1卷积神经网络至第K_N卷积神经网络的信息,上述步骤(iii)中,计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度,上述步骤(iv)中,参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第四临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,生成包括上述第K时点的对应K时间范围的第K代表卷积神经网络。
本发明的还有一实施方式公开一种测试装置,通过选择基于位置的算法来执行无缝参数变更并使对象车辆能够在各个区域中执行最佳自动驾驶,其特征在于,包括:至少一个存储器,用于存储一个以上的指令;以及至少一个处理器,配置为运行指令以执行流程(I)及流程(II),在流程(I)中包括流程(1)、流程(2)、流程(3)及流程(4),上述流程(1)中,若学习装置获取对应至少一个第K区域的一个以上的第K训练图像,则使包括在上述学习装置的第一卷积神经网络至第M卷积神经网络中的一个第K卷积神经网络的至少一个第K卷积层在上述第K训练图像上施加至少一个第K卷积运算而生成一个以上的学习用第K特征地图,其中,M为大于1的任意整数,K为1以上且M以下的整数,上述流程(2)中,上述学习装置使上述第K卷积神经网络的至少一个第K输出层在上述学习用第K特征地图上施加至少一个第K输出运算而生成一个以上的学习用第K预测自动驾驶源信息,上述流程(3)中,上述学习装置使上述第K卷积神经网络的至少一个第K损失层参照上述学习用第K预测自动驾驶源信息及与其对应的一个以上的第K真值而生成至少一个第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的第K参数中的至少一部分,上述流程(4)中,在上述学习装置执行将上述第K区域的第K位置信息标签化在上述第K卷积神经网络上并将标签化的上述第K卷积神经网络存储在数据库的流程的状态下,使在第K时点与上述对象车辆所处的上述第K区域对应的上述第K卷积神经网络,利用第K测试图像生成测试用第K预测自动驾驶源信息,在上述流程(II)中,使自动驾驶模块参照上述测试用第K预测自动驾驶源信息执行上述对象车辆的自动驾驶。
在一实施例中,在上述流程(I)中,上述处理器获取对包括上述第K区域的第K广域区域的第K代表卷积神经网络,使上述第K代表卷积神经网络生成上述测试用第K预自动驾驶源信息。
在一实施例中,在上述流程(I)中生成上述测试用第K预测自动驾驶源信息的流程之前,上述处理器还执行流程(I-1)及流程(I-2),上述流程(I-1),在上述第K时点之前的时点的第K-1时点上,在上述对象车辆位于与上述第K区域相邻的第K-1区域内的状态下,参照从搭载在上述对象车辆的全球定位系统获取的目标位置信息,监测上述对象车辆在上述第K-1区域内第(K-1)_1细分区域中是否向上述第K-1区域内第(K-1)_2细分区域移动,上述流程(I-2)中,上述处理器在感知到上述对象车辆在上述第(K-1)_1细分区域中向上述第(K-1)_2细分区域移动的情况下,参照上述对象车辆的预想移动路径,获取在上述第K时点上与上述对象车辆将要位于的上述第K区域对应的上述第K卷积神经网络。
在一实施例中,在上述流程(I-2)还执行如下步骤:步骤(i),在上述对象车辆向上述第(K-1)_2细分区域移动的时点上以自动驾驶模式动作的状态下,上述处理器从上述自动驾驶模块获取对上述预想移动路径的信息;步骤(ii),在上述对象车辆向上述第(K-1)_2细分区域移动的时点上以半自动驾驶模式动作且上述对象车辆的目的地信息被输入到上述对象车辆的高级驾驶辅助系统的状态的情况下,上述处理器参照从上述高级驾驶辅助系统获取的上述目的地信息,获取对上述预想移动路径的信息。
在一实施例中,在上述流程(I-2)中,在上述对象车辆向上述第(K-1)_2细分区域移动的视点以手动驾驶模式动作的状态或上述对象车辆以半自动驾驶模式动作但是上述对象车辆的目的地信息未被输入到上述对象车辆的高级驾驶辅助系统的状态的情况下,上述处理器参照第K-P时点至上述第K-1时点的时间范围期间对上述对象车辆行驶的历史移动路径的信息执行逆向强化学习算法,获取上述预想移动路径,其中,P为1以上且T-1以下的整数。
在一实施例中,在上述流程(I)中,在各个上述第一卷积神经网络至第M卷积神经网络与标签化与其对应的训练图像获取的各个获取位置及获取时点的信息一同存储在上述数据库的情况下,上述处理器使对应上述第K区域并且还对应包括上述第K时点的第K时间范围的上述第K卷积神经网络生成上述测试用第K预测自动驾驶源信息。
另外,还提供用于记录用于执行本发明的方法的计算机程序的计算机可读记录介质。
根据本发明,具有可提供通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的方法的效果。
并且,根据本发明,具有提供通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法,使卷积神经网络(Convolutional NeuralNetwork)较少消耗计算机资源的效果。
并且,根据本发明,具有提供通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法,使卷积神经网络可更准确地执行的效果。
并且,根据本发明,具有提供通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法,可使用各个时间范围的最佳的各个卷积神经网络的效果。
附图说明
本发明的上述及其他目的及特征将通过下面的附图及一同给出的优选实施例变得显而易见。
为了说明本发明实施例,所附的以下附图仅为本发明的实施例中的一部分,本发明所属技术领域的普通技术人员(以下,“普通技术人员”)可以在不付出创造性劳动的情况下,通过这些附图获得其他附图。
图1为简要示出用于执行本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的方法的计算机装置的结构的图。
图2为简要示出为了执行本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法而使用的第K卷积神经网络的结构的图。
图3为简要示出本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法的图。
图4为简要示出为了执行本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法而使用的在第K训练图像中的一个及与上述第K训练图像的区域相似的至少一个区域进行了摄像,但与上述第K训练图像不同的训练图像的实施例的图。
图5为简要示出本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法而使用的第(K-1)_1细分区域及第(K-1)_2细分区域的图。
具体实施方式
为了使本发明的目的、技术手段及优点更加明确,将以本发明能够实施的特定实施例为例并参照附图对本发明进行详细说明。为了普通技术人员能够充分实施本发明而详细说明这些实施例。
并且,在本发明的详细说明及发明要求保护范围中,术语“包括”及其变形并非意图为排除其他技术特征、附加物、结构要素或步骤等。普通技术人员可以从本说明书得知本发明的其他目的、优点及特性的一部分,且可以在实施本发明的过程中得知一部分。以下例示及附图仅作为实例来提供,而本发明并不限定于此。
尤其,应理解,本发明包括本说明书中提供的多个实施例的所有组合。本发明的各种实施例虽然互不相同但不必相互排斥。例如,本文所记载的特定形状、结构及特性,在一实施例中不脱离本发明的思想及范围的情况下还可以实现为另一实施例。并且,应理解,所公开的每个实施例中的个别结构要素的位置或配置可以在不脱离本发明的思想及范围的情况下进行变更。因此,后述的详细说明并不用于限定本发明,只要能够进行适当的说明,本发明的范围应根据与发明要求保护范围等同的所有范围和所附的发明要求保护范围而被限定。附图中类似的附图标记在多个方面指类似的功能。
本发明中所提及的各种图像可以包括柏油马路或非柏油马路的相关图像,在这种情况下,可以假设包括马路环境中可以出现的物体(假如车辆、人、动物、植物、物体、建筑物、飞机或无人机等飞行物、其他障碍物),但并不必须限定于此。本发明中所提及的各种图像还可以为与马路无关的图像(假如非柏油马路、胡同、空地、海、湖、河、山、树林、沙漠、天空、与室内相关的图像),在这种情况下,可以假设包括非柏油马路、胡同、空地、海、湖、河、山、树林、沙漠、天空、室内环境中可以出现的物体(假如车辆、人、动物、植物、物体、建筑物、飞机或无人机等飞行物、其他障碍物),但并不必须限定于此。
以下,为了使本发明所属技术领域的普通技术人员容易实施本发明,参照附图详细地说明本发明的优选实施例。
图1为简要示出用于执行本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的方法的计算机装置的结构的图。
参照图1,上述学习装置100可包括数据库200,以后将要详细说明的存储有结构要素的第一卷积神经网络至第M卷积神经网络。上述数据库200的输入、输出及运算过程可通过各个至少一个通信部110及至少一个处理器120实现。但是,图1中省略了上述通信部110及上述处理器120的具体的连接关系。在此情况下,上述存储器115可以为存储后述的多种指令的状态,上述处理器120设定为执行存储在上述存储器115的上述指令,并可通过执行上述指令来运行以后将要说明的本发明的流程。即使像这样描述上述学习装置100,也不排除上述学习装置100包括具有用于实施本发明的处理器、存储器、介质(medium)或其他计算机要素集成形态的集成处理器。
以上对本发明实施例的通过选择基于位置的算法来执行无缝参数变更并使在各个区域中执行最佳自动驾驶的方法的上述学习装置100的结构进行了了解。以下,为了说明执行无缝参数变更的学习方法,参照图2,了解第K卷积神经网络210的结构。
图2为简要示出为了执行本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法而使用的第K卷积神经网络的结构的图。
参照图2,上述第K卷积神经网络210可包括至少一个第K卷积层211、至少一个第K输出层212及至少一个第K损失层213。若以后将要说明的一个以上的第K训练图像输入至上述第K卷积神经网络210,可通过上述第K卷积层211及上述第K输出层212被处理(processing)。其中,上述第K卷积层211可执行第K卷积运算,具体地,上述学习装置100重复使包括在上述第K卷积层的一个以上的各个第K卷积神经向输入到自身的值施加至少一个卷积运算并将输出的值传递给自身的下一个第K卷积神经的流程,以使在上述第K训练图像可施加上述第K卷积运算。作为上述第K卷积运算的结果,可生成一个以上的第K特征地图。
上述第K特征地图可输入至上述第K输出层212,上述第K输出层212可将其根据实施例的其他方式处理。具体地,在以后将要说明的上述第K卷积神经网络210的输出的第K预测自动驾驶源信息上包括上述第K训练图像的分割信息的情况下,上述第K输出层212能够以对应上述第K卷积层的第K反卷积层的形态被实现。在此情况下,上述第K输出层212将第K输出运算施加到上述第K特征地图,可生成包括对与上述第K训练图像对应的第K预测分割图像的信息的上述第K预测自动驾驶源信息。
或者,在上述第K预测自动驾驶源信息上包括对上述第K训练图像内客体的信息的情况下,上述第K输出层212能够以第K全连接层的形态被实现。在此情况下,上述第K输出层212将上述第K输出运算施加到上述第K特征地图,可生成包括与第K预测客体检测结果有关的信息的上述第K预测自动驾驶源信息,上述第K预测客体检测结果的信息与上述第K训练图像有关。
像这样,若第K预测自动驾驶源信息被获取,则上述第K损失层213参照上述第K预测自动驾驶源信息及与其对应的一个以上的第K真值(ground truth),生成至少一个第K损失,利用上述第K损失执行反向传播(backpropagation),可学习上述第K卷积神经网络210的第K参数中至少一部分。像这样的上述第K卷积神经网络210可通过由上述第K卷积层211、上述第K输出层212及上述第K损失层213执行的上述流程,可以为用于生成在对应上述第K卷积神经网络的上述第K区域中执行自动驾驶所需的信息的最佳状态。
以下,参照图3,将具体说明上述第K卷积神经网络210的上述学习方法。
图3为简要示出本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法的图。
参照图3,若上述学习装置100获取对应上述第K区域的上述第K训练图像,则可使上述第K卷积神经网络210的上述第K卷积层211在上述第K训练图像上施加上述第K卷积运算而生成上述第K特征地图(步骤S01)。而且,上述学习装置100可使上述第K卷积神经网络210的上述第K输出层212在上述第K特征地图上施加上述第K输出运算而生成上述第K预测自动驾驶源信息(步骤S02)。之后,上述学习装置100使上述第K卷积神经网络210的上述第K损失层213参照上述第K预测自动驾驶源信息及与其对应的上述第K真值而生成上述第K损失,利用上述第K损失执行反向传播,可学习上述第K卷积神经网络的上述第K参数中的至少一部分(步骤S03)。之后,上述学习装置100将上述第K区域的第K位置信息标签化在上述第K卷积神经网络210上并将上述标签化的第K卷积神经网络存储在上述数据库(步骤S04)。
以上的步骤为本发明的上述学习方法的基本步骤,以下,将说明上述学习方法的附加步骤。上述学习装置100可获取与邻近上述第K位置的位置对应的邻近卷积神经网络,上述邻近卷积神经网络的一部分可与上述第K卷积神经网络210集成。具体地,上述学习装置100选自上述第一卷积神经网络至上述第M卷积神经网络,获取对与距上述第K区域的距离不足第一临界值的各个第K_1区域至第K_N区域(N为大于0的任意整数)对应的各个K_1卷积神经网络至第K_N卷积神经网络的信息。其中,两个区域之间的上述距离可通过比较各个上述两个区域的中心点或者比较在各个上述两个区域内统计性地车辆主要所处的特定地点来被计算,但是,并不局限于此。若获取与上述第K_1卷积神经网络至上述第K_N卷积神经网络有关的信息,则上述学习装置100可计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度。之后,上述学习装置100参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第二临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,可生成与包括上述第K区域及与其相邻的区域中的至少一部分的与第K广域区域对应的第K代表卷积神经网络。
如一例,可根据下述数学式计算上述第K_1相似度至上述第K_N相似度。
数学式:
Figure BDA0002378751180000161
在上述数学式中,S(K_Q)是指上述第K_1相似度至上述第K_N相似度中的一个的第K_Q相似度(Q为1以上且N以下的整数),PKl是指上述第K参数的第l个构成参数,P(K_Q)l可指与上述第K_Q相似度对应的第K_Q卷积神经网络的第K_Q参数的第l个构成参数。即,在上述K_Q卷积神经网络及上述K卷积神经网络的每个所有参数中,求与各个相对的相同位置对应的各个构成参数之间的差值,将其平方后相加,可生成上述第K_Q相似度。
像这样,若利用计算的上述第K_1相似度至上述第K_N相似度来确定上述特定卷积神经网络,则上述学习装置100可分别计算上述特定卷积神经网络及上述第K卷积神经网络210的每个所有参数中与各个相对性相同位置对应的各个构成参数的平均。
以下,将简要说明为何需要如上所述的过程。首先,上述学习装置100获取的上述第K_1卷积神经网络至上述第K_N卷积神经网络可以为利用用于学习上述第K卷积神经网络210由上述第K训练图像获取的地点的与上述第K区域近的地点获取的图像学习的状态。这样的与卷积神经网络有关的信息由上述学习装置100获取理由为,当对象车辆位于包括上述第K区域及与其相邻的区域中至少一部分的上述第K广域区域时需要利用的最佳的卷积神经网络,即,用于生成上述第K代表卷积神经网络。之后,上述学习装置100可在上述第K_1卷积神经网络至上述K_N卷积神经网络中选择参数与上述第K卷积神经网络的参数相似的上述特定卷积神经网络。其中,若上述特定卷积神经网络的参数与上述第K卷积神经网络的参数之间的差的相加不足临界值或上述差的平方的相加不足其他临界值,上述特定卷积神经网络的参数与上述第K卷积神经网络的参数相似。所有上述邻近卷积神经网络并不适合集成在上述第K卷积神经网络,但是,在上述邻近卷积神经网络中,与上述第K卷积神经网络相似的至少一个卷积神经网络,即,上述至少一个特定卷积神经网络适合与上述第K卷积神经网络集成,因此,上述特定卷积神经网络还应在上述邻近卷积神经网络中额外地被选择。即,在与上述第K区域近的地点获取的图像中的一部分可包括图像中一部分被拍摄的时点的情况或根据被拍摄的方向而不同的场景,这可诱发上述图像中与一部分对应的邻近卷积神经网络与上述第K卷积神经网络之间的差。在此情况下,由于利用不同图像而使与上述第K卷积神经网络210的差大的上述邻近卷积神经网络中一部分与上述第K卷积神经网络集成的卷积神经网络,即,使上述第K代表卷积神经网络不能适当地发挥功能,因此,上述特定卷积神经网络应被选择。参照图4,观察这样的不同的场景的一例示。
图4为简要示出为了执行本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法而使用的在第K训练图像中的一个及与上述第K训练图像的区域相似的至少一个区域进行了摄像,但与上述第K训练图像不同的训练图像的实施例的图。
参照图4,可确认用于学习上述第K训练图像中的一个的特定第K训练图像410及上述第K_1卷积神经网络至上述第K_N卷积神经网络中属于非上述特定卷积神经网络的一个卷积神经网络而使用的例示图像420。上述特定第K训练图像410为沿着右侧为河的河边马路行驶的车辆拍摄的图像,上述例示图像420为沿着同一河边马路的相反方向,即沿着左侧为上述河的河边马路形式的车辆拍摄的图像。其中,利用与上述特定第K训练图像410相似的上述第K训练图像学习的状态的上述第K卷积神经网络210相对于输入其的图像的右侧区域将包括相对较小的参数且相对于左侧区域及中心区域将包括相对较大的参数。与此相比,利用与上述例示图像420相似的至少一个图像学习的属于非上述特定卷积神经网络的卷积神经网络可以为以相对于输入其的图像的左侧区域包括小的参数且相对于右侧区域及中心区域包括大的参数的方式学习的状态。参照上述特定第K训练图像410学习的卷积神经网络及参照上述例示图像420学习的卷积神经网络均与第K区域对应,但是,由于两个卷积神经网络的特性不同,因此,需将其分离。生成上述第K_1相似度上述第K_N相似度的前述过程用于将具有相似关系的卷积神经网络分离为上述两个卷积神经网络。
利用如上所述的过程选择的上述特定卷积神经网络及上述第K卷积神经网络210生成的上述第K代表卷积神经网络覆盖的区域的上述第K广域区域内每个区域之间可具有一个以上的共同特性,上述共同特性包括地形特性、气象特性及建筑物布局特性中的至少一部分。如一例示,上述第K广域区域内每个区域可与沿着左侧为上述河的河边马路对应,上述第K代表卷积神经网络可提取与输入其的图像的中心区域及右侧区域的信息。如另一例示,上述第K广域区域内每个区域可与经常起雾的溪谷,上述第K代表卷积神经网络可以为以检测输入其的图像上模糊显示的客体的方式的最佳状态。
以上过程为对以基于位置生成最佳卷积神经网络的方法的基本实施例。以下,作为另外的实施例,将说明基于位置及时间生成最佳卷积神经网络的方法。
即,再次参照图3,在上述基本实施例的上述步骤S04中,上述第K位置信息标签化在上述第K卷积神经网络210上并存储在上述数据库200,在上述另外的实施例的情况下,与上述第K训练图像获得第K时点对应的第K时间信息可与上述第K位置信息一同标签化在上述第K卷积神经网络210。之后,上述学习装置100可获得选自上述第一卷积神经网络至第N卷积神经网络中分别对应与上述第K时点的差为第三临界值以下的第K_1时点至第K_N时点的每个第K_1卷积神经网络至第K_N卷积神经网络的信息。之后,上述学习装置100可计算上述第K_1卷积神经网络第第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度。而且,参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第四临界值以上的一个以上的其他特定卷积神经网络及上述第K卷积神经网络中的至少一部分,可生成与包括上述第K时点的第K时间范围对应的第K代表卷积神经网络。在此情况下,上述第K时间范围可以为从上述第K时点的x秒前的时点至上述第K时点的y秒后的时点的时间范围。即使是相同地区,由于根据昼夜其图像不同,因此,像这样的实施例可能是有效的。其中,如上述第K_1卷积神经网络至上述第K_N卷积神经网络及上述相似度的标记中的一部分与上述基本实施例相同,但是,上述标记的含义可能不同。
以下,将说明本发明的测试方法。
首先,测试装置可以为与对象车辆联动的计算机装置。在此情况下,流程(1),上述学习装置100获取对应上述第K区域的上述第K训练图像,则使包括在上述学习装置的上述第一卷积神经网络至上述第M卷积神经网络中的一个上述第K卷积神经网络210(M为大于1的任意整数,K为1以上且M以下的整数)的上述第K卷积层211,在上述第K训练图像施加上述第K卷积运算而生成一个以上的学习用第K特征地图,流程(2),上述学习装置100使上述第K卷积神经网络210的上述第K输出层212在上述学习用第K特征地图上施加上述第K输出运算而生成一个以上的学习用第K预测自动驾驶源信息,流程(3),上述学习装置100使上述第K卷积神经网络210的上述第K损失层213参照上述学习用第K预测自动驾驶源信息及与其对应的上述第K真值而生成上述第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的上述第K参数中的至少一部分,流程(4),上述学习装置100使上述第K区域的第K位置信息标签化在上述第K卷积神经网络上,在执行将标签化的上述第K卷积神经网络存储在上述数据库200的流程的状态下,上述测试装置在测试用第K时点与上述对象车辆所处的上述第K区域对应的上述第K卷积神经网络210,可利用第K测试图像生成测试用第K预测自动驾驶源信息。
而且,上述测试装置可使自动驾驶模块参照上述测试用第K预测自动驾驶源信息执行上述对象车辆的自动驾驶。
在生成上述第K代表卷积神经网络的状态的一实施例中,上述测试装置使属于非上述第K卷积神经网络210的上述第K代表卷积神经网络生成上述测试用第K预测自动驾驶源信息。
如上所述的第K卷积神经网络210或第K代表卷积神经网络可以为在上述对象车辆进入上述第K区域或上述第K广域区域之前从上述数据库200获取的。以下,将说明如何获取上述第K卷积神经网络210或上述第K代表卷积神经网络,为了便于说明,以下的说明对应于获取上述第K卷积神经网络210的情况。
首先,在上述对象车辆位于上述第K时点之前的时点的第K-1时点与上述第K区域相邻的第K-1区域内的状态下,上述测试装置参照从搭载在上述对象车辆的全球定位系统(Global Positioning System)获取的目标位置信息可监测上述对象车辆是否从上述第K-1区域内第(K-1)_1细分区域向上述第K-1区域内第(K-1)_2细分区域进行移动。
为了说明这样的过程,将参照图5。
图5为简要示出本发明一实施例的通过选择基于位置的算法来执行无缝参数变更以能够在各个区域中执行最佳自动驾驶的上述方法而使用的第(K-1)_1细分区域及第(K-1)_2细分区域的图。
参照图5,可以确认:上述第(K-1)_1细分区域可以为位于上述第K-1区域的中心的位置,上述第(K-1)_2细分区域可以为位于上述第K-1区域的边缘的位置。在上述对象车辆从上述第(K-1)_1细分区域向上述第(K-1)_2细分区域移动的情况下,可以看成上述对象车辆想要向对应其他卷积神经网络的其他细分区域移动,应监测这样的移动。
在感知到上述对象车辆从上述第(K-1)_1细分区域向上述第(K-1)_2细分区域移动的情况下,上述测试装置参照上述对象车辆的预想移动路径,可获取在上述第K时点上上述对象车辆所处的对应上述第K区域的上述第K卷积神经网络210。以下,对上述预想移动路径的获取方式进行说明。
在假设上述对象车辆在向上述第(K-1)_2细分区域移动的时点上以自动驾驶模式动作的状态的情况下,上述测试装置可从上述自动驾驶模块获取与上述预想移动路径相关的信息。或者,在上述对象车辆向上述第(K-1)_2细分区域移动的时点以半自动驾驶模式动作且上述对象车辆的目的地信息被输入到高级驾驶辅助系统(Advanced DrivingAssistance System)的状态的情况下,上述测试装置可从上述高级驾驶辅助系统获取与上述预想移动路径有关的信息。
与此不同地,在上述对象车辆向上述第(K-1)_2细分区域移动的时点以手动驾驶模式动作的状态或上述对象车辆以上述半自动驾驶模式动作但是上述对象车辆的目的地信息未被输入到上述对象车辆的上述高级驾驶辅助系统的情况下,上述测试装置参照第K-P时点至上述第K-1时点的时间范围期间对上述对象车辆行驶的历史移动路径的信息执行逆向强化学习(Inverse Reinforcement Learning),获取上述预想移动路径。在此情况下,P为1以上且T-1以下的整数。由于为了生成上述预想移动路径将上述逆向强化学习算法适用于与上述历史移动路径有关的信息的这样的过程通过齐博特(Ziebart)等发表的“Maximum Entropy Inverse Reinforcement Learning”论文揭示过,因此,普通技术人员可轻松地理解上述说明。
另一方面,在对基于时间的最佳卷积神经网络的前述的另外的实施例适用于上述测试方法的情况下,可根据与时间有关的信息获取上述第K卷积神经网络。即,在各个上述第一卷积神经网络至第M卷积神经网络与标签化与其对应的训练图像获取的各个获取位置及各个获取时点的信息一同存储在上述数据库的情况下,上述测试装置参照测试用第K位置信息及测试用第K时间信息发送查询(query),可获取上述第K卷积神经网络,使与包括上述第K时点的上述第K时间范围及上述第K区域对应的上述第K卷积神经网络,可生成上述测试用第K预测自动驾驶源信息。在此情况下,如一例,对于沿着上述河为汽车左侧的河边马路的早上时间段,最佳上述第K卷积神经网络可用于执行自动驾驶。
若利用如上所述的方法,则由于可活用各个状况的最佳各个卷积神经网络,因此可更有效地执行自动驾驶。
以上说明的本发明的实施例能够以通过各种计算机结构要素执行的程序命令的形态实现并存储在计算机可读记录介质。上述计算机可读记录介质可以单独包括程序命令、数据文件、数据结构等或者可以包括它们的组合。上述计算机可读记录介质中记录的程序命令可以是为了本发明特殊设计并构成的,或者可以是由计算机软件领域的普通技术人员公知使用的。作为计算机可读记录介质的例,包括硬盘、软盘及磁带等磁介质、CD-ROM、DVD等光记录介质、光磁软盘(flopticaldisk)等磁光介质(magneto-optical media)、以及ROM、RAM、快闪存储器等为了存储并执行程序命令而特殊构成的硬件装置。作为程序命令的例,不仅包括由编译器制作的机器语言代码,而且还包括利用解析器等能够由计算机执行的高级语言代码。上述硬件装置为了执行本发明的处理而能够以一个以上软件模块运行,反之亦然。
以上,通过具体结构要素等特定事项和所限定的实施例及附图进行了说明,但这仅用于提供对本发明的更全面的理解,而本发明并不限定于上述实施例,本发明所属技术领域的普通技术人员可以从这些记载进行各种修改及变形。
因此,本发明的思想并不局限于上述所说明的实施例,发明要求保护范围及其等同或等价变形的所有内容均属于本发明的思想范畴内。

Claims (30)

1.一种学习方法,通过选择基于位置的算法来执行无缝参数变更并使对象车辆能够在各个区域中执行最佳自动驾驶,其特征在于,包括:
步骤(a),若学习装置获取对应至少一个第K区域的一个以上的第K训练图像,则使包括在上述学习装置的第一卷积神经网络至第M卷积神经网络中的一个第K卷积神经网络的至少一个第K卷积层在上述第K训练图像上施加至少一个第K卷积运算而生成一个以上的第K特征地图,其中,M为大于1的任意整数,K为1以上且M以下的整数;
步骤(b),上述学习装置使上述第K卷积神经网络的至少一个第K输出层在上述第K特征地图上施加至少一个第K输出运算而生成一个以上的第K预测自动驾驶源信息;
步骤(c),上述学习装置使上述第K卷积神经网络的至少一个第K损失层参照上述第K预测自动驾驶源信息及与其对应的一个以上的第K真值而生成至少一个第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的第K参数中的至少一部分;以及
步骤(d),上述学习装置将上述第K区域的第K位置信息标签化在上述第K卷积神经网络上并将标签化的上述第K卷积神经网络存储在数据库。
2.根据权利要求1所述的方法,其特征在于,还包括:
步骤(e),上述学习装置执行步骤(i)及步骤(ii),在上述步骤(i)中,选自上述第一卷积神经网络至上述第M卷积神经网络,获取对与距上述第K区域的距离不足第一临界值的各个第K_1区域至第K_N区域对应的各个K_1卷积神经网络至第K_N卷积神经网络的信息,在上述步骤(ii)中,计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度,其中,N为大于0的任意整数;以及
步骤(f),上述学习装置参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第二临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,生成与包括上述第K区域的第K广域区域对应的第K代表卷积神经网络。
3.根据权利要求2所述的方法,其特征在于,
在上述步骤(e)中,
上述学习装置根据下述数学式计算上述第K_1相似度至上述第K_N相似度,
数学式:
Figure FDA0002378751170000021
在上述数学式中,SK_Q是指上述第K_1相似度至上述第K_N相似度中的一个的第K_Q相似度,PKl是指上述第K参数的第l个构成参数,P(K_Q)l是指与上述第K_Q相似度对应的第K_Q卷积神经网络的第K_Q参数的第l个构成参数,其中,Q为1以上且N以下的整数。
4.根据权利要求2所述的方法,其特征在于,在上述步骤(f)中,上述学习装置在上述特定卷积神经网络及上述第K卷积神经网络中各个所有参数中,分别计算对与各个相对性相同位置对应的各个构成参数的平均,生成包括作为参数的上述平均的上述第K代表卷积神经网络。
5.根据权利要求2所述的方法,其特征在于,在上述第K广域区域内每个区域之间具有一个以上的包括地形特性、气象特性及建筑物布局特性中的至少一部分的共同特性。
6.根据权利要求1所述的方法,其特征在于,在上述步骤(a)中,上述学习装置反复执行使包括在上述第K卷积层的一个以上的各个第K卷积神经向输入到自身的值施加至少一个卷积运算并将输出的值传递给自身的下一个第K卷积神经的流程,以使在上述第K训练图像施加上述第K卷积运算。
7.根据权利要求1所述的方法,其特征在于,在上述步骤(b)中,上述学习装置使由与上述第K卷积层对应的第K反卷积层实现的上述第K输出层将与第K反卷积运算对应的上述第K输出运算施加到上述第K特征地图,生成包括对与上述第K训练图像对应的第K预测分割图像的信息的上述第K预自动驾驶源信息。
8.根据权利要求1所述的方法,其特征在于,在上述步骤(b)中,上述学习装置使由第K全连接层实现的上述第K输出层将与第K全连接网络运算对应的上述第K输出运算施加到上述第K特征地图,并生成包括对与上述第K训练图像对应的第K预测客体检测结果的信息的上述第K预自动驾驶源信息。
9.根据权利要求1所述的方法,其特征在于,在上述步骤(d)中,上述学习装置执行步骤(i)、步骤(ii)、步骤(iii)及步骤(iv),上述步骤(i)中,上述第K训练图像获取的与第K时点对应的第K时间信息一同在上述第K卷积神经网络标签化上述第K位置信息,将标签化的上述第K卷积神经网络存储在上述数据库,上述步骤(ii)中,获取选自上述第一卷积神经网络至上述第M卷积神经网络中的与上述第K时点的差为第三临界值以下的分别与第K_1时间至第K_N时点对应的各个第K_1卷积神经网络至第K_N卷积神经网络的信息,上述步骤(iii)中,计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度,上述步骤(iv)中,参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第四临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,生成包括上述第K时点的对应K时间范围的第K代表卷积神经网络。
10.一种测试方法,通过选择基于位置的算法来执行无缝参数变更并使对象车辆能够在各个区域中执行最佳自动驾驶,其特征在于,包括:
步骤(a),上述步骤(a)执行流程(1)、流程(2)、流程(3)及流程(4),上述流程(1)中,若学习装置获取对应至少一个第K区域的一个以上的第K训练图像,则使包括在上述学习装置的第一卷积神经网络至第M卷积神经网络中的一个第K卷积神经网络的至少一个第K卷积层,在上述第K训练图像上施加至少一个第K卷积运算而生成一个以上的学习用第K特征地图,其中,M为大于1的任意整数,K为1以上且M以下的整数,上述流程(2)中,上述学习装置使上述第K卷积神经网络的至少一个第K输出层在上述学习用第K特征地图上施加至少一个第K输出运算而生成一个以上的学习用第K预测自动驾驶源信息,上述流程(3)中,上述学习装置使上述第K卷积神经网络的至少一个第K损失层参照上述学习用第K预测自动驾驶源信息及与其对应的一个以上的第K真值而生成至少一个第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的第K参数中的至少一部分,上述流程(4)中,在上述学习装置执行将上述第K区域的第K位置信息标签化在上述第K卷积神经网络上并将标签化的上述第K卷积神经网络存储在数据库的流程的状态下,测试装置在第K时点与上述对象车辆所处的上述第K区域对应的上述第K卷积神经网络,利用第K测试图像生成测试用第K预测自动驾驶源信息;以及
步骤(b),上述测试装置使自动驾驶模块参照上述测试用第K预测自动驾驶源信息执行上述对象车辆的自动驾驶。
11.根据权利要求10所述的方法,其特征在于,在上述步骤(a)中,上述测试装置获取对包括上述第K区域的第K广域区域的第K代表卷积神经网络,使上述第K代表卷积神经网络生成上述测试用第K预自动驾驶源信息。
12.根据权利要求10所述的方法,其特征在于,
在上述步骤(a)中生成上述测试用第K预测自动驾驶源信息的流程之前,还包括:
步骤(a1),上述测试装置在上述第K时点之前的时点的第K-1时点上,在上述对象车辆位于与上述第K区域相邻的第K-1区域内的状态下,参照从搭载在上述对象车辆的全球定位系统获取的目标位置信息,监测上述对象车辆在上述第K-1区域内第(K-1)_1细分区域中是否向上述第K-1区域内第(K-1)_2细分区域移动;以及
步骤(a2),上述测试装置在感知到上述对象车辆在上述第(K-1)_1细分区域中向上述第(K-1)_2细分区域移动的情况下,参照上述对象车辆的预想移动路径,获取在上述第K时点上与上述对象车辆将要位于的上述第K区域对应的上述第K卷积神经网络。
13.根据权利要求12所述的方法,其特征在于,在上述步骤(a2)中执行如下步骤:步骤(i),在上述对象车辆向上述第(K-1)_2细分区域移动的时点上以自动驾驶模式动作的状态下,上述测试装置从上述自动驾驶模块获取对上述预想移动路径的信息,步骤(ii),在上述对象车辆向上述第(K-1)_2细分区域移动的时点上以半自动驾驶模式动作且上述对象车辆的目的地信息被输入到上述对象车辆的高级驾驶辅助系统的状态的情况下,上述测试装置参照从上述高级驾驶辅助系统获取的上述目的地信息,获取对上述预想移动路径的信息。
14.根据权利要求12所述的方法,其特征在于,在上述步骤(a2)中,在上述对象车辆向上述第(K-1)_2细分区域移动的视点以手动驾驶模式动作的状态或上述对象车辆以半自动驾驶模式动作但是上述对象车辆的目的地信息未被输入到上述对象车辆的高级驾驶辅助系统的状态的情况下,上述测试装置参照第K-P时点至上述第K-1时点的时间范围期间对上述对象车辆行驶的历史移动路径的信息执行逆向强化学习算法,获取上述预想移动路径,其中,P为1以上且T-1以下的整数。
15.根据权利要求10所述的方法,其特征在于,在上述步骤(a)中,在各个上述第一卷积神经网络至第M卷积神经网络与标签化与其对应的训练图像获取的各个获取位置及获取时点的信息一同存储在上述数据库的情况下,上述测试装置使对应上述第K区域并且还对应包括上述第K时点的第K时间范围的上述第K卷积神经网络生成上述测试用第K预测自动驾驶源信息。
16.一种学习装置,通过选择基于位置的算法来执行无缝参数变更并使对象车辆能够在各个区域中执行最佳自动驾驶,其特征在于,包括:
至少一个存储器,用于存储一个以上的指令;以及
至少一个处理器,配置为运行指令以执行如下流程:流程(I),若获取对应至少一个第K区域的一个以上的第K训练图像,则使包括在上述学习装置的第一卷积神经网络至第M卷积神经网络中的一个第K卷积神经网络的至少一个第K卷积层,在上述第K训练图像上施加至少一个第K卷积运算而生成一个以上的学习用第K特征地图,其中,M为大于1的任意整数,K为1以上且M以下的整数;流程(II),上述学习装置使上述第K卷积神经网络的至少一个第K输出层在上述学习用第K特征地图上施加至少一个第K输出运算而生成一个以上的学习用第K预测自动驾驶源信息;流程(III),上述学习装置使上述第K卷积神经网络的至少一个第K损失层参照上述学习用第K预测自动驾驶源信息及与其对应的一个以上的第K真值而生成至少一个第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的第K参数中的至少一部分;以及流程(IV),上述学习装置使上述第K区域的第K位置信息标签化在上述第K卷积神经网络上并将标签化的上述第K卷积神经网络存储在数据库的程序的状态下,测试装置在第K时点与上述对象车辆所处的上述第K区域对应的上述第K卷积神经网络,利用第K测试图像生成测试用第K预测自动驾驶源信息。
17.根据权利要求16所述的装置,其特征在于,上述处理器还执行流程(V)及流程(VI),上述流程(V)执行步骤(i)及步骤(ii),上述步骤(i)中,选自上述第一卷积神经网络至上述第M卷积神经网络,获取对与距上述第K区域的距离不足第一临界值的各个第K_1区域至第K_N区域对应的各个K_1卷积神经网络至第K_N卷积神经网络的信息,其中,N为大于0的任意整数,上述步骤(ii),计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度,上述流程(VI)中,参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第二临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,生成与包括上述第K区域的第K广域区域对应的第K代表卷积神经网络。
18.根据权利要求17所述的装置,其特征在于,
在上述流程(V)中,
上述处理器根据下述数学式计算上述第K_1相似度至上述第K_N相似度,
数学式:
Figure FDA0002378751170000071
上述数学式中,SK_Q是指上述第K_1相似度至上述第K_N相似度中的一个的第K_Q相似度,其中,Q为1以上且N以下的整数,PKl是指上述第K参数的第l个构成参数,P(K_Q)l是指与上述第K_Q相似度对应的第K_Q卷积神经网络的第K_Q参数的第l个构成参数。
19.根据权利要求17所述的装置,其特征在于,在上述流程(VI)中,上述处理器在上述特定卷积神经网络及上述第K卷积神经网络中各个所有参数中,分别计算对与各个相对性相同位置对应的各个构成参数的平均,生成包括作为参数的上述平均的上述第K代表卷积神经网络。
20.根据权利要求17所述的装置,其特征在于,在上述第K广域区域内每个区域之间具有一个以上的包括地形特性、气象特性及建筑物布局特性中的至少一部分的共同特性。
21.根据权利要求16所述的装置,其特征在于,在上述流程(I)中,上述处理器反复执行使包括在上述第K卷积层的一个以上的各个第K卷积神经向输入到自身的值施加至少一个卷积运算并输出的值传递给自身的下一个第K卷积神经的流程,以使在上述第K训练图像施加上述第K卷积运算。
22.根据权利要求16所述的装置,其特征在于,在上述流程(II)中,上述处理器使由与上述第K卷积层对应的第K反卷积层实现的上述第K输出层将与第K反卷积运算对应的上述第K输出运算施加到上述第K特征地图,生成包括对与上述第K训练图像对应的第K预测分割图像的信息的上述第K预测自动驾驶源信息。
23.根据权利要求16所述的装置,其特征在于,在上述流程(II)中,上述处理器使由第K全连接层实现的上述第K输出层将与第K全连接网络运算对应的上述第K输出运算施加到上述第K特征地图,并生成包括对与上述第K训练图像对应的第K预测客体检测结果的信息的上述第K预测自动驾驶源信息。
24.根据权利要求16所述的装置,其特征在于,在上述流程(IV)中,上述处理器执行步骤(i)、步骤(ii)、步骤(iii)及步骤(iv),上述步骤(i)中,上述第K训练图像获取的与第K时点对应的第K时间信息一同在上述第K卷积神经网络标签化上述第K位置信息,将标签化的上述第K卷积神经网络存储在上述数据库,上述步骤(ii)中,获取选自上述第一卷积神经网络至上述第M卷积神经网络中的与上述第K时点的差为第三临界值以下的分别与第K_1时间至第K_N时点对应的各个第K_1卷积神经网络至第K_N卷积神经网络的信息,上述步骤(iii)中,计算上述第K_1卷积神经网络的第K_1参数与上述第K参数之间的第K_1相似度至上述第K_N卷积神经网络的第K_N参数与上述第K参数之间的第K_N相似度,上述步骤(iv)中,参照上述第K_1卷积神经网络至上述第K_N卷积神经网络中相似度为第四临界值以上的一个以上的特定卷积神经网络及上述第K卷积神经网络中的至少一部分,生成包括上述第K时点的对应K时间范围的第K代表卷积神经网络。
25.一种测试装置,通过选择基于位置的算法来执行无缝参数变更并使对象车辆能够在各个区域中执行最佳自动驾驶,其特征在于,包括:
至少一个存储器,用于存储一个以上的指令;以及
至少一个处理器,配置为运行指令以执行流程(I)及流程(II),在流程(I)中包括流程(1)、流程(2)、流程(3)及流程(4),上述流程(1)中,若学习装置获取对应至少一个第K区域的一个以上的第K训练图像,则使包括在上述学习装置的第一卷积神经网络至第M卷积神经网络中的一个第K卷积神经网络的至少一个第K卷积层在上述第K训练图像上施加至少一个第K卷积运算而生成一个以上的学习用第K特征地图,其中,M为大于1的任意整数,K为1以上且M以下的整数,上述流程(2)中,上述学习装置使上述第K卷积神经网络的至少一个第K输出层在上述学习用第K特征地图上施加至少一个第K输出运算而生成一个以上的学习用第K预测自动驾驶源信息,上述流程(3)中,上述学习装置使上述第K卷积神经网络的至少一个第K损失层参照上述学习用第K预测自动驾驶源信息及与其对应的一个以上的第K真值而生成至少一个第K损失,利用上述第K损失执行反向传播,学习上述第K卷积神经网络的第K参数中的至少一部分,上述流程(4)中,在上述学习装置执行将上述第K区域的第K位置信息标签化在上述第K卷积神经网络上并将标签化的上述第K卷积神经网络存储在数据库的流程的状态下,使在第K时点与上述对象车辆所处的上述第K区域对应的上述第K卷积神经网络,利用第K测试图像生成测试用第K预测自动驾驶源信息,在上述流程(II)中,使自动驾驶模块参照上述测试用第K预测自动驾驶源信息执行上述对象车辆的自动驾驶。
26.根据权利要求25所述的装置,其特征在于,在上述流程(I)中,上述处理器获取对包括上述第K区域的第K广域区域的第K代表卷积神经网络,使上述第K代表卷积神经网络生成上述测试用第K预自动驾驶源信息。
27.根据权利要求25所述的装置,其特征在于,在上述流程(I)中生成上述测试用第K预测自动驾驶源信息的流程之前,上述处理器还执行流程(I-1)及流程(I-2),上述流程(I-1)中,在上述第K时点之前的时点的第K-1时点上,在上述对象车辆位于与上述第K区域相邻的第K-1区域内的状态下,参照从搭载在上述对象车辆的全球定位系统获取的目标位置信息,监测上述对象车辆在上述第K-1区域内第(K-1)_1细分区域中是否向上述第K-1区域内第(K-1)_2细分区域移动,上述流程(I-2)中,上述处理器在感知到上述对象车辆在上述第(K-1)_1细分区域中向上述第(K-1)_2细分区域移动的情况下,参照上述对象车辆的预想移动路径,获取在上述第K时点上与上述对象车辆将要位于的上述第K区域对应的上述第K卷积神经网络。
28.根据权利要求27所述的装置,其特征在于,在上述流程(I-2)还执行如下步骤:步骤(i),在上述对象车辆向上述第(K-1)_2细分区域移动的时点上以自动驾驶模式动作的状态下,上述处理器从上述自动驾驶模块获取对上述预想移动路径的信息;步骤(ii),在上述对象车辆向上述第(K-1)_2细分区域移动的时点上以半自动驾驶模式动作且上述对象车辆的目的地信息被输入到上述对象车辆的高级驾驶辅助系统的状态的情况下,上述处理器参照从上述高级驾驶辅助系统获取的上述目的地信息,获取对上述预想移动路径的信息。
29.根据权利要求27所述的装置,其特征在于,在上述流程(I-2)中,在上述对象车辆向上述第(K-1)_2细分区域移动的视点以手动驾驶模式动作的状态或上述对象车辆以半自动驾驶模式动作但是上述对象车辆的目的地信息未被输入到上述对象车辆的高级驾驶辅助系统的状态的情况下,上述处理器参照第K-P时点至上述第K-1时点的时间范围期间对上述对象车辆行驶的历史移动路径的信息执行逆向强化学习算法,获取上述预想移动路径,其中,P为1以上且T-1以下的整数。
30.根据权利要求25所述的装置,其特征在于,在上述流程(I)中,在各个上述第一卷积神经网络至第M卷积神经网络与标签化与其对应的训练图像获取的各个获取位置及获取时点的信息一同存储在上述数据库的情况下,上述处理器使对应上述第K区域并且还对应包括上述第K时点的第K时间范围的上述第K卷积神经网络生成上述测试用第K预测自动驾驶源信息。
CN202010077090.XA 2019-01-30 2020-01-23 执行无缝参数变更的方法及装置 Active CN111507373B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962798821P 2019-01-30 2019-01-30
US62/798,821 2019-01-30
US16/731,083 2019-12-31
US16/731,083 US10890916B2 (en) 2019-01-30 2019-12-31 Location-specific algorithm selection for optimized autonomous driving

Publications (2)

Publication Number Publication Date
CN111507373A true CN111507373A (zh) 2020-08-07
CN111507373B CN111507373B (zh) 2023-09-08

Family

ID=69187573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010077090.XA Active CN111507373B (zh) 2019-01-30 2020-01-23 执行无缝参数变更的方法及装置

Country Status (5)

Country Link
US (1) US10890916B2 (zh)
EP (1) EP3690725A1 (zh)
JP (1) JP7092383B2 (zh)
KR (1) KR102373472B1 (zh)
CN (1) CN111507373B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598402B1 (ko) * 2018-07-24 2023-11-06 현대자동차 주식회사 기어 검사장치 및 이를 이용한 기어 검사방법
US11880997B2 (en) 2020-08-28 2024-01-23 Samsung Electronics Co., Ltd. Method and apparatus with pose estimation
US11938941B2 (en) 2020-08-31 2024-03-26 Denso International America, Inc. Mode selection according to system conditions
KR102345267B1 (ko) * 2020-10-12 2021-12-31 서울대학교산학협력단 목표 지향적 강화학습 방법 및 이를 수행하기 위한 장치
KR102588450B1 (ko) * 2021-11-02 2023-10-13 주식회사 오비고 특정 사용자의 자율주행 경험 만족도 제고를 위한 자율주행 알고리즘 개인화 방법 및 장치
KR102421289B1 (ko) * 2022-01-03 2022-07-18 주식회사 아라종합기술 패러렐 디시전 보팅 알고리즘에 따른 영상기반 시정 탐지 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
CN117593686B (zh) * 2024-01-19 2024-04-09 福思(杭州)智能科技有限公司 基于车况真值数据的模型评测方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170262750A1 (en) * 2016-03-11 2017-09-14 Panasonic Intellectual Property Corporation Of America Risk prediction method
US10007269B1 (en) * 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
US20180239969A1 (en) * 2017-02-23 2018-08-23 Ford Global Technologies, Llc Free Space Detection Using Monocular Camera and Deep Learning
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
US20190004533A1 (en) * 2017-07-03 2019-01-03 Baidu Usa Llc High resolution 3d point clouds generation from downsampled low resolution lidar 3d point clouds and camera images
US10176388B1 (en) * 2016-11-14 2019-01-08 Zoox, Inc. Spatial and temporal information for semantic segmentation
US20190156485A1 (en) * 2017-11-21 2019-05-23 Zoox, Inc. Sensor data segmentation
JP2019125113A (ja) * 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010049323A1 (en) * 2000-02-10 2001-12-06 Fox Gary T. Treadmill
US10019652B2 (en) * 2016-02-23 2018-07-10 Xerox Corporation Generating a virtual world to assess real-world video analysis performance
US10390003B1 (en) * 2016-08-29 2019-08-20 Perceptln Shenzhen Limited Visual-inertial positional awareness for autonomous and non-autonomous device
US10108850B1 (en) * 2017-04-24 2018-10-23 Intel Corporation Recognition, reidentification and security enhancements using autonomous machines
US10192113B1 (en) * 2017-07-05 2019-01-29 PerceptIn, Inc. Quadocular sensor design in autonomous platforms
US10496104B1 (en) * 2017-07-05 2019-12-03 Perceptin Shenzhen Limited Positional awareness with quadocular sensor in autonomous platforms
US10095977B1 (en) * 2017-10-04 2018-10-09 StradVision, Inc. Learning method and learning device for improving image segmentation and testing method and testing device using the same
US10089743B1 (en) * 2017-10-05 2018-10-02 StradVision, Inc. Method for segmenting an image and device using the same
US10049323B1 (en) * 2017-10-13 2018-08-14 StradVision, Inc. Method and device for performing activation and convolution operation at the same time and learning method and learning device for the same
US10007865B1 (en) * 2017-10-16 2018-06-26 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same
US10902615B2 (en) * 2017-11-13 2021-01-26 Qualcomm Incorporated Hybrid and self-aware long-term object tracking
US11080886B2 (en) * 2017-11-15 2021-08-03 Qualcomm Incorporated Learning disentangled invariant representations for one shot instance recognition
US10324467B1 (en) * 2017-12-29 2019-06-18 Apex Artificial Intelligence Industries, Inc. Controller systems and methods of limiting the operation of neural networks to be within one or more conditions
US20190361454A1 (en) * 2018-05-24 2019-11-28 GM Global Technology Operations LLC Control systems, control methods and controllers for an autonomous vehicle
US10311578B1 (en) * 2019-01-23 2019-06-04 StradVision, Inc. Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170262750A1 (en) * 2016-03-11 2017-09-14 Panasonic Intellectual Property Corporation Of America Risk prediction method
US10176388B1 (en) * 2016-11-14 2019-01-08 Zoox, Inc. Spatial and temporal information for semantic segmentation
US20180239969A1 (en) * 2017-02-23 2018-08-23 Ford Global Technologies, Llc Free Space Detection Using Monocular Camera and Deep Learning
US10007269B1 (en) * 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
US20190004533A1 (en) * 2017-07-03 2019-01-03 Baidu Usa Llc High resolution 3d point clouds generation from downsampled low resolution lidar 3d point clouds and camera images
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
US20190156485A1 (en) * 2017-11-21 2019-05-23 Zoox, Inc. Sensor data segmentation
JP2019125113A (ja) * 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
KR102373472B1 (ko) 2022-03-14
EP3690725A1 (en) 2020-08-05
CN111507373B (zh) 2023-09-08
JP7092383B2 (ja) 2022-06-28
US10890916B2 (en) 2021-01-12
KR20200094655A (ko) 2020-08-07
US20200241544A1 (en) 2020-07-30
JP2020123346A (ja) 2020-08-13

Similar Documents

Publication Publication Date Title
CN111507373A (zh) 执行无缝参数变更的方法及装置
US10410120B1 (en) Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same
CN111506058B (zh) 通过信息融合来计划自动驾驶的短期路径的方法及装置
US20200349362A1 (en) Method of Computer Vision Based Localisation and Navigation and System for Performing the Same
CN108073170B (zh) 用于自主车辆的自动化协同驾驶控制
CN109815300B (zh) 一种车辆定位方法
US10919543B2 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
CN111507172A (zh) 通过预测周围物体移动支持安全的自动驾驶的方法和装置
US10796206B2 (en) Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same
CN111507369B (zh) 自动行驶车辆空间学习方法及装置、测试方法及装置
US10733511B1 (en) Learning method and learning device for updating HD map by reconstructing 3D space by using depth estimation information and class information on each object, which have been acquired through V2X information integration technique, and testing method and testing device using the same
US10402686B1 (en) Learning method and learning device for object detector to be used for surveillance based on convolutional neural network capable of converting modes according to scales of objects, and testing method and testing device using the same
CN111736586A (zh) 用于路径规划的自动驾驶车辆位置的方法及其装置
KR20160048530A (ko) 자율 이동 차량의 경로 생성 방법 및 경로 생성 장치
DE102021114724A1 (de) Verbesserter fahrzeugbetrieb
US10445611B1 (en) Method for detecting pseudo-3D bounding box to be used for military purpose, smart phone or virtual driving based-on CNN capable of converting modes according to conditions of objects and device using the same
US11254331B2 (en) Learning method and learning device for updating object detector, based on deep learning, of autonomous vehicle to adapt the object detector to driving circumstance, and updating method and updating device using the same
US20210295531A1 (en) System and method for trajectory prediction using a predicted endpoint conditioned network
CN111507154B (zh) 使用横向滤波器掩膜来检测车道线元素的方法和装置
Dogruer et al. Novel solutions for Global Urban Localization
Neves et al. Buildings and Vehicles Discrimination in Drone Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant