CN115617217A - 一种车辆状态的显示方法、装置、设备及可读存储介质 - Google Patents
一种车辆状态的显示方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN115617217A CN115617217A CN202211469865.3A CN202211469865A CN115617217A CN 115617217 A CN115617217 A CN 115617217A CN 202211469865 A CN202211469865 A CN 202211469865A CN 115617217 A CN115617217 A CN 115617217A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- information
- cluster
- environment information
- animal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/107—Longitudinal acceleration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
- B60W2520/105—Longitudinal acceleration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
Abstract
本发明提供了一种车辆状态的显示方法、装置、设备及可读存储介质,涉及无人驾驶车辆技术领域,包括将动物运动图像信息进行动物关节节点识别处理,并基于识别结果进行拟合,得到每帧图像的动作拟合曲线;将所有图像的动作拟合曲线进行聚类和分析,得到每个聚类簇对应的车辆运行参数;将车辆运行环境信息基于层次分析法进行分层,并基于分层结果与车辆运行参数信息进行映射,得到每个层级的车辆环境信息对应的车辆运行参数信息;基于所有聚类簇对应的车辆运行参数和所述第一信息确定所有层级的车辆环境信息对应的聚类簇和所述聚类簇的关键点,并将所述关键点发送至显示设备上进行显示,减少人机交互过程,达到快速交互和便于理解的效果。
Description
技术领域
本发明涉及无人驾驶车辆技术领域,具体而言,涉及一种车辆状态的显示方法、装置、设备及可读存储介质。
背景技术
现在无人驾驶汽车越来越多,而无人驾驶状态下,往往需要和其他道路使用者或者行人进行交互,现需要一种通过车身外部的信息与外部行人或车辆进行交互,使外部行人或车辆感知并理解到本车的行驶意图的方法及装置。
发明内容
本发明的目的在于提供一种车辆状态的显示方法、装置、设备及可读存储介质,以改善上述问题。为了实现上述目的,本发明采取的技术方案如下:
第一方面,本申请提供了一种车辆状态的显示方法,包括:
获取至少两帧动物运动图像信息、车辆运行环境信息和采集所述车辆运行环境信息时的车辆运行参数信息,所述车辆运行环境图像信息包括障碍物的位置、信号灯位置和人群位置的信息,所述车辆运行参数信息包括运行速度和运行加速度的信息;
将每帧所述动物运动图像信息进行动物关节节点识别处理,并基于识别结果进行拟合,得到每帧图像的动作拟合曲线;
将所有图像的动作拟合曲线进行聚类,并将聚类得到的聚类簇和所述车辆运行参数信息进行关联分析,得到每个聚类簇对应的车辆运行参数,所述聚类簇为包括至少一个动作拟合曲线的簇;
将所述车辆运行环境信息基于层次分析法进行分层,并基于分层结果与所述车辆运行参数信息进行映射,得到第一信息,所述第一信息包括至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息;
基于所有聚类簇对应的车辆运行参数和所述第一信息确定所有层级的车辆环境信息对应的聚类簇和所述聚类簇的关键点,并将所述关键点发送至显示设备上进行显示,所述关键点为动物的仿生运动点。
第二方面,本申请还提供了一种车辆状态的显示装置,包括:
获取单元,用于获取至少两帧动物运动图像信息、车辆运行环境信息和采集所述车辆运行环境信息时的车辆运行参数信息,所述车辆运行环境图像信息包括障碍物的位置、信号灯位置和人群位置的信息,所述车辆运行参数信息包括运行速度和运行加速度的信息;
处理单元,用于将每帧所述动物运动图像信息进行动物关节节点识别处理,并基于识别结果进行拟合,得到每帧图像的动作拟合曲线;
聚类单元,用于将所有图像的动作拟合曲线进行聚类,并将聚类得到的聚类簇和所述车辆运行参数信息进行关联分析,得到每个聚类簇对应的车辆运行参数,所述聚类簇为包括至少一个动作拟合曲线的簇;
分层单元,用于将所述车辆运行环境信息基于层次分析法进行分层,并基于分层结果与所述车辆运行参数信息进行映射,得到第一信息,所述第一信息包括至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息;
显示单元,用于基于所有聚类簇对应的车辆运行参数和所述第一信息确定所有层级的车辆环境信息对应的聚类簇和所述聚类簇的关键点,并将所述关键点发送至显示设备上进行显示,所述关键点为动物的仿生运动点。
第三方面,本申请还提供了一种车辆状态的显示设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现所述车辆状态的显示方法的步骤。
第四方面,本申请还提供了一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述基于车辆状态的显示方法的步骤。
本发明的有益效果为:
本发明通过对动物的运动图像进行识别分析和对车辆的运行参数信息进行分析,确定动物的动作与车辆运行参数的关联度,并将动物的动作姿态对应的关键点和车辆的运行参数进行映射,确定每个动物的动作和车辆的运行装置的映射关系,进而可以在车辆上显示动物动作的关键点,并以所述关键点表达车辆运行状态的意图,这样减少人机交互过程,达到快速交互和便于理解的效果。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例中所述的车辆状态的显示方法流程示意图;
图2为本发明实施例中所述的车辆状态的显示装置结构示意图;
图3为本发明实施例中所述的车辆状态的显示设备结构示意图。
图中标记:701、获取单元;702、处理单元;703、聚类单元;704、分层单元;705、显示单元;7021、第一处理子单元;7022、第二处理子单元;7023、第三处理子单元;7031、第一聚类子单元;7032、第二聚类子单元;7033、第一分析子单元;7034、第四处理子单元;7041、第二分析子单元;7042、第五处理子单元;7051、第六处理子单元;7052、第七处理子单元;7053、第一对比子单元;70521、第一计算子单元;70522、第二计算子单元;70523、第二对比子单元;800、车辆状态的显示设备;801、处理器;802、存储器;803、多媒体组件;804、I/O接口;805、通信组件。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相同的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1:
本实施例提供了一种车辆状态的显示方法。
参见图1,图中示出了本方法包括步骤S1、步骤S2、步骤S3、步骤S4和步骤S5。
步骤S1、获取至少两帧动物运动图像信息、车辆运行环境信息和采集所述车辆运行环境信息时的车辆运行参数信息,所述车辆运行环境图像信息包括障碍物的位置、信号灯位置和人群位置的信息,所述车辆运行参数信息包括运行速度和运行加速度的信息;
可以理解的是本步骤通过采集动物的运动图像信息和车辆四周的环境信息,优选的为采集车辆四周五十米内的障碍物的位置、信号灯位置和人群位置,其中人群位置可以换成其他道路使用者,例如其他无人驾驶设备等设备;并且同时采集车辆的运行参数信息,进而获取同一时间节点的车辆运行状态和车辆运行环境,并存储至存储设备为之后的交互做好准备。
步骤S2、将每帧所述动物运动图像信息进行动物关节节点识别处理,并基于识别结果进行拟合,得到每帧图像的动作拟合曲线;
可以理解的是本步骤通过对动物运动图像信息进行关节节点识别,获取动物在做不同动作时关节节点的位置,并进行拟合的到动物的动作拟合曲线,本步骤中,步骤S2包括步骤S21、步骤S22和步骤S23。
步骤S21、将每帧所述动物运动图像信息内所有的像素点进行二值化处理,得到二值化的动物运动图像;
可以理解的是本步骤通过将所有的动物运动图像内的像素点进行二值化处理,将背景和动物进行区分。
步骤S22、将所述二值化的动物图像进行降噪处理,并将降噪处理后的二值化的动物运动图像进行图像识别处理,其中通过基于Yolov3网络进行图像识别,得到每个动物运动图像内的动物关节节点信息;
可以理解的是本步骤中拍摄到的动物图像内可能动物不只一种,则对二值化后的图像进行降噪,删除不需要的动物图像,并基于Yolov3网络进行图像识别,快速高效的确定每个动物的关节节点,减少人工框选产生的误差和提高效率。
步骤S23、采用贝塞尔曲线将每个所述动物运动图像的动物关节节点信息进行轨迹拟合,得到每帧图像的动作拟合曲线。
可以理解的是本步骤中通过对每个动物的关节节点进行拟合,得到动物的动作拟合曲线,其中本步骤还可以通过插值法,对所有的关节节点进行插值,得到动作拟合曲线。
步骤S3、将所有图像的动作拟合曲线进行聚类,并将聚类得到的聚类簇和所述车辆运行参数信息进行关联分析,得到每个聚类簇对应的车辆运行参数,所述聚类簇为包括至少一个动作拟合曲线的簇;
可以理解的是本步骤通过将图像的动作拟合曲线进行聚类和关联分析,确定每个动作曲线和车辆运行参数之间的关联系数,进而将动物动作和车辆运行状态进行联系,本步骤中,步骤S3包括步骤S31、步骤S32、步骤S33和步骤S34。
步骤S31、基于K-means算法对所有的动作拟合曲线进行聚类处理,得到至少一个聚类簇,每个所述聚类簇包括至少一个动作拟合曲线;
可以理解的是本步骤中的动作拟合曲线有很多条,但是很多曲线为同一动作的曲线,例如动物加速时的曲线会有很多帧,就会产生很多曲线,因此本步骤采用聚类的方法,将所有的动作曲线进行聚类,达到多条曲线对应一个动作的目的。
步骤S32、将所有的聚类簇进行坐标转化,并基于拉依达准则确定每个聚类簇的最大阈值范围,得到每个聚类簇的最大阈值范围坐标;
可以理解的是本步骤通过将所有聚类簇进行坐标转化,并确定每个动作的最大范围,减少聚类的误差,防止不是这个动作的曲线,却被划分到这个动作内,达到提高准确率的目的。
步骤S33、将每个所述聚类簇的最大阈值范围坐标分别和所有的所述车辆运行参数进行一一关联度分析,其中将每个所述聚类簇的最大阈值范围的坐标分别和每个所述车辆运行参数进行无量纲化处理,并计算无量纲化处理后的每个聚类簇的最大阈值范围坐标和无量纲化处理后的车辆运行参数的关联度值;
步骤S34、将所述聚类簇的最大阈值范围坐标与其关联度值最大的车辆运行参数进行映射,确定每个聚类簇的最大阈值范围坐标对应的车辆运行参数,得到每个聚类簇对应的车辆运行参数。
可以理解的是本步骤中通过将所有的车辆运行参数分别和聚类簇的最大范围的坐标进行关联度分析,确定每个车辆运行参数与动作曲线的关联度值,这样可以将两者的联系进行量化,快速达到以动作曲线来描述车辆运行状态的目的。
步骤S4、将所述车辆运行环境信息基于层次分析法进行分层,并基于分层结果与所述车辆运行参数信息进行映射,得到第一信息,所述第一信息包括至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息;
可以理解的是本步骤通过对车辆运行环境进行分层,确定不同层级的车辆运行环境对应的不同的车辆运行参数,进而确定不同环境下的车辆运行状态,达到将环境和车辆运行状态联系起来的目的,本步骤中,步骤S4包括步骤S41和步骤S42。
步骤S41、将所述车辆运行环境信息进行层次分析,其中,将所有的所述车辆运行环境信息建立层次结构模型,然后依次对所述车辆运行环境信息中三个类别的运行环境信息的重要性进行比较,进而确定每个类别的运行环境信息的权重比例;
可以理解的是本步骤通过层次分析法建立层次结构模型,基于将车辆运行环境进行分层,其中,对不同层级的车辆运行环境进行分析,确定每个类别的运行环境的权重比例,为之后的分层提供依据,提高层次结构模型的鲁棒性。
步骤S42、基于所述权重比例和每个类别车辆环境信息的总数进行乘积运算,并按照所述乘积运算结果进行分层,并将分层后的车辆环境信息与对应的车辆运行参数进行映射,得到至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息。
可以理解的是本组通过将分层后的车辆环境信息和车辆运行参数进行映射,确定每个层级的环境信息和对应的车辆运行参数,为之后所述车辆运行环境和动物动作曲线联系起来做准备。
步骤S5、基于所有聚类簇对应的车辆运行参数和所述第一信息确定所有层级的车辆环境信息对应的聚类簇和所述聚类簇的关键点,并将所述关键点发送至显示设备上进行显示,所述关键点为动物的仿生运动点。
可以理解的是本步骤将车辆环境信息和动物动作曲线内的关键点进行联系,进而确定在不同的车辆环境下显示不同的关键点,本步骤中,步骤S5包括步骤S51、步骤S52和步骤S53。
步骤S51、将所有聚类簇对应的车辆运行参数和每个层级的车辆环境信息对应的车辆运行参数信息进行遍历,确定每个层级的车辆环境信息对应的聚类簇;
可以理解的是本步骤是为了将所述车辆运行参数对应的包含动作拟合曲线的聚类簇和车辆运行参数对应的每个层级的车辆环境信息进行对应,进而确定每个包含动作拟合曲线的聚类簇对应的车辆环境信息,进而达到在不同环境下显示不同的动作,达到不同环境表达车辆自身意图的目的。
步骤S52、将所述聚类簇发送至训练后的神经网络模型进行处理,确定每个聚类簇内的关键点,所述关键点为聚类簇内的最优显示点;
可以理解的是本步骤通过确定每个聚类簇捏的关键点,进而确定最适合表达车辆运行状态的显示点,本步骤中,步骤S52包括
步骤S521、将预设的历史聚类簇内的动作拟合曲线进行坐标转换,并基于多元自适应回归样条算法对所述历史聚类簇内的动作拟合曲线的坐标进行计算,确定每个动作拟合曲线的关键点坐标,并将计算得到的关键点坐标进行初始化处理,并基于预设的适应度函数计算每个粒子群中粒子的适应度大小,得到粒子的个体最优位置和全局最优位置;
步骤S522、基于粒子群优化算法内粒子更新速度公式和粒子更新位置公式不断更新所有粒子的速度和位置,直至所述粒子群优化算法达到预设的迭代次数,得到迭代后的关键点坐标信息;
步骤S523、将所述迭代后的关键点坐标信息和预设的历史关键点坐标信息进行对比,并将对比结果与预设阈值进行对比,若所述对比结果为所述迭代后的关键点坐标信息和预设的历史关键点坐标信息的误差大于预设阈值,则调整所述适应度函数,直至迭代后的关键点坐标信息和预设的历史关键点坐标信息的误差小于或等于预设阈值。
可以理解的是本步骤将多元自适应回归样条算法和粒子群优化算法进行结合,确定关键点的同时,还能确定最适合显示车辆运行状态的关键点,其中所述关键点还能针对于不同的运行环境进行自动改变,减少人工判断步骤。
步骤S53、将每个聚类簇的关键点进行对比,判断每个所述聚类簇的关键点形成的图像是否相同,若相同则重新选择关键点,若不相同,则将所述关键点发送在车辆的显示设备进行显示。
可以理解的是本步骤中判断每个所述聚类簇形成的关键点是否符合要求,如果不符合要求则调整适应度函数重新进行选择,并且本步骤中如果每个车辆环境对应的关键点相同,则代表出现异常,需要重新进行采集和计算,本步骤中的将所述关键点发送到车辆自身的柔性显示屏上进行显示,进而减少人们对于车外交互信息模式的学习需要以及消除语言障碍和文化差异,达到快速表现无人驾驶车辆运行状态的目的。
实施例2:
如图2所示,本实施例提供了一种车辆状态的显示装置,所述装置包括获取单元701、处理单元702、聚类单元703、分层单元704和显示单元705。
获取单元701,用于获取至少两帧动物运动图像信息、车辆运行环境信息和采集所述车辆运行环境信息时的车辆运行参数信息,所述车辆运行环境图像信息包括障碍物的位置、信号灯位置和人群位置的信息,所述车辆运行参数信息包括运行速度和运行加速度的信息;
处理单元702,用于将每帧所述动物运动图像信息进行动物关节节点识别处理,并基于识别结果进行拟合,得到每帧图像的动作拟合曲线;
聚类单元703,用于将所有图像的动作拟合曲线进行聚类,并将聚类得到的聚类簇和所述车辆运行参数信息进行关联分析,得到每个聚类簇对应的车辆运行参数,所述聚类簇为包括至少一个动作拟合曲线的簇;
分层单元704,用于将所述车辆运行环境信息基于层次分析法进行分层,并基于分层结果与所述车辆运行参数信息进行映射,得到第一信息,所述第一信息包括至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息;
显示单元705,用于基于所有聚类簇对应的车辆运行参数和所述第一信息确定所有层级的车辆环境信息对应的聚类簇和所述聚类簇的关键点,并将所述关键点发送至显示设备上进行显示,所述关键点为动物的仿生运动点。
在本公开的一种具体实施方式中,所述处理单元702包括第一处理子单元7021、第二处理子单元7022和第三处理子单元7023。
第一处理子单元7021,用于将每帧所述动物运动图像信息内所有的像素点进行二值化处理,得到二值化的动物运动图像;
第二处理子单元7022,用于将所述二值化的动物图像进行降噪处理,并将降噪处理后的二值化的动物运动图像进行图像识别处理,其中通过基于Yolov3网络进行图像识别,得到每个动物运动图像内的动物关节节点信息;
第三处理子单元7023,用于采用贝塞尔曲线将每个所述动物运动图像的动物关节节点信息进行轨迹拟合,得到每帧图像的动作拟合曲线。
在本公开的一种具体实施方式中,所述聚类单元703包括第一聚类子单元7031、第二聚类子单元7032、第一分析子单元7033和第四处理子单元7034。
第一聚类子单元7031,用于基于K-means算法对所有的动作拟合曲线进行聚类处理,得到至少一个聚类簇,每个所述聚类簇包括至少一个动作拟合曲线;
第二聚类子单元7032,用于将所有的聚类簇进行坐标转化,并基于拉依达准则确定每个聚类簇的最大阈值范围,得到每个聚类簇的最大阈值范围坐标;
第一分析子单元7033,用于将每个所述聚类簇的最大阈值范围坐标分别和所有的所述车辆运行参数进行一一关联度分析,其中将每个所述聚类簇的最大阈值范围的坐标分别和每个所述车辆运行参数进行无量纲化处理,并计算无量纲化处理后的每个聚类簇的最大阈值范围坐标和无量纲化处理后的车辆运行参数的关联度值;
第四处理子单元7034,用于将所述聚类簇的最大阈值范围坐标与其关联度值最大的车辆运行参数进行映射,确定每个聚类簇的最大阈值范围坐标对应的车辆运行参数,得到每个聚类簇对应的车辆运行参数。
在本公开的一种具体实施方式中,所述分层单元704包括第二分析子单元7041和第五处理子单元7042。
第二分析子单元7041,用于将所述车辆运行环境信息进行层次分析,其中,将所有的所述车辆运行环境信息建立层次结构模型,然后依次对所述车辆运行环境信息中三个类别的运行环境信息的重要性进行比较,进而确定每个类别的运行环境信息的权重比例;
第五处理子单元7042,用于基于所述权重比例和每个类别车辆环境信息的总数进行乘积运算,并按照所述乘积运算结果进行分层,并将分层后的车辆环境信息与对应的车辆运行参数进行映射,得到至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息。
在本公开的一种具体实施方式中,所述显示单元705包括第六处理子单元7051、第七处理子单元7052和第一对比子单元7053。
第六处理子单元7051,用于将所有聚类簇对应的车辆运行参数和每个层级的车辆环境信息对应的车辆运行参数信息进行遍历,确定每个层级的车辆环境信息对应的聚类簇;
第七处理子单元7052,用于将所述聚类簇发送至训练后的神经网络模型进行处理,确定每个聚类簇内的关键点,所述关键点为聚类簇内的最优显示点;
第一对比子单元7053,用于将每个聚类簇的关键点进行对比,判断每个所述聚类簇的关键点形成的图像是否相同,若相同则重新选择关键点,若不相同,则将所述关键点发送在车辆的显示设备进行显示。
在本公开的一种具体实施方式中,所述第七处理子单元7052包括第一计算子单元70521、第二计算子单元70522和第二对比子单元70523。
第一计算子单元70521,用于将预设的历史聚类簇内的动作拟合曲线进行坐标转换,并基于多元自适应回归样条算法对所述历史聚类簇内的动作拟合曲线的坐标进行计算,确定每个动作拟合曲线的关键点坐标,并将计算得到的关键点坐标进行初始化处理,并基于预设的适应度函数计算每个粒子群中粒子的适应度大小,得到粒子的个体最优位置和全局最优位置;
第二计算子单元70522,用于基于粒子群优化算法内粒子更新速度公式和粒子更新位置公式不断更新所有粒子的速度和位置,直至所述粒子群优化算法达到预设的迭代次数,得到迭代后的关键点坐标信息;
第二对比子单元70523,用于将所述迭代后的关键点坐标信息和预设的历史关键点坐标信息进行对比,并将对比结果与预设阈值进行对比,若所述对比结果为所述迭代后的关键点坐标信息和预设的历史关键点坐标信息的误差大于预设阈值,则调整所述适应度函数,直至迭代后的关键点坐标信息和预设的历史关键点坐标信息的误差小于或等于预设阈值。
需要说明的是,关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
实施例3:
相应于上面的方法实施例,本实施例中还提供了一种车辆状态的显示设备,下文描述的一种车辆状态的显示设备与上文描述的一种车辆状态的显示方法可相互对应参照。
图是根据示例性实施例示出的一种车辆状态的显示设备800的框图。如图所示,该车辆状态的显示设备800可以包括:处理器801,存储器802。该车辆状态的显示设备800还可以包括多媒体组件803, I/O接口804,以及通信组件805中的一者或多者。
其中,处理器801用于控制该车辆状态的显示设备800的整体操作,以完成上述的车辆状态的显示方法中的全部或部分步骤。存储器802用于存储各种类型的数据以支持在该车辆状态的显示设备800的操作,这些数据例如可以包括用于在该车辆状态的显示设备800上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器802可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-OnlyMemory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-OnlyMemory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件803可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器802或通过通信组件805发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口804为处理器801和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件805用于该车辆状态的显示设备800与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near FieldCommunication,简称NFC),2G、3G或4G,或它们中的一种或几种的组合,因此相应的该通信组件805可以包括:Wi-Fi模块,蓝牙模块,NFC模块。
在一示例性实施例中,车辆状态的显示设备800可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal ProcessingDevice,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的车辆状态的显示方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的车辆状态的显示方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器802,上述程序指令可由车辆状态的显示设备800的处理器801执行以完成上述的车辆状态的显示方法。
实施例4:
相应于上面的方法实施例,本实施例中还提供了一种可读存储介质,下文描述的一种可读存储介质与上文描述的一种车辆状态的显示方法可相互对应参照。
一种可读存储介质,可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例的车辆状态的显示方法的步骤。
该可读存储介质具体可以为U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可存储程序代码的可读存储介质。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种车辆状态的显示方法,其特征在于,包括:
获取至少两帧动物运动图像信息、车辆运行环境信息和采集所述车辆运行环境信息时的车辆运行参数信息,所述车辆运行环境图像信息包括障碍物的位置、信号灯位置和人群位置的信息,所述车辆运行参数信息包括运行速度和运行加速度的信息;
将每帧所述动物运动图像信息进行动物关节节点识别处理,并基于识别结果进行拟合,得到每帧图像的动作拟合曲线;
将所有图像的动作拟合曲线进行聚类,并将聚类得到的聚类簇和所述车辆运行参数信息进行关联分析,得到每个聚类簇对应的车辆运行参数,所述聚类簇为包括至少一个动作拟合曲线的簇;
将所述车辆运行环境信息基于层次分析法进行分层,并基于分层结果与所述车辆运行参数信息进行映射,得到第一信息,所述第一信息包括至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息;
基于所有聚类簇对应的车辆运行参数和所述第一信息确定所有层级的车辆环境信息对应的聚类簇和所述聚类簇的关键点,并将所述关键点发送至显示设备上进行显示,所述关键点为动物的仿生运动点。
2.根据权利要求1所述的车辆状态的显示方法,其特征在于,将每帧所述动物运动图像信息进行动物关节节点识别处理,并基于识别结果进行拟合,得到每帧图像的动作拟合曲线,包括:
将每帧所述动物运动图像信息内所有的像素点进行二值化处理,得到二值化的动物运动图像;
将所述二值化的动物图像进行降噪处理,并将降噪处理后的二值化的动物运动图像进行图像识别处理,其中通过基于Yolov3网络进行图像识别,得到每个动物运动图像内的动物关节节点信息;
采用贝塞尔曲线将每个所述动物运动图像的动物关节节点信息进行轨迹拟合,得到每帧图像的动作拟合曲线。
3.根据权利要求1所述的车辆状态的显示方法,其特征在于,所述将所有图像的动作拟合曲线进行聚类,并将聚类得到的聚类簇和所述车辆运行参数信息进行关联分析,得到每个聚类簇对应的车辆运行参数,包括:
基于K-means算法对所有的动作拟合曲线进行聚类处理,得到至少一个聚类簇,每个所述聚类簇包括至少一个动作拟合曲线;
将所有的聚类簇进行坐标转化,并基于拉依达准则确定每个聚类簇的最大阈值范围,得到每个聚类簇的最大阈值范围坐标;
将每个所述聚类簇的最大阈值范围坐标分别和所有的所述车辆运行参数进行一一关联度分析,其中将每个所述聚类簇的最大阈值范围的坐标分别和每个所述车辆运行参数进行无量纲化处理,并计算无量纲化处理后的每个聚类簇的最大阈值范围坐标和无量纲化处理后的车辆运行参数的关联度值;
将所述聚类簇的最大阈值范围坐标与其关联度值最大的车辆运行参数进行映射,确定每个聚类簇的最大阈值范围坐标对应的车辆运行参数,得到每个聚类簇对应的车辆运行参数。
4.根据权利要求1所述的车辆状态的显示方法,其特征在于,将所述车辆运行环境信息基于层次分析法进行分层,并基于分层结果与所述车辆运行参数信息进行映射,得到第一信息,包括:
将所述车辆运行环境信息进行层次分析,其中,将所有的所述车辆运行环境信息建立层次结构模型,然后依次对所述车辆运行环境信息中三个类别的运行环境信息的重要性进行比较,进而确定每个类别的运行环境信息的权重比例;
基于所述权重比例和每个类别车辆环境信息的总数进行乘积运算,并按照所述乘积运算结果进行分层,并将分层后的车辆环境信息与对应的车辆运行参数进行映射,得到至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息。
5.一种车辆状态的显示装置,其特征在于,包括:
获取单元,用于获取至少两帧动物运动图像信息、车辆运行环境信息和采集所述车辆运行环境信息时的车辆运行参数信息,所述车辆运行环境图像信息包括障碍物的位置、信号灯位置和人群位置的信息,所述车辆运行参数信息包括运行速度和运行加速度的信息;
处理单元,用于将每帧所述动物运动图像信息进行动物关节节点识别处理,并基于识别结果进行拟合,得到每帧图像的动作拟合曲线;
聚类单元,用于将所有图像的动作拟合曲线进行聚类,并将聚类得到的聚类簇和所述车辆运行参数信息进行关联分析,得到每个聚类簇对应的车辆运行参数,所述聚类簇为包括至少一个动作拟合曲线的簇;
分层单元,用于将所述车辆运行环境信息基于层次分析法进行分层,并基于分层结果与所述车辆运行参数信息进行映射,得到第一信息,所述第一信息包括至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息;
显示单元,用于基于所有聚类簇对应的车辆运行参数和所述第一信息确定所有层级的车辆环境信息对应的聚类簇和所述聚类簇的关键点,并将所述关键点发送至显示设备上进行显示,所述关键点为动物的仿生运动点。
6.根据权利要求5所述的车辆状态的显示装置,其特征在于,所述装置包括:
第一处理子单元,用于将每帧所述动物运动图像信息内所有的像素点进行二值化处理,得到二值化的动物运动图像;
第二处理子单元,用于将所述二值化的动物图像进行降噪处理,并将降噪处理后的二值化的动物运动图像进行图像识别处理,其中通过基于Yolov3网络进行图像识别,得到每个动物运动图像内的动物关节节点信息;
第三处理子单元,用于采用贝塞尔曲线将每个所述动物运动图像的动物关节节点信息进行轨迹拟合,得到每帧图像的动作拟合曲线。
7.根据权利要求5所述的车辆状态的显示装置,其特征在于,所述装置包括:
第一聚类子单元,用于基于K-means算法对所有的动作拟合曲线进行聚类处理,得到至少一个聚类簇,每个所述聚类簇包括至少一个动作拟合曲线;
第二聚类子单元,用于将所有的聚类簇进行坐标转化,并基于拉依达准则确定每个聚类簇的最大阈值范围,得到每个聚类簇的最大阈值范围坐标;
第一分析子单元,用于将每个所述聚类簇的最大阈值范围坐标分别和所有的所述车辆运行参数进行一一关联度分析,其中将每个所述聚类簇的最大阈值范围的坐标分别和每个所述车辆运行参数进行无量纲化处理,并计算无量纲化处理后的每个聚类簇的最大阈值范围坐标和无量纲化处理后的车辆运行参数的关联度值;
第四处理子单元,用于将所述聚类簇的最大阈值范围坐标与其关联度值最大的车辆运行参数进行映射,确定每个聚类簇的最大阈值范围坐标对应的车辆运行参数,得到每个聚类簇对应的车辆运行参数。
8.根据权利要求7所述的车辆状态的显示装置,其特征在于,所述装置包括:
第二分析子单元,用于将所述车辆运行环境信息进行层次分析,其中,将所有的所述车辆运行环境信息建立层次结构模型,然后依次对所述车辆运行环境信息中三个类别的运行环境信息的重要性进行比较,进而确定每个类别的运行环境信息的权重比例;
第五处理子单元,用于基于所述权重比例和每个类别车辆环境信息的总数进行乘积运算,并按照所述乘积运算结果进行分层,并将分层后的车辆环境信息与对应的车辆运行参数进行映射,得到至少两个层级的车辆环境信息和每个层级的车辆环境信息对应的车辆运行参数信息。
9.一种车辆状态的显示设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任一项所述车辆状态的显示方法的步骤。
10.一种可读存储介质,其特征在于:所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述车辆状态的显示方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211469865.3A CN115617217B (zh) | 2022-11-23 | 2022-11-23 | 一种车辆状态的显示方法、装置、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211469865.3A CN115617217B (zh) | 2022-11-23 | 2022-11-23 | 一种车辆状态的显示方法、装置、设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115617217A true CN115617217A (zh) | 2023-01-17 |
CN115617217B CN115617217B (zh) | 2023-03-21 |
Family
ID=84877661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211469865.3A Active CN115617217B (zh) | 2022-11-23 | 2022-11-23 | 一种车辆状态的显示方法、装置、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115617217B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189114A (zh) * | 2023-04-21 | 2023-05-30 | 西华大学 | 一种车辆碰撞痕迹鉴定方法及装置 |
CN116776501A (zh) * | 2023-08-18 | 2023-09-19 | 中铁工程设计咨询集团有限公司 | 一种道岔的弹性夹结构的设计方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN204546559U (zh) * | 2014-12-02 | 2015-08-12 | 遵义师范学院 | 机器人环境拟态系统 |
US20180345958A1 (en) * | 2017-06-01 | 2018-12-06 | Waymo Llc | Collision prediction system |
CN110406530A (zh) * | 2019-07-02 | 2019-11-05 | 宁波吉利汽车研究开发有限公司 | 一种自动驾驶方法、装置、设备和车辆 |
CN111587407A (zh) * | 2017-11-10 | 2020-08-25 | 辉达公司 | 用于安全且可靠的自主车辆的系统和方法 |
CN112046503A (zh) * | 2020-09-17 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的车辆控制方法、相关装置及存储介质 |
CN112949440A (zh) * | 2021-02-22 | 2021-06-11 | 豪威芯仑传感器(上海)有限公司 | 一种提取行人的步态特征的方法、步态识别方法及系统 |
WO2021137313A1 (ko) * | 2019-12-30 | 2021-07-08 | 주식회사 써로마인드로보틱스 | 자동차의 주변 상황이 위험상황인지를 판단하고 주행가이드를 생성하여 경보하여 주는 방법 및 이를 이용한 장치 |
-
2022
- 2022-11-23 CN CN202211469865.3A patent/CN115617217B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN204546559U (zh) * | 2014-12-02 | 2015-08-12 | 遵义师范学院 | 机器人环境拟态系统 |
US20180345958A1 (en) * | 2017-06-01 | 2018-12-06 | Waymo Llc | Collision prediction system |
CN111587407A (zh) * | 2017-11-10 | 2020-08-25 | 辉达公司 | 用于安全且可靠的自主车辆的系统和方法 |
CN110406530A (zh) * | 2019-07-02 | 2019-11-05 | 宁波吉利汽车研究开发有限公司 | 一种自动驾驶方法、装置、设备和车辆 |
WO2021137313A1 (ko) * | 2019-12-30 | 2021-07-08 | 주식회사 써로마인드로보틱스 | 자동차의 주변 상황이 위험상황인지를 판단하고 주행가이드를 생성하여 경보하여 주는 방법 및 이를 이용한 장치 |
CN112046503A (zh) * | 2020-09-17 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的车辆控制方法、相关装置及存储介质 |
CN112949440A (zh) * | 2021-02-22 | 2021-06-11 | 豪威芯仑传感器(上海)有限公司 | 一种提取行人的步态特征的方法、步态识别方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189114A (zh) * | 2023-04-21 | 2023-05-30 | 西华大学 | 一种车辆碰撞痕迹鉴定方法及装置 |
CN116189114B (zh) * | 2023-04-21 | 2023-07-14 | 西华大学 | 一种车辆碰撞痕迹鉴定方法及装置 |
CN116776501A (zh) * | 2023-08-18 | 2023-09-19 | 中铁工程设计咨询集团有限公司 | 一种道岔的弹性夹结构的设计方法及系统 |
CN116776501B (zh) * | 2023-08-18 | 2024-01-19 | 中铁工程设计咨询集团有限公司 | 一种道岔的弹性夹结构的设计方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115617217B (zh) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115617217B (zh) | 一种车辆状态的显示方法、装置、设备及可读存储介质 | |
US11501572B2 (en) | Object behavior anomaly detection using neural networks | |
US20230004802A1 (en) | Sharing Learned Information Among Robots | |
CN112052787B (zh) | 基于人工智能的目标检测方法、装置及电子设备 | |
CN110998604B (zh) | 有局部外观的对象的识别与重构 | |
KR102060662B1 (ko) | 차량의 주행 이벤트를 검출하는 전자 장치 및 방법 | |
CN113056743A (zh) | 训练神经网络以用于车辆重新识别 | |
WO2023065395A1 (zh) | 作业车辆检测与跟踪方法和系统 | |
CN110363816A (zh) | 一种基于深度学习的移动机器人环境语义建图方法 | |
US20110286676A1 (en) | Systems and related methods for three dimensional gesture recognition in vehicles | |
CN107146237B (zh) | 一种基于在线状态学习与估计的目标跟踪方法 | |
KR20180055708A (ko) | 이미지를 처리하는 전자 장치 및 방법 | |
EP4042318A1 (en) | System and method of generating a video dataset with varying fatigue levels by transfer learning | |
CN103105924B (zh) | 人机交互方法和装置 | |
CN111289998A (zh) | 障碍物检测方法、装置、存储介质以及车辆 | |
CN117157678A (zh) | 用于基于图的全景分割的方法和系统 | |
JP2021528757A (ja) | 機械学習モデルの出力から推論されるインスタンスセグメンテーション | |
KR20220113242A (ko) | 온-디바이스 활동 인식 | |
CN107240104A (zh) | 点云数据分割方法和终端 | |
CN107421557B (zh) | 导航目的地的确定方法、智能终端和具有存储功能的装置 | |
CN110263836B (zh) | 一种基于多特征卷积神经网络的不良驾驶状态识别方法 | |
CN114092920B (zh) | 一种模型训练的方法、图像分类的方法、装置及存储介质 | |
CN113449207A (zh) | 电子设备定位的方法、装置、服务器、系统以及存储介质 | |
CN111597987B (zh) | 用于生成信息的方法、装置、设备和存储介质 | |
CN114445716B (zh) | 关键点检测方法、装置、计算机设备、介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |