CN117962930A - 无人车的控制方法及装置、无人车和计算机可读存储介质 - Google Patents
无人车的控制方法及装置、无人车和计算机可读存储介质 Download PDFInfo
- Publication number
- CN117962930A CN117962930A CN202410382351.7A CN202410382351A CN117962930A CN 117962930 A CN117962930 A CN 117962930A CN 202410382351 A CN202410382351 A CN 202410382351A CN 117962930 A CN117962930 A CN 117962930A
- Authority
- CN
- China
- Prior art keywords
- information
- target object
- target
- determining
- motion state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000033001 locomotion Effects 0.000 claims abstract description 189
- 238000001514 detection method Methods 0.000 claims abstract description 114
- 238000012545 processing Methods 0.000 claims abstract description 48
- 230000008447 perception Effects 0.000 claims abstract description 43
- 238000011217 control strategy Methods 0.000 claims abstract description 31
- 238000004590 computer program Methods 0.000 claims description 13
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 238000010295 mobile communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101001093748 Homo sapiens Phosphatidylinositol N-acetylglucosaminyltransferase subunit P Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013503 de-identification Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种无人车的控制方法及装置、无人车和计算机可读存储介质,可以应用于无人驾驶、自动驾驶和无人车技术领域。该无人车的控制方法,包括:获取针对目标对象的感知信息,其中,感知信息通过无人车的感知设备获得;对感知信息进行处理,得到目标对象的至少两个目标检测点,其中,至少两个目标检测点包括目标对象对应的检测框的中心点和检测框上的至少一个角点,至少一个角点与无人车的距离满足预设距离条件;获取至少两个目标检测点各自的运动特征信息,并根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态;以及,基于目标对象的运动状态,确定对无人车的控制策略,并根据控制策略对无人车进行控制。
Description
技术领域
本发明涉及无人驾驶、自动驾驶和无人车技术领域,更具体地,涉及一种无人车的控制方法及装置、无人车和计算机可读存储介质。
背景技术
随着无人驾驶技术的发展,无人驾驶技术已被应用到各种场景之中。为了保证在一定区域内无人车的安全性,需要对无人车和无人车周围的其他对象之间进行轨迹碰撞检测,以便于对无人车的后续动作做出更加有效的控制决策,因而如何较为有效地保障其他对象的运动状态识别的准确性是亟待解决的问题。
发明内容
本发明提供了一种无人车的控制方法及装置、无人车和计算机可读存储介质。
根据本发明的一个方面,提供了一种无人车的控制方法,包括:获取针对目标对象的感知信息,其中,上述感知信息通过无人车的感知设备获得;对上述感知信息进行处理,得到上述目标对象的至少两个目标检测点,其中,上述至少两个目标检测点包括上述目标对象对应的检测框的中心点和上述检测框上的至少一个角点,上述至少一个角点与上述无人车的距离满足预设距离条件;获取上述至少两个目标检测点各自的运动特征信息,并根据上述至少两个目标检测点各自的运动特征信息,确定上述目标对象的运动状态;以及,基于上述目标对象的运动状态,确定对上述无人车的控制策略,并根据上述控制策略对上述无人车进行控制。
根据本发明的另一个方面,提供了一种无人车的控制装置,包括:获取模块,用于获取针对目标对象的感知信息,其中,上述感知信息通过无人车的感知设备获得;处理模块,用于对上述感知信息进行处理,得到上述目标对象的至少两个目标检测点,其中,上述至少两个目标检测点包括上述目标对象对应的检测框的中心点和上述检测框上的至少一个角点,上述至少一个角点与上述无人车的距离满足预设距离条件;第一确定模块,用于获取上述至少两个目标检测点各自的运动特征信息,并根据上述至少两个目标检测点各自的运动特征信息,确定上述目标对象的运动状态;以及,第二确定模块,用于基于上述目标对象的运动状态,确定对上述无人车的控制策略,并根据上述控制策略对上述无人车进行控制。
根据本发明的另一方面,提供了一种无人车,上述无人车包括:无人车的控制装置。
根据本发明的另一方面,提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个计算机程序,其中,上述一个或多个处理器执行上述一个或多个计算机程序以实现上述方法的步骤。
根据本发明的另一方面,提供了一种计算机可读存储介质,其上存储有计算机程序或指令,上述计算机程序或指令被处理器执行时实现上述方法的步骤。
根据本发明的另一方面,提供了一种计算机程序产品,包括计算机程序或指令,上述计算机程序或指令被处理器执行时实现上述方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过以下参照附图对本发明实施例的描述,本发明的上述以及其他目的、特征和优点将更为清楚。
图1示意性示出了根据本发明实施例的可以应用无人车的控制方法的系统架构。
图2示意性示出了根据本发明实施例的无人车的控制方法的流程图。
图3示意性示出了根据本发明实施例的目标检测点确定过程的示例示意图。
图4示意性示出了根据本发明实施例的根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态过程的示例示意图。
图5示意性示出了根据本发明另一实施例的根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态过程的示例示意图。
图6示意性示出了根据本发明实施例的基于目标对象的运动状态,确定对无人车的控制策略过程的示例示意图。
图7示意性示出了根据本发明实施例的无人车的控制装置的框图。
图8示意性示出了根据本发明实施例的适于实现无人车的控制方法的电子设备的框图。
具体实施方式
以下,将参照附图来描述本发明的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本发明的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本发明实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本发明。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在一个示例中,运动状态识别方法可以包括以下至少之一:传统的运动状态识别方法和基于深度学习的运动状态识别方法。传统的运动状态识别方法可以指利用卡尔曼滤波求解出对象的目标检测框和速度,并根据速度来对对象进行运动状态识别。基于深度学习的运动状态识别方法可以指利用预设模型对对象进行检测,得到对象的目标检测框,并基于目标检测框来对对象进行运动预测和运动状态识别。
但是,由于通过上述方式获得的对象的检测框可能存在着不稳定的情况,因而难以保障对象的运动状态识别的准确性,进而难以保障无人车运行的安全性和稳定性。
为此,本发明实施例提出了一种无人车的控制方案。例如,获取针对目标对象的感知信息,其中,感知信息通过无人车的感知设备获得;对感知信息进行处理,得到目标对象的至少两个目标检测点,其中,至少两个目标检测点包括目标对象对应的检测框的中心点和检测框上的至少一个角点,至少一个角点与无人车的距离满足预设距离条件;获取至少两个目标检测点各自的运动特征信息,并根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态;以及,基于目标对象的运动状态,确定对无人车的控制策略,并根据控制策略对无人车进行控制。
根据本发明的实施例,通过对感知信息进行处理,得到目标对象对应的检测框的中心点和与无人车的距离满足预设距离条件的检测框上的至少一个角点,由于关注了目标对象的至少两个目标检测点,因而能够更为有效地捕捉目标对象的运动特征,提高了不同目标检测点的运动特征信息的准确性。通过根据至少两个目标检测点各自的运动特征信息来确定目标对象的运动状态,能够提高目标对象的运动状态的准确性。在此基础上,通过分析目标对象的运动状态,来确定对所述无人车的控制策略,能够对无人车做出适时的反应和调整,以确保无人车控制的实时性和安全性。
在本发明的实施例中,所涉及的数据(例如,包括但不限于用户个人信息)的收集、更新、分析、处理、使用、传输、提供、发明、存储等方面,均符合相关法律法规的规定,被用于合法的用途,且不违背公序良俗。特别地,对用户个人信息采取了必要措施,防止对用户个人信息数据的非法访问,维护用户个人信息安全和网络安全。
在本发明的实施例中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
例如,在收集感知信息之后,可以采用包括去标识化或者匿名化处理方式对您的信息进行脱敏,以保护您的信息安全。
图1示意性示出了根据本公开实施例的可以应用无人车的控制方法的系统架构。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括第一终端设备101、第二终端设备102、第三终端设备103,网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括有线通信网络和无线通信网络。
例如,无线通信网络可以包括车用无线通信(Vehicle to X,V2X)。例如,车用无线通信可以包括以下至少之一:基于专用短距离通信(Dedicated Short RangeCommunication,DSRC)的车用无线通信和基于蜂窝移动通信的车用无线通信(CellularV2X,C-V2X)。基于蜂窝移动通信的车用无线通信可以包括以下至少之一:基于LTE-V2X(Long Term Evolution V2X,长期演进的车用无线通信)、基于第四代移动通信的车用无线通信(The 4th Generation Mobile Communication Technology,4G)和基于第五代移动通信(The 5th Generation Mobile Communication Technology,5G)的车用无线通信。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103中的至少一个通过网络104与服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102、第三终端设备103上可以安装有各种导航类型应用、网页浏览器应用、搜索类应用、娱乐类应用和即时通讯类应用(仅为示例)。
第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏、支持网页浏览、支持定位和导航的各种电子设备,包括但不限于自动驾驶车辆、智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用第一终端设备101、第二终端设备102、第三终端设备103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的无人车的控制方法一般可以由第一终端设备101、第二终端设备102或第三终端设备103执行,或者也可以由不同于第一终端设备101、第二终端设备102或第三终端设备103的其他终端设备执行。相应地,本公开实施例所提供的无人车的控制装置也可以设置于第一终端设备101、第二终端设备102或第三终端设备103中,或设置于不同于第一终端设备101、第二终端设备102或第三终端设备103的其他终端设备中。
备选地,本公开实施例所提供的无人车的控制方法也可以由服务器105执行。相应地,本公开实施例所提供的无人车的控制装置一般可以设置于服务器105中。本公开实施例所提供的无人车的控制方法也可以由不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的无人车的控制装置也可以设置于不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的第一终端设备、第二终端设备、第三终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的第一终端设备、第二终端设备、第三终端设备、网络和服务器。
应注意,以下方法中各个操作的序号仅作为该操作的表示以便描述,而不应被看作表示该各个操作的执行顺序。除非明确指出,否则该方法不需要完全按照所示顺序来执行。
图2示意性示出了根据本发明实施例的无人车的控制方法的流程图。
如图2所示,该无人车的控制方法200包括操作S210~S240。
在操作S210,获取针对目标对象的感知信息,其中,感知信息通过无人车的感知设备获得。
在操作S220,对感知信息进行处理,得到目标对象的至少两个目标检测点,其中,至少两个目标检测点包括目标对象对应的检测框的中心点和检测框上的至少一个角点,至少一个角点与无人车的距离满足预设距离条件。
在操作S230,获取至少两个目标检测点各自的运动特征信息,并根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态。
在操作S240,基于目标对象的运动状态,确定对无人车的控制策略,并根据控制策略对无人车进行控制。
感知设备可以指用于采集无人车周围的环境,从而获得感知信息的设备。例如,感知设备可以包括以下至少之一:摄像头、毫米波雷达、超声波雷达和激光雷达等。感知信息可以包括目标对象,目标对象可以指无人车周围的障碍物。
感知信息可以是通过无人车的感知设备实时采集获取的,例如,感知信息可以通过对无人车周围的环境进行拍摄或者扫描等方式来获取。备选地,感知信息也可以是预先存储于数据库中的,例如,可以预先利用感知设备采集目标对象的感知信息并存储于数据库。备选地,感知信息可以是接收自其它终端设备发送的。本发明实施例对感知信息的获取方式不作限定。
在获得感知信息之后,可以对感知信息进行处理,得到目标对象的检测框。获得目标对象的检测框的方法可以根据实际业务需求进行配置,在此不作限定。例如,可以基于目标检测算法对感知信息进行处理,得到目标对象的检测框。目标检测算法可以包括以下至少之一:基于特征的目标检测算法和基于深度学习的目标检测算法。特征可以包括以下至少之一:Haar特征、梯度方向直方图(Histogram of Oriented Gradients,HOG)特征和尺度不变特征变换(Scale-Invariant Feature Transform,SIFT)特征等。
目标对象的检测框可以包括四角点框,即,检测框可以使用四个角点各自的坐标来表征。在此基础上,可以根据目标对象的检测框,确定目标对象的至少两个目标检测点。至少两个目标检测点可以包括检测框的中心点和检测框上的至少一个角点。
例如,根据目标对象的检测框的左上角点和右下角点,确定检测框的中心点。备选地,可以根据目标对象的检测框上的四个角点与车辆之间的距离,在四个角点中确定至少一个角点。该至少一个角点与无人车的距离需要满足预设距离条件。预设距离条件可以根据实际业务需求进行配置,在此不作限定。例如,预设距离条件可以设置为角点与无人车的距离小于或等于预设距离阈值。备选地,预设距离条件可以设置为角点与无人车的距离位于所有角点中的预设位次。预设位次可以包括以下至少之一:最近和次近。优选地,同时选择与无人车的距离最近和次近的点。
在获得至少两个目标检测点之后,可以获取至少两个目标检测点各自的运动特征信息。运动特征信息可以包括以下至少之一:位置信息、速度信息、加速度信息和方向信息等。位置信息可以用于表征目标对象在空间中的位置。速度信息可以用于表征目标对象在空间中位置变化的快慢。加速度信息可以用于表征速度随时间的变化。方向信息可以用于表征目标对象的运动方向。可选的,可以通过任意两种运动特征信息结合来确定目标对象的运动状态。例如,可以是位置信息和速度信息结合。
在获得运动特征信息之后,可以根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态。例如,在运动特征信息包括位置信息的情况下,可以通过跟踪位置信息的变化,来确定目标对象的移动轨迹和运动状态。备选地,在运动特征信息包括速度信息的情况下,可以通过观察速度信息的变化,来确定目标对象的运动状态。备选地,在运动特征信息包括加速度信息的情况下,可以根据加速度信息的正负值以及变化趋势,来确定目标对象的运动状态。备选地,在运动特征信息包括方向信息的情况下,可以通过检测方向信息的变化,可以确定目标对象是否改变了运动方向,进而确定目标对象的运动状态。目标对象的运动状态可以包括以下至少之一:运动状态、静止状态和抖动状态。
在获得目标对象的运动状态之后,可以基于目标对象的运动状态,确定对无人车的控制策略。控制策略可以指针对无人车进行感知预测和控制规划(即Planning&Control)等操作的方法。控制策略可以包括以下至少之一:路由寻径(Routing)、行为决策(Behavioral Decision)、动作规划(Motion Planning)和反馈控制(Feedback Control)等。在此基础上,可以根据控制策略对无人车进行控制。
根据本发明的实施例,通过对感知信息进行处理,得到目标对象对应的检测框的中心点和与无人车的距离满足预设距离条件的检测框上的至少一个角点,由于关注了目标对象的至少两个目标检测点,因而能够更为有效地捕捉目标对象的运动特征,提高了不同目标检测点的运动特征信息的准确性。通过根据至少两个目标检测点各自的运动特征信息来确定目标对象的运动状态,能够提高目标对象的运动状态的准确性。在此基础上,通过分析目标对象的运动状态,来确定对无人车的控制策略,能够对无人车做出适时的反应和调整,以确保无人车控制的实时性和安全性。
可以理解,上文对本发明提供的无人车的控制方法进行了说明,下面将结合图3对本发明的如何确定目标对象的至少两个目标检测点作进一步说明。
图3示意性示出了根据本发明实施例的目标检测点确定过程的示例示意图。
如图3所示,在300中,可以通过无人车301的感知设备获得针对目标对象的感知信息。对该感知信息进行处理,得到目标对象的检测框302。基于目标对象的检测框302,确定目标对象的至少两个目标检测点。至少两个目标检测点可以包括目标对象对应的检测框302的中心点O和检测框302上的至少一个角点。
在一个示例中,目标对象的检测框302上的至少一个角点,可以包括以下至少之一:目标对象的检测框302的各角点中与无人车301距离最近的点和目标对象的检测框302的各角点中与无人车301距离次近的点。
在300中,目标对象的检测框302可以包括候选角点A、候选角点B、候选角点C和候选角点D。针对该目标对象的检测框302上的四个候选角点中的每个候选角点,可以分别根据候选角点的坐标和无人车301的位置,计算该候选角点与无人车301之间的距离,得到与四个候选角点各自对应的距离。例如,可以得到与候选角点A对应的距离l 1、与候选角点B对应的距离l 2、与候选角点C对应的距离l 3和与候选角点D对应的距离l 4。
由于距离l 2<距离l 1<距离l 3<距离l 4,因而可以在四个候选角点中确定与无人车301距离最近的点为B(即第一近的点)和与车辆距离次近的点为A(即第二近的点)。上述最近的点和次近的点可以认为是在无人车301视野下观察到的稳定性比较高且更容易被感知到的两个点。
需要说明的是,至少一个角点的确定方式不限于上述方式,还可以根据实际业务需求进行配置,在此不作限定。例如,可以通过经验学习来获得至少一个角点。备选地,可以预先设置应用场景和预设角点之间的对应关系,并根据实际的应用场景来自适应地确定角点。
根据本发明的实施例,由于检测框上的至少一个角点可以包括各角点中与无人车距离最近的点和/或次近的点,通过关注多个目标检测点,并基于多个目标检测点各自的运动特征信息来确定目标对象的运动状态,能够提高后续运动状态识别的鲁棒性,保障运动状态识别能够适应不同的应用场景,进而提高运动状态确定的准确性。
可以理解,上文对本发明提供的如何确定目标检测点的方法进行了说明,下面将结合图4对本发明的如何基于至少两个目标检测点各自的运动特征信息来确定目标对象的运动状态作进一步说明。
图4示意性示出了根据本发明实施例的根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态过程的示例示意图。
如图4所示,在400中,感知信息可以包括连续多帧感知信息401。连续多帧感知信息401可以包括以下至少之一:通过车载摄像头获取的连续多帧图像、通过激光雷达获取的连续多帧点云、通过全球定位系统获取的连续多帧惯性导航数据和通过不同传感器获取的连续多帧融合环境信息。
在一个示例中,可以针对连续多帧感知信息401中的每帧感知信息,可以分别确定与该帧感知信息对应的中心点的位置信息402和各个角点的位置信息404。例如,可以对感知信息进行目标检测,得到目标对象的检测框。利用边缘检测算法,根据目标对象的检测框对目标对象的边界进行提取,得到边界信息。根据边界信息,计算出目标对象的中心点的位置信息402。利用角点检测算法来确定目标对象的角点的位置信息404。
针对与连续多帧感知信息401分别对应的中心点的位置信息402,可以计算每相邻两帧感知信息之间的中心点位置偏移量,得到至少一个中心点位置偏移量403。中心点位置偏移量403可以用于表征每相邻两帧感知信息中目标对象的中心点的位置偏移情况。针对至少一个角点中的每个角点,可以根据与连续多帧感知信息401分别对应的各个角点的位置信息404,计算每相邻两帧感知信息之间的角点位置偏移量,得到至少一个角点位置偏移量405。至少一个角点位置偏移量405可以用于表征每相邻两帧感知信息中目标对象的角点的位置偏移情况。在此基础上,可以综合考虑至少一个中心点位置偏移量403和至少一个角点位置偏移量405,来确定目标对象的运动状态406。
例如,连续多帧感知信息可以包括感知信息1、感知信息2和感知信息3,目标检测点包括中心点和2个角点,可以分别确定与感知信息1对应的中心点的位置信息1、角点1的位置信息1-1和角点2的位置信息1-2,与感知信息2对应的中心点的位置信息2、角点1的位置信息2-1和角点2的位置信息2-2,与感知信息3对应的中心点的位置信息3、角点1的位置信息3-1和角点2的位置信息3-2。
可以根据中心点的位置信息1和中心点的位置信息2,确定中心点位置偏移量1,根据中心点的位置信息2和中心点的位置信息3,确定中心点位置偏移量2。根据角点1的位置信息1-1和角点1的位置信息2-1,确定角点位置偏移量1,根据角点1的位置信息2-1和角点1的位置信息3-1,确定角点位置偏移量2。根据角点2的位置信息1-2和角点2的位置信息2-2,确定角点位置偏移量3,根据角点2的位置信息2-2和角点2的位置信息3-2,确定角点位置偏移量4。
在此基础上,可以综合考虑中心点位置偏移量1、中心点位置偏移量2、角点位置偏移量1、角点位置偏移量2、角点位置偏移量3和角点位置偏移量4,来确定目标对象的运动状态。
根据本发明的实施例,通过连续多帧感知信息来确定中心点和各个角点各自的位置信息,计算它们之间的位置偏移量,并根据得到的至少一个中心点位置偏移量和至少一个角点位置偏移量进一步确定目标对象的运动状态,能够较为有效地消除单帧感知信息可能存在的误差,实现对目标对象的运动状态进行更为全面和准确的描述,由此提高了运动状态的准确性。
根据本发明的实施例,根据至少一个中心点位置偏移量和至少一个角点位置偏移量,确定目标对象的运动状态可以包括如下操作之一。
对至少一个中心点位置偏移量和至少一个角点位置偏移量进行均值处理,得到目标位置偏移量,并根据目标位置偏移量确定目标对象的运动状态。对与至少一个中心点位置偏移量和至少一个角点位置偏移量进行加权处理,得到目标位置偏移量,并根据目标位置偏移量确定目标对象的运动状态。
均值处理可以用于计算至少一个中心点位置偏移量和至少一个角点位置偏移量的平均值。例如,可以对至少一个中心点位置偏移量和至少一个角点位置偏移量进行累加,得到位置偏移量累加值。根据位置偏移量累加值和位置偏移量的个数,确定第一比值。将该第一比值确定为目标位置偏移量。
加权处理可以用于为中心点位置偏移量和不同的角点位置偏移量赋予不同的权重来计算第一加权平均值或第一加权求和值。权重可以根据实际业务需求进行配置,在此不作限定。例如,中心点位置偏移量对应的权重为第一权重,角点1的角点位置偏移量的权重为第二权重,角点2的角点位置偏移量的权重为第三权重。可以根据中心点位置偏移量和第一权重确定第一乘积值,根据角点1的角点位置偏移量和第二权重确定第二乘积值,根据角点2的角点位置偏移量和第三权重确定第三乘积值。在此基础上,可以根据第一乘积值、第二乘积值和第三乘积值确定加权求和值。或者,根据加权求和值和位置偏移量的个数确定第二比值。将该第二比值确定为目标位置偏移量。
在获得目标位置偏移量之后,可以根据该目标位置偏移量确定目标对象的运动状态。例如,可以预先设置预设位置偏移量。在目标位置偏移量大于或等于预设位置偏移量的情况下,可以确定目标对象的运动状态为运动。在目标位置偏移量小于预设位置偏移量的情况下,可以确定目标对象的运动状态为静止。
根据本发明的实施例,通过对至少一个中心点位置偏移量和至少一个角点位置偏移量进行均值处理或加权处理,可以实现对目标对象的位置偏移量的平滑处理,从而能够较为有效地消除单一数据可能存在的误差或局部偏差,并且能够更为全面地考虑不同位置偏移量的影响,提高目标位置偏移量的稳定性和准确性,进而有利于更为准确地确定目标对象的运动状态。
可以理解,上文对本发明提供的一种确定目标对象的运动状态的方式进行了说明,下面将结合图5对本发明提供的另一种确定目标对象的运动状态的方式作进一步说明。
图5示意性示出了根据本发明另一实施例的根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态过程的示例示意图。
如图5所示,在500中,感知信息可以包括连续多帧感知信息501。可以根据连续多帧感知信息501,确定与连续多帧感知信息501分别对应的中心点的速度信息,得到多个第一速度502。根据连续多帧感知信息501,确定与连续多帧感知信息501分别对应的各个角点的速度信息,得到多个第二速度503。
在一个示例中,速度信息的获得方式可以包括以下至少之一:基于光流法(Optical Flow)获得速度信息、基于目标跟踪算法获得速度信息和基于运动模型获得速度信息。光流法可以指对检测框周围像素的运动进行分析,从而推断出速度信息。目标跟踪算法可以包括以下至少之一:卡尔曼滤波器(Kalman Filter)、粒子滤波(Particle Filter)和相关滤波器(Correlation Filter)。运动模型可以指通过建立目标对象的运动模型,根据检测框的中心点的历史轨迹推断出速度信息。
例如,可以基于目标跟踪算法,根据连续多帧感知信息501对目标对象进行目标跟踪,得到目标对象在连续帧之间的位置变化情况。根据目标对象在连续多帧感知信息501之间的位置变化情况和连续多帧感知信息501各自的采集时间,来获得上述速度信息。
在获得多个第一速度502和多个第二速度503之后,可以根据多个第一速度502和多个第二速度503,确定目标对象的运动状态504。例如,可以根据第一预设阈值来对多个第一速度502和多个第二速度503进行判断,得到目标对象的运动状态504。备选地,可以对多个第一速度502进行处理,得到第一中间速度,对多个第二速度503进行处理,得到第二中间速度,并根据第二预设阈值来对第一中间速度和第二中间速度进行判断,得到目标对象的运动状态504。第一预设阈值和第二预设阈值可以相同或不同,在此不作限定。
根据本发明的实施例,通过分析连续多帧感知信息中的中心点速度和各个角点速度,得到多个第一速度和多个第二速度,可以提供更为全面、准确的运动特征信息,从而能够更为精准地获知目标对象的运动情况,提高了目标对象的运动状态的准确性,进而提高了后续控制策略的适应性,使得无人车能够实时应对复杂多变的环境,有利于通过无人车的安全性。
根据本发明的实施例,根据多个第一速度和多个第二速度,确定目标对象的运动状态,可以包括如下操作之一。
对多个第一速度和多个第二速度进行均值处理,得到目标速度,并根据目标速度确定目标对象的运动状态。对多个第一速度和多个第二速度进行加权处理,得到目标速度,并根据目标速度确定目标对象的运动状态。
均值处理可以用于计算多个第一速度和多个第二速度的平均值。例如,可以对多个第一速度和多个第二速度进行累加,得到速度累加值。根据速度累加值和速度的个数,确定第三比值。将该第三比值确定为目标速度。
加权处理可以用于为第一速度和第二速度赋予不同的权重来计算第二加权平均值或第二加权求和值。权重可以根据实际业务需求进行配置,在此不作限定。例如,第一速度对应的权重为第四权重,第二速度对应的权重为第五权重。可以根据第一速度和第四权重确定第四乘积值,根据第二速度和第五权重确定第五乘积值,在此基础上,可以根据第四乘积值和第五乘积值确定加权求和值。或者,根据加权求和值和速度的个数确定第四比值。将该第四比值确定为目标速度。
在获得目标速度之后,可以根据该目标速度确定目标对象的运动状态。例如,可以预先设置预设速度。在目标速度大于或等于预设速度的情况下,可以确定目标对象的运动状态为运动。在目标速度小于预设速度的情况下,可以确定目标对象的运动状态为静止。
根据本发明的实施例,通过对多个第一速度和多个第二速度进行均值处理或加权处理,可以实现对目标对象的速度的平滑处理,从而能够较为有效地消除单一数据可能存在的误差或局部偏差,并且能够更为全面地考虑不同速度的影响,提高目标速度的稳定性和准确性,进而有利于更为准确地确定目标对象的运动状态。
需要强调的是,在确定目标对象的运动状态的过程中,可以选择本发明提供的上述方式中的至少之一,但也可以不限于此,能够确定目标对象的运动状态即可,在此不作限定。
可以理解,上文对如何获得目标对象的运动状态进行了说明,下面将结合图6对如何基于目标对象的运动状态,确定对无人车的控制策略作进一步说明。
图6示意性示出了根据本发明实施例的基于目标对象的运动状态,确定对无人车的控制策略过程的示例示意图。
如图6所示,在600中,可以获取参考信息601。参考信息601可以包括针对目标对象的车联网(Vehicle-to-Everything,V2X)信息601_1和针对目标对象的毫米波信息601_2中的至少之一。毫米波信息601_2可以是通过车载毫米波雷达获取的。车联网信息601_1可以是通过车联网技术获取的。车联网信息601_1可以包括以下至少之一:车辆彼此之间的通信(Vehicle-to-Vehicle,V2V)信息、车辆与基础设施之间的通信(Vehicle-to-Infrastructure,V2I)信息、车辆与行人之间的通信(Vehicle-to-Pedestrian,V2P)信息、车辆与网络之间的通信(Vehicle-to-Network,V2N)信息、车辆与电网之间的通信(Vehicle-to-Grid,V2G)信息。
在获得参考信息601之后,可以对参考信息601进行处理,得到与参考信息601对应的参考运动状态602。在一个示例中,可以利用目标跟踪算法,根据车联网信息601_1和毫米波信息601_2中的至少之一对目标对象进行目标跟踪,即通过车联网信息601_1和毫米波信息601_2中的至少之一判断目标对象的运动轨迹和速度变化。根据目标对象的运动轨迹和速度变化,可以推断目标对象当前的参考运动状态602。
在获得参考运动状态602之后,可以对与参考信息601对应的参考运动状态602和与感知信息对应的运动状态603进行融合处理,即综合使用运动状态603和参考运动状态602来确定目标运动状态604。
在一个示例中,在运动状态603和参考运动状态602相同的情况下,可以根据运动状态603和参考运动状态602中的任一来确定目标运动状态604。在运动状态603和参考运动状态602不同的情况下,可以预先设置不同信息的优先级,并根据不同信息的优先级来确定目标运动状态604。
例如,优先级由高到低可以为车联网信息601_1>感知信息=毫米波信息601_2,则在参考信息601包括车联网信息601_1的情况下,可以优先将与车联网信息601_1对应的参考运动状态602确定为目标运动状态604;在参考信息601未包括车联网信息601_1的情况下,可以综合使用与感知信息对应的运动状态603和与毫米波信息601_2对应的参考运动状态602来确定目标运动状态604。由此可以根据优先级对不同来源的传感器信息进行更为有效的利用,
在获得目标运动状态604之后,可以基于目标对象的目标运动状态604,确定对无人车的控制策略605。目标运动状态604可以包括静止状态或运动中状态。运动中状态可以包括以下之一:匀速直线运动、加速运动、减速运动和变道运动。例如,在目标运动状态604表征目标对象为静止状态的情况下,控制策略605可以为无人车选择绕过目标对象或者停下等待目标对象移开。备选地,在目标运动状态604表征目标对象为运动中状态的情况下,控制策略605可以为无人车根据预测的目标对象的轨迹选择避让路径行驶。
根据本发明的实施例,通过对针对目标对象的车联网信息和毫米波信息中的至少之一进行处理,得到与之对应的参考运动状态,并将该参考运动状态与运动状态进行融合处理,可以实现多源传感器信息的融合,将不同来源的信息进行整合处理,有助于综合且全面地考虑各种传感器的特性的优势,从而更为准确且稳定地确定目标对象的目标运动状态。此外,通过将目标运动状态作为基础,后续可以实时确定针对无人车的控制策略,使得无人车能够自主适应更为智能地应对复杂环境,提高了安全性和效率性。
以上仅是示例性实施例,但不限于此,还可以包括本领域已知的其他无人车的控制方法,只要能够确保无人车控制的实时性和安全性即可。
图7示意性示出了根据本发明实施例的无人车的控制装置的框图。
如图7所示,无人车的控制装置700可以包括获取模块710、处理模块720、第一确定模块730和第二确定模块740。
获取模块710,用于获取针对目标对象的感知信息,其中,感知信息通过无人车的感知设备获得。
处理模块720,用于对感知信息进行处理,得到目标对象的至少两个目标检测点,其中,至少两个目标检测点包括目标对象对应的检测框的中心点和检测框上的至少一个角点,至少一个角点与无人车的距离满足预设距离条件。
第一确定模块730,用于获取至少两个目标检测点各自的运动特征信息,并根据至少两个目标检测点各自的运动特征信息,确定目标对象的运动状态。
第二确定模块740,用于基于目标对象的运动状态,确定对无人车的控制策略,并根据控制策略对无人车进行控制。
根据本发明的实施例,检测框上的至少一个角点,包括:检测框的各角点中与车辆距离最近的点;和/或,检测框的各角点中与车辆距离次近的点。
根据本发明的实施例,感知信息包括连续多帧感知信息,第一确定模块730可以包括第一确定单元、第二确定单元和第三确定单元。
第一确定单元,用于根据连续多帧感知信息,确定分别对应的中心点的位置信息,并根据中心点的位置信息确定相邻两帧感知信息对应的中心点位置偏移量,得到至少一个中心点位置偏移量。
第二确定单元,用于根据连续多帧感知信息,确定分别对应的各个角点的位置信息,并根据各个角点的位置信息确定任一角点对应相邻两帧感知信息的角点位置偏移量,得到至少一个角点位置偏移量。
第三确定单元,用于根据至少一个中心点位置偏移量和至少一个角点位置偏移量,确定目标对象的运动状态。
根据本发明的实施例,感知信息包括连续多帧感知信息,第一确定模块730可以包括第四确定单元、第五确定单元和第六确定单元。
第四确定单元,用于根据连续多帧感知信息,确定分别对应的中心点的速度信息,得到多个第一速度。
第五确定单元,用于根据连续多帧感知信息,确定分别对应的各个角点的速度信息,得到多个第二速度。
第六确定单元,用于根据多个第一速度和多个第二速度,确定目标对象的运动状态。
根据本发明的实施例,第三确定单元可以包括第一处理子单元和第二处理子单元。
第一处理子单元,用于对至少一个中心点位置偏移量和至少一个角点位置偏移量进行均值处理,得到目标位置偏移量,并根据目标位置偏移量确定目标对象的运动状态。
第二处理子单元,用于对与至少一个中心点位置偏移量和至少一个角点位置偏移量进行加权处理,得到目标位置偏移量,并根据目标位置偏移量确定目标对象的运动状态。
根据本发明的实施例,第六确定单元可以包括第三处理子单元和第四处理子单元。
第三处理子单元,用于对多个第一速度和多个第二速度进行均值处理,得到目标速度,并根据目标速度确定目标对象的运动状态。
第四处理子单元,用于对多个第一速度和多个第二速度进行加权处理,得到目标速度,并根据目标速度确定目标对象的运动状态。
根据本发明的实施例,第二确定模块740可以包括获取单元、第一处理单元、第二处理单元和第七确定单元。
获取单元,用于获取参考信息,其中,参考信息包括针对目标对象的车联网信息和针对目标对象的毫米波信息中的至少之一。
第一处理单元,用于对参考信息进行处理,得到与参考信息对应的参考运动状态。
第二处理单元,用于对参考运动状态和运动状态进行融合处理,得到目标对象的目标运动状态。
第七确定单元,用于基于目标对象的目标运动状态,确定对无人车的控制策略。
根据本发明的一个实施例提供了一种无人车,该无人车包括上述任意无人车的控制装置。
图8示意性示出了根据本发明实施例的适于实现无人车的控制方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如无人车的控制方法。例如,在一些实施例中,无人车的控制方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的无人车的控制方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行无人车的控制方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种无人车的控制方法,包括:
获取针对目标对象的感知信息,其中,所述感知信息通过无人车的感知设备获得;
对所述感知信息进行处理,得到所述目标对象的至少两个目标检测点,其中,所述至少两个目标检测点包括所述目标对象对应的检测框的中心点和所述检测框上的至少一个角点,所述至少一个角点与所述无人车的距离满足预设距离条件;
获取所述至少两个目标检测点各自的运动特征信息,并根据所述至少两个目标检测点各自的运动特征信息,确定所述目标对象的运动状态;以及
基于所述目标对象的运动状态,确定对所述无人车的控制策略,并根据所述控制策略对所述无人车进行控制。
2.根据权利要求1所述的方法,其特征在于,所述检测框上的至少一个角点,包括:
所述检测框的各角点中与所述无人车距离最近的点;和/或,
所述检测框的各角点中与所述无人车距离次近的点。
3.根据权利要求1所述的方法,其特征在于,所述感知信息包括连续多帧感知信息,所述根据所述至少两个目标检测点各自的运动特征信息,确定所述目标对象的运动状态包括:
根据所述连续多帧感知信息,确定分别对应的中心点的位置信息,并根据所述中心点的位置信息确定相邻两帧感知信息对应的中心点位置偏移量,得到至少一个中心点位置偏移量;
根据所述连续多帧感知信息,确定分别对应的各个角点的位置信息,并根据所述各个角点的位置信息确定任一角点对应相邻两帧感知信息的角点位置偏移量,得到至少一个角点位置偏移量;以及
根据所述至少一个中心点位置偏移量和所述至少一个角点位置偏移量,确定所述目标对象的运动状态。
4.根据权利要求1所述的方法,其特征在于,所述感知信息包括连续多帧感知信息,根据所述至少两个目标检测点各自的运动特征信息,确定所述目标对象的运动状态,包括:
根据所述连续多帧感知信息,确定分别对应的所述中心点的速度信息,得到多个第一速度;
根据所述连续多帧感知信息,确定分别对应的各个所述角点的速度信息,得到多个第二速度;以及
根据所述多个第一速度和所述多个第二速度,确定所述目标对象的运动状态。
5.根据权利要求3所述的方法,其特征在于,所述根据所述至少一个中心点位置偏移量和所述至少一个角点位置偏移量,确定所述目标对象的运动状态包括:
对所述至少一个中心点位置偏移量和所述至少一个角点位置偏移量进行均值处理,得到目标位置偏移量,并根据所述目标位置偏移量确定所述目标对象的运动状态;或者
对与所述至少一个中心点位置偏移量和所述至少一个角点位置偏移量进行加权处理,得到目标位置偏移量,并根据所述目标位置偏移量确定所述目标对象的运动状态。
6.根据权利要求4所述的方法,其特征在于,所述根据所述多个第一速度和所述多个第二速度,确定所述目标对象的运动状态,包括:
对所述多个第一速度和所述多个第二速度进行均值处理,得到目标速度,并根据所述目标速度确定所述目标对象的运动状态;或者,
对所述多个第一速度和所述多个第二速度进行加权处理,得到目标速度,并根据所述目标速度确定所述目标对象的运动状态。
7.根据权利要求1所述的方法,其特征在于,所述基于所述目标对象的运动状态,确定对所述无人车的控制策略包括:
获取参考信息,其中,所述参考信息包括针对所述目标对象的车联网信息和针对所述目标对象的毫米波信息中的至少之一;
对所述参考信息进行处理,得到与所述参考信息对应的参考运动状态;
对所述参考运动状态和所述运动状态进行融合处理,得到所述目标对象的目标运动状态;以及
基于所述目标对象的目标运动状态,确定对所述无人车的控制策略。
8.一种无人车的控制装置,包括:
获取模块,用于获取针对目标对象的感知信息,其中,所述感知信息通过无人车的感知设备获得;
处理模块,用于对所述感知信息进行处理,得到所述目标对象的至少两个目标检测点,其中,所述至少两个目标检测点包括所述目标对象对应的检测框的中心点和所述检测框上的至少一个角点,所述至少一个角点与所述无人车的距离满足预设距离条件;
第一确定模块,用于获取所述至少两个目标检测点各自的运动特征信息,并根据所述至少两个目标检测点各自的运动特征信息,确定所述目标对象的运动状态 ;以及
第二确定模块,用于基于所述目标对象的运动状态,确定对所述无人车的控制策略,并根据所述控制策略对所述无人车进行控制。
9.一种无人车,其特征在于,所述无人车包括:权利要求8所述的无人车的控制装置。
10.一种计算机可读存储介质,其上存储有计算机程序或指令,其特征在于,所述计算机程序或指令被处理器执行时实现根据权利要求1~7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410382351.7A CN117962930B (zh) | 2024-04-01 | 无人车的控制方法及装置、无人车和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410382351.7A CN117962930B (zh) | 2024-04-01 | 无人车的控制方法及装置、无人车和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117962930A true CN117962930A (zh) | 2024-05-03 |
CN117962930B CN117962930B (zh) | 2024-07-05 |
Family
ID=
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108528450A (zh) * | 2017-03-02 | 2018-09-14 | 比亚迪股份有限公司 | 车辆行驶自动控制方法和装置 |
CN109815832A (zh) * | 2018-12-28 | 2019-05-28 | 深圳云天励飞技术有限公司 | 行车预警方法及相关产品 |
CN112001949A (zh) * | 2020-08-13 | 2020-11-27 | 地平线(上海)人工智能技术有限公司 | 确定目标点移动速度的方法、装置、可读存储介质及设备 |
US20210365696A1 (en) * | 2019-02-28 | 2021-11-25 | Shenzhen Sensetime Technology Co., Ltd. | Vehicle Intelligent Driving Control Method and Device and Storage Medium |
US20220111853A1 (en) * | 2020-06-30 | 2022-04-14 | Beijing Sensetime Technology Development Co., Ltd. | Target vehicle control method and apparatus, electronic device, and storage medium |
CN116434156A (zh) * | 2023-03-30 | 2023-07-14 | 大陆软件系统开发中心(重庆)有限公司 | 目标检测方法、存储介质、路侧设备及自动驾驶系统 |
CN116469249A (zh) * | 2023-03-15 | 2023-07-21 | 上海智驾汽车科技有限公司 | HDMap与5G车路协的智慧交通云管理平台 |
WO2023138039A1 (zh) * | 2022-01-24 | 2023-07-27 | 北京国家新能源汽车技术创新中心有限公司 | 一种斑马线路口场景下安全驾驶控制方法 |
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108528450A (zh) * | 2017-03-02 | 2018-09-14 | 比亚迪股份有限公司 | 车辆行驶自动控制方法和装置 |
CN109815832A (zh) * | 2018-12-28 | 2019-05-28 | 深圳云天励飞技术有限公司 | 行车预警方法及相关产品 |
US20210365696A1 (en) * | 2019-02-28 | 2021-11-25 | Shenzhen Sensetime Technology Co., Ltd. | Vehicle Intelligent Driving Control Method and Device and Storage Medium |
US20220111853A1 (en) * | 2020-06-30 | 2022-04-14 | Beijing Sensetime Technology Development Co., Ltd. | Target vehicle control method and apparatus, electronic device, and storage medium |
CN112001949A (zh) * | 2020-08-13 | 2020-11-27 | 地平线(上海)人工智能技术有限公司 | 确定目标点移动速度的方法、装置、可读存储介质及设备 |
WO2023138039A1 (zh) * | 2022-01-24 | 2023-07-27 | 北京国家新能源汽车技术创新中心有限公司 | 一种斑马线路口场景下安全驾驶控制方法 |
CN116469249A (zh) * | 2023-03-15 | 2023-07-21 | 上海智驾汽车科技有限公司 | HDMap与5G车路协的智慧交通云管理平台 |
CN116434156A (zh) * | 2023-03-30 | 2023-07-14 | 大陆软件系统开发中心(重庆)有限公司 | 目标检测方法、存储介质、路侧设备及自动驾驶系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829351B (zh) | 车道信息的检测方法、装置及计算机可读存储介质 | |
CN113264066B (zh) | 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备 | |
CN112200830A (zh) | 一种目标跟踪方法及设备 | |
US20220092874A1 (en) | Method and apparatus of determining vehicle queuing information, roadside device and cloud control platform | |
EP3955218A2 (en) | Lane line detection method and apparatus, electronic device, computer storage medium, and computer program product | |
CN113011323B (zh) | 通行状态的获取方法、相关装置、路侧设备及云控平台 | |
CN114758502B (zh) | 双车联合轨迹预测方法及装置、电子设备和自动驾驶车辆 | |
CN114179832A (zh) | 用于自动驾驶车辆的变道方法 | |
CN115675534A (zh) | 车辆轨迹预测方法、装置、电子设备及存储介质 | |
CN115092130A (zh) | 车辆碰撞预测方法、装置、电子设备、介质和车辆 | |
CN116343169A (zh) | 路径规划方法、目标对象运动控制方法、装置及电子设备 | |
CN117962930B (zh) | 无人车的控制方法及装置、无人车和计算机可读存储介质 | |
CN116533987A (zh) | 泊车路径确定方法、装置、设备和自动驾驶车辆 | |
CN112987707A (zh) | 一种车辆的自动驾驶控制方法及装置 | |
CN117962930A (zh) | 无人车的控制方法及装置、无人车和计算机可读存储介质 | |
CN115762230A (zh) | 基于剩余车位量预测的停车场智能引导方法及装置 | |
CN115817466A (zh) | 一种碰撞风险评估方法及装置 | |
CN115359332A (zh) | 基于车路协同的数据融合方法、装置、电子设备及系统 | |
CN114282776A (zh) | 车路协同评估自动驾驶安全性的方法、装置、设备和介质 | |
CN113934808A (zh) | 地图数据获取方法、装置及飞行器 | |
CN113721235B (zh) | 对象状态确定方法、装置、电子设备以及存储介质 | |
CN114407916B (zh) | 车辆控制及模型训练方法、装置、车辆、设备和存储介质 | |
CN114694375B (zh) | 交通监视系统、交通监视方法及存储介质 | |
CN115583243B (zh) | 确定车道线信息的方法、车辆控制方法、装置和设备 | |
CN115431968B (zh) | 车辆控制器、车辆及车辆控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |