CN116520843A - 用于辅助车辆与移动机器人混行的方法和设备 - Google Patents
用于辅助车辆与移动机器人混行的方法和设备 Download PDFInfo
- Publication number
- CN116520843A CN116520843A CN202310538125.9A CN202310538125A CN116520843A CN 116520843 A CN116520843 A CN 116520843A CN 202310538125 A CN202310538125 A CN 202310538125A CN 116520843 A CN116520843 A CN 116520843A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- mobile robot
- position information
- information
- motion information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000004891 communication Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
Abstract
本发明提出一种用于辅助车辆与移动机器人混行的方法,所述方法包括以下步骤:借助车辆的车载传感器获取位于车辆的周围环境中的移动机器人的位置信息和运动信息;根据移动机器人的位置信息和运动信息识别车辆与移动机器人的混行场景,在所述混行场景中,车辆与移动机器人在相同的道路区段中行驶;在识别到所述混行场景的情况下控制车辆触发至少一个应急措施,以避免车辆与移动机器人之间的碰撞。本发明还提供一种用于控制移动机器人的方法和一种用于辅助车辆与移动机器人混行的设备。在本发明中,通过主动获取关于附近的移动机器人的信息并识别潜在的混行场景,可以使车辆提前对突然出现在道路中的移动机器人做出反应。由此,提高了交通安全性。
Description
技术领域
本发明涉及一种用于辅助车辆与移动机器人混行的方法,本发明还涉及一种用于控制移动机器人的方法和一种用于辅助车辆与移动机器人混行的设备。
背景技术
随着人工智能技术的发展,机器人逐渐可以替代人力执行多种工作,例如快递配送、巡检工作等。当移动机器人在户外工作时,有时不可避免地需要穿越机动车道。在复杂道路环境中,移动机器人由于其矮小的体积和特殊的外观而很容易被忽视或者被当作是路边的基础设施,如果车辆在行驶过程中未能及时观察到移动机器人并掌握其移动意图,极易引发道路事故。
目前,提出为移动机器人配备环境感知和决策功能,以便在确定周围环境中存在危险情况及时调整自身的运动轨迹。但是,目前仍缺乏一种从车辆自身角度出发有效应对移动机器人出没场景的方案。因此,对于车辆来说仍有可能来不及对突然出现的移动机器人采取合适的应对措施。
在这种背景下,期待提供一种用于在车辆与移动机器人的混行场景中辅助车辆行驶的方案,以提高行车安全性。
发明内容
本发明的目的在于提供一种用于辅助车辆与移动机器人混行的方法、一种用于控制移动机器人的方法和一种用于辅助车辆与移动机器人混行的设备,以至少解决现有技术中的部分问题。
根据本发明的第一方面,提供一种用于辅助车辆与移动机器人混行的方法,所述方法包括以下步骤:
借助车辆的车载传感器获取位于车辆的周围环境中的移动机器人的位置信息和运动信息;
根据移动机器人的位置信息和运动信息识别车辆与移动机器人的混行场景,其中,在所述混行场景中,车辆与移动机器人在相同的道路区段中行驶;以及
在识别到所述混行场景的情况下控制车辆触发至少一个应急措施,以避免车辆与移动机器人之间的碰撞。
本发明尤其包括以下技术构思:目前认识到,如果车辆和移动机器人在道路中央相遇并且如果车辆未及时注意到移动机器人,由车辆和移动机器人组成的混合行驶就可能导致严重安全问题。在这种情况下,通过主动获取关于附近的移动机器人的信息并识别潜在的混行场景,可以使车辆提前对突然出现在道路中央的移动机器人做出反应。由此,以有利方式避免车辆与移动机器人之间的碰撞风险或其他紧急情况,提高了交通安全性。
可选地,所述移动机器人具有自主行驶功能且所述移动机器人的自动化程度比所述车辆的自动化程度更低。
可选地,通过以下方式获取移动机器人的位置信息和运动信息:借助车辆的通信接口向移动机器人发送关于位置信息和运动信息的询问;和/或,借助车辆的通信接口接收由移动机器人发送的位置信息和运动信息。
可选地,控制车辆触发至少一个应急措施包括:减小车辆当前的行驶速度、将车辆的行驶速度保持在预定速度区间内、改变车辆的预规划的行驶轨迹、控制车辆从自动驾驶模式切换至人工驾驶模式和/或在车辆中输出关于所述移动机器人的提示信息。
可选地,在以下情况下确定识别到车辆与移动机器人的混行场景:车辆和移动机器人均位于路口区域处并且彼此的行驶方向存在交叉;和/或,移动机器人打算从道路区段的一侧穿过道路区段而到达道路区段的另一侧,并且车辆正沿着所述道路区段行驶。
可选地,所述方法还包括以下步骤:在识别到混行场景的情况下,基于车辆自身的驾驶信息以及所获取的移动机器人的位置信息和运动信息来确定车辆与移动机器人是否可能发生碰撞;以及,在确定会发生碰撞的情况下控制车辆触发至少一个应急措施。
可选地,通过以下方式确定车辆与移动机器人是否可能发生碰撞:检查车辆的行驶轨迹与移动机器人的行驶轨迹之间的时空重叠可能性;以及,在所述时空重叠可能性大于预设阈值时确定车辆与移动机器人之间会发生碰撞。
可选地,通过以下方式获取移动机器人的位置信息和运动信息:借助车辆的摄像头拍摄周围环境的图像;以及,基于对象识别技术在所述图像中识别移动机器人,并在识别出移动机器人的情况下从所拍摄的图像中提取移动机器人的位置信息和运动信息。
根据本发明的第二方面,提供一种用于控制移动机器人的方法,其中,所述方法包括以下步骤:
获取移动机器人的位置信息和运动信息;
根据所述位置信息和运动信息判断移动机器人是否打算进入或已经处于与车辆的混行场景中,在所述混行场景中,移动机器人与车辆在相同的道路区段中行驶;以及
响应于判断出移动机器人打算进入或已经处于与车辆的混行场景中,控制移动机器人向周围环境中的车辆发送其自身的位置信息和运动信息。
根据本发明的第三方面,提供一种用于辅助车辆与移动机器人混行的设备,所述设备用于执行根据本发明的第一方面所述的方法,所述设备包括:
获取模块,其被配置为能够借助车辆的车载传感器获取位于车辆的周围环境中的移动机器人的位置信息和运动信息;
分析模块,其被配置为能够根据所述移动机器人的位置信息和运动信息识别车辆与移动机器人的混行场景,在所述混行场景中,车辆与移动机器人在相同的道路区段中行驶;以及
控制模块,其被配置为能够在识别到所述混行场景的情况下控制车辆触发至少一个应急措施,以避免车辆与移动机器人之间的碰撞。
附图说明
下面,通过参看附图更详细地描述本发明,可以更好地理解本发明的原理、特点和优点。附图包括:
图1示出了根据本发明的一个示例性实施例的用于辅助车辆与移动机器人混行的设备的框图;
图2示出了根据本发明的一个示例性实施例的用于辅助车辆与移动机器人混行的方法的流程图;
图3示出了根据本发明的另一示例性实施例的用于辅助车辆与移动机器人混行的方法的流程图;
图4示出了根据本发明的一个示例性实施例的用于控制移动机器人的方法的流程图;以及
图5示出了在一个示例性应用场景中借助根据本发明的方法辅助车辆与移动机器人混行的示意图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案以及有益的技术效果更加清楚明白,以下将结合附图以及多个示例性实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,而不是用于限定本发明的保护范围。
图1示出了根据本发明的一个示例性实施例的用于辅助车辆与移动机器人混行的设备的框图。
如图1所示,车辆100包括根据本发明的设备1。在此,车辆100例如还包括由前视摄像头11、左视摄像头12、后视摄像头13、右视摄像头14构成的全景视觉感知系统、雷达传感器15以及激光雷达传感器16。借助这些车载环境传感器,车辆100例如能够执行倒车辅助、障碍物探测、道路结构识别等多种功能以支持部分自主行驶或完全自主行驶。此外,车辆100例如还包括基于车联网技术的通信接口17以及定位导航单元18。借助通信接口17能够从其他交通对象、基础设施和/或道路监管平台接收交通信息,并且还将车辆100收集的交通信息共享给其他交通对象。借助定位导航单元18能够实时地确定车辆100在数字地图中的位置和导航路线。在此应注意,除了在图1中示出的传感器之外,车辆100还可能包括其他类型及数量的传感器,本发明对此不进行具体限制。
为了能够在车辆100与移动机器人的混行场景中辅助车辆100行驶,设备1例如包括获取模块10、分析模块20和控制模块30,这些模块在通信技术上彼此连接。
获取模块10用于借助车辆100的车载传感器获取位于车辆100的周围环境中的移动机器人的位置信息和运动信息。获取模块10例如连接到车辆100的通信接口17,由此可基于车联网技术从周围交通对象、基础设施和/或云端服务器接收关于移动机器人的信息,并且还能够向位于周围环境中的移动机器人发送关于位置信息和运动信息的询问请求。附加地或替代地,获取模块10还可连接到车辆100的摄像头,以接收周围环境的图像信息或视频信息,然后借助经训练的机器学习模型(对象分类器和/或人工神经网络)从中辨识出移动机器人并提取出其位置信息和运动信息。可选地,获取模块10还可连接到雷达传感器15和激光雷达传感器16,从而可以基于传感器融合技术对图像识别结果进行补充或验证。
分析模块20从获取模块10接收移动机器人的位置信息和运动信息,并基于此识别车辆100与移动机器人的混行场景,在所述混行场景中,车辆100与移动机器人在相同的道路区段中行驶。为此,分析模块20例如基于针对移动机器人的观测结果执行运动估计和目标跟踪,从而可以预测移动机器人在未来一段时间内的运动意图和行驶轨迹。此外,分析模块20例如还可通过车辆总线访问车辆100自身的各状态传感器,然后通过对车辆驾驶信息和移动机器人运动意图的比较,可以判断出是否可能会出现两者在同一道路区段中行驶的情况。可选地,分析模块20还可连接到或包括定位导航单元18,以估计出车辆100在数字地图上的位置。由此,分析模块20还可结合车辆100自身位置和预先规划出的导航路线来执行这种判断,从而提高了混行场景识别的准确性和可靠性。
控制模块30用于在识别到所述混行场景的情况下控制车辆100触发至少一个应急措施,以避免车辆100与移动机器人之间的碰撞。为此,控制模块30例如可以连接到车辆100的引导机构41,以便通过对车辆100的油门、刹车、转向单元等引导机构的控制而改变车辆100的行驶速度或行驶方向。另外,控制模块30还可以连接到车辆100的通知单元42,该通知单元42构造成显示器和/或扬声器,由此还能以声学和/或光学方式向驾驶员输出关于附近移动机器人存在性的警报或提示。
应注意的是,虽然设备1的各个子模块10、20、30在图1中被示出为连接到车辆100的各传感器或执行机构,然而也可能的是,这些模块10、20、30直接构造为或包括上述传感器或执行机构。
图2示出了根据本发明的一个示例性实施例的用于辅助车辆与移动机器人混行的方法的流程图。该方法示例性地包括步骤S1-S3,并且例如可以在使用图1所示的设备1的情况下实施。
在步骤S1中,借助车辆的车载传感器获取位于车辆的周围环境中的移动机器人的位置信息和运动信息。
车辆可以被构造为完全自主地引导或者部分自主地引导。另外,车辆也可以由驾驶员手动引导。移动机器人例如可以是被配置用于运送快递、食品、货品等物品的自主机器人,其包括不同类型的环境感知模块以及决策模块。示例性地,移动机器人根据系统记录的配送地址规划路线并在人行道上行进,在到达配送地址时,移动机器人可自主将货物取下或与收件人取得联系,在行驶过程中,不可避免地,移动机器人需要穿越供机动车辆通行的道路区段,才能到达马路另一端的人行道。
在一个实施例中,在车辆被完全自主引导的情况下,移动机器人的自动化程度低于车辆。这意味着,移动机器人的环境感知精度、反应灵敏度和避障决策水平都明显低于在道路中行驶的车辆,或者甚至可能缺乏对超出一定范围的对象存在性的检测能力。因此,对于车辆来说,需要格外关注移动机器人的突然出现及其行驶意图,以便尽早采取应对措施。
在一个实施例中,可以基于车联网技术获取位于车辆周围环境中的移动机器人的位置信息和运动信息。由此,即使车辆未及时探测到移动机器人(例如由于移动机器人被障碍物遮挡,或者,由于移动机器人的特殊外观而错误地将其当作是周围环境的一部分),也可基于这种超视距信息提前了解移动机器人的存在性。
在另一实施例中,也可以借助车辆的摄像头拍摄周围环境的图像,然后基于对象识别技术在所述图像中识别移动机器人,并在识别出移动机器人的情况下从所拍摄的图像中提取移动机器人的位置信息和运动信息。由于移动机器人具有明显区别于一般道路车辆的外观,因此为了提升识别准确性,可以预先借助大量包含不同型号、颜色及大小的移动机器人的图像来训练对象识别模块,然后借助经训练的对象识别模块实现移动机器人的辨识。
在步骤S2中,根据移动机器人的位置信息和运动信息识别车辆与移动机器人的混行场景,其中,在所述混行场景中,车辆与移动机器人在相同的道路区段中行驶。
在本发明的意义上,混行场景尤其理解为以下场景:在所述场景中,车辆与移动机器人在时间上依次地或者几乎同时地在同一道路区段中通行,因此构成了具备不同自动化程度的车辆和移动机器人混合运行的情况。应理解,这里的“道路区段”不包括人行道区域和非机动车通行区域,而是仅包括可由车辆行驶的路面区域。
为了执行这种识别,例如可以结合移动机器人的位置信息和车辆自身的位置信息判断二者是否处于同一道路场景中。进一步地,还可以将车辆自身的以及移动机器人的行驶方向进行比较,以判断它们是否存在交叉。在一个实施例中,仅当移动机器人和车辆处于相同道路场景中且它们的行驶方向存在交叉时才认为识别到混行场景。还可设想,对移动机器人和车辆出现在同一道路区段中的时间段进行限制,例如,可以规定:仅当车辆和移动机器人在预定时间范围内(例如1分钟内)先后出现在同一道路区段的情况下,才识别到混行场景。换言之,如果两者进入道路区段的时间间隔超过1分钟,则不认为存在混行场景。
在步骤S3中,在识别到所述混行场景的情况下控制车辆触发至少一个应急措施,以避免车辆与移动机器人之间的碰撞。
在该步骤中,可以结合具体场景分级地触发应急措施。例如,如果仅发现混行场景,则可以发出提示信息,以提示驾驶员谨慎驾驶,因为周围有自动化程度较低的移动机器人出现。如果通过进一步的分析发现在该混行场景中存在较高碰撞风险,则可以提高应急措施的级别。例如,可以自动控制车辆减速或者以更高频率或更醒目方式提示驾驶员潜在的碰撞风险。
在一个实施例中,可以在车辆中存储多种类型的应急策略,视车辆的不同驾驶模式或引导方式而定,选择不同的应急策略。另外,也可以针对具体的紧急程度分配不同应急策略,随着紧急程度的增加,例如可以使车辆的制动强度增大或者改变在车辆中输出警报的频率和提示方式,以达到更明显的避障效果。
在另一实施例中,也可以从车辆侧通过通信接口向附近的移动机器人发出警报提示或通行建议,以使移动机器人感知到风险而采取措施来规避碰撞。例如,可以从车辆向移动机器人传递停止信号,以促使其在进入道路之前停止移动,当两者之间的碰撞风险解除时,可以从车辆向移动机器人传递恢复通行信号,以使其重新开始移动。
图3示出了根据本发明的另一示例性实施例的用于辅助车辆与移动机器人混行的方法的流程图。在该示例性实施例中,图2所示方法的步骤S1被示出为包括子步骤S10,步骤S2包括子步骤S21-S22,步骤S3包括子步骤S30。
在步骤S10中,借助车辆的通信接口接收由位于车辆的周围环境中的移动机器人发送的位置信息和运动信息。
在一个实施例中,在接收移动机器人的相关信息之前,如果已经识别到移动机器人但不清楚其行驶意图(例如在人行道尽头发现了停止移动的移动机器人,但不确定其是否即将离开人行道而进入前方的道路区段),则可以先借助车辆的通信接口向移动机器人发送关于位置信息和运动信息的询问,以便更好地了解其行驶意图。
在另一实施例中,如果车辆通过环境感知传感器未在周围环境中辨识出移动机器人,则同样可以利用通信接口持续地或定期地接收来自周围环境的交通共享信息,以便在移动机器人超出车辆视野范围或处于车辆视野盲区的情况下及时掌握移动机器人的相关信息。
这里,移动机器人的“位置信息”例如包括其基于全球定位系统(GPS)确定的地理位置坐标,或者,也可包括移动机器人相对于特定基础设施的方位信息(例如相对于交叉路口的位置或距离)。移动机器人的“运动信息”例如包括移动机器人的行驶速度、加速度、最大速度限制、行驶方向、行驶轨迹或预先规划出的行驶路线。另外,移动机器人的“运动信息”除了包括上面提到的原始状态数据,也可包括经处理和整合的“行驶意图信息”,这例如可以是“即将在交叉路口处左转”或者“即将在斑马线处穿越行车道”。
在步骤S21中,在车辆侧对接收到的移动机器人的位置信息和运动信息进行分析,并判断车辆与移动机器人是否处于混行场景中。
在一个实施例中,可以在以下情况下确认识别到混行场景:车辆和移动机器人均位于路口区域处并且彼此的行驶方向存在交叉。例如,车辆打算在路口处采取右转操作,而移动机器人从马路对侧打算直行通过路口,此时两者的行驶方向会存在交叉点。相反,如果车辆和移动机器人的行驶方向相同或相反,即,在交叉路口处的轨迹不存在交叉点,则不认为识别到混行场景。可选地,还可结合路口处的交通信号灯的信号指示来预测出现混行场景的概率,从而更可靠地执行判断。
在另一实施例中,可以在以下情况下确认识别到混行场景:移动机器人打算从道路区段的一侧穿过道路区段而到达道路区段的另一侧,并且车辆正沿着所述道路区段行驶。在这种穿越场景中,很多情况下没有交通信号灯指示信号,因此可将移动机器人近似地看作是打算横穿马路的行人。
如果在步骤S21中判断出车辆与移动机器人不处于混行场景中,则不改变车辆当前的运动状态和行驶轨迹,并继续在步骤S21中结合实时的周围环境检测结果执行这种判断。
如果在步骤S21中判断出车辆与移动机器人处于混行场景中,则在接下来的步骤S22中进一步判断:车辆与移动机器人是否可能发生碰撞。
在一个实施例中,可以将车辆自身的行驶轨迹与移动机器人的行驶轨迹进行比较,并分析两者之间的时空重叠可能性,然后与时空重叠可能性正相关地确定碰撞风险。这里,“时空重叠”不仅仅理解为车辆的行驶轨迹与移动机器人的运动轨迹发生位置上的交叉或重叠,而且还意味着车辆和移动机器人在时间上同步地到达位置上的交叉点。例如,可以基于已经观测到的移动机器人的运动信息和位置信息预测其在未来确定时间段内的行驶轨迹,然后随着时间窗滑动不断替换观测数据基础,从而能够实现对预测轨迹的实时更新。例如,可以在计算出的时空重叠可能性大于预设阈值时确定车辆与移动机器人之间会发生碰撞。
在另一实施例中,还可以结合车辆自身的运动状态数据以及对移动机器人的运动跟踪结果,在最小碰撞距离和/或最小碰撞时间方面估计车辆与移动机器人的碰撞风险大小。这种碰撞风险例如可以以百分比的形式存在。
如果在步骤S22中判断出车辆与移动机器人不会发生碰撞,则可以保持车辆当前的驾驶行为,并继续在步骤S21-S22中结合实时的环境检测结果执行混行场景和碰撞风险方面的判断。
如果在步骤S22中判断出车辆与移动机器人之间存在碰撞风险且碰撞风险大于预设的风险阈值,则可以在步骤S30中控制车辆触发至少一个应急措施。如已经结合图2阐述地,针对车辆自主引导和被手动引导的情况,以及针对不同的风险等级,可以选择不同的应急措施。示例性地,可以控制车辆触发以下应急措施中的至少一者:减小车辆当前的行驶速度、将车辆的行驶速度保持在预定速度区间内、改变车辆的预规划的行驶轨迹、控制车辆从自动驾驶模式切换至人工驾驶模式和/或在车辆中输出关于所述移动机器人的提示信息。
在一个实施例中,如果在车辆侧通过速度和距离方面的分析发现仅依靠制动很难避免碰撞,则还可以改变车辆的行驶方向以绕开潜在碰撞区域,例如,可以使车辆切换到在相邻车道中行驶。
在另一实施例中,如果发现车辆当前的行驶速度并不是很快,并且移动机器人在未减速情况下已经从道路一侧闯入车辆当前车道,则可以控制车辆减速或在移动机器人前方停车,以等待移动机器人的横向通行结束后再使车辆继续向前行驶。
图4示出了根据本发明的一个示例性实施例的用于控制移动机器人的方法的流程图。该方法示例性地包括步骤S100-S300。
在步骤S100中,获取移动机器人的位置信息和运动信息。这里,例如可以借助移动机器人自身的GPS定位装置确定其实时地理坐标。如果移动机器人还配备有数字地图,则还可以在数字地图中标注当前位置并获取周边的基础设施信息。还可能的是,移动机器人也可通过采集环境图像并识别环境图像中的建筑物外观或文字来确定其所在位置。借助移动机器人自身的状态传感器,可以获得其运动速度、行驶方向、加速度等信息作为运动信息。另外,还可以依据预存储的导航路线和速度限制来获取移动机器人在未来一段时间内的路径规划信息。
在步骤S200中,根据所述位置信息和运动信息判断移动机器人是否打算进入或已经处于与车辆的混行场景中,在所述混行场景中,移动机器人与车辆在相同的道路区段中行驶。
在该步骤中,例如可以结合移动机器人在数字地图中的实时位置判断移动机器人是否到达路口区域。又例如,还可根据导航路线判断其是否即将进入路口区域或者是否需要穿过机动车道才能到达目标位置。这里的判断方式可以与在车辆侧识别混行场景的方式类似。然而由于移动机器人的较低的自动化水平和环境感知能力,也可以以比车辆侧更简化的逻辑和条件来执行这一步骤。
在步骤S300中,响应于判断出移动机器人打算进入或已经处于与车辆的混行场景中,控制移动机器人向周围环境中的车辆发送其自身的位置信息和运动信息。
在一个实施例中,当移动机器人即将穿过路口区域时,可以先控制移动机器人在路口前停止,然后在等待期间借助车辆间通信技术向周围环境中的车辆不断地发送其自身的位置信息和运动信息。这里,所发送的位置信息和运动信息不仅包括移动机器人的当前位置和当前运动状态,还包括其预计在未来一段时间内的位置变化和运动状态变化。通过这种方式,即使移动机器人自身的环境感知能力较弱或探测范围有限,也可及时向周边的其他交通对象通知其存在性,以让附近车辆主动对此做出响应。
图5示出了在一个示例性应用场景中借助根据本发明的方法辅助车辆与移动机器人混行的示意图。
在图5所示场景中,自主行驶的车辆100正在第一道路501上行驶并即将到达交叉路口500。在此,车辆100例如打算在交叉路口500处采取右转操作,以便在通过交叉路口500之后转换到第二道路502上继续行驶,该第二道路502与第一道路501在相互垂直的方向上延伸。另外,还观察到一移动机器人200正在人行道520上行驶,为了在位于马路对侧的人行道510上继续行驶,该移动机器人200需要穿过前方沿水平方向延伸的道路区段。
在该场景中,由于移动机器人200的特殊外观和尺寸而导致其不太容易被车辆100通过环境传感器识别到,因此当移动机器人200的导航路线210与车辆100的行驶路线110存在冲突时,同一时间行驶的车辆100可能经过移动机器人200的行驶路径,这表明,车辆100可能会与移动机器人200发生碰撞。
为了避免上述情况,一方面,当移动机器人200行驶到达路口区域500且打算穿越马路时,移动机器人200判断出其即将处于与车辆的混行场景中,于是借助通信网络21向周围环境中的车辆100发送其自身的位置信息和运动信息。另一方面,车辆100借助通信网络21接收所述位置信息和运动信息,然后结合车辆100自身的驾驶信息分析车辆100与移动机器人200之间的碰撞风险。
在图5所示场景中,例如通过车辆100侧的分析得出结论:车辆100的行驶轨迹110与移动机器人200的行驶轨迹210会在交叉点C处发生交叉,并且车辆100与移动机器人200将会几乎同步地到达该交叉点C。由此,可以判断出二者之间存在碰撞风险。响应于分析出这种情况,例如可以控制车辆100减速,以在到达交叉点C之前停下。在等待移动机器人200经过交叉位置之后,再控制车辆100继续行驶。此外,还可以在车辆100中输出警报提示信号,并要求驾驶员接管车辆100。通过这些应急措施,可以降低车辆100在上述混行场景中的碰撞风险,从而提高了车辆100的行驶安全性。
尽管这里详细描述了本发明的特定实施方式,但它们仅仅是为了解释的目的而给出的,而不应认为它们对本发明的范围构成限制。在不脱离本发明精神和范围的前提下,各种替换、变更和改造可被构想出来。
Claims (10)
1.一种用于辅助车辆(100)与移动机器人(200)混行的方法,所述方法包括以下步骤:
借助车辆(100)的车载传感器获取位于车辆(100)的周围环境中的移动机器人(200)的位置信息和运动信息;
根据移动机器人(200)的位置信息和运动信息识别车辆(100)与移动机器人(200)的混行场景,其中,在所述混行场景中,车辆(100)与移动机器人(200)在相同的道路区段中行驶;以及
在识别到所述混行场景的情况下控制车辆(100)触发至少一个应急措施,以避免车辆(100)与移动机器人(200)之间的碰撞。
2.根据权利要求1所述的方法,其中,所述移动机器人(200)具有自主行驶功能且所述移动机器人(200)的自动化程度比所述车辆(100)的自动化程度更低。
3.根据权利要求1或2所述的方法,其中,通过以下方式获取移动机器人(200)的位置信息和运动信息:
借助车辆(100)的通信接口(17)向移动机器人(200)发送关于位置信息和运动信息的询问;和/或
借助车辆(100)的通信接口(17)接收由移动机器人(200)发送的位置信息和运动信息。
4.根据权利要求1至3中任一项所述的方法,其中,控制车辆(100)触发至少一个应急措施包括:减小车辆(100)当前的行驶速度、将车辆(100)的行驶速度保持在预定速度区间内、改变车辆(100)的预规划的行驶轨迹、控制车辆(100)从自动驾驶模式切换至人工驾驶模式和/或在车辆(100)中输出关于所述移动机器人(200)的提示信息。
5.根据权利要求1至4中任一项所述的方法,其中,在以下情况下确定识别到车辆(100)与移动机器人(200)的混行场景:
车辆(100)和移动机器人(200)均位于路口区域(500)处并且彼此的行驶方向存在交叉;和/或
移动机器人(200)打算从道路区段的一侧穿过道路区段而到达道路区段的另一侧,并且车辆(100)正沿着所述道路区段行驶。
6.根据权利要求1至5中任一项所述的方法,其中,所述方法还包括以下步骤:
在识别到混行场景的情况下,基于车辆(100)自身的驾驶信息以及所获取的移动机器人(200)的位置信息和运动信息来确定车辆(100)与移动机器人(200)是否可能发生碰撞;以及
在确定会发生碰撞的情况下控制车辆(100)触发至少一个应急措施。
7.根据权利要求6所述的方法,其中,通过以下方式确定车辆(100)与移动机器人(200)是否可能发生碰撞:
检查车辆(100)的行驶轨迹(110)与移动机器人(200)的行驶轨迹(210)之间的时空重叠可能性;以及
在所述时空重叠可能性大于预设阈值时确定车辆(100)与移动机器人(200)之间会发生碰撞。
8.根据权利要求1至7中任一项所述的方法,其中,通过以下方式获取移动机器人(200)的位置信息和运动信息:
借助车辆(100)的摄像头拍摄周围环境的图像;以及
基于对象识别技术在所述图像中识别移动机器人(200),并在识别出移动机器人(200)的情况下从所拍摄的图像中提取移动机器人(200)的位置信息和运动信息。
9.一种用于控制移动机器人(200)的方法,其中,所述方法包括以下步骤:
获取移动机器人(200)的位置信息和运动信息;
根据所述位置信息和运动信息判断移动机器人(200)是否打算进入或已经处于与车辆(100)的混行场景中,在所述混行场景中,移动机器人(200)与车辆(100)在相同的道路区段中行驶;以及
响应于判断出移动机器人(200)打算进入或已经处于与车辆(100)的混行场景中,控制移动机器人(200)向周围环境中的车辆(100)发送其自身的位置信息和运动信息。
10.一种用于辅助车辆(100)与移动机器人(200)混行的设备(1),所述设备(1)用于执行根据权利要求1至8中任一项所述的方法,所述设备(1)包括:
获取模块(10),其被配置为能够借助车辆(100)的车载传感器获取位于车辆(100)的周围环境中的移动机器人(200)的位置信息和运动信息;
分析模块(20),其被配置为能够根据所述移动机器人(200)的位置信息和运动信息识别车辆(100)与移动机器人(200)的混行场景,在所述混行场景中,车辆(100)与移动机器人(200)在相同的道路区段中行驶;以及
控制模块(30),其被配置为能够在识别到所述混行场景的情况下控制车辆(100)触发至少一个应急措施,以避免车辆(100)与移动机器人(200)之间的碰撞。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310538125.9A CN116520843A (zh) | 2023-05-12 | 2023-05-12 | 用于辅助车辆与移动机器人混行的方法和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310538125.9A CN116520843A (zh) | 2023-05-12 | 2023-05-12 | 用于辅助车辆与移动机器人混行的方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116520843A true CN116520843A (zh) | 2023-08-01 |
Family
ID=87404498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310538125.9A Pending CN116520843A (zh) | 2023-05-12 | 2023-05-12 | 用于辅助车辆与移动机器人混行的方法和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116520843A (zh) |
-
2023
- 2023-05-12 CN CN202310538125.9A patent/CN116520843A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9983591B2 (en) | Autonomous driving at intersections based on perception data | |
JP6413962B2 (ja) | 走行制御装置 | |
US11130492B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11345359B2 (en) | Autonomous driving vehicles with dual autonomous driving systems for safety | |
US20170259753A1 (en) | Sidepod stereo camera system for an autonomous vehicle | |
CN109841088B (zh) | 车辆驾驶辅助系统及方法 | |
CN112464229B (zh) | 检测针对自动驾驶系统的欺骗攻击的方法和装置 | |
CN116249643A (zh) | 由自主车辆预测对象的动作以确定通过冲突区域的可行路径的方法和系统 | |
CN111731296A (zh) | 行驶控制装置、行驶控制方法以及存储程序的存储介质 | |
KR102328506B1 (ko) | 무인 공공정보 수집 시스템 및 방법 | |
CN113885011A (zh) | 自动车辆的基于点云图的光检测测距重新校准系统 | |
CN113228131B (zh) | 用于提供周围环境数据的方法和系统 | |
JP2021006448A (ja) | 単一車両走行用に設計された自動運転システムでの車両隊列実施 | |
CN114194186B (zh) | 车辆行驶控制装置 | |
CN113548043B (zh) | 用于自主车辆的安全操作员的碰撞告警系统和方法 | |
US20240020988A1 (en) | Traffic light detection and classification for autonomous driving vehicles | |
CN113401056A (zh) | 显示控制装置、显示控制方法以及计算机可读取存储介质 | |
WO2023109281A1 (zh) | 用于控制自主移动机器人的行驶的方法和设备 | |
EP4170450A1 (en) | Method and system for switching between local and remote guidance instructions for an autonomous vehicle | |
US20240025445A1 (en) | Safety enhanced planning system with anomaly detection for autonomous vehicles | |
CN115871712A (zh) | 操作自主驾驶车辆的方法和系统 | |
US20220306142A1 (en) | Driving assistance device, driving assistance method, and storage medium | |
US20220203985A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN116373863A (zh) | 用于在交通环岛处辅助车辆行驶的方法和设备 | |
CN113370972B (zh) | 行驶控制装置、行驶控制方法以及存储程序的计算机可读取存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |