CN112706159A - 机器人控制方法、装置及机器人 - Google Patents
机器人控制方法、装置及机器人 Download PDFInfo
- Publication number
- CN112706159A CN112706159A CN201911024445.2A CN201911024445A CN112706159A CN 112706159 A CN112706159 A CN 112706159A CN 201911024445 A CN201911024445 A CN 201911024445A CN 112706159 A CN112706159 A CN 112706159A
- Authority
- CN
- China
- Prior art keywords
- robot
- distance
- lane
- road boundary
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000000007 visual effect Effects 0.000 claims abstract description 89
- 230000015654 memory Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请公开了一种机器人控制方法、装置、机器人及存储介质,属于自动驾驶技术领域。所述方法包括:获取在当前位置采集到的视觉图像;在该视觉图像中存在道路边界和车道的情况下,如果探测机器人的侧面存在障碍物且障碍物与机器人之间的距离小于车道宽度,则当根据该机器人分别与该道路边界和该车道的位置关系确定该机器人位于预设的机器人行驶区域内时,执行启动操作。本申请解决了机器人针对机器人行驶区域的起点确认问题。
Description
技术领域
本申请涉及机器人技术领域,特别涉及一种机器人控制方法、装置及机器人。
背景技术
随着机器人技术的快速发展,机器人广泛应用于各种应用场景中。譬如,在诸如高速公路之类的场景中,通常可以通过机器人自动行驶来快速应对交通道路上的一些应急事务。在上述应用场景中,为了不影响交通正常运行,一般要求机器人只能在应急通道或专用车道上行驶。然而,在一些情况下,机器人的起始位置可能不在应急通道内,比如在行驶车道上,如此会导致存在交通安全隐患。因此,为了能够保证交通安全性,亟需一种方法来解决机器人的起点确认问题。
发明内容
本申请实施例提供了一种机器人控制方法、装置及机器人,可以解决机器人的起点确认问题。所述技术方案如下:
一方面,提供了一种机器人控制方法,应用于机器人中,所述方法包括:
获取在当前位置采集到的视觉图像;
在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物且所述障碍物与所述机器人之间的距离小于车道宽度,则当根据所述机器人分别与所述道路边界和所述车道的位置关系确定所述机器人位于预设的机器人行驶区域内时,执行启动操作。
在本申请一种可能的实现方式中,所述根据所述机器人分别与所述道路边界和所述车道的位置关系确定所述机器人位于预设的机器人行驶区域内之前,还包括:
获取当前位置的位置信息;
相应地,所述根据所述机器人分别与所述道路边界和所述车道的位置关系确定所述机器人位于预设的机器人行驶区域内包括:
根据所述机器人分别与所述道路边界和所述车道的位置关系,以及根据所述位置信息,确定所述机器人位于预设的机器人行驶区域内。
在本申请一种可能的实现方式中,所述根据所述机器人分别与所述道路边界和所述车道的位置关系,以及根据所述位置信息,确定所述机器人位于预设的机器人行驶区域内,包括:
当所述位置信息指示的位置不位于机器人行驶区域内时,确定所述机器人与所述道路边界之间的第一横向距离,以及所述机器人与所述车道之间的第二横向距离;
根据所述位置信息,确定所述机器人相对于所述机器人行驶区域的第三横向距离和第四横向距离,所述第三横向距离是指所述机器人与所述机器人行驶区域中靠近道路边界侧的边界之间的距离,所述第四横向距离是指所述机器人与所述机器人行驶区域中靠近车道侧的边界之间的距离;
若所述第一横向距离与所述第三横向距离之间的差值小于第一距离阈值,且所述第二横向距离与所述第四横向距离之间的差值小于第二距离阈值,则确定所述机器人位于所述机器人行驶区域内。
在本申请一种可能的实现方式中,所述方法还包括:
当所述位置信息指示的位置不位于机器人行驶区域内时,若所述第一横向距离与所述第三横向距离之间的差值小于第三距离阈值,以及所述第二横向距离与所述第四横向距离之间的差值小于第四距离阈值,则根据所述位置信息,确定所述机器人相对于所述机器人行驶区域的第五横向距离和纵向距离;
其中,所述第五横向距离是指在横向方向上所述机器人与所述机器人行驶区域中靠近所述机器人侧的区域边界之间的距离,所述纵向距离是指在道路行驶方向上所述机器人与所述机器人行驶区域中靠近所述机器人侧的区域边界之间的距离;
将所述第五横向距离与所述纵向距离发送至后台设备;
接收所述后台设备发送的移动指令,根据所述移动指令控制所述机器人移动至所述机器人行驶区域内。
在本申请一种可能的实现方式中,所述方法还包括:
当所述视觉图像包括多条车道时,将所述机器人与距离所述道路边界最近的车道之间的横向距离作为所述第二横向距离。
在本申请一种可能的实现方式中,所述获取在当前位置采集到的视觉图像之后,还包括:
在所述视觉图像中不存在道路边界和/或车道的情况下,禁止启动所述机器人;或者,
在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面不存在障碍物,则禁止启动所述机器人;或者,
在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物,则当所述障碍物与所述机器人之间的距离大于或等于车道宽度时,禁止启动所述机器人。
在本申请一种可能的实现方式中,所述机器人行驶区域为应急车道,所述机器人行驶区域位于车道与道路边界之间。
另一方面,提供了一种机器人控制装置,配置于机器人中,所述装置包括:
获取模块,用于获取在当前位置采集到的视觉图像;
执行模块,用于在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物且所述障碍物与所述机器人之间的距离小于车道宽度,则当根据所述机器人分别与所述道路边界和所述车道的位置关系确定所述机器人位于预设的机器人行驶区域内时,执行启动操作。
在本申请一种可能的实现方式中,所述获取模块还用于:
获取当前位置的位置信息;
相应地,所述执行模块用于:
根据所述机器人分别与所述道路边界和所述车道的位置关系,以及根据所述位置信息,确定所述机器人位于预设的机器人行驶区域内。
在本申请一种可能的实现方式中,所述获取模块用于:
当所述位置信息指示的位置不位于机器人行驶区域内时,确定所述机器人与所述道路边界之间的第一横向距离,以及所述机器人与所述车道之间的第二横向距离;
根据所述位置信息,确定所述机器人相对于所述机器人行驶区域的第三横向距离和第四横向距离,所述第三横向距离是指所述机器人与所述机器人行驶区域中靠近道路边界侧的边界之间的距离,所述第四横向距离是指所述机器人与所述机器人行驶区域中靠近车道侧的边界之间的距离;
若所述第一横向距离与所述第三横向距离之间的差值小于第一距离阈值,且所述第二横向距离与所述第四横向距离之间的差值小于第二距离阈值,则确定所述机器人位于所述机器人行驶区域内。
在本申请一种可能的实现方式中,所述获取模块还用于:
当所述位置信息指示的位置不位于机器人行驶区域内时,若所述第一横向距离与所述第三横向距离之间的差值小于第三距离阈值,以及所述第二横向距离与所述第四横向距离之间的差值小于第四距离阈值,则根据所述位置信息,确定所述机器人相对于所述机器人行驶区域的第五横向距离和纵向距离;
其中,所述第五横向距离是指在横向方向上所述机器人与所述机器人行驶区域中靠近所述机器人侧的区域边界之间的距离,所述纵向距离是指在道路行驶方向上所述机器人与所述机器人行驶区域中靠近所述机器人侧的区域边界之间的距离;
将所述第五横向距离与所述纵向距离发送至后台设备;
接收所述后台设备发送的移动指令,根据所述移动指令控制所述机器人移动至所述机器人行驶区域内。
在本申请一种可能的实现方式中,所述获取模块还用于:当所述视觉图像包括多条车道时,将所述机器人与距离所述道路边界最近的车道之间的横向距离作为所述第二横向距离。
在本申请一种可能的实现方式中,所述执行模块还用于:
在所述视觉图像中不存在道路边界和/或车道的情况下,禁止启动所述机器人;或者,
在所述视觉图像中存在道路边界和车道的情况下,探测所述机器人的侧面不存在障碍物,则禁止启动所述机器人;或者,
在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物,则当所述障碍物与所述机器人之间的距离大于或等于车道宽度时,禁止启动所述机器人。
在本申请一种可能的实现方式中,所述机器人行驶区域为应急车道,所述机器人行驶区域位于车道与道路边界之间。
另一方面,提供了一种机器人,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现上述一方面所述的机器人控制方法。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,所述指令被处理器执行时实现上述一方面所述的机器人控制方法。
另一方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面所述的机器人控制方法。
本申请实施例提供的技术方案带来的有益效果是:
获取在当前位置采集到的视觉图像,若该视觉图像中存在道路边界和车道,说明该机器人在当前位置能够拍摄到道路边界和车道,在该种情况下,如果探测机器人的侧面存在障碍物且该障碍物与机器人之间的距离小于车道宽度,说明视觉图像中确实存在道路边界,当根据机器人分别与道路边界和车道的位置关系确定该机器人位于预设的机器人行驶区域内时,确定该机器人满足启动条件,所以可以执行启动操作,如此,解决了机器人针对机器人行驶区域的起点确认问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种机器人控制方法的流程图;
图2是根据另一示例性实施例示出的一种机器人控制方法的流程图;
图3是根据一示例性实施例示出的一种实施场景的示意图;
图4是根据另一示例性实施例示出的一种实施场景的示意图;
图5是根据另一示例性实施例示出的一种实施场景的示意图;
图6是根据另一示例性实施例示出的一种实施场景的示意图;
图7是根据一示例性实施例示出的一种机器人控制装置的结构示意图;
图8是根据另一示例性实施例示出的一种机器人的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
应理解,本申请实施例中提到的“至少一个”可以是一个或多个;所提到的“包括”是指不排他的包含,即除了包含所提到的元素,还可能包含其他元素;所提到的“A和/或B”表示A或B中的一个或全部。
在对本申请实施例提供的机器人控制方法进行详细介绍之前,先对本申请实施例涉及的应用场景和执行主体进行简单介绍。
首先,对本申请实施例涉及的应用场景进行简单介绍。
目前,自动驾驶是智能交通的关键技术,是未来发展的必然趋势。自动驾驶的机器人能够广泛应用于各种应用场景中,譬如,在高速公路场景中,可以利用自动驾驶的机器人来解决高速高路上一些应急事务。通常情况下,机器人要求在预先设定好的机器人行驶区域内启动,这就需要机器人在启动之前确定是否满足启动条件,为此,本申请实施例提供了一种机器人控制方法,该方法能够解决机器人针对机器人行驶区域的起点确认问题,其具体实现请参见如下各个实施例。
接下来,对本申请实施例涉及的执行主体进行简单介绍。
本申请提供的方法可以由机器人作为执行主体来实现,该机器人能够自动驾驶。该机器人可以配置或连接有摄像装置,以通过该摄像装置进行视觉图像采集,作为一种示例,该摄像装置可以安装在该机器人的前端,从而采集机器人前景的视觉图像。另外,该机器人还可以配置有激光雷达、毫米波雷达之类的探测设备,如此,该机器人可以通过激光雷达或毫米波雷达的扫描进行障碍物检测。进一步地,该机器人还可以配置有红外摄像机,这里所说的红外摄像机具有红外滤光作用,譬如,可以配置有红外滤光片,以通过该红外滤光片进行红外滤光,从而通过红外摄像机在夜间探测是否存在障碍物。此外,该机器人还可以配置有定位装置,以通过该定位装置实现定位功能,从而确定机器人当前位置的位置信息,该位置信息可以为经纬度信息。作为一种示例,该定位装置可以为GPS(GlobalPositioning System,全球定位系统)和IMU(Inertial Measurement Unit,惯性测量单元)融合定位模块,进一步地,该定位装置还可以确定机器人当前的航向姿态数据,该航向姿态数据可以包括该机器人当前与水平面之间的夹角(包括俯仰角和翻滚角)、偏航角等,机器人在自动启动后可以基于该航向姿态数据自动调整驾驶方向,另外,该航向姿态数据还可以用于辅助定位车道近端的距离,如机器人行驶方向和车道平行方向存在一定角度,则机器人可以通过本体的偏航角来修正车道近端到机器人的距离。
在介绍完本申请实施例涉及的应用场景和执行主体后,接下来将结合附图对本申请实施例提供的机器人控制方法进行详细介绍。
请参考图1,该图1是根据一示例性实施例示出的一种机器人控制方法的流程图,这里以该方法应用于上述机器人中为例进行说明。该机器人控制方法可以包括如下几个步骤:
步骤101:获取在当前位置采集到的视觉图像。
其中,该视觉图像可以由该机器人通过摄像装置对前视场景进行拍摄得到,该视觉图像又可以称为前向场景图像,不难理解,该视觉图像为该摄像装置在其拍摄视野内采集到的图像。
作为一种示例,一般要求摄像装置的拍摄视野可以涵盖机器人左右的车道,即机器人在车道内时,所安装的摄像机拍摄的画面内涵盖左右车道。当机器人处于应急车道内时,大约应急车道的宽度为3.5m,该摄像装置的拍摄视场角度和安装位置确定后,其拍摄视野可以包含车道和道路边界。
其中,该道路边界包括但不限于路沿、护栏、绿化带等。
步骤102:在该视觉图像中存在道路边界和车道的情况下,如果探测机器人的侧面存在障碍物且障碍物与机器人之间的距离小于车道宽度,则当根据该机器人分别与该道路边界和该车道的位置关系确定该机器人位于预设的机器人行驶区域内时,执行启动操作。
作为一种示例,该机器人行驶区域为应急车道,该机器人行驶区域位于车道与道路边界之间。
其中,该障碍物可以是指高于地面一定高度的障碍物,通常设于道路边界附近,如设于道路边界上,示例性的,该障碍物可以为设于路边的护栏、护桩、绿化带等。
其中,该视觉图像可能只包括车道,此时意味着在摄像装置的拍摄视野内只能拍摄到车道,比如机器人行驶在道路中间时,可能拍摄不到道路边界;或者,该视觉图像可能包括道路边界和车道,此时意味着在摄像装置的拍摄视野内既可以拍摄到道路边界,又可以拍摄到车道。
在实施中,机器人可以通过图像检测技术来确定视觉图像中是否包括车道和/或道路边界。由于机器人行驶区域通常位于道路边界与车道之间,所以,若该视觉图像存在道路边界和车道,则可以说明该机器人当前位置可能处于机器人行驶区域内。进一步地,由于图像检测过程中可能存在误检等情况,比如可能会将车道线误检为道路边界,所以为了确定机器人是否真正位于机器人行驶区域内,机器人还可以通过激光雷达或毫米波雷达等探测设备检测该机器人的侧面(比如右侧)是否存在障碍物。如果存在,在一些情况下,探测设备探测到的障碍物可能位于道路边界以外,此时探测到的障碍物并非真正的道路边界上的障碍物。所以,为了提高检测的准确性,该机器人在探测到侧面(比如右侧)存在障碍物时,可以进一步判断所探测到的障碍物与该机器人之间的距离是否小于车道宽度。如果小于,则可以确定探测到的障碍物是道路边界上的障碍物,否则,可以确定探测到的障碍物不是道路边界上的障碍物。其中,车道宽度通常是可以预先设定的。
如果确定道路边界上存在障碍物,当根据该机器人分别与该道路边界和该车道的位置关系确定该机器人位于预设的机器人行驶区域内时,机器人可以执行启动操作,即该机器人可以正常自动行驶。
在本申请实施例中,获取在当前位置采集到的视觉图像,若该视觉图像中存在道路边界和车道,说明该机器人在当前位置能够拍摄到道路边界和车道,在该种情况下,如果探测机器人的侧面存在障碍物且所探测到的障碍物与该机器人之间的距离是否小于车道宽度,说明视觉图像中确实存在道路边界,当根据机器人分别与道路边界和车道的位置关系确定该机器人位于预设的机器人行驶区域内时,确定该机器人满足启动条件,所以可以执行启动操作,如此,解决了机器人针对机器人行驶区域的起点确认问题。
请参考图2,图2是根据另一示例性实施例示出的一种机器人控制方法的流程图,本实施例以该机器人控制方法由上述机器人执行为例进行说明,该方法可以包括如下几个实现步骤:
步骤201:获取在当前位置采集到的视觉图像。
其中,该视觉图像可以由该机器人通过摄像装置对前视场景进行拍摄得到,该视觉图像又可以称为前向场景图像,不难理解,该视觉图像为该摄像装置在其拍摄视野内采集到的图像。
作为一种示例,获取到视觉图像后,机器人可以通过图像检测技术来对该视觉图像进行检测处理,以确定该视觉图像中是否存在道路边界和/或车道。譬如,机器人可以检测该视觉图像中是否存在线条,以及当检测到线条时确定该线条的线条类型,从而根据该线条类型来确定该视觉图像中是否包括车道。作为一种示例,该线条类型可以包括但不限于虚实线、颜色特征、单双线。另外,机器人可以通过图像检测技术检测该视觉图像中是否存在道路边界。
进一步地,该机器人可以通过车道检测模块对视觉图像中的车道进行检测,以及通过路肩检测模块对该视觉图像中的道路边界进行检测。或者,该机器人还可以采用图像检测模块同时对该视觉图像中的车道和道路边界进行检测。
或者,该机器人还可以通过预先训练好的图像检测模型对该视觉图像进行检测处理,该预先训练好的图像检测模型可以是基于多个训练数据对待检测网络模型进行深度训练得到,能够基于任一图像确定该图像包括的道路边界和/或车道。譬如,可以预先获取多个图像样本,该多个图像样本中每个图像样本可以包括预先标定的车道和/或道路边界,然后将该多个图像样本作为训练数据输入至待训练的检测网络模型中进行深度学习和训练,从而得到训练好的图像检测模型。
其中,该视觉图像可能只包括车道,此时意味着在摄像装置的拍摄视野内只能拍摄到车道,比如机器人行驶在道路中间时,可能拍摄不到道路边界;或者,该视觉图像也可能包括道路边界和车道,此时意味着在摄像装置的拍摄视野内既可以拍摄到道路边界,又可以拍摄到车道。
步骤202:获取当前位置的位置信息。
其中,该位置信息可以通过定位装置定位得到,该位置信息可以为经纬度信息,即该位置信息可以用于表示当前位置对应的经纬度。
进一步地,该位置信息可以是相对某个特定点的位置的信息,该特定点可以根据实际需求进行选取,譬如该特定点为机器人的中心位置点,相应地,车道的坐标也是相对该特定点的位置的信息,用于确定车道与机器人的相对距离。
也即是,该机器人可以在当前位置获取当前场景下机器人行驶方向的前方的视觉图像,以及该当前位置对应的位置信息。进一步地,该机器人还可以获取在当前位置时其自身的航向姿态数据。
需要说明的是,这里不限定上述步骤201和步骤202之间的先后执行顺序。
步骤203:在该视觉图像中存在道路边界和车道的情况下,如果探测机器人的侧面存在障碍物且障碍物与机器人之间的距离小于车道宽度,则根据机器人分别与道路边界和车道的位置关系,以及根据该位置信息,确定该机器人是否位于预设的机器人行驶区域内。
其中,该障碍物可以是指高于地面一定高度的障碍物,通常设于道路边界附近,如设于道路边界上,示例性的,该障碍物可以为设于路边的护栏、护桩、绿化带等。
作为一种示例,该机器人行驶区域为应急车道,该机器人行驶区域位于车道与道路边界之间。
该机器人行驶区域可以由用户根据实际需求进行设置,或者,也可以通过定位应用获取得到,该机器人行驶区域可以由围成该机器人行驶区域的所有边上的顶点的顶点坐标来确定,该顶点坐标可以采用经纬度信息来进行表示。譬如,请参考图3,该机器人行驶区域的顶点坐标可以包括点1、点2、点3和点4的坐标,该机器人行驶区域为图3中的区域31。
由于机器人行驶区域通常位于道路边界与车道之间,所以若该视觉图像中存在道路边界和车道,则可以说明该机器人的当前位置可能处于该机器人行驶区域内。由于图像检测过程中可能存在误检等情况,比如可能会将车道线误检为道路边界,所以为了提高检测的准确性,机器人还可以通过激光雷达或毫米波雷达等探测设备检测道路边界上是否存在障碍物。比如,探测该机器人的侧面(比如右侧)是否存在障碍物,如果存在,由于在一些情况下,探测设备探测到的障碍物可能位于道路边界以外,此时探测到的障碍物并非真正的道路边界上的障碍物。所以,为了提高检测的准确性,该机器人在探测到侧面(比如右侧)存在障碍物时,可以进一步判断所探测到的障碍物与该机器人之间的距离是否小于车道宽度。如果小于,则可以确定探测到的障碍物是道路边界上的障碍物,否则,可以确定探测到的障碍物不是道路边界上的障碍物。
在确定道路边界上存在障碍物的情况下,可以根据该机器人分别与该道路边界和该车道的位置关系,以及根据该位置信息,确定该机器人是否真正位于该机器人行驶区域内。
作为一种示例,根据该机器人分别与该道路边界和该车道的位置关系,以及根据该位置信息,确定该机器人是否真正位于该机器人行驶区域内的具体实现可以包括如下几个步骤:
步骤2031:当位置信息指示的位置位于机器人行驶区域内时,确定该机器人与该道路边界之间的第一横向距离,以及该机器人与该车道之间的第二横向距离。
作为一种示例,该第一横向距离可以是指该道路边界至该机器人的中心的横向距离,譬如该第一横向距离为图4中的d1;该第二横向距离可以是指该车道至该机器人的中心的横向距离,譬如该第二横向距离为图4中的d2。
作为一种示例,当该道路边界为曲线时,该第一横向距离可以是指该道路边界中距离机器人纵向距离最近点与该机器人的中心之间的横向距离。同理,当该车道为曲线时,该第二横向距离可以是指该车道中距离机器人纵向距离最近点与该机器人的中心之间的横向距离。
进一步地,当该视觉图像包括多条车道时,将该机器人与距离该道路边界最近的车道之间的横向距离作为该第二横向距离。也就是说,当对视觉图像进行检测后检测到多条车道时,可以从该多条车道中选择一条距离道路边界最近的车道,然后将选择的车道与该机器人之间的横向距离确定为第二横向距离。
譬如,请参考图5,当该视觉图像中包括车道1和车道2时,由于该车道2距离该道路边界最近,因此,可以将该车道2与该机器人之间的横向距离确定该第二横向距离。
2032:根据该位置信息,确定该机器人相对于该机器人行驶区域的第三横向距离和第四横向距离,该第三横向距离是指该机器人与该机器人行驶区域中靠近道路边界侧的边界之间的距离,该第四横向距离是指该机器人与该机器人行驶区域中靠近车道侧的边界之间的距离。
作为一种示例,当根据该位置信息确定该机器人当前的位置可能位于机器人行驶区域内时,由于定位装置可能存在定位误差,因此为了准确确定该机器人是否满足位于机器人行驶区域内,可以根据该位置信息,确定该机器人相对于该机器人行驶区域的两侧的相对位置,该两侧分别是指机器人行驶区域中靠近道路边界侧的边界以及靠近车道侧的边界,即机器人通过定位方式确定第三横向距离和第四横向距离,譬如请参考图3,该第三横向距离为d1’,该第四横向距离为d2’。
进一步地,机器人可以根据位置信息和用于确定机器人行驶区域的顶点坐标来确定该第三横向距离和第四横向距离。
需要说明的是,由于该位置信息和机器人行驶区域的顶点坐标可以为经纬度信息,因此,在确定该第三横向距离和第四横向距离时,可以将经纬度信息映射至以某一点为原点的平面直角坐标系中进行加减运算,从而得到该第三横向距离和该第四横向距离。
另外,当该机器人行驶区域包括多条边时,该第三横向距离是指该多条边中靠近边界线侧且距离该机器人纵向距离最近的边与该机器人之间的横向距离,该第四横向距离是指该多条边中靠近车道侧且距离该机器人纵向距离最近的边与该机器人之间的横向距离。
2033:若该第一横向距离与该第三横向距离之间的差值小于第一距离阈值,且该第二横向距离与该第四横向距离之间的差值小于第二距离阈值,则确定该机器人位于机器人行驶区域内。
其中,该第一距离阈值可以由用户根据实际需求自定义设置,或者,也可以由该机器人默认设置,本申请实施例对此不作限定。
其中,该第二距离阈值可以由用户根据实际需求自定义设置,或者,也可以由该机器人默认设置,本申请实施例对此不作限定。另外,该第一距离阈值与该第二距离阈值可以相同,也可以不相同。
由于该第一横向距离与该二横向距离是通过对视觉图像检测后确定的,该第三横向距离和该第四横向距离是基于定位得到的位置信息确定的,所以,将第一横向距离与该第三横向距离进行比较以及将第二横向距离与第四横向距离进行比较,可以使得视觉图像检测和定位这两者相互校验和一致性比对。进一步地,如果该第一横向距离与该第三横向距离之间的差值小于第一距离阈值且该第二横向距离与该第四横向距离之间的差值小于第二距离阈值,则说明视觉图像检测结果与定位结果比较较近,从而可以说明检测结果准确,因此可以确定该机器人位于机器人行驶区域内。
值得一提的是,上述将视觉图像检测和定位这两者进行结合,由于视觉图像检测和定位各自具备特有的检测属性,所以这两者相互验证和一致性比对后,增强了起点启动条件确定的鲁棒性和准确性,排除了部分检测存在漏检和测距不准确的情况,保证了机器人行驶区域内的有效自动驾驶。
需要说明的是,若通过定位装置确定的当前位置可能位于该机器人行驶区域内,但该第一横向距离与该第三横向距离之间的差值大于第一距离阈值,和/或,该第二横向距离与该第四横向距离之间的差值大于第二距离阈值,则说明检测结果不可靠,此时确定该机器人不位于机器人行驶区域内。
步骤204:若根据该机器人分别与该道路边界和该车道的位置关系,以及根据该位置信息,确定该机器人位于预设的机器人行驶区域内,则执行启动操作。
机器人启动完成后,可以正常进行自动驾驶操作。进一步地,该机器人可以根据上述航向姿态数据控制该机器人进行自动驾驶。
进一步地,在该视觉图像中不存在道路边界和/或车道的情况下,则禁止启动机器人。
其中,该视觉图像中不存在道路边界和/或车道包括:该视觉图像中不存在道路边界,或者,该视觉图像中不存在车道,或者,该视觉图像中不存在道路边界和车道。
在上述情况中,说明机器人的摄像装置无法即拍摄到车道又拍摄到道路边界,此时可以确定该机器人的当前位置不在机器人行驶区域内,所以可以确定该机器人不满足启动条件,则禁止执行启动操作。
进一步地,在该视觉图像中存在道路边界和车道的情况下,如果探测该机器人的侧面不存在障碍物,则禁止启动该机器人。
在该视觉图像中存在道路边界和车道的情况下,如果探测机器人的侧面不存在障碍物,则说明图像检测结果不准确,即检测到的道路边界不是真实的道路边界,此时可以不启动该机器人。
进一步地,在该视觉图像中存在道路边界和车道的情况下,如果探测该机器人的侧面存在障碍物,则当该障碍物与该机器人之间的距离大于或等于车道宽度时,禁止启动该机器人。
在该视觉图像中存在道路边界和车道的情况下,如果探测机器人的侧面存在障碍物,但该障碍物与该机器人之间的距离大于或等于车道宽度,则说明检测到的障碍物不是道路边界上的障碍物,从而可以说明图像检测的结果不准确,即检测到的道路边界不是真实的道路边界,此时可以不启动该机器人。
需要说明的是,上述是以当位置信息指示的位置位于机器人行驶区域内为例进行说明,在另一种可能的实现方式中,该位置信息指示的位置也可能不位于机器人行驶区域内,也即是定位结果表示该机器人不位于该机器人行驶区域内,此时该机器人还可以执行如下操作。
步骤205:当位置信息指示的位置不位于机器人行驶区域内时,若该第一横向距离与该第三横向距离之间的差值小于第三距离阈值,以及该第二横向距离与该第四横向距离之间的差值小于第四距离阈值,则根据该位置信息,确定该机器人相对于该机器人行驶区域的第五横向距离和纵向距离。将该第五横向距离与该纵向距离发送至后台设备,接收该后台设备发送的移动指令,根据该移动指令控制该机器人移动至该机器人行驶区域内。
其中,该第五横向距离是指在横向方向上该机器人与该机器人行驶区域中靠近该机器人侧的区域边界之间的距离,该纵向距离是指在道路行驶方向上该机器人与该机器人行驶区域中靠近该机器人侧的区域边界之间的距离。
其中,该第三距离阈值可以由用户根据实际需求进行设置,或者,也可以由该机器人默认设置。作为一种示例,该第三距离阈值可以与上述第一距离阈值相同,也可以不相同。
其中,该第四距离阈值可以由用户根据实际需求进行设置,或者,也可以由该机器人默认设置。作为一种示例,该第四距离阈值可以与上述第二距离阈值相同,也可以不相同。
作为一种示例,可以根据该位置信息初步检测该机器人是否位于机器人行驶区域内,当根据该位置信息确定该机器人不位于该机器人行驶区域内时,如果该第一横向距离与该第三横向距离之间的差值小于第三距离阈值,以及该第二横向距离与该第四横向距离之间的差值小于第四距离阈值,可以看出,图像检测结果和定位结果一致,说明检测结果准确。在该种情况下,该机器人可以利用位置信息和机器人行驶区域来确定引导信息,该引导信息包括上述第五横向距离和纵向距离。譬如,请参考图6,该第五横向距离可以为图6中的d3,该纵向距离可以为图6中的d4。另外,应当理解的是,在一些情况下,该第五横向距离或该纵向距离可能为零。
之后,将该第五横向距离与该纵向距离发送给后台设备,可以由该后台设备基于该该第五横向距离与该纵向距离,通过遥控设备向该机器人发送移动指令,相应地,该机器人可以根据该移动指令移动至该机器人行驶区域内。
进一步地,机器人将该第五横向距离与该纵向距离发送至后台设备后,可以由该后台设备显示该第五横向距离与该纵向距离,以便于相关工作人员可以根据显示结果,左右或前后移动该机器人至机器人行驶区域内。
作为一种示例,该机器人确定该第五横向距离和该纵向距离后,可以根据该第五横向距离和该纵向距离生成导引线,如图6所示,该导引线可以用于引导机器人移动至该机器人行驶区域内。
需要说明的是,若根据位置信息初步检测该机器人的当前位置未位于机器人行驶区域内,即位置信息指示的位置不位于机器人行驶区域内,则当第一横向距离与第三横向距离之间的差值小于第三距离阈值,和/或,第二横向距离与第四横向距离之间的差值小于第四距离阈值,则说明图像检测结果与定位结果不一致,从而说明检测结果不可靠,在该种情况下该机器人可以不执行任何操作。
在本申请实施例中,获取在当前位置采集到的视觉图像,若该视觉图像中存在道路边界和车道,说明该机器人在当前位置能够拍摄到道路边界和车道,在该种情况下,如果探测机器人的侧面存在障碍物且该障碍物与该机器人之间的距离小于车道宽度,说明视觉图像中确实存在道路边界,当根据机器人分别与道路边界和车道的位置关系确定该机器人位于预设的机器人行驶区域内时,确定该机器人满足启动条件,所以可以执行启动操作,如此,解决了机器人针对机器人行驶区域的起点确认问题。
图7是根据一示例性实施例示出的一种机器人控制装置的结构示意图,该机器人控制装置可以由软件、硬件或者两者的结合实现。该机器人控制装置可以包括:
获取模块710,用于获取在当前位置采集到的视觉图像和位置信息;
执行模块720,用于在该视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物且所述障碍物与所述机器人之间的距离小于车道宽度,则当根据该机器人分别与该道路边界和该车道的位置关系确定该机器人位于预设的机器人行驶区域内时,执行启动操作。
在本申请一种可能的实现方式中,该获取模块710还用于:
获取当前位置的位置信息;
相应地,该执行模块720用于:
根据该机器人分别与该道路边界和该车道的位置关系,以及根据该位置信息,确定该机器人位于预设的机器人行驶区域内。
在本申请一种可能的实现方式中,该获取模块710用于:
当所述位置信息指示的位置不位于机器人行驶区域内时,确定该机器人与该道路边界之间的第一横向距离,以及该机器人与该车道之间的第二横向距离;
根据该位置信息,确定该机器人相对于该机器人行驶区域的第三横向距离和第四横向距离,该第三横向距离是指该机器人与该机器人行驶区域中靠近道路边界侧的边界之间的距离,该第四横向距离是指该机器人与该机器人行驶区域中靠近车道侧的边界之间的距离;
若该第一横向距离与该第三横向距离之间的差值小于第一距离阈值,且该第二横向距离与该第四横向距离之间的差值小于第二距离阈值,则确定该机器人位于该机器人行驶区域内。
在本申请一种可能的实现方式中,该获取模块710还用于:
当所述位置信息指示的位置不位于机器人行驶区域内时,若该第一横向距离与该第三横向距离之间的差值小于第三距离阈值,以及该第二横向距离与该第四横向距离之间的差值小于第四距离阈值,则根据该位置信息,确定该机器人相对于该机器人行驶区域的第五横向距离和纵向距离;
其中,该第五横向距离是指在横向方向上该机器人与该机器人行驶区域中靠近该机器人侧的区域边界之间的距离,该纵向距离是指在道路行驶方向上该机器人与该机器人行驶区域中靠近该机器人侧的区域边界之间的距离;
将该第五横向距离与该纵向距离发送至后台设备;
接收该后台设备发送的移动指令,根据该移动指令控制该机器人移动至该机器人行驶区域内。
在本申请一种可能的实现方式中,该获取模块710还用于:当该视觉图像包括多条车道时,将该机器人与距离该道路边界最近的车道之间的横向距离作为该第二横向距离。
在本申请一种可能的实现方式中,该执行模块720还用于:
在该视觉图像中不存在道路边界和/或车道的情况下,禁止启动该机器人;或者,
在该视觉图像中存在道路边界和车道的情况下,探测所述机器人的侧面不存在障碍物,则禁止启动该机器人;或者,
在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物,则当所述障碍物与所述机器人之间的距离大于或等于车道宽度时,禁止启动所述机器人。
在本申请一种可能的实现方式中,该机器人行驶区域为应急车道,该机器人行驶区域位于车道与道路边界之间。
在本申请实施例中,获取在当前位置采集到的视觉图像,若该视觉图像中存在道路边界和车道,说明该机器人在当前位置能够拍摄到道路边界和车道,在该种情况下,如果探测机器人侧面存在障碍物且该障碍物与机器人之间的距离小于车道宽度,则当根据机器人分别与道路边界和车道的位置关系确定该机器人位于预设的机器人行驶区域内时,确定该机器人满足启动条件,所以可以执行启动操作,如此,解决了机器人针对机器人行驶区域的起点确认问题。
需要说明的是:上述实施例提供的机器人控制装置在实现机器人控制方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的机器人控制装置与机器人控制方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图8是本申请实施例提供的一种机器人800的结构示意图,该机器人800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processingunits,CPU)801和一个或一个以上的存储器802,其中,所述存储器802中存储有至少一条指令,所述至少一条指令由所述处理器801加载并执行以实现上述各个方法实施例提供的应用耗电监控方法。
当然,该机器人800还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该机器人800还可以包括其他用于实现设备功能的部件,在此不做赘述。
本申请实施例还提供了一种非临时性计算机可读存储介质,当所述存储介质中的指令由机器人的处理器执行时,使得机器人能够执行上述所示实施例提供的机器人控制方法。
本申请实施例还提供了一种包含指令的计算机程序产品,当其在机器人上运行时,使得计算机执行上述所示实施例提供的机器人控制方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种机器人控制方法,其特征在于,应用于机器人中,所述方法包括:
获取在当前位置采集到的视觉图像;
在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物且所述障碍物与所述机器人之间的距离小于车道宽度,则当根据所述机器人分别与所述道路边界和所述车道的位置关系确定所述机器人位于预设的机器人行驶区域内时,执行启动操作。
2.如权利要求1所述的方法,其特征在于,所述根据所述机器人分别与所述道路边界和所述车道的位置关系确定所述机器人位于预设的机器人行驶区域内之前,还包括:
获取当前位置的位置信息;
相应地,所述根据所述机器人分别与所述道路边界和所述车道的位置关系确定所述机器人位于预设的机器人行驶区域内包括:
根据所述机器人分别与所述道路边界和所述车道的位置关系,以及根据所述位置信息,确定所述机器人位于预设的机器人行驶区域内。
3.如权利要求2所述的方法,其特征在于,所述根据所述机器人分别与所述道路边界和所述车道的位置关系,以及根据所述位置信息,确定所述机器人位于预设的机器人行驶区域内,包括:
当所述位置信息指示的位置位于机器人行驶区域内时,确定所述机器人与所述道路边界之间的第一横向距离,以及所述机器人与所述车道之间的第二横向距离;
根据所述位置信息,确定所述机器人相对于所述机器人行驶区域的第三横向距离和第四横向距离,所述第三横向距离是指所述机器人与所述机器人行驶区域中靠近道路边界侧的边界之间的距离,所述第四横向距离是指所述机器人与所述机器人行驶区域中靠近车道侧的边界之间的距离;
若所述第一横向距离与所述第三横向距离之间的差值小于第一距离阈值,且所述第二横向距离与所述第四横向距离之间的差值小于第二距离阈值,则确定所述机器人位于所述机器人行驶区域内。
4.如权利要求3所述的方法,其特征在于,所述方法还包括:
当所述位置信息指示的位置不位于机器人行驶区域内时,若所述第一横向距离与所述第三横向距离之间的差值小于第三距离阈值,以及所述第二横向距离与所述第四横向距离之间的差值小于第四距离阈值,则根据所述位置信息,确定所述机器人相对于所述机器人行驶区域的第五横向距离和纵向距离;
其中,所述第五横向距离是指在横向方向上所述机器人与所述机器人行驶区域中靠近所述机器人侧的区域边界之间的距离,所述纵向距离是指在道路行驶方向上所述机器人与所述机器人行驶区域中靠近所述机器人侧的区域边界之间的距离;
将所述第五横向距离与所述纵向距离发送至后台设备;
接收所述后台设备发送的移动指令,根据所述移动指令控制所述机器人移动至所述机器人行驶区域内。
5.如权利要求3或4所述的方法,其特征在于,所述方法还包括:
当所述视觉图像包括多条车道时,将所述机器人与距离所述道路边界最近的车道之间的横向距离作为所述第二横向距离。
6.如权利要求1所述的方法,其特征在于,所述获取在当前位置采集到的视觉图像之后,还包括:
在所述视觉图像中不存在道路边界和/或车道的情况下,禁止启动所述机器人;或者,
在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面不存在障碍物,则禁止启动所述机器人;或者,
在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物,则当所述障碍物与所述机器人之间的距离大于或等于车道宽度时,禁止启动所述机器人。
7.如权利要求1、2、3、4和6中任一项所述的方法,其特征在于,所述机器人行驶区域为应急车道,所述机器人行驶区域位于车道与道路边界之间。
8.一种机器人控制装置,其特征在于,配置于机器人中,所述装置包括:
获取模块,用于获取在当前位置采集到的视觉图像;
执行模块,用于在所述视觉图像中存在道路边界和车道的情况下,如果探测所述机器人的侧面存在障碍物且所述障碍物与所述机器人之间的距离小于车道宽度,则当根据所述机器人分别与所述道路边界和所述车道的位置关系确定所述机器人位于预设的机器人行驶区域内时,执行启动操作。
9.如权利要求8所述的装置,其特征在于,
所述获取模块还用于:获取当前位置的位置信息;相应地,所述执行模块用于:根据所述机器人分别与所述道路边界和所述车道的位置关系,以及根据所述位置信息,确定所述机器人位于预设的机器人行驶区域内;
所述执行模块还用于:如果探测所述机器人的侧面存在障碍物且所述障碍物与所述机器人之间的距离小于车道宽度,则确定存在道路边界障碍物;
所述获取模块还用于:获取当前位置的位置信息;相应地,所述执行模块用于:根据所述机器人分别与所述道路边界和所述车道的位置关系,以及根据所述位置信息,确定所述机器人位于预设的机器人行驶区域内;
所述获取模块用于:当所述位置信息指示的位置不位于机器人行驶区域内时,确定所述机器人与所述道路边界之间的第一横向距离,以及所述机器人与所述车道之间的第二横向距离;根据所述位置信息,确定所述机器人相对于所述机器人行驶区域的第三横向距离和第四横向距离,所述第三横向距离是指所述机器人与所述机器人行驶区域中靠近道路边界侧的边界之间的距离,所述第四横向距离是指所述机器人与所述机器人行驶区域中靠近车道侧的边界之间的距离;若所述第一横向距离与所述第三横向距离之间的差值小于第一距离阈值,且所述第二横向距离与所述第四横向距离之间的差值小于第二距离阈值,则确定所述机器人位于所述机器人行驶区域内;
所述获取模块还用于:当所述位置信息指示的位置不位于机器人行驶区域内时,若所述第一横向距离与所述第三横向距离之间的差值小于第三距离阈值,以及所述第二横向距离与所述第四横向距离之间的差值小于第四距离阈值,则根据所述位置信息,确定所述机器人相对于所述机器人行驶区域的第五横向距离和纵向距离;其中,所述第五横向距离是指在横向方向上所述机器人与所述机器人行驶区域中靠近所述机器人侧的区域边界之间的距离,所述纵向距离是指在道路行驶方向上所述机器人与所述机器人行驶区域中靠近所述机器人侧的区域边界之间的距离;将所述第五横向距离与所述纵向距离发送至后台设备;接收所述后台设备发送的移动指令,根据所述移动指令控制所述机器人移动至所述机器人行驶区域内;
所述获取模块还用于:当所述视觉图像包括多条车道时,将所述机器人与距离所述道路边界最近的车道之间的横向距离作为所述第二横向距离;
所述执行模块还用于:在所述视觉图像中不存在道路边界和/或车道的情况下,禁止启动所述机器人;或者,在所述视觉图像中存在道路边界和车道的情况下,如果探测不存在所述道路边界障碍物,则禁止启动所述机器人;
其中,所述机器人行驶区域为应急车道,所述机器人行驶区域位于车道与道路边界之间。
10.一种机器人,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现权利要求1-7所述的任一项方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911024445.2A CN112706159B (zh) | 2019-10-25 | 2019-10-25 | 机器人控制方法、装置及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911024445.2A CN112706159B (zh) | 2019-10-25 | 2019-10-25 | 机器人控制方法、装置及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112706159A true CN112706159A (zh) | 2021-04-27 |
CN112706159B CN112706159B (zh) | 2023-02-10 |
Family
ID=75540791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911024445.2A Active CN112706159B (zh) | 2019-10-25 | 2019-10-25 | 机器人控制方法、装置及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112706159B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112799387A (zh) * | 2019-10-25 | 2021-05-14 | 杭州海康汽车技术有限公司 | 机器人控制方法、装置及机器人 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101135558A (zh) * | 2007-09-28 | 2008-03-05 | 深圳先进技术研究院 | 一种基于机器视觉的汽车防撞预警方法及装置 |
CN102789233A (zh) * | 2012-06-12 | 2012-11-21 | 湖北三江航天红峰控制有限公司 | 基于视觉的组合导航机器人及导航方法 |
CN103473937A (zh) * | 2013-09-04 | 2013-12-25 | 杭州市公安局交通警察支队 | 一种潮汐车道控制系统 |
CN105974925A (zh) * | 2016-07-19 | 2016-09-28 | 合肥学院 | Agv小车行驶的控制方法及系统 |
CN106886217A (zh) * | 2017-02-24 | 2017-06-23 | 安科智慧城市技术(中国)有限公司 | 自主导航控制方法和装置 |
CN107300879A (zh) * | 2017-07-28 | 2017-10-27 | 泰安航天特种车有限公司 | 基于多路复用的综合信息集成控制系统 |
CN110091918A (zh) * | 2018-01-29 | 2019-08-06 | 杭州海康汽车技术有限公司 | 一种获取泊车路径的方法及装置 |
WO2019194634A1 (ko) * | 2018-04-06 | 2019-10-10 | 엘지전자 주식회사 | 이동 로봇과 이동 로봇 시스템 |
-
2019
- 2019-10-25 CN CN201911024445.2A patent/CN112706159B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101135558A (zh) * | 2007-09-28 | 2008-03-05 | 深圳先进技术研究院 | 一种基于机器视觉的汽车防撞预警方法及装置 |
CN102789233A (zh) * | 2012-06-12 | 2012-11-21 | 湖北三江航天红峰控制有限公司 | 基于视觉的组合导航机器人及导航方法 |
CN103473937A (zh) * | 2013-09-04 | 2013-12-25 | 杭州市公安局交通警察支队 | 一种潮汐车道控制系统 |
CN105974925A (zh) * | 2016-07-19 | 2016-09-28 | 合肥学院 | Agv小车行驶的控制方法及系统 |
CN106886217A (zh) * | 2017-02-24 | 2017-06-23 | 安科智慧城市技术(中国)有限公司 | 自主导航控制方法和装置 |
CN107300879A (zh) * | 2017-07-28 | 2017-10-27 | 泰安航天特种车有限公司 | 基于多路复用的综合信息集成控制系统 |
CN110091918A (zh) * | 2018-01-29 | 2019-08-06 | 杭州海康汽车技术有限公司 | 一种获取泊车路径的方法及装置 |
WO2019194634A1 (ko) * | 2018-04-06 | 2019-10-10 | 엘지전자 주식회사 | 이동 로봇과 이동 로봇 시스템 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112799387A (zh) * | 2019-10-25 | 2021-05-14 | 杭州海康汽车技术有限公司 | 机器人控制方法、装置及机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN112706159B (zh) | 2023-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11320833B2 (en) | Data processing method, apparatus and terminal | |
CN105512646B (zh) | 一种数据处理方法、装置及终端 | |
CN111091037B (zh) | 用于确定驾驶信息的方法和设备 | |
EP3637313A1 (en) | Distance estimating method and apparatus | |
CN112036210B (zh) | 一种检测障碍物的方法、装置、存储介质和移动机器人 | |
CN111874006A (zh) | 路线规划处理方法和装置 | |
CN111611853A (zh) | 一种传感信息融合方法、装置及存储介质 | |
CN114494618B (zh) | 地图的生成方法、装置、电子设备及存储介质 | |
JP2019099138A (ja) | 車線維持補助方法及び装置 | |
CN111213153A (zh) | 目标物体运动状态检测方法、设备及存储介质 | |
EP3961580A1 (en) | Apparatus, method, and computer program for object detection | |
CN110341621B (zh) | 一种障碍物检测方法及装置 | |
CN112654998B (zh) | 一种车道线检测方法和装置 | |
CN111160132B (zh) | 障碍物所在车道的确定方法、装置、电子设备和存储介质 | |
CN115366885A (zh) | 用于辅助机动车的驾驶操作的方法、辅助装置及机动车 | |
CN113879298A (zh) | 一种车辆的车道保持控制方法、装置及系统 | |
CN114212108B (zh) | 自动驾驶方法、装置、车辆、存储介质及产品 | |
CN111507126B (zh) | 一种驾驶辅助系统的报警方法、装置及电子设备 | |
CN112706159B (zh) | 机器人控制方法、装置及机器人 | |
KR20220101535A (ko) | 딥러닝 기반 온-디바이스 실시간 교통제어 시스템 | |
CN114596706B (zh) | 路侧感知系统的检测方法及装置、电子设备和路侧设备 | |
CN115249407B (zh) | 指示灯状态识别方法、装置、电子设备、存储介质及产品 | |
CN112799387B (zh) | 机器人控制方法、装置及机器人 | |
WO2022183415A1 (zh) | 一种积水深度确定方法及装置 | |
CN108416305B (zh) | 连续型道路分割物的位姿估计方法、装置及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |