CN107807652A - 物流机器人、用于其的方法和控制器及计算机可读介质 - Google Patents
物流机器人、用于其的方法和控制器及计算机可读介质 Download PDFInfo
- Publication number
- CN107807652A CN107807652A CN201711299324.XA CN201711299324A CN107807652A CN 107807652 A CN107807652 A CN 107807652A CN 201711299324 A CN201711299324 A CN 201711299324A CN 107807652 A CN107807652 A CN 107807652A
- Authority
- CN
- China
- Prior art keywords
- information
- machine people
- merchandising machine
- target
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 24
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 claims abstract description 60
- 238000000605 extraction Methods 0.000 claims description 19
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 230000004888 barrier function Effects 0.000 abstract description 28
- 238000006073 displacement reaction Methods 0.000 description 28
- 230000005021 gait Effects 0.000 description 16
- 230000001276 controlling effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000003044 adaptive effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000004807 localization Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- NBIIXXVUZAFLBC-UHFFFAOYSA-N Phosphoric acid Chemical compound OP(O)(O)=O NBIIXXVUZAFLBC-UHFFFAOYSA-N 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000037230 mobility Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 235000020004 porter Nutrition 0.000 description 1
- 238000007634 remodeling Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Acoustics & Sound (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请公开了一种物流机器人,其包括:可移动底座;信息采集装置;和,主控制器。信息采集装置适于采集其视野范围内存在的对象的图像信息和深度信息,和/或适于通过采集机器人所在物流场所的至少一个区域中存在的对象的位置信息建立该至少一个区域的地图;相应地,主控制器可被配置为:从信息采集装置接收信息,规划使机器人跟随跟随目标的跟随路线,和/或规划将机器人导航至导航目标位置的导航路线。根据需要,物流机器人可实现跟随功能、导航功能或二者,还可具有避障功能。利用本发明,可在无需人工干预的情况下进行相关操作如货物自主搬运等,节省人力成本、提高工作效率。
Description
技术领域
本申请总体上涉及可在仓储环境中使用的运输工具。更具体地,本申请涉及一种物流机器人。
背景技术
随着电子商务的兴起和发展,物流业得到了迅速发展。尤其是近些年,随着双十一等大型网上购物节的流行,物流行业的工作越来越繁忙。
快递物品在被发出直至被送到收件人手中,往往需要经过不同的中转站。例如,快递物品通常被运到一个地区的总仓,再由总仓分发到分仓,再由分仓发送到集散点,再由人力送到收件人手上。在仓储环境中,货物的搬运是一项工作量巨大的工作。例如,操作人员在货架处拣货后,需要将货物搬运到打包台进行打包作业。目前,这样的搬运工作主要是通过人力来进行的,不仅人力消耗大,而且搬运效率低。即使一些传送运输装置用来进行这样的搬运工作,也往往需要大量人工干预。
发明内容
因此,本发明的目的在于提供一种物流机器人。根据需要,该物流机器人可以具有跟随功能,或具有导航功能,或具有跟随功能和导航功能二者。
根据本发明的第一方面,提供一种物流机器人,其包括:
可移动底座;
信息采集装置,适于采集其覆盖范围内存在的对象的图像信息和深度信息;
主控制器,耦合至所述信息采集装置,并被配置为:
获取所述物流机器人要跟随的跟随目标的身份信息,其中所述跟随目标具有相关联的识别特征;
从所述信息采集装置接收所述图像信息和深度信息;
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述信息采集装置捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向,其中所述图像信息包括所述图像;
从所述深度信息提取所识别的跟随目标的距离信息以确定所述跟随目标相对于所述物流机器人的距离;
至少基于包括所确定的方向和距离的跟随目标位置信息规划所述物流机器人跟随所述跟随目标的跟随路线,并控制所述可移动底座使所述物流机器人沿所述跟随路线行进。
根据本发明的第二方面,提供一种物流机器人,其包括:
可移动底座;
主控制器,所述主控制器被配置为:
获取所述物流机器人所在的物流场所的至少一个区域的地图信息,所述至少一个区域包括所述物流场所的整个区域的全部或一部分;
确定所述物流机器人的当前位置;
获取指示导航目标位置的信息;
至少基于所述地图信息、所述当前位置和所述指示导航目标位置的信息规划将所述物流机器人导航至所述导航目标位置的导航路线,并控制所述可移动底座使所述物流机器人沿所述导航路线行进,
其中所述至少一个区域包括所述当前位置和所述导航目标位置。
根据本发明的第三方面,提供一种物流机器人,其包括:
可移动底座;
第一信息采集装置,适于采集其覆盖范围内存在的对象的图像信息和深度信息;
主控制器,耦合至所述第一信息采集装置,并被配置为:
获取所述物流机器人要跟随的跟随目标的身份信息,其中所述跟随目标具有相关联的识别特征;
从所述第一信息采集装置接收所述图像信息和深度信息;
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述第一信息采集装置捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向,其中所述图像信息包括所述图像;
从所述深度信息提取所识别的跟随目标的距离信息以确定所述跟随目标相对于所述物流机器人的距离;
至少基于包括所确定的方向和距离的跟随目标位置信息规划所述物流机器人跟随所述跟随目标的跟随路线,并控制所述可移动底座使所述物流机器人沿所述跟随路线行进,
其中,所述主控制器还被配置为:
获取所述物流机器人所在的物流场所的至少一个区域的地图信息,所述至少一个区域包括所述物流场所的整个区域的全部或一部分;
确定所述物流机器人的当前位置;
获取指示导航目标位置的信息;
至少基于所述地图信息、所述当前位置和所述指示导航目标位置的信息规划将所述物流机器人导航至所述导航目标位置的导航路线,并控制所述可移动底座使所述物流机器人沿所述导航路线行进,
其中所述至少一个区域包括所述当前位置和所述导航目标位置。
根据本发明的第四方面,提供一种用于具有可移动底座的物流机器人的方法,该方法包括:
获取所述物流机器人要跟随的跟随目标的身份信息,其中所述跟随目标具有相关联的识别特征;
从采集其覆盖范围内存在的对象的图像信息和深度信息的信息采集装置接收图像信息和度信息;
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述信息采集装置捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向,其中所述图像信息包括所述图像;
从所述深度信息提取所识别的跟随目标的距离信息以确定所述跟随目标相对于所述物流机器人的距离;和
至少基于包括所确定的方向和距离的跟随目标位置信息规划所述物流机器人跟随所述跟随目标的跟随路线,并控制所述可移动底座使所述物流机器人沿所述跟随路线行进。
根据本发明的第五方面,提供一种用于具有可移动底座的物流机器人的方法,该方法包括:
获取所述物流机器人所在的物流场所的至少一个区域的地图信息,所述至少一个区域包括所述物流场所的整个区域的全部或一部分;
确定所述物流机器人的当前位置;
获取指示导航目标位置的信息;和
至少基于所述地图信息、所述当前位置和所述指示导航目标位置的信息规划将所述物流机器人导航至所述导航目标位置的导航路线,并控制所述可移动底座使所述物流机器人沿所述导航路线行进,
其中所述至少一个区域包括所述当前位置和所述导航目标位置。
根据本发明的第六方面,提供一种用于具有可移动底座的物流机器人的控制器,该控制器包括存储器和处理器,其中所述存储器上存储有计算机指令,所述指令在由所述处理器执行时引起所述控制器执行根据本发明第四方面或第五方面的方法的步骤。
根据本发明的第七方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机指令,所述指令在由具有可移动底座的物流机器人的一个或多个处理器执行时实现根据本发明第四方面或第五方面的方法的步骤。
通过可选的跟随功能,本发明的物流机器人能够跟随人,由此可实现例如货物自主搬运等,而无需人工干预。通过可选的导航功能,本发明的物流机器人能够从其当前位置行进至期望的导航目标位置,由此可实现例如自主行进至操作区、完成操作后自动回到待命区等,而无需人工干预。利用本发明,无疑可节省人力成本、提高工作效率。
附图说明
通过以下附图能够更好地理解本发明,其中:
图1是示出根据本发明的物流机器人的相关部件的示意性框图;
图2是根据本发明的物流机器人的一种示例表示。
具体实施方式
应当理解,前述的一般说明和以下的详细说明仅是示例性的和解释性的,而并非是对所附的权利要求的限制。
本发明提出了一种可在无需人工干预的情况下自主完成相关操作的物流机器人及相关的方法和装置。该物流机器人可为物流小车的形式,可适用于多种环境,包括仓储环境,例如用于快递物品的仓库、中转站等。
本发明的物流机器人可仅具有跟随功能,或仅具有导航功能,或具有跟随功能和导航功能两者。另外,本发明的物流机器人可具有其他期望和/或必要的功能,如避障功能等。
对于跟随功能,物流机器人可包括:可移动底座;信息采集装置,适于采集其视野范围内存在的对象的图像信息和深度信息;和耦合至第一信息采集装置的主控制器。
上述信息采集装置亦可称为“第一信息采集装置”,以方便描述。第一信息采集装置可以为任何适合采集其覆盖范围内对象的图像信息和深度信息的相机或摄像机,和/或其他形式的传感器;稍后会作进一步描述。
主控制器耦合至第一信息采集装置,被配置为:获取物流机器人要跟随的跟随目标的身份信息,其中所述跟随目标具有相关联的识别特征;从第一信息采集装置接收图像信息和深度信息;从所述图像信息提取与所述相关联的识别特征相应的图像特征,将所述图像特征与识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述第一信息采集装置捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向,其中所述图像信息包括所述图像;从所述深度信息提取所识别的跟随目标的距离信息,由所述距离信息确定所述跟随目标相对于所述物流机器人的距离;至少基于包括所确定的方向和距离的跟随目标位置信息规划所述物流机器人跟随所述跟随目标的跟随路线,并控制所述底座使所述物流机器人沿所述跟随路线行进。
在一个示例中,将所述图像特征与所述跟随目标的识别特征进行匹配以识别所述跟随目标包括:将所述图像特征与所述跟随目标的识别特征进行匹配,并在所述图像特征与所述跟随目标的识别特征相匹配时识别所述跟随目标。
第一信息采集装置可包括RGBD相机,RGBD相机适于采集其视野范围内存在的对象的图像信息和深度信息。替代地或附加地,第一信息采集装置可包括单目相机和激光雷达,其中单目相机适于采集其视野范围内存在的对象的图像信息,激光雷达适于采集其视野范围内存在的对象的深度信息。
RGBD相机的视野范围一般可以达到58度至60度;单目相机的视野范围可达到约160度;激光雷达的视野范围可达到约180度。
优选地,第一信息采集装置既包括上述的RGBD相机,又包括上述的单目相机和激光雷达。在此情况下,主控制器可被配置为:优先从所述RGBD相机获取所述跟随目标的图像信息和深度信息;在未能从所述RGBD相机获取所述跟随目标的图像信息和/或深度信息达一预定时间的情况下,分别从所述单目相机和激光雷达获取所述跟随目标的图像信息和深度信息。该预定时间是可设定的,例如可为数百毫秒至1秒。例如,在识别目标超出RGBD相机视野范围的情况下,主控制器在一段时间如1秒内无法从RGBD相机获取有效信息来识别跟随目标,就改为使用来自单目相机和激光雷达的相关信息以识别跟随目标。利用这样的配置,可发挥RGBD相机以及单目相机+激光雷达组合各自的优势,更好、更有效地识别跟随目标。
根据需要,可以设置多个RGBD相机。另外,根据需要,单目相机和激光雷达的数量均可以是一个或多个。
在主控制器分别从单目相机和激光雷达获取跟随目标的图像信息和深度信息的情况下,主控制器可如下所述地识别跟随目标:
从图像信息提取与跟随目标的识别特征相应的图像特征,将图像特征与识别特征进行匹配,以识别跟随目标,并基于所识别的跟随目标在单目相机捕获的图像中的位置确定跟随目标相对于物流机器人的方向信息;
通过将上述方向信息映射到激光雷达获得的点状图中,确定点状图中与所述方向信息相匹配的点并由此确定所识别的跟随目标相对于物流机器人的距离信息;
由所确定的方向信息和距离信息确定所述跟随目标相对于物流机器人的位置信息作为跟随目标位置信息。
应理解的是,上述的图像信息包括单目相机捕获的图像,上述的深度信息包括激光雷达获得的点状图,上述的跟随目标位置信息指示所述跟随目标相对于物流机器人的方向和距离。
可以预期的是,第一信息采集装置可以实时采集其视野范围内存在的对象的视觉信息,包括图像信息和深度信息;主控制器可以从第一信息采集装置实时获取其采集的信息,并实时进行跟随目标识别、实时确定跟随目标位置信息、实时规划跟随路线。
可以预期的是,主控制器可以多种方式有线地或无线地获取跟随目标的身份信息,例如,主控制器可以从主控制器可耦合至或可与之通信的任何设备如服务器、移动设备如操作人员的移动设备等,获取跟随目标的身份信息。根据需要,主控制器可以经由线缆与这样的设备连接和通信,或经由BluetoothTM、WiFi、ZigBeeTM或其他无线通信协议与这样的设备通信。
通常,上述的跟随目标为被授权使用物流机器人的人员,例如机器人的操作人员。主控制器可被配置为基于获取的跟随目标的身份信息对跟随目标授权。该身份信息可以为任何可唯一地识别跟随目标的身份的信息,例如但不限于:跟随目标的用户名和密码,跟随目标的指纹,跟随目标的脸部图像等。
跟随目标的识别特征可以与跟随目标的身份信息相关联。该识别特征可以是跟随目标本身或其身上佩戴或携带的适于识别该跟随目标的任何特征。在跟随目标为操作人员的情况下,其识别特征可以为,例如但不限于:其体型、其背上携带的工号、其背上携带的二维码、其所着服装的颜色等。
上文所述的“与所述相关联的识别特征相应的图像特征”意指,图像特征和识别特征为同类型的特征、具有可比较性。例如,若识别特征为跟随目标的体型,“与所述相关联的识别特征相应的图像特征”代表体型;若识别特征为跟随目标所着服装的颜色,“与所述相关联的识别特征相应的图像特征”代表颜色。
类似地,主控制器可以多种方式有线地或无线地获取跟随目标的识别特征,例如通过访问存储有跟随目标的识别特征的存储器和/或数据库。该存储器和/或数据库可以是本地的,或者是远程的,例如位于主控制器可访问的服务器和/或可与之通信的移动设备如操作人员的移动设备中。此外,所述的识别特征可通过事先与具体跟随目标相关地(针对具体跟随目标)训练物流机器人来确定和获得。
优选地,物流机器人还包括输入装置用于输入信息,并且主控制器耦合至输入装置,并被配置为从输入装置接收跟随目标的身份信息和/或其相关联的识别特征。
该输入装置可为任何适用于输入信息的装置,可以为,例如但不限于:键盘、触敏屏、指纹输入装置、摄像头如单目人脸识别相机等中的一个或多个。
通常预期的是,跟随目标的身份信息经由输入装置输入。
对于导航功能,物流机器人可包括:可移动底座;和主控制器。
主控制器可被配置为:获取物流机器人所在的物流场所的至少一个区域的地图信息,该至少一个区域可为物流场所的整个区域的全部或一部分;确定物流机器人的当前位置;获取指示导航目标位置的信息;基于所述地图信息、所述当前位置和所述指示导航目标位置的信息规划将所述物流机器人导航至所述导航目标位置的导航路线,并控制所述底座使所述物流机器人沿所述导航路线行进。预期的是,上述当前位置用作导航起始位置,另外上述的至少一个区域包括所述当前位置和导航目标位置。
主控制器可以多种合适的方式有线地或无线地获取物流场所的至少一个区域的地图信息,例如可通过访问存储有所述地图信息的存储器和/或数据库,或通过访问网络来获取所述地图信息。该存储器和/或数据库可以是本地的,或者是远程的,例如位于主控制器可访问的服务器和/或可与之通信的移动设备如操作人员的移动设备中。另外,该至少一个区域的地图信息和地图可以是预先获取和建立的。
对于跟随功能,优选地,物流机器人还包括信息采集装置用于:通过扫描物流场所的至少一个区域采集所述至少一个区域中存在的对象的位置信息;以及基于所采集的所述至少一个区域中存在的对象的位置信息构建所述至少一个区域的地图;该信息采集装置亦可被称为“第二信息采集装置”,以方便描述。主控制器可耦合至第二信息采集装置,并被配置为从第二信息采集装置获取所述地图。应理解,上述的地图信息可以是地图。
例如,所述第二信息采集装置可包括激光雷达。激光雷达适于:通过扫描上述至少一个区域采集该至少一个区域中存在的对象的激光点云数据,该点云数据指示所述至少一个区域中存在的对象的位置信息;通过将所述点云数据转换成二维图像,基于所述至少一个区域中存在的对象的位置信息确定所述至少一个区域中存在的对象相对于一预定的固定点的二维坐标,由此建立所述至少一个区域的地图。应理解,上述的地图信息可包括所述至少一个区域中存在的对象相对于该预定的固定点的二维坐标。
可以预期,上述预定的固定点,即地图坐标原点,可以是任意固定点,例如可以是所述至少一个区域中的任一固定点。
在一个实施例中,第二信息采集装置还包括单目相机。单目相机适于捕获上述至少一个区域中的每个特征要素的图像。主控制器被配置为:基于建立的地图和从单目相机接收的每个特征要素的图像确定每个特征要素在所述地图中的二维坐标。所述特征要素可以是预先布置的或从所述至少一个区域中存在的对象选择的。每个特征要素可以是任何具有可区分的特征的要素,可以为,例如但不限于:二维码、字母、数字、符号如LOGO、或其任意组合。
主控制器可以多种方式有线地或无线地获取指示导航目标位置的信息,例如,控制器可以通过访问存储有指示导航目标位置的信息的存储器和/或数据库,和/或通过访问网络或以其它合适的方式从控制器可耦合至或可与之通信的任何设备如服务器、移动设备如操作人员的移动设备等,获取指示导航目标位置的信息。根据需要,主控制器可以经由线缆与其他设备连接和通信,或经由BluetoothTM、WiFi、ZigBeeTM或其他无线通信协议与其他设备通信。
如上文所述,物流机器人还可包括输入装置用于输入信息。通常可预期,主控制器从物流机器人的输入装置获取所述指示导航目标位置的信息。
主控制器可以多种方式确定物流机器人在上述至少一个区域中的当前位置,下面仅列举几种示例性方式。
方式1:主控制器将由激光雷达实时扫描得到的信息与建立的地图中的特征相匹配,识别所述地图中与由激光雷达扫描得到的信息相匹配的匹配特征,基于所述匹配特征在所述地图中的二维坐标确定所述物流机器人的当前位置——例如,可将所识别的匹配特征在所述地图中的二维坐标作为物流机器人的当前位置。该方式是利用自适应蒙特卡洛定位算法对物流机器人进行自定位;自适应蒙特卡洛定位算法本身是相关领域普遍使用的一种定位算法,这里不对其进行赘述。方式1可适用于机器人静止和移动的情况下。
方式2:主控制器基于接收到的物流机器人的当前位置信息确定物流机器人的当前位置。该当前位置信息例如可由操作人员经由输入装置输入。这种方式通常可用于在开始导航之前输入导航起始位置。
方式3:主控制器将由单目相机实时捕获到的图像与上述的特征要素相匹配,在识别出与单目相机实时捕获到的图像相匹配的匹配特征要素时,基于所述匹配特征要素在建立的地图中的二维坐标确定物流机器人的当前位置——例如,可将所述匹配特征要素在所述地图中的二维坐标作为物流机器人的当前位置。该方式有时可能不是适用的,例如当物流机器人处于或行进至附近没有特征要素的位置时。
方式4:主控制器实时确定物流机器人的行进方向和行进速度,由此确定物流机器人在建立的地图中的行进轨迹和行进位移;基于所述行进轨迹和行进位移确定并更新物流机器人在所述地图中的位置。
方式5:主控制器获取由一相机实时获取的连续图像;对于一段时间内的每两个连续图像:提取其中的一相同特征点,将其中的该相同特征点映射到同一坐标系中以确定该相同特征点的速度向量;基于如此获得的速度向量的系列,计算物流机器人在所述一段时间内的行进位移;基于所计算的行进位移及物流机器人在所述一段时间的起始时刻的位置信息,确定物流机器人的当前位置。方式5所使用的相机可以是RGBD相机、单目相机或双目相机中的一个或多个,并且该相机可以来自结合跟随功能描述的第一信息采集装置或结合导航功能描述的第二信息采集装置,也可以是第一信息采集装置和第二信息采集装置之外的相机。
对于方式2,主控制器可以多种方式有线地或无线地接收物流机器人的当前位置信息。例如,主控制器可以从物流机器人的输入装置如键盘或触敏屏接收物流机器人的当前位置信息。必要时,例如需要校正时,物流机器人的当前位置信息可由操作人员通过输入装置输入。另外,主控制器可以经由网络或以其它方式从其可耦合至或可与之通信的任何设备如服务器、移动设备如操作人员的移动设备等,接收物流机器人的当前位置信息。根据需要,主控制器可以经由线缆与这样的设备校正连接和通信,或经由BluetoothTM、WiFi、ZigBeeTM或其他无线通信协议与这样的设备通信。
对于方式5,例如可将获得的速度向量的系列在所述一段时间内进行积分来计算物流机器人在所述一段时间内的行进位移。
根据需要,主控制器可以将上述示例性方式中的多种相结合来实现物流机器人的更精确定位。
例如,主控制器可采用上述方式1和方式2的结合:在未接收到物流机器人的当前位置信息的情况下,使用方式1;在接收到物流机器人的当前位置信息的情况下,使用方式2,即基于接收到的物流机器人的当前位置信息确定所述物流机器人的当前位置。例如,必要时,主控制器可以利用接收的物流机器人的当前位置信息来自动校准利用方式1(自适应蒙特卡洛定位算法)确定的物流机器人的当前位置。例如,可以将接收的物流机器人的当前位置信息与利用自适应蒙特卡洛定位算法确定的物流机器人的当前位置相比较,基于两者之间的差对后者(即,利用自适应蒙特卡洛定位算法确定的物流机器人的当前位置)进行自动校准。
或者,主控制器可采用上述方式1和方式3的结合:在未识别出与单目相机实时捕获到的图像相匹配的匹配特征要素时,使用方式1;在识别出与单目相机实时捕获到的图像相匹配的匹配特征要素时,使用方式3,即基于所述匹配特征要素在建立的地图中的二维坐标确定物流机器人的当前位置。另外,主控制器可以利用基于识别的匹配特征要素在地图中的二维坐标所确定的物流机器人的当前位置来自动校准利用方式1(自适应蒙特卡洛定位算法)确定的物流机器人的当前位置;例如,可以将基于识别的与单目相机实时捕获到的图像相匹配的匹配特征要素在地图中的二维坐标所确定的物流机器人的当前位置与利用自适应蒙特卡洛定位算法确定的物流机器人的当前位置相比较,基于两者之间的差对后者(即,利用自适应蒙特卡洛定位算法确定的物流机器人的当前位置)进行自动校准。
另外,主控制器可采用上述方式1和方式4的结合:主要采用方式4对物流机器人定位;将通过方式1获得的数据用于定位校准。例如,主控制器将由激光雷达实时扫描得到的信息与建立的地图中的特征相匹配,在识别出所述地图中与由激光雷达扫描得到的信息相匹配的匹配特征时,基于所述匹配特征在所述地图中的二维坐标校准方式4中所确定的行进位移,并校准方式4中基于所述行进轨迹和行进位移所确定的物流机器人在所述地图中的位置——例如,使得基于所述行进轨迹和行进位移所确定的物流机器人在所述地图中的位置与所述匹配特征在所述地图中的二维坐标一致。
或者,主控制器可采用上述方式3和方式4的结合:主要采用方式4对物流机器人定位;将通过方式3获得的数据用于定位校准。例如,主控制器将由单目相机实时捕获到的图像与上述的特征要素相匹配,在识别出与单目相机实时捕获到的图像相匹配的匹配特征要素时,基于所述匹配特征要素在所述地图中的二维坐标校准方式4中所确定的行进位移,并校准方式4中基于所述行进轨迹和行进位移所确定的物流机器人在所述地图中的位置——例如,使得基于所述行进轨迹和行进位移所确定的物流机器人在所述地图中的位置与所述匹配特征要素在所述地图中的二维坐标一致。
或者,主控制器可采用上述方式4和方式5的结合:主要采用方式4对物流机器人定位;将通过方式5获得的数据用于定位校准。例如,主控制器基于通过方式5确定的物流机器人的当前位置校准方式4中所确定的行进位移,并校准方式4中基于所述行进轨迹和行进位移所确定的物流机器人在所述地图中的位置——例如,使得基于所述行进轨迹和行进位移所确定的物流机器人的当前位置与利用方式5确定的物流机器人的当前位置一致。
下面对可移动底座作进一步描述。
可移动底座可以采用多种方式实现可移动性,其中常见的方式之一是为可移动底座设置轮子。例如,可移动底座可具有设置在其下部的多个轮子,以由这些轮子支承,并通过这些轮子移动。通常,可移动底座具有至少3个轮子,例如可安装有3、4、5、6个轮子或更多个轮子;这些轮子中的2个——例如2个并排布置在底座两侧的轮子——可以被配置为动力轮,其他轮子可以为万向轮。当然,根据需要,可以将更多个轮子配置为动力轮。每个动力轮中可安装有驱动装置用于向轮子提供驱动力。另外,底座中可相应安装有驱动控制器,用于控制每个驱动装置向相应的动力轮提供驱动力。
2个并排布置的动力轮可被配置为方向控制动力轮,用于控制物流机器人的行进方向。例如,这2个方向控制动力轮并排地安装在底座的两侧,使得物流机器人的行进方向由这2个方向控制动力轮的行进速度的差决定,所述物流机器人的行进速度由这2个方向控制动力轮的行进速度的和决定。这方面,适用于一般交通工具如车辆中的由2个方向控制动力轮的速度确定车辆行进方向和速度的原理、方法和技术均可使用,这里不作赘述。
底座本身可被构造为适于承载货物,或者所述底座上面可以放置另外的构件用于承载货物。根据需要,底座可被构造为呈矩形等各种形式。
如上文提到的,可移动底座的多个轮子可以包括至少2个动力轮,每个动力轮中安装有驱动装置用于向轮子提供驱动力,底座中安装有驱动控制器。上述驱动装置可以为电机,带有电机的轮子可采用轮毂电机的形式。轮毂电机可以是任何合适的市售的轮毂电机。
优选地,可移动底座的四个拐角处各安装有一个万向轮,可移动底座的两侧中间处各安装有一个动力轮例如轮毂电机。即,可移动底座一共包括6个轮子,其中2个为动力轮,另外4个为万向轮。
替代地,可移动底座可在其前部2个拐角处各安装有一个动力轮,在其后部2个拐角处各安装有一个万向轮。
如果需要,可移动底座的多个轮子可以全部为动力轮,其中2个动力轮可被配置为方向控制动力轮。
在一个实施例中,驱动控制器耦合至每个所述驱动装置并耦合至上述主控制器。为使物流机器人沿所规划的跟随路线或导航路线行进,主控制器根据所规划的跟随路线或导航路线发送用于各动力轮的速度信号至驱动控制器,所述速度信号指示能导致物流机器人沿所规划的跟随路线或导航路线行进的各动力轮行进速度。驱动控制器根据所述速度信号控制每个所述驱动装置使得各动力轮以相应的行进速度行进。
每个方向控制动力轮中可安装有测速传感器,例如霍尔传感器或光电编码器,光电编码器亦可称为码盘或轮子编码器。对于本发明,优选使用光电编码器。光电编码器物理上可位于动力轮中,但其输出耦合至驱动控制器。例如,在轮毂电机用作方向控制动力轮的情况下,每个轮毂电机中可安装有一个光电编码器。驱动控制器可实时接收测速传感器感测的2个方向控制动力轮的速度信息,并将其传送给主控制器。主控制器基于接收的2个方向控制动力轮的速度信息可实时确定物流机器人的行进方向和速度。安装在轮子中的这样的测速传感器可以现有技术中已知的原理感测轮子速度(转速或行进速度),这里不进行赘述。
相应地,对于方式4,主控制器可经由驱动控制器获得由各轮子编码器感测的动力轮速度信息,并基于此确定物流机器人的行进速度和方向,由此确定物流机器人的行进轨迹和位移。
物流机器人的定位可用于多个目的,例如但不限于:必要时,根据机器人当前位置不断地对导航全局路径进行重新规划;判断机器人是否到达导航目标位置(机器人当前位置与导航目标位置一致时,即可确定机器人已到达导航目标位置);在机器人从跟随模式切换至导航模式时,进行必要的初始化。应理解的是,仅就实现跟随而言,物流机器人的定位不是必需的。
如上所述,可采用以轮子编码器为主、激光传感器(激光雷达)和特征要素如二维码为辅的定位方案对物流机器人定位。物流场所的场景变动对编码器里程计算没有影响,但是可能会对激光传感器和二维码定位造成影响。其中二维码辅助定位的精度相对高,若场景变化造成二维码位置发生变化,可能会对定位精度造成较大影响,需要重新建立地图。另外,场景变化较大时会直接影响激光定位,导致激光定位的精度降低,甚至使激光辅助定位功能失效。因而,在发生较小程度的场景变动时——如二维码位置不变时,对机器人整体定位精度影响不大,可以不重新建立地图;若场景变动较大,如引起二维码位置发生变动时,优选重新建立地图。可以通过将场景变动之前和之后的二维码坐标进行比较来确定是否重新建立地图。
上述的第一信息采集装置和第二信息采集装置只是根据其采集的信息为了描述方便所作的区分,它们本质上可以是相互独立的,也可以具有共同的部件——即第一信息采集装置的一部分可以同时被包括在第二信息采集装置中,第二信息采集装置的一部分可以同时被包括在第一信息采集装置中,或者它们甚至可能包括完全相同的部件,取决于具体情况。例如,在合适的情况下,第一信息采集装置和第二信息采集装置可具有共同的单目相机和/或RGBD相机和/或激光雷达。
另外,上述的RGBD相机可由双目相机代替,或改为双目相机和RGBD相机的组合。
本发明的物流机器人还可具有避障功能;这可通过设置一避障传感器装置来实现。具体地,避障传感器装置可适于探测障碍物并采集有关障碍物的信息。主控制器可耦合至避障传感器装置,并被配置为从避障传感器装置获取有关障碍物的信息以及进行以下至少之一:1)规划跟随路线或导航路线使得所述路线绕开障碍物;2)基于所述有关障碍物的信息确定是否有障碍物位于所规划的跟随路线或导航路线上,并在确定有障碍物位于所规划的跟随路线或导航路线上的情况下,调整所规划的跟随路线或导航路线使得所述路线绕开所述障碍物。所述有关障碍物的信息可包括所探测到的障碍物的位置信息和尺寸信息。优选地,避障传感器装置可包括布置在所述底座的各个侧面的多个超声传感器。例如,底座的每个侧面可布置有两个超声传感器。
可采用多种合适方式实现避障。下面以利用现有技术的方法为例进行简单说明。
例如,在跟随模式下,跟随目标总在机器人可探测到的范围之内,可利用已知的局部避障算法规划路线。例如,主控制器可同时获取障碍物和跟随目标相对于物流机器人(在机器人坐标系中)的位置信息,并据此进行实时运动规划。运动规划可采用机器人领域常用的人工势场法,得到从机器人当前位置到跟随目标位置的一条能够避开当前能探测到的障碍物的轨迹。通过快速迭代规划,可实现对静态和动态障碍物的避障。
在导航模式下,最终导航目标位置不一定在机器人可探测的范围内,可同时结合已知的全局规划算法和局部避障算法规划路线。例如,主控制器可根据事先建立好的地图,利用全局规划算法从当前位置规划出一条到导航目标位置的平滑全局导航路线;其中当前位置和导航目标位置均可映射到地图坐标系,因而当当前位置和导航目标位置相同时,即确定到达导航目标位置。在未探测到有除了地图中标出的对象之外的障碍物(地图与实际环境完全吻合且不存在动态障碍)时,机器人会根据已规划好的全局导航路线行进;若探测到周围有地图中标出的对象之外的障碍物并且该障碍物在规划好的导航路线上,可利用局部避障算法对局部范围内的路线重新进行规划,避开障碍物,并根据当前位置对全局路线重新进行规划,直到到达导航目标位置。
在人工势场法中,可获得机器人当前位置、目标位置和障碍物位置,根据机器人当前位置到目标位置的距离在机器人周围范围内建立梯度;障碍物在梯度图中表示为凸集,从而根据梯度下降的方向,能从机器人当前位置规划出到目标位置的最短路径作为机器人行进路线。局部避障算法与人工势场法类似,具体可利用DWA规划,即动态窗口法。在全局规划算法中,根据机器人当前位置、导航目标位置和地图信息以及障碍物自身尺寸信息,利用A*算法找到从当前位置至目标位置的最短路径作为规划的路线。在地图与实际环境完全吻合且不存在动态障碍的情况下,仅全局规划算法即可满足导航要求;相反,则需要局部避障算法对局部范围内的路径进行重新规划。人工势场法,DWA算法和A*算法均是现有技术中已知的,这里不进行赘述。
作为一个附加特征,本发明的物流机器人还可以包括照明装置,该照明装置可耦合至主控制器并由主控制器选择性地启用和停用。照明装置可以包括例如位于底座上的一个或多个LED灯。可以预期,物流机器人还可以包括用于感测环境光照状况的光传感器,该光传感器耦合至主控制器,主控制器被配置为从光传感器接收其感测的环境光照状况并根据环境光照状况选择性地启用和停用照明装置。例如,主控制器可在感测的环境光照状况低于一下阈值光照水平时启用照明装置,在感测的环境光照状况超过一上阈值光照水平时停用照明装置。替代地或附加地,主控制器可以在一时间段内无法获得来自某个或某些信息采集装置或其部分(例如RGBD相机和/或单目相机)的有效视觉信息时,启用照明装置;该时间段可以是根据情况预先设定的。
本发明的物流机器人还可包括:从底座向上延伸的至少一个支柱,例如2个支柱;以及,通过这2个支柱安装在底座上方的控制面板。优选地,控制面板设置在底座上方1-1.5米的位置处。
上述的RGBD相机、单目相机、双目相机、输入装置优选设置在控制面板上。
控制面板上还可以安装有急停开关,用于在紧急情况下制动物流机器人。主控制器可耦合至急停开关,并被配置为在急停开关被启用时制动可移动底座,从而制动物流机器人使其停止行进。
本发明的物流机器人可以设置有位于底座上方、与底座间隔开的、适于承载货物的附加货架。该附加货架可通过用于安装控制面板的支柱进行安装。优选的是,底座上预留有至少一个附加货架安装孔,例如2个附加货架安装孔,相应数量的附加支柱可通过附加货架安装孔安装至底座并从底座向上延伸;附加货架可通过用于安装控制面板的支柱及附加支柱安装。所述货架和所述支柱均是可拆卸的。
通常,所述主控制器可安装在可移动底座内。上述的用于安装控制面板的支柱优选是中空的、适于供线缆通过。主控制器可经由穿过中空的支柱内部的线缆耦合至上述的RGBD相机、单目相机、双目相机、输入装置和急停开关。
可预期,可移动底座中可安装有可再充电电池,以为物流机器人提供动力。另外,物流机器人可自动充电,而无需人工干预。例如,物流机器人可具有电池电量检测装置,电池电量检测装置可设置在底座内并耦合至主控制器,在电池电量检测装置检测到电池电量下降到一阈值水平以下时,可触发主控制器使物流机器人自动充电。在需要充电时,物流机器人可自动导航至充电区域并对准充电插口进行充电;在充电完成后,物流机器人可自主回到待命区。
本发明的物流机器人在具备导航功能的情况下,在跟随跟随目标将承载的货物搬运到卸货区后,可切换至导航模式,利用导航功能自动导航至导航目标位置如待命区。
图1是示出根据本发明的物流机器人的相关部件的示意性框图,其中示出了上文提到的主控制器、RGBD相机、单目相机、激光雷达、超声传感器、驱动控制器、连接至驱动控制器的电机等。这些部件及有关部件之间的交互可参照如上文的示例性描述。驱动控制器和主控制器可通过CAN总线连接。驱动控制器可控制每个电机向动力轮提供驱动力,也可从每个电机和相应的轮子编码器接收反馈,控制动力轮速度。
图2是根据本发明的物流机器人的一种示例性表示。其中示例性示出了本发明的一种示例性物流机器人及其相关部件,如:底座上预留的双层货架安装孔(附加货架安装孔);底座上的超声探头(超声传感器);设置于底座前部凹槽中的激光雷达;底座前部的LED灯;从底座向上伸出的2个支柱;通过这2个支柱安装的控制面板(未标出);从上至下设置于控制面板上的触摸屏(触敏屏)、急停开关、双目相机、RGBD相机、单目相机;触敏屏上的单目人脸识别相机。图2中设置有触摸屏(触敏屏)、急停开关、双目相机、RGBD相机、单目相机等的部分可称为控制面板。应理解的是,超声传感器可设置于底座的每个侧面;激光雷达亦如此。另外,各相机的位置可根据需要调整。
下面给出本发明的一些可能实施方案:
方案1.一种物流机器人,包括:
可移动底座;
信息采集装置,适于采集其覆盖范围内存在的对象的图像信息和深度信息;
主控制器,耦合至所述信息采集装置,并被配置为:
获取所述物流机器人要跟随的跟随目标的身份信息,其中所述跟随目标具有相关联的识别特征;
从所述信息采集装置接收所述图像信息和深度信息;
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述信息采集装置捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向,其中所述图像信息包括所述图像;
从所述深度信息提取所识别的跟随目标的距离信息以确定所述跟随目标相对于所述物流机器人的距离;
至少基于包括所确定的方向和距离的跟随目标位置信息规划所述物流机器人跟随所述跟随目标的跟随路线,并控制所述可移动底座使所述物流机器人沿所述跟随路线行进。
方案2.根据方案1所述的物流机器人,其中所述信息采集装置包括:RGBD相机,所述RGBD相机适于采集其视野范围内存在的对象的图像信息和深度信息;和/或,单目相机和激光雷达,所述单目相机适于采集其视野范围内存在的对象的图像信息,所述激光雷达适于采集其视野范围内存在的对象的深度信息。
方案3.根据方案2所述的物流机器人,其中信息采集装置包括:所述RGBD相机;和,所述单目相机和激光雷达,其中所述主控制器被配置为:
优先从所述RGBD相机获取所述跟随目标的图像信息和深度信息;
在未能从所述RGBD相机获取所述跟随目标的图像信息和/或深度信息达一预定时间的情况下,分别从所述单目相机和激光雷达获取所述跟随目标的图像信息和深度信息。
方案4.根据方案3所述的物流机器人,其中在所述主控制器分别从所述单目相机和激光雷达获取所述跟随目标的图像信息和深度信息的情况下,所述主控制器适于:
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述单目相机捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向信息,其中所述图像信息包括所述单目相机捕获的图像;
通过将所述方向信息映射到所述激光雷达获得的点状图中,确定所述点状图中与所述方向信息相匹配的点并由此确定所述跟随目标相对于所述物流机器人的距离信息,其中所述深度信息包括所述点状图;
由所确定的方向信息和距离信息确定所述跟随目标相对于所述物流机器人的位置信息作为跟随目标位置信息,所述跟随目标位置信息指示所述跟随目标相对于所述物流机器人的方向和距离。
方案5.根据方案1所述的物流机器人,其中所述跟随目标为被授权使用所述物流机器人的人员,所述识别特征包括以下至少之一:所述跟随目标的体型、所述跟随目标背上携带的工号、所述跟随目标背上携带的二维码、所述跟随目标所着服装的颜色。
方案6.根据方案1所述的物流机器人,还包括输入装置,所述输入装置用于输入信息,其中所述主控制器耦合至所述输入装置,并被配置为从所述输入装置接收所述跟随目标的身份信息和/或识别特征。
方案7.一种物流机器人,包括:
可移动底座;
主控制器,所述主控制器被配置为:
获取所述物流机器人所在的物流场所的至少一个区域的地图信息,所述至少一个区域包括所述物流场所的整个区域的全部或一部分;
确定所述物流机器人的当前位置;
获取指示导航目标位置的信息;
至少基于所述地图信息、所述当前位置和所述指示导航目标位置的信息规划将所述物流机器人导航至所述导航目标位置的导航路线,并控制所述可移动底座使所述物流机器人沿所述导航路线行进,
其中所述至少一个区域包括所述当前位置和所述导航目标位置。
方案8.根据方案7所述的物流机器人,还包括信息采集装置,所述信息采集装置适于:采集所述至少一个区域中存在的对象的位置信息;以及基于所采集的所述至少一个区域中存在的对象的位置信息建立所述至少一个区域的地图,其中所述主控制器耦合至所述信息采集装置,并被配置为从所述信息采集装置获取所述地图,其中所述地图信息包括所述地图。
方案9.根据方案8所述的物流机器人,其中所述信息采集装置包括激光雷达,所述激光雷达适于:通过扫描所述至少一个区域采集所述至少一个区域中存在的对象的激光点云数据,所述激光点云数据指示所述至少一个区域中存在的对象的位置信息;通过将所述激光点云数据转换成二维图像,基于所述至少一个区域中存在的对象的位置信息确定所述至少一个区域中存在的对象相对于一预定的固定点的二维坐标,由此建立所述至少一个区域的地图,其中所述地图信息包括所述至少一个区域中存在的对象相对于所述预定的固定点的二维坐标。
方案10.根据方案9所述的物流机器人,其中所述信息采集装置还包括单目相机,所述单目相机适于捕获所述至少一个区域中的每个特征要素的图像,其中所述主控制器被配置为:基于所述地图和从所述单目相机接收的每个特征要素的图像确定每个特征要素在所述地图中的二维坐标,所述特征要素是预先布置的或从所述至少一个区域中存在的对象选择的。
方案11.根据方案9所述的物流机器人,其中确定所述物流机器人的当前位置包括:将由激光雷达实时扫描得到的信息与所述地图中的特征相匹配,识别所述地图中与由激光雷达扫描得到的信息相匹配的匹配特征,基于所述匹配特征在所述地图中的二维坐标确定所述物流机器人的当前位置。
方案12.根据方案9所述的物流机器人,其中确定所述物流机器人的当前位置包括:实时确定物流机器人的行进方向和行进速度,由此确定所述物流机器人在所述地图中的行进轨迹和行进位移;基于所述行进轨迹和行进位移确定并更新所述物流机器人在所述地图中的位置。
方案13.一种物流机器人,包括:
可移动底座;
第一信息采集装置,适于采集其覆盖范围内存在的对象的图像信息和深度信息;
主控制器,耦合至所述第一信息采集装置,并被配置为:
获取所述物流机器人要跟随的跟随目标的身份信息,其中所述跟随目标具有相关联的识别特征;
从所述第一信息采集装置接收所述图像信息和深度信息;
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述第一信息采集装置捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向,其中所述图像信息包括所述图像;
从所述深度信息提取所识别的跟随目标的距离信息以确定所述跟随目标相对于所述物流机器人的距离;
至少基于包括所确定的方向和距离的跟随目标位置信息规划所述物流机器人跟随所述跟随目标的跟随路线,并控制所述可移动底座使所述物流机器人沿所述跟随路线行进,
其中,所述主控制器还被配置为:
获取所述物流机器人所在的物流场所的至少一个区域的地图信息,所述至少一个区域包括所述物流场所的整个区域的全部或一部分;
确定所述物流机器人的当前位置;
获取指示导航目标位置的信息;
至少基于所述地图信息、所述当前位置和所述指示导航目标位置的信息规划将所述物流机器人导航至所述导航目标位置的导航路线,并控制所述可移动底座使所述物流机器人沿所述导航路线行进,
其中所述至少一个区域包括所述当前位置和所述导航目标位置。
方案14.根据方案13所述的物流机器人,还包括第二信息采集装置,所述第二信息采集装置适于:采集所述至少一个区域中存在的对象的位置信息;以及基于所采集的所述至少一个区域中存在的对象的位置信息建立所述至少一个区域的地图,其中所述主控制器耦合至所述第二信息采集装置,并被配置为从所述第二信息采集装置获取所述地图,其中所述地图信息包括所述地图。
方案15.根据方案14所述的物流机器人,其中所述第二信息采集装置包括激光雷达,所述激光雷达适于:通过扫描所述至少一个区域采集所述至少一个区域中存在的对象的激光点云数据,所述激光点云数据指示所述至少一个区域中存在的对象的位置信息;通过将所述激光点云数据转换成二维图像,基于所述至少一个区域中存在的对象的位置信息确定所述至少一个区域中存在的对象相对于一预定的固定点的二维坐标,由此建立所述至少一个区域的地图,其中所述地图信息包括所述至少一个区域中存在的对象相对于所述预定的固定点的二维坐标。
方案16.根据方案15所述的物流机器人,其中所述第一和第二信息采集装置中的至少一个信息采集装置包括单目相机,所述单目相机适于捕获所述至少一个区域中的每个特征要素的图像,其中所述主控制器被配置为:基于所述地图和从所述单目相机接收的每个特征要素的图像确定每个特征要素在所述地图中的二维坐标,所述特征要素是预先布置的或从所述至少一个区域中存在的对象选择的。
方案17.根据方案15所述的物流机器人,其中确定所述物流机器人的当前位置包括:将由激光雷达实时扫描得到的信息与所述地图中的特征相匹配,识别所述地图中与由激光雷达扫描得到的信息相匹配的匹配特征,基于所述匹配特征在所述地图中的二维坐标确定所述物流机器人的当前位置。
方案18.根据方案15所述的物流机器人,其中确定所述物流机器人的当前位置包括:实时确定物流机器人的行进方向和行进速度,由此确定所述物流机器人在所述地图中的行进轨迹和行进位移;基于所述行进轨迹和行进位移确定并更新所述物流机器人在所述地图中的位置。
方案19.根据方案1、7或13所述的物流机器人,还包括避障传感器装置,所述避障传感器装置适于探测障碍物并采集有关障碍物的信息,其中所述主控制器耦合至所述避障传感器装置,并被配置为:
从所述避障传感器装置获取有关障碍物的信息;
规划所述跟随路线或导航路线使得所述路线绕开所述障碍物,和/或基于所述有关障碍物的信息确定是否有障碍物位于所规划的跟随路线或导航路线上并在确定有障碍物位于所规划的跟随路线或导航路线上的情况下,调整所规划的跟随路线或导航路线使得所述路线绕开所述障碍物,
其中所述有关障碍物的信息包括探测到的障碍物的位置信息和尺寸信息。
方案20.根据方案1、7或13所述的物流机器人,其中所述可移动底座设置有至少3个轮子,所述至少3个轮子中的至少2个为动力轮,每个动力轮中安装有驱动装置用于向轮子提供驱动力,所述可移动底座中安装有驱动控制器,所述驱动控制器耦合至每个所述驱动装置并耦合至所述主控制器,其中所述主控制器控制所述可移动底座使所述物流机器人沿所述跟随路线或导航路线行进包括:所述主控制器根据所述跟随路线或导航路线发送用于各动力轮的速度信号至所述驱动控制器,所述速度信号指示导致所述物流机器人沿所述跟随路线或导航路线行进的各动力轮行进速度,其中所述驱动控制器根据所述速度信号控制每个所述驱动装置使得各动力轮以相应的行进速度行进。
方案21.根据方案20所述的物流机器人,其中2个所述动力轮被配置为控制所述物流机器人的行进方向的方向控制动力轮,所述2个方向控制动力轮并排地安装在所述可移动底座的两侧,使得所述物流机器人的行进方向由这2个方向控制动力轮的行进速度的差决定,所述物流机器人的行进速度由这2个方向控制动力轮的行进速度的和决定。
方案22.根据方案11或17所述的物流机器人,其中确定所述物流机器人的当前位置还包括:在接收到所述物流机器人的当前位置信息的情况下,基于接收到的所述物流机器人的当前位置信息确定所述物流机器人的当前位置。
方案23.根据方案11或17所述的物流机器人,其中所述信息采集装置包括单目相机,所述单目相机适于捕获所述至少一个区域中的每个特征要素的图像,所述特征要素是预先布置的或从所述至少一个区域中存在的对象选择的,其中所述主控制器被配置为:基于所述地图和从所述单目相机接收的每个特征要素的图像确定每个特征要素在所述地图中的二维坐标,
其中确定所述物流机器人的当前位置还包括:将由单目相机实时捕获到的图像与所述特征要素相匹配,在识别出与单目相机实时捕获到的图像相匹配的匹配特征要素时,基于所述匹配特征要素在所述地图中的二维坐标确定所述物流机器人的当前位置。
方案24.根据方案12或18所述的物流机器人,其中确定所述物流机器人的当前位置还包括:将由激光雷达实时扫描得到的信息与所述地图中的特征相匹配,在识别出所述地图中与由激光雷达扫描得到的信息相匹配的匹配特征时,基于所述匹配特征在所述地图中的二维坐标校准所确定的行进位移,并校准基于所述行进轨迹和行进位移所确定的所述物流机器人在所述地图中的位置。
方案25.根据方案12或18所述的物流机器人,其中所述信息采集装置还包括单目相机,所述单目相机适于捕获所述至少一个区域中的每个特征要素的图像,所述特征要素是预先布置的或从所述至少一个区域中存在的对象选择的,其中所述主控制器被配置为:基于所述地图和从所述单目相机接收的每个特征要素的图像确定每个特征要素在所述地图中的二维坐标,
其中确定所述物流机器人的当前位置还包括:将由单目相机实时捕获到的图像与所述特征要素相匹配,在识别出与单目相机实时捕获到的图像相匹配的匹配特征要素时,基于所述匹配特征要素在所述地图中的二维坐标校准所确定的行进位移,并校准基于所述行进轨迹和行进位移所确定的所述物流机器人在所述地图中的位置。
方案26.根据方案12或18所述的物流机器人,其中确定所述物流机器人的当前位置还包括:获取由一相机实时获取的连续图像;对于一段时间内的每两个连续图像:提取其中的一相同特征点,将其中的该相同特征点映射到同一坐标系中以确定该相同特征点的速度向量;基于如此获得的速度向量的系列,计算所述物流机器人在所述一段时间内的行进位移;基于所计算的行进位移及所述物流机器人在所述一段时间的起始时刻的位置信息,确定所述物流机器人的当前位置;利用由此确定的所述物流机器人的当前位置校准所确定的行进位移,并校准基于所述行进轨迹和行进位移所确定的所述物流机器人在所述地图中的位置。
方案27.根据方案1、7或13所述的物流机器人,其中所述物流机器人还包括照明装置,所述照明装置耦合至所述主控制器并由所述主控制器选择性地启用和停用。
方案28.根据方案1、7或13所述的物流机器人,还包括:从所述可移动底座向上延伸的至少一个支柱;和通过所述至少一个支柱安装在所述可移动底座上方的控制面板。
方案29.根据方案28所述的物流机器人,其中所述控制面板上安装有急停开关用于在紧急情况下制动所述物流机器人,所述主控制器耦合至所述急停开关,并被配置为在所述急停开关被启用时制动所述可移动底座,从而制动所述物流机器人。
方案30.根据方案1、7或13所述的物流机器人,还包括位于所述可移动底座上方、与所述可移动底座间隔开的附加货架,所述附加货架适于承载货物。
方案31.根据方案30所述的物流机器人,其中所述附加货架通过所述至少一个支柱安装至所述物流机器人;或者,其中所述物流机器人还包括从所述可移动底座向上延伸的至少一个附加支柱,所述附加支柱适于通过所述可移动底座上预留的安装孔安装至所述可移动底座,并且所述货架通过所述至少一个支柱和所述至少一个附加支柱安装至所述物流机器人。
方案32.根据方案19所述的物流机器人,其中所述避障传感器装置包括布置在所述可移动底座的各个侧面的多个超声传感器。
方案33.根据方案32所述的物流机器人,其中所述可移动底座的每个侧面布置有两个超声传感器。
方案34.根据方案3、9或15所述的物流机器人,其中所述激光雷达安装在所述可移动底座的前部和/或后部和/或侧部。
方案35.根据方案34所述的物流机器人,其中所述激光雷达安装在设置于所述可移动底座的前部和/或后部和/或侧部的凹槽中。
方案36.一种用于具有可移动底座的物流机器人的方法,包括:
获取所述物流机器人要跟随的跟随目标的身份信息,其中所述跟随目标具有相关联的识别特征;
从采集其覆盖范围内存在的对象的图像信息和深度信息的信息采集装置接收图像信息和度信息;
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述信息采集装置捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向,其中所述图像信息包括所述图像;
从所述深度信息提取所识别的跟随目标的距离信息以确定所述跟随目标相对于所述物流机器人的距离;和
至少基于包括所确定的方向和距离的跟随目标位置信息规划所述物流机器人跟随所述跟随目标的跟随路线,并控制所述可移动底座使所述物流机器人沿所述跟随路线行进。
方案37.一种用于具有可移动底座的物流机器人的方法,包括:
获取所述物流机器人所在的物流场所的至少一个区域的地图信息,所述至少一个区域包括所述物流场所的整个区域的全部或一部分;
确定所述物流机器人的当前位置;
获取指示导航目标位置的信息;和
至少基于所述地图信息、所述当前位置和所述指示导航目标位置的信息规划将所述物流机器人导航至所述导航目标位置的导航路线,并控制所述可移动底座使所述物流机器人沿所述导航路线行进,
其中所述至少一个区域包括所述当前位置和所述导航目标位置。
方案38.根据方案37所述的方法,其中确定所述物流机器人的当前位置包括:
将由安装于所述可移动底座的激光雷达实时扫描得到的信息与所述地图中的特征相匹配,识别所述地图中与由激光雷达扫描得到的信息相匹配的匹配特征,基于所述匹配特征在所述地图中的二维坐标确定所述物流机器人的当前位置;和/或
实时确定物流机器人的行进方向和行进速度,由此确定所述物流机器人在所述地图中的行进轨迹和行进位移;基于所述行进轨迹和行进位移确定并更新所述物流机器人在所述地图中的位置。
方案39.一种用于具有可移动底座的物流机器人的控制器,所述控制器包括存储器和处理器,其中所述存储器上存储有计算机指令,所述指令在由所述处理器执行时引起所述控制器执行根据方案36-38中任一所述的方法的步骤。
方案40.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机指令,所述指令在由具有可移动底座的物流机器人的一个或多个处理器执行时实现根据方案36-38中任一所述的方法的步骤。
尽管已经详细地说明了示例实施例,前述说明在所有方面都是说明性的而不是限制性的。应当理解,可以设计出多个其它改型和变体而不偏离示例实施例的范围,这些都落入本发明的保护范围。因此,本发明的保护范围应以所附权利要求为准。
Claims (10)
1.一种物流机器人,包括:
可移动底座;
信息采集装置,适于采集其覆盖范围内存在的对象的图像信息和深度信息;
主控制器,耦合至所述信息采集装置,并被配置为:
获取所述物流机器人要跟随的跟随目标的身份信息,其中所述跟随目标具有相关联的识别特征;
从所述信息采集装置接收所述图像信息和深度信息;
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述信息采集装置捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向,其中所述图像信息包括所述图像;
从所述深度信息提取所识别的跟随目标的距离信息以确定所述跟随目标相对于所述物流机器人的距离;
至少基于包括所确定的方向和距离的跟随目标位置信息规划所述物流机器人跟随所述跟随目标的跟随路线,并控制所述可移动底座使所述物流机器人沿所述跟随路线行进。
2.根据权利要求1所述的物流机器人,其中所述信息采集装置包括:RGBD相机,所述RGBD相机适于采集其视野范围内存在的对象的图像信息和深度信息;和/或,单目相机和激光雷达,所述单目相机适于采集其视野范围内存在的对象的图像信息,所述激光雷达适于采集其视野范围内存在的对象的深度信息。
3.根据权利要求2所述的物流机器人,其中信息采集装置包括:所述RGBD相机;和,所述单目相机和激光雷达,其中所述主控制器被配置为:
优先从所述RGBD相机获取所述跟随目标的图像信息和深度信息;
在未能从所述RGBD相机获取所述跟随目标的图像信息和/或深度信息达一预定时间的情况下,分别从所述单目相机和激光雷达获取所述跟随目标的图像信息和深度信息。
4.根据权利要求3所述的物流机器人,其中在所述主控制器分别从所述单目相机和激光雷达获取所述跟随目标的图像信息和深度信息的情况下,所述主控制器适于:
从所述图像信息提取与所述识别特征相应的图像特征,将所述图像特征与所述识别特征进行匹配,以识别所述跟随目标,并基于所述跟随目标在所述单目相机捕获的图像中的位置确定所述跟随目标相对于所述物流机器人的方向信息,其中所述图像信息包括所述单目相机捕获的图像;
通过将所述方向信息映射到所述激光雷达获得的点状图中,确定所述点状图中与所述方向信息相匹配的点并由此确定所述跟随目标相对于所述物流机器人的距离信息,其中所述深度信息包括所述点状图;
由所确定的方向信息和距离信息确定所述跟随目标相对于所述物流机器人的位置信息作为跟随目标位置信息,所述跟随目标位置信息指示所述跟随目标相对于所述物流机器人的方向和距离。
5.根据权利要求1所述的物流机器人,其中所述跟随目标为被授权使用所述物流机器人的人员,所述识别特征包括以下至少之一:所述跟随目标的体型、所述跟随目标背上携带的工号、所述跟随目标背上携带的二维码、所述跟随目标所着服装的颜色。
6.根据权利要求1所述的物流机器人,还包括输入装置,所述输入装置用于输入信息,其中所述主控制器耦合至所述输入装置,并被配置为从所述输入装置接收所述跟随目标的身份信息和/或识别特征。
7.一种物流机器人,包括:
可移动底座;
主控制器,所述主控制器被配置为:
获取所述物流机器人所在的物流场所的至少一个区域的地图信息,所述至少一个区域包括所述物流场所的整个区域的全部或一部分;
确定所述物流机器人的当前位置;
获取指示导航目标位置的信息;
至少基于所述地图信息、所述当前位置和所述指示导航目标位置的信息规划将所述物流机器人导航至所述导航目标位置的导航路线,并控制所述可移动底座使所述物流机器人沿所述导航路线行进,
其中所述至少一个区域包括所述当前位置和所述导航目标位置。
8.根据权利要求7所述的物流机器人,还包括信息采集装置,所述信息采集装置适于:采集所述至少一个区域中存在的对象的位置信息;以及基于所采集的所述至少一个区域中存在的对象的位置信息建立所述至少一个区域的地图,其中所述主控制器耦合至所述信息采集装置,并被配置为从所述信息采集装置获取所述地图,其中所述地图信息包括所述地图。
9.根据权利要求8所述的物流机器人,其中所述信息采集装置包括激光雷达,所述激光雷达适于:通过扫描所述至少一个区域采集所述至少一个区域中存在的对象的激光点云数据,所述激光点云数据指示所述至少一个区域中存在的对象的位置信息;通过将所述激光点云数据转换成二维图像,基于所述至少一个区域中存在的对象的位置信息确定所述至少一个区域中存在的对象相对于一预定的固定点的二维坐标,由此建立所述至少一个区域的地图,其中所述地图信息包括所述至少一个区域中存在的对象相对于所述预定的固定点的二维坐标。
10.根据权利要求9所述的物流机器人,其中所述信息采集装置还包括单目相机,所述单目相机适于捕获所述至少一个区域中的每个特征要素的图像,其中所述主控制器被配置为:基于所述地图和从所述单目相机接收的每个特征要素的图像确定每个特征要素在所述地图中的二维坐标,所述特征要素是预先布置的或从所述至少一个区域中存在的对象选择的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711299324.XA CN107807652A (zh) | 2017-12-08 | 2017-12-08 | 物流机器人、用于其的方法和控制器及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711299324.XA CN107807652A (zh) | 2017-12-08 | 2017-12-08 | 物流机器人、用于其的方法和控制器及计算机可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107807652A true CN107807652A (zh) | 2018-03-16 |
Family
ID=61579713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711299324.XA Pending CN107807652A (zh) | 2017-12-08 | 2017-12-08 | 物流机器人、用于其的方法和控制器及计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107807652A (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829105A (zh) * | 2018-06-21 | 2018-11-16 | 浙江工业大学 | 一种基于km算法和人工势场法的仓储物流调度避障优化方法 |
CN109579824A (zh) * | 2018-10-31 | 2019-04-05 | 重庆邮电大学 | 一种融入二维码信息的自适应蒙特卡诺定位方法 |
CN109740464A (zh) * | 2018-12-21 | 2019-05-10 | 北京智行者科技有限公司 | 目标的识别跟随方法 |
CN109844674A (zh) * | 2018-10-15 | 2019-06-04 | 灵动科技(北京)有限公司 | 具有可操控摄像机和指示器的物流机器人和运行方法 |
CN109895825A (zh) * | 2019-03-22 | 2019-06-18 | 灵动科技(北京)有限公司 | 自动运输装置 |
CN110275538A (zh) * | 2019-06-27 | 2019-09-24 | 广东利元亨智能装备股份有限公司 | 智能巡航车导航方法及系统 |
CN110480650A (zh) * | 2019-08-15 | 2019-11-22 | 北京致行慕远科技有限公司 | 物流机器人 |
CN110580038A (zh) * | 2018-06-11 | 2019-12-17 | 上海交通大学 | 自动驾驶跟车装置及自动驾驶车队系统 |
CN110836668A (zh) * | 2018-08-16 | 2020-02-25 | 科沃斯商用机器人有限公司 | 定位导航方法、装置、机器人及存储介质 |
CN110945450A (zh) * | 2018-10-10 | 2020-03-31 | 灵动科技(北京)有限公司 | 人机交互自动导引车辆 |
CN110941265A (zh) * | 2019-11-05 | 2020-03-31 | 盟广信息技术有限公司 | 地图录入方法、装置、计算机设备和存储介质 |
CN111069090A (zh) * | 2019-12-02 | 2020-04-28 | 庄颖桐 | 基于颜色识别的自动分拣跟踪方法及小车 |
CN111176221A (zh) * | 2018-07-20 | 2020-05-19 | 奥特埃克斯股份有限公司 | 用于向接收者的偏好环境自主递送商品的系统和方法 |
CN111273673A (zh) * | 2020-03-09 | 2020-06-12 | 新石器慧通(北京)科技有限公司 | 一种无人车的自动驾驶跟随方法、系统及无人车 |
CN111402309A (zh) * | 2020-03-05 | 2020-07-10 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111413971A (zh) * | 2020-03-19 | 2020-07-14 | 云南电网有限责任公司电力科学研究院 | 一种对象识别装置及识别方法 |
CN111739065A (zh) * | 2020-06-29 | 2020-10-02 | 上海出版印刷高等专科学校 | 基于数码印花的目标识别方法、系统、电子设备和介质 |
CN112054521A (zh) * | 2020-09-11 | 2020-12-08 | 灵动科技(北京)有限公司 | 机器人、调度装置、机器人充电系统和方法及存储介质 |
CN112405540A (zh) * | 2020-11-11 | 2021-02-26 | 深圳优地科技有限公司 | 机器人控制方法、装置、机器人及可读存储介质 |
CN113163918A (zh) * | 2018-08-28 | 2021-07-23 | 灵动科技(北京)有限公司 | 具有库存承载台车的自动驾驶系统 |
CN113433949A (zh) * | 2021-07-19 | 2021-09-24 | 北京云迹科技有限公司 | 一种可自动跟随的送物机器人及其送物方法 |
CN113759787A (zh) * | 2021-09-11 | 2021-12-07 | 武汉朗毅机器人有限公司 | 一种封闭园区无人驾驶机器人和工作方法 |
CN114115250A (zh) * | 2021-11-11 | 2022-03-01 | 深圳市中舟智能科技有限公司 | 机器人运动地图的构建方法、机器人运动方法和机器人 |
CN114355885A (zh) * | 2021-12-03 | 2022-04-15 | 中国信息通信研究院 | 基于agv小车的协作机器人搬运系统及方法 |
WO2022193762A1 (zh) * | 2021-03-19 | 2022-09-22 | 灵动科技(北京)有限公司 | 用于控制搬运机器人的方法和设备 |
CN115936406A (zh) * | 2023-02-01 | 2023-04-07 | 南通华泰信息科技有限公司 | 基于网络的数据信息终端系统 |
CN116412830A (zh) * | 2023-06-06 | 2023-07-11 | 深圳市磅旗科技智能发展有限公司 | 一种基于ihdr的物流机器人自适应导航方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105425795A (zh) * | 2015-11-26 | 2016-03-23 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法及装置 |
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制系统及全向自动导引车 |
CN105955251A (zh) * | 2016-03-11 | 2016-09-21 | 北京克路德人工智能科技有限公司 | 一种机器人的视觉跟随控制方法及机器人 |
CN106325275A (zh) * | 2016-09-14 | 2017-01-11 | 广州今甲智能科技有限公司 | 一种机器人导航的系统、方法及装置 |
CN106802658A (zh) * | 2017-03-21 | 2017-06-06 | 厦门大学 | 一种全自动高精度室内快速定位方法 |
CN107206601A (zh) * | 2014-10-24 | 2017-09-26 | 费洛有限公司 | 客户服务机器人和相关系统及方法 |
CN107315414A (zh) * | 2017-07-14 | 2017-11-03 | 灵动科技(北京)有限公司 | 一种控制机器人行走的方法、装置及机器人 |
CN107450577A (zh) * | 2017-07-25 | 2017-12-08 | 天津大学 | 基于多传感器的无人机智能感知系统和方法 |
-
2017
- 2017-12-08 CN CN201711299324.XA patent/CN107807652A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107206601A (zh) * | 2014-10-24 | 2017-09-26 | 费洛有限公司 | 客户服务机器人和相关系统及方法 |
CN105425795A (zh) * | 2015-11-26 | 2016-03-23 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法及装置 |
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制系统及全向自动导引车 |
CN105955251A (zh) * | 2016-03-11 | 2016-09-21 | 北京克路德人工智能科技有限公司 | 一种机器人的视觉跟随控制方法及机器人 |
CN106325275A (zh) * | 2016-09-14 | 2017-01-11 | 广州今甲智能科技有限公司 | 一种机器人导航的系统、方法及装置 |
CN106802658A (zh) * | 2017-03-21 | 2017-06-06 | 厦门大学 | 一种全自动高精度室内快速定位方法 |
CN107315414A (zh) * | 2017-07-14 | 2017-11-03 | 灵动科技(北京)有限公司 | 一种控制机器人行走的方法、装置及机器人 |
CN107450577A (zh) * | 2017-07-25 | 2017-12-08 | 天津大学 | 基于多传感器的无人机智能感知系统和方法 |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110580038A (zh) * | 2018-06-11 | 2019-12-17 | 上海交通大学 | 自动驾驶跟车装置及自动驾驶车队系统 |
CN108829105A (zh) * | 2018-06-21 | 2018-11-16 | 浙江工业大学 | 一种基于km算法和人工势场法的仓储物流调度避障优化方法 |
CN111176221A (zh) * | 2018-07-20 | 2020-05-19 | 奥特埃克斯股份有限公司 | 用于向接收者的偏好环境自主递送商品的系统和方法 |
CN110836668A (zh) * | 2018-08-16 | 2020-02-25 | 科沃斯商用机器人有限公司 | 定位导航方法、装置、机器人及存储介质 |
CN113163918A (zh) * | 2018-08-28 | 2021-07-23 | 灵动科技(北京)有限公司 | 具有库存承载台车的自动驾驶系统 |
CN110945450B (zh) * | 2018-10-10 | 2022-04-05 | 灵动科技(北京)有限公司 | 人机交互自动导引车辆 |
US11188088B2 (en) | 2018-10-10 | 2021-11-30 | Lingdong Technology (Beijing) Co. Ltd | Human interacting automatic guided vehicle |
CN110945450A (zh) * | 2018-10-10 | 2020-03-31 | 灵动科技(北京)有限公司 | 人机交互自动导引车辆 |
EP3863463A4 (en) * | 2018-10-10 | 2022-05-25 | Lingdong Technology (Beijing) Co. Ltd | AUTOMATIC GUIDED VEHICLE WITH HUMAN INTERACTION |
WO2020073232A1 (en) * | 2018-10-10 | 2020-04-16 | Lingdong Technology (Beijing) Co. Ltd | Human interacting automatic guided vehicle |
JP7178061B2 (ja) | 2018-10-10 | 2022-11-25 | 霊動科技(北京)有限公司 | 人間相互作用無人搬送車 |
US11312030B2 (en) | 2018-10-15 | 2022-04-26 | Lingdong Technology (Beijing) Co. Ltd | Self-driving vehicle system with steerable camera and indicator |
CN109844674A (zh) * | 2018-10-15 | 2019-06-04 | 灵动科技(北京)有限公司 | 具有可操控摄像机和指示器的物流机器人和运行方法 |
WO2020077481A1 (en) * | 2018-10-15 | 2020-04-23 | Lingdong Technology (Beijing) Co. Ltd | Self-driving vehicle system with steerable camera and indicator |
CN109579824B (zh) * | 2018-10-31 | 2022-12-27 | 重庆邮电大学 | 一种融入二维码信息的自适应蒙特卡诺定位方法 |
CN109579824A (zh) * | 2018-10-31 | 2019-04-05 | 重庆邮电大学 | 一种融入二维码信息的自适应蒙特卡诺定位方法 |
CN109740464A (zh) * | 2018-12-21 | 2019-05-10 | 北京智行者科技有限公司 | 目标的识别跟随方法 |
WO2020192421A1 (zh) * | 2019-03-22 | 2020-10-01 | 灵动科技(北京)有限公司 | 自动运输装置 |
CN109895825A (zh) * | 2019-03-22 | 2019-06-18 | 灵动科技(北京)有限公司 | 自动运输装置 |
CN110275538A (zh) * | 2019-06-27 | 2019-09-24 | 广东利元亨智能装备股份有限公司 | 智能巡航车导航方法及系统 |
CN110480650B (zh) * | 2019-08-15 | 2024-05-07 | 纳恩博(北京)科技有限公司 | 物流机器人 |
CN110480650A (zh) * | 2019-08-15 | 2019-11-22 | 北京致行慕远科技有限公司 | 物流机器人 |
CN110941265A (zh) * | 2019-11-05 | 2020-03-31 | 盟广信息技术有限公司 | 地图录入方法、装置、计算机设备和存储介质 |
CN111069090B (zh) * | 2019-12-02 | 2022-01-14 | 庄颖桐 | 基于颜色识别的自动分拣跟踪方法及小车 |
CN111069090A (zh) * | 2019-12-02 | 2020-04-28 | 庄颖桐 | 基于颜色识别的自动分拣跟踪方法及小车 |
CN111402309A (zh) * | 2020-03-05 | 2020-07-10 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111402309B (zh) * | 2020-03-05 | 2023-11-03 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111273673A (zh) * | 2020-03-09 | 2020-06-12 | 新石器慧通(北京)科技有限公司 | 一种无人车的自动驾驶跟随方法、系统及无人车 |
CN111413971A (zh) * | 2020-03-19 | 2020-07-14 | 云南电网有限责任公司电力科学研究院 | 一种对象识别装置及识别方法 |
CN111739065A (zh) * | 2020-06-29 | 2020-10-02 | 上海出版印刷高等专科学校 | 基于数码印花的目标识别方法、系统、电子设备和介质 |
CN112054521A (zh) * | 2020-09-11 | 2020-12-08 | 灵动科技(北京)有限公司 | 机器人、调度装置、机器人充电系统和方法及存储介质 |
CN112405540B (zh) * | 2020-11-11 | 2022-01-07 | 深圳优地科技有限公司 | 机器人控制方法、装置、机器人及可读存储介质 |
CN112405540A (zh) * | 2020-11-11 | 2021-02-26 | 深圳优地科技有限公司 | 机器人控制方法、装置、机器人及可读存储介质 |
WO2022193762A1 (zh) * | 2021-03-19 | 2022-09-22 | 灵动科技(北京)有限公司 | 用于控制搬运机器人的方法和设备 |
CN115108231A (zh) * | 2021-03-19 | 2022-09-27 | 灵动科技(北京)有限公司 | 用于控制搬运机器人的方法和设备 |
CN113433949A (zh) * | 2021-07-19 | 2021-09-24 | 北京云迹科技有限公司 | 一种可自动跟随的送物机器人及其送物方法 |
CN113759787A (zh) * | 2021-09-11 | 2021-12-07 | 武汉朗毅机器人有限公司 | 一种封闭园区无人驾驶机器人和工作方法 |
CN114115250A (zh) * | 2021-11-11 | 2022-03-01 | 深圳市中舟智能科技有限公司 | 机器人运动地图的构建方法、机器人运动方法和机器人 |
CN114355885A (zh) * | 2021-12-03 | 2022-04-15 | 中国信息通信研究院 | 基于agv小车的协作机器人搬运系统及方法 |
CN115936406A (zh) * | 2023-02-01 | 2023-04-07 | 南通华泰信息科技有限公司 | 基于网络的数据信息终端系统 |
CN115936406B (zh) * | 2023-02-01 | 2023-05-09 | 南通华泰信息科技有限公司 | 基于网络的数据信息终端系统 |
CN116412830A (zh) * | 2023-06-06 | 2023-07-11 | 深圳市磅旗科技智能发展有限公司 | 一种基于ihdr的物流机器人自适应导航方法及系统 |
CN116412830B (zh) * | 2023-06-06 | 2023-08-11 | 深圳市磅旗科技智能发展有限公司 | 一种基于ihdr的物流机器人自适应导航方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107807652A (zh) | 物流机器人、用于其的方法和控制器及计算机可读介质 | |
CN208255717U (zh) | 物流机器人 | |
JP7341652B2 (ja) | 情報処理装置、情報処理方法、プログラム、およびシステム | |
CN106595631B (zh) | 一种躲避障碍物的方法及电子设备 | |
CN105607635B (zh) | 自动导引车全景光学视觉导航控制系统及全向自动导引车 | |
US20200339354A1 (en) | Autonomous robotic system for automatically monitoring the state of shelves in shops | |
WO2018035482A1 (en) | Robotic drone | |
KR101776823B1 (ko) | 외부 감시카메라를 이용한 모바일 로봇의 위치인식 방법 및 시스템 | |
CN106347919A (zh) | 一种自动仓储系统 | |
CN108073167A (zh) | 一种基于深度相机与激光雷达的定位与导航方法 | |
Harapanahalli et al. | Autonomous Navigation of mobile robots in factory environment | |
CN104777835A (zh) | 一种全向自动叉车及3d立体视觉导航定位方法 | |
CN107422730A (zh) | 基于视觉导引的agv运输系统及其驾驶控制方法 | |
CN110062919A (zh) | 递送车辆的放下地点规划 | |
CN104718507A (zh) | 自主行走装置的行走信息生成装置、方法及程序、以及自主行走装置 | |
US11688081B2 (en) | Method of performing simultaneous localization and mapping with respect to a salient object in an image | |
CN106647738A (zh) | 一种无人搬运车的对接路径确定方法及系统及无人搬运车 | |
CN103459099A (zh) | 与一个可移动的远程机器人相互交流 | |
CN109154662A (zh) | 使用负映射的定位 | |
EP3686704B1 (en) | Method for generating a representation and system for teaching an autonomous device operating based on such representation | |
CN205121338U (zh) | 基于图像识别与无线网络的agv导航系统 | |
CN113791627B (zh) | 一种机器人导航方法、设备、介质和产品 | |
US20230064071A1 (en) | System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning | |
CN107305386A (zh) | 一种智能光学导引系统 | |
Mansouri et al. | Vision-based mav navigation in underground mine using convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180316 |
|
RJ01 | Rejection of invention patent application after publication |