CN105674991A - 一种机器人定位方法和装置 - Google Patents
一种机器人定位方法和装置 Download PDFInfo
- Publication number
- CN105674991A CN105674991A CN201610186956.4A CN201610186956A CN105674991A CN 105674991 A CN105674991 A CN 105674991A CN 201610186956 A CN201610186956 A CN 201610186956A CN 105674991 A CN105674991 A CN 105674991A
- Authority
- CN
- China
- Prior art keywords
- cloud data
- robot
- cutting
- matching
- impact point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
本发明提供了一种机器人定位方法,所述方法包括:实时采集机器人所在场景的3D点云数据;将采集的所述3D点云数据与预先存储的目标点云模型进行匹配,确定所述目标点云模型对应的目标所在的空间位置;根据所述目标所在的空间位置作为导航的目标位置移动所述机器人。本发明使得机器人能够有效的在陌生环境或者发生变化了的环境下定位至目标所在的位置,提高机器人对环境的适应性。
Description
技术领域
本发明属于3D机器视觉领域,尤其涉及一种机器人定位方法和装置。
背景技术
在家用陪伴型机器人或者其它机器人的工作使用过程中,需要对机器人进行自动充电,以保证其持续可靠的运行。
目前,在机器人进行自动充电时,通常都是基于预先设定好充电桩的位置,以及预先设定好的路线返回至充电位置,对于已发生变化的当前环境,或者对于陌生的环境,预先设置的充电桩位置,以及充电路线需要重新规划,机器人对目标定位缺少自主性,对环境的适应能力差。
发明内容
本发明的目的在于提供一种机器人定位方法和装置,以解决现有技术的机器人对目标定位缺少自主性,对环境的适应能力差的问题。
第一方面,本发明实施例提供了一种机器人定位方法,所述方法包括:
实时采集机器人所在场景的3D点云数据;
将采集的所述3D点云数据与预先存储的目标点云模型进行匹配,确定所述目标点云模型对应的目标所在的空间位置;
根据所述目标所在的空间位置作为导航的目标位置移动所述机器人。
结合第一方面,在第一方面的第一种可能实现方式中,在所述将采集的所述3D点云数据与预先存储的目标点云模型进行匹配步骤之前,所述方法还包括:
对采集的点云数据进行裁剪。
结合第一方面的第一种可能实现方式,在第一方面的第二种可能实现方式中,所述对采集的点云数据进行裁剪步骤具体包括:
在所述点云数据中查找并裁剪属于地面所在平面的点云数据;
和/或,根据区域生长算法提取分割的区域,并将提取的区域与预先设定的充电桩的尺寸进行比较,将尺寸小于所述充电桩尺寸的区域进行裁剪。
结合第一方面的第一种可能实现方式,在第一方面的第三种可能实现方式中,在所述将采集的所述3D点云数据与预先存储的目标点云模型进行匹配步骤之前,以及在所述对采集的点云数据进行裁剪步骤之后,所述方法还包括:
对裁剪后的点云数据进行过滤。
结合第一方面的第三种可能实现方式,在第一方面的第四种可能实现方式中,所述对裁剪后的点云数据进行过滤步骤包括:
计算点云数据中的样点与其相邻的点的个数,以及样点与其相邻的点之间的距离;
当所述相邻的点的个数小于预设的个数,或者距离大于预设的距离值时,则过滤所述样点。
结合第一方面,在第一方面的第五种可能实现方式中,所述将采集的所述3D点云数据与预先存储的目标点云模型进行匹配步骤包括:
将采集的所述3D点云数据与预先存储的目标点云模型进行初次匹配计算,得到匹配精度;
当所述匹配精度小于预设的精度阈值,则进行随机二次匹配,直到匹配精度大于预设的精度阈值。
第二方面,本发明实施例提供了一种所述装置包括:
3D数据采集单元,用于实时采集机器人所在场景的3D点云数据;
匹配单元,用于将采集的所述3D点云数据与预先存储的目标点云模型进行匹配,确定所述目标点云模型对应的目标所在的空间位置;
导航单元,用于根据所述目标所在的空间位置作为导航的目标位置移动所述机器人。
结合第二方面,在第二方面的第一种可能实现方式中,所述装置还包括:
裁剪单元,用于对采集的点云数据进行裁剪。
结合第二方面的第一种可能实现方式,在第二方面的第二种可能实现方式中,所述装置还包括:
过滤单元,用于对裁剪后的点云数据进行过滤。
结合第二方面,在第二方面的第三种可能实现方式中,所述匹配单元包括:
初次匹配子单元,用于将采集的所述3D点云数据与预先存储的目标点云模型进行初次匹配计算,得到匹配精度;
二次匹配子单元,用于当所述匹配精度小于预设的精度阈值,则进行随机二次匹配,直到匹配精度大于预设的精度阈值。
在本发明中,通过机器人实时采集机器人所在场景的3D点云数据,并将采集的3D点云数据与预先存储的点云模型进行匹配,查找目标点云模型所在的空间位置,并根据匹配的空间位置进行导航,从而使得机器人能够有效的在陌生环境或者发生变化了的环境下定位至目标所在的位置,提高机器人对环境的适应性。
附图说明
图1是本发明第一实施例提供的机器人定位方法的实现流程图;
图2是本发明第二实施例提供的机器人定位方法的实现流程图;
图3是本发明第三实施例提供的机器人定位装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的目的在于提供一种机器人定位方法,以解决现有技术中对于机器人的目标定位方法中,主要依赖于预先设定的路线以及预定设定的目标位置,不能灵活的适应不同的场景,以及不同的目标位置的问题,从而提高机器人对目标定位的适应性。下面结合附图进行具体说明。
实施例一:
图1示出了本发明第一实施例提供的机器人定位方法的实现流程,详述如下:
在步骤S101中,实时采集机器人所在场景的3D点云数据。
具体的,本发明实施例所述机器人,可以为家庭陪伴型机器人,或者还可以为其它智能设备,比如扫地机器人或者智能玩具车等。
所述实时采集3D点云数据,可以通过安装在机器人顶部的3D体感摄像头完成对3D点云数据的采集,通过所述3D体感摄像头,实时的采集现场环境中对物体进行测量,包括获取物体的形状,以及测量物体的长、高、宽等参数,从而得到机器人所在场景中的准确的物体参数信息。
在步骤S102中,将采集的所述3D点云数据与预先存储的目标点云模型进行匹配,确定所述目标点云模型对应的目标所在的空间位置;
根据步骤S101采集得到当前场景下的物体的3D点云数据后,可以根据采集的点云数据建立物体的3D模型,将建立的物体3D模型与目标点云模型进行匹配,计算采集的3D点云模型与目标点云模型的匹配度,如果匹配度超过一定值,则认为采集的3D点云数据与目标点云模型匹配。
其中,所述将采集的所述3D点云数据与预先存储的目标点云模型进行匹配步骤具体可以为:
将采集的所述3D点云数据与预先存储的目标点云模型进行初次匹配计算,得到匹配精度;
当所述匹配精度小于预设的精度阈值,则进行随机二次匹配,直到匹配精度大于预设的精度阈值。
通过采用利用ICP(英文全称为IterativeClosestPoint,中文全称为迭代最近点)算法作为点云匹配算法的核心。如果初次匹配后,将计算得到的匹配精度与预设置的精度阈值比较,如果精度阈值,那么将会在小范围区域内进行随机二次加强精确匹配,包括重新调整旋转角度或者调整平移的距离等,以再次增加精度。
假如经过随机二次匹配后,得到的匹配精度仍然小于预设的精度精度阈值,则生产进行随机二次匹配,直到查找到匹配精度符合要求的目标。
在步骤S103中,根据所述目标所在的空间位置作为导航的目标位置移动所述机器人。
当采集的3D点云模型与目标点云模型匹配时,则可得到机器距离目标物体的距离和方向。通过调整机器人姿态,对当前场景进行导航,使机器人自动寻找目标物体。
在本发明实施例中,对于机器人定位的目标物体,可以为机器人的充电桩,通过对机器人所在场景的物体进行自动匹配,查找出充电桩距离当前机器人的距离与方向后,即可通过自动导航移动至充电桩所在位置,从而使得本发明所述机器人定位方法的适应性更强。
实施例二:
图2示出了本发明第二实施例提供的机器人定位方法的实现流程,详述如下:
在步骤S201中,实时采集机器人所在场景的3D点云数据。
在步骤S202中,对采集的点云数据进行裁剪。
所述对采集的点云数据进行裁剪步骤具体可以包括:
在所述点云数据中查找并裁剪属于地面所在平面的点云数据;
和/或,根据区域生长算法提取分割的区域,并将提取的区域与预先设定的充电桩的尺寸进行比较,将尺寸小于所述充电桩尺寸的区域进行裁剪。
其中,在所述点云数据中查找属于地面所在平面的点云数据步骤中,可以首先查找点云数据中的平面信息,然后对查找的平面数据进行比较,确定最大平面为地面所在平面。当然,也可以预先设定所在场景的地面点云数据,通过与预先设定的地面所在平面匹配,获取地面所在平面。获取地面所在平面后,可以将地面所在平面的点云数据去除,从而可以大大的减少匹配计算的数据量,提高匹配的速度和精度。
所述区域生长算法是将具有相似性质的像素集合起来构成区域。具体包括:首先对每个需要分割的区域找一个种子像素作为生长的起点,然后将种子像素周围邻域中与种子像素有相同或相似性质的像素(根据某种事先确定的生长或相似准则来判定)合并到种子像素所在的区域中。将这些新像素当作新的种子像素反复进行上面的过程,直到再没有满足条件的像素可被包括进来。这样一个区域就生长完成。
通过区域生长算法得到生长的区域后,将生长的区域的尺寸与预先设定尺寸进行比较。所述预先设定的尺寸可以就是充电桩的尺寸,包括长、高、宽或者其它形状的尺寸数据。将小于所述充电桩尺寸的小区域直接过滤,从而可以有效的减少匹配计算的数据量,提高匹配的速度和精度。
在步骤S203中,对裁剪后的点云数据进行过滤。
所述对裁剪后的点云数据进行过滤步骤可以包括:
计算点云数据中的样点与其相邻的点的个数,以及样点与其相邻的点之间的距离;
当所述相邻的点的个数小于预设的个数,或者距离大于预设的距离值时,则过滤所述样点。
其中,所述样点即为点云数据中进行过滤计算的目标点,是用于区别于过滤计算的其它点。
其中,计算相邻的点的个数时,是通过预定的范围内查找是否存在相邻的点。如果在预定范围内与其相邻的点的个数小于预定个数,则可以过滤所述样点。
当计算点云数据中的样点与其相邻的点的个数(在预定范围内点的个数)大于预设的个数时,可以进一步计算这些相邻的点与样点之间的距离,如果计算的距离的均值大于预定距离值时,则过滤所述样点。
当然,也可以直接计算样点与预定范围内的点的距离的均值,如果计算的均值大于预定距离值时,过滤所述样点。这是由于3D点云采集设备的硬件原因,在物品边缘处的点云会有不规则的噪点产生,这种噪点对后期的点云匹配精度会造成影响。因此需要进行过滤,通过对点云中所有点进行采样计算,算出各个点及其相邻点的距离位置关系,进行统计,然后消除掉较为孤立的点(也就是相邻点数目较少,并且距离相邻点较远)。从而进一步提高后续匹配计算的精度和速度,提高匹配效率。
在步骤S204中,将采集的所述3D点云数据与预先存储的目标点云模型进行匹配,确定所述目标点云模型对应的目标所在的空间位置。
在步骤S205中,根据所述目标所在的空间位置作为导航的目标位置移动所述机器人。
本发明实施例在实施例一的基础上,对3D点云数据进行了有效的裁剪和过滤,从而可以大大的减少点云数据匹配的数量,提高匹配速度和精度。
实施例三:
图3示出了本发明第三实施例提供的机器人定位装置的结构示意图,详述如下:
本发明实施例所述机器人定位装置,包括:
3D数据采集单元301,用于实时采集机器人所在场景的3D点云数据;
匹配单元302,用于将采集的所述3D点云数据与预先存储的目标点云模型进行匹配,确定所述目标点云模型对应的目标所在的空间位置;
导航单元303,用于根据所述目标所在的空间位置作为导航的目标位置移动所述机器人。
优选的,所述装置还包括:
裁剪单元,用于对采集的点云数据进行裁剪。
所述裁剪单元具体可以用于:在所述点云数据中查找并裁剪属于地面所在平面的点云数据;和/或,根据区域生长算法提取分割的区域,并将提取的区域与预先设定的充电桩的尺寸进行比较,将尺寸小于所述充电桩尺寸的区域进行裁剪。
优选的,所述装置还包括:
裁剪单元,用于对裁剪后的点云数据进行过滤。
所述过滤单元具体可用于:计算点云数据中的样点与其相邻的点的个数,以及样点与其相邻的点之间的距离;
当所述相邻的点的个数小于预设的个数,或者距离大于预设的距离值时,则过滤所述样点。
优选的,所述匹配单元包括:
初次匹配子单元,用于将采集的所述3D点云数据与预先存储的目标点云模型进行初次匹配计算,得到匹配精度;
二次匹配子单元,用于当所述匹配精度小于预设的精度阈值,则进行随机二次匹配,直到匹配精度大于预设的精度阈值。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种机器人定位方法,其特征在于,所述方法包括:
实时采集机器人所在场景的3D点云数据;
将采集的所述3D点云数据与预先存储的目标点云模型进行匹配,确定所述目标点云模型对应的目标所在的空间位置;
根据所述目标所在的空间位置作为导航的目标位置移动所述机器人。
2.根据权利要求1所述方法,其特征在于,在所述将采集的所述3D点云数据与预先存储的目标点云模型进行匹配步骤之前,所述方法还包括:
对采集的点云数据进行裁剪。
3.根据权利要求2所述方法,其特征在于,所述对采集的点云数据进行裁剪步骤具体包括:
在所述点云数据中查找并裁剪属于地面所在平面的点云数据;
和/或,根据区域生长算法提取分割的区域,并将提取的区域与预先设定的充电桩的尺寸进行比较,将尺寸小于所述充电桩尺寸的区域进行裁剪。
4.根据权利要求2所述方法,其特征在于,在所述将采集的所述3D点云数据与预先存储的目标点云模型进行匹配步骤之前,以及在所述对采集的点云数据进行裁剪步骤之后,所述方法还包括:
对裁剪后的点云数据进行过滤。
5.根据权利要求4所述方法,其特征在于,所述对裁剪后的点云数据进行过滤步骤包括:
计算点云数据中的样点与其相邻的点的个数,以及样点与其相邻的点之间的距离;
当所述相邻的点的个数小于预设的个数,或者距离大于预设的距离值时,则过滤所述样点。
6.根据权利要求1所述方法,其特征在于,所述将采集的所述3D点云数据与预先存储的目标点云模型进行匹配步骤包括:
将采集的所述3D点云数据与预先存储的目标点云模型进行初次匹配计算,得到匹配精度;
当所述匹配精度小于预设的精度阈值,则进行随机二次匹配,直到匹配精度大于预设的精度阈值。
7.一种机器人定位装置,其特征在于,所述装置包括:
3D数据采集单元,用于实时采集机器人所在场景的3D点云数据;
匹配单元,用于将采集的所述3D点云数据与预先存储的目标点云模型进行匹配,确定所述目标点云模型对应的目标所在的空间位置;
导航单元,用于根据所述目标所在的空间位置作为导航的目标位置移动所述机器人。
8.根据权利要求7所述装置,其特征在于,所述装置还包括:
裁剪单元,用于对采集的点云数据进行裁剪。
9.根据权利要求8所述装置,其特征在于,所述装置还包括:
过滤单元,用于对裁剪后的点云数据进行过滤。
10.根据权利要求7所述装置,其特征在于,所述匹配单元包括:
初次匹配子单元,用于将采集的所述3D点云数据与预先存储的目标点云模型进行初次匹配计算,得到匹配精度;
二次匹配子单元,用于当所述匹配精度小于预设的精度阈值,则进行随机二次匹配,直到匹配精度大于预设的精度阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610186956.4A CN105674991A (zh) | 2016-03-29 | 2016-03-29 | 一种机器人定位方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610186956.4A CN105674991A (zh) | 2016-03-29 | 2016-03-29 | 一种机器人定位方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105674991A true CN105674991A (zh) | 2016-06-15 |
Family
ID=56225469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610186956.4A Pending CN105674991A (zh) | 2016-03-29 | 2016-03-29 | 一种机器人定位方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105674991A (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106197421A (zh) * | 2016-06-24 | 2016-12-07 | 北京工业大学 | 一种用于移动机器人自主探索的前沿目标点生成方法 |
CN106568435A (zh) * | 2016-11-09 | 2017-04-19 | 深圳奥比中光科技有限公司 | 一种室内定位方法及系统 |
CN106643692A (zh) * | 2016-09-28 | 2017-05-10 | 深圳乐行天下科技有限公司 | 一种机器人导航定位方法、系统及机器人 |
CN107084740A (zh) * | 2017-03-27 | 2017-08-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种导航方法和装置 |
CN107247926A (zh) * | 2017-05-19 | 2017-10-13 | 浙江大华技术股份有限公司 | 一种人体检测方法及装置 |
CN108007451A (zh) * | 2017-11-10 | 2018-05-08 | 未来机器人(深圳)有限公司 | 货物承载装置位姿的检测方法、装置、计算机设备和存储介质 |
CN108571960A (zh) * | 2017-03-09 | 2018-09-25 | 深圳市朗驰欣创科技股份有限公司 | 一种定位方法和定位设备 |
CN108801268A (zh) * | 2018-06-27 | 2018-11-13 | 广州视源电子科技股份有限公司 | 目标对象的定位方法、装置及机器人 |
CN109141364A (zh) * | 2018-08-01 | 2019-01-04 | 北京进化者机器人科技有限公司 | 障碍物检测方法、系统及机器人 |
CN109145969A (zh) * | 2018-08-03 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 三维物体点云数据的处理方法、装置、设备及介质 |
CN110135439A (zh) * | 2019-05-09 | 2019-08-16 | 上海木木聚枞机器人科技有限公司 | 一种自动识别货架的方法及装置、移动机器人 |
CN110515054A (zh) * | 2019-08-23 | 2019-11-29 | 斯坦德机器人(深圳)有限公司 | 滤波方法和装置、电子设备、计算机存储介质 |
CN110928296A (zh) * | 2019-10-18 | 2020-03-27 | 深圳市银星智能科技股份有限公司 | 机器人回避充电座的方法及其机器人 |
CN111156983A (zh) * | 2019-11-19 | 2020-05-15 | 石化盈科信息技术有限责任公司 | 目标设备定位方法、装置、存储介质以及计算机设备 |
CN111168669A (zh) * | 2019-12-26 | 2020-05-19 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
WO2021042374A1 (zh) * | 2019-09-06 | 2021-03-11 | 罗伯特·博世有限公司 | 用于工业机器人的三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台 |
CN113110433A (zh) * | 2021-04-02 | 2021-07-13 | 深圳优地科技有限公司 | 机器人姿态调整方法、装置、设备及存储介质 |
CN113297989A (zh) * | 2021-05-28 | 2021-08-24 | 深圳市优必选科技股份有限公司 | 充电桩识别方法、装置、机器人及计算机可读存储介质 |
CN113341963A (zh) * | 2021-05-31 | 2021-09-03 | 深圳市威睿晶科电子有限公司 | 一种基于激光雷达的机器人自动回基站的导航方法及系统 |
CN114815858A (zh) * | 2022-06-29 | 2022-07-29 | 季华实验室 | 机器人自动充电方法、装置、电子设备及存储介质 |
CN115220446A (zh) * | 2022-06-30 | 2022-10-21 | 北京三快在线科技有限公司 | 机器人寻桩方法、装置及机器人 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101413811A (zh) * | 2008-11-27 | 2009-04-22 | 河北工业大学 | 一种危险品目标自主辨识的方法 |
CN102681541A (zh) * | 2011-03-10 | 2012-09-19 | 上海方伴自动化设备有限公司 | 一种机器人图像识别和视觉定位的方法 |
CN102800103A (zh) * | 2012-06-18 | 2012-11-28 | 清华大学 | 基于多视角的深度相机的无标记动作捕捉方法及装置 |
US20120316784A1 (en) * | 2011-06-09 | 2012-12-13 | Microsoft Corporation | Hybrid-approach for localizaton of an agent |
CN102867057A (zh) * | 2012-09-17 | 2013-01-09 | 北京航空航天大学 | 一种基于视觉定位的虚拟向导构建方法 |
CN104463108A (zh) * | 2014-11-21 | 2015-03-25 | 山东大学 | 一种单目实时目标识别及位姿测量方法 |
CN104816306A (zh) * | 2014-02-04 | 2015-08-05 | 精工爱普生株式会社 | 机器人、机器人系统、控制装置、以及控制方法 |
CN104867136A (zh) * | 2015-05-06 | 2015-08-26 | 华中科技大学 | 一种基于距离方差最小的工件点云匹配算法 |
CN105242670A (zh) * | 2015-10-26 | 2016-01-13 | 深圳拓邦股份有限公司 | 具有自动返回充电功能的机器人、系统及对应方法 |
-
2016
- 2016-03-29 CN CN201610186956.4A patent/CN105674991A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101413811A (zh) * | 2008-11-27 | 2009-04-22 | 河北工业大学 | 一种危险品目标自主辨识的方法 |
CN102681541A (zh) * | 2011-03-10 | 2012-09-19 | 上海方伴自动化设备有限公司 | 一种机器人图像识别和视觉定位的方法 |
US20120316784A1 (en) * | 2011-06-09 | 2012-12-13 | Microsoft Corporation | Hybrid-approach for localizaton of an agent |
CN102800103A (zh) * | 2012-06-18 | 2012-11-28 | 清华大学 | 基于多视角的深度相机的无标记动作捕捉方法及装置 |
CN102867057A (zh) * | 2012-09-17 | 2013-01-09 | 北京航空航天大学 | 一种基于视觉定位的虚拟向导构建方法 |
CN104816306A (zh) * | 2014-02-04 | 2015-08-05 | 精工爱普生株式会社 | 机器人、机器人系统、控制装置、以及控制方法 |
CN104463108A (zh) * | 2014-11-21 | 2015-03-25 | 山东大学 | 一种单目实时目标识别及位姿测量方法 |
CN104867136A (zh) * | 2015-05-06 | 2015-08-26 | 华中科技大学 | 一种基于距离方差最小的工件点云匹配算法 |
CN105242670A (zh) * | 2015-10-26 | 2016-01-13 | 深圳拓邦股份有限公司 | 具有自动返回充电功能的机器人、系统及对应方法 |
Non-Patent Citations (2)
Title |
---|
杜明义等: "《城市空间信息学》", 30 July 2012, 武汉大学出版社 * |
王培俊,高明: "《虚拟现实和逆向工程技术实验教程》", 30 November 2006, 西南交通大学出版社 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106197421B (zh) * | 2016-06-24 | 2019-03-22 | 北京工业大学 | 一种用于移动机器人自主探索的前沿目标点生成方法 |
CN106197421A (zh) * | 2016-06-24 | 2016-12-07 | 北京工业大学 | 一种用于移动机器人自主探索的前沿目标点生成方法 |
CN106643692A (zh) * | 2016-09-28 | 2017-05-10 | 深圳乐行天下科技有限公司 | 一种机器人导航定位方法、系统及机器人 |
CN106568435A (zh) * | 2016-11-09 | 2017-04-19 | 深圳奥比中光科技有限公司 | 一种室内定位方法及系统 |
CN106568435B (zh) * | 2016-11-09 | 2019-05-31 | 深圳奥比中光科技有限公司 | 一种室内定位方法及系统 |
CN108571960A (zh) * | 2017-03-09 | 2018-09-25 | 深圳市朗驰欣创科技股份有限公司 | 一种定位方法和定位设备 |
CN107084740A (zh) * | 2017-03-27 | 2017-08-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种导航方法和装置 |
CN107084740B (zh) * | 2017-03-27 | 2020-07-03 | 宇龙计算机通信科技(深圳)有限公司 | 一种导航方法和装置 |
CN107247926A (zh) * | 2017-05-19 | 2017-10-13 | 浙江大华技术股份有限公司 | 一种人体检测方法及装置 |
CN108007451A (zh) * | 2017-11-10 | 2018-05-08 | 未来机器人(深圳)有限公司 | 货物承载装置位姿的检测方法、装置、计算机设备和存储介质 |
CN108801268A (zh) * | 2018-06-27 | 2018-11-13 | 广州视源电子科技股份有限公司 | 目标对象的定位方法、装置及机器人 |
CN109141364A (zh) * | 2018-08-01 | 2019-01-04 | 北京进化者机器人科技有限公司 | 障碍物检测方法、系统及机器人 |
CN109141364B (zh) * | 2018-08-01 | 2020-11-03 | 北京进化者机器人科技有限公司 | 障碍物检测方法、系统及机器人 |
CN109145969A (zh) * | 2018-08-03 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 三维物体点云数据的处理方法、装置、设备及介质 |
CN109145969B (zh) * | 2018-08-03 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | 三维物体点云数据的处理方法、装置、设备及介质 |
CN110135439A (zh) * | 2019-05-09 | 2019-08-16 | 上海木木聚枞机器人科技有限公司 | 一种自动识别货架的方法及装置、移动机器人 |
CN110515054A (zh) * | 2019-08-23 | 2019-11-29 | 斯坦德机器人(深圳)有限公司 | 滤波方法和装置、电子设备、计算机存储介质 |
CN114364942A (zh) * | 2019-09-06 | 2022-04-15 | 罗伯特·博世有限公司 | 用于工业机器人的三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台 |
WO2021042374A1 (zh) * | 2019-09-06 | 2021-03-11 | 罗伯特·博世有限公司 | 用于工业机器人的三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台 |
TWI832002B (zh) * | 2019-09-06 | 2024-02-11 | 德商羅伯特 博世有限公司 | 用於工業機器人的三維環境建模方法及設備、電腦儲存媒體以及工業機器人操作平台 |
CN110928296A (zh) * | 2019-10-18 | 2020-03-27 | 深圳市银星智能科技股份有限公司 | 机器人回避充电座的方法及其机器人 |
CN111156983A (zh) * | 2019-11-19 | 2020-05-15 | 石化盈科信息技术有限责任公司 | 目标设备定位方法、装置、存储介质以及计算机设备 |
CN111168669A (zh) * | 2019-12-26 | 2020-05-19 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
CN111168669B (zh) * | 2019-12-26 | 2021-12-03 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
CN113110433A (zh) * | 2021-04-02 | 2021-07-13 | 深圳优地科技有限公司 | 机器人姿态调整方法、装置、设备及存储介质 |
CN113110433B (zh) * | 2021-04-02 | 2024-05-31 | 深圳优地科技有限公司 | 机器人姿态调整方法、装置、设备及存储介质 |
CN113297989A (zh) * | 2021-05-28 | 2021-08-24 | 深圳市优必选科技股份有限公司 | 充电桩识别方法、装置、机器人及计算机可读存储介质 |
CN113297989B (zh) * | 2021-05-28 | 2024-04-16 | 优必康(青岛)科技有限公司 | 充电桩识别方法、装置、机器人及计算机可读存储介质 |
CN113341963A (zh) * | 2021-05-31 | 2021-09-03 | 深圳市威睿晶科电子有限公司 | 一种基于激光雷达的机器人自动回基站的导航方法及系统 |
CN113341963B (zh) * | 2021-05-31 | 2023-08-22 | 深圳市威睿晶科电子有限公司 | 一种基于激光雷达的机器人自动回基站的导航方法及系统 |
CN114815858A (zh) * | 2022-06-29 | 2022-07-29 | 季华实验室 | 机器人自动充电方法、装置、电子设备及存储介质 |
CN114815858B (zh) * | 2022-06-29 | 2022-11-08 | 季华实验室 | 机器人自动充电方法、装置、电子设备及存储介质 |
CN115220446A (zh) * | 2022-06-30 | 2022-10-21 | 北京三快在线科技有限公司 | 机器人寻桩方法、装置及机器人 |
CN115220446B (zh) * | 2022-06-30 | 2023-12-08 | 北京三快在线科技有限公司 | 机器人寻桩方法、装置及机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105674991A (zh) | 一种机器人定位方法和装置 | |
CN107967457B (zh) | 一种适应视觉特征变化的地点识别与相对定位方法及系统 | |
CN111192284B (zh) | 一种车载激光点云分割方法及系统 | |
CN112801022A (zh) | 一种无人驾驶矿卡作业区道路边界快速检测更新的方法 | |
CN107369161A (zh) | 一种基于改进欧式聚类的散乱工件点云分割方法 | |
CN109900338B (zh) | 一种路面坑槽体积测量方法及装置 | |
CN114543666B (zh) | 一种基于矿场环境感知的堆料面预测方法 | |
CN109816664A (zh) | 一种三维点云分割方法及装置 | |
CN105336002A (zh) | 信息处理方法及电子设备 | |
CN116310843B (zh) | 煤岩识别方法、装置、可读存储介质和掘进机 | |
CN103985257A (zh) | 一种智能交通视频分析方法 | |
CN112945196B (zh) | 一种基于点云数据的露天矿台阶线提取和边坡监测的方法 | |
CN108961294A (zh) | 一种三维点云的分割方法及装置 | |
AU2021266206B1 (en) | Obstacle recognition method and system based on 3D laser point clouds | |
CN116524219A (zh) | 一种基于激光雷达点云聚类的障碍物检测方法 | |
CN108663990A (zh) | 一种基于两级体素化模型的多轴加工干涉检测与处理方法 | |
CN110378285A (zh) | 一种充电座的识别方法、装置、机器人及存储介质 | |
CN114170149A (zh) | 一种基于激光点云的道路几何信息提取方法 | |
Tombari et al. | Feature-based automatic 3D registration for cultural heritage applications | |
CN111323026B (zh) | 一种基于高精度点云地图的地面过滤方法 | |
CN117409336A (zh) | 基于点云的城郊输电线网络树障定位及切除方法 | |
Zhang et al. | Object-based classification of urban airborne LiDAR point clouds with multiple echoes using SVM | |
Qin et al. | A voxel-based filtering algorithm for mobile LiDAR data | |
CN116071400B (zh) | 一种基于激光雷达设备的目标轨迹跟踪方法 | |
CN104424297A (zh) | 信息处理的方法及智能设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information |
Address after: 518000 Guangdong city of Shenzhen province Baoan District Xixiang Bao Tian Yi Lu Chen Tian Industrial District 37 Building 1 floor Applicant after: Shenzhen Huaxunark Technology Co., Ltd. Address before: 518000 Guangdong city of Shenzhen province Baoan District Xixiang Bao Tian Yi Lu Chen Tian Industrial District 37 Building 1 floor Applicant before: Shenzhen City Huaxun Fangzhou Technology Co., Ltd. |
|
COR | Change of bibliographic data | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160615 |