CN106909149B - 一种深度摄像头避障的方法及装置 - Google Patents
一种深度摄像头避障的方法及装置 Download PDFInfo
- Publication number
- CN106909149B CN106909149B CN201710151701.9A CN201710151701A CN106909149B CN 106909149 B CN106909149 B CN 106909149B CN 201710151701 A CN201710151701 A CN 201710151701A CN 106909149 B CN106909149 B CN 106909149B
- Authority
- CN
- China
- Prior art keywords
- obstacle
- coordinates
- virtual plane
- angle
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013507 mapping Methods 0.000 claims abstract description 53
- 230000004888 barrier function Effects 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Measurement Of Optical Distance (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种利用深度摄像头避障的方法,包括步骤:当多角度虚拟平面接触障碍物时,获取所述多角度虚拟平面上的障碍物坐标;将所述障碍物坐标映射到所述摄像头高度所在水平平面上,生成映射坐标;利用所述映射坐标的数据取代摄像头高度所在水平平面上原来的该坐标上的坐标的数据,生成新避障地图。本发明还公开了一种利用深度摄像头避障的装置。本发明提出一种利用深度摄像头避障的方法和装置解决了目前现有技术中机器人避障时雷达或传感器的障碍识别范围局限于传感器所在平面,当障碍物高度低于雷达或传感器所在平面时无法进行有效识别的问题,提高了对空间里不同高度障碍的避障识别能力。
Description
技术领域
本发明涉及机器人避障算法,尤其涉及一种深度摄像头避障的方法及装置。
背景技术
避障是对于外界的阻碍到物体的运动方向所作出各种躲避障碍的动作,并继续前行的动作,这个过程就是避障。应用在机器人,机器小车,四旋翼飞机等。
目前机器人的避障主要靠的是摄像头或者是激光雷达,而使用摄像头的处理方式实际上是模拟雷达的处理方式。使用激光雷达壁障依靠的主要是雷达扫描的水平平面点阵用以生成平面地图,而使用立体摄像头,也是取相对于摄像头所在同一高度的一个平面的深度数据来生成平面地图,所以本质上使用这两种传感器避障能识别到位于传感器材同一高度的障碍物。
目前普遍在应用的利用深度摄像头的处理方法是把深度摄像头模拟成为激光雷达的点阵,一般激光雷达扫描范围只能局限于它所在的平面,这就容易导致如有障碍物突然进入到机器人的行进路径当中,而且障碍物的高度低于雷达所扫描的平面的高度,使得机器人无法识别障碍物,从而会有相撞的可能。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种深度摄像头避障的方法及装置,旨在解决目前现有技术中机器人避障时雷达或传感器的障碍识别范围局限于传感器所在平面,当障碍物高度低于雷达或传感器所在平面时无法进行有效识别的问题。
为实现上述目的,本发明提供的一种深度摄像头避障的方法,包括步骤:
当多角度虚拟平面接触障碍物时,获取所述多角度虚拟平面上的障碍物坐标;
将所述障碍物坐标映射到所述摄像头高度所在水平平面上,生成映射坐标;
利用所述映射坐标的数据取代摄像头高度所在水平平面上原来的该坐标上的坐标的数据,生成新避障地图。
优选地,所述当多角度虚拟平面接触障碍物时,获取所述多角度虚拟平面上的障碍物坐标之前,还包括:
预设包括摄像头高度所在水平平面在内的若干多角度虚拟平面数据。
优选地,所述预设包括摄像头高度所在水平平面在内的若干多角度虚拟平面数据包括:
设置摄像头高度所在水平平面的多角度虚拟平面,为0°多角度虚拟平面;
设置与所述0°多角度虚拟平面的夹角为22.5°、11°、-11°和-22.5°四个角度数据的多角度虚拟平面。
优选地,所述将所述障碍物坐标映射到所述摄像头高度所在水平平面上,生成映射坐标包括:
获取摄像头原点坐标;
获取所述障碍物坐标所在所述多角度虚拟平面与所述0°多角度虚拟平面的夹角的角度数据;
通过所述障碍物坐标、所述摄像头原点坐标,以及所述角度数据计算得出映射坐标。
优选地,所述障碍物坐标利用所述摄像头所在坐标和多角度虚拟平面的角度数据计算得出映射坐标包括:
设定所述摄像头原点坐标为X1、Y1、Z1,所述障碍物坐标为X2、Y2、Z2,所述多角度虚拟平面的角度数据为α,所述映射坐标为X3、Y3、Z3;
通过公式计算得出所述映射坐标:X3=X2×cos|α|,Y3=Y2,Z3=Z1。
为解决上述问题,本申请还提供一种利用深度摄像头避障的装置,包括获取模块、映射模块和替换模块;
所述获取模块,用于当多角度虚拟平面接触障碍物时,获取所述多角度虚拟平面上的障碍物坐标;
所述映射模块,用于将所述障碍物坐标映射到所述摄像头高度所在水平平面上,生成映射坐标;
所述替换模块,用于利用所述映射坐标的数据取代摄像头高度所在水平平面上原来的该坐标上的坐标的数据,生成新避障地图。
优选地,还包括:设置模块;
所述设置模块,用于预设包括摄像头高度所在水平平面在内的若干多角度虚拟平面数据。
优选地,所述设置模块,还用于设置摄像头高度所在水平平面的多角度虚拟平面,为0°多角度虚拟平面;
所述设置模块,还用于设置与所述0°多角度虚拟平面的夹角为22.5°、11°、-11°和-22.5°四个角度数据的多角度虚拟平面。
优选地,还包括:计算模块;
所述获取模块,还用于获取摄像头原点坐标;
所述获取模块,还用于获取所述障碍物坐标所在所述多角度虚拟平面与所述0°多角度虚拟平面的夹角的角度数据;
所述计算模块,用于通过所述障碍物坐标、所述摄像头原点坐标,以及所述角度数据计算得出映射坐标。
优选地,所述设置模块,还用于设定所述摄像头原点坐标为X1、Y1、Z1,所述障碍物坐标为X2、Y2、Z2,所述多角度虚拟平面的角度数据为α,所述映射坐标为X3、Y3、Z3;
所述计算模块,还用于通过公式计算得出所述映射坐标:X3=X2×cos|α|,Y3=Y2,Z3=Z1。
本发明提出一种利用深度摄像头避障的方法和装置,通过多角度虚拟平面对障碍物进行扫描,当碰到障碍物时返回障碍物坐标数据,并映射到水平平面生成映射坐标,从而进一步更新避障地图,解决了目前现有技术中机器人避障时雷达或传感器的障碍识别范围局限于传感器所在平面,当障碍物高度低于雷达或传感器所在平面时无法进行有效识别的问题,提高了对空间里不同高度障碍的避障识别能力。
附图说明
图1为本发明利用深度摄像头避障的方法的第一实施例的流程示意图;
图2为本发明利用深度摄像头避障的方法的第二实施例的流程示意图;
图3为本发明利用深度摄像头避障的方法的第三实施例的流程示意图;
图4为本发明利用深度摄像头避障的方法的第四实施例的流程示意图;
图5为本发明利用深度摄像头避障的方法的第五实施例的流程示意图;
图6为本发明利用深度摄像头避障的装置的第一实施例的功能模块示意图;
图7为本发明利用深度摄像头避障的装置的第二实施例的功能模块示意图;
图8为本发明利用深度摄像头避障的装置的第三实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供的一种利用深度摄像头避障的方法。
参照图1,图1为本发明利用深度摄像头避障的方法的第一实施例的流程示意图。
步骤S100,当多角度虚拟平面接触障碍物时,获取所述多角度虚拟平面上的障碍物坐标;
上述,多角度虚拟平面为由摄像头为基点,并与摄像头所在水平平面行程一定夹角角度的虚拟平面,通过多个多角度虚拟平面对三维空间内一定范围的障碍物进行扫描,当某一平面内接触到障碍物时,返回数据,即代表该位置存在障碍物,获取障碍物所在坐标点或所在坐标群并进行计算。多角度虚拟平面可应用于可移动机器人、无人机等多种需要自动避障的自动化设备中。
步骤S200,将所述障碍物坐标映射到所述摄像头高度所在水平平面上,生成映射坐标;
上述,将不同多角度虚拟平面上的障碍物坐标映射到摄像头高度所在水平平面上,进一步的可将不同空间位置的点降维度到二维中,形成2D的障碍物地图。
步骤S300,利用所述映射坐标的数据取代摄像头高度所在水平平面上原来的该坐标上的坐标的数据,生成新避障地图。
对当前地图通过新获取到的映射坐标进行更新,用映射坐标覆盖或改写当前原坐标,标记出障碍物点位置或障碍物群的位置,进一步的让机器人进入避让程序。
在本实施例中,提出一种利用深度摄像头避障的方法,通过多角度虚拟平面对障碍物进行扫描,当碰到障碍物时返回障碍物坐标数据,并映射到水平平面生成映射坐标,从而进一步更新避障地图,解决了目前现有技术中机器人避障时雷达或传感器的障碍识别范围局限于传感器所在平面,当障碍物高度低于雷达或传感器所在平面时无法进行有效识别的问题,提高了对空间里不同高度障碍的避障识别能力。
参照图2,图2为本发明利用深度摄像头避障的方法的第二实施例的流程示意图。
基于上述利用深度摄像头避障的方法的第一实施例,所述步骤S100之前还包括:
步骤S400,预设包括摄像头高度所在水平平面在内的若干多角度虚拟平面数据;
在本实施例中,通过预设多个多角度虚拟平面,进一步增加摄像头对障碍物扫描的准确度。
参照图3,图3为本发明利用深度摄像头避障的方法的第三实施例的流程示意图。
基于上述利用深度摄像头避障的方法的第二实施例,在所述步骤S400还包括:
步骤S410,设置摄像头高度所在水平平面的多角度虚拟平面,为0°多角度虚拟平面;
定义摄像头高度所在的水平平面,将其命名为0°多角度虚拟平面。0°多角度虚拟平面为参照平面,其他多角度虚拟平面与0°多角度虚拟平面进行参比,与0°多角度虚拟平面形成夹角。
步骤S420,设置与所述0°多角度虚拟平面的夹角为22.5°、11°、-11°和-22.5°四个角度数据的多角度虚拟平面。
在本实施例中,首先通过设定0°多角度虚拟平面作为参照平面,进一步设置与0°多角度虚拟平面形成一定角度的夹角的不同多角度虚拟平面,进一步提高对障碍物扫描的精度。优选地,多角度虚拟平面夹角设置为为22.5°、11°、-11°和-22.5°四个角度。
参照图4,图4为本发明利用深度摄像头避障的方法的第四实施例的流程示意图。
基于上述利用深度摄像头避障的方法的第三实施例,所述步骤S200还包括:
步骤S210,获取摄像头原点坐标;
步骤S220,获取所述障碍物坐标所在所述多角度虚拟平面与所述0°多角度虚拟平面的夹角的角度数据;
步骤S230,通过所述障碍物坐标、所述摄像头原点坐标,以及所述角度数据计算得出映射坐标。
在本实施例中,通过获取障碍物坐标、摄像头原点坐标和角度数据计算得出映射坐标的数据,进而将映射坐标改写原障碍地图。
参照图5,图5为本发明利用深度摄像头避障的方法的第五实施例的流程示意图。
基于上述利用深度摄像头避障的方法的第四实施例,所述步骤S230还包括:
步骤S231,设定所述摄像头原点坐标为X1、Y1、Z1,所述障碍物坐标为X2、Y2、Z2,所述多角度虚拟平面的角度数据为α,所述映射坐标为X3、Y3、Z3;
步骤S232,通过公式计算得出所述映射坐标:X3=X2×cos|α|,Y3=Y2,Z3=Z1。
在本实施例中,利用余弦函数通过多角度虚拟平面的角度数据与障碍物的X2坐标求出映射坐标中的X3,进而得出映射坐标X3、Y3、Z3。
本发明还提供一种利用深度摄像头避障的装置。
参照图6,图6为利用深度摄像头避障的装置的第一实施例的功能模块示意图。
在第一实施例中,所述利用深度摄像头避障的装置包括:
获取模块10、映射模块20和替换模块;
所述获取模块10,用于当多角度虚拟平面接触障碍物时,获取所述多角度虚拟平面上的障碍物坐标;
所述映射模块20,用于将所述障碍物坐标映射到所述摄像头高度所在水平平面上,生成映射坐标;
所述替换模块,用于利用所述映射坐标的数据取代摄像头高度所在水平平面上原来的该坐标上的坐标的数据,生成新避障地图。
参照图7,图7为本发明利用深度摄像头避障的装置的第二实施例的功能模块示意图。
基于上述利用深度摄像头避障的装置的第一实施例,本实施例中利用深度摄像头避障的装置还包括:设置模块40;
所述设置模块40,用于预设包括摄像头高度所在水平平面在内的若干多角度虚拟平面数据。
所述设置模块40,还用于设置摄像头高度所在水平平面的多角度虚拟平面,为0°多角度虚拟平面;
所述设置模块40,还用于设置与所述0°多角度虚拟平面的夹角为22.5°、11°、-11°和-22.5°四个角度数据的多角度虚拟平面。
参照图8,图8为本发明利用深度摄像头避障的装置的第三实施例的功能模块示意图。
基于上述利用深度摄像头避障的装置的第二实施例,本实施例中利用深度摄像头避障的装置还包括:计算模块40;
所述获取模块10,还用于获取摄像头原点坐标;
所述获取模块10,还用于获取所述障碍物坐标所在所述多角度虚拟平面与所述0°多角度虚拟平面的夹角的角度数据;
所述计算模块40,用于通过所述障碍物坐标、所述摄像头原点坐标,以及所述角度数据计算得出映射坐标。
所述设置模块40,还用于设定所述摄像头原点坐标为X1、Y1、Z1,所述障碍物坐标为X2、Y2、Z2,所述多角度虚拟平面的角度数据为α,所述映射坐标为X3、Y3、Z3;
所述计算模块40,还用于通过公式计算得出所述映射坐标:X3=X2×cos|α|,Y3=Y2,Z3=Z1。
以上仅为本发明的优选实施例,并非因此限制本发明的范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (4)
1.一种利用深度摄像头避障的方法,其特征在于,包括步骤:
设置摄像头高度所在水平平面的多角度虚拟平面,为0°多角度虚拟平面;
设置与所述0°多角度虚拟平面的夹角为22.5°、11°、-11°和-22.5°四个角度数据的多角度虚拟平面;
当各个多角度虚拟平面接触障碍物时,获取各个多角度虚拟平面上各自对应的障碍物坐标;
获取摄像头原点坐标,获取各个多角度虚拟平面与所述0°多角度虚拟平面的各自对应夹角的角度数据,通过各自对应的障碍物坐标、所述摄像头原点坐标以及各自对应夹角的计算得出各个障碍物坐标各自对应的映射坐标;分别利用各自对应的映射坐标的数据取代所述摄像头高度所在水平平面上原来的该坐标上的坐标的数据以标记出对应的障碍物点位置或障碍物群的位置,生成新避障地图。
2.如权利要求1所述的利用深度摄像头避障的方法,其特征在于,所述通过各自对应的障碍物坐标、所述摄像头原点坐标,以及各自对应夹角的计算得出各个障碍物坐标各自对应的映射坐标的步骤包括:
设定所述摄像头原点坐标为X1、Y1、Z1,所述障碍物坐标为X2、Y2、Z2,所述多角度虚拟平面的角度数据为α,所述映射坐标为X3、Y3、Z3;
通过公式计算得出所述映射坐标:X3=X2×cos|α|,Y3=Y2,Z3=Z1。
3.一种利用深度摄像头避障的装置,其特征在于,包括:设置模块、获取模块、映射坐标计算模块和替换模块;
所述设置模块,用于设置摄像头高度所在水平平面的多角度虚拟平面,为0°多角度虚拟平面,设置与所述0°多角度虚拟平面的夹角为22.5°、11°、-11°和-22.5°四个角度数据的多角度虚拟平面;所述获取模块,用于当各个多角度虚拟平面接触障碍物时,获取各个多角度虚拟平面上各自对应的障碍物坐标;
所述获取模块还用于获取摄像头原点坐标,获取各个多角度虚拟平面与所述0°多角度虚拟平面的各自对应夹角的角度数据;
所述映射坐标计算模块,用于通过各自对应的障碍物坐标、所述摄像头原点坐标以及各自对应夹角的计算得出各个障碍物坐标各自对应的映射坐标;
所述替换模块,用于分别利用各自对应的映射坐标的数据取代摄像头高度所在水平平面上原来的该坐标上的坐标的数据以标记出对应的障碍物点位置或障碍物群的位置,生成新避障地图。
4.如权利要求3所述的深度摄像头避障的装置,其特征在于,
所述设置模块,还用于设定所述摄像头原点坐标为X1、Y1、Z1,所述障碍物坐标为X2、Y2、Z2,所述多角度虚拟平面的角度数据为α,所述映射坐标为X3、Y3、Z3;
所述映射坐标计算模块,还用于通过公式计算得出所述映射坐标:X3=X2×cos|α|,Y3=Y2,Z3=Z1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710151701.9A CN106909149B (zh) | 2017-03-14 | 2017-03-14 | 一种深度摄像头避障的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710151701.9A CN106909149B (zh) | 2017-03-14 | 2017-03-14 | 一种深度摄像头避障的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106909149A CN106909149A (zh) | 2017-06-30 |
CN106909149B true CN106909149B (zh) | 2020-09-22 |
Family
ID=59186551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710151701.9A Active CN106909149B (zh) | 2017-03-14 | 2017-03-14 | 一种深度摄像头避障的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106909149B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109782750A (zh) * | 2017-11-14 | 2019-05-21 | 宝时得科技(中国)有限公司 | 自动行走设备及其避障方法 |
CN113325832B (zh) * | 2020-02-28 | 2023-08-11 | 杭州萤石软件有限公司 | 一种可移动机器人避障方法以及可移动机器人 |
CN112748742A (zh) * | 2020-06-10 | 2021-05-04 | 宋师光 | 自动化山体目标躲避平台及方法 |
CN112162559B (zh) * | 2020-09-30 | 2021-10-15 | 杭州海康机器人技术有限公司 | 用于多机器人混行的方法、装置及存储介质 |
CN113900435B (zh) * | 2021-08-31 | 2022-09-27 | 深圳蓝因机器人科技有限公司 | 基于双摄像头的移动机器人避障方法、设备、介质及产品 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1617170A (zh) * | 2003-09-19 | 2005-05-18 | 索尼株式会社 | 环境识别设备及方法,路径规划设备及方法以及机器人 |
CN101852609A (zh) * | 2010-06-02 | 2010-10-06 | 北京理工大学 | 一种基于机器人双目立体视觉的地面障碍物检测方法 |
CN103413313A (zh) * | 2013-08-19 | 2013-11-27 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
CN103512579A (zh) * | 2013-10-22 | 2014-01-15 | 武汉科技大学 | 一种基于热红外摄像机和激光测距仪的地图构建方法 |
CN105389543A (zh) * | 2015-10-19 | 2016-03-09 | 广东工业大学 | 基于全方位双目视觉深度信息融合的移动机器人避障装置 |
CN105652873A (zh) * | 2016-03-04 | 2016-06-08 | 中山大学 | 一种基于Kinect的移动机器人避障方法 |
CN106227218A (zh) * | 2016-09-27 | 2016-12-14 | 深圳乐行天下科技有限公司 | 一种智能移动设备的导航避障方法及装置 |
CN106441275A (zh) * | 2016-09-23 | 2017-02-22 | 深圳大学 | 一种机器人规划路径的更新方法及装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0778234A (ja) * | 1993-06-30 | 1995-03-20 | Nissan Motor Co Ltd | 走行路検出装置 |
US20050234679A1 (en) * | 2004-02-13 | 2005-10-20 | Evolution Robotics, Inc. | Sequential selective integration of sensor data |
US8510039B1 (en) * | 2010-10-05 | 2013-08-13 | The Boeing Company | Methods and apparatus for three-dimensional localization and mapping |
CN102799182A (zh) * | 2012-08-20 | 2012-11-28 | 南京工程学院 | 全方位视频传输避障小车 |
JP5829306B2 (ja) * | 2014-05-12 | 2015-12-09 | ファナック株式会社 | レンジセンサの配置位置評価装置 |
CN105303595B (zh) * | 2014-07-30 | 2019-06-11 | Tcl集团股份有限公司 | 一种基于三维虚拟场景的物体智能避障方法及系统 |
CN105913489B (zh) * | 2016-04-19 | 2019-04-23 | 东北大学 | 一种利用平面特征的室内三维场景重构方法 |
CN105955298B (zh) * | 2016-06-03 | 2018-09-07 | 腾讯科技(深圳)有限公司 | 一种飞行器的自动避障方法及装置 |
CN106383517B (zh) * | 2016-09-30 | 2019-06-07 | 汕头大学 | 一种自主移动机器人平台用控制系统、方法及装置 |
-
2017
- 2017-03-14 CN CN201710151701.9A patent/CN106909149B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1617170A (zh) * | 2003-09-19 | 2005-05-18 | 索尼株式会社 | 环境识别设备及方法,路径规划设备及方法以及机器人 |
CN101852609A (zh) * | 2010-06-02 | 2010-10-06 | 北京理工大学 | 一种基于机器人双目立体视觉的地面障碍物检测方法 |
CN103413313A (zh) * | 2013-08-19 | 2013-11-27 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
CN103512579A (zh) * | 2013-10-22 | 2014-01-15 | 武汉科技大学 | 一种基于热红外摄像机和激光测距仪的地图构建方法 |
CN105389543A (zh) * | 2015-10-19 | 2016-03-09 | 广东工业大学 | 基于全方位双目视觉深度信息融合的移动机器人避障装置 |
CN105652873A (zh) * | 2016-03-04 | 2016-06-08 | 中山大学 | 一种基于Kinect的移动机器人避障方法 |
CN106441275A (zh) * | 2016-09-23 | 2017-02-22 | 深圳大学 | 一种机器人规划路径的更新方法及装置 |
CN106227218A (zh) * | 2016-09-27 | 2016-12-14 | 深圳乐行天下科技有限公司 | 一种智能移动设备的导航避障方法及装置 |
Non-Patent Citations (1)
Title |
---|
《一种融合激光和深度视觉传感器的SLAM地图创建方法》;张毅 等;《计算机应用研究》;20161031;第2970-2972、3006页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106909149A (zh) | 2017-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106909149B (zh) | 一种深度摄像头避障的方法及装置 | |
CN110136273B (zh) | 一种用于机器学习中的样本数据标注方法及装置 | |
JP6031554B2 (ja) | 単眼カメラに基づく障害物検知方法及び装置 | |
CN109822579A (zh) | 基于视觉的协作机器人安全控制方法 | |
WO2021046716A1 (zh) | 目标对象的检测方法、系统、设备及存储介质 | |
CN110176078B (zh) | 一种训练集数据的标注方法及装置 | |
KR20190022435A (ko) | 로봇의 장애물 회피 제어 시스템, 방법, 로봇 및 저장매체 | |
CN109682336B (zh) | 用于车身精度检测的三坐标测量路径自动规划与优化方法 | |
CN113657224A (zh) | 车路协同中用于确定对象状态的方法、装置、设备 | |
US11010919B2 (en) | Object locator with fiducial marker | |
CN108733065B (zh) | 一种机器人的避障方法、装置及机器人 | |
KR20100081588A (ko) | 로봇 및 그 제어방법 | |
CN106323286B (zh) | 一种机器人坐标系与三维测量坐标系的变换方法 | |
CN110433467B (zh) | 基于双目视觉和蚁群算法的捡乒乓球机器人运行方法及设备 | |
CN109974742A (zh) | 一种激光里程计算方法和地图构建方法 | |
CN112045655B (zh) | 用于大尺度多站点场景的移动机器人位姿测量方法及系统 | |
CN116030202B (zh) | 一种三维图像重建方法、装置、电子设备及存储介质 | |
CN110705385A (zh) | 一种障碍物角度的检测方法、装置、设备及介质 | |
CN114842106A (zh) | 栅格地图的构建方法及构建装置、自行走装置、存储介质 | |
WO2021068980A1 (zh) | 三维地图生成方法、移动装置和计算机可读存储介质 | |
JP2021185365A (ja) | 自己位置推定装置、自己位置推定方法、プログラム及び記憶媒体 | |
CN113358110A (zh) | 机器人障碍物地图的构建方法、装置、机器人及存储介质 | |
CN116007623A (zh) | 机器人导航方法、装置和计算机可读存储介质 | |
CN110631586A (zh) | 基于视觉slam的地图构建的方法、导航系统及装置 | |
CN115063489A (zh) | 一种外参标定方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |