CN109682381A - 基于全向视觉的大视场场景感知方法、系统、介质及设备 - Google Patents
基于全向视觉的大视场场景感知方法、系统、介质及设备 Download PDFInfo
- Publication number
- CN109682381A CN109682381A CN201910133713.8A CN201910133713A CN109682381A CN 109682381 A CN109682381 A CN 109682381A CN 201910133713 A CN201910133713 A CN 201910133713A CN 109682381 A CN109682381 A CN 109682381A
- Authority
- CN
- China
- Prior art keywords
- camera
- robot
- path
- grid
- planning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000008447 perception Effects 0.000 title claims abstract description 37
- 230000011218 segmentation Effects 0.000 claims abstract description 15
- 230000005540 biological transmission Effects 0.000 claims abstract description 14
- 208000010877 cognitive disease Diseases 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 27
- 238000013507 mapping Methods 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 15
- 230000004888 barrier function Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 abstract description 3
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 238000013178 mathematical model Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了基于全向视觉的大视场场景感知方法、系统、介质及设备。其中,基于全向视觉的大视场场景感知方法,包括实时接收所有相机传送来图像,通过图像语义分割来识别障碍物信息,进而构建出所有相机的局部栅格地图;其中,所有相机均围绕机器人设置,这些相机的视角总范围覆盖机器人周围360度环境;利用构建的局部栅格地图进行路径规划,依据规划的路径控制机器人运行。其能够采集机器人周围360度方向的环境信息弥补了单相机存在可视范围小的缺点,能够适应更加复杂的环境,具有优异的场景泛化性以及鲁棒性。
Description
技术领域
本公开属于机器人导航避障领域,尤其涉及一种基于全向视觉的大视场场景感知方法、系统、介质及设备。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
机器人实现自主导航避障是机器人的核心任务之一,导航避障作为一项涉及移动机器人多传感器融合的环境感知、按照一定算法实时更新路径的运动控制的系统,移动机器人在其规划路径下绕过存在的静态或动态障碍,最终到达目标点。
机器人利用地图信息可以指导机器人进行全局路径规划。在导航过程中融合多种传感器信息感知局部动态环境信息进行局部路径规划灵活避障。目前视觉避障的主要包含图像获取、障碍物位置检测、图像分割、运动规划等步骤。发明人发现,由于传统的视觉传感器存在可视范围小等缺点,不能有效还原环境的全局信息进行视觉导航。
传统的障碍物检测技术一般都以边缘检测为基础,辅以灰度化处理、Hough变换、模式匹配等。发明人还发现,传统的方法都是根据图像像素自身的低阶视觉信息来进行图像处理,传统方法没有算法的训练阶段往往算法复杂度不高,对于复杂环境背景,无法有效的识别障碍物等有效信息。
发明内容
本公开的第一个方面,提供一种基于全向视觉的大视场场景感知方法,其能够采集机器人周围360度方向的环境信息弥补了单相机存在可视范围小的缺点,能够适应更加复杂的环境,具有优异的场景泛化性以及鲁棒性。
本公开的一种基于全向视觉的大视场场景感知方法的技术方案为:
基于全向视觉的大视场场景感知方法,包括:
构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境;
实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行。
本公开第二个方面,提供一种基于全向视觉的大视场场景感知系统。
本公开的一种基于全向视觉的大视场场景感知系统的技术方案为:
基于全向视觉的大视场场景感知系统,包括:
若干个相机,这些相机围绕机器人设置,且所有相机的视角总范围可覆盖机器人周围360度环境;
感知处理器,所述感知处理器包括:
局部栅格地图构建模块,其用于构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境;
路径规划模块,其用于实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行。
本公开第三个方面,提供一种计算机可读存储介质。
本公开的一种计算机可读存储介质的技术方案为:
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述所述的基于全向视觉的大视场场景感知方法中的步骤。
本公开第四个方面,提供一种设备。
本公开的一种设备的技术方案为:
一种设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述所述的基于全向视觉的大视场场景感知方法中的步骤。
本公开的有益效果是:
本公开通过构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境;实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行,一方面弥补了单相机存在可视范围小的缺点,另外,通过图像语义分割识别障碍物信息实现了精确感知周围环境,具有更优异的场景理解力以及鲁棒性。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1为本公开实施例提供的基于全向视觉的大视场场景感知方法整体流程图。
图2为本公开实施例提供的基于全向视觉的大视场场景感知方法具体流程图。
图3为本公开实施例提供的相机透视投影示意图。
图4为本公开实施例提供的构建局部地图数学模型示意图。
图5为本公开实施例提供的场景语义分割模型结构图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例1
本实施例的基于全向视觉的大视场场景感知方法可运行在ROS(Robot OperatingSystem)平台下。
如图1和图2所示,本实施例的基于全向视觉的大视场场景感知方法,至少包括:
S101:构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境。
本实施例的相机以六个为例,在机器人komodo2上搭建了六个环绕相机,这样可以采集机器人周围360度方向的环境信息。
需要说明的是,也可选择其他数量的相机数量,而且实际相机数量根据相机视角实际确定,保证覆盖360°环境即可。
具体地,S101构建所有围绕机器人的相机的局部栅格地图的过程为:
S1011:根据相机的对应变换矩阵,得到像素坐标与相机平面二维坐标之间的关系。
在具体实施中,由于在机器人上搭建了六个环绕相机,六个相机均在同一平面上,所以可以看成六个平面直角坐标系,每两个相机之间的变换矩阵都可以分解为一个旋转矩阵R和一个平移向量T描述,通过相机的两对对应点的坐标可以求出二维坐标系下的旋转平移关系。
S1012:通过已知的静态环境地图和目标位置,规划机器人直达目的地的全局路径。
具体地,通过已知的静态环境地图和目标位置规划直达目的地的全局路径,通过全局路径可以获取一系列的路径点,取距离起始点3m的路径点作为机器人的局部目标点。
假设机器人在全局坐标系下的位姿为(current_x,current_y,current_theta),其中三个参数分为代表机器人在全局参考系中的横坐标、纵坐标、以及绕Z轴的旋转角度。ROS下通过TF维护多个参考坐标系之间的坐标变化关系,利用TF变化将局部目标点从全局参考系转化到六个相机坐标系中。
S1013:通过全局路径确定局部目标点,根据像素坐标与相机平面二维坐标之间的关系,将局部目标点映射到每个相机对应的相机坐标系中。
具体地,为每个相机构建局部地图,通过相机定位算法确定像素坐标与相机平面二维坐标的变换关系,通过构建数学模型确定二维坐标与栅格坐标的映射关系,最终得到像素坐标与栅格坐标的变换关系。
如图3所示,空间中三维点从世界平面到相机的透视投影。假设相机坐标系{c}为参考坐标系,空间平面π存在三维空间点Pi=[Xi,Yi,Zi,1]T,i=1,2,…。通过小孔成像模型可以得出Pi的归一化摄影坐标为
对应的齐次图像坐标为:
K为相机的内参矩阵:
其中,K内的参数为相机的内参数。
当相机的内参矩阵已知的时候,可以得出结论空间中的图像坐标与归一化摄影坐标可以相互转换。
定义在参考坐标系{A}下的空间点为 到pi可以通过以下公式得到:
其中,σi为三维空间点Pi的成像深度,为求得的相机外参矩阵,和分别表示参考坐标系{A}与相机坐标系{c}的旋转与平移关系。
平面π与坐标系{A}的XY-平面在同一平面上,空间点在平面π中表示为将表示为即得到以下表达式:
H是参考坐标系Z=0时平面的单应矩阵。设平面π上与相对应的点为归一化H,尺度因子为α,表示为以下公式:
结合公式(5)、公式(6)与公式(7),可以得到:
在已知pi和的条件下求解H',由于尺度因子σi和α均为未知参数,做叉乘得到:
H'有九个未知参数,使用一张A4纸作为标定物,采集A4纸的4个角点对应的图像坐标系下像素坐标与世界坐标系下的二维平面坐标,四个点带入公式(9)即可求得H',H'与H相差了一尺度因子λ。
为了得到λ,将公式(6)矩阵分解为:
通过以及可以得到:
设a=[a11 a12 a13]T,b=[b11 b12 b13]T代入公式(11)求解。
为了表示方便,设ω=K-TK-1,使用的实验场景图片分辨率为640×480,所以在公式(3)内参矩阵的部分参数值已知,(u0,v0)选择为(320,240),并且σ取值为0。通过公式(11)求得内参矩阵K,λ可以通过以下公式获得:
现在已经得到及外参矩阵平面π在参考坐标{A}中可以表示为nA代表平面π在参考坐标{A}中的法向量,dA表示参考坐标系原点到平面π的距离。把相机坐标系作为参考坐标系,则平面π可以表示为πc=[ncT dc]T,其中:
如图4所示,定义过相机光心和点m空间直线L,变化为齐次坐标的形式:
直线L的Plucker矩阵为L=ABT-BAT,通过计算直线L与平面πc的交点坐标即求得在图像坐标p在相机坐标系下的坐标P,通过以下公式求解:
相机坐标系与地面参考坐标系{A}的转换可以通过外参矩阵实现,即:
通过上述相机定位算法得到了图像坐标到平面二维坐标系的映射关系,通过图四构建的数学模型求解二维平面坐标与栅格坐标的映射关系。为了使规划的路径的更适合机器人运动控制,建立以机器人为极坐标中心的局部地图。平面上每一个二维坐标点都对应一个极半径与极角,通过以下公式求得:
其中,Tdim表示在角度维度上将机器人一圈划分为180份,即每个栅格占据2度大小的空间。
S1014:根据相机平面二维坐标和栅格坐标之间的映射关系,构建出所有相机的局部栅格地图。
由于图像像素点对应平面二维坐标变化的不连续性,即距离相机近的区域对应的图像区域大于距离相机远的区域,所有选择按照两种方式划分栅格,距离相机1.8m的平面区域等分划为9个栅格,即每个栅格代表的长度为0.2m,距离超过1.8m的平面区域同样划分为7个栅格,但是每个栅格代表的长度是不连续的。hcam代表相机高度,通过测量平面1.8m时的相机高度,可以获得hRdim,通过相似三角形原理可以求得非线性栅格的最大距离,用公式可以表达为:
其中,Rdim表示线性区栅格的个数,hRdim表示非线性区栅格的个数。
每一个极半径与极角都会有对应一个栅格坐标,通过以下公式求得:
其中:
Cres表示线性区单个栅格的长度;
hcam表示相机距水平地面的高度;
Rmin表示非线性区个栅格到极坐标原点的距离;
hRmin表示在Rmin位置,相机视野顶端与地面的距离;
Rdim表示线性区栅格的个数;
hRdim表示非线性区栅格的个数;
Tdim表示将360度划分为180份,即每个栅格占据2度大小的空间。
其中,Rc代表线性区栅格到坐标原点的距离,Rn代表非线性栅格到坐标原点的距离。r代表栅格编号,当极半径小于1.8m的时候根据线性区公式计算r,当极半径大于1.8m的时候根据非线性区域公式计算r,相机的前向视野为180度,将180等分划为90个栅格,即每个栅格占据2度大小的空间。
通过公式(17)求得的极角确定栅格位置。建立的极坐标栅格地图尺寸为16×90。因此,建立了像素坐标点->平面二维坐标点->极坐标栅格坐标的转换关系,下一步需要确定每一个栅格点的属性,即可通行区域还是不可通行区域。
S102:实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行。
在具体实施中,通过图像语义分割识别障碍物信息的过程为:
S1021:获取图像语义分割训练数据集;所述图像语义分割训练数据集由像素点及其标签构成。
具体地,训练数据分为两个部分,分别是公共数据库CamVid和手动采集的实验场景数据。使用标注工具对手动采集图片进行标注。将地板标记为1,其他的标记为0,。手动采集的数据中随机选取80%用于训练网络参数,剩余20%图片用于模型的交叉验证。
S1022:将图像语义分割训练数据集输入至预设场景分割模型中,直至场景分割模型训练完成。
场景分割模型网络如图5所示,选择基于SegNet的图像语义分割模型用于机器人场景识别。模型有一个编码器网络和相对应的解码器网络,然后是一个Softmax分类器输出为像素点属于每一种分类的概率。一般选取概率最大的一类作为像素点的结果。编码器包含13层卷积层,类似于VGG-16网络前13层。卷积层包含卷积、BN层(批归一化)、最大池化层、ReLU激活层构成,进行最大池化的时候,编码器都会保存其最大值索引以供解码器使用。解码器与编码器的结构类似,但是在对输入特征上采样的时候会使用编码器保存的索引,对特征图进行放大2倍然后在对应的索引位置填入特征值,其余的位置使用0进行填充,得到稀疏的特征图。
S1023:将实时接收每个相机传送来图像输入至训练完成的场景分割模型中,得到障碍物信息。
根据图像语义分割模型得到的图像分割结果,通过求得的映射关系确定局部地图栅格属性,分为可通行区域与不可通行区域。
在每个相机的局部栅格地图中进行路径规划的过程中,将像素点的标签映射到栅格中,通过像素坐标到栅格坐标的映射关系,统计栅格中标签为障碍物的像素点占栅格中所有像素点的比例,若当前比例大于预设阈值时,则该栅格的属性为不可通行区域,否则为可通行区域。
例如:在PyTorch平台上对模型进行训练。当训练好模型之后,需要将模型的分割结果手动膨胀一定系数以考虑机器人的体积,防止机器人沿规划路径与障碍物之间间距太窄发生碰撞。接下类我们需要将像素点的标签映射到栅格中,通过像素坐标到栅格坐标的映射关系,统计栅格中标签为障碍物的像素点占栅格中所有像素点的比例λ。取λ的阈值为0.1,即当λ>0.1时,该栅格的属性为不可通行区域,否则为路面。为由于相机视野的局限性,超出相机视野的栅格认为是不可通行区域。由于无法确定像素点的深度信息,障碍物在图像中会遮挡部分图像区域,所以局部地图可以反映的近距离障碍物信息。栅格地图中超过一定距离的栅格认为是可通行区域。
通过上述步骤的场景分割以及坐标映射关系,全向视觉场景感知系统中每个相机都可以构建局部环境地图以应用于导航。
依据规划的路径控制机器人运行的过程中,还实时计算机器人是否到达目的地,若到达目标点,结束感知;否则,重新在所有相机的局部栅格地图中进行路径规划。
具体地,通过场景分割以及坐标变化构建局部地图,这样可以应用A*算法(路径规划算法)计算出规避碰撞的安全路径。A*算法综合了优先搜索和Dijkstra算法的优点:在进行启发式搜索提高算法效率的同时,可以保证找到一条最优路径(基于评估函数)。通过六个相机同时进行路径规划,由于六个相机重合视野非常小,所以局部目标点通常映射在一个或两个相机视野中,在其余相机的视野之外,根据构建局部地图的规则,超出视野的栅格在局部地图中表示为不可通行区域。所以当局部目标点落在不可通行区域内,路径规划算法无法得到路径。通过得出的所有路径,计算旋转角度确定最优路径。
若在所有相机的局部栅格地图中均没有规划出路径,则采取路径探索策略,将局部目标点设置为每个相机的正前方,按照朝目标点前进的原则来规划出的最优路径,控制机器人进行路径探索。
具体地,若没有规划出路径,即说明规划最优路径的相机视野被障碍物遮挡,可以获取机器人周围360度的视野信息,所以机器人可以获取丰富的视觉信息进行路径探索,采取的策略为局部目标点设置为每个相机的正前方,机器人在预设起始位置在每个相机中栅格坐标为(0,45),将目标点设置为(8,45),这样每个相机都会规划出相应的路径,按照朝目标点前进的原则选取相对应的路径。
本实施例通过构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境;实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行,一方面弥补了单相机存在可视范围小的缺点,另外,通过图像语义分割识别障碍物信息实现了精确感知周围环境,具有更优异的场景理解力以及鲁棒性。
实施例2
本实施例的基于全向视觉的大视场场景感知系统,至少包括:
(1)若干个相机,这些相机围绕机器人设置,且所有相机的视角总范围可覆盖机器人周围360度环境。
(2)感知处理器,所述感知处理器包括:
(2.1)局部栅格地图构建模块,其用于构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境。
具体地,所述局部栅格地图构建模块,还包括:
(2.1.1)关系构建模块,其用于根据相机的对应变换矩阵,得到像素坐标与相机平面二维坐标之间的关系;
(2.1.2)全局路径规划模块,其用于通过已知的静态环境地图和目标位置,规划机器人直达目的地的全局路径;
(2.1.3)局部目标点映射模块,其用于通过全局路径确定局部目标点,根据像素坐标与相机平面二维坐标之间的关系,将局部目标点映射到每个相机对应的相机坐标系中;根据相机平面二维坐标和栅格坐标之间的映射关系,构建出所有相机的局部栅格地图。
(2.2)路径规划模块,其用于实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行。
具体地,所述路径规划模块,还包括障碍物模块,所述障碍物模块包括:
(2.2.1)训练数据集获取模块,其用于获取图像语义分割训练数据集;所述图像语义分割训练数据集由像素点及其标签构成;
(2.2.2)场景分割模型训练模块,其用于将图像语义分割训练数据集输入至预设场景分割模型中,直至场景分割模型训练完成;
(2.2.3)障碍物信息输出模块,其用于将实时接收每个相机传送来图像输入至训练完成的场景分割模型中,得到障碍物信息。
在另一实施例中,所述路径规划模块,还用于:
在每个相机的局部栅格地图中进行路径规划的过程中,将像素点的标签映射到栅格中,通过像素坐标到栅格坐标的映射关系,统计栅格中标签为障碍物的像素点占栅格中所有像素点的比例,若当前比例大于预设阈值时,则该栅格的属性为不可通行区域,否则为可通行区域。
在另一实施例中,所述路径规划模块,还用于:
依据规划的路径控制机器人运行的过程中,还实时计算机器人是否到达目的地,若到达目标点,结束感知;否则,重新在所有相机的局部栅格地图中进行路径规划;
在另一实施例中,所述路径规划模块,还用于:
若在所有相机的局部栅格地图中均没有规划出路径,则采取路径探索策略,将局部目标点设置为每个相机的正前方,按照朝目标点前进的原则来规划出的最优路径,控制机器人进行路径探索。
本实施例通过构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境;实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行,一方面弥补了单相机存在可视范围小的缺点,另外,通过图像语义分割识别障碍物信息实现了精确感知周围环境,具有更优异的场景理解力以及鲁棒性。
实施例3
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如图1所示的基于全向视觉的大视场场景感知方法中的步骤。
实施例4
本实施例提供了一种设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如图1所示的基于全向视觉的大视场场景感知方法中的步骤。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (10)
1.基于全向视觉的大视场场景感知方法,其特征在于,包括:
构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境;
实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行。
2.如权利要求1所述的基于全向视觉的大视场场景感知方法,其特征在于,构建所有围绕机器人的相机的局部栅格地图的过程为:
根据相机的对应变换矩阵,得到像素坐标与相机平面二维坐标之间的关系;
通过已知的静态环境地图和目标位置,规划机器人直达目的地的全局路径;
通过全局路径确定局部目标点,根据像素坐标与相机平面二维坐标之间的关系,将局部目标点映射到每个相机对应的相机坐标系中;
根据相机平面二维坐标和栅格坐标之间的映射关系,构建出所有相机的局部栅格地图。
3.如权利要求1所述的基于全向视觉的大视场场景感知方法,其特征在于,通过图像语义分割识别障碍物信息的过程为:
获取图像语义分割训练数据集;所述图像语义分割训练数据集由像素点及其标签构成;
将图像语义分割训练数据集输入至预设场景分割模型中,直至场景分割模型训练完成;
将实时接收每个相机传送来图像输入至训练完成的场景分割模型中,得到障碍物信息。
4.如权利要求1所述的基于全向视觉的大视场场景感知方法,其特征在于,在每个相机的局部栅格地图中进行路径规划的过程中,将像素点的标签映射到栅格中,通过像素坐标到栅格坐标的映射关系,统计栅格中标签为障碍物的像素点占栅格中所有像素点的比例,若当前比例大于预设阈值时,则该栅格的属性为不可通行区域,否则为可通行区域。
5.如权利要求1所述的基于全向视觉的大视场场景感知方法,其特征在于,依据规划的路径控制机器人运行的过程中,还实时计算机器人是否到达目的地,若到达目标点,结束感知;否则,重新在所有相机的局部栅格地图中进行路径规划;
或若在所有相机的局部栅格地图中均没有规划出路径,则采取路径探索策略,将局部目标点设置为每个相机的正前方,按照朝目标点前进的原则来规划出的最优路径,控制机器人进行路径探索。
6.基于全向视觉的大视场场景感知系统,其特征在于,包括:
若干个相机,这些相机围绕机器人设置,且所有相机的视角总范围可覆盖机器人周围360度环境;
感知处理器,所述感知处理器包括:
局部栅格地图构建模块,其用于构建所有围绕机器人的相机的局部栅格地图;这些围绕机器人的相机的视角总范围可覆盖机器人周围360度环境;
路径规划模块,其用于实时接收每个相机传送来图像,通过图像语义分割识别障碍物信息,并在每个相机的局部栅格地图中进行路径规划,依据规划的路径控制机器人运行。
7.如权利要求6所述的基于全向视觉的大视场场景感知系统,其特征在于,所述局部栅格地图构建模块,还包括:
关系构建模块,其用于根据相机的对应变换矩阵,得到像素坐标与相机平面二维坐标之间的关系;
全局路径规划模块,其用于通过已知的静态环境地图和目标位置,规划机器人直达目的地的全局路径;
局部目标点映射模块,其用于通过全局路径确定局部目标点,根据像素坐标与相机平面二维坐标之间的关系,将局部目标点映射到每个相机对应的相机坐标系中;根据相机平面二维坐标和栅格坐标之间的映射关系,构建出所有相机的局部栅格地图;
或所述路径规划模块,还包括障碍物模块,所述障碍物模块包括:
训练数据集获取模块,其用于获取图像语义分割训练数据集;所述图像语义分割训练数据集由像素点及其标签构成;
场景分割模型训练模块,其用于将图像语义分割训练数据集输入至预设场景分割模型中,直至场景分割模型训练完成;
障碍物信息输出模块,其用于将实时接收每个相机传送来图像输入至训练完成的场景分割模型中,得到障碍物信息。
8.如权利要求6所述的基于全向视觉的大视场场景感知系统,其特征在于,所述路径规划模块,还用于:
在每个相机的局部栅格地图中进行路径规划的过程中,将像素点的标签映射到栅格中,通过像素坐标到栅格坐标的映射关系,统计栅格中标签为障碍物的像素点占栅格中所有像素点的比例,若当前比例大于预设阈值时,则该栅格的属性为不可通行区域,否则为可通行区域;
或所述路径规划模块,还用于:
依据规划的路径控制机器人运行的过程中,还实时计算机器人是否到达目的地,若到达目标点,结束感知;否则,重新在所有相机的局部栅格地图中进行路径规划;
或所述路径规划模块,还用于:
若在所有相机的局部栅格地图中均没有规划出路径,则采取路径探索策略,将局部目标点设置为每个相机的正前方,按照朝目标点前进的原则来规划出的最优路径,控制机器人进行路径探索。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一项所述的基于全向视觉的大视场场景感知方法中的步骤。
10.一种设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-5中任一项所述的基于全向视觉的大视场场景感知方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910133713.8A CN109682381B (zh) | 2019-02-22 | 2019-02-22 | 基于全向视觉的大视场场景感知方法、系统、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910133713.8A CN109682381B (zh) | 2019-02-22 | 2019-02-22 | 基于全向视觉的大视场场景感知方法、系统、介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109682381A true CN109682381A (zh) | 2019-04-26 |
CN109682381B CN109682381B (zh) | 2020-09-25 |
Family
ID=66196761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910133713.8A Active CN109682381B (zh) | 2019-02-22 | 2019-02-22 | 基于全向视觉的大视场场景感知方法、系统、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109682381B (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110083157A (zh) * | 2019-04-28 | 2019-08-02 | 深兰科技(上海)有限公司 | 一种避障方法及装置 |
CN110825079A (zh) * | 2019-10-15 | 2020-02-21 | 珠海格力电器股份有限公司 | 一种地图构建方法及装置 |
CN110909585A (zh) * | 2019-08-15 | 2020-03-24 | 北京致行慕远科技有限公司 | 一种路线确定方法、可行进设备、和存储介质 |
CN111289002A (zh) * | 2019-09-24 | 2020-06-16 | 陈水弟 | 一种机器人路径规划方法及系统 |
CN111309012A (zh) * | 2020-02-24 | 2020-06-19 | 深圳市优必选科技股份有限公司 | 机器人及其移动控制方法和装置 |
CN111367318A (zh) * | 2020-03-31 | 2020-07-03 | 华东理工大学 | 一种基于视觉语义信息的动态障碍环境导航方法和装置 |
CN111540017A (zh) * | 2020-04-27 | 2020-08-14 | 深圳市瑞立视多媒体科技有限公司 | 优化相机位置变量的方法、装置、设备及存储介质 |
CN111598034A (zh) * | 2020-05-22 | 2020-08-28 | 知行汽车科技(苏州)有限公司 | 障碍物检测方法、装置及存储介质 |
CN111595328A (zh) * | 2020-06-01 | 2020-08-28 | 四川阿泰因机器人智能装备有限公司 | 基于深度相机的真实障碍物地图构建和导航方法及系统 |
CN111612823A (zh) * | 2020-05-21 | 2020-09-01 | 云南电网有限责任公司昭通供电局 | 一种基于视觉的机器人自主跟踪方法 |
CN112396611A (zh) * | 2020-10-27 | 2021-02-23 | 武汉理工大学 | 一种点线视觉里程计自适应优化方法、装置及存储介质 |
CN112489131A (zh) * | 2020-12-26 | 2021-03-12 | 上海有个机器人有限公司 | 基于路面检测构建代价地图的方法、装置、介质和机器人 |
CN112639821A (zh) * | 2020-05-11 | 2021-04-09 | 华为技术有限公司 | 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆 |
CN113096190A (zh) * | 2021-03-27 | 2021-07-09 | 大连理工大学 | 基于视觉建图的全向移动机器人导航方法 |
CN113448340A (zh) * | 2020-03-27 | 2021-09-28 | 北京三快在线科技有限公司 | 一种无人机的路径规划方法、装置、无人机及存储介质 |
CN113538577A (zh) * | 2021-06-10 | 2021-10-22 | 广州杰赛科技股份有限公司 | 多摄像机覆盖优化方法、装置、设备及存储介质 |
CN114078325A (zh) * | 2020-08-19 | 2022-02-22 | 北京万集科技股份有限公司 | 多感知系统配准方法、装置、计算机设备和存储介质 |
CN114503042A (zh) * | 2019-08-07 | 2022-05-13 | 波士顿动力公司 | 导航移动机器人 |
WO2022170806A1 (zh) * | 2021-02-09 | 2022-08-18 | 灵动科技(北京)有限公司 | 地图构建和导航方法、装置、电子设备及可读存储介质 |
WO2023036083A1 (zh) * | 2021-09-08 | 2023-03-16 | 汤恩智能科技(上海)有限公司 | 传感器数据处理方法、系统及可读存储介质 |
CN116952250A (zh) * | 2023-09-18 | 2023-10-27 | 之江实验室 | 一种基于语义地图的机器人指路方法和装置 |
US20230360239A1 (en) * | 2022-05-05 | 2023-11-09 | Visual Sensing Technology Co., Ltd. | Method for Establishing Semantic Distance Map and Related Moving device |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1360440A (zh) * | 2002-01-31 | 2002-07-24 | 北京理工大学 | 一种微型实时立体视觉机 |
US20060159507A1 (en) * | 2004-08-13 | 2006-07-20 | Bjorn Jawerth | One-row keyboard |
CN102981829A (zh) * | 2012-11-01 | 2013-03-20 | 宁波电业局 | 一种基于停电管理系统的图形数据展现方法及装置 |
US20150350260A1 (en) * | 2014-05-30 | 2015-12-03 | General Electric Company | Systems and methods for managing infrastructure systems |
CN106054900A (zh) * | 2016-08-08 | 2016-10-26 | 电子科技大学 | 基于深度摄像头的机器人临时避障方法 |
CN106503204A (zh) * | 2016-11-02 | 2017-03-15 | 滁州学院 | OMS共享MapGIS点状地图符号方法 |
CN107564012A (zh) * | 2017-08-01 | 2018-01-09 | 中国科学院自动化研究所 | 面向未知环境的增强现实方法及装置 |
CN108305260A (zh) * | 2018-03-02 | 2018-07-20 | 苏州大学 | 一种图像中角点的检测方法、装置及设备 |
CN108427951A (zh) * | 2018-02-08 | 2018-08-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN108647684A (zh) * | 2018-05-02 | 2018-10-12 | 深圳市唯特视科技有限公司 | 一种基于引导注意力推理网络的弱监督语义分割方法 |
CN108846867A (zh) * | 2018-08-29 | 2018-11-20 | 安徽云能天智能科技有限责任公司 | 一种基于多目全景惯导的slam系统 |
CN108933902A (zh) * | 2018-07-27 | 2018-12-04 | 顺丰科技有限公司 | 全景图像采集装置、建图方法及移动机器人 |
CN108985194A (zh) * | 2018-06-29 | 2018-12-11 | 华南理工大学 | 一种基于图像语义分割的智能车辆可行驶区域的识别方法 |
CN109050525A (zh) * | 2018-09-10 | 2018-12-21 | 武汉乐庭软件技术有限公司 | 一种基于毫米雷达和相机融合的汽车自动驾驶系统 |
CN109117718A (zh) * | 2018-07-02 | 2019-01-01 | 东南大学 | 一种面向道路场景的三维语义地图构建和存储方法 |
CN109307508A (zh) * | 2018-08-29 | 2019-02-05 | 中国科学院合肥物质科学研究院 | 一种基于多关键帧的全景惯导slam方法 |
-
2019
- 2019-02-22 CN CN201910133713.8A patent/CN109682381B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1360440A (zh) * | 2002-01-31 | 2002-07-24 | 北京理工大学 | 一种微型实时立体视觉机 |
US20060159507A1 (en) * | 2004-08-13 | 2006-07-20 | Bjorn Jawerth | One-row keyboard |
CN102981829A (zh) * | 2012-11-01 | 2013-03-20 | 宁波电业局 | 一种基于停电管理系统的图形数据展现方法及装置 |
US20150350260A1 (en) * | 2014-05-30 | 2015-12-03 | General Electric Company | Systems and methods for managing infrastructure systems |
CN106054900A (zh) * | 2016-08-08 | 2016-10-26 | 电子科技大学 | 基于深度摄像头的机器人临时避障方法 |
CN106503204A (zh) * | 2016-11-02 | 2017-03-15 | 滁州学院 | OMS共享MapGIS点状地图符号方法 |
CN107564012A (zh) * | 2017-08-01 | 2018-01-09 | 中国科学院自动化研究所 | 面向未知环境的增强现实方法及装置 |
CN108427951A (zh) * | 2018-02-08 | 2018-08-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN108305260A (zh) * | 2018-03-02 | 2018-07-20 | 苏州大学 | 一种图像中角点的检测方法、装置及设备 |
CN108647684A (zh) * | 2018-05-02 | 2018-10-12 | 深圳市唯特视科技有限公司 | 一种基于引导注意力推理网络的弱监督语义分割方法 |
CN108985194A (zh) * | 2018-06-29 | 2018-12-11 | 华南理工大学 | 一种基于图像语义分割的智能车辆可行驶区域的识别方法 |
CN109117718A (zh) * | 2018-07-02 | 2019-01-01 | 东南大学 | 一种面向道路场景的三维语义地图构建和存储方法 |
CN108933902A (zh) * | 2018-07-27 | 2018-12-04 | 顺丰科技有限公司 | 全景图像采集装置、建图方法及移动机器人 |
CN108846867A (zh) * | 2018-08-29 | 2018-11-20 | 安徽云能天智能科技有限责任公司 | 一种基于多目全景惯导的slam系统 |
CN109307508A (zh) * | 2018-08-29 | 2019-02-05 | 中国科学院合肥物质科学研究院 | 一种基于多关键帧的全景惯导slam方法 |
CN109050525A (zh) * | 2018-09-10 | 2018-12-21 | 武汉乐庭软件技术有限公司 | 一种基于毫米雷达和相机融合的汽车自动驾驶系统 |
Non-Patent Citations (4)
Title |
---|
DICRISCIO, ANTOINETTE SABATINO等: ""Task-induced pupil response and visual perception in adults"", 《PLOS ONE 》 * |
LI, RUOXING等: ""Unified Vision-Based Methodology for Simultaneous Concrete Defect Detection and Geolocalization"", 《COMPUTER-AIDED CIVIL AND INFRASTRUCTURE ENGINEERING》 * |
张伟东等: ""基于视觉特征的大范围地形感知"", 《机器人》 * |
王南: ""基于全方位视觉的移动机器人动态目标识别和定位研究 "", 《万方数据库》 * |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110083157A (zh) * | 2019-04-28 | 2019-08-02 | 深兰科技(上海)有限公司 | 一种避障方法及装置 |
CN114503042A (zh) * | 2019-08-07 | 2022-05-13 | 波士顿动力公司 | 导航移动机器人 |
CN110909585A (zh) * | 2019-08-15 | 2020-03-24 | 北京致行慕远科技有限公司 | 一种路线确定方法、可行进设备、和存储介质 |
CN111289002A (zh) * | 2019-09-24 | 2020-06-16 | 陈水弟 | 一种机器人路径规划方法及系统 |
CN110825079A (zh) * | 2019-10-15 | 2020-02-21 | 珠海格力电器股份有限公司 | 一种地图构建方法及装置 |
CN111309012A (zh) * | 2020-02-24 | 2020-06-19 | 深圳市优必选科技股份有限公司 | 机器人及其移动控制方法和装置 |
CN113448340A (zh) * | 2020-03-27 | 2021-09-28 | 北京三快在线科技有限公司 | 一种无人机的路径规划方法、装置、无人机及存储介质 |
CN113448340B (zh) * | 2020-03-27 | 2022-12-16 | 北京三快在线科技有限公司 | 一种无人机的路径规划方法、装置、无人机及存储介质 |
CN111367318A (zh) * | 2020-03-31 | 2020-07-03 | 华东理工大学 | 一种基于视觉语义信息的动态障碍环境导航方法和装置 |
CN111367318B (zh) * | 2020-03-31 | 2022-11-22 | 华东理工大学 | 一种基于视觉语义信息的动态障碍环境导航方法和装置 |
CN111540017B (zh) * | 2020-04-27 | 2023-05-05 | 深圳市瑞立视多媒体科技有限公司 | 优化相机位置变量的方法、装置、设备及存储介质 |
CN111540017A (zh) * | 2020-04-27 | 2020-08-14 | 深圳市瑞立视多媒体科技有限公司 | 优化相机位置变量的方法、装置、设备及存储介质 |
CN112639821A (zh) * | 2020-05-11 | 2021-04-09 | 华为技术有限公司 | 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆 |
CN112639821B (zh) * | 2020-05-11 | 2021-12-28 | 华为技术有限公司 | 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆 |
CN111612823A (zh) * | 2020-05-21 | 2020-09-01 | 云南电网有限责任公司昭通供电局 | 一种基于视觉的机器人自主跟踪方法 |
CN111598034B (zh) * | 2020-05-22 | 2021-07-23 | 知行汽车科技(苏州)有限公司 | 障碍物检测方法、装置及存储介质 |
CN111598034A (zh) * | 2020-05-22 | 2020-08-28 | 知行汽车科技(苏州)有限公司 | 障碍物检测方法、装置及存储介质 |
CN111595328B (zh) * | 2020-06-01 | 2023-04-25 | 四川阿泰因机器人智能装备有限公司 | 基于深度相机的真实障碍物地图构建和导航方法及系统 |
CN111595328A (zh) * | 2020-06-01 | 2020-08-28 | 四川阿泰因机器人智能装备有限公司 | 基于深度相机的真实障碍物地图构建和导航方法及系统 |
CN114078325B (zh) * | 2020-08-19 | 2023-09-05 | 北京万集科技股份有限公司 | 多感知系统配准方法、装置、计算机设备和存储介质 |
CN114078325A (zh) * | 2020-08-19 | 2022-02-22 | 北京万集科技股份有限公司 | 多感知系统配准方法、装置、计算机设备和存储介质 |
CN112396611A (zh) * | 2020-10-27 | 2021-02-23 | 武汉理工大学 | 一种点线视觉里程计自适应优化方法、装置及存储介质 |
CN112396611B (zh) * | 2020-10-27 | 2024-02-13 | 武汉理工大学 | 一种点线视觉里程计自适应优化方法、装置及存储介质 |
CN112489131A (zh) * | 2020-12-26 | 2021-03-12 | 上海有个机器人有限公司 | 基于路面检测构建代价地图的方法、装置、介质和机器人 |
CN112489131B (zh) * | 2020-12-26 | 2024-04-05 | 上海有个机器人有限公司 | 基于路面检测构建代价地图的方法、装置、介质和机器人 |
WO2022170806A1 (zh) * | 2021-02-09 | 2022-08-18 | 灵动科技(北京)有限公司 | 地图构建和导航方法、装置、电子设备及可读存储介质 |
CN113096190A (zh) * | 2021-03-27 | 2021-07-09 | 大连理工大学 | 基于视觉建图的全向移动机器人导航方法 |
CN113096190B (zh) * | 2021-03-27 | 2024-01-05 | 大连理工大学 | 基于视觉建图的全向移动机器人导航方法 |
CN113538577A (zh) * | 2021-06-10 | 2021-10-22 | 广州杰赛科技股份有限公司 | 多摄像机覆盖优化方法、装置、设备及存储介质 |
CN113538577B (zh) * | 2021-06-10 | 2024-04-16 | 中电科普天科技股份有限公司 | 多摄像机覆盖优化方法、装置、设备及存储介质 |
WO2023036083A1 (zh) * | 2021-09-08 | 2023-03-16 | 汤恩智能科技(上海)有限公司 | 传感器数据处理方法、系统及可读存储介质 |
US20230360239A1 (en) * | 2022-05-05 | 2023-11-09 | Visual Sensing Technology Co., Ltd. | Method for Establishing Semantic Distance Map and Related Moving device |
US11972587B2 (en) * | 2022-05-05 | 2024-04-30 | Fitipower Integrated Technology Inc. | Method for establishing semantic distance map and related moving device |
CN116952250A (zh) * | 2023-09-18 | 2023-10-27 | 之江实验室 | 一种基于语义地图的机器人指路方法和装置 |
CN116952250B (zh) * | 2023-09-18 | 2024-01-05 | 之江实验室 | 一种基于语义地图的机器人指路方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109682381B (zh) | 2020-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109682381A (zh) | 基于全向视觉的大视场场景感知方法、系统、介质及设备 | |
CN109737974A (zh) | 一种3d导航语义地图更新方法、装置及设备 | |
WO2020134082A1 (zh) | 一种路径规划方法、装置和移动设备 | |
CN103984037B (zh) | 基于视觉的移动机器人障碍物检测方法和装置 | |
CN108401461A (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN112085840B (zh) | 语义分割方法、装置、设备及计算机可读存储介质 | |
CN106803267A (zh) | 基于Kinect的室内场景三维重建方法 | |
CN107036594A (zh) | 智能电站巡检智能体的定位与多粒度环境感知技术 | |
CN108804815A (zh) | 一种基于深度学习辅助识别cad中墙体的方法和装置 | |
CN109360262A (zh) | 基于cad图生成三维模型的室内定位系统及方法 | |
US10878599B2 (en) | Soft-occlusion for computer graphics rendering | |
CN111640180B (zh) | 一种三维重建方法、装置及终端设备 | |
CN110827302A (zh) | 基于深度图卷积网络的点云目标提取方法及装置 | |
CN105469445B (zh) | 一种步长可变地图生成方法 | |
CN116543117B (zh) | 一种无人机影像的高精度大场景三维建模方法 | |
CN112215308B (zh) | 一种吊装物体单阶检测方法、装置、电子设备及存储介质 | |
CN110060230A (zh) | 三维场景分析方法、装置、介质及设备 | |
CN104796624B (zh) | 一种光场编辑传播方法 | |
CN109064533A (zh) | 一种3d漫游方法及系统 | |
CN116051758A (zh) | 一种用于室外机器人的含有高度信息的地貌地图构建方法 | |
CN110322548A (zh) | 一种基于几何图像参数化的三维网格模型生成方法 | |
CN116229011A (zh) | 一种基于空间数据融合和网格化的车辆感知训练方法 | |
CN114694022A (zh) | 一种基于球形邻域的多尺度多特征算法的语义分割方法 | |
Cui et al. | A Review of Indoor Automation Modeling Based on Light Detection and Ranging Point Clouds. | |
Page et al. | Ridge-valley path planning for 3D terrains |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |