CN104700105A - 非结构化室外地形全局检测方法 - Google Patents
非结构化室外地形全局检测方法 Download PDFInfo
- Publication number
- CN104700105A CN104700105A CN201510106069.7A CN201510106069A CN104700105A CN 104700105 A CN104700105 A CN 104700105A CN 201510106069 A CN201510106069 A CN 201510106069A CN 104700105 A CN104700105 A CN 104700105A
- Authority
- CN
- China
- Prior art keywords
- terrain
- pixel
- super
- detection method
- landform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明提供了一种机器人技术领域的室外地形全局检测方法,具体步骤包括:图像采集、图像预处理、场景图像分割、外观特征提取、地形类别判定、地形分类器候选数据库构建、当前场景最优分类器验证、地形类别统计建模、统计模型参数训练和统计模型推理。本发明从原理上整合了不同时间点的导航经验,提升了视场样本不均衡甚至缺失条件下地形检测的稳定性和智能程度;本发明采用的组合式多层感知器分类器能兼顾场景“外观—地形”映射关系的不确定性和非线性,从而提升地形检测的准确性;本发明从原理上对当前场景各种尺度上的空间关系和类别兼容性进行建模,实现了对非结构化室外地形的全局检测。
Description
技术领域
本发明涉及的是一种机器人技术领域的检测方法,具体是一种非结构化室外地形的全局检测方法。
背景技术
地形检测是室外非结构化环境下移动机器人视觉导航中需要解决的关键问题,是后续路径规划和动作执行的先决条件。当前由于低成本、远距离地形检测手段的缺失,绝大多数地形检测方法为基于立体视觉或激光雷达的近距离检测方法。然而,这种地形检测的近视特性将直接或者间接导致机器人产生低效的路径规划结果甚至导航任务的失败。
近年来,随着人工智能等学科的发展和机器人自学习能力在机器人领域得到更大程度的重视,基于外观特征的、由近及远的地形检测方法成为通用解决方案。这类方法是一种在线自监督学习方法。这种方法同时采集近距离的外观特征和立体信息作为“外观特征—地形类别”分类器模型的训练样本,然后将远距离场景的外观特征输入到该模型实现远距离地形的检测。各种远距离地形检测方法的不同点在于监督信息的获取方式:有人利用激光测距仪及位姿估算系统识别近距离视场的可行驶区域;有人利用立体视觉信息;也有人采用保险杆、车轮滑动等本体传感信息识别地形可通过性。
上述检测方法的共同缺陷在于,他们均假设了近距离场景的“外观—地形”映射与远距离场景的映射关系一致。但是由于非结构化室外环境场景几何和光照条件的复杂性,这种假设很难严格成立,存在映射偏移问题。因此,如何对映射偏移问题进行补偿成为一个新的研究点。主要涉及的新方法包括逆光流方法和分类器组合方法。逆光流方法对车辆行进过程中不同时间、相同位置的路面外观特征进行追踪,以获得对应车辆前方不同距离的路面外观模板,该模板用于远视场路面区域的预测。但这种方法所依赖的追踪特征受制于亮度饱和及场景元素出现模式,且光照变化会导致很高的错分率。分类器组合方法通过不同时间点学习的地形分类模型的增量存储、在线最优确认及输出动态组合将机器人的过去经验融入当前预测。但最佳模型在线确认的依据仍是近视场信息,因此该方法部分受制于映射偏移问题。
经对现有技术检索发现,王明军等人于2009年提出了一种针对非结构化室外环境机器人视觉导航的远距离地形检测方法,该方法利用当前场景近视场样本与远视场样本特征的比对和分类,实现远视场地形的检测。但该方法过度依赖前述的映射关系一致性假设,还难以达到室外非结构化环境下移动机器人视觉导航的以下要求:
1、检测模型应从原理上整合不同时间点的导航经验,以提升近视场样本不均衡甚至缺失条件下地形检测的稳定性和智能程度;
2、检测模型应充分考虑场景“外观—地形”映射关系的不确定性和非线性,以提升地形检测的准确性;
3、检测模型应对当前场景各种尺度上的空间关系和类别兼容性进行建模,实现对非结构化室外地形的全局检测。
发明内容
本发明的目的在于克服现有技术的不足,提出一种针对非结构化场景条件下的全局地形检测方法,具体通过导航经验智能整合、非线性映射机制设计以及全局空间关系整合,实现基于立体视觉的在线、由近及远的全局地形检测方法。
本发明是通过以下技术方案实现的,本发明包括步骤如下:
第一步,采集一帧图像到内存。
第二步,对采集的图像进行图像增强、灰度均衡化处理以及高斯平滑滤波等预处理。
第三步,将预处理后的图像进行分割处理,分割为近视场图像帧和远视场图像帧,并融合相邻像素在边缘及颜色特征上的差异性,分别将近视场图像帧和远视场图像帧划分为若干像素集,每个像素集作为一个超像素。
第四步,分别对近视场图像帧和远视场图像帧以超像素为单位进行外观特征提取。
所述的外观特征包括:颜色特征和纹理特征,其中:颜色特征是颜色空间每个分量的平均值,纹理特征是LM滤波器的平均输出以及每个像素点位置输出值最大的LM滤波器对应索引的柱状图分布。
第五步,根据近视场场景超像素内所有像素点的高程平均值对超像素所属地形类别进行自动判定,具体类别由高程平均值与预先确定阈值的相对大小决定,地形类别包括:障碍空间和自由空间。
所述的高程是通过摄像机模型和立体成像原理,在视差图坐标系中直接拟合地平面,将像素点的视差值减去地平面对应视差得到的。
第六步,基于前述步骤获取的近视场超像素“特征——地形类别”信息,训练当前场景对应的地形分类器,与历史预充信息中已有地形分类器共同组成地形分类器候选数据库。同时当前场景近视场图像帧信息与历史预充信息中已有图像帧信息共同组成地形样本候选数据库。
所述的地形分类器采用自定义的组合式多层感知器分类器,该分类器对样本的每一维输入特征训练一个单独的多层感知器模型,并评估每个模型对应的权重系数,最后的总分类器为所有多层感知器模型输出的加权和。
所述的历史预充信息包含历次导航中不同时间点训练得到的地形分类器和对应的图像帧信息,而图像帧信息具体包括原始RGB数据、所提取超像素的特征及地形类别。而当前场景处理过程中得到的地形分类器候选数据库及地形样本候选数据库在下一场景的处理中作为新的历史预充信息。
第七步,基于当前场景近视场图像帧信息,对地形分类器候选数据库中的所有分类器进行验证,将验证效果最佳的五个分类器进行组合,作为当前场景最优分类器。
第八步,基于势能法,分别将近视场超像素和远视场超像素的地形类别联合概率表示成输入为超像素特征的条件概率表达式,得到地形推理统计模型。
所述的条件概率表达式包括:单势能和交互势能,其中:单势能由当前场景最优分类器实现,该分类器基于组合式多层感知器分类器,实现对超像素外观特征与地形类别关系的非线性映射和自适应建模;交互势能对当前场景各种尺度上的空间耦合关系和特征耦合关系进行建模,从原理上实现对非结构化室外地形的全局检测。
所述的统计模型为图模型,由节点和连接节点的边组成,每个节点对应一个超像素,节点之间的边用来对超像素之间的空间关系进行建模。因此,每个超像素对应的地形类别不仅取决于超像素本身(节点)的外观特征,同时通过空间关系(边的连接)受到其他超像素特征的影响。
第九步,每推理完若干帧图像后,利用地形样本候选数据库相关信息,基于梯度上升法,进行一次模型参数的训练。
所述的模型参数主要指统计模型中反映不同势能相对重要性的权重系数,由于势能重要性随不同场景内容波动,因此需要进行模型参数的在线训练以提高整个检测方法对环境的自适应能力。
第十步,根据在线学得的统计模型和当前场景远视场超像素的外观特征向量,得到远视场超像素为障碍空间的概率,其大小反映了检测结果为障碍的可信程度。地形类别的确定通过概率值的阈值化实现。
与现有技术相比,本发明的有益效果是:本发明从原理上整合了不同时间点的导航经验,提升了视场样本不均衡甚至缺失条件下地形检测的稳定性和智能程度;本发明采用的组合式多层感知器分类器能兼顾场景“外观—地形”映射关系的不确定性和非线性,从而提升地形检测的准确性;本发明从原理上对当前场景各种尺度上的空间关系和类别兼容性进行建模,实现了对非结构化室外地形的全局检测。
附图说明
图1是本发明的全局地形检测方法框图。
图2是实施例中的原图与分割处理后得到的超像素组合图;
其中:(a)为一室外导航场景原图,(b)为该图分割处理后得到的超像素组合图,并且上下两框中内容分别表示远视场及近视场区域。
图3是实施例若干场景推理结果对比示意图;
其中:(a)(c)分别为两幅场景原图,(b)(d)分别为(a)(c)的全局检测结果示意图。
具体实施方式
以下结合附图对本发明的方法进一步描述,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本实施例包括:图像采集、图像预处理、场景图像分割、外观特征提取、地形类别判定、地形分类器候选数据库构建、当前场景最优分类器验证、地形类别统计建模、统计模型参数训练和统计模型推理这十个步骤,最终得到地形检测结果。
下面具体进行说明:
第一步,采集一帧图像到内存。
第二步,对采集的图像进行图像增强、灰度均衡化处理以及高斯平滑滤波等预处理。
第三步,将预处理后的图像进行分割处理,分割为近视场图像帧和远视场图像帧,并融合相邻像素在边缘及颜色特征上的差异性,分别将近视场图像帧和远视场图像帧划分为若干像素集,每个像素集作为一个超像素。如图2所示,图2(a)是一室外导航场景原图,图2(b)是经图像分辨率为640×480,分割阈值参数设为50处理后得到的超像素组合图。
第四步,分别对近视场图像帧和远视场图像帧以超像素为单位进行外观特征提取,提取结果为39维的特征向量。
所述的外观特征包括:颜色特征和纹理特征,其中:颜色特征是颜色空间每个分量的平均值;纹理特征是LM滤波器的平均输出以及每个像素点位置输出值最大的LM滤波器对应索引的柱状图分布。
第五步,根据近视场场景超像素内所有像素点的高程平均值对超像素所属地形类别进行自动判定,具体类别由高程平均值与预先确定阈值的相对大小决定,地形类别包括:障碍空间和自由空间。
所述的高程是通过摄像机模型和立体成像原理,在视差图坐标系中直接拟合地平面,将像素点的视差值减去地平面对应视差得到的。
第六步,基于前述步骤获取的近视场超像素“特征——地形类别”信息,训练当前场景对应的地形分类器,与历史预充信息中已有地形分类器共同组成地形分类器候选数据库。同时当前场景近视场图像帧信息与历史预充信息中已有图像帧信息共同组成地形样本候选数据库。
所述的地形分类器采用自定义的组合式多层感知器分类器,其模型参数学习及结果生成的主要步骤如下:
1、给定超像素训练样本集{xn,tn}n=1,...,N,初始化所有样本权重为相同值其中指数括号中数字表示迭代轮次,共进行M次迭代,M等于样本特征的维数;
2、对于第m次迭代过程:
a)针对第m维输入特征,拟合单个多层感知器分类器ym(x),具体通过最小化加权误差函数:
其中,I(ym(xn)≠tn)为指示函数,当括号内条件成立,函数值为1,否则为0。
b)计算本轮分类器ym(x)在最终组合分类器中的重要性系数αm:
c)更新训练集样本权重:
如某个样本在本次分类中不正确,则加大对应权重;否则减小其相对权重。
3、组合分类器的最终输出值通过整合所有多层感知器分类器的结果得到:
所述的历史预充信息包含历次导航中不同时间点训练得到的地形分类器和对应的图像帧信息,而图像帧信息具体包括原始RGB数据、所提取超像素的特征及地形类别。而当前场景处理过程中得到的地形分类器候选数据库及地形样本候选数据库在下一场景的处理中作为新的历史预充信息。
第七步,基于当前场景近视场图像帧信息,对地形分类器候选数据库中的所有分类器进行验证,将验证效果最佳的五个分类器进行组合,作为当前场景最优分类器。
设验证效果最佳的五个分类器分别为l1(x),l2(x),l3(x),l4(x),l5(x),对应的分类误差分别为e1,e2,e3,e4,e5,则当前场景最优分类器的输出定义为:
第八步,基于势能法,分别将近视场超像素和远视场超像素的地形类别联合概率表示成输入为超像素特征的条件概率表达式,得到地形推理统计模型。
所述的统计模型为图模型,由节点和连接节点的边组成,每个节点对应一个超像素,节点之间的边用来对超像素之间的空间关系进行建模。因此,每个超像素对应的地形类别不仅取决于超像素本身(节点)的外观特征,同时通过空间关系(边的连接)受到其他超像素特征的影响。
设远视场图像帧外观特征为X={xi}i∈S,S为远视场图像帧超像素的索引集合,xi为从第i个超像素中提取的外观特征,超像素的类别集合为L={li}i∈S,li为第i个超像素的地形类别,本实施例只针对地形二值分类,因此li∈{-1,1},-1表示地面类,1表示障碍类。则远视场场景超像素的地形类别的联合概率P(L|X)定义为:
其中:exp表示指数函数,Ni是超像素i的所有相邻超像素的集合,Z为概率归一化系数。指数部分的表达式中,Ai(li,xi,γA)为超像素i的单势能,其刻画了超像素本身特征与地形类别的兼容性。k1项、k2项、k3项以及k4项为超像素i和超像素j之间的交互势能,交互势能综合反映了超像素个体在各种尺度上的空间耦合关系和特征耦合关系,为实现室外地形的全局检测从原理上提供了可能性。
【单势能项的构造】单势能Ai(li,xi,γA)由当前场景最优分类器实现,该分类器基于组合式多层感知器分类器,实现了对超像素外观特征与地形类别关系的非线性映射和自适应建模。其中参数γA代表分类器中所有参数的集合,其学习过程已在第六步叙述。
【k1项及k2项的构造】k1项及k2项中,δ(x)为克罗内克函数,ci为超像素i的重心坐标,r0为根据场景尺度预定义的距离阈值。k1项使得两个距离较近的超像素取相同地形类别的概率增大,k2项使得两个距离较远的超像素取相同地形类别的概率减小。k1项及k2项的设计整合了场景分析中“距离较近的两个事物为同类的可能性较大”的先验知识,相对于现有的各类技术,本发明拓展了推理模型对空间耦合关系的建模尺度。
【k3项及k4项的构造】k3项及k4项中,为前述分类器模型学习中各感知器模型的权重系数平均值,该系数同时也表征了特征向量中各分量的相对重要性。因此k3项使得两个加权特征距离较远的超像素取不同地形类别的概率增大,k4项使得两个加权特征距离较近的超像素取相同地形类别的概率增大。k3项及k4项的设计整合了场景分析中“特征较近的两个事物为同类的可能性较大”的人类先验知识,相对于现有的各类技术,本发明拓展了推理模型对特征耦合关系的建模尺度。
第九步,每推理完若干帧图像后,利用地形样本候选数据库相关信息,基于梯度上升法,进行一次模型参数的训练。
所述的模型参数包括:权重系数k1、k2、k3、以及k4。由于近距离场景的超像素特征与地形类别(χ={(Ln,Xn)})已知,因此按照条件最大似然准则,使用梯度上升法进行模型参数的估计:
模型参数的估计具体为:
其中:Δki代表ki的变化值,Θc表示参数的当前估计值,P(li,lj|Xn,Θc)是基于当前参数值估计的超像素i和j的联合边缘概率。为P(li,lj|Xn,Θc)分布下的δ(li=lj)平均值。
第十步,根据在线学得的统计模型和当前场景远视场超像素的外观特征向量,得到远视场超像素为障碍空间的概率,并进而得到整个场景的统计模型的推理结果具体计算公式为:
其中:argmax符号表示选取后验概率最大的类别标记,L\li表示除了超像素i之外的所有超像素集合,超像素的后验概率计算通过LBP方法。超像素的地形类别根据两类地形的后验概率比较得到。
所述的推理结果为远距离场景超像素检测为障碍的概率,概率值越大,说明该超像素为障碍的可信程度越高。地形类别的确定通过比较与0.5的相对大小得到,大于0.5的标记为障碍空间,否则为自由空间。如图3所示,其中,图3(a)和图3(c)为场景原图,图3(b)和图3(d)分别为图3(a)和图3(c)的远距离地形检测结果示意图,图3(b)和图3(d)中的白色为障碍空间,黑色为自由空间。
本发明从原理上整合了不同时间点的导航经验,提升了视场样本不均衡甚至缺失条件下地形检测的稳定性和智能程度;本发明采用的组合式多层感知器分类器能兼顾场景“外观—地形”映射关系的不确定性和非线性,从而提升地形检测的准确性;本发明从原理上对当前场景各种尺度上的空间关系和类别兼容性进行建模,实现了对非结构化室外地形的全局检测。
Claims (9)
1.一种非结构化室外地形全局检测方法,其特征在于,检测方法具体为:
第一步,采集一帧图像到内存;
第二步,对采集的图像进行图像增强、灰度均衡化处理以及高斯平滑滤波等预处理;
第三步,将预处理后的图像进行分割处理,分割为近视场图像帧和远视场图像帧,并融合相邻像素在边缘及颜色特征上的差异性,分别将近视场图像帧和远视场图像帧划分为若干像素集,每个像素集作为一个超像素;
第四步,分别对近视场图像帧和远视场图像帧以超像素为单位进行外观特征提取;
第五步,根据近视场场景超像素内所有像素点的高程平均值对超像素所属地形类别进行自动判定,具体类别由高程平均值与预先确定阈值的相对大小决定,地形类别包括:障碍空间和自由空间;
第六步,基于前述步骤获取的近视场超像素“特征——地形类别”信息,训练当前场景对应的地形分类器,与历史预充信息中已有地形分类器共同组成地形分类器候选数据库,同时当前场景近视场图像帧信息与历史预充信息中已有图像帧信息共同组成地形样本候选数据库;
第七步,基于当前场景近视场图像帧信息,对地形分类器候选数据库中的所有分类器进行验证,将验证效果最佳的五个分类器进行组合,作为当前场景最优分类器;
第八步,基于势能法,分别将近视场超像素和远视场超像素的地形类别联合概率表示成输入为超像素特征的条件概率表达式,得到地形推理统计模型;
第九步,每推理完若干帧图像后,利用地形样本候选数据库相关信息,基于梯度上升法,进行一次模型参数的训练;
第十步,根据在线学得的统计模型和当前场景远视场超像素的外观特征向量,得到远视场超像素为障碍空间的概率,其大小反映了检测结果为障碍的可信程度,地形类别的确定通过概率值的阈值化实现。
2.根据权利要求1所述的非结构化室外地形全局检测方法,其特征是,第 四步中所述的外观特征包括:颜色特征和纹理特征,其中:颜色特征是颜色空间每个分量的平均值,纹理特征是LM滤波器的平均输出以及每个像素点位置输出值最大的LM滤波器对应索引的柱状图分布。
3.根据权利要求1所述的非结构化室外地形全局检测方法,其特征是,第五步中所述的地形类别包括:障碍空间和自由空间,具体类别由高程平均值与预先确定阈值的相对大小决定。
4.根据权利要求1所述的非结构化室外地形全局检测方法,其特征是,第五步中所述的高程是通过摄像机模型和立体成像原理,在视差图坐标系中直接拟合地平面,将像素点的视差值减去地平面对应视差得到的。
5.根据权利要求1所述的非结构化室外地形全局检测方法,其特征是,第六步中所述的地形分类器采用自定义的组合式多层感知器分类器,该分类器对样本的每一维输入特征训练一个单独的多层感知器模型,并评估每个模型对应的权重系数,最后的总分类器为所有多层感知器模型输出的加权和。
6.根据权利要求1所述的非结构化室外地形全局检测方法,其特征是,第六步中所述的历史预充信息包含历次导航中不同时间点训练得到的地形分类器和对应的图像帧信息,而图像帧信息具体包括原始RGB数据、所提取超像素的特征及地形类别。
7.根据权利要求1所述的非结构化室外地形全局检测方法,其特征是,第八步中所述的条件概率表达式包括:单势能和交互势能。
8.根据权利要求7所述的非结构化室外地形全局检测方法,其特征是,所述单势能由当前场景最优分类器实现,该分类器基于组合式多层感知器分类器,实现对超像素外观特征与地形类别关系的非线性映射和自适应建模。
9.根据权利要求7所述的非结构化室外地形全局检测方法,其特征是,所述交互势能由k1项、k2项、k3项以及k4项四部分组成,通过对当前场景各种尺度上的空间耦合关系和特征耦合关系进行建模,从原理上实现对非结构化室外地形的全局检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510106069.7A CN104700105B (zh) | 2015-03-11 | 2015-03-11 | 非结构化室外地形全局检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510106069.7A CN104700105B (zh) | 2015-03-11 | 2015-03-11 | 非结构化室外地形全局检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104700105A true CN104700105A (zh) | 2015-06-10 |
CN104700105B CN104700105B (zh) | 2018-04-10 |
Family
ID=53347203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510106069.7A Active CN104700105B (zh) | 2015-03-11 | 2015-03-11 | 非结构化室外地形全局检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104700105B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701512A (zh) * | 2016-01-14 | 2016-06-22 | 西安电子科技大学 | 一种基于bbo-mlp和纹理特征的图像分类方法 |
CN106383888A (zh) * | 2016-09-22 | 2017-02-08 | 深圳市唯特视科技有限公司 | 一种利用图片检索定位导航的方法 |
CN108844618A (zh) * | 2018-06-12 | 2018-11-20 | 中国科学技术大学 | 一种地形感知方法 |
CN108921852A (zh) * | 2018-06-01 | 2018-11-30 | 大连理工大学 | 基于视差与平面拟合的双分支室外非结构化地形分割网络 |
CN109376783A (zh) * | 2018-10-29 | 2019-02-22 | 合肥优控科技有限公司 | 机器人自适应地形分类方法、系统与计算机可读存储介质 |
CN111609836A (zh) * | 2019-02-26 | 2020-09-01 | 上海太昂科技有限公司 | 基于深度视觉的坡度识别方法、系统、介质、终端、及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200915202A (en) * | 2007-09-28 | 2009-04-01 | Ind Tech Res Inst | System and method of image-based space detection |
CN101701818A (zh) * | 2009-11-05 | 2010-05-05 | 上海交通大学 | 远距离障碍的检测方法 |
CN101813475A (zh) * | 2010-04-24 | 2010-08-25 | 上海交通大学 | 远距离障碍的自适应检测方法 |
EP2368216A1 (de) * | 2008-10-10 | 2011-09-28 | ADC Automotive Distance Control Systems GmbH | Verfahren und einrichtung zur analyse von umgebungsobjekten und/oder umgebungsszenen, wie zur objekt- und szenenklassensegmentierung |
-
2015
- 2015-03-11 CN CN201510106069.7A patent/CN104700105B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200915202A (en) * | 2007-09-28 | 2009-04-01 | Ind Tech Res Inst | System and method of image-based space detection |
EP2368216A1 (de) * | 2008-10-10 | 2011-09-28 | ADC Automotive Distance Control Systems GmbH | Verfahren und einrichtung zur analyse von umgebungsobjekten und/oder umgebungsszenen, wie zur objekt- und szenenklassensegmentierung |
CN101701818A (zh) * | 2009-11-05 | 2010-05-05 | 上海交通大学 | 远距离障碍的检测方法 |
CN101813475A (zh) * | 2010-04-24 | 2010-08-25 | 上海交通大学 | 远距离障碍的自适应检测方法 |
Non-Patent Citations (1)
Title |
---|
王明军 等: "基于条件随机场的大范围地形感知框架", 《机器人》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701512A (zh) * | 2016-01-14 | 2016-06-22 | 西安电子科技大学 | 一种基于bbo-mlp和纹理特征的图像分类方法 |
CN106383888A (zh) * | 2016-09-22 | 2017-02-08 | 深圳市唯特视科技有限公司 | 一种利用图片检索定位导航的方法 |
CN108921852A (zh) * | 2018-06-01 | 2018-11-30 | 大连理工大学 | 基于视差与平面拟合的双分支室外非结构化地形分割网络 |
CN108921852B (zh) * | 2018-06-01 | 2021-05-07 | 大连理工大学 | 基于视差与平面拟合的双分支室外非结构化地形分割网络 |
CN108844618A (zh) * | 2018-06-12 | 2018-11-20 | 中国科学技术大学 | 一种地形感知方法 |
CN109376783A (zh) * | 2018-10-29 | 2019-02-22 | 合肥优控科技有限公司 | 机器人自适应地形分类方法、系统与计算机可读存储介质 |
CN109376783B (zh) * | 2018-10-29 | 2020-10-20 | 杭州清创微品智能科技有限公司 | 机器人自适应地形分类方法、系统与计算机可读存储介质 |
CN111609836A (zh) * | 2019-02-26 | 2020-09-01 | 上海太昂科技有限公司 | 基于深度视觉的坡度识别方法、系统、介质、终端、及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104700105B (zh) | 2018-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101701818B (zh) | 远距离障碍的检测方法 | |
Xu et al. | Behind the curtain: Learning occluded shapes for 3d object detection | |
CN104700105B (zh) | 非结构化室外地形全局检测方法 | |
US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
CN103268616B (zh) | 多特征多传感器的移动机器人运动人体跟踪方法 | |
CN109671119A (zh) | 一种基于slam的室内定位方法及装置 | |
CN109597087A (zh) | 一种基于点云数据的3d目标检测方法 | |
Kochanov et al. | Scene flow propagation for semantic mapping and object discovery in dynamic street scenes | |
CN106156748A (zh) | 基于车载双目相机的交通场景参与者识别方法 | |
CN104851094A (zh) | 一种基于rgb-d的slam算法的改进方法 | |
CN113139470B (zh) | 一种基于Transformer的玻璃识别方法 | |
Alaba et al. | Deep learning-based image 3-d object detection for autonomous driving | |
Wang et al. | Adaptive road detection via context-aware label transfer | |
Murali et al. | Utilizing semantic visual landmarks for precise vehicle navigation | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
Wen et al. | Hybrid semi-dense 3D semantic-topological mapping from stereo visual-inertial odometry SLAM with loop closure detection | |
Jiao et al. | 2-entity random sample consensus for robust visual localization: Framework, methods, and verifications | |
CN109492700A (zh) | 一种基于多维信息融合的复杂背景目标识别方法 | |
CN103824305A (zh) | 一种改进的Meanshift目标跟踪方法 | |
CN113408584A (zh) | Rgb-d多模态特征融合3d目标检测方法 | |
CN103794050A (zh) | 一种实时的交通车辆检测与跟踪方法 | |
Engel et al. | Deep object tracking on dynamic occupancy grid maps using rnns | |
CN106650814B (zh) | 一种基于车载单目视觉室外道路自适应分类器生成方法 | |
Jin et al. | Road curvature estimation using a new lane detection method | |
CN116664851A (zh) | 一种基于人工智能的自动驾驶数据提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |