CN101701818B - 远距离障碍的检测方法 - Google Patents
远距离障碍的检测方法 Download PDFInfo
- Publication number
- CN101701818B CN101701818B CN2009101983042A CN200910198304A CN101701818B CN 101701818 B CN101701818 B CN 101701818B CN 2009101983042 A CN2009101983042 A CN 2009101983042A CN 200910198304 A CN200910198304 A CN 200910198304A CN 101701818 B CN101701818 B CN 101701818B
- Authority
- CN
- China
- Prior art keywords
- super pixel
- scene
- landform
- model
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种机器人技术领域的远距离障碍的检测方法,具体步骤包括:图像采集,图像预处理,场景图像分割,外观特征提取,地形类别判定,地形样本数据库的维护,地形类别统计建模,统计模型参数训练和统计模型推理。本发明实现了多模态障碍的有效检测;提高了非均衡样本条件下障碍检测的准确性;增强了障碍检测对在线实时场景变化的适应性;地形类别建模融合了特征独立平滑函数,消除了特征重叠导致的类别歧义;地形类别建模融合了特征相关平滑函数,增强了障碍检测结果对实时光照变化的在线自适应能力;地形类别统计模型不仅整合了场景区域本身特征,还从原理上融合了场景区域之间的空间关系,提高了映射偏移情况下的障碍检测稳定性。
Description
技术领域
本发明涉及的是一种机器人技术领域的检测方法,具体是一种远距离障碍的检测方法。
背景技术
障碍检测是室外非结构化环境下移动机器人视觉导航中需要解决的关键问题,是后续路径规划和动作执行的先决条件。当前由于低成本、远距离障碍检测手段的缺失,绝大多数障碍检测方法为基于立体视觉或激光雷达的近距离障碍检测方法。然而,这种障碍感知的近视特性将直接或者间接导致机器人产生低效的路径规划结果甚至导航任务的失败。
近年来,随着人工智能等学科的发展和机器人自学习能力在机器人领域得到更大程度的重视,基于外观特征的、由近及远的远距离障碍检测方法成为通用解决方案。这类方法是一种在线自监督学习方法。这种方法同时采集近距离的外观特征和立体信息作为“外观特征-地形类别”分类器模型的训练样本,然后将远距离场景的外观特征输入到该模型实现远距离障碍的检测。各种远距离障碍检测方法的不同点在于监督信息的获取方式:有人利用激光测距仪及位姿估算系统识别近距离视场的可行驶区域;有人利用立体视觉信息;也有人采用保险杆、车轮滑动等本体传感信息识别地形可通过性。
上述检测方法的共同缺陷在于,他们均假设了近距离场景的“外观-地形”映射与远距离场景的映射关系一致。但是由于非结构化室外环境场景几何和光照条件的复杂性,这种假设很难严格成立,存在映射偏移问题。因此,如何对映射偏移问题进行补偿成为一个新的研究点。主要涉及的新方法包括逆光流方法和分类器组合方法。逆光流方法对车辆行进过程中不同时间、相同位置的路面外观特征进行追踪,以获得对应车辆前方不同距离的路面外观模板,该模板用于远视场路面区域的预测。但这种方法所依赖的追踪特征受制于亮度饱和及场景元素出现模式,且光照变化会导致很高的错分率。分类器组合方法通过不同时间点学习的地形分类模型的增量存储、在线最优确认及输出动态组合将机器人的过去经验融入当前预测。但最佳模型在线确认的依据仍是近视场信息,因此该方法部分受制于映射偏移问题。
经对现有文献检索发现,Happold等人在2006年8月的机器人科学与系统会议上发表了题为《基于预测无监督学习的加强型有监督地形分类》的文章(文章英文名:Enhancing Supervised Terrain Classification with Predictive UnsupervisedLearning,会议英文名:Robotics:Science and Systems II),该文章公开了一种野外非结构化环境中机器人视觉导航的远距离障碍检测方法,但该方法过度依赖外观特征和映射关系一致性假设,还难以达到室外非结构化环境下移动机器人视觉导航的以下要求:
1、障碍检测结果对障碍多模态分布的适应性;
2、非均衡样本条件下的障碍检测准确性;
3、障碍检测对场景在线、实时变化的快速适应性要求;
4、障碍检测结果对特征重叠导致的类别歧义性和对应误差具有补偿作用;
5、障碍检测结果对实时光照变化的在线自适应能力;
6、“外观-地形”映射偏移情况下的障碍检测稳定性。
发明内容
本发明的目的在于克服现有技术的不足,提出一种远距离障碍的检测方法,通过对远距离场景区域基于外观特征和空间上下文信息的条件随机建模,实现了基于立体视觉的在线、由近及远的远距离障碍检测方法。
本发明是通过以下技术方案实现的,本发明包括步骤如下:
第一步,采集一帧图像到内存。
第二步,对采集的图像进行降采样和高斯平滑滤波的预处理。
第三步,将预处理后的图像进行分割处理,分割为近距离场景图像和远距离场景图像,并根据RGB(红绿蓝)颜色特征的分割阈值参数,分别将近距离场景图像和远距离场景图像划分为若干像素集,每个像素集作为一个超像素。
第四步,分别对近距离场景图像和远距离场景图像以超像素为单位进行外观特征提取。
所述的外观特征包括:颜色特征和纹理特征,其中:颜色特征是颜色空间每个分量的平均值,纹理特征是LM滤波器的平均输出以及每个像素点位置输出值最大的LM滤波器对应索引的柱状图分布。
第五步,根据近距离区域场景的超像素内所有像素点的高程平均值对超像素所属地形类别进行自动识别,具体类别由高程平均值与预先确定阈值的相对大小决定,地形类别包括:障碍空间和自由空间。
所述的高程是通过摄像机模型和立体成像原理,在视差图坐标系中直接拟合地平面,将像素点的视差值减去地平面对应视差得到的。
第六步,将近距离场景超像素的外观特征和地形类别放入地形样本数据库模型,对地形样本数据库进行维护,实现样本地形数据库的在线增量创建。
所述的地形样本数据库模型包括:可通过模型和不可通过模型,其中:可通过模型和不可通过模型又分别包括若干样本原型,每个样本原型维护一个对应的样本计数器。
所述的对地形样本数据库的维护是根据近距离场景超像素的地形类别将近距离场景超像素的外观特征和地形类别放入对应的地形样本数据库模型中,判断新加入的近距离场景超像素与地形样本数据库中已有的样本原型的特征距离是否超过预定义阈值,如果超过预定义阈值,则当前模型中增加一个新的样本原型,新的样本原型的特征向量是新加入的近距离场景超像素的特征向量,新的样本原型的样本计数器为1;如果没超过预定义阈值,则将新加入的近距离场景超像素放入对应的样本原型,且该样本原型的样本计数器加1。
第七步,基于条件随机场模型,分别将近距离场景超像素和远距离场景超像素的地形类别的联合概率表示成超像素特征及超像素空间关系的表达式模型,分别完成对近距离场景超像素和远距离场景超像素的地形类别建立统计模型。
所述的表达式模型包括:单势能和交互势能,其中:单势能刻画了超像素本身外观特征与地形类别的关系,交互势能反映了相邻超像素间的类别兼容性。
所述的交互势能包括:数据无关光滑函数和两个数据相关光滑函数,其中:数据无关光滑函数对非结构化室外场景的不可预知因素及特征多模态分布特性从方法原理上进行了补偿,有利于移动机器人识别连贯的可通过区域;数据相关光滑函数有助于室外场景的自适应障碍检测。
所述的统计模型为图模型,由节点和连接节点的边组成,每个节点对应一个超像素,节点之间的边用来对超像素之间的空间关系进行建模。因此,每个超像素对应的地形类别不仅取决于超像素本身(节点)的外观特征,同时通过空间关系(边的连接)受到邻近超像素特征的影响。
第八步,每当采集完5帧图像后,利用近距离场景超像素的地形类别统计模型和地形类别自动标识结果,采用梯度上升法,进行一次模型参数的训练。
所述的模型参数主要指条件随机场模型中反映不同势能相对重要性的权重系数,由于势能重要性随不同场景内容波动,因此需要进行模型参数的在线训练以提高整个检测方法对环境的自适应能力。
第九步,根据在线学得的模型参数和当前远距离场景超像素的外观特征向量,得到远距离场景的超像素为障碍空间的概率,进而得到远距离场景的统计模型的推理结果。
所述的推理结果为远距离场景超像素检测为障碍的概率,其大小反映了检测为障碍的可信程度。地形类别的确定通过概率值的阈值化实现。
与现有技术相比,本发明的有益效果是:用了基于多聚类中心的地形数据库,实现了多模态障碍的有效检测;采用了基于贝叶斯原理的障碍检测方法,提高了非均衡样本条件下障碍检测的准确性;采用了地形数据库的在线、增量式创建,增强了障碍检测对在线实时场景变化的适应性;地形类别建模融合了特征独立平滑函数,极大程度地消除了特征重叠导致的类别歧义;地形类别建模融合了特征相关平滑函数,增强了障碍检测结果对实时光照变化的在线自适应能力;地形类别统计模型不仅整合了场景区域本身特征,还从原理上融合了场景区域之间的空间关系,提高了映射偏移情况下的障碍检测稳定性。
附图说明
图1是本发明的远距离障碍检测方法框图。
图2是实施例中的原图与分割处理后得到的超像素组合图;
其中:(a)为一室外导航场景原图,(b)为该图分割处理后得到的超像素组合图。
图3是实施例若干场景分类结果对比示意图;
其中:(a)(c)(e)分别为三幅场景原图,(b)(d)(f)分别为(a)(c)(e)的远距离障碍检测结果示意图。
具体实施方式
以下结合附图对本发明的方法进一步描述,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本实施例包括:图像采集、图像预处理、场景图像分割、外观特征提取、地形类别判定、地形样本数据库的维护、地形类别统计建模、统计模型参数训练和统计模型推理这九个步骤,最终得到障碍检测结果。
下面具体进行说明:
第一步,采集一帧图像到内存。
第二步,对采集的图像进行降采样和高斯平滑滤波的预处理。
第三步,将预处理后的图像进行分割处理,分割为近距离场景图像和远距离场景图像,并根据RGB颜色特征的分割阈值参数,分别将近距离场景图像和远距离场景图像划分为若干像素集,每个像素集作为一个超像素。如图2所示,图2(a)是一室外导航场景原图,图2(b)是经图像分辨率为640×480,分割阈值参数设为50处理后得到的超像素组合图。
第四步,分别对近距离场景图像和远距离场景图像以超像素为单位进行外观特征提取,提取结果为39维的特征向量。
所述的外观特征包括:颜色特征和纹理特征,其中:颜色特征是颜色空间每个分量的平均值;纹理特征是LM滤波器的平均输出以及每个像素点位置输出值最大的LM滤波器对应索引的柱状图分布。
第五步,根据近距离区域场景的超像素内所有像素点的高程平均值对超像素所属地形类别进行自动识别,具体类别由高程平均值与预先确定阈值的相对大小决定,地形类别包括:障碍空间和自由空间。
所述的高程是通过摄像机模型和立体成像原理,在视差图坐标系中直接拟合地平面,将像素点的视差值减去地平面对应视差得到的。
第六步,将近距离场景超像素的外观特征和地形类别放入地形样本数据库模型,对地形样本数据库进行维护,实现样本地形数据库的在线增量创建。
所述的地形样本数据库模型包括:可通过模型和不可通过模型,其中:可通过模型和不可通过模型又分别包括若干样本原型,每个样本原型包括一个样本计数器。
所述的对地形样本数据库的维护是根据近距离场景超像素的地形类别将近距离场景超像素的外观特征和地形类别放入对应的地形样本数据库模型中,判断新加入的近距离场景超像素与地形样本数据库中已有的样本原型的特征距离是否超过预定义阈值,如果超过预定义阈值,则当前模型中增加一个新的样本原型,新的样本原型的特征向量是新加入的近距离场景超像素的特征向量,新的样本原型的样本计数器为1;如果没超过预定义阈值,则将新加入的近距离场景超像素放入对应的样本原型,且该样本原型的样本计数器加1。
第七步,基于条件随机场,分别将近距离场景超像素和远距离场景超像素的地形类别的联合概率表示成超像素特征及超像素空间关系的表达式模型,完成对近距离场景超像素和远距离场景超像素的地形类别建立统计模型。
所述的统计模型为图模型,由节点和连接节点的边组成,每个节点对应一个超像素,节点之间的边用来对超像素之间的空间关系进行建模。因此,每个超像素对应的地形类别不仅取决于超像素本身(节点)的外观特征,同时通过空间关系(边的连接)受到邻近超像素特征的影响。
设远距离场景图像中的外观特征为X={xi}i∈S,S为远距离场景超像素的索引集合,xi为从第i个超像素中提取的外观特征,超像素的类别集合为L={li}i∈S,li为第i个超像素的地形类别,本实施例只针对地形二值分类,因此li∈{-1,1},-1表示地面类,1表示障碍类。则远距离场景超像素的地形类别的联合概率P(L|X)定义为:
其中:exp表示指数函数,Ni是超像素i的所有相邻超像素的集合,Z为概率归一化系数,Ai(li,X)为超像素i的单势能,Iij(li,lj,X)为超像素i和超像素j之间的交互势能,单势能刻画了超像素本身特征与地形类别的关系,交互势能反映了相邻超像素之间的类别兼容性(相互作用)。
由于线性或非线性决策边界的判别式分类器难以适应室外非结构化场景条件下的超像素多模态特征分布特性,因此本实施例采用基于启发式方法和贝叶斯方法的单势能混合构建方法。
给定特征向量为x的超像素,首先分别计算x与两个模型(可通过模型ΘT及不可通过模型ΘN)中的样本原型的外观特征的最小距离dT和dN,同时记录对应的样本原型计数器nT和nN,设PT(x)为x属于ΘT的概率,PN(x)为x属于ΘN的概率。分类器Ai(li,X)表示超像素i属于类别li的概率,其构造按照下述4个启发式方法进行:
1)、如果dT和dN均大于预定义阈值θm,说明当前地形数据库中所有特征原型均无法提供当前待分类超像素的类别信息,将当前超像素的类别概率PT(x)和PN(x)均置为0.5;
2)、如果dT大于θm,dN小于θm,则说明根据当前地形数据库内容我们更有把握相信当前待分类超像素属于模型ΘN,将PT(x)和PN(x)分别置为0.2和0.8;
3)、同理,如果dT小于θm,dN大于θm,将PT(x)和PN(x)分别置为0.8和0.2;
4)、如果dT和dN均小于预定义阈值θm,说明当前待分类超像素属于两种模型的可能性都不低,基于当前地形数据库,采用贝叶斯方法对类别后验概率P(l|x)进行估计:
P(l|x)∝P(x|l)P(l)
其中:l代表当前超像素相关的未知类别,超像素类别的后验概率P(l|x)与类别的先验概率P(l)和似然函数P(x|l)的乘积成正比。先验概率P(l)定义为不同模型的样本总数之比,因此P(l)∝∑lΘl.nj。针对不同的l,似然函数P(x|l)定义为nT或nN与模型l训练样本总数的比率。
交互势能的定义公式是:
Iij(li,lj,X)=cij(KI*lilj+KD1*(1-Pdij/Pmax)*δ(li=lj)+KD2*(Pdij/Pmax)*δ(li≠lj))
其中:δ(x)为克罗内克函数,cij为超像素i和j之间的连接权值,cij的定义公式为:
cij=|SPij|/|SPi|
其中:|SPi|表示超像素i包含的像素个数,|SPij|表示超像素i中与超像素j相邻的像素个数。Pdij是超像素i与超像素j的特征空间欧式距离,Pmax为超像素i与邻接超像素之间的距离最大值。
由交互势能的定义公式可知交互势能包括:数据无关光滑函数KI*lilj,数据相关光滑函数KD1*(1-Pdij/Pmax)*δ(li=lj)及KD2*(Pdij/Pmax)*δ(li≠lj),其中:KI,KD1及KD2为权重系数,数据无关光滑函数对非结构化室外场景的不可预知因素及特征多模态分布特性从方法原理上进行了补偿,有利于移动机器人识别连贯的可通过区域;数据相关光滑函数有助于室外场景的自适应障碍检测。
第八步,每当采集完5帧图像后,利用近距离场景超像素的地形类别统计模型和地形类别自动标识结果,采用梯度上升法,进行一次模型参数的训练。
模型参数的估计具体为:
其中:ΔKI代表KI的变化值,ΔKD1代表KD1的变化值,ΔKD2代表KD2的变化值,Θc表示参数的当前估计值,P(li,lj|Xn,Θc)是基于当前参数值估计的超像素i和j的联合边缘概率。 为P(li,lj|Xn,Θc)分布下的δ(li=lj)平均值。
第九步,根据在线学得的模型参数和当前远距离场景超像素的外观特征向量,得到远距离场景的超像素为障碍空间的概率,进而得到整个场景的统计模型的推理结果li *,具体计算公式为:
其中:argmax符号表示选取后验概率最大的类别标记,L\li表示除了超像素i之外的所有超像素集合,超像素的后验概率计算通过LBP方法。超像素的地形类别根据两类地形的后验概率比较得到。
所述的推理结果li *为远距离场景超像素检测为障碍的概率,概率值越大,说明该超像素为障碍的可信程度越高。地形类别的确定通过比较li *与0.5的相对大小得到,大于0.5的标记为障碍空间,否则为自由空间。如图3所示,其中,图3(a)、图3(c)和图3(e)为三幅场景原图,图3(b)、图3(d)和图3(f)分别为图3(a)、图3(c)和图3(e)的远距离障碍检测结果示意图,图3(b)、图3(d)和图3(f)中的白色为障碍空间,黑色为自由空间。
本实施例用了基于多聚类中心的地形数据库,实现了多模态障碍的有效检测;采用了基于贝叶斯原理的障碍检测方法,提高了非均衡样本条件下障碍检测的准确性;采用了地形数据库的在线、增量式创建,增强了障碍检测对在线实时场景变化的适应性;地形类别建模融合了特征独立平滑函数,极大程度地消除了特征重叠导致的类别歧义;地形类别建模融合了特征相关平滑函数,增强了障碍检测结果对实时光照变化的在线自适应能力;地形类别统计模型不仅整合了场景区域本身特征,还从原理上融合了场景区域之间的空间关系,提高了映射偏移情况下的障碍检测稳定性。
Claims (5)
1.一种远距离障碍的检测方法,其特征在于,检测方法具体为:
第一步,采集一帧图像到内存;
第二步,对采集的图像进行降采样和高斯平滑滤波的预处理;
第三步,将预处理后的图像进行分割处理,分割为近距离场景图像和远距离场景图像,并根据RGB颜色特征的分割阈值参数,分别将近距离场景图像和远距离场景图像划分为若干像素集,每个像素集作为一个超像素;
第四步,分别对近距离场景图像和远距离场景图像以超像素为单位进行外观特征提取;
第五步,根据近距离区域场景的超像素内所有像素点的高程平均值对超像素所属地形类别进行自动识别;
所述的高程是通过摄像机模型和立体成像原理,在视差图坐标系中直接拟合地平面,将像素点的视差值减去地平面对应视差得到的;
第六步,将近距离场景超像素的外观特征和地形类别放入地形样本数据库模型,对地形样本数据库进行维护,实现样本地形数据库的在线增量创建;
第七步,基于条件随机场模型,分别将近距离场景超像素和远距离场景超像素的地形类别的联合概率表示成超像素特征及超像素空间关系的表达式模型,分别完成对近距离场景超像素和远距离场景超像素的地形类别建立统计模型;
所述的表达式模型包括:单势能和交互势能,其中:单势能刻画了超像素本身外观特征与地形类别的关系,交互势能反映了相邻超像素间的类别兼容性;
所述的交互势能包括:数据无关光滑函数和两个数据相关光滑函数,其中:数据无关光滑函数对非结构化室外场景的不可预知因素及特征多模态分布特性从方法原理上进行了补偿,有利于移动机器人识别连贯的可通过区域;数据相关光滑函数有助于室外场景的自适应障碍检测;
所述的统计模型为图模型,由节点和连接节点的边组成,每个节点对应一个超像素,节点之间的边用来对超像素之间的空间关系进行建模;
第八步,每当采集完5帧图像后,利用近距离场景超像素的地形类别统计模型和地形类别自动标识结果,采用梯度上升法,进行一次模型参数的训练;
第九步,根据在线学得的模型参数和当前远距离场景超像素的外观特征向量,得到远距离场景的超像素为障碍空间的概率,进而得到远距离场景的统计模型的推理结果。
2.根据权利要求1所述的远距离障碍的检测方法,其特征是,第五步中所述的地形类别包括:障碍空间和自由空间,具体类别由高程平均值与预先确定阈值的相对大小决定。
3.根据权利要求1所述的远距离障碍的检测方法,其特征是,第六步中所述的地形样本数据库模型包括:可通过模型和不可通过模型,其中:可通过模型和不可通过模型又分别包括若干样本原型,每个样本原型维护一个对应的样本计数器。
4.根据权利要求1所述的远距离障碍的检测方法,其特征是,第六步中所述的对地形样本数据库的维护是根据近距离场景超像素的地形类别将近距离场景超像素的外观特征和地形类别放入对应的地形样本数据库模型中,判断新加入的近距离场景超像素与地形样本数据库中已有的样本原型的特征距离是否超过预定义阈值,如果超过预定义阈值,则当前模型中增加一个新的样本原型,新的样本原型的特征向量是新加入的近距离场景超像素的特征向量,新的样本原型的样本计数器为1;如果没超过预定义阈值,则将新加入的近距离场景超像素放入对应的样本原型,且该样本原型的样本计数器加1。
5.根据权利要求1所述的远距离障碍的检测方法,其特征是,第七步中所述的表达式模型包括:单势能和交互势能,其中:单势能刻画了超像素本身外观特征与地形类别的关系,交互势能反映了相邻超像素间的类别兼容性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101983042A CN101701818B (zh) | 2009-11-05 | 2009-11-05 | 远距离障碍的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101983042A CN101701818B (zh) | 2009-11-05 | 2009-11-05 | 远距离障碍的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101701818A CN101701818A (zh) | 2010-05-05 |
CN101701818B true CN101701818B (zh) | 2011-03-30 |
Family
ID=42156738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101983042A Expired - Fee Related CN101701818B (zh) | 2009-11-05 | 2009-11-05 | 远距离障碍的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101701818B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101975951B (zh) * | 2010-06-09 | 2013-03-20 | 北京理工大学 | 一种融合距离和图像信息的野外环境障碍检测方法 |
CN102541057B (zh) * | 2010-12-29 | 2013-07-03 | 沈阳新松机器人自动化股份有限公司 | 一种基于激光测距仪的移动机器人避障方法 |
CN102591332B (zh) * | 2011-01-13 | 2014-08-13 | 同济大学 | 用于无人驾驶汽车局部路径规划的装置及方法 |
CN102693427A (zh) * | 2011-03-22 | 2012-09-26 | 日电(中国)有限公司 | 形成和使用用于检测图像的检测器的方法和设备 |
DE102012209316A1 (de) * | 2012-06-01 | 2013-12-05 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems |
CN103353938B (zh) * | 2013-06-14 | 2016-04-13 | 山东大学 | 一种基于层次级特征的细胞膜分割方法 |
CN104700105B (zh) * | 2015-03-11 | 2018-04-10 | 宁波工程学院 | 非结构化室外地形全局检测方法 |
CN106382916B (zh) * | 2016-09-10 | 2019-06-04 | 上海大学 | 自建参考系的双六足机器人复杂地形三维立体测绘系统与方法 |
CN107133598A (zh) * | 2017-05-11 | 2017-09-05 | 南宁市正祥科技有限公司 | 一种非结构化道路的检测方法 |
CN108921852B (zh) * | 2018-06-01 | 2021-05-07 | 大连理工大学 | 基于视差与平面拟合的双分支室外非结构化地形分割网络 |
CN108804824B (zh) * | 2018-06-12 | 2020-04-24 | 广东盈科机器人产业有限公司 | 一种地形识别方法 |
CN109344741A (zh) * | 2018-09-11 | 2019-02-15 | 中国科学技术大学 | 一种基于振动信号的地形分类方法 |
CN111609836A (zh) * | 2019-02-26 | 2020-09-01 | 上海太昂科技有限公司 | 基于深度视觉的坡度识别方法、系统、介质、终端、及装置 |
CN109938974A (zh) * | 2019-04-01 | 2019-06-28 | 杨天歌 | 一种视障人士用便携式智能导盲设备及导盲方法 |
CN109932727B (zh) * | 2019-04-19 | 2021-11-19 | 洛阳顶扬光电技术有限公司 | 一种提高激光测距系统中远距离测距精度的方法 |
CN112149458A (zh) * | 2019-06-27 | 2020-12-29 | 商汤集团有限公司 | 障碍物检测方法、智能驾驶控制方法、装置、介质及设备 |
CN111340145B (zh) * | 2020-05-19 | 2020-08-25 | 北京数字绿土科技有限公司 | 点云数据分类方法、装置、分类设备 |
CN112101264A (zh) * | 2020-09-22 | 2020-12-18 | 福建牧月科技有限公司 | 集装箱装卸方法、系统、电子设备及计算机可读介质 |
CN114332635B (zh) * | 2022-03-11 | 2022-05-31 | 科大天工智能装备技术(天津)有限公司 | 一种智能搬运机器人障碍物自动识别方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1494044B1 (de) * | 2003-07-03 | 2006-08-16 | EADS Deutschland GmbH | Verfahren zur Hinderniserkennung und Geländeklassifikation |
US7194132B1 (en) * | 2002-07-09 | 2007-03-20 | The United States Of America As Represented By The Secretary Of The Navy | Method and system for detecting anomalies in multispectral and hyperspectral imagery employing the normal compositional model |
CN101127078A (zh) * | 2007-09-13 | 2008-02-20 | 北京航空航天大学 | 一种基于蚁群智能的无人机机器视觉图像匹配方法 |
CN101221662A (zh) * | 2008-01-31 | 2008-07-16 | 复旦大学 | 基于自组织映射神经网络的遥感图像混合像元分解方法 |
-
2009
- 2009-11-05 CN CN2009101983042A patent/CN101701818B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7194132B1 (en) * | 2002-07-09 | 2007-03-20 | The United States Of America As Represented By The Secretary Of The Navy | Method and system for detecting anomalies in multispectral and hyperspectral imagery employing the normal compositional model |
EP1494044B1 (de) * | 2003-07-03 | 2006-08-16 | EADS Deutschland GmbH | Verfahren zur Hinderniserkennung und Geländeklassifikation |
CN101127078A (zh) * | 2007-09-13 | 2008-02-20 | 北京航空航天大学 | 一种基于蚁群智能的无人机机器视觉图像匹配方法 |
CN101221662A (zh) * | 2008-01-31 | 2008-07-16 | 复旦大学 | 基于自组织映射神经网络的遥感图像混合像元分解方法 |
Non-Patent Citations (2)
Title |
---|
Michael Happold et al..Enhancing Supervised Terrain Classification with Predictive Unsupervised Learning.《Robotics: Science and Systems II》.2006,全文. * |
褚一平.基于条件随机场模型的视频目标分割算法研究.《中国博士学位论文全文数据库 信息科技辑》.2008,(第07期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN101701818A (zh) | 2010-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101701818B (zh) | 远距离障碍的检测方法 | |
Caraffi et al. | Off-road path and obstacle detection using decision networks and stereo vision | |
Asvadi et al. | 3D object tracking using RGB and LIDAR data | |
Kumar et al. | Review of lane detection and tracking algorithms in advanced driver assistance system | |
Tan et al. | Color model-based real-time learning for road following | |
CN103268616B (zh) | 多特征多传感器的移动机器人运动人体跟踪方法 | |
Zhou et al. | Self‐supervised learning to visually detect terrain surfaces for autonomous robots operating in forested terrain | |
Yuan et al. | Robust lane detection for complicated road environment based on normal map | |
CN109597087A (zh) | 一种基于点云数据的3d目标检测方法 | |
Lookingbill et al. | Reverse optical flow for self-supervised adaptive autonomous robot navigation | |
Schindler et al. | Automatic detection and tracking of pedestrians from a moving stereo rig | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
Wang et al. | An overview of 3d object detection | |
Chen | Monocular vision-based obstacle detection and avoidance for a multicopter | |
Garg et al. | Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation | |
CN104700105B (zh) | 非结构化室外地形全局检测方法 | |
Rateke et al. | Passive vision region-based road detection: A literature review | |
Engel et al. | Deep object tracking on dynamic occupancy grid maps using rnns | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
Laible et al. | Terrain classification with conditional random fields on fused 3D LIDAR and camera data | |
CN103794050A (zh) | 一种实时的交通车辆检测与跟踪方法 | |
Dewangan et al. | Towards the design of vision-based intelligent vehicle system: methodologies and challenges | |
Xue et al. | A novel multi-layer framework for tiny obstacle discovery | |
Huang et al. | Measuring the absolute distance of a front vehicle from an in-car camera based on monocular vision and instance segmentation | |
Bertoni et al. | Monstereo: When monocular and stereo meet at the tail of 3d human localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110330 Termination date: 20131105 |