CN108960294A - 一种基于视觉的移动机器人地形分类方法 - Google Patents
一种基于视觉的移动机器人地形分类方法 Download PDFInfo
- Publication number
- CN108960294A CN108960294A CN201810599988.6A CN201810599988A CN108960294A CN 108960294 A CN108960294 A CN 108960294A CN 201810599988 A CN201810599988 A CN 201810599988A CN 108960294 A CN108960294 A CN 108960294A
- Authority
- CN
- China
- Prior art keywords
- sample
- landform
- attribute
- root node
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000012360 testing method Methods 0.000 claims description 27
- 238000003066 decision tree Methods 0.000 claims description 26
- 239000000284 extract Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000002715 modification method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000013138 pruning Methods 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 4
- 238000012937 correction Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 abstract description 3
- 230000005611 electricity Effects 0.000 abstract description 2
- 230000007774 longterm Effects 0.000 abstract description 2
- 230000009467 reduction Effects 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉的移动机器人地形分类方法,包括离线训练与在线分类两部分,其优点在于:1)采用了较为简单、紧凑的图像描述子与分类器,能够降低运算资源与电量的消耗,保证了系统的实时性,并且在分类器输出后端加入修正算法;解决了准确率降低的问题;2)在分类修正算法中提取被错误分类的样例,分类器利用该样例进行增量学习,提高了泛化性能,保证了长期运行的准确性。
Description
技术领域
本发明涉及机器人技术领域,特别是涉及一种基于视觉的移动机器人地形分类方法。
背景技术
轮式机器人在地面上运动时会遇到各种地形,而保证机器人安全地穿越地形、避免其处于危险环境是十分重要的。已有的研究主要集中于基于激光雷达或视觉传感器的对障碍物的识别。对于墙壁、石块等无法通过的障碍物,我们称之为“几何威胁”。然而,地面本身可能也会对机器人产生威胁。例如:机器人穿越疏松的沙地时可能陷入其中。这种威胁称之为“非几何威胁”。通过实时的地形感知,机器人可以根据不用的地形采用不同的控制策略,使其能够安全有效的穿越不同的地形。因此,实时的地形感知对在野外工作的轮式机器人是十分重要的。
发明专利104866819A公开了一种基于三目视觉系统的地形分类方法,利用三目立体视觉系统对地形进行采样并输出丰富的3D数据,然后将3D数据传送到几何分类器,结合地形颜色特征,最终通过颜色分类器区分地形。硕士论文[刘福帅.基于视觉的移动机器人室外地形识别[D].山东大学,2017.]公开了一种基于机器视觉的地形识别方法,对地形数据集样本提取了颜色直方图、LBP、SIFT、CEDD四种特征,并采用极限学习机作为地形识别分类器。博士论文[吴航.移动机器人地形分类的视觉方法研究[D].中国人民解放军军事医学科学院,2017.]优化了现有BOVW模型,构建了视觉地形分类的最优流程,从而快速、高效地完成视觉地形分类任务。
基于视觉进行地形分类的研究成果较少,而且存在以下问题:1)机器人的运算能力往往较弱,而且需要较为持久的续航能力。然而,很多算法采用了复杂的图像描述子来表征地形样本,这样某种程度上能够提高分类的准确率,但是却占用了大量的运算资源,降低了实时性,同时还增加了能耗;2)基于训练数据集获取的分类器在短时间是有效的,但是随着时间的推移,即使在同一地形上采集的样本也会发生较大变化。如果不自动的调整分类器的参数,势必会降低分类的准确率。基于以上问题,我们提出了一种基于视觉的移动机器人地形分类方法。
发明内容
本发明技术解决问题:克服现有技术的不足,提出一种基于视觉的移动机器人地形分类方法,具有较快的运算速度,能够在线校正错误的分类,并且可以通过在线学习提高分类器的泛化性能。
本发明的技术方案如下:一种基于视觉的移动机器人地形分类方法,包括分为离线训练部分和在线训练部分,其中:
离线训练部分包括以下步骤:
第一步,控制机器人分别在不同地形上匀速运动,期间利用安装在机器人上的摄像头捕捉地面图像,得到地面图像序列;
第二步,对第一步获取的地面图像序列中的每幅图像进行特征提取并归一化以后,得到样本集合Σ,样本集合中的每个样本St由12个特征描述,则每个样本是i维样本空间的一个向量,是St中的一个元素,上标i=1,2,…,12;
第三步,对第二步获取的样本集合Σ进行标记,得到样例集合Ω={(S1,Y1),(S2,Y2),…(Sμ,Yμ)},其中Yt∈C,t=1,2,…,μ表示样本St对应的标记,Yt即真实地形,μ表示Ω中样例的数量;地形集合C={c1,c2,…,cm},m表示地形的数量;
第四步,对第三步获取的样例集合Ω采用CART算法生成决策树并剪枝,最终得到决策树D0;
在线训练部分步骤如下:
第五步,采集地面图像,得到第k秒的地面图像Mk,k=1,2,…
第六步,对第五步获取的Mk提取特征并归一化,得到第k秒的样本Sk;
第七步,如果k=1,则利用第四步中得到的决策树D0预测地形,否则利用第九步中得到的决策树Dk-1预测地形,得到第k秒的预测地形xk;存储xk得到预测的地形序列Xk={x1.x2,…,xk};
第八步,对第七步获得的Xk={x1.x2,…,xk}进行修正,修正方法如下:
其中,cj∈C;II为示性函数,当xi=cj时,II=1,否则II=0;τ>0表示窗口长度,为正整数;得到修正的地形序列
第九步,如果则不修正已有的决策树,即Dk=Dk-1;如果则利用样例修正已有的决策树,得到第k秒的决策树Dk。
第二步中,对地面图像序列中的每幅图像进行特征提取的方法如下:
定义一幅图像M在HSV空间的色度矩阵为H,M的灰度图为G;提取特征向量如下;
其中,H(i,j)表示H的第i行第j列的数值,u与v为图像的宽与高;
其中,G(i,j)表示G的第i行第j列的数值:
其中,T由G计算得到,w、h分别表示T的宽度与高度,方式如下:
上式中,1≤i≤u-2,1≤j≤v-2;当B(·)中不等式成立时B=1,否则B=0;Np为G(i +1,j+1)周围八邻域像素点灰度值序列,起点为左上角像素点,顺时针展开排序,即N1=G(i,j)、N2=G(i+1,j)、N3=G(i+2,j)、N4=G(i+2,j+1)、N5=G(i+2,j+2)、N6=G(i+1,j+2)、N7=G(i,j+2)、N8=G(i,j+1);其中,T(i,j)表示T的第i行第j列的数值;
第九步中,样例修正决策树包括如下步骤:
1)如果Dk-1为空,则加入一个叶子节点,叶子节点对应的类为样例Ek-τ对应的类
2)如果Dk-1是一个叶子节点,且所述叶子节点对应的类和相同,则把所述样例Ek-τ加入到所述叶子节点的样例集;
3)如果不是上面两种情况之一,则进行以下处理:
3.1)如果Dk-1是一个叶子节点,且所述叶子节点对应的类和不同,则将Dk-1转换成一个非叶节点,测试属性随机选取;
3.2)对于当前节点的测试属性和所有非测试属性,在训练样例中更新属性值样例计数器;
3.3)如果当前节点包含的测试属性的信息增益不是最大,则进行如下操作:
3.3.1)对Dk-1进行重构,使根节点的测试属性的信息增益最大;
3.3.2)在子树中进行相同的操作,使各个子树中的根节点的测试属性为当前信息增益最大;
3.4)沿着新的样例Ek-τ所在的分支逐层更新信息,最终得到修正后的决策树Dk。
所述步骤3.3.1)中重构的方法如下:
a)当新加入的属性α已经在根节点位置,则结束;
b)当新加入的属性α不在根节点位置,则进行以下操作:
b.1)递归的将α推到直接子树的根节点的位置,把叶子节点转换为以α为测试属性的非叶节点,得到一个α在根节点的新树,而旧的根节点属性在直接子树的根节点上;
b.2)转化子树,使得在这个树里面,新的根节点属性为α,而旧的根节点属性存于每一个直接子树的根节点;
c)得到根节点的测试属性的信息增益最大的重构的树。
本发明与现有技术相比,优点在于:1)采用了较为简单、紧凑的图像描述子与分类器,能够降低运算资源与电量的消耗,保证了系统的实时性,并且在分类器输出后端加入修正算法;解决了准确率降低的问题;2)在分类修正算法中提取被错误分类的样例,分类器利用该样例进行增量学习,提高了泛化性能,保证了长期运行的准确性。
附图说明
图1为本发明流程图;
图2为分类器预测的混淆矩阵;
图3位修正前后的地形分类结果局部放大图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图与具体实施例对本发明进行详细说明。
如图1所示,本发明包括离线训练与在线分类两部分,具体实施步骤如下:
离线训练部分包括以下步骤:
第一步,控制机器人分别在不同地形上匀速运动,期间利用安装在机器人上的摄像头捕捉地面图像,得到地面图像序列;
第二步,对第一步获取的地面图像序列中的每幅图像进行特征提取并归一化以后,得到样本集合Σ,样本集合中的每个样本St由12个特征描述,则每个样本是i维样本空间的一个向量,是St中的一个元素,上标i=1,2,…,12;具体特征提取方法如下:
定义一幅图像M在HSV空间的色度矩阵为H,M的灰度图为G;提取特征向量如下;
其中,H(i,j)表示H的第i行第j列的数值,u与v为图像的宽与高;
其中,G(i,j)表示G的第i行第j列的数值:
其中,T由G计算得到,w、h分别表示T的宽度与高度,方式如下:
上式中,1≤i≤u-2,1≤j≤v-2;当B(·)中不等式成立时B=1,否则B=0;Np为G(i +1,j+1)周围八邻域像素点灰度值序列,起点为左上角像素点,顺时针展开排序,即N1=G(i,j)、N2=G(i+1,j)、N3=G(i+2,j)、N4=G(i+2,j+1)、N5=G(i+2,j+2)、N6=G(i+1,j+2)、N7=G(i,j+2)、N8=G(i,j+1);其中,T(i,j)表示T的第i行第j列的数值;
第三步,对第二步获取的样本集合Σ进行标记,得到样例集合Ω={(S1,Y1),(S2,Y2),…(Sμ,Yμ)},其中Yt∈C,t=1,2,…,μ表示样本St对应的标记,Yt即真实地形,μ表示Ω中样例的数量;地形集合C={c1,c2,…,cm},m表示地形的数量;
第四步,对第三步获取的样例集合Ω采用CART算法生成决策树并剪枝,最终得到决策树D0;
在线训练部分步骤如下:
第五步,采集地面图像,得到第k秒的地面图像Mk,k=1,2,…
第六步,对第五步获取的Mk提取特征并归一化,得到第k秒的样本Sk;
第七步,如果k=1,则利用第四步中得到的决策树D0预测地形,否则利用第九步中得到的决策树Dk-1预测地形,得到第k秒的预测地形xk;存储xk得到预测的地形序列Xk={x1.x2,…,xk};
第八步,对第七步获得的Xk={x1.x2,…,xk}进行修正,修正方法如下:
其中,cj∈C;II为示性函数,当xi=cj时,II=1,否则II=0;τ>0表示窗口长度,为正整数;得到修正的地形序列
第九步,如果则不修正已有的决策树,即Dk=Dk-1;如果则利用样例修正已有的决策树,得到第k秒的决策树Dk。修正决策树包括如下步骤:
1)如果Dk-1为空,则加入一个叶子节点,叶子节点对应的类为样例Ek-τ对应的类
2)如果Dk-1是一个叶子节点,且所述叶子节点对应的类和相同,则把所述样例Ek-τ加入到所述叶子节点的样例集;
3)如果不是上面两种情况之一,则进行以下处理:
3.1)如果Dk-1是一个叶子节点,且所述叶子节点对应的类和不同,则将Dk-1转换成一个非叶节点,测试属性随机选取;
3.2)对于当前节点的测试属性和所有非测试属性,在训练样例中更新属性值样例计数器;
3.3)如果当前节点包含的测试属性的信息增益不是最大,则进行如下操作:
3.3.1)对Dk-1进行重构,使根节点的测试属性的信息增益最大;重构方法如下:
a)当新加入的属性α已经在根节点位置,则结束;
b)当新加入的属性α不在根节点位置,则进行以下操作:
b.1)递归的将α推到直接子树的根节点的位置,把叶子节点转换为以α为测试属性的非叶节点,得到一个α在根节点的新树,而旧的根节点属性在直接子树的根节点上;
b.2)转化子树,使得在这个树里面,新的根节点属性为α,而旧的根节点属性存于每一个直接子树的根节点;
c)得到根节点的测试属性的信息增益最大的重构的树。
3.3.2)在子树中进行相同的操作,使各个子树中的根节点的测试属性为当前信息增益最大;
3.4)沿着新的样例Ek-τ所在的分支逐层更新信息,最终得到修正后的决策树Dk。
为了验证本发明,使用轮式机器人分别运行在6种常见的地形,并采集地面图像序列。地形的灰度图如图3所示,分别为'沥青'、'雪地'、'步道'、'草地'、'瓷砖'、'木板'。机器人的移动速度约为0.8-1.1m/s,每秒捕捉一幅地面图像,每种地形实验约为10分钟。因此,对于6种地形,我们获取3600个训练样例集合。
机器人进入实际运行阶段,分别穿越6种地形,每秒对地形做一次预测,其混淆矩阵如图2所示,平均错误率为26.7%。修正之后的平均错误率为7.3%,修正前后的分类结果的局部放大图如图3所示。
另外,如果不对样例集合进行修正,分类器预测的地形的平均错误率约为32.7%。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (4)
1.一种基于视觉的移动机器人地形分类方法,其特征在于:包括分为离线训练部分和在线训练部分,其中:
离线训练部分包括以下步骤:
第一步,控制机器人分别在不同地形上匀速运动,期间利用安装在机器人上的摄像头捕捉地面图像,得到地面图像序列;
第二步,对第一步获取的地面图像序列中的每幅图像进行特征提取并归一化以后,得到样本集合Σ,样本集合中的每个样本St由12个特征描述,则每个样本是i维样本空间的一个向量,是St中的一个元素,上标i=1,2,…,12;
第三步,对第二步获取的样本集合Σ进行标记,得到样例集合Ω={(S1,Y1),(S2,Y2),…(Sμ,Yμ)},其中Yt∈C,t=1,2,…,μ表示样本St对应的标记,Yt即真实地形,μ表示Ω中样例的数量;地形集合C={c1,c2,…,cm},m表示地形的数量;
第四步,对第三步获取的样例集合Ω采用CART算法生成决策树并剪枝,最终得到决策树D0;
在线训练部分步骤如下:
第五步,采集地面图像,得到第k秒的地面图像Mk,k=1,2,…
第六步,对第五步获取的Mk提取特征并归一化,得到第k秒的样本Sk;
第七步,如果k=1,则利用第四步中得到的决策树D0预测地形,否则利用第九步中得到的决策树Dk-1预测地形,得到第k秒的预测地形xk;存储xk得到预测的地形序列Xk={x1.x2,…,xk};
第八步,对第七步获得的Xk={x1.x2,…,xk}进行修正,修正方法如下:
其中,cj∈C;为示性函数,当xi=cj时,否则τ>0表示窗口长度,为正整数;得到修正的地形序列
第九步,如果则不修正已有的决策树,即Dk=Dk-1;如果则利用样例修正已有的决策树,得到第k秒的决策树Dk。
2.根据权利要求1所述的一种基于视觉的移动机器人地形分类方法,其特征在于:第二步中,对地面图像序列中的每幅图像进行特征提取的方法如下:
定义一幅图像M在HSV空间的色度矩阵为H,M的灰度图为G;提取特征向量如下;
其中,H(i,j)表示H的第i行第j列的数值,u与v为图像的宽与高;
其中,G(i,j)表示G的第i行第j列的数值:
其中,T由G计算得到,w、h分别表示T的宽度与高度,方式如下:
上式中,1≤i≤u-2,1≤j≤v-2;当B(·)中不等式成立时B=1,否则B=0;Np为G(i+1,j+1)周围八邻域像素点灰度值序列,起点为左上角像素点,顺时针展开排序,即N1=G(i,j)、N2=G(i+1,j)、N3=G(i+2,j)、N4=G(i+2,j+1)、N5=G(i+2,j+2)、N6=G(i+1,j+2)、N7=G(i,j+2)、N8=G(i,j+1);其中,T(i,j)表示T的第i行第j列的数值。
3.如权利要求1所述的种基于视觉的移动机器人地形分类方法,其特征在于:第九步中,样例修正决策树包括如下步骤:
1)如果Dk-1为空,则加入一个叶子节点,叶子节点对应的类为样例Ek-τ对应的类
2)如果Dk-1是一个叶子节点,且所述叶子节点对应的类和相同,则把所述样例Ek-τ加入到所述叶子节点的样例集;
3)如果不是上面两种情况之一,则进行以下处理:
3.1)如果Dk-1是一个叶子节点,且所述叶子节点对应的类和不同,则将Dk-1转换成一个非叶节点,测试属性随机选取;
3.2)对于当前节点的测试属性和所有非测试属性,在训练样例中更新属性值样例计数器;
3.3)如果当前节点包含的测试属性的信息增益不是最大,则进行如下操作:
3.3.1)对Dk-1进行重构,使根节点的测试属性的信息增益最大;
3.3.2)在子树中进行相同的操作,使各个子树中的根节点的测试属性为当前信息增益最大;
3.4)沿着新的样例Ek-τ所在的分支逐层更新信息,最终得到修正后的决策树Dk。
4.如权利要求3所述的种基于视觉的移动机器人地形分类方法,其特征在于:
所述步骤3.3.1)中重构的方法如下:
a)当新加入的属性α已经在根节点位置,则结束;
b)当新加入的属性α不在根节点位置,则进行以下操作:
b.1)递归的将α推到直接子树的根节点的位置,把叶子节点转换为以α为测试属性的非叶节点,得到一个α在根节点的新树,而旧的根节点属性在直接子树的根节点上;
b.2)转化子树,使得在这个树里面,新的根节点属性为α,而旧的根节点属性存于每一个直接子树的根节点;
c)得到根节点的测试属性的信息增益最大的重构的树。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810599988.6A CN108960294B (zh) | 2018-06-12 | 2018-06-12 | 一种基于视觉的移动机器人地形分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810599988.6A CN108960294B (zh) | 2018-06-12 | 2018-06-12 | 一种基于视觉的移动机器人地形分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108960294A true CN108960294A (zh) | 2018-12-07 |
CN108960294B CN108960294B (zh) | 2019-07-23 |
Family
ID=64488238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810599988.6A Active CN108960294B (zh) | 2018-06-12 | 2018-06-12 | 一种基于视觉的移动机器人地形分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960294B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781788A (zh) * | 2019-10-18 | 2020-02-11 | 中国科学技术大学 | 一种基于少量标注的野外机器人地面分类方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101131755A (zh) * | 2007-10-19 | 2008-02-27 | 北京航空航天大学 | 一种基于真实地形的保持团队cgf队形的路径规划方法 |
CN104391290A (zh) * | 2014-11-17 | 2015-03-04 | 电子科技大学 | 一种适用于复杂非均匀杂波下的cfar检测器 |
CN104765839A (zh) * | 2015-04-16 | 2015-07-08 | 湘潭大学 | 一种基于属性间相关系数的数据分类方法 |
CN105573318A (zh) * | 2015-12-15 | 2016-05-11 | 中国北方车辆研究所 | 基于概率分析的环境构建方法 |
US20170190051A1 (en) * | 2016-01-06 | 2017-07-06 | Disney Enterprises, Inc. | Trained human-intention classifier for safe and efficient robot navigation |
-
2018
- 2018-06-12 CN CN201810599988.6A patent/CN108960294B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101131755A (zh) * | 2007-10-19 | 2008-02-27 | 北京航空航天大学 | 一种基于真实地形的保持团队cgf队形的路径规划方法 |
CN104391290A (zh) * | 2014-11-17 | 2015-03-04 | 电子科技大学 | 一种适用于复杂非均匀杂波下的cfar检测器 |
CN104765839A (zh) * | 2015-04-16 | 2015-07-08 | 湘潭大学 | 一种基于属性间相关系数的数据分类方法 |
CN105573318A (zh) * | 2015-12-15 | 2016-05-11 | 中国北方车辆研究所 | 基于概率分析的环境构建方法 |
US20170190051A1 (en) * | 2016-01-06 | 2017-07-06 | Disney Enterprises, Inc. | Trained human-intention classifier for safe and efficient robot navigation |
Non-Patent Citations (2)
Title |
---|
段珊珊: "基于RGBD传感器的场景自适应性视觉里程计算法", 《计算机与现代化》 * |
罗真: "对抗性环境下多机器人协作关键技术的研究", 《中国博士学位论文全文数据库信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781788A (zh) * | 2019-10-18 | 2020-02-11 | 中国科学技术大学 | 一种基于少量标注的野外机器人地面分类方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108960294B (zh) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Multi-focus image fusion with a natural enhancement via a joint multi-level deeply supervised convolutional neural network | |
CN105224942B (zh) | 一种rgb-d图像分类方法及系统 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN110210276A (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
CN104063702B (zh) | 一种基于遮挡修复和局部相似性匹配的三维步态识别方法 | |
CN106780592A (zh) | 基于相机运动和图像明暗的Kinect深度重建算法 | |
CN108844618B (zh) | 一种地形感知方法 | |
CN110942012A (zh) | 图像特征提取方法、行人重识别方法、装置和计算机设备 | |
CN105760898A (zh) | 一种基于混合组回归方法的视觉映射方法 | |
CN106599806A (zh) | 一种基于局部曲面几何特征的人体动作识别方法 | |
CN109426828A (zh) | 点云分类方法、装置、设备及存储介质 | |
CN104732534B (zh) | 一种图像中显著目标的抠取方法及系统 | |
CN108960294B (zh) | 一种基于视觉的移动机器人地形分类方法 | |
CN111612802B (zh) | 一种基于现有图像语义分割模型的再优化训练方法及应用 | |
CN111368637B (zh) | 一种基于多掩模卷积神经网络的搬运机器人识别目标方法 | |
Yang et al. | A novel vision-based framework for real-time lane detection and tracking | |
CN112200850B (zh) | 一种基于成熟特征点的orb提取方法 | |
CN115630361A (zh) | 一种基于注意力蒸馏的联邦学习后门防御方法 | |
CN108564020A (zh) | 基于全景3d图像的微手势识别方法 | |
Zhou et al. | Dual-attention focused module for weakly supervised object localization | |
CN113688849A (zh) | 一种用于卷积神经网络的灰度图像序列特征提取方法 | |
Wang et al. | Improving deep learning based object detection of mobile robot vision by HSI preprocessing method and CycleGAN method under inconsistent illumination conditions in real environment | |
Ortega et al. | USING TIME SERIES IMAGE DATA TO IMPROVE THE GENERALIZATION CAPABILITIES OF A CNN–THE EXAMPLE OF DEFORESTATION DETECTION WITH SENTINEL-2 | |
Yan et al. | Small Objects Detection Method for UAVs Aerial Image Based on YOLOv5s | |
CN114723611B (zh) | 图像重建模型训练方法、重建方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |