CN108021857B - 基于无人机航拍图像序列深度恢复的建筑物检测方法 - Google Patents
基于无人机航拍图像序列深度恢复的建筑物检测方法 Download PDFInfo
- Publication number
- CN108021857B CN108021857B CN201710717257.2A CN201710717257A CN108021857B CN 108021857 B CN108021857 B CN 108021857B CN 201710717257 A CN201710717257 A CN 201710717257A CN 108021857 B CN108021857 B CN 108021857B
- Authority
- CN
- China
- Prior art keywords
- image
- representing
- function
- depth
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于无人机航拍图像序列深度恢复的建筑物检测方法,属于建筑物检测技术领域。具体内容包括:无人机搭载单目相机采集图像序列;利用飞机的运动信息以及获取到的图像序列的空域和时域的关系,恢复出图像的视差;将视差转换为深度,人工的设定深度阈值来分割建筑物。本发明可以有效地估计出图像的深度,利用深度检测出建筑物。本发明首次使用了无人机图像序列深度恢复的方法,能够对建筑物进行有效的检测。
Description
技术领域
本发明属于建筑物检测技术领域,具体涉及一种基于无人机航拍图像序列深度恢复的建 筑物检测方法。
背景技术
随着当今无人机技术的高速发展,基于无人机航拍视频序列的建筑物检测成为大家研究 的热点。能够在复杂的背景下,准确的检测建筑物具有重要的意义。建筑物检测的经典方法 有如下几种:边缘轮廓检测,建筑物匹配法等。航拍视频背景复杂,若在建筑物密集区域使 用边缘轮廓进行检测,对特定的建筑物定位较难。现代社会中建筑物的形状多种多样,匹配 法虽然能够稳定识别形状较为规范的建筑物,但对于形状较为复杂的建筑物识别能力较弱。 以上两种方法在无人机航拍背景下,对建筑物检测难以达到理想的效果。这两种方法都是基 于二维图像进行分析,没有利用到图像的深度信息,所以很难对建筑物进行准确检测。
发明内容
本发明的目的在于提供一种解决现有技术中检测准确性差等问题的基于无人机航拍图像 序列深度恢复的建筑物检测方法。
本发明的目的通过如下技术方案来实现:
基于无人机航拍图像序列深度恢复的建筑物检测方法,包括以下步骤:
S1.利用无人机搭载单目相机水平飞行,垂直向下采集图像序列,并通过全局运动补偿 的方法使相邻两帧图像水平对齐;
S2.基线距离计算,通过相邻两帧图像获取时间差以及飞机飞行速度计算基线距离;
S3.匹配代价函数中,定义了像素值代价和梯度代价,并且加入了图像块特征匹配代价, 其中选用KAZE和彩色特征作为图像块特征。引入census变换,使用局部像素信息来计算汉 明距离,使得算法对光照变化具有较高的鲁棒性;
S4.匹配代价聚合中,为了提高在边缘处求解的精度和降低噪声,引入了一种迭代引导 滤波器的方法,将t或t+1时刻的灰度图像作为滤波器的引导;
S5.匹配代价聚合函数优化求解,使用winner-take-all(WTA)策略,在求解中有一些 无效或不需要的像素,我们通过左右一致性检查来剔除这些点,然后执行填充处理,用有效 的最小像素替换无效的像素;
S6.视差图进行细化后处理,使用加权的双边滤波器来消除填充过程中产生的剩余噪声, 最后使用无向图分割和最小二乘平面拟合来恢复视差图上的低纹理区域;
S7.目标建筑物深度分割,把视差图转化为深度图,人工设定分割高度阈值范围,对地 面建筑物进行深度图分割,提取出建筑物区域。
.特别地,
步骤S1中使用单目相机获取图像序列。无人机搭载相机会产生抖动现象,利用全局运动 补偿的方法水平对齐图像。
步骤S2中求取相邻两帧的基线距离dj,如下式,其中v是飞机匀速直线飞行时的速度, Ts是获取相邻两帧图像的时间间隔。
dj=v*Ts
步骤S3中像素差分函数AD′(p,d)定义为:
其中τAD表示截断阈值,用来增加对离群值的鲁棒性,ADnew(p,d)表示引入强度系数的像 素差分函数。
梯度差分函数GM′(p,d)定义为:
其中τGM表示截断阈值,用来增加对离群值的鲁棒性,GMnew(p,d)表示引入强度系数的 像素差分函数。
图像块特征匹配代价PM(p,d)定义为:
PM(p,d)=δpρp|ft(p)-ft+1(p-d)|
其中ft和ft+1分别代表相邻两帧中图像块的特征向量。δp是匹配控制常数,若在xp处存 在优秀匹配,为1,否则为0。ρp代表匹配权重。
定义匹配误差函数M′(p,d)为,
M′(p,d)=αAD′(p,d)+(1-α)GM′(p,d)+βPM(p,d)
引入局部census变换,每一幅图像汉明距离CN(p)定义为:
其中I(p)和I(q)分别是感兴趣像素点的像素值和邻域像素点的像素值,前后两帧图像汉 明距离定义为:
CN′(p,d)=Hamming(CNt(p)-CNt+1(p-d))
最终的匹配代价函数M(p,d)定义为:
M(p,d)=2-exp(-M′(p,d))-exp(-CN′(p,d))
步骤S4中定义迭代引导滤波器的核函数Gp,q(In)如下:
其中In表示第n次迭代时的引导灰度图,p代表像素点,wo是r×r的邻域窗口,w是邻域内的像素个数,邻域内的像素用q表示,o代表窗口内中心点像素。μ和σ2分别代表引导 图像的均值和方差,ε是控制平滑因子。
步骤S5中定义左右一致性检查关系定义为:
|dLR(p)-dRL(p-dLR(p))|≤τLR
其中dLR和dRL分别代表左右相关视差图,τLR代表一致性阈值。
填充处理函数定义d(p)为:
其中d(p)表示p位置的视差,d(p-j)和d(p+j)分别表示左侧和右侧第一有效视差。
步骤S6中加权双边滤波函数h(p,dr)定义为:
其中dr表示视差范围,wp是以p为中心的r×r窗口,B(p,q)为双边滤波器。
步骤S6中分割函数定义S(C1,C2)为:
其中Δ(C1,C2)表示区域边界权重,Δmin(C1,C2)表示最小区域边界权重。
平面拟合过程中视差平面dk(x,y)定义为:
dk(x,y)=ax+by+c
其中dk(x,y)和(x,y)分别表示视差值平面和第k次分割区域。a和b是斜率参数,c表示 平面与原点距离。
步骤S7中定义建筑物的分割函数J(p)为:
其中hp表示p位置的实际深度值,hmin表示人工设定最小深度阈值。
本发明的有益效果在于:
通过无人机搭载单目相机,降低系统复杂性和成本。并且通过飞机的运动信息以及获取 到的图像序列空域和时域的关系,来恢复出图像的深度信息,充分利用了深度信息检测出建 筑物,有效提升检测的准确率。
附图说明
图1为本发明的设计流程图;
图2为本发明系统整体示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明:
S1.如图2所示,利用无人机搭载单目相机水平飞行获取图像序列。It′和It+1′分别表示 相邻两帧图像,(xt,yt)表示t时刻图像内坐标点,(xt+1,yt+1)表示t+1时刻图像内坐标点,则 可以定义相邻两帧图像的仿射变换关系如下:
其中a1,a2,a3,a4,b0,b1是变换参数,可以由最小二乘法求得。变换后两幅图像的重叠区域 记作Ω,It和It+1分别表示在区域Ω内的水平对齐后的图像。
S2.本发明是基于飞机匀速直线运动状态下进行建筑物检测的,需要利用飞机的运动信 息如速度,估计出相邻两帧之间的基线距离dj。公式如下:
dj=v*Ts (2)
其中v表示飞机飞行速度,Ts表示采集相邻两帧图像序列的时间间隔。
S3.要估计视差,第一步就是要定义匹配代价函数。前后两帧原始像素差分函数AD(p,d)定 义为:
其中p代表坐标(x,y),i表示彩色图像的三个通道,d代表视差。引入差分强度系数β后, 新的像素差分函数ADnew(p,d)定义为:
ADnew(p,d)=βAD(p,d) (4)
最终的像素差分函数AD′(p,d)定义为:
其中τAD表示截断阈值,用来增加对离群值的鲁棒性,ADnew(p,d)表示引入强度系数的像素 差分函数。
同时为了计算图像的梯度值,定义水平方向梯度Gx和竖直方向的梯度Gy分别为:
Gx=[1 0 -1]*I (6)
其中I为图像,*代表卷积运算。梯度的模值η定义为:
原始的梯度匹配差分函数GM(p,d)为:
GM(p,d)=|ηt(p)-ηt+1(p-d)| (9)
其中ηl和ηr代表前后两帧图像梯度的大小。引入差分强度系数β后,新的图像梯度差分函 数GMnew(p,d)定义为:
GMnew(p,d)=βGM(p,d) (10)
最终的梯度差分函数GM′(p,d)定义为:
其中τGM表示截断阈值,用来增加对离群值的鲁棒性。
图像块特征匹配代价函数PM(p,d)定义为:
PM(p,d)=δpρp|ft(p)-ft+1(p-d)| (12)
其中ft和ft+1分别代表相邻两帧中图像块的特征向量。δp是匹配控制常数,若在xp处 存在优秀匹配,δp为1,否则为0。ρp代表匹配权重定义为:
其中K和C分别代表图像块对应的特征向量,定义总距离ξ2(p,p-d)为:
定义匹配误差函数为,
M′(p,d)=αAD′(p,d)+(1-α)GM′(p,d)+βPM(p,d) (17)
引入局部census变换,每一幅图像汉明距离CN(p)定义为:
其中I(p)和I(q)分别是感兴趣像素点的像素值和邻域像素点的像素值,前后两帧图像汉明 距离CN′(p,d)定义为:
CN′(p,d)=Hamming(CNt(p)-CNt+1(p-d)) (20)
最终的匹配代价函数M(p,d)定义为:
M(p,d)=2-exp(-M′(p,d))-exp(-CN′(p,d)) (21)
S4.得到了匹配代价函数之后,需要对代价进行进一步的聚合操作,这一操作也是对匹 配不确定性最小化的一个必要阶段。为了提高在边缘处求解的精度和降低噪声,我们定义引 导滤波器Gp,q(In)为:
其中,其中In表示第n次迭代时的引导灰度图,p代表像素点,wo是r×r的邻域窗口,w 是邻域内的像素个数,邻域内的像素用q表示,o代表窗口内中心点像素。μ和σ2分别代表引导图像的均值和方差。ε是控制平滑因子,聚合匹配代价CA(p,d)定义为:
CA(p,d)=Gp,q(In)M(p,d) (23)
S5.为了获得准确的视差图,我们使用WTK算法来进行区域匹配。WTA算法的基本思想就 是对于参考图中的一点,在匹配图中计算视差范围内的叠加匹配代价,取匹配代价最小的点 作为参考图中点的对应点。估计视差d的公式定义为:
d=argmind∈dr CA(p,d) (24)
在求解中会产生一些无效或者不需要的像素,我们通过左右一致性检查来剔除这些点,然 后执行填充处理,用有效的最小像素替换无效的像素。左右一致性检查关系定义为:
|dLR(p)-dRL(p-dLR(p))|≤τLR (25)
其中dLR和dRL分别代表左右相关视差图,τLR代表一致性阈值。
填充处理函数定义为:
其中d(p)表示p位置的视差,d(p-j)和d(p+j)分别表示左侧和右侧第一有效视差。
S6.步骤S5中的这种像素填充和替换,会在视差图上产生噪声,为了消除噪声,我们使 用双边滤波器来进一步滤除噪声点。双边滤波器B(p,q)定义为:
其中p是需要进行滤波的位置,σs和σc分别是空域调整参数和视差相关参数。|p-q|表示 空间欧式距离,|d(p)-d(q)|表示视差值的差。
为提升滤波器的性能,我们使用加权双边滤波器,加权后的双边滤波函数h(p,dr)定义为:
其中dr表示视差范围,wp是以p为中心的r×r窗口。
滤波之后视差取h(p,dr)的中间值,中间值d′表达式定义为:
d′=med{d|h(p,dr)} (29)
利用无向图分割和最小二乘平面拟合可以修复视差图中的低纹理区域,首先通过测量每 一段边缘的相似度来确定边缘权重ωseg(vp,vq)定义为:
ωseg(vp,vq)=|d′(p)-d′(q)| (30)
其中vp和vq表示边缘E的顶点,(vp,vq)∈E,d′(p)和d′(q)分别表示目标点与邻域点的视 差值。
定义边缘段C∈E,边缘段E内的最小权重值Δ(C1,C2)定义为:
最终的分割函数S(C1,C2)定义为:
Δmin(C1,C2)代表最小内部差异,定义为:
Δmin(C1,C2)=min(Int(C1)+τseg(C1),Int(C2)+τseg(C2))(33)
其中Int(C)是内部差分权重值,定义为:
Int(C)=maxe∈MST(C,E)w(e) (34)
其中Int(C)是最小生成树MST(C,E)的最大权重值w(e),τseg是阈值函数定义为:
其中k是常数,zc是边缘段大小。
平面拟合的过程,定义视差平面dk(x,y)为:
dk(x,y)=ax+by+c (36)
其中dk(x,y)和(x,y)分别表示视差值平面和第k次分割区域。a和b是斜率参数,c表示平 面与原点距离。这些参数可以通过最小二乘法求解确定,求解公式定义为:
其中(xi,yi)和s表示第k段的坐标和像素点个数。最终的视差值由式(36)和(37)共同决定。
S7.通过视差图求解深度图,对应关系定义为:
其中z为深度值,f为焦距,b为基线距离,d为视差。
定义建筑物的分割函数J(p)为:
其中hp表示p位置的实际深度值,hmin表示人工设定最小深度阈值。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员 来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等 同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,包括以下步骤:
S1.利用无人机搭载单目相机水平飞行,垂直向下采集图像序列,并通过全局运动补偿的方法使相邻两帧图像水平对齐;
S2.基线距离计算,通过相邻两帧图像获取时间差以及飞机飞行速度计算基线距离;
S3.匹配代价函数设计,定义像素值代价和梯度代价,加入图像块特征匹配代价,选用KAZE和彩色特征作为图像块特征;
S4.匹配代价函数聚合,引入一种迭代引导滤波器的方法,将t或t+1时刻的灰度图像作为滤波器的引导;
S5.匹配代价聚合函数优化求解,使用winner-take-all(WTA)策略,用有效的最小像素替换无效的像素;
S6.视差图进行细化后处理,使用加权的双边滤波器来消除填充过程中产生的剩余噪声,最后使用无向图分割和最小二乘平面拟合来恢复视差图上的低纹理区域;
S7.目标建筑物深度分割,把视差图转化为深度图,人工设定分割高度阈值范围,对地面建筑物进行深度图分割,提取出建筑物区域;
所述的步骤S1具体为:
相邻两帧图像的仿射变换关系如下:
其中,(xt,yt)表示t时刻图像内坐标点,(xt+1,yt+1)表示t+1时刻图像内坐标点;
其中,a1,a2,a3,a4,b0,b1是变换参数,可以由最小二乘法求得,变换后两幅图像的重叠区域记作Ω;
所述的步骤S2具体为:
相邻两帧之间的基线距离dj计算公式:
dj=v*Ts
其中v表示飞机飞行速度,Ts表示采集相邻两帧图像序列的时间间隔;
所述的步骤S3具体为:
(3.1)前后两帧原始像素差分函数AD(p,d)定义为:
其中p代表坐标(x,y),i表示彩色图像的三个通道,d代表视差,
引入差分强度系数β后,新的像素差分函数ADnew(p,d)定义为:
ADnew(p,d)=βAD(p,d)
最终的像素差分函数AD′(p,d)定义为:
其中τAD表示截断阈值,用来增加对离群值的鲁棒性,ADnew(p,d)表示引入强度系数的像素差分函数;
(3.2)定义水平方向梯度Gx和竖直方向的梯度Gy分别为:
Gx=[1 0 -1]*I
其中I为图像,*代表卷积运算,
梯度的模值η定义为:
原始的梯度匹配差分函数GM(p,d)为:
GM(p,d)=|ηt(p)-ηt+1(p-d)|
其中ηt和ηt+1代表前后两帧图像梯度的大小,
引入差分强度系数β后,新的图像梯度差分函数GMnew(p,d)定义为:
GMnew(p,d)=βGM(p,d)
最终的梯度差分函数GM′(p,d)定义为:
其中τGM表示截断阈值;
(3.3)图像块特征匹配代价函数PM(p,d)定义为:
PM(p,d)=δpρp|ft(p)-ft+1(p-d)|
其中ft和ft+1分别代表相邻两帧中图像块的特征向量,δp是匹配控制常数,若在xp处存在优秀匹配,δp为1,否则为0,
ρp代表匹配权重定义为:
KAZE特征标准化欧式距离ξ2(Kp,Kp-d)和彩色特征标准化欧式距离ξ2(Cp,Cp-d),分别定义为:
其中K和C分别代表图像块对应的特征向量,定义总距离ξ2(p,p-d)为:
定义匹配误差函数为,
M′(p,d)=αAD′(p,d)+(1-α)GM′(p,d)+βPM(p,d)
引入局部census变换,每一幅图像汉明距离CN(p)定义为:
wCN是领域窗口,cen(p,q)是二值化函数其定义为:
其中I(p)和I(q)分别是感兴趣像素点的像素值和邻域像素点的像素值,前后两帧图像汉明距离CN′(p,d)定义为:
CN′(p,d)=Hamming(CNt(p)-CNt+1(p-d))
(3.4)最终的匹配代价函数M(p,d)定义为:
M(p,d)=2-exp(-M′(p,d))-exp(-CN′(p,d))。
3.根据权利要求1所述的基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,所述的步骤S5具体为:
使用WTK算法来进行区域匹配,在匹配图中计算视差范围内的叠加匹配代价,取匹配代价最小的点作为参考图中点的对应点;
估计视差d的公式定义为:
通过左右一致性检查来剔除无效或者不需要的像素,然后执行填充处理,用有效的最小像素替换无效的像素;
左右一致性检查关系定义为:
|dLR(p)-dRL(p-dLR(p))|≤τLR
其中dLR和dRL分别代表左右相关视差图,τLR代表一致性阈值;
填充处理函数定义为:
其中d(p)表示p位置的视差,d(p-j)和d(p+j)分别表示左侧和右侧第一有效视差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710717257.2A CN108021857B (zh) | 2017-08-21 | 2017-08-21 | 基于无人机航拍图像序列深度恢复的建筑物检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710717257.2A CN108021857B (zh) | 2017-08-21 | 2017-08-21 | 基于无人机航拍图像序列深度恢复的建筑物检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108021857A CN108021857A (zh) | 2018-05-11 |
CN108021857B true CN108021857B (zh) | 2021-12-21 |
Family
ID=62080220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710717257.2A Active CN108021857B (zh) | 2017-08-21 | 2017-08-21 | 基于无人机航拍图像序列深度恢复的建筑物检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108021857B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390690B (zh) * | 2019-07-11 | 2021-04-16 | Oppo广东移动通信有限公司 | 深度图处理方法和装置 |
CN110930411B (zh) * | 2019-11-20 | 2023-04-28 | 浙江光珀智能科技有限公司 | 一种基于深度相机的人体分割方法及系统 |
CN110849285A (zh) * | 2019-11-20 | 2020-02-28 | 上海交通大学 | 基于单目相机的焊点深度测量方法、系统及介质 |
CN112115770B (zh) * | 2020-08-05 | 2024-08-13 | 中国电力科学研究院有限公司 | 一种用于架空线路无人机自主巡检缺陷识别的方法及系统 |
CN114241022B (zh) * | 2022-02-28 | 2022-06-03 | 北京艾尔思时代科技有限公司 | 一种无人机图像自动配准方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104517095A (zh) * | 2013-10-08 | 2015-04-15 | 南京理工大学 | 一种基于深度图像的人头分割方法 |
-
2017
- 2017-08-21 CN CN201710717257.2A patent/CN108021857B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104517095A (zh) * | 2013-10-08 | 2015-04-15 | 南京理工大学 | 一种基于深度图像的人头分割方法 |
Non-Patent Citations (3)
Title |
---|
"Reconstructing building mass models from UAV images";Minglei Li等;《Computers & Graphics》;20150726;全文 * |
"基于动态规划的立体匹配算法研究";龚文;《中国优秀硕士学位论文全文数据库 信息科技辑》;中国学术期刊(光盘版)电子杂志社;20160315(第03期);第2.2.1、3.4.1节 * |
"无人机智能化视频监控嵌入式系统";黄伟杰;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20140415(第04期);第2.3-3.1节 * |
Also Published As
Publication number | Publication date |
---|---|
CN108021857A (zh) | 2018-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108021857B (zh) | 基于无人机航拍图像序列深度恢复的建筑物检测方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN110223348B (zh) | 基于rgb-d相机的机器人场景自适应位姿估计方法 | |
CN104156536B (zh) | 一种盾构机刀具磨损的可视化定量标定及分析方法 | |
CN104484668B (zh) | 一种无人机多重叠遥感影像的建筑物轮廓线提取方法 | |
CN108010081B (zh) | 一种基于Census变换和局部图优化的RGB-D视觉里程计方法 | |
CN109974743B (zh) | 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计 | |
CN113744337B (zh) | 一种融合视觉、imu与声纳的同步定位与建图方法 | |
CN110288659B (zh) | 一种基于双目视觉的深度成像及信息获取方法 | |
CN110956661B (zh) | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 | |
CN110766024B (zh) | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
CN109376641B (zh) | 一种基于无人机航拍视频的运动车辆检测方法 | |
CN101765019B (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
CN106952292B (zh) | 基于6自由度场景流聚类的3d运动目标检测方法 | |
CN110516639B (zh) | 一种基于视频流自然场景的人物三维位置实时计算方法 | |
CN113744315B (zh) | 一种基于双目视觉的半直接视觉里程计 | |
CN113570658A (zh) | 基于深度卷积网络的单目视频深度估计方法 | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
CN115375733A (zh) | 基于视频和点云数据的雪车雪橇三维滑行轨迹提取方法 | |
CN111160362B (zh) | 一种fast特征均匀化提取与帧间特征误匹配去除方法 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其系统 | |
CN103646397B (zh) | 基于多源数据融合的实时合成孔径透视成像方法 | |
CN108109118B (zh) | 一种无控制点的航拍图像几何校正方法 | |
CN111833384B (zh) | 一种可见光和红外图像快速配准方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |