CN108021857A - 基于无人机航拍图像序列深度恢复的建筑物检测方法 - Google Patents

基于无人机航拍图像序列深度恢复的建筑物检测方法 Download PDF

Info

Publication number
CN108021857A
CN108021857A CN201710717257.2A CN201710717257A CN108021857A CN 108021857 A CN108021857 A CN 108021857A CN 201710717257 A CN201710717257 A CN 201710717257A CN 108021857 A CN108021857 A CN 108021857A
Authority
CN
China
Prior art keywords
represent
pixel
image
function
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710717257.2A
Other languages
English (en)
Other versions
CN108021857B (zh
Inventor
项学智
翟明亮
吕宁
肖德广
尹力
宋凯
郭鑫立
王帅
张荣芳
于泽婷
张玉琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201710717257.2A priority Critical patent/CN108021857B/zh
Publication of CN108021857A publication Critical patent/CN108021857A/zh
Application granted granted Critical
Publication of CN108021857B publication Critical patent/CN108021857B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于无人机航拍图像序列深度恢复的建筑物检测方法,属于建筑物检测技术领域。具体内容包括:无人机搭载单目相机采集图像序列;利用飞机的运动信息以及获取到的图像序列的空域和时域的关系,恢复出图像的视差;将视差转换为深度,人工的设定深度阈值来分割建筑物。本发明可以有效地估计出图像的深度,利用深度检测出建筑物。本发明首次使用了无人机图像序列深度恢复的方法,能够对建筑物进行有效的检测。

Description

基于无人机航拍图像序列深度恢复的建筑物检测方法
技术领域
本发明属于建筑物检测技术领域,具体涉及一种基于无人机航拍图像序列深度恢复的建 筑物检测方法。
背景技术
随着当今无人机技术的高速发展,基于无人机航拍视频序列的建筑物检测成为大家研究 的热点。能够在复杂的背景下,准确的检测建筑物具有重要的意义。建筑物检测的经典方法 有如下几种:边缘轮廓检测,建筑物匹配法等。航拍视频背景复杂,若在建筑物密集区域使 用边缘轮廓进行检测,对特定的建筑物定位较难。现代社会中建筑物的形状多种多样,匹配 法虽然能够稳定识别形状较为规范的建筑物,但对于形状较为复杂的建筑物识别能力较弱。 以上两种方法在无人机航拍背景下,对建筑物检测难以达到理想的效果。这两种方法都是基 于二维图像进行分析,没有利用到图像的深度信息,所以很难对建筑物进行准确检测。
发明内容
本发明的目的在于提供一种解决现有技术中检测准确性差等问题的基于无人机航拍图像 序列深度恢复的建筑物检测方法。
本发明的目的通过如下技术方案来实现:
基于无人机航拍图像序列深度恢复的建筑物检测方法,包括以下步骤:
S1.利用无人机搭载单目相机水平飞行,垂直向下采集图像序列,并通过全局运动补偿 的方法使相邻两帧图像水平对齐;
S2.基线距离计算,通过相邻两帧图像获取时间差以及飞机飞行速度计算基线距离;
S3.匹配代价函数中,定义了像素值代价和梯度代价,并且加入了图像块特征匹配代价, 其中选用KAZE和彩色特征作为图像块特征。引入census变换,使用局部像素信息来计算汉 明距离,使得算法对光照变化具有较高的鲁棒性;
S4.匹配代价聚合中,为了提高在边缘处求解的精度和降低噪声,引入了一种迭代引导 滤波器的方法,将t或t+1时刻的灰度图像作为滤波器的引导;
S5.匹配代价聚合函数优化求解,使用winner-take-all(WTA)策略,在求解中有一些 无效或不需要的像素,我们通过左右一致性检查来剔除这些点,然后执行填充处理,用有效 的最小像素替换无效的像素;
S6.视差图进行细化后处理,使用加权的双边滤波器来消除填充过程中产生的剩余噪声, 最后使用无向图分割和最小二乘平面拟合来恢复视差图上的低纹理区域;
S7.目标建筑物深度分割,把视差图转化为深度图,人工设定分割高度阈值范围,对地 面建筑物进行深度图分割,提取出建筑物区域。
.特别地,
步骤S1中使用单目相机获取图像序列。无人机搭载相机会产生抖动现象,利用全局运动 补偿的方法水平对齐图像。
步骤S2中求取相邻两帧的基线距离dj,如下式,其中v是飞机匀速直线飞行时的速度, Ts是获取相邻两帧图像的时间间隔。
dj=v*Ts
步骤S3中像素差分函数AD′(p,d)定义为:
其中τAD表示截断阈值,用来增加对离群值的鲁棒性,ADnew(p,d)表示引入强度系数的像 素差分函数。
梯度差分函数GM′(p,d)定义为:
其中τGM表示截断阈值,用来增加对离群值的鲁棒性,GMnew(p,d)表示引入强度系数的 像素差分函数。
图像块特征匹配代价PM(p,d)定义为:
PM(p,d)=δpρp|ft(p)-ft+1(p-d)|
其中ft和ft+1分别代表相邻两帧中图像块的特征向量。δp是匹配控制常数,若在xp处存 在优秀匹配,为1,否则为0。ρp代表匹配权重。
定义匹配误差函数M′(p,d)为,
M′(p,d)=αAD′(p,d)+(1-α)GM′(p,d)+βPM(p,d)
引入局部census变换,每一幅图像汉明距离CN(p)定义为:
其中表示每一窗口之间的并置连接,p和q分别表示感兴趣像素点和领域像素点。wCN是领域窗口,cen(p,q)是二值化函数定义为:
其中I(p)和I(q)分别是感兴趣像素点的像素值和邻域像素点的像素值,前后两帧图像汉 明距离定义为:
CN′(p,d)=Hamming(CNt(p)-CNt+1(p-d))
最终的匹配代价函数M(p,d)定义为:
M(p,d)=2-exp(-M′(p,d))-exp(-CN′(p,d))
步骤S4中定义迭代引导滤波器的核函数Gp,q(In)如下:
其中In表示第n次迭代时的引导灰度图,p代表像素点,wo是r×r的邻域窗口,w是邻域内的像素个数,邻域内的像素用q表示,o代表窗口内中心点像素。μ和σ2分别代表引导 图像的均值和方差,ε是控制平滑因子。
步骤S5中定义左右一致性检查关系定义为:
|dLR(p)-dRL(p-dLR(p))|≤τLR
其中dLR和dRL分别代表左右相关视差图,τLR代表一致性阈值。
填充处理函数定义d(p)为:
其中d(p)表示p位置的视差,d(p-j)和d(p+j)分别表示左侧和右侧第一有效视差。
步骤S6中加权双边滤波函数h(p,dr)定义为:
其中dr表示视差范围,wp是以p为中心的r×r窗口,B(p,q)为双边滤波器。
步骤S6中分割函数定义S(C1,C2)为:
其中Δ(C1,C2)表示区域边界权重,Δmin(C1,C2)表示最小区域边界权重。
平面拟合过程中视差平面dk(x,y)定义为:
dk(x,y)=ax+by+c
其中dk(x,y)和(x,y)分别表示视差值平面和第k次分割区域。a和b是斜率参数,c表示 平面与原点距离。
步骤S7中定义建筑物的分割函数J(p)为:
其中hp表示p位置的实际深度值,hmin表示人工设定最小深度阈值。
本发明的有益效果在于:
通过无人机搭载单目相机,降低系统复杂性和成本。并且通过飞机的运动信息以及获取 到的图像序列空域和时域的关系,来恢复出图像的深度信息,充分利用了深度信息检测出建 筑物,有效提升检测的准确率。
附图说明
图1为本发明的设计流程图;
图2为本发明系统整体示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明:
S1.如图2所示,利用无人机搭载单目相机水平飞行获取图像序列。It′和It+1′分别表示 相邻两帧图像,(xt,yt)表示t时刻图像内坐标点,(xt+1,yt+1)表示t+1时刻图像内坐标点,则 可以定义相邻两帧图像的仿射变换关系如下:
其中a1,a2,a3,a4,b0,b1是变换参数,可以由最小二乘法求得。变换后两幅图像的重叠区域 记作Ω,It和It+1分别表示在区域Ω内的水平对齐后的图像。
S2.本发明是基于飞机匀速直线运动状态下进行建筑物检测的,需要利用飞机的运动信 息如速度,估计出相邻两帧之间的基线距离dj。公式如下:
dj=v*Ts (2)
其中v表示飞机飞行速度,Ts表示采集相邻两帧图像序列的时间间隔。
S3.要估计视差,第一步就是要定义匹配代价函数。前后两帧原始像素差分函数AD(p,d)定 义为:
其中p代表坐标(x,y),i表示彩色图像的三个通道,d代表视差。引入差分强度系数β后, 新的像素差分函数ADnew(p,d)定义为:
ADnew(p,d)=βAD(p,d) (4)
最终的像素差分函数AD′(p,d)定义为:
其中τAD表示截断阈值,用来增加对离群值的鲁棒性,ADnew(p,d)表示引入强度系数的像素 差分函数。
同时为了计算图像的梯度值,定义水平方向梯度Gx和竖直方向的梯度Gy分别为:
Gx=[1 0 -1]*I (6)
其中I为图像,*代表卷积运算。梯度的模值η定义为:
原始的梯度匹配差分函数GM(p,d)为:
GM(p,d)=|ηt(p)-ηt+1(p-d)| (9)
其中ηl和ηr代表前后两帧图像梯度的大小。引入差分强度系数β后,新的图像梯度差分函 数GMnew(p,d)定义为:
GMnew(p,d)=βGM(p,d) (10)
最终的梯度差分函数GM′(p,d)定义为:
其中τGM表示截断阈值,用来增加对离群值的鲁棒性。
图像块特征匹配代价函数PM(p,d)定义为:
PM(p,d)=δpρp|ft(p)-ft+1(p-d)| (12)
其中ft和ft+1分别代表相邻两帧中图像块的特征向量。δp是匹配控制常数,若在xp处 存在优秀匹配,δp为1,否则为0。ρp代表匹配权重定义为:
其中表示区域匹配块描述子的标准化领域内平均欧式距离,ξ2()表示KAZE特征标 准化欧式距离ξ2(Kp,Kp-d)和彩色特征标准化欧式距离ξ2(Cp,Cp-d),分别定义为:
其中K和C分别代表图像块对应的特征向量,定义总距离ξ2(p,p-d)为:
定义匹配误差函数为,
M′(p,d)=αAD′(p,d)+(1-α)GM′(p,d)+βPM(p,d) (17)
引入局部census变换,每一幅图像汉明距离CN(p)定义为:
其中表示每一窗口之间的并置连接,p和q分别表示感兴趣像素点和领域像素点。wCN是 领域窗口,cen(p,q)是二值化函数其定义为:
其中I(p)和I(q)分别是感兴趣像素点的像素值和邻域像素点的像素值,前后两帧图像汉明 距离CN′(p,d)定义为:
CN′(p,d)=Hamming(CNt(p)-CNt+1(p-d)) (20)
最终的匹配代价函数M(p,d)定义为:
M(p,d)=2-exp(-M′(p,d))-exp(-CN′(p,d)) (21)
S4.得到了匹配代价函数之后,需要对代价进行进一步的聚合操作,这一操作也是对匹 配不确定性最小化的一个必要阶段。为了提高在边缘处求解的精度和降低噪声,我们定义引 导滤波器Gp,q(In)为:
其中,其中In表示第n次迭代时的引导灰度图,p代表像素点,wo是r×r的邻域窗口,w 是邻域内的像素个数,邻域内的像素用q表示,o代表窗口内中心点像素。μ和σ2分别代表引导图像的均值和方差。ε是控制平滑因子,聚合匹配代价CA(p,d)定义为:
CA(p,d)=Gp,q(In)M(p,d) (23)
S5.为了获得准确的视差图,我们使用WTK算法来进行区域匹配。WTA算法的基本思想就 是对于参考图中的一点,在匹配图中计算视差范围内的叠加匹配代价,取匹配代价最小的点 作为参考图中点的对应点。估计视差d的公式定义为:
d=argmind∈dr CA(p,d) (24)
在求解中会产生一些无效或者不需要的像素,我们通过左右一致性检查来剔除这些点,然 后执行填充处理,用有效的最小像素替换无效的像素。左右一致性检查关系定义为:
|dLR(p)-dRL(p-dLR(p))|≤τLR (25)
其中dLR和dRL分别代表左右相关视差图,τLR代表一致性阈值。
填充处理函数定义为:
其中d(p)表示p位置的视差,d(p-j)和d(p+j)分别表示左侧和右侧第一有效视差。
S6.步骤S5中的这种像素填充和替换,会在视差图上产生噪声,为了消除噪声,我们使 用双边滤波器来进一步滤除噪声点。双边滤波器B(p,q)定义为:
其中p是需要进行滤波的位置,σs和σc分别是空域调整参数和视差相关参数。|p-q|表示 空间欧式距离,|d(p)-d(q)|表示视差值的差。
为提升滤波器的性能,我们使用加权双边滤波器,加权后的双边滤波函数h(p,dr)定义为:
其中dr表示视差范围,wp是以p为中心的r×r窗口。
滤波之后视差取h(p,dr)的中间值,中间值d′表达式定义为:
d′=med{d|h(p,dr)} (29)
利用无向图分割和最小二乘平面拟合可以修复视差图中的低纹理区域,首先通过测量每 一段边缘的相似度来确定边缘权重ωseg(vp,vq)定义为:
ωseg(vp,vq)=|d′(p)-d′(q)| (30)
其中vp和vq表示边缘E的顶点,(vp,vq)∈E,d′(p)和d′(q)分别表示目标点与邻域点的视 差值。
定义边缘段C∈E,边缘段E内的最小权重值Δ(C1,C2)定义为:
最终的分割函数S(C1,C2)定义为:
Δmin(C1,C2)代表最小内部差异,定义为:
Δmin(C1,C2)=min(Int(C1)+τseg(C1),Int(C2)+τseg(C2))(33)
其中Int(C)是内部差分权重值,定义为:
Int(C)=maxe∈MST(C,E)w(e) (34)
其中Int(C)是最小生成树MST(C,E)的最大权重值w(e),τseg是阈值函数定义为:
其中k是常数,zc是边缘段大小。
平面拟合的过程,定义视差平面dk(x,y)为:
dk(x,y)=ax+by+c (36)
其中dk(x,y)和(x,y)分别表示视差值平面和第k次分割区域。a和b是斜率参数,c表示平 面与原点距离。这些参数可以通过最小二乘法求解确定,求解公式定义为:
其中(xi,yi)和s表示第k段的坐标和像素点个数。最终的视差值由式(36)和(37)共同决定。
S7.通过视差图求解深度图,对应关系定义为:
其中z为深度值,f为焦距,b为基线距离,d为视差。
定义建筑物的分割函数J(p)为:
其中hp表示p位置的实际深度值,hmin表示人工设定最小深度阈值。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员 来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等 同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,包括以下步骤:
S1.利用无人机搭载单目相机水平飞行,垂直向下采集图像序列,并通过全局运动补偿的方法使相邻两帧图像水平对齐;
S2.基线距离计算,通过相邻两帧图像获取时间差以及飞机飞行速度计算基线距离;
S3.匹配代价函数设计,定义像素值代价和梯度代价,加入图像块特征匹配代价,选用KAZE和彩色特征作为图像块特征;
S4.匹配代价函数聚合,引入一种迭代引导滤波器的方法,将t或t+1时刻的灰度图像作为滤波器的引导;
S5.匹配代价聚合函数优化求解,使用winner-take-all(WTA)策略,用有效的最小像素替换无效的像素;
S6.视差图进行细化后处理,使用加权的双边滤波器来消除填充过程中产生的剩余噪声,最后使用无向图分割和最小二乘平面拟合来恢复视差图上的低纹理区域;
S7.目标建筑物深度分割,把视差图转化为深度图,人工设定分割高度阈值范围,对地面建筑物进行深度图分割,提取出建筑物区域。
2.根据权利要求1所述的基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,所述的步骤S1具体为:
相邻两帧图像的仿射变换关系如下:
其中,It′和It+1′分别表示相邻两帧图像,It和It+1分别表示在区域Ω内的水平对齐后的图像,(xt,yt)表示t时刻图像内坐标点,(xt+1,yt+1)表示t+1时刻图像内坐标点;
其中,a1,a2,a3,a4,b0,b1是变换参数,可以由最小二乘法求得,变换后两幅图像的重叠区域记作Ω。
3.根据权利要求1所述的基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,所述的步骤S2具体为:
相邻两帧之间的基线距离dj计算公式:
dj=v*Ts
其中v表示飞机飞行速度,Ts表示采集相邻两帧图像序列的时间间隔。
4.根据权利要求1所述的基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,所述的步骤S3具体为:
(3.1)前后两帧原始像素差分函数AD(p,d)定义为:
其中p代表坐标(x,y),i表示彩色图像的三个通道,d代表视差,
引入差分强度系数β后,新的像素差分函数ADnew(p,d)定义为:
ADnew(p,d)=βAD(p,d)
最终的像素差分函数AD′(p,d)定义为:
其中τAD表示截断阈值,用来增加对离群值的鲁棒性,ADnew(p,d)表示引入强度系数的像素差分函数;
(3.2)定义水平方向梯度Gx和竖直方向的梯度Gy分别为:
Gx=[1 0 -1]*I
其中I为图像,*代表卷积运算,
梯度的模值η定义为:
原始的梯度匹配差分函数GM(p,d)为:
GM(p,d)=|ηt(p)-ηt+1(p-d)|
其中ηl和ηr代表前后两帧图像梯度的大小,
引入差分强度系数β后,新的图像梯度差分函数GMnew(p,d)定义为:
GMnew(p,d)=βGM(p,d)
最终的梯度差分函数GM′(p,d)定义为:
其中τGM表示截断阈值;
(3.3)图像块特征匹配代价函数PM(p,d)定义为:
PM(p,d)=δpρp|ft(p)-ft+1(p-d)|
其中ft和ft+1分别代表相邻两帧中图像块的特征向量,δp是匹配控制常数,若在xp处存在优秀匹配,δp为1,否则为0,
ρp代表匹配权重定义为:
其中表示区域匹配块描述子的标准化领域内平均欧式距离,
KAZE特征标准化欧式距离ξ2(Kp,Kp-d)和彩色特征标准化欧式距离ξ2(Cp,Cp-d),分别定义为:
其中K和C分别代表图像块对应的特征向量,定义总距离ξ2(p,p-d)为:
定义匹配误差函数为,
M′(p,d)=αAD′(p,d)+(1-α)GM′(p,d)+βPM(p,d)
引入局部census变换,每一幅图像汉明距离CN(p)定义为:
其中表示每一窗口之间的并置连接,p和q分别表示感兴趣像素点和领域像素点;
wCN是领域窗口,cen(p,q)是二值化函数其定义为:
其中I(p)和I(q)分别是感兴趣像素点的像素值和邻域像素点的像素值,前后两帧图像汉明距离CN′(p,d)定义为:
CN′(p,d)=Hamming(CNt(p)-CNt+1(p-d))
(3.4)最终的匹配代价函数M(p,d)定义为:
M(p,d)=2-exp(-M′(p,d))-exp(-CN′(p,d))。
5.根据权利要求1所述的基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,所述的步骤S4具体为:
定义引导滤波器Gp,q(In)为:
其中,其中In表示第n次迭代时的引导灰度图,p代表像素点,wo是r×r的邻域窗口,w是邻域内的像素个数,邻域内的像素用q表示,o代表窗口内中心点像素,μ和σ2分别代表引导图像的均值和方差,ε是控制平滑因子;
聚合匹配代价CA(p,d)定义为:
CA(p,d)=Gp,q(In)M(p,d)。
6.根据权利要求1所述的基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,所述的步骤S5具体为:
使用WTK算法来进行区域匹配,在匹配图中计算视差范围内的叠加匹配代价,取匹配代价最小的点作为参考图中点的对应点;
估计视差d的公式定义为:
通过左右一致性检查来剔除无效或者不需要的像素,然后执行填充处理,用有效的最小像素替换无效的像素;
左右一致性检查关系定义为:
|dLR(p)-dRL(p-dLR(p))|≤τLR
其中dLR和dRL分别代表左右相关视差图,τLR代表一致性阈值;
填充处理函数定义为:
其中d(p)表示p位置的视差,d(p-j)和d(p+j)分别表示左侧和右侧第一有效视差。
7.根据权利要求1所述的基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,所述的步骤S6具体为:
分割函数定义S(C1,C2)为:
其中Δ(C1,C2)表示区域边界权重,Δmin(C1,C2)表示最小区域边界权重;
平面拟合过程中视差平面dk(x,y)定义为:
dk(x,y)=ax+by+c
其中dk(x,y)和(x,y)分别表示视差值平面和第k次分割区域,a和b是斜率参数,c表示平面与原点距离。
8.根据权利要求1所述的基于无人机航拍图像序列深度恢复的建筑物检测方法,其特征在于,所述的步骤S7具体为:
定义建筑物的分割函数J(p)为:
其中hp表示p位置的实际深度值,hmin表示人工设定最小深度阈值。
CN201710717257.2A 2017-08-21 2017-08-21 基于无人机航拍图像序列深度恢复的建筑物检测方法 Active CN108021857B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710717257.2A CN108021857B (zh) 2017-08-21 2017-08-21 基于无人机航拍图像序列深度恢复的建筑物检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710717257.2A CN108021857B (zh) 2017-08-21 2017-08-21 基于无人机航拍图像序列深度恢复的建筑物检测方法

Publications (2)

Publication Number Publication Date
CN108021857A true CN108021857A (zh) 2018-05-11
CN108021857B CN108021857B (zh) 2021-12-21

Family

ID=62080220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710717257.2A Active CN108021857B (zh) 2017-08-21 2017-08-21 基于无人机航拍图像序列深度恢复的建筑物检测方法

Country Status (1)

Country Link
CN (1) CN108021857B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390690A (zh) * 2019-07-11 2019-10-29 Oppo广东移动通信有限公司 深度图处理方法和装置
CN110849285A (zh) * 2019-11-20 2020-02-28 上海交通大学 基于单目相机的焊点深度测量方法、系统及介质
CN110930411A (zh) * 2019-11-20 2020-03-27 杭州光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN114241022A (zh) * 2022-02-28 2022-03-25 北京艾尔思时代科技有限公司 一种无人机图像自动配准方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104517095A (zh) * 2013-10-08 2015-04-15 南京理工大学 一种基于深度图像的人头分割方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104517095A (zh) * 2013-10-08 2015-04-15 南京理工大学 一种基于深度图像的人头分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MINGLEI LI等: ""Reconstructing building mass models from UAV images"", 《COMPUTERS & GRAPHICS》 *
裘光明: "《高等学校教学用书 解析几何学》", 31 March 1960 *
黄伟杰: ""无人机智能化视频监控嵌入式系统"", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *
龚文: ""基于动态规划的立体匹配算法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390690A (zh) * 2019-07-11 2019-10-29 Oppo广东移动通信有限公司 深度图处理方法和装置
CN110390690B (zh) * 2019-07-11 2021-04-16 Oppo广东移动通信有限公司 深度图处理方法和装置
CN110849285A (zh) * 2019-11-20 2020-02-28 上海交通大学 基于单目相机的焊点深度测量方法、系统及介质
CN110930411A (zh) * 2019-11-20 2020-03-27 杭州光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN110930411B (zh) * 2019-11-20 2023-04-28 浙江光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN114241022A (zh) * 2022-02-28 2022-03-25 北京艾尔思时代科技有限公司 一种无人机图像自动配准方法及系统

Also Published As

Publication number Publication date
CN108021857B (zh) 2021-12-21

Similar Documents

Publication Publication Date Title
CN105261037B (zh) 一种自适应复杂场景的运动目标检测方法
CN101625768B (zh) 一种基于立体视觉的三维人脸重建方法
CN108021857A (zh) 基于无人机航拍图像序列深度恢复的建筑物检测方法
CN105956539B (zh) 一种应用背景建模和双目视觉原理的人体身高测量方法
CN104156536B (zh) 一种盾构机刀具磨损的可视化定量标定及分析方法
CN104063702B (zh) 一种基于遮挡修复和局部相似性匹配的三维步态识别方法
CN109934862A (zh) 一种点线特征结合的双目视觉slam方法
CN105279772B (zh) 一种红外序列图像的可跟踪性判别方法
CN111079556A (zh) 一种多时相无人机视频图像变化区域检测及分类方法
CN110119728A (zh) 基于多尺度融合语义分割网络的遥感图像云检测方法
CN104517095B (zh) 一种基于深度图像的人头分割方法
CN105869178A (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
CN101299268A (zh) 适于低景深图像的语义对象分割方法
Zhu et al. Joint depth and alpha matte optimization via fusion of stereo and time-of-flight sensor
CN103035013A (zh) 一种基于多特征融合的精确运动阴影检测方法
CN104182968B (zh) 宽基线多阵列光学探测系统模糊动目标分割方法
CN107146239A (zh) 卫星视频运动目标检测方法及系统
CN101765019B (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
Basha et al. Structure and motion from scene registration
CN102651135A (zh) 一种基于优化方向采样的自然图像抠图方法
CN110288659A (zh) 一种基于双目视觉的深度成像及信息获取方法
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
CN106952292B (zh) 基于6自由度场景流聚类的3d运动目标检测方法
CN109034001A (zh) 一种基于时空线索的跨模态视频显著性检测方法
CN106991686A (zh) 一种基于超像素光流场的水平集轮廓跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant