CN114120129A - 基于无人机图像和深度学习的滑坡滑移面的三维识别方法 - Google Patents

基于无人机图像和深度学习的滑坡滑移面的三维识别方法 Download PDF

Info

Publication number
CN114120129A
CN114120129A CN202111451203.9A CN202111451203A CN114120129A CN 114120129 A CN114120129 A CN 114120129A CN 202111451203 A CN202111451203 A CN 202111451203A CN 114120129 A CN114120129 A CN 114120129A
Authority
CN
China
Prior art keywords
dimensional
image
semantic segmentation
landslide
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111451203.9A
Other languages
English (en)
Other versions
CN114120129B (zh
Inventor
李惠
赵今
周文松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202111451203.9A priority Critical patent/CN114120129B/zh
Publication of CN114120129A publication Critical patent/CN114120129A/zh
Application granted granted Critical
Publication of CN114120129B publication Critical patent/CN114120129B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

基于无人机图像和深度学习的滑坡滑移面的三维识别方法,涉及灾害监测技术领域。本发明是为了解决现有对山体滑坡进行检测的方法对滑移面的具体定位不准确的问题。本发明利用无人机采集被测区域至少5个不同角度的图像作为检测图像,利用语义分割网络对检测图像中所有像素点的类型进行区分,获得语义分割结果,其中像素点的类型包括背景像素点和滑坡滑移面像素点,利用三维重构算法对检测图像进行重构,获得包含滑坡滑移面的三维点云,计算三维点云中任一像素点A在二维平面中的二维坐标,将像素点A在二维平面中的二维坐标带入步骤二获得的语义分割结果中,获得像素点A的类型,将像素点A的类型及像素点A的三维坐标作为滑坡滑移面的三维识别结果。

Description

基于无人机图像和深度学习的滑坡滑移面的三维识别方法
技术领域
本发明属于灾害监测技术领域,尤其涉及滑坡滑移面的监测。
背景技术
自然灾害的监测对于自然灾害预警与防治有着重要的意义。及时发现自然灾害表征及自然灾害表征的扩大情况对于预防人力、财力损失以及保护生态环境起着不可或缺的作用。在自然灾害中,山体滑坡不仅会破坏表面植被,造成水土流失,破坏自然生态系统,严重的甚至会破坏人工基础设施,造成人员伤亡。在传统的自然灾害与防治学科中,除了人工实地考察外,一般采用固定相机拍摄与人工检查照片相结合的方法。该方法需要较多的人工耗时,且容易发生错判、漏判的现象。除了人工检查照片的方法,也有自动滑坡检查的计算机识别算法。大部分基于计算机识别的滑坡识别算法只能获取对整张图片是否包含滑坡滑移面的标签信息,对于滑移面的具体定位不够准确。
发明内容
本发明是为了解决现有对山体滑坡进行检测的方法对滑移面的具体定位不准确的问题,现提供基于无人机图像和深度学习的滑坡滑移面的三维识别方法。
基于无人机图像和深度学习的滑坡滑移面的三维识别方法,包括:
步骤一:利用无人机采集被测区域至少5个不同角度的图像作为检测图像,
步骤二:利用语义分割网络对检测图像中所有像素点的类型进行区分,获得语义分割结果,其中像素点的类型包括背景像素点和滑坡滑移面像素点,
步骤三:利用三维重构算法对检测图像进行重构,获得包含滑坡滑移面的三维点云,
步骤四:计算三维点云中任一像素点A在二维平面中的二维坐标,
步骤五:将像素点A在二维平面中的二维坐标带入步骤二获得的语义分割结果中,获得像素点A的类型,将像素点A的类型及像素点A的三维坐标作为滑坡滑移面的三维识别结果。
进一步的,上述步骤二中,语义分割网络的语义分割蒙版K的表达式如下:
K=UNet(I),
其中,UNet(·)为语义分割网络,I为检测图像,语义分割蒙版K为由0和1组成的矩阵,其中0表示背景,1表示滑坡滑移面。
进一步的,上述语义分割网络的训练方法为:
利用随机变形的方法生成训练数据集,利用训练数据集对语义分割网络进行训练,利用二进制交叉熵损失函数描述语义分割蒙版预测值Kp与真实值
Figure BDA0003385304970000021
的近似程度,当该近似程度在20次训练内不再继续下降,则完成训练。
进一步的,上述语义分割蒙版预测值Kp与真实值
Figure BDA0003385304970000022
的近似程度表达式如下:
Figure BDA0003385304970000023
其中,ωr为交叉熵损失函数主体项系数,
Figure BDA0003385304970000024
为第r个像素的语义分割蒙版真实值,Kpr为第r个像素的语义分割蒙版预测值,λ1为正则项的权重,L2为正则项,h和w分别为检测图像在长和宽两个方向上的分辨率。
进一步的,在无人机获得的所有检测图像中随机选取n个图像作为训练图像,分别对每个训练进行以下处理:
对训练图像标注语义分割蒙版,然后同时对训练图像及其语义分割蒙版进行m次变形,将每次变形后的图像及其语义分割蒙版作为一个样本对,再加上原训练图像以及原训练图像的语义分割蒙版,则每个训练图像对应m+1个样本对,
则n个训练图像一共对应n(m+1)个样本对,将这些样本对作为训练数据集,m和n均为正整数。
进一步的,上述对训练图像及其语义分割蒙版进行变形时的变形函数表达式如下:
Figure BDA0003385304970000025
其中,
Figure BDA0003385304970000026
为训练图像第j次变形后的结果,
Figure BDA0003385304970000027
Figure BDA0003385304970000028
的语义分割蒙版,Ii(x,y)为第i张训练图像,Ki(x,y)为Ii(x,y)的语义分割蒙版,Wj[·]为变形函数,(x,y)为训练图像中像素的坐标,Δx和Δy为像素坐标的变形偏移量,i为训练图像编号,j=1,2,...,m,i=1,2,...,n。
进一步的,采用人工的方式对训练图像标注蒙版。
进一步的,上述步骤三中获得包含滑坡滑移面的三维点云的具体方法为:
通过SURF方法获取每个检测图像的特征点,
对每个检测图像的特征点进行RANSAC匹配,并剔除不匹配的特征点,
使用八点法求得每个检测图像对应的相机姿态,
求解每个检测图像中匹配的特征点的三维空间坐标,
每个检测图像中所有匹配的特征点的三维空间坐标共同构成检测图像包含滑坡滑移面的三维点云。
进一步的,任意选取两个相机姿态,将其中一个相机姿态对应的相机作为参考相机,另一个相机姿态对应的相机作为检测相机,求解检测相机对应检测图像中特征点Q的三维空间坐标XQ的方法为:
建立等式:x2s2=Kc(R2XQ+T2),
对上式左右两边同时叉积x2,之后获得上式的矩阵形式:
Figure BDA0003385304970000031
通过奇异值分解求解上述矩阵中的XQ
其中,s2为特征点Q到检测相机光心的距离,Kc为无人机上相机的内参矩阵,R2和T2分别为检测相机相对于参考相机的旋转矩阵和平移矩阵,x2为特征点Q在检测图像中的二维坐标。
进一步的,上述步骤四中根据下式计算三维点云中像素点A在二维平面中的二维坐标xA
xA=Kc(R2XA+T2),
其中,XA为三维点云中像素点A的三维空间坐标。
本发明提出了基于图像以及深度学习的滑坡滑移面的三维识别方法,有益效果如下:
1、本发明设计了滑坡滑移面二维语义分割网络和滑坡滑移面三维重构来识别滑坡滑移面的空间位置。不仅能够获取滑坡滑移面的三维地形建模,还能够获取三维的滑移面位置坐标。
2、在滑坡滑移面二维语义分割网络Unet中,通过滑坡滑移面随机变形函数,仅使用由少数人工标注图像和语义分类蒙版生成的数据集进行训练。
3、将二维语义分割结果坐标带入三维点云中,避免了直接对三维点云的语义分割的复杂计算情况。
附图说明
图1为本发明所述基于无人机图像和深度学习的滑坡滑移面的三维识别方法的流程图;
图2为训练数据集生成方法的示意图;
图3为三维重建结果示意图;
图4为实施例中真实环境图片;
图5为实施例中滑坡滑移面二维识别结果图;
图6为实施例中滑坡滑移面三维重构结果图;
图7为实施例中滑坡滑移面三维语义分割结果图。
具体实施方式
2012年以来,计算视觉算法和深度学习的飞速发展影响了以视觉为基础的灾害监测学科。深度学习以在纵向深度、以及横向宽度上均远超传统机器学习的算法建立的网络,对大量任务的预测效果都远超传统算法,甚至在很多方面达到或超过人工识别的方法。深度学习的主流训练方法有监督学习、无监督学习以及强化学习,可以完成传统方法难以或无法完成的任务建模,适用于传统方法难以处理的模糊概念。
为此,本实施方式提出了一种基于无人机图像和深度学习的滑坡滑移面三维语义分割识别方法。具体如下:
具体实施方式一:参照图1至图3具体说明本实施方式,本实施方式所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,包括一下步骤:
步骤一:在无人机上设置相机,利用无人机采集被测区域至少5个不同角度的图像作为检测图像。其中,相机每拍摄一张图像都变换一个姿态。
步骤二:首先建立语义分割网络,然后采用有深度学习法对该语义分割网络进行训练,训练方法为:
首先,深度学习的训练方法需要网络输入输出的训练数据集,本实实施方式利用随机变形的方法生成训练数据集。具体的,在无人机获得的所有检测图像中随机选取n个图像作为训练图像,分别对每个训练图像进行以下处理:
如图2所示,采用人工的方式对训练图像标注语义分割蒙版,然后同时对训练图像及其语义分割蒙版分别进行m次变形,对训练图像及其语义分割蒙版进行变形时的变形函数表达式如下:
Figure BDA0003385304970000041
其中,
Figure BDA0003385304970000042
训练图像第j次变形后的结果,
Figure BDA0003385304970000043
Figure BDA0003385304970000044
的语义分割蒙版,Ii(x,y)为第i张训练图像,Ki(x,y)为Ii(x,y)的语义分割蒙版,也就是人工标注的语义分割蒙版,Wj[·]为变形函数,(x,y)为训练图像中像素的坐标,Δx和Δy为像素坐标的变形偏移量,i为训练图像编号,j=1,2,...,m,i=1,2,...,n,m和n均为正整数。
每次变形后获得的图像及其语义分割蒙版均作为一个样本对,则m次变形后能够获得m个样本对,再加上原训练图像以及原训练图像的语义分割蒙版,则有m+1个样本对。
讲过上述处理,那么n个训练图像一共能够获得n(m+1)个样本对,将这些样本对作为训练数据集。
利用训练数据集对语义分割网络进行训练。
利用二进制交叉熵损失函数描述语义分割蒙版预测值Kp与真实值
Figure BDA0003385304970000051
的近似程度:
Figure BDA0003385304970000052
其中,ωr为交叉熵损失函数主体项系数,
Figure BDA0003385304970000053
为第r个像素的语义分割蒙版真实值,Kpr为第r个像素的语义分割蒙版预测值,λ1为正则项的权重,L2为正则项,h和w分别为检测图像在长和宽两个方向上的分辨率。
当上述近似程度在20次训练内不再继续下降,则完成训练。
像素点的类型包括背景像素点和滑坡滑移面像素点,利用训练好的语义分割网络对检测图像中所有像素点的类型进行区分,获得语义分割结果。
语义分割结果能够用语义分割蒙版K来表示,语义分割网络的语义分割蒙版K的表达式如下:
K=UNet(I),
其中,UNet(·)为语义分割网络,I为检测图像,语义分割蒙版K为由0和1组成的矩阵,其中0表示背景,1表示滑坡滑移面。语语义分割蒙版K在长和宽方向上的图像分辨率相同。
步骤三:利用三维重构算法对检测图像进行重构,获得包含滑坡滑移面的三维点云。
具体的:
通过SURF(Speeded Up Robust Features)方法获取每个检测图像的特征点。
对每个检测图像的特征点进行RANSAC(random sample consensus,随机抽样一致算法)匹配,并剔除不匹配的特征点。
使用八点法求得每个检测图像对应的相机姿态。
任意选取两个相机姿态,将其中一个相机姿态对应的相机作为参考相机,另一个相机姿态对应的相机作为检测相机。无人机上仅有一个相机,由于在拍摄不同角度图像时需要变换不同的姿态,所以这里认为一个姿态对应一个相机。
求解检测相机对应检测图像中特征点Q的三维空间坐标XQ的方法为:
建立等式:x2s2=Kc(R2XQ+T2),
对上式左右两边同时叉积x2,之后获得上式的矩阵形式:
Figure BDA0003385304970000061
通过奇异值分解求解上述矩阵中的XQ
其中,s2为特征点Q到检测相机光心的距离,Kc为无人机上相机的内参矩阵,R2和T2分别为检测相机相对于参考相机的旋转矩阵和平移矩阵,x2为特征点Q在检测图像中的二维坐标。
利用上述方法,就能够求解检测图像中所有匹配的特征点的三维空间坐标,并将这些特征点的三维空间坐标共同构成检测图像包含滑坡滑移面的三维点云。
步骤四:根据下式计算三维点云中像素点A在二维平面中的二维坐标xA
xA=Kc(R2XA+T2),
其中,XA为三维点云中像素点A的三维空间坐标。
步骤五:将像素点A在二维平面中的二维坐标带入步骤二获得的语义分割结果中,获得像素点A的类型,将像素点A的类型及像素点A的三维坐标作为滑坡滑移面的三维识别结果。
步骤五还可以理解为通过二维语义分割结果对三维点云中的点进行了分类。
具体实施例
本实施例以河门口滑坡的真实无人机航拍图像为输入图像,来完成对这一区域的滑坡滑移面三维语义分割识别。
经人工测量,河门口滑坡整体前缘宽366m,纵向长932m。平面面积29.85万平方米,滑坡前缘次级变形体:前缘宽366m,纵向长240m。平面面积6.77万平方米。总体积600万方,次级滑体平均厚度30m,约250万方。本施例通过本发明提供的算法对河门口滑坡的进行三维语义分割的识别。
通过滑移面随机变形方法,生成河门口周围滑坡滑移面的二维语义分割识别结果。真实的输入图片见图4,具体识别的情况参见图5。
使用从运动生成结果方法重建滑坡滑移面周边的地形地貌三维结果,具体情况见图6。
将二维语义分割的滑坡滑移面,通过步骤二中计算的相机空间位置以及焦距等相机内参数投影到滑坡滑移面三维识别结果上,最终获取滑坡滑移面三维语义分割识别结果,见图7。
以上对本发明所提出基于无人机图像、计算机视觉算法和深度学习的滑坡滑移面的三维识别方法,进行了详细介绍,本发明应用了河门口滑坡的三维航拍图片进行了实地验证,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,包括:
步骤一:利用无人机采集被测区域至少5个不同角度的图像作为检测图像,
步骤二:利用语义分割网络对检测图像中所有像素点的类型进行区分,获得语义分割结果,其中像素点的类型包括背景像素点和滑坡滑移面像素点,
步骤三:利用三维重构算法对检测图像进行重构,获得包含滑坡滑移面的三维点云,
步骤四:计算三维点云中任一像素点A在二维平面中的二维坐标,
步骤五:将像素点A在二维平面中的二维坐标带入步骤二获得的语义分割结果中,获得像素点A的类型,将像素点A的类型及像素点A的三维坐标作为滑坡滑移面的三维识别结果。
2.根据权利要求1所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,步骤二中,语义分割网络的语义分割蒙版K的表达式如下:
K=UNet(I),
其中,UNet(·)为语义分割网络,I为检测图像,语义分割蒙版K为由0和1组成的矩阵,其中0表示背景,1表示滑坡滑移面。
3.根据权利要求2所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,语义分割网络的训练方法为:
利用随机变形的方法生成训练数据集,利用训练数据集对语义分割网络进行训练,利用二进制交叉熵损失函数描述语义分割蒙版预测值Kp与真实值
Figure FDA0003385304960000011
的近似程度,当该近似程度在20次训练内不再继续下降,则完成训练。
4.根据权利要求3所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,语义分割蒙版预测值Kp与真实值
Figure FDA0003385304960000012
的近似程度表达式如下:
Figure FDA0003385304960000013
其中,ωr为交叉熵损失函数主体项系数,
Figure FDA0003385304960000014
为第r个像素的语义分割蒙版真实值,Kpr为第r个像素的语义分割蒙版预测值,λ1为正则项的权重,L2为正则项,h和w分别为检测图像在长和宽两个方向上的分辨率。
5.根据权利要求3所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,在无人机获得的所有检测图像中随机选取n个图像作为训练图像,分别对每个训练进行以下处理:
对训练图像标注语义分割蒙版,然后同时对训练图像及其语义分割蒙版进行m次变形,将每次变形后的图像及其语义分割蒙版作为一个样本对,再加上原训练图像以及原训练图像的语义分割蒙版,则每个训练图像对应m+1个样本对,
则n个训练图像一共对应n(m+1)个样本对,将这些样本对作为训练数据集,m和n均为正整数。
6.根据权利要求5所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,对训练图像及其语义分割蒙版进行变形时的变形函数表达式如下:
Figure FDA0003385304960000021
其中,
Figure FDA0003385304960000022
为训练图像第j次变形后的结果,
Figure FDA0003385304960000023
Figure FDA0003385304960000024
的语义分割蒙版,Ii(x,y)为第i张训练图像,Ki(x,y)为Ii(x,y)的语义分割蒙版,Wj[·]为变形函数,(x,y)为训练图像中像素的坐标,Δx和Δy为像素坐标的变形偏移量,i为训练图像编号,j=1,2,...,m,i=1,2,...,n。
7.根据权利要求5所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,采用人工的方式对训练图像标注蒙版。
8.根据权利要求1所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,步骤三中获得包含滑坡滑移面的三维点云的具体方法为:
通过SURF方法获取每个检测图像的特征点,
对每个检测图像的特征点进行RANSAC匹配,并剔除不匹配的特征点,
使用八点法求得每个检测图像对应的相机姿态,
求解每个检测图像中匹配的特征点的三维空间坐标,
每个检测图像中所有匹配的特征点的三维空间坐标共同构成检测图像包含滑坡滑移面的三维点云。
9.根据权利要求8所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,任意选取两个相机姿态,将其中一个相机姿态对应的相机作为参考相机,另一个相机姿态对应的相机作为检测相机,求解检测相机对应检测图像中特征点Q的三维空间坐标XQ的方法为:
建立等式:x2s2=Kc(R2XQ+T2),
对上式左右两边同时叉积x2,之后获得上式的矩阵形式:
Figure FDA0003385304960000031
通过奇异值分解求解上述矩阵中的XQ
其中,s2为特征点Q到检测相机光心的距离,Kc为无人机上相机的内参矩阵,R2和T2分别为检测相机相对于参考相机的旋转矩阵和平移矩阵,x2为特征点Q在检测图像中的二维坐标。
10.根据权利要求9所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,步骤四中根据下式计算三维点云中像素点A在二维平面中的二维坐标xA
xA=Kc(R2XA+T2),
其中,XA为三维点云中像素点A的三维空间坐标。
CN202111451203.9A 2021-11-30 2021-11-30 基于无人机图像和深度学习的滑坡滑移面的三维识别方法 Active CN114120129B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111451203.9A CN114120129B (zh) 2021-11-30 2021-11-30 基于无人机图像和深度学习的滑坡滑移面的三维识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111451203.9A CN114120129B (zh) 2021-11-30 2021-11-30 基于无人机图像和深度学习的滑坡滑移面的三维识别方法

Publications (2)

Publication Number Publication Date
CN114120129A true CN114120129A (zh) 2022-03-01
CN114120129B CN114120129B (zh) 2024-05-17

Family

ID=80369051

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111451203.9A Active CN114120129B (zh) 2021-11-30 2021-11-30 基于无人机图像和深度学习的滑坡滑移面的三维识别方法

Country Status (1)

Country Link
CN (1) CN114120129B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114882366A (zh) * 2022-05-26 2022-08-09 广州市城市规划勘测设计研究院 一种三维场景灾变监控预警方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200402300A1 (en) * 2019-06-21 2020-12-24 Harbin Institute Of Technology Terrain modeling method that fuses geometric characteristics and mechanical charateristics, computer readable storage medium, and terrain modeling system thereof
CN112233124A (zh) * 2020-10-14 2021-01-15 华东交通大学 基于对抗式学习与多模态学习的点云语义分割方法及系统
CN113128405A (zh) * 2021-04-20 2021-07-16 北京航空航天大学 一种结合语义分割与点云处理的植物识别与模型构建方法
US11099275B1 (en) * 2020-04-29 2021-08-24 Tsinghua University LiDAR point cloud reflection intensity complementation method and system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200402300A1 (en) * 2019-06-21 2020-12-24 Harbin Institute Of Technology Terrain modeling method that fuses geometric characteristics and mechanical charateristics, computer readable storage medium, and terrain modeling system thereof
US11099275B1 (en) * 2020-04-29 2021-08-24 Tsinghua University LiDAR point cloud reflection intensity complementation method and system
CN112233124A (zh) * 2020-10-14 2021-01-15 华东交通大学 基于对抗式学习与多模态学习的点云语义分割方法及系统
CN113128405A (zh) * 2021-04-20 2021-07-16 北京航空航天大学 一种结合语义分割与点云处理的植物识别与模型构建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
司梦元;刘国强;曾小妮;姜楠;: "基于BIM与现实捕捉技术的桥梁检测关键技术研究", 住宅与房地产, no. 34, 5 December 2019 (2019-12-05) *
高凯珺;孙韶媛;姚广顺;赵海涛: "基于深度学习的无人车夜视图像语义分割", 应用光学, vol. 38, no. 3, 31 December 2017 (2017-12-31) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114882366A (zh) * 2022-05-26 2022-08-09 广州市城市规划勘测设计研究院 一种三维场景灾变监控预警方法
CN114882366B (zh) * 2022-05-26 2023-03-21 广州市城市规划勘测设计研究院 一种三维场景灾变监控预警方法

Also Published As

Publication number Publication date
CN114120129B (zh) 2024-05-17

Similar Documents

Publication Publication Date Title
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
CN111311666B (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统
CN112270249A (zh) 一种融合rgb-d视觉特征的目标位姿估计方法
JP6397379B2 (ja) 変化領域検出装置、方法、及びプログラム
WO2013020142A2 (en) Image-based crack detection
McKinnon et al. Towards automated and in-situ, near-real time 3-D reconstruction of coral reef environments
CN114241031A (zh) 基于双视角融合的鱼类体尺测量和体重预测的方法及装置
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN115330876B (zh) 基于孪生网络和中心位置估计的目标模板图匹配定位方法
Xi et al. Review of underwater machine vision technology and its applications
CN114429555A (zh) 由粗到细的图像稠密匹配方法、系统、设备及存储介质
Wang et al. A feature-supervised generative adversarial network for environmental monitoring during hazy days
Zhuang et al. A dense stereo matching method based on optimized direction-information images for the real underwater measurement environment
CN113763261B (zh) 一种海雾气象条件下的远小目标实时检测方法
Yang et al. Joint-id: Transformer-based joint image enhancement and depth estimation for underwater environments
CN114120129A (zh) 基于无人机图像和深度学习的滑坡滑移面的三维识别方法
Sravanthi et al. Efficient image-based object detection for floating weed collection with low cost unmanned floating vehicles
CN111563423A (zh) 基于深度去噪自动编码器的无人机图像目标检测方法及系统
CN117133041A (zh) 一种基于深度学习的三维重建网络人脸识别方法、系统、设备及介质
Jiang et al. Coral detection, ranging, and assessment (CDRA) algorithm-based automatic estimation of coral reef coverage
Yu et al. Visual Perception and Control of Underwater Robots
CN115187959B (zh) 一种基于双目视觉的飞行汽车山地着陆方法及系统
Gonzalez-Huitron et al. Jaccard distance as similarity measure for disparity map estimation
CN110147715A (zh) 一种视网膜OCT图像Bruch膜开角自动检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant