CN114120129A - 基于无人机图像和深度学习的滑坡滑移面的三维识别方法 - Google Patents
基于无人机图像和深度学习的滑坡滑移面的三维识别方法 Download PDFInfo
- Publication number
- CN114120129A CN114120129A CN202111451203.9A CN202111451203A CN114120129A CN 114120129 A CN114120129 A CN 114120129A CN 202111451203 A CN202111451203 A CN 202111451203A CN 114120129 A CN114120129 A CN 114120129A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- image
- semantic segmentation
- landslide
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 230000011218 segmentation Effects 0.000 claims abstract description 76
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims description 64
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 10
- 238000007689 inspection Methods 0.000 claims description 7
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 6
- 230000036544 posture Effects 0.000 description 6
- 238000012512 characterization method Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
基于无人机图像和深度学习的滑坡滑移面的三维识别方法,涉及灾害监测技术领域。本发明是为了解决现有对山体滑坡进行检测的方法对滑移面的具体定位不准确的问题。本发明利用无人机采集被测区域至少5个不同角度的图像作为检测图像,利用语义分割网络对检测图像中所有像素点的类型进行区分,获得语义分割结果,其中像素点的类型包括背景像素点和滑坡滑移面像素点,利用三维重构算法对检测图像进行重构,获得包含滑坡滑移面的三维点云,计算三维点云中任一像素点A在二维平面中的二维坐标,将像素点A在二维平面中的二维坐标带入步骤二获得的语义分割结果中,获得像素点A的类型,将像素点A的类型及像素点A的三维坐标作为滑坡滑移面的三维识别结果。
Description
技术领域
本发明属于灾害监测技术领域,尤其涉及滑坡滑移面的监测。
背景技术
自然灾害的监测对于自然灾害预警与防治有着重要的意义。及时发现自然灾害表征及自然灾害表征的扩大情况对于预防人力、财力损失以及保护生态环境起着不可或缺的作用。在自然灾害中,山体滑坡不仅会破坏表面植被,造成水土流失,破坏自然生态系统,严重的甚至会破坏人工基础设施,造成人员伤亡。在传统的自然灾害与防治学科中,除了人工实地考察外,一般采用固定相机拍摄与人工检查照片相结合的方法。该方法需要较多的人工耗时,且容易发生错判、漏判的现象。除了人工检查照片的方法,也有自动滑坡检查的计算机识别算法。大部分基于计算机识别的滑坡识别算法只能获取对整张图片是否包含滑坡滑移面的标签信息,对于滑移面的具体定位不够准确。
发明内容
本发明是为了解决现有对山体滑坡进行检测的方法对滑移面的具体定位不准确的问题,现提供基于无人机图像和深度学习的滑坡滑移面的三维识别方法。
基于无人机图像和深度学习的滑坡滑移面的三维识别方法,包括:
步骤一:利用无人机采集被测区域至少5个不同角度的图像作为检测图像,
步骤二:利用语义分割网络对检测图像中所有像素点的类型进行区分,获得语义分割结果,其中像素点的类型包括背景像素点和滑坡滑移面像素点,
步骤三:利用三维重构算法对检测图像进行重构,获得包含滑坡滑移面的三维点云,
步骤四:计算三维点云中任一像素点A在二维平面中的二维坐标,
步骤五:将像素点A在二维平面中的二维坐标带入步骤二获得的语义分割结果中,获得像素点A的类型,将像素点A的类型及像素点A的三维坐标作为滑坡滑移面的三维识别结果。
进一步的,上述步骤二中,语义分割网络的语义分割蒙版K的表达式如下:
K=UNet(I),
其中,UNet(·)为语义分割网络,I为检测图像,语义分割蒙版K为由0和1组成的矩阵,其中0表示背景,1表示滑坡滑移面。
进一步的,上述语义分割网络的训练方法为:
进一步的,在无人机获得的所有检测图像中随机选取n个图像作为训练图像,分别对每个训练进行以下处理:
对训练图像标注语义分割蒙版,然后同时对训练图像及其语义分割蒙版进行m次变形,将每次变形后的图像及其语义分割蒙版作为一个样本对,再加上原训练图像以及原训练图像的语义分割蒙版,则每个训练图像对应m+1个样本对,
则n个训练图像一共对应n(m+1)个样本对,将这些样本对作为训练数据集,m和n均为正整数。
进一步的,上述对训练图像及其语义分割蒙版进行变形时的变形函数表达式如下:
其中,为训练图像第j次变形后的结果,为的语义分割蒙版,Ii(x,y)为第i张训练图像,Ki(x,y)为Ii(x,y)的语义分割蒙版,Wj[·]为变形函数,(x,y)为训练图像中像素的坐标,Δx和Δy为像素坐标的变形偏移量,i为训练图像编号,j=1,2,...,m,i=1,2,...,n。
进一步的,采用人工的方式对训练图像标注蒙版。
进一步的,上述步骤三中获得包含滑坡滑移面的三维点云的具体方法为:
通过SURF方法获取每个检测图像的特征点,
对每个检测图像的特征点进行RANSAC匹配,并剔除不匹配的特征点,
使用八点法求得每个检测图像对应的相机姿态,
求解每个检测图像中匹配的特征点的三维空间坐标,
每个检测图像中所有匹配的特征点的三维空间坐标共同构成检测图像包含滑坡滑移面的三维点云。
进一步的,任意选取两个相机姿态,将其中一个相机姿态对应的相机作为参考相机,另一个相机姿态对应的相机作为检测相机,求解检测相机对应检测图像中特征点Q的三维空间坐标XQ的方法为:
建立等式:x2s2=Kc(R2XQ+T2),
对上式左右两边同时叉积x2,之后获得上式的矩阵形式:
通过奇异值分解求解上述矩阵中的XQ,
其中,s2为特征点Q到检测相机光心的距离,Kc为无人机上相机的内参矩阵,R2和T2分别为检测相机相对于参考相机的旋转矩阵和平移矩阵,x2为特征点Q在检测图像中的二维坐标。
进一步的,上述步骤四中根据下式计算三维点云中像素点A在二维平面中的二维坐标xA:
xA=Kc(R2XA+T2),
其中,XA为三维点云中像素点A的三维空间坐标。
本发明提出了基于图像以及深度学习的滑坡滑移面的三维识别方法,有益效果如下:
1、本发明设计了滑坡滑移面二维语义分割网络和滑坡滑移面三维重构来识别滑坡滑移面的空间位置。不仅能够获取滑坡滑移面的三维地形建模,还能够获取三维的滑移面位置坐标。
2、在滑坡滑移面二维语义分割网络Unet中,通过滑坡滑移面随机变形函数,仅使用由少数人工标注图像和语义分类蒙版生成的数据集进行训练。
3、将二维语义分割结果坐标带入三维点云中,避免了直接对三维点云的语义分割的复杂计算情况。
附图说明
图1为本发明所述基于无人机图像和深度学习的滑坡滑移面的三维识别方法的流程图;
图2为训练数据集生成方法的示意图;
图3为三维重建结果示意图;
图4为实施例中真实环境图片;
图5为实施例中滑坡滑移面二维识别结果图;
图6为实施例中滑坡滑移面三维重构结果图;
图7为实施例中滑坡滑移面三维语义分割结果图。
具体实施方式
2012年以来,计算视觉算法和深度学习的飞速发展影响了以视觉为基础的灾害监测学科。深度学习以在纵向深度、以及横向宽度上均远超传统机器学习的算法建立的网络,对大量任务的预测效果都远超传统算法,甚至在很多方面达到或超过人工识别的方法。深度学习的主流训练方法有监督学习、无监督学习以及强化学习,可以完成传统方法难以或无法完成的任务建模,适用于传统方法难以处理的模糊概念。
为此,本实施方式提出了一种基于无人机图像和深度学习的滑坡滑移面三维语义分割识别方法。具体如下:
具体实施方式一:参照图1至图3具体说明本实施方式,本实施方式所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,包括一下步骤:
步骤一:在无人机上设置相机,利用无人机采集被测区域至少5个不同角度的图像作为检测图像。其中,相机每拍摄一张图像都变换一个姿态。
步骤二:首先建立语义分割网络,然后采用有深度学习法对该语义分割网络进行训练,训练方法为:
首先,深度学习的训练方法需要网络输入输出的训练数据集,本实实施方式利用随机变形的方法生成训练数据集。具体的,在无人机获得的所有检测图像中随机选取n个图像作为训练图像,分别对每个训练图像进行以下处理:
如图2所示,采用人工的方式对训练图像标注语义分割蒙版,然后同时对训练图像及其语义分割蒙版分别进行m次变形,对训练图像及其语义分割蒙版进行变形时的变形函数表达式如下:
其中,训练图像第j次变形后的结果,为的语义分割蒙版,Ii(x,y)为第i张训练图像,Ki(x,y)为Ii(x,y)的语义分割蒙版,也就是人工标注的语义分割蒙版,Wj[·]为变形函数,(x,y)为训练图像中像素的坐标,Δx和Δy为像素坐标的变形偏移量,i为训练图像编号,j=1,2,...,m,i=1,2,...,n,m和n均为正整数。
每次变形后获得的图像及其语义分割蒙版均作为一个样本对,则m次变形后能够获得m个样本对,再加上原训练图像以及原训练图像的语义分割蒙版,则有m+1个样本对。
讲过上述处理,那么n个训练图像一共能够获得n(m+1)个样本对,将这些样本对作为训练数据集。
利用训练数据集对语义分割网络进行训练。
当上述近似程度在20次训练内不再继续下降,则完成训练。
像素点的类型包括背景像素点和滑坡滑移面像素点,利用训练好的语义分割网络对检测图像中所有像素点的类型进行区分,获得语义分割结果。
语义分割结果能够用语义分割蒙版K来表示,语义分割网络的语义分割蒙版K的表达式如下:
K=UNet(I),
其中,UNet(·)为语义分割网络,I为检测图像,语义分割蒙版K为由0和1组成的矩阵,其中0表示背景,1表示滑坡滑移面。语语义分割蒙版K在长和宽方向上的图像分辨率相同。
步骤三:利用三维重构算法对检测图像进行重构,获得包含滑坡滑移面的三维点云。
具体的:
通过SURF(Speeded Up Robust Features)方法获取每个检测图像的特征点。
对每个检测图像的特征点进行RANSAC(random sample consensus,随机抽样一致算法)匹配,并剔除不匹配的特征点。
使用八点法求得每个检测图像对应的相机姿态。
任意选取两个相机姿态,将其中一个相机姿态对应的相机作为参考相机,另一个相机姿态对应的相机作为检测相机。无人机上仅有一个相机,由于在拍摄不同角度图像时需要变换不同的姿态,所以这里认为一个姿态对应一个相机。
求解检测相机对应检测图像中特征点Q的三维空间坐标XQ的方法为:
建立等式:x2s2=Kc(R2XQ+T2),
对上式左右两边同时叉积x2,之后获得上式的矩阵形式:
通过奇异值分解求解上述矩阵中的XQ,
其中,s2为特征点Q到检测相机光心的距离,Kc为无人机上相机的内参矩阵,R2和T2分别为检测相机相对于参考相机的旋转矩阵和平移矩阵,x2为特征点Q在检测图像中的二维坐标。
利用上述方法,就能够求解检测图像中所有匹配的特征点的三维空间坐标,并将这些特征点的三维空间坐标共同构成检测图像包含滑坡滑移面的三维点云。
步骤四:根据下式计算三维点云中像素点A在二维平面中的二维坐标xA:
xA=Kc(R2XA+T2),
其中,XA为三维点云中像素点A的三维空间坐标。
步骤五:将像素点A在二维平面中的二维坐标带入步骤二获得的语义分割结果中,获得像素点A的类型,将像素点A的类型及像素点A的三维坐标作为滑坡滑移面的三维识别结果。
步骤五还可以理解为通过二维语义分割结果对三维点云中的点进行了分类。
具体实施例
本实施例以河门口滑坡的真实无人机航拍图像为输入图像,来完成对这一区域的滑坡滑移面三维语义分割识别。
经人工测量,河门口滑坡整体前缘宽366m,纵向长932m。平面面积29.85万平方米,滑坡前缘次级变形体:前缘宽366m,纵向长240m。平面面积6.77万平方米。总体积600万方,次级滑体平均厚度30m,约250万方。本施例通过本发明提供的算法对河门口滑坡的进行三维语义分割的识别。
通过滑移面随机变形方法,生成河门口周围滑坡滑移面的二维语义分割识别结果。真实的输入图片见图4,具体识别的情况参见图5。
使用从运动生成结果方法重建滑坡滑移面周边的地形地貌三维结果,具体情况见图6。
将二维语义分割的滑坡滑移面,通过步骤二中计算的相机空间位置以及焦距等相机内参数投影到滑坡滑移面三维识别结果上,最终获取滑坡滑移面三维语义分割识别结果,见图7。
以上对本发明所提出基于无人机图像、计算机视觉算法和深度学习的滑坡滑移面的三维识别方法,进行了详细介绍,本发明应用了河门口滑坡的三维航拍图片进行了实地验证,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,包括:
步骤一:利用无人机采集被测区域至少5个不同角度的图像作为检测图像,
步骤二:利用语义分割网络对检测图像中所有像素点的类型进行区分,获得语义分割结果,其中像素点的类型包括背景像素点和滑坡滑移面像素点,
步骤三:利用三维重构算法对检测图像进行重构,获得包含滑坡滑移面的三维点云,
步骤四:计算三维点云中任一像素点A在二维平面中的二维坐标,
步骤五:将像素点A在二维平面中的二维坐标带入步骤二获得的语义分割结果中,获得像素点A的类型,将像素点A的类型及像素点A的三维坐标作为滑坡滑移面的三维识别结果。
2.根据权利要求1所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,步骤二中,语义分割网络的语义分割蒙版K的表达式如下:
K=UNet(I),
其中,UNet(·)为语义分割网络,I为检测图像,语义分割蒙版K为由0和1组成的矩阵,其中0表示背景,1表示滑坡滑移面。
5.根据权利要求3所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,在无人机获得的所有检测图像中随机选取n个图像作为训练图像,分别对每个训练进行以下处理:
对训练图像标注语义分割蒙版,然后同时对训练图像及其语义分割蒙版进行m次变形,将每次变形后的图像及其语义分割蒙版作为一个样本对,再加上原训练图像以及原训练图像的语义分割蒙版,则每个训练图像对应m+1个样本对,
则n个训练图像一共对应n(m+1)个样本对,将这些样本对作为训练数据集,m和n均为正整数。
7.根据权利要求5所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,采用人工的方式对训练图像标注蒙版。
8.根据权利要求1所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,步骤三中获得包含滑坡滑移面的三维点云的具体方法为:
通过SURF方法获取每个检测图像的特征点,
对每个检测图像的特征点进行RANSAC匹配,并剔除不匹配的特征点,
使用八点法求得每个检测图像对应的相机姿态,
求解每个检测图像中匹配的特征点的三维空间坐标,
每个检测图像中所有匹配的特征点的三维空间坐标共同构成检测图像包含滑坡滑移面的三维点云。
10.根据权利要求9所述的基于无人机图像和深度学习的滑坡滑移面的三维识别方法,其特征在于,步骤四中根据下式计算三维点云中像素点A在二维平面中的二维坐标xA:
xA=Kc(R2XA+T2),
其中,XA为三维点云中像素点A的三维空间坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111451203.9A CN114120129B (zh) | 2021-11-30 | 2021-11-30 | 基于无人机图像和深度学习的滑坡滑移面的三维识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111451203.9A CN114120129B (zh) | 2021-11-30 | 2021-11-30 | 基于无人机图像和深度学习的滑坡滑移面的三维识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114120129A true CN114120129A (zh) | 2022-03-01 |
CN114120129B CN114120129B (zh) | 2024-05-17 |
Family
ID=80369051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111451203.9A Active CN114120129B (zh) | 2021-11-30 | 2021-11-30 | 基于无人机图像和深度学习的滑坡滑移面的三维识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114120129B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882366A (zh) * | 2022-05-26 | 2022-08-09 | 广州市城市规划勘测设计研究院 | 一种三维场景灾变监控预警方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200402300A1 (en) * | 2019-06-21 | 2020-12-24 | Harbin Institute Of Technology | Terrain modeling method that fuses geometric characteristics and mechanical charateristics, computer readable storage medium, and terrain modeling system thereof |
CN112233124A (zh) * | 2020-10-14 | 2021-01-15 | 华东交通大学 | 基于对抗式学习与多模态学习的点云语义分割方法及系统 |
CN113128405A (zh) * | 2021-04-20 | 2021-07-16 | 北京航空航天大学 | 一种结合语义分割与点云处理的植物识别与模型构建方法 |
US11099275B1 (en) * | 2020-04-29 | 2021-08-24 | Tsinghua University | LiDAR point cloud reflection intensity complementation method and system |
-
2021
- 2021-11-30 CN CN202111451203.9A patent/CN114120129B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200402300A1 (en) * | 2019-06-21 | 2020-12-24 | Harbin Institute Of Technology | Terrain modeling method that fuses geometric characteristics and mechanical charateristics, computer readable storage medium, and terrain modeling system thereof |
US11099275B1 (en) * | 2020-04-29 | 2021-08-24 | Tsinghua University | LiDAR point cloud reflection intensity complementation method and system |
CN112233124A (zh) * | 2020-10-14 | 2021-01-15 | 华东交通大学 | 基于对抗式学习与多模态学习的点云语义分割方法及系统 |
CN113128405A (zh) * | 2021-04-20 | 2021-07-16 | 北京航空航天大学 | 一种结合语义分割与点云处理的植物识别与模型构建方法 |
Non-Patent Citations (2)
Title |
---|
司梦元;刘国强;曾小妮;姜楠;: "基于BIM与现实捕捉技术的桥梁检测关键技术研究", 住宅与房地产, no. 34, 5 December 2019 (2019-12-05) * |
高凯珺;孙韶媛;姚广顺;赵海涛: "基于深度学习的无人车夜视图像语义分割", 应用光学, vol. 38, no. 3, 31 December 2017 (2017-12-31) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882366A (zh) * | 2022-05-26 | 2022-08-09 | 广州市城市规划勘测设计研究院 | 一种三维场景灾变监控预警方法 |
CN114882366B (zh) * | 2022-05-26 | 2023-03-21 | 广州市城市规划勘测设计研究院 | 一种三维场景灾变监控预警方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114120129B (zh) | 2024-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113065558B (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN111311666B (zh) | 一种融合边缘特征和深度学习的单目视觉里程计方法 | |
CN110599537A (zh) | 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统 | |
CN112270249A (zh) | 一种融合rgb-d视觉特征的目标位姿估计方法 | |
JP6397379B2 (ja) | 変化領域検出装置、方法、及びプログラム | |
WO2013020142A2 (en) | Image-based crack detection | |
McKinnon et al. | Towards automated and in-situ, near-real time 3-D reconstruction of coral reef environments | |
CN114241031A (zh) | 基于双视角融合的鱼类体尺测量和体重预测的方法及装置 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN115330876B (zh) | 基于孪生网络和中心位置估计的目标模板图匹配定位方法 | |
Xi et al. | Review of underwater machine vision technology and its applications | |
CN114429555A (zh) | 由粗到细的图像稠密匹配方法、系统、设备及存储介质 | |
Wang et al. | A feature-supervised generative adversarial network for environmental monitoring during hazy days | |
Zhuang et al. | A dense stereo matching method based on optimized direction-information images for the real underwater measurement environment | |
CN113763261B (zh) | 一种海雾气象条件下的远小目标实时检测方法 | |
Yang et al. | Joint-id: Transformer-based joint image enhancement and depth estimation for underwater environments | |
CN114120129A (zh) | 基于无人机图像和深度学习的滑坡滑移面的三维识别方法 | |
Sravanthi et al. | Efficient image-based object detection for floating weed collection with low cost unmanned floating vehicles | |
CN111563423A (zh) | 基于深度去噪自动编码器的无人机图像目标检测方法及系统 | |
CN117133041A (zh) | 一种基于深度学习的三维重建网络人脸识别方法、系统、设备及介质 | |
Jiang et al. | Coral detection, ranging, and assessment (CDRA) algorithm-based automatic estimation of coral reef coverage | |
Yu et al. | Visual Perception and Control of Underwater Robots | |
CN115187959B (zh) | 一种基于双目视觉的飞行汽车山地着陆方法及系统 | |
Gonzalez-Huitron et al. | Jaccard distance as similarity measure for disparity map estimation | |
CN110147715A (zh) | 一种视网膜OCT图像Bruch膜开角自动检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |