CN112949385B - 一种基于光视觉的水面目标检测与识别方法 - Google Patents

一种基于光视觉的水面目标检测与识别方法 Download PDF

Info

Publication number
CN112949385B
CN112949385B CN202110092334.6A CN202110092334A CN112949385B CN 112949385 B CN112949385 B CN 112949385B CN 202110092334 A CN202110092334 A CN 202110092334A CN 112949385 B CN112949385 B CN 112949385B
Authority
CN
China
Prior art keywords
target object
deep learning
learning model
target
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110092334.6A
Other languages
English (en)
Other versions
CN112949385A (zh
Inventor
王银涛
张冰
闫峥
贾晓宝
严卫生
崔荣鑫
张守旭
李宏
王崇武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110092334.6A priority Critical patent/CN112949385B/zh
Publication of CN112949385A publication Critical patent/CN112949385A/zh
Application granted granted Critical
Publication of CN112949385B publication Critical patent/CN112949385B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于光视觉的水面目标检测与识别方法,首先使用ZED双目立体相机建立目标物体数据集,然后使用LabelImg工具对目标标定位置和类别,接下来使用K‑means聚类方法对边界框进行聚类,聚类完成后训练YOLOv4深度学习模型,再对YOLOv4深度学习模型进行稀疏训练和剪枝处理,得到最终的YOLOv4深度学习模型。本发明针对传统的目标检测的算法精度不高的问题,从两个方面对模型进行了优化,提高了目标检测和识别的精确度。

Description

一种基于光视觉的水面目标检测与识别方法
技术领域
本发明属于模式识别技术领域,具体涉及一种水面目标检测与识别方法。
背景技术
随着人类社会的发展,陆地资源的消耗速度大大加快,而海洋下面蕴藏的资源就成了全世界关注的焦点。也正是如此海洋主权的安全也成为我们要重点关注的问题,高效、精确的目标检测技术成为保卫海洋主权安全很重要的一个方面。
近几年,目标检测与识别无论在民用领域还是军用领域都是一个受人关注的热点问题,而海面环境复杂多变,对于目标的检测与识别难度很大。传统的目标检测算法是基于滑动窗口进行目标的确定,其时间复杂度高,而且没有针对性,鲁棒性差,不能实现对目标在复杂环境下的准确检测,同时在实时性方面也存在问题,故采用基于深度学习的目标检测算法实现对水面目标的高效检测与识别。常用的基于深度学习的目标检测算法主要有两种,一阶算法和二阶算法,二阶算法主要是R-CNN系列算法,该类算法的检测流程分为两步:提取候选区域和目标分类;一阶算法则主要包括YOLO 系列算法,其采用的是端到端的模型结构,将目标检测问题转换为回归问题,直接对目标进行检测与识别,提高了目标检测的速度。其中YOLOv4算法相较于其他算法运算速度快,检测率高,并且在单块GPU的情况下就可以训练出一个性能出色的模型,适合在复杂多变的水面环境中对目标进行检测与识别。
发明内容
为了克服现有技术的不足,本发明提供了一种基于光视觉的水面目标检测与识别方法,首先使用ZED双目立体相机建立目标物体数据集,然后使用LabelImg工具对目标标定位置和类别,接下来使用K-means聚类方法对边界框进行聚类,聚类完成后训练YOLOv4深度学习模型,再对YOLOv4深度学习模型进行稀疏训练和剪枝处理,得到最终的YOLOv4深度学习模型。本发明针对传统的目标检测的算法精度不高的问题,从两个方面对模型进行了优化,提高了目标检测和识别的精确度。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:使用ZED双目立体相机采集多幅目标物体图像;将采集到的目标物体图像分成多个集合,对目标物体图像进行预处理,同一个集合内的目标物体图像采用的预处理方法相同;预处理方法包括但不限于剪裁、拼接、高斯噪声和模糊处理;经过预处理的目标物体图像构成目标物体数据集;
步骤2:使用LabelImg工具对目标物体数据集的图像进行标定;
步骤2-1:将目标物体数据集图像导入标定工具LabelImg中;
步骤2-2:通过LabelImg工具对目标物体的位置和种类进行标定,得到与原始图像相同文件名的xml格式文件;将目标最小外接矩形作为边界框,所标定目标物体的位置数据为边界框四角的坐标;
步骤3:使用K-means聚类方法对边界框进行聚类;
步骤3-1:将边界框四角的坐标转换为边界框的长宽信息,具体为:用边界框右下角点横坐标减去左上角横坐标得到边界框的长,右下角纵坐标减去左上角纵坐标得到边界框的宽;
步骤3-2:定义K个锚框,随机选取K个边界框;K个锚框的长宽分别与随机选取的K个边界框的长宽相同;
步骤3-3:计算所有边界框分别与K个锚框的交并比值IOU,再计算误差;
设定d表示误差,公式如下:
d(box,centr)=1-IOU(box,centr) (1)
式中:box表示边界框,centr表示锚框;
步骤3-4:对于每个边界框,对该边界框与K个锚框的误差进行排序,将该边界框与最小误差对应的锚框分为一类;则将所有边界框分为K类;
步骤3-5:求取每一类中所有边界框的长宽均值作为新的锚框长宽;共生产K个新的锚框;
步骤3-6:重复步骤3-3到步骤3-5,直至边界框的分类不再发生变化,完成边界框的聚类;
步骤4:训练YOLOv4深度学习模型;
以目标物体数据集作为YOLOv4深度学习模型的训练样本,步骤2标定的目标物体的种类和步骤3聚类的目标边界框作为标签,对YOLOv4深度学习模型进行训练,设定学习率和损失函数,当损失函数值最小时的权重作为最终的YOLOv4深度学习模型权重;
步骤5:对YOLOv4深度学习模型进行稀疏训练和剪枝处理;
步骤5-1:设定稀疏率s值,对YOLOv4深度学习模型稀疏训练;
步骤5-2:对YOLOv4深度学习模型进行剪枝处理:在层剪枝时,设定剪掉12个shortcut,相当于剪掉36层;在通道剪枝时,选择剪枝率最高的策略,剪枝力度设定为 0.8;
步骤5-3:再以目标物体数据集作为训练样本,步骤2标定的目标种类和步骤3聚类的目标边界框作为标签,对经过稀疏训练和剪枝处理的YOLOv4深度学习模型进行训练,得到最终的YOLOv4深度学习模型;
步骤6:将待检测图像输入最终的YOLOv4深度学习模型,进行目标检测与识别。
优选地,所述稀疏率s=0.001。
本发明的有益效果如下:
本发明针对传统的目标检测的算法精度不高的问题,提出了基于深度学习实现水面目标检测与识别,从两个方面对模型进行了优化,提高了目标检测和识别的精确度。
附图说明
图1为本发明方法的流程图。
图2是本发明方法的检测与识别效果图。
图3是本发明实施例的xml格式文件。
图4是本发明实施例的ROS操作系统节点图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1所示,一种基于光视觉的水面目标检测与识别方法,包括以下步骤:
步骤1:使用ZED双目立体相机采集多幅目标物体图像;将采集到的目标物体图像分成多个集合,对目标物体图像进行预处理,同一个集合内的目标物体图像采用的预处理方法相同;预处理方法包括但不限于剪裁、拼接、高斯噪声和模糊处理;经过预处理的目标物体图像构成目标物体数据集;
步骤2:使用LabelImg工具对目标物体数据集的图像进行标定;
步骤2-1:将目标物体数据集图像导入标定工具LabelImg中;
步骤2-2:通过LabelImg工具对目标物体的位置和种类进行标定,得到与原始图像相同文件名的xml格式文件,如图3所示;将目标最小外接矩形作为边界框,所标定目标物体的位置数据为边界框四角的坐标;
步骤3:使用K-means聚类方法对边界框进行聚类;
步骤3-1:将边界框四角的坐标转换为边界框的长宽信息,具体为:用边界框右下角点横坐标减去左上角横坐标得到边界框的长,右下角纵坐标减去左上角纵坐标得到边界框的宽;
步骤3-2:定义K个锚框,随机选取K个边界框;K个锚框的长宽分别与随机选取的K个边界框的长宽相同;
步骤3-3:计算所有边界框分别与K个锚框的交并比值IOU,再计算误差;
设定d表示误差,公式如下:
d(box,centr)=1-IOU(box,centr) (1)
式中:box表示边界框,centr表示锚框;
步骤3-4:对于每个边界框,对该边界框与K个锚框的误差进行排序,将该边界框与最小误差对应的锚框分为一类;则将所有边界框分为K类;
步骤3-5:求取每一类中所有边界框的长宽均值作为新的锚框长宽;共生产K个新的锚框;
步骤3-6:重复步骤3-3到步骤3-5,直至边界框的分类不再发生变化,完成边界框的聚类;
步骤4:训练YOLOv4深度学习模型;
以目标物体数据集作为YOLOv4深度学习模型的训练样本,步骤2标定的目标物体种类和步骤3聚类的目标边界框作为标签,对YOLOv4深度学习模型进行训练,设定学习率和损失函数,当损失函数值最小时的权重作为最终的YOLOv4深度学习模型权重;
步骤5:对YOLOv4深度学习模型进行稀疏训练和剪枝处理;
步骤5-1:设定稀疏率s值,对YOLOv4深度学习模型稀疏训练;
步骤5-2:对YOLOv4深度学习模型进行剪枝处理:在层剪枝时,设定剪掉12个shortcut,相当于剪掉36层;在通道剪枝时,选择剪枝率最高的策略,剪枝力度设定为 0.8;
步骤5-3:再以目标物体数据集作为训练样本,步骤2标定的目标物体种类和步骤3聚类的目标边界框作为标签,对经过稀疏训练和剪枝处理的YOLOv4深度学习模型进行训练,得到最终的YOLOv4深度学习模型;
步骤6:将待检测图像输入最终的YOLOv4深度学习模型,进行目标检测与识别。
步骤7:将YOLOv4与ROS操作系统相结合,形成基于YOLOv4的目标检测ROS 包,整个目标检测系统是在ROS系统下开发的,主要是通过节点和主题来完成信息的传递,建立ZED相机节点和目标检测与识别节点,通过发布和接收主题来进行信息交流,实现实时目标检测与识别功能。
具体实施例:
1、采集目标物体数据集,对图片进行预处理。采集目标物体数据集时使用ZED 双目立体相机进行采集。预处理的时候选取数据集中的部分图片对其分别进行剪裁、拼接、高斯噪声、模糊处理等一系列处理方法,丰富数据集的同时增强目标检测的鲁棒性。
2、采用步骤2和步骤3完成对边界框的聚类。
3、利用YOLOv4深度学习模型对数据集进行训练。
修改学习率和迭代次数,通过深度学习网络迭代训练得出权重文件。基于 YOLOv4源码训练,使用CSPDarknet-53基础网络提取特征,对配置文件中的相应参数进行设置:GPU=1,CUDNN=1,CUDNN-HALF=1,OPENCV=1;在配置文件中, batch值和subdivisions值经多次实验找出最匹配的组合,设定batch值为64, subdivisions值为8,训练次数max_batches设为30000次。
采用人工调参的方式进行训练。遵循学习率的调整原则,根据训练轮数动态的去设定学习率。一般情况下,在刚开始训练的时候学习率的选择一般为0.1-0.01之间,结合损失函数值和其他指标的变化,逐步降低学习率,一般可以改为原来学习率的0.2 倍或者0.1倍,而在接近训练快要结束时最好的情况是学习率的衰减至少应该在100 倍以上。
依据训练日志,当损失函数的波动变大时,说明学习率太大,需要将学习率减小;而当损失函数稳定的时候,则说明模型网络已经接近收敛或者陷入局部极小,这个时候则可以适当增加学习率。每一次更改学习率之后重新加载之前的权重继续训练。
最后根据可视化的损失函数曲线变化,选取损失函数值最小的权重作为最终的权重文件。
4、对网络结构进行剪枝处理,简化模型体积。。
对已经调优之后的模型进行稀疏训练。首先利用转换脚本将原始的在darknet框架下训练得到的权重文件转换为pytorch版本;在稀疏训练中参数s值决定着稀疏训练的效果,对s赋不同的值进行训练,当s取0.001时,精度和稀疏度的平衡效果最好,故在后续实验中设定s值为0.001,剪枝策略则设定为--prune1,表示适用于其他剪枝策略,训练之后获得best.pt和last.pt文件。
在稀疏训练的基础上进行剪枝操作,对模型进行层与通道同时剪枝的操作。在操作过程中需要不断调整相关参数进行训练选择效果最好的组合。最终在层剪枝时,设定剪掉12个shortcut,相当于剪掉36层。在通道剪枝时,选择剪枝率最高的策略,剪枝力度根据效果最终选择0.8。同时剪层和通道时,对模型从宽度和深度都有所调整,对比效果确定参数设置。当利用以上的剪枝操作分别对best.pt和last.pt文件进行试验,对比结果发现last.pt文件效果优于best.pt文件,故最终对last.pt文件进行剪枝。
对剪枝之后的模型采用和前面同样的训练样本进行微调训练。剪枝之后有可能会对检测精度有损害,所以需要微调让精度回升,训练轮数设定为100次,在实际训练过程中40轮的时候精度基本和之前一致。
5、利用训练得到的模型进行目标检测与识别的测试。

Claims (2)

1.一种基于光视觉的水面目标检测与识别方法,其特征在于,包括以下步骤:
步骤1:使用ZED双目立体相机采集多幅目标物体图像;将采集到的目标物体图像分成多个集合,对目标物体图像进行预处理,同一个集合内的目标物体图像采用的预处理方法相同;预处理方法包括但不限于剪裁、拼接、高斯噪声和模糊处理;经过预处理的目标物体图像构成目标物体数据集;
步骤2:使用LabelImg工具对目标物体数据集的图像进行标定;
步骤2-1:将目标物体数据集图像导入标定工具LabelImg中;
步骤2-2:通过LabelImg工具对目标物体的位置和种类进行标定,得到与原始图像相同文件名的xml格式文件;将目标最小外接矩形作为边界框,所标定目标物体的位置数据为边界框四角的坐标;
步骤3:使用K-means聚类方法对边界框进行聚类;
步骤3-1:将边界框四角的坐标转换为边界框的长宽信息,具体为:用边界框右下角点横坐标减去左上角横坐标得到边界框的长,右下角纵坐标减去左上角纵坐标得到边界框的宽;
步骤3-2:定义K个锚框,随机选取K个边界框;K个锚框的长宽分别与随机选取的K个边界框的长宽相同;
步骤3-3:计算所有边界框分别与K个锚框的交并比值IOU,再计算误差;
设定d表示误差,公式如下:
d(box,centr)=1-IOU(box,centr) (1)
式中:box表示边界框,centr表示锚框;
步骤3-4:对于每个边界框,对该边界框与K个锚框的误差进行排序,将该边界框与最小误差对应的锚框分为一类;则将所有边界框分为K类;
步骤3-5:求取每一类中所有边界框的长宽均值作为新的锚框长宽;共生产K个新的锚框;
步骤3-6:重复步骤3-3到步骤3-5,直至边界框的分类不再发生变化,完成边界框的聚类;
步骤4:训练YOLOv4深度学习模型;
以目标物体数据集作为YOLOv4深度学习模型的训练样本,步骤2标定的目标物体的种类和步骤3聚类的目标边界框作为标签,对YOLOv4深度学习模型进行训练,设定学习率和损失函数,当损失函数值最小时的权重作为最终的YOLOv4深度学习模型权重;
步骤5:对YOLOv4深度学习模型进行稀疏训练和剪枝处理;
步骤5-1:设定稀疏率s值,对YOLOv4深度学习模型稀疏训练;
步骤5-2:对YOLOv4深度学习模型进行剪枝处理:在层剪枝时,设定剪掉12个shortcut,相当于剪掉36层;在通道剪枝时,选择剪枝率最高的策略,剪枝力度设定为0.8;
步骤5-3:再以目标物体数据集作为训练样本,步骤2标定的目标种类和步骤3聚类的目标边界框作为标签,对经过稀疏训练和剪枝处理的YOLOv4深度学习模型进行训练,得到最终的YOLOv4深度学习模型;
步骤6:将待检测图像输入最终的YOLOv4深度学习模型,进行目标检测与识别。
2.根据权利要求1所述的一种基于光视觉的水面目标检测与识别方法,其特征在于,所述稀疏率s=0.001。
CN202110092334.6A 2021-01-24 2021-01-24 一种基于光视觉的水面目标检测与识别方法 Active CN112949385B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110092334.6A CN112949385B (zh) 2021-01-24 2021-01-24 一种基于光视觉的水面目标检测与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110092334.6A CN112949385B (zh) 2021-01-24 2021-01-24 一种基于光视觉的水面目标检测与识别方法

Publications (2)

Publication Number Publication Date
CN112949385A CN112949385A (zh) 2021-06-11
CN112949385B true CN112949385B (zh) 2022-12-23

Family

ID=76236147

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110092334.6A Active CN112949385B (zh) 2021-01-24 2021-01-24 一种基于光视觉的水面目标检测与识别方法

Country Status (1)

Country Link
CN (1) CN112949385B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807466B (zh) * 2021-10-09 2023-12-22 中山大学 一种基于深度学习的物流包裹自主检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709489A (zh) * 2020-06-24 2020-09-25 广西师范大学 一种基于改进YOLOv4的柑橘识别方法
CN113344113A (zh) * 2021-06-27 2021-09-03 东南大学 一种基于改进k-means聚类的Yolov3锚框确定方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4241818B2 (ja) * 2006-12-14 2009-03-18 パナソニック電工株式会社 内部検査装置
CN110472572A (zh) * 2019-08-14 2019-11-19 西北工业大学 一种复杂环境下海上目标的快速识别和分类方法
CN112001477A (zh) * 2020-06-19 2020-11-27 南京理工大学 一种基于深度学习的目标检测YOLOv3的模型优化算法
CN112016614B (zh) * 2020-08-27 2022-10-11 北京理工大学 光学图像目标检测模型的构建方法、目标检测方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709489A (zh) * 2020-06-24 2020-09-25 广西师范大学 一种基于改进YOLOv4的柑橘识别方法
CN113344113A (zh) * 2021-06-27 2021-09-03 东南大学 一种基于改进k-means聚类的Yolov3锚框确定方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
YOLOv3通道+层剪枝,参数压缩98%,砍掉48个层,提速2倍!;我爱计算机视觉;《https://blog.csdn.net/moxibingdao/article/details/106667432》;20191126;第1-9页 *
基于SSD-Mobilenet模型的目标检测;刘颜等;《舰船电子工程》;20191020;第39卷(第10期);第52-56页 *
基于YOLOv4改进算法的乒乓球识别;谈小峰等;《科技创新与应用》;20200908(第27期);第74-76页 *
基于改进YOLOv4的果园柑橘检测方法研究;陈文康等;《广西师范大学学报(自然科学版)》;20210925;第39卷(第5期);第134-146页 *
聚类kmeans算法在yolov3中的应用;sdu20112013;《https://www.cnblogs.com/sdu20112013/p/10937717.html》;20190528;第1页 *

Also Published As

Publication number Publication date
CN112949385A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
CN108090902B (zh) 一种基于多尺度生成对抗网络的无参考图像质量客观评价方法
CN110059586B (zh) 一种基于空洞残差注意力结构的虹膜定位分割系统
US7536064B2 (en) Image comparison by metric embeddings
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN110555841B (zh) 基于自注意图像融合和dec的sar图像变化检测方法
CN112149721B (zh) 一种基于主动学习降低标注需求的目标检测方法
CN103093215A (zh) 人眼定位方法及装置
CN109800795A (zh) 一种果蔬识别方法及系统
CN110059625B (zh) 一种基于mixup的人脸训练与识别方法
CN112966759B (zh) 一种基于深度学习的眼底图像识别分类方法
CN114419413A (zh) 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法
CN112949385B (zh) 一种基于光视觉的水面目标检测与识别方法
CN110458019B (zh) 稀缺认知样本条件下的排除倒影干扰的水面目标检测方法
CN111277809A (zh) 一种图像色彩校正方法、系统、设备及介质
CN113657472B (zh) 一种基于子空间学习的多源遥感数据融合方法
CN110533102A (zh) 基于模糊推理的单类分类方法以及分类器
CN114022782A (zh) 一种基于modis卫星数据的海雾探测方法
CN105205485B (zh) 基于多类类间最大方差算法的大尺度图像分割算法
CN117853942A (zh) 用于云雾的识别方法、云雾识别装置及云雾识别系统
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
CN111666999A (zh) 一种遥感图像的分类方法
CN113255704B (zh) 一种基于局部二值模式的像素差卷积边缘检测方法
CN116137043A (zh) 一种基于卷积和Transformer的红外图像彩色化方法
CN115239943A (zh) 图像矫正模型的训练方法及切片图像的色彩矫正方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant