CN110765865A - 基于改进的yolo算法的水下目标检测方法 - Google Patents
基于改进的yolo算法的水下目标检测方法 Download PDFInfo
- Publication number
- CN110765865A CN110765865A CN201910879419.1A CN201910879419A CN110765865A CN 110765865 A CN110765865 A CN 110765865A CN 201910879419 A CN201910879419 A CN 201910879419A CN 110765865 A CN110765865 A CN 110765865A
- Authority
- CN
- China
- Prior art keywords
- target
- underwater
- yolo algorithm
- detected
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于改进的YOLO算法的水下目标检测方法,所述检测方法对YOLO算法进行了改进,使用1*1*4的重组层代替原来位置的2*2*1的池化层,使用损失函数对待检测目标的长宽比信息进行处理,使用改进的YOLO算法对标注文件进行深度网络训练,从而获得检测模型权重,使用检测模型权重,对待检测目标的水下画面进行测试,输出待检测目标的位置信息和分类信息。本发明使用重组层提高了检测速度,保留了水下图像的细节特征,也降低了图像维度。本发明提供的损失函数,对于水下场景之中物体经常发生旋转侧翻等情况的识别具有很好的检测效果。另外,新的损失函数将物体的长宽比信息加入到损失函数之中,减少了送入训练的图像,增强了模型的鲁棒性。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于改进的YOLO算法的水下目标检测方法。
背景技术
当前人工智能在图像目标检测的领域应用十分广泛,其中就有yolo算法等通过神经网络训练的方式进行检测,并且yolo算法实现的是端到端的检测,也就是说每次送入yolo算法的图片,网络会为它生成许多可能存在目标物体的候选框的同时,给出此框内存在目标物体的置信度。这样的方式满足了实时性的需求,称为端到端。Yolo算法依赖的网络结构有个单独的名字叫Darknet,是一个74层的结构。
申请号为:201811621484.6专利名称为:基于YOLO框架的目标检测方法的申请专利,也对yolo算法进行了改进,它对输入图片进行旋转、裁剪、拉伸,使得送入训练的图片更丰富,也使得模型更鲁棒,但是这又增重了机器训练所需要的时间和计算资源。
发明内容
为解决现有技术存在的局限和缺陷,本发明提供一种基于改进的YOLO算法的水下目标检测方法,包括:
使用水下移动机器人平台采集水下画面,对待检测目标进行图像拍摄;
从拍摄的图像之中获取目标图像,所述目标图像为包含所述待检测目标的图像;
对所述目标图像进行数据标注,形成YOLO网络训练适用格式的标注文件;
对YOLO算法进行改进,使用1*1*4的重组层代替原来位置的2*2*1的池化层,使用损失函数对所述待检测目标的长宽比信息进行处理,以减少送入训练的图像;
使用改进的YOLO算法对所述标注文件进行深度网络训练,以获得检测模型权重;
使用所述检测模型权重,对所述待检测目标的水下画面进行测试,输出所述待检测目标的位置信息和分类信息。
可选的,还包括:
使用1*1*n的卷积核代替原来的池化卷积核。
可选的,还包括:
给所述损失函数加入候选框bounding-box,用于对所述待检测目标的长宽比进行计算。
可选的,所述标注文件包括所述待检测目标的中心点坐标和长宽比信息,所述中心点坐标和所述长宽比信息均为归一化之后的数值。
可选的,所述使用改进的YOLO算法对所述标注文件进行深度网络训练,以获得检测模型权重的步骤包括:
根据所述损失函数观察损失数值;
当所述损失数值落入预设的范围之内时,获得检测模型权重。
可选的,还包括:
将采集的水下画面传入至卷积神经网络,将所述水下画面分割成s*s的网格;
所述s*s的网格之中的每个网格生成不同长宽比的候选框bounding-box;
对所述候选框bounding-box进行卷积层的处理,获得分类结果class和对应的置信度confidence。
可选的,所述损失函数的计算公式如下:
其中,(x,y)表示在图像分割形成的S2个待检区域之中,第i个区域的中心坐标;B表示分类目标的总数;Ci表示预测的目标分类;pi为预测类的概率;λcoord表示目标存在时,位置与分类的损失权重;λnoobj表示目标不存在时,对于判断结果是否准确的权重。
可选的,还包括:
使用目标函数进行聚类,所述目标函数表示如下:
其中,Box[i]表示当前类别目标待聚类的初始框,TBox[j]表示当前类别目标第j个对象真实框的大小,IOU表示两者之间的交并比。
本发明具有下述有益效果:
本发明提供的基于改进的YOLO算法的水下目标检测方法,对YOLO算法进行了改进,使用1*1*4的重组层代替原来位置的2*2*1的池化层,使用损失函数对待检测目标的长宽比信息进行处理,使用改进的YOLO算法对标注文件进行深度网络训练,从而获得检测模型权重,使用检测模型权重,对待检测目标的水下画面进行测试,输出待检测目标的位置信息和分类信息。本发明提供的技术方案使用重组层提高了检测速度,保留了水下图像的细节特征,也降低了图像维度。本发明提供新的损失函数,对于水下场景之中物体经常发生旋转侧翻等情况的识别具有很好的检测效果。另外,新的损失函数将物体的长宽比信息加入到损失函数之中,减少了送入训练的图像,增强了模型的鲁棒性。
附图说明
图1为本发明实施例一提供的重组层示意图。
图2为本发明实施例一提供的改进的YOLO算法的网络模型示意图。
图3为本发明实施例一提供的目标标定示意图。
图4为本发明实施例一提供的标定信息的存储代码示意图。
图5为本发明实施例一提供的损失函数的损失曲线示意图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图对本发明提供的基于改进的YOLO算法的水下目标检测方法进行详细描述。
实施例一
图1为本发明实施例一提供的重组层示意图。图2为本发明实施例一提供的改进的YOLO算法的网络模型示意图。如图1-2所示,如何使用yolo算法对水下目标进行检测,本实施例将这整个过程详细描述如下:
本实施例提供了一种基于改进的YOLO算法的水下目标检测方法,具体为:
使用水下移动机器人平台采集水下画面,本实施例以水中游泳的运动员为待检测目标,对上述待检测目标拍摄图像。对拍摄的图像之中包含有待检测目标(运动员)的图像进行数据标注。本实施例使用软件LabelImg进行数据标注,从而形成yolo网络训练适用格式的标注文件。
本实施例使用改进后的YOLO算法对标注后的图像进行深度网络训练,训练得到检测模型权重。在测试场景之中,使用上述模型权重对待测试的水下画面进行测试,输出目标物体的位置信息和分类信息。本实施例提供的技术方案使用重组层提高了检测速度,保留了水下图像的细节特征,也降低了图像维度。本实施例提供新的损失函数,对于水下场景之中物体经常发生旋转侧翻等情况的识别具有很好的检测效果。另外,新的损失函数将物体的长宽比信息加入到损失函数之中,减少了送入训练的图像,增强了模型的鲁棒性。
本实施例对YOLO算法进行改进的具体过程如下:卷积神经网络传入上传的采集到的水下图片,图片之中包含待检测物体(运动员),将图像分割成s*s的网格。在s*s的网格之中,每个网格会生成几个不同长宽比的候选框bounding-box,对这些候选框进行卷积层的处理之后,获得一个分类结果class和对应的置信度confidence。
在上述一系列卷积操作之中,原来网络算法使用了池化(例如使用2*2的卷积核)操作来缩小输入下一层网络的图像尺寸,加速训练。本实施例提供的改进算法使用重组层(例如使用1*1的卷积核)代替池化层,保留了图像之中的所有像素点的特征,防止水下图像细节信息的丢失。
本实施例中,网络算法在得到了分类结果class和候选框bounding-box之后,使用一个loss函数来对每一轮训练的结果进行评价,损失反映的是本次预测到的候选框bounding-box之中物体的分类结果,以及候选框的位置与真实物体的类别和真实框的位置之间的差异,损失越小表示训练的越好,因此训练过程也是朝着损失值减小的方向进行的。
本实施例提供的改进的YOLO算法是在loss函数中新加入了一项其反映的是候选框的对角线长度与真实框的对角线长度之差,目的就是防止由于水下物体和摄像平台可能会由于水波的影响造成一定的旋转和侧翻导致的损失值不能评价到反映检测效果。
参见图2,原来的YOLO模型利用池化层完成降采样,在2×2大小的特征区域内,取极大值代替其他值。池化的本质是数据删减,水下环境复杂,池化的降采样方式无疑会造成特征信息的大量丢失,此时使用特征重组来代替原来算法中的池化操作,即将原来2×2×1区域内的特征拉伸成为1×1×4的特征。
图3为本发明实施例一提供的目标标定示意图。如图3所示,对于水下图像模糊的问题,本实施例在YOLO网络原型的基础上,将深层特征与低层特征进行多级融合,以获取更详尽的特征描述,充分利用卷积过程中生成的信息,增加算法的鲁棒性。
由于YOLO网络在训练时只考虑计算目标长宽的损失,它的泛化能力较弱,对于成像角度发生变化的物体,原始的YOLO网络会出现错误分类或无法检测出目标的问题。本实施例重新定义网络训练时的损失函数,将原网络中针对长宽的回归损失定义成计算区域对角线的损失,增强了深度学习网络对于目标旋转的处理能力。改进网络的损失函数如下:
其中,(x,y)表示在图像分割形成的S2个待检区域之中,第i个区域的中心坐标;B表示分类目标的总数;Ci表示预测的目标分类;pi为预测类的概率;λcoord表示目标存在时,位置与分类的损失权重;λnoobj表示目标不存在时,对于判断结果是否准确的权重。在训练过程之中,λcoord=λnoobj=0.5。
图4为本发明实施例一提供的标定信息的存储代码示意图。图5为本发明实施例一提供的损失函数的损失曲线示意图。利用labelImg图像标注工具对运动员所在位置和分类进行标注,标注图像如图4所示。labelImg工具生成xml文件,存储目标分类、目标位置、图像大小等数据,存储形式如图5所示。
在网络训练时,需要通过不断地调整预测框,使其接近真实值。为了加快训练的过程,在训练开始前,需要预设初始的预测框的大小与数量。选择合适的初始框,不仅能够加快损失函数的收敛速度,还可以增加检测算法的准确度。本实施例针对水下运动物体的特点,在预测初始框大小时,引入K均值聚类算法。通过聚类,在训练集中首先生成与三类目标最相近的初始框。其中,对于初始框的聚类,其目标函数表示为:
其中,Box[i]表示当前类别目标待聚类的初始框,TBox[j]表示当前类别目标第j个对象真实框的大小,IOU表示两者之间的交并比。当计算获得新的中心位置与上一次的中心位置之间距离小于设定的阈值,或者聚类的总次数达到要求时,停止迭代。
本实施例采集的训练集图像共1000张,包含3类目标共1500个;测试集图像300张,包含3类目标共600个,并将数据集进行训练,获得目标检测网络。训练时,输入图片的尺寸设定为608×608,每次随机选取32张图片,分8次输入网络进行训练,训练次数设定为20000次。网络训练结束后,分析其损失误差。可以看出,本实施例提供的技术方案使用重组层提高了检测速度,保留了水下图像的细节特征,也降低了图像维度。本实施例提供新的损失函数,对于水下场景之中物体经常发生旋转侧翻等情况的识别具有很好的检测效果。另外,新的损失函数将物体的长宽比信息加入到损失函数之中,减少了送入训练的图像,增强了模型的鲁棒性。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (8)
1.一种基于改进的YOLO算法的水下目标检测方法,其特征在于,包括:
使用水下移动机器人平台采集水下画面,对待检测目标进行图像拍摄;
从拍摄的图像之中获取目标图像,所述目标图像为包含所述待检测目标的图像;
对所述目标图像进行数据标注,形成YOLO网络训练适用格式的标注文件;
对YOLO算法进行改进,使用1*1*4的重组层代替原来位置的2*2*1的池化层,使用损失函数对所述待检测目标的长宽比信息进行处理,以减少送入训练的图像;
使用改进的YOLO算法对所述标注文件进行深度网络训练,以获得检测模型权重;
使用所述检测模型权重,对所述待检测目标的水下画面进行测试,输出所述待检测目标的位置信息和分类信息。
2.根据权利要求1所述的基于改进的YOLO算法的水下目标检测方法,其特征在于,还包括:
使用1*1*n的卷积核代替原来的池化卷积核。
3.根据权利要求1所述的基于改进的YOLO算法的水下目标检测方法,其特征在于,还包括:
给所述损失函数加入候选框bounding-box,用于对所述待检测目标的长宽比进行计算。
4.根据权利要求1所述的基于改进的YOLO算法的水下目标检测方法,其特征在于,所述标注文件包括所述待检测目标的中心点坐标和长宽比信息,所述中心点坐标和所述长宽比信息均为归一化之后的数值。
5.根据权利要求1所述的基于改进的YOLO算法的水下目标检测方法,其特征在于,所述使用改进的YOLO算法对所述标注文件进行深度网络训练,以获得检测模型权重的步骤包括:
根据所述损失函数观察损失数值;
当所述损失数值落入预设的范围之内时,获得检测模型权重。
6.根据权利要求1所述的基于改进的YOLO算法的水下目标检测方法,其特征在于,还包括:
将采集的水下画面传入至卷积神经网络,将所述水下画面分割成s*s的网格;
所述s*s的网格之中的每个网格生成不同长宽比的候选框bounding-box;
对所述候选框bounding-box进行卷积层的处理,获得分类结果class和对应的置信度confidence。
7.根据权利要求1所述的基于改进的YOLO算法的水下目标检测方法,其特征在于,所述损失函数的计算公式如下:
其中,(x,y)表示在图像分割形成的S2个待检区域之中,第i个区域的中心坐标;B表示分类目标的总数;Ci表示预测的目标分类;pi为预测类的概率;λcoord表示目标存在时,位置与分类的损失权重;λnoobj表示目标不存在时,对于判断结果是否准确的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910879419.1A CN110765865B (zh) | 2019-09-18 | 2019-09-18 | 基于改进的yolo算法的水下目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910879419.1A CN110765865B (zh) | 2019-09-18 | 2019-09-18 | 基于改进的yolo算法的水下目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110765865A true CN110765865A (zh) | 2020-02-07 |
CN110765865B CN110765865B (zh) | 2022-06-28 |
Family
ID=69330396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910879419.1A Active CN110765865B (zh) | 2019-09-18 | 2019-09-18 | 基于改进的yolo算法的水下目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110765865B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325177A (zh) * | 2020-03-04 | 2020-06-23 | 南京红松信息技术有限公司 | 基于权重自定义的目标检测分式识别方法 |
CN111476160A (zh) * | 2020-04-07 | 2020-07-31 | 杭州视在科技有限公司 | 损失函数优化方法、模型训练方法、目标检测方法及介质 |
CN111626120A (zh) * | 2020-04-24 | 2020-09-04 | 南京理工大学 | 工业环境下基于改进的yolo-6d算法的目标检测方法 |
CN111898651A (zh) * | 2020-07-10 | 2020-11-06 | 江苏科技大学 | 一种基于Tiny YOLOV3算法的树木检测方法 |
CN112329768A (zh) * | 2020-10-23 | 2021-02-05 | 上善智城(苏州)信息科技有限公司 | 一种基于改进的yolo的加油站卸油停车牌标志的识别方法 |
CN112597906A (zh) * | 2020-12-25 | 2021-04-02 | 杭州电子科技大学 | 一种基于退化先验的水下目标检测方法 |
CN113971667A (zh) * | 2021-11-02 | 2022-01-25 | 上海可明科技有限公司 | 一种仓储环境手术器械目标检测模型训练及优化方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239803A (zh) * | 2017-07-21 | 2017-10-10 | 国家海洋局第海洋研究所 | 利用深度学习神经网络的海底底质自动分类方法 |
US20180285715A1 (en) * | 2017-03-28 | 2018-10-04 | Samsung Electronics Co., Ltd. | Convolutional neural network (cnn) processing method and apparatus |
CN108985274A (zh) * | 2018-08-20 | 2018-12-11 | 上海磐波智能科技有限公司 | 水面异物识别方法 |
CN109299697A (zh) * | 2018-09-30 | 2019-02-01 | 泰山学院 | 基于水声通信调制方式识别的深度神经网络系统及方法 |
CN109919108A (zh) * | 2019-03-11 | 2019-06-21 | 西安电子科技大学 | 基于深度哈希辅助网络的遥感图像快速目标检测方法 |
EP3509014A1 (en) * | 2018-01-05 | 2019-07-10 | Whirlpool Corporation | Detecting objects in images |
-
2019
- 2019-09-18 CN CN201910879419.1A patent/CN110765865B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180285715A1 (en) * | 2017-03-28 | 2018-10-04 | Samsung Electronics Co., Ltd. | Convolutional neural network (cnn) processing method and apparatus |
CN107239803A (zh) * | 2017-07-21 | 2017-10-10 | 国家海洋局第海洋研究所 | 利用深度学习神经网络的海底底质自动分类方法 |
EP3509014A1 (en) * | 2018-01-05 | 2019-07-10 | Whirlpool Corporation | Detecting objects in images |
CN108985274A (zh) * | 2018-08-20 | 2018-12-11 | 上海磐波智能科技有限公司 | 水面异物识别方法 |
CN109299697A (zh) * | 2018-09-30 | 2019-02-01 | 泰山学院 | 基于水声通信调制方式识别的深度神经网络系统及方法 |
CN109919108A (zh) * | 2019-03-11 | 2019-06-21 | 西安电子科技大学 | 基于深度哈希辅助网络的遥感图像快速目标检测方法 |
Non-Patent Citations (3)
Title |
---|
HAQUE M F ET AL: "Object Detection System using YOLO-based Feature Filter Banks", 《PROCEEDINGS OF KIIT CONFERENCE》 * |
SIMOSERRA E ET AL: "Discriminative learning of deep convolutional feature point descriptors", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
杨雪旗等: "基于YOLO网络的人体跌倒检测方法", 《扬州大学学报(自然科学版)》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325177A (zh) * | 2020-03-04 | 2020-06-23 | 南京红松信息技术有限公司 | 基于权重自定义的目标检测分式识别方法 |
CN111476160A (zh) * | 2020-04-07 | 2020-07-31 | 杭州视在科技有限公司 | 损失函数优化方法、模型训练方法、目标检测方法及介质 |
CN111626120A (zh) * | 2020-04-24 | 2020-09-04 | 南京理工大学 | 工业环境下基于改进的yolo-6d算法的目标检测方法 |
CN111626120B (zh) * | 2020-04-24 | 2023-08-22 | 南京理工大学 | 工业环境下基于改进的yolo-6d算法的目标检测方法 |
CN111898651A (zh) * | 2020-07-10 | 2020-11-06 | 江苏科技大学 | 一种基于Tiny YOLOV3算法的树木检测方法 |
CN111898651B (zh) * | 2020-07-10 | 2023-09-26 | 江苏科技大学 | 一种基于Tiny YOLOV3算法的树木检测方法 |
CN112329768A (zh) * | 2020-10-23 | 2021-02-05 | 上善智城(苏州)信息科技有限公司 | 一种基于改进的yolo的加油站卸油停车牌标志的识别方法 |
CN112597906A (zh) * | 2020-12-25 | 2021-04-02 | 杭州电子科技大学 | 一种基于退化先验的水下目标检测方法 |
CN112597906B (zh) * | 2020-12-25 | 2024-02-02 | 杭州电子科技大学 | 一种基于退化先验的水下目标检测方法 |
CN113971667A (zh) * | 2021-11-02 | 2022-01-25 | 上海可明科技有限公司 | 一种仓储环境手术器械目标检测模型训练及优化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110765865B (zh) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110765865B (zh) | 基于改进的yolo算法的水下目标检测方法 | |
CN109766830B (zh) | 一种基于人工智能图像处理的舰船目标识别系统及方法 | |
CN109934121B (zh) | 一种基于YOLOv3算法的果园行人检测方法 | |
CN113705478B (zh) | 一种基于改进YOLOv5的红树林单木目标检测方法 | |
CN106960195B (zh) | 一种基于深度学习的人群计数方法及装置 | |
CN109815770B (zh) | 二维码检测方法、装置及系统 | |
CN110599451A (zh) | 医学图像病灶检测定位方法、装置、设备及存储介质 | |
CN110059558A (zh) | 一种基于改进ssd网络的果园障碍物实时检测方法 | |
CN108846826A (zh) | 物体检测方法、装置、图像处理设备及存储介质 | |
US20130251246A1 (en) | Method and a device for training a pose classifier and an object classifier, a method and a device for object detection | |
CN109697441B (zh) | 一种目标检测方法、装置及计算机设备 | |
CN110647802A (zh) | 基于深度学习的遥感影像舰船目标检测方法 | |
CN110766041A (zh) | 一种基于深度学习的害虫检测方法 | |
CN111967464B (zh) | 一种基于深度学习的弱监督目标定位方法 | |
CN112927279A (zh) | 一种图像深度信息生成方法、设备及存储介质 | |
CN113223027A (zh) | 基于PolarMask的未成熟柿子分割方法及系统 | |
CN113706579A (zh) | 一种基于工厂化养殖的对虾多目标跟踪系统及方法 | |
CN114399799A (zh) | 一种基于YOLOv5网络的口罩佩戴检测方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
Fan et al. | A novel sonar target detection and classification algorithm | |
CN114565824A (zh) | 基于全卷积网络的单阶段旋转舰船检测方法 | |
CN116912675A (zh) | 一种基于特征迁移的水下目标检测方法及系统 | |
CN116091784A (zh) | 一种目标跟踪方法、设备及存储介质 | |
CN115171011A (zh) | 一种多类别建材视频计数方法及系统、计数设备 | |
CN116385915A (zh) | 一种基于时空信息融合的水面漂浮物目标检测与跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |