CN113807311A - 一种多尺度目标识别方法 - Google Patents

一种多尺度目标识别方法 Download PDF

Info

Publication number
CN113807311A
CN113807311A CN202111149836.4A CN202111149836A CN113807311A CN 113807311 A CN113807311 A CN 113807311A CN 202111149836 A CN202111149836 A CN 202111149836A CN 113807311 A CN113807311 A CN 113807311A
Authority
CN
China
Prior art keywords
feature
feature set
scale
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111149836.4A
Other languages
English (en)
Inventor
郭润泽
苏绍璟
左震
孙备
魏俊宇
孙晓永
郭晓俊
吴鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202111149836.4A priority Critical patent/CN113807311A/zh
Publication of CN113807311A publication Critical patent/CN113807311A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种多尺度目标识别方法,包括:S1,构建神经网络模型;S2,基于训练集对神经网络模型进行训练,得到训练后的神经网络模型;S3,基于测试集和损失函数进行计算得到训练后的神经网络模型的损失值;S4,对损失值进行判断,若损失值小于损失设定值,则执行“S5”,若损失值大于或等于损失设定值,则基于梯度下降算法和验证集调整神经网络模型的超参数,并重新训练,重复执行“S2‑S4”,直至神经网络模型的损失值小于损失设定值;S5,基于训练后的神经网络模型实现目标的检测与定位。本发明能能准确识别目标、实时性高的方法,在处理水上突发情况时,能迅速返回目标的类别和位置。

Description

一种多尺度目标识别方法
技术领域
本发明涉及目标检测技术领域,特别是涉及一种多尺度目标识别方法。
背景技术
水面目标识别技术是无人艇进行环境感知的关键技术,无论是海上环境侦察、海岸线的巡逻、突发情况的预警,还是水面人员救援、障碍物的探测,准确、实时的水面目标识别都发挥着不可替代的作用。近年来,深度卷积神经网络在目标检测、识别领域取得很大的进步,并成功运用到了医疗诊断、人脸识别等领域,在通用特征集上也达到了越来越高的正确率。但是由于水面场景复杂多变、水面目标尺度跨度大、图像分辨率低等问题,水面目标识别仍面临很大的挑战。
鉴于这些需求和问题,在无人艇平台上实现对复杂海面场景运动目标的精准识别是十分必要的。无人艇上通常装有可计算数据的处理器,但受到能耗、空间的限制,使用较大规模的网络模型会带来延迟、卡顿,这也对算法的轻便性、实时性提出了更高的要求。
发明内容
有鉴于此,本发明提供了一种多尺度目标识别方法,能准确识别目标、实时性高的方法,在处理水上突发情况时,能迅速返回目标的类别和位置。
为实现上述目的,本发明提供了如下方案:
一种多尺度目标识别方法,包括:
S1,构建神经网络模型;
S2,基于训练集对所述神经网络模型进行训练,得到训练后的所述神经网络模型;
S3,基于测试集和损失函数进行计算得到训练后的所述神经网络模型的损失值;
S4,对所述损失值进行判断,若所述损失值小于损失设定值,则执行“S5”,若所述损失值大于或等于所述损失设定值,则基于梯度下降算法和验证集调整所述神经网络模型的超参数,并重新训练,重复执行“S2-S4”,直至所述神经网络模型的损失值小于所述损失设定值;
S5,基于训练后的所述神经网络模型实现目标的检测与定位。
优选地,所述神经网络模型包括位置注意力模块、卷积模块、SPP模块、FPN模块和PAN模块。
优选地,所述位置注意力模块对输入的图像进行特征提取得到位置特征集;具体包括:
定义图像的维度是C×H×W,其中C代表图像的通道数,H代表图像的高度,W代表图像的宽度;
基于H×1的卷积核对图像的高度进行平均池化得到垂直坐标集;基于1×W的卷积核对图像的宽度进行平均池化得到水平坐标集;
基于1×1的卷积核和卷积变换函数对所述垂直坐标集和所述水平坐标集进行融合和下采样得到融合坐标集;
基于非线性归一化函数对所述融合特征集进行归一化处理,得到归一化特征集;
对所述归一化特征集进行分解并进行加权处理,得到第一子集和第二子集;
基于Sigmod函数对所述第一子集和所述第二子集进行特征提取,并进行特征融合得到所述位置特征集。
优选地,所述卷积模块对所述位置特征集进行下采样得到第一特征集。
优选地,所述SPP模块对所述第一特征集进行多尺度信息融合得到第二特征集。
优选地,所述FPN模块对所述第二特征集和所述第一特征集由下到上进行特征融合得到第三特征集;
所述FPN模块还对所述第三特征集和所述位置特征集由下到上进行融合得到第四特征集。
优选地,所述PAN模块对所述第四特征集和所述第三特征集由上到下进行特征融合得到第五特征集;
所述PAN模块还对所述第五特征集和所述第二特征集由上到下进行特征融合得到第六特征集。
优选地,所述方法还包括:
获取初始数据集;
基于LableImg软件对所述初始数据集中每个图像中每个目标的类别、中心点坐标和尺度进行标注得到标注数据集;
对所述标注数据集进行格式转换得到格式数据集;
按照设定比例对所述格式数据集进行分割得到所述训练集、所述测试集和所述验证集。
优选地,所述SPP模块包括:第一尺度提取单元、第二尺度提取单元、第三尺度提取单元、跳转单元和融合单元;
所述第一尺度提取单元对所述第一特征集进行第一尺度特征提取得到第一子特征集;
所述第二尺度提取单元对所述第一特征集进行第二尺度特征提取得到第二子特征集;
所述第三尺度提取单元对所述第一特征集进行第三尺度特征提取得到第三子特征集;
所述跳转单元对所述第一特征集进行跳转;
所述融合单元对所述第一子特征集、所述第二子特征集、所述第三子特征集和所述第一特征集进行特征融合得到所述第二特征集。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明涉及一种多尺度目标识别方法,包括:S1,构建神经网络模型;S2,基于训练集对神经网络模型进行训练,得到训练后的神经网络模型;S3,基于测试集和损失函数进行计算得到训练后的神经网络模型的损失值;S4,对损失值进行判断,若损失值小于损失设定值,则执行“S5”,若损失值大于或等于损失设定值,则基于梯度下降算法和验证集调整神经网络模型的超参数,并重新训练,重复执行“S2-S4”,直至神经网络模型的损失值小于损失设定值;S5,基于训练后的神经网络模型实现目标的检测与定位。本发明能能准确识别目标、实时性高的方法,在处理水上突发情况时,能迅速返回目标的类别和位置。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明多尺度目标识别方法流程图;
图2为本发明位置注意力模块结构图;
图3为本发明SPP模块结构图;
图4为本发明FPN和PAN模块结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种多尺度目标识别方法,能准确识别目标、实时性高的方法,在处理水上突发情况时,能迅速返回目标的类别和位置。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明多尺度目标识别方法流程图。如图1所示,本发明提供了一种多尺度目标识别方法,包括:
步骤S1,构建神经网络模型。具体地,所述神经网络模型包括位置注意力模块、卷积模块、SPP模块、FPN模块和PAN模块。
进一步地,所述位置注意力模块对输入的图像进行特征提取得到位置特征集;所述位置注意力模块的结构如图2所示,图中,Avg Pool为平均池化,Concat为特征融合,Conv为卷积,Non-linear为非线性,BatchNorm为归一化,r为缩放比。
定义图像的维度是C×H×W,其中C代表图像的通道数,H代表图像的高度,W代表图像的宽度。
基于H×1的卷积核对图像的高度进行平均池化得到垂直坐标集;基于1×W的卷积核对图像的宽度进行平均池化得到水平坐标集;
基于1×1的卷积核和卷积变换函数对所述垂直坐标集和所述水平坐标集进行融合和下采样得到融合坐标集;
基于非线性归一化函数对所述融合特征集进行归一化处理,得到归一化特征集;
对所述归一化特征集进行分解并进行加权处理,得到第一子集和第二子集;
基于Sigmod函数对所述第一子集和所述第二子集进行特征提取,并进行特征融合得到所述位置特征集。
所述卷积模块对所述位置特征集进行下采样得到第一特征集。
所述SPP模块对所述第一特征集进行多尺度信息融合得到第二特征集。具体地,如图3所示,所述SPP模块包括:第一尺度提取单元、第二尺度提取单元、第三尺度提取单元、跳转单元和融合单元。
所述第一尺度提取单元基于第一尺度和最大值池化,对所述第一特征集进行第一尺度特征提取得到第一子特征集。本实施例中,所述第一尺度为5×5。
所述第二尺度提取单元基于第二尺度和最大值池化,对所述第一特征集进行第二尺度特征提取得到第二子特征集。本实施例中,所述第二尺度为9×9。
所述第三尺度提取单元基于第三尺度和最大值池化。对所述第一特征集进行第三尺度特征提取得到第三子特征集。本实施例中,所述第三尺度为13×13。
所述跳转单元对所述第一特征集进行跳转。
所述融合单元对所述第一子特征集、所述第二子特征集、所述第三子特征集和所述第一特征集进行特征融合得到所述第二特征集。
如图4所示,所述FPN模块和所述PAN模块均包括3个卷积层。
所述FPN模块对所述第二特征集和所述第一特征集由下到上进行特征融合得到第三特征集。
所述FPN模块还对所述第三特征集和所述位置特征集由下到上进行融合得到第四特征集。
所述PAN模块对所述第四特征集和所述第三特征集由上到下进行特征融合得到第五特征集。
所述PAN模块还对所述第五特征集和所述第二特征集由上到下进行特征融合得到第六特征集。
S2,基于训练集对所述神经网络模型进行训练,得到训练后的所述神经网络模型。
S3,基于测试集和损失函数进行计算得到训练后的所述神经网络模型的损失值。
优选地,所述损失函数如下:
L=Lclass+Lconf+LGIOU
式中:L为损失函数,Lclass为分类损失,Lconf为置信度损失,LGIOU为定位损失。
其中
Figure BDA0003286571960000061
式中:N为图片数量,y(i)为第i个样本的类别,
Figure BDA0003286571960000062
为第i个样本预测正确的概率。
Lconf=-α(1-p)τlog(p);式中;p为类别不同的概率,α为正负样本平衡系数,本实施例中,α取0.25,τ为难易样本平衡系数,本实施例中,τ取2。
Figure BDA0003286571960000063
式中:IoU为预测值和真实值的交互比,B为预测框的面积,Bgt为真实框的面积,C为同时包含预测框和真实框的最小面积。
S4,对所述损失值进行判断,若所述损失值小于损失设定值,则执行“S5”,若所述损失值大于或等于所述损失设定值,则基于梯度下降算法和验证集调整所述神经网络模型的超参数,并重新训练,重复执行“S2-S4”,直至所述神经网络模型的损失值小于所述损失设定值;
S5,基于训练后的所述神经网络模型实现目标的检测与定位。本实施例中,将Lconf在25%以下和/或IoU在0.45以下的目标进行剔除。
作为一种可选的实施方式,本发明所述方法还包括:
获取初始数据集。
基于LableImg软件对所述初始数据集中每个图像中每个目标的类别、中心点坐标和尺度进行标注得到标注数据集。
对所述标注数据集进行格式转换得到格式数据集。
随机选取所述格式数据集中的4张图像缩放,并拼接成1张设定尺寸的图像然后进行对比度增强、亮度增强、镜像和旋转等增强方式,得到增强图像,重复此过程,得到增强数据集。
按照设定比例对所述增强数据集进行分割得到所述训练集、所述测试集和所述验证集。
本发明水面目标数据库进行统一整理和更新,由于运行速度较快,可在移动平台终端进行实现。可以完成对动态多尺度目标的检测和识别。
本发明可实时处理光电传感器所采集到的数据,完成对目标的辨别,协助实现水面无人艇的环境感知功能。
本发明不仅能够识别不同种类的水面目标,比如浮标、船舶、暗礁等,还可以识别出同一类别的不同子类目标,比如同样属于船舶的渔船、游船、货船等。
本发明针对水面无人艇实际运行场景和应用需求,使用了基于对比度增强、亮度增强以及对雨雾场景进行模拟的数据增强方法,能最大程度上模拟水面场景,可以应用在真实海面环境中。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种多尺度目标识别方法,其特征在于,包括:
S1,构建神经网络模型;
S2,基于训练集对所述神经网络模型进行训练,得到训练后的所述神经网络模型;
S3,基于测试集和损失函数进行计算得到训练后的所述神经网络模型的损失值;
S4,对所述损失值进行判断,若所述损失值小于损失设定值,则执行“S5”,若所述损失值大于或等于所述损失设定值,则基于梯度下降算法和验证集调整所述神经网络模型的超参数,并重新训练,重复执行“S2-S4”,直至所述神经网络模型的损失值小于所述损失设定值;
S5,基于训练后的所述神经网络模型实现目标的检测与定位。
2.根据权利要求1所述的多尺度目标识别方法,其特征在于,所述神经网络模型包括位置注意力模块、卷积模块、SPP模块、FPN模块和PAN模块。
3.根据权利要求2所述的多尺度目标识别方法,其特征在于,所述位置注意力模块对输入的图像进行特征提取得到位置特征集;具体包括:
定义图像的维度是C×H×W,其中C代表图像的通道数,H代表图像的高度,W代表图像的宽度;
基于H×1的卷积核对图像的高度进行平均池化得到垂直坐标集;基于1×W的卷积核对图像的宽度进行平均池化得到水平坐标集;
基于1×1的卷积核和卷积变换函数对所述垂直坐标集和所述水平坐标集进行融合和下采样得到融合坐标集;
基于非线性归一化函数对所述融合特征集进行归一化处理,得到归一化特征集;
对所述归一化特征集进行分解并进行加权处理,得到第一子集和第二子集;
基于Sigmod函数对所述第一子集和所述第二子集进行特征提取,并进行特征融合得到所述位置特征集。
4.根据权利要求3所述的多尺度目标识别方法,其特征在于,所述卷积模块对所述位置特征集进行下采样得到第一特征集。
5.根据权利要求4所述的多尺度目标识别方法,其特征在于,所述SPP模块对所述第一特征集进行多尺度信息融合得到第二特征集。
6.根据权利要求5所述的多尺度目标识别方法,其特征在于,所述FPN模块对所述第二特征集和所述第一特征集由下到上进行特征融合得到第三特征集;
所述FPN模块还对所述第三特征集和所述位置特征集由下到上进行融合得到第四特征集。
7.根据权利要求6所述的多尺度目标识别方法,其特征在于,所述PAN模块对所述第四特征集和所述第三特征集由上到下进行特征融合得到第五特征集;
所述PAN模块还对所述第五特征集和所述第二特征集由上到下进行特征融合得到第六特征集。
8.根据权利要求1所述的多尺度目标识别方法,其特征在于,所述方法还包括:
获取初始数据集;
基于LableImg软件对所述初始数据集中每个图像中每个目标的类别、中心点坐标和尺度进行标注得到标注数据集;
对所述标注数据集进行格式转换得到格式数据集;
按照设定比例对所述格式数据集进行分割得到所述训练集、所述测试集和所述验证集。
9.根据权利要求5所述的多尺度目标识别方法,其特征在于,所述SPP模块包括:第一尺度提取单元、第二尺度提取单元、第三尺度提取单元、跳转单元和融合单元;
所述第一尺度提取单元对所述第一特征集进行第一尺度特征提取得到第一子特征集;
所述第二尺度提取单元对所述第一特征集进行第二尺度特征提取得到第二子特征集;
所述第三尺度提取单元对所述第一特征集进行第三尺度特征提取得到第三子特征集;
所述跳转单元对所述第一特征集进行跳转;
所述融合单元对所述第一子特征集、所述第二子特征集、所述第三子特征集和所述第一特征集进行特征融合得到所述第二特征集。
CN202111149836.4A 2021-09-29 2021-09-29 一种多尺度目标识别方法 Pending CN113807311A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111149836.4A CN113807311A (zh) 2021-09-29 2021-09-29 一种多尺度目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111149836.4A CN113807311A (zh) 2021-09-29 2021-09-29 一种多尺度目标识别方法

Publications (1)

Publication Number Publication Date
CN113807311A true CN113807311A (zh) 2021-12-17

Family

ID=78938966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111149836.4A Pending CN113807311A (zh) 2021-09-29 2021-09-29 一种多尺度目标识别方法

Country Status (1)

Country Link
CN (1) CN113807311A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188720A (zh) * 2019-06-05 2019-08-30 上海云绅智能科技有限公司 一种基于卷积神经网络的目标检测方法及系统
CN110298266A (zh) * 2019-06-10 2019-10-01 天津大学 基于多尺度感受野特征融合的深度神经网络目标检测方法
CN111814621A (zh) * 2020-06-29 2020-10-23 中国科学院合肥物质科学研究院 一种基于注意力机制的多尺度车辆行人检测方法及装置
CN113065558A (zh) * 2021-04-21 2021-07-02 浙江工业大学 一种结合注意力机制的轻量级小目标检测方法
CN113239820A (zh) * 2021-05-18 2021-08-10 中国科学院自动化研究所 基于属性定位与关联的行人属性识别方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188720A (zh) * 2019-06-05 2019-08-30 上海云绅智能科技有限公司 一种基于卷积神经网络的目标检测方法及系统
CN110298266A (zh) * 2019-06-10 2019-10-01 天津大学 基于多尺度感受野特征融合的深度神经网络目标检测方法
CN111814621A (zh) * 2020-06-29 2020-10-23 中国科学院合肥物质科学研究院 一种基于注意力机制的多尺度车辆行人检测方法及装置
CN113065558A (zh) * 2021-04-21 2021-07-02 浙江工业大学 一种结合注意力机制的轻量级小目标检测方法
CN113239820A (zh) * 2021-05-18 2021-08-10 中国科学院自动化研究所 基于属性定位与关联的行人属性识别方法及系统

Similar Documents

Publication Publication Date Title
CN112308019B (zh) 基于网络剪枝和知识蒸馏的sar舰船目标检测方法
CN108564097B (zh) 一种基于深度卷积神经网络的多尺度目标检测方法
CN110188705B (zh) 一种适用于车载系统的远距离交通标志检测识别方法
Bovcon et al. MODS—A USV-oriented object detection and obstacle segmentation benchmark
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN109784278B (zh) 基于深度学习的海上弱小运动船舶实时检测方法
CN110765906A (zh) 一种基于关键点的行人检测算法
US11244188B2 (en) Dense and discriminative neural network architectures for improved object detection and instance segmentation
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN110610165A (zh) 一种基于yolo模型的船舶行为分析方法
CN111414807A (zh) 一种基于yolo技术的潮水识别与危机预警方法
CN116343077A (zh) 一种基于注意力机制与多尺度特征的火灾检测预警方法
CN116824335A (zh) 一种基于YOLOv5改进算法的火灾预警方法及系统
Zhang et al. A object detection and tracking method for security in intelligence of unmanned surface vehicles
CN116310837B (zh) 一种sar舰船目标旋转检测方法及系统
CN117218434A (zh) 基于混合神经网络的混凝土结构表面缺陷分类方法与系统
CN115410055A (zh) 一种基于深度学习的行人入侵检测系统及方法
Wang et al. Detection of early dangerous state in deep water of indoor swimming pool based on surveillance video
CN113963333B (zh) 一种基于改进yolof模型的交通标志牌检测方法
Shi et al. Obstacle type recognition in visual images via dilated convolutional neural network for unmanned surface vehicles
Zhou et al. A real-time scene parsing network for autonomous maritime transportation
CN112560907B (zh) 基于混合域注意力的有限像素红外无人机目标检测方法
CN117787690A (zh) 吊装作业安全风险识别方法及识别装置
CN113158787A (zh) 一种复杂海洋环境下船舶检测分类方法
CN117351345A (zh) 一种基于立体视觉的海上目标识别与定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination