CN112417961B - 一种基于场景先验知识的海面目标检测方法 - Google Patents

一种基于场景先验知识的海面目标检测方法 Download PDF

Info

Publication number
CN112417961B
CN112417961B CN202011122034.XA CN202011122034A CN112417961B CN 112417961 B CN112417961 B CN 112417961B CN 202011122034 A CN202011122034 A CN 202011122034A CN 112417961 B CN112417961 B CN 112417961B
Authority
CN
China
Prior art keywords
scene
target
category
feature
prior knowledge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011122034.XA
Other languages
English (en)
Other versions
CN112417961A (zh
Inventor
骆祥峰
郭银赛
陈雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202011122034.XA priority Critical patent/CN112417961B/zh
Publication of CN112417961A publication Critical patent/CN112417961A/zh
Application granted granted Critical
Publication of CN112417961B publication Critical patent/CN112417961B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于场景先验知识的海面目标检测方法,首先输入高分辨率相机获取的图片;再从Faster‑RCNN的骨干特征网络中提取整张图片的特征图;然后在特征图上获取目标类别注意力权重矩阵;再经过区域定位网络得到特征图的候选区域特征FH;然后在整张图像的目标候选区域中增加场景先验知识Fz;再在目标候选区域上进行分类及回归,获得分类器权重矩阵;然后进行场景类别关联度计算,得到场景类别关联矩阵R;再得到融合场景先验知识与场景关联的候选区域特征,并对其进行分类及回归,得到检测目标的类别及位置。与传统的方法相比,该专利利用场景先验知识,更容易检测出海面的弱小目标,降低视觉观测的不确定性,提高海面目标检测的准确率。

Description

一种基于场景先验知识的海面目标检测方法
技术领域
本发明涉及一种海面目标检测方法,具体是涉及了专家知识及场景知识等,级联融合目标类别注意力权重,目标类别关联特征及场景先验知识的特征,是一种基于场景先验知识的海面目标检测方法。
背景技术
目前应用最广的海面目标检测方法是单纯的基于深度神经网络的特征提取及检测,包括 One-stage和Two-stage模型。One-stage模型根据神经网络直接预测及回归目标类型及位置,Two-stage模型根据预先定义的区域,筛选出候选的区域,然后再根据神经网络预测及回归目标类型及位置。
但是仅仅使用基于深度神经网络的特征提取及检测时,存在以下不足:
1.基于深度神经网络的目标特征提取时,不能充分利用低维度信息:颜色,纹理,形状等,导致获取的目标特征不完善。
2.基于深度神经网络的目标特征提取时,目标与目标直接的关联性无法提取,易导致目标检测的不确定性。
发明内容
为了解决现有技术问题,本发明的目的在于针对基于深度神经网络的海面目标特征提取的不足,提供一种基于场景先验知识的海面目标检测方法,该计算方法以专家知识及场景知识等为先验知识,级联融合候选区域特征,目标类别关联特征及专家知识定义的特征,提高海面目标检测的准确度。
为了达到上述的目的,本发明的构思如下:
首先获得图片特征图的目标注意力权重,然后通过分类器获得目标分类器权重矩阵,即场景类别特征分布;再者利用海洋目标关系获得场景类别关联矩阵,最终级联融合候选区域特征,场景类别特征分布,目标类别关联特征及场景先验知识的特征,以实现海面目标检测。
根据上述发明构思,本发明采用如下技术方案:
一种基于场景先验知识的海面目标检测方法,具体步骤如下:
(1)输入高分辨率相机获取的图片;
(2)从Faster-RCNN的骨干特征网络中提取整张图片的特征图;
(3)在特征图上获取目标类别注意力权重矩阵;
(4)经过区域定位网络得到特征图的候选区域特征FH
(5)根据坐标转换将候选区域映射到整张图像的目标候选区域中,并增加场景先验知识 Fz;
(6)在目标候选区域上进行分类及回归,获得分类器权重矩阵,即场景类别特征分布;
(7)根据海面目标类别关系进行场景类别关联度计算,得到场景类别关联矩阵R;
(8)级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,得到融合场景先验知识与场景关联的候选区域特征,并对其进行分类及回归,得到检测目标的类别及位置。
优选地,所述步骤(3)中的在特征图上获取目标类别注意力权重矩阵,其目标类别注意力权重矩阵计算式如下:
α=softmax(H×Wc×DT)
其中,H是整张图片的特征图;Wc是维度变换操作矩阵,DT代表场景类别特征分布转置。优选所述场景先验知识为低维视觉特征;颜色、纹理和形状,将其加入到候选区域的特征中,这样可以将人工定义的场景低维视觉特征与深度学习得到的特征相融合,以增强检测模型的鲁棒性。
优选地,所述步骤(5)中在候选区域中增加场景先验知识,其场景先验知识Fz为低维视觉特征:颜色、纹理和形状。根据坐标转换将候选区域映射到整张图像的目标候选区域中,并增加场景先验知识Fz为低维视觉特征、颜色、纹理和形状。
优选地,所述步骤(7)场景类别关联矩阵计算公式为:
R=rAij+βLij
其中,R代表场景类别关联矩阵;r、β分别代表检测任务中视觉外观属性关联度与目标类别间位置关联度的重要程度;Aij代表类别i与j的视觉外观属性关联度;Lij代表目标类别间位置关联度。
优选地,所述步骤(8)中的目标类别关联特征计算公式如下:
Fr=P×(α*R×D)×E
其中,Fr代表海面目标类别关联特征矩阵,维度为N×M,N代表候选区域个数,M代表特征维度;P代表候选区域的分类概率分布矩阵,维度为N×C,C为场景类别个数;α代表整张图片的特征图计算得到的类别注意力权重矩阵,维度为1×C;R代表场景类别关联矩阵,维度为C×C;D代表场景类别特征分布矩阵,维度为C×K,K代表区域候选特征的特征维度;E代表维度变换矩阵,维度为K*M,此处α与R做的*运算是类别通道上的对位相乘。
优选地,所述步骤(8)中级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,即使用Concat函数Concat=FH∪Fr∪FZ拼接目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,然后采用目标类别分类器及回归器获得目标的类别概率向量p及位置(x,y,w,h)其中x,y代表矩形框得中心坐标,w,h代表矩形框的宽和高。
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著优点:
1.本发明方法将场景先验知识(低维视觉特征)颜色、纹理和形状加入到候选区域的特征中,这样可以将人工定义的场景低维视觉特征与深度学习得到的特征相融合,以增强检测模型的鲁棒性;
2.本发明方法增加目标类别注意力机制,以增强与场景有关目标的特征,排除无关目标及背景,以提高模型的准确性;
3.本发明方法引入目标之间的关联程度,以减少视觉观测的不确定性,进一步提升海面多尺度目标检测的准确率及目标分类的置信度;
4.本发明方法简单易行,成本低,适合推广使用。
附图说明
图1为本发明基于场景先验知识的海面目标检测方法的流程图。
图2为本发明方法使用高分辨率相机采集的一张相片。
图3为利用本发明方法获取的检测结果照片。
具体实施方式
以下结合具体的实施例子对上述方案做进一步说明,本发明的优选实施例详述如下:
实施例一:
在本实施例中,参见图1,一种基于场景先验知识的海面目标检测方法,具体步骤如下:
(1)输入高分辨率相机获取的图片;
(2)从Faster-RCNN的骨干特征网络中提取整张图片的特征图;
(3)在特征图上获取目标类别注意力权重矩阵;
(4)经过区域定位网络得到特征图的候选区域特征FH
(5)根据坐标转换将候选区域映射到整张图像的目标候选区域中,并增加场景先验知识 Fz;
(6)在目标候选区域上进行分类及回归,获得分类器权重矩阵,即场景类别特征分布;
(7)根据海面目标类别关系进行场景类别关联度计算,得到场景类别关联矩阵R;
(8)级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,得到融合场景先验知识与场景关联的候选区域特征,并对其进行分类及回归,得到检测目标的类别及位置。
本实施例方法以专家知识及场景知识等为先验知识,级联融合候选区域特征,目标类别关联特征及专家知识定义的特征,提高海面目标检测的准确度。
实施例二:
本实施例与实施例一基本相同,特别之处在于:
在本实施例中,参见图1,所述步骤(3)中的在特征图上获取目标类别注意力权重矩阵,其目标类别注意力权重矩阵计算式如下:
α=softmax(H×Wc×DT)
其中,H是整张图片的特征图;Wc是维度变换操作矩阵,DT代表场景类别特征分布转置。
在本实施例中,所述步骤(5)中在候选区域中增加场景先验知识,其场景先验知识Fz为低维视觉特征:颜色、纹理和形状。
在本实施例中,所述步骤(7)场景类别关联矩阵计算公式为:
R=rAij+βLij
其中,R代表场景类别关联矩阵;r、β分别代表检测任务中视觉外观属性关联度与目标类别间位置关联度的重要程度;Aij代表类别i与j的视觉外观属性关联度;Lij代表目标类别间位置关联度。
在本实施例中,所述步骤(8)中的目标类别关联特征计算公式如下:
Fr=P×(α*R×D)×E
其中,Fr代表海面目标类别关联特征矩阵,维度为N×M,N代表候选区域个数,M代表特征维度;P代表候选区域的分类概率分布矩阵,维度为N×C,C为场景类别个数;α代表整张图片的特征图计算得到的类别注意力权重矩阵,维度为1×C;R代表场景类别关联矩阵,维度为C×C;D代表场景类别特征分布矩阵,维度为C×K,K代表区域候选特征的特征维度;E代表维度变换矩阵,维度为K*M,此处α与R做的*运算是类别通道上的对位相乘。
在本实施例中,所述步骤(8)中级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,即使用Concat函数Concat=FH∪Fr∪FZ拼接目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,然后采用目标类别分类器及回归器获得目标的类别概率向量p及位置(x,y,w,h)其中x,y代表矩形框得中心坐标,w,h代表矩形框的宽和高。
本实施例方法将具有低维视觉特征的场景先验知识的颜色、纹理和形状加入到候选区域的特征中,这样可以将人工定义的场景低维视觉特征与深度学习得到的特征相融合,以增强检测模型的鲁棒性;本实施例方法增加目标类别注意力机制,以增强与场景有关目标的特征,排除无关目标及背景,以提高模型的准确性。
实施例三:
本实施例与实施例一基本相同,特别之处在于:
在本实施例中,参见图1,数据训练集为实际采集的801张图片,测试集为实际采集的 204张图片,采用本发明提出的基于场景先验知识的海面目标检测方法,按照如下步骤实施:
(1)输入高分辨率相机获取的图片如图2;
(2)从Faster-RCNN的骨干特征网络中提取整张图片的特征图;
(3)在整张图片特征图上获取目标类别注意力权重,其目标类别注意力权重计算式如下:
α=softmax(H×Wc×DT)
其中,H是整张图片的特征图;Wc是维度变换操作矩阵,DT代表场景类别特征分布转置。
(4)经过区域定位网络得到特征图的候选区域特征FH
(5)根据坐标转换将候选区域映射到整张图像的目标候选区域中,并增加场景先验知识 Fz;
(6)在特征图的目标候选区域上进行分类及回归,获得分类器权重矩阵,即场景类别特征分布;
(7)根据海面目标类别关系进行场景类别关联度计算,得到场景类别关联矩阵R;其计算公式如下:
R=rAij+βLij
其中,R代表场景目标类别关联矩阵;r、β分别代表检测任务中视觉外观属性关联度与目标类别间位置关联度的重要程度;Aij代表类别i与j的视觉外观属性关联度;Lij代表目标类别间位置关联度。
(8)级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,得到融合场景先验知识与场景关联的候选区域特征,即使用Concat函数Concat=FH∪Fr∪FZ拼接目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,然后采用目标类别分类器及回归器获得目标的类别概率向量p及位置坐标(x,y,w,h),其中x,y代表矩形框得中心坐标,w, h代表矩形框的宽和高,如图3所示。
其中目标类别关联特征Fr,其计算式如下:
Fr=P×(α*R×D)×E
其中,Fr代表海面目标类别关联特征,矩阵维度为N×M,N代表候选区域个数,M代表特征维度;P代表候选区域的分类概率分布,矩阵维度为N×C,C为场景类别个数;α代表整张图片的特征图计算得到的类别注意力,矩阵维度为1×C;R代表场景类别关联矩阵,矩阵维度为C×C;D代表场景类别特征分布,矩阵维度为C×K,K代表区域候选特征的特征维度;E代表维度变换矩阵,矩阵维度为K*M。此处α与R做的*运算是类别通道上的对位相乘。
采用表1海面目标检测准确率对比实验。对比方法包括基于区域定位网络的Faster-RCNN,结合特征金字塔FPN的Faster-RCNN+FPN,采用ResNet+FPN+2xFCN子网络构成的Retina+FPN,其中1x代表Simpledet框架中数据集循环6轮,IoU表示预测框与真实框相似性。上述网络的主干网络都采用101层的深度残差网络Restnet101。IoU从0.50到 0.95及数据集循环1x到2x分布中,可以看出仅仅基于神经网络的模型Faster-RCNN, Faster-RCNN+FPN,Retina+FPN的检测准确率低于本发明提出的基于场景先验知识的海面目标检测方法。
表1.海面目标检测准确率对比实验
模型 IoU=0.50 IoU=0.75 IoU=0.95
Faster-RCNN(1x) 0.835 0.431 0.441
Faster-RCNN(2x) 0.872 0.552 0.520
Faster-RCNN+FPN(1x) 0.907 0.549 0.517
Faster-RCNN+FPN(2x) 0.917 0.618 0.568
Retina+FPN(1x) 0.872 0.482 0.482
Retina+FPN(2x) 0.890 0.587 0.536
实施例三方法 0.958 0.800 0.687
本实施例基于场景先验知识的海面目标检测方法,输入高分辨率相机获取的图片;然后从Faster-RCNN的骨干特征网络中提取整张图片的特征图;然后在特征图上获取目标类别注意力权重矩阵;然后经过区域定位网络得到特征图的候选区域特征FH;再根据坐标转换将候选区域映射到整张图像的目标候选区域中,并增加场景先验知识Fz; 任何在目标候选区域上进行分类及回归,获得分类器权重矩阵,即场景类别特征分布;再根据海面目标类别关系进行场景类别关联度计算,得到场景类别关联矩阵R;采用级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,得到融合场景先验知识与场景关联的候选区域特征,并对其进行分类及回归,得到检测目标的类别及位置。与传统的方法相比,本实施例方法利用场景先验知识,更容易检测出海面的弱小目标,降低视觉观测的不确定性,提高海面目标检测的准确率。
上面对本发明实施例结合附图进行了说明,但本发明不限于上述实施例,还可以根据本发明的发明创造的目的做出多种变化,凡依据本发明技术方案的精神实质和原理下做的改变、修饰、替代、组合或简化,均应为等效的置换方式,只要符合本发明的发明目的,只要不背离本发明的技术原理和发明构思,都属于本发明的保护范围。

Claims (5)

1.一种基于场景先验知识的海面目标检测方法,其特征在于,具体步骤如下:
(1)输入高分辨率相机获取的图片;
(2)从Faster-RCNN的骨干特征网络中提取整张图片的特征图;
(3)在特征图上获取目标类别注意力权重矩阵;
(4)经过区域定位网络得到特征图的候选区域特征FH
(5)根据坐标转换将候选区域映射到整张图像的目标候选区域中,并增加场景先验知识Fz;
(6)在目标候选区域上进行分类及回归,获得分类器权重矩阵,即场景类别特征分布;
(7)根据海面目标类别关系进行场景类别关联度计算,得到场景类别关联矩阵R;
(8)级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,得到融合场景先验知识与场景关联的候选区域特征,并对其进行分类及回归,得到检测目标的类别及位置;
所述步骤(8)中的目标类别关联特征计算公式如下:
Fr=P×(α*R×D)×E
其中,Fr代表海面目标类别关联特征矩阵,维度为N×M,N代表候选区域个数,M代表特征维度;P代表候选区域的分类概率分布矩阵,维度为N×C,C为场景类别个数;α代表整张图片的特征图计算得到的类别注意力权重矩阵,维度为1×C;R代表场景类别关联矩阵,维度为C×C;D代表场景类别特征分布矩阵,维度为C×K,K代表区域候选特征的特征维度;E代表维度变换矩阵,维度为K*M,此处α与R做的*运算是类别通道上的对位相乘。
2.按权利要求1所述的基于场景先验知识的海面目标检测方法,其特征在于:所述步骤(3)中的在特征图上获取目标类别注意力权重矩阵,其目标类别注意力权重矩阵计算式如下:
α=softmax(H×Wc×DT)
其中,H是整张图片的特征图;Wc是维度变换操作矩阵,DT代表场景类别特征分布转置。
3.按权利要求1所述的基于场景先验知识的海面目标检测方法,其特征在于:所述步骤(5)中在候选区域中增加场景先验知识,其场景先验知识Fz为低维视觉特征:颜色、纹理和形状。
4.按权利要求1所述的基于场景先验知识的海面目标检测方法,其特征在于:所述步骤(7)场景类别关联矩阵计算公式为:
R=rAij+βLij
其中,R代表场景类别关联矩阵;r、β分别代表检测任务中视觉外观属性关联度与目标类别间位置关联度的重要程度;Aij代表类别i与j的视觉外观属性关联度;Lij代表目标类别间位置关联度。
5.按权利要求1所述的基于场景先验知识的海面目标检测方法,其特征在于:所述步骤(8)中级联目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,即使用Concat函数Concat=FH∪Fr∪FZ拼接目标类别关联特征Fr,场景先验知识的特征FZ及候选区域特征FH,然后采用目标类别分类器及回归器获得目标的类别概率向量p及位置(x,y,w,h),其中x,y代表矩形框的中心坐标,w,h代表矩形框的宽和高。
CN202011122034.XA 2020-10-20 2020-10-20 一种基于场景先验知识的海面目标检测方法 Active CN112417961B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011122034.XA CN112417961B (zh) 2020-10-20 2020-10-20 一种基于场景先验知识的海面目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011122034.XA CN112417961B (zh) 2020-10-20 2020-10-20 一种基于场景先验知识的海面目标检测方法

Publications (2)

Publication Number Publication Date
CN112417961A CN112417961A (zh) 2021-02-26
CN112417961B true CN112417961B (zh) 2023-02-10

Family

ID=74841000

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011122034.XA Active CN112417961B (zh) 2020-10-20 2020-10-20 一种基于场景先验知识的海面目标检测方法

Country Status (1)

Country Link
CN (1) CN112417961B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949731A (zh) * 2021-03-11 2021-06-11 江苏禹空间科技有限公司 基于多专家模型的目标检测方法、装置、存储介质及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111104898A (zh) * 2019-12-18 2020-05-05 武汉大学 基于目标语义和注意力机制的图像场景分类方法及装置
CN111209915A (zh) * 2019-12-25 2020-05-29 上海航天控制技术研究所 一种基于深度学习的三维图像同步识别和分割方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359564B (zh) * 2018-09-29 2022-06-24 中山大学 一种图像场景图生成方法及装置
CN110569701B (zh) * 2018-12-29 2020-08-07 阿里巴巴集团控股有限公司 计算机执行的车辆定损方法及装置
CN109886230A (zh) * 2019-02-28 2019-06-14 中南大学 一种图像目标检测方法及装置
CN111259768A (zh) * 2020-01-13 2020-06-09 清华大学 基于注意力机制的结合自然语言的图像目标定位方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111104898A (zh) * 2019-12-18 2020-05-05 武汉大学 基于目标语义和注意力机制的图像场景分类方法及装置
CN111209915A (zh) * 2019-12-25 2020-05-29 上海航天控制技术研究所 一种基于深度学习的三维图像同步识别和分割方法

Also Published As

Publication number Publication date
CN112417961A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN109886121B (zh) 一种遮挡鲁棒的人脸关键点定位方法
CN109829398B (zh) 一种基于三维卷积网络的视频中的目标检测方法
CN109684922B (zh) 一种基于卷积神经网络的多模型对成品菜的识别方法
CN109559320A (zh) 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统
JP2000123184A (ja) 動画内のイベントを検出する方法
CN108345850A (zh) 基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN104657980A (zh) 一种改进的基于Meanshift的多通道图像分割算法
CN107862680B (zh) 一种基于相关滤波器的目标跟踪优化方法
CN113762009B (zh) 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN109325407B (zh) 基于f-ssd网络滤波的光学遥感视频目标检测方法
CN112329771B (zh) 一种基于深度学习的建筑材料样本识别方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN107609571A (zh) 一种基于lark特征的自适应目标跟踪方法
CN114299398B (zh) 一种基于自监督对比学习的小样本遥感图像分类方法
CN115861715A (zh) 基于知识表示增强的图像目标关系识别算法
CN113657225B (zh) 一种目标检测方法
CN111553337A (zh) 一种基于改进锚框的高光谱多目标检测方法
CN111523586A (zh) 一种基于噪声可知的全网络监督目标检测方法
Yang et al. Increaco: incrementally learned automatic check-out with photorealistic exemplar augmentation
CN112417961B (zh) 一种基于场景先验知识的海面目标检测方法
Xiao et al. Multiresolution-Based Rough Fuzzy Possibilistic C-Means Clustering Method for Land Cover Change Detection
CN109740405B (zh) 一种非对齐相似车辆前窗差异信息检测方法
CN112487927A (zh) 一种基于物体关联注意力的室内场景识别实现方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant