CN113011443B - 一种基于关键点的目标检测的特征融合方法 - Google Patents

一种基于关键点的目标检测的特征融合方法 Download PDF

Info

Publication number
CN113011443B
CN113011443B CN202110443624.0A CN202110443624A CN113011443B CN 113011443 B CN113011443 B CN 113011443B CN 202110443624 A CN202110443624 A CN 202110443624A CN 113011443 B CN113011443 B CN 113011443B
Authority
CN
China
Prior art keywords
feature
module
layer
representing
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110443624.0A
Other languages
English (en)
Other versions
CN113011443A (zh
Inventor
匡平
周阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110443624.0A priority Critical patent/CN113011443B/zh
Publication of CN113011443A publication Critical patent/CN113011443A/zh
Application granted granted Critical
Publication of CN113011443B publication Critical patent/CN113011443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于关键点的目标检测的特征融合方法,主要解决现有方法不能有效融合高层的语义信息和低层的位置信息、对小目标的检测效果不佳的问题。该方法包括特征提取模块、特征融合模块、热力图生成模块,后处理模块;其中,所述特征融合模块包括特征相加模块和特征拼接模块。通过上述设计,本发明通过特征相加模块和特征拼接模块在基于关键点的目标检测中将高层特征的语义信息与低层特征的位置信息有效进行融合,使得图像的多层特征图通过自顶向下和自底向上的连接能够很好地融合不同尺度的信息,极大增强特征表达能力。因此,适宜推广应用。

Description

一种基于关键点的目标检测的特征融合方法
技术领域
本发明涉及目标检测算法技术领域,具体地说,是涉及一种基于关键点的目标检测的特征融合方法。
背景技术
目标检测的任务是找出图像中所有感兴趣的目标,确定其位置与大小。目前基于深度学习的目标检测算法主要分为双阶段和单阶段算法。双阶段检测算法分两步完成,首先获取一系列的候选区域,然后对候选区域进行分类和坐标回归,如RCNN系列。单阶段算法则是省略了获取候选区域这一步骤,直接对预先设定的锚框进行回归和定位,如YOLO,SSD等。他们的共同点是都需要预先定义锚框,典型的做法是通过特征金字塔得到多个不同分辨率的特征图,然后在每个特征图上设置多个不同比例和大小的锚框,然而锚框需要根据数据集中目标的分布手动设置,如果设置不合理会极大影响检测效果。
基于关键点的方法是目标检测中相对较新的范例,消除了对锚框的需求,采用编码解码的模式,只需要使用解码器最后一层特征图进行检测。通常是将输入图像输入到骨干网络得到缩小32倍的特征图,然后再将其上采样到相对于输入图像缩小4倍的特征图。其中上采样方法可以是直接反卷积扩大特征图的分辨率,或者通过特征金字塔使用双线性插值的方式扩大特征图的分辨率,将其与骨干网络提取的特征中相同分辨率的特征对应元素相加,最终得到一个相对于输入图像缩小4倍特征图用于检测。但是该方法存在如下缺陷:
(1)特征金字塔适用于基于锚框的目标检测方法,这类方法可以充分利用特征金字塔得到的多个不同分辨率的特征图。但是基于关键点的目标检测方法只使用了一层特征图,现有方法不能有效融合高层的语义信息和低层的位置信息得到一个同时具有丰富语义信息和位置信息的特征图。
(2)最后用于检测的特征图的分辨率为输入图像的四分之一,对小目标而言缩小4倍后在特征图中的信息已经微乎其微,导致小目标的检测效果不尽如人意。
发明内容
本发明的目的在于提供一种基于关键点的目标检测的特征融合方法,主要解决现有方法不能有效融合高层的语义信息和低层的位置信息、对小目标的检测效果不佳的问题。
为实现上述目的,本发明采用的技术方案如下:
一种基于关键点的目标检测的特征融合方法,包括特征提取模块、特征融合模块、热力图生成模块,后处理模块;
所述特征融合模块包括:
特征相加模块:用于将输入该模块的两个特征图缩放到相同的分辨率和通道数,并将缩放后的两个特征图的对应元素相加;
特征拼接模块:用于将输入该模块的两个或多个特征图缩放到相同的分辨率,但是通道数可以不同,然后将缩放后的两个特征图的通道维度叠加起来,并通过1*1卷积整合通道;
具体实现步骤如下:
(S1)将待检测的图片输入到特征提取模块,得到多个不同分辨率的第一特征图;
(S2)将得到的第一特征图输入到特征融合模块,通过特征融合模块将高层特征的语义信息与低层特征的位置信息有效融合,得到一个同时包含丰富的语义信息和位置信息的第二特征图;
(S3)将第二特征图输入到热力图生成模块同时结合特征融合模块拼接第一特征图中具有丰富位置信息的特征图,得到三个分别代表目标的位置,目标的大小和目标的偏移的热力图;
(S4)将三个热力图输入到后处理模块,输出图片中所有目标的检测框。
进一步地,在步骤(S1)中,输入分辨率为L*W*3的图像经过特征提取模块的多轮卷积后得到第零层特征C1、C2、C3、C4、C5,其分辨率分别为L/2*W/2*64,L/4*W/4*256,L/8*W/8*512,L/16*W/16*1024,L/32*W/32*2048;其中,L代表图像的长,W代表图像的宽。
进一步地,在步骤(S2)中,所述特征融合模块内包括了特征个数随着层数的增加逐层减少一个的第一层特征Pi_1,第二层特征Pi_2,第三层特征Pi_3,第四层特征Pi_4;其中,2≤i≤4,第四层特征只有一个,即为第二特征图,其分辨率为L/4*W/4*64。
进一步地,在步骤(S2)中,所述第一层特征Pi_1通过特征融合模块中的特征相加模块自顶向下得到,即
Pi_1=deconv3(Pi+1_1)+conv1(Ci) 2≤i≤4;
其中,Pi+1_1表示自顶向下的低分辨率特征图,Ci表示横向连接的来自特征提取网络的高分辨率特征图,deconv3表示3*3的转置卷积,conv1表示1*1的卷积,使用conv1和deconv3保持要融合的两个特征图的长宽和通道数完全相同,+conv3(Ci)中的+号表示将两个特征图对应位置的原始值相加。
进一步地,在步骤(S2)中,所述第二到四层特征Pi_j用公式描述为:
Pi_j=conv1(concat(deconv3(Pi+1_j-1),Pi_j-1,conv3(Pi-1_j),Ci))2≤i,j≤4;
其中,Pi+1_j-1表示自顶向下的特征图,Pi_j-1表示自底向上的特征图,Pi-1_j表示前一层的中间特征图,Ci表示跨接的特征提取模块中的原始特征图,conv3表示3*3的卷积,用于将自底向上的大分辨率的特征图缩小一倍,而deconv3表示3*3的转置卷积,用于将自顶向下的小分辨率特征图放大一倍,使用conv3和deconv3保持要融合的多个特征图的长宽相同,但是通道数可以不同,concat表示特征拼接,用于将多个分辨率相同的特征图层叠在一起。conv1表示1*1的卷积,用于对拼接后的特征图在通道上进行整合;第四层的特征即为特征融合模块输出的第二特征图。
进一步地,在步骤(S3)中,第二特征图分别进行3次独立卷积得到代表目标出现的位置和概率的hm特征图、代表目标的长宽的wh特征图、代表目标中心点的偏移量reg特征图。
进一步地,在步骤(S4)中,所述后处理模块对步骤(S3)中输出的特征图输出所有检测目标的检测框(x1,y1,x2,y2,score);其中,x1,y1为检测目标左上角的位置,x2,y2为检测目标右下角的位置,score为检测目标的置信度。
与现有技术相比,本发明具有以下有益效果:
(1)本发明的方法在进行图像处理时,通过特征相加模块和特征拼接模块在基于关键点的目标检测中将高层特征的语义信息与低层特征的位置信息有效进行融合,使得图像的多层特征图通过自顶向下和自底向上的连接能够很好地融合不同尺度的信息,极大增强特征表达能力。
(2)本发明在在特征融合模块输出的丰富语义信息和位置信息的特征图的基础上,提升了特征图的分辨率并且拼接了特征提取模块中具有丰富位置信息的特征图C1,进一步增强了对小目标的特征表达能力,有效解决了小目标检测准确率低的问题。
附图说明
图1为本发明方法的流程示意图。
图2为本发明-实施例中图像融合示意图。
具体实施方式
下面结合附图说明和实施例对本发明作进一步说明,本发明的方式包括但不仅限于以下实施例。
实施例
如图1、2所示,本发明公开的一种基于关键点的目标检测的特征融合方法,包括特征提取模块、特征融合模块、热力图生成模块,后处理模块。
具体实现步骤如下:
首先,将待检测的图片输入到特征提取模块,得到多个不同分辨率的第一特征图。所述特征提取模块为骨干网络ResNet50,也可以替换为其他网络例如vgg,mobilenet等。假设输入图像的分辨率为L*W*3,其中,L代表图像的长,W代表图像的宽。输入图像经过特征提取模块的多轮卷积后,得到5个特征图,称为第零层特征C1、C2、C3、C4、C5,其分辨率分别为L/2*W/2*64,L/4*W/4*256,L/8*W/8*512,L/16*W/16*1024,L/32*W/32*2048。
随后将得到的第一特征图输入到特征融合模块,所述特征融合模块是一种特征金字塔结构,将其命名为高分辨率特征金字塔(HFPN),它包含多条自顶向下的路径和自底向上的路径,如图1所示。将Pi_1称为第一层特征,将Pi_2称为第二层特征,将Pi_3称为第三层特征,将Pi_4称为第四层特征。特征个数随着层数的增加逐层减少一个,第四层只有一个特征,即为最终所需要的第二特征图,该特征图的分辨率为L/4*W/4*64。
其中特征融合模块包括了两个模块:特征相加模块和特征拼接模块。
特征相加模块用于将输入该模块的两个特征图缩放到相同的分辨率和通道数,然后将他们对应元素相加,该模块只用于自顶向下得到第一层特征。
低分辨率的特征图为Pi+1_1,高分辨率的特征图为Ci,Pi+1_1通过3*3反卷积将分辨率扩大一倍,同时Ci通过1*1卷积压缩其通道数,使他们的分辨率和通道数保持相同,然后将他们对应位置的元素相加得到输出特征Pi_1。可用以下公式进行描述:
Pi_1=deconv3(Pi+1_1)+conv1(Ci) 2≤i≤4;
其中,Pi+1_1表示自顶向下的低分辨率特征图,Ci表示横向连接的来自特征提取网络的高分辨率特征图,deconv3表示3*3的转置卷积,conv1表示1*1的卷积,使用conv1和deconv3保持要融合的两个特征图的长宽和通道数完全相同,+conv3(Ci)中的+号表示将两个特征图对应位置的原始值相加。
特征拼接模块用于将输入该模块的两个或多个特征图缩放到相同的分辨率,但是通道数可以不同,然后将他们在通道维度叠加起来,通过1*1卷积整合通道,该模块用于自底向上得到第二、三、四层特征。其中图中弯曲的箭头表示横向连接,如果需要获得的特征图是每层中最上面的特征(如P4_2,P3_3,P2_4),则需要通过横向连接将特征提取网络得到的对应分辨率的特征图拼接进来。可用以下公式进行描述:
Pi_j=conv1(concat(deconv3(Pi+1_j-1),Pi_j-1,conv3(Pi-1_j),Ci))2≤i,j≤4;
其中,Pi+1_j-1表示自顶向下的特征图,Pi_j-1表示自底向上的特征图,Pi-1_j表示前一层的中间特征图,Ci表示跨接的特征提取模块中的原始特征图,conv3表示3*3的卷积,用于将自底向上的大分辨率的特征图缩小一倍,而deconv3表示3*3的转置卷积,用于将自顶向下的小分辨率特征图放大一倍,使用conv3和deconv3保持要融合的多个特征图的长宽相同,但是通道数可以不同,concat表示特征拼接,用于将多个分辨率相同的特征图层叠在一起。conv1表示1*1的卷积,用于对拼接后的特征图在通道上进行整合。其中,其中Ci和conv3(Pi-1_j)根据不同情况可能为空,如P2_2由于在最底层没有自底向上的conv3(Pi-1_j),并且由于不是最顶层特征,所以Ci为空,如图2中具体的网络结构所示。第四层的特征即为特征融合模块输出的第二特征图。
具体而言:
第一层特征Pi_1(2≤i≤5)通过特征相加模块自顶向下得到。C5经过1*1卷积,缩减通道数为256,得到第二层特征P5_2。C4经过1*1卷积,缩减通道数为256,同时P5_2经过3*3反卷积,扩大一倍的分辨率,此时这两个特征图的分辨率和通道数完全相同,将他们对应元素相加,得到新的特征图P4_1。P3_1与P2_1同理可得。
第二层特征Pi_2(2≤i≤4)通过特征相加模块自底向上得到。其中P2_2不需要自底向上的特征,它由第一层特征P3_1通过3*3反卷积和第一层特征P2_1拼接,然后通过一个1*1卷积压缩通道数到128得到。P3_2则不仅需要第一层特征,还需要拼接自底向上的P2_2。P4_2则额外需要再拼接来自特征提取网络的特征C4
第三次特征Pi_3(2≤i≤3)和第四层特征P2_4也同理可得。其中第四层只有一个特征图P2_4,该特征即为HFPN的输出的第二特征图。
HFPN的输出的第二特征图输入到热力图生成模块同时结合特征融合模块拼接第一特征图中具有丰富位置信息的特征图,得到三个分别代表目标的位置,目标的大小和目标的偏移的热力图;即第二特征图分别进行3次独立卷积得到代表目标出现的位置和概率的hm特征图、代表目标的长宽的wh特征图、代表目标中心点的偏移量reg特征图。
最后将三个热力图输入到后处理模块,输出所有检测目标的检测框(x1,y1,x2,y2,score);其中,x1,y1为检测目标左上角的位置,x2,y2为检测目标右下角的位置,score为检测目标的置信度。
将本发明方法(HFPN)与原方法(FPN)进行对比实验,在公开的数据集Visdrone上进行训练和测试,特征提取模块采用ResNet50,除了特征融合部分的不同外,其他实验设置均相同。从实验结果表1可以看出该方法相比FPN大幅领先,mAP领先了7%。
Figure GDA0003591884390000071
表1 实验结果对比
通过上述设计,本发明通过特征相加模块和特征拼接模块在基于关键点的目标检测中将高层特征的语义信息与低层特征的位置信息有效进行融合,使得图像的多层特征图通过自顶向下和自底向上的连接能够很好地融合不同尺度的信息,极大增强特征表达能力。因此,与现有技术相比,具有突出的实质性特点和显著的进步。
上述实施例仅为本发明的优选实施方式之一,不应当用于限制本发明的保护范围,但凡在本发明的主体设计思想和精神上作出的毫无实质意义的改动或润色,其所解决的技术问题仍然与本发明一致的,均应当包含在本发明的保护范围之内。

Claims (7)

1.一种基于关键点的目标检测的特征融合方法,其特征在于,包括特征提取模块、特征融合模块、热力图生成模块,后处理模块;
所述特征融合模块包括:
特征相加模块:用于将输入该模块的两个特征图缩放到相同的分辨率和通道数,并将缩放后的两个特征图的对应元素相加;
特征拼接模块:用于将输入该模块的两个或多个特征图缩放到相同的分辨率,然后将缩放后的两个特征图的通道维度叠加起来,并通过1*1卷积整合通道;
具体实现步骤如下:
(S1)将待检测的图片输入到特征提取模块,得到多个不同分辨率的第一特征图;
(S2)将得到的第一特征图输入到特征融合模块,通过特征融合模块将高层特征的语义信息与低层特征的位置信息有效融合,得到一个同时包含丰富的语义信息和位置信息的第二特征图;
(S3)将第二特征图输入到热力图生成模块同时结合特征融合模块拼接第一特征图中具有丰富位置信息的特征图,得到三个分别代表目标的位置,目标的大小和目标的偏移的热力图;
(S4)将三个热力图输入到后处理模块,输出图片中所有目标的检测框。
2.根据权利要求1所述的一种基于关键点的目标检测的特征融合方法,其特征在于,在步骤(S1)中,输入分辨率为L*W*3的图像经过特征提取模块的多轮卷积后得到第零层特征C1、C2、C3、C4、C5,其分辨率分别为L/2*W/2*64,L/4*W/4*256,L/8*W/8*512,L/16*W/16*1024,L/32*W/32*2048;其中,L代表图像的长,W代表图像的宽。
3.根据权利要求1所述的一种基于关键点的目标检测的特征融合方法,其特征在于,在步骤(S2)中,所述特征融合模块内包括了特征个数随着层数的增加逐层减少一个的第一层特征Pi_1,第二层特征Pi_2,第三层特征Pi_3,第四层特征Pi_4;其中,2≤i≤4,第四层特征只有一个,即为第二特征图,其分辨率为L/4*W/4*64。
4.根据权利要求3所述的一种基于关键点的目标检测的特征融合方法,其特征在于,在步骤(S2)中,所述第一层特征Pi_1通过特征融合模块中的特征相加模块自顶向下得到,即
Pi_1=deconv3(Pi+1_1)+conv1(Ci) 2≤i≤4;
其中,Pi+1_1表示自顶向下的低分辨率特征图,Ci表示横向连接的来自特征提取网络的高分辨率特征图,deconv3表示3*3的转置卷积,conv1表示1*1的卷积,使用conv1和deconv3保持要融合的两个特征图的长宽和通道数完全相同,+conv3(Ci)中的+号表示将两个特征图对应位置的原始值相加。
5.根据权利要求4所述的一种基于关键点的目标检测的特征融合方法,其特征在于,在步骤(S2)中,所述第二到四层特征Pi_j用公式描述为:
Pi_j=conv1(concat(deconv3(Pi+1_j-1),Pi_j-1,conv3(Pi-1_j),Ci))2≤i,j≤4;
其中,Pi+1_j-1表示自顶向下的特征图,Pi_j-1表示自底向上的特征图,Pi-1_j表示前一层的中间特征图,Ci表示跨接的特征提取模块中的原始特征图,conv3表示3*3的卷积,用于将自底向上的大分辨率的特征图缩小一倍,而deconv3表示3*3的转置卷积,用于将自顶向下的小分辨率特征图放大一倍,使用conv3和deconv3保持要融合的多个特征图的长宽相同,但是通道数可以不同,concat表示特征拼接,用于将多个分辨率相同的特征图层叠在一起;conv1表示1*1的卷积,用于对拼接后的特征图在通道上进行整合;第四层的特征即为特征融合模块输出的第二特征图。
6.根据权利要求5所述的一种基于关键点的目标检测的特征融合方法,其特征在于,在步骤(S3)中,第二特征图分别进行3次独立卷积得到代表目标出现的位置和概率的hm特征图、代表目标的长宽的wh特征图、代表目标中心点的偏移量reg特征图。
7.根据权利要求6所述的一种基于关键点的目标检测的特征融合方法,其特征在于,在步骤(S4)中,所述后处理模块对步骤(S3)中输出的特征图输出所有检测目标的检测框(x1,y1,x2,y2,score);其中,x1,y1为检测目标左上角的位置,x2,y2为检测目标右下角的位置,score为检测目标的置信度。
CN202110443624.0A 2021-04-23 2021-04-23 一种基于关键点的目标检测的特征融合方法 Active CN113011443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110443624.0A CN113011443B (zh) 2021-04-23 2021-04-23 一种基于关键点的目标检测的特征融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110443624.0A CN113011443B (zh) 2021-04-23 2021-04-23 一种基于关键点的目标检测的特征融合方法

Publications (2)

Publication Number Publication Date
CN113011443A CN113011443A (zh) 2021-06-22
CN113011443B true CN113011443B (zh) 2022-06-03

Family

ID=76389340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110443624.0A Active CN113011443B (zh) 2021-04-23 2021-04-23 一种基于关键点的目标检测的特征融合方法

Country Status (1)

Country Link
CN (1) CN113011443B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461114A (zh) * 2020-03-03 2020-07-28 华南理工大学 一种基于分割的多尺度特征金字塔文本检测方法
CN111738110A (zh) * 2020-06-10 2020-10-02 杭州电子科技大学 基于多尺度注意力机制的遥感图像车辆目标检测方法
CN111860683A (zh) * 2020-07-30 2020-10-30 中国人民解放军国防科技大学 一种基于特征融合的目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021000362A1 (zh) * 2019-07-04 2021-01-07 浙江大学 一种基于深度神经网络模型的地址信息特征抽取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461114A (zh) * 2020-03-03 2020-07-28 华南理工大学 一种基于分割的多尺度特征金字塔文本检测方法
CN111738110A (zh) * 2020-06-10 2020-10-02 杭州电子科技大学 基于多尺度注意力机制的遥感图像车辆目标检测方法
CN111860683A (zh) * 2020-07-30 2020-10-30 中国人民解放军国防科技大学 一种基于特征融合的目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于特征金字塔结构的目标检测算法研究;盖成远;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20210115;第I138-1562页 *

Also Published As

Publication number Publication date
CN113011443A (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
Hsu et al. Ratio-and-scale-aware YOLO for pedestrian detection
WO2021190146A1 (zh) 图片处理方法、装置、存储介质及电子设备
CN111402258A (zh) 图像处理方法、装置、存储介质及电子设备
US8180170B2 (en) Apparatus and method of recognizing image feature pixel point
WO2022141819A1 (zh) 视频插帧方法、装置、计算机设备及存储介质
US11995796B2 (en) Method of reconstruction of super-resolution of video frame
WO2022170824A1 (zh) 图像拼接的处理方法、装置、电子系统和设备、可读介质
US9076221B2 (en) Removing an object from an image
CN112150450B (zh) 一种基于双通道U-Net模型的图像篡改检测方法及装置
CN110827371B (zh) 证件照生成方法、装置、电子设备及存储介质
US20060176315A1 (en) Method and apparatus for expanding a source pixel in a digital image
US20240169476A1 (en) Image processing method and apparatus, and storage medium and device
CN108665415B (zh) 基于深度学习的图像质量提升方法及其装置
CN112016489A (zh) 一种保留全局信息并增强局部特征的行人再识别方法
CN111353956A (zh) 图像修复方法、装置、计算机设备及存储介质
Liu et al. A deep recursive multi-scale feature fusion network for image super-resolution
EP2304685A1 (en) Method and system for predictive scaling of colour mapped images
CN113011443B (zh) 一种基于关键点的目标检测的特征融合方法
CN115346037A (zh) 一种图像篡改检测方法
CN113052187B (zh) 一种基于多尺度特征融合的全局特征对齐目标检测方法
CN111860363A (zh) 一种视频图像的处理方法及装置、电子设备、存储介质
CN116523757A (zh) 基于生成对抗网络的光场图像超分辨率模型及其训练方法
CN104036453A (zh) 图像局部变形方法及其适用的图像局部变形系统及手机
CN115578631A (zh) 基于多尺度交互和跨特征对比学习的图像篡改检测方法
CN112668619B (zh) 图像处理方法、装置、终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant