CN113160263A - 一种基于yolact实例分割的改进方法 - Google Patents
一种基于yolact实例分割的改进方法 Download PDFInfo
- Publication number
- CN113160263A CN113160263A CN202110341105.3A CN202110341105A CN113160263A CN 113160263 A CN113160263 A CN 113160263A CN 202110341105 A CN202110341105 A CN 202110341105A CN 113160263 A CN113160263 A CN 113160263A
- Authority
- CN
- China
- Prior art keywords
- mask
- instance
- pixel point
- value
- multiplied
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000011218 segmentation Effects 0.000 title abstract description 25
- 238000011176 pooling Methods 0.000 claims description 21
- 230000004913 activation Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000000638 solvent extraction Methods 0.000 claims description 5
- 230000001629 suppression Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 15
- 230000000694 effects Effects 0.000 abstract 2
- 230000018109 developmental process Effects 0.000 abstract 1
- 238000011156 evaluation Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 8
- PJOHVEQSYPOERL-SHEAVXILSA-N (e)-n-[(4r,4as,7ar,12br)-3-(cyclopropylmethyl)-9-hydroxy-7-oxo-2,4,5,6,7a,13-hexahydro-1h-4,12-methanobenzofuro[3,2-e]isoquinoline-4a-yl]-3-(4-methylphenyl)prop-2-enamide Chemical compound C1=CC(C)=CC=C1\C=C\C(=O)N[C@]1(CCC(=O)[C@@H]2O3)[C@H]4CC5=CC=C(O)C3=C5[C@]12CCN4CC1CC1 PJOHVEQSYPOERL-SHEAVXILSA-N 0.000 description 7
- 102100023126 Cell surface glycoprotein MUC18 Human genes 0.000 description 7
- 101000623903 Homo sapiens Cell surface glycoprotein MUC18 Proteins 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像实例分割领域,具体涉及一种基于YOLACT实例分割的改进方法。随着目标检测和语义分割任务的发展,作为两者任务的结合体实例分割任务也越来越多的受到研究者们的关注,但目前为止实例分割任务依然没有达到令人满意的效果。实例分割任务主要受限于两个评价指标:精度和时间复杂度。虽然YOLACT实例分割算法达到了实时性,但精度却达不到一个较好的水平。因此本文对YOLACT算法进行了相应改进,提高的网络的精度。综合考虑准确性和实时性本发明都具备了较好的效果。
Description
技术领域
本发明属于图像实例分割领域,具体涉及一种基于YOLACT实例分割的改进方法。
背景技术
目标检测及定位是图像处理中从粗糙到精细的过程。它不仅需要给出图像中每个对象的类别,还要给出对象的具体位置,位置的表示可以分为对象的包围框或者对象的质心。语义分割通过预测输入图像中每个像素的类别来进行类别间的划分。实例分割为属于同一个类的对象的不同实例提供了不同的标签。换言之语义分割只对整幅图进行像素点的预测,不区分不同实例,将不同实例都认为是一个类别。而实例分割在语义分割的基础上增加了区分同类不同实例的功能。因此,实例分割可以定义为同时解决了目标检测识别和语义分割问题的一种技术。
发明内容
本发明要解决的技术问题是:对YOLACT实例分割算法进行改进,改进后算法的精度比原算法更高。
本发明基于YOLACT实例分割的改进方法,包括以下步骤:
步骤1:输入一张图像,对图像进行特征提取;
步骤2:对提取到的特征进行特征融合;
步骤3:通过掩码生成网络生成图像的原始掩码;
步骤4:通过注意力机制筛选融合后的特征;
其中步骤4的具体步骤为:
步骤401:将特征进行多尺度池化,池化到大小为1×1、3×3和5×5的结果,池化方式采用平均池化方式;
步骤402:对池化后的结果进行上采样,上采样到大小为5×5,上采样方式采用双线性插值法;
步骤403:对三个5×5的上采样结果求和,求和方式采用逐元素加法;
步骤404:进行四次卷积操作来预测注意力权重参数,第一次进行1×1卷积操作,将通道维度进行压缩,减小后续的计算量,第二次和第三次进行3×3卷积操作,第四次进行1×1卷积操作,并在前三次卷积后使用ReLU激活函数,增加预测的非线性度,但在第四次卷积后使用Sigmoid激活函数,将预测的权重参数归一化到0~1区间;
步骤405:求预测的权重参数与特征的积;
步骤5:通过预测网络预测实例的位置、类别和掩码系数;
步骤6:通过掩码系数和原始掩码获得实例的掩码;
步骤7:通过掩码抑制算法对实例掩码进行处理;
其中步骤7的具体步骤为:
步骤701:遍历掩码图上所有的像素点,对每个像素点在掩码图中求最大值,并将得到的掩码编号保存在maxMask变量中,如果像素点不属于任何一个实例则值为0;
步骤702:用maxMask和每个实例掩码求交集,如果maxMask像素点的值和某个掩码编号相同,那么当前掩码保留该像素点的值,即该像素点属于此掩码;如果maxMask像素点上的值与当前掩码编号不对应,那么当前掩码上该像素点的值设置为0;
步骤8:裁剪及二值化处理。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
(1)解决了YOLACT实例分割算法中存在的一个实例被预测了两个不同的掩码的问题,并且没有明显的增加算法的时间复杂度;
(2)通过使用注意力机制和特征融合方式来更高效的提取出图像中的主要信息。
附图说明
图1改进后YOLACT算法的网络框架图
图2抑制其他实例结果对比图
图3注意力模块对比图
图4MCAM模块结构图
图5抑制结果对比图
具体实施方式
YOLACT实例分割算法改进后的网络结构如图1所示。
YOLACT算法通过检测框对预测出来的掩码进行裁剪,从而得到单个实例的掩码。此方法适用于简单的场景下,如实例和实例之间的空间距离较大,而复杂场景下该方法不再适用,如实例有遮挡或者两个实例有部分重合,如图2所示。换句话说,即两个检测框之间有重合。这导致了检测框A中包含了检测框B的一部分,YOLACT对此情况不做处理,统一将A中包含的部分B认为是A。在后期进行阈值操作时,如果A中包含的部分B的取值较低,该部分可被抑制掉,如果该部分取值较高,那么此部分会被认为是A,同样的情况适用于B。这就造成了实例A的掩码预测结果大于实际A的掩码的情况,即将实例B的一部分预测为实例A。因此本章对复杂场景下具有重合的实例进行了重点分析。
通过众多实验发现,YOLACT的掩码生成分支往往可以产生高质量的掩码,该掩码和掩码系数进行线性组合后,可以很好的确定检测框内的实例掩码,表现为该检测框内的实例掩码的数值较高,而同在该检测框内的其他实例的掩码值往往低于该实例真实检测框内的掩码值,也就是说通过掩码和掩码系数的线性组合,强调了当前检测框内的整体实例,在一定程度上削弱了其他检测框内的整体实例。
基于以上情况提出了抑制其他实例的方法。分割任务无非就是将指定像素点进行类别的预测,而每个像素点只能属于一个类别,如语义分割。同样,实例分割也不例外,每个实例的像素点也只能有一种类别。而YOLACT得到的掩码并不具备这样的要求,因此如何让每个实例只出现在一个检测框内尤为重要。语义分割最后会预测出C个掩码,每个掩码表示一个类别,实际图像中对应像素点的类别是所有掩码对应点中预测值最大的那个。
抑制其他实例算法具体过程如下:
(1)遍历掩码图上所有像素点(138×138),对每个像素点在掩码图中求最大值,并将得到的掩码编号保存在maxMask变量中,该变量也可以看做掩码,只不过每个像素点的值表示掩码的编号,如果该点不属于任何一个实例则值为0。
(2)然后用maxMask和每个实例掩码求交集,如果maxMask像素点的值和某个掩码编号相同,那么当前掩码保留该像素点的值,即该像素点属于此掩码;如果maxMask像素点上的值与当前掩码编号不对应,那么当前掩码上该像素点的值设置为0。
公式(1)和公式(2)表示了计算当前位置属于哪个实例,公式(1)表示上述算法步骤中的(1),公式(2)表示上述算法步骤中的(2)。
通过以上方法得到的实例掩码不包含其他实例的部分掩码。该方法的速度很快,也没有引入其他参数。图5表了抑制前后的掩码结果图。
另外提出使用多尺度池化方式进行特征提取,然后在将这些池化结果进行融合,最后进行卷积和非线性处理,得到各通道上的权重参数。为了建立特征通道之间更准确的相互关系,该模块可以通过学习自动获取每个特征通道的重要程度,基于这个重要程度去增强有用特征通道,抑制无用特征通道。图3展示了SENet、CBAM和MCAM模块的对比结构图。
利用特征图各通道之间的关系生成注意力图。特征图的每个通道都可以看做是一个特征检测器,通道注意力往往关注输入特征图有意义的通道。图4表示了MCAM的具体操作流程。为了更准确的计算通道的注意力度,MCAM模块采用了多尺度池化方式,可以提取出不同感受野的通道信息。为了聚合空间信息,这里采用平均池化方式。通过多尺度池化大大提升了网络的表示能力。下面详细描述其实现过程。
(1)多尺度池化。对于全局平均池化,该方法虽然可以得到一个良好的全局上下文信息,但是对于相对复杂的图像,全局平均池化不能充分涵盖必要的通道信息。MCAM模块使用多尺度池化目的在于尽可能多的挖掘单一通道中的有用信息。输出结果中包含了不同大小感受野信息,该信息有助于通道权重的分配。特征图F经过多尺度池化后得到F1、F3和F5。表示1×1的池化结果,表示3×3的池化结果,表示5×5的池化结果。
(2)上采样。上采样后进行求和的原因为不同尺度的池化操作对应了不同大小的感受野,F1的感受野大小为H×W,F3的感受野大小为H/3×W/3,F5的感受野大小为H/5×W/5。可知F1有最大的感受野,F3次之,F5有最小的感受野。对F1、F3和F5求和融合了不同大小感受野的信息,局部感受野上也融合了全局感受信息。
具体做法为:对池化后的F1、F3和F5进行上采样,上采样到空间大小为5×5,通道数保持不变,上采样方法为双线性插值法;再将上采样的结果进行求和得到FS,求和方式为逐元素求和。如图4所示。下面对FS中位置(1,1)处的结果进行详细说明,其他位置和该位置的结果具有相似性。
公式4表示使用1×1池化后特征图(1,1)位置的结果。
公式5表示使用3×3池化后特征图(1,1)位置的结果。
公式6表示使用5×5池化后特征图(1,1)位置的结果。
因此特征图FS在(1,1)位置处的结果如公式7所示。
(3)通道权重预测。接下来对上采样并求和后的结果进行权重预测,输出为1×1×C的向量。为增加预测过程中的非线性度,在卷积后使用ReLU激活函数,具体过程如图4所示。先对原来上采样得到的维度大小为5×5×C的特征图Fs进行1×1卷积操作得到Fc1,将通道压缩到原来的1/4倍,空间大小保持不变,卷积后的维度为5×5×C/4,再经过ReLU激活函数;然后经过两次3×3的卷积操作,步长为1,填充为0,3×3卷积后都接上一个ReLU激活函数,得到特征的维度为1×1×C/4;然后进行1×1卷积操作将通道数恢复到C,再使用Sigmoid激活函数进行归一化得到Fout,输出预测结果维度为1×1×C,取值范围为0~1。
在进行3×3卷积操作前通道数较多,直接对原始特征做卷积操作则计算量过多,因此可以先减少特征图的通道数目,然后再进行卷积,最后使用1×1卷积恢复通道数目。该方法可以在一定程度上减少计算量。另外为增加模块的非线性度,在每次卷积后都使用了ReLU非线性函数。
(4)通道相乘。最后将预测结果Fout和输入特征F相乘。因为Fout的取值范围为0~1,因此Fout值越接近1,则输入特征F的对应通道特征越被强调;Fout值越接近0,则输入特征F的对应通道特征越被抑制。
Claims (3)
1.一种基于YOLACT实例分割的改进方法,其特征在于,包括下列步骤:
步骤1:输入一张图像,对图像进行特征提取;
步骤2:对提取到的特征进行特征融合;
步骤3:通过掩码生成网络生成图像的原始掩码;
步骤4:通过注意力机制筛选融合后的特征;
步骤5:通过预测网络预测实例的位置、类别和掩码系数;
步骤6:通过掩码系数和原始掩码获得实例的掩码;
步骤7:通过掩码抑制算法对实例掩码进行处理;
步骤8:裁剪及二值化处理。
2.根据权利要求1所述的基于YOLACT实例分割的改进方法,其特征在于,所述步骤4中通过预测网络预测实例的位置、类别和掩码系数的方法具体为:
步骤401:将特征进行多尺度池化,池化到大小为1×1、3×3和5×5的结果,池化方式采用平均池化方式;
步骤402:对池化后的结果进行上采样,上采样到大小为5×5,上采样方式采用双线性插值法;
步骤403:对三个5×5的上采样结果求和,求和方式采用逐元素加法;
步骤404:进行四次卷积操作来预测注意力权重参数,第一次进行1×1卷积操作,将通道维度进行压缩,减小后续的计算量,第二次和第三次进行3×3卷积操作,第四次进行1×1卷积操作,并在前三次卷积后使用ReLU激活函数,增加预测的非线性度,但在第四次卷积后使用Sigmoid激活函数,将预测的权重参数归一化到0~1区间;
步骤405:求预测的权重参数与特征的积。
3.根据权利要求1所述的基于YOLACT实例分割的改进方法,其特征在于,所述步骤7中通过掩码抑制算法对实例掩码进行处理的方法具体为:
步骤701:遍历掩码图上所有的像素点,对每个像素点在掩码图中求最大值,并将得到的掩码编号保存在maxMask变量中,如果像素点不属于任何一个实例则值为0,;
步骤702:用maxMask和每个实例掩码求交集,如果maxMask像素点的值和某个掩码编号相同,那么当前掩码保留该像素点的值,即该像素点属于此掩码;如果maxMask像素点上的值与当前掩码编号不对应,那么当前掩码上该像素点的值设置为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110341105.3A CN113160263A (zh) | 2021-03-30 | 2021-03-30 | 一种基于yolact实例分割的改进方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110341105.3A CN113160263A (zh) | 2021-03-30 | 2021-03-30 | 一种基于yolact实例分割的改进方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113160263A true CN113160263A (zh) | 2021-07-23 |
Family
ID=76885427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110341105.3A Pending CN113160263A (zh) | 2021-03-30 | 2021-03-30 | 一种基于yolact实例分割的改进方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113160263A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114926359A (zh) * | 2022-05-20 | 2022-08-19 | 电子科技大学 | 联合双颜色空间恢复和多级解码结构的水下图像增强方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490203A (zh) * | 2019-07-05 | 2019-11-22 | 平安科技(深圳)有限公司 | 图像分割方法及装置、电子设备和计算机可读存储介质 |
CN110706267A (zh) * | 2019-09-04 | 2020-01-17 | 五邑大学 | 一种基于采矿过程的矿石三维坐标获取方法及其装置 |
US10713794B1 (en) * | 2017-03-16 | 2020-07-14 | Facebook, Inc. | Method and system for using machine-learning for object instance segmentation |
CN111461068A (zh) * | 2020-04-27 | 2020-07-28 | 湖南自兴智慧医疗科技有限公司 | 一种染色体中期图识别和分割方法 |
CN111814768A (zh) * | 2020-09-02 | 2020-10-23 | 中国医学科学院北京协和医院 | 基于ai复合模型的图像识别方法、装置、介质和设备 |
CN111915565A (zh) * | 2020-07-03 | 2020-11-10 | 太原理工大学 | 一种基于yolact算法对输变电线路瓷瓶裂缝实时分析方法 |
US20200410254A1 (en) * | 2019-06-25 | 2020-12-31 | Nvidia Corporation | Intersection region detection and classification for autonomous machine applications |
-
2021
- 2021-03-30 CN CN202110341105.3A patent/CN113160263A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10713794B1 (en) * | 2017-03-16 | 2020-07-14 | Facebook, Inc. | Method and system for using machine-learning for object instance segmentation |
US20200410254A1 (en) * | 2019-06-25 | 2020-12-31 | Nvidia Corporation | Intersection region detection and classification for autonomous machine applications |
CN110490203A (zh) * | 2019-07-05 | 2019-11-22 | 平安科技(深圳)有限公司 | 图像分割方法及装置、电子设备和计算机可读存储介质 |
CN110706267A (zh) * | 2019-09-04 | 2020-01-17 | 五邑大学 | 一种基于采矿过程的矿石三维坐标获取方法及其装置 |
CN111461068A (zh) * | 2020-04-27 | 2020-07-28 | 湖南自兴智慧医疗科技有限公司 | 一种染色体中期图识别和分割方法 |
CN111915565A (zh) * | 2020-07-03 | 2020-11-10 | 太原理工大学 | 一种基于yolact算法对输变电线路瓷瓶裂缝实时分析方法 |
CN111814768A (zh) * | 2020-09-02 | 2020-10-23 | 中国医学科学院北京协和医院 | 基于ai复合模型的图像识别方法、装置、介质和设备 |
Non-Patent Citations (4)
Title |
---|
DANIEL BOLYA ET AL: "YOLACT: Real-Time Instance Segmentation", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
MARKUS FOX ET AL: "Pixel-Based Tool Segmentation in Cataract Surgery Videos with Mask R-CNN", 《2020 IEEE 33RD INTERNATIONAL SYMPOSIUM ON COMPUTER-BASED MEDICAL SYSTEMS (CBMS)》 * |
夏敏: "基于特征增强的物体检测分割方法研究", 《哈尔滨工业大学硕士论文》 * |
张引: "面向自动驾驶防撞预警的物体识别和定位", 《昆明理工大学硕士论文》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114926359A (zh) * | 2022-05-20 | 2022-08-19 | 电子科技大学 | 联合双颜色空间恢复和多级解码结构的水下图像增强方法 |
CN114926359B (zh) * | 2022-05-20 | 2023-04-07 | 电子科技大学 | 联合双颜色空间恢复和多级解码结构的水下图像增强方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462126B (zh) | 一种基于边缘增强的语义图像分割方法及系统 | |
CN111639692B (zh) | 一种基于注意力机制的阴影检测方法 | |
CN108256562B (zh) | 基于弱监督时空级联神经网络的显著目标检测方法及系统 | |
US8203554B2 (en) | Method and apparatus for identifying visual content foregrounds | |
CN111612017B (zh) | 一种基于信息增强的目标检测方法 | |
CN110781756A (zh) | 基于遥感图像的城市道路提取方法及装置 | |
CN109977895B (zh) | 一种基于多特征图融合的野生动物视频目标检测方法 | |
JP6892606B2 (ja) | 位置特定装置、位置特定方法及びコンピュータプログラム | |
CN111899203B (zh) | 基于标注图在无监督训练下的真实图像生成方法及存储介质 | |
CN108241854A (zh) | 一种基于运动和记忆信息的深度视频显著性检测方法 | |
CN111507337A (zh) | 基于混合神经网络的车牌识别方法 | |
CN112183649A (zh) | 一种用于对金字塔特征图进行预测的算法 | |
CN116797787A (zh) | 基于跨模态融合与图神经网络的遥感影像语义分割方法 | |
CN116310850B (zh) | 基于改进型RetinaNet的遥感图像目标检测方法 | |
CN112861970A (zh) | 一种基于特征融合的细粒度图像分类方法 | |
CN113657225B (zh) | 一种目标检测方法 | |
Zuo et al. | A remote sensing image semantic segmentation method by combining deformable convolution with conditional random fields | |
CN109948628B (zh) | 一种基于判别性区域挖掘的目标检测方法 | |
CN117475357B (zh) | 基于深度学习的监控视频图像遮挡检测方法及系统 | |
CN113160263A (zh) | 一种基于yolact实例分割的改进方法 | |
CN113610760A (zh) | 一种基于u型残差神经网络的细胞图像分割示踪方法 | |
CN113627481A (zh) | 一种面向智慧园林的多模型组合的无人机垃圾分类方法 | |
CN116993775A (zh) | 一种联合实例分割的行人多目标跟踪方法 | |
CN115953625A (zh) | 基于特征图双轴Transformer模块的车辆检测方法 | |
CN115564709A (zh) | 一种对抗场景下电力算法模型鲁棒性的评估方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210723 |
|
WD01 | Invention patent application deemed withdrawn after publication |