CN115311255A - 一种基于全卷积神经网络的伪装物体分割方法 - Google Patents

一种基于全卷积神经网络的伪装物体分割方法 Download PDF

Info

Publication number
CN115311255A
CN115311255A CN202211116270.XA CN202211116270A CN115311255A CN 115311255 A CN115311255 A CN 115311255A CN 202211116270 A CN202211116270 A CN 202211116270A CN 115311255 A CN115311255 A CN 115311255A
Authority
CN
China
Prior art keywords
neural network
convolution
anchor
frame
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211116270.XA
Other languages
English (en)
Inventor
宋霄罡
张鹏飞
宁靖宇
唐俊杰
庞欣超
崔永新
张冬冬
黑新宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202211116270.XA priority Critical patent/CN115311255A/zh
Publication of CN115311255A publication Critical patent/CN115311255A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于全卷积神经网络的伪装物体分割算法,具体包括如下步骤:步骤1,图像特征提取模块;步骤2,构建图像分类模块;步骤3,构建基于全卷积神经网络的目标分割模块;步骤4,融合分类模块与目标分割模块的输出结果。采用本发明,通过实验结果表明,可以有效的识别并分割图像中的伪装物体,丰富了人工智能和计算机视觉的方法体系,为伪装物体分割领域提升分割效果提供了一种选择。

Description

一种基于全卷积神经网络的伪装物体分割方法
技术领域
本发明涉及计算机视觉及人工智能技术领域,具体涉及一种基于全卷积神经网络的伪装物体分割方法。
背景技术
伪装物体分割,主要目的是检测出图像中那些视觉上与周围环境高度相似的目标,伪装是指通过材料、颜色或照明的任何组合来隐藏目标,以使目标物体难以被看到(伪装)或将其伪装成其他物体(模仿),伪装物体分割本质上是一种目标分割任务。
由于能够找到隐藏在周围环境中的伪装对象,所以伪装物体分割在医疗领域(息肉分割)、工业领域(产品检测)、军事领域(卫星侦察)等不同领域都有着巨大的应用前景。所以最近几年,伪装物体分割也受到越来越多的关注。
然而,伪装物体分割任务是一项具有挑战性的分割任务,与普通的分割任务不同,“伪装物体”利用自身与背景的高度相似性来欺骗观察者从而达到隐藏自己的目的,因此对此类任务,我们需要有更多的视觉感知知识来将物体从相似背景中分割出来。我们使用CNN网络特征提取,将特征图分别做两路处理,一路选择全卷积神经网络结构来实现对目标的像素级分割,一路使用卷积神经网络结构实现对目标的分类(是否为伪装物体),将两路处理结果融合,最终得到伪装物体的分割结果。
发明内容
本发明的目的是提供一种基于全卷积神经网络的伪装物体分割算法,实现针对自然图像中与背景相似或相近的伪装物体的识别与分割。
本发明所采用的技术方案是,一种基于全卷积神经网络的伪装物体分割方法,具体按以下步骤实施:
步骤1,图像特征提取;
步骤2,构建图像分类模块;
步骤3,构建基于全卷积神经网络的目标分割模块;
步骤4,融合分类模块与目标分割模块的输出结果。
本发明的特点还在于:
其中步骤1中图像特征提取模块采用ResNet-50网络结构对输入图像进行特征提取,具体按以下步骤实施:
步骤1.1,第一卷积模块,对待检测图像进行卷积处理,输出第一特征图;
步骤1.2,第二卷积模块,对第一特征图进行卷积处理,输出第二特征图;
步骤1.3,第三卷积模块,对第二特征图进行卷积处理,输出第三特征图;
步骤1.4,第四卷积模块,,对第三特征图进行卷积处理,输出第四特征图;
步骤1.5,第五卷积模块,对第四特征图进行卷积处理,输出第五特征图;
其中步骤2中构建图像分类模块按照以下步骤实施:
步骤2.1,使用两个全连接层,输出尺寸均为2048,每个全连接层后均使用一个ReLU激活函数,将特征图处理后得到一个一维向量;
步骤2.2,图像分类模块采用交叉熵损失作为损失函数;
其中步骤3构建基于全卷积神经网络的目标分割模块按照以下步骤实施:
步骤3.1,将特征图输入区域建议网络RPN以得到图像中伪装物体的可能定位;
步骤3.2,将得到的候选框做分类和回归计算;
步骤3.3,通过全卷积神经网络将伪装物体像素级分割;
其中步骤3.1将特征图输入区域建议网络具体按以下步骤实施:
步骤3.1.1,将步骤2得到的特征图经过一个3x3的卷积,设经过特征提取后得到的特征图大小为N×H×W,经过卷积将得到一个256×H×W的特征图;
步骤3.1.2,将特征图分别经过两次1x1的卷积操作,分别得到2×H×W和4×H×W,即两个分数和四个坐标;两个分数代表是目标物体还是背景的得分,四个坐标代表针对原图坐标的偏移;
步骤3.1.3,将得到的坐标映射到原图中的一个区域,将此区域左上角作为基准锚点,设每个锚点最多可以预测k个候选框,锚点在最后输出的卷积特征图每个像素点上按照从上到下,从左到右的规则进行滑动窗口,且其位于滑动窗口的中央,并根据预先设定好的不同尺度和长宽比来生成相应的锚框;
步骤3.1.4,RPN网络使用3种尺度(1282,2562,5122)和3种长宽比(1∶1,1∶2,2∶1)来生成锚框,因此在每个滑动窗口上最大可以生成k=9个锚框;假定最后输出的卷积特征图大小为H×W,则根据上述规则共可以生成H×W×k个锚框,每个像素点最后共有(4+2)×9向量输出,总共(4+2)×9×H×W个预测结果;
其中步骤3.2将得到的候选框做分类和回归计算具体按以下步骤实施:
步骤3.2.1,RPN网络还为每个锚框设定了相应的二进制标签,当某个锚框与真实标注框具有最高的重叠率IOU或该锚框与真实标注框的IOU大于0.7则将其标注为目标;当某个锚框与所有真实标注框的重叠率小于0.3时,将其标注为背景;重叠率介于0.3与0.7之间的锚框舍弃;
步骤3.2.2,生成锚框后,使用softmax对锚框进行分类,分类前和分类后分别使用Reshape对图像大小进行操作;
步骤3.2.3,分类结束后,采用线性回归函数对锚框坐标进行修正,最终生成候选框;
步骤3.2.4,RPN损失函数定义如公式(1)所示:
Figure BDA0003845691980000041
式中,i表示某一锚框所对应的索引值,p表示网络预测第i个锚框是目标物体还是背景的概率;若锚框为目标物体,则对应的真实标注框标签
Figure BDA0003845691980000042
值为1,否则为0;t表示锚框的4个参数化坐标,分别是锚框的中心点坐标和锚框的宽高,
Figure BDA0003845691980000043
表示对应的真实标注框的坐标;Lcls表示对数分类损失,Lreg表示边框回归损失,其关系如公式(2)所示:
Figure BDA0003845691980000051
其中步骤3.3通过全卷积神经网络将伪装物体像素级分割具体实施步骤如下:
步骤3.3.1,通过卷积神经网络对特征图下采样,此处仍然采用ResNet网络结果来进行卷积,但是去掉了ResNet的全连接层和池化层;
步骤3.3.2,经过特征提取后的特征图,再进行上采样,恢复图片大小,然后对每一个像素softmax,得到对每一个像素的预测值,实现像素级分割;
其中步骤4融合分类模块与目标分割模块的输出结果按照以下步骤实施:
步骤4.1,将分类模块得到的标量与目标分割模块得到的向量相乘,得到最终的结果;
步骤4.2,使用F-measure来评估结果,如公式(3)所示:
Figure BDA0003845691980000052
式中,β是参数,Precision是精确率,Recall是召回率。
本发明的有益效果是
采用本发明的一种基于全卷积神经网络的伪装物体分割算法,通过实验结果表明,可以有效的识别并分割图像中的伪装物体,丰富了人工智能和计算机视觉的方法体系,为伪装物体分割领域提升分割效果提供了一种选择。
附图说明
图1是本发明的一种基于全卷积神经网络的伪装物体分割方法中实施例的步骤2中使用的分类模块网络结构图;
图2是本发明的一种基于全卷积神经网络的伪装物体分割方法中实施例的步骤3.1中使用的分割模块中RPN网络处理流程图;
图3是本发明的一种基于全卷积神经网络的伪装物体分割方法中实施例的步骤3.1中使用的区域建议RPN网络结构图;
图4是本发明的一种基于全卷积神经网络的伪装物体分割方法中实施例的步骤3.2中使用的全卷积神经网络结构图;
图5是本发明的一种基于全卷积神经网络的伪装物体分割方法的整体模型框架图;
图6是本发明的一种基于全卷积神经网络的伪装物体分割方法对一张图像中伪装目标的处理结果。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供了一种基于全卷积神经网络的伪装物体分割方法,如图6所示,具体按以下步骤实施:
步骤1,图像特征提取:
图像特征提取模块采用ResNet-50网络结构对输入图像进行特征提取,具体按以下步骤实施:
步骤1.1,第一卷积模块,对待检测图像进行卷积处理,输出第一特征图;
步骤1.2,第二卷积模块,对第一特征图进行卷积处理,输出第二特征图;
步骤1.3,第三卷积模块,对第二特征图进行卷积处理,输出第三特征图;
步骤1.4,第四卷积模块,对第三特征图进行卷积处理,输出第四特征图;
步骤1.5,第五卷积模块,对第四特征图进行卷积处理,输出第五特征图;
本技术方案采用ResNet-50模型进行特征提取,ResNet-50模型结构如表1所示:
表1:ResNet-50结构表
Figure BDA0003845691980000071
步骤2,如图1所示,构建图像分类模块:
步骤2.1,使用两个全连接层,输出尺寸均为2048,每个全连接层后均使用一个ReLU激活函数,将特征图处理后得到一个一维向量;
步骤2.2,图像分类模块采用交叉熵损失作为损失函数;
步骤3,如图2所示,构建基于全卷积神经网络的目标分割模块:
步骤3.1,将特征图输入区域建议网络(RPN)以得到图像中伪装物体的可能定位,RPN网络的网络结构图如图3所示:
步骤3.1.1,将步骤2得到的特征图经过一个3x3的卷积,设经过特征提取后得到的特征图大小为N×H×W,经过卷积将得到一个256×H×W的特征图;
步骤3.1.2,将特征图分别经过两次1x1的卷积操作,分别得到2×H×W和4×H×W,即两个分数和四个坐标;两个分数代表是目标物体还是背景的得分,四个坐标代表针对原图坐标的偏移;
步骤3.1.3,将得到的坐标映射到原图中的一个区域,将此区域左上角作为基准锚点,设每个锚点最多可以预测k个候选框,锚点在最后输出的卷积特征图每个像素点上按照从上到下,从左到右的规则进行滑动窗口,且其位于滑动窗口的中央,并根据预先设定好的不同尺度和长宽比来生成相应的锚框;
步骤3.1.4,RPN网络使用3种尺度(1282,2562,5122)和3种长宽比(1∶1,1∶2,2∶1)来生成锚框,因此在每个滑动窗口上最大可以生成k=9个锚框;假定最后输出的卷积特征图大小为H×W,则根据上述规则共可以生成H×W×k个锚框,每个像素点最后共有(4+2)×9向量输出,总共(4+2)×9×H×W个预测结果;
步骤3.2,将得到的候选框做分类和回归计算:
步骤3.2.1,RPN网络还为每个锚框设定了相应的二进制标签,当某个锚框与真实标注框具有最高的重叠率(IOU)或该锚框与真实标注框的IOU大于0.7则将其标注为目标;当某个锚框与所有真实标注框的重叠率小于0.3时,将其标注为背景;重叠率介于0.3与0.7之间的锚框舍弃。
步骤3.2.2,生成锚框后,使用softmax对锚框进行分类,分类前和分类后分别使用Reshape对图像大小进行操作。
步骤3.2.3,分类结束后,采用线性回归函数对锚框坐标进行修正,最终生成候选框;步骤3.2.4,RPN损失函数定义如公式(1)所示:
Figure BDA0003845691980000091
式中,i表示某一锚框所对应的索引值,p表示网络预测第i个锚框是目标物体还是背景的概率;若锚框为目标物体,则对应的真实标注框标签
Figure BDA0003845691980000092
值为1,否则为0;t表示锚框的4个参数化坐标,分别是锚框的中心点坐标和锚框的宽高,
Figure BDA0003845691980000093
表示对应的真实标注框的坐标;Lcls表示对数分类损失,Lreg表示边框回归损失,其关系如公式(2)所示:
Figure BDA0003845691980000094
步骤3.3,通过全卷积神经网络将伪装物体像素级分割:
步骤3.3.1,通过卷积神经网络对特征图下采样,此处仍然采用ResNet网络结果来进行卷积,但是去掉了ResNet的全连接层和池化层。
步骤3.3.2,经过特征提取后的特征图,再进行上采样,恢复图片大小,然后对每一个像素softmax,得到对每一个像素的预测值,实现像素级分割;
步骤4,融合分类模块与目标分割模块的输出结果:
步骤4.1,将分类模块得到的标量(概率)与目标分割模块得到的向量相乘,得到最终的结果,如图5所示,图5显示了本网络对图像的处理结果,图左侧是原始图像,经过网络处理,得到图右的处理结果,可以看到,精确的将图中的伪装目标识别并分割了出来;
步骤4.2,我们使用F-measure来评估我们的结果;如公式(3)所示:
Figure BDA0003845691980000101
式中,β是参数,Precision是精确率,Recall是召回率。

Claims (8)

1.一种基于全卷积神经网络的伪装物体分割方法,其特征在于,具体按以下步骤实施:
步骤1,图像特征提取;
步骤2,构建图像分类模块;
步骤3,构建基于全卷积神经网络的目标分割模块;
步骤4,融合分类模块与目标分割模块的输出结果。
2.根据权利要求1所述的一种基于全卷积神经网络的伪装物体分割方法,其特征在于,所述步骤1中图像特征提取模块采用ResNet-50网络结构对输入图像进行特征提取,具体按以下步骤实施:
步骤1.1,第一卷积模块,对待检测图像进行卷积处理,输出第一特征图;
步骤1.2,第二卷积模块,对第一特征图进行卷积处理,输出第二特征图;
步骤1.3,第三卷积模块,对第二特征图进行卷积处理,输出第三特征图;
步骤1.4,第四卷积模块,对第三特征图进行卷积处理,输出第四特征图;
步骤1.5,第五卷积模块,对第四特征图进行卷积处理,输出第五特征图。
3.根据权利要求1所述的一种基于全卷积神经网络的伪装物体分割方法,其特征在于,所述步骤2中构建图像分类模块按照以下步骤实施:
步骤2.1,使用两个全连接层,输出尺寸均为2048,每个全连接层后均使用一个ReLU激活函数,将特征图处理后得到一个一维向量;
步骤2.2,图像分类模块采用交叉熵损失作为损失函数。
4.根据权利要求1所述的一种基于全卷积神经网络的伪装物体分割方法,其特征在于,所述步骤3构建基于全卷积神经网络的目标分割模块按照以下步骤实施:
步骤3.1,将特征图输入区域建议网络RPN以得到图像中伪装物体的可能定位;
步骤3.2,将得到的候选框做分类和回归计算;
步骤3.3,通过全卷积神经网络将伪装物体像素级分割。
5.根据权利要求4所述的一种基于全卷积神经网络的伪装物体分割方法,其特征在于,所述步骤3.1将特征图输入区域建议网络具体按以下步骤实施:
步骤3.1.1,将步骤2得到的特征图经过一个3x3的卷积,设经过特征提取后得到的特征图大小为N×H×W,经过卷积将得到一个256×H×W的特征图;
步骤3.1.2,将特征图分别经过两次1x1的卷积操作,分别得到2×H×W和4×H×W,即两个分数和四个坐标;两个分数代表是目标物体还是背景的得分,四个坐标代表针对原图坐标的偏移;
步骤3.1.3,将得到的坐标映射到原图中的一个区域,将此区域左上角作为基准锚点,设每个锚点最多可以预测k个候选框,锚点在最后输出的卷积特征图每个像素点上按照从上到下,从左到右的规则进行滑动窗口,且其位于滑动窗口的中央,并根据预先设定好的不同尺度和长宽比来生成相应的锚框;
步骤3.1.4,RPN网络使用3种尺度(1282,2562,5122)和3种长宽比(1:1,1:2,2:1)来生成锚框,因此在每个滑动窗口上最大可以生成k=9个锚框;假定最后输出的卷积特征图大小为H×W,则根据上述规则共可以生成H×W×k个锚框,每个像素点最后共有(4+2)×9向量输出,总共(4+2)×9×H×W个预测结果。
6.根据权利要求4所述的一种基于全卷积神经网络的伪装物体分割方法,其特征在于,所述步骤3.2将得到的候选框做分类和回归计算具体按以下步骤实施:
步骤3.2.1,RPN网络还为每个锚框设定了相应的二进制标签,当某个锚框与真实标注框具有最高的重叠率IOU或该锚框与真实标注框的IOU大于0.7则将其标注为目标;当某个锚框与所有真实标注框的重叠率小于0.3时,将其标注为背景;重叠率介于0.3与0.7之间的锚框舍弃;
步骤3.2.2,生成锚框后,使用softmax对锚框进行分类,分类前和分类后分别使用Reshape对图像大小进行操作;
步骤3.2.3,分类结束后,采用线性回归函数对锚框坐标进行修正,最终生成候选框;
步骤3.2.4,RPN损失函数定义如公式(1)所示:
Figure FDA0003845691970000031
式中,i表示某一锚框所对应的索引值,p表示网络预测第i个锚框是目标物体还是背景的概率;若锚框为目标物体,则对应的真实标注框标签
Figure FDA0003845691970000032
值为1,否则为0;t表示锚框的4个参数化坐标,分别是锚框的中心点坐标和锚框的宽高,
Figure FDA0003845691970000041
表示对应的真实标注框的坐标;Lcls表示对数分类损失,Lreg表示边框回归损失,其关系如公式(2)所示:
Figure FDA0003845691970000042
7.根据权利要求4所述的一种基于全卷积神经网络的伪装物体分割方法,其特征在于,所述步骤3.3通过全卷积神经网络将伪装物体像素级分割具体实施步骤如下:
步骤3.3.1,通过卷积神经网络对特征图下采样,此处仍然采用ResNet网络结果来进行卷积,但是去掉了ResNet的全连接层和池化层;
步骤3.3.2,经过特征提取后的特征图,再进行上采样,恢复图片大小,然后对每一个像素softmax,得到对每一个像素的预测值,实现像素级分割。
8.根据权利要求1所述的一种基于全卷积神经网络的伪装物体分割方法,其特征在于,所述步骤4融合分类模块与目标分割模块的输出结果按照以下步骤实施:
步骤4.1,将分类模块得到的标量与目标分割模块得到的向量相乘,得到最终的结果;
步骤4.2,使用F-measure来评估结果,如公式(3)所示:
Figure FDA0003845691970000043
式中,β是参数,Precision是精确率,Recall是召回率。
CN202211116270.XA 2022-09-14 2022-09-14 一种基于全卷积神经网络的伪装物体分割方法 Pending CN115311255A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211116270.XA CN115311255A (zh) 2022-09-14 2022-09-14 一种基于全卷积神经网络的伪装物体分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211116270.XA CN115311255A (zh) 2022-09-14 2022-09-14 一种基于全卷积神经网络的伪装物体分割方法

Publications (1)

Publication Number Publication Date
CN115311255A true CN115311255A (zh) 2022-11-08

Family

ID=83867103

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211116270.XA Pending CN115311255A (zh) 2022-09-14 2022-09-14 一种基于全卷积神经网络的伪装物体分割方法

Country Status (1)

Country Link
CN (1) CN115311255A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368712A (zh) * 2020-03-02 2020-07-03 四川九洲电器集团有限责任公司 一种基于深度学习的高光谱图像伪装目标检测方法
CN113449727A (zh) * 2021-07-19 2021-09-28 中国电子科技集团公司第二十八研究所 一种基于深度神经网络的伪装目标检测识别方法
CN114170627A (zh) * 2021-11-23 2022-03-11 西安理工大学 基于改进的Faster RCNN的行人检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368712A (zh) * 2020-03-02 2020-07-03 四川九洲电器集团有限责任公司 一种基于深度学习的高光谱图像伪装目标检测方法
CN113449727A (zh) * 2021-07-19 2021-09-28 中国电子科技集团公司第二十八研究所 一种基于深度神经网络的伪装目标检测识别方法
CN114170627A (zh) * 2021-11-23 2022-03-11 西安理工大学 基于改进的Faster RCNN的行人检测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
EVAN SHELHAMER 等: "Fully Convolutional Networks for Semantic Segmentation", vol. 39, no. 4, pages 640 - 651, XP055865277, DOI: 10.1109/TPAMI.2016.2572683 *
LV YUNQIU 等: "Simultaneously Localize, Segment and Rank the Camouflaged Objects", pages 11586 - 11596 *
REN SHAOQING 等: "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", vol. 39, no. 6, pages 1137 - 1149, XP055705510, DOI: 10.1109/TPAMI.2016.2577031 *
TRUNG-NGHIA LE 等: "Anabranch network for camouflaged object segmentation", vol. 184, pages 45 - 56 *
史彩娟 等: "基于深度学习的伪装目标检测综述", vol. 16, no. 12, pages 2734 - 2751 *
桑塔努·帕塔纳亚克: "《Python人工智能项目实战》", 中国铁道出版社, pages: 70 - 74 *

Similar Documents

Publication Publication Date Title
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
JP7236545B2 (ja) ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN109934121B (zh) 一种基于YOLOv3算法的果园行人检测方法
CN111328396B (zh) 用于图像中的对象的姿态估计和模型检索
CN110738207B (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
CN108549893B (zh) 一种任意形状的场景文本端到端识别方法
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
US20220178688A1 (en) Method and apparatus for binocular ranging
Zhang et al. Long-range terrain perception using convolutional neural networks
EP3499414B1 (en) Lightweight 3d vision camera with intelligent segmentation engine for machine vision and auto identification
CN111260688A (zh) 一种孪生双路目标跟踪方法
Wu et al. Real-time background subtraction-based video surveillance of people by integrating local texture patterns
CN111401380B (zh) 一种基于深度特征增强和边缘优化的rgb-d图像语义分割方法
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN112396036B (zh) 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法
CN106407978B (zh) 一种结合似物度的无约束视频中显著物体检测方法
CN112861970A (zh) 一种基于特征融合的细粒度图像分类方法
CN115035581A (zh) 面部表情识别方法、终端设备及存储介质
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN115630660B (zh) 基于卷积神经网络的条码定位方法和装置
CN117115655A (zh) 一种自然环境下番茄果实的检测方法及系统
Achmed et al. Upper body pose estimation towards the translation of South African sign language
CN115311255A (zh) 一种基于全卷积神经网络的伪装物体分割方法
CN114757819A (zh) 一种结构引导的风格偏差校正型风格迁移方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination