CN112465847A - 一种基于预测清晰边界的边缘检测方法、装置及设备 - Google Patents

一种基于预测清晰边界的边缘检测方法、装置及设备 Download PDF

Info

Publication number
CN112465847A
CN112465847A CN202011359048.3A CN202011359048A CN112465847A CN 112465847 A CN112465847 A CN 112465847A CN 202011359048 A CN202011359048 A CN 202011359048A CN 112465847 A CN112465847 A CN 112465847A
Authority
CN
China
Prior art keywords
network
convolutional neural
neural network
image
deep convolutional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011359048.3A
Other languages
English (en)
Inventor
李天驰
孙悦
王帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Dianmao Technology Co Ltd
Original Assignee
Shenzhen Dianmao Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Dianmao Technology Co Ltd filed Critical Shenzhen Dianmao Technology Co Ltd
Priority to CN202011359048.3A priority Critical patent/CN112465847A/zh
Publication of CN112465847A publication Critical patent/CN112465847A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于预测清晰边界的边缘检测方法、装置及设备,该方法包括:构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络;获取待识别的图像,将待识别的图像输入目标网络;获取目标网络的输出结果,根据目标网络的输出结果获取预测的边界;根据预测的边界对边缘进行检测。本发明实施例可自动学习丰富的层次特征,消除预测中的模糊性,无需后期处理即可预测出清晰的预测结果。该网络有效地利用了层次化特征,生成了像素精度较高的边界掩模,为边缘检测提供了方便。

Description

一种基于预测清晰边界的边缘检测方法、装置及设备
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于预测清晰边界的边缘检测方法、装置及设备。
背景技术
边缘检测是计算机视觉中长期存在的一项任务。在早期,目标被定义为发现强度图像中不连续的突然变化。目前,对语义上有意义的对象边界进行定位被寄予厚望,这在图像分割和光流等计算机视觉任务中发挥着基础性和重要作用。
在过去的几年里,深度卷积神经网络主导了边缘检测的研究。虽然基于深度卷积神经网络的方法善于生成语义上有意义的轮廓,但我们观察到一个普遍的现象,即它们的预测结果要比经典方法的结果厚得多。预测边界过厚一个可能的原因是,边缘检测方法通常在产生初始预测后,应用边缘细化后处理来获得一个像素不宽的结果。边界过厚会导致边缘检测质量差,准确率低。
因此,现有技术还有待于改进和发展。
发明内容
鉴于上述现有技术的不足,本发明的目的在于提供一种基于预测清晰边界的边缘检测方法、装置及设备,旨在解决现有技术中边缘检测方法预测的边界较厚,导致边缘检测质量差,准确率低的技术问题。
本发明的技术方案如下:
一种基于预测清晰边界的边缘检测方法,所述方法包括:
构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络;
获取待识别的图像,将待识别的图像输入目标网络;
获取目标网络的输出结果,根据目标网络的输出结果获取预测的边界;
根据预测的边界对边缘进行检测。
进一步地,所述获取待识别的图像,将待识别的图像输入目标网络,包括:
采集直播课视频数据,对视频数据进行解析,生成待识别的帧图像;
将待识别的帧图像输入目标网络。
进一步优选地,所述构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络,包括:
构建初始深度卷积神经网络;
获取图像训练样本,根据图像训练样本对深度卷积神经网络进行训练生成目标网络。
进一步优选地,所述构建初始深度卷积神经网络,包括:
构建初始VGG-16网络。
优选地,所述构建初始VGG-16网络,包括:
根据VGG-16模型作为主干网络构建初始浓度卷积神经网络,记为VGG-16网络;
使用ResNeXt块连接VGG-16网络的各个输出层;
将使用1*1conv层替换VGG-16网络中原有的3*3conv层,生成初始VGG-16网络。
进一步地,所述构建初始VGG-16网络,还包括:
获取构建初始VGG-16网络的反卷积层,对反卷积层进行分组,其中反卷积层的组数等于融合特征的通道数。
进一步地,所述对深度卷积神经网络进行训练生成目标网络,包括:
获取交叉熵损失函数和骰子损失函数,将交叉熵损失函数和骰子损失函数作为深度卷积神经网络的目标损失函数;
根据目标损失函数、训练样本对深度卷积神经网络进行训练生成目标网络。
本发明的另一实施例提供了一种基于预测清晰边界的边缘检测设置,装置包括:
目标网络构建模块,用于构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络;
图像输入模块,用于获取待识别的图像,将待识别的图像输入目标网络;
边界预测模块,用于获取目标网络的输出结果,根据目标网络的输出结果获取预测的边界;
边缘检测模块,用于根据预测的边界对边缘进行检测。
本发明的另一实施例提供了一种基于预测清晰边界的边缘检测设备,所述设备包括至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的基于预测清晰边界的边缘检测方法。
本发明的另一实施例还提供了一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行时,可使得所述一个或多个处理器执行上述的基于预测清晰边界的边缘检测方法。
有益效果:本发明实施例可自动学习丰富的层次特征,消除预测中的模糊性,无需后期处理即可预测出清晰的预测结果。该网络有效地利用了层次化特征,生成了像素精度较高的边界掩模,为边缘检测提供了方便。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为本发明一种基于预测清晰边界的边缘检测方法较佳实施例的流程图;
图2为本发明一种基于预测清晰边界的边缘检测装置的较佳实施例的功能模块示意图;
图3为本发明一种基于预测清晰边界的边缘检测设备的较佳实施例的硬件结构示意图。
具体实施方式
为使本发明的目的、技术方案及效果更加清楚、明确,以下对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。以下结合附图对本发明实施例进行介绍。
本发明实施例提供了一种基于预测清晰边界的边缘检测方法。请参阅图1,图1为本发明一种基于预测清晰边界的边缘检测方法较佳实施例的流程图。如图1所示,其包括步骤:
步骤S100、构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络;
步骤S200、获取待识别的图像,将待识别的图像输入目标网络;
步骤S300、获取目标网络的输出结果,根据目标网络的输出结果获取预测的边界;
步骤S400、根据预测的边界对边缘进行检测。
具体实施时,预先构建一个初始的深度卷积神经网络,根据训练样本,对深度卷积神经网络进行训练生成用于预测边界的目标网络。获取需要进行预测边界的图像,将待识别的图像输入目标网络,获取目标网络的输出结果,输出结果为预测的边界。通过边界可获取图像的边缘信息。
本发明可实现使卷积神经网络产生清晰的边界不需要后处理。引入了一种新的损失函数来进行边界检测,它对不平衡数据分类非常有效,并允许神经网络产生清晰的边界。此外,还提出了一种准确、快速、方便地进行图像到边界预测的端到端全卷积网络来解决这一问题。该网络由两个关键组件组成,一个是自底向上/自顶向下的全卷积神经网络,一个是简单而有效的损失函数。该方法能够自动学习丰富的层次特征,消除预测中的模糊性,无需后期处理即可预测出清晰的预测结果。该网络有效地利用了层次化特征,生成了像素精度较高的边界掩模,这是重建边缘图的关键。
进一步地,获取待识别的图像,将待识别的图像输入目标网络,包括:
采集直播课视频数据,对视频数据进行解析,生成待识别的帧图像;
将待识别的帧图像输入目标网络。
具体实施时,通过课堂上设置的摄像头采集网络直播课教室内的视频数据,对视频数据进行解析,生成连续的帧图像,需要对帧图像进行边缘检测,因此将待识别的帧图像输入目标网络。
进一步地,构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络,包括:
构建初始深度卷积神经网络;
获取图像训练样本,根据图像训练样本对深度卷积神经网络进行训练生成目标网络。
具体实施时,获取图像训练样本,图像训练样本对初始深度卷积神经网络进行训练,生成目标网络。其中卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。卷积神经网络具有表征学习(representationlearning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariantclassification),因此也被称为“平移不变人工神经网络(Shift-Invariant ArtificialNeural Networks,SIANN)”。卷积神经网络由输入层、隐含层和输出层构成。隐含层包括卷积层、池化层、Inception模块和全连接层构成。
进一步地,构建初始深度卷积神经网络,包括:
构建初始VGG-16网络。
具体实施时,本发明提出的网络结构如即一个自底向上/自顶向下的架构。应用vgg-16模型作为主干,将其“重构”结构的细化模块堆叠起来,以恢复特性的分辨率。在细化模块中进行了修改,使其适合于边缘检测。
VGGNet是牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发的深度卷积神经网络。VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠33的小型卷积核和22的最大池化层,VGGNet成功地构筑了16-19层深的卷积神经网络。VGGNet相比之前state-of-the-art的网络结构,错误率大幅下降,VGGNet全部使用了33的小型卷积核和22的最大池化核,通过不断加深网络结构来提升性能。VGG-16网络中的16代表的含义为:含有参数的有16个层。
进一步地,构建初始VGG-16网络,包括:
根据VGG-16模型作为主干网络构建初始浓度卷积神经网络,记为VGG-16网络;
使用ResNeXt块连接VGG-16网络的各个输出层;
将使用1*1conv层替换VGG-16网络中原有的3*3conv层,生成初始VGG-16网络。
具体实施时,为了更好地从vgg-16的各个阶段提取特征,使用了ResNeXt块连接各边输出层,分别为conv1_2,conv2_2,conv3_3,conv4_3和conv5_3。这样,每边输出的特征首先通过ResNeXt块,然后与自顶向下路径的掩模编码融合。
使用1*1conv层替换模块原有的3*3conv层。结果表明,随着模型复杂度的降低,性能得到了提高。
进一步地,构建初始VGG-16网络,还包括:
获取构建初始VGG-16网络的反卷积层,对反卷积层进行分组,其中反卷积层的组数等于融合特征的通道数。
具体实施时,使用学习的deconv层来加倍融合特征的分辨率。特别地,反卷积层被分组。组数等于融合特征的通道数。分组的deconv层允许模型以更低的模型复杂度保持性能。修改后的细化模块是完全可向后推进的。
进一步地,对深度卷积神经网络进行训练生成目标网络,包括:
获取交叉熵损失函数和骰子损失函数,将交叉熵损失函数和骰子损失函数作为深度卷积神经网络的目标损失函数;
根据目标损失函数、训练样本对深度卷积神经网络进行训练生成目标网络。
具体实施时,边缘映射的一个明显特征是,数据是高度偏颇的,因为绝大多数像素是非边缘。这种高度偏颇的问题会导致学习无法找到“稀有事件”的边界。受启发,利用骰子系数进行边缘检测,给定输入图像,激活映射M为I经过全卷积网络f处理的输入图像。目标是得到一个预测p,我们的损失函数L为:
Figure BDA0002803465150000081
更具体的,预测映射P由激活映射M通过sigmoid函数计算得到。损失函数L是骰子系数的倒数。因为骰子系数是衡量两个集合的相似性。损失是比较两个集合P,G的相似性,并最小化它们在训练数据上的距离。不需要考虑平衡边缘/非边缘像素损失的问题,并能够实现目标--使网络可训练的同时预测边界。
具体的,本发明强调计算小批量损失的方法,总损失为:
Figure BDA0002803465150000082
其中MP和MG分别表示预测的一小批和它们的真值。M为小批训练样本总数。
具体的,为了获得更好的性能,提出将交叉熵损失和骰子损失相结合。骰子的损失可以认为是图像级的,主要关注两组图像像素的相似度。交叉熵损失主要集中在像素级差上,因为它是每个对应像素对与真值之间距离的总和。因此,综合损失能够分层最小化图像级到像素级的距离,因此,本发明实施例中的目标网络最终的损失函数为:
Lfinal(P,G)=αL(P,G)+βLc(P,G)。
通过损失函数对VGG-16网络进行训练,生成最终的目标网络;根据目标网络进行下一步的边界预测操作。
由以上方法实施例可知,本发明提供了一种基于预测清晰边界的边缘检测方法,该方法中引入了一种新的损失函数来进行边界检测,它对不平衡数据分类非常有效,并允许神经网络产生清晰的边界。此外,还提出了一种准确、快速、方便地进行图像到边界预测的端到端全卷积网络来解决这一问题。该网络由两个关键组件组成,一个是自底向上/自顶向下的全卷积神经网络,一个是简单而有效的损失函数。该方法能够自动学习丰富的层次特征,消除预测中的模糊性,无需后期处理即可预测出清晰的预测结果。该网络有效地利用了层次化特征,生成了像素精度较高的边界掩模,这是重建边缘图的关键。
需要说明的是,上述各步骤之间并不必然存在一定的先后顺序,本领域普通技术人员,根据本发明实施例的描述可以理解,不同实施例中,上述各步骤可以有不同的执行顺序,亦即,可以并行执行,亦可以交换执行等等。
本发明另一实施例提供一种基于预测清晰边界的边缘检测装置,如图2所示,装置1包括:
目标网络构建模块11,用于构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络;
图像输入模块12,用于获取待识别的图像,将待识别的图像输入目标网络;
边界预测模块13,用于获取目标网络的输出结果,根据目标网络的输出结果获取预测的边界;
边缘检测模块14,用于根据预测的边界对边缘进行检测。
具体实施方式见方法实施例,此处不再赘述。
本发明另一实施例提供一种基于预测清晰边界的边缘检测设备,如图3所示,设备10包括:
一个或多个处理器110以及存储器120,图3中以一个处理器110为例进行介绍,处理器110和存储器120可以通过总线或者其他方式连接,图3中以通过总线连接为例。
处理器110用于完成,设备10的各种控制逻辑,其可以为通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、单片机、ARM(Acorn RISCMachine)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。还有,处理器110还可以是任何传统处理器、微处理器或状态机。处理器110也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP核、或任何其它这种配置。
存储器120作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的基于预测清晰边界的边缘检测方法对应的程序指令。处理器110通过运行存储在存储器120中的非易失性软件程序、指令以及单元,从而执行设备10的各种功能应用以及数据处理,即实现上述方法实施例中的基于预测清晰边界的边缘检测方法。
存储器120可以包括存储程序区和存储数据区,其中,存储程序区可存储操作装置、至少一个功能所需要的应用程序;存储数据区可存储根据设备10使用所创建的数据等。此外,存储器120可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器120可选包括相对于处理器110远程设置的存储器,这些远程存储器可以通过网络连接至设备10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
一个或者多个单元存储在存储器120中,当被一个或者多个处理器110执行时,执行上述任意方法实施例中的基于预测清晰边界的边缘检测方法,例如,执行以上描述的图1中的方法步骤S100至步骤S400。
本发明实施例提供了一种非易失性计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如,执行以上描述的图1中的方法步骤S100至步骤S400。
作为示例,非易失性存储介质能够包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦ROM(EEPROM)或闪速存储器。易失性存储器能够包括作为外部高速缓存存储器的随机存取存储器(RAM)。通过说明并非限制,RAM可以以诸如同步RAM(SRAM)、动态RAM、(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、Synchlink DRAM(SLDRAM)以及直接Rambus(兰巴斯)RAM(DRRAM)之类的许多形式得到。本文中所描述的操作环境的所公开的存储器组件或存储器旨在包括这些和/或任何其他适合类型的存储器中的一个或多个。
本发明的另一种实施例提供了一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被处理器执行时,使处理器执行上述方法实施例的基于预测清晰边界的边缘检测方法。例如,执行以上描述的图1中的方法步骤S100至步骤S400。
以上所描述的实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施例的描述,本领域的技术人员可以清楚地了解到各实施例可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件实现。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存在于计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)执行各个实施例或者实施例的某些部分的方法。
除了其他之外,诸如"能够'、"能"、"可能"或"可以"之类的条件语言除非另外具体地陈述或者在如所使用的上下文内以其他方式理解,否则一般地旨在传达特定实施方式能包括(然而其他实施方式不包括)特定特征、元件和/或操作。因此,这样的条件语言一般地还旨在暗示特征、元件和/或操作对于一个或多个实施方式无论如何都是需要的或者一个或多个实施方式必须包括用于在有或没有输入或提示的情况下判定这些特征、元件和/或操作是否被包括或者将在任何特定实施方式中被执行的逻辑。
已经在本文中在本说明书和附图中描述的内容包括能够提供基于预测清晰边界的边缘检测方法及装置的示例。当然,不能够出于描述本公开的各种特征的目的来描述元件和/或方法的每个可以想象的组合,但是可以认识到,所公开的特征的许多另外的组合和置换是可能的。因此,显而易见的是,在不脱离本公开的范围或精神的情况下能够对本公开做出各种修改。此外,或在替代方案中,本公开的其他实施例从对本说明书和附图的考虑以及如本文中所呈现的本公开的实践中可能是显而易见的。意图是,本说明书和附图中所提出的示例在所有方面被认为是说明性的而非限制性的。尽管在本文中采用了特定术语,但是它们在通用和描述性意义上被使用并且不用于限制的目的。

Claims (10)

1.一种基于预测清晰边界的边缘检测方法,其特征在于,所述方法包括:
构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络;
获取待识别的图像,将待识别的图像输入目标网络;
获取目标网络的输出结果,根据目标网络的输出结果获取预测的边界;
根据预测的边界对边缘进行检测。
2.根据权利要求1所述的基于预测清晰边界的边缘检测方法,其特征在于,所述获取待识别的图像,将待识别的图像输入目标网络,包括:
采集直播课视频数据,对视频数据进行解析,生成待识别的帧图像;
将待识别的帧图像输入目标网络。
3.根据权利要求2所述的基于预测清晰边界的边缘检测方法,其特征在于,所述构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络,包括:
构建初始深度卷积神经网络;
获取图像训练样本,根据图像训练样本对深度卷积神经网络进行训练生成目标网络。
4.根据权利要求3所述的基于预测清晰边界的边缘检测方法,其特征在于,所述构建初始深度卷积神经网络,包括:
构建初始VGG-16网络。
5.根据权利要求4所述的基于预测清晰边界的边缘检测方法,其特征在于,所述构建初始VGG-16网络,包括:
根据VGG-16模型作为主干网络构建初始浓度卷积神经网络,记为VGG-16网络;
使用ResNeXt块连接VGG-16网络的各个输出层;
将使用1*1conv层替换VGG-16网络中原有的3*3conv层,生成初始VGG-16网络。
6.根据权利要求5所述的基于预测清晰边界的边缘检测方法,其特征在于,所述构建初始VGG-16网络,还包括:
获取构建初始VGG-16网络的反卷积层,对反卷积层进行分组,其中反卷积层的组数等于融合特征的通道数。
7.根据权利要求6所述的基于预测清晰边界的边缘检测方法,其特征在于,所述对深度卷积神经网络进行训练生成目标网络,包括:
获取交叉熵损失函数和骰子损失函数,将交叉熵损失函数和骰子损失函数作为深度卷积神经网络的目标损失函数;
根据目标损失函数、训练样本对深度卷积神经网络进行训练生成目标网络。
8.一种基于预测清晰边界的边缘检测装置,其特征在于,所述装置包括:
目标网络构建模块,用于构建初始深度卷积神经网络,对深度卷积神经网络进行训练生成目标网络;
图像输入模块,用于获取待识别的图像,将待识别的图像输入目标网络;
边界预测模块,用于获取目标网络的输出结果,根据目标网络的输出结果获取预测的边界;
边缘检测模块,用于根据预测的边界对边缘进行检测。
9.一种基于预测清晰边界的边缘检测设备,其特征在于,所述设备包括至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7任一项所述的基于预测清晰边界的边缘检测方法。
10.一种非易失性计算机可读存储介质,其特征在于,所述非易失性计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行时,可使得所述一个或多个处理器执行权利要求1-7任一项所述的基于预测清晰边界的边缘检测方法。
CN202011359048.3A 2020-11-27 2020-11-27 一种基于预测清晰边界的边缘检测方法、装置及设备 Pending CN112465847A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011359048.3A CN112465847A (zh) 2020-11-27 2020-11-27 一种基于预测清晰边界的边缘检测方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011359048.3A CN112465847A (zh) 2020-11-27 2020-11-27 一种基于预测清晰边界的边缘检测方法、装置及设备

Publications (1)

Publication Number Publication Date
CN112465847A true CN112465847A (zh) 2021-03-09

Family

ID=74809077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011359048.3A Pending CN112465847A (zh) 2020-11-27 2020-11-27 一种基于预测清晰边界的边缘检测方法、装置及设备

Country Status (1)

Country Link
CN (1) CN112465847A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538470A (zh) * 2021-06-16 2021-10-22 唯智医疗科技(佛山)有限公司 一种基于神经网络的图像层间边界确定方法及装置
CN116823864A (zh) * 2023-08-25 2023-09-29 锋睿领创(珠海)科技有限公司 基于平衡损失函数的数据处理方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3492945A1 (en) * 2017-12-01 2019-06-05 Origin Wireless, Inc. Method, apparatus, and system for periodic motion detection and monitoring
CN110148148A (zh) * 2019-03-01 2019-08-20 北京纵目安驰智能科技有限公司 一种基于目标检测的下边缘检测模型的训练方法、模型和存储介质
CN110348383A (zh) * 2019-07-11 2019-10-18 重庆市地理信息中心 一种基于卷积神经网络回归的道路中心线和双线提取方法
CN111008600A (zh) * 2019-12-06 2020-04-14 中国科学技术大学 一种车道线检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3492945A1 (en) * 2017-12-01 2019-06-05 Origin Wireless, Inc. Method, apparatus, and system for periodic motion detection and monitoring
CN110148148A (zh) * 2019-03-01 2019-08-20 北京纵目安驰智能科技有限公司 一种基于目标检测的下边缘检测模型的训练方法、模型和存储介质
CN110348383A (zh) * 2019-07-11 2019-10-18 重庆市地理信息中心 一种基于卷积神经网络回归的道路中心线和双线提取方法
CN111008600A (zh) * 2019-12-06 2020-04-14 中国科学技术大学 一种车道线检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538470A (zh) * 2021-06-16 2021-10-22 唯智医疗科技(佛山)有限公司 一种基于神经网络的图像层间边界确定方法及装置
CN113538470B (zh) * 2021-06-16 2024-02-23 唯智医疗科技(佛山)有限公司 一种基于神经网络的图像层间边界确定方法及装置
CN116823864A (zh) * 2023-08-25 2023-09-29 锋睿领创(珠海)科技有限公司 基于平衡损失函数的数据处理方法、装置、设备及介质
CN116823864B (zh) * 2023-08-25 2024-01-05 锋睿领创(珠海)科技有限公司 基于平衡损失函数的数据处理方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
US11200424B2 (en) Space-time memory network for locating target object in video content
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
WO2021147325A1 (zh) 一种物体检测方法、装置以及存储介质
CN108647588A (zh) 物品类别识别方法、装置、计算机设备和存储介质
AU2020100052A4 (en) Unattended video classifying system based on transfer learning
CN110321805B (zh) 一种基于时序关系推理的动态表情识别方法
CN112580458A (zh) 人脸表情识别方法、装置、设备及存储介质
CN112001399B (zh) 基于局部特征显著化的图像场景分类方法和装置
CN110852199A (zh) 一种基于双帧编码解码模型的前景提取方法
GB2579262A (en) Space-time memory network for locating target object in video content
KR20180071947A (ko) 영상 처리 장치 및 방법
CN110930378A (zh) 基于低数据需求的肺气肿影像处理方法及系统
CN110264407A (zh) 图像超分辨模型训练及重建方法、装置、设备及存储介质
CN112465847A (zh) 一种基于预测清晰边界的边缘检测方法、装置及设备
CN111915618A (zh) 基于峰值响应增强的实例分割算法、计算设备
CN117689928A (zh) 一种改进yolov5的无人机检测方法
Deb et al. LS-Net: A convolutional neural network for leaf segmentation of rosette plants
US11367206B2 (en) Edge-guided ranking loss for monocular depth prediction
Yan et al. 3MNet: Multi-task, multi-level and multi-channel feature aggregation network for salient object detection
Zhang et al. A small target detection algorithm based on improved YOLOv5 in aerial image
CN113269734A (zh) 一种基于元学习特征融合策略的肿瘤图像检测方法及装置
CN113569081A (zh) 图像识别方法、装置、设备及存储介质
Gao et al. TEGAN: Transformer embedded generative adversarial network for underwater image enhancement
Fan et al. EGFNet: Efficient guided feature fusion network for skin cancer lesion segmentation
CN116189130A (zh) 基于图像标注模型的车道线分割方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination