CN114943988B - 一种基于实例分割和深度卷积神经网络的平面目标监测方法 - Google Patents

一种基于实例分割和深度卷积神经网络的平面目标监测方法 Download PDF

Info

Publication number
CN114943988B
CN114943988B CN202210679033.8A CN202210679033A CN114943988B CN 114943988 B CN114943988 B CN 114943988B CN 202210679033 A CN202210679033 A CN 202210679033A CN 114943988 B CN114943988 B CN 114943988B
Authority
CN
China
Prior art keywords
target
mask
image
neural network
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210679033.8A
Other languages
English (en)
Other versions
CN114943988A (zh
Inventor
李艳君
刘欢庆
周维钧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou City University
Original Assignee
Hangzhou City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou City University filed Critical Hangzhou City University
Priority to CN202210679033.8A priority Critical patent/CN114943988B/zh
Publication of CN114943988A publication Critical patent/CN114943988A/zh
Application granted granted Critical
Publication of CN114943988B publication Critical patent/CN114943988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于实例分割和深度卷积神经网络的平面目标监测方法,包括:操控检测台对放置台上的目标进行检测;服务器接收目标图像与相关编号;将图像输入深度卷积神经网络中进行实例分割,得到目标的第一掩码;根据目标的第一掩码和图像分割算法GrabCut,获取目标的第二掩码;根据目标的第二掩码,获取图像中目标实例分割得到的掩码像素点个数;将目标的像素点个数、采样时间、目标编号记录到服务器数据库对应的项目中。本发明的有益效果为:本发明在目标测量过程中不会接触目标,结合了实例分割和GrabCut方法,具有较高的检测准确率,并结合了深度卷积神经网络,对应用环境和场景适应性强。

Description

一种基于实例分割和深度卷积神经网络的平面目标监测方法
技术领域
本发明涉及目标测量及变化情况监测领域,更确切地说,它涉及一种基于实例分割和深度卷积神经网络的平面目标监测方法。
背景技术
养殖业中,从业者需要定其对被养殖的目标进行生长状态评估,以决定进一步的养殖策略。养殖目标的大小信息能够最直观地反映养殖目标的生长情况,对养殖目标生长状态监控与评估有着重要意义。为了提高养殖的科学性,高效性,在养殖中便捷高效地获取准确的养殖目标大小信息十分重要。
传统的养殖目标大小测量方法依赖于相对繁重的人力资源,缺乏效率。养殖者需手工测量样本的大小,以其统计数据来反映整体养殖目标的生长状况。这种接触式测量手段不仅会对养殖目标造成直接的伤害,而且还会间接伤害到养殖目标群体。
发明内容
本发明的目的是克服现有技术中的不足,提供了一种基于实例分割和深度卷积神经网络的平面目标监测方法,包括:
S1、根据检测需求,操控检测台移动到待检测目标的上方,所述检测台配置有控制器和至少一个相机,所述待检测目标包括至少一个目标,每个相机对单个目标进行检测;所述待检测目标位于放置台上;所述放置台、任一相机和任一目标均具有编号;
S2、总控制台向检测台上的控制器发送当前放置台编号和拍照指令;
S3、检测台上的控制器收到总控制台指令后,通过所述至少一个相机中的任一相机,获取单个目标的图像,将图像、放置台编号和相机编号一起上传到服务器;
S4、服务器接收到图像之后,将图像输入深度卷积神经网络中进行实例分割,得到目标的第一掩码;
S5、根据目标的第一掩码和图像分割算法GrabCut,获取目标的第二掩码;
S6、根据目标的第二掩码,获取图像中目标实例分割得到的掩码像素点个数,作为评估目标相对大小的依据;
S7、将目标图像实例分割统计得到的像素点个数、采样时间、目标编号记录到服务器数据库对应的项目中。
作为优选,S1中,放置台编号、相机编号和目标编号之间具有对应关系。
作为优选,S1中,所述操控检测台移动到待检测目标的上方,包括:操控检测台移动到具体的放置台。
作为优选,S3中,检测台同时获取多个目标的图像。
作为优选,S4中,实例分割模型采用Mask R-CNN网络。
作为优选,S5中,将图像处理并提取后,保存为图,用T节点来描述背景像素,S节点描述前景像素,图的代价函数E(A)表示为:
E(A)=λ·R(A)+B(A)
其中,A代表每个像素的标签,前景标记为1,背景标记为0;R(A)为代价函数中的区域项,通过像素点与目标、背景间的相似性判断,像素点相似度越高代价R(A)越小;B(A)为边界项,当相邻像素被标记为不同标签时的代价,对不连续的像素进行惩罚,相邻像素差别越大代价B(A)越小;λ为权衡区域项和边界项重要性的权重因子,体现二者对代价的影响。通过不断迭代使代价函数E(A)最小。
作为优选,S7中,服务器得到目标的第二掩码之后,自动将目标编号、采样时间和像素点个数记录到服务器数据库对应的项目中。
作为优选,还包括:S8、在数据库中,查询一段时间内,某个目标的像素点个数变化情况,从而推断目标个体的成长情况,或者查询某个区域里多个目标的变化成长情况。
本发明的有益效果是:
(1)本发明在目标测量过程中不会接触目标,且整个测量过程可由Python程序自动实现,并结合了深度卷积神经网络,对应用环境和场景适应性强。
(2)本发明结合了实例分割和GrabCut方法,因此具有较高的检测准确率。
(3)本发明所需设备可重复使用,且只需要一台移动检测台和运算后端,便可实现对多个目标的测量,因此具有较低的成本。
(4)本发明对不同类别的目标和检测场景,可通过更改/扩大数据集的方式,让模型同样对任务具有泛化能力,容易从一个工作场景迁移至另一个,因此应用场景较为广泛。
附图说明
图1为一种基于实例分割和深度卷积神经网络的平面目标监测方法的流程图;
图2为另一种基于实例分割和深度卷积神经网络的平面目标监测方法的流程图;
图3为检测台的结构示意图;
图4为单独河蚌检测栏和相机示意图;
图5为河蚌及掩码标注示意图;
图6为Mask R-CNN实例分割网络结构示意图;
图7为数据库表信息示意图;
图8为河蚌生长曲线示意图;
附图标记说明:相机1、可旋转杆2、支撑架3、检测台杆4、蚌养殖栏5。
具体实施方式
下面结合实施例对本发明做进一步描述。下述实施例的说明只是用于帮助理解本发明。应当指出,对于本技术领域的普通人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
实施例1:
为了解决现有技术中养殖目标大小测量方法依赖于相对繁重的人力资源的问题,本申请提供了一种基于实例分割和深度卷积神经网络的平面目标监测方法,利用基于视觉智能的系统来监测养殖目标的生态,以代替人工测量,并将信息记录到服务器数据库,省去了人工测量和记录的不便。
本发明提供的方法可以通过python程序自动完成,仅需要控制台给一个开始信号,减少了人为测量对目标的接触。本发明提供的方法需要的硬件为检测台(含相机)和运算后端,运算后端可采用搭载有GPU的主机或类似的设备,若不搭载GPU,本发明提供的方法仍能正常施行,只是在测量速度上会有所降低。
具体地,以养殖目标为河蚌为例,如图1和图2所示,该方法包括:
S1、根据检测需求,操控检测台移动到待检测目标的上方,检测台配置有控制器和至少一个相机,待检测目标包括至少一个目标,每个相机对单个目标进行检测;待检测目标位于放置台上;放置台、任一相机和任一目标均具有编号。
示例地,在S1中,放置台为蚌养殖池,蚌养殖池中具有多个蚌养殖栏,每个蚌养殖栏中有一个河蚌,在检测时,将蚌养殖栏升起,使得蚌养殖栏中的蚌体升到水面上。待检测目标为蚌养殖池中的所有河蚌。如图3所示,检测台分为四层,每层具有四个相机1,相机1之间的空隙用于放置蚌养殖栏5。具体地,相机1与可旋转杆2相连,可旋转杆2远离相机1的一端与检测台杆4相连,每根检测台杆4与4根可旋转杆2垂直相连,并连接到支撑架3。如图4所示,相机1置于升起之后的蚌养殖栏5正上方,每个相机1对一个蚌进行检测。
此外,相机1可通过可旋转杆2进行展开和收缩。初始状态下可旋转杆2收缩至支撑台竖直平面上,控制台控制升降台将河蚌(放置在养殖栏中)升起至水面之上,检测台移动至蚌养殖栏5旁,旋转可旋转杆2至与支撑台竖直平面垂直,即让相机1正对河蚌。并且,本申请不对可旋转杆2上相机1个数、检测台列数和检测台层数进行限定,可以根据需要设置可旋转杆2上相机1个数、检测台列数和检测台层数。
S2、总控制台向检测台上的控制器发送当前放置台编号和拍照指令。检测台上有多个控制器,总控制台指令发送方式为并行。
S3、检测台上的控制器收到总控制台指令后,通过至少一个相机中的任一相机(如任一相机的单目摄像头),获取单个目标的图像,将图像、放置台编号和相机编号一起上传到服务器。
S4、服务器接收到图像之后,将图像输入深度卷积神经网络中进行实例分割,如图5所示,得到目标的第一掩码。
S5、根据目标的第一掩码和图像分割算法GrabCut,获取目标的第二掩码。其中,目标的第二掩码是目标的第一掩码的进一步的精确优化结果。
S6、根据目标的第二掩码,获取图像中目标实例分割得到的掩码像素点个数,作为评估目标相对大小的依据。比如,将蚌在图像上的大小作为蚌的真实大小依据,这是因为蚌在生长过程中,上下增速缓慢,可认为生长是蚌体向边缘生长,故可将摄像头到蚌的距离视为固定值,蚌在图像上的大小能反映蚌的真实大小。
本申请将像素级别的精确大小作为评估目标相对大小的依据。因为目标可能呈现整体不成规则几何形状,通过精确的掩码得到的像素个数比较目标的大小,相比传统的手工测量,不仅速度更快,同时精确程度更高。
S7、如图7所示,将目标图像实例分割统计得到的像素点个数、采样时间、目标编号记录到数据库。图7中,展示了具体采样时间中,蚌的编号对应的像素点个数,可以表示某一时间中蚌的大小。
进而,用户可以通过采样时间和目标编号在数据库中获取对应的目标大小。
S1中,放置台编号、相机编号和目标编号之间具有对应关系。示例地,在确定放置台编号和相机编号时,可以根据该对应关系获取唯一的目标编号。
S1中,操控检测台移动到待检测目标的上方,包括:操控检测台移动到具体的放置台。进而,可以实现一个检测台对多个放置台的检测。示例地,检测台在完成对一个放置台的检测后,可以对下一个放置台进行检测。
S3中,检测台同时获取多个目标的图像。比如,检测台上的所有相机同时对多个目标进行拍照上传,进而可以加快上传速度。
S4中,应用深度神经网络进行实例分割,通过丰富的数据集使模型对环境和目标形态的变换具有鲁棒性,具有较高的准确率和召回率。此外,实例分割模型可以采用如图6所示的Mask R-CNN网络,其结构在Faster R-CNN基础上添加了一个分支网络,不仅能得到目标的检测框,也能得到目标的掩码分割结果,对物体进行像素级别的分割提取。
S5中,对S4中得到的第一掩码进行处理。受限于数据集大小和场景的单一性,神经网络得到的结果的精确性不够稳定,需要做进一步处理。根据S4中的结果,已经得到了部分前景像素和背景像素,将图像处理并提取后,保存为图,用T节点来描述背景像素,S节点描述前景像素,图的代价函数E(A)表示为:
E(A)=λ·R(A)+B(A)
其中,A代表每个像素的标签,前景标记为1,背景标记为0;R(A)为代价函数中的区域项,通过像素点与目标、背景间的相似性判断,像素点相似度越高代价R(A)越小;R(A)为边界项,当相邻像素被标记为不同标签时的代价,对不连续的像素进行惩罚,相邻像素差别越大代价B(A)越小;λ为权衡区域项和边界项重要性的权重因子,体现二者对代价的影响;通过不断迭代使代价函数E(A)最小。代价函数E(A)越小,分割结果越精确。S7中,服务器得到目标的第二掩码之后,自动将目标编号、采样时间和像素点个数记录到服务器数据库对应的项目中。
上述方法还包括:S8、在数据库中,查询一段时间内,某个目标的像素点个数变化情况,从而推断目标个体的成长情况或者查询某个区域里多个目标的变化成长情况。示例地,在数据库中,根据用户想要查询的时间点,可查询某一具体目标的像素点个数;并可根据不同时间点的目标像素点个数变化情况,获取目标的变化情况。
示例地,如图8所示,前端根据用户选择的时间段、放置台或者具体目标编号,查询数据库,动态生成目标的大小变化情况图像,并展示给用户。其中,图8的横坐标为采样时间,纵坐标为像素点计数。
上述方法以目标为河蚌为例,本发明不对目标的类型进行限定,本发明也可以应用于河面油污的扩散情况分析等。
实施例2:
根据上述的基于实例分割和深度卷积神经网络的平面目标监测方法,展开了对河蚌进行监测的实验。
(a)实验环境
采取的摄像头焦距3.6mm,无畸变,摄像头和养殖栏的高度为50cm。
方法中所用到的Mask R-CNN网络在训练时,使用了1132张河蚌图像作为数据集,分为训练集:验证集=4:1。在训练时,冻结骨干网络的第一个阶段。优化器采用带动量的SGD(随机梯度下降),学习率设为0.01,动量设为0.9,正则化权重设为10-5。训练采用4张NvidiaGTX1080Ti GPU。
(b)准备阶段
(1)河蚌养殖时,每个河蚌置于单独的养殖栏中,养殖栏所在的养殖架上有升降装置,可以根据需求将河蚌置于水下或者浮出水面。搭建检测台,如图3和图4所示。旋转杆可水平方向旋转至检测架平面,拍摄河蚌图像时可旋转杆旋转至相机正对河蚌养殖栏。
(2)获取图像。检测时,先升起养殖栏,然后检测台移动到养殖栏所在位置。移动可旋转杆,使相机正对养殖栏。控制台发送拍照指令,相机拍照,上传至服务器保存。服务器可部署一个静态服务器,以便通过网页链接访问查看具体的河蚌图片。这些图片作为数据集,对这些图片进行标注,需要标注河蚌的掩码,如图5所示,图5中黑线内即为掩码区域。标注工具采用VGG Image Annotator(VIA)。
(3)利用基于pytorch的深度学习框架,用python搭建Mask R-CNN网络,其结构如图6所示。它在Faster R-CNN的基础上增加了FCN来产生对应的掩码分支。输入图片经过预处理后经过预训练好的网络来获取对应的特征图。然后对这个特征图的每一点预设特定个数的ROI,得到多个候选ROI。之后送入RPN网络极性二值分类(前景或者背景)和边界框回归来进行过滤,剩下的ROI经过对齐之后进行分类、边框回归和掩码生成。将(2)中得到的训练集加载到模型进行掩码分割,训练共进行100轮。
(4)根据(3)得到的河蚌掩码对图片进行GrabCut,从而得到更精细的掩码图像。
(5)搭建关系数据库。列字段可为河蚌ID、日期、河蚌掩码像素点数。根据河蚌生长规律,河蚌基本是向壳的边缘扩张,可认为无畸变相机与河蚌的高度不变。河蚌对应掩码的像素点个数在相当程度上反映了河蚌的尺寸,从而根据尺寸和日期,得到河蚌的生长情况。
通过上述准备阶段,搭建好了软硬件平台,并且获得已训练完成的可实现河蚌掩码分割的Mask R-CNN网络模型及参数。
(c)河蚌生长情况分析
控制台发送信号给检测台之后,检测台拍摄河蚌图片发送给服务器。服务器将图片输入已训练的Mask R-CNN网络,得到图片中河蚌的掩码,即部分前景像素和背景像素。之后使用GrabCut对网络得到的掩码结果进行处理,将图像建立为图,像素就是图上的节点,用T节点来描述背景,S节点描述前景。在所有节点之间建立连接,并为所有的连接赋予权重,来寻找一条使得被切开的连接总能量最小的缝隙,即为前景背景分割。为连接赋予权重的公式为:
E(A)=λ·R(A)+B(A)
其中,A代表每个像素的标签,前景标记为1,背景标记为0;R(A)代表当所有像素被标记后,总体的代价;B(A)代表当相邻的像素被标记为不同的标签时的代价。
然后将像素级别的精确大小作为评估蚌相对大小的依据。因为蚌整体不成规则几何形状,通过精确的掩码得到的像素个数比较蚌的大小,相比传统的手工测量,不仅速度更快,同时精确程度更高。然后服务器得到图像的掩码信息之后,自动将蚌的编号、时间、相对大小记录到数据库中。用户查询的时候从数据库中根据查询的时间段可快速得到具体蚌、某个养殖池的蚌或者整体的蚌的生长率,从而针对性地调节养殖环境。
(d)河蚌实例分割效果评估
为了评估Mask R-CNN的目标检测准确度,用模型估计得到的掩码和实际真值的掩码的IoU作为评价指标。模型在验证集上准确率为96.6%。
综上所述,本发明结合了深度神经网络和机器视觉,方便且自动地测量目标的大小及变化情况。与传统的人工测量方法不同,本发明减少了人与目标的接触,同时也缩短了测量的时间。本发明适合平面可变目标变化情况的长期监测,具有高效、准确且快速的测量性能。基于深度神经网络检测方法使得系统具有高度的适应性,可应用于平面目标变化趋势的监控场景,如实现对河蚌养殖等场景下河蚌生长情况的自动反馈、河面油污的扩散情况分析等。

Claims (8)

1.一种基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,包括:
S1、根据检测需求,操控检测台移动到待检测目标的上方,所述检测台配置有控制器和至少一个相机,所述待检测目标包括至少一个目标,每个相机对单个目标进行检测;所述待检测目标位于放置台上;所述放置台、任一相机和任一目标均具有编号;
S2、总控制台向检测台上的控制器发送当前放置台编号和拍照指令;
S3、检测台上的控制器收到总控制台指令后,通过所述至少一个相机中的任一相机,获取单个目标的图像,将图像、放置台编号和相机编号一起上传到服务器;
S4、服务器接收到图像之后,将图像输入深度卷积神经网络中进行实例分割,得到目标的第一掩码;
S5、根据目标的第一掩码和图像分割算法GrabCut,获取目标的第二掩码;
S6、根据目标的第二掩码,获取图像中目标实例分割得到的掩码像素点个数,作为评估目标相对大小的依据;
S7、将目标图像实例分割统计得到的像素点个数、采样时间、目标编号记录到服务器数据库对应的项目中。
2.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,S1中,放置台编号、相机编号和目标编号之间具有对应关系。
3.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,S1中,所述操控检测台移动到待检测目标的上方,包括:操控检测台移动到具体的放置台。
4.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,S3中,检测台同时获取多个平面目标的图像。
5.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,S4中,实例分割模型采用Mask R-CNN网络。
6.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,S5中,将图像处理并提取后,保存为图,用T节点来描述背景像素,S节点描述前景像素,图的代价函数E(A)表示为:
E(A)=λ·R(A)+B(A)
其中,A代表每个像素的标签,前景标记为1,背景标记为0;R(A)为代价函数中的区域项,通过像素点与目标、背景间的相似性判断,像素点相似度越高代价R(A)越小;B(A)为边界项,当相邻像素被标记为不同标签时的代价,对不连续的像素进行惩罚,相邻像素差别越大代价B(A)越小;λ为权衡区域项和边界项重要性的权重因子,体现二者对代价的影响;通过不断迭代使代价函数E(A)最小。
7.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,S7中,服务器得到目标的第二掩码之后,自动将目标编号、采样时间和像素点个数记录到数据库中。
8.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,还包括:
S8、在数据库中,查询一段时间内,某个目标的像素点个数变化情况,从而推断目标个体的成长情况或者查询某个区域里多个目标的变化成长情况。
CN202210679033.8A 2022-06-16 2022-06-16 一种基于实例分割和深度卷积神经网络的平面目标监测方法 Active CN114943988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210679033.8A CN114943988B (zh) 2022-06-16 2022-06-16 一种基于实例分割和深度卷积神经网络的平面目标监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210679033.8A CN114943988B (zh) 2022-06-16 2022-06-16 一种基于实例分割和深度卷积神经网络的平面目标监测方法

Publications (2)

Publication Number Publication Date
CN114943988A CN114943988A (zh) 2022-08-26
CN114943988B true CN114943988B (zh) 2024-04-02

Family

ID=82910395

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210679033.8A Active CN114943988B (zh) 2022-06-16 2022-06-16 一种基于实例分割和深度卷积神经网络的平面目标监测方法

Country Status (1)

Country Link
CN (1) CN114943988B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115619709B (zh) * 2022-08-30 2023-07-04 哈尔滨工业大学(深圳) 一种3d平面检测与重建方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949316A (zh) * 2019-03-01 2019-06-28 东南大学 一种基于rgb-t融合的电网设备图像弱监督实例分割方法
WO2019237646A1 (zh) * 2018-06-14 2019-12-19 清华大学深圳研究生院 一种基于深度学习和语义分割的图像检索方法
CN111369540A (zh) * 2020-03-06 2020-07-03 西安电子科技大学 基于掩码卷积神经网络的植物叶片病害识别方法
CN113111703A (zh) * 2021-03-02 2021-07-13 郑州大学 基于多种卷积神经网络融合的机场道面病害异物检测方法
WO2022000426A1 (zh) * 2020-06-30 2022-01-06 中国科学院自动化研究所 基于孪生深度神经网络的动目标分割方法及系统
CN114066900A (zh) * 2021-11-12 2022-02-18 北京百度网讯科技有限公司 图像分割方法、装置、电子设备和存储介质
CN114549489A (zh) * 2022-02-26 2022-05-27 上海可明科技有限公司 一种面向雕花口红质检的实例分割缺陷检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11367271B2 (en) * 2020-06-19 2022-06-21 Adobe Inc. Similarity propagation for one-shot and few-shot image segmentation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019237646A1 (zh) * 2018-06-14 2019-12-19 清华大学深圳研究生院 一种基于深度学习和语义分割的图像检索方法
CN109949316A (zh) * 2019-03-01 2019-06-28 东南大学 一种基于rgb-t融合的电网设备图像弱监督实例分割方法
CN111369540A (zh) * 2020-03-06 2020-07-03 西安电子科技大学 基于掩码卷积神经网络的植物叶片病害识别方法
WO2022000426A1 (zh) * 2020-06-30 2022-01-06 中国科学院自动化研究所 基于孪生深度神经网络的动目标分割方法及系统
CN113111703A (zh) * 2021-03-02 2021-07-13 郑州大学 基于多种卷积神经网络融合的机场道面病害异物检测方法
CN114066900A (zh) * 2021-11-12 2022-02-18 北京百度网讯科技有限公司 图像分割方法、装置、电子设备和存储介质
CN114549489A (zh) * 2022-02-26 2022-05-27 上海可明科技有限公司 一种面向雕花口红质检的实例分割缺陷检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
邓颖 ; 吴华瑞 ; 朱华吉 ; .基于实例分割的柑橘花朵识别及花量统计.农业工程学报.2020,(07),208-215. *
高云 ; 郭继亮 ; 黎煊 ; 雷明刚 ; 卢军 ; 童宇 ; .基于深度学习的群猪图像实例分割方法.农业机械学报.2019,(04),186-194. *

Also Published As

Publication number Publication date
CN114943988A (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
CN109785337B (zh) 一种基于实例分割算法的栏内哺乳动物清点方法
CN109145830B (zh) 一种智能水尺识别方法
CN106127780A (zh) 一种曲面表面缺陷自动检测方法及其装置
US20190114481A1 (en) Methods and systems for pattern characteristic detection
CN112598672A (zh) 一种基于深度学习的路面病害图像分割方法和系统
CN109509187B (zh) 一种针对大分辨率布匹图像中的小瑕疵的高效检验算法
CN109409365A (zh) 一种基于深度目标检测的待采摘水果识别和定位方法
CN108090896B (zh) 木板平整度检测及其机器学习方法、装置及电子设备
CN104482860A (zh) 鱼类形态参数自动测量装置和方法
CN107230203A (zh) 基于人眼视觉注意机制的铸件缺陷识别方法
CN109886947A (zh) 基于区域的卷积神经网络的高压电线缺陷检测方法
CN108470338B (zh) 一种水位监测方法
CN114943988B (zh) 一种基于实例分割和深度卷积神经网络的平面目标监测方法
CN111879610A (zh) 一种掘进过程中岩渣力学参数实时测量系统及测量方法
CN114894642B (zh) 一种基于深度学习的疲劳裂纹扩展速率测试方法及装置
CN110363218B (zh) 一种胚胎无创评估方法及装置
CN112284258B (zh) 一种基于机器视觉算法来测量电缆结构尺寸参数的系统
CN113435282A (zh) 基于深度学习的无人机影像麦穗识别方法
CN115641364B (zh) 基于胚胎动力学参数的胚胎分裂周期智能预测系统及方法
CN117029673B (zh) 一种基于人工智能实现的鱼类体表多尺寸测量方法
CN111141653A (zh) 一种基于神经网络的隧道渗漏速率预测方法
CN113222901A (zh) 一种基于单阶段钢球表面缺陷检测的方法
CN113793385A (zh) 鱼头鱼尾定位方法及装置
CN112966698A (zh) 基于轻量化卷积网络的淡水鱼图像实时识别方法
CN116645351A (zh) 一种复杂场景的缺陷在线检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant