CN114255300A - 流程图的提取模型训练方法、获取方法、设备及介质 - Google Patents

流程图的提取模型训练方法、获取方法、设备及介质 Download PDF

Info

Publication number
CN114255300A
CN114255300A CN202111563236.2A CN202111563236A CN114255300A CN 114255300 A CN114255300 A CN 114255300A CN 202111563236 A CN202111563236 A CN 202111563236A CN 114255300 A CN114255300 A CN 114255300A
Authority
CN
China
Prior art keywords
flow chart
extraction model
training
target information
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111563236.2A
Other languages
English (en)
Inventor
高杨
高平
杨鲁江
高聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Supcon Technology Co Ltd
Original Assignee
Zhejiang Supcon Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Supcon Technology Co Ltd filed Critical Zhejiang Supcon Technology Co Ltd
Priority to CN202111563236.2A priority Critical patent/CN114255300A/zh
Publication of CN114255300A publication Critical patent/CN114255300A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种流程图的提取模型训练方法、获取方法、设备及介质,涉及信息处理技术领域。该流程图的提取模型训练方法通过收集的样本数据集以及预设深度学习算法训练获取提取模型,实现从工业流程图提取目标信息的目的,进而可以通过提取的目标信息绘制新的工业流程图。通过预设深度学习算法进行提取模型的训练,能够高效、高精度实现对目标信息的目标检测提取,使得获取的提取模型的目标信息提取效果远远超过先前相关技术。

Description

流程图的提取模型训练方法、获取方法、设备及介质
技术领域
本发明涉及信息处理技术领域,具体而言,涉及一种流程图的提取模型训练方法、获取方法、设备及介质。
背景技术
随着工业信息化的迅速发展,工业控制系统起着举足轻重的作用。在工业控制系统中,控制系统的流程图绘制占有比较高的地位。
现有的工业流程图,在有新项目或者更新改造项目时,需要工程人员重新进行流程图绘制,此类绘制活动具有机械性和重复性,绘制效率低下,不利于工业的快速发展。
发明内容
本发明的目的在于,针对上述现有技术中的不足,提供一种流程图的提取模型训练方法、获取方法、设备及介质,以便实现工业流程图的高效更新。
为实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提供了一种流程图的提取模型训练方法,包括:
收集获取样本数据集,所述样本数据集包括:标准流程图数据,所述标准流程图数据上标注有目标信息的标识;
根据所述样本数据集以及预设深度学习算法训练获取提取模型,所述提取模型用于根据工业流程图提取所述工业流程图的目标信息,所述目标信息用于绘制新的工业流程图。
可选的,所述预设深度学习算法包括:轻量化网络,所述根据所述样本数据集以及预设深度学习算法训练获取提取模型,包括:
根据所述轻量化网络提取所述样本数据集中的数据特征;
根据所述数据特征训练获取所述提取模型。
可选的,所述轻量化网络包括深度可分离卷积块;所述预设深度学习算法还包括:加强特征层;
所述根据所述轻量化网络提取所述样本数据集中的数据特征,包括:
采用所述深度可分离卷积块对所述样本数据集进行特征提取,得到多个初步有效特征层;
根据所述加强特征层对多个所述初步有效特征层进行特征提取,得到多个加强有效特征层。
可选的,所述根据所述样本数据集以及预设深度学习算法训练获取提取模型,包括:
根据所述样本数据集以及损失函数,调整所述预设深度学习算法的参数,直到根据所述损失函数确定满足预设条件,获取所述提取模型。
可选的,所述调整所述预设深度学习算法的参数,包括以下至少一项:
对所述预设数据集进行数据增强、对所述预设数据集的数据标签进行标签平滑正则化、基于所述损失变化使用完全交互比、设计所述特征提取网络模型训练时期、调整所述特征提取网络模型学习率。
可选的,所述根据所述样本数据集以及预设深度学习算法训练获取提取模型之后,还包括:
将待识别流程图输入所述提取模型,输出所述待识别流程图对应的目标信息;
将所述目标信息转换并存储为预设格式的目标流程图文件。
第二方面,本申请实施例还提供了一种流程图的获取方法,包括:
采用第一方面任一项获取的提取模型,识别待识别流程图,提取目标信息;
根据目标信息绘制新的工业流程图。
可选的,所述根据目标信息绘制新的工业流程图,包括:
将所述目标信息通过应用接口导入目标绘制应用;
通过所述目标绘制应用和所述目标信息,获取所述新的工业流程图。
第三方面,本申请实施例还提供了一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的程序指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述程序指令,以执行时执行如第一方面任一所述的流程图的提取模型训练方法的步骤。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如第一方面任一所述的流程图的提取模型训练方法的步骤。
本申请的有益效果是:本申请实施例提供一种流程图的提取模型训练方法,通过收集的样本数据集以及预设深度学习算法训练获取提取模型,实现从工业流程图提取目标信息的目的,进而可以通过提取的目标信息绘制新的工业流程图。通过预设深度学习算法进行提取模型的训练,能够高效、高精度实现对目标信息的目标检测提取,使得获取的提取模型的目标信息提取效果远远超过先前相关技术。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请一实施例提供的一种流程图的提取模型训练方法的流程图;
图2为本申请又一实施例提供的一种流程图的提取模型训练方法的流程图;
图3为本申请另一实施例提供的一种流程图的提取模型训练方法的流程图;
图4为标准的卷积块设计(左)和深度可分离卷积块设计(右)的结构示意图;
图5为本申请再一实施例提供的一种流程图的提取模型训练方法的流程图;
图6为本申请一实施例提供的一种流程图的获取方法的流程图;
图7为本申请另一实施例提供的一种流程图的获取方法的流程图;
图8为一工业流程图示例图;
图9为提取模型提取后的包含目标信息的工业流程图示例图;
图10为本申请一实施例提供的一种流程图的提取模型训练装置的示意图;
图11为本申请一实施例提供的一种流程图的获取装置的示意图;
图12为本申请实施例提供的一种电子设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
在本申请中,除非另有明确的规定和限定,在本发明中的描述中,“多个”的含义是至少两个,例如两个、三个,除非另有明确具体的限定。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
工业决定着一个国民经济现代化的速度、规模和水平,在当代世界各国国民经济中起着主导作用。工业还是国家财政收入的主要源泉,是国家经济自主、政治独立、国防现代化的根本保证。工业控制系统在工业中充当着工业大脑的角色,起着举足轻重的作用。在工业自动化领域的集散控制系统(Distributed Control System,DCS)中,因业务的扩大或者控制系统的寿命等原因,经常会有新项目或者更新改造项目的出现。所谓DCS是以微处理器为基础,采用控制功能分散、显示操作集中、兼顾分而自治和综合协调的设计原则的新一代仪表控制系统。在新项目或者更新改造项目中,因为控制系统的更改或者应用其他版本的控制系统,会占用工程人员很多时间进行工业流程图的绘制工作,即按照更改之前的控制系统的工业流程图,通过新的控制系统的流程图绘制软件,人工绘制新的控制系统的工业流程界面。这部分工作具有机械性、重复性、会占用工程人员较多的时间,因此需要对这一部分工作进行优化改良。
工业流程图是利用图形符号来代表生产实际中的各种活动、动作、所使用的机械设备及其相互联系的系统图。例如,工业流程图中可以包括:所做工作的类别以及所用的设备、设备数量、移动距离、工时等。本申请的工业流程图例如可以为工艺管道及仪表流程图PID(Piping&Instrument Diagram)等工业流程图类型,本申请对此不做限定。
针对工业流程图更新时需工程人员手动绘制,效率低下的问题,本申请提出了一种流程图的提取模型训练方法,并提供了多种可能的实现方式,以实现工业流程图的高效更新。如下结合附图通过多个示例进行解释说明。图1为本申请一实施例提供的一种流程图的提取模型训练方法的流程图,该方法可由运行有上述方法程序的电子设备实现,该电子设备例如可以为终端设备,也可以为服务器。如图1所示,该方法包括:
步骤101:收集获取样本数据集,样本数据集包括:标准流程图数据,标准流程图数据上标注有目标信息的标识。
需要说明的是,流程图的提取模型需要通过样本数据集进行训练,本申请对收集样本数据集的具体方式、样本数据集的数据量大小等不做限定,可以理解的是,样本数据集的数据量越大,包含的目标信息越多,目标信息的标识信息越准确,其通过样本数据集训练得到的模型越准确。因此,样本数据集对模型训练的结果有着重要的影响,需要准备充分。
在一种可能的实现方式中,收集标准流程图数据并进行整理,在标准流程图上对目标信息(或目标设备)进行分类标注(例如可以使用数据标注软件进行标注),最后形成多个不同设备类别的样本数据集。
需要说明的是,本申请中的进行标注的目标信息可以是反应器、换热器、泵、仪表、储罐、阀门、管线等各种类型工业流程中控制元件或部件的信息,也可以是用户设定的特定目标设备信息,例如文字信息、管道信息、设备信息等,本申请对此不做限定,用户可以根据实际需要对目标信息的具体信息类型等进行设定。
步骤102:根据样本数据集以及预设深度学习算法训练获取提取模型,提取模型用于根据工业流程图提取工业流程图的目标信息,目标信息用于绘制新的工业流程图。
需要说明的是,深度学习是机器学习领域中一个新的研究方向,深度学习通过学习样本数据集的内在规律和表示层次,使经过学习的程序或模型能够像人一样具有分析学习能力,例如:识别文字、图像和声音等。通过采集特定的样本数据集以及设定深度学习的学习目标,实现模型的训练。
本申请的预设深度学习算法即为实现深度学习的算法逻辑,此预设深度学习算法通过学习样本数据集的内在规律和表示层次,使得经过学习后生成的提取模型能够根据工业流程图提取工业流程图中的目标信息。该目标信息可以在绘制新的工业流程图中使用。
在一种具体的实现方式中,本申请的深度学习算法可以基于YOLOV4实现,作为YOLOV3的改进版,YOLOV4在YOLOV3基础上使用了很多的技巧提高了速度和精度,该算法不仅保持了“一步式”目标检测算法的检测速度的优势,而且拥有着和“两步式”目标检测算法相媲美的检测精度,因此在工程端有着广泛的应用,能够高效、高精度实现对目标信息的目标检测。
综上,本申请实施例提供一种流程图的提取模型训练方法,通过收集的样本数据集以及预设深度学习算法训练获取提取模型,实现从工业流程图提取目标信息的目的,进而可以通过提取的目标信息绘制新的工业流程图。通过预设深度学习算法进行提取模型的训练,能够高效、高精度实现对目标信息的目标检测提取,使得获取的提取模型的目标信息提取效果远远超过先前相关技术。
可选的,在上述图1的基础上,预设深度学习算法包括:轻量化网络时,本申请还提供一种流程图的提取模型训练方法的可能实现方式,图2为本申请又一实施例提供的一种流程图的提取模型训练方法的流程图;如图2所示,根据样本数据集以及预设深度学习算法训练获取提取模型,包括:
步骤201:根据轻量化网络提取样本数据集中的数据特征。
需要说明的是,在深度学习算法中,受硬件限制等问题的影响,可以采用轻量化的网络来实现样本数据集中数据特征的提取,从而减少特征提取的计算量。本申请对所采用的轻量化网络的具体网络类型、设定等不做限定,只要该轻量化网络能够满足用户的数据特征提取的需要即可。
在一种具体的实现方式中,对深度学习算法中特征提取部分的算法可以使用轻量化网络mobilenet进行替换,mobilenet可以用于分类,其主干部分作用就是进行特征提取,mobilenet是一种针对嵌入式设备提出的一种轻量级深层神经网络,其能够在设备的中央处理器上很好地进行应用,因此,当存在硬件设备的限制时,可以用mobilenet这种轻量级网络来当做特征提取的主干网络。
例如,可以用mobilenet替换基于YOLOV4实现的深度学习算法中特征提取的主干网络CSPdarknet53部分,从而将mobilenet系列轻量化网络替换进YOLOV4深度学习算法中。实现对取样本数据集中的数据特征的提取。
步骤202:根据数据特征训练获取提取模型。
根据轻量化网络提取的数据特征训练提取模型,从而得到训练后的提取模型。
由于工业上的硬件设备可能存在一定的限制,因而基于轻量化网络实现数据特征的提取,提供一种结合人工智能技术(深度学习算法)的解决方案,而且减少硬件设备要求,减小计算量,使得本方法的适用范围更广,运行本方法的系统鲁棒性更高。
可选的,在上述图2的基础上,轻量化网络包括深度可分离卷积块;预设深度学习算法还包括:加强特征层时;本申请还提供一种流程图的提取模型训练方法的可能实现方式,图3为本申请另一实施例提供的一种流程图的提取模型训练方法的流程图;如图3所示,根据轻量化网络提取样本数据集中的数据特征,包括:
步骤301:采用深度可分离卷积块对样本数据集进行特征提取,得到多个初步有效特征层。
需要说明的是,轻量化网络包括深度可分离卷积块,从而可以通过深度可分离卷积块对样本数据集进行特征提取。相较于普通的卷积块而言,深度可分离卷积所需要的参数减少,将以往普通卷积操作同时考虑通道和区域改变成:首先考虑区域,然后再考虑通道,从而实现了通道和区域的分离。
在一种可能的实现方式中,深度可分离卷积块由两个部分组成,深度(depthwise)卷积和逐像素(pointwise)卷积。对于一个卷积点而言,假设有一个3*3大小的卷积层,输入通道为16、输出通道为32,这一部分所需的参数为16*32*3共计4608个。深度可分离卷积块先使用depthwise卷积,即使用16个3*3大小的卷积核分别遍历16通道的数据,得到16个特征图谱,然后再使用pointwise卷积,即使用32个1*1大小的卷积核遍历16个特征图谱,所需参数仅为16*3*3+16*32*1*1共计656个。图4为标准的卷积块设计(左)和深度可分离卷积块设计(右)的结构示意图,如图4所示,深度可分离卷积块可以大幅度减少参数量,可以理解为深度可分离卷积块用1*1卷积来调整维度。
在一种可能的实现方式中,采用核心思想为深度可分离卷积块的mobilenet网络,通过深度可分离卷积块可以大幅度的减少参数量,从而减少计算量。在具体的实现中,例如可以选择mobilenet系列中的第一个版本mobilenetv1,由于mobilenetv1结构简单,且计算量小,其在检测精度上略高于Googlenet,只比VGG低1%左右,因此可以满足本申请的流程图的提取模型训练方法中数据特征提取的需要。
通过深度可分离卷积块对样本数据集进行特征提取,从而得到多个初步有效特征层,进一步需要对多个初步有效特征层进行加强特征提取。
步骤302:根据加强特征层对多个初步有效特征层进行特征提取,得到多个加强有效特征层。
需要说明的是,预设深度学习算法中还包括:加强特征层。加强特征层可以对步骤301得到的初步有效特征层进行加强提取。
在一种具体的实现方式中,在基于YOLOV4实现的深度学习算法中,可以使用SPP和PANet,进行特征提取的加强。例如,运用特征融合的技术对主干网络三个有效特征层进行特征提取的加强,从而获得更有效的特征层。获取多个加强有效特征层之后,可以使用深度学习算法中的预测网络(例如YoloHead),利用多个加强有效特征层进行目标信息的预测。
需要说明的是,在本申请中,得到的初步有效特征层数量与加强有效特征层的数量是相同的,例如,主干特征提取网络采用CSPdarknet53,进行初步的特征提取,获得三个初步有效特征层;加强特征提取层可以基于SPP和PANet,进行特征提取的加强,运用特征融合的技术对三个初步有效特征层进行特征提取的加强,从而获得三个更有效的特征层,即三个加强有效特征层。
可选的,在上述1-3的基础上,本申请还提供一种流程图的提取模型训练方法的可能实现方式,其中,根据样本数据集以及预设深度学习算法训练获取提取模型,包括:
根据样本数据集以及损失函数,调整预设深度学习算法的参数,直到根据损失函数确定满足预设条件,获取提取模型。
将样本数据集输入到预设深度学习算法中,进行提取模型的训练。在进行训练时,根据样本数据集合计算得到的损失函数,对预设深度学习算法的参数进行调整,从而使得训练得到的提取模型的提取准确度和精度更高。当损失函数满足预设的条件时,认为该提取模型满足使用要求,即可获取该提取模型。
需要说明的是,由于不同的流程图提取模型的提取对象、准确率要求不同,本申请对预设条件不做限定,用户可以根据实际使用需要对预设条件进行设置。
可选的,在上述实施例的基础上,本申请还提供一种流程图的提取模型训练方法的可能实现方式,其中,调整预设深度学习算法的参数,包括以下至少一项:
对预设数据集进行数据增强、对预设数据集的数据标签进行标签平滑正则化、基于损失变化使用完全交互比、设计特征提取网络模型训练时期、调整特征提取网络模型学习率。
调整预设深度学习算法的参数的方式例如可以为以下至少一种:
在进行训练时,可以对预设数据集进行数据增强,例如采用Mosaic数据增强,从而丰富检测物体的背景。
此外,还可以对预设数据集的数据标签进行标签平滑正则化,例如,对预设数据集的数据标签采用Label Smoothing,对分类准确做惩罚,让模型分类不能太准确,从而防止过拟合的问题。
此外,还可以基于损失变化使用完全交互比,例如在框选目标信息的目标框的损失函数中使用CIOU,使得目标框回归更加稳定,避免使用IOU、GIOU等计算损失函数时出现发散等问题。
其次,还可以设计特征提取网络模型训练时期,例如训练过程中加入epoch的设计。
除此之外,还可以调整特征提取网络模型学习率等。上述仅为示例说明,在实际实现中,还可以有其他的调整预设深度学习算法的参数的方式,本申请对此不做限定。
通过上述多种方式调整预设深度学习算法的参数,使得提取模型的各项性能都能达到满足需要的使用效果。
可选的,在图1的基础上,本申请还提供一种流程图的提取模型训练方法的可能实现方式,图5为本申请再一实施例提供的一种流程图的提取模型训练方法的流程图;如图5所示,根据样本数据集以及预设深度学习算法训练获取提取模型之后,还包括:
步骤501:将待识别流程图输入提取模型,输出待识别流程图对应的目标信息。
提取模型训练完成后,将待识别流程图输入提取模型中,即可输出待识别流程图对应的目标信息。需要说明的是,上述输出待识别流程图对应的目标信息可以通过在识别流程图上绘制目标框的形式进行输出,也可以通过目标框位置坐标、目标框范围等数据形式进行输出,本申请对此不做限定,只要输出结果能够表示待识别流程图对应的目标信息即可。
步骤502:将目标信息转换并存储为预设格式的目标流程图文件。
为了方便后续对目标信息的分析使用,可以将目标信息转换并存储为预设格式的目标流程图文件。
在一种可能的实现方式中,可以将目标信息以需求的格式进行预设格式的存储,该预设格式例如可以为csv文件等,本申请对预设格式的具体格式类型不做限定,用户可以根据使用需要进行选择,只要输出的目标流程图文件与可后续使用的文件格式要求匹配,或者与后续的接口要求的格式相匹配即可。
本申请还提供一种流程图的获取方法,图6为本申请一实施例提供的一种流程图的获取方法的流程图,该方法可采用上述任意一种流程图的提取模型训练方法训练的模型,并基于运行有上述流程图的获取方法程序的电子设备实现,该电子设备例如可以为终端设备,也可以为服务器。如图6所示,该方法包括:
步骤601:采用任一项流程图的提取模型训练方法实施例获取的提取模型,识别待识别流程图,提取目标信息。
采用上述任意一种流程图的提取模型训练方法训练并获取提取模型,将待识别流程图输入提取模型中进行识别并提取目标信息。
步骤602:根据目标信息绘制新的工业流程图。
根据提取的目标信息绘制新的工业流程图。
在一种可能的实现方式中,可以将目标信息导入到工业流程图绘制程序中,生成新的工业流程图。在另一种可能的实现方式中,还可以通过目标信息以及新项目或者更新改造项目的更新内容,对目标信息进行局部修改。上述仅为新的工业流程图生成的示例说明,本申请对绘制新的工业流程图的具体方法不做限定,能够实现新的工业流程图的绘制即可。
根据目标信息绘制新的工业流程图,减少了机械性、重复性的绘制工作,提高了工业流程图的绘制效率。
可选的,在上述图6的基础上,本申请还提供一种流程图的获取方法的可能实现方式,图7为本申请另一实施例提供的一种流程图的获取方法的流程图;如图7所示,根据目标信息绘制新的工业流程图,包括:
步骤701:将目标信息通过应用接口导入目标绘制应用;
在一种可能的实现方式中,可以将目标信息通过应用接口导入目标绘制应用。举例来说,应用接口可以是DCS流程图软件接口,获取目标信息后,可以将包含目标信息的目标流程图文件通过DCS流程图软件接口导入到DCS流程图软件中。
步骤702:通过目标绘制应用和目标信息,获取新的工业流程图。
在一种具体的实现方式中,若将将包含目标信息的目标流程图文件通过DCS流程图软件接口导入到DCS流程图软件中,DCS流程图软件可以基于目标流程图文件生成新的工业流程图,即基于目标信息获取新的工业流程图。
通过对原来工业流程图进行分析,获取流程图上的目标信息。对工业流程图绘制重复性、繁杂而又机械的工作,通过自动生成流程图设备,可以较大减少人工绘制流程图的工作。
可选的,在一种具体的实现方式中,图8为一工业流程图示例图,以图8为例,图9为提取模型提取后的包含目标信息的工业流程图示例图。如图8、图9所示,图9对图8中的所有的阀门信息进行识别,并通过目标框的形式框选除了所有的阀门信息,同时,通过文字的形式对阀门信息进行了标识。
下述对用以执行本申请所提供的流程图的提取模型训练装置、流程图的获取装置、电子设备及存储介质等进行说明,其具体的实现过程以及技术效果参见上述,下述不再赘述。
本申请实施例提供一种流程图的提取模型训练装置的可能实现示例,能够执行上述实施例提供的流程图的提取模型训练方法。图10为本申请一实施例提供的一种流程图的提取模型训练装置的示意图。如图10所示,上述流程图的提取模型训练装置100,包括:收集模块11、训练模块13;
收集模块11,用于收集获取样本数据集,样本数据集包括:标准流程图数据,标准流程图数据上标注有目标信息的标识;
训练模块13,用于根据样本数据集以及预设深度学习算法训练获取提取模型,提取模型用于根据工业流程图提取工业流程图的目标信息,目标信息用于绘制新的工业流程图。
可选的,预设深度学习算法包括:轻量化网络;训练模块13,具体用于:根据轻量化网络提取样本数据集中的数据特征;根据数据特征训练获取提取模型。
可选的,轻量化网络包括深度可分离卷积块;预设深度学习算法还包括:加强特征层;训练模块13,具体用于:采用深度可分离卷积块对样本数据集进行特征提取,得到多个初步有效特征层;根据加强特征层对多个初步有效特征层进行特征提取,得到多个加强有效特征层。
可选的,训练模块13,具体用于:根据样本数据集以及损失函数,调整预设深度学习算法的参数,直到根据损失函数确定满足预设条件,获取提取模型。
可选的,训练模块13,还用于:对预设数据集进行数据增强、对预设数据集的数据标签进行标签平滑正则化、基于损失变化使用完全交互比、设计特征提取网络模型训练时期、调整特征提取网络模型学习率。
可选的,上述流程图的提取模型训练装置100,还包括:输出模块、存储模块;
输出模块,具体用于将待识别流程图输入提取模型,输出待识别流程图对应的目标信息;
存储模块,具体用于将目标信息转换并存储为预设格式的目标流程图文件。
本申请实施例提供一种流程图的获取装置的可能实现示例,能够执行上述实施例提供的流程图的获取方法。图11为本申请一实施例提供的一种流程图的获取装置的示意图。如图11所示,上述流程图的获取装置300,包括:提取模块111、绘制模块113;
提取模块111,具体用于采用流程图的提取模型训练装置获取的提取模型,识别待识别流程图,提取目标信息;
绘制模块113,具体用于根据目标信息绘制新的工业流程图。
可选的,绘制模块113,具体用于将目标信息通过应用接口导入目标绘制应用;通过目标绘制应用和目标信息,获取新的工业流程图。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital singnal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
本申请实施例提供一种电子设备的可能实现示例,能够执行上述实施例提供的流程图的提取模型训练方法。图12为本申请实施例提供的一种电子设备的示意图,该设备可以集成于终端设备或者终端设备的芯片,该终端可以是具备数据处理功能的计算设备。
该电子设备包括:处理器1201、存储介质1202和总线,存储介质存储有处理器可执行的程序指令,当控制设备运行时,处理器与存储介质之间通过总线通信,处理器执行程序指令,以执行时执行上述流程图的提取模型训练方法的步骤。具体实现方式和技术效果类似,这里不再赘述。
本申请实施例提供一种计算机可读存储介质的可能实现示例,能够执行上述实施例提供的流程图的提取模型训练方法,存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述流程图的提取模型训练方法的步骤。
存储在一个存储介质中的计算机程序,可以包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种流程图的提取模型训练方法,其特征在于,包括:
收集获取样本数据集,所述样本数据集包括:标准流程图数据,所述标准流程图数据上标注有目标信息的标识;
根据所述样本数据集以及预设深度学习算法训练获取提取模型,所述提取模型用于根据工业流程图提取所述工业流程图的目标信息,所述目标信息用于绘制新的工业流程图。
2.如权利要求1所述的方法,其特征在于,所述预设深度学习算法包括:轻量化网络,所述根据所述样本数据集以及预设深度学习算法训练获取提取模型,包括:
根据所述轻量化网络提取所述样本数据集中的数据特征;
根据所述数据特征训练获取所述提取模型。
3.如权利要求2所述的方法,其特征在于,所述轻量化网络包括深度可分离卷积块;所述预设深度学习算法还包括:加强特征层;
所述根据所述轻量化网络提取所述样本数据集中的数据特征,包括:
采用所述深度可分离卷积块对所述样本数据集进行特征提取,得到多个初步有效特征层;
根据所述加强特征层对多个所述初步有效特征层进行特征提取,得到多个加强有效特征层。
4.如权利要求1-3任一项所述的方法,其特征在于,所述根据所述样本数据集以及预设深度学习算法训练获取提取模型,包括:
根据所述样本数据集以及损失函数,调整所述预设深度学习算法的参数,直到根据所述损失函数确定满足预设条件,获取所述提取模型。
5.如权利要求4所述的方法,其特征在于,所述调整所述预设深度学习算法的参数,包括以下至少一项:
对所述预设样本数据集进行数据增强、对所述预设样本数据集的数据标签进行标签平滑正则化、基于所述损失变化使用完全交互比、设计所述特征提取网络模型训练时期、调整所述特征提取网络模型学习率。
6.如权利要求1所述的方法,其特征在于,所述根据所述样本数据集以及预设深度学习算法训练获取提取模型之后,还包括:
将待识别流程图输入所述提取模型,输出所述待识别流程图对应的目标信息;
将所述目标信息转换并存储为预设格式的目标流程图文件。
7.一种流程图的获取方法,其特征在于,包括:
采用权利要求1-6任一项获取的提取模型,识别待识别流程图,提取目标信息;
根据目标信息绘制新的工业流程图。
8.如权利要求7所述的方法,其特征在于,所述根据目标信息绘制新的工业流程图,包括:
将所述目标信息通过应用接口导入目标绘制应用;
通过所述目标绘制应用和所述目标信息,获取所述新的工业流程图。
9.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的程序指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述程序指令,以执行时执行如权利要求1至6任一所述的流程图的提取模型训练方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至6任一所述的流程图的提取模型训练方法的步骤。
CN202111563236.2A 2021-12-20 2021-12-20 流程图的提取模型训练方法、获取方法、设备及介质 Pending CN114255300A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111563236.2A CN114255300A (zh) 2021-12-20 2021-12-20 流程图的提取模型训练方法、获取方法、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111563236.2A CN114255300A (zh) 2021-12-20 2021-12-20 流程图的提取模型训练方法、获取方法、设备及介质

Publications (1)

Publication Number Publication Date
CN114255300A true CN114255300A (zh) 2022-03-29

Family

ID=80793158

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111563236.2A Pending CN114255300A (zh) 2021-12-20 2021-12-20 流程图的提取模型训练方法、获取方法、设备及介质

Country Status (1)

Country Link
CN (1) CN114255300A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114694165A (zh) * 2022-06-01 2022-07-01 济南大学 一种pid图纸智能识别与重绘方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114694165A (zh) * 2022-06-01 2022-07-01 济南大学 一种pid图纸智能识别与重绘方法
CN114694165B (zh) * 2022-06-01 2023-05-09 济南大学 一种pid图纸智能识别与重绘方法

Similar Documents

Publication Publication Date Title
CN112434721B (zh) 一种基于小样本学习的图像分类方法、系统、存储介质及终端
CN110134946B (zh) 一种针对复杂数据的机器阅读理解方法
CN113705733A (zh) 医疗票据图像处理方法及装置、电子设备、存储介质
CN113569627A (zh) 人体姿态预测模型训练方法、人体姿态预测方法及装置
CN116561274A (zh) 一种基于数字人技术与自然语言大模型的知识问答方法
CN115859302A (zh) 源代码漏洞检测方法、装置、设备及存储介质
CN113486174B (zh) 模型训练、阅读理解方法、装置、电子设备及存储介质
CN114255300A (zh) 流程图的提取模型训练方法、获取方法、设备及介质
CN116910294A (zh) 一种基于情感分析的图像滤镜生成方法
CN112597299A (zh) 文本的实体分类方法、装置、终端设备和存储介质
CN114783597B (zh) 多类疾病诊断的诊断方法及装置、电子设备和存储介质
CN114840680A (zh) 一种实体关系联合抽取方法、装置、存储介质及终端
Tannert et al. FlowchartQA: the first large-scale benchmark for reasoning over flowcharts
CN115510188A (zh) 文本关键词关联方法、装置、设备及存储介质
CN115617959A (zh) 问题解答方法及装置
CN113515591A (zh) 文本不良信息识别方法、装置、电子设备及存储介质
CN116824677B (zh) 表情识别方法、装置、电子设备及存储介质
CN114548325B (zh) 基于对偶对比学习的零样本关系抽取方法和系统
CN114036280A (zh) 基于情绪识别的智能问答方法、装置、电子设备及介质
Ma et al. StripUnet: A Method for Dense Road Extraction from Remote Sensing Images
CN116468037A (zh) 一种基于nlp的数据处理方法及系统
de Avellar Sarmento et al. A Cross-Dataset Study on the Brazilian Sign Language Translation
CN117493486A (zh) 基于数据重放的可持续金融事件抽取系统及方法
CN118153564A (zh) 剧本处理方法、装置、计算机设备、存储介质和程序产品
CN114120184A (zh) 基于人工智能的意图识别方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination