CN115098703A - 基于smt质量大数据分析的知识图谱构建方法 - Google Patents

基于smt质量大数据分析的知识图谱构建方法 Download PDF

Info

Publication number
CN115098703A
CN115098703A CN202210870267.0A CN202210870267A CN115098703A CN 115098703 A CN115098703 A CN 115098703A CN 202210870267 A CN202210870267 A CN 202210870267A CN 115098703 A CN115098703 A CN 115098703A
Authority
CN
China
Prior art keywords
production line
smt
data
bert
smt production
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210870267.0A
Other languages
English (en)
Inventor
常建涛
原韻松
孔宪光
陈维波
李鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
CETC 10 Research Institute
Original Assignee
Xidian University
CETC 10 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University, CETC 10 Research Institute filed Critical Xidian University
Priority to CN202210870267.0A priority Critical patent/CN115098703A/zh
Publication of CN115098703A publication Critical patent/CN115098703A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开一种基于SMT质量大数据分析的知识图谱构建方法,其步骤为:对SMT产线文本数据集进行预处理,生成SMT产线文本数据训练集和测试集,构建并训练BERT‑Bi‑LSTM‑CRF命名实体模型,其结构包括BERT嵌入层,Bi‑LSTM层和CRF层;构建并训练BERT实体关系抽取模型,其结构包括BERT编码层、信息交互层和关系抽取层;对SMT产线结构化数据进行预处理;利用XGBoost算法计算结构化数据的影响因素;通过SMT产线高发缺陷成因关联分析构建SMT产线质量知识图谱。本发明提高了SMT企业累计数据利用率,形成规则,降低产品坏品率,降低企业生产成本。

Description

基于SMT质量大数据分析的知识图谱构建方法
技术领域
本发明属于物理技术领域,更进一步涉及数据处理技术领域中的一种基于表面贴装技术SMT(Surface Mounted Technology)质量大数据分析的知识图谱构建方法。本发明可基于多源多模态数据构建SMT行业的知识图谱。
背景技术
电子制造企业在生产中积累了大量的生产经验知识,但多以孤立的技术文档等非结构化文本形式存在,尚未形成统一的知识库,不利于知识的复用、传承和管理。企业借助于信息化系统在生产中积累的海量结构化数据,但这些数据并未被充分利用,其中潜在的价值多被忽略。充分发掘各类数据的价值,实现各类数据中知识的高效利用和统一管理对SMT产线工艺改善和产品质量提升具有重要意义。利用实体识别,关系抽取处理技术可以获取文本的特定信息;借助数据挖掘技术可以实现结构化数据中隐含关键信息的发现,知识图谱技术可以实现大规模知识的统一表示和高效索引。
南京中禹智慧水力研究院有限公司在其申请的专利文献“一种水务领域知识图谱的构建方法”(申请号202111011676.7申请公布号CN 113918725 A)中公开了一种河湖健康知识图谱的构建方法。该方法的实现步骤是:第一步,对数据进行校验和去噪音。第二步,基于Neo4j平台构建水务领域知识图谱顶层概念模型,作为水务领域知识图谱骨架。第三步,从行业标准、各类数据库、政府职能部门网站、水文水环境检测网站、公众网站、物联网数据和遥感影像等结构化数据、半结构化数据及非结构化数据中,采用数据库、爬虫、卷积神经网络技术进行实体抽取和关系抽取。第四步,将具有相同指代的实体三元组数据挂接同一个概念下,通过计算概念实体之间的相似度,完成实体对齐。第五步,基于Neo4j平台的图数据库完成知识的存储。该方法存在的不足之处是,由于卷积神经网络的结构中存在池化层,当抽取非结构化数据实体时,导致丢失有价值的信息,降低模型抽取水务实体的准确率。
上海精密计量测试研究所在其申请的专利文献“装备试验数据知识图谱构建方法”(申请号202111512535.3申请公布号CN 114417005 A)中公开了一种装备试验数据知识图谱构建方法。该方法的实现步骤是:第一步,集成已有的装备试验数据。第二步,对试验数据进行数据清洗及结构化处理。第三步,构建试验数据的元模型。第四步,对试验数据进行内容识别,特征提取,再按照元模型进行存储。第五步,基于试验数据构建数据实体,建立实体之间的连接。第六步,基于知识图谱构建工具,导入所有的实体以及实体之间的关系,形成装备试验数据知识图谱。该方法存在的不足之处是,没有针对非结构化数据建立知识抽取模型,难以应用于拥有大量非结构数据的SMT领域。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于SMT质量大数据分析的知识图谱构建方法,用于解决抽取非结构化数据实体时抽取准确率低,以及缺乏非结构化数据建立知识抽取模型,难以应用于拥有大量非结构数据的SMT领域的问题。
实现本发明目的的思路是,本发明以BERT方法训练词嵌入模型,通过引入多种预训练任务做联合训练获得比词更高级别的语义表征,使预训练模型的效果更佳且普适性更强,得到特征向量序列H;再将BERT嵌入模型得到的特征向量H输入到Bi-LSTM循环依赖信息抽取层,通过两层输入相同、传递方向相反的单向LSTM联系单个词与上下文环境的关系,增强模型的双向信息编码能力,得到得分矩阵P;最终将双向长短期记忆网络Bi-LSTM循环依赖信息抽取层得到的得分矩阵P输入到CRF条件概率输出层,得到得分最高的标注序列则是最终的标注序列,该方法规避了卷积神经网络池化层的存在,提高非结构化数据实体抽取时准确率,得到针对SMT产线非结构数据的知识抽取模型。本发明以数据挖掘技术对非结构化数据和结构化数据进行预处理,以BERT-Bi-LSTM-CRF进行命名实体抽取和以BERT进行实体关系抽取对非结构化数据进行知识抽取,以XGBoost和Apriori对结构化数据进行知识抽取,将SMT影响因素和关联规则数据化进行知识三元组表示,基于Neo4j技术构建知识图谱系统,得到专用于SMT领域的知识图谱构建方法。
为了实现上述目的,本发明技术方案的步骤包括如下:
步骤1,对生成的SMT产线文本数据集进行预处理:
步骤1.1,收集待构建图谱SMT产线的文本数据作为非结构化数据的知识来源;
步骤1.2,对生成的SMT产线文本数据集的中的样本依次进行预处理、实体标注、关系标注;
步骤2,将标注后的SMT产线数据集,按照7:3的比例划分为训练集、测试集;
步骤3,构建BERT-Bi-LSTM-CRF命名实体识别模型:
步骤3.1,搭建一个由词嵌入层、信息抽取层,概率输出层串联组成的BERT-Bi-LSTM-CRF命名实体识别模型;
步骤3.2,将BERT嵌入层的网络层数设置为10,隐藏单元数设置为384,注意头个数设置为10,Bi-LSTM层采用Xavier方法实现对Bi-LSTM中的每个神经元的参数进行初始化,CRF层采用randn函数对转移矩阵进行初始化;
步骤4,训练BERT-Bi-LSTM-CRF命名实体识别模型:
将训练集输入到BERT-Bi-LSTM-CRF命名实体抽取模型中,使用随机梯度下降法反向传播调整Bi-LSTM层中的神经元个数,直至损失值小于或等于0.1为止,得到训练好的BERT-Bi-LSTM-CRF模型;
步骤5,构建BERT实体关系抽取模型:
步骤5.1,搭建一个由BERT编码层、信息交互层和关系抽取层串联组成的BERT实体关系抽取模型;
步骤5.2,将BERT编码层的最大单词数设置为64,信息交互层的批数据大小设置为64,关系抽取层的学习率设置为1×10-5,丢弃率设置为0.3;
步骤6,训练BERT实体关系抽取模型:
将训练集输入到BERT实体关系抽取模型中,使用随机梯度下降法调整学习率和丢弃率,直至损失值小于或等于0.1为止,得到训练好的BERT实体关系抽取模型;
步骤7,对生成的SMT产线结构化数据集进行处理:
对SMT产线结构化锡膏印刷的特征依次进行缺失值处理、异常值剔除、规范化和标准化的预处理;
步骤8,利用XGBoost算法计算数据集的影响因素重要度;
步骤8.1,将XGBoost算法的参数设置如下,将学习率设置为0.1,增益阈值设置为0.5,最大数深度设置为5,叶子权值的最小和设置为0.8,集成的最大数数量设置为50;
步骤8.2,使用PSO算法,对XGBoost算法的学习速率、增益阈值、最大树深度、叶子权值最小和及集成的最大树数量5个参数进行优化,直至XGBoost算法的损失值小于或等于0.1为止,得到每个锡膏印刷特征的影响因素重要度;
步骤9,对SMT产线高发缺陷成因进行关联分析:
步骤9.1,将SMT印刷过程中的刮刀压力、刮刀速度、印刷高度补偿、工作台分离速度、自动清洗计数、清洗速度、工作台分离距离、清洗供给时间、刮刀分离距离确定为影响因素数据;
步骤9.2,对影响因素数据采用距离区间法对连续数据进行离散化处理;
步骤9.3,将SPI光学检测机实时监测数据中大于或等于SPI光学检测机自身阈值的数据,作为SMT产线高发缺陷关联规则的目标数据;
步骤9.4,根据实践经验将Apriori关联规则中的最小支持度设定为0.1,最小置信度设定为0.6;对SMT产线高发缺陷关联规则的目标数据和影响因素数据进行Apriori关联规则挖掘,将挖掘结果作为SMT产线高发缺陷成因关联分析的最终结果;
步骤10,构建SMT产线质量知识图谱:
步骤10.1,将非结构化数据抽取到的知识和结构化数据抽取到的知识,统一表示为三元组形式;
步骤10.2,将三元组形式的知识导入知识图谱构建软件,得到SMT产线质量知识图谱。
本发明与现有技术相比具有以下优点:
第一,在SMT领域构建并训练了BERT-Bi-LSTM-CRF的命名实体识别模型。克服了现有技术在抽取非结构化数据的实体时,由于卷积神经网络的结构中存在池化层,导致丢失有价值信息的不足,非结构化知识抽取准确率低的问题,使得本发明可以完整获得非结构化数据中有价值的信息,从而提高了实体抽取的准确率。
第二,由于本发明采用非结构化数据和结构化数据知识抽取方法,建立了SMT质量大数据的知识图谱构建方法。克服了现有技术SMT行业对数据资源的浪费,使得本发明可以提高SMT企业在生产过程中累积数据的利用率,形成生产规则,降低产品坏品率,降低企业生产成本。
附图说明
图1为本发明的流程图;
图2为本发明实施例中产品缺陷命名实体和实体关系结构图;
图3为本发明实施例中命名实体及实体关系标注的示意图;
图4为本发明SMT产线非结构化数据的知识抽取流程图;
图5为本发明SMT产线结构化数据的知识抽取流程图;
图6为本发明的知识图谱关系图;
图7为本发明实施例的锡膏缺陷成因查询结果图。
具体实施方式
下面结合附图和实施例,对本发明作进一步的详细描述。
参照图1和实施例,对本发明的实现步骤作进一步的详细描述。
步骤1,对生成的SMT产线文本数据集进行处理。
本发明实施例是采用某公司的SMT产线文本数据集作为非结构化数据知识来源。
该SMT产线文本数据集中包含2000张图片样本,通过图片识别方法,提取每张图片样本中的文本描述,包括生产异常的发生时间、回流焊接的不良现象、缺陷发生的原因、缺陷调整措施和调整后的效果。
本发明实施例中某公司的SMT产线文本数据集的文本描述内容如表1所示。
表1SMT产线文本数据集文本描述一览表
Figure BDA0003751869160000051
步骤1.1,对SMT产线文本数据进行预处理。
针对本发明的实施例中每张图片样本的文本数据进行下述处理:
删除每张图片样本中的生产异常发生时间的年、月、日之间的正斜杠。
删除每张图片样本中文本数据的空格。
按照该句话中逗号或句号,切割每张图片样本中的缺陷发生的原因描述。
例如,将表1中的缺陷发生的原因“该批次产品SPI检测显示印刷良好,观察发现部分板子存在冷焊现象。初步考虑焊接温度设置不当,焊接温度可能过低”描述,切割成为“该批次产品SPI检测显示印刷良好”、“观察发现部分板子存在冷焊现象”、“初步考虑焊接温度设置不当”和“焊接温度可能过低”四个文本信息。
在SMT产线文本数据预处理中,除本发明实施例表1中所列数据进行预处理之外,还包括对图片样本的缺失值、无关值剔除和逻辑错误清洗的相关处理。
步骤1.2,标注SMT产线文本数据的命名实体。
第一步,基于数据挖掘技术将本发明实施例中SMT产线的产品缺陷类型、缺陷成因、解决措施、缺陷现象、影响因素及缺陷后果作为知识本体,对知识本体进行标注。
本发明实施例中对知识本体的具体标注说明如表2所示:
表2实体标注说明
Figure BDA0003751869160000061
第二步,采用YEDDA软件,按照表2对SMT产线文本数据进行实体标注。
第三步,按照BIO序列标注方法,对实体标注后的SMT产线文本数据集进行BIO序列标注,每个实体序列的首字标为“B-实体名称”;中间字标为“I-实体名称”;无关字标为“O”。
步骤1.3,对所有实体标注后的SMT产线中两两实体之间的关系进行标注。
参照图2,对本发明实施例中SMT产品缺陷命名实体和实体关系作进一步描述。定义6类实体关系类型,图2中箭头的含义表示为本体1导致本体2、本体3影响本体4,本体5避免本体6,本体7表现本体8。本发明实施例中关系名称及对应的标注说明如表3所示:
表3实体关系标注说明
Figure BDA0003751869160000062
参照图3命名实体及实体关系标注图,对步骤1.2到步骤1.3作进一步描述。其中图3中“黏度过低”为缺陷原因,故该实体用R标注;“黏”为实体序列首字标,故“黏”用B-R标注;“度”、“过”,“低”为中间字标,故“度”、“过”、“低”用I-R标注;“塌陷”为缺陷类型,故该实体用D进行标注;“塌”为首字标,故“塌”用B-D标注;“陷”为中间字标,故“陷”用I-D标注;其余词均为无关字标,故均用O标注。“黏度过低”与“塌陷”的实体关系为因为“黏度过低”导致“塌陷”,故用RCD标注他们之间的实体关系。
步骤2,生成训练集、测试集。
将处理后的SMT产线数据集,按照7:3的比例划分为训练集、测试集。
本发明的实施例中各类实体和关系的分布如表4、表5所示:
表4命名实体识别语料标注情况一览表
Figure BDA0003751869160000071
表5实体关系抽取语料标注情况一览表
Figure BDA0003751869160000072
参照图4SMT产线非结构化数据知识抽取流程图,对本发明步骤3、步骤4抽取SMT产线文本数据知识的实现步骤作进一步的详细描述。
步骤3,构建命名实体识别模型。
构建一个BERT-Bi-LSTM-CRF命名实体识别模型,由BERT嵌入层,Bi-LSTM层,CRF层串联组成。
设置每层的参数如下:将BERT嵌入层的网络层数设置为10,隐藏单元数设置为384,注意头个数设置为10。Bi-LSTM层采用Xavier方法实现对Bi-LSTM中的每个神经元的参数进行初始化;CRF层采用randn函数实现对转移矩阵进行初始化。
步骤4,训练命名实体识别模型。
训练过程为:将训练集输入到BERT-Bi-LSTM-CRF命名实体抽取模型中,得到所有命名实体的标注序列,利用误差公式,计算训练集中每个特征向量序列的预测标注序列与训练样本实际标注序列的损失值,将每个特征向量序列的损失值,按照随机梯度下降法,依据所有特征向量序列的损失值,反向传播调整Bi-LSTM层中的神经元个数,直至损失值小于或等于0.1为止,得到训练好的BERT-Bi-LSTM-CRF模型。
所述误差公式如下:
Figure BDA0003751869160000073
其中,MSE表示为均方误差,n表示为样本的个数,yi表示为训练样本实际标注序列,
Figure BDA0003751869160000082
表示为每个特征向量预测标注序列。
本发明实施例中经过模型训练后,参数更新为:对于BERT嵌入层,网络层数为12,隐藏单元数为768,注意头个数为12,对于Bi-LSTM层,Bi-LSTM的隐藏层数为128,对于CRF层,CRF层的转移矩阵为:
Figure BDA0003751869160000081
步骤5,构建BERT实体关系抽取模型。
构建一个BERT实体关系抽取模型,由BERT编码层,信息交互层,关系抽取层串联组成。
设置BERT实体关系抽取模型的初始参数如下:将最大单词数设置为64,批数据大小设置为64,学习率设置为1×10-5,丢弃率设置为0.3。
步骤6,训练BERT实体关系抽取模型。
训练过程为:将训练集中的每一个特征向量序列输入到BERT实体关系抽取模型中,得到两两命名实体之间的关系向量;利用与步骤4相同的误差公式,计算训练集中每个特征向量序列的预测关系标注序列与训练样本实际关系标注序列的损失值,将每个特征向量序列的损失值,按照随机梯度下降法,依据所有特征向量关系序列的损失值,按照随机梯度下降法调整学习率和丢弃率,直至损失值小于或等于0.1为止,得到训练好的BERT模型。
本发明实施例中经过模型训练后,BERT实体关系抽取模型的最大单词数为128,批数据大小为32,学习率为2×10-5,丢弃率为0.5,迭代次数为10次。
步骤7,对SMT产线结构化数据集进行处理。
本发明实施例是采用某公司的SMT产线结构化数据集作为知识来源。该SMT结构化数据集包含该公司近一年近一千万条生产数据,数据均为csv结构化数据。
本发明实施例中某公司的SMT产线结构化数据集的内容如表6所示:其中数据集的特征为刮刀压力、刮刀速度、印刷高度补偿、工作台分离速度、自动清洗计数、清洗速度、工作台分离距离、清洗供给时间、刮刀分离距离;数据集的质量指标为体积、面积、高度、X偏移量和Y偏移量。
表6SMT产线结构化数据集一览表
Figure BDA0003751869160000091
经统计分析得出刮刀压力字段的众数为12,从而用12填充第3条数据中刮刀压力的缺失值NaN。
经统计分析得出刮刀速度字段的众数为20,从而用20填充第4条数据中刮刀速度的缺失值NaN。
经统计分析得出工作台分离速度的众数为0.333,从而以0.333填充第5、第6条数据的工作台分离速度的缺失值NaN。
利用正态分布和箱型图对所有数据进行异常值检测,检测出第6条数据的体积为异常值,从而删除第6条数据。
采用min-max规范化对部分数据进行无量纲处理。min-max规范化通过线性变换将原始数据缩放到[0,1]区间,可表示为公式:
Figure BDA0003751869160000092
其中,x为原始数据,xmin为x所属列的最小值,xmax为x所属列的最大值,x*为归一化之后的结果。
采用z-score对原始数据进行标准化处理,使之呈现正态分布,如公式所示:
Figure BDA0003751869160000093
其中,u为x所属列的均值,σ为x所属列的标准差。
经过以上所有处理之后,SMT产线结构化数据集如表7所示:
表7SMT产线结构化数据预处理结果
Figure BDA0003751869160000101
参照图5SMT产线结构化数据知识抽取流程图,对本发明步骤8抽取SMT产线结构化数据知识的实现步骤作进一步的详细描述。
步骤8,设置XGBoost质量指标预测模型初始化参数如表8所示。
表8XGBoost模型关键参数初始化信息表
Figure BDA0003751869160000102
步骤9,优化XGBoost质量指标预测模型参数。
步骤9.1,将训练集中的特征输入到XGBoost质量指标预测模型中,分别输出预测锡膏的质量指标值。
步骤9.2,利用与步骤4相同的误差公式,计算训练集中特征的预测质量指标值与训练集实际质量指标值的损失值。
步骤9.3,依据步骤9.2的损失值,用PSO算法对XGBoost模型性能影响较大的5个参数进行优化,直至损失值小于或等于0.1,得到优化好的XGBoost质量指标预测模型参数。
步骤9.4,利用XGBoost算法中的重要度公式,计算数据集中每个锡膏印刷特征的影响因素重要度;XGBoost算法的影响因素重要度公式如下式:
Figure BDA0003751869160000111
其中,scorei表示数据集中第i个锡膏印刷特征的影响因素重要度,GL表示XGBoost算法中所有左叶子节点一阶导数之和,GR表示XGBoost算法中所有右叶子节点一阶导数之和,HL表示XGBoost算法中所有左叶子节点二阶导数之和,HR表示XGBoost算法中所有右叶子节点二阶导数之和,ρ和γ表示使XGBoost算法的损失函数达到最小时的正则化参数。
本发明的实施例中XGBoost待优化参数的取值区间如表9所示:
表9XGBoost模型待优化参数区间
Figure BDA0003751869160000112
本实施例中XGBoost质量预测模型参数优化后如表10所示:
表10XGBoost模型关键参数优化后信息
Figure BDA0003751869160000113
本实施例中各个特征的影响因素重要度如表11所示:
表11锡膏印刷质量影响因素重要度分析结果
Figure BDA0003751869160000114
Figure BDA0003751869160000121
步骤10,SMT产线高发缺陷成因关联分析。
第一步,根据SPI光学检测机自身的检测阈值,将SPI光学检测机实时检测得到的锡膏高度偏高、锡膏体积大、锡膏面积大、无锡高、X正偏移、Y正偏移的缺陷确定为关联目标数据,将SMT印刷过程中的刮刀压力、刮刀速度、印刷高度补偿、工作台分离速度、自动清洗计数、清洗速度、工作台分离距离、清洗供给时间、刮刀分离距离作为影响因素数据。对影响因素数据采用距离区间法对连续数据进行离散化处理。
第二步,根据实践经验人为设定最小支持度为0.1,最小置信度为0.6。
第三步,对关联目标数据和影响因素数据进行Apriori关联规则挖掘,将Apriori关联规则挖掘的输出结果作为SMT产线高发缺陷成因关联分析得到最终结果。
本实施例中挖掘出的规则如表12所示:
表12SMT产品高发缺陷成因关联规则
Figure BDA0003751869160000122
对上表作进一步描述为:工作台印刷高度补偿为C1时,会导致锡膏高度偏高这一规则的支持度为0.357,置信度为0.919,刮刀压力为A2时,会导致锡膏高度偏高这一规则的支持度为0.259,置信度为0.668。
步骤11,存储与查询知识。
步骤11.1,按照三元组的形式来表示非结构化数据抽取的知识和结构化数据抽取到的知识;每个实体按照<实体,属性名称,属性值>形式的三元组进行存储,实体与实体之间是通过关系建立连接,保持连接的两个实体之间具有数据描述的一致性,并确保可以满足<实体1,关系,实体2>形式的三元组。
本实施例中三元组表示为:
<调整钢网开口,避免,桥连>
<钢网开口过大,导致,桥连>
步骤11.2,基于Neo4j存储知识。将抽取到的知识统一表示之后,导入Neo4j,构建SMT产线质量知识图谱。
参照图6的知识图谱关系图,对步骤11.2作进一步描述。图6中的每一个圆圈代表一个实体,实体与实体之间的箭头表示二者存在关系。例如“锡珠—导致—PCB脏污”。
步骤11.3,采用Cypher语句实现数据的高效检索。
本发明实施例中查询锡珠现象的成因,对应的Cypher语句为:“MATCH(reason:Reason)--(defect:Defect)WHERE defect.name="锡珠"RETURN reason,defect”。结合图7的查询结果,对知识图谱数据的高效检索作进一步描述。图7中每一个圆圈代表一个实体,实体与实体之间的箭头表示二者存在关系。例如“加热过快会导致锡珠”,“焊盘氧化会导致锡珠”,“焊膏过厚会导致锡珠”。

Claims (6)

1.一种基于SMT质量大数据分析的知识图谱构建方法,其特征在于,在SMT领域构建并训练BERT-Bi-LSTM-CRF命名实体识别模型,采用非结构化和结构化数据知识抽取方法构建SMT产线质量知识图谱,该构建方法的步骤包括如下:
步骤1,对生成的SMT产线文本数据集进行预处理:
步骤1.1,收集待构建图谱SMT产线的文本数据作为非结构化数据的知识来源;
步骤1.2,对生成的SMT产线文本数据集的中的样本依次进行预处理、实体标注、关系标注;
步骤2,将标注后的SMT产线数据集,按照7:3的比例划分为训练集、测试集;
步骤3,构建BERT-Bi-LSTM-CRF命名实体识别模型:
步骤3.1,搭建一个由词嵌入层、信息抽取层,概率输出层串联组成的BERT-Bi-LSTM-CRF命名实体识别模型;
步骤3.2,将BERT嵌入层的网络层数设置为10,隐藏单元数设置为384,注意头个数设置为10,Bi-LSTM层采用Xavier方法实现对Bi-LSTM中的每个神经元的参数进行初始化,CRF层采用randn函数对转移矩阵进行初始化;
步骤4,训练BERT-Bi-LSTM-CRF命名实体识别模型:
将训练集输入到BERT-Bi-LSTM-CRF命名实体抽取模型中,使用随机梯度下降法反向传播调整Bi-LSTM层中的神经元个数,直至损失值小于或等于0.1为止,得到训练好的BERT-Bi-LSTM-CRF模型;
步骤5,构建BERT实体关系抽取模型:
步骤5.1,搭建一个由BERT编码层、信息交互层和关系抽取层串联组成的BERT实体关系抽取模型;
步骤5.2,将BERT编码层的最大单词数设置为64,信息交互层的批数据大小设置为64,关系抽取层的学习率设置为1×10-5,丢弃率设置为0.3;
步骤6,训练BERT实体关系抽取模型:
将训练集输入到BERT实体关系抽取模型中,使用随机梯度下降法调整学习率和丢弃率,直至损失值小于或等于0.1为止,得到训练好的BERT实体关系抽取模型;
步骤7,对生成的SMT产线结构化数据集进行处理:
对SMT产线结构化锡膏印刷的特征依次进行缺失值处理、异常值剔除、规范化和标准化的预处理;
步骤8,利用XGBoost算法计算数据集的影响因素重要度;
步骤8.1,将XGBoost算法的参数设置如下,将学习率设置为0.1,增益阈值设置为0.5,最大数深度设置为5,叶子权值的最小和设置为0.8,集成的最大数数量设置为50;
步骤8.2,使用PSO算法,对XGBoost算法的学习速率、增益阈值、最大树深度、叶子权值最小和及集成的最大树数量5个参数进行优化,直至XGBoost算法的损失值小于或等于0.1为止,得到每个锡膏印刷特征的影响因素重要度;
步骤9,对SMT产线高发缺陷成因进行关联分析:
步骤9.1,将SMT印刷过程中的刮刀压力、刮刀速度、印刷高度补偿、工作台分离速度、自动清洗计数、清洗速度、工作台分离距离、清洗供给时间、刮刀分离距离确定为影响因素数据;
步骤9.2,对影响因素数据采用距离区间法对连续数据进行离散化处理;
步骤9.3,将SPI光学检测机实时监测数据中大于或等于SPI光学检测机自身阈值的数据,作为SMT产线高发缺陷关联规则的目标数据;
步骤9.4,根据实践经验将Apriori关联规则中的最小支持度设定为0.1,最小置信度设定为0.6;对SMT产线高发缺陷关联规则的目标数据和影响因素数据进行Apriori关联规则挖掘,将挖掘结果作为SMT产线高发缺陷成因关联分析的最终结果;
步骤10,构建SMT产线质量知识图谱:
步骤10.1,将非结构化数据抽取到的知识和结构化数据抽取到的知识,统一表示为三元组形式;
步骤10.2,将三元组形式的知识导入知识图谱构建软件,得到SMT产线质量知识图谱。
2.根据权利要求1所述的基于SMT质量大数据分析的知识图谱构建方法,其特征在于,步骤1.2中所述的预处理指的是,对SMT产线文本数据集中的样本依次进行格式内容剔除、缺失值清洗、无关数据剔除、逻辑错误清洗、长文本切割。
3.根据权利要求1所述的基于SMT质量大数据分析的知识图谱构建方法,其特征在于,步骤1.2中所述的实体标注指的是,利用BIO序列标注方法,对预处理后的SMT产线文本数据集中的样本分别以其对应知识本体进行实体标注。
4.根据权利要求1所述的基于SMT质量大数据分析的知识图谱构建方法,其特征在于,步骤1.2中所述的关系标注指的是,根据定义的SMT产线命名实体关系类型,对所有实体标注后的SMT产线中两两实体之间进行关系标注。
5.根据权利要求1所述的基于SMT质量大数据分析的知识图谱构建方法,其特征在于,步骤7中所述的规范化指的是,通过下式的线性变换,将SMT产线结构化锡膏印刷剔除异常值后的特征缩放到[0,1]区间内:
Figure FDA0003751869150000031
其中,x表示SMT产线结构化锡膏印刷剔除异常值后的特征,xmin、xmax分别表示SMT产线结构化锡膏印刷剔除异常值后的特征矩阵x所属列中的最小值和最大值,x*表示归一化后的特征值。
6.根据权利要求1所述的基于SMT质量大数据分析的知识图谱构建方法,其特征在于,步骤7中所述的标准化指的是,采用下述公式,对SMT产线结构化锡膏印刷规范化后的特征进行标准化处理,使该特征呈现正态化分布:
Figure FDA0003751869150000032
其中,y*表示SMT产线结构化锡膏印刷标准化后的特征值,y表示SMT产线结构化锡膏印刷规范化后的特征,u、σ分别表示SMT产线结构化锡膏印刷规范化后的特征矩阵y所属列的均值和标准差。
CN202210870267.0A 2022-07-18 2022-07-18 基于smt质量大数据分析的知识图谱构建方法 Pending CN115098703A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210870267.0A CN115098703A (zh) 2022-07-18 2022-07-18 基于smt质量大数据分析的知识图谱构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210870267.0A CN115098703A (zh) 2022-07-18 2022-07-18 基于smt质量大数据分析的知识图谱构建方法

Publications (1)

Publication Number Publication Date
CN115098703A true CN115098703A (zh) 2022-09-23

Family

ID=83299229

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210870267.0A Pending CN115098703A (zh) 2022-07-18 2022-07-18 基于smt质量大数据分析的知识图谱构建方法

Country Status (1)

Country Link
CN (1) CN115098703A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115302963A (zh) * 2022-10-12 2022-11-08 深圳市彩昇印刷机械有限公司 一种基于机器视觉的条形码印刷控制方法、系统及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115302963A (zh) * 2022-10-12 2022-11-08 深圳市彩昇印刷机械有限公司 一种基于机器视觉的条形码印刷控制方法、系统及介质
CN115302963B (zh) * 2022-10-12 2022-12-27 深圳市彩昇印刷机械有限公司 一种基于机器视觉的条形码印刷控制方法、系统及介质

Similar Documents

Publication Publication Date Title
CN110059188B (zh) 一种基于双向时间卷积网络的中文情感分析方法
WO2023065545A1 (zh) 风险预测方法、装置、设备及存储介质
CN110910243B (zh) 一种基于可重构大数据知识图谱技术的产权交易方法
CN109933670B (zh) 一种基于组合矩阵计算语义距离的文本分类方法
CN106095759B (zh) 一种基于启发式规则的发票货物归类方法
CN112015863A (zh) 一种基于图神经网络的多元特征融合中文文本分类方法
CN112231562A (zh) 一种网络谣言识别方法及系统
CN111581376B (zh) 一种知识图谱自动构建系统及方法
CN112925908A (zh) 一种基于Attention的图注意力网络的文本分类方法及系统
CN111767725A (zh) 一种基于情感极性分析模型的数据处理方法及装置
CN113051365A (zh) 一种产业链图谱构建方法及相关设备
CN112749562A (zh) 命名实体识别方法、装置、存储介质及电子设备
CN112580332B (zh) 一种基于标签分层延深建模的企业画像方法
CN113434688B (zh) 用于舆情分类模型训练的数据处理方法和装置
CN111666373A (zh) 一种基于Transformer的中文新闻分类方法
CN115098703A (zh) 基于smt质量大数据分析的知识图谱构建方法
CN112650933A (zh) 一种基于高阶聚合的图卷积融合多头注意力机制的会话推荐方法
CN114168575A (zh) 一种金融领域舆情分析方法及系统
CN113220964A (zh) 一种基于网信领域短文本的观点挖掘方法
CN113592512A (zh) 一种线上商品身份唯一性识别确认系统
CN106844765B (zh) 基于卷积神经网络的显著信息检测方法及装置
CN115827871A (zh) 互联网企业分类的方法、装置和系统
CN114020901A (zh) 一种结合主题挖掘和情感分析的金融舆情分析方法
CN111027318B (zh) 基于大数据的行业分类方法、装置、设备及存储介质
CN110647630A (zh) 检测同款商品的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination