CN113361559B - 基于深宽度联合神经网络的多模态数据知识信息提取方法 - Google Patents

基于深宽度联合神经网络的多模态数据知识信息提取方法 Download PDF

Info

Publication number
CN113361559B
CN113361559B CN202110278271.3A CN202110278271A CN113361559B CN 113361559 B CN113361559 B CN 113361559B CN 202110278271 A CN202110278271 A CN 202110278271A CN 113361559 B CN113361559 B CN 113361559B
Authority
CN
China
Prior art keywords
layer
data
mode
network
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110278271.3A
Other languages
English (en)
Other versions
CN113361559A (zh
Inventor
刘雨晨
余志文
杨楷翔
施一帆
陈俊龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202110278271.3A priority Critical patent/CN113361559B/zh
Publication of CN113361559A publication Critical patent/CN113361559A/zh
Application granted granted Critical
Publication of CN113361559B publication Critical patent/CN113361559B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/182Distributed file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深宽度联合神经网络的多模态数据知识信息提取方法,包括步骤:1)收集智能制造工厂生产所产生的多模态数据,进行数据清洗预处理后存储至Hadoop分布式文件系统中;2)将存储在HDFS中的原始数据日志记录按模态性质进行细分建表,分别将多模态数据处理成单模态数据特征,包括语音,文本,图像等单模态数据特征表等并存储到HIVE数据库中;3)利用深宽度联合网络对多模态数据特征表进行特征提取,得到对应的高层抽象特征知识,从而实现深宽度联合网络对多模态数据知识信息的提取。

Description

基于深宽度联合神经网络的多模态数据知识信息提取方法
技术领域
本发明涉及深度学习,宽度学习及多模态数据特征提取等技术领域,尤其 是指一种基于深宽度联合神经网络的多模态数据知识信息提取方法。
背景技术
互联网技术高速发展,数字化产业链不断深入变革,大数据时代应运而生。 云计算、人工智能等技术飞速增长,建立起了以大数据为核心的数字生态社会。 来自于现实世界各方面的多模态数据,在现有的技术水平下很难得到有效分析。 海量数据带来的处理难度也大大提高。为了解决这些问题,亟待采用一种全新 的数据分析处理手段。运用最新AI技术融合来高效有效的处理多模态数据, 同时提供更灵活的个性化服务,洞察分析跨模态数据的语义信息,最大程度发 挥大数据价值,多模态数据的潜在价值将被真正激活。
当前,用于多模态数据的知识特征提取方法主要采用机器学习或者深度学习的方法来实现处理和理解多源模态信息的能力,但现有方法往往无法自适应实现 多个模态数据特征间的有效融合(李慧芳,赵蕾蕾,胡光政.一种基于多模态 融合深度学习的智能故障诊断方法,2018.)(仲崇亮.一种基于卷积神经网络 的多模态特征融合方法及装置,2019.)。多模态学习历经多个发展阶段目前已 经全面步入使用深度学习作为知识提取的主要手段,但传统深度学习方法耗时 费力,尤其是应用在多模态数据领域中往往需要强大的计算资源,很难满足工 业学术界的需要。然而近期提出的宽度学习为我们提供了另外一种快速有效的 学习方法,宽度学习可以在不失准确率的基础上达到快速训练模型的目的;而 深度学习可以通过多层神经网络,通过有监督信息的反向更新权重来提取到更 具区分与代表性的特征。如何结合深度学习提取特征的强大能力与宽度学习快 速训练的高效率,来设计一种新的用于提取多模态数据特征的有效方法成为了 一个关键问题。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于深宽度联合神经 网络的多模态数据知识信息提取方法,首先收集多模态数据进行清洗过滤预处 理等;得到处理后的样本后将其存储至Hadoop分布式文件系统中并按各个模 态数据性质进行细分建立特征表;对每个单模态数据建立不同层次的深度降噪 自编码机,利用隐藏层学习得到的抽象低维特征来重构输入数据;在上层利用 辅助桥接优化层根据特定的损失函数进行进一步优化;最后利用最上层的宽度 网络对多模态数据样本进行预测。充分发挥了深度学习在提取模态数据特征中 自主学习高层抽象代表性特征的优势以及宽度学习快速训练模型参数达到模 型快速更新的能力以适应工业界的需要,从而提高了多模态数据领域特征提取 的有效性以及时效性。
本发明至少通过如下技术方案之一实现。
基于深宽度联合神经网络的多模态数据知识信息提取方法,包括以下步骤:
1)收集人员对智能制造工厂所产生的多模态数据,对数据进行预处理,将 处理后的数据样本进行存储;
2)对原始多模态数据进行细分建表,分别将多模态数据处理成单模态数据 特征表;
3)利用深宽度联合网络对多模态数据特征表进行特征提取,得到对应的高 层抽象特征知识,从而实现对多模态数据知识信息的提取。
优选的,在步骤1)中,收集智能制造工厂系统在日常流水线中产生的多 模态数据日志并进行数据清洗过滤处理,将处理后的数据样本加载到以Kafka 为基础实现的分布式消息系统中,并将数据存储到Hadoop分布式文件系统的 存储模块中。
优选的,在步骤2)中,存储到分布式文件系统中的原始多模态数据每一 行包括各种模态的数据记录,将原始数据按照模态性质进行细分建表,分别将 多模态数据处理成包括语音、文本、图像的单模态数据特征表,并存储到HIVE 数据库中。
优选的,步骤3)具体包括以下步骤:
3.1)对每个单模态数据建立不同层次的深度降噪自动编码网络,利用隐藏 层学习得到的抽象低维特征重构输入数据;
3.2)将每个单模态数据由深度降噪自编码网络得到的抽象特征以不同的 权值接入到上层的桥接层,并且不同模态的分支网络对应的权值不同,各个单 模态数据所对应的深度降噪自编码网络的权值最终会自适应调整到最适合当 前知识发现的权重值;
3.3)对于k类分类任务、m个模态数据、n个样本、桥接层的优化目标函 数采用softmax分类器定义的损失函数来优化;
3.4)将所有模态的顶层输出通过外积乘法进行相连,得到融合后的语义特 征空间作为上层宽度网络的多模态融合层Rm,融合公式为:
其中,Z1至Zm分别表示各模态对应的分支网络的最上层重构后的输入特征, 代表外积算子;
3.5)将宽度网络特征层各个模态的输入分别再进行非线性映射从而使得 模态特征映射到增强模态空间中,得到的增强模态特征将被concat合并起来 作为宽度网络的增强模态层;
3.6)将上述步骤得到的最上层宽度网络的特征层、多模态融合层及增强模 态层进行合并作为深宽度联合网络的输入,利用宽度网络求伪逆的训练方式对 上层宽度网络进行训练。
优选的,在步骤3.1)中,从Hadoop分布式文件系统中存储的多模态数据 特征表中读取经过数据清洗过滤预处理后的多模态数据日志,将该多模态数据 日志作为深宽度联合网络训练的样本流数据,其中多模态数据日志的分区以小 时为间隔;对于每个模态的数据特征都建立一个分支深度降噪自动编码网络, 每个分支深度降噪自动编码网络包括多个隐藏神经网络层;
首先将每一种模态的独立组别特征利用最大最小归一化到[0,1]的特征向 量表达空间,归一化利用如下公式:
式中,x*为归一化后的特征,x为原始特征输入,xmax、xmin分别对应归一化 前的特征最大和最小值;
深度降噪自动编码网络将各个模态归一化后的特征x*作扰动处理,将特征 x*投影到含有分布服从zd的噪声输入x′~zd(x′|x*),其中,x′表示在x*加入噪声 后的输入,zd表示以概率定义的二项分布,x′~zd(x′|x*)表示在给定输入x*的情 况下,通过按照设置的概率将x*某些值置为0,然后得到新的输入x′;
对各个模态对应的深度降噪自编码网络进行训练,训练分为两个阶段:无 监督预训练及有监督多模态网络联合微调阶段;在无监督预训练阶段,每个 独立模态所属的子网络是相互独立训练的;在有监督多模态网络联合微调阶 段,隐藏层对含有噪声的输入x′进行编码处理:
h=fθ(Wx′+B)
式中,fθ为编码的激活函数,W为编码的隐层权值矩阵,B是偏置向量,从而得 到编码层的输出h;
在解码阶段,将隐层表达h解码为:
z=gθ(W′h+B′)
其中,gθ是用来解码的激活函数,W′是用来解码的权值矩阵,B′是对应的偏置 项;
降噪自动编码机的优化目标是最小化解码阶段得到的重构输入与原始输入 x*之间的差异Γ(x*,z),其中z为经过降噪自编码网络解码后得到的输出即重构 后的输入,如果输入值为连续的实数值,采用平方误差优化目标:
Γ(x*,z)=||x*-z||2
如果输入为二值[0,1]或者为范围[0,1]之间的连续实数值,则采用交叉熵 损失函数进行优化:
其中l表示样本个数,xi和zi分别表示第i个样本的原始输入和经过降噪自编 码网络后的重构输入。
优选的,所述无监督预训练阶段采用逐层贪心式,对于每一个隐藏层都进 行训练,如果训练后的深度降噪自编码网络是最后一层,则提取出编码层的输 出作为最后代替原始输入的输入特征;如果训练后的深度降噪自编码网络是中 间层,则提取出编码层的输出作为下一层降噪自编码网络的输入继续进行训练。
优选的,在步骤3.3)中,所述损失函数为:
其中yi表示第i个样本的分类标签,若样本属于第j类,则相应的类标 Wl表示各个模态网络最上层与桥接层的连接权值矩阵W的第l个行向量,每个 模态网络分别对应一个Wl,hp表示第p个模态最上层的编码表达,1≤p≤m, bl表示偏置项,条件函数表示当第i个样本属于第j类时值为1,否则 为0,桥接层的实际输入x为从各个模态分支网络最上层抽取得到的隐含层特征 表达;桥接层会通过最小化此损失函数并利用反向传播算法来迭代,以对各个 单模态数据所对应的深度降噪自编码网络进行参数调整;将调整后的每个单模 态数据所对应的深度降噪自编码网络最上层编码后的特征表示进行Stacking 合并操作,并把合并操作后的特征作为最上层宽度网络的特征层,其中桥接层 的激活函数使用线性或非线性激活函数。
优选的,在步骤3.3)中,将经过桥接层调整优化后的各模态分支网络的最 上层重构后的输入特征Zi,1≤f≤m,合并到一起作为最终宽度网络分类器的 特征输入层Zm,其中m表示模态数据数量:
Zm=[Z1|Z2|...|Zm]。
优选的,在步骤3.5)中,将宽度网络特征层m个模态的输入分别再进行非 线性映射使得模态特征映射到增强模态空间中;给定第i个模态的分支深度降 噪自动编码网络所重构后的输入特征为Zi,1≤i≤m,其对应的增强模态特征 空间为Ei,每个增强模态特征空间Ei由该模态数据所对应的分支深度降噪自动 编码网络所提取到的重构输入特征经过一层非线性映射得到,具体映射公式为:
其中,耐应第i个模态映射到增强模态空间的激活函数,/>是对应的映射权值矩阵,/>是对应的偏置项,最后将得到的每个模态对应的增强模态特征进行 合并得到宽度网络的增强模态层H:
Hm=[E1|E2|...|Em]。
优选的,在步骤3.6)中,将得到的特征层、融合模态层以及增强模态层的 所有特征进行合并作为最终宽度网络的输入层A:
A≡[Zm|Rm|Hm]
最终宽度网络的输出权重Wout用脊回归方法快速求得:
Wout=(λI+AAT)-1ATY
其中,λ表示加在输出权值矩阵上的惩罚项,Y表示真实的样本标签集合,I表 示单位矩阵,A表示最终宽度网络的输入层。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明有效解决了现如今多模态数据知识提取发现领域的关键问题;其 中包括a)本发明采用深度降噪自编码机对各个领域的模态数据进行编码从而 提取到样本在各个模态不同领域的信息表达,采用降噪自编码可以克服多模态 数据大量噪声的影响,提高鲁棒性;采用逐层训练,可以提取到更抽象更具代 表性的有效特征;b)本发明通过桥接层将独立的各模态特征信息转换到统一先 验信息指导的特征空间下,利用这些先验信息在不同模态间建立联系c)本发明 通过采用各模态提取的知识特征信息进行外积使得各模态特征得到充分融合, 弥补了各模态特征相互独立的缺陷;d)本发明通过增强模态层进一步挖掘了多 模态数据可能存在的高维空间的特征信息,对采集到的数据进行了充分的数据探索发现;最后将得到的所有特征进行拼接可以有效克服多模态领域知识特征 发现的困难。
2、本发明的深宽度联合网络采用深度降噪自编码机对单模态数据进行知 识特征提取与融合,并采用宽度网络作为最终的分类器网络;有效结合了深宽 度网络各自的优势;深度降噪自编码机提取到的特征比原始特征更具代表性, 且维度更低,对噪声也有很强的鲁棒性;宽度网络强大的分类能力可以使得上 层的分类器参数得到充分的训练,并且通过累加融合模态层及增强模态层,模 型的性能将会得到进一步提升;并且宽度网络训练迅速,在工业界可以得到充 分的应用与拓展。
附图说明
图1为本发明基于深宽度联合神经网络的多模态数据知识信息提取方法的 逻辑流程图;
图2为本发明基于深宽度学习的面向智能制造多模态数据知识信息提取系 统流程图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所提供的基于深宽度联合神经网络的多模态数据知 识信息提取方法,包括以下步骤:
1)收集智能制造工厂系统在日常流水线中产生的多模态数据日志,包括语 音、文本、图像等不同种类的多模态数据,并对数据进行预处理等,将日志样 本加入到以Kafka为基础实现的分布式日志系统中,由于处理的是海量样本, 所以将处理后的数据样本存储到Hadoop分布式文件系统的存储模块中;
对智能制造工厂所生产的数据日志进行预处理,其中主要包括以下操作: 对数据噪声过滤和数据特征缺失值的处理,对数据特征缺失值的处理主要是指 按各个模态数据过去的历史日志记录,尝试利用这些历史数据的均值或是中位 数来填补缺失值。
作为另一种实施例,也可以对过去出现的历史数据按频次进行加权平均来 填补缺失值等;数据噪声的过滤主要是指在收集数据的过程中偶尔出现的与历 史记录统计值差异极大的特征值,亦或是收集过程中由于网络故障,时间偏差, 系统异常等导致单模态数据中出现与历史统计数据分布差异过大的异常值,这 些数据将会被视为噪声点并被过滤掉;
数据清洗过滤处理包括检查数据一致性,检查数据是否合乎要求,处理无 效值和缺失值,通过估算整例删除或变量删除等方法来替换或剔除含有缺失值 的样本。
2)存储到Hadoop分布式文件系统中的原始多模态数据每一行包括各种模 态的数据记录,为方便后续处理,将Hadoop分布式文件系统的原始数据按照 模态性质进行细分建表,分别将多模态数据处理成单模态数据特征,包括语音, 文本,图像等单模态数据特征表等并存储到HIVE数据库中;
3)对收集到的多模态数据建立深宽度联合网络从而实现对多模态输入数 据进行预测,得到对应的高层抽象特征知识,建立基于深宽度学习的面向智能 制造多模态数据知识信息提取系统,如图2所示,其过程如下;
3.1)从Hadoop存储的多模态数据特征表中读取经过处理的多模态数据日 志,将其作为模型训练的样本流数据,其中数据日志的分区以小时为间隔;对 于每个模态的数据特征都建立一个分支深度降噪自动编码网络。每个分支网络 由多个隐藏神经网络层组成,由于各模态数据样本特征维度不同,处理难度不 同,故每个模态数据对应的深度降噪自动编码网络结构也不同,隐层个数及神 经元个数应视具体情况而定,比如若样本数据十分复杂且样本特征高维度,则 隐层个数及隐层神经元个数可以相应的设置多一点,若样本数据量少,简单且 样本特征维度低,则隐层个数及隐层神经元个数可以相应设置少一点。首先将 每一种模态的独立组别特征利用最大最小归一化到[0,1]的特征向量表达空间 (为了激活隐层神经网络中的RELU激活函数)。归一化利用如下公式:
式中,x*对应归一化后的特征,x对应原始特征输入,xmax、xmin分别对应归 一化前的特征最大和最小值;
接着降噪自动编码机首先将各个模态归一化后的特征x*作扰动处理,将其 投影到含有分布服从zd的噪声输入x′~zd(x′|x*)。其中,x′表示在x*加入噪声后 的输入,zd表示以一定概率定义的二项分布,x′~zd(x′|x*)表示在给定输入x*的 情况下,通过按照一定的概率将x*某些值置为0,然后得到新的输入x′。
作为另一种实施例,zd也可以采用Dropout操作来完成这个加噪过程, Dropout是指在模型训练时随机让网络某些隐含层节点的权重不工作,类似的, 我们将Dropout作用在输入层而不是隐层,就可以完成对输入层数据按照一定 概率清0的操作。
接下来对各个模态对应的深度降噪自编码网络进行训练时,整个训练将分 为两个阶段:无监督预训练及有监督多模态网络联合微调阶段;在预训练阶段, 每个独立模态所属的子网络是相互独立训练的。在编码阶段,隐藏层将对含有 噪声的输入x′进行编码处理:
h=fθ(Wx′+B)
式中,fθ是用来编码的激活函数,W是用来编码的隐层权值矩阵,B是偏置向 量,从而得到编码层的输出h。
在解码阶段,将隐层表达h解码为:
z=gθ(W′h+B′)
其中,gθ是用来解码的激活函数,W′是用来解码的权值矩阵,B′是对应的 偏置项;fθ和gθ通常采用非线性变换例如sigmoid激活函数。
作为另一种实施例,非线性变换激活函数可以采用tanh函数或者relu。 降噪自动编码机的优化目标是最小化解码阶段得到的重构输入与原始输入x*之间的差异Γ(x*,z)。重构误差也可以采用多种计算方式,如果输入值为连续的 实数值,可以采用最为常见的平方误差:
Γ(x*,z)=||x*-z||2
作为另一种实施例,如果输入为二值例如[0,1]或者为范围[0,1]之间的连续 实数值,重构误差也可以采用常见的交叉熵损失函数进行计算:
其中l表示样本个数,xi和zi分别表示第i个样本的原始输入和经过降噪自编 码网络后的重构输入。
另外为了预防深度网络训练中常遇到的梯度消失等问题,本方法采用逐层 贪心式的预训练法,对于每一个隐藏层都采用如上方法进行训练。如果训练后 的降噪自编码网络是最后一层,那么编码层输出将被提取出来作为最后代替原 始输入的输入特征;如果训练后的降噪自编码网络是中间层,那么编码层输出 将被提取出来作为下一层降噪自编码网络的输入继续进行训练;
由于使用重构误差作为损失,同时降噪编码可以减弱多模态数据中大量噪 声带来的影响。从而学习到各模态数据的低维抽象表示,提高模型鲁棒性;
3.2)在全部模态分支的深度降噪自编码机得到充分的训练之后,对多个分 支网络(各模态所对应的深度降噪自编码网络)组成的整体网络参数进行微调。 因为各模态提取到的编码特征是处在各模态语义空间下的独立特征空间,可以 看作是一种统一高度抽象语义的低层空间的不同层面的特征信息表达;所以在 各个模态的低层次空间中很难去寻找它们之间的联系以及这高度抽象的统一 表达的语义概念。为了将不同模态的异构信息转换到同一模态的信息空间内, 在所有的模态分支网络上又加入了一个桥接层对整体网络的参数进行优化,从 而使得整个多模态网络训练过程中可以利用到不同模态数据间的抽象隐含信 息;样本的标签可以被看作是高度抽象的统一表达概念,样本在各个模态数据 下经由分支网络得到的抽象特征输出可以看作是这一统一概念在低层空间当 中的不同层面的表达;通过该桥接层网络可以将这些多模态特征转换到一种模 态无关的统一抽象表达。
在整体网络参数的微调阶段,桥接层所用的优化目标函数将会被加入到之 前训练的各个模态对应的分支深度自编码网络上,并通过反向传播算法对所有 分支网络进行参数微调。对于k类分类任务,m个多模态数据,n个样本,采 用softmax分类器定义的损失函数来优化:
其中yi表示第i个样本的分类标签。若样本属于第j类,则相应的类标 Wl表示各个模态网络最上层与桥接层的连接权值矩阵W的第l个行向量(每个 模态网络分别对应一个Wl),hp表示第p(1≤p≤m)个模态最上层的编码表达, bl为偏置项,条件函数表示当第i个样本属于第j类时值为1,否则为 0。桥接层的实际输入x为从各个模态分支网络最上层抽取得到的隐含层特征 表达。
3.3)经由步骤3.2)微调后的各个模态自编码机最上层的特征表达将被联系 在一起,从而使得各模态领域下的独立特征表达被过渡到同一语义空间的表达, 且弥补了单模态低层次空间特征无法有效表征样本标签信息的能力;之后将各 模态分支网络的所提取到的重构输入特征Zi(1≤i≤m),合并到一起作为最终 宽度网络分类器的特征输入层Zm,其中m表示模态数量;
Zm=[Z1|Z2|...|Zm]
3.4)为了充分挖掘多模态数据特征间的关系,让各个模态的语义得到充分 融合;将所有模态的顶层输出通过外积乘法进行相连,得到融合后的语义特征 空间作为宽度网络的多模态融合层Rm,融合公式为:
其中,Z1至Zm分别表示各模态对应的分支网络的最上层编码表达(即重构后 的输入特征),代表外积算子;
3.5)为了进一步挖掘多模态数据可能存在的高维空间的特征信息,对采集 到的数据进行充分的数据探索发现,本方法将宽度网络特征层m个模态的输入 分别再进行了一次非线性映射从而使得模态特征映射到增强模态空间中;给定 第i个模态的分支网络所重构后的输入特征为Zi(1≤i≤m),那么其对应的增 强模态特征空间为Ei(1≤i≤m),每个Ei(1≤i≤m)由Zi(1≤i≤m)经过一 层非线性映射得到;具体映射公式为:
其中,对应第i个模态映射到增强模态空间的激活函数,具体可采用sigmoid 或者tanh等常用的激活函数。/>是对应的映射权值矩阵。/>是对应的偏置 项。最后将得到的每个模态对应的增强模态特征进行合并得到宽度网络的增强 模态层H:
Hm=[E1|E2|...|Em]
3.6)将以上步骤得到的特征层,融合模态层以及增强模态层的所有特征进 行合并作为最终宽度网络的输入层A:
A≡[Zm|Rm|Hm]
那么最终宽度网络的输出权重Wout可以用脊回归方法快速求得:
Wout=(λI+AAT)-1ATY
其中,λ表示加在输出权值矩阵上的惩罚项,Y表示真实的样本标签集合,I表示 单位矩阵,A表示最终宽度网络的输入层。
进一步的,所述基于深宽度学习的面向智能制造多模态数据知识信息提取 方法将会被用于智能制造工厂生产过程中所产生的多模态数据去进行知识提 取发现,并对未来生产链做出预测,给实际生产带来收益。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范 围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (7)

1.基于深宽度联合神经网络的多模态数据知识信息提取方法,其特征在于:包括以下步骤:
1)收集人员对智能制造工厂所产生的多模态数据,对数据进行预处理,将处理后的数据样本进行存储;
2)对原始多模态数据进行细分建表,分别将多模态数据处理成单模态数据特征表;存储到分布式文件系统中的原始多模态数据每一行包括各种模态的数据记录,将原始数据按照模态性质进行细分建表,分别将多模态数据处理成包括语音、文本、图像的单模态数据特征表,并存储到HIVE数据库中;
3)利用深宽度联合网络对多模态数据特征表进行特征提取,得到对应的高层抽象特征知识,从而实现对多模态数据知识信息的提取;具体包括以下步骤:
3.1)对每个单模态数据建立不同层次的深度降噪自动编码网络,利用隐藏层学习得到的抽象低维特征重构输入数据;从Hadoop分布式文件系统中存储的多模态数据特征表中读取经过数据清洗过滤预处理后的多模态数据日志,将该多模态数据日志作为深宽度联合网络训练的样本流数据,其中多模态数据日志的分区以小时为间隔;对于每个模态的数据特征都建立一个分支深度降噪自动编码网络,每个分支深度降噪自动编码网络包括多个隐藏神经网络层;
首先将每一种模态的独立组别特征利用最大最小归一化到[0,1]的特征向量表达空间,归一化利用如下公式:
式中,x*为归一化后的特征,x为原始特征输入,xmax、xmin分别对应归一化前的特征最大和最小值;
深度降噪自动编码网络将各个模态归一化后的特征x*作扰动处理,将特征x*投影到含有分布服从zd的噪声输入x′~zd(x′|x*),其中,x′表示在x*加入噪声后的输入,zd表示以概率定义的二项分布,x′~zd(x′|x*)表示在给定输入x*的情况下,通过按照设置的概率将x*某些值置为0,然后得到新的输入x′;
对各个模态对应的深度降噪自编码网络进行训练,训练分为两个阶段:无监督预训练及有监督多模态网络联合微调阶段;在无监督预训练阶段,每个独立模态所属的子网络是相互独立训练的;在有监督多模态网络联合微调阶段,隐藏层对含有噪声的输入x′进行编码处理:
h=fθ(Wx′+B)
式中,fθ为编码的激活函数,W为编码的隐层权值矩阵,B是偏置向量,从而得到编码层的输出h;
在解码阶段,将隐层表达h解码为:
z=gθ(W′h+B′)
其中,gθ是用来解码的激活函数,W′是用来解码的权值矩阵,B′是对应的偏置项;
降噪自动编码机的优化目标是最小化解码阶段得到的重构输入与原始输入x*之间的差异Γ(x*,z),其中z为经过降噪自编码网络解码后得到的输出即重构后的输入,如果输入值为连续的实数值,采用平方误差优化目标:
Γ(x*,z)=||x*-z||2
如果输入为二值[0,1]或者为范围[0,1]之间的连续实数值,则采用交叉熵损失函数进行优化:
其中l表示样本个数,xi和zi分别表示第i个样本的原始输入和经过降噪自编码网络后的重构输入;
3.2)将每个单模态数据由深度降噪自编码网络得到的抽象特征以不同的权值接入到上层的桥接层,并且不同模态的分支网络对应的权值不同,各个单模态数据所对应的深度降噪自编码网络的权值最终会自适应调整到最适合当前知识发现的权重值;
3.3)对于k类分类任务、m个模态数据、n个样本、桥接层的优化目标函数采用softmax分类器定义的损失函数来优化;
3.4)将所有模态的顶层输出通过外积乘法进行相连,得到融合后的语义特征空间作为上层宽度网络的多模态融合层Rm,融合公式为:
其中,Z1至Zm分别表示各模态对应的分支网络的最上层重构后的输入特征,代表外积算子;
3.5)将宽度网络特征层各个模态的输入分别再进行非线性映射从而使得模态特征映射到增强模态空间中,得到的增强模态特征将被concat合并起来作为宽度网络的增强模态层;
3.6)将上述步骤得到的最上层宽度网络的特征层、多模态融合层及增强模态层进行合并作为深宽度联合网络的输入,利用宽度网络求伪逆的训练方式对上层宽度网络进行训练。
2.根据权利要求1所述的基于深宽度联合神经网络的多模态数据知识信息提取方法,其特征在于:在步骤1)中,收集智能制造工厂系统在日常流水线中产生的多模态数据日志并进行数据清洗过滤处理,将处理后的数据样本加载到以Kafka为基础实现的分布式消息系统中,并将数据存储到Hadoop分布式文件系统的存储模块中。
3.根据权利要求1所述的基于深宽度联合神经网络的多模态数据知识信息提取方法,其特征在于:所述无监督预训练阶段采用逐层贪心式,对于每一个隐藏层都进行训练,如果训练后的深度降噪自编码网络是最后一层,则提取出编码层的输出作为最后代替原始输入的输入特征;如果训练后的深度降噪自编码网络是中间层,则提取出编码层的输出作为下一层降噪自编码网络的输入继续进行训练。
4.根据权利要求3所述的基于深宽度联合神经网络的多模态数据知识信息提取方法,其特征在于:在步骤3.3)中,所述损失函数为:
其中yi表示第i个样本的分类标签,若样本属于第j类,则相应的类标Wl表示各个模态网络最上层与桥接层的连接权值矩阵W的第l个行向量,每个模态网络分别对应一个Wl,hp表示第p个模态最上层的编码表达,1≤p≤m,bl表示偏置项,条件函数/>表示当第i个样本属于第j类时值为1,否则为0,桥接层的实际输入x为从各个模态分支网络最上层抽取得到的隐含层特征表达;桥接层会通过最小化此损失函数并利用反向传播算法来迭代,以对各个单模态数据所对应的深度降噪自编码网络进行参数调整;将调整后的每个单模态数据所对应的深度降噪自编码网络最上层编码后的特征表示进行Stacking合并操作,并把合并操作后的特征作为最上层宽度网络的特征层,其中桥接层的激活函数使用线性或非线性激活函数。
5.根据权利要求4所述的基于深宽度联合神经网络的多模态数据知识信息提取方法,其特征在于:在步骤3.3)中,将经过桥接层调整优化后的各模态分支网络的最上层重构后的输入特征Zi,1≤i≤m,合并到一起作为最终宽度网络分类器的特征输入层Zm,其中m表示模态数据数量:
Zm=[Z1|Z2|…|Zm]。
6.根据权利要求5所述的基于深宽度联合神经网络的多模态数据知识信息提取方法,其特征在于:在步骤3.5)中,将宽度网络特征层m个模态的输入分别再进行非线性映射使得模态特征映射到增强模态空间中;给定第i个模态的分支深度降噪自动编码网络所重构后的输入特征为Zi,1≤i≤m,其对应的增强模态特征空间为Ei,每个增强模态特征空间Ei由该模态数据所对应的分支深度降噪自动编码网络所提取到的重构输入特征经过一层非线性映射得到,具体映射公式为:
其中,对应第i个模态映射到增强模态空间的激活函数,/>是对应的映射权值矩阵,/>是对应的偏置项,最后将得到的每个模态对应的增强模态特征进行合并得到宽度网络的增强模态层H:
Hm=[E1|E2|…|Em]。
7.根据权利要求6所述的基于深宽度联合神经网络的多模态数据知识信息提取方法,其特征在于:在步骤3.6)中,将得到的特征层、融合模态层以及增强模态层的所有特征进行合并作为最终宽度网络的输入层A:
A≡[Zm|Rm|Hm]
最终宽度网络的输出权重Wout用脊回归方法快速求得:
Wout=(λI+AAT)-1ATY
其中,λ表示加在输出权值矩阵上的惩罚项,Y表示真实的样本标签集合,I表示单位矩阵,A表示最终宽度网络的输入层。
CN202110278271.3A 2021-03-12 2021-03-12 基于深宽度联合神经网络的多模态数据知识信息提取方法 Active CN113361559B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110278271.3A CN113361559B (zh) 2021-03-12 2021-03-12 基于深宽度联合神经网络的多模态数据知识信息提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110278271.3A CN113361559B (zh) 2021-03-12 2021-03-12 基于深宽度联合神经网络的多模态数据知识信息提取方法

Publications (2)

Publication Number Publication Date
CN113361559A CN113361559A (zh) 2021-09-07
CN113361559B true CN113361559B (zh) 2023-10-17

Family

ID=77525047

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110278271.3A Active CN113361559B (zh) 2021-03-12 2021-03-12 基于深宽度联合神经网络的多模态数据知识信息提取方法

Country Status (1)

Country Link
CN (1) CN113361559B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049970B (zh) * 2021-11-10 2022-09-23 重庆大学 一种基于多端数据共享的用药管理方法及系统
CN114359586B (zh) * 2021-12-01 2022-08-05 合肥工业大学 一种适用于模态缺失的多模态目标检测方法及系统
CN114462554B (zh) * 2022-04-13 2022-07-05 华南理工大学 一种基于多模态宽度学习的潜在抑郁评估系统
CN115712614B (zh) * 2022-11-07 2023-07-07 航科广软(广州)数字科技有限公司 基于数据传输流控制的信息处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220506A (zh) * 2017-06-05 2017-09-29 东华大学 基于深度卷积神经网络的乳腺癌风险评估分析系统
CN109460737A (zh) * 2018-11-13 2019-03-12 四川大学 一种基于增强式残差神经网络的多模态语音情感识别方法
CN110232341A (zh) * 2019-05-30 2019-09-13 重庆邮电大学 基于卷积-堆叠降噪编码网络的半监督学习图像识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10373056B1 (en) * 2018-01-25 2019-08-06 SparkCognition, Inc. Unsupervised model building for clustering and anomaly detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220506A (zh) * 2017-06-05 2017-09-29 东华大学 基于深度卷积神经网络的乳腺癌风险评估分析系统
CN109460737A (zh) * 2018-11-13 2019-03-12 四川大学 一种基于增强式残差神经网络的多模态语音情感识别方法
CN110232341A (zh) * 2019-05-30 2019-09-13 重庆邮电大学 基于卷积-堆叠降噪编码网络的半监督学习图像识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度神经网络的多模态特征自适应聚类方法;敬明旻;计算机应用与软件(10);第268-275页 *

Also Published As

Publication number Publication date
CN113361559A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN113361559B (zh) 基于深宽度联合神经网络的多模态数据知识信息提取方法
CN108459955B (zh) 基于深度自编码网络的软件缺陷预测方法
CN103116766B (zh) 一种基于增量神经网络和子图编码的图像分类方法
Zhang et al. A novel case adaptation method based on an improved integrated genetic algorithm for power grid wind disaster emergencies
CN114898121B (zh) 基于图注意力网络的混凝土坝缺陷图像描述自动生成方法
CN113268370B (zh) 一种根因告警分析方法、系统、设备及存储介质
CN113283602B (zh) 基于离线知识学习和在线动态修正电网系统故障诊断方法
CN113240011A (zh) 一种深度学习驱动的异常识别与修复方法及智能化系统
CN117096867A (zh) 一种短期电力负荷预测方法、装置、系统及存储介质
CN116225760A (zh) 一种基于运维知识图谱的实时根因分析方法
CN114817773A (zh) 一种基于多级分解和融合的时序预测系统及方法
CN113887694A (zh) 一种注意力机制下基于特征表征的点击率预估模型
CN115310837A (zh) 基于因果图注意力神经网络的复杂机电系统故障检测方法
CN117540035B (zh) 一种基于实体类型信息融合的rpa知识图谱构建方法
Behera et al. A multi-model data-fusion based deep transfer learning for improved remaining useful life estimation for IIOT based systems
CN117725491A (zh) 一种基于SCINet的电力系统故障状态检测分类方法
CN117236698A (zh) 基于图神经网络的产业链风险评估模型、方法及介质
CN113673152A (zh) 一种基于数字孪生体的集团级kks编码智能映射推荐方法
CN116780530A (zh) 面向大规模新能源接入电网薄弱环节识别预测方法及系统
CN116611813A (zh) 一种基于知识图谱的智能运维管理方法及系统
CN114330500B (zh) 基于storm平台的电网电力设备在线并行诊断方法及系统
CN115455162A (zh) 层次胶囊与多视图信息融合的答案句子选择方法与装置
CN114707931A (zh) 一种基于htm的物流仓库异常情况实时监测系统及其设计方法
CN116599683A (zh) 一种恶意流量检测方法、系统、装置及存储介质
CN112200255B (zh) 一种针对样本集的信息去冗余方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant