CN117436500B - 一种基于对比学习的电池数据处理模型的无监督训练方法 - Google Patents

一种基于对比学习的电池数据处理模型的无监督训练方法 Download PDF

Info

Publication number
CN117436500B
CN117436500B CN202311746435.6A CN202311746435A CN117436500B CN 117436500 B CN117436500 B CN 117436500B CN 202311746435 A CN202311746435 A CN 202311746435A CN 117436500 B CN117436500 B CN 117436500B
Authority
CN
China
Prior art keywords
battery
data
layer
training
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311746435.6A
Other languages
English (en)
Other versions
CN117436500A (zh
Inventor
李朝
丁东辉
钟逸晨
潘仁波
胡始昌
肖劼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yugu Technology Co ltd
Original Assignee
Hangzhou Yugu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Yugu Technology Co ltd filed Critical Hangzhou Yugu Technology Co ltd
Priority to CN202311746435.6A priority Critical patent/CN117436500B/zh
Publication of CN117436500A publication Critical patent/CN117436500A/zh
Application granted granted Critical
Publication of CN117436500B publication Critical patent/CN117436500B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供的一种基于对比学习的电池数据处理模型的无监督训练方法,通过输入层获取训练数据集;通过编码层,分别将原始电池数据和正样本数据映射至嵌入式空间,得到低维度的电池编码表示;通过投影层提取原始电池数据和正样本数据的低维度的电池编码表示,得到嵌入式表示;通过动量编码器,在分别将原始电池数据和负样本数据映射至嵌入式空间的过程中,基于编码层的迭代参数,以动量的方式更新动量编码器的参数,得到负样本数据的电池编码表示;对目标模型进行优化训练。该模型经过简单微调之后,即可用于各种与电池相关的任务,解决了相关技术中对电池数据的分析处理方法复杂度较高的问题,提升了电池数据相关分析任务的效率。

Description

一种基于对比学习的电池数据处理模型的无监督训练方法
技术领域
本申请涉及机器学习领域,特别是涉及一种基于对比学习的电池数据处理模型的无监督训练方法、系统、计算机设备和计算机可读存储介质。
背景技术
电池数据包括电池的容量、续航距离、可用寿命,以及与电池相关的换电工单信息等。利用电池数据进行大数据分析,可以为外卖、共享单车等行业提供积极有效的数据支持。
在相关技术中,电池领域内的研究都是针对单一任务的有监督学习,以获取特定任务的电池编码表示;该类方法,普遍数据规模较小并且忽略了电池其他任务包含的领域信息,并且,实际电池使用中,电池数据具有‘无标签,数据波动较大’等特点,构建高效的数据集的过程也通常难以获得。
以上综合原因,导致对电池数据的分析处理复杂度较高,且效率低下。
发明内容
本申请实施例提供了一种基于对比学习的电池数据处理方法、装置、系统、计算机设备和计算机可读存储介质,以至少解决相关技术中电池数据的分析处理复杂度较高的问题。
第一方面,本申请实施例提供了一种基于对比学习的电池数据处理模型的无监督训练方法,用于训练目标模型,所述目标模型包括输入层、编码层、投影层、预测层和动量编码器,所述方法包括:
通过输入层获取训练数据集,其中,所述训练数据集包括原始电池数据和与所述原始电池数据对应的对比电池数据,所述对比电池数据包括正样本数据和负样本数据;
通过编码层,分别将所述原始电池数据和所述正样本数据映射至嵌入式空间,得到低维度的电池编码表示;
通过投影层提取所述原始电池数据和正样本数据的低维度的电池编码表示,得到嵌入式表示,用于提升对比学习过程中电池数据的区分度;
通过预测层,分别将所述电池低维编码表示和所述嵌入式表示结合,得到预测层嵌入式表示;
通过动量编码器,在分别将所述原始电池数据和所述负样本数据映射至嵌入式空间的过程中,基于所述编码层的迭代参数,以动量的方式更新所述动量编码器的参数,得到负样本数据的电池编码表示;
通过所述训练数据集,通过计算正样本数据的预测损失和负样本数据集合对比损失,对所述目标模型进行优化训练,得到训练好的电池数据处理模型。
在其中一些实施例中,通过所述训练数据集,对所述目标模型所进行训练,得到训练好的电池数据处理模型包括:
通过最大化所述原始电池的预测层的嵌入式编码表示和正样本电池投影层的嵌入式表示之间的相似度,以及最小化所述原始电池投影层嵌入式表示和所述负样本电池嵌入式编码表示之间的相似度,确定对比损失函数;
以最小化所述对比损失函数为约束条件,基于所述训练数据集训练所述目标模型,在模型迭代完成之后,得到所述训练好的电池数据处理模型。
在其中一些实施例中,使用Informer作为编码层,在通过编码层得到低维度的电池编码表示的过程中,所述方法还包括:
所述编码层通过包含多个Informer的自注意力层和蒸馏层来得到原始电池的低维编码表示,其中:
所述编码层的自注意力层使用ProbSparse自注意力机制,计算自注意力值;
原始的电池数据和正样本数据输入所述自注意力层之后,经过基于卷积和池化处理的蒸馏层,以处理序列普遍较长的电池数据;
在其中一些实施例中,
所述投影层一般由一个或多个全连接层组成,每个全连接层后接一个非线性激活函数,以更好地捕捉特征之间的非线性关系;
所述投影层是使得编码层的输出通过投影后得到的嵌入式表示更具区分性,有助于模型学到对模型输入更有意义的表示。
在其中一些实施例中,所述方法还包括;
在获取电池的投影层嵌入式表示后,基于所述的投影层嵌入式表示和编码层的编码表示,确定所述的预测层嵌入式表示;
根据所述原始电池数据的预测层嵌入式表示,和所述正样本数据的所述嵌入式表示,确定正样本对损失函数,根据所述原始电池数据与负样本数据的嵌入式表示,确定负样本对损失函数;
基于所述正样本对损失函数和所述负样本对损失函数,确定所述对比损失函数。
在其中一些实施例中,在每一次的训练负样本数据的过程中,通过所述动量编码器,不断更新训练负样本数据相关的模型参数:
基于所述负样本数据集合,通过队列机制,构建所述字典库;
基于所述队列机制,采用动量更新负样本数据对应的动量编码器的参数,得到所述负样本数据对应的低维编码层特征,其中,所述动量编码器的参数更新公式如下:
其中,为第k次迭代时字典库对应编码层的参数,/>为此次正样本对的编码器(query encoder)的参数,/>为动量参数。
在其中一些实施例中,获取所述原始电池数据包括:
获取目标电池在任意一次放电和充电时间段内的多组电池特征,按照时间序列组合所述多组电池特征得到所述原始电池数据,所述电池特征包括:电池电压、电池温度、电池剩余电量、电池对应的车辆运动状态、电池异常信息和剩余SOC;
获取所述原始电池数据对应的对比电池数据包括:
获取所述原始电池数据对应的时间序列信息和ID信息,通过采集与所述ID信息相同且时序信息之间间隔小于第一预设时间阈值的电池数据,得到所述正样本数据;
通过采集与原始电池不同ID的时间序列信息得到所述负样本数据。
在其中一些实施例中,训练好的模型可以经过微调用于不同的下游任务,所述方法包括:
获取不同下游任务的电池数据以及数据的真实标签;
通过对上述方法训练得到电池数据处理模型的编码层进行冻结网络参数,并在编码层的末尾添加由一个多层全连接网络构成的输出层,将所述电池数据处理更新为优化模型;
将下游任务对应的有标签数据输入至所述优化模型,对所述优化模型进行训练,其中,所述训练过程中使用IA3进行网络参数的微调;
基于所述训练结束之后的优化模型对所述电池数据进行预测或分类,得到与所述下游任务对应的预测任务结果。
第二方面,本申请实施例提供了一种电池数据的处理系统,所述系统包括:采集模块和处理模块,其中;
所述采集模块用于,获取不同下游任务的带标签电池数据;
所述处理模块用于,通过对第一方面所述的方法训练得到电池数据处理模型的编码层进行冻结网络参数,并在编码层的末尾添加由一个多层全连接网络构成的输出层,将所述电池数据处理更新为优化模型,
以及,将下游任务对应的有标签数据输入至所述优化模型,对所述优化模型进行训练,其中,所述训练过程中使用IA3进行网络参数的微调;
基于所述训练结束之后的优化模型对所述电池数据进行预测或分类,得到与所述下游任务对应的预测任务结果。
第三方面,本申请实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的方法。
相比于相关技术,本申请实施例提供的一种基于对比学习的电池数据处理模型的无监督训练方法,通过输入层获取训练数据集,其中,训练数据集包括原始电池数据和与原始电池数据对应的对比电池数据,对比电池数据包括正样本数据和负样本数据;通过编码层,分别将原始电池数据和正样本数据映射至嵌入式空间,得到低维度的电池编码表示;通过投影层提取原始电池数据和正样本数据的低维度的电池编码表示,得到嵌入式表示,用于提升对比学习过程中电池数据的区分度;通过预测层,分别将电池低维编码表示和嵌入式表示结合,得到预测层嵌入式表示;通过动量编码器,在分别将原始电池数据和负样本数据映射至嵌入式空间的过程中,基于编码层的迭代参数,以动量的方式更新动量编码器的参数,得到负样本数据的电池编码表示;通过训练数据集,通过计算正样本数据的预测损失和负样本数据集合对比损失,对目标模型进行优化训练,得到训练好的电池数据处理模型。该模型经过简单微调之后,即可用于各种与电池相关的任务,解决了相关技术中对电池数据的分析处理方法复杂度较高的问题,提升了电池数据相关分析任务的效率。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种基于对比学习的电池数据处理方法的无监督训练方法的流程图;
图2是根据本申请实施例的一种基于对比学习的电池数据处理模型的无监督训练方法的架构图;
图3是根据本申请实施例的一种电池数据处理方法的流程图;
图4是根据本申请实施例的电池数据处理系统的结构框图;
图5是根据本申请实施例的电子设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
在电池领域中,很多相关技术分别针对电池异常检测、电池故障诊断或电池健康状态估计等任务。这些研究通过各种有监督的模型训练得到电池的编码表示,然后模型利用电池的编码完成特定任务。这种依据特定任务学习的电池编码表示,仅仅对该任务具有较好的效果并且需要已标注的数据指导模型训练,当运用于其他任务时往往表现较差。另外,该种方法需要依赖于大量的有标注数据,而数据的标注过程也需要较高的成本。
基于上述情况,本申请实施例提供了一种准确性高、且具有灵活性的电池数据处理方法,可以对对电池数据进行实时处理和分析,以提取出电池的关键潜在信息,且具有灵活性能够满足实时不同应用场景的需求。
第一方面,本申请实施例提供了一种基于对比学习的电池数据处理模型的无监督训练方法,图1是根据本申请实施例的一种基于对比学习的电池数据处理方法的无监督训练方法的流程图,如图1所示,该方法用于训练目标模型,目标模型包括输入层、编码层、投影层、预测层和动量编码器,该流程包括如下步骤:
S101,获取训练数据集,其中,训练数据集包括原始电池数据和与原始电池数据对应的对比电池数据,对比电池数据包括正样本数据和负样本数据;
需要说明的是,本申请实施例中的电池是用于电动车续航供电的电池的数据;
其中,电池数据是在连续的一次放电和一次充电的T个时间戳内的D个特征构成的时间序列特征,其包括但不限于是:电池电压、电池温度、电池剩余电量、电池当前的累计运动状态、电池对应的异常信息、最大续航距离、剩余续航距、单位SOC骑行距离(1% SOC 对应的骑行距离,等于总骑行距离除以总消耗的SOC)、单位电压骑行距离(消耗1v电压对应的骑行距离,等于总骑行距离除以总消耗的电压)、最大骑行速度等。
进一步的,该原始电池数据可以组成数据集X,,具体的,获取对比电池数据包括如下步骤:
Step1,由于一块电池前后2次充放电序列所包含的信息是高度相关的,因此,可以分别通过获取与各个原始电池数据属于同一电池,并且时间间隔小于第一预设时间阈值的电池数据,即原始电池数据接下来一次充放电行为的时间序列样本,作为正样本对比电池数据/>
Step2,由于一块电池时间间隔较长的2次充放电序列以及不同电池的充放电序列是不相关的,因此,可以分别通过获取与各个原始电池数据属于同一电池,并且时间间隔大于第二预设时间阈值的电池数据,即原始电池数据较长时间之后的一次充放电行为的时间序列样本,作为负样本/>对比电池数据。
进一步的,为了消除各个特征量纲的不一致带来的影响,还需对数据集在各个特征上进行归一化处理。
通过上述步骤S101,采集得到时序的原始电池数据,以及与原始电池数据相似性较高的正样本数据,与原始电池数据相似性较低的负样本数据,为模型训练提供有效的数据支持。
具体的,图2是根据本申请实施例中一种获取原始电池数据和正样本电池数据的低维度的电池编码表示的流程图,如图2所示,该流程包括如下具体步骤:
S102,通过编码层,分别将原始电池数据和正样本数据映射至嵌入式空间,得到低维度的电池编码表示;
本实施例中,考虑到电池的充放电时间内的序列化数据普遍时间较长,因此,基于Informer构建处理相似样本的编码层;
对于与原始电池数据相似度较高的正样本对比电池数据,可以通过该编码层,将原始样本映射为编码表示/>
需要说明的是,自注意力模型(self-attention)主要由(query,key,value)组成,其计算公式为:,其中/>,/>,/>,d为输入数据的维度;
具体的,一个标准的编码器包括多个自注意力层(Self-Attention Layer)和前馈神经网络层(Feedforward Neural Network Layer),且每个自注意力层能够根据序列中其他位置的信息对每个位置进行加权,得模型能够在不同位置上放置不同的注意力,从而能够有效地处理序列数据,并且由于其并行计算的特性,具有较好的训练效率。
在本实施例中,编码层通过包含多个Informer的自注意力层和蒸馏层来得到原始电池的低维编码表示,其中:编码层的自注意力层使用ProbSparse自注意力机制,计算自注意力值,原始的电池数据和正样本数据输入自注意力层之后,经过基于卷积和池化处理的蒸馏层,以处理序列普遍较长的电池数据;
本实施例中,通过基于Informer构建的编码层,无需使用全部的query向量,使用ProbSparse自注意力机制,能够支持查找到少数几个关键的query向量组成较为稀疏的查询元素
进一步利用该稀疏的查询元素与上述公式中的键元素和值元素,计算自注意力值。由于仅选择了部分关键查询向量,因此,相比较于传统的自注意力模型,可以在将时间复杂度优化为O(L*logL),从而节省该步骤的算力消耗,提升模型效率。
进一步的,本实施例中,还在informer的每个自注意力层之后额外设置“蒸馏层”,通过蒸馏层对自注意力层输出低维度的电池编码表示进行卷积和池化处理,可以每层的输出长度减半,以此来突出支配性注意,并有效地处理极长的序列,从而得到优化的低维度电池编码表示。
S103,通过投影层,提取原始电池数据和正样本数据的低维度的电池编码表示,得到嵌入式表示,用于提升对比学习过程中电池数据的区分度;
具体的,本实施例中的投影层由一个或多个全连接层组成,每个全连接层后接一个非线性激活函数以更好地捕捉特征之间的非线性关系,比如ReLU,其计算公式为
通过在全连接层之后连接该非线性激活函数,允许模型更好地捕捉输入特征之间的非线性关系。经过投影层之后得到的嵌入式表示,其中W为全连接的权重矩阵,b为偏置向量,/>为非线性激活函数。
可以理解,投影层的目的是使得编码层输出映射后的电池表示,在后续对比学习训练中,能够提升电池数据的区分度,从而由助于模型学到对输入的时序更有意义的表示,使得相似数据在嵌入空间中更接近,为模型提供了更好的特征表达。
S104,通过预测层,分别将电池低维编码表示和嵌入式表示结合,得到预测层嵌入式表示;
进一步的,在得到投影层的编码后,本实施例中还额外加入了一个预测层,该预测层可以融合前两次的由编码器输出的原始电池数据的低维编码表示,和当前由投影层输出的嵌入式表示进行预测,得到预测层嵌入式表示。
具体的,通过公式,其中/>实现两者的融合。另外,该预测层采用两层MLP网络构建,其输出的原始电池数据的预测值表示为/>
进一步的,根据预测层输出的原始电池数据的嵌入式表示和正样本数据的低维度电池编码表示构建正样本对,并基于正样本对确定正样本对损失函数,其中,该正样本对损失函数表示为:,其中,/>为相似样本中投影层后得到的潜在编码,即正样本数据的电池编码;
可以理解,本实施例中,通过额外设置的预测层,获取原始电池数据的预测值,利用该预测值与相似性样本计算正样本对比损失,可以进一步地优化对比损失函数的准确性,进而提升模型的精确度。
另外,对于负样本对,根据原始电池数据与负样数据的低维编码表示构建负样本对,并进一步基于负样本对确定负样本对损失函数;其中,采用另一个损失函数来最小第i个样本与其他负样本之间的相似性,其中/>,/>为负样本的潜在编码,/>为温度系数。
基于正样本对损失函数和负样本对损失函数,确定对比损失函数,总的损失函数定义为:
其中,MLP代表多层感知机(Multilayer Perceptron),是一种前馈神经网络(Feedforward Neural Network)架构。它由至少三层神经元组成:输入层、隐藏层(可能有多层),以及输出层。每一层都与下一层完全连接,每个连接都有一个权重。
需要说明的是,"嵌入空间"通常指的是将对象或信息映射到一个低维度空间中的过程,这个空间通常是一个向量空间,其中每个对象都由一个向量表示。
通过上述步骤,得到电池数据样本的嵌入式表示,并基于嵌入式表示确定模型对比学习过程中损失函数。这种模型结构充分利用了编码器对序列数据的建模能力,同时结合自注意力机制、蒸馏层以及结合预测层的处理,使其更适用于对比损失的计算。整个流程在无监督学习任务中,特别是对比学习中,通常能够学到对输入数据有用的高级表示。
S105,通过动量编码器,在分别将原始电池数据和负样本数据映射至嵌入式空间的过程中,基于编码层的迭代参数和字典库,以动量的方式更新动量编码器的参数,得到负样本数据的电池编码表示;
在原始电池数据和负样本电池数据的对比学习过过程中,本实施例中,采用了动量编码器(momentum encoder)的方式获取负样本电池数据的低维编码表示;
其中,结合队列(queue)构建字典库,该字典库对于模型的学习具有较大帮助。进一步需要说明的是,队列是一个先进先出(FIFO)的数据结构,用于存储最近批次的样本编码,新的样本编码被添加到队列的末尾,而队列的前端则包含最早批次的样本编码。这样的队列可以用于构建一个历史样本的字典库。
本实施例中,动量编码器(momentum encoder)和队列结合起来构建了一个巨大且高一致性的字典库。
在每一次的训练负样本数据的过程中,通过动量编码器,不断更新训练负样本数据相关的模型参数:基于负样本数据集合,通过队列机制,构建字典库;基于队列机制,采用动量更新负样本数据对应的动量编码器的参数,得到负样本数据对应的低维编码层特征另外,对于队列中的编码器的参数,采用动量更新的方式,具体更新公式如下:
其中,为第k次迭代时字典库对应编码层的参数,/>为此次正样本对的编码器(query encoder)的参数,/>为动量参数。
通过上述方式,由于字典库的更新相对于正样本对的编码器的更新是缓慢的,因此,有助于维持队列中样本的一致性,使得模型能够更好地学到负样本电池数据更有意义的低维编码表示,进而能够提高模型在无监督学习任务中的性能。
S106,通过训练数据集,通过计算正样本数据的预测损失和负样本数据集合对比损失,对目标模型进行优化训练,得到训练好的电池数据处理模型;
本实施例中,在模型训练中,通过最大化原始电池电池和正样本电池特征之间的相似度,以及最小化原始电池数据和负样本电池数据之间的相似度,优化对比损失函数;
进一步的,以最小化对比损失函数为约束条件,基于训练数据集训练目标模型,并不断调整对比学习网络的参数在模型迭代完成之后,得到训练好的电池数据处理模型。这种编码表示,能够发现原始电池特征和对比电池特征之间的关联关系和差异特性,得到包含从样本的原始特征中提取出的包含电池自身的本质信息。
另外,使用余弦相似度衡量两个样本在嵌入空间的接近程度。两个向量的余弦相似度是它们的夹角的余弦值,定义为
在具体的模型优化训练过程中,通过最小化对比损失函数来不断调整对比学习网络的参数;可选的,在训练的过程中,使用Adam优化器来最小化总的对比损失函数,预训练结束后,SimCLR的编码器部分的参数也就确定,此时即可得到训练好的电池数据处理模型,训练结束之后,模型的各个参数也随之确定,利用该模型即可高效直接地获取电池序列数据的低维嵌入式表示。
此外,图3是根据本申请实施例的一种基于对比学习的电池数据处理模型的无监督训练方法的架构图。
通过上述步骤S101至S106,相比较于相关技术中的电池数据处理方法,本申请方案,通过对比学习获得电池特征的编码表示,仅关注于发现电池数据的内在结构,而不需要特定领域任务的监督信息。该种方式学习到的电池数据编码表示更可能捕捉到电池的本质信息,而并不局限于某一特定任务或领域的特征,从而使得模型具备更好的泛化性,能够适用于多种类型的下游任务。
另一方面,本申请实施例还提供了一种电池数据的处理方法,图3是根据本申请实施例的一种电池数据处理方法的流程图,如图3所示,该流程包括如下步骤:
S301,获取不同下游任务的带标签电池数据;
其中,该实时电池数据包括但不限于是当前场景下的电池剩余续航里程、电池单位SOC、单位电压续航距离和电池容量等。具体的,该信息包括文本信息、图像形式和时序数据形式。
其中,该下游电池数据处理任务可以但不限于是:容量预测、续航预测和电池异常检测等任务。对于每一类具体的任务,可以利用有标签的数据进行微调。
可以理解,微调的过程中应用了携带标签的原始数据,该步骤的微调训练为有监督训练。
S302,通过对训练得到电池数据处理模型的编码层进行冻结网络参数,并在编码层的末尾添加由一个多层全连接网络构成的输出层,将电池数据处理更新为优化模型;
具体的,在针对某一下游任务微调的过程中,将编码器部分的权重冻结,同时在编码器的末尾添加一个输出层,通过最小化交叉熵损失函数,更新输出层的参数,最终得到适用于该下游任务的模型。
S303,将下游任务对应的有标签数据输入至优化模型,对优化模型进行训练,其中,训练过程中使用IA3进行网络参数的微调,并基于训练结束之后的优化模型对电池数据进行预测或分类,得到与下游任务对应的预测任务结果。
通过上述步骤S401至S403,通过对训练好的电池数据处理模型进行微调之后,可以适用于多种下游任务,如:容量预测、续航预测和电池异常检测等。相比较于针对特定任务单独进行有监督学习得到的特定类型模型,本申请的方法能够适用于多种任务,具备更强的适用性,能够提升电池数据处理相关任务的处理效率。
第二方面,本申请实施例还提供了一种电池数据处理系统,图4是根据本申请实施例的电池数据处理系统的结构框图,如图4所示,该系统包括:采集模块40和处理模块41,其中:
采集模块40用于,获取不同下游任务的带标签电池数据;
处理模块41用于,通过对训练好的电池数据处理模型的编码层进行冻结网络参数,并在编码层的末尾添加由一个多层全连接网络构成的输出层,将电池数据处理更新为优化模型;
以及,将下游任务对应的有标签数据输入至优化模型,对优化模型进行训练,其中,训练过程中使用IA3进行网络参数的微调;
以及,基于训练结束之后的优化模型对电池数据进行预测或分类,得到与下游任务对应的预测任务结果。
其中,通过对比学习获得电池特征的编码表示,仅关注于发现电池数据的内在结构,而不需要特定领域任务的监督信息。该种方式学习到的电池数据编码表示更可能捕捉到电池的本质信息,而并局限于某一特定任务或领域的特征,从而使得模型具备更好的泛化性,能够适用于多种类型的下游任务。
通过本系统,对训练好的电池数据处理模型进行微调之后,可以适用于多种下游任务,如:容量预测、续航预测和电池异常检测等。相较于针对特定任务单独进行有监督学习得到的特定类型模型,本申请的方法能够适用于多种任务,具备更强的适用性,能够提升电池数据处理相关任务的处理效率。
在一个实施例中,图5是根据本申请实施例的电子设备的内部结构示意图,如图5所示,提供了一种电子设备,该电子设备可以是服务器。该电子设备包括通过内部总线连接的处理器、网络接口、内存储器和非易失性存储器,其中,该非易失性存储器存储有操作系统、计算机程序和数据库。处理器用于提供计算和控制能力,网络接口用于与外部的终端通过网络连接通信,内存储器用于为操作系统的运行提供环境,计算机程序被处理器执行时以实现一种电池数据处理方法,数据库用于存储数据。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (9)

1.一种基于对比学习的电池数据处理模型的无监督训练方法,其特征在于,用于训练目标模型,所述目标模型包括输入层、编码层、投影层、预测层和动量编码器,所述方法包括:
通过输入层获取训练数据集,其中,所述训练数据集包括原始电池数据和与所述原始电池数据对应的对比电池数据,所述对比电池数据包括正样本数据和负样本数据;
通过编码层,分别将所述原始电池数据和所述正样本数据映射至嵌入式空间,得到低维度的电池编码表示;
通过投影层,提取所述原始电池数据和正样本数据的低维度的电池编码表示,得到嵌入式表示,用于提升对比学习过程中电池数据的区分度;
通过预测层,分别将所述电池低维编码表示和所述嵌入式表示结合,得到预测层嵌入式表示;
通过动量编码器,在分别将所述原始电池数据和所述负样本数据映射至嵌入式空间的过程中,基于所述编码层的迭代参数和字典库,以动量的方式更新所述动量编码器的参数,得到负样本数据的电池编码表示,其中,所述字典库基于所述负样本数据集合构建;
通过所述训练数据集,通过计算正样本数据的预测损失和负样本数据集合对比损失,对所述目标模型进行优化训练,得到训练好的电池数据处理模型,具体包括:通过最大化所述原始电池的预测层的嵌入式编码表示和正样本电池投影层的嵌入式表示之间的相似度,以及最小化所述原始电池投影层嵌入式表示和所述负样本数据的电池编码表示之间的相似度,确定对比损失函数;
以最小化所述对比损失函数为约束条件,基于所述训练数据集训练所述目标模型,在模型迭代完成之后,得到所述训练好的电池数据处理模型。
2.根据权利要求1所述的方法,其特征在于,使用Informer作为编码层,在通过编码层得到低维度的电池编码表示的过程中,所述方法还包括:
所述编码层通过包含多个Informer的自注意力层和蒸馏层来得到原始电池的低维编码表示,其中:
所述编码层的自注意力层使用ProbSparse自注意力机制,计算自注意力值;
原始的电池数据和正样本数据输入所述自注意力层之后,经过基于卷积和池化处理的蒸馏层,以处理序列普遍较长的电池数据。
3.根据权利要求1所述的方法,其特征在于:
所述投影层由一个或多个全连接层组成,每个全连接层后接一个非线性激活函数,以更好地捕捉特征之间的非线性关系;
所述投影层是使得编码层的输出通过投影后得到的嵌入式表示更具区分性,有助于模型学到对模型输入更有意义的表示。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括;
在获取电池的投影层嵌入式表示后,基于所述的投影层嵌入式表示和编码层的编码表示,确定所述预测层嵌入式表示;
根据所述原始电池数据的预测层嵌入式表示,和所述正样本数据的所述嵌入式表示,确定正样本对损失函数,根据所述原始电池数据与负样本数据的嵌入式表示,确定负样本对损失函数;
基于所述正样本对损失函数和所述负样本对损失函数,确定所述对比损失函数。
5.根据权利要求1所述的方法,其特征在于,基于所述负样本数据集合,通过队列机制,构建字典库,所述方法还包括:
在每一次的训练负样本数据的过程中,通过所述动量编码器,不断更新训练负样本数据相关的模型参数:
基于所述队列机制,采用动量更新负样本数据对应的动量编码器的参数,得到所述负样本数据对应的低维编码层特征,其中,所述动量编码器的参数更新公式如下:
其中,为第k次迭代时字典库对应编码层的参数,/>为此次正样本对的编码器(queryencoder)的参数,/>,为动量参数。
6.根据权利要求1所述的方法,其特征在于,获取所述原始电池数据包括:
获取目标电池在任意一次放电和充电时间段内的多组电池特征,按照时间序列组合所述多组电池特征得到所述原始电池数据,所述电池特征包括:电池电压、电池温度、电池剩余电量、电池对应的车辆运动状态、电池异常信息和剩余SOC;
获取所述原始电池数据对应的对比电池数据包括:
获取所述原始电池数据对应的时间序列信息和ID信息,通过采集与所述ID信息相同且时序信息之间间隔小于第一预设时间阈值的电池数据,得到所述正样本数据;
通过采集与原始电池不同ID的时间序列信息得到所述负样本数据。
7.根据权利要求1所述的方法,其特征在于,训练好的所述电池数据模型可以经过微调用于不同的下游任务,所述方法包括:
获取不同下游任务的带标签电池数据;
通过对权利要求2所述的方法训练得到电池数据处理模型的编码层进行冻结网络参数,并在编码层的末尾添加由一个多层全连接网络构成的输出层,将所述电池数据处理更新为优化模型;
将下游任务对应的有标签数据输入至所述优化模型,对所述优化模型进行训练,其中,所述训练过程中使用IA3进行网络参数的微调;
基于所述训练结束之后的优化模型对所述电池数据进行预测或分类,得到与所述下游任务对应的预测任务结果。
8.一种电池数据的处理系统,其特征在于,所述系统包括:采集模块和处理模块,其中;
所述采集模块用于,获取不同下游任务的带标签电池数据;
所述处理模块用于,通过对权利要求2所述的方法训练得到电池数据处理模型的编码层进行冻结网络参数,并在编码层的末尾添加由一个多层全连接网络构成的输出层,将所述电池数据处理更新为优化模型,
以及,将下游任务对应的有标签数据输入至所述优化模型,对所述优化模型进行训练,其中,所述训练过程中使用IA3进行网络参数的微调;
基于所述训练结束之后的优化模型对所述电池数据进行预测或分类,得到与所述下游任务对应的预测任务结果。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的方法。
CN202311746435.6A 2023-12-19 2023-12-19 一种基于对比学习的电池数据处理模型的无监督训练方法 Active CN117436500B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311746435.6A CN117436500B (zh) 2023-12-19 2023-12-19 一种基于对比学习的电池数据处理模型的无监督训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311746435.6A CN117436500B (zh) 2023-12-19 2023-12-19 一种基于对比学习的电池数据处理模型的无监督训练方法

Publications (2)

Publication Number Publication Date
CN117436500A CN117436500A (zh) 2024-01-23
CN117436500B true CN117436500B (zh) 2024-03-26

Family

ID=89553780

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311746435.6A Active CN117436500B (zh) 2023-12-19 2023-12-19 一种基于对比学习的电池数据处理模型的无监督训练方法

Country Status (1)

Country Link
CN (1) CN117436500B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114547267A (zh) * 2022-02-22 2022-05-27 武汉纺织大学 智能问答模型的生成方法、装置、计算设备和存储介质
CN114897060A (zh) * 2022-04-25 2022-08-12 中国平安人寿保险股份有限公司 样本分类模型的训练方法和装置、样本分类方法和装置
CN115862075A (zh) * 2022-11-14 2023-03-28 深圳大学 指纹识别模型训练方法、指纹识别方法、装置及相关设备
CN115861190A (zh) * 2022-11-16 2023-03-28 浙江省白马湖实验室有限公司 一种基于对比学习的光伏组件无监督缺陷检测方法
CN115906997A (zh) * 2022-10-25 2023-04-04 华中师范大学 一种基于对比学习与记忆机制的知识追踪方法
WO2023071743A1 (zh) * 2021-10-25 2023-05-04 中兴通讯股份有限公司 网络模型训练方法、装置和计算机可读存储介质
CN116258657A (zh) * 2023-03-10 2023-06-13 抖音视界有限公司 模型训练方法、图像处理方法、装置、介质及电子设备
CN116306793A (zh) * 2023-02-28 2023-06-23 厦门大学 一种基于对比孪生网络的具有目标任务指向性的自监督学习方法
CN116701996A (zh) * 2023-05-29 2023-09-05 西安电子科技大学 基于多元损失函数的多模态情感分析方法、系统、设备及介质
CN116958807A (zh) * 2023-06-03 2023-10-27 大连海事大学 基于无监督动量对比学习的高光谱目标检测方法
CN117113198A (zh) * 2023-09-24 2023-11-24 元始智能科技(南通)有限公司 一种基于半监督对比学习的旋转设备小样本故障诊断方法
CN117132591A (zh) * 2023-10-24 2023-11-28 杭州宇谷科技股份有限公司 一种基于多模态信息的电池数据处理方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111047182B (zh) * 2019-12-10 2021-12-28 北京航空航天大学 一种基于深度无监督学习的空域复杂度评估方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071743A1 (zh) * 2021-10-25 2023-05-04 中兴通讯股份有限公司 网络模型训练方法、装置和计算机可读存储介质
CN114547267A (zh) * 2022-02-22 2022-05-27 武汉纺织大学 智能问答模型的生成方法、装置、计算设备和存储介质
CN114897060A (zh) * 2022-04-25 2022-08-12 中国平安人寿保险股份有限公司 样本分类模型的训练方法和装置、样本分类方法和装置
CN115906997A (zh) * 2022-10-25 2023-04-04 华中师范大学 一种基于对比学习与记忆机制的知识追踪方法
CN115862075A (zh) * 2022-11-14 2023-03-28 深圳大学 指纹识别模型训练方法、指纹识别方法、装置及相关设备
CN115861190A (zh) * 2022-11-16 2023-03-28 浙江省白马湖实验室有限公司 一种基于对比学习的光伏组件无监督缺陷检测方法
CN116306793A (zh) * 2023-02-28 2023-06-23 厦门大学 一种基于对比孪生网络的具有目标任务指向性的自监督学习方法
CN116258657A (zh) * 2023-03-10 2023-06-13 抖音视界有限公司 模型训练方法、图像处理方法、装置、介质及电子设备
CN116701996A (zh) * 2023-05-29 2023-09-05 西安电子科技大学 基于多元损失函数的多模态情感分析方法、系统、设备及介质
CN116958807A (zh) * 2023-06-03 2023-10-27 大连海事大学 基于无监督动量对比学习的高光谱目标检测方法
CN117113198A (zh) * 2023-09-24 2023-11-24 元始智能科技(南通)有限公司 一种基于半监督对比学习的旋转设备小样本故障诊断方法
CN117132591A (zh) * 2023-10-24 2023-11-28 杭州宇谷科技股份有限公司 一种基于多模态信息的电池数据处理方法和系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Representation Disentanglement in Generative Models with Contrastive Learning;Mo ST等;《IEEE》;20230721;全文 *
基于栈式自编码器模型的汇率时间序列预测;寇茜茜;何希平;;计算机应用与软件;20170315(03);全文 *
基于深度学习高分辨率遥感影像语义分割;尚群锋;沈炜;帅世渊;;计算机系统应用;20200715(07);全文 *

Also Published As

Publication number Publication date
CN117436500A (zh) 2024-01-23

Similar Documents

Publication Publication Date Title
Gasparin et al. Deep learning for time series forecasting: The electric load case
Ren et al. A review of machine learning state-of-charge and state-of-health estimation algorithms for lithium-ion batteries
Zhou et al. Trajectory-User Linking via Variational AutoEncoder.
CN113642225A (zh) 一种基于attention机制的CNN-LSTM短期风电功率预测方法
WO2021208799A1 (zh) 训练迁移模型的方法、故障检测的方法以及装置
CN113222139A (zh) 神经网络训练方法和装置、设备,及计算机存储介质
Jin et al. Position encoding based convolutional neural networks for machine remaining useful life prediction
CN113449919B (zh) 一种基于特征和趋势感知的用电量预测方法及系统
Elhariri et al. H-ahead multivariate microclimate forecasting system based on deep learning
CN117132591B (zh) 一种基于多模态信息的电池数据处理方法和系统
CN114596726B (zh) 基于可解释时空注意力机制的停车泊位预测方法
CN115936248A (zh) 基于注意力网络的电力负荷预测方法、装置及系统
Sun et al. Trajectory-user link with attention recurrent networks
CN117436500B (zh) 一种基于对比学习的电池数据处理模型的无监督训练方法
CN114580262A (zh) 一种锂离子电池健康状态估计方法
CN114970841A (zh) 电池状态预测模型的训练方法及相关装置
CN116542005B (zh) 基于深度学习的换电柜网络布局方法、系统、装置及介质
CN115481788B (zh) 相变储能系统负荷预测方法及系统
CN115952928A (zh) 一种短期电力负荷预测方法、装置、设备及存储介质
CN116885699A (zh) 基于双重注意力机制的电力负荷预测方法
Alam Recurrent neural networks in electricity load forecasting
CN116106751A (zh) 一种基于Informer的锂离子电池荷电状态估计方法
CN116412162A (zh) 基于数字孪生模型的磁悬浮鼓风机故障诊断方法及系统
Tang et al. Towards Dynamic and Scalable Active Learning with Neural Architecture Adaption for Object Detection.
Li et al. Remaining useful life prediction of lithium battery based on ACNN-Mogrifier LSTM-MMD

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant