CN116821113A - 时序数据缺失值处理方法、装置、计算机设备及存储介质 - Google Patents
时序数据缺失值处理方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN116821113A CN116821113A CN202310783107.7A CN202310783107A CN116821113A CN 116821113 A CN116821113 A CN 116821113A CN 202310783107 A CN202310783107 A CN 202310783107A CN 116821113 A CN116821113 A CN 116821113A
- Authority
- CN
- China
- Prior art keywords
- data
- time sequence
- sequence data
- processing
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 141
- 238000009792 diffusion process Methods 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 45
- 238000012217 deletion Methods 0.000 claims description 71
- 230000037430 deletion Effects 0.000 claims description 71
- 238000012549 training Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000011282 treatment Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 11
- 238000011084 recovery Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
- G06F16/215—Improving data quality; Data cleansing, e.g. de-duplication, removing invalid entries or correcting typographical errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本申请实施例属于人工智能以及数字医疗领域,涉及一种时序数据缺失值处理方法、装置、计算机设备及存储介质,方法包括:获取存在数据缺失的待处理时序数据;将待处理时序数据输入训练完毕的填充模型,并通过填充模型中的编码器对待处理时序数据进行编码处理,得到第一编码数据,填充模型包括编码器、扩散模型和解码器;通过扩散模型对第一编码数据进行数据生成处理,得到第二编码数据;将第二编码数据输入解码器进行解码处理,得到已填充时序数据。此外,本申请还涉及区块链技术,已填充时序数据可存储于区块链中。本申请提高了时序数据缺失值填充的准确性。
Description
技术领域
本申请涉及人工智能和数字医疗技术领域,尤其涉及一种时序数据缺失值处理方法、装置、计算机设备及存储介质。
背景技术
在对目标对象进行研究时需要采集目标对象的数据。在实际操作中,目标对象的数据经常是缺失的,存在大量缺失值。例如,在医疗领域,临床诊疗中获取的患者的数据通常是稀疏的;并且,由于不同类型数据采样频率不一致等原因,还会造成患者的时序数据存在大量的缺失值。医疗时序数据的缺失问题会对医疗诊断、治疗和数据分析产生较大的负面影响。因此,在进行数据分析前需要先对缺失值进行处理。
缺失值填充是一种重要的缺失值处理方式,常规的缺失值填充方式有平均数填充、中位数填充等。然而,这些基于统计推断的缺失值填充技术却忽视了时序数据中的时间特性,因此在对时序数据进行缺失值填充时准确性较低。
发明内容
本申请实施例的目的在于提出一种时序数据缺失值处理方法、装置、计算机设备及存储介质,以解决时序数据缺失值填充准确性较低的问题。
为了解决上述技术问题,本申请实施例提供一种时序数据缺失值处理方法,采用了如下所述的技术方案:
获取存在数据缺失的待处理时序数据;
将所述待处理时序数据输入训练完毕的填充模型,并通过所述填充模型中的编码器对所述待处理时序数据进行编码处理,得到第一编码数据,所述填充模型包括所述编码器、扩散模型和解码器;
通过所述扩散模型对所述第一编码数据进行数据生成处理,得到第二编码数据;
将所述第二编码数据输入所述解码器进行解码处理,得到已填充时序数据。
为了解决上述技术问题,本申请实施例还提供一种时序数据缺失值处理装置,采用了如下所述的技术方案:
数据获取模块,用于获取存在数据缺失的待处理时序数据;
填充输入模块,用于将所述待处理时序数据输入训练完毕的填充模型,并通过所述填充模型中的编码器对所述待处理时序数据进行编码处理,得到第一编码数据,所述填充模型包括所述编码器、扩散模型和解码器;
生成处理模块,用于通过所述扩散模型对所述第一编码数据进行数据生成处理,得到第二编码数据;
解码处理模块,用于将所述第二编码数据输入所述解码器进行解码处理,得到已填充时序数据。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
获取存在数据缺失的待处理时序数据;
将所述待处理时序数据输入训练完毕的填充模型,并通过所述填充模型中的编码器对所述待处理时序数据进行编码处理,得到第一编码数据,所述填充模型包括所述编码器、扩散模型和解码器;
通过所述扩散模型对所述第一编码数据进行数据生成处理,得到第二编码数据;
将所述第二编码数据输入所述解码器进行解码处理,得到已填充时序数据。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
获取存在数据缺失的待处理时序数据;
将所述待处理时序数据输入训练完毕的填充模型,并通过所述填充模型中的编码器对所述待处理时序数据进行编码处理,得到第一编码数据,所述填充模型包括所述编码器、扩散模型和解码器;
通过所述扩散模型对所述第一编码数据进行数据生成处理,得到第二编码数据;
将所述第二编码数据输入所述解码器进行解码处理,得到已填充时序数据。
与现有技术相比,本申请实施例主要有以下有益效果:将存在数据缺失的待处理时序数据输入训练完毕的填充模型,填充模型包括编码器、扩散模型和解码器,以类似于变分自编码器的方式进行数据处理;编码器对待处理时序数据进行编码处理,得到第一编码数据;扩散模型通常用于图像生成,能将图像映射到高维空间从而更好地捕捉图像的特征,并学习图像特征之间的转移,扩展性强;将时序数据视为图像,时序数据中的缺失值则可以视为图像中的噪声,因此可以通过扩散模型对第一编码数据进行更准确的缺失值填充与生成,得到第二编码数据;将第二编码数据输入解码器进行解码处理与数据重构,得到已填充时序数据,已填充时序数据包含了扩散模型生成的缺失值,变分自编码器的方式可以学习到时序数据的数据模式,并对填充后的时序数据进行数据恢复,提高了时序数据缺失值填充的准确性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的时序数据缺失值处理方法的一个实施例的流程图;
图3是根据本申请的时序数据缺失值处理装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的时序数据缺失值处理方法一般由服务器执行,相应地,时序数据缺失值处理装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的时序数据缺失值处理方法的一个实施例的流程图。所述的时序数据缺失值处理方法,包括以下步骤:
步骤S201,获取存在数据缺失的待处理时序数据。
在本实施例中,时序数据缺失值处理方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式与终端设备进行通信。需要指出的是,上述无线连接方式可以包括但不限于3G/4G/5G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
具体地,获取存在数据缺失的待处理时序数据,这里的数据缺失,指的是待处理时序数据中存在缺失值。
本申请中的待处理时序数据可以是任意领域的时序数据,在一个实施例中,待处理时序数据可以是医疗时序数据,医疗时序数据可以包括患者的基本信息、诊断信息、生理信号监测数据、用药信息、手术干预信息等多种医疗数据,这些数据通常是稀疏的,并且由于不同类型的医疗数据采样频率可能不一致,容易造成医疗时序数据出现大量的缺失值。
步骤S202,将待处理时序数据输入训练完毕的填充模型,并通过填充模型中的编码器对待处理时序数据进行编码处理,得到第一编码数据,填充模型包括编码器、扩散模型和解码器。
具体地,将待处理时序数据输入训练完毕的填充模型,训练完毕的填充模型已经具有了对存在数据缺失的时序数据进行数据填充的能力,可以由填充模型自动进行缺失值的填充处理。填充模型是一种复合模型,包含编码器、扩散模型和解码器,填充模型的设计借鉴了变分自编码器(Variational AutoEncoder,简称VAE)。变分自编码器是一种深度生成模型,它可以学习已有数据集的概率分布,并从数据分布中采样生成新的数据,并尽可能使得生成的数据与输入数据相同。变分自编码器中包括一个编码器encoder与一个解码器decoder;填充模型的编码器、扩散模型和解码器组成了一个类VAE结构,但是结构上多出了扩散模型。
待处理时序数据首先输入填充模型中的编码器,编码器对待处理时序数据进行编码处理,得到第一编码数据。
步骤S203,通过扩散模型对第一编码数据进行数据生成处理,得到第二编码数据。
具体地,扩散模型(Diffusion Model,diffusion模型)是一种深度生成模型,用于图像表示和学习,并一直被用于图像生成。在图像生成领域,diffusion模型将原始图像映射到高维向量来提取特征,并在这些高维向量上执行机器学习任务,在图像生成任务中表现优异。本申请将时序数据视为一张图像,时序数据中的缺失值可以视为图像中的噪声,因此应用diffusion模型进行缺失值填充是可行的。
扩散模型可以对第一编码数据进行数据生成处理,扩散模型根据已知数据(即非缺失的特征数据)进行数据生成,填补缺失值,得到第二编码数据。
步骤S204,将第二编码数据输入解码器进行解码处理,得到已填充时序数据。
具体地,将第二编码数据输入解码器进行解码处理,得到已填充时序数据。编码器把高维输入编码成低维的隐变量,从而强迫神经网络学习最有信息量的特征;解码器把隐藏层的隐变量还原到初始维度,最好的状态就是解码器的输出能够完美地或者近似恢复出原来的输入。编码器和解码器构成的类VAE结构完成了待处理时序数据的数据重构;填充模型还包括扩散模型,扩散模型对缺失值进行了填充,因此填充模型完成了存在缺失值的待处理时序数据的恢复,可以输出已填充时序数据。
本实施例中,将存在数据缺失的待处理时序数据输入训练完毕的填充模型,填充模型包括编码器、扩散模型和解码器,以类似于变分自编码器的方式进行数据处理;编码器对待处理时序数据进行编码处理,得到第一编码数据;扩散模型通常用于图像生成,能将图像映射到高维空间从而更好地捕捉图像的特征,并学习图像特征之间的转移,扩展性强;将时序数据视为图像,时序数据中的缺失值则可以视为图像中的噪声,因此可以通过扩散模型对第一编码数据进行更准确的缺失值填充与生成,得到第二编码数据;将第二编码数据输入解码器进行解码处理与数据重构,得到已填充时序数据,已填充时序数据包含了扩散模型生成的缺失值,变分自编码器的方式可以学习到时序数据的数据模式,并对填充后的时序数据进行数据恢复,提高了时序数据缺失值填充的准确性。
进一步的,上述步骤S201之前,还可以包括:获取数据完整的原始时序数据;对原始时序数据进行数据缺失处理,得到缺失时序数据;将缺失时序数据输入初始填充模型,得到预测时序数据;根据原始时序数据和预测时序数据训练初始填充模型,得到填充模型。
具体地,获取数据完整、不存在缺失值的原始时序数据;对原始时序数据进行数据缺失处理,即在原始时序数据中添加缺失值,得到缺失时序数据。
将缺失时序数据输入初始填充模型,初始填充模型是尚未训练完毕的填充模型,其模型架构、对输入数据的处理过程与填充模型的处理过程是一样的,初始填充模型对输入数据的处理过程可以参照本申请中对填充模型数据处理过程的表述,此处不再赘述。
初始填充模型对缺失时序数据进行缺失值的预测、填充与生成,得到预测时序数据;预测时序数据是初始填充模型的预测结果,原始时序数据是真实的、不存在缺失值的时序数据,可以作为标签;因此,可以根据原始时序数据和预测时序数据训练初始填充模型,得到填充模型。
本实施例中,获取数据完整的原始时序数据,并进行数据缺失处理以添加缺失值,得到缺失时序数据;将缺失时序数据输入初始填充模型进行缺失值的预测与生成,得到预测时序数据;预测时序数据为预测结果,原始时序数据为真实数据,从而可以根据原始时序数据和预测时序数据训练初始填充模型,得到具有时序数据预测与生成能力的填充模型。
进一步的,上述对原始时序数据进行数据缺失处理,得到缺失时序数据的步骤可以包括:从预设的缺失处理方式中选取缺失处理方式,预设的缺失处理方式包括随机值缺失、行缺失、列缺失和区域缺失;根据选取的缺失处理方式对原始时序数据进行数据随机缺失处理,得到缺失时序数据。
具体地,本申请预先设置了多种缺失处理方式,包括随机值缺失、行缺失、列缺失和区域缺失。随机值缺失(Random Missing)是指随机地选择数据中的某些观测值,并将其标记为缺失,可以使用随机数生成器在给定的概率下决定每个观测值是否被标记为缺失。行缺失(Row Missing)指在数据集中随机选择某些行,并将这些行的所有观测值标记为缺失,它可以模拟某些样本完全缺失的情况。列缺失(Column Missing)指在数据集中随机选择某些列,并将这些列的所有观测值标记为缺失,它可以模拟某些特征完全缺失的情况。区域缺失(Block Missing)指在数据集中随机选择某些区域,并将这些区域的观测值标记为缺失,区域可以是连续的一块数据或者是离散的一些数据点集合。
可以从预设的缺失处理方式中随机选取缺失处理方式,或按照指令选取缺失处理方式,然后根据选取的缺失处理方式对原始时序数据进行数据随机缺失处理,得到缺失时序数据。
本实施例中,从预设的缺失处理方式中选取缺失处理方式,预设的缺失处理方式包括随机值缺失、行缺失、列缺失和区域缺失,能够模拟各种情况下的数据缺失;根据选取的缺失处理方式对原始时序数据进行数据随机缺失处理,得到缺失时序数据,可以模拟各种数据缺失情况,为初始填充模型的训练做好了数据准备。
进一步的,上述根据原始时序数据和预测时序数据训练初始填充模型,得到填充模型的步骤可以包括:基于原始时序数据和预测时序数据,通过交叉熵损失函数计算模型损失;根据模型损失对初始填充模型进行调整,直至模型损失满足训练停止条件,得到填充模型。
具体地,原始时序数据作为标签,预测时序数据作为模型的预测结果,根据交叉熵损失函数对原始时序数据和预测时序数据进行计算,得到模型损失;交叉熵损失函数可以选用tanh、sigmoid、softmax或ReLU等。
根据模型损失对初始填充模型进行参数调整,然后进行迭代训练,直至模型损失满足训练停止条件,得到填充模型,其中,训练停止条件可以是模型损失小于预设的损失阈值,此时可以认为初始填充模型已经收敛。
本实施例中,基于原始时序数据和预测时序数据,通过交叉熵损失函数计算模型损失;根据模型损失对初始填充模型进行调整,并进行迭代训练,直至模型损失满足训练停止条件,得到具有时序数据缺失值预测与生成能力的填充模型。
进一步的,上述通过填充模型中的编码器对待处理时序数据进行编码处理,得到第一编码数据的步骤可以包括:通过填充模型中的编码器对待处理时序数据进行非线性变换,得到待处理时序数据在潜在空间的高斯分布;对高斯分布进行采样得到隐变量,并将隐变量确定为第一编码数据。
具体地,将待处理时序数据输入填充模型中的编码器,编码器可以采用卷积神经网络CNN实现,在一个实施例中,编码器的形式可以为5层的CNN神经网络。需要说明的是,解码器也可以采用卷积神经网络CNN实现。卷积神经网络可以对待处理时序数据进行非线性变换,得到待处理时序数据在潜在空间(z空间)的高斯分布;潜在空间(latent space)是一个低维的向量空间,其中的任意点都可以映射为与输入数据相同类型的数据。
待处理时序数据在潜在空间的高斯分布具有两个参数z_mean(均值特征)和z_log_variance(方差特征)。从这个分布中进行采样得到隐变量z,隐变量z可以作为第一编码数据。
本实施例中,通过填充模型中的编码器对待处理时序数据进行非线性变换,得到待处理时序数据在潜在空间的高斯分布;对高斯分布进行采样得到隐变量,隐变量可以作为第一编码数据,实现待处理时序数据的编码。
进一步的,扩散模型包括若干层顺序相连的U型网络,且各U型网络的数据处理过程相同,则上述步骤S203可以包括:将第一编码数据输入第一层U型网络,并通过第一层U型网络对第一编码数据进行数据生成处理,得到第一层U型网络的生成结果;对于第一层以后的U型网络,通过U型网络对第一编码数据和上一层U型网络的生成结果进行数据生成处理得到新的生成结果,并对第一编码数据和得到的生成结果进行迭代,直至最后一层U型网络;根据第一编码数据和最后一层U型网络的生成结果,生成第二编码数据。
具体地,扩散模型diffusion包括若干层顺序相连的U型网络(Unet),且各U型网络的数据处理过程相同。在一个实施例中,扩散模型diffusion包含10步的Unet,每一步的UNet内部的数据处理过程是相同的,只是UNet中的参数和权重不同。
将第一编码数据输入第一层U型网络,并通过第一层U型网络对第一编码数据进行编码、下采样(Downsampling)、解码、上采样(Upsampling)、跳跃连接(Skip Connections)、卷积操作,在此过程中学习第一编码数据的特征以及特征之间的转移,并生成一部分缺失值的填充结果,并由第一层U型网络的输出层输出生成结果。
在diffusion模型中,每个UNet并不是独立地进行数据填充处理,而是逐步迭代地进行数据恢复和填充。对于第一层以后的U型网络,上一层U型网络的生成结果会被输入下一层U型网络,下一层U型网络会在上一层U型网络生成结果的基础上继续进行缺失值的生成,得到新的生成结果。多个Unet按照上述方式对第一编码数据和得到的生成结果进行迭代,逐步恢复和填充缺失值,直至最后一层U型网络,根据第一编码数据和最后一层U型网络的生成结果,生成第二编码数据。
通过逐步迭代的方式,diffusion模型能够逐渐从噪声中恢复出更准确的填充值。每个UNet在上一个UNet生成的填充结果的基础上进行处理,通过多次迭代,模型可以逐渐提高填充结果的质量,直到最终的填充结果。
因此,每个UNet生成部分填充结果,并通过迭代的方式将这些部分填充结果逐步整合起来,直到完成对整个缺失数据的填充。这种逐步生成填充结果的方法使得模型能够更好地捕捉数据的分布和模式,提高填充结果的准确性。并且,扩散模型对输入特征无要求,模型灵活性更强。
本实施例中,扩散模型包括若干层顺序相连的U型网络,且各U型网络的数据处理过程相同;各U型网络以逐步迭代的方式进行数据恢复与填充,每个U型网络在上一个U型网络生成结果的基础上进行处理,使得扩散模型可以更好地捕捉数据的分布和模式,从而提高了生成结果的准确性,并提高第二编码数据的准确性。
进一步的,在上述将第一编码数据输入第一层U型网络的步骤之前,还包括:获取第三编码数据,第三编码数据由初始填充模型中的编码器对缺失时序数据进行编码得到;根据预设的噪声添加策略,向第三编码数据添加高斯噪声,高斯噪声用于在模型训练中辅助第一层U型网络获取第三编码数据的特征表示,以及从高斯噪声中恢复缺失值,恢复的缺失值构成第一层U型网络的生成结果。
具体地,在初始填充模型的训练过程中,初始填充模型中的编码器对缺失时序数据进行编码处理得到第三编码数据,将第三编码数据输入扩散模型的第一层U型网络后,还需要给第三编码数据添加高斯噪声。可以理解,也可以先给第三编码数据添加高斯噪声,然后再输入扩散模型中的第一层U型网络。
高斯噪声的添加不仅仅局限于第一层U型网络,在每一层U型网络的处理中都需要添加高斯噪声,高斯噪声可以根据预设的噪声添加策略进行添加。每一层U型网络添加的高斯噪声可以是相同的,也可以是不同的,可以通过噪声添加策略对添加的高斯噪声进行控制。
在diffusion模型中,高斯噪声在U型网络UNet内部发挥了两个重要作用:①数据增强:高斯噪声的引入可以增加模型的鲁棒性和泛化能力,通过在训练过程中添加高斯噪声,可以模拟真实世界中的噪声和不确定性,使得模型在面对真实数据时更加稳健;噪声的引入有助于模型学习到更鲁棒的特征表示,并减少对特定数据分布的依赖,从而提高模型的泛化性能。②数据填充:高斯噪声的加入可以帮助填充缺失值;在diffusion模型中,UNet的目标是生成填充值,以填补原始数据中的缺失部分;通过在每一步的UNet中逐步加入高斯噪声,模型可以逐渐从噪声中恢复出更准确的填充值;噪声的引入可以激励模型在生成过程中更好地捕捉数据的分布和模式,从而产生更逼真的填充结果或缺失值,这些缺失值会构成每个U型网络Unet的生成结果。
总之,高斯噪声的加入在Diffusion模型的UNet内部起到了数据增强和填充的作用。它可以提高模型的鲁棒性和泛化能力,并帮助生成更准确和真实的填充值。
本实施例中,在U型网络的处理中,向第三编码数据添加高斯噪声,使U型网络可以更好地获取第三编码数据的特征表示,以及从高斯噪声中恢复缺失值,提高了U型网络的准确性。
需要强调的是,为进一步保证上述已填充时序数据的私密和安全性,上述已填充时序数据还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种时序数据缺失值处理装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的时序数据缺失值处理装置300包括:数据获取模块301、填充输入模块302、生成处理模块303以及解码处理模块304,其中:
数据获取模块301,用于获取存在数据缺失的待处理时序数据。
填充输入模块302,用于将待处理时序数据输入训练完毕的填充模型,并通过填充模型中的编码器对待处理时序数据进行编码处理,得到第一编码数据,填充模型包括编码器、扩散模型和解码器。
生成处理模块303,用于通过扩散模型对第一编码数据进行数据生成处理,得到第二编码数据。
解码处理模块304,用于将第二编码数据输入解码器进行解码处理,得到已填充时序数据。
本实施例中,将存在数据缺失的待处理时序数据输入训练完毕的填充模型,填充模型包括编码器、扩散模型和解码器,以类似于变分自编码器的方式进行数据处理;编码器对待处理时序数据进行编码处理,得到第一编码数据;扩散模型通常用于图像生成,能将图像映射到高维空间从而更好地捕捉图像的特征,并学习图像特征之间的转移,扩展性强;将时序数据视为图像,时序数据中的缺失值则可以视为图像中的噪声,因此可以通过扩散模型对第一编码数据进行更准确的缺失值填充与生成,得到第二编码数据;将第二编码数据输入解码器进行解码处理与数据重构,得到已填充时序数据,已填充时序数据包含了扩散模型生成的缺失值,变分自编码器的方式可以学习到时序数据的数据模式,并对填充后的时序数据进行数据恢复,提高了时序数据缺失值填充的准确性。
在本实施例的一些可选的实现方式中,时序数据缺失值处理装置300还可以包括:原始获取模块、缺失处理模块、缺失输入模块以及填充训练模块,其中:
原始获取模块,用于获取数据完整的原始时序数据。
缺失处理模块,用于对原始时序数据进行数据缺失处理,得到缺失时序数据。
缺失输入模块,用于将缺失时序数据输入初始填充模型,得到预测时序数据。
填充训练模块,用于根据原始时序数据和预测时序数据训练初始填充模型,得到填充模型。
本实施例中,获取数据完整的原始时序数据,并进行数据缺失处理以添加缺失值,得到缺失时序数据;将缺失时序数据输入初始填充模型进行缺失值的预测与生成,得到预测时序数据;预测时序数据为预测结果,原始时序数据为真实数据,从而可以根据原始时序数据和预测时序数据训练初始填充模型,得到具有时序数据预测与生成能力的填充模型。
在本实施例的一些可选的实现方式中,缺失处理模块还可以包括:方式选取子模块以及缺失处理子模块,其中:
方式选取子模块,用于从预设的缺失处理方式中选取缺失处理方式,预设的缺失处理方式包括随机值缺失、行缺失、列缺失和区域缺失。
缺失处理子模块,用于根据选取的缺失处理方式对原始时序数据进行数据随机缺失处理,得到缺失时序数据。
本实施例中,从预设的缺失处理方式中选取缺失处理方式,预设的缺失处理方式包括随机值缺失、行缺失、列缺失和区域缺失,能够模拟各种情况下的数据缺失;根据选取的缺失处理方式对原始时序数据进行数据随机缺失处理,得到缺失时序数据,可以模拟各种数据缺失情况,为初始填充模型的训练做好了数据准备。
在本实施例的一些可选的实现方式中,填充训练模块可以包括:损失计算子模块以及模型调整子模块,其中:
损失计算子模块,用于基于原始时序数据和预测时序数据,通过交叉熵损失函数计算模型损失。
模型调整子模块,用于根据模型损失对初始填充模型进行调整,直至模型损失满足训练停止条件,得到填充模型。
本实施例中,基于原始时序数据和预测时序数据,通过交叉熵损失函数计算模型损失;根据模型损失对初始填充模型进行调整,并进行迭代训练,直至模型损失满足训练停止条件,得到具有时序数据缺失值预测与生成能力的填充模型。
在本实施例的一些可选的实现方式中,填充输入模块302可以包括:变换子模块以及采样子模块,其中:
变换子模块,用于通过填充模型中的编码器对待处理时序数据进行非线性变换,得到待处理时序数据在潜在空间的高斯分布。
采样子模块,用于对高斯分布进行采样得到隐变量,并将隐变量确定为第一编码数据。
本实施例中,通过填充模型中的编码器对待处理时序数据进行非线性变换,得到待处理时序数据在潜在空间的高斯分布;对高斯分布进行采样得到隐变量,隐变量可以作为第一编码数据,实现待处理时序数据的编码。
在本实施例的一些可选的实现方式中,扩散模型包括若干层顺序相连的U型网络,且各U型网络的数据处理过程相同,则生成处理模块303包括:生成处理子模块、迭代处理子模块以及数据生成子模块,其中:
生成处理子模块,用于将第一编码数据输入第一层U型网络,并通过第一层U型网络对第一编码数据进行数据生成处理,得到第一层U型网络的生成结果。
迭代处理子模块,用于对于第一层以后的U型网络,通过U型网络对第一编码数据和上一层U型网络的生成结果进行数据生成处理得到新的生成结果,并对第一编码数据和得到的生成结果进行迭代,直至最后一层U型网络。
数据生成子模块,用于根据第一编码数据和最后一层U型网络的生成结果,生成第二编码数据。
本实施例中,扩散模型包括若干层顺序相连的U型网络,且各U型网络的数据处理过程相同;各U型网络以逐步迭代的方式进行数据恢复与填充,每个U型网络在上一个U型网络生成结果的基础上进行处理,使得扩散模型可以更好地捕捉数据的分布和模式,从而提高了生成结果的准确性,并提高第二编码数据的准确性。
在本实施例的一些可选的实现方式中,时序数据缺失值处理装置300还可以包括:编码获取模块以及噪声添加模块,其中:
编码获取模块,用于获取第三编码数据,第三编码数据由初始填充模型中的编码器对缺失时序数据进行编码得到。
噪声添加模块,用于根据预设的噪声添加策略,向第三编码数据添加高斯噪声,高斯噪声用于在模型训练中辅助第一层U型网络获取第三编码数据的特征表示,以及从高斯噪声中恢复缺失值,恢复的缺失值构成第一层U型网络的生成结果。
本实施例中,在U型网络的处理中,向第三编码数据添加高斯噪声,使U型网络可以更好地获取第三编码数据的特征表示,以及从高斯噪声中恢复缺失值,提高了U型网络的准确性。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如时序数据缺失值处理方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述时序数据缺失值处理方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本实施例中提供的计算机设备可以执行上述时序数据缺失值处理方法。此处时序数据缺失值处理方法可以是上述各个实施例的时序数据缺失值处理方法。
本实施例中,将存在数据缺失的待处理时序数据输入训练完毕的填充模型,填充模型包括编码器、扩散模型和解码器,以类似于变分自编码器的方式进行数据处理;编码器对待处理时序数据进行编码处理,得到第一编码数据;扩散模型通常用于图像生成,能将图像映射到高维空间从而更好地捕捉图像的特征,并学习图像特征之间的转移,扩展性强;将时序数据视为图像,时序数据中的缺失值则可以视为图像中的噪声,因此可以通过扩散模型对第一编码数据进行更准确的缺失值填充与生成,得到第二编码数据;将第二编码数据输入解码器进行解码处理与数据重构,得到已填充时序数据,已填充时序数据包含了扩散模型生成的缺失值,变分自编码器的方式可以学习到时序数据的数据模式,并对填充后的时序数据进行数据恢复,提高了时序数据缺失值填充的准确性。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的时序数据缺失值处理方法的步骤。
本实施例中,将存在数据缺失的待处理时序数据输入训练完毕的填充模型,填充模型包括编码器、扩散模型和解码器,以类似于变分自编码器的方式进行数据处理;编码器对待处理时序数据进行编码处理,得到第一编码数据;扩散模型通常用于图像生成,能将图像映射到高维空间从而更好地捕捉图像的特征,并学习图像特征之间的转移,扩展性强;将时序数据视为图像,时序数据中的缺失值则可以视为图像中的噪声,因此可以通过扩散模型对第一编码数据进行更准确的缺失值填充与生成,得到第二编码数据;将第二编码数据输入解码器进行解码处理与数据重构,得到已填充时序数据,已填充时序数据包含了扩散模型生成的缺失值,变分自编码器的方式可以学习到时序数据的数据模式,并对填充后的时序数据进行数据恢复,提高了时序数据缺失值填充的准确性。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种时序数据缺失值处理方法,其特征在于,包括下述步骤:
获取存在数据缺失的待处理时序数据;
将所述待处理时序数据输入训练完毕的填充模型,并通过所述填充模型中的编码器对所述待处理时序数据进行编码处理,得到第一编码数据,所述填充模型包括所述编码器、扩散模型和解码器;
通过所述扩散模型对所述第一编码数据进行数据生成处理,得到第二编码数据;
将所述第二编码数据输入所述解码器进行解码处理,得到已填充时序数据。
2.根据权利要求1所述的时序数据缺失值处理方法,其特征在于,在所述获取存在数据缺失的待处理时序数据的步骤之前,还包括:
获取数据完整的原始时序数据;
对所述原始时序数据进行数据缺失处理,得到缺失时序数据;
将所述缺失时序数据输入初始填充模型,得到预测时序数据;
根据所述原始时序数据和所述预测时序数据训练所述初始填充模型,得到填充模型。
3.根据权利要求2所述的时序数据缺失值处理方法,其特征在于,所述对所述原始时序数据进行数据缺失处理,得到缺失时序数据的步骤包括:
从预设的缺失处理方式中选取缺失处理方式,所述预设的缺失处理方式包括随机值缺失、行缺失、列缺失和区域缺失;
根据选取的缺失处理方式对所述原始时序数据进行数据随机缺失处理,得到缺失时序数据。
4.根据权利要求2所述的时序数据缺失值处理方法,其特征在于,所述根据所述原始时序数据和所述预测时序数据训练所述初始填充模型,得到填充模型的步骤包括:
基于所述原始时序数据和所述预测时序数据,通过交叉熵损失函数计算模型损失;
根据所述模型损失对所述初始填充模型进行调整,直至所述模型损失满足训练停止条件,得到填充模型。
5.根据权利要求1所述的时序数据缺失值处理方法,其特征在于,所述通过所述填充模型中的编码器对所述待处理时序数据进行编码处理,得到第一编码数据的步骤包括:
通过所述填充模型中的编码器对所述待处理时序数据进行非线性变换,得到所述待处理时序数据在潜在空间的高斯分布;
对所述高斯分布进行采样得到隐变量,并将所述隐变量确定为第一编码数据。
6.根据权利要求1所述的时序数据缺失值处理方法,其特征在于,所述扩散模型包括若干层顺序相连的U型网络,且各U型网络的数据处理过程相同,所述通过所述扩散模型对所述第一编码数据进行数据生成处理,得到第二编码数据的步骤包括:
将所述第一编码数据输入第一层U型网络,并通过所述第一层U型网络对所述第一编码数据进行数据生成处理,得到所述第一层U型网络的生成结果;
对于第一层以后的U型网络,通过U型网络对所述第一编码数据和上一层U型网络的生成结果进行数据生成处理得到新的生成结果,并对所述第一编码数据和得到的生成结果进行迭代,直至最后一层U型网络;
根据所述第一编码数据和所述最后一层U型网络的生成结果,生成第二编码数据。
7.根据权利要求6所述的时序数据缺失值处理方法,其特征在于,在所述将所述第一编码数据输入第一层U型网络的步骤之前,还包括:
获取第三编码数据,所述第三编码数据由初始填充模型中的编码器对缺失时序数据进行编码得到;
根据预设的噪声添加策略,向所述第三编码数据添加高斯噪声,所述高斯噪声用于在模型训练中辅助所述第一层U型网络获取所述第三编码数据的特征表示,以及从所述高斯噪声中恢复缺失值,恢复的缺失值构成所述第一层U型网络的生成结果。
8.一种时序数据缺失值处理装置,其特征在于,包括:
数据获取模块,用于获取存在数据缺失的待处理时序数据;
填充输入模块,用于将所述待处理时序数据输入训练完毕的填充模型,并通过所述填充模型中的编码器对所述待处理时序数据进行编码处理,得到第一编码数据,所述填充模型包括所述编码器、扩散模型和解码器;
生成处理模块,用于通过所述扩散模型对所述第一编码数据进行数据生成处理,得到第二编码数据;
解码处理模块,用于将所述第二编码数据输入所述解码器进行解码处理,得到已填充时序数据。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的时序数据缺失值处理方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的时序数据缺失值处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310783107.7A CN116821113A (zh) | 2023-06-29 | 2023-06-29 | 时序数据缺失值处理方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310783107.7A CN116821113A (zh) | 2023-06-29 | 2023-06-29 | 时序数据缺失值处理方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116821113A true CN116821113A (zh) | 2023-09-29 |
Family
ID=88118026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310783107.7A Pending CN116821113A (zh) | 2023-06-29 | 2023-06-29 | 时序数据缺失值处理方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116821113A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117556267A (zh) * | 2024-01-12 | 2024-02-13 | 闪捷信息科技有限公司 | 缺失样本数据填充方法、装置、存储介质和电子设备 |
-
2023
- 2023-06-29 CN CN202310783107.7A patent/CN116821113A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117556267A (zh) * | 2024-01-12 | 2024-02-13 | 闪捷信息科技有限公司 | 缺失样本数据填充方法、装置、存储介质和电子设备 |
CN117556267B (zh) * | 2024-01-12 | 2024-04-02 | 闪捷信息科技有限公司 | 缺失样本数据填充方法、装置、存储介质和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN111898696B (zh) | 伪标签及标签预测模型的生成方法、装置、介质及设备 | |
CN112396613B (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
JP2023500222A (ja) | 系列マイニングモデルの訓練方法、系列データの処理方法、系列マイニングモデルの訓練装置、系列データの処理装置、コンピュータ機器、及びコンピュータプログラム | |
CN109858046A (zh) | 利用辅助损失来学习神经网络中的长期依赖性 | |
CN117454495B (zh) | 一种基于建筑草图轮廓序列的cad矢量模型生成方法及装置 | |
CN116821113A (zh) | 时序数据缺失值处理方法、装置、计算机设备及存储介质 | |
CN118115622B (zh) | 图像生成模型的处理方法、装置、设备、存储介质及产品 | |
CN117541668A (zh) | 虚拟角色的生成方法、装置、设备及存储介质 | |
CN113762261A (zh) | 一种对图像的字符识别方法、装置、设备及介质 | |
CN116958325A (zh) | 图像处理模型的训练方法、装置、电子设备及存储介质 | |
CN113421646B (zh) | 患病持续时长预测方法、装置、计算机设备及存储介质 | |
CN113850012B (zh) | 数据处理模型生成方法、装置、介质及电子设备 | |
CN116796840A (zh) | 医疗实体信息抽取方法、装置、计算机设备及存储介质 | |
CN114120245B (zh) | 基于深度神经网络的人群图像分析方法、装置以及设备 | |
CN116740078A (zh) | 图像分割处理方法、装置、设备以及介质 | |
CN115601235A (zh) | 一种图像超分辨率网络训练方法、装置、设备及存储介质 | |
CN114333069A (zh) | 对象的姿态处理方法、装置、设备及存储介质 | |
CN115273110A (zh) | 基于TensorRT的文本识别模型部署方法、装置、设备及存储介质 | |
CN112950501B (zh) | 基于噪声场的图像降噪方法、装置、设备及存储介质 | |
CN111062477B (zh) | 一种数据处理方法、装置及存储介质 | |
CN112966150A (zh) | 一种视频内容抽取的方法、装置、计算机设备及存储介质 | |
CN114464267A (zh) | 模型训练与生成物预测的方法及装置 | |
CN111915701A (zh) | 一种基于人工智能的按钮图像生成方法和装置 | |
CN112184592A (zh) | 一种图像修复方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |