CN116361669A - 基于联邦学习和深度学习的稀疏数据聚类方法及装置 - Google Patents

基于联邦学习和深度学习的稀疏数据聚类方法及装置 Download PDF

Info

Publication number
CN116361669A
CN116361669A CN202310266368.1A CN202310266368A CN116361669A CN 116361669 A CN116361669 A CN 116361669A CN 202310266368 A CN202310266368 A CN 202310266368A CN 116361669 A CN116361669 A CN 116361669A
Authority
CN
China
Prior art keywords
sparse data
participants
model
unlabeled
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310266368.1A
Other languages
English (en)
Inventor
李修明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wing Fang Jianshu Beijing Information Technology Co ltd
Basebit Shanghai Information Technology Co ltd
Original Assignee
Wing Fang Jianshu Beijing Information Technology Co ltd
Basebit Shanghai Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wing Fang Jianshu Beijing Information Technology Co ltd, Basebit Shanghai Information Technology Co ltd filed Critical Wing Fang Jianshu Beijing Information Technology Co ltd
Priority to CN202310266368.1A priority Critical patent/CN116361669A/zh
Publication of CN116361669A publication Critical patent/CN116361669A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种基于联邦学习和深度学习的稀疏数据聚类方法,包括多个参与方和横向联邦学习框架中的仲裁方,多个参与方和横向联邦学习框架中的仲裁方均各自持有一份无标签稀疏数据,无标签稀疏数据的数据特征相同,样本不同;方法应用于参与方,包括:生成密钥,并与其它参与方交换密钥;根据所持有的无标签稀疏数据训练基于深度学习的聚类模型,得到本地模型;根据密钥将本地模型的参数加密后发送给assist‑trainer;assist‑trainer将所有参与方发送的模型参数进行聚合平均,得到最终的全局模型。本申请在不公开明文数据的前提下,可以安全整合存储于不同机构和平台的无标签稀疏数据,极大地扩充样本量,提升了模型精度。

Description

基于联邦学习和深度学习的稀疏数据聚类方法及装置
技术领域
本申请涉及数据处理技术领域,具体涉及一种基于联邦学习和深度学习的稀疏数据聚类方法及装置。
背景技术
在现代社会中,随着信息的爆炸式增长,数据量也呈现出爆炸式增长,数据形式也越来越多样化。在数据挖掘领域,常常要面对海量的复杂型数据,其中,海量无标签且稀疏的数据正在越来越被人们所注意。
无标签稀疏数据可能来自于不同的平台和机构,随着数据隐私及安全保护的重要性日益提升,不同的平台和机构之间无法分享全量明文数据,而整合分析不同来源的数据能为各个专业领域的研究提供理论基础。因此,基于隐私保护技术实现无标签稀疏数据的整合,并基于深度学习方法对其进行聚类分析有重要意义。
目前,已有的无标签稀疏数据分析方法的主要目标是解决数据稀疏性高、技术局限导致的假0现象和不同来源数据之间的高度异质性问题;具体的方法包括:谱聚类方法、深度学习方法等。
谱聚类方法是从图论中演化出来的算法,主要思想是把数据看作空间中的点,点之间可用边连接起来,距离较远代表点之间边权重低,反之则高;随后通过对所有数据点组成的图进行切分,让切分后的子图间边权重尽可能低,子图内的边权重尽可能高,从而完成聚类。但是,谱聚类方法依赖全图的拉普拉斯矩阵,此矩阵的计算和存储过于复杂,成本很高;对于特定的样本数量而言,拉普拉斯矩阵的计算和存储具有平方或超平方的复杂度,矩阵的分解甚至需要立方阶复杂度;另外,谱聚类方法并不完全适配无标签稀疏数据的特点:过度离散和零膨胀,导致聚类结果准确度不足。
面向无标签稀疏数据的深度学习方法多基于自动编码器,通过无监督学习的方式进行特征降维;其本质上会重复运行若干次自动编码器,将前一次的最终输出作为下一次运行的初始输入,然后再利用隐藏层特征进行聚类。但是,深度学习方法并未针对无标签稀疏数据分析中的聚类过程进行设计和优化,在高维度数据上的聚类性能劣于低维度数据。
综上可知,目前的无标签稀疏数据分析方法并不能解决因数据分布于不同机构和平台而无法安全整合的问题。
发明内容
为此,本申请提供一种基于联邦学习和深度学习的稀疏数据聚类方法及装置,以解决现有技术存在的因无标签稀疏数据分布于不同机构和平台而无法安全整合的问题。
为了实现上述目的,本申请提供如下技术方案:
第一方面,一种基于联邦学习和深度学习的稀疏数据聚类方法,包括多个参与方和横向联邦学习框架中的仲裁方,多个参与方和横向联邦学习框架中的仲裁方均各自持有一份无标签稀疏数据,无标签稀疏数据的数据特征相同,样本不同;
所述方法应用于参与方,包括:
生成密钥,并与其它参与方交换密钥;
根据所持有的无标签稀疏数据训练基于深度学习的聚类模型,得到本地模型;
根据所述密钥将所述本地模型的参数加密后发送给assist-trainer;所述assist-trainer将所有参与方发送的模型参数进行聚合平均,得到最终的全局模型。
进一步的,所述本地模型的损失函数L为:
L=LZINB+γLc
其中,LZINB为自编码器的损失函数,Lc为聚类的损失函数。
更进一步的,所述自编码器的损失函数LZINB为:
LZINB=-log(ZINB(Xcount|π,μ,θ))
其中,ZINB(Xcount|π,μ,θ)=πδ0(Xcount)+(1-π)NB(Xcount|μ,θ),
Figure BDA0004133351230000031
Xcount代表样本数,π、μ和θ为解码器最后一个隐藏层D后连接的三个全连接层。
更进一步的,所述聚类的损失函数Lc为:
Figure BDA0004133351230000032
其中,
Figure BDA0004133351230000033
进一步的,所述仲裁方能够利用含有标签的数据进行模型性能评估,并得到需要标签参与计算的聚类性能指标。
第二方面,一种基于联邦学习和深度学习的稀疏数据聚类装置,包括多个参与方和横向联邦学习框架中的仲裁方,多个参与方和横向联邦学习框架中的仲裁方均各自持有一份无标签稀疏数据,无标签稀疏数据的数据特征相同,样本不同;
所述装置用于实现实现参与方的执行步骤,包括:
密钥生成模块,用于生成密钥;
密钥交换模块,用于与其它参与方交换密钥;
本地模型训练模块,用于根据所持有的无标签稀疏数据训练基于深度学习的聚类模型,得到本地模型;
加密模块,用于根据所述密钥将所述本地模型的参数加密后发送给assist-trainer;所述assist-trainer将所有参与方发送的模型参数进行聚合平均,得到最终的全局模型。
第三方面,一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于联邦学习和深度学习的稀疏数据聚类方法的步骤。
第四方面,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于联邦学习和深度学习的稀疏数据聚类方法的步骤。
相比现有技术,本申请至少具有以下有益效果:
本申请提供了一种基于联邦学习和深度学习的稀疏数据聚类方法,包括多个参与方和横向联邦学习框架中的仲裁方,多个参与方和横向联邦学习框架中的仲裁方均各自持有一份无标签稀疏数据,无标签稀疏数据的数据特征相同,样本不同;方法应用于参与方,包括:生成密钥,并与其它参与方交换密钥;根据所持有的无标签稀疏数据训练基于深度学习的聚类模型,得到本地模型;根据密钥将本地模型的参数加密后发送给assist-trainer;assist-trainer将所有参与方发送的模型参数进行聚合平均,得到最终的全局模型。本申请将基于深度学习的无标签稀疏数据聚类方法集成在联邦学习框架上,在不公开明文数据的前提下,可以安全整合存储于不同机构和平台的无标签稀疏数据,极大地扩充样本量,提升了模型精度。
附图说明
为了更直观地说明现有技术以及本申请,下面给出几个示例性的附图。应当理解,附图中所示的具体形状、构造,通常不应视为实现本申请时的限定条件;例如,本领域技术人员基于本申请揭示的技术构思和示例性的附图,有能力对某些单元(部件)的增/减/归属划分、具体形状、位置关系、连接方式、尺寸比例关系等容易作出常规的调整或进一步的优化。
图1为本申请提供的一种基于联邦学习和深度学习的稀疏数据聚类方法的结构示意图。
具体实施方式
以下结合附图,通过具体实施例对本申请作进一步详述。
在本申请的描述中:除非另有说明,“多个”的含义是两个或两个以上。本申请中的术语“第一”、“第二”、“第三”等旨在区别指代的对象,而不具有技术内涵方面的特别意义(例如,不应理解为对重要程度或次序等的强调)。“包括”、“包含”、“具有”等表述方式,同时还意味着“不限于”(某些单元、部件、材料、步骤等)。
本申请中所引用的如“上”、“下”、“左”、“右”、“中间”等的用语,通常是为了便于对照附图直观理解,而并非对实际产品中位置关系的绝对限定。在未脱离本申请揭示的技术构思的情况下,这些相对位置关系的改变,当亦视为本申请表述的范畴。
请参阅图1,本申请提供了一种基于联邦学习和深度学习的稀疏数据聚类方法,包括多个参与方和横向联邦学习框架中的仲裁方,多个参与方和横向联邦学习框架中的仲裁方均各自持有一份无标签稀疏数据,无标签稀疏数据的数据特征相同,样本不同;
方法应用于参与方,包括:
S1:生成密钥,并与其它参与方交换密钥;
S2:根据所持有的无标签稀疏数据训练基于深度学习的聚类模型,得到本地模型;
本地模型的损失函数L为:
L=LZINB+γLc
其中,LZINB为自编码器的损失函数,Lc为聚类的损失函数;
自编码器的损失函数LZINB为:
LZINB=-log(ZINB(Xcount|π,μ,θ))
其中,ZINB(Xcount|π,μ,θ)=πδ0(Xcount)+(1-π)NB(Xcount|μ,θ),
Figure BDA0004133351230000061
Xcount代表样本数,π、μ和θ为解码器最后一个隐藏层D后连接的三个全连接层;
聚类的损失函数Lc为:
Figure BDA0004133351230000062
其中,
Figure BDA0004133351230000063
S3:根据密钥将本地训练模型的参数加密后发送给assist-trainer(在横向联邦中专门做整合计算);assist-trainer将所有参与方发送的模型参数进行聚合平均,得到最终的全局模型。
下面结合具体的实施例来进一步说明本申请提供的方法:
假设参与方包括第一参与方和第二参与方,第一参与方和第二参与方各自持有一份无标签稀疏数据,两份数据特征相同,样本不同;横向联邦学习框架中的仲裁方持有一份无标签稀疏数据,与参与方数据的特征相同,样本不同,参与方和仲裁方的数据将分别用作模型的训练集和验证集。为了更好地评估模型的优劣,仲裁方可额外利用含有标签的数据进行模型性能评估,输出需要标签参与计算的聚类性能指标。
S1:第一参与方和第二参与方分别生成密钥,并互相交换密钥;
S2:第一参与方和第二参与方分别训练基于深度学习的聚类模型,获得各自本地模型;
本地训练模型的损失函数为:
L=LZINB+γLc
其中,LZINB为自编码器的损失函数,Lc为聚类的损失函数;
自编码器的损失函数LZINB为:
LZINB=-log(ZINB(Xcount|π,μ,θ))
其中,ZINB(Xcount|π,μ,θ)=πδ0(Xcount)+(1-π)NB(Xcount|μ,θ),
Figure BDA0004133351230000071
Xcount代表样本数,π、μ和θ为解码器最后一个隐藏层D后连接的三个全连接层;
聚类的损失函数Lc为:
Figure BDA0004133351230000072
其中,
Figure BDA0004133351230000073
M,Θ,Π分别代表三个新连接层的均值、离散度和丢弃概率的估计值,定义如下:
M=diag(si)×exp(WμD)
Θ=exp(WθD)
Π=sigmoid(WπD)
S3:假设在步骤S2中第一参与方和第二参与方训练出的本地模型参数分别为WA和WB,对WA和WB进行加密,保证信息不会泄漏,并将加密后的参数
Figure BDA0004133351230000074
和/>
Figure BDA0004133351230000075
传递给assist-trainer;assist-trainer将/>
Figure BDA0004133351230000076
和/>
Figure BDA0004133351230000077
进行聚合平均,得到最终的全局模型参数并保存。
最终的全局模型参数为:
Figure BDA0004133351230000078
本申请提供的基于联邦学习和深度学习的稀疏数据聚类方法,在横向联邦学习的框架上,对于每一个参与方,首先利用基于零膨胀的负二项式替代传统均方误差作为自编码器的损失函数,以更好地表征此类数据,获得隐藏层特征;然后对隐藏层特征实施以KL散度为损失函数的聚类;在各参与方训练好本地模型之后,对所有参与方的模型参数进行安全整合以获取全局模型。
本申请提供的基于联邦学习和深度学习的稀疏数据聚类方法通过优化自编码器的损失函数,更好地表征了此类数据的特点。同时,通过优化聚类损失,可以获得比其他方法更高的精度,并且耗费更少的内存和计算时间。
本申请将基于深度学习的无标签稀疏数据聚类方法集成在联邦学习框架上,可以安全整合存储于不同机构和平台的无标签稀疏数据,在不公开明文数据的前提下,极大地扩充样本量,提升了模型精度,实现了共享数据价值,可用于生医领域,推进创新治疗策略,创建人类疾病精准图谱,推动疾病诊断和治疗的发展。
本申请还提供了一种基于联邦学习和深度学习的稀疏数据聚类装置,包括多个参与方和横向联邦学习框架中的仲裁方,多个参与方和横向联邦学习框架中的仲裁方均各自持有一份无标签稀疏数据,无标签稀疏数据的数据特征相同,样本不同;
装置用于实现实现参与方的执行步骤,包括:
密钥生成模块,用于生成密钥;
密钥交换模块,用于与其它参与方交换密钥;
本地模型训练模块,用于根据所持有的无标签稀疏数据训练基于深度学习的聚类模型,得到本地模型;
加密模块,用于根据密钥将本地模型的参数加密后发送给assist-trainer;assist-trainer将所有参与方发送的模型参数进行聚合平均,得到最终的全局模型。
关于基于联邦学习和深度学习的稀疏数据聚类装置的具体限定可以参见上文中对于基于联邦学习和深度学习的稀疏数据聚类方法的限定,在此不再赘述。
本申请还提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现基于联邦学习和深度学习的稀疏数据聚类方法的步骤。
本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现基于联邦学习和深度学习的稀疏数据聚类方法的步骤。
以上实施例的各技术特征可以进行任意的组合(只要这些技术特征的组合不存在矛盾),为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述;这些未明确写出的实施例,也都应当认为是本说明书记载的范围。
上文中通过一般性说明及具体实施例对本申请作了较为具体和详细的描述。应当理解,基于本申请的技术构思,还可以对这些具体实施例作出若干常规的调整或进一步的创新;但只要未脱离本申请的技术构思,这些常规的调整或进一步的创新得到的技术方案也同样落入本申请的权利要求保护范围。

Claims (8)

1.一种基于联邦学习和深度学习的稀疏数据聚类方法,其特征在于,包括多个参与方和横向联邦学习框架中的仲裁方,多个参与方和横向联邦学习框架中的仲裁方均各自持有一份无标签稀疏数据,无标签稀疏数据的数据特征相同,样本不同;
所述方法应用于参与方,包括:
生成密钥,并与其它参与方交换密钥;
根据所持有的无标签稀疏数据训练基于深度学习的聚类模型,得到本地模型;
根据所述密钥将所述本地模型的参数加密后发送给assist-trainer;所述assist-trainer将所有参与方发送的模型参数进行聚合平均,得到最终的全局模型。
2.根据权利要求1所述的基于联邦学习和深度学习的稀疏数据聚类方法,其特征在于,所述本地模型的损失函数L为:
L=LZINB+γLc
其中,LZINB为自编码器的损失函数,Lc为聚类的损失函数。
3.根据权利要求2所述的基于联邦学习和深度学习的稀疏数据聚类方法,其特征在于,所述自编码器的损失函数LZINB为:
LZINB=-log(ZINB(Xcount|π,μ,θ))
其中,ZINB(Xcount|π,μ,θ)=πδ0(Xcount)+(1-π)NB(Xcount|μ,θ),
Figure FDA0004133351220000011
Xcount代表样本数,π、μ和θ为解码器最后一个隐藏层D后连接的三个全连接层。
4.根据权利要求2所述的基于联邦学习和深度学习的稀疏数据聚类方法,其特征在于,所述聚类的损失函数Lc为:
Figure FDA0004133351220000021
其中,
Figure FDA0004133351220000022
5.根据权利要求1所述的基于联邦学习和深度学习的稀疏数据聚类方法,其特征在于,所述仲裁方能够利用含有标签的数据进行模型性能评估,并得到需要标签参与计算的聚类性能指标。
6.一种基于联邦学习和深度学习的稀疏数据聚类装置,其特征在于,包括多个参与方和横向联邦学习框架中的仲裁方,多个参与方和横向联邦学习框架中的仲裁方均各自持有一份无标签稀疏数据,无标签稀疏数据的数据特征相同,样本不同;
所述装置用于实现实现参与方的执行步骤,包括:
密钥生成模块,用于生成密钥;
密钥交换模块,用于与其它参与方交换密钥;
本地模型训练模块,用于根据所持有的无标签稀疏数据训练基于深度学习的聚类模型,得到本地模型;
加密模块,用于根据所述密钥将所述本地模型的参数加密后发送给assist-trainer;所述assist-trainer将所有参与方发送的模型参数进行聚合平均,得到最终的全局模型。
7.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述的方法的步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
CN202310266368.1A 2023-03-16 2023-03-16 基于联邦学习和深度学习的稀疏数据聚类方法及装置 Pending CN116361669A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310266368.1A CN116361669A (zh) 2023-03-16 2023-03-16 基于联邦学习和深度学习的稀疏数据聚类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310266368.1A CN116361669A (zh) 2023-03-16 2023-03-16 基于联邦学习和深度学习的稀疏数据聚类方法及装置

Publications (1)

Publication Number Publication Date
CN116361669A true CN116361669A (zh) 2023-06-30

Family

ID=86935055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310266368.1A Pending CN116361669A (zh) 2023-03-16 2023-03-16 基于联邦学习和深度学习的稀疏数据聚类方法及装置

Country Status (1)

Country Link
CN (1) CN116361669A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117094412A (zh) * 2023-08-18 2023-11-21 之江实验室 针对非独立同分布医疗场景下的联邦学习方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117094412A (zh) * 2023-08-18 2023-11-21 之江实验室 针对非独立同分布医疗场景下的联邦学习方法和装置
CN117094412B (zh) * 2023-08-18 2024-06-28 之江实验室 针对非独立同分布医疗场景下的联邦学习方法和装置

Similar Documents

Publication Publication Date Title
CN110069638B (zh) 一种结合规则和路径的知识图谱组合表示学习方法
Chen et al. Non-negative matrix factorization for semi-supervised data clustering
CN111581405A (zh) 基于对偶学习生成对抗网络的跨模态泛化零样本检索方法
CN111309777A (zh) 一种基于互斥表达的改进关联规则报表数据挖掘方法
CN106295690A (zh) 基于非负矩阵分解的时间序列数据聚类方法及系统
CN116361669A (zh) 基于联邦学习和深度学习的稀疏数据聚类方法及装置
CN118113884B (zh) 一种基于矛盾纠纷数据的知识图谱构建方法
CN116561264A (zh) 一种基于知识图谱的智能问答系统的构建方法
Gu et al. [Retracted] Deep Possibilistic C‐means Clustering Algorithm on Medical Datasets
CN117521795A (zh) 一种基于虚拟时序约束增强的时序知识图谱问答方法
Wang et al. A fast algorithm for mining association rules in image
Tong et al. Heterogeneous cross-company effort estimation through transfer learning
US20220179971A1 (en) Interval privacy
Li et al. Double fused Lasso regularized regression with both matrix and vector valued predictors
CN114880690A (zh) 一种基于边缘计算的源数据时序精化方法
Zhang Big health data for elderly employees job performance of SOEs: visionary and enticing challenges
Xu et al. Objective information theory: A Sextuple model and 9 kinds of metrics
Shang et al. Research on Humanistic Quality Higher Medical Education Based on Internet of Things and Intelligent Computing
Nanda et al. A new density based clustering algorithm for Binary Data sets
Cai et al. Realize Generative Yet Complete Latent Representation for Incomplete Multi-View Learning
Zhu [Retracted] Discussion on Redundant Processing Algorithm of Association Rules Based on Hypergraph in Data Mining
Xu et al. An Improved Translation-Based Method for Knowledge Graph Representation
Diallo Deep Metric Learning for Image Similarity: Exploring deep metric learning techniques for measuring similarity between images in embedding spaces learned by neural networks
CN107341485A (zh) 人脸识别方法和装置
Dastgiri et al. Face Recognition using Machine Learning Algorithms [J]

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination