CN116756558A - 关联方识别模型的训练方法、关联方识别方法以及装置 - Google Patents
关联方识别模型的训练方法、关联方识别方法以及装置 Download PDFInfo
- Publication number
- CN116756558A CN116756558A CN202310499942.8A CN202310499942A CN116756558A CN 116756558 A CN116756558 A CN 116756558A CN 202310499942 A CN202310499942 A CN 202310499942A CN 116756558 A CN116756558 A CN 116756558A
- Authority
- CN
- China
- Prior art keywords
- local
- platform
- model
- interaction data
- party identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 122
- 238000012549 training Methods 0.000 title claims abstract description 111
- 230000003993 interaction Effects 0.000 claims abstract description 226
- 230000004927 fusion Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 38
- 230000008569 process Effects 0.000 description 29
- 238000012545 processing Methods 0.000 description 23
- 238000003860 storage Methods 0.000 description 20
- 230000015654 memory Effects 0.000 description 19
- 238000004590 computer program Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000004913 activation Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 238000013475 authorization Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 238000012417 linear regression Methods 0.000 description 3
- 238000012384 transportation and delivery Methods 0.000 description 3
- 241000700605 Viruses Species 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- ZXQYGBMAQZUVMI-GCMPRSNUSA-N gamma-cyhalothrin Chemical compound CC1(C)[C@@H](\C=C(/Cl)C(F)(F)F)[C@H]1C(=O)O[C@H](C#N)C1=CC=CC(OC=2C=CC=CC=2)=C1 ZXQYGBMAQZUVMI-GCMPRSNUSA-N 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001609 comparable effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computer Hardware Design (AREA)
- Bioethics (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本说明书公开了一种关联方识别模型的训练方法、关联方识别方法以及装置。本说明书的实施例中,获取服务器发送的第一全局模型参数,第一全局模型参数为服务器基于第一平台和第二平台在上一轮上传的本地模型参数生成的;基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,第一本地交互数据集包括与第一参与方发生过交互的参与方的参与方信息;将第一本地模型参数发送至服务器,以使服务器基于第一本地模型参数生成第二全局模型参数;接收服务器返回的第二全局模型参数;基于第一本地交互数据集及第二全局模型参数,训练第一本地关联方识别模型。
Description
技术领域
本说明书实施例涉及计算机技术领域,特别涉及一种关联方识别模型的训练方法、关联方识别方法以及装置。
背景技术
随着消费金融公司业务的不断拓展,消费金融公司与其他主体之间发生的关联交易也越来越多,按照消费金融相关规则及其他监管披露要求,关联方认证以及交易事项的发生需要有完善的认定,审批,披露流程。
然而,现有的关联方识别方法是通过人工进行,即从签约合同中获取关联方,或者从发生的交易事项中人工摘取关联方,然后通过线下邮件上报董事会的方式确认。这种方式的流程长达几个月,时效性不够,同时个人隐私,姓名、公司持股比例等有泄露风险。因此,如何在高效低成本地识别交互的关联方的同时,保障用户的隐私,成为了亟待解决的技术难题。
发明内容
本说明书实施例提供了一种关联方识别模型的训练方法、关联方识别方法以及装置,提高了关联方识别的效率,同时可以降低在关联方识别的过程中数据发生泄露的风险,技术方案如下。
一方面,提供了一种关联方识别模型的训练方法,所述方法包括:
一种关联方识别模型的训练方法,由第一平台执行,所述方法包括:
获取服务器发送的第一全局模型参数,所述第一全局模型参数为所述服务器基于所述第一平台和第二平台在上一轮上传的本地模型参数生成的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互;
基于所述第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到所述第一本地关联方识别模型的第一本地模型参数,所述第一本地交互数据集包括与所述第一参与方发生过交互的参与方的参与方信息;
将所述第一本地模型参数发送至所述服务器,以使所述服务器基于所述第一本地模型参数生成第二全局模型参数;
接收所述服务器返回的第二全局模型参数;
基于所述第一本地交互数据集及所述第二全局模型参数,训练所述第一本地关联方识别模型,所述第一本地关联方识别模型用于基于交互数据识别所述第一参与方的关联方。
一方面,提供了一种关联方识别模型的训练方法,由服务器执行,所述方法包括:
发送第一全局模型参数给第一平台和第二平台,所述第一全局模型参数为基于所述第一平台和所述第二平台在上一轮上传的本地模型参数生成的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互;
分别接收所述第一平台发送的第一本地模型参数以及所述第二平台发送的第二本地模型参数,所述第一本地模型参数为所述第一平台基于所述第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型后得到的模型参数,所述第一本地交互数据集包括与所述第一参与方发生过交互的参与方的参与方信息;所述第二本地模型参数为所述第二平台基于所述第一全局模型参数和第二本地交互数据集,训练第二本地关联方识别模型后得到的模型参数,所述第二本地交互数据集包括与所述第二参与方发生过交互的参与方的参与方信息;
将所述第一本地模型参数和所述第二本地模型参数进行数据融合,生成第二全局模型参数;
将所述第二全局模型参数分别发送至所述第一平台和所述第二平台,以使所述第一平台基于所述第一本地交互数据集及所述第二全局模型参数,训练所述第一本地关联方识别模型,且所述第二平台基于所述第二本地交互数据集及所述第二全局模型参数,训练所述第二本地关联方识别模型。
一方面,提供了一种关联方识别方法,所述方法包括:
将目标交互数据输入训练完成的本地关联方识别模型;
通过所述本地关联方识别模型对所述目标交互数据进行关联方预测,得到所述目标交互数据的关联方预测结果;
其中,所述本地关联方识别模型是基于第一平台的本地交互数据集和第二平台的本地交互数据集训练得到的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互。
一方面,提供了一种关联方识别关联方识别模型的训练装置,所述装置包括:
第一接收模块,用于获取服务器发送的第一全局模型参数,所述第一全局模型参数为所述服务器基于第一平台和第二平台在上一轮上传的本地模型参数生成的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互;
第一训练模块,用于基于所述第一全局模型参数和本地交互数据集,训练本地关联方识别模型,得到所述本地关联方识别模型的第一本地模型参数,所述本地交互数据集包括与所述第一参与方发生过交互的参与方的参与方信息;
第一发送模块,用于将所述第一本地模型参数发送至所述服务器,以使所述服务器基于所述第一本地模型参数生成第二全局模型参数;
所述第一接收模块,还用于接收所述服务器返回的第二全局模型参数;
所述第一训练模块,还用于基于所述本地交互数据集及所述第二全局模型参数,训练所述本地关联方识别模型,所述第一本地关联方识别模型用于基于目标交互数据识别所述第一参与方的关联方。
在一种可能的实施方式中,所述第一训练模块,用于:
采用所述第一全局模型参数更新所述第一本地关联方识别模型的模型参数;
采用所述第一本地交互数据集中第一批次的多个第一本地交互数据,训练模型参数更新后的第一本地关联方识别模型,得到所述第一本地关联方识别模型的第一本地模型参数。
在一种可能的实施方式中,所述第一训练模块,用于:
将所述第一批次的多个第一本地交互数据输入所述参数更新后的第一本地关联方识别模型;
由所述参数更新后的第一本地关联方识别模型基于所述多个第一本地交互数据进行关联方识别,得到所述多个第一本地交互数据对应的多个关联方预测结果;
基于所述多个关联方预测结果与所述多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,训练所述参数更新后的第一本地关联方识别模型,得到所述第一本地模型参数。
在一种可能的实施方式中,所述第一训练模块,用于:
对于所述多个第一本地交互数据中的任一第一本地交互数据,由所述参数更新后的第一本地关联方识别模型对所述第一本地交互数据进行全连接和归一化,得到所述第一本地交互数据的关联方预测值;
基于所述关联方预测值与关联方预测阈值,确定所述第一本地交互数据的关联方预测结果。
在一种可能的实施方式中,所述第一训练模块,用于:
基于所述多个关联方预测结果与所述多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,更新所述参数更新后的第一本地关联方识别模型的模型参数;
将所述多个第一本地交互数据中最后一个第一本地交互数据对应的所述参数更新后的第一本地关联方识别模型的模型参数,确定为所述第一本地模型参数。
在一种可能的实施方式中,所述第一发送模块,用于:
采用所述服务器的公钥对所述第一本地模型参数进行加密,得到第一加密信息;
将所述第一加密信息发送至所述服务器。
在一种可能的实施方式中,所述第一接收模块,用于:
获取服务器发送的第二加密信息;
采用所述服务器的公钥对所述第二加密信息进行解密,得到所述第一全局模型参数。
在一种可能的实施方式中,所述装置还包括存储模块,用于对所述第一对象数据集进行加密存储;对所述第二对象数据集进行加密存储。
一方面,提供了一种关联方识别模型的训练装置,所述装置包括:
第二发送模块,用于发送第一全局模型参数给第一平台和第二平台,所述第一全局模型参数为基于所述第一平台和所述第二平台在上一轮上传的本地模型参数生成的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互;
第二接收模块,用于分别接收所述第一平台发送的第一本地模型参数以及所述第二平台发送的第二本地模型参数,所述第一本地模型参数为所述第一平台基于所述第一全局模型参数和所述第一平台的本地交互数据集,训练本地关联方识别模型后得到的,所述第二本地模型参数为所述第二平台基于所述第一全局模型参数和本地交互数据集,训练本地关联方识别模型后得到的;
数据融合模块,将所述第一本地模型参数和所述第二本地模型参数进行数据融合,生成第二全局模型参数;
所述第二发送模块,还用于将所述第二全局模型参数分别发送至所述第一平台和所述第二平台,以使所述第一平台基于所述第一本地交互数据集及所述第二全局模型参数,训练所述第一本地关联方识别模型,且所述第二平台基于所述第二本地交互数据集及所述第二全局模型参数,训练所述第二本地关联方识别模型。
在一种可能的实施方式中,所述数据融合模块,用于采用不同权重将所述第一本地模型参数和所述第二本地模型参数进行加权融合,得到所述第二全局模型参数。
在一种可能的实施方式中,所述第二发送模块,用于:
分别向所述第一平台和所述第二平台分别发送认证请求,并分别接收所述第一平台和所述第二平台返回的第一认证信息和第二认证信息;
基于所述第一认证信息和所述第二认证信息认证所述第一平台和所述第二平台具备可信执行环境,以使所述服务器与所述第一平台和所述第二平台分别基于安全通信协议进行数据交互。
一方面,提供了一种关联方识别装置,所述装置包括:
输入模块,用于将目标交互数据输入训练完成的本地关联方识别模型;
关联方识别模块,用于通过所述本地关联方识别模型对所述目标交互数据进行关联方预测,得到所述目标交互数据的关联方预测结果;
其中,所述本地关联方识别模型是基于第一平台的本地交互数据集和第二平台的本地交互数据集训练得到的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互。
一方面,提供了一种计算机设备,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条计算机程序,所述计算机程序由所述一个或多个处理器加载并执行以实现所述关联方识别模型的训练方法或关联方识别方法。
一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述计算机程序由处理器加载并执行以实现所述关联方识别模型的训练方法或所述关联方识别方法。
一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括程序代码,该程序代码存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取该程序代码,处理器执行该程序代码,使得该计算机设备执行上述关联方识别模型的训练方法或上述关联方识别方法。
通过本说明书实施例提供的技术方案,第一平台从服务器获取第一全局模型参数,基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,将第一本地模型参数发送至服务器,并接收服务器返回的第二全局模型参数,基于第一本地交互数据集及第二全局模型参数,来训练第一本地关联方识别模型。在上述过程中,不同平台之间协同进行联邦学习,基于不同平台的本地交互数据集进行联合建模,在保证第一平台数据和第二平台数据的安全性的前提下,综合其他平台对应的参与方信息,训练得到第一平台的第一本地关联方识别模型。
附图说明
为了更清楚地说明本说明书实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本说明书实施例提供的一种关联方识别模型的训练方法的实施环境的示意图;
图2是本说明书实施例提供的一种关联方识别模型的训练方法的流程图;
图3是本说明书实施例提供的另一种关联方识别模型的训练方法的流程图;
图4是本说明书实施例提供的又一种关联方识别模型的训练方法的流程图;
图5是本说明书实施例提供的一种关联方识别方法的流程图;
图6是本说明书实施例提供的一种关联方识别模型的训练装置的结构示意图;
图7是本说明书实施例提供的另一种关联方识别模型的训练装置的结构示意图;
图8是本说明书实施例提供的一种关联方识别装置的结构示意图;
图9是本说明书实施例提供的一种终端的结构示意图;
图10是本说明书实施例提供的一种服务器的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合附图对本说明书实施方式作进一步的详细描述。
本说明书中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得较为准确的结果的理论、方法、技术及应用系统。
机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
隐私计算:是指在保护数据本身不对外泄露的前提下实现数据分析计算的技术集合,达到对数据“可用、不可见”的目的;在充分保护数据和隐私安全的前提下,实现数据价值的转化和释放。
联邦学习(Federated Learning,FL):联邦学习是当前流行的一种分布式机器学习框架,联邦学习的诞生消除了用户在训练模型时对隐私数据泄露的担忧。在不暴露用户本地数据的情况下,能够实现和将整个数据集放在一起建模相同或相差不大的效果。多个终端仅需要与服务器进行一系列信息的交换就能够联合训练出一个机器学习模型。联邦学习是基于监督学习方法实现的,本说明书实施例中,将此种基于监督学习方法实现的联邦学习称为监督联邦学习,在监督联邦学习应用场景下,终端具有标准标签的数据集,终端通过与服务器进行交互,执行监督联邦学习任务。
关联方:站在本方的视角,与该本方产生关联关系(即满足关联方认定规则)的主体,关联方可以包括法人、自然人、其他等。
云技术(Cloud Technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。在联邦学习的过程中考虑攻击的问题涉及云技术中的云安全领域。云安全(Cloud Security)是指基于云计算商业模式应用的安全软件、硬件、用户、机构、安全云平台的总称。云安全融合了并行处理、网格计算、未知病毒行为判断等新兴技术和概念,通过网状的大量客户端对网络中软件行为的异常监测,获取互联网中木马、恶意程序的最新信息,并发送到服务端进行自动分析和处理,再把病毒和木马的解决方案分发到每一个客户端。
归一化:将取值范围不同的数列映射到(0,1)区间上,便于数据的处理。在一些情况下,归一化后的数值可以直接被实现为概率。
学习率(Learning Rate):用于控制模型的学习进度,学习率可以指导模型在梯度下降法中,如何使用损失函数的梯度调整网络权重。学习率如果过大,可能会使损失函数表现为损失过大;学习率如果过小,损失函数的变化速度很慢,会大大增加网络的收敛复杂度,并且很容易被困在局部最小值或者鞍点。
广义线性模型是一类常用的机器学习模型,包括线性回归模型、逻辑回归模型、多分类逻辑回归模型等,实际上本说明书提出的方案同样适用于其他的广义线性模型,如泊松回归(Poisson Regression)等。对于不同的广义线性模型,主要的区别在于链接函数和损失函数,而本说明书所提出的方案可以适配任意的链接函数和损失函数。
需要说明的是,本说明书所涉及的信息(包括但不限于用户设备信息、用户个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号,均为经用户授权或者经过各方充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。例如,本说明书中涉及的对象特征、交互行为特征以及用户信息等都是在充分授权的情况下获取的。
图1是本说明书实施例提供的一种关联方识别方法的实施环境示意图,参见图1,该实施环境包括终端110、第一平台120、第二平台130以及服务器140。
终端110通过无线网络或有线网络与第一平台120和第二平台130相连。可选的,终端110是智能手机、平板电脑、笔记本电脑、台式计算机、智能手表等,但并不局限于此。终端110安装和运行有支持目标服务调用的应用程序,终端110是将目标交互数据输入的终端。
第一平台120是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式系统,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、分发网络(Content Delivery Network,CDN),以及大数据和人工智能平台等基础云计算服务的云服务器。第一平台120为终端110上运行的应用程序提供后台服务,比如,第一平台120为终端110上运行的应用程序提供对应的服务。第一平台120通过无线网络或有线网络与第二平台130以及服务器140相连,第一平台120上存储的对象数据会在加密后上传至服务器140。
第二平台130是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式系统,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、分发网络(Content Delivery Network,CDN),以及大数据和人工智能平台等基础云计算服务的云服务器。第二平台130为目标对象提供关联方识别的服务,比如,目标对象可以通过终端110将对象数据上传至第二平台130,第二平台130能够基于对象数据实现对目标对象的关联方识别,得到该目标对象的关联方识别结果。第二平台130通过无线网络或有线网络与服务器140相连,第二平台130上存储的对象数据会在加密后上传至服务器140。
服务器140是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式系统,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、分发网络(Content Delivery Network,CDN),以及大数据和人工智能平台等基础云计算服务的云服务器。服务器140提供隐私计算服务,达到对数据“可用、不可见”的目的。
在一种可能的实施方式中,隐私计算服务是指联邦学习。服务器140能够将第一全局模型参数发送给第一平台120和第二平台130;第一平台120和第二平台130能够基于本地交互数据集和第一全局模型参数,训练本地关联方识别模型,得到用于对全局模型参数进行更新的第一本地模型参数和第二本地模型参数,将第一本地模型参数和第二本地模型参数返回服务器140。服务器120能够基于不同平台返回的本地模型参数,进行数据融合得到第二全局模型参数,并将该第二关局模型参数下发给第一平台120和第二平台130。经过此过程,能够在双方数据不出平台的情况下实现了隐匿查询、交换、认证,提高了关联方识别的安全性和可靠性。
本领域技术人员可以知晓,上述终端110、第一平台120和第二平台130的数量可以更多或更少。比如上述终端110和第一平台120均仅为一个,第二平台130为几十个或几百个,或者上述终端110、第一平台120和第二平台130均为几十个或几百个,或者更多数量,此时上述实施环境中还包括其他终端和第一平台,本说明书实施例对终端的数量和设备类型不加以限定。
介绍完本说明书实施例的实施环境之后,下面将结合上述实施环境对本说明书实施例的应用场景进行介绍,在下述说明过程中,终端也即是上述实施环境中的终端110,第一平台也即是上述实施环境中的第一平台120,第二平台也即是上述实施环境中的第二平台130,服务器也即是上述实施环境中的服务器140。本说明书实施例提供的技术方案能够应用在用户使用第一平台提供的各类服务的场景下,比如,应用在用户使用关联方识别服务的场景下,其中,用户也被称为目标对象。
其中,关联方识别服务指的是识别多个参与方之间是否为关联方。从会计准则方面看,关联方是指一方控制、共同控制另一方或者对另一方施加重大影响,以及两方或两方以上同受一方控制、共同控制或重大影响,构成关联方;其中,会计上持股比例达到20%-50%的就属于施加重大影响,超过50%的就属于控制,因此,基本上只要控股股东控制或共同控制的超过20%比例的其他公司都属于关联方。从公司法上,关联方是指公司控股股东、实际控制人、董事、监事、高级管理人员直接或者间接控制的多个企业。从证监会监管和规范上界定,是指能够控制公司或影响公司决策而损害公司利益的各方,包括潜在关联人。从招股说明书的准则上,将5%以上股份的股东界定为关联方。
关联交易指的是企业关联方之间的交易,关联交易是公司运作中经常出现的而又易于发生不公平结果的交易。常见的关联交易包括:购买或销售商品、购买其他资产(例如,设备或建筑物等)、提供或接受劳务、担保、提供资金、租赁、代理等。关联交易对于一个公司的存在及发展是不可或缺的,因此,公司对关联交易的处理必须慎重。然而关联交易处理过程中,关联交易的识别至关重要。其中,产生关联交易的双方,也被称为参与方。
在第一平台训练第一本地关联方识别模型的过程中,使用了服务器下发的第一全局模型参数,由于各个参与设备的本地关联方识别模型的结构相同,故各参与设备可以联合完成联邦建模。另外,在训练过程中,使用了第一平台上传的第一本地模型参数和第二平台上传的第二本地模型参数,而不是第一本地交互数据集和第二本地交互数据集,从而保证该第一平台和该第二平台的数据安全。本说明书实施例还提供了一种关联方识别方法,基于上述服务器训练得到的目标关联方识别模型实现。
以本说明书实施例提供的技术方案应用在用户使用关联方识别服务的场景下为例,本说明书实施例提供的技术方案能够应用在用户使用第一平台提供的各类服务的场景下,比如,应用在用户使用在线金融服务的场景下,或者应用在用户使用在线租赁服务的场景下,或者应用在用户使用在线购物服务的场景下等,其中,用户也被称为目标对象。
无论是在上述哪种场景下,第一平台均能够采用本说明书实施例提供的关联方识别模型的训练方法来训练一个第一本地关联方识别模型。在后续使用服务平台提供的任一服务时,能够基于该第一本地关联方识别模型对目标对象输入的目标交互数据进行分类,识别出目标交互数据对应的关联方数据。
在第一平台训练第一本地关联方识别模型的过程中,第一平台除了使用自身的第一本地交互数据集之外,还从服务平台获取了第一全局模型参数、第二全局模型参数,其中,该第一全局模型参数为服务器基于第一平台和第二平台在上一轮上传的本地模型参数生成的,第二全局模型参数为服务器基于第一本地模型参数和第二本地模型参数生成的。为了保证第一平台和第二平台上的数据不发生泄漏,向服务器发送的是按照第一全局模型参数建模得到的第一本地模型参数和第二本地模型参数,而不是第一本地交互数据集或者第二本地交互数据集,经过服务器进行数据融合之后,第一平台和第二平台接收返回的生成第二全局模型参数,从而保证该第一本地交互数据集和该第二本地交互数据集的安全。对第一平台来说,使用第一本地关联方识别模型能够实现对用户输入的目标交互数据的关联方识别,但是不会泄露第一平台或者第二平台上的数据,保证了数据的安全性。
上述是以本说明书实施例提供的技术方案应用在用户使用关联方识别服务的场景下为例进行说明的,在其他应用场景中,第一平台均能够通过上述方式来为目标对象提供相应的服务,在此不再赘述。
在介绍完本说明书实施例的实施环境和应用场景之后,下面对本说明书实施例提供的关联方识别模型的训练方法进行介绍,参见图2,以执行主体为第一平台为例,方法包括下述步骤。
202、获取服务器发送的第一全局模型参数。
其中,第一全局模型参数为服务器基于第一平台和第二平台在上一轮上传的本地模型参数生成的,第一平台对应的第一参与方与第二平台对应的第二参与方之间发生过交互。
其中,服务器也即是提供关联方识别服务的平台。服务器在为目标对象提供的关联方识别服务的过程中,需要对目标对象输入的目标交互数据进行关联方识别。第一参与方与第二参与方之间发生过交互指的是第一参与方与第二参与方产生过关联交易。服务器用于在保证数据安全性的前提下使用相应的数据。第一参与方为关联方识别模型的训练方法中的第一平台对应的参与方,第二平台为关联方识别模型的训练方法的各个其他参与方中除第一参与方之外的其他参与方对应的平台。当然,第二平台也接收到了服务器下发的第一全局模型参数。
需要说明的是,联邦学习的整个任务基于多轮学习过程完成,本说明书实施例仅以一轮学习过程为例进行说明。第一全局模型参数是指服务器在上一轮学习过程中得到的第一平台和第二平台发送的本地模型参数的聚合得到的模型参数,当前轮学习过程中服务器需要将第一全局模型参数下发给第一平台和第二平台,当前轮学习过程可能为执行联邦学习任务的过程中的任一轮学习过程。
在一种可能的实施方式中,在第一平台接收服务器发送的第一全局模型参数之前,服务器已经将本地关联方识别模型的模型结构信息广播至第一平台上,以使第一平台获取待协作训练的本地关联方识别模型的模型结构。在服务器将第一全局模型参数发送给第一平台之后,第一平台能够将第一全局模型参数对应的模型结构与本地关联方识别模型的模型结构进行结合,得到需要训练的本地关联方识别模型。
在一种可能的实施方式中,获取服务器发送的第一全局模型参数包括:
获取服务器发送的第二加密信息;
采用服务器的公钥对第二加密信息进行解密,得到第一全局模型参数。
举例来说,服务器在下发第一全局模型参数之前,先将自身的公钥分发至参与训练关联方识别模型的第一平台和第二平台,服务器采用私钥对第一全局模型参数加密,得到第二加密信息,将第二加密信息发送至第一平台和第二平台,第一平台接收到第二加密信息后,利用之前接收到的公钥对第二加密信息进行解密,得到第一全局模型参数。其中,该公钥和该私钥都是基于区块链技术中的非对称加密技术得到的。
204、基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数。
其中,第一本地交互数据集包括与第一参与方发生过交互的参与方的参与方信息。
其中,该第一本地关联方识别模型也即是该第一平台用于进行关联方识别的模型,该第一本地交互数据集是第一平台对应的参与方与不同的参与方发生关联交易时所产生数据的集合。服务器是提供关联方识别服务的第三方服务器,该服务器能够在输入目标交互数据之后,基于目标交互数据进行关联方识别,相应地,第二平台训练得到的第二本地关联方识别模型也即是该服务器用于进行关联方识别的模型,该第二本地交互数据集包括第二平台对应的参与方与不同参与方发生关联交易时所产生数据的集合。
在一种可能的实现方式中,可以对第一本地交互数据集进行数据完整性、特征标准化等数据预处理。其中,预处理可以包括:异常值剔除、枚举值转换、缺失值填充和多方安全计算协议约定的同态加密等。
举例来说,第一本地关联方识别模型可以是神经网络模型,如深度神经网络(DeepNeural Networks,DNN)网络模型。
在一种可能的实现方式中,第一本地关联方识别模型中各网络层的权重矩阵范数和梯度范数满足预设关系。
举例来说,第一本地关联方识别模型中各网络层的权重矩阵范数和梯度范数的乘积满足利普希茨(Lipschitz)常量约束条件,用于将各网络层的权重矩阵范数和梯度范数的乘积约束为利普希茨常量,例如,利普希茨常量可以为1。第一本地关联方识别模型中各网络层的权重矩阵范数和梯度范数的乘积满足利普希茨常量约束条件表明,第一本地关联方识别模型满足Lipschitz约束条件。第一本地关联方识别模型中各网络层的权重矩阵范数和梯度范数的乘积满足利普希茨常量约束条件,相当于是通过在每一层施加Lipschitz约束来限制输入扰动在第一本地关联方识别模型中沿着网络扩散,从而整个网络的Lipschitz约束是每一层上的Lipschitz约束的乘积,使网络输出变化与输入变化成比例,从而提高第一本地关联方识别模型的鲁棒性,以抵御恶意攻击。例如,在第一本地关联方识别模型为多图机器学习模型的情况下,小的输入扰动可以在图内和图间传播,从而极大地放大了输出空间中的扰动,因此Lipschitz约束对于此类模型攻击具有显著的防御效果,提高模型的处理准确性和安全性。
206、将第一本地模型参数发送至服务器,以使服务器基于第一本地模型参数生成第二全局模型参数。
其中,服务器对第一平台在上一轮学习过程中上传的第一本地模型参数和第二平台在上一轮学习过程中上传的第二本地模型参数,进行参数聚合或者融合,得到第二全局模型参数。
在一种可能的实施方式中,将第一本地模型参数发送至服务器包括:
采用服务器的公钥对第一本地模型参数进行加密,得到第一加密信息;
将第一加密信息发送至服务器。
举例来说,服务器在下发第一全局模型参数之前,先将自身的公钥分发至参与训练关联方识别模型的第一平台和第二平台,第一平台训练第一本地关联方识别模型得到第一本地模型参数之后,利用之前接收到的公钥对第一本地模型参数进行加密,得到第一加密信息,将第一加密信息发送至服务器,服务器采用私钥对第一加密信息进行解密,得到第一本地模型参数。其中,该公钥和该私钥是基于区块链技术中的非对称加密技术得到的。
208、接收服务器返回的第二全局模型参数。
210、基于第一本地交互数据集及第二全局模型参数,训练第一本地关联方识别模型。
其中,第一本地关联方识别模型用于基于交互数据识别第一参与方的关联方。
其中,在获取到服务器返回的第二全局模型参数时,基于第二全局模型参数更新第一本地关联方识别模型中的模型参数,得到更新后的待训练模型,基于第一本地交互数据集训练该待训练模型,确定当前轮学习过程中的第一本地关联方识别模型。
在一种可能的实现方式中,可以通过梯度信息聚合的方式实现第一本地关联方识别模型的模型参数的更新。
在一种可能的实施方式中,步骤210包括:
采用第一全局模型参数更新第一本地关联方识别模型的模型参数;
采用第一本地交互数据集中第一批次的多个第一本地交互数据,训练模型参数更新后的第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数。
举例来说,第一平台将该第一批次的多个第一本地交互数据输入该第一本地关联方识别模型,通过该第一本地关联方识别模型,对该多个第一本地交互数据进行回归处理,得到该多个第一本地交互数据对应的第一预测信用值。第一平台基于该第一预测信用值和该第一本地交互数据的关联方标注结果之间的差异信息,确定对该第一本地关联方识别模型进行训练的第一梯度。第一平台基于该第一梯度,对该第一本地关联方识别模型进行训练。
其中,回归处理包括为线性回归(Linear Regression,LR)、多项式回归(Polynomial Regression,PR)、逐步回归(Stepwise Regression,SR)、岭回归(RidgeRegression,RR)、套索回归(Lasso Regression,LaR)以及弹性回归(Elastic NetRegression,ENR)等,本说明书实施例对此不作限定。
在实际应用中,第一平台可以对第一本地交互数据作进一步处理,再进行第一本地关联方识别模型训练。比如,通过卷积神经网络将提取到的第一本地交互数据转换成更高阶的隐性特征数据,再用于训练第一本地关联方识别模型;再比如,可以对提取到的特征数据进行规划分类,一部分作为模型的训练数据,另一部作为检验模型训练结果的测试数据。
在一种可能的实施方式中,在满足训练结束条件的情况下,将本轮学习过程中第一本地关联方识别模型确定为训练完成的第一本地关联方识别模型。
举例来说,训练结束条件是训练次数大于等于设定次数阈值;或者训练结束条件是激活函数的值小于等于设定函数阈值等,本说明书实施例对此不作限定。
其中,第一本地关联方识别模型的激活函数包括模拟随时间单调变化或不变的函数。激活函数可以模拟多种不同形状的函数,提高激活函数的表达能力。
举例来说,激活函数为Weibull函数。实际上,传统神经网络中激活函数,如ReLU、sigmoid和tanh等,是将非线性函数转化为梯度范数保存,导致表达能力的降低。在统计学上,Weibull函数配置有位置参数、形状参数和尺寸参数等超参,可以模拟任意随时间变化单调递增、单调递减或不变的函数,适用于可靠性分析和失效分析,从而可以提高激活函数的表达能力,进而充分逼近复杂的非线性关系,提高模型的学习能力和性能,性能例如检测准确率或识别准确率等。
通过本说明书实施例提供的技术方案,基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,将第一本地模型参数发送至服务器,并接收服务器返回的第二全局模型参数,基于第一本地交互数据集及第二全局模型参数,来训练第一本地关联方识别模型。在上述过程中,不同平台之间协同进行联邦学习,基于不同平台的本地交互数据集进行联合建模,在保证第一平台数据和第二平台数据的安全性的前提下,综合其他平台对应的参与方信息,训练得到第一平台的第一本地关联方识别模型。
上述步骤202-210是对本说明书实施例提供的关联方识别模型的训练方法的简单介绍,下面将结合一些例子,对本说明书实施例提供的关联方识别模型的训练方法进行更加清楚地说明,参见图3,以执行主体为第一平台为例,步骤204包括下述步骤。
302、采用第一全局模型参数更新第一本地关联方识别模型的模型参数。
在一种可能的实现方式中,步骤302包括:
利用第一全局模型参数更新训练得到的第一本地关联方识别模型各网络层对应的权重矩阵。
304、将第一批次的多个第一本地交互数据输入参数更新后的第一本地关联方识别模型。
在一种可能的实现方式中,对第一批次的多个第一本地交互数据进行数据增强处理,得到参考增强数据集,参考增强数据集包括参考增强样本,参考增强样本对应有标准标签;基于参考增强样本对该第一本地关联方识别模型进行训练,得到第一本地模型参数。
举例来说,第一本地交互数据和该第二本地交互数据的内容可以包括:交易所股东数据、银行外部工商数据、银行内部员工数据等,本说明书实施例对此不作限定。
306、由参数更新后的第一本地关联方识别模型基于多个第一本地交互数据进行关联方识别,得到多个第一本地交互数据对应的多个关联方预测结果。
在一种可能的实施方式中,步骤306包括:
对于多个第一本地交互数据中的任一第一本地交互数据,由参数更新后的第一本地关联方识别模型对第一本地交互数据进行全连接和归一化,得到第一本地交互数据的关联方预测值;
基于关联方预测值与关联方预测阈值,确定第一本地交互数据的关联方预测结果。
其中,全连接指的是将提取到的第一本地交互数据的特征综合起来。
举例来说,将增强样本输入具有参考参数的第一本地关联方识别模型进行处理,能够得到输出的增强样本对应的关联方预测值,判断关联方预测值与关联方预测阈值之间的大小关系,得到增强样本对应的预测结果,将增强样本对应的预测结果确定为第一本地交互数据的关联方预测结果。
308、基于多个关联方预测结果与多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,训练参数更新后的第一本地关联方识别模型,得到第一本地模型参数。
在一种可能的实施方式中,步骤308包括:
基于多个关联方预测结果与多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,更新参数更新后的第一本地关联方识别模型的模型参数;
将多个第一本地交互数据中最后一个第一本地交互数据对应的参数更新后的第一本地关联方识别模型的模型参数,确定为第一本地模型参数。
举例来说,将增强样本对应的预测结果和增强样本对应的标准标签之间的交叉熵损失函数作为目标损失函数,在得到目标损失函数后,利用目标损失函数对第一本地关联方识别模型的参考参数进行更新,得到更新后的参数,将参数更新后的第一本地关联方识别模型的模型参数,确定为第一本地模型参数。
其中,目标损失函数用于衡量增强样本对应的预测结果和增强样本对应的标准标签之间的差异,本申请实施例对基于增强样本对应的预测结果和增强样本对应的标准标签,获取目标损失函数的方式不加以限定。
需要说明的是,更新后的参数是指利用目标损失函数对参考参数更新一次后得到的参数。本申请实施例对利用目标损失函数对参考参数进行更新的方式不加以限定,例如,更新方式为梯度下降法。
需要说明的是,对该第一本地关联方识别模型进行训练需要多个迭代过程,上述实施方式是以一次迭代过程为例进行说明的,其他迭代过程属于同一发明构思,在此不再赘述。
上述所有可选技术方案,可以采用任意结合形成本说明书的可选实施例,在此不再一一赘述。
通过本说明书实施例提供的技术方案,基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,将第一本地模型参数发送至服务器,并接收服务器返回的第二全局模型参数,基于第一本地交互数据集及第二全局模型参数,来训练第一本地关联方识别模型。在上述过程中,不同平台之间协同进行联邦学习,基于不同平台的本地交互数据集进行联合建模,在保证第一平台数据和第二平台数据的安全性的前提下,综合其他平台对应的参与方信息,训练得到第一平台的第一本地关联方识别模型。
下面对本说明书实施例提供的关联方识别模型的训练方法进行介绍,参见图4,以执行主体为服务器为例,方法包括下述步骤。
402、发送第一全局模型参数给第一平台和第二平台。
其中,第一全局模型参数为基于第一平台和第二平台在上一轮上传的本地模型参数生成的,第一平台对应的第一参与方与第二平台对应的第二参与方之间发生过交互。
在一种可能的实施方式中,服务器发送第一全局模型参数具有先后顺序,先接收到第一全局模型参数的平台作为联邦学习的主动方,被称为第一平台,其他接收到第一全局模型参数的平台作为联邦学习的参与方,被称为第二平台。
在一种可能的实施方式中,在步骤402之前,方法还包括:
分别向第一平台和第二平台分别发送认证请求,并分别接收第一平台和第二平台返回的第一认证信息和第二认证信息;
基于第一认证信息和第二认证信息认证第一平台和第二平台具备可信执行环境,以使服务器与第一平台和第二平台分别基于安全通信协议进行数据交互。
其中,可信执行环境(Trusted Execution Environment,TEE),通过软硬件方法在设备中构建一个安全区域,保证其内部加载的程序和数据在机密性和完整性上得到保护。其原理是将设备的硬件和软件资源划分为两个执行环境,即可信执行环境和普通执行环境。两个环境是安全隔离的,有独立的内部数据通路和计算所需存储空间。普通执行环境的应用程序无法访问TEE,即使在TEE内部,多个应用的运行也是相互独立的,不能无授权而互访。常见的提供可信执行环境的平台有软件保护扩展(Software Guard Extension,SGX)。
其中,SGX是intel在原有架构上增加的一组新的指令集和内存访问机制,进而允许用户实现基于安全容器来保护代码和数据,免受特权攻击。具体实现方式为将合法软件的安全操作封装在一个安全容器中,保护其不受恶意软件的攻击,特权或非特权的软件都无法访问安全容器,一旦软件和数据位于安全容器中,可以在BIOS、主操作系统和驱动程序均被恶意代码攻陷的情况下,仍对安全容器内的代码和内存数据提供保护,防止恶意软件影响安全容器内的代码和数据,从而保障用户的关键代码和数据的机密性和完整性。使用安全容器可以使程序具有保护自己隐私信息的能力,即使系统的其余部分均被攻击,该隐私信息也不会泄露。
404、分别接收第一平台发送的第一本地模型参数以及第二平台发送的第二本地模型参数。
其中,第一本地模型参数为第一平台基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型后得到的模型参数,第一本地交互数据集包括与第一参与方发生过交互的参与方的参与方信息;第二本地模型参数为第二平台基于第一全局模型参数和第二本地交互数据集,训练第二本地关联方识别模型后得到的模型参数,第二本地交互数据集包括与第二参与方发生过交互的参与方的参与方信息。
需要说明的是,获取和使用该第一本地模型参数以及该第二本地模型参数经过对应对象的充分授权。
其中,该第一本地关联方识别模型和该第二本地关联方识别模型均能够进行独立的关联方识别。在一些实施例中,该第一本地关联方识别模型和该第二本地关联方识别模型的模型具有相同的模型结构。获取该第一本地模型参数和该第二本地模型参数是指获取该第一本地关联方识别模型和该第二本地关联方识别模型的模型参数。
在这种实施方式下,服务器能够从第一平台获取第一本地交互数据集,从关联方识别平台获取第二本地交互数据集,后续利用不同平台上的对象数据以及关联方识别模型来训练目标关联方识别模型,使得训练完成的目标关联方识别模型能够输出更加准确的关联方识别结果。
406、将第一本地模型参数和第二本地模型参数进行数据融合,生成第二全局模型参数。
在一种可能的实施方式中,将第一本地模型参数和第二本地模型参数进行数据融合,生成第二全局模型参数包括:
采用不同权重将第一本地模型参数和第二本地模型参数进行加权融合,得到第二全局模型参数。
其中,加权融合的权重由技术人员根据实际情况进行设置,本说明书实施例对此不作限定。
在这种实施方式下,由于第一本地模型参数和第二本地模型参数层与层之间的排列方式一样,服务器能够通过加权融合的方式来对该第一本地模型参数和该第二本地模型参数进行数据融合,从而得到第二全局模型参数。
举例来说,采用联邦平均方法(FederatedAverage,FedAvg)将第一本地模型参数和第二本地模型参数进行加权平均,将计算结果,确定为第二全局模型参数,之后,服务器将第二全局模型参数继续下发至第一平台和第二平台。
408、将第二全局模型参数分别发送至第一平台和第二平台,以使第一平台基于第一本地交互数据集及第二全局模型参数,训练第一本地关联方识别模型,且第二平台基于第二本地交互数据集及第二全局模型参数,训练第二本地关联方识别模型。
其中,第一平台训练第一本地关联方识别模型以及第二平台训练第二本地关联方识别模型,其具体实现过程详见方法实施例步骤202-步骤210,这里不再赘述。
通过本说明书实施例提供的技术方案,基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,将第一本地模型参数发送至服务器,并接收服务器返回的第二全局模型参数,基于第一本地交互数据集及第二全局模型参数,来训练第一本地关联方识别模型。在上述过程中,不同平台之间协同进行联邦学习,基于不同平台的本地交互数据集进行联合建模,在保证第一平台数据和第二平台数据的安全性的前提下,综合其他平台对应的参与方信息,训练得到第一平台的第一本地关联方识别模型。
在介绍完本说明书实施例提供的关联方识别模型的训练方法之后,下面对本说明书实施例提供的关联方识别方法进行说明,参见图5,以执行主体为服务器为例,方法包括下述步骤。
502、将目标交互数据输入训练完成的本地关联方识别模型。
其中,目标交互数据是第一参与方从发生过交互的关联交易数据中获取的关联方基础信息,例如名称、标识码等唯一识别信息等。
在一种可能的实施方式中,在步骤502之前,上述方法还包括:响应于用户对关联方识别服务的调用请求,第一平台向第二平台发送隐私数据交换请求,该调用请求和该隐私数据交换请求均携带该第一平台的唯一标识。响应于该隐私数据交换请求,第二平台将第二本地模型参数发送至服务器。第一平台将该第二本地模型参数发送至服务器。
504、通过本地关联方识别模型对目标交互数据进行关联方预测,得到目标交互数据的关联方预测结果。
其中,本地关联方识别模型是基于第一平台的本地交互数据集和第二平台的本地交互数据集训练得到的,第一平台对应的第一参与方与第二平台对应的第二参与方之间发生过交互。
其中,目标交互数据的关联方预测结果指的是该目标交互数据这一分类下,属于第一平台对应的第一参与方的关联方的参与方信息。
上述所有可选技术方案,可以采用任意结合形成本说明书的可选实施例,在此不再一一赘述。
通过本说明书实施例提供的技术方案,基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,将第一本地模型参数发送至服务器,并接收服务器返回的第二全局模型参数,基于第一本地交互数据集及第二全局模型参数,来训练第一本地关联方识别模型。在上述过程中,不同平台之间协同进行联邦学习,基于不同平台的本地交互数据集进行联合建模,在保证第一平台数据和第二平台数据的安全性的前提下,综合其他平台对应的参与方信息,训练得到第一平台的第一本地关联方识别模型。
图6是本说明书实施例提供的一种关联方识别模型的训练装置的结构示意图,参见图6,装置包括:第一接收模块601、第一训练模块602以及第一发送模块603。
第一接收模块601,用于获取服务器发送的第一全局模型参数,第一全局模型参数为服务器基于第一平台和第二平台在上一轮上传的本地模型参数生成的,第一平台对应的第一参与方与第二平台对应的第二参与方之间发生过交互;
第一训练模块602,用于基于第一全局模型参数和本地交互数据集,训练本地关联方识别模型,得到本地关联方识别模型的第一本地模型参数,本地交互数据集包括与第一参与方发生过交互的参与方的参与方信息;
第一发送模块603,用于将第一本地模型参数发送至服务器,以使服务器基于第一本地模型参数生成第二全局模型参数;
第一接收模块601,还用于接收服务器返回的第二全局模型参数;
第一训练模块602,还用于基于本地交互数据集及第二全局模型参数,训练本地关联方识别模型,第一本地关联方识别模型用于基于交互数据识别第一参与方的关联方。
在一种可能的实施方式中,第一训练模块602,用于:
采用第一全局模型参数更新第一本地关联方识别模型的模型参数;
采用第一本地交互数据集中第一批次的多个第一本地交互数据,训练模型参数更新后的第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数。
在一种可能的实施方式中,第一训练模块602,用于:
将第一批次的多个第一本地交互数据输入参数更新后的第一本地关联方识别模型;
由参数更新后的第一本地关联方识别模型基于多个第一本地交互数据进行关联方识别,得到多个第一本地交互数据对应的多个关联方预测结果;
基于多个关联方预测结果与多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,训练参数更新后的第一本地关联方识别模型,得到第一本地模型参数。
在一种可能的实施方式中,第一训练模块602,用于:
对于多个第一本地交互数据中的任一第一本地交互数据,由参数更新后的第一本地关联方识别模型对第一本地交互数据进行全连接和归一化,得到第一本地交互数据的关联方预测值;
基于关联方预测值与关联方预测阈值,确定第一本地交互数据的关联方预测结果。
在一种可能的实施方式中,第一训练模块602,用于:
基于多个关联方预测结果与多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,更新参数更新后的第一本地关联方识别模型的模型参数;
将多个第一本地交互数据中最后一个第一本地交互数据对应的参数更新后的第一本地关联方识别模型的模型参数,确定为第一本地模型参数。
在一种可能的实施方式中,第一发送模块603,用于:
采用服务器的公钥对第一本地模型参数进行加密,得到第一加密信息;
将第一加密信息发送至服务器。
在一种可能的实施方式中,第一接收模块601,用于:
获取服务器发送的第二加密信息;
采用服务器的公钥对第二加密信息进行解密,得到第一全局模型参数。
在一种可能的实施方式中,装置还包括存储模块,用于对第一对象数据集进行加密存储;对第二对象数据集进行加密存储。
需要说明的是:上述实施例提供的关联方识别装置在识别关联方时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将计算机设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的关联方识别装置与关联方识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
通过本说明书实施例提供的技术方案,基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,将第一本地模型参数发送至服务器,并接收服务器返回的第二全局模型参数,基于第一本地交互数据集及第二全局模型参数,来训练第一本地关联方识别模型。在上述过程中,不同平台之间协同进行联邦学习,基于不同平台的本地交互数据集进行联合建模,在保证第一平台数据和第二平台数据的安全性的前提下,综合其他平台对应的参与方信息,训练得到第一平台的第一本地关联方识别模型。
图7是本说明书实施例提供的一种关联方识别模型的训练装置的结构示意图,参见图7,装置包括:第二发送模块701、第二接收模块702以及数据融合模块703。
第二发送模块701,用于发送第一全局模型参数给第一平台和第二平台,第一全局模型参数为基于第一平台和第二平台在上一轮上传的本地模型参数生成的,第一平台对应的第一参与方与第二平台对应的第二参与方之间发生过交互;
第二接收模块702,用于分别接收第一平台发送的第一本地模型参数以及第二平台发送的第二本地模型参数,第一本地模型参数为第一平台基于第一全局模型参数和第一平台的本地交互数据集,训练本地关联方识别模型后得到的,第二本地模型参数为第二平台基于第一全局模型参数和本地交互数据集,训练本地关联方识别模型后得到的;
数据融合模块703,将第一本地模型参数和第二本地模型参数进行数据融合,生成第二全局模型参数;
第二发送模块701,还用于将第二全局模型参数分别发送至第一平台和第二平台,以使第一平台基于第一本地交互数据集及第二全局模型参数,训练第一本地关联方识别模型,且第二平台基于第二本地交互数据集及第二全局模型参数,训练第二本地关联方识别模型。
在一种可能的实施方式中,数据融合模块703,用于采用不同权重将第一本地模型参数和第二本地模型参数进行加权融合,得到第二全局模型参数。
在一种可能的实施方式中,第二发送模块701,用于:
分别向第一平台和第二平台分别发送认证请求,并分别接收第一平台和第二平台返回的第一认证信息和第二认证信息;
基于第一认证信息和第二认证信息认证第一平台和第二平台具备可信执行环境,以使服务器与第一平台和第二平台分别基于安全通信协议进行数据交互。
需要说明的是:上述实施例提供的关联方识别模型的训练装置在训练关联方识别模型时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将计算机设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的关联方识别装置与关联方识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
通过本说明书实施例提供的技术方案,基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,将第一本地模型参数发送至服务器,并接收服务器返回的第二全局模型参数,基于第一本地交互数据集及第二全局模型参数,来训练第一本地关联方识别模型。在上述过程中,不同平台之间协同进行联邦学习,基于不同平台的本地交互数据集进行联合建模,在保证第一平台数据和第二平台数据的安全性的前提下,综合其他平台对应的参与方信息,训练得到第一平台的第一本地关联方识别模型。
图8是本说明书实施例提供的一种关联方识别装置的结构示意图,参见图8,装置包括:输入模块801以及关联方识别模块802。
输入模块801,用于将目标交互数据输入训练完成的本地关联方识别模型;
关联方识别模块802,用于通过本地关联方识别模型对目标交互数据进行关联方预测,得到目标交互数据的关联方预测结果;
其中,本地关联方识别模型是基于第一平台的本地交互数据集和第二平台的本地交互数据集训练得到的,第一平台对应的第一参与方与第二平台对应的第二参与方之间发生过交互。
需要说明的是:上述实施例提供的关联方识别装置在识别关联方时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将计算机设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的关联方识别装置与关联方识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
通过本说明书实施例提供的技术方案,基于第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到第一本地关联方识别模型的第一本地模型参数,将第一本地模型参数发送至服务器,并接收服务器返回的第二全局模型参数,基于第一本地交互数据集及第二全局模型参数,来训练第一本地关联方识别模型。在上述过程中,不同平台之间协同进行联邦学习,基于不同平台的本地交互数据集进行联合建模,在保证第一平台数据和第二平台数据的安全性的前提下,综合其他平台对应的参与方信息,训练得到第一平台的第一本地关联方识别模型。
本说明书实施例提供了一种计算机设备,用于执行上述方法,该计算机设备可以实现为终端或者服务器,下面先对终端的结构进行介绍:
图9是本说明书实施例提供的一种终端的结构示意图。该终端900可以是:智能手机、平板电脑、笔记本电脑或台式电脑。终端900还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端900包括有:一个或多个处理器901和一个或多个存储器902。
处理器901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器901可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器902中的非暂态的计算机可读存储介质用于存储至少一个计算机程序,该至少一个计算机程序用于被处理器901所执行以实现本说明书中方法实施例提供的关联方识别模型的训练方法或关联方识别方法。
在一些实施例中,终端900还可选包括有:外围设备接口903和至少一个外围设备。处理器901、存储器902和外围设备接口903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口903相连。具体地,外围设备包括:射频电路904、显示屏905、摄像头组件906、音频电路907和电源909中的至少一种。
外围设备接口903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器901和存储器902。在一些实施例中,处理器901、存储器902和外围设备接口903被集成在同一芯片或电路板上;在一些其他实施例中,处理器901、存储器902和外围设备接口903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选的,射频电路904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。
显示屏905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏905是触摸显示屏时,显示屏905还具有采集在显示屏905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器901进行处理。此时,显示屏905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。
摄像头组件906用于采集图像或视频。可选的,摄像头组件906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。
音频电路907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器901进行处理,或者输入至射频电路904以实现语音通信。
电源909用于为终端900中的各个组件进行供电。电源909可以是交流电、直流电、一次性电池或可充电电池。
在一些实施例中,终端900还包括有一个或多个传感器909。该一个或多个传感器909包括但不限于:加速度传感器910、陀螺仪传感器911、压力传感器912、光学传感器913以及接近传感器914。
加速度传感器910可以检测以终端900建立的坐标系的三个坐标轴上的加速度大小。
陀螺仪传感器911可以终端900的机体方向及转动角度,陀螺仪传感器911可以与加速度传感器910协同采集用户对终端900的3D动作。
压力传感器912可以设置在终端900的侧边框和/或显示屏905的下层。当压力传感器912设置在终端900的侧边框时,可以检测用户对终端900的握持信号,由处理器901根据压力传感器912采集的握持信号进行左右手识别或快捷操作。当压力传感器912设置在显示屏905的下层时,由处理器901根据用户对显示屏905的压力操作,实现对UI界面上的可操作性控件进行控制。
光学传感器913用于采集环境光强度。在一个实施例中,处理器901可以根据光学传感器913采集的环境光强度,控制显示屏905的显示亮度。
接近传感器914用于采集用户与终端900的正面之间的距离。
本领域技术人员可以理解,图9中示出的结构并不构成对终端900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
上述计算机设备还可以实现为服务器,下面对服务器的结构进行介绍:
图10是本说明书实施例提供的一种服务器的结构示意图,该服务器1000可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(Central ProcessingUnits,CPU)1001和一个或多个的存储器1002,其中,所述一个或多个存储器1002中存储有至少一条计算机程序,所述至少一条计算机程序由所述一个或多个处理器1001加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器1000还可以具有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器1000还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括计算机程序的存储器,上述计算机程序可由处理器执行以完成上述实施例中的关联方识别模型的训练方法或关联方识别方法。例如,该计算机可读存储介质可以是只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact DiscRead-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括程序代码,该程序代码存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取该程序代码,处理器执行该程序代码,使得该计算机设备执行上述关联方识别模型的训练方法或关联方识别方法。
在一些实施例中,本说明书实施例所涉及的计算机程序可被部署在一个计算机设备上执行,或者在位于一个地点的多个计算机设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算机设备上执行,分布在多个地点且通过通信网络互连的多个计算机设备可以组成区块链系统。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本说明书的可选实施例,并不用以限制本说明书,凡在本说明书的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书的保护范围之内。
Claims (14)
1.一种关联方识别模型的训练方法,由第一平台执行,所述方法包括:
获取服务器发送的第一全局模型参数,所述第一全局模型参数为所述服务器基于所述第一平台和第二平台在上一轮上传的本地模型参数生成的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互;
基于所述第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到所述第一本地关联方识别模型的第一本地模型参数,所述第一本地交互数据集包括与所述第一参与方发生过交互的参与方的参与方信息;
将所述第一本地模型参数发送至所述服务器,以使所述服务器基于所述第一本地模型参数生成第二全局模型参数;
接收所述服务器返回的第二全局模型参数;
基于所述第一本地交互数据集及所述第二全局模型参数,训练所述第一本地关联方识别模型,所述第一本地关联方识别模型用于基于交互数据识别所述第一参与方的关联方。
2.根据权利要求1所述的方法,所述基于所述第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型,得到所述第一本地关联方识别模型的第一本地模型参数包括:
采用所述第一全局模型参数更新所述第一本地关联方识别模型的模型参数;
采用所述第一本地交互数据集中第一批次的多个第一本地交互数据,训练模型参数更新后的第一本地关联方识别模型,得到所述第一本地关联方识别模型的第一本地模型参数。
3.根据权利要求2所述的方法,所述采用所述第一本地交互数据集中第一批次的多个第一本地交互数据,训练模型参数更新后的第一本地关联方识别模型,得到所述第一本地关联方识别模型的第一本地模型参数包括:
将所述第一批次的多个第一本地交互数据输入所述参数更新后的第一本地关联方识别模型;
由所述参数更新后的第一本地关联方识别模型基于所述多个第一本地交互数据进行关联方识别,得到所述多个第一本地交互数据对应的多个关联方预测结果;
基于所述多个关联方预测结果与所述多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,训练所述参数更新后的第一本地关联方识别模型,得到所述第一本地模型参数。
4.根据权利要求3所述的方法,所述由所述参数更新后的第一本地关联方识别模型基于所述多个第一本地交互数据进行关联方识别,得到所述多个第一本地交互数据对应的多个关联方预测结果包括:
对于所述多个第一本地交互数据中的任一第一本地交互数据,由所述参数更新后的第一本地关联方识别模型对所述第一本地交互数据进行全连接和归一化,得到所述第一本地交互数据的关联方预测值;
基于所述关联方预测值与关联方预测阈值,确定所述第一本地交互数据的关联方预测结果。
5.根据权利要求3所述的方法,所述基于所述多个关联方预测结果与所述多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,训练所述参数更新后的第一本地关联方识别模型,得到所述第一本地模型参数包括:
基于所述多个关联方预测结果与所述多个第一本地交互数据对应的多个关联方标注结果之间的差异信息,更新所述参数更新后的第一本地关联方识别模型的模型参数;
将所述多个第一本地交互数据中最后一个第一本地交互数据对应的所述参数更新后的第一本地关联方识别模型的模型参数,确定为所述第一本地模型参数。
6.根据权利要求1所述的方法,所述将所述第一本地模型参数发送至所述服务器包括:
采用所述服务器的公钥对所述第一本地模型参数进行加密,得到第一加密信息;
将所述第一加密信息发送至所述服务器。
7.根据权利要求1所述的方法,所述获取服务器发送的第一全局模型参数包括:
获取服务器发送的第二加密信息;
采用所述服务器的公钥对所述第二加密信息进行解密,得到所述第一全局模型参数。
8.一种关联方识别模型的训练方法,由服务器执行,所述方法包括:
发送第一全局模型参数给第一平台和第二平台,所述第一全局模型参数为基于所述第一平台和所述第二平台在上一轮上传的本地模型参数生成的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互;
分别接收所述第一平台发送的第一本地模型参数以及所述第二平台发送的第二本地模型参数,所述第一本地模型参数为所述第一平台基于所述第一全局模型参数和第一本地交互数据集,训练第一本地关联方识别模型后得到的模型参数,所述第一本地交互数据集包括与所述第一参与方发生过交互的参与方的参与方信息;所述第二本地模型参数为所述第二平台基于所述第一全局模型参数和第二本地交互数据集,训练第二本地关联方识别模型后得到的模型参数,所述第二本地交互数据集包括与所述第二参与方发生过交互的参与方的参与方信息;
将所述第一本地模型参数和所述第二本地模型参数进行数据融合,生成第二全局模型参数;
将所述第二全局模型参数分别发送至所述第一平台和所述第二平台,以使所述第一平台基于所述第一本地交互数据集及所述第二全局模型参数,训练所述第一本地关联方识别模型,且所述第二平台基于所述第二本地交互数据集及所述第二全局模型参数,训练所述第二本地关联方识别模型。
9.根据权利要求8所述的方法,所述将所述第一本地模型参数和所述第二本地模型参数进行数据融合,生成第二全局模型参数包括:
采用不同权重将所述第一本地模型参数和所述第二本地模型参数进行加权融合,得到所述第二全局模型参数。
10.根据权利要求8所述的方法,所述发送第一全局模型参数给第一平台和第二平台之前,所述方法还包括:
分别向所述第一平台和所述第二平台分别发送认证请求,并分别接收所述第一平台和所述第二平台返回的第一认证信息和第二认证信息;
基于所述第一认证信息和所述第二认证信息认证所述第一平台和所述第二平台具备可信执行环境,以使所述服务器与所述第一平台和所述第二平台分别基于安全通信协议进行数据交互。
11.一种关联方识别方法,所述方法包括:
将目标交互数据输入训练完成的本地关联方识别模型;
通过所述本地关联方识别模型对所述目标交互数据进行关联方预测,得到所述目标交互数据的关联方预测结果;
其中,所述本地关联方识别模型是基于第一平台的本地交互数据集和第二平台的本地交互数据集训练得到的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互。
12.一种关联方识别模型的训练装置,所述装置包括:
第一接收模块,用于获取服务器发送的第一全局模型参数,所述第一全局模型参数为所述服务器基于第一平台和第二平台在上一轮上传的本地模型参数生成的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互;
第一训练模块,用于基于所述第一全局模型参数和本地交互数据集,训练本地关联方识别模型,得到所述本地关联方识别模型的第一本地模型参数,所述本地交互数据集包括与所述第一参与方发生过交互的参与方的参与方信息;
第一发送模块,用于将所述第一本地模型参数发送至所述服务器,以使所述服务器基于所述第一本地模型参数生成第二全局模型参数;
所述第一接收模块,还用于接收所述服务器返回的第二全局模型参数;
所述第一训练模块,还用于基于所述本地交互数据集及所述第二全局模型参数,训练所述本地关联方识别模型,所述第一本地关联方识别模型用于基于交互数据识别所述第一参与方的关联方。
13.一种关联方识别模型的训练装置,所述装置包括:
第二发送模块,用于发送第一全局模型参数给第一平台和第二平台,所述第一全局模型参数为基于所述第一平台和所述第二平台在上一轮上传的本地模型参数生成的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互;
第二接收模块,用于分别接收所述第一平台发送的第一本地模型参数以及所述第二平台发送的第二本地模型参数,所述第一本地模型参数为所述第一平台基于所述第一全局模型参数和所述第一平台的本地交互数据集,训练本地关联方识别模型后得到的,所述第二本地模型参数为所述第二平台基于所述第一全局模型参数和本地交互数据集,训练本地关联方识别模型后得到的;
数据融合模块,将所述第一本地模型参数和所述第二本地模型参数进行数据融合,生成第二全局模型参数;
所述第二发送模块,还用于将所述第二全局模型参数分别发送至所述第一平台和所述第二平台,以使所述第一平台基于所述第一本地交互数据集及所述第二全局模型参数,训练所述第一本地关联方识别模型,且所述第二平台基于所述第二本地交互数据集及所述第二全局模型参数,训练所述第二本地关联方识别模型。
14.一种关联方识别装置,所述装置包括:
输入模块,用于将目标交互数据输入训练完成的本地关联方识别模型;
关联方识别模块,用于通过所述本地关联方识别模型对所述目标交互数据进行关联方预测,得到所述目标交互数据的关联方预测结果;
其中,所述本地关联方识别模型是基于第一平台的本地交互数据集和第二平台的本地交互数据集训练得到的,所述第一平台对应的第一参与方与所述第二平台对应的第二参与方之间发生过交互。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310499942.8A CN116756558A (zh) | 2023-05-05 | 2023-05-05 | 关联方识别模型的训练方法、关联方识别方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310499942.8A CN116756558A (zh) | 2023-05-05 | 2023-05-05 | 关联方识别模型的训练方法、关联方识别方法以及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116756558A true CN116756558A (zh) | 2023-09-15 |
Family
ID=87954074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310499942.8A Pending CN116756558A (zh) | 2023-05-05 | 2023-05-05 | 关联方识别模型的训练方法、关联方识别方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116756558A (zh) |
-
2023
- 2023-05-05 CN CN202310499942.8A patent/CN116756558A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Aledhari et al. | Federated learning: A survey on enabling technologies, protocols, and applications | |
US20200366671A1 (en) | Identity verification and management system | |
CN111401558B (zh) | 数据处理模型训练方法、数据处理方法、装置、电子设备 | |
KR102215246B1 (ko) | 블록체인 기반 상품 클레임 방법 및 장치, 및 전자 디바이스 | |
CN112132198B (zh) | 数据处理方法、装置、系统和服务器 | |
CN107111710B (zh) | 用于基于安全和可靠标识的计算的方法和布置装置 | |
CN110569909B (zh) | 基于区块链的故障预警方法、装置、设备及存储介质 | |
CN104303156A (zh) | 监测移动多处理器平台中的行为特征 | |
CN108694238A (zh) | 基于区块链的业务数据处理方法、装置及存储介质 | |
US11563727B2 (en) | Multi-factor authentication for non-internet applications | |
US20220391913A1 (en) | Techniques to improve fraud detection at financial terminals | |
CN108600250A (zh) | 认证方法 | |
CN113726890A (zh) | 面向区块链数据服务的联邦预言方法及系统 | |
CN115277122A (zh) | 基于区块链的跨境数据流动与监管系统 | |
Garcia Bringas et al. | BlockChain platforms in financial services: current perspective | |
CN113935738B (zh) | 交易数据处理方法、装置、存储介质及设备 | |
Xu et al. | A secure mobile payment framework based on face authentication | |
Kinai et al. | Multi-factor authentication for users of non-internet based applications of blockchain-based platforms | |
CN115801317A (zh) | 服务提供方法、系统、装置、存储介质及电子设备 | |
CN116756558A (zh) | 关联方识别模型的训练方法、关联方识别方法以及装置 | |
Joshi et al. | Customization of Bookkeeping system for Blockchain System Analysis: A Review | |
CN113506108A (zh) | 一种账户管理方法、装置、终端及存储介质 | |
Shabir et al. | Toward secure tinyml on a standardized ai architecture | |
CN116245599A (zh) | 信用评估模型待的训练方法、信用评估方法以及设备 | |
US20240144275A1 (en) | Real-time fraud detection using machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |