CN112101576A - 分布式设备使用机器学习模型聚合系统 - Google Patents
分布式设备使用机器学习模型聚合系统 Download PDFInfo
- Publication number
- CN112101576A CN112101576A CN202010943090.3A CN202010943090A CN112101576A CN 112101576 A CN112101576 A CN 112101576A CN 202010943090 A CN202010943090 A CN 202010943090A CN 112101576 A CN112101576 A CN 112101576A
- Authority
- CN
- China
- Prior art keywords
- model
- equipment
- intermediate processing
- machine learning
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了分布式设备使用机器学习模型聚合系统。该系统中,模型存储平台中存储有多个机器学习模型,模型使用设备可以通过向模型分配平台发送模型使用请求来获得模型存储平台中的相应机器学习模型,从而使得模型使用设备可以方便地获得想要使用的、已有的机器学习模型,模型使用设备获得机器学习模型之后,可以根据需要对机器学习模型进行利用;因而,采用上述技术方案,使得模型使用设备不需要自己从头开始设计机器学习模型,节省了机器学习模型的开发时间,使得全民的机器学习模型得到充分的共享使用;并且,模型使用设备对应的使用信息可以聚合到中间设备、以及分析处理平台,实现重要信息的聚合。
Description
技术领域
本发明涉及机器学习技术领域,特别涉及分布式设备使用机器学习模型聚合系统。
背景技术
在机器学习技术领域,机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径。
现有技术中,不同的公司会根据自身的需求设计相应的机器学习模型,而实际上,有很多机器学习模型是不需要重复开发的,如果能够方便地获取别人开发的已有机器学习模型来为己所用,对于机器学习模型的开发速度会是很大的提高。而现有技术中,缺少一种能够方便地让用户快速获取已开发成功的机器学习模型的技术。
发明内容
本发明提供一种分布式设备使用机器学习模型聚合系统。
本发明实施例提供一种分布式设备使用机器学习模型聚合系统,包括模型存储平台、模型分配平台、多个模型使用设备、多个中间处理设备和分析处理平台,其中:
模型存储平台,用于存储多个机器学习模型;
模型分配平台,用于根据模型使用设备发送来的模型使用请求,从所述模型存储平台获取与所述模型使用请求匹配的机器学习模型,并将所述匹配的机器学习模型发送给所述模型使用设备;
多个模型使用设备,分散布置于不同的地址位置处,每个模型使用设备用于向所述模型分配平台发送模型使用请求,获取所述模型分配平台返回的机器学习模型,对所述机器学习模型进行使用,生成对所述机器学习模型的模型使用信息,将所述模型使用信息根据使用时间分成多个模型使用信息段,将每个模型使用信息段发送给该个模型使用信息段相应的中间处理设备;
多个中间处理设备,分散布置于不同的地址位置处,每个中间处理设备用于获取相应的模型使用设备发送来的模型使用信息段进行存储;将模型使用信息段对应的预设信息发送给所述分析处理平台;
所述分析处理平台,用于对所述中间处理设备发送来的预设信息进行处理。
在一个实施例中,上述系统还包括:
所述模型使用信息包括:模型使用设备对机器学习模型的细粒度使用日志,细粒度使用日志包括在每个预设时间点对机器学习模型的使用日志。
在一个实施例中,上述系统还包括:
后台管理平台,用于为每个模型使用设备配置相应的中间处理设备,每个模型使用设备对应至少两个中间处理设备;每个中间处理设备对应至少两个模型使用设备;并建立模型使用设备与相应的中间处理设备之间的数据传输链接;
其中,不同的中间处理设备可对应同一个模型使用设备;不同的模型使用设备可对应同一个中间处理设备。
在一个实施例中,所述模型使用设备将所述模型使用信息根据使用时间分成多个模型使用信息段,将每个模型使用信息段发送给该个模型使用信息段相应的中间处理设备,包括:
所述模型使用设备按照使用时间先后顺序,将模型使用信息分割为N个模型使用信息段;每个模型使用信息段对应的使用时间段中的时间为连续使用时间;
确定所述模型使用设备所对应的中间处理设备的数量M;
将N个模型使用信息段划分为M组模型使用信息段,每组模型使用信息段中包括的模型使用信息段的使用时间段不接续;
确定所述M组模型使用信息段与所述M个中间处理设备之间的一一对应关系;
将M组模型使用信息段分别发送给相应的中间处理设备。
在一个实施例中,所述后台管理平台为每个模型使用设备配置相应的中间处理设备,包括:
确定第e个模型使用设备所处的地理区域;
确定所述地理区域内的所有中间处理设备,设所述所有中间处理设备的数量为p,每个中间处理设备的供模型使用设备使用的设备性能参数种类包括t类,则第i个中间处理设备的设备性能参数向量记为Vi=(vi1,vi2,...,vit),其中,i=I,2,3,…,p;vij表示第i个中间处理设备第j个设备性能参数对应的参数值gij对应的归一化值;j=I,2,3,…,t;其中,
将所述第e个模型使用设备对中间处理设备的设备性能需求参数向量记为He=(he1,he2,...,het),其中,hej表示第e个模型使用设备对所述所有中间处理设备的第j个设备性能的占用量,其中,fej表示第e个模型使用设备对第j个设备性能的需求量;
按照如下公式(1)计算将第e个模型使用设备配置给第i个中间处理设备时对应的配置评价指数ωei:
按照上述公式(1)计算出将第e个模型使用设备配置给每个中间处理设备时分别对应的配置评价指数,获得p个配置评价指数;
对p个配置评价指数按照从大到小的顺序排序,获得配置评价指数序列;确定所述配置评价指数序列中前m位的配置评价指数;将第e个模型使用设备配置给前m位的配置评价指数所对应的中间处理设备,m等于或大于2。
在一个实施例中,所述后台管理平台按照如下公式(2)计算第e个模型使用设备对应的优先级评价指数:
其中,fj-max表示目标中间处理设备所对应的所有模型使用设备各自对应的对第j个设备性能参数的需求量中,最大的需求量的数值;目标中间处理设备为第e个模型使用设备所配置的任何一个中间处理设备;
λea表示第e个模型使用设备使用第a个机器学习模型的活跃度,λea的数值等于:第e个模型使用设备使用第a个机器学习模型时第a个机器学习模型对第e个模型使用设备的CPU占用率超过预设占用率阈值的使用总时长,除以所述e个模型使用设备使用第a个机器学习模型的总时长;ua表示第a个机器学习模型对应的重要性因子,为预设值,其值大于0且小于1;a=1,2,3,…,A;其中,A为模型存储平台中存储的所有机器学习模型的总数目;
所述后台管理平台将所述目标中间处理设备所对应的所有模型使用设备各自对应的优先级评价指数,按照从大到小的顺序排序,获得模型使用设备序列;
所述后台管理平台将所述模型使用设备序列发送给所述目标中间处理设备;
所述目标中间处理设备按照所述模型使用设备序列对应的顺序,处理所述模型使用设备序列中的模型使用设备发送来的模型使用信息段;
所述处理所述模型使用设备序列中的模型使用设备发送来的模型使用信息段,包括:存储所述模型使用设备序列中的模型使用设备发送来的模型使用信息段,或者,获取所述模型使用设备序列中的模型使用设备发送来的模型使用信息段对应的预设信息。
在一个实施例中,所述中间处理设备将模型使用信息段对应的预设信息发送给所述分析处理平台,包括:所述中间处理设备对模型使用信息段进行解析,获取所述模型使用信息段对应的预设信息;将所述预设信息发送给所述分析处理平台;其中,所述预设信息包括模型使用设备使用所述机器学习模型在相应时间段内所处理的数据数量、或者包括模型使用设备使用所述机器学习模型在相应时间段内所涉及的用户信息对应的用户标识;
所述分析处理平台对所述中间处理设备发送来的模型使用信息段对应的预设信息进行处理,包括:根据所述预设信息确定所述模型使用设备使用机器学习模型的使用费用;将所述使用费用及所述使用费用的付费方式发送给所述模型使用设备。
本发明实施例提供的上述系统中,模型存储平台中存储有多个机器学习模型,模型使用设备可以通过向模型分配平台发送模型使用请求来获得模型存储平台中的相应机器学习模型,从而使得模型使用设备可以方便地获得想要使用的、已有的机器学习模型,模型使用设备获得机器学习模型之后,可以根据需要对机器学习模型进行利用;因而,采用上述技术方案,使得模型使用设备不需要自己从头开始设计机器学习模型,节省了机器学习模型的开发时间,使得全民的机器学习模型得到充分的共享使用;并且,模型使用设备对应的使用信息可以聚合到中间设备、以及分析处理平台,实现重要信息的聚合。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种分布式设备使用机器学习模型聚合系统的结构示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供一种分布式设备使用机器学习模型聚合系统,如图1所示,包括模型存储平台、模型分配平台、多个模型使用设备、多个中间处理设备和分析处理平台,其中:
模型存储平台,用于存储多个机器学习模型;其中,模型存储平台中存储的机器学习模型可以是由任何模型使用设备上传给模型存储平台的;
模型分配平台,用于根据模型使用设备发送来的模型使用请求,从所述模型存储平台获取与所述模型使用请求匹配的机器学习模型,并将所述匹配的机器学习模型发送给所述模型使用设备;其中,模型使用请求中可以包括模型使用设备所请求的机器学习模型应具备的功能;或者可以包括模型使用设备所请求的机器学习模型所处理的数据类型、模型处理结果标识;或者可以包括模型使用设备所请求的机器学习模型的唯一识别标识;或者包括其它任何能够识别所请求的机器学习模型的信息;
多个模型使用设备,分散布置于不同的地址位置处,每个模型使用设备用于向所述模型分配平台发送模型使用请求,获取所述模型分配平台返回的机器学习模型,对所述机器学习模型进行使用,生成对所述机器学习模型的模型使用信息,将所述模型使用信息根据使用时间分成多个模型使用信息段,将每个模型使用信息段发送给该个模型使用信息段相应的中间处理设备;
多个中间处理设备,分散布置于不同的地址位置处,每个中间处理设备用于获取相应的模型使用设备发送来的模型使用信息段进行存储;将模型使用信息段对应的预设信息发送给所述分析处理平台;
所述分析处理平台,用于对所述中间处理设备发送来的预设信息进行处理。
上述技术方案的有益效果为:模型存储平台中存储有多个机器学习模型,模型使用设备可以通过向模型分配平台发送模型使用请求来获得模型存储平台中的相应机器学习模型,从而使得模型使用设备可以方便地获得想要使用的、已有的机器学习模型,模型使用设备获得机器学习模型之后,可以根据需要对机器学习模型进行利用;因而,采用上述技术方案,使得模型使用设备不需要自己从头开始设计机器学习模型,节省了机器学习模型的开发时间,使得全民的机器学习模型得到充分的共享使用;并且,模型使用设备对应的使用信息可以聚合到中间设备、以及分析处理平台,实现重要信息的聚合。
在一个实施例中,上述系统还可包括:
所述模型使用信息包括:模型使用设备对机器学习模型的细粒度使用日志,细粒度使用日志包括在每个预设时间点对机器学习模型的使用日志。
在一个实施例中,上述系统还可包括:
后台管理平台,用于为每个模型使用设备配置相应的中间处理设备,每个模型使用设备对应至少两个中间处理设备;每个中间处理设备对应至少两个模型使用设备;并建立模型使用设备与相应的中间处理设备之间的数据传输链接;
其中,不同的中间处理设备可对应同一个模型使用设备;不同的模型使用设备可对应同一个中间处理设备。
在一个实施例中,所述模型使用设备将所述模型使用信息根据使用时间分成多个模型使用信息段,将每个模型使用信息段发送给该个模型使用信息段相应的中间处理设备,包括:
所述模型使用设备按照使用时间先后顺序,将模型使用信息分割为N个模型使用信息段;每个模型使用信息段对应的使用时间段中的时间为连续使用时间;
确定所述模型使用设备所对应的中间处理设备的数量M;
将N个模型使用信息段划分为M组模型使用信息段,每组模型使用信息段中包括的模型使用信息段的使用时间段不接续;
确定所述M组模型使用信息段与所述M个中间处理设备之间的一一对应关系;
将M组模型使用信息段分别发送给相应的中间处理设备。
上述技术方案的有益效果为:向不同的中间处理设备分别发送模型使用信息段,其中,将时间上不接续的多个模型使用信息段发送给同一个中间处理设备,从而使得每个中间处理设备所获得的模型使用信息段都不是接续的,降低了不法分子获得模型使用设备的完整的模型使用信息的概率,提高了信息安全性。
在一个实施例中,所述后台管理平台为每个模型使用设备配置相应的中间处理设备,包括:
确定第e个模型使用设备所处的地理区域;
确定所述地理区域内的所有中间处理设备,设所述所有中间处理设备的数量为p,每个中间处理设备的供模型使用设备使用的设备性能参数种类包括t类,则第i个中间处理设备的设备性能参数向量记为Vi=(vi1,vi2,...,vit),其中,i=I,2,3,…,p;vij表示第i个中间处理设备第j个设备性能参数对应的参数值gij对应的归一化值;j=I,2,3,…,t;其中,其中,设备性能参数种类可以包括CPU计算速度、存储空间、接收数据的速度、发送数据的速度等;
将所述第e个模型使用设备对中间处理设备的设备性能需求参数向量记为He=(he1,he2,...,het),其中,hej表示第e个模型使用设备对所述所有中间处理设备的第j个设备性能的占用量,其中,fej表示第e个模型使用设备对第j个设备性能的需求量;
按照如下公式(1)计算将第e个模型使用设备配置给第i个中间处理设备时对应的配置评价指数ωei:
按照上述公式(1)计算出将第e个模型使用设备配置给每个中间处理设备时分别对应的配置评价指数,获得p个配置评价指数;对p个配置评价指数按照从大到小的顺序排序,获得配置评价指数序列;确定所述配置评价指数序列中前m位的配置评价指数;将第e个模型使用设备配置给前m位的配置评价指数所对应的中间处理设备,m等于或大于2。
上述技术方案的有益效果为:按照上述公式(1)为模型使用设备配置多个中间处理设备,可以使得模型使用设备对中间处理设备的性能需求与中间处理设备的设备性能供给更加匹配,并且可以使得中间处理设备的性能得到充分的使用,降低对中间处理设备的资源浪费。
在一个实施例中,所述后台管理平台按照如下公式(2)计算第e个模型使用设备对应的优先级评价指数:
其中,fj-max表示目标中间处理设备所对应的所有模型使用设备各自对第j个设备性能参数的需求量中,最大的需求量的数值;目标中间处理设备为第e个模型使用设备所配置的任何一个中间处理设备;
λea表示第e个模型使用设备使用第a个机器学习模型的活跃度,λea的数值等于:第e个模型使用设备使用第a个机器学习模型时第a个机器学习模型对第e个模型使用设备的CPU占用率超过预设占用率阈值的使用总时长,除以所述e个模型使用设备使用第a个机器学习模型的总时长;ua表示第a个机器学习模型对应的重要性因子,为预设值,其值大于0且小于1;a=1,2,3,…,A;其中,A为模型存储平台中存储的所有机器学习模型的总数目;
所述后台管理平台将所述目标中间处理设备所对应的所有模型使用设备各自对应的优先级评价指数,按照从大到小的顺序排序,获得模型使用设备序列;
所述后台管理平台将所述模型使用设备序列发送给所述目标中间处理设备;
所述目标中间处理设备按照所述模型使用设备序列对应的顺序,处理所述模型使用设备序列中的模型使用设备发送来的模型使用信息段;
所述处理所述模型使用设备序列中的模型使用设备发送来的模型使用信息段,包括:存储所述模型使用设备序列中的模型使用设备发送来的模型使用信息段,或者,获取所述模型使用设备序列中的模型使用设备发送来的模型使用信息段对应的预设信息。
上述技术方案的有益效果为:反映了模型使用设备对目标中间处理设备的性能使用程度;反映了模型使用设备对机器学习模型的使用程度;因而,按照上述公式(2)确定的优先级可以反映哪个模型使用设备所能贡献的经济价值更高(性能使用程度越高,模型的使用程度越高,模型使用设备所需要支付的使用费用也越高),相应地,就可以排在更优先的位置进行处理,这也比较符合正常的交易规则。
在一个实施例中,所述中间处理设备将模型使用信息段对应的预设信息发送给所述分析处理平台,包括:所述中间处理设备对模型使用信息段进行解析,获取所述模型使用信息段对应的预设信息;将所述预设信息发送给所述分析处理平台;其中,所述预设信息包括模型使用设备使用所述机器学习模型在相应时间段内所处理的数据数量、或者包括模型使用设备使用所述机器学习模型在相应时间段内所涉及的用户信息对应的用户标识;
所述分析处理平台对所述中间处理设备发送来的模型使用信息段对应的预设信息进行处理,包括:根据所述预设信息确定所述模型使用设备使用机器学习模型的使用费用;将所述使用费用及所述使用费用的付费方式发送给所述模型使用设备。
具体地,“根据所述预设信息确定所述模型使用设备使用机器学习模型的使用费用”,可以实施为:数据数量越高、所使用的机器学习模型的重要性因子越高,使用费用越高;只要符合这一标准的任何一种计费规则都可以。
或者“根据所述预设信息确定所述模型使用设备使用机器学习模型的使用费用”,可以实施为:用户标识对应的用户职业等级越高、所使用的机器学习模型的重要性因子越高,使用费用越高;只要符合这一标准的任何一种计费规则都可以。
上述技术方案的有益效果为:通过一种智能化的收费方式,使得机器学习模型的一方,可以获得使用机器学习模型一方支付的报酬;另外,分析处理平台提供计费的功能,它不能获得模型使用设备对应的完整的模型使用信息,这样也提高了模型使用信息的安全性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (7)
1.一种分布式设备使用机器学习模型聚合系统,其特征在于,包括模型存储平台、模型分配平台、多个模型使用设备、多个中间处理设备和分析处理平台,其中:
模型存储平台,用于存储多个机器学习模型;
模型分配平台,用于根据模型使用设备发送来的模型使用请求,从所述模型存储平台获取与所述模型使用请求匹配的机器学习模型,并将所述匹配的机器学习模型发送给所述模型使用设备;
多个模型使用设备,分散布置于不同的地址位置处,每个模型使用设备用于向所述模型分配平台发送模型使用请求,获取所述模型分配平台返回的机器学习模型,对所述机器学习模型进行使用,生成对所述机器学习模型的模型使用信息,将所述模型使用信息根据使用时间分成多个模型使用信息段,将每个模型使用信息段发送给该个模型使用信息段相应的中间处理设备;
多个中间处理设备,分散布置于不同的地址位置处,每个中间处理设备用于获取相应的模型使用设备发送来的模型使用信息段进行存储;将模型使用信息段对应的预设信息发送给所述分析处理平台;
所述分析处理平台,用于对所述中间处理设备发送来的预设信息进行处理。
2.如权利要求1所述的系统,其特征在于,还包括:
所述模型使用信息包括:模型使用设备对机器学习模型的细粒度使用日志,细粒度使用日志包括在每个预设时间点对机器学习模型的使用日志。
3.如权利要求1所述的系统,其特征在于,还包括:
后台管理平台,用于为每个模型使用设备配置相应的中间处理设备,每个模型使用设备对应至少两个中间处理设备;每个中间处理设备对应至少两个模型使用设备;并建立模型使用设备与相应的中间处理设备之间的数据传输链接;
其中,不同的中间处理设备可对应同一个模型使用设备;不同的模型使用设备可对应同一个中间处理设备。
4.如权利要求3所述的系统,其特征在于,
所述模型使用设备将所述模型使用信息根据使用时间分成多个模型使用信息段,将每个模型使用信息段发送给该个模型使用信息段相应的中间处理设备,包括:
所述模型使用设备按照使用时间先后顺序,将模型使用信息分割为N个模型使用信息段;每个模型使用信息段对应的使用时间段中的时间为连续使用时间;
确定所述模型使用设备所对应的中间处理设备的数量M;
将N个模型使用信息段划分为M组模型使用信息段,每组模型使用信息段中包括的模型使用信息段的使用时间段不接续;
确定所述M组模型使用信息段与所述M个中间处理设备之间的一一对应关系;
将M组模型使用信息段分别发送给相应的中间处理设备。
5.如权利要求1所述的系统,其特征在于,
所述后台管理平台为每个模型使用设备配置相应的中间处理设备,包括:
确定第e个模型使用设备所处的地理区域;
确定所述地理区域内的所有中间处理设备,设所述所有中间处理设备的数量为p,每个中间处理设备的供模型使用设备使用的设备性能参数种类包括t类,则第i个中间处理设备的设备性能参数向量记为Vi=(vi1,vi2,...,vit),其中,i=I,2,3,…,p;vij表示第i个中间处理设备第j个设备性能参数对应的参数值gij对应的归一化值;j=I,2,3,…,t;其中,
将所述第e个模型使用设备对中间处理设备的设备性能需求参数向量记为He=(he1,he2,...,het),其中,hej表示第e个模型使用设备对所述所有中间处理设备的第j个设备性能的占用量,其中,fej表示第e个模型使用设备对第j个设备性能的需求量;
按照如下公式(1)计算将第e个模型使用设备配置给第i个中间处理设备时对应的配置评价指数ωei:
按照上述公式(1)计算出将第e个模型使用设备配置给每个中间处理设备时分别对应的配置评价指数,获得p个配置评价指数;
对p个配置评价指数按照从大到小的顺序排序,获得配置评价指数序列;确定所述配置评价指数序列中前m位的配置评价指数;将第e个模型使用设备配置给前m位的配置评价指数所对应的中间处理设备,m等于或大于2。
6.如权利要求1至5中任一所述的系统,其特征在于,
所述后台管理平台按照如下公式(2)计算第e个模型使用设备对应的优先级评价指数:
其中,fj-max表示目标中间处理设备所对应的所有模型使用设备各自对应的对第j个设备性能参数的需求量中,最大的需求量的数值;目标中间处理设备为第e个模型使用设备所配置的任何一个中间处理设备;
λea表示第e个模型使用设备使用第a个机器学习模型的活跃度,λea的数值等于:第e个模型使用设备使用第a个机器学习模型时,第a个机器学习模型对第e个模型使用设备的CPU占用率超过预设占用率阈值时的使用总时长,除以所述e个模型使用设备使用第a个机器学习模型的总时长;ua表示第a个机器学习模型对应的重要性因子,为预设值,其值大于0且小于1;a=1,2,3,…,A;其中,A为模型存储平台中存储的所有机器学习模型的总数目;
所述后台管理平台将所述目标中间处理设备所对应的所有模型使用设备各自对应的优先级评价指数,按照从大到小的顺序排序,获得模型使用设备序列;
所述后台管理平台将所述模型使用设备序列发送给所述目标中间处理设备;
所述目标中间处理设备按照所述模型使用设备序列对应的顺序,处理所述模型使用设备序列中的模型使用设备发送来的模型使用信息段;
所述处理所述模型使用设备序列中的模型使用设备发送来的模型使用信息段,包括:存储所述模型使用设备序列中的模型使用设备发送来的模型使用信息段,或者,获取所述模型使用设备序列中的模型使用设备发送来的模型使用信息段对应的预设信息。
7.如权利要求1所述的系统,其特征在于,
所述中间处理设备将模型使用信息段对应的预设信息发送给所述分析处理平台,包括:所述中间处理设备对模型使用信息段进行解析,获取所述模型使用信息段对应的预设信息;将所述预设信息发送给所述分析处理平台;其中,所述预设信息包括模型使用设备使用所述机器学习模型在相应时间段内所处理的数据数量、或者包括模型使用设备使用所述机器学习模型在相应时间段内所涉及的用户信息对应的用户标识;
所述分析处理平台对所述中间处理设备发送来的模型使用信息段对应的预设信息进行处理,包括:根据所述预设信息确定所述模型使用设备使用机器学习模型的使用费用;将所述使用费用及所述使用费用的付费方式发送给所述模型使用设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010943090.3A CN112101576B (zh) | 2020-09-09 | 2020-09-09 | 分布式设备使用机器学习模型聚合系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010943090.3A CN112101576B (zh) | 2020-09-09 | 2020-09-09 | 分布式设备使用机器学习模型聚合系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112101576A true CN112101576A (zh) | 2020-12-18 |
CN112101576B CN112101576B (zh) | 2021-07-30 |
Family
ID=73751842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010943090.3A Active CN112101576B (zh) | 2020-09-09 | 2020-09-09 | 分布式设备使用机器学习模型聚合系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101576B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022227860A1 (en) * | 2021-04-29 | 2022-11-03 | International Business Machines Corporation | Fair simultaneous comparison of parallel machine learning models |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104168318A (zh) * | 2014-08-18 | 2014-11-26 | 中国联合网络通信集团有限公司 | 一种资源服务系统及其资源分配方法 |
CN105657014A (zh) * | 2015-12-31 | 2016-06-08 | 北京奇艺世纪科技有限公司 | 一种负载均衡方法、系统及装置 |
CN106302565A (zh) * | 2015-05-12 | 2017-01-04 | 浙江格林蓝德信息技术有限公司 | 业务服务器的调度方法及系统 |
CN107040479A (zh) * | 2016-02-04 | 2017-08-11 | 华为软件技术有限公司 | 一种云计算资源调节的方法和装置 |
CN107168796A (zh) * | 2017-05-12 | 2017-09-15 | 郑州云海信息技术有限公司 | 一种数据合并方法、装置、存储器及存储控制器 |
CN107659595A (zh) * | 2016-07-25 | 2018-02-02 | 阿里巴巴集团控股有限公司 | 一种评估分布式集群处理指定业务的能力的方法和装置 |
US20190102700A1 (en) * | 2017-09-29 | 2019-04-04 | Oracle International Corporation | Machine learning platform |
CN109670583A (zh) * | 2018-12-27 | 2019-04-23 | 浙江省公众信息产业有限公司 | 去中心化的数据分析方法、系统以及介质 |
CN109816114A (zh) * | 2018-12-29 | 2019-05-28 | 大唐软件技术股份有限公司 | 一种机器学习模型的生成方法、装置 |
CN110428404A (zh) * | 2019-07-25 | 2019-11-08 | 北京邮电大学 | 一种基于人工智能的辅助培养与辅助鉴赏的制定系统 |
CN110809757A (zh) * | 2017-11-29 | 2020-02-18 | 谷歌有限责任公司 | 使得应用之间能够共享机器学习模型的设备上的机器学习平台 |
US20200097851A1 (en) * | 2018-09-21 | 2020-03-26 | The Climate Corporation | Method and system for executing machine learning algorithms |
US20200105400A1 (en) * | 2018-10-01 | 2020-04-02 | Brainworks Foundry, Inc. | Fully Automated Non-Contact Remote Biometric and Health Sensing Systems, Architectures, and Methods |
-
2020
- 2020-09-09 CN CN202010943090.3A patent/CN112101576B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104168318A (zh) * | 2014-08-18 | 2014-11-26 | 中国联合网络通信集团有限公司 | 一种资源服务系统及其资源分配方法 |
CN106302565A (zh) * | 2015-05-12 | 2017-01-04 | 浙江格林蓝德信息技术有限公司 | 业务服务器的调度方法及系统 |
CN105657014A (zh) * | 2015-12-31 | 2016-06-08 | 北京奇艺世纪科技有限公司 | 一种负载均衡方法、系统及装置 |
CN107040479A (zh) * | 2016-02-04 | 2017-08-11 | 华为软件技术有限公司 | 一种云计算资源调节的方法和装置 |
CN107659595A (zh) * | 2016-07-25 | 2018-02-02 | 阿里巴巴集团控股有限公司 | 一种评估分布式集群处理指定业务的能力的方法和装置 |
CN107168796A (zh) * | 2017-05-12 | 2017-09-15 | 郑州云海信息技术有限公司 | 一种数据合并方法、装置、存储器及存储控制器 |
US20190102700A1 (en) * | 2017-09-29 | 2019-04-04 | Oracle International Corporation | Machine learning platform |
CN110809757A (zh) * | 2017-11-29 | 2020-02-18 | 谷歌有限责任公司 | 使得应用之间能够共享机器学习模型的设备上的机器学习平台 |
US20200097851A1 (en) * | 2018-09-21 | 2020-03-26 | The Climate Corporation | Method and system for executing machine learning algorithms |
US20200105400A1 (en) * | 2018-10-01 | 2020-04-02 | Brainworks Foundry, Inc. | Fully Automated Non-Contact Remote Biometric and Health Sensing Systems, Architectures, and Methods |
CN109670583A (zh) * | 2018-12-27 | 2019-04-23 | 浙江省公众信息产业有限公司 | 去中心化的数据分析方法、系统以及介质 |
CN109816114A (zh) * | 2018-12-29 | 2019-05-28 | 大唐软件技术股份有限公司 | 一种机器学习模型的生成方法、装置 |
CN110428404A (zh) * | 2019-07-25 | 2019-11-08 | 北京邮电大学 | 一种基于人工智能的辅助培养与辅助鉴赏的制定系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022227860A1 (en) * | 2021-04-29 | 2022-11-03 | International Business Machines Corporation | Fair simultaneous comparison of parallel machine learning models |
GB2620354A (en) * | 2021-04-29 | 2024-01-03 | Ibm | Fair simultaneous comparison of parallel machine learning models |
Also Published As
Publication number | Publication date |
---|---|
CN112101576B (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109388674B (zh) | 数据处理方法、装置、设备及可读存储介质 | |
CN110377804A (zh) | 培训课程数据的推送方法、装置、系统及存储介质 | |
CN109919316A (zh) | 获取网络表示学习向量的方法、装置和设备及存储介质 | |
CN110298547A (zh) | 风险评估方法、装置、计算机装置及存储介质 | |
CN111428137B (zh) | 一种电动汽车充电设施的推荐方法及推荐装置 | |
CN113254840B (zh) | 人工智能应用服务推送方法、推送平台及终端设备 | |
CN106339852A (zh) | 具有偏好的众包任务分配方法 | |
CN108304935A (zh) | 机器学习模型训练方法、装置和计算机设备 | |
CN106897801A (zh) | 司机分类的方法、装置、设备以及存储介质 | |
CN112148992A (zh) | 内容推送方法、装置、计算机设备和存储介质 | |
CN112101576B (zh) | 分布式设备使用机器学习模型聚合系统 | |
CN115829124A (zh) | 充电桩选址方法、装置、设备及存储介质 | |
CN109492863A (zh) | 金融单证的自动生成方法及装置 | |
CN110489142A (zh) | 设备软件升级的评估方法及装置、存储介质、终端 | |
CN109978241B (zh) | 一种电动汽车充电负荷的确定方法及装置 | |
Dell’Orco et al. | Modelling uncertainty in parking choice behaviour | |
CN113379318A (zh) | 公共交通系统运营服务质量评价方法、装置和计算机设备 | |
CN106506229B (zh) | 一种sbs云应用自适应资源优化调整系统及方法 | |
CN112581184A (zh) | 一种空铁联运票价制定方法、系统、设备及可读存储介质 | |
TWI706366B (zh) | 電動車充電站電能管理方法 | |
Hüttel et al. | Mind the gap: Modelling difference between censored and uncensored electric vehicle charging demand | |
CN111429237A (zh) | 订单价格的确定方法、装置、服务器及存储介质 | |
Zhang et al. | Negotiation strategy for discharging price of EVs based on fuzzy Bayesian learning | |
CN108595669A (zh) | 一种无序分类变量处理方法及装置 | |
CN112329962B (zh) | 数据处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PP01 | Preservation of patent right |
Effective date of registration: 20221020 Granted publication date: 20210730 |
|
PP01 | Preservation of patent right |