CN111339298B - 一种分类预测方法、装置及存储介质 - Google Patents

一种分类预测方法、装置及存储介质 Download PDF

Info

Publication number
CN111339298B
CN111339298B CN202010117294.1A CN202010117294A CN111339298B CN 111339298 B CN111339298 B CN 111339298B CN 202010117294 A CN202010117294 A CN 202010117294A CN 111339298 B CN111339298 B CN 111339298B
Authority
CN
China
Prior art keywords
prediction
classified
classification
branch
service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010117294.1A
Other languages
English (en)
Other versions
CN111339298A (zh
Inventor
齐保元
韩佳乘
孟二利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Pinecone Electronic Co Ltd
Original Assignee
Beijing Xiaomi Pinecone Electronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Pinecone Electronic Co Ltd filed Critical Beijing Xiaomi Pinecone Electronic Co Ltd
Priority to CN202010117294.1A priority Critical patent/CN111339298B/zh
Publication of CN111339298A publication Critical patent/CN111339298A/zh
Priority to US16/990,807 priority patent/US20210264258A1/en
Priority to EP20192715.9A priority patent/EP3872648A1/en
Application granted granted Critical
Publication of CN111339298B publication Critical patent/CN111339298B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开是关于一种分类预测方法、装置及存储介质。分类预测方法包括:确定分类预测任务;根据所述分类预测任务携带的分支标识,从启动的分类预测服务中确定所述分类预测任务对应的服务分支;通过所述服务分支,对所述分类预测任务进行预测。通过本公开将不同需求分类预测任务的服务集成,提供统一的服务入口,提高分类任务预测的处理效率。

Description

一种分类预测方法、装置及存储介质
技术领域
本公开涉及深度学习领域,尤其涉及分类预测方法、装置及存储介质。
背景技术
分类任务是自然语言处理中一种常见的任务,例如正负面情感分析、新闻文本类型分类等。在深度学习领域,使用数据训练出的模型对分类任务进行预测会有很多不同的预测方式。
由于每个训练好的模型在预测阶段对于输入、处理过程以及输出的差异性,使得模型服务使用过程中面对资源类型、并发变化等运行环境的不同所需匹配的要求也不同。相关技术中,对于不同的预测模型服务,对每个预测的模型编写相对应的预测方法,并对特定的应用场景进行编程。此种方式,缺乏统一的规范,灵活性较差,对于新的场景适配能力弱,模型部署人员需要进行非常复杂的操作。
发明内容
为克服相关技术中存在的问题,本公开提供一种分类预测方法、装置及存储介质。
根据本公开实施例的第一方面,提供一种分类预测方法,包括:确定分类预测任务;根据所述分类预测任务携带的分支标识,从启动的分类预测服务中确定所述分类预测任务对应的服务分支;通过所述服务分支,对所述分类预测任务进行预测。
一种实施方式中,所述分类预测任务包括多个待分类预测对象;
通过所述服务分支,对所述分类预测任务进行预测,包括:
通过所述服务分支,对所述多个待分类预测对象进行批量预测。
另一种实施方式中,所述分类预测任务包括单个待分类预测对象;
所述方法还包括:为每个分类预测任务生成单个任务的标识,并将所述标识添加到批量预测任务的待处理标识列表;
通过所述服务分支,对所述分类预测任务进行预测,包括:
遍历所述待处理标识列表,获取每个表项所对应分类预测任务需要处理的待分类预测对象;通过所述服务分支,对获取的多个待分类预测对象进行批量预测。
又一种实施方式中,通过所述服务分支,对所述分类预测任务进行批量预测之前,所述方法还包括:
响应于一次批量预测服务能够承载的处理量未满足,获取多个同分支标识分类预测任务的任务量,直到当前不存在同分支标识分类预测任务,或者一次批量预测服务能够承载的任务量得到满足;
通过所述服务分支,对所述多个待分类预测对象进行预测,包括:
获取所述多个同类型分类预测任务分别需要处理的多个待分类预测对象;
其中,每个待分类预测对象设置有对应标识,所述标识用于表征对应待分类预测对象所属分类预测任务,以及在所属分类预测任务中区别于其他待分类预测对象;
通过所述服务分支,对获取的多个待分类预测对象进行批量预测。
又一种实施方式中,在进行批量预测之后,所述方法还包括:
获取批量预测结果;从所述批量预测结果中确定各标识分别对应的预测结果。
又一种实施方式中,通过所述服务分支,对获取的多个待分类预测对象进行批量预测,包括:
分别对多个待分类预测对象对应的文本内容进行分词,并将分词后的结果转换为所述分类预测任务的类型支持的输入特征;将多个待分类预测对象分别对应的输入特征进行拼接处理,得到批量处理特征;通过所述服务分支,对所述批量处理特征进行预测。
又一种实施方式中,通过所述服务分支,对所述分类预测任务进行预测,包括:
响应于所述服务分支空闲,通过所述服务分支,对所述分类预测任务进行预测。
又一种实施方式中,所述方法还包括:
读取配置文件,启动所述分类预测服务;其中,所述配置文件包括:对分类预测任务进行批量预测的预测框架;所述预测框架至少包括:通用分类预测接口的定义、所述分类预测服务支持模型分别对应的自定义分类预测接口的定义。
又一种实施方式中,读取配置文件,启动所述分类预测服务,包括:
通过所述通用分类预测接口,对所述各模型的通用变量进行初始化,并进行对应的启动设置;以及对通用批量分类预测方法,和批量任务生成方法进行初始化;通过所述各模型分别对应的自定义分类预测接口,对所述各模型的自定义变量进行初始化;并将各模型分别实例化,并为每个模型对应启动分支服务;根据各模型分别对应的分支服务的分支标识生成模型词典,所述模型词典用于表征所述分支标识和对应模型调用接口的对应关系。
又一种实施方式中,根据各模型分别对应的分支服务的分支标识生成模型词典,包括:
将各模型分别对应的分支服务的分支标识确定为主键;针对所述各模型中的每个模型,基于该模型定义,采用动态加载机制确定该模型实例化之后的调用接口;将所述主键和所述调用接口作为模型词典存储到模型预测键值对。
根据本公开实施例第二方面提供一种分类预测装置,包括:
确定单元,用于确定分类预测任务,并根据所述分类预测任务携带的分支标识,从启动的分类预测服务中确定所述分类预测任务对应的服务分支;预测单元,用于通过所述服务分支,对所述分类预测任务进行预测。
一种实施方式中,所述分类预测任务包括多个待分类预测对象;
所述预测单元采用如下方式通过所述服务分支,对所述分类预测任务进行预测:
通过所述服务分支,对所述多个待分类预测对象进行批量预测。
另一种实施方式中,所述分类预测任务包括单个待分类预测对象;
所述预测单元还用于:为每个分类预测任务生成单个任务的标识,并将所述标识添加到批量预测任务的待处理标识列表;
所述预测单元采用如下方式通过所述服务分支,对所述分类预测任务进行预测:
遍历所述待处理标识列表,获取每个表项所对应分类预测任务需要处理的待分类预测对象;通过所述服务分支,对获取的多个待分类预测对象进行批量预测。
又一种实施方式中,所述预测单元还用于:通过所述服务分支,对所述分类预测任务进行批量预测之前,响应于一次批量预测服务能够承载的处理量未满足,获取多个同分支标识分类预测任务的任务量,直到当前不存在同分支标识分类预测任务,或者一次批量预测服务能够承载的任务量得到满足;
所述预测单元采用如下方式通过所述服务分支,对所述多个待分类预测对象进行预测:
获取所述多个同类型分类预测任务分别需要处理的多个待分类预测对象;其中,每个待分类预测对象设置有对应标识,所述标识用于表征对应待分类预测对象所属分类预测任务,以及在所属分类预测任务中区别于其他待分类预测对象;通过所述服务分支,对获取的多个待分类预测对象进行批量预测。
又一种实施方式中,所述确定单元,还用于:在所述预测单元进行批量预测之后,获取批量预测结果,从所述批量预测结果中确定各标识分别对应的预测结果。
又一种实施方式中,所述预测单元采用如下方式通过所述服务分支,对获取的多个待分类预测对象进行批量预测:
分别对多个待分类预测对象对应的文本内容进行分词,并将分词后的结果转换为所述分类预测任务的类型支持的输入特征;将多个待分类预测对象分别对应的输入特征进行拼接处理,得到批量处理特征;通过所述服务分支,对所述批量处理特征进行预测。
又一种实施方式中,所述预测单元采用如下方式通过所述服务分支,对所述分类预测任务进行预测:响应于所述服务分支空闲,通过所述服务分支,对所述分类预测任务进行预测。
又一种实施方式中,所述装置还包括启动单元,所述启动单元用于:
读取配置文件,启动所述分类预测服务;其中,所述配置文件包括:对分类预测任务进行批量预测的预测框架;所述预测框架至少包括:通用分类预测接口的定义、所述分类预测服务支持模型分别对应的自定义分类预测接口的定义。
又一种实施方式中,所述启动单元采用如下方式读取配置文件,启动所述分类预测服务:
通过所述通用分类预测接口,对所述各模型的通用变量进行初始化,并进行对应的启动设置;以及对通用批量分类预测装置,和批量任务生成装置进行初始化;通过所述各模型分别对应的自定义分类预测接口,对所述各模型的自定义变量进行初始化;并将各模型分别实例化,并为每个模型对应启动分支服务;根据各模型分别对应的分支服务的分支标识生成模型词典,所述模型词典用于表征所述分支标识和对应模型调用接口的对应关系。
又一种实施方式中,根据各模型分别对应的分支服务的分支标识生成模型词典,包括:
将各模型分别对应的分支服务的分支标识确定为主键;针对所述各模型中的每个模型,基于该模型定义,采用动态加载机制确定该模型实例化之后的调用接口;将所述主键和所述调用接口作为模型词典存储到模型预测键值对。
根据本公开实施例第三方面,提供一种分类预测装置,包括:
处理器;用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行第一方面或者第一方面任意一种实施方式中所述的分类预测方法。
根据本公开实施例第四方面提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行第一方面或者第一方面任意一种实施方式中所述的分类预测方法。
本公开的实施例提供的技术方案可以包括以下有益效果:进行分类任务预测时,根据分类预测任务携带的分支标识,从启动的分类预测服务中确定分类预测任务对应的服务分支,将不同需求分类预测任务的服务集成,提供统一的服务入口,提高分类任务预测的处理效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种分类预测方法的流程图。
图2是根据本公开一示例实施例示出的一种将单个任务预测转换成批量预测的方法流程图。
图3是根据一示例性实施例示出的一种读取配置文件启动分类预测服务实施流程图。
图4是根据一示例性实施例示出的一种根据各模型分别对应的分支服务的分支标识生成模型词典的方法流程图。
图5是根据一示例性实施例示出的通过服务分支对多个待分类预测对象进行批量预测的方法流程图。
图6是根据一示例性实施例示出的一种预测框架设置方法的流程图。
图7是根据一示例性实施例示出的一种初始化变量示意图。
图8是根据一示例性实施例示出的一种配置文件封装示意图。
图9是根据一示例性实施例示出的一种用户请求示意图。
图10是根据一示例性实施例示出的一种分类预测结果示意图。
图11是根据一示例性实施例示出的一种分类预测装置的框图。
图12是根据一示例性实施例示出的一种装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供一种分类预测方法,通过针对不同需求分类预测任务的服务分支提供统一的服务入口,提高分类任务预测的处理效率。
图1是根据一示例性实施例示出的一种分类预测方法,如图1所示,包括如下步骤S11至步骤S13。
在步骤S11中,确定分类预测任务。
本公开实施例中,分类预测任务可以是批量预测任务,也可以是单预测任务。批量预测任务表征分类预测任务中包括多个待分类预测对象,单预测任务表征分类预测任务中包括单个待分类预测对象。
在步骤S12中,根据分类预测任务携带的分支标识,从启动的分类预测服务中确定分类预测任务对应的服务分支。
其中,分支标识用于标识服务分支,分支标识可以是分类预测任务所使用预测模型的标识、实例标识、算法标识等。
本公开实施例中针对分类预测任务设置有统一分类预测服务入口,在分类预测任务中携带分支标识,故从启动的分类预测服务中可以通过分支标识确定分类预测任务对应的服务分支。可选的,分类预测任务和分类预测服务可以预先约定好服务分支标识,以使分类预测任务确定出需要使用的分支服务对应的分支标识。
在步骤S13中,通过确定的服务分支,对分类预测任务进行预测。
本公开实施例进行分类任务预测时,根据分类预测任务携带的分支标识,从启动的分类预测服务中确定分类预测任务对应的服务分支,实现将针对不同需求分类预测任务的服务集成,提供统一的服务入口,提高分类任务预测的处理效率。
本公开实施例以下结合实际应用对本公开实施例涉及的分类任务预测方法的实施过程进行说明。
本公开实施例中,可以针对分类预测任务中包括的待分类预测对象进行批量预测。
其中,分类预测任务包括多个待分类预测对象时,可以通过分类预测任务对应的服务分支,对多个待分类预测对象进行批量预测。分类预测任务包括单个待分类预测对象时,可以通过对应的服务分支对单个待分类预测对象进行预测,为了提高效率,也可以将单个待分类预测对象转换为多个待分类预测对象进行批量预测。
一种实施方式中,分类预测任务为单预测任务时,为实现单预测任务本公开实施例中在通过分类预测服务,对分类预测任务进行批量预测之前,需要将单预测任务转换成批量预测任务。
为了提高预测速度,支持高并发能力,本公开实施例中充分利用GPU批量预测的特性,在对单预测任务进行预测时,将单预测任务自动转换成批量预测任务。
图2是根据本公开一示例实施例示出的一种将单个任务预测转换成批量预测的方法流程图。参阅图2所示,包括如下步骤。
在步骤S21中,为每个分类预测任务生成单个任务的标识。
本公开实施例中,可以对每个分类预测任务生成唯一的输入标识,例如用uuid表示。其中,可以利用相对应的编程工具包实现,例如,在python中可以调用uuid.uuid4()函数实现。
在步骤S22中,将标识添加到批量预测任务的待处理标识列表。
例如,添加uuid到待处理输入列表id_list。
在步骤S23中,遍历待处理标识列表,获取每个表项所对应分类预测任务需要处理的待分类预测对象。
其中,本公开实施例中可以通过遍历的方式获取id_list的内容。例如获取每个id_list中待处理的内容。获取到待处理的内容后,调用确定的分类预测服务,对待处理输入标识列表中的分类预测任务进行批量预测。
一种实施方式中,本公开实施例可以通过全局变量锁,对待处理输入标识列表进行加锁后调用批量预测通用接口进行批量预测。
在步骤S24中,通过服务分支,对获取的多个待分类预测对象进行批量预测。
本公开实施例中,通过将单个任务预测转换成批量预测的方法,可以实现高并发处理的功能。
本公开实施例中,批量预测服务具有能够承载的处理量。针对上述批量预测过程,在一次批量预测服务能够承载的处理量未满足,获取多个同分支标识分类预测任务的任务量,直到当前不存在同分支标识分类预测任务(也就是说,当前同一服务分支对应的分类预测任务总量未达到该服务分支能够承载的最大处理量,则可以在一次服务中将这些分类预测任务同时进行批量处理)。或者一次批量预测服务能够承载的任务量得到满足(也就是说,当前同一服务分支对应的分类预测任务总量超过该服务分支能够承载的最大处理量,则可以按照一次服务能够承载的处理量,在一次服务中同时批量处理这些分类预测任务中的部分),以便通过同服务分支进行批量预测。
其中,每个待分类预测对象设置有对应标识,该标识用于表征对应待分类预测对象所属分类预测任务,以及在所属分类预测任务中区别于其他待分类预测对象。当批量处理多个分类预测任务,而每个分类预测任务中的分类预测任务又包括多个分类预测对象时,则需要既标识分类预测对象所属分类预测任务,又在所属分类预测任务内对分类预测对象自身进行标识。多个分类预测任务中的分类预测任务包括单预测任务,则标识对象所属分类预测任务即可。
通过服务分支,对多个待分类预测对象进行预测时,可以获取多个同类型分类预测任务分别需要处理的多个待分类预测对象,通过服务分支,对获取的多个待分类预测对象进行批量预测。
一种实施方式中,本公开实施例中,完成批量预测之后,可以获取批量预测结果,确定批量预测结果各输入标识分别对应的预测结果。
其中,一示例中,本公开实施例对单预测任务获取批量预测结果,并将批量预测结果中的各预测结果与输入标识对应保存在全局预测结果中。本公开实施例中,预测结果与输入标识对应保存在全局预测结果中,可以实现根据uuid在全局预测结果respond_dict查找到预测结果并返回给不同分类预测任务分别对应的用户。
其中,一示例中,本公开实施例对单预测任务进行批量预测时若通过全局变量锁,对待处理输入标识列表进行加锁后调用批量预测通用接口进行批量预测,则在完成批量预测后,可以解锁待处理输入标识列表。例如,对全局变量lock进行解锁。
本公开实施例以下对通过服务分支,对获取的多个待分类预测对象进行批量预测的实施过程进行说明。
图3是根据一示例性实施例示出的一种通过服务分支对多个待分类预测对象进行批量预测的方法流程图,参与图3所示,包括如下步骤。
在步骤S31中,分别对多个待分类预测对象对应的文本内容进行分词,并将分词后的结果转换为分类预测任务的类型支持的输入特征。
本公开实施例中可以对输入的文本进行切分,将输入进行转换。常用的方式包括采用分词工具或者采用单个字符枚举的方式,可以根据实际的需求进行选择。将分词后的结果转换到模型允许的特征,常见的模型输入为切分的词在词表中的索引位置,因此需要根据词典进行转换。
在步骤S32中,将多个待分类预测对象分别对应的输入特征进行拼接处理,得到批量处理特征。
其中,分类预测任务为多个时,分别对多个分类预测任务对应的文本内容进行分词,并将分词后的结果转换为所述分类预测任务的类型对应的模型支持的输入特征。将多个分类预测任务分别对应的输入特征进行拼接处理,得到批量处理特征。
在步骤S33中,通过服务分支,对批量处理特征进行预测。
本公开实施例中,进行分类任务预测时,通过分类预测服务,针对单预测任务和批量预测任务进行批量预测,能够提高并发能力。
本公开实施例一种实施方式中,分类预测服务中可以包括多个不同的服务分支,为使不同服务分支的并行处理能力达到较优状态,可以是利用空闲的服务分支对分类预测任务进行预测。也就是说,本公开实施例提供的分类预测服务具有多个服务分支并发处理分类预测任务的能力。当有服务分支在为对应分类预测任务提供服务时,不影响其他服务分支接收自身的分类预测任务并提供服务。因此,当某服务分支空闲时,不管其他服务分支处于空闲状态还是提供服务状态,该空闲服务分支均可以为自身分类预测任务提供服务。换言之,本公开实施例中,响应于服务分支空闲,通过该空闲的服务分支,对分类预测任务进行预测。
本公开实施例中,在对分类预测任务进行批量预测之前,可以启动分类预测服务,读取对应配置文件以初始化需要批量预测的分类预测任务。其中,配置文件中包括有对分类预测任务进行批量预测的预测框架,该预测框架至少包括:通用分类预测接口的定义、分类预测服务支持模型分别对应的自定义分类预测接口的定义。
图4是根据一示例性实施例示出的一种读取配置文件启动分类预测服务的实施流程图。参阅图4所示,包括:
在步骤S41中,通过通用分类预测接口,对各模型的通用变量进行初始化,并进行对应的启动设置,以及对通用批量分类预测方法,和批量任务生成方法进行初始化。
在步骤S42中,通过各模型分别对应的自定义分类预测接口,对各模型的自定义变量进行初始化。
在步骤S43中,将各模型分别实例化,并为每个模型对应启动分支服务。
在步骤S44中,根据各模型分别对应的分支服务的分支标识生成模型词典。其中,模型词典用于表征分支标识和对应模型调用接口的对应关系。
其中,根据各模型分别对应的分支服务的分支标识生成模型词典可以采用图5所示的方式。参阅图5所示,包括如下步骤:
在步骤S441中,将各模型分别对应的分支服务的分支标识确定为主键。
其中,分支标识可以是实例化名称,模型名称等。分支标识是在进行模型定义以及分支服务查找的依据。
本公开实施例中,根据实例名称,从模型预测键值对得到相关预测类的定义方法,根据实际需求调用实际的预测方法,如单任务预测转批量预测的方法或者批量预测方法。
在步骤S442中,针对各模型中的每个模型,基于该模型定义,采用动态加载机制确定该模型实例化之后的调用接口。
其中,动态加载机制是Python提供的一种自动根据模型名称获取到类名的机制。其中,通过模型名得到对应的类名,通过对类实例化,得到调用接口,该接口对应地址可以作为值。
在步骤S443中,将主键和调用接口作为模型词典存储到模型预测键值对。
其中,将主键和值作为模型词典存到模型预测键值对,可以供用户进行调用时查找到相对应的预测模型。
本公开实施例中可以根据模型预测键值对,确定模型使用类的定义方法,并作为批量通用预测方法的函数体。
本公开实施例以下将对上述启动分类预测服务中涉及的配置文件的形成过程进行说明。
首先,本公开实施例中对能够实现对各分类预测任务统一进行批量预测的模型的预测框架进行说明。
本公开实施例中,模型的预测框架包括:通用分类预测接口的定义、所述分类预测服务支持模型分别对应的自定义分类预测接口的定义。其中,通用分类预测接口用于对模型的通用变量进行初始化,并进行对应的启动设置,以及对通用批量分类预测方法,和批量任务生成方法进行初始化。通用批量分类预测方法用于执行分类预测中通用的操作,例如:将文本形式的待预测对象转换为对应模型支持的输入变量,而由于每个模型的具体预测方法不同,各模型的预测方法部分可以由各模型分别对应的自定义分类预测接口来对应确定。批量任务生成方法用于将单个待分类预测对象转换为多个待分类预测对象进行批量预测,或者根据批量预测服务能够承载的处理量,确定一次服务中进行批量处理的预测对象。分类预测服务支持模型对应的自定义分类预测接口用于对模型的自定义变量进行初始化。
图6是根据一示例性实施例示出的一种预测框架设置方法的流程图,如图6所示预测框架设置方法包括以下步骤。
在步骤S51中,设置通用分类预测接口,以完成初始化函数的设置。其中,初始化函数用于完成通用变量赋值以及通用函数的启动设置。
本公开实施例中,初始化函数的通用变量可以包括批量预测的大小、标签id到标签字符串的映射文件等。
本公开实施例中设置的通用函数可以包括标签id到标签字符串的转换函数、全局变量锁lock初始化函数、待处理输入标识列表id_list初始化函数、全局预测结果respond_dict初始化函数等。
在步骤S52中,定义通用批量分类预测方法以及批量任务生成方法。
其中,通用批量分类预测方法的输入为批量输入文本列表,且在初始时,函数体为空(后续根据各模型分别对应的实现方法进行设置)。
本公开实施例中,通用批量分类预测方法可以理解为是一种通用的进行批量预测的方法函数predict_batch,用于处理不同模型的一些通用处理操作,例如:将文本形式的待预测对象转换为对应模型支持的输入变量。方法函数的输入为批量输入的文本列表,函数体内容为空,能够实现在编写实际模型的预测方法的时候需要根据模型进行适配改写。
其中,批量任务生成方法可以理解为是用于将单个待分类预测对象转换为多个待分类预测对象进行批量预测的方法,或者根据批量预测服务能够承载的处理量,确定一次服务中进行批量处理的预测对象。
在步骤S53中,设置分类预测服务支持模型对应的自定义分类预测接口,以完成对模型的自定义变量的初始化。
本公开实施例中通过设置分类预测服务支持模型对应的自定义分类预测接口,能够定义并初始化待预测的分类预测任务的自定义变量,提高分类任务预测的灵活性。
应用本公开实施例中上述涉及的预测框架,在进行分类任务预测时,可以调用通用分类预测接口,初始化分类预测任务的通用变量。并可以调用分类预测服务支持模型对应的自定义分类预测接口初始化分类预测任务的自定义变量。并且,本公开实施例中还可以调用通用分类预测接口,设置分类任务的批量预测服务。
本公开实施例中,针对实际的分类预测任务,分类预测服务支持模型对应的自定义分类预测接口继承自通用分类预测接口,初始化分类预测任务的通用变量。例如,图4所示,自定义的类PytextPredictor继承自高级的类BasePredictor,在初始化时,首先调用BasePredictor的初始化函数,传入参数批量预测的大小batch_size、标签id到标签字符串的映射文件map_json_file。
初始化分类预测任务的通用变量之后,可以调用分类预测服务支持模型对应的自定义分类预测接口,初始化分类预测任务的自定义变量。
本公开实施例中,针对实际的分类预测任务,可以根据本身的需要的变量进行自定义。例如图7所示,自定义的类PytextPredictor还可以针对自定义变量“predictor”和“max_seq_len”进行初始化。
一种实施方式中,本公开实施例中将上述预先定义的模型对分类预测任务进行批量预测的预测框架封装为配置文件。在启动分类预测服务时,读取配置文件到内存,并通过配置文件实现对分类预测服务的初始化。
本公开实施例中可以定义配置文件的格式以及内容。其中,配置文件的格式可用json、yaml格式。配置文件的主要内容可以包含模型名称以及模型的自定义参数变量等。
图8是根据该描述的一个实施例,在图8中定义了两个分支服务,分别为“ernie”和“bilstm”。不失一般性,以“ernie”为例,定义了其调用的模型的类型为“ERNIEPredictor”,该类具体的自定义参数包含“path”、“vocab_path”、“map_json_file”以及“use_gpu”参数,这些均为该模型预测所需要的自定义参数。而“bilstm”定义了另一个调用模型“PytextPredictor”,与“bilstm”定义的实例做对比,可以发现两个不同模型自定义参数并不完全相同,也就是每个模型可以根据具体的参数在配置中进行灵活定义。
本公开实施例中,启动分类预测服务,初始化各分支服务后,可以响应用户对分类任务的预测请求并进行批量预测。
本公开实施例获取到用户触发分类预测任务的预测请求后,可以基于预测请求,解析出待分类预测对象以及需要预测的待分类预测对象的文本内容。每个待分类预测对象设置有对应标识,该标识用于表征对应待分类预测对象所属分类预测任务。其中,分类预测对象的标识可以是实例名称,模型名称等。通过标识可以在启动的统一分类预测服务中确定出该分类预测任务对应的服务分支,并通过服务分支进行分类预测。一示例中,图9是一个用户请求,该用户请求中的待分类预测对象标识为模型名称。由图9可知,用户输入的文本内容在“text”字段中,请求的模型名称定义在mode1_name字段“bilstm”中。其中,bilstm可以理解为是待预测任务的分支标识,通过bilstm可以找到bilstm服务分支。例如,本公开实施例启动的分类预测服务包括图8所示的两个服务分支:ernie和bilstm。通过待分类预测对象的标识“bilstm”可以找到对应的服务分支为bilstm,利用服务分支bilstm对图9中text中包含的内容进行分类预测。
图10是一个相应的分类预测结果。图10中,预测的结果输出包含了两个字段,第一个字段为对每个文本预测的概率值,第二个为每个文本对应的分类的实际名称。
如前所述,本公开实施例中,启动分类预测服务,初始化后,可以通过分类预测服务中与分类预测任务对应的服务分支,对获取的多个待分类预测对象进行批量预测。
本公开实施例的一种实施方式中,可以对批量处理特征中的各分类预测任务对应的输入特征分别进行标识。根据所述多个分类预测任务分别对应的标识,从对所述多个分类预测任务进行批量预测的预测结果中,确定各分类预测任务分别对应的预测结果。本公开实施例中,确定了预测结果后,可以对预测结果进行字段解析,按照实例进行配对,进行http响应状态、内容的封装,并返回给用户。
根据本公开实施例提供的分类预测方法,可以实现统一的分类预测接口、自定义预测函数、支持高并发预测功能,可以提供统一的预测规范,具有较高的灵活性,增强不同应用场景的预测适配能力,自动完成预测方法转换,提高并发能力。
基于相同的构思,本公开实施例还提供一种分类预测装置。
可以理解的是,本公开实施例提供的分类预测装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。结合本公开实施例中所公开的各示例的单元及算法步骤,本公开实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同的方法来实现所描述的功能,但是这种实现不应认为超出本公开实施例的技术方案的范围。
图11是根据一示例性实施例示出的一种分类预测装置框图。参照图11,分类预测装置100包括确定单元101和预测单元102。
确定单元101,用于确定分类预测任务,并根据分类预测任务携带的分支标识,从启动的分类预测服务中确定分类预测任务对应的服务分支。预测单元102,用于通过服务分支,对分类预测任务进行预测。
一种实施方式中,分类预测任务包括多个待分类预测对象。
预测单元102通过服务分支,对多个待分类预测对象进行批量预测。
另一种实施方式中,分类预测任务包括单个待分类预测对象。
预测单元102还用于:为每个分类预测任务生成单个任务的标识,并将标识添加到批量预测任务的待处理标识列表。
预测单元102遍历待处理标识列表,获取每个表项所对应分类预测任务需要处理的待分类预测对象。通过服务分支,对获取的多个待分类预测对象进行批量预测。
又一种实施方式中,预测单元102还用于:通过服务分支,对分类预测任务进行批量预测之前,响应于一次批量预测服务能够承载的处理量未满足,获取多个同分支标识分类预测任务的任务量,直到当前不存在同分支标识分类预测任务,或者一次批量预测服务能够承载的任务量得到满足。
预测单元102采用如下方式通过服务分支,对多个待分类预测对象进行预测:
获取多个同类型分类预测任务分别需要处理的多个待分类预测对象。其中,每个待分类预测对象设置有对应标识,标识用于表征对应待分类预测对象所属分类预测任务,以及在所属分类预测任务中区别于其他待分类预测对象。通过服务分支,对获取的多个待分类预测对象进行批量预测。
又一种实施方式中,确定单元101,还用于:在预测单元102进行批量预测之后,获取批量预测结果,从批量预测结果中确定各标识分别对应的预测结果。
又一种实施方式中,预测单元102分别对多个待分类预测对象对应的文本内容进行分词,并将分词后的结果转换为分类预测任务的类型支持的输入特征。预测单元102将多个待分类预测对象分别对应的输入特征进行拼接处理,得到批量处理特征,通过服务分支,对批量处理特征进行预测。
又一种实施方式中,预测单元102采用如下方式通过服务分支,对分类预测任务进行预测:响应于服务分支空闲,通过服务分支,对分类预测任务进行预测。
又一种实施方式中,分类预测装置100还包括启动单元103,启动单元103用于:
读取配置文件,启动分类预测服务。其中,配置文件包括:对分类预测任务进行批量预测的预测框架。预测框架至少包括:通用分类预测接口的定义、分类预测服务支持模型分别对应的自定义分类预测接口的定义。
又一种实施方式中,启动单元103采用如下方式读取配置文件,启动分类预测服务:
通过通用分类预测接口,对各模型的通用变量进行初始化,并进行对应的启动设置。以及对通用批量分类预测装置,和批量任务生成装置进行初始化。通过各模型分别对应的自定义分类预测接口,对各模型的自定义变量进行初始化。并将各模型分别实例化,并为每个模型对应启动分支服务。根据各模型分别对应的分支服务的分支标识生成模型词典,模型词典用于表征分支标识和对应模型调用接口的对应关系。
又一种实施方式中,启动单元103采用如下方式根据各模型分别对应的分支服务的分支标识生成模型词典:
将各模型分别对应的分支服务的分支标识确定为主键。针对各模型中的每个模型,基于该模型定义,采用动态加载机制确定该模型实例化之后的调用接口。将主键和调用接口作为模型词典存储到模型预测键值对。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图12是根据一示例性实施例示出的一种用于图像清晰度检测的装置200的框图。例如,装置200可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图12,装置200可以包括以下一个或多个组件:处理组件202,存储器204,电力组件206,多媒体组件208,音频组件210,输入/输出(I/O)的接口212,传感器组件214,以及通信组件216。
处理组件202通常控制装置200的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件202可以包括一个或多个处理器220来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件202可以包括一个或多个模块,便于处理组件202和其他组件之间的交互。例如,处理组件202可以包括多媒体模块,以方便多媒体组件208和处理组件202之间的交互。
存储器204被配置为存储各种类型的数据以支持在设备200的操作。这些数据的示例包括用于在装置200上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器204可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件206为装置200的各种组件提供电力。电力组件206可以包括电源管理系统,一个或多个电源,及其他与为装置200生成、管理和分配电力相关联的组件。
多媒体组件208包括在所述装置200和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件208包括一个前置摄像头和/或后置摄像头。当设备200处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件210被配置为输出和/或输入音频信号。例如,音频组件210包括一个麦克风(MIC),当装置200处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器204或经由通信组件216发送。在一些实施例中,音频组件210还包括一个扬声器,用于输出音频信号。
I/O接口212为处理组件202和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件214包括一个或多个传感器,用于为装置200提供各个方面的状态评估。例如,传感器组件214可以检测到设备200的打开/关闭状态,组件的相对定位,例如所述组件为装置200的显示器和小键盘,传感器组件214还可以检测装置200或装置200一个组件的位置改变,用户与装置200接触的存在或不存在,装置200方位或加速/减速和装置200的温度变化。传感器组件214可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件214还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件214还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件216被配置为便于装置200和其他设备之间有线或无线方式的通信。装置200可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件216经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件216还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置200可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器204,上述指令可由装置200的处理器220执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
进一步可以理解的是,本公开中“多个”是指两个或两个以上,其它量词与之类似。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
进一步可以理解的是,术语“第一”、“第二”等用于描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开,并不表示特定的顺序或者重要程度。实际上,“第一”、“第二”等表述完全可以互换使用。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。
进一步可以理解的是,本公开实施例中尽管在附图中以特定的顺序描述操作,但是不应将其理解为要求按照所示的特定顺序或是串行顺序来执行这些操作,或是要求执行全部所示的操作以得到期望的结果。在特定环境中,多任务和并行处理可能是有利的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (19)

1.一种分类预测方法,其特征在于,包括:
确定分类预测任务;
根据所述分类预测任务携带的分支标识,从启动的分类预测服务中确定所述分类预测任务对应的服务分支;
通过所述服务分支,对所述分类预测任务进行批量预测或单一预测;
通过所述服务分支,对所述分类预测任务进行批量预测,包括:
分别对多个待分类预测对象对应的文本内容进行分词,并将分词后的结果转换为所述分类预测任务的类型支持的输入特征;
将多个待分类预测对象分别对应的输入特征进行拼接处理,得到批量处理特征;
通过所述服务分支,对所述批量处理特征进行预测;
其中,所述分类预测任务包括单个待分类预测对象;
所述方法还包括:
为每个分类预测任务生成单个任务的标识,并将所述标识添加到批量预测任务的待处理标识列表;
遍历所述待处理标识列表,获取每个表项所对应分类预测任务需要处理的待分类预测对象。
2.根据权利要求1所述的方法,其特征在于,所述分类预测任务包括多个待分类预测对象。
3.根据权利要求1或2所述的方法,其特征在于,通过所述服务分支,对所述分类预测任务进行批量预测之前,所述方法还包括:
响应于一次批量预测服务能够承载的处理量未满足,获取多个同分支标识分类预测任务的任务量,直到当前不存在同分支标识分类预测任务,或者一次批量预测服务能够承载的任务量得到满足;
获取所述多个同类型分类预测任务分别需要处理的多个待分类预测对象;
其中,每个待分类预测对象设置有对应标识,所述标识用于表征对应待分类预测对象所属分类预测任务,以及在所属分类预测任务中区别于其他待分类预测对象。
4.根据权利要求3所述的方法,其特征在于,在进行批量预测之后,所述方法还包括:
获取批量预测结果;
从所述批量预测结果中确定各标识分别对应的预测结果。
5.根据权利要求1所述的方法,其特征在于,通过所述服务分支,对所述分类预测任务进行批量预测或单一预测,包括:
响应于所述服务分支空闲,通过所述服务分支,对所述分类预测任务进行批量预测或单一预测。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
读取配置文件,启动所述分类预测服务;
其中,所述配置文件包括:对分类预测任务进行批量预测的预测框架;
所述预测框架至少包括:通用分类预测接口的定义、所述分类预测服务支持模型分别对应的自定义分类预测接口的定义。
7.根据权利要求6所述的方法,其特征在于,读取配置文件,启动所述分类预测服务,包括:
通过所述通用分类预测接口,对所述各模型的通用变量进行初始化,并进行对应的启动设置;以及对通用批量分类预测方法,和批量任务生成方法进行初始化;
通过所述各模型分别对应的自定义分类预测接口,对所述各模型的自定义变量进行初始化;并
将各模型分别实例化,并为每个模型对应启动分支服务;
根据各模型分别对应的分支服务的分支标识生成模型词典,所述模型词典用于表征所述分支标识和对应模型调用接口的对应关系。
8.根据权利要求7所述的方法,其特征在于,根据各模型分别对应的分支服务的分支标识生成模型词典,包括:
将各模型分别对应的分支服务的分支标识确定为主键;
针对所述各模型中的每个模型,基于该模型定义,采用动态加载机制确定该模型实例化之后的调用接口;
将所述主键和所述调用接口作为模型词典存储到模型预测键值对。
9.一种分类预测装置,其特征在于,包括:
确定单元,用于确定分类预测任务,并根据所述分类预测任务携带的分支标识,从启动的分类预测服务中确定所述分类预测任务对应的服务分支;
预测单元,用于通过所述服务分支,对所述分类预测任务进行批量预测或单一预测;
所述预测单元采用如下方式通过所述服务分支,对所述分类预测任务进行批量预测:
分别对多个待分类预测对象对应的文本内容进行分词,并将分词后的结果转换为所述分类预测任务的类型支持的输入特征;
将多个待分类预测对象分别对应的输入特征进行拼接处理,得到批量处理特征;
通过所述服务分支,对所述批量处理特征进行预测;
所述预测单元还用于:为每个分类预测任务生成单个任务的标识,并将所述标识添加到批量预测任务的待处理标识列表,遍历所述待处理标识列表,获取每个表项所对应分类预测任务需要处理的待分类预测对象。
10.根据权利要求9所述的装置,其特征在于,所述分类预测任务包括多个待分类预测对象。
11.根据权利要求9所述的装置,其特征在于,所述分类预测任务包括单个待分类预测对象。
12.根据权利要求10或11所述的装置,其特征在于,所述预测单元还用于:通过所述服务分支,对所述分类预测任务进行批量预测之前,响应于一次批量预测服务能够承载的处理量未满足,获取多个同分支标识分类预测任务的任务量,直到当前不存在同分支标识分类预测任务,或者一次批量预测服务能够承载的任务量得到满足;
获取所述多个同类型分类预测任务分别需要处理的多个待分类预测对象;
其中,每个待分类预测对象设置有对应标识,所述标识用于表征对应待分类预测对象所属分类预测任务,以及在所属分类预测任务中区别于其他待分类预测对象。
13.根据权利要求12所述的装置,其特征在于,所述确定单元,还用于:
在所述预测单元进行批量预测之后,获取批量预测结果,从所述批量预测结果中确定各标识分别对应的预测结果。
14.根据权利要求9所述的装置,其特征在于,所述预测单元采用如下方式通过所述服务分支,对所述分类预测任务进行批量预测或单一:
响应于所述服务分支空闲,通过所述服务分支,对所述分类预测任务进行批量预测或单一预测。
15.根据权利要求9所述的装置,其特征在于,所述装置还包括启动单元,所述启动单元用于:
读取配置文件,启动所述分类预测服务;
其中,所述配置文件包括:对分类预测任务进行批量预测的预测框架;
所述预测框架至少包括:通用分类预测接口的定义、所述分类预测服务支持模型分别对应的自定义分类预测接口的定义。
16.根据权利要求15所述的装置,其特征在于,所述启动单元采用如下方式读取配置文件,启动所述分类预测服务:
通过所述通用分类预测接口,对所述各模型的通用变量进行初始化,并进行对应的启动设置;以及对通用批量分类预测装置,和批量任务生成装置进行初始化;
通过所述各模型分别对应的自定义分类预测接口,对所述各模型的自定义变量进行初始化;并
将各模型分别实例化,并为每个模型对应启动分支服务;
根据各模型分别对应的分支服务的分支标识生成模型词典,所述模型词典用于表征所述分支标识和对应模型调用接口的对应关系。
17.根据权利要求16所述的装置,其特征在于,根据各模型分别对应的分支服务的分支标识生成模型词典,包括:
将各模型分别对应的分支服务的分支标识确定为主键;
针对所述各模型中的每个模型,基于该模型定义,采用动态加载机制确定该模型实例化之后的调用接口;
将所述主键和所述调用接口作为模型词典存储到模型预测键值对。
18.一种分类预测装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1至8中任意一项所述的分类预测方法。
19.一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行权利要求1至8中任意一项所述的分类预测方法。
CN202010117294.1A 2020-02-25 2020-02-25 一种分类预测方法、装置及存储介质 Active CN111339298B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010117294.1A CN111339298B (zh) 2020-02-25 2020-02-25 一种分类预测方法、装置及存储介质
US16/990,807 US20210264258A1 (en) 2020-02-25 2020-08-11 Classification prediction method and apparatus, and storage medium
EP20192715.9A EP3872648A1 (en) 2020-02-25 2020-08-25 Method and apparatus for classification prediction, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010117294.1A CN111339298B (zh) 2020-02-25 2020-02-25 一种分类预测方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN111339298A CN111339298A (zh) 2020-06-26
CN111339298B true CN111339298B (zh) 2024-04-09

Family

ID=71181836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010117294.1A Active CN111339298B (zh) 2020-02-25 2020-02-25 一种分类预测方法、装置及存储介质

Country Status (3)

Country Link
US (1) US20210264258A1 (zh)
EP (1) EP3872648A1 (zh)
CN (1) CN111339298B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7380110B1 (en) * 2003-09-11 2008-05-27 Sun Microsystems, Inc. Branch prediction structure with branch direction entries that share branch prediction qualifier entries
US8370280B1 (en) * 2011-07-14 2013-02-05 Google Inc. Combining predictive models in predictive analytical modeling
CN106575246A (zh) * 2014-06-30 2017-04-19 亚马逊科技公司 机器学习服务
WO2019041516A1 (zh) * 2017-08-29 2019-03-07 平安科技(深圳)有限公司 屏幕状态自动检测机器人、方法及计算机可读存储介质
CN110365503A (zh) * 2018-03-26 2019-10-22 华为技术有限公司 一种指标确定方法及其相关设备
CN110414187A (zh) * 2019-07-03 2019-11-05 北京百度网讯科技有限公司 模型安全交付自动化的系统及其方法
CN110826799A (zh) * 2019-11-05 2020-02-21 广州虎牙科技有限公司 业务预测方法、装置、服务器及可读存储介质
CN110825381A (zh) * 2019-09-29 2020-02-21 南京大学 一种结合源代码语义与语法特征的基于CNN的bug定位方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9269054B1 (en) * 2011-11-09 2016-02-23 BigML, Inc. Methods for building regression trees in a distributed computing environment
CA3128629A1 (en) * 2015-06-05 2016-07-28 C3.Ai, Inc. Systems and methods for data processing and enterprise ai applications
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US11126789B2 (en) * 2017-12-21 2021-09-21 Battelle Energy Alliance, Llc Method to convert a written procedure to structured data, and related systems and methods
US20190236485A1 (en) * 2018-01-26 2019-08-01 Cisco Technology, Inc. Orchestration system for distributed machine learning engines
US11221876B2 (en) * 2018-12-30 2022-01-11 Paypal, Inc. Scheduling applications in CPU and GPU hybrid environments

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7380110B1 (en) * 2003-09-11 2008-05-27 Sun Microsystems, Inc. Branch prediction structure with branch direction entries that share branch prediction qualifier entries
US8370280B1 (en) * 2011-07-14 2013-02-05 Google Inc. Combining predictive models in predictive analytical modeling
CN106575246A (zh) * 2014-06-30 2017-04-19 亚马逊科技公司 机器学习服务
WO2019041516A1 (zh) * 2017-08-29 2019-03-07 平安科技(深圳)有限公司 屏幕状态自动检测机器人、方法及计算机可读存储介质
CN110365503A (zh) * 2018-03-26 2019-10-22 华为技术有限公司 一种指标确定方法及其相关设备
CN110414187A (zh) * 2019-07-03 2019-11-05 北京百度网讯科技有限公司 模型安全交付自动化的系统及其方法
CN110825381A (zh) * 2019-09-29 2020-02-21 南京大学 一种结合源代码语义与语法特征的基于CNN的bug定位方法
CN110826799A (zh) * 2019-11-05 2020-02-21 广州虎牙科技有限公司 业务预测方法、装置、服务器及可读存储介质

Also Published As

Publication number Publication date
CN111339298A (zh) 2020-06-26
US20210264258A1 (en) 2021-08-26
EP3872648A1 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
CN107370772B (zh) 账号登录方法、装置及计算机可读存储介质
CN108038102B (zh) 表情图像的推荐方法、装置、终端及存储介质
CN111651263A (zh) 移动终端的资源处理方法、装置、计算机设备及存储介质
CN108764003B (zh) 图片识别方法及装置
CN106547547B (zh) 数据采集方法及装置
CN109710259B (zh) 一种数据处理方法、装置及存储介质
CN113065591B (zh) 目标检测方法及装置、电子设备和存储介质
CN111078356A (zh) Gpu集群资源控制系统、方法、装置、设备及存储介质
CN107402767B (zh) 显示推送消息的方法和装置
CN112183953A (zh) 客服资源的分配方法、装置、电子设备和存储介质
CN110968362A (zh) 应用运行方法、装置及存储介质
CN111090463B (zh) 资源标识方法及装置、计算机存储介质
CN109885360B (zh) 一种数据处理方法、装置及存储介质
CN112328330A (zh) iOS组件的调用方法、装置、中间件、电子设备及介质
CN110221813B (zh) 应用的数据连接建立方法、装置、存储介质和电子设备
CN111783752A (zh) 人脸识别方法及装置、电子设备和存储介质
CN109976872B (zh) 数据处理方法、装置、电子设备及存储介质
CN111339298B (zh) 一种分类预测方法、装置及存储介质
CN108563487B (zh) 用户界面的更新方法及装置
CN107368562B (zh) 页面的显示方法、装置及终端
CN109032583B (zh) 数据交互方法及装置
US20200356977A1 (en) Method and device for controlling application and computer-readable storage medium
CN112631695A (zh) 一种数据校验方法、装置、电子设备及存储介质
CN111667827A (zh) 应用程序的语音控制方法、装置及存储介质
CN111104110A (zh) 全局样式共享方法、全局样式共享装置及电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information

Address after: 100085 unit C, building C, lin66, Zhufang Road, Qinghe, Haidian District, Beijing

Applicant after: Beijing Xiaomi pinecone Electronic Co.,Ltd.

Address before: 100085 unit C, building C, lin66, Zhufang Road, Qinghe, Haidian District, Beijing

Applicant before: BEIJING PINECONE ELECTRONICS Co.,Ltd.

CB02 Change of applicant information
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant