CN108257077A - 基于gpu的聚类数据的处理方法、系统及计算设备 - Google Patents

基于gpu的聚类数据的处理方法、系统及计算设备 Download PDF

Info

Publication number
CN108257077A
CN108257077A CN201810002464.4A CN201810002464A CN108257077A CN 108257077 A CN108257077 A CN 108257077A CN 201810002464 A CN201810002464 A CN 201810002464A CN 108257077 A CN108257077 A CN 108257077A
Authority
CN
China
Prior art keywords
gpu
cluster data
ponds
resource
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810002464.4A
Other languages
English (en)
Other versions
CN108257077B (zh
Inventor
赵猛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Intellifusion Technologies Co Ltd
Original Assignee
Shenzhen Intellifusion Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Intellifusion Technologies Co Ltd filed Critical Shenzhen Intellifusion Technologies Co Ltd
Priority to CN201810002464.4A priority Critical patent/CN108257077B/zh
Publication of CN108257077A publication Critical patent/CN108257077A/zh
Application granted granted Critical
Publication of CN108257077B publication Critical patent/CN108257077B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及计算机数据处理技术领域,公开了一种基于GPU的聚类数据的处理方法、系统及计算设备。所述基于GPU的聚类数据的处理方法,包括:获取请求聚类处理的聚类数据;预估获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源;当判断需要调用GPU池的GPU资源时,根据聚类数据的聚类参数分配GPU池的GPU资源;以及调用分配的GPU池的GPU资源对聚类数据进行聚类计算。本发明的技术方案综合考虑可用的GPU资源、聚类数据量和聚类参数形成最优的GPU资源分配方案,调取GPU池的GPU资源代替传统的CPU资源来处理复杂的聚类数据,提升了计算设备的系统性能、聚类数据处理的工作效率和用户体验。

Description

基于GPU的聚类数据的处理方法、系统及计算设备
技术领域
本发明涉及计算机数据处理技术领域,尤其涉及一种基于GPU的聚类数据的处理方法、系统及计算设备。
背景技术
现有计算设备通常通过中央处理器CPU进行数据运算处理,但CPU在处理复杂的聚类数据比如海量的人脸特征数据时要进行多遍甚至指数级的聚类计算,会耗费大量系统资源,且聚类数据处理速度较慢而耗费大量处理时间,导致计算设备的系统性能、聚类数据处理的工作效率和用户体验不佳。
发明内容
鉴于此,本发明提供一种基于GPU的聚类数据的处理方法、系统及计算设备,解决现有计算设备在处理聚类数据时系统性能、工作效率和用户体验不佳的技术问题。
根据本发明的一个实施例,提供一种基于GPU的聚类数据的处理方法,包括:获取请求聚类处理的聚类数据;预估获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源;当判断需要调用GPU池的GPU资源时,根据聚类数据的聚类参数分配GPU池的GPU资源;以及调用分配的GPU池的GPU资源对聚类数据进行聚类计算。
优选的,所述根据聚类数据的聚类参数分配GPU池的GPU资源,包括:根据聚类数据的聚类参数计算单次聚类数据处理的GPU资源和计算时间;根据预估的GPU池的剩余资源、计算的GPU资源和计算时间计算可分配的GPU池的GPU资源;以及分配计算可分配的GPU池的GPU资源。
优选的,在所述调用分配的GPU池的GPU资源对聚类数据进行聚类计算之后,还包括:将聚类计算的结果按照预设策略分发给上层应用。
优选的,在所述获取请求聚类处理的聚类数据之后,还包括:对获取的聚类数据进行标准化处理。
优选的,所述聚类参数包括聚类算法名称、聚类数据维度和聚类计算的时间要求。
根据本发明的另一个实施例,还提供一种基于GPU的聚类数据的处理系统,包括:数据获取模块,用于获取请求聚类处理的聚类数据;预估判断模块,用于预估所述数据获取模块获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源;GPU分配模块,用于当所述预估判断模块判断需要调用GPU池的GPU资源时,根据所述数据获取模块获取的聚类数据的聚类参数分配GPU池的GPU资源;以及聚类计算模块,用于调用所述GPU分配模块分配的GPU池的GPU资源对聚类数据进行聚类计算。
优选的,所述GPU分配模块包括:第一计算单元,用于根据聚类数据的聚类参数计算单次聚类数据处理的GPU资源和计算时间;第二计算单元,用于根据所述预估判断模块预估的GPU池的剩余资源、所述第一计算单元计算的GPU资源和计算时间计算可分配的GPU池的GPU资源;以及分配单元,用于分配所述第二计算单元计算可分配的GPU资源。
优选的,所述基于GPU的聚类数据的处理系统还包括结果分发模块,用于将所述聚类计算模块聚类计算的结果按照预设策略分发给上层应用。
优选的,所述基于GPU的聚类数据的处理系统还包括数据标准化模块,用于对所述数据获取模块获取的聚类数据进行标准化处理。
根据本发明的又一个实施例,提供一种计算设备,所述计算设备包括上述的基于GPU的聚类数据的处理系统以及GPU池。
本发明提供的基于GPU的聚类数据的处理方法、系统及计算设备,预估获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源,当预估GPU池的剩余资源足够处理聚类数据时,综合考虑可用GPU资源、聚类数据量和聚类参数形成最优的GPU资源分配方案,调取GPU池的GPU资源代替传统的CPU资源来处理复杂的聚类数据,并支持多用户同时操作,提升了计算设备的系统性能、聚类数据处理的工作效率和用户体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例中基于GPU的聚类数据的处理方法的流程示意图;
图2为本发明一个实施例中分配GPU资源的流程示意图;
图3为本发明另一个实施例中基于GPU的聚类数据的处理方法的流程示意图;
图4为本发明一个实施例中基于GPU的聚类数据的处理系统的结构示意图;
图5为本发明一个实施例中GPU分配模块的结构示意图;
图6为本发明另一个实施例中基于GPU的聚类数据的处理系统的结构示意图;
图7为本发明再一个实施例中计算设备的结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明的技术方案作进一步更详细的描述。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以结合具体情况理解上述术语在本发明中的具体含义。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
图1为本发明一个实施例中基于GPU的聚类数据的处理方法的流程示意图。如图所示,所述基于GPU的聚类数据的处理方法,包括:
步骤S101:获取请求聚类处理的聚类数据。
在计算设备需要进行大量数据的聚类计算时,首先获取聚类处理请求获取聚类数据比如人脸特征数据。所述聚类数据可支持多种协议,比如常规基于请求回应式的超文本传输协议、基于消息队列的高级消息队列协议、基于文件的文件传输协议和常规的数据库连接协议等。所述聚类数据包括聚类参数比如聚类算法名称、聚类数据维度和聚类计算的时间要求等。
步骤S102:预估获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源。
在获取到请求聚类处理的聚类数据后,预估获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源。具体的,根据聚类数据的数据量和聚类参数预估聚类数据处理所需的资源需求,并实时预估GPU池内剩余的GPU资源,当预估GPU池的剩余资源能够满足预估的聚类数据的资源需求时,可判断需要调用GPU池的GPU资源进行聚类数据处理;当预估GPU池的剩余资源不能够满足预估的聚类数据的资源需求时,可判断不需要调用GPU池的GPU资源进行聚类数据处理。在本实施例中,当预估GPU池的剩余资源足够处理聚类数据时,考虑调取GPU池的GPU资源代替传统的CPU资源来处理复杂的聚类数据,并支持多用户同时操作,提升了计算设备的系统性能、聚类数据处理的工作效率和用户体验。
步骤S103:当判断需要调用GPU池的GPU资源时,根据聚类数据的聚类参数分配GPU池的GPU资源。
当判断需要调用GPU池的GPU资源时,可根据聚类数据的聚类参数分配GPU池的GPU资源;当判断不需要调用GPU池的GPU资源时,可直接调取计算设备的CPU资源进行聚类数据处理。参见图2,所述根据聚类数据的聚类参数分配GPU池的GPU资源,包括:
步骤S201:根据聚类数据的聚类参数计算单次聚类数据处理的GPU资源和计算时间。
步骤S202:根据预估的GPU池的剩余资源、计算的GPU资源和计算时间计算可分配的GPU池的GPU资源。
步骤S203:分配计算可分配的GPU池的GPU资源。
在本实施例中,首先根据聚类数据的聚类参数计算单次聚类数据处理的GPU资源和计算时间,然后根据预估的GPU池的剩余资源、计算的GPU资源和计算时间计算可分配的GPU池的GPU资源,最终分配计算可分配的GPU池的GPU资源,综合考虑可用GPU资源、单次聚类数据处理需要的GPU资源和计算时间,以形成最优的GPU资源分配方案,提升了GPU资源利用率、聚类数据处理的工作效率和用户体验。
步骤S104:调用分配的GPU池的GPU资源对聚类数据进行聚类计算。
在分配到计算可分配的GPU池的GPU资源后,调用分配的GPU池的GPU资源对聚类数据进行聚类计算,综合考虑可用GPU资源、聚类数据量和聚类参数形成最优的GPU资源分配方案,调取GPU池的GPU资源代替传统的CPU资源来处理复杂的聚类数据,并支持多用户同时操作,提升了计算设备的系统性能、聚类数据处理的工作效率和用户体验。
图3为本发明另一个实施例中基于GPU的聚类数据的处理方法的流程示意图。如图所示,所述基于GPU的聚类数据的处理方法,包括:
步骤S301:获取请求聚类处理的聚类数据。
步骤S302:对获取的聚类数据进行标准化处理。
步骤S303:预估获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源。
步骤S304:当判断需要调用GPU池的GPU资源时,根据聚类数据的聚类参数分配GPU池的GPU资源。
步骤S305:调用分配的GPU池的GPU资源对聚类数据进行聚类计算。
步骤S306:将聚类计算的结果按照预设策略分发给上层应用。
在本实施例中,在获取请求聚类处理的聚类数据后,进一步对获取的聚类数据进行标准化处理,以形成标准化的聚类数据和优化聚类数据存储结构,提升了聚类数据处理的工作效率,同时在调用GPU资源进行聚类计算后,将聚类计算的结果按照预设策略分发给上层应用,方便上层应用快速调用聚类计算结果,提升了计算设备的系统性能、聚类数据处理的工作效率和用户体验。
图4为本发明一个实施例中基于GPU的聚类数据的处理系统的结构示意图。如图所示,在上述方法实施例的基础上,本实施例提供的基于GPU的聚类数据的处理系统100包括数据获取模块10、预估判断模块20、GPU分配模块30和聚类计算模块40。
在计算设备需要进行大量数据的聚类计算时,所述数据获取模块10首先获取聚类处理请求获取聚类数据比如人脸特征数据。所述聚类数据可支持多种协议,比如常规基于请求回应式的超文本传输协议、基于消息队列的高级消息队列协议、基于文件的文件传输协议和常规的数据库连接协议等。所述聚类数据包括聚类参数比如聚类算法名称、聚类数据维度和聚类计算的时间要求等。
在所述数据获取模块10获取到请求聚类处理的聚类数据后,所述预估判断模块20预估获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源。具体的,所述预估判断模块20根据聚类数据的数据量和聚类参数预估聚类数据处理所需的资源需求,并实时预估GPU池内剩余的GPU资源,当预估GPU池的剩余资源能够满足预估的聚类数据的资源需求时,可判断需要调用GPU池的GPU资源进行聚类数据处理;当预估GPU池的剩余资源不能够满足预估的聚类数据的资源需求时,可判断不需要调用GPU池的GPU资源进行聚类数据处理。在本实施例中,当所述预估判断模块20预估GPU池的剩余资源足够处理聚类数据时,可考虑调取GPU池的GPU资源代替传统的CPU资源来处理复杂的聚类数据,提升了计算设备的系统性能、聚类数据处理的工作效率和用户体验。
当所述预估判断模块20判断需要调用GPU池的GPU资源时,所述GPU分配模块30可根据聚类数据的聚类参数分配GPU池的GPU资源;当所述预估判断模块20判断不需要调用GPU池的GPU资源时,可直接调取计算设备的CPU资源进行聚类数据处理。参见图5,所述GPU分配模块30,包括第一计算单元310、第二计算单元320和分配单元330。
在本实施例中,所述第一计算单元310根据聚类数据的聚类参数计算单次聚类数据处理的GPU资源和计算时间,所述第二计算单元320根据所述预估判断模块20预估的GPU池的剩余资源、所述第一计算单元310计算的GPU资源和计算时间计算可分配的GPU池的GPU资源,最终所述分配单元330分配所述第二计算单元320计算可分配的GPU池的GPU资源,综合考虑可用GPU资源、单次聚类数据处理需要的GPU资源和计算时间,以形成最优的GPU资源分配方案,提升了GPU资源利用率、聚类数据处理的工作效率和用户体验。
在所述GPU分配模块30分配到计算可分配的GPU池的GPU资源后,所述聚类计算模块40调用所述GPU分配模块30分配的GPU池的GPU资源对聚类数据进行聚类计算,综合考虑可用GPU资源、聚类数据量和聚类参数形成最优的GPU资源分配方案,调取GPU池的GPU资源代替传统的CPU资源来处理复杂的聚类数据,并支持多用户同时操作,提升了计算设备的系统性能、聚类数据处理的工作效率和用户体验。
参见图6,在本发明另一个实施例中,所述基于GPU的聚类数据的处理系统100包括数据获取模块10、预估判断模块20、GPU分配模块30、聚类计算模块40、数据标准化模块50和结果分发模块60。
在本实施例中,在所述数据获取模块10获取请求聚类处理的聚类数据后,所述数据标准化模块50进一步对所述数据获取模块10获取的聚类数据进行标准化处理,以形成标准化的聚类数据和优化聚类数据存储结构,提升了聚类数据处理的工作效率,同时在所述聚类计算模块40调用GPU资源进行聚类计算后,所述结果分发模块60将聚类计算的结果按照预设策略分发给上层应用,方便上层应用快速调用聚类计算结果,提升了计算设备的系统性能、聚类数据处理的工作效率和用户体验。
图7为本发明再一个实施例中计算设备的结构示意图。如图所示,所述计算设备200包括上述实施例中所述的基于GPU的聚类数据的处理系统100以及GPU池300。所述计算设备200为可进行数据运算和处理的电子设备比如计算机,所述GPU池300由至少一个GPU组成。所述计算设备200内置中央处理器CPU、GPU池300和基于GPU的聚类数据的处理系统100,在需要进行聚类数据处理时,所述基于GPU的聚类数据的处理系统100综合考虑可用所述GPU池300的GPU资源、聚类数据量和聚类参数形成最优的GPU资源分配方案,调取所述GPU池300的GPU资源代替传统的CPU资源来处理复杂的聚类数据,并支持多用户同时操作,提升了计算设备200的系统性能、聚类数据处理的工作效率和用户体验。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (10)

1.一种基于GPU的聚类数据的处理方法,其特征在于,包括:
获取请求聚类处理的聚类数据;
预估获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源;
当判断需要调用GPU池的GPU资源时,根据聚类数据的聚类参数分配GPU池的GPU资源;以及
调用分配的GPU池的GPU资源对聚类数据进行聚类计算。
2.根据权利要求1所述的基于GPU的聚类数据的处理方法,其特征在于,所述根据聚类数据的聚类参数分配GPU池的GPU资源,包括:
根据聚类数据的聚类参数计算单次聚类数据处理的GPU资源和计算时间;
根据预估的GPU池的剩余资源、计算的GPU资源和计算时间计算可分配的GPU池的GPU资源;以及
分配计算可分配的GPU池的GPU资源。
3.根据权利要求1所述的基于GPU的聚类数据的处理方法,其特征在于,在所述调用分配的GPU池的GPU资源对聚类数据进行聚类计算之后,还包括:
将聚类计算的结果按照预设策略分发给上层应用。
4.根据权利要求1所述的基于GPU的聚类数据的处理方法,其特征在于,在所述获取请求聚类处理的聚类数据之后,还包括:
对获取的聚类数据进行标准化处理。
5.根据权利要求1所述的基于GPU的聚类数据的处理方法,其特征在于,所述聚类参数包括聚类算法名称、聚类数据维度和聚类计算的时间要求。
6.一种基于GPU的聚类数据的处理系统,其特征在于,包括:
数据获取模块,用于获取请求聚类处理的聚类数据;
预估判断模块,用于预估所述数据获取模块获取的聚类数据的资源需求和GPU池的剩余资源,以判断是否需要调用GPU池的GPU资源;
GPU分配模块,用于当所述预估判断模块判断需要调用GPU池的GPU资源时,根据所述数据获取模块获取的聚类数据的聚类参数分配GPU池的GPU资源;以及
聚类计算模块,用于调用所述GPU分配模块分配的GPU池的GPU资源对聚类数据进行聚类计算。
7.根据权利要求6所述的基于GPU的聚类数据的处理系统,其特征在于,所述GPU分配模块包括:
第一计算单元,用于根据聚类数据的聚类参数计算单次聚类数据处理的GPU资源和计算时间;
第二计算单元,用于根据所述预估判断模块预估的GPU池的剩余资源、所述第一计算单元计算的GPU资源和计算时间计算可分配的GPU池的GPU资源;以及
分配单元,用于分配所述第二计算单元计算可分配的GPU资源。
8.根据权利要求6所述的基于GPU的聚类数据的处理系统,其特征在于,还包括结果分发模块,用于将所述聚类计算模块聚类计算的结果按照预设策略分发给上层应用。
9.根据权利要求6所述的基于GPU的聚类数据的处理系统,其特征在于,还包括数据标准化模块,用于对所述数据获取模块获取的聚类数据进行标准化处理。
10.一种计算设备,其特征在于,所述计算设备包括如权利要求6至9任一项所述的基于GPU的聚类数据的处理系统以及GPU池。
CN201810002464.4A 2018-01-02 2018-01-02 基于gpu的聚类数据的处理方法、系统及计算设备 Active CN108257077B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810002464.4A CN108257077B (zh) 2018-01-02 2018-01-02 基于gpu的聚类数据的处理方法、系统及计算设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810002464.4A CN108257077B (zh) 2018-01-02 2018-01-02 基于gpu的聚类数据的处理方法、系统及计算设备

Publications (2)

Publication Number Publication Date
CN108257077A true CN108257077A (zh) 2018-07-06
CN108257077B CN108257077B (zh) 2022-03-22

Family

ID=62724810

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810002464.4A Active CN108257077B (zh) 2018-01-02 2018-01-02 基于gpu的聚类数据的处理方法、系统及计算设备

Country Status (1)

Country Link
CN (1) CN108257077B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582398A (zh) * 2020-05-14 2020-08-25 北京达佳互联信息技术有限公司 数据聚类方法、装置、系统、服务器以及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101882311A (zh) * 2010-06-08 2010-11-10 中国科学院自动化研究所 基于cuda技术的背景建模加速方法
CN102200906A (zh) * 2011-05-25 2011-09-28 上海理工大学 大规模并发数据流处理系统及其处理方法
CN102216941A (zh) * 2008-08-19 2011-10-12 数字标记公司 用于内容处理的方法和系统
CN106354574A (zh) * 2016-08-30 2017-01-25 浪潮(北京)电子信息产业有限公司 一种用于大数据K‑Mean聚类算法的加速系统和方法
CN106446959A (zh) * 2016-10-10 2017-02-22 北京邮电大学 一种云计算资源动态匹配方法及装置
US20170153920A1 (en) * 2010-09-30 2017-06-01 Creativec Llc Recruiting additional resource for hpc simulation
CN107450983A (zh) * 2017-07-14 2017-12-08 中国石油大学(华东) 一种基于虚拟聚类的分级网络资源调度方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102216941A (zh) * 2008-08-19 2011-10-12 数字标记公司 用于内容处理的方法和系统
CN101882311A (zh) * 2010-06-08 2010-11-10 中国科学院自动化研究所 基于cuda技术的背景建模加速方法
US20170153920A1 (en) * 2010-09-30 2017-06-01 Creativec Llc Recruiting additional resource for hpc simulation
CN102200906A (zh) * 2011-05-25 2011-09-28 上海理工大学 大规模并发数据流处理系统及其处理方法
CN106354574A (zh) * 2016-08-30 2017-01-25 浪潮(北京)电子信息产业有限公司 一种用于大数据K‑Mean聚类算法的加速系统和方法
CN106446959A (zh) * 2016-10-10 2017-02-22 北京邮电大学 一种云计算资源动态匹配方法及装置
CN107450983A (zh) * 2017-07-14 2017-12-08 中国石油大学(华东) 一种基于虚拟聚类的分级网络资源调度方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宋杰 等: "MapReduce大数据处理平台与算法研究进展", 《软件学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582398A (zh) * 2020-05-14 2020-08-25 北京达佳互联信息技术有限公司 数据聚类方法、装置、系统、服务器以及存储介质
CN111582398B (zh) * 2020-05-14 2022-03-25 北京达佳互联信息技术有限公司 数据聚类方法、装置、系统、服务器以及存储介质

Also Published As

Publication number Publication date
CN108257077B (zh) 2022-03-22

Similar Documents

Publication Publication Date Title
CN109218355B (zh) 负载均衡引擎,客户端,分布式计算系统以及负载均衡方法
CN103685309B (zh) 面向地图可视化瓦片服务接入的异步请求队列的建立方法
CN108845874A (zh) 资源的动态分配方法及服务器
CN103761146B (zh) 一种MapReduce动态设定slots数量的方法
CN107003887A (zh) Cpu超载设置和云计算工作负荷调度机构
CN109327540A (zh) 电子装置、服务器负载均衡方法及存储介质
CN105718364A (zh) 一种云计算平台中计算资源能力动态评估方法
CN108600355A (zh) 一种雾计算负载均衡调度系统及方法
CN103997515B (zh) 一种分布式云中计算中心选择方法及其应用
CN113419867B (zh) 一种面向边云协同计算环境中节能的服务供应方法
CN107766160A (zh) 队列消息处理方法及终端设备
CN110472109A (zh) 动态化数据质量分析方法及平台系统
CN112261120A (zh) 一种配电物联网云边协同任务卸载方法及装置
US20190138354A1 (en) Method for scheduling jobs with idle resources
CN110996390B (zh) 一种无线接入网络计算资源分配方法及网络系统
CN104579738B (zh) 用以在网络中管理流量的计算机实施的方法、计算机系统、计算机程序产品
CN109117279A (zh) 电子装置及其限制进程间通信的方法、存储介质
CN108984286A (zh) 一种云计算平台的资源调度方法和系统
CN102420741B (zh) 在基于atca的设备中调度通信流量的方法及装置
CN114741200A (zh) 面向数据中台的计算资源分配方法、装置及电子设备
CN108257077A (zh) 基于gpu的聚类数据的处理方法、系统及计算设备
CN109885384A (zh) 任务并行度优化方法、装置、计算机设备及存储介质
CN109933433B (zh) 一种gpu资源调度系统及其调度方法
CN117555913A (zh) 基于第三方平台的对象数据更新方法和装置
CN112948109A (zh) 一种ai计算集群的配额弹性调度方法、装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant