CN114926318A - 多gpu聚合方法、图像处理装置、电子设备和存储介质 - Google Patents

多gpu聚合方法、图像处理装置、电子设备和存储介质 Download PDF

Info

Publication number
CN114926318A
CN114926318A CN202210571106.1A CN202210571106A CN114926318A CN 114926318 A CN114926318 A CN 114926318A CN 202210571106 A CN202210571106 A CN 202210571106A CN 114926318 A CN114926318 A CN 114926318A
Authority
CN
China
Prior art keywords
image processing
gpu
gpus
aggregation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210571106.1A
Other languages
English (en)
Inventor
张凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Wanxiang Electronics Technology Co Ltd
Original Assignee
Xian Wanxiang Electronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Wanxiang Electronics Technology Co Ltd filed Critical Xian Wanxiang Electronics Technology Co Ltd
Priority to CN202210571106.1A priority Critical patent/CN114926318A/zh
Publication of CN114926318A publication Critical patent/CN114926318A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)

Abstract

本发明是关于一种多GPU聚合方法、图像处理装置、电子设备和计算机可读存储介质。该方法包括:聚合芯片接收到图像处理任务;所述聚合芯片将所述图像处理任务发送至GPU组,并根据接收到的所述GPU组中的GPU的反馈信息,确定GPU组中GPU的使用个数及图像处理任务分配情况,其中,所述GPU组至少包括两个GPU;所述聚合芯片将所述图像处理任务根据所述图像处理任务分配情况分配给确定使用的GPU;所述聚合芯片接收GPU组处理后的图像处理结果,当确定使用的GPU有多个时,将多个GPU的图像处理结果进行聚合生成目标图像。

Description

多GPU聚合方法、图像处理装置、电子设备和存储介质
技术领域
本发明涉及图像渲染处理技术领域,尤其涉及一种多GPU聚合方法、图像处理装置、电子设备和存储介质。
背景技术
当前市面上出现了越来越多画面精细的产品,例如,高画质的游戏和视频。在渲染这些产品的画面时,由于渲染功耗高,计算量大,对电子设备的硬件资源即GPU显卡的要求较高。因此,当电子设备的硬件资源不足时,只能以较低的画质运行这些产品,严重影响了产品的画面效果。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于提供一种多GPU聚合方法、图像处理装置、电子设备和计算机可读存储介质,进而解决单个低渲染能力的显卡难以实现高画质渲染输出的问题。
本发明的目的采用以下技术方案实现:
第一方面,本发明提供了一种多GPU(graphics processing unit,图形处理器)显卡聚合方法,该方法包括以下步骤:
聚合芯片接收到图像处理任务;
所述聚合芯片将所述图像处理任务发送至GPU组,并根据接收到的所述GPU组中的GPU的反馈信息,确定GPU组中GPU的使用个数及图像处理任务分配情况,其中,所述GPU组至少包括两个GPU;
所述聚合芯片将所述图像处理任务根据所述图像处理任务分配情况分配给确定使用的GPU;
所述聚合芯片接收GPU组处理后的图像处理结果,当确定使用的GPU有多个时,将多个GPU的图像处理结果进行聚合生成目标图像。
本发明的实施例中,梭胡聚合芯片将所述图像处理任务发送至GPU组,并根据接收到的所述GPU组中的GPU的反馈信息,确定GPU组中GPU的使用个数及图像处理任务分配情况的方法,包括:
所述聚合芯片将所述图像处理任务发送至GPU组中的第一GPU;
所述聚合芯片接收所述第一GPU的第一反馈信息,所述第一反馈信息为所述第一GPU执行所述图像处理任务的第一使用率;
所述聚合芯片判断所述第一反馈信息,当所述第一使用率小于等于第一阈值时,确定所述GPU组中GPU的使用个数为1个,所述图像处理任务分配情况为全部分配至所述第一GPU上;
当所述第一使用率大于第一阈值时,将所述图像处理任务中,第一使用率在第一阈值以上的图像处理任务作为第二图像处理任务发送至GPU组中的第二GPU;
所述聚合芯片接收所述第二GPU的第二反馈信息,所述第二反馈信息为所述第二GPU执行所述第二图像处理任务的第二使用率;
所述聚合芯片判断所述第二反馈信息,确定所述第二使用率是否大于第二阈值,如此直至当第i个GPU的第i使用率小于第i阈值时,确定所述GPU组中GPU的使用个数为i个,所述图像处理任务分配情况为分配至i个GPU上,其中,i≥2。
本发明的实施例中,当直至第i个GPU的第i使用率大于第i阈值,且所述GPU组中共有i个GPU,所述图像处理任务分配情况为平均分配至i个GPU上。
本发明的实施例中,当所述GPU组中GPU的使用个数为多个时,所述图像处理任务分配情况为平均分配至多个确定使用的GPU上。
本发明的实施例中,聚合芯片将所述图像处理任务根据所述图像处理任务分配情况分配给确定使用的GPU的方法,包括:
所述聚合芯片将所述图像处理任务进行分解,分解方式为将每帧图像分为统一大小的图像块;
所述聚合芯片按照图像帧的顺序和每帧内图像块的排列顺序对分割后的各图像块进行编号并添加编号标识;
所述聚合芯片根据所述图像处理任务分配情况将分割后的图像块分配给确定使用的GPU。
本发明的实施例中,每帧内所述图像块的排列顺序为以行为顺序或以列为顺序。
本发明的实施例中,聚合芯片接收GPU组处理后的图像处理结果,当确定使用的GPU有多个时,将多个GPU的图像处理结果进行聚合生成目标图像的方法,包括:
所述聚合芯片接收所述GPU组处理后的图像处理结果;
当所述聚合芯片确定使用的GPU有多个时,接收多个所述GPU处理后的图像处理结果;
所述聚合芯片根据图像处理结果中各图像块的编号标识确认图像块的位置;
所述聚合芯片将确认好位置的图像块进行拼接聚合生成目标图像。
第二方面,本发明提供了一种图像处理装置,包括:
聚合芯片,用于执行实现上述任一实施例所述多GPU聚合方法;
GPU组,至少包括两个GPU,所述GPU与所述聚合芯片通信连接;
其中,所述GPU用于根据图像处理任务计算自身的使用率并发送反馈信息至所述聚合芯片,还用于对所述聚合芯片按照图像处理任务分配情况分配的图像处理任务进行处理并获得图像处理结果发送至聚合芯片。
第三方面,本发明提供了一种电子设备,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一实施例所述多GPU聚合方法的步骤。
第三方面,本发明提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述任一实施例所述多GPU聚合方法的步骤。
本发明的实施例提供的技术方案可以包括以下有益效果:
在本发明的实施例中,通过使用多GPU芯片聚合的方式来对高质量图像进行渲染输出,相对于仅使用单个高质量GPU芯片来进行说,降低了对GPU芯片渲染能力的要求,不需要购买高价格的GPU就能对高质量的图像进行渲染输出,节约了成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明实施例中一种多GPU聚合方法流程示意图;
图2是本发明实施例中图像处理装置结构示意图;
图3是本发明实施例中的一种电子设备的结构示意图;
图4是本发明实施例中的一种用于实现多GPU聚合方法的程序产品的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
本示例实施方式中首先提供了一种多GPU聚合方法,参考图1所示,该方法包括以下步骤S101-S104:
步骤S101:聚合芯片接收到图像处理任务;
步骤S102:所述聚合芯片将所述图像处理任务发送至GPU组,并根据接收到的所述GPU组中的GPU的反馈信息,确定GPU组中GPU的使用个数及图像处理任务分配情况,其中,所述GPU组至少包括两个GPU;
步骤S103:所述聚合芯片将所述图像处理任务根据所述图像处理任务分配情况分配给确定使用的GPU;
步骤S104:所述聚合芯片接收GPU组处理后的图像处理结果,当确定使用的GPU有多个时,将多个GPU的图像处理结果进行聚合生成目标图像。
上述方法通过使用多GPU芯片聚合的方式来对高质量图像进行渲染输出,相对于仅使用单个高质量GPU芯片来进行说,降低了对GPU芯片渲染能力的要求,不需要购买高价格的GPU就能对高质量的图像进行渲染输出,节约了成本。
下面,将参考图1对本示例实施方式中的上述方法的各个步骤进行更详细的说明。
在一个实施例中,所述聚合芯片将所述图像处理任务发送至GPU组,并根据接收到的所述GPU组中的GPU的反馈信息,确定GPU组中GPU的使用个数及图像处理任务分配情况的方法,包括:
所述聚合芯片将所述图像处理任务发送至GPU组中的第一GPU;
所述聚合芯片接收所述第一GPU的第一反馈信息,所述第一反馈信息为所述第一GPU执行所述图像处理任务的第一使用率;
所述聚合芯片判断所述第一反馈信息,当所述第一使用率小于等于第一阈值时,确定所述GPU组中GPU的使用个数为1个,所述图像处理任务分配情况为全部分配至所述第一GPU上;
当所述第一使用率大于第一阈值时,将所述图像处理任务中,第一使用率在第一阈值以上的图像处理任务作为第二图像处理任务发送至GPU组中的第二GPU;
所述聚合芯片接收所述第二GPU的第二反馈信息,所述第二反馈信息为所述第二GPU执行所述第二图像处理任务的第二使用率;
所述聚合芯片判断所述第二反馈信息,确定所述第二使用率是否大于第二阈值,如此直至当第i个GPU的第i使用率小于第i阈值时,确定所述GPU组中GPU的使用个数为i个,所述图像处理任务分配情况为分配至i个GPU上,其中,i≥2。
具体的,GPU组中的多个GPU可以为并列关系,图像处理任务的发送数据可以是由开发人员设置的,也可以是随机的。在确定GPU组中GPU的使用个数时,先选择一GPU作为第一GPU向其发送全部的图像处理任务,第一GPU计算自身执行图像处理任务时的第一使用率,当第一使用率小于等于第一阈值时,表示第一GPU能够执行全部的图像处理任务,则GPU组的GPU的使用个数为1个。当第一使用率大于第一阈值时,表示第一GPU不能够执行全部的图像处理任务,此时将图像处理任务超出第一GPU第一阈值部分的任务继续进行发送,发送至第二GPU,第二GPU计算自身执行图像处理任务时的第二使用率,当第二使用率小于等于第二阈值时,表示第一GPU和第二GPU一起能够执行全部的图像处理任务,则GPU组的GPU的使用个数为2个。当第二使用率大于第二阈值时,表示第一GPU和第二GPU一起不能够执行全部的图像处理任务,此时将图像处理任务超出第一GPU和第二GPU部分的任务继续进行发送,发送至第三GPU,如此知道确定使用GPU的个数。其中,第一阈值、第二阈值、第三阈值……的值可以相同,例如可以为80%,80%的使用率一下GPU的使用率较高且处理速度较好,当然也可以为其他值,在此不做具体的限定。
在一个实施例中,当直至第i个GPU的第i使用率大于第i阈值,且所述GPU组中共有i个GPU,所述图像处理任务分配情况为平均分配至i个GPU上。具体的,示例性的当GPU组中仅有三个GPU时,且直至第三个GPU的第三使用率大于第三阈值,表明该GPU组不能一次性执行全部的图像处理任务,此时,所述图像处理任务分配情况为平均分配至i个GPU上,i个GPU根据自身的处理能力先后处理分配到的图像处理任务,直至处理完毕,此时由于GPU不能一次性处理完分配到的图像处理任务,因此会造成图像显示的延时,但由于图像处理任务是平均分配的,延时情况能够得到一定的的改善。
在一个实施例中,当所述GPU组中GPU的使用个数为多个时,所述图像处理任务分配情况为平均分配至多个确定使用的GPU上。具体的,当GPU组中GPU的使用个数为多个时,将所述图像处理任务平均分配至多个确定使用的GPU上,此方法使得多个GPU的处理速度相近,处理完成时间也相近,使得在得到目标图像时尽可能的不会延迟。
在一个实施例中,聚合芯片将所述图像处理任务根据所述图像处理任务分配情况分配给确定使用的GPU的方法,包括:
所述聚合芯片将所述图像处理任务进行分解,分解方式为将每帧图像分为统一大小的图像块;
所述聚合芯片按照图像帧的顺序和每帧内图像块的排列顺序对分割后的各图像块进行编号并添加编号标识;
所述聚合芯片根据所述图像处理任务分配情况将分割后的图像块分配给确定使用的GPU。
具体的,聚合芯片根据所述图像处理任务分配情况向GPU分配任务时,首先需要将图像进行分解,先按照帧进行划分,再将每帧图像分为统一大小的图像块,即每帧的图像块分割大小是一样的;分了完成后,以帧为顺序,然后再以帧内的图像块排列顺序对各图像块进行编号添加编号标识,添加好编号标识后分配给确定使用的GPU,此方法使得在GPU处理好图像且反馈回图像处理结果后,聚合芯片能够根据编号标识对图像块进行快速聚合,方便快捷。
在一个实施例中,每帧内所述图像块的排列顺序为以行为顺序或以列为顺序。具体的,每帧内所述图像块的排列顺序可以为例如以行为顺序从左到右或从右到左一行一行进行排列;或者以列为顺序从上到下或从下岛上一列一列进行排列,并且每帧图像内的图像块排列顺序最好是采用相同的排列规则,便于进行编号标识的添加。
在一个实施例中,聚合芯片接收GPU组处理后的图像处理结果,当确定使用的GPU有多个时,将多个GPU的图像处理结果进行聚合生成目标图像的方法,包括:
所述聚合芯片接收所述GPU组处理后的图像处理结果;
当所述聚合芯片确定使用的GPU有多个时,接收多个所述GPU处理后的图像处理结果;
所述聚合芯片根据图像处理结果中各图像块的编号标识确认图像块的位置;
所述聚合芯片将确认好位置的图像块进行拼接聚合生成目标图像。
具体的,当确定使用的GPU有多个,聚合芯片在对图像处理结果进行聚合时,根据各图像块的编号标识确认图像块的位置即图像块位于哪一帧的哪一行一列,将多个确定使用的GPU反馈的多个图像块进行聚合,即得到目标图像
需要说明的是,尽管在附图中以特定顺序描述了本发明中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。另外,也易于理解的是,这些步骤可以是例如在多个模块/进程/线程中同步或异步执行。
此外,本发明实施方式中,参考图3所示,还提供了一种图像处理装置,包括:
聚合芯片,用于执行实现上述任一实施例所述多GPU聚合方法;
GPU组,至少包括两个GPU,所述GPU与所述聚合芯片通信连接;
其中,所述GPU用于根据图像处理任务计算自身的使用率并发送反馈信息至所述聚合芯片,还用于对所述聚合芯片按照图像处理任务分配情况分配的图像处理任务进行处理并获得图像处理结果发送至聚合芯片。
上述装置通过使用多GPU芯片聚合的方式来对高质量图像进行渲染输出,相对于仅使用单个高质量GPU芯片来进行说,降低了对GPU芯片渲染能力的要求,不需要购买高价格的GPU就能对高质量的图像进行渲染输出,节约了成本。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。作为模块或单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现木公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
参见图3,本发明实施例还提供了一种电子设备300,电子设备300包括至少一个存储器310、至少一个处理器320以及连接不同平台系统的总线330。
存储器310可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)211和/或高速缓存存储器312,还可以进一步包括只读存储器(ROM)313。
其中,存储器310还存储有计算机程序,计算机程序可以被处理器320执行,使得处理器320执行本发明任一项实施例中多GPU聚合方法的步骤,其具体实现方式与上述多GPU聚合方法的实施例中记载的实施方式、所达到的技术效果一致,部分内容不再赘述。
存储器310还可以包括具有至少一个程序模块315的实用工具314,这样的程序模块315包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
相应的,处理器320可以执行上述计算机程序,以及可以执行实用工具314。
总线330可以表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、图形加速端口、处理器或者使用多种总线结构中的任意总线结构的局域总线。
电子设备300也可以与一个或多个外部设备340例如键盘、指向设备、蓝牙设备等通信,还可与一个或者多个能够与该电子设备300交互的设备通信,和/或与使得该电子设备300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等)通信。这种通信可以通过输入输出接口350进行。并且,电子设备300还可以通过网络适配器360与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器360可以通过总线330与电子设备300的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质用于存储计算机程序,所述计算机程序被执行时实现本发明实施例中多GPU聚合方法的步骤,其具体实现方式与上述多GPU聚合方法的实施例中记载的实施方式、所达到的技术效果一致,部分内容不再赘述。
图4示出了本实施例提供的用于实现上述多GPU聚合方法的程序产品400,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品400不限于此,在本发明中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。程序产品400可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言诸如Java、C++等,还包括常规的过程式程序设计语言诸如C语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (10)

1.一种多GPU聚合方法,其特征在于,所述方法包括以下步骤:
聚合芯片接收到图像处理任务;
所述聚合芯片将所述图像处理任务发送至GPU组,并根据接收到的所述GPU组中的GPU的反馈信息,确定GPU组中GPU的使用个数及图像处理任务分配情况,其中,所述GPU组至少包括两个GPU;
所述聚合芯片将所述图像处理任务根据所述图像处理任务分配情况分配给确定使用的GPU;
所述聚合芯片接收GPU组处理后的图像处理结果,当确定使用的GPU有多个时,将多个GPU的图像处理结果进行聚合生成目标图像。
2.根据权利要求1所述多GPU聚合方法,其特征在于,所述聚合芯片将所述图像处理任务发送至GPU组,并根据接收到的所述GPU组中的GPU的反馈信息,确定GPU组中GPU的使用个数及图像处理任务分配情况的方法,包括:
所述聚合芯片将所述图像处理任务发送至GPU组中的第一GPU;
所述聚合芯片接收所述第一GPU的第一反馈信息,所述第一反馈信息为所述第一GPU执行所述图像处理任务的第一使用率;
所述聚合芯片判断所述第一反馈信息,当所述第一使用率小于等于第一阈值时,确定所述GPU组中GPU的使用个数为1个,所述图像处理任务分配情况为全部分配至所述第一GPU上;
当所述第一使用率大于第一阈值时,将所述图像处理任务中,第一使用率在第一阈值以上的图像处理任务作为第二图像处理任务发送至GPU组中的第二GPU;
所述聚合芯片接收所述第二GPU的第二反馈信息,所述第二反馈信息为所述第二GPU执行所述第二图像处理任务的第二使用率;
所述聚合芯片判断所述第二反馈信息,确定所述第二使用率是否大于第二阈值,如此直至当第i个GPU的第i使用率小于第i阈值时,确定所述GPU组中GPU的使用个数为i个,所述图像处理任务分配情况为分配至i个GPU上,其中,i≥2。
3.根据权利要求2所述多GPU聚合方法,其特征在于,当直至第i个GPU的第i使用率大于第i阈值,且所述GPU组中共有i个GPU,所述图像处理任务分配情况为平均分配至i个GPU上。
4.根据权利要求2所述多GPU聚合方法,其特征在于,当所述GPU组中GPU的使用个数为多个时,所述图像处理任务分配情况为平均分配至多个确定使用的GPU上。
5.根据权利要求1所述多GPU聚合方法,其特征在于,聚合芯片将所述图像处理任务根据所述图像处理任务分配情况分配给确定使用的GPU的方法,包括:
所述聚合芯片将所述图像处理任务进行分解,分解方式为将每帧图像分为统一大小的图像块;
所述聚合芯片按照图像帧的顺序和每帧内图像块的排列顺序对分割后的各图像块进行编号并添加编号标识;
所述聚合芯片根据所述图像处理任务分配情况将分割后的图像块分配给确定使用的GPU。
6.根据权利要求5所述多GPU聚合方法,其特征在于,每帧内所述图像块的排列顺序为以行为顺序或以列为顺序。
7.根据权利要求5所述多GPU聚合方法,其特征在于,聚合芯片接收GPU组处理后的图像处理结果,当确定使用的GPU有多个时,将多个GPU的图像处理结果进行聚合生成目标图像的方法,包括:
所述聚合芯片接收所述GPU组处理后的图像处理结果;
当所述聚合芯片确定使用的GPU有多个时,接收多个所述GPU处理后的图像处理结果;
所述聚合芯片根据图像处理结果中各图像块的编号标识确认图像块的位置;
所述聚合芯片将确认好位置的图像块进行拼接聚合生成目标图像。
8.一种图像处理装置,其特征在于,包括:
聚合芯片,用于执行实现权利要求1-8任一项所述多GPU聚合方法;
GPU组,至少包括两个GPU,所述GPU与所述聚合芯片通信连接;
其中,所述GPU用于根据图像处理任务计算自身的使用率并发送反馈信息至所述聚合芯片,还用于对所述聚合芯片按照图像处理任务分配情况分配的图像处理任务进行处理并获得图像处理结果发送至聚合芯片。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1-8任一项所述多GPU聚合方法的步骤。
10.一种计算机可读存储介质,其特征在于,存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-8任一项所述多GPU聚合方法的步骤。
CN202210571106.1A 2022-05-24 2022-05-24 多gpu聚合方法、图像处理装置、电子设备和存储介质 Pending CN114926318A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210571106.1A CN114926318A (zh) 2022-05-24 2022-05-24 多gpu聚合方法、图像处理装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210571106.1A CN114926318A (zh) 2022-05-24 2022-05-24 多gpu聚合方法、图像处理装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN114926318A true CN114926318A (zh) 2022-08-19

Family

ID=82810731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210571106.1A Pending CN114926318A (zh) 2022-05-24 2022-05-24 多gpu聚合方法、图像处理装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN114926318A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115373860A (zh) * 2022-10-26 2022-11-22 小米汽车科技有限公司 Gpu任务的调度方法、装置、设备和存储介质
CN115955550A (zh) * 2023-03-15 2023-04-11 浙江宇视科技有限公司 一种gpu集群的图像分析方法与系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115373860A (zh) * 2022-10-26 2022-11-22 小米汽车科技有限公司 Gpu任务的调度方法、装置、设备和存储介质
CN115955550A (zh) * 2023-03-15 2023-04-11 浙江宇视科技有限公司 一种gpu集群的图像分析方法与系统

Similar Documents

Publication Publication Date Title
CN107766148B (zh) 一种异构集群及任务处理方法和装置
CN114926318A (zh) 多gpu聚合方法、图像处理装置、电子设备和存储介质
CN106056529B (zh) 一种对用于图片识别的卷积神经网络训练的方法与设备
US8321492B1 (en) System, method, and computer program product for converting a reduction algorithm to a segmented reduction algorithm
US20230244537A1 (en) Efficient gpu resource allocation optimization method and system
CN111176836B (zh) 一种云渲染资源调度方法及装置
CN111859775A (zh) 加速深度学习推断的软硬件协同设计
CN112884098B (zh) 卡号生成方法和装置
CN110673950A (zh) 云计算任务分配方法、装置、设备及存储介质
CN109840597B (zh) 一种模型预测方法、装置、电子设备及存储介质
CN112488907A (zh) 数据处理方法及系统
CN114463473A (zh) 图像渲染的处理方法和装置、存储介质及电子设备
CN112165572A (zh) 图像处理方法、装置、终端及存储介质
CN111179369A (zh) 一种基于安卓系统的gpu渲染方法及装置
US11687377B1 (en) High performance computer with a control board, modular compute boards and resource boards that can be allocated to the modular compute boards
CN116129501A (zh) 人脸位姿估计方法及装置
CN115346099A (zh) 基于加速器芯片的图像卷积方法、芯片、设备及介质
CN114662689A (zh) 一种神经网络的剪枝方法、装置、设备及介质
CN114816746A (zh) 一种具有多重虚拟化类型的gpu实现混合类型虚拟化的方法
CN110427377B (zh) 数据处理方法、装置、设备和存储介质
CN114363988A (zh) 分簇方法、装置和电子设备
CN115202853A (zh) 一种虚拟现实视频云计算服务的方法
CN104572316A (zh) 游戏程序与运行平台交互的方法和系统
CN107861794A (zh) 一种在云计算系统中建立虚拟机的方法和装置
CN114463159B (zh) 一种gpu资源共享方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination