CN114237859B - 分布式的智能终端gpu算力提升方法、终端、系统及介质 - Google Patents
分布式的智能终端gpu算力提升方法、终端、系统及介质 Download PDFInfo
- Publication number
- CN114237859B CN114237859B CN202210176754.7A CN202210176754A CN114237859B CN 114237859 B CN114237859 B CN 114237859B CN 202210176754 A CN202210176754 A CN 202210176754A CN 114237859 B CN114237859 B CN 114237859B
- Authority
- CN
- China
- Prior art keywords
- gpu
- intelligent terminal
- gpus
- scheduling queue
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Stored Programmes (AREA)
Abstract
本发明公开了一种分布式的智能终端GPU算力提升方法、终端、系统及介质,该方法,通过扫描智能终端上可用的GPU、智能终端附近的其它智能终端上可用的GPU,并将扫描到的GPU加入调度队列中;然后,根据智能终端上软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将GPU任务分发给调度队列中的一个或多个GPU进行计算处理。因此,本发明能够通过借用外部智能终端的GPU硬件算力,提升本地智能终端的GPU任务处理的能力。
Description
技术领域
本发明涉及分布式图像计算技术领域,特别涉及一种分布式的智能终端GPU算力提升方法、终端、系统及介质。
背景技术
随着智能终端(如手机,车机智能座舱等)大潮的兴起,GPU在移动设备开始了高速的发展,但是移动设备GPU受限于芯片的面积,能耗以及成本必须牺牲部分性能和带宽来求得性价比和电池续航能力的平衡。但是移动终端对于GPU性能的追求是不断膨胀的,每一代的移动芯片(如手机芯片),GPU的性能升级都是非常关键的指标。
虽然GPU的硬件性能在不断的提高,但是硬件的升级仍赶不上软件对性能的需求;比如智能电视,汽车智能座舱的中控屏等产品,处于成本的考虑,会选择性能较弱的GPU,同时,智能电视,汽车智能座舱的中控屏等产品的使用寿命较长,GPU的硬件性能很快就会落后,这就导致很多软件会受限于GPU硬件性能而无法运行或者体验感极差。
为了解决软件受限于GPU硬件性能而无法运行或者体验感极差的问题,业界提出采用投屏的解决方案,即使用硬件性能好的设备,如较新的手机终端,通过wifi直连将屏幕或者app应用投屏到智能终端上,这样可以把手机的内容投射到智能终端,从而使用户在性能较弱的智能终端上能够体验性能较好的手机应用。但是投屏的解决方案存在着以下不足:
1、投屏功能只是被动的播放手机终端的屏幕,智能终端系统本身还是受限于GPU硬件性能不够,并不能提升智能终端本身系统的性能,系统卡顿依然会存在,而且系统卡顿也会影响投屏app功能的性能,从而造成投屏体验差。而目前的投屏技术,播放视频还可以,如果运行游戏等高帧率的应用,还是存在明显的卡顿延迟,体验感差;
2、手机终端算是比较隐私的个人物品,投屏到智能终端,容易引起隐私泄漏;
3、手机终端的生态和智能终端的生态还是存在不同,比如需要投屏至车机中控屏幕的场景,是不会存在针对车厂定制功能手机的,所以投屏方案无法满足智能终端的所有场景。
因此,有必要提出一种提升智能终端的GPU算力性能的方案,以匹配不断升级而需要更强GPU算力性能的软件。
发明内容
鉴于以上所述现有技术的不足 ,本发明的目在于:提供一种分布式的智能终端GPU算力提升方法,该方法通过智能终端的操作系统上实现GPU任务的分布式分发,将GPU任务通过底层操作系统分发到周围GPU性能更强的一个或者多个智能设备(比如手机)上,从而通过借用外部智能终端的GPU硬件算力,提升本地智能终端的GPU任务处理的能力。
为实现上述发明目的,本发明提供以下技术方案:
一种分布式的智能终端GPU算力提升方法,其包括:
扫描智能终端上可用的GPU、所述智能终端附近的其它智能终端上可用的GPU,并将扫描到的GPU加入调度队列中;
根据智能终端上软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将所述GPU任务分发给所述调度队列中的一个或多个 GPU进行计算处理。
根据一种具体的实施方式,本发明分布式的智能终端GPU算力提升方法中,将所述GPU任务分发给所述调度队列中的多个 GPU进行计算处理时,将所述GPU任务拆分为多个子任务,并通过其它智能终端上安装的GPU代理客户端将各个所述子任务分发给相应的GPU进行计算处理。
进一步地,本发明分布式的智能终端GPU算力提升方法中,根据所述调度队列中各个GPU的负载情况,来分发各个所述子任务。
根据一种具体的实施方式,本发明分布式的智能终端GPU算力提升方法中,智能终端的操作系统向其安装的软件应用提供多种图形API接口,并基于智能终端操作系统的内核管理和调度所述调度队列中的GPU。
在本发明具体实施的另一方面,还提供一种智能终端,其包括:
扫描模块,用于扫描智能终端上可用的GPU,以及所述智能终端附近的其它智能终端上可用的GPU;
任务获取模块,用于获取智能终端上安装的软件应用需要执行的GPU任务;
调度管理模块,用于将所述扫描模块扫描到的GPU加入调度队列中,以及根据智能终端上软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将所述GPU任务分发给所述调度队列中的一个或多个 GPU进行计算处理。
根据一种具体的实施方式,本发明提供的智能终端中,所述调度管理模块,还用于在将所述GPU任务分发给所述调度队列中的多个 GPU进行计算处理时,将所述GPU任务拆分为多个子任务,并通过其它智能终端上安装的GPU代理客户端将各个所述子任务分发给相应的GPU进行计算处理。
进一步地,本发明提供的智能终端中,所述调度管理模块,还用于根据所述调度队列中各个GPU的负载情况,来分发各个所述子任务。
根据一种具体的实施方式,本发明提供的智能终端中,所述调度管理模块配置在操作系统的内核中。
在本发明具体实施的另一方面,还提供一种分布式的智能终端GPU算力提升系统,其包括:至少两个智能终端;其中,
至少一个智能终端,用于扫描本地可用的GPU、以及其附近的其它智能终端上可用的GPU,并将扫描到的GPU加入调度队列中;以及,根据其安装的软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将所述GPU任务分发给所述调度队列中的一个或多个 GPU进行计算处理;
至少一个智能终端,用于为其它的智能终端提供可用的GPU。
在本发明具体实施的另一方面,还提供一种计算机可读存储介质,其上存储有一个或多个程序,该一个或多个程序被一个或多个处理器执行时实现本发明分布式的智能终端GPU算力提升方法。
与现有技术相比,本发明的有益效果:
本发明分布式的智能终端GPU算力提升方法,通过扫描智能终端上可用的GPU、智能终端附近的其它智能终端上可用的GPU,并将扫描到的GPU加入调度队列中;然后,根据智能终端上软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将GPU任务分发给调度队列中的一个或多个 GPU进行计算处理。因此,本发明能够通过借用外部智能终端的GPU硬件算力,提升本地智能终端的GPU任务处理的能力。
附图说明
图1为本发明方法的流程示意图;
图2为本发明智能终端的结构示意图;
图3为本发明系统的工作过程示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
如图1所示,本发明分布式的智能终端GPU算力提升方法,其包括:
首先,扫描智能终端上可用的GPU、所述智能终端附近的其它智能终端上可用的GPU,接着将扫描到的GPU加入调度队列中;
然后,根据智能终端上软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将该GPU任务分发给所述调度队列中的一个或多个GPU进行计算处理。
在实施时,根据GPU任务的任务内容,确定计算处理该GPU任务所需的GPU算力大小,同时根据所述调度队列中各个GPU的性能参数,如测试所得的浮点计算能力或者厂商标称的硬件参数,来进行GPU任务分发,更好地对调度队列中的GPU进行调度与合理的利用。;
以汽车智能座舱为例,根据具体业务将对应的context(图形上下文)分发到不同的GPU,比如将导航应用的3D渲染任务采用本地GPU进行计算,将游戏的3D渲染任务分发到附近手机的GPU进行计算,如此,便可在汽车智能座舱舱大屏幕中运行需要高性能GPU才能运行的游戏,同时还可以使用本地GPU进行正常的导航。当然,如果游戏的3D渲染任务过大,无法由附近任意一个手机的GPU单独完成计算,则将游戏的3D渲染任务拆分成多个独立的子任务,并分别给附近不同手机的GPU完成计算。
具体的,本发明分布式的智能终端GPU算力提升方法中,将多个所述子任务分发给所述调度队列中的GPU进行计算处理时,根据所述调度队列中各个GPU的负载情况来分发各个所述子任务。
本发明根据负载来来分发GPU算力,当发现调度队列里面某个GPU的负载很高的时候,可将部分GPU的算力分发到空闲的GPU上,这样可以降低GPU负载,减少因为负载高而等待的时间,从而提高了响应速度,避免系统卡顿影响用户体验。在实施时,将多个所述子任务分发给所述调度队列中的GPU进行计算处理时,通过其它智能终端上安装的GPU代理客户端将所述子任务分发给相应的GPU进行计算处理。
本发明分布式的智能终端GPU算力提升方法中,智能终端的操作系统向其安装的软件应用提供多种图形API接口,并基于智能终端操作系统的内核管理和调度所述调度队列中的GPU。
如图2所示,本发明提供的智能终端A或智能终端B,其包括:
扫描模块,用于扫描智能终端上可用的GPU,以及所述智能终端附近的其它智能终端上可用的GPU;
任务获取模块,用于获取智能终端上安装的软件应用需要执行的GPU任务;
调度管理模块,用于将所述扫描模块扫描到的GPU加入调度队列中,以及根据智能终端上软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将所述GPU任务分发给所述调度队列中的一个或多个 GPU进行计算处理。
具体的,本发明提供的智能终端中,管理调度模块在将所述GPU任务分发给所述调度队列中的多个 GPU进行计算处理时,将所述GPU任务拆分为多个子任务,并通过智能终端B上安装的GPU代理客户端将各个所述子任务分发给相应的GPU进行计算处理。而且,智能终端通过安装GPU代理客户端为其它智能终端分发的子任务提供计算处理,即智能终端通过其安装GPU代理客户端获取其它智能终端的调度管理模块分发的子任务,并获取到的子任务分发给其本地GPU进行计算处理。如此,本发明的智能终端既可以从其它智能终端获取GPU算力,也可为其他智能终端提供GPU算力。而且,本发明提供的智能终端中,所述调度管理模块配置在操作系统的内核中。
在具体实施时,调度管理模块,根据所述调度队列中各个GPU的负载情况,来分发各个所述子任务。
如图3所示,本发明提供的分布式的智能终端GPU算力提升系统,其包括:两个智能终端。其中,
智能终端100,用于扫描本地可用的GPU、以及其附近的其它智能终端上可用的GPU,并将扫描到的GPU加入调度队列中;以及,根据其安装的软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将所述GPU任务分发给所述调度队列中的一个或多个 GPU进行计算处理;
智能终端200,用于为智能终端100提供可用的GPU。
在实施时,首先智能终端100上电启动,并启动分布式GPU系统管理程序(后续简称为管理程序),管理程序分为user和kernel两部分,kernel部分是操作系统内核态,用于本地和远端的所有GPU的管理和调度,user部分是用户态,用于向业务提供标准的API接口,接口满足OpenGL/OpenGL ES,OpenCL,Vulkan等标准库。
智能终端100启动和初始化完成后,管理程序开始扫描当前存在的可用GPU,正常情况下,智能终端系统本身具有一个物理的GPU,管理程序扫描到以后,在管理程序内部创建名为gpu_0的设备,如果存在多个物理的GPU,分别依次将其命名为gpu_0、gpu_1…gpu_n,并纳入管理程序的GPU调度队列中进行调度,做完该项工作以后,上层用户就可以通过用户态的API,不做任何修改,使用3D等来加速应用程序。此时,由于管理程序只有本地的GPU,所以系统使用的还是本地GPU加速,性能并未有提升;
接着,智能终端100周围存在一部高性能GPU的智能终端200,在智能终端200上安装APP 3,即分布式GPU代理客户端APP程序,启动APP 3后,将向智能终端100中管理程序发送接入请求,管理程序收到接入请求后,在管理程序内部为该手机客户端创建名为vgpu_0的设备,并纳入管理程序的GPU调度队列中,如果周围存在多部高性能GPU的智能设备,可以按照需要接入到GPU分布式网络中,用于对智能终端100进行加速,加入的设备将会被分别命名为vgpu_0、vgpu_1…vgpu_n。如此,管理程序的调度队列里面已经存在多个本地的和远端的GPU硬件,那么,智能终端100将会使用本地和远端的gpu对系统的GPU任务进行加速,在不更换硬件的情况下,可带来更好的用户体验;
在本发明具体实施的另一方面,还提供一种计算机可读存储介质,其上存储有一个或多个程序,该一个或多个程序被一个或多个处理器执行时实现本发明分布式的智能终端GPU算力提升方法。
应该理解到,本发明所揭露的系统,可通过其它的方式实现。例如所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,模块之间的通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种分布式的智能终端GPU算力提升方法,其特点在于,包括:
扫描智能终端上可用的GPU、所述智能终端附近的其它智能终端上可用的GPU,并将扫描到的GPU加入调度队列中;
根据智能终端上软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将所述GPU任务分发给所述调度队列中的一个或多个 GPU进行计算处理。
2.如权利要求1所述的分布式的智能终端GPU算力提升方法,其特点在于,将所述GPU任务分发给所述调度队列中的多个 GPU进行计算处理时,将所述GPU任务拆分为多个子任务,并通过其它智能终端上安装的GPU代理客户端将各个所述子任务分发给相应的GPU进行计算处理。
3.如权利要求2所述的分布式的智能终端GPU算力提升方法,其特点在于,根据所述调度队列中各个GPU的负载情况,来分发各个所述子任务。
4.如权利要求1~3任一项所述的分布式的智能终端GPU算力提升方法,其特征在于,智能终端的操作系统向其安装的软件应用提供多种图形API接口,并基于智能终端操作系统的内核管理和调度所述调度队列中的GPU。
5.一种智能终端,其特征在于,包括:
扫描模块,用于扫描智能终端上可用的GPU,以及所述智能终端附近的其它智能终端上可用的GPU;
任务获取模块,用于获取智能终端上安装的软件应用需要执行的GPU任务;
调度管理模块,用于将所述扫描模块扫描到的GPU加入调度队列中,以及根据智能终端上软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将所述GPU任务分发给所述调度队列中的一个或多个 GPU进行计算处理。
6.如权利要求5所述的智能终端,其特征在于,所述调度管理模块,还用于在将所述GPU任务分发给所述调度队列中的多个 GPU进行计算处理时,将所述GPU任务拆分为多个子任务,并通过其它智能终端上安装的GPU代理客户端将各个所述子任务分发给相应的GPU进行计算处理。
7.如权利要求6所述的智能终端,其特征在于,所述调度管理模块,还用于根据所述调度队列中各个GPU的负载情况,来分发各个所述子任务。
8.如权利要求5~7任一项所述的智能终端,其特征在于,所述调度管理模块配置在操作系统的内核中。
9.一种分布式的智能终端GPU算力提升系统,其特征在于,包括:至少两个智能终端;其中,
至少一个智能终端,用于扫描本地可用的GPU、以及其附近的其它智能终端上可用的GPU,并将扫描到的GPU加入调度队列中;以及,根据其安装的软件应用需要执行的GPU任务的任务内容以及所述调度队列中各个GPU的性能参数,将所述GPU任务分发给所述调度队列中的一个或多个 GPU进行计算处理;
至少一个智能终端,用于为其它的智能终端提供可用的GPU。
10.一种计算机可读存储介质,其上存储有一个或多个程序,其特征在于,该一个或多个程序被一个或多个处理器执行时实现权利要求1~4任一项所述的分布式的智能终端GPU算力提升方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210176754.7A CN114237859B (zh) | 2022-02-25 | 2022-02-25 | 分布式的智能终端gpu算力提升方法、终端、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210176754.7A CN114237859B (zh) | 2022-02-25 | 2022-02-25 | 分布式的智能终端gpu算力提升方法、终端、系统及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114237859A CN114237859A (zh) | 2022-03-25 |
CN114237859B true CN114237859B (zh) | 2022-05-13 |
Family
ID=80748388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210176754.7A Active CN114237859B (zh) | 2022-02-25 | 2022-02-25 | 分布式的智能终端gpu算力提升方法、终端、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114237859B (zh) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10373284B2 (en) * | 2016-12-12 | 2019-08-06 | Amazon Technologies, Inc. | Capacity reservation for virtualized graphics processing |
CN109937410B (zh) * | 2017-10-25 | 2021-02-23 | 华为技术有限公司 | 核心调度方法和终端 |
US11900157B2 (en) * | 2018-09-19 | 2024-02-13 | Intel Corporation | Hybrid virtual GPU co-scheduling |
CN109522108B (zh) * | 2018-10-30 | 2020-10-27 | 西安交通大学 | 一种基于Kernel合并的GPU任务调度系统及方法 |
CN112764668A (zh) * | 2019-11-01 | 2021-05-07 | 伊姆西Ip控股有限责任公司 | 扩展gpu存储器的方法、电子设备和计算机程序产品 |
US11436065B2 (en) * | 2019-12-31 | 2022-09-06 | Hong Kong Baptist University | System for efficient large-scale data distribution in distributed and parallel processing environment |
CN111553040B (zh) * | 2020-04-08 | 2022-11-04 | 国电南瑞科技股份有限公司 | 一种基于gpu加速的电网拓扑分析高性能计算方法及装置 |
CN112988361B (zh) * | 2021-05-13 | 2021-08-20 | 中诚华隆计算机技术有限公司 | 集群任务分配方法、装置和计算机可读介质 |
CN113419861B (zh) * | 2021-07-02 | 2023-10-24 | 北京睿芯高通量科技有限公司 | 一种面向gpu卡群的图遍历混合负载均衡方法 |
-
2022
- 2022-02-25 CN CN202210176754.7A patent/CN114237859B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114237859A (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11513820B2 (en) | Method for resource allocation, terminal, and computer-readable storage medium | |
CN110227259B (zh) | 一种数据处理的方法、装置、服务器和系统 | |
US9455931B2 (en) | Load balancing between processors | |
CN103631634B (zh) | 实现图形处理器虚拟化的方法与装置 | |
US20170192819A1 (en) | Method and electronic device for resource allocation | |
US11782756B2 (en) | Method and apparatus for scheduling processor core, and storage medium | |
CN103701807A (zh) | 一种vdi环境下的数据发送方法和装置 | |
CN113542757A (zh) | 云应用的图像传输方法、装置、服务器及存储介质 | |
CN109725977A (zh) | 一种基于Android系统的多应用显示方法及终端设备 | |
WO2016202201A1 (zh) | 一种资源分配方法、装置和智能电视系统 | |
CN113821308A (zh) | 片上系统、虚拟机任务处理方法及设备、存储介质 | |
CN106161538B (zh) | 融合x86和arm架构的应用平台管理系统 | |
CN114237859B (zh) | 分布式的智能终端gpu算力提升方法、终端、系统及介质 | |
CN111813541A (zh) | 一种任务调度方法、装置、介质和设备 | |
CN112488907A (zh) | 数据处理方法及系统 | |
CN109951737B (zh) | 视频处理方法、装置、电子设备和计算机可读存储介质 | |
CN114327846A (zh) | 集群的扩容方法、装置、电子设备及计算机可读存储介质 | |
CN116546228A (zh) | 用于虚拟场景的推流方法、装置、设备及存储介质 | |
CN104348886A (zh) | 一种信息处理的方法及一种电子设备 | |
CN115364477A (zh) | 云游戏控制方法、装置、电子设备及存储介质 | |
KR20160084215A (ko) | 최적 클라우드 스트리밍 서비스를 위한 동적 어플리케이션 처리 방법 및 이를 위한 장치 | |
WO2022022328A1 (zh) | 一种通信方法及设备 | |
CN118037997A (zh) | 一种云渲染方法、装置及相关设备 | |
CN117956220A (zh) | 渲染方法、装置、设备、计算机可读存储介质及程序产品 | |
CN116820747A (zh) | 资源管控方法及其装置、电子设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |