CN111737019A - 一种显存资源的调度方法、装置及计算机存储介质 - Google Patents

一种显存资源的调度方法、装置及计算机存储介质 Download PDF

Info

Publication number
CN111737019A
CN111737019A CN202010896588.9A CN202010896588A CN111737019A CN 111737019 A CN111737019 A CN 111737019A CN 202010896588 A CN202010896588 A CN 202010896588A CN 111737019 A CN111737019 A CN 111737019A
Authority
CN
China
Prior art keywords
video memory
rendering
rendering context
gpu
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010896588.9A
Other languages
English (en)
Other versions
CN111737019B (zh
Inventor
刘周平
王世凯
李洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Xintong Semiconductor Technology Co ltd
Original Assignee
Xi'an Xintong Semiconductor Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Xintong Semiconductor Technology Co ltd filed Critical Xi'an Xintong Semiconductor Technology Co ltd
Priority to CN202010896588.9A priority Critical patent/CN111737019B/zh
Publication of CN111737019A publication Critical patent/CN111737019A/zh
Application granted granted Critical
Publication of CN111737019B publication Critical patent/CN111737019B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources

Abstract

本发明实施例公开了一种显存资源的调度方法、装置及计算机存储介质;该方法应用于CPU的显存管理技术,该方法可以包括:在执行当前渲染任务过程中,响应于图形处理器GPU驱动程序检测到显存溢出事件的发生,统一调度器从非活跃渲染上下文中选择目标渲染上下文;所述统一调度器按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页;所述统一调度器将所述被切换的显存页切换出显存,并将所述显存中切换后的空余显存页分配至活跃渲染上下文。通过上述方案,能够灵活地调度显存资源,并且提高显存资源的利用效率。

Description

一种显存资源的调度方法、装置及计算机存储介质
技术领域
本发明实施例涉及图形处理器的显存管理技术,尤其涉及一种显存资源的调度方法、装置及计算机存储介质。
背景技术
随着图形处理器(GPU,Graphic Processing Unit)的应用场景及需求的不断扩大,GPU中的显存容量逐渐成为影响GPU在执行应用处理相关任务的重要因素,也逐渐成为GPU在面对各式各样的应用处理时的瓶颈。因此,在有限的物理显存条件下,GPU在执行应用处理任务时需要尽可能地充分利用现有的现存资源。
发明内容
有鉴于此,本发明实施例期望提供一种显存资源的调度方法、装置及计算机存储介质;能够灵活地调度显存资源,并且提高显存资源的利用效率。
本发明实施例的技术方案是这样实现的:
第一方面,本发明实施例提供了一种显存资源的调度方法,所述方法包括:
在执行当前渲染任务过程中,响应于图形处理器GPU驱动程序检测到显存溢出事件的发生,统一调度器从非活跃渲染上下文中选择目标渲染上下文;其中,所述非活跃渲染上下文包括当前未执行的渲染上下文;
所述统一调度器按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页;
所述统一调度器将所述被切换的显存页切换出显存,并将所述显存中切换后的空余显存页分配至活跃渲染上下文;其中,所述活跃渲染上下文包括当前被执行的渲染上下文。
第二方面,本发明实施例提供了一种显存资源的调度装置,所述装置包括:选择部分,确定部分以及第一分配部分,其中,
所述选择部分,经配置为在执行当前渲染任务过程中,响应于图形处理器GPU驱动程序检测到显存溢出事件的发生,从非活跃渲染上下文中选择目标渲染上下文;其中,所述非活跃渲染上下文包括当前未执行的渲染上下文;
所述确定部分,经配置为按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页;
所述第一分配部分,经配置为将所述被切换的显存页切换出显存,并将所述显存中切换后的空余显存页分配至活跃渲染上下文;其中,所述活跃渲染上下文包括当前被执行的渲染上下文。
第三方面,本发明实施例提供了一种显存资源的调度装置,其特征在于,所述装置包括:CPU、图形处理器GPU、显存以及存储器;其中,所述存储器存储有GPU驱动程序以及用于执行第一方面所述的显存资源的调度方法步骤的显存资源的调度程序;所述CPU,经配置为在执行当前渲染任务过程中,基于所述存储器所存储的GPU驱动程序以及所述显存资源的调度程序对所述GPU的显存的资源进行调度。
第四方面,本发明实施例提供了一种计算机存储介质,其特征在于,所述计算机存储介质存储有显存资源的调度程序,所述显存资源的调度程序被至少一个处理器执行时实现第一方面所述的显存资源的调度方法的步骤。
本发明实施例提供了一种显存资源的调度方法、装置及计算机存储介质;通过引入针对显存的统一调度器来实现对显存资源的统一管理及调度,打破了不同渲染上下文之间彼此独立的限制,能够在发生显存溢出事件时,通过将被切换的显存页换出并将换出所获得空余显存页分配至执行当前渲染任务过程中的活跃渲染上下文以实现对不同渲染上下文的显存页进行换出换入操作,从而在显存溢出时,无需向CPU上报错误并等待已有渲染任务完成后释放显存资源以针对活跃渲染上下文的执行渲染操作,提高了显存资源的利用效率。
附图说明
图1为本发明实施例提供的一种计算装置的组成示意图。
图2为本发明实施例提供的详细说明图1中处理器、GPU和系统内存的实例实施方案的框图。
图3为本发明实施例提供的一种显存资源的调度方法流程示意图。
图4为本发明实施例提供的一种GPU驱动程序触发中断服务程序的流程示意图。
图5为本发明实施例提供的一种显存溢出的实例示意图。
图6为本发明实施例提供的一种显存换入换出示意图。
图7为本发明实施例提供的一种显存资源的调度装置组成示意图。
图8为本发明实施例提供的另一种显存资源的调度装置组成示意图。
图9为本发明实施例提供的又一种显存资源的调度装置组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
针对前述出现的显存容量瓶颈情况,当前相关技术方案的主要解决思路是首先将GPU渲染任务所针对的渲染数据优先存放到系统内存中,当GPU开始执行渲染任务时,才将存储于系统内存的渲染数据搬移到显存中供GPU读取及处理,以此减少显存资源被耗尽的情况。比如图形执行管理器(GEM,Graphic Execution Manager)方案和转换表映射(TTM,Translation Table Maps)方案。
需要说明的是,常见的系统内存容量通常为显存容量的数倍甚至数十倍,并且系统内存容量还可以借助虚拟内存技术使用硬盘的空间进行扩充;由此可知,系统内存容量由于远大于显存容量,相对于显存容量来说,可以几乎认为是“无限”的。而上述技术方案对于单任务渲染场景来说,由于可以优先使用“无限”的系统内存资源临时存放GPU执行渲染任务时所需的渲染数据。但对于多任务渲染场景来说,当GPU的显存被耗尽时,新的渲染任务就无法执行了,只能向CPU上报显存不够用的错误信息;这种情况的发生原因是对于目前的相关方案中,每个渲染任务均对应一个渲染上下文,而多个渲染上下文则对应着多个渲染任务,不同的渲染上下文在显存内的分配与回收是完全独立的,且与当前渲染上下文紧密绑定,其他渲染上下文是不参与到当前渲染上下文的管理中。在这种情况下,若GPU执行了多个渲染上下文,而其中的某个渲染上下文占用了大量的GPU的显存资源且一直没有被释放掉,那么对于其他渲染上下文而言,不同的渲染上下文之间由于彼此独立,从而不能相互通知以让占用GPU显存资源的渲染任务释放部分其所占的GPU显存资源。这样的情况对于获取不到GPU显存资源的渲染上下文来说,只能向CPU上报错误退出,或者一直等待直到获取到显存资源后继续执行。根据上述针对目前相关技术方案的分析可以获知,目前的相关技术无法充分地利用GPU的显存资源,显存资源的利用效率低下。基于此,本发明实施例所阐述的技术方案期望通过打破不同渲染上下文之间彼此独立的限制以实现对显存资源进行统一管理及调度,从而能够充分利用GPU的显存资源。
参见图1,其示出了能够实现本发明实施例技术方案的计算装置2,该计算装置2的实例包括但不限于:无线装置、移动或蜂窝电话(包含所谓的智能电话)、个人数字助理(PDA)、视频游戏控制台(包含视频显示器、移动视频游戏装置、移动视频会议单元)、膝上型计算机、桌上型计算机、电视机顶盒、平板计算装置、电子书阅读器、固定或移动媒体播放器等。在图1的实例中,该计算装置2可以包括:处理器6、系统内存10和GPU 12。计算装置2还可包含显示处理器14、收发器模块3、用户接口4和显示器8。收发器模块3和显示处理器14两者可为与处理器6和/或GPU 12相同的集成电路(IC)的部分,两者可在包含处理器6和/或GPU12的一或多个IC的外部,或可形成于在包含处理器6和/或GPU 12的IC外部的IC中。
为清楚起见,计算装置2可包含图1中未图示的额外模块或单元。举例来说,计算装置2可在其中计算装置2为移动无线电话的实例中包含扬声器和麦克风(两者均未在图1中示出)来实现电话通信,或在计算装置2为媒体播放器的情况下包含扬声器。计算装置2还可包含摄像机。此外,计算装置2中所示的各种模块和单元可能不是在计算装置2的每个实例中都是必需的。举例来说,在计算装置2为桌上型计算机或经装备以与外部用户接口或显示器连接的其它装置的实例中,用户接口4和显示器8可在计算装置2外部。
用户接口4的实例包含(但不限于)轨迹球、鼠标、键盘和其它类型的输入装置。用户接口4还可为触摸屏,并且可作为显示器8的部分并入。收发器模块3可包含电路以允许计算装置2与另一装置或网络之间的无线或有线通信。收发器模块3可包含调制器、解调器、放大器和用于有线或无线通信的其它此类电路。
处理器6可为微处理器,例如中央处理单元(CPU),其经配置以处理供执行的计算机程序的指令。处理器6可包括控制计算装置2的运算的通用或专用处理器。用户可将输入提供到计算装置2,以致使处理器6执行一或多个软件应用程序。在处理器6上执行的软件应用程序可包含(例如)操作系统、文字处理器应用程序、电子邮件应用程序、电子表格应用程序、媒体播放器应用程序、视频游戏应用程序、图形用户接口应用程序或另一程序。另外,处理器6可执行用于控制GPU 12的运算的GPU驱动程序22。用户可经由一或多个输入装置(未图示) (例如,键盘、鼠标、麦克风、触摸垫或经由用户接口4耦合到计算装置2的另一输入装置)将输入提供到计算装置2。
在处理器6上执行的软件应用程序可包含一或多个图形渲染指令,其指令处理器6来致使将图形数据渲染到显示器8。在一些实例中,所述软件指令可符合图形应用程序编程接口(API),例如开放式图形库OpenGL API、开放式图形库嵌入系统(OpenGL ES)API、Direct3D API、X3D API、RenderMan API、WebGL API、开放式计算语言(OpenCLT M) 、RenderScript或任何其它异构计算API,或任何其它公用或专有标准图形或计算API。所述软件指令还可为针对无渲染算法(例如计算摄影、卷积神经网络、视频处理、科学应用程序等)的指令。为了处理图形渲染指令,处理器6可向GPU 12发出一或多个图形渲染命令(例如,通过GPU驱动程序22),以致使GPU 12执行图形数据的渲染中的一些或全部。在一些实例中,待渲染的图形数据可包含例如点、线、三角形、四边形、三角形带等图形图元的列表。
GPU 12可经配置以执行图形运算,从而将一或多个图形图元渲染到显示器8。因此,当在处理器6上执行的软件应用中的一者需要图形处理时,处理器6可将图形命令和图形数据提供到GPU 12以用于渲染到显示器8。图形数据可包含(例如)绘制命令、状态信息、图元信息、纹理信息等。在一些情况下,GPU 12可内置有高度并行结构,其提供比处理器6高效的对复杂图形相关运算的处理。举例来说,GPU 12可包含经配置以并行方式对多个顶点或像素进行运算的多个处理元件,例如着色器单元。在一些情况下,GPU 12的高度并行性质允许GPU 12比使用处理器6直接将场景绘制到显示器8更快速地将图形图像(例如,GUI和二维(2D)和/或三维(3D)图形场景)绘制到显示器8上。
在一些情况下,可将GPU 12集成到计算装置2的母板中,从而形成集成显卡。在其它情况下,GPU 12可存在于图形卡上,所述图形卡安装在计算装置2的母板中的端口中,或可以其它方式并入在经配置以与计算装置2互操作的外围装置内,该图形卡也可称为独立显卡。GPU 12可包含一或多个处理器,例如一或多个微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、数字信号处理器(DSP)或其它等效的集成或离散逻辑电路。GPU 12还可包含一或多个处理器核心,使得GPU 12可被称作多核处理器。
在一些实例中,GPU 12可将完全形成的图像存储在系统内存10中。显示处理器14可从系统内存10检索图像,且输出致使显示器8的像素照亮以显示所述图像的值。显示器8可为计算装置2的显示器,其显示由GPU 12产生的图像内容。显示器8可为液晶显示器(LCD)、有机发光二极管显示器(OLED)、阴极射线管(CRT)显示器、等离子显示器或另一类型的显示装置。
图2是进一步详细说明图1中处理器6、GPU 12和系统内存10的实例实施方案的框图。如图2所示,处理器6可执行至少一个软件应用程序18、图形API 20和GPU 驱动程序22,其中的每一者可为一或多个软件应用程序或服务。在一些实例中,图形API 20和GPU驱动程序22可实施为CPU 6的硬件单元。
可供GPU 12使用的存储器可包含显存16,其可存储经渲染图像数据,例如像素数据,以及任何其它数据,因此,显存16还可被称为帧缓冲器。在具体实施过程中,比如在GPU12集成到计算装置2的母板中以形成集成显卡的情况下,显存16可为系统内存10的部分;而在GPU 12存在于图形卡上,且所述图形卡安装在计算装置2的母板中的端口中,或可以其它方式并入在经配置以与计算装置2互操作的外围装置内的情况下,即GPU 12存在于独立显卡的情况下,显存16可与系统内存10分离,如图2中所示;需要说明的是,本发明实施例的技术方案可以应用于图2所示的实例方案,也就是说,在实施本发明实施例的技术方案时,为了清楚简洁地描述技术方案,通常可以认为显存16与系统内存10分离;当然,上述说明并不排除本发明实施例的技术方案应用于显存16作为系统内存10的部分的情况,后续不再赘述。
显存16存储GPU 12的目的地像素。每个目的地像素可与唯一屏幕像素位置相关联。在一些实例中,显存16可存储每个目的地像素的色彩分量和目的地α值。举例来说,显存16可存储每个像素的红色、绿色、蓝色、α(RGBA)分量,其中“RGB”分量对应于色彩值,并且“A”分量对应于目的地α值(例如,用于图像合成的不透明度值)。尽管图2将显存16和系统内存10说明为单独的存储器单元,但在其它实例中,例如集成显卡的情况下,显存16可以是系统内存10的一部分。此外显存16还可能够存储除像素之外的任何合适的数据。
软件应用程序18可为利用GPU 12的功能性的任何应用程序。举例来说,软件应用程序18可为图形应用程序、操作系统、便携式制图应用程序、用于工程或艺术应用的计算机辅助设计程序、视频游戏应用程序或使用2D或3D图形的另一类型的软件应用程序。
软件应用程序18可包含指令GPU 12渲染图形用户接口(GUI)和/或图形场景的一或多个绘制指令。举例来说,绘制指令可包含界定将由GPU 12渲染的一组一或多个图形图元的指令。在一些实例中,绘制指令可共同地界定用于GUI中的多个开窗表面的全部或部分。在额外实例中,所述绘制指令可共同地定义图形场景的全部或部分,所述图形场景包含在由应用程序定义的模型空间或世界空间内的一或多个图形对象。
软件应用程序18可经由图形API 20调用GPU驱动程序22,以向GPU 12发出一或多个命令,以用于将一或多个图形图元渲染到可显示的图形图像中。举例来说,软件应用程序18可调用GPU驱动程序22,以向GPU 12提供图元定义。在一些情况下,图元定义可以例如三角形、矩形、三角形扇、三角形带等的绘制图元的列表的形式被提供到GPU 12。图元定义可包含指定与待呈现的图元相关联的一或多个顶点的顶点规格。所述顶点规格可包含每个顶点的位置坐标,且在一些情况下包含与顶点相关联的其它属性,例如色彩属性、法向量和纹理坐标。图元定义还可包含图元类型信息(例如,三角形、矩形、三角形扇、三角形带等)、缩放信息、旋转信息及类似者。
基于由软件应用程序18向GPU驱动程序22发出的指令,GPU驱动程序22可调配指定供GPU 12执行的一或多个运算以便渲染图元的一或多个命令。当GPU 12接收到来自CPU 6的命令时,GPU 12可通过执行图形处理管线,以便对命令进行解码,并对图形处理管线进行配置以执行命令中所制定的渲染操作。此外,在执行渲染操作过程中,可以通过CPU 6调用GPU驱动程序22以对显存16的存储空间进行申请、数据拷贝以及释放等操作。
基于上述针对图2所示实例的阐述,若期望实现通过打破不同渲染上下文之间彼此独立的限制,本发明实施例优选地在GPU 12的系统驱动层级,也就是GPU驱动程序22中引入针对显存16的统一调度器221,来实现对显存资源的统一管理及调度。在一些示例中,参见图3,其示出了本发明实施例提供的一种显存资源的调度方法,该方法可以包括:
S301:在执行当前渲染任务过程中,响应于GPU驱动程序22检测到显存溢出事件的发生,统一调度器221从非活跃渲染上下文中选择目标渲染上下文;其中,所述非活跃渲染上下文包括当前未执行的渲染上下文;
S302:统一调度器221按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页;
S303:统一调度器221将所述被切换的显存页切换出所述显存,并将所述显存中切换后的空余显存页分配至活跃渲染上下文;其中,所述活跃渲染上下文包括当前被执行的渲染上下文。
需要说明的是,通过统一调度器221执行上述技术方案,打破了不同渲染上下文之间彼此独立的限制,能够在发生显存溢出事件时,通过将被切换的显存页换出并将换出所获得空余显存页分配至执行当前渲染任务过程中的活跃渲染上下文以实现对不同渲染上下文的显存页进行换出换入操作,从而在显存溢出时,无需向CPU 6上报错误并等待已有渲染任务完成后释放显存资源以针对活跃渲染上下文的执行渲染操作,提高了显存资源的利用效率。
对于图3所示的技术方案,在一些示例中,所述GPU驱动程序22检测到显存溢出事件的发生,可以包括:
GPU驱动程序22在为所述活跃渲染上下文分配显存时检测到显存剩余资源不足以为所述活跃渲染上下文进行分配;
或者,在根据所述活跃渲染上下文执行当前渲染任务过程中,GPU驱动程序22根据由GPU 12中的存储管理单元(MMU,Memory Management Unit)121上报的中断信号触发中断服务程序;其中,所述中断信号包括所述GPU 12中的MMU在执行当前渲染任务过程中发现产生的中间数据导致显存资源不足时所反馈的中断信号。
对于上述示例,具体来说,为了执行当前渲染任务,GPU驱动程序22首先就需要为被执行的活跃渲染上下文分配显存资源,若此时显存16中剩余的空闲资源不足以分配给活跃渲染上下文,那么就会导致显存溢出的情况出现,也就是说,上述显存溢出事件(后续简称为“第一显存溢出事件”)通常会发生在执行当前渲染任务过程的前段部分,响应于上述第一显存溢出事件,统一调度器221就可以按照图3所述的技术方案进行显存页的换出换入操作。
此外,在为活跃渲染上下文分配至相应显存资源之后,当GPU 12根据所述活跃渲染上下文执行当前渲染任务的过程中,通常会产生一些中间数据缓存在显存16中,此时,如果中间数据过多,同样会导致显存溢出的情况出现,也就是说,上述显存溢出事件(后续简称为“第二显存溢出事件”)可能发生在执行当前渲染任务过程中的任意时刻,相应于第二显存溢出事件发生,统一调度器221同样可以按照图3所述的技术方案进行显存页的换出换入操作。
具体地,对于上述第二显存溢出事件来说,当GPU 12根据所述活跃渲染上下文执行当前渲染任务的过程中,若产生的中间数据致使显存溢出的情况出现,举例来说,在GPU内部逻辑在动态访问显存过程中,若GPU 12中的MMU 121一旦发现所访问的显存已超出当前显存的界限后,会立即向主机端发送一个中断信号,主机端在捕获到GPU 12的MMU 121所发送的中断信号后,会触发GPU驱动程序22中预设的中断服务程序,该中断服务程序能够配合统一调度器221完成图3所示的显存页的换出换入操作。详细来说,参见图4,上述在根据所述活跃渲染上下文执行当前渲染任务过程中,GPU驱动程序22根据由GPU 12中的MMU 121上报的中断信号触发中断服务程序,其具体实施过程可以包括:
S41:GPU驱动程序22接收由GPU 12的MMU 121反馈的中断信号;其中,所述中断信号为GPU 12的MMU 121发现缺页中断状态时所反馈的信号,具体可以包括缺页中断的描述信息以及全局显存资源的使用信息;举例来说,缺页中断的描述信息可以包括当前缺页对应的渲染上下文、当前缺页对应的显存地址;全局显存资源的使用信息可以包括基于最近最少使用(LRU,Least Recently Used)算法获得的当前显存使用的情况,比如可以被换出的显存资源以及不可以被换出的显存资源;
S42:GPU驱动程序22触发中断服务程序,并向所述统一调度器221传输所述缺页中断的描述信息以及全局显存资源的使用信息,以使得所述统一调度器221基于所述中断服务程序的触发根据所述缺页中断的描述信息以及全局显存资源的使用信息选择目标渲染上下文。
对于图3所示的技术方案,在一些示例中,所述统一调度器221从非活跃渲染上下文中选择目标渲染上下文,可以包括:
所述统一调度器221从所述非活跃渲染上下文中将当前被执行的渲染上下文之前最接近的已执行完毕的渲染上下文选择为所述目标渲染上下文。
需要说明的是,渲染过程中,在当前被执行的渲染上下文之前最接近的已执行完毕的渲染上下文,也被称之为刚执行完毕的渲染上下文,在短时间内通常不会再次被用于执行渲染任务,因此,优先将目标渲染上下文选择为刚执行完毕的渲染上下文,能够避免短期内再次进行上述显存页的换出换入操作,提高了显存资源的使用效率。
对于图3所示的技术方案,需要说明的是,在统一调度器221中,会针对每个渲染上下文均对应保存一张显存资源使用表,用于记录被对应的渲染上下文所存储的显存地址以及虚拟显存的使用情况,同时保存有被对应的渲染上下文中每个显存页的使用频次,比如最近最少使用情况,从而在完成选择目标渲染上下文后,确定被切换的显存页,基于此,在一些示例中,所述统一调度器221按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页,包括:
所述统一调度器221从所述目标渲染上下文的显存页中,基于LRU算法选择最近最少使用的显存页作为所述被切换的显存页。
基于上述图3所示的技术方案以及前述示例,当统一调度器221完成显存页换出换入操作之后,还需要针对换出的显存页进行妥善处理,否则在下一次调用目标渲染上下文执行渲染任务时,会再次引发并生成显存溢出的中断信号。基于此,在一些示例中,所述方法还包括:
统一调度器221在系统内存10内为所述目标渲染上下文分配存储空间;
统一调度器221将被切换的显存页同步至GPU 12的MMU 121,以使得GPU 12调用GPU 12的MMU 121完成地址转换;
统一调度器221启动GPU 12的直接存储器访问(DMA,Direct Memory Access)122根据转换完成的地址将被切换的显存页切换至系统内存10中。
完成上述示例后,当下次调用目标渲染上下文执行渲染任务时可以通过GPU 12的DMA 122将系统内存10保存的被切换的显存页调度至显存16中。
此外,在一些示例中,在完成显存页的换入换出操作后,还可以包括:统一调度器221将目标渲染上下文对应的显存资源使用表进行更新,以此保证当切换到下一次渲染上下文过程中,显存访问的正确性。需要说明的是,在选择即将替换的显存页的过程中,可以将显存所保存的内容属性作为显存切换的依据。
基于上述技术方案,参见图5所示的具体实施示例,显存16中已有的渲染上下文分别为CTX0、CTX1以及CTX2,当前执行渲染操作的活跃渲染上下文为CTX3,当为CTX3分配显存时,发现显存16的剩余资源不足以完全分配给CTX3,会造成部分显存页(如图5中灰色方块所示)出现溢出,此时,统一调度器221可以将最近完成渲染任务的CTX1选为目标渲染上下文,并且从CTX1的显存页中根据LRU算法选择被切换出的显存页,如图5中的交叉线填充方块所示。统一调度器221可以将被切换出的显存页切换出显存,并且将切换所得到的显存16的空余空间分配给灰色方块所示的CTX3的显存页,如图6所示。对于交叉线填充方块所示的切换出的显存页CTX1’,统一调度器221可以启动GPU 12的DMA 122将被切换的显存页切换至系统内存10。
通过以上技术方案,采用统一调度器221对显存16的所有资源进行统一管理,从而可以灵活高效的进行显存16与系统内存10之间的换入换出操作,打破多个渲染上下文彼此独立的限制,使得显存资源得到充分的利用。
基于前述技术方案相同的技术构思,参见图7,其示出了本发明实施例提供的一种显存资源的调度装置70,该装置70可以包括:选择部分701,确定部分702以及第一分配部分703,其中,
所述选择部分701,经配置为在执行当前渲染任务过程中,响应于图形处理器GPU驱动程序检测到显存溢出事件的发生,从非活跃渲染上下文中选择目标渲染上下文;其中,所述非活跃渲染上下文包括当前未执行的渲染上下文;
所述确定部分702,经配置为按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页;
所述第一分配部分703,经配置为将所述被切换的显存页切换出显存,并将所述显存中切换后的空余显存页分配至活跃渲染上下文;其中,所述活跃渲染上下文包括当前被执行的渲染上下文。
在一些示例中,所述GPU驱动程序检测到显存溢出事件的发生,包括:
所述GPU驱动程序在为所述活跃渲染上下文分配显存时检测到显存剩余资源不足以为所述活跃渲染上下文进行分配;
或者,在根据所述活跃渲染上下文执行当前渲染任务过程中,所述GPU驱动程序根据由所述GPU中的存储管理单元MMU 121上报的中断信号触发中断服务程序;其中,所述中断信号包括所述GPU中的MMU 121在执行当前渲染任务过程中发现产生的中间数据导致所述显存资源不足时所反馈的中断信号。
基于上述示例,所述在根据所述活跃渲染上下文执行当前渲染任务过程中,所述GPU驱动程序根据由所述GPU中的存储管理单元MMU 121上报的中断信号触发中断服务程序,包括:
所述GPU驱动程序接收由所述GPU的MMU 121反馈的中断信号;其中,所述中断信号为所述GPU的MMU 121发现缺页中断状态时所反馈的信号,且包括缺页中断的描述信息以及全局显存资源的使用信息;
所述GPU驱动程序触发中断服务程序,并向所述显存资源的调度装置70传输所述缺页中断的描述信息以及全局显存资源的使用信息,以使得所述显存资源的调度装置70基于所述中断服务程序的触发根据所述缺页中断的描述信息以及全局显存资源的使用信息选择目标渲染上下文。
在一些示例中,所述选择部分701,经配置为:从所述非活跃渲染上下文中将所述当前被执行的渲染上下文之前最接近的已执行完毕的渲染上下文选择为所述目标渲染上下文。
在一些示例中,所述确定部分702,经配置为从所述目标渲染上下文的显存页中,基于最近最少使用LRU算法选择最近最少使用的显存页作为所述被切换的显存页。
在一些示例中,参见图8,所述装置70还可以包括:
第二分配部分704,经配置为在系统内存内为所述目标渲染上下文分配存储空间;
同步部分705,经配置为将所述被切换的显存页同步至所述GPU的MMU,以使得所述GPU调用所述GPU的MMU完成地址转换;
启动部分706,经配置为启动所述GPU的DMA,根据转换完成的地址将所述被切换的显存页切换至所述系统内存中。
在一些示例中,参见图9,所述装置70还可以包括:
存储部分707,经配置为针对每个渲染上下文均对应保存一张显存资源使用表,用于记录被对应的渲染上下文所存储的显存地址以及虚拟显存的使用情况,同时保存有所述被对应的渲染上下文中每个显存页的使用频次;
更新部分708,经配置为将所述目标渲染上下文对应的显存资源使用表进行更新,以此保证当切换到下一次渲染上下文过程中,显存访问的正确性。
可以理解地,在本实施例中,“部分”可以是部分电路、部分处理器、部分程序或软件等等,当然也可以是单元,还可以是模块也可以是非模块化的。
另外,在本实施例中的各组成部分可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM, Read Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
因此,本实施例提供了一种计算机存储介质,所述计算机存储介质存储有显存资源的调度程序,所述显存资源的调度程序被至少一个处理器执行时实现上述技术方案中所述显存资源的调度方法步骤。
需要说明的是:本发明实施例所记载的技术方案之间,在不冲突的情况下,可以任意组合。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种显存资源的调度方法,其特征在于,所述方法包括:
在执行当前渲染任务过程中,响应于图形处理器GPU驱动程序检测到显存溢出事件的发生,统一调度器从非活跃渲染上下文中选择目标渲染上下文;其中,所述非活跃渲染上下文包括当前未执行的渲染上下文;
所述统一调度器按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页;
所述统一调度器将所述被切换的显存页切换出显存,并将所述显存中切换后的空余显存页分配至活跃渲染上下文;其中,所述活跃渲染上下文包括当前被执行的渲染上下文。
2.根据权利要求1所述的方法,其特征在于,所述GPU驱动程序检测到显存溢出事件的发生,包括:
所述GPU驱动程序在为所述活跃渲染上下文分配显存时检测到显存剩余资源不足以为所述活跃渲染上下文进行分配;
或者,在根据所述活跃渲染上下文执行当前渲染任务过程中,所述GPU驱动程序根据由所述GPU中的存储管理单元MMU上报的中断信号触发中断服务程序;其中,所述中断信号包括所述GPU中的MMU在执行当前渲染任务过程中发现产生的中间数据导致所述显存资源不足时所反馈的中断信号。
3.根据权利要求2所述的方法,其特征在于,所述在根据所述活跃渲染上下文执行当前渲染任务过程中,所述GPU驱动程序根据由所述GPU中的存储管理单元MMU上报的中断信号触发中断服务程序,包括:
所述GPU驱动程序接收由所述GPU的MMU反馈的中断信号;其中,所述中断信号为所述GPU的MMU发现缺页中断状态时所反馈的信号,且包括缺页中断的描述信息以及全局显存资源的使用信息;
所述GPU驱动程序触发中断服务程序,并向所述统一调度器传输所述缺页中断的描述信息以及全局显存资源的使用信息,以使得所述统一调度器基于所述中断服务程序的触发根据所述缺页中断的描述信息以及全局显存资源的使用信息选择目标渲染上下文。
4.根据权利要求1所述的方法,其特征在于,所述统一调度器从非活跃渲染上下文中选择目标渲染上下文,包括:
所述统一调度器从所述非活跃渲染上下文中将所述当前被执行的渲染上下文之前最接近的已执行完毕的渲染上下文选择为所述目标渲染上下文。
5.根据权利要求1所述的方法,其特征在于,所述统一调度器按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页,包括:
所述统一调度器从所述目标渲染上下文的显存页中,基于最近最少使用LRU算法选择最近最少使用的显存页作为所述被切换的显存页。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述方法还包括:
所述统一调度器在系统内存内为所述目标渲染上下文分配存储空间;
所述统一调度器将所述被切换的显存页同步至所述GPU的MMU,以使得所述GPU调用所述GPU的MMU完成地址转换;
所述统一调度器启动所述GPU的直接存储器访问,根据转换完成的地址将所述被切换的显存页切换至所述系统内存中。
7.根据权利要求1至5任一项所述的方法,其特征在于,所述统一调度器针对每个渲染上下文均对应保存一张显存资源使用表,用于记录被对应的渲染上下文所存储的显存地址以及虚拟显存的使用情况,同时保存有所述被对应的渲染上下文中每个显存页的使用频次;相应地,所述方法还包括:
所述统一调度器将所述目标渲染上下文对应的显存资源使用表进行更新,以此保证当切换到下一次渲染上下文过程中,显存访问的正确性。
8.一种显存资源的调度装置,其特征在于,所述装置包括:选择部分,确定部分以及第一分配部分,其中,
所述选择部分,经配置为在执行当前渲染任务过程中,响应于图形处理器GPU驱动程序检测到显存溢出事件的发生,从非活跃渲染上下文中选择目标渲染上下文;其中,所述非活跃渲染上下文包括当前未执行的渲染上下文;
所述确定部分,经配置为按照使用频次状态从用于存储所述目标渲染上下文的显存页中确定被切换的显存页;
所述第一分配部分,经配置为将所述被切换的显存页切换出显存,并将所述显存中切换后的空余显存页分配至活跃渲染上下文;其中,所述活跃渲染上下文包括当前被执行的渲染上下文。
9.一种显存资源的调度装置,其特征在于,所述装置包括:CPU、图形处理器GPU、显存以及存储器;其中,所述存储器存储有GPU驱动程序以及用于执行权利要求1至7任一项所述的显存资源的调度方法步骤的显存资源的调度程序;所述CPU,经配置为在执行当前渲染任务过程中,基于所述存储器所存储的GPU驱动程序以及所述显存资源的调度程序对所述GPU的显存的资源进行调度。
10.一种计算机存储介质,其特征在于,所述计算机存储介质存储有显存资源的调度程序,所述显存资源的调度程序被至少一个处理器执行时实现权利要求1至7任一项所述的显存资源的调度方法的步骤。
CN202010896588.9A 2020-08-31 2020-08-31 一种显存资源的调度方法、装置及计算机存储介质 Active CN111737019B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010896588.9A CN111737019B (zh) 2020-08-31 2020-08-31 一种显存资源的调度方法、装置及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010896588.9A CN111737019B (zh) 2020-08-31 2020-08-31 一种显存资源的调度方法、装置及计算机存储介质

Publications (2)

Publication Number Publication Date
CN111737019A true CN111737019A (zh) 2020-10-02
CN111737019B CN111737019B (zh) 2020-12-11

Family

ID=72658081

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010896588.9A Active CN111737019B (zh) 2020-08-31 2020-08-31 一种显存资源的调度方法、装置及计算机存储介质

Country Status (1)

Country Link
CN (1) CN111737019B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112465689A (zh) * 2020-10-21 2021-03-09 中国船舶重工集团公司第七0九研究所 基于可见显存交换区的gpu不可见显存管理方法及系统
CN112988364A (zh) * 2021-05-20 2021-06-18 西安芯瞳半导体技术有限公司 一种动态的任务调度方法、装置及存储介质
CN113377545A (zh) * 2021-07-08 2021-09-10 支付宝(杭州)信息技术有限公司 用于分配gpu物理内存的方法及装置
CN113808001A (zh) * 2021-11-19 2021-12-17 南京芯驰半导体科技有限公司 一种单系统同时支持多gpu工作的方法及系统
CN114625536A (zh) * 2022-03-15 2022-06-14 北京有竹居网络技术有限公司 显存分配方法、装置、介质及电子设备
CN117435521A (zh) * 2023-12-21 2024-01-23 西安芯云半导体技术有限公司 基于gpu渲染的纹理显存映射方法、装置及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080136829A1 (en) * 2006-12-11 2008-06-12 Via Technologies, Inc. Gpu context switching system
US20140229935A1 (en) * 2013-02-11 2014-08-14 Nvidia Corporation Virtual interrupt delivery from a graphics processing unit (gpu) of a computing system without hardware support therefor
CN104572509A (zh) * 2014-12-26 2015-04-29 中国电子科技集团公司第十五研究所 一种在龙芯计算平台上实现独立显卡显存分配的方法
TW201535114A (zh) * 2013-12-09 2015-09-16 Ibm 記錄非揮發性記憶體系統中之停滯時間
US20190026856A1 (en) * 2017-04-10 2019-01-24 Intel Corporation Dynamic Page Sizing of Page Table Entries
CN109857677A (zh) * 2018-12-28 2019-06-07 晶晨半导体(上海)股份有限公司 内核栈的分配方法及装置
CN110928695A (zh) * 2020-02-12 2020-03-27 南京芯瞳半导体技术有限公司 一种关于显存的管理方法、装置及计算机存储介质
CN111209116A (zh) * 2020-01-06 2020-05-29 西安芯瞳半导体技术有限公司 一种分配显存空间的方法、装置及计算机存储介质
US10713746B2 (en) * 2018-01-29 2020-07-14 Microsoft Technology Licensing, Llc FIFO queue, memory resource, and task management for graphics processing

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080136829A1 (en) * 2006-12-11 2008-06-12 Via Technologies, Inc. Gpu context switching system
US20140229935A1 (en) * 2013-02-11 2014-08-14 Nvidia Corporation Virtual interrupt delivery from a graphics processing unit (gpu) of a computing system without hardware support therefor
TW201535114A (zh) * 2013-12-09 2015-09-16 Ibm 記錄非揮發性記憶體系統中之停滯時間
CN104572509A (zh) * 2014-12-26 2015-04-29 中国电子科技集团公司第十五研究所 一种在龙芯计算平台上实现独立显卡显存分配的方法
US20190026856A1 (en) * 2017-04-10 2019-01-24 Intel Corporation Dynamic Page Sizing of Page Table Entries
US10713746B2 (en) * 2018-01-29 2020-07-14 Microsoft Technology Licensing, Llc FIFO queue, memory resource, and task management for graphics processing
CN109857677A (zh) * 2018-12-28 2019-06-07 晶晨半导体(上海)股份有限公司 内核栈的分配方法及装置
CN111209116A (zh) * 2020-01-06 2020-05-29 西安芯瞳半导体技术有限公司 一种分配显存空间的方法、装置及计算机存储介质
CN110928695A (zh) * 2020-02-12 2020-03-27 南京芯瞳半导体技术有限公司 一种关于显存的管理方法、装置及计算机存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JENS KEHNE 等: ""GPUswap: Enabling Oversubscription of GPU Memory through Transparent Swapping"", 《ACM SIGPLAN NOTICES》 *
孙立明: ""支持国产飞腾1500A处理器的计算机图形显示系统优化与实现"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112465689A (zh) * 2020-10-21 2021-03-09 中国船舶重工集团公司第七0九研究所 基于可见显存交换区的gpu不可见显存管理方法及系统
CN112988364A (zh) * 2021-05-20 2021-06-18 西安芯瞳半导体技术有限公司 一种动态的任务调度方法、装置及存储介质
CN113377545A (zh) * 2021-07-08 2021-09-10 支付宝(杭州)信息技术有限公司 用于分配gpu物理内存的方法及装置
CN113377545B (zh) * 2021-07-08 2023-11-14 支付宝(杭州)信息技术有限公司 用于分配gpu物理内存的方法及装置
CN113808001A (zh) * 2021-11-19 2021-12-17 南京芯驰半导体科技有限公司 一种单系统同时支持多gpu工作的方法及系统
CN114625536A (zh) * 2022-03-15 2022-06-14 北京有竹居网络技术有限公司 显存分配方法、装置、介质及电子设备
CN114625536B (zh) * 2022-03-15 2023-10-31 北京有竹居网络技术有限公司 显存分配方法、装置、介质及电子设备
CN117435521A (zh) * 2023-12-21 2024-01-23 西安芯云半导体技术有限公司 基于gpu渲染的纹理显存映射方法、装置及介质
CN117435521B (zh) * 2023-12-21 2024-03-22 西安芯云半导体技术有限公司 基于gpu渲染的纹理显存映射方法、装置及介质

Also Published As

Publication number Publication date
CN111737019B (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
CN111737019B (zh) 一种显存资源的调度方法、装置及计算机存储介质
CN110928695B (zh) 一种关于显存的管理方法、装置及计算机存储介质
JP6504212B2 (ja) 装置、方法およびシステム
EP3657327A1 (en) Method for rendering game, and method, apparatus and device for generating game resource file
CN104641396B (zh) 用于调度图形处理单元命令流的延迟抢占技术
US9715750B2 (en) System and method for layering using tile-based renderers
EP3108452B1 (en) Shader pipeline with shared data channels
US9026745B2 (en) Cross process memory management
CN114972607B (zh) 加速图像显示的数据传输方法、装置及介质
JP2015515052A (ja) グラフィックス処理ユニット上でのグラフィックスアプリケーションおよび非グラフィックスアプリケーションの実行
CN111209116B (zh) 一种分配显存空间的方法、装置及计算机存储介质
CN116821040B (zh) 基于gpu直接存储器访问的显示加速方法、装置及介质
CN112686797A (zh) 用于gpu功能验证的目标帧数据获取方法、装置及存储介质
CN111311478B (zh) 一种gpu渲染核数据的预读取方法、装置及计算机存储介质
US9324299B2 (en) Atlasing and virtual surfaces
CN117194055B (zh) Gpu显存申请及释放的方法、装置及存储介质
CN113467959A (zh) 应用于gpu的确定任务复杂度的方法、装置及介质
CN112316437B (zh) 一种资源切换方法、装置、电子设备及存储介质
CN112991143A (zh) 一种图元装配的方法、装置及计算机存储介质
CN116909511A (zh) 提升gpu双缓冲显示效率的方法、装置及存储介质
CN113256764A (zh) 一种光栅化装置、方法及计算机存储介质
US10354623B1 (en) Adaptive buffer latching to reduce display janks caused by variable buffer allocation time
CN112988364B (zh) 一种动态的任务调度方法、装置及存储介质
CN117435521B (zh) 基于gpu渲染的纹理显存映射方法、装置及介质
CN114596199A (zh) 基于高斯模糊的渲染方法、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Room 301, Building D, Yeda Science and Technology Park, No. 300 Changjiang Road, Yantai Area, China (Shandong) Pilot Free Trade Zone, Yantai City, Shandong Province

Patentee after: Xi'an Xintong Semiconductor Technology Co.,Ltd.

Address before: Room 21101, 11 / F, unit 2, building 1, Wangdu, No. 3, zhangbayi Road, Zhangba Street office, hi tech Zone, Xi'an City, Shaanxi Province

Patentee before: Xi'an Xintong Semiconductor Technology Co.,Ltd.

CP03 Change of name, title or address