CN112041894B - 渲染期间提高涉及水面的场景的真实感 - Google Patents

渲染期间提高涉及水面的场景的真实感 Download PDF

Info

Publication number
CN112041894B
CN112041894B CN201980025280.2A CN201980025280A CN112041894B CN 112041894 B CN112041894 B CN 112041894B CN 201980025280 A CN201980025280 A CN 201980025280A CN 112041894 B CN112041894 B CN 112041894B
Authority
CN
China
Prior art keywords
grid
scene
water
projected
geometry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980025280.2A
Other languages
English (en)
Other versions
CN112041894A (zh
Inventor
H·H·格伦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nvidia Corp
Original Assignee
Nvidia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nvidia Corp filed Critical Nvidia Corp
Publication of CN112041894A publication Critical patent/CN112041894A/zh
Application granted granted Critical
Publication of CN112041894B publication Critical patent/CN112041894B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/24Fluid dynamics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)

Abstract

确定要渲染的场景的水面网格。该水面网格包括一组几何形状,例如代表水面的三角形。然后使用此水面网格创建折射或反射网格。折射或反射网格显示由水面的光的折射或反射产生的效果。然后使用水面网格与折射或反射网格之间的关系来确定如何照亮场景中的元素。这消除了渲染期间以前需要执行的某些步骤,并可以在场景中准确描绘焦散,其可以实时执行。

Description

渲染期间提高涉及水面的场景的真实感
优先权要求
本申请要求于2018年4月16日提交的标题为“用于折射和反射实时焦散的方法和系统(METHODS AND SYSTEMS FOR REFRACTED AND REFLECTED REAL-TIME CAUSTICS)”的美国临时申请No.62/658,534号(案卷号18-MU-0095US01)的权益,其通过引用整体并入本文。
技术领域
本发明涉及图像渲染,并且更具体地涉及在图像渲染期间考虑表面焦散(caustics)。
背景技术
水面焦散(例如,由场景内水面折射或反射掉的光产生的光图案等)影响场景内水源上方和下方的对象的照明方式。考虑到渲染期间精确的水面焦散是费时和资源密集的,并且当前不能实时准确地执行。结果,当前的实时渲染会导致场景中不真实的水面焦散。因此,需要在渲染期间更有效地解决真实的水面焦散问题。
附图说明
图1示出了根据一个实施例的用于在渲染期间提高涉及水面的场景的真实感的方法的流程图。
图2示出了根据一个实施例的并行处理单元。
图3A示出了根据一个实施例的在图2的并行处理单元内的通用处理集群。
图3B示出了根据一个实施例的图2的并行处理单元的存储器分区单元。
图4A示出了根据一个实施例的图3A的流式多处理器。
图4B是根据一个实施例的使用图2的PPU实现的处理系统的概念图。
图4C示出了其中可以实现各种先前实施例的各种架构和/或功能的示例性系统。
图5是根据一个实施例的由图2的PPU实现的图形处理管线的概念图。
图6示出了根据一个实施例的用于实现实时光线追踪的水面焦散的方法的流程图。
图7示出了根据一个实施例的示例性动态水下三维(3D)场景。
图8示出了根据一个实施例的渲染光线跟踪的水焦散的示例。
图9示出了根据一个实施例的示例性折射示例。
图10示出了根据一个实施例的示例性样本生成及其相应的折射屏幕空间位置。
图11示出了根据一个实施例的在源自水面的三个顶点/光线生成的三个不同交点处形成的三个三角形的示例性描绘。
具体实施方式
在计算机图形学中,水面(water surface)焦散是由要渲染的场景中的水面折射或反射的光生成的光图案。这些水面焦散会影响场景中水源上方和下方的对象的照明方式。由于考虑这些焦散是时间和资源密集的,并且当前不能实时准确地执行,因此实时渲染会导致场景中不真实的水面焦散。
为了解决这个问题,针对要渲染的场景确定水面网格。该水面网格是一组几何形状,例如代表水面的三角形。然后使用该水面网格创建照明网格,其中照明网格是折射网格或反射网格。照明网格显示出水面的光的折射或反射产生的效果。然后,使用水面网格和照明网格之间的关系来确定如何照亮场景中元素。这消除了渲染期间以前需要执行的某些步骤,并使得在场景中准确描绘焦散可以实时执行。
图1示出了根据一个实施例的,用于在渲染期间提高涉及水面的场景的真实感的方法100的流程图。尽管在处理单元的上下文中描述了方法100,但是方法100也可以由程序,定制电路或定制电路与程序的组合来执行。例如,方法100可以由GPU(图形处理单元),CPU(中央处理单元)或能够通过散列执行并行路径空间滤波的任何处理器执行。此外,本领域普通技术人员将理解,执行方法100的任何系统都在本发明实施例的范围和精神内。
如操作102中所示,针对要渲染的场景确定水面网格。在一个实施例中,水面网格包括表示场景内水面的几何形状的多边形网格。在另一个实施例中,水面网格包括多个几何实例(例如,诸如三角形等的多边形)。
另外,如操作104中所示,针对水面网格的每个顶点确定一条光线。在一个实施例中,该光线始于水面网格的顶点的当前位置。在另一个实施例中,该光线可以包括沿着入射光的折射方向指向的折射光线。在另一个实施例中,该光线可以包括沿着入射光的反射方向指向的反射光线。在又一个实施例中,该光线是由场景的光源撞击水面网格的顶点而创建的。
进一步地,在一个实施例中,该光线可以包括通过追踪来自光源的光线并在水面网格的顶点处识别该光线的折射而产生的折射光线。在另一个实施例中,该光线可以包括通过追踪来自光源的光线并且识别光线在水面网格的顶点处的反射而产生的反射光线。在另一个实施例中,利用针对顶点的表面法线计算(surface normal calculated)确定针对水面网格的顶点的折射光线或反射光线的方向。
更进一步地,如操作106所示,利用针对水面网格的每个顶点的光线来为场景计算水网格。在一个实施例中,水网格可包括折射水网格或反射水网格。在另一个实施例中,水网格具有与水面网格相同的顶点数量和相同的多边形数。在又一个实施例中,如果水网格是折射水网格,则通过将每个折射光线与要渲染的场景中的水下几何形状相交来确定折射水网格内的顶点的位置。在又一个实施例中,如果水网格是反射水网格,则通过将每个反射光线与要渲染的场景中的水上几何形状相交来确定反射水网格内的顶点的位置。在另一个实施例中,基于从水面网格的顶点开始的相应的折射光线或反射光线,水面网格的每个多边形在折射水网格或反射水网格中生成相应的多边形。
此外,如操作108所示,针对水面网格的每个多边形计算压缩率。在一个实施例中,基于水面网格的多边形的表面积(surface area)和(折射的或反射的)水网格内的相应多边形的表面积来计算压缩率。在另一个实施例中,针对水面网格的每个多边形的压缩率可以存储在缓冲器中。
另外,如操作110中所示,基于针对水面网格的每个多边形计算的压缩率,光线从水面网格的一个或更多个多边形投射到场景几何形状上。例如,如果水网格是折射水网格,则基于针对水面网格的每个多边形计算的压缩率,将折射光线从水面网格的一个或更多个多边形投射到水下场景几何形状上。在另一示例中,如果水网格是反射水网格,则基于针对水面网格的每个多边形计算的压缩率,将反射光线从水面网格的一个或更多个多边形投射到水上场景几何形状上。在一个实施例中,从水面网格的一个或更多个多边形投射/产生的许多折射光线或反射光线可以基于针对多边形的压缩率和/或水网格的几何形状的屏幕空间尺寸。
此外,在一个实施例中,可以将针对水面网格的多边形的压缩率与预定阈值进行比较。例如,预定阈值可以具有一个值。在另一个实施例中,如果压缩率不超过阈值,则穿过多边形的光被扩散,并且对于水面网格的多边形,不会投射/产生任何光线。可替代地,可以针对水面网格的多边形投射/产生预定数量的光线(其中该数量低于具有压缩率大于阈值的多边形的数量)。
此外,在一个实施例中,如果压缩率超过阈值,则穿过多边形的光被聚集/聚焦,并且可以针对水面网格的多边形投射/产生光线。例如,投射/产生的光线的数量可以与多边形的压缩率成比例。在另一个示例中,具有第一压缩率的第一多边形可以比具有小于第一压缩率的第二压缩率的第二多边形具有针对第一多边形投射/产生的更多光线。
同样,在一个实施例中,从水面网格的一个或更多个多边形投射/产生的许多光线可以基于水网格内相应多边形的屏幕上(on-screen)尺寸。
另外,在一个实施例中,可以从水面网格的每个多边形内的随机位置投射/产生光线。例如,可以利用使用唯一的按多边形ID作为随机种子值的随机数序列来确定随机位置。例如,可以为水面网格的每个多边形分配唯一的标识数。在又一示例中,标识数可以用作种子值以生成随机数。
例如,可以将标识数输入到伪随机数生成器中以生成伪随机数序列。相同的种子可能始终会导致来自伪随机数生成器的相同的伪随机数序列。这可以确保每次在多个场景/帧上的多边形内,该多边形内的随机位置序列都是相同的,这可以使水面网格的多边形内的噪声位置稳定,并且通常可以使噪声稳定。
此外,在一个实施例中,针对水面网格的每个多边形,可以确定针对该多边形确定的每个随机位置从场景的光源是否可见。例如,可以通过将随机位置与场景的阴影图进行比较,从随机位置向光源发射光线等来执行此操作。
进一步地,在一个实施例中,针对要为其投射/产生光线的水面网格的每个多边形,针对从场景的光源可见的该多边形确定的每个随机位置,投射/产生光线。例如,可以通过沿着针对多边形确定的内插折射或反射方向形成从每个随机位置开始的光线(例如,光子等)来投射/产生光线。
此外,如操作112所示,利用投射的光线执行场景几何形状的照明。在一个实施例中,针对要为其投射/产生折射光线的水面网格的每个多边形,确定每个投射/产生的折射光线与水下场景几何形状的交点。在一个实施例中,针对要为其投影/产生反射光线的水面网格的每个多边形,确定每个投影/产生的反射光线与水上场景几何形状的交点。在另一个实施例中,每个交点被投射到屏幕空间位置(例如,像素)。例如,交点可以投射到二维(2D)位置上,如通过观看场景的相机的视角(屏幕空间位置)所看到的。
另外,在一个实施例中,如果确定屏幕空间位置在屏幕上(例如,在屏幕上可见),则在缓冲器中累积该屏幕空间位置的亮度值。例如,对于屏幕空间内的每个像素,屏幕空间缓冲器可存储来自该像素的折射光线的累积亮度(例如,作为浮点值等)。在另一示例中,像素的累积亮度可以根据一个或更多个因子进行缩放(例如,针对水面网格的多边形的相关压缩率,一定长度的光线在穿过水时被吸收的光量)。
此外,在一个实施例中,可以将存储在缓冲器中的累积亮度值针对每个屏幕空间位置进行去噪,以创建针对屏幕空间位置的去噪且平滑的焦散缓冲器值。例如,可以利用亮度模糊来执行降噪。在另一个实施例中,针对每个屏幕空间位置(例如,可见屏幕空间的每个像素)的经去噪和平滑的焦散缓冲值可以用于将光照射到水下或水上场景,从而执行水下或水上场景几何形状的照明。
以这种方式,折射水网格或反射水网格可以充当引导网格,并且可以用于确定要从场景的相应水面网格投射/产生的折射光线或反射光线的数量和位置。另外,折射光线或反射光线可以直接从水面网格投射,而不是从光源投射,这可以消除渲染期间对一个或更多个中间渲染步骤的需要,可以提高一个或更多个执行渲染的计算设备的性能。而且,直接从水面网格投射折射光线或反射光线可以实现折射光线或反射光线的实时光线追踪,以实现水面的焦散(例如,由场景内水面光折射或反射产生的光图案)。
在又一个实施例中,可以利用诸如图2所示的PPU 200之类的并行处理单元(PPU)来计算水网格并执行光线投射。
现在将根据用户的需求,给出关于可用于实现前述框架的各种可选架构和特征的更多说明性信息。应该特别注意的是,以下信息是出于说明目的而提出的,不应以任何方式解释为限制。下列任何特征都可以可选地合并或不合并所描述的其他特征。
并行处理架构
图2示出了根据一个实施例的并行处理单元(PPU)200。在一个实施例中,PPU 200是在一个或更多个集成电路器件上实现的多线程处理器。PPU 200是设计用于并行处理许多线程的延迟隐藏体系架构。线程(即,执行线程)是被配置为由PPU 200执行的指令集的实例。在一个实施例中,PPU 200是图形处理单元(GPU),其被配置为实现用于处理三维(3D)图形数据的图形渲染管线,以便生成用于在显示装置(诸如液晶显示(LCD)设备)上显示的二维(2D)图像数据。在其他实施例中,PPU 200可以用于执行通用计算。尽管为了说明的目的本文提供了一个示例性并行处理器,但应特别指出的是,该处理器仅出于说明目的进行阐述,并且可使用任何处理器来补充和/或替代该处理器。
一个或更多个PPU 200可以被配置为加速数千个高性能计算(HPC)、数据中心和机器学习应用。PPU 200可被配置为加速众多深度学习系统和应用,包括自动驾驶汽车平台、深度学习、高精度语音、图像和文本识别系统、智能视频分析、分子模拟、药物研发、疾病诊断、天气预报、大数据分析、天文学、分子动力学模拟、金融建模、机器人技术、工厂自动化、实时语言翻译、在线搜索优化和个性化用户推荐,等等。
如图2所示,PPU 200包括输入/输出(I/O)单元205、前端单元215、调度器单元220、工作分配单元225、集线器230、交叉开关(Xbar)270、一个或更多个通用处理集群(GPC)250以及一个或更多个分区单元280。PPU 200可以经由一个或更多个高速NVLink 210互连连接到主机处理器或其他PPU 200。PPU 200可以经由互连202连接到主机处理器或其他外围设备。PPU 200还可以连接到包括多个存储器设备204的本地存储器。在一个实施例中,本地存储器可以包括多个动态随机存取存储器(DRAM)设备。DRAM设备可以被配置为高带宽存储器(HBM)子系统,其中多个DRAM裸晶(die)堆叠在每个设备内。
NVLink 210互连使得系统能够扩展并且包括与一个或更多个CPU结合的一个或更多个PPU 200,支持PPU 200和CPU之间的高速缓存一致性,以及CPU主控。数据和/或命令可以由NVLink 210通过集线器230发送到PPU 200的其他单元或从其发送,例如一个或更多个复制引擎、视频编码器、视频解码器、电源管理单元等(未明确示出)。结合图4B更详细地描述NVLink 210。
I/O单元205被配置为通过互连202从主机处理器(未示出)发送和接收通信(例如,命令、数据等)。I/O单元205可以经由互连202直接与主机处理器通信,或通过一个或更多个中间设备(诸如内存桥)与主机处理器通信。在一个实施例中,I/O单元205可以经由互连202与一个或更多个其他处理器(例如,一个或更多个PPU 200)通信。在一个实施例中,I/O单元205实现外围组件互连高速(PCIe)接口,用于通过PCIe总线进行通信,并且互连202是PCIe总线。在替代的实施例中,I/O单元205可以实现其他类型的已知接口,用于与外部设备进行通信。
I/O单元205对经由互连202接收的数据包进行解码。在一个实施例中,数据包表示被配置为使PPU 200执行各种操作的命令。I/O单元205按照命令指定将解码的命令发送到PPU 200的各种其他单元。例如,一些命令可以被发送到前端单元215。其他命令可以被发送到集线器230或PPU200的其他单元,诸如一个或更多个复制引擎、视频编码器、视频解码器、电源管理单元等(未明确示出)。换句话说,I/O单元205被配置为在PPU200的各种逻辑单元之间和之中路由通信。
在一个实施例中,由主机处理器执行的程序在缓冲器中对命令流进行编码,该缓冲器向PPU 200提供工作量用于处理。工作量可以包括要由那些指令处理的许多指令和数据。缓冲器是存储器中可由主机处理器和PPU200两者访问(例如,读/写)的区域。例如,I/O单元205可以被配置为经由通过互连202传输的存储器请求访问连接到互连202的系统存储器中的缓冲器。在一个实施例中,主机处理器将命令流写入缓冲器,然后向PPU200发送指向命令流开始的指针。前端单元215接收指向一个或更多个命令流的指针。前端单元215管理一个或更多个流,从流读取命令并将命令转发到PPU 200的各个单元。
前端单元215耦合到调度器单元220,其配置各种GPC 250以处理由一个或更多个流定义的任务。调度器单元220被配置为跟踪与由调度器单元220管理的各种任务相关的状态信息。状态可以指示任务被指派给哪个GPC 250,该任务是活动的还是不活动的,与该任务相关联的优先级等等。调度器单元220管理一个或更多个GPC 250上的多个任务的执行。
调度器单元220耦合到工作分配单元225,其被配置为分派任务以在GPC 250上执行。工作分配单元225可以跟踪从调度器单元220接收到的若干调度的任务。在一个实施例中,工作分配单元225为每个GPC 250管理待处理(pending)任务池和活动任务池。待处理任务池可以包括若干时隙(例如,32个时隙),其包含被指派为由特定GPC 250处理的任务。活动任务池可以包括若干时隙(例如,4个时隙),用于正在由GPC 250主动处理的任务。当GPC250完成任务的执行时,该任务从GPC 250的活动任务池中逐出,并且来自待处理任务池的其他任务之一被选择和调度以在GPC 250上执行。如果GPC 250上的活动任务已经空闲,例如在等待数据依赖性被解决时,那么活动任务可以从GPC 250中逐出并返回到待处理任务池,而待处理任务池中的另一个任务被选择并调度以在GPC 250上执行。
工作分配单元225经由XBar(交叉开关)270与一个或更多个GPC 250通信。XBar270是将PPU 200的许多单元耦合到PPU 200的其他单元的互连网络。例如,XBar 270可以被配置为将工作分配单元225耦合到特定的GPC 250。虽然没有明确示出,但PPU 200的一个或更多个其他单元也可以经由集线器230连接到XBar 270。
任务由调度器单元220管理并由工作分配单元225分派给GPC 250。GPC 250被配置为处理任务并生成结果。结果可以由GPC 250内的其他任务消耗,经由XBar 270路由到不同的GPC 250,或者存储在存储器204中。结果可以经由分区单元280写入存储器204,分区单元280实现用于从存储器204读取数据和向存储器204写入数据的存储器接口。结果可以通过NVLink210发送到另一个PPU 204或CPU。在一个实施例中,PPU 200包括数目为U的分区单元280,其等于耦合到PPU 200的独立且不同的存储器设备204的数目。下面将结合图3B更详细地描述分区单元280。
在一个实施例中,主机处理器执行实现应用程序编程接口(API)的驱动程序内核,其使得能够在主机处理器上执行一个或更多个应用程序以调度操作用于在PPU 200上执行。在一个实施例中,多个计算应用由PPU 200同时执行,并且PPU 200为多个计算应用程序提供隔离、服务质量(QoS)和独立地址空间。应用程序可以生成指令(例如,API调用),其使得驱动程序内核生成一个或更多个任务以由PPU 200执行。驱动程序内核将任务输出到正在由PPU 200处理的一个或更多个流。每个任务可以包括一个或更多个相关线程组,本文称为线程束(warp)。在一个实施例中,线程束包括可以并行执行的32个相关线程。协作线程可以指代包括执行任务的指令并且可以通过共享存储器交换数据的多个线程。结合图4A更详细地描述线程和协作线程。
图3A示出了根据一个实施例的图2的PPU 200的GPC 250。如图3A所示,每个GPC250包括用于处理任务的多个硬件单元。在一个实施例中,每个GPC 250包括管线管理器310、预光栅操作单元(PROP)315、光栅引擎325、工作分配交叉开关(WDX)380、存储器管理单元(MMU)390以及一个或更多个数据处理集群(DPC)320。应当理解,图3A的GPC 250可以包括代替图3A中所示单元的其他硬件单元或除图3A中所示单元之外的其他硬件单元。
在一个实施例中,GPC 250的操作由管线管理器310控制。管线管理器310管理用于处理分配给GPC 250的任务的一个或更多个DPC 320的配置。在一个实施例中,管线管理器310可以配置一个或更多个DPC 320中的至少一个来实现图形渲染管线的至少一部分。例如,DPC 320可以被配置为在可编程流式多处理器(SM)340上执行顶点着色程序。管线管理器310还可以被配置为将从工作分配单元225接收的数据包路由到GPC 250中适当的逻辑单元。例如,一些数据包可以被路由到PROP 315和/或光栅引擎325中的固定功能硬件单元,而其他数据包可以被路由到DPC 320以供图元引擎335或SM 340处理。在一个实施例中,管线管理器310可以配置一个或更多个DPC 320中的至少一个以实现神经网络模型和/或计算管线。
PROP单元315被配置为将由光栅引擎325和DPC 320生成的数据路由到光栅操作(ROP)单元,结合图3B更详细地描述。PROP单元315还可以被配置为执行颜色混合的优化,组织像素数据,执行地址转换等。
光栅引擎325包括被配置为执行各种光栅操作的若干固定功能硬件单元。在一个实施例中,光栅引擎325包括设置引擎、粗光栅引擎、剔除引擎、裁剪引擎、精细光栅引擎和图块聚合引擎。设置引擎接收变换后的顶点并生成与由顶点定义的几何图元关联的平面方程。平面方程被发送到粗光栅引擎以生成图元的覆盖信息(例如,图块的x、y覆盖掩码)。粗光栅引擎的输出被发送到剔除引擎,其中与未通过z-测试的图元相关联的片段被剔除,并且未剔除的片段被发送到裁剪引擎,其中位于视锥体之外的片段被裁剪掉。那些经过裁剪和剔除后留下来的片段可以被传递到精细光栅引擎,以基于由设置引擎生成的平面方程生成像素片段的属性。光栅引擎325的输出包括例如要由在DPC 320内实现的片段着色器处理的片段。
包括在GPC 250中的每个DPC 320包括M管线控制器(MPC)330、图元引擎335和一个或更多个SM 340。MPC 330控制DPC 320的操作,将从管线管理器310接收到的数据包路由到DPC 320中的适当单元。例如,与顶点相关联的数据包可以被路由到图元引擎335,图元引擎335被配置为从存储器204提取与顶点相关联的顶点属性。相反,与着色程序相关联的数据包可以被发送到SM 340。
SM 340包括被配置为处理由多个线程表示的任务的可编程流式处理器。每个SM340是多线程的并且被配置为同时执行来自特定线程组的多个线程(例如,32个线程)。在一个实施例中,SM 340实现SIMD(单指令、多数据)体系架构,其中线程组(例如,warp)中的每个线程被配置为基于相同的指令集来处理不同的数据集。线程组中的所有线程都执行相同的指令。在另一个实施例中,SM 340实现SIMT(单指令、多线程)体系架构,其中线程组中的每个线程被配置为基于相同的指令集处理不同的数据集,但是其中线程组中的各个线程在执行期间被允许发散。在一个实施例中,为每个线程束维护程序计数器、调用栈和执行状态,当线程束内的线程发散时,使线程束和线程束中的串行执行之间的并发成为可能。在另一个实施例中,为每个单独的线程维护程序计数器、调用栈和执行状态,从而在线程束内和线程束之间的所有线程之间实现相等的并发。当为每个单独的线程维护执行状态时,执行相同指令的线程可以被收敛并且并行执行以获得最大效率。下面结合图3A更详细地描述SM340。
MMU 390提供GPC 250和分区单元280之间的接口。MMU 390可以提供虚拟地址到物理地址的转换、存储器保护以及存储器请求的仲裁。在一个实施例中,MMU 390提供用于执行从虚拟地址到存储器204中的物理地址的转换的一个或更多个转换后备缓冲器(TLB)。
图3B示出了根据一个实施例的图2的PPU 200的存储器分区单元280。如图3B所示,存储器分区单元280包括光栅操作(ROP)单元350、二级(L2)高速缓存360和存储器接口370。存储器接口370耦合到存储器204。存储器接口370可以实现用于高速数据传输的32、64、128、1024位数据总线等。在一个实施例中,PPU 200合并了U个存储器接口370,每对分区单元280有一个存储器接口370,其中每对分区单元280连接到对应的存储器设备204。例如,PPU 200可以连接到多达Y个存储器设备204,诸如高带宽存储器堆叠或图形双数据速率版本5的同步动态随机存取存储器或其他类型的持久存储器。
在一个实施例中,存储器接口370实现HBM2存储器接口,并且Y等于U的一半。在一个实施例中,HBM2存储器堆叠位于与PPU 200相同的物理封装上,提供与常规GDDR5 SDRAM系统相比显著的功率高和面积节约。在一个实施例中,每个HBM2堆叠包括四个存储器裸晶并且Y等于4,其中HBM2堆叠包括每个裸晶两个128位通道,总共8个通道和1024位的数据总线宽度。
在一个实施例中,存储器204支持单错校正双错检测(SECDED)纠错码(ECC)以保护数据。对于对数据损毁敏感的计算应用程序,ECC提供了更高的可靠性。在大型集群计算环境中,PPET 200处理非常大的数据集和/或长时间运行应用程序,可靠性尤其重要。
在一个实施例中,RREG 200实现多级存储器层次。在一个实施例中,存储器分区单元280支持统一存储器以为CPET和RREG 200存储器提供单个统一的虚拟地址空间,使得虚拟存储器系统之间的数据能够共享。在一个实施例中,跟踪RREG 200对位于其他处理器上的存储器的访问频率,以确保存储器页面被移动到更频繁地访问该页面的RREG 200的物理存储器。在一个实施例中,NVLink 210支持地址转换服务,其允许RREG 200直接访问CPET的页表并且提供由RREG 200对CPET存储器的完全访问。
在一个实施例中,复制引擎在多个PPU 200之间或在PPU 200与CPU之间传输数据。复制引擎可以为未映射到页表的地址生成页面错误。然后,存储器分区单元280可以服务页面错误,将地址映射到页表中,之后复制引擎可以执行传输。在常规系统中,针对多个处理器之间的多个复制引擎操作固定存储器(例如,不可分页),其显著减少了可用存储器。由于硬件分页错误,地址可以传递到复制引擎而不用担心存储器页面是否驻留,并且复制过程是否透明。
来自存储器204或其他系统存储器的数据可以由存储器分区单元280取回并存储在L2高速缓存360中,L2高速缓存360位于芯片上并且在各个GPC 250之间共享。如图所示,每个存储器分区单元280包括与对应的存储器设备204相关联的L2高速缓存360的一部分。然后可以在GPC 250内的多个单元中实现较低级高速缓存。例如,每个SM 340可以实现一级(L1)高速缓存。L1高速缓存是专用于特定SM 340的专用存储器。来自L2高速缓存360的数据可以被获取并存储在每个L1高速缓存中,以在SM340的功能单元中进行处理。L2高速缓存360被耦合到存储器接口370和XBar 270。
ROP单元350执行与诸如颜色压缩、像素混合等像素颜色相关的图形光栅操作。ROP单元350还与光栅引擎325一起实现深度测试,从光栅引擎325的剔除引擎接收与像素片段相关联的样本位置的深度。测试与片段关联的样本位置相对于深度缓冲器中的对应深度的深度。如果片段通过样本位置的深度测试,则ROP单元350更新深度缓冲器并将深度测试的结果发送给光栅引擎325。将理解的是,分区单元280的数量可以不同于GPC250的数量,并且因此每个ROP单元350可以耦合到每个GPC 250。ROP单元350跟踪从不同GPC 250接收到的数据包并且确定由ROP单元350生成的结果通过Xbar 270被路由到哪个GPC 250。尽管在图3B中ROP单元350被包括在存储器分区单元280内,但是在其他实施例中,ROP单元350可以在存储器分区单元280之外。例如,ROP单元350可以驻留在GPC 250或另一个单元中。
图4A示出了根据一个实施例的图3A的流式多处理器340。如图4A所示,SM 340包括指令高速缓存405、一个或更多个调度器单元410(K)、寄存器文件420、一个或更多个处理核心450、一个或更多个特殊功能单元(SFU)452、一个或更多个加载/存储单元(LSU)454、互连网络480、共享存储器/L1高速缓存470。
如上所述,工作分配单元225调度任务以在PPU 200的GPC 250上执行。任务被分配给GPC 250内的特定DPC 320,并且如果该任务与着色器程序相关联,则该任务可以被分配给SM 340。调度器单元410(K)接收来自工作分配单元225的任务并且管理指派给SM 340的一个或更多个线程块的指令调度。调度器单元410(K)调度线程块以作为并行线程的线程束执行,其中每个线程块被分配至少一个线程束。在一个实施例中,每个线程束执行32个线程。调度器单元410(K)可以管理多个不同的线程块,将线程束分配给不同的线程块,然后在每个时钟周期期间将来自多个不同的协作组的指令分派到各个功能单元(即,核心450、SFU452和LSU 454)。
协作组是用于组织通信线程组的编程模型,其允许开发者表达线程正在进行通信所采用的粒度,使得能够表达更丰富、更高效的并行分解。协作启动API支持线程块之间的同步性,以执行并行算法。常规的编程模型为同步协作线程提供了单一的简单结构:跨线程块的所有线程的栅栏(barrier)(例如,syncthreads()函数)。然而,程序员通常希望以小于线程块粒度的粒度定义线程组,并在所定义的组内同步,以集体的全组功能接口(collective group-wide function interface)的形式使能更高的性能、设计灵活性和软件重用。
协作组使得程序员能够在子块(例如,像单个线程一样小)和多块粒度处明确定义线程组并且执行集体操作,诸如协作组中的线程上的同步性。编程模型支持跨软件边界的干净组合,以便库和效用函数可以在他们本地环境中安全地同步,而无需对收敛进行假设。协作组图元启用合作并行的新模式,包括生产者-消费者并行、机会主义并行以及跨整个线程块网格的全局同步。
分派单元415被配置为向一个或更多个功能单元传送指令。在该实施例中,调度器单元410(K)包括两个分派单元415,其使得能够在每个时钟周期期间调度来自相同线程束的两个不同指令。在替代实施例中,每个调度器单元410(K)可以包括单个分派单元415或附加分派单元415。
每个SM 340包括寄存器文件420,其提供用于SM 340的功能单元的一组寄存器。在一个实施例中,寄存器文件420在每个功能单元之间被划分,使得每个功能单元被分配寄存器文件420的专用部分。在另一个实施例中,寄存器文件420在由SM 340执行的不同线程束之间被划分。寄存器文件420为连接到功能单元的数据路径的操作数提供临时存储器。
每个SM 340包括L个处理核心450。在一个实施例中,SM 340包括大量(例如128个等)不同的处理核心450。每个核心450可以包括完全管线化的、单精度、双精度和/或混合精度处理单元,其包括浮点运算逻辑单元和整数运算逻辑单元。在一个实施例中,浮点运算逻辑单元实现用于浮点运算的IEEE 754-2008标准。在一个实施例中,核心450包括64个单精度(32位)浮点核心、64个整数核心、32个双精度(64位)浮点核心和8个张量核心(tensorcore)。
张量核心被配置为执行矩阵运算,并且在一个实施例中,一个或更多个张量核心被包括在核心450中。具体地,张量核心被配置为执行深度学习矩阵运算,诸如用于神经网络训练和推理的卷积运算。在一个实施例中,每个张量核心在4×4矩阵上运算并且执行矩阵乘法和累加运算D=A×B+C,其中A、B、C和D是4×4矩阵。
在一个实施例中,矩阵乘法输入A和B是16位浮点矩阵,而累加矩阵C和D可以是16位浮点或32位浮点矩阵。张量核心在16位浮点输入数据以及32位浮点累加上运算。16位浮点乘法需要64次运算,产生全精度的积,然后使用32位浮点与4×4×4矩阵乘法的其他中间积相加来累加。在实践中,张量核心用于执行由这些较小的元素建立的更大的二维或更高维的矩阵运算。API(诸如CUDA 9C++API)公开了专门的矩阵加载、矩阵乘法和累加以及矩阵存储运算,以便有效地使用来自CUDA-C++程序的张量核心。在CUDA层面,线程束级接口假定16×16尺寸矩阵跨越线程束的全部32个线程。
每个SM 340还包括执行特殊函数(例如,属性评估、倒数平方根等)的M个SFU 452。在一个实施例中,SFU 452可以包括树遍历单元,其被配置为遍历分层树数据结构。在一个实施例中,SFU 452可以包括被配置为执行纹理图过滤操作的纹理单元。在一个实施例中,纹理单元被配置为从存储器204加载纹理图(例如,纹理像素的2D阵列)并且对纹理图进行采样以产生经采样的纹理值,用于在由SM 340执行的着色器程序中使用。在一个实施例中,纹理图被存储在共享存储器/L1高速缓存370中。纹理单元实现纹理操作,诸如使用mip图(即,不同细节层次的纹理图)的过滤操作。在一个实施例中,每个SM 340包括两个纹理单元。
每个SM 340还包括ALSU 454,其实现共享存储器/L1高速缓存470和寄存器文件420之间的加载和存储操作。每个SM 340包括将每个功能单元连接到寄存器文件420以及将LSU 454连接到寄存器文件420、共享存储器/L1高速缓存470的互连网络480。在一个实施例中,互连网络480是交叉开关,其可以被配置为将任何功能单元连接到寄存器文件420中的任何寄存器,以及将LSU 454连接到寄存器文件和共享存储器/L1高速缓存470中的存储器位置。
共享存储器/L1高速缓存470是片上存储器阵列,其允许数据存储和SM 340与图元引擎335之间以及SM 340中的线程之间的通信。在一个实施例中,共享存储器/L1高速缓存470包括128KB的存储容量并且在从SM 340到分区单元280的路径中。共享存储器/L1高速缓存470可以用于高速缓存读取和写入。共享存储器/L1高速缓存470、L2高速缓存360和存储器204中的一个或更多个是后备存储。
将数据高速缓存和共享存储器功能组合成单个存储器块为两种类型的存储器访问提供最佳的总体性能。该容量可由程序用作不使用共享存储器的高速缓存。例如,如果将共享存储器配置为使用一半容量,则纹理和加载/存储操作可以使用剩余容量。在共享存储器/L1高速缓存470内的集成使共享存储器/L1高速缓存470起到用于流式传输数据的高吞吐量管线的作用,并且同时提供对频繁重用数据的高带宽和低延迟的访问。
当被配置用于通用并行计算时,与图形处理相比,可以使用更简单的配置。具体地,图2所示的固定功能图形处理单元被绕过,创建了更简单的编程模型。在通用并行计算配置中,工作分配单元225将线程块直接指派并分配给DPC 320。块中的线程执行相同的程序,使用计算中的唯一线程ID来确保每个线程生成唯一结果,使用SM 340执行程序并执行计算,使用共享存储器/L1高速缓存470以在线程之间通信,以及使用LSU 454通过共享存储器/L1高速缓存470和存储器分区单元280读取和写入全局存储器。当被配置用于通用并行计算时,SM 340还可以写入调度器单元220可用来在DPC 320上启动新工作的命令。
PPU 200可以被包括在台式计算机、膝上型计算机、平板电脑、服务器、超级计算机、智能电话(例如,无线、手持设备)、个人数字助理(PDA)、数码相机、运载工具、头戴式显示器、手持式电子设备等中。在一个实施例中,PPU 200包含在单个半导体衬底上。在另一个实施例中,PPU 200与一个或更多个其他器件(诸如附加PPU 200、存储器204、精简指令集计算机(RISC)CPU、存储器管理单元(MMU)、数字-模拟转换器(DAC)等)一起被包括在片上系统(SoC)上。
在一个实施例中,PPU 200可以被包括在图形卡上,图形卡包括一个或更多个存储器设备204。图形卡可以被配置为与台式计算机的主板上的PCIe插槽接口。在又一个实施例中,PPU 200可以是包含在主板的芯片集中的集成图形处理单元(iGPU)或并行处理器。
示例性计算系统
具有多个GPU和CPU的系统被用于各种行业,因为开发者在应用(诸如人工智能计算)中暴露和利用更多的并行性。在数据中心、研究机构和超级计算机中部署具有数十至数千个计算节点的高性能GPU加速系统,以解决更大的问题。随着高性能系统内处理设备数量的增加,通信和数据传输机制需要扩展以支持该增加带宽。
图4B是根据一个实施例的使用图2的PPU 200实现的处理系统400的概念图。示例性系统465可以被配置为实现图1中所示的方法100。处理系统400包括CPU 430、交换机410和多个PPU 200中的每一个以及相应的存储器204。NVLink 210提供每个PPU 200之间的高速通信链路。尽管图4B中示出了特定数量的NVLink 210和互连202连接,但是连接到每个PPU 200和CPU 430的连接的数量可以改变。交换机410在互连202和CPU 430之间接口。PPU200、存储器204和NVLink 210可以位于单个半导体平台上以形成并行处理模块425。在一个实施例中,交换机410支持两个或更多个在各种不同连接和/或链路之间接口的协议。
在另一个实施例(未示出)中,NVLink 210在每个PPU 200和CPU 430之间提供一个或更多个高速通信链路,并且交换机410在互连202和每个PPU 200之间进行接口。PPU 200、存储器204和互连202可以位于单个半导体平台上以形成并行处理模块425。在又一个实施例(未示出)中,互连202在每个PPU 200和CPU 430之间提供一个或更多个通信链路,并且交换机410使用NVLink 210在每个PPU 200之间进行接口,以在PPU 200之间提供一个或更多个高速通信链路。在另一个实施例(未示出)中,NVLink 210在PPU 200和CPU 430之间通过交换机410提供一个或更多个高速通信链路。在又一个实施例(未示出)中,互连202在每个PPU 200之间直接地提供一个或更多个通信链路。可以使用与NVLink 210相同的协议将一个或更多个NVLink 210高速通信链路实现为物理NVLink互连或者片上或裸晶上互连。
在本说明书的上下文中,单个半导体平台可以指在裸晶或芯片上制造的唯一的单一的基于半导体的集成电路。应该注意的是,术语单个半导体平台也可以指具有增加的连接的多芯片模块,其模拟片上操作并通过利用常规总线实现方式进行实质性改进。当然,根据用户的需要,各种电路或器件还可以分开放置或以半导体平台的各种组合来放置。可选地,并行处理模块425可以被实现为电路板衬底,并且PPU 200和/或存储器204中的每一个可以是封装器件。在一个实施例中,CPU 430、交换机410和并行处理模块425位于单个半导体平台上。
在一个实施例中,每个NVLink 210的信令速率是20到25千兆位/秒,并且每个PPU200包括六个NVLink 210接口(如图4B所示,每个PPU 200包括五个NVLink 210接口)。每个NVLink 210在每个方向上提供25千兆位/秒的数据传输速率,其中六条链路提供300千兆位/秒。当CPU 430还包括一个或更多个NVLink 210接口时,NVLink 210可专门用于如图4B所示的PPU到PPU通信,或者PPU到PPU以及PPU到CPU的某种组合。
在一个实施例中,NVLink 210允许从CPU 430到每个PPU 200的存储器204的直接加载/存储/原子访问。在一个实施例中,NVLink 210支持一致性操作,允许从存储器204读取的数据被存储在CPU 430的高速缓存分层结构中,减少了CPU 430的高速缓存访问延迟。在一个实施例中,NVLink 210包括对地址转换服务(ATS)的支持,允许PPU 200直接访问CPU430内的页表。一个或更多个NVLink 210还可以被配置为以低功率模式操作。
图4C示出了示例性系统465,其中可以实现各种先前实施例的各种体系架构和/或功能。示例性系统465可以被配置为实现图1中所示的方法100。
如图所示,提供系统465,其包括连接到通信总线475的至少一个中央处理单元430。通信总线475可以使用任何合适的协议来实现,诸如PCI(外围组件互连)、PCI-Express、AGP(加速图形端口)、超传输或任何其他总线或一个或更多个点对点通信协议。系统465还包括主存储器440。控制逻辑(软件)和数据被存储在主存储器440中,主存储器440可以采取随机存取存储器(RAM)的形式。
系统465还包括输入设备460、并行处理系统425和显示设备445,例如常规CRT(阴极光线管)、LCD(液晶显示器)、LED(发光二极管)、等离子显示器等。可以从输入设备460(例如键盘、鼠标、触摸板、麦克风等)接收用户输入。前述模块和/或设备中的每一个甚至可以位于单个半导体平台上以形成系统465。可选地,根据用户的需要,各个模块还可以分开放置或以半导体平台的各种组合来放置。
此外,系统465可以出于通信目的通过网络接口435耦合到网络(例如,电信网络、局域网(LAN)、无线网络、广域网(WAN)(诸如因特网)、对等网络、电缆网络等)。
系统465还可以包括辅助存储(未示出)。辅助存储610包括例如硬盘驱动器和/或可移除存储驱动器、代表软盘驱动器、磁带驱动器、光盘驱动器、数字多功能盘(DVD)驱动器、记录设备、通用串行总线(USB)闪存。可移除存储驱动器以众所周知的方式从可移除存储单元读取和/或写入可移除存储单元。
计算机程序或计算机控制逻辑算法可以存储在主存储器440和/或辅助存储中。这些计算机程序在被执行时使得系统465能够执行各种功能。存储器440、存储和/或任何其他存储是计算机可读介质的可能示例。
各种在先附图的体系架构和/或功能可以在通用计算机系统、电路板系统、专用于娱乐目的的游戏控制台系统、专用系统和/或任何其他所需的系统的上下文中实现。例如,系统465可以采取台式计算机、膝上型计算机、平板电脑、服务器、超级计算机、智能电话(例如,无线、手持设备)、个人数字助理(PDA)、数字相机、运载工具、头戴式显示器、手持式电子设备、移动电话设备、电视机、工作站、游戏控制台、嵌入式系统和/或任何其他类型的逻辑的形式。
虽然上面已经描述了各种实施例,但是应该理解,它们仅以示例的方式呈现,而不是限制。因此,优选实施例的宽度和范围不应受任何上述示例性实施例的限制,而应仅根据所附权利要求及其等同物来限定。
图形处理管线
在一个实施例中,PPU 200包括图形处理单元(GPU)。PPU 200被配置为接收指定用于处理图形数据的着色程序的命令。图形数据可以被定义为一组图元,例如点、线、三角形、四边形、三角形带等。典型地,图元包括指定图元的多个顶点(例如,在模型空间坐标系中)的数据以及与图元的每个顶点相关联的属性。PPU 200可以被配置为处理图元以生成帧缓冲器(例如,用于显示器的像素中的每一个的像素数据)。
应用程序将场景的模型数据(例如,顶点和属性的集合)写入存储器(诸如系统存储器或存储器204)。模型数据定义可能在显示器上可见的对象中的每一个。然后应用程序对驱动程序内核进行API调用,其请求要被渲染和显示的模型数据。驱动程序内核读取模型数据并将命令写入一个或更多个流以执行操作来处理模型数据。这些命令可以参考要在PPU 200的SM 340上实现的不同着色程序,包括顶点着色、外壳着色、域着色、几何着色和像素着色中的一个或更多个。例如,SM 340中的一个或更多个可以被配置为执行顶点着色程序,其处理由模型数据定义的多个顶点。在一个实施例中,不同的SM 340可以被配置为同时执行不同的着色程序。例如,SM 340的第一子集可以被配置为执行顶点着色程序,而SM 340的第二子集可以被配置为执行像素着色程序。SM 340的第一子集处理顶点数据以产生经处理的顶点数据,并将经处理的顶点数据写入L2高速缓存360和/或存储器204。在经处理的顶点数据被光栅化(例如,从三维数据转换成屏幕空间中的二维数据)以产生片段数据之后,SM 340的第二子集执行像素着色以产生经处理的片段数据,然后将其与其他经处理的片段数据混合并被写入存储器204中的帧缓冲器。顶点着色程序和像素着色程序可以同时执行,以管线方式处理来自同一场景的不同数据,直到该场景的所有模型数据已经被渲染到帧缓冲器。然后,帧缓冲器的内容被传送到显示控制器以在显示设备上显示。
图5是根据一个实施例的由图2的PPU 200实现的图形处理管线500的概念图。图形处理管线500是被实现以从3D几何数据生成2D计算机生成图像的处理步骤的抽象流程图。众所周知,管线架构可以通过将操作分成多个阶段来更高效地执行长延迟操作,其中每个阶段的输出耦合到下一个连续阶段的输入。因此,图形处理管线500接收从图形处理管线500的一个阶段传送到下一阶段的输入数据501,以生成输出数据502。在一个实施例中,图形处理管线500可表示由API定义的图形处理管线。作为选择,图形处理管线500可以在先前附图和/或一个或更多个任何后续附图的功能和架构的上下文中实现。
如图5所示,图形处理管线500包括包含多个阶段的管线架构。这些阶段包括但不限于数据组装阶段510、顶点着色阶段520、图元组装阶段530、几何着色阶段540、视口缩放、剔除和裁剪(viewport scale,cull,and clip,VSCC)阶段550、光栅化阶段560、片段着色阶段570和光栅操作阶段580。在一个实施例中,输入数据501包括命令,其配置处理单元以实现图形处理管线500的阶段,并配置几何图元(例如,点、线、三角形、四边形、三角形带或扇形等)以由这些阶段处理。输出数据502可以包括像素数据(即,颜色数据),其被复制到存储器中的帧缓冲器或其他类型的表面数据结构中。
数据组装阶段510接收输入数据501,其指定用于高阶表面、图元等的顶点数据。数据组装阶段510收集临时存储或队列中的顶点数据,诸如通过从主机处理器接收包括指向存储器中的缓冲器的指针的命令并从该缓冲器读取顶点数据。顶点数据然后被传送到顶点着色阶段520以进行处理。
顶点着色阶段520通过对顶点中的每一个执行一次一组操作(例如,顶点着色器或程序)来处理顶点数据。顶点可以例如被指定为与一个或更多个顶点属性(例如,颜色、纹理坐标、表面法线等)相关联的4坐标向量(例如,<x,y,z,w>)。顶点着色阶段520可以操纵各个顶点属性,诸如位置、颜色、纹理坐标等。换句话说,顶点着色阶段520对与顶点相关联的顶点坐标或其他顶点属性执行操作。这些操作通常包括光照操作(例如,修改顶点的颜色属性)和变换操作(例如,修改顶点的坐标空间)。例如,可以使用对象坐标空间中的坐标来指定顶点,其通过将坐标乘以矩阵进行变换,该矩阵将坐标从对象坐标空间转换到世界空间或归一化设备坐标(normalized-device-coordinate,NCD)空间。顶点着色阶段520生成被传送到图元组装阶段530的经变换的顶点数据。
图元组装阶段530收集由顶点着色阶段520输出的顶点并且将顶点分组成几何图元以由几何着色阶段540处理。例如,图元组装阶段530可以被配置为将每三个连续顶点分组为用于传送到几何着色阶段540的几何图元(例如,三角形)。在一些实施例中,特定顶点可以被重新用于连续几何图元(例如,三角形带中的两个连续三角形可以共享两个顶点)。图元组装阶段530将几何图元(例如,相关联的顶点的集合)传送到几何着色阶段540。
几何着色阶段540通过对几何图元执行一组操作(例如,几何着色器或程序)来处理几何图元。曲面细分(tessellation)操作可以从每个几何图元生成一个或更多个几何图元。换言之,几何着色阶段540可以将每个几何图元细分为两个或更多个几何图元的更精细的网格,以由图形处理管线500的其余部分进行处理。几何着色阶段540将几何图元传送到视口SCC阶段550。
在一个实施例中,图形处理管线500可以在流式多处理器和顶点着色阶段520、图元组装阶段530、几何着色阶段540、片段着色阶段570和/或与其相关联的硬件/软件内操作,可顺序地执行处理操作。一旦顺序处理操作完成,在一个实施例中,视口SCC阶段550可以利用数据。在一个实施例中,由图形处理管线500中的阶段的一个或更多个处理的图元数据可以被写入高速缓存(例如,L1高速缓存、顶点高速缓存等)中。在这种情况下,在一个实施例中,视口SCC阶段550可以访问高速缓存中的数据。在一个实施例中,视口SCC阶段550和光栅化阶段560被实现为固定功能电路。
视口SCC阶段550执行几何图元的视口缩放、剔除和裁剪。正被渲染的每个表面都与抽象相机位置相关联。相机位置表示正观看该场景的观看者的位置并定义了包围该场景的对象的视锥体。视锥体可以包括观看平面、后平面和四个裁剪平面。完全位于视锥体之外的任何几何图元都可被剔除(例如丢弃),因为这些几何图元将不会对最终渲染的场景做出贡献。部分位于视锥体内并且部分位于视锥体外的任何几何图元可以被裁剪(例如,转换为被包围在视锥体内的新的几何图元)。此外,可以基于视锥体的深度来对每个几何图元进行缩放。然后将所有可能可见的几何图元传送到光栅化阶段560。
光栅化阶段560将3D几何图元转换成2D片段(例如,能够用于显示等)。光栅化阶段560可以被配置为利用几何图元的顶点来设置一组平面方程,从中可以内插各种属性。光栅化阶段560还可以计算多个像素的覆盖掩码,其指示像素的一个或更多个样本位置是否拦截几何图元。在一个实施例中,还可以执行z测试以确定几何图元是否被已经被光栅化的其他几何图元遮挡。光栅化阶段560生成片段数据(例如,与每个被覆盖像素的特定样本位置相关联的内插顶点属性),其被传送到片段着色阶段570。
片段着色阶段570通过对片段中的每一个执行一组操作(例如,片段着色器或程序)来处理片段数据。片段着色阶段570可以生成片段的像素数据(例如,颜色值),诸如通过使用片段的内插纹理坐标执行光照操作或采样纹理图。片段着色阶段570生成像素数据,其被发送到光栅操作阶段580。
光栅操作阶段580可对像素数据执行各种操作,诸如执行阿尔法测试、模板测试(stencil test)以及将像素数据与对应于与像素相关联的其他片段的其他像素数据混合。当光栅操作阶段580已经完成对像素数据(例如,输出数据502)的处理时,可以将像素数据写入渲染目标,诸如帧缓冲器、颜色缓冲器等。
应当领会,除上述阶段中的一个或更多个以外或代替上述阶段中的一个或更多个,一个或更多个额外的阶段可以被包括在图形处理管线500中。抽象图形处理管线的各种实现方式可以实现不同的阶段。此外,在一些实施例中,上述阶段中的一个或更多个可以从图形处理管线中排除(诸如几何着色阶段540)。其他类型的图形处理管线被认为是在本公开的范围内所构想的。此外,图形处理管线500的任何阶段可以由图形处理器(诸如PPU200)内的一个或更多个专用硬件单元来实现。图形处理管线500的其他阶段可以由可编程硬件单元(诸如PPU 200的SM 340)来实现。
图形处理管线500可以经由由主机处理器(诸如CPU)执行的应用程序来实现。在一个实施例中,设备驱动程序可以实现应用程序编程接口(API),其定义可以被应用程序利用以生成用于显示的图形数据的各种功能。设备驱动程序是软件程序,其包括控制PPU 200的操作的多个指令。API为程序员提供抽象,其允许程序员利用专用图形硬件(诸如PPU 200)来生成图形数据而不要求程序员利用PPU 200的特定指令集。应用程序可以包括被路由到PPU 200的设备驱动程序的API调用。设备驱动程序解释API调用并执行各种操作以响应API调用。在一些情况下,设备驱动程序可以通过在CPU上执行指令来执行操作。在其他情况下,设备驱动程序可以至少部分地通过利用CPU和PPU 200之间的输入/输出接口在PPU 200上启动操作来执行操作。在一个实施例中,设备驱动程序被配置为利用PPU 200的硬件来实现图形处理管线500。
可以在PPU 200内执行各种程序以便实现图形处理管线500的各个阶段。例如,设备驱动程序可以启动PPU 200上的内核以在一个SM 340(或多个SM 340)上执行顶点着色阶段520。设备驱动程序(或由PPU 400执行的初始内核)还可启动PPU 300上的其他内核以执行图形处理管线500的其他阶段,诸如几何着色阶段540和片段着色阶段570。另外,图形处理管线500的阶段中的一些可以在固定单元硬件(诸如在PPU 300内实现的光栅器或数据组装器)上实现。应当领会,在被SM 340上的后续内核处理之前,来自一个内核的结果可以由一个或更多个中间固定功能硬件单元处理。
机器学习
在处理器(诸如PPU 200)上开发的深度神经网络(DNN)已经用于各种使用情况:从自驾车到更快药物开发,从在线图像数据库中的自动图像字幕到视频聊天应用中的智能实时语言翻译。深度学习是一种技术,它建模人类大脑的神经学习过程,不断学习,不断变得更聪明,并且随着时间的推移更快地传送更准确的结果。一个孩子最初是由成人教导,以正确识别和分类各种形状,最终能够在没有任何辅导的情况下识别形状。同样,深度学习或神经学习系统需要在物体识别和分类方面进行训练,以便在识别基本物体、遮挡物体等同时还有为物体分配情景时变得更加智能和高效。
在最简单的层面上,人类大脑中的神经元查看接收到的各种输入,将重要性水平分配给这些输入中的每一个,并且将输出传递给其他神经元以进行处理。人造神经元或感知器是神经网络的最基本模型。在一个示例中,感知器可以接收一个或更多个输入,其表示感知器正被训练为识别和分类的对象的各种特征,并且在定义对象形状时,这些特征中的每一个基于该特征的重要性赋予一定的权重。
深度神经网络(DNN)模型包括许多连接感知器(例如,节点)的多个层,其可以用大量输入数据来训练以快速高精度地解决复杂问题。在一个示例中,DLL模型的第一层将汽车的输入图像分解为各个部分,并查找基本图案(诸如线条和角)。第二层组装线条以寻找更高水平的图案,诸如轮子、挡风玻璃和镜子。下一层识别运载工具类型,最后几层为输入图像生成标签,识别特定汽车品牌的型号。
一旦DNN被训练,DNN就可以被部署并用于在被称为推理(inference)的过程中识别和分类对象或图案。推理的示例(DNN从给定输入中提取有用信息的过程)包括识别沉积在ATM机中的支票存款上的手写数字、识别照片中朋友的图像、向超过五千万用户提供电影推荐、识别和分类不同类型的汽车、行人和无人驾驶汽车中的道路危险、或实时翻译人类言语。
在训练期间,数据在前向传播阶段流过DNN,直到产生预测为止,其指示对应于输入的标签。如果神经网络没有正确标记输入,则分析正确标签和预测标签之间的误差,并且在后向传播阶段期间针对每个特征调整权重,直到DNN正确标记该输入和训练数据集中的其他输入为止。训练复杂的神经网络需要大量的并行计算性能,包括由PPU 200支持的浮点乘法和加法。与训练相比,推理的计算密集程度比训练更低,是一个延迟敏感过程,其中经训练的神经网络应用于它以前没有见过的新的输入,以进行图像分类、翻译语音以及通常推理新的信息。
神经网络严重依赖于矩阵数学运算,并且复杂的多层网络需要大量的浮点性能和带宽来提高效率和速度。采用数千个处理核心,针对矩阵数学运算进行了优化,并传送数十到数百TFLOPS的性能,PPU 200是能够传送基于深度神经网络的人工智能和机器学习应用所需性能的计算平台。
实时光线追踪水面焦散
图6示出了根据一个实施例的用于实现实时光线追踪的水面焦散的方法600的流程图。尽管在处理单元的上下文中描述了方法600,但是方法600也可以由程序,定制电路或定制电路与程序的组合来执行。例如,方法600可以由GPU(图形处理单元),CPU(中央处理单元)或能够通过散列执行并行路径空间滤波的任何处理器执行。此外,本领域普通技术人员将理解,执行方法600的任何系统都在本发明实施例的范围和精神内。
如操作602所示,针对要渲染的场景计算水网格。在一个实施例中,水网格可以是包括折射网格或反射网格的照明网格。例如,照明网格可以表示通过折射和/或反射形成的网格。在另一个实施例中,可以针对要渲染的场景确定水面网格。在又一个实施例中,可以针对水面网格的每个顶点确定光线。在又一个实施例中,水网格可包括折射水网格,该折射水网格是利用水面网格的每个顶点的折射光线来计算的。在另一个实施例中,水网格可以包括反射水网格,该反射水网格利用水面网格的每个顶点的反射光线来计算的。
另外,如操作604中所示,基于水面网格与水网格之间的关系,光线从水面网格的一个或更多个多边形投射到场景的几何形状上。在一个实施例中,可以针对水面网格的每个多边形确定压缩率。在另一个实施例中,可以基于针对水面网格的每个多边形计算的压缩率,将光线从水面网格的一个或更多个多边形投射到场景几何形状上。
此外,如操作606所示,利用投射的光线执行场景的几何形状的照明。在一个实施例中,光线可以包括从水面网格的一个或更多个多边形投射到场景的水上几何形状上的反射光线,并且可以利用投射的反射光线来执行场景的水上几何形状的照明。在另一个实施例中,光线可以包括从水面网格的一个或更多个多边形投射到场景的水下几何形状上的折射光线,并且可以利用投射的光线来执行场景的水下几何形状的照明。
以这种方式,折射水网格可以用作引导网格,以确定将从场景的相应水面网格投射/产生的折射光线或反射光线的数量和位置。另外,折射光线或反射光线可以直接从水面网格投射,而不是从光源投射。
在又一个实施例中,可以利用诸如图2所示的PPU 200之类的并行处理单元(PPU)来计算水网格,要投射的光线以及场景的几何形状的照明。
在一个实施例中,可以使用实时光线追踪应用编程接口(API)来简化和创新针对渲染实时水面焦散的当前方法。可以假设必要的包围体(bounding volume)加速结构已经在游戏引擎中实现,以启用其他基于光线跟踪的算法,例如光线跟踪阴影。如果需要的话,下面描述的算法还可以用于渲染从被水面反射的光(例如,反射光)以及折射光中产生焦散。
就找到折射光线和动态水下三维(3D)场景的交点而言,使用API可能比现有解决方案具有多个优势。这在图7中的示例性场景700中进行了描述-来自光源704的光线702与水面706相交,并变成折射光线708,将光线投射到水下几何形状710上。
许多游戏回避寻找与整个游戏场景的交点,而仅计算与地平面或3D盒子内部的交点。因此,所产生的焦散不能期望渲染许多不相干(incoherent)的折射光线所造成的阴影。通常,然后从阴影图生成阴影,该阴影图仅从相干(coherent)光线产生阴影。
用于管理折射的先前方法需要首先渲染焦散图,该散焦图是包含折射几何形状的图像。例如,折射几何形状可以包括水面。但是,本文描述的方法不需要此中间渲染步骤。相反,光线生成着色器直接在水面的三角形上生成折射光线。从概念上讲,这将使下面描述的方法更趋向于光子映射。
示例性算法概述
在一个实施例中,可以使用以下步骤来渲染光线跟踪的水焦散。在第一步中,可以计算折射水网格。例如,针对表示模拟水面几何形状的水网格的每个顶点,构造折射光线R。该光线从水顶点的当前位置开始,并沿入射光的折射方向指向。折射水网格具有与水面相同的顶点数和相同的三角形数。通过将每条光线R与水下几何形状相交来计算其顶点位置。
图8描绘了此过程的示例800。如图所示,每个水面三角形802在折射水网格中生成相应的三角形804。请注意,折射水网格不必足够精细,以跟随水下几何形状的每个细节。它仅需足够详细,以促进如下所述的足够高质量压缩率的计算。当水面不够详细时,此步骤可能会导致错误。因此,如果检测到错误,则有必要对水面进行精修。
另外,在第二步骤中,针对每个水三角形计算压缩率。例如,图9示出了根据一个实施例的示例性折射示例900。如图9所示,光线904的折射902可以将光聚焦在变窄的三角光束906内,或者可以用扩展的三角光束908扩散光。结果,折射水网格中的三角形可以比它们各自的水三角形具有更大或更小面积。
在一个实施例中,针对每个三角形,压缩率如下计算并存储在缓冲器中:
此外,在第三步骤中,可以在水三角形上的随机位置处产生折射光线。例如,针对每个水三角形,在三角形中生成几个随机的世界空间位置(例如,样本等)。压缩率越高,生成的样本越多。为给定的压缩率找到合适的样本数量的算法还考虑了折射三角形的屏幕上(on-screen)尺寸。这意味着将为靠近观察者的三角形生成更多样本。
针对从光源可以看到的每个随机世界空间位置,形成从该随机位置开始并沿着插值折射方向移动的光线(光子)。找出样本是否被遮蔽(光源看不到)的一种简单解决方案是使用阴影图。当然也可以向光源发射光线。然后计算每条此类光线与水下场景几何形状的交点。
然后,将每个交点投影到屏幕空间。例如,如果位置在屏幕上,则InterlockedAdd()可用于在该屏幕位置中累积亮度值。累积的亮度值可以通过多个因子进行缩放,包括压缩率和/或一定长度的光线在穿过水时被吸收的光量。
图10示出了根据一个实施例的样本1002的示例性产生1000及其相应的折射屏幕空间位置1004。可以跳过水三角形的样本生成过程,以确保不会在屏幕上产生任何交点。
此外,在第四步骤中,可以对由产生折射光线而产生的缓冲器进行去噪,以创建去噪且平滑的焦散缓冲器。在第五步骤中,可以使用焦散缓冲器将光照射到水下场景上。
示例性实现
在一个实施例中,DirectX 12TMDXR可用于实现上述第一步和第三步的所有光线跟踪工作量。对于第一步,以一种方式调用DispatchRays(),即每个线程准确地跟踪一条折射光线到场景中。生成的折射水网格被写入缓冲器,该缓冲器将在以后的步骤中读取,并使用与原始水网格相同的索引缓冲器。
第二步骤被实现为计算着色器。对于第三步,用足够多的线程调用DispatchRays(),以便能够在放大的视锥中投射每个水三角形的最大光线数量。视锥被放大以捕获通过从正常视锥的外部进入视锥的折射光线。如果给定线程没有要处理的样本,则光线生成着色器会剔除(例如,不调用TraceRay())。
如表1所示,根据一个实施例,基于随机数生成器的简单的种子用于生成当前水三角形内部的一组“随机”重心位置。
表1
一种示例性实现使用三角形ID/索引作为随机种子(RandSeed)。该选择意味着所产生的噪声在整个三角形上是稳定的。如果三角形的样本数量在帧之间改变,那么这只会导致删除或添加样本,而不会导致给定三角形的样本位置发生变化。
如上所述,所生成的样本的数量还基于折射水网格的三角形的屏幕空间大小。由于即使在屏幕焦散上产生了一些生成的光线,此折射三角形也可能不在屏幕上,因此使用了折射三角形和三个附加三角形的最大屏幕空间大小。
图11示出了三个三角形1102A-C的描绘1100,其在源自水面的三个顶点/光线产生的三个不同交点处形成。如图11所示,表面三角形1104是水面上的三角形,并且三个光线1106A-C示出了在非常不同的距离处的场景交点。
在一个实施例中,为了加快上述第四步骤,将累积亮度的缓冲器实现为半分辨率缓冲器。这将显著加速去噪。去噪是通过一组迭代的跨双边模糊步骤完成的,这些步骤考虑了视图空间深度,法线和视图空间位置的差异。
在一个实施例中,关于多反射焦散,利用DXR,可以在光线产生着色器中产生一根或更多根次级光线。在这种情况下,对于每个次级光线与交点,可能有必要在交点的投影屏幕空间位置处累积亮度。
在另一个实施例中,关于体积焦散,可以基于以上实现使用的随机光线样本(例如,代替焦散图等)来实现体积焦散。
重要性采样的光线追踪实时焦散
在一个实施例中,可以将网格放置在灯的前面或灯的周围,以用于全向灯。该网格可以被细分为足够的程度,并且可以通过场景的透明部分进行折射。例如,可以使用水网格。注意,所描述的方法不限于水,并且可以进行多次反弹。
在一个实施例中,使用光线追踪来找到场景中的顶点,从而计算折射网格。这是光源前或光源周围的折射水面或镶嵌网格。在另一个实施例中,计算原始水三角形和折射三角形的面积之比。
如果折射三角形更小因而更亮,则在水三角形上会生成随机点。沿折射光方向从随机点跟踪光线。屏幕的亮度是在与场景的交点处确定的。噪点焦散被去噪并用于照亮(水下)场景。
尽管上面已经描述了各种实施例,但是应当理解,它们仅是示例性的,而非限制性的。因此,优选实施例的广度和范围不应受到任何上述示例性实施例的限制,而应仅根据所附权利要求及其等同物来限定。

Claims (14)

1.一种方法,包括:
使用针对水面网格的每个顶点的折射光线或反射光线计算要渲染的场景的照明网格;
确定针对所述水面网格的每个多边形的压缩率;
基于为所述水面网格的每个多边形计算的所述压缩率,将来自所述水面网格的一个或更多个多边形的光线投射到所述场景的几何形状上;以及
利用所述投射的光线执行对所述场景的所述几何形状的照明。
2.根据权利要求1所述的方法,还包括基于针对所述水面网格的每个多边形计算的压缩率,将来自所述水面网格的一个或更多个多边形的折射光线投射到水下场景几何形状上。
3.根据权利要求1所述的方法,还包括基于针对所述水面网格的每个多边形计算的压缩率,将来自所述水面网格的一个或更多个多边形的反射光线投射到水上场景几何形状上。
4.根据权利要求1所述的方法,其中,从所述水面网格的一个或更多个多边形投射的光线的数量是基于所述多边形的压缩率。
5.根据权利要求1所述的方法,其中,从所述水面网格的一个或更多个多边形投射的光线的数量是基于所述照明网格内的相应多边形的屏幕上尺寸。
6.根据权利要求1所述的方法,其中,所述光线从所述水面网格的每个多边形内的随机位置投射。
7.根据权利要求1所述的方法,还包括:
针对要投射其的折射光线的所述水面网格的每个多边形,确定每个投射光线与水下场景几何形状的交点,以及
将每个交点投射到屏幕空间位置。
8.根据权利要求7所述的方法,还包括响应于确定所述屏幕空间位置在屏幕上,在缓冲器中累积所述屏幕空间位置的亮度值。
9.根据权利要求1所述的方法,还包括:
针对要投射其的反射光线的所述水面网格的每个多边形,确定每个投射光线与水上场景几何形状的交点,以及
将每个交点投射到屏幕空间位置。
10.根据权利要求9所述的方法,还包括响应于确定所述屏幕空间位置在屏幕上,在缓冲器中累积所述屏幕空间位置的亮度值。
11.根据权利要求1所述的方法,其中,所述照明网格是折射水网格,并且基于水面网格与所述折射水网格之间的关系,将折射光线从所述水面网格的一个或更多个多边形投射到所述场景的水下几何形状上。
12.根据权利要求1所述的方法,其中,所述照明网格是反射水网格,并且基于水面网格和所述反射水网格之间的关系,将反射光线从所述水面网格的一个或更多个多边形投射到所述场景的水上几何形状上。
13.一种系统,包括:
处理器,其被配置为:
使用针对水面网格的每个顶点的折射光线或反射光线计算要渲染的场景的照明网格;
确定针对所述水面网格的每个多边形的压缩率;
基于为所述水面网格的每个多边形计算的所述压缩率,将来自所述水面网格的一个或更多个多边形的光线投射到所述场景的几何形状上;以及
利用所述投射的光线执行所述场景的所述几何形状的照明。
14.一种方法,包括:
确定要渲染的场景的水面网格;
针对所述水面网格的每个顶点,确定折射光线;
利用针对所述水面网格的每个顶点的所述折射光线,计算针对所述场景的折射水网格;
计算针对所述水面网格的每个多边形的压缩率;
基于针对所述水面网格的每个多边形计算的所述压缩率,将来自所述水面网格的一个或更多个多边形的折射光线投射到水下场景几何形状上;以及
利用所述投射的折射光线执行对所述水下场景几何形状的照明。
CN201980025280.2A 2018-04-16 2019-04-16 渲染期间提高涉及水面的场景的真实感 Active CN112041894B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862658534P 2018-04-16 2018-04-16
US62/658,534 2018-04-16
US16/373,478 US11010963B2 (en) 2018-04-16 2019-04-02 Realism of scenes involving water surfaces during rendering
US16/373,478 2019-04-02
PCT/US2019/027744 WO2019204352A1 (en) 2018-04-16 2019-04-16 Improving realism of scenes involving water surfaces during rendering

Publications (2)

Publication Number Publication Date
CN112041894A CN112041894A (zh) 2020-12-04
CN112041894B true CN112041894B (zh) 2024-03-22

Family

ID=68162088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980025280.2A Active CN112041894B (zh) 2018-04-16 2019-04-16 渲染期间提高涉及水面的场景的真实感

Country Status (4)

Country Link
US (1) US11010963B2 (zh)
CN (1) CN112041894B (zh)
DE (1) DE112019001978T5 (zh)
WO (1) WO2019204352A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11367241B2 (en) 2020-10-22 2022-06-21 Nvidia Corporation Ray-guided water caustics
US20220410002A1 (en) * 2021-06-29 2022-12-29 Bidstack Group PLC Mesh processing for viewability testing
CN113617024B (zh) * 2021-08-03 2024-05-28 网易(杭州)网络有限公司 水体面渲染方法、装置、设备及存储介质
US20230281918A1 (en) * 2022-03-04 2023-09-07 Bidstack Group PLC Viewability testing in the presence of fine-scale occluders

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166344A (ja) * 1997-08-26 1999-03-09 Taito Corp ポリゴンシェーディング方法及びその方法の実施に用いられる装置
US6034691A (en) * 1996-08-30 2000-03-07 International Business Machines Corporation Rendering method and apparatus
JP2000322596A (ja) * 1999-05-12 2000-11-24 Dainippon Printing Co Ltd 画像生成装置及び記録媒体
CN101071510A (zh) * 2007-06-22 2007-11-14 腾讯科技(深圳)有限公司 水刻蚀的实现方法及渲染装置
CN101930622A (zh) * 2009-09-29 2010-12-29 北京航空航天大学 浅水水波的真实感建模与绘制
CN103106680A (zh) * 2013-02-16 2013-05-15 赞奇科技发展有限公司 基于云计算架构的三维图形渲染的实现方法及云服务系统
CN107481184A (zh) * 2017-08-10 2017-12-15 中国科学技术大学 一种低多边形风格图生成交互系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI353559B (en) * 2006-12-18 2011-12-01 Inst Information Industry Apparatus, method, application program and compute
TW200945249A (en) * 2008-04-28 2009-11-01 Inst Information Industry Method for rendering fluid
GB0902681D0 (en) 2009-02-18 2009-04-01 Uws Ventures Ltd Rendering caustics in computer graphics
US8638331B1 (en) * 2011-09-16 2014-01-28 Disney Enterprises, Inc. Image processing using iterative generation of intermediate images using photon beams of varying parameters
US9280848B1 (en) * 2011-10-24 2016-03-08 Disney Enterprises Inc. Rendering images with volumetric shadows using rectified height maps for independence in processing camera rays
DK2711745T3 (da) * 2012-09-13 2024-01-22 Ecole Polytechnique Fed Lausanne Epfl Fremgangsmåde til fremstilling af en reflekterende eller refraktiv overflade
US9792724B2 (en) 2013-03-14 2017-10-17 Robert Bosch Gmbh System and method for generation of shadow effects in three-dimensional graphics
KR20170045809A (ko) * 2015-10-20 2017-04-28 삼성전자주식회사 커스틱을 표현하는 방법 및 장치
US10002456B2 (en) 2016-07-08 2018-06-19 Wargaming.Net Limited Water surface rendering in virtual environment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6034691A (en) * 1996-08-30 2000-03-07 International Business Machines Corporation Rendering method and apparatus
JPH1166344A (ja) * 1997-08-26 1999-03-09 Taito Corp ポリゴンシェーディング方法及びその方法の実施に用いられる装置
JP2000322596A (ja) * 1999-05-12 2000-11-24 Dainippon Printing Co Ltd 画像生成装置及び記録媒体
CN101071510A (zh) * 2007-06-22 2007-11-14 腾讯科技(深圳)有限公司 水刻蚀的实现方法及渲染装置
CN101930622A (zh) * 2009-09-29 2010-12-29 北京航空航天大学 浅水水波的真实感建模与绘制
CN103106680A (zh) * 2013-02-16 2013-05-15 赞奇科技发展有限公司 基于云计算架构的三维图形渲染的实现方法及云服务系统
CN107481184A (zh) * 2017-08-10 2017-12-15 中国科学技术大学 一种低多边形风格图生成交互系统

Also Published As

Publication number Publication date
DE112019001978T5 (de) 2021-01-07
US20190318533A1 (en) 2019-10-17
CN112041894A (zh) 2020-12-04
WO2019204352A1 (en) 2019-10-24
US11010963B2 (en) 2021-05-18

Similar Documents

Publication Publication Date Title
CN110176054B (zh) 用于训练神经网络模型的合成图像的生成
CN109472858B (zh) 用于逆向图形的可微分渲染管线
US11966737B2 (en) Robust, efficient multiprocessor-coprocessor interface
CN111210498B (zh) 降低多边形网格的细节水平以减少被渲染几何的复杂度
CN110766778B (zh) 使用散列执行并行路径空间滤波的方法和系统
US10762620B2 (en) Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene
CN111143174B (zh) 在共享功率/热约束下操作的硬件的最佳操作点估计器
CN110827387A (zh) 没有着色器干预下对交点进行连续层次包围盒遍历的方法
CN112041894B (zh) 渲染期间提高涉及水面的场景的真实感
US11997306B2 (en) Adaptive pixel sampling order for temporally dense rendering
CN113393564B (zh) 利用全局照明数据结构的基于水塘的时空重要性重采样
CN115379185B (zh) 使用可变速率着色的运动自适应渲染
CN111445003A (zh) 神经网络生成器
US11847733B2 (en) Performance of ray-traced shadow creation within a scene
US11120609B2 (en) Reconstruction for temporally dense ray trace rendering
CN113822975A (zh) 用于对图像进行有效采样的技术
CN113808183B (zh) 使用扭曲的复合估计乘积积分
CN110807827B (zh) 系统生成稳定的重心坐标和直接平面方程访问
CN110827389B (zh) 严密的光线三角形相交
CN110827389A (zh) 严密的光线三角形相交

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant