CN115151915A - 用于逆向图形生成的神经渲染 - Google Patents

用于逆向图形生成的神经渲染 Download PDF

Info

Publication number
CN115151915A
CN115151915A CN202180012865.8A CN202180012865A CN115151915A CN 115151915 A CN115151915 A CN 115151915A CN 202180012865 A CN202180012865 A CN 202180012865A CN 115151915 A CN115151915 A CN 115151915A
Authority
CN
China
Prior art keywords
network
data
training
image
graphics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180012865.8A
Other languages
English (en)
Inventor
凌欢
陈文拯
A·张
S·菲德勒
高俊
A·托瑞尔巴·巴留索
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nvidia Corp
Original Assignee
Nvidia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nvidia Corp filed Critical Nvidia Corp
Publication of CN115151915A publication Critical patent/CN115151915A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

本公开提出了一种训练逆向图形网络的方法。图像合成网络可以为逆向图形网络生成训练数据。反过来,逆向图形网络可以教导合成网络关于物理三维(3D)控制。这种方法可以使用经训练的逆向图形网络提供出自2D图像的对象的精准3D重建,同时几乎不需要对所提供的训练数据的注释。这种方法可以提取和解开通过利用可微分渲染器从生成模型学习的3D知识,使解开的生成模型充当补充传统的图形渲染器的可控的3D“神经渲染器”。

Description

用于逆向图形生成的神经渲染
相关申请的交叉引用
本申请要求于2021年3月5日提交的题为“用于逆向图形生成的神 经渲染(NeuralRendering for Inverse Graphics Generation)”的美国非临时 专利申请序列号No.17/193405的优先权,该申请要求于2020年3月6日 提交的题为“使用样式生成对抗网络(StyleGAN)渲染器的3D神经渲染 和逆向图形(3D Neural Rendering and InverseGraphics with StyleGAN Renderer)”的临时专利申请序列号No.62/986618的权益,以上所有在此 以其全部内容并入本申请并用于所有目的。
本申请还涉及于2020年9月11日提交的题为“使用神经网络的标签 图像(Labeling Images Usinga Neural Network)”的共同未决美国专利申请 序列号No.17/019120,以及于2020年9月14日提交的题为“使用一个或 更多个神经网络生成合成图像的标签(Generating Labels for Synthetic Images Using One or More NeuralNetworks)”的共同未决美国专利申请序 列号No.17/020649,其中每一个在此全部并入本申请并用于所有目的。
背景技术
各种各样的行业出于各种目的依赖于三维(3D)建模,包括那些需要 生成3D环境表示的行业。为了提供逼真的复杂环境,需要有多种不同类 型的对象,或者具有不同外观的相似对象,以避免不真实的重复或省略。 不幸的是,获得大量三维模型可能是一个复杂、昂贵且时间(和资源)密 集的过程。可能需要由大量可用的二维(2D)数据生成3D环境,但许多 现有方法并不提供基于2D数据的充分的3D模型生成。对于证明有前途的 方法,例如可能涉及机器学习,仍然需要有足够多数量和种类的已标记训 练数据来训练机器学习。注释训练数据实例的数量和种类不足可能会阻碍 模型得到充分训练以产生可接受地准确结果。
附图说明
依照本公开的各种实施例将参照附图进行描述,在附图中:
图1A、1B和1C示出了根据至少一个实施例的可以被利用的图像数 据;
图2示出了根据至少一个实施例的一种神经渲染和逆向图形管线;
图3示出了根据至少一个实施例的一种图像生成系统;
图4示出了根据至少一个实施例的用于为对象确定视图或姿态信息的 表示点;
图5示出了根据至少一个实施例的用于训练逆向图形网络的过程;
图6示出了根据至少一个实施例的用于训练和利用逆向图形网络的系 统的组件;
图7A示出了根据至少一个实施例的推理和/或训练逻辑;
图7B示出了根据至少一个实施例的推理和/或训练逻辑;
图8示出了根据至少一个实施例的示例数据中心系统;
图9示出了根据至少一个实施例的计算机系统;
图10示出了根据至少一个实施例的计算机系统;
图11示出了根据一个或更多个实施例的图形处理器的至少部分;
图12示出了根据一个或更多个实施例的图形处理器的至少部分;
图13是根据至少一个实施例的高级计算管线的示例数据流图;
图14是根据至少一个实施例的用于在高级计算管线中训练、适配、 实例化和部署机器学习模型的示例系统的系统图;以及
图15A和图15B示出了根据至少一个实施例的用于训练机器学习模型 的过程的数据流图,以及利用预训练的注释模型来增强注释工具的客户端- 服务器架构。
具体实施方式
根据各种实施例的方法可以提供给三维(3D)模型的生成,或从二维 (2D)输入(例如图像或视频帧)至少推理一个或更多个3D属性(例如, 形状、纹理或光线)。特别地,各种实施例提供了训练逆向图形模型以从 2D图像生成准确的3D模型或表示的方法。在至少一些实施例中,生成模 型可用于从不同视角或以不同姿态的对象生成多个视图,而其他图像特征 或方面保持固定。生成的图像可以包括用于生成每个此类图像的姿态、视 图或相机信息。这些图像可以用作逆向图形网络的训练图像。逆向图形网 络可以利用单个对象的这样一组输入图像以生成和改进该对象的模型。在 至少一些实施例中,可以一起训练这些网络,其中由逆向图形网络输出的 3D模型可以作为输入训练数据馈送到生成器网络,以用于提高生成器网络 的准确性。组合损失函数可以与逆向图形网络和生成器网络的术语一起使 用,以便使用共同的训练数据集一起优化两个网络。相对于先前的方法, 这种方法可以提供改进的3D重建性能,可以提供类别泛化(即,模型不 需要被仅针对特定类型的对象分类训练),并且可以显著减少对手动注释 的需要(例如,从几小时到一分钟或更短)。
在至少一个实施例中,可以训练逆向图形网络以由对象的2D图像(例 如示出了车辆的前视图的图1A的输入图像100)生成3D模型或表示,或 以其他方式确定3D信息。如可以理解的,输入图像为重建该车辆的3D模 型或表示提供了至少三个挑战。第一个挑战是在此示例中只有车辆前部的 图像数据,因此需要完全推理和生成车辆其他部分(例如后部、下方或侧 面)的图像数据。例如,图1B中示出了其他视图图像140,所述图1B示 出了车辆侧面的不同视图,其中表示了未包括在原始输入图像中的车辆侧 面部分。另一个挑战是该2D图像中没有深度信息。任何深度或形状信息 都必须仅基于该二维单个视图来推理。又一个挑战是没有相机或姿态信息 或注释与输入图像100一起提供,以在被指示生成3D模型的其他视图或 部分时用作参考。
为了训练模型、网络或算法(例如,逆向图形模型)以生成或推理包 括语义信息在内的此类3D信息,根据各种实施例的方法可以提供视图图 像140(例如那些在如图1B中所示的)作为网络的训练图像。然而,如前 所述,很难为给定对象获得足够数量的视图,即使获得足够数量,也必须 使用足够的信息(例如姿态、相机或视图数据)对这些图像进行注释,以 使那些图像能够用作地面实况训练数据。
根据各种实施例的方法可以利用能够获取输入图像(例如图1A的图 像100)的生成器,并生成该对象在不同视图中的一组图像。在至少一个 实施例中,这可以是生成神经网络,例如生成对抗网络(GAN)。GAN 可以被提供输入图像以及姿态、视图或相机数据,并且可以生成具有或对 应于所提供的姿态、视图或相机数据的输入图像中的对象的图像表示。为 了为此对象生成一组训练图像,可以提供一组姿态、视图或相机信息(手 动、随机或根据指定的模式或规则),并且可以为每个独特的姿态、视图 或相机输入生成图像。这种过程的另一个优点是GAN无需任何额外处理 即可提供注释,因为所述姿态、视图或相机信息是已知的用于生成图像。 可用于此类目的的示例GAN是由NVIDIA公司开发的样式生成对抗网络, 也简称为StyleGAN。根据一个或更多个实施例,StyleGAN模型扩展了一 般GAN架构以包括映射网络以将潜在空间中的点映射到中间潜在空间, 其可以控制“样式”(例如,姿态、视图或相机信息)在生成器模型中的 每个点,也可以在每个点引入噪声作为变化源。在一个或更多个实施例中, StyleGAN模型可用于在短时间内生成大量准确的多视图数据集,并且所需 的处理资源相对较少。StyleGAN模型可以获取输入图像140并生成多个不 同的视图图像140以用于训练逆向图形网络。然后逆向图形网络可以被训 练以获取2D输入图像并生成或推理相对准确的3D信息180,如图1C所 示,例如可以涉及对象的形状(例如可以由3D网格表示)、对象的光线 (例如,一个或更多个光源的方向、强度和颜色),以及对象的纹理(例 如,表示该对象所有相关部分的完整图像数据集)。如计算机图形等应用 程序中已知的那样,对象的视图可以通过将纹理投影到网格上,使用适当 的光线信息对网格进行采光,然后从一个虚拟相机的确定视角渲染该对象 的图像来生成。对于不同的用例、应用程序或实施例,也可以使用3D信 息的其他组或类型。反过来,由逆向图形网络生成的3D信息然后可以用 作StyleGAN模型的训练数据。在各种实施例中,这些网络可以使用单独 的损失函数单独训练或使用公共损失函数一起训练。
图2示出了根据各种实施例的可以使用的示例训练管线200。该示例 管线200包括两个不同的渲染器。第一渲染器是生成器网络,例如GAN(例 如,StyleGAN),该示例中的第二渲染器是可微分图形渲染器,例如基于 插值的可微分渲染器(DIB-R)。DIB-R是一种可微分渲染构架,它允许 对图像中所有像素分析计算梯度。该构架可以将前景光栅化视为局部属性 的加权插值,将背景光栅化视为基于距离的全局几何聚合,从而可以通过 各种光线模型对顶点位置、颜色、法线、光线方向和纹理坐标进行精确优 化。在该示例中,生成器204用作具有多视图数据集206的有效注释的合 成数据生成器。然后该数据集可以用来训练由2D图像预测3D属性的逆向 图形网络212。该网络可用于通过精心设计的映射网络解开该生成器的潜 在代码。
在该示例中,多视图数据集的输入图像可以作为输入提供给逆向图形 网络208,所述逆向图形网络208可以利用推理网络来推理3D信息,例如, 图像中对象的形状、光线和纹理。出于训练目的,可以将此3D信息与来 自输入图像的相机信息一起作为输入馈送到可微分图形渲染器。该渲染器 可以利用该3D信息为给定的相机信息生成形状信息、3D模型或一个或更 多个图像。然后可以使用适当的损失函数将这些渲染与相关的地面实况数 据进行比较,以确定损失值。然后可以使用该损失来调整一个或更多个网 络权重或参数。如前所述,逆向图形网络208的输出也可用于进一步训练 或调整生成器204或StyleGAN,以生成更准确的图像。
图3示出了可以根据至少一个实施例使用的这种管线的一部分300。 如关于图1所述。如图2所示,可以推理关于图像中的对象的3D信息(或 “代码”),如可以包括网格304、纹理306和背景信息308。提取自一个 或更多个输入图像注释的相机信息也可以利用。在该示例中,使用机器学 习处理器(MLP)处理网格304以提取一个或更多个维度或潜在特征。纹理306和背景数据308可以用相应的编码器314、316(例如一个或更多个 卷积神经网络(CNN))来处理,以另外提取相关维度或特征。然后这些 特征或维度可以被传递给包括映射网络的解开(disentangling)模块318。 映射网络将尝试将各种代码的特征映射到单个潜在代码320中,该潜在代 码320被提供给生成器322(或渲染器)以生成输出图像322。在至少一个 实施例中,潜在代码的一部分将对应于相机信息,并且其余的将对应于网 格、纹理和背景。在生成所述潜在代码320之前,可以尝试将特征合并为 一组特征,而不是三组网格、纹理和背景的特征。可以使用选择矩阵S来 选择和合并这些特征,连同相机特征一起,到潜在代码320。然后可以将 该信息提供给生成器(例如,StyleGAN)以渲染图像。潜在代码也可以采 用其他形式,例如,确定维度的潜在空间或特征向量,例如大约500个特 征。每个维度的条目可以包含有关该图像的信息,但可能不知道哪个特征 或维度控制或包含该图像的哪些信息或方面。为了生成同一对象的不同图 像视图,可以改变与相机对应的特征(例如,已知的前100个特征),同 时保持其他特征不变。这种方法可以确保只有视图或姿态发生变化,而在 渲染图像之间对象或图像的其他方面保持不变。
在至少一些实施例中,可能需要作为注释提供的至少某种类型的相机 或对象视图或姿态信息。图4示出了接近为图像视图的集合400中的对象 的类别提供的注释点402的一个示例。可以使用仅包含潜在特征子集的弱 相机信息,而不是标记对象的所有关键点(这可能需要付出很多努力)。 在这个示例中,相机姿态可以被分成许多不同的范围,例如十二个范围。 给定这些特征点和姿态范围,这足以获得对象位置的粗略估计以用于注释图像以用作训练数据。然后,该过程可以由这个不太准确的相机姿态信息 初始化。这种过程也可以处理多种类型的对象,例如人、动物、车辆等。
根据各种实施例的方法因此可以利用可微分渲染来帮助训练一个或 更多个神经网络以执行逆向图形相关的任务,如可以包括(但不限于)诸 如从单眼(例如,2D)照片。为了训练高性能模型,许多传统方法依赖于 在实践中不容易获得的多视图图像。相比之下,最近合成图像的生成对抗 网络(GAN)似乎在训练期间暗中获取了3D知识:可以通过简单操纵潜 在代码来操纵对象视角。然而,这些潜在代码通常缺乏进一步的物理解释, 因此GAN不能轻易地被反转来执行明确的3D推理。生成模型学习的3D 知识可以至少部分地通过使用可微分渲染器提取和解开。在至少一个实施 例中,可以利用一个或更多个生成对抗网络(GAN)作为多视图数据生成 器来训练逆向图形网络。这可以使用现成的可微分渲染器和经训练的逆向 图形网络作为教师来执行以将GAN的潜在代码解开为可解释的3D属性。 在各种方法中,可以通过使用循环一致性损失迭代地训练整个架构。这种 方法可以提供与在现有数据集上训练的传统逆向图形网络相关的显著改良 的性能,数量上并通过用户研究。这种解开的GAN也可以用作可控的3D “神经渲染器”,其可以用来补充传统的图形渲染器。
从照片推理3D属性(例如几何形状、纹理、材料和光线)的能力是 许多领域(例如AR/VR、机器人、建筑和计算机视觉)的关键。对这个问 题的兴趣是爆炸性的,尤其是在过去的几年里,由大量已出版的作品和几 个已发布的3D库证明了。从图像到3D的过程通常被称为“逆向图形”, 因为该问题与在图形中通过考虑对象的几何和材料属性、以及场景中存在的光源将3D场景投影到2D图像上的渲染过程相反。大多数逆向图形的工 作都假设在训练期间可以使用3D标签,并训练神经网络来预测这些标签。 为了确保高质量的3D地面实况,通常使用诸如ShapeNet之类的合成数据 集。然而,由于与合成图像的域差距,在合成数据集上训练的模型通常在 真实照片上遇到困难。
为了规避其中至少一些问题,可以使用另一种训练逆向图形网络的备 选方法在训练期间回避对3D地面实况的需求。可以使图形渲染器可微分, 这允许使用基于梯度的优化直接从图像中推理出3D属性。这些方法中的 至少一些可以用神经网络预测图像的几何、纹理和光线,通过最小化输入 图像与由以上这些属性渲染的图像之间的差异。虽然在某些方法中已经获 得了令人印象深刻的结果,但其中许多方法仍然需要某种形式的隐式3D 监督,例如可以利用已知相机的同一对象的多视图图像。另一方面,图像 的生成模型似乎暗中学习3D信息,其中操纵潜在代码可以从不同的视角 生成相同场景的图像。然而,学习到的潜在空间通常缺乏物理解释并且通 常没有解开,其中诸如对象的3D形状和颜色等属性通常无法独立操作。
根据至少一个实施例的方法可以通过利用可微分图形渲染器来提取 和解开由生成模型学习的3D知识。在至少一个实施例中,诸如GAN之类 的生成器可以用作多视图图像的生成器以使用可微分渲染器来训练逆向图 形神经网络。反过来,逆向图形网络可用于通过图形中的知识告知生成器 图像形成过程,有效地解开GAN的潜在空间。在至少一个实施例中,GAN (例如StyleGAN)可以与逆向图形网络连接以形成可以使用循环一致性损 失迭代训练的单个架构。这种方法可以产生经训练的网络,该网络可以显 著优于现有数据集上的逆向图形网络,并且可以使用解开的生成模型提供 可控的3D生成和图像处理。
可以用于这种方法的管线在前面关于图2进行了描述。这种方法可以 结合两种类型的渲染器:基于GAN的神经“渲染器”和可微分图形渲染 器。在至少一个实施例中,这种方法可以利用GAN可以学习生成高度逼 真的对象图像这一事实,并允许对用于生成这些对象的视图的虚拟相机进 行可靠控制。可以手动或以其他方式选择一组相机视图,例如使用粗略的 视角注释。然后GAN,例如StyleGAN,可以用于逐个视图地生成大量示 例。这样的数据集可用于利用可微分渲染器(例如DIB-R)来训练的逆向 图形网络。训练有素的逆向图形网络可用于解开GAN的潜在代码,并将 GAN转变为3D神经渲染器,从而可以控制明确的3D属性。
在至少一个实施例中,可以用诸如StyleGAN模型的生成器来生成多 视图图像。示例StyleGAN模型是16层神经网络,它将从正态分布中提取 的潜在代码z∈Z映射到真实图像中。代码z首先映射到中间潜在代码w∈ W,其通过16次学习仿射变换转换为
Figure BDA0003782213980000071
W*被称为转换后的潜在空间以将其从中间潜在空间W区中分开来。然后 将转换后的潜在代码w*作为样式信息注入到StyleGAN合成网络中。
不同的层可以控制生成器中不同的图像属性。早期层中的样式调整相 机视角,而中间层和更高层的样式影响形状、纹理和背景。根据经验确定, 前四层中的潜在代码
Figure BDA0003782213980000081
在至少一个StyleGAN模 型中控制相机视角。也就是说,如果一个进程对新代码
Figure BDA0003782213980000082
进行采样,但保 持w*的剩余维度固定(称为内容代码),则可以生成在不同视角中描绘的 同一对象的图像。可以进一步观察到,采样代码
Figure BDA0003782213980000083
实际上代表了一个固定 的相机视角。也就是说,如果
Figure BDA0003782213980000084
保持固定,但w*的剩余尺寸被采样,则 生成器可以在同一相机视角中生成不同对象的图像。每个视角中的对象将 被对齐,因为此生成器用作多视图数据生成器。
在示例方法中,可以手动选择多个视图以覆盖对象的所有常见视角, 其范围为方位角0-360度而仰角大约为0-30度的。这种方法可能会注意选 择对象呈现最一致的视角。由于逆向图形技术通常利用相机姿态信息,因 此可以用粗略的绝对相机姿态对所选视角代码进行注释。具体而言,每个 视角代码可以分类为(例如十二个方位角之一)沿360度增量均匀采样。 可以为每个代码分配固定的仰角(例如,0°)和相机距离。这些相机姿态 可以提供对实际姿态的非常粗略的注释,因为所述注释充当会在训练期间 进行优化的相机的初始化的角色。在相对较短的时间段内(例如一分钟或 更短时间),这种方法提供了对所有视图以及整个数据集的注释。这样的 结果可以使注释工作实际上可以忽略不计。对于每个视角,可以采样大量 的内容代码来合成这些视图中的不同对象。由于可微分渲染器(例如DIB-R) 也可以在训练期间利用分割掩模,因此在生成的数据集中诸如MaskRCNN 之类的网络可以进一步应用以获得实例分割。由于生成器有时可能会生成 不真实的图像或具有多个对象的图像,因此在至少一个实施例中可以过滤 掉具有多个实例或小掩模(小于整个图像区域的10%)的图像。
根据至少一个实施例的方法可以旨在训练由θ参数化的3D预测网络f, 以推理3D形状(如可以表示为网格)以及来自图像的纹理。令Iv表示来自 生成器数据集的视角V中的图像,M表示其对应的对象掩模。逆向图形网 络进行如下预测:{S,T}fθ=(IV),其中S表示预测的形状,而T表示纹 理图。形状S由球体变形而成。虽然DIB-R也支持光线预测,但它的性能 可能不足以提供逼真的图像,因此在本讨论中省略了光线估计。
为了训练网络,可以采用诸如DIB-R之类的渲染器作为以{S,T}和V 作为输入并生成渲染图像I′V=r(S,T,V)和渲染掩模M′的可微分图形 渲染器。在DIB-R之后,损失函数采用以下形式:
L(I,S,T,V;θ)=λcolLcol(I,I′)+λperceptLpercept(I,I′)+LIOU(M,M′) +λsmLsm(S)+λlapLlap(S)+λmovLmov(S)
这里,Lcol是在RGB颜色空间中定义的标准L1图像重建损失,而Lpercept是 能帮助预测纹理看起来更真实的感知损失。请注意,渲染图像没有背景, 因此Lcol和Lpercept是通过使用掩模计算的。LIOu计算真实掩模和渲染掩模 之间的交并比。诸如拉普拉斯损失Llap和展平损失Lsm之类的正则化损失通 常用于确保形状表现良好。最后,Lmov将形状变形调整为小而均匀。
由于还可以访问每个对象的多视图图像,因此可以包括多视图一致性 损失。具体来说,每个对象k的损失可以由下式给出:
Figure BDA0003782213980000091
其中
Figure BDA0003782213980000092
虽然更多的视图提供更多的约束条件,但从经验上看,两种视图已被证明 是足够的。视图对(i,j)可以随机抽样以提高效率。上述损失函数可用于 联合训练神经网络f和优化视角相机V。可以假设从同一个
Figure BDA0003782213980000093
生成的不同 图像对应同一个视角V。联合权重网络优化摄像机可让这种方法能有效处 理嘈杂的初始相机注释。
逆向图形模型允许从给定图像推理3D网格和纹理。然后这些3D属 性可以用来解开生成器的潜在空间,并将生成器变成完全可控的3D神经 渲染器,例如可以称为StyleGAN-R。可以注意到,StyleGAN实际上合成 不仅对象,它还生成背景以形成完整的场景。至少一些实施例中的方法还 可以提供对背景的控制,从而使神经渲染器能将3D对象渲染到期望的场 景中。为了从给定图像中获得背景,在至少一个实施例中该对象可以被做掩模。
可以训练映射网络并将其用于将视角、形状(例如网格)、纹理和背 景映射到生成器的潜在代码中。由于生成器可能没有完全解开,整个生成 模型可以在保持逆向图形网络固定的情况下进行微调。映射网络,例如图 3中所示的示例,可以将视角映射到前四层,将形状、纹理、背景映射到W*的后十二层。为简单起见,前四层可以表示为WV*,后十二层可以表示为 WS*TB,其中WV*∈R2048和WS*TB∈R3008。需要注意的是,其他模 型或网络中可能有不同的层数。在这个例子中,视角V的映射网络gv和形 状S的gs是单独的MLP,而纹理T的gt和背景B的gb是CNN层:
zview=gv(V;θv),zshape=gs(S;θs),ztxt=gt(T;θt),zbck
=gb(B;θb),
其中zview∈R,zshape,ztxt,zbck∈R3008和θv,θs,θt,θb是网络参数。 形状、纹理和背景代码可以软组合成最终的潜在代码,如下所示:
Figure BDA0003782213980000104
其中⊙表示逐元素乘积,并且sm,st,sb∈R3008在所有样本中共享。为 了实现解开,最终代码的每个维度只能由一个属性(例如,形状、纹理或 背景)来解释。因此,根据至少一个实施例的过程可以使用SoftMax对s 的每个维度进行归一化。在实践中,确定的是将V映射到高维代码可能具 有挑战性,因为数据集可能仅包含有限数量的视图,并且V可能仅限于方 位角、仰角和比例。一种方法是将V映射到
Figure BDA0003782213980000105
的子集,其中该方法根据经 验选择一个数字,例如2048中的144,或者与该经注释视角相关性最高的 维度。因此,在这个例子中zview∈R144∈R144。
在至少一个实施例中,在两个单独的阶段中可以训练映射网络并且微 调StyleGAN模型。在一个示例中,StyleGAN模型的权重被冻结,并且仅 训练映射网络。在一个或更多个实施例中,这有助于或提高映射网络为 StyleGAN模型输出合理潜在代码的能力。然后,该过程可以微调StyleGAN 模型和映射网络两者以更好地解开不同的属性。在预热阶段,可以在选定 的视角中对视角代码
Figure BDA0003782213980000101
进行采样,并对w*∈W*的剩余维度进行采样。可 以尝试最小化在映射代码
Figure BDA0003782213980000102
和StyleGAN模型代码w*之间的L2差异。为了 鼓励潜在空间中的解开,可以对s的每个维度i的熵进行惩罚。然后可以 通过以下方式给出此映射网络的示例整体损失函数:
Figure BDA0003782213980000103
通过训练映射网络,可以在原始StyleGAN模型中解开视图、形状和 纹理,但背景可能会保持纠缠。因此,可以对模型进行微调以实现更好的 解开。可以结合循环一致性损失来微调StyleGAN模型。特别是,通过将 采样的形状、纹理和背景输入StyleGAN模型,可以获得合成图像。这种 方法可以鼓励原始采样属性与通过逆向图形网络从StyleGAN合成图像预 测的形状、纹理和背景之间的一致性。相同的背景B可以用两个不同的 {S,T}对填充来生成两个图像I1和I2。然后可以鼓励重新合成的背景B1和 B2变得相似。这种损失试图将背景与前景对象解开。在训练过程中,在图 像空间中对B施加一致性损失可能会导致图像模糊,因此它可以在代码空 间中被约束。微调损失的示例采用以下形式:
Figure BDA0003782213980000111
在一个示例中,使用Adam训练了基于DIB-R的逆向图形模型,学习 率为1e4,将λIOU,λcol,λlap,λsm和λmov分别设置为3、20、5、5和2.5。 该模型首先使用Lcol损失进行3千次迭代训练,然后通过添加Lpercept进行 微调以使纹理更加逼真。该过程将λ感知设置为0.5。该模型在20万次迭代 中收敛,批量大小为16。在四个V100 GPU上训练大约需要120小时。训练产生了高质量的3D重建结果,包括预测形状和纹理的质量,以及获得 的3D形状的多样性。这种方法也适用于更具挑战性的(例如,有关节的) 课程,例如动物。
在至少一个实施例中,使用Adam以1e5的学习率和16的批量大小训 练StyleGAN-R模型。预热阶段进行了700次迭代,并且对另外2500次迭 代执行了联合微调。使用提供的输入图像,该过程首先使用经过训练的逆 向图形模型预测网格和纹理,然后将这些3D属性输入StyleGAN-R以生成 新图像。为了比较,将相同的3D属性提供给DIB-R图形渲染器(即OpenGL 渲染器)。可以注意到,DIB-R只能渲染预测的对象,而StyleGAN-R也 有能力将对象渲染到想要的背景中。发现,StyleGAN-R产生了与输入图像 相比相对一致的图像。形状和纹理保留得很好,而只有背景有轻微的内容 偏移。
这种方法在从测试集和真实图像中处理StyleGAN合成图像时进行了 测试。具体来说,给定输入图像,该方法使用逆向图形网络预测3D属性, 并通过使用Mask-RCNN做出对象掩模来提取背景。然后,该方法操纵这 些属性并将其馈送到StyleGAN-R以合成新视图。
为了控制视角,该过程首先冻结形状、纹理和背景,只改变相机视角。 获得了有意义的结果,特别是在形状和纹理方面。为了比较,已经探索的 另一种方法是通过L2图像重建损失直接优化GAN的潜在代码(在示例中 是原始StyleGAN的代码)。然而,在至少一些实施例中,这样的方法可 能无法生成合理的图像,展示了映射网络的重要性并在循环中使用3D逆 向图形网络微调了整个架构。
为了控制形状、纹理和背景,这种方法可以尝试操纵这些或其他3D 属性,同时保持相机视角固定。在一个示例中,所有汽车的形状都可以更 改为一种已挑选的形状,并执行使用StyleGAN-R执行的神经渲染。这样 的过程成功地交换了汽车的形状,同时保持了其他特性。该过程还能够修 改汽车的微小部件,例如后备箱和前灯。可以执行相同的实验,但交换纹 理和背景。在一些实施例中,交换纹理还可以稍微修改背景,这表明在解 开两者时可以寻求进一步的改进。当提供真实图像时,这种框架也可以很 好地工作,因为StyleGAN的图像非常逼真。
StyleGAN代码库提供不同分辨率的不同对象类别的模型。这里以 512x384的汽车模型为例。该模型包含16层,其中每两个连续的层形成一 个块。每个块都有不同数量的通道。在最后一个块中,模型以512x384的 分辨率生成32信道特征图。最后,应用学习到的RGB变换函数将特征图 转换为RGB图像。每个块的特征图可以通过学习的RGB转换函数可视化。具体来说,对于每个块中大小为h×w×c的特征图,该过程可以先沿特 征维度求和,形成一个h×w×1张量。该过程可以重复该特征32次, 并生成一个h×w×32的新特征图。这允许保留所有通道的信息并直接在 最后一个块中应用RGB转换函数以将其转换为RGB图像。在这个例子中, 块1和2没有表现出可解释的结构,而汽车形状开始出现在块3-5中。块 4有一个粗糙的汽车轮廓,其在块5进一步变得清晰。从块6到块8,汽车 的形状变得越来越精细,背景场景也出现了。这支持视角在块1和2(例 如,前4层)中控制,而在本示例中,形状、纹理和背景存在于最后12 层中。汽车形状和纹理以及不同视角的背景场景都具有高度一致性。请注 意,对于马和鸟类等有关节对象,StyleGAN模型可能不能完美地保留不同 视角的目标关节,这可能会导致使用多视图一致性损失来训练高精度模型 的挑战。
如前所述,逆向图形任务在训练期间需要相机姿态信息,这对于获取 真实图像可能具有挑战性。姿态通常是通过注释每个对象的关键点并运行 运动结构恢复(SFM)技术计算相机参数来获得的。然而,关键点注释非 常耗时——在一个实验中每个对象大约需要3-5分钟。StyleGAN模型可用 于显著减少注释工作,因为具有相同
Figure BDA0003782213980000121
的样本共享相同的视角。因此,该 过程只需将几个选定的
Figure BDA0003782213980000122
分配到相机姿态中。特别是,姿态可以分配到足 以训练逆向图形网络的几个箱中,其中,与网络参数一起,相机在训练期 间使用这些箱作为初始化进行联合优化。在一个示例中,每个视图都使用 粗略的绝对相机姿态进行注释(可以在训练期间进一步优化)。具体来说, 一个示例可以先选择12个方位角:[0°、30°、60°、90°、120°、150°、 180°、210°、240°、270°、300°、330°]。给定StyleGAN视角,该 过程可以包括手动分类它接近哪个方位角,并将其分配给具有固定仰角 (0°)和相机距离的相应标签。
为了证明这种相机初始化的有效性,可以与另一个用更准确的相机初 始化训练的逆向图形网络进行比较。这种初始化是通过在单个汽车示例的 每个选定视图
Figure BDA0003782213980000131
中手动注释对象关键点来完成的,这大约需要3-4小 时(大约200分钟,39个视图)。请注意,相比于为Pascal3D数据集中的 每个对象注释关键点所需的200-350小时,这仍然是一个显著降低的注释 工作量。然后可以使用运动结构(SfM)计算相机参数。可以分别参考用 不同的相机初始化作为视图模型和关键点模型训练的两个逆向图形网络。 虽然训练需要相同的时间,但视图模型可以节省注释时间。视图模型和关 键点模型的性能与StyleGAN测试集上几乎相同的2D IOU重投影分数相当。 此外,在训练期间,两个相机系统会聚到同一位置。这可以通过将所有视 图转换为四元数并比较旋转轴和旋转角度之间的差异来评估。在所有视图 中,旋转轴的平均差异仅为1.43°,旋转角度的为0.42°。旋转轴的最大 差异仅为2.95°,旋转角度的为1.11°。定性和定量比较都表明,视图相 机初始化足以训练准确的逆向图形网络,不需要额外的注释。这展示了一 种使用StyleGAN创建多视图数据集的可扩展方式,每个类大约需要一分 钟的注释时间。
图5示出了用于训练可以根据各种实施例使用的逆向图形网络的示例 过程500。应当理解,对于本文提出的这个过程和其他过程,除非另有具 体说明,否则在各种实施例的范围内,可以有以类似或替代顺序,或至少 部分并行执行的附加、更少或替代的步骤。此外,尽管针对流式视频内容 进行了讨论,但应当理解,可以将这样的增强提供给单独的图像或图像序 列、存储的视频文件、增强的或虚拟的现实流或其他这样的内容。在该示 例中,接收包括对象表示的二维(2D)训练图像。一组相机姿态也被接收 504,或以其他方式确定。使用带有生成器网络(例如StyleGAN)的2D 图像信息,生成视图图像的集合,其中包括具有根据一组相机姿态的视图 的对象表示。在这里,每个生成的图像都将包括相应的相机姿态信息或与 相应的相机姿态信息相关联。
在该示例中,作为逆向图形网络的输入,生成的视图图像的集合然后 可以被提供508。为图像中的对象推理510三维(3D)信息的集合,例如 可以包括形状、光线和纹理。然后可以使用来自输入图像的3D信息和相 机信息,利用可微分渲染器来渲染512对象的一个或更多个表示。然后可 以将渲染的表示与对应的地面实况数据进行比较514以确定一个或更多个 损失值。然后可以调整一个或更多个网络参数或权重516以尝试最小化损 失。可以做出518关于是否已经满足结束条件的确定,例如网络收敛、达 到训练通过的最大数量或者所有训练数据正在被处理,以及其他这样的选 项。如果不是,则该过程可以继续下一个2D训练图像。如果已经满足结 束标准,则可以提供520优化的网络参数以用于推理。还可以提供524来 自逆向图形网络的至少一些渲染输出作为训练数据,用于进一步训练或微 调所述生成器网络。在一些实施例中,生成器网络和逆向图形网络可以使 用共同的损失函数一起训练。
作为示例,图6示出了可用于提供或增强内容的网络配置600。在至 少一个实施例中,客户端设备602可以使用客户端设备602上的内容应用 程序604的组件和本地存储在该客户端设备上的数据来生成会话的内容。 在至少一个实施例中,在内容服务器620(例如,云服务器或边缘服务器) 上执行的内容应用程序624(例如,图像生成或编辑应用程序)可以发起 与至少客户端设备602相关联的会话,如可以利用会话管理器和存储在用 户数据库634中的用户数据,并且可以使内容632由内容管理器626确定。 如果这种类型的内容或平台需要的话,并且使用适当的传输管理器622传 输到客户端设备602,以通过下载、流传输或其他此类传输信道来发送。 在至少一个实施例中,该内容632可以包括可以由渲染引擎用来基于确定 的场景图渲染场景的2D或3D素材。在至少一个实施例中,接收该内容的客户端设备602可以将该内容提供给相应的内容应用程序604,所述内容 应用程序604也可以或者可替换地包括渲染引擎(如果必要的话),其用 于渲染至少一些该内容以便通过客户端设备602呈现,诸如通过显示器606 呈现图像或视频内容,以及通过诸如扬声器或耳机之类的至少一个音频播 放设备608呈现诸如声音和音乐之类的音频。例如,对于由一个或更多个 相机捕获的实时视频内容,可能不需要这样的渲染引擎,除非用于以某种 方式增强视频内容。在至少一个实施例中,该内容中的至少一些可能已经 被存储在客户端设备602上、在客户端设备602上渲染,或可供客户端设 备602访问,使得至少该部分内容不需要通过网络640的传输,诸如在该 内容之前可能已下载或本地存储在硬盘驱动器或光盘上的情况下。在至少 一个实施例中,可以使用诸如数据流之类的传输机制来将该内容从服务器620或内容数据库634传输到客户端设备602。在至少一个实施例中,该内 容的至少一部分可以从诸如第三方内容服务660之类的另一源获得或者流 式传输,其还可包括用于生成或提供内容的内容应用程序662。在至少一 个实施例中,可以使用多个计算设备或者诸如可以包括CPU和GPU的组 合的一个或更多个计算设备内的多个处理器来执行该功能的部分。
在至少一个实施例中,内容应用程序624包括内容管理器626,所述 内容管理器626可以在将内容传输到客户端设备602之前确定或者分析该 内容。在至少一个实施例中,内容管理器626还可以包括能够生成、修改 或增强要提供的内容的其他组件或者与其合作。在至少一个实施例中,这 可以包括用于渲染图像或视频内容的渲染引擎。在至少一个实施例中,该 渲染引擎是逆向图形网络的一部分。在至少一个实施例中,图像、视频或 场景生成组件628可用于生成图像、视频或其他媒体内容。在至少一个实 施例中,逆向图形组件630——其还可以包括神经网络——可以基于推理 的3D信息来生成表示,如本文所讨论和建议的。在至少一个实施例中, 内容管理器626可以使得该内容(已增强或未增强)被传输到客户端设备 602。在至少一个实施例中,客户端设备602上的内容应用程序604还可以包括诸如渲染引擎、图像或视频生成器612和逆向图形模块614之类的组 件,使得该功能中的任何或全部可以附加地或替代地在客户端设备602上 执行。在至少一个实施例中,第三方内容服务系统660上的内容应用程序 662也可以包括此类功能。在至少一个实施例中,执行至少一些该功能的 位置可以是可配置的,或者可以取决于诸如客户端设备602的类型或者具 有适当带宽的网络连接的可用性等类似因素。在至少一个实施例中,用于 内容生成的系统可以包括在一个或更多个位置的硬件和软件的任何适当组 合。在至少一个实施例中,还可以将生成的一个或更多个分辨率的图像或 视频内容提供给或使其可用于其他客户端设备650,诸如用于从存储该图 像或视频内容的副本的媒体源下载或流式传输。在至少一个实施例中,这 可以包括传输多人游戏的游戏内容的图像,其中不同的客户端设备可以以 包括一个或更多个超分辨率在内的不同分辨率显示该内容。
在该示例中,这些客户端设备可以包括任何适当的计算设备,如可以 包括台式计算机、笔记本计算机、机顶盒、流式传输设备、游戏控制台、 智能手机、平板计算机、VR耳机、AR护目镜、可穿戴计算机或智能电视。 每个客户端设备可以跨至少一个有线或无线网络提交请求,所述网络可以 包括因特网、以太网、局域网(LAN)或蜂窝网络,以及其他此类选项。在该示例中,这些请求可以提交到与云提供商相关联的地址,所述云提供 商可以在云提供商环境下操作或控制一个或更多个电子资源,所述云提供 商环境诸如可以包括数据中心或服务器群。在至少一个实施例中,该请求 可以由位于网络边缘并且在与云提供商环境相关联的至少一个安全层之外 的至少一个边缘服务器接收或处理。通过这种方式,可以通过使得客户端 设备能够与距离更近的服务器交互来减少延迟,同时还可以提高云提供商 环境中资源的安全性。
在至少一个实施例中,此类系统可以用于执行图形渲染操作。在其他 实施例中,此类系统可以用于其他目的,诸如用于提供图像或视频内容以 测试或验证自主机器应用,或者用于执行深度学习操作。在至少一个实施 例中,此类系统可以使用边缘设备来实现,或者可以结合一个或更多个虚 拟机(VM)。在至少一个实施例中,此类系统可以至少部分地在数据中心 中或至少部分地使用云计算资源来实现。
推理和训练逻辑
图7A示出了用于执行与一个或更多个实施例相关联的推理和/或训练 操作的推理和/或训练逻辑715。下面结合图7A和/或图7B提供关于推理 和/或训练逻辑715的细节。
在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于代码 和/或数据存储701,用于存储前向和/或输出权重和/或输入/输出数据,和/ 或在一个或更多个实施例的方面中配置被训练为和/或用于推理的神经网 络的神经元或层的其他参数。在至少一个实施例中,训练逻辑715可以包 括或耦合到用于存储图形代码或其他软件以控制时序和/或顺序的代码和/ 或数据存储701,其中权重和/或其他参数信息被加载以配置逻辑,包括整 数和/或浮点单元(统称为算术逻辑单元(ALU))。在至少一个实施例中, 代码(诸如图代码)基于该代码所对应的神经网络的架构将权重或其他参 数信息加载到处理器ALU中。在至少一个实施例中,代码和/或数据存储701存储在使用一个或更多个实施例的方面训练和/或推理期间的输入/输 出数据和/或权重参数的前向传播期间结合一个或更多个实施例训练或使 用的神经网络的每个层的权重参数和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储701的任何部分都可以包括在其他片上或片外数据 存储内,包括处理器的L1、L2或L3高速缓存或系统存储器。
在至少一个实施例中,代码和/或数据存储701的任何部分可以在一个 或更多个处理器或其他硬件逻辑设备或电路的内部或外部。在至少一个实 施例中,代码和/或数据存储701可以是高速缓存存储器、动态随机可寻址 存储器(“DRAM”)、静态随机可寻址存储器(“SRAM”)、非易失性存储 器(例如闪存)或其他存储。在至少一个实施例中,对代码和/或数据存储 701是在处理器的内部还是外部的选择,例如,或者由DRAM、SRAM、 闪存或某种其他存储类型组成,可以取决于存储片上或片外的可用存储空 间,正在执行训练和/或推理功能的延迟要求,在神经网络的推理和/或训练 中使用的数据的批大小或这些因素的某种组合。
在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于代码 和/或数据存储705,以存储与在一个或更多个实施例的方面中被训练为和/ 或用于推理的神经网络的神经元或层相对应的反向和/或输出权重和/或输 入/输出数据神经网络。在至少一个实施例中,在使用一个或更多个实施例 的方面训练和/或推理期间,代码和/或数据存储705存储在输入/输出数据 和/或权重参数的反向传播期间结合一个或更多个实施例训练或使用的神 经网络的每个层的权重参数和/或输入/输出数据。在至少一个实施例中,训 练逻辑715可以包括或耦合到用于存储图代码或其他软件以控制时序和/ 或顺序的代码和/或数据存储705,,其中权重和/或其他参数信息被加载以 配置逻辑,该逻辑包括整数和/或浮点单元(统称为算术逻辑单元(ALU))。 在至少一个实施例中,代码(诸如图代码)基于该代码所对应的神经网络 的架构将权重或其他参数信息加载到处理器ALU中。在至少一个实施例中, 代码和/或数据存储705的任何部分可以与其他片上或片外数据存储一起包 括,包括处理器的L1、L2或L3高速缓存或系统存储器。在至少一个实施 例中,代码和/或数据存储705的任何部分可以在一个或更多个处理器或其 他硬件逻辑设备或电路上的内部或外部。在至少一个实施例中,代码和/ 或数据存储705可以是高速缓存存储器、DRAM、SRAM、非易失性存储 器(例如闪存)或其他存储。在至少一个实施例中,代码和/或数据存储705 是在处理器的内部还是外部的选择,例如,是由DRAM、SRAM、闪存还 是其他某种存储类型组成,取决于可用存储是片上还是片外,正在执行的 训练和/或推理功能的延迟要求,在神经网络的推理和/或训练中使用的数据 批量大小或这些因素的某种组合。
在至少一个实施例中,代码和/或数据存储701以及代码和/或数据存 储705可以是分开的存储结构。在至少一个实施例中,代码和/或数据存储 701以及代码和/或数据存储705可以是相同的存储结构。在至少一个实施 例中,代码和/或数据存储701以及代码和/或数据存储705可以是部分相同 的存储结构和部分分离的存储结构。在至少一个实施例中,代码和/或数据 存储701以及代码和/或数据存储705的任何部分可以与其他片上或片外数 据存储包括在一起,包括处理器的L1、L2或L3高速缓存或系统存储器。
在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于一个 或更多个算术逻辑单元(“ALU”)710(包括整数和/或浮点单元),用于至 少部分地基于训练和/或推理代码(例如,图代码)或由其指示来执行逻辑 和/或数学运算,其结果可能会产生存储在激活存储720中的激活(例如, 来自神经网络内部的层或神经元的输出值),其是存储在代码和/或数据存 储701和/或代码和/或数据存储705中的输入/输出和/或权重参数数据的函 数。在至少一个实施例中,激活响应于执行指令或其他代码,由ALU710 执行的线性代数和/或基于矩阵的数学生成在激活存储720中存储的激活, 其中存储在代码和/或数据存储705中和/或代码和/或数据存储701中的权 重值用作具有其他值的操作数,例如偏置值、梯度信息、动量值或其他参 数或超参数,可以将任何或所有这些存储在代码和/或数据存储705或代码 和/或数据存储701或其他片上或片外存储中。
在至少一个实施例中,一个或更多个处理器或其他硬件逻辑设备或电 路中包括一个或更多个ALU710,而在另一实施例中,一个或更多个 ALU710可以在处理器或其他硬件逻辑设备或使用它们(例如协处理器) 的电路外。在至少一个实施例中,可以将一个或更多个ALU710包括在处 理器的执行单元之内,或者以其他方式包括在由处理器的执行单元可访问 的ALU组中,该处理器的执行单元可以在同一处理器内或者分布在不同类 型的不同处理器之间(例如,中央处理单元、图形处理单元、固定功能单 元等)。在至少一个实施例中,代码和/或数据存储701、代码和/或数据存 储705以及激活存储720可以在同一处理器或其他硬件逻辑设备或电路上, 而在另一实施例中,它们可以在不同的处理器或其他硬件逻辑设备或电路 或相同和不同处理器或其他硬件逻辑设备或电路的某种组合中。在至少一 个实施例中,激活存储720的任何部分可以与其他片上或片外数据存储包 括在一起,包括处理器的L1、L2或L3高速缓存或系统存储器。此外,推 理和/或训练代码可以与处理器或其他硬件逻辑或电路可访问的其他代码 一起存储,并可以使用处理器的提取、解码、调度、执行、退出和/或其他 逻辑电路来提取和/或处理。
在至少一个实施例中,激活存储720可以是高速缓存存储器、DRAM、 SRAM、非易失性存储器(例如,闪存)或其他存储。在至少一个实施例 中,激活存储720可以完全地或部分地在一个或更多个处理器或其他逻辑 电路内部或外部。在至少一个实施例中,可以取决于片上或片外可用的存 储,进行训练和/或推理功能的延迟要求,在推理和/或训练神经网络中使用 的数据的批量大小或这些因素的某种组合,选择激活存储720是处理器的 内部还是外部,例如,或者包含DRAM、SRAM、闪存或其他存储类型。 在至少一个实施例中,图7a中所示的推理和/或训练逻辑715可以与专用 集成电路(“ASIC”)结合使用,例如来自Google的
Figure BDA0003782213980000191
处理单元、 来自GraphcoreTM的推理处理单元(IPU)或来自Intel Corp的
Figure BDA0003782213980000192
(例 如“Lake Crest”)处理器。在至少一个实施例中,图7A所示的推理和/或 训练逻辑715可与中央处理单元(“CPU”)硬件,图形处理单元(“GPU”) 硬件或其他硬件(例如现场可编程门阵列(“FPGA”))结合使用。
图7b示出了根据至少一个或更多个实施例的推理和/或训练逻辑715。 在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于硬件逻辑, 其中计算资源被专用或以其他方式唯一地连同对应于神经网络内的一层或 更多层神经元的权重值或其他信息一起使用。在至少一个实施例中,图7b 中所示的推理和/或训练逻辑715可以与专用集成电路(ASIC)结合使用, 例如来自Google的
Figure BDA0003782213980000193
处理单元,来自GraphcoreTM的推理处理单 元(IPU)或来自Intel Corp的
Figure BDA0003782213980000194
(例如“Lake Crest”)处理器。在 至少一个实施例中,图7b中所示的推理和/或训练逻辑715可以与中央处 理单元(CPU)硬件、图形处理单元(GPU)硬件或其他硬件(例如现场 可编程门阵列(FPGA))结合使用。在至少一个实施例中,推理和/或训练 逻辑715包括但不限于代码和/或数据存储701以及代码和/或数据存储705, 其可以用于存储代码(例如,图代码)、权重值和/或其他信息,包括偏置 值、梯度信息、动量值和/或其他参数或超参数信息。在图7b中所示的至 少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705中的 每一个都分别与专用计算资源(例如计算硬件702和计算硬件706)相关 联。在至少一个实施例中,计算硬件702和计算硬件706中的每一个包括 一个或更多个ALU,这些ALU仅分别对存储在代码和/或数据存储701和 代码和/或数据存储705中的信息执行数学函数(例如线性代数函数),执 行函数的结果被存储在激活存储720中。
在至少一个实施例中,代码和/或数据存储701和705以及相应的计算 硬件702和706中的每一个分别对应于神经网络的不同层,使得从代码和/ 或数据存储701和计算硬件702的一个“存储/计算对701/702”得到的激 活提供作为代码和/或数据存储705和计算硬件706的下一个“存储/计算对 705/706”的输入,以便反映神经网络的概念组织。在至少一个实施例中, 每个存储/计算对701/702和705/706可以对应于一个以上的神经网络层。 在至少一个实施例中,在推理和/或训练逻辑715中可以包括在存储计算对 701/702和705/706之后或与之并行的附加存储/计算对(未示出)。
数据中心
图8示出了可以使用至少一个实施例的示例数据中心800。在至少一 个实施例中,数据中心800包括数据中心基础设施层810、框架层820、软 件层830和应用程序层840。
在至少一个实施例中,如图8所示,数据中心基础设施层810可以包 括资源协调器812、分组计算资源814和节点计算资源(“节点C.R.”)816 (1)-816(N),其中“N”代表任何正整数。在至少一个实施例中,节点 C.R.816(1)-816(N)可以包括但不限于任何数量的中央处理单元(“CPU”) 或其他处理器(包括加速器、现场可编程门阵列(FPGA)、图形处理器等),存储器设备(例如动态只读存储器)、存储设备(例如固态硬盘或磁盘驱动 器),网络输入/输出(“NWI/O”)设备,网络交换机,虚拟机(“VM”), 电源模块和冷却模块等。在至少一个实施例中,节点C.R.816(1)-816(N) 中的一个或更多个节点C.R.可以是具有一个或更多个上述计算资源的服务 器。
在至少一个实施例中,分组计算资源814可以包括容纳在一个或更多 个机架内的节点C.R.的单独分组(未示出),或者容纳在各个地理位置的 数据中心内的许多机架(也未示出)。分组的计算资源814内的节点C.R. 的单独分组可以包括可以被配置或分配为支持一个或更多个工作负载的分 组的计算、网络、存储器或存储资源。在至少一个实施例中,可以将包括 CPU或处理器的几个节点C.R.分组在一个或更多个机架内,以提供计算资 源来支持一个或更多个工作负载。在至少一个实施例中,一个或更多个机 架还可以包括任何数量的电源模块、冷却模块和网络交换机,以任意组合。
在至少一个实施例中,资源协调器812可以配置或以其他方式控制一 个或更多个节点C.R.816(1)-816(N)和/或分组的计算资源814。在至 少一个实施例中,资源协调器812可以包括用于数据中心800的软件设计 基础结构(“SDI”)管理实体。在至少一个实施例中,资源协调器108可 以包括硬件、软件或其某种组合。
在至少一个实施例中,如图8所示,框架层820包括作业调度器822、 配置管理器824、资源管理器826和分布式文件系统828。在至少一个实施 例中,框架层820可以包括支持软件层830的软件832和/或应用程序层840 的一个或更多个应用程序842的框架。在至少一个实施例中,软件832或 应用程序842可以分别包括基于Web的服务软件或应用程序,例如由 Amazon Web Services,Google Cloud和Microsoft Azure提供的服务或应用 程序。在至少一个实施例中,框架层820可以是但不限于一种免费和开放 源软件网络应用程序框架,例如可以利用分布式文件系统828来进行大范 围数据处理(例如“大数据”)的ApacheSparkTM(以下称为“Spark”)。 在至少一个实施例中,作业调度器832可以包括Spark驱动器,以促进对 数据中心800的各个层所支持的工作负载进行调度。在至少一个实施例中, 配置管理器824可以能够配置不同的层,例如软件层830和包括Spark和 用于支持大规模数据处理的分布式文件系统828的框架层820。在至少一 个实施例中,资源管理器826能够管理映射到或分配用于支持分布式文件 系统828和作业调度器822的集群或分组计算资源。在至少一个实施例中, 集群或分组计算资源可以包括数据中心基础设施层810上的分组计算资源 814。在至少一个实施例中,资源管理器826可以与资源协调器812协调以 管理这些映射的或分配的计算资源。
在至少一个实施例中,包括在软件层830中的软件832可以包括由节 点C.R.816(1)-816(N)的至少一部分,分组的计算资源814和/或框架 层820的分布式文件系统828使用的软件。一种或更多种类型的软件可以 包括但不限于Internet网页搜索软件、电子邮件病毒扫描软件、数据库软 件和流视频内容软件。
在至少一个实施例中,应用程序层840中包括的一个或更多个应用程 序842可以包括由节点C.R.816(1)-816(N)的至少一部分、分组计算 资源814和/或框架层820的分布式文件系统828使用的一种或更多种类型 的应用程序。一种或更多种类型的应用程序可以包括但不限于任何数量的 基因组学应用程序、认知计算和机器学习应用程序,包括训练或推理软件, 机器学习框架软件(例如PyTorch、TensorFlow、Caffe等)或其他与一个 或更多个实施例结合使用的机器学习应用程序。
在至少一个实施例中,配置管理器824、资源管理器826和资源协调 器812中的任何一个可以基于以任何技术上可行的方式获取的任何数量和 类型的数据来实现任何数量和类型的自我修改动作。在至少一个实施例中, 自我修改动作可以减轻数据中心800的数据中心操作员做出可能不好的配 置决定并且可以避免数据中心的未充分利用和/或执行差的部分。
在至少一个实施例中,数据中心800可以包括工具、服务、软件或其 他资源,以根据本文所述的一个或更多个实施例来训练一个或更多个机器 学习模型或者使用一个或更多个机器学习模型来预测或推理信息。例如, 在至少一个实施例中,可以通过使用上文关于数据中心800描述的软件和 计算资源,根据神经网络架构通过计算权重参数来训练机器学习模型。在 至少一个实施例中,通过使用通过本文所述的一种或更多种训练技术计算出的权重参数,可以使用上面与关于数据中心800所描述的资源,使用对 应于一个或更多个神经网络的经训练的机器学习模型来推理或预测信息。
在至少一个实施例中,数据中心可以使用CPU、专用集成电路(ASIC)、 GPU、FPGA或其他硬件来使用上述资源来执行训练和/或推理。此外,上 述的一个或更多个软件和/或硬件资源可以配置成一种服务,以允许用户训 练或执行信息推理,例如图像识别、语音识别或其他人工智能服务。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推 理和/或训练操作。本文结合图7A和/或图7B提供关于推理和/或训练逻辑 715的细节。在至少一个实施例中,推理和/或训练逻辑715可以在系统图 8的系统中使用,用于至少部分地基于使用神经网络训练操作、神经网络 函数和/或架构或本文所述的神经网络用例计算的权重参数来推理或预测 操作。
此类组件可用于使用由生成器网络生成的一组图像来训练逆向图形 网络,其中对象的方面保持固定,而姿态或视图信息在该组的图像之间变 化。
计算机系统
图9是示出根据至少一个实施例示例性计算机系统的框图,该示例性 计算机系统可以是具有互连的设备和组件的系统,片上系统(SOC)或它 们的某种形成有处理器的组合,该处理器可以包括执行单元以执行指令。 在至少一个实施例中,根据本公开,例如本文所述的实施例,计算机系统 900可以包括但不限于组件,例如处理器902,其执行单元包括逻辑以执行 用于过程数据的算法。在至少一个实施例中,计算机系统900可以包括处 理器,例如可从加利福尼亚圣塔克拉拉的英特尔公司 (IntelCorporationofSantaClara,California)获得的
Figure BDA0003782213980000231
处理器家族、 XeonTM、
Figure BDA0003782213980000232
XScaleTM和/或StrongARMTM,
Figure BDA0003782213980000233
CoreTM
Figure BDA0003782213980000234
NervanaTM微处理器,尽管也可以使用其他系统(包括具有其他微处 理器的PC、工程工作站、机顶盒等)。在至少一个实施例中,计算机系统 900可以执行可从华盛顿州雷蒙德市的微软公司 (MicrosoftCorporationofRedmond,Wash.)获得的WINDOWS操作系统版 本,尽管其他操作系统(例如UNIX和Linux)、嵌入式软件和/或图形用户 界面也可以使用。
实施例可以用在其他设备中,例如手持设备和嵌入式应用程序。手持 设备的一些示例包括蜂窝电话、互联网协议(InternetProtocol)设备、数码 相机、个人数字助理(“PDA”)和手持PC。在至少一个实施例中,嵌入式 应用程序可以包括微控制器、数字信号处理器(“DSP”)、片上系统、网络 计算机(“NetPC”)、机顶盒、网络集线器、广域网(“WAN”)交换机,或 根据至少一个实施例可以执行一个或更多个指令的任何其他系统。
在至少一个实施例中,计算机系统900可包括但不限于处理器902, 该处理器902可包括但不限于一个或更多个执行单元908,以根据本文描 述的技术执行机器学习模型训练和/或推理。在至少一个实施例中,计算机 系统900是单处理器台式机或服务器系统,但是在另一实施例中,计算机 系统900可以是多处理器系统。在至少一个实施例中,处理器902可以包 括但不限于复杂指令集计算机(“CISC”)微处理器、精简指令集计算 (“RISC”)微处理器、超长指令字(“VLIW”)微处理器、实现指令 集组合的处理器,或任何其他处理器设备,例如数字信号处理器。在至少 一个实施例中,处理器902可以耦合到处理器总线910,该处理器总线910 可以在处理器902与计算机系统900中的其他组件之间传输数据信号。
在至少一个实施例中,处理器902可以包括但不限于1级(“L1”) 内部高速缓存存储器(“cache”)904。在至少一个实施例中,处理器902 可以具有单个内部高速缓存或多级内部缓存。在至少一个实施例中,高速 缓存存储器可以驻留在处理器902的外部。根据特定的实现和需求,其他 实施例也可以包括内部和外部高速缓存的组合。在至少一个实施例中,寄 存器文件906可以在各种寄存器中存储不同类型的数据,包括但不限于整 数寄存器、浮点寄存器、状态寄存器和指令指针寄存器。
在至少一个实施例中,包括但不限于执行整数和浮点运算的逻辑执行 单元908,其也位于处理器902中。在至少一个实施例中,处理器902还 可以包括微码(“ucode”)只读存储器(“ROM”),用于存储某些宏 指令的微代码。在至少一个实施例中,执行单元908可以包括用于处理封 装指令集909的逻辑。在至少一个实施例中,通过将封装指令集909包括在通用处理器的指令集中,以及要执行指令的相关电路,可以使用处理器 902中的封装数据来执行许多多媒体应用程序使用的操作。在一个或更多 个实施例中,可以通过使用处理器的数据总线的全宽度来在封装的数据上 执行操作来加速和更有效地执行许多多媒体应用程序,这可能不需要在处 理器的数据总线上传输较小的数据单元来一次执行一个数据元素的一个或 更多个操作。
在至少一个实施例中,执行单元908也可以用在微控制器、嵌入式处 理器、图形设备、DSP和其他类型的逻辑电路中。在至少一个实施例中, 计算机系统900可以包括但不限于存储器920。在至少一个实施例中,存 储器920可以实现为动态随机存取存储器(“DRAM”)设备、静态随机 存取存储器(“SRAM”)设备、闪存设备或其他存储设备。在至少一个 实施例中,存储器920可以存储由处理器902可以执行的由数据信号表示 的指令919和/或数据921。
在至少一个实施例中,系统逻辑芯片可以耦合到处理器总线910和存 储器920。在至少一个实施例中,系统逻辑芯片可以包括但不限于存储器 控制器集线器(“MCH”)916,并且处理器902可以经由处理器总线910 与MCH916通信。在至少一个实施例中,MCH916可以提供到存储器920 的高带宽存储器路径918以用于指令和数据存储以及用于图形命令、数据和纹理的存储。在至少一个实施例中,MCH916可以在处理器902、存储 器920和计算机系统900中的其他组件之间启动数据信号,并且在处理器 总线910、存储器920和系统I/O922之间桥接数据信号。在至少一个实施 例中,系统逻辑芯片可以提供用于耦合到图形控制器的图形端口。在至少 一个实施例中,MCH916可以通过高带宽存储器路径918耦合到存储器920, 并且图形/视频卡912可以通过加速图形端口(AcceleratedGraphicsPort) (“AGP”)互连914耦合到MCH916。
在至少一个实施例中,计算机系统900可以使用系统I/O922,所述系 统I/O922是专有集线器接口总线来将MCH916耦合到I/O控制器集线器 (“ICH”)930。在至少一个实施例中,ICH930可以通过本地I/O总线提 供与某些I/O设备的直接连接。在至少一个实施例中,本地I/O总线可以 包括但不限于用于将外围设备连接到存储器920、芯片组和处理器902的高速I/O总线。示例可以包括但不限于音频控制器929、固件集线器 (“FlashBIOS”)928、无线收发器926、数据存储924、包含用户输入和 键盘接口的传统I/O控制器923、串行扩展端口927(例如通用串行总线 (USB)端口)和网络控制器934。数据存储924可以包括硬盘驱动器、 软盘驱动器、CD-ROM设备、闪存设备或其他大容量存储设备。
在至少一个实施例中,图9示出了包括互连的硬件设备或“芯片”的 系统,而在其他实施例中,图9可以示出示例性片上系统(SoC)。在至 少一个实施例中,设备可以与专有互连、标准化互连(例如,PCIe)或其 某种组合互连。在至少一个实施例中,计算机系统900的一个或更多个组 件使用计算快速链路(CXL)互连来互连。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关的推理 和/或训练操作。下文结合图7A和/或图7B提供关于推理和/或训练逻辑715 的细节。在至少一个实施例中,推理和/或训练逻辑715可以在图9的系统 中使用,用于至少部分地基于使用神经网络训练操作、神经网络函数和/ 或架构或本文所述的神经网络用例计算的权重参数来推理或预测操作。
此类组件可用于使用由生成器网络生成的一组图像来训练逆向图形 网络,其中对象的方面保持固定,而姿态或视图信息在该组的图像之间变 化。
图10是示出根据至少一个实施例的用于利用处理器1010的电子设备 1000的框图。在至少一个实施例中,电子设备1000可以是,例如但不限 于,笔记本电脑、塔式服务器、机架服务器、刀片服务器、膝上型计算机、 台式机、平板电脑、移动设备、电话、嵌入式计算机或任何其他合适的电 子设备。
在至少一个实施例中,系统1000可以包括但不限于通信地耦合到任 何合适数量或种类的组件、外围设备、模块或设备的处理器1010。在至少 一个实施例中,处理器1010使用总线或接口耦合,诸如1℃总线、系统 管理总线(“SMBus”)、低引脚数(LPC)总线、串行外围接口(“SPI”)、 高清音频(“HDA”)总线、串行高级技术附件(“SATA”)总线、通 用串行总线(“USB”)(1、2、3版)或通用异步接收器/发送器(“UART”) 总线。在至少一个实施例中,图10示出了系统,该系统包括互连的硬件设 备或“芯片”,而在其他实施例中,图10可以示出示例性片上系统(SoC)。 在至少一个实施例中,图10中所示的设备可以与专有互连线、标准化互连 (例如,PCIe)或其某种组合互连。在至少一个实施例中,图10的一个或 更多个组件使用计算快速链路(CXL)互连线来互连。
在至少一个实施例中,图10可以包括显示器1024、触摸屏1025、触 摸板1030、近场通信单元(“NFC”)1045、传感器集线器1040、热传感 器1046、快速芯片组(“EC”)1035、可信平台模块(“TPM”)1038、 BIOS/固件/闪存(“BIOS,FWFlash”)1022、DSP1060、驱动器1020(例如固态磁盘(“SSD”)或硬盘驱动器(“HDD”))、无线局域网单元 (“WLAN”)1050、蓝牙单元1052、无线广域网单元(“WWAN”) 1056、全球定位系统(GPS)1055、相机(“USB3.0相机”)1054(例如 USB3.0相机)和/或以例如LPDDR3标准实现的低功耗双倍数据速率 (“LPDDR”)存储器单元(“LPDDR3”)1015。这些组件可以各自以 任何合适的方式实现。
在至少一个实施例中,其他组件可以通过上文所述的组件通信地耦合 到处理器1010。在至少一个实施例中,加速度计1041、环境光传感器 (“ALS”)1042、罗盘1043和陀螺仪1044可以可通信地耦合到传感器 集线器1040。在至少一个实施例中,热传感器1039、风扇1037、键盘1036 和触摸板1030可以通信地耦合到EC1035。在至少一个实施例中,扬声器1063、耳机1064和麦克风(“mic”)1065可以通信地耦合到音频单元(“音 频编解码器和D类放大器”)1062,其又可以通信地耦合到DSP1060。在 至少一个实施例中,音频单元1062可以包括例如但不限于音频编码器/解 码器(“编解码器”)和D类放大器。在至少一个实施例中,SIM卡(“SIM”) 1057可以通信地耦合到WWAN单元1056。在至少一个实施例中,组件(诸 如WLAN单元1050和蓝牙单元1052以及WWAN单元1056)可以被实 现为下一代形式因素(NGFF)。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推 理和/或训练操作。下文结合图7A和/或图7B提供关于推理和/或训练逻辑 715的细节。在至少一个实施例中,推理和/或训练逻辑715可以在图10 系统中用于至少部分地基于使用神经网络训练操作、神经网络功能和/或架 构或本文描述的神经网络用例计算的权重参数来推理或预测操作。
此类组件可用于使用由生成器网络生成的一组图像来训练逆向图形 网络,其中对象的方面保持固定,而姿态或视图信息在该组的图像之间变 化。
图11是根据至少一个实施例的处理系统的框图。在至少一个实施例 中,系统1100包括一个或更多个处理器1102和一个或更多个图形处理器 1108,并且可以是单处理器台式机系统、多处理器工作站系统或具有大量 处理器1102或处理器核心1107的服务器系统。在至少一个实施例中,系 统1100是结合在片上系统(SoC)集成电路内的处理平台,以在移动、手 持或嵌入式设备使用。
在至少一个实施例中,系统1100可以包括或结合在基于服务器的游 戏平台中,包括游戏和媒体控制台的游戏控制台、移动游戏控制台、手持 游戏控制台或在线游戏控制台。在至少一个实施例中,系统1100是移动电 话、智能电话、平板计算设备或移动互联网设备。在至少一个实施例中, 处理系统1100还可包括与可穿戴设备耦合或集成在可穿戴设备中,例如智 能手表可穿戴设备、智能眼镜设备、增强现实设备或虚拟现实设备。在至 少一个实施例中,处理系统1100是电视或机顶盒设备,其具有一个或更多 个处理器1102以及由一个或更多个图形处理器1108生成的图形界面。
在至少一个实施例中,一个或更多个处理器1102每个包括一个或更 多个处理器核心1107,以处理指令,该指令在被执行时执行针对系统和用 户软件的操作。在至少一个实施例中,一个或更多个处理器核心1107中的 每一个被配置为处理特定指令组1109。在至少一个实施例中,指令组1109 可以促进复杂指令集计算(CISC)、精简指令集计算(RISC),或通过超 长指令字(VLIW)进行计算。在至少一个实施例中,处理器核心1107可 以各自处理不同的指令组1109,该指令组可以包括有助于仿真其他指令组 的指令。在至少一个实施例中,处理器核心1107还可以包括其他处理设备, 例如数字信号处理器(DSP)。
在至少一个实施例中,处理器1102包括高速缓存存储器1104。在至 少一个实施例中,处理器1102可以具有单个内部高速缓存或多个级别的内 部高速缓存。在至少一个实施例中,高速缓存存储器在处理器1102的各个 组件之间共享。在至少一个实施例中,处理器1102还使用外部高速缓存(例 如,三级(L3)高速缓存或最后一级高速缓存(LLC))(未示出),可 以使用已知的高速缓存一致性技术在处理器核心1107之间共享该外部高 速缓存。在至少一个实施例中,处理器1102中另外包括寄存器文件1106, 处理器可以包括用于存储不同类型的数据的不同类型的寄存器(例如,整 数寄存器、浮点寄存器、状态寄存器和指令指针寄存器)。在至少一个实 施例中,寄存器文件1106可以包括通用寄存器或其他寄存器。
在至少一个实施例中,一个或更多个处理器1102与一个或更多个接 口总线1110耦合,以在处理器1102与系统1100中的其他组件之间传输通 信信号,例如地址、数据或控制信号。在至少一个实施例中,接口总线1110 在一个实施例中可以是处理器总线,例如直接媒体接口(DMI)总线的版 本。在至少一个实施例中,接口总线1110不限于DMI总线,并且可以包 括一个或更多个外围组件互连总线(例如,PCI,PCIExpress)、存储器总 线或其他类型的接口总线。在至少一个实施例中,处理器1102包括集成存 储器控制器1116和平台控制器集线器1130。在至少一个实施例中,存储 器控制器1116促进存储器设备与处理系统1100的其他组件之间的通信, 而平台控制器集线器(PCH)1130通过本地I/O总线提供到输入/输出(I/O) 设备的连接。
在至少一个实施例中,存储器设备1120可以是动态随机存取存储器 (DRAM)设备、静态随机存取存储器(SRAM)设备、闪存设备、相变 存储设备或具有适当的性能以用作处理器存储器。在至少一个实施例中, 存储设备1120可以用作处理系统1100的系统存储器,以存储数据1122 和指令1121,以在一个或更多个处理器1102执行应用程序或过程时使用。在至少一个实施例中,存储器控制器1116还与可选的外部图形处理器1112 耦合,其可以与处理器1102中的一个或更多个图形处理器1108通信以执 行图形和媒体操作。在至少一个实施例中,显示设备1111可以连接至处理 器1102。在至少一个实施例中,显示设备1111可以包括内部显示设备中 的一个或更多个,例如在移动电子设备或膝上型设备或通过显示器接口(例 如显示端口(DisplayPort)等)连接的外部显示设备中。在至少一个实施 例中,显示设备1111可以包括头戴式显示器(HMD),诸如用于虚拟现 实(VR)应用或增强现实(AR)应用中的立体显示设备。
在至少一个实施例中,平台控制器集线器1130使外围设备能够通过 高速I/O总线连接到存储设备1120和处理器1102。在至少一个实施例中, I/O外围设备包括但不限于音频控制器1146、网络控制器1134、固件接口 1128、无线收发器1126、触摸传感器1125、数据存储设备1124(例如, 硬盘驱动器、闪存等)。在至少一个实施例中,数据存储设备1124可以经 由存储接口(例如,SATA)或经由外围总线来连接,诸如外围组件互连 总线(例如,PCI、PCIe)。在至少一个实施例中,触摸传感器1125可以 包括触摸屏传感器、压力传感器或指纹传感器。在至少一个实施例中,无 线收发器1126可以是Wi-Fi收发器、蓝牙收发器或移动网络收发器,诸如 3G、4G或长期演进(LTE)收发器。在至少一个实施例中,固件接口1128 使能与系统固件的通信,并且可以是例如统一可扩展固件接口(UEFI)。 在至少一个实施例中,网络控制器1134可以启用到有线网络的网络连接。 在至少一个实施例中,高性能网络控制器(未示出)与接口总线1110耦合。 在至少一个实施例中,音频控制器1146是多通道高清晰度音频控制器。在 至少一个实施例中,处理系统1100包括可选的传统(legacy)I/O控制器1140,用于将传统(例如,个人系统2(PS/2))设备耦合到系统1100。 在至少一个实施例中,平台控制器集线器1130还可以连接到一个或更多个 通用串行总线(USB)控制器1142,该控制器连接输入设备,诸如键盘和 鼠标1143组合、相机1144或其他USB输入设备。
在至少一个实施例中,存储器控制器1116和平台控制器集线器1130 的实例可以集成到离散的外部图形处理器中,例如外部图形处理器1112。 在至少一个实施例中,平台控制器集线器1130和/或存储器控制器1116可 以在一个或更多个处理器1102的外部。例如,在至少一个实施例中,系统 1100可以包括外部存储器控制器1116和平台控制器集线器1130,其可以 配置成在与处理器1102通信的系统芯片组中的存储器控制器集线器和外 围控制器集线器。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推 理和/或训练操作。下文结合图7A和/或图7B提供关于推理和/或训练逻辑 715的细节。在至少一个实施例中,部分或全部推理和/或训练逻辑715可 以结合到图形处理器1100中。例如,在至少一个实施例中,本文描述的训 练和/或推理技术可以使用一个或更多个ALU,所述ALU体现在图形处理 器中。此外,在至少一个实施例中,本文描述的推理和/或训练操作可以使 用除图10A或图10B所示的逻辑之外的逻辑来完成。在至少一个实施例中, 权重参数可以存储在片上或片外存储器和/或寄存器(示出或未示出)中, 其配置图形处理器的ALU,以执行一种或更多种本文所述的机器学习算法、 神经网络架构、用例或训练技术。
此类组件可用于使用由生成器网络生成的一组图像来训练逆向图形 网络,其中对象的方面保持固定,而姿态或视图信息在该组的图像之间变 化。
图12是根据至少一个实施例的具有一个或更多个处理器核心 1202A-1202N、集成存储器控制器1214和集成图形处理器1208的处理器 1200的框图。在至少一个实施例中,处理器1200可以包含附加核心,多 达并包括以虚线框表示的附加核心1202N。在至少一个实施例中,每个处 理器核心1202A-1202N包括一个或更多个内部高速缓存单元1204A-1204N。在至少一个实施例中,每个处理器核心还可以访问一个或更多个共享高速 缓存单元1206。
在至少一个实施例中,内部高速缓存单元1204A-1204N和共享高速 缓存单元1206表示处理器1200内的高速缓存存储器层次结构。在至少一 个实施例中,高速缓存存储器单元1204A-1204N可以包括每个处理器核心 内的至少一级指令和数据高速缓存以及共享中级高速缓存中的一级或更多 级缓存,例如2级(L2)、3级(L3)、4级(L4)或其他级别的高速缓存,其中将外部存储器之前的最高级别的高速缓存归类为LLC。在至少一 个实施例中,高速缓存一致性逻辑维持各种高速缓存单元1206和 1204A-1204N之间的一致性。
在至少一个实施例中,处理器1200还可包括一组一个或更多个总线 控制器单元1216和系统代理核心1210。在至少一个实施例中,一个或更 多个总线控制器单元1216管理一组外围总线,例如一个或更多个PCI或 PCIe总线。在至少一个实施例中,系统代理核心1210为各种处理器组件 提供管理功能。在至少一个实施例中,系统代理核心1210包括一个或更多 个集成存储器控制器1214,以管理对各种外部存储器设备(未示出)的访 问。
在至少一个实施例中,一个或更多个处理器核心1202A-1202N包括 对多线程同时进行的支持。在至少一个实施例中,系统代理核心1210包括 用于在多线程处理期间协调和操作核心1202A-1202N的组件。在至少一个 实施例中,系统代理核心1210可以另外包括电源控制单元(PCU),该电 源控制单元包括用于调节处理器核心1202A-1202N和图形处理器1208的 一个或更多个电源状态的逻辑和组件。
在至少一个实施例中,处理器1200还包括用于执行图处理操作的图 形处理器1208。在至少一个实施例中,图形处理器1208与共享高速缓存 单元1206和包括一个或更多个集成存储器控制器1214的系统代理核心 1210耦合。在至少一个实施例中,系统代理核心1210还包括用于驱动图 形处理器输出到一个或更多个耦合的显示器的显示器控制器1211。在至少 一个实施例中,显示器控制器1211也可以是经由至少一个互连与图形处理器1208耦合的独立模块,或者可以集成在图形处理器1208内。
在至少一个实施例中,基于环的互连单元1212用于耦合处理器1200 的内部组件。在至少一个实施例中,可以使用替代性互连单元,例如点对 点互连、交换互连或其他技术。在至少一个实施例中,图形处理器1208 经由I/O链路1213与环形互连1212耦合。
在至少一个实施例中,I/O链路1213代表多种I/O互连中的至少一种, 包括促进各种处理器组件与高性能嵌入式存储器模块1218(例如eDRAM 模块)之间的通信的封装I/O互连。在至少一个实施例中,处理器核心 1202A-1202N和图形处理器1208中的每一个使用嵌入式存储器模块1218 作为共享的最后一级高速缓存。
在至少一个实施例中,处理器核心1202A-1202N是执行公共指令集 架构的同质核心。在至少一个实施例中,处理器核心1202A-1202N在指令 集架构(ISA)方面是异构的,其中一个或更多个处理器核心1202A-1202N 执行公共指令集,而一个或更多个其他处理器核心1202A-1202N执行公共 指令集的子集或不同指令集。在至少一个实施例中,就微架构而言,处理 器核心1202A-1202N是异构的,其中具有相对较高功耗的一个或更多个核 心与具有较低功耗的一个或更多个功率核心耦合。在至少一个实施例中, 处理器1200可以在一个或更多个芯片上实现或被实现为SoC集成电路。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推 理和/或训练操作。下文结合图7A和/或图7B提供关于推理和/或训练逻辑 715的细节。在至少一个实施例中,部分或全部推理和/或训练逻辑715可 以结合到处理器1200中。例如,在至少一个实施例中,本文描述的训练和 /或推理技术可以使用一个或更多个ALU,所述ALU体现在图12中的图 形处理器1512、图形核心1202A-1202N或其他组件中。此外,在至少一个 实施例中,本文描述的推理和/或训练操作可以使用除图7A或图7B所示 的逻辑之外的逻辑来完成。在至少一个实施例中,权重参数可以存储在片 上或片外存储器和/或寄存器(示出或未示出)中,其配置图形处理器1200 的ALU以执行一种或更多种本文所述的机器学习算法、神经网络架构、用 例或训练技术。此类组件可以用来生成增强的内容,诸如具有升级的分辨率、减少的伪影存在以及视觉质量增强的图像或视频内容。
此类组件可用于使用由生成器网络生成的一组图像来训练逆向图形 网络,其中对象的方面保持固定,而姿态或视图信息在该组的图像之间变 化。
虚拟化计算平台
图13是根据至少一个实施例的生成和部署图像处理和推理管线的过 程1300的示例数据流程图。在至少一个实施例中,过程1300可以被部署 用于在一个或更多个设施1302处与成像设备、处理设备和/或其他设备类 型一起使用。过程1300可以在训练系统1304和/或部署系统1306内执行。 在至少一个实施例中,训练系统1304可以用于执行机器学习模型(例如, 神经网络、对象检测算法、计算机视觉算法等)的训练、部署和实现,以 用于部署系统1306。在至少一个实施例中,部署系统1306可以被配置为 在分布式计算环境中卸载处理和计算资源,以减少设施1302的基础设施需 求。在至少一个实施例中,管线中的一个或更多个应用程序在应用程序执 行期间,可以使用或调用部署系统1306的服务(例如,推理、可视化、计 算、AI等)。
在至少一个实施例中,在高级处理和推理管线中使用的一些应用程序 可以使用机器学习模型或其他AI来执行一个或更多个处理步骤。在至少一 个实施例中,可以使用在设施1302处生成(并存储在设施1302处的一个 或更多个图片存档和通信系统(PACS)服务器上)的数据1308(例如成 像数据)在设施1302处训练机器学习模型,可以使用来自另一个或更多个 设施的成像或测序数据1308来训练机器学习模型,或其组合。在至少一个 实施例中,训练系统1304可以用于提供应用程序、服务和/或其他资源, 以生成用于部署系统1306的工作的、可部署的机器学习模型。
在至少一个实施例中,模型注册表1324可以由对象存储支持,该对 象存储可以支持版本控制和对象元数据。在至少一个实施例中,可以从云 平台内通过例如云存储(例如,图14的云1426)兼容的应用程序编程接 口(API)来访问对象存储。在至少一个实施例中,模型注册表1324内的 机器学习模型可以由与API交互的系统的开发者或合作伙伴上传、列出、 修改或删除。在至少一个实施例中,API可以提供对方法的访问,所述方 法允许具有适当凭证的用户将模型与应用程序相关联,使得模型可以作为 应用程序的容器化实例化的执行的一部分来执行。
在至少一个实施例中,训练管线1404(图14)可以包括以下情形: 其中设施1302正在训练他们自己的机器学习模型,或者具有需要优化或更 新的现有机器学习模型。在至少一个实施例中,可以接收由成像设备、测 序设备和/或其他类型设备生成的成像数据1308。在至少一个实施例中,一 旦接收到成像数据1308,AI辅助注释1310就可以用于帮助生成与成像数 据1308相对应的注释,以用作机器学习模型的地面实况数据。在至少一个 实施例中,AI辅助注释1310可以包括一个或更多个机器学习模型(例如, 卷积神经网络(CNN)),可以对该机器学习模型进行训练,以生成对应于 某些类型的成像数据1308(例如,来自某些设备)的注释。在至少一个实 施例中,然后AI辅助注释1310可以被直接使用,或者可以使用注释工具 进行调整或微调,以生成地面实况数据。在至少一个实施例中,AI辅助注 释1310、标记的临床数据1312或其组合可以用作训练机器学习模型的地 面实况数据。在至少一个实施例中,经训练的机器学习模型可以被称为输 出模型1316,并且可以由部署系统1306使用,如本文所述。
在至少一个实施例中,训练管线1404(图14)可以包括以下情形: 其中设施1302需要机器学习模型,以用于执行用于部署系统1306中的一 个或更多个应用程序的一个或更多个处理任务,但是设施1302当前可能没 有这种机器学习模型(或者可能没有为此目的而优化的、高效的或有效的 模型)。在至少一个实施例中,可以从模型注册表1324中选择现有的机器 学习模型。在至少一个实施例中,模型注册表1324可以包括机器学习模型, 其被训练为对成像数据执行各种不同的推理任务。在至少一个实施例中, 可以在来自不同的设施(例如,位于远处的设施)而不是设施1302的成像 数据上训练模型注册表1324中的机器学习模型。在至少一个实施例中,机 器学习模型可能已经在来自一个位置、两个位置或任意数量的位置的成像 数据上进行训练。在至少一个实施例中,当在来自特定位置的成像数据上 进行训练时,可以在该位置处进行训练,或者至少以保护成像数据的机密 性或限制成像数据从场外转移的方式进行训练。在至少一个实施例中,一 旦在一个位置处训练了模型或部分地训练了模型,则可以将机器学习模型 添加到模型注册表1324。在至少一个实施例中,然后可以在任意数量的其 他设施处对机器学习模型进行重新训练或更新,经重新训练或更新的模型 可以在模型注册表1324中使用。在至少一个实施例中,然后可以从模型注册表1324中选择机器学习模型(并称为输出模型1316),并且可以在部署 系统1306中,以执行用于部署系统的一个或更多个应用程序的一个或更多 个处理任务。
在至少一个实施例中,在训练管线1404(图14)中,场景可以包括 需要机器学习模型的设施1302,以用于执行用于部署系统1306中的一个 或更多个应用程序的一个或更多个处理任务,但是设施1302当前可能没有 这样的机器学习模型(或者可能没有优化的、高效的或有效的模型)。在至 少一个实施例中,由于用于训练机器学习模型的训练数据的种群差异、稳 健性,训练数据异常的多样性,和/或训练数据的其他问题,从模型注册表 1324中选择的机器学习模型可能不会针对在设施1302处生成的成像数据 1308进行微调或优化。在至少一个实施例中,AI辅助注释1310可以用于 帮助生成与成像数据1308相对应的注释,以用作训练或更新机器学习模型 的地面实况数据。在至少一个实施例中,标记的临床数据1312可以用作训 练机器学习模型的地面实况数据。在至少一个实施例中,重新训练或更新 机器学习模型可以称为模型训练1314。在至少一个实施例中,模型训练 1314(例如AI辅助注释1310,标记的临床数据1312或其组合)可以用作 重新训练或更新机器学习模型的地面实况数据。在至少一个实施例中,训 练的机器学习模型可以被称为输出模型1316,并且可以由部署系统1306 使用,如本文所述。
在至少一个实施例中,部署系统1306可以包括软件1318、服务1320、 硬件1322和/或其他组件、特征和功能。在至少一个实施例中,部署系统 1306可以包括软件“栈”,以使软件1318可以构建在服务1320的顶部上, 并且可以使用服务1320来执行一些或全部处理任务,并且服务1320和软 件1318可以构建在硬件1322的顶部上,并使用硬件1322来执行部署系统 的处理、存储和/或其他计算任务。在至少一个实施例中,软件1318可以 包括任意数量的不同容器,其中每个容器可以执行应用程序的实例化。在 至少一个实施例中,每个应用程序可以在高级处理和推理管线中执行一个 或更多个处理任务(例如,推理、对象检测、特征检测、分割、图像增强、 校准等)。在至少一个实施例中,除了接收和配置成像数据以供每个容器使 用和/或在通过管线处理后由设施1302使用的容器以外,还可以基于对处 理成像数据1308想要的或所需的不同容器的选择来定义高级处理和推理 管线(例如,以将输出转换回可用的数据类型。在至少一个实施例中,软 件1318内的容器组合(例如,其构成管线)可以被称为虚拟仪器(如本文 中更详细地描述的),并且虚拟仪器可以利用服务1320和硬件1322来执行 容器中实例化的应用程序的部分或全部处理任务。
在至少一个实施例中,数据处理管线可以响应于推理请求(例如,来 自部署系统1306的用户的请求)接收具体格式的输入数据(例如,成像数 据1308)。在至少一个实施例中,输入数据可以代表由一个或更多个成像 设备生成的一个或更多个图像、视频和/或其他数据表示。在至少一个实施 例中,数据可以作为数据处理管线的一部分进行预处理,以准备数据用于 由一个或更多个应用程序处理。在至少一个实施例中,可以在管线的一个或更多个推理任务或其他处理任务的输出上执行后处理,以准备下一个应 用程序的输出数据和/或准备输出数据,以供用户传输和/或使用(例如作为 对推理请求的响应)。在至少一个实施例中,推理任务可以由一个或更多个 机器学习模型执行,例如经训练或部署的神经网络,所述模型可以包括训 练系统1304的输出模型1316。
在至少一个实施例中,数据处理管线的任务可以封装在容器中,每个 容器表示能够引用机器学习模型的应用程序和虚拟化计算环境的离散、全 功能实例化。在至少一个实施例中,容器或应用程序可被发布到容器注册 表(本文更详细地描述)的私有(例如,有限访问)区域中,并且经训练 或部署的模型可存储在模型注册表1324中,并与一个或更多个应用程序相 关联。在至少一个实施例中,应用程序的图像(例如,容器图像)可在容 器注册表中使用,并且一旦用户从容器注册表中选择图像以用于在管线中 部署,则该图像可用于生成用于应用程序的实例化的容器,以供用户的系 统使用。
在至少一个实施例中,开发者(例如,软件开发者、临床医生、医生 等)可以开发、发布和存储应用程序(例如,作为容器),用于对所提供的 数据执行图像处理和/或推理。在至少一个实施例中,可以使用与系统相关 联的软件开发工具包(SDK)来执行开发、发布和/或存储(例如,以确保 开发的应用程序和/或容器符合系统或与系统兼容)。在至少一个实施例中, 所开发的应用程序可以使用SDK在本地测试(例如,在第一设施处,对来 自第一设施的数据进行测试),所述SDK作为系统(例如图14中的系统 1400)可以支持至少某些服务1320。在至少一个实施例中,由于DICOM 对象可能包含一到数百个图像或其他数据类型,并且由于数据的变化,因 此开发者可负责管理(例如,设置构造,用于将预处理构建到应用程序中 等)传入的数据的提取和准备。在至少一个实施例中,一旦通过系统1400 的验证(例如,为了准确性),应用程序便会在容器注册表中可用,以供用 户选择和/或实现,以对用户的设施(例如第二设施)处的数据执行一个或 更多个处理任务。
在至少一个实施例中,开发者随后可以通过网络共享应用程序或容器, 以供系统(例如,图14的系统1400)的用户访问和使用。在至少一个实 施例中,可以将完成并经过验证的应用程序或容器存储在容器注册表中, 并且可以将相关的机器学习模型存储在模型注册表1324中。在至少一个实 施例中,请求实体(其提供推理或图像处理请求)可以浏览容器注册表和/ 或模型注册表1324,以获得应用程序、容器、数据集、机器学习模型等, 选择所需的元素组合以包含在数据处理管线中,并提交图像处理请求。在 至少一个实施例中,请求可以包括执行请求所必需的输入数据(以及在一 些示例中与患者相关的数据),和/或可以包括对在处理请求时要执行的应 用程序和/或机器学习模型的选择。在至少一个实施例中,然后可以将请求 传递到部署系统1306的一个或更多个组件(例如,云),以执行数据处理 管线的处理。在至少一个实施例中,由部署系统1306进行的处理可以包括 引用从容器注册表和/或模型注册表1324中选择的元素(例如,应用程序、 容器、模型等)。在至少一个实施例中,一旦通过管线生成结果,结果可返 回给用户以供参考(例如,用于在本地、本地工作站或终端上执行的查看 应用程序套件中进行查看)。
在至少一个实施例中,为了帮助处理或执行管线中的应用程序或容器, 可以利用服务1320。在至少一个实施例中,服务1320可以包括计算服务、 人工智能(AI)服务、可视化服务和/或其他服务类型。在至少一个实施例 中,服务1320可以提供软件1318中的一个或更多个应用程序所共有的功 能,因此可以将功能抽象为可以被应用程序调用或利用的服务。在至少一 个实施例中,由服务1320提供的功能可以动态且更有效地运行,同时还可 以通过允许应用程序并行地处理数据(例如,使用图14中的并行计算平台 1430)来很好地缩放。在至少一个实施例中,不是要求共享服务1320提供 的相同功能的每个应用程序都必须具有服务1320的相应实例,而是可以在 各种应用程序之间和之中共享服务1320。在至少一个实施例中,作为非限 制性示例,服务可包括可用于执行检测或分割任务的推理服务器或引擎。 在至少一个实施例中,可以包括模型训练服务,其可以提供机器学习模型 训练和/或重新训练能力。在至少一个实施例中,可以进一步包括数据增强 服务,其可以提供GPU加速的数据(例如,DICOM、RIS、CIS、符合REST、 RPC、原始等)提取、调整大小、缩放和/或其他增强。在至少一个实施例 中,可以使用可视化服务,其可以添加图像渲染效果(例如光线跟踪、光 栅化、去噪、锐化等),以向二维(2D)和/或三维(3D)模型添加真实感。 在至少一个实施例中,可以包括虚拟仪器服务,其为虚拟仪器的管线内的 其他应用程序提供波束赋形、分割、推理、成像和/或支持。
在至少一个实施例中,在服务1320包括AI服务(例如,推理服务) 的情况下,作为应用程序执行的一部分,可以通过调用(例如,作为API 调用)推理服务(例如,推理服务器),以执行一个或更多个机器学习模型 或其处理,来执行一个或更多个机器学习模型。在至少一个实施例中,在 另一应用程序包括用于分割任务的一个或更多个机器学习模型的情况下, 应用程序可以调用推理服务来执行机器学习模型,以用于执行与分割任务 相关联的一个或更多个处理操作。在至少一个实施例中,实现高级处理和 推理管线的软件1318,其包括分割应用程序和异常检测应用程序,可以被 流水线化,因为每个应用程序可以调用相同的推理服务来执行一个或更多 个推理任务。在至少一个实施例中,硬件1322可包括GPU、CPU、图形 卡、AI/深度学习系统(例如,AI超级计算机,诸如NVIDIA的DGX)、 云平台或其组合。
在至少一个实施例中,可以使用不同类型的硬件1322,以为部署系 统1306中的软件1318和服务1320提供高效的、专门构建的支持。在至少 一个实施例中,可以实现使用GPU处理来在AI/深度学习系统内、云系统 中、和/或部署系统1306的其他处理组件中进行本地处理(例如,在设施 1302处),以提高图像处理和生成的效率、准确性和效能。在至少一个实施例中,作为非限制性示例,关于深度学习、机器学习和/或高性能计算, 可以针对GPU处理优化软件1318和/或服务1320。在至少一个实施例中, 部署系统1306和/或训练系统1304的计算环境中的至少一些可以在具有 GPU优化的软件(例如,NVIDIADGX系统的硬件和软件组合)的数据中 心、一个或更多个超级计算机或高性能计算机系统中执行。在至少一个实 施例中,如本文所述,硬件1322可包括任意数量的GPU,所述GPU可被 调用以并行执行数据处理。在至少一个实施例中,云平台还可包括用于深 度学习任务的GPU优化执行、机器学习任务或其他计算任务的GPU处理。 在至少一个实施例中,可以使用AI/深度学习超级计算机和/或GPU优化的 软件(例如,如在NVIDIA的DGX系统上提供的)作为硬件抽象和缩放 平台,来执行云平台(例如,NVIDIA的NGC)。在至少一个实施例中, 云平台可以在多个GPU上集成应用程序容器集群系统或协调系统(例如, KUBERNETES),以实现无缝缩放和负载均衡。
图14是根据至少一个实施例的用于生成和部署成像部署管线的示例 系统1400的系统图。在至少一个实施例中,系统1400可以用于实现图13 的过程1300和/或其他过程,包括高级处理和推理管线。在至少一个实施 例中,系统1400可以包括训练系统1304和部署系统1306。在至少一个实 施例中,可以使用软件1318、服务1320和/或硬件1322,来实现训练系统 1304和部署系统1306,如本文所述。
在至少一个实施例中,系统1400(例如,训练系统1304和/或部署系 统1306)可以在云计算环境中(例如,使用云1426)实现。在至少一个实 施例中,系统1400可以在本地实现(关于医疗服务设施),或者作为云计 算资源和本地计算资源的组合来实现。在至少一个实施例中,可以通过制 定安全措施或协议,将对云1426中的API的访问权限限制为授权用户。 在至少一个实施例中,安全协议可以包括网络令牌,其可以由认证(例如, AuthN、AuthZ、Gluecon等)服务签名,并且可以携带适当的授权。在至 少一个实施例中,虚拟仪器的API(本文中描述)或系统1400的其他实例 可以被限制为已被审核或授权用于交互的一组公共IP。
在至少一个实施例中,系统1400的各个组件可以使用多种不同网络 类型中的任何一种在彼此之间进行通信,所述不同网络类型包括但不限于 经由有线和/或无线通信协议的局域网(LAN)和/或广域网(WAN)。在至 少一个实施例中,系统1400的设施和组件之间的通信(例如,用于发送推 理请求、用于接收推理请求的结果等)可以通过一个或更多个数据总线、 无线数据协议(Wi-Fi)、有线数据协议(例如以太网)等进行传送。
在至少一个实施例中,类似于本文关于图13所描述的,训练系统1304 可以执行训练管线1404。在至少一个实施例中,其中部署系统1306将在 部署管线1410中使用一个或更多个机器学习模型,训练管线1404可用于 训练或重新训练一个或更多个(例如,预训练的)模型,和/或实现一个或 更多个预训练模型1406(例如,无需重新训练或更新)。在至少一个实施 例中,作为训练管线1404的结果,可以生成输出模型1316。在至少一个 实施例中,训练管线1404可以包括任意数量的处理步骤,诸如但不限于成 像数据(或其他输入数据)的转换或适配。在至少一个实施例中,对于由 部署系统1306使用的不同的机器学习模型,可以使用不同的训练管线1404。 在至少一个实施例中,类似于关于图13描述的第一示例的训练管线1404 可用于第一机器学习模型,类似于关于图13描述的第二示例的训练管线 1404可用于第二机器学习模型,类似于关于图13描述的第三示例的训练 管线1404可用于第三机器学习模型。在至少一个实施例中,可以根据每个 相应机器学习模型的要求来使用训练系统1304内任务的任何组合。在至少 一个实施例中,一个或更多个机器学习模型可能已经被训练并准备好用于 部署,因此训练系统1304可能不会对机器学习模型进行任何处理,并且一 个或更多个机器学习模型可以由部署系统1306来实现。
在至少一个实施例中,根据实现或实施例,输出模型1316和/或预训 练模型1406可包括任何类型的机器学习模型。在至少一个实施例中并且不 限于此,系统1400使用的机器学习模型可以包括使用线性回归、逻辑回归、 决策树、支持向量机(SVM)、朴素贝叶斯、k-最近邻(Knn)、k均值聚类、 随机森林、降维算法、梯度提升算法、神经网络(例如,自动编码器、卷 积、递归、感知器、长/短期记忆(LSTM)、Hopfield、Boltzmann、深层信 念、反卷积、生成对抗、液体状态机等),和/或其他类型的机器学习模型。
在至少一个实施例中,训练管线1404可以包括AI辅助注释,如本文 关于至少图43B更详细描述的。在至少一个实施例中,可以通过任何数量 的技术来生成标记的临床数据1312(例如,传统注释)。在至少一个实施 例中,在一些示例中可以在绘图程序(例如,注释程序)、计算机辅助设计 (CAD)程序、标记程序、适用于生成地面实况的注释或标签的另一类型 的应用程序中、和/或可以手绘,生成标签或其他注释。在至少一个实施例 中,地面实况数据可以被合成产生(例如,从计算机模型或渲染生成)、真 实产生(例如,从真实世界数据设计和生成)、机器自动产生(例如,使用 特征分析和学习从数据中提取特征,然后生成标签)、人工注释(例如,标 记器或注释专家,定义标签的位置)和/或其组合。在至少一个实施例中, 对于成像数据1308(或机器学习模型使用的其他数据类型)的每个实例, 可以存在由训练系统1304生成的相应的地面实况数据。在至少一个实施例 中,可以作为部署管线1410的一部分执行AI辅助注释;补充或代替训练 管线1404中包括的AI辅助注释。在至少一个实施例中,系统1400可以包 括多层平台,所述多层平台可以包括诊断应用程序(或其他应用程序类型) 的软件层(例如软件1318),其可以执行一个或更多个医学成像和诊断功能。在至少一个实施例中,系统1400可以通信地耦合到(例如,经由加密 链路)一个或更多个设施的PACS服务器网络。在至少一个实施例中,系 统1400可被配置为从PACS服务器访问和引用数据,以执行操作,例如训 练机器学习模型、部署机器学习模型、图像处理、推理和/或其他操作。
在至少一个实施例中,软件层可以被实现为安全的、加密的和/或经 认证的API,通过所述API可以从外部环境(例如,设施1302)援引(invoke) (例如,调用(call))应用程序或容器。在至少一个实施例中,应用程序 随后可以调用或执行一个或更多个服务1320,以执行与各自的应用程序相 关联的计算、AI或可视化任务,并且软件1318和/或服务1320可以利用 硬件1322以有效和高效的方式执行处理任务。
在至少一个实施例中,部署系统1306可以执行部署管线1410。在至 少一个实施例中,部署管线1410可以包括任意数量的应用程序,所述应用 程序可以是顺序的、非顺序的,或者以其他方式应用于成像数据(和/或其 他数据类型)-包括AI辅助注释,所述成像数据由成像设备、测序设备、 基因组学设备等生成,如上所述。在至少一个实施例中,如本文所述,用 于个体设备的部署管线1410可以被称为用于设备的虚拟仪器(例如,虚拟 超声仪器、虚拟CT扫描仪器、虚拟测序仪器等)。在至少一个实施例中, 对于单个设备,可以存在不止一个部署管线1410,这取决于从设备生成的 数据所期望的信息。在至少一个实施例中,在期望从MRI机器检测到异常 的情况下,可以存在第一部署管线1410,并且在期望从MRI机器的输出 进行图像增强的情况下,可以存在第二部署管线1410。
在至少一个实施例中,图像生成应用程序可以包括包括使用机器学习 模型的处理任务。在至少一个实施例中,用户可能希望使用他们自己的机 器学习模型,或者从模型注册表1324中选择机器学习模型。在至少一个实 施例中,用户可以实现他们自己的机器学习模型或选择机器学习模型,以 包含在执行处理任务的应用程序中。在至少一个实施例中,应用程序可以 是可选择的和可定制的,并且通过定义应用程序的构造,针对特定用户的 应用程序的部署和实现被呈现为更加无缝的用户体验。在至少一个实施例 中,通过利用系统1400的其他特征(例如服务1320和硬件1322),部署 管线1410可以更加用户友好,提供更容易的集成,并且产生更准确、高效 和及时的结果。
在至少一个实施例中,部署系统1306可以包括用户接口1414(例如, 图形用户接口、Web接口等),所述用户接口可以被用于选择要包括在部署 管线1410中的应用程序、布置应用程序、修改或改变应用程序或其参数或 构造、在设置和/或部署期间使用部署管线1410以及与其交互,和/或以其 他方式与部署系统1306交互。在至少一个实施例中,尽管没有关于训练系 统1304示出,但是用户接口1414(或不同的用户接口)可用于选择在部 署系统1306中使用的模型、用于选择用于在训练系统1304中训练或重新 训练的模型,和/或用于以其他方式与训练系统1304交互。
在至少一个实施例中,除了应用程序协调系统1428之外,还可以使 用管线管理器1412来管理部署管线1410的应用程序或容器与服务1320 和/或硬件1322之间的交互。在至少一个实施例中,管线管理器1412可以 被配置为促进从应用程序到应用程序、从应用程序到服务1320,和/或从应 用程序或服务到硬件1322的交互。在至少一个实施例中,尽管示出为包括 在软件1318中,这并不旨在进行限制,并且在一些示例中(例如,如图 12cc所示),管线管理器1412可以被包括在服务1320中。在至少一个实 施例中,应用程序协调系统1428(例如,Kubernetes、DOCKER等)可以 包括容器协调系统,其可以将应用程序分组到容器中,作为用于协调、管 理、缩放和部署的逻辑单元。在至少一个实施例中,通过将来自部署管线1410的应用程序(例如,重建应用程序、分割应用程序等)与各个容器相 关联,每个应用程序可以在自包含的环境(例如,在内核级)中执行,以 提高速度和效率。
在至少一个实施例中,每个应用程序和/或容器(或其映像)可以被 单独开发、修改和部署(例如,第一用户或开发者可以开发、修改和部署 第一应用程序,第二用户或开发者可以开发、修改和部署与第一用户或开 发者分开的第二应用程序),这可以允许专注并关注单个应用程序和/或容 器的任务,而不受另一个应用程序或容器的任务的阻碍。在至少一个实施 例中,管线管理器1412和应用程序协调系统1428可以辅助不同容器或应 用程序之间的通信和协作。在至少一个实施例中,只要每个容器或应用程 序的预期输入和/或输出是系统已知的(例如,基于应用程序或容器的构造), 则应用程序协调系统1428和/或管线管理器1412可以促进每个应用程序或 容器之间和之中的通信以及资源的共享。在至少一个实施例中,由于部署 管线1410中的一个或更多个应用程序或容器可以共享相同的服务和资源, 因此应用程序协调系统1428可以在各个应用程序或容器之间和之中进行 协调、负载均衡,并确定服务或资源的共享。在至少一个实施例中,调度 器可用于跟踪应用程序或容器的资源需求、这些资源的当前使用或计划使 用,以及资源可用性。因此,在至少一个实施例中,考虑到系统的需求和 可用性,调度器可以将资源分配给不同的应用程序,并在应用程序之间和 之中分配资源。在一些示例中,调度器(和/或应用程序协调系统1428的其他组件)可以基于施加在系统上的约束(例如,用户约束)来确定资源 可用性和分布,例如服务质量(QoS)、对数据输出的迫切需求(例如,以 确定是执行实时处理还是延迟处理)等。
在至少一个实施例中,由部署系统1306中的应用程序或容器利用并 由其共享的服务1320,可以包括计算服务1416、AI服务1418、可视化服 务1420和/或其他服务类型。在至少一个实施例中,应用程序可以调用(例 如,执行)一个或更多个服务1320,以执行针对应用程序的处理操作。在 至少一个实施例中,应用程序可以利用计算服务1416来执行超级计算或其 他高性能计算(HPC)任务。在至少一个实施例中,可以利用一个或更多 个计算服务1416来执行并行处理(例如,使用并行计算平台1430),以通 过一个或更多个应用程序和/或单个应用程序的一个或更多个任务基本上 同时地处理数据。在至少一个实施例中,并行计算平台1430(例如,NVIDIA 的CUDA)可以在GPU(GPGPU)(例如,GPU1422)上实现通用计算。 在至少一个实施例中,并行计算平台1430的软件层可以提供对GPU的虚 拟指令集和并行计算元素的访问,以执行计算内核。在至少一个实施例中, 并行计算平台1430可以包括存储器,并且在一些实施例中,可以在多个容 器之间和之中,和/或在单个容器内的不同处理任务之间和之中共享存储器。 在至少一个实施例中,可以为多个容器和/或容器内的多个进程生成进程间 通信(IPC)调用,以使用来自并行计算平台1430的共享存储器段的相同 数据(例如,其中一应用程序或多个应用程序的多个不同阶段正在处理相 同的信息)。在至少一个实施例中,不是复制数据并将数据移动到存储器中 的不同位置(例如,读/写操作),而是可以将存储器相同位置中的相同数 据用于任何数量的处理任务(例如,在同一时间、不同时间等)。在至少一 个实施例中,由于作为处理的结果数据被用于生成新数据,因此数据的新 位置的该信息可以在各个应用程序之间存储和共享。在至少一个实施例中,数据的位置以及经更新或修改的数据的位置可以是如何理解容器中的有效 负载的定义的一部分。
在至少一个实施例中,可以利用AI服务1418来执行推理服务,该推 理服务用于执行与应用程序相关联的机器学习模型(例如,任务为执行应 用程序的一个或更多个处理任务)。在至少一个实施例中,AI服务1418可 以利用AI系统1424来执行机器学习模型(例如,诸如CNN之类的神经 网络)以用于分割、重建、对象检测、特征检测、分类和/或其他推理任务。 在至少一个实施例中,部署管线1410的应用程序可以使用来自训练系统 1304的一个或更多个输出模型1316和/或应用程序的其他模型,来对成像 数据执行推理。在至少一个实施例中,使用应用程序协调系统1428(例如, 调度器)进行推理的两个或更多个示例可以是可用的。在至少一个实施例 中,第一类别可以包括高优先级/低延时路径,其可以实现更高服务水平协 议,例如用于在紧急情况下对紧急请求执行推理,或者在诊断过程中用于放射科医生。在至少一个实施例中,第二类别可以包括标准优先级路径, 其可用于可能不紧急的请求或者可以在稍后的时间执行分析的情况。在至 少一个实施例中,应用程序协调系统1428可以基于优先级路径来分配资源 (例如,服务1320和/或硬件1322),以用于AI服务1418的不同推理任 务。
在至少一个实施例中,共享存储器可以被安装到系统1400中的AI 服务1418。在至少一个实施例中,共享存储器可以操作为高速缓存(或其 他存储设备类型),并且可以用于处理来自应用程序的推理请求。在至少一 个实施例中,当提交推理请求时,部署系统1306的一组API实例可以接 收请求,并且可以选择一个或更多个实例(例如,为了最佳拟合、为了负 载均衡等)来处理请求。在至少一个实施例中,为了处理请求,可以将请 求输入到数据库中,如果尚未在高速缓存中,则可以从模型注册表1324 定位机器学习模型,验证步骤可以确保将适当的机器学习模型加载到高速 缓存中(例如,共享存储),和/或可以将模型的副本保存到高速缓存中。 在至少一个实施例中,如果应用程序尚未运行或没有足够的应用程序的实 例,则可使用调度器(例如,管线管理器1412的调度器)来启动在请求中 引用的应用程序。在至少一个实施例中,如果尚未启动推理服务器来执行 模型,则可以启动推理服务器。每个模型可以启动任意数量的推理服务器。 在至少一个实施例中,在将推理服务器聚类的拉(pull)模型中,每当负载 均衡有利时,就可以将模型高速缓存。在至少一个实施例中,推理服务器 可以静态加载到相应的分布式服务器中。
在至少一个实施例中,可以使用在容器中运行的推理服务器来执行推 理。在至少一个实施例中,推理服务器的实例可以与模型(并且可选地与 模型的多个版本)相关联。在至少一个实施例中,如果在接收到对模型执 行推理的请求时推理服务器的实例不存在,则可以加载新实例。在至少一 个实施例中,当启动推理服务器时,可以将模型传递到推理服务器,使得 可以使用相同的容器来服务不同的模型,只要推理服务器作为不同的实例 运行即可。
在至少一个实施例中,在应用程序执行期间,可以接收对给定应用程 序的推理请求,并且可以加载(如果尚未加载的话)容器(例如,托管推 理服务器的实例),以及可以调用启动程序。在至少一个实施例中,容器中 的预处理逻辑可以(例如,使用CPU和/或GPU)对传入的数据进行加载、 解码和/或执行任何附加的预处理。在至少一个实施例中,一旦数据准备好 进行推理,容器就可以根据需要对数据进行推理。在至少一个实施例中, 这可以包括对一个图像(例如,手部X射线)的单个推理调用,或可要求 对数百个图像(例如,胸部CT)进行推理。在至少一个实施例中,应用程 序可在完成之前总结结果,其可以包括但不限于单个置信度得分、像素级 分割、体素级分割、生成可视化或生成文本以总结结果。在至少一个实施 例中,可以为不同的模型或应用程序分配不同的优先级。例如,一些模型 可具有实时(TAT小于1分钟)优先级,而其他模型可具有较低的优先级(例如,TAT小于10分钟)。在至少一个实施例中,模型执行时间可以从 请求机构或实体进行测量,并且可以包括合作网络遍历时间以及推理服务 的执行时间。
在至少一个实施例中,请求在服务1320和推理应用程序之间的传送 可以隐藏在软件开发工具包(SDK)后面,并且可以通过队列提供鲁棒的 传输。在至少一个实施例中,将通过API将请求放置在队列中,以用于个 体应用程序/租户ID组合,并且SDK将从队列中拉取请求并将请求提供给 应用程序。在至少一个实施例中,在SDK将从中拾取队列的环境中,可以 提供队列的名称。在至少一个实施例中,通过队列的异步通信可能有用, 因为它可以允许应用程序的任何实例在其可用时拾取工作。可以通过队列 将结果传送回去,以确保没有数据丢失。在至少一个实施例中,队列还可 以提供对工作进行分割的能力,因为最高优先级的工作可以进入与应用程 序的大多数实例连接的队列,而最低优先级的工作可以进入与单个实例连 接的队列,所述实例按照接收到的顺序处理任务。在至少一个实施例中,应用程序可以在GPU加速的实例上运行,所述实例在云1426中生成,并 且推理服务可以在GPU上执行推理。
在至少一个实施例中,可以利用可视化服务1420来生成用于查看应 用程序和/或部署管线1410输出的可视化。在至少一个实施例中,可视化 服务1420可以利用GPU1422来生成可视化。在至少一个实施例中,可视 化服务1420可以实现诸如光线追踪之类的渲染效果,以生成更高质量的可 视化。在至少一个实施例中,可视化可以包括但不限于2D图像渲染、3D 体渲染、3D体重建、2D层析切片、虚拟现实显示、增强现实显示等。在 至少一个实施例中,可以使用虚拟化环境来生成虚拟交互显示或环境(例 如,虚拟环境),以供系统用户(例如,医生、护士、放射科医生等)进行 交互。在至少一个实施例中,可视化服务1420可以包括内部可视化器、电 影和/或其他渲染或图像处理能力或功能(例如,光线追踪、光栅化、内部 光学器件等)。
在至少一个实施例中,硬件1322可以包括GPU1422、AI系统1424、 云1426和/或用于执行训练系统1304和/或部署系统1306的任何其他硬件。 在至少一个实施例中,GPU1422(例如,NVIDIA的TESLA和/或 QUADROGPU)可包括可用于执行计算服务1416、AI服务1418、可视化 服务1420、其他服务和/或软件1318的任何特征或功能的处理任务的任意 数量的GPU。例如,对于AI服务1418,GPU1422可用于对成像数据(或 机器学习模型使用的其他数据类型)执行预处理,对机器学习模型的输出 执行后处理和/或执行推理(例如以执行机器学习模型)。在至少一个实施 例中,云1426、AI系统1424和/或系统1400的其他组件可以使用GPU1422。 在至少一个实施例中,云1426可以包括用于深度学习任务的GPU优化的 平台。在至少一个实施例中,AI系统1424可以使用GPU,并且可以使用 一个或更多个AI系统1424来执行云1426(或者任务为深度学习或推理的 至少部分)。同样,尽管硬件1322被示出为离散组件,但这并不意图是限 制,并且硬件1322的任何组件可以与硬件1322的任何其他组件组合,或 由硬件1322的任何其他组件利用。
在至少一个实施例中,AI系统1424可包括专门构建的计算系统(例 如,超级计算机或HPC),该计算系统配置用于推理、深度学习、机器学 习和/或其他人工智能任务。在至少一个实施例中,除了CPU、RAM、存 储器和/或其他组件、特征或功能之外,AI系统1424(例如,NVIDIA的 DGX)还可以包括可以使用多个GPU1422来执行分GPU优化的软件(例 如,软件栈)。在至少一个实施例中,可以在云1426中(例如,在数据中 心中)实现一个或更多个AI系统1424,以执行系统1400的一些或全部基 于AI的处理任务。
在至少一个实施例中,云1426可以包括GPU加速的基础设施(例如, NVIDIA的NGC),其可以提供用于执行系统1400的处理任务的GPU优 化的平台。在至少一个实施例中,云1426可以包括AI系统1424,其用于 执行系统1400的一个或更多个基于AI的任务(例如,作为硬件抽象和缩 放平台)。在至少一个实施例中,云1426可以与利用多个GPU的应用程序协调系统1428集成,以实现应用程序和服务1320之间和之中的无缝缩放 和负载均衡。在至少一个实施例中,如本文所述,云1426可以负责执行系 统1400的至少一些服务1320,包括计算服务1416、AI服务1418和/或可 视化服务1420。在至少一个实施例中,云1426可以执行大小批的推理(例 如,执行NVIDIA的TENSORRT),提供加速的并行计算API和平台1430 (例如,NVIDIA的CUDA),执行应用程序协调系统1428(例如, KUBERNETES),提供图形渲染API和平台(例如,用于光线跟踪,2D 图形、3D图形和/或其他渲染技术以产生更高质量的电影效果),和/或可以 为系统1400提供其他功能。
图15A示出了根据至少一个实施例的用于训练、重新训练或更新机 器学习模型的过程1500的数据流图。在至少一个实施例中,可以使用作为 非限制性示例的图14的系统1400来执行过程1500。在至少一个实施例中, 过程1500可以利用系统1400的服务1320和/或硬件1322,如本文所述。 在至少一个实施例中,由过程1500生成的精炼模型1512可以由部署系统 1306针对部署管线1410中的一个或更多个容器化的应用程序执行。
在至少一个实施例中,模型训练1314可包括使用新的训练数据(例 如,新的输入数据(诸如客户数据集1506),和/或与输入数据相关联的新 的地面实况数据)重新训练或更新初始模型1504(例如,预训练模型)。 在至少一个实施例中,为了重新训练或更新初始模型1504,可以重置或删 除初始模型1504的输出或损失层,和/或用更新的或新的输出或损失层代 替。在至少一个实施例中,初始模型1504可以具有从先前的训练中保留下 来的先前精细调整的参数(例如,权重和/或偏差),因此训练或重新训练 1314可能不需要花费与从头开始训练模型一样长的时间或不需要那么多 的处理。在至少一个实施例中,在模型训练1314期间,通过重置或替换初 始模型1504的输出或损失层,在新的客户数据集1506(例如图13的图像 数据1308)上生成预测时,可以基于与输出或损失层的精度相关联的损失 计算,更新和重新调整新数据集的参数。
在至少一个实施例中,可以将经预训练的模型1406存储在数据存储 或注册表中(例如,图13的模型注册表1324)。在至少一个实施例中,经 预训练的模型1406可能已经至少部分地在除了执行过程1500的设施之外 的一个或更多个设施处被训练。在至少一个实施例中,为了保护患者、受 试者或不同设施的客户的隐私和权利,经预训练的模型1406可能已经使用 本地生成的客户或患者数据在本地进行了训练。在至少一个实施例中,可 以使用云1426和/或其他硬件1322来训练经预训练的模型1406,但是机密 的、受隐私保护的患者数据可以不被传送到云1426的任何组件(或其他非 本地硬件)、由其使用或由其访问。在至少一个实施例中,如果使用来自不 止一个设施的患者数据来训练经预训练的模型1406,则在来自另一设施的 患者或客户数据上进行训练之前,经预训练的模型1406可能已经针对每个 设施进行了单独训练。在至少一个实施例中,例如在客户或患者数据已发 布隐私问题(例如,通过放弃,用于实验用途等),或者其中客户或患者数 据包括在公共数据集中的情况下,来自任意数量的设施的客户或患者数据 可以用于在本地和/或外部训练经预训练的模型1406,例如在数据中心中或 其他云计算基础设施中。
在至少一个实施例中,在选择应用程序以在部署管线1410中使用时, 用户还可以选择用于特定应用程序的机器学习模型。在至少一个实施例中, 用户可能没有模型以使用,因此用户可以选择要与应用程序一起使用的经 预训练的模型1406。在至少一个实施例中,经预训练的模型1406可能没 有被优化用于在用户设施的客户数据集1506上生成准确的结果(例如,基 于患者多样性、人口统计、所使用的医学成像设备的类型等)。在至少一个实施例中,在将经预训练的模型1406部署到部署管线1410中以与一个或 更多个应用程序一起使用之前,经预训练的模型1406可以被更新、重新训 练和/或微调,以用于在各个设施处使用。
在至少一个实施例中,用户可以选择要更新、重新训练和/或微调的 经预训练的模型1406,并且经预训练的模型1406可以称为过程1500中训 练系统1304的初始模型1504。在至少一个实施例中,客户数据集1506(例 如,成像数据、基因组数据、测序数据或由设施处的设备生成的其他数据 类型)可用于对初始模型1504执行模型训练1314(其可包括但不限于传 递学习),以生成精炼模型1512。在至少一个实施例中,可以由训练系统 1304生成与客户数据集1506相对应的地面实况数据。在至少一个实施例 中,可以至少部分地由临床医生、科学家、医生、从业者在设施处生成地 面实况数据(例如,如图13中的标记的临床数据1312)。
在至少一个实施例中,在一些示例中可以使用AI辅助注释1310来生 成地面实况数据。在至少一个实施例中,AI辅助注释1310(例如,使用 AI辅助注释SDK实现)可以利用机器学习模型(例如,神经网络)来生 成用于客户数据集的建议或预测的地面实况数据。在至少一个实施例中, 用户1510可以在计算设备1508上的用户界面(图形用户界面(GUI))内使用注释工具。
在至少一个实施例中,用户1510可以经由计算设备1508与GUI交 互,以编辑或微调注释或自动注释。在至少一个实施例中,多边形编辑特 征可以用于将多边形的顶点移动到更精确或微调的位置。
在至少一个实施例中,一旦客户数据集1506具有相关联的地面实况 数据,则地面实况数据(例如,来自AI辅助注释、手动标记等)可以在模 型训练1314期间用于生成精炼模型1512。在至少一个实施例中,客户数 据集1506可以被应用到初始模型1504任意次数,并且地面实况数据可以 用于更新初始模型1504的参数,直到对于精炼模型1512达到可接受的精 度水平为止。在至少一个实施例中,一旦生成精炼模型1512,就可以在设 施处的一个或更多个部署管线1410内部署精炼模型1512,以用于执行关 于医学成像数据的一个或更多个处理任务。
在至少一个实施例中,可以将精炼模型1512上传到模型注册表1324 中的经预训练的模型1406,以由另一个设施选择。在至少一个实施例中, 他的过程可以在任意数量的设施处完成,使得可以在新数据集上对精炼模 型1512进一步精炼任意次数,以生成更通用的模型。
图15B是根据至少一个实施例的用于利用经预训练的注释模型来增 强注释工具的客户端-服务器架构1532的示例图示。在至少一个实施例中, 可以基于客户端-服务器架构1532来实例化AI辅助注释工具1536。在至 少一个实施例中,成像应用程序中的注释工具1536可以帮助放射线医生, 例如识别器官和异常。在至少一个实施例中,成像应用程序可以包括软件 工具,作为非限制性示例,所述软件工具帮助用户1510识别原始图像1534 中(例如,在3DMRI或CT扫描中)的特定感兴趣器官上的几个极值点, 并接收特定器官的所有2D切片的自动注释结果。在至少一个实施例中, 结果可以作为训练数据1538存储在数据存储中,并且用作(例如但不限于) 用于训练的地面实况数据。在至少一个实施例中,当计算设备1508发送用 于AI辅助注释1310的极值点时,例如,深度学习模型可以接收该数据作为输入并返回分割器官或异常的推理结果。在至少一个实施例中,预实例 化的注释工具(例如图15B中的AI辅助注释工具1536B)可以通过对服 务器(诸如注释助手服务器1540)进行API调用(例如API调用1544) 来增强,注释助手服务器1540可包括存储在例如注释模型注册表中的一组 经预训练的模型1542。在至少一个实施例中,注释模型注册表可以存储经预训练的模型1542(例如,机器学习模型,诸如深度学习模型),其被预 训练以对特定器官或异常执行AI辅助注释。在至少一个实施例中,可以通 过使用训练管线1404来进一步更新这些模型。在至少一个实施例中,随着 添加新的标记的临床数据1312,可以随时间改进预安装的注释工具。
此类组件可用于使用由生成器网络生成的一组图像来训练逆向图形 网络,其中对象的方面保持固定,而姿态或视图信息在该组的图像之间变 化。
其他变型在本公开的精神内。因此,尽管公开的技术易于进行各种修 改和替代构造,但是某些示出的其实施例在附图中示出并且已经在上面进 行了详细描述。然而,应理解,无意将公开内容限制为所公开的一种或更 多种特定形式,而是相反,其意图是涵盖落入如所附权利要求书所定义的 本公开内容的精神和范围内的所有修改、替代构造和等同物。
除非另有说明或显然与上下文矛盾,否则在描述所公开的实施例的上 下文中(特别是在所附权利要求的上下文中),术语“一”和“一个”和“该” 以及类似指代的使用应被解释为涵盖单数和复数,而不是作为术语的定义。 除非另有说明,否则术语“包括”、“具有”、“包含”和“含有”应被解释 为开放式术语(意味着“包括但不限于”)。术语“连接”(在未经修改时指 的是物理连接)应解释为部分或全部包含在内、附接到或连接在一起,即 使有某些介入。除非本文另外指出,否则本文中对数值范围的引用仅旨在 用作分别指代落入该范围内的每个单独值的简写方法,并且每个单独值都 被并入说明书中,就如同其在本文中被单独叙述一样。除非另外指出或与 上下文矛盾,否则术语“集”(例如“项目集”)或“子集”的使用应解释 为包括一个或更多个成员的非空集合。此外,除非另外指出或与上下文矛 盾,否则术语相应集的“子集”不一定表示对应集的适当子集,而是子集 和对应集可以相等。
除非以其他方式明确指出或与上下文明显矛盾,否则诸如“A,B和 C中的至少一个”或“A,B与C中的至少一个”形式的短语之类的连接 语在上下文中理解为通常用来表示项目、条款等,其可以是A或B或C, 也可以是A和B和C集的任何非空子集。例如,在具有三个成员的集的说 明性示例中,连接短语“A,B和C中的至少一个”和“A,B与C中的 至少一个”是指以下任意集:{A},{B},{C},{A,B},{A,C},{B, C},{A,B,C}。因此,这种连接语言通常不旨在暗示某些实施例要求存 在A中的至少一个,B中的至少一个和C中的至少一个。另外,除非另有 说明或与上下文矛盾,否则术语“多个”表示复数的状态(例如,“多个项 目”表示多个项目)。多个项目中项目的数量至少为两个,但如果明确指示 或通过上下文指示,则可以更多。此外,除非另有说明或从上下文中可以 清楚得知,否则短语“基于”是指“至少部分基于”而不是“仅基于”。
除非本文另外指出或与上下文明显矛盾,否则本文描述的过程的操作 可以任何合适的顺序执行。在至少一个实施例中,诸如本文所述的那些过 程(或其变形和/或其组合)之类的过程在配置有可执行指令的一个或更多 个计算机系统的控制下执行,并且被实现为代码(例如,可执行指令,一 个或更多个计算机程序或一个或更多个应用程序),该代码通过硬件或其组 合在一个或更多个处理器上共同执行。在至少一个实施例中,代码以例如 计算机程序的形式存储在计算机可读存储介质上,该计算机程序包括可由 一个或更多个处理器执行的多个指令。在至少一个实施例中,计算机可读 存储介质是非暂时性计算机可读存储介质,其排除了暂时性信号(例如, 传播的瞬态电或电磁传输),但包括非暂时性数据存储电路(例如,缓冲区、 高速缓存和队列)。在至少一个实施例中,代码(例如,可执行代码或源代 码)被存储在其上存储有可执行指令的一组一个或更多个非暂时性计算机 可读存储介质(或用于存储可执行指令的其他存储器)上,该可执行指令 在由计算机系统的一个或更多个处理器执行时(即,作为被执行的结果), 使得计算机系统执行本文所述的操作。在至少一个实施例中,一组非暂时 性计算机可读存储介质包括多个非暂时性计算机可读存储介质,并且多个 非暂时性计算机可读存储介质中的个体非暂时性存储介质中的一个或更多 个缺少全部代码,而是多个非暂时性计算机可读存储介质共同存储全部代 码。在至少一个实施例中,可执行指令被执行,以使得不同的指令由不同 的处理器执行,例如,非暂时性计算机可读存储介质存储指令,并且主中 央处理单元(“CPU”)执行一些指令,而图形处理单元(“GPU”)执行其 他指令。在至少一个实施例中,计算机系统的不同组件具有单独的处理器, 并且不同的处理器执行指令的不同子集。
因此,在至少一个实施例中,计算机系统被配置为实现单独地或共同 地执行本文所述的过程的操作的一个或更多个服务,并且这样的计算机系 统被配置有使能实施操作的适用的硬件和/或软件。此外,实现本公开的至 少一个实施例的计算机系统是单个设备,并且在另一实施例中是分布式计 算机系统,其包括以不同方式操作的多个设备,使得分布式计算机系统执 行本文所述的操作,并且使得单个设备不执行所有操作。
本文提供的任何和所有示例或示例性语言(例如,“诸如”)的使用仅 旨在更好地阐明本公开的实施例,并且不对公开的范围构成限制,除非另 有要求。说明书中的任何语言都不应被解释为表示任何未要求保护的要素 对于实践公开内容是必不可少的。
本文引用的所有参考文献,包括出版物、专利申请和专利,均通过引 用并入本文,其程度就如同每个参考文献被单独且具体地指示为以引用的 方式并入本文并且其全部内容在本文中阐述一样。
在说明书和权利要求中,可以使用术语“耦合”和“连接”以及它们 的派生词。应当理解,这些术语可能不旨在作为彼此的同义词。相反,在 特定示例中,“连接”或“耦合”可用于指示两个或更多个元件彼此直接或 间接物理或电接触。“耦合”也可能意味着两个或更多个元素彼此不直接接 触,但仍彼此协作或交互。
除非另有明确说明,否则可以理解,在整个说明书中,诸如“处理”、 “计算”、“计算”、“确定”等之类的术语,是指计算机或计算系统或类似 的电子计算设备的动作和/或过程,其将计算系统的寄存器和/或存储器中表 示为物理量(例如电子)的数据处理和/或转换为类似表示为计算系统的存 储器、寄存器或其他此类信息存储、传输或显示设备中的物理量的其他数 据。
以类似的方式,术语“处理器”可以指处理来自寄存器和/或存储器 的电子数据并将该电子数据转换成可以存储在寄存器和/或存储器中的其 他电子数据的任何设备或存储器的一部分。作为非限制性示例,“处理器” 可以是CPU或GPU。“计算平台”可以包括一个或更多个处理器。如本文 所使用的,“软件”进程可以包括例如随时间执行工作的软件和/或硬件实 体,诸如任务、线程和智能代理。同样,每个过程可以指代多个过程,以 连续地或间歇地顺序地或并行地执行指令。术语“系统”和“方法”在本 文中可以互换使用,只要系统可以体现一种或更多种方法,并且方法可以 被认为是系统。
在本文件中,可以参考获得、获取、接收或将模拟或数字数据输入子 系统、计算机系统或计算机实现的机器中。可以通过多种方式来获得、获 取、接收或输入模拟和数字数据,例如通过接收作为函数调用或对应用程 序编程接口的调用的参数的数据。在一些实现方式中,可以通过经由串行 或并行接口传输数据来完成获得、获取、接收或输入模拟或数字数据的过 程。在另一实现方式中,可以通过经由计算机网络将数据从提供实体传输 到获取实体来完成获得、获取、接收或输入模拟或数字数据的过程。也可 以参考提供、输出、传送、发送或呈现模拟或数字数据。在各种示例中, 提供、输出、传送、发送或呈现模拟或数字数据的过程可以通过将数据作 为函数调用的输入或输出参数、应用程序编程接口或进程间通信机制的参 数进行传输来实现。
尽管上面的讨论阐述了所描述的技术的示例实现,但是其他架构可以 用于实现所描述的功能,并且旨在落入本公开的范围内。此外,尽管出于 讨论的目的在上面定义了具体的职责分配,但是根据情况,可以以不同的 方式分配和划分各种功能和职责。
此外,尽管已经用特定于结构特征和/或方法动作的语言描述了主题, 但是应当理解,所附权利要求书所要求保护的主题不必限于所描述的特定 特征或动作。而是,公开了特定的特征和动作作为实现权利要求的示例性 形式。

Claims (20)

1.一种计算机实现的方法,包括:
提供对象的二维图像作为输入以生成网络;
使用所述生成网络来生成从不同视图表示的所述对象的视图图像的集合;
将所述视图图像的集合和所述不同视图的信息作为输入提供给逆向图形网络;
对于所述集合的各个视图图像,使用所述逆向图形网络确定三维信息的集合;
对于所述集合的各个视图图像,使用所述三维信息的集合和相应的视图信息渲染所述对象的表示;
将所渲染的表示与对应的数据进行比较,以确定至少一个损失值;以及
至少部分地基于所述至少一个损失值来调整所述逆向图形网络的一个或更多个网络参数。
2.如权利要求1所述的计算机实现的方法,还包括:
提供由所述逆向图形网络渲染的所述对象的表示的至少一个子集,作为训练数据以进一步训练所述生成网络。
3.如权利要求2所述的计算机实现的方法,还包括:
使用共同的损失函数一起训练所述逆向图形网络和所述生成网络。
4.如权利要求1所述的计算机实现的方法,其中所述生成网络是样式生成对抗网络,其能够使仅与相机视图相关的特征被调整以用于生成所述视图图像的集合。
5.如权利要求1所述的计算机实现的方法,还包括:
使用选择矩阵以降低要被包括在潜在代码中以用于渲染所述对象的所述表示的图像特征的维度。
6.如权利要求5所述的计算机实现的方法,还包括:
至少部分地基于所述潜在代码并使用可微分渲染器,渲染所述对象的所述表示。
7.如权利要求5所述的计算机实现的方法,其中所述潜在代码包括对应视图的相机特征。
8.如权利要求1所述的计算机实现的方法,其中所述对象的所述三维信息包括所述对象的形状、纹理、光线或背景中的至少一种。
9.如权利要求1所述的计算机实现的方法,其中将所述二维图像输入到所述生成网络是用与对象特征子集相对应的弱精确相机信息注释的。
10.一种系统,包括:
至少一个处理器;以及
存储器,其包括指令,当由至少一个处理器执行所述指令时,使所述系统用于:
提供对象的二维图像作为输入以生成网络;
使用所述生成网络来生成从不同视图表示的所述对象的视图图像的集合;
将所述视图图像的集合和所述不同视图的信息作为输入提供给逆向图形网络;
对于所述集合的各个视图图像,使用所述逆向图形网络确定三维信息的集合;
对于所述集合的各个视图图像,使用所述三维信息的集合和相应的视图信息渲染所述对象的表示;
将所渲染的表示与对应的数据进行比较,以确定至少一个损失值;以及
至少部分地基于所述至少一个损失值来调整所述逆向图形网络的一个或更多个网络参数。
11.如权利要求10所述的系统,其中当执行所述指令时进一步使所述系统用于:
提供由所述逆向图形网络渲染的所述对象的表示的至少一个子集,作为训练数据以进一步训练所述生成网络。
12.如权利要求11所述的系统,其中当执行所述指令时进一步使所述系统:
使用共同的损失函数一起训练所述逆向图形网络和所述生成网络。
13.如权利要求10所述的系统,其中所述生成网络是样式生成对抗网络,其能够使仅与相机视图相关的特征被调整以用于生成所述视图图像的集合。
14.如权利要求10所述的系统,其中当执行所述指令时进一步使所述系统:
使用选择矩阵以降低要被包括在潜在代码中以用于渲染所述对象的所述表示的图像特征的维度;以及
至少部分地基于使用可微分渲染器的所述潜在代码,渲染所述对象的所述表示。
15.如权利要求10所述的系统,其中所述系统包括以下至少一个:
用于执行图形渲染操作的系统;
用于执行模拟操作的系统;
用于执行模拟操作以测试或者验证自主机器应用的系统;
用于执行深度学习操作的系统;
使用边缘设备实现的系统;
合并一个或更多个虚拟机(VM)的系统;
至少部分地在数据中心中实现的系统;或者
至少部分地使用云计算资源实现的系统。
16.一种计算机实现的方法,包括:
接收二维图像;以及
使用逆向图形网络来生成所述二维图像的三维表示,所述逆向图形网络至少部分通过以下操作来训练:
使用生成网络和对象的二维输入图像,生成从不同视图表示的所述对象的视图图像的集合;
对于所述集合的各个视图图像,使用所述逆向图形网络确定三维信息的集合;
对于所述集合的各个视图图像,使用所述三维信息的集合和相应视图的信息渲染所述对象的表示;
将所渲染的表示与对应的表示进行比较,以确定至少一个损失值;以及
至少部分地基于所述至少一个损失值来调整所述逆向图形网络的一个或更多个网络参数。
17.如权利要求16所述的计算机实现的方法,还包括:
提供由所述逆向图形网络渲染的所述对象的表示的至少一个子集,作为训练数据以进一步训练所述生成网络。
18.如权利要求17所述的计算机实现的方法,还包括:
使用共同的损失函数一起训练所述逆向图形网络和所述生成网络。
19.如权利要求16所述的计算机实现的方法,其中所述生成网络是样式生成对抗网络,其能够使仅与相机视图相关的特征被调整以用于生成所述视图图像的集合。
20.如权利要求16所述的计算机实现的方法,其中所述二维输入图像是用与对象特征子集相对应的弱精确相机信息注释的。
CN202180012865.8A 2020-03-06 2021-03-06 用于逆向图形生成的神经渲染 Pending CN115151915A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062986618P 2020-03-06 2020-03-06
US62/986,618 2020-03-06
US17/193,405 US11494976B2 (en) 2020-03-06 2021-03-05 Neural rendering for inverse graphics generation
US17/193,405 2021-03-05
PCT/US2021/021263 WO2021178936A1 (en) 2020-03-06 2021-03-06 Neural rendering for inverse graphics generation

Publications (1)

Publication Number Publication Date
CN115151915A true CN115151915A (zh) 2022-10-04

Family

ID=77556487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180012865.8A Pending CN115151915A (zh) 2020-03-06 2021-03-06 用于逆向图形生成的神经渲染

Country Status (5)

Country Link
US (2) US11494976B2 (zh)
JP (1) JP2023515736A (zh)
CN (1) CN115151915A (zh)
DE (1) DE112021001481T5 (zh)
WO (1) WO2021178936A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116091871A (zh) * 2023-03-07 2023-05-09 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种针对目标检测模型的物理对抗样本生成方法及装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11995854B2 (en) * 2018-12-19 2024-05-28 Nvidia Corporation Mesh reconstruction using data-driven priors
US11393158B2 (en) * 2020-04-02 2022-07-19 Adobe Inc. Utilizing voxel feature transformations for deep novel view synthesis
US20220036132A1 (en) * 2020-07-31 2022-02-03 Genpact Luxembourg S.à.r.l II Semantic image segmentation for cognitive analysis of physical structures
US12067420B2 (en) * 2020-10-22 2024-08-20 Hewlett Packard Enterprise Development Lp Deep learning autotuning task optimization
US11663265B2 (en) * 2020-11-25 2023-05-30 Adobe Inc. Enhanced image search via controllable attributes
US11829726B2 (en) * 2021-01-25 2023-11-28 International Business Machines Corporation Dual learning bridge between text and knowledge graph
US20240062441A1 (en) * 2021-02-15 2024-02-22 Carnegie Mellon University System and method for photorealistic image synthesis using unsupervised semantic feature disentanglement
US11663798B2 (en) * 2021-10-13 2023-05-30 Mitsubishi Electric Research Laboratories, Inc. System and method for manipulating two-dimensional (2D) images of three-dimensional (3D) objects
KR20230092514A (ko) * 2021-12-17 2023-06-26 삼성전자주식회사 렌더링 방법 및 장치
DE102022200353A1 (de) 2022-01-14 2023-07-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erzeugen von Daten zum Trainieren eines auf künstlicher Intelligenz basierenden Objekterkennungsverfahrens
CN114897664B (zh) * 2022-05-19 2024-05-07 北京百度网讯科技有限公司 图模型部署方法及装置、gpu和存储介质
KR102693314B1 (ko) * 2022-11-16 2024-08-07 전준혁 2d 얼굴 이미지로부터 3d 얼굴 모델을 생성하는 시스템 및 방법
CN117495797B (zh) * 2023-10-30 2024-06-14 武汉大学 基于隐式三维表达引导的航空数据变化检测方法及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10268195B2 (en) * 2017-01-06 2019-04-23 Qualcomm Incorporated Managing vehicle driving control entity transitions of an autonomous vehicle based on an evaluation of performance criteria
US11501152B2 (en) 2017-05-05 2022-11-15 Intel Corporation Efficient learning and using of topologies of neural networks in machine learning
US10565747B2 (en) * 2017-09-06 2020-02-18 Nvidia Corporation Differentiable rendering pipeline for inverse graphics
US11534136B2 (en) * 2018-02-26 2022-12-27 Siemens Medical Solutions Usa, Inc. Three-dimensional segmentation from two-dimensional intracardiac echocardiography imaging
US10956635B1 (en) * 2019-12-04 2021-03-23 David Byron Douglas Radiologist-assisted machine learning with interactive, volume subtending 3D cursor
US11238197B1 (en) * 2018-04-03 2022-02-01 David Byron Douglas Generating a 3D dataset containing a simulated surgical device
US20210248514A1 (en) * 2018-05-06 2021-08-12 Strong Force TX Portfolio 2018, LLC Artificial intelligence selection and configuration
JP7002404B2 (ja) * 2018-05-15 2022-01-20 株式会社日立製作所 データから潜在因子を発見するニューラルネットワーク
US11232255B2 (en) * 2018-06-13 2022-01-25 Adobe Inc. Generating digital annotations for evaluating and training automatic electronic document annotation models
US11164067B2 (en) * 2018-08-29 2021-11-02 Arizona Board Of Regents On Behalf Of Arizona State University Systems, methods, and apparatuses for implementing a multi-resolution neural network for use with imaging intensive applications including medical imaging
US20200125671A1 (en) * 2018-10-17 2020-04-23 International Business Machines Corporation Altering content based on machine-learned topics of interest
US10956671B2 (en) * 2018-11-30 2021-03-23 International Business Machines Corporation Supervised machine learning models of documents
US10489683B1 (en) * 2018-12-17 2019-11-26 Bodygram, Inc. Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
US20200250304A1 (en) * 2019-02-01 2020-08-06 Nec Laboratories America, Inc. Detecting adversarial examples
US11263384B2 (en) * 2019-03-15 2022-03-01 Ricoh Company, Ltd. Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
US20210142524A1 (en) * 2019-11-13 2021-05-13 Disney Enterprises, Inc. Image Compression Using Normalizing Flows
US11139072B2 (en) * 2019-12-04 2021-10-05 International Business Machines Corporation Three-dimensional medical image generation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116091871A (zh) * 2023-03-07 2023-05-09 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种针对目标检测模型的物理对抗样本生成方法及装置
CN116091871B (zh) * 2023-03-07 2023-08-25 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种针对目标检测模型的物理对抗样本生成方法及装置

Also Published As

Publication number Publication date
DE112021001481T5 (de) 2023-01-12
US20230134690A1 (en) 2023-05-04
US20210279952A1 (en) 2021-09-09
WO2021178936A1 (en) 2021-09-10
JP2023515736A (ja) 2023-04-14
US11494976B2 (en) 2022-11-08

Similar Documents

Publication Publication Date Title
US11494976B2 (en) Neural rendering for inverse graphics generation
US20210089921A1 (en) Transfer learning for neural networks
CN113361705A (zh) 用于合成数据生成的场景结构的无监督学习
US11995883B2 (en) Scene graph generation for unlabeled data
CN114528430A (zh) 具有深度模板匹配的可扩展语义图像检索
US11875449B2 (en) Real-time rendering with implicit shapes
WO2020236596A1 (en) Motion prediction using one or more neural networks
US20230385983A1 (en) Identifying application buffers for post-processing and re-use in secondary applications
US12014460B2 (en) Adaptive temporal image filtering for rendering realistic illumination
US20230274492A1 (en) Texture transfer and synthesis using aligned maps in image generation systems and applications
US20240144568A1 (en) Speech-driven animation using one or more neural networks
CN116206042A (zh) 空间哈希一致采样
US11546568B1 (en) View synthesis for dynamic scenes
US20240005604A1 (en) Synthesizing three-dimensional shapes using latent diffusion models in content generation systems and applications
CN116664807A (zh) 在图像生成系统和应用中使用对齐贴图的纹理转移和合成
US20240096017A1 (en) Generating textured meshes using one or more neural networks
US20240020897A1 (en) Neural network-based image lighting
CN116703965A (zh) 使用半全局匹配计算光流
US20240221242A1 (en) Using stable diffusion to generate seamless content tile sets in content generation systems and applications
US20240296623A1 (en) Using machine learning for surface reconstruction in synthetic content generation systems and applications
US20230325988A1 (en) Spatiotemporal filtering for light transport simulation systems and applications
US20240221288A1 (en) Selecting representative image views for 3d object models in synthetic content creation systems and applications
WO2022251672A1 (en) Processing ultrahyperbolic representations using neural networks
CN117726512A (zh) 使用神经网络生成经上采样的图像
CN117880561A (zh) 自适应视频帧混合

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination