CN114365156A - 用于神经网络的迁移学习 - Google Patents
用于神经网络的迁移学习 Download PDFInfo
- Publication number
- CN114365156A CN114365156A CN202080063262.6A CN202080063262A CN114365156A CN 114365156 A CN114365156 A CN 114365156A CN 202080063262 A CN202080063262 A CN 202080063262A CN 114365156 A CN114365156 A CN 114365156A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- machine learning
- trained
- inference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
迁移学习可用于使用户能够获得机器学习模型,该机器学习模型针对预期推理任务进行完全训练,而不必从头开始训练该模型。可以获得与该推理任务相关的预训练的模型。附加训练数据,如可能对应于至少一附加类的数据,可用于进一步训练该模型。然后,为了获得对该预期推理任务保持高准确性的较小模型,可以对该模型进行修剪和再训练。
Description
相关申请的交叉引用
本申请要求于2020年9月23日提交的、并且题为“用于神经网络的迁移学习(Transfer Learning for Neural Networks)”的美国非临时专利申请序列号17/029,725和于2019年9月25日提交的、并且题为“迁移学习工具包(Transfer Learning Toolkit)”的临时专利申请序列号62/906,054的优先权,在此这些申请的全部内容出于所有目的并入本文。
背景技术
人工智能和机器学习技术正在被用于执行不同行业中越来越多的任务。虽然这种使用可以提供许多优点,但在广泛采用方面存在各种障碍。例如,训练和优化神经网络来执行特定类型的推理并不简单。为了帮助用户训练神经网络,提供了各种工具和框架,使用户能够在不处理许多复杂性的情况下对网络进行训练。然而,在许多情况下,这些工具和框架仍然相当复杂,并且需要具有神经网络专业知识的某个人来有效地利用它们。
附图说明
根据本公开的各个实施例将参照附图进行描述,在附图中:
图1A和图1B示出了根据至少一个实施例的推理过程中的图像;
图2示出了根据至少一个实施例的可用于迁移学习的示例架构;
图3示出了根据至少一个实施例的示例迁移学习容器的组件;
图4A和图4B示出了根据至少一个实施例的可与迁移学习系统一起使用的组件;
图5示出了根据至少一个实施例的用于获得用于推理的训练过的神经网络的过程;
图6示出了根据至少一个实施例的用于进一步训练和优化预训练的模型的过程;
图7A示出了根据至少一个实施例的推理和/或训练逻辑;
图7B示出了根据至少一个实施例的推理和/或训练逻辑;
图8示出了根据至少一个实施例的示例数据中心系统;
图9示出了根据至少一个实施例的计算机系统;
图10示出了根据至少一个实施例的计算机系统;
图11示出了根据一个或更多个实施例的图形处理器的至少部分;
图12示出了根据一个或更多个实施例的图形处理器的至少部分;
图13是根据至少一个实施例的高级计算管线的示例数据流图;
图14是根据至少一个实施例的用于在高级计算管线中训练、适配、实例化和部署机器学习模型的示例系统的系统图;以及
图15A和图15B示出了根据至少一个实施例的用于训练机器学习模型的过程的数据流图,以及利用预训练的注释模型来增强注释工具的客户端-服务器架构。
具体实施方式
根据各个实施例的方法可以提供一组预训练的神经网络,或对机器学习和人工智能有用的其他此类模型或网络。用户或其他实体可以获得一个或更多个这些预训练的模型,并进一步训练它们能够对一个或更多个附加类或类型的输入数据进行推理。这些模型可以针对这些特定的推理任务进行修剪和优化,使它们能够进行高度精确、相对轻量级和快速的推理。采用已经训练过的模型,并对特定的推理任务进行适应或进一步训练已经训练过的模型的能力,可以大大简化最终用户或负责为该任务提供机器学习的实体的训练过程。
例如,机器学习可以用于快速、准确地检测和分类在捕获的图像数据中所表示的对象。例如,车辆可以使用一个或更多个相机捕获其环境的图像数据。图1A示出了可以使用该相机捕获的示例图像100。机器学习可以用来尝试检测和分类这样的图像中的各种类型的对象,用于诸如自动导航或防止碰撞这样的目的。在至少一些实施例中,可以希望为了这样的决策的目的而对不同类型的对象进行分类。例如,如果导航系统必须做出决定是否耐受10英里/小时的第一对象或第二对象沿着两个潜在路径的碰撞,则有利于了解这些对象是否是可能能够耐受较小伤害的碰撞的其他车辆、可能至少对当前车辆造成一些伤害的巨石或可能遭受该碰撞的伤害的人。
为了对捕获的图像数据中的这些类型或类别的对象生成精确的推理,需要训练一个或更多个神经网络来从图像数据中识别这些类。这可能涉及获得大量的训练数据,在这种情况下,包括这些类数据中的每一类数据的大量图像,其中这些类对象的实例被标记或以其他方式识别。这可能是一项复杂而昂贵的工作。一旦获得,这些训练图像必须用于训练一个或更多个神经网络以通过分类推理精确识别这些类的对象,如上所述,这可能是需要神经网络的专业知识的复杂过程。
为了减少或消除至少一些这些复杂性,用户可以获得预训练的神经网络,该神经网络可以适应于一个或更多个附加类别的数据。例如,在图1B的图像150中,在这个场景或环境中存在被表示的多个车辆。因此,用户可能能够获得已经训练过以识别和分类各种类型车辆的模型。因此,当该图像作为输入被提供给该神经网络时,该网络的输出可以包括检测的车辆的实例信息152,以及关于这些车辆的信息,例如类型、运动、行为等。然而,在这个实例中,预训练的模型可能无法检测和分类该图像中的人或行人的实例154,因为该模型没有经过专门的训练来识别该类对象。在至少一个实施例中,用户可以获得经过预先训练以精确识别车辆的模型,并且可以进一步训练该模型以识别输入图像数据中的人。这样,用户只须提供人类对象分类的训练数据,而不需要从头开始训练网络,而可以简单地进一步训练这个模型来识别附加类别的对象。在至少一个实施例中,可以提供应用程序、框架或工具包,这可以帮助该附加训练,执行附加步骤,例如修剪和优化。
图2示出了根据各个实施例可用于提供这种功能的示例系统架构200。在该示例中,可能有多个用户想要获得预训练的神经网络,并且可以使用各自的客户端设备250请求或获得这些网络。在该示例中,这些客户端设备可以包括任何适当的计算设备,如可以包括台式计算机、笔记本计算机、机顶盒、流式传输设备、游戏控制台、智能手机、平板计算机、VR耳机、AR护目镜、可穿戴计算机或智能电视。每个客户端设备250、260可以跨至少一个有线或无线网络240提交请求,所述网络可以包括因特网、以太网、局域网(LAN)或蜂窝网络,以及其他此类选项。在该示例中,这些请求提交到与云提供商相关联的地址,所述云提供商可以在云提供者环境202下操作或控制一个或更多个电子资源,所述云提供商环境诸如可以包括数据中心或服务器群。在至少一个实施例中,该请求可以由位于网络边缘并且在与云提供商环境相关联的至少一个安全层220之外的至少一个边缘服务器230接收或处理。通过这种方式,可以通过使得客户端设备能够与距离更近的服务器交互来减少延迟,同时还可以提高云提供商环境中资源的安全性。
在至少一个实施例中,云提供者环境202可以包括模型管理器206,该模型管理器管理存储在模型库208或存储库中的一组预训练的神经网络。这些模型可以使用云提供者环境202中的资源进行训练,或以其他方式获得。在至少一个实施例中,模型管理器206可以负责在云提供者环境中使用一个或更多个服务器204将至少一些这些预训练的模型提供给一个或更多个边缘服务器230,使得边缘服务器将至少一些这些模型本地地存储在边缘模型存储库232中。使用这种架构,客户端设备250、252可以从边缘服务器230获得这些模型中的一个或更多个模型用于存储在客户端设备上的本地存储装置254、264中。应该理解的是,不需要边缘服务器,并且可以从云提供者环境、从第三方或从客户端设备可访问的非暂时性计算机可读存储介质等其他此类选项中获得预训练的模型。一旦获得,推理应用程序252、262可以用于针对一个或更多个附加类别的对象或输入进一步训练这些预训练的模型,一旦训练后则用于推理。在至少一些实施例中,预训练的模型可以对最终用户不关心的、将不会用于推理的一个或更多个类别的对象进行训练,但将提供可以迁移到一个或更多个感兴趣类的推理类型的训练。
图3示出了根据至少一个实施例的可用于进一步训练预训练的模型302的示例架构300。这个示例示出了迁移学习容器306中的各种组件,但是这样的容器(例如,Docker容器)只在某些实施例中使用,并且除非为特定的实现方式明确说明或确定,否则是不需要的。在此示例中,附加训练数据304将与预训练的模型302一起提供以获得针对该附加训练数据中表示的一个或更多个类进行训练的模型324。在此示例中,客户端设备接收软件容器306,该软件容器包括对此进一步训练有用的组件和功能,其可以在客户端设备或云服务器等其他此类选项上运行。
用户可以从关于图2所讨论的模型源获得适当的预训练的模型。在某些实施例中,用户可以选择适当的模型,而在其他实施例中,用户可以指定待执行的推理的类型,并且可以为该用户选择适当的模型。在一些实施例中,可以提供多于一个的模型用于进一步训练,由此可以选择提供最高性能水平(在准确性、速度、紧凑性等方面)的模型。用户可以获得或生成针对一个或更多个附加类别的对象或输入进一步训练该模型所需要的附加训练数据304。这可以包括标记的图像、音频、视频、文本或其他此类数据。该训练数据304可以通过数据转换器308运行以执行训练所需的任何必要的数据转换。在一些实施例中,这还可以包括数据的至少一些预处理,例如压缩或过滤数据的某些方面。该数据也可以由至少一个数据增强模块310或过程来处理,从而可以帮助生成用于训练的附加数据。例如,如果提供了图像数据,那么该增强模块可以生成每个图像的附加版本,例如具有不同的分辨率、视图、取向、大小、对比度或颜色,并且除了在不同的环境或条件下提供对象类的附加实例外,还可以应用噪声、模糊、光照、阴影或伪影。在至少一个实施例中,这可以提供包含比原始输入集多大约十倍的训练数据实例的数据集。然后,可以将此增强的训练数据作为连同预训练的模型的输入提供给容器306中的训练模块312。
该训练模块312可以使用增强的训练数据进一步训练预训练的模型。一旦满足训练终止标准,例如所有训练数据被处理或执行多次迭代,评估模块314可以执行模型的评估,例如使用保留进行测试的增强训练数据的一部分。如果模型不能至少满足最小的准确性或置信度阈值,则可以获得附加训练数据,并执行进一步的训练。一旦获得了成功的评估,用户将获得对于附加训练数据304中表示的一个或更多个附加类的数据高度准确的模型。
然而,一旦完全训练后,模型可能相对较大。因此,可以将该训练过的模型传递给模型修剪模块306或过程,以试图生成较小的、同时仍然提供高水平准确性的模型。修剪过程可以减少模型中的一些节点,这可以将网络参数从大约2亿减少到大约200万,作为一个示例,提供了大约10倍减少的内存和计算需求。然而,该网络的修剪可能导致准确性的一些损失,这样修剪的模型可以传递到另一个再训练模块318(或再次传递到相同的训练模块312)用于进一步的训练。由此再训练产生的模型可以传递给另一个评估模块320(或相同的评估模块314)以确定准确性是否已经充分恢复或仍然提供,并且如果这样,那么模型可以提供给导出模块322,该导出模块322可以提供训练过的模型324供最终用户或其他这样的实体使用。与之前的评估一样,如果评估失败,则可以获得附加训练数据,并开始进一步的再训练。在这个过程中,如果不能获得成功的评估,则可以再次尝试修剪,其中可能应用较低水平的修剪来试图保持模型的准确性,即使它导致一个稍大的模型。
如图4A的系统400示出的,可以使用迁移学习工具包406,它包含一个或更多个训练模块408、412,以及修剪模块410,该修剪模块410可以从预训练的模型和附加训练数据产生完全训练过的模型414。然后,这个训练过的模型可以在推理时被推理应用程序416使用。在这种情况下,可以提供或接收实时数据418作为输入,例如从相机流式传输的图像或视频数据。该实时数据可以使用训练过的模型414进行处理,该模型414可以输出一个或更多个推理420,例如推理为在实时数据中表示的对象类(和这些类的各个实例),以及相关信息,例如位置、运动等。这些推理然后可以被这个应用程序416或另一个应用程序用于执行特定的任务,例如碰撞避免或导航。
如前所述,用户可能能够从一个库或其他组预训练的模型中获得预训练的模型。作为一个示例,图4B示出了示例系统450,其中用户能够利用客户端设备470使用公共接口454请求或获得模型,公共接口454可以采用图形用户界面(GUI)、命令行接口(CLI)或应用程序编程接口(API)等其他此类选项的形式。接口454可以使用户能够获得存储到模型存档452中的多个模型中的任何一个。可能有各种迁移学习模块,这些迁移学习模块可以提供优化的模型以供客户端设备访问。示例包括用于医学学习456、运输学习458、行为学习460或面部学习(例如,检测)462的模块。这些模块中的每个模块都可以提供或产生用于各自推理类型训练的模块,例如识别对象类、姿态、运动等。注册表API 468可用于使该客户端170获得或接收一个或更多个这些模块到本地注册表。在至少一个实施例中,用户可以选择特定的模块,而在其他实施例中,可以根据用户提供的信息,例如待执行的预期推理类型,为用户选择一个或更多个模型。在一些实施例中,用户可以通过公共接口454提交请求,该请求将被解析以确定待执行的推理的类型,并且然后可以激活适当的学习模块来执行其工作流并生成优化模型,然后可以使用客户端设备470本地的注册表API 468将其放置在注册表中。
图5示出了可根据各个实施例利用的的用于获得用于推理的训练过的模型的示例过程500。应当理解,为本文呈现的该或其他过程,除非另有特别说明,在各个实施例的范围内,可以有类似的或替代的顺序或至少部分并行地执行的附加的、更少的或替代的步骤。在此示例中,提交对与待执行的推理类型相关的预训练的模型的请求502。例如,这可能是一个预训练以对图像数据中的某些类对象进行分类的模型,其中这些类可能不包含针对待执行的推理类型的一个或更多个类。作为响应,可以接收504预训练的模型,这可以由用户具体选择或根据与请求相关的信息或其他关于请求源已知的信息进行选择。为了进一步训练预训练的模型,提供附加训练数据506,为此目的可以获得或生成这些数据。在至少一个实施例中,该附加训练数据将包括特定于待执行的推理类型的分类或标记的数据,这可能与一个或更多个附加类别的对象或数据有关。然后,这个模型可以用于进一步训练数据。在这种附加训练之后,该模型可以被修剪508以试图获得具有相似准确性的更小的模型。因此,可以获得510经修剪的模型,该模型是针对待执行的推理类型训练过的和高度准确的。如果有必要,可以对经修剪的模型执行附加训练以恢复在修剪过程中可能已丢失的准确性。然后,可以使用这个训练过的模型执行512预期类型的推理。
图6示出了根据各个实施例可用于再训练这样的模型的示例过程600。在此示例中,接收602预训练的模型用于一种类型的推理。对于至少一个未用于模型预训练的附加类或类型的数据,将获得604附加训练数据。在某些情况下,可以执行606该训练数据的至少一些转换和/或增强,这可能导致确定格式的附加训练数据。然后,该附加训练数据可以用于针对至少一个附加类或类型的数据进一步训练608这个预训练的模型。如果通过评估确定610,训练不成功,例如,训练过的模型的准确性或置信度不至少满足最小阈值,则可以使用附加训练数据进行进一步的训练。如果评估训练是成功的,那么可以对模型执行612修剪,以试图减少模型的大小(例如,节点数)。然后,可以使用相同的或附加训练数据再训练614该修剪后的模型,以试图恢复在修剪过程中丢失的任何准确性。如果确定616这种再训练不成功,则可以执行进一步的再训练。否则,可以导出618训练和修剪的模型,用于推理预期的类型,包括对一个或更多个附加类或类型的数据进行推理。通过这种方法可以获得训练过的模型,而最终用户无需进行任何编码,而只须通过再训练控制台或应用程序指定或选择一些值。该模型可能足够小以在不同的位置运行,例如在边缘服务器或客户端设备上运行,或甚至例如相机或车辆的设备。在至少一些实施例中,该推理可以使用任何适当的处理组件来执行,处理组件可能包括至少一个CPU或GPU,如本文其他地方更详细讨论的。
如前所述,在至少一些实施例中,该功能性可以作为迁移学习工具包的一部分来提供。工具包可以为用户提供可以与预训练的模型一起使用以生成针对特定任务或至少一个附加类训练的模型的功能性。工具包可以提供附加训练、模型修剪和场景适应的功能,以及本文讨论和建议的其他此类选项的功能性。这个工具包可以放在抽象之上,以降低复杂性并加速模型开发,例如TensorFlow、Keras或PyTorch,其本身可以位于一层并行编程模型和优化推理之上,如可能包括来自NVIDIA公司的CUDA、cuDNN和TensorRT。该底层可以提供例如集群和后处理的功能性,而抽象层可以提供与模型构建、损失计算和数据增强相关的功能性。这些层都可以位于硬件层之上,该硬件层可以包括在至少一些实施例中的计算平台的边缘设备。该工具包可以提供接口,使工程师或其他人能够提供信息,例如用于一个新类的对象的信息和训练数据,将用于进一步训练预训练的模型。这样的接口还可以允许用户提供与其他任务相关的输入,例如数据增强和修剪等。至少在某些情况下,工具包还可以使用户能够从各种预训练的模型中进行选择,如可能包括经训练以对关于人、交通、运动、导航、车辆、人脸、姿态、手势、凝视、动作等进行推理的模型。工具包还能够产生和导出包含指定类型的一些加密的模型,其也可以针对特定硬件,例如一个或更多个GPU进行优化。
在一些实施例中,工具包还可以使用附加训练数据来执行预训练的模型的初始测试。如果该预训练的模型的性能已经满足相对于该附加训练数据的至少最低性能标准,则可能不需要附加训练,并且可以利用该预训练的模型。在至少一些实施例中,仍然可以尝试对该模型进行修剪,然后再训练以尝试确保没有由于修剪而导致准确性的显著损失(例如,准确性损失小于1%)。然后,可以导出该模型以在最小的附加处理的情况下使用。在一些实施例中,工具包可以获得多个模型并对每个模型执行初始分析,然后在附加训练之前继续以最高性能水平对模型进行再训练。在其他实施例中,工具包可以对多个模型进行再训练和修剪,然后导出具有最高或最佳性能、最小模型大小等的再训练模型。这个工具包可以在许多不同的位置进行操作,例如在客户端设备、边缘服务器或云服务器上。
数据可以以各种格式被摄入到这样的工具包中。例如,分类任务可能期望有一个具有特定结构的图像目录,其中每个类都有自己的具有类名的目录。训练和评估的命名约定可以不同,因为每个集合的路径可以单独指定。该分类的输入的预处理可以对其他目标检测网络不同地执行。对于某些神经网络模型,对象检测器可以第一格式(例如,在非限制的例子中,以KITTI文件格式)从第一数据集读取数据,并将该数据转换为格式化以对应于第二数据集的数据(例如,TensorFlow Record或者“TFRecord”),这可能有助于更快地迭代数据。在一个或更多个实施例中,用户可以提供一种(例如,KITTI)格式的输入数据,并且可以提供转换器将数据转换为对应于另一个数据集的格式(例如,TFRecord转换规范文件)。对于例如FasterRCNN的神经网络模型,FasterRCNN的输入图像可以是RGB图像或灰度图像。这些标签也可以是用于检测的第一(例如,KITTI)数据集格式。不同之处在于,FasterRCNN的标签不能转换为第二数据集的格式(例如TFRecord),但第一数据集的原始文本标签(例如KITTI)可以直接使用。在一个或更多个实施例中,数据I/O转换工具可以采用规范文件来定义将数据从第一格式转换为第二格式所需的参数。根据一个非限制性示例,规范文件可以实现为具有一个或更多个全局参数的prototxt格式文件。
在至少一个实施例中,迁移学习工具包还可以包括例如训练命令和评估命令的命令。这些可以用于从头开始训练新模型或再训练以前训练过的网络,并用于分别评估新训练过的模型。这些命令可能有可以进行调整以优化性能的几个参数。然而,根据传统方法,在命令行上的这种大输入阵列实例化可能很麻烦。为了使此过程更容易,该工具包的一个实施例提供了配置文件或规范文件,可用于为用户的实验配置这些命令。在一个或更多个非限制性实施例中,用于分类的训练命令可以包括几个可配置的组件。为了在至少一个实施例中运行成功的训练、评估和推理,可能需要配置几个组件,每个组件都具有它们自己的参数。因此,使用规范文件可能是有益的。训练命令和评估命令可以使用相同的配置文件,并使用不同的配置文件用于推理。用于训练的规范文件可用于配置训练管线的各种组件,如可能包括例如模型、边界框地面实况生成器、后处理模块、成本函数配置、训练器、增强模块、评估器或数据加载器等组件。
如前所述,工具包还可以提供一个或更多个用于数据增强的工具。一个增强模块可以在训练过程中提供实时的数据预处理和增强。在一个或更多个实施例中,增强配置文件可以包括例如预处理、空间增强和颜色增强的元素。对于预处理,一个嵌套的字段可以配置输入图像和地面实况标签预处理模块,并将输入张量的形状设置为网络。对地面实况标签进行预处理,以满足输入图像张量的维数。如果预处理块的输出图像高度和输出图像宽度与数据集中输入图像的维数不匹配,则可以用零填充该维数,或者可以采用随机裁剪来适应输入维数。如果图像被裁剪,那么标签可能会相应地改变,以只考虑裁剪中的对象。在一个或更多个进一步的实施例中,整个输入图像和标签可以调整大小以适应输入分辨率。对于空间增强,这个可配置的模块可以支持基本的空间增强,例如翻转、缩放和转换。对于颜色增强,该模块可用于配置颜色空间变换,即颜色位移、色调旋转、饱和度位移和对比度调整。如果预处理块的输出图像高度和输出图像宽度与数据集中输入图像的维数不匹配,则可以用零填充该维数,或者可以采用随机裁剪来适应输入维数。如果图像被裁剪,则标签将被相应地更改,以只考虑裁剪中的对象。在一个或更多个进一步的实施例中,整个输入图像和标签可以调整大小以适应输入分辨率。
有时,数据集标签中的类的数量并不恰好是需要训练模型的类的数量。例如,在训练中,可能期望将两个不同的类“汽车”和“货车”分入单个类。同样,可能期望过滤掉训练数据集中的一些特定类,但在针对一个类不感兴趣的用例训练模型时,可能期望忽略该类。这就是使用类映射字段的基本原理。类映射可以将原始数据集中的每个类名映射到一个整数。如果某些类被映射到相同的整数,这意味着它们被分组为单个类。对于FasterRCNN,由于实现方式,映射到最大数字的类可能总是被设置为背景。此外,如果期望忽略数据集中的某些类,则可以将它们映射到-1。可以添加一个映射到最大数字的虚拟“背景”类。
在至少一些实施例中,预训练的模型参数可以指定到用于初始化训练模型的预训练的模型的路径。例如,预训练的模型可以是Keras模型或迁移学习模型。该后缀可用于识别模型类型。如果模型以“.hdf5”结尾,则可以视为Keras模型;如果模型以“.tlt”结尾,则被视为迁移学习模型。如果模型路径既不以“.hdf5”结尾,也不以“.tlt”结尾,则模型可以在至少一个实施例中引发错误。
预训练的权重参数可以指示用于初始化训练模型的预训练的权重的路径。这与预训练的模型相似,但在输入维度和模型头部中的类的数量方面更为灵活。当使用预训练的模型时,该训练模型可能会被限制为具有与预训练的模型相同的输入维度和类的数量。使用预训练的权重,可以丢弃这些限制。在一个或更多个实施例中,预训练的权重可以是Keras权重(.h5)或迁移学习权重(.tltw)。如果预训练的权重没有以其中任何一个结尾,它可能会引发错误。
根据一个或更多个实施例,可以使用同一接入点运行单个GPU和多个GPU训练。训练外壳(shell)脚本可以包装单个GPU访问点,并解析出一个默认值为1的可选参量。如果GPU的数量为1,包装器(wrapper)将直接启动单个GPU训练程序,并通过除GPU数量之外的所有其他选项。如果GPU的数量大于1,包装器将启动(例如,但不限于)消息传递接口(MPI)作业,执行训练,进程数量与指定的GPU数量相匹配。
一旦模型被训练,该模型可以在测试数据集上进行评估,以度量该模型的准确性。为了做到这一点,工具包可以包含评估命令或选项。分类应用程序可以计算评估损失、前k(Top-k)准确性、精确度和召回率作为指标。同时,评估可以计算每个类的平均精确度和平均精确度指标。可以支持样本模式和积分模式两者来计算平均精确度。
一旦模型被训练,用户可能就会渴望在样本集(例如,测试图像)上测试这个模型并可视化他们的结果。这些图像可能注释或也可能不注释以计算指标。为了方便这一点,工具包可以为用户提供推理命令。该命令可以对用户指定的输入图像集运行推理。在分类模式下,推理可以通过命令行为单个图像或包含多个图像的图像路径和相应标签的.csv文件提供类标签输出。
在修剪模型的示例中,MobileNet和MobileNet V2是两个轻量级的CNN模型,这些模型旨在低成本的移动设备上实现快速推理。两种模型的核心构建块是深度可分离卷积运算,该运算可以有效减少模型中参数的数量以及计算结果所需的乘法和加法运算数量,并且从而提高推理效率。当修剪深度可分离卷积时,可能需要特殊处理,因为与普通卷积运算相比有一些不同。深度可分离卷积实际上可以分解为两个连续的子运算。第一个运算被称为深度卷积,第二个运算被称为逐点卷积。给定输入张量,首先对其应用深度卷积以得到中间输出张量。然后作为第二步,对中间张量应用逐点卷积以得到整个深度可分离卷积运算的最终输出。第一个运算(深度卷积)本质上是每通道卷积运算,用于转换和提取输入张量中的每个通道的特征。由于每通道运算可能会丢失一些跨通道信息,第二个运算应用逐点卷积运算来融合每通道激活并得到最终的特征图。第一个运算是特殊的每通道卷积运算,而第二个运算只是一个内核大小为1x1的普通卷积运算。修剪深度可分离可能需要对第一个运算进行一些特殊处理。对于普通卷积,内核形状是(m,n,Cin,Cout),而对于深度卷积,内核形状是(m,n,Cin),因为深度卷积运算根本不改变通道数。形状的差异意味着在计算内核的范数时存在差异。对于普通卷积,内核的范数是跨维度0、1和2(即m,n,Cin维度)计算的,而对于后者,范数仅是跨维度0和1(m,n维度)计算的。
在至少一个实施例中,深度可分离卷积是一对卷积。一旦计算出深度卷积和逐点卷积的范数,就可能会出现关于再训练哪个通道(或等价地进行修剪)的冲突。为了解决这种可能性,我们遵循了修剪残差网络的思想,并在这种情况下也采用了均衡化方法。具体地说,一旦计算了深度卷积和逐点卷积的范数,就应用两个范数的均衡以得到整个深度可分离卷积运算的统一范数。用于均衡的算子可以与修剪残差网络的算子相同:算术平均值、几何平均值、并集和交集。
如前所述,迁移学习工具包的一个或更多个实施例可以包括用于导出和准备用于部署迁移学习模型的TLT模型的导出命令。导出命令可以任选地生成用于TensorRT引擎校准的校准高速缓存。导出模型可以将训练过程与推理解耦,并允许在TLT环境之外转换为TensorRT引擎。TensorRT引擎是特定于每个硬件配置的,并且应该针对每个独特的推理环境而生成,但是相同的导出的TLT模型可以被普遍使用。
推理和训练逻辑
图7A示出了用于执行与一个或更多个实施例相关联的推理和/或训练操作的推理和/或训练逻辑715。下面结合图7A和/或图7B提供关于推理和/或训练逻辑715的细节。
在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于代码和/或数据存储701,用于存储前向和/或输出权重和/或输入/输出数据,和/或在一个或更多个实施例的方面中配置被训练为和/或用于推理的神经网络的神经元或层的其他参数。在至少一个实施例中,训练逻辑715可以包括或耦合到用于存储图形代码或其他软件以控制时序和/或顺序的代码和/或数据存储701,其中权重和/或其他参数信息被加载以配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(ALU))。在至少一个实施例中,代码(诸如图代码)基于该代码所对应的神经网络的架构将权重或其他参数信息加载到处理器ALU中。在至少一个实施例中,代码和/或数据存储701存储在使用一个或更多个实施例的方面训练和/或推理期间的输入/输出数据和/或权重参数的前向传播期间结合一个或更多个实施例训练或使用的神经网络的每个层的权重参数和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储701的任何部分都可以包括在其他片上或片外数据存储内,包括处理器的L1、L2或L3高速缓存或系统存储器。
在至少一个实施例中,代码和/或数据存储701的任何部分可以在一个或更多个处理器或其他硬件逻辑设备或电路的内部或外部。在至少一个实施例中,代码和/或数据存储701可以是高速缓存存储器、动态随机可访问存储器(“DRAM”)、静态随机可访问存储器(“SRAM”)、非易失性存储器(例如闪存)或其他存储。在至少一个实施例中,对代码和/或数据存储701是在处理器的内部还是外部的选择,例如,或者由DRAM、SRAM、闪存或某种其他存储类型组成,可以取决于片上或片外的可用存储空间,正在执行训练和/或推理功能的延迟要求,在神经网络的推理和/或训练中使用的数据的批大小或这些因素的某种组合。
在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于代码和/或数据存储705,用于存储与在一个或更多个实施例的方面中被训练为和/或用于推理的神经网络的神经元或层相对应的反向和/或输出权重和/或输入/输出数据。在至少一个实施例中,在使用一个或更多个实施例的方面训练和/或推理期间,代码和/或数据存储705存储在输入/输出数据和/或权重参数的反向传播期间结合一个或更多个实施例训练或使用的神经网络的每个层的权重参数和/或输入/输出数据。在至少一个实施例中,训练逻辑715可以包括或耦合到用于存储图代码或其他软件以控制时序和/或顺序的代码和/或数据存储705,其中权重和/或其他参数信息被加载以配置逻辑,该逻辑包括整数和/或浮点单元(统称为算术逻辑单元(ALU))。在至少一个实施例中,代码(诸如图代码)基于该代码所对应的神经网络的架构将权重或其他参数信息加载到处理器ALU中。在至少一个实施例中,代码和/或数据存储705的任何部分可以与其他片上或片外数据存储一起包括,包括处理器的L1、L2或L3高速缓存或系统存储器。在至少一个实施例中,代码和/或数据存储705的任何部分可以在一个或更多个处理器或其他硬件逻辑设备或电路上的内部或外部。在至少一个实施例中,代码和/或数据存储705可以是高速缓存存储器、DRAM、SRAM、非易失性存储器(例如闪存)或其他存储。在至少一个实施例中,代码和/或数据存储705是在处理器的内部还是外部的选择,例如,是由DRAM、SRAM、闪存还是其他某种存储类型组成,取决于可用存储是片上还是片外,正在执行的训练和/或推理功能的延迟要求,在神经网络的推理和/或训练中使用的数据批量大小或这些因素的某种组合。
在至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705可以是分开的存储结构。在至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705可以是相同的存储结构。在至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705可以是部分相同的存储结构和部分分离的存储结构。在至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705的任何部分可以与其他片上或片外数据存储包括在一起,包括处理器的L1、L2或L3高速缓存或系统存储器。
在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于一个或更多个算术逻辑单元(“ALU”)710(包括整数和/或浮点单元),用于至少部分地基于训练和/或推理代码(例如,图代码)或由其指示来执行逻辑和/或数学运算,其结果可能会产生存储在激活存储720中的激活(例如,来自神经网络内部的层或神经元的输出值),其是存储在代码和/或数据存储701和/或代码和/或数据存储705中的输入/输出和/或权重参数数据的函数。在至少一个实施例中,激活响应于执行指令或其他代码,由ALU710执行的线性代数和/或基于矩阵的数学生成在激活存储720中存储的激活,其中存储在代码和/或数据存储705中和/或代码和/或数据存储701中的权重值用作具有其他值的操作数,例如偏置值、梯度信息、动量值或其他参数或超参数,可以将任何或所有这些存储在代码和/或数据存储705或代码和/或数据存储701或其他片上或片外存储中。
在至少一个实施例中,一个或更多个处理器或其他硬件逻辑设备或电路中包括一个或更多个ALU 710,而在另一实施例中,一个或更多个ALU 710可以在处理器或其他硬件逻辑设备或使用它们(例如协处理器)的电路外。在至少一个实施例中,可以将一个或更多个ALU 710包括在处理器的执行单元之内,或者以其他方式包括在由处理器的执行单元可访问的ALU组中,该处理器的执行单元可以在同一处理器内或者分布在不同类型的不同处理器之间(例如,中央处理单元、图形处理单元、固定功能单元等)。在至少一个实施例中,代码和/或数据存储701、代码和/或数据存储705以及激活存储720可以在同一处理器或其他硬件逻辑设备或电路上,而在另一实施例中,它们可以在不同的处理器或其他硬件逻辑设备或电路或相同和不同处理器或其他硬件逻辑设备或电路的某种组合中。在至少一个实施例中,激活存储720的任何部分可以与其他片上或片外数据存储包括在一起,包括处理器的L1、L2或L3高速缓存或系统存储器。此外,推理和/或训练代码可以与处理器或其他硬件逻辑或电路可访问的其他代码一起存储,并可以使用处理器的提取、解码、调度、执行、退出和/或其他逻辑电路来提取和/或处理。
在至少一个实施例中,激活存储720可以是高速缓存存储器、DRAM、SRAM、非易失性存储器(例如,闪存)或其他存储。在至少一个实施例中,激活存储720可以完全地或部分地在一个或更多个处理器或其他逻辑电路内部或外部。在至少一个实施例中,可以取决于片上或片外可用的存储,进行训练和/或推理功能的延迟要求,在推理和/或训练神经网络中使用的数据的批量大小或这些因素的某种组合,选择激活存储720是处理器的内部还是外部,例如,或者包含DRAM、SRAM、闪存或其他存储类型。在至少一个实施例中,图7A中所示的推理和/或训练逻辑715可以与专用集成电路(“ASIC”)结合使用,例如来自Google的处理单元、来自GraphcoreTM的推理处理单元(IPU)或来自IntelCorp的(例如“LakeCrest”)处理器。在至少一个实施例中,图7A所示的推理和/或训练逻辑715可与中央处理单元(“CPU”)硬件,图形处理单元(“GPU”)硬件或其他硬件(例如现场可编程门阵列(“FPGA”))结合使用。
图7B示出了根据至少一个或更多个实施例的推理和/或训练逻辑715。在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于硬件逻辑,其中计算资源被专用或以其他方式唯一地连同对应于神经网络内的一层或更多层神经元的权重值或其他信息一起使用。在至少一个实施例中,图7B中所示的推理和/或训练逻辑715可以与专用集成电路(ASIC)结合使用,例如来自Google的处理单元,来自GraphcoreTM的推理处理单元(IPU)或来自IntelCorp的(例如“LakeCrest”)处理器。在至少一个实施例中,图7B中所示的推理和/或训练逻辑715可以与中央处理单元(CPU)硬件、图形处理单元(GPU)硬件或其他硬件(例如现场可编程门阵列(FPGA))结合使用。在至少一个实施例中,推理和/或训练逻辑715包括但不限于代码和/或数据存储701以及代码和/或数据存储705,其可以用于存储代码(例如,图代码)、权重值和/或其他信息,包括偏置值、梯度信息、动量值和/或其他参数或超参数信息。在图7B中所示的至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705中的每一个都分别与专用计算资源(例如计算硬件702和计算硬件706)相关联。在至少一个实施例中,计算硬件702和计算硬件706中的每一个包括一个或更多个ALU,这些ALU仅分别对存储在代码和/或数据存储701和代码和/或数据存储705中的信息执行数学函数(例如线性代数函数),执行函数的结果被存储在激活存储720中。
在至少一个实施例中,代码和/或数据存储701和705以及相应的计算硬件702和706中的每一个分别对应于神经网络的不同层,使得从代码和/或数据存储701和计算硬件702的一个“存储/计算对701/702”得到的激活提供作为代码和/或数据存储705和计算硬件706的下一个“存储/计算对705/706”的输入,以便反映神经网络的概念组织。在至少一个实施例中,每个存储/计算对701/702和705/706可以对应于一个以上的神经网络层。在至少一个实施例中,在推理和/或训练逻辑715中可以包括在存储计算对701/702和705/706之后或与之并行的附加存储/计算对(未示出)。
数据中心
图8示出了可以使用至少一个实施例的示例数据中心800。在至少一个实施例中,数据中心800包括数据中心基础设施层810、框架层820、软件层830和应用层840。
在至少一个实施例中,如图8所示,数据中心基础设施层810可以包括资源协调器812、分组的计算资源814和节点计算资源(“节点C.R.”)816(1)-816(N),其中“N”代表任何正整数。在至少一个实施例中,节点C.R.816(1)-816(N)可以包括但不限于任何数量的中央处理单元(“CPU”)或其他处理器(包括加速器、现场可编程门阵列(FPGA)、图形处理器等),存储器设备(例如动态只读存储器)、存储设备(例如固态硬盘或磁盘驱动器),网络输入/输出(“NWI/O”)设备,网络交换机,虚拟机(“VM”),电源模块和冷却模块等。在至少一个实施例中,节点C.R.816(1)-816(N)中的一个或更多个节点C.R.可以是具有一个或更多个上述计算资源的服务器。
在至少一个实施例中,分组的计算资源814可以包括容纳在一个或更多个机架内的节点C.R.的单独分组(未示出),或者容纳在各个地理位置的数据中心内的许多机架(也未示出)。分组的计算资源814内的节点C.R.的单独分组可以包括可以被配置或分配为支持一个或更多个工作负载的分组的计算、网络、存储器或存储资源。在至少一个实施例中,可以将包括CPU或处理器的几个节点C.R.分组在一个或更多个机架内,以提供计算资源来支持一个或更多个工作负载。在至少一个实施例中,一个或更多个机架还可以包括任何数量的电源模块、冷却模块和网络交换机,以任意组合。
在至少一个实施例中,资源协调器812可以配置或以其他方式控制一个或更多个节点C.R.816(1)-816(N)和/或分组的计算资源814。在至少一个实施例中,资源协调器812可以包括用于数据中心800的软件设计基础结构(“SDI”)管理实体。在至少一个实施例中,资源协调器108可以包括硬件、软件或其某种组合。
在至少一个实施例中,如图8所示,框架层820包括作业调度器822、配置管理器824、资源管理器826和分布式文件系统828。在至少一个实施例中,框架层820可以包括支持软件层830的软件832和/或应用程序层840的一个或更多个应用程序842的框架。在至少一个实施例中,软件832或应用程序842可以分别包括基于Web的服务软件或应用程序,例如由AmazonWebServices,GoogleCloud和MicrosoftAzure提供的服务或应用程序。在至少一个实施例中,框架层820可以是但不限于一种免费和开放源软件网络应用程序框架,例如可以利用分布式文件系统828来进行大范围数据处理(例如“大数据”)的ApacheSparkTM(以下称为“Spark”)。在至少一个实施例中,作业调度器832可以包括Spark驱动器,以促进对数据中心800的各个层所支持的工作负载进行调度。在至少一个实施例中,配置管理器824可以能够配置不同的层,例如软件层830和包括Spark和用于支持大规模数据处理的分布式文件系统828的框架层820。在至少一个实施例中,资源管理器826能够管理映射到或分配用于支持分布式文件系统828和作业调度器822的集群或分组计算资源。在至少一个实施例中,集群或分组计算资源可以包括数据中心基础设施层810上的分组计算资源814。在至少一个实施例中,资源管理器826可以与资源协调器812协调以管理这些映射的或分配的计算资源。
在至少一个实施例中,包括在软件层830中的软件832可以包括由节点C.R.816(1)-816(N)的至少一部分,分组的计算资源814和/或框架层820的分布式文件系统828使用的软件。一种或更多种类型的软件可以包括但不限于Internet网页搜索软件、电子邮件病毒扫描软件、数据库软件和流视频内容软件。
在至少一个实施例中,应用层840中包括的一个或更多个应用程序842可以包括由节点C.R.816(1)-816(N)的至少一部分、分组计算资源814和/或框架层820的分布式文件系统828使用的一种或更多种类型的应用程序。一种或更多种类型的应用程序可以包括但不限于任何数量的基因组学应用程序、认知计算和机器学习应用程序,包括训练或推理软件,机器学习框架软件(例如PyTorch、TensorFlow、Caffe等)或其他与一个或更多个实施例结合使用的机器学习应用程序。
在至少一个实施例中,配置管理器824、资源管理器826和资源协调器812中的任何一个可以基于以任何技术上可行的方式获取的任何数量和类型的数据来实现任何数量和类型的自我修改动作。在至少一个实施例中,自我修改动作可以减轻数据中心800的数据中心操作员做出可能不好的配置决定并且可以避免数据中心的未充分利用和/或执行差的部分。
在至少一个实施例中,数据中心800可以包括工具、服务、软件或其他资源,以根据本文所述的一个或更多个实施例来训练一个或更多个机器学习模型或者使用一个或更多个机器学习模型来预测或推理信息。例如,在至少一个实施例中,可以通过使用上文关于数据中心800描述的软件和计算资源,根据神经网络架构通过计算权重参数来训练机器学习模型。在至少一个实施例中,通过使用通过本文所述的一种或更多种训练技术计算出的权重参数,可以使用上面与关于数据中心800所描述的资源,使用对应于一个或更多个神经网络的经训练的机器学习模型来推理或预测信息。
在至少一个实施例中,数据中心可以使用CPU、专用集成电路(ASIC)、GPU、FPGA或其他硬件来使用上述资源来执行训练和/或推理。此外,上述的一个或更多个软件和/或硬件资源可以配置成一种服务,以允许用户训练或执行信息推理,例如图像识别、语音识别或其他人工智能服务。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推理和/或训练操作。本文结合图7A和/或图7B提供关于推理和/或训练逻辑715的细节。在至少一个实施例中,推理和/或训练逻辑715可以在系统图8的系统中使用,用于至少部分地基于使用神经网络训练操作、神经网络函数和/或架构或本文所述的神经网络用例计算的权重参数来推理或预测操作。
此类组件可用于进一步训练针对待执行的预期类型的推理的预训练的模型。为了获得对该预期类型的推理保持高准确度的较小模型,可以对这些预训练的模型进行进一步训练和修剪。
计算机系统
图9是示出根据至少一个实施例示例性计算机系统的框图,该示例性计算机系统可以是具有互连的设备和组件的系统,片上系统(SOC)或它们的某种形成有处理器的组合,该处理器可以包括执行单元以执行指令。在至少一个实施例中,根据本公开,例如本文所述的实施例,计算机系统900可以包括但不限于组件,例如处理器902,其执行单元包括逻辑以执行用于过程数据的算法。在至少一个实施例中,计算机系统900可以包括处理器,例如可从加利福尼亚圣塔克拉拉的英特尔公司(IntelCorporationofSantaClara,California)获得的处理器家族、XeonTM、XScaleTM和/或StrongARMTM,CoreTM或NervanaTM微处理器,尽管也可以使用其他系统(包括具有其他微处理器的PC、工程工作站、机顶盒等)。在至少一个实施例中,计算机系统900可以执行可从华盛顿州雷蒙德市的微软公司(MicrosoftCorporationofRedmond,Wash.)获得的WINDOWS操作系统版本,尽管其他操作系统(例如UNIX和Linux)、嵌入式软件和/或图形用户界面也可以使用。
实施例可以用在其他设备中,例如手持设备和嵌入式应用程序。手持设备的一些示例包括蜂窝电话、互联网协议(InternetProtocol)设备、数码相机、个人数字助理(“PDA”)和手持PC。在至少一个实施例中,嵌入式应用程序可以包括微控制器、数字信号处理器(“DSP”)、片上系统、网络计算机(“NetPC”)、机顶盒、网络集线器、广域网(“WAN”)交换机,或根据至少一个实施例可以执行一个或更多个指令的任何其他系统。
在至少一个实施例中,计算机系统900可包括但不限于处理器902,该处理器902可包括但不限于一个或更多个执行单元908,以根据本文描述的技术执行机器学习模型训练和/或推理。在至少一个实施例中,计算机系统900是单处理器台式机或服务器系统,但是在另一实施例中,计算机系统900可以是多处理器系统。在至少一个实施例中,处理器902可以包括但不限于复杂指令集计算机(“CISC”)微处理器、精简指令集计算(“RISC”)微处理器、超长指令字(“VLIW”)微处理器、实现指令集组合的处理器,或任何其他处理器设备,例如数字信号处理器。在至少一个实施例中,处理器902可以耦合到处理器总线910,该处理器总线910可以在处理器902与计算机系统900中的其他组件之间传输数据信号。
在至少一个实施例中,处理器902可以包括但不限于1级(“L1”)内部高速缓存存储器(“cache”)904。在至少一个实施例中,处理器902可以具有单个内部高速缓存或多级内部缓存。在至少一个实施例中,高速缓存存储器可以驻留在处理器902的外部。根据特定的实现和需求,其他实施例也可以包括内部和外部高速缓存的组合。在至少一个实施例中,寄存器文件906可以在各种寄存器中存储不同类型的数据,包括但不限于整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器。
在至少一个实施例中,包括但不限于执行整数和浮点运算的逻辑执行单元908,其也位于处理器902中。在至少一个实施例中,处理器902还可以包括微码(“ucode”)只读存储器(“ROM”),用于存储某些宏指令的微代码。在至少一个实施例中,执行单元908可以包括用于处理封装指令集909的逻辑。在至少一个实施例中,通过将封装指令集909包括在通用处理器的指令集中,以及要执行指令的相关电路,可以使用处理器902中的封装数据来执行许多多媒体应用程序使用的操作。在一个或更多个实施例中,可以通过使用处理器的数据总线的全宽度来在封装的数据上执行操作来加速和更有效地执行许多多媒体应用程序,这可能不需要在处理器的数据总线上传输较小的数据单元来一次执行一个数据元素的一个或更多个操作。
在至少一个实施例中,执行单元908也可以用在微控制器、嵌入式处理器、图形设备、DSP和其他类型的逻辑电路中。在至少一个实施例中,计算机系统900可以包括但不限于存储器920。在至少一个实施例中,存储器920可以实现为动态随机存取存储器(“DRAM”)设备、静态随机存取存储器(“SRAM”)设备、闪存设备或其他存储设备。在至少一个实施例中,存储器920可以存储由处理器902可以执行的由数据信号表示的指令919和/或数据921。
在至少一个实施例中,系统逻辑芯片可以耦合到处理器总线910和存储器920。在至少一个实施例中,系统逻辑芯片可以包括但不限于存储器控制器集线器(“MCH”)916,并且处理器902可以经由处理器总线910与MCH 916通信。在至少一个实施例中,MCH 916可以提供到存储器920的高带宽存储器路径918以用于指令和数据存储以及用于图形命令、数据和纹理的存储。在至少一个实施例中,MCH 916可以在处理器902、存储器920和计算机系统900中的其他组件之间启动数据信号,并且在处理器总线910、存储器920和系统I/O 922之间桥接数据信号。在至少一个实施例中,系统逻辑芯片可以提供用于耦合到图形控制器的图形端口。在至少一个实施例中,MCH 916可以通过高带宽存储器路径918耦合到存储器920,并且图形/视频卡912可以通过加速图形端口(Accelerated Graphics Port)(“AGP”)互连914耦合到MCH 916。
在至少一个实施例中,计算机系统900可以使用系统I/O 922,所述系统I/O 922是专有集线器接口总线来将MCH 916耦合到I/O控制器集线器(“ICH”)930。在至少一个实施例中,ICH 930可以通过本地I/O总线提供与某些I/O设备的直接连接。在至少一个实施例中,本地I/O总线可以包括但不限于用于将外围设备连接到存储器920、芯片组和处理器902的高速I/O总线。示例可以包括但不限于音频控制器929、固件集线器(“FlashBIOS”)928、无线收发器926、数据存储924、包含用户输入和键盘接口的传统I/O控制器923、串行扩展端口927(例如通用串行总线(USB)端口)和网络控制器934。数据存储924可以包括硬盘驱动器、软盘驱动器、CD-ROM设备、闪存设备或其他大容量存储设备。
在至少一个实施例中,图9示出了包括互连的硬件设备或“芯片”的系统,而在其他实施例中,图9可以示出示例性片上系统(SoC)。在至少一个实施例中,设备可以与专有互连、标准化互连(例如,PCIe)或其某种组合互连。在至少一个实施例中,计算机系统900的一个或更多个组件使用计算快速链路(CXL)互连来互连。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关的推理和/或训练操作。下文结合图7A和/或图7B提供关于推理和/或训练逻辑715的细节。在至少一个实施例中,推理和/或训练逻辑715可以在图9的系统中使用,用于至少部分地基于使用神经网络训练操作、神经网络函数和/或架构或本文所述的神经网络用例计算的权重参数来推理或预测操作。
此类组件可用于进一步训练针对待执行的预期类型的推理的预训练的模型。为了获得对该预期类型的推理保持高准确度的较小模型,可以对这些预训练的模型进行进一步训练和修剪。
图10是示出根据至少一个实施例的用于利用处理器1010的电子设备1000的框图。在至少一个实施例中,电子设备1000可以是,例如但不限于,笔记本电脑、塔式服务器、机架服务器、刀片服务器、膝上型计算机、台式机、平板电脑、移动设备、电话、嵌入式计算机或任何其他合适的电子设备。
在至少一个实施例中,系统1000可以包括但不限于通信地耦合到任何合适数量或种类的组件、外围设备、模块或设备的处理器1010。在至少一个实施例中,处理器1010使用总线或接口耦合,诸如1℃总线、系统管理总线(“SMBus”)、低引脚数(LPC)总线、串行外围接口(“SPI”)、高清音频(“HDA”)总线、串行高级技术附件(“SATA”)总线、通用串行总线(“USB”)(1、2、3版)或通用异步接收器/发送器(“UART”)总线。在至少一个实施例中,图10示出了系统,该系统包括互连的硬件设备或“芯片”,而在其他实施例中,图10可以示出示例性片上系统(SoC)。在至少一个实施例中,图10中所示的设备可以与专有互连线、标准化互连(例如,PCIe)或其某种组合互连。在至少一个实施例中,图10的一个或更多个组件使用计算快速链路(CXL)互连线来互连。
在至少一个实施例中,图10可以包括显示器1024、触摸屏1025、触摸板1030、近场通信单元(“NFC”)1045、传感器集线器1040、热传感器1046、快速芯片组(“EC”)1035、可信平台模块(“TPM”)1038、BIOS/固件/闪存(“BIOS,FWFlash”)1022、DSP 1060、驱动器1020(例如固态磁盘(“SSD”)或硬盘驱动器(“HDD”))、无线局域网单元(“WLAN”)1050、蓝牙单元1052、无线广域网单元(“WWAN”)1056、全球定位系统(GPS)1055、相机(“USB3.0相机”)1054(例如USB3.0相机)和/或以例如LPDDR3标准实现的低功耗双倍数据速率(“LPDDR”)存储器单元(“LPDDR3”)1015。这些组件可以各自以任何合适的方式实现。
在至少一个实施例中,其他组件可以通过上文所述的组件通信地耦合到处理器1010。在至少一个实施例中,加速度计1041、环境光传感器(“ALS”)1042、罗盘1043和陀螺仪1044可以可通信地耦合到传感器集线器1040。在至少一个实施例中,热传感器1039、风扇1037、键盘1036和触摸板1030可以通信地耦合到EC 1035。在至少一个实施例中,扬声器1063、耳机1064和麦克风(“mic”)1065可以通信地耦合到音频单元(“音频编解码器和D类放大器”)1062,其又可以通信地耦合到DSP 1060。在至少一个实施例中,音频单元1062可以包括例如但不限于音频编码器/解码器(“编解码器”)和D类放大器。在至少一个实施例中,SIM卡(“SIM”)1057可以通信地耦合到WWAN单元1056。在至少一个实施例中,组件(诸如WLAN单元1050和蓝牙单元1052以及WWAN单元1056)可以被实现为下一代形式因素(NGFF)。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推理和/或训练操作。下文结合图7A和/或图7B提供关于推理和/或训练逻辑715的细节。在至少一个实施例中,推理和/或训练逻辑715可以在图10系统中用于至少部分地基于使用神经网络训练操作、神经网络功能和/或架构或本文描述的神经网络用例计算的权重参数来推理或预测操作。
此类组件可用于进一步训练针对待执行的预期类型的推理的预训练的模型。为了获得对该预期类型的推理保持高准确度的较小模型,可以对这些预训练的模型进行进一步训练和修剪。
图11是根据至少一个实施例的处理系统的框图。在至少一个实施例中,系统1100包括一个或更多个处理器1102和一个或更多个图形处理器1108,并且可以是单处理器台式机系统、多处理器工作站系统或具有大量处理器1102或处理器核心1107的服务器系统。在至少一个实施例中,系统1100是结合在片上系统(SoC)集成电路内的处理平台,以在移动、手持或嵌入式设备使用。
在至少一个实施例中,系统1100可以包括或结合在基于服务器的游戏平台中,包括游戏和媒体控制台的游戏控制台、移动游戏控制台、手持游戏控制台或在线游戏控制台。在至少一个实施例中,系统1100是移动电话、智能电话、平板计算设备或移动互联网设备。在至少一个实施例中,处理系统1100还可包括与可穿戴设备耦合或集成在可穿戴设备中,例如智能手表可穿戴设备、智能眼镜设备、增强现实设备或虚拟现实设备。在至少一个实施例中,处理系统1100是电视或机顶盒设备,其具有一个或更多个处理器1102以及由一个或更多个图形处理器1108生成的图形界面。
在至少一个实施例中,一个或更多个处理器1102每个包括一个或更多个处理器核心1107,以处理指令,该指令在被执行时执行针对系统和用户软件的操作。在至少一个实施例中,一个或更多个处理器核心1107中的每一个被配置为处理特定指令组1109。在至少一个实施例中,指令组1109可以促进复杂指令集计算(CISC)、精简指令集计算(RISC),或通过超长指令字(VLIW)进行计算。在至少一个实施例中,处理器核心1107可以各自处理不同的指令组1109,该指令组可以包括有助于仿真其他指令组的指令。在至少一个实施例中,处理器核心1107还可以包括其他处理设备,例如数字信号处理器(DSP)。
在至少一个实施例中,处理器1102包括高速缓存存储器1104。在至少一个实施例中,处理器1102可以具有单个内部高速缓存或多个级别的内部高速缓存。在至少一个实施例中,高速缓存存储器在处理器1102的各个组件之间共享。在至少一个实施例中,处理器1102还使用外部高速缓存(例如,三级(L3)高速缓存或最后一级高速缓存(LLC))(未示出),可以使用已知的高速缓存一致性技术在处理器核心1107之间共享该外部高速缓存。在至少一个实施例中,处理器1102中另外包括寄存器文件1106,处理器可以包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器)。在至少一个实施例中,寄存器文件1106可以包括通用寄存器或其他寄存器。
在至少一个实施例中,一个或更多个处理器1102与一个或更多个接口总线1110耦合,以在处理器1102与系统1100中的其他组件之间传输通信信号,例如地址、数据或控制信号。在至少一个实施例中,接口总线1110在一个实施例中可以是处理器总线,例如直接媒体接口(DMI)总线的版本。在至少一个实施例中,接口总线1110不限于DMI总线,并且可以包括一个或更多个外围组件互连总线(例如,PCI,PCIExpress)、存储器总线或其他类型的接口总线。在至少一个实施例中,处理器1102包括集成存储器控制器1116和平台控制器集线器1130。在至少一个实施例中,存储器控制器1116促进存储器设备与处理系统1100的其他组件之间的通信,而平台控制器集线器(PCH)1130通过本地I/O总线提供到I/O设备的连接。
在至少一个实施例中,存储器设备1120可以是动态随机存取存储器(DRAM)设备、静态随机存取存储器(SRAM)设备、闪存设备、相变存储设备或具有适当的性能以用作处理器存储器。在至少一个实施例中,存储设备1120可以用作处理系统1100的系统存储器,以存储数据1122和指令1121,以在一个或更多个处理器1102执行应用程序或过程时使用。在至少一个实施例中,存储器控制器1116还与可选的外部图形处理器1112耦合,其可以与处理器1102中的一个或更多个图形处理器1108通信以执行图形和媒体操作。在至少一个实施例中,显示设备1111可以连接至处理器1102。在至少一个实施例中,显示设备1111可以包括内部显示设备中的一个或更多个,例如在移动电子设备或膝上型设备或通过显示器接口(例如显示端口(DisplayPort)等)连接的外部显示设备中。在至少一个实施例中,显示设备1111可以包括头戴式显示器(HMD),诸如用于虚拟现实(VR)应用或增强现实(AR)应用中的立体显示设备。
在至少一个实施例中,平台控制器集线器1130使外围设备能够通过高速I/O总线连接到存储设备1120和处理器1102。在至少一个实施例中,I/O外围设备包括但不限于音频控制器1146、网络控制器1134、固件接口1128、无线收发器1126、触摸传感器1125、数据存储设备1124(例如,硬盘驱动器、闪存等)。在至少一个实施例中,数据存储设备1124可以经由存储接口(例如,SATA)或经由外围总线来连接,诸如外围组件互连总线(例如,PCI、PCIe)。在至少一个实施例中,触摸传感器1125可以包括触摸屏传感器、压力传感器或指纹传感器。在至少一个实施例中,无线收发器1126可以是Wi-Fi收发器、蓝牙收发器或移动网络收发器,诸如3G、4G或长期演进(LTE)收发器。在至少一个实施例中,固件接口1128使能与系统固件的通信,并且可以是例如统一可扩展固件接口(UEFI)。在至少一个实施例中,网络控制器1134可以启用到有线网络的网络连接。在至少一个实施例中,高性能网络控制器(未示出)与接口总线1110耦合。在至少一个实施例中,音频控制器1146是多通道高清晰度音频控制器。在至少一个实施例中,处理系统1100包括可选的传统(legacy)I/O控制器1140,用于将传统(例如,个人系统2(PS/2))设备耦合到系统1100。在至少一个实施例中,平台控制器集线器1130还可以连接到一个或更多个通用串行总线(USB)控制器1142,该控制器连接输入设备,诸如键盘和鼠标1143组合、相机1144或其他USB输入设备。
在至少一个实施例中,存储器控制器1116和平台控制器集线器1130的实例可以集成到离散的外部图形处理器中,例如外部图形处理器1112。在至少一个实施例中,平台控制器集线器1130和/或存储器控制器1116可以在一个或更多个处理器1102的外部。例如,在至少一个实施例中,系统1100可以包括外部存储器控制器1116和平台控制器集线器1130,其可以配置成在与处理器1102通信的系统芯片组中的存储器控制器集线器和外围控制器集线器。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推理和/或训练操作。下文结合图7A和/或图7B提供关于推理和/或训练逻辑715的细节。在至少一个实施例中,部分或全部推理和/或训练逻辑715可以结合到图形处理器1100中。例如,在至少一个实施例中,本文描述的训练和/或推理技术可以使用一个或更多个ALU,所述ALU体现在图形处理器中。此外,在至少一个实施例中,本文描述的推理和/或训练操作可以使用除图7A或图7B所示的逻辑之外的逻辑来完成。在至少一个实施例中,权重参数可以存储在片上或片外存储器和/或寄存器(示出或未示出)中,其配置图形处理器的ALU,以执行一种或更多种本文所述的机器学习算法、神经网络架构、用例或训练技术。
此类组件可用于进一步训练针对待执行的预期类型的推理的预训练的模型。为了获得对该预期类型的推理保持高准确度的较小模型,可以对这些预训练的模型进行进一步训练和修剪。
图12是根据至少一个实施例的具有一个或更多个处理器核心1202A-1202N、集成存储器控制器1214和集成图形处理器1208的处理器1200的框图。在至少一个实施例中,处理器1200可以包含附加核心,多达并包括以虚线框表示的附加核心1202N。在至少一个实施例中,每个处理器核心1202A-1202N包括一个或更多个内部高速缓存单元1204A-1204N。在至少一个实施例中,每个处理器核心还可以访问一个或更多个共享高速缓存单元1206。
在至少一个实施例中,内部高速缓存单元1204A-1204N和共享高速缓存单元1206表示处理器1200内的高速缓存存储器层次结构。在至少一个实施例中,高速缓存存储器单元1204A-1204N可以包括每个处理器核心内的至少一级指令和数据高速缓存以及共享中级高速缓存中的一级或更多级缓存,例如2级(L2)、3级(L3)、4级(L4)或其他级别的高速缓存,其中将外部存储器之前的最高级别的高速缓存归类为LLC。在至少一个实施例中,高速缓存一致性逻辑维持各种高速缓存单元1206和1204A-1204N之间的一致性。
在至少一个实施例中,处理器1200还可包括一组一个或更多个总线控制器单元1216和系统代理核心1210。在至少一个实施例中,一个或更多个总线控制器单元1216管理一组外围总线,例如一个或更多个PCI或PCIe总线。在至少一个实施例中,系统代理核心1210为各种处理器组件提供管理功能。在至少一个实施例中,系统代理核心1210包括一个或更多个集成存储器控制器1214,以管理对各种外部存储器设备(未示出)的访问。
在至少一个实施例中,一个或更多个处理器核心1202A-1202N包括对多线程同时进行的支持。在至少一个实施例中,系统代理核心1210包括用于在多线程处理期间协调和操作核心1202A-1202N的组件。在至少一个实施例中,系统代理核心1210可以另外包括电源控制单元(PCU),该电源控制单元包括用于调节处理器核心1202A-1202N和图形处理器1208的一个或更多个电源状态的逻辑和组件。
在至少一个实施例中,处理器1200还包括用于执行图处理操作的图形处理器1208。在至少一个实施例中,图形处理器1208与共享高速缓存单元1206和包括一个或更多个集成存储器控制器1214的系统代理核心1210耦合。在至少一个实施例中,系统代理核心1210还包括用于驱动图形处理器输出到一个或更多个耦合的显示器的显示器控制器1211。在至少一个实施例中,显示器控制器1211也可以是经由至少一个互连与图形处理器1208耦合的独立模块,或者可以集成在图形处理器1208内。
在至少一个实施例中,基于环的互连单元1212用于耦合处理器1200的内部组件。在至少一个实施例中,可以使用替代性互连单元,例如点对点互连、交换互连或其他技术。在至少一个实施例中,图形处理器1208经由I/O链路1213与环形互连1212耦合。
在至少一个实施例中,I/O链路1213代表多种I/O互连中的至少一种,包括促进各种处理器组件与高性能嵌入式存储器模块1218(例如eDRAM模块)之间的通信的封装I/O互连。在至少一个实施例中,处理器核心1202A-1202N和图形处理器1208中的每一个使用嵌入式存储器模块1218作为共享的最后一级高速缓存。
在至少一个实施例中,处理器核心1202A-1202N是执行公共指令集架构的同质核心。在至少一个实施例中,处理器核心1202A-1202N在指令集架构(ISA)方面是异构的,其中一个或更多个处理器核心1202A-1202N执行公共指令集,而一个或更多个其他处理器核心1202A-1202N执行公共指令集的子集或不同指令集。在至少一个实施例中,就微架构而言,处理器核心1202A-1202N是异构的,其中具有相对较高功耗的一个或更多个核心与具有较低功耗的一个或更多个功率核心耦合。在至少一个实施例中,处理器1200可以在一个或更多个芯片上实现或被实现为SoC集成电路。
推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推理和/或训练操作。下文结合图7A和/或图7B提供关于推理和/或训练逻辑715的细节。在至少一个实施例中,部分或全部推理和/或训练逻辑715可以结合到处理器1200中。例如,在至少一个实施例中,本文描述的训练和/或推理技术可以使用一个或更多个ALU,所述ALU体现在图12中的图形处理器1512、图形核心1202A-1202N或其他组件中。此外,在至少一个实施例中,本文描述的推理和/或训练操作可以使用除图7A或图7B所示的逻辑之外的逻辑来完成。在至少一个实施例中,权重参数可以存储在片上或片外存储器和/或寄存器(示出或未示出)中,其配置图形处理器1200的ALU以执行一种或更多种本文所述的机器学习算法、神经网络架构、用例或训练技术。
此类组件可用于进一步训练针对待执行的预期类型的推理的预训练的模型。为了获得对该预期类型的推理保持高准确度的较小模型,可以对这些预训练的模型进行进一步训练和修剪。
虚拟化计算平台
图13是根据至少一个实施例的生成和部署图像处理和推理管线的过程1300的示例数据流程图。在至少一个实施例中,过程1300可以被部署用于在一个或更多个设施1302处与成像设备、处理设备和/或其他设备类型一起使用。过程1300可以在训练系统1304和/或部署系统1306内执行。在至少一个实施例中,训练系统1304可以用于执行机器学习模型(例如,神经网络、对象检测算法、计算机视觉算法等)的训练、部署和实现,以用于部署系统1306。在至少一个实施例中,部署系统1306可以被配置为在分布式计算环境中卸载处理和计算资源,以减少设施1302的基础设施需求。在至少一个实施例中,管线中的一个或更多个应用程序在应用程序执行期间,可以使用或调用部署系统1306的服务(例如,推理、可视化、计算、AI等)。
在至少一个实施例中,在高级处理和推理管线中使用的一些应用程序可以使用机器学习模型或其他AI来执行一个或更多个处理步骤。在至少一个实施例中,可以使用在设施1302处生成(并存储在设施1302处的一个或更多个图片存档和通信系统(PACS)服务器上)的数据1308(例如成像数据)在设施1302处训练机器学习模型,可以使用于自另一个或更多个设施的成像或测序数据1308来训练机器学习模型,或其组合。在至少一个实施例中,训练系统1304可以用于提供应用程序、服务和/或其他资源,以生成用于部署系统1306的工作的、可部署的机器学习模型。
在至少一个实施例中,模型注册表1324可以由对象存储支持,该对象存储可以支持版本控制和对象元数据。在至少一个实施例中,可以从云平台内通过例如云存储(例如,图14的云1426)兼容的应用程序编程接口(API)来访问对象存储。在至少一个实施例中,模型注册表1324内的机器学习模型可以由与API交互的系统的开发者或合作伙伴上传、列出、修改或删除。在至少一个实施例中,API可以提供对方法的访问,所述方法允许具有适当凭证的用户将模型与应用程序相关联,使得模型可以作为应用程序的容器化实例化的执行的一部分来执行。
在至少一个实施例中,训练管线1404(图14)可以包括以下情形:其中设施1302正在训练他们自己的机器学习模型,或者具有需要优化或更新的现有机器学习模型。在至少一个实施例中,可以接收由成像设备、测序设备和/或其他类型设备生成的成像数据1308。在至少一个实施例中,一旦接收到成像数据1308,AI辅助注释1310就可以用于帮助生成与成像数据1308相对应的注释,以用作机器学习模型的地面实况数据。在至少一个实施例中,AI辅助注释1310可以包括一个或更多个机器学习模型(例如,卷积神经网络(CNN)),可以对该机器学习模型进行训练,以生成对应于某些类型的成像数据1308(例如,来自某些设备)的注释。在至少一个实施例中,然后AI辅助注释1310可以被直接使用,或者可以使用注释工具进行调整或微调,以生成地面实况数据。在至少一个实施例中,AI辅助注释1310、标记的临床数据1312或其组合可以用作训练机器学习模型的地面实况数据。在至少一个实施例中,经训练的机器学习模型可以被称为输出模型1316,并且可以由部署系统1306使用,如本文所述。
在至少一个实施例中,训练管线1404(图14)可以包括以下情形:其中设施1302需要机器学习模型,以用于执行用于部署系统1306中的一个或更多个应用程序的一个或更多个处理任务,但是设施1302当前可能没有这种机器学习模型(或者可能没有为此目的而优化的、高效的或有效的模型)。在至少一个实施例中,可以从模型注册表1324中选择现有的机器学习模型。在至少一个实施例中,模型注册表1324可以包括机器学习模型,其被训练为对成像数据执行各种不同的推理任务。在至少一个实施例中,可以在来自不同的设施(例如,位于远处的设施)而不是设施1302的成像数据上训练模型注册表1324中的机器学习模型。在至少一个实施例中,机器学习模型可能已经在来自一个位置、两个位置或任意数量的位置的成像数据上进行训练。在至少一个实施例中,当在来自特定位置的成像数据上进行训练时,可以在该位置处进行训练,或者至少以保护成像数据的机密性或限制成像数据从场外转移的方式进行训练。在至少一个实施例中,一旦在一个位置处训练了模型或部分地训练了模型,则可以将机器学习模型添加到模型注册表1324。在至少一个实施例中,然后可以在任意数量的其他设施处对机器学习模型进行重新训练或更新,经重新训练或更新的模型可以在模型注册表1324中使用。在至少一个实施例中,然后可以从模型注册表1324中选择机器学习模型(并称为输出模型1316),并且可以在部署系统1306中,以执行用于部署系统的一个或更多个应用程序的一个或更多个处理任务。
在至少一个实施例中,在训练管线1404(图14)中,场景可以包括需要机器学习模型的设施1302,以用于执行用于部署系统1306中的一个或更多个应用程序的一个或更多个处理任务,但是设施1302当前可能没有这样的机器学习模型(或者可能没有优化的、高效的或有效的模型)。在至少一个实施例中,由于用于训练机器学习模型的训练数据的种群差异、稳健性,训练数据异常的多样性,和/或训练数据的其他问题,从模型注册表1324中选择的机器学习模型可能不会针对在设施1302处生成的成像数据1308进行微调或优化。在至少一个实施例中,AI辅助注释1310可以用于帮助生成与成像数据1308相对应的注释,以用作训练或更新机器学习模型的地面实况数据。在至少一个实施例中,标记的临床数据1312可以用作训练机器学习模型的地面实况数据。在至少一个实施例中,重新训练或更新机器学习模型可以称为模型训练1314。在至少一个实施例中,模型训练1314(例如AI辅助注释1310,标记的临床数据1312或其组合)可以用作重新训练或更新机器学习模型的地面实况数据。在至少一个实施例中,训练的机器学习模型可以被称为输出模型1316,并且可以由部署系统1306使用,如本文所述。
在至少一个实施例中,部署系统1306可以包括软件1318、服务1320、硬件1322和/或其他组件、特征和功能。在至少一个实施例中,部署系统1306可以包括软件“栈”,以使软件1318可以构建在服务1320的顶部上,并且可以使用服务1320来执行一些或全部处理任务,并且服务1320和软件1318可以构建在硬件1322的顶部上,并使用硬件1322来执行部署系统的处理、存储和/或其他计算任务。在至少一个实施例中,软件1318可以包括任意数量的不同容器,其中每个容器可以执行应用程序的实例化。在至少一个实施例中,每个应用程序可以在高级处理和推理管线中执行一个或更多个处理任务(例如,推理、对象检测、特征检测、分割、图像增强、校准等)。在至少一个实施例中,除了接收和配置成像数据以供每个容器使用和/或在通过管线处理后由设施1302使用的容器以外,还可以基于对处理成像数据1308想要的或所需的不同容器的选择来定义高级处理和推理管线(例如,以将输出转换回可用的数据类型。在至少一个实施例中,软件1318内的容器组合(例如,其构成管线)可以被称为虚拟仪器(如本文中更详细地描述的),并且虚拟仪器可以利用服务1320和硬件1322来执行容器中实例化的应用程序的部分或全部处理任务。
在至少一个实施例中,数据处理管线可以响应于推理请求(例如,来自部署系统1306的用户的请求)接收具体格式的输入数据(例如,成像数据1308)。在至少一个实施例中,输入数据可以代表由一个或更多个成像设备生成的一个或更多个图像、视频和/或其他数据表示。在至少一个实施例中,数据可以作为数据处理管线的一部分进行预处理,以准备数据用于由一个或更多个应用程序处理。在至少一个实施例中,可以在管线的一个或更多个推理任务或其他处理任务的输出上执行后处理,以准备下一个应用程序的输出数据和/或准备输出数据,以供用户传输和/或使用(例如作为对推理请求的响应)。在至少一个实施例中,推理任务可以由一个或更多个机器学习模型执行,例如经训练或部署的神经网络,所述模型可以包括训练系统1304的输出模型1316。
在至少一个实施例中,数据处理管线的任务可以封装在容器中,每个容器表示能够引用机器学习模型的应用程序和虚拟化计算环境的离散、全功能实例化。在至少一个实施例中,容器或应用程序可被发布到容器注册表(本文更详细地描述)的私有(例如,有限访问)区域中,并且经训练或部署的模型可存储在模型注册表1324中,并与一个或更多个应用程序相关联。在至少一个实施例中,应用程序的图像(例如,容器图像)可在容器注册表中使用,并且一旦用户从容器注册表中选择图像以用于在管线中部署,则该图像可用于生成用于应用程序的实例化的容器,以供用户的系统使用。
在至少一个实施例中,开发者(例如,软件开发者、临床医生、医生等)可以开发、发布和存储应用程序(例如,作为容器),用于对所提供的数据执行图像处理和/或推理。在至少一个实施例中,可以使用与系统相关联的软件开发工具包(SDK)来执行开发、发布和/或存储(例如,以确保开发的应用程序和/或容器符合系统或与系统兼容)。在至少一个实施例中,所开发的应用程序可以使用SDK在本地测试(例如,在第一设施处,对来自第一设施的数据进行测试),所述SDK作为系统(例如图14中的系统1400)可以支持至少某些服务1320。在至少一个实施例中,由于DICOM对象可能包含一到数百个图像或其他数据类型,并且由于数据的变化,因此开发者可负责管理(例如,设置构造,用于将预处理构建到应用程序中等)传入的数据的提取和准备。在至少一个实施例中,一旦通过系统1400的验证(例如,为了准确性),应用程序便会在容器注册表中可用,以供用户选择和/或实现,以对用户的设施(例如第二设施)处的数据执行一个或更多个处理任务。
在至少一个实施例中,开发者随后可以通过网络共享应用程序或容器,以供系统(例如,图14的系统1400)的用户访问和使用。在至少一个实施例中,可以将完成并经过验证的应用程序或容器存储在容器注册表中,并且可以将相关的机器学习模型存储在模型注册表1324中。在至少一个实施例中,请求实体(其提供推理或图像处理请求)可以浏览容器注册表和/或模型注册表1324,以获得应用程序、容器、数据集、机器学习模型等,选择所需的元素组合以包含在数据处理管线中,并提交图像处理请求。在至少一个实施例中,请求可以包括执行请求所必需的输入数据(以及在一些示例中与患者相关的数据),和/或可以包括对在处理请求时要执行的应用程序和/或机器学习模型的选择。在至少一个实施例中,然后可以将请求传递到部署系统1306的一个或更多个组件(例如,云),以执行数据处理管线的处理。在至少一个实施例中,由部署系统1306进行的处理可以包括引用从容器注册表和/或模型注册表1324中选择的元素(例如,应用程序、容器、模型等)。在至少一个实施例中,一旦通过管线生成结果,结果可返回给用户以供参考(例如,用于在本地、本地工作站或终端上执行的查看应用程序套件中进行查看)。
在至少一个实施例中,为了帮助处理或执行管线中的应用程序或容器,可以利用服务1320。在至少一个实施例中,服务1320可以包括计算服务、人工智能(AI)服务、可视化服务和/或其他服务类型。在至少一个实施例中,服务1320可以提供软件1318中的一个或更多个应用程序所共有的功能,因此可以将功能抽象为可以被应用程序调用或利用的服务。在至少一个实施例中,由服务1320提供的功能可以动态且更有效地运行,同时还可以通过允许应用程序并行地处理数据(例如,使用图14中的并行计算平台1430)来很好地缩放。在至少一个实施例中,不是要求共享服务1320提供的相同功能的每个应用程序都必须具有服务1320的相对应实例,而是可以在各种应用程序之间和之中共享服务1320。在至少一个实施例中,作为非限制性示例,服务可包括可用于执行检测或分割任务的推理服务器或引擎。在至少一个实施例中,可以包括模型训练服务,其可以提供机器学习模型训练和/或重新训练能力。在至少一个实施例中,可以进一步包括数据增强服务,其可以提供GPU加速的数据(例如,DICOM、RIS、CIS、符合REST、RPC、原始等)提取、调整大小、缩放和/或其他增强。在至少一个实施例中,可以使用可视化服务,其可以添加图像渲染效果(例如光线跟踪、光栅化、去噪、锐化等),以向二维(2D)和/或三维(3D)模型添加真实感。在至少一个实施例中,可以包括虚拟仪器服务,其为虚拟仪器的管线内的其他应用程序提供波束赋形、分割、推理、成像和/或支持。
在至少一个实施例中,在服务1320包括AI服务(例如,推理服务)的情况下,作为应用程序执行的一部分,可以通过调用(例如,作为API调用)推理服务(例如,推理服务器),以执行一个或更多个机器学习模型或其处理,来执行一个或更多个机器学习模型。在至少一个实施例中,在另一应用程序包括用于分割任务的一个或更多个机器学习模型的情况下,应用程序可以调用推理服务来执行机器学习模型,以用于执行与分割任务相关联的一个或更多个处理操作。在至少一个实施例中,实现高级处理和推理管线的软件1318,其包括分割应用程序和异常检测应用程序,可以被流水线化,因为每个应用程序可以调用相同的推理服务来执行一个或更多个推理任务。
在至少一个实施例中,硬件1322可包括GPU、CPU、图形卡、AI/深度学习系统(例如,AI超级计算机,诸如NVIDIA的DGX)、云平台或其组合。在至少一个实施例中,可以使用不同类型的硬件1322,以为部署系统1306中的软件1318和服务1320提供高效的、专门构建的支持。在至少一个实施例中,可以实现使用GPU处理来在AI/深度学习系统内、云系统中、和/或部署系统1306的其他处理组件中进行本地处理(例如,在设施1302处),以提高图像处理和生成的效率、准确性和效能。在至少一个实施例中,作为非限制性示例,关于深度学习、机器学习和/或高性能计算,可以针对GPU处理优化软件1318和/或服务1320。在至少一个实施例中,部署系统1306和/或训练系统1304的计算环境中的至少一些可以在具有GPU优化的软件(例如,NVIDIADGX系统的硬件和软件组合)的数据中心、一个或更多个超级计算机或高性能计算机系统中执行。在至少一个实施例中,如本文所述,硬件1322可包括任意数量的GPU,所述GPU可被调用以并行执行数据处理。在至少一个实施例中,云平台还可包括用于深度学习任务的GPU优化执行、机器学习任务或其他计算任务的GPU处理。在至少一个实施例中,可以使用AI/深度学习超级计算机和/或GPU优化的软件(例如,如在NVIDIA的DGX系统上提供的)作为硬件抽象和缩放平台,来执行云平台(例如,NVIDIA的NGC)。在至少一个实施例中,云平台可以在多个GPU上集成应用程序容器集群系统或协调系统(例如,KUBERNETES),以实现无缝缩放和负载均衡。
图14是根据至少一个实施例的用于生成和部署成像部署管线的示例系统1400的系统图。在至少一个实施例中,系统1400可以用于实现图13的过程1300和/或其他过程,包括高级处理和推理管线。在至少一个实施例中,系统1400可以包括训练系统1304和部署系统1306。在至少一个实施例中,可以使用软件1318、服务1320和/或硬件1322,来实现训练系统1304和部署系统1306,如本文所述。
在至少一个实施例中,系统1400(例如,训练系统1304和/或部署系统1306)可以在云计算环境中(例如,使用云1426)实现。在至少一个实施例中,系统1400可以在本地实现(关于医疗服务设施),或者作为云计算资源和本地计算资源的组合来实现。在至少一个实施例中,可以通过制定安全措施或协议,将对云1426中的API的访问权限限制为授权用户。在至少一个实施例中,安全协议可以包括网络令牌,其可以由认证(例如,AuthN、AuthZ、Gluecon等)服务签名,并且可以携带适当的授权。在至少一个实施例中,虚拟仪器的API(本文中描述)或系统1400的其他实例可以被限制为已被审核或授权用于交互的一组公共IP。
在至少一个实施例中,系统1400的各个组件可以使用多种不同网络类型中的任何一种在彼此之间进行通信,所述不同网络类型包括但不限于经由有线和/或无线通信协议的局域网(LAN)和/或广域网(WAN)。在至少一个实施例中,系统1400的设施和组件之间的通信(例如,用于发送推理请求、用于接收推理请求的结果等)可以通过一个或更多个数据总线、无线数据协议(Wi-Fi)、有线数据协议(例如以太网)等进行传送。
在至少一个实施例中,类似于本文关于图13所描述的,训练系统1304可以执行训练管线1404。在至少一个实施例中,其中部署系统1306将在部署管线1410中使用一个或更多个机器学习模型,训练管线1404可用于训练或重新训练一个或更多个(例如,预训练的)模型,和/或实现一个或更多个预训练模型1406(例如,无需重新训练或更新)。在至少一个实施例中,作为训练管线1404的结果,可以生成输出模型1316。在至少一个实施例中,训练管线1404可以包括任意数量的处理步骤,诸如但不限于成像数据(或其他输入数据)的转换或适配。在至少一个实施例中,对于由部署系统1306使用的不同的机器学习模型,可以使用不同的训练管线1404。在至少一个实施例中,类似于关于图13描述的第一示例的训练管线1404可用于第一机器学习模型,类似于关于图13描述的第二示例的训练管线1404可用于第二机器学习模型,类似于关于图13描述的第三示例的训练管线1404可用于第三机器学习模型。在至少一个实施例中,可以根据每个相对应机器学习模型的要求来使用训练系统1304内任务的任何组合。在至少一个实施例中,一个或更多个机器学习模型可能已经被训练并准备好用于部署,因此训练系统1304可能不会对机器学习模型进行任何处理,并且一个或更多个机器学习模型可以由部署系统1306来实现。
在至少一个实施例中,根据实现方式或实施例,输出模型1316和/或预训练模型1406可包括任何类型的机器学习模型。在至少一个实施例中并且不限于此,系统1400使用的机器学习模型可以包括使用线性回归、逻辑回归、决策树、支持向量机(SVM)、朴素贝叶斯、k-最近邻(Knn)、k均值聚类、随机森林、降维算法、梯度提升算法、神经网络(例如,自动编码器、卷积、递归、感知器、长/短期记忆(LSTM)、Hopfield、Boltzmann、深度信念、反卷积、生成对抗、液体状态机等),和/或其他类型的机器学习模型。
在至少一个实施例中,训练管线1404可以包括AI辅助注释,如本文关于至少图15B更详细描述的。在至少一个实施例中,可以通过任何数量的技术来生成标记的临床数据1312(例如,传统注释)。在至少一个实施例中,在一些示例中可以在绘图程序(例如,注释程序)、计算机辅助设计(CAD)程序、标记程序、适用于生成地面实况的注释或标签的另一类型的应用程序中、和/或可以手绘,生成标签或其他注释。在至少一个实施例中,地面实况数据可以被合成产生(例如,从计算机模型或渲染生成)、真实产生(例如,从真实世界数据设计和生成)、机器自动产生(例如,使用特征分析和学习从数据中提取特征,然后生成标签)、人工注释(例如,标记器或注释专家,定义标签的位置)和/或其组合。在至少一个实施例中,对于成像数据1308(或机器学习模型使用的其他数据类型)的每个实例,可以存在由训练系统1304生成的相对应的地面实况数据。在至少一个实施例中,可以作为部署管线1410的一部分执行AI辅助注释;补充或代替训练管线1404中包括的AI辅助注释。在至少一个实施例中,系统1400可以包括多层平台,所述多层平台可以包括诊断应用程序(或其他应用程序类型)的软件层(例如软件1318),其可以执行一个或更多个医学成像和诊断功能。在至少一个实施例中,系统1400可以通信地耦合到(例如,经由加密链路)一个或更多个设施的PACS服务器网络。在至少一个实施例中,系统1400可被配置为从PACS服务器访问和引用数据,以执行操作,例如训练机器学习模型、部署机器学习模型、图像处理、推理和/或其他操作。
在至少一个实施例中,软件层可以被实现为安全的、加密的和/或经认证的API,通过所述API可以从外部环境(例如,设施1302)援引(invoke)(例如,调用(call))应用程序或容器。在至少一个实施例中,应用程序随后可以调用或执行一个或更多个服务1320,以执行与各自的应用程序相关联的计算、AI或可视化任务,并且软件1318和/或服务1320可以利用硬件1322以有效和高效的方式执行处理任务。
在至少一个实施例中,部署系统1306可以执行部署管线1410。在至少一个实施例中,部署管线1410可以包括任意数量的应用程序,所述应用程序可以是顺序的、非顺序的,或者以其他方式应用于成像数据(和/或其他数据类型)-包括AI辅助注释,所述成像数据由成像设备、测序设备、基因组学设备等生成,如上所述。在至少一个实施例中,如本文所述,用于个体设备的部署管线1410可以被称为用于设备的虚拟仪器(例如,虚拟超声仪器、虚拟CT扫描仪器、虚拟测序仪器等)。在至少一个实施例中,对于单个设备,可以存在不止一个部署管线1410,这取决于从设备生成的数据所期望的信息。在至少一个实施例中,在期望从MRI机器检测到异常的情况下,可以存在第一部署管线1410,并且在期望从MRI机器的输出进行图像增强的情况下,可以存在第二部署管线1410。
在至少一个实施例中,图像生成应用程序可以包括包括使用机器学习模型的处理任务。在至少一个实施例中,用户可能希望使用他们自己的机器学习模型,或者从模型注册表1324中选择机器学习模型。在至少一个实施例中,用户可以实现他们自己的机器学习模型或选择机器学习模型,以包含在执行处理任务的应用程序中。在至少一个实施例中,应用程序可以是可选择的和可定制的,并且通过定义应用程序的构造,针对特定用户的应用程序的部署和实现被呈现为更加无缝的用户体验。在至少一个实施例中,通过利用系统1400的其他特征(例如服务1320和硬件1322),部署管线1410可以更加用户友好,提供更容易的集成,并且产生更准确、高效和及时的结果。
在至少一个实施例中,部署系统1306可以包括用户接口1414(例如,图形用户接口、Web接口等),所述用户接口可以被用于选择要包括在部署管线1410中的应用程序、布置应用程序、修改或改变应用程序或其参数或构造、在设置和/或部署期间使用部署管线1410以及与其交互,和/或以其他方式与部署系统1306交互。在至少一个实施例中,尽管没有关于训练系统1304示出,但是用户接口1414(或不同的用户接口)可用于选择在部署系统1306中使用的模型、用于选择用于在训练系统1304中训练或重新训练的模型,和/或用于以其他方式与训练系统1304交互。
在至少一个实施例中,除了应用程序协调系统1428之外,还可以使用管线管理器1412来管理部署管线1410的应用程序或容器与服务1320和/或硬件1322之间的交互。在至少一个实施例中,管线管理器1412可以被配置为促进从应用程序到应用程序、从应用程序到服务1320,和/或从应用程序或服务到硬件1322的交互。在至少一个实施例中,尽管示出为包括在软件1318中,这并不旨在进行限制,并且在一些示例中(例如,如图12cc所示),管线管理器1412可以被包括在服务1320中。在至少一个实施例中,应用程序协调系统1428(例如,Kubernetes、DOCKER等)可以包括容器协调系统,其可以将应用程序分组到容器中,作为用于协调、管理、缩放和部署的逻辑单元。在至少一个实施例中,通过将来自部署管线1410的应用程序(例如,重建应用程序、分割应用程序等)与各个容器相关联,每个应用程序可以在自包含的环境(例如,在内核级)中执行,以提高速度和效率。
在至少一个实施例中,每个应用程序和/或容器(或其映像)可以被单独开发、修改和部署(例如,第一用户或开发者可以开发、修改和部署第一应用程序,第二用户或开发者可以开发、修改和部署与第一用户或开发者分开的第二应用程序),这可以允许专注并关注单个应用程序和/或容器的任务,而不受另一个应用程序或容器的任务的阻碍。在至少一个实施例中,管线管理器1412和应用程序协调系统1428可以辅助不同容器或应用程序之间的通信和协作。在至少一个实施例中,只要每个容器或应用程序的预期输入和/或输出是系统已知的(例如,基于应用程序或容器的构造),则应用程序协调系统1428和/或管线管理器1412可以促进每个应用程序或容器之间和之中的通信以及资源的共享。在至少一个实施例中,由于部署管线1410中的一个或更多个应用程序或容器可以共享相同的服务和资源,因此应用程序协调系统1428可以在各个应用程序或容器之间和之中进行协调、负载均衡,并确定服务或资源的共享。在至少一个实施例中,调度器可用于跟踪应用程序或容器的资源需求、这些资源的当前使用或计划使用,以及资源可用性。因此,在至少一个实施例中,考虑到系统的需求和可用性,调度器可以将资源分配给不同的应用程序,并在应用程序之间和之中分配资源。在一些示例中,调度器(和/或应用程序协调系统1428的其他组件)可以基于施加在系统上的约束(例如,用户约束)来确定资源可用性和分布,例如服务质量(QoS)、对数据输出的迫切需求(例如,以确定是执行实时处理还是延迟处理)等。
在至少一个实施例中,由部署系统1306中的应用程序或容器利用并由其共享的服务1320,可以包括计算服务1416、AI服务1418、可视化服务1420和/或其他服务类型。在至少一个实施例中,应用程序可以调用(例如,执行)一个或更多个服务1320,以执行针对应用程序的处理操作。在至少一个实施例中,应用程序可以利用计算服务1416来执行超级计算或其他高性能计算(HPC)任务。在至少一个实施例中,可以利用一个或更多个计算服务1416来执行并行处理(例如,使用并行计算平台1430),以通过一个或更多个应用程序和/或单个应用程序的一个或更多个任务基本上同时地处理数据。在至少一个实施例中,并行计算平台1430(例如,NVIDIA的CUDA)可以在GPU(GPGPU)(例如,GPU1422)上实现通用计算。在至少一个实施例中,并行计算平台1430的软件层可以提供对GPU的虚拟指令集和并行计算元素的访问,以执行计算内核。在至少一个实施例中,并行计算平台1430可以包括存储器,并且在一些实施例中,可以在多个容器之间和之中,和/或在单个容器内的不同处理任务之间和之中共享存储器。在至少一个实施例中,可以为多个容器和/或容器内的多个进程生成进程间通信(IPC)调用,以使用于自并行计算平台1430的共享存储器段的相同数据(例如,其中一应用程序或多个应用程序的多个不同阶段正在处理相同的信息)。在至少一个实施例中,不是复制数据并将数据移动到存储器中的不同位置(例如,读/写操作),而是可以将存储器相同位置中的相同数据用于任何数量的处理任务(例如,在同一时间、不同时间等)。在至少一个实施例中,由于作为处理的结果数据被用于生成新数据,因此数据的新位置的该信息可以在各个应用程序之间存储和共享。在至少一个实施例中,数据的位置以及经更新或修改的数据的位置可以是如何理解容器中的有效负载的定义的一部分。
在至少一个实施例中,可以利用AI服务1418来执行推理服务,该推理服务用于执行与应用程序相关联的机器学习模型(例如,任务为执行应用程序的一个或更多个处理任务)。在至少一个实施例中,AI服务1418可以利用AI系统1424来执行机器学习模型(例如,诸如CNN之类的神经网络)以用于分割、重建、对象检测、特征检测、分类和/或其他推理任务。在至少一个实施例中,部署管线1410的应用程序可以使用于自训练系统1304的一个或更多个输出模型1316和/或应用程序的其他模型,来对成像数据执行推理。在至少一个实施例中,使用应用程序协调系统1428(例如,调度器)进行推理的两个或更多个示例可以是可用的。在至少一个实施例中,第一类别可以包括高优先级/低延时路径,其可以实现更高服务水平协议,例如用于在紧急情况下对紧急请求执行推理,或者在诊断过程中用于放射科医生。在至少一个实施例中,第二类别可以包括标准优先级路径,其可用于可能不紧急的请求或者可以在稍后的时间执行分析的情况。在至少一个实施例中,应用程序协调系统1428可以基于优先级路径来分配资源(例如,服务1320和/或硬件1322),以用于AI服务1418的不同推理任务。
在至少一个实施例中,共享存储器可以被安装到系统1400中的AI服务1418。在至少一个实施例中,共享存储器可以操作为高速缓存(或其他存储设备类型),并且可以用于处理来自应用程序的推理请求。在至少一个实施例中,当提交推理请求时,部署系统1306的一组API实例可以接收请求,并且可以选择一个或更多个实例(例如,为了最佳拟合、为了负载均衡等)来处理请求。在至少一个实施例中,为了处理请求,可以将请求输入到数据库中,如果尚未在高速缓存中,则可以从模型注册表1324定位机器学习模型,验证步骤可以确保将适当的机器学习模型加载到高速缓存中(例如,共享存储),和/或可以将模型的副本保存到高速缓存中。在至少一个实施例中,如果应用程序尚未运行或没有足够的应用程序的实例,则可使用调度器(例如,管线管理器1412的调度器)来启动在请求中引用的应用程序。在至少一个实施例中,如果尚未启动推理服务器来执行模型,则可以启动推理服务器。每个模型可以启动任意数量的推理服务器。在至少一个实施例中,在将推理服务器聚类的拉(pull)模型中,每当负载均衡有利时,就可以将模型高速缓存。在至少一个实施例中,推理服务器可以静态加载到相应的分布式服务器中。
在至少一个实施例中,可以使用在容器中运行的推理服务器来执行推理。在至少一个实施例中,推理服务器的实例可以与模型(并且可选地与模型的多个版本)相关联。在至少一个实施例中,如果在接收到对模型执行推理的请求时推理服务器的实例不存在,则可以加载新实例。在至少一个实施例中,当启动推理服务器时,可以将模型传递到推理服务器,使得可以使用相同的容器来服务不同的模型,只要推理服务器作为不同的实例运行即可。
在至少一个实施例中,在应用程序执行期间,可以接收对给定应用程序的推理请求,并且可以加载(如果尚未加载的话)容器(例如,托管推理服务器的实例),以及可以调用启动程序。在至少一个实施例中,容器中的预处理逻辑可以(例如,使用CPU和/或GPU)对传入的数据进行加载、解码和/或执行任何附加的预处理。在至少一个实施例中,一旦数据准备好进行推理,容器就可以根据需要对数据进行推理。在至少一个实施例中,这可以包括对一个图像(例如,手部X光线)的单个推理调用,或可要求对数百个图像(例如,胸部CT)进行推理。在至少一个实施例中,应用程序可在完成之前总结结果,其可以包括但不限于单个置信度得分、像素级分割、体素级分割、生成可视化或生成文本以总结结果。在至少一个实施例中,可以为不同的模型或应用程序分配不同的优先级。例如,一些模型可具有实时(TAT小于1分钟)优先级,而其他模型可具有较低的优先级(例如,TAT小于10分钟)。在至少一个实施例中,模型执行时间可以从请求机构或实体进行测量,并且可以包括合作网络遍历时间以及推理服务的执行时间。
在至少一个实施例中,请求在服务1320和推理应用程序之间的传送可以隐藏在软件开发工具包(SDK)后面,并且可以通过队列提供鲁棒的传输。在至少一个实施例中,将通过API将请求放置在队列中,以用于个体应用程序/租户ID组合,并且SDK将从队列中拉取请求并将请求提供给应用程序。在至少一个实施例中,在SDK将从中拾取队列的环境中,可以提供队列的名称。在至少一个实施例中,通过队列的异步通信可能有用,因为它可以允许应用程序的任何实例在其可用时拾取工作。可以通过队列将结果传送回去,以确保没有数据丢失。在至少一个实施例中,队列还可以提供对工作进行分割的能力,因为最高优先级的工作可以进入与应用程序的大多数实例连接的队列,而最低优先级的工作可以进入与单个实例连接的队列,所述实例按照接收到的顺序处理任务。在至少一个实施例中,应用程序可以在GPU加速的实例上运行,所述实例在云1426中生成,并且推理服务可以在GPU上执行推理。
在至少一个实施例中,可以利用可视化服务1420来生成用于查看应用程序和/或部署管线1410输出的可视化。在至少一个实施例中,可视化服务1420可以利用GPU1422来生成可视化。在至少一个实施例中,可视化服务1420可以实现诸如光线追踪之类的渲染效果,以生成更高质量的可视化。在至少一个实施例中,可视化可以包括但不限于2D图像渲染、3D体渲染、3D体重建、2D层析切片、虚拟现实显示、增强现实显示等。在至少一个实施例中,可以使用虚拟化环境来生成虚拟交互显示或环境(例如,虚拟环境),以供系统用户(例如,医生、护士、放射科医生等)进行交互。在至少一个实施例中,可视化服务1420可以包括内部可视化器、电影和/或其他渲染或图像处理能力或功能(例如,光线追踪、光栅化、内部光学器件等)。
在至少一个实施例中,硬件1322可以包括GPU 1422、AI系统1424、云1426和/或用于执行训练系统1304和/或部署系统1306的任何其他硬件。在至少一个实施例中,GPU 1422(例如,NVIDIA的TESLA和/或QUADRO GPU)可包括可用于执行计算服务1416、AI服务1418、可视化服务1420、其他服务和/或软件1318的任何特征或功能的处理任务的任意数量的GPU。例如,对于AI服务1418,GPU 1422可用于对成像数据(或机器学习模型使用的其他数据类型)执行预处理,对机器学习模型的输出执行后处理和/或执行推理(例如以执行机器学习模型)。在至少一个实施例中,云1426、AI系统1424和/或系统1400的其他组件可以使用GPU1422。在至少一个实施例中,云1426可以包括用于深度学习任务的GPU优化的平台。在至少一个实施例中,AI系统1424可以使用GPU,并且可以使用一个或更多个AI系统1424来执行云1426(或者任务为深度学习或推理的至少部分)。同样,尽管硬件1322被示出为离散组件,但这并不意图是限制,并且硬件1322的任何组件可以与硬件1322的任何其他组件组合,或由硬件1322的任何其他组件利用。
在至少一个实施例中,AI系统1424可包括专门构建的计算系统(例如,超级计算机或HPC),该计算系统配置用于推理、深度学习、机器学习和/或其他人工智能任务。在至少一个实施例中,除了CPU、RAM、存储器和/或其他组件、特征或功能之外,AI系统1424(例如,NVIDIA的DGX)还可以包括可以使用多个GPU1422来执行分GPU优化的软件(例如,软件栈)。在至少一个实施例中,可以在云1426中(例如,在数据中心中)实现一个或更多个AI系统1424,以执行系统1400的一些或全部基于AI的处理任务。
在至少一个实施例中,云1426可以包括GPU加速的基础设施(例如,NVIDIA的NGC),其可以提供用于执行系统1400的处理任务的GPU优化的平台。在至少一个实施例中,云1426可以包括AI系统1424,其用于执行系统1400的一个或更多个基于AI的任务(例如,作为硬件抽象和缩放平台)。在至少一个实施例中,云1426可以与利用多个GPU的应用程序协调系统1428集成,以实现应用程序和服务1320之间和之中的无缝缩放和负载均衡。在至少一个实施例中,如本文所述,云1426可以负责执行系统1400的至少一些服务1320,包括计算服务1416、AI服务1418和/或可视化服务1420。在至少一个实施例中,云1426可以执行大小批的推理(例如,执行NVIDIA的TENSORRT),提供加速的并行计算API和平台1430(例如,NVIDIA的CUDA),执行应用程序协调系统1428(例如,KUBERNETES),提供图形渲染API和平台(例如,用于光线跟踪,2D图形、3D图形和/或其他渲染技术以产生更高质量的电影效果),和/或可以为系统1400提供其他功能。
图15A示出了根据至少一个实施例的用于训练、重新训练或更新机器学习模型的过程1500的数据流图。在至少一个实施例中,可以使用作为非限制性示例的图14的系统1400来执行过程1500。在至少一个实施例中,过程1500可以利用系统1400的服务1320和/或硬件1322,如本文所述。在至少一个实施例中,由过程1500生成的精炼模型1512可以由部署系统1306针对部署管线1410中的一个或更多个容器化的应用程序执行。
在至少一个实施例中,模型训练1314可包括使用新的训练数据(例如,新的输入数据(诸如客户数据集1506),和/或与输入数据相关联的新的地面实况数据)重新训练或更新初始模型1504(例如,预训练模型)。在至少一个实施例中,为了重新训练或更新初始模型1504,可以重置或删除初始模型1504的输出或损失层,和/或用更新的或新的输出或损失层代替。在至少一个实施例中,初始模型1504可以具有从先前的训练中保留下来的先前精细调整的参数(例如,权重和/或偏差),因此训练或重新训练1314可能不需要花费与从头开始训练模型一样长的时间或不需要那么多的处理。在至少一个实施例中,在模型训练1314期间,通过重置或替换初始模型1504的输出或损失层,在新的客户数据集1506(例如图13的图像数据1308)上生成预测时,可以基于与输出或损失层的精确性相关联的损失计算,更新和重新调整新数据集的参数。
在至少一个实施例中,可以将预训练的模型1406存储在数据存储或注册表中(例如,图13的模型注册表1324)。在至少一个实施例中,预训练的模型1406可能已经至少部分地在除了执行过程1500的设施之外的一个或更多个设施处被训练。在至少一个实施例中,为了保护患者、受试者或不同设施的客户的隐私和权利,预训练的模型1406可能已经使用本地生成的客户或患者数据在本地进行了训练。在至少一个实施例中,可以使用云1426和/或其他硬件1322来训练预训练的模型1406,但是机密的、受隐私保护的患者数据可以不被传送到云1426的任何组件(或其他非本地硬件)、由其使用或由其访问。在至少一个实施例中,如果使用于自不止一个设施的患者数据来训练预训练的模型1406,则在来自另一设施的患者或客户数据上进行训练之前,预训练的模型1406可能已经针对每个设施进行了单独训练。在至少一个实施例中,例如在客户或患者数据已发布隐私问题(例如,通过放弃,用于实验用途等),或者其中客户或患者数据包括在公共数据集中的情况下,来自任意数量的设施的客户或患者数据可以用于在本地和/或外部训练预训练的模型1406,例如在数据中心中或其他云计算基础设施中。
在至少一个实施例中,在选择应用程序以在部署管线1410中使用时,用户还可以选择用于特定应用程序的机器学习模型。在至少一个实施例中,用户可能没有模型以使用,因此用户可以选择要与应用程序一起使用的预训练的模型1406。在至少一个实施例中,预训练的模型1406可能没有被优化用于在用户设施的客户数据集1506上生成准确的结果(例如,基于患者多样性、人口统计、所使用的医学成像设备的类型等)。在至少一个实施例中,在将预训练的模型1406部署到部署管线1410中以与一个或更多个应用程序一起使用之前,预训练的模型1406可以被更新、重新训练和/或微调,以用于在各个设施处使用。
在至少一个实施例中,用户可以选择要更新、重新训练和/或微调的预训练的模型1406,并且预训练的模型1406可以称为过程1500中训练系统1304的初始模型1504。在至少一个实施例中,客户数据集1506(例如,成像数据、基因组数据、测序数据或由设施处的设备生成的其他数据类型)可用于对初始模型1504执行模型训练1314(其可包括但不限于传递学习),以生成精炼模型1512。在至少一个实施例中,可以由训练系统1304生成与客户数据集1506相对应的地面实况数据。在至少一个实施例中,可以至少部分地由临床医生、科学家、医生、从业者在设施处生成地面实况数据(例如,如图13中的标记的临床数据1312)。
在至少一个实施例中,在一些示例中可以使用AI辅助注释1310来生成地面实况数据。在至少一个实施例中,AI辅助注释1310(例如,使用AI辅助注释SDK实现)可以利用机器学习模型(例如,神经网络)来生成用于客户数据集的建议或预测的地面实况数据。在至少一个实施例中,用户1510可以在计算设备1508上的用户界面(图形用户界面(GUI))内使用注释工具。
在至少一个实施例中,用户1510可以经由计算设备1508与GUI交互,以编辑或微调注释或自动注释。在至少一个实施例中,多边形编辑特征可以用于将多边形的顶点移动到更精确或微调的位置。
在至少一个实施例中,一旦客户数据集1506具有相关联的地面实况数据,则地面实况数据(例如,来自AI辅助注释、手动标记等)可以在模型训练1314期间用于生成精炼模型1512。在至少一个实施例中,客户数据集1506可以被应用到初始模型1504任意次数,并且地面实况数据可以用于更新初始模型1504的参数,直到对于精炼模型1512达到可接受的精确性水平为止。在至少一个实施例中,一旦生成精炼模型1512,就可以在设施处的一个或更多个部署管线1410内部署精炼模型1512,以用于执行关于医学成像数据的一个或更多个处理任务。
在至少一个实施例中,可以将精炼模型1512上传到模型注册表1324中的预训练的模型1406,以由另一个设施选择。在至少一个实施例中,他的过程可以在任意数量的设施处完成,使得可以在新数据集上对精炼模型1512进一步精炼任意次数,以生成更通用的模型。
图15B是根据至少一个实施例的用于利用预训练的注释模型来增强注释工具的客户端-服务器架构1532的示例图示。在至少一个实施例中,可以基于客户端-服务器架构1532来实例化AI辅助注释工具1536。在至少一个实施例中,成像应用程序中的注释工具1536可以帮助放光线医生,例如识别器官和异常。在至少一个实施例中,成像应用程序可以包括软件工具,作为非限制性示例,所述软件工具帮助用户1510识别原始图像1534中(例如,在3DMRI或CT扫描中)的特定感兴趣器官上的几个极值点,并接收特定器官的所有2D切片的自动注释结果。在至少一个实施例中,结果可以作为训练数据1538存储在数据存储中,并且用作(例如但不限于)用于训练的地面实况数据。在至少一个实施例中,当计算设备1508发送用于AI辅助注释1310的极值点时,例如,深度学习模型可以接收该数据作为输入并返回分割器官或异常的推理结果。在至少一个实施例中,预实例化的注释工具(例如图15B中的AI辅助注释工具1536B)可以通过对服务器(诸如注释助手服务器1540)进行API调用(例如API调用1544)来增强,注释助手服务器1540可包括存储在例如注释模型注册表中的一组预训练的模型1542。在至少一个实施例中,注释模型注册表可以存储预训练的模型1542(例如,机器学习模型,诸如深度学习模型),其被预训练以对特定器官或异常执行AI辅助注释。在至少一个实施例中,可以通过使用训练管线1404来进一步更新这些模型。在至少一个实施例中,随着添加新标记的临床数据1312,可以随时间改进预安装的注释工具。
此类组件可用于进一步训练针对待执行的预期类型的推理的预训练的模型。为了获得对该预期类型的推理保持高准确度的较小模型,可以对这些预训练的模型进行进一步训练和修剪。
其他变型在本公开的精神内。因此,尽管公开的技术易于进行各种修改和替代构造,但是某些示出的其实施例在附图中示出并且已经在上面进行了详细描述。然而,应理解,无意将公开内容限制为所公开的一种或更多种特定形式,而是相反,其意图是涵盖落入如所附权利要求书所定义的本公开内容的精神和范围内的所有修改、替代构造和等同物。
除非另有说明或显然与上下文矛盾,否则在描述所公开的实施例的上下文中(特别是在所附权利要求的上下文中),术语“一”和“一个”和“该”以及类似指代的使用应被解释为涵盖单数和复数,而不是作为术语的定义。除非另有说明,否则术语“包括”、“具有”、“包含”和“含有”应被解释为开放式术语(意味着“包括但不限于”)。术语“连接”(在未经修改时指的是物理连接)应解释为部分或全部包含在内、附接到或连接在一起,即使有某些介入。除非本文另外指出,否则本文中对数值范围的引用仅旨在用作分别指代落入该范围内的每个单独值的简写方法,并且每个单独值都被并入说明书中,就如同其在本文中被单独叙述一样。除非另外指出或与上下文矛盾,否则术语“集”(例如“项目集”)或“子集”的使用应解释为包括一个或更多个成员的非空集合。此外,除非另外指出或与上下文矛盾,否则术语相对应集的“子集”不一定表示对应集的适当子集,而是子集和对应集可以相等。
除非以其他方式明确指出或与上下文明显矛盾,否则诸如“A,B和C中的至少一个”或“A,B与C中的至少一个”形式的短语之类的连接语在上下文中理解为通常用于表示项目、条款等,其可以是A或B或C,也可以是A和B和C集的任何非空子集。例如,在具有三个成员的集的说明性示例中,连接短语“A,B和C中的至少一个”和“A,B与C中的至少一个”是指以下任意集:{A},{B},{C},{A,B},{A,C},{B,C},{A,B,C}。因此,这种连接语言通常不旨在暗示某些实施例要求存在A中的至少一个,B中的至少一个和C中的至少一个。另外,除非另有说明或与上下文矛盾,否则术语“多个”表示复数的状态(例如,“多个项目”表示多个项目)。多个项目中项目的数量至少为两个,但如果明确指示或通过上下文指示,则可以更多。此外,除非另有说明或从上下文中可以清楚得知,否则短语“基于”是指“至少部分基于”而不是“仅基于”。
除非本文另外指出或与上下文明显矛盾,否则本文描述的过程的操作可以任何合适的顺序执行。在至少一个实施例中,诸如本文所述的那些过程(或其变形和/或其组合)之类的过程在配置有可执行指令的一个或更多个计算机系统的控制下执行,并且被实现为代码(例如,可执行指令,一个或更多个计算机程序或一个或更多个应用程序),该代码通过硬件或其组合在一个或更多个处理器上共同执行。在至少一个实施例中,代码以例如计算机程序的形式存储在计算机可读存储介质上,该计算机程序包括可由一个或更多个处理器执行的多个指令。在至少一个实施例中,计算机可读存储介质是非暂时性计算机可读存储介质,其排除了暂时性信号(例如,传播的瞬态电或电磁传输),但包括非暂时性数据存储电路(例如,缓冲区、高速缓存和队列)。在至少一个实施例中,代码(例如,可执行代码或源代码)被存储在其上存储有可执行指令的一组一个或更多个非暂时性计算机可读存储介质(或用于存储可执行指令的其他存储器)上,该可执行指令在由计算机系统的一个或更多个处理器执行时(即,作为被执行的结果),使得计算机系统执行本文所述的操作。在至少一个实施例中,一组非暂时性计算机可读存储介质包括多个非暂时性计算机可读存储介质,并且多个非暂时性计算机可读存储介质中的个体非暂时性存储介质中的一个或更多个缺少全部代码,而是多个非暂时性计算机可读存储介质共同存储全部代码。在至少一个实施例中,可执行指令被执行,以使得不同的指令由不同的处理器执行,例如,非暂时性计算机可读存储介质存储指令,并且主中央处理单元(“CPU”)执行一些指令,而图形处理单元(“GPU”)执行其他指令。在至少一个实施例中,计算机系统的不同组件具有单独的处理器,并且不同的处理器执行指令的不同子集。
因此,在至少一个实施例中,计算机系统被配置为实现单独地或共同地执行本文所述的过程的操作的一个或更多个服务,并且这样的计算机系统被配置有使能实施操作的适用的硬件和/或软件。此外,实现本公开的至少一个实施例的计算机系统是单个设备,并且在另一实施例中是分布式计算机系统,其包括以不同方式操作的多个设备,使得分布式计算机系统执行本文所述的操作,并且使得单个设备不执行所有操作。
本文提供的任何和所有示例或示例性语言(例如,“诸如”)的使用仅旨在更好地阐明本公开的实施例,并且不对公开的范围构成限制,除非另有要求。说明书中的任何语言都不应被解释为表示任何未要求保护的要素对于实践公开内容是必不可少的。
本文引用的所有参考文献,包括出版物、专利申请和专利,均通过引用并入本文,其程度就如同每个参考文献被单独且具体地指示为以引用的方式并入本文并且其全部内容在本文中阐述一样。
在说明书和权利要求中,可以使用术语“耦合”和“连接”以及它们的派生词。应当理解,这些术语可能不旨在作为彼此的同义词。相反,在特定示例中,“连接”或“耦合”可用于指示两个或更多个元件彼此直接或间接物理或电接触。“耦合”也可能意味着两个或更多个元素彼此不直接接触,但仍彼此协作或交互。
除非另有明确说明,否则可以理解,在整个说明书中,诸如“处理”、“计算”、“计算”、“确定”等之类的术语,是指计算机或计算系统或类似的电子计算设备的动作和/或过程,其将计算系统的寄存器和/或存储器中表示为物理量(例如电子)的数据处理和/或转换为类似表示为计算系统的存储器、寄存器或其他此类信息存储、传输或显示设备中的物理量的其他数据。
以类似的方式,术语“处理器”可以指处理来自寄存器和/或存储器的电子数据并将该电子数据转换成可以存储在寄存器和/或存储器中的其他电子数据的任何设备或存储器的一部分。作为非限制性示例,“处理器”可以是CPU或GPU。“计算平台”可以包括一个或更多个处理器。如本文所使用的,“软件”进程可以包括例如随时间执行工作的软件和/或硬件实体,诸如任务、线程和智能代理。同样,每个过程可以指代多个过程,以连续地或间歇地顺序地或并行地执行指令。术语“系统”和“方法”在本文中可以互换使用,只要系统可以体现一种或更多种方法,并且方法可以被认为是系统。
在本文件中,可以参考获得、获取、接收或将模拟或数字数据输入子系统、计算机系统或计算机实现的机器中。可以通过多种方式来获得、获取、接收或输入模拟和数字数据,例如通过接收作为函数调用或对应用程序编程接口的调用的参数的数据。在一些实现方式中,可以通过经由串行或并行接口传输数据来完成获得、获取、接收或输入模拟或数字数据的过程。在另一实现方式中,可以通过经由计算机网络将数据从提供实体传输到获取实体来完成获得、获取、接收或输入模拟或数字数据的过程。也可以参考提供、输出、传送、发送或呈现模拟或数字数据。在各种示例中,提供、输出、传送、发送或呈现模拟或数字数据的过程可以通过将数据作为函数调用的输入或输出参数、应用程序编程接口或进程间通信机制的参数进行传输来实现。
尽管上面的讨论阐述了所描述的技术的示例实现,但是其他架构可以用于实现所描述的功能,并且旨在落入本公开的范围内。此外,尽管出于讨论的目的在上面定义了具体的职责分配,但是根据情况,可以以不同的方式分配和划分各种功能和职责。
此外,尽管已经用特定于结构特征和/或方法动作的语言描述了主题,但是应当理解,所附权利要求书所要求保护的主题不必限于所描述的特定特征或动作。而是,公开了特定的特征和动作作为实现权利要求的示例性形式。
Claims (20)
1.一种计算机实现的方法,包括:
响应于请求,提供被预训练以执行一种类型的推理的机器学习模型;
使用附加训练数据对所述机器学习模型执行附加训练;
在所述附加训练之后,对选择的机器学习模型进行修剪;
确定所述选择的机器学习模型在修剪之后满足规定的准确性标准;以及
导出经训练的机器学习模型用于在执行所述类型的推理中使用。
2.如权利要求1所述的计算机实现的方法,进一步包括:
对所述修剪之后的所述选择的机器学习模型进行再训练以提高修剪后的机器学习模型的准确性。
3.如权利要求1所述的计算机实现的方法,其中所述附加训练利用训练数据训练所述选择的机器学习模型用于推理除了用于预训练所述机器学习模型的之外的至少一个附加分类。
4.如权利要求1所述的计算机实现的方法,其中所述类型的推理包括分类、对象检测、图像分割或医学图像诊断中的至少一个。
5.如权利要求1所述的计算机实现的方法,进一步包括:
在导出所述经训练的机器学习模型用于在执行所述类型的推理中使用之前,对所述经训练的机器学习模型进行加密。
6.如权利要求1所述的计算机实现的方法,进一步包括:
在所述导出之前,针对特定硬件优化所述经训练的机器学习模型,所述特定硬件包括一个或更多个图形处理单元、一个或更多个中央处理单元、或者它们的组合。
7.如权利要求1所述的计算机实现的方法,进一步包括:
在执行所述机器学习模型的所述附加训练之前,对所述附加训练数据执行增强,所述增强通过调整取向、颜色、分辨率或噪声中的至少一个来增加附加训练数据的量。
8.如权利要求1所述的计算机实现的方法,进一步包括:
提供工具包,所述工具包至少包括公共接口以及用于执行模型训练、模型修剪、数据增强和模型导出中的至少一个的一个或更多个模块。
9.如权利要求1所述的计算机实现的方法,其中所述工具包在软件容器中提供,用于在目标计算设备上执行。
10.一种用于执行迁移学习的系统,包括:
至少一个处理器;以及
存储器,包括指令,所述指令在由所述至少一个处理器执行时,导致所述系统:
从用于两种或更多种不同类型的推理的一组预训练的模型中选择针对一种类型的推理预训练的机器学习模型;
使用用于所述类型的推理的附加训练数据,对选择的机器学习模型执行附加训练;
在所述附加训练之后,对所述选择的机器学习模型进行修剪;
使用所述附加训练数据对所述修剪后的机器学习模型进行再训练;
确定所述修剪后的机器学习模型满足至少一个性能标准;以及
提供用于所述类型的推理的所述修剪后的机器学习模型。
11.如权利要求10所述的系统,其中所述附加训练利用用于针对除了用于预训练所述选择的机器学习模型的之外的所述类型的推理的至少一个附加分类的训练数据。
12.如权利要求10所述的系统,其中所述指令在被执行时进一步导致所述系统:
只要所述修剪后的模型继续满足所述至少一个性能标准,就迭代修剪和再训练所述选择的机器学习模型。
13.如权利要求10所述的系统,其中所述指令在被执行时进一步导致所述系统:
在执行所述附加训练之前,增强所述附加训练数据。
14.如权利要求10所述的系统,其中所述指令在被执行时进一步导致所述系统:
在选择所述机器学习模型之前,评估所述一组预训练的模型中的两个或更多个在所述附加训练数据的至少子集上的性能。
15.如权利要求10所述的系统,其中所述指令在被执行时进一步导致所述系统:
提供工具包,所述工具包至少包括公共接口以及用于执行模型训练、模型修剪、数据增强和模型导出中的至少一个的一个或更多个模块,其中所述工具包在软件容器中提供,用于在目标计算设备上执行。
16.一种方法,包括:
通过接口接收对预训练的模型执行至少一种类型的推理的请求;
响应于所述请求,提供至少一个预训练的模型;以及
提供附加训练数据,以使得使用用于所述至少一种类型的推理的所述附加训练数据对所述至少一个预训练的模型进行附加训练。
17.如权利要求16所述的方法,进一步包括:
在执行所述附加训练之后,对每个机器学习模型进行修剪;以及
使用所述附加训练数据再训练修剪后的机器学习模型。
18.如权利要求16所述的方法,进一步包括:
提供工具包,所述工具包至少包括公共接口以及用于执行模型训练、模型修剪、数据增强和模型导出中的至少一个的一个或更多个模块,其中所述工具包在软件容器中提供,用于在目标计算设备上执行。
19.如权利要求16所述的方法,进一步包括:
至少部分地基于要执行的所述至少一种类型的推理,从一组预训练的模型中选择所述至少一个预训练的模型。
20.如权利要求16所述的方法,进一步包括:
在对所述机器学习模型执行附加训练之前,对所述附加训练数据执行增强,所述增强通过调整取向、颜色、分辨率或噪声中的至少一个来增加附加训练数据的量。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962906054P | 2019-09-25 | 2019-09-25 | |
US62/906,054 | 2019-09-25 | ||
US17/029,725 US20210089921A1 (en) | 2019-09-25 | 2020-09-23 | Transfer learning for neural networks |
US17/029,725 | 2020-09-23 | ||
PCT/US2020/052464 WO2021061962A1 (en) | 2019-09-25 | 2020-09-24 | Transfer learning for neural networks |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114365156A true CN114365156A (zh) | 2022-04-15 |
Family
ID=74880981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080063262.6A Pending CN114365156A (zh) | 2019-09-25 | 2020-09-24 | 用于神经网络的迁移学习 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210089921A1 (zh) |
CN (1) | CN114365156A (zh) |
DE (1) | DE112020003547T5 (zh) |
WO (1) | WO2021061962A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11657921B2 (en) | 2019-09-18 | 2023-05-23 | Tempus Labs, Inc. | Artificial intelligence based cardiac event predictor systems and methods |
US11663494B2 (en) | 2019-12-05 | 2023-05-30 | Uchicago Argonne, Llc | Systems and methods for hierarchical multi-objective optimization |
US11676161B2 (en) * | 2020-02-25 | 2023-06-13 | Nec Corporation | Combined light and heavy models for image filtering |
US11651839B2 (en) | 2020-03-02 | 2023-05-16 | Uchicago Argonne, Llc | Systems and methods for generating phase diagrams for metastable material states |
US11710038B2 (en) * | 2020-04-13 | 2023-07-25 | Uchicago Argonne, Llc | Systems and methods for active learning from sparse training data |
US20220092407A1 (en) * | 2020-09-23 | 2022-03-24 | International Business Machines Corporation | Transfer learning with machine learning systems |
WO2022205685A1 (zh) * | 2021-03-29 | 2022-10-06 | 泉州装备制造研究所 | 一种基于轻量化网络的交通标志识别方法 |
US20220382723A1 (en) * | 2021-05-26 | 2022-12-01 | Vmware, Inc. | System and method for deduplicating data using a machine learning model trained based on transfer learning |
US11869668B2 (en) | 2021-05-28 | 2024-01-09 | Tempus Labs, Inc. | Artificial intelligence based cardiac event predictor systems and methods |
WO2022253774A1 (en) * | 2021-05-31 | 2022-12-08 | B-Rayz Ag | Method for improving the performance of medical image analysis by an artificial intelligence and a related system |
EP4371044A1 (en) * | 2021-07-12 | 2024-05-22 | Eaton Intelligent Power Limited | Transfer learning method for a machine learning system |
US11887314B2 (en) * | 2021-11-08 | 2024-01-30 | SmartThings, Inc. | Compressed domain motion detection |
CN114116051B (zh) * | 2021-11-17 | 2024-03-22 | 招联消费金融股份有限公司 | 基于神经网络模型的处理方法、装置、设备和存储介质 |
CN117716674A (zh) * | 2021-12-13 | 2024-03-15 | 英特尔公司 | 用于ai-ml模型训练的基于网络资源模型的解决方案 |
WO2024012654A1 (en) * | 2022-07-11 | 2024-01-18 | Huawei Cloud Computing Technologies Co., Ltd. | Performant collaborative transfer learning between cloud storage and cloud compute |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7356168B2 (en) * | 2004-04-23 | 2008-04-08 | Hitachi, Ltd. | Biometric verification system and method utilizing a data classifier and fusion model |
US8521664B1 (en) * | 2010-05-14 | 2013-08-27 | Google Inc. | Predictive analytical model matching |
WO2015188275A1 (en) * | 2014-06-10 | 2015-12-17 | Sightline Innovation Inc. | System and method for network based application development and implementation |
US10878320B2 (en) * | 2015-07-22 | 2020-12-29 | Qualcomm Incorporated | Transfer learning in neural networks |
US11315018B2 (en) * | 2016-10-21 | 2022-04-26 | Nvidia Corporation | Systems and methods for pruning neural networks for resource efficient inference |
US10157045B2 (en) * | 2016-11-17 | 2018-12-18 | The Mathworks, Inc. | Systems and methods for automatically generating code for deep learning systems |
EP3602414A1 (en) * | 2017-05-20 | 2020-02-05 | Google LLC | Application development platform and software development kits that provide comprehensive machine learning services |
US11200495B2 (en) * | 2017-09-08 | 2021-12-14 | Vivante Corporation | Pruning and retraining method for a convolution neural network |
US10831519B2 (en) * | 2017-11-22 | 2020-11-10 | Amazon Technologies, Inc. | Packaging and deploying algorithms for flexible machine learning |
CA3033014A1 (en) * | 2018-02-07 | 2019-08-07 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
-
2020
- 2020-09-23 US US17/029,725 patent/US20210089921A1/en active Pending
- 2020-09-24 WO PCT/US2020/052464 patent/WO2021061962A1/en active Application Filing
- 2020-09-24 CN CN202080063262.6A patent/CN114365156A/zh active Pending
- 2020-09-24 DE DE112020003547.6T patent/DE112020003547T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021061962A1 (en) | 2021-04-01 |
DE112020003547T5 (de) | 2022-04-14 |
US20210089921A1 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210089921A1 (en) | Transfer learning for neural networks | |
CN112685069B (zh) | 用于机器学习模型的实时更新的方法和系统 | |
US11816790B2 (en) | Unsupervised learning of scene structure for synthetic data generation | |
US20220147743A1 (en) | Scalable semantic image retrieval with deep template matching | |
US11494976B2 (en) | Neural rendering for inverse graphics generation | |
US11995883B2 (en) | Scene graph generation for unlabeled data | |
US11989262B2 (en) | Unsupervised domain adaptation with neural networks | |
US20220230376A1 (en) | Motion prediction using one or more neural networks | |
US11335056B1 (en) | Real-time rendering with implicit shapes | |
US20230326124A1 (en) | Adaptive temporal image filtering for rendering realistic illumination | |
US20230385983A1 (en) | Identifying application buffers for post-processing and re-use in secondary applications | |
CN115376035A (zh) | 用于流式内容的实时增强 | |
CN116206042A (zh) | 空间哈希一致采样 | |
US11546568B1 (en) | View synthesis for dynamic scenes | |
US20240005604A1 (en) | Synthesizing three-dimensional shapes using latent diffusion models in content generation systems and applications | |
US20230377099A1 (en) | Synthesizing content using diffusion models in content generation systems and applications | |
US20230274492A1 (en) | Texture transfer and synthesis using aligned maps in image generation systems and applications | |
CN116664807A (zh) | 在图像生成系统和应用中使用对齐贴图的纹理转移和合成 | |
US20220391667A1 (en) | Processing ultrahyperbolic representations using neural networks | |
US11972281B2 (en) | Just in time compilation using link time optimization | |
US20230325988A1 (en) | Spatiotemporal filtering for light transport simulation systems and applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |