CN117093193A - 代码生成技术 - Google Patents
代码生成技术 Download PDFInfo
- Publication number
- CN117093193A CN117093193A CN202310565404.4A CN202310565404A CN117093193A CN 117093193 A CN117093193 A CN 117093193A CN 202310565404 A CN202310565404 A CN 202310565404A CN 117093193 A CN117093193 A CN 117093193A
- Authority
- CN
- China
- Prior art keywords
- code
- portions
- network
- combined
- program code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 167
- 230000006870 function Effects 0.000 claims description 273
- 238000003860 storage Methods 0.000 claims description 76
- 238000013519 translation Methods 0.000 claims description 5
- 230000015654 memory Effects 0.000 description 216
- 238000012545 processing Methods 0.000 description 211
- 230000008569 process Effects 0.000 description 87
- 238000004891 communication Methods 0.000 description 80
- 238000007726 management method Methods 0.000 description 74
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 65
- 238000012549 training Methods 0.000 description 51
- 238000013528 artificial neural network Methods 0.000 description 38
- 238000007667 floating Methods 0.000 description 31
- 230000005540 biological transmission Effects 0.000 description 28
- 238000005192 partition Methods 0.000 description 21
- 238000005457 optimization Methods 0.000 description 17
- 230000002093 peripheral effect Effects 0.000 description 17
- 238000013500 data storage Methods 0.000 description 16
- 238000012546 transfer Methods 0.000 description 16
- 230000001133 acceleration Effects 0.000 description 14
- 239000008186 active pharmaceutical agent Substances 0.000 description 13
- 230000008520 organization Effects 0.000 description 13
- 230000011664 signaling Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 239000011800 void material Substances 0.000 description 11
- 230000004913 activation Effects 0.000 description 10
- 238000001994 activation Methods 0.000 description 10
- 239000000872 buffer Substances 0.000 description 10
- 210000004027 cell Anatomy 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 9
- 238000013507 mapping Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000012384 transportation and delivery Methods 0.000 description 7
- 238000003491 array Methods 0.000 description 6
- 238000013475 authorization Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000012634 fragment Substances 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000006855 networking Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 239000004744 fabric Substances 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 238000013468 resource allocation Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 239000000835 fiber Substances 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000010949 copper Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 241000700605 Viruses Species 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000012884 algebraic function Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000001816 cooling Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000011068 loading method Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000007620 mathematical function Methods 0.000 description 2
- OOXMVRVXLWBJKF-DUXPYHPUSA-N n-[3-[(e)-2-(5-nitrofuran-2-yl)ethenyl]-1,2,4-oxadiazol-5-yl]acetamide Chemical compound O1C(NC(=O)C)=NC(\C=C\C=2OC(=CC=2)[N+]([O-])=O)=N1 OOXMVRVXLWBJKF-DUXPYHPUSA-N 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- FWBHETKCLVMNFS-UHFFFAOYSA-N 4',6-Diamino-2-phenylindol Chemical compound C1=CC(C(=N)N)=CC=C1C1=CC2=CC=C(C(N)=N)C=C2N1 FWBHETKCLVMNFS-UHFFFAOYSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 101000740523 Homo sapiens Syntenin-1 Proteins 0.000 description 1
- 101100202275 Mus musculus Slc22a8 gene Proteins 0.000 description 1
- 101150119040 Nsmf gene Proteins 0.000 description 1
- 102100037219 Syntenin-1 Human genes 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004873 anchoring Methods 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000000779 depleting effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013341 scale-up Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/37—Compiler construction; Parser generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45504—Abstract machines for programme code execution, e.g. Java virtual machine [JVM], interpreters, emulators
- G06F9/45516—Runtime code conversion or optimisation
- G06F9/4552—Involving translation to a different instruction set architecture, e.g. just-in-time translation in a JVM
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/42—Syntactic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/44—Encoding
- G06F8/447—Target code generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44521—Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
公开了代码生成技术,具体公开了用于优化处理器性能的装置、系统和技术。在至少一个实施例中,一种方法至少部分地基于存储两部分代码是否被链接的指示来优化链接代码。
Description
相关申请的交叉引用
本申请出于所有目的通过引用并入与本文同时提交的题为“用于修改代码的应用程序编程接口(APPLICATION PROGRAMMING INTERFACE TO MODIFY CODE)”的共同未决的美国专利申请No.17/749,936的全部公开内容。
技术领域
至少一个实施例涉及用于执行一个或更多个程序的处理资源。例如,至少一个实施例涉及被配置为存储代码的两个部分是否已被组合的指示的处理器。
背景技术
编译器有时会翻译组合代码,即使该组合代码之前已经被翻译过。为组合代码重复翻译过程会浪费时间和计算资源。
附图说明
图1示出了根据至少一个实施例的用于生成优化代码的计算环境的示意图;
图2示出了根据至少一个实施例的用于使用引用信息处理代码的计算环境的示意图;
图3示出了根据至少一个实施例的表示访问高速缓存的链接器的框图;
图4示出了根据至少一个实施例的用于优化即时(just-in-time)链接操作的过程;
图5示出了根据至少一个实施例的用于利用高速缓存进行即时链接和即时编译操作的过程;
图6示出了根据至少一个实施例的分布式系统;
图7示出了根据至少一个实施例的示例性数据中心;
图8示出了根据至少一个实施例的客户端-服务器网络;
图9示出了根据至少一个实施例的计算机网络的示例;
图10A示出了根据至少一个实施例的联网计算机系统;
图10B示出了根据至少一个实施例的联网计算机系统;
图10C示出了根据至少一个实施例的联网计算机系统;
图11示出了根据至少一个实施例的系统环境的一个或更多个组件,在该系统环境中,服务可被提供为第三方网络服务;
图12示出了根据至少一个实施例的云计算环境;
图13示出了根据至少一个实施例的由云计算环境提供的一组功能抽象层;
图14示出了根据至少一个实施例的芯片级的超级计算机;
图15示出了根据至少一个实施例的机架模块级的超级计算机;
图16示出了根据至少一个实施例的机架级的超级计算机;
图17示出了根据至少一个实施例的整个系统级的超级计算机;
图18A示出了根据至少一个实施例的推理和/或训练逻辑;
图18B示出了根据至少一个实施例的推理和/或训练逻辑;
图19示出了根据至少一个实施例的神经网络的训练和部署;
图20示出了根据至少一个实施例的网络系统的架构;
图21示出了根据至少一个实施例的网络系统的架构;
图22示出了根据至少一个实施例的控制平面协议栈;
图23示出了根据至少一个实施例的用户平面协议栈;
图24示出了根据至少一个实施例的核心网的组件;
图25示出了根据至少一个实施例的支持网络功能虚拟化(NFV)的系统的组件;
图26示出了根据至少一个实施例的处理系统;
图27示出了根据至少一个实施例的计算机系统;
图28示出了根据至少一个实施例的系统;
图29示出了根据至少一个实施例的示例性集成电路;
图30示出了根据至少一个实施例的计算系统;
图31示出了根据至少一个实施例的APU;
图32示出了根据至少一个实施例的CPU;
图33示出了根据至少一个实施例的示例性加速器集成切片;
图34A和图34B示出了根据至少一个实施例的示例性图形处理器;
图35A示出了根据至少一个实施例的图形核心;
图35B示出了根据至少一个实施例的GPGPU;
图36A示出了根据至少一个实施例的并行处理器;
图36B示出了根据至少一个实施例的处理集群;
图36C示出了根据至少一个实施例的图形多处理器;
图37示出了根据至少一个实施例的编程平台的软件栈;
图38示出了根据至少一个实施例的图37的软件栈的CUDA实现;
图39示出了根据至少一个实施例的图37的软件栈的ROCm实现;
图40示出了根据至少一个实施例的图37的软件栈的OpenCL实现方式;
图41示出了根据至少一个实施例的由编程平台支持的软件;以及
图42示出了根据至少一个实施例的用于在图37-40的编程平台上执行的编译代码。
具体实施方式
在以下描述中,阐述了许多具体细节,以提供对至少一个实施例的更透彻的理解。然而,对于本领域技术人员显而易见的是,可以在没有一个或更多个这些具体细节的情况下实践本发明的概念,并且本文描述的任何两个或更多个实施例可以被组合。
图1是示出根据至少一个实施例的用于生成优化代码的计算环境100的框图。在至少一个实施例中,结合图1描述的一个或更多个实施例的一个或更多个方面与本文描述的一个或更多个实施例(包括至少结合图1-5描述的实施例)的一个或更多个方面进行组合。在至少一个实施例中,计算环境100包括第一代码102、处理器103、第二代码104、处理器105、JIT链接器106、链接的代码107和引用信息108,如本文至少结合图1进一步描述的。在至少一个实施例中,计算环境100是包括两种或更多种类型的处理器的异构计算环境。
在至少一个实施例中,模块包括被配置为执行如所述功能的任何类型的逻辑(例如,软件、硬件、固件)和/或电路的任何组合。在至少一个实施例中,模块包括一个或更多个电路,这些电路构成更大系统(例如,集成电路(IC)、片上系统(SoC)、中央处理单元(CPU)、图形处理单元(GPU)、数据处理单元(DPU)等)的一部分。在至少一个实施例中,控制器包括被配置为执行如所述功能的任何类型的逻辑(例如,软件、硬件、固件)和/或电路的任何结合。在至少一个实施例中,软件包括软件包、代码、编程语言、驱动程序、指令、指令集或其某种组合。在至少一个实施例中,硬件包括硬接线电路、可编程电路、状态机电路、固定功能电路、执行单元电路、由可编程电路执行的具有存储的指令的固件,或其某种组合。
在至少一个实施例中,逻辑单元包括被配置为提供如本文进一步描述的任何功能的固件逻辑、硬件逻辑或其某种组合。在至少一个实施例中,逻辑单元包括构成更大系统(例如,IC、SoC、CPU、GPU、DPU)的一部分的电路。在至少一个实施例中,逻辑单元包括用于实现固件和/或硬件的逻辑电路。
在至少一个实施例中,引擎包括如本文进一步描述的模块和/或逻辑单元。在至少一个实施例中,组件包括如本文进一步描述的模块和/或逻辑单元。在至少一个实施例中,引擎包括被配置为提供如本文进一步描述的任何功能的软件逻辑、固件逻辑、硬件逻辑或其某种组合。在至少一个实施例中,组件包括被配置为提供如本文进一步描述的任何功能的软件逻辑、固件逻辑、硬件逻辑或其某种组合;例如,由硬件和/或固件执行的操作替代地可经由软件模块实现,该软件模块可体现为软件包、代码和/或指令集。在至少一个实施例中,逻辑单元还可以利用软件的一部分来实现其功能。
在至少一个实施例中,计算环境100包括第一代码102和第二代码104,它们是代码的两个部分,其中,代码的一部分可以表示代码的一节、代码的一段、代码的元素、包括代码的文件、包括代码的对象或其某种组合。在至少一个实施例中,代码包括编程语言中的指令。在至少一个实施例中,第一代码102和第二代码104表示一种类型的代码的两个不同部分;例如,第一代码102和第二代码104都可以用NVVM-IR(中间表示)代码编写,其中NVVM-IR代码至少部分地表示一个或更多个应用程序的一个或更多个部分,其中所述部分可以是内核,内核是在处理器(诸如GPU)上执行的函数(function)。在至少一个实施例中,第一代码102和第二代码104包括来自库的分离的内核块(piece),其中所述内核块用中间表示代码编写(例如,被编译为中间表示代码);例如,第一代码102和第二代码104可以包括被预先编译为NVVM-IR并包括在包含用于执行快速傅立叶变换(FFT)的函数的库(例如cuFFT库)中的分离的内核块。在至少一个实施例中,应用程序是被设计为执行特定任务而不是与操作计算机系统本身有关的任务的程序,例如深度学习、医学成像或视频转码应用程序。在至少一个实施例中,程序是由处理器执行的指令集。在至少一个实施例中,程序是可执行文件。在至少一个实施例中,包括在程序中的指令被称为程序代码。在至少一个实施例中,应用程序被替代地称为程序。在至少一个实施例中,中间表示代码包括由编译器或虚拟机用来表示来自一个或更多个源文件的源代码的代码,其中源代码包括要被编译和/或组装成可执行代码、文件、对象或其某种组合的函数。在至少一个实施例中,编译器是被配置为将以一种编程语言编写的代码翻译成以另一种语言编写的代码(通常作为允许以高级编程语言编写的应用程序在处理器上执行的过程的一部分)的硬件、固件、软件或其某种组合。在至少一个实施例中,第一代码102和第二代码104表示不同类型(例如,不同编程语言)的代码的两个不同部分;例如,第一代码102可以是主机代码,第二代码104可以是设备代码,这在本文中至少结合图1作进一步描述。在至少一个实施例中,第一代码102和第二代码104是NVVM-IR文件,其作为即时(JIT)编译过程和/或即时链接过程(它们是在应用程序运行时执行的编译和链接操作)的一部分被链接,其中所述JIT操作在本文中至少结合图1进一步描述。在至少一个实施例中,作为将合并代码翻译成另一种类型的代码的过程的一部分,第一代码102和第二代码104由JIT链接器106链接以生成所述合并代码,所述另一种类型的代码例如并行线程执行(PTX或NVPTX)代码,其文件的扩展名为.ptx。在至少一个实施例中,PTX代码是在用于并行计算的低级虚拟计算架构中使用的代码,是一种类型的汇编代码。在至少一个实施例中,第一代码102和/或第二代码104包括由用户(例如,程序员)提供的代码。在至少一个实施例中,第一代码102和/或第二代码104包含由库(例如,来自的cuFFT、cuSPARSE、cuTENSOR库)提供的函数的代码。在至少一个实施例中,第一代码102和/或第二代码104包括高级编程语言(例如Python、Java、C++)和/或源代码(例如,包括要被编译和/或组装成可执行代码、文件、对象或其某种组合的函数的代码)的中间表示。在至少一个实施例中,第一代码102和/或第二代码104包括可执行指令的中间表示,这些可执行指令由目标指令集架构(ISA)(例如x86)支持。在至少一个实施例中,第一代码102和/或第二代码104包括函数调用、函数或其某种组合的一个或更多个部分。在至少一个实施例中,第一代码102和/或第二代码104包括内核的一个或更多个部分。
在至少一个实施例中,第一代码102和第二代码104包括一个或更多个代码元素,如图1所示,其中第一代码102和第二代码104都包括对函数a、b和c的引用;以及变量z,其为代码元素的示例。在至少一个实施例中,如图1所示,第二代码104包括对函数e和f的引用,以及变量q,代码元素在第一代码102中没有被引用。在至少一个实施例中,函数f是全局函数,变量q是全局变量。在至少一个实施例中,全局变量是存储在处理器(诸如处理器103)的存储器中的变量,其中所述全局变量可由正在所述处理器上执行的所有函数直接访问。在至少一个实施例中,程序(例如,将由处理器执行的指令集)包括第一代码102中的一个全局函数和第二代码104中的另一个全局函数;例如,程序可以包括第一代码102中的全局函数“a”和第二代码104中的全局函数“e”,这意味着第一代码102引用全局函数a,而第二代码104不引用全局函数a,而是引用全局函数e。
在至少一个实施例中,处理器103被配置为执行与JIT编译和/或JIT链接相关的一个或更多个操作。在至少一个实施例中,JIT编译包括通过将包括在代码(例如,第一代码102和/或第二代码104)中的每个引用翻译成相对地址来解析引用的操作,该相对地址包括指示所述引用相对于所述代码的开始可以位于何处的偏移值。在至少一个实施例中,在代码中发现的引用包括变量名、函数名、函数的入口点,或其某种组合。在至少一个实施例中,处理器103在运行时执行一个或更多个JIT编译操作,运行时是应用程序和/或程序的执行期间。在至少一个实施例中,JIT链接操作包括分析第一代码102和第二代码102的外部(未解析的)引用,外部引用包括在所述引用出现的代码中未定义、因此在JIT编译期间不能解析的引用(例如,变量名、函数入口点、函数调用)。在至少一个实施例中,JIT编译操作包括被执行以减少编译时间和/或计算资源的使用的优化操作。在至少一个实施例中,优化操作包括内联(inlining),其中,函数调用及其相关操作被替换为执行函数的指令。在至少一个实施例中,优化操作包括修剪,其中死代码(例如,未使用的代码、不可到达的代码)被删除(移除)。在至少一个实施例中,处理器103在运行时执行一个或更多个JIT链接操作。在至少一个实施例中,JIT链接操作包括定位外部引用;例如,针对对在第一代码102中定义的特定函数的调用(例如,函数调用),一个或更多个JIT操作可以在第二代码104中定位所述函数,并将所述函数的入口点的地址插入到在第一代码102中定义的所述调用中。在至少一个实施例中,一个或更多个JIT链接操作可以输出可执行文件和/或模块(例如,程序)以供进一步处理。在至少一个实施例中,JIT链接操作包括优化操作(例如,链接时间优化(LTO)操作),例如修剪。在至少一个实施例中,优化JIT编译和/或JIT链接被称为即时链接时间优化(JIT LTO)。在至少一个实施例中,两个或更多个处理器,诸如处理器103和处理器105,被配置为将第一代码102和第二代码104进行组合、分离、单独处理、一起处理或其某种组合。
在至少一个实施例中,处理器103与一个或更多个其他处理器(未示出)通信地连接。在至少一个实施例中,处理器103与处理器105通信地连接,本文至少结合图1作进一步描述。在至少一个实施例中,处理器104和105中的一个或更多个可以是单核处理器、多核处理器、图形处理器、并行处理器或通用处理器、或其某种组合。在至少一个实施例中,除了处理器103和105之外的一个或更多个处理器(未示出)与处理器103和105中的一个或更多个通信地连接。在至少一个实施例中,处理器103发送链接的代码107以供进一步处理(未示出),例如额外的编译和/或链接,以生成可由处理器105执行的代码。
在至少一个实施例中,一个或更多个处理器103和105是数据处理单元(DPU)、包括一种或更多种类型的处理器(例如,加速处理单元(APU)、中央处理单元(CPU)、图形处理单元(GPU)、或其某种组合)的多组件设备的元件。在至少一个实施例中,一个或更多个处理器103和105包括通过高速缓存一致性互连连接的两个或更多个设备。在至少一个实施例中,处理器103和105中的一个或更多个是集成电路。在至少一个实施例中,处理器103和105中的一个或更多个位于企业内部、云中或其某种组合。在至少一个实施例中,处理器103和105中的一个或更多个是数据中心的元件,例如本文所述的数据中心700。
在至少一个实施例中,处理器103和105中的一个或更多个是数据处理单元(DPU)。在至少一个实施例中,处理器103和105中的一个或更多个是一种类型的XPU,例如,包括CPU、GPU、现场可编程门阵列(FPGA)、视觉处理单元(VPU)、数字信号处理器(DSP)、张量处理单元(TPU)和专用集成电路(ASIC)、或其某种组合的专用处理器。在至少一个实施例中,处理器103和105中的一个或更多个是加速器,诸如专门的硬件电路,其被配置为相比于通用硬件以更高的性能或更高的能量效率执行某些操作,和/或被实现为具有相比于通用硬件以更高的性能或更高的能量效率执行某些操作的功能。在至少一个实施例中,处理器103和105中的一个或更多个是APU。在至少一个实施例中,处理器103和105中的一个或更多个是通用图形处理单元(GPGPU)。在至少一个实施例中,处理器103和105中的一个或更多个是并行处理单元(PPU)。在至少一个实施例中,处理器103和105中的一个或更多个是GPU。在至少一个实施例中,处理器103和105中的一个或更多个是虚拟CPU(vCPU)。
在至少一个实施例中,处理器103和105中的一个或更多个是x86处理器,x86处理器是支持x86指令集架构的处理器。在至少一个实施例中,处理器103和105中的一个或更多个是ARM处理器,ARM处理器是支持精简指令集计算机(RISC)指令集架构的处理器。在至少一个实施例中,处理器103和105中的一个或更多个在集群上运行,集群是联网在一起的独立计算机的集合。在至少一个实施例中,集群可以包括高性能计算(HPC)集群。在至少一个实施例中,处理器103和105中的一个或更多个与其他处理器(未示出)连接。在至少一个实施例中,处理器103和105中的一个或更多个是包括运行不同指令集架构的两个或更多个核心的处理器(例如,big.LittleTM处理器,包括P-核心和E-核心的第12代/>CoreTM处理器)。在至少一个实施例中,处理器103和105中的一个或更多个是包括两种或更多种不同类型的核心的处理器,例如通用核心和专门的核心,其被配置为执行矩阵操作、矢量操作、张量操作、密码操作或其某种组合。在至少一个实施例中,处理器103和105中的一个或更多个是使用异构处理架构的处理器,该异构处理架构使用两种或更多种类型的处理器。在至少一个实施例中,处理器103和105中的一个或更多个是包括两个或更多个不同大小的核心的处理器。
在至少一个实施例中,JIT链接器106是包括硬件、固件、软件或其某种组合的模块,其被配置为链接经编译的代码。在至少一个实施例中,处理器103被配置为向JIT链接器106提供代码。在至少一个实施例中,JIT链接器106被配置为执行优化的链接操作,如本文至少结合图1进一步描述的。在至少一个实施例中,JIT链接器106被配置为链接经编译的代码以生成链接的代码107,其有时被称为组合的代码和/或合并的代码。在至少一个实施例中,链接是将代码和/或数据的各个部分(例如,节、部分、元素、块(piece))收集和/或组合成单个文件的过程,该单个文件可以被加载(例如,复制)到存储器并执行(例如,执行)。在至少一个实施例中,链接的代码107包括被链接在一起例如以形成可执行代码的代码元素。在至少一个实施例中,由JIT链接器106执行的操作提供了处理代码的技术优势,因为它使第一代码102和第二代码104能够被分别编译,然后后来链接在一起,以作为可执行代码的单个文件来执行。在至少一个实施例中,处理器103将链接的代码107发送到设备处理器105。在至少一个实施例中,JIT链接器106可以使用来自第一代码102的引用信息108来删除或链接来自第二代码104的代码。
在至少一个实施例中,JIT链接器106使用引用信息108来链接在第一代码102和第二代码104中都被引用的代码元素。在至少一个实施例中,JIT链接器106被配置为链接函数a、b和c;链接变量z;以及生成链接的代码107。在至少一个实施例中,JIT链接器106使用引用信息108来修剪(移除、删除)第二代码104中未引用的代码元素。在至少一个实施例中,JIT链接器106被配置为修剪来自第二代码104的函数e和f以及变量q,并生成链接的代码107,因为所述函数和变量在第一代码102中未被引用,因此如果被链接,将成为死代码。在至少一个实施例中,用户可以激活优化模式或停用优化模式,其中,优化模式使用引用信息来修改设备代码。在至少一个实施例中,设备代码包括将由设备(诸如GPU)执行的一个或更多个函数。在至少一个实施例中,主机代码包括将由主机处理器(诸如CPU)执行的指令。在至少一个实施例中,用户可以修改设置(例如,选择加入或选择退出设置),以基于引用信息打开或关闭代码优化。在至少一个实施例中,用户输入引用信息,例如内核名称、变量名称、设备名称或其某种组合,以作为引用信息108存储在存储器中用于应用程序编程接口(API)。
在至少一个实施例中,处理器,例如处理器103和/或处理器105,执行API以确定引用信息,例如内核名称、变量名称、设备名称或其某种组合,以作为引用信息108存储在存储器中用于API,其中这种确定在本文中至少结合图2进一步描述。在至少一个实施例中,API包括选项,该选项可由用户(或应用程序)启用以将处理器103配置为向处理器105提供引用信息108。
在至少一个实施例中,用户通过经由API代码提供输入并如本文至少结合图2进一步描述的那样,来设置JIT链接器106以优化链接操作或不优化链接操作。在至少一个实施例中,未被启用以优化链接操作的JIT链接器链接第二代码104中的所有代码元素,并生成包括死代码的链接的代码107;例如,函数e和f以及变量q在第一代码102中未被引用,当JIT链接器106链接函数e和f以及变量q以生成链接的代码107时,所述链接的代码包括函数e和f以及变量q,它们被视为死代码,因为它们未被用于完成程序或操作。在至少一个实施例中,死代码减慢了处理速度或浪费了处理资源。在至少一个实施例中,死代码通过用未使用的代码和/或数据耗尽存储器空间来阻止代码的执行。
在至少一个实施例中,引用信息108包括代码元素是否在代码中被引用的指示(例如,通过调用、导入、使用、存储器读取、存储器写入、地址读取来识别),其中所述指示在本文中至少结合图2进一步描述。在至少一个实施例中,引用信息108包括代码元素是否应由链接器(诸如JIT链接器106)进行链接的指示,如本文至少结合图2进一步描述的。在至少一个实施例中,引用信息108包括多少个代码元素应由链接器(诸如JIT链接器106)进行链接的指示,如本文至少结合图2进一步描述的。在至少一个实施例中,引用信息108至少部分地基于用户通过应用程序编程接口(API)(例如,CUDA驱动器API、CUDA运行时API、OpenCL、OpenGL、TensorFlow、PyTorch、scikit-learn)中包含的代码输入内核和/或变量的名称,如本文至少结合图2进一步描述的。在至少一个实施例中,引用信息108被存储在存储器中以供API使用。在至少一个实施例中,引用信息108作为API函数使用的变量存储在存储器中,其中所述变量有时被称为枚举(enum)。在至少一个实施例中,引用信息108可以被嵌入到一节代码中,其中链接器(如JIT链接器106)可以读取或访问所述嵌入的代码以确定哪些代码元素在第一代码102中被引用。在至少一个实施例中,嵌入的一节代码包括已知的名称,以便链接器或由API使用的其他组件可以基于所述名称找到该节嵌入的代码。在至少一个实施例中,引用信息也被称为“一个或更多个数据指示”,因为引用信息可以是指示代码元素在代码中是否被引用的数据,其中所述一个或更多个数据指示可以是嵌入的代码、表格、存储器地址或其某种组合。
在至少一个实施例中,一个或更多个CUDA程序的第一代码102和/或设备代码104包括对快速傅里叶变换(FFT)库(例如,cuFFT)的引用,该FFT库包括用于计算FFT的函数。在至少一个实施例中,FFT库包括对全局函数的数百次引用,但在链接的代码中并非所有的所述函数都是执行设备代码以计算FFT所必需的。在至少一个实施例中,一个或更多个电路可以使用链接器,例如链接器106,以一旦所述链接器从API、主机处理器或其一些组合中接收到引用信息,则从设备代码中的FFT库中移除不必要的全局函数。
图2示出了根据至少一个实施例的表示用于使用引用信息处理主机代码和设备代码的计算环境的框图200。在至少一个实施例中,结合图2描述的一个或更多个实施例的一个或更多个方面与本文描述的一个或更多个实施例的一个或更多个方面进行组合,包括至少结合图1和图3-5描述的实施例。在至少一个实施例中,图200包括输入程序201、第一代码202、第二代码204、预处理器205a、预处理器205b、JIT链接器206、函数207、解析器210、引用生成器215、编译器220、设备代码编译器225和进一步处理235,所有这些在本文中至少结合图2进一步描述。在至少一个实施例中,输入程序201是可以分成第一代码202和第二代码204(例如,主机代码和设备代码)的输入程序,第一代码和第二代码在本文中至少结合图1进一步描述。在至少一个实施例中,第一代码是主机代码,第二代码是设备代码。在至少一个实施例中,第一代码202包括用于处理作为主机代码的代码的指令。在至少一个实施例中,第二代码204包括用于处理作为设备代码的代码的指令。在至少一个实施例中,硬件、固件、软件或其某种组合,例如驱动器API,分别处理第一代码202和第二代码204(例如,在两个不同的管线中同时地和/或顺序地);例如,处理器(诸如,如本文至少结合图1描述的处理器103)被配置为处理作为输入程序201的CUDA程序,其中所述处理是CUDA编译轨迹的一部分,并且其中所述CUDA程序包括设备代码中的设备函数和主机代码。在至少一个实施例中,处理器分别处理第一代码202和第二代码204,作为本文至少结合图1进一步描述的JIT编译轨迹的一部分。在至少一个实施例中,输入程序201是.cu文件,其为包含主机代码和设备函数的CUDA源文件。
在至少一个实施例中,由用户输入的引用信息与由编译器(例如,编译器220或设备编译器225)生成的引用信息进行组合,其中所述编译器在本文中至少结合图1-2进一步描述。在至少一个实施例中,生成引用信息的编译器被称为构建引用信息,并且通常被生成为调用图,其中调用图是一种类型的控制流图,其表示计算机程序中子例程之间的调用关系。在至少一个实施例中,子例程是执行特定任务的指令序列,通常被打包成一个单元。在至少一个实施例中,编译器(诸如,编译器220或设备代码编译器225)确定主机代码中的函数(函数A)调用设备代码中的另一个函数(函数B),其中函数A是内核。在至少一个实施例中,函数A被称为入口点。在至少一个实施例中,编译器不能确定用户是否已经或将要调用函数A,因为主机正在异构计算环境中调用设备,这在本文中至少结合图1进一步描述。在至少一个实施例中,如果函数B被函数A调用,这被称为函数B通过入口点A到达。在至少一个实施例中,用户通过作为JIT LTO过程的一部分向API提供输入来通知编译器函数A将被调用,如在本文中至少结合图1-2进一步描述的。在至少一个实施例中,如果用户输入信息或指示函数A未被调用,则编译器从主机代码中移除函数A。在至少一个实施例中,如果函数A未被用户调用,则编译器使用调用图来确定所述编译器可以从设备代码中移除函数B,除非函数B被函数A以外的函数调用。在至少一个实施例中,如果用户输入信息或指示函数A正在被调用,则编译器使用调用图来确定所述编译器可以保留函数A和B。在至少一个实施例中,当函数引用变量时,本文所述的一个或更多个实施例的一个或更多个方面适用于变量。
在至少一个实施例中,预处理器205a和205b处理输入程序201的第一代码202和第二代码204。在至少一个实施例中,预处理包括编译、翻译(例如,将代码从高级语言翻译到低级语言)或将代码转换为中间代码。在至少一个实施例中,预处理包括将高级编程语言编译成中间表示,诸如NVVM-IR,这在本文中至少结合图1进一步描述。在至少一个实施例中,代码的中间表示是二进制格式和/或基于位码格式。在至少一个实施例中,预处理器205a和205b是CUDA C编译器的前端编译器(例如,CUDA编译器(NVCC))。在至少一个实施例中,预处理器205b从设备代码中生成代码的两个或更多个中间表示(例如IR文件),例如两个NVVM-IR文件,这些中间表示需要进行链接以生成较低级别的代码,例如PTX代码,这在本文中至少结合图1进一步描述。在至少一个实施例中,代码被称为编程语言。在至少一个实施例中,代码的一个或更多个部分被预编译成中间表示代码,避免了预处理器205a或205b生成所述中间表示代码的需要。
在至少一个实施例中,JIT链接器206可以访问一个或更多个函数207及其指定的变量以获得引用信息,如本文至少结合图1进一步描述的。在至少一个实施例中,JIT链接器205被配置为链接基于设备代码的中间表示代码的两个部分。在至少一个实施例中,JIT链接器206包括用于JIT链接器206访问用作JIT编译过程的一部分的一个或更多个函数207的指令。在至少一个实施例中,JIT链接器206包括用于访问作为JIT链接时优化过程的一部分的一个或更多个函数207的指令。在至少一个实施例中,JIT链接器206实现作为生成可执行文件的过程的一部分的一个或更多个函数207。在至少一个实施例中,JIT链接器206检索与函数207相关联的数据,例如,JIT链接器206检索为一个或更多个函数207指定的枚举(例如,变量)。在至少一个实施例中,一个或更多个函数207是API函数。在至少一个实施例中,API(例如,CUDA驱动器API,CUDA运行时驱动器)包括一个或更多个函数207。
在至少一个实施例中,一个或更多个处理器,例如本文至少结合图1进一步描述的处理器103,执行一个或更多个函数207以存储引用信息,例如本文至少结合图1进一步描述的引用信息108;例如,处理器执行API函数(例如,CUDA驱动器API函数cuLinkCreate(unsigned int numOptions,CUjit_option*options,void**optionValues,CUlinkState*stateOut)),以存储与第一代码和第二代码(例如,两个NVVM-IR文件)的各部分相关的引用信息,这些部分应由JIT链接器206进行链接,如结合图1进一步描述的。在至少一个实施例中,API函数包括可由用户指定的多个枚举(enums)。在至少一个实施例中,用户(或应用程序)可以通过调用API函数来指定将由链接器链接的内核名称,其中所述内核名称被用作引用信息的基础。在至少一个实施例中,用户(或应用程序)指定在设备代码中定义的设备变量名称和常量变量名称,以便由链接器进行链接。在至少一个实施例中,用户(或应用程序)通过调用API函数来指定设备变量名称和常量变量名称,其中所述名称可用作引用信息的基础。在至少一个实施例中,用户(或应用程序)可以通过调用API函数移除所有未引用的常量变量和设备变量。在至少一个实施例中,用户识别(例如,经由API的代码输入信息)特定的内核、变量、设备或其某种组合,以由链接器(例如JIT链接器206)进行链接。
在至少一个实施例中,一个或更多个函数207的枚举,例如本文进一步描述的API函数,被称为选项值(optionValue)。在至少一个实施例中,本文描述的枚举被称为选项或JIT选项。在至少一个实施例中,API函数包括由名称表示的一个或更多个枚举,诸如:
CU_JIT_REFERENCED_KERNEL_NAMES,
CU_JIT_REFERENCED_KERNEL_COUNT,
CU_JIT_REFERENCED_VARIABLE_NAMES,
CU_JIT_REFERENCED_VARIABLE_COUNT,
CU_JIT_OPTIMIZE_UNUSED_DEVICE_VARIABLES.
在至少一个实施例中,对于CUDA驱动器API来说,通过使用诸如以下代码之类的代码,枚举被添加到枚举CUjit_option中,该枚举CUjit_option被包括在API函数CuresultcuLinkCreate中:
typedef enum CUjit_option_enum{
//...
//...
CU_JIT_REFERENCED_KERNEL_NAMES,
CU_JIT_REFERENCED_KERNEL_COUNT,
CU_JIT_REFERENCED_VARIABLE_NAMES,
CU_JIT_REFERENCED_VARIABLE_COUNT,
CU_JIT_OPTIMIZE_UNUSED_DEVICE_VARIABLES,
}CUjit_option;
在至少一个实施例中,处理器的一个或更多个电路执行来自函数207的API,该API包括枚举(例如,CU_JIT_REFERENCED_KERNEL_NAMES),该枚举指定内核名称的数组,该内核名称标识在链接时将被保留的内核,而其他内核可被移除。在至少一个实施例中,处理器的一个或更多个电路执行API,该API包括枚举,该枚举指定在链接时将被排除在链接之外的内核的内核名称的数组,而其他内核可被链接。在至少一个实施例中,API包括枚举,该枚举使用混杂的内核名称来指定哪些内核在链接时将被排除在链接之外。在至少一个实施例中,当编译器将函数和变量名称编码为独有名称时,发生名称混杂,以便链接器可以分离代码中包含的普通名称。
在至少一个实施例中,处理器的一个或更多个电路执行来自函数207的API,该API包括枚举(例如,CU_JIT_REFERENCED_KERNEL_COUNT),该枚举基于指定在链接时将保留的内核的内核名称的数组的枚举(例如,CU_JIT_REFERENCED_KERNEL_NAMES)来指定要链接的内核的数量。
在至少一个实施例中,处理器的一个或更多个电路执行来自函数207的API,该API包括枚举(例如CU_JIT_REFERENCED_VARIABLE_NAMES),该枚举指定设备变量名称和/或常量变量名称的数组,该设备变量名称和/或常量变量名称标识在链接时将保留的变量,而其他变量可以被移除。在至少一个实施例中,处理器的一个或更多个电路执行API,该API包括枚举,该枚举指定设备变量名称和/或常量变量名称的数组,该设备变量名称和/或常量变量名称标识在链接时将被排除在链接之外的变量,而其他变量可以被链接。在至少一个实施例中,API包括枚举,该枚举使用由编译器混合的变量名称来指定什么数据在链接时将被排除在链接之外。
在至少一个实施例中,处理器的一个或更多个电路执行来自函数207的API,该API包括枚举(例如,CU_JIT_REFERENCED_VARIABLE_COUNT),该枚举基于指定在链接时将保留的变量的变量名称的数组的枚举(例如,CU_JIT_REFERENCED_VARIABLE_NAMES)来指定要链接的变量的数目。
在至少一个实施例中,处理器的一个或更多个电路执行来自函数207的API,该API包括枚举(例如,CU_JIT_OPTIMIZE_UNUSED_DEVICE_VARIABLES),该枚举用作提示(用于编译器将代码卸载到另一个设备上的指令),该提示用于使JIT链接器和/或其关联的JIT编译器能够移除设备代码中未引用的常量变量和设备变量,其中JIT编译器是包括硬件、固件、软件或其一些组合的模块,其配置为执行JIT编译操作,诸如将组合的NVMM-IR代码编译为PTX代码。
在至少一个实施例中,处理器的一个或更多个电路执行来自函数207的API(例如,elfLink_Add_Referenced_Kernel()),以创建由代码(诸如,设备代码)引用的内核的列表,其中所述API针对由本文所述的一个或更多个枚举指定的每个内核被调用。在至少一个实施例中,由设备代码引用的内核的列表表示在链接时应保留的内核,其中所有其他内核可被移除。在至少一个实施例中,处理器的一个或更多个电路执行API以创建常量变量和/或设备变量的列表,常数变量和/或设备变量在代码(诸如设备代码)中被引用,其中所述API在代码中可由(_constant_和_device_)来表示。在至少一个实施例中,由代码引用的变量的列表表示在链接时应保留的关联变量,其中所有其他变量可被移除。在至少一个实施例中,处理器的一个或更多个电路执行API以移除设备代码中未引用的常量变量和/或设备变量。在至少一个实施例中,当用户指定诸如CU_JIT_OPTIMIZE_UNUSED_DEVICE_VARIABLES之类的枚举时,驱动器将调用API以使JIT编译器和/或JIT链接器优化(例如,移除)除了用诸如CU_JIT_REFERENCED_VARIABLE_NAMES之类的枚举指定的变量之外的未使用的常量变量和/或设备变量。
在至少一个实施例中,一个或更多个CUDA API函数包括只读参数(例如,CUjit_option*)的常数限定符(例如,应用于数据类型的关键字),其中API函数诸如:
cuLinkAddData(CUlinkState state,CUjitInputType type,void*data,size_tsize,const char*name,unsigned int numOptions,
CUjit_option*options,void**optionValues);
cuLinkAddFile(CUlinkState state,CUjitInputType type,const char*
path,unsigned int numOptions,CUjit_option*options,void**
optionValues);
cuLinkCreate(unsigned int numOptions,CUjit_option*options,
void**optionValues,CUlinkState*stateOut);以及
cuModuleLoadDataEx(CUmodule*module,const void*image,
unsigned int numOptions,CUjit_option*options,void**
optionValues)。
在至少一个实施例中,预处理器205a、解析器210、引用生成器215和编译器220可以处理(例如,编译)第一代码202;并且预处理器205b和设备编译器225可以处理(例如,编译)第二代码204。在至少一个实施例中,图2的左侧和右侧可以被称为处理管线或过程,例如,它可以是CUDA编译的一部分。如图2所示,作为示例,第一代码202和第二代码204也可以经过进一步处理235。在至少一个实施例中,进一步处理包括进一步变换或编译(例如,变换或编译成不同的较低级别的语言)。例如,CUDA程序可以由主机链接器、另一个编译器进一步处理,和/或变换为另一种代码(例如,fatbinary)。在至少一个实施例中,设备编译器225可以编译设备代码(例如,在代码被链接之前或之后)。尽管进一步处理在图2中被示出在编译之后,但在至少一个实施例中,进一步处理235可以发生在处理第一代码202和第二代码204的任何点。
在预处理代码之后,在至少一个实施例中,解析器210可以解析第一代码202。在至少一个实施例中,解析器210是(将由一个或更多个处理器执行的)软件组件,其获取输入数据并构建数据结构以提供代码元素的结构表示。在至少一个实施例中,解析器210可以是主机处理器的前端的一部分。在至少一个实施例中,解析器210可以分析代码和/或将代码分解为独立的组件,包括将代码分解为函数、变量、对象或实例。在至少一个实施例中,解析器210是编译器(例如,编译器220)的一部分,其中解析器210将语法分析规则应用于第一代码202的代码元素,以识别代码元素并编译代码。在至少一个实施例中,解析器210解析C、C++或CUDA代码,例如,解析成函数(在CUDA C++中也被称为设备代码的“内核”)。在至少一个实施例中,解析器210将经解析的代码元素转换为混杂的CUDA C++代码名称。
在至少一个实施例中,引用生成器215为第一代码202的经解析的代码元素生成引用信息。在至少一个实施例中,引用生成器215是解析器210的一部分,是编译器的一部分,或者是与解析器210或编译器通信的独立实体。在至少一个实施例中,引用生成器215是用于生成引用信息的(例如,在嵌入式代码中)(将由一个或更多个处理器执行的)软件组件,和/或是主机处理器中的一个或更多个专用电路的一部分。例如,引用生成器215为内核和变量生成主机引用信息,并将它们编码在对象文件的已知部分中,其中所述部分可由链接器读取。
在至少一个实施例中,引用生成器215生成引用信息。在至少一个实施例中,引用生成器215执行API(例如,elfLink_Add_Referenced_Kernel())以生成引用信息,如本文至少结合图2进一步描述的。在至少一个实施例中,引用生成器215可以访问函数207,以执行函数207和/或从函数207检索信息。在至少一个实施例中,引用生成器215输出在运行时初始化时被第一代码202引用的函数和/或变量的列表。在至少一个实施例中,引用生成器215与JIT链接器206通信地连接。在至少一个实施例中,引用生成器215生成引用信息,该引用信息指示函数或变量是否在第一代码202中被引用。例如,引用生成器215生成嵌入式代码,该嵌入式代码被添加到第一代码202中,其中所述嵌入式代码中的所述引用信息指示主机代码的一部分中的一个或更多个数据或代码元素是否被引用。虽然引用信息可以在嵌入式代码中共享,但在至少一个实施例中,引用生成器215以其他方式与JIT链接器206共享引用信息,例如将引用信息传输到JIT链接器206可访问的存储器中,或在独立的文件中提供引用信息,其中所述文件可由JIT链接器206访问。尽管引用生成器215和解析器210在图2中被示出为分开的单元,但在至少一个实施例中,引用生成器215和解析器210被组合在单个单元中,或者是(将由一个或更多个处理器执行的)同一软件包的一部分,或者是用于解析和生成第一代码202的信息的相同的一个或更多个电路的一部分。
如图2中所示,作为示例,计算环境200还包括用于编译第一代码202的编译器220。尽管编译可以在引用生成器215为第一代码202中的代码元素生成引用信息之后发生,但是在至少一个实施例中,编译器220在引用生成器215生成引用信息之前编译代码(例如,引用生成器215可以基于经编译的代码生成引用信息)。
在至少一个实施例中,解析器210和引用生成器215单独地或组合地分析代码元素并生成具有模糊性(ambiguity)的代码元素的引用信息。在至少一个实施例中,模糊性是指产生代码元素的一个以上的解析解释的语法(例如,一个以上的解析树解释)。如果解析器210对代码元素有模糊的解释,则引用生成器215可能无法确定代码元素是否确实被引用,或者代码元素是否看起来被引用,但实际上被引用的是不同的代码元素(例如,具有不同专业化(specialization)实例的函数)。例如,如果解析器210分析函数,但所述函数在专业化上进行操作,则解析器210可能不知道是所述函数被引用还是不同函数的专业化被引用。下面是由于全局函数中的专业化而具有模糊性的代码的示例:
//--
template<typename T>
__global__void foo();
template<>
__global__void foo<int>(){/*some code*/}
template<>
__global__void foo<double>(){/*some code*/}
template<typename T>
void doit(){
foo<T><<<1,1>>>();//<--模糊的,因为解析器不知道foo<int>
或foo<double>中的哪一个被引用,并且解析器可以至少两种不同的方式来解释这些函数。
}
int main(){doit<int>();}
//--
当解析具模糊性的代码并确定代码元素是否被引用时,一个或更多个电路可以应用保守的方法来生成引用信息。在至少一个实施例中,引用生成器215在生成引用信息时,包括对模糊地引用的代码元素的所有解释,这被称为保守的方法。尽管这种保守的方法会导致死代码,但它也确保所有必要的引用被提供给JIT链接器206,以生成要被执行的链接的代码,从而完成程序的操作。
在至少一个实施例中,解析器210和/或引用生成器215在为具模糊性的代码元素生成引用信息时应用自定义规则。在至少一个实施例中,规则是:在解析时,基于函数的混杂的名称的通用前缀来确定该函数被引用。例如,当解析器210确定主机代码中的“foo<int>()”和“foo<double>()”的混杂名称(其指示可以引用“foo()”或者可以引用“foo()”的专业化)时,解析器210可以应用规则,该规则确定“foo()”被引用,因为它使用foo*来确定混杂的名称和引用,其中*是一个前缀,其涵盖了内核“foo()”,并且内核“foo()”的其他专业化被指示。在至少一个实施例中,自定义规则包括指示对函数或变量的任何引用都被认为是引用,即使对函数或变量的所述引用是专业化。
在至少一个实施例中,程序员通过修改设置(例如,选入或选出设置)以打开或关闭基于引用信息的代码优化来启动过程200。在至少一个实施例中,计算环境100接收选入以从主机处理器到设备处理器提供引用信息的请求。
图3示出了根据至少一个实施例的框图300,该框图表示可以访问高速缓存(存储器)以重用先前链接的代码部分的JIT链接器。在至少一个实施例中,结合图3描述的一个或更多个实施例的一个或更多个方面与本文描述的一个或更多个实施例的一个或更多个方面进行组合,包括至少结合图1-2和图4-5描述的实施例。在至少一个实施例中,图300包括处理器303、预处理器305、JIT链接器306、JIT编译器308、JIT高速缓存330和进一步处理335。在至少一个实施例中,图300中示出的两个或更多个组件彼此通信地连接。在至少一个实施例中,图300中示出的一个或更多个组件被包括在另一个组件内。在至少一个实施例中,处理器303、预处理器305、JIT链接器306、JIT编译器308和JIT高速缓存330中的一个或更多个被配置为使用设备代码的链接部分作为键,以至少部分地识别已存储在JIT高速缓存330中的所述链接部分的编译版本。在至少一个实施例中,处理器303、预处理器305、JIT链接器306、JIT编译器308和JIT高速缓存330中的一个或更多个被配置为使用一个或更多个指示来确定程序代码的两个或更多个部分是否已被链接,例如通过构建包括所述链接的程序代码的两个或更多个部分的键。在至少一个实施例中,处理器303是被配置为至少部分地执行JIT链接和编译任务的处理器,并且是诸如本文至少结合图1进一步描述的一个或更多个处理器之类的处理器。在至少一个实施例中,JIT高速缓存330存储文件,该文件包括:经编译的代码(例如,从组合的NVVM-IR代码编译的PTX代码),其可替代地被称为值;键,其至少部分地包括组合代码(例如,组合的NVVM-IR代码);头,其包括经编译的代码的哈希、值的大小和键的大小,所有这些在本文中至少结合图3进一步描述。在至少一个实施例中,哈希是指示,例如固定长度的值,它独有地标识了计算系统的各个方面(例如,数据、字符、键、文件、代码)。在至少一个实施例中,存储在JIT高速缓存330中的文件的名称是键的哈希。
在至少一个实施例中,预处理器305生成设备代码的两个或更多个中间表示(例如,IR文件),例如两个NVVM-IR文件,其需要链接以生成较低级别的代码,例如PTX代码,其在本文中至少结合图1-2进一步描述。在至少一个实施例中,预处理器305编译并输出设备代码的一个或更多个部分的编译。在至少一个实施例中,预处理器305检查设备代码的两个或更多个部分是否为中间表示格式,例如NVVM-IR,如果不是,则将所述设备代码的两个或更多个部分翻译为中间表示格式。在至少一个实施例中,预处理器305检查设备代码的两个或更多个部分是否为中间表示格式,如果是,则将所述设备代码的两个或更多个部分发送给JIT链接器306。
在至少一个实施例中,JIT链接器306是包括硬件、固件、软件或其某种组合的模块,其被配置为链接设备代码的两个或更多个中间表示,诸如两个NVVM-IR文件。在至少一个实施例中,JIT链接器306被配置为在每次调用包含所述设备代码的应用程序(或应用程序的各部分,诸如内核)时链接设备代码的两个或更多个中间表示。在至少一个实施例中,在执行任何链接操作之前,JIT链接器306被配置为通过检查高速缓存中的代码的两个或更多个部分来检查所述代码的两个或更多个部分是否先前已被链接。在至少一个实施例中,高速缓存可替代地被称为存储。在至少一个实施例中,JIT链接器306至少部分地通过检索对需要链接的对象的引用来识别哪些对象需要链接。在至少一个实施例中,引用包括诸如键、键的哈希或其某种组合之类的指示。在至少一个实施例中,JIT链接器306被配置为将链接的文件存储在高速缓存中,例如JIT高速缓存330。在至少一个实施例中,JIT链接器306被配置为通过包括头、键、值或其某种组合来准备链接的文件以存储在高速缓存中,这些在本文中至少结合图3进一步描述。在至少一个实施例中,头包括诸如键大小(例如,以比特为单位的键大小)、值大小(例如,以比特为单位的代码大小)和值哈希(例如,独有地标识代码的固定长度的数值)之类的信息。在至少一个实施例中,键是用于高速缓存中的每个文件(或对象)的独有的标识符,例如有序的字符序列(例如,字符串),其中所述键包括设备的版本信息,例如流式多处理器(SM)。在至少一个实施例中,至少部分地基于链接的(例如,合并的)NVVM-IR文件来构建键。在至少一个实施例中,键包括NVVM-IR代码和NVVM-IR编译选项,该NVVM-IR编译选项用于将所述代码编译成PTX格式。在至少一个实施例中,值包括经编译的PTX代码。在至少一个实施例中,JIT链接器306链接由API函数(诸如cuLinkAddData()和/或cuLinkAddFile())指定的两个NVVM-IR文件,并将单个链接的文件输出到NVVM编译器。在至少一个实施例中,JIT链接器306将信息添加到文件中和/或将信息存储在存储器中,其指示中间表示代码的两个部分是否已被链接和/或中间表示代码的两个部分是否尚未被链接。在至少一个实施例中,JIT链接器306将指示代码的哪些部分已经被链接的指示(例如,键、键的哈希)添加到存储器中。
在至少一个实施例中,JIT高速缓存330是存储链接的代码(例如,链接的NVVM-IR代码)的存储器设备。在至少一个实施例中,JIT高速缓存330将链接的代码存储为对象文件,该对象文件包括头、键、值或其某种组合,并在本文中至少结合图3进一步描述。在至少一个实施例中,JIT高速缓存330存储指示符(例如,键、键的哈希),其识别代码的哪些部分(例如,链接前的哪些部分)已经被链接并作为链接的代码存储在所述高速缓存中。在至少一个实施例中,JIT高速缓存330存储指示符(例如,键、键的哈希),其识别代码的两个部分是否已被链接。在至少一个实施例中,JIT高速缓存330存储未链接的代码部分,这些部分以后可以由JIT链接器106进行检索和链接。在至少一个实施例中,编译器308在NVVM-IR代码转换为PTX代码期间访问JIT高速缓存330一次,以检查所述高速缓存是否包含预编译的PTX代码,并且在PTX代码转换为CUBIN代码期间访问JIT高速缓存330一次,以检查所述高速缓存是否包含预编译的CUBIN代码。在至少一个实施例中,CUBIN代码包括可执行代码,例如二进制代码,其当被执行时,使得计算系统根据编码指令执行所指示的任务。
在至少一个实施例中,支持JIT链接的高速缓存条目头由诸如以下之类的代码表示:
typedef enum CUcacheEntryType_st{
CU_CACHE_ENTRY_TYPE_PTX,
CU_CACHE_ENTRY_TYPE_NVVM
}CUcacheEntryType;
/*Header on each entry.*/
typedef struct CUcacheEntryHeader_st{
NvU32 entryType;
NvU32 cacheVersion;
NvU64 keySize;
NvU64 valueSize;
cuHash_t valueHash;
}CUcacheEntryHeader;
在至少一个实施例中,由本文所述的JIT编译器308执行的一个或更多个操作可以由其他组件执行,这些其他组件是硬件、固件、软件或其某种组合的组合,例如JIT链接器106和/或驱动器API(未示出)。在至少一个实施例中,JIT编译器308检查JIT高速缓存330是否包含预编译的PTX代码(例如,先前链接的代码被编译成为PTX代码)。在至少一个实施例中,JIT编译器308至少部分地通过基于链接的设备代码构建键,并检查是否有相同的键存储在高速缓存330中,来检查JIT高速缓存330。在至少一个实施例中,键包括链接的设备代码。在至少一个实施例中,键识别已经被链接的设备代码(例如,程序代码)的两个或更多个链接的部分。在至少一个实施例中,代码的链接的部分被称为合并的代码。在至少一个实施例中,代码的链接的部分被称为组合代码。在至少一个实施例中,JIT编译器308获取基于链接的设备代码的构建的键的哈希,并将所述哈希与JIT高速缓存330中的名称进行比较,检查JIT高速缓存330中的文件是否与所述哈希具有相同的名称。在至少一个实施例中,JIT编译器308为已链接的中间表示代码的每个部分构建键和/或为每个所述键创建哈希。在至少一个实施例中,JIT编译器308为已链接的中间表示代码的每个部分创建哈希。在至少一个实施例中,如果JIT高速缓存330中的文件具有与高速缓存键的哈希相匹配的名称,则JIT编译器308检索所述文件的条目头。在至少一个实施例中,JIT编译器308检查所检索的条目头以获取条目类型信息,例如文件是否包含PTX代码或NVVM代码。
在至少一个实施例中,JIT编译器308从紧随所检索的条目头的文件中检索键(例如,条目键),并将所述键与构建的键进行比较。在至少一个实施例中,条目键包括驱动器API构建时间戳(_DATE_,_TIME_),用于识别生成所述条目键的所述驱动器版本,并避免具有由旧的驱动器生成的高速缓存条目的高速缓存命中。在至少一个实施例中,JIT编译器308递增(bump)JIT高速缓存版本号,以便删除高速缓存303中的所有现有条目。在至少一个实施例中,JIT编译器308计算来自文件的条目键是否与构建的键相匹配,如果是,则JIT编译器308检索在所述文件中紧随所述条目键的值(例如,预链接的代码和编译的代码)。
在至少一个实施例中,采用驱动器API来执行API调用使得JIT编译器308从JIT高速缓存330访问值。在至少一个实施例中,如果JIT编译器308不能将链接的设备代码与JIT高速缓存330中的任何条目相匹配,则JIT编译器308将构建的键和所述链接的设备代码存储在JIT高速缓存330中。在至少一个实施例中,JIT高速缓存330被用来存储预链接的和经编译的PTX代码以及预链接的和经编译的CUBIN代码。在至少一个实施例中,如果JIT编译器308从JIT高速缓存330中检索到一个值,JIT链接器重用并发送所述值以供进一步处理335,例如编译成PTX代码,如在本文中至少结合图2进一步描述的。在至少一个实施例中,如果JIT编译器308不能将链接的设备代码与JIT高速缓存330中的条目相匹配,则JIT编译器308发送所述链接的设备代码以供进一步处理335,并将所述链接的设备代码(例如,NVVM-IR代码)作为键与所述链接的设备代码和经编译的设备代码(例如PTX代码)一起存储在JIT高速缓存330中。
在至少一个实施例中,API变量,例如CUDA_CACHE_DISABLE,当被启用时,将禁用预链接的和经编译的PTX代码的高速缓存和/或预链接的和编译的CUBIN代码的高速缓存。在至少一个实施例中,API变量,诸如CUDA_DISABLE_JIT,当被启用时,将禁用任何JIT编译和/或链接,包括链接设备代码的各部分。在至少一个实施例中,API变量,诸如CUDA_FORCE_JIT,当被启用时,将启用和/或强制实施任何类型的JIT编译和/或链接。
图4示出了根据至少一个实施例的用于优化链接代码的各部分的过程400。在至少一个实施例中,结合图4描述的一个或更多个实施例的一个或更多个方面与本文描述的一个或更多个实施例的一个或更多个方面进行组合,包括至少结合图1-3和图5描述的实施例。在至少一个实施例中,编译器,例如本文至少结合图3进一步描述的JIT编译器308,执行过程400的一个或更多个操作。在至少一个实施例中,过程400不一定表示必须执行操作的顺序,以便过程400的一个或更多个操作可以在过程400的另一个操作之前和/或之后执行。在至少一个实施例中,过程400开始于将引用(例如,变量、内核、函数、设备的识别信息)输入到代码元素(例如,变量、内核、函数、设备),作为操作410的一部分,并且如本文至少结合图1-2进一步描述的。在至少一个实施例中,用户输入变量、内核、设备或其某种组合的名称作为API函数的枚举,并且如本文至少结合图1-2进一步描述的。在至少一个实施例中,作为操作410的一部分,编译器在搜索代码中的引用后生成引用作为输入引用,并且如本文至少结合图2进一步描述的。
在至少一个实施例中,过程400继续进行链接器(例如至少结合图3进一步描述的JIT链接器306)链接引用的代码的两个部分,(例如,表示和/或识别内核、变量、设备的中间表示代码),以准备编译成另一种格式,作为操作415的一部分,并且如本文至少结合图1-2进一步描述的。在至少一个实施例中,JIT链接器是用户通过API已经启用以执行JIT链接的链接器。在至少一个实施例中,JIT链接器是作为JIT编译过程的一部分使用的链接器。在至少一个实施例中,作为步骤415的一部分的链接是改善和/或加快编译操作和加速处理器执行的过程的一部分。在至少一个实施例中,作为操作415的一部分链接的代码的两个部分是来自不同文件和/或类的代码的部分;例如,作为生成可执行文件的过程的一部分,链接器将来自一个文件的调用连接到另一个文件中的函数。在至少一个实施例中,作为操作415的一部分从设备代码中移除未引用的代码是在链接所述设备代码的两个部分之前发生的。
在至少一个实施例中,过程400继续进行在运行时从设备代码中移除未引用的元素,作为操作420的一部分,并且如本文至少结合图2进一步描述的。在至少一个实施例中,设备代码是链接的代码,例如如本文至少结合图1进一步描述的链接的代码107。在至少一个实施例中,设备代码的一个或更多个部分包括所述设备代码的其他部分未引用的代码。在至少一个实施例中,当编译器执行JIT链接时,移除未引用的代码元素是默认操作。在至少一个实施例中,从设备代码中移除未引用的元素减少了链接的代码部分的大小,这反过来又减少了其他进程的执行时间,例如在GPU上的应用程序的编译和执行。在至少一个实施例中,用户引用应从链接操作中排除的代码,并且JIT编译器移除所述引用的代码。
图5示出了根据至少一个实施例的用于使用高速缓存进行JIT链接和JIT编译操作的过程500。在至少一个实施例中,结合图5描述的一个或更多个实施例的一个或更多个方面与本文描述的一个或更多个实施例的一个或更多个方面进行组合,包括至少结合图1-4描述的实施例。在至少一个实施例中,编译器,例如本文至少结合图3进一步描述的JIT编译器308,执行过程500的一个或更多个操作。在至少一个实施例中,过程400不一定表示必须执行操作的顺序,以便过程500的一个或更多个操作可以在过程500的另一个操作之前和/或之后执行。在至少一个实施例中,过程500开始于获得对设备代码中的代码元素的引用,作为操作502的一部分,在本文中至少结合图1-3进一步描述。在至少一个实施例中,引用信息由编译器使用以识别哪些代码元素应该被链接,所述代码元素是否已经被链接,或其某种组合。在至少一个实施例中,引用信息识别链接的(例如,链接的)代码元素。
在至少一个实施例中,过程500继续进行检查被引用的代码元素是否被链接并存储在高速缓存中,例如JIT高速缓存330,作为本文至少结合图3进一步描述的操作504的一部分。在至少一个实施例中,检查被引用的代码元素是否被链接和存储包括:从所述被引用的代码元素创建键,从所述键创建哈希,并尝试将所述哈希与存储在高速缓存中的哈希相匹配。在至少一个实施例中,存储在高速缓存中的哈希是文件的文件名,该文件包括链接的代码元素和/或已编译的链接的代码元素。在至少一个实施例中,检查被引用的代码元素检查所述代码元素中的每一个,而不是链接的代码元素,其中所述代码元素中的每一个是用键和/或键的哈希识别的。在至少一个实施例中,存储在高速缓存中的链接的代码元素用一个或更多个指示(例如,键、键的哈希)进行识别,这些指示在被链接之前识别所述代码元素,并且检查代码元素是否已经被链接并被高速缓存为文件,包括检查所述指示是否包含在文件中。
在至少一个实施例中,如果编译器确定引用的代码元素已经被链接并存储在高速缓存中,则过程500继续进行从所述高速缓存中检索(例如,复制、加载)所述链接的代码元素,作为操作506的一部分,并且如本文至少结合图3进一步描述的。在至少一个实施例中,从高速缓存中检索链接的代码元素允许编译器重新使用所述链接的代码元素,而不是对所述链接的代码元素执行编译操作。在至少一个实施例中,编译器在检索链接的代码元素之前检查包含所述链接的代码元素的文件中包含的版本信息(例如,驱动器版本、处理器版本),以确保计算系统支持所述链接的代码元素。
在至少一个实施例中,如果编译器确定被引用的代码元素没有存储在高速缓存中,则过程500继续进行链接所述代码元素,作为操作508的一部分,并且如本文至少结合图1-3进一步描述的。在至少一个实施例中,如果编译器确定引用的元素没有存储在高速缓存中,则所述编译器将引用的元素发送到链接器以进行链接;并发送所述被链接的引用的元素以供进一步处理,如本文至少结合图2-3进一步描述的,存储在高速缓存中;并将其发送到高速缓存以用于未来的重用(如果有的话)。在至少一个实施例中,链接是JIT链接过程的一部分,其中这种链接允许用户将其设备代码与库(例如,cuFFT、cuSPARSE、cuTENSOR)链接,同时保护代码的一个或更多个部分不被用户读取(例如,不会泄露所述代码的一个或更多个部分)。在至少一个实施例中,一个或更多个API如果被执行,则使得执行链接操作并指定哪些代码元素将被链接,API诸如cuLinkAddData()和cuLinkAddFile()。
在至少一个实施例中,过程500继续进行将链接的代码元素存储在高速缓存中,如本文至少结合图3进一步描述的JIT高速缓存330,作为操作510的一部分。在至少一个实施例中,可以通过调用API函数(诸如CUDA_CACHE_DISABLE)来启用用于用户禁用存储链接的代码元素的高速缓存的选项。在至少一个实施例中,操作510和/或过程500的一个或更多个操作通过调用和执行API函数(诸如cuLinkComplete())而被启用。在至少一个实施例中,存储链接的代码元素和/或检索链接的代码元素通过API函数(诸如cuLinkComplete())来执行。在至少一个实施例中,作为操作510的一部分将链接的代码元素存储在高速缓存中,包括将所述链接的代码元素作为键存储在一个或更多个文件中,并存储所述链接的代码元素的所述经编译版本。
服务器和数据中心
以下附图阐述了但不限于可以用于实现至少一个实施例的基于示例性网络服务器和数据中心的系统。
图6示出了根据至少一个实施例的分布式系统600。在至少一个实施例中,分布式系统600包括一个或更多个客户端计算设备602、604、606和608,其被配置成在一个或更多个网络610上执行和操作客户端应用,诸如网络(web)浏览器、专有客户端和/或其变体。在至少一个实施例中,服务器612可以经由网络610与远程客户端计算设备602、604、606和608通信地耦合。
在至少一个实施例中,服务器612可适于运行一个或更多个服务或软件应用,诸如可管理跨多个数据中心的单点登录(SSO)访问的会话活动的服务和应用。在至少一个实施例中,服务器612还可以提供其他服务,或者软件应用,其可以包括非虚拟和虚拟环境。在至少一个实施例中,这些服务可作为基于web的服务或云服务或在软件即服务(SaaS)模型下被提供给客户端计算设备602、604、606和/或608的用户。在至少一个实施例中,操作客户端计算设备602、604、606和/或608的用户又可以利用一个或更多个客户端应用来与服务器612交互以利用由这些组件提供的服务。
在至少一个实施例中,系统600的软件组件618、620和622在服务器612上实现。在至少一个实施例中,系统600的一个或更多个组件和/或由这些组件提供的服务也可由客户端计算设备602、604、606和/或608中的一个或更多个来实现。在至少一个实施例中,操作客户端计算设备的用户然后可以利用一个或更多个客户端应用来使用由这些组件提供的服务。在至少一个实施例中,这些组件可以用硬件、固件、软件或其组合来实现。应当理解,各种不同的系统配置是可能的,其可以不同于分布式系统600。因此,图6所示的实施例是用于实现实施例系统的分布式系统的一个示例,并且不旨在是限制性的。
在至少一个实施例中,客户端计算设备602、604、606和/或608可以包括不同类型的计算系统。在至少一个实施例中,客户端计算设备可以包括便携式手持设备(例如,蜂窝电话、/>计算平板、个人数字助理(PDA))或可穿戴设备(例如,Google头戴式显示器),运行软件(如Microsoft Windows/>)和/或各种移动操作系统(诸如iOS、Windows Phone、Android、BlackBerry 10、Palm OS和/或其变体)。在至少一个实施例中,设备可以支持不同应用,诸如不同互联网相关的应用、电子邮件、短消息服务(SMS)应用,并且可以使用各种其他通信协议。在至少一个实施例中,客户端计算设备还可以包括通用个人计算机,通过示例的方式,所述通用个人计算机包括运行各种版本的Microsoft/>Apple/>和/或Linux操作系统的个人计算机和/或膝上型计算机。在至少一个实施例中,客户端计算设备可以是运行各种可商购的/>或类似UNIX的操作系统中的任一种的工作站计算机,包括但不限于各种GNU/Linux操作系统,诸如Google Chrome OS。在至少一个实施例中,客户端计算设备还可以包括能够通过一个或更多个网络610进行通信的电子设备,诸如瘦客户端计算机、启用互联网的游戏系统(例如,具有或不具有/>手势输入设备的微软Xbox游戏控制台)、和/或个人消息传递设备。尽管图6中的分布式系统600被示为具有四个客户端计算设备,但可支持任何数量的客户端计算设备。其他设备(诸如具有传感器的设备等)可与服务器612交互。
在至少一个实施例中,分布式系统600中的网络610可以是能够使用各种可用协议中的任何协议来支持数据通信的任何类型的网络,包括但不限于TCP/IP(传输控制协议/互联网协议)、SNA(系统网络架构)、IPX(互联网分组交换)、AppleTalk和/或其变体。在至少一个实施例中,网络610可以是局域网(LAN),基于以太网的网络、令牌环、广域网、互联网、虚拟网络、虚拟专用网(VPN)、内联网、外联网、公共交换电话网络(PSTN)、红外网络、无线网络(例如,在电气与电子协会(IEEE)802.11协议组、和/或任何其他无线协议中的任一者下运行的网络),和/或这些和/或其他网络的任何组合。
在至少一个实施例中,服务器612可以由一个或更多个通用计算机、专用服务器计算机(通过示例的方式,包括PC(个人计算机)服务器、服务器、中程服务器、大型计算机、机架式服务器等)、服务器农场、服务器集群或任何其他适当的布置和/或组合组成。在至少一个实施例中,服务器612可包括运行虚拟操作系统的一个或更多个虚拟机或涉及虚拟化的其他计算架构。在至少一个实施例中,可以虚拟化一个或更多个灵活的逻辑存储设备池,以便为服务器维护虚拟存储设备。在至少一个实施例中,虚拟网络可由服务器612使用软件定义的网络来控制。在至少一个实施例中,服务器612可适于运行一个或更多个服务或软件应用。
在至少一个实施例中,服务器612可以运行任何操作系统,以及任何可商购的服务器操作系统。在至少一个实施例中,服务器612还可以运行各种附加服务器应用和/或中层应用中的任一种,包括HTTP(超文本传输协议)服务器、FTP(文件传输协议)服务器、CGI(公共网关接口)服务器、服务器、数据库服务器和/或其变体。在至少一个实施例中,示例性数据库服务器包括但不限于从Oracle、Microsoft、Sybase、IBM(国际商业机器)和/或其变体可商购的那些。
在至少一个实施例中,服务器612可包括一个或更多个应用,用于分析和合并从客户端计算设备602、604、606和608的用户接收的数据馈送和/或事件更新。在至少一个实施例中,数据馈送和/或事件更新可以包括但不限于,从一个或更多个第三方信息源和连续数据流接收的馈送、/>更新或实时更新,其可以包括与传感器数据应用、金融报价器、网络性能测量工具(例如,网络监视和业务管理应用)相关的实时事件,点击流分析工具、汽车交通监测和/或其变化。在至少一个实施例中,服务器612还可以包括用于经由客户端计算设备602、604、606和608的一个或更多个显示设备来显示数据馈送和/或实时事件的一个或更多个应用。
在至少一个实施例中,分布式系统600还可包括一个或更多个数据库614和616。在至少一个实施例中,数据库可提供用于存储信息(诸如用户交互信息、使用模式信息、适配规则信息和其他信息)的机制。在至少一个实施例中,数据库614和616可以驻留在各种位置中。在至少一个实施例中,数据库614和616中的一个或更多个可以驻留在服务器612本地(和/或驻留在服务器612中)的非暂态存储介质上。在至少一个实施例中,数据库614和616可以远离服务器612并且经由基于网络的连接或专用连接与服务器612通信。在至少一个实施例中,数据库614和616可以驻留在存储区域网络(SAN)中。在至少一个实施例中,用于执行归属于服务器612的功能的任何必要的文件可以适当地本地存储在服务器612上和/或远程存储。在至少一个实施例中,数据库614和616可以包括关系数据库,诸如适于响应于SQL格式化的命令而存储、更新和检索数据的数据库。
在至少一个实施例中,关于图6所示或描述的至少一个组件被用于实现本文以及至少结合图1-6描述的技术和/或功能。在至少一个实施例中,服务器612使一个或更多个电路存储程序代码的两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图7示出了根据至少一个实施例的示例性数据中心700。在至少一个实施例中,数据中心700包括但不限于数据中心基础设施层710、框架层720、软件层730和应用层740。
在至少一个实施例中,如图7所示,数据中心基础设施层710可以包括资源协调器712、分组的计算资源714和节点计算资源(“节点C.R.”)716(1)-716(N),其中“N”表示任何完整的正整数。在至少一个实施例中,节点C.R.716(1)-716(N)可以包括但不限于任意数量的中央处理单元(“CPU”)或其他处理器(包括加速器、现场可编程门阵列(“FPGA”)、图形处理器等)、存储器设备(例如,动态只读存储器)、存储设备(例如,固态硬盘或磁盘驱动器)、网络输入/输出(“NW I/O”)设备、网络交换机、虚拟机(“VM”)、功率模块和冷却模块等。在至少一个实施例中,节点C.R.716(1)-716(N)中的一个或更多个节点C.R.可以是具有一个或更多个上述计算资源的服务器。
在至少一个实施例中,分组的计算资源714可以包括容纳在一个或更多个机架内的节点C.R.的单独分组(未示出),或者容纳在各个地理位置的数据中心内的许多机架(也未示出)。分组的计算资源714内的节点C.R.的单独分组可以包括可以被配置或分配为支持一个或更多个工作负载的分组的计算、网络、存储器或存储资源。在至少一个实施例中,可以将包括CPU或处理器的几个节点C.R.分组在一个或更多个机架内,以提供计算资源来支持一个或更多个工作负载。在至少一个实施例中,一个或更多个机架还可以包括任意数量的电源模块、冷却模块和网络交换机,以任意组合。
在至少一个实施例中,资源协调器712可以配置或以其他方式控制一个或更多个节点C.R.716(1)-716(N)和/或分组的计算资源714。在至少一个实施例中,资源协调器712可以包括用于数据中心700的软件设计基础结构(“SDI”)管理实体。在至少一个实施例中,资源协调器712可以包括硬件、软件或其某种组合。
在至少一个实施例中,如图7所示,框架层720包括但不限于作业调度器732、配置管理器734、资源管理器736和分布式文件系统738。在至少一个实施例中,框架层720可以包括支持软件层730的软件752和/或应用程序层740的一个或更多个应用程序742的框架。在至少一个实施例中,软件752或应用程序742可以分别包括基于Web的服务软件或应用程序,例如由Amazon Web Services、Google Cloud和Microsoft Azure提供的服务或应用程序。在至少一个实施例中,框架层720可以是但不限于一种免费和开放源软件网络应用框架,例如可以利用分布式文件系统738来进行大范围数据处理(例如“大数据”)的Apache SparkTM(以下称为“Spark”)。在至少一个实施例中,作业调度器732可以包括Spark驱动器,以促进对数据中心700的各个层所支持的工作负载进行调度。在至少一个实施例中,配置管理器734可以能够配置不同的层,例如软件层730和包括Spark和用于支持大规模数据处理的分布式文件系统738的框架层720。在至少一个实施例中,资源管理器736能够管理映射到或分配用于支持分布式文件系统738和作业调度器732的集群或分组计算资源。在至少一个实施例中,集群或分组计算资源可以包括数据中心基础设施层710上的分组的计算资源714。在至少一个实施例中,资源管理器736可以与资源协调器712协调以管理这些映射的或分配的计算资源。
在至少一个实施例中,包括在软件层730中的软件752可以包括由节点C.R.716(1)-716(N)的至少一部分,分组计算资源714和/或框架层720的分布式文件系统738使用的软件。一种或更多种类型的软件可以包括但不限于Internet网页搜索软件、电子邮件病毒扫描软件、数据库软件和流视频内容软件。
在至少一个实施例中,应用层740中包括的一个或更多个应用程序742可以包括由节点C.R.716(1)-716(N)的至少一部分、分组的计算资源714和/或框架层720的分布式文件系统738使用的一种或更多种类型的应用程序。一种或更多种类型的应用程序可以包括但不限于CUDA应用程序、5G网络应用程序、人工智能应用程序、数据中心应用程序、和/或其变体。
在至少一个实施例中,配置管理器734、资源管理器736和资源协调器712中的任何一个可以基于以任何技术上可行的方式获取的任意数量和类型的数据来实现任意数量和类型的自我修改动作。在至少一个实施例中,自我修改动作可以减轻数据中心700的数据中心操作员做出可能不好的配置决定并且可以避免数据中心的未充分利用和/或执行差的部分。在至少一个实施例中,关于图7所示或描述的至少一个组件被用于实现本文以及至少结合图1-6描述的技术和/或功能。在至少一个实施例中,资源管理器736使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图8示出了根据至少一个实施例的由互连的多个网络服务器计算机802形成的客户端-服务器网络804。在至少一个实施例中,在系统800中,每个网络服务器计算机802存储其他网络服务器计算机802和链接到广域网804中的客户端计算机806和网络808可访问的数据。在至少一个实施例中,当客户端计算机806和一个或更多个网络808与网络804连接和断开连接时,以及当一个或更多个干线服务器计算机802被添加到网络804或从网络804移除时,客户端-服务器网络804的配置可随时间改变。在至少一个实施例中,当客户端计算机806和网络808与网络服务器计算机802连接时,客户端-服务器网络包括这样的客户端计算机806和网络808。在至少一个实施例中,术语计算机包括能够接受数据、将规定的过程应用于数据以及提供过程的结果的任何设备或机器。
在至少一个实施例中,客户端-服务器网络804存储网络服务器计算机802、远程网络808和客户端计算机806可访问的信息。在至少一个实施例中,网络服务器计算机802由大型计算机、小型计算机和/或各自具有一个或更多个处理器的微型计算机形成。在至少一个实施例中,服务器计算机802通过有线和/或无线传输介质(诸如导线、光纤电缆)和/或微波传输介质、卫星传输介质或其他导电、光学或电磁波传输介质链接在一起。在至少一个实施例中,客户端计算机806通过类似的有线或无线传输介质访问网络服务器计算机802。在至少一个实施例中,客户端计算机806可以使用调制解调器和标准电话通信网络链接到客户端-服务器网络804中。在至少一个实施例中,替代性的运营商系统(如电缆和卫星通信系统)还可以用于链接到客户端-服务器网络804中。在至少一个实施例中,可以使用其他私有或时间共享的运营商系统。在至少一个实施例中,网络804是全球信息网络,诸如互联网。在至少一个实施例中,网络是使用与互联网类似的协议但具有添加的安全措施和受限的访问控制的私有内联网。在至少一个实施例中,网络804是使用专有通信协议的私有或半私有网络。
在至少一个实施例中,客户端计算机806是任何终端用户计算机,并且还可以是具有一个或更多个微处理器的大型计算机、小型计算机或微型计算机。在至少一个实施例中,服务器计算机802有时可用作访问另一服务器计算机802的客户端计算机。在至少一个实施例中,远程网络808可以是局域网、通过用于互联网的独立服务提供商(ISP)被添加到广域网中的网络、或通过具有固定的或随时间改变的配置的有线或无线传输介质互连的另一组计算机。在至少一个实施例中,客户端计算机806可以独立地或通过远程网络808链接到网络804中并且访问网络804。在至少一个实施例中,关于图8所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,网络服务器计算机802使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图9示出了根据至少一个实施例的连接一个或更多个计算机器的计算机网络908的示例900。在至少一个实施例中,网络908可以是任何类型的电连接的计算机组,包括例如以下网络:互联网、内联网、局域网(LAN)、广域网(WAN)或这些网络类型的互连组合。在至少一个实施例中,网络908内的连接可以是远程调制解调器、以太网(IEEE 802.3)、令牌环(IEEE 802.5)、光纤分布式数据链路接口(FDDI)、异步传输模式(ATM)或任何其他通信协议。在至少一个实施例中,链接到网络的计算设备可以是台式机、服务器、便携式、手持式、机顶盒、个人数字助理(PDA)、终端、或任何其他期望的类型或配置。在至少一个实施例中,取决于它们的功能性,网络连接的设备可以在处理能力、内部存储器和其他性能方面广泛地变化。在至少一个实施例中,网络内的通信以及去往或来自连接到网络的计算设备的通信可以是有线或无线的。在至少一个实施例中,网络908可以至少部分地包括世界范围的公共互联网,其通常根据客户端-服务器模型根据传输控制协议/互联网协议(TCP/IP)规范连接多个用户。在至少一个实施例中,客户端-服务器网络是用于在两个计算机之间通信的主导模型。在至少一个实施例中,客户端计算机(“客户端”)向服务器计算机(“服务器”)发出一个或更多个命令。在至少一个实施例中,服务器通过访问可用网络资源并根据客户端命令向客户端返回信息来履行客户端命令。在至少一个实施例中,客户端计算机系统和驻留在网络服务器上的网络资源被分配网络地址,用于网络的元件之间的通信期间的识别。在至少一个实施例中,从其他网络连接的系统到服务器的通信将包括作为通信的一部分的相关服务器/网络资源的网络地址,使得数据/请求的适当目的地被识别为接收者。在至少一个实施例中,当网络908包括全球互联网时,网络地址是TCP/IP格式的IP地址,其可至少部分地将数据路由到电子邮件账户、网站或驻留在服务器上的其他互联网工具。在至少一个实施例中,驻留在网络服务器上的信息和服务可以通过域名(例如www.site.com)(其映射到网络服务器的IP地址)对客户端计算机的web浏览器可用。
在至少一个实施例中,多个客户端902、904和906经由相应的通信链路连接至网络908。在至少一个实施例中,这些客户端中的每一个可以经由任何期望形式的通信(诸如经由拨号调制解调器连接、电缆链路、数字用户线(DSL)、无线或卫星链路、或任何其他形式的通信)来访问网络908。在至少一个实施例中,每个客户端可以使用与网络908兼容的任何机器(例如,个人计算机(PC)、工作站、专用终端、个人数据助理(PDA)或其他类似的设备)进行通信。在至少一个实施例中,客户端902、904和906可以位于或可以不位于相同的地理区域中。
在至少一个实施例中,多个服务器910、912和914连接到网络908以服务于与网络908通信的客户端。在至少一个实施例中,每个服务器通常是管理网络资源并对客户端命令作出响应的强大的计算机或设备。在至少一个实施例中,服务器包括存储程序指令和数据的计算机可读数据存储介质,诸如硬盘驱动器和RAM存储器。在至少一个实施例中,服务器910、912、914运行响应于客户端命令的应用程序。在至少一个实施例中,服务器910可以运行用于响应对HTML页面的客户端请求的web服务器应用,并且还可以运行用于接收和路由电子邮件的邮件服务器应用。在至少一个实施例中,在服务器910上还可以运行其他应用程序,诸如用于将音频/视频数据流式传输至客户端的FTP服务器或媒体服务器。在至少一个实施例中,不同的服务器可以专用于执行不同的任务。在至少一个实施例中,服务器910可以是为不同用户管理与网站相关的资源的专用web服务器,而服务器912可以专用于提供电子邮件(email)管理。在至少一个实施例中,其他服务器可以专用于媒体(音频、视频等)、文件传输协议(FTP)或通常通过网络可用或提供的任何两个或更多个服务的组合。在至少一个实施例中,每个服务器可以在与其他服务器的位置相同或不同的位置中。在至少一个实施例中,可存在为用户执行镜像任务的多个服务器,从而减轻拥塞或最小化定向到和来自单个服务器的流量。在至少一个实施例中,服务器910、912、914在维护和通过网络908递送第三方内容的业务中的web托管提供者的控制下。
在至少一个实施例中,web托管提供商向两个不同类型的客户端递送服务。在至少一个实施例中,可被称为浏览器的一种类型从服务器910、912、914请求内容,诸如网页、电子邮件消息、视频剪辑等。在至少一个实施例中,第二类型(其可以被称为用户)雇佣web托管提供商来维护网络资源(诸如网站)并使其可用于浏览器。在至少一个实施例中,用户与web托管提供商签订合同,以根据用户期望利用的服务器资源的量使存储器空间、处理器容量和通信带宽可用于他们期望的网络资源。
在至少一个实施例中,为了使web托管提供商为这两个客户端提供服务,必须适当地配置管理由服务器托管的网络资源的应用程序。在至少一个实施例中,程序配置过程涉及定义参数集,所述参数集至少部分地控制应用程序对浏览器请求的响应,并且还至少部分地定义特定用户可用的服务器资源。
在一个实施例中,内联网服务器916经由通信链路与网络908通信。在至少一个实施例中,内联网服务器916与服务器管理器918通信。在至少一个实施例中,服务器管理器918包括在服务器910、912、914中使用的应用程序配置参数的数据库。在至少一个实施例中,用户经由内联网916修改数据库920,并且服务器管理器918与服务器910、912、914交互以修改应用程序参数,使得它们匹配数据库的内容。在至少一个实施例中,用户通过经由计算机902连接到内联网916并且输入诸如用户名和密码之类的认证信息来登录到内联网916。在至少一个实施例中,关于图9所示或描述的至少一个组件被用于实现本文以及至少结合图1-6描述的技术和/或功能。在至少一个实施例中,服务器910使一个或更多个电路指示程序代码的一个或更多个部分被排除在本文至少结合图1-6描述的程序中。
在至少一个实施例中,当用户希望登录新服务或修改现有服务时,内联网服务器916对用户进行认证并向用户提供允许用户访问特定应用程序的配置参数的交互式屏幕显示/控制面板。在至少一个实施例中,向用户呈现描述用户的网站或其他网络资源的配置的方面的多个可修改文本框。在至少一个实施例中,如果用户期望增加在服务器上为其网站保留的存储器空间,则向用户提供其中用户指定期望的存储器空间的字段。在至少一个实施例中,响应于接收到该信息,内联网服务器916更新数据库920。在至少一个实施例中,服务器管理器918将该信息转发到适当的服务器,并且在应用程序操作期间使用新的参数。在至少一个实施例中,内联网服务器916被配置为向用户提供对用户已与web托管服务提供商签订的托管网络资源(例如,网页、电子邮件、FTP站点、媒体站点等)的配置参数的访问。在至少一个实施例中,关于图9所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,服务器910使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图10A示出了根据至少一个实施例的联网计算机系统1000A。在至少一个实施例中,联网计算机系统1000A包括多个节点或个人计算机(“PC”)1002、1018、1020。在至少一个实施例中,个人计算机或节点1002包括处理器1014、存储器1016、摄像机1004、麦克风1006、鼠标1008、扬声器1010和监视器1012。在至少一个实施例中,PC 1002、1018、1020可以各自运行例如给定公司内的内部网络的一个或更多个桌面服务器,或者可以是不限于特定环境的通用网络的服务器。在至少一个实施例中,网络的每PC节点有一个服务器,使得网络的每个PC节点表示具有特定网络URL地址的特定网络服务器。在至少一个实施例中,每个服务器默认为该服务器的用户的默认网页,该默认网页本身可包含指向该服务器上该用户的进一步子页面、或者指向网络上的其他服务器或其他服务器上的页面的嵌入式URL。
在至少一个实施例中,节点1002、1018、1020和网络的其他节点经由介质1022互连。在至少一个实施例中,介质1022可以是诸如综合服务数字网(“ISDN”)的通信信道。在至少一个实施例中,联网计算机系统的各个节点可以通过各种通信介质连接,包括局域网(“LAN”)、简易老式电话线(“POTS”)(有时被称为公共交换电话网络(“PSTN”))、和/或其变体。在至少一个实施例中,网络的各个节点还可以构成经由诸如互联网之类的网络互连的计算机系统用户。在至少一个实施例中,(在给定实例处从网络的特定节点运行的)网络上的每个服务器在网络内具有唯一地址或标识,该唯一地址或标识可以根据URL指定。
在至少一个实施例中,多个多点会议单元(“MCU”)因此可以用于向会议系统的各个节点或“端点”和从会议系统的各个节点或“端点”传输数据。在至少一个实施例中,除了各种其他通信介质(诸如,通过互联网连接的节点)之外,节点和/或MCU可经由ISDN链路或通过局域网(“LAN”)互连。在至少一个实施例中,会议系统的节点通常可以直接连接到通信介质(诸如LAN)或通过MCU连接,并且会议系统可以包括其他节点或元件,诸如路由器、服务器和/或其变体。
在至少一个实施例中,处理器1014是通用可编程处理器。在至少一个实施例中,联网计算机系统1000A的节点的处理器还可以是专用视频处理器。在至少一个实施例中,节点的不同外围设备和组件(诸如节点1002的那些)可以与其他节点的那些不同。在至少一个实施例中,节点1018和节点1020可以被配置为与节点1002相同或不同。在至少一个实施例中,除了PC系统之外,节点还可以在任何合适的计算机系统上实现。
图10B示出了根据至少一个实施例的联网计算机系统1000B。在至少一个实施例中,系统1000B示出了网络(诸如LAN 1024),该网络可以用于互连可以彼此通信的各种节点。在至少一个实施例中,附接到LAN1024的是多个节点,诸如PC节点1026、1028、1030。在至少一个实施例中,节点还可经由网络服务器或其他装置连接到LAN。在至少一个实施例中,针对包括路由器、服务器和节点的示例,系统1000B包括其他类型的节点或元件。
图10C示出根据至少一个实施例的联网计算机系统1000C。在至少一个实施例中,系统1000C示出了具有跨主干通信网络(诸如互联网1032)的通信的WWW系统,主干通信网络可用于互连网络的各种节点。在至少一个实施例中,WWW是在互联网的顶部上操作的一组协议,并且允许图形界面系统在其上操作以便通过互联网访问信息。在至少一个实施例中,附接到WWW中的互联网1032的是多个节点,例如PC 1040、1042、1044。在至少一个实施例中,节点通过WWW HTTP服务器(诸如服务器1034、1036)与WWW的其他节点对接。在至少一个实施例中,PC 1044可以是形成网络1032的节点的PC,并且PC 1044本身运行它的服务器1036,尽管为了说明的目的在图10C中单独地示出PC 1044和服务器1036。
在至少一个实施例中,WWW是一种分布式类型的应用程序,其特征为WWW HTTP、WWW的协议,它在互联网的传输控制协议/互联网协议(“TCP/IP”)的顶部上运行。在至少一个实施例中,WWW因此可以由在互联网上运行的一组协议(即,HTTP)作为其“主干”来表征。
在至少一个实施例中,web浏览器是在兼容WWW类型的网络系统中在网络的节点上运行的应用程序,其允许特定服务器或节点的用户查看这样的信息,并因此允许用户搜索使用嵌入在从理解HTTP的网络上的服务器可获得的文档或文件中的超文本链接链接在一起的图形和基于文本的文件。在至少一个实施例中,当用户使用诸如互联网之类的网络上的另一服务器来检索与第一节点相关联的第一服务器的给定网页时,所检索到的文档可具有嵌入在其中的不同超文本链接,并且在检索用户的本地创建页面的本地副本。在至少一个实施例中,当用户点击超文本链接时,与所选择的超文本链接相关的本地存储的信息通常足以允许用户的机器打开通过互联网到由超文本链接指示的服务器的连接。
在至少一个实施例中,多于一个用户可例如通过LAN(诸如LAN 1038,诸如关于WWWHTTP服务器1034所示)耦合到每个HTTP服务器。在至少一个实施例中,系统1000C还可以包括其他类型的节点或元件。在至少一个实施例中,WWW HTTP服务器是在诸如PC的机器上运行的应用。在至少一个实施例中,每个用户可以被认为具有唯一的“服务器”,如关于PC1044所示。在至少一个实施例中,服务器可以被认为是诸如WWW HTTP服务器1034之类的服务器,该服务器为LAN或多个节点或多个LAN提供对网络的访问。在至少一个实施例中,存在多个用户,每个用户具有台式PC或网络的节点,每个台式PC潜在地为其用户建立服务器。在至少一个实施例中,每个服务器与特定网络地址或URL相关联,当被访问时,该特定网络地址或URL为该用户提供默认网页。在至少一个实施例中,网页可以包含进一步的链接(嵌入式URL),其指向该服务器上的该用户的进一步的子页面,或者指向网络上的其他服务器或者指向网络上的其他服务器上的页面。
云计算和服务
以下附图阐述但不限于可以用于实现至少一个实施例的示例性的基于云的系统。
在至少一个实施例中,云计算是一种计算风格,其中动态可扩展和通常虚拟化的资源作为服务通过互联网来提供。在至少一个实施例中,用户不需要具有支持他们的技术基础设施的知识、技术基础设施的专业知识或对技术基础设施的控制,该技术基础设施可以被称为“在云中”。在至少一个实施例中,云计算将基础设施合并为服务、平台即服务、软件即服务、以及具有依赖于互联网的常见主题以满足用户的计算需求的其他变型。在至少一个实施例中,典型的云部署(诸如在私有云(例如,企业网络)中)或公共云(例如,互联网)中的数据中心(DC)可由数千个服务器(或可替代地,VM)、数百个以太网、光纤信道或以太网光纤信道(FCoE)端口、交换和存储基础设施等组成。在至少一个实施例中,云还可以由网络服务基础设施组成,如IPsec VPN集线器、防火墙、负载平衡器、广域网(WAN)优化器等。在至少一个实施例中,远程订户可以通过经由VPN隧道(如IPsec VPN隧道)连接来安全地访问云应用和服务。
在至少一个实施例中,云计算是一种用于使能对可配置计算资源(例如,网络、服务器、存储装置、应用程序和服务)的共享池的方便、按需的网络访问的模型,所述可配置计算资源可以用最小的管理努力或服务提供商交互来快速配置和释放。
在至少一个实施例中,云计算的特征在于按需自助服务,其中消费者可根据需要自动地单方面供应计算能力,诸如服务器时间和网络存储,而无需与每个服务提供商的人类互动。在至少一个实施例中,云计算的特征在于广泛的网络访问,其中能力在网络上可用并且通过标准机制来访问,所述标准机制促进由异构的瘦或厚客户端平台(例如,移动电话、膝上型计算机和PDA)的使用。在至少一个实施例中,云计算的特征在于资源池,其中提供商的计算资源被池化以使用多租户模型服务于多个消费者,其中不同的物理和虚拟资源根据消费者需求被动态地签名和重新分配。在至少一个实施例中,存在位置独立性的感觉,因为消费者通常对所提供的资源的确切位置没有控制或知识,但可能能够在较高抽象级别(例如,国家、州或数据中心)指定位置。在至少一个实施例中,资源的示例包括存储、处理、存储器、网络带宽和虚拟机。在至少一个实施例中,云计算的特征在于快速弹性,其中能力可被快速且弹性地供应(在一些情况下是自动地),以快速缩小和快速释放以快速放大。在至少一个实施例中,对于消费者,可用于供应的能力通常显得不受限制并且可以在任何时间以任何数量购买。在至少一个实施例中,云计算由测量的服务来表征,其中云系统通过在适合于服务类型(例如,存储、处理、带宽和活动用户账户)的某种抽象级别处利用计量能力来自动地控制和优化资源使用。在至少一个实施例中,资源使用可以被监控、控制和报告,从而为所利用的服务的提供商和消费者两者提供透明度。
在至少一个实施例中,云计算可与各种服务相关联。在至少一个实施例中,云软件即服务(SaaS)可以指代提供给消费者的能力是使用在云基础设施上运行的提供商的应用的服务。在至少一个实施例中,应用可通过诸如web浏览器(例如,基于web的电子邮件)的瘦客户端接口从不同客户端设备访问。在至少一个实施例中,消费者不管理或控制包括网络、服务器、操作系统、存储或甚至各个应用能力的底层云基础结构,可能的例外是有限的用户特定的应用配置设置。
在至少一个实施例中,云平台即服务(PaaS)可以指这样的服务:其中提供给消费者的能力是将消费者创建或获取的应用程序部署到云基础设施上,这些应用程序是使用由提供商支持的编程语言和工具创建的。在至少一个实施例中,消费者不管理或控制包括网络、服务器、操作系统或存储的底层云基础结构,但是具有对所部署的应用程序以及可能的应用托管环境配置的控制。
在至少一个实施例中,云基础设施即服务(IaaS)可以指这样的服务:其中向消费者提供的能力是提供处理、存储、网络和消费者能够部署和运行可包括操作系统和应用的任意软件的其他基本计算资源。在至少一个实施例中,消费者不管理或控制底层云基础设施,而是具有对操作系统、存储、所部署的应用程序的控制,以及对选择的联网组件(例如,主机防火墙)的可能有限的控制。
在至少一个实施例中,可以不同方式部署云计算。在至少一个实施例中,私有云可指仅针对组织操作的云基础设施。在至少一个实施例中,私有云可由组织或第三方管理,并且可存在于场所内或场所外。在至少一个实施例中,社区云可以指由若干组织共享并且支持具有共享关注(例如,任务、安全要求、策略和合规性考虑)的特定社区的云基础设施。在至少一个实施例中,社区云可由组织或第三方管理,并且可存在于场所内或场所外。在至少一个实施例中,公共云可以指代对一般公众或大型产业组可用并且由提供云服务的组织拥有的云基础设施。在至少一个实施例中,混合云可以指云基础设施是两个或更多个云(私有、社区或公共的)的组成部分,这些云仍然是唯一的实体,但是通过实现数据和应用便携性的标准化或专有技术(例如,用于云之间的负载平衡的云突发)绑定在一起。在至少一个实施例中,云计算环境是面向服务的,其关注于无状态性、低耦合、模块性和语义互操作性。在至少一个实施例中,关于图10A-10C所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,处理器1614使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图11示出根据至少一个实施例的系统环境1100的一个或更多个组件,其中服务可被提供为第三方网络服务。在至少一个实施例中,第三方网络可被称为云、云网络、云计算网络和/或其变体。在至少一个实施例中,系统环境1100包括一个或更多个客户端计算设备1104、1106和1108,客户端计算设备1104、1106和1108可被用户用来与提供第三方网络服务(其可被称为云计算服务)的第三方网络基础设施系统1102交互。在至少一个实施例中,第三方网络基础设施系统1102可包括一个或更多个计算机和/或服务器。
应了解,图11中所描绘的第三方网络基础设施系统1102可具有除了所描绘的那些组件之外的其他组件。进一步地,图11描绘了第三方网络基础设施系统的实施例。在至少一个实施例中,第三方网络基础设施系统1102可具有比图11中描绘的更多或更少的组件,可组合两个或更多个组件,或可具有不同的组件配置或布置。
在至少一个实施例中,客户端计算设备1104、1106和1108可被配置成操作客户端应用,诸如web浏览器,可由客户端计算设备的用户用来与第三方网络基础设施系统1102交互以使用由第三方网络基础设施系统1102提供的服务的专有客户端应用或一些其他应用。尽管示例性系统环境1100被示为具有三个客户端计算设备,但是可以支持任何数量的客户端计算设备。在至少一个实施例中,其他设备,诸如具有传感器的设备等,可与第三方网络基础设施系统1102交互。在至少一个实施例中,一个或更多个网络1110可以促进客户端计算设备1104、1106和1108与第三方网络基础设施系统1102之间的通信和数据交换。
在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可包括按需可用于第三方网络基础设施系统的用户的服务的主机。在至少一个实施例中,还可以提供各种服务,包括但不限于在线数据存储和备份解决方案、基于Web的电子邮件服务、托管的办公套件和文档协作服务、数据库管理和处理、管理的技术支持服务、和/或其变体。在至少一个实施例中,由第三方网络基础设施系统提供的服务可以动态地扩展以满足其用户的需要。
在至少一个实施例中,由第三方网络基础设施系统1102提供的服务的特定实例化可被称为“服务实例”。在至少一个实施例中,通常,经由通信网络(诸如互联网)从第三方网络服务提供商系统对用户可用的任何服务被称为“第三方网络服务”。在至少一个实施例中,在公共第三方网络环境中,组成第三方网络服务提供商系统的服务器和系统不同于客户自己的场所内服务器和系统。在至少一个实施例中,第三方网络服务提供商系统可以托管应用,并且用户可以经由通信网络(诸如互联网)按需订购和使用应用。
在至少一个实施例中,计算机网络第三方网络基础设施中的服务可包括对存储、托管数据库、托管网络服务器、软件应用或由第三方网络供应商提供给用户的其他服务的受保护的计算机网络访问。在至少一个实施例中,服务可包括通过互联网对第三方网络上的远程存储装置的密码保护的访问。在至少一个实施例中,服务可以包括基于网络服务的托管关系数据库和脚本语言中间件引擎,以便由联网开发者私人使用。在至少一个实施例中,服务可包括对托管在第三方网络供应商的网站上的电子邮件软件应用的访问。
在至少一个实施例中,第三方网络基础设施系统1102可包括以自助、基于订阅、可弹性扩展、可靠、高度可用和安全方式递送给客户的一套应用、中间件和数据库服务提供物。在至少一个实施例中,第三方网络基础设施系统1102还可以提供“大数据”相关的计算和分析服务。在至少一个实施例中,术语“大数据”通常用于指可以由分析师和研究人员存储和操纵的极大数据集,以便使大量数据可视化、检测趋势、和/或以其他方式与数据交互。在至少一个实施例中,大数据和相关应用可以由基础设施系统在许多级别上和以不同规模托管和/或操纵。在至少一个实施例中,并行链接的数十个、数百个或数千个处理器可对此类数据起作用以便呈现该数据或模拟对数据或其所表示的内容的外力。在至少一个实施例中,这些数据集可涉及结构化数据(诸如在数据库中或以其他方式根据结构化模型组织的结构化数据)和/或非结构化数据(例如,电子邮件、图像、数据blob(二进制大对象)、网页、复杂事件处理)。在至少一个实施例中,通过利用实施例的能力来将更多(或更少)计算资源相对快速地聚焦到目标上,第三方网络基础设施系统可以更好地可用于基于来自企业、政府机构、研究组织、私人个人、想法相同的个人或组织的组、或其他实体的需求在大数据集上执行任务。
在至少一个实施例中,第三方网络基础设施系统1102可以被适配成自动地提供、管理和跟踪顾客对由第三方网络基础设施系统1102提供的服务的订阅。在至少一个实施例中,第三方网络基础设施系统1102可以经由不同的部署模型提供第三方网络服务。在至少一个实施例中,可在公共第三方网络模型下提供服务,其中第三方网络基础设施系统1102由销售第三方网络服务的组织拥有,并且使得服务可用于一般公众或不同的行业企业。在至少一个实施例中,可在私有第三方网络模型下提供服务,在该私有第三方网络模型中,第三方网络基础设施系统1102仅针对单个组织操作,并且可为组织内的一个或更多个实体提供服务。在至少一个实施例中,第三方网络服务也可在社区第三方网络模型下提供,其中第三方网络基础设施系统1102和第三方网络基础设施系统1102提供的服务由相关社区中的若干组织共享。在至少一个实施例中,也可在混合第三方网络模型下提供第三方网络服务,该混合第三方网络模型是两个或更多个不同模型的组合。
在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可包括在软件即服务(SaaS)类别、平台即服务(PaaS)类别、基础设施即服务(IaaS)类别或包括混合服务的其他服务类别下提供的一个或更多个服务。在至少一个实施例中,客户经由订阅订单可订购由第三方网络基础设施系统1102提供的一个或更多个服务。在至少一个实施例中,第三方网络基础设施系统1102然后执行处理以在客户的订阅订单中提供服务。
在至少一个实施例中,由第三方网络基础设施系统1102提供的服务可以包括但不限于应用服务、平台服务和基础设施服务。在至少一个实施例中,应用服务可由第三方网络基础设施系统经由SaaS平台提供。在至少一个实施例中,SaaS平台可被配置为提供属于SaaS类别的第三方网络服务。在至少一个实施例中,SaaS平台可以提供在集成开发和部署平台上构建并递送一套按需应用的能力。在至少一个实施例中,SaaS平台可以管理和控制用于提供SaaS服务的底层软件和基础设施。在至少一个实施例中,通过利用由SaaS平台提供的服务,客户可利用在第三方网络基础设施系统上执行的应用。在至少一个实施例中,客户可以获得应用服务,而不需要客户购买单独的许可证和支持。在至少一个实施例中,可提供各种不同的SaaS服务。在至少一个实施例中,示例包括但不限于为大组织的销售性能管理、企业集成和商业灵活性提供解决方案的服务。
在至少一个实施例中,平台服务可由第三方网络基础设施系统1102经由PaaS平台提供。在至少一个实施例中,PaaS平台可被配置为提供属于PaaS类别的第三方网络服务。在至少一个实施例中,平台服务的示例可以包括但不限于使组织能够将现有应用合并在共享的公共架构上的服务,以及建立利用由平台提供的共享服务的新应用的能力。在至少一个实施例中,PaaS平台可以管理和控制用于提供PaaS服务的底层软件和基础设施。在至少一个实施例中,客户可获取由第三方网络基础设施系统1102提供的PaaS服务,而无需客户购买单独的许可证和支持。
在至少一个实施例中,通过利用由PaaS平台提供的服务,客户可采用由第三方网络基础设施系统支持的编程语言和工具,并且还控制所部署的服务。在至少一个实施例中,由第三方网络基础设施系统提供的平台服务可包括数据库第三方网络服务、中间件第三方网络服务和第三方网络服务。在至少一个实施例中,数据库第三方网络服务可支持共享服务部署模型,所述共享服务部署模型使组织能够汇聚数据库资源并以数据库第三方网络的形式向客户提供数据库即服务。在至少一个实施例中,在第三方网络基础设施系统中,中间件第三方网络服务可以为客户提供平台以开发和部署不同业务应用,并且第三方网络服务可以为客户提供平台以部署应用。
在至少一个实施例中,各种不同的基础设施服务可由第三方网络基础设施系统中的IaaS平台提供。在至少一个实施例中,基础设施服务促进利用由SaaS平台和PaaS平台提供的服务的客户对底层计算资源(诸如存储、网络和其他基础计算资源)的管理和控制。
在至少一个实施例中,第三方网络基础设施系统1102还可包括用于提供用于向第三方网络基础设施系统的客户提供各种服务的资源的基础设施资源1130。在至少一个实施例中,基础设施资源1130可包括硬件(诸如服务器、存储和联网资源)的预集成和优化的组合,用于执行由PaaS平台和SaaS平台提供的服务和其他资源。
在至少一个实施例中,第三方网络基础设施系统1102中的资源可由多个用户共享并且按照需求动态地重新分配。在至少一个实施例中,可以向不同时区中的用户分配资源。在至少一个实施例中,第三方网络基础设施系统1102可以使得第一时区中的第一组用户能够利用第三方网络基础设施系统的资源持续指定小时数,并且随后使得能够将相同资源重新分配给位于不同时区中的另一组用户,从而使资源利用率最大化。
在至少一个实施例中,可提供由第三方网络基础设施系统1102的不同组件或模块共享的多个内部共享服务1132,用于实现由第三方网络基础设施系统1102提供服务。在至少一个实施例中,这些内部共享服务可包括但不限于安全和身份服务、集成服务、企业库服务、企业管理器服务、病毒扫描和白名单服务、高可用性、备份和恢复服务、用于使能第三方网络支持的服务、电子邮件服务、通知服务、文件传输服务和/或其变体。
在至少一个实施例中,第三方网络基础设施系统1102可在第三方网络基础设施系统中提供第三方网络服务(例如,SaaS、PaaS和IaaS服务)的全面管理。在至少一个实施例中,第三方网络管理功能可包括用于供应、管理和跟踪由第三方网络基础设施系统1102接收的客户的订阅的能力和/或其变体。
在至少一个实施例中,如图11所示,第三方网络管理功能可以由一个或更多个模块提供,诸如订单管理模块1120、订单协调模块1122、订单供应模块1124、订单管理和监控模块1126和身份管理模块1128。在至少一个实施例中,这些模块可包括一个或更多个计算机和/或服务器或使用一个或更多个计算机和/或服务器来提供,所述一个或更多个计算机和/或服务器可以是通用计算机、专用服务器计算机、服务器农场、服务器集群或任何其他适当的布置和/或组合。
在至少一个实施例中,在步骤1134,使用客户端设备(诸如客户端计算设备1104、1106或1108)的客户可通过请求由第三方网络基础设施系统1102提供的一个或更多个服务并对由第三方网络基础设施系统1102提供的一个或更多个服务的订阅下订单来与第三方网络基础设施系统1102交互。在至少一个实施例中,客户可访问第三方网络用户界面(UI),诸如第三方网络UI 1112、第三方网络UI 1114和/或第三方网络UI 1116,并经由这些UI进行订购订单。在至少一个实施例中,由第三方网络基础设施系统1102响应于客户下订单而接收的订单信息可包括识别客户和由第三方网络基础设施系统1102提供的、客户想要订阅的一个或更多个服务的信息。
在至少一个实施例中,在步骤1136,从客户接收的订单信息可存储在订单数据库1118中。在至少一个实施例中,如果这是新订单,则可以为订单创建新记录。在至少一个实施例中,订单数据库1118可以是由第三方网络基础设施系统1118操作的并且结合其他系统元件操作的若干数据库之一。
在至少一个实施例中,在步骤1138,可以将订单信息转发到订单管理模块1120,该订单管理模块可以被配置成执行与订单相关的计费和记账功能,诸如验证订单,并且在验证后,预订一订单。
在至少一个实施例中,在步骤1140,关于订单的信息可被传送到订单协调模块1122,该订单协调模块1122被配置为针对由客户下的订单协调服务和资源的供应。在至少一个实施例中,订单协调模块1122可以使用订单供应模块1124的服务进行供应。在至少一个实施例中,订单协调模块1122使得能够管理与每个订单相关联的业务过程,并且应用业务逻辑来确定订单是否应继续供应。
在至少一个实施例中,在步骤1142,当接收到新订阅的订单时,订单协调模块1122向订单供应模块1124发送分配资源和配置满足订阅订单所需的资源的请求。在至少一个实施例中,订单供应模块1124实现针对由客户订购的服务的资源分配。在至少一个实施例中,订单供应模块1124提供由第三方网络基础设施系统1100提供的第三方网络服务与用于供应用于提供所请求的服务的资源的物理实现层之间的抽象级别。在至少一个实施例中,这使得订单协调模块1122能够与实现细节隔离,诸如服务和资源实际上是实时供应的,还是预先供应的并且仅在请求时分配/指派。
在至少一个实施例中,在步骤1144,一旦服务和资源被供应,可以向订阅客户发送指示所请求的服务现在准备好使用的通知。在至少一个实施例中,信息(例如,链接)可以被发送到客户,其使客户能够开始使用所请求的服务。
在至少一个实施例中,在步骤1146,客户订阅的订单可由订单管理和监控模块1126管理和跟踪。在至少一个实施例中,订单管理和监控模块1126可以被配置成收集关于订阅服务的客户使用的使用统计。在至少一个实施例中,可以针对所使用的存储量、所传输的数据量、用户数量、以及系统上电时间和系统下电时间的量和/或其变化来收集统计。
在至少一个实施例中,第三方网络基础设施系统1100可包括身份管理模块1128,该身份管理模块1128被配置成提供身份服务,诸如第三方网络基础设施系统1100中的访问管理和授权服务。在至少一个实施例中,身份管理模块1128可控制关于希望利用由第三方网络基础设施系统1102提供的服务的客户的信息。在至少一个实施例中,这样的信息可以包括认证这样的客户的身份的信息和描述那些客户被授权相对于各种系统资源(例如,文件、目录、应用、通信端口、存储器段等)执行哪些动作的信息。在至少一个实施例中,身份管理模块1128还可包括管理关于每个顾客的描述性信息以及关于可如何访问和修改该描述性信息和可由谁来访问和修改该描述性信息。在至少一个实施例中,关于图11所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,第三方网络基础设施系统1102使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图12示出了根据至少一个实施例的云计算环境1202。在至少一个实施例中,云计算环境1202包括一个或更多个计算机系统/服务器1204,诸如个人数字助理(PDA)或蜂窝电话1206A、台式计算机1206B、膝上型计算机1206C和/或汽车计算机系统1206N之类的计算设备与该一个或更多个计算机系统/服务器1204通信。在至少一个实施例中,这允许基础设施、平台和/或软件作为服务从云计算环境1202提供,以便不需要每个客户端单独地维护这样的资源。应当理解,图12中示出的计算设备1206A-N的类型旨在仅是说明性的,并且云计算环境1202可通过任何类型的网络和/或网络/可寻址连接(例如,使用web浏览器)与任何类型的计算机化设备通信。在至少一个实施例中,关于图12所示或描述的至少一个组件被用于实现本文以及至少结合图1-6描述的技术和/或功能。在至少一个实施例中,计算机系统/服务器1204使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
在至少一个实施例中,可被表示为云计算节点的计算机系统/服务器1204可与许多其他通用或专用计算系统环境或配置一起操作。在至少一个实施例中,可以适合于与计算机系统/服务器1204一起使用的计算系统、环境和/或配置的示例包括但不限于个人计算机系统、服务器计算机系统、瘦客户机、厚客户端、手持式或膝上型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品,网络PC、小型计算机系统、大型计算机系统和包括任何上述系统或设备的分布式云计算环境,和/或其变体。
在至少一个实施例中,计算机系统/服务器1204可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般上下文中描述。在至少一个实施例中,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、逻辑、数据结构等。在至少一个实施例中,示例性计算机系统/服务器1204可以在分布式云计算环境中实践,其中任务由通过通信网络链接的远程处理设备来执行。在至少一个实施例中,在分布式云计算环境中,程序模块可位于包括存储器存储设备的本地和远程计算机系统存储介质两者中。在至少一个实施例中,关于图12所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,计算机系统/服务器1204使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图13示出了根据至少一个实施例的由云计算环境1202(图12)提供的一组功能抽象层。应提前理解,图13中所示的组件、层和功能仅旨在是说明性的,并且组件、层和功能可以变化。
在至少一个实施例中,硬件和软件层1302包括硬件和软件组件。在至少一个实施例中,硬件组件的示例包括大型机、基于各种RISC(精简指令集计算机)架构的服务器、各种计算系统、超级计算系统、存储设备、网络、联网组件和/或其变体。在至少一个实施例中,软件组件的示例包括网络应用服务器软件、各种应用服务器软件、各种数据库软件、和/或其变体。
在至少一个实施例中,虚拟化层1304提供抽象层,从该抽象层可以提供以下示例性虚拟实体:虚拟服务器、虚拟存储、虚拟网络(包括虚拟私有网络)、虚拟应用、虚拟客户端和/或其变体。
在至少一个实施例中,管理层1306提供各种功能。在至少一个实施例中,资源供应提供用于在云计算环境内执行任务的计算资源和其他资源的动态获取。在至少一个实施例中,计量(metering)提供了在云计算环境内利用资源时的使用跟踪,以及针对这些资源的消耗的计费或发票。在至少一个实施例中,资源可以包括应用软件许可证。在至少一个实施例中,安全性为用户和任务提供身份验证,以及对数据和其他资源的保护。在至少一个实施例中,用户界面为用户和系统管理员两者提供对云计算环境的访问。在至少一个实施例中,服务水平管理提供云计算资源分配和管理,使得满足所需的服务水平。在至少一个实施例中,服务水平协议(SLA)管理提供云计算资源的预布置和获取,根据SLA预期对该云计算资源的未来需求。
在至少一个实施例中,工作负载层1308提供利用云计算环境的功能。在至少一个实施例中,可以从该层提供的工作负载和功能的示例包括:地图和导航、软件开发和管理、教育服务、数据分析和处理、交易处理和服务递送。
超级计算
以下附图阐述了但不限于可以用于实现至少一个实施例的示例性的基于超级计算机的系统。
在至少一个实施例中,超级计算机可以指展现出显著并行性并且包括至少一个芯片的硬件系统,其中系统中的芯片通过网络互连并且被放置在分层组织的外壳中。在至少一个实施例中,用若干机架填充机房的大型硬件系统是超级计算机的一个特定示例,每个机架包含若干板/机架模块,每个板/机架模块包含全部由可扩展网络互连的若干芯片。在至少一个实施例中,这种大型硬件系统的单个机架是超级计算机的另一个示例。在至少一个实施例中,展现出显著并行性并且包含若干硬件组件的单个芯片同样可以被认为是超级计算机,因为随着特征尺寸可能减小,可以结合在单个芯片中的硬件数量也可能增加。在至少一个实施例中,关于图13所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,软件层1302的服务器使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图14示出了根据至少一个实施例的芯片级的超级计算机。在至少一个实施例中,在FPGA或ASIC芯片内部,在被称为线程单元的有限状态机(1404)内执行主计算。在至少一个实施例中,任务和同步网络(1402)连接有限状态机并且被用于以正确的顺序分派线程和执行操作。在至少一个实施例中,使用存储器网络(1406,1410)来访问多级分区的片上高速缓存层级(1408,1412)。在至少一个实施例中,使用存储器控制器(1416)和片外存储器网络(1414)来访问片外存储器。在至少一个实施例中,当设计不适合于单个逻辑芯片时,I/O控制器(1418)用于跨芯片通信。在至少一个实施例中,关于图14所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,结合图14描述的超级计算机使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图15示出根据至少一个实施例的在机架模块级别的超级计算机。在至少一个实施例中,在机架模块内,存在连接至构成主加速器存储器的一个或更多个DRAM单元(1504)的多个FPGA或ASIC芯片(1502)。在至少一个实施例中,每个FPGA/ASIC芯片使用板上的宽总线用差分高速信令(1506)连接到其相邻的FPGA/ASIC芯片。在至少一个实施例中,每个FPGA/ASIC芯片还连接到至少一个高速串行通信电缆。在至少一个实施例中,关于图15所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,FPGA或ASIC芯片(1502)中的至少一个或更多个使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图16示出了根据至少一个实施例的机架级的超级计算机。图17示出了根据至少一个实施例的整个系统级的超级计算机。在至少一个实施例中,参见图16和图17,在机架中的机架模块之间并且跨整个系统的机架,使用高速串行光缆或铜电缆(1602,1702)来实现可扩展的、可能不完整的超立方体网络。在至少一个实施例中,加速器的FPGA/ASIC芯片中的一个通过PCI-Express连接被连接到主机系统(1704)。在至少一个实施例中,主机系统包括应用的软件部分在其上运行的主机微处理器(1708)以及由与加速器上的存储器保持一致的一个或更多个主机存储器DRAM单元(1706)组成的存储器。在至少一个实施例中,主机系统可以是机架之一上的单独模块,或可以与超级计算机的模块之一集成。在至少一个实施例中,立方体连接的循环拓扑提供通信链路以为大型超级计算机创建超立方体网络。在至少一个实施例中,机架模块上的小组FPGA/ASIC芯片可充当单个超立方体节点,使得与单个芯片相比,每组的外部链路的总数增加。在至少一个实施例中,组包含机架模块上的芯片A、B、C和D,该机架模块具有连接环形组织中的A、B、C和D的内部宽差分总线。在至少一个实施例中,存在将机架模块连接到外部世界的12条串行通信电缆。在至少一个实施例中,机架模块上的芯片A连接至串行通信电缆0、1、2。在至少一个实施例中,芯片B连接至电缆3、4、5。在至少一个实施例中,芯片C连接至6、7、8。在至少一个实施例中,芯片D连接至9、10、11。在至少一个实施例中,构成机架模块的整个组{A,B,C,D}可以形成超级计算机系统内的超立方体节点,其中多达212=4096个机架模块(16384FPGA/ASIC芯片)。在至少一个实施例中,为了使芯片A在组{A,B,C,D}的链路4上向外发送消息,必须首先用板上差分宽总线连接将消息路由到芯片B。在至少一个实施例中,在链路4上到达去往芯片A的组{A,B,C,D}(即,到达B)的消息也必须首先被路由到组{A,B,C,D}内部的正确目的地芯片(A)。在至少一个实施例中,还可以实现其他大小的并行超级计算机系统。在至少一个实施例中,关于图16-17所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,加速器的FPGA/ASIC芯片中的至少一个或更多个使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
人工智能
以下附图阐述了但不限于可以用于实现至少一个实施例的示例性的基于人工智能的系统。
图18A示出了用于执行与一个或更多个实施例相关联的推理和/或训练操作的推理和/或训练逻辑1815。下面结合图18A和/或图18B提供关于推理和/或训练逻辑1815的细节。
在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于,代码和/或数据存储1801,用于存储前向和/或输出权重和/或输入/输出数据,和/或在一个或更多个实施例的各方面中用于配置被训练和/或用于推理的神经网络的神经元或层的其他参数。在至少一个实施例中,训练逻辑1815可以包括或被耦合到代码和/或数据存储1801,用于存储图形代码或其他软件以控制定时和/或顺序,其中将加载权重和/或其他参数信息来配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(ALU))。在至少一个实施例中,代码(诸如图代码)基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器ALU中。在至少一个实施例中,代码和/或数据存储1801存储神经网络的每个层的权重参数和/或输入/输出数据,该神经网络在使用一个或更多个实施例的各方面的训练和/或推理期间在输入/输出数据和/或权重参数的前向传播期间与一个或更多个实施例结合训练或使用。在至少一个实施例中,代码和/或数据存储1801的任何部分可与其他片上或片外数据存储装置一起被包括,包括处理器的L1、L2或L3高速缓存存储器或系统存储器。
在至少一个实施例中,代码和/或数据存储1801的任何部分可在一个或更多个处理器或其他硬件逻辑设备或电路内部或外部。在至少一个实施例中,代码和/或代码和/或数据存储1801可以是高速缓存存储器、动态随机可寻址存储器(“DRAM”)、静态随机可寻址存储器(“SRAM”)、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,对代码和/或代码和/或数据存储1801是在处理器内部还是外部,例如,或包括DRAM、SRAM、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。
在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于:代码和/或数据存储1805,用于存储与在一个或更多个实施例的各方面中被训练和/或用于推理的神经网络的神经元或层相对应的反向和/或输出权重和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储1805存储神经网络的每一层的权重参数和/或输入/输出数据,该神经网络在使用一个或更多个实施例的各方面的训练和/或推理期间的输入/输出数据和/或权重参数的反后传播期间与一个或更多个实施例结合训练或使用。在至少一个实施例中,训练逻辑1815可以包括或被耦合到代码和/或数据存储1805,以存储图代码或其他软件来控制定时和/或顺序,其中将加载权重和/或其他参数信息以配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(ALU))。
在至少一个实施例中,代码(诸如图代码)使基于这样的代码所对应的神经网络的架构将权重或其他参数信息加载到处理器ALU中。在至少一个实施例中,代码和/或数据存储1805的任何部分可与其他片上或片外数据存储包括在一起,包括处理器的L1、L2或L3高速缓存或系统存储器。在至少一个实施例中,代码和/或数据存储1805的任何部分可以在一个或更多个处理器或其他硬件逻辑设备或电路的内部或外部。在至少一个实施例中,代码和/或数据存储1805可以是高速缓存存储器、DRAM、SRAM、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,对代码和/或数据存储1805是在处理器内部还是外部,例如,或包括DRAM、SRAM、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。
在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可为单独的存储结构。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可以是组合的存储结构。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805可部分组合且部分分离。在至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805的任何部分可与其他片上或片外数据存储(包括处理器的L1、L2或L3高速缓存或系统存储器)包括在一起。
在至少一个实施例中,推理和/或训练逻辑1815可以包括但不限于,一个或更多个算术逻辑单元(“ALU”)1810,包括整数和/或浮点单元,用于至少部分地基于训练和/或推理代码(例如,图形代码)或由训练和/或推理代码(例如,图形代码)指示来执行逻辑和/或数学运算,其结果可以产生存储在激活存储1820中的激活(例如,来自神经网络内的层或神经元的输出值),所述激活存储是存储在代码和/或数据存储1801和/或代码和/或数据存储1805中的输入/输出和/或权重参数数据的函数。在至少一个实施例中,根据响应于执行指令或其他代码、由ALU 1810执行的线性代数和/或基于矩阵的数学来生成存储在激活存储1820中的激活,其中存储在代码和/或数据存储1805和/或数据存储1801中的权重值与其他值(诸如偏置值、梯度信息、动量值或其他参数或超参数)一起被用作操作数,该其他值中的任何或全部值可被存储在代码和/或数据存储1805或代码和/或数据存储1801或芯片上或芯片外的另一存储中。
在至少一个实施例中,一个或更多个ALU 1810被包括在一个或更多个处理器或其他硬件逻辑器件或电路内,而在另一个实施例中,一个或更多个ALU 1810可以在处理器或使用它们的其他硬件逻辑器件或电路(例如,协处理器)的外部。在至少一个实施例中,ALU1810可以被包括在处理器的执行单元内或者以其他方式在可由处理器的执行单元可访问的ALU库内,所述处理器的执行单元在同一处理器内或分布在不同类型的不同处理器(例如,中央处理单元、图形处理单元、固定功能单元等)之间。在至少一个实施例中,代码和/或数据存储1801、代码和/或数据存储1805、以及激活存储1820可以共享处理器或其他硬件逻辑器件或电路,而在另一个实施例中,它们可以在不同的处理器或其他硬件逻辑器件或电路中,或在相同和不同处理器或其他硬件逻辑器件或电路的某种组合中。在至少一个实施例中,激活存储1820的任何部分可以与其他片上或片外数据存储包括在一起,所述其他片上或片外数据存储包括处理器的L1、L2或L3高速缓存或系统存储器。此外,推理和/或训练代码可与处理器或其他硬件逻辑或电路可访问并使用处理器的获取、解码、调度、执行、引退(retirement)和/或其他逻辑电路来获取和/或处理的其他代码一起存储。
在至少一个实施例中,激活存储1820可以是高速缓存存储器、DRAM、SRAM、非易失性存储器(例如,闪存)或其他存储装置。在至少一个实施例中,激活存储1820可以完全或部分地在一个或更多个处理器或其他逻辑电路之内或外部。在至少一个实施例中,对激活存储1820是在处理器内部还是外部,例如,或包括DRAM、SRAM、闪存或一些其他存储类型的选择,可以取决于片上相对于片外的可用存储,正在执行的训练和/或推理功能的延时要求、在神经网络的推理和/或训练中使用的数据的批大小,或这些因素的一些组合。
在至少一个实施例中,图18A中所示出的推理和/或训练逻辑1815可以与专用集成电路(“ASIC”)结合使用,诸如来自谷歌的处理单元、来自GraphcoreTM的推理处理单元(IPU)、或来自英特尔公司的/>(例如,“Lake Crest”)处理器。在至少一个实施例中,图18A中所示出的推理和/或训练逻辑1815可以结合中央处理单元(“CPU”)硬件、图形处理单元(“GPU”)硬件或其他硬件(如现场可编程门阵列(“FPGA”))使用。
图18B示出了根据至少一个实施例的推理和/或训练逻辑1815。在至少一个实施例中,推理和/或训练逻辑1815可包括但不限于其中计算资源是专用的或以其他方式结合与神经网络内的一个或更多个神经元层相对应的权重值或其他信息排他地使用的硬件逻辑。在至少一个实施例中,图18B中所示出的推理和/或训练逻辑1815可以结合专用集成电路(ASIC)(如来自谷歌的处理单元、来自GraphcoreTM的推理处理单元(IPU)、或来自英特尔公司的/>(例如,“Lake Crest”)处理器来使用。在至少一个实施例中,图18B中示出的推理和/或训练逻辑1815可结合中央处理单元(CPU)硬件、图形处理单元(GPU)硬件或其他硬件(诸如现场可编程门阵列(FPGA))使用。在至少一个实施例中,推理和/或训练逻辑1815包括但不限于代码和/或数据存储1801以及代码和/或数据存储1805,其可以用于存储代码(例如,图代码)、权重值和/或其他信息,包括偏置值、梯度信息、动量值和/或其他参数或超参数信息。在图18B中所说明的至少一个实施例中,代码和/或数据存储1801和代码和/或数据存储1805中的每一者分别与专用计算资源(例如,计算硬件1802和计算硬件1806)相关联。在至少一个实施例中,计算硬件1802和计算硬件1806中的每一个包括一个或更多个ALU,该一个或更多个ALU仅分别对存储在代码和/或数据存储1801和代码和/或数据存储1805中的信息执行数学函数(诸如线性代数函数),其结果被存储在激活存储1820中。
在至少一个实施例中,每个代码和/或数据存储1801和1805以及相应的计算硬件1802和1806,分别对应于神经网络的不同层,使得来自代码和/或数据存储1801和计算硬件1802中的一个存储/计算对1801/1802的结果激活作为输入被提供给代码和/或数据存储1805和计算硬件1806中的下一个存储/计算对1805/1806,以便镜像神经网络的概念组织。在至少一个实施例中,存储/计算对1801/1802和1805/1806中的每一个可对应于多于一个神经网络层。在至少一个实施例中,在存储/计算对1801/1802和1805/1806之后或与存储/计算对1801/1802和1805/1806并行的附加存储/计算对(未示出)可被包括在推理和/或训练逻辑1815中。在至少一个实施方案中,关于图18所示或描述的至少一个组件被用于实现本文所述的和至少结合图1-6描述的技术和/或功能。
图19示出根据至少一个实施例的深度神经网络的训练和部署。在至少一个实施例中,使用训练数据集1902来训练未经训练的神经网络1906。在至少一个实施例中,训练框架1904是PyTorch框架,而在其他实施例中,训练框架1904是TensorFlow、Boost、Caffe、Microsoft Cognitive Toolkit/CNTK、MXNet、Chainer、Keras、Deeplearning4j或其他训练框架。在至少一个实施例中,训练框架1904对未经训练的神经网络1906进行训练,并使其能够使用本文中所描述的处理资源来训练以生成经训练的神经网络1908。在至少一个实施例中,权重可以随机选择或通过使用深度信念网络进行预训练来选择。在至少一个实施例中,训练可以以监督、部分监督或无监督的方式来执行。
在至少一个实施例中,使用监督学习来训练未经训练的神经网络1906,其中训练数据集1902包括与用于输入的期望输出配对的输入,或者其中训练数据集1902包括具有已知输出的输入,并且神经网络1906的输出被手动地分级。在至少一个实施例中,以监督方式来训练未经训练的神经网络1906,并且处理来自训练数据集1902的输入,并将结果输出与预期或期望输出的集合进行比较。在至少一个实施例中,然后误差被反向传播通过未经训练的神经网络1906。在至少一个实施例中,训练框架1904调整控制未经训练的神经网络1906的权重。在至少一个实施例中,训练框架1904包括用于监视未经训练的神经网络1906朝向模型(诸如经训练的神经网络1908)收敛多好的工具,该模型适于基于输入数据(诸如新数据集1912)来生成正确答案(诸如结果1914)。在至少一个实施例中,训练框架1904重复地训练未经训练的神经网络1906,同时使用损失函数和调整算法(诸如随机梯度下降)来调整权重以精炼未经训练的神经网络1906的输出。在至少一个实施例中,训练框架1904训练未经训练的神经网络1906,直到未经训练的神经网络1906实现所期望的准确度。在至少一个实施例中,经训练的神经网络1908然后可被部署以实现任何数量的机器学习操作。
在至少一个实施例中,使用无监督学习来训练未经训练的神经网络1906,其中未经训练的神经网络1906尝试使用未标记的数据来训练其自身。在至少一个实施例中,无监督学习训练数据集1902将包括输入数据而没有任何相关联的输出数据或“地面真值”数据。在至少一个实施例中,未经训练的神经网络1906可以学习训练数据集1902内的分组,并且可以确定各个输入如何与未经训练的数据集1902相关。在至少一个实施例中,无监督训练可被用于在经训练的神经网络1908中生成能够执行在减少新数据集1912的维度中有用的操作的自组织映射。在至少一个实施例中,无监督训练还可用于执行异常检测,其允许识别新数据集1912中偏离新数据集1912的正常模式的数据点。
在至少一个实施例中,可以使用半监督学习,半监督学习是其中在训练数据集1902中包括标记数据和未标记数据的混合的技术。在至少一个实施例中,训练框架1904可被用于执行增量学习,诸如通过转移学习技术。在至少一个实施例中,增量学习使得经训练的神经网络1908能够适应新的数据集1912,而不会忘记在初始训练期间注入在经训练的神经网络1908内的知识。在至少一个实施例中,关于图19所示或描述的至少一个组件被用来实现本文所述的和至少结合图1-6描述的技术和/或功能。
5G网络
以下附图阐述了但不限于可以用于实现至少一个实施例的示例性基于5G网络的系统。
图20示出了根据至少一个实施例的网络的系统2000的架构。在至少一个实施例中,系统2000被示为包括用户设备(UE)2002和UE 2004。在至少一个实施例中,UE 2002和2004被示为智能电话(例如,可连接到一个或更多个蜂窝网络的手持触摸屏移动计算设备),但还可包括任何移动或非移动计算设备,诸如个人数字助理(PDA)、寻呼机、膝上型计算机、台式计算机、无线手持设备或包括无线通信接口的任何计算设备。
在至少一个实施例中,UE 2002和UE 2004中的任何一个可包括物联网(IoT)UE,该IoT UE可包括为利用短暂UE连接的低功率IoT应用设计的网络接入层。在至少一个实施例中,IoT UE可利用诸如用于经由公共陆地移动网络(PLMN)、基于邻近的服务(ProSe)或设备到设备(D2D)通信、传感器网络或IoT网络与MTC服务器或设备交换数据的技术,诸如机器对机器(M2M)或机器类型通信(MTC)。在至少一个实施例中,M2M或MTC数据交换可以是机器发起的数据交换。在至少一个实施例中,IoT网络描述互连IoT UE,该IoT UE可包括具有短寿命连接的可唯一标识的嵌入式计算设备(在互联网基础结构内)。在至少一个实施例中,IoTUE可执行后台应用(例如,保活消息、状态更新等)以促进IoT网络的连接。
在至少一个实施例中,UE 2002和UE 2004可以被配置为与无线电接入网(RAN)2016连接(例如,通信地耦合)。在至少一个实施例中,RAN 2016例如可以是演进的通用移动电信系统(UMTS)陆地无线电接入网络(E-UTRAN)、NextGen RAN(NG RAN)或一些其他类型的RAN。在至少一个实施例中,UE 2002和UE 2004分别利用连接2012和连接2014,每个连接包括物理通信接口或层。在至少一个实施例中,连接2012和2014被示为空中接口,用于实现通信耦合,并且可以与蜂窝通信协议一致,诸如全球移动通信系统(GSM)协议,码分多址(CDMA)网络协议、即按即讲(PTT)协议、蜂窝PTT(POC)协议、通用移动电信系统(UMTS)协议、3GPP长期演进(LTE)协议、第五代(5G)协议、新无线电(NR)协议及其变型。
在至少一个实施例中,UE 2002和2004还可经由ProSe接口2006直接交换通信数据。在至少一个实施例中,ProSe接口2006可替代地被称为边链路接口,其包括一个或更多个逻辑信道,包括但不限于物理边链路控制信道(PSCCH)、物理边链路共享信道(PSSCH)、物理边链路发现信道(PSDCH)和物理边链路广播信道(PSBCH)。
在至少一个实施例中,UE 2004被示为配置成经由连接2008接入接入点(AP)2010。在至少一个实施例中,连接2008可以包括本地无线连接,诸如与任何IEEE 802.11协议一致的连接,其中AP 2010将包括无线保真路由器。在至少一个实施例中,AP 2010被示为连接到互联网而不连接到无线系统的核心网。
在至少一个实施例中,RAN 2016可包括启用连接2012和2014的一个或更多个接入节点。在至少一个实施例中,这些接入节点(AN)可被称为基站(BS)、NodeB、演进型NodeB(eNB)、下一代NodeB(gNB)、RAN节点等,并且可包括地面站(例如,地面接入点)或提供地理区域(例如,小区)内的覆盖的卫星站。在至少一个实施例中,RAN 2016可包括用于提供宏蜂窝小区的一个或更多个RAN节点(例如,宏RAN节点2018)和用于提供毫微微蜂窝小区或微微蜂窝小区(例如,与宏蜂窝小区相比具有较小覆盖区域、较小用户容量、或较高带宽的蜂窝小区)的一个或更多个RAN节点(例如,低功率(LP)RAN节点2020)。
在至少一个实施例中,RAN节点2018和2020中的任一个可终止空中接口协议并且可以为UE 2002和2004的第一联系点。在至少一个实施例中,RAN节点2018和2020中的任一个可实现RAN 2016的各种逻辑功能,包括但不限于无线电网络控制器(RNC)功能,诸如无线电承载管理、上行链路和下行链路动态无线电资源管理和数据分组调度和移动性管理。
在至少一个实施例中,UE 2002和UE 2004可被配置为使用正交频分复用(OFDM)通信信号根据各种通信技术通过多载波通信信道彼此通信或者与RAN节点2018和RAN节点2020中的任一个通信,通信技术诸如但不限于正交频分多址(OFDMA)通信技术(例如,用于下行链路通信)或单载波频分多址(SC-FDMA)通信技术(例如,用于上行链路和ProSe或边链路通信),和/或其变体。在至少一个实施例中,OFDM信号可包括多个正交子载波。
在至少一个实施例中,下行链路资源网格可以用于从RAN节点2018和2020中的任一个到UE 2002和2004的下行链路传输,而上行链路传输可以利用类似的技术。在至少一个实施例中,网格可以是称为资源网格或时频资源网格的时频网格,其是每个时隙中下行链路中的物理资源。在至少一个实施例中,这种时频平面表示是OFDM系统的常见实践,这使得其对于无线电资源分配来说是直观的。在至少一个实施例中,资源网格的每列和每行分别对应于一个OFDM符号和一个OFDM子载波。在至少一个实施例中,时域中的资源网格的持续时间对应于无线电帧中的一个时隙。在至少一个实施例中,资源网格中的最小时间-频率单元被表示为资源元素。在至少一个实施例中,每个资源网格包括多个资源块,其描述某些物理信道到资源元素的映射。在至少一个实施例中,每个资源块包括资源元素的集合。在至少一个实施例中,在频域中,这可以表示当前可以被分配的最小数量的资源。在至少一个实施例中,存在使用这样的资源块传送的若干不同的物理下行链路信道。
在至少一个实施例中,物理下行链路共享信道(PDSCH)可以运载用户数据和更高层信令给UE 2002和2004。在至少一个实施例中,物理下行链路控制信道(PDCCH)可运载关于与PDSCH信道相关的传输格式和资源分配的信息等。在至少一个实施例中,其还可以向UE2002和2004通知与上行链路共享信道有关的传输格式、资源分配和HARQ(混合自动重传请求)信息。在至少一个实施例中,通常,下行链路调度(将控制和共享信道资源块分配给小区内的UE 2002)可以在RAN节点2018和2020中的任一个处基于从UE 2002和2004中的任一个反馈的信道质量信息来执行。在至少一个实施例中,下行链路资源分配信息可以在用于(例如分配给)UE 2002和2004中的每一个的PDCCH上发送。
在至少一个实施例中,PDCCH可以使用控制信道元素(CCE)来传送控制信息。在至少一个实施例中,在被映射到资源元素之前,PDCCH复值符号可以首先被组织成四元组,然后可以使用子块交织器对其进行置换以用于速率匹配。在至少一个实施例中,可以使用这些CCE中的一个或更多个来传送每个PDCCH,其中每个CCE可以对应于被称为资源元素组(REG)的四个物理资源元素的九个集合。在至少一个实施例中,四个正交相移键控(QPSK)符号可以被映射到每个REG。在至少一个实施例中,取决于下行链路控制信息(DCI)的大小和信道条件,可以使用一个或更多个CCE来发送PDCCH。在至少一个实施例中,可以有在LTE中定义的具有不同数目的CCE的四个或更多个不同的PDCCH格式(例如,聚合等级,L=1、2、4或8)。
在至少一个实施例中,使用PDSCH资源的增强型物理下行链路控制信道(EPDCCH)可以用于控制信息传输。在至少一个实施例中,可以使用一个或更多个增强型控制信道元素(ECCE)来发送EPDCCH。在至少一个实施例中,每个ECCE可以对应于被称为增强型资源元素组(EREG)的四个物理资源元素的九个集合。在至少一个实施例中,ECCE在一些情况下可以具有其他数目的EREG。
在至少一个实施例中,RAN 2016被示为经由S1接口2022通信地耦合至核心网(CN)2038。在至少一个实施例中,CN 2038可以是演进的分组核心(EPC)网络、NextGen分组核心(NPC)网络或一些其他类型的CN。在至少一个实施例中,S1接口2022被分成两部分:S1-U接口2026,其运载RAN节点2018和2020与服务网关(S-GW)2030之间的业务数据;以及S1-移动性管理实体(MME)接口2024,其为RAN节点2018和2020与MME 2028之间的信令接口。
在至少一个实施例中,CN 2038包括MME 2028、S-GW 2030、分组数据网络(PDN)网关(P-GW)2034和归属订户服务器(HSS)2032。在至少一个实施例中,MME 2028可以在功能上类似于传统服务通用分组无线电服务(GPRS)支持节点(SGSN)的控制平面。在至少一个实施例中,MME 2028可以管理接入中的移动性方面,例如网关选择和跟踪区域列表管理。在至少一个实施例中,HSS 2032可以包括用于网络用户的数据库,该数据库包括用于支持网络实体处理通信会话的订阅相关信息。在至少一个实施例中,CN 2038可以包括一个或更多个HSS 2032,这取决于移动用户的数量、设备的容量、网络的组织等。在至少一个实施例中,HSS 2032可以提供对路由/漫游、认证、授权、命名/寻址解析、位置依赖性等的支持。
在至少一个实施例中,S-GW 2030可以终止朝向RAN 2016的S1接口2022,并且在RAN 2016和CN 2038之间路由数据分组。在至少一个实施例中,S-GW 2030可以是用于RAN间节点切换的本地移动性锚点,并且还可以提供用于3GPP间移动性的锚点。在至少一个实施例中,其他责任可以包括合法拦截、收费和一些策略强制执行。
在至少一个实施例中,P-GW 2034可以终止朝向PDN的SGi接口。在至少一个实施例中,P-GW 2034可以经由互联网协议(IP)接口2042在EPC网络2038和外部网络(诸如包括应用服务器2040(或者称为应用功能(AF))的网络)之间路由数据分组。在至少一个实施例中,应用服务器2040可以是采用核心网络(例如,UMTS分组服务(PS)域、LTE PS数据服务等)提供使用IP承载资源的应用的元件。在至少一个实施例中,P-GW 2034被示出为经由IP通信接口2042通信地耦合到应用服务器2040。在至少一个实施例中,应用服务器2040还可被配置为经由CN 2038支持UE 2002和2004的一个或更多个通信服务(例如,互联网协议语音(VoIP)会话、PTT会话、群组通信会话、社交网络服务等)。
在至少一个实施例中,P-GW 2034还可以是用于策略实施和收费数据收集的节点。在至少一个实施例中,策略和计费执行功能(PCRF)2036是CN 2038的策略和计费控制元件。在至少一个实施例中,在非漫游场景中,在与UE的互联网协议连接性接入网络(IP-CAN)会话相关联的归属公共陆地移动网络(HPLMN)中可以存在单个PCRF。在至少一个实施例中,在具有本地流量突破的漫游场景中,可存在与UE的IP-CAN会话相关联的两个PCRF:HPLMN内的归属PCRF(H-PCRF)和受访公共陆地移动网络(VPLMN)内的受访PCRF(V-PCRF)。在至少一个实施例中,PCRF 2036可以经由P-GW 2034通信地耦合到应用服务器2040。在至少一个实施例中,应用服务器2040可以向PCRF 2036发信号,以指示新的服务流,并选择适当的服务质量(QoS)和计费参数。在至少一个实施例中,PCRF 2036可以将这个规则供应到具有适当的业务流模板(TFT)和标识符的QoS类(QCI)的策略和计费执行功能(PCEF)(未示出),所述PCEF开始由应用服务器2040指定的QoS和计费。在至少一个实施例中,关于图20所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,一个或更多个UE 2004使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图21示出了根据一些实施例的网络的系统2100的架构。在至少一个实施例中,系统2100被示为包括UE 2102、5G接入节点或RAN节点(被示为(R)AN节点2108),用户平面功能(被示出为UPF 2104),数据网络(DN 2106),其可以是例如运营商服务、互联网接入或第三方服务、以及5G核心网络(5GC)(示为CN 2110)。
在至少一个实施例中,CN 2110包括认证服务器功能(AUSF 2114);核心接入和移动性管理功能(AMF 2112);会话管理功能(SMF 2118);网络暴露功能(NEF 2116);策略控制功能(PCF 2122);网络功能(NF)储存库功能(NRF 2120);统一数据管理(UDM 2124);以及应用功能(AF 2126)。在至少一个实施例中,CN 2110还可包括未示出的其他元件,诸如结构化数据存储网络功能(SDSF)、非结构化数据存储网络功能(UDSF)及其变型。
在至少一个实施例中,UPF 2104可充当RAT内和RAT间移动性的锚点、互连到DN2106的外部PDU会话点、和支持多归属PDU会话的分支点。在至少一个实施例中,UPF 2104还可以执行分组路由和转发、分组检查、实施策略规则的用户平面部分、合法拦截分组(UP收集);业务使用报告、为用户平面执行QoS处理(例如分组过滤、门控、UL/DL速率执行)、执行上行链路业务验证(例如,SDF到QoS流映射)、上行链路和下行链路中的传输级分组标记、以及下行链路分组缓存和下行链路数据通知触发。在至少一个实施例中,UPF 2104可包括上行链路分类器,用于支持将业务流路由到数据网络。在至少一个实施例中,DN 2106可表示各种网络运营商服务、互联网接入或第三方服务。
在至少一个实施例中,AUSF 2114可以存储用于UE 2102的认证的数据,并且处理与认证相关的功能。在至少一个实施例中,AUSF 2114可以促进用于各种接入类型的公共认证框架。
在至少一个实施例中,AMF 2112可以负责注册管理(例如,用于注册UE 2102等)、连接管理、可达性管理、移动性管理、和AMF相关事件的合法拦截、以及接入认证和授权。在至少一个实施例中,AMF 2112可以为SMF 2118提供SM消息的传输,并且充当用于路由SM消息的透明代理。在至少一个实施例中,AMF 2112还可以提供UE 2102与SMS功能(SMSF)(图21未示出)之间的短消息服务(SMS)消息的传输。在至少一个实施例中,AMF 2112可以充当安全锚定功能(SEA),其可以包括与AUSF 2114和UE 2102的交互以及接收作为UE 2102认证过程的结果而建立的中间密钥。在至少一个实施例中,在使用基于USIM的认证的情况下,AMF2112可以从AUSF 2114检索安全材料。在至少一个实施例中,AMF 2112还可以包括安全上下文管理(SCM)功能,其从SEA接收它用来导出接入网络专用密钥的密钥。此外,在至少一个实施例中,AMF 2112可以是RAN CP接口的终止点(N2参考点)、NAS(NI)信令的终止点,并且执行NAS加密和完整性保护。
在至少一个实施例中,AMF 2112还可以支持通过N3互通功能(IWF)接口与UE 2102的NAS信令。在至少一个实施例中,N3IWF可以用于提供对不受信实体的访问。在至少一个实施例中,N3IWF可以分别是控制平面和用户平面的N2和N3接口的终止点,因此,可针对PDU会话和QoS处理来自SMF和AMF的N2信令,对IPSec和N3隧道的分组进行封装/解封装,在上行链路中标记N3用户平面分组,并且考虑到与通过N2接收的这种标记相关联的QoS要求,实施对应于N3分组标记的QoS。在至少一个实施例中,N3IWF还可以在UE 2102和AMF 2112之间中继上行链路和下行链路控制平面NAS(NI)信令,并且在UE 2102和UPF 2104之间中继上行链路和下行链路用户平面分组。在至少一个实施例中,N3IWF还提供用于与UE 2102的IPsec隧道建立的机制。
在至少一个实施例中,SMF 2118可负责会话管理(例如,会话建立、修改和释放,包括UPF和AN节点之间的隧道保持);UE IP地址分配和管理(包括可选的授权);UP功能的选择和控制;在UPF处配置流量转向以将流量路由到合适的目的地;朝向策略控制功能的接口终止;策略强制执行和QoS的控制部分;合法拦截(用于SM事件和到LI系统的接口);NAS消息的SM部分的终止;下行链路数据通知;AN特定SM信息的发起者,其经由AMF在N2上发送到AN;确定会话的SSC模式。在至少一个实施例中,SMF 2118可包括以下漫游功能:处理本地实施以应用QoS SLAB(VPLMN);收费数据收集和收费接口(VPLMN);合法拦截(在VPLMN中用于SM事件并且接口到LI系统);支持与外部DN交互以传输用于由外部DN进行的PDU会话授权/认证的信令。
在至少一个实施例中,NEF 2116可以提供用于安全地暴露由3GPP网络功能为第三方提供的服务和能力、内部暴露/重新暴露、应用功能(例如,AF 2126)、边缘计算或雾计算系统等的装置。在至少一个实施例中,NEF 2116可认证、授权和/或节流AF。在至少一个实施例中,NEF 2116还可以转换与AF 2126交换的信息和与内部网络功能交换的信息。在至少一个实施例中,NEF 2116可以在AF服务标识符和内部5GC信息之间转换。在至少一个实施例中,NEF 2116还可以基于其他网络功能的暴露的能力从其他网络功能(NF)接收信息。在至少一个实施例中,该信息可作为结构化数据存储在NEF 2116处,或使用标准化接口存储在数据存储NF处。在至少一个实施例中,所存储的信息然后可由NEF 2116重新暴露给其他NF和AF,和/或用于其他目的,诸如分析。
在至少一个实施例中,NRF 2120可以支持服务发现功能,从NF实例接收NF发现请求,以及向NF实例提供所发现的NF实例的信息。在至少一个实施例中,NRF 2120还维护可用NF实例及其支持的服务的信息。
在至少一个实施例中,PCF 2122可向控制平面功能提供策略规则以实施它们,并且还可支持统一策略框架以管理网络行为。在至少一个实施例中,PCF 2122还可实现前端(FE),用于访问UDM 2124的UDR中与策略决策相关的订阅信息。
在至少一个实施例中,UDM 2124可处理订阅相关信息以支持网络实体处理通信会话,并且可存储UE 2102的订阅数据。在至少一个实施例中,UDM 2124可以包括两个部分,应用FE和用户数据存储库(UDR)。在至少一个实施例中,UDM可以包括UDM FE,该UDM FE负责处理凭证、位置管理、订阅管理等。在至少一个实施例中,若干不同前端可在不同交易中服务同一用户。在至少一个实施例中,UDM-FE访问UDR中存储的子订阅信息,并执行认证凭证处理;用户标识处理;接入授权;注册/移动性管理;以及订阅管理。在至少一个实施例中,UDR可与PCF 2122交互。在至少一个实施例中,UDM 2124还可支持SMS管理,其中SMS-FE实现如前所述的类似应用逻辑。
在至少一个实施例中,AF 2126可以提供对业务路由的应用影响、对网络能力暴露(NCE)的接入,以及与策略框架的交互以用于策略控制。在至少一个实施例中,NCE可以是允许5GC和AF 2126经由NEF 2116向彼此提供信息的机制,NEF 2116可以用于边缘计算实现。在至少一个实施例中,网络运营商和第三方服务可被托管在UE 2102的附接接入点附近,以通过减少的端到端延时和传输网络上的负载来实现高效的服务递送。在至少一个实施例中,对于边缘计算实现,5GC可选择靠近UE 2102的UPF 2104,并经由N6接口执行从UPF 2104到DN 2106的业务引导。在至少一个实施例中,这可以基于由AF 2126提供的UE订阅数据、UE位置和信息。在至少一个实施例中,AF 2126可以影响UPF(重新)选择和业务路由。在至少一个实施例中,基于运营商部署,当AF 2126被认为是受信实体时,网络运营商可以允许AF2126直接与相关NF交互。
在至少一个实施例中,CN 2110可以包括SMSF,其可以负责SMS订阅检查和验证,并且中继去往/来自UE 2102的SM消息到/来自其他实体,例如SMS-GMSC/IWMSC/SMS路由器。在至少一个实施例中,SMS还可以与AMF 2112和UDM 2124交互,以用于UE 2102可用于SMS传送的通知过程(例如,设置UE不可达标志,并且当UE 2102可用于SMS时通知UDM 2124)。
在至少一个实施例中,系统2100可以包括以下基于服务的接口:Namf:AMF展现的基于服务的接口;Nsmf:SMF展现的基于服务的接口;Nnef:NEF展现的基于服务的接口;Npcf:PCF展现的基于服务的接口;Nudm:UDM展现的基于服务的接口;Naf:AF展现的基于服务的接口;Nnrf:NRF展现的基于服务的接口;以及Nausf:AUSF展现的基于服务的接口。
在至少一个实施例中,系统2100可以包括以下参考点:N1:UE和AMF之间的参考点;N2:(R)AN和AMF之间的参考点;N3:(R)AN和UPF之间的参考点;N4:SMF和UPF之间的参考点;以及N6:UPF和数据网络之间的参考点。在至少一个实施例中,NF中的NF服务之间可能存在更多的参考点和/或基于服务的接口,然而,为清楚起见,这些接口和参考点已经被省略。在至少一个实施例中,NS参考点可以在PCF与AF之间;N7参考点可以在PCF与SMF之间;N11参考点在AMF与SMF之间等等。在至少一个实施例中,CN 2110可以包括Nx接口,Nx接口是MME和AMF 2112之间的CN间接口,以便实现CN 2110和CN 7221之间的互通。
在至少一个实施例中,系统2100可包括多个RAN节点(诸如(R)AN节点2108),其中在连接到5GC 410的两个或更多个(R)AN节点2108(例如,gNB)之间,在连接到CN 2110的(R)AN节点2108(例如gNB)和eNB(例如宏RAN节点)之间,和/或在连接到CN 2110的两个eNB之间定义Xn接口。
在至少一个实施例中,Xn接口可以包括Xn用户平面(Xn-U)接口和Xn控制平面(Xn-C)接口。在至少一个实施例中,Xn-U可以提供用户平面PDU的无保证的递送,并且支持/提供数据转发和流控制功能。在至少一个实施例中,Xn-C可提供管理和错误处理功能、管理Xn-C接口的功能;对处于连接模式(例如,CM-CONNECTED)的UE 2102的移动性支持,其包括管理针对一个或更多个(R)AN节点2108之间的连接模式的UE移动性的功能。在至少一个实施例中,移动性支持可包括从旧(源)服务(R)AN节点2108到新(目标)服务(R)AN节点2108的上下文传送;以及控制旧(源)服务(R)AN节点2108至新(目标)服务(R)AN节点2108之间的用户平面隧道。
在至少一个实施例中,Xn-U的协议栈可以包括在互联网协议(IP)传输层上构建的传输网络层和在UDP和/或一个或更多个IP层的顶部上用于承载用户平面PDU的GTP-U层。在至少一个实施例中,Xn-C协议栈可以包括应用层信令协议(称为Xn应用协议(Xn-AP))和建立在SCTP层上的传输网络层。在至少一个实施例中,SCTP层可以在IP层的顶部上。在至少一个实施例中,SCTP层提供应用层消息的有保证的递送。在至少一个实施例中,在传输IP层中,点对点传输被用于递送信令PDU。在至少一个实施例中,Xn-U协议栈和/或Xn-C协议栈可以与本文中示出和描述的用户平面和/或控制平面协议栈相同或相似。在至少一个实施例中,关于图21所示或描述的至少一个组件被用来实现本文所述的和至少结合图1-6描述的技术和/或功能。
图22是根据一些实施例的控制平面协议栈的图示。在至少一个实施例中,控制平面2200被示为UE 2002(或可替代地,UE 2004)、RAN 2016和MME 2028之间的通信协议栈。
在至少一个实施例中,PHY层2202可以通过一个或更多个空中接口发送或接收由MAC层2204使用的信息。在至少一个实施例中,PHY层2202还可以执行链路自适应或自适应调制和编码(AMC)、功率控制、小区搜索(例如,用于初始同步和切换目的)和由较高层(例如,RRC层2210)使用的其他测量。在至少一个实施例中,PHY层2202还可以进一步对传输信道执行错误检测、传输信道的前向纠错(FEC)编码/解码、物理信道的调制/解调、交织、速率匹配、映射到物理信道、以及多输入多输出(MIMO)天线处理。
在至少一个实施例中,MAC层2204可执行逻辑信道和传输信道之间的映射,将来自一个或更多个逻辑信道的MAC服务数据单元(SDU)复用到要经由传输信道递送到PHY的传输块(TB)上,将MAC SDU从经由传输信道从PHY递送的传输块(TB)解复用到一个或更多个逻辑信道,将MAC SDU复用到TB上、调度信息报告、通过混合自动重传请求(HARD)的纠错,以及逻辑信道优先化。
在至少一个实施例中,RLC层2206可在多种操作模式下操作,包括:透明模式(TM)、非确认模式(UM)和确认模式(AM)。在至少一个实施例中,RLC层2206可以执行上层协议数据单元(PDU)的传输、通过针对AM数据传输的自动重复请求(ARQ)的纠错、以及用于UM和AM数据传输的RLC SDU的级联、分段和重组。在至少一个实施例中,RLC层2206还可以执行用于AM数据传输的RLC数据PDU的重新分段,对用于UM和AM数据传输的RLC数据PDU进行重排序,检测用于UM和AM数据传输的重复数据,丢弃用于UM和AM数据传输的RLC SDU,检测AM数据传输的协议错误,以及执行RLC重建。
在至少一个实施例中,PDCP层2208可以执行IP数据的报头压缩和解压缩,维持PDCP序列号(SN),在重建较低层时执行较高层PDU的序列内递送,在为映射在RLC AM上的无线电承载重建较低层时消除较低层SDU的复制,对控制平面数据进行加密和解密,对控制平面数据进行完整性保护和完整性验证,基于控制定时器的数据丢弃,以及执行安全操作(例如,加密、解密、完整性保护、完整性验证等)。
在至少一个实施例中,RRC层2210的主要服务和功能可包括系统信息的广播(例如,包括在与非接入层(NAS)相关的主信息块(MIB)或系统信息块(SIB)中),与接入层(AS)有关的系统信息的广播、UE与E-UTRAN之间的RRC连接的寻呼、建立、维持和释放(例如,RRC连接寻呼、RRC连接建立、RRC连接修改和RRC连接释放),点对点无线承载的建立、配置、维护和释放,包括密钥管理的安全功能,无线电接入技术(RAT)间移动性,以及用于UE测量报告的测量配置。在至少一个实施例中,所述MIB和SIB可包括一个或更多个信息元素(IE),每个信息元素可包括单独的数据字段或数据结构。
在至少一个实施例中,UE 2002和RAN 2016可以利用Uu接口(例如,LTE-Uu接口)来经由包括PHY层2202、MAC层2204、RLC层2206、PDCP层2208和RRC层2210的协议栈交换控制平面数据。
在至少一个实施例中,非接入层(NAS)协议(NAS协议2212)形成UE 2002与MME2028之间的控制平面的最高层。在至少一个实施例中,NAS协议2212支持UE 2002的移动性和会话管理过程以建立和维持UE 2002与P-GW 2034之间的IP连接。
在至少一个实施例中,Si应用协议(Si-AP)层(Si-AP层2222)可以支持Si接口的功能并且包括基本过程(EP)。在至少一个实施例中,EP是RAN 2016和CN 2028之间的交互单元。在至少一个实施例中,S1-AP层服务可以包括两个组:UE关联服务和非UE关联服务。在至少一个实施例中,这些服务执行功能,包括但不限于:E-UTRAN无线电接入承载(E-RAB)管理、UE能力指示、移动性、NAS信令传输、RAN信息管理(RIM)和配置转移。
在至少一个实施例中,流控制传输协议(SCTP)层(可替代地称为流控制传输协议/互联网协议(SCTP/IP)层)(SCTP层2220)可以部分地基于IP层2218所支持的IP协议来确保RAN 2016与MME 2028之间的信令消息的可靠传递。在至少一个实施例中,L2层2216和L1层2214可以指由RAN节点和MME用来交换信息的通信链路(例如,有线或无线)。
在至少一个实施例中,RAN 2016和一个或更多个MME 2028可以利用S1-MME接口来经由包括L1层2214、L2层2216、IP层2218、SCTP层2220和Si-AP层2222的协议栈交换控制平面数据。在至少一个实施例中,关于图22所示或描述的至少一个组件被用来实现本文所述的和至少结合图1-6描述的技术和/或功能。
图23是根据至少一个实施例的用户平面协议栈的图示。在至少一个实施例中,用户平面2300被示为UE 2002、RAN 2016、S-GW 2030和P-GW 2034之间的通信协议栈。在至少一个实施例中,用户平面2300可以利用与控制平面2200相同的协议层。在至少一个实施例中,例如,UE 2002和RAN 2016可以利用Uu接口(例如,LTE-Uu接口)来经由包括PHY层2202、MAC层2204、RLC层2206、PDCP层2208的协议栈来交换用户平面数据。
在至少一个实施例中,用于用户平面的通用分组无线电服务(GPRS)隧道协议(GTP-U)层(GTP-U层2304)可以用于在GPRS核心网络内和在无线电接入网络和核心网络之间运载用户数据。在至少一个实施例中,所传输的用户数据可以是例如IPv4、IPv6或PPP格式中的任何格式的分组。在至少一个实施例中,UDP和IP安全(UDP/IP)层(UDP/IP层2302)可以提供数据完整性的校验和、用于在源和目的地寻址不同功能的端口号、以及对所选数据流的加密和认证。在至少一个实施例中,RAN 2016和S-GW 2030可以利用S1-U接口来经由包括L1层2214、L2层2216、UDP/IP层2302和GTP-U层2304的协议栈来交换用户平面数据。在至少一个实施例中,S-GW 2030和P-GW 2034可以利用S5/S8a接口来经由包括L1层2214、L2层2216、UDP/IP层2302和GTP-U层2304的协议栈交换用户平面数据。在至少一个实施例中,如以上关于图22所讨论的,NAS协议支持UE 2002的移动性和会话管理过程以建立和维持UE2002与P-GW 2034之间的IP连接。在至少一个实施例中,关于图23所示或描述的至少一个组件被用来实现本文所述的和至少结合图1-6描述的技术和/或功能。
图24示出了根据至少一个实施例的核心网络的组件2400。在至少一个实施例中,CN 2038的组件可以在一个物理节点或单独的物理节点中实现,所述单独的物理节点包括用于从机器可读介质或计算机可读介质(例如,非暂态机器可读存储介质)读取和执行指令的组件。在至少一个实施例中,网络功能虚拟化(NFV)用于经由存储在一个或更多个计算机可读存储介质(以下进一步详细描述)中的可执行指令来虚拟化任何或所有的上述网络节点功能。在至少一个实施例中,CN 2038的逻辑实例化可以被称为网络切片2402(例如,网络切片2402被示出为包括HSS 2032、MME 2028和S-GW 2030)。在至少一个实施例中,CN 2038的一部分的逻辑实例化可以被称为网络子切片2404(例如,网络子切片2404被示出为包括P-GW 2034和PCRF 2036)。
在至少一个实施例中,NFV架构和基础设施可以用于将一个或更多个网络功能虚拟化到包括行业标准服务器硬件、存储硬件或交换机的组合的物理资源上,所述网络功能可替代地由专用硬件执行。在至少一个实施例中,NFV系统可用于执行一个或更多个EPC组件/功能的虚拟或可重新配置的实现方式。在至少一个实施例中,关于图24所示或描述的至少一个组件被用来实现本文所述的和至少结合图1-6描述的技术和/或功能。
图25是示出了根据至少一个实施例的用于支持网络功能虚拟化(NFV)的系统2500的组件的框图。在至少一个实施例中,系统2500被示为包括虚拟化基础设施管理器(被示为VIM 2502)、网络功能虚拟化基础设施(如NFVI 2504所示)、VNF管理器(如VNFM 2506所示)、虚拟化网络功能(示出为VNF 2508)、元件管理器(示出为EM 2510)、NFV协调器(示出为NFVO2512)、以及网络管理器(示为NM 2514)。
在至少一个实施例中,VIM 2502管理NFVI 2504的资源。在至少一个实施例中,NFVI 2504可包括用于执行系统2500的物理或虚拟资源和应用(包括管理程序)。在至少一个实施例中,VIM 2502可以利用NFVI 2504来管理虚拟资源的生命周期(例如,与一个或更多个物理资源相关联的虚拟机(VM)的创建、维护和拆除)、跟踪VM实例、跟踪性能、VM实例和相关联的物理资源的故障和安全性、以及向其他管理系统暴露VM实例和相关联的物理资源。
在至少一个实施例中,VNFM 2506可以管理VNF 2508。在至少一个实施例中,VNF2508可以用于执行EPC组件/功能。在至少一个实施例中,VNFM 2506可以管理VNF 2508的生命周期并且跟踪VNF 2508的虚拟方面的性能、故障和安全性。在至少一个实施例中,EM2510可以跟踪VNF 2508的功能方面的性能、故障和安全性。在至少一个实施例中,跟踪来自VNFM 2506和EM 2510的数据可以包括例如由VIM 2502或NFVI 2504使用的性能测量(PM)数据。在至少一个实施例中,VNFM 2506和EM 2510两者可以放大/缩小系统2500的VNF的数量。
在至少一个实施例中,NFVO 2512可协调、授权、释放和占用NFVI 2504的资源,以便提供所请求的服务(例如,以执行EPC功能、组件或切片)。在至少一个实施例中,NM 2514可提供负责管理网络的终端用户功能包,该网络可包括具有VNF、非虚拟化网络功能或两者的网络元件(VNF的管理可经由EM 2510发生)。在至少一个实施例中,关于图25所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,VNFM 2506使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
基于计算机的系统
以下各图提出但不限于可用于实现至少一个实施例的示例性的基于计算机的系统。
图26示出了根据至少一个实施例的处理系统2600。在至少一个实施例中,系统2600包括一个或更多个处理器2602和一个或更多个图形处理器2608,并且可以是单处理器台式机系统、多处理器工作站系统或具有大量处理器2602或处理器核心2607的服务器系统。在至少一个实施例中,处理系统2600是结合在片上系统(SoC)集成电路内的处理平台,以用于移动、手持或嵌入式设备。
在至少一个实施例中,处理系统2600可以包括或结合在基于服务器的游戏平台中,包括游戏和媒体控制台的游戏控制台、移动游戏控制台、手持游戏控制台或在线游戏控制台。在至少一个实施例中,处理系统2600是移动电话、智能电话、平板计算设备或移动互联网设备。在至少一个实施例中,处理系统2600还可包括与可穿戴设备耦合或集成在可穿戴设备中,例如智能手表可穿戴设备、智能眼镜设备、增强现实设备或虚拟现实设备。在至少一个实施例中,处理系统2600是电视或机顶盒设备,其具有一个或更多个处理器2602以及由一个或更多个图形处理器2608生成的图形界面。
在至少一个实施例中,一个或更多个处理器2602每个包括一个或更多个处理器核心2607,以处理指令,该指令在被执行时执行针对系统和用户软件的操作。在至少一个实施例中,一个或更多个处理器核心2607中的每一个被配置为处理特定指令集2609。在至少一个实施例中,指令集2609可以促进复杂指令集计算(CISC)、精简指令集计算(RISC),或通过超长指令字(VLIW)进行计算。在至少一个实施例中,多个处理器核心2607可以各自处理不同的指令集2609,该指令集2609可以包括有助于仿真其他指令集的指令。在至少一个实施例中,处理器核心2607还可以包括其他处理设备,例如数字信号处理器(DSP)。
在至少一个实施例中,处理器2602包括高速缓存存储器(cache)2604。在至少一个实施例中,处理器2602可以具有单个内部高速缓存或多个级别的内部高速缓存。在至少一个实施例中,高速缓存存储器在处理器2602的各个组件之间共享。在至少一个实施例中,处理器2602还使用外部高速缓存(例如,三级(L3)高速缓存或最后一级高速缓存(LLC))(未示出),其可以使用已知的高速缓存一致性技术在处理器核心2607之间共享该逻辑。在至少一个实施例中,处理器2602中另外包括寄存器文件2606,处理器2602可以包括用于存储不同类型的数据的不同类型的寄存器(例如,整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器)。在至少一个实施例中,寄存器文件2606可以包括通用寄存器或其他寄存器。
在至少一个实施例中,一个或更多个处理器2602与一个或更多个接口总线2610耦合,以在处理器2602与系统2600中的其他组件之间传输通信信号,例如地址、数据或控制信号。在至少一个实施例中,接口总线2610在一个实施例中可以是处理器总线,例如直接媒体接口(DMI)总线的版本。在至少一个实施例中,接口总线2610不限于DMI总线,并且可以包括一个或更多个外围组件互连总线(例如,PCI,PCI Express)、存储器总线或其他类型的接口总线。在至少一个实施例中,处理器2602包括集成存储器控制器2616和平台控制器集线器2630。在至少一个实施例中,存储器控制器2616促进存储设备与处理系统2600的其他组件之间的通信,而平台控制器集线器(PCH)2630通过本地I/O总线提供到输入/输出(I/O)设备的连接。
在至少一个实施例中,存储器设备2620可以是动态随机存取存储器(DRAM)设备、静态随机存取存储器(SRAM)设备、闪存设备、相变存储设备或具有适当的性能以用作处理器存储器。在至少一个实施例中,存储设备2620可以用作处理系统2600的系统存储器,以存储数据2622和指令2621,以在一个或更多个处理器2602执行应用或过程时使用。在至少一个实施例中,存储器控制器2616还与可选的外部图形处理器2612耦合,其可以与处理器2602中的一个或更多个图形处理器2608通信以执行图和媒体操作。在至少一个实施例中,显示设备2611可以连接至处理器2602。在至少一个实施例中,显示设备2611可以包括内部显示设备中的一个或更多个,例如在移动电子设备或便携式计算机设备或通过显示器接口(例如显示端口(DisplayPort)等)连接的外部显示设备。在至少一个实施例中,显示设备2611可以包括头戴式显示器(HMD),诸如用于虚拟现实(VR)应用或增强现实(AR)应用中的立体显示设备。
在至少一个实施例中,平台控制器集线器2630使外围设备能够通过高速I/O总线连接到存储设备2620和处理器2602。在至少一个实施例中,I/O外围设备包括但不限于音频控制器2646、网络控制器2634、固件接口2628、无线收发器2626、触摸传感器2625、数据存储设备2624(例如,硬盘驱动器、闪存等)。在至少一个实施例中,数据存储设备2624可以经由存储器接口(例如,SATA)或经由外围总线来连接,诸如外围组件互连总线(例如,PCI、PCIe)。在至少一个实施例中,触摸传感器2625可以包括触摸屏传感器、压力传感器或指纹传感器。在至少一个实施例中,无线收发器2626可以是Wi-Fi收发器、蓝牙收发器或移动网络收发器,诸如3G、4G或长期演进(LTE)收发器。在至少一个实施例中,固件接口2628使能与系统固件的通信,在至少一个实施例中,并且可以是例如统一的可扩展固件接口(UEFI)。在至少一个实施例中,网络控制器2634可以启用到有线网络的网络连接。在至少一个实施例中,高性能网络控制器(未示出)与接口总线2610耦合。在至少一个实施例中,音频控制器2646是多通道高清晰度音频控制器。在至少一个实施例中,处理系统2600包括可选的传统(legacy)I/O控制器2640,用于将遗留(例如,个人系统2(PS/2))设备耦合到处理系统2600。在至少一个实施例中,平台控制器集线器2630还可以连接到一个或更多个通用串行总线(USB)控制器2642,该控制器连接输入设备,诸如键盘和鼠标2643组合、相机2644或其他USB输入设备。
在至少一个实施例中,存储器控制器2616和平台控制器集线器2630的实例可以集成到离散的外部图形处理器中,例如外部图形处理器2612。在至少一个实施例中,平台控制器集线器2630和/或存储控制器2616可以在一个或更多个处理器2602的外部。例如,在至少一个实施例中,处理系统2600可以包括外部存储控制器2616和平台控制器集线器2630,其可以配置成在与处理器2602通信的系统芯片组中的存储器控制器集线器和外围控制器集线器。在至少一个实施例中,关于图26所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,一个或更多个处理器2602使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图27示出了根据至少一个实施例的计算机系统2700。在至少一个实施例中,计算机系统2700可以是具有互连的设备和组件,SOC,或某种组合的系统。在至少一个实施例中,计算机系统2700由处理器2702形成,该处理器2702可以包括用于执行指令的执行单元。在至少一个实施例中,计算机系统2700可以包括但不限于组件,例如处理器2702,其采用包括逻辑的执行单元以执行用于过程数据的算法。在至少一个实施例中,计算机系统2700可以包括处理器,例如可从加利福尼亚圣塔克拉拉的英特尔公司(Intel Corporation ofSanta Clara,California)获得的处理器家族、XeonTM、/>XScaleTM和/或StrongARMTM,/>CoreTM或/>NervanaTM微处理器,尽管也可以使用其他系统(包括具有其他微处理器的PC、工程工作站、机顶盒等)。在至少一个实施例中,计算机系统2700可以执行可从华盛顿州雷蒙德市的微软公司(Microsoft Corporation ofRedmond,Wash.)获得的WINDOWS操作系统版本,尽管其他操作系统(例如UNIX和Linux)、嵌入式软件和/或图形用户界面也可以使用。
在至少一个实施例中,计算机系统2700可以用在其他设备中,例如手持设备和嵌入式应用。手持设备的一些示例包括蜂窝电话、互联网协议(Internet Protocol)设备、数码相机、个人数字助理(“PDA”)和手持PC。在至少一个实施例中,嵌入式应用可以包括微控制器、数字信号处理器(“DSP”)、SoC、网络计算机(“NetPC”)、机顶盒、网络集线器、广域网(“WAN”)交换机,或根据至少一个实施例可以执行一个或更多个指令的任何其他系统。
在至少一个实施例中,计算机系统2700可包括但不限于处理器2702,该处理器2702可包括但不限于一个或更多个执行单元2708,其可以配置为执行计算统一设备架构(“CUDA”)(由加利福尼亚州圣克拉拉的NVIDIACorporation开发)程序。在至少一个实施例中,CUDA程序是用CUDA编程语言编写的软件应用程序的至少一部分。在至少一个实施例中,计算机系统2700是单处理器台式机或服务器系统。在至少一个实施例中,计算机系统2700可以是多处理器系统。在至少一个实施例中,处理器2702可以包括但不限于例如CISC微处理器、RISC微处理器、VLIW微处理器、实现指令集组合的处理器,或任何其他处理器设备,诸如数字信号处理器。在至少一个实施例中,处理器2702可以耦合到处理器总线2710,该处理器总线2710可以在处理器2702与计算机系统2700中的其他组件之间传输数据信号。
在至少一个实施例中,处理器2702可以包括但不限于1级(“L1”)内部高速缓存存储器(“cache”)2704。在至少一个实施例中,处理器2702可以具有单个内部高速缓存或多级内部缓存。在至少一个实施例中,高速缓存存储器可以驻留在处理器2702的外部。在至少一个实施例中,处理器2702可以包括内部和外部高速缓存的组合。在至少一个实施例中,寄存器文件2706可以在各种寄存器中存储不同类型的数据,包括但不限于整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器。
在至少一个实施例中,包括但不限于执行整数和浮点运算的逻辑的执行单元2708,其也位于处理器2702中。处理器2702还可以包括微码(“ucode”)只读存储器(“ROM”),用于存储某些宏指令的微代码。在至少一个实施例中,执行单元2708可以包括用于处理封装指令集2709的逻辑。在至少一个实施例中,通过将封装指令集2709包括在通用处理器2702的指令集中,以及要执行指令的相关电路,可以使用通用处理器2702中的封装数据来执行许多多媒体应用程序使用的操作。在至少一个实施例中,可以通过使用处理器的数据总线的全宽度来在封装的数据上执行操作来加速和更有效地执行许多多媒体应用程序,这可能不需要在处理器的数据总线上传输较小的数据单元来一次对一个数据元素执行一个或更多个操作。
在至少一个实施例中,执行单元2708也可以用在微控制器、嵌入式处理器、图形设备、DSP和其他类型的逻辑电路中。在至少一个实施例中,计算机系统2700可以包括但不限于存储器2720。在至少一个实施例中,存储器2720可以被实现为DRAM设备、SRAM设备、闪存设备或其他存储设备。存储器2720可以存储由处理器2702可以执行的由数据信号表示的指令2719和/或数据2721。
在至少一个实施例中,系统逻辑芯片可以耦合到处理器总线2710和存储器2720。在至少一个实施例中,系统逻辑芯片可以包括但不限于存储器控制器集线器(“MCH”)2716,并且处理器2702可以经由处理器总线2710与MCH 2716通信。在至少一个实施例中,MCH2716可以提供到存储器2720的高带宽存储器路径2718以用于指令和数据存储以及用于图形命令、数据和纹理的存储。在至少一个实施例中,MCH 2716可以在处理器2702、存储器2720和计算机系统2700中的其他组件之间启动数据信号,并且在处理器总线2710、存储器2720和系统I/O 2722之间桥接数据信号。在至少一个实施例中,系统逻辑芯片可以提供用于耦合到图形控制器的图形端口。在至少一个实施例中,MCH 2716可以通过高带宽存储器路径2718耦合到存储器2720,并且图形/视频卡2712可以通过加速图形端口(AcceleratedGraphics Port)(“AGP”)互连2714耦合到MCH 2716。
在至少一个实施例中,计算机系统2700可以使用系统I/O 2722作为专有集线器接口总线来将MCH 2716耦合到I/O控制器集线器(“ICH”)2730。在至少一个实施例中,ICH2730可以通过本地I/O总线提供与某些I/O设备的直接连接。在至少一个实施例中,本地I/O总线可以包括但不限于用于将外围设备连接到存储器2720、芯片组和处理器2702的高速I/O总线。示例可以包括但不限于音频控制器2729、固件集线器(“Flash BIOS”)2728、无线收发器2726、数据存储2724、包含用户输入2725的传统I/O控制器2723和键盘接口、串行扩展端口2727(例如USB)和网络控制器2734。数据存储2724可以包括硬盘驱动器、软盘驱动器、CD-ROM设备、闪存设备或其他大容量存储设备。
在至少一个实施例中,图27示出了包括互连的硬件设备或“芯片”的系统。在至少一个实施例中,图27可以示出示例性SoC。在至少一个实施例中,图27中示出的设备可以与专有互连、标准化互连(例如,PCIe)或其某种组合互连。在至少一个实施例中,系统2700的一个或更多个组件使用计算快速链路(CXL)互连来互连。在至少一个实施例中,关于图27所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,处理器2702使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图28示出了根据至少一个实施例的系统2800。在至少一个实施例中,系统2800是利用处理器2810的电子设备。在至少一个实施例中,系统2800可以是,例如但不限于,笔记本电脑、塔式服务器、机架服务器、刀片服务器、膝上型计算机、台式机、平板电脑、移动设备、电话、嵌入式计算机或任何其他合适的电子设备。
在至少一个实施例中,系统2800可以包括但不限于通信地耦合到任何合适数量或种类的组件、外围设备、模块或设备的处理器2810。在至少一个实施例中,处理器2810使用总线或接口耦合,诸如I2C总线、系统管理总线(“SMBus”)、低引脚数(LPC)总线、串行外围接口(“SPI”)、高清音频(“HDA”)总线、串行高级技术附件(“SATA”)总线、USB(1、2、3版)或通用异步接收器/发送器(“UART”)总线。在至少一个实施例中,
图28示出了系统,该系统包括互连的硬件设备或“芯片”。在至少一个实施例中,图28可以示出示例性SoC。在至少一个实施例中,图28中所示的设备可以与专有互连线、标准化互连(例如,PCIe)或其某种组合互连。
在至少一个实施例中,图28的一个或更多个组件使用计算快速链路(CXL)互连线来互连。
在至少一个实施例中,图28可以包括显示器2824、触摸屏2825、触摸板2830、近场通信单元(“NFC”)2845、传感器集线器2840、热传感器2846、快速芯片组(“EC”)2835、可信平台模块(“TPM”)2838、BIOS/固件/闪存(“BIOS,FW Flash”)2822、DSP 2860、固态磁盘(“SSD”)或硬盘驱动器(“HDD”)2820、无线局域网单元(“WLAN”)2850、蓝牙单元2852、无线广域网单元(“WWAN”)2856、全球定位系统(GPS)2855、相机(“USB 3.0相机”)2854(例如USB3.0相机)或以例如LPDDR3标准实现的低功耗双倍数据速率(“LPDDR”)存储器单元(“LPDDR3”)2815。这些组件可以各自以任何合适的方式实现。
在至少一个实施例中,其他组件可以通过以上讨论的组件通信地耦合到处理器2810。在至少一个实施例中,加速度计2841、环境光传感器(“ALS”)2842、罗盘2843和陀螺仪2844可以可通信地耦合到传感器集线器2840。在至少一个实施例中,热传感器2839、风扇2837、键盘2846和触摸板2830可以通信地耦合到EC 2835。在至少一个实施例中,扬声器2863、耳机2864和麦克风(“mic”)2865可以通信地耦合到音频单元(“音频编解码器和D类放大器”)2864,其又可以通信地耦合到DSP 2860。在至少一个实施例中,音频单元2864可以包括例如但不限于音频编码器/解码器(“编解码器”)和D类放大器。在至少一个实施例中,SIM卡(“SIM”)2857可以通信地耦合到WWAN单元2856。在至少一个实施例中,组件(诸如WLAN单元2850和蓝牙单元2852以及WWAN单元2856)可以被实现为下一代形式因素(NGFF)。在至少一个实施例中,关于图28所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,处理器2810使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图29示出了根据至少一个实施例的示例性集成电路2900。在至少一个实施例中,示例性集成电路2900是SoC,其可使用一个或更多个IP核心制造。在至少一个实施例中,集成电路2900包括一个或更多个应用处理器2905(例如,CPU)、至少一个图形处理器2910,并且可以另外包括图像处理器2915和/或视频处理器2920,其中任意一个可能是模块化IP核心。在至少一个实施例中,集成电路2900包括外围或总线逻辑,其包括USB控制器2925、UART控制器2930、SPI/SDIO控制器2935和I2S/I2C控制器2940。在至少一个实施例中,集成电路2900可以包括显示设备2945耦合到高清多媒体接口(HDMI)控制器2950和移动工业处理器接口(MIPI)显示接口2955中的一个或更多个。在至少一个实施例中,存储可以由闪存子系统2960提供,包括闪存和闪存控制器。在至少一个实施例中,可以经由存储器控制器2965提供存储器接口以用于访问SDRAM或SRAM存储器设备。在至少一个实施例中,一些集成电路还包括嵌入式安全引擎2970。在至少一个实施例中,关于图29所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,一个或更多个应用程序处理器2905使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图30示出了根据至少一个实施例的计算系统3000。在至少一个实施例中,计算系统3000包括处理子系统3001,其具有经由可以包括存储器集线器3005的互连路径通信的一个或更多个处理器3002和系统存储器3004。在至少一个实施例中,存储器集线器3005可以是芯片组组件内的单独组件,也可以集成在一个或更多个处理器3002内。在至少一个实施例中,存储器集线器3005通过通信链路3006与I/O子系统3011耦合。在至少一个实施例中,I/O子系统3011包括I/O集线器3007,其可以使计算系统3000能够接收来自一个或更多个输入设备3008的输入。在至少一个实施例中,I/O集线器3007可以使能显示控制器,其包括在一个或更多个处理器3002中,用于向一个或更多个显示设备3010A提供输出。在至少一个实施例中,与I/O集线器3007耦合的一个或更多个显示设备3010A可以包括本地、内部或嵌入式显示设备。
在至少一个实施例中,处理子系统3001包括经由总线或其他通信链路3013耦合到存储器集线器3005的一个或更多个并行处理器3012。在至少一个实施例中,通信链路3013可以是许多基于标准的通信链路技术或协议中的一种,例如但不限于PCIe,或者可以是针对供应商的通信接口或通信结构。在至少一个实施例中,一个或更多个并行处理器3012形成计算集中的并行或向量处理系统,该系统可以包括大量的处理核心和/或处理集群,例如多集成核心(MIC)处理器。在至少一个实施例中,一个或更多个并行处理器3012形成可以将像素输出到经由I/O集线器3007耦合的一个或更多个显示设备3010A之一的图形处理子系统。在至少一个实施例中,一个或更多个并行处理器3012还可以包括显示控制器和显示接口(未示出),以使得能够直接连接到一个或更多个显示设备3010B。
在至少一个实施例中,系统存储单元3014可以连接到I/O集线器3007,以提供用于计算系统3000的存储机制。在至少一个实施例中,I/O交换机3016可以用于提供接口机制,以实现I/O集线器3007与其他组件之间的连接,例如可以集成到平台中的网络适配器3018和/或无线网络适配器3019,以及可以通过一个或更多个附加设备3020添加的各种其他设备。在至少一个实施例中,网络适配器3018可以是以太网适配器或另一有线网络适配器。在至少一个实施例中,无线网络适配器3019可以包括Wi-Fi、蓝牙、NFC的一个或更多个或其他包括一个或更多个无线电的网络设备。
在至少一个实施例中,计算系统3000可以包括未明确示出的其他组件,包括USB或其他端口连接、光存储驱动器、视频捕获设备和/或其变体,也可以连接到I/O集线器3007。在至少一个实施例中,对图30中的各个组件进行互连的通信路径可以使用任何合适的协议来实现,诸如基于PCI(外围组件互连)的协议(例如,PCIe),或其他总线或点对点通信接口和/或协议(例如,NVLink高速互连或互连协议)。
在至少一个实施例中,一个或更多个并行处理器3012包括针对图形和视频处理而优化的电路(例如,包括视频输出电路),并构成图形处理单元(GPU)。在至少一个实施例中,一个或更多个并行处理器3012包括针对通用处理而优化的电路。在至少一个实施例中,计算系统3000的组件可以与单个集成电路上的一个或更多个其他系统元件集成。例如,在至少一个实施例中,一个或更多个并行处理器3012、存储器集线器3005、处理器3002和I/O集线器3007可以被集成到片上系统(SoC)集成电路中。在至少一个实施例中,计算系统3000的组件可以被集成到单个封装中以形成系统级封装(SIP)配置。在至少一个实施例中,计算系统3000的组件的至少一部分可以被集成到多芯片模块(MCM)中,该多芯片模块可以与其他多芯片模块互连到模块化计算系统中。在至少一个实施例中,从计算系统3000中省略了I/O子系统3011和显示设备3010B。在至少一个实施例中,关于图30所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,一个或更多个处理器3002使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
处理系统
以下各图阐述了但不限于可用于实现至少一个实施例的示例性处理系统。
图31示出了根据至少一个实施例的加速处理单元(“APU”)3100。在至少一个实施例中,APU 3100由加利福尼亚州圣克拉拉市的AMD公司开发。在至少一个实施例中,APU3100可以被配置为执行应用程序,诸如CUDA程序。在至少一个实施例中,APU 3100包括但不限于核心复合体3110、图形复合体3140、结构3160、I/O接口3170、存储器控制器3180、显示控制器3192和多媒体引擎3194。在至少一个实施例中,APU 3100可以包括但不限于任意数量的核心复合体3110、任意数量的图形复合体3140、任意数量的显示控制器3192和任意数量的多媒体引擎3194的任何组合。为了说明的目的,在本文中用附图标记表示相似对象的多个实例,其中附图标记标识该对象,并且括号中的数字标识所需要的实例。
在至少一个实施例中,核心复合体3110是CPU,图形复合体3140是GPU,并且APU3100是将不限于3110和3140集成到单个芯片上的处理单元。在至少一个实施例中,一些任务可以被分配给核心复合体3110,而其他任务可以被分配给图形复合体3140。在至少一个实施例中,核心复合体3110被配置为执行与APU 3100相关联的主控制软件,例如操作系统。在至少一个实施例中,核心复合体3110是APU 3100的主处理器,其控制和协调其他处理器的操作。在至少一个实施例中,核心复合体3110发出控制图形复合体3140的操作的命令。在至少一个实施例中,核心复合体3110可以被配置为执行从CUDA源代码派生的主机可执行代码,并且图形复合体3140可以被配置为执行从CUDA源代码派生的设备可执行代码。
在至少一个实施例中,核心复合体3110包括但不限于核心3120(1)-3120(4)和L3高速缓存3130。在至少一个实施例中,核心复合体3110可以包括但不限于任意数量的核心3120以及任意数量和类型的高速缓存的任何组合。在至少一个实施例中,核心3120被配置为执行特定指令集架构(“ISA”)的指令。在至少一个实施例中,每个核心3120是CPU核心。
在至少一个实施例中,每个核心3120包括但不限于获取/解码单元3122,整数执行引擎3124,浮点执行引擎3126和L2高速缓存3128。在至少一个实施例中,获取/解码单元3122获取指令,对这些指令进行解码,生成微操作,并将单独的微指令分派给整数执行引擎3124和浮点执行引擎3126。在至少一个实施例中,获取/解码单元3122可以同时分派一个微指令到整数执行引擎3124和另一微指令到浮点执行引擎3126。在至少一个实施例中,整数执行引擎3124执行不限于整数和存储器操作。在至少一个实施例中,浮点引擎3126执行不限于浮点和向量运算。在至少一个实施例中,获取-解码单元3122将微指令分派给单个执行引擎,该执行引擎代替整数执行引擎3124和浮点执行引擎3126两者。
在至少一个实施例中,每个核心3120(i)可以访问包括在核心3120(i)中的L2高速缓存3128(i),其中i是表示核心3120的特定实例的整数。在至少一个实施例中,包括在核心复合体3110(j)中的每个核心3120经由包括在核心复合体3110(j)中的L3高速缓存3130(j)连接到包括在核心复合体3110(j)中的其他核心3120,其中j是表示核心复合体3110的特定实例的整数。在至少一个实施例中,包括在核心复合体3110(j)中的核心3120可以访问包括在核心复合体3110(j)中的所有L3高速缓存3130(j),其中j是表示核心复合体3110的特定实例的整数。在至少一个实施例中,L3高速缓存3130可以包括但不限于任意数量的切片(slice)。
在至少一个实施例中,图形复合体3140可以被配置为以高度并行的方式执行计算操作。在至少一个实施例中,图形复合体3140被配置为执行图形管线操作,诸如绘制命令、像素操作、几何计算以及与将图像渲染至显示器相关联的其他操作。在至少一个实施例中,图形复合体3140被配置为执行与图形无关的操作。在至少一个实施例中,图形复合体3140被配置为执行与图形有关的操作和与图形无关的操作。
在至少一个实施例中,图形复合体3140包括但不限于任意数量的计算单元3150和L2高速缓存3142。在至少一个实施例中,计算单元3150共享L2高速缓存3142。在至少一个实施例中,L2高速缓存3142被分区。在至少一个实施例中,图形复合体3140包括但不限于任意数量的计算单元3150以及任意数量(包括零)和类型的高速缓存。在至少一个实施例中,图形复合体3140包括但不限于任意数量的专用图形硬件。
在至少一个实施例中,每个计算单元3150包括但不限于任意数量的SIMD单元3152和共享存储器3154。在至少一个实施例中,每个SIMD单元3152实现SIMD架构并且被配置为并行执行操作。在至少一个实施例中,每个计算单元3150可以执行任意数量的线程块,但是每个线程块在单个计算单元3150上执行。在至少一个实施例中,线程块包括但不限于任意数量的执行线程。在至少一个实施例中,工作组是线程块。在至少一个实施例中,每个SIMD单元3152执行不同的线程束(warp)。在至少一个实施例中,线程束是一组线程(例如16个线程),其中线程束中的每个线程属于单个线程块,并且被配置为基于单个指令集来处理不同的数据集。在至少一个实施例中,可以使用预测(predication)来禁用线程束中的一个或更多个线程。在至少一个实施例中,通道是线程。在至少一个实施例中,工作项是线程。在至少一个实施例中,波前是线程束。在至少一个实施例中,线程块中的不同波前可一起同步并经由共享存储器3154进行通信。
在至少一个实施例中,结构3160是系统互连,其促进跨核心复合体3110、图形复合体3140、I/O接口3170、存储器控制器3180、显示控制器3192和多媒体引擎3194的数据和控制传输。在至少一个实施例中,除了结构3160之外或代替结构3160,APU 3100还可以包括但不限于任意数量和类型的系统互连,该结构3160促进跨可以在APU 3100内部或外部的任意数量和类型的直接或间接链接的组件的数据和控制传输。在至少一个实施例中,I/O接口3170表示任意数量和类型的I/O接口(例如,PCI,PCI-Extended(“PCI-X”),PCIe,千兆以太网(“GBE”),USB等)。在至少一个实施例中,各种类型的外围设备耦合到I/O接口3170。在至少一个实施例中,耦合到I/O接口3170的外围设备可以包括但不限于键盘,鼠标,打印机,扫描仪,操纵杆或其他类型的游戏控制器、媒体记录设备、外部存储设备、网络接口卡等。
在至少一个实施例中,显示控制器AMD92在一个或更多个显示设备(例如液晶显示器(LCD)设备)上显示图像。在至少一个实施例中,多媒体引擎3194包括但不限于任意数量和类型的与多媒体相关的电路,例如视频解码器、视频编码器、图像信号处理器等。在至少一个实施例中,存储器控制器3180促进APU 3100与统一系统存储器3190之间的数据传输。在至少一个实施例中,核心复合体3110和图形复合体3140共享统一系统存储器3190。
在至少一个实施例中,APU 3100实现种存储器子系统,其包括但不限于任意数量和类型的存储器控制器3180和可以专用于一个组件或在多个组件之间共享的存储器设备(例如,共享存储器3154)。组件。在至少一个实施例中,APU 3100实现高速缓存子系统,其包括但不限于一个或更多个高速缓存存储器(例如,L2高速缓存3228,L3高速缓存3130和L2高速缓存3142),每个高速缓存存储器可以是组件私有的或在任意数量的组件(例如,核心3120,核心复合体3110,SIMD单元3152,计算单元3150和图形复合体3140)之间共享。在至少一个实施例中,关于图31所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,APU 3100使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图32示出了根据至少一个实施例的CPU 3200。在至少一个实施例中,CPU 3200由加利福尼亚州圣克拉拉市的AMD公司开发。在至少一个实施例中,CPU 3200可以被配置为执行应用程序。在至少一个实施例中,CPU 3200被配置为执行主控制软件,例如操作系统。在至少一个实施例中,CPU 3200发出控制外部GPU(未示出)的操作的命令。在至少一个实施例中,CPU 3200可以被配置为执行从CUDA源代码派生的主机可执行代码,并且外部GPU可以被配置为执行从这种CUDA源代码派生的设备可执行代码。在至少一个实施例中,CPU 3200包括但不限于任意数量的核心复合体3210,结构3260,I/O接口3270和存储器控制器3280。
在至少一个实施例中,核心复合体3210包括但不限于核心3220(1)-3220(4)和L3高速缓存3230。在至少一个实施例中,核心复合体3210可以包括但不限于任意数量的核心3220以及任意数量和类型的高速缓存的任何组合。在至少一个实施例中,核心3220被配置为执行特定ISA的指令。在至少一个实施例中,每个核心3220是CPU核心。
在至少一个实施例中,每个核心3220包括但不限于获取/解码单元3222,整数执行引擎3224,浮点执行引擎3226和L2高速缓存3228。在至少一个实施例中,获取/解码单元3222获取指令,对这些指令进行解码,生成微操作,并将单独的微指令分派给整数执行引擎3224和浮点执行引擎3226。在至少一个实施例中,获取/解码单元3222可以同时分派一个微指令至整数执行引擎3224和另一微指令至浮点执行引擎3226。在至少一个实施例中,整数执行引擎3224执行不限于整数和存储器操作。在至少一个实施例中,浮点引擎3226执行不限于浮点和向量运算。在至少一个实施例中,获取-解码单元3222将微指令分派给单个执行引擎,该引擎代替整数执行引擎3224和浮点执行引擎3226两者。
在至少一个实施例中,每个核心3220(i)可以访问包括在核心3220(i)中的L2高速缓存3228(i),其中i是表示核心3220的特定实例的整数。在至少一个实施例中,包括在核心复合体3210(j)中的每个核心3220经由包括在核心复合体3210(j)中的L3高速缓存3230(j)连接到核心复合体3210(j)中的其他核心3220,其中j是表示核心复合体3210的特定实例的整数。在至少一个实施例中,包括在核心复合体3210(j)中的核心3220可以访问包括在核心复合体3210(j)中的所有L3高速缓存3230(j),其中j是表示核心复合体3210的特定实例的整数。在至少一个实施例中,L3高速缓存3230可以包括但不限于任意数量的切片。
在至少一个实施例中,结构3260是系统互连,其促进跨核心复合体3210(1)-3210(N)(其中N是大于零的整数)、I/O接口3270和存储器控制器3280的数据和控制传输。在至少一个实施例中,除了结构3260之外或代替结构3260,CPU 3200还可以包括但不限于任意数量和类型的系统互连,该结构3260促进跨可以在CPU 3200内部或外部的任意数量和类型的直接或间接链接的组件的数据和控制传输。在至少一个实施例中,I/O接口3270表示任意数量和类型的I/O接口(例如PCI,PCI-X,PCIe,GBE,USB等)。在至少一个实施例中,各种类型的外围设备耦合到I/O接口3270。在至少一个实施例中,耦合到I/O接口3270的外围设备可以包括但不限于显示器,键盘,鼠标,打印机,扫描仪,操纵杆或其他类型的游戏控制器、媒体记录设备、外部存储设备、网络接口卡等。
在至少一个实施例中,存储器控制器3280促进CPU 3200与系统存储器3290之间的数据传输。在至少一个实施例中,核心复合体3210和图形复合体3240共享系统存储器3290。在至少一个实施例中,CPU 3200实现存储器子系统,其包括但不限于任意数量和类型的存储器控制器3280和可以专用于一个组件或在多个组件之间共享的存储器设备。在至少一个实施例中,CPU 3200实现了高速缓存子系统,其包括但不限于一个或更多个高速缓存存储器(例如,L2高速缓存3228和L3高速缓存3230),每个高速缓存存储器可以是组件私有的或在任意数量的组件(例如,核心3220和核心复合体3210)之间共享。在至少一个实施例中,关于图32所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,CPU 3200使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图33示出了根据至少一个实施例的示例性加速器集成切片3390。如本文所使用的,“切片”包括加速器集成电路的处理资源的指定部分。在至少一个实施例中,加速器集成电路代表多个图形加速模块种的多个图形处理引擎提供高速缓存管理、存储器访问、环境管理和中断管理服务。图形处理引擎可以各自包括单独的GPU。可选地,图形处理引擎可包括GPU内的不同类型的图形处理引擎,例如图形执行单元、媒体处理引擎(例如,视频编码器/解码器)、采样器和blit引擎。在至少一个实施例中,图形加速模块可以是具有多个图形处理引擎的GPU。在至少一个实施例中,图形处理引擎可以是集成在通用封装、线卡或芯片上的各个GPU。
系统存储器3314内的应用程序有效地址空间3382存储进程元素3383。在一个实施例中,响应于来自处理器3307上执行的应用程序3380的GPU调用3381而存储进程元素3383。进程元素3383包含对应应用程序3380的处理状态。包含在进程元素3383中的工作描述符(WD)3384可以是应用程序请求的单个作业或可能包含指向作业队列的指针。在至少一个实施例中,WD 3384是指向应用程序有效地址空间3382中的作业请求队列的指针。
图形加速模块3346和/或各个图形处理引擎可以由系统中的全部或部分进程共享。在至少一个实施例中,可以包括用于建立处理状态并将WD 3384发送到图形加速模块3346以在虚拟化环境中开始作业的基础设施。
在至少一个实施例中,专用进程编程模型是针对实现的。在该模型中,单个进程拥有图形加速模块3346或个体图形处理引擎。由于图形加速模块3346由单个进程拥有,因此管理程序为拥有的分区初始化加速器集成电路,并且当分配图形加速模块3346时操作系统对加速器集成电路进行初始化以用于拥有的分区。
在操作中,加速器集成切片3390中的WD获取单元3391获取下一个WD 3384,其中包括要由图形加速模块3346的一个或更多个图形处理引擎完成的工作的指示。来自WD 3384的数据可以存储在寄存器3345被存储器管理单元(MMU)3339、中断管理电路3347和/或环境管理电路3348使用,如图所示。例如,MMU 3339的一个实施例包括用于访问OS虚拟地址空间3385内的段/页表3386的段/页面漫游电路。中断管理电路3347可以处理从图形加速模块3346接收到的中断事件(INT)3392。当执行图操作时,由图形处理引擎产生的有效地址3393由MMU 3339转换为实际地址。
在一个实施例中,为每个图形处理引擎和/或图形加速模块3346复制相同的寄存器组3345,并且可以由系统管理程序或操作系统来初始化。这些复制的寄存器中的每一个都可以包含在加速器集成切片3390中。表1中显示了可由管理程序初始化的示例性寄存器。
表1–管理程序初始化的寄存器
/>
表2中示出了可以由操作系统初始化的示例性寄存器。
表2–操作系统初始化寄存器
1 | 进程和线程识别 |
2 | 有效地址(EA)环境保存/还原指针 |
3 | 虚拟地址(VA)加速器利用率记录指针 |
4 | 虚拟地址(VA)存储分段表指针 |
5 | 权限屏蔽 |
6 | 工作描述符 |
在一个实施例中,每个WD 3384特定于特定的图形加速模块3346和/或特定图形处理引擎。它包含图形处理引擎进行工作或工作所需的所有信息,或者它可以是指向存储器位置的指针,其中应用程序建立了要完成的工作的命令队列。在至少一个实施例中,关于图33所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,加速器集成切片3390使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图34A-34B示出了根据本文至少一个实施例的示例性图形处理器。在至少一个实施例中,任何示例性图形处理器可以使用一个或更多个IP核心来制造。除了图示之外,在至少一个实施例中可以包括其他逻辑和电路,包括附加的图形处理器/核心、外围接口控制器或通用处理器核心。在至少一个实施例中,示例性图形处理器用于SoC内。
图34A示出了根据至少一个实施例的SoC集成电路的示例性图形处理器3410,其可以使用一个或更多个IP核心来制造。图34B示出了根据至少一个实施例的SoC集成电路的的附加示例性图形处理器3440,其可以使用一个或更多个IP核心来制造。在至少一个实施例中,图34A的图形处理器3410是低功耗图形处理器核心。在至少一个实施例中,图34B的图形处理器3440是更高性能的图形处理器核心。在至少一个实施例中,每个图形处理器3410、3440可以是图10的图形处理器1010的变体。
在至少一个实施例中,图形处理器3410包括顶点处理器3405和一个或更多个片段处理器3415A-3415N(例如3415A、3415B、3415C、3415D至3415N-1和3415N)。在至少一个实施例中,图形处理器3410可以经由单独的逻辑来执行不同的着色器程序,使得顶点处理器3405被优化以执行针对顶点着色器程序的操作,而一个或更多个片段处理器3415A-3415N执行片段(例如,像素)着色操作用于片段或像素或着色器程序。在至少一个实施例中,顶点处理器3405执行3D图形管线的顶点处理阶段并生成图元和顶点数据。在至少一个实施例中,片段处理器3415A-3415N使用由顶点处理器3405生成的图元和顶点数据来生成在显示设备上显示的帧缓冲区。在至少一个实施例中,片段处理器3415A-3415N被优化以执行如在OpenGL API中所提供的片段着色器程序,其可以用于执行与在Direct 3DAPI中所提供的像素着色器程序类似的操作。
在至少一个实施例中,图形处理器3410附加地包括一个或更多个MMU 3420A-3420B、高速缓存3425A-3425B和电路互连3430A-3430B。在至少一个实施例中,一个或更多个MMU 3420A-3420B提供用于图形处理器3410的虚拟到物理地址的映射,包括用于顶点处理器3405和/或片段处理器3415A-3415N,其可以引用存储在存储器中的顶点或图像/纹理数据,除了存储在一个或更多个高速缓存3425A-3425B中的顶点或图像/纹理数据之外。在至少一个实施例中,一个或更多个MMU 3420A-3420B可以与系统内的其他MMU同步,包括与图10的一个或更多个应用处理器1005、图像处理器1015和/或视频处理器1020相关联的一个或更多个MMU,使得每个处理器1005-1020可以参与共享或统一的虚拟存储器系统。在至少一个实施例中,一个或更多个电路互连3430A-3430B使图形处理器3410能够经由SoC的内部总线或经由直接连接与SoC内的其他IP核心相连接。
在至少一个实施例中,图形处理器3440包括图34A的图形处理器3410的一个或更多个MMU 3420A-3420B、高速缓存3425A-3425B和电路互连3430A-3430B。在至少一个实施例中,图形处理器3440包括一个或更多个着色器核心3455A-3455N(例如,3455A、3455B、3455C、3455D、3455E、3455F、至3455N-1和3455N),其提供了统一的着色器核心架构,其中单个核心或类型或核心可以执行所有类型的可编程着色器代码,包括用于实现顶点着色器、片段着色器和/或计算着色器的着色器程序代码。在至少一个实施例中,多个着色器核心可以变化。在至少一个实施例中,图形处理器3440包括核心间任务管理器3445,其充当线程分派器以将执行线程分派给一个或更多个着色器核心3455A-3455N和分块单元3458,以加速基于图块渲染的分块操作,其中在图像空间中细分了场景的渲染操作,例如,以利用场景内的局部空间一致性或优化内部缓存的使用。在至少一个实施例中,关于图34A-34B所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,图形处理器3410使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图35A示出了根据至少一个实施例的图形核心3500。在至少一个实施例中,图形核心3500可以包括在图29的图形处理器2910内。在至少一个实施例中,图形核心3500可以是图34B中统一的着色器核心3455A-3455N。在至少一个实施例中,图形核心3500包括共享指令高速缓存3502、纹理单元3518和高速缓存/共享存储器3520,它们是图形核心3500内的执行资源所共有的。在至少一个实施例中,图形核心3500可以包括多个切片(slice)3501A-3501N或每个核心的分区,图形处理器可以包括图形核心3500的多个实例。切片3501A-3501N可以包括支持逻辑,该支持逻辑包括本地指令高速缓存3504A-3504N、线程调度器3506A-3506N、线程分派器3508A-3508N和一组寄存器3510A-3510N。在至少一个实施例中,切片3501A-3501N可以包括一组附加功能单元(AFU)3512A-3512N、浮点单元(FPU)3514A-3514N、整数算术逻辑单元(ALU)3516A-3516N、地址计算单元(ACU)3513A-3513N、双精度浮点单元(DPFPU)3515A-3515N和矩阵处理单元(MPU)3517A-3517N。
在一个实施例中,FPU 3514A-3514N可以执行单精度(32位)和半精度(16位)浮点运算,而DPFPU 3515A-3515N可以执行双精度(64位)浮点运算点操作。在至少一个实施例中,ALU 3516A-3516N可以以8位、16位和32位精度执行可变精度整数运算,并且可以被配置用于混合精度运算。在至少一个实施例中,MPU 3517A-3517N还可被配置用于混合精度矩阵运算,包括半精度浮点运算和8位整数运算。在至少一个实施例中,MPU 3517A-3517N可以执行各种矩阵操作以加速CUDA程序,包括使得能够支持加速的通用矩阵到矩阵乘法(GEMM)。在至少一个实施例中,AFU 3512A-3512N可以执行浮点数或整数单元不支持的附加逻辑运算,包括三角运算(例如,Sine、Cosine等)。
图35B示出了在至少一个实施例中的通用图形处理单元(GPGPU)3530。在至少一个实施例中,GPGPU 3530是高度并行的并且适合于部署在多芯片模块上。在至少一个实施例中,GPGPU 3530可以被配置为使得高度并行的计算操作能够由GPU阵列来执行。在至少一个实施例中,GPGPU 3530可以直接链路到GPGPU 3530的其他实例,以创建多GPU集群以提高用于CUDA程序的执行时间。在至少一个实施例中,GPGPU 3530包括主机接口3532以实现与主机处理器的连接。在至少一个实施例中,主机接口3532是PCIe接口。在至少一个实施例中,主机接口3532可以是厂商专用的通信接口或通信结构。在至少一个实施例中,GPGPU 3530从主机处理器接收命令,并使用全局调度器3534将与那些命令相关联的执行线程分派给一组计算集群3536A-3536H。在至少一个实施例中,计算集群3536A-3536H共享高速缓存存储器3538。在至少一个实施例中,高速缓存存储器3538可以用作计算集群3536A-3536H内的高速缓存存储器的高级高速缓存。
在至少一个实施例中,GPGPU 3530包括经由一组存储器控制器3542A-3542B与计算集群3536A-3536H耦合的存储器3544A-3544B。在至少一个实施例中,存储器3544A-3544B可以包括各种类型的存储器设备,包括动态随机存取存储器(DRAM)或图形随机存取存储器,例如同步图形随机存取存储器(SGRAM),包括图形双倍数据速率(GDDR)存储器。
在至少一个实施例中,计算集群3536A-3536H各自包括一组图形核心,诸如图35A的图形核心3500,其可以包括多种类型的整数和浮点逻辑单元,可以以各种精度执行计算操作,包括适合与CUDA程序相关的计算。例如,在至少一个实施例中,每个计算集群3536A-3536H中的浮点单元的至少一个子集可以配置为执行16位或32位浮点运算,而不同的浮点单元的子集可以配置为执行64位浮点运算。
在至少一个实施例中,GPGPU 3530的多个实例可以被配置为操作为计算集群。在至少一个实施例中,计算集群3536A-3536H可以实现用于同步和数据交换的任何技术上可行的通信技术。在至少一个实施例中,GPGPU 3530的多个实例通过主机接口3532进行通信。在至少一个实施例中,GPGPU 3530包括I/O集线器3539,其将GPGPU 3530与GPU链路3540耦合,使得能够直接连接至GPGPU 3530的其他的实例。在至少一个实施例中,GPU链路3540耦合到专用GPU到GPU桥接器,其使得能够在GPGPU 3530的多个实例之间进行通信和同步。在至少一个实施例中,GPU链路3540与高速互连耦合,以向其他GPGPU或并行处理器发送和接收数据。在至少一个实施例中,GPGPU 3530的多个实例位于单独的数据处理系统中,并经由可经由主机接口3532访问的网络设备进行通信。在至少一个实施例中,GPU链路3540可被配置为能够连接到主机处理器,附加或替代主机接口3532。在至少一个实施例中,GPGPU 3530可以配置为执行CUDA程序。在至少一个实施例中,关于图35A-35B所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,GPGPU3530使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图36A示出了根据至少一个实施例的并行处理器3600。在至少一个实施例中,并行处理器3600的各种组件可以使用一个或更多个集成电路设备来实现,例如可编程处理器、专用集成电路(ASIC)或FPGA。
在至少一个实施例中,并行处理器3600包括并行处理单元3602。在至少一个实施例中,并行处理单元3602包括I/O单元3604,其使得能够与其他设备进行通信,包括并行处理单元3602的其他实例。在至少一个实施例中,I/O单元3604可以直接连接到其他设备。在至少一个实施例中,I/O单元3604通过使用集线器或交换机接口(例如,存储器集线器1105)与其他设备连接。在至少一个实施例中,存储器集线器1105与I/O单元3604之间的连接形成通信链路。在至少一个实施例中,I/O单元3604与主机接口3606和存储器交叉开关3616连接,其中主机接口3606接收用于执行处理操作的命令,而存储器交叉开关3616接收用于执行存储器操作的命令。
在至少一个实施例中,当主机接口3606经由I/O单元3604接收命令缓冲区时,主机接口3606可以引导工作操作以执行那些命令到前端3608。在至少一个实施例中,前端3608与调度器3610耦合,调度器3610配置成将命令或其他工作项分配给处理阵列3612。在至少一个实施例中,调度器3610确保在将任务分配给处理阵列3612中的处理阵列3612之前,处理阵列3612被正确地配置并且处于有效状态。在至少一个实施例中,调度器3610通过在微控制器上执行的固件逻辑来实现。在至少一个实施例中,微控制器实现的调度器3610可配置成以粗粒度和细粒度执行复杂的调度和工作分配操作,从而实现对在处理阵列3612上执行的线程的快速抢占和环境切换。在至少一个实施例中,主机软件可以证明用于通过多个图形处理门铃之一在处理阵列3612上进行调度的工作负载。在至少一个实施例中,工作负载然后可以由包括调度器3610的微控制器内的调度器3610逻辑在处理阵列3612上自动分配。
在至少一个实施例中,处理阵列3612可以包括多达“N”个处理集群(例如,集群3614A、集群3614B到集群3614N)。在至少一个实施例中,处理阵列3612的每个集群3614A-3614N可以执行大量并发线程。在至少一个实施例中,调度器3610可以使用各种调度和/或工作分配算法将工作分配给处理阵列3612的集群3614A-3614N,其可以根据每种程序或计算类型产生的工作负载而变化。在至少一个实施例中,调度可以由调度器3610动态地处理,或者可以在配置为由处理阵列3612执行的程序逻辑的编译期间部分地由编译器逻辑来辅助。在至少一个实施例中,可将处理阵列3612的不同的集群3614A-3614N分配用于处理不同类型的程序或用于执行不同类型的计算。
在至少一个实施例中,处理阵列3612可以配置成执行各种类型的并行处理操作。在至少一个实施例中,处理阵列3612配置成执行通用并行计算操作。例如,在至少一个实施例中,处理阵列3612可以包括执行处理任务的逻辑,该处理任务包括对视频和/或音频数据的过滤,执行建模操作,包括物理操作以及执行数据转换。
在至少一个实施例中,处理阵列3612配置成执行并行图形处理操作。在至少一个实施例中,处理阵列3612可以包括附加逻辑以支持这种图形处理操作的执行,包括但不限于执行纹理操作的纹理采样逻辑,以及镶嵌逻辑和其他顶点处理逻辑。在至少一个实施例中,处理阵列3612可以配置成执行与图形处理有关的着色器程序,例如但不限于顶点着色器、曲面细分着色器、几何着色器和像素着色器。在至少一个实施例中,并行处理单元3602可以经由I/O单元3604从系统存储器传送数据以进行处理。在至少一个实施例中,在处理期间,可以在处理期间将传送的数据存储到片上存储器(例如,并行处理器存储器3622),然后将其写回到系统存储器。
在至少一个实施例中,当并行处理单元3602用于执行图处理时,调度器3610可以配置成将处理工作负载划分为近似相等大小的任务,以更好地将图形处理操作分配给处理阵列3612的多个集群3614A-3614N。在至少一个实施例中,处理阵列3612的部分可以配置成执行不同类型的处理。例如,在至少一个实施例中,第一部分可以配置成执行顶点着色和拓扑生成,第二部分可以配置成执行镶嵌和几何着色,并且第三部分可以配置成执行像素着色或其他屏幕空间操作,以生成用于显示的渲染图像。在至少一个实施例中,可以将由集群3614A-3614N中的一个或更多个产生的中间数据存储在缓冲区中,以允许在集群3614A-3614N之间传输中间数据以进行进一步处理。
在至少一个实施例中,处理阵列3612可以经由调度器3610接收要执行的处理任务,该调度器3610从前端3608接收定义处理任务的命令。在至少一个实施例中,处理任务可以包括要被处理的数据的索引,例如可以包括表面(补丁)数据、原始数据、顶点数据和/或像素数据,以及状态参数和定义如何处理数据的命令(例如,要执行什么程序)。在至少一个实施例中,调度器3610可以配置成获取与任务相对应的索引,或者可以从前端3608接收索引。在至少一个实施例中,前端3608可以配置成确保在启动由传入命令缓冲区(例如,批缓冲区(batch-buffer)、推送缓冲区等)指定的工作负载之前,处理阵列3612配置成有效状态。
在至少一个实施例中,并行处理单元3602的一个或更多个实例中的每一个可以与并行处理器存储器3622耦合。在至少一个实施例中,可以经由存储器交叉开关3616访问并行处理器存储器3622,所述存储器交叉开关3616可以接收来自处理阵列3612以及I/O单元3604的存储器请求。在至少一个实施例中,存储器交叉开关3616可以经由存储器接口3618访问并行处理器存储器3622。在至少一个实施例中,存储器接口3618可以包括多个分区单元(例如,分区单元3620A、分区单元3620B到分区单元3620N),其可各自耦合至并行处理器存储器3622的一部分(例如,存储器单元)。在至少一个实施例中,多个分区单元3620A-3620N为配置为等于存储器单元的数量,使得第一分区单元3620A具有对应的第一存储器单元3624A,第二分区单元3620B具有对应的存储器单元3624B,第N分区单元3620N具有对应的第N存储器单元3624N。在至少一个实施例中,分区单元3620A-3620N的数量可以不等于存储器设备的数量。
在至少一个实施例中,存储器单元3624A-3624N可以包括各种类型的存储器设备,包括动态随机存取存储器(DRAM)或图形随机存取存储器,例如同步图形随机存取存储器(SGRAM),包括图形双倍数据速率(GDDR)存储器。在至少一个实施例中,存储器单元3624A-3624N还可包括3D堆叠存储器,包括但不限于高带宽存储器(HBM)。在至少一个实施例中,可以跨存储器单元3624A-3624N来存储诸如帧缓冲区或纹理映射的渲染目标,从而允许分区单元3620A-3620N并行地写入每个渲染目标的部分,以有效地使用并行处理器存储器3622的可用带宽。在至少一个实施例中,可以排除并行处理器存储器3622的本地实例,以有利于利用系统存储器与本地高速缓存存储器结合的统一存储器设计。
在至少一个实施例中,处理阵列3612的集群3614A-3614N中的任何一个都可以处理将被写入并行处理器存储器3622内的任何存储器单元3624A-3624N中的数据。在至少一个实施例中,存储器交叉开关3616可以配置为将每个集群3614A-3614N的输出传输到任何分区单元3620A-3620N或另一个集群3614A-3614N,集群3614A-3614N可以对输出执行其他处理操作。在至少一个实施例中,每个集群3614A-3614N可以通过存储器交叉开关3616与存储器接口3618通信,以从各种外部存储设备读取或写入各种外部存储设备。在至少一个实施例中,存储器交叉开关3616具有到存储器接口3618的连接以与I/O单元3604通信,以及到并行处理器存储器3622的本地实例的连接,从而使不同处理集群3614A-3614N内的处理单元与系统存储器或不是并行处理单元3602本地的其他存储器进行通信。在至少一个实施例中,存储器交叉开关3616可以使用虚拟通道来分离集群3614A-3614N和分区单元3620A-3620N之间的业务流。
在至少一个实施例中,可以在单个插入卡上提供并行处理单元3602的多个实例,或者可以将多个插入卡互连。在至少一个实施例中,并行处理单元3602的不同实例可以配置成相互操作,即使不同实例具有不同数量的处理核心,不同数量的本地并行处理器存储器和/或其他配置差异。例如,在至少一个实施例中,并行处理单元3602的一些实例可以包括相对于其他实例而言更高精度的浮点单元。在至少一个实施例中,结合并行处理单元3602或并行处理器3600的一个或更多个实例的系统可以以各种配置和形式因素来实现,包括但不限于台式机、膝上型计算机或手持式个人计算机、服务器、工作站、游戏机和/或嵌入式系统。
图36B示出了根据至少一个实施例的处理集群3694。在至少一个实施例中,处理集群3694被包括在并行处理单元内。在至少一个实施例中,处理集群3694是图36A的处理集群3614A-3614N之一的实例。在至少一个实施例中,处理集群3694可以配置成并行执行许多线程,其中术语“线程”是指在特定的一组输入数据上执行的特定程序的实例。在至少一个实施例中,单指令多数据(SIMD)指令发布技术用于支持大量线程的并行执行而无需提供多个独立的指令单元。在至少一个实施例中,使用单指令多线程(SIMT)技术来支持并行执行大量一般同步的线程,这使用了公共指令单元,该公共指令单元配置成向每个处理集群3694内的一组处理引擎发出指令。
在至少一个实施例中,可以通过将处理任务分配给SIMT并行处理器的管线管理器3632来控制处理集群3694的操作。在至少一个实施例中,管线管理器3632从图36A的调度器3610接收指令,通过图形多处理器3634和/或纹理单元3636管理这些指令的执行。在至少一个实施例中,图形多处理器3634是SIMT并行处理器的示例性实例。然而,在至少一个实施例中,处理集群3694内可以包括不同架构的各种类型的SIMT并行处理器。在至少一个实施例中,在处理集群3694内可以包括图形多处理器3634的一个或更多个实例。在至少一个实施例中,图形多处理器3634可以处理数据,并且数据交叉开关3640可以用于将处理后的数据分发到多个可能的目的(包括其他着色器单元)地之一。在至少一个实施例中,管线管理器3632可以通过指定要经由数据交叉开关3640分配的处理后的数据的目的地来促进处理后的数据的分配。
在至少一个实施例中,处理集群3694内的每个图形多处理器3634可以包括相同的一组功能执行逻辑(例如,算术逻辑单元、加载存储单元(LSU)等)。在至少一个实施例中,可以以管线方式配置功能执行逻辑,其中可以在先前的指令完成之前发出新的指令。在至少一个实施例中,功能执行逻辑支持多种运算,包括整数和浮点算术、比较操作、布尔运算、移位和各种代数函数的计算。在至少一个实施例中,可以利用相同的功能单元硬件来执行不同的操作,并且可以存在功能单元的任何组合。
在至少一个实施例中,传送到处理集群3694的指令构成线程。在至少一个实施例中,跨一组并行处理引擎执行的一组线程是线程组。在至少一个实施例中,线程组在不同的输入数据上执行程序。在至少一个实施例中,线程组内的每个线程可被分配给图形多处理器3634内的不同处理引擎。在至少一个实施例中,线程组可包括比图形多处理器3634内的多个处理引擎更少的线程。在至少一个实施例中,当线程组包括的线程数少于处理引擎的数量时,一个或更多个处理引擎在正在处理该线程组的循环期间可能是空闲的。在至少一个实施例中,线程组还可以包括比图形多处理器3634内的多个处理引擎更多的线程。在至少一个实施例中,当线程组包括比图形多处理器3634内的处理引擎的数量更多的线程时,可以在连续的时钟周期内执行处理。在至少一个实施例中,可以在图形多处理器3634上同时执行多个线程组。
在至少一个实施例中,图形多处理器3634包括内部高速缓存存储器,以执行加载和存储操作。在至少一个实施例中,图形多处理器3634可以放弃内部高速缓存并使用处理集群3694内的高速缓存存储器(例如,L1高速缓存3648)。在至少一个实施例中,每个图形多处理器3634还可以访问分区单元(例如,图36A的分区单元3620A-3620N)内的L2高速缓存,这些分区单元在所有处理集群3694之间共享并且可以用于在线程之间传输数据。在至少一个实施例中,图形多处理器3634还可以访问片外全局存储器,其可以包括本地并行处理器存储器和/或系统存储器中的一个或更多个。在至少一个实施例中,并行处理单元3602外部的任何存储器都可以用作全局存储器。在至少一个实施例中,处理集群3694包括图形多处理器3634的多个实例,它们可以共享可以存储在L1高速缓存3648中的公共指令和数据。
在至少一个实施例中,每个处理集群3694可以包括配置成将虚拟地址映射为物理地址的MMU 3645。在至少一个实施例中,MMU 3645的一个或更多个实例可以驻留在图36A的存储器接口3618内。在至少一个实施例中,MMU 3645包括一组页表条目(PTE),其用于将虚拟地址映射到图块(谈论有关图块的更多信息)的物理地址以及可选地映射到高速缓存行索引。在至少一个实施例中,MMU 3645可以包括地址转换后备缓冲区(TLB)或可以驻留在图形多处理器3634或L1高速缓存3648或处理集群3694内的高速缓存。在至少一个实施例中,处理物理地址以分配表面数据访问局部性,以便在分区单元之间进行有效的请求交织。在至少一个实施例中,高速缓存行索引可以用于确定对高速缓存线的请求是命中还是未命中。
在至少一个实施例中,可以配置处理集群3694,使得每个图形多处理器3634耦合到纹理单元3636,以执行纹理映射操作,例如,可以涉及确定纹理样本位置、读取纹理数据以及过滤纹理数据。在至少一个实施例中,根据需要从内部纹理L1高速缓存(未示出)或从图形多处理器3634内的L1高速缓存中读取纹理数据,并从L2高速缓存、本地并行处理器存储器或系统存储器中获取纹理数据。在至少一个实施例中,每个图形多处理器3634将处理后的任务输出到数据交叉开关3640,以将处理后的任务提供给另一处理集群3694以进行进一步处理或将处理后的任务存储在L2高速缓存、本地并行处理器存储器、或经由存储器交叉开关3616的系统存储器中。在至少一个实施例中,光栅前操作单元(preROP)3642配置成从图形多处理器3634接收数据,将数据引导至ROP单元,该ROP单元可以与本文所述的分区单元(例如,图36A的分区单元3620A-3620N)一起定位。在至少一个实施例中,PreROP 3642单元可以执行用于颜色混合的优化、组织像素颜色数据以及执行地址转换。
图36C示出了根据至少一个实施例的图形多处理器3696。在至少一个实施例中,图形多处理器3696是图36B的图形多处理器3634。在至少一个实施例中,图形多处理器3696与处理集群3694的管线管理器3632耦合。在至少一个实施例中,图形多处理器3696具有执行管线,该执行管线包括但不限于指令高速缓存3652、指令单元3654、地址映射单元3656、寄存器文件3658、一个或更多个GPGPU核心3662和一个或更多个LSU 3666。GPGPU核心3662和LSU 3666与高速缓存存储器3672和共享存储器3670通过存储器和高速缓存互连3668耦合。
在至少一个实施例中,指令高速缓存3652从管线管理器3632接收要执行的指令流。在至少一个实施例中,将指令高速缓存在指令高速缓存3652中并将其分派以供指令单元3654执行。在一个实施例中,指令单元3654可以分派指令作为线程组(例如,线程束),将线程组的每个线程分配给GPGPU核心3662内的不同执行单元。在至少一个实施例中,指令可以通过在统一地址空间内指定地址来访问任何本地、共享或全局地址空间。在至少一个实施例中,地址映射单元3656可以用于将统一地址空间中的地址转换成可以由LSU 3666访问的不同的存储器地址。
在至少一个实施例中,寄存器文件3658为图形多处理器3696的功能单元提供了一组寄存器。在至少一个实施例中,寄存器文件3658为连接到图形多处理器3696的功能单元(例如,GPGPU核心3662、LSU 3666)的数据路径的操作数提供了临时存储。在至少一个实施例中,在每个功能单元之间划分寄存器文件3658,使得为每个功能单元分配寄存器文件3658的专用部分。在至少一个实施例中,寄存器文件3658在图形多处理器3696正在执行的不同线程组之间划分。
在至少一个实施例中,GPGPU核心3662可以各自包括用于执行图多处理器3696的指令的FPU和/或ALU。GPGPU核心3662在架构上可以相似或架构可能有所不同。在至少一个实施例中,GPGPU核心3662的第一部分包括单精度FPU和整数ALU,而GPGPU核心的第二部分包括双精度FPU。在至少一个实施例中,FPU可以实现用于浮点算法的IEEE 754-3608标准或启用可变精度浮点算法。在至少一个实施例中,图形多处理器3696可以另外包括一个或更多个固定功能或特殊功能单元,以执行特定功能,诸如复制矩形或像素混合操作。在至少一个实施例中,GPGPU核心3662中的一个或更多个也可以包括固定或特殊功能逻辑。
在至少一个实施例中,GPGPU核心3662包括能够对多组数据执行单个指令的SIMD逻辑。在至少一个实施例中,GPGPU核心3662可以物理地执行SIMD4、SIMD8和SIMD16指令,并且在逻辑上执行SIMD1、SIMD2和SIMD32指令。在至少一个实施例中,用于GPGPU核心的SIMD指令可以在编译时由着色器编译器生成,或者在执行针对单程序多数据(SPMD)或SIMT架构编写和编译的程序时自动生成。在至少一个实施例中,可以通过单个SIMD指令来执行为SIMT执行模型配置的程序的多个线程。例如,在至少一个实施例中,可以通过单个SIMD8逻辑单元并行执行执行相同或相似操作的八个SIMT线程。
在至少一个实施例中,存储器和高速缓存互连3668是将图形多处理器3696的每个功能单元连接到寄存器文件3658和共享存储器3670的互连网络。在至少一个实施例中,存储器和高速缓存互连3668是交叉开关互连,其允许LSU 3666在共享存储器3670和寄存器文件3658之间实现加载和存储操作。在至少一个实施例中,寄存器文件3658可以以与GPGPU核心3662相同的频率操作,从而在GPGPU核心3662和寄存器文件3658之间进行数据传输的延迟非常低。在至少一个实施例中,共享存储器3670可以用于启用在图形多处理器3696内的功能单元上执行的线程之间的通信。在至少一个实施例中,高速缓存存储器3672可以用作数据高速缓存,例如以高速缓存在功能单元和纹理单元3636之间通信的纹理数据。在至少一个实施例中,共享存储器3670也可以用作程序管理的高速缓存。在至少一个实施例中,除了存储在高速缓存存储器3672中的自动高速缓存的数据之外,在GPGPU核心3662上执行的线程还可以以编程方式将数据存储在共享存储器中。
在至少一个实施例中,如本文所述的并行处理器或GPGPU通信地耦合到主机/处理器核心,以加速图形操作、机器学习操作、图案分析操作以及各种通用GPU(GPGPU)功能。在至少一个实施例中,GPU可以通过总线或其他互连(例如,诸如PCIe或NVLink的高速互连)通信地耦合到主机处理器/核心。在至少一个实施例中,GPU可以与核心集成在相同的封装或芯片上,并通过内部处理器总线/互连(即,封装或芯片的内部)通信地耦合到核心。在至少一个实施例中,不管GPU连接的方式如何,处理器核心可以以WD包含的命令/指令序列的形式向GPU分配工作。在至少一个实施例中,GPU然后使用专用电路/逻辑来有效地处理这些命令/指令。在至少一个实施例中,关于图36A-36C所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,并行处理器3600使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
通用计算
以下各图阐述但不限于在通用计算中用来实现至少一个实施例的示例性软件配置。
图37示出了根据至少一个实施例的编程平台的软件栈。在至少一个实施例中,编程平台是用于利用计算系统上的硬件来加速计算任务的平台。在至少一个实施例中,软件开发人员可以通过库、编译器指令和/或对编程语言的扩展来访问编程平台。在至少一个实施例中,编程平台可以是但不限于CUDA,Radeon开放计算平台(“ROCm”),OpenCL(由Khronosgroup开发的OpenCLTM),SYCL或Intel One API。
在至少一个实施例中,编程平台的软件栈3700为应用程序3701提供执行环境。在至少一个实施例中,应用程序3701可以包括能够在软件栈3700上启动的任何计算机软件。在至少一个实施例中,应用程序3701可以包括但不限于人工智能(“AI”)/机器学习(“ML”)应用程序,高性能计算(“HPC”)应用程序,虚拟桌面基础架构(“VDI”)或数据中心工作负载。
在至少一个实施例中,应用程序3701和软件栈3700在硬件3707上运行。在至少一个实施例中,硬件3707可以包括一个或更多个GPU,CPU,FPGA,AI引擎和/或支持编程平台的其他类型的计算设备。在至少一个实施例中,例如采用CUDA,软件栈3700可以是厂商专用的,并且仅与来自特定厂商的设备兼容。在至少一个实施例中,例如在采用OpenCL中,软件栈3700可以与来自不同供应商的设备一起使用。在至少一个实施例中,硬件3707包括连接到一个或更多个设备的主机,该设备可经由应用程序编程接口(API)调用被访问以执行计算任务。在至少一个实施例中,与硬件3707内的主机相比,其可以包括但不限于CPU(但还可以包括计算设备)及其存储器,硬件3707内的设备可以包括但不限于GPU,FPGA,AI引擎或其他计算设备(但还可以包括CPU)及其存储器。
在至少一个实施例中,编程平台的软件栈3700包括但不限于多个库3703,运行时(runtime)3705和设备内核驱动器3706。在至少一个实施例中,库3703中的每个库可以包括可以由计算机程序使用并在软件开发期间利用的数据和编程代码。在至少一个实施例中,库3703可以包括但不限于预写的代码和子例程,类,值,类型规范,配置数据,文档,帮助数据和/或消息模板。在至少一个实施例中,库3703包括被优化用于在一种或更多种类型的设备上执行的函数。在至少一个实施例中,库3703可以包括但不限于用于在设备上执行数学、深度学习和/或其他类型的运算的函数。在至少一个实施例中,库3803与对应的API 3802相关联,API 3802可包括一个或更多个API,其暴露在库3803中实现的函数。
在至少一个实施例中,将应用程序3701编写为源代码,该源代码被编译成可执行代码,如下面结合图42更详细讨论的。在至少一个实施例中,应用程序3701的可执行代码可以至少部分地在由软件栈3700提供的执行环境上运行。在至少一个实施例中,在应用程序3701的执行期间,可以得到需要在设备(与主机相比)上运行的代码。在这种情况下,在至少一个实施例中,可以调用运行时3705以在设备上加载和启动必需的代码。在至少一个实施例中,运行时3705可以包括能够支持应用程序3701的执行的任何技术上可行的运行时系统。
在至少一个实施例中,运行时3705被实现为与对应的API(其被示为API 3704)相关联的一个或更多个运行时库。在至少一个实施例中,一个或更多个这样的运行时库可以包括但不限于用于存储器管理,执行控制,设备管理,错误处理和/或同步等等的函数。在至少一个实施例中,存储器管理函数可以包括但不限于用于分配、解除分配和复制设备存储器以及在主机存储器和设备存储器之间传输数据的函数。在至少一个实施例中,执行控制函数可以包括但不限于在设备上启动函数(当函数是可从主机调用的全局函数时,有时称为“内核”)的函数,和用于在运行时库为要在设备上执行的给定函数维护的缓冲区中设置属性值的函数。
在至少一个实施例中,可以任何技术上可行的方式来实现运行时库和相应的API3704。在至少一个实施例中,一个(或任意数量的)API可以公开用于设备的细粒度控制的低级函数集,而另一(或任意数量的)API可以公开这样的较高级的函数集。在至少一个实施例中,可以在低级API之上构建高级运行时API。在至少一个实施例中,一个或更多个运行时API可以是在与语言无关的运行时API之上分层的特定于语言的API。
在至少一个实施例中,设备内核驱动器3706被配置为促进与底层设备的通信。在至少一个实施例中,设备内核驱动器3706可以提供诸如API 3704之类的API和/或其他软件所依赖的低级函数。在至少一个实施例中,设备内核驱动器3706可以被配置为在运行时将中间表示(“IR”)代码编译成二进制代码。在至少一个实施例中,对于CUDA,设备内核驱动器3706可以在运行时将非硬件专用的并行线程执行(“PTX”)IR代码编译为用于特定目标设备的二进制代码(高速缓存已编译的二进制代码),其有时也称为“最终”代码。在至少一个实施例中,这样做可以允许最终代码在目标设备上运行,而当源代码最初被编译为PTX代码时,该目标设备可能不存在。备选地,在至少一个实施例中,设备源代码可以离线地编译成二进制代码,而不需要设备内核驱动器3706在运行时编译IR代码。在至少一个实施例中,关于图37所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,硬件3707使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图38示出了根据至少一个实施例的图37的软件栈3700的CUDA实现。在至少一个实施例中,可在其上启动应用程序3801的CUDA软件栈3800包括CUDA库3803,CUDA运行时3805,CUDA驱动器3807和设备内核驱动器3808。在至少一个实施例中,CUDA软件栈3800在硬件3809上执行,该硬件3809可以包括支持CUDA的GPU,其由加利福尼亚州圣克拉拉市的NVIDIA公司开发。
在至少一个实施例中,应用程序3801、CUDA运行时3805和设备内核驱动器3808可以分别执行与应用程序3701、运行时3705和设备内核驱动器3706类似的功能,以上结合图37对其进行了描述。在至少一个实施例中,CUDA驱动器3807包括实现CUDA驱动器API 3806的库(libcuda.so)。在至少一个实施例中,类似于由CUDA运行时库(cudart)实现的CUDA运行时API 3804,CUDA驱动器API 3806可以公开但不限于用于存储器管理、执行控制、设备管理、错误处理、同步和/或图形互操作性等的函数。在至少一个实施例中,CUDA驱动器API3806与CUDA运行时API 3804的不同之处在于,CUDA运行时API 3804通过提供隐式初始化、上下文(类似于进程)管理和模块(类似于动态加载的库)管理来简化设备代码管理。与高级CUDA运行时API 3804相反,在至少一个实施例中,CUDA驱动器API 3806是提供对设备的更细粒度控制的低级API,特别是关于上下文和模块加载。在至少一个实施例中,CUDA驱动器API 3806可以公开没有由CUDA运行时API 3804公开的用于上下文管理的函数。在至少一个实施例中,CUDA驱动器API 3806也与语言无关,并且除了支持CUDA运行时API 3804之外,还支持例如OpenCL。此外,在至少一个实施例中,包括CUDA运行时3805在内的开发库可被视为与驱动器组件分离,包括用户模式的CUDA驱动器3807和内核模式的设备驱动器3808(有时也称为“显示”驱动器)。
在至少一个实施例中,CUDA库3803可以包括但不限于数学库,深度学习库,并行算法库和/或信号/图像/视频处理库,并行计算应用程序(例如应用程序3801)可以利用这些库。在至少一个实施例中,CUDA库3803可包括数学库,例如cuBLAS库,其是用于执行线性代数运算的基本线性代数子程序(“BLAS”)的实现;用于计算快速傅立叶变换(“FFT”)的cuFFT库,以及用于生成随机数的cuRAND库等。在至少一个实施例中,CUDA库3803可以包括深度学习库,诸如用于深度神经网络的基元的cuDNN库和用于高性能深度学习推理的TensorRT平台等等。在至少一个实施例中,关于图38所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,硬件3809使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图39示出了根据至少一个实施例的图37的软件栈3700的ROCm实现。在至少一个实施例中,可在其上启动应用程序3901的ROCm软件栈3900包括语言运行时3903,系统运行时3905,thunk 3907,ROCm内核驱动器3908和设备内核驱动器3909。在至少一个实施例中,ROCm软件栈3900在硬件3909上执行,硬件3909可以包括支持ROCm的GPU,其由加利福尼亚州圣克拉拉市的AMD公司开发。
在至少一个实施例中,应用程序3901可以执行与以上结合图37讨论的应用程序3701类似的功能。另外,在至少一个实施例中,语言运行时3903和系统运行时3905可以执行与以上结合图37讨论的运行时3705类似的功能。在至少一个实施例中,语言运行时3903和系统运行时3905的不同之处在于,系统运行时3905是实现ROCr系统运行时API 3904并利用异构系统架构(“HAS”)运行时API的语言无关运行时。在至少一个实施例中,HAS运行时API是一种瘦用户模式API,它公开接口以供访问和与AMD GPU交互,包括用于存储器管理、通过架构分派内核的执行控制、错误处理、系统和代理信息以及运行时初始化和关闭等的函数。在至少一个实施例中,与系统运行时3905相比,语言运行时3903是ROCr系统运行时API3904之上分层的特定于语言的运行时API 3902的实现。在至少一个实施例中,语言运行时API可以包括但不限于可移植异构计算接口(“HIP”)语言运行时API,异构计算编译器(“HCC”)语言运行时API或OpenCL API等等。特别是,HIP语言是C++编程语言的扩展,具有CUDA机制的功能相似版本,并且在至少一个实施例中,HIP语言运行时API包括与以上结合图38讨论的CUDA运行时API 3804相似的函数,例如用于存储器管理、执行控制、设备管理、错误处理和同步等的函数。
在至少一个实施例中,thunk(ROCt)3907是可用于与底层ROCm驱动器3908交互的接口。在至少一个实施例中,ROCm驱动器3908是ROCk驱动器,其是AMDGPU驱动器和HAS内核驱动器(amdkfd)的组合。在至少一个实施例中,AMDGPU驱动器是由AMD开发的用于GPU的设备内核驱动器,其执行与以上结合图37讨论的设备内核驱动器3706类似的功能。在至少一个实施例中,HAS内核驱动器是允许不同类型的处理器经由硬件特征更有效地共享系统资源的驱动器。
在至少一个实施例中,各种库(未示出)可以被包括在语言运行时3903上方的ROCm软件栈3900中,并且提供与以上结合图38讨论的CUDA库3803相似的功能。在至少一个实施例中,各种库可以包括但不限于数学、深度学习和/或其他库,例如实现与CUDA cuBLAS类似的函数的hipBLAS库,类似于CUDA cuFFT用于计算FFT的rocFFT库等。在至少一个实施例中,关于图39所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,硬件3910使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图40示出了根据至少一个实施例的图37的软件栈3700的OpenCL实现。在至少一个实施例中,可以在其上启动应用程序4001的OpenCL软件栈4000包括OpenCL框架4005,OpenCL运行时4006和驱动器4007。在至少一个实施例中,OpenCL软件栈4000在不是特定于供应商的硬件3809上执行。在至少一个实施例中,由于由不同厂商开发的设备支持OpenCL,因此可能需要特定的OpenCL驱动器才能与来自此类厂商的硬件进行互操作。
在至少一个实施例中,应用程序4001,OpenCL运行时4006,设备内核驱动器4007和硬件4008可以分别执行与上面结合图37讨论的应用程序3701、运行时3705、设备内核驱动器3706和硬件3707类似的功能。在至少一个实施例中,应用程序4001还包括具有将在设备上执行的代码的OpenCL内核4002。
在至少一个实施例中,OpenCL定义了一种“平台”,其允许主机控制连接到该主机的设备。在至少一个实施例中,OpenCL框架提供平台层API和运行时API,示出为平台API4003和运行时API 4005。在至少一个实施例中,运行时API 4005使用上下文来管理设备上内核的执行。在至少一个实施例中,每个标识的设备可以与各自的上下文相关联,运行时API 4005可以使用该上下文来管理该设备的命令队列、程序对象和内核对象、共享存储器对象等。在至少一个实施例中,平台API 4003公开了允许设备上下文用于选择和初始化设备,经由命令队列将工作提交给设备,以及使得能够进行来自和去往设备的数据传输等的函数。另外,在至少一个实施例中,OpenCL框架提供各种内置函数(未示出),包括数学函数、关系函数和图像处理函数等。
在至少一个实施例中,编译器4004也被包括在OpenCL框架4005中。在至少一个实施例中,源代码可以在执行应用程序之前被离线编译或者在执行应用程序期间被在线编译。与CUDA和ROCm相反,至少一个实施例中的OpenCL应用程序可以由编译器4004在线编译,编译器4004被包括以代表可以用于将源代码和/或IR代码(例如标准可移植中间表示(“SPIR-V”)代码)编译为二进制代码的任意数量的编译器。可替代地,在至少一个实施例中,可以在执行这样的应用程序之前离线编译OpenCL应用程序。在至少一个实施例中,关于图40所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,硬件4008使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图41示出了根据至少一个实施例的由编程平台支持的软件。在至少一个实施例中,编程平台4104被配置为支持应用程序4100可以依赖的各种编程模型4103,中间件和/或库4102以及框架4101。在至少一个实施例中,应用程序4100可以是使用例如深度学习框架(在至少一个实施例中,MXNet,PyTorch或TensorFlow)实现的AI/ML应用,其可以依赖于诸如cuDNN,NVIDIA Collective Communications Library(“NCCL”)”和/或NVIDIA开发人员数据加载库(“DALI”)CUDA库之类的库,以在底层硬件上提供加速的计算。
在至少一个实施例中,编程平台4104可以是以上分别结合图38、图39和图40描述的CUDA、ROCm或OpenCL平台之一。在至少一个实施例中,编程平台4104支持多个编程模型4103,其是底层计算系统的抽象,其允许算法和数据结构的表达。在至少一个实施例中,编程模型4103可以暴露底层硬件的特征以便改善性能。在至少一个实施例中,编程模型4103可以包括但不限于CUDA,HIP,OpenCL,C++加速大规模并行性(“C++AMP”),开放多处理(“OpenMP”),开放加速器(“OpenACC”)和/或Vulcan计算(Vulcan Compute)。
在至少一个实施例中,库和/或中间件4102提供编程模型4104的抽象的实现。在至少一个实施例中,这样的库包括可由计算机程序使用并在软件开发期间利用的数据和编程代码。在至少一个实施例中,除了可以从编程平台4104获得的那些之外,这样的中间件还包括向应用程序提供服务的软件。在至少一个实施例中,库和/或中间件4102可以包括但不限于cuBLAS、cuFFT、cuRAND和其他CUDA库,或rocBLAS、rocFFT、rocRAND和其他ROCm库。另外,在至少一个实施例中,库和/或中间件4102可以包括NCCL和ROCm通信集合库(“RCCL”)库,其提供用于GPU的通信例程,用于深度学习加速的MIOpen库和/或用于线性代数、矩阵和向量运算、几何变换、数值求解器以及相关算法的本征库。
在至少一个实施例中,应用程序框架4101依赖于库和/或中间件4102。在至少一个实施例中,每个应用程序框架4101是用于实现应用软件的标准结构的软件框架。在至少一个实施例中,可以使用框架(诸如Caffe,Caffe2,TensorFlow,Keras,PyTorch或MxNet深度学习框架)来实现AI/ML应用。在至少一个实施例中,关于图41所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,应用程序4100在被执行时使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
图42示出了根据至少一个实施例的编译代码以在图37-40的编程平台之一上执行。在至少一个实施例中,编译器4201接收源代码4200,其包括主机代码以及设备代码两者。在至少一个实施例中,编译器4201被配置为将源代码4200转换为用于在主机上执行的主机可执行代码4202以及用于在设备上执行的设备可执行代码4203。在至少一个实施例中,源代码4200可以在执行应用程序之前离线编译,或者在执行应用程序期间在线编译。
在至少一个实施例中,源代码4200可以包括编译器4201支持的任何编程语言的代码,例如C++、C、Fortran等。在至少一个实施例中,源代码4200可以包括在单源(single-source)文件中,其具有主机代码和设备代码的混合,并在其中指示了设备代码的位置。在至少一个实施例中,单源文件可以是包括CUDA代码的.cu文件或包括HIP代码的.hip.cpp文件。备选地,在至少一个实施例中,源代码4200可以包括多个源代码文件,而不是单源文件,在该单源文件中主机代码和设备代码是分开的。
在至少一个实施例中,编译器4201被配置为将源代码4200编译成用于在主机上执行的主机可执行代码4202和用于在设备上执行的设备可执行代码4203。在至少一个实施例中,编译器4201执行操作,包括将源代码4200解析为抽象系统树(AST),执行优化以及生成可执行代码。在源代码4200包括单源文件的至少一个实施例中,编译器4201可以将设备代码与主机代码在这种单源文件中分开,将设备代码和主机代码分别编译成设备可执行代码4203和主机可执行代码4202,以及将设备可执行代码4203和主机可执行代码4202在单个文件中链接到一起,如下面关于图31更详细讨论的。
在至少一个实施例中,主机可执行代码4202和设备可执行代码4203可以是任何合适的格式,例如二进制代码和/或IR代码。在CUDA的情况下,在至少一个实施例中,主机可执行代码4202可以包括本地对象代码,而设备可执行代码4203可以包括PTX中间表示的代码。在至少一个实施例中,在ROCm的情况下,主机可执行代码4202和设备可执行代码4203都可以包括目标二进制代码。在至少一个实施例中,关于图42所示或描述的至少一个组件被用于实现本文至少结合图1-6描述的技术和/或功能。在至少一个实施例中,主机可执行代码4202包括指令,所述指令在被执行时,使一个或更多个电路存储程序代码的一两个或更多个部分是否已被组合的指示,如本文至少结合图1-6描述的。
鉴于以下条款,可以描述本公开的至少一个实施例:
1.一种处理器,包括:一个或更多个电路,所述一个或更多个电路用于存储程序代码的两个或更多个部分是否已被组合的指示。
2.根据条款1所述的处理器,其中所述一个或更多个电路用于存储程序代码的哪两个或更多个部分已被组合的指示。
3.根据条款1-2中任一项所述的处理器,其中所述一个或更多个电路用于存储所述程序代码的两个或更多个部分在被组合后是否已被翻译的指示。
4.根据条款1-3中任一项所述的处理器,其中所述一个或更多个电路用于存储所述程序代码的两个或更多个部分的组合版本。
5.根据条款1-4中任一项所述的处理器,其中所述一个或更多个电路用于将所述指示与所述程序代码的两个或更多个其他部分的组合版本的另一个指示进行比较。
6.根据条款1-5中任一项所述的处理器,其中所述一个或更多个电路用于至少部分地基于所述指示从存储中检索所述程序代码的两个或更多个部分的组合和翻译版本。
7.根据条款1-6中任一项所述的处理器,其中所述指示包括来自所述程序代码的两个或更多个部分的代码。
8.根据条款1-7中任一项所述的处理器,其中所述指示在应用程序的运行时期间被存储。
9.根据条款1-8中任一项所述的处理器,其中所述一个或更多个电路用于将所述程序代码的两个或更多个部分的组合版本翻译成用于并行计算的代码。
10.一种计算机实现的方法,包括:
存储程序代码的两个或更多个部分是否已被组合的指示。
11.根据条款10所述的方法,其中所述程序代码的两个或更多个部分包括函数的一个或更多个部分。
12.根据条款10-11中任一项所述的方法,进一步包括:存储所述程序代码的两个或更多个部分的组合版本被翻译成用于并行计算的代码的指示。
13.根据条款10-12中任一项所述的方法,进一步包括:存储被翻译成用于并行计算的代码的所述代码的两个或更多个部分的组合版本。
14.根据条款10-13中任一项所述的方法,其中所述指示是识别已被组合的程序代码的两个或更多个组合部分的键。
15.根据条款10-14中任一项所述的方法,其中所述指示包括所述程序代码的两个或更多个部分的组合版本。
16.根据条款10-15中任一项所述的方法,进一步包括:如果所述程序代码的两个或更多个部分尚未被组合,则组合所述两个或更多个部分。
17.根据条款10-16中任一项所述的方法,进一步包括:将在应用程序的运行时的所述指示与程序代码的两个或更多个其他部分是否已被组合的一个或更多个其他指示进行比较。
18.根据条款10-17中任一项所述的方法,其中所述指示指出从存储中检索所述程序代码的两个或更多个部分的组合和翻译版本的位置。
19.一种系统,包括:
一个或更多个电路,所述一个或更多个电路用于存储程序代码的两个或更多个部分是否已被组合的指示。
20.根据条款19所述的系统,其中所述程序代码的两个或更多个部分是从源代码翻译过来的。
21.根据条款19-20中任一项所述的系统,其中所述指示是包括来自所述程序代码的两个或更多个部分的代码的键。
22.根据条款19-21中任一项所述的系统,其中所述一个或更多个电路用于:如果所述程序代码的两个或更多个部分尚未被组合,则将所述程序代码的两个或更多个部分进行组合并翻译成用于虚拟计算架构的代码。
23.根据条款19-22中任一项所述的系统,其中所述一个或更多个电路用于存储所述程序代码的两个或更多个部分是否已被组合并被翻译成较低级别的代码语言的指示。
24.根据条款19-23中任一项所述的系统,其中所述一个或更多个电路用于将所述程序代码的两个或更多个部分的组合版本的指示存储为文件名。
25.根据条款19-24中任一项所述的系统,其中所述程序代码的两个或更多个部分是要被组合并被翻译成较低级别的代码的中间表示。
26.一种机器可读介质,其上存储有指令集,所述指令集如果由一个或更多个处理器执行,则使所述一个或更多个处理器存储程序代码的两个或更多个部分是否已被组合的指示。
27.根据条款26所述的机器可读介质,其中所述程序代码的两个或更多个部分中的一个或更多个是函数的一个或更多个部分的中间表示。
28.根据条款26-27中任一项所述的机器可读介质,其中所述程序代码的两个或更多个部分中的一个或更多个是变量的中间表示。
29.根据条款26-28中任一项所述的机器可读介质,其中所述一个或更多个处理器用于:
至少部分地基于所述指示检索所述代码的两个或更多个部分的组合和翻译版本;以及
进一步将所述代码的两个或更多个部分的所述组合和翻译版本翻译成可执行文件。
30.根据条款26-29中任一项所述的机器可读介质,其中所述一个或更多个处理器用于:如果所述指示与所述程序代码的两个或更多个其他部分的组合版本的另一个指示相匹配,则检索被翻译成用于虚拟计算架构的代码的所述程序代码的两个或更多个部分的组合版本。
31.根据条款26-30中任一项所述的机器可读介质,其中所述一个或更多个处理器用于:如果所述指示与所存储的另一个指示不匹配,则将所述程序代码的两个或更多个部分的组合版本翻译成用于虚拟计算架构的代码。
32.根据条款26-31中任一项所述的机器可读介质,其中所述一个或更多个处理器用于在应用程序运行时至少部分地基于所述指示来重新使用所述代码的两个或更多个部分的组合版本的翻译。
其他变型在本公开的精神内。因此,尽管公开的技术易于进行各种修改和替代配置,但是某些示出的其实施例在附图中示出并且已经在上面进行了详细描述。然而,应理解,无意将公开内容限制为所公开的一种或更多种特定形式,而是相反,其意图是涵盖落入如所附权利要求书所定义的本公开内容的精神和范围内的所有修改、替代配置和等同物。
除非另有说明或显然与上下文矛盾,否则在描述所公开的实施例的上下文中(特别是在所附权利要求的上下文中),术语“一”和“一个”和“该”以及类似指代的使用应被解释为涵盖单数和复数,而不是作为术语的定义。除非另有说明,否则术语“包括”、“具有”、“包含”和“含有”应被解释为开放式术语(意味着“包括但不限于”)。术语“连接”(在未经修改时指的是物理连接)应解释为部分或全部包含在内、附接到或连接在一起,即使有某些介入。除非本文另外指出,否则本文中对数值范围的引用仅旨在用作分别指代落入该范围内的每个单独值的简写方法,并且每个单独值都被并入说明书中,就如同其在本文中被单独叙述一样。在至少一个实施例中,除非另外指出或与上下文矛盾,否则术语“集”(例如“项目集”)或“子集”的使用应解释为包括一个或更多个成员的非空集合。此外,除非另外指出或与上下文矛盾,否则术语相应集的“子集”不一定表示对应集的适当子集,而是子集和对应集可以相等。
除非以其他方式明确指出或与上下文明显矛盾,否则诸如“A,B和C中的至少一个”或“A,B与C中的至少一个”形式的短语之类的连接语在上下文中理解为通常用来表示项目、条款等,其可以是A或B或C,也可以是A和B和C集的任何非空子集。例如,在具有三个成员的集的示例性示例中,连接短语“A,B和C中的至少一个”和“A,B与C中的至少一个”是指以下任意集:{A},{B},{C},{A,B},{A,C},{B,C},{A,B,C}。因此,这种连接语言通常不旨在暗示某些实施例要求存在A中的至少一个,B中的至少一个和C中的至少一个。另外,除非另有说明或与上下文矛盾,否则术语“多个”表示复数的状态(例如,“多个项目”表示多个项目)。在至少一个实施例中,多个项目中项目的数量至少为两个,但如果明确指示或通过上下文指示,则可以更多。此外,除非另有说明或从上下文中可以清楚得知,否则短语“基于”是指“至少部分基于”而不是“仅基于”。
除非本文另外指出或与上下文明显矛盾,否则本文描述的过程的操作可以任何合适的顺序执行。在至少一个实施例中,诸如本文所述的那些过程(或其变形和/或其组合)之类的过程在配置有可执行指令的一个或更多个计算机系统的控制下执行,并且被实现为代码(例如,可执行指令,一个或更多个计算机程序或一个或更多个应用程序),该代码通过硬件或其组合在一个或更多个处理器上共同执行。在至少一个实施例中,代码以计算机程序的形式存储在计算机可读存储介质上,在至少一个实施例中,该计算机程序包括可由一个或更多个处理器执行的多个指令。在至少一个实施例中,计算机可读存储介质是非暂时性计算机可读存储介质,其排除了暂时性信号(例如,传播的瞬态电或电磁传输),但包括非暂时性数据存储电路(例如,缓冲区、高速缓存和队列)。在至少一个实施例中,代码(例如,可执行代码或源代码)被存储在其上存储有可执行指令的一组一个或更多个非暂时性计算机可读存储介质(或用于存储可执行指令的其他存储器)上,该可执行指令在由计算机系统的一个或更多个处理器执行时(即,作为被执行的结果),使得计算机系统执行本文所述的操作。在至少一个实施例中,一组非暂时性计算机可读存储介质包括多个非暂时性计算机可读存储介质,并且多个非暂时性计算机可读存储介质中的个体非暂时性存储介质中的一个或更多个缺少全部代码,而是多个非暂时性计算机可读存储介质共同存储全部代码。在至少一个实施例中,可执行指令被执行,以使得不同的指令由不同的处理器执行,在至少一个实施例中,非暂时性计算机可读存储介质存储指令,并且主中央处理单元(“CPU”)执行一些指令,而图形处理单元(“GPU”)执行其他指令。在至少一个实施例中,计算机系统的不同组件具有单独的处理器,并且不同的处理器执行指令的不同子集。
因此,在至少一个实施例中,计算机系统被配置为实现单独地或共同地执行本文所述的过程的操作的一个或更多个服务,并且这样的计算机系统被配置有使能实施操作的适用的硬件和/或软件。此外,实现本公开的至少一个实施例的计算机系统是单个设备,并且在另一实施例中是分布式计算机系统,其包括以不同方式操作的多个设备,使得分布式计算机系统执行本文所述的操作,并且使得单个设备不执行所有操作。
本文提供的任何和所有示例或示例性语言(例如,“诸如”)的使用仅旨在更好地阐明本公开的实施例,并且不对公开的范围构成限制,除非另有要求。说明书中的任何语言都不应被解释为表示任何未要求保护的要素对于实践公开内容是必不可少的。
本文引用的所有参考文献,包括出版物、专利申请和专利,均通过引用并入本文,其程度就如同每个参考文献被单独且具体地指示为以引用的方式并入本文并且其全部内容在本文中阐述一样。
在说明书和权利要求中,可以使用术语“耦合”和“连接”以及它们的派生词。应当理解,这些术语可能不旨在作为彼此的同义词。相反,在特定示例中,“连接”或“耦合”可用于指示两个或更多个元件彼此直接或间接物理或电接触。“耦合”也可能意味着两个或更多个元素彼此不直接接触,但仍彼此协作或交互。
除非另有明确说明,否则可以理解,在整个说明书中,诸如“处理”、“计算”、“计算”、“确定”等之类的术语,是指计算机或计算系统或类似的电子计算设备的动作和/或过程,其将计算系统的寄存器和/或存储器中表示为物理量(例如电子)的数据处理和/或转换为类似表示为计算系统的存储器、寄存器或其他此类信息存储、传输或显示设备中的物理量的其他数据。
以类似的方式,术语“处理器”可以指处理来自寄存器和/或存储器的电子数据并将该电子数据转换成可以存储在寄存器和/或存储器中的其他电子数据的任何设备或存储器的一部分。作为非限制性示例,“处理器”可以是CPU或GPU。“计算平台”可以包括一个或更多个处理器。如本文所使用的,在至少一个实施例中,“软件”进程可以包括随时间执行工作的软件和/或硬件实体,诸如任务、线程和智能代理。同样,每个过程可以指代多个过程,以连续地或间歇地顺序地或并行地执行指令。术语“系统”和“方法”在本文中可以互换使用,只要系统可以体现一种或更多种方法,并且方法可以被认为是系统。
在至少一个实施例中,算术逻辑单元是一组组合逻辑电路,其获取一个或更多个输入来产生结果。在至少一个实施例中,算术逻辑单元由处理器使用以实现数学运算,例如加法、减法或乘法。在至少一个实施例中,算术逻辑单元被用于实现逻辑运算,诸如逻辑AND/OR或XOR。在至少一个实施例中,算术逻辑单元是无状态的,由物理开关元件制成,诸如,被布置以形成逻辑门的半导体晶体管。在至少一个实施例中,算术逻辑单元可以作为具有关联的时钟的有状态的逻辑电路在内部运行。在至少一个实施例中,算术逻辑单元可被构造为异步逻辑电路,其内部状态不保持在关联的寄存器集中。在至少一个实施例中,算术逻辑单元由处理器使用以与存储在处理器的一个或更多个寄存器中的操作数进行组合,并产生可由处理器存储在另一个寄存器或存储器位置中的输出。
在至少一个实施例中,作为处理由处理器检索的指令的结果,处理器将一个或更多个输入或操作数交给算术逻辑单元,使得算术逻辑单元至少部分地基于提供给算术逻辑单元的输入的指令代码来产生结果。在至少一个实施例中,由处理器提供给ALU的指令代码至少部分地基于由处理器执行的指令。在至少一个实施例中,ALU中的组合逻辑处理输入并产生输出,该输出被置于处理器内的总线上。在至少一个实施例中,处理器在输出总线上选择目的地寄存器、存储器位置、输出设备或输出存储位置,以便对处理器进行钟控使得ALU产生的结果被发送到所需位置。
在本文件中,可以参考获得、获取、接收或将模拟或数字数据输入子系统、计算机系统或计算机实现的机器中。在至少一个实施例中,可以通过多种方式来完成获得、获取、接收或输入模拟和数字数据的过程,例如通过接收作为函数调用或对应用程序编程接口的调用的参数的数据。在一些实现方式中,可以通过经由串行或并行接口传输数据来完成获得、获取、接收或输入模拟或数字数据的过程。在另一实现方式中,可以通过经由计算机网络将数据从提供实体传输到获取实体来完成获得、获取、接收或输入模拟或数字数据的过程。也可以参考提供、输出、传送、发送或呈现模拟或数字数据。在各种示例中,提供、输出、传送、发送或呈现模拟或数字数据的过程可以通过将数据作为函数调用的输入或输出参数、应用程序编程接口或进程间通信机制的参数进行传输来实现。
尽管上面的讨论阐述了所描述的技术的示例实现方式,但是其他架构可以用于实现所描述的功能,并且旨在落入本公开的范围内。此外,尽管出于讨论的目的在上面定义了具体的职责分配,但是根据情况,可以以不同的方式分配和划分各种功能和职责。
此外,尽管已经用特定于结构特征和/或方法动作的语言描述了主题,但是应当理解,所附权利要求书所要求保护的主题不必限于所描述的特定特征或动作。而是,公开了特定的特征和动作作为实现权利要求的示例性形式。
Claims (32)
1.一种处理器,包括:一个或更多个电路,所述一个或更多个电路用于存储程序代码的两个或更多个部分是否已被组合的指示。
2.根据权利要求1所述的处理器,其中所述一个或更多个电路用于存储程序代码的哪两个或更多个部分已被组合的指示。
3.根据权利要求1所述的处理器,其中所述一个或更多个电路用于存储所述程序代码的两个或更多个部分在被组合后是否已被翻译的指示。
4.根据权利要求1所述的处理器,其中所述一个或更多个电路用于存储所述程序代码的两个或更多个部分的组合版本。
5.根据权利要求1所述的处理器,其中所述一个或更多个电路用于将所述指示与所述程序代码的两个或更多个其他部分的组合版本的另一个指示进行比较。
6.根据权利要求1所述的处理器,其中所述一个或更多个电路用于至少部分地基于所述指示从存储中检索所述程序代码的两个或更多个部分的组合和翻译版本。
7.根据权利要求1所述的处理器,其中所述指示包括来自所述程序代码的两个或更多个部分的代码。
8.根据权利要求1所述的处理器,其中所述指示在应用程序的运行时期间被存储。
9.根据权利要求1所述的处理器,其中所述一个或更多个电路用于将所述程序代码的两个或更多个部分的组合版本翻译成用于并行计算的代码。
10.一种计算机实现的方法,包括:
存储程序代码的两个或更多个部分是否已被组合的指示。
11.根据权利要求10所述的方法,其中所述程序代码的两个或更多个部分包括函数的一个或更多个部分。
12.根据权利要求10所述的方法,进一步包括:存储所述程序代码的两个或更多个部分的组合版本被翻译成用于并行计算的代码的指示。
13.根据权利要求10所述的方法,进一步包括:存储被翻译成用于并行计算的代码的所述代码的两个或更多个部分的组合版本。
14.根据权利要求10所述的方法,其中所述指示是识别已被组合的程序代码的两个或更多个组合部分的键。
15.根据权利要求10所述的方法,其中所述指示包括所述程序代码的两个或更多个部分的组合版本。
16.根据权利要求10所述的方法,进一步包括:如果所述程序代码的两个或更多个部分尚未被组合,则组合所述两个或更多个部分。
17.根据权利要求10所述的方法,进一步包括:将在应用程序的运行时的所述指示与程序代码的两个或更多个其他部分是否已被组合的一个或更多个其他指示进行比较。
18.根据权利要求10所述的方法,其中所述指示指出从存储中检索所述程序代码的两个或更多个部分的组合和翻译版本的位置。
19.一种系统,包括:
一个或更多个电路,所述一个或更多个电路用于存储程序代码的两个或更多个部分是否已被组合的指示。
20.根据权利要求19所述的系统,其中所述程序代码的两个或更多个部分是从源代码翻译过来的。
21.根据权利要求19所述的系统,其中所述指示是包括来自所述程序代码的两个或更多个部分的代码的键。
22.根据权利要求19所述的系统,其中所述一个或更多个电路用于:如果所述程序代码的两个或更多个部分尚未被组合,则将所述程序代码的两个或更多个部分进行组合并翻译成用于虚拟计算架构的代码。
23.根据权利要求19所述的系统,其中所述一个或更多个电路用于存储所述程序代码的两个或更多个部分是否已被组合并被翻译成较低级别的代码语言的指示。
24.根据权利要求19所述的系统,其中所述一个或更多个电路用于将所述程序代码的两个或更多个部分的组合版本的指示存储为文件名。
25.根据权利要求19所述的系统,其中所述程序代码的两个或更多个部分是要被组合并被翻译成较低级别的代码的中间表示。
26.一种机器可读介质,其上存储有指令集,所述指令集如果由一个或更多个处理器执行,则使所述一个或更多个处理器存储程序代码的两个或更多个部分是否已被组合的指示。
27.根据权利要求26所述的机器可读介质,其中所述程序代码的两个或更多个部分中的一个或更多个是函数的一个或更多个部分的中间表示。
28.根据权利要求26所述的机器可读介质,其中所述程序代码的两个或更多个部分中的一个或更多个是变量的中间表示。
29.根据权利要求26所述的机器可读介质,其中所述一个或更多个处理器用于:
至少部分地基于所述指示检索所述代码的两个或更多个部分的组合和翻译版本;以及
进一步将所述代码的两个或更多个部分的所述组合和翻译版本翻译成可执行文件。
30.根据权利要求26所述的机器可读介质,其中所述一个或更多个处理器用于:如果所述指示与所述程序代码的两个或更多个其他部分的组合版本的另一个指示相匹配,则检索被翻译成用于虚拟计算架构的代码的所述程序代码的两个或更多个部分的组合版本。
31.根据权利要求26所述的机器可读介质,其中所述一个或更多个处理器用于:如果所述指示与所存储的另一个指示不匹配,则将所述程序代码的两个或更多个部分的组合版本翻译成用于虚拟计算架构的代码。
32.根据权利要求26所述的机器可读介质,其中所述一个或更多个处理器用于在应用程序运行时至少部分地基于所述指示来重新使用所述代码的两个或更多个部分的组合版本的翻译。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/749,925 US20230376287A1 (en) | 2022-05-20 | 2022-05-20 | Code generation technique |
US17/749,925 | 2022-05-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117093193A true CN117093193A (zh) | 2023-11-21 |
Family
ID=88600015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310565404.4A Pending CN117093193A (zh) | 2022-05-20 | 2023-05-18 | 代码生成技术 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230376287A1 (zh) |
CN (1) | CN117093193A (zh) |
DE (1) | DE102023113043A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240103853A1 (en) * | 2022-09-26 | 2024-03-28 | Sap Se | Code maintenance system |
-
2022
- 2022-05-20 US US17/749,925 patent/US20230376287A1/en active Pending
-
2023
- 2023-05-17 DE DE102023113043.9A patent/DE102023113043A1/de active Pending
- 2023-05-18 CN CN202310565404.4A patent/CN117093193A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230376287A1 (en) | 2023-11-23 |
DE102023113043A1 (de) | 2023-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4102351A1 (en) | Secure network access device | |
CN115039081A (zh) | 基于用户交互组度量的网络服务性能退化的检测 | |
CN114816029A (zh) | 静态数据中心的功率平衡和配置 | |
CN115484042A (zh) | 机器学习辅助的网络设备 | |
CN116643938A (zh) | 安全数据中心的健康监测 | |
CN117093193A (zh) | 代码生成技术 | |
US11892946B2 (en) | Disaggregated hypervisor on multiple devices | |
CN118043813A (zh) | 用于可编程部件的选择性通信接口 | |
CN116028076A (zh) | 非易失性存储器存储和接口 | |
CN116225179A (zh) | 进行气流控制以获得冷却效率 | |
US20220352099A1 (en) | Integrated circuit physical security device | |
CN115550356A (zh) | 机架组件检测和通信 | |
CN114813177A (zh) | 热测试车辆 | |
US20240095044A1 (en) | Application programming interface to modify code | |
US20240086527A1 (en) | Detecting potential malware in host memory | |
US20240086536A1 (en) | Detecting potential malware in host memory | |
US11895017B1 (en) | Port management in multi-ASIC systems | |
US20240070048A1 (en) | Application programming interface to monitor software workloads | |
US20240069996A1 (en) | Application programming interface to launch software workloads | |
US20240069973A1 (en) | Application programming interface to terminate software workloads | |
US20240073124A1 (en) | Quality based load balancing for multipath routing in networks | |
US20240070040A1 (en) | System testing technique | |
US20240069978A1 (en) | Logical cluster partitioning | |
CN117632469A (zh) | 用于终止软件工作负载的应用程序编程接口 | |
CN117632629A (zh) | 用于监控软件工作负载的应用程序编程接口 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |