CN114651235A - 多线程微处理器中的共享资源分配 - Google Patents
多线程微处理器中的共享资源分配 Download PDFInfo
- Publication number
- CN114651235A CN114651235A CN202080077740.9A CN202080077740A CN114651235A CN 114651235 A CN114651235 A CN 114651235A CN 202080077740 A CN202080077740 A CN 202080077740A CN 114651235 A CN114651235 A CN 114651235A
- Authority
- CN
- China
- Prior art keywords
- thread
- shared resource
- entries
- time period
- allocation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
- G06F9/4887—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues involving deadlines, e.g. rate based, periodic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5022—Mechanisms to release resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Executing Machine-Instructions (AREA)
- Multi Processors (AREA)
Abstract
提供了一种基于共享资源对多线程微处理器中的线程中的每一个线程的有用性,将所述共享资源分配给所述线程的方法。所述共享资源对线程的有用性基于所述共享资源中分配给所述线程的所述条目数和所述线程在所述共享资源中具有的所述活动条目数来确定。在所述共享资源中分配了大量条目且在所述共享资源中具有少量活动条目(指示低水平并行性)的线程可在所述共享资源中具有较少条目的情况下高效地运行,并降低了它们在所述共享资源中的分配限制。
Description
背景技术
在本节中描述的方法是可采用的方法,但不一定是先前已经构想或采用的方法。因此,除非另外指明,否则不应假设本节中描述的方法中的任何方法仅仅因为它们包含在本节中而被认为是现有技术。此外,不应假设本节中描述的方法中的任何方法仅仅因为它们包含在本节中而是易于理解的、例行的或常规的。
多线程微处理器通常具有由多个线程使用的共享资源,诸如加载队列和保留站。共享资源通常按照先到先得的方式分配给线程。这种方法的一个问题是,如果使用共享资源的线程具有不同的执行特性,则一个线程可能通过获取过大的共享资源份额而阻碍其他线程的高效执行。例如,线程可能会获取加载队列中的大部分条目,如果当其他线程原本可受益于加载队列中具有更多条目时所述其他线程可以使用的条目太少,则这可能会使这些线程的性能降级。
此问题的一种技术解决方案是限制线程对共享资源的使用。例如,共享资源中分配给线程的条目数可能会针对所有线程或单个线程设置上限。然而,在不知道对特定线程的影响的情况下限制分配给线程的条目数可能会导致整体性能降级,因为线程的执行特性可能会有很大差异,并且一些线程可能会受益于在共享资源中具有超过有限数量的条目。因此,需要一种更好的方法来管理多线程微处理器中共享资源的使用。
附图说明
在附图各图中,通过举例而非限制的方式对实施方案进行描述,附图中相似的元件符号指代相似的元件。
图1是描绘多线程微处理器的框图。
图2是描绘由共享资源逻辑使用来管理对共享资源的访问的信息表的框图。
图3是描绘共享资源逻辑操作以更改共享资源到线程的分配的时间线的框图。
图4是描绘基于共享资源对多线程微处理器上的线程的有用性,将共享资源分配给所述线程的流程图。
图5A描绘在第一时钟周期窗口上针对线程获取的示例性使用数据。
图5B描绘在第二时钟周期窗口上针对线程获取的示例性使用数据。
图5C描绘在第三时钟周期窗口上针对线程获取的示例性使用数据。
图5D描绘在第四时钟周期窗口上针对线程获取的示例性使用数据。
具体实施方式
在以下描述中,出于解释的目的,阐述了许多具体细节,以便提供对实施方案的透彻理解。然而,对于本领域的技术人员将显而易见的是,可在没有这些具体细节的情况下实践实施方案。在其他情况下,以框图形式示出众所周知的结构和装置,以避免不必要地混淆实施方案。
I.概述
II.架构
III.基于有用性管理对共享资源的线程访问
A.概述
B.更改线程的共享资源分配限制
C.有用性度量
D.解决资源分配振荡
I.概述
提供了一种基于共享资源对多线程微处理器中的线程中的每一个线程的有用性,将所述共享资源分配给所述线程的方法。所述共享资源对线程的有用性基于所述共享资源中分配给所述线程的所述条目数和所述线程在所述共享资源中具有的所述活动条目数来确定。被在所述共享资源中分配了大量条目且在所述共享资源中具有少量活动条目(指示低水平并行性)的线程可在所述共享资源中具有较少条目的情况下高效地运行,并降低了它们在所述共享资源中的分配。如本文所用,术语“活动条目”是指共享资源中正在工作的条目,例如,当前正用于准备或执行指令的条目。对于同一共享资源,不同的线程可能具有不同的有用性水平,并且该方法适用于任意数量的线程和共享资源。该方法降低了线程在共享资源中获取大量条目,从而使得使用所述共享资源的其他线程的性能降级的可能性。
II.架构
图1是描绘多线程微处理器100的框图,所述多线程微处理器包括控制单元110、算术逻辑单元(ALU)120、线程寄存器130、共享资源140和共享资源逻辑150。线程寄存器130是专用于特定线程的寄存器。微处理器可支持任意数量的线程并且实施方案不限于任意特定数量的线程。共享资源140可以是由多线程微处理器100中的多个线程使用的任何类型的资源。共享资源140的示例包括但不限于加载队列、寄存器文件、保留站等。
共享资源逻辑150基于共享资源140对在多线程微处理器100上执行的线程的有用性,管理共享资源140到所述线程的分配,如下文更详细地描述。共享资源逻辑150可由计算机硬件、计算机软件或计算机硬件和软件的任意组合来实现。仅出于讨论目的,共享资源逻辑150在图1中被描绘为单独的元件,并且共享资源逻辑150可并入到多线程微处理器100内的其他元件,例如资源分配逻辑、线程切换逻辑和分派限制逻辑中。多线程微处理器100可包括图1中未描绘并且可能根据特定实现方式而变化的附加元件。
III.基于有用性管理对共享资源的线程访问
A.概述
共享资源逻辑150评估共享资源140对线程的有用性并基于所述有用性更改共享资源140分配给所述线程的分配限制。如本文所用,术语“分配限制”是对共享资源140中可分配给线程的条目数的限制。图2是描绘由共享资源逻辑150使用来管理对共享资源140的访问的信息表200的框图。表200中的每一行都对应于在多线程微处理器100上执行的线程。每个线程的数据列包括:在第一列中的标识线程的数据;在第二列中的共享资源140中当前分配给线程的条目数;在第三列中的共享资源140中用于线程的活动条目数;以及在第四列中的有用性度量。所述有用性度量是活动条目数与当前分配给线程的条目数的比率。表200中的信息可保存在多线程微处理器100的内部或外部。可使用例如计数器或其他硬件元件来跟踪共享资源140中分配给每个线程的条目数以及共享资源140中用于每个线程的活动条目数。
图3是描绘时间线300的框图,在所述时间线上,共享资源逻辑150基于共享资源140对线程的有用性,更改共享资源140的分配给所述线程的分配限制。时间线300包括时钟周期窗口(CCW)形式的N个时间段,其中每个CCW是一组时钟周期。每个CCW中的时钟周期数可使用性能建模来确定,并且可根据特定实现方式而变化。所述性能建模可平衡诸如反应足够快等因素,以防止线程消耗共享资源中的太多条目,从而降低其他线程的性能,而不会过度限制共享资源中可供线程使用的条目数。在实施方案中,CCW中的每个CCW包括16个时钟周期。所述时钟周期数可在共享资源逻辑150中配置并且可经由例如操作系统来选择。尽管CCW在图3中被描绘为是连续的,但CCW不限于是连续的,并且可具有间隙时钟周期。此外,CCW之间的间隙周期数可能因CCW而异,并且也可能随时间而变化。尽管本文在时钟周期窗口形式的时间段的上下文中描述了实施方案,但实施方案不限于时钟周期窗口本身。
从时间T0开始,在CCW 1上监视线程对共享资源140的使用,并且在时间T1(即CCW 1结束时),评估线程对共享资源140的使用并针对下一个CCW 2更新分配给线程的分配限制。需注意,CCW 2可能在CCW 1之后的任意数量的时钟周期发生,并且CCW 1与CCW 2之间的间隙时钟周期数可能随时间而变化。根据实施方案,共享资源逻辑150识别出被在共享资源中分配了足够多数量的条目以潜在地使其他线程的性能降级的线程。然后,共享资源逻辑150确定这些线程中的任一个线程是否在共享资源150中具有少量活动条目。被在共享资源140中分配了大量条目并且在共享资源140中具有少量活动条目的线程可在共享资源150中具有较少条目的情况下高效地运行,因此它们的分配限制被降低。
根据实施方案,使用阈值(例如,分配阈值和活动条目阈值)进行前述确定。对于特定线程,如果共享资源中当前分配给特定线程的条目数超过分配阈值,并且特定线程在共享资源中的活动条目数小于活动条目阈值,则特定线程的分配限制被降低。
分配阈值可使用性能建模来设计,并且被选择来识别在共享资源中消耗过多条目并可能使其他线程的性能降级(即,通过占用共享资源)的线程。活动条目阈值被选择来识别具有低水平并行性并因此在共享资源中具有较少条目数的情况下仍有可能高效运行的线程。例如,当线程正在执行一系列加法指令时,可能会出现低水平并行性,其中每条指令都依赖于前一条指令的结果。将这两个阈值结合使用防止了在共享资源中具有至少阈值数量的条目和低水平并行性的线程消耗共享资源中的太多条目,从而使其他线程的性能降级。
B.更改线程的共享资源分配限制
图4是描绘基于共享资源对多线程微处理器上的线程的有用性,将共享资源分配给所述线程的流程图400。
在步骤402中,针对多线程微处理器上的线程建立对共享资源的初始分配限制。在当前示例中,针对在多线程微处理器100上执行的线程T0至T3建立对共享资源140的初始分配限制。
根据实施方案,所述初始分配限制是共享资源中可用条目的总数。例如,假设共享资源140是具有50个条目的加载队列,则针对线程T0至T3中的每一者,将初始分配限制建立为50。需注意,将共享资源140中可用条目的总数指派为对所有线程的初始分配限制,可能允许所述线程任何线程消耗共享资源140中的大量条目,并使其他线程的性能降级。可替代地,初始分配限制可能小于共享资源中可用条目的总数。例如,对于具有50个条目的加载队列,可针对线程T0至T3中的每个线程,将初始分配限制建立为10。
所述初始分配限制可能是线程特定的。例如,可为高优先级线程(例如,具有特殊指定的线程,或将参与满足特定服务质量(QOS)要求的线程)指派比其他具有较低优先级的线程更大的初始分配限制。在先前示例中,可为高优先级线程指派初始分配限制50,而为其他线程指派初始分配限制30。初始分配限制可在共享资源逻辑150中预先配置,存储在由共享资源逻辑150使用的配置数据中,或者经由操作系统进行配置。此外,共享资源逻辑150可例如在通电时或响应于接收到命令(诸如操作系统命令),而将线程分配限制重置为初始分配限制。
在步骤404中,在第一组时钟周期上确定每个线程的分配条目数和活动条目数。例如,共享资源逻辑150可确定线程T0至T3在CCW 1上的分配条目数和活动条目数。图5A描绘了线程T0至T3在CCW 1上的示例性使用数据。在此示例中,线程T0至T3在CCW 1上的初始分配限制为50。活动条目数是当前正在工作的条目数,并且在CCW 1期间可能随着指令的处理而变化。因此,根据实施方案,活动条目数是CCW 1期间的最少活动条目数。在图5A所描绘的示例中,线程T1在CCW 1期间具有最大活动条目数,指示了相对于其他线程的最高水平的并行性,而线程T0在CCW 1期间具有最少活动条目数。相应地,相比于线程T0,线程T1将更受益于在共享资源140中具有更多条目。
在步骤406中,选择第一/下一个线程。在本示例中,选择线程T0,但是可使用任何方法来选择待评估的第一线程。在步骤408中,确定分配给所选线程的条目数是否超过分配阈值。例如,共享资源逻辑150确定共享资源140中分配给线程T0的条目数是否大于分配阈值。假设分配阈值为10,则分配阈值被满足,因为分配给线程T0的12个条目大于分配阈值10,并且控制进行到步骤410。这意味着线程T0已被在共享资源140中分配了足够多的条目,以潜在地使其他线程的性能降级。
在步骤410中,确定用于线程的活动条目数是否小于活动条目阈值。如先前所提及的,活动条目阈值用于识别出具有低水平的并行性并因此在共享资源分配较少的情况下仍有可能高效运行的线程。在本示例中,共享资源逻辑150确定线程T0在共享资源140中的活动条目数是否小于活动条目阈值。假设活动条目阈值为3,则活动条目阈值被满足,因为线程T0的一个活动条目小于活动条目阈值3,并且控制进行到步骤412。在满足步骤408和410中的两个阈值之后,线程T0在共享资源140中具有足够多的条目以潜在地使其他线程的性能降级,并且还具有低水平的并行性。因此,线程T0可在共享资源140中使用了较少条目数的情况下高效地运行。
在步骤412中,降低线程的共享资源分配限制,以防止所述线程使其他线程的性能降级。在本示例中,在下一个时间段,即下一个时钟周期窗口CCW 2,线程T0的共享资源140分配限制被降低。分配限制的降低量可根据特定实现方式而变化,并且实施方案不限于任何特定降低方法。根据实施方案,线程的分配限制被降低到降低的分配限制。例如,线程T0在共享资源140中的分配条目可从50降低到10。降低的分配限制可在共享资源逻辑150中配置和/或可经由操作系统来选择。降低的分配限制的值可使用建模来确定,并且所述值是足够低的值以防止线程使其他线程的性能降级。
作为将线程的共享资源分配限制降低到降低的分配限制的替代方案,可使线程的分配限制以递增的方式降低。例如,分配给线程T0的条目数可从50降低1达49,或者从50降低10达40。可能会实现更复杂的方法,但需要附加计算成本。例如,所述降低可基于相对于活动条目阈值的活动条目水平。在此示例中,活动条目数为活动条目阈值的50%,将导致分配给线程的条目数降低50%。根据实施方案,基于线程的有用性度量来降低线程的分配限制。
根据实施方案,降低线程的分配限制不会导致线程立即放弃条目。相反,线程通常在工作完成时放弃条目,但直到线程的当前分配条目数降低到低于降低的分配限制,才会向线程授予共享资源140中的附加条目。在先前示例中,直到线程T0在共享资源140中具有少于10个分配条目,才会向线程T0授予共享资源140中的附加条目。
如果在步骤408中,分配给线程的条目数小于或等于分配阈值,或者在步骤410中,线程的活动条目数等于或大于活动条目数阈值,则控制进行到步骤414,并且线程的分配限制被重置(即,增加)。换句话说,如果共享资源140中的少量条目被分配给线程,则所述线程不会是使其他线程的性能降级的威胁。可替代地,如果线程具有大量活动条目,从而指示高水平的并行性,则所述线程可受益于在共享资源140中具有更多条目,并且其分配限制不会被降低。根据实施方案,当将线程的分配限制重置时,线程的分配限制被更改为初始分配限制。可替代地,线程的分配限制可增加指定量,所述指定量可为例如增量1,也可为更大的增量,诸如5或10。所述增量可在共享资源逻辑150中配置,或者可例如经由操作系统进行选择。也可基于线程的有用性度量来增加线程的分配限制。
在步骤412中降低线程的分配限制,或在步骤414中重置(增加)线程的分配限制之后,然后在步骤416中,确定是否需要处理更多线程。如果是,则控制返回到步骤406,并以相同的方式选择和处理下一个线程。一旦已经处理完所有线程,所述过程就在步骤418中完成。所述过程可针对任意数量的线程重复达任意次数。
根据实施方案,在每个时钟周期之后执行上述测试,并且如果到达步骤414,则针对下一个CCW,将线程的分配限制重置为初始分配限制。此外,在当前CCW期间不再测试该线程。如果在当前CCW期间,特定线程从未达到步骤414,则对于当前和下一个CCW,其分配限制保持降低。其他替代方案包括使用CCW上分配且活动的条目的平均数量,或使用CCW结束时分配且活动的条目的数量。
使用分配阈值和活动条目阈值两者来识别应该降低分配限制的线程,解决了如何防止多线程微处理器中具有低水平的并行性的线程书也使用共享资源的其他线程的性能降级的技术问题。该技术解决方案识别出当前在共享资源中被分配至少阈值数量的条目的线程(如分配阈值所示),使得所述线程潜在地“占用”共享资源并限制共享资源中可供其他线程使用的条目。然后,基于活动条目阈值,确定所识别的线程在共享资源中是否只有非常少的活动条目,即正在工作的条目。少量活动条目表明低水平的并行性并且线程在共享资源中的条目数较少的情况下能够继续高效运行,因此线程的分配限制降低。相反,具有少量分配条目或大量活动条目的线程不会使其分配限制被降低。
随着时间推移,线程的执行特性可能会发生变化,即由于不同的指令而发生变化。因此,共享资源中分配给线程的条目数以及该线程的活动条目数也可能随着时间推移而改变。因此,初始未降低分配限制的线程可能会在未来的CCW后降低其分配限制。
继续先前示例,图5B描绘了在CCW 2上针对线程T0至T3获取的示例性使用数据。在CCW 1之后进行向下调整后,线程T0的分配限制为10。线程T1至T3的分配限制被重置为初始分配限制50,因为这些线程的分配条目数都小于分配阈值。
在CCW 2之后的时间T2,再次执行上述测试,并且当线程T0经历活动条目数从1略微增加到2时,线程T0继续满足分配阈值(分配条目>10)和活动条目阈值(活动条目<3)两者,因此线程T0的分配限制保持为10。然而,线程T2现在也满足这两个阈值,因为分配给线程T2的12个条目大于分配阈值10,而两个活动条目小于活动条目阈值3。因此,对于下一组时钟周期(即,CCW 3),线程T2的分配限制降低到10。线程T1和T3的分配限制都重置为初始分配限制50,因为它们对应分配条目数小于分配阈值。
图5C描绘了在时间T3,在CCW 3上针对线程T0至T3获取的示例性使用数据。在CCW3期间,线程T0和T2的分配限制仍为10,因为在CCW 1之后对线程T0进行了向下调整,并且在CCW 2之后对线程T2进行了向下调整。在CCW 3上,线程T0的分配条目数保持高于分配阈值,但线程T0的活动条目数从2增加到5。因此,对于CCW 4,线程T0的分配限制被重置(增加)回初始分配限制50。在CCW 3期间,线程T2的12个分配条目继续超过分配阈值,并且线程T2只有一个活动条目,这小于活动条目阈值3。因此,线程T2在CCW 4中继续,分配限制降低为10。线程T1的分配限制被重置为初始分配限制50,因为当线程T1的11个分配条目超过了分配阈值10时,7个活动条目超过了活动条目阈值3。线程T3的分配限制被重置为初始分配限制50,因为六个分配条目小于分配阈值10。因此,虽然线程T1正在共享资源140中使用更多的条目,但线程T1的并行性水平高于活动条目阈值,因此其分配限制没有降低。
图5D描绘了在CCW 4上在时间T4,针对线程T0至T3获取的示例性使用数据。随着线程T0完成工作并且共享资源140中的条目被释放,在CCW 4上,线程T0的分配条目数从11减少到8。由于在CCW 4结束时,线程T0的分配条目数小于分配阈值,因此线程T0的分配限制被重置为初始分配限制50。线程T1的分配条目数在CCW 4上继续增加,但线程T1的分配限制再次被重置为初始分配限制,因为活动条目数超过了活动条目阈值。随着线程T2完成工作并且共享资源140中的条目被释放,在CCW 4上,线程T2的分配条目数从12减少到10。由于在CCW 4结束时,线程T2的分配条目数仍大于分配阈值10,并且活动条目数小于活动条目阈值,因此线程T2的分配限制仍降低为10。在CCW 4上,线程T3的分配条目数从6增加到10,但由于活动条目数超过活动条目阈值,因此线程T2的分配限制被重置为初始分配限制50。因此,虽然线程T1和T3都有可能占用共享资源140,但它们的活动条目数量都超过活动条目阈值,从而指示了高水平的并行性。因此,它们的分配限制被重置为初始分配限制。
C.有用性度量
如先前所述,有用性度量是活动条目数与当前分配给线程的条目数的特定于线程的比率。可在每个时钟周期、每N个时钟周期或在一段周期上计算有用性度量。例如,有用性度量可计算为N个时钟周期上的平均有用性度量。
有用性度量可用作分配阈值和活动条目阈值的替代,以用于确定是否应该更改线程的分配限制。例如,代替图4中的步骤408和410,可针对所选线程计算有用性度量,并将其与有用性阈值进行比较,以确定是否应该更改线程的分配限制。可在每个时钟周期、每N个时钟周期或一段周期上执行此测试,并且可测试单独有用性度量值,或可根据有用性阈值测试N个有用性度量值的平均值。根据实施方案,在线程的分配限制降低之前,在时钟周期窗口的每个时钟周期上,在线程的有用性度量不得不显示使用不佳(例如,不满足有用性阈值)的情况下,可使用窗口化方法。可替代地,可将时钟周期窗口上线程的平均有用性度量与有用性阈值进行比较。
有用性度量还可用于确定线程的新分配限制。根据实施方案,当使用分配阈值和活动条目阈值或有用性阈值来确定要更改线程的分配时,使用该线程的有用性度量来确定所述线程的新分配限制,而不是将分配降低到降低的分配限制,如本文先前在图4的步骤412中所讨论。有用性度量可用作由共享资源逻辑150实现的等式的输入,其中等式的输出是线程的新分配限制。根据所使用的特定等式,这可允许线程的分配限制随着线程的活动条目数的增加而缓慢增加,这表明并行性增加,即使所述线程的活动线程数可能小于活动条目阈值。使用有用性度量来计算线程的新分配限制可能比使用如前所述的降低的分配水平提供更大的灵活性,但计算成本更高,并且可能存在被零除的问题。
D.解决资源分配振荡
随着线程指令类型的变化,在连续CCW上,线程的并行性水平可能会发生显著变化。使用本文所述的方法,这可能导致共享资源150中分配给线程的条目数在共享资源中条目的总数(例如,50)与降低的分配水平(例如,10)之间振荡。
提供了用于通过增加时钟周期数来降低线程资源分配振荡的技术,在所述时钟周期上,在线程的共享资源分配增加之前,线程必须表现出令人满意的有用性水平。根据实施方案,用于增加线程的资源分配的CCW大于用于减少线程的资源分配的CCW。例如,16个时钟周期的CCW可用于减少线程的资源分配,而32个或更多时钟周期的CCW可用于增加线程的资源分配。因此,在一组16个时钟周期之后,共享资源150中分配给特定线程的条目数可能降低,但特定线程必须在更长的时间段(即32个时钟周期)上表现出足够高的并行性水平,以便增加共享资源中的条目数。可替代地,可使用多个时钟周期窗口来增加共享资源分配,而不是使用更大的时钟周期窗口来增加共享资源分配。例如,具有16个时钟周期的一CCW可用于减少线程的资源分配,而具有16个时钟周期的两个或更多CCW可用于增加线程的资源分配。
根据另一实施方案,使用不同的阈值来增加资源分配。例如,当考虑是否增加共享资源140中分配给线程的条目数时,可分别在图4的步骤408和410中,使用分配阈值5和活动条目数阈值4。在此示例中,与当前未降低线程分配时使用的分配阈值10相比,较低分配阈值5更容易满足。类似地,与当前未降低线程分配时使用的活动条目阈值3相比,较高活动条目阈值4更难满足。因此,较低分配阈值和较高活动条目阈值的组合增加了共享资源分配降低的线程将继续具有降低的共享资源分配的可能性。
尽管本文在具有单个共享资源的多线程微处理器的上下文中描述了实施方案,但实施方案不限于此示例并且适用于任何数量的共享资源。这些实施方案包括具有管理多个共享资源的共享资源逻辑的多线程微处理器,以及具有管理多个共享资源的多个共享资源逻辑的多线程微处理器。
Claims (21)
1.一种多线程微处理器,所述多线程微处理器包括:
共享资源,所述共享资源具有多个条目;以及
共享资源逻辑,所述共享资源逻辑被配置为:
确定以下项:
在第一时间段期间从所述共享资源中的所述多个条目分配给来自多个线程的线程的条目数,以及
在所述第一时间段期间所述线程在所述共享资源中的活动条目数,
使用在所述第一时间段期间分配给所述线程的所述条目数和在所述第一时间段期间所述线程在所述共享资源中的所述活动条目数来更改在第二时间段内指派给所述线程的对所述共享资源的分配限制。
2.如权利要求1所述的多线程微处理器,其中更改在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制包括降低在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制。
3.如权利要求2所述的多线程微处理器,其中在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制
降低了递增量,或
降低到降低的分配限制。
4.如权利要求1所述的多线程微处理器,其中所述共享资源逻辑被进一步配置为:
响应于确定在所述第一时间段期间分配给所述线程的所述条目数满足第一阈值并且在所述第一时间段期间所述线程在所述共享资源中的所述活动条目数满足第二阈值,降低在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制。
5.如权利要求1所述的多线程微处理器,其中所述共享资源逻辑被进一步配置为:
确定所述线程的有用性度量,其中所述有用性度量是所述线程在所述共享资源中的所述活动条目数与分配给所述线程的所述条目数的比率,以及
将所述线程的所述有用性度量与有用性阈值进行比较,以确定是否更改所述线程的所述分配限制。
6.如权利要求5所述的多线程微处理器,其中所述共享资源逻辑被进一步配置为:
对于时钟周期窗口的每个时钟周期,确定所述线程的所述有用性度量并将其与所述有用性阈值进行比较,以及
响应于对于所述时钟周期窗口的每个时钟周期,所述线程的所述有用性度量不满足所述有用性阈值,降低所述线程的所述分配限制。
7.如权利要求5所述的多线程微处理器,其中所述共享资源逻辑被进一步配置为基于所述线程的所述有用性度量来更改所述线程的所述分配限制。
8.如权利要求1所述的多线程微处理器,其中更改在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制包括降低在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制。
9.如权利要求8所述的多线程微处理器,其中增加在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制包括将在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制增加到所述共享资源中的总可用条目数。
10.如权利要求1所述的多线程微处理器,其中所述共享资源逻辑被进一步配置为:
响应于确定在所述第一时间段期间分配给所述线程的所述条目数不满足第一阈值,或者在所述第一时间段期间所述线程在所述共享资源中的所述活动条目数不满足第二阈值,增加在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制。
11.如权利要求10所述的多线程微处理器,其中所述第一阈值和所述第二阈值的值是基于所述共享资源中在所述第一时间段期间分配给所述线程的所述条目数来选择的。
12.如权利要求1所述的多线程微处理器,其中所述共享资源逻辑被进一步配置为:
响应于确定在所述多个时间段期间分配给所述线程的所述条目数不满足第一阈值,或者在所述多个时间段期间所述线程在所述共享资源中的所述活动条目数不满足第二阈值,增加指派给所述线程的对所述共享资源的所述分配限制。
13.如权利要求1所述的多线程微处理器,其中在所述第一时间段期间所述线程在所述共享资源中的所述活动条目数是在所述第一时间段期间所述线程在所述共享资源中的最少活动条目数。
14.如权利要求1所述的多线程微处理器,其中在所述第一时间段之前,所述线程被指派分配限制,所述分配限制是所述共享资源中可用的所述共享资源中的条目总数。
15.如权利要求1所述的多线程微处理器,其中所述共享资源是加载队列、寄存器文件或保留站中的一者或多者。
16.如权利要求1所述的多线程微处理器,其中所述第一时间段是第一时钟周期窗口,并且所述第二时间段是第二时钟周期窗口。
17.一种计算机实现的方法,所述方法包括:
由具有共享资源的多线程微处理器中的共享资源逻辑确定以下,所述共享资源具有多个条目:
在第一时间段期间从所述共享资源中的所述多个条目分配给来自多个线程的一个线程的的条目数,以及
在所述第一时间段期间所述线程在所述共享资源中的活动条目数,以及
由所述共享资源逻辑使用在所述第一时间段期间分配给所述线程的所述条目数和在所述第一时间段期间所述线程在所述共享资源中的所述活动条目数来更改在第二时间段内指派给所述线程的对所述共享资源的分配限制。
18.如权利要求17所述的计算机实现的方法,其中更改在第二时间段内指派给所述线程的对所述共享资源的所述分配限制包括降低在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制。
19.如权利要求18所述的计算机实现的方法,所述方法还包括:
响应于由所述共享资源逻辑确定在所述第一时间段期间分配给所述线程的所述条目数满足第一阈值并且在所述第一时间段期间所述线程在所述共享资源中的所述活动条目数满足第二阈值,降低在所述第二时间段内指派给所述线程的对所述共享资源的所述分配限制。
20.如权利要求17所述的计算机实现的方法,所述方法还包括:
确定所述线程的有用性度量,其中所述有用性度量是所述线程在所述共享资源中的所述活动条目数与分配给所述线程的所述条目数的比率,以及
将所述线程的所述有用性度量与有用性阈值进行比较,以确定是否更改所述线程的所述分配限制。
21.一种多线程系统,所述多线程系统包括:
共享资源,所述共享资源具有多个条目;以及
共享资源分配逻辑,所述共享资源分配逻辑被配置为将分配限制指派给在所述多线程系统中执行的线程,其中所述分配限制是基于指派给所述线程的先前分配限制和所述线程在所述共享资源中的先前活动条目数确定的。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/585,424 | 2019-09-27 | ||
US16/585,424 US11294724B2 (en) | 2019-09-27 | 2019-09-27 | Shared resource allocation in a multi-threaded microprocessor |
PCT/US2020/050388 WO2021061427A1 (en) | 2019-09-27 | 2020-09-11 | Shared resource allocation in a multi-threaded microprocessor |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114651235A true CN114651235A (zh) | 2022-06-21 |
Family
ID=72659895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080077740.9A Pending CN114651235A (zh) | 2019-09-27 | 2020-09-11 | 多线程微处理器中的共享资源分配 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11294724B2 (zh) |
EP (1) | EP4035004A1 (zh) |
JP (1) | JP2022550064A (zh) |
KR (1) | KR20220065037A (zh) |
CN (1) | CN114651235A (zh) |
WO (1) | WO2021061427A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11144353B2 (en) | 2019-09-27 | 2021-10-12 | Advanced Micro Devices, Inc. | Soft watermarking in thread shared resources implemented through thread mediation |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7360064B1 (en) | 2003-12-10 | 2008-04-15 | Cisco Technology, Inc. | Thread interleaving in a multithreaded embedded processor |
US7688746B2 (en) | 2003-12-29 | 2010-03-30 | Intel Corporation | Method and system for dynamic resource allocation |
US8087029B1 (en) | 2006-10-23 | 2011-12-27 | Nvidia Corporation | Thread-type-based load balancing in a multithreaded processor |
US8521993B2 (en) | 2007-04-09 | 2013-08-27 | Intel Corporation | Providing thread fairness by biasing selection away from a stalling thread using a stall-cycle counter in a hyper-threaded microprocessor |
US8335911B2 (en) | 2009-05-21 | 2012-12-18 | Oracle America, Inc. | Dynamic allocation of resources in a threaded, heterogeneous processor |
US8347309B2 (en) | 2009-07-29 | 2013-01-01 | Oracle America, Inc. | Dynamic mitigation of thread hogs on a threaded processor |
US9396030B2 (en) | 2013-03-13 | 2016-07-19 | Samsung Electronics Co., Ltd. | Quota-based adaptive resource balancing in a scalable heap allocator for multithreaded applications |
US11175960B2 (en) * | 2018-12-05 | 2021-11-16 | Electronics And Telecommunications Research Institute | Worker-scheduling method in cloud-computing system and apparatus for the same |
-
2019
- 2019-09-27 US US16/585,424 patent/US11294724B2/en active Active
-
2020
- 2020-09-11 KR KR1020227013301A patent/KR20220065037A/ko active Search and Examination
- 2020-09-11 CN CN202080077740.9A patent/CN114651235A/zh active Pending
- 2020-09-11 EP EP20781165.4A patent/EP4035004A1/en active Pending
- 2020-09-11 WO PCT/US2020/050388 patent/WO2021061427A1/en active Application Filing
- 2020-09-11 JP JP2022519140A patent/JP2022550064A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11294724B2 (en) | 2022-04-05 |
US20210096920A1 (en) | 2021-04-01 |
JP2022550064A (ja) | 2022-11-30 |
WO2021061427A1 (en) | 2021-04-01 |
KR20220065037A (ko) | 2022-05-19 |
EP4035004A1 (en) | 2022-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7752622B1 (en) | Method and apparatus for flexible job pre-emption | |
US8397236B2 (en) | Credit based performance managment of computer systems | |
JP3805305B2 (ja) | マルチスレッドプロセッサ上の優先順位及び命令速度の制御 | |
US8069444B2 (en) | Method and apparatus for achieving fair cache sharing on multi-threaded chip multiprocessors | |
US7743378B1 (en) | Method and apparatus for multi-dimensional priority determination for job scheduling | |
EP2631798B1 (en) | Long-term resource provisioning with cascading allocations | |
US8117618B2 (en) | Forward progress mechanism for a multithreaded processor | |
US8799913B2 (en) | Computing system, method and computer-readable medium for managing a processing of tasks | |
US7984447B1 (en) | Method and apparatus for balancing project shares within job assignment and scheduling | |
US7844968B1 (en) | System for predicting earliest completion time and using static priority having initial priority and static urgency for job scheduling | |
EP2562644B1 (en) | Systems and methods for bounding processing times on multiple processing units | |
US8356304B2 (en) | Method and system for job scheduling | |
EP3543852B1 (en) | Systems and methods for variable rate limiting of shared resource access | |
US8640133B2 (en) | Equal duration and equal fetch operations sub-context switch interval based fetch operation scheduling utilizing fetch error rate based logic for switching between plurality of sorting algorithms | |
EP3142008B1 (en) | Systems and methods for allocation of environmentally regulated slack | |
US8214836B1 (en) | Method and apparatus for job assignment and scheduling using advance reservation, backfilling, and preemption | |
CN114651235A (zh) | 多线程微处理器中的共享资源分配 | |
US11138043B2 (en) | System and methods for contingency budgeting for time-partitioned systems | |
CN114138341A (zh) | 微指令缓存资源的调度方法、装置、程序产品以及芯片 | |
CN112860395B (zh) | 用于gpu的多任务调度方法 | |
US8527999B2 (en) | Method, computer program and device for supervising a scheduler for managing the sharing of processing time in a multi-task computer system | |
JP2021092904A (ja) | Cpuリソース管理装置 | |
Cavdar et al. | Reducing execution waste in priority scheduling: a hybrid approach | |
JP4650697B2 (ja) | Cpuリソース管理方式 | |
CN116339948A (zh) | 任务管理方法、装置、存储介质及固态硬盘 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |