CN1243311C - 实现重叠操作的方法和系统 - Google Patents

实现重叠操作的方法和系统 Download PDF

Info

Publication number
CN1243311C
CN1243311C CN200310118659.9A CN200310118659A CN1243311C CN 1243311 C CN1243311 C CN 1243311C CN 200310118659 A CN200310118659 A CN 200310118659A CN 1243311 C CN1243311 C CN 1243311C
Authority
CN
China
Prior art keywords
data
clone
address
destination
storer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200310118659.9A
Other languages
English (en)
Other versions
CN1504905A (zh
Inventor
拉维·K·阿里米利
本杰明·L·古德曼
乔迪·B·乔伊纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of CN1504905A publication Critical patent/CN1504905A/zh
Application granted granted Critical
Publication of CN1243311C publication Critical patent/CN1243311C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4004Coupling between buses
    • G06F13/4022Coupling between buses using switching circuits, e.g. switching matrix, connection or expansion network

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

一种能够实现和不同存储器克隆体的独立数据克隆操作相关的同时进行的重叠数据移动的方法。第一数据从其源地址被移动到目的地。用第一目的地的地址标记第一数据,以便识别该数据,并且利用目的地标记通过架构发送该数据。在第一数据仍在架构上的时候,同时(或者随后)通过架构把第二数据发送给下一目的地。也用其特定目的地标记标记第二数据,所述特定目的地标记不同于发送的第一数据的目的地标记。从而,用它们各自的目的地标记,唯一地识别在架构上重叠的这两组数据。也可用与启动特定克隆操作的存储器克隆体相关的相应唯一标识符(ID)标记第一和第二数据。唯一ID被重复使用,并且选择用于唯一ID的位的数目,使得在需要唯一ID的新克隆操作之前,完成第一顺序编号的克隆操作。

Description

实现重叠操作的方法和系统
技术领域
本发明涉及数据处理系统,具体地说,涉及数据处理系统的处理器内的数据运算。更具体地说,本发明涉及在数据处理系统的架构上实现重叠操作的方法和系统。
背景技术
对于更快速和硬件不太密集的数据处理和数据运算的需要一直是数据处理系统领域中发生的各种改进背后的驱动力。近来的趋势是更快速、更小并且更复杂处理器的出现,以及多处理器结构的实现,所述多处理器结构能够使多个互连的处理器同时执行指定任务的多个部分。除了多处理器结构的实现之外,还开发出了具有便于更有效地访问存储器的分布式存储器系统的系统。另外,实现了基于开关的互连(或者接线器(switch)),以代替传统的总线互连。
分布式存储器使得数据能够被保存在多个独立的存储器模块中,并且增强多处理器结构中的存储器访问。基于开关的互连使处理系统的各个组件彼此直接连接,从而在组件之间提供更快速/更直接的通信和数据传输。
图1是图解说明具有分布式存储器和基于开关的互连(接线器)的传统多处理器系统的方框图。如图所示,多处理器数据处理系统100包括通过接线器103彼此互连,并与其它系统组件互连的多个处理器芯片101A-101D。其它系统组件包括分布式存储器105、107(具有相关的存储器控制器106、108),和输入/输出(I/O)组件104。其它组件(未示出)也可通过接线器103与图解说明的组件互连。处理器芯片101A-101D分别包括顺序标记为P1-PN的两个处理器核心(处理器)。除了处理器P1-PN之外,处理器芯片101A-101D包括和处理器P1-PN一起控制数据处理系统100内的处理操作的其它组件/逻辑电路。图1图解说明了一个这种组件,硬件引擎111,其功能后面说明。
在如图1所示的多处理器数据处理系统中,多个处理器(或者处理器操作)通常可访问一个或多个存储器/存储模块,存储器一般被处理资源共享。由于每个处理资源可独立行动,因此系统内会出现对共享存储资源的竞争。例如,当第一处理器正在访问特定的存储器地址时,第二处理器可能试图对该存储器地址进行写(或读)操作。如果在先的访问正在进行中时,产生后一访问请求,那么必须延迟或阻止后面的请求,直到在先请求完成为止。从而,为了把数据写入特定的存储器位置(或者地址)或者从特定的存储器位置(或地址)读取数据,在读/写操作完全完成之前,处理器必须获得关于该特定存储器地址的锁定。这消除了当系统不知不觉地处理不正确(例如陈旧)数据时,可能发生的错误。
另外,借助更快速、更复杂的多处理器系统,多个数据请求可同时发出,并存在于不同的完成阶段中。除了关心一致性之外,处理器必须确保特定的数据块未被改变操作顺序。例如,如果处理器P1要求对位于地址A的数据块进行写操作,处理器P2必须读取同一数据块,并且如果在程序序列中读操作在写操作之前,那么重要的是保持这两个操作的顺序,以便获得正确的结果。
数据处理系统的标准操作要求处理组件(及其它组件)对数据的访问和移动或处理。数据通常保存在存储器中,并且利用执行程序代码的特定处理器发出的命令,被访问/读取、取回(retrieve)、处理、保存/写入和/或仅仅被移动。
数据移动操作不涉及对数据的数值/内容的改变/修改。相反,数据移动操作把数据从具有第一物理地址的一个存储器位置转移到具有不同物理地址的另一位置。在分布式存储器系统中,数据可从一个存储模块转移到另一存储模块,不过单一存储器/存储模块内的移动也是可能的。
为了实现目前系统中的任意一种移动,完成下述步骤:(1)处理器引擎发出装入和保存指令,这导致高速缓冲存储器线(cacheline)(“CL”)读取内容通过接线器/互连,从处理器芯片被传送给存储器控制器;(2)存储器控制器获得关于目的地存储器位置的锁定;(3)(存储器控制器)向处理器分配锁定目的地存储器位置;(4)通过接线器/互连,把数据从存储器(源地址)发送给处理器芯片(引擎);(5)通过接线器/互连,把数据从处理器引擎发送给目的地位置的存储器控制器;(6)把数据写入目的地位置;和(7)为其它处理器释放目的地的锁定(lock)。该过程中固有的是即使当利用接线器时,把数据从源存储器位置转移到处理器芯片,随后从处理器芯片转移到目的地存储器位置的固定等待时间。
一般来说,每个装入和保存操作移动一个8字节的数据块。为了完成该移动,需要高速缓冲存储器的滚动,转换后备缓冲器(translation look-aside buffer)(TLB)的利用来实现有效读取地址转换,还需要利用处理器及其它硬件资源来接收和转发数据。至少一个处理器系统制造商已引入硬件加速装入线路和存储线路,和TLB一起在高速缓冲存储器线上实现字节级的同步操作。
现在利用图1图解说明处理器P1从存储器中的一个区域/位置(即物理地址)向另一区域/位置的数据移动。如图1中及识别路径1和2的方向箭所示,在数据移动操作中,通过把数据放在沿着数据路径1的总线(或者接线器103)上,数据从存储器105中的地址位置A移动到处理器芯片101A。随后通过接线器103,沿着数据路径2,数据从处理器芯片101A被发送给存储器107内的所需地址位置B。
目前(及在前的)系统利用硬件引擎(即硬件模型)和/或软件编程模型(或者接口)完成上述数据移动操作。
在硬件引擎实现中,利用虚拟地址,硬件引擎111控制数据移动操作,并接收正被移动的数据。硬件引擎111(也称为硬件加速器)启动锁定获得过程,所述过程在开始数据的移动之前,获得关于源存储器地址和目的地存储器地址的锁定,以避免多个处理器同时访问位于该存储器地址的数据。不是把数据直接发送到处理器,数据被发送给硬件引擎111。硬件引擎111利用高速缓冲存储器线读取,并以流水线方式实现要完成的写入。
就软件编程模型来说,软件把位置A和位置B通知处理器硬件,处理器硬件随后完成该移动。在该过程中,可利用真实地址(即不是虚拟地址)。因此,可消除前述硬件模型需要的进行虚拟地址-真实地址转换(或历史模式匹配)所需的其它时间。另外在软件模型中,地址可包括偏移量(例如地址B可偏移几个字节)。
处理器P1为实现数据移动操作而执行的典型伪代码序列如下:
LOCK DST               ;锁定目的地
LOCK SRC               ;锁定源
LD A(Byte 0)           ;AB0(4B或8B数量)
ST B(Byte 0)           ;BB0(4B/8B)
INC                    ;增加字节数
CMP                    ;比较,看是否完成
BC                     ;如果未完成,则转移
SYNC                   ;实现同步
RL LOCK                ;释放锁定
字节数(B0、B1、B2)等被递增,直到由地址A识别的存储区内保存的所有数据被移动到由地址B识别的存储区为止。锁定和释放操作由存储器控制器和总线仲裁器(arbiter)执行,总线仲裁器向被授予锁定的请求处理器分配对特定地址的临时访问和控制。
在数据移动操作之后,在处理器P1能够重新开始处理其它后续操作之前,处理器P1必须接收指示所有数据已被物理移动到存储器位置B的完成响应(或信号)。这确保在处理单元之间存在一致性,并且数据一致性被保持。完成信号是对SYNC操作的响应,SYNC操作是在数据移动操作之后,由处理器P1在架构(fabric)上发布,以确保所有处理器接收数据移动操作的通知(及确认)。
从而,在图1中,处理器P1发出的指令启动从位置A到位置B的数据移动。处理器P1发出SYNC,并且当最后的数据块已被移动到位置B时,向处理器P1发送指示物理移动已完成的信号。作为响应,处理器P1释放对地址B的锁定,处理器P1能够重新开始处理其它指令。
特别地,由于在能够开始移动操作之前,处理器P1必须获得关于位置B及位置A的锁定,因此完成信号还用信号通知锁定的释放,并使试图访问存储器位置A和B的其它处理器能够获得这两个存储器位置中任一位置的锁定。
虽然硬件模型和软件硬件分别提供不同的功能好处,但是都存在一些局限。例如,硬件模型和软件模型都具有把数据从存储器(源)装入处理器芯片,随后从处理器芯片装回到存储器(目的地)的固有等待时间。此外,就这两种模型来说,在整体移动完成之前,处理器必须等待,并且在处理器能够重新开始处理后续指令/操作之前,产生来自存储器控制器的完成响应。
于是,本发明认识到需要提供一种更有效的数据移动操作的方法和系统。能够在数据处理系统的结构上实现多个同时发生的克隆操作的方法和系统理应是受欢迎的改进。本发明提供了这些及其它几个优点。
发明内容
公开了一种数据处理系统内用于实现独立的存储器克隆体的同时进行的重叠数据克隆操作的方法。来自第一存储器克隆体的第一修改读取操作被发给被移动数据的源。该数据正被移动到第一目的地,修改的读取操作包括作为数据的发送地址的第一目的地的地址。用第一目的地的地址标记由第一读取操作发送的数据,以便识别该数据,并且利用目的地标记,通过架构(fabric)发送该数据。
在架构上传送第一数据的时候,第二数据同时或者随后通过架构发送给下一目的地。也用和第一读取操作发送的数据的目的地标记不同的具体目的地标记标记第二数据。从而,这两个数据克隆操作在架构上重叠,但是由它们各自的目的地标记唯一地识别。
在另一实施例中,除了各自的目的地标记之外,还用与启动特定克隆操作的存储器克隆体相关的相应唯一标识符(ID)标记第一和第二数据。唯一ID包括附加在数据传送操作上的附加位,所述附加位被用于跟踪克隆操作的顺序号。每个克隆操作被赋予下一顺序号。唯一ID被重复使用,选择用于唯一ID的位的数目,使得在需要唯一ID的新克隆操作之前,完成第一顺序编号的克隆操作。
附图说明
附加权利要求中陈述了本发明特有的新特征。但是,结合附图,参考例证实施例的下述详细说明,将更好地理解发明本身,以及本发明的优选使用方式、其它目的和优点,其中:
图1是根据现有技术图解说明具有用于移动数据的硬件引擎的多处理器数据处理系统的方框图;
图2是根据本发明的一个实施例,图解说明配置有存储器克隆体的处理器系统内的例证存储器-存储器克隆操作的方框图;
图3是根据本发明的一个实施例,图解说明图2的存储器克隆体的组件的方框图;
图4A是根据本发明的一个实施例,表示主存储器内的存储位置X和Y的方框图,所述存储位置X和Y被用于保存存储器克隆操作的源地址和目的地地址;
图4B根据本发明的一个实施例,图解说明图2的数据处理系统的(接线器)架构上的存储器地址操作数及标记,包括裸写的流动;
图5A是图解说明按照本发明的一个例证实施例工作的数据处理系统内克隆数据的一般过程的流程图;
图5B是根据本发明的一个实现,图解说明在数据克隆操作内发出裸写的过程的流程图;
图5C是根据本发明的一个实施例,图解说明结构完成状态前后的过程步骤的流程图;
图5D是根据本发明的一个实施例,图解说明通过发布读取操作,发布物理移动数据的读取操作的过程的流程图;
图6A根据本发明的实现过程中,一致提供(sourcing)/保存数据的一个模型,图解说明具有主存储器、几级高速缓冲存储器和外部系统存储器的分布式存储器子系统;
图6B图解说明具有上层金属的存储模块,所述上层金属简化了相同存储模块内从源到目的地的数据直接克隆,而不必利用外部接线器;
图7A是根据本发明的一个实施例,用于把多个同时进行的数据克隆操作引向正确的目的地存储器的地址标记的框图;
图7B是根据本发明的一个实施例,当裸写完成,并且产生结构完成状态时,存储器克隆体用于跟踪的寄存器的框图;
图8A是图解说明按照本发明的一个实施例工作的数据处理系统内的锁定争用过程的方框图;
图8B是根据本发明的一个实施例,图解说明数据克隆操作期间,保持数据一致性的过程的流程图;
图9A根据本发明的一个实施例,图解说明具有附加模式位的指令,所述模式位可由软件来回切换,以指示指令的处理器执行是按照真实寻址模式,还是按照虚拟寻址模式进行的;
图9B根据本发明的一个实施例,图解说明数据处理系统内的应用代码、OS和固件层,以及各层支持的相关类型的地址操作。
具体实施方式
A.综述
本发明提供与处理器(或者处理器芯片)相关的高速存储器克隆体(cloner),和利用高速存储器克隆体提供的特征,完成数据克隆操作的有效方法。存储器克隆体使处理器能够遵循把数据从第一存储器位置移动到另一存储器位置的请求,继续处理操作,而不要求要完成的数据的实际移动。
本发明引入关于移动操作的层次结构完成状态。存储器克隆体提供的功能特征包括裸(haked)写操作,支持裸写操作和直接存储器-存储器数据移动的先进相关一致性操作,指令集体系结构内的新指令(例如,无中断情况下,借助指令的流水线式发布,优化的组合指令集),以及在数据处理的虚拟寻址模式和真实寻址模式之间动态转换的模式位。本发明还提供了数据处理系统的其它新颖操作特征。
本发明利用了目前的处理系统中存在的开关布局以及存储器控制器的功能性。和目前的用于实现移动操作的基于硬件或基于软件的模型(它要求把数据回送给请求处理器模块,随后从处理器模块把数据转发给目的)不同,本发明实现具有允许直接把数据传送给目的地的附加特征的组合软件模型和硬件模型。最好利用设计有存储器克隆体的处理器芯片实现本发明,存储器克隆体包括下面说明的各种硬件和软件逻辑单元/组件。
本发明的说明规定了几个新术语,其中关键的是高速存储器克隆体进行的“克隆”操作。如此处使用的,克隆操作指的是在高速存储器克隆体内,在架构上,以及在存储器位置发生的,一同实现数据的层次结构完成状态和实际物理移动的所有操作。数据从A点被移动到B点,但它是按照和完成数据移动操作的已知方法完全不同的方式进行的。数据“移动”的引用(reference)具体指的是从处理器发给高速存储器控制器的指令。在一些情况下,当具体指的是作为数据克隆操作一部分的数据的物理移动时,利用术语“移动”。从而,例如,物理数据移动的完成被看作是数据克隆操作的一部分。
B.硬件可选件
现在参见附图,特别参见图2,图2图解说明了多处理器、接线器连接的数据处理系统200,本发明可在数据处理系统200内实现。数据处理系统200包括多个处理器模块/芯片,图中描绘了它们的两个,即芯片201A和201D。处理器芯片201A和201D均包含一个或多个处理器(P1、P2等)。存储器克隆体211至少位于处理芯片之一内(例如,处理器芯片201),后面参考图3说明存储器克隆体211。处理器芯片201A和201D通过接线器203彼此互连,并与数据处理系统200的其它组件互连。这些其它组件包括分布式存储器模块,图中描绘了它们中的两个,即存储器205和207,存储器205和207分别具有相应的存储器控制器206和208。与存储器控制器208相联系的是存储器高速缓存213,下面结合裸写操作的说明,描述存储器高速缓存的功能。
在数据克隆操作的实现过程中,通过接线器203,数据直接从存储器205的存储位置A被移动到存储器207的存储位置B。从而,数据沿着不包括处理器或处理器模块的直接路径3移动。即,被移动的数据不是首先被发送给存储器克隆体211或处理器P1。当正在完成物理移动的时候,数据的实际移动由存储器控制器206和208分别控制(或者在基于下面描述的模型相关情况下,由高速缓存控制器控制),存储器控制器206和208还分别控制对存储器205和207的访问。
这里只是出于举例说明的目的,给出了数据处理系统内的处理器和存储器的例证结构。本领域的技术人员明白本发明的各种功能特征完全适合于包含非分布式存储器和/或单个处理器/处理器芯片的系统结构。于是,这里描述的本发明的功能特征适合于不同结构的数据处理系统,只要数据处理系统包括高速存储器克隆体和/或借助其,可完成这里描述的各种功能特征的类似组件。
高速存储器克隆体
存储器克隆体211包括借助其控制和/或启动本发明的处理的硬件和软件组件。具体地说,如图3中所示,存储器克隆体211包括控制逻辑单元303和转换后备缓冲器(TLB)319。存储器克隆体211还包括几个寄存器,包括SRC地址寄存器、DST地址寄存器307、CNT寄存器309、层次结构完成寄存器313和克隆完成寄存器317。模式位315也包含在存储器克隆体内。在本文献的相关章节描述存储器克隆体的各个图解组件的功能。
特别地,和硬件加速器或类似组件不同,存储器克隆体只接收和发布地址操作。借助每个芯片单一存储器克隆体,可实现本实现。
另一方面,每个微处理器可使用相应的存储器克隆体。
TLB 319包括虚拟地址缓冲器321和真实地址缓冲器323。与处理器P1、P2等使用的I-TLB和D-TLB分离的TLB 319被固定,并且与I-TLB和D-TLB协同工作。缓冲器321和323由OS在启动时加载,并且最好保存由OS和进程引用的所有地址的转变,从而不必读取存储器中的OS页表。
SRC、DST和CNT寄存器
在图3的图解说明的实施例中,存储器克隆体211包括源(SRC)地址寄存器305、目的地(DST)地址寄存器307和计数(CNT)寄存器309。如它们的名字暗示那样,目的地寄存器307和源地址寄存器305分别保存相对于其移动数据的存储位置的目的地地址和源地址。计数寄存器309保存在数据克隆操作中正被转移的高速缓冲存储器线的数目。
从存储器中用于保存数据克隆操作的目的地地址和源地址的位置(X和Y)读取目的地地址和源地址。源地址和目的地地址的读取由发出一个或多个指令的处理器(例如P1)触发,所述一个或多个指令一起使存储器克隆体启动数据克隆操作,如下详细所述。
C.数据克隆操作的一般过程
图5A图解说明由利用上述硬件组件的本发明完成的整个过程的几个主要步骤。所述过程始于方框501,之后,处理器P1执行指令,所述指令构成把数据从存储位置A克隆到存储位置B的请求,如方框503所示。存储器克隆体接收数据克隆请求,取回虚拟源地址和目的地地址,查寻对应的真实地址,并启动裸WR操作,如方框505所示。在架构(fabric)上执行裸WR操作,存储器克隆体监视层次结构完成状态,如方框507所示。在已结构完成克隆操作的指示之后,如方框S09所示,存储器克隆体用信号通知处理器克隆操作完成,处理器继续处理,好象数据移动已物理完成一样。随后,存储器克隆体在后台完成实际的数据移动,如方框511所示,并且在物理移动数据的时候,存储器克隆体进行必要的高速缓冲存储器线的保护。该过程随后在方框513终止。下面参考这里提供的几个其它流程图,展开并说明由图5A的各个方框规定的过程。
现在参考图5B,图中图解说明了图5A的完成方框505中涉及的几个步骤。该过程始于方框521,随后转移到方框523,方框523图解说明从存储位置X和Y取回被请求数据克隆操作的目的地地址和源地址,并将其置于存储器克隆体中的相应寄存器中。计数值(即数据的高速缓冲存储器线的数目)也被置于CNT寄存器中,如方框525所示。随后如方框526所示,完成源令牌(token)和目的令牌操作。之后,裸CL WR被放在架构上,如方框527所示。每个裸CLWR在架构上接收来自存储器控制器的响应。在方框529,确定响应是否为NULL(空)。如果响应不是NULL,那么重试裸CL WR操作,如方框531所示。但是,当响应为NULL时,在存储器克隆体211内,裸CL WR被标记为完成,如方框533所示。在以下各个章节中更详细地说明在图5B中图解说明的各个步骤。
移动操作数(operand)和移动地址的取回
为了能够清楚地理解本发明,下面参考小块的程序代码,以及从存储位置A(具有虚拟地址A和真实地址A1)到另一存储位置B(具有虚拟地址B和真实地址B1)的数据克隆,说明数据克隆操作的实现。从而,例如,在处理器P1执行的导致从存储位置A到存储位置B的数据克隆的样本程序代码块如下:
ST  X      (地址X持有虚拟源地址A)
ST  Y      (地址Y持有虚拟目的地地址B)
ST  CNT    (CNT是要克隆的数据线的数目)
SYNC
ADD
上面表示存储器克隆体从处理器接收的启动克隆操作的样本指令。ADD指令被用作在完成数据克隆操作之前,不被处理器执行的样本指令。每当从处理器收到上述直到SYNC的一系列指令时,存储器克隆体启动数据克隆操作。在存储器克隆体执行上述一系列指令会导致把虚拟源地址和目的地地址返回给存储器克隆体,还会提供要移动的数据线的数目。在例证实施例中,CNT的值等于一页存储器内的线(line)的数目,克隆操作被描述成克隆位于地址A1的单页数据。
图4A用X和Y存储位置的方框表示,图解说明了存储器405,存储器405可以是存储器子系统内的任意存储器205、207,数据克隆操作的源地址和目的地地址,A和B存在于所述X和Y存储位置之中。在一个实施例中,在较早的执行时间,处理器把克隆操作的A和B地址保存在X和Y存储位置中。每个存储位置包括32位的地址数据和之后的12个保留位。根据图解说明的实施例,附加的这12位中的头5位被数据处理系统的状态机用于选择源或目的地页地址范围内32个可能页中的哪一页正被请求/访问。
如图4A中所示,X和Y地址是保存A和B虚拟地址的存储位置,并且当包含在存储请求(ST)中时,向处理器及存储器克隆体指出该请求是关于数据克隆操作(而不是关于常规保存操作)的请求。虚拟地址A和B对应于数据克隆操作的源和目的地的真实存储器地址A1和B1,并被保存在存储器克隆体211的SRC地址寄存器305和DST地址寄存器307内。在下面的存储器克隆操作的说明中,A和B指的是地址,所述地址是保存在存储器克隆体内的数据地址,而A1和B1指的是发布给架构的(即在接线器上发出的)真实存储器地址。A和A1及B和B1分别代表数据克隆操作的源存储位置和目的地存储位置。
在图解说明的实施例中,当存储器克隆体211接收处理器和其后跟随SYNC的ST命令序列时,TLB 319分别根据虚拟地址(X和Y)查寻真实地址X1和Y1。X1和Y1是专用于保存存储器克隆操作的源地址和目的地地址的存储位置。存储器克隆体211通过接线器(即在架构上)向存储器发出操作,所述操作访问相应的位置,并把目的地地址和源地址返回给存储器克隆体211。存储器克隆体211分别从位置X1和Y1接收源(A)和目的地(B)的虚拟地址。提供的实际地址是第一页存储器地址。
存储器克隆体211把源地址和目的地地址,以及从处理器P1接收的高速缓冲存储器线计数分别保存在寄存器305、307、309中。根据保存在CNT寄存器309内的值,存储器克隆体能够产生始于利用12个保留位的头5个附加位的SRC寄存器305和DST寄存器307内的地址,从0-31顺序编号的连续地址。
例如,对其中把具有128字节线的一页4K字节数据从存储器地址A1(具有4K对准地址)移动到存储器地址B1(也具有4K对准地址)的克隆操作来说,对应于状态机地址扩展00000~11111,为32的计数值被保存在CNT寄存器309中,所述状态机地址扩展0000-11111被附到所述头5个位中的源地址上。这些地址扩展可由状态机设置(即存储器克隆体利用的计数器),并且识别页内哪些地址块正在被移动。
另外,除了所有页之外,本发明的附加特征还能够实现部分存储页的克隆。该特征与例如其中在具有不同大小的高速缓冲存储器线的存储器组件之间进行移动操作的实施例相关。
响应虚拟源地址和虚拟目的地地址的接收,存储器克隆体211实现(1)把源地址(即地址A)保存在SRC寄存器305中,和(2)把目的地地址(即地址B)保存在DST寄存器307中的功能。存储器克隆体211还把从处理器接收的CNT值保存在CNT寄存器309中。保存的源地址和目的地地址是处理器在预先处理中产生的虚拟地址。TLB 319随后可查寻这些地址,以便确定存储器中的相应真实地址,随后使用所述真实地址进行下面说明的数据克隆操作。
D.令牌操作
现在返回方框526,在开始存储器克隆的写入和读取操作之前,存储器克隆体发出一组令牌(或者地址占有权(addresstenure)),在图解说明的实施例中,所述一组令牌指的是源(SRC)令牌和目的地(DST)令牌。SRC令牌是在架构上的操作,该操作查询系统,了解任何其它存储器克隆体目前是否正在利用SRC页地址。类似地,DST令牌也是架构上的操作,该操作查询系统,了解任何其它存储器克隆体目前是否正在利用DST页地址。
在发出启动克隆操作的操作之前,由存储器克隆体在架构上发出SRC和DST令牌。系统中的所有其它存储器克隆体(或者处理器)监听每个存储器克隆体的令牌。每个监听器(snooper)对照当前正在该监听器使用的任意地址,检查令牌的源地址和目的地地址,随后每个监听器发出向发布该令牌的存储器克隆体指出地址是否正被监听器之一使用的应答。令牌操作确保不会有两个存储器克隆体试图对相同位置进行读取/写入操作。令牌操作还确保存储器地址空间对于数据克隆操作可用。
令牌的应用防止了多个存储器克隆体同时把数据写入相同的存储位置。除了防止不同操作对存储位置的多个同时更新之外,令牌操作还有助于避免活锁(livelock),以及确保保持存储器内的一致性(coherency)。本发明还提供确保处理器不会活锁的其它方法,如下所述。
利用令牌地址操作数使存储器克隆体能够在开始一系列写操作之前,接收关于源地址和目的地地址的明确(clear)信号。一旦存储器克隆体收到来自令牌的明确信号,存储器克隆体能够通过发出裸高速缓冲存储器线(CL)写(WR)操作,随后发出CL读(RD)操作,开始克隆体操作。
随后根据接收的源地址和目的地地址产生令牌操作,并发出令牌操作,以确保关于访问相应存储器位置的明确响应。在架构上发出SRC和DST令牌操作,以确定被请求的存储位置是否适合于克隆体(即,当前未被另一处理器或克隆体使用等),并保留可用的地址,直到克隆操作完成为止。一旦DST令牌和SRC令牌操作返回明确响应,那么存储器克隆体开始通过监听关于访问对应地址空间的其它请求,保护这些地址空间,如下所述。
特别地,在一个实施例中,一旦来自DST令牌的响应指示对于该克隆操作来说,目的地地址是明确的(甚至在未收到来自SRC令牌的明确响应的情况下),那么允许开始克隆操作。本实施例使数据能够同时来源于相同的源地址,从而允许关于相同源地址的多个同时进行的克隆操作。这种实现的一个主要原因在于和传统的移动操作不同,存储器克隆体控制的克隆操作开始于对目的地地址的一系列裸写操作,如下详细所述。
现在提供可以以令牌的应用为基础的可能的数据提供操作的例子。在本例中,“A”用于代表数据源自的源地址。“B”代表正相对于其完成存储器克隆的目的地的地址,“O”代表试图访问分别对应于地址A或B的访问位置A或B的另一过程(例如克隆操作)的存储器地址。当数据正从A到B时,数据还可同时从A到O。但是,当正在进行数据克隆时,其它任何组合都是不可能的。这些其它组合是:A到B和O到B;A到B和B到O;以及A到B和O到A。注意,在每种组合中,S被假定为数据的发源地址。从而,本发明允许多个存储器移动源自相同的存储位置。但是,当目的地地址和被监听的源地址相同时,监听器根据哪个令牌首先被收到,向冲突的SRC令牌和DST令牌发出重试。
E.裸写操作
裸写入
现在参见图5B的方框527,本发明在存储器克隆体内引入新的写操作和相关的响应集合。该操作是不具有任何数据占有权的高速缓冲存储器线写入操作(也称为裸写入,因为该操作是不包括数据占有权的地址操作)(因此采用术语“裸”)。裸写入由存储器克隆体发出,以便开始数据克隆操作,并由包含数据将被移动到的目的地存储位置的存储器的存储器控制器接收。存储器控制器产生对裸写入的响应,所述响应被回送给存储器克隆体。
存储器克隆体从而发出不具有任何数据的写入命令(也可称为裸写入),所述写入命令被放在架构上,并为正被移动的数据启动目的地缓冲器等的分配。对应于地址B,加上其它31个连续的页级地址扩展的每一个,存储器克隆体发出始于第一目的地地址的32个裸CL写入命令。图4B图解说明了裸写入和相关响应等的流水线(pipeline)操作。
存储器克隆体按照连续的、流水线方式发出CL WR。流水线操作过程提供DMA CL WR(B0-B31),因为数据被直接写入存储器中。32个CL WR操作独立并在架构上重叠。
对裸CL写的响应
图4B图解说明高速缓冲存储器线(CL)读取(RD)和写入(WR)操作,以及在架构上传送的对应页的模拟线段(simulatedline segment)(即A0-A31和B0-B31)。每个操作接收下面说明的一致性响应(coherency response)。如图所示,在不传送任何实际数据的情况下,发布裸CL写入操作。一旦发布了裸CL WR,为每个裸写入操作产生一致性响应,所述一致性响应表示存储位置B是否可以自由接受正被移动的数据。根据特定目的地存储位置的存储器控制器是否能够分配的缓冲器以接收正被移动数据,所述响应可以是Null或者Retry(重试)。
在图解说明的实施例中,缓冲器代表目的地存储器207的存储器高速缓存213的高速缓冲存储器线。在标准存储器操作过程中,发送给存储器的数据首先被保存在存储器高速缓存213中,稍后该数据被转移到物理存储器207中。从而,存储器控制器检查被用于保存特定裸CL WR操作的存储器地址的数据的特定高速缓冲存储器线。术语缓冲器有时可与高速缓冲存储器线交替使用,不过也可在不存在可构成缓冲器的正式存储器高速缓存结构的情况下,实现本发明。
一致性响应被送回存储器克隆体。该响应向存储器克隆体提供是否可在(经历一致性检查和源地址可用性)的时候开始数据传送的指示。当存储器控制器能够为裸CL WR分配缓冲器时,分配所述缓冲器,存储器控制器等待该CL的数据的接收。除了Null/Retry响应之外,还向每个裸CLWR提供目的地ID标记,如图4B中所示。参考关于图5D说明的CL操作说明目的地ID的利用。
F.结构完成状态
图5C图解说明依据其产生结构完成状态的过程,以及处理器对结构完成状态的响应。所述过程开始于方框551,存储器克隆体监视关于发出的裸CL WR操作的Null响应,如方框553所示。在方框555确定发出的所有裸CL WR是否已从存储器控制器收到Null响应。当存储器控制器已向所有的裸CL WR操作发出NULL响应时,认为整个移动“结构完成”,如方框557所示,存储器克隆体用信号通知请求处理器,数据克隆操作已完成,即使还没有从存储器子系统读取要移动的数据。所述过程随后终止于方框559。处理器重新开始执行后续指令(例如例证指令序列中,跟随SYNC的ADD指令)。
由于不从处理器或存储器克隆体接收数据,因此使结构完成状态的实现成为可能。即,要移动的数据不必被传送给处理器芯片或者存储器克隆体,而是直接从存储位置A转移到存储位置B。一旦系统不再向处理器提供“旧的”目的地数据,处理器接收指示克隆操作已结构完成的指示。
从而,从而处理器的观点来看,即使在物理移动任意数据行之前,克隆操作可能看起来也已完成(取决于根据可用带宽、数据段的大小、重叠移动的数目、以及来回穿过接线器的其它过程等,能够多快完成物理移动)。当获得结构完成状态时,所有的目的地地址缓冲器已被分配,以便接收数据,存储器克隆体已发出触发把数据移动到目的地地址的相应读取操作。从系统同步的观点来看,虽然不是所有数据都已开始移动或者已完成移动,不过仍然通知处理器克隆操作已完成,处理器假定处理器发出的SYNC操作已收到ACK响应,所述ACK响应表示克隆操作的完成。
实现结构完成状态的一个优点在于使处理器免受存储器等待时间和系统布局的影响,因为在实际数据克隆操作完成之前,处理器不必等待。从而,在数据克隆指令被发送给存储器克隆体之后,分配给数据克隆操作并且在收到ACK响应之前防止其处理后续指令的处理器资源被快速释放,以便以极小的延迟继续处理其它操作。
基于寄存器的结构完成状态跟踪
在一个实施例中,实现了基于硬件或软件寄存器的接收的Null响应的跟踪。寄存器设置在存储器克隆体211内,如图2中所示。例如在CNT值为32的情况下,存储器克隆体211配置一个32位软件寄存器313,以便跟踪32个裸CL写入操作中的哪一个收到Null响应。图7B图解说明了用于向存储器克隆体提供克隆操作至少部分完成或者结构完成的指示的32位寄存器313。该寄存器用作受存储器克隆体监视的进度条。代替实现SYNC操作,存储器克隆体利用寄存器313监视/记录已收到哪些Null响应。一旦收到了对应编号的裸CL写入操作的Null响应,那么每个二进制位被置为“1”。根据图解说明的实施例,由置于寄存器313的对应二进制位位置中的“l”所示,与二进制位1、2和4相关的目的地存储器地址的裸CL写入操作已完成。
在图解说明的实施例中,通过扫描寄存器的二进制位,了解所有二进制位是否被置为1(或者是否有任何二进制位未被置为1),完成结构完成状态的确定。另一种实现涉及对寄存器的各个二进制位中持有的数值进行“或”运算。本实施例中,在对无保持写操作的所有Null响应进行“或”运算之后,存储器克隆体用信号把完成状态通知处理器。当所有二进制位数值为1时,结构完成状态被确认,存储器克隆体向请求处理器发送指示。随后,整个寄存器313被重置为0。
在图解说明的实施例中,一个N位寄存器被用于跟踪哪个保持写操作收到Null响应,这里N是大到足以覆盖为克隆操作发出的最大数目的写操作的设计参数。但是,在一些情况下,处理器只对了解特定高速缓冲存储器线是否处于结构完成状态感兴趣。对于这些情况,只读取或检查与关心的那些高速缓冲存储器线相关的特定寄存器位置,一旦这些特定的高速缓冲存储器线处于结构完成状态,那么存储器克隆体用信号通知处理器重新开始操作。
G.借助目的地ID标记的直接存储器-存储器移动
读取请求
现在参见图4B,并参考图5D的流程图,举例说明在裸写入操作之后发出读取操作的过程。该过程始于方框571,存储器克隆体监视对裸CL WR的NULL响应,如方框573所示。在方框575确定是否收到Null响应。存储器克隆体重试所有未收到Null响应的裸CLWR,直到收到关于每个裸CL WR的Null响应为止。如方框577所示,当在存储器克隆体收到Null响应时,立即在架构上向当前要移动的数据段驻留于其中的源存储位置发送相应的(地址)CL读取操作。例如,关于裸CL WR(B0)收到的Null响应导致在架构上放置CL RD(A0),依此类推,如图4B中所示。源存储位置的存储器控制器检查源存储器内的特定地址是否可用于CL读取操作正在请求的源数据(即另一过程目前是否没有使用该地址位置或数据)。该检查导致一个Null响应(或Retry响应)。
在一个实施例中,当正被克隆的数据的源地址不可用于CL RD操作时,使该CL RD操作排队等待,直到源地址变成可用时为止。因此,不需要重试。但是,对于提供重试而不提供CL RD操作的排队的实施例来说,用信号通知存储器克隆体重试具体的CL RD操作。
架构上的目的地ID标记
如图4B中所示,和对裸CL WR的Null响应一起,目的地ID标记由目的地存储器的存储器控制器发出。产生的目的地ID标记随后可被附到或者插入CL RD操作内(而不是处理器的ID,或者除了处理器的ID之外)。根据图解说明的实施例,借助相应的CL RD请求以把目的地ID标记放在架构上。目的地ID标记是提供给CL RD请求以识别读取操作所请求的数据将被返回的位置的路由标记。具体地说,目的地ID标记识别将接收被相关CL RD操作移动的数据的存储缓冲器(分配给裸CL WR操作)。
图7A图解说明了在架构上发送的读写地址操作705以及目的地ID标记701(包括存储器克隆体标记703)。这两者被用于区分在架构上重叠的多个克隆操作。如图7A中所示,地址操作705包括32位源(SRC)或目的地(DST)页级地址和附加的12个保留位,所述12个保留位包括被存储器克隆体211的控制逻辑单元303用于提供页级寻址的5位。
与地址操作705相关的是目的地ID标记701,目的地ID标记701包括发出该操作的存储器克隆体的ID,操作的类型(即WR、RE、令牌(SRC)或令牌(DST)),计数值(CNT)和发送操作的响应/数据的目的地单元的ID。如图所示,最初利用ID字段中的存储器克隆体地址,发出写操作,如图7A的WR标记中所示。在RD操作中,用实际目的地存储器地址替换SRC地址,如图7A的RD标记中所示。
直接源-目的地移动
为了实现直接存储器-存储器数据移动,而不是经过请求处理器(或者存储器克隆体)的移动,存储器克隆体用目的地存储器位置(B)的真实存储器地址(即目的地ID)替换CL RD操作的标记中的物理处理器ID。如下所述,这使数据能够直接被发送给存储器位置B(而不必经过存储器克隆体)。
在目前的系统中,发出读取请求的处理器或处理器芯片的ID包含在读取请求内,或者作为标记被提供给读取请求,以便识别数据将被返回给的组件。即,该ID指向读操作的源,而不是数据将被移往的最终目的地。
存储器控制器自动把数据发送给在目的地标记中规定的位置。从而,对目前的系统来说,数据被发送给处理器。但是,根据这里描述的实施例,由于路由地址是最终(存储器)目的地的路由地址,因此源存储器控制器必须把数据直接发送给目的地存储器。数据通过接线器,从源存储器被直接转移到目的地存储器。决不会通过处理器或存储器克隆体发送数据,消除了从处理器的数据路由操作。特别地,在其中在相同物理存储块内移动数据的实施例中,可在不把数据外送给外部接线器构架的情况下,完成数据克隆。
跟踪数据克隆操作的完成
在一个实施例中,为使存储器克隆体了解克隆操作何时完成,提供一个软件激活的克隆完成寄存器,该寄存器跟踪哪些高速缓冲存储器线(或者多少数据部分)已完成克隆操作。由于从发出地址到数据产生其通过接线器到达目的地的路线的中间时间的缘故,装入完成寄存器被用作已到达存储位置B0…Bn的数据部分A0…An的数目的计数器。在一个实施例中,存储器克隆体根据所有的读取地址操作何时收到指示所有数据正在架构上向目的地存储位置转移的Null响应,跟踪实际移动的完成。
在利用软件寄存器的备选实施例中,寄存器包括数目和CNT值相同的二进制位。从而,每一位对应于正被移动的数据页的具体段(或者CL区组(granule))。克隆完成寄存器可以是存储器克隆体的组成部分,如图3中所示,克隆完成寄存器317被用于跟踪克隆操作的进展,直到克隆操作的所有数据已被克隆到目的地存储位置为止。
H.一致性协议(coherency protocol)和操作
完成数据克隆操作时的一个需要考虑的重要因素是数据必须来源于包含该数据的最一致副本的存储位置或高速缓冲存储器。从而,虽然本发明被描述成数据直接来源于存储器,不过本发明的实际应用允许数据来源于高速缓冲存储器/存储器子系统的任意一致位置。图6B图解说明了存储器子系统的一种可能结构。
在链接系统600的组件的背景下图解说明了接线器603,系统600的组件包括处理器611、613和存储器子系统的各个组件。如图所示,存储器子系统指的是分布式主存储器605、607,处理器(L1)高速缓冲存储器615、617,低级(L2-Ln)高速缓冲存储器619、621(也可以是干涉(intervening)高速缓冲存储器),以及任意类似来源。这些存储器组件中的任何一个都可包含数据将被移动时,数据的最一致副本。特别地,如图2中所示及上面所述,存储器控制器608包括克隆数据将被移动到其中的存储器高速缓存213(这里也称为缓冲器)。由于发送给存储器的数据首先被保存在存储器高速缓存213中,随后被移动到实际的物理存储器607,因此存储器高速缓存213常包含目的地地址的数据的最一致副本(即呈M状态的数据)。
在一些高级系统中,在通过外部(架构)总线663连接的不同系统之间共享数据。如同这里所示那样,外部存储器子系统661包含与存储器地址C相关的存储位置。该存储位置内的数据可代表数据克隆操作的源数据的最一致副本。与外部存储器子系统661的连接可通过局域网(LAN)或者甚至通过广域网(WAN)。
可采用常规的一致性协议(例如,修改(M)、独占(E)、共享(S)、无效(I))或者关于一致数据的来源的MESI协议;但是,这里利用的一致性协议扩展了常规的协议,以便允许存储器克隆体获得高速缓冲存储器线的所有权,并完成裸CL WR操作。
低级高速缓存均具有相应的高速缓存控制器620、622。当数据直接来源于除分布式主存储器605、607之外的位置,例如低级高速缓存619时,该高速缓存的相关控制器(高速缓存控制器620)按照和存储器控制器606、608相同的方式控制从该高速缓存的数据转移。
存储器高速缓存控制器对裸写操作的响应
就除了存储器之外,还包括高级和低级高速缓冲存储器的存储器子系统来说,可在高速缓冲存储器之间共享源地址和目的地地址的一致数据,并且任一地址的一致数据可存在于高速缓冲存储器之一中,而不是存在于存储器中。即,存储器子系统起完全相关存储器子系统的作用。对源地址来说,数据总是来源于最相关的存储位置。但是,对于目的地地址来说,一致操作根据标准MESI协议变化,如下所述。
当目的地存储位置的存储器控制器收到无保持写操作时,存储器控制器以三种主要的监听响应之一,应答各个裸写操作。不同的裸写操作的单各响应被转发给存储器克隆体。这三种主要的监听响应包括:
1.Retry响应,该响应表示存储器高速缓存具有呈M状态的数据,但是不能转到I状态和/或存储器控制器目前不能接受WR请求/向WR请求分配缓冲器;
2.Null响应,该响应表示存储器控制器可接受WR请求,并且相应高速缓冲存储器线的一致状态立即转为I状态;和
3.Ack_Resend响应,该响应表示存储器高速缓存内CL的一致状态已从M状态转变成I状态,但是存储器控制器仍然不能接受WR请求(即,存储器控制器仍然不能分配缓冲器接收正被移动的数据)。
后一响应(Ack_Resend)是使存储器克隆体开始保护CL数据(即,向请求访问高速缓冲存储器线的其它组件发送重试)的组合响应。修改的数据从高速缓冲存储器线丢失,因为该高速缓冲存储器线被置为I状态,如下所述。存储器控制器稍后分配存储器高速缓存内的地址缓冲器,所述地址缓冲器被保留,直到恰当的读取操作完成为止。
高速缓冲存储器线无效和线的存储器克隆体操作
根据例证的实施例,裸写操作使完全相关的存储器子系统中的所有相应高速缓冲存储器线无效。具体地说,每当存储器克隆体发出针对存储器高速缓存的修改高速缓冲存储器线(即该线处于MESI或者其它类似一致性协议的M状态)的裸WR时,存储器控制器响应对裸写操作的监听,把高速缓冲存储器线的相关状态更新成无效(I)状态。
另外,裸WR不会导致存储器高速缓存的“重试/推送”操作。从而,和标准的一致操作不同,当在存储器高速缓存收到裸写操作时,修改后的数据不会从存储器高速缓存推送到存储器。裸写操作立即使当前的修改数据无效。在实际移动操作之后,克隆数据的新的高速缓冲存储器线被赋予M一致状态,随后被用于按照标准一致操作,响应关于位于相应地址空间的数据的后续请求,提供数据源。
当使高速缓冲存储器线无效时,存储器克隆体启动高速缓冲存储器线的保护,并起修改后的监听器的作用。即,存储器克隆体负责完成高速缓冲存储器线的所有一致保护,好像高速缓冲存储器线处于M状态一样。例如,如图5A的方框511所示,如果在实际完成克隆操作之前,另一过程需要该数据(例如保存在A0的数据的读取被监听),那么存储器控制器或者重试或者延迟发送数据,直到实际完成数据的物理移动为止。从而,来自其它组件的关于该高速缓冲存储器线的监听请求被重试,直到数据已被克隆,并且高速缓冲存储器线状态变回M状态为止。
图8B图解说明了根据本发明一个实施例的关于存储器克隆操作的过程,依据该过程完成一致操作。该过程始于方框851,之后如方框853所示,存储器克隆体发出裸CL WR。在图解说明的过程中,所有监听器监听该裸CL WR,如方框855所示。具有最高一致状态的监听器(这种情况下为存储器高速缓存)随后把高速缓冲存储器线状态从修改(M)变成无效(I),如方框857所示。
特别地,和常规的一致性协议操作不同,在使数据无效之前,监听器不启动向存储器的数据推送。相关的存储器控制器用信号通知存储器克隆体,该存储器克隆体需要向高速缓冲存储器线提供保护。因此,当存储器克隆体被赋予保护高速缓冲存储器线的任务时,该高速缓冲存储器线立即被标记为I状态。在高速缓冲存储器线处于I状态的情况下,存储器克隆体从而接管使该高速缓冲存储器免受监听的全部责任。
返回图8B,随后在方框859(由目的地存储器控制器)确定高速缓冲存储器线用缓冲器是否可用。如果缓冲器不可用,那么发出Retry监听响应,如方框861所示。存储器克隆体然后重新发送CLWR,如方框863所示。但是,如果缓冲器可用,那么存储器控制器把该缓冲器分配给监听的裸CL WR,如方框865所示。
随后,开始数据克隆过程,如方框867所示。当数据克隆过程完成时(如方框869所示),持有克隆数据的高速缓冲存储器线的一致状态被改变成M状态,如方框871所示。随后,终止数据克隆过程,如方框873所示。在一种实现中,目的地存储器控制器(MC)可能不具备可用于裸CL WR的地址缓冲器,并发出Ack_Resend响应,所述Ack_Resend响应导致稍后重发裸CL WR,直到MC可接受裸CL WR,并分配相应的缓冲器为止。
活锁避免
提供一种避免活锁的新方法。该方法包括当裸WR在飞行过程中(in flight)时,使修改的高速缓冲存储器线无效,以避免活锁。
图8A图解说明了根据本发明的处理当正在完成裸写入,以及随后的数据物理移动时的锁定争用的过程。该过程开始于方框821,随后前进到方框823,方框823表示处理器P1请求从位置A到B的高速缓冲存储器线移动。在裸WR和自数据源的数据的物理移动之前,P1和/或P1启动的过程获得关于该存储位置的锁定。处理器P2随后请求访问位于目的地或源地址的高速缓冲存储器线,如方框825所示。
在方框827,(目的地存储器控制器)确定实际移动是否已完成(即P1可释放锁定)。如果实际移动已完成,那么向P2提供对该存储位置的访问,P2随后可获得锁定,如方框831所示,随后在方框833终止该过程。但是,如果移动仍然正在进行中,那么根据正实现的实施例,提供两种路径之一。在第一实施例中,如方框829所示,向P2返回Retry响应,直到P1放弃对该高速缓冲存储器线的锁定为止。
在另一实施例中,如果实际移动还没有开始,并且请求与从位置A读取数据有关,那么从位置A提供数据。这使多个过程能够从相同的源位置获得数据,而不是发出Retry。但是,当数据正被移动时,在数据已完成移动之前,总是重试对目的地地址的访问请求。
I.多个同时进行的数据移动和标记标识符
多个存储器克隆体和重叠的克隆操作
完成裸写操作并向CL RD请求分配标记的方法的一个关键益处在于借助大量的存储器克隆体,可在系统上实际多个克隆操作。本发明从而允许多个独立的存储器克隆体,每个存储器克隆体可进行与架构上的另一存储器克隆体的另一数据克隆操作重叠的数据克隆操作。特别地,在请求锁定(或者锁定获得)情况下,存储器克隆体的操作使多个存储器克隆体能够发布(issue)同时进行的克隆操作。
在举例说明的实施例中,每个芯片只提供一个存储器克隆体,导致每次从每个芯片只完成一个克隆操作。在多个处理器芯片共用单一存储器克隆体的另一实施例中,存储器克隆体包括确定在指定时间,哪个处理器获得访问的仲裁逻辑单元。仲裁逻辑单元可由FIFO队列代替,FIFO队列能够按照从处理器接收的顺序,保持多个存储器移动操作的完成。其它实施例可提供每个处理器芯片粒度(granularity)增大的存储器克隆体,实现每个芯片的多个存储器克隆操作,每个克隆操作由独立的存储器克隆体控制。
本发明还允许多个存储器克隆体同时工作。存储器可通过令牌操作相互通信,并且每个存储器克隆体把其克隆操作的源地址和目的地地址通知其它存储器克隆体。如果第一存储器克隆体的目的地地址和已进行数据克隆操作的第二存储器克隆体的源地址相同,那么第一存储器克隆体延迟克隆操作,直到第二存储器克隆体完成其实际数据移动为止。
借助目的地ID和附加标记,识别多个克隆操作
除了实现直接源-目的地克隆操作之外,当来自多个克隆操作的数据重叠或者正在同时完成时,目的地ID标记还被用于唯一地识别架构上的数据占有权。由于每次只有来自单一克隆操作的数据可被发送给任意目的地存储器地址,因此每个目的地地址必须是唯一的。
在另一实现中,一组附加的二进制位被附到图7A的数据标记701的数据路由部分。这些二进制位(或者克隆ID标记)703唯一地识别来自特定克隆操作的数据和/或识别与克隆操作相关的存储器克隆体。因此,附加二进制位的实际数目以系统设计员所希望的具体实现为基础。例如,在只具有两个存储器克隆体的最简单实现中,单个二进制位可被用于区分第一克隆操作的数据(与第一存储器克隆体相关)和第二克隆操作的数据(与第二存储器克隆体相关)。
显然,当只把少量的二进制位用于识别不同的数据路由操作时,如果使用的每个标记唯一,那么克隆ID标记703严格限制了同时进行的克隆操作的数目。
目的地ID和克隆ID标记的组合
唯一地识别不同克隆操作/数据的另一方式是利用目的地ID和克隆ID标记的组合。就这种实现来说,由于特定克隆操作的目的地ID不可能和另一未决克隆操作的目的地ID相同(归因于下面说明的一致性和锁定争用问题),克隆ID标记的大小可以相对较小。
如图7A中图解所示,标记与各数据克隆操作相关(与之链接、附加在其上,或者以其它方式与数据克隆操作相关)。从而,如果第一数据克隆操作涉及从一页移动12个独立的高速缓冲存储器线,那么这12个数据克隆操作中的每一个被赋予相同的标记。同时进行的涉及20段数据的移动的第二克隆操作例如也使每个数据移动操作由第二标记标记,所述第二标记不同于第一克隆操作的标记,依次类推。
可重新使用的标记标识符
存储器克隆体使用的各高速缓冲存储器线由地址字段内的12个保留位的头5位确定。由于存在12个保留位,因此或多或少的地址都是可能的。在一个实施例中,其它保留位都被用于提供标记。从而,虽然参考独立的克隆标记标识符描述了本发明,不过在高位二进制位被分配给目的地ID的情况下,地址字段的低位二进制位可容易地提供所述特征。
在一个实施例中,为了简化大量的存储器克隆操作(例如在大规模多处理器系统中),一旦不再在架构上发送先前的数据,那么就重新使用克隆ID标记703。在一个实施例中,通过使标记足够大,以致它包含数据移动可能采取的最大间隔,实现标记重新使用。
在举例说明的实施例中,标记被设计成可重新使用的位序列,并选择在标记使用和重新使用期间,避免任意标记冲突所需的二进制位的最小数目(即,确定为设计参数)。该确定涉及处理器数目、重叠克隆操作的可能数目、完成克隆操作的时间长度的考虑。可顺续分配标记,并且当分配该序列中的最后一个标记时,第一标记应可被自由分配给发布的下一克隆操作。从而,在系统级实现标记退役(retirement)和重新使用的过程,以致一旦使第一个发出的标记退役(即,相关的数据克隆操作完成),那么就可重新开始标记编号。
另一实施例提供一种克隆ID标记,所述克隆ID标记包括在每个克隆操作或存储器克隆体被分配唯一的一个编号的情况下,涵盖同时进行的克隆操作的最大可能数目所需的二进制位。对于任一实施例来说,都不发生克隆ID标记的重叠。
可采用确保标记释放,包括何时重新使用标记的几种可能方法。在一个实施例中,为了确保标记可被释放并被重新使用,需要确认。一旦数据克隆操作完成,存储器克隆体从目的地存储器控制器接收释放的确认。
基于标记的冲突的重试
一个实施例引入了基于标记的冲突的重试概念。根据该实施例,标记是可以重新使用的,并且不必是唯一的。从而,当后续克隆操作被赋予“001”的标记号时,具有该标记的第一克隆操作可能仍然正在进行。发生这种情况时,拥有第一克隆操作的第一存储器克隆体监听对后续克隆操作的标记分配(或者接收和对后续克隆操作的标记分配有关的信号)。第一存储器克隆体随后立即向拥有后续克隆操作的第二存储器克隆体的裸写操作发出基于标记的重试。下一存储器克隆体延迟后续克隆操作,直到第一克隆操作完成(即,数据已被移动)为止。
J.结构化(ARCHITECTED)二进制位和ST克隆操作
目前的多数处理器与阻止(hold up)架构上指令的执行的外部中断一起工作。外部中断特征由硬件位提供,所述硬件位由操作系统(OS)设置。在中断位被断言(assert)或去断言(de-assert)的情况下,OS设置处理器操作状态。当被断言时,可在指令流的执行过程中的任意时刻发生中断,处理器或应用程序都不能控制何时发生中断。
缺少对外部中断的控制是外部架构上移动操作期间需要考虑的问题。具体地说,移动操作包括处理器发出一系列的指令(例如,6个连续指令)。为了在该系列指令的执行过程中,不发生中断的情况下完成移动操作,在发出实现移动操作的一系列指令之前,处理器必须首先确保对架构的锁定。这意味着每次只有一个处理器可执行移动操作,因为锁定只可提供给一个请求处理器。
根据本发明的一个实施例,实现外部中断(EE)位的断言和去断言的特征被修改,以便允许在处理器上运行的软件断言和去断言中断位。即,用特殊指令对应用程序编码,所述特殊指令可切换(toggle)外部中断(EE)位,从而允许处理器发出特定的指令序列,该指令序列不会被中断。
去断言EE位,使得处理器在发出指令序列之前,不必确保对外部架构的锁定。从而,多个处理器能够同时发出它们各自的指令序列。当应用于数据克隆操作时,该特征允许多处理器系统中的多个处理器同时执行克隆操作,而不必分别获得锁定。这还使得每当每个处理器需要完成数据克隆操作时,该处理器就能够开始数据克隆。另外,如下所述,无中断情况下指令的发布,使存储器克隆体能够以流水线方式发出一系列指令。
在举例说明的实施例中,结构化EE(外部中断)位被用于动态转换处理器的操作状态,以便包括中断或者不包括中断。在共同构成克隆操作的一系列指令之间不存在中断的情况下,在架构上执行该系列指令。应用程序内的程序代码切换EE位,以便动态禁用和启用外部中断。该特定指令序列的应用软件超越(over-ridden)OS选择的中断状态。根据举例说明的实施例,EE位可被在处理器上运行的应用程序设置为1或0,每个值对应于具体的中断状态,这取决于处理器的设计以及和EE位相关的软件编码值。
从而,本发明提供一种软件编程模型,当外部中断被禁用时,所述软件编程模型能够发出多个指令。就举例说明的实施例来说,共同完成移动或克隆操作的指令序列之前是由如下例证代码序列所示的去断言EE位的指令:
EE bit=0
ST A
ST B
ST CNT
EE bit=1
SYNC
在上面举例说明的实施例中,当EE位的值为0时,外部中断被关闭。指令从处理器流到存储器克隆体。随后,EE位的值被改为1,表示处理器状态返回允许外部中断的中断启用状态。之后,在架构上发布SYNC操作。
ST CLONE操作
在一个实施例中,存储器克隆体(或者处理器)把上述指令序列看作代表克隆操作,并自动设置EE位,以便防止外部中断打断该指令序列。在另一实施例中,上述指令序列被存储器克隆体接收为组合的基本存储操作。这里,组合操作被称为Store(ST)CLONE操作,并用单个ST CLONE操作替代上述一系列的三个独立存储操作和一个SYNC操作。
ST CLONE是使存储器克隆体启动克隆操作的多字节存储操作。设置EE位使存储器克隆体能够用ST CLONE操作替换其后跟随SYNC的上述一系列的存储指令。
从而,可用单个ST CLONE操作替换4个独立操作(即3个存储操作及其后的一个SYNC操作)。另外,根据本发明的这种实现,SYNC操作是虚拟的,因为一旦存储器克隆体检测到结构完成状态,就用信号把数据克隆操作的完成通知给处理器。结构完成状态使处理器表现为好像在存储器克隆操作之后,发布的SYNC已收到ACK响应。
K.借助保留位的虚拟/真实地址操作模式
本发明能够实现处理单元的虚拟或真实寻址能力的基于应用的动态选择。在可能影响存储器中数据的位置的各个指令(例如ST指令)内,提供一个保留位,所述保留位可由应用软件(即不是OS)设置,以便把处理器的操作模式选择为虚拟寻址或真实寻址模式。图9A图解说明了具有保留位901的地址操作900。保留位901能够由运行于处理器上的应用软件动态设置。根据运行于处理器上的应用程序提供的代码,处理器操作模式从虚拟模式变为真实模式,以及从真实模式变成虚拟模式。
保留位901表示是需要真实寻址还是需要虚拟寻址,保留位由运行于处理器上的应用软件赋值(1或0)。为“0”的默认值可用于表示虚拟寻址,当需要真实寻址时,软件可动态地把该值变为“1”。处理器读取保留位的值,确定特定的地址操作需要何种操作模式。
虚拟或真实寻址模式的选择可由运行于处理器上的特定应用程序确定。当应用程序需要寻求性能的提高,而不是数据的保护时,选择虚拟操作模式,允许应用程序直接把有效地址发送给OS和固件。
图9B图解说明了典型软件环境的软件层图以及地址操作的相关默认操作模式。如图所示,应用软件(software application)911按照寻址模式操作,而OS 913和固件913按照真实寻址模式操作。通过把保留位设置成虚拟寻址模式的预定值,实现提供性能提高的模式的选择。同样地,当要求数据保护时,保留位被设置成指示虚拟寻址模式的值,虚拟数据地址被发送给存储器克隆体211,存储器克隆体211中的TLB 319稍后提供相应的真实地址。从而,本发明能够实现性能与数据保护的软件方面的均衡。
虚拟地址模式的处理器操作由存储器克隆体211的虚拟-真实地址转换后备缓冲器(TLB)支持。当从处理器接收存储器克隆体操作及虚拟地址时,TLB被用于把地址从虚拟地址转换成真实(或物理地址)。随后,在架构上发出之前,虚拟地址被转换成真实地址。从OS的观点来看,虚拟寻址模式能够实现用户级特权,而真实寻址模式则不能。从而,虚拟寻址模式使数据能够被用户级应用程序以及被OS访问。另外,虚拟寻址模式允许操作系统(OS)和用户级应用程序访问存储器克隆体。真实地址操作模式能够实现更快的性能,因为一旦指令从处理器被发出,就不需要地址转换。
L.其它特征、概述和益处
作为数据移动操作的目标的数据来源于实际存储器、处理器高速缓存、低级高速缓存、干涉高速缓存等中的最一致存储位置。从而,源地址还表示存储器子系统内包含被请求数据的一致副本的正确存储模块。
本发明使多个克隆操作能够在架构上重叠(或者同时被执行)。为了监视并唯一地区分每个独立克隆操作的完成,提供一个标记,所述标记被附到发送给源地址的读取操作的地址标记上。该标记可保存在M位寄存器中,其中每个克隆操作具有置于该寄存器中的不同值,M是为支持系统上同时进行的可能克隆操作的最大数目而选择的设计参数。
如上所述,一旦裸WR过程完成,即结构性完成移动。结构完成状态和其它相关特征的实现相当快地使处理器脱离数据移动操作。数据的所有物理移动(代表存储移动中涉及的相当大部分等待时间)发生于后台中。处理器能够相当快地重新开始处理指令序列中跟在SYNC之后的指令,因为在产生结构完成状态的裸写过程中不包含任何数据传输阶段。
特别地,在数据在相同存储模块上的地址之间移动的情况下,时间益处甚至更显著,因为数据不必在外部接线器架构上传输。利用存储器芯片上互连存储模块的不同子组件(例如控制器等)的上层金属便于这种“内部”存储移动。图6C中提供了存储模块的这种结构。从而在其中存在在不同组件之间的互连的接线器实现中,借助存储模块605的上层金属651,也可实现直接内部数据克隆。
本发明提供其它几个可以确认的益处,包括:(1)移动数据不滚动(roll)高速缓冲存储器(L2、L3等),如同传统处理器启动移动那样;和(2)由于结构完成处理器状态的缘故,执行应用软件也极快地完成。例如,在现有技术中,如下进行128B CL移动(LD/ST):LD/ST:1CL RDx(地址和数据),32CL RDy(地址和数据),32CL WRy(地址和数据)。该操作实际上是3个地址操作和384字节的数据事务(transaction)。但是,借助本发明,利用一个裸CL WRy(仅地址)和1CL RDx(仅地址)总线事务完成相同的过程。从而,获得显著的性能提高。
本发明利用带有分布式存储器结构的基于接线器的多处理器系统的数个当前可用特征/操作,从处理观点提供更有效的数据移动。例如传统上,MS控制来自于存储器(高速缓冲存储器线)的数据相对于处理器的发送和接收。MC被提供地址和源ID,并利用这两个参数转发所请求的数据。通过用与高速缓冲存储器线读取相关的地址标记中的目的地ID替换源ID,本发明能够实现被移动数据的直接MC-MC传输(即发送和接收),而不需要改变传统的MC逻辑单元和/或功能。
接线器还使得能够同时进行多个存储器克隆操作,这进一步导致存储队列/缓冲器的有效利用。借助直接接线器连接,数据移动中所涉及的时间也不取决于存储器克隆操作的量。
本发明借助硬件的虚拟化和数个软件可控特征的包含,改进了具有加速器引擎的当前处理器的基于硬件的移动操作。即,在不实际利用传统用于完成移动操作的硬件组件的情况下,观察到并改进了硬件模型的性能优点。
另一例子涉及利用接线器在架构上实现更快的数据移动,因为被移动的高速缓冲存储器线不再必须通过单一点(即进出单一处理器芯片,所述处理器芯片一般接收,并且随后发送被移动的所有数据)。另外,由于实际的数据移动不需要相对于单一收集点的传输,因此利用接线器能够实现(多个)高速缓冲存储器线的并行移动,导致对更高带宽的使用,从而快得多地完成所有物理移动。现有系统每次只能完成一次移动。
本发明还能够实现字节、高速缓冲存储器线和页的移动。虽然没有提供和移动何时实际开始有关的任何实际时间,不过存储器克隆体跟踪该信息,并保持处理系统的一致性。特别地,由于该移动不会影响在正在完成实际移动时实现的任何其它过程,因此处理器资源可以自由完成其它任务,而不是等到数据从一个存储位置被移动到另一存储位置为止。
虽然已参考具体实施例说明了本发明,不过所述说明不应被理解为对本发明的限制。当参考本发明的说明时,对本领域的技术人员来说,所公开实施例的各种修改,以及本发明的其它实施例将变得显而易见。于是可认为在不脱离附加权利要求中限定的本发明的精神或范围的情况下,可做出这样的修改。

Claims (12)

1、一种多芯片、多处理器数据处理系统,包括:
至少两个处理器芯片,包括具有相关第一处理器和第一存储器克隆体的第一芯片,和具有相关第二处理器和第二存储器克隆体的第二芯片;
通过接线器架构,与所述第一处理器芯片和所述第二处理器芯片耦接的存储器;
第一存储器克隆体通过架构发送第一组数据的装置;
第二存储器克隆体通过架构同时发送第二组数据的装置;
其中第一组数据被唯一地识别成属于第一移动,第二组数据也被唯一地识别成属于第二移动,从而,所述第一和第二移动在架构上重叠,并被发送给它们各自正确的目的地。
2、按照权利要求1所述的数据处理系统,其中所述发送装置和所述同时发送装置还包括用相应的唯一标识符标记第一和第二组数据内的每一数据块的装置,所述唯一标识符表示哪个存储器克隆体启动特定的移动,以及该数据块将被发送到哪个目的地。
3、按照权利要求2所述的数据处理系统,其中所述唯一标识符包括附加在数据写操作上的多个附加位,其中所述附加位被用于跟踪克隆操作的顺序号,其中每个克隆操作被赋予下一可用顺序号。
4、按照权利要求3所述的数据处理系统,其中:
所述位的个数是所选择的设计参数使得在存储器克隆体产生新的克隆操作之前,完成第一顺序编号的克隆操作,新的克隆操作是和可借助所述位的个数跟踪的克隆体操作相比,顺序编号更大的克隆操作;
其中把已完成的第一顺序编号的克隆操作的顺序号分配给所述新的克隆操作。
5、按照权利要求2所述的数据处理系统,其中所述标记装置包括通过把目的地标识符包含在所述数据内,识别所述数据块,所述目的地标识符对应于所述数据块正被发送的存储缓冲器的目的地地址,其中任何两个同时启动的克隆操作都不会具有相同的目的地标识符。
6、按照权利要求3所述的数据处理系统,其中:
所述位的个数使得分配给第一数据克隆操作的数目能够重新使用;和
所述数据处理系统还包括:
向所述第一数据克隆操作分配第一标记号的装置;
在正在完成第一数据克隆操作时,监听第二数据克隆操作何时被赋予相同的标记号的装置;和
重试所述第二数据克隆操作直到所述第一数据克隆操作完成为止的装置,其中只有在第一数据克隆操作完成之后,才进行所述第二数据克隆操作,并且其中另外任何两个同时进行的数据克隆操作都不能共用一个标记号。
7、数据处理系统内能够实现与不同存储器克隆体的独立数据克隆操作相关的同时进行的重叠数据移动的方法,所述方法包括:
从第一存储器克隆体把第一修改读取操作发给将被移动到第一目的地的数据的源地址,其中所述修改读取操作包括第一目的地的地址,代替从其发出修改读取操作的处理器发送地址;
用第一目的地的所述地址标记来自所述源地址的第一组数据,以便把所述第一组数据识别成正被发送给所述第一目的地;
借助数据处理系统的接线器架构,把来自所述源地址的所述第一组数据发送给所述第一目的地;
从第二存储器克隆体把第二修改读取操作发给将被移动到第二目的地的数据的源地址;
用第二目的地的地址标记从所述源地址取回的第二组数据,以便把所述第二组数据识别成正被发送给所述第二目的地,所述第一目的地的所述地址不同于所述第二目的地的所述地址,从而所述第一和第二组数据被唯一地标记;和
在正在发送所述第一组数据的同时,通过架构把所述第二组数据发送给所述第二目的地。
8、按照权利要求7所述的方法,其中所述标记步骤包括把相应的目的地地址置于相应一组数据的发送地址块中。
9、按照权利要求7所述的方法,其中所述标记步骤包括用各自的唯一标识符标记第一和第二组数据内的每个数据块,所述唯一标识符表示哪个存储器克隆体启动特定的读取操作,以及该块数据将被发送到哪个目的地。
10、按照权利要求9所述的方法,其中:
所述位的个数使得分配给第一数据克隆操作的编号能够重新使用;并且
所述方法还包括:
向所述第一数据克隆操作分配第一标记号;
在正在完成第一数据克隆操作时,监听第二数据克隆操作何时被赋予相同的标记号;和
重试所述第二数据克隆操作直到所述第一数据克隆操作完成为止,其中只有在第一数据克隆操作完成之后,才进行所述第二数据克隆操作,另外任何两个同时进行的数据克隆操作都不能共用一个标记号。
11、按照权利要求10所述的方法,其中每个所述唯一标识符包括附在数据写操作上的多个附加位,其中所述附加位被用于跟踪克隆操作的顺序号,每个下一克隆操作被赋予下一可用顺序号。
12、按照权利要求10所述的方法,其中:
所述位的个数是所选择的设计参数,使得在存储器克隆体产生新的克隆操作之前,完成第一顺序编号的克隆操作,新的克隆操作是和借助所述位的个数跟踪的克隆体操作相比,顺序编号更大的克隆操作;
其中把已完成的第一顺序编号的克隆操作的顺序号分配给所述新的克隆操作。
CN200310118659.9A 2002-12-05 2003-11-27 实现重叠操作的方法和系统 Expired - Fee Related CN1243311C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/313,293 2002-12-05
US10/313,293 US7069394B2 (en) 2002-12-05 2002-12-05 Dynamic data routing mechanism for a high speed memory cloner

Publications (2)

Publication Number Publication Date
CN1504905A CN1504905A (zh) 2004-06-16
CN1243311C true CN1243311C (zh) 2006-02-22

Family

ID=32468204

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200310118659.9A Expired - Fee Related CN1243311C (zh) 2002-12-05 2003-11-27 实现重叠操作的方法和系统

Country Status (3)

Country Link
US (1) US7069394B2 (zh)
CN (1) CN1243311C (zh)
TW (1) TWI257552B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20040319A0 (fi) * 2004-02-27 2004-02-27 Nokia Corp Tiedonsiirto laitteiden välillä
WO2006033945A2 (en) * 2004-09-16 2006-03-30 Mar-Rog Specialties, Inc. Spotlight mounted motion detector
US7353316B2 (en) 2006-03-24 2008-04-01 Micron Technology, Inc. System and method for re-routing signals between memory system components
US8015380B2 (en) * 2008-02-01 2011-09-06 International Business Machines Corporation Launching multiple concurrent memory moves via a fully asynchronoous memory mover
US7958327B2 (en) * 2008-02-01 2011-06-07 International Business Machines Corporation Performing an asynchronous memory move (AMM) via execution of AMM store instruction within the instruction set architecture
US8275963B2 (en) * 2008-02-01 2012-09-25 International Business Machines Corporation Asynchronous memory move across physical nodes with dual-sided communication
US8327101B2 (en) * 2008-02-01 2012-12-04 International Business Machines Corporation Cache management during asynchronous memory move operations
US8245004B2 (en) * 2008-02-01 2012-08-14 International Business Machines Corporation Mechanisms for communicating with an asynchronous memory mover to perform AMM operations
US8095758B2 (en) * 2008-02-01 2012-01-10 International Business Machines Corporation Fully asynchronous memory mover
US8356151B2 (en) * 2008-02-01 2013-01-15 International Business Machines Corporation Reporting of partially performed memory move
CN102013123B (zh) * 2010-11-22 2013-04-24 北京亚博高腾科技有限公司 防止利用外插输入设备进行操作的彩票机
US8694719B2 (en) * 2011-06-24 2014-04-08 Sandisk Technologies Inc. Controller, storage device, and method for power throttling memory operations
US8745369B2 (en) 2011-06-24 2014-06-03 SanDisk Technologies, Inc. Method and memory system for managing power based on semaphores and timers
US20130036096A1 (en) * 2011-08-01 2013-02-07 Salesforce.Com, Inc. Mechanism for facilitating dynamic cloning of data records in an on-demand services environment
US9652289B2 (en) 2012-04-27 2017-05-16 Microsoft Technology Licensing, Llc Systems and methods for S-list partitioning
US9568985B2 (en) 2012-11-23 2017-02-14 Mediatek Inc. Data processing apparatus with adaptive compression algorithm selection based on visibility of compression artifacts for data communication over camera interface and related data processing method
CN103744625B (zh) * 2014-01-14 2017-05-10 浪潮电子信息产业股份有限公司 一种虚拟化应用中拷贝磁盘数据的方法
CN114385076B (zh) * 2021-12-09 2023-08-25 苏州浪潮智能科技有限公司 一种基于共享存储的加速虚拟机磁盘克隆的方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6128714A (en) 1994-03-17 2000-10-03 Hitachi, Ltd. Method of processing a data move instruction for moving data between main storage and extended storage and data move instruction processing apparatus
US6393540B1 (en) * 1998-06-30 2002-05-21 Emc Corporation Moving a logical object from a set of source locations to a set of destination locations using a single command
US6529968B1 (en) * 1999-12-21 2003-03-04 Intel Corporation DMA controller and coherency-tracking unit for efficient data transfers between coherent and non-coherent memory spaces
US6502170B2 (en) * 2000-12-15 2002-12-31 Intel Corporation Memory-to-memory compare/exchange instructions to support non-blocking synchronization schemes
US6813522B1 (en) * 2000-12-29 2004-11-02 Emc Corporation Method of sharing memory in a multi-processor system including a cloning of code and data
US6941136B2 (en) * 2002-02-11 2005-09-06 The Chamberlain Group, Inc. Method and apparatus for memory cloning for a control device

Also Published As

Publication number Publication date
US7069394B2 (en) 2006-06-27
TW200424867A (en) 2004-11-16
US20040111575A1 (en) 2004-06-10
CN1504905A (zh) 2004-06-16
TWI257552B (en) 2006-07-01

Similar Documents

Publication Publication Date Title
CN1243311C (zh) 实现重叠操作的方法和系统
CN1291325C (zh) 通过源/目的转换机构实现高速存储器克隆的方法和系统
CN1504902A (zh) 在存储器部件之间保持数据一致性的方法和系统
CN1184562C (zh) 处理器的转移指令
TWI220477B (en) System on a chip having system bus, external bus, and bus arbiter with programmable priorities for both buses, software, and method for assigning programmable priorities
CN1192314C (zh) 并行处理器结构的sram控制器
CN1185592C (zh) 并行处理器结构
CN1306420C (zh) 利用永久历史页表数据预取数据到高速缓存的装置和方法
CN1256681C (zh) 从外围设备向主计算机系统传输中断的方法和装置
CN1011356B (zh) 用于数字数据处理器的总线接口电路
CN1881183A (zh) 信息处理装置、进程控制方法及其计算机程序
US9910693B2 (en) Virtual machine to host device bridging
CN1387641A (zh) 并行处理器中的多线程执行
CN1806231A (zh) 提供软件实现的高速缓冲存储器的方法与装置
CN1146804C (zh) 快速16位分离事务i/o总线
CN1815438A (zh) 信息处理方法和系统
CN102473109A (zh) 利用批调度的线程调度
CN101055557A (zh) 数据处理的系统和方法
CN1770110A (zh) 对I/O完成进行无锁InfiniBandTM轮询的方法、系统和存储介质
CN1130639C (zh) 多入口、全相联的传递高速缓冲存储器
CN1117315C (zh) 微处理机及多处理机系统
CN1924842A (zh) 用于i/o适配器的方法和装置
CN1601468A (zh) 在多个处理器上加载软件的系统和方法
CN1504904A (zh) 存储器克隆操作期间保护高速缓冲存储器线的方法和系统
CN1601511A (zh) 用于使用多个处理器操纵数据的系统和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20060222

Termination date: 20101127