CN112447202A - 神经网络智能芯片及其形成方法 - Google Patents

神经网络智能芯片及其形成方法 Download PDF

Info

Publication number
CN112447202A
CN112447202A CN201910826619.0A CN201910826619A CN112447202A CN 112447202 A CN112447202 A CN 112447202A CN 201910826619 A CN201910826619 A CN 201910826619A CN 112447202 A CN112447202 A CN 112447202A
Authority
CN
China
Prior art keywords
logic
substrate
units
storage
memory array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910826619.0A
Other languages
English (en)
Inventor
余兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ICLeague Technology Co Ltd
Original Assignee
ICLeague Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ICLeague Technology Co Ltd filed Critical ICLeague Technology Co Ltd
Priority to CN201910826619.0A priority Critical patent/CN112447202A/zh
Publication of CN112447202A publication Critical patent/CN112447202A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C5/00Details of stores covered by group G11C11/00
    • G11C5/02Disposition of storage elements, e.g. in the form of a matrix array
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C5/00Details of stores covered by group G11C11/00
    • G11C5/06Arrangements for interconnecting storage elements electrically, e.g. by wiring

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Memory System (AREA)
  • Semiconductor Memories (AREA)

Abstract

本发明涉及一种神经网络智能芯片及其形成方法,所述神经网络智能芯片包括:计算模块,所述计算模块包括若干逻辑单元和若干缓存单元,所述逻辑单元和所述缓存单元一一对应连接,所述逻辑单元用于对对应的所述缓存单元进行读/写数据操作;存储模块,包括若干存储单元,至少一个所述存储单元与至少一个所述缓存单元对应连接。所述神经网络智能芯片的计算效率提高。

Description

神经网络智能芯片及其形成方法
技术领域
本发明涉及智能芯片领域,尤其涉及一种神经网络智能芯片及其形成方法。
背景技术
如今,需要大量高速运算及大量高速读写存储器的芯片被广泛应用,例如基于神经网络的人工智能芯片已被证明在许多应用中能够起到辅助作用。基于神经网络的芯片的一般结构虽然在人工智能领域取得了瞩目的成果,但是由于运算量和数据量巨大,目前智能芯片的计算速度依旧面临巨大的挑战。
现有的智能芯片中,通常将数据存放于神经网络芯片外部的DRAM存储器内。存储芯片与神经网络计算芯片之间通过外部转接板的封装连线连接。由于外部转接板的空间有限,限制了连线的数量与距离,导致DRAM存储器与神经网络计算芯片之间的数据传输带宽受限;并且由于外部转接板的接口处存在大电容,数据传输承受着沉重的负载,导致功耗较高;以及外部封装连线具有高电容和高电感,限制了数据传输上限和功耗下限。并且,目前神经网络计算芯片内通过SRAM存储器与外部的DRAM存储器之间进行数据的传输和存储,因此,SRAM存储器的数量也进一步限制了与DRAM存储器之间的数据传输速度。为了提高芯片运算速度,若使用了大量的SRAM存储器,SRAM占用的芯片面积较大,因而又会导致成本和功耗增大。以上这些问题均导致了智能芯片的运算速度面临较大的瓶颈。还有一种方法是将智能芯片采用SoC的设计,但是由于嵌入式的存储器并不能像SRAM一样跟逻辑单元/线路一起被简单地制作出来,因此增加了整个成本和功耗增大,跟增大SRAM相比,成本未必下降,虽然总存储量可以大一点,但复杂度高更多。
以上这些问题均导致了智能芯片的运算速度面临较大的瓶颈。
发明内容
本发明所要解决的技术问题是,提供一种神经网络智能芯片及其形成方法,以提高智能芯片的运算速度。
为了解决上述问题,本发明提供了一种神经网络智能芯片,包括:计算模块,所述计算模块包括若干逻辑单元和若干缓存单元,所述逻辑单元和所述缓存单元一一对应连接,所述逻辑单元用于对对应的所述缓存单元进行读/写数据操作;存储模块,包括若干存储单元,至少一个所述存储单元与至少一个所述缓存单元对应连接。
可选的,所述若干逻辑单元和所述若干缓存单元形成于同一逻辑基底内,所述逻辑单元和缓存单元之间通过形成于所述逻辑基底内的互连电路形成电连接。
可选的,所述若干存储单元形成于单层存储基底或多层堆叠连接的存储基底内。
可选的,所述存储基底和逻辑基底堆叠连接。
可选的,所述存储基底与所述逻辑基底之间通过键合形成电连接。
可选的,所述存储基底与所述逻辑基底内均形成有互连结构,所述存储基底与所述逻辑基底之间通过所述互连结构实现电连接。
可选的,所述缓存单元包括SRAM存储阵列;所述存储单元包括:DRAM存储阵列、PCRAM存储阵列、MRAM存储阵列、RRAM存储阵列、SRAM存储阵列、NOR存储阵列、NAND存储阵列以及FRAM存储阵列中的任意一种或几种存储阵列。
本发明的具体实施方式也提供一种神经网络智能芯片的形成方法,包括:形成计算模块,所述计算模块包括若干逻辑单元和若干缓存单元,所述逻辑单元和所述缓存单元一一对应连接,所述逻辑单元用于对对应的所述缓存单元进行读/写数据操作;形成存储模块,包括若干存储单元;将至少一个所述存储单元与至少一个所述缓存单元对应连接。
可选的,在同一逻辑基底内形成所述若干逻辑单元和所述若干缓存单元;所述形成方法还包括:在所述逻辑基底内形成互连电路,所述逻辑单元和缓存单元之间通过所述的互连电路形成电连接。
可选的,在单层存储基底或多层堆叠连接的存储基底内形成所述若干存储单元。
可选的,将所述存储基底和逻辑基底堆叠连接。
可选的,通过键合工艺实现所述存储基底与所述逻辑基底之间的电连接。
可选的,在所述存储基底与所述逻辑基底内均形成互连结构,所述存储基底与所述逻辑基底之间通过所述互连结构实现电连接。
可选的,所述缓存单元包括SRAM存储阵列;所述存储单元包括:DRAM存储阵列、PCRAM存储阵列、MRAM存储阵列、RRAM存储阵列、SRAM存储阵列、NOR存储阵列、NAND存储阵列以及FRAM存储阵列中的任意一种或几种存储阵列。
本发明的神经网络智能芯片的计算模块从对应的存储模块之间进行数据传输,可以提高存储模块与计算模块之间的数据传输带宽,且计算模块中包括缓存单元,能够提高从存储单元中读取和写入数据的效率,从而进一步提高芯片计算能力。且本发明的神经网络智能芯片的架构可以适用于不同类型的计算需求,具有较高的适用性。
附图说明
图1A至图1C为本发明一具体实施方式的神经网络智能芯片的架构示意图;
图2为本发明一具体实施方式的神经网络智能芯片的架构示意图;
图3为本发明一具体实施方式的神经网络智能芯片的架构示意图;
图4为本发明一具体实施方式的神经网络智能芯片的结构示意图;
图5为本发明一具体实施方式的神经网络智能芯片的形成方法的流程示意图。
具体实施方式
下面结合附图对本发明提供的神经网络智能芯片及其形成方法的具体实施方式做详细说明。
请参考图1A至1C,为本发明一具体实施方式的神经网络智能芯片的构架示意图。
所述神经网络智能芯片,包括计算模块200和存储模块100,所述计算模块200用于对所述存储模块100进行数据读取和写入操作。
所述计算模块200包括若干逻辑单元202和若干缓存单元201,所述逻辑单元202和所述缓存单元201一一对应连接,所述逻辑单元202用于对对应的所述缓存单元201进行读/写数据操作。需要注意的是,图1B为该具体实施方式中的计算模块200连接结构示意图,并非实际的物理结构示意图。
所述逻辑单元202包括乘法器、累加器、运算逻辑电路以及锁存器等器件以及电路。所述缓存单元201包括SRAM存储阵列,具有较高的读写效率。
由于每个逻辑单元202与各自对应的缓存单元201之间进行数据传输,因而整个计算模块200内部对的数据传输带宽增大。每个逻辑单元202与缓存单元201均可以同时进行数据的运算,提高了智能芯片的计算速度。各个所述逻辑单元202可以被分配执行不同的计算功能,例如部分逻辑单元202用于进行计算,部分逻辑单元202用于进行训练;而针对逻辑单元202的功能和需求,可以为每个逻辑单元202分配具有合适缓存能力的缓存单元201。
所述存储模块100包括若干存储单元101。所述存储单元101包括:DRAM存储阵列、PCRAM存储阵列、MRAM存储阵列、RRAM存储阵列、SRAM存储阵列、NOR存储阵列、NAND存储阵列以及FRAM存储阵列中的任意一种或几种存储阵列,用于存储需要被计算的数据,例如来自外部传感器输出的数据。
请参考图1C,所述存储单元101与所述缓存单元201一一对应连接,构成神经网络芯片的节点。
每个节点包括一个逻辑单元202、一个缓存单元201以及一个存储单元101。在对数据进行计算时,可以先将存储单元101内的数据存入缓存单元201内,再由逻辑单元202读取缓存单元201内的数据,进行计算。同样,在写入数据时,逻辑单元202先将待写入的数据写入缓存单元201内之后,再通过所述缓存单元201写入存储单元101内。
由于所述缓存单元201的数据传输效率高,通过所述缓存单元201进行数据的预读取和预写入,能够有效提高所述逻辑单元202与所述存储单元101之间的数据传输效率,以及芯片的计算效率。
在其他具体实施方式中,至少部分不同节点之间还可以通过总线进行连接,以利于不同节点之间的数据交互。
请参考图2,为本发明另一具体实施方式的神经网络智能芯片的构架示意图。
该具体实施方式中,所述神经网络芯片的每个节点包括一个逻辑单元402、一个缓存单元401以及两个存储单元301。每个逻辑单元402可以读取一个或两个存储单元301内的数据,进行计算。
每个节点的两个存储单元301内通常可以分别存储不同类型的数据,例如分别用于存储不同传感器的传感数据。
可以通过软件控制所述逻辑单元402、缓存单元401读取其中一个或两个存储单元301内的数据,各个节点可以根据不同需要进行调整,具有更强的适用性。在一个具体实施方式中,其中一个存储单元301用于向所述逻辑单元402提供待计算的数据,而另一个存储单元301用于存储经逻辑单元402计算后得到的数据。
在其他具体实施方式中,单个缓存单元401也可以同时连接至三个或以上数量的存储单元301,在实际应用过程中,根据需要,设定用于进行数据存储的存储单元301,以及需要读取的存储单元301。
本发明的神经网络智能芯片可以应用于多种数据存储以及计算需求,无需根据不同的计算需求,重新设计芯片架构。
请参考图3,为本发明另一具体实施方式的神经网络智能芯片的构架示意图。
在其他具体实施方式中,神经网络智能芯片的每个节点均包括两个逻辑单元602,与所述两个逻辑单元602对应连接的两个缓存单元601,以及同时连接至两个缓存单元601的一个存储单元501。
该具体实施方式中,所述神经网络智能芯片的每个节点,可以通过两个逻辑单元602同时对一个存储单元501内的数据进行计算。所述两个逻辑单元602可以分别采用不同的计算方法。在其他具体实施方式中,也可以通过软件控制,仅采用其中的一个逻辑单元602进行计算。
在其他具体实施方式中,每个节点还可以包括三个以上的逻辑单元602以及对应的三个以上的缓存单元601,还可以包括两个以上的存储单元501。可以根据不同的需求,通过软件控制其中至少一个逻辑单元602及其对应的缓存单元601以及至少一个存储单元501工作。
同一神经网络智能芯片的不同节点还可以采用不同的架构,以满足芯片功能的需求。
本发明的神经网络智能芯片包括多个节点,计算模块从对应的存储模块之间进行数据传输,可以提高存储模块与计算模块之间的数据传输带宽,从而提高芯片计算能力。且本发明的神经网络智能芯片的架构可以适用于不同类型的计算需求,具有较高的适用性。
请参考图4,为本发明一具体实施方式的神经网络智能芯片的结构示意图。
该具体实施方式中,所述存储模块的若干存储单元411形成于存储基底410内,所述存储基底410为单层或多层堆叠连接的基底。
所述计算模块包括若干计算单元421,每个计算单元421内包括对应连接的逻辑单元和缓存单元(图中未区分示出)。所述若干逻辑单元和所述若干缓存单元形成于同一逻辑基底420内。在该具体实施方式中,为了便于理解,所述逻辑基底420内的计算单元421的划分为按照功能的划分示意,而非实际结构区域的划分。在实际的逻辑基底420内,所有逻辑单元形成于基底的同一区域内,所有缓存单元形成于所述逻辑基底内,位于所述逻辑单元的一侧或两侧。通过所述逻辑基底420内的互连电路实现逻辑单元与缓存单元之间的对应电连接。在其他具体实施方式中,所述逻辑基底还可以为多层堆叠基底,所述逻辑单元和缓存单元分别形成与不同的基底内,相互堆叠,并通过垂直互连,实现逻辑单元与缓存单元之间的对应连接。
所述存储基底410与所述逻辑基底420之间堆叠连接,可以减小芯片的面积,提高集成度。
在一具体实施方式中,所述存储基底410与所述逻辑基底420内均形成有互连线以及互连柱等互连结构,所述存储基底410与所述逻辑基底420之间通过所述互连结构实现电连接,至少一个存储单元411连接至至少一个缓存单元。
在另一具体实施方式中,所述存储基底410与所述逻辑基底420的正面通过混合键合连接,所述存储基底410与所述逻辑基底420正面暴露的互连结构,例如焊垫、金属凸块等,相互之间形成金属键合,而存储基底410与所述逻辑基底420正面的介质层之间形成介质层间键合,在实现所述存储基底410与所述逻辑基底420堆叠键合的同时,通过互连结构之间的金属键合,实现逻辑计算单元421与存储单元411之间的对应连接。
在另一具体实施方式中,所述存储基底410与所述逻辑基底420的表面可以均形成有钝化层,通过两个钝化层间的键合工艺,使得所述逻辑基底420与所述存储基底410之间实现堆叠键合;可以通过贯穿所述存储基底410和/或所述逻辑基底420的深通孔连接结构实现存储单元411与计算单元421之间的对应连接。
在另一具体实施方式中,所述存储基底410与所述逻辑基底420中任一基底的背面与另一基底的正面键合连接,所述存储单元411和计算单元421可以通过贯穿所述存储基底410和/或逻辑基底420的深通孔连接结构实现存储单元411与计算单元421之间的对应连接。
在其他具体实施方式中,所述智能芯片的逻辑基底420和存储基底410之间还可以一其他键合形式以及互连结构实现堆叠连接,本领域的技术人员可以根据需要,进行合理设计。
在另一具体实施方式中,相互连接的计算单元421与存储单元411相互堆叠,分别位于上层和下层,在物理空间上也一一对应;在其他具体实施方式中,也可以根据所述逻辑基底420、存储基底410内合适的布线路径,使得相互连接的计算单元421与存储单元411之间在物理空间上并非相对。
当各存储单元411的存储容量不同时,各存储单元411的尺寸也可以有差异;以及不同的逻辑单元和缓存单元之间也可以具有不同的尺寸。神经网络智能芯片的不同节点内可以具有不同的架构。
在另一具体实施方式中,所述存储基底410还可以包括多层堆叠连接的存储子基底,可以提高单位面积的存储模块的存储容量,缩小智能芯片的尺寸。不同存储子基底之间通过3D堆叠键合连接,使得每一存储单元411均具备多层子存储块;或者每个存储子基底内均形成有一定数量的存储单元411,以缩小存储模块的面积。
在另一具体实施方式中,所述计算模块也可以形成于多层逻辑基底420内,不同逻辑基底420之间通过3D堆叠键合连接,使得每一计算单元421的各电路和器件分布于多层逻辑基底内,再通过键合方式连接,以缩小逻辑基底420的面积。
由于所述计算单元421与存储单元411之间通过基底间的互连结构直接连接,可以大大缩小I/O连接长度,大大减少连接电路的功耗。并且,由于集成电路工艺中,互连结构的线宽非常小,计算单元421与存储单元411之间可以形成的连线数量可以非常大,数据接口非常宽,可以实现高带宽数据传输。
本发明的具体实施方式还提供一种上述神经网络智能芯片的形成方法。
请参考图5,为本发明一具体实施方式的神经网络智能芯片的形成方法的流程示意图。
所述神经网络智能芯片的形成方法包括:
步骤S101:形成计算模块,所述计算模块包括若干逻辑单元和若干缓存单元,所述逻辑单元和所述缓存单元一一对应连接,所述逻辑单元用于对对应的所述缓存单元进行读/写数据操作。
所述逻辑单元包括乘法器、累加器、运算逻辑电路以及锁存器等器件以及电路。所述缓存单元包括SRAM存储阵列,具有较高的读写效率。
在一个具体实施方式中,可以在同一逻辑基底内形成所述若干逻辑单元和所述若干缓存单元;还包括在所述逻辑基底内形成互连电路,所述逻辑单元和缓存单元之间通过所述的互连电路形成电连接。
在另一具体实施方式中,所述逻辑基底还可以为多层堆叠基底,将所述逻辑单元和缓存单元分别形成与不同的基底内,相互堆叠,并通过垂直互连,实现逻辑单元与缓存单元之间的对应连接。
在另一具体实施方式中,所述计算模块也可以形成于多层逻辑基底内,不同逻辑基底之间通过3D堆叠键合连接,使得逻辑单元和缓存单元的各电路和器件分布于多层逻辑基底内,再通过键合方式连接,以缩小逻辑基底的面积。
步骤S102:形成存储模块,包括若干存储单元。
所述存储单元包括:DRAM存储阵列、PCRAM存储阵列、MRAM存储阵列、RRAM存储阵列、SRAM存储阵列、NOR存储阵列、NAND存储阵列以及FRAM存储阵列中的任意一种或几种存储阵列,用于存储需要被计算的数据,例如来自外部传感器输出的数据。
在一个具体实施方式中,所述存储模块形成于单层存储基底内。在另一具体实施方式中,所述存储基底还可以包括多层堆叠连接的存储子基底,可以提高单位面积的存储模块的存储容量,缩小智能芯片的尺寸。不同存储子基底之间通过3D堆叠键合连接,使得每一存储单元均具备多层子存储块;或者每个存储子基底内均形成有一定数量的存储单元,以缩小存储模块的面积。
步骤S103:将至少一个所述存储单元与至少一个所述缓存单元对应连接。
在一个具体实施方式中,一个存储单元对应连接至一个缓存单元,智能芯片的每个节点包括对应连接的一个存储单元、一个缓存单元以及一个逻辑单元。
在另一具体实施方式中,两个存储单元对应连接至一个缓存单元,智能芯片的每个节点包括对应连接的两个存储单元、一个缓存单元以及一个逻辑单元。
在另一具体实施方式中,一个存储单元对应连接至两个缓存单元,智能芯片的每个节点包括对应连接的一个存储单元、两个缓存单元以及两个逻辑单元。
本领域的技术人员可以根据对智能芯片的功能需求,合理设计每个节点内的存储单元、缓存单元和逻辑单元的比例。且神经网络智能芯片的不同节点还可以分别采用不同的架构,以满足芯片功能的需求。
将所述存储基底和逻辑基底堆叠连接,可以减小芯片的面积,提高集成度。
在一个具体实施方式中,所述存储基底与所述逻辑基底内均形成有互连线以及互连柱等互连结构,所述存储基底与所述逻辑基底之间通过所述互连结构实现电连接,至少一个存储单元连接至至少一个缓存单元。
在另一个具体实施方式中,所述存储基底与所述逻辑基底的正面通过混合键合连接,所述存储基底与所述逻辑基底正面暴露的互连结构,例如焊垫、金属凸块等,相互之间形成金属键合,而存储基底与所述逻辑基底正面的介质层之间形成介质层间键合,在实现所述存储基底与所述逻辑基底堆叠键合的同时,通过互连结构之间的金属键合,实现逻辑单元与存储块之间的对应连接。
在另一具体实施方式中,所述存储基底与所述逻辑基底的表面可以均形成有钝化层,通过两个钝化层间的键合工艺,使得所述逻辑基底与所述存储基底之间实现堆叠键合;可以通过贯穿所述存储基底和/或所述逻辑基底的深通孔连接结构实现存储单元与计算单元之间的对应连接。
在另一具体实施方式中,所述存储基底与所述逻辑基底中任一基底的背面与另一基底的正面键合连接,所述存储单元和计算单元可以通过贯穿所述存储基底和/或逻辑基底的深通孔连接结构实现存储单元与计算单元之间的对应连接。
在其他具体实施方式中,所述智能芯片的逻辑基底和存储基底之间还可以一其他键合形式以及互连结构实现堆叠连接,本领域的技术人员可以根据需要,进行合理设计。
在另一具体实施方式中,相互连接的计算单元与存储单元相互堆叠,分别位于上层和下层,在物理空间上也一一对应;在其他具体实施方式中,也可以根据所述逻辑基底、存储基底内合适的布线路径,使得相互连接的计算单元与存储单元之间在物理空间上并非相对。
当各存储单元的存储容量不同时,各存储单元的尺寸也可以有差异;以及不同的逻辑单元和缓存单元之间也可以具有不同的尺寸。神经网络智能芯片的不同节点内可以具有不同的架构。
由于所述计算单元与存储单元之间通过基底间的互连结构直接连接,可以大大缩小I/O连接长度,大大减少连接电路的功耗。并且,由于集成电路工艺中,互连结构的线宽非常小,计算单元与存储单元之间可以形成的连线数量可以非常大,数据接口非常宽,可以实现高带宽数据传输。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (14)

1.一种神经网络智能芯片,其特征在于,包括:
计算模块,所述计算模块包括若干逻辑单元和若干缓存单元,所述逻辑单元和所述缓存单元一一对应连接,所述逻辑单元用于对对应的所述缓存单元进行读/写数据操作;
存储模块,包括若干存储单元,至少一个所述存储单元与至少一个所述缓存单元对应连接。
2.根据权利要求1所述的神经网络智能芯片,其特征在于,所述若干逻辑单元和所述若干缓存单元形成于同一逻辑基底内,所述逻辑单元和缓存单元之间通过形成于所述逻辑基底内的互连电路形成电连接。
3.根据权利要求1所述的神经网络智能芯片,其特征在于,所述若干存储单元形成于单层存储基底或多层堆叠连接的存储基底内。
4.根据权利要求2或3所述的神经网络智能芯片,其特征在于,所述存储基底和逻辑基底堆叠连接。
5.根据权利要求4所述的神经网络智能芯片,其特征在于,所述存储基底与所述逻辑基底之间通过键合形成电连接。
6.根据权利要求4所述的神经网络智能芯片,其特征在于,所述存储基底与所述逻辑基底内均形成有互连结构,所述存储基底与所述逻辑基底之间通过所述互连结构实现电连接。
7.根据权利要求1所述的神经网络智能芯片,其特征在于,所述缓存单元包括SRAM存储阵列;所述存储单元包括:DRAM存储阵列、PCRAM存储阵列、MRAM存储阵列、RRAM存储阵列、SRAM存储阵列、NOR存储阵列、NAND存储阵列以及FRAM存储阵列中的任意一种或几种存储阵列。
8.一种神经网络智能芯片的形成方法,其特征在于,包括:
形成计算模块,所述计算模块包括若干逻辑单元和若干缓存单元,所述逻辑单元和所述缓存单元一一对应连接,所述逻辑单元用于对对应的所述缓存单元进行读/写数据操作;
形成存储模块,包括若干存储单元;
将至少一个所述存储单元与至少一个所述缓存单元对应连接。
9.根据权利要求8所述的神经网络智能芯片的形成方法,其特征在于,在同一逻辑基底内形成所述若干逻辑单元和所述若干缓存单元;所述形成方法还包括:在所述逻辑基底内形成互连电路,所述逻辑单元和缓存单元之间通过所述的互连电路形成电连接。
10.根据权利要求8所述的神经网络智能芯片的形成方法,其特征在于,在单层存储基底或多层堆叠连接的存储基底内形成所述若干存储单元。
11.根据权利要求9或10所述的神经网络智能芯片的形成方法,其特征在于,将所述存储基底和逻辑基底堆叠连接。
12.根据权利要求11所述的神经网络智能芯片的形成方法,其特征在于,通过键合工艺实现所述存储基底与所述逻辑基底之间的电连接。
13.根据权利要求11所述的神经网络智能芯片的形成方法,其特征在于,在所述存储基底与所述逻辑基底内均形成互连结构,所述存储基底与所述逻辑基底之间通过所述互连结构实现电连接。
14.根据权利要求8所述的神经网络智能芯片的形成方法,其特征在于,所述缓存单元包括SRAM存储阵列;所述存储单元包括:DRAM存储阵列、PCRAM存储阵列、MRAM存储阵列、RRAM存储阵列、SRAM存储阵列、NOR存储阵列、NAND存储阵列以及FRAM存储阵列中的任意一种或几种存储阵列。
CN201910826619.0A 2019-09-03 2019-09-03 神经网络智能芯片及其形成方法 Pending CN112447202A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910826619.0A CN112447202A (zh) 2019-09-03 2019-09-03 神经网络智能芯片及其形成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910826619.0A CN112447202A (zh) 2019-09-03 2019-09-03 神经网络智能芯片及其形成方法

Publications (1)

Publication Number Publication Date
CN112447202A true CN112447202A (zh) 2021-03-05

Family

ID=74735409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910826619.0A Pending CN112447202A (zh) 2019-09-03 2019-09-03 神经网络智能芯片及其形成方法

Country Status (1)

Country Link
CN (1) CN112447202A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114067882A (zh) * 2021-10-22 2022-02-18 长江先进存储产业创新中心有限责任公司 一种相变存储器系统及其访问方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184366A (zh) * 2015-09-15 2015-12-23 中国科学院计算技术研究所 一种时分复用的通用神经网络处理器
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
CN108647155A (zh) * 2018-05-14 2018-10-12 福州瑞芯微电子股份有限公司 一种基于深度学习的多级cache共享的方法和装置
US20180307624A1 (en) * 2017-04-24 2018-10-25 Intel Corporation System cache optimizations for deep learning compute engines
US20190123023A1 (en) * 2016-10-07 2019-04-25 Xcelsis Corporation 3D Compute Circuit with High Density Z-Axis Interconnects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184366A (zh) * 2015-09-15 2015-12-23 中国科学院计算技术研究所 一种时分复用的通用神经网络处理器
US20190123023A1 (en) * 2016-10-07 2019-04-25 Xcelsis Corporation 3D Compute Circuit with High Density Z-Axis Interconnects
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
US20180307624A1 (en) * 2017-04-24 2018-10-25 Intel Corporation System cache optimizations for deep learning compute engines
CN108647155A (zh) * 2018-05-14 2018-10-12 福州瑞芯微电子股份有限公司 一种基于深度学习的多级cache共享的方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114067882A (zh) * 2021-10-22 2022-02-18 长江先进存储产业创新中心有限责任公司 一种相变存储器系统及其访问方法

Similar Documents

Publication Publication Date Title
US7830692B2 (en) Multi-chip memory device with stacked memory chips, method of stacking memory chips, and method of controlling operation of multi-chip package memory
CN100421250C (zh) 具有芯片间互连选择装置的三维半导体器件
US7834450B2 (en) Semiconductor package having memory devices stacked on logic device
US11810640B2 (en) Memory interface with configurable high-speed serial data lanes for high bandwidth memory
CN105431939A (zh) 堆栈存储器
CN113674772B (zh) 三维集成芯片及其构建方法、数据处理方法、电子设备
CN107039059A (zh) 存储器封装,包括其的存储器模块及存储器封装操作方法
US20230051480A1 (en) Signal routing between memory die and logic die for mode based operations
US20210366546A1 (en) Multi-chip package with reduced calibration time and zq calibration method thereof
TW202022615A (zh) 記憶體系統
CN113626374A (zh) 一种堆叠芯片
WO2010001833A1 (ja) メモリ・論理共役システム
CN114049905B (zh) 非易失三维存储单元、存储方法、芯片组件和电子设备
CN101131858B (zh) 三维多端口存储器及其控制方法
CN112447202A (zh) 神经网络智能芯片及其形成方法
CN110265292A (zh) 三维存储器以及制作方法
CN216118778U (zh) 一种堆叠芯片
CN113722268B (zh) 一种存算一体的堆叠芯片
CN216119560U (zh) 一种llc芯片及缓存系统
CN112446475A (zh) 神经网络智能芯片及其形成方法
CN111952298B (zh) 神经网络智能芯片及其形成方法
CN114627908A (zh) 基于3d-ic的存储架构
CN113793632A (zh) 非易失可编程芯片
CN105742277A (zh) 一种大容量立体集成sram存储器三维扩展方法
WO2024001962A1 (zh) 存储器、芯片堆叠结构、芯片封装结构及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination