CN112395247B - 数据的处理方法、存算一体芯片 - Google Patents
数据的处理方法、存算一体芯片 Download PDFInfo
- Publication number
- CN112395247B CN112395247B CN202011293845.6A CN202011293845A CN112395247B CN 112395247 B CN112395247 B CN 112395247B CN 202011293845 A CN202011293845 A CN 202011293845A CN 112395247 B CN112395247 B CN 112395247B
- Authority
- CN
- China
- Prior art keywords
- neural network
- memory
- computing
- data
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 56
- 238000003672 processing method Methods 0.000 title claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims abstract description 90
- 238000000034 method Methods 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 11
- 230000006870 function Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/78—Architectures of general purpose stored program computers comprising a single central processing unit
- G06F15/7807—System on chip, i.e. computer system on a single chip; System in package, i.e. computer system on one or more chips in a single package
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Power Sources (AREA)
Abstract
本申请提供一种数据的处理方法、存算一体芯片,其中,该方法应用于存算一体芯片,所述存算一体芯片包括计算核,所述计算核包括:存储计算阵列、计算模块;该方法包括:所述存储计算阵列对输入所述存算一体芯片的具有第一网络属性的第一神经网络的数据进行运算;所述计算模块对输入所述存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算。通过本申请,解决了现有技术中在采用存算一体芯片对数据进行处理的过程中,所有数据均需要存储计算阵列进行运算,导致存储计算阵列运算量大以及功耗高的问题。
Description
技术领域
本申请涉及神经网络领域,具体涉及一种数据的处理方法、存算一体芯片。
背景技术
近年来,为了解决传统冯诺依曼计算体系结构瓶颈,存算一体架构得到人们的广泛关注,如图1所示,其基本思想是直接利用存储器进行逻辑计算,从而减少存储器与处理器之间的数据传输量以及传输距离,降低功耗的同时提高性能。但是,在有大量数据需要进行运算的情况下,仍需消耗较多的时间将大量数据逐行写入存算一体芯片中的存储计算阵列中,从而难以进一步提高存算一体在实际应用中的整体工作效率。
发明内容
本申请实施例提供了一种数据的处理方法、存算一体芯片,以解决现有技术中在采用存算一体芯片对数据进行处理的过程中,所有数据均需要存储计算阵列进行运算,导致存储计算阵列运算量大以及功耗高的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请提供了一种数据的处理方法,应用于存算一体芯片,所述存算一体芯片包括计算核,所述计算核包括:存储计算阵列、计算模块;所述方法包括:所述存储计算阵列对输入所述存算一体芯片的具有第一网络属性的第一神经网络的数据进行运算;所述计算模块对输入所述存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算。
第二方面,本申请提供了一种存算一体芯片,所述存算一体芯片包括计算核,所述计算核包括:存储计算阵列、计算模块;所述存储计算阵列,用于对输入所述存算一体芯片的具有第一网络属性的第一神经网络的数据进行运算;所述计算模块,用于对输入所述存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算。
第三方面,本申请实施例还提供了一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤。
第四方面,本申请实施例还提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤。
在本申请中,通过本申请实施例中的存算一体芯片,能够针对不同网络属性的神经网络采用不同的模块进行运算,即可以通过存储计算阵列对具有第一网络属性的第一神经网络的数据进行运算,以及可以通过计算模块对不具有第一网络属性的第二神经网络的数据进行运算,从而减轻了存算一体芯片中存储计算阵列的运算量,解决了现有技术中在采用存算一体芯片对数据进行处理的过程中,所有数据均需要存储计算阵列进行运算,导致存储计算阵列运算量大以及功耗高的问题。
附图说明
图1是现有技术中存算一体芯片的结构示意图;
图2是本申请实施例的存算一体芯片的结构示意图;
图3是本申请实施例的数据的处理方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请的描述中,需要理解的是,术语“第一”、“第二”仅由于描述目的,且不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。因此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者多个该特征。本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的数据的处理方法进行详细地说明。
本申请实施例提供了一种数据的处理方法,该方法应用于存算一体芯片,其中,如图2所示,该存算一体芯片包括计算核,计算核包括:存储计算阵列、计算模块;基于此,图3是本申请实施例的数据的处理方法的流程图,如图3所示,该方法的步骤包括:
步骤S302,存储计算阵列对输入存算一体芯片的具有第一网络属性的第一神经网络的数据进行运算;
步骤S304,计算模块对输入存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算。
通过本申请实施例中的存算一体芯片,能够针对不同网络属性的神经网络采用不同的模块进行运算,即可以通过存储计算阵列对具有第一网络属性的第一神经网络的数据进行运算,以及可以通过计算模块对不具有第一网络属性的第二神经网络的数据进行运算,从而减轻了存算一体芯片中存储计算阵列的运算量,解决了现有技术中在采用存算一体芯片对数据进行处理的过程中,所有数据均需要存储计算阵列进行运算,导致存储计算阵列运算量大以及功耗高的问题。
需要说明的是,本申请实施例中的存算一体芯片可以是集成在由多个不同神经网络组成的混合神经网络中,该第一神经网络和第二神经网络为该混合神经网络中的神经网络,因此,通过该存算一体芯片分配计算核中计算模块和存储计算阵列可以处理的数据,使各个神经网络的处理效率保持平衡,可以提升混合神经网络的处理效率。
进一步地,在本申请实施例的可选实施方式中,本申请实施例中的存储计算阵列包括非易失性存储,在具体应用场景中该非易失性存储可以是NOR型闪存单元阵列、NAND型闪存单元阵列、RRAM(Resistive Random Access Memory,电阻性随机存取存储器)器件;上述非易失性存储仅仅是举例说明,在其他应用场景中该非易失性存储还可以是NVM(non-volatile memory)、MRAM(Magnetic Random Access Memory,非挥发性的磁性随机存储器)等。此外,在本申请实施例中,该存储计算阵列的运算方式可以为矩阵运算。
另外,本申请实施例中的计算模块可以包括以下至少之一:向量运算模块、矩阵运算模块。基于此,本申请实施例中的计算模块的运算方式可以为矩阵运算和/或向量运算。
在本申请实施例的另一个可选实施方式中,本申请实施例中的存储计算阵列预存储有第一神经网络的第一权重,该第一权重为第一神经网络中各个函数的权重,例如,激活函数、损失函数等的权重。基于此,由于预先存储有第一神经网络的第一权重,在第一神经网络的数据输入到存储计算阵列中后可以直接对其进行运算,大大提高了存储计算阵列的运算效率。
此外,本申请实施例中的具有第一网络属性的第一神经网络包括以下至少之一:使用频率超过第一预设阈值的神经网络、运算功耗超过第二预设阈值的神经网络、传输时延低于第三预设阈值的神经网络。也就是说,在运算过程中,可以将高频使用的数据直接输入存储阵列进行运算,低频使用的数据输入计算模块中进行运算,或者是将计算密集型功耗大给存储计算阵列,省延迟和节省带宽的数据给计算模块,或者,是将低延迟数据输入到存储计算阵列中,避免运算过程中数据频繁从片外传输。
需要说明的是,该预存储第一权重的时机可以是存储计算一体芯片中的存储计算阵列和计算模块完全没有进行运算之前,即在进行运算之前就已经在存储计算阵列中存储有该第一权重,第一神经网络的数据则可以直接输入到存储计算阵列中进行运算;还可以是,在运算一段时间后,再添加其他类型的第一神经网络的第一权重,例如混合神经网络中的其他神经网络的权重。也就是说,在本申请实施例中是预先存储第一权重之后再对第一神经网络的数据进行运算。
另外,本申请实施例中的使用频率超过第一预设阈值的神经网络可以是指该神经网络的主要用途,例如:人脸识别、图像分类、数据的风险评估等等。以人脸识别为主要用途的神经网络为例,则在对输入的图像进行人脸识别之前,将与该神经网络对应的权重预存储到存储计算阵列中,这样在该神经网络输入图像数据时,直接输入到存储计算阵列中进行运算,而对于其他神经网络的数据则输入到计算模块中进行运算,在减轻了存储计算阵列运算负担的同时,提升了存算一体芯片的运算效率。
在本申请实施例的另一个可选实施方式中,在计算模块对输入存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算之前,包括:
步骤S301,存储计算阵列接收并存储第二神经网络的第二权重。
需要说明的是,该第二权重也可以是与第一权重的存储时机一样,在还没进行运算之前就预先存储。另外,由于计算模块是对输入存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算,则在识别出当前神经网络不是第一神经网络,而是第二神经网络,则会将该第二神经网络的数据输入到计算模块中,因此,可以从存储计算阵列中调用第二神经网络的第二权重,进而在运算过程中,依据第二权重对第二神经网络的数据进行运算。
在本申请实施例中存储计算阵列和计算模块可以并行执行数据运算。
基于本申请实施例中的数据的处理方式,在存算一体芯片的基础上,对于神经网络的数据可以进行区分运算,从而减少低频数据对存储计算阵列的占用、降低运算功耗、并且减少在运算过程中的I/O数据搬运。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例的方法。
本申请实施例提供了一种存算一体芯片,如图2所示,该存算一体芯片包括计算核,该计算核包括:存储计算阵列、计算模块;
存储计算阵列,用于对输入存算一体芯片的具有第一网络属性的第一神经网络的数据进行运算;
计算模块,用于对输入存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算。
可选地,本申请和实施例中的存储计算阵列预存储有第一神经网络的第一权重。
可选地,本申请实施例中具有第一网络属性的第一神经网络包括以下至少之一:使用频率超过第一预设阈值的神经网络、运算功耗超过第二预设阈值的神经网络、传输时延低于第三预设阈值的神经网络。
可选地,本申请实施例中的存储计算阵列,还用于在对输入存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算之前,接收并存储第二神经网络的第二权重。
可选地,本申请实施例中的存储计算阵列和计算模块并行执行数据运算。
可选地,存储计算阵列包括非易失性存储。
可选地,计算模块包括以下至少之一:向量运算模块、矩阵运算模块。
可选的,本申请实施例还提供一种电子设备,包括处理器,存储器,存储在存储器上并可在所述处理器上运行的程序或指令,该程序或指令被处理器执行时实现上述对数据的处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要注意的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述数据的处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (8)
1.一种数据的处理方法,应用于存算一体芯片,其特征在于,所述存算一体芯片包括计算核,所述计算核包括:存储计算阵列、计算模块;所述方法包括:
所述存储计算阵列对输入所述存算一体芯片的具有第一网络属性的第一神经网络的数据进行运算;
所述计算模块对输入所述存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算;
其中,所述存算一体芯片集成由多个不同神经网络组成的混合神经网络,所述第一神经网络和所述第二神经网络为所述混合神经网络中的神经网络;
所述存储计算阵列预存储有所述第一神经网络的第一权重;
具有所述第一网络属性的第一神经网络包括以下至少之一:使用频率超过第一预设阈值的神经网络、运算功耗超过第二预设阈值的神经网络、传输时延低于第三预设阈值的神经网络。
2.根据权利要求1所述的方法,其特征在于,在所述计算模块对输入所述存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算之前,包括:
所述存储计算阵列接收并存储所述第二神经网络的第二权重。
3.根据权利要求1所述的方法,其特征在于,所述存储计算阵列和所述计算模块并行执行数据运算。
4.根据权利要求1所述的方法,其特征在于,所述存储计算阵列包括非易失性存储。
5.根据权利要求1所述的方法,其特征在于,所述计算模块包括以下至少之一:向量运算模块、矩阵运算模块。
6.一种存算一体芯片,其特征在于,所述存算一体芯片包括计算核,所述计算核包括:存储计算阵列、计算模块;
所述存储计算阵列,用于对输入所述存算一体芯片的具有第一网络属性的第一神经网络的数据进行运算;
所述计算模块,用于对输入所述存算一体芯片的不具有第一网络属性的第二神经网络的数据进行运算;
其中,所述存算一体芯片集成由多个不同神经网络组成的混合神经网络,所述第一神经网络和所述第二神经网络为所述混合神经网络中的神经网络;
所述存储计算阵列预存储有所述第一神经网络的第一权重;
具有所述第一网络属性的第一神经网络包括以下至少之一:使用频率超过第一预设阈值的神经网络、运算功耗超过第二预设阈值的神经网络、传输时延低于第三预设阈值的神经网络。
7.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现包括如权利要求1-5中任一项所述的数据的处理方法的步骤。
8.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现包括如权利要求1-5中任一项所述的数据的处理方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011293845.6A CN112395247B (zh) | 2020-11-18 | 2020-11-18 | 数据的处理方法、存算一体芯片 |
PCT/CN2021/131247 WO2022105805A1 (zh) | 2020-11-18 | 2021-11-17 | 数据的处理方法及存算一体芯片 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011293845.6A CN112395247B (zh) | 2020-11-18 | 2020-11-18 | 数据的处理方法、存算一体芯片 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112395247A CN112395247A (zh) | 2021-02-23 |
CN112395247B true CN112395247B (zh) | 2024-05-03 |
Family
ID=74607396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011293845.6A Active CN112395247B (zh) | 2020-11-18 | 2020-11-18 | 数据的处理方法、存算一体芯片 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112395247B (zh) |
WO (1) | WO2022105805A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112395247B (zh) * | 2020-11-18 | 2024-05-03 | 北京灵汐科技有限公司 | 数据的处理方法、存算一体芯片 |
CN113138957A (zh) * | 2021-03-29 | 2021-07-20 | 北京智芯微电子科技有限公司 | 用于神经网络推理的芯片及加速神经网络推理的方法 |
CN113190208B (zh) * | 2021-05-07 | 2022-12-27 | 电子科技大学 | 能存算一体化单元及状态控制方法、集成模组、处理器及设备 |
CN114997388B (zh) * | 2022-06-30 | 2024-05-07 | 杭州知存算力科技有限公司 | 存算一体芯片用基于线性规划的神经网络偏置处理方法 |
CN115439566B (zh) * | 2022-08-23 | 2023-07-18 | 中国电子科技南湖研究院 | 一种基于存算一体架构的压缩感知系统及方法 |
CN115665268B (zh) * | 2022-11-21 | 2023-04-18 | 苏州亿铸智能科技有限公司 | 一种适用于存算一体芯片的数据传输装置及方法 |
CN116151343B (zh) * | 2023-04-04 | 2023-09-05 | 荣耀终端有限公司 | 数据处理电路和电子设备 |
CN116167424B (zh) * | 2023-04-23 | 2023-07-14 | 深圳市九天睿芯科技有限公司 | 基于cim的神经网络加速器、方法、存算处理系统与设备 |
CN116777727B (zh) * | 2023-06-21 | 2024-01-09 | 北京忆元科技有限公司 | 存算一体芯片、图像处理方法、电子设备及存储介质 |
CN117472847A (zh) * | 2023-11-08 | 2024-01-30 | 海光信息技术股份有限公司 | 存储芯粒、数据处理方法、计算机系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766309A (zh) * | 2018-12-29 | 2019-05-17 | 北京航空航天大学 | 自旋存算一体芯片 |
CN110147880A (zh) * | 2019-05-22 | 2019-08-20 | 苏州浪潮智能科技有限公司 | 一种神经网络数据处理结构、方法、系统及相关装置 |
CN209766043U (zh) * | 2019-06-26 | 2019-12-10 | 北京知存科技有限公司 | 存算一体芯片、存储单元阵列结构 |
CN111241028A (zh) * | 2018-11-28 | 2020-06-05 | 北京知存科技有限公司 | 一种数模混合存算一体芯片以及运算装置 |
CN111611197A (zh) * | 2019-02-26 | 2020-09-01 | 北京知存科技有限公司 | 可软件定义的存算一体芯片的运算控制方法和装置 |
CN111611195A (zh) * | 2019-02-26 | 2020-09-01 | 北京知存科技有限公司 | 可软件定义存算一体芯片及其软件定义方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10803379B2 (en) * | 2017-12-12 | 2020-10-13 | Amazon Technologies, Inc. | Multi-memory on-chip computational network |
CN210924662U (zh) * | 2020-01-16 | 2020-07-03 | 北京比特大陆科技有限公司 | 神经网络处理的装置与系统 |
CN112395247B (zh) * | 2020-11-18 | 2024-05-03 | 北京灵汐科技有限公司 | 数据的处理方法、存算一体芯片 |
-
2020
- 2020-11-18 CN CN202011293845.6A patent/CN112395247B/zh active Active
-
2021
- 2021-11-17 WO PCT/CN2021/131247 patent/WO2022105805A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111241028A (zh) * | 2018-11-28 | 2020-06-05 | 北京知存科技有限公司 | 一种数模混合存算一体芯片以及运算装置 |
CN109766309A (zh) * | 2018-12-29 | 2019-05-17 | 北京航空航天大学 | 自旋存算一体芯片 |
CN111611197A (zh) * | 2019-02-26 | 2020-09-01 | 北京知存科技有限公司 | 可软件定义的存算一体芯片的运算控制方法和装置 |
CN111611195A (zh) * | 2019-02-26 | 2020-09-01 | 北京知存科技有限公司 | 可软件定义存算一体芯片及其软件定义方法 |
CN110147880A (zh) * | 2019-05-22 | 2019-08-20 | 苏州浪潮智能科技有限公司 | 一种神经网络数据处理结构、方法、系统及相关装置 |
CN209766043U (zh) * | 2019-06-26 | 2019-12-10 | 北京知存科技有限公司 | 存算一体芯片、存储单元阵列结构 |
Also Published As
Publication number | Publication date |
---|---|
WO2022105805A1 (zh) | 2022-05-27 |
CN112395247A (zh) | 2021-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112395247B (zh) | 数据的处理方法、存算一体芯片 | |
CN108848037A (zh) | 业务请求处理方法、装置、计算机设备和存储介质 | |
US20200184393A1 (en) | Method and apparatus for determining risk management decision-making critical values | |
CN111984400B (zh) | 神经网络的内存分配方法及装置 | |
CN111078287B (zh) | 一种向量运算协处理方法与装置 | |
CN110209472B (zh) | 任务数据处理方法和板卡 | |
US20200050924A1 (en) | Data Processing Method and Apparatus for Neural Network | |
CN110825436A (zh) | 应用于人工智能芯片的计算方法和人工智能芯片 | |
CN117014507A (zh) | 任务卸载模型的训练方法、任务的卸载方法及装置 | |
CN114138231B (zh) | 执行矩阵乘法运算的方法、电路及soc | |
CN114297934A (zh) | 一种基于代理模型的模型参数并行仿真优化方法及装置 | |
CN116452011B (zh) | 一种用于智能体决策的数据处理方法及装置 | |
CN116342367A (zh) | 一种基于三维场景模型web端动态渲染处理方法 | |
CN106648895A (zh) | 一种处理数据的方法、装置及终端 | |
CN114327802B (zh) | 区块链访问链外数据的方法、装置、设备和介质 | |
CN116170194A (zh) | 基于lstm终端自适应优化的安全策略选择方法、装置及介质 | |
CN110378109A (zh) | 降低链式哈希栈性能损耗的方法及系统 | |
CN116361203A (zh) | 内存分配方法及装置、电子设备、计算机可读介质 | |
CN113420841B (zh) | 有毒样本数据生成方法及装置 | |
CN112380494B (zh) | 一种确定对象特征的方法及装置 | |
CN113011459B (zh) | 模型训练方法、装置和计算设备 | |
CN114362968B (zh) | 区块链获取随机数的方法、装置、设备和介质 | |
CN114422594B (zh) | 业务处理方法、装置、计算机设备和存储介质 | |
CN115129488A (zh) | 一种流式数据处理方法、装置、设备以及存储介质 | |
CN112612522A (zh) | 量化和计算加速方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: Data processing methods and integrated storage and computing chips Granted publication date: 20240503 Pledgee: Bank of Hangzhou Limited by Share Ltd. Beijing Zhongguancun branch Pledgor: LYNXI TECHNOLOGIES Co.,Ltd. Registration number: Y2024110000291 |