CN112153139B - 基于传感器网络和存内计算神经网络的控制系统及方法 - Google Patents
基于传感器网络和存内计算神经网络的控制系统及方法 Download PDFInfo
- Publication number
- CN112153139B CN112153139B CN202011009783.1A CN202011009783A CN112153139B CN 112153139 B CN112153139 B CN 112153139B CN 202011009783 A CN202011009783 A CN 202011009783A CN 112153139 B CN112153139 B CN 112153139B
- Authority
- CN
- China
- Prior art keywords
- module
- data
- neural network
- calculation
- analog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/18—Self-organising networks, e.g. ad-hoc networks or sensor networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/50—Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Medical Informatics (AREA)
- Neurology (AREA)
- Combined Controls Of Internal Combustion Engines (AREA)
Abstract
本发明公开了基于传感器网络和存内计算神经网络的控制系统及方法,本发明涉及人工智能领域。本发明包括传感器网络、数据自处理模块、模数转换器模块和存内计算神经网络模块,将存内计算技术和传感器网络相结合,利用了拥有数据自处理能力的传感器网络以增加数据带宽并降低功耗,通过存内计算技术完成神经网络的计算,避免了过多不必要的数据传输操作,在保证高精度计算的同时,极大地提高了计算速度、减少了数据存储空间、降低了系统整体运算功耗。
Description
技术领域
本发明涉及人工智能领域,具体涉及基于传感器网络和存内计算神经网络的控制系统及方法。
背景技术
传感器网络是一种分布式的传感器阵列,由大量微小、较低成本、功能丰富、获取信息能力较强的传感器构成,传感器之间通过无线网络相互连接以进行通信。传感器网络的应用前景十分广泛,在许多领域和实际应用场景中都有着举足轻重的作用,发展潜力巨大。随着微电子相关技术的不断进步,传感器网络技术也在不断前进,并对现代信息技术产业、现代制造业以及现代军事信息等领域产生巨大的影响。但是对于大多数实际应用场景而言,为了获取更加精确的环境信息,传感器网络就必须收集海量的信息并对其进行存储和信号处理,这不但会增大存储信息数据方面的压力,也使得传感器网络的功耗居高不下。
随着近些年神经网络的不断发展,人工智能设备不断推陈出新。神经网络面世之初,神经网络的计算和训练均是利用电脑中的CPU或者GPU完成的,但是这样高功率的芯片无法大量应用于普通实际应用场景。
于是人们开始着手于设计制造专用的神经网络硬件加速器,但是市面上现有的这类神经网络硬件加速器均是以传统冯·诺依曼式计算机体系结构完成的,这样的设计将计算和存储部分分开,进行运算时将数据从存储器中读入计算阵列;计算结束后将结果读出至存储器中进行保存,这样大量高频的数据传输操作对于神经网络计算来说是慢速的,形成了“内存墙”壁垒,这是制约神经网络硬件加速器速度的关键因素。另一方面,现有的神经网络硬件加速器在进行计算时,均需存储与神经网络数学模型中同等数量的参数才能够进行计算,这类参数称为权重。随着神经网络结构的不断更新、网络层数的不断增加,所需要的参数量呈指数上升,神经网络硬件加速器所消耗的存储空间也不断增大,所以,如何在有限存储资源条件下高效存储神经网络所需参数成为了一个需解决的难题。
发明内容
本发明的目的在于:提供了基于传感器网络和存内计算神经网络的控制系统及方法,为了解决现有传感器网络和传统神经网络硬件加速器存在运行计算瓶颈的问题,该系统将传感器网络与存内计算神经网络相结合,在传感器网络内部嵌入了数据自处理模块,有效地过滤了传感器采集到的无效数据,并且将原本需要在存储器外部进行数据计算的单元转移到了内存中,在存储的同时便完成了计算过程,从而有效地避免了传统计算机体系结构中的大量I/O操作,节省了数据处理的时间,提高了系统的整体计算效率,降低了整体功耗的同时也节省了数据所需要的存储空间。
本发明采用的技术方案如下:
本发明是基于传感器网络和存内计算神经网络的控制系统,包括传感器网络、数据自处理模块、模数转换器模块和存内计算神经网络模块,
所述传感器网络由传感器阵列构成,通过内部总线连接与数据自处理模块,采集不同的外界环境信息并输出对应的模拟信号,将模拟信号传输至数据自处理模块进行进一步处理;
所述数据自处理模块由多层感知器构成,与模数转换器通过内部总线连接,对传感器网络传来的模拟信号进行初步处理、过滤无效数据,并将处理结果传至模数转换器;
所述模数转换器模块由模数转换器和微处理单元构成,通过内部总线与存内计算神经网络模块连接,对数据自处理模块的处理结果进行信号处理,将模拟信号转换成数字信号,并将此数字信号传输至存内计算神经网络模块;
所述存内计算神经网络模块主要实现神经网络的计算。
进一步的,所述存内计算神经网络模块包括时钟控制模块、读写控制器模块、双模式字线驱动模块、存储单元阵列、非线性激活函数模块、数据缓冲器模块和输出控制模块;
时钟控制模块用于对基于存内计算的控制系统进行同步时序控制,确保数据在存内计算过程中的有序性和正确性,该模块与外部控制单元相连;
读写控制模块用于响应外部的读写控制请求,并对双模式字线驱动模块进行读写数据的控制;
双模式字线驱动模块用于存内计算控制系统运行阶段,主要控制存储单元阵列的两种不同工作模式:数据存储模式和数据计算模式,当该模块发出数据存储模式的信号时,存储单元阵列会将外部数据读取至内部并加以保存,当该模块发出数据计算模式的信号时,存储单元阵列会对内部的数据完成相乘累加计算,并将计算结果输出至后续的非线性激活函数模块或者数据缓冲器模块;
非线性激活函数模块用于处理存内计算的每一轮中间结果,将中间结果归一化并利用非线性函数对其进行处理;
数据缓冲器模块用于暂存神经网络运算过程中的中间结果,当神经网络要进行下一轮的运算操作时,该模块中暂存的数据会被存储单元阵列读取至内部进行新一轮的相乘累加运算;
存储单元阵列用于存储神经网络的权重参数以及相乘累加的运算,该模块可根据双模式字线驱动模块输出的控制信号分别工作于两种不同的模式:数据存储模式和数据计算模式;
输出控制模块用于最终结果的输出,该模块负责与后续的受控设备进行数据传输,当神经网络完成了最终计算后,该模块向受控设备发送控制信号。
进一步的,所述传感器网络为声音、光、温度或压力传感器阵列。
基于传感器网络和存内计算神经网络的控制方法,包括上述控制系统,其控制方法的流程如下:
步骤1,全局复位,将控制系统中的所有模块进行初始化;
步骤2,将训练好的神经网络数学模型中的权重信息和网络结构信息存储到存内计算神经网络模块中;
步骤3,传感器网络获取到外部环境中的信息,将这些信息传输至数据自处理模块;
步骤4,数据自处理模块对初步得到的信息进行处理,过滤掉不需要的信息后,将其传输至模数转换器模块;
步骤5,模数转换器模块将模拟信号转换为包含特征向量信息的高精度数字信号,并将其传输给存内计算神经网络模块;
步骤6,存内计算神经网络模块接收到来自模数转换器模块传输而来的信号后,读写控制模驱动双模式字线驱动模块至数据存储工作模式,存储单元阵列接收到存储指令信号后,将模数转换器模块输出的数据保存至内部;随后双模式字线驱动模块切换至数据运算的工作模式,驱动存储单元阵列进行相乘累加的运算,当存储单元阵列完成一轮相乘累加操作后,将数据输出至非线性激活函数模块;
步骤7,非线性激活函数模块接收到中间结果后对其进行非线性处理,将处理后的结果传输至数据缓冲器模块,若神经网络的计算还未结束则跳转至步骤6,并利用数据缓冲器模块中的数据进行新一轮的结算,否则结束计算;
步骤8,等待步骤7的计算结果,输出控制模块根据计算结果向外界的受控设备输出控制信号,清除不需要的缓存数据,跳转至步骤3继续进行新一轮的计算,直到整个控制系统关闭为止。
综上所述,由于采用了本技术方案,本发明的有益效果是:
1.本发明是基于传感器网络和存内计算神经网络的控制系统,该系统将传感器网络与存内计算神经网络相结合,在传感器网络内部嵌入了数据自处理模块,有效地过滤了传感器采集到的无效数据,并且将原本需要在存储器外部进行数据计算的单元转移到了内存中,在存储的同时便完成了计算过程,从而有效地避免了传统计算机体系结构中的大量I/O操作,节省了数据处理的时间,提高了系统的整体计算效率,降低了整体功耗的同时也节省了数据所需要的存储空间。
2.本发明是基于传感器网络和存内计算神经网络的控制系统及方法,利用存内计算神经网络模块实现高效的神经网络计算,相比于传统的神经网络硬件计算,存内计算在保存数据的同时即可完成计算操作,节约了神经网络参数的存储空间,在保持高精度运算的同时,减少了大量不必要的数据传输操作,极大地提高了神经网络对于数据的处理速度、降低了系统的整体功耗。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图,本说明书附图中的各个部件的比例关系不代表实际选材设计时的比例关系,其仅仅为结构或者位置的示意图,其中:
图1是本发明控制系统的结构示意图;
图2是传感器网络的结构示意图;
图3是数据自处理的传感器网络部分的示意图;
图4是存内计算神经网络模块的示意图;
图5是循环神经网络的结构示意图;
图6是本发明的控制方法流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
下面结合附图对本发明作详细说明。
实施例一
本发明是基于传感器网络和存内计算神经网络的控制系统,包括传感器网络、数据自处理模块、模数转换器模块和存内计算神经网络模块。
所述传感器网络由传感器阵列构成,并通过内部总线连接与数据自处理模块,根据不同的外界环境信息输出对应的模拟信号,并将模拟信号传输至数据自处理模块进行进一步处理,传感器的种类并不受限制,本发明支持但不限于声音、光、温度、压力等传感器阵列;
所述数据自处理模块由多层感知器构成,与模数转换器通过内部总线连接,对传感器网络传来的模拟信号进行初步处理、过滤无效数据,并将处理结果传至模数转换器;
所述模数转换器模块由模数转换器和微处理单元构成,通过内部总线与存内计算神经网络模块连接,对数据自处理模块的处理结果进行信号处理,将模拟信号转换成数字信号,并将此数字信号传输至存内计算神经网络模块;
所述存内计算神经网络模块主要实现神经网络的计算,
进一步的,所述存内计算神经网络模块包括:时钟控制模块、读写控制器模块、双模式字线驱动模块、存储单元阵列、非线性激活函数模块、数据缓冲器模块和输出控制模块;
时钟控制模块用于对基于存内计算的控制系统进行同步时序控制,确保数据在存内计算过程中的有序性和正确性,该模块与外部控制单元相连;
读写控制模块用于响应外部的读写控制请求,并对双模式字线驱动模块进行读写数据的控制;
双模式字线驱动模块用于存内计算控制系统运行阶段,主要控制存储单元阵列的两种不同工作模式:数据存储模式和数据计算模式,当该模块发出数据存储模式的信号时,存储单元阵列会将外部数据读取至内部并加以保存,当该模块发出数据计算模式的信号时,存储单元阵列会对内部的数据完成相乘累加计算,并将计算结果输出至后续的非线性激活函数模块或者数据缓冲器模块;
非线性激活函数模块用于处理存内计算的每一轮中间结果,将中间结果归一化并利用非线性函数对其进行处理;
数据缓冲器模块用于暂存神经网络运算过程中的中间结果,当神经网络要进行下一轮的运算操作时,该模块中暂存的数据会被存储单元阵列读取至内部进行新一轮的相乘累加运算;
存储单元阵列用于存储神经网络的权重参数以及相乘累加的运算,该模块可根据双模式字线驱动模块输出的控制信号分别工作于两种不同的模式:数据存储模式和数据计算模式;
输出控制模块用于最终结果的输出,该模块负责与后续的受控设备进行数据传输,当神经网络完成了最终计算后,该模块向受控设备发送控制信号。
进一步的,所述传感器网络为声音、光、温度或压力传感器阵列。
如图1,该系统主要由两大部分构成,数据自处理的传感器网络部分和存内计算神经网络模块部分。本实施例以声音传感器为例,声音传感器网络负责采集环境中的声音信息,并通过内部的数据处理模块对信号进行初步的过滤和处理,然后由内部的模数转换器模块将连续的模拟信号转换为离散的数字信号,并将数字信息传输至存内计算神经网络模块中,存内计算神经网络模块负责对数字信息进行处理,通过神经网络对声音数据进行计算,得出计算结果并将其输出,最终将声音转换成文字信息。
如图3所示,该图展示了实施例中带有数据自处理的传感器网络部分结构示意图,包括传感器网络、权重偏置模块、多层感知器模块、时钟发生器、模数转换器、特征向量数据输出模块构成。如图2所示,传感器网络由传感器阵列构成,本实施例中的传感器网络以声音传感器阵列为例,声音传感器收集到声音信号后,将其传输至多层传感器模块,并根据权重偏置模块提供的参数对信号进行初步处理、过滤冗余信息,当该模块判定声音内含文字信息后,将其传输给模数转换器,模数转换器根据时钟发生器提供的时钟将模拟信号转换为数字信号,并通过特征向量数据输出模块将数字信号传至存内计算神经网络模块。
如图4,该存内计算神经网络由双模式字线驱动模块、时钟控制模块、读写控制器模块、存储单元阵列模块、非线性激活函数模块、数据缓冲器模块、输出控制器模块构成。存储单元阵列模块包括若干个存储单元。存内计算神经网络模块接收到来自传感器网络的数字信号后,读写控制模块将数据传输命令转化为电信号,同时驱动双模式字线驱动模块向存储单元阵列模块发送数据存储的指令信号,存储单元阵列模块将数据保存至内部,随后双模式字线驱动模块发送出数据计算信号,存储单元便对内部的权重参数和数据进行相乘累加运算操作,并得到中间结果。如果本轮神经网络的计算没有结束,则会将中间结果备份至数据缓冲器模块,存储单元阵列模块会利用数据缓冲器模块中的数据进行新的运算;如果本轮神经网络的计算结束了,则将中间结果传输至非线性激活函数模块,经过激活函数模块的运算后,得到本轮的计算结果,并开启下一轮的神经网络运算,形成循环的神经网络计算。
如图5,该图展示了本实施例中循环神经网络结构示意图。该神经网络是一个典型的循环神经网络,包含输入层、隐藏层、记忆层、输出层、输入权重矩阵、隐藏层权重矩阵、输出权重矩阵激活函数。各个层的神经元个数都需要按照实际应用情况进行确定,隐藏层的数量不宜过多,否则会出现过拟合的现象。另外,隐藏层的层数与记忆层的层数应保持一致。循环神经网络在接收到输入数据后,将输入数据与输入权重相乘,再累加上记忆层的数据后便得到隐藏层的数据,隐藏层的数据与输出权重相乘后进行非线性激活函数运算,便得到本轮计算结果。另外,隐藏层的数据需要与隐藏层权重矩阵相乘,以得到新的记忆层。在本实施例中,循环神经网络主要由存内计算神经网络模块构成输入层、隐藏层、记忆层、输出层。输入数据是经由模数转换器输出的声音特征向量,最终输出结果是向受控设备发出控制信号,使得受控设备能够产生声音内容中对应的文字信息。
实施例二
基于传感器网络和存内计算神经网络的控制方法,包括上述实施例一中的控制系统,其控制方法的流程如下:
步骤1,全局复位,将控制系统中的所有模块进行初始化;
步骤2,将训练好的神经网络数学模型中的权重信息和网络结构信息存储到存内计算神经网络模块中;
步骤3,传感器网络获取到外部环境中的信息,将这些信息传输至数据自处理模块;
步骤4,数据自处理模块对初步得到的信息进行处理,过滤掉不需要的信息后,将其传输至模数转换器模块;
步骤5,模数转换器模块将模拟信号转换为包含特征向量信息的高精度数字信号,并将其传输给存内计算神经网络模块;
步骤6,存内计算神经网络模块接收到来自模数转换器模块传输而来的信号后,读写控制模驱动双模式字线驱动模块至数据存储工作模式,存储单元阵列接收到存储指令信号后,将模数转换器模块输出的数据保存至内部;随后双模式字线驱动模块切换至数据运算的工作模式,驱动存储单元阵列进行相乘累加的运算,当存储单元阵列完成一轮相乘累加操作后,将数据输出至非线性激活函数模块;
步骤7,非线性激活函数模块接收到中间结果后对其进行非线性处理,将处理后的结果传输至数据缓冲器模块,若神经网络的计算还未结束则跳转至步骤6,并利用数据缓冲器模块中的数据进行新一轮的结算,否则结束计算;
步骤8,等待步骤7的计算结果,输出控制模块根据计算结果向外界的受控设备输出控制信号,清除不需要的缓存数据,跳转至步骤3继续进行新一轮的计算,直到整个控制系统关闭为止。
如图6,该图展示了该系统的整体工作流程,主要是传感器网络的检测过程和存内计算过程。首先传感器网络获取外界信息后,将其传输至数据自处理模块,数据自处理模块对信号进行处理和过滤后,通过模数转换器将信号转变为数字信号,并将数字信号传输至存内计算神经网络模块。基于存内计算的神经网络依据内部存储的权重信息进行神经网络的计算,最后得到计算结果,并将其传输至后续的受控设备。
以上所述,仅为本发明的优选实施方式,但本发明的保护范围并不局限于此,任何熟悉本领域的技术人员在本发明所揭露的技术范围内,可不经过创造性劳动想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书所限定的保护范围为准。
Claims (3)
1.基于传感器网络和存内计算神经网络的控制系统,包括传感器网络、数据自处理模块、模数转换器模块和存内计算神经网络模块,其特征在于:
所述传感器网络由传感器阵列构成,通过内部总线连接与数据自处理模块,采集不同的外界环境信息并输出对应的模拟信号,将模拟信号传输至数据自处理模块进行进一步处理;
所述数据自处理模块由多层感知器构成,与模数转换器通过内部总线连接,对传感器网络传来的模拟信号进行初步处理、过滤无效数据,并将处理结果传至模数转换器;
所述模数转换器模块由模数转换器和微处理单元构成,通过内部总线与存内计算神经网络模块连接,对数据自处理模块的处理结果进行信号处理,将模拟信号转换成数字信号,并将此数字信号传输至存内计算神经网络模块;
所述存内计算神经网络模块主要实现神经网络的计算;
所述存内计算神经网络模块包括时钟控制模块、读写控制器模块、双模式字线驱动模块、存储单元阵列、非线性激活函数模块、数据缓冲器模块和输出控制模块;
时钟控制模块用于对基于存内计算的控制系统进行同步时序控制,确保数据在存内计算过程中的有序性和正确性,该模块与外部控制单元相连;
读写控制模块用于响应外部的读写控制请求,并对双模式字线驱动模块进行读写数据的控制;
双模式字线驱动模块用于存内计算控制系统运行阶段,主要控制存储单元阵列的两种不同工作模式:数据存储模式和数据计算模式,当该模块发出数据存储模式的信号时,存储单元阵列会将外部数据读取至内部并加以保存,当该模块发出数据计算模式的信号时,存储单元阵列会对内部的数据完成相乘累加计算,并将计算结果输出至后续的非线性激活函数模块或者数据缓冲器模块;
非线性激活函数模块用于处理存内计算的每一轮中间结果,将中间结果归一化并利用非线性函数对其进行处理;
数据缓冲器模块用于暂存神经网络运算过程中的中间结果,当神经网络要进行下一轮的运算操作时,该模块中暂存的数据会被存储单元阵列读取至内部进行新一轮的相乘累加运算;
存储单元阵列用于存储神经网络的权重参数以及相乘累加的运算,该模块可根据双模式字线驱动模块输出的控制信号分别工作于两种不同的模式:数据存储模式和数据计算模式;
输出控制模块用于最终结果的输出,该模块负责与后续的受控设备进行数据传输,当神经网络完成了最终计算后,该模块向受控设备发送控制信号。
2.根据权利要求1所述基于传感器网络和存内计算神经网络的控制系统,其特征在于:所述传感器网络为声音、光、温度或压力传感器阵列。
3.基于传感器网络和存内计算神经网络的控制方法,包括如权利要求1-2任意一条所述的控制系统,其特征在于,其控制方法的流程如下:
步骤1,全局复位,将控制系统中的所有模块进行初始化;
步骤2,将训练好的神经网络数学模型中的权重信息和网络结构信息存储到存内计算神经网络模块中;
步骤3,传感器网络获取到外部环境中的信息,将这些信息传输至数据自处理模块;
步骤4,数据自处理模块对初步得到的信息进行处理,过滤掉不需要的信息后,将其传输至模数转换器模块;
步骤5,模数转换器模块将模拟信号转换为包含特征向量信息的高精度数字信号,并将其传输给存内计算神经网络模块;
步骤6,存内计算神经网络模块接收到来自模数转换器模块传输而来的信号后,读写控制模驱动双模式字线驱动模块至数据存储工作模式,存储单元阵列接收到存储指令信号后,将模数转换器模块输出的数据保存至内部;随后双模式字线驱动模块切换至数据运算的工作模式,驱动存储单元阵列进行相乘累加的运算,当存储单元阵列完成一轮相乘累加操作后,将数据输出至非线性激活函数模块;
步骤7,非线性激活函数模块接收到中间结果后对其进行非线性处理,将处理后的结果传输至数据缓冲器模块,若神经网络的计算还未结束则跳转至步骤6,并利用数据缓冲器模块中的数据进行新一轮的结算,否则结束计算;
步骤8,等待步骤7的计算结果,输出控制模块根据计算结果向外界的受控设备输出控制信号,清除不需要的缓存数据,跳转至步骤3继续进行新一轮的计算,直到整个控制系统关闭为止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011009783.1A CN112153139B (zh) | 2020-09-23 | 2020-09-23 | 基于传感器网络和存内计算神经网络的控制系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011009783.1A CN112153139B (zh) | 2020-09-23 | 2020-09-23 | 基于传感器网络和存内计算神经网络的控制系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112153139A CN112153139A (zh) | 2020-12-29 |
CN112153139B true CN112153139B (zh) | 2022-06-14 |
Family
ID=73896182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011009783.1A Active CN112153139B (zh) | 2020-09-23 | 2020-09-23 | 基于传感器网络和存内计算神经网络的控制系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112153139B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113065647B (zh) * | 2021-03-30 | 2023-04-25 | 西安电子科技大学 | 加速神经网络的计算-存储通信系统及通信方法 |
CN113177211A (zh) * | 2021-04-20 | 2021-07-27 | 深圳致星科技有限公司 | 用于隐私计算的fpga芯片、异构处理系统及计算方法 |
CN115860071A (zh) * | 2022-12-08 | 2023-03-28 | 成都市深思创芯科技有限公司 | 基于感存算一体的神经网络振荡器系统 |
CN115756388B (zh) * | 2023-01-06 | 2023-04-18 | 上海后摩智能科技有限公司 | 多模式存算一体电路、芯片及计算装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886393A (zh) * | 2019-02-26 | 2019-06-14 | 杭州闪亿半导体有限公司 | 一种存算一体化电路及神经网络的计算方法 |
CN110010176A (zh) * | 2017-12-28 | 2019-07-12 | 英特尔公司 | 用于在存储器阵列上执行计算的方法和系统 |
CN110334799A (zh) * | 2019-07-12 | 2019-10-15 | 电子科技大学 | 基于存算一体的神经网络推理与训练加速器及其运行方法 |
CN110515454A (zh) * | 2019-07-24 | 2019-11-29 | 电子科技大学 | 一种基于内存计算的神经网络架构电子皮肤 |
CN110597555A (zh) * | 2019-08-02 | 2019-12-20 | 北京航空航天大学 | 非易失性存内计算芯片及其运算控制方法 |
CN111033438A (zh) * | 2017-09-06 | 2020-04-17 | 株式会社半导体能源研究所 | 运算装置及电子设备 |
CN111241028A (zh) * | 2018-11-28 | 2020-06-05 | 北京知存科技有限公司 | 一种数模混合存算一体芯片以及运算装置 |
CN111338601A (zh) * | 2018-12-18 | 2020-06-26 | 旺宏电子股份有限公司 | 用于存储器内乘法及累加运算的电路及其方法 |
CN111611197A (zh) * | 2019-02-26 | 2020-09-01 | 北京知存科技有限公司 | 可软件定义的存算一体芯片的运算控制方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190057727A1 (en) * | 2018-10-15 | 2019-02-21 | Amrita MATHURIYA | Memory device to provide in-memory computation functionality for a pipeline circuit architecture |
US20200242458A1 (en) * | 2019-01-25 | 2020-07-30 | Intel Corporation | Hybrid cpu and analog in-memory artificial intelligence processor |
-
2020
- 2020-09-23 CN CN202011009783.1A patent/CN112153139B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111033438A (zh) * | 2017-09-06 | 2020-04-17 | 株式会社半导体能源研究所 | 运算装置及电子设备 |
CN110010176A (zh) * | 2017-12-28 | 2019-07-12 | 英特尔公司 | 用于在存储器阵列上执行计算的方法和系统 |
CN111241028A (zh) * | 2018-11-28 | 2020-06-05 | 北京知存科技有限公司 | 一种数模混合存算一体芯片以及运算装置 |
CN111338601A (zh) * | 2018-12-18 | 2020-06-26 | 旺宏电子股份有限公司 | 用于存储器内乘法及累加运算的电路及其方法 |
CN109886393A (zh) * | 2019-02-26 | 2019-06-14 | 杭州闪亿半导体有限公司 | 一种存算一体化电路及神经网络的计算方法 |
CN111611197A (zh) * | 2019-02-26 | 2020-09-01 | 北京知存科技有限公司 | 可软件定义的存算一体芯片的运算控制方法和装置 |
CN110334799A (zh) * | 2019-07-12 | 2019-10-15 | 电子科技大学 | 基于存算一体的神经网络推理与训练加速器及其运行方法 |
CN110515454A (zh) * | 2019-07-24 | 2019-11-29 | 电子科技大学 | 一种基于内存计算的神经网络架构电子皮肤 |
CN110597555A (zh) * | 2019-08-02 | 2019-12-20 | 北京航空航天大学 | 非易失性存内计算芯片及其运算控制方法 |
Non-Patent Citations (3)
Title |
---|
"基于三维存算一体架构的深度神经网络加速技术研究";范彦铭;《中国硕士学位论文全文数据库信息科技辑》;20200401;全文 * |
"面向CNN的高能效SRAM计算阵列的研究与实现";刘炎;《中国硕士学位论文全文数据库信息科技辑》;20190603;全文 * |
Hyunjoon Kim ; Qian Chen ; Taegeun Yoo ; Tony Tae-Hyoung Kim ; Bongjin K."A Bit-Precision Reconfigurable Digital In-Memory Computing Macro for Energy-Efficient Processing of Artificial Neural Networks".《2019 International SoC Design Conference (ISOCC)》.2019, * |
Also Published As
Publication number | Publication date |
---|---|
CN112153139A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112153139B (zh) | 基于传感器网络和存内计算神经网络的控制系统及方法 | |
CN110390385B (zh) | 一种基于bnrp的可配置并行通用卷积神经网络加速器 | |
CN111178518A (zh) | 一种基于fpga的软硬件协同的加速方法 | |
CN110852428B (zh) | 基于fpga的神经网络加速方法和加速器 | |
CN111583940A (zh) | 极低功耗关键词唤醒神经网络电路 | |
CN111105023B (zh) | 数据流重构方法及可重构数据流处理器 | |
CN111210019A (zh) | 一种基于软硬件协同加速的神经网络推断方法 | |
CN111831354A (zh) | 数据精度配置方法、装置、芯片、芯片阵列、设备及介质 | |
CN108520297A (zh) | 可编程深度神经网络处理器 | |
CN115983348A (zh) | 支持卷积神经网络扩展指令的risc-v加速器系统 | |
JP2022502724A (ja) | データを処理するための方法、装置、および関連製品 | |
CN111860773A (zh) | 处理装置和用于信息处理的方法 | |
CN113792621B (zh) | 一种基于fpga的目标检测加速器设计方法 | |
CN116822600A (zh) | 一种基于risc-v架构的神经网络搜索芯片 | |
Zong-ling et al. | The design of lightweight and multi parallel CNN accelerator based on FPGA | |
CN115860071A (zh) | 基于感存算一体的神经网络振荡器系统 | |
CN112101537B (zh) | Cnn加速器和电子设备 | |
CN115577747A (zh) | 一种高并行度的异构卷积神经网络加速器及加速方法 | |
US20230259780A1 (en) | Neural network sparsification apparatus and method and related product | |
CN109190755A (zh) | 面向神经网络的矩阵转换装置及方法 | |
CN114004731B (zh) | 一种基于卷积神经网络的图像处理方法、装置及相关设备 | |
CN112926733B (zh) | 一种语音关键词检测专用芯片 | |
CN113568865B (zh) | 面向自供能系统的存算一体架构及应用方法 | |
CN116702852B (zh) | 基于多阶段事件驱动的动态重构神经网络加速电路及系统 | |
CN117632844A (zh) | 一种可重构ai算法硬件加速器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |