CN115358381B - 光学全加器及其神经网络设计方法、设备及介质 - Google Patents

光学全加器及其神经网络设计方法、设备及介质 Download PDF

Info

Publication number
CN115358381B
CN115358381B CN202211063558.5A CN202211063558A CN115358381B CN 115358381 B CN115358381 B CN 115358381B CN 202211063558 A CN202211063558 A CN 202211063558A CN 115358381 B CN115358381 B CN 115358381B
Authority
CN
China
Prior art keywords
neural network
design
hidden layer
diffraction
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211063558.5A
Other languages
English (en)
Other versions
CN115358381A (zh
Inventor
邓辰辰
郑纪元
王钰言
林珠
吴嘉敏
范静涛
方璐
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202211063558.5A priority Critical patent/CN115358381B/zh
Publication of CN115358381A publication Critical patent/CN115358381A/zh
Application granted granted Critical
Publication of CN115358381B publication Critical patent/CN115358381B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/067Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Holo Graphy (AREA)

Abstract

本申请涉及神经网络技术领域,特别涉及一种光学全加器及其神经网络设计方法、设备及介质,其中,方法包括:获取隐藏层的每层中不同位置神经元的期望计算特征和输出端口优先级;根据期望计算特征和输出端口的优先级匹配隐藏层中衍射槽之间的设计间距,其中,优先级高的输出端口对应的衍射槽之间的设计间距小于优先级低的输出端口对应的衍射槽之间的设计间距;根据隐藏层衍射槽之间的设计间距生成目标神经网络的设计方案,基于设计方案实现目标神经网络的设计。由此,解决了相关技术采用神经元在空间上均匀排布的方法会导致输出结果的精度分布不均,且需要长时间训练才能达到理想的精度,效率低等问题。

Description

光学全加器及其神经网络设计方法、设备及介质
技术领域
本申请涉及神经网络技术领域,特别涉及一种光学全加器及其神经网络设计方法、设备及介质。
背景技术
全加器是算术逻辑运算单元的基本模块,而算术逻辑单元是以CPU(centralprocessing unit,中央处理器)、GPU(graphics processing unit,图形处理器)等通用处理器为代表的高端芯片的核心基本单元,对整个计算系统的性能和功耗有着至关重要的作用。过去几十年,集成电路工艺技术的进步是提高计算芯片性能和能效的主要措施之一。然而,随着摩尔定律和登纳德缩放比例定律放缓甚至走向终结,这一方法正在逐渐失效,新一代高能效计算芯片框架的开发已迫在眉睫。光具有物理空间最快的传播速度以及多维多尺度的优势,采用光子替代传统电子进行信息处理的光计算有望构建新一代高性能计算机。与电子芯片相比,光计算具有高速、并行、低功耗等颠覆性优势。尤其随着人工智能算法的深度发展,光在介质中受限传播的物理过程在数学上的表达与深度神经网络算法具有高度的相似性,采用光电神经网络实现以全加器为代表的算术逻辑运算有望突破传统电子芯片的能效瓶颈。
相关技术中光学神经网络的设计一般采用神经元在空间上均匀排布的思路,即输出层上的神经元直接连接或间接连接的隐藏层神经元个数是基本一致的,但由于全加器具有从低位逐级向高位进位的特征,即最低位的输入也可能影响最高位的输出,而高位输入对低位的输出并无影响。因此这种均一设计的神经元排布方法通常会得到精度分布不均的输出结果。低位的输出结果精度高而高位的输出精度往往较低,需要长时间训练才能达到理想的精度,导致效率低,尤其是当网络规模大时高位输出的精度受限。
发明内容
本申请提供一种光学全加器及其神经网络设计方法、设备及介质,以解决相关技术采用神经元在空间上均匀排布的方法会导致输出结果的精度分布不均,且需要长时间训练才能达到理想的精度,效率低等问题。
本申请第一方面实施例提供一种光学全加器,包括:目标神经网络,用于对输入数据进行逻辑运算,得到运算结果,其中,所述目标神经网络包括输入层、隐藏层和输出层,所述输入层包含多个输入端口,用于接收输入数据,所述输出层包含多个输出端口,用于输出运算结果,所述隐藏层用于对输入的数据进行逻辑运算,所述隐藏层包括多层,每层隐藏层为一条衍射线,每条衍射线上具有多个衍射槽,优先级高的输出端口对应的隐藏层中衍射槽之间的间距小于优先级低的输出端口对应的隐藏层中衍射槽之间的间距。
可选地,在本申请的一个实施例中,每一个或多个衍射槽对应所述目标神经网络中的一个神经元。
可选地,在本申请的一个实施例中,所述每个衍射隐藏层中衍射槽的长度与所述每个衍射隐藏层中神经元的权重参数匹配。
可选地,在本申请的一个实施例中,所述目标神经网络包括衍射神经网络、干涉神经网络和散射神经网络中的一种或多种光学神经网络。
本申请第二方面实施例提供一种光学全加器的神经网络设计方法,所述光学全加器中目标神经网络包括隐藏层,且所述隐藏层包括多层,包括以下步骤:获取所述隐藏层的每层中不同位置神经元的期望计算特征和输出端口优先级;根据所述期望计算特征和所述输出端口的优先级匹配所述隐藏层中衍射槽之间的设计间距,其中,优先级高的输出端口对应的衍射槽之间的设计间距小于优先级低的输出端口对应的衍射槽之间的设计间距;根据所述隐藏层的每层中衍射槽之间的设计间距生成所述目标神经网络的设计方案,基于所述设计方案实现所述目标神经网络的设计。
可选地,在本申请的一个实施例中,每一个或多个衍射槽对应所述目标神经网络中的一个神经元。
可选地,在本申请的一个实施例中,所述根据所述隐藏层的每层中衍射槽之间的设计间距生成所述目标神经网络的设计方案,还包括:获取所述隐藏层的每层中不同位置神经元的权重参数;根据所述隐藏层的每层中不同位置神经元的权重参数匹配所述隐藏层的每层中衍射槽的设计长度;根据所述隐藏层的每层中衍射槽的设计长度和衍射槽之间的设计间距生成所述目标神经网络的设计方案。
可选地,在本申请的一个实施例中,所述目标神经网络包括衍射神经网络、干涉神经网络和散射神经网络中的一种或多种光学神经网络。
本申请第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的光学全加器的神经网络设计方法。
本申请第四方面实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以用于实现如上述实施例所述的光学全加器的神经网络设计方法。
由此,本申请至少具有如下有益效果:
本申请实施例可以通过神经网络端到端的直接映射实现运算,通过对应输出层计算结果的位数从高到低,所连接或间接连接的隐藏层神经元个数也按照对应的从高到低进行排布,从而提高高位输出的计算准确度和计算精度,减少训练时间。由此,解决了相关技术采用神经元在空间上均匀排布的方法会导致输出结果的精度分布不均,且需要长时间训练才能达到理想的精度,效率低等问题。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请实施例提供的一种光学全加器的方框示意图;
图2为根据本申请实施例的基于衍射神经网络的光电全加器设计示意图;
图3为根据本申请实施例提供的一种光学全加器的神经网络设计方法的流程图;
图4为根据本申请实施例的电子设备的结构示意图。
附图标记说明:多个输入端口-100、多个输出端口-200、目标神经网络的处理器-300、存储器-401、处理器-402、通信接口-403。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的光学全加器及其神经网络设计方法、设备及介质。针对上述背景技术中提到的问题,本申请提供了一种光学全加器,通过神经网络端到端的直接映射实现运算,通过对应输出层计算结果的位数从高到低,所连接或间接连接的隐藏层神经元个数也按照对应的从高到低进行排布,从而提高高位输出的计算准确度和计算精度,减少训练时间。由此,解决了相关技术采用神经元在空间上均匀排布的方法会导致输出结果的精度分布不均,且需要长时间训练才能达到理想的精度,效率低等问题。
具体而言,图1为本申请实施例所提供的一种光学全加器的方框示意图。
如图1所示,该光学全加器包括:目标神经网络100,其中,目标神经网络包括输入层101、隐藏层102和输出层103。
其中,目标神经网络100,用于对输入的数据进行逻辑运算,得到运算结果,其中,目标神经网络包括输入层101、隐藏层102和输出层103,输入层101包含多个输入端口,用于接收多个输入端口输入的数据,输出层103包含多个输出端口,用于输出运算结果,隐藏层102用于对输入的数据进行逻辑运算,隐藏层包括多层,隐藏层的每层为一条衍射线,每条衍射线上具有多个衍射槽,优先级高的输出端口对应的隐藏层中衍射槽之间的间距小于优先级低的输出端口对应的隐藏层中衍射槽之间的间距。
如图2所示,以衍射神经网络为例的2比特全加器,全加器输入层有5个端口,包括被加项B2B1和A2A1,以及进位输入项Cin,输出层有3个端口,包括求和项S2S1和进位输出项Cout。输入端口的从高位到低位的排序依次是B2,A2,B1,A1,Cin,而输出端口的从高位到低位的排序依次为Cout,S2,S1
在本申请实施例中,目标神经网络包括但不限于衍射神经网络、干涉神经网络和散射神经网络。面向全加器计算功能的神经网络,由于存在从低位向高位进位的计算逻辑,最低位的输入也会影响最高位的输出,而高位的输入不会对低位的输出有影响。因此如果在同样训练强度下,高位输出的计算需要更多的计算资源,而低位输出的计算资源相比需要的计算资源更少。本申请实施例可以通过神经网络端到端的直接映射实现运算,通过对应输出层计算结果的位数从高到低,所连接或间接连接的隐藏层神经元个数也按照对应的从高到低进行排布,即神经元的非均匀排布,从而降低训练复杂度,实现计算资源的差异性分配提高计算精度和准确度。
在本申请的一个实施例中,每一个或多个衍射槽对应目标神经网络中的一个神经元,每个衍射隐藏层中衍射槽的长度与每个衍射隐藏层中神经元的权重参数匹配。
在上述实施例的基础上,以衍射神经网络为例的2比特全加器由三个衍射隐藏层组成,每个隐藏层有多个衍射槽组成,每个衍射槽是网络中的一个神经元,神经元的权重参数由衍射槽的长度来定义。本申请实施例的重点在于隐藏层神经元密度,即单个输出层神经元连接的隐藏层神经元个数,按照输出层神经元对应的端口排序从高到低进行排布。高位的神经元密度更高,在图2中神经网络的示例中的物理实现为衍射槽之间的间距更小,进行的权重计算更多,从而实现更加精确的计算。
根据本申请实施例提出的光学全加器,通过神经网络端到端的直接映射实现运算,通过对应输出层计算结果的位数从高到低,所连接或间接连接的隐藏层神经元个数也按照对应的从高到低进行排布,从而提高高位输出的计算准确度和计算精度,减少训练时间。由此,解决了相关技术采用神经元在空间上均匀排布的方法会导致输出结果的精度分布不均,且需要长时间训练才能达到理想的精度,效率低等问题。
其次参照附图描述根据本申请实施例提出的一种光学全加器的神经网络设计方法,光学全加器包括与每个隐藏层对应连接输出端口。
图3是本申请实施例的一种光学全加器的神经网络设计方法的流程图。
如图3所示,该光学全加器的神经网络设计方法,包括以下步骤:
在步骤S301中,获取隐藏层的每层中不同位置神经元的期望计算特征和输出端口优先级。
可以理解的是,由于全加器具有从低位逐级向高位进位的特征,即最低位的输入也可能影响最高位的输出,而高位输入对低位的输出并无影响,因此,输出层高位的信号经过的隐藏层的神经元密度高,权重参数更多,计算更充分,而低位输出信号对应的神经元密度低,也可以满足计算精度需求。因此,本申请的实施例可以获取隐藏层的每层中不同位置神经元的期望计算特征和输出端口优先级,根据计算特征差异化排布神经元的设计方法可以同时实现高位和低位输出的高精度拟合,降低训练复杂度,从而减少训练时间,提高网络训练的效率,进而实现高能效的全加运算,将有效提高系统的性能,降低功耗,实现能量效率的指数级增长。
在步骤S302中,根据期望计算特征和输出端口的优先级匹配隐藏层中衍射槽之间的设计间距,其中,优先级高的输出端口对应的衍射槽之间的设计间距小于优先级低的输出端口对应的衍射槽之间的设计间距;根据隐藏层的每层中衍射槽之间的设计间距生成目标神经网络的设计方案,基于设计方案实现目标神经网络的设计。
其中,目标神经网络包括但不限于衍射神经网络、干涉神经网络和散射神经网络,每一个或多个衍射槽对应目标神经网络中的一个神经元。
具体而言,本申请实施例的重点在于隐藏层神经元密度,即单个输出层神经元直接或间接连接的隐藏层神经元个数,按照输出层神经元对应的端口排序从高到低进行排布。高位的神经元密度更高,在图2所示的神经网络的示例中的物理实现为衍射槽之间的间距更小,进行的权重计算更多,从而实现更加精确的计算。
在本申请的一个实施例中,根据隐藏层的每层中衍射槽之间的设计间距生成目标神经网络的设计方案,还包括:获取隐藏层的每层中不同位置神经元的权重参数;根据隐藏层的每层中不同位置神经元的权重参数匹配隐藏层的每层中衍射槽的设计长度;根据隐藏层的每层中衍射槽的设计长度和衍射槽之间的设计间距生成目标神经网络的设计方案。
可以理解的是,本申请实施例可以根据每个衍射隐藏层中神经元的权重参数匹配每个衍射隐藏层中衍射槽的设计长度,从而完成目标神经网络的设计方案。如图2所示,Cout的位次最高,因此连接的隐藏层神经元数目最多,从神经元的排布来说单位面积密度也最高,输出层高位的信号经过的隐藏层的神经元密度高,权重参数更多,而S2,S1逐级减少。这只是本申请实施例的其中一种排布方式的具体示例,具体每一条衍射线即隐藏层的神经元排布有所不同。例如,也可以三条衍射线都设计为第二层这样,同样也满足最高位输出连接神经元密度更高的要求。
需要说明的是,本申请实施例光学全加器的神经网络的设计方法可以适用于不同的神经网络实现方式,包括但不限于衍射神经网络、干涉神经网络、散射神经网络。对于其他光学神经网络,神经元非均匀排布的具体物理实现可能会有所不同,但是都可以根据计算特征对隐藏层神经元排布密度进行差异化,从而实现全部输出端口的高精度计算,同时能在满足精度要求的同时,大幅降低神经网络的训练复杂度,从而减少训练时间,提高训练效率,尤其是针对大规模神经网络训练,性能提升更为明显。
需要说明的是,前述对光学全加器实施例的解释说明也适用于该实施例的光学全加器的神经网络设计方法,此处不再赘述。
根据本申请实施例提出的光学全加器的神经网络设计方法,通过神经网络端到端映射实现全加器的运算功能,根据计算特征对神经元进行特异性非均一排布可以实现全部输出端口的高精度计算,同时能在满足精度要求的同时,大幅降低神经网络的训练复杂度,从而减少训练时间,提高训练效率,由此,解决了相关技术采用神经元在空间上均匀排布的方法会导致输出结果的精度分布不均,且需要长时间训练才能达到理想的精度,效率低等问题。
图4为本申请实施例提供的电子设备的结构示意图。该电子设备可以包括:
存储器401、处理器402及存储在存储器401上并可在处理器402上运行的计算机程序。
处理器402执行程序时实现上述实施例中提供的光学全加器的神经网络设计方法。
进一步地,电子设备还包括:
通信接口403,用于存储器401和处理器402之间的通信。
存储器401,用于存放可在处理器402上运行的计算机程序。
存储器401可能包含高速RAM(Random Access Memory,随机存取存储器)存储器,也可能还包括非易失性存储器,例如至少一个磁盘存储器。
如果存储器401、处理器402和通信接口403独立实现,则通信接口403、存储器401和处理器402可以通过总线相互连接并完成相互间的通信。总线可以是ISA(IndustryStandard Architecture,工业标准体系结构)总线、PCI(Peripheral Component,外部设备互连)总线或EISA(Extended Industry Standard Architecture,扩展工业标准体系结构)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器401、处理器402及通信接口403,集成在一块芯片上实现,则存储器401、处理器402及通信接口403可以通过内部接口完成相互间的通信。
处理器402可能是一个CPU(Central Processing Unit,中央处理器),或者是ASIC(Application Specific Integrated Circuit,特定集成电路),或者是被配置成实施本申请实施例的一个或多个集成电路。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的光学全加器的神经网络设计方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不是必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列,现场可编程门阵列等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (8)

1.一种光学全加器,其特征在于,包括:
目标神经网络,用于对输入的数据进行逻辑运算,得到运算结果,其中,所述目标神经网络包括输入层、隐藏层和输出层,所述输入层包含多个输入端口,用于输入数据,所述输出层包含多个输出端口,用于输出运算结果,所述隐藏层用于对输入的数据进行逻辑运算,所述隐藏层包括多层,每层隐藏层为一条衍射线,每条衍射线上具有多个衍射槽,优先级高的输出端口对应的隐藏层中衍射槽之间的间距小于优先级低的输出端口对应的隐藏层中衍射槽之间的间距;
所述目标神经网络包括衍射神经网络、干涉神经网络和散射神经网络中的一种或多种光学神经网络。
2.根据权利要求1所述的光学全加器,其特征在于,每一个或多个衍射槽对应所述目标神经网络中的一个神经元。
3.根据权利要求2所述的光学全加器,其特征在于,所述每层隐藏层中衍射槽的长度与所述每层隐藏层中神经元的权重参数匹配。
4.一种光学全加器的神经网络设计方法,其特征在于,所述光学全加器中目标神经网络包括隐藏层,且所述隐藏层包括多层,其中,所述方法包括以下步骤:
获取所述隐藏层的每层中不同位置神经元的期望计算特征和输出端口优先级;
根据所述期望计算特征和所述输出端口的优先级匹配所述隐藏层中衍射槽之间的设计间距,其中,优先级高的输出端口对应的衍射槽之间的设计间距小于优先级低的输出端口对应的衍射槽之间的设计间距;
根据所述隐藏层的每层中衍射槽之间的设计间距生成所述目标神经网络的设计方案,基于所述设计方案实现所述目标神经网络的设计;
所述目标神经网络包括衍射神经网络、干涉神经网络和散射神经网络中的一种或多种光学神经网络。
5.根据权利要求4所述的方法,其特征在于,每一个或多个衍射槽对应所述目标神经网络中的一个神经元。
6.根据权利要求4所述的方法,其特征在于,所述根据所述隐藏层的每层中衍射槽之间的设计间距生成所述目标神经网络的设计方案,还包括:
获取所述隐藏层的每层中不同位置神经元的权重参数;
根据所述隐藏层的每层中不同位置神经元的权重参数匹配所述隐藏层的每层中衍射槽的设计长度;
根据所述隐藏层的每层中衍射槽的设计长度和衍射槽之间的设计间距生成所述目标神经网络的设计方案。
7.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如权利要求4-6任一项所述的光学全加器的神经网络设计方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以用于实现如权利要求4-6任一项所述的光学全加器的神经网络设计方法。
CN202211063558.5A 2022-09-01 2022-09-01 光学全加器及其神经网络设计方法、设备及介质 Active CN115358381B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211063558.5A CN115358381B (zh) 2022-09-01 2022-09-01 光学全加器及其神经网络设计方法、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211063558.5A CN115358381B (zh) 2022-09-01 2022-09-01 光学全加器及其神经网络设计方法、设备及介质

Publications (2)

Publication Number Publication Date
CN115358381A CN115358381A (zh) 2022-11-18
CN115358381B true CN115358381B (zh) 2024-05-31

Family

ID=84005287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211063558.5A Active CN115358381B (zh) 2022-09-01 2022-09-01 光学全加器及其神经网络设计方法、设备及介质

Country Status (1)

Country Link
CN (1) CN115358381B (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1094831A (zh) * 1993-03-03 1994-11-09 菲利浦电子有限公司 具有空间分布功能性的神经网络
KR19980074455A (ko) * 1997-03-25 1998-11-05 윤종용 신경회로망 및 구현방법
CN106022468A (zh) * 2016-05-17 2016-10-12 成都启英泰伦科技有限公司 人工神经网络处理器集成电路及该集成电路的设计方法
CN107073652A (zh) * 2014-10-24 2017-08-18 金泰克斯公司 减小烧蚀表面上的衍射效应
CN111832721A (zh) * 2019-04-15 2020-10-27 香港科技大学 全光学神经网络
CN112418403A (zh) * 2020-11-25 2021-02-26 清华大学 基于光学衍射原理和可编程器件的光学衍射计算处理器
CN113033796A (zh) * 2020-12-11 2021-06-25 北京信息科技大学 一种全光非线性衍射神经网络的图像识别方法
CN113592084A (zh) * 2021-07-23 2021-11-02 东南大学 基于反向优化超结构卷积核的片上光子神经网络
CN113644984A (zh) * 2021-10-14 2021-11-12 清华大学 光电数字逻辑运算的光学逻辑元件及其逻辑运算方法
CN113780258A (zh) * 2021-11-12 2021-12-10 清华大学 一种光电计算光场智能深度分类方法和装置
CN113822424A (zh) * 2021-07-27 2021-12-21 湖南大学 一种基于超构表面的全光衍射神经网络系统
CN113961035A (zh) * 2021-10-15 2022-01-21 北京理工大学 面向深度学习的高效能可重构全光神经网络计算芯片架构
CN114037070A (zh) * 2022-01-07 2022-02-11 苏州浪潮智能科技有限公司 光信号的处理方法、光子神经网络芯片及其设计方法
CN114353946A (zh) * 2021-12-29 2022-04-15 北京理工大学 一种衍射快照光谱成像方法
CN114519403A (zh) * 2022-04-19 2022-05-20 清华大学 基于片上衍射神经网络的光学图神经分类网络、方法
CN114647081A (zh) * 2022-03-31 2022-06-21 爱思菲尔光学科技(苏州)有限公司 基于神经网络的衍射光学元件及其设计方法
CN114819131A (zh) * 2022-05-12 2022-07-29 北京大学 一种基于光学片上超表面的光子衍射神经元及其实现方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11392830B2 (en) * 2018-04-13 2022-07-19 The Regents Of The University Of California Devices and methods employing optical-based machine learning using diffractive deep neural networks
WO2020102204A1 (en) * 2018-11-12 2020-05-22 Massachusetts Institute Of Technology Large-scale artificial neural-network accelerators based on coherent detection and optical data fan-out
US11488007B2 (en) * 2019-12-06 2022-11-01 International Business Machines Corporation Building of custom convolution filter for a neural network using an automated evolutionary process
US11860114B2 (en) * 2020-03-26 2024-01-02 David Hurwitz Determining atomic coordinates from X-ray diffraction data

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1094831A (zh) * 1993-03-03 1994-11-09 菲利浦电子有限公司 具有空间分布功能性的神经网络
KR19980074455A (ko) * 1997-03-25 1998-11-05 윤종용 신경회로망 및 구현방법
CN107073652A (zh) * 2014-10-24 2017-08-18 金泰克斯公司 减小烧蚀表面上的衍射效应
CN106022468A (zh) * 2016-05-17 2016-10-12 成都启英泰伦科技有限公司 人工神经网络处理器集成电路及该集成电路的设计方法
CN111832721A (zh) * 2019-04-15 2020-10-27 香港科技大学 全光学神经网络
CN112418403A (zh) * 2020-11-25 2021-02-26 清华大学 基于光学衍射原理和可编程器件的光学衍射计算处理器
CN113033796A (zh) * 2020-12-11 2021-06-25 北京信息科技大学 一种全光非线性衍射神经网络的图像识别方法
CN113592084A (zh) * 2021-07-23 2021-11-02 东南大学 基于反向优化超结构卷积核的片上光子神经网络
CN113822424A (zh) * 2021-07-27 2021-12-21 湖南大学 一种基于超构表面的全光衍射神经网络系统
CN113644984A (zh) * 2021-10-14 2021-11-12 清华大学 光电数字逻辑运算的光学逻辑元件及其逻辑运算方法
CN113961035A (zh) * 2021-10-15 2022-01-21 北京理工大学 面向深度学习的高效能可重构全光神经网络计算芯片架构
CN113780258A (zh) * 2021-11-12 2021-12-10 清华大学 一种光电计算光场智能深度分类方法和装置
CN114353946A (zh) * 2021-12-29 2022-04-15 北京理工大学 一种衍射快照光谱成像方法
CN114037070A (zh) * 2022-01-07 2022-02-11 苏州浪潮智能科技有限公司 光信号的处理方法、光子神经网络芯片及其设计方法
CN114647081A (zh) * 2022-03-31 2022-06-21 爱思菲尔光学科技(苏州)有限公司 基于神经网络的衍射光学元件及其设计方法
CN114519403A (zh) * 2022-04-19 2022-05-20 清华大学 基于片上衍射神经网络的光学图神经分类网络、方法
CN114819131A (zh) * 2022-05-12 2022-07-29 北京大学 一种基于光学片上超表面的光子衍射神经元及其实现方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Toward Fast Neural Computing using All-Photonic Phase Change Spiking Neurons;Indranil Chakraborty;《SCIENTIFIC REPORTS》;20180828;全文 *
基于10.6微米全光深度神经网络衍射光栅的设计与实现;牛海莎;《红外与毫米波学报》;20200215;第39卷(第1期);全文 *
基于域理论的自适应谐振神经网络研究;周志华, 陈兆乾, 陈世福;南京大学学报(自然科学版);20000330(02);全文 *

Also Published As

Publication number Publication date
CN115358381A (zh) 2022-11-18

Similar Documents

Publication Publication Date Title
TWI701612B (zh) 用於神經網路中激勵函數的電路系統及其處理方法
Ahmad et al. FFConv: an FPGA-based accelerator for fast convolution layers in convolutional neural networks
CN113590195B (zh) 支持浮点格式乘加的存算一体化dram计算部件
US20230221924A1 (en) Apparatus and Method for Processing Floating-Point Numbers
US20240126507A1 (en) Apparatus and method for processing floating-point numbers
Yan et al. FPGAN: an FPGA accelerator for graph attention networks with software and hardware co-optimization
CN103279323A (zh) 一种加法器
Li et al. Research and implementation of parallel artificial fish swarm algorithm based on ternary optical computer
CN111931441B (zh) Fpga快速进位链时序模型的建立方法、装置以及介质
CN115358381B (zh) 光学全加器及其神经网络设计方法、设备及介质
Zhan et al. Field programmable gate array‐based all‐layer accelerator with quantization neural networks for sustainable cyber‐physical systems
CN115358389A (zh) 神经网络的训练误差降低方法、装置、电子设备及介质
CN115061825A (zh) 隐私计算、隐私数据和联邦学习的异构计算系统及方法
Yang et al. Accelerating Backward Convolution of Convolutional Neural Networks on BWDSP
CN110059814A (zh) 一种基于fpga的查找表式卷积运算硬件结构
CN115857873B (zh) 乘法器、乘法计算方法、处理系统及存储介质
Jangamreddy A Survey on Specialised Hardware for Machine Learning
Agharass et al. Hardware software co-design based CPU-FPGA architecture: Overview and evaluation
WO2022126630A1 (zh) 可重构处理器及其上多种神经网络激活函数计算方法
Zheng et al. Exploring Multiple Dimensions of Parallelism in Junction Tree Message Passing.
US20230385624A1 (en) Computing in memory with artificial neurons
Cao et al. A Cordic-based Acceleration Method on FPGA for CNN Normalization layer
CN115358391A (zh) 神经网络的规模拓展方法、装置、电子设备及存储介质
Chen et al. High-Performance Hardware Accelerator with Medium Granularity Dataflow for SpTRSV
CN113592067A (zh) 一种用于卷积神经网络的可配置型卷积计算电路

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant