CN113641210B - 用于消息散列算法中消息压缩的光电集成电路 - Google Patents
用于消息散列算法中消息压缩的光电集成电路 Download PDFInfo
- Publication number
- CN113641210B CN113641210B CN202111186239.9A CN202111186239A CN113641210B CN 113641210 B CN113641210 B CN 113641210B CN 202111186239 A CN202111186239 A CN 202111186239A CN 113641210 B CN113641210 B CN 113641210B
- Authority
- CN
- China
- Prior art keywords
- optical
- micro
- input
- diffraction
- nano
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06E—OPTICAL COMPUTING DEVICES; COMPUTING DEVICES USING OTHER RADIATIONS WITH SIMILAR PROPERTIES
- G06E3/00—Devices not provided for in group G06E1/00, e.g. for processing analogue or hybrid data
- G06E3/001—Analogue devices in which mathematical operations are carried out with the aid of optical or electro-optical elements
- G06E3/005—Analogue devices in which mathematical operations are carried out with the aid of optical or electro-optical elements using electro-optical or opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/067—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
- G06N3/0675—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means using electro-optical, acousto-optical or opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Nonlinear Science (AREA)
- Neurology (AREA)
- Optics & Photonics (AREA)
- Optical Communication System (AREA)
Abstract
本申请涉及电数字数据处理技术领域,特别涉及一种用于消息散列算法中消息压缩的光电集成电路,光电集成电路上集成设置有第一至第N级光学神经网络和光电探测器阵列,其中,第一至第N级光学神经网络,用于对通过波导并行输入的多路初始光信号按照从第一至第N级逐级进行消息散列算法中的消息压缩运算,其中,通过每级光学神经网络对加载至多路初始光信号的消息进行消息压缩运算,并逐级压缩至满足压缩条件的最终光信号;光电探测器阵列,用于将最终光信号转换成用于携带消息压缩结果的电信号。由此,解决了相关技术中基于硬件电路实现消息散列算法的每轮运算时动态翻转功耗较大,导致消息压缩时功耗大,降低运算性能等问题。
Description
技术领域
本申请涉及电数字数据处理技术领域,特别涉及一种用于消息散列算法中消息压缩的光电集成电路。
背景技术
消息散列算法也可以称为SHA(Secure Hash Algorithm,安全散列算法),能计算出一个数字消息所对应的长度固定的消息摘要,常应用于数字签名和数据完整性检查。
由于消息散列算法通常是由软件来实现运算,导致中间值可能会被截取的风险,明文可能会被反推出来,同时软件的计算速率低,因此相关技术中通过硬件电路比如ASIC(Application Specific Integrated Circuit,专用集成电路)和GPU(GraphicsProcessing Unit,图形处理器)等实现消息散列算法的运算。
其中,消息散列算法通常需要进行多轮运算,每轮运算可分为消息扩展和消息压缩两部分,且每轮运算的功耗主要在消息压缩上。然而,相关技术中基于单纯电路实现消息散列算法的每轮运算时动态翻转功耗较大,导致消息压缩时功耗大的同时,也会大大降低运算性能。
发明内容
本申请提供一种用于消息散列算法中消息压缩的光电集成电路,以解决相关技术中基于单纯电路实现消息散列算法的每轮运算时动态翻转功耗较大,导致消息压缩时功耗大,降低运算性能等问题。
本申请实施例提供一种用于消息散列算法中消息压缩的光电集成电路,光电集成电路上集成设置有第一至第N级光学神经网络和光电探测器阵列,其中,所述第一至第N级光学神经网络,用于对通过波导并行输入的多路初始光信号按照从第一至第N级逐级进行消息散列算法中的消息压缩运算,其中,通过每级光学神经网络对加载至所述多路初始光信号的消息进行消息压缩运算,并逐级压缩至满足压缩条件的最终光信号;所述光电探测器阵列,用于将所述最终光信号转换成用于携带消息压缩结果的电信号。
进一步地,所述第一至第N级光学神经网络中每级光学神经网络均包括第一至第十路输入端和第一至第八路输出端,所有相邻级光学神经网络的第一至第八路的输出端与输入端之间通过光纤对应相连,第一级光学神经网络的第一至第八路输入端用于接收通过波导并行输入的第一至第八初始光信号,每级光学神经网络的第九输入端用于接收通过波导并行输入的第九初始光信号、第十输入端用于接收通过波导并行输入的第十初始光信号。
进一步地,每级光学神经网络均还包括第一至第六微纳光学衍射线阵列,且第一至第四微纳光学衍射线阵列均包括第一至第三输入端和输出端,第五至第六微纳光学衍射线阵列均包括第一至第二输入端和输出端,其中,在每级光学神经网络中:第一微纳光学衍射线阵列的第一输入端与第五路输入端之间通过光纤相连、第二输入端与第八路输入端之间通过光纤相连、第三输入端与第九路输入端之间通过光纤相连,所述第一微纳光学衍射线阵列的输出端与第四微纳光学衍射线阵列的第二输入端之间通过光纤相连,用于通过所述第一微纳光学衍射线阵列的第一预设衍射图样对第五路输入光信号、第八路输入光信号和第九路输入光信号进行第一衍射运算,并将衍射运算得到第一衍射光信号输入至所述第四微纳光学衍射线阵列;第二微纳光学衍射线阵列的第一输入端与第五路输入端之间通过光纤相连、第二输入端与第六路输入端之间通过光纤相连、第三输入端与第七路输入端之间通过光纤相连,所述第二微纳光学衍射线阵列的输出端与第四微纳光学衍射线阵列的第一输入端之间通过光纤相连,用于通过所述第二微纳光学衍射线阵列的第二预设衍射图样对第五路输入光信号、第六路输入光信号和第七路输入光信号进行第二衍射运算,并将衍射运算得到第二衍射光信号输入至所述第四微纳光学衍射线阵列;第三微纳光学衍射线阵列的第一输入端与第一路输入端之间通过光纤相连、第二输入端与第二路输入端之间通过光纤相连、第三输入端与第三路输入端之间通过光纤相连,所述第三微纳光学衍射线阵列的输出端与第五微纳光学衍射线阵列的第一输入端之间通过光纤相连,用于通过所述第三微纳光学衍射线阵列的第三预设衍射图样对第一路输入光信号、第二路输入光信号和第三路输入光信号进行第三衍射运算,并将衍射运算得到第三衍射光信号输入至所述第五微纳光学衍射线阵列;所述第四微纳光学衍射线阵列第三输入端与第十路输入端之间通过光纤相连,所述第三微纳光学衍射线阵列的输出端分别与所述第五微纳光学衍射线阵列的第二输入端之间和第六微纳光学衍射线阵列的第二输入端之间通过光纤相连,用于通过所述第四微纳光学衍射线阵列的第四预设衍射图样对第一衍射光信号、第二衍射光信号和第十路输入光信号进行第四衍射运算,并将衍射运算得到第四衍射光信号输入至所述第五微纳光学衍射线阵列和所述第六微纳光学衍射线阵列;所述第五微纳光学衍射线阵列的输出端与第一路输出端相连,用于通过所述第五微纳光学衍射线阵列的第五预设衍射图样对第三衍射光信号和第四衍射光信号进行第五衍射运算,并将衍射运算得到第五衍射光信号输入至所述第一路输出端;所述第六微纳光学衍射线阵列的第一输入端与第四路输入端相连,所述第六微纳光学衍射线阵列的输出端与第五路输出端相连,用于通过所述第六微纳光学衍射线阵列的第六预设衍射图样对第四衍射光信号和第四路输入光信号进行第六衍射运算,并将衍射运算得到第六衍射光信号输入至所述第五路输出端。
进一步地,所述第一衍射运算为:S2= h +K+∑1(e),其中,e表示所述第五路输入光信号,h表示所述第八路输入光信号,K表示所述第九路输入光信号,∑1( )表示消息散列算法第一固定位移重新映射函数,S2表示所述第一衍射光信号;所述第二衍射运算为:S1=Ch(e,f,g),其中,f表示所述第六路输入光信号,g表示第七路输入光信号,Ch( )表示选择函数Ch(x,y,z)=(x⋀y)⊕(¬ x⋀z),其中⋀表示按位与,¬表示按位取反,S1表示所述第二衍射光信号;所述第三衍射运算为:T2=∑0(a)+Maj(a,b,c),其中,a表示第一路输入光信号,b表示所述第二路输入光信号,c表示所述第三路输入光信号,∑0 ( )表示消息散列算法第二固定位移重新映射函数,Maj( )表示取多数函数Maj(a,b,c)=(x⋀y)⊕(x⋀z)⊕(y⋀z),T2表示所述第三衍射光信号;所述第四衍射运算为:T1=S1+S2+W,其中,W表示所述第十路输入光信号,T1表示所述第四衍射光信号;所述第五衍射运算为:A=T1+T2,A表示第四衍射光信号;所述第六衍射运算为:E=d+T1,其中,d表示所述第四路输入光信号,E表示所述第六衍射光信号。
进一步地,在每级光学神经网络中:第一路输入端通过光纤与第二路输出端相连,第二路输入端通过光纤与第三路输出端相连,第三路输入端通过光纤与第四路输出端相连,第五路输入端通过光纤与第六路输出端相连,第六路输入端通过光纤与第七路输出端相连,第七路输入端通过光纤与第八路输出端相连。
可选地,所述光电集成电路上还集成设置有第一传输组件和第二传输组件,所述第一传输组件和所述第二传输组件设置于相邻级光学神经网络之间,所述第一传输组件用于对输出端输出的光信号进行信号衰减,以保持各路光信号的强度一致,所述第二传输组件用于对输出端输出的光信号进行信号延迟,以保持各路光信号的时序同步,其中,所述第一传输组件包括多个光衰减器,所述第二传输组件包括多个光延迟器。
可选地,所述光电集成电路上集成设置有第三传输组件,所述第三传输组件用于对中继级光学神经网络的输出端输出的光信号进行幅度调节,其中,所述中继级光学神经网络为第二至第N-1级光学神经网络中任意一级光学神经网络,所述第三传输组件包括多个光放大器。
进一步地,所述光电集成电路上还集成设置有计算组件,计算组件包括第七微纳光学衍射线阵列至第十四微纳光学衍射线阵列,所述计算组件中每个微纳光学衍射线阵列均包括第一至第二输入端和输出端,第N级光学神经网络的第一至第八路输出端与所述第七至第十四微纳光学衍射线阵列的第二输入端之间均通过光纤对应相连,所述第七至第十四微纳光学衍射线阵列的第一输入端用于接收通过波导并行输入的第一至第八初始光信号,并通过所述第七至第十四微纳光学衍射线阵列的第七至第十四预设衍射图样分别对第一至第八初始光信号和所述第N级光学神经网络的第一至第八路输出端的输出光信号进行第七衍射运算,以衍射运算得到八路最终光信号。
进一步地,所述第七衍射运算为:M=n+r,其中,M为最终光信号,n为所述第N级光学神经网络的第一至第八路中任意一路输出端的输出光信号,r为所述第N级光学神经网络的任意一路输出端对应的第一至第八初始光信号中的初始光信号。
可选地,在第N级光学神经网络的输出端与所述计算组件之间设置有所述第一传输组件。
由此,本申请至少具有如下有益效果:
通过集成设置的多级光学神经网络对光信号携带的消息进行消息散列算法的消息压缩运算,可以有效降低压缩运算时的功耗,大幅提升能量效率,并提升运算性能,相比较单纯电路实现具有更低的功耗及更高的性能。由此,解决了相关技术中基于单纯电路实现消息散列算法的每轮运算时动态翻转功耗较大,导致消息压缩时功耗大,降低运算性能等问题。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请实施例提供的用于消息散列算法中消息压缩的光电集成电路的结构示意图;
图2为根据本申请一个实施例提供的图1中光学神经网络的结构示意图;
图3为根据本申请一个实施例提供的图1中T部分的放大图;
图4为根据本申请一个实施例提供的光学神经网络的运算流程图;
图5为根据本申请一个实施例提供的光学神经网络的简化图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
传统安全散列算法大多是软件来实现的,具有中间值可能会被截取的风险,导致明文可能会被反推出来,同时软件的计算速率低。通过硬件电路ASIC和GPU可以克服这些缺点,但是随着摩尔定律的放缓甚至走向终结,基于传统集成电路工艺的硬件电路面临着性能和能效的瓶颈。光电计算技术具有高性能、低功耗等优势,有潜力解决目前安全散列算法实现所面临的算力和功耗瓶颈。
SHA-224,SHA-256,SHA-384和SHA-512并称为SHA-2,其中,SHA-256算法需要进行64轮运算,每轮运算可分为消息扩展和消息压缩两部分,且SHA-256算法实现的功耗主要消耗在消息压缩上,也是需要优化的重点目标。然而,现有的高吞吐率SHA-256算法通常基于寄存器或锁存器的全流水硬件电路实现,动态翻转功耗较大,因此,基于传统集成电路工艺的硬件电路的性能也受限于功耗的严苛要求。
为此,本申请实施例提供了一种用于消息散列算法中消息压缩的光电集成电路,通过集成设置的多级光学神经网络对光信号携带的消息进行消息散列算法的消息压缩运算,可以有效降低压缩运算时的电路功耗,大幅提升能量利用效率,并提升运算性能,相比较硬件电路具有更低的功耗及更高的性能。由此,解决了相关技术中基于硬件电路实现消息散列算法的每轮运算时动态翻转功耗较大,导致消息压缩时功耗大,降低运算性能等问题。
下面参考附图描述本申请实施例的用于消息散列算法中消息压缩的光电集成电路。
具体而言,图1为本申请实施例所提供的用于消息散列算法中消息压缩的光电集成电路的结构示意图。
如图1所示,该用于消息散列算法中消息压缩的光电集成电路上集成设置有第一级光学神经网络100-1至第N级光学神经网络100-N和光电探测器阵列200。
其中,第一级光学神经网络100-1至第N级光学神经网络100-N用于对通过波导并行输入的多路初始光信号按照从第一至第N级逐级进行消息散列算法中的消息压缩运算,其中,通过每级光学神经网络对加载至多路初始光信号的消息进行消息压缩运算,并逐级压缩至满足压缩条件的最终光信号;光电探测器阵列200用于将最终光信号转换成用于携带消息压缩结果的电信号。
可以理解的是,本申请实施例的光电集成电路是基于神经网络算法和消息散列算法消息压缩函数的算法特征设计的,消息处理的媒介采用相干光信号。按照消息传输的方向包括用于运算的多级光学神经网络,通过波导并行输入多路光信号,多级光学神经网络对输入的光信号进行逐级运算,每级实现消息压缩运算函数的一轮运算,其中,光学神经网络在配置时可以通过预先训练得到,每一级光学神经网络的输出输入至下一级光学神经网络,并在完成最后一级光学神经网络运算后,光电探测器阵列200将输出的光信号转成电信号作为光电集成电路的输出。
其中,压缩条件可以根据消息散列算法的类型确定,对此不作具体限定。不同的消息散列算法需要不同级数的流水线,消息散列算法可以包括SHA-224、SHA-256、SHA-384、SHA-512等,SHA-224和SHA-256需要64级流水线,SHA-384和SHA-512需要80级流水线,因此,SHA-224和SHA-256的压缩条件可以设置为在压缩运算的轮数达到64时,停止压缩运算;SHA-384和SHA-512的压缩条件可以设置为在压缩运算的轮数达到80时,停止压缩运算。
其中,一级光学神经网络可以理解为一级流水线,因此光学神经网络的集成数量可以根据消息散列算法的类型确定,比如N可以为64或80等,对此不作具体限定。
在本实施例中,第一级光学神经网络100-1至第N级光学神经网络100-N中每级光学神经网络均包括第一至第十路输入端和第一至第八路输出端,所有相邻级光学神经网络的第一至第八路的输出端与输入端之间通过光纤对应相连,第一级光学神经网络100-1的第一至第八路输入端用于接收通过波导并行输入的第一至第八初始光信号,每级光学神经网络的第九输入端用于接收通过波导并行输入的第九初始光信号、第十输入端用于接收通过波导并行输入的第十初始光信号。
如图1所示,相邻级光学神经网络的第一至第八路的输出端A-H与输入端a-h对应相连,以第一级和第二级光学神经网络为例,则第一级光学神经网络100-1的第一输出端A与第二级光学神经网络的第一输入端a相连,第一级光学神经网络100-1的第二输出端B与第二级光学神经网络的第二输入端b相连,依次类推,第一级光学神经网络100-1的第八输出端H与第二级光学神经网络的第八输入端h相连。
可以理解的是,每级光学神经网络的第一输入端a至第八路输入端h用于接收通过波导并行输入光信号,其中,第一级光学神经网络100-1第一输入端a至第八路输入端h用于接收通过波导并行输入的第一至第八初始光信号,而第二至第N级光学神经网络100-N第一输入端a至第八路输入端h用于接收上一级输出端A-H输出的光信号。
其中,所有光学神经网络的第一至第九输入端接收的第一至第九初始光信号可以为常数光信号或变量光信号,对此不作具体限定;所有光学神经网络的第十输入端W接收的第十初始光信号是来自消息散列算法中消息扩展的光信号;以第一级光学神经网络100-1为例,第一级光学神经网络100-1输入的光信号包括但不限于从激光器产生由波导传输的常数光信号,由其他光电模块传输的变量光信号,由调制器将电学数字信息加载到激光器产生的变量光信号。
其中,每级神经网络的第九输入端输入的第九初始光信号不同,以第九初始光信号为常数光信号为例,虽然每级神经网络的第九输入端输入的是常数值,但是每级神经网络的第九输入端输入的常数值不同;每级神经网络的第十输入端W是接收来自消息扩展函数计算出来的变量,每一级神经网络的变量不同。
其中,第一级光学神经网络100-1输入的光信号可以为相干光信号,且根据不同的消息散列算法的要求,所有光学神经网络的每一路光信号均能够传输32位(SHA-224、SHA-256)或者64位(SHA-384、SHA-512)信号。
需要说明的是,每一级光学神经网络可以输入10路信号,输出8路满足一定计算规律的信号,光学神经网络可以有多种实现方式,具体实现类型包括但不限于光学衍射神经网络、光学干涉神经网络、光学散射神经网络,可以实现SHA256、SHA224、SHA512等消息散列算法的消息压缩。
以下实施例中,以光学衍射神经网络为例,光学衍射神经网络可以包括至少一个微纳衍射线阵列,比如光学衍射神经网络可以通过一个微纳衍射线阵列实现,也可以通过二十个微纳衍射线阵列相互连接实现,不做具体限定;在以下实施例中以图2所示的六个微纳衍射线阵列相互连接实现的光学衍射神经网络为例进行阐述,其中,图2所示光学神经网络可以用于SHA256算法的消息压缩,且以下实施例中以实现SHA-256消息压缩为例进行阐述。
在本实施例中,如图2所示,在每级光学神经网络中:第一路输入端a通过光纤与第二路输出端B相连,第二路输入端b通过光纤与第三路输出端C相连,第三路输入端c通过光纤与第四路输出端D相连,第五路输入端e通过光纤与第六路输出端F相连,第六路输入端f通过光纤与第七路输出端G相连,第七路输入端g通过光纤与第八路输出端H相连。
可以理解的是,每一级流水线的输出端B、C、D、F、G、H是从输入的a、b、c、e、f、g光纤直连得到光信号,输出端A和E是通过训练后光学神经网络得到相应的映射关系得到光信号,输出端A和E得到光信号的过程将在以下实施例中具体阐述。
在本实施例中,每级光学神经网络均还包括第一微纳光学衍射线阵列至第六微纳光学衍射线阵列,且第一微纳光学衍射线阵列至第四微纳光学衍射线阵列均包括第一至第三输入端和输出端,第五微纳光学衍射线阵列至第六微纳光学衍射线阵列均包括第一至第二输入端和输出端。
具体地,图1中所示的第一级光学神经网络100-1至第N级光学神经网络100-N中所有的光学神经网络的结构可以相同,任意一个光学神经网络的结构如图2所示,光学神经网络包括第一微纳光学衍射线阵列110至第六微纳光学衍射线阵列160,第一微纳光学衍射线阵列110至第四微纳光学衍射线阵列140的输入端在图2中从上到下依次为第一至第三输入端,第五微纳光学衍射线阵列150至第六微纳光学衍射线阵列160的输入端在图2中从上到下依次为第一和第二输入端。
需要说明的是,第一微纳光学衍射线阵列类型可以为T1S1,第二微纳光学衍射线阵列的类型可以为T1S2,第三微纳光学衍射线阵列的类型可以为T2,第四微纳光学衍射线阵列的类型可以为ADD3,第五微纳光学衍射线阵列和第六微纳光学衍射线阵列的类型可以为ADD2,其中,图2中表示微纳光学衍射线阵列的方框的深浅代表微纳光学衍射线阵列的类型,深浅程度相同的方框表示微纳光学衍射线阵列的类型相同。
在本实施例中,如图2所示,第一微纳光学衍射线阵列110的第一输入端与第五路输入端e之间通过光纤相连、第二输入端与第八路输入端h之间通过光纤相连、第三输入端与第九路输入端K之间通过光纤相连,第一微纳光学衍射线阵列110的输出端与第四微纳光学衍射线阵列140的第二输入端之间通过光纤相连,用于通过第一微纳光学衍射线阵列110的第一预设衍射图样对第五路输入光信号、第八路输入光信号和第九路输入光信号进行第一衍射运算,并将衍射运算得到第一衍射光信号输入至第四微纳光学衍射线阵列140;第二微纳光学衍射线阵列120的第一输入端与第五路输入端e之间通过光纤相连、第二输入端与第六路输入端f之间通过光纤相连、第三输入端与第七路输入端g之间通过光纤相连,第二微纳光学衍射线阵列120的输出端与第四微纳光学衍射线阵列140的第一输入端之间通过光纤相连,用于通过第二微纳光学衍射线阵列120的第二预设衍射图样对第五路输入光信号、第六路输入光信号和第七路输入光信号进行第二衍射运算,并将衍射运算得到第二衍射光信号输入至第四微纳光学衍射线阵列140;第三微纳光学衍射线阵列130的第一输入端与第一路输入端a之间通过光纤相连、第二输入端与第二路输入端b之间通过光纤相连、第三输入端与第三路输入端c之间通过光纤相连,第三微纳光学衍射线阵列130的输出端与第五微纳光学衍射线阵列150的第一输入端之间通过光纤相连,用于通过第三微纳光学衍射线阵列130的第三预设衍射图样对第一路输入光信号、第二路输入光信号和第三路输入光信号进行第三衍射运算,并将衍射运算得到第三衍射光信号输入至第五微纳光学衍射线阵列150;第四微纳光学衍射线阵列140第三输入端与第十路输入端W之间通过光纤相连,第三微纳光学衍射线阵列130的输出端分别与第五微纳光学衍射线阵列150的第二输入端之间和第六微纳光学衍射线阵列160的第二输入端之间通过光纤相连,用于通过第四微纳光学衍射线阵列140的第四预设衍射图样对第一衍射光信号、第二衍射光信号和第十路输入光信号进行第四衍射运算,并将衍射运算得到第四衍射光信号输入至第五微纳光学衍射线阵列150和第六微纳光学衍射线阵列160;第五微纳光学衍射线阵列150的输出端与第一路输出端A相连,用于通过第五微纳光学衍射线阵列150的第五预设衍射图样对第三衍射光信号和第四衍射光信号进行第五衍射运算,并将衍射运算得到第五衍射光信号输入至第一路输出端A;第六微纳光学衍射线阵列160的第一输入端与第四路输入端相连,第六微纳光学衍射线阵列160的输出端与第五路输出端E相连,用于通过第六微纳光学衍射线阵列160的第六预设衍射图样对第四衍射光信号和第四路输入光信号进行第六衍射运算,并将衍射运算得到第六衍射光信号输入至第五路输出端E。
需要说明的是,本申请实施例可以通过预先训练后的衍射神经网络实现相应的映射关系,并在微纳光学衍射线阵列衍射线上刻有特定的衍射图样,能够将输入至第一至第六微纳光学衍射线阵列的光信号计算成相应的特定比特光信号。因此,第一至第六预设衍射图样可以根据所要实现的映射关系预先设置,以使得第一至第六微纳光学衍射线阵列可以通过不同的衍射图样实现各自的映射关系。
其中,第一衍射运算为:S2= h +K+∑1(e),其中,e表示第五路输入光信号,h表示第八路输入光信号,K表示第九路输入光信号,∑1( )表示消息散列算法第一固定位移重新映射函数,S2表示第一衍射光信号;第二衍射运算为:S1=Ch(e,f,g),其中,f表示第六路输入光信号,g表示第七路输入光信号,Ch( )表示选择函数Ch(x,y,z)=(x⋀y)⊕(¬ x⋀z),其中⋀表示按位与,¬表示按位取反,S1表示第二衍射光信号;第三衍射运算为:T2=∑0(a)+Maj(a, b,c),其中,a表示第一路输入光信号,b表示第二路输入光信号,c表示第三路输入光信号,∑0 ( )表示消息散列算法第二固定位移重新映射函数,Maj( )表示取多数函数Maj(a,b, c)=(x⋀y)⊕(x⋀z)⊕(y⋀z),T2表示第三衍射光信号;第四衍射运算为:T1=S1+S2+W,其中,W表示第十路输入光信号,T1表示第四衍射光信号;第五衍射运算为:A=T1+T2,A表示第四衍射光信号;第六衍射运算为:E=d+T1,其中,d表示第四路输入光信号,E表示第六衍射光信号。
可选地,在本实施例中,第一传输组件和第二传输组件设置于相邻级光学神经网络之间,第一传输组件用于对输出端输出的光信号进行信号衰减,以保持各路光信号的强度一致,第二传输组件用于对输出端输出的光信号进行信号延迟,以保持各路光信号的时序同步,其中,第一传输组件包括多个光衰减器,第二传输组件包括多个光延迟器。
可以理解的是,本申请实施例可以在各级光学神经网络之间可以通过加入光衰减器来实现各路光信号的光强一致性,并且可以在各级光学神经网络之间可以通过加入光延迟器来实现信号同步。其中,光衰减器包括但不限于金属,量子点,量子阱,直接带隙吸收材料等;光延迟器包括但不限于波导延迟线,相位调制器等。
需要说明的是,为了保持各路光强一致、信号同步,本申请实施例可以在任意需要的两级光学神经网络之间放置第一传输组件和第二传输组件,对此不作具体限定。第一传输组件和第二传输组件在两级光学神经网络之间设置的位置不作具体限定,比如,输出端输出的光信号可以先通过第一传输组件、再通过第二传输组件,或者先通过第二传输组件、再通过第一传输组件。第一传输组件包括的光衰减器和第二传输组件包括的光延迟器的数量可以实际需求具体设置,比如,如图1所示,每一路均设置有光衰减器和光延迟器;再比如,根据保持各路光强一致、信号同步的需求具体设置,也可以无需在每一路均设置有光延迟器和光放大器,对此不作具体限定。
以图1所示的第P级和第P+1级光学神经网络为例(第P+1级光学神经网络在图中仅示例出输入端),在第100-P级光学神经网络输出端与第二级光学神经网络的输入端之间设置有第一传输组件400和第二传输组件500,第一传输组件400和第二传输组件500的位置可以互换,不作具体限定。且每路光路上均可以设置有光衰减器和光延迟器,其中,光衰减器可以均衡每一级流水线不同通路的光场强度,因此每一级流水线的各路输出可通过光衰减器与其他各路输出光强保持一致;光延迟器可以均衡每一级流水线不同通路的延时,因此每一级流水线的各路输出通过光延迟器与其他各路保持时序同步。
可选地,在本实施例中,光电集成电路上还可以集成设置有第三传输组件,第三传输组件用于对中继级光学神经网络的输出端输出的光信号进行幅度调节,其中,中继级光学神经网络为第二至第N-1级光学神经网络中任意一级光学神经网络,第三传输组件可以包括多个光放大器。
可以理解的是,本申请实施例还可以在光学神经网络之间加入光放大器保证光强满足计算需要,并且可以根据不同的噪声容限,每隔若干级普通流水线设置一个中继级光学神经网络以保证计算的准确性,因此,中继级光学神经网络的数量可以具体设置,第三传输组件可以根据中继级光学神经网络的数量具体设置。
需要说明的是,中继级光学神经网络的特征在于不仅可以包括光学神经网络、光衰减器和光延迟器,也可以包含光放大器,中继级光学神经网络的输出端可以通过光放大器进行幅度调节,实现中继功能保证计算的正确性。其中,第三传输组件包括的光放大器数量可以根据实际需求具体设置,比如可以在中继级光学神经网络输出端的每路光路均设置有光放大器,也可以无需在每一路均设置有光放大器,对此不作具体限定。光放大器包括但不限于半导体光电放大器、掺Er光纤放大器等。
以图1所示第P级和第P+1级光学神经网络为例(第P+1级光学神经网络在图中仅示例出输入端),第100-P级光学神经网络即为在中继级光学神经网络,在第100-P级光学神经网络输出端与第二级光学神经网络的输入端之间设置有第三传输组件600,如图1所示,第三传输组件600可以设置在第P+1级光学神经网络的输入端上,且第三传输组件600的设置位置也可以在第100-P级光学神经网络输出端与第二级光学神经网络的输入端之间任意位置处,不作具体限定。中继级光学神经网络的输出端的每路光路上均可以设置有光放大器,光放大器在P级光学神经网络(0<P≤N)传输之后对光信号进行中继,保证运算的正确性。
由此,每一级光学神经网络的输出端输出的光信号可以通过波导直接传入或者通过光衰减器、光延迟器和/或光放大器实现幅值和相位的调制后输入到下一级光学神经网络。
进一步而言,在本实施例中,如图1所示,光电集成电路上还集成设置有计算组件300,具体地,如图3所示,计算组件300包括第七微纳光学衍射线阵列310至第十四微纳光学衍射线阵列380,计算组件300中每个微纳光学衍射线阵列均包括第一至第二输入端和输出端,第N级光学神经网络100-N的第一至第八路输出端与第七至第十四微纳光学衍射线阵列的第二输入端之间均通过光纤对应相连,第七至第十四微纳光学衍射线阵列的第一输入端用于接收通过波导并行输入的第一至第八初始光信号,并通过第七至第十四微纳光学衍射线阵列的第七至第十四预设衍射图样分别对第一至第八初始光信号和第N级光学神经网络100-N的第一至第八路输出端的输出光信号进行第七衍射运算,以衍射运算得到八路最终光信号。
其中,第七衍射运算为:M=n+r,其中,M为最终光信号,n为第N级光学神经网络100-N的第一至第八路中任意一路输出端的输出光信号,r为第N级光学神经网络100-N的任意一路输出端对应的第一至第八初始光信号中的初始光信号。第七至第十四微纳光学衍射线阵列的类型均为ADD2,其中,图3中表示微纳光学衍射线阵列的方框的深浅代表微纳光学衍射线阵列的类型,深浅程度相同的方框表示微纳光学衍射线阵列的类型相同。
可以理解的是,第N级光学神经网络100-N与其他级光学神经网络同样实现对光信号进行运算,以实现消息压缩循环运算,在输出端还连接有8个微纳光学衍射线阵列实现加法运算完成计算结果与初始第一至第八初始光信号的叠加。
具体地:如图3所示,第七至第十四微纳光学衍射线阵列的输出端依次连接H0至H7端,H0至H7端均连接有一个光电探测器,第七微纳光学衍射线阵列310至第十四微纳光学衍射线阵列380中用于接收常数信号的输入端为第一输入端、用于接收第N级光学神经网络100-N输出的光信号的输入端为第二输入端。
其中,第七微纳光学衍射线阵列310的第一输入端用于接收第一初始光信号、第八微纳光学衍射线阵列320的第一输入端用于接收第二初始光信号、第九微纳光学衍射线阵列330的第一输入端用于接收第三初始光信号、第十微纳光学衍射线阵列340的第一输入端用于接收第四初始光信号、第十一微纳光学衍射线阵列350的第一输入端用于接收第五初始光信号、第十二微纳光学衍射线阵列360的第一输入端用于接收第六初始光信号、第十三微纳光学衍射线阵列370的第一输入端用于接收第七初始光信号、第十四微纳光学衍射线阵列380的第一输入端用于接收第八初始光信号。第七微纳光学衍射线阵列310至第十四微纳光学衍射线阵列380的第二输入端与第N级光学神经网络100-N的输出端A-H对应相连,即第七微纳光学衍射线阵列310的第二输入端与第N级光学神经网络100-N的第一输出端A相连,第八微纳光学衍射线阵列320的第二输入端与第N级光学神经网络100-N的第二输出端B相连,依次类推,第十四微纳光学衍射线阵列380的第二输入端与第N级光学神经网络100-N的第八输出端H相连。
可选地,在本实施例中,在第N级光学神经网络100-N的输出端与计算组件300之间还可以设置有第一传输组件。
可以理解的是,本申请实施例可以第N级光学神经网络100-N的输出端光信号的强度选择是否设置第一传输组件,如果光信号的强度满足设置条件,则可以设置第一传输组件,以保持各路光强一致,否则可以无需设置。其中,在第N级光学神经网络的输出端与计算组件300之间设置有第一传输组件时,第一传输组件包括的光衰减器的数量可以实际需求具体设置,比如,如图1所示每一路均可以设置有光衰减器;再比如,根据保持各路光强一致的需求具体设置,也可以无需在每一路均设置有光延迟器,对此不作具体限定。
需要说明的是,本申请实施例的光电集成电路10可以应用于通用处理器、FPGA(Field Programmable Gate Array,现场可编程逻辑门阵列)、区块链网络和ASIC上。
综上,本申请实施例基于光学神经网络、基于人工智能算法实现高速率低功耗的消息散列算法的消息压缩的光电集成电路,利用集成的光学神经网络、波导、光放大器、光衰减器、光延迟器等形成光电计算架构,具有更低的单位计算能耗(FLOPs/J),相比较相关技术中的硬件电路可以实现更高的性能、能耗更低,能大幅提升能量效率,并有效解决消息散列算法运算的功耗大、性能提升受限的问题。
下面将通过一个具体实施例对SHA-256的消息压缩的过程进行阐述,具体如下:
本申请实施例可以进行光学衍射传播计算出一系列具有特定长度、间隔、厚度衍射线阵列,每根衍射线上刻有特定的衍射图样,能够将输入计算成相应的特定比特光信号结果。第一级光学神经网络的第一至第九输入端的输入是9路32bit的由激光器产生由波导传输的常数光信号,以及1路32bit从消息扩展输出的变量光信号。每一级光学神经网络的输出B、C、D、F、G、H是从输入的a、b、c、e、f、g光纤直连得到,输出A和E是通过训练后衍射神经网络得到相应的映射关系得到。其中,
S2=h+K t {256}+∑1 {256}(e),(1)
S1=Ch(e,f,g),(2)
T2=∑0 {256}(a)+Maj(a,b,c),(3)
T1=S1+S2+Wt,(4)
A=T1+T2,(5)
E=d+T1,(6)
其中,e表示第五路输入光信号,h表示第八路输入光信号,K t {256}表示SHA-256算法在第t级光学神经网络中的第九路输入光信号,∑1 {256}( )表示SHA-256算法第一固定位移重新映射函数∑1 {256}(x)=ROTR 6(x)⊕ROTR 11(x)⊕ROTR 25(x),其中ROTR n 表示循环右移n位,⊕是按位异或计算,t表示第t轮迭代函数即第t级光学神经网络,1≤t<64,S2表示第一衍射光信号;f表示第六路输入光信号,g表示第七路输入光信号,Ch( )表示选择函数Ch(x,y,z)=(x⋀y)⊕ (¬ x⋀z),其中⋀表示按位与,¬表示按位取反,S1表示第二衍射光信号;a表示第一路输入光信号,b表示第二路输入光信号,c表示第三路输入光信号,∑0 {256}( )表示SHA-256算法第二固定位移重新映射函数∑0 {256}( )表示SHA-256算法第二固定位移重新映射函数∑0 {256}( )= ROTR 2(x)⊕ROTR 13(x)⊕ROTR 22(x),Maj( )表示取多数函数Maj(a,b,c)=(x⋀y)⊕(x⋀z)⊕(y⋀z),T2表示第三衍射光信号; Wt表示SHA-256算法在第t级光学神经网络中的第十路输入光信号,T1表示第四衍射光信号;A表示第四衍射光信号;d表示第四路输入光信号,E表示第六衍射光信号。
在本申请实施例中,以第一光学神经网络为例,将微纳光学衍射线阵列的输入限制在最高96位,则用于计算A和E的光学神经网络可拆解成如图4所示的多个微纳光学衍射线阵列,是实现映射关系的其中一种解决方案,经过拆解之后可以得到如图5所示的简化后的光学神经网络示意图。
例如,图4和图5中的第一微纳光学衍射线阵列110是通过预先训练后的衍射神经网络实现公式(1)的映射关系,第二微纳光学衍射线阵列120是通过预先训练后的衍射神经网络实现公式(2)的映射关系,第三微纳光学衍射线阵列130是通过预先训练后的衍射神经网络实现公式(3)的映射关系,第四微纳光学衍射线阵列140是通过预先训练后的衍射神经网络实现公式(4)的映射关系,第五微纳光学衍射线阵列150是通过预先训练后的衍射神经网络实现公式(5)的映射关系,第六微纳光学衍射线阵列160是通过预先训练后的衍射神经网络实现公式(6)的映射关系;其中,微纳光学衍射线阵列的衍射线上刻有特定的衍射图样,能够将输入计算成相应的特定比特光信号结果。第三微纳光学衍射线阵列130的衍射神经网络通过96位输入得到32位输出实现了公式(3)的映射关系,第一微纳光学衍射线阵列110、第二微纳光学衍射线阵列120、第四微纳光学衍射线阵列140、第五微纳光学衍射线阵列150和第六微纳光学衍射线阵列160的衍射神经网络通过不同的衍射图样实现各自的映射关系。第N级光学神经网络100-N完成消息压缩计算后,经过8个ADD2类型的微纳光学衍射线阵列(即第七至第十四微纳光学衍射线阵列)实现计算结果与初始第一至第八初始光信号的叠加。光电探测器阵列将输出的相干光信号转成电信号作为光电集成电路的输出。
根据本申请实施例提出的用于消息散列算法中消息压缩的光电集成电路,通过集成设置的多级光学神经网络对光信号携带的消息进行消息散列算法的消息压缩运算,可以有效降低压缩运算时的功耗,大幅提升能量效率,并提升运算性能,相比较单纯电路实现具有更低的功耗及更高的性能。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不是必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (7)
1.一种用于消息散列算法中消息压缩的光电集成电路,其特征在于,光电集成电路上集成设置有第一至第N级光学神经网络和光电探测器阵列,其中,
所述第一至第N级光学神经网络,用于对通过波导并行输入的多路初始光信号按照从第一至第N级逐级进行消息散列算法中的消息压缩运算,其中,通过每级光学神经网络对加载至所述多路初始光信号的消息进行消息压缩运算,并逐级压缩至满足压缩条件的最终光信号;
所述光电探测器阵列,用于将所述最终光信号转换成用于携带消息压缩结果的电信号;
所述第一至第N级光学神经网络中每级光学神经网络均包括第一至第十路输入端和第一至第八路输出端,所有相邻级光学神经网络的第一至第八路的输出端与输入端之间通过光纤对应相连,第一级光学神经网络的第一至第八路输入端用于接收通过波导并行输入的第一至第八初始光信号,每级光学神经网络的第九输入端用于接收通过波导并行输入的第九初始光信号、第十输入端用于接收通过波导并行输入的第十初始光信号;
每级光学神经网络均还包括第一至第六微纳光学衍射线阵列,且第一至第四微纳光学衍射线阵列均包括第一至第三输入端和输出端,第五至第六微纳光学衍射线阵列均包括第一至第二输入端和输出端,其中,在每级光学神经网络中:
第一微纳光学衍射线阵列的第一输入端与第五路输入端之间通过光纤相连、第二输入端与第八路输入端之间通过光纤相连、第三输入端与第九路输入端之间通过光纤相连,所述第一微纳光学衍射线阵列的输出端与第四微纳光学衍射线阵列的第二输入端之间通过光纤相连,用于通过所述第一微纳光学衍射线阵列的第一预设衍射图样对第五路输入光信号、第八路输入光信号和第九路输入光信号进行第一衍射运算,并将衍射运算得到第一衍射光信号输入至所述第四微纳光学衍射线阵列;
第二微纳光学衍射线阵列的第一输入端与第五路输入端之间通过光纤相连、第二输入端与第六路输入端之间通过光纤相连、第三输入端与第七路输入端之间通过光纤相连,所述第二微纳光学衍射线阵列的输出端与第四微纳光学衍射线阵列的第一输入端之间通过光纤相连,用于通过所述第二微纳光学衍射线阵列的第二预设衍射图样对第五路输入光信号、第六路输入光信号和第七路输入光信号进行第二衍射运算,并将衍射运算得到第二衍射光信号输入至所述第四微纳光学衍射线阵列;
第三微纳光学衍射线阵列的第一输入端与第一路输入端之间通过光纤相连、第二输入端与第二路输入端之间通过光纤相连、第三输入端与第三路输入端之间通过光纤相连,所述第三微纳光学衍射线阵列的输出端与第五微纳光学衍射线阵列的第一输入端之间通过光纤相连,用于通过所述第三微纳光学衍射线阵列的第三预设衍射图样对第一路输入光信号、第二路输入光信号和第三路输入光信号进行第三衍射运算,并将衍射运算得到第三衍射光信号输入至所述第五微纳光学衍射线阵列;
所述第四微纳光学衍射线阵列第三输入端与第十路输入端之间通过光纤相连,所述第三微纳光学衍射线阵列的输出端分别与所述第五微纳光学衍射线阵列的第二输入端之间和第六微纳光学衍射线阵列的第二输入端之间通过光纤相连,用于通过所述第四微纳光学衍射线阵列的第四预设衍射图样对第一衍射光信号、第二衍射光信号和第十路输入光信号进行第四衍射运算,并将衍射运算得到第四衍射光信号输入至所述第五微纳光学衍射线阵列和所述第六微纳光学衍射线阵列;
所述第五微纳光学衍射线阵列的输出端与第一路输出端相连,用于通过所述第五微纳光学衍射线阵列的第五预设衍射图样对第三衍射光信号和第四衍射光信号进行第五衍射运算,并将衍射运算得到第五衍射光信号输入至所述第一路输出端;
所述第六微纳光学衍射线阵列的第一输入端与第四路输入端相连,所述第六微纳光学衍射线阵列的输出端与第五路输出端相连,用于通过所述第六微纳光学衍射线阵列的第六预设衍射图样对第四衍射光信号和第四路输入光信号进行第六衍射运算,并将衍射运算得到第六衍射光信号输入至所述第五路输出端;
所述第一衍射运算为:S2=h +K+∑1(e),其中,e表示所述第五路输入光信号,h表示所述第八路输入光信号,K表示所述第九路输入光信号,∑1( )表示消息散列算法第一固定位移重新映射函数,S2表示所述第一衍射光信号;
所述第二衍射运算为:S1=Ch(e,f,g),其中,f表示所述第六路输入光信号,g表示第七路输入光信号,Ch( )表示选择函数Ch(x,y,z)=(x⋀y)⊕(¬ x⋀z),其中⋀表示按位与,¬表示按位取反,⊕表示按位异或计算,S1表示所述第二衍射光信号;
所述第三衍射运算为:T2=∑0(a)+Maj(a,b,c),其中,a表示第一路输入光信号,b表示所述第二路输入光信号,c表示所述第三路输入光信号,∑0 ( )表示消息散列算法第二固定位移重新映射函数,Maj( )表示取多数函数Maj(a,b,c)=(x⋀y)⊕(x⋀z)⊕(y⋀z),T2表示所述第三衍射光信号;
所述第四衍射运算为:T1=S1+S2+W,其中,W表示所述第十路输入光信号,T1表示所述第四衍射光信号;
所述第五衍射运算为:A=T1+T2,A表示第四衍射光信号;
所述第六衍射运算为:E=d+T1,其中,d表示所述第四路输入光信号,E表示所述第六衍射光信号。
2.根据权利要求1所述的光电集成电路,其特征在于,在每级光学神经网络中:第一路输入端通过光纤与第二路输出端相连,第二路输入端通过光纤与第三路输出端相连,第三路输入端通过光纤与第四路输出端相连,第五路输入端通过光纤与第六路输出端相连,第六路输入端通过光纤与第七路输出端相连,第七路输入端通过光纤与第八路输出端相连。
3.根据权利要求1所述的光电集成电路,其特征在于,所述光电集成电路上还集成设置有第一传输组件和第二传输组件,所述第一传输组件和所述第二传输组件设置于相邻级光学神经网络之间,所述第一传输组件用于对输出端输出的光信号进行信号衰减,以保持各路光信号的强度一致,所述第二传输组件用于对输出端输出的光信号进行信号延迟,以保持各路光信号的时序同步,其中,所述第一传输组件包括多个光衰减器,所述第二传输组件包括多个光延迟器。
4.根据权利要求3所述的光电集成电路,其特征在于,所述光电集成电路上集成设置有第三传输组件,所述第三传输组件用于对中继级光学神经网络的输出端输出的光信号进行幅度调节,其中,所述中继级光学神经网络为第二至第N-1级光学神经网络中任意一级光学神经网络,所述第三传输组件包括多个光放大器。
5.根据权利要求3所述的光电集成电路,其特征在于,所述光电集成电路上还集成设置有计算组件,计算组件包括第七微纳光学衍射线阵列至第十四微纳光学衍射线阵列,所述计算组件中每个微纳光学衍射线阵列均包括第一至第二输入端和输出端,第N级光学神经网络的第一至第八路输出端与所述第七至第十四微纳光学衍射线阵列的第二输入端之间均通过光纤对应相连,所述第七至第十四微纳光学衍射线阵列的第一输入端用于接收通过波导并行输入的第一至第八初始光信号,并通过所述第七至第十四微纳光学衍射线阵列的第七至第十四预设衍射图样分别对第一至第八初始光信号和所述第N级光学神经网络的第一至第八路输出端的输出光信号进行第七衍射运算,以衍射运算得到八路最终光信号。
6.根据权利要求5所述的光电集成电路,其特征在于,所述第七衍射运算为:M=n+r,其中,M为最终光信号,n为所述第N级光学神经网络的第一至第八路中任意一路输出端的输出光信号,r为所述第N级光学神经网络的任意一路输出端对应的第一至第八初始光信号中的初始光信号。
7.根据权利要求5所述的光电集成电路,其特征在于,在第N级光学神经网络的输出端与所述计算组件之间还设置有所述第一传输组件。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111186239.9A CN113641210B (zh) | 2021-10-12 | 2021-10-12 | 用于消息散列算法中消息压缩的光电集成电路 |
PCT/CN2022/105497 WO2023060961A1 (zh) | 2021-10-12 | 2022-07-13 | 用于消息散列算法中消息压缩的光电集成电路 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111186239.9A CN113641210B (zh) | 2021-10-12 | 2021-10-12 | 用于消息散列算法中消息压缩的光电集成电路 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113641210A CN113641210A (zh) | 2021-11-12 |
CN113641210B true CN113641210B (zh) | 2022-03-18 |
Family
ID=78426486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111186239.9A Active CN113641210B (zh) | 2021-10-12 | 2021-10-12 | 用于消息散列算法中消息压缩的光电集成电路 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113641210B (zh) |
WO (1) | WO2023060961A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113641210B (zh) * | 2021-10-12 | 2022-03-18 | 清华大学 | 用于消息散列算法中消息压缩的光电集成电路 |
CN113642725B (zh) * | 2021-10-13 | 2022-03-08 | 清华大学 | 用于消息散列算法的消息扩展的光电集成电路 |
CN117349225B (zh) * | 2023-12-06 | 2024-02-13 | 清华大学 | 大规模分布式光电智能计算架构与芯片系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109254350A (zh) * | 2018-10-26 | 2019-01-22 | 上海交通大学 | 平铺型光子神经网络卷积层芯片 |
CN109477938A (zh) * | 2016-06-02 | 2019-03-15 | 麻省理工学院 | 用于光学神经网络的设备和方法 |
CN110334804A (zh) * | 2019-06-20 | 2019-10-15 | 清华大学 | 基于空间部分相干光的全光深度衍射神经网络系统及方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10050961B2 (en) * | 2016-01-21 | 2018-08-14 | Ca, Inc. | Network device authentication based on hashing content of sequential messages |
CN109459852B (zh) * | 2019-01-07 | 2021-08-24 | 深圳市恒天伟焱科技股份有限公司 | 一种基于神经网络的散射介质光学成像方法 |
CN112883534A (zh) * | 2019-11-30 | 2021-06-01 | 华为技术有限公司 | 一种光计算设备以及光信号处理方法 |
GB2594911B (en) * | 2020-01-31 | 2023-08-30 | Optalysys Ltd | Hashing methods and/or systems |
US11137289B1 (en) * | 2020-03-11 | 2021-10-05 | Lighton | Method and system for machine learning using optical data |
CN113253403B (zh) * | 2021-06-17 | 2021-10-29 | 苏州浪潮智能科技有限公司 | 一种光学器件、电子器件和可编程光子集成电路 |
CN113641210B (zh) * | 2021-10-12 | 2022-03-18 | 清华大学 | 用于消息散列算法中消息压缩的光电集成电路 |
-
2021
- 2021-10-12 CN CN202111186239.9A patent/CN113641210B/zh active Active
-
2022
- 2022-07-13 WO PCT/CN2022/105497 patent/WO2023060961A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109477938A (zh) * | 2016-06-02 | 2019-03-15 | 麻省理工学院 | 用于光学神经网络的设备和方法 |
CN109254350A (zh) * | 2018-10-26 | 2019-01-22 | 上海交通大学 | 平铺型光子神经网络卷积层芯片 |
CN110334804A (zh) * | 2019-06-20 | 2019-10-15 | 清华大学 | 基于空间部分相干光的全光深度衍射神经网络系统及方法 |
Non-Patent Citations (1)
Title |
---|
基于FPGA的可重构SHA安全芯片设计;邓朋法;《中国优秀硕士学位论文全文数据库 信息科技辑》;20110915;I138-53 * |
Also Published As
Publication number | Publication date |
---|---|
CN113641210A (zh) | 2021-11-12 |
WO2023060961A1 (zh) | 2023-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113641210B (zh) | 用于消息散列算法中消息压缩的光电集成电路 | |
JP2017011690A (ja) | 全二重無線通信におけるエネルギー効率のよい多項式カーネルの生成 | |
WO2012123969A2 (en) | Methods for generating multi-level pseudo-random sequences | |
CN111488627A (zh) | 一种安全散列算法的消息拓展电路 | |
CN113642725B (zh) | 用于消息散列算法的消息扩展的光电集成电路 | |
CN105183428A (zh) | 一种伪随机信号产生方法 | |
Matusiewicz et al. | Analysis of simplified variants of SHA-256 | |
CN108833043B (zh) | 基于Polar法改进的AWGN信道实现方法及装置 | |
CN204856461U (zh) | 一种数据位数可选的伪随机信号发生器 | |
US20220100873A1 (en) | Computation of xmss signature with limited runtime storage | |
CN112988235B (zh) | 一种高效率第三代安全散列算法的硬件实现电路及方法 | |
CN110266781B (zh) | 一种基于哈希函数的网络节点随机选取方法 | |
CN116710890A (zh) | 随机数生成装置及生成方法、随机数生成系统、芯片 | |
CN110705196A (zh) | 一种基于随机计算的无误差加法器 | |
Sorokina | High bandwidth all-optical fiber-based neuromorphic signal processing | |
CN112054942B (zh) | 一种用于高位宽成帧误码测试的任意长度随机数据包生成方法 | |
Imrane et al. | Machine learning for decoding linear block codes: case of multi-class logistic regression model | |
CN217159668U (zh) | 随机数生成电路 | |
CN116405190A (zh) | 基于sha2算法的数据处理装置 | |
CN105159652A (zh) | 一种多通道伪随机信号发生方法 | |
CN113037390B (zh) | 一种基于fpga的光纤加密方法 | |
CN112130810B (zh) | 一种安全的高速随机数发生器及其结构优化方法 | |
Welte et al. | An FPGA implementation of SipHash | |
Ilyas et al. | Performance study of three (3) digital modulations using new D-PISO architecture in FPGA | |
Onyshchenko et al. | Models of Information Processing in IoT Networks on the Basis of Fundamental Trigonometric Splines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |