CN109711539B - 运算方法、装置及相关产品 - Google Patents

运算方法、装置及相关产品 Download PDF

Info

Publication number
CN109711539B
CN109711539B CN201811544251.0A CN201811544251A CN109711539B CN 109711539 B CN109711539 B CN 109711539B CN 201811544251 A CN201811544251 A CN 201811544251A CN 109711539 B CN109711539 B CN 109711539B
Authority
CN
China
Prior art keywords
module
processor
address
input data
storage space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811544251.0A
Other languages
English (en)
Other versions
CN109711539A (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cambricon Technologies Corp Ltd
Original Assignee
Cambricon Technologies Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cambricon Technologies Corp Ltd filed Critical Cambricon Technologies Corp Ltd
Priority to CN201811544251.0A priority Critical patent/CN109711539B/zh
Publication of CN109711539A publication Critical patent/CN109711539A/zh
Application granted granted Critical
Publication of CN109711539B publication Critical patent/CN109711539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Advance Control (AREA)

Abstract

本公开涉及一种运算方法、装置及相关产品,所述产品包括控制模块,所述控制模块包括:指令缓存子模块、指令处理子模块和存储队列子模块;所述指令缓存子模块,用于存储所述人工神经网络运算关联的计算指令;所述指令处理子模块,用于对所述计算指令解析得到多个运算指令;所述存储队列子模块,用于存储指令队列,该指令队列包括:按该队列的前后顺序待执行的多个运算指令或计算指令。通过以上方法,本公开可以提高相关产品在进行神经网络模型的运算时的运算效率。

Description

运算方法、装置及相关产品
技术领域
本公开涉及人工智能技术领域,尤其涉及一种数据处理方法及装置以及人工智能处理装置。
背景技术
在人工智能技术领域,神经网络算法是最近非常流行的一种机器学习算法,在各种领域中都取得了非常好的效果,比如图像识别,语音识别,自然语言处理等。随着神经网络算法的发展,算法的复杂度也越来越高,为了提高识别度,模型的规模也在逐渐增大。用GPU和CPU处理起这些大规模的模型,要花费大量的计算时间,并且耗电量很大。在这种情况下,新的人工智能处理器被提出以提高神经网络模型的运算速度,节约运算时间,降低功耗。然而,当前对新的人工智能处理器的算法支持却远远不够。
发明内容
有鉴于此,本公开提出了一种数据处理方法及装置以及人工智能处理装置。
根据本公开的一方面,提供了一种数据处理方法,该方法应用于第一处理器,包括:
通过第一存储模块接收并存储输入数据的第一存储空间的第一地址,所述第一存储空间为所述输入数据在第二处理器中的存储空间;
在人工智能算子编译完成时,根据输入数据的类型、输出数据的类型以及人工智能算子的类型,通过所述第一存储模块为所述输入数据在第一处理器中分配第二存储空间;
根据所述第一地址,将所述输入数据复制到所述第二存储空间;
根据所述第二存储空间的第二地址,通过所述人工智能算子对所述输入数据执行相应的人工智能运算,得到输出数据。
在一种可能的实现方式中,所述方法还包括:在人工智能算子编译完成时,通过所述第一存储模块为输出数据在第一处理器中分配第三存储空间,并在所述第一存储模块中存储所述第三存储空间的第三地址。
在一种可能的实现方式中,所述方法还包括:在得到输出数据时,根据所述第三地址,将所述输出数据存储到所述第三存储空间。
在一种可能的实现方式中,所述方法还包括:在将所述输入数据复制到所述第二存储空间后,释放所述第一存储模块中的第一地址。
在一种可能的实现方式中,所述方法还包括:对所述人工智能算子进行编译。
根据本公开的另一方面,提供了一种数据处理方法,该方法应用于第二处理器,包括:
在接收到输入数据时,通过第二存储模块为所述输入数据在第二处理器中分配第一存储空间,并在所述第二存储模块中存储所述第一存储空间的第一地址;
将接收到的输入数据存储到所述第一存储空间;
将所述第一地址传递到第一处理器中的第一存储模块,以使所述第一处理器在人工智能算子编译完成时存储所述输入数据,并对所述输入数据执行相应的人工智能运算。
在一种可能的实现方式中,将所述第一地址传递到第一处理器中的第一存储模块,包括:通过中间存储模块将所述第一地址传递到所述第一存储模块。
在一种可能的实现方式中,所述方法还包括:在所述第一存储模块中的第一地址被释放后,释放所述第二存储模块中的第一地址,以释放所述第一存储空间。
根据本公开的另一方面,提供了一种数据处理装置,该装置应用于第一处理器,所述装置包括:
数据接收模块,用于通过第一存储模块接收并存储输入数据的第一存储空间的第一地址,所述第一存储空间为所述输入数据在第二处理器中的存储空间;
第一分配模块,用于在人工智能算子编译完成时,根据输入数据的类型、输出数据的类型以及人工智能算子的类型,通过所述第一存储模块为所述输入数据在第一处理器中分配第二存储空间;
复制模块,用于根据所述第一地址,将所述输入数据复制到所述第二存储空间;
数据运算模块,用于根据所述第二存储空间的第二地址,通过所述人工智能算子对所述输入数据执行相应的人工智能运算,得到输出数据。
在一种可能的实现方式中,所述装置还包括:第二分配模块,用于在人工智能算子编译完成时,通过所述第一存储模块为输出数据在第一处理器中分配第三存储空间,并在所述第一存储模块中存储所述第三存储空间的第三地址。
在一种可能的实现方式中,所述装置还包括:第一数据存储模块,用于在得到输出数据时,根据所述第三地址,将所述输出数据存储到所述第三存储空间。
在一种可能的实现方式中,所述装置还包括:第一释放模块,用于在将所述输入数据复制到所述第二存储空间后,释放所述第一存储模块中的第一地址。
在一种可能的实现方式中,所述装置还包括:算子编译模块,用于对所述人工智能算子进行编译。
根据本公开的另一方面,提供了一种数据处理装置,该装置应用于第二处理器,所述装置包括:
第三分配模块,用于在接收到输入数据时,通过第二存储模块为所述输入数据在第二处理器中分配第一存储空间,并在所述第二存储模块中存储所述第一存储空间的第一地址;
第二数据存储模块,用于将接收到的输入数据存储到所述第一存储空间;
地址传递模块,用于将所述第一地址传递到第一处理器中的第一存储模块,以使所述第一处理器在人工智能算子编译完成时存储所述输入数据,并对所述输入数据执行相应的人工智能运算。
在一种可能的实现方式中,所述地址传递模块用于:通过中间存储模块将所述第一地址传递到所述第一存储模块。
在一种可能的实现方式中,所述装置还包括:第二释放模块,用于在所述第一存储模块中的第一地址被释放后,释放所述第二存储模块中的第一地址,以释放所述第一存储空间。
根据本公开的另一方面,提供了一种人工智能处理装置,所述装置包括第一处理器和第二处理器,所述第一处理器连接到所述第二处理器,
其中,所述第一处理器和所述第二处理器被配置为上述数据处理方法。
在一种可能的实现方式中,所述第一处理器用于执行人工智能计算,所述第一处理器包括:运算模块以及控制模块,所述运算模块包括:一个主处理电路和多个从处理电路;
所述控制模块,用于获取输入数据以及计算指令;
所述控制模块,还用于解析该计算指令得到多个运算指令,将该多个运算指令以及所述输入数据发送给所述主处理电路;
所述主处理电路,用于对所述输入数据执行前序处理以及与所述多个从处理电路之间传输数据和运算指令;
所述多个从处理电路,用于依据从所述主处理电路传输的数据以及运算指令并行执行中间运算得到多个中间结果,并将多个中间结果传输给所述主处理电路;
所述主处理电路,用于对所述多个中间结果执行后续处理得到所述计算指令的计算结果。
根据本公开的各方面的数据处理方法及装置以及人工智能处理装置,能够在人工智能算子编译完成后为输入数据在第一处理器中分配存储空间,从而能够根据算子类型及数据类型改进数据摆放策略,提高人工智能算子的运行速度。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开一实施例的数据处理方法的流程图。
图2示出根据本公开一实施例的数据处理方法的流程图。
图3示出根据本公开一实施例的数据处理方法的应用示例的示意图。
图4示出根据本公开一实施例的数据处理装置的框图。
图5示出根据本公开一实施例的数据处理装置的框图。
图6示出根据本公开一实施例的人工智能处理装置的框图。
图7示出根据本公开一实施例的第一处理器的示意图。
图8示出根据本公开一实施例的主处理电路的框图。
图9示出根据本公开一实施例的第一处理器的示意图。
图10示出根据本公开一实施例的第一处理器的示意图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开一实施例的数据处理方法的流程图。该方法可应用于第一处理器,如图1所示,该方法包括:
在步骤S11中,通过第一存储模块接收并存储输入数据的第一存储空间的第一地址,所述第一存储空间为所述输入数据在第二处理器中的存储空间;
在步骤S12中,在人工智能算子编译完成时,根据输入数据的类型、输出数据的类型以及人工智能算子的类型,通过所述第一存储模块为所述输入数据在第一处理器中分配第二存储空间;
在步骤S13中,根据所述第一地址,将所述输入数据复制到所述第二存储空间;
在步骤S14中,根据所述第二存储空间的第二地址,通过所述人工智能算子对所述输入数据执行相应的人工智能运算,得到输出数据。
根据本公开实施例的数据处理方法,能够在人工智能算子编译完成后为输入数据在第一处理器中分配存储空间,从而能够根据算子类型及数据类型改进数据摆放策略,提高人工智能算子的运行速度。
举例来说,第一处理器可以是用于执行人工智能运算的人工智能处理器 (IPU),人工智能运算可包括机器学习运算,类脑运算等。其中,机器学习运算包括神经网络运算、k-means运算、支持向量机运算等。该人工智能处理器可例如包括GPU(GraphicsProcessing Unit,图形处理单元)、NPU (Neural-Network Processing Unit,神经网络处理单元)、DSP(Digital Signal Process,数字信号处理单元)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)芯片中的一种或组合。本公开对第一处理器的具体类型不作限制。
在一种可能的实现方式中,第二处理器可以是主处理器,例如中央处理单元CPU、图形处理单元GPU等。第二处理器可用于获取输入数据以及要使用的人工智能算子,并将其传输给第一处理器,以使第一处理器执行相应的人工智能运算。本公开对第二处理器的具体类型不作限制。
在一种可能的实施方式中,人工智能算子(operator)可以为人工智能中常用的算法,又被称为层,操作,节点.每个神经网络都对应着一个网络结构图,而图中的节点即为算子。可预先设置有人工智能算子库,人工智能算子库中可以包括多个算子(例如卷积算子、全连接算子、池化算子、激活算子等),各个算子可以被包括但不限于中央处理器CPU、图像处理器GPU、人工智能处理器IPU等处理器调用以实现对应的功能。
在一种可能的实现方式中,第二处理器可调用第二存储模块在人工智能运算过程中存储数据。其中,第二存储模块可例如为Mxnet框架下的内存管理模型中的存储模块Ndarray。本公开对第二存储模块的具体类型不作限制。
在一种可能的实现方式中,当第二处理器接收到输入数据时,可以通过该第二存储模块为输入数据在第二处理器中分配存储空间(第一存储空间),并在第二存储模块中存储该存储空间的地址(第一地址)。根据该第一地址,可将输入数据缓存到第一存储空间。并且,可将第一地址从该第二存储模块传递到第一处理器中的第一存储模块。
在一种可能的实现方式中,第一处理器中可调用第一存储模块在算子内部存储数据。其中,第一存储模块可例如为Mxnet框架下的mshadow库中的数据存储模块mshadow::Tensor。本公开对第一存储模块的具体类型不作限制。
在一种可能的实现方式中,在步骤S11中通过第一存储模块接收并存储第一地址。这样,可以使得第一存储模块和第二存储模块中的数据地址指向同一块内存(第一存储空间)。
在一种可能的实现方式中,所述方法还可包括:对所述人工智能算子进行编译。也即,可在第一处理器中对待使用的人工智能算子进行动态编译。
在完成编译时,可在步骤S12中为输入数据在第一处理器中分配存储空间。动态编译后,根据对应的人工智能算子的类型、输入数据的类型及输出数据的类型等因素,可通过第一存储模块为输入数据分配合适的存储空间 (第二存储空间)。
在一种可能的实现方式中,在为输入数据分配第二存储空间后,根据第一地址,可在步骤S13中读取第一存储空间中的输入数据,并将该输入数据复制到第二存储空间。
在一种可能的实现方式中,在输入数据被复制到第二存储空间后,根据第二存储空间的第二地址,可在步骤14中通过所述人工智能算子对所述输入数据执行相应的人工智能运算,得到输出数据。
通过这种方式,第一处理器可以在算子编译后根据算子类型及输入输出数据类型实现更好的数据摆放策略(例如通过IPU的sopa库实现数据摆放策略),从而优化数据存储方式,提高算子运行速度。
在一种可能的实现方式中,所述方法还可包括:在人工智能算子编译完成时,通过所述第一存储模块为输出数据在第一处理器中分配第三存储空间,并在所述第一存储模块中存储所述第三存储空间的第三地址。
举例来说,在第一处理器对人工智能算子进行动态编译完成后,执行人工智能运算之前,可通过第一存储模块为输出数据在第一处理器中分配存储空间(第三存储空间),并在第一存储模块中存储该存储空间的地址(第三地址)。
在一种可能的实现方式中,所述方法还可包括:在得到输出数据时,根据所述第三地址,将所述输出数据存储到所述第三存储空间。
举例来说,根据输出数据的存储空间的第三地址,在执行人工智能运算得到输出数据时,可将输出数据存储到所述第三存储空间,从而完成人工智能运算过程。
在一种可能的实现方式中,所述方法还包括:在将所述输入数据复制到所述第二存储空间后,释放所述第一存储模块中的第一地址。
举例来说,在输入数据复制到第二存储空间后,可仅在第一存储模块保留第二地址,释放第一地址,从而节省第一存储模块的空间。
进而,还可释放第二处理器的第二存储模块中的第一地址,以释放第一存储空间,从而节省第二存储模块的空间以及第二处理器的内存空间。
根据本公开实施例的数据处理方法,能够在人工智能算子编译完成后为输入数据和输出数据在第一处理器中分配存储空间,从而能够根据算子类型及数据类型改进数据摆放策略,提高人工智能算子的运行速度。
图2示出根据本公开一实施例的数据处理方法的流程图。该方法可应用于第二处理器,如图2所示,该方法包括:
在步骤S21中,在接收到输入数据时,通过第二存储模块为所述输入数据在第二处理器中分配第一存储空间,并在所述第二存储模块中存储所述第一存储空间的第一地址;
在步骤S22中,将接收到的输入数据存储到所述第一存储空间;
在步骤S23中,将所述第一地址传递到第一处理器中的第一存储模块,以使所述第一处理器在人工智能算子编译完成时存储所述输入数据,并对所述输入数据执行相应的人工智能运算。
根据本公开实施例的数据处理方法,能够在接收到输入数据时在第二处理器中缓存输入数据,并将缓存地址传递到第一处理器,以使第一处理器在人工智能算子编译完成时复制输入数据,从而提高人工智能算子的运行速度。
举例来说,当第二处理器接收到输入数据时,可以通过第二存储模块为输入数据在第二处理器中分配存储空间(第一存储空间),并在第二存储模块中存储该存储空间的地址(第一地址)。根据该第一地址,可将输入数据缓存到第一存储空间。并且,可将第一地址从该第二存储模块传递到第一处理器中的第一存储模块。
在一种可能的实现方式中,步骤S23可包括:通过中间存储模块将所述第一地址传递到所述第一存储模块。
举例来说,第二处理器还可调用中间存储模块,该中间存储模块分别连接到第一存储模块和第二存储模块,用于传递地址。当第二存储模块需要传递地址时,可通过中间存储模块将所述第一地址传递到所述第一存储模块。其中,中间存储模块可例如为Mxnet框架下内存管理模型中的存储模块tblob。本公开对中间存储模块的具体类型不作限制。
在一种可能的实现方式中,所述方法还包括:在所述第一存储模块中的第一地址被释放后,释放所述第二存储模块中的第一地址,以释放所述第一存储空间。
举例来说,在第一处理器将输入数据复制到其第二存储空间后,第二存储模块可释放第一地址以释放第一存储空间,从而节省第二存储模块的空间以及第二处理器的内存空间。
图3示出根据本公开一实施例的数据处理方法的应用示例的示意图。如图3所示,在该应用示例中,第一处理器可以是IPU,第二处理器CPU或GPU。第二处理器在接收到输入数据时,可调用第二存储模块(Ndarray)为输入数据分配CPU内存(第一存储空间),并在第二存储模块(Ndarray)中存储内存地址。根据分配的内存地址,可将输入数据缓存到CPU内存。并且,第二处理器还可调用中间存储模块(tblob),通过中间存储模块将第二存储模块(Ndarray)中存储的内存地址传递到第一存储模块(mshadow::Tensor)。
在该应用示例中,第一处理器可调用第一存储模块(mshadow::Tensor) 接收并存储输入数据的CPU内存地址。在人工智能算子编译完成时,根据输入数据的类型、输出数据的类型以及人工智能算子的类型,可确定数据摆放策略,并通过第一存储模块(mshadow::Tensor)为输入数据和输出数据在第一处理器中分配IPU内存(第二存储空间和第三存储空间)。根据CPU内存的第一地址,第一处理器可将输入数据复制到IPU内存(第二存储空间),然后释放CPU内存以节省存储空间。
在该应用示例中,在输入数据复制到IPU内存后,可通过人工智能算子对输入数据执行相应的人工智能运算,得到输出数据;并将输出数据存储到 IPU内存(第三存储空间),从而实现人工智能运算的整个运算过程。
通过这种方式,可在算子编译后分配IPU内存,从而优化数据存储方式,提高算子运行速度。
图4示出根据本公开一实施例的数据处理装置的框图。该装置应用于第一处理器,如图4所示,所述装置包括:
数据接收模块401,用于通过第一存储模块接收并存储输入数据的第一存储空间的第一地址,所述第一存储空间为所述输入数据在第二处理器中的存储空间;
第一分配模块402,用于在人工智能算子编译完成时,根据输入数据的类型、输出数据的类型以及人工智能算子的类型,通过所述第一存储模块为所述输入数据在第一处理器中分配第二存储空间;
复制模块403,用于根据所述第一地址,将所述输入数据复制到所述第二存储空间;
数据运算模块404,用于根据所述第二存储空间的第二地址,通过所述人工智能算子对所述输入数据执行相应的人工智能运算,得到输出数据。
在一种可能的实现方式中,所述装置还包括:
第二分配模块,用于在人工智能算子编译完成时,通过所述第一存储模块为输出数据在第一处理器中分配第三存储空间,并在所述第一存储模块中存储所述第三存储空间的第三地址。
在一种可能的实现方式中,所述装置还包括:
第一数据存储模块,用于在得到输出数据时,根据所述第三地址,将所述输出数据存储到所述第三存储空间。
在一种可能的实现方式中,所述装置还包括:
第一释放模块,用于在将所述输入数据复制到所述第二存储空间后,释放所述第一存储模块中的第一地址。
在一种可能的实现方式中,所述装置还包括:
算子编译模块,用于对所述人工智能算子进行编译。
图5示出根据本公开一实施例的数据处理装置的框图。该装置应用于第二处理器,如图5所示,所述装置包括:
第三分配模块501,用于在接收到输入数据时,通过第二存储模块为所述输入数据在第二处理器中分配第一存储空间,并在所述第二存储模块中存储所述第一存储空间的第一地址;
第二数据存储模块502,用于将接收到的输入数据存储到所述第一存储空间;
地址传递模块503,用于将所述第一地址传递到第一处理器中的第一存储模块,以使所述第一处理器在人工智能算子编译完成时存储所述输入数据,并对所述输入数据执行相应的人工智能运算。
在一种可能的实现方式中,所述地址传递模块用于:通过中间存储模块将所述第一地址传递到所述第一存储模块。
在一种可能的实现方式中,所述装置还包括:
第二释放模块,用于在所述第一存储模块中的第一地址被释放后,释放所述第二存储模块中的第一地址,以释放所述第一存储空间。
图6示出根据本公开一实施例的人工智能处理装置的框图。所述装置包括第一处理器30及第二处理器50,第一处理器30连接到第二处理器50。其中,第一处理器30和第二处理器50分别被配置为执行上述的数据处理方法。
在一种可能的实现方式中,第一处理器30可以是用于执行人工智能运算的人工智能处理器(IPU)。该人工智能处理器可例如包括GPU(Graphics Processing Unit,图形处理单元)、NPU(Neural-Network Processing Unit,神经网络处理单元)、DSP(Digital SignalProcess,数字信号处理单元)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)芯片中的一种或组合。本公开对第一处理器的具体类型不作限制。
在一种可能的实现方式中,第二处理器50可以是主处理器,例如中央处理单元CPU、图形处理单元GPU等。第二处理器可用于获取输入数据以及要使用的人工智能算子,并将其传输给第一处理器,以使第一处理器执行相应的人工智能运算。本公开对第二处理器的具体类型不作限制。
在一种可能的实施方式中,人工智能处理装置可以是有不同的处理器形成的(例如IPU+CPU);也可以是由多个相同的处理器形成的,例如多个处理器(XPU)形成类似于第一处理器30及第二处理器50的架构。其中,处理器的类型可以是现有的,也可以是新提出的新型处理器,本公开对此不作限制。
图7示出根据本公开一实施例的第一处理器的示意图。在一种可能的实现方式中,如图7所示,第一处理器(人工智能处理器)可包括控制模块32、运算模块33及存储模块31,所述运算模块33包括主处理电路331和多个从处理电路332(图中从处理电路的数目是示例性的)。
所述控制模块32,用于获取输入数据及计算指令;
所述控制模块32,还用于解析该计算指令得到多个运算指令,将该多个运算指令以及所述输入数据发送给所述主处理电路331;
所述主处理电路331,用于对所述输入数据执行前序处理以及与所述多个从处理电路之间传输数据和运算指令;
所述多个从处理电路332,用于依据从所述主处理电路331传输的数据以及运算指令并行执行中间运算得到多个中间结果,并将多个中间结果传输给所述主处理电路331;
所述主处理电路331,用于对所述多个中间结果执行后续处理得到所述计算指令的计算结果。
本公开所述的第一处理器在接收到输入数据及计算指令后,对输入数据执行相应的运算操作,从而获得所述计算结果。
本公开所述的第一处理器可以支持机器学习以及一些非机器学习的人工智能算法。
上述计算指令包括但不限于:正向运算指令或反向训练指令,本申请具体实施方式并不限制上述计算指令的具体表现形式。
在一种可能的实施方式中,在第一处理器获得所述计算结果后,可将所述计算结果发送给第二处理器(CPU或GPU)等其他处理器。
所述运算指令为第一处理器根据人工智能算子获得的可运行代码,上述可运行代码包括但不限于:正向运算指令或反向训练指令,或其他神经网络运算指令等等,本申请具体实施方式并不限制上述计算指令的具体表现形式。
在一种可能的实施方式中,所述第一处理器的运算数据可以通过数据传输模块360得到,该数据传输模块360具体可以为一个或多个数据I/O接口或 I/O引脚。
所述主处理电路331,用于对所述待运算数据执行前序处理以获得处理后的运算数据,并与所述多个从处理电路之间传输所述运算数据、中间结果及运算指令中的至少一种。
图8示出根据本公开一实施例的主处理电路331的框图。在一种可能的实现方式中,如图8所示,主处理电路331可以包括:转换处理电路113、激活处理电路111、加法处理电路112中的一种或任意组合。
所述转换处理电路113,用于对所述数据执行所述前序处理,所述前序处理可为:将主处理电路331接收的数据或中间结果执行第一数据结构与第二数据结构之间的互换(例如连续数据与离散数据的转换);或将主处理电路331接收的数据或中间结果执行第一数据类型与第二数据类型之间的互换 (例如定点类型与浮点类型的转换)。
所述激活处理电路111,用于执行所述后续处理,具体为执行主处理电路331内数据的激活运算;
所述加法处理电路112,用于执行所述后续处理,具体为执行加法运算或累加运算。
每个从处理电路332,用于根据所述主处理电路331传输的运算数据及运算指令执行中间运算得到中间结果,并将所述中间结果传输给所述主处理电路331;
所述主处理电路331,用于对多个中间结果执行后续处理得到所述运算指令的最终计算结果。
所述控制模块32还用于根据所述状态信息生成调试结果,并向所述状态信息获取装置40输出调试结果。
存储模块31用于根据运算指令,存储所述运算过程中的状态信息,其中,所述状态信息包括所述主处理电路331的前序处理过程中的状态信息、所述多个从处理电路332的中间运算过程中的状态信息、所述主处理电路331的后续处理过程中的状态信息中的至少一种。所述存储模块可以包括片上存储子模块310,所述片上存储子模块310可以包括高速暂存存储器。
存储模块31还可以包括寄存器、缓存中的一个或者任意组合,具体的,所述缓存,用于存储所述计算指令;所述寄存器,用于存储所述神经网络模型、所述数据和标量;所述缓存为高速暂存缓存。
在一种可能的实施方式中,控制模块32可以包括:指令缓存子模块320、指令处理子模块321和存储队列子模块323;
指令缓存子模块320,用于存储所述神经网络模型关联的计算指令;
所述指令处理子模块321,用于对所述计算指令解析得到多个运算指令;
存储队列子模块323,用于存储指令队列,该指令队列包括:按该队列的前后顺序待执行的多个运算指令或计算指令。
在一种可能的实施方式中,主处理电路331也可以包括一个控制模块32,该控制模块32可以包括主指令处理子模块,具体用于将指令译码成微指令。当然在一种可能的实施方式中,从处理电路332也可以包括另一个控制模块 32,该另一个控制模块32包括从指令处理子模块,具体用于接收并处理微指令。上述微指令可以为指令的下一级指令,该微指令可以通过对指令的拆分或解码后获得,能被进一步解码为各部件、各模块或各处理电路的控制信号。
在一种可选方案中,该计算指令的结构可以如下表一所示。
表一
操作码 寄存器或立即数 寄存器/立即数 ...
上表中的省略号表示可以包括多个寄存器或立即数。
在另一种可选方案中,该计算指令可以包括:一个或多个操作域以及一个操作码。该计算指令可以包括神经网络运算指令。以神经网络运算指令为例,如表1所示,其中,寄存器号0、寄存器号1、寄存器号2、寄存器号3、寄存器号4可以为操作域。其中,每个寄存器号0、寄存器号1、寄存器号2、寄存器号3、寄存器号4可以是一个或者多个寄存器的号码。例如,如下表二所示。
表二
Figure RE-GDA0001956160670000161
上述寄存器可以为片外存储器,当然在实际应用中,也可以为片内存储器,用于存储数据,该数据具体可以为t维数据,t为大于等于1的整数,例如, t=1时,为1维数据,即向量,如t=2时,为2维数据,即矩阵,如t=3或3以上时,为多维张量。
可选的,该控制模块32还可以包括:
依赖关系处理子模块322,用于在具有多个运算指令时,确定第一运算指令与所述第一运算指令之前的第零运算指令是否存在关联关系,如所述第一运算指令与所述第零运算指令存在关联关系,则将所述第一运算指令缓存在所述指令缓存子模块内,在所述第零运算指令执行完毕后,从所述指令缓存子模块提取所述第一运算指令传输至所述运算模块;
所述确定该第一运算指令与第一运算指令之前的第零运算指令是否存在关联关系包括:
依据所述第一运算指令提取所述第一运算指令中所需数据(例如矩阵) 的第一存储地址区间,依据所述第零运算指令提取所述第零运算指令中所需矩阵的第零存储地址区间,如所述第一存储地址区间与所述第零存储地址区间具有重叠的区域,则确定所述第一运算指令与所述第零运算指令具有关联关系,如所述第一存储地址区间与所述第零存储地址区间不具有重叠的区域,则确定所述第一运算指令与所述第零运算指令不具有关联关系。
图9示出根据本公开一实施例的第一处理器的示意图。在一种可能的实施方式中,如图9所示,运算模块33可以包括分支处理电路333,
其中,主处理电路331与分支处理电路333连接,分支处理电路333与多个从处理电路332连接;
分支处理电路333,用于执行转发主处理电路331与从处理电路332之间的数据或指令。
在一种可能的实施方式中,以神经网络运算中的全连接运算为例,过程可以为:y=f(wx+b),其中,x为输入神经元矩阵,w为权值矩阵,b为偏置标量,f为激活函数,具体可以为:sigmoid函数,tanh、relu、softmax函数中的任意一个。这里假设为二叉树结构,具有8个从处理电路,其实现的方法可以为:
控制模块从存储模块31内获取输入神经元矩阵x,权值矩阵w以及全连接运算指令,将输入神经元矩阵x,权值矩阵w以及全连接运算指令传输给主处理电路;
主处理电路将输入神经元矩阵x拆分成8个子矩阵,然后将8个子矩阵通过树型模块分发给8个从处理电路,将权值矩阵w广播给8个从处理电路,
从处理电路并行执行8个子矩阵与权值矩阵w的乘法运算和累加运算得到8个中间结果,将8个中间结果发送给主处理电路;
主处理电路,用于将8个中间结果排序得到wx的运算结果,将该运算结果执行偏置b的运算后执行激活操作得到最终结果y,将最终结果y发送至控制模块,控制模块将该最终结果y输出或存储至存储模块31内。
如图9所示的第一处理器执行神经网络正向运算指令的方法具体可以为:
控制模块32从存储模块31内提取运算数据(例如神经网络正向运算指令、神经网络运算指令)对应的操作域以及至少一个操作码,控制模块32将该操作域传输至数据访问模块,将该至少一个操作码发送至运算模块。
控制模块32从存储模块31内提取该操作域对应的权值w和偏置b(当b为0 时,不需要提取偏置b),将权值w和偏置b传输至运算模块的主处理电路,控制模块从存储模块31内提取输入数据Xi,将该输入数据Xi发送至主处理电路。
主处理电路将输入数据Xi拆分成n个数据块;
控制模块32的指令处理子模块321依据该至少一个操作码确定乘法指令、偏置指令和累加指令,将乘法指令、偏置指令和累加指令发送至主处理电路,主处理电路将该乘法指令、权值w以广播的方式发送给多个从处理电路,将该n个数据块分发给该多个从处理电路(例如具有n个从处理电路,那么每个从处理电路发送一个数据块);多个从处理电路,用于依据该乘法指令将该权值w与接收到的数据块执行乘法运算得到中间结果,将该中间结果发送至主处理电路,该主处理电路依据该累加指令将多个从处理电路发送的中间结果执行累加运算得到累加结果,依据该偏执指令将该累加结果执行加偏执b 得到最终结果,将该最终结果发送至该控制模块。
另外,加法运算和乘法运算的顺序可以调换。
本申请提供的技术方案通过一个指令即神经网络运算指令即实现了神经网络的乘法运算以及偏置运算,在神经网络计算的中间结果均无需存储或提取,减少了中间数据的存储以及提取操作,所以其具有减少对应的操作步骤,提高神经网络的计算效果的优点。
图10示出根据本公开一实施例的第一处理器的示意图。在一种可能的实施方式中,如图10所示,运算模块33可以包括一个主处理电路331和多个从处理电路332。
在一种可能的实施方式中,如图10所示,多个从处理电路呈阵列分布;每个从处理电路与相邻的其他从处理电路连接,主处理电路连接所述多个从处理电路中的k个从处理电路,所述k个从处理电路为:第1行的n个从处理电路、第m行的n个从处理电路以及第1列的m个从处理电路,需要说明的是,如图10所示的K个从处理电路仅包括第1行的n个从处理电路、第m行的n个从处理电路以及第1列的m个从处理电路,即该k个从处理电路为多个从处理电路中直接与主处理电路连接的从处理电路。
K个从处理电路,用于在所述主处理电路以及多个从处理电路之间的数据以及指令的转发。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于可选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
所述集成的模块如果以软件程序模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (12)

1.一种数据处理方法,其特征在于,所述方法应用于第一处理器,所述方法包括:
通过第一存储模块接收并存储输入数据的第一存储空间的第一地址,所述第一存储空间为所述输入数据在第二处理器中的存储空间;
对人工智能算子进行编译,所述人工智能算子是从预设的人工智能算子库中调用的算子;
在所述人工智能算子编译完成时,根据输入数据的类型、输出数据的类型以及人工智能算子的类型,通过所述第一存储模块为所述输入数据在第一处理器中分配第二存储空间;
根据所述第一地址,将所述输入数据复制到所述第二存储空间;
根据所述第二存储空间的第二地址,通过所述人工智能算子对所述输入数据执行相应的人工智能运算,得到输出数据,
所述方法还包括:在将所述输入数据复制到所述第二存储空间后,释放所述第一存储模块中的第一地址。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在人工智能算子编译完成时,通过所述第一存储模块为输出数据在第一处理器中分配第三存储空间,并在所述第一存储模块中存储所述第三存储空间的第三地址。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在得到输出数据时,根据所述第三地址,将所述输出数据存储到所述第三存储空间。
4.一种数据处理方法,其特征在于,所述方法应用于第二处理器,所述方法包括:
在接收到输入数据时,通过第二存储模块为所述输入数据在第二处理器中分配第一存储空间,并在所述第二存储模块中存储所述第一存储空间的第一地址;
将接收到的输入数据存储到所述第一存储空间;
将所述第一地址传递到第一处理器中的第一存储模块,以使所述第一处理器在人工智能算子编译完成时存储所述输入数据,并对所述输入数据执行相应的人工智能运算,
其中,所述方法还包括:在所述第一存储模块中的第一地址被释放后,释放所述第二存储模块中的第一地址,以释放所述第一存储空间。
5.根据权利要求4所述的方法,其特征在于,将所述第一地址传递到第一处理器中的第一存储模块,包括:
通过中间存储模块将所述第一地址传递到所述第一存储模块。
6.一种数据处理装置,其特征在于,所述装置应用于第一处理器,所述装置包括:
数据接收模块,用于通过第一存储模块接收并存储输入数据的第一存储空间的第一地址,所述第一存储空间为所述输入数据在第二处理器中的存储空间;
算子编译模块,用于对人工智能算子进行编译,所述人工智能算子是从预设的人工智能算子库中调用的算子;
第一分配模块,用于在所述人工智能算子编译完成时,根据输入数据的类型、输出数据的类型以及人工智能算子的类型,通过所述第一存储模块为所述输入数据在第一处理器中分配第二存储空间;
复制模块,用于根据所述第一地址,将所述输入数据复制到所述第二存储空间;
数据运算模块,用于根据所述第二存储空间的第二地址,通过所述人工智能算子对所述输入数据执行相应的人工智能运算,得到输出数据,
所述装置还包括:第一释放模块,用于在将所述输入数据复制到所述第二存储空间后,释放所述第一存储模块中的第一地址。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二分配模块,用于在人工智能算子编译完成时,通过所述第一存储模块为输出数据在第一处理器中分配第三存储空间,并在所述第一存储模块中存储所述第三存储空间的第三地址。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
第一数据存储模块,用于在得到输出数据时,根据所述第三地址,将所述输出数据存储到所述第三存储空间。
9.一种数据处理装置,其特征在于,所述装置应用于第二处理器,所述装置包括:
第三分配模块,用于在接收到输入数据时,通过第二存储模块为所述输入数据在第二处理器中分配第一存储空间,并在所述第二存储模块中存储所述第一存储空间的第一地址;
第二数据存储模块,用于将接收到的输入数据存储到所述第一存储空间;
地址传递模块,用于将所述第一地址传递到第一处理器中的第一存储模块,以使所述第一处理器在人工智能算子编译完成时存储所述输入数据,并对所述输入数据执行相应的人工智能运算,
其中,所述装置还包括:第二释放模块,用于在所述第一存储模块中的第一地址被释放后,释放所述第二存储模块中的第一地址,以释放所述第一存储空间。
10.根据权利要求9所述的装置,其特征在于,所述地址传递模块用于:通过中间存储模块将所述第一地址传递到所述第一存储模块。
11.一种人工智能处理装置,其特征在于,所述装置包括第一处理器和第二处理器,所述第一处理器连接到所述第二处理器,
其中,所述第一处理器被配置为执行1-3中任意一项所述的数据处理方法,所述第二处理器被配置为执行权利要求4或5所述的数据处理方法。
12.根据权利要求11所述的装置,其特征在于,所述第一处理器用于执行人工智能计算,所述第一处理器包括:运算模块以及控制模块,所述运算模块包括:一个主处理电路和多个从处理电路;
所述控制模块,用于获取输入数据以及计算指令;
所述控制模块,还用于解析该计算指令得到多个运算指令,将该多个运算指令以及所述输入数据发送给所述主处理电路;
所述主处理电路,用于对所述输入数据执行前序处理以及与所述多个从处理电路之间传输数据和运算指令;
所述多个从处理电路,用于依据从所述主处理电路传输的数据以及运算指令并行执行中间运算得到多个中间结果,并将多个中间结果传输给所述主处理电路;
所述主处理电路,用于对所述多个中间结果执行后续处理得到所述计算指令的计算结果。
CN201811544251.0A 2018-12-17 2018-12-17 运算方法、装置及相关产品 Active CN109711539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811544251.0A CN109711539B (zh) 2018-12-17 2018-12-17 运算方法、装置及相关产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811544251.0A CN109711539B (zh) 2018-12-17 2018-12-17 运算方法、装置及相关产品

Publications (2)

Publication Number Publication Date
CN109711539A CN109711539A (zh) 2019-05-03
CN109711539B true CN109711539B (zh) 2020-05-29

Family

ID=66256805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811544251.0A Active CN109711539B (zh) 2018-12-17 2018-12-17 运算方法、装置及相关产品

Country Status (1)

Country Link
CN (1) CN109711539B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112306945B (zh) * 2019-07-30 2023-05-12 安徽寒武纪信息科技有限公司 数据同步方法及装置以及相关产品
CN117077804A (zh) * 2019-05-10 2023-11-17 中科寒武纪科技股份有限公司 人工智能指令的处理方法及装置、板卡和电子设备
CN111966399B (zh) * 2019-05-20 2024-06-07 上海寒武纪信息科技有限公司 指令处理方法、装置及相关产品
CN111949318B (zh) * 2019-05-17 2024-07-23 上海寒武纪信息科技有限公司 指令处理方法、装置及相关产品
CN111966325A (zh) * 2019-05-20 2020-11-20 上海寒武纪信息科技有限公司 指令处理方法、装置及相关产品
CN111966403A (zh) * 2019-05-20 2020-11-20 上海寒武纪信息科技有限公司 指令处理方法、装置及相关产品
CN111966306A (zh) * 2019-05-20 2020-11-20 上海寒武纪信息科技有限公司 指令处理方法、装置及相关产品
CN112346707A (zh) * 2019-08-07 2021-02-09 上海寒武纪信息科技有限公司 指令处理方法、装置及相关产品
CN112394902A (zh) * 2019-08-13 2021-02-23 上海寒武纪信息科技有限公司 半精度浮点转浮点指令处理装置、方法及相关产品
CN113626083B (zh) * 2020-05-08 2023-10-13 安徽寒武纪信息科技有限公司 数据处理装置以及相关产品
CN113626080B (zh) * 2020-05-08 2023-10-03 安徽寒武纪信息科技有限公司 数据处理装置以及相关产品
CN112270412B (zh) * 2020-10-15 2023-10-27 北京百度网讯科技有限公司 网络算子处理方法、装置、电子设备及存储介质
CN112241324B (zh) * 2020-12-14 2021-03-19 蚂蚁智信(杭州)信息技术有限公司 内存管理方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102163247A (zh) * 2011-04-02 2011-08-24 北京大学深圳研究生院 一种可重构算子的阵列结构
CN105786465A (zh) * 2014-12-23 2016-07-20 远光软件股份有限公司 一种脚本语言执行方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8027942B2 (en) * 2000-12-13 2011-09-27 International Business Machines Corporation Method and circuits for associating a complex operator to each component of an input pattern presented to an artificial neural network
CN111860811B (zh) * 2016-04-27 2024-01-16 中科寒武纪科技股份有限公司 一种用于执行人工神经网络全连接层正向运算的装置和方法
WO2017198345A2 (en) * 2016-05-17 2017-11-23 Arctic Alliance Ltd Artificial intelligence data processing system and method
CN105893159B (zh) * 2016-06-21 2018-06-19 北京百度网讯科技有限公司 数据处理方法和装置
CN106228240B (zh) * 2016-07-30 2020-09-01 复旦大学 基于fpga的深度卷积神经网络实现方法
US10360011B2 (en) * 2017-01-17 2019-07-23 Oracle International Corporation Private computer network installations
CN108628726B (zh) * 2017-03-22 2021-02-23 比亚迪股份有限公司 Cpu状态信息记录方法和装置
US10552733B2 (en) * 2017-04-03 2020-02-04 Gyrfalcon Technology Inc. Memory subsystem in CNN based digital IC for artificial intelligence
CN107861757B (zh) * 2017-11-30 2020-08-25 上海寒武纪信息科技有限公司 运算装置以及相关产品
CN108197705A (zh) * 2017-12-29 2018-06-22 国民技术股份有限公司 卷积神经网络硬件加速装置及卷积计算方法及存储介质
CN108090560A (zh) * 2018-01-05 2018-05-29 中国科学技术大学苏州研究院 基于fpga的lstm递归神经网络硬件加速器的设计方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102163247A (zh) * 2011-04-02 2011-08-24 北京大学深圳研究生院 一种可重构算子的阵列结构
CN105786465A (zh) * 2014-12-23 2016-07-20 远光软件股份有限公司 一种脚本语言执行方法及装置

Also Published As

Publication number Publication date
CN109711539A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
CN109711539B (zh) 运算方法、装置及相关产品
CN110689138B (zh) 运算方法、装置及相关产品
CN107729989B (zh) 一种用于执行人工神经网络正向运算的装置及方法
CN109657782B (zh) 运算方法、装置及相关产品
CN110135581B (zh) 用于执行人工神经网络反向运算的装置和方法
CN109685201B (zh) 运算方法、装置及相关产品
US20210216318A1 (en) Vector Processor Architectures
WO2020073211A1 (zh) 运算加速器、处理方法及相关设备
CN110163353B (zh) 一种计算装置及方法
US8595280B2 (en) Apparatus and method for performing multiply-accumulate operations
CN111226230A (zh) 具有多个处理器和神经网络加速器的神经网络处理系统
CN111338695B (zh) 基于流水线技术的数据处理方法及相关产品
CN109726822B (zh) 运算方法、装置及相关产品
CN111047045B (zh) 机器学习运算的分配系统及方法
CN111045728B (zh) 一种计算装置及相关产品
CN110503179B (zh) 计算方法以及相关产品
Véstias et al. A fast and scalable architecture to run convolutional neural networks in low density FPGAs
US20200356836A1 (en) Fast deep learning fully-connected column-major implementation
CN109740730B (zh) 运算方法、装置及相关产品
CN109711538B (zh) 运算方法、装置及相关产品
CN111723917B (zh) 运算方法、装置及相关产品
CN111291884A (zh) 神经网络剪枝方法、装置、电子设备及计算机可读介质
CN111026517A (zh) 任务分解装置及任务调度器
CN111626413A (zh) 一种计算装置及方法
CN110909871B (zh) 状态信息获取装置和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100190 room 644, comprehensive research building, No. 6 South Road, Haidian District Academy of Sciences, Beijing

Applicant after: Zhongke Cambrian Technology Co., Ltd

Address before: 100190 room 644, comprehensive research building, No. 6 South Road, Haidian District Academy of Sciences, Beijing

Applicant before: Beijing Zhongke Cambrian Technology Co., Ltd.

GR01 Patent grant
GR01 Patent grant