CN110162337A - 运算方法、装置及相关产品 - Google Patents

运算方法、装置及相关产品 Download PDF

Info

Publication number
CN110162337A
CN110162337A CN201910472889.6A CN201910472889A CN110162337A CN 110162337 A CN110162337 A CN 110162337A CN 201910472889 A CN201910472889 A CN 201910472889A CN 110162337 A CN110162337 A CN 110162337A
Authority
CN
China
Prior art keywords
node
duplicate
input terminal
output end
identity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910472889.6A
Other languages
English (en)
Other versions
CN110162337B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cambricon Technologies Corp Ltd
Beijing Zhongke Cambrian Technology Co Ltd
Original Assignee
Beijing Zhongke Cambrian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongke Cambrian Technology Co Ltd filed Critical Beijing Zhongke Cambrian Technology Co Ltd
Priority to CN201910472889.6A priority Critical patent/CN110162337B/zh
Publication of CN110162337A publication Critical patent/CN110162337A/zh
Application granted granted Critical
Publication of CN110162337B publication Critical patent/CN110162337B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/30007Arrangements for executing specific machine instructions to perform operations on data operands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/34Addressing or accessing the instruction operand or the result ; Formation of operand address; Addressing modes
    • G06F9/345Addressing or accessing the instruction operand or the result ; Formation of operand address; Addressing modes of multiple operands or results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开涉及一种运算方法、装置及相关产品,所述产品包括芯片、其他的配套部件,配套部件包括但不限于:存储器件、接口装置和控制器件;所述存储器件与芯片通过总线连接,用于存储数据;接口装置与芯片电连接,接口装置用于实现所述芯片与外部设备之间的数据传输;控制器件与芯片电连接,控制器件用于对所述芯片的状态进行监控。根据本公开的产品,可以实现被多次使用的操作数对应的梯度在反向训练时相加得到操作数的梯度,以及便于后继操作查找需要的输入数据。

Description

运算方法、装置及相关产品
技术领域
本公开涉及信息处理技术领域,尤其涉及一种运算方法、装置及相关产品。
背景技术
在人工智能技术领域,神经网络算法是最近非常流行的一种机器学习算法,在各种领域中都取得了非常好的效果,比如图像识别,语音识别,自然语言处理等。随着神经网络算法的发展,算法的复杂度也越来越高,为了提高识别度,模型的规模也在逐渐增大。
发明内容
有鉴于此,本公开提出了一种节点插入方法及装置。
根据本公开的一方面,提供了一种节点插入方法,所述方法包括:
确定计算图中被使用的操作数以及所述操作数被使用的总次数n;其中,n为整数,且n≥2;
确定输出所述操作数的第一节点,以及使用所述操作数的第二节点;
根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,
其中,Duplicate节点用于在反向训练时将所述操作数对应的多个梯度相加,Identity节点用于在反向训练时保存所述操作数对应的梯度。
在一种可能的实现方式中,若所述操作数被同一个第二节点多次使用,则根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,包括:
在所述第一节点和所述第二节点之间插入n-1个Duplicate节点;
其中,所述n-1个Duplicate节点中有一个第一Duplicate节点的两个输出端均连接所述第二节点的输入端;
在第一Duplicate节点和所述第二节点之间插入一个Identity节点,该Identity节点的输入端连接所述第一Duplicate节点的一个输出端、该Identity节点的输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n>2,则在插入Identity节点之前,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接所述第二节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第二Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若所述操作数被同一个第二节点多次使用,则根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,还包括:
在所述第一节点和所述第二节点之间插入n-1个Identity节点;
在所述第一节点、所述第二节点和n-1个Identity节点之间插入n-1个Duplicate节点;
其中,所述n-1个Identity节点的输入端连接Duplicate节点的一个输出端、输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n=2,则Duplicate节点的一个输入端连接所述第一节点的输出端、另一个输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n>2,则所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第三Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接所述第二节点的输入端,有一个第四Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若n>2,则所述n-1个Duplicate节点中有n-3个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第五Duplicate节点的两个输出端均连接Identity节点的输入端,有一个第六Duplicate节点的输入端连接所述第一节点的输出端、一个输出端连接所述第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端。
在一种可能的实现方式中,若所述操作数被使用的n次中的每一次都是由不同的第二节点使用,则根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,包括:
在所述第一节点和所述第二节点之间插入n-1个Duplicate节点;其中,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接一个第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端,一个Duplicate节点的两个输出端分别连接不同的第二节点的输入端,一个Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若n≥3,且所述操作数被使用的n次中有同一个第二节点使用m次的情况,其中m≥2且m为整数,则根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,包括:
在所述第一节点和使用m次操作数的第二节点之间插入m-1个Identity节点;
在第一节点、第二节点和Identity节点之间插入n-1个Duplicate节点。
在一种可能的实现方式中,若n≥3,且所述操作数被使用的n次中有同一个第二节点使用m次的情况,其中m≥2且m为整数,则根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,包括:
在第一节点和第二节点之间插入n-1个Duplicate节点;
若存在Duplicate节点的两个输出端均连接同一第二节点的输入端,则在两个输出端均连接至同一第二节点的Duplicate节点后插入一个Identity节点。
在一种可能的实现方式中,Duplicate节点还用于在前向计算过程中,复制多份操作数输出到Duplicate节点的输出端。
在一种可能的实现方式中,Identity节点还用于在前向计算过程中直接输出操作数。
根据本公开的另一方面,提供了一种节点插入装置,所述装置包括:
次数确定模块,用于确定计算图中被使用的操作数以及所述操作数被使用的总次数n;其中,n为整数,且n≥2;
节点确定模块,用于确定输出所述操作数的第一节点,以及使用所述操作数的第二节点;
插入模块,用于根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,
其中,Duplicate节点用于在反向训练时将所述操作数对应的多个梯度相加,Identity节点用于在反向训练时保存所述操作数对应的梯度。
在一种可能的实现方式中,若所述操作数被同一个第二节点多次使用,则所述插入模块包括:
第一插入单元,用于在所述第一节点和所述第二节点之间插入n-1个Duplicate节点;
其中,所述n-1个Duplicate节点中有一个第一Duplicate节点的两个输出端均连接所述第二节点的输入端;
第二插入单元,用于在第一Duplicate节点和所述第二节点之间插入一个Identity节点,该Identity节点的输入端连接所述第一Duplicate节点的一个输出端、该Identity节点的输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n>2,则在插入Identity节点之前,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接所述第二节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第二Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若所述操作数被同一个第二节点多次使用,则
所述第二插入单元还用于在所述第一节点和所述第二节点之间插入n-1个Identity节点;
所述第一插入单元还用于在所述第一节点、所述第二节点和n-1个Identity节点之间插入n-1个Duplicate节点;
其中,所述n-1个Identity节点的输入端连接Duplicate节点的一个输出端、输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n=2,则Duplicate节点的一个输入端连接所述第一节点的输出端、另一个输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n>2,则所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第三Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接所述第二节点的输入端,有一个第四Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若n>2,则所述n-1个Duplicate节点中有n-3个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第五Duplicate节点的两个输出端均连接Identity节点的输入端,有一个第六Duplicate节点的输入端连接所述第一节点的输出端、一个输出端连接所述第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端。
在一种可能的实现方式中,若所述操作数被使用的n次中的每一次都是由不同的第二节点使用,则所述第一插入单元还用于
在所述第一节点和所述第二节点之间插入n-1个Duplicate节点;
其中,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接一个第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端,一个Duplicate节点的两个输出端分别连接不同的第二节点的输入端,一个Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若n≥3,且所述操作数被使用的n次中有同一个第二节点使用m次的情况,其中m≥2且m为整数,则所述第二插入单元还用于
在所述第一节点和使用m次操作数的第二节点之间插入m-1个Identity节点;
所述第一插入单元还用于在第一节点、第二节点和Identity节点之间插入n-1个Duplicate节点。
在一种可能的实现方式中,且所述操作数被使用的n次中有同一个第二节点使用m次的情况,其中m≥2且m为整数,则所述第一插入单元还用于
在第一节点和第二节点之间插入n-1个Duplicate节点;
所述第二插入单元还用于若存在Duplicate节点的两个输出端均连接同一第二节点的输入端,则在两个输出端均连接至同一第二节点的Duplicate节点后插入一个Identity节点。
在一种可能的实现方式中,Duplicate节点还用于在前向计算过程中,复制多份操作数输出到Duplicate节点的输出端。
在一种可能的实现方式中,Identity节点还用于在前向计算过程中直接输出操作数。
根据本公开的另一方面,提供了一种节点插入装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述方法。
根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时实现上述方法。
通过在计算图中插入Duplicate节点在反向训练时将操作数对应的多个梯度相加,插入Identity节点使得被同一操作多次使用的操作数在后继操作查找输入数据时便于后继操作查找到需要的输入数据。根据本公开的节点插入的方法和装置,可以实现被多次使用的操作数对应的梯度在反向训练时相加得到操作数的梯度,以及便于后继操作查找需要的输入数据。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开一实施例的节点插入方法的流程图。
图2示出根据本公开一示例的节点之间的拓扑的示意图。
图3示出根据本公开一实施例的步骤S13的方法的流程图。
图4a示出根据本公开一示例的节点之间的拓扑的示意图。
图4b示出根据本公开一示例的节点之间的拓扑的示意图。
图4c示出根据本公开一示例的节点之间的拓扑的示意图。
图4d示出根据本公开一示例的节点之间的拓扑的示意图。
图4e示出根据本公开一示例的节点之间的拓扑的示意图。
图4f示出根据本公开一示例的节点之间的拓扑的示意图。
图5示出根据本公开一实施例的步骤S13的方法的流程图。
图6a示出根据本公开一示例的节点之间的拓扑的示意图。
图6b示出根据本公开一示例的插入Duplicate节点的示意图。
图7和图8a分别示出根据本公开一实施例的步骤S13的方法的流程图。
图8b示出根据本公开一示例的节点之间的拓扑的示意图。
图9示出根据本公开一实施例的节点插入装置的框图。
图10示出根据本公开一实施例的节点插入装置的框图。
图11示出根据本公开一实施例的节点插入装置的框图。
图12示出根据本公开一实施例的节点插入装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
在神经网络中,一些操作数在计算过程中有可能被使用多次。在前向传播过程中,可以对这个操作数写一次、读多次实现,将操作数的传递关系传递正确就可以。在反向训练时,根据链式求导法则,可以对这个操作数计算出多个梯度,然后将这些梯度相加就是该操作数的梯度。还有一些操作数在计算过程中有可能被同一操作使用多次,该操作对应的节点的输入数据都指向同一指针,无法区分输入数据。
本公开提供了一种节点插入方法。该方法可以应用于处理器,所述处理器可以为通用处理器,例如,处理器可以为中央处理单元CPU(Central Processing Unit)、图形处理单元GPU(Graphics Processing Unit)等。所述处理器还可以为用于执行人工智能运算的人工智能处理器,人工智能运算可包括机器学习运算,类脑运算等。其中,机器学习运算包括神经网络运算、k-means运算、支持向量机运算等。该人工智能处理器可例如包括NPU(Neural-Network Processing Unit,神经网络处理单元)、DSP(Digital Signal Process,数字信号处理单元)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)芯片中的一种或组合。人工智能处理器可以包括多个运算单元,多个运算单元可以并行执行运算。
图1示出根据本公开一实施例的节点插入方法的流程图。如图1所示,该方法可以包括:
步骤S11,确定计算图中被使用的操作数以及所述操作数被使用的总次数n;其中,n为整数,且n≥2;
步骤S12,确定输出所述操作数的第一节点,以及使用所述操作数的第二节点;
步骤S13,根据所述总次数n在第一节点和第二节点之间插入Duplicate节点和/或Identity节点,
其中,Duplicate节点用于在反向训练时将操作数对应的多个梯度相加,Identity节点用于在反向训练时保存操作数对应的梯度。
通过在计算图中插入Duplicate节点在反向训练时将操作数对应的多个梯度相加,插入Identity节点使得被同一操作多次使用的操作数在后继操作查找输入数据时便于后继操作查找到需要的输入数据。根据本公开的节点插入的方法,可以实现被多次使用的操作数对应的梯度在反向训练时相加得到操作数的梯度,以及便于后继操作查找需要的输入数据。
对于步骤S11,操作数可以是指在对神经网络进行运算的过程中使用的输入数据或者计算得到的输出数据,这里的输入数据或者输出数据不单单指整个神经网络第一层的输入数据或者最后一层的输出数据,可以包括神经网络的中间层的输入数据或者输出数据。
计算图(Computational Graph)是通过图论语言表示数据函数的一种方式。在图论中节点通过边连接,节点代表事物,连接两节点的边表示两个事物间具有的关系。而计算图中用节点代表神经网络中的输入值或者算子,连接两节点的边表示两点之间的输入输出关系,等。
在一种可能的实现方式中,处理器可以读取计算图中每一个节点的输入数据,根据读取的每一个节点的输入数据确定哪些输入数据多次作为相同节点或者不同节点的输入数据,这些输入数据就是多次被使用的操作数,根据读取的输入数据还可以确定操作数被使用的次数。
举例来说,处理器可以根据配置文件先对计算图进行配置,也就是根据用户提供的配置文件解析计算图,配置文件可以是记录了神经网络的计算图中每个节点的名称、参数、属性以及节点之间连接关系等的文件,处理器可以根据配置文件解析计算图中的每个节点。
具体来说,在进行计算图解析时,处理器可以解析配置文件得到第一数组,所述第一数组中包括表示所述计算图的节点的第一对象,每个第一对象包括节点属性键值对以及节点参数键值对,其中,所述节点属性键值对用于记录节点的属性,节点参数键值对用于记录节点的参数。第一数组可以是JSON(JavaScript Object Notation,JS对象简谱)数组,第一对象可以是JSON对象,计算图中的每个节点可以用JSON数组中的JSON对象表示,JSON对象可以用键值对描述计算图中的节点,一个JSON对象可以包括一个或多个键值对,多个键值对可以描述节点的不同信息。
其中,节点参数键值对可以包括节点名称键值对和运算键值对,节点名称键值对用于记录节点的名称,运算键值对用于记录节点的操作类型。节点的操作类型也就是节点的运算operation,例如,reshape、transpose等。
举例来说,节点名称键值对的key可以为name、value可以是字符串string,运算键值对的key可以为op、value可以是string。节点属性键值对的key可以为attrs、值value可以为JSON对象,JSON对象的key和value都可以是string,string可以取不同的值,进而表示不同的属性。
第一对象(JSON对象)还可以包括结构键值对,结构键值对用于记录结构键值对所属节点的输入数据,例如,结构键值对的值可以记录结构键值对所属节点的输入节点的名称,其中,节点的输入节点的输出数据作为该节点的输入数据。举例来说,结构键值对的key可以为input、value可以是string。
在一种可能的实现方式中,若某一节点的输入节点包括多个输出数据,结构键值对的值可以为第三数组,第三数组也可以为JSON数组,此时,结构键值对的value可以是string组成的JSON数组,也就是说,可以通过多个string分别表示多个输出数据。
例如,一个节点可以表示为:
其中,节点的名字为add,节点的运算为add(加),节点的输入数据为节点Input1的输出数据。
在进行计算图解析时,处理器可以根据配置文件遍历配置文件中的每一个节点,并创建NodeDef类,将配置文件中每一个节点的信息转化到NodeDef类中,并将NodeDef类保存到GraphDef类中。
然后,处理器可以读取NodeDef类中每一个节点的输入数据,根据读取的每一个节点的输入数据可以确定哪些输入数据多次作为相同节点或者不同节点的输入数据被使用以及被使用的次数。
需要说明的是,以上确定多次被使用的操作数以及操作数被使用的次数的方式仅仅是本公开的一个示例性说明,不以任何方式向限制本公开,本领域技术人员可以理解,还可以根据应用的场景采取其他合适的方式确定多次被使用的操作数以及操作数被使用的次数。
对于步骤S12,可以根据解析得到的节点的信息确定输出所述操作数的第一节点、以及使用所述操作数的第二节点。举例来说,如上所述,在NodeDef类中记录了每个节点的名称、操作、输入节点的名称等信息,因此,在确定好多次被使用的操作数后,可以确定操作数是哪个节点的输出数据,这个节点就是第一节点,还可以确定操作数是哪个或者哪些节点的输入数据,从而确定第二节点。
表1节点操作数传递示例
节点名称 输入数据 操作…
节点2 节点1,节点1
节点3 节点1
节点4 节点1
如表1所示,节点2的输入数据是节点1的输出数据,且节点2要使用2次节点1的输出数据,节点3的输入数据也是节点1的输出数据,节点4的输入数据也是节点1的输出数据。由此,可以确定被多次使用到操作数是节点1的输出数据,节点1为第一节点,节点2、节点3和节点4都是第二节点。图2示出根据本公开一示例的节点之间的拓扑的示意图。
对于步骤S13,可以根据不同的情况有多种不同的插入方式。例如,在多个不同的第二节点使用同一操作数时,可以只插入Duplicate节点,可以实现被多次使用的操作数对应的梯度在反向训练时相加得到操作数的梯度。在同一操作数被同一操作多次使用时,可以同时插入Duplicate节点和Identity节点,Duplicate节点在反向训练时将操作数对应的多个梯度相加,Identity节点便于后继操作查找到需要的输入数据。
图3示出根据本公开一实施例的步骤S13的方法的流程图。如图3所示,在一种可能的实现方式中,步骤S13可以包括:
步骤S130,在所述第一节点和第二节点之间插入n-1个Duplicate节点;其中,所述n-1个Duplicate节点中有一个第一Duplicate节点的两个输出端均连接所述第二节点的输入端;
步骤S131,在第一Duplicate节点和第二节点之间插入一个Identity节点,该Identity节点的输入端连接所述第一Duplicate节点的一个输出端、该Identity节点的输出端连接所述第二节点的输入端。
这种插入方式可以适用于同一操作数被同一个第二节点多次使用的情况。
图4a-图4c分别示出根据本公开一示例的节点之间的拓扑的示意图。如图4a所示,节点1(第一节点)的输出数据被节点2(第二节点)多次使用,使用的次数可以为3。在步骤S130中,则可以在节点1和节点2之间插入2个Duplicate节点,插入的示例如图4b所示,图4b中的节点D1和节点D2分别代表两个Duplicate节点。插入完Duplicate节点后,有一个Duplicate节点的两个输出端是均连接到第二节点的输入端的,如图4b所示的节点D2的两个输出端均连接到节点2的输入端,节点D2即为第一Duplicate节点。在步骤S131中,可以在节点D2和节点2之间插入一个Identity节点,该Identity节点的输入端连接节点D2的一个输出端、该Identity节点的输出端连接节点2的输入端,具体如图4c所示。
在一种可能的实现方式中,若n>2,则在插入Identity节点之前,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接第二节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第二Duplicate节点的输入端连接所述第一节点的输出端。
举例来说,如图4b所示,节点D1的一个输出端连接节点2的输入端、一个输出端连接另一个Duplicate节点D2的输入端,节点D1的输入端连接节点1的输出端。
由于n=2时,只插入了一个Duplicate节点,在插入Identity节点之前,该Duplicate节点的两个输出端是均连接到第二节点的输入端、一个输入端连接第一节点的输出端,此时,第一Duplicate节点和第二Duplicate节点为同一Duplicate节点,不存在Duplicate节点的一个输出端连接第二节点的输入端、一个输出端连接另一个Duplicate节点的输入端。
在一种可能的实现方式中,Duplicate节点还用于在前向计算过程中,复制多份操作数输出到Duplicate节点的输出端;Identity节点还用于在前向计算过程中直接输出操作数。
举例来说,在前向计算过程中,Duplicate节点将输入数据的指针复制多份填到输出数据的指针的位置,仅仅是指针的复制,没有引入额外的计算开销,Identity节点直接将输入数据的指针填到输出数据的指针的位置,也没有引入额外的计算开销。
如图4c所示,在前向计算过程中:节点D1的输入数据的指针指向节点1的输出数据存储的位置,节点D1复制两份输入数据的指针并填到节点D1的输出数据的指针的位置,节点D2的输入数据的指针指向节点D1的输出数据存储的位置,因此,同样指向节点1的输出数据存储的位置,节点D2复制两份输入数据的指针并填到节点D2的输出数据的指针的位置,节点I1的输入数据的指针指向节点D2的输出数据存的位置,因此,同样指向节点1的输出数据存储的位置,节点I1直接将输入数据的指针填到输出数据的指针的位置,也就是直接将指向节点1的输出数据存储的位置的指针填到输出数据的指针的位置。因此,节点2的输入数据的指针仍然是三个指向节点1的输出数据的存储位置的指针,前向计算没有引入额外的计算开销。
由于节点1的输出数据被使用三次,因此,在反向训练时会得到三份梯度。在反向训练过程中,节点I1保存一份梯度(最右侧的路径上的梯度),节点D2负责将中间路径上的梯度和最右侧路径上的梯度相加求和得到两份梯度的和,节点D1负责将最左侧路径上的梯度和上述两份梯度的和相加求和得到三分梯度的和,也就是节点1的输出数据对应的梯度。这样,就可以实现对被使用多次的操作数的梯度的相加。
另外,在插入Duplicate节点和Identity节点后,如图4c所示,节点2的输入节点分别为节点D1、节点D2和节点I1,便于后继操作(节点2)查找到需要的输入数据。
举例来说,Duplicate节点也是一个多输出(两个输出)的操作。如果Duplicate的两个输出操作数,都给了Add(加法)操作,那么在Duplicate节点对应的out_nodes_域中,Add节点对应的Node*被保存了两份,也就是记录了两份相同的指向Add的指针。当获取Add节点的第0个输入操作数的时候,发现Add在Duplicate操作的out_nodes_域中出现了两次,此时,将无法确定第几个输出操作数返回给Add。在Duplicate节点和ADD节点之间插入Identity节点后,在Duplicate节点(输入节点)对应的out_nodes_域(输出节点域)中会保存指向Add节点和Identity节点的指针。当获取Add节点的第0个输入操作数的时候,发现Add在Duplicate操作的out_nodes_域中的第0个,将的第0个输出操作数返回给Add。当获取Identity节点的第0个输入操作数的时候,发现Identity在Duplicate操作的out_nodes_域中的第1个,将第1个输出操作数返回给Identity。当获取Add节点的第1个输入操作数的时候,发现Add在Identity操作的out_nodes_域中的第0个,它把自己的第0个输出返回给Add。
Duplicate节点在前向计算过程中和反向训练过程中的操作不同,在一种可能的实现方式中,为了区分前向计算的操作和反向训练的操作,可以为操作设置方向标识,处理器可以根据当前进行的运算以及方向标识调用正确的操作,或者,也可以在前向计算调用操作的指令和反向训练调用操作的指令中填入不同的指针,实现正确的调用操作。上述方式对Identity节点同样适用。以上仅仅是正确调用正向计算的操作和反向训练的操作的示例,本公开不限于此。
在一种可能的实现方式中,可以通过修改节点的输入数据的方式插入节点。仍然以上述示例为例,在插入节点的过程中,可以在节点D1的输入数据部分记录节点1,节点D2的输入数据部分记录节点D1,节点I1的输入数据部分记录节点D1,节点2的输入数据部分记录节点D1、D2和I1。需要说明的是,虽然在该示例中采用上述方式插入节点,但是通过修改节点的输入数据的方式插入节点适用于本公开所有的实施方式中,不限于本示例。
需要说明的是,以上关于如何实现正向计算和反向训练中,Duplicate节点和Identity节点的操作、如何实现插入节点的方式不仅仅适用于上文中的实施方式中,适用于本公开所有的实施方式中。
图5示出根据本公开一实施例的步骤S13的方法的流程图。如图5所示,在一种可能的实现方式中,步骤S13可以包括:
步骤S132,在所述第一节点和第二节点之间插入n-1个Identity节点;
步骤S133,在所述第一节点、第二节点和n-1个Identity节点之间插入n-1个Duplicate节点;其中,所述n-1个Identity节点的输入端连接Duplicate节点的一个输出端、输出端连接第二节点的输入端。
这种插入方式同样可以适用于同一操作数被同一个第二节点多次使用的情况,是本公开提供的一种插入的方式的示例。
图4d示出了插入过程中节点之间的拓扑的示意图。如图4d所示,在步骤S132中,在第一节点和第二节点之间插入n-1个Identity节点,n-1个Identity节点中的每一个的输入端连接第一节点的输出端、输出端连接第二节点的输入端。图4d仅仅是本公开的一个示例,可以在n条路径中的任意n-1条上插入Identity节点。
若n=2,插入Duplicate节点后,Duplicate节点的一个输入端连接所述第一节点的输出端,如上所述,Duplicate节点的一个输出端连接Identity节点的输入端,另一个输出端连接所述第二节点的输入端。
若n>2,则Duplicate节点的插入可以有多种不同的方式。
在一种可能的实现方式中,若n>2,插入n-1个Duplicate节点后,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第三Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接第二节点的输入端,有一个第四Duplicate节点的输入端连接所述第一节点的输出端。
图4e示出的是插入Duplicate节点的示意图。图4e所示为n=3的情况,节点D1的一个输出端连接节点I2的输入端、一个输出端连接节点D2的输入端,节点D2的一个输出端连接节点I1的输入端、一个输出端连接节点2的输入端,而且节点D2的输入端连接节点1的输出端。
在另一种可能的实现方式中,若n>2,插入n-1个Duplicate节点后,所述n-1个Duplicate节点中有n-3个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第五Duplicate节点的两个输出端均连接Identity节点的输入端,有一个第六Duplicate节点的输入端连接所述第一节点的输出端、一个输出端连接所述第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端。
图4f示出的是插入Duplicate节点的示意图。图4f所示为n=4的情况,节点D2的一个输出端连接节点I1的输入端、一个输出端连接节点D3的输入端,节点D3的两个输出端均连接Identity节点的输入端,节点D1的输入端连接节点1的输出端、一个输出端连接节点2的输入端、另一个输出端连接节点D2的输入端。
需要说明的是,图4e和图4f的连接方式仅仅是两种连接的示例,本领域技术人员可以理解,Duplicate节点和Identity节点可以有多种不同方式组合插入,不限于图4e和图4f所示的示例。
在一种可能的实现方式中,若所述操作数被使用的n次中的每一次都是由不同的第二节点使用,则步骤S13,根据所述总次数n在所述第一节点和第二节点之间插入Duplicate节点和/或Identity节点,可以包括:
在所述第一节点和第二节点之间插入n-1个Duplicate节点;其中,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接一个第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端,一个Duplicate节点的两个输出端分别连接不同的第二节点的输入端,一个Duplicate节点的输入端连接所述第一节点的输出端。
在本实施方式中,可以在第一节点和第二节点之间仅插入n-1个Duplicate节点,不插入Identity节点;或者,可以插入n-1个Duplicate节点,以及插入一个或多个Identity节点。
图6a示出根据本公开一示例的节点之间的拓扑的示意图。如图6a所示,节点1(第一节点)的输出数据被使用3次,这3次都是被不同的第二节点(节点2、节点3和节点4)使用。
图6b示出根据本公开一示例的插入Duplicate节点的示意图。图6b示出的是n=3的示例,插入了两个Duplicate节点,节点D1的一个输出端连接节点2的输入端、另一个输出端连接节点D2的输入端,节点D2两个输出端分别连接不同的第二节点(节点3和节点4)的输入端,节点D1的输入端连接节点1的输出端。图6b仅仅是本公开的一个示例,可以在n条路径中的任意n-1条上插入Duplicate节点。
在一种可能的实现方式中,若n≥3,且所述操作数被使用的n次中有同一个第二节点使用m次的情况,其中m≥2且m为整数,也就是说,操作数被使用的多次中有被同一第二节点多次使用、还有被不同的第二节点使用的情况,图2所示的为一个示例,节点1被节点2使用2次,同时还被节点3和节点4使用。在这种情况下,插入Duplicate节点和Identity节点的方式也有很多种,图7和图8a分别示出根据本公开一实施例的步骤S13的方法的流程图。
在一个示例中,如图7所示,步骤S13,根据所述总次数n在所述第一节点和第二节点之间插入Duplicate节点和/或Identity节点,可以包括:
步骤S134,在所述第一节点和使用m次操作数的第二节点之间插入m-1个Identity节点;
步骤S135,在第一节点、第二节点和Identity节点之间插入n-1个Duplicate节点。
对于步骤S134和步骤S135,具体的插入过程可以参见上文中关于步骤S132、S133部分的介绍,方式相同,不再赘述。
在另一个示例中,如图8a所示,步骤S13,根据所述总次数n在所述第一节点和第二节点之间插入Duplicate节点和/或Identity节点,可以包括:
步骤S136,在第一节点和第二节点之间插入n-1个Duplicate节点;
步骤S137,若存在Duplicate节点的两个输出端均连接同一第二节点的输入端,则在两个输出端均连接至同一第二节点的Duplicate节点后插入一个Identity节点。
对于步骤S136和步骤S137,具体的插入过程可以参见上文中关于步骤S130、S131部分的介绍,方式相同,不再赘述。
关于步骤S137中是否存在Duplicate节点的两个输出端均连接同一第二节点的输入端,这是由于,插入n-1个Duplicate节点的方式不同,可能会导致不同的拓扑,有些情况下不存在Duplicate节点的两个输出端均连接同一第二节点的输入端,可以不插入Identity节点,图8b示出一个示例,如图8b所示,节点D1、D2和D3中没有Duplicate节点的两个输出端均连接同一第二节点的输入端,这种情况下可以不插入Identity节点。
本公开通过一些示例说明了在计算图中插入Duplicate节点实现在反向训练时将操作数对应的多个梯度相加的方式,以及插入Identity节点使得被同一操作多次使用的操作数在后继操作查找输入数据时便于后继操作查找到需要的输入数据。
本公开还提供了一种节点插入装置,该装置可以应用于处理器,所述处理器可以为通用处理器,例如,处理器可以为中央处理单元CPU(Central Processing Unit)、图形处理单元GPU(Graphics Processing Unit)等。所述处理器还可以为用于执行人工智能运算的人工智能处理器,人工智能运算可包括机器学习运算,类脑运算等。其中,机器学习运算包括神经网络运算、k-means运算、支持向量机运算等。该人工智能处理器可例如包括NPU(Neural-Network Processing Unit,神经网络处理单元)、DSP(Digital Signal Process,数字信号处理单元)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)芯片中的一种或组合。人工智能处理器可以包括多个运算单元,多个运算单元可以并行执行运算。
图9示出根据本公开一实施例的节点插入装置的框图。如图9所示,该装置可以包括:
次数确定模块91,用于确定计算图中被使用的操作数以及所述操作数被使用的总次数n;其中,n为整数,且n≥2;
节点确定模块92,用于确定输出所述操作数的第一节点,以及使用所述操作数的第二节点;
插入模块93,用于根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,
其中,Duplicate节点用于在反向训练时将所述操作数对应的多个梯度相加,Identity节点用于在反向训练时保存所述操作数对应的梯度。
通过在计算图中插入Duplicate节点在反向训练时将操作数对应的多个梯度相加,插入Identity节点使得被同一操作多次使用的操作数在后继操作查找输入数据时便于后继操作查找到需要的输入数据。根据本公开的节点插入装置,可以实现被多次使用的操作数对应的梯度在反向训练时相加得到操作数的梯度,以及便于后继操作查找需要的输入数据。
图10示出根据本公开一实施例的节点插入装置的框图。如图10所示,在一种可能的实现方式中,若所述操作数被同一个第二节点多次使用,则所述插入模块93可以包括:
第一插入单元931,用于在所述第一节点和所述第二节点之间插入n-1个Duplicate节点;
其中,所述n-1个Duplicate节点中有一个第一Duplicate节点的两个输出端均连接所述第二节点的输入端;
第二插入单元932,用于在第一Duplicate节点和所述第二节点之间插入一个Identity节点,该Identity节点的输入端连接所述第一Duplicate节点的一个输出端、该Identity节点的输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n>2,则在插入Identity节点之前,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接所述第二节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第二Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若所述操作数被同一个第二节点多次使用,则所述第二插入单元932还用于在所述第一节点和所述第二节点之间插入n-1个Identity节点;
所述第一插入单元931还用于在所述第一节点、所述第二节点和n-1个Identity节点之间插入n-1个Duplicate节点;
其中,所述n-1个Identity节点的输入端连接Duplicate节点的一个输出端、输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n=2,则Duplicate节点的一个输入端连接所述第一节点的输出端、另一个输出端连接所述第二节点的输入端。
在一种可能的实现方式中,若n>2,则所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第三Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接所述第二节点的输入端,有一个第四Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若n>2,则所述n-1个Duplicate节点中有n-3个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第五Duplicate节点的两个输出端均连接Identity节点的输入端,有一个第六Duplicate节点的输入端连接所述第一节点的输出端、一个输出端连接所述第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端。
在一种可能的实现方式中,若所述操作数被使用的n次中的每一次都是由不同的第二节点使用,则所述第一插入单元931还用于在所述第一节点和所述第二节点之间插入n-1个Duplicate节点;其中,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接一个第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端,一个Duplicate节点的两个输出端分别连接不同的第二节点的输入端,一个Duplicate节点的输入端连接所述第一节点的输出端。
在一种可能的实现方式中,若n≥3,且所述操作数被使用的n次中有同一个第二节点使用m次的情况,其中m≥2且m为整数,则所述第二插入单元932还用于在所述第一节点和使用m次操作数的第二节点之间插入m-1个Identity节点;
所述第一插入单元931还用于在第一节点、第二节点和Identity节点之间插入n-1个Duplicate节点。
在一种可能的实现方式中,若n≥3,且所述操作数被使用的n次中有同一个第二节点使用m次的情况,其中m≥2且m为整数,则所述第一插入单元931还用于在第一节点和第二节点之间插入n-1个Duplicate节点;
所述第二插入单元932还用于若存在Duplicate节点的两个输出端均连接同一第二节点的输入端,则在两个输出端均连接至同一第二节点的Duplicate节点后插入一个Identity节点。
在一种可能的实现方式中,Duplicate节点还用于在前向计算过程中,复制多份操作数输出到Duplicate节点的输出端。
在一种可能的实现方式中,Identity节点还用于在前向计算过程中直接输出操作数。
在一种可能的实现方式中,还公开了一种芯片,其包括了上述节点插入装置。
在一种可能的实现方式中,公开了一种芯片封装结构,其包括了上述芯片。
图11是根据一示例性实施例示出的一种用于节点插入的装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图11,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由装置800的处理器820执行以完成上述方法。
图12是根据一示例性实施例示出的一种用于节点插入的装置1900的框图。例如,装置1900可以被提供为一服务器。参照图12,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (10)

1.一种节点插入方法,其特征在于,所述方法包括:
确定计算图中被使用的操作数以及所述操作数被使用的总次数n;其中,n为整数,且n≥2;
确定输出所述操作数的第一节点,以及使用所述操作数的第二节点;
根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,
其中,Duplicate节点用于在反向训练时将所述操作数对应的多个梯度相加,Identity节点用于在反向训练时保存所述操作数对应的梯度。
2.根据权利要求1所述的方法,其特征在于,若所述操作数被同一个第二节点多次使用,则根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,包括:
在所述第一节点和所述第二节点之间插入n-1个Duplicate节点;
其中,所述n-1个Duplicate节点中有一个第一Duplicate节点的两个输出端均连接所述第二节点的输入端;
在第一Duplicate节点和所述第二节点之间插入一个Identity节点,该Identity节点的输入端连接所述第一Duplicate节点的一个输出端、该Identity节点的输出端连接所述第二节点的输入端。
3.根据权利要求2所述的方法,其特征在于,
若n>2,则在插入Identity节点之前,所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接所述第二节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第二Duplicate节点的输入端连接所述第一节点的输出端。
4.根据权利要求1所述的方法,其特征在于,若所述操作数被同一个第二节点多次使用,则根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,还包括:
在所述第一节点和所述第二节点之间插入n-1个Identity节点;
在所述第一节点、所述第二节点和n-1个Identity节点之间插入n-1个Duplicate节点;
其中,所述n-1个Identity节点的输入端连接Duplicate节点的一个输出端、输出端连接所述第二节点的输入端。
5.根据权利要求4所述的方法,其特征在于,
若n=2,则Duplicate节点的一个输入端连接所述第一节点的输出端、另一个输出端连接所述第二节点的输入端。
6.根据权利要求4或5所述的方法,其特征在于,
若n>2,则所述n-1个Duplicate节点中有n-2个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第三Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接所述第二节点的输入端,有一个第四Duplicate节点的输入端连接所述第一节点的输出端。
7.根据权利要求4或5所述的方法,其特征在于,
若n>2,则所述n-1个Duplicate节点中有n-3个Duplicate节点的一个输出端连接Identity节点的输入端、一个输出端连接另一个Duplicate节点的输入端,有一个第五Duplicate节点的两个输出端均连接Identity节点的输入端,有一个第六Duplicate节点的输入端连接所述第一节点的输出端、一个输出端连接所述第二节点的输入端、另一个输出端连接另一个Duplicate节点的输入端。
8.一种节点插入装置,其特征在于,所述装置包括:
次数确定模块,用于确定计算图中被使用的操作数以及所述操作数被使用的总次数n;其中,n为整数,且n≥2;
节点确定模块,用于确定输出所述操作数的第一节点,以及使用所述操作数的第二节点;
插入模块,用于根据所述总次数n在所述第一节点和所述第二节点之间插入Duplicate节点和/或Identity节点,
其中,Duplicate节点用于在反向训练时将所述操作数对应的多个梯度相加,Identity节点用于在反向训练时保存所述操作数对应的梯度。
9.一种节点插入装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行可执行指令时实现权利要求1至7中任意一项所述的方法。
10.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至7中任意一项所述的方法。
CN201910472889.6A 2019-05-31 2019-05-31 运算方法、装置及相关产品 Active CN110162337B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910472889.6A CN110162337B (zh) 2019-05-31 2019-05-31 运算方法、装置及相关产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910472889.6A CN110162337B (zh) 2019-05-31 2019-05-31 运算方法、装置及相关产品

Publications (2)

Publication Number Publication Date
CN110162337A true CN110162337A (zh) 2019-08-23
CN110162337B CN110162337B (zh) 2020-07-03

Family

ID=67630975

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910472889.6A Active CN110162337B (zh) 2019-05-31 2019-05-31 运算方法、装置及相关产品

Country Status (1)

Country Link
CN (1) CN110162337B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188871A (zh) * 2019-05-31 2019-08-30 北京中科寒武纪科技有限公司 运算方法、装置及相关产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729662A (en) * 1995-06-07 1998-03-17 Rozmus; J. Michael Neural network for classification of patterns with improved method and apparatus for ordering vectors
CN105512725A (zh) * 2015-12-14 2016-04-20 杭州朗和科技有限公司 一种神经网络的训练方法和设备
US20170132513A1 (en) * 2015-11-09 2017-05-11 Google Inc. Training neural networks represented as computational graphs
CN107590534A (zh) * 2017-10-17 2018-01-16 北京小米移动软件有限公司 训练深度卷积神经网络模型的方法、装置及存储介质
CN108304177A (zh) * 2017-01-13 2018-07-20 辉达公司 计算图的执行
CN108351983A (zh) * 2015-10-28 2018-07-31 谷歌有限责任公司 修改计算图

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729662A (en) * 1995-06-07 1998-03-17 Rozmus; J. Michael Neural network for classification of patterns with improved method and apparatus for ordering vectors
CN108351983A (zh) * 2015-10-28 2018-07-31 谷歌有限责任公司 修改计算图
US20170132513A1 (en) * 2015-11-09 2017-05-11 Google Inc. Training neural networks represented as computational graphs
CN108292374A (zh) * 2015-11-09 2018-07-17 谷歌有限责任公司 训练表示为计算图的神经网络
CN105512725A (zh) * 2015-12-14 2016-04-20 杭州朗和科技有限公司 一种神经网络的训练方法和设备
CN108304177A (zh) * 2017-01-13 2018-07-20 辉达公司 计算图的执行
CN107590534A (zh) * 2017-10-17 2018-01-16 北京小米移动软件有限公司 训练深度卷积神经网络模型的方法、装置及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188871A (zh) * 2019-05-31 2019-08-30 北京中科寒武纪科技有限公司 运算方法、装置及相关产品
CN110188871B (zh) * 2019-05-31 2021-01-26 安徽寒武纪信息科技有限公司 运算方法、装置及相关产品

Also Published As

Publication number Publication date
CN110162337B (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
JP7238141B2 (ja) 顔と手を関連付けて検出する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム
CN110348537A (zh) 图像处理方法及装置、电子设备和存储介质
CN110909815B (zh) 神经网络训练、图像处理方法、装置及电子设备
CN109800737A (zh) 面部识别方法及装置、电子设备和存储介质
CN109829433A (zh) 人脸图像识别方法、装置、电子设备及存储介质
CN109800325A (zh) 视频推荐方法、装置和计算机可读存储介质
CN110378474A (zh) 对抗样本生成方法、装置、电子设备和计算机可读介质
CN110162338A (zh) 运算方法、装置及相关产品
CN110188871A (zh) 运算方法、装置及相关产品
CN109766954A (zh) 一种目标对象处理方法、装置、电子设备及存储介质
CN109145213A (zh) 基于历史信息的查询推荐方法及装置
CN109522937A (zh) 图像处理方法及装置、电子设备和存储介质
CN109858614A (zh) 神经网络训练方法及装置、电子设备和存储介质
CN109635920A (zh) 神经网络优化方法及装置、电子设备和存储介质
CN109977860A (zh) 图像处理方法及装置、电子设备和存储介质
CN108960283A (zh) 分类任务增量处理方法及装置、电子设备和存储介质
CN109886392A (zh) 数据处理方法和装置、电子设备和存储介质
CN108804440A (zh) 提供视频搜索结果的方法和装置
CN109934240A (zh) 特征更新方法及装置、电子设备和存储介质
CN109685041A (zh) 图像分析方法及装置、电子设备和存储介质
CN105098882B (zh) 输入电流分配方法及装置
CN109241423A (zh) 信息推荐方法、装置、电子设备及存储介质
CN110162337A (zh) 运算方法、装置及相关产品
CN108648031A (zh) 产品推荐方法及装置
CN109165722A (zh) 模型扩展方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100190 room 644, comprehensive research building, No. 6 South Road, Haidian District Academy of Sciences, Beijing

Applicant after: Zhongke Cambrian Technology Co., Ltd

Address before: 100190 room 644, comprehensive research building, No. 6 South Road, Haidian District Academy of Sciences, Beijing

Applicant before: Beijing Zhongke Cambrian Technology Co., Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant