CN111259675B - 基于神经网络计算的方法和装置 - Google Patents

基于神经网络计算的方法和装置 Download PDF

Info

Publication number
CN111259675B
CN111259675B CN202010019645.5A CN202010019645A CN111259675B CN 111259675 B CN111259675 B CN 111259675B CN 202010019645 A CN202010019645 A CN 202010019645A CN 111259675 B CN111259675 B CN 111259675B
Authority
CN
China
Prior art keywords
node
hidden layer
tensor
neural network
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010019645.5A
Other languages
English (en)
Other versions
CN111259675A (zh
Inventor
刘托
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Pinecone Electronic Co Ltd
Original Assignee
Beijing Xiaomi Pinecone Electronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Pinecone Electronic Co Ltd filed Critical Beijing Xiaomi Pinecone Electronic Co Ltd
Priority to CN202010019645.5A priority Critical patent/CN111259675B/zh
Publication of CN111259675A publication Critical patent/CN111259675A/zh
Application granted granted Critical
Publication of CN111259675B publication Critical patent/CN111259675B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)

Abstract

本公开是关于一种基于神经网络计算的方法及装置,其中,方法包括:对预设神经网络模型进行解析,得到预设神经网络模型的网络结构中节点之间的依赖关系;根据依赖关系,确定至少一个目标隐藏层节点;为每个目标隐藏层节点配置对应的状态缓存张量;在通过预设神经网络模型进行语音翻译时,将每个目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中;通过与目标隐藏层节点存在依赖关系的其他节点,从对应的状态缓存张量中读取隐藏层状态。通过本公开,能够更加灵活的解决带有时序或上下文依赖的模型的高效计算问题,使得这类模型的计算更加高效。

Description

基于神经网络计算的方法和装置
技术领域
本公开涉及数据处理技术领域,尤其涉及一种基于神经网络计算的方法和装置。
背景技术
在人工智能领域,随着深度神经网络的发展,越来越多形式的神经网络被使用,例如语音翻译中经常使用基于时间时序或上下文关系的神经网络进行翻译。
其中,各种形式的基于时间序列或上下文关系的神经网络,如RNN(RecurrentNeural Network,循环神经网络),LSTM(Long Short-Term Memory,长短期记忆网络),GRU(Gated Recurrent Unit)等的使用越来越多。针对这类神经网络,目前,其推理框架基本采用时域Cell的方案。时域Cell的方案通过将前面时刻的隐层输出作为当前时刻该Cell的输入节点添加到网络中,这样可以定义和处理RNN、LSTM或GRU等这类依赖时序或上下文信息的模型。但是,采用时域Cell的方案,很多RNN或LSTM的模型很难部署在移动端设备或嵌入式设备商,并且其模型推理过程耗时久,计算效率低,无法达到最有性能。
发明内容
为克服相关技术中存在的问题,本公开提供一种基于神经网络计算的方法和装置,从而解决带有时序或上下文依赖的神经网络模型的高效计算问题。
根据本公开实施例的第一方面,提供一种基于神经网络计算的方法,包括:
对预设神经网络模型进行解析,得到所述预设神经网络模型的网络结构中节点之间的依赖关系;
根据所述依赖关系,确定至少一个目标隐藏层节点;
为每个所述目标隐藏层节点配置对应的状态缓存张量;
在通过所述预设神经网络模型进行语音翻译时,将每个所述目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中;
通过与所述目标隐藏层节点存在依赖关系的其他节点,从所述对应的状态缓存张量中读取所述隐藏层状态。
在一个实施例中,所述根据所述依赖关系,确定至少一个目标隐藏层节点,包括:
根据节点之间的依赖关系,确定依赖节点,以及所述依赖节点所依赖的被依赖节点;
在所述被依赖节点中,确定时序先于所述依赖节点时序的至少一个被依赖节点;
将所述至少一个被依赖节点作为目标隐藏层节点。
在一个实施例中,所述方法还包括:
确定每个依赖节点需要依赖的目标隐藏层节点,以及每个所述依赖节点所依赖的目标隐藏层节点的目标时刻;
所述将每个所述目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中,包括:
将所述每个目标隐藏层节点的目标时刻的目标隐藏层状态保存至对应的状态缓存张量中。
在一个实施例中,在为每个所述目标隐藏层节点配置对应的状态缓存张量之后,还包括:
根据所述预设神经网络模型的网络结构和节点之间的依赖关系,计算每个所述状态缓存张量的更新时间、缓存机制中的至少一项;
根据每个状态缓存张量的更新时间更新状态缓存张量中的状态;
根据每个状态缓存张量的缓存机制为所述每个状态缓存张量分配存储空间。
根据本公开实施例的第二方面,提供一种基于神经网络计算的装置,包括:
解析单元,用于对预设神经网络模型进行解析,得到所述预设神经网络模型的网络结构和节点之间的依赖关系;
第一确定单元,用于根据所述依赖关系,确定至少一个目标隐藏层节点;
缓存配置单元,用于为每个所述目标隐藏层节点配置对应的状态缓存张量;
保存单元,用于在通过所述预设神经网络模型进行语音翻译时,将每个所述目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中;
读取单元,用于通过与所述目标隐藏层节点存在依赖关系的其他节点,从所述对应的状态缓存张量中直接读取所述隐藏层状态。
在一个实施例中,所述第一确定单元用于采用如下方式根据所述依赖关系,确定至少一个目标隐藏层节点:
根据节点之间的依赖关系,确定依赖节点,以及所述依赖节点所依赖的被依赖节点;在所述被依赖节点中,确定时序先于所述依赖节点时序的至少一个被依赖节点;将所述至少一个被依赖节点作为目标隐藏层节点。
在一个实施例中,所述装置还包括:
第二确定单元,用于确定每个依赖节点需要依赖的目标隐藏层节点,以及每个所述依赖节点所依赖的目标隐藏层节点的目标时刻;
所述保存单元用于:
将所述每个目标隐藏层节点的目标时刻的目标隐藏层状态保存至对应的状态缓存张量中。
在一个实施例中,所述装置还包括:
计算单元,用于在为每个所述目标隐藏层节点配置对应的状态缓存张量之后,根据所述预设神经网络模型的网络结构和节点之间的依赖关系,计算每个所述状态缓存张量的更新时间、缓存机制中的至少一项;
更新单元,用于根据每个状态缓存张量的更新时间更新状态缓存张量中的状态;
空间分配单元,用于根据每个状态缓存张量的缓存机制为所述每个状态缓存张量分配存储空间。
根据本公开实施例的第三方面,提供一种基于神经网络计算的装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行第一方面或者第一方面任意一种实施例所述的基于神经网络计算的方法。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行第一方面或者第一方面任意一种实施例所述的基于神经网络计算的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
在本实施例中,为每个被依赖节点分配状态缓存张量,从而通过状态缓存张量缓存下一时刻或下文依赖节点需要用到的隐藏层状态,从而便于依赖节点直接进行读取,这样,基于状态缓存的机制,对模型的网络结构进行优化,使得模型计算图由时域cell的有向有环图转换为有向无环图,同时对需要的信息进行缓存,并且能够兼容不同内部结构的Cell,能更加灵活地解决带有时序或上下文依赖的模型的高效计算问题,提高了RNN、LSTM等模型在移动设备或嵌入式设备上的运行效率,进而增加了语音翻译的实时性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是相关技术中时域Cell的方案示意图。
图2是根据一示例性实施例示出的一种基于神经网络计算的方法的流程图。
图3是根据一示例性实施例示出的另一种基于神经网络计算的方法的流程图。
图4是根据一示例性实施例示出的又一种基于神经网络计算的方法的流程图。
图5是根据一示例性实施例示出的另一种基于神经网络计算的方法的示意图。
图6是根据一示例性实施例示出的一种基于神经网络计算的方法的示意图。
图7是根据一示例性实施例示出的一种基于神经网络计算的装置框图。
图8是根据一示例性实施例示出的另一种基于神经网络计算的装置框图。
图9是根据一示例性实施例示出的又一种基于神经网络计算的装置框图。
图10是根据一示例性实施例示出的一种基于神经网络计算的装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
相关技术中,语音翻译通常是基于时间时序或上下文关系的神经网络进行翻译。针对基于时间时序或上下文关系的神经网络,目前其推理框架基本采用时域Cell的方案,时域Cell的方案通过将前面时刻的隐层输出作为当前时刻该Cell的输入节点添加到网络中,即需要根据神经网络的时序和上下文添加多个节点,这样节点之间就会构成一个有向有环的结构。如图1所示,一个LSTM Cell,该Cell有三个输出:y(t),h(t),c(t)和三个输入:x(t),h(t-1),c(t-1),其中h(t-1)和c(t-1)是该Cell上一时刻的输出,这是一个有向有环图。而本申请则无需再根据神经网络的时序和上下文添加节点,只需要创建状态缓存张量即可,因此,不会构成有向有环图,而是有向无环图。
图2是根据一示例性实施例示出的一种基于神经网络计算的方法的流程图。如图2所示,基于神经网络计算的方法用于终端中,包括以下步骤。
在步骤S21中,对预设神经网络模型进行解析,得到预设神经网络模型的网络结构中节点之间的依赖关系。
其中,预设神经网络模型可以是RNN、LSTM或GRU等基于时间序列和上下文关系的神经网络。对预设神经网络模型进行解析,即分析神经网络的节点,和节点之间的时序关系(时序在前的节点还是时序在后的节点)和上下文关系(处于前面节点或后面节点),从而得到节点之间的关系图。例如,节点1的时序在前,节点2的时序在后,节点2的运算过程依赖节点1的隐藏层状态,则节点2和节点1之间存在依赖关系,节点2为依赖节点,节点1为被依赖节点。
在步骤S22中,根据依赖关系,确定至少一个目标隐藏层节点。
其中,可以将时序在前的被依赖节点,或者上文的被依赖节点确定为目标隐藏层节点。例如,节点2和节点1之间存在依赖关系,节点2为依赖节点,节点1为被依赖节点,则可以将节点1确定为目标隐藏层节点。
在步骤S23中,为每个目标隐藏层节点配置对应的状态缓存张量。状态缓存张量即一个可以缓存状态的内存空间。
在步骤S24中,在通过预设神经网络模型进行语音翻译时,将每个目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中。
预设神经网络模型可以用于进行语音翻译,即通过预设神经网络模型进行语音翻译,在进行语音翻译时,模型中的每个节点都会进行相应的运算,得到运算结果,即得到隐藏层状态。例如,上述步骤S22中,将节点1确定为目标隐藏层节点,并为节点1配置了状态缓存张量,则计算出节点1的隐藏层状态之后,将该隐藏层状态保存至节点1对应的状态缓存张量中,这样,节点2可以直接从节点1对应的状态缓存张量中读取节点1的隐藏层状态进行使用。
在步骤S25中,通过与目标隐藏层节点存在依赖关系的其他节点,从对应的状态缓存张量中读取隐藏层状态。例如,节点2、节点3和节点4均与节点1存在依赖关系,均依赖于节点1,则节点2、节点3和节点4均可以从节点1对应的状态缓存张量中读取节点1的隐藏层状态。
在一实施例中,为每个被依赖节点分配状态缓存张量,从而通过状态缓存张量缓存下一时刻或下文依赖节点需要用到的隐藏层状态,从而便于依赖节点直接进行读取,这样,能够更加灵活的解决带有时序或上下文依赖的模型的高效计算问题,使得这类模型的计算更加高效,进而增加了语音翻译的实时性。
图3是根据一示例性实施例示出的另一种基于神经网络计算的方法的流程图。
如图3所示,在一个实施例中,上述步骤S22可以包括步骤S31:
在步骤S31中,根据节点之间的依赖关系,确定依赖节点,以及依赖节点所依赖的被依赖节点。
在步骤S32中,在确定的被依赖节点中,确定时序先于依赖节点时序的至少一个被依赖节点。
在步骤S33中,将确定的至少一个被依赖节点作为目标隐藏层节点。
假设节点1时序在前,节点2时序在后,节点2的运算依赖于节点1的运算结果,则节点2为时序在后的依赖节点,节点1为时序在前的被依赖节点,此时,可以将节点1确定为目标隐藏层节点。
图4是根据一示例性实施例示出的另一种基于神经网络计算的方法的流程图,如图4所示,基于神经网络计算的方法还包括如下步骤S41。
在步骤S41中,确定每个依赖节点需要依赖的目标隐藏层节点,以及每个依赖节点所依赖的目标隐藏层节点的目标时刻。确定每个依赖节点需要依赖的被依赖节点,即目标隐藏层节点,而每个依赖节点所依赖的被依赖节点的时刻可能会不同,例如,节点2需要依赖节点1在t,t-1和t-2时刻的隐藏层状态,则将t,t-1和t-2时刻确定为目标时刻。
在一个实施例中,上述步骤S24包括步骤S42:
在步骤S42中,将每个目标隐藏层节点的目标时刻的目标隐藏层状态保存至对应的状态缓存张量中。
在该实施例中,为了节省状态缓存张量的存储空间,可以获取依赖节点需要依赖的目标隐藏层节点的时刻的目标隐藏层状态,从而只存储时刻的目标隐藏层状态。
图5是根据一示例性实施例示出的又一种基于神经网络计算的方法的流程图。如图5所示,在一个实施例中,还包括以下步骤。
在步骤S51中,根据预设神经网络模型的网络结构和节点之间的依赖关系,计算每个状态缓存张量的更新时间、缓存机制中的至少一项。根据节点之间的依赖关系,可以计算状态缓存张量的更新时间,例如,节点2依赖节点1在t,t-1和t-2时刻的隐藏层状态,则根据该时刻可以确定状态缓存张量的更新时间,也可以根据隐藏层状态确定缓存机制,如缓存空间的大小,缓存空间的读取时刻等。
在步骤S52中,根据每个状态缓存张量的更新时间更新状态缓存张量中的状态。按照状态缓存张量的更新时间及时更新状态,从而保证语音翻译过程的正常进行。
在步骤S53中,根据每个状态缓存张量的缓存机制为其分配存储空间。根据缓存机制分配存储空间,可以避免内存空间的浪费。
在该实施例中,还可以计算状态缓存张量的更新时间和缓存机制,从而使得状态缓存张量可以根据更新时间定时进行更新,保证推理计算的正常进行,并能够根据缓存机制分配存储空间,正常进行缓存。
下面以一个实施例详细说明本发明的技术方案。
如图6所示,在对神经网络模型进行解析时,解析出t时刻节点2的计算依赖节点1当前t时刻的输出和t-2时刻的输出,因此在节点1上添加状态缓存张量,在对神经网络模型进行推理计算时,将节点1在t,t-1和t-2时刻的输出(即隐藏层状态)缓存至该状态缓存张量中,以便于节点2在进行推理计算时,直接从该状态缓存张量中读取需要用到的目标时刻的隐藏层状态,这样,保证了推理计算的高效进行,并在完成每一次推理后更新状态缓存张量,保证后续推理计算的正常进行。
基于相同的构思,本公开实施例还提供一种基于神经网络计算的装置。
可以理解的是,本公开实施例提供的基于神经网络计算的装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。结合本公开实施例中所公开的各示例的单元及算法步骤,本公开实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同的方法来实现所描述的功能,但是这种实现不应认为超出本公开实施例的技术方案的范围。
图7是根据一示例性实施例示出的一种基于神经网络计算的装置框图。参照图7,该装置包括解析单元71,第一确定单元72,缓存配置单元73,保存单元74和读取单元75。
解析单元71,被配置为对预设神经网络模型进行解析,得到所述预设神经网络模型的网络结构中节点之间的依赖关系;
第一确定单元72,被配置为对预设神经网络模型进行解析,根据所述预设神经网络模型的网络结构和节点之间的依赖关系,确定至少一个目标隐藏层节点。
缓存配置单元73,被配置为为每个所述目标隐藏层节点配置对应的状态缓存张量。
保存单元74,被配置为在使用所述预设神经网络模型进行推理计算时,将每个所述目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中;
读取单元75,被配置为通过与目标隐藏层节点存在依赖关系的其他节点,从所述对应的状态缓存张量中直接读取所述隐藏层状态。
在一个实施例中,所述第一确定单元72被配置为:
根据节点之间的依赖关系,确定依赖节点,以及依赖节点所依赖的被依赖节点。在被依赖节点中,确定时序先于所述依赖节点时序的至少一个被依赖节点。将至少一个被依赖节点作为目标隐藏层节点。
图8是根据一示例性实施例示出的另一种基于神经网络计算的装置框图。
如图8所示,在一个实施例中,所述装置还包括:
第二确定单元81,被配置为确定每个依赖节点需要依赖的目标隐藏层节点,以及每个所述依赖节点所依赖的目标隐藏层节点的目标时刻。
在一个实施例中,所述保存单元74被配置为:
将所述每个目标隐藏层节点的目标时刻的目标隐藏层状态保存至对应的状态缓存张量中。
图9是根据一示例性实施例示出的又一种基于神经网络计算的装置框图。
如图9所示,在一个实施例中,所述装置还包括:
计算单元91,被配置为在为每个所述目标隐藏层节点创建并分配一个对应的状态缓存张量之后,根据所述预设神经网络模型的网络结构和节点之间的依赖关系,计算每个所述状态缓存张量的更新时间、缓存机制中的至少一项。
更新单元92,被配置为根据每个状态缓存张量的更新时间更新状态缓存张量中的状态。
空间分配单元93,被配置为根据每个状态缓存张量的缓存机制为其分配存储空间。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图10是根据一示例性实施例示出的一种用基于神经网络计算的装置1000的框图。例如,装置1000可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图10,装置1000可以包括以下一个或多个组件:处理组件1002,存储器1004,电力组件1006,多媒体组件1008,音频组件1010,输入/输出(I/O)的接口1012,传感器组件1014,以及通信组件1016。
处理组件1002通常控制装置1000的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件1002可以包括一个或多个处理器1020来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1002可以包括一个或多个模块,便于处理组件1002和其他组件之间的交互。例如,处理组件1002可以包括多媒体模块,以方便多媒体组件1008和处理组件1002之间的交互。
存储器1004被配置为存储各种类型的数据以支持在设备1000的操作。这些数据的示例包括用于在装置1000上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件1006为装置1000的各种组件提供电力。电力组件1006可以包括电源管理系统,一个或多个电源,及其他与为装置1000生成、管理和分配电力相关联的组件。
多媒体组件1008包括在所述装置1000和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1008包括一个前置摄像头和/或后置摄像头。当设备1000处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1010被配置为输出和/或输入音频信号。例如,音频组件1010包括一个麦克风(MIC),当装置1000处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1004或经由通信组件1016发送。在一些实施例中,音频组件1010还包括一个扬声器,用于输出音频信号。
I/O接口1012为处理组件1002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1014包括一个或多个传感器,用于为装置1000提供各个方面的状态评估。例如,传感器组件1014可以检测到设备1000的打开/关闭状态,组件的相对定位,例如所述组件为装置1000的显示器和小键盘,传感器组件1014还可以检测装置1000或装置1000一个组件的位置改变,用户与装置1000接触的存在或不存在,装置1000方位或加速/减速和装置1000的温度变化。传感器组件1014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1014还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1016被配置为便于装置1000和其他设备之间有线或无线方式的通信。装置1000可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件1016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置1000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1004,上述指令可由装置1000的处理器1020执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置1000的处理器执行时,使得装置1000能够执行上述基于神经网络计算的方法。
进一步可以理解的是,本公开中“多个”是指两个或两个以上,其它量词与之类似。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
进一步可以理解的是,术语“第一”、“第二”等用于描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开,并不表示特定的顺序或者重要程度。实际上,“第一”、“第二”等表述完全可以互换使用。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。
进一步可以理解的是,本公开实施例中尽管在附图中以特定的顺序描述操作,但是不应将其理解为要求按照所示的特定顺序或是串行顺序来执行这些操作,或是要求执行全部所示的操作以得到期望的结果。在特定环境中,多任务和并行处理可能是有利的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种基于神经网络计算的方法,其特征在于,应用于语音翻译,包括:
对预设神经网络模型进行解析,基于语音翻译时节点之间的时序关系和上下文关系,得到所述预设神经网络模型的网络结构中节点之间的依赖关系;
根据所述依赖关系,确定至少一个目标隐藏层节点,目标隐藏节点包括时序在前的被依赖节点,或上文的被依赖节点;
为每个所述目标隐藏层节点配置对应的状态缓存张量;
基于语音翻译时隐藏层节点运算结果确定隐藏层状态;
在通过所述预设神经网络模型进行语音翻译时,将每个所述目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中;
通过与所述目标隐藏层节点存在依赖关系的其他节点,从所述对应的状态缓存张量中读取所述隐藏层状态。
2.根据权利要求1所述的方法,其特征在于,所述根据所述依赖关系,确定至少一个目标隐藏层节点,包括:
根据节点之间的依赖关系,确定依赖节点,以及所述依赖节点所依赖的被依赖节点;
在所述被依赖节点中,确定时序先于所述依赖节点时序的至少一个被依赖节点;
将所述至少一个被依赖节点作为目标隐藏层节点。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
确定每个依赖节点需要依赖的目标隐藏层节点,以及每个所述依赖节点所依赖的目标隐藏层节点的目标时刻;
所述将每个所述目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中,包括:
将所述每个目标隐藏层节点的目标时刻的目标隐藏层状态保存至对应的状态缓存张量中。
4.根据权利要求1至3中任一项所述的方法,其特征在于,在为每个所述目标隐藏层节点配置对应的状态缓存张量之后,还包括:
根据所述预设神经网络模型的网络结构和节点之间的依赖关系,计算每个所述状态缓存张量的更新时间、缓存机制中的至少一项;
根据每个状态缓存张量的更新时间更新状态缓存张量中的状态;
根据每个状态缓存张量的缓存机制为所述每个状态缓存张量分配存储空间。
5.一种基于神经网络计算的装置,其特征在于,应用于语音翻译,包括:
解析单元,用于对预设神经网络模型进行解析,基于语音翻译时节点之间的时序关系和上下文关系,得到所述预设神经网络模型的网络结构中节点之间的依赖关系;
第一确定单元,用于根据所述依赖关系,确定至少一个目标隐藏层节点,目标隐藏节点包括时序在前的被依赖节点,或上文的被依赖节点;
缓存配置单元,用于为每个所述目标隐藏层节点配置对应的状态缓存张量;
保存单元,用于基于语音翻译时隐藏层节点运算结果确定隐藏层状态;
所述保存单元,还用于在通过所述预设神经网络模型进行语音翻译时,将每个所述目标隐藏层节点的隐藏层状态保存至对应的状态缓存张量中;
读取单元,用于通过与所述目标隐藏层节点存在依赖关系的其他节点,从所述对应的状态缓存张量中读取所述隐藏层状态。
6.根据权利要求5所述的装置,其特征在于,所述第一确定单元用于采用如下方式根据所述依赖关系,确定至少一个目标隐藏层节点:
根据节点之间的依赖关系,确定依赖节点,以及所述依赖节点所依赖的被依赖节点;
在所述被依赖节点中,确定时序先于所述依赖节点时序的至少一个被依赖节点;
将所述至少一个被依赖节点作为目标隐藏层节点。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二确定单元,确定每个依赖节点需要依赖的目标隐藏层节点,以及每个所述依赖节点所依赖的目标隐藏层节点的目标时刻;
所述保存单元用于:
将所述每个目标隐藏层节点的目标时刻的目标隐藏层状态保存至对应的状态缓存张量中。
8.根据权利要求5至7中任一项所述的装置,其特征在于,所述装置还包括:
计算单元,用于在为每个所述目标隐藏层节点配置对应的状态缓存张量之后,根据所述预设神经网络模型的网络结构和节点之间的依赖关系,计算每个所述状态缓存张量的更新时间、缓存机制中的至少一项;
更新单元,用于根据每个状态缓存张量的更新时间更新状态缓存张量中的状态;
空间分配单元,用于根据每个状态缓存张量的缓存机制为所述每个状态缓存张量分配存储空间。
9.一种基于神经网络计算的装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1至4中任意一项所述的基于神经网络计算的方法。
10.一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行权利要求1至4中任意一项所述的基于神经网络计算的方法。
CN202010019645.5A 2020-01-08 2020-01-08 基于神经网络计算的方法和装置 Active CN111259675B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010019645.5A CN111259675B (zh) 2020-01-08 2020-01-08 基于神经网络计算的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010019645.5A CN111259675B (zh) 2020-01-08 2020-01-08 基于神经网络计算的方法和装置

Publications (2)

Publication Number Publication Date
CN111259675A CN111259675A (zh) 2020-06-09
CN111259675B true CN111259675B (zh) 2023-09-19

Family

ID=70948583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010019645.5A Active CN111259675B (zh) 2020-01-08 2020-01-08 基于神经网络计算的方法和装置

Country Status (1)

Country Link
CN (1) CN111259675B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113270104B (zh) * 2021-07-19 2021-10-15 深圳市思特克电子技术开发有限公司 语音的人工智能处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014035738A1 (en) * 2012-08-29 2014-03-06 Microsoft Corporation Computer-implemented deep tensor neural network
KR101916348B1 (ko) * 2017-08-04 2018-11-08 주식회사 수아랩 인공 신경망의 훈련 방법
CN110619220A (zh) * 2019-08-09 2019-12-27 北京小米移动软件有限公司 对神经网络模型加密的方法及装置、存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11151450B2 (en) * 2018-05-21 2021-10-19 Fair Isaac Corporation System and method for generating explainable latent features of machine learning models

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014035738A1 (en) * 2012-08-29 2014-03-06 Microsoft Corporation Computer-implemented deep tensor neural network
KR101916348B1 (ko) * 2017-08-04 2018-11-08 주식회사 수아랩 인공 신경망의 훈련 방법
CN110619220A (zh) * 2019-08-09 2019-12-27 北京小米移动软件有限公司 对神经网络模型加密的方法及装置、存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
互联网时代语音识别基本问题;柯登峰;徐波;;中国科学:信息科学(第12期);全文 *
时频联合长时循环神经网络;庄连生;吕扬;杨健;李厚强;;计算机研究与发展(第12期);全文 *
神经机器翻译中的神经网络关算法改进;郭子扬;;电子世界(第01期);全文 *

Also Published As

Publication number Publication date
CN111259675A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
US20210110276A1 (en) Search method, device and storage medium for neural network model structure
CN105955765B (zh) 应用预加载方法及装置
CN107423106B (zh) 支持多框架语法的方法和装置
CN111651263A (zh) 移动终端的资源处理方法、装置、计算机设备及存储介质
EP3779968A1 (en) Audio processing
CN107659717B (zh) 状态检测方法、装置和存储介质
CN107590534B (zh) 训练深度卷积神经网络模型的方法、装置及存储介质
CN112668707B (zh) 运算方法、装置及相关产品
CN112328398A (zh) 任务处理方法及装置、电子设备和存储介质
CN107463372B (zh) 一种数据驱动的页面更新方法和装置
CN111985635A (zh) 一种加速神经网络推理处理的方法、装置及介质
CN111259675B (zh) 基于神经网络计算的方法和装置
CN105786561B (zh) 进程调用的方法及装置
CN112433787A (zh) 目标对象的序列化方法、装置、电子设备及存储介质
CN115512116B (zh) 图像分割模型优化方法、装置、电子设备及可读存储介质
CN107885464B (zh) 数据存储方法、装置及计算机可读存储介质
CN116048757A (zh) 任务处理方法、装置、电子设备和存储介质
CN112766498B (zh) 模型训练方法及装置
CN112017640B (zh) 唤醒决策方法、装置、电子设备及存储介质
CN113269323B (zh) 一种数据处理方法、处理装置、电子设备及存储介质
CN110909886B (zh) 一种机器学习网络运行方法、装置及介质
CN113204443A (zh) 基于联邦学习框架的数据处理方法、设备、介质及产品
CN113807540A (zh) 一种数据处理方法及装置
CN114118397A (zh) 神经网络方法及装置、电子设备和存储介质
CN112116095B (zh) 一种多任务学习模型训练的方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100085 unit C, building C, lin66, Zhufang Road, Qinghe, Haidian District, Beijing

Applicant after: Beijing Xiaomi pinecone Electronic Co.,Ltd.

Address before: 100085 unit C, building C, lin66, Zhufang Road, Qinghe, Haidian District, Beijing

Applicant before: BEIJING PINECONE ELECTRONICS Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant