CN108985448A - 神经网络表示标准框架结构 - Google Patents

神经网络表示标准框架结构 Download PDF

Info

Publication number
CN108985448A
CN108985448A CN201810575097.7A CN201810575097A CN108985448A CN 108985448 A CN108985448 A CN 108985448A CN 201810575097 A CN201810575097 A CN 201810575097A CN 108985448 A CN108985448 A CN 108985448A
Authority
CN
China
Prior art keywords
definition
neural network
grammer
format
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810575097.7A
Other languages
English (en)
Other versions
CN108985448B (zh
Inventor
田永鸿
陈光耀
史业民
王耀威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201810575097.7A priority Critical patent/CN108985448B/zh
Publication of CN108985448A publication Critical patent/CN108985448A/zh
Application granted granted Critical
Publication of CN108985448B publication Critical patent/CN108985448B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Machine Translation (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

本发明提供一种神经网络表示标准框架结构,包括:可互操作表示模块,通过对输入的神经网络进行转换得到可互操作的表示格式,其包含对神经网络的语法定义、支持的运算操作定义和权重格式定义;紧凑表示模块,将可互操作表示的神经网络通过神经网络压缩算法转换为序列化格式,其包含压缩后的神经网络的语法定义、支持的运算操作定义和权重格式定义;编解码表示模块,通过神经网络压缩算法将紧凑表示的神经网络转换为编解码表示,其包含压缩后的神经网络的语法定义、支持的运算操作定义和编解码后权重格式定义;封装表示模块,将安全信息和身份认证信息和神经网络一起封装,由此将神经网络转换为模型。

Description

神经网络表示标准框架结构
技术领域
本发明涉及人工智能领域,尤其涉及深度学习中神经网络表示标准框架结构。
背景技术
人工智能作为新一轮产业变革的核心驱动力,将重构生产、分配、交换、消费等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生新技术、新产品、新产业、新业态、新模式。深度学习是近年来人工智能发展的核心技术,而神经网络表示正是深度学习技术应用中的基础性问题。其中,卷积神经网络是目前应用最广泛的深度神经网络,手写数字识别、人脸识别、车牌检测与识别、图片检索等大量应用领域都由其驱动,为人工智能的快速发展和广泛使用提供了动力。
目前国内外已有很多深度学习开源算法框架来支持深度学习算法的开发,包括TensorFlow、Caffe、MxNet、PyTorch、CNTK等,不同算法平台分别采用了自己特有的网络、模型表示和存储标准。由于目前尚无统一神经网络表示标准,不同深度学习开源算法框架不能互操作与协同工作,例如Caffe上开发的模型不能在TensorFlow上直接使用。同时不同深度学习框架之间对神经网络粒度定义不同,不仅妨碍硬件厂商对网络的加速和优化,同时对于新出现的运算操作,需要进行重定义。通过制定神经网络表示格式,能够简化研究、应用与深度学习框架的耦合关系,从而使得相关技术与产品可以更方便地应用在人工智能的不同领域与行业。
同时,大型的神经网络具有大量的层级与节点,这也导致其权重参数数量巨大,因此考虑如何减少这些神经网络所需的内存与计算量就显得极为重要,特别是对于在线学习和增量学习等实时应用。此外,近几年智能可穿戴设备的流行,也让人们关注如何在资源(内存、CPU、能耗和带宽等)有限的便携式设备上部署深度学习应用。例如ResNet-50有50层卷积网络,其对存储需求和计算需求很大。如果剪枝一些冗余的权重后,其大概能节约75%的参数和50%的计算时间。对于只有资源受限的移动设备来说,如何使用这些方法压缩模型就十分重要了。然而,如今的压缩算法都依赖于不同的深度学习开源算法框架,导致不同深度学习算法框架上生成的压缩后的神经网络模型不能互相兼容,同时也未存在对这些压缩后的神经网络的统一表示,导致模型的兼容性变差,妨碍受限设备上深度学习算法的应用与开发。
发明内容
本发明的目的是提供一种神经网络表示标准框架结构,以打破各种深度学习算法框架之间的壁垒,促进深度学习在可穿戴设备上的开发和应用。
为实现上述目的,本发明提供了一种神经网络表示标准框架结构,包括:
可互操作表示模块,通过对输入的神经网络进行转换得到可互操作的表示格式,其包含对神经网络的语法定义、支持的运算操作定义和权重格式定义;
紧凑表示模块,将可互操作表示的神经网络通过神经网络压缩算法转换为序列化格式的紧凑表示格式,其包含压缩后的神经网络的语法定义、支持的运算操作定义和权重格式定义;
编解码表示模块,通过神经网络压缩算法将紧凑表示格式的神经网络转换为编解码表示格式,其包含压缩后的神经网络的语法定义、支持的运算操作定义和编解码后权重格式定义;
封装表示模块,将安全信息和身份认证信息和神经网络一起封装,由此将神经网络转换为模型。
优选地,所述技术方案中,所述可互操作表示模块中的对神经网络的语法定义、支持的运算操作定义和权重格式定义分别包括:
语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
权重格式定义包含数据通道的前后顺序定义、数据存储的精度定义。
优选地,所述技术方案中,所述紧凑表示模块中的压缩后的神经网络的语法定义、支持的运算操作定义和权重格式定义分别包括:
语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
权重格式定义包含矩阵通道的前后顺序定义、数据存储的精度定义和支持的压缩算法中特殊数据结构的格式定义。
优选地,所述技术方案中,所述编解码表示模块中的压缩后的神经网络的语法定义、支持的运算操作定义和编解码后权重格式定义分别包括:
语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
编解码后的权重格式定义包括神经网络权重压缩形式的编码表示和重构神经网络权重的语法来描述解码权重。
优选地,所述技术方案中,所述标准框架包括以下神经网络:卷积神经网络、循环神经网络、生成对抗网络或自动编码器神经网络。
优选地,所述技术方案中,所述可互操作表示的定义满足以下要求:
所述模型结构语法对网络结构和权重是否加密分别提供选项,不定义具体的加密算法;
所述计算图语法由一系列节点组成,节点语法包括节点名称、节点描述、节点输入、节点属性、节点运算操作以及运算操作定义;
所述运算操作包含卷积神经网络、循环神经网络、生成对抗网络、自动编码器神经网络模型的基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
所述元运算操作包含操作名称、输入、输出、支持数据类型和属性;
所述复杂运算操作包含操作名称、输入、输出、支持数据类型、属性和基于元运算操作定义。
优选地,所述技术方案中,所述紧凑表示和编解码表示的定义满足以下要求:
所述模型结构语法对网络结构和权重是否加密分别提供选项,不定义具体的加密算法;
所述计算图语法由一系列节点组成,节点语法包括节点名称、节点描述、节点输入、节点属性、节点运算操作以及运算操作定义;
所述运算操作包含卷积神经网络、循环神经网络、生成对抗网络、自动编码器神经网络模型的基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
所述元运算操作包含操作名称、输入、输出、支持数据类型和属性;
所述复杂运算操作包含操作名称、输入、输出、支持数据类型、属性和基于元运算操作定义。
优选地,所述技术方案中,所述紧凑表示和编解码表示支持下面的神经网络压缩算法需要的数据格式:稀疏编码的稀疏矩阵、权重量化的量化表、低秩分解的分解矩阵和二值神经网络的位表示。
优选地,所述技术方案中,所述元运算操作和复杂运算操作满足以下设计规则:
将复杂运算或高级功能操作分解成低级运算操作或元运算操作,使用元运算操作来组装新的复杂运算或高级功能操作;
定义的元运算操作能够降低编译器的设计、验证复杂性和功耗面积。
优选地,所述技术方案中,所述封装表示包括:对神经网络进行封装的安全信息、身份认证信息,用来保护模型的知识产权和安全。
与现有技术相比,本发明具有以下优点:
(1)提出了可互操作表示格式,作为中间表示,实现各种深度学习开源算法框架的神经网络模型的相互转换;
(2)提出了紧凑操作表示格式,支持大部分的神经网络压缩算法;
(3)提出了封装格式,将神经网络和安全信息、身份认证封装为模型;
(4)将基于张量的运算操作分为元运算操作和复杂运算操作,并提出了相应的设计原则;
(5)提供了从神经网络到最终模型的不同表示层次的定义,从而能够统一神经网络各个层次的表示格式,打破各种深度学习开源算法框架之间的壁垒,实现不同深度学习开源算法框架的互操作,促进人工智能各种应用的开发和普及。
附图说明
图1为本发明实施例中神经网络表示标准框架结构的示意图;
图2为本发明实施例中神经网络表示标准框架结构应用的示意图。
具体实施方式
下面结合附图,对本发明的具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
本发明提供一种神经网络表示标准框架结构,包括:
可互操作表示模块,通过对输入的神经网络进行转换得到可互操作的表示格式,其包含对神经网络的语法定义、支持的运算操作定义和权重格式定义;
紧凑表示模块,将可互操作表示的神经网络通过神经网络压缩算法转换为序列化格式的紧凑表示格式,其包含压缩后的神经网络的语法定义、支持的运算操作定义和权重格式定义;
编解码表示模块,通过神经网络压缩算法将紧凑表示格式的神经网络转换为编解码表示格式,其包含压缩后的神经网络的语法定义、支持的运算操作定义和编解码后权重格式定义;
封装表示模块,将安全信息和身份认证信息和神经网络一起封装,由此将神经网络转换为模型。
图1所示为本发明实施例中神经网络表示标准框架结构的示意图。如图1所示,对于输入的神经网络,可以通过转换工具转换语法、权重和运算操作为提出的可互操作的表示格式,该可互操作表示可以实现各种深度学习开源算法框架间的神经网络模型转换;通过可互操作表示的神经网络通过提到的神经网络压缩算法,转换为压缩后的神经网络,即采用紧凑表示,支持基本的压缩后的神经网络的数据结构,同时提高神经网络的运行效率和存储效率,提供硬件优化;然后通过部分神经网络压缩算法,将紧凑的神经网络转换为编解码表示,在不损坏神经网络的结构信息和权重的情况下,使神经网络的大小最小;最后,将安全信息和身份认证等信息和神经网络封装,将神经网络转换为模型,方便和优化模型的分发与存储。
其中,可互操作表示格式包含对基本神经网络的语法定义、支持的运算操作定义和权重格式的定义。具体到每部分定义如下:
基本的语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算等简单或复杂运算;
权重格式定义数据通道的前后顺序、数据存储的精度定义。
所述可互操作表示内的定义需要满足下面内容:
所述模型结构语法需对网络结构和权重是否加密分别提供选项,不定义具体的加密算法。
所述计算图由一系列节点组成,而节点语法需要包括节点名称、节点描述、节点输入、节点属性、节点运算操作以及运算操作定义。
所述元运算操作和复杂运算操作需要满足以下设计原则:
1、将复杂运算或高级功能操作分解成低级运算操作或元运算操作,可以使用元运算操作来组装新的复杂运算或高级功能操作。
2、定义的元运算操作能够降低编译器的设计、验证复杂性和功耗面积。
所述运算操作应包含卷积神经网络、循环神经网络、生成对抗网络、自动编码器等深度神经网络模型的基于张量的逻辑运算、算术运算、关系运算和位运算等简单或复杂运算。
所述元运算操作需要包含操作名称、输入、输出、支持数据类型和属性。
所述复杂运算操作需要包含操作名称、输入、输出、支持数据类型、属性和基于元运算操作定义。
紧凑表示格式包含压缩后的神经网络的语法定义、支持的运算操作定义和权重格式定义。具体到每部分定义如下:
语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算等简单或复杂运算,支持压缩后的神经网络数据格式运算操作;
权重格式定义矩阵通道的前后顺序定义、数据存储的精度定义和支持的压缩算法中特殊数据结构的格式定义。
支持的压缩算法的数据格式包括但不限于稀疏编码的稀疏矩阵、权重量化的量化表、低秩分解的分解矩阵和二值神经网络的位表示。
所述紧凑表示内的定义需要满足下面内容:
所述模型结构语法需对网络结构和权重是否加密分别提供选项,不定义具体的加密算法。
所述计算图由一系列节点组成,而节点语法需要包括节点名称、节点描述、节点输入、节点属性、节点运算操作以及运算操作定义。
所述元运算操作和复杂运算操作需要满足以下设计原则:
1、将复杂运算或高级功能操作分解成低级运算操作或元运算操作,可以使用元运算操作来组装新的复杂运算或高级功能操作。
2、定义的元运算操作能够降低编译器的设计、验证复杂性和功耗面积。
所述运算操作应包含卷积神经网络、循环神经网络、生成对抗网络、自动编码器等深度神经网络模型的基于张量的逻辑运算、算术运算、关系运算和位运算等简单或复杂运算。
所述元运算操作需要包含操作名称、输入、输出、支持数据类型、属性、包括但不限于稀疏编码的稀疏矩阵、权重量化的量化表、低秩分解的分解矩阵和二值神经网络的位表示所需的数据结构说明。
所述复杂运算操作需要包含操作名称、输入、输出、支持数据类型、属性、基于元运算操作定义、包括但不限于稀疏编码的稀疏矩阵、权重量化的量化表、低秩分解的分解矩阵和二值神经网络的位表示所需的数据结构说明。
编解码表示格式包含压缩后的神经网络的语法定义、支持的运算操作定义和编解码后权重格式定义。具体到每部分定义如下:
语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算等简单或复杂运算,支持压缩后的神经网络数据格式运算操作;
编码后的权重格式需要定义神经网络权重压缩形式的编码表示和重构神经网络权重的语法来描述解码权重的主要方法。
可选的压缩格式包括但不限于哈夫曼编码、Lempel-Ziv(LZ77)、Lempel-Ziv-Markov chain(LZMA)。
所述编解码表示内的定义需要满足下面内容:
所述模型结构语法需对网络结构和权重是否加密分别提供选项,不定义具体的加密算法。
所述计算图由一系列节点组成,而节点语法需要包括节点名称、节点描述、节点输入、节点属性、节点运算操作以及运算操作定义。
所述元运算操作和复杂运算操作需要满足以下设计原则:
1、将复杂运算或高级功能操作分解成低级运算操作或元运算操作,可以使用元运算操作来组装新的复杂运算或高级功能操作。
2、定义的元运算操作能够降低编译器的设计、验证复杂性和功耗面积。
所述运算操作应包含卷积神经网络、循环神经网络、生成对抗网络、自动编码器等深度神经网络模型的基于张量的逻辑运算、算术运算、关系运算和位运算等简单或复杂运算。
所述元运算操作需要包含操作名称、输入、输出、支持数据类型、属性、包括但不限于稀疏编码的稀疏矩阵、权重量化的量化表、低秩分解的分解矩阵和二值神经网络的位表示所需的数据结构说明。
所述复杂运算操作需要包含操作名称、输入、输出、支持数据类型、属性、基于元运算操作定义、包括但不限于稀疏编码的稀疏矩阵、权重量化的量化表、低秩分解的分解矩阵和二值神经网络的位表示所需的数据结构说明。
封装表示中包含对神经网络进行封装的安全信息、身份认证等信息,用来保护模型的知识产权和安全。
该神经网络表示标准框架支持但不限于卷积神经网络、循环神经网络、生成对抗网络、自动编码器等深度神经网络模型。
下面对本发明实施例中神经网络表示标准框架结构的应用进行说明。
如图2所示,本发明实施例中神经网络表示标准框架结构的应用包括:
可操作表示:打破各种深度学习开源算法框架间的壁垒,提供深度学习开源算法框架间的可互操作性。应用的场景包括数据中心、安全监控中心、城市级的大数据平台等。
紧凑表示:为受限设备提供深度神经网络面向硬件的优化,提高神经网络的运行效率与存储效率。应用的场景包括可穿戴设备,例如VR/AR设备、智能手表、智能手机等。
编解码表示:为神经网络的模型的分发和存储提供便捷,保护神经网络模型的安全。应用的场景包括终端计算设备,例如自动驾驶汽车、移动设备、机器人、无人机等。
封装表示:为神经网络模型的分发和存储提供安全,保护神经网络模型的安全。应用场景包含在指定设备对模型进行运行、防止模型的非法传播与使用。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种神经网络表示标准框架结构,包括:
可互操作表示模块,通过对输入的神经网络进行转换得到可互操作的表示格式,其包含对神经网络的语法定义、支持的运算操作定义和权重格式定义;
紧凑表示模块,将可互操作表示的神经网络通过神经网络压缩算法转换为序列化格式的紧凑表示格式,其包含压缩后的神经网络的语法定义、支持的运算操作定义和权重格式定义;
编解码表示模块,通过神经网络压缩算法将紧凑表示格式的神经网络转换为编解码表示格式,其包含压缩后的神经网络的语法定义、支持的运算操作定义和编解码后权重格式定义;
封装表示模块,将安全信息和身份认证信息和神经网络一起封装,由此将神经网络转换为模型。
2.如权利要求1所述的框架结构,其特征在于:
所述可互操作表示模块中的对神经网络的语法定义、支持的运算操作定义和权重格式定义分别包括:
语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
权重格式定义包含数据通道的前后顺序定义、数据存储的精度定义。
3.如权利要求1所述的框架结构,其特征在于:
所述紧凑表示模块中的压缩后的神经网络的语法定义、支持的运算操作定义和权重格式定义分别包括:
语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
权重格式定义包含矩阵通道的前后顺序定义、数据存储的精度定义和支持的压缩算法中特殊数据结构的格式定义。
4.如权利要求1所述的框架结构,其特征在于:所述编解码表示模块中的压缩后的神经网络的语法定义、支持的运算操作定义和编解码后权重格式定义分别包括:
语法定义包含模型结构语法、贡献者语法、计算图语法、节点语法、节点属性语法、数据类型语法、其他数据类型语法、张量语法以及张量大小语法;
支持的运算操作被划分为元运算操作和复杂运算操作,包含基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
编解码后的权重格式定义包括神经网络权重压缩形式的编码表示格式和重构神经网络权重的语法来描述解码权重。
5.如权利要求1所述的框架结构,其特征在于:所述标准框架包括以下神经网络:卷积神经网络、循环神经网络、生成对抗网络或自动编码器神经网络。
6.如权利要求2所述的框架结构,其特征在于:所述可互操作的表示格式的定义满足以下要求:
所述模型结构语法对网络结构和权重是否加密分别提供选项,不定义具体的加密算法;
所述计算图语法由一系列节点组成,节点语法包括节点名称、节点描述、节点输入、节点属性、节点运算操作以及运算操作定义;
所述运算操作包含卷积神经网络、循环神经网络、生成对抗网络、自动编码器神经网络模型的基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
所述元运算操作包含操作名称、输入、输出、支持数据类型和属性;
所述复杂运算操作包含操作名称、输入、输出、支持数据类型、属性和基于元运算操作定义。
7.如权利要求3或4所述的框架结构,其特征在于:所述紧凑表示格式和编解码表示格式的定义满足以下要求:
所述模型结构语法对网络结构和权重是否加密分别提供选项,不定义具体的加密算法;
所述计算图语法由一系列节点组成,节点语法包括节点名称、节点描述、节点输入、节点属性、节点运算操作以及运算操作定义;
所述运算操作包含卷积神经网络、循环神经网络、生成对抗网络、自动编码器神经网络模型的基于张量的逻辑运算、算术运算、关系运算和位运算的简单或复杂运算;
所述元运算操作包含操作名称、输入、输出、支持数据类型和属性;
所述复杂运算操作包含操作名称、输入、输出、支持数据类型、属性和基于元运算操作定义。
8.如权利要求3或4所述的框架结构,其特征在于:
所述紧凑表示格式和编解码表示格式支持下面的神经网络压缩算法需要的数据格式:稀疏编码的稀疏矩阵、权重量化的量化表、低秩分解的分解矩阵和二值神经网络的位表示。
9.如权利要求2、3或4所述的框架结构,其特征在于:所述元运算操作和复杂运算操作满足以下设计规则:
将复杂运算或高级功能操作分解成低级运算操作或元运算操作,使用元运算操作来组装新的复杂运算或高级功能操作;
定义的元运算操作能够降低编译器的设计、验证复杂性和功耗面积。
10.如权利要求1所述的框架结构,其特征在于:
所述封装表示模块包括:对神经网络进行封装的安全信息、身份认证信息,用来保护模型的知识产权和安全。
CN201810575097.7A 2018-06-06 2018-06-06 神经网络表示标准框架结构 Active CN108985448B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810575097.7A CN108985448B (zh) 2018-06-06 2018-06-06 神经网络表示标准框架结构

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810575097.7A CN108985448B (zh) 2018-06-06 2018-06-06 神经网络表示标准框架结构

Publications (2)

Publication Number Publication Date
CN108985448A true CN108985448A (zh) 2018-12-11
CN108985448B CN108985448B (zh) 2020-11-17

Family

ID=64540855

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810575097.7A Active CN108985448B (zh) 2018-06-06 2018-06-06 神经网络表示标准框架结构

Country Status (1)

Country Link
CN (1) CN108985448B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919303A (zh) * 2019-02-28 2019-06-21 范力欣 一种深度神经网络的知识产权保护方法、系统及终端
CN110532291A (zh) * 2019-07-25 2019-12-03 中国科学院计算技术研究所 基于最小执行代价的深度学习框架间模型转换方法及系统
CN111193917A (zh) * 2018-12-29 2020-05-22 中科寒武纪科技股份有限公司 运算方法、装置及相关产品
CN111340175A (zh) * 2018-12-18 2020-06-26 赛灵思公司 图重写的处理方法及装置、计算设备及可读介质
CN112668707A (zh) * 2019-05-31 2021-04-16 安徽寒武纪信息科技有限公司 运算方法、装置及相关产品
CN112884120A (zh) * 2021-01-29 2021-06-01 北京大学 图神经网络表示架构
CN112947899A (zh) * 2019-12-11 2021-06-11 杭州海康威视数字技术股份有限公司 深度学习模型转换方法、系统及装置
CN113554159A (zh) * 2020-04-23 2021-10-26 意法半导体(鲁塞)公司 用于在集成电路中实现人工神经网络的方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259215A1 (en) * 2009-06-04 2010-12-08 Honda Research Institute Europe GmbH Method and structure for a neural associative memory based on optimal Bayesian learning
US20140032459A1 (en) * 2012-07-27 2014-01-30 Brain Corporation Apparatus and methods for generalized state-dependent learning in spiking neuron networks
CN104620236A (zh) * 2012-03-15 2015-05-13 美国高通技术公司 用于神经网络的基于标记的装置和方法
US9117176B2 (en) * 2011-09-21 2015-08-25 Qualcomm Technologies Inc. Round-trip engineering apparatus and methods for neural networks
CN106650922A (zh) * 2016-09-29 2017-05-10 清华大学 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统
CN107423817A (zh) * 2017-04-17 2017-12-01 星环信息科技(上海)有限公司 一种深度学习实现的方法及设备
WO2018009490A1 (en) * 2016-07-08 2018-01-11 Microsoft Technology Licensing, Llc Conversational relevance modeling using convolutional neural network
CN107832837A (zh) * 2017-11-28 2018-03-23 南京大学 一种基于压缩感知原理的卷积神经网络压缩方法及解压缩方法
CN107992299A (zh) * 2017-11-27 2018-05-04 郑州云海信息技术有限公司 神经网络超参数提取转换方法、系统、装置及存储介质
CN108090560A (zh) * 2018-01-05 2018-05-29 中国科学技术大学苏州研究院 基于fpga的lstm递归神经网络硬件加速器的设计方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259215A1 (en) * 2009-06-04 2010-12-08 Honda Research Institute Europe GmbH Method and structure for a neural associative memory based on optimal Bayesian learning
US9117176B2 (en) * 2011-09-21 2015-08-25 Qualcomm Technologies Inc. Round-trip engineering apparatus and methods for neural networks
CN104620236A (zh) * 2012-03-15 2015-05-13 美国高通技术公司 用于神经网络的基于标记的装置和方法
US20140032459A1 (en) * 2012-07-27 2014-01-30 Brain Corporation Apparatus and methods for generalized state-dependent learning in spiking neuron networks
WO2018009490A1 (en) * 2016-07-08 2018-01-11 Microsoft Technology Licensing, Llc Conversational relevance modeling using convolutional neural network
CN106650922A (zh) * 2016-09-29 2017-05-10 清华大学 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统
CN107423817A (zh) * 2017-04-17 2017-12-01 星环信息科技(上海)有限公司 一种深度学习实现的方法及设备
CN107992299A (zh) * 2017-11-27 2018-05-04 郑州云海信息技术有限公司 神经网络超参数提取转换方法、系统、装置及存储介质
CN107832837A (zh) * 2017-11-28 2018-03-23 南京大学 一种基于压缩感知原理的卷积神经网络压缩方法及解压缩方法
CN108090560A (zh) * 2018-01-05 2018-05-29 中国科学技术大学苏州研究院 基于fpga的lstm递归神经网络硬件加速器的设计方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
YEMIN SHI ET AL: "Sequential Deep Trajectory Descriptor for Action Recognition With Three-Stream CNN", 《IEEE TRANSACTIONS ON MULTIMEDIA》 *
ZHEN YU ET AL: "A Deep Convolutional Neural Network-Based Framework for Automatic Fetal Facial Standard Plane Recognition", 《IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICS》 *
微软学生俱乐部: "微软开源MMdnn:深度学习框架随心切换", 《HTTPS://WWW.SOHU.COM/A/225240887_610508》 *
郝泳涛等: "基于模式化知识和人工神经网络的智能设计系统框架研究", 《计算机辅助设计与图形学学报》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340175B (zh) * 2018-12-18 2023-12-26 赛灵思公司 图重写的处理方法及装置、计算设备及可读介质
CN111340175A (zh) * 2018-12-18 2020-06-26 赛灵思公司 图重写的处理方法及装置、计算设备及可读介质
CN111193917B (zh) * 2018-12-29 2021-08-10 中科寒武纪科技股份有限公司 运算方法、装置及相关产品
CN111193917A (zh) * 2018-12-29 2020-05-22 中科寒武纪科技股份有限公司 运算方法、装置及相关产品
CN109919303A (zh) * 2019-02-28 2019-06-21 范力欣 一种深度神经网络的知识产权保护方法、系统及终端
WO2020173252A1 (zh) * 2019-02-28 2020-09-03 笵成科技南京有限公司 运用自锁机制保护深度神经网络的方法、系统及终端
CN109919303B (zh) * 2019-02-28 2023-09-19 笵成科技南京有限公司 一种深度神经网络的知识产权保护方法、系统及终端
CN112668707A (zh) * 2019-05-31 2021-04-16 安徽寒武纪信息科技有限公司 运算方法、装置及相关产品
CN112668707B (zh) * 2019-05-31 2024-05-17 安徽寒武纪信息科技有限公司 运算方法、装置及相关产品
CN110532291A (zh) * 2019-07-25 2019-12-03 中国科学院计算技术研究所 基于最小执行代价的深度学习框架间模型转换方法及系统
CN110532291B (zh) * 2019-07-25 2022-07-12 中国科学院计算技术研究所 基于最小执行代价的深度学习框架间模型转换方法及系统
CN112947899A (zh) * 2019-12-11 2021-06-11 杭州海康威视数字技术股份有限公司 深度学习模型转换方法、系统及装置
CN112947899B (zh) * 2019-12-11 2023-09-26 杭州海康威视数字技术股份有限公司 深度学习模型转换方法、系统及装置
CN113554159A (zh) * 2020-04-23 2021-10-26 意法半导体(鲁塞)公司 用于在集成电路中实现人工神经网络的方法和装置
CN112884120A (zh) * 2021-01-29 2021-06-01 北京大学 图神经网络表示架构

Also Published As

Publication number Publication date
CN108985448B (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN108985448A (zh) 神经网络表示标准框架结构
KR100424130B1 (ko) 데이터 압축 장치, 데이터베이스 시스템, 데이터 통신시스템, 데이터 압축 방법, 기억 매체 및 프로그램 전송장치
Louchard et al. Average profile and limiting distribution for a phrase size in the Lempel-Ziv parsing algorithm
Shao et al. Branchy-GNN: A device-edge co-inference framework for efficient point cloud processing
CN112884120A (zh) 图神经网络表示架构
CN111598223B (zh) 一种基于属性和结构深度融合的网络嵌入方法及其模型
CN116340413A (zh) 一种物联网边缘端数据采集与存储方法
CN109683873B (zh) 利用asn1规则的航天信息接口编码方法及系统架构
CN102033959A (zh) 一种分布式计算系统中对象传递的方法
CN114492316A (zh) 数据交换编解码方法和系统
CN113783876A (zh) 基于图神经网络的网络安全态势感知方法及相关设备
Wang Multimedia data compression storage of sensor network based on improved Huffman coding algorithm in cloud
CN108829930B (zh) 三维数字化工艺设计mbd模型的轻量化方法
CN113222151A (zh) 一种量子态的变换方法及装置
Zhang et al. Semantic communications: A new paradigm for networked intelligence
CN116306780A (zh) 一种动态图链接生成方法
CN116127325A (zh) 基于多属性图的图神经网络业务流程异常检测方法和系统
CN102314371A (zh) 基于可扩展标记语言的编码方法、解码方法及编解码装置
CN114841342A (zh) 一种基于张量的高效Transformer的架构方法
CN112347125A (zh) 一种设备数据处理的方法及物联网数据处理方法
CN112883238B (zh) 一种面向交通信息应用的多叉树数据存储系统及方法
CN104572763A (zh) 一种分布式计算系统中对象传递的方法
Li et al. Software-defined gpu-cpu empowered efficient wireless federated learning with embedding communication coding for beyond 5g
CN110210549A (zh) 一种跨域变分对抗自编码方法
US20230154053A1 (en) System and method for scene graph lossless compression by context-based graph convolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant