CN114520817A - 数据传输方法及装置、存储介质及电子设备 - Google Patents
数据传输方法及装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN114520817A CN114520817A CN202210150923.XA CN202210150923A CN114520817A CN 114520817 A CN114520817 A CN 114520817A CN 202210150923 A CN202210150923 A CN 202210150923A CN 114520817 A CN114520817 A CN 114520817A
- Authority
- CN
- China
- Prior art keywords
- evaluation
- model
- depth level
- sensing node
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 125
- 230000005540 biological transmission Effects 0.000 title claims abstract description 40
- 238000003062 neural network model Methods 0.000 claims abstract description 95
- 238000004364 calculation method Methods 0.000 claims abstract description 92
- 238000013210 evaluation model Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims description 225
- 230000008569 process Effects 0.000 claims description 27
- 230000008447 perception Effects 0.000 claims description 26
- 125000004122 cyclic group Chemical group 0.000 claims description 11
- 238000012854 evaluation process Methods 0.000 claims description 10
- 238000012821 model calculation Methods 0.000 claims description 6
- 239000010410 layer Substances 0.000 description 154
- 238000012545 processing Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 15
- 238000013527 convolutional neural network Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000000586 desensitisation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000002356 single layer Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/04—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
- H04L63/0428—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/20—Network architectures or network communication protocols for network security for managing network security; network security policies in general
Landscapes
- Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
Abstract
本发明提供了一种数据传输方法及装置、存储介质及电子设备,该方法包括:当感知节点接收到触发指令时,确定各个设备性能参数;确定感知节点中预设的神经网络模型对应的多个深度层级;确定模型参数集合,依据各个设备性能参数、模型参数集合以及预设的性能评估模型,在多个深度层级中,确定感知节点对应的目标深度层级;将目标深度层级作为感知节点的模型运行层级,以使感知节点在采集到原始数据时,通过神经网络模型中与目标深度层级相对应的各个计算层,对原始数据进行特征提取,得到对应的预处理数据,并将预处理数据传输至服务器。应用本发明的方法,在数据传输过程中传输的是经提取的数据,不包含原始的数据隐私,可提高数据隐私安全性。
Description
技术领域
本发明涉及物联网技术领域,特别是涉及一种数据传输方法及装置、存储介质及电子设备。
背景技术
物联网是指通过各种信息传感器、射频识别技术、全球定位系统、红外感应器、激光扫描器等装置与技术,实时对任何需要监控、连接、互动的物体或过程进行采集,采集所需的各类信息,实现对物品和过程的智能化感知、识别和管理的网络。
随着计算机技术的发展,在物联网的应用过程中,已广泛应用人工智能技术。物联网通常部署有服务器和多个感知节点,感知节点指的是可对现实物质世界进行感知识别的设备,如传感器或是智能监控仪器等等。由感知节点负责原始数据的采集,如采集图像、视频和音频等数据,再将采集的原始数据传输到服务器,由服务器基于人工智能技术对原始数据进行处理。
而随着物联网在各个领域的广泛应用,物联网的数据隐私安全性也愈发重要。在实际的应用场景中,数据传输过程是发生数据泄露的常见过程之一,而在物联网的现有处理过程中,感知节点需向服务器传输原始数据,原始数据中通常包含大量的隐私信息,在此过程中容易造成大量数据隐私泄露,使得数据隐私安全性较低。
发明内容
有鉴于此,本发明实施例提供了一种数据传输方法,以解决感知节点向服务器传输数据过程中,容易造成大量数据隐私泄露,使得数据隐私安全性较低的问题。
本发明实施例还提供了一种数据传输装置,用以保证上述方法实际中的实现及应用。
为实现上述目的,本发明实施例提供如下技术方案:
一种数据传输方法,包括:
当感知节点接收到触发指令时,确定所述感知节点对应的各个设备性能参数;
确定所述感知节点中预设的神经网络模型对应的多个深度层级;
确定模型参数集合,所述模型参数集合包括所述神经网络模型中每个计算层对应的各个结构参数;
依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级;
将所述目标深度层级作为所述感知节点的模型运行层级,以使所述感知节点在采集到原始数据时,通过所述神经网络模型中与所述目标深度层级相对应的各个计算层,对所述原始数据进行特征提取,得到所述原始数据对应的预处理数据,将所述预处理数据传输至所述感知节点对应的服务器。
上述的方法,可选的,所述确定所述感知节点对应的各个设备性能参数,包括:
获取第一设备性能参数,所述第一设备性能参数为所述感知节点对应的设备每秒浮点运算最大次数;
获取第二设备性能参数,所述第二设备性能参数为所述感知节点对应的设备内存带宽上限;
将所述第一设备性能参数和所述第二设备性能参数作为所述感知节点对应的各个设备性能参数。
上述的方法,可选的,所述依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级,包括:
对所述感知节点的性能进行循环评估,在当前的评估周期中,在所述多个深度层级中,确定所述当前的评估周期对应的评估深度层级;
基于所述模型参数集合,确定所述评估深度层级对应的各个模型参数;
将所述各个设备性能参数和所述评估深度层级对应的各个模型参数,输入所述性能评估模型,经所述性能评估模型处理后,得到所述评估深度层级对应的性能参数;
判断所述评估深度层级对应的性能参数是否符合预设的运行条件;
若所述评估深度层级对应的性能参数符合所述预设的运行条件,则判断所述评估深度层级是否为所述多个深度层级中的最后一个深度层级,若所述评估深度层级并非所述多个深度层级中的最后一个深度层级,则进入下一个评估周期;
若所述评估深度层级不符合所述预设的运行条件,则结束循环评估过程,并将所述当前的评估周期的上一个评估周期所对应的评估深度层级,作为所述感知节点对应的目标深度层级;
其中,所述多个深度层级中的首个深度层级为首个评估周期对应的评估深度层级,每个评估周期对应的评估深度层级的下一个深度层级,为该评估周期的下一个评估周期对应的评估深度层级。
上述的方法,可选的,所述基于所述模型参数集合,确定所述评估深度层级对应的各个模型参数,包括:
在所述神经网络模型的各个计算层中,确定所述评估深度层级对应的各个目标计算层,所述各个目标计算层为所述神经网络模型中,对应层数级别小于或等于所述评估深度层级的计算层;
在所述模型参数集合中,获取每个所述目标计算层对应的各个结构参数;
基于各个所述目标计算层对应的各个结构参数,确定所述评估深度层级对应的各个模型参数。
上述的方法,可选的,所述基于各个所述目标计算层对应的各个结构参数,确定所述评估深度层级对应的各个模型参数,包括:
对于每个所述目标计算层,基于该目标计算层对应的各个结构参数,确定该目标计算层对应的计算量和内存访问量;
将各个所述目标计算层对应的计算量作和运算,将运算结果作为模型计算量;
将各个所述目标计算层对应的内存访问量作和运算,将运算结果作为模型内存访问量;
将所述模型计算量和所述模型内存访问量作为所述评估深度层级对应的各个模型参数。
上述的方法,可选的,所述判断所述评估深度层级对应的性能参数是否符合预设的运行条件,包括:
基于所述评估深度层级对应的各个模型参数和所述评估深度层级对应的性能参数,确定所述评估深度层级对应的运行时长;
获取所述感知节点对应的设备闲置时长;
将所述运行时长与所述设备闲置时长进行比较,若所述运行时长小于或等于所述设备闲置时长,则确定所述评估深度层级对应的性能参数符合所述预设的运行条件,若所述运行时长大于所述设备闲置时长,则确定所述评估深度层级对应的性能参数不符合所述预设的运行条件。
上述的方法,可选的,还包括:
若所述评估深度层级为所述多个深度层级中的最后一个深度层级,则结束循环评估过程,将所述评估深度层级作为所述感知节点对应的目标深度层级。
一种数据传输装置,包括:
第一确定单元,用于当感知节点接收到触发指令时,确定所述感知节点对应的各个设备性能参数;
第二确定单元,用于确定所述感知节点中预设的神经网络模型对应的多个深度层级;
第三确定单元,用于确定模型参数集合,所述模型参数集合包括所述神经网络模型中每个计算层对应的各个结构参数;
第四确定单元,用于依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级;
配置单元,用于将所述目标深度层级作为所述感知节点的模型运行层级,以使所述感知节点在采集到原始数据时,通过所述神经网络模型中与所述目标深度层级相对应的各个计算层,对所述原始数据进行特征提取,得到所述原始数据对应的预处理数据,将所述预处理数据传输至所述感知节点对应的服务器。
一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如上述的数据传输方法。
一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如上述的数据传输方法。
基于上述本发明实施例提供的一种数据传输方法,包括:当感知节点接收到触发指令时,确定感知节点对应的各个设备性能参数;确定感知节点中预设的神经网络模型对应的多个深度层级;确定模型参数集合,所述模型参数集合包括所述神经网络模型中每个计算层对应的各个结构参数;依据各个设备性能参数、模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定感知节点对应的目标深度层级;将目标深度层级作为感知节点的模型运行层级,以使感知节点在采集到原始数据时,通过所述神经网络模型中与目标深度层级相对应的各个计算层,对原始数据进行特征提取,得到所述原始数据对应的预处理数据,将所述预处理数据传输至感知节点对应的服务器。应用本发明实施例提供的方法,可在感知节点中预设的神经网络模型所对应的多个深度层级中,确定出与感知节点的设备性能相匹配的目标深度层级,使感知节点可通过神经网络模型中与目标深度层级相对应的计算层对采集到的原始数据进行特征提取,从而对原始数据进行数据脱敏,在保留数据特征的同时,滤除了原始数据中的隐私内容。在感知节点与服务器的数据传输过程中,传输的是经提取的数据,其中不包含大量的数据隐私内容,可避免数据隐私在数据传输过程中泄露,提高了数据隐私安全性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种数据传输方法的方法流程图;
图2为本发明实施例提供的一种原始数据的处理效果图;
图3为本发明实施例提供的一种数据传输方法的又一方法流程图;
图4为本发明实施例提供的一种设备计算性能与计算密度之间的关系示意图;
图5为本发明实施例提供的一种计算层的结构示意图;
图6为本发明实施例提供的一种数据传输装置的结构示意图;
图7为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
由背景技术可知,物联网结合人工智能技术的应用范围十分广泛,例如在医疗健康领域的应用,如:智能诊疗、医疗机器人、健康风险预警等等。在移动式设备领域的应用,如:人脸检测与识别技术、指纹自动识别、虹膜识别技术等等。人工智能技术的应用不仅释放了许多人力与时间资源,同时提高了工作的便捷与精准度。目前依托服务器基于人工智能技术进行相应处理,而由感知节点采集原始数据,并传输至服务器。在实际的应用场景中,感知节点采集的原始数据常常会包含大量用户隐私内容。若在数据传输过程中遭到恶意攻击,则会造成原始数据泄露,而原始数据中包含大量的数据隐私,故会泄露大量的隐私内容,给用户带来极大的信息安全隐患,数据传输过程中的数据隐私安全性较低。
因此,本发明实施例提供了一种数据传输方法,通过在感知节点中配置神经网络模型,并确定与感知节点的设备性能相匹配的深度层级,以使感知节点通过神经网络模型中与该深度层级相匹配的计算层,对采集到的原始数据进行特征提取,向服务器传输处理后的数据,避免传输原始数据,提高数据隐私安全性。
本发明实施例提供了一种数据传输方法,所述方法可应用于物联网的感知节点,其执行主体可以为感知节点的处理器,所述方法的方法流程图如图1所示,包括:
S101:当感知节点接收到触发指令时,确定所述感知节点对应的各个设备性能参数;
本发明实施例提供的方法中,感知节点指的是用于采集网络所需的感知数据的设备,可以为体型微小的芯片传感器,也可以是大型的智能监控仪器。感知节点的功能及形式可根据实际的应用场景确定,不影响本发明实施例提供的方法实现功能。
当用户需要对物联网中的某一感知节点进行配置时,可向其发送触发指令。当感知节点接收到触发指令时,感知节点可从预先设置的存储区域获取预先存储的各个设备性能参数,所述各个设备性能参数为表征该感知节点设备的处理性能的参数。
S102:确定所述感知节点中预设的神经网络模型对应的多个深度层级;
本发明实施例提供的方法中,在感知节点中预先设置了神经网络模型,该神经网络模型的处理能力可根据实际的应用处理需求确定,其能够实现数据的特征提取。本发明实施例中的神经网络模型可以为卷积神经网络。卷积神经网络(Convolutional NeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。
本发明实施例提供的方法中,可预先设置感知节点中的神经网络模型所对应的各个深度层级,各个深度层级指的是神经网络模型的不同层数级别所对应的结构深度,例如神经网络模型具有五层模型结构,也就是五层计算层。该神经网络模型则对应五个深度层级,分别是第一层级、第二层级、第三层级、第四层级和第五层级,第一层级为对应神经网络模型第一层模型结构的模型深度,第二层级为对应神经网络模型第二层模型结构的模型深度,以此类推。而神经网络模型某一层模型结构的模型深度,指的是包括该层模型结构以及该层模型结构之前的各层模型结构所形成的模型深度。例如第二层级指的是神经网络模型第一层模型结构加上第二层模型结构所组成的模型深度,第三层级指的是神经网络模型中第一层、第二层和第三层模型结构所组成的模型深度,以此类推。
S103:确定模型参数集合,所述模型参数集合包括所述神经网络模型中每个计算层对应的各个结构参数;
本发明实施例提供的方法中,感知节点中预先配置有神经网络模型中每个计算层的结构参数,如输入的高度、输入的宽度等等。可从预设的存储区域获取预设的各个结构参数。神经网络模型中的计算层指的是单个层级结构,例如神经网络模型为卷积神经网络,该卷积神经网络包括卷积层,线性整流层,池化层和损失函数层,那么卷积层则为一个计算层,线性整流层为一个计算层,以此类推,该神经网络模型有四个计算层。
S104:依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级;
本发明实施例提供的方法中,可以根据感知节点的各个设备性能参数、神经网络模型中各个计算层的结构参数和预设的性能评估模型,确定感知节点对应的目标深度层级,也就是以感知节点的处理性能所能够承载的神经网络模型的运算深度,例如目标深度层级为第二层级,则表示感知节点仅能负担神经网络模型前两层计算层的计算量,即第一层计算层加上第二层计算层的计算量。预设的性能评估模型可以采用现有的用于平台性能评估的模型,也可以根据实际的评估需求构建性能评估模型。
S105:将所述目标深度层级作为所述感知节点的模型运行层级,以使所述感知节点在采集到原始数据时,通过所述神经网络模型中与所述目标深度层级相对应的各个计算层,对所述原始数据进行特征提取,得到所述原始数据对应的预处理数据,将所述预处理数据传输至所述感知节点对应的服务器。
本发明实施例提供的方法中,可在感知节点的模型运行配置中,将目标深度层级作为该感知节点的模型运行层级。当感知节点在工作过程中,采集到原始数据时,可通过预设的神经网络模型中,与目标深度层级相对应的各个计算层,对原始数据进行特征提取,得到预处理数据,并将预处理数据通过已建立的信息传输通道传输至对应的服务器。以使服务器能够基于该预处理数据进行后续的处理。例如目标深度层级为第二层级,那么感知节点在特征提取过程中,则运行神经网络模型的第一层计算层和第二层计算层对原始数据进行处理,而服务器中可以预先设置与上述模型相同结构的神经网络模型,在服务器中对接收到的预处理数据,进行后续层级的数据处理,如通过该神经网络模型第二层之后的计算层对预处理数据进行处理,然后再进行后续的工作。
需要说明的是,本发明实施例提供的方法中,仅需在感知节点的配置阶段确定目标深度层级,对感知节点的模型运行层级进行一次初始化的配置即可,在感知节点后续工作过程中,每次需要对原始数据进行处理时,均按照预先的配置调用神经网络模型进行特征提取,无需在每次数据处理之前重新进行配置。
本发明实施例提供的方法中,感知节点采集的原始数据可以是图片、音频、视频或是其他类型的数据。以原始数据为图片为例,如图2所示,对采集到的图片进行特征处理后,可以得到包含特征信息,而滤除了其他隐私内容的图片。
基于本发明实施例提供的方法,感知节点可响应触发指令,确定其对应的各个设备性能参数,并确定其中预设的神经网络模型所对应的多个深度层级。依据各个设备性能参数、神经网络模型的各个结构参数和预设的性能评估模型,可在多个深度层级中确定目标深度层级,使感知节点在采集到原始数据时,通过神经网络模型中与目标深度层级相对应的各个计算层,对原始数据进行特征提取,得到对应的预处理数据,将预处理数据传输至服务器。应用本发明实施例提供的方法,感知节点在采集到原始数据后,可对原始数据进行特征提取,从而对原始数据进行数据脱敏,在保留数据特征的同时,滤除了原始数据中的隐私内容。在感知节点与服务器的数据传输过程中,传输的是经提取的数据,其中不包含大量的数据隐私内容,可避免数据隐私在数据传输过程中泄露,提高了数据隐私安全性。其次,感知节点在运行神经网络模型时所运行的层级深度,与感知节点的处理能力相匹配,提高了感知节点运行神经网络模型的可行性,避免处理性能较差的节点难以正常运行神经网络模型。
本发明实施例提供的方法中,感知节点是物联网中采集信息的节点设备,是物联网的底层组成部分之一,在实际的应用场景中,感知节点的用途可以互不相同,如从土壤水分含量、空气氧气含量的检测,到声音、图像中的人体目标探测等等,基本覆盖生活中的方方面面。机器感知技术为感知节点应用的主要部分之一,其主要研究使用节点设备或计算机模拟、扩展人的感知能力。其覆盖范围十分广阔,包括设备视觉、设备听觉、以及设备触觉等。例如,模式识别、自然语言处理等就是设备感知方面的高智能化的计算机水平应用。而感知节点技术是一种简化的机器感知技术,是无线传感网络的技术基础。其包括用于现实物质世界进行感知识别的电子标签、传感器,智能化传感网节点技术等。
进一步的,在上述实施例提供的方法的基础上,本发明实施例提供了又一种数据传输方法,其中,步骤S101中所提及的确定所述感知节点对应的各个设备性能参数的过程,包括:
获取第一设备性能参数,所述第一设备性能参数为所述感知节点对应的设备每秒浮点运算最大次数;
获取第二设备性能参数,所述第二设备性能参数为所述感知节点对应的设备内存带宽上限;
将所述第一设备性能参数和所述第二设备性能参数作为所述感知节点对应的各个设备性能参数。
本发明实施例提供的方法中,可以根据感知节点的实际设备参数,在感知节点中预先设置的存储区域中配置该感知节点对应的设备参数,如设备每秒浮点运算最大次数和设备内存带宽上限等等。设备每秒浮点运算最大次数指的是设备系统每秒内所执行的最大浮点运算次数,设备内存带宽上限指的是设备系统每秒可进行内存交换的字节数最大值,即设备内存带宽的上限值。
本发明实施例提供的方法中,可以根据性能评估模型的应用需求在预先设置的存储区域获取与该应用需求相对应的各个设备性能参数。本发明实施例提供的方法中,性能评估模型可以采用Roofline模型,该模型计算设备的性能指标所需的设备性能参数为设备每秒浮点运算最大次数和设备内存带宽上限。可以从预先设置的存储区域获取感知节点对应的设备每秒浮点运算最大次数和设备内存带宽上限,将这两个设备性能参数作为感知节点对应的各个设备性能参数,用于性能评估。
为了更好地说明本发明实施例提供的方法,在图1所示方法的基础上,本发明实施例提供了又一种数据传输方法,参考图3所示流程图,本发明实施例提供的方法中,步骤S104中所提及的依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级,包括:
S201:对所述感知节点的性能进行循环评估;
本发明实施例提供的方法中,对感知节点的性能进行循环评估,也就是逐一增加神经网络模型的运算深度,以确定感知节点能够承载运行的神经网络模型的运算深度。以周期性的方式进行评估,将神经网络模型对应的多个深度层级中的首个深度层级作为首个评估周期对应的评估深度层级,每个评估周期对应的评估深度层级的下一个深度层级,作为该评估周期的下一个评估周期对应的评估深度层级。
S202:在当前的评估周期中,在所述多个深度层级中,确定所述当前的评估周期对应的评估深度层级;
本发明实施例提供的方法中,在进入当前的评估周期时,确定当前评估周期对应的评估深度层级。若当前的评估周期为首个评估周期,则将所述多个深度层级中的首个深度层级,即第一层级作为评估深度层级。如果不是首个评估周期,则将多个深度层级中上一个评估周期对应的评估深度层级的下一个深度层级作为当前评估周期中的评估深度层级。例如当前为第二个评估周期,上一个评估周期对应的评估深度层级为首个深度层级,其下一个深度层级为第二个深度层级,即第二层级,则将第二层级作为当前的评估周期对应的评估深度层级。也可以理解为当前评估周期对应的评估深度层级,为多个深度层级中,层级顺序与该评估周期的周期数相对应的深度层级,如第一个评估周期的评估深度层级为首个深度层级,第二个评估周期的评估深度层级为第二个深度层级,第三个评估周期的评估深度层级为第三个深度层级,以此类推。当前评估周期对应的评估深度层级,也就是当前对感知节点的性能进行评估所采用的模型深度,例如当评估深度层级为第二个深度层级时,则是评估感知节点的性能能否承载神经网络模型中与第二个深度层级相对应的各个计算层的计算任务,即是否能够正常运行神经网络模型中第一个计算层加上第二个计算层的计算量。
S203:基于所述模型参数集合,确定所述评估深度层级对应的各个模型参数;
本发明实施例提供的方法中,可基于模型参数集合中与当前的评估深度层级对应的各个计算层的各个结构参数,确定当前的评估深度层级对应的各个模型参数。模型参数可以为模型的计算量等等。
S204:将所述各个设备性能参数和所述评估深度层级对应的各个模型参数,输入所述性能评估模型,经所述性能评估模型处理后,得到所述评估深度层级对应的性能参数;
本发明实施例提供的方法中,将感知节点对应的各个设备性能参数和当前的评估深度层级所对应的各个模型参数作为输入,输入至预设的性能评估模型,经性能评估模型处理后,可以得到当前的评估深度层级所对应的性能参数。本发明实施例提供的方法中可采用Roofline模型作为性能评估模型,将感知节点对应的设备每秒浮点运算最大次数和内存带宽上限作为设备性能参数,将模型的计算量、内存访问量和计算密度作为模型参数,将上述参数输入Roofline模型,可得到感知节点所能达到的最大浮点计算量,即当前的评估深度层级对应的性能参数。
S205:判断所述评估深度层级对应的性能参数是否符合预设的运行条件;
本发明实施例提供的方法中,可根据实际需求预先设置感知节点的运行条件,如运行时间需小于预设阈值或计算量应小于预设阈值等等。通过当前的评估深度层级所对应的性能参数判断是否符合预设的运行条件,也就是确定感知节点能否正常运行当前评估深度层级所对应的计算层。若当前的评估深度层级对应的性能参数符合预设的运行条件,则进入步骤S206,若不符合条件则进入步骤S208。
S206:判断所述评估深度层级是否为所述多个深度层级中的最后一个深度层级;
本发明实施例提供的方法中,若当前的评估深度层级对应的性能参数符合所述预设的运行条件,则判断当前的评估深度层级是否为多个深度层级中的最后一个深度层级,如果不是,则进入步骤S207。
S207:进入下一个评估周期;
本发明实施例提供的方法中,若当前的评估深度层级并非所述多个深度层级中的最后一个深度层级,则进入下一个评估周期,以神经网络模型对应的多个深度层级中,当前评估深度层级的下一个深度层级作为下一个评估深度层级,对感知节点的性能进行评估。
S208:结束循环评估过程,并将所述当前的评估周期的上一个评估周期所对应的评估深度层级,作为所述感知节点对应的目标深度层级;
本发明实施例提供的方法中,若当前的评估深度层级不符合所述预设的运行条件,则结束对感知节点的性能进行评估的过程,将上一个评估周期所对应的评估深度层级作为目标深度层级。例如当前为第三个评估周期,则将第二个评估周期对应的评估深度层级作为目标深度层级,目标深度层级为第二层级,即所述多个深度层级中的第二个深度层级,也就是神经网络模型的前两个计算层所对应的模型深度。
需要说明的是,在实际的应用过程中,本发明实施例提供的方法中感知节点需通过神经网络模型进行特征提取,故应至少能运行至少一个计算层,故通常不会在首个评估周期中结束循环评估过程,需结束循环评估过程的当前评估周期,通常会对应有上一个评估周期。
进一步的,本发明实施例提供的方法中,还包括:
S209:若所述评估深度层级为所述多个深度层级中的最后一个深度层级,则结束循环评估过程,将所述评估深度层级作为所述感知节点对应的目标深度层级。
本发明实施例提供的方法中,若当前的评估深度层级符合预设的运行条件,且当前的评估深度层级为神经网络模型对应的多个深度层级中的最后一个深度层级,则结束感知节点的性能评估,将当前的评估深度层级作为目标深度层级,如神经网络模型对应有五个深度层级,当前的评估周期对应的评估深度层级为第五个深度层级,目标深度层级则为第五个深度层级,也就是神经网络模型的所有计算层所对应的模型深度。
为了更好地说明本发明实施例提供的方法,接下来对本发明实施例采用的性能评估模型,Roofline模型进行简要说明。
神经网络模型与节点设备需要相互“配合”,才能发挥各自的性能优势。因此不仅需要对节点设备进行分析,还需要对网络模型进行性能评估。伯克利大学并行计算实验室的Williams和Patterson提出了Roofline模型,该模型可将复杂的性能问题进行可视化描述从而进行相关的性能评估。Roofline模型指出计算设备的性能指标,主要有两点:
①每秒浮点运算最大次数π(单位:FLOP/s),指的是系统每秒内所执行的最大浮点运算次数。
②内存带宽上限M(单位:Byte/s),指的是系统每秒可进行内存交换的字节数最大值。
Roofline模型同时指出了评估网络模型性能的指标:
①计算量O(单位:FLOPS),指模型进行一次完整的输入计算所产生浮点计算总数。
②内存访问量T(单位:Bytes),指模型进行一次完整的输入计算能够达到最高的内存交换量,亦称作空间复杂度。
③计算密度I(单位:FLOP/Byte),指模型的计算量与内存访问量的比值,计算密度I的计算方式如下:
Roofline模型表达设备的内存带宽与设备最佳性能之间的关系,节点设备实际可达到的最大浮点计算量F的计算方法如下:
当计算密度小于某一阈值Imax时,节点可达到的最大计算性能,受自身内存带宽上限控制,该阈值取决于节点设备的实际性能。当计算密度大于或等于阈值Imax时,可达到的计算性能取决于系统的最大浮点计算性能上限,节点的最大浮点计算量F与其对应的网络模型的计算密度I之间的关系可以如图4所示。
进一步的,在上述实施例提供的方法的基础上,本发明实施例提供的方法中,步骤S203中提及的基于所述模型参数集合,确定所述评估深度层级对应的各个模型参数的过程,包括:
在所述神经网络模型的各个计算层中,确定所述评估深度层级对应的各个目标计算层,所述各个目标计算层为所述神经网络模型中,对应层数级别小于或等于所述评估深度层级的计算层;
本发明实施例提供的方法中,可根据当前的评估深度层级,在神经网络模型的各个计算层中,确定各个目标计算层。神经网络模型中,层数级别小于或等于当前评估深度层级的每个计算层,均为目标计算层。例如当前的评估深度层级为第三层级,则神经网络模型中的第一个计算层、第二个计算层和第三个计算层均为目标计算层。
在所述模型参数集合中,获取每个所述目标计算层对应的各个结构参数;
本发明实施例提供的方法中,可从模型参数集合中,获取每个目标计算层对应的各个结构参数。计算层对应的各个结构参数为层级结构的结构参数,影响该计算层对于设备性能的占用。如计算层对应的结构参数可以为输入的高度、输入的宽度、输入的深度等等参数,不同类型的计算层可以具有不同类型的结构参数。
基于各个所述目标计算层对应的各个结构参数,确定所述评估深度层级对应的各个模型参数。
本发明实施例提供的方法中,基于每个目标计算层的各个结构参数,可以确定每个目标计算层对于性能的开销情况,继而可以确定所有目标计算层对于性能的总开销情况,确定当前的评估深度层级所对应的各个模型参数,即表征运行评估深度层级所对应的各个目标计算层对于性能的开销情况的参数。
进一步的,本发明实施例提供的方法中所述基于各个所述目标计算层对应的各个结构参数,确定所述评估深度层级对应的各个模型参数的过程,包括:
对于每个所述目标计算层,基于该目标计算层对应的各个结构参数,确定该目标计算层对应的计算量和内存访问量;
本发明实施例提供的方法中,将计算量和内存访问量作为表征性能开销情况的参数。根据每个目标计算层的各个结构参数,计算每个目标计算层对应的计算量和内存访问量。
将各个所述目标计算层对应的计算量作和运算,将运算结果作为模型计算量;
将各个所述目标计算层对应的内存访问量作和运算,将运算结果作为模型内存访问量;
本发明实施例提供的方法中,将所有目标计算层对应的计算量相加,将相加的总和作为模型计算量。将所有目标计算层对应的内存访问量相加,将相加的总和作为模型内存访问量。
将所述模型计算量和所述模型内存访问量作为所述评估深度层级对应的各个模型参数。
本发明实施例提供的方法中,将计算得到的模型计算量和模型内存访问量,作为当前的评估深度层级所对应的模型参数。
为了更好地说明模型参数的计算过程,接下结合具体的结构作简要说明。
不同神经网络模型中,计算层的数量以及排序不同。本发明实施例中的神经网络模型采用卷积神经网络,卷积神经网络主要包括卷积层、线性整流层、池化层和损失函数层。卷积层是卷积神经网络最重要的一环,并且它的数据计算量占据了整个网络计算量的绝大部分。本发明实施例以卷积层为例,对模型参数的计算进行简要介绍,其他层级结构的计算原理与其类似,在此不进行详细说明。卷积层的结构可以如图5所示。
卷积层的输入相关参数包括:Hn、Wn和Dn。Hn为输入的高度,Wn为输入的宽度,常规计算中,Hn=Wn,Dn为输入的深度。卷积核的计算相关参数包括:Fh、Fw和Fd。Fh为卷积核的高度,Fw为卷积核的宽度,常规计算中,Fh=Fw,Fd为卷积核的深度,默认卷积核深度与输入核深度相同,卷积核个数为N。单层卷积的输入参数量Tn可根据以下公式计算:
Tn=Hn*Wn*Dn (公式3)
卷积核的总参数量Fn可以根据以下公式计算:
Fn=Fh*Fw*Fd*N (公式4)
单层卷积总计算开销Cn可以根据以下公式计算:
Cn=Hn*Wn*Fh*Fw*Fd*N (公式5)
单层卷积产生的内存访问开销Mn可以根据以下公式计算:
卷积神经网络完成一次前向传播总计算量Ctotal,总内存访问量Mtotal的计算公式如下:
本发明实施例提供的方法中,目标计算层对应的计算量则为Cn,目标计算层对应的内存访问量为Mn,在当前评估深度层级对应的计算过程中,Ctotal为当前评估深度层级对应的模型计算量,Mtotal为当前评估深度层级对应的模型内存访问量,total数目与评估深度层级的层级数相对应,如当前评估深度层级为第三层级,则tatal=3,各个计算层为神经网络模型中的前三层。
为了更好地说明本发明实施例提供的方法,在结合图3所示方法的基础上,本发明实施例提供了又一种数据传输方法,本发明实施例提供的方法中,步骤S205中提及的判断所述评估深度层级对应的性能参数是否符合预设的运行条件的过程,包括:
基于所述评估深度层级对应的各个模型参数和所述评估深度层级对应的性能参数,确定所述评估深度层级对应的运行时长;
获取所述感知节点对应的设备闲置时长;
将所述运行时长与所述设备闲置时长进行比较,若所述运行时长小于或等于所述设备闲置时长,则确定所述评估深度层级对应的性能参数符合所述预设的运行条件,若所述运行时长大于所述设备闲置时长,则确定所述评估深度层级对应的性能参数不符合所述预设的运行条件。
本发明实施例提供的方法中,可以根据当前评估深度层级对应的各个模型参数和当前评估深度层级对应的性能参数,计算当前评估深度层级对应的运行时长,也就是按照感知节点的性能,运行神经网络模型中与评估深度层级对应的各个计算层所需耗费的时间。例如将当前评估深度层级下模型的总计算量与设备可达到的最大浮点计算量相除,可得到对应的计算时间。
本发明实施例提供的方法中,可以预先根据感知节点的工作情况,设置一个设备闲置时长,也就是感知节点在采集原始数据后,可用于对原始数据进行处理的最长时长。将当前评估深度层级对应的运行时长与预设的设备闲置时长进行大小比较,若运行时长小于或等于设备闲置时长,则确定当前的评估深度层级对应的性能参数符合运行条件,反之则不符合运行条件。
为了更好地说明本发明实施例提供的方法,接下来对本发明实施例提供的整体过程作简要介绍。
本发明实施例提供的方法中,当感知节点设备接收到计算指令时,可结合自身硬件资源状态,借助性能评估模型进行性能评估,逐一评估感知节点能否完成神经网络模型处于当前深度层级状态下的运算任务,若当前性能足以支持完成当前深度层级状态下的计算任务,则进行下一层状态下的评估。不能支持则返回上一层,以上一层的深度层级作为任务划分层。任务完成后,将相关计算结果与参数传输至服务器。
具体的分配过程如下:
获取当前状态下设备系统、模型信息,并分析相关参数,模型层数以及每层计算层的计算量与内存访问量;
根据相关公式计算出系统计算密度,并确认当前状态下,系统在神经网络模型相关的各层计算过程中所能达到的最佳浮点性能;
根据每层的参数以及系统可达到的计算性能可得出每层计算消耗时间Ti;
将每层的耗时累计,若到达N层时,累计耗时超过预设的Free_T(宕机情况),则返回N-1层;
将第N-1层作为界限进行任务划分(即以N-1层作为目标深度层级);
若到达N层时,累计耗时没有超过Free_T,则进入下一个深度层级状态下的计算,返回初始步骤重新计算下一个深度层级状态下的累计耗时,以重新进行任务划分。
本发明实施例提供的方法中,分析系统所能达到的最佳浮点性能的简要伪代码如下所示:
/*获取系统信息*/
Get the System.info.
/*获取网络信息*/
Get the Layer.info.
/*获取本地时间*/
Time_begin=sys_gettime();
While{
……
Send(Client_socket,buffer,Data,0);}
/*计算计算密度*/
I←O_Pre/T;
/*判断性能瓶颈*/
If(M*I>π):
F←π;
Else:
F←Min(M*I,π);
Return F
END。
基于上述算法,通过对模型进行评估,计算出不同计算层以及模型的计算密度,通过对比确定整体性能瓶颈。
本发明实施例提供的方法中,计算任务划分,即确定所能达到的最大深度层级的简要伪代码如下所示:
/*获取系统信息*/
Get the System.info.
/*获取网络信息*/
Get the Layer.info.
/*获取设备闲置时间*/
Get the equipment free time.
…
ForN=0→Layer:
/*判断最深层数*/
LayerTime[n]←O_Pre/F;
IfSum(LayerTime)<=Free_T:
N++;
Else:
Break;
END。
上述算法则是通过获取设备的性能闲置时间(设备闲置时间)上限与划分后的计算任务所需的计算时间进行对比,确定最终计算任务的计算深度。
本发明实施例基于轻量化卷积神经网络模型,协同物联网节点数据传输,可以根据物联网节点硬件配置进行评估,并结合卷积神经网络模型的性能指标,分配给设备实际运行中能够完成的最大计算任务量,从而对节点采集的图像等数据进行数据脱敏,同时保留了图像数据特征等信息。可充分利用节点设备的闲置计算资源,进行数据特征提取操作,降低了用户隐私信息数据泄露的风险。创新性地将神经网络模型与感知节点采集的数据相结合,利用卷积神经网络的计算特性对图像信息等内容进行特征提取,减少隐私数据泄露的风险。
与图1所示的一种数据传输方法相对应的,本发明实施例还提供了一种数据传输装置,用于对图1中所示方法的具体实现,其结构示意图如图6所示,包括:
第一确定单元301,用于当感知节点接收到触发指令时,确定所述感知节点对应的各个设备性能参数;
第二确定单元302,用于确定所述感知节点中预设的神经网络模型对应的多个深度层级;
第三确定单元303,用于确定模型参数集合,所述模型参数集合包括所述神经网络模型中每个计算层对应的各个结构参数;
第四确定单元304,用于依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级;
配置单元305,用于将所述目标深度层级作为所述感知节点的模型运行层级,以使所述感知节点在采集到原始数据时,通过所述神经网络模型中与所述目标深度层级相对应的各个计算层,对所述原始数据进行特征提取,得到所述原始数据对应的预处理数据,将所述预处理数据传输至所述感知节点对应的服务器。
基于本发明实施例提供的装置,感知节点可响应触发指令,确定其对应的各个设备性能参数,并确定其中预设的神经网络模型所对应的多个深度层级。依据各个设备性能参数、神经网络模型的各个结构参数和预设的性能评估模型,可在多个深度层级中确定目标深度层级,使感知节点在采集到原始数据时,通过神经网络模型中与目标深度层级相对应的各个计算层,对原始数据进行特征提取,得到对应的预处理数据,将预处理数据传输至服务器。应用本发明实施例提供的装置,感知节点在采集到原始数据后,可对原始数据进行特征提取,从而对原始数据进行数据脱敏,在保留数据特征的同时,滤除了原始数据中的隐私内容。在感知节点与服务器的数据传输过程中,传输的是经提取的数据,其中不包含大量的数据隐私内容,可避免数据隐私在数据传输过程中泄露,提高了数据隐私安全性。其次,感知节点在运行神经网络模型时所运行的层级深度,与感知节点的处理能力相匹配,提高了感知节点运行神经网络模型的可行性,避免处理性能较差的节点难以正常运行神经网络模型。
在上述实施例提供的装置的基础上,本发明实施例提供的装置中,所述第一确定单元301,包括:
第一获取子单元,用于获取第一设备性能参数,所述第一设备性能参数为所述感知节点对应的设备每秒浮点运算最大次数;
第二获取子单元,用于获取第二设备性能参数,所述第二设备性能参数为所述感知节点对应的设备内存带宽上限;
第一确定子单元,用于将所述第一设备性能参数和所述第二设备性能参数作为所述感知节点对应的各个设备性能参数。
在上述实施例提供的装置的基础上,本发明实施例提供的装置中,所述第四确定单元304,包括:
第二确定子单元,用于对所述感知节点的性能进行循环评估,在当前的评估周期中,在所述多个深度层级中,确定所述当前的评估周期对应的评估深度层级;
第三确定子单元,用于基于所述模型参数集合,确定所述评估深度层级对应的各个模型参数;
评估子单元,用于将所述各个设备性能参数和所述评估深度层级对应的各个模型参数,输入所述性能评估模型,经所述性能评估模型处理后,得到所述评估深度层级对应的性能参数;
第一判断子单元,用于判断所述评估深度层级对应的性能参数是否符合预设的运行条件;
第二判断子单元,用于若所述评估深度层级对应的性能参数符合所述预设的运行条件,则判断所述评估深度层级是否为所述多个深度层级中的最后一个深度层级,若所述评估深度层级并非所述多个深度层级中的最后一个深度层级,则进入下一个评估周期;
第四确定子单元,用于若所述评估深度层级不符合所述预设的运行条件,则结束循环评估过程,并将所述当前的评估周期的上一个评估周期所对应的评估深度层级,作为所述感知节点对应的目标深度层级;
其中,所述多个深度层级中的首个深度层级为首个评估周期对应的评估深度层级,每个评估周期对应的评估深度层级的下一个深度层级,为该评估周期的下一个评估周期对应的评估深度层级。
在上述实施例提供的装置的基础上,本发明实施例提供的装置中,所述第三确定子单元,包括:
第五确定子单元,用于在所述神经网络模型的各个计算层中,确定所述评估深度层级对应的各个目标计算层,所述各个目标计算层为所述神经网络模型中,对应层数级别小于或等于所述评估深度层级的计算层;
第三获取子单元,用于在所述模型参数集合中,获取每个所述目标计算层对应的各个结构参数;
第六确定子单元,用于基于各个所述目标计算层对应的各个结构参数,确定所述评估深度层级对应的各个模型参数。
在上述实施例提供的装置的基础上,本发明实施例提供的装置中,所述第六确定子单元,包括:
第七确定子单元,用于对于每个所述目标计算层,基于该目标计算层对应的各个结构参数,确定该目标计算层对应的计算量和内存访问量;
计算子单元,用于将各个所述目标计算层对应的计算量作和运算,将运算结果作为模型计算量;将各个所述目标计算层对应的内存访问量作和运算,将运算结果作为模型内存访问量;将所述模型计算量和所述模型内存访问量作为所述评估深度层级对应的各个模型参数。
在上述实施例提供的装置的基础上,本发明实施例提供的装置中,所述第一判断子单元,包括:
第八确定子单元,用于基于所述评估深度层级对应的各个模型参数和所述评估深度层级对应的性能参数,确定所述评估深度层级对应的运行时长;
第四获取子单元,用于获取所述感知节点对应的设备闲置时长;
比较子单元,用于将所述运行时长与所述设备闲置时长进行比较,若所述运行时长小于或等于所述设备闲置时长,则确定所述评估深度层级对应的性能参数符合所述预设的运行条件,若所述运行时长大于所述设备闲置时长,则确定所述评估深度层级对应的性能参数不符合所述预设的运行条件。
在上述实施例提供的装置的基础上,本发明实施例提供的装置中,还包括:
第九确定子单元,用于若所述评估深度层级为所述多个深度层级中的最后一个深度层级,则结束循环评估过程,将所述评估深度层级作为所述感知节点对应的目标深度层级。
本发明实施例还提供了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如上述的数据传输方法。
本发明实施例还提供了一种电子设备,其结构示意图如图7所示,具体包括存储器401,以及一个或者一个以上的指令402,其中一个或者一个以上指令402存储于存储器401中,且经配置以由一个或者一个以上处理器403执行所述一个或者一个以上指令402进行以下操作:
当感知节点接收到触发指令时,确定所述感知节点对应的各个设备性能参数;
确定所述感知节点中预设的神经网络模型对应的多个深度层级;
确定模型参数集合,所述模型参数集合包括所述神经网络模型中每个计算层对应的各个结构参数;
依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级;
将所述目标深度层级作为所述感知节点的模型运行层级,以使所述感知节点在采集到原始数据时,通过所述神经网络模型中与所述目标深度层级相对应的各个计算层,对所述原始数据进行特征提取,得到所述原始数据对应的预处理数据,将所述预处理数据传输至所述感知节点对应的服务器。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种数据传输方法,其特征在于,包括:
当感知节点接收到触发指令时,确定所述感知节点对应的各个设备性能参数;
确定所述感知节点中预设的神经网络模型对应的多个深度层级;
确定模型参数集合,所述模型参数集合包括所述神经网络模型中每个计算层对应的各个结构参数;
依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级;
将所述目标深度层级作为所述感知节点的模型运行层级,以使所述感知节点在采集到原始数据时,通过所述神经网络模型中与所述目标深度层级相对应的各个计算层,对所述原始数据进行特征提取,得到所述原始数据对应的预处理数据,将所述预处理数据传输至所述感知节点对应的服务器。
2.根据权利要求1所述的方法,其特征在于,所述确定所述感知节点对应的各个设备性能参数,包括:
获取第一设备性能参数,所述第一设备性能参数为所述感知节点对应的设备每秒浮点运算最大次数;
获取第二设备性能参数,所述第二设备性能参数为所述感知节点对应的设备内存带宽上限;
将所述第一设备性能参数和所述第二设备性能参数作为所述感知节点对应的各个设备性能参数。
3.根据权利要求1所述的方法,其特征在于,所述依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级,包括:
对所述感知节点的性能进行循环评估,在当前的评估周期中,在所述多个深度层级中,确定所述当前的评估周期对应的评估深度层级;
基于所述模型参数集合,确定所述评估深度层级对应的各个模型参数;
将所述各个设备性能参数和所述评估深度层级对应的各个模型参数,输入所述性能评估模型,经所述性能评估模型处理后,得到所述评估深度层级对应的性能参数;
判断所述评估深度层级对应的性能参数是否符合预设的运行条件;
若所述评估深度层级对应的性能参数符合所述预设的运行条件,则判断所述评估深度层级是否为所述多个深度层级中的最后一个深度层级,若所述评估深度层级并非所述多个深度层级中的最后一个深度层级,则进入下一个评估周期;
若所述评估深度层级不符合所述预设的运行条件,则结束循环评估过程,并将所述当前的评估周期的上一个评估周期所对应的评估深度层级,作为所述感知节点对应的目标深度层级;
其中,所述多个深度层级中的首个深度层级为首个评估周期对应的评估深度层级,每个评估周期对应的评估深度层级的下一个深度层级,为该评估周期的下一个评估周期对应的评估深度层级。
4.根据权利要求3所述的方法,其特征在于,所述基于所述模型参数集合,确定所述评估深度层级对应的各个模型参数,包括:
在所述神经网络模型的各个计算层中,确定所述评估深度层级对应的各个目标计算层,所述各个目标计算层为所述神经网络模型中,对应层数级别小于或等于所述评估深度层级的计算层;
在所述模型参数集合中,获取每个所述目标计算层对应的各个结构参数;
基于各个所述目标计算层对应的各个结构参数,确定所述评估深度层级对应的各个模型参数。
5.根据权利要求4所述的方法,其特征在于,所述基于各个所述目标计算层对应的各个结构参数,确定所述评估深度层级对应的各个模型参数,包括:
对于每个所述目标计算层,基于该目标计算层对应的各个结构参数,确定该目标计算层对应的计算量和内存访问量;
将各个所述目标计算层对应的计算量作和运算,将运算结果作为模型计算量;
将各个所述目标计算层对应的内存访问量作和运算,将运算结果作为模型内存访问量;
将所述模型计算量和所述模型内存访问量作为所述评估深度层级对应的各个模型参数。
6.根据权利要求3所述的方法,其特征在于,所述判断所述评估深度层级对应的性能参数是否符合预设的运行条件,包括:
基于所述评估深度层级对应的各个模型参数和所述评估深度层级对应的性能参数,确定所述评估深度层级对应的运行时长;
获取所述感知节点对应的设备闲置时长;
将所述运行时长与所述设备闲置时长进行比较,若所述运行时长小于或等于所述设备闲置时长,则确定所述评估深度层级对应的性能参数符合所述预设的运行条件,若所述运行时长大于所述设备闲置时长,则确定所述评估深度层级对应的性能参数不符合所述预设的运行条件。
7.根据权利要求3所述的方法,其特征在于,还包括:
若所述评估深度层级为所述多个深度层级中的最后一个深度层级,则结束循环评估过程,将所述评估深度层级作为所述感知节点对应的目标深度层级。
8.一种数据传输装置,其特征在于,包括:
第一确定单元,用于当感知节点接收到触发指令时,确定所述感知节点对应的各个设备性能参数;
第二确定单元,用于确定所述感知节点中预设的神经网络模型对应的多个深度层级;
第三确定单元,用于确定模型参数集合,所述模型参数集合包括所述神经网络模型中每个计算层对应的各个结构参数;
第四确定单元,用于依据所述各个设备性能参数、所述模型参数集合以及预设的性能评估模型,在所述多个深度层级中,确定所述感知节点对应的目标深度层级;
配置单元,用于将所述目标深度层级作为所述感知节点的模型运行层级,以使所述感知节点在采集到原始数据时,通过所述神经网络模型中与所述目标深度层级相对应的各个计算层,对所述原始数据进行特征提取,得到所述原始数据对应的预处理数据,将所述预处理数据传输至所述感知节点对应的服务器。
9.一种存储介质,其特征在于,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如权利要求1~7任意一项所述的数据传输方法。
10.一种电子设备,其特征在于,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如权利要求1~7任意一项所述的数据传输方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210150923.XA CN114520817B (zh) | 2022-02-18 | 2022-02-18 | 数据传输方法及装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210150923.XA CN114520817B (zh) | 2022-02-18 | 2022-02-18 | 数据传输方法及装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114520817A true CN114520817A (zh) | 2022-05-20 |
CN114520817B CN114520817B (zh) | 2024-04-16 |
Family
ID=81598715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210150923.XA Active CN114520817B (zh) | 2022-02-18 | 2022-02-18 | 数据传输方法及装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114520817B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299697A (zh) * | 2018-09-30 | 2019-02-01 | 泰山学院 | 基于水声通信调制方式识别的深度神经网络系统及方法 |
CN110135510A (zh) * | 2019-05-22 | 2019-08-16 | 电子科技大学中山学院 | 一种动态领域自适应方法、设备及计算机可读存储介质 |
US20190325307A1 (en) * | 2018-04-20 | 2019-10-24 | EMC IP Holding Company LLC | Estimation of resources utilized by deep learning applications |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
CN111797851A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 特征提取方法、装置、存储介质及电子设备 |
CN113850506A (zh) * | 2021-09-26 | 2021-12-28 | 中国农业银行股份有限公司北京市分行 | 工作质量的评估方法及装置、存储介质及电子设备 |
-
2022
- 2022-02-18 CN CN202210150923.XA patent/CN114520817B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190325307A1 (en) * | 2018-04-20 | 2019-10-24 | EMC IP Holding Company LLC | Estimation of resources utilized by deep learning applications |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
CN109299697A (zh) * | 2018-09-30 | 2019-02-01 | 泰山学院 | 基于水声通信调制方式识别的深度神经网络系统及方法 |
CN111797851A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 特征提取方法、装置、存储介质及电子设备 |
CN110135510A (zh) * | 2019-05-22 | 2019-08-16 | 电子科技大学中山学院 | 一种动态领域自适应方法、设备及计算机可读存储介质 |
CN113850506A (zh) * | 2021-09-26 | 2021-12-28 | 中国农业银行股份有限公司北京市分行 | 工作质量的评估方法及装置、存储介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
李伟林;文剑;马文凯;: "基于深度神经网络的语音识别系统研究", 计算机科学, no. 2, pages 45 - 49 * |
Also Published As
Publication number | Publication date |
---|---|
CN114520817B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6517681B2 (ja) | 映像パターン学習装置、方法、及びプログラム | |
WO2021000856A1 (zh) | 骨龄检测方法、系统、设备及可读存储介质 | |
CN111797288B (zh) | 数据筛选方法、装置、存储介质及电子设备 | |
CN108074236A (zh) | 植物浇灌提醒方法、装置、设备及存储介质 | |
CN113161006B (zh) | 密接人员感染风险评估方法、装置、电子设备及存储介质 | |
CN112492297B (zh) | 一种对视频的处理方法以及相关设备 | |
CN111652331B (zh) | 一种图像识别方法、装置和计算机可读存储介质 | |
CN105389405A (zh) | 一种多推理引擎融合上下文感知系统框架及其工作方法 | |
CN117392352B (zh) | 一种用于元宇宙的模型塑造操作管理系统及方法 | |
CN113303777A (zh) | 心率值确定方法、装置、电子设备及介质 | |
CN111798019B (zh) | 意图预测方法、装置、存储介质及电子设备 | |
KR102126795B1 (ko) | 딥러닝 기반의 이미지 개인정보 가공장치 시스템, 장치 및 그 방법 | |
CN117218400A (zh) | 一种图像识别模型训练方法、装置、电子设备及存储介质 | |
CN110163201B (zh) | 图像测试方法和装置、存储介质及电子装置 | |
CN114520817B (zh) | 数据传输方法及装置、存储介质及电子设备 | |
CN115984963A (zh) | 一种动作计数方法及其相关设备 | |
CN111797874A (zh) | 行为预测方法、装置、存储介质及电子设备 | |
Bing | Wireless network for computer puzzle online software cloud platform based on CBIR and sustainable computing | |
CN110083517B (zh) | 一种用户画像置信度的优化方法及装置 | |
CN111797866A (zh) | 特征提取方法、装置、存储介质及电子设备 | |
Alam et al. | Mobile sensing framework for task partitioning between cloud and edge device for improved performance | |
CN111476086A (zh) | 烟火识别方法、装置、计算机设备和可读存储介质 | |
KR20190009102A (ko) | 사용자 능력을 증강시키는 증강 휴먼 서비스 제공 방법 및 그 시스템 | |
CN111797853A (zh) | 特征提取方法、装置、存储介质及电子设备 | |
US20240153645A1 (en) | Detecting infection sources |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |