CN112862099A - 企业级神经网络模型处理方法、装置、电子设备和存储介质 - Google Patents

企业级神经网络模型处理方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN112862099A
CN112862099A CN202110266829.6A CN202110266829A CN112862099A CN 112862099 A CN112862099 A CN 112862099A CN 202110266829 A CN202110266829 A CN 202110266829A CN 112862099 A CN112862099 A CN 112862099A
Authority
CN
China
Prior art keywords
enterprise
neural network
network model
level neural
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110266829.6A
Other languages
English (en)
Other versions
CN112862099B (zh
Inventor
谢远东
刘青松
吕冬冬
梁家恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisound Intelligent Technology Co Ltd
Xiamen Yunzhixin Intelligent Technology Co Ltd
Original Assignee
Unisound Intelligent Technology Co Ltd
Xiamen Yunzhixin Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisound Intelligent Technology Co Ltd, Xiamen Yunzhixin Intelligent Technology Co Ltd filed Critical Unisound Intelligent Technology Co Ltd
Priority to CN202110266829.6A priority Critical patent/CN112862099B/zh
Publication of CN112862099A publication Critical patent/CN112862099A/zh
Application granted granted Critical
Publication of CN112862099B publication Critical patent/CN112862099B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种企业级神经网络模型处理方法、装置、电子设备和存储介质,该方法包括:接收到客户端登录企业级神经网络模型仓库的信息;对客户端登录的用户信息进行鉴权;鉴权成功后,接收客户端发送的企业级神经网络模型,根据企业级神经网络模型的工件解析出元数据信息,存储企业级神经网络模型分层文件;接收到用户使用企业级神经网络模型的操作时,通过客户端的拉模型执行输出操作;恢复企业级神经网络模型以及企业级神经网络模型的元数据信息。本申请实施例的处理方法基于企业级神经网络模型文件类型支持优先原则,可以支持主流神经网络模型文件类型,并且使用简单,类似docker对模型进行build、pull和push,直接对接镜像存储仓库Harbor,无需额外组件。

Description

企业级神经网络模型处理方法、装置、电子设备和存储介质
技术领域
本发明涉及互联网应用技术领域,具体涉及一种企业级神经网络模型处理方法、装置、电子设备和存储介质。
背景技术
目前,企业级神经网络模型处理过程中,用户需要通过SDK或者UI的方式,上传模型到模型仓库中。在模型上传后,模型仓库会将模型和模型的元数据存储在自身维护的存储后端中。在用户需要利用模型进行推理时,需要再利用模型仓库提供的SDK或者接口将模型下载下来,进行推理服务。支持模型文件类型有限,仅支持pmml、pkl和xlsx文件,使用方式和技术路线较为复杂,需要主流数据库支持,权限控制需要二次开发打通的技术问题。
发明内容
本发明提供一种企业级神经网络模型处理方法、装置、电子设备和存储介质,能够解决上述支持模型文件类型有限,仅支持pmml、pkl和xlsx文件,使用方式和技术路线较为复杂,需要主流数据库支持,权限控制需要二次开发打通的技术问题。
本发明解决上述技术问题的技术方案如下:
第一方面,本发明实施例提供了一种企业级神经网络模型处理方法,包括:
接收到客户端登录企业级神经网络模型仓库的信息。
对客户端登录的用户信息进行鉴权。
鉴权成功后,接收客户端发送的企业级神经网络模型,根据企业级神经网络模型的工件解析出元数据信息,存储企业级神经网络模型分层文件。
接收到用户使用企业级神经网络模型的操作时,通过客户端的拉模型执行输出操作。
恢复企业级神经网络模型以及企业级神经网络模型的元数据信息。
在一些实施例中,接收到客户端登录企业级神经网络模型管理仓库的信息之前,上述方法还包括:
构建企业级神经网络模型、训练企业级神经网络模型、存储企业级神经网络模型对应的模型文件。
定义企业级神经网络模型的元数据信息。
以预设格式将企业级神经网络模型文件分层、打包和分发。
以预设形式将企业级神经网络模型和所述元数据信息打包。
在一些实施例中,上述鉴权方式包括:基于角色权限控制以及Linux的轻型目录访问协议进行鉴权。
在一些实施例中,上述以预设格式将企业级神经网络模型文件分层、打包和分发,包括:
企业级神经网络模型管理组件遵循开放容器标准分发规范,将企业级神经网络模型文件作为开放容器标准工件,通过开放容器标准结构格式进行封层、打包和分发。
在一些实施例中,上述以预设形式将所述企业级神经网络模型和元数据信息打包,包括:
通过build命令对企业级神经网络模型和所述元数据信息进行打包成标准工件形式。
第二方面,本发明实施例还提供了一种企业级神经网络模型处理装置,包括:
第一接收模块:用于接收到客户端登录企业级神经网络模型仓库的信息;
鉴权模块:用于对客户端登录的用户信息进行鉴权;
第二接收模块:用于鉴权成功后,接收客户端发送的企业级神经网络模型,根据企业级神经网络模型的工件解析出元数据信息,存储企业级神经网络模型分层文件。
第二接收模块:用于接收到用户使用所述企业级神经网络模型的操作时,通过客户端的拉模型执行输出操作。
恢复模块:用于恢复企业级神经网络模型以及所述企业级神经网络模型的元数据信息。
在一些实施例中,上述装置还包括:构建模块:用于接收到客户端登录企业级神经网络模型管理仓库的信息之前,
构建企业级神经网络模型、训练企业级神经网络模型、存储企业级神经网络模型对应的模型文件。
定义企业级神经网络模型的元数据信息。
以预设格式将企业级神经网络模型文件分层、打包和分发。
以预设形式将企业级神经网络模型和所述元数据信息打包。
在一些实施例中,上述装置中的鉴权方式包括:基于角色权限控制以及Linux的轻型目录访问协议进行鉴权。
在一些实施例中,上述装置中以预设格式将所述企业级神经网络模型文件分层、打包和分发,包括:
企业级神经网络模型管理组件遵循开放容器标准分发规范,将所述企业级神经网络模型文件作为开放容器标准工件,通过所述开放容器标准结构格式进行封层、打包和分发。
在一些实施例中,上述装置中以预设形式将所述企业级神经网络模型和所述元数据信息打包,包括:
通过build命令对所述企业级神经网络模型和所述元数据信息打包成标准工件形式。
第三方面,本发明实施例还提供了一种电子设备,包括:处理器和存储器;
所述处理器通过调用所述存储器存储的程序或指令,用于执行如上所述任一项所述企业级神经网络模型处理方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储程序或指令,所述程序或指令使计算机执行如上所述任一项所述企业级神经网络模型处理方法。
本发明的有益效果是:通过接收到客户端登录企业级神经网络模型仓库的信息;对客户端登录的用户信息进行鉴权;鉴权成功后,接收客户端发送的企业级神经网络模型,根据企业级神经网络模型的工件解析出元数据信息,存储企业级神经网络模型分层文件;接收到用户使用企业级神经网络模型的操作时,通过客户端的拉模型执行输出操作;恢复企业级神经网络模型以及企业级神经网络模型的元数据信息。本申请实施例支持主流神经网络模型文件类型,并且,本申请实施例用户使用简单,类似docker对模型进行build、pull和push,直接对接镜像存储仓库Harbor,无需额外组件,鉴权方式可以通过企业级神经网络模型权限控制直接对接平台基于角色权限控制,无缝对接,无需二次开发,节约了开发成本,提高了鉴权效率。
附图说明
图1为本发明实施例提供的一种企业级神经网络模型处理方法之一;
图2为本发明实施例提供的一种企业级神经网络模型处理方法之二;
图3为本发明实施例提供的一种企业级神经网络模型处理装置之一;
图4为本发明实施例提供的一种企业级神经网络模型处理装置之二;
图5为本发明实施例提供的一种电子设备的示意性框图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
图1为本发明实施例提供的一种企业级神经网络模型处理方法之一。
第一方面,结合图1,本申请实施例提出的一种企业级神经网络模型处理方法,包括如下S101、S102、S103、S104和S105五个步骤:
S101:接收到客户端登录企业级神经网络模型仓库的信息。
具体的,本申请实施例中,用户在客户端登录企业级神经网络模型仓库,这里的企业级神经网络模型仓库类似镜像仓库,接收到客户端登录企业级神经网络模型仓库的信息可以是接收到用户的单击,双击操作等信息。
S102:对客户端登录的用户信息进行鉴权。
具体的,本申请实施例中,接收到用户的单击,双击操作等信息后,对客户端登录的用户信息进行鉴权,这里的鉴权方式可以是通过平台本身的基于命名空间Namespace的基于角色权限控制RBAC以及Linux的轻型目录访问协议(LDAP)对用户登录信息进行鉴权。
应理解,本申请实施例中,鉴权方式可以通过企业级神经网络模型权限控制直接对接平台基于角色权限控制,无缝对接,无需二次开发,节约了开发成本,提高了鉴权效率。
S103:鉴权成功后,接收客户端发送的企业级神经网络模型,根据企业级神经网络模型的工件解析出元数据信息,存储企业级神经网络模型分层文件。
具体的,本申请实施例中,鉴权成功后,这里的鉴权成功可以是验证用户信息正确无误后,用户通过推push命令提交企业级神经网络模型,服务端会解析提交的企业级神经网络模型的工件Artifacts解析出元数据信息,并将企业级神经网络模型分层保存在本地。
S104:接收到用户使用企业级神经网络模型的操作时,通过客户端的拉模型执行输出操作。
S105:恢复企业级神经网络模型以及企业级神经网络模型的元数据信息。
具体的,本申请实施例中,接收到用户使用企业级神经网络模型的操作时,可以是用户的单击、双击操作,用户使用企业级神经网络模型时,只需要通过客户端拉Pull模型,并执行输出export操作,即可恢复企业级神经网络模型以及企业级神经网络模型元数据信息model.yaml。
综上所述,基于企业级神经网络模型文件类型支持优先原则,本申请实施例可以支持主流神经网络模型文件类型,举例如下:
.caffemodel、.pb、.graphdef、.h5、.pkl、mxnet、.onnx、.pmml、.joblib、.plan、.pt、.xgboost等。
并且,本申请实施例用户使用简单,类似docker对模型进行build、pull和push,直接对接镜像存储仓库Harbor,无需额外组件。
图2为本发明实施例提供的一种企业级神经网络模型处理方法之二。
在一些实施例中,接收到客户端登录模型管理仓库的信息之前,上述方法还包括如下S201、S202、S203和S204四个步骤:
S201:构建企业级神经网络模型、训练企业级神经网络模型、存储企业级神经网络模型对应的模型文件。
具体的,本申请实施例中,可以使用机器学习框架构建企业级神经网络模型,训练企业级神经网络模型,在训练企业级神经网络模型过程中,存储企业级神经网络模型文件。
应理解,在模型训练中,通过应用程序编程接口API调用自动提交更新最新即性能最优的企业级神经网络模型;在企业级神经网络模型推理期间,自动感知企业级神经网络模型更新,更新线上企业级神经网络模型,极大地释放算法工程师和工程开发人员精力,解决了企业级神经网络模型文件同步慢以及不一致问题。
S202:定义企业级神经网络模型的元数据信息。
具体的,本申请实施例中,可以是用户通过model.yaml定义企业级神经网络模型的元数据信息,例如author、运行format、input类型和size、output类型和size、生成模型的Framework等。
S203:以预设格式将企业级神经网络模型文件分层、打包和分发。
具体的,本申请实施例中,企业级神经网络模型管理组件遵循OCI开放容器标准Distribution Specification分发规范,将企业级神经网络模型文件作为OCI开放容器标准Artifacts工件,通过固定的格式进行封层、打包和分发。
S204:以预设形式将企业级神经网络模型和所述元数据信息打包。
具体的,本申请实施例中,用户通过build命令对企业级神经网络模型和元数据信息进行打包成Artifacts形式。
在一些实施例中,上述鉴权方式包括:基于角色权限控制以及Linux的轻型目录访问协议进行鉴权。
在一些实施例中,上述以预设格式将企业级神经网络模型文件分层、打包和分发,包括:
企业级神经网络模型管理组件遵循开放容器标准分发规范,将企业级神经网络模型文件作为开放容器标准工件,通过开放容器标准结构格式进行封层、打包和分发。
在一些实施例中,上述以预设形式将所述企业级神经网络模型和元数据信息打包,包括:
通过build命令对企业级神经网络模型和所述元数据信息进行打包成标准工件形式。
图3为本发明实施例提供的一种企业级神经网络模型处理装置之一。
第二方面,本发明实施例还提供了一种企业级神经网络模型处理装置30,包括第一接收模块301,鉴权模块302,第二接收模块303,第三接收模块304和恢复模块305。
第一接收模块301:用于接收到客户端登录企业级神经网络模型仓库的信息。
具体的,本申请实施例中,用户在客户端登录企业级神经网络模型仓库,这里的企业级神经网络模型仓库类似镜像仓库,第一接收模块301接收到客户端登录企业级神经网络模型仓库的信息可以是接收到用户的单击,双击操作等信息。
鉴权模块302:用于对客户端登录的用户信息进行鉴权。
具体的,本申请实施例中,接收到用户的单击,双击操作等信息后,鉴权模块302对客户端登录的用户信息进行鉴权,这里的鉴权方式可以是通过平台本身的基于命名空间Namespace的基于角色权限控制RBAC以及Linux的轻型目录访问协议LDAP对用户登录信息进行鉴权。本申请实施例中企业级神经网络模型权限控制直接对接平台基于角色权限控制,无缝对接,无需二次开发,节约了开发成本,提高了鉴权效率。
第二接收模块303:用于鉴权成功后,接收客户端发送的企业级神经网络模型,根据企业级神经网络模型的工件解析出元数据信息,存储企业级神经网络模型分层文件。
具体的,本申请实施例中,鉴权成功后,这里的鉴权成功可以是验证用户信息正确无误后,用户通过推push命令提交的企业级神经网络模型,第二接收模块303接收客户端用户通过推push命令提交的企业级神经网络模型,服务端会解析提交的企业级神经网络模型的工件Artifacts解析出元数据信息,并将企业级神经网络模型分层保存在本地。
第三接收模块304:用于接收到用户使用所述企业级神经网络模型的操作时,通过客户端的拉模型执行输出操作。
恢复模块305:用于恢复企业级神经网络模型以及所述企业级神经网络模型的元数据信息。
具体的,本申请实施例中,第二接收模块304接收到用户使用企业级神经网络模型的操作时,操作可以是用户的单击、双击操作,用户使用企业级神经网络模型模型时,只需要通过客户端拉Pull企业级神经网络模型,并执行输出export操作,即可恢复原模企业级神经网络型以及企业级神经网络模型元数据信息model.yaml。
图4为本发明实施例提供的一种企业级神经网络模型处理装置之二。
在一些实施例中,上述装置30还包括:构建模块401:用于接收到客户端登录企业级神经网络模型管理仓库的信息之前,
构建企业级神经网络模型、训练企业级神经网络模型、存储企业级神经网络模型对应的模型文件。
具体的,本申请实施例中,构建模块401使用机器学习框架构建企业级神经网络模型,训练企业级神经网络模型,在训练企业级神经网络模型过程中,存储企业级神经网络模型文件。
应理解,在模型训练中,通过应用程序编程接口API调用自动提交更新最新即性能最优的企业级神经网络模型;在企业级神经网络模型推理期间,自动感知企业级神经网络模型更新,更新线上企业级神经网络模型,极大地释放算法工程师和工程开发人员精力,解决了企业级神经网络模型文件同步慢以及不一致问题。
定义企业级神经网络模型的元数据信息。
具体的,本申请实施例中,可以是用户通过model.yaml定义企业级神经网络模型的元数据信息,例如author、运行format、input类型和size、output类型和size、生成模型的Framework等。
以预设格式将企业级神经网络模型文件分层、打包和分发。
具体的,本申请实施例中,企业级神经网络模型管理组件遵循OCI开放容器标准Distribution Specification分发规范,将企业级神经网络模型文件作为OCI开放容器标准Artifacts工件,通过固定的格式进行封层、打包和分发。
以预设形式将企业级神经网络模型和所述元数据信息打包。
具体的,本申请实施例中,用户通过build命令对企业级神经网络模型和元数据信息进行打包成Artifacts形式。
在一些实施例中,上述装置中的鉴权方式包括:基于角色权限控制以及Linux的轻型目录访问协议进行鉴权。
在一些实施例中,上述装置中以预设格式将所述企业级神经网络模型文件分层、打包和分发,包括:
企业级神经网络模型管理组件遵循开放容器标准分发规范,将所述企业级神经网络模型文件作为开放容器标准工件,通过所述开放容器标准结构格式进行封层、打包和分发。
在一些实施例中,上述装置中以预设形式将所述企业级神经网络模型和所述元数据信息打包,包括:
通过build命令对所述企业级神经网络模型和所述元数据信息进行打包成标准工件形式。
第三方面,本发明实施例还提供了一种电子设备,包括:处理器和存储器;
所述处理器通过调用所述存储器存储的程序或指令,用于执行如上所述任一项所述企业级神经网络模型处理方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储程序或指令,所述程序或指令使计算机执行如上所述任一项所述企业级神经网络模型处理方法。
图5是本公开实施例提供的一种电子设备的示意性框图。
如图5所示,电子设备包括:至少一个处理器501、至少一个存储器502和至少一个通信接口503。电子设备中的各个组件通过总线系统504耦合在一起。通信接口503,用于与外部设备之间的信息传输。可理解,总线系统504用于实现这些组件之间的连接通信。总线系统504除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但为了清楚说明起见,在图5中将各种总线都标为总线系统504。
可以理解,本实施例中的存储器502可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。
在一些实施方式中,存储器502存储了如下的元素,可执行单元或者数据结构,或者他们的子集,或者他们的扩展集:操作系统和应用程序。
其中,操作系统,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序,包含各种应用程序,例如媒体播放器(Media Player)、浏览器(Browser)等,用于实现各种应用业务。实现本申请实施例提供的企业级神经网络模型处理方法中任一方法的程序可以包含在应用程序中。
在本申请实施例中,处理器501通过调用存储器502存储的程序或指令,具体的,可以是应用程序中存储的程序或指令,处理器501用于执行本申请实施例提供的企业级神经网络模型处理方法各实施例的步骤。
接收到客户端登录企业级神经网络模型仓库的信息。
对客户端登录的用户信息进行鉴权。
鉴权成功后,接收客户端发送的企业级神经网络模型,根据企业级神经网络模型的工件解析出元数据信息,存储企业级神经网络模型分层文件。
接收到用户使用企业级神经网络模型的操作时,通过客户端的拉模型执行输出操作。
恢复企业级神经网络模型以及企业级神经网络模型的元数据信息。
本申请实施例提供的企业级神经网络模型处理方法中任一方法可以应用于处理器501中,或者由处理器501实现。处理器501可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器501中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器501可以是通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本申请实施例提供的企业级神经网络模型处理方法中任一方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件单元组合执行完成。软件单元可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器502,处理器501读取存储器502中的信息,结合其硬件完成方法的步骤。
本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。
本领域的技术人员能够理解,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
虽然结合附图描述了本申请的实施方式,但是本领域技术人员可以在不脱离本申请的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种企业级神经网络模型处理方法,其特征在于,包括:
接收到客户端登录企业级神经网络模型仓库的信息;
对所述客户端登录的用户信息进行鉴权;
鉴权成功后,接收所述客户端发送的企业级神经网络模型,根据所述企业级神经网络模型的工件解析出元数据信息,存储所述企业级神经网络模型分层文件;
接收到用户使用所述企业级神经网络模型的操作时,通过所述客户端的拉模型执行输出操作;
恢复所述企业级神经网络模型以及所述企业级神经网络模型的元数据信息。
2.根据权利要求1所述的处理方法,其特征在于,所述接收到客户端登录企业级神经网络模型管理仓库的信息之前,所述方法还包括:
构建企业级神经网络模型、训练所述企业级神经网络模型、存储所述企业级神经网络模型对应的模型文件;
定义所述企业级神经网络模型的元数据信息;
以预设格式将所述企业级神经网络模型文件分层、打包和分发;
以预设形式将所述企业级神经网络模型和所述元数据信息打包。
3.根据权利要求1所述的处理方法,其特征在于,所述鉴权方式包括:基于角色权限控制以及Linux的轻型目录访问协议进行鉴权。
4.根据权利要求2所述的处理方法,其特征在于,所述以预设格式将所述企业级神经网络模型文件分层、打包和分发,包括:
企业级神经网络模型管理组件遵循开放容器标准分发规范,将所述企业级神经网络模型文件作为开放容器标准工件,通过所述开放容器标准结构格式进行封层、打包和分发。
5.根据权利要求2所述的处理方法,其特征在于,所述以预设形式将所述企业级神经网络模型和所述元数据信息打包,包括:
通过build命令对所述企业级神经网络模型和所述元数据信息打包成标准工件形式。
6.一种企业级神经网络模型处理装置,其特征在于,包括:
第一接收模块:用于接收到客户端登录企业级神经网络模型仓库的信息;
鉴权模块:用于对所述客户端登录的用户信息进行鉴权;
第二接收模块:用于鉴权成功后,接收所述客户端发送的企业级神经网络模型,根据所述企业级神经网络模型的工件解析出元数据信息,存储所述企业级神经网络模型分层文件;
第二接收模块:用于接收到用户使用所述企业级神经网络模型的操作时,通过所述客户端的拉模型执行输出操作;
恢复模块:用于恢复所述企业级神经网络模型以及所述企业级神经网络模型的元数据信息。
7.根据权利要求6所述的处理装置,其特征在于,所述装置还包括:
构建模块:
用于接收到客户端登录企业级神经网络模型管理仓库的信息之前,
构建企业级神经网络模型、训练所述企业级神经网络模型、存储所述企业级神经网络模型对应的模型文件;
定义所述企业级神经网络模型的元数据信息;
以预设格式将所述企业级神经网络模型文件分层、打包和分发;
以预设形式将所述企业级神经网络模型和所述元数据信息打包。
8.根据权利要求6所述的处理装置,其特征在于,所述鉴权方式包括:基于角色权限控制以及Linux的轻型目录访问协议进行鉴权。
9.一种电子设备,其特征在于,包括:处理器和存储器;
所述处理器通过调用所述存储器存储的程序或指令,用于执行如权利要求1至5任一项所述企业级神经网络模型处理方法。
10.一种计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储程序或指令,所述程序或指令使计算机执行如权利要求1至5任一项所述企业级神经网络模型处理方法。
CN202110266829.6A 2021-03-12 2021-03-12 企业级神经网络模型处理方法、装置、电子设备和存储介质 Active CN112862099B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110266829.6A CN112862099B (zh) 2021-03-12 2021-03-12 企业级神经网络模型处理方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110266829.6A CN112862099B (zh) 2021-03-12 2021-03-12 企业级神经网络模型处理方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN112862099A true CN112862099A (zh) 2021-05-28
CN112862099B CN112862099B (zh) 2023-11-07

Family

ID=75994181

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110266829.6A Active CN112862099B (zh) 2021-03-12 2021-03-12 企业级神经网络模型处理方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN112862099B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102158539A (zh) * 2006-05-02 2011-08-17 捷讯研究有限公司 动态联合内容传送系统和方法
CN110119271A (zh) * 2018-12-19 2019-08-13 厦门渊亭信息科技有限公司 一种跨机器学习平台的模型定义协议及适配系统
CN111158807A (zh) * 2019-11-29 2020-05-15 华为技术有限公司 一种基于云虚拟机的数据访问方法及设备
US10713754B1 (en) * 2018-02-28 2020-07-14 Snap Inc. Remote distribution of neural networks
CN111556056A (zh) * 2020-04-29 2020-08-18 铭数科技(青岛)有限公司 一种基于区块链的企业级移动通信方法及系统
CN111882059A (zh) * 2020-07-17 2020-11-03 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备和存储介质
CN112328448A (zh) * 2020-10-30 2021-02-05 中国平安财产保险股份有限公司 基于Zookeeper的监控方法、监控装置、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102158539A (zh) * 2006-05-02 2011-08-17 捷讯研究有限公司 动态联合内容传送系统和方法
US10713754B1 (en) * 2018-02-28 2020-07-14 Snap Inc. Remote distribution of neural networks
CN110119271A (zh) * 2018-12-19 2019-08-13 厦门渊亭信息科技有限公司 一种跨机器学习平台的模型定义协议及适配系统
CN111158807A (zh) * 2019-11-29 2020-05-15 华为技术有限公司 一种基于云虚拟机的数据访问方法及设备
CN111556056A (zh) * 2020-04-29 2020-08-18 铭数科技(青岛)有限公司 一种基于区块链的企业级移动通信方法及系统
CN111882059A (zh) * 2020-07-17 2020-11-03 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备和存储介质
CN112328448A (zh) * 2020-10-30 2021-02-05 中国平安财产保险股份有限公司 基于Zookeeper的监控方法、监控装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
郑俊辉;陈刚;: "企业级单点登录认证系统的设计与实现", 西南民族大学学报(自然科学版), no. 02 *
郭威;: "企业级信息管理系统认证统一管理的设计与实现", 南方能源建设, no. 1 *

Also Published As

Publication number Publication date
CN112862099B (zh) 2023-11-07

Similar Documents

Publication Publication Date Title
CN111373402B (zh) 轻量去中心化应用平台
JP6494608B2 (ja) コードの仮想化およびリモートプロセスコール生成のための方法および装置
WO2022252637A1 (zh) 基于浏览器的rpa实现方法、装置、设备及介质
CN102187314B (zh) 生成适用于数据集的资源脚本的方法和系统
CN109117170B (zh) 一种运行环境搭建方法及装置、代码合入方法及系统
KR20180069819A (ko) 비주얼 콘텐츠 개발
CN112313629B (zh) 备份和恢复验证
CN111386523A (zh) 用于基于区块链的去中心化应用开发的系统和方法
CN110727575B (zh) 一种信息处理方法、系统、装置、以及存储介质
EP2667301B1 (en) Decision service manager
US10574642B2 (en) Protecting a web server against an unauthorized client application
CN109284126A (zh) 类库自动更新方法、装置、电子设备、存储介质
CN110889108A (zh) spark任务的提交方法、装置和服务器
CN114637450A (zh) 业务流程的自动处理方法及系统、电子设备
CN118297135A (zh) 一种基于区块链的联邦忘却学习系统及方法
CN112564979A (zh) 构建任务的执行方法、装置、计算机设备和存储介质
CN109063468A (zh) 一种安装包完整性验证及修复的方法
CN112862099A (zh) 企业级神经网络模型处理方法、装置、电子设备和存储介质
CN116974716A (zh) 调度任务的发布方法、装置、电子设备及存储介质
CN114282176B (zh) 一种软件授权双向加密系统及加密方法
CN111258551A (zh) 一种代码生成方法以及装置
CN112818426B (zh) 一种通过在线编程建模在线切片的联网3d打印方法
CN113628052A (zh) 基于预言机的区块链资产与合约处理方法、系统及装置
CN113591279A (zh) 在线建模仿真的方法、装置、设备和存储介质
Kuepper Hands-On Swift 5 Microservices Development: Build microservices for mobile and web applications using Swift 5 and Vapor 4

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant