CN108537328A - 用于可视化构建神经网络的方法 - Google Patents

用于可视化构建神经网络的方法 Download PDF

Info

Publication number
CN108537328A
CN108537328A CN201810329668.9A CN201810329668A CN108537328A CN 108537328 A CN108537328 A CN 108537328A CN 201810329668 A CN201810329668 A CN 201810329668A CN 108537328 A CN108537328 A CN 108537328A
Authority
CN
China
Prior art keywords
neural network
node layer
parameter value
configuration file
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810329668.9A
Other languages
English (en)
Inventor
王猛
谢畅
谢敏
周建华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongan Information Technology Service Co Ltd
Original Assignee
Zhongan Information Technology Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongan Information Technology Service Co Ltd filed Critical Zhongan Information Technology Service Co Ltd
Priority to CN201810329668.9A priority Critical patent/CN108537328A/zh
Publication of CN108537328A publication Critical patent/CN108537328A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种用于可视化构建神经网络的方法。该方法包括:基于神经网络的类型,确定神经网络中的层节点的参数类型;设置层节点的参数值;基于层节点的参数值生成相应的第一配置文件;基于第一配置文件确定层节点之间的计算顺序;以及基于层节点的参数类型和参数值、用于训练神经网络的参数值以及选定的神经网络的计算框架,构建神经网络。采用本发明的用于可视化构建神经网络的方法使得用户无需编写任何代码,只需要拖拽可视化的相应的层节点并做相应的参数设置即可完成神经网络的构建。

Description

用于可视化构建神经网络的方法
技术领域
本发明涉及机器学习,尤其涉及用于可视化构建神经网络的方法。
背景技术
机器学习(Machine Learning)是人工智能(Artificial Intelligence)的一个分支。人工智能研究是从以“规则”为重点到以“推理”为重点再到“学习”为重点。因此,机器学习是现阶段实现人工智能的重要途径,即以机器学习为手段解决人工智能中的问题。机器学习主要是设计和分析一些让计算机可以自动“学习”的算法,从大量数据中自动分析获得规律,并利用规律对未知数据进行预测的方法。机器学习已广泛应用于数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、证券市场分析等领域。
深度学习(Deep Learning)是机器学习的一个重要分支,它试图使用包含复杂结构或由多重非线性变换构成的多个处理层(Layer)对数据进行高层抽象。基于数据观测值的各种表征,深度学习方法能高效地进行特征学习和分层特征提取,代替传统机器学习方法手工提取特征的方式,更容易完成从实例、抽象数据中完成学习任务。由于多层网络能够拟合复杂的非线性变换,在数据充足的情况下,深度学习的表现较传统学习方法在效果上有大幅提升。
当前业界主流的深度学习框架主要有Tensorflow、Torch、Mxnet、Thenao、Caffe等。这些框架虽然提供了各种API供用户使用,但鉴于神经网络本身的复杂性,使用门槛仍然较高。针对此问题,业界提出了多种对其底层API的封装,如Keras、TensorLayer等,它们会对常用的神经网络层进行封装,比如全联接网络、卷积网络等。通过这些封装层,用户可以直接调用相关layer API来完成神经网络层的构建,然而这些工具仍然需要书写代码,仍然存在较高的使用门槛。
因此,亟需一种通用的、易操作的可视化构建神经网络的方法。
发明内容
针对上述问题,本发明提出了一种用于可视化构建神经网络的方法,所述方法包括:基于神经网络的类型,确定所述神经网络中的层节点的参数类型;设置所述层节点的参数值;基于所述层节点的参数值生成相应的第一配置文件;
基于所述第一配置文件确定所述层节点之间的计算顺序;以及基于所述层节点的所述参数类型和所述参数值、用于训练所述神经网络的参数值以及选定的所述神经网络的计算框架,构建所述神经网络。
在一种实施方式中,基于所述第一配置文件确定所述层节点之间的计算顺序包括:根据所述第一配置文件中的所述层节点的输入值和输出值来确定所述层节点之间的计算顺序。
在一种实施方式中,所述用于训练所述神经网络的参数值通过以下方式获取:设置解算器的参数值;根据所述解算器的参数值生成第二配置文件;以及从所述第二配置文件中获取所述用于训练所述神经网络的参数值。
在一种实施方式中,所述第一配置文件和所述第二配置文件均为Json配置文件。
在一种实施方式中,所述神经网络中的所述层节点以图形化方式显示。
本发明另一方面,还提供了一种用于可视化构建神经网络的装置,所述装置包括:层节点参数类型确定单元,被配置为基于神经网络的类型,确定所述神经网络中的层节点的参数类型;层节点参数设置单元,被配置为设置所述层节点的参数值;配置文件生成单元,被配置为基于所述层节点的参数值生成相应的第一配置文件;计算顺序确定单元,被配置为基于所述第一配置文件确定所述层节点之间的计算顺序;以及神经网路构建单元,被配置为基于所述层节点的所述参数类型和所述参数值、用于训练所述神经网络的参数值以及选定的所述神经网络的计算框架,构建所述神经网络。
在一种实施方式中,所述计算顺序确定单元还被配置为根据所述第一配置文件中的所述层节点的输入值和输出值来确定所述层节点之间的计算顺序。
在一种实施方式中,所述用于训练所述神经网络的参数值通过以下方式获取:设置解算器的参数值;根据所述解算器的参数值生成第二配置文件;以及从所述第二配置文件中获取所述用于训练所述神经网络的参数值。
在一种实施方式中,所述第一配置文件和所述第二配置文件均为Json配置文件。
在一种实施方式中,所述神经网络中的所述层节点以图形化方式显示。
本发明的又一方面,还提供了一种计算机可读存储介质,其上存储有处理器可执行指令,所述处理器执行所述可执行指令时,执行上述用于可视化构建神经网络的方法中任一项所述的方法。
本发明的有益技术效果:
用户无需编写任何代码,只需要拖拽可视化的相应的层节点并做相应的参数设置即可完成神经网络的构建。
附图说明
图1是根据本发明的实施例的用于可视化构建神经网络的方法的流程图;
图2是根据本发明的实施例的用于对Mnist图像数据集进行分类的可视化构建神经网络的方法的流程图;
图3是图2中对Mnist图像数据集进行分类的层节点之间的计算顺序的示意图;
图4是根据本发明的实施例的用于可视化构建神经网络的装置的示意图。
具体实施方式
在以下优选的实施例的具体描述中,将参考构成本发明一部分的所附的附图。所附的附图通过示例的方式示出了能够实现本发明的特定的实施例。示例的实施例并不旨在穷尽根据本发明的所有实施例。可以理解,在不偏离本发明的范围的前提下,可以利用其他实施例,也可以进行结构性或者逻辑性的修改。因此,以下的具体描述并非限制性的,且本发明的范围由所附的权利要求所限定。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。对于附图中的各单元之间的连线,仅仅是为了便于说明,其表示至少连线两端的单元是相互通信的,并非旨在限制未连线的单元之间无法通信。
以下结合附图对本发明进行详细描述。
如图1所示,本发明提供了一种用于可视化构建神经网络的方法,该方法包括:
步骤S101:基于神经网络(例如,全连接神经网络、卷积神经网络、残差网络等)的类型,确定神经网络中的层节点(layer node)的参数类型。
步骤S102:设置层节点的参数值。
步骤S103:基于层节点的参数值生成相应的第一配置文件。
步骤S104:基于第一配置文件确定层节点之间的计算顺序。
步骤S105:基于层节点的参数类型和参数值、用于训练神经网络的参数值以及选定的神经网络的计算框架,构建神经网络。
本发明涉及的神经网络主要是针对深度神经网络的,但应理解的是,本发明同样适用于其它神经网络。
图2是根据本发明的实施例的用于对Mnist图像数据集进行分类的可视化构建神经网络的方法的流程图,其中,Mnist图像数据集为计算机视觉数据集,包含各种手写数字图像和对应的标签等内容,该方法包括以下步骤:
步骤S201:根据神经网络的类型(包括自身的特点和用途)来确定神经网络所包含的层节点的参数,应理解的是,不同神经网络的层节点具有不同的参数,例如,卷积神经网络的层节点的参数包括卷积核的宽度(kernel_width)、卷积核步长的高度(stride_height)、卷积核填充的方式(padding)、卷积特征图的个数(num_output)、卷积网络激活函数类型(act)、卷积网络的域范围(scope)、卷积核权重初始方式(weight_filter)、卷积核偏置初始化方式(bias_filter)等。
步骤S202:在层节点的可视化组件中设置层节点的参数值,特别地,用户可以点击可视化组件的属性框并可以将其中的参数的默认值设置为所需的值。具体地,分别对图3中的Mnist图像数据层节点301、卷积层节点302(Convolution)、池化层节点303(Pooling)、卷积层节点304、池化层节点305、全连接神经网络层节点(Dense)306、神经元随机丢弃层节点(Dropout)307、全连接神经网络层节点308、Softmax层节点309、ArgMaxMin层节点310、准确率层节点(Accuracy)311、SoftmaxWithLoss层节点312以及Mnist图像类别(label)层节点313进行参数值的设置。
步骤S203:用户在完成步骤S202设置好相应层节点的参数值之后,点击确认生成相应的层节点的Json配置文件。应理解的是,层节点的Json配置文件通常包括如下参数:层节点输入(Input)、层节点输出(Output)、层节点的类型(Type)和层节点的参数(Param)。
步骤S204:根据与Mnist图像数据层节点301、卷积层节点302(Convolution)、池化层节点303(Pooling)、卷积层节点304、池化层节点305、全连接神经网络层节点(Dense)306、神经元随机丢弃层节点(Dropout)307、全连接神经网络层节点308、Softmax层节点309、ArgMaxMin层节点310、准确率层节点(Accuracy)311、SoftmaxWithLoss层节点312以及Mnist图像类别(label)层节点313中的每个层节点相对应的Json配置文件中的输入值和输出值生成如图3所示的层节点之间的计算的先后顺序,其中,图3中的箭头流向代表数据流方向。应理解的是,可以根据层节点的Json配置文件中任意合适的参数值来生成层节点之间的计算的先后顺序。
步骤S205:从相应的层节点的Json配置文件中获取层节点的参数类型和参数值。
步骤S206:从解算器(Solver)获取用于训练神经网络模型的超参数值。
具体地,该步骤包括以下子步骤:
用户在解算器组件中设置解算器的超参数值;
根据解算器的超参数值生成解算器的配置文件;以及
从解算器的配置文件中获取用于训练神经网络的超参数值,其中,超参数包括例如批次处理数据量大小(batch_size)、模型用于训练方式(solver_mode)、迭代次数(n_epoch)、优化器类型(optimizer)、学习速率(base_lr)等。
应理解的是,用于训练神经网络模型的参数可以包括除超参数之外的任意合适的参数。同时还应理解的是,步骤S206可以与步骤S205并行进行,并不限于步骤S206必须在步骤S205之后。
步骤S207:用户在相应的可视化组件中选定计算框架。
步骤S208:如果计算框架为Tensorflow,则执行S209,否则执行S210。
步骤S209:根据层节点的参数类型和参数值以及用于训练神经网络的超参数值调用相应Tensorflow API来完成神经网络构建。
步骤S210:如果计算框架为Thenao,则执行步骤S211,否则执行步骤S212。
步骤S211:根据层节点的参数类型和参数值以及用于训练神经网络的超参数值调用相应Thenao API来完成神经网络构建。
步骤S212:如果计算框架为Caffe,则执行步骤S213,否则执行步骤S214。
步骤S213:根据层节点的参数类型和参数值以及用于训练神经网络的超参数值调用相应Caffe API来完成神经网络构建。
步骤S214:如果计算框架为MXNet,则执行S215,否则执行S216。
步骤S215:根据层节点的参数类型和参数值以及用于训练神经网络的超参数值调用相应MXNet API来完成神经网络构建。
步骤S216:调用其它API来完成神经网络构建。应理解的是,本领域技术人员或用户可以根据自己的需要自定义除了Tensorflow、Thenao、Caffe、MXNet框架之外的API。
由上可知,该示例方法通过可视化构建神经网络完成了对Mnist图像数据集分类以识别图像中的字符类型的目的,用户无需进行代码编写,大大方便了用户对问题的处理。同时应理解的是,本文虽然仅举了对Mnist图像数据集进行分类的示例,但是该方法适用于解决任意可以采用神经网络进行处理的问题。
此外,本发明还提供了如图4所示的一种可视化构建神经网络的装置,该装置包括:层节点参数类型确定单元401,被配置为基于神经网络的类型,确定神经网络中的层节点的参数类型;层节点参数设置单元402,被配置为设置层节点的参数值;配置文件生成单元403,被配置为基于层节点的参数值生成相应的第一配置文件;计算顺序确定单元404,被配置为基于第一配置文件确定层节点之间的计算顺序;神经网路构建单元405,被配置为基于层节点的参数类型和参数值、用于训练神经网络的参数值以及选定的神经网络的计算框架,构建神经网络。
图1和图2中的数据处理方法的流程还代表机器可读指令,该机器可读指令包括由处理器执行的程序。该程序可被实体化在被存储于有形计算机可读介质的软件中,该有形计算机可读介质如CD-ROM、软盘、硬盘、数字通用光盘(DVD)、蓝光光盘或其它形式的存储器。替代的,图1中的示例方法中的一些步骤或所有步骤可利用专用集成电路(ASIC)、可编程逻辑器件(PLD)、现场可编程逻辑器件(EPLD)、离散逻辑、硬件、固件等的任意组合被实现。另外,虽然图1和图2所示的流程图描述了该数据处理方法,但可对该处理方法中的步骤进行修改、删除或合并。
如上所述,可利用编码指令(如计算机可读指令)来实现图1和图2的示例过程,该编程指令存储于有形计算机可读介质上,如硬盘、闪存、只读存储器(ROM)、光盘(CD)、数字通用光盘(DVD)、高速缓存器、随机访问存储器(RAM)和/或任何其他存储介质,在该存储介质上信息可以存储任意时间(例如,长时间,永久地,短暂的情况,临时缓冲,和/或信息的缓存)。如在此所用的,该术语有形计算机可读介质被明确定义为包括任意类型的计算机可读存储的信号。附加地或替代地,可利用编码指令(如计算机可读指令)实现图1和图2的示例过程,该编码指令存储于非暂时性计算机可读介质,如硬盘,闪存,只读存储器,光盘,数字通用光盘,高速缓存器,随机访问存储器和/或任何其他存储介质,在该存储介质信息可以存储任意时间(例如,长时间,永久地,短暂的情况,临时缓冲,和/或信息的缓存)。
此外,虽然参照特定的示例来描述了本发明,其中这些特定的示例仅仅旨在是示例性的,而不是对本发明进行限制,但对于本领域普通技术人员来说显而易见的是,在不脱离本发明的精神和保护范围的基础上,可以对所公开的实施例进行改变、增加或者删除。

Claims (11)

1.一种用于可视化构建神经网络的方法,其特征在于,所述方法包括:
基于神经网络的类型,确定所述神经网络中的层节点的参数类型;
设置所述层节点的参数值;
基于所述层节点的参数值生成相应的第一配置文件;
基于所述第一配置文件确定所述层节点之间的计算顺序;以及
基于所述层节点的所述参数类型和所述参数值、用于训练所述神经网络的参数值以及选定的所述神经网络的计算框架,构建所述神经网络。
2.根据权利要求1所述的方法,其特征在于,基于所述第一配置文件确定所述层节点之间的计算顺序包括:根据所述第一配置文件中的所述层节点的输入值和输出值来确定所述层节点之间的计算顺序。
3.根据权利要求1所述的方法,其特征在于,所述用于训练所述神经网络的参数值通过以下方式获取:
设置解算器的参数值;
根据所述解算器的参数值生成第二配置文件;以及
从所述第二配置文件中获取所述用于训练所述神经网络的参数值。
4.根据权里要求3所述的方法,其特征在于,所述第一配置文件和所述第二配置文件均为Json配置文件。
5.根据权利要求1所述的方法,所述神经网络中的所述层节点以图形化方式显示。
6.一种用于可视化构建神经网络的装置,其特征在于,所述装置包括:
层节点参数类型确定单元,被配置为基于神经网络的类型,确定所述神经网络中的层节点的参数类型;
层节点参数设置单元,被配置为设置所述层节点的参数值;
配置文件生成单元,被配置为基于所述层节点的参数值生成相应的第一配置文件;
计算顺序确定单元,被配置为基于所述第一配置文件确定所述层节点之间的计算顺序;
神经网路构建单元,被配置为基于所述层节点的所述参数类型和所述参数值、用于训练所述神经网络的参数值和选定的所述神经网络的计算框架,构建所述神经网络。
7.根据权利要求6所述的装置,其特征在于,所述计算顺序确定单元还被配置为根据所述第一配置文件中的所述层节点的输入值和输出值来确定所述层节点之间的计算顺序。
8.根据权利要求1所述的装置,其特征在于,所述用于训练所述神经网络的参数值通过以下方式获取:
设置解算器的参数值;
根据所述解算器的参数值生成第二配置文件;以及
从所述第二配置文件中获取所述用于训练所述神经网络的参数值。
9.根据权利要求8所述的方法,其特征在于,所述第一配置文件和所述第二配置文件均为Json配置文件。
10.根据权利要求1所述的方法,所述神经网络中的所述层节点以图形化方式显示。
11.一种计算机可读存储介质,其上存储有处理器可执行指令,所述处理器执行所述可执行指令时,执行根据权利要求1-5中任一项所述的方法。
CN201810329668.9A 2018-04-13 2018-04-13 用于可视化构建神经网络的方法 Pending CN108537328A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810329668.9A CN108537328A (zh) 2018-04-13 2018-04-13 用于可视化构建神经网络的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810329668.9A CN108537328A (zh) 2018-04-13 2018-04-13 用于可视化构建神经网络的方法

Publications (1)

Publication Number Publication Date
CN108537328A true CN108537328A (zh) 2018-09-14

Family

ID=63480107

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810329668.9A Pending CN108537328A (zh) 2018-04-13 2018-04-13 用于可视化构建神经网络的方法

Country Status (1)

Country Link
CN (1) CN108537328A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109799977A (zh) * 2019-01-25 2019-05-24 西安电子科技大学 指令程序开发调度数据的方法及系统
CN110032374A (zh) * 2019-03-21 2019-07-19 深兰科技(上海)有限公司 一种参数提取方法、装置、设备及介质
CN110263861A (zh) * 2019-06-21 2019-09-20 西北师范大学 一种医疗图像分类方法、装置及存储介质
CN110689124A (zh) * 2019-09-30 2020-01-14 北京九章云极科技有限公司 一种构建神经网络模型的方法及系统
CN110782031A (zh) * 2019-09-27 2020-02-11 北京计算机技术及应用研究所 多框架卷积神经网络模型结构可视化以及网络重建方法
CN111967570A (zh) * 2019-07-01 2020-11-20 嘉兴砥脊科技有限公司 可神化神经网络系统的实现方法、装置和机器设备
CN112130827A (zh) * 2019-06-25 2020-12-25 北京启瞳智能科技有限公司 基于云端模块化技术的模型开发方法、平台和智能终端
CN112508163A (zh) * 2020-11-23 2021-03-16 北京百度网讯科技有限公司 神经网络模型中子图的展示方法、装置和存储介质
WO2021189209A1 (zh) * 2020-03-23 2021-09-30 深圳市大疆创新科技有限公司 加速器的检测方法和验证平台

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150106306A1 (en) * 2013-10-16 2015-04-16 University Of Tennessee Research Foundation Method and apparatus for constructing a neuroscience-inspired artificial neural network with visualization of neural pathways
CN106372721A (zh) * 2016-08-29 2017-02-01 中国传媒大学 大规模神经网络的3d可视化方法
CN107392085A (zh) * 2017-05-26 2017-11-24 上海精密计量测试研究所 可视化卷积神经网络的方法
CN107766933A (zh) * 2017-10-24 2018-03-06 天津大学 一种解释卷积神经网络的可视化方法
CN107862692A (zh) * 2017-11-30 2018-03-30 中山大学 一种基于卷积神经网络的织带断痕缺陷检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150106306A1 (en) * 2013-10-16 2015-04-16 University Of Tennessee Research Foundation Method and apparatus for constructing a neuroscience-inspired artificial neural network with visualization of neural pathways
CN106372721A (zh) * 2016-08-29 2017-02-01 中国传媒大学 大规模神经网络的3d可视化方法
CN107392085A (zh) * 2017-05-26 2017-11-24 上海精密计量测试研究所 可视化卷积神经网络的方法
CN107766933A (zh) * 2017-10-24 2018-03-06 天津大学 一种解释卷积神经网络的可视化方法
CN107862692A (zh) * 2017-11-30 2018-03-30 中山大学 一种基于卷积神经网络的织带断痕缺陷检测方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109799977A (zh) * 2019-01-25 2019-05-24 西安电子科技大学 指令程序开发调度数据的方法及系统
CN109799977B (zh) * 2019-01-25 2021-07-27 西安电子科技大学 指令程序开发调度数据的方法及系统
CN110032374A (zh) * 2019-03-21 2019-07-19 深兰科技(上海)有限公司 一种参数提取方法、装置、设备及介质
CN110263861A (zh) * 2019-06-21 2019-09-20 西北师范大学 一种医疗图像分类方法、装置及存储介质
CN112130827A (zh) * 2019-06-25 2020-12-25 北京启瞳智能科技有限公司 基于云端模块化技术的模型开发方法、平台和智能终端
CN111967570A (zh) * 2019-07-01 2020-11-20 嘉兴砥脊科技有限公司 可神化神经网络系统的实现方法、装置和机器设备
CN111967570B (zh) * 2019-07-01 2024-04-05 北京砥脊科技有限公司 可视化神经网络系统的实现方法、装置和机器设备
CN110782031A (zh) * 2019-09-27 2020-02-11 北京计算机技术及应用研究所 多框架卷积神经网络模型结构可视化以及网络重建方法
CN110689124A (zh) * 2019-09-30 2020-01-14 北京九章云极科技有限公司 一种构建神经网络模型的方法及系统
WO2021189209A1 (zh) * 2020-03-23 2021-09-30 深圳市大疆创新科技有限公司 加速器的检测方法和验证平台
CN112508163A (zh) * 2020-11-23 2021-03-16 北京百度网讯科技有限公司 神经网络模型中子图的展示方法、装置和存储介质

Similar Documents

Publication Publication Date Title
CN108537328A (zh) 用于可视化构建神经网络的方法
JP6608981B2 (ja) 異常セッション感知方法
CN113254648B (zh) 一种基于多层次图池化的文本情感分析方法
US20210012210A1 (en) Techniques for creating, analyzing, and modifying neural networks
KR20200088475A (ko) 신경망의 기능적 부분망의 동시 훈련
JP6791780B2 (ja) 文章作成装置
CN107451663A (zh) 算法组件化、基于算法组件建模方法、装置以及电子设备
US11640539B2 (en) Techniques for visualizing the operation of neural networks using samples of training data
CN106997474A (zh) 一种基于深度学习的图节点多标签分类方法
CN110659723A (zh) 基于人工智能的数据处理方法、装置、介质及电子设备
US20210012209A1 (en) Techniques for modifying neural network definitions
US11615321B2 (en) Techniques for modifying the operation of neural networks
CN115439308A (zh) 训练试衣模型的方法、虚拟试衣方法及相关装置
CN113360670B (zh) 一种基于事实上下文的知识图谱补全方法及系统
Lima et al. Automatic design of deep neural networks applied to image segmentation problems
CN115905518B (zh) 基于知识图谱的情感分类方法、装置、设备以及存储介质
CN115346125B (zh) 一种基于深度学习的目标检测方法
EP3614314A1 (en) Method and apparatus for generating chemical structure using neural network
CN108376283B (zh) 用于神经网络的池化装置和池化方法
CN116109892A (zh) 虚拟试衣模型的训练方法及相关装置
JP2021527859A (ja) 深層領域拡張を使用した画像内の不規則形状のセグメント化
KR102549937B1 (ko) Sns 텍스트 기반의 사용자의 인테리어 스타일 분석 모델 제공 장치 및 방법
CN115659951A (zh) 基于标签嵌入的语句情感分析方法、装置以及设备
CN115033700A (zh) 基于相互学习网络的跨领域情感分析方法、装置以及设备
JP2022063864A (ja) 機械学習を自動化するための装置及び機械学習自動化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180914

WD01 Invention patent application deemed withdrawn after publication