CN108874779A - 基于K8s集群建立的依图写诗系统的控制方法 - Google Patents
基于K8s集群建立的依图写诗系统的控制方法 Download PDFInfo
- Publication number
- CN108874779A CN108874779A CN201810643605.0A CN201810643605A CN108874779A CN 108874779 A CN108874779 A CN 108874779A CN 201810643605 A CN201810643605 A CN 201810643605A CN 108874779 A CN108874779 A CN 108874779A
- Authority
- CN
- China
- Prior art keywords
- poem
- training
- model
- picture recognition
- generates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
本发明属于深度学习和容器云平台领域,具体涉及一种基于K8s集群建立的依图写诗系统的控制方法,包括:1)采用Kubeadm方法,使用TensorFlow搭建K8s集群;2)对图片识别模型进行迁移学习训练,得到训练后的图片识别模型;3)通过K8s集群对诗词生成模型进行分布式训练,获得训练后的诗词生成模型;4)采用训练后的图片识别模型识别用户的上传图片;5)通过连接程序连接所述训练后的图片识别模型和训练后的诗词生成模型;6)采用所述训练后的诗词生成模型生成一首完整诗词;7)通过所述诗词输出端向用户展示所述上传图片和所述完整诗词。本发明生成的诗词符合图片内容,而且采用多标签的古风类别关键字更加符合古诗风格。
Description
技术领域
本发明属于深度学习和容器云平台领域,具体涉及一种基于K8s集群建立的依图写诗系统的控制方法。
背景技术
现有的写诗系统涵盖领域并不完整,体验方式欠佳,同时深度学习模型的训练非常耗时耗资源,存在很多可以改进扩展的地方。例如,“编诗姬”能够根据给定的少于四个字的主题词写出古诗或者藏头诗,“九歌”能够根据输入的一个关键词写出一首七言绝句,两个系统都是可以写古诗但是以文字输入的形式不符合现代用户的使用习惯;“微软小冰”能够根据用户上传的图片写出简短的现代诗,但是不能写出古诗词。
发明内容
针对上述存在的技术问题,本发明提供一种基于K8s集群建立的依图写诗系统的控制方法,包括以下步骤:
步骤1,采用Kubeadm方法,使用TensorFlow搭建Kubernetes集群,具体搭建方法为:
所述Kubernetes集群,简称K8s集群,搭建于N台物理机上,选择其中一台物理机作为Master,其他N-1个物理机作为Node;所述物理机的系统程序采用Python2.7版本;
步骤2,对图片识别模型进行迁移学习训练,得到训练后的图片识别模型;所述图片识别模型为google开源的inception_v3图片识别模型,用于得出任意图片的每一个多标签所对应的概率值;
步骤3,通过Kubernetes集群对诗词生成模型进行分布式训练,获得训练后的诗词生成模型;所述诗词生成模型为encoder-decoder诗词生成模型,用于根据所述概率值,生成与所述任意图片相适应的诗词;
步骤4,采用训练后的图片识别模型识别用户的上传图片;
步骤4.1,用户通过图片输入端将上传图片发送至所述训练后的图片识别模型;
步骤4.2,所述训练后的图片识别模型根据所述上传图片,得出上传图片的每一个多标签所对应的概率值;
步骤5,通过连接程序连接所述训练后的图片识别模型和训练后的诗词生成模型;所述连接程序的连接过程,包括以下步骤:
步骤5.1,设置所述训练后的图片识别模型的阈值;
所述阈值用于限定所述概率值;所述多标签对应的概率值大于所述阈值时,则保留,反之则不保留,得到由保留下来的多标签形成的多标签集合;
步骤5.2,根据步骤4.2中得到的所述训练后的图片识别模型得到的各所述多标签的概率值,对每个所述多标签对应的各子单标签赋予相同的概率值,对各多标签中相同的单标签进行整合,即将相同的子单标签的概率值进行叠加,得出各子单标签的最终概率值并从大到小排序的;
步骤5.3,去除所述最终概率值小于所述阈值的类别,得到的子单标签集合,其中子单标签的类别数量为m;
步骤5.4,得到的子单标签的类别数量m若大于等于4,则按照最终概率值从大到小的排序顺序保留前4个类别,作为类别列表p,转到步骤5.7;否则转到步骤5.5;
步骤5.5,得到的子单标签的类别数量m若大于0且小于4则重复最终概率值最高的子单标签4-m遍,使得子标签类别数量为4,按照最终概率值从大到小的排序顺序保留这4个类别,作为类别列表p,转到步骤5.7;否则转到步骤5.6
步骤5.6,得到的子单标签的类别数量m若为0,则重复之前缓存的得分最高的子单标签3次,使得子标签类别数量为4,保留这4个类别,作为类别列表p;
步骤5.7,将类别列表p按照中英文对照表将其中四项均转为汉字,即得到4组关键词;
步骤5.8,将4组所述关键词输入到训练后的诗词生成模型;
步骤6,采用所述训练后的诗词生成模型根据所述4组关键词生成一首完整诗词;
步骤7,通过所述诗词输出端向用户展示所述上传图片和所述完整诗词。
步骤2中,所述迁移学习训练具体包括以下步骤:
步骤2.1,建立图片数据集,所述图片数据集包含若干带有多标签的图片;
步骤2.2,采用迁移学习方法,对所述图片识别模型的参数进行调整,具体调整方法为:
修改所述图片识别模型的最后一层,即softmax层以初步适应所述图片数据集,然后采用迁移学习方法训练所述最后一层的参数,获得训练后的图片识别模型,以完全适应所述图片数据集;
步骤2.3,保存所述训练后的图片识别模型。
步骤3中,所述分布式训练具体包括以下步骤:
步骤3.1,建立诗词数据集,所述诗词数据集包含若干句诗词,每句诗词由若干汉字组成;
步骤3.2,将所述诗词生成模型部署进所述各台物理机中;
步骤3.3,在所述Kubernetes集群中启动各个物理机的pod下载TensorFlow1.4,如图2所示,将一个所述Node的pod作为PS,即PS__pod,其他N-2个所述Node的pod作为Worker,即Worker__pod;
步骤3.4,进入所述各个物理机的pod中的容器,通过pip命令安装语言文字处理需要的gensim和jieba的python库;
步骤3.5,将所述诗词数据集中的内容分为N-2个诗词数据组,即data1、data2……dataN-2,并载入各个所述Worker__pod的容器中,然后所述Master分别通过这些容器启动所述诗词生成模型的训练程序,即利用所述诗词数据对所述诗词生成模型进行训练;所述训练过程借助于所述tensorflow1.4程序框架镜像;
步骤3.6,各个所述worker中的容器在训练过程中,通过诗词生成模型的训练程序与所述PS__pod进行交互,从而实现分布式训练;
步骤3.7,保存训练后的诗词生成encoder-decoder模型;
步骤3.8,删除所述各个pod,释放资源。
所述步骤6,采用所述训练后的诗词生成模型根据所述4组关键词生成一首完整诗词,具体包括以下步骤:
步骤6.1,将连接程序得到的关键词输入到所述训练后的诗词生成模型中;
步骤6.2,所述模型的encoder部分对所述4组关键词的第1组进行编码,得到中间向量;所述模型的decoder部分对中间向量进行解码,经过迭代过程生成一句诗词;
步骤6.3,decoder最终状态的中间隐藏层向量值作为解析下一个关键词的encoder的初始化中间隐藏层向量值;所述模型的encoder部分对第一个关键词进行编码,得到中间向量,所述模型的decoder部分对中间向量进行解码,经过迭代过程生成一句诗词;
步骤6.4,重复步骤6.3,直至共生成4句诗词,从而形成一首完整诗词。
步骤6.2中,所述迭代过程的迭代次数是随机数,如果所述迭代次数随机选择为5次,则生成的诗词为五言诗;所述迭代次数随机选择为7次,则生成的诗词为七言诗;步骤6.4中,所述迭代过程的迭代次数与所述步骤6.2中选择的迭代次数相同。
本发明的有益效果:
本发明提出一种基于K8s集群建立的依图写诗系统的控制方法,生成的诗词符合图片内容,而且采用多标签的古风类别关键字更加符合古诗风格,用于通过网页直接浏览体验很好,同时解决了现有技术中不能通过图片写出古诗的现状。
本发明借助于K8s集群的容器实现了诗词生成模型的分布式训练,以此提高了模型训练的效率,并采用连接程序将两个模型连接起来,实现了按照图片内容提取关键词并写出主题词相关的古诗的依图写诗系统,并以网页形式展示出来。
本发明设计合理,易于实现,具有很好的实用价值。
附图说明
图1为本发明具体实施方式中所述Kubernetes集群的结构示意图;
图2为本发明具体实施方式中所述Kubernetes集群对诗词生成模型进行分布式训练的示意图;
图3为本发明具体实施方式中所述训练后的诗词生成模型根据关键词生成诗句的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施实例,对本发明做出进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提出一种基于K8s集群建立的依图写诗系统的控制方法,具体包括以下步骤:
步骤1,采用Kubeadm方法,具体搭建方法为:
所述Kubernetes集群,简称K8s集群,搭建于N台物理机上,选择其中一台物理机作为Master,其他N-1个物理机作为Node;所述物理机的系统程序采用Python2.7版本;
本实施例中,所述Kubernetes集群采用Kubernetes 1.10版本,如图1所示,所述物理机共4台,其中一台物理机作为Master,其他3台物理机作为Node,即Node1、Node2、Node3;所述集群的底层操作系统采用Ubuntu16.04系统,其容器采用Docker11.13.1版本,其网络解决方案采用Flannel latest;
步骤2,对图片识别模型进行迁移学习训练,得到训练后的图片识别模型;所述图片识别模型为google开源的inception_v3图片识别模型,用于得出任意图片的每一个多标签所对应的概率值;所述迁移学习训练具体包括以下步骤:
步骤2.1,建立图片数据集,所述图片数据集包含若干带有多标签的图片;
步骤2.2,采用迁移学习方法,对所述图片识别模型的参数进行调整,具体调整方法为:
修改所述图片识别模型的最后一层,即softmax层以初步适应所述图片数据集,然后采用迁移学习方法训练所述最后一层的参数,获得训练后的图片识别模型,以完全适应所述图片数据集;
步骤2.3,保存所述训练后的图片识别模型;
步骤3,通过Kubernetes集群对诗词生成模型进行分布式训练,如图2所示,获得训练后的诗词生成模型;所述诗词生成模型为encoder-decoder诗词生成模型,用于根据所述概率值,生成与所述任意图片相适应的诗词;所述分布式训练具体包括以下步骤:
步骤3.1,建立诗词数据集,所述诗词数据集包含若干句诗词,每句诗词由若干汉字组成;
步骤3.2,将所述诗词生成模型部署进所述各台物理机中;
步骤3.3,在所述Kubernetes集群中启动各个物理机的pod下载TensorFlow1.4,将一个所述Node的pod作为PS,即PS__pod,其他N-2个所述Node的pod作为Worker,即Worker__pod;
步骤3.4,进入所述各个物理机的pod中的容器,通过pip命令安装语言文字处理需要的gensim和jieba的python库;
步骤3.5,将所述诗词数据集中的内容分为N-2个诗词数据组,即data1、data2……dataN-2,并载入各个所述Worker__pod的容器中,然后所述Master分别通过这些容器启动所述诗词生成模型的训练程序,即利用所述诗词数据对所述诗词生成模型进行训练;所述训练过程借助于所述tensorflow1.4程序框架镜像;
步骤3.6,各个所述worker中的容器在训练过程中,通过诗词生成模型的训练程序与所述PS__pod进行交互,从而实现分布式训练;
步骤3.7,保存训练后的诗词生成encoder-decoder模型;
步骤3.8,删除所述各个pod,释放资源;
步骤4,采用训练后的图片识别模型识别用户的上传图片;
步骤4.1,用户通过图片输入端将上传图片发送至所述训练后的图片识别模型;
步骤4.2,所述训练后的图片识别模型根据所述上传图片,得出上传图片的每一个多标签所对应的概率值;
步骤5,通过连接程序连接所述训练后的图片识别模型和训练后的诗词生成模型;所述连接程序的连接过程,包括以下步骤:
步骤5.1,设置所述训练后的图片识别模型的阈值;
所述阈值用于限定所述概率值;所述多标签对应的概率值大于所述阈值时,则保留,反之则不保留,得到由保留下来的多标签形成的多标签集合;
所述阈值属于超参数概念,设定值越大代表则对所述图片的景物过滤的越严格,相反值越小代表对所述图片的景物过滤的越宽松;
本实施例中,所述阈值设置为0.2;
步骤5.2,根据步骤4.2中得到的所述训练后的图片识别模型得到的各所述多标签的概率值,对每个所述多标签对应的各子单标签赋予相同的概率值,对各多标签中相同的单标签进行整合,即将相同的子单标签的概率值进行叠加,得出各子单标签的最终概率值并从大到小排序的;
步骤5.3,去除所述最终概率值小于所述阈值的类别,得到的子单标签集合,其中子单标签的类别数量为m;
步骤5.4,得到的子单标签的类别数量m若大于等于4,则按照最终概率值从大到小的排序顺序保留前4个类别,作为类别列表p,转到步骤5.7;否则转到步骤5.5;
步骤5.5,得到的子单标签的类别数量m若大于0且小于4则重复最终概率值最高的子单标签4-m遍,使得子标签类别数量为4,按照最终概率值从大到小的排序顺序保留这4个类别,作为类别列表p,转到步骤5.7;否则转到步骤5.6
步骤5.6,得到的子单标签的类别数量m若为0,则重复之前缓存的得分最高的子单标签3次,使得子标签类别数量为4,保留这4个类别,作为类别列表p;
步骤5.7,将类别列表p按照中英文对照表将其中四项均转为汉字,即得到4组关键词;
步骤5.8,将4组所述关键词输入到训练后的诗词生成模型;
步骤6,采用所述训练后的诗词生成模型根据关键词生成诗句,如图3所示;
步骤6.1,将连接程序得到的关键词输入到所述训练后的诗词生成模型中;
步骤6.2,所述模型的encoder部分对所述4组关键词的第1组进行编码,得到中间向量;所述模型的decoder部分对中间向量进行解码,经过迭代过程生成一句诗词;
所述迭代过程的迭代次数是随机数,如果所述迭代次数随机选择为5次,则生成的诗词为五言诗;所述迭代次数随机选择为7次,则生成的诗词为七言诗;
本实施例中,如图3所示,图中A1-A7为LSTM神经网络单元;假定得出的所述4组关键词的第1组为“沙漠”,经过所述步骤6.2得到一句五言诗“渺漠渡阴滩”;
步骤6.3,decoder最终状态的中间隐藏层向量值作为解析下一个关键词的encoder的初始化中间隐藏层向量值;所述模型的encoder部分对第一个关键词进行编码,得到中间向量,所述模型的decoder部分对中间向量进行解码,经过迭代过程生成一句诗词;
所述迭代过程的迭代次数与所述步骤6.2中选择的迭代次数相同;
步骤6.4,重复步骤6.3,直至共生成4句诗词,从而形成一首完整诗词;
步骤7,通过所述诗词输出端向用户展示所述上传图片和所述完整诗词。
Claims (5)
1.一种基于K8s集群建立的依图写诗系统的控制方法,其特征在于,包括以下步骤:
步骤1,采用Kubeadm方法,使用TensorFlow搭建Kubernetes集群,具体搭建方法为:
所述Kubernetes集群,简称K8s集群,搭建于N台物理机上,选择其中一台物理机作为Master,其他N-1个物理机作为Node;所述物理机的系统程序采用Python2.7版本;
步骤2,对图片识别模型进行迁移学习训练,得到训练后的图片识别模型;所述图片识别模型为google开源的inception_v3图片识别模型,用于得出任意图片的每一个多标签所对应的概率值;
步骤3,通过Kubernetes集群对诗词生成模型进行分布式训练,获得训练后的诗词生成模型;所述诗词生成模型为encoder-decoder诗词生成模型,用于根据所述概率值,生成与所述任意图片相适应的诗词;
步骤4,采用训练后的图片识别模型识别用户的上传图片;
步骤4.1,用户通过图片输入端将上传图片发送至所述训练后的图片识别模型;
步骤4.2,所述训练后的图片识别模型根据所述上传图片,得出上传图片的每一个多标签所对应的概率值;
步骤5,通过连接程序连接所述训练后的图片识别模型和训练后的诗词生成模型;所述连接程序的连接过程,包括以下步骤:
步骤5.1,设置所述训练后的图片识别模型的阈值;
所述阈值用于限定所述概率值;所述多标签对应的概率值大于所述阈值时,则保留,反之则不保留,得到由保留下来的多标签形成的多标签集合;
步骤5.2,根据步骤4.2中得到的所述训练后的图片识别模型得到的各所述多标签的概率值,对每个所述多标签对应的各子单标签赋予相同的概率值,对各多标签中相同的单标签进行整合,即将相同的子单标签的概率值进行叠加,得出各子单标签的最终概率值并从大到小排序的;
步骤5.3,去除所述最终概率值小于所述阈值的类别,得到的子单标签集合,其中子单标签的类别数量为m;
步骤5.4,得到的子单标签的类别数量m若大于等于4,则按照最终概率值从大到小的排序顺序保留前4个类别,作为类别列表p,转到步骤5.7;否则转到步骤5.5;
步骤5.5,得到的子单标签的类别数量m若大于0且小于4则重复最终概率值最高的子单标签4-m遍,使得子标签类别数量为4,按照最终概率值从大到小的排序顺序保留这4个类别,作为类别列表p,转到步骤5.7;否则转到步骤5.6
步骤5.6,得到的子单标签的类别数量m若为0,则重复之前缓存的得分最高的子单标签3次,使得子标签类别数量为4,保留这4个类别,作为类别列表p;
步骤5.7,将类别列表p按照中英文对照表将其中四项均转为汉字,即得到4组关键词;
步骤5.8,将4组所述关键词输入到训练后的诗词生成模型;
步骤6,采用所述训练后的诗词生成模型根据所述4组关键词生成一首完整诗词;
步骤7,通过所述诗词输出端向用户展示所述上传图片和所述完整诗词。
2.根据权利要求1所述的基于K8s集群建立的依图写诗系统的控制方法,其特征在于,步骤2中,所述迁移学习训练具体包括以下步骤:
步骤2.1,建立图片数据集,所述图片数据集包含若干带有多标签的图片;
步骤2.2,采用迁移学习方法,对所述图片识别模型的参数进行调整,具体调整方法为:
修改所述图片识别模型的最后一层,即softmax层以初步适应所述图片数据集,然后采用迁移学习方法训练所述最后一层的参数,获得训练后的图片识别模型,以完全适应所述图片数据集;
步骤2.3,保存所述训练后的图片识别模型。
3.根据权利要求1所述的基于K8s集群建立的依图写诗系统的控制方法,其特征在于,步骤3中,所述分布式训练具体包括以下步骤:
步骤3.1,建立诗词数据集,所述诗词数据集包含若干句诗词,每句诗词由若干汉字组成;
步骤3.2,将所述诗词生成模型部署进所述各台物理机中;
步骤3.3,在所述Kubernetes集群中启动各个物理机的pod下载TensorFlow1.4,如图2所示,将一个所述Node的pod作为PS,即PS_pod,其他N-2个所述Node的pod作为Worker,即Worker_pod;
步骤3.4,进入所述各个物理机的pod中的容器,通过pip命令安装语言文字处理需要的gensim和jieba的python库;
步骤3.5,将所述诗词数据集中的内容分为N-2个诗词数据组,即data1、data2……dataN-2,并载入各个所述Worker_pod的容器中,然后所述Master分别通过这些容器启动所述诗词生成模型的训练程序,即利用所述诗词数据对所述诗词生成模型进行训练;所述训练过程借助于所述tensorflow1.4程序框架镜像;
步骤3.6,各个所述worker中的容器在训练过程中,通过诗词生成模型的训练程序与所述PS_pod进行交互,从而实现分布式训练;
步骤3.7,保存训练后的诗词生成encoder-decoder模型;
步骤3.8,删除所述各个pod,释放资源。
4.根据权利要求1所述的基于K8s集群建立的依图写诗系统的控制方法,其特征在于,所述步骤6,采用所述训练后的诗词生成模型根据所述4组关键词生成一首完整诗词,具体包括以下步骤:
步骤6.1,将连接程序得到的关键词输入到所述训练后的诗词生成模型中;
步骤6.2,所述模型的encoder部分对所述4组关键词的第1组进行编码,得到中间向量;所述模型的decoder部分对中间向量进行解码,经过迭代过程生成一句诗词;
步骤6.3,decoder最终状态的中间隐藏层向量值作为解析下一个关键词的encoder的初始化中间隐藏层向量值;所述模型的encoder部分对第一个关键词进行编码,得到中间向量,所述模型的decoder部分对中间向量进行解码,经过迭代过程生成一句诗词;
步骤6.4,重复步骤6.3,直至共生成4句诗词,从而形成一首完整诗词。
5.根据权利要求4所述的基于K8s集群建立的依图写诗系统的控制方法,其特征在于,步骤6.2中,所述迭代过程的迭代次数是随机数,如果所述迭代次数随机选择为5次,则生成的诗词为五言诗;所述迭代次数随机选择为7次,则生成的诗词为七言诗;步骤6.4中,所述迭代过程的迭代次数与所述步骤6.2中选择的迭代次数相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810643605.0A CN108874779B (zh) | 2018-06-21 | 2018-06-21 | 基于K8s集群建立的依图写诗系统的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810643605.0A CN108874779B (zh) | 2018-06-21 | 2018-06-21 | 基于K8s集群建立的依图写诗系统的控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108874779A true CN108874779A (zh) | 2018-11-23 |
CN108874779B CN108874779B (zh) | 2021-09-21 |
Family
ID=64340034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810643605.0A Active CN108874779B (zh) | 2018-06-21 | 2018-06-21 | 基于K8s集群建立的依图写诗系统的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108874779B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109597993A (zh) * | 2018-11-30 | 2019-04-09 | 深圳前海微众银行股份有限公司 | 语句分析处理方法、装置、设备以及计算机可读存储介质 |
CN109784165A (zh) * | 2018-12-12 | 2019-05-21 | 平安科技(深圳)有限公司 | 诗词内容的生成方法、装置、终端及存储介质 |
CN110414001A (zh) * | 2019-07-18 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 语句生成方法和装置、存储介质及电子装置 |
CN111147297A (zh) * | 2019-12-23 | 2020-05-12 | 广东省新一代通信与网络创新研究院 | 一种kubernetes的多层网络平面构建方法 |
CN111797262A (zh) * | 2020-06-24 | 2020-10-20 | 北京小米松果电子有限公司 | 诗词生成方法、装置、电子设备和存储介质 |
WO2021051516A1 (zh) * | 2019-09-18 | 2021-03-25 | 平安科技(深圳)有限公司 | 基于人工智能的古诗词生成方法、装置、设备及存储介质 |
CN113010717A (zh) * | 2021-04-26 | 2021-06-22 | 中国人民解放军国防科技大学 | 图像诗句描述生成方法、装置和设备 |
WO2022033024A1 (zh) * | 2020-08-12 | 2022-02-17 | 中国银联股份有限公司 | 深度学习模型的分布式训练方法以及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480132A (zh) * | 2017-07-25 | 2017-12-15 | 浙江工业大学 | 一种基于图像内容的古诗词生成方法 |
CN107704252A (zh) * | 2017-10-20 | 2018-02-16 | 北京百悟科技有限公司 | 一种向用户提供人工智能平台的方法及系统 |
CN107729923A (zh) * | 2017-09-19 | 2018-02-23 | 浙江师范大学 | 一种基于TensorFlow的商品计算机视觉识别方法 |
CN107832292A (zh) * | 2017-11-02 | 2018-03-23 | 合肥工业大学 | 一种基于神经网络模型的图像到汉语古诗的转换方法 |
-
2018
- 2018-06-21 CN CN201810643605.0A patent/CN108874779B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480132A (zh) * | 2017-07-25 | 2017-12-15 | 浙江工业大学 | 一种基于图像内容的古诗词生成方法 |
CN107729923A (zh) * | 2017-09-19 | 2018-02-23 | 浙江师范大学 | 一种基于TensorFlow的商品计算机视觉识别方法 |
CN107704252A (zh) * | 2017-10-20 | 2018-02-16 | 北京百悟科技有限公司 | 一种向用户提供人工智能平台的方法及系统 |
CN107832292A (zh) * | 2017-11-02 | 2018-03-23 | 合肥工业大学 | 一种基于神经网络模型的图像到汉语古诗的转换方法 |
Non-Patent Citations (3)
Title |
---|
PEI-HSUAN TSAI 等: ""Distributed analytics in fog computing platforms using tensorflow and kubernetes"", 《2017 19TH ASIA-PACIFIC NETWORK OPERATIONS AND MANAGEMENT SYMPOSIUM (APNOMS)》 * |
涯若: ""比赛总结"", 《HTTPS://BLOG.CSDN.NET/INGWFJ/ARTICLE/DETAILS/80212664》 * |
潘丹: ""基于Openstack构建Kubernetes集群的实现与研究"", 《江西科学》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109597993A (zh) * | 2018-11-30 | 2019-04-09 | 深圳前海微众银行股份有限公司 | 语句分析处理方法、装置、设备以及计算机可读存储介质 |
CN109784165A (zh) * | 2018-12-12 | 2019-05-21 | 平安科技(深圳)有限公司 | 诗词内容的生成方法、装置、终端及存储介质 |
CN109784165B (zh) * | 2018-12-12 | 2024-06-07 | 平安科技(深圳)有限公司 | 诗词内容的生成方法、装置、终端及存储介质 |
CN110414001A (zh) * | 2019-07-18 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 语句生成方法和装置、存储介质及电子装置 |
CN110414001B (zh) * | 2019-07-18 | 2023-09-26 | 腾讯科技(深圳)有限公司 | 语句生成方法和装置、存储介质及电子装置 |
WO2021051516A1 (zh) * | 2019-09-18 | 2021-03-25 | 平安科技(深圳)有限公司 | 基于人工智能的古诗词生成方法、装置、设备及存储介质 |
CN111147297A (zh) * | 2019-12-23 | 2020-05-12 | 广东省新一代通信与网络创新研究院 | 一种kubernetes的多层网络平面构建方法 |
CN111147297B (zh) * | 2019-12-23 | 2022-07-15 | 广东省新一代通信与网络创新研究院 | 一种kubernetes的多层网络平面构建方法 |
CN111797262A (zh) * | 2020-06-24 | 2020-10-20 | 北京小米松果电子有限公司 | 诗词生成方法、装置、电子设备和存储介质 |
WO2022033024A1 (zh) * | 2020-08-12 | 2022-02-17 | 中国银联股份有限公司 | 深度学习模型的分布式训练方法以及装置 |
CN113010717A (zh) * | 2021-04-26 | 2021-06-22 | 中国人民解放军国防科技大学 | 图像诗句描述生成方法、装置和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN108874779B (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108874779A (zh) | 基于K8s集群建立的依图写诗系统的控制方法 | |
CN110717017B (zh) | 一种处理语料的方法 | |
CN111177394B (zh) | 基于句法注意力神经网络的知识图谱关系数据分类方法 | |
CN106202010B (zh) | 基于深度神经网络构建法律文本语法树的方法和装置 | |
CN109858039B (zh) | 一种文本信息识别方法及识别装置 | |
CN104735468B (zh) | 一种基于语义分析将图像合成新视频的方法及系统 | |
CN107578292B (zh) | 一种用户画像构建系统 | |
CN110826331A (zh) | 基于交互式与迭代式学习的地名标注语料库智能构建方法 | |
CN100483417C (zh) | 获取限制词信息的方法、优化输出的方法和输入法系统 | |
Xu et al. | Exploiting shared information for multi-intent natural language sentence classification. | |
JP6402408B2 (ja) | タグ処理方法及びタグ処理装置 | |
CN108304376B (zh) | 文本向量的确定方法、装置、存储介质及电子装置 | |
EP2988230A1 (en) | Data processing method and computer system | |
CN103246732B (zh) | 一种在线Web新闻内容的抽取方法及系统 | |
CN109657204A (zh) | 使用非对称度量学习的自动配对字体 | |
CN105930316A (zh) | 专利撰写辅助系统及其辅助方法 | |
CN111523324B (zh) | 命名实体识别模型的训练方法及装置 | |
CN103092943A (zh) | 一种广告调度的方法和广告调度服务器 | |
CN103885942B (zh) | 一种快速翻译装置及方法 | |
CN107330379A (zh) | 一种蒙古语手写识别方法和装置 | |
CN108829823A (zh) | 一种文本分类方法 | |
CN105975497A (zh) | 微博话题自动推荐方法及装置 | |
CN110222234A (zh) | 一种视频分类方法和装置 | |
CN111738226B (zh) | 一种基于cnn和rcnn模型的文本识别方法及装置 | |
CN112749556B (zh) | 多语言模型的训练方法和装置、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |