CN110716964A - 基于gru网络的新生儿取名方法、电子设备及存储介质 - Google Patents
基于gru网络的新生儿取名方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN110716964A CN110716964A CN201910887885.4A CN201910887885A CN110716964A CN 110716964 A CN110716964 A CN 110716964A CN 201910887885 A CN201910887885 A CN 201910887885A CN 110716964 A CN110716964 A CN 110716964A
- Authority
- CN
- China
- Prior art keywords
- data
- name
- vector
- output
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Fuzzy Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种基于GRU网络的新生儿取名方法、电子设备及存储介质。本发明将新生儿的所述人名资料输入到已经训练好的全向性神经网络及GRU网络中输出输出向量,根据输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字,其中,所述语料库中的每一词向量对应一个名字,从而能够根据新生儿的相关资料利用神经网络挖掘特征,使得所取的姓名具有连贯性及联系性。
Description
技术领域
本发明涉及一种基于GRU网络的新生儿取名方法、电子设备及存储介质。
背景技术
为新生儿取名一般是由当地的智者、算命先生、父母进行取名,有一些网站也有相应取名的功能,但通过这些方法所取的名字的好坏很大程度上依据个人主观判断,没有统一的客观标准,也不规范。
发明内容
鉴于以上内容,有必要提出一种基于GRU网络的新生儿取名方法、电子设备及计算机可读存储介质以根据新生儿的背景信息自动取名,从而得到符合家长期望的名字。
本申请的第一方面提供一种基于GRU网络的新生儿取名方法,所述方法包括:
获取人名相关的数据资料库,并根据人名属性对所述数据资料库划分不同的训练集;
根据用户选择的人名属性,选择与所述人名属性对应的训练集;
将选择的所述训练集中的人名资料进行数字化处理;
将经过数字化处理的所述训练集中的所述人名资料经过全向性神经网络进行特征提取得到所述人名资料的特征向量;
构建GRU网络;
确定新生儿的姓氏所对应的词向量,及将新生儿的姓氏所对应的词向量与所述人名资料的特征向量拼接得到输入向量,将所述输入向量输入到所述GRU网络中,并训练所述全向性神经网络及所述GRU网络;及
将新生儿的所述人名资料输入到已经训练好的所述全向性神经网络及所述GRU网络中输出输出向量,根据所述输出向量与存储的语料库中的所有词向量进行匹配确定所述输出向量对应的名字,其中,所述语料库中的每一个名字进行独热编码后生成一个词向量,所述语料库中的每一词向量对应一个名字。
优选地,所述GRU网络包括三层,分别为输入层、隐藏层及输出层,所述输入层与所述隐藏层之间全向连接,所述隐藏层与所述输出层之间全向连接,所述隐藏层的激活函数为sigmoid函数,所述输出层的激活函数为softmax函数,所述GRU网络的前向传播公式为:
rt=σ(Wr*[ht-1,xt]);
Zt=σ(Wz*[ht-1,xt]);
yt=σ(Wo*ht);
其中,xt表示输入,ht表示加入到当前状态的候选集,Zt表示更新门,rt表示重置门,yt表示输出,Wr,Wz,Wo分别为预设的权重,[]表示两个向量的拼接,*表示卷积运算,σ()表示sigmoid函数或softmax函数。
优选地,所述训练所述全向性神经网络及所述GRU网络包括:
通过反向传播的方法对所述全向性神经网络及GRU网络进行训练。
优选地,所述训练所述全向性神经网络及所述GRU网络包括:
将所述训练集中的所有人名资料数字化处理后分为n个批次,每个批次大小为100;
分别初始化所述全向性神经网络的各层权重及所述GRU网络的各层权重;
从n个批次中选择一批次数据作为本次的训练集;
将本次的训练集中的数据输入到所述全向神经网络中得到所述人名资料的特征向量;
将新生儿的姓氏所对应的词向量与所述人名资料的特征向量拼接得到输入向量,并将所述输入向量输入到所述GRU网络中输出至少一输出向量;
计算所述输出向量与所述词向量之间的误差,并判断所述误差是否在一预设范围内;
当所述误差在所述预设范围内时完成对所述全向性神经网络及GRU网络的训练;及
当所述误差不再所述预设范围内时利用梯度下降算法中的自适应矩估计优化算法更新所述全向性神经网络及GRU网络的权值,并利用所述训练集中的下一批次数据对所述全向性神经网络及所述GRU网络进行训练。
优选地,所述根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字包括:
计算所述输出向量与所述语料库中的所有词向量之间的相关度;及
将与所述输出向量相关度最高的词向量所对应的名字作为所述输出向量对应的名字。
优选地,所述计算所述输出向量与语料库中的所有词向量之间的相关度包括:
计算所述输出向量与所述词向量之间的余弦距离值,并根据所述余弦距离值确定所述输出向量与所述词向量之间的相关度。
优选地,所述将经过数字化处理的训练集中的人名资料经过全向性神经网络进行特征提取得到人名资料的特征向量包括:
将经过数字化处理的所述人名资料中的出生日期、父母的名字、出生地、生肖属相、五行八卦数据归一化,并将归一化后的所述人名资料输入全向性神经网络进行特征提取得到所述人名资料的特征向量。
优选地,所述全向性神经网络包括输入层、隐藏层及输出层,所述输入层与所述隐藏层全向性连接,所述隐藏层与所述输出层全向性连接,所述将归一化后的所述人名资料输入全向性神经网络进行特征提取得到所述人名资料的特征向量包括:将所述人员资料的数据经过所述输入层、所述隐藏层输出后通过sigmoid激活函数处理输出到所述输出层,所述输出层经过sigmoid激活函数处理后输出所述人名资料的特征向量。
本申请的第二方面提供一种电子设备,所述电子设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现所述基于GRU网络的新生儿取名方法。
本申请的第三方面提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现所述基于GRU网络的新生儿取名方法。
本发明通过将新生儿的人名资料输入到已经训练好的全向性神经网络及GRU网络中输出输出向量,并根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字,从而能够根据新生儿的相关资料利用神经网络挖掘特征,使得所取的姓名具有连贯性及联系性。
附图说明
图1为本发明一实施方式中基于GRU网络的新生儿取名方法的流程图。
图2为本发明一实施方式中GRU网络的结构图。
图3为本发明一实施方式中取名装置的结构图。
图4为本发明一实施方式中电子设备的示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
优选地,本发明基于GRU网络的新生儿取名方法应用在一个或者多个电子设备中。所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是桌上型计算机、笔记本电脑、平板电脑及云端服务器等计算设备。所述设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
实施例1
图1是本发明一实施方式中基于GRU网络的新生儿取名方法的流程图。根据不同的需求,所述流程图中步骤的顺序可以改变,某些步骤可以省略。
参阅图1所示,所述基于GRU网络的新生儿取名方法具体包括以下步骤:
步骤S11,获取人名相关的数据资料库,并根据人名属性对所述数据资料库划分不同的训练集。
本实施方式中,所述获取人名相关的数据资料库包括:获取关于起名的书籍信息并将所述书籍信息存储在语料库中,其中,所述书籍包括,但不限于论语、周易、楚辞、唐诗、宋词、古文观止、百家姓等。
本实施方式中,所述获取人名相关的数据资料库还包括:获取各个名人的人名资料,其中,每一名人的人名资料包括,但不限于名人的出生日期、父母的名字、出生地、生肖属相、五行八卦。例如,名人可以为知名诗人(如李白,杜甫等)、著名国内作家(如季羡林,林清玄等)、著名国内学者(如杨振宁,李政道等)、著名明星(如霍建华,胡歌等)。
本实施方式中,所述根据人名属性对所述数据资料库划分不同的训练集包括:将所述数据资料库划分为古典类训练集、现代类训练集、通俗类训练集、奇葩类训练集、英文类训练集。本实施方式中,所述人名属性包括古典、现代、通俗、奇葩、英文。在一实施方式中,古典类训练集包括古诗人的人名资料,现代类训练集包括新生代的明星,名人,大牛的人名资料,通俗类训练集包括通俗类的人名资料,所述俗类的人名资料符合人们对于通俗的名字的传统认定,奇葩类训练集包括奇葩的人名资料,英文类训练集包括英文名人,明星,上流社会的人名资料。
步骤S12,根据用户选择的人名属性,选择与所述人名属性对应的训练集。
本实施方式中,将不同的人名属性与不同的训练集建立对应的关系表。本实施方式中,根据用户选择的人名属性查询所述关系表后确定与所述人名属性相对应的训练集。
步骤S13,将选择的所述训练集中的人名资料进行数字化处理。
本实施方式中,所述人名资料包括出生日期、父母名字、出生地、生肖属相、五行八卦。本实施方式中,所述将所述训练集中的人名资料进行数字化处理包括:将所述训练集中的人名通过独热编码的方式转化为词向量;将所述训练集中的父母名字中的每一个字进行编码,并将编码后的父母名字中的字存储在第一字典中;将所述训练集中的出生地进行编码,并将编码后的出生地存储在第二字典中;将所述训练集中的生肖属相进行编码,并将编码后的生肖属相存储在第三字典中;将所述训练集中的出生日期进行编码,并将编码后的出生日期存储在第四字典中;将所述训练集中的五行八卦进行编码,并将编码后的五行八卦存储在第五字典中。
本实施方式中,在对训练集中的父母名字中的字进行编码时将每一名字对应4组数字,其中,名字中的每一字对应一组数字,名字中不够4组数字的编码时补0,例如,“王大锤”可以编码为“12,21,112,0,”,“李红”编码为“1345,31,0,0”。在对训练集中的出生地进行编码时按照省、市、区顺序进行编码,例如,“湖北省武汉市黄陂区”可以表示为“13,01,07”。在对训练集中的出生日期进行编码时按照年、月、日顺序进行编码,例如将出生日期为“2002年8月23号”表示为“2002,08,23”。本实施方式中,将训练集中每一人员资料的出生日期、父母的名字、出生地、生肖属相、五行八卦分别进行编码可以确保训练集中的元素都对应一个编号,建立数字化的训练集。本实施方式中,每个训练集可以单独进行数字化编码。
步骤S14,将经过数字化处理的训练集中的人名资料经过全向性神经网络进行特征提取得到人名资料的特征向量。
本实施方式中,所述将经过数字化处理的训练集中的人名资料经过全向性神经网络进行特征提取得到人名资料的特征向量包括:将经过数字化处理的人名资料中的出生日期、父母的名字、出生地、生肖属相、五行八卦数据归一化,并将归一化后的人名资料输入全向性神经网络进行特征提取得到人名资料的特征向量。本实施方式中,所述全向性神经网络包括输入层、隐藏层及输出层。所述输入层与所述隐藏层全向性连接,所述隐藏层与所述输出层全向性连接。本实施方式中,所述输入层包括17个神经元,所述输入层中的17个神经元用于接收训练集中的人名资料中的数据出生日期、父母的名字、出生地、生肖属相、五行八卦数据。所述隐藏层包括256个神经元,所述输出层包括512神经元。在具体实施方式中,所述将归一化后的所述人名资料输入全向性神经网络进行特征提取得到所述人名资料的特征向量包括:将训所述人员资料的数据经过输入层、隐藏层输出后通过sigmoid激活函数处理输出到输出层,所述输出层经过sigmoid激活函数处理后输出所述人名资料的特征向量。
步骤S15,构建GRU(Gated Recurrent Unit,门控循环单元)网络。
本实施方式中,所述GRU网络包括三层,分别为输入层、隐藏层及输出层。所述输入层与隐藏层之间全向连接,所述隐藏层与所述输出层之间全向连接。本实施方式中,所述隐藏层的激活函数为sigmoid函数,所述输出层的激活函数为softmax函数。请参考图2,所示为本发明一实施方式中GRU网络的结构图。GRU网络的前向传播公式为:
rt=σ(Wr*[ht-1,xt])
Zt=σ(Wz*[ht-1,xt])
yt=σ(Wo*ht)
其中,xt表示输入,ht表示加入到当前状态的候选集,Zt表示更新门,rt表示重置门,yt表示输出,Wr,Wz,Wo分别为预设的权重,[]表示两个向量的拼接,*表示卷积运算,σ()表示sigmoid函数或softmax函数。
步骤S16,确定新生儿的姓氏所对应的词向量,及将新生儿的姓氏所对应的词向量与所述人名资料的特征向量拼接得到一输入向量,将所述输入向量输入到所述GRU网络中,并训练所述全向性神经网络及所述GRU网络。
本实施方式中,通过独热编码的方法确定新生儿的姓氏所对应的词向量。本实施方式中,通过反向传播的方法对所述全向性神经网络及GRU网络进行训练。具体的,所述通过反向传播的方法对所述全向性神经网络及GRU网络进行训练包括:将训练集中的所有人名资料数字化处理后分为n个批次,每个批次大小为100;分别初始化全向性神经网络的各层权重及GRU网络的各层权重;从n个批次中选择一批次数据作为本次的训练集;将本次的训练集中的数据输入到所述全向神经网络中得到人名资料的特征向量;将新生儿的姓氏所对应的词向量与所述人名资料的特征向量拼接得到一输入向量,并将所述输入向量输入到所述GRU网络中输出至少一输出向量;计算所述输出向量与词向量之间的误差,并判断所述误差是否在一预设范围内;当所述误差在所述预设范围内时完成对所述全向性神经网络及GRU网络的训练;及当所述误差不再所述预设范围内时利用梯度下降算法中的自适应矩估计优化算法更新所述全向性神经网络及GRU网络的权值,并利用所述训练集中的下一批次数据对所述全向性神经网络及GRU网络进行训练。
本实施方式中,所述方法还包括:将古典类训练集、现代类训练集、通俗类训练集、奇葩类训练集、英文类训练集中的人名资料分别对GRU网络进行训练得到不同训练结果的GRU网络。
步骤S17,将新生儿的人名资料输入到已经训练好的全向性神经网络及GRU网络中输出输出向量,根据所述输出向量与存储的语料库中的所有词向量进行匹配确定所述输出向量对应的名字,其中,所述语料库中的每一个名字进行独热编码后生成一个词向量,语料库中的每一词向量对应一个名字。
本实施方式中,所述根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字包括:计算所述输出向量与语料库中的所有词向量之间的相关度;及将与所述输出向量相关度最高的词向量所对应的名字作为所述输出向量对应的名字。本实施方式中,所述计算所述输出向量与语料库中的所有词向量之间的相关度包括:计算所述输出向量与词向量之间的余弦距离值,并根据所述余弦距离值确定所述输出向量与所述词向量之间的相关度。
在一实施方式中,所述GRU网络的输出向量有三个,每一输出向量为512维。所述将新生儿的人名资料输入到已经训练好的全向性神经网络及GRU网络中输出输出向量,根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字包括:将每一输出向量与语料库中的所有词向量进行匹配确定每一输出向量对应的名字。
本发明通过将新生儿的人名资料输入到已经训练好的全向性神经网络及GRU网络中输出输出向量,并根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字,从而能够根据新生儿的相关资料利用神经网络挖掘特征,使得所取的姓名具有连贯性及联系性。
实施例2
图3为本发明一实施方式中取名装置20的结构图。
在一些实施例中,所述取名装置20运行于电子设备中。所述取名装置20可以包括多个由程序代码段所组成的功能模块。所述取名装置20中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行取名功能。
本实施例中,所述取名装置20根据其所执行的功能,可以被划分为多个功能模块。参阅图3所示,所述取名装置20可以包括数据获取模块201、选择模块202、数字化处理模块203、特征向量提取模块204、构建模块205、训练模块206及名字生成模块207。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。所述在一些实施例中,关于各模块的功能将在后续的实施例中详述。
所述数据获取模块201获取人名相关的数据资料库,并根据人名属性对所述数据资料库划分不同的训练集。
本实施方式中,所述数据获取模块201获取人名相关的数据资料库包括:获取关于起名的书籍信息并将所述书籍信息存储在语料库中,其中,所述书籍包括,但不限于论语、周易、楚辞、唐诗、宋词、古文观止、百家姓等。
本实施方式中,所述数据获取模块201获取人名相关的数据资料库还包括:获取各个名人的人名资料,其中,每一名人的人名资料包括,但不限于名人的出生日期、父母的名字、出生地、生肖属相、五行八卦。例如,名人可以为知名诗人(如李白,杜甫等)、著名国内作家(如季羡林,林清玄等)、著名国内学者(如杨振宁,李政道等)、著名明星(如霍建华,胡歌等)。
本实施方式中,所述数据获取模块201根据人名属性对所述数据资料库划分不同的训练集包括:将所述数据资料库划分为古典类训练集、现代类训练集、通俗类训练集、奇葩类训练集、英文类训练集。本实施方式中,所述人名属性包括古典、现代、通俗、奇葩、英文。在一实施方式中,古典类训练集包括古诗人的人名资料,现代类训练集包括新生代的明星,名人,大牛的人名资料,通俗类训练集包括通俗类的人名资料,所述俗类的人名资料符合人们对于通俗的名字的传统认定,奇葩类训练集包括奇葩的人名资料,英文类训练集包括英文名人,明星,上流社会的人名资料。
所述选择模块202根据用户选择的人名属性,选择与所述人名属性对应的训练集。
本实施方式中,所述选择模块202将不同的人名属性与不同的训练集建立对应的关系表。本实施方式中,根据用户选择的人名属性查询所述关系表后确定与所述人名属性相对应的训练集。
所述数字化处理模块203将选择的所述训练集中的人名资料进行数字化处理。
本实施方式中,所述人名资料包括出生日期、父母名字、出生地、生肖属相、五行八卦。本实施方式中,所述数字化处理模块203将所述训练集中的人名资料进行数字化处理包括:将所述训练集中的人名通过独热编码的方式转化为词向量;将所述训练集中的父母名字中的每一个字进行编码,并将编码后的父母名字中的字存储在第一字典中;将所述训练集中的出生地进行编码,并将编码后的出生地存储在第二字典中;将所述训练集中的生肖属相进行编码,并将编码后的生肖属相存储在第三字典中;将所述训练集中的出生日期进行编码,并将编码后的出生日期存储在第四字典中;将所述训练集中的五行八卦进行编码,并将编码后的五行八卦存储在第五字典中。
本实施方式中,在对训练集中的父母名字中的字进行编码时将每一名字对应4组数字,其中,名字中的每一字对应一组数字,名字中不够4组数字的编码时补0,例如,“王大锤”可以编码为“12,21,112,0,”,“李红”编码为“1345,31,0,0”。在对训练集中的出生地进行编码时按照省、市、区顺序进行编码,例如,“湖北省武汉市黄陂区”可以表示为“13,01,07”。在对训练集中的出生日期进行编码时按照年、月、日顺序进行编码,例如将出生日期为“2002年8月23号”表示为“2002,08,23”。本实施方式中,将训练集中每一人员资料的出生日期、父母的名字、出生地、生肖属相、五行八卦分别进行编码可以确保训练集中的元素都对应一个编号,建立数字化的训练集。本实施方式中,每个训练集可以单独进行数字化编码。
所述特征向量提取模块204将经过数字化处理的训练集中的人名资料经过全向性神经网络进行特征提取得到人名资料的特征向量。
本实施方式中,所述特征向量提取模块204将经过数字化处理的训练集中的人名资料经过全向性神经网络进行特征提取得到人名资料的特征向量包括:将经过数字化处理的人名资料中的出生日期、父母的名字、出生地、生肖属相、五行八卦数据归一化,并将归一化后的人名资料输入全向性神经网络进行特征提取得到人名资料的特征向量。本实施方式中,所述全向性神经网络包括输入层、隐藏层及输出层。所述输入层与所述隐藏层全向性连接,所述隐藏层与所述输出层全向性连接。本实施方式中,所述输入层包括17个神经元,所述输入层中的17个神经元用于接收训练集中的人名资料中的数据出生日期、父母的名字、出生地、生肖属相、五行八卦数据。所述隐藏层包括256个神经元,所述输出层包括512神经元。在具体实施方式中,所述将归一化后的所述人名资料输入全向性神经网络进行特征提取得到所述人名资料的特征向量包括:将训所述人员资料的数据经过输入层、隐藏层输出后通过sigmoid激活函数处理输出到输出层,所述输出层经过sigmoid激活函数处理后输出所述人名资料的特征向量。
所述构建模块205构建GRU网络。
本实施方式中,所述GRU网络包括三层,分别为输入层、隐藏层及输出层。所述输入层与隐藏层之间全向连接,所述隐藏层与所述输出层之间全向连接。本实施方式中,所述隐藏层的激活函数为sigmoid函数,所述输出层的激活函数为softmax函数。请参考图2,GRU网络的前向传播公式为:
rt=σ(Wr*[ht-1,xt])
Zt=σ(Wz*[ht-1,xt])
yt=σ(Wo*ht)
其中,xt表示输入,ht表示加入到当前状态的候选集,Zt表示更新门,rt表示重置门,yt表示输出,Wr,Wz,Wh~,Wo分别为预设的权重,[]表示两个向量的拼接,*表示卷积运算,σ()表示sigmoid函数或softmax函数。
所述训练模块206确定新生儿的姓氏所对应的词向量,及将新生儿的姓氏所对应的词向量与所述人名资料的特征向量拼接得到一输入向量,将所述输入向量输入到所述GRU网络中,并训练所述全向性神经网络及所述GRU网络。
本实施方式中,所述训练模块206通过独热编码的方法确定新生儿的姓氏所对应的词向量。本实施方式中,所述训练模块206通过反向传播的方法对所述全向性神经网络及GRU网络进行训练。具体的,所述训练模块206通过反向传播的方法对所述全向性神经网络及GRU网络进行训练包括:将训练集中的所有人名资料数字化处理后分为n个批次,每个批次大小为100;分别初始化全向性神经网络的各层权重及GRU网络的各层权重;从n个批次中选择一批次数据作为本次的训练集;将本次的训练集中的数据输入到所述全向神经网络中得到人名资料的特征向量;将新生儿的姓氏所对应的词向量与所述人名资料的特征向量拼接得到一输入向量,并将所述输入向量输入到所述GRU网络中输出至少一输出向量;计算所述输出向量与词向量之间的误差,并判断所述误差是否在一预设范围内;当所述误差在所述预设范围内时完成对所述全向性神经网络及GRU网络的训练;及当所述误差不再所述预设范围内时利用梯度下降算法中的自适应矩估计优化算法更新所述全向性神经网络及GRU网络的权值,并利用所述训练集中的下一批次数据对所述全向性神经网络及GRU网络进行训练。
本实施方式中,所述训练模块206还包括:将古典类训练集、现代类训练集、通俗类训练集、奇葩类训练集、英文类训练集中的人名资料分别对GRU网络进行训练得到不同训练结果的GRU网络。
所述名字生成模块207将新生儿的人名资料输入到已经训练好的全向性神经网络及GRU网络中输出输出向量,根据所述输出向量与存储的语料库中的所有词向量进行匹配确定所述输出向量对应的名字,其中,所述语料库中的每一个名字进行独热编码后生成一个词向量,语料库中的每一词向量对应一个名字。
本实施方式中,所述根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字包括:计算所述输出向量与语料库中的所有词向量之间的相关度;及将与所述输出向量相关度最高的词向量所对应的名字作为所述输出向量对应的名字。本实施方式中,所述计算所述输出向量与语料库中的所有词向量之间的相关度包括:计算所述输出向量与词向量之间的余弦距离值,并根据所述余弦距离值确定所述输出向量与所述词向量之间的相关度。
在一实施方式中,所述GRU网络的输出向量有三个,每一输出向量为512维。所述将新生儿的人名资料输入到已经训练好的全向性神经网络及GRU网络中输出输出向量,根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字包括:将每一输出向量与语料库中的所有词向量进行匹配确定每一输出向量对应的名字。
本发明通过将新生儿的人名资料输入到已经训练好的全向性神经网络及GRU网络中输出输出向量,并根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字,从而能够根据新生儿的相关资料利用神经网络挖掘特征,使得所取的姓名具有连贯性及联系性。
实施例3
图4为本发明一实施方式中电子设备6的示意图。
所述电子设备6包括存储器61、处理器62以及存储在所述存储器61中并可在所述处理器62上运行的计算机程序63。所述处理器62执行所述计算机程序63时实现上述基于GRU网络的新生儿取名方法实施例中的步骤,例如图1所示的步骤S11~S17。或者,所述处理器62执行所述计算机程序63时实现上述取名装置实施例中各模块/单元的功能,例如图3中的模块201~207。
示例性的,所述计算机程序63可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器62执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,所述指令段用于描述所述计算机程序63在所述电子设备6中的执行过程。例如,所述计算机程序63可以被分割成图3中的数据获取模块201、选择模块202、数字化处理模块203、特征向量提取模块204、构建模块205、训练模块206及名字生成模块207,各模块具体功能参见实施例3。
本实施方式中,所述电子设备6可以是桌上型计算机、笔记本、掌上电脑及云端终端装置等计算设备。本领域技术人员可以理解,所述示意图仅仅是电子设备6的示例,并不构成对电子设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备6还可以包括输入输出设备、网络接入设备、总线等。
所称处理器62可以是中央处理模块(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者所述处理器62也可以是任何常规的处理器等,所述处理器62是所述电子设备6的控制中心,利用各种接口和线路连接整个电子设备6的各个部分。
所述存储器61可用于存储所述计算机程序63和/或模块/单元,所述处理器62通过运行或执行存储在所述存储器61内的计算机程序和/或模块/单元,以及调用存储在存储器61内的数据,实现所述电子设备6的各种功能。所述存储器61可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备6的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器61可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述电子设备6集成的模块/单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,所述计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应该理解到,所揭露的电子设备和方法,可以通过其它的方式实现。例如,以上所描述的电子设备实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能模块可以集成在相同处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在相同模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他模块或步骤,单数不排除复数。电子设备权利要求中陈述的多个模块或电子设备也可以由同一个模块或电子设备通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于GRU网络的新生儿取名方法,其特征在于,所述方法包括:
获取人名相关的数据资料库,并根据人名属性对所述数据资料库划分不同的训练集;
根据用户选择的人名属性,选择与所述人名属性对应的训练集;
将选择的所述训练集中的人名资料进行数字化处理;将经过数字化处理的所述训练集中的所述人名资料经过全向性神经网络进行特征提取得到所述人名资料的特征向量;
构建GRU网络;
确定新生儿的姓氏所对应的词向量,及将新生儿的姓氏所对应的词向量与所述人名资料的特征向量拼接得到输入向量,将所述输入向量输入到所述GRU网络中,并训练所述全向性神经网络及所述GRU网络;及
将新生儿的所述人名资料输入到已经训练好的所述全向性神经网络及所述GRU网络中输出输出向量,根据所述输出向量与存储的语料库中的所有词向量进行匹配确定所述输出向量对应的名字,其中,所述语料库中的每一个名字进行独热编码后生成一个词向量,所述语料库中的每一词向量对应一个名字。
2.如权利要求1所述的基于GRU网络的新生儿取名方法,其特征在于,
所述GRU网络包括三层,分别为输入层、隐藏层及输出层,所述输入层与所述隐藏层之间全向连接,所述隐藏层与所述输出层之间全向连接,所述隐藏层的激活函数为sigmoid函数,所述输出层的激活函数为softmax函数,所述GRU网络的前向传播公式为:
rt=σ(Wr*[ht-1,xt]);
Zt=σ(Wz*[ht-1,xt]);
yt=σ(Wo*ht);
3.如权利要求1所述的基于GRU网络的新生儿取名方法,其特征在于,所述训练所述全向性神经网络及所述GRU网络包括:
通过反向传播的方法对所述全向性神经网络及GRU网络进行训练。
4.如权利要求1所述的基于GRU网络的新生儿取名方法,其特征在于,所述训练所述全向性神经网络及所述GRU网络包括:
将所述训练集中的所有人名资料数字化处理后分为n个批次,每个批次大小为100;
分别初始化所述全向性神经网络的各层权重及所述GRU网络的各层权重;
从n个批次中选择一批次数据作为本次的训练集;
将本次的训练集中的数据输入到所述全向神经网络中得到所述人名资料的特征向量;
将新生儿的姓氏所对应的词向量与所述人名资料的特征向量拼接得到输入向量,并将所述输入向量输入到所述GRU网络中输出至少一输出向量;
计算所述输出向量与所述词向量之间的误差,并判断所述误差是否在一预设范围内;
当所述误差在所述预设范围内时完成对所述全向性神经网络及GRU网络的训练;及
当所述误差不再所述预设范围内时利用梯度下降算法中的自适应矩估计优化算法更新所述全向性神经网络及GRU网络的权值,并利用所述训练集中的下一批次数据对所述全向性神经网络及所述GRU网络进行训练。
5.如权利要求1所述的基于GRU网络的新生儿取名方法,其特征在于,所述根据所述输出向量与语料库中的所有词向量进行匹配确定所述输出向量对应的名字包括:
计算所述输出向量与所述语料库中的所有词向量之间的相关度;及
将与所述输出向量相关度最高的词向量所对应的名字作为所述输出向量对应的名字。
6.如权利要求5所述的基于GRU网络的新生儿取名方法,其特征在于,所述计算所述输出向量与语料库中的所有词向量之间的相关度包括:
计算所述输出向量与所述词向量之间的余弦距离值,并根据所述余弦距离值确定所述输出向量与所述词向量之间的相关度。
7.如权利要求1所述的基于GRU网络的新生儿取名方法,其特征在于,所述将经过数字化处理的训练集中的人名资料经过全向性神经网络进行特征提取得到人名资料的特征向量包括:
将经过数字化处理的所述人名资料中的出生日期、父母的名字、出生地、生肖属相、五行八卦数据归一化,并将归一化后的所述人名资料输入全向性神经网络进行特征提取得到所述人名资料的特征向量。
8.如权利要求7所述的基于GRU网络的新生儿取名方法,其特征在于,所述全向性神经网络包括输入层、隐藏层及输出层,所述输入层与所述隐藏层全向性连接,所述隐藏层与所述输出层全向性连接,所述将归一化后的所述人名资料输入全向性神经网络进行特征提取得到所述人名资料的特征向量包括:将所述人员资料的数据经过所述输入层、所述隐藏层输出后通过sigmoid激活函数处理输出到所述输出层,所述输出层经过sigmoid激活函数处理后输出所述人名资料的特征向量。
9.一种电子设备,其特征在于:所述电子设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1-8中任一项所述基于GRU网络的新生儿取名方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-8中任一项所述基于GRU网络的新生儿取名方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910887885.4A CN110716964A (zh) | 2019-09-19 | 2019-09-19 | 基于gru网络的新生儿取名方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910887885.4A CN110716964A (zh) | 2019-09-19 | 2019-09-19 | 基于gru网络的新生儿取名方法、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110716964A true CN110716964A (zh) | 2020-01-21 |
Family
ID=69209970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910887885.4A Pending CN110716964A (zh) | 2019-09-19 | 2019-09-19 | 基于gru网络的新生儿取名方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110716964A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115017274A (zh) * | 2021-11-17 | 2022-09-06 | 广东东软学院 | 一种基于大数据取新生儿名字的方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101556574A (zh) * | 2008-04-09 | 2009-10-14 | 北京美名腾网络技术有限公司 | 基于用户意愿的计算机智能起名 |
CN104038411A (zh) * | 2014-06-24 | 2014-09-10 | 广州金山网络科技有限公司 | 一种生成用户名的方法及系统 |
US20170193361A1 (en) * | 2015-12-31 | 2017-07-06 | Microsoft Technology Licensing, Llc | Neural network training performance optimization framework |
CN108763191A (zh) * | 2018-04-16 | 2018-11-06 | 华南师范大学 | 一种文本摘要生成方法及系统 |
WO2018207723A1 (ja) * | 2017-05-08 | 2018-11-15 | 国立研究開発法人情報通信研究機構 | 要約生成装置、要約生成方法及びコンピュータプログラム |
CN109447244A (zh) * | 2018-10-11 | 2019-03-08 | 中山大学 | 一种结合门控循环单元神经网络的广告推荐方法 |
-
2019
- 2019-09-19 CN CN201910887885.4A patent/CN110716964A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101556574A (zh) * | 2008-04-09 | 2009-10-14 | 北京美名腾网络技术有限公司 | 基于用户意愿的计算机智能起名 |
CN104038411A (zh) * | 2014-06-24 | 2014-09-10 | 广州金山网络科技有限公司 | 一种生成用户名的方法及系统 |
US20170193361A1 (en) * | 2015-12-31 | 2017-07-06 | Microsoft Technology Licensing, Llc | Neural network training performance optimization framework |
WO2018207723A1 (ja) * | 2017-05-08 | 2018-11-15 | 国立研究開発法人情報通信研究機構 | 要約生成装置、要約生成方法及びコンピュータプログラム |
CN108763191A (zh) * | 2018-04-16 | 2018-11-06 | 华南师范大学 | 一种文本摘要生成方法及系统 |
CN109447244A (zh) * | 2018-10-11 | 2019-03-08 | 中山大学 | 一种结合门控循环单元神经网络的广告推荐方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115017274A (zh) * | 2021-11-17 | 2022-09-06 | 广东东软学院 | 一种基于大数据取新生儿名字的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110110041B (zh) | 错词纠正方法、装置、计算机装置及存储介质 | |
CN109241524B (zh) | 语义解析方法及装置、计算机可读存储介质、电子设备 | |
CN109960800B (zh) | 基于主动学习的弱监督文本分类方法及装置 | |
WO2020224219A1 (zh) | 中文分词方法、装置、电子设备及可读存储介质 | |
US20160306800A1 (en) | Reply recommendation apparatus and system and method for text construction | |
CN112231569B (zh) | 新闻推荐方法、装置、计算机设备及存储介质 | |
CN110286778B (zh) | 一种中文深度学习输入法、装置及电子设备 | |
CN112183747A (zh) | 神经网络训练的方法、神经网络的压缩方法以及相关设备 | |
CN111460812B (zh) | 语句情感分类方法及相关设备 | |
CN108765076B (zh) | 母婴内容推荐方法、装置及可读存储介质 | |
CN110427480B (zh) | 个性化文本智能推荐方法、装置及计算机可读存储介质 | |
CN113722438B (zh) | 基于句向量模型的句向量生成方法、装置及计算机设备 | |
CN110705585A (zh) | 网络欺诈识别方法、装置、计算机装置及存储介质 | |
CN110619051A (zh) | 问题语句分类方法、装置、电子设备及存储介质 | |
CN112257578A (zh) | 人脸关键点检测方法、装置、电子设备及存储介质 | |
CN111223481B (zh) | 信息提取方法、装置、计算机可读存储介质及电子设备 | |
CN113836295B (zh) | 一种文本摘要提取方法、系统、终端及存储介质 | |
CN111767375A (zh) | 语义召回方法、装置、计算机设备及存储介质 | |
CN109117474A (zh) | 语句相似度的计算方法、装置及存储介质 | |
CN112820269A (zh) | 文本转语音方法、装置、电子设备及存储介质 | |
CN112668336A (zh) | 一种基于任务模型的词语处理方法 | |
CN112214515A (zh) | 数据自动匹配方法、装置、电子设备及存储介质 | |
CN112199958A (zh) | 概念词序列生成方法、装置、计算机设备及存储介质 | |
CN111444321B (zh) | 问答方法、装置、电子设备和存储介质 | |
CN110716964A (zh) | 基于gru网络的新生儿取名方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200121 |