CN108228910A - 一种将循环神经网络应用在关联选择问题上的方法 - Google Patents

一种将循环神经网络应用在关联选择问题上的方法 Download PDF

Info

Publication number
CN108228910A
CN108228910A CN201810133342.9A CN201810133342A CN108228910A CN 108228910 A CN108228910 A CN 108228910A CN 201810133342 A CN201810133342 A CN 201810133342A CN 108228910 A CN108228910 A CN 108228910A
Authority
CN
China
Prior art keywords
neural network
recurrent neural
recognition
option
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810133342.9A
Other languages
English (en)
Other versions
CN108228910B (zh
Inventor
马佳
高伟
邓森洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mdt Infotech Ltd Jiaxing
Original Assignee
Mdt Infotech Ltd Jiaxing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mdt Infotech Ltd Jiaxing filed Critical Mdt Infotech Ltd Jiaxing
Priority to CN201810133342.9A priority Critical patent/CN108228910B/zh
Publication of CN108228910A publication Critical patent/CN108228910A/zh
Application granted granted Critical
Publication of CN108228910B publication Critical patent/CN108228910B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种将循环神经网络应用在关联选择问题上的方法,包括以下步骤:预处理选项及值;创建预处理后的选项及值字典;创建选项值的数值映射;确定循环神经网络输入层及输出层的个数;确定样本中的初始及结束标示;确定循环神经网络循环的次数;对相关的样本进行训练;对相关内容进行预测。本发明通过基于循环神经网络的方式来处理关联问题,可以避免预先有人工定义的方式来设定关联问题的规则,并且根据用户每次关联选择内容的不同,不断对循环神经网络中的内容进行更新,最终达到最好的效果,大幅度提高了企业的标准化。

Description

一种将循环神经网络应用在关联选择问题上的方法
技术领域
本发明涉及人工智能、机器学习领域,具体是一种将循环神经网络应用在关联选择问题上的方法。
背景技术
当前,在用户需求多变的背景下,定制化思想深入到各行各业,而如何快速,并有效的提高用户需求的录入体验是非常重要的内容。
在各种用户需求交互的场景中,为了提高用户的录入体验,经常会提供关联选择的内容。关联选择主要是通过确定了X的内容后,Y的内容依据X选定的内容而变化,因Y的内容依赖X,甚至依赖X和其他内容确定后(比如X、A、B内容确定后),Y的内容会随之变化。为了要达到关联选择的要求,传统的做法,需要预先定义关联的内容规则,比如定义X=x.value1时Y=y.value1或Y=y.value2或Y=y.value3,则用户在X中选择了x.value1时,Y就会根据规则自动的确定y.value1/y.value2/y.value3。通过传统方式,需要在使用之前,投入精力创建大量的预先定义的内容。
由于关联问题的情况,涉及到时序性的问题,其符合循环神经网络应用的特点,因此此处考虑采用循环神经网络的方式来处理关联问题。为此,本领域技术人员提出了一种将循环神经网络应用在关联选择问题上的方法,以解决上述背景技术中提出的问题。
发明内容
本发明的目的在于提供一种将循环神经网络应用在关联选择问题上的方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种将循环神经网络应用在关联选择问题上的方法,包括以下步骤:
S1,预处理选项及值;
S2,创建预处理后的选项及值字典;
S3,创建选项值的数值映射;
S4,确定循环神经网络输入层及输出层的个数;
S5,确定样本中的初始及结束标示;
S6,确定循环神经网络循环的次数;
S7,对相关的样本进行训练;
S8,对相关内容进行预测。
作为本发明进一步的方案:在步骤S1中,将选项与其值之间组合成一个整体内容。
作为本发明进一步的方案:在步骤S2中,根据预处理后的选项及值的内容,对于每一个独立的值进行抽取,并将其放入选项及值字典中。
作为本发明进一步的方案:在步骤S3中,根据选项及值的字典,创建每一个值的特征映射,并将特征映射的内容定义为一个N维向量;其中,N维向量的维度由选项字典中的大小决定。
作为本发明进一步的方案:在步骤S4中,依据创建的选项及值的数值映射,创建神经网络的输入层及输出层的神经元个数,此处采用的输入及输出的神经元个数与进行数值映射后的向量的维度相同,即输入、输出的神经元个数都是N个。
作为本发明进一步的方案:在步骤S5中,对每一组待训练的关联选择的样本都给出初始及结束标示。
作为本发明进一步的方案:在步骤S6中,确定循环次数,由所有待训练的关联选择的样本来确定,并且选取其中关联选择中选项最多的关联选择组中选项的个数来确定,即Max(N(1) Options, N(2) Options, N(3) Options,…, N(n) Options),其他的样本中若长度不能达到最大的值,其余的内容补零进行填充。
作为本发明进一步的方案:在步骤S7中,对获取到的样本数据进行训练,获取目标关联选项组,将所有的关联选项组以行的形式组织成样本矩阵,该样本矩阵的行数为关联选项组的个数,列为选项字典的个数,代入到已经定义好的循环神经网络中,并选取合适的激活函数和损失函数,通过计算得到相应的权值矩阵,最终得到符合预期的网络。
作为本发明进一步的方案:在步骤S8中,利用训练后的循环神经网络进行预测,并根据概率由高到低给出用户所需的选项及值。
与现有技术相比,本发明的有益效果是:该将循环神经网络应用在关联选择问题上的方法,通过基于循环神经网络的方式来处理关联问题,可以避免预先有人工定义的方式来设定关联问题的规则,并且根据用户每次关联选择内容的不同,不断对循环神经网络中的内容进行更新,最终达到最好的效果,大幅度提高了企业的标准化。
附图说明
图1为本发明的实现示意图。
图2为本发明中选项向量化示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1~2,本发明实施例中,一种将循环神经网络应用在关联选择问题上的方法,包括以下步骤:
S1,预处理选项及值;
S2,创建预处理后的选项及值字典;
S3,创建选项值的数值映射;
S4,确定循环神经网络输入层及输出层的个数;
S5,确定样本中的初始及结束标示;
S6,确定循环神经网络循环的次数;
S7,对相关的样本进行训练;
S8,对相关内容进行预测。
在步骤S1中,重定义选项与其值之间的关系。将选项与其值之间组合成一个整体内容,比如x=value1,将其重定义为x.value1的方式。
在步骤S2中,根据预处理后的选项及值的内容,对于每一个独立的值进行抽取,并将其放入选项及值字典中。
在步骤S3中,根据选项及值的字典,创建每一个子的特征映射,此处将特征映射的内容定义为一个N维向量;其中,N维向量的维度由选项字典中的大小决定。
在步骤S4中,依据创建的选项及值的数值映射,创建神经网络的输入层及输出层的神经元个数,此处采用的输入及输出的神经元个数与进行数值映射后的向量的维度相同,即输入、输出的神经元个数都是N个。
在步骤S5中,由于每一个用户的输入都是有限个要素的累积,因此在对于最后一个选项预测后,需要给出结束标示,以表示该关联问题的预测结束;并且在用户没有输入之前,也应该给出在没有任何要素输入之前,哪些选项的哪些值是待选的,因此需要给每一组待训练的关联选择的样本都给出初始及结束标示。
在步骤S6中,循环神经网络亦成为递归神经网络,实际上其是有多个神经网络组合而成,只是由于其网络结构相同,并且下个神经网络需要与前一个神经网络之间建立关联,因此将其通过递归组合在一起。对于循环神经网络来说(亦称递归神经网络),其需要循环(递归)的次数是由需要多少个神经网络组成来决定。确定循环(递归)次数,由所有待训练的关联选择的样本来确定,并且选取其中关联选择中选项最多的关联选择组中选项的个数来确定,即Max(N(1) Options, N(2) Options, N(3) Options,…, N(n) Options),其他的样本中如果长度不能达到最大的值,其余的内容补零进行填充。
在步骤S7中,对获取到的样本数据进行训练。获取目标关联选项组,将所有的关联选项组以行的形式组织成样本矩阵(该样本矩阵的行数为关联选项组的个数,列为选项字典的个数),代入到已经定义好的循环神经网络中,并选取合适的激活函数(如Tanh,Sigmoid,ReLu等)和损失函数(如交叉熵等),通过计算(BP神经网络等),得到相应的权值矩阵,最终得到符合预期的网络。
在步骤S8中,利用训练后的循环神经网络进行预测。循环神经网络训练结束后,用户再进行关联选项的选择后,就会依据已经训练后的循环神经网络预测下一个选项及值出现的概率,并根据概率由高到低给出用户所需的选项及值。
该将循环神经网络应用在关联选择问题上的方法,通过基于循环神经网络的方式来处理关联问题,可以避免预先有人工定义的方式来设定关联问题的规则,并且根据用户每次关联选择内容的不同,不断对循环神经网络中的内容进行更新,最终达到最好的效果,大幅度提高了企业的标准化。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (9)

1.一种将循环神经网络应用在关联选择问题上的方法,其特征在于,包括以下步骤:
S1,预处理选项及值;
S2,创建预处理后的选项及值字典;
S3,创建选项值的数值映射;
S4,确定循环神经网络输入层及输出层的个数;
S5,确定样本中的初始及结束标示;
S6,确定循环神经网络循环的次数;
S7,对相关的样本进行训练;
S8,对相关内容进行预测。
2.根据权利要求1所述的将循环神经网络应用在关联选择问题上的方法,其特征在于,在步骤S1中,将选项与其值之间组合成一个整体内容。
3.根据权利要求1或2所述的将循环神经网络应用在关联选择问题上的方法,其特征在于,在步骤S2中,根据预处理后的选项及值的内容,对于每一个独立的值进行抽取,并将其放入选项及值字典中。
4.根据权利要求3所述的将循环神经网络应用在关联选择问题上的方法,其特征在于,在步骤S3中,根据选项及值的字典,创建每一个值的特征映射,并将特征映射的内容定义为一个N维向量;其中,N维向量的维度由选项字典中的大小决定。
5.根据权利要求4所述的将循环神经网络应用在关联选择问题上的方法,其特征在于,在步骤S4中,依据创建的选项及值的数值映射,创建神经网络的输入层及输出层的神经元个数,此处采用的输入及输出的神经元个数与进行数值映射后的向量的维度相同,即输入、输出的神经元个数都是N个。
6.根据权利要求1所述的将循环神经网络应用在关联选择问题上的方法,其特征在于,在步骤S5中,对每一组待训练的关联选择的样本都给出初始及结束标示。
7.根据权利要求1所述的将循环神经网络应用在关联选择问题上的方法,其特征在于,在步骤S6中,确定循环次数,由所有待训练的关联选择的样本来确定,并且选取其中关联选择中选项最多的关联选择组中选项的个数来确定,即Max(N(1) Options, N(2) Options, N(3) Options,…, N(n) Options),其他的样本中若长度不能达到最大的值,其余的内容补零进行填充。
8.根据权利要求1或7所述的将循环神经网络应用在关联选择问题上的方法,其特征在于,在步骤S7中,对获取到的样本数据进行训练,获取目标关联选项组,将所有的关联选项组以行的形式组织成样本矩阵,该样本矩阵的行数为关联选项组的个数,列为选项字典的个数,代入到已经定义好的循环神经网络中,并选取合适的激活函数和损失函数,通过计算得到相应的权值矩阵,最终得到符合预期的网络。
9.根据权利要求8所述的将循环神经网络应用在关联选择问题上的方法,其特征在于,在步骤S8中,利用训练后的循环神经网络进行预测,并根据概率由高到低给出用户所需的选项及值。
CN201810133342.9A 2018-02-09 2018-02-09 一种将循环神经网络应用在关联选择问题上的方法 Active CN108228910B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810133342.9A CN108228910B (zh) 2018-02-09 2018-02-09 一种将循环神经网络应用在关联选择问题上的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810133342.9A CN108228910B (zh) 2018-02-09 2018-02-09 一种将循环神经网络应用在关联选择问题上的方法

Publications (2)

Publication Number Publication Date
CN108228910A true CN108228910A (zh) 2018-06-29
CN108228910B CN108228910B (zh) 2023-05-12

Family

ID=62661342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810133342.9A Active CN108228910B (zh) 2018-02-09 2018-02-09 一种将循环神经网络应用在关联选择问题上的方法

Country Status (1)

Country Link
CN (1) CN108228910B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060224533A1 (en) * 2005-03-14 2006-10-05 Thaler Stephen L Neural network development and data analysis tool
CN104572982A (zh) * 2014-12-31 2015-04-29 东软集团股份有限公司 基于问题引导的个性化推荐方法及系统
CN105528374A (zh) * 2014-10-21 2016-04-27 苏宁云商集团股份有限公司 一种电子商务中的商品推荐方法及其系统
CN106778014A (zh) * 2016-12-29 2017-05-31 浙江大学 一种基于循环神经网络的患病风险预测方法
US20170192671A1 (en) * 2014-04-04 2017-07-06 Touchtype Ltd. System and method for inputting one or more inputs associated with a multi-input target
CN107239828A (zh) * 2016-03-28 2017-10-10 日本电气株式会社 在神经网络中进行特征选择及构建神经网络的方法和设备
CN107451199A (zh) * 2017-07-05 2017-12-08 阿里巴巴集团控股有限公司 问题推荐方法及装置、设备
US20170372696A1 (en) * 2016-06-28 2017-12-28 Samsung Electronics Co., Ltd. Language processing method and apparatus
CN107608956A (zh) * 2017-09-05 2018-01-19 广东石油化工学院 一种基于cnn‑grnn的读者情绪分布预测算法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060224533A1 (en) * 2005-03-14 2006-10-05 Thaler Stephen L Neural network development and data analysis tool
US20170192671A1 (en) * 2014-04-04 2017-07-06 Touchtype Ltd. System and method for inputting one or more inputs associated with a multi-input target
CN105528374A (zh) * 2014-10-21 2016-04-27 苏宁云商集团股份有限公司 一种电子商务中的商品推荐方法及其系统
CN104572982A (zh) * 2014-12-31 2015-04-29 东软集团股份有限公司 基于问题引导的个性化推荐方法及系统
CN107239828A (zh) * 2016-03-28 2017-10-10 日本电气株式会社 在神经网络中进行特征选择及构建神经网络的方法和设备
US20170372696A1 (en) * 2016-06-28 2017-12-28 Samsung Electronics Co., Ltd. Language processing method and apparatus
CN106778014A (zh) * 2016-12-29 2017-05-31 浙江大学 一种基于循环神经网络的患病风险预测方法
CN107451199A (zh) * 2017-07-05 2017-12-08 阿里巴巴集团控股有限公司 问题推荐方法及装置、设备
CN107608956A (zh) * 2017-09-05 2018-01-19 广东石油化工学院 一种基于cnn‑grnn的读者情绪分布预测算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DBAPLUS社群MP_HB1: "零基础入门深度学习(四):循环神经网络", 《HTTPS://WWW.SOHU.COM/A/118587343_487514》 *
李如强;陈进;伍星;: "基于知识的模糊神经网络的旋转机械故障诊断", 应用数学和力学 *

Also Published As

Publication number Publication date
CN108228910B (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
EP3992857A1 (en) Method and device for generating neural network model, and computer-readable storage medium
US10984308B2 (en) Compression method for deep neural networks with load balance
CN109923558A (zh) 混合专家神经网络
CN107358293B (zh) 一种神经网络训练方法及装置
CN105159962B (zh) 职位推荐方法与装置、简历推荐方法与装置、招聘平台
KR102061615B1 (ko) 인공 신경망 모델에서 메모리 효율성 및 학습 속도 향상을 위한 드롭아웃 방법과 이를 이용한 학습 방법
CN109360097A (zh) 基于深度学习的股票预测方法、装置、设备及存储介质
WO2018081563A9 (en) NEURONAL ARCHITECTURE RESEARCH
CN107451653A (zh) 深度神经网络的计算方法、装置及可读存储介质
CN106777402B (zh) 一种基于稀疏神经网络的图像检索文本方法
CN109034896A (zh) 一种广告投放人群预测方法及装置
CN108038539A (zh) 一种集成长短记忆循环神经网络与梯度提升决策树的方法
CN108364068A (zh) 基于有向图的深度学习神经网络构建方法和机器人系统
CN114117945B (zh) 基于用户-服务交互图的深度学习云服务QoS预测方法
CN109508784A (zh) 一种神经网络激活函数的设计方法
CN108230121A (zh) 一种基于循环神经网络的产品设计方法
CN106354836A (zh) 一种广告页面的预测方法和装置
CN108875917A (zh) 一种用于卷积神经网络处理器的控制方法及装置
CN108280207A (zh) 一种构造完美哈希的方法
CN104221019A (zh) 用于在基于随机索引的系统中增强情境智能的方法和装置
CN108921281A (zh) 一种基于深度网络和对抗技术的领域适配方法
CN109903100A (zh) 一种用户流失预测方法、装置及可读存储介质
CN108320019B (zh) 用于深度卷积神经网络的卷积计算方法及装置
CN110222816B (zh) 深度学习模型的建立方法、图像处理方法及装置
CN112949835A (zh) 基于卷积循环神经网络对知识图谱的推理方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant