CN109635088A - 机器人长文本数据聊天的训练方法及装置 - Google Patents

机器人长文本数据聊天的训练方法及装置 Download PDF

Info

Publication number
CN109635088A
CN109635088A CN201811526725.9A CN201811526725A CN109635088A CN 109635088 A CN109635088 A CN 109635088A CN 201811526725 A CN201811526725 A CN 201811526725A CN 109635088 A CN109635088 A CN 109635088A
Authority
CN
China
Prior art keywords
long article
data
article notebook
data source
notebook data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811526725.9A
Other languages
English (en)
Inventor
姜伟敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Di Di Information Technology Ltd By Share Ltd
Original Assignee
Shenzhen Di Di Information Technology Ltd By Share Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Di Di Information Technology Ltd By Share Ltd filed Critical Shenzhen Di Di Information Technology Ltd By Share Ltd
Priority to CN201811526725.9A priority Critical patent/CN109635088A/zh
Publication of CN109635088A publication Critical patent/CN109635088A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种机器人长文本数据聊天的训练方法及装置,其中,所述机器人长文本数据聊天的训练方法包括:获取目标专业知识的数据源,所述数据源包括问题数据源及对应的答案数据源;利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案。本发明的技术方案能够在系统消耗较小的情况下实现专业领域机器人长文本聊天,能够缩短机器人的训练周期,同时能够自动加载训练模型结果,实现高效地自主对话。

Description

机器人长文本数据聊天的训练方法及装置
技术领域
本发明涉及机器人技术领域,尤其涉及一种机器人长文本数据聊天的训练方法、装置、计算机设备及存储介质。
背景技术
目前聊天机器人大多应用了tensorflow中seq2seq模型技术。seq2seq模型是基于循环神经网络的一种序列到序列模型,在传统模型基础上引入注意力模型(attention模型),可以解决seq2seq中解码器只接收编码最后一个输出而远离之前输出导致信息丢失问题。上述的聊天机器人模式在语言翻译、自动问答等场景中被广泛使用。现有技术中基于seq2seq模型的机器人自主对话聊天系统,仅限于短语问话(字符串长度小于30),类似于生活闲聊的场景。在处理专业领域长文本信息时,直接在对话系统中训练对话模型,引起系统开销巨大,甚至出现系统崩溃终止训练,同时训练时间周期长等问题,给实际开发专业领域的自主聊天机器人带来了巨大挑战。
有鉴于此,有必要提出对目前聊天机器人的聊天数据技术进行进一步的改进。
发明内容
为解决上述至少一技术问题,本发明的主要目的是提供一种机器人长文本数据聊天的训练方法、装置、计算机设备及存储介质。
为实现上述目的,本发明采用的第一个技术方案为:提供一种机器人长文本数据聊天的训练方法,包括:
获取目标专业知识的数据源,所述数据源包括问题数据源及对应的答案数据源;
利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;
基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;
在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案。
其中,所述获取目标专业知识的数据源,具体包括:
利用网络爬虫方式获取目标专业知识的网络数据;
更新本地数据库中的数据。
其中,所述利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词,具体包括:
利用本地词典对数据源的长文本数据进行分词处理;
对分词处理后的词语进行同义词扩展处理;
利用主题LDA模型抽取长文本数据中的至少一主题词,并将抽取的主题词按照概率值的高低进行排序。
其中,所述利用主题LDA模型抽取长文本数据中的至少一主题词之后,还包括:
将长文本数据与至少一主题词的对应关系进行存储。
其中,所述利用机器人自主对话模型输出用户输入问题对应的答案,还包括:
根据存储的长文本数据与至少一主题词的对应关系,还原并输出用户输入问题对应的长文本数据。
为实现上述目的,本发明采用的第二个技术方案为:提供一种机器人长文本数据聊天的训练装置,包括:
获取模块,用于获取目标专业知识的数据源,所述数据源包括问题数据源及对应的答案数据源;
长文本处理模块,用于利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;
模型训练模块,用于基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;
输出模块,用于在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案。
其中,所述长文本处理模块,包括:
分词处理单元,用于利用本地词典对数据源的长文本数据进行分词处理;
分词扩展单元,用于对分词处理后的词语进行同义词扩展处理;
主题词抽取单元,用于利用主题LDA模型抽取长文本数据中的至少一主题词,并将抽取的主题词按照概率值的高低进行排序。
其中,所述输出模块,还用于:
根据存储的长文本数据与至少一主题词的对应关系,还原并输出用户输入问题对应的长文本数据。
为实现上述目的,本发明采用的第三个技术方案为:提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上方法的步骤。
为实现上述目的,本发明采用的第四个技术方案为:提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法的步骤。
本发明的技术方案采用先获取目标专业知识的数据源,然后利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;再基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;最后在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案,能够在系统消耗较小的情况下实现专业领域机器人长文本聊天,能够缩短机器人训练周期,同时能够自动加载训练模型结果,实现高效地自主对话。
附图说明
图1为本发明一实施例机器人长文本数据聊天的训练方法的方法流程图;
图2为图1中步骤S20的具体流程图;
图3为本发明一实施例机器人长文本数据聊天的训练模块的模块方框图;
图4为图3中长文本处理模块的具体方框图;
图5为本发明一实施例计算机设备的内部结构图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
请参照图1,图1为本发明一实施例机器人长文本数据聊天的训练方法的方法流程图。在本发明实施例中,该机器人长文本数据聊天的训练方法,包括:
步骤S10、获取目标专业知识的数据源,所述数据源包括问题数据源及对应的答案数据源;
步骤S20、利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;
步骤S30、基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;
步骤S40、在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案。
本实施例中,目标专业知识的数据源包含有问题数据源及对应的答案数据源,问题数据源的读取格式为<问题集合:questions>,答案数据源的读取格式为<问题答案集合:answers>。上述步骤中的分词处理,具体包括:通过HanLP分词算法,结合本地自定义词典,对数据源中的长文本数据进行分词处理。再将经过分词处理后的主题词,利用tensorflow中seq2seq模型对机器人进行训练,得到机器人自主对话模型。encoder_inputs输入encoder的第一层LSTM神经元,这个神经元的output传给第二层LSTM神经元,第二层的output再传给第三层,而encoder的第一层输出的state则传给decoder第一层的LSTM神经元,依次类推。在训练过程中,还设置有损失函数loss(目标词语的平均负对数概率最小),通过梯度下降方法更新参数,直至损失函数收敛训练结束。在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案,实现机器人长文本数据聊天。人机对话时,程序自动加载本地保存的机器人自主对话模型,利用机器人自主对话模型对数据进行还原操作,以输出用户输入问题对应的答案。
本发明的技术方案采用先获取目标专业知识的数据源,然后利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;再基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;最后在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案,能够在系统消耗较小的情况下实现专业领域机器人长文本聊天,能够缩短机器人训练周期,同时能够自动加载训练模型结果,实现高效地自主对话。
在一具体的实施方式中,所述获取目标专业知识的数据源,具体包括:
利用网络爬虫方式获取目标专业知识的网络数据;
更新本地数据库中的数据。
本实施例中,数据源存储于本地知识库中,数据源为专业知识领域数据信息的积累。为了扩展数据源,尽可能获得多样化的数据类型,本方案还采用利用网络爬虫方式获取目标专业知识的网络数据,然后更新本地数据库中的数据。
请参照图2,图2为图1中步骤S20的具体流程图。在一具体的实施方式中,所述利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词,具体包括:
步骤S21、利用本地词典对数据源的长文本数据进行分词处理;
步骤S22、对分词处理后的词语进行同义词扩展处理;
步骤S23、利用主题LDA模型抽取长文本数据中的至少一主题词,并将抽取的主题词按照概率值的高低进行排序。
本实施例中,分词处理具体为,通过HanLP分词算法,结合本地自定义词典,能够对数据源中数据进行精确地分词处理。为了提高抽取主题的广度信息,对分词后的数据进行数据扩展等处理(同义词扩展)。在利用本地词典对数据源的长文本数据进行分词处理的基础上,再通过基于主题LDA模型(无监督的贝叶斯模型),对每条长文本信息在主题分布中抽取主题词,然后随机抽取分词后的子对象进行一次P(w|d)计算(w:代表词语,d:表示文档),重复以上操作,直至遍历整条长文本信息中的每个主题词。例如,专业知识问题(question1):“投资者如何偿还融券债务?”,专业知识问题对应的答案(answer1):“偿还融券债务的方式有下列二种:
1、买券还券。通过申报买券还券指令,买进与融券证券相同品种的证券后,在结算时偿还融券证券。客户买券还券的申报数量不得高于融券余量+100股(份)。
2、直接还券。客户从普通证券账户向信用证券账户转入与融券同品种的证券或直接用信用账户买入与融券同品种的证券后,通过证券公司交易系统申报直接还券指令。”
专业知识长文本答案通过基于主题LDA模型时,answer1首先被分词(去除停用词后结果)后的句子子对象:“偿还”,“融券债务”,“买券还券”,“...”,...,“直接还券”,...,p(偿还|answer)=0.018,p(融券债务|answer)=0.025,p(买券还券|answer)=0.020,...,p(直接还券|answer)=0.019...;对每条长文本信息对应的主题按照概率值排列,格式:主题词1/概率值1,主题词2/概率值2,主题词3/概率值3,...主题词n/概率值n,最终输出长文本信息的主题对象:主题词,同时在本地文件中保存长文本和主题词对应关系。比如例子中answer1抽取主题后简化为:融券债务,买券还券,直接买券。
在一具体的实施方式中,所述利用主题LDA模型抽取长文本数据中的至少一主题词之后,还包括:
将长文本数据与至少一主题词的对应关系进行存储。如此,可以根据
在一具体的实施方式中,所述利用机器人自主对话模型输出用户输入问题对应的答案,还包括:
根据存储的长文本数据与至少一主题词的对应关系,还原并输出用户输入问题对应的长文本数据。本实施例中,数据还原操作,即对问题答案和主题进行逆向转换操作,根据答案主题和答案questions之间的对应关系,实现长文本还原操作。例如,金融领域自助对话机器人,用户输入问题question1:“投资者如何偿还融券债务?”;问题经过自主对话模型,输出问题对应答案:“融券债务,买券还券,直接买券”,然后,根据数据库中“融券债务,买券还券,直接买券”与answers对应关系,输出最终answer1答案。
请参照图3,图3为本发明一实施例机器人长文本数据聊天的训练模块的模块方框图。本发明的实施例中,该机器人长文本数据聊天的训练装置,包括:
获取模块10,用于获取目标专业知识的数据源,所述数据源包括问题数据源及对应的答案数据源;
长文本处理模块20,用于利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;
模型训练模块30,用于基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;
输出模块40,用于在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案。
本实施例中,通过获取模块10可以获取目标专业知识的数据源,以实现对目标专业知识问题的解答。通过长文本处理模块20,可以对数据源中的长文本数据进行分词处理,抽取一个或一个以上的主题词。该模型训练模块30,将利用tensorflow中seq2seq模型对抽取的一个或一个以上的主题词进行训练,得到机器人自主对话模型。在人机对话中,可以利用机器人自主对话模型输出用户输入问题对应的答案,实现长文本数据聊天。
请参照图4,图4为图3中长文本处理模块20的具体模方框图。在一具体的实施方式中,所述长文本处理模块20,包括:
分词处理单元21,用于利用本地词典对数据源的长文本数据进行分词处理;
分词扩展单元22,用于对分词处理后的词语进行同义词扩展处理;
主题词抽取单元23,用于利用主题LDA模型抽取长文本数据中的至少一主题词,并将抽取的主题词按照概率值的高低进行排序。
本实施例中,利用分词处理单元21对分词处理,具体为,通过HanLP分词算法,结合本地自定义词典,对数据源中数据进行分词处理,数据规范化操作。为了提高抽取主题的广度信息,通过分词扩展单元22,对分词后的数据进行数据扩展等处理(同义词扩展)。再通过主题词抽取单元23,在基于主题LDA模型(无监督的贝叶斯模型)下,对每条长文本信息在主题分布中抽取主题词,然后随机抽取分词后的子对象进行一次P(w|d)计算(w:代表词语,d:表示文档),重复以上操作,直至遍历整条长文本信息中的每个主题词。
在一具体的实施方式中,所述输出模块40,还用于:
根据存储的长文本数据与至少一主题词的对应关系,还原并输出用户输入问题对应的长文本数据。
本实施例中,输出模块40,可以根据存储的长文本数据与至少一主题词的对应关系,还原并输出用户输入问题对应的长文本数据。本实施例中,数据还原操作,即对问题答案和主题进行逆向转换操作,根据答案主题和答案questions之间的对应关系,实现长文本还原操作。
请参照图5,图5为本发明一实施例计算机设备的内部结构图。在一实施例中,该计算机设备包括通过系统总线连接的处理器、存储器及网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种机器人长文本数据聊天的训练方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以上各个方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以上各个方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。

Claims (10)

1.一种机器人长文本数据聊天的训练方法,其特征在于,所述机器人长文本数据聊天的训练方法包括:
获取目标专业知识的数据源,所述数据源包括问题数据源及对应的答案数据源;
利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;
基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;
在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案。
2.如权利要求1所述的机器人长文本数据聊天的训练方法,其特征在于,所述获取目标专业知识的数据源,具体包括:
利用网络爬虫方式获取目标专业知识的网络数据;
更新本地数据库中的数据。
3.如权利要求1所述的机器人长文本数据聊天的训练方法,其特征在于,所述利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词,具体包括:
利用本地词典对数据源的长文本数据进行分词处理;
对分词处理后的词语进行同义词扩展处理;
利用主题LDA模型抽取长文本数据中的至少一主题词,并将抽取的主题词按照概率值的高低进行排序。
4.如权利要求3所述的机器人长文本数据聊天的训练方法,其特征在于,所述利用主题LDA模型抽取长文本数据中的至少一主题词之后,还包括:
将长文本数据与至少一主题词的对应关系进行存储。
5.如权利要求4所述的机器人长文本数据聊天的训练方法,其特征在于,所述利用机器人自主对话模型输出用户输入问题对应的答案,还包括:
根据存储的长文本数据与至少一主题词的对应关系,还原并输出用户输入问题对应的长文本数据。
6.一种机器人长文本数据聊天的训练装置,其特征在于,所述机器人长文本数据聊天的训练装置包括:
获取模块,用于获取目标专业知识的数据源,所述数据源包括问题数据源及对应的答案数据源;
长文本处理模块,用于利用本地词典对数据源的长文本数据进行分词处理,并且通过主题模型抽取数据源中长文本数据对应的至少一主题词;
模型训练模块,用于基于tensorflow中seq2seq模型对主题词进行神经网络训练,得到机器人自主对话模型;
输出模块,用于在用户输入问题后,利用机器人自主对话模型输出用户输入问题对应的答案。
7.如权利要求6所述的机器人长文本数据聊天的训练装置,其特征在于,所述长文本处理模块,包括:
分词处理单元,用于利用本地词典对数据源的长文本数据进行分词处理;
分词扩展单元,用于对分词处理后的词语进行同义词扩展处理;
主题词抽取单元,用于利用主题LDA模型抽取长文本数据中的至少一主题词,并将抽取的主题词按照概率值的高低进行排序。
8.如权利要求7所述的机器人长文本数据聊天的训练装置,其特征在于,所述输出模块,还用于:
根据存储的长文本数据与至少一主题词的对应关系,还原并输出用户输入问题对应的长文本数据。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
CN201811526725.9A 2018-12-13 2018-12-13 机器人长文本数据聊天的训练方法及装置 Pending CN109635088A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811526725.9A CN109635088A (zh) 2018-12-13 2018-12-13 机器人长文本数据聊天的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811526725.9A CN109635088A (zh) 2018-12-13 2018-12-13 机器人长文本数据聊天的训练方法及装置

Publications (1)

Publication Number Publication Date
CN109635088A true CN109635088A (zh) 2019-04-16

Family

ID=66073639

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811526725.9A Pending CN109635088A (zh) 2018-12-13 2018-12-13 机器人长文本数据聊天的训练方法及装置

Country Status (1)

Country Link
CN (1) CN109635088A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237856A1 (zh) * 2019-05-29 2020-12-03 平安科技(深圳)有限公司 基于知识图谱的智能问答方法、装置及计算机存储介质
CN112905770A (zh) * 2021-02-10 2021-06-04 华南师范大学 基于语料库面向专业职业的人工智能心理健康聊天机器人

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101415257A (zh) * 2007-10-16 2009-04-22 康佳集团股份有限公司 一种人机对话聊天方法
CN105989040A (zh) * 2015-02-03 2016-10-05 阿里巴巴集团控股有限公司 智能问答的方法、装置及系统
CN106844530A (zh) * 2016-12-29 2017-06-13 北京奇虎科技有限公司 一种问答对分类模型的训练方法和装置
CN107463699A (zh) * 2017-08-15 2017-12-12 济南浪潮高新科技投资发展有限公司 一种基于seq2seq模型的实现问答机器人的方法
CN107766511A (zh) * 2017-10-23 2018-03-06 深圳市前海众兴电子商务有限公司 智能问答方法、终端及存储介质
CN107977415A (zh) * 2017-11-22 2018-05-01 北京寻领科技有限公司 自动问答方法及装置
CN108345610A (zh) * 2017-01-24 2018-07-31 北京搜狗科技发展有限公司 一种获取数据资源的方法和装置、用于获取数据资源的装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101415257A (zh) * 2007-10-16 2009-04-22 康佳集团股份有限公司 一种人机对话聊天方法
CN105989040A (zh) * 2015-02-03 2016-10-05 阿里巴巴集团控股有限公司 智能问答的方法、装置及系统
CN106844530A (zh) * 2016-12-29 2017-06-13 北京奇虎科技有限公司 一种问答对分类模型的训练方法和装置
CN108345610A (zh) * 2017-01-24 2018-07-31 北京搜狗科技发展有限公司 一种获取数据资源的方法和装置、用于获取数据资源的装置
CN107463699A (zh) * 2017-08-15 2017-12-12 济南浪潮高新科技投资发展有限公司 一种基于seq2seq模型的实现问答机器人的方法
CN107766511A (zh) * 2017-10-23 2018-03-06 深圳市前海众兴电子商务有限公司 智能问答方法、终端及存储介质
CN107977415A (zh) * 2017-11-22 2018-05-01 北京寻领科技有限公司 自动问答方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梁苗苗: "基于深度学习的智能聊天机器人的研究", 《万方学位论文数据库 硕士学位论文》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237856A1 (zh) * 2019-05-29 2020-12-03 平安科技(深圳)有限公司 基于知识图谱的智能问答方法、装置及计算机存储介质
CN112905770A (zh) * 2021-02-10 2021-06-04 华南师范大学 基于语料库面向专业职业的人工智能心理健康聊天机器人

Similar Documents

Publication Publication Date Title
CN111190600B (zh) 基于gru注意力模型的前端代码自动生成的方法及系统
CN112036154A (zh) 基于问诊对话的电子病历生成方法、装置和计算机设备
CN110309516A (zh) 机器翻译模型的训练方法、装置与电子设备
Zhong et al. E3: Entailment-driven extracting and editing for conversational machine reading
CN109635088A (zh) 机器人长文本数据聊天的训练方法及装置
DE102022003003A1 (de) Automatische Fotobearbeitung mittels sprachlicher Anweisung
CN111813904A (zh) 多轮对话管理方法、装置和计算机设备
CN107908782A (zh) 一种基于情感分析的数据处理方法和装置
DE102021130081A1 (de) Auf deep learning basierende automatische ontologieextraktion zur erfassung von neuen wissensbereichen
Nabil Khodeir The impact of Chinese direct investments on employment in Africa
CN114240672B (zh) 绿色资产的占比的识别方法及相关产品
DE202022002902U1 (de) Iteratives Training für einen Text-Bild-Layout-Transformer
CN113886548A (zh) 意图识别模型训练方法、识别方法、装置、设备及介质
CN116738974B (zh) 一种基于泛化因果网络的语言模型生成方法、设备及介质
CN112231556A (zh) 基于对话场景的用户画像方法、装置、设备及介质
CN111428468A (zh) 单语句通顺度预测方法、装置、设备及存储介质
CN114942992A (zh) 一种基于融合网络的交易对手识别方法、装置及电子设备
CN114239602A (zh) 会话方法、装置和计算机程序产品
CN113918693A (zh) 多轮对话处理方法、装置、计算机设备和存储介质
CN114333813A (zh) 可配置智能语音机器人的实现方法、装置和存储介质
CN111090750A (zh) 一种信贷风控数据的处理方法及装置
Al-Mansouri et al. Using artificial neural networks and sentiment analysis to predict upward movements in stock price
CN111932376A (zh) 虚拟资源数据的模拟方法、装置
CN112749556A (zh) 多语言模型的训练方法和装置、存储介质和电子设备
Orłowski et al. Conceptual fuzzy model of the Polish Internet mortgage market

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190416

RJ01 Rejection of invention patent application after publication