CN107798140A - 一种对话系统构建方法、语义受控应答方法及装置 - Google Patents

一种对话系统构建方法、语义受控应答方法及装置 Download PDF

Info

Publication number
CN107798140A
CN107798140A CN201711185817.0A CN201711185817A CN107798140A CN 107798140 A CN107798140 A CN 107798140A CN 201711185817 A CN201711185817 A CN 201711185817A CN 107798140 A CN107798140 A CN 107798140A
Authority
CN
China
Prior art keywords
introducer
response
question
answer
default
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711185817.0A
Other languages
English (en)
Other versions
CN107798140B (zh
Inventor
蒋宏飞
赵红红
晋耀红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dingfu Intelligent Technology Co., Ltd
Original Assignee
Beijing Shenzhou Taiyue Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shenzhou Taiyue Software Co Ltd filed Critical Beijing Shenzhou Taiyue Software Co Ltd
Priority to CN201711185817.0A priority Critical patent/CN107798140B/zh
Publication of CN107798140A publication Critical patent/CN107798140A/zh
Application granted granted Critical
Publication of CN107798140B publication Critical patent/CN107798140B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供了一种对话系统构建方法、语义受控应答方法及装置。其中,对话系统包括第一问答模型和第二问答模型。当用户输入问题时,首先,从问题中获取与问题语义关联的引导词;然后,使用第一问答模型对问题生产第一应答,第一应答包含了对话系统对问题的部分应答内容;然后,使用第二问答模型对问题生成第二应答,第二应答包含了对话系统对问题的全部应答;其中,引导词能够控制第一应答模型和第二应答模型的输出,使第一应答和第二应答语义受控,从而,使本申请实施例提供的一种语义受控应答方法,对未知问题生成的应答与问题的语义关联度高,此外,随着引导词的变化,对未知问题生成的应答也会发生变化,从而提高了对问题应答的多样性。

Description

一种对话系统构建方法、语义受控应答方法及装置
技术领域
本申请涉及自然语言处理技术领域,尤其涉及一种对话系统构建方法、语义受控应答方法及装置。
背景技术
随着自然语言处理技术的发展,基于自然语言处理技术建立起来的对话系统也得到了广泛的应用,常用的对话系统例如聊天机器人,能够根据用户输入的聊天内容,自动生成相应地应答。
对话系统根据应用目的不同可分为目标驱动型对话系统和非目标驱动型对话系统。其中,目标驱动型对话系统是指有明确的服务目标或者服务对象的对话系统,例如客服机器人,天气播报机器人等;非目标驱动型对话系统是指不为特定领域服务目的而开发,以自由情景的对话为聊天方式的对话系统。
现有技术中,对话系统的对话产生方式可分为基于知识库的检索式和基于深度学习模型的生成式。由于,非目标驱动型对话系统通常在自由语境下与人类进行对话,其接收的人类对话信息涉及的知识广泛,很难定义全面的知识库,因此,非目标驱动型对话系统通常为基于深度学习模型的生成式对话系统,以实现机器人对未知对话的应答。
参见图1,为现有技术公开的一种基于深度学习模型的对话系统,在该方法中:基于深度学习的对话系统通过建立一个基于RNN(递归神经网络:Recurrent NeuralNetworks)的sequence to sequence模型(简称:Seq2Seq模型),并使用该模型进行大量的语料训练,使Seq2Seq模型能够从问答对中学习到对未知对话的潜在应答模式,从而对新提出的未知对话给出应答。
虽然,现有技术的基于深度学习模型的对话系统能够对未知的对话给出应答,但是,由于现有技术的深度学习模型使用的是统计学领域中的一种基于概率的算法来实现训练过程,其经过训练后,对未知对话给出的什么样的应答是一种语义不受控的概率事件,因此,现有技术的基于深度学习模型的对话系统对用户提出的不同对话,经常会给出相同的通用应答,不能够根据用户的对话内容控制应答的语义,给出语义不同的应答,导致应答与问题的关联性不足,影响用户体验。
因此,如何提供一种应答内容关联度更高的对话系统,成为本领域技术人员亟待解决的技术问题。
发明内容
本申请实施例提供了一种对话系统构建方法、语义受控应答方法及装置,以解决现有技术中存在的问题。
第一方面,本申请实施例提供了一种对话系统构建方法,其中,所述对话系统包括:用于对问题生成应答的第一问答模型和第二问答模型,其中,所述第一问答模型用于生成包含所述问题部分应答内容的第一应答,所述第二问答模型用于结合所述第一应答生成包含所述问题完整应答内容的第二应答。所述方法包括:获取对话语料,所述对话语料为预设问题和预设答案组成的问答对;从所述预设答案中获取引导词;以所述引导词为分割点,获取所述预设答案的第一语段和第二语段,所述第一语段包括所述预设答案中位于所述引导词以前的内容,所述第二语段包括所述预设答案中位于所述引导词以后的内容;将所述预设问题、所述第一语段和所述引导词作为训练语料,训练获得所述第一问答模型,并输出第一训练应答;将所述预设问题、所述第一训练应答和所述第二语段作为训练语料,训练获得所述第二问答模型。
第二方面,本申请实施例提供了一种语义受控应答方法,应用于本申请实施例提供的对话系统构建方法所构建的对话系统,其中,所述方法包括:当用户输入问题时,从所述问题中获取引导词,所述引导词与所述问题语义关联;根据所述引导词,使用第一问答模型对所述问题生成第一应答,所述第一应答与所述引导词语义关联;以及,根据所述引导词和所述第一应答,使用第二问答模型对所述问题生成第二应答,所述第二应答与所述引导词和所述第一应答语义关联。
第三方面,本申请实施例提供了一种语义受控应答装置,应用于本申请实施例提供的对话系统构建方法所构建的对话系统,其中,所述装置包括:获取模块,用于当用户输入问题时,从所述问题中获取引导词,所述引导词与所述问题语义关联;第一应答模块,用于根据所述引导词,使用第一问答模型对所述问题生成第一应答,所述第一应答与所述引导词语义关联;第二应答模块,用于根据所述引导词和所述第一应答,使用第二问答模型对所述问题生成第二应答,所述第二应答与所述引导词和所述第一应答语义关联。
本申请实施例提供的技术方案,为了解决现有技术中存在的问题,提供了一种对话系统构建方法,语义受控应答方法及装置。其中,本申请实施例提供的构建方法所构建的对话系统包括第一问答模型和第二问答模型,其中,第一问答模型用于生成包含问题部分应答内容的第一应答,第二问答模型用于结合第一应答生成包含问题完整应答内容的第二应答。本申请提供的技术方案,当用户输入问题时,从问题中获取与问题语义关联的引导词,然后,根据问题中的引导词生成与引导词语义关联的第一应答,最后,根据引导词和第一应答,使用第二问答模型对问题进一步生成与引导词和第一应答语义关联的第二应答。本申请实施例提供的技术方案,使用引导词对问题的应答进行语义引导,使应答的内容在引导词的语义引导下实现语义受控,从而,对未知问题生成的应答与问题的语义关联度高,解决了现有技术中对话系统中应答与问题关联性不足的问题。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术公开的一种基于深度学习模型的对话系统;
图2为本申请实施例构建的一种对话系统结构框图;
图3为本申请实施例提供的一种对话系统构建方法的流程图;
图4为本申请实施例提供的一种对话系统构建方法步骤S110的流程图;
图5为本申请实施例提供的一种对话系统构建方法步骤S120的流程图;
图6为本申请实施例提供的一种对话系统构建方法步骤S130的流程图;
图7为本申请实施例提供的一种对话系统构建方法步骤S140的流程图;
图8为本申请实施例提供的一种对话系统构建方法步骤S150的流程图;
图9为本申请实施例提供的一种语义受控应答方法的流程图;
图10为本申请实施例提供的一种语义受控应答方法步骤S210的流程图;
图11为本申请实施例提供的一种语义受控应答方法步骤S214的流程图;
图12为本申请实施例提供的一种语义受控应答装置的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
实施例一
本申请实施例提供了一种对话系统构建方法,图2为本申请实施例构建的一种对话系统结构框图。其中,本申请实施例构建的对话系统包括:用于对问题生成应答的第一问答模型和第二问答模型,其中,第一问答模型用于生成包含问题部分应答内容的第一应答,第二问答模型用于结合所述第一应答生成包含问题完整应答内容的第二应答。
本申请实施例中,第一问答模型和第二问答模型为机器学习模型,机器学习模型是一种基于机器学习算法构建的算法模型,机器学习模型能从一类数据中自动分析获得规律,并利用规律对未知数据进行预测。
在机器学习技术在应用到不同的技术领域时,会用到不同的机器学习模型,本申请在自然语言处理技术领域构建问答模型时,可以使用sequence to sequence模型。
sequence to sequence模型(缩写为:Seq2Seq模型)是一种建模两个序列间关系的通用深度学习模型,一个标准的Seq2Seq模型通常由两部分组成:Encoder(编码器)和Decoder(解码器)。Encoder负责依次读入输入序列的每个单位,将其编码成一个模型的中间表示(一般为一个向量)。Decoder负责在给定上下文向量的情况下预测出输出序列。Seq2Seq模型在自然语言处理领域中得到了广泛的应用,通过使用大量的语料对Seq2Seq模型进行训练,使Seq2Seq模型可以从大量的语料训练中学习到潜在的回答模式,从而可以生成语料中从未出现过的回答语句。
图3为本申请实施例提供的一种对话系统构建方法的流程图,如图3所示,本申请实施例提供的一种对话系统构建方法包括以下步骤:
步骤S110,获取对话语料,所述对话语料为预设问题和预设答案组成的问答对。
在使用Seq2Seq模型等机器学习模型训练获得问答模型时,需要使用对话语料对机器学习模型进行训练,对话语料中需要包括预设问题和预设答案,以使机器学习模型能够建立起从问题序列到答案序列的关联映射,从而是训练获得的问答模型具备对未知问题给出应答的能力。
本申请中,根据对话系统应用场景的不同,可选择不同语言风格和内容的对话语料,这些对话语料均以问答对的形式出现。例如,当对话系统用于语音助手时,对话语料的内容可以为:
预设问题:今天空气怎么样?
预设答案:今天空气很好,适合户外运动。
在使用训练语料训练问答模型时,为了提高问答模型对未知问题的应答能力,通常需要向机器学习模型中输入大量的训练语料,为了获取大量的训练语料,本申请在步骤S110中,可以从预先设置的指定类型的语料库中获取对话语料,例如指定获取与生活信息服务有关对话语料。或者,也可以使用网络爬虫工具,对互联网内容进行爬取,从爬取到的内容中获得对话语料,由于互联网中的信息日新月异,更新迅速,新的网络热门话题等层出不穷,因此,使用网络爬虫工具,从互联网中爬取对话语料的方式能够紧随网络流行趋势,第一时间地获取有关网络热门话题的热门对话语料,从而使通过这些对话语料训练的问答模型对网络热门话题具有更高的应答能力。
图4为本申请实施例提供的一种对话系统构建方法步骤S110的流程图,在一种可选择的实施方式中,如图4所示,步骤S110可以包括以下步骤:
步骤S111,获取语料素材;所述对话语料为包含对话内容的文本。
在步骤S111中,可通过预设的语料库或使用网络爬虫等手段获取语料素材,语料素材以包含对话内容的文本的形式体现,例如从网页的文本信息中爬取的包含对话内容的文本。
需要说明的是,本申请中的语料素材也可来从语音信息中获得,此时,通过语音识别方式将语音信息转化为包含对话内容的文本。
步骤S112,删除所述语料素材中的无效语料,获得纯净语料。
本申请中的无效语料包括句法成分不完整的对话,包含表情符、英文字符或其他特殊字符的对话,包含敏感词的对话等。其中,无效语料在对话模型的训练过程中没有贡献,甚至会造成干扰,影响最终构建的问答模型的质量。例如,如果用于训练的对话语料中答案不完整,当对话模型对未知语料进行应答时,可能会给出不完整的应答,从而影响应答质量;如果用于训练的对话语料中包特殊字符,当对话模型对未知语料进行应答时,可能会给出包含特殊字符的应答,甚至是乱码;如果用于训练的对话语料中包含敏感词,当对话模型对未知语料进行应答时,可能会给出包含敏感词的应答,从而与社会文明建设相违背,甚至会违反我国的法律法规,这对于对话系统是不允许的。
在一种可选择的实施方式中,可以设置一个无效字符库,无效字符库中可包含表情符、英文字符、敏感词、特殊字符以及其他类型的字符。在步骤S112中,根据无效字符库识别并删除语料素材中包含无效字符的无效语料,从而获得纯净语料。
在一种可选择的实施方式中,无效字符库中的内容可根据对话系统的应用场合不同而做出变化,例如:当对话系统应用于政府、银行的服务性窗口时,要求对话系统的应答内容要书面化,无效字符库中除了包含上述示出的字符类型外,还可以包括口头语的文本,例如“哎”“呃……”等。此外,无效字符库可设置修改接口,修改接口可接收字符修改信息,并根据字符修改信息改变无效字符库中的内容,包括:新增、删除字符,对字符依据类型进行分组,新增、删除字符类型,对某字符类型设置启用或不启用状态等。
步骤S113,提取所述纯净语料中的所述问答对,生成包含所述问答对的对话语料。
在步骤S113中,问答对以一问一答的形式出现,并被归一化成机器学习模型可识别的格式。
示例地,本申请中问答对的形式为:
{question,answer}
其中,question为问答对中的预设问题文本,answer为问答对中的预设答案文本。例如,纯净语料的内容为:
皮特问:“你们是哪里人?”小兰回答道:“我和他来自中国北京。”
提取上述语料中的问答对,预设问题:你们是哪里人,预设答案:我和他来自中国北京。归一化后生成的问答对为:
{你们是哪里人,我和他来自中国北京}
由此可以看出,本申请在步骤S113中,将预设问题和预设答案以问答对的形式做归一化存储,便于机器学习模型处理,同时,使训练语料能够以问答对为单位进行操作,便于管理。
步骤S120,从所述预设答案中获取引导词。
本申请中,引导词可以为动词或名词。其中,动词在一个完整的语句中常作为谓语使用,能够表达语句中主语的动作或意图,对语句的语义有引导作用,因此,动词是与语句语义存在关联的语句成分;此外,名词在语句中常表达某一概念,而对话的内容常通过这个概念展开,例如,在步骤S113中示例出的问答对中,“我和他来自中国北京”中,“北京”为名词,表示地名,而问答对中的内容均以地名展开,因此,名词在语句中也对语义有引导作用,属于与语句语义存在关联的语句成分。
基于动词和名词在语句中的上述作用,本申请在步骤S120中,可随机从预设答案中获取一个名词或动词作为引导词。本申请中,之所以随机获取引导词,是由于在预设答案中,动词或名词的数量不唯一,而提取不同的引导词会对后续的模型训练产生不同的结果,因此,为了提高训练结果的多样性,进而使本申请构建的对话系统对未知问题也能给出多样性的回答,本申请在动词和名词中随机获取一个作为引导词,使同一个训练语料在多次模型训练过程中由于引导词不同,得到的训练结果也不同,从而,提高了训练最终得到的对话系统应答的多样性。
图5为本申请实施例提供的一种对话系统构建方法步骤S120的流程图,在一种可选择的实施方式中,如图5所示,步骤S120可以包括以下步骤:
步骤S121,获取所述预设答案的分词序列,所述分词序列包含所述预设答案的全部分词。
本申请中,可以使用中文分词(也称:中文切词)技术,对预设答案进行分词。中文分词(Word Segmentation,WS)指的是将汉字序列切分成词序列。因为在汉语中,词是承载语义的最基本的单元。分词是信息检索、文本分类、情感分析等多项中文自然语言处理任务的基础。在中文分词中,可以使用基于字符串匹配的分词方法,首先,设置一个分词库词典,然后,将待分词的预设答案与分词库词典中已有的分词进行匹配,并根据匹配结果对预设答案进行分词。此外,除了使用中文分词技术进行分词以外,还可以使用依存句法分析、基于词频统计分词等其他分词方法进行分词,本申请对通过使用何种方法获取预设答案的分词序列不做具体限定,在本申请的技术构思下,本领域技术人员可对分词方法自行选择。
示例地,预设答案为:我和他来自中国北京,该预设答案的分词序列为:
我/和/他/来自/中国/北京
在上述示例以及下文中出现的“/”,是为了在本申请实施例中向本领域技术人员清楚地表示步骤S121对预设答案的分词结果,不属于预设答案分词序列中真实存在的元素。
步骤S122,根据所述分词序列,从所述预设答案中获取一个指定词性的分词作为引导词,所述指定词性包括动词和名词。
在步骤S122中,首先找出分词序列中词性为动词或名词的分词,为了实现这一过程,本申请可基于中文语言中的常用表,如《现代汉语常用词表》等,构建动词库和名词库,将分词序列中的每一个分词与动词库或名词库中的词进行比对,从而可以从分词序列中找到动词和名词成分。例如“我/和/他/来自/中国/北京”中包含有名词:中国、北京,动词:来自。
需要补充说明的是,本申请实施例在步骤S122中,除了构建动词库和名词库用于找出分词序列中的动词和名词以外,还可以通过机器学习中的依存句法分析等方法从分词序列中找到动词和名词。此外,在每一个分词与动词库或名词库中的词进行比对时,可以从句首的分词开始,依次向句尾比对,可以从句尾开始的分词开始,以此向句首比对,也可以从句首到句尾、句尾到句首进行两次比对,综合两次比对结果找出动词和名词。
在一种可选择的实施方式中,当从分词序列中找到动词和名词之后,可以从已找到的动词和名词中随机选择一个作为引导词,一种随机选择的方式为:按照每个名词或动词在分词序列中的顺序,对每个名词和动词依序编号然后在编号所在的数值范围内生成随机整数,将得到的随机整数相同编号的名词或动词作为引导词。
示例地,在“我/和/他/来自/中国/北京”中,名词和动词的编号为:来自-0,中国-1,北京-2,随机整数的数值范围A∈{0,1,2},然后在该数值范围A内生成一个随机整数,例如:1,对应的引导词为“来自”。
在一种可选择的实施方式中,可以对名词或动词设定优先级,例如:设定动词的优先级高于名词的优先级,当分词序列中同时包含动词和名词时,优先选取动词为引导词,当动词有多个时,可按照本申请实施例中示出的随机选择的方式选择其中一个动词为引导词。参见前文所述,动词和名词在语句中对语义的引导作用有所不同,具体为:动词在一个完整的语句中常作为谓语使用,能够表达语句中主语的动作或意图,而名词在语句中常表达某一概念,对话的内容常通过这个概念展开;导致了使用动词或使用名词作为引导词对后续的模型训练会产生不同的影响,因此,本申请实施例中,通过设置动词或名词优先级的方式,可以控制引导词的词性,从而,可控地干预模型训练的过程。
步骤S130,以所述引导词为分割点,获取所述预设答案的第一语段和第二语段,所述第一语段包括所述预设答案中位于所述引导词以前的内容,所述第二语段包括所述预设答案中位于所述引导词以后的内容。
第一语段和第二语段在本申请中,分别作为部分训练语料,以获得第一问答模型和第二问答模型,示例地,如果预设答案“我和他来自中国北京”中,引导词为“来自”,第一语段中内容为“我和他”,第二语段中的内容为“中国北京”。
图6为本申请实施例提供的一种对话系统构建方法步骤S130的流程图,在一种可选择的实施方式中,如图6所示,步骤S130中可以包含以下步骤:
步骤S131,根据所述分词序列,将所述预设答案中位于所述引导词之前的所有分词逆序排列,生成所述第一语段。
在步骤S131中,首先,在预设答案的分词序列中定位到引导词所在的位置;然后,从引导词所在的位置,向前依次提取分词序列中的每个分词,不包括引导词,并以获取到的第一个分词作为第一语段的段首分词,其余分词按照提取的顺序依次在后排列;从而,使预设答案中位于引导词之前的所有分词能够逆序排列,得到分词逆序排列的第一语段。
示例地,如果预设答案的分词序列为:我/和/他/来自/中国/北京,其中,引导词为“来自”,则在步骤S131中,生成的第一语段为:他/和/我。
步骤S132,根据所述分词序列,将所述预设答案中位于所述引导词之后的所有分词正序排列,生成所述第二语段。
在步骤S132中,首先,在预设答案的分词序列中定位到引导词所在的位置;然后,从引导词所在的位置,向后依次提取分词序列中的每个分词,不包括引导词,并以获取到的第一个分词作为第二语段的段首分词,其余分词按照提取的顺序依次在后排列;从而,使预设答案中位于引导词之后的所有分词正序排列,得到分词正序排列的第二语段。
示例地,如果预设答案的分词序列为:我/和/他/来自/中国/北京,其中,引导词为“来自”,则在步骤S132中,生成的第二语段为:中国/北京。
本申请实施例中,与步骤S132中生成的分词正序排列的第二语段不同,步骤S133中的第一语段为分词逆序排列。由于当第一语段为分词逆序排列时,可根据引导词的位置定位第一语段的段首分词的位置,然后直接从段首分词的位置向前依次提取分词直到句首,因此,在提取过程中,不需要判断哪个分词为断尾分词。而如果第一语段的分词为正序排列,即从预设答案的句首向后提取分词,在提取时需要通过判断是否已经提取到了引导词来确定第一语段是否提取完毕,因此,逆序排列能够简化提取过程,提高提取效率。
步骤S140,将所述预设问题、所述第一语段和所述引导词作为训练语料,训练预设的第一原始模型,获得所述第一问答模型,并输出第一训练应答。
本申请中的第一原始模型可以是未经训练的sequence to sequence模型(缩写为:Seq2Seq模型),Seq2Seq模型是一种建模两个序列间关系的通用深度学习模型,如果以Seq2Seq模型作为问答模型,那么,这两个序列间关系就指的是question(问题)序列到answer(答案)序列的关系,当通过大规模的训练语料对Seq2Seq模型进行训练之后,Seq2Seq模型就会具备对用户提出的未知问题给出应答的能力。
本申请中,预设问题、第一语段和引导词作为训练第一原始模型的训练语料。其中预设问题作为问题语料,第一语段和引导词属于预设答案的一部分,作为应答语料。
图7为本申请实施例提供的一种对话系统构建方法步骤S140的流程图,在一种可选择的实施方式中,如图7所示,步骤S140可以包括以下步骤:
步骤S141,获取用于进行语料训练的第一原始模型。
第一原始模型可以为未经训练的sequence to sequence模型,包括:Encoder(编码端)和Decoder(解码端)。其中,作为问答模型使用时,Encoder(编码端)对应问题序列,在训练中用于接收问题语料;Decoder(解码端)对应答案序列,在训练中用于接收应答语料并输出训练中得到的应答内容。
步骤S142,将所述预设问题作为问题语料,输入至所述第一原始模型的编码端。
示例地,对话语料为:{你们是哪里人,我和他来自中国北京},则将“你们是哪里人”输入至第一原始模型的编码端。
步骤S143,将所述引导词逆序与所述第一语段的分词逆序组合后作为应答语料,输入至所述第一原始模型的解码端,训练获得所述第一问答模型,并获得解码端输出的所述第一训练应答。
示例地,预设答案的分词序列为:我/和/他/来自/中国/北京,其中,引导词为“来自”,第一语段为:他/和/我。引导词逆序为“自来”,与所述第一语段的分词逆序组合后得到的应答语料为:自来/他/和/我,然后,将“自来/他/和/我”输入至第一原始模型的解码端,同时,第一原始模型的解码端输出“自来/他/和/我”作为第一训练应答。
在步骤S141-S143中,以每个对话语料的预设问题作为问题语料,以预设答案的引导词与第一语段的分词逆序组合后作为应答语料,组成一对训练语料,输入至第一原始模型的编码端和解码端,完成一对训练语料对第一原始模型的训练。依照此训练方法,使用大量的训练语料对第一原始模型进行训练,即可获得第一应答模型。本申请在训练第一原始模型以获得第一问答模型的过程中,训练使用的应答语料中均包含引导词,由于引导词具有对语义的引导作用,因此,本申请中训练获得的第一应答模型对未知问题作出的第一应答与问题的语义关联度更高,使第一应答的语义受控。
步骤S150,将所述预设问题、所述第一训练应答和所述第二语段作为训练语料,训练预设的第二原始模型,获得所述第二问答模型。
第一原始模型可以是另一个未经训练的sequence to sequence模型。本申请中,预设问题、第一训练应答和第二语段作为训练第二原始模型的训练语料。其中预设问题作为问题语料,第一训练应答和预设答案的第二语段作为应答语料。
图8为本申请实施例提供的一种对话系统构建方法步骤S150的流程图,在一种可选择的实施方式中,如图8所示,步骤S150可以包括以下步骤:
步骤S151,获取用于进行语料训练的第二原始模型。
第二原始模型可以为另一个未经训练的sequence to sequence模型,包括:Encoder(编码端)和Decoder(解码端)。其中,作为问答模型使用时,Encoder(编码端)对应问题序列,在训练中用于接收问题语料;Decoder(解码端)对应答案序列,在训练中用于接收应答语料并输出训练中得到的应答内容。
步骤S152,将所述预设问题作为问题语料,输入至所述第二原始模型的编码端。
示例地,对话语料为:{你们是哪里人,我和他来自中国北京},则将“你们是哪里人”输入至第二原始模型的编码端。
步骤S153,将所述第一训练应答逆序与所述第二语段组合后作为训练语料,输入至所述第二原始模型的解码端,训练获得所述第二问答模型。
示例地,预设答案的分词序列为:我/和/他/来自/中国/北京,其中,引导词为“来自”,第二语段为:中国/北京,在步骤S143中得到的第一训练应答为:自来/他/和/我。第一训练应答逆序为:我/和/他/来自,与第二语段组合后作为:我/和/他/来自/中国/北京,然后,将“我/和/他/来自/中国/北京”输入至第二原始模型的解码端。
在步骤S151-S153中,以每个对话语料的预设问题作为问题语料,以第一原始模型训练时输出的第一训练应答的逆序与第二语段的组合作为应答语料,组成一对训练语料,输入至第二原始模型的编码端和解码端,完成一对训练语料对第二原始模型的训练。依照此训练方法,使用大量的训练语料对第二原始模型进行训练,即可获得第二应答模型,同时,第二原始模型的解码端输出“我/和/他/来自/中国/北京”作为第二训练应答,第二训练应答为预设问题的完整应答。本申请在训练第二原始模型以获得第二问答模型的过程中,训练使用的应答语料中包含第一训练应答,因此,使用该应答语料训练的第二问答模型对未知问题作出的第二应答与第一问答模型对未知问题作出的第一应答存在语义关联。
本申请中,在训练获得第一问答模型的过程中,使用引导词提高第一问答模型生成的第一应答与问题的语义关联度,使应答的语义受控;并且,在训练获得第二问答模型的过程中,进一步使用第一训练应答作为训练语料的一部分,引导训练第二原始模型以获得第二问答模型的过程,从而使第二问答模型对未知问题作出的第二应答受到第一应答的引导,使第二应答的语义受控,与问题更相关。
此外,在一种可选择的实施方式中,在执行步骤S140和步骤S150中对第一原始模型和第二原始模型进行训练时,可根据最大化互信息原则,对第一原始模型和第二原始模型进行最大化互信息优化,使训练得到的第一问答模型和第二问答模型生成的应答与问题的语义关联度更高。
互信息是指两个变量之间的相互依赖程度,对于本申请中的第一原始模型(训练后即为第一问答模型)和第二原原始模型(训练后即为第二问答模型)来说,编码端的输入和解码端的输出即为相互依赖的两个变量。
示例地,本申请实施例中的第一原始模型和第二原始模型可以为Seq2Seq模型,在Seq2Seq模型中,为了使应答与问题在语义上更相关,本申请根据最大化互信息原则,建立问题序列和答案序列之间的双向最大化互信息优化,包括:优化从问题序列生成最相关答案序列的概率,以及,优化从答案序列关联最相关问题序列的概率。优化的目标函数为:
其中λ为相关系数,P(A|Q)表示从问题序列生成最相关答案序列的概率,P(Q|A)表示从答案序列关联最相关问题序列的概率。
在一种可选择的实施方式中,本申请实施例中使用的Seq2Seq模型可以使用GRU算法和Attention机制,以提高模型的质量。其中,GRU(Gated recurrent unit:门循环单元)是属于机器学习领域中递归神经网络(RNN)的一种隐藏层信息计算方法,GRU通过引入门(Gate)的机制来解决递归神经网络的梯度消失问题,从而学习到长距离依赖;Attention(注意力)机制打破了传统递归神经网络的编码器-解码器结构在编解码时都依赖于内部一个固定长度向量的限制,Attention机制根据编码器对输入序列的中间输出结果,对输入序列进行选择性的学习,并且在模型输出时将输出序列与输入序列进行关联,从而提高模型质量。
由以上技术方案可知,本申请实施例提供了一种对话系统构建方法,首先,从预设答案中获取引导词,然后,以引导词为分割点,获取预设答案的第一语段和第二语段,然后,将预设问题、第一语段和引导词作为训练语料,训练预设的第一原始模型,获得第一问答模型,并输出第一训练应答;最后,将预设问题、第一训练应答和第二语段作为训练语料,训练预设的第二原始模型,获得第二问答模型。本申请实施例提供的技术方案,在训练获得第一问答模型的过程中,使用引导词提高第一问答模型生成的第一应答与问题的语义关联度,使应答的语义受控;并且,在训练获得第二问答模型的过程中,进一步使用第一训练应答作为训练语料的一部分,引导训练获得第二问答模型的过程,从而使第二问答模型对未知问题作出的第二应答受到第一应答的引导,使第二应答的语义受控,此外,根据最大化互信息原则,对第一问答模型和第二问答模型进行语义关联度优化,能够使应答与问题更相关。因此,使用本申请实施例的对话系统构建方法构建的对话系统,能够根据用户的对话内容控制应答的语义,使应答内容与问题的关联度更高。
实施例二
本申请实施例提供了一种语义受控应答方法,应用于本申请提供的一种对话系统构建方法构建的对话系统,图9为本申请实施例提供的一种语义受控应答方法的流程图,如图9所示,所述方法包括:
步骤S210,当用户输入问题时,从所述问题中获取引导词,所述引导词与所述问题语义关联。
本申请中,引导词可以为动词或名词。其中,动词在一个完整的语句中常作为谓语使用,能够表达语句中主语的动作或意图,对语句的语义有引导作用,因此,动词是与语句语义存在关联的语句成分;此外,名词在语句中常表达某一概念,而对话的内容常通过这个概念展开。基于引导词在语句中对语义的上述作用,在步骤S210中,从问题中获取引导词,使对话系统中的第一问答模型和第二问答模型在引导词的引导下生成应答,有利于提高应答与问题的语义关联。
图10为本申请实施例提供的一种语义受控应答方法步骤S210的流程图,在一种可选择的实施方式中,如图10所示,步骤S210可以包括以下步骤:
步骤S211,获取所述问题的分词序列,所述分词序列包含所述问题的全部分词。
本申请中,可以使用中文分词(也称:中文切词)技术,对预设答案进行分词。中文分词(Word Segmentation,WS)指的是将汉字序列切分成词序列。因为在汉语中,词是承载语义的最基本的单元。分词是信息检索、文本分类、情感分析等多项中文自然语言处理任务的基础。在中文分词中,可以使用基于字符串匹配的分词方法,首先,设置一个分词库词典,然后,将待分词的预设答案与分词库词典中已有的分词进行匹配,并根据匹配结果对预设答案进行分词。此外,除了使用中文分词技术进行分词以外,还可以使用依存句法分析、基于词频统计分词等其他分词方法进行分词,本申请对通过使用何种方法获取问题的分词序列不做具体限定,在本申请的技术构思下,本领域技术人员可对分词方法自行选择。
示例地,本申请中问题的分词序列可以为以下形式:
question={q1,……,qi,……,qn}其中i、n为整数,且1≤i≤n,
上述形式的分词序列中,qi为问题分词序列中的第i个分词。示例地,用户输入的问题为:“今天天气怎么样”,该问题的分词序列为:
question={今天,天气,怎么样}
步骤S212,获取所述分词序列中每个分词的至少一个相关词。
本申请中,分词的相关词,是指与分词具有相同或相近含义的字词,相同含义是指分词和相关词在语句中可相互替换而不影响句义,例如“今天”和“今日”,相近含义是指分词和相关词在词义上限定或表达一类概念,例如“昨天”“今天”“明天”等。
本申请中,可使用Word2vec模型来获取每个分词的相关词,Word2vec模型是一种机器学习模型,word2vec模型可用来映射词袋中每个词到一个向量,可用来表示词对词之间的关系,因此可通过Word2vec模型找出与分词关系相近的相关词。
示例地,本申请对分词序列“question={今天,天气,怎么样}”中的每个分词获取至少一个相关词,一种示例性的结果为:
分词 相关词
今天 今儿 明天 今日 昨天 每天
天气 温度 闷热 下雨 凉爽 寒冷
怎么样 如何 好吗 可以吗
步骤S213,根据预设抽词规则,从所有所述相关词中抽取至少一个所述相关词,作为候选引导词,生成候选词集。
本申请中,预设抽词规则可以为:获取每个相关词的词性,抽取词性为动词或名词的相关词作为候选引导词。
本申请可基于中文语言中的常用表,如《现代汉语常用词表》等,构建动词库和名词库,对每个相关词与动词库或名词库中的词进行比对,从而可以获取到每个相关词的词性,并进一步将相关词中的动词和名词选作候选引导词,生成候选词集,候选词集的形式可以为:
{a1,……,aj,……,am}其中j、m为整数,且1≤j≤m
示例地,根据步骤S212中示例的相关词,生成的候选词集为:
{今儿,明天,今日,昨天,每天,温度,下雨}
步骤S214,根据预设选词规则,从所述候选词集中获取引导词。
在候选词集中,候选引导词为动词或名词,如前文所述,动词和名词对语句的语义有引导作用,因此,任意一个候选引导词均可被选作引导词。
但是,为了进一步提高本申请的语义受控应答方法中应答与问题的语义关联性,可对候选词集中的候选引导词进行二次选择,从中选出一个与问题语义关联度最高的引导词。因此,参见图11,为本申请实施例提供的一种语义受控应答方法步骤S214的流程图,在一种可选择的实施方式中,步骤S214可以包括以下步骤:
步骤S2141,对每个所述候选引导词分别与所述分词序列中的每个分词进行相似度计算。
本申请在进行相似度计算时,可以对每个候选引导词和问题的每个分词构造特征向量,并分别计算每个候选引导词特征向量与问题的每个分词特征向量之间的余弦值,得到的余弦值即为候选引导词与问题分词的相似度,即对于候选引导词aj和问题分词qi,有:
sim(aj,qi)=cos(Taj,Tqi)
其中,sim(aj,qi)表示候选引导词aj与问题分词qi的相似度,Taj表示引导词aj的特征向量,Tqi表示问题分词qi的特征向量。
步骤S2142,根据相似度计算结果,获取每个所述候选引导词的重要度,所述重要度为所述候选引导词与所述分词序列中所有分词的相似度之和。
对于候选引导词aj,其重要度为:
其中,I(aj)表示候选引导词aj重要度,sim(aj,qi)表示候选引导词aj与问题分词qi的相似度。
可见本申请中,每个候选引导词的重要度是这个候选引导词与问题所有分词的相似度的总和,因此重要度反映出了每个候选引导词与问题整体的语义关联情况,可作为选取引导词的参考因素。
步骤S2143,将所述重要度最大的所述候选引导词作为引导词。
在步骤S2143中,为了使引导词与问题的语义关联最大,将重要度最大的候选引导词作为引导词。使用与问题的语义关联最大的引导词,引导对话系统中的第一问答模型和第二问答模型对问题生成应答,能够使应答与问题的语义关联最大;此外,在不同的问题中,重要度最大的候选引导词会不同,因此,不同问题中的引导词也会不同,导致对话系统对不同问题生成的应答也会发生变化,从而,提高了对问题应答的多样性。
步骤S220,根据所述引导词,使用第一问答模型对所述问题生成第一应答,所述第一应答与所述引导词语义关联。
在步骤S220中,将问题和引导词输入至第一问答模型,引导词能够控制第一问答模型的输出,使第一问答模型根据训练获得的应答方式,生成带有引导词且语义受控的第一应答,第一应答包含了对话系统对问题的部分应答内容。
示例地,引导词为“温度”,问题为“今天天气怎么样”,则第一问答模型在一次输出中可能给出的第一应答为“天气晴朗温度”。
步骤S230,根据所述引导词和所述第一应答,使用第二问答模型对所述问题生成第二应答,所述第二应答与所述引导词和所述第一应答语义关联。
在步骤S230中,将问题、引导词和第一应答输入至第二问答模型,引导词和第一应答能够控制第二问答模型的输出,使第二问答模型根据训练获得的应答方式,生成带有引导词且语义受控的第二应答,第二应答包含了对话系统对问题的全部应答。
示例地,引导词为“温度”,第一应答为“天气晴朗温度”,问题为“今天天气怎么样”,则第二问答模型在一次输出中给出的第二应答为“天气晴朗温度适宜”。
由以上技术方案可知,本申请实施例提供了一种语义受控应答方法,当用户输入问题时,首先,从问题中获取与问题语义关联的引导词;然后,使用对话系统中第一问答模型对问题生产第一应答,第一应答包含了对话系统对问题的部分应答内容,其中,在第一问答模型生成第一应答的过程中,引导词能够控制第一问答模型的输出,使第一应答模型生成第一应答带有引导词且语义受控;然后,使用对话系统中的第二问答模型对问题生成第二应答,第二应答包含了对话系统对问题的全部应答,其中,在第二问答模型生成第二应答的过程中,引导词和第一应答能够控制第二问答模型的输出,使第二应答模型生成第二应答带有引导词且语义受控;从而,使本申请实施例提供的一种语义受控应答方法,对未知问题生成的应答与问题的语义关联度高,此外,随着引导词的变化,对未知问题生成的应答也会发生变化,从而提高了对问题应答的多样性。
实施例三
本申请实施例提供了一种语义受控应答装置,应用于本申请提供的一种对话系统构建方法构建的对话系统,图12为本申请实施例提供的一种语义受控应答装置的结构框图,如图12所示,所述装置包括:
获取模块310,用于当用户输入问题时,从所述问题中获取引导词,所述引导词与所述问题语义关联。
第一应答模块320,用于根据所述引导词,使用第一问答模型对所述问题生成第一应答,所述第一应答与所述引导词语义关联。
第二应答模块330,用于根据所述引导词和所述第一应答,使用第二问答模型对所述问题生成第二应答,所述第二应答与所述引导词和所述第一应答语义关联。
由以上技术方案可知,本申请实施例提供了一种语义受控应答方法,当用户输入问题时,首先,从问题中获取与问题语义关联的引导词;然后,使用对话系统中第一问答模型对问题生产第一应答,第一应答包含了对话系统对问题的部分应答内容,其中,在第一问答模型生成第一应答的过程中,引导词能够控制第一问答模型的输出,使第一应答模型生成第一应答带有引导词且语义受控;然后,使用对话系统中的第二问答模型对问题生成第二应答,第二应答包含了对话系统对问题的全部应答,其中,在第二问答模型生成第二应答的过程中,引导词和第一应答能够控制第二问答模型的输出,使第二应答模型生成第二应答带有引导词且语义受控;从而,使本申请实施例提供的一种语义受控应答方法,对未知问题生成的应答与问题的语义关联度高,此外,随着引导词的变化,对未知问题生成的应答也会发生变化,从而提高了对问题应答的多样性。
本申请可用于众多通用或专用的计算系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (10)

1.一种对话系统构建方法,其特征在于,所述对话系统包括用于对问题生成应答的第一问答模型和第二问答模型,其中,所述第一问答模型用于生成包含所述问题部分应答内容的第一应答,所述第二问答模型用于结合所述第一应答生成包含所述问题完整应答内容的第二应答,所述方法包括:
获取对话语料,所述对话语料为预设问题和预设答案组成的问答对;
从所述预设答案中获取引导词;
以所述引导词为分割点,获取所述预设答案的第一语段和第二语段,所述第一语段包括所述预设答案中位于所述引导词以前的内容,所述第二语段包括所述预设答案中位于所述引导词以后的内容;
将所述预设问题、所述第一语段和所述引导词作为训练语料,训练预设的第一原始模型,获得所述第一问答模型,并输出第一训练应答;
将所述预设问题、所述第一训练应答和所述第二语段作为训练语料,训练预设的第二原始模型,获得所述第二问答模型。
2.根据权利要求1所述的方法,其特征在于,所述获取对话语料,所述对话语料为预设问题和预设答案组成的问答对的步骤包括:
获取语料素材;所述语料素材为包含对话内容的文本;
删除所述语料素材中的无效语料,获得纯净语料;
提取所述纯净语料中的所述问答对,生成包含所述问答对的对话语料。
3.根据权利要求1所述的方法,其特征在于,所述从预设答案中获取引导词的步骤包括:
获取所述预设答案的分词序列,所述分词序列包含所述预设答案的全部分词;
根据所述分词序列,从所述预设答案中获取一个指定词性的分词作为引导词,所述指定词性包括动词和名词。
4.根据权利要求3所述的方法,其特征在于,所述以引导词为分割点,获取所述预设答案的第一语段和第二语段;所述第一语段包括所述预设答案中位于所述引导词以前的内容,所述第二语段包括所述预设答案中位于所述引导词以后的内容的步骤包括:
根据所述分词序列,将所述预设答案中位于所述引导词之前的所有分词逆序排列,生成所述第一语段;
以及,
根据所述分词序列,将所述预设答案中位于所述引导词之后的所有分词正序排列,生成所述第二语段。
5.根据权利要求4所述的方法,其特征在于,所述将预设问题、所述第一语段和所述引导词作为训练语料,训练预设的第一原始模型,获得所述第一问答模型,并输出第一训练应答的步骤包括:
获取用于进行语料训练的第一原始模型;
将所述预设问题作为问题语料,输入至所述第一原始模型的编码端;
将所述引导词逆序与所述第一语段的分词逆序组合后作为应答语料,输入至所述第一原始模型的解码端,训练获得所述第一问答模型,并获得解码端输出的所述第一训练应答。
6.根据权利要求5所述的方法,其特征在于,所述将预设问题、所述第一训练应答和所述第二语段作为训练语料,训练预设的第二原始模型,获得所述第二问答模型的步骤包括:
获取用于进行语料训练的第二原始模型;
将所述预设问题作为问题语料,输入至所述第二原始模型的编码端;
将所述第一训练应答逆序与所述第二语段组合后作为训练语料,输入至所述第二原始模型的解码端,训练获得所述第二问答模型。
7.一种语义受控应答方法,应用于权利要求1-6所述的方法构建的对话系统,其特征在于,所述方法包括:
当用户输入问题时,从所述问题中获取引导词,所述引导词与所述问题语义关联;
根据所述引导词,使用第一问答模型对所述问题生成第一应答,所述第一应答与所述引导词语义关联;
以及,
根据所述引导词和所述第一应答,使用第二问答模型对所述问题生成第二应答,所述第二应答与所述引导词和所述第一应答语义关联。
8.根据权利要求7所述的方法,其特征在于,所述当用户输入问题时,从所述问题中获取引导词,所述引导词与所述问题语义关联的步骤包括:
获取所述问题的分词序列,所述分词序列包含所述问题的全部分词;
获取所述分词序列中每个分词的至少一个相关词;
根据预设抽词规则,从所有所述相关词中抽取至少一个所述相关词,作为候选引导词,生成候选词集;
根据预设选词规则,从所述候选词集中获取引导词。
9.根据权利要求8所述的方法,其特征在于,所述根据预设选词规则,从所述候选词集中获取引导词的步骤包括:
对每个所述候选引导词分别与所述分词序列中的每个分词进行相似度计算;
根据相似度计算结果,获取每个所述候选引导词的重要度,所述重要度为所述候选引导词与所述分词序列中所有分词的相似度之和;
将所述重要度最大的所述候选引导词作为引导词。
10.一种语义受控应答装置,应用于权利要求1-6所述的方法构建的对话系统,其特征在于,所述装置包括:
获取模块,用于当用户输入问题时,从所述问题中获取引导词,所述引导词与所述问题语义关联;
第一应答模块,用于根据所述引导词,使用第一问答模型对所述问题生成第一应答,所述第一应答与所述引导词语义关联;
第二应答模块,用于根据所述引导词和所述第一应答,使用第二问答模型对所述问题生成第二应答,所述第二应答与所述引导词和所述第一应答语义关联。
CN201711185817.0A 2017-11-23 2017-11-23 一种对话系统构建方法、语义受控应答方法及装置 Active CN107798140B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711185817.0A CN107798140B (zh) 2017-11-23 2017-11-23 一种对话系统构建方法、语义受控应答方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711185817.0A CN107798140B (zh) 2017-11-23 2017-11-23 一种对话系统构建方法、语义受控应答方法及装置

Publications (2)

Publication Number Publication Date
CN107798140A true CN107798140A (zh) 2018-03-13
CN107798140B CN107798140B (zh) 2020-07-03

Family

ID=61536525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711185817.0A Active CN107798140B (zh) 2017-11-23 2017-11-23 一种对话系统构建方法、语义受控应答方法及装置

Country Status (1)

Country Link
CN (1) CN107798140B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509539A (zh) * 2018-03-16 2018-09-07 联想(北京)有限公司 信息处理方法电子设备
CN108564833A (zh) * 2018-04-28 2018-09-21 北京比特智学科技有限公司 智能交互对话控制方法及装置
CN109002515A (zh) * 2018-07-04 2018-12-14 网宿科技股份有限公司 一种智能应答的方法和装置
CN109388806A (zh) * 2018-10-26 2019-02-26 北京布本智能科技有限公司 一种基于深度学习及遗忘算法的中文分词方法
CN109460462A (zh) * 2018-11-15 2019-03-12 中通天鸿(北京)通信科技股份有限公司 一种中文相似问题生成系统与方法
CN109522395A (zh) * 2018-10-12 2019-03-26 平安科技(深圳)有限公司 自动问答方法及装置
CN109614618A (zh) * 2018-06-01 2019-04-12 安徽省泰岳祥升软件有限公司 基于多语义的集外词处理方法及装置
CN110297894A (zh) * 2019-05-22 2019-10-01 同济大学 一种基于辅助网络的智能对话生成方法
CN110413753A (zh) * 2019-07-22 2019-11-05 阿里巴巴集团控股有限公司 问答样本的扩展方法及装置
CN110838287A (zh) * 2019-10-16 2020-02-25 中国第一汽车股份有限公司 车载环境下聊天机器人的语料处理方法、装置及存储介质
CN110851673A (zh) * 2019-11-12 2020-02-28 西南科技大学 一种改进的集束搜索策略及问答系统
CN110855875A (zh) * 2018-08-20 2020-02-28 珠海格力电器股份有限公司 获取图像的背景信息的方法及装置
US11100412B2 (en) 2019-07-22 2021-08-24 Advanced New Technologies Co., Ltd. Extending question and answer samples
CN114117024A (zh) * 2022-01-27 2022-03-01 永鼎行远(南京)信息科技有限公司 一种多轮对话功能场景的平台构建方法
CN114610861A (zh) * 2022-05-11 2022-06-10 之江实验室 基于变分自编码器的融入知识和感情的端到端对话方法
CN110110048B (zh) * 2019-05-10 2023-06-02 科大讯飞股份有限公司 问询指引方法及装置
CN117301074A (zh) * 2023-11-17 2023-12-29 浙江孚宝智能科技有限公司 智能机器人的控制方法及芯片

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101030267A (zh) * 2006-02-28 2007-09-05 腾讯科技(深圳)有限公司 自动问答方法及系统
CN101566998A (zh) * 2009-05-26 2009-10-28 华中师范大学 一种基于神经网络的中文问答系统
JP5212204B2 (ja) * 2009-03-19 2013-06-19 トヨタ自動車株式会社 応答生成装置及びプログラム
CN105068661A (zh) * 2015-09-07 2015-11-18 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法和系统
CN107329995A (zh) * 2017-06-08 2017-11-07 北京神州泰岳软件股份有限公司 一种语义受控的答案生成方法、装置及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101030267A (zh) * 2006-02-28 2007-09-05 腾讯科技(深圳)有限公司 自动问答方法及系统
JP5212204B2 (ja) * 2009-03-19 2013-06-19 トヨタ自動車株式会社 応答生成装置及びプログラム
CN101566998A (zh) * 2009-05-26 2009-10-28 华中师范大学 一种基于神经网络的中文问答系统
CN105068661A (zh) * 2015-09-07 2015-11-18 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法和系统
CN107329995A (zh) * 2017-06-08 2017-11-07 北京神州泰岳软件股份有限公司 一种语义受控的答案生成方法、装置及系统

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509539B (zh) * 2018-03-16 2021-08-17 联想(北京)有限公司 信息处理方法电子设备
CN108509539A (zh) * 2018-03-16 2018-09-07 联想(北京)有限公司 信息处理方法电子设备
CN108564833A (zh) * 2018-04-28 2018-09-21 北京比特智学科技有限公司 智能交互对话控制方法及装置
CN109614618B (zh) * 2018-06-01 2023-07-14 安徽省泰岳祥升软件有限公司 基于多语义的集外词处理方法及装置
CN109614618A (zh) * 2018-06-01 2019-04-12 安徽省泰岳祥升软件有限公司 基于多语义的集外词处理方法及装置
WO2020006827A1 (zh) * 2018-07-04 2020-01-09 网宿科技股份有限公司 一种智能应答的方法和装置
CN109002515A (zh) * 2018-07-04 2018-12-14 网宿科技股份有限公司 一种智能应答的方法和装置
CN110855875A (zh) * 2018-08-20 2020-02-28 珠海格力电器股份有限公司 获取图像的背景信息的方法及装置
CN109522395A (zh) * 2018-10-12 2019-03-26 平安科技(深圳)有限公司 自动问答方法及装置
CN109388806A (zh) * 2018-10-26 2019-02-26 北京布本智能科技有限公司 一种基于深度学习及遗忘算法的中文分词方法
CN109388806B (zh) * 2018-10-26 2023-06-27 北京布本智能科技有限公司 一种基于深度学习及遗忘算法的中文分词方法
CN109460462B (zh) * 2018-11-15 2021-10-19 中通天鸿(北京)通信科技股份有限公司 一种中文相似问题生成系统与方法
CN109460462A (zh) * 2018-11-15 2019-03-12 中通天鸿(北京)通信科技股份有限公司 一种中文相似问题生成系统与方法
CN110110048B (zh) * 2019-05-10 2023-06-02 科大讯飞股份有限公司 问询指引方法及装置
CN110297894A (zh) * 2019-05-22 2019-10-01 同济大学 一种基于辅助网络的智能对话生成方法
CN110297894B (zh) * 2019-05-22 2021-03-26 同济大学 一种基于辅助网络的智能对话生成方法
US11100412B2 (en) 2019-07-22 2021-08-24 Advanced New Technologies Co., Ltd. Extending question and answer samples
CN110413753A (zh) * 2019-07-22 2019-11-05 阿里巴巴集团控股有限公司 问答样本的扩展方法及装置
CN110413753B (zh) * 2019-07-22 2020-09-22 阿里巴巴集团控股有限公司 问答样本的扩展方法及装置
CN110838287A (zh) * 2019-10-16 2020-02-25 中国第一汽车股份有限公司 车载环境下聊天机器人的语料处理方法、装置及存储介质
CN110851673B (zh) * 2019-11-12 2022-08-09 西南科技大学 一种改进的集束搜索方法及问答系统
CN110851673A (zh) * 2019-11-12 2020-02-28 西南科技大学 一种改进的集束搜索策略及问答系统
CN114117024A (zh) * 2022-01-27 2022-03-01 永鼎行远(南京)信息科技有限公司 一种多轮对话功能场景的平台构建方法
CN114117024B (zh) * 2022-01-27 2022-05-03 永鼎行远(南京)信息科技有限公司 一种多轮对话功能场景的平台构建方法
CN114610861A (zh) * 2022-05-11 2022-06-10 之江实验室 基于变分自编码器的融入知识和感情的端到端对话方法
CN117301074A (zh) * 2023-11-17 2023-12-29 浙江孚宝智能科技有限公司 智能机器人的控制方法及芯片
CN117301074B (zh) * 2023-11-17 2024-04-30 浙江孚宝智能科技有限公司 智能机器人的控制方法及芯片

Also Published As

Publication number Publication date
CN107798140B (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN107798140A (zh) 一种对话系统构建方法、语义受控应答方法及装置
CN109840287B (zh) 一种基于神经网络的跨模态信息检索方法和装置
CN108647205B (zh) 细粒度情感分析模型构建方法、设备及可读存储介质
CN110532557B (zh) 一种无监督的文本相似度计算方法
CN111259127B (zh) 一种基于迁移学习句向量的长文本答案选择方法
CN110134946B (zh) 一种针对复杂数据的机器阅读理解方法
CN110990564B (zh) 一种基于情感计算与多头注意力机制的负面新闻识别方法
CN110929030A (zh) 一种文本摘要和情感分类联合训练方法
CN107329995B (zh) 一种语义受控的答案生成方法、装置及系统
CN110287323B (zh) 一种面向目标的情感分类方法
CN111581350A (zh) 一种基于预训练语言模型的多任务学习阅读理解方法
CN111858932A (zh) 基于Transformer的多重特征中英文情感分类方法及系统
CN110489750A (zh) 基于双向lstm-crf的缅甸语分词及词性标注方法及装置
CN110442880B (zh) 一种机器翻译译文的翻译方法、装置及存储介质
CN113283236B (zh) 一种复杂中文文本中的实体消歧方法
CN113505209A (zh) 一种面向汽车领域的智能问答系统
Zhang et al. Exploring deep recurrent convolution neural networks for subjectivity classification
CN113032541A (zh) 一种基于bert并融合句群检索的答案抽取方法
CN116010553A (zh) 一种基于双路编码和精确匹配信号的观点检索系统
CN115905487A (zh) 文档问答方法、系统、电子设备及存储介质
CN114282592A (zh) 一种基于深度学习的行业文本匹配模型方法及装置
CN111191029B (zh) 基于监督学习和文本分类的ac构建方法
Khuman et al. Grey relational analysis and natural language processing to: grey language processing
Ye et al. A sentiment based non-factoid question-answering framework
CN115840815A (zh) 基于指针关键信息的自动摘要生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20190905

Address after: Room 630, 6th floor, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant after: China Science and Technology (Beijing) Co., Ltd.

Address before: Room 601, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant before: Beijing Shenzhou Taiyue Software Co., Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 230000 zone B, 19th floor, building A1, 3333 Xiyou Road, hi tech Zone, Hefei City, Anhui Province

Patentee after: Dingfu Intelligent Technology Co., Ltd

Address before: Room 630, 6th floor, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Patentee before: DINFO (BEIJING) SCIENCE DEVELOPMENT Co.,Ltd.

CP03 Change of name, title or address