CN107291701A - 一种机器语言生成方法及装置 - Google Patents

一种机器语言生成方法及装置 Download PDF

Info

Publication number
CN107291701A
CN107291701A CN201610207754.3A CN201610207754A CN107291701A CN 107291701 A CN107291701 A CN 107291701A CN 201610207754 A CN201610207754 A CN 201610207754A CN 107291701 A CN107291701 A CN 107291701A
Authority
CN
China
Prior art keywords
statement
hereafter
language
frame
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610207754.3A
Other languages
English (en)
Other versions
CN107291701B (zh
Inventor
黎槟华
江会星
孙健
初敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Tmall Technology Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201610207754.3A priority Critical patent/CN107291701B/zh
Publication of CN107291701A publication Critical patent/CN107291701A/zh
Application granted granted Critical
Publication of CN107291701B publication Critical patent/CN107291701B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种机器语言生成方法及装置,所述机器语言生成方法接收输入语句,根据预设的框架模型得到输入语句对应的框架列表,并将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出。本发明机器语言生成装置包括框架生成模块和语句生成模块。本发明的方法及装置在生成回复语句时,逐步根据上文生成多个候选下文,选择概率最大的候选下文作为获选下文,从而保证了生成的回复语句的通顺,同时与框架模型产生的框架相结合,保证了回复语句包含了一定的固定结构,使得回复语句在包含框架的前提下又非常通顺,更加符合语意和人类的自然语言,给人更好的体验。

Description

一种机器语言生成方法及装置
技术领域
本发明属于人工智能技术领域,尤其涉及一种机器语言生成方法及装置。
背景技术
随着科技的发展,人工智能逐渐开始进入工业、商业和生活领域。人工语音助手在目前应用的相当广阔,例如百度的度秘、微软的小冰和小娜等等,能够提供语音交互,根据用户的喜好和习惯,帮助用户进行日程安排、问题回答等。这些产品的核心是基于语言模型的思想,根据用户输入的上文,预测出下文并输出,例如:用户通过语音提出问题,人工语音助手预测出相应的答案进行回答。
而对于给定上文信息作为条件,预测下文的概率,现有技术有n-gram、统计机器翻译、sequence-to-sequence等,但是这些现有技术在输出的生成上均不可控。为了解决输出可控的问题,现有技术通过人工构造模板,在输出时根据模板填充字词,从而达到将输出控制到框架内的目的。
然而基于模板填充的方案,需要首先人工构造模版。人工构造模板时间和人力的消耗巨大,而且覆盖面十分有限。并且基于模版填充的方案,构造出的模版是缺少核心词的句子,生成时填充核心词,导致了返回的句子有明显的模版痕迹,用户体验差。
发明内容
本发明的目的是提供一种机器语言生成方法及装置,以避免现有技术在输出的生成上不可控、模板痕迹明显、用户体验差等现象,使得生成的机器语言的句子灵活多变,没有模板痕迹,符合预定的框架。
为了实现上述目的,本发明技术方案如下:
一种机器语言生成方法,所述机器语言生成方法包括:
接收输入语句,根据预设的框架模型得到输入语句对应的框架列表;
将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出。
本发明的一种实现方式,所述将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出,包括:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
本发明的另一种实现方式,所述将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出,包括:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
查询所有步骤对应的未选择过的候选下文中是否包含框架中的核心词,如果有,则选择该核心词作为选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断,否则选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
进一步地,所述候选下文对应的概率由语言生成模型计算得到,表示在上文情况下生成本候选下文的概率。
进一步地,所述预设的框架模型和语言生成模型,是预先通过对问答对语料进行学习后得到。
进一步地,所述对问答对语料进行学习,采用的语言模型包括基于统计的ngram语言模型、或基于深度学习的神经网络语言模型、或基于encoder-decoder的神经网络模型。
本发明还提出了一种机器语言生成装置,所述机器语言生成装置包括:
框架生成模块,用于接收输入语句,根据预设的框架模型得到输入语句对应的框架列表;
语句生成模块,将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出。
进一步地,所述语句生成模块在将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出时,执行如下操作:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
或,所述语句生成模块在将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出时,执行如下操作:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
查询所有步骤对应的未选择过的候选下文中是否包含框架中的核心词,如果有,则选择该核心词作为选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断,否则选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
本发明提出了一种机器语言生成方法及装置,通过学习得到语言生成模型和框架模型,然后结合学习到的语言生成模型对输入的上文进行解码,生成符合框架模型的下文输出。本发明的回复语句中,核心词或者框架为固定部分,其余词汇为可变部分。与传统人工构造模板不同,传统人工构造模板的方式是构造的模板的描述部分固定,核心词为可变部分,在生成回复语句时,通过填入不同的核心词来进行回答,生成的句子模板痕迹严重。
本发明无需人工构造模板,节省人力物力。生成的句子灵活多变,没有模板痕迹,句子符合预定的框架或者句子中会出现指定的核心词,给用户良好的使用体验。
附图说明
图1为本发明机器语言生成方法流程图;
图2为本发明机器语言生成装置结构示意图。
具体实施方式
下面结合附图和实施例对本发明技术方案做进一步详细说明,以下实施例不构成对本发明的限定。
如图1所示,本实施例机器语言生成方法,包括:
步骤S1、接收输入语句,根据预设的框架模型得到输入语句对应的框架列表。
本实施例的方法预设有框架模型和语言生成模型。
其中框架模型、语言生成模型包括但不限于基于统计的ngram语言模型、基于深度学习的神经网络语言模型,或基于encoder-decoder的神经网络模型等,通过大量训练样本,例如大量的问答对语料,或其他用来训练的语料,来学习得到所需要的框架模型和语言生成模型。
其中语言生成模型的学习过程就是统计或者计算,在当前已知的上文(可能是短距离的字词,也可能是长距离的段落)的情况下,哪些下文(词或者字)的概率最大。
问答对语料是用来进行语言生成模型学习的训练样本,例如如下问答对:
例句1、Question:今天是几号?Answer:15号。
例句2、Question:今天是几号?Answer:今天是15号。
通过学习得到的语言生成模型,能根据输入的上文,输出相应的下文,具体生成的方法后面再详细描述。
类似地,框架模型的学习过程通过同样的学习方法对大量问答对语料的学习,得到框架模型。通过学习得到的框架模型,能根据输入语句,得出相应的回复语句对应的框架。
例如,输入语句Q为:今天是几号?
其回复语句对应的框架可能是:
F1:<TODAY>是<DATE>哦。(其中<TODAY>……<DATE>是框架)
F2:我想想哈,<DATE>好像是…。(其中<DATE>是框架)
本实施例将所有可能的框架F1和F2统称为输入语句对应的框架列表F,F包括F1和F2。回复语句对应的框架是指回复语句应该包括的核心词及核心词的前后关系结构。例如框架F1:<TODAY>……<DATE>中,<TODAY>和<DATE>为核心词;框架F2:<DATE>中,<DATE>就是核心词。
步骤S2、将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出。
为使得生成的回复语句句子通顺,又能够将框架放入句子中,即在包含框架的前提下最通顺。语言生成模型在生成回复语句时,逐步根据上文来产生下文,由产生的下文来组成回复语句。根据上文生成一个下文称为一步,在每一步中,根据上文产生多个候选下文及其对应的概率,选择概率最大的候选下文作为获选下文,将其编入到回复语句中。
下面通过实施例来详细描述生成回复语句的过程,包括:
1)、将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率。
将输入语句输入到预设的语言生成模型,本实施例定义Q为输入语句,Q为“今天是几号?”,<s>为回复语句的开始符号,也就是生成的起点,</s>为回复语句的结束,是生成的终点。详细生成过程如下:
从<s>开始生成
步骤a:
上文:Q<s>;
候选下文:我(0.5),<TODAY>(0.3),你(0.2);
得到回复语句:<s>我。
其中,候选下文后面的括号内的数字为在上文情况下生成本候选下文的概率,即在该上文情况下,生成下一个词(下文)的概率,表示为P(next|context),概率P(next|context)由语言生成模型计算得到。
在该步骤中,输入的上文为“今天是几号?”,假设语言生成模型产生的候选下文为“我(0.5),<TODAY>(0.3),你(0.2)”,候选下文后面的括号内的数字为在上文情况下生成本候选下文的概率,其中根据上文“今天是几号?”生成下文“我”的概率是0.5,生成<TODAY>的概率是0.3,生成“你”的概率是0.2。关于语言生成模型根据上文生成候选下文,后面不再赘述。
可见候选下文中“我”的概率最高,因此语言生成模型选择“我”作为下文,进入下一步继续生成后一个词。
步骤b:
上文:Q<s>我;
候选下文:</s>(0.4),是(0.2),你(0.1)…;
得到回复语句:<s>我</s>。
上一步生成了回复语句的第一个词,语言生成模型根据上文:“今天是几号?”、“我”继续生成下文,假设语言生成模型产生的候选下文为:</s>(0.4),是(0.2),你(0.1),选择其中概率最高的为下文,所选择的下文为:</s>。
至此,已经到了句子结尾</s>,产生了回复语句:<s>我</s>,开始进入下一步判断是否符合框架列表F里面的任意框架。
2)、判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步。
具体地,得到的回复语句:<s>我</s>,与框架列表F中任一框架都不符合,因此判断为结果不符合,需要进入下一步。而如果符合,则直接输出该回复语句作为输入语句对应的回复。
3)、从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到步骤2)。
由于第一次生成的回复语句与框架列表中的任一框架都不符合,需要重新生成回复语句。从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文。
第一次生成回复语句时,包括两个步骤,步骤a中未选择过的候选下文为:<TODAY>(0.3),你(0.2);步骤b中的未选择过的候选下文为:是(0.2),你(0.1)。其中<TODAY>(0.3)对应的概率最高,因此选择<TODAY>(0.3)作为步骤a所选择的下文,继续逐步生成回复语句,步骤如下:
步骤a:
上文:Q<s>;
候选下文:我(0.5),<TODAY>(0.3),你(0.2);
得到回复语句:<s><TODAY>;
步骤b:
上文:Q<s><TODAY>;
候选下文:是(0.6),有(0.2);
得到回复语句:<s><TODAY>是;
步骤c:
上文:Q<s><TODAY>是;
候选下文:<DATE>(0.3),春天(0.1);
得到回复语句:<s><TODAY>是<DATE>;
步骤d:
上文:Q<s><TODAY>是<DATE>;
候选下文:</s>(0.7),天气(0.1);
得到回复语句:<s><TODAY>是<DATE></s>。
至此,发现</s>,已经到了句子结尾,生成回复语句为:<s><TODAY>是<DATE></s>。
返回到步骤2)进行判断,发现该回复语句符合框架列表中的框架F1,因此输出“<TODAY>是<DATE>”作为输入语句“今天是几号?”的答复,结束流程。
需要说明的是,如果第二次生成回复语句还没有成功匹配到框架,则需要继续从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,直至成功。
容易理解的是,上述方法一般来说能够产生符合框架列表的回复语句,但并非唯一的方法,为了快速的获得回复语句,在根据上文生成候选下文后,如果候选下文中包括框架中的核心词,则直接选择该核心词作为下文来生成回复语句。
例如:
步骤a:
上文:Q<s>;
候选下文:我(0.5),<TODAY>(0.3),你(0.2);
得到回复语句:<s><TODAY>。
即在步骤a中,由于候选下文包含框架中的核心词<TODAY>,因此直接选择该核心词来作为下文,而不是选择“我(0.5)”。
如果候选下文中不包括框架中的核心词,则从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到步骤2),这里不再赘述。
本实施例语言生成模型在生成回复语句时,逐步根据上文生成多个候选下文,选择概率最大的候选下文作为获选下文,从而保证了生成的回复语句的通顺。同时,与框架模型产生的框架相结合,保证了回复语句包含了一定的固定结构(框架)。即使得回复语句在包含框架的前提下又非常通顺,从而采用本方法的人工语音助手的回复更加符合语意和人类的自然语言,给人更好的体验。
如图2所示,本实施例一种机器语言生成装置,该机器语言生成装置包括:
框架生成模块,用于接收输入语句,根据预设的框架模型得到输入语句对应的框架列表;
语句生成模块,将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出。
一种实施例,语句生成模块在将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出时,执行如下操作:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
另一种实施例,语句生成模块在将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出时,执行如下操作:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
查询所有步骤对应的未选择过的候选下文中是否包含框架中的核心词,如果有,则选择该核心词作为选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断,否则选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (12)

1.一种机器语言生成方法,其特征在于,所述机器语言生成方法包括:
接收输入语句,根据预设的框架模型得到输入语句对应的框架列表;
将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出。
2.根据权利要求1所述的机器语言生成方法,其特征在于,所述将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出,包括:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
3.根据权利要求1所述的机器语言生成方法,其特征在于,所述将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出,包括:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
查询所有步骤对应的未选择过的候选下文中是否包含框架中的核心词,如果有,则选择该核心词作为选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断,否则选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
4.根据权利要求2或3所述的机器语言生成方法,其特征在于,所述候选下文对应的概率由语言生成模型计算得到,表示在上文情况下生成本候选下文的概率。
5.根据权利要求1所述的机器语言生成方法,其特征在于,所述预设的框架模型和语言生成模型,是预先通过对问答对语料进行学习后得到。
6.根据权利要求5所述的机器语言生成方法,其特征在于,所述对问答对语料进行学习,采用的语言模型包括基于统计的ngram语言模型、或基于深度学习的神经网络语言模型、或基于encoder-decoder的神经网络模型。
7.一种机器语言生成装置,其特征在于,所述机器语言生成装置包括:
框架生成模块,用于接收输入语句,根据预设的框架模型得到输入语句对应的框架列表;
语句生成模块,将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出。
8.根据权利要求7所述的机器语言生成装置,其特征在于,所述语句生成模块在将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出时,执行如下操作:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
从所有步骤对应的未选择过的候选下文中选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
9.根据权利要求7所述的机器语言生成装置,其特征在于,所述语句生成模块在将输入语句输入到预设的语言生成模型,生成符合框架列表中任一框架的回复语句输出时,执行如下操作:
将输入语句输入到预设的语言生成模型,开始逐步生成回复语句,每一步骤根据上文生成下文,所有生成的下文组成回复语句,记录每一步骤中所有候选下文对应的概率;
判断生成的回复语句是否符合输入语句对应的框架列表中的任一框架,如果符合则输出该回复语句作为输入语句对应的回复,否则进入下一步;
查询所有步骤对应的未选择过的候选下文中是否包含框架中的核心词,如果有,则选择该核心词作为选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断,否则选择概率最高的候选下文,作为其对应的步骤所选择的下文,继续逐步生成回复语句,返回到上一步骤继续进行判断。
10.根据权利要求8或9所述的机器语言生成装置,其特征在于,所述候选下文对应的概率由语言生成模型计算得到,表示在上文情况下生成本候选下文的概率。
11.根据权利要求10所述的机器语言生成装置,其特征在于,所述预设的框架模型和语言生成模型,是预先通过对问答对语料进行学习后得到。
12.根据权利要求11所述的机器语言生成装置,其特征在于,所述对问答对语料进行学习,采用的语言模型包括基于统计的ngram语言模型、或基于深度学习的神经网络语言模型、或基于encoder-decoder的神经网络模型。
CN201610207754.3A 2016-04-01 2016-04-01 一种机器语言生成方法及装置 Active CN107291701B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610207754.3A CN107291701B (zh) 2016-04-01 2016-04-01 一种机器语言生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610207754.3A CN107291701B (zh) 2016-04-01 2016-04-01 一种机器语言生成方法及装置

Publications (2)

Publication Number Publication Date
CN107291701A true CN107291701A (zh) 2017-10-24
CN107291701B CN107291701B (zh) 2020-12-01

Family

ID=60093203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610207754.3A Active CN107291701B (zh) 2016-04-01 2016-04-01 一种机器语言生成方法及装置

Country Status (1)

Country Link
CN (1) CN107291701B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108733359A (zh) * 2018-06-14 2018-11-02 北京航空航天大学 一种软件程序的自动生成方法
CN108897852A (zh) * 2018-06-29 2018-11-27 北京百度网讯科技有限公司 对话内容连贯性的判断方法、装置以及设备
CN109995642A (zh) * 2017-12-29 2019-07-09 Tcl集团股份有限公司 一种自动生成快捷回复的方法及装置、即时通讯系统
CN110717022A (zh) * 2019-09-18 2020-01-21 平安科技(深圳)有限公司 一种机器人对话生成方法、装置、可读存储介质及机器人
WO2021000512A1 (zh) * 2019-07-04 2021-01-07 深圳壹账通智能科技有限公司 自然语言转换成程序语言的方法、装置及计算机设备
WO2021053470A1 (en) * 2019-09-20 2021-03-25 International Business Machines Corporation Selective deep parsing of natural language content
CN114691852A (zh) * 2022-06-01 2022-07-01 阿里巴巴达摩院(杭州)科技有限公司 人机对话系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060095248A1 (en) * 2004-11-04 2006-05-04 Microsoft Corporation Machine translation system incorporating syntactic dependency treelets into a statistical framework
CN102236645A (zh) * 2010-05-06 2011-11-09 上海五和际软件信息有限公司 基于语义逻辑的类自然语言人机对话装置
US20120191502A1 (en) * 2011-01-20 2012-07-26 John Nicholas Gross System & Method For Analyzing & Predicting Behavior Of An Organization & Personnel
CN102623010A (zh) * 2012-02-29 2012-08-01 北京百度网讯科技有限公司 一种建立语言模型的方法、语音识别的方法及其装置
CN102637192A (zh) * 2012-02-17 2012-08-15 清华大学 一种自然语言问答的方法
CN102681981A (zh) * 2011-03-11 2012-09-19 富士通株式会社 自然语言词法分析方法、装置及分析器训练方法
KR101253104B1 (ko) * 2009-09-01 2013-04-10 한국전자통신연구원 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법
CN104598445A (zh) * 2013-11-01 2015-05-06 腾讯科技(深圳)有限公司 自动问答系统和方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060095248A1 (en) * 2004-11-04 2006-05-04 Microsoft Corporation Machine translation system incorporating syntactic dependency treelets into a statistical framework
KR101253104B1 (ko) * 2009-09-01 2013-04-10 한국전자통신연구원 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법
CN102236645A (zh) * 2010-05-06 2011-11-09 上海五和际软件信息有限公司 基于语义逻辑的类自然语言人机对话装置
US20120191502A1 (en) * 2011-01-20 2012-07-26 John Nicholas Gross System & Method For Analyzing & Predicting Behavior Of An Organization & Personnel
CN102681981A (zh) * 2011-03-11 2012-09-19 富士通株式会社 自然语言词法分析方法、装置及分析器训练方法
CN102637192A (zh) * 2012-02-17 2012-08-15 清华大学 一种自然语言问答的方法
CN102623010A (zh) * 2012-02-29 2012-08-01 北京百度网讯科技有限公司 一种建立语言模型的方法、语音识别的方法及其装置
CN104598445A (zh) * 2013-11-01 2015-05-06 腾讯科技(深圳)有限公司 自动问答系统和方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SAKAI SHINSUKE 等: "A probabilistic approach to unit selection for corpus-based speech synthesis", 《NINTH EUROPEAN CONFERENCE ON SPEECH COMMUNICATION AND TECHNOLOGY》 *
吴友政 等: "基于主题语言模型的句子检索算法", 《计算机研究与发展》 *
张晓孪: "中文问答系统中问题理解与信息检索的研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109995642A (zh) * 2017-12-29 2019-07-09 Tcl集团股份有限公司 一种自动生成快捷回复的方法及装置、即时通讯系统
CN108733359A (zh) * 2018-06-14 2018-11-02 北京航空航天大学 一种软件程序的自动生成方法
CN108897852A (zh) * 2018-06-29 2018-11-27 北京百度网讯科技有限公司 对话内容连贯性的判断方法、装置以及设备
CN108897852B (zh) * 2018-06-29 2020-10-23 北京百度网讯科技有限公司 对话内容连贯性的判断方法、装置以及设备
WO2021000512A1 (zh) * 2019-07-04 2021-01-07 深圳壹账通智能科技有限公司 自然语言转换成程序语言的方法、装置及计算机设备
CN110717022A (zh) * 2019-09-18 2020-01-21 平安科技(深圳)有限公司 一种机器人对话生成方法、装置、可读存储介质及机器人
WO2021053470A1 (en) * 2019-09-20 2021-03-25 International Business Machines Corporation Selective deep parsing of natural language content
US11120216B2 (en) 2019-09-20 2021-09-14 International Business Machines Corporation Selective deep parsing of natural language content
GB2602602A (en) * 2019-09-20 2022-07-06 Ibm Selective deep parsing of natural language content
US11449675B2 (en) 2019-09-20 2022-09-20 International Business Machines Corporation Selective deep parsing of natural language content
US11748562B2 (en) 2019-09-20 2023-09-05 Merative Us L.P. Selective deep parsing of natural language content
CN114691852A (zh) * 2022-06-01 2022-07-01 阿里巴巴达摩院(杭州)科技有限公司 人机对话系统及方法
CN114691852B (zh) * 2022-06-01 2022-08-12 阿里巴巴达摩院(杭州)科技有限公司 人机对话系统及方法

Also Published As

Publication number Publication date
CN107291701B (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
CN107291701A (zh) 一种机器语言生成方法及装置
CN105632251B (zh) 具有语音功能的3d虚拟教师系统及其方法
CA2929018C (en) Natural expression processing method, processing and response method, device and system
CN106295792B (zh) 基于多模型输出的对话数据交互处理方法及装置
CN107562863A (zh) 聊天机器人回复自动生成方法及系统
CN107958433A (zh) 一种基于人工智能的在线教育人机交互方法与系统
CN107203511A (zh) 一种基于神经网络概率消歧的网络文本命名实体识别方法
CN107766506A (zh) 一种基于层次化注意力机制的多轮对话模型构建方法
CN108711420A (zh) 多语言混杂模型建立、数据获取方法及装置、电子设备
CN109271493A (zh) 一种语言文本处理方法、装置和存储介质
CN108287820A (zh) 一种文本表示的生成方法及装置
CN110427629A (zh) 半监督文本简化模型训练方法和系统
CN107437417A (zh) 基于循环神经网络语音识别中语音数据增强方法及装置
CN107679225A (zh) 一种基于关键词的回复生成方法
CN108388944B (zh) 一种基于深度神经网络的自动聊天方法和机器人
CN112463942A (zh) 文本处理方法、装置、电子设备及计算机可读存储介质
CN106558309A (zh) 一种口语对话策略生成方法及口语对话方法
CN112506945A (zh) 基于知识图谱的自适应导学方法及系统
CN106981228A (zh) 一种交互式it技能在线教育方法
CN112528883A (zh) 一种基于反思网络的教学场景视频描述生成方法
CN113360618A (zh) 一种基于离线强化学习的智能机器人对话方法及系统
CN113326367B (zh) 基于端到端文本生成的任务型对话方法和系统
CN114048301A (zh) 一种基于满意度的用户模拟方法及系统
CN109119064A (zh) 一种适用于翻转课堂的英语口语教学系统的实现方法
CN112989812B (zh) 一种基于云数据中心分布式诗歌生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1245933

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211116

Address after: Room 507, floor 5, building 3, No. 969, Wenyi West Road, Wuchang Street, Yuhang District, Hangzhou City, Zhejiang Province

Patentee after: Zhejiang tmall Technology Co., Ltd

Address before: P.O. Box 847, 4th floor, Grand Cayman capital building, British Cayman Islands

Patentee before: Alibaba Group Holdings Limited