CN106663001A - 基于单意图的技能包并行执行管理方法、系统及机器人 - Google Patents
基于单意图的技能包并行执行管理方法、系统及机器人 Download PDFInfo
- Publication number
- CN106663001A CN106663001A CN201680001773.9A CN201680001773A CN106663001A CN 106663001 A CN106663001 A CN 106663001A CN 201680001773 A CN201680001773 A CN 201680001773A CN 106663001 A CN106663001 A CN 106663001A
- Authority
- CN
- China
- Prior art keywords
- technical ability
- parameter
- weighted value
- bag
- ability bag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline, look ahead
Abstract
本发明提供一种基于单意图的技能包并行执行管理方法,包括:获取用户的语音信息和多模态参数;根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;根据融合排序的算法得到权重值最高的技能包。本发明的管理方法和系统采用的多个技能包并行执行更加便于模糊意图的理解,在选择的技能包出现失误时,由于是多个技能包并行执行,可以更快的切换到其他技能包,本发明的管理方案容错率也更高,而对于整体来说,本发明的管理方法和系统的鲁棒性和稳健性更高,提高了机器人与用户交互的效率和用户好感度。
Description
技术领域
本发明涉及机器人交互技术领域,尤其涉及一种基于单意图的技能包并行执行管理方法、系统及机器人。
背景技术
机器人作为与人类的交互工具,使用的场合越来越多,例如一些老人、小孩较孤独时,就可以与机器人交互,包括对话、娱乐等。机器人一般具有很多钟功能,这些功能在机器人系统中称之为技能包,一般一个技能包就对应着机器人的一个功能,例如唱歌是一个技能包,播放音乐也是一个技能包。机器人通常通过识别人类的语音等来了解人类想要机器人执行的技能包,机器人根据语音去搜索到相应的技能包然后执行。
然而,现有的机器人中的技能包管理和搜索效率较低,造成了机器人在交互过程中反应较慢,往往机器人在接受到命令数秒了才会有反应,大大降低了用户使用机器人的舒适度和好感度。
因此,如何提供一种反应速度更快的技能包并行执行管理方法、系统及机器人,提升人机交互体验成为亟需解决的技术问题。
发明内容
本发明的目的是提供一种反应速度更快的技能包并行执行管理方法、系统及机器人,提升人机交互体验。
本发明的目的是通过以下技术方案来实现的:
一种基于单意图的技能包并行执行管理方法,包括:
获取用户的语音信息和多模态参数;
根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;
根据融合排序的算法得到权重值最高的技能包。
优选的,在获取用户的语音信息和多模态参数的步骤之后还包括:
根据获取的语音信息和多模态参数,识别用户意图;
所述根据所述语音信息和多模态参数同时向至少两个技能包分别分配权重值的步骤进一步包括:
根据识别的用户意图,通过计算同时向至少两个技能包分别分配权重值。
优选的,所述根据融合排序的算法得到权重值最高的技能包的步骤进一步包括:
判断各个技能包之间是否相互排斥,将存在排斥的技能包去除,并根据用户的历史数据分配权重值,得到权重值最高的技能包。
优选的,在所述根据融合排序的算法得到权重值最高的技能包的步骤之后,进一步包括:
将权重值最高的技能包发送至交互模块,并执行该技能包的功能。
优选的,所述多模态参数至少包括表情参数、场景参数、图像参数、视频参数、人脸参数、瞳孔虹膜参数、光感参数和指纹参数中的其中一种或几种。
一种基于单意图的技能包并行执行管理系统,包括:
获取模块,用于获取用户的语音信息和多模态参数;
搜索模块,用于根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;
处理模块,用于根据融合排序的算法得到权重值最高的技能包。
优选的,所述系统还包括:
意图识别模块,用于根据获取的语音信息和多模态参数,识别用户意图;
所述匹配模块进一步用于:根据识别的用户意图,通过计算同时向至少两个技能包分别分配权重值。
优选的,所述处理模块进一步用于:
判断各个技能包之间是否相互排斥,将存在排斥的技能包去除,并根据用户的历史数据分配权重值,得到权重值最高的技能包。
优选的,所述系统进一步包括:
发送执行模块,将权重值最高的技能包发送至交互模块,并执行该技能包的功能。
优选的,其中,所述多模态参数至少包括表情参数、场景参数、图像参数、视频参数、人脸参数、瞳孔虹膜参数、光感参数和指纹参数中的其中一种或几种。
一种机器人,包括如上述任一所述的一种基于单意图的技能包并行执行管理系统。
本发明公开一种机器人,包括如上述任一所述的一种基于单意图的技能包并行执行管理系统。
相比现有技术,本发明具有以下优点:本发明管理方法由于包括:获取用户的语音信息和多模态参数;根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;根据融合排序的算法得到权重值最高的技能包。这样就可以根据获取用户的语音信息和多模态参数,通过搜索模块的计算来对所有的技能包分配权重值,然后再通过融合排序的方法得到权重值最高的技能包,这样同时向所有的技能包分配权重值,通过技能包的并行触发,可以更快的找到相应的技能包,从而使得系统反应时间大大减少,并且通过并行发生模式,使得产品可以对用户做定制化的使用,对于不同的用户可以使用,扩大了系统的适用范围,并方便管理不同的技能包,并行的使用使得对于资源的管理更方便,使得产品的管理,如更新、调整、下架、修改等不影响用户的使用,并且可以提升产品程序开发的效率。本发明首次提出以技能包的管理方式,对机器人及机器人中的功能模块等进行管理,在并行管理的框架下,可以进一步地提高机器人的处理速度和效率,方便机器人更快更便捷的实现功能的启动,并且,本发明的管理方法和系统采用的多个技能包并行执行更加便于模糊意图的理解,在选择的技能包出现失误时,由于是多个技能包并行执行,可以更快的切换到其他技能包,本发明的管理方案容错率也更高,而对于整体来说,本发明的管理方法和系统的鲁棒性和稳健性更高,提高了机器人与用户交互的效率和用户好感度。
附图说明
图1是本发明实施例一的一种基于单意图的技能包并行执行管理方法的流程图;
图2是本发明实施例二的一种基于单意图的技能包并行执行管理系统的示意图。
具体实施方式
虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。各项操作的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
计算机设备包括用户设备与网络设备。其中,用户设备或客户端包括但不限于电脑、智能手机、PDA等;网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算的由大量计算机或网络服务器构成的云。计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制,使用这些术语仅仅是为了将一个单元与另一个单元进行区分。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。当一个单元被称为“连接”或“耦合”到另一单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
下面结合附图和较佳的实施例对本发明作进一步说明。
实施例一
如图1所示,本实施例中公开一种基于单意图的技能包并行执行管理方法,包括:
S101、获取用户的语音信息300和多模态参数400;
S102、根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;
S103、根据融合排序的算法得到权重值最高的技能包。
本发明管理方法由于包括:S101获取用户的语音信息和多模态参数;S102根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;S103根据融合排序的算法得到权重值最高的技能包。这样就可以根据获取用户的语音信息和多模态参数,通过搜索模块的计算来对所有的技能包分配权重值,然后再通过融合排序的方法得到权重值最高的技能包,这样同时向所有的技能包分配权重值,通过技能包的并行触发,可以更快的找到相应的技能包,从而使得系统反应时间大大减少,并且通过并行发生模式,使得产品可以对用户做定制化的使用,对于不同的用户可以使用,扩大了系统的适用范围,并方便管理不同的技能包,并行的使用使得对于资源的管理更方便,使得产品的管理,如更新、调整、下架、修改等不影响用户的使用,并且可以提升产品程序开发的效率。
本发明首次提出以技能包的管理方式,对机器人及机器人中的功能模块等进行管理,在并行管理的框架下,可以进一步地提高机器人的处理速度和效率,方便机器人更快更便捷的实现功能的启动,并且,本发明的管理方法和系统采用的多个技能包并行执行更加便于模糊意图的理解,在选择的技能包出现失误时,由于是多个技能包并行执行,可以更快的切换到其他技能包,本发明的管理方案容错率也更高,而对于整体来说,本发明的管理方法和系统的鲁棒性和稳健性更高,提高了机器人与用户交互的效率和用户好感度。
语音信息300和多模态参数400可以分别通过语音模块和多模态模块获取到。
根据其中一个示例,在获取用户的语音信息和多模态参数的步骤之后还包括:
根据获取的语音信息和多模态参数,识别用户意图;
所述根据所述语音信息和多模态参数同时向至少两个技能包分别分配权重值的步骤进一步包括:
根据识别的用户意图,通过计算同时向至少两个技能包分别分配权重值。
这样就可以在获取用户的语音信息和多模态参数之后,进一步的对获取的信息进行分析和研究,以识别用户的意图,获取用户的真实意思表达,以便搜索模块更加准确的计算,向每个技能包分配权重值。本发明中的单意图,一般是指识别用户其中的一种意图,以便于精确的分析用户意图。例如,比如用户说“我想听音乐”,音乐技能包直接播放音乐,这就是单意图。
本实施例中,所述多模态参数至少包括表情参数、场景参数、图像参数、视频参数、人脸参数、瞳孔虹膜参数、光感参数和指纹参数中的其中一种或几种。多模态参数的获取可以是通过摄像头,或其他如光感传感器、指纹识别模块等获取。本实施例中多模态参数中一般是指语音之外的其他参数。因为一般情况下,用户与机器人的交流是通过语音交流,而本发明中,除了获取语音信息外,还获取用户的多模态参数,例如表情参数、场景参数、图像参数、视频参数、人脸参数、瞳孔虹膜参数、光感参数和指纹参数中的其中一种或几种的组合,这样就可以更加准确的识别到用户的意图,了解用户真实的意思表达,从而更加准确的寻找对应的技能包。
根据其中一个示例,所述根据融合排序的算法得到权重值最高的技能包的步骤进一步包括:
判断各个技能包之间是否相互排斥,将存在排斥的技能包去除,并根据用户的历史数据分配权重值,得到权重值最高的技能包。
例如,用户的语音信息为“噼里啪啦”,然后多模态参数为人脸参数显示用户一脸严肃的表情,这时机器人就根据获取的语音信心和多模态参数,搜索模块就向所有的技能包分配权重值,例如向播放音乐的技能包分配的权重值为75,向机器人处于安静模式的技能包分配的权重值为75,向机器人播放动画片的权重值为70,又根据用户的历史数据得到常用的技能包是播放动画片的技能包,这样系统就会将相互排斥的技能包,例如播放音乐的技能包和处于安静模式下的技能包去除,然后选择播放动画片的技能包。当然,如果根据用户的历史数据得到的常用的技能包是让机器人播放音乐,那么就会将互相排斥的技能包如处于安静模式的技能包和播放动画片的技能包去除,选择播放音乐技能包,作为权重值最高的技能包。
根据其中一个示例,在所述根据融合排序的算法得到权重值最高的技能包的步骤之后,进一步包括:
将权重值最高的技能包发送至交互模块,并执行该技能包的功能。
这样就可以在找到对应的技能包之后,就执行该技能包,从而让机器人体现该技能包对应的功能。
实施例二
如图2所示,本实施例中公开一种基于单意图的技能包并行执行管理系统,包括:
获取模块201,用于获取用户的语音信息和多模态参数,其中,语音信息和多模态参数可以分别通过语音模块301和多模态参数模块401获取到;
搜索模块202,用于根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;
处理模块203,用于根据融合排序的算法得到权重值最高的技能包。
这样就可以根据获取用户的语音信息和多模态参数,通过搜索模块的计算来对所有的技能包分配权重值,然后再通过融合排序的方法得到权重值最高的技能包,这样同时向所有的技能包分配权重值,通过技能包的并行触发,可以更快的找到相应的技能包,从而使得系统反应时间大大减少,并且通过并行发生模式,使得产品可以对用户做定制化的使用,对于不同的用户可以使用,扩大了系统的适用范围,并方便管理不同的技能包,并行的使用使得对于资源的管理更方便,使得产品的管理,如更新、调整、下架、修改等不影响用户的使用,并且可以提升产品程序开发的效率。
本发明首次提出以技能包的管理方式,对机器人及机器人中的功能模块等进行管理,在并行管理的框架下,可以进一步地提高机器人的处理速度和效率,方便机器人更快更便捷的实现功能的启动,并且,本发明的管理方法和系统采用的多个技能包并行执行更加便于模糊意图的理解,在选择的技能包出现失误时,由于是多个技能包并行执行,可以更快的切换到其他技能包,本发明的管理方案容错率也更高,而对于整体来说,本发明的管理方法和系统的鲁棒性和稳健性更高,提高了机器人与用户交互的效率和用户好感度。
根据其中一个示例,所述系统还包括:
意图识别模块,用于根据获取的语音信息和多模态参数,识别用户意图;
所述匹配模块进一步用于:根据识别的用户意图,通过计算同时向至少两个技能包分别分配权重值。
这样就可以在获取用户的语音信息和多模态参数之后,进一步的对获取的信息进行分析和研究,以识别用户的意图,获取用户的真实意思表达,以便搜索模块更加准确的计算,向每个技能包分配权重值。
本实施例中,所述多模态参数至少包括表情参数、场景参数、图像参数、视频参数、人脸参数、瞳孔虹膜参数、光感参数和指纹参数中的其中一种或几种。多模态参数的获取可以是通过摄像头,或其他如光感传感器、指纹识别模块等获取。本实施例中多模态参数中一般是指语音之外的其他参数。因为一般情况下,用户与机器人的交流是通过语音交流,而本发明中,除了获取语音信息外,还获取用户的多模态参数,例如表情参数、场景参数、图像参数、视频参数、人脸参数、瞳孔虹膜参数、光感参数和指纹参数中的其中一种或几种的组合,这样就可以更加准确的识别到用户的意图,了解用户真实的意思表达,从而更加准确的寻找对应的技能包。
根据其中一个示例,所述处理模块进一步用于:
判断各个技能包之间是否相互排斥,将存在排斥的技能包去除,并根据用户的历史数据分配权重值,得到权重值最高的技能包。
根据其中一个示例,所述系统进一步包括:
发送执行模块,将权重值最高的技能包发送至交互模块,并执行该技能包的功能。
这样就可以在找到对应的技能包之后,就执行该技能包,从而让机器人体现该技能包对应的功能。
此外,本实施例中,还公开一种机器人,包括如上述任一所述的一种基于单意图的技能包并行执行管理系统。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (11)
1.一种基于单意图的技能包并行执行管理方法,其特征在于,包括:
获取用户的语音信息和多模态参数;
根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;
根据融合排序的算法得到权重值最高的技能包。
2.根据权利要求1所述的管理方法,其特征在于,在获取用户的语音信息和多模态参数的步骤之后还包括:
根据获取的语音信息和多模态参数,识别用户意图;
所述根据所述语音信息和多模态参数同时向至少两个技能包分别分配权重值的步骤进一步包括:
根据识别的用户意图,通过计算同时向至少两个技能包分别分配权重值。
3.根据权利要求2所述的管理方法,其特征在于,所述根据融合排序的算法得到权重值最高的技能包的步骤进一步包括:
判断各个技能包之间是否相互排斥,将存在排斥的技能包去除,并根据用户的历史数据分配权重值,得到权重值最高的技能包。
4.根据权利要求1所述的管理方法,其特征在于,在所述根据融合排序的算法得到权重值最高的技能包的步骤之后,进一步包括:
将权重值最高的技能包发送至交互模块,并执行该技能包的功能。
5.根据权利要求1所述的管理方法,其特征在于,所述多模态参数至少包括表情参数、场景参数、图像参数、视频参数、人脸参数、瞳孔虹膜参数、光感参数和指纹参数中的其中一种或几种。
6.一种基于单意图的技能包并行执行管理系统,其特征在于,包括:
获取模块,用于获取用户的语音信息和多模态参数;
搜索模块,用于根据所述语音信息和多模态参数,通过计算同时向至少两个技能包分别匹配权重值;
处理模块,用于根据融合排序的算法得到权重值最高的技能包。
7.根据权利要求6所述的管理系统,其特征在于,所述系统还包括:
意图识别模块,用于根据获取的语音信息和多模态参数,识别用户意图;
所述匹配模块进一步用于:根据识别的用户意图,通过计算同时向至少两个技能包分别分配权重值。
8.根据权利要求7所述的管理系统,其特征在于,所述处理模块进一步用于:
判断各个技能包之间是否相互排斥,将存在排斥的技能包去除,并根据用户的历史数据分配权重值,得到权重值最高的技能包。
9.根据权利要求6所述的管理系统,其特征在于,所述系统进一步包括:
发送执行模块,将权重值最高的技能包发送至交互模块,并执行该技能包的功能。
10.根据权利要求6所述的管理系统,其特征在于,其中,所述多模态参数至少包括表情参数、场景参数、图像参数、视频参数、人脸参数、瞳孔虹膜参数、光感参数和指纹参数中的其中一种或几种。
11.一种机器人,其特征在于,包括如权利要求6至10任一所述的一种基于单意图的技能包并行执行管理系统。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/087525 WO2018000207A1 (zh) | 2016-06-28 | 2016-06-28 | 基于单意图的技能包并行执行管理方法、系统及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106663001A true CN106663001A (zh) | 2017-05-10 |
Family
ID=58838059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680001773.9A Pending CN106663001A (zh) | 2016-06-28 | 2016-06-28 | 基于单意图的技能包并行执行管理方法、系统及机器人 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106663001A (zh) |
WO (1) | WO2018000207A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334353A (zh) * | 2017-08-31 | 2018-07-27 | 科大讯飞股份有限公司 | 技能开发系统及方法 |
CN109658928A (zh) * | 2018-12-06 | 2019-04-19 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190262990A1 (en) * | 2018-02-28 | 2019-08-29 | Misty Robotics, Inc. | Robot skill management |
CN109408800B (zh) * | 2018-08-23 | 2024-03-01 | 阿里巴巴(中国)有限公司 | 对话机器人系统及相关技能配置方法 |
CN112099630B (zh) * | 2020-09-11 | 2024-04-05 | 济南大学 | 一种多模态意图逆向主动融合的人机交互方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10256982A (ja) * | 1997-03-12 | 1998-09-25 | Nippon Telegr & Teleph Corp <Ntt> | Phsを用いたユーザー行動支援システム |
CN101187990A (zh) * | 2007-12-14 | 2008-05-28 | 华南理工大学 | 一种会话机器人系统 |
CN104360808A (zh) * | 2014-12-04 | 2015-02-18 | 李方 | 一种利用符号手势指令进行文档编辑的方法及装置 |
CN104954829A (zh) * | 2014-03-27 | 2015-09-30 | Lg电子株式会社 | 显示装置及其操作方法 |
CN105550105A (zh) * | 2015-12-08 | 2016-05-04 | 成都中科创达软件有限公司 | 一种移动终端中功能相同的应用程序的选择方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100807307B1 (ko) * | 2006-07-10 | 2008-02-28 | 한국전자통신연구원 | 대화형 음성 인터페이스 시스템 및 그 응답 방법 |
CN104985599B (zh) * | 2015-07-20 | 2018-07-10 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人控制方法、系统及智能机器人 |
-
2016
- 2016-06-28 WO PCT/CN2016/087525 patent/WO2018000207A1/zh active Application Filing
- 2016-06-28 CN CN201680001773.9A patent/CN106663001A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10256982A (ja) * | 1997-03-12 | 1998-09-25 | Nippon Telegr & Teleph Corp <Ntt> | Phsを用いたユーザー行動支援システム |
CN101187990A (zh) * | 2007-12-14 | 2008-05-28 | 华南理工大学 | 一种会话机器人系统 |
CN104954829A (zh) * | 2014-03-27 | 2015-09-30 | Lg电子株式会社 | 显示装置及其操作方法 |
CN104360808A (zh) * | 2014-12-04 | 2015-02-18 | 李方 | 一种利用符号手势指令进行文档编辑的方法及装置 |
CN105550105A (zh) * | 2015-12-08 | 2016-05-04 | 成都中科创达软件有限公司 | 一种移动终端中功能相同的应用程序的选择方法及系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334353A (zh) * | 2017-08-31 | 2018-07-27 | 科大讯飞股份有限公司 | 技能开发系统及方法 |
CN108334353B (zh) * | 2017-08-31 | 2021-04-02 | 科大讯飞股份有限公司 | 技能开发系统及方法 |
CN109658928A (zh) * | 2018-12-06 | 2019-04-19 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2018000207A1 (zh) | 2018-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106663001A (zh) | 基于单意图的技能包并行执行管理方法、系统及机器人 | |
CN106951468B (zh) | 对话生成方法及装置 | |
CN106663129A (zh) | 一种基于状态机上下文敏感多轮对话管理系统及方法 | |
CN109191312A (zh) | 一种理赔反欺诈风控方法及装置 | |
CN107831903A (zh) | 多人参与的人机交互方法及装置 | |
CN107170446A (zh) | 语义处理服务器及用于语义处理的方法 | |
CN108255934A (zh) | 一种语音控制方法及装置 | |
CN107632706A (zh) | 多模态虚拟人的应用数据处理方法和系统 | |
CN111783439A (zh) | 人机交互对话处理方法、装置、计算机设备及存储介质 | |
CN104239343B (zh) | 一种用户输入信息的处理方法和装置 | |
CN107589828A (zh) | 基于知识图谱的人机交互方法及系统 | |
CN110337016A (zh) | 基于多模态图卷积网络的短视频个性化推荐方法及系统 | |
CN107357787A (zh) | 语义交互方法、装置及电子设备 | |
CN109918627A (zh) | 文本生成方法、装置、电子设备及存储介质 | |
CN110223692A (zh) | 用于语音对话平台跨技能的多轮对话方法及系统 | |
Gabrel et al. | A new 0–1 linear program for QoS and transactional-aware web service composition | |
JP2022525880A (ja) | サーバーの負荷予測及び高度なパフォーマンス測定 | |
CN108231076A (zh) | 一种语音控制方法、装置、设备及存储介质 | |
CN107967304A (zh) | 会话交互处理方法、装置及电子设备 | |
CN106612193A (zh) | 在虚拟化技术下的网络开局配置方法及装置 | |
CN109358927A (zh) | 应用程序显示的方法、装置及终端设备 | |
CN107045509A (zh) | 一种用于切换数据库连接的系统、设备和方法 | |
CN102902574A (zh) | 一种多信息流节点的协同处理方法及装置 | |
CN110162769A (zh) | 文本主题输出方法和装置、存储介质及电子装置 | |
CN107622300A (zh) | 多模态虚拟机器人的认知决策方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170510 |
|
RJ01 | Rejection of invention patent application after publication |