CN106489114A - 一种机器人交互内容的生成方法、系统及机器人 - Google Patents
一种机器人交互内容的生成方法、系统及机器人 Download PDFInfo
- Publication number
- CN106489114A CN106489114A CN201680001754.6A CN201680001754A CN106489114A CN 106489114 A CN106489114 A CN 106489114A CN 201680001754 A CN201680001754 A CN 201680001754A CN 106489114 A CN106489114 A CN 106489114A
- Authority
- CN
- China
- Prior art keywords
- robot
- life
- time axle
- parameter
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
本发明提供一种机器人交互内容的生成方法,包括:获取用户信息,根据所述用户信息确定用户意图;获取地点场景信息;根据所述用户意图和地点场景信息,结合当前的机器人生活时间轴生成机器人交互内容。本发明将机器人所在的生活时间轴加入到机器人的交互内容生成中去,使机器人与人交互时更加拟人化,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。
Description
技术领域
本发明涉及机器人交互技术领域,尤其涉及一种机器人交互内容的生成方法、系统及机器人。
背景技术
通常机器人对于应用场景来说,一般是基于固的场景中的问答交互,人在某一天的时间轴上的生活情景,比如吃饭,睡觉,运动等,各种生活情景值的变化会影响人类表情的反馈,而且对于本身所在的场景来说,更会影响人类本身的表情变化,比如:在桌球室很兴奋,在家很开心等。而对于机器人而言,目前想让机器人做出表情上的反馈,主要通过预先设置好的方式与深度学习得来,对于场景上问答还没有较好的应对方案,这导致机器人不能更加拟人化,不能像人类一样,在不同的时间点的生活场景,地点场景,表现出不同的表情,即机器人交互内容的生成方式完全是被动的,因此表情的生成需要大量的人机交互,导致机器人的智能性很差。
因此,如何提供一种机器人交互内容的生成方法,提升人机交互体验成为亟需解决的技术问题。
发明内容
本发明的目的是提供一种机器人交互内容的生成方法、系统及机器人,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。
本发明的目的是通过以下技术方案来实现的:
一种机器人交互内容的生成方法,包括:
获取用户信息,根据所述用户信息确定用户意图;
获取地点场景信息;
根据所述用户意图和地点场景信息,结合当前的机器人生活时间轴生成机器人交互内容。
优选的,所述机器人生活时间轴的参数的生成方法包括:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
优选的,所述将机器人的自我认知进行扩展的步骤具体包括:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。
优选的,所述对机器人的自我认知的参数与生活时间轴中的参数进行拟合的步骤具体包括:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。
优选的,其中,所述生活时间轴指包含一天24小时的时间轴,所述生活时间轴中的参数至少包括用户在所述生活时间轴上进行的日常生活行为以及代表该行为的参数值。
优选的,所述获取地点场景信息的步骤具体包括:通过视频信息获取地点场景信息。
优选的,所述获取地点场景信息的步骤具体包括:通过图片信息获取地点场景信息。
优选的,所述获取地点场景信息的步骤具体包括:通过手势信息获取地点场景信息。
优选的,所述用户信息包括语音信息,所述获取用户信息,根据所述用户信息确定用户意图的步骤具体包括:获取语音信息,根据所述语音信息确定用户意图。
本发明公开一种机器人交互内容的生成系统,包括:
意图识别模块,用于获取用户信息,根据所述用户信息确定用户意图;
场景识别模块,用于获取地点场景信息;
内容生成模块,用于根据所述用户意图和地点场景信息,结合当前的机器人生活时间轴生成机器人交互内容。
优选的,所述系统包括基于时间轴与人工智能云处理模块,用于:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
优选的,所述基于时间轴与人工智能云处理模块具体用于:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。
优选的,所述基于时间轴与人工智能云处理模块具体用于:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。
优选的,其中,所述生活时间轴指包含一天24小时的时间轴,所述生活时间轴中的参数至少包括用户在所述生活时间轴上进行的日常生活行为以及代表该行为的参数值。
优选的,所述场景识别模块具体用于,通过视频信息获取地点场景信息。
优选的,所述场景识别模块具体用于,通过图片信息获取地点场景信息。
优选的,所述场景识别模块具体用于,获取手势信息。通过手势信息获取地点场景信息。
优选的,所述用户信息包括语音信息,所述意图识别模块具体用于:获取语音信息,根据所述语音信息确定用户意图。
本发明公开一种机器人,包括如上述任一所述的一种机器人交互内容的生成系统。
相比现有技术,本发明具有以下优点:现有机器人对于应用场景来说,一般是基于固定的场景中的问答交互机器人交互内容的生成方法,无法基于当前的场景来更加准确的生成机器人的交互内容。本发明的生成方法包括:获取用户信息,根据所述用户信息确定用户意图;获取地点场景信息;根据所述用户意图和地点场景信息,结合当前的机器人生活时间轴生成机器人交互内容。这样就可以根据当前的地点场景信息,结合机器人的生活时间轴来更加准确地生成机器人交互内容,从而更加准确、拟人化的与人进行交互和沟通。对于人来讲每天的生活都具有一定的规律性,为了让机器人与人沟通时更加拟人化,在一天24小时中,让机器人也会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。因此本发明将机器人所在的生活时间轴加入到机器人的交互内容生成中去,使机器人与人交互时更加拟人化,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。
附图说明
图1是本发明实施例一的一种机器人交互内容的生成方法的流程图;
图2是本发明实施例二的一种机器人交互内容的生成系统的示意图。
具体实施方式
虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。各项操作的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
计算机设备包括用户设备与网络设备。其中,用户设备或客户端包括但不限于电脑、智能手机、PDA等;网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算的由大量计算机或网络服务器构成的云。计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制,使用这些术语仅仅是为了将一个单元与另一个单元进行区分。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。当一个单元被称为“连接”或“耦合”到另一单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
下面结合附图和较佳的实施例对本发明作进一步说明。
实施例一
如图1所示,本实施例中公开一种机器人交互内容的生成方法,包括:
S101、获取用户信息,根据所述用户信息确定用户意图;
S102、获取地点场景信息;
S103、根据所述用户意图和地点场景信息,结合当前的机器人生活时间轴300生成机器人交互内容。
现有机器人对于应用场景来说,一般是基于固定的场景中的问答交互机器人交互内容的生成方法,无法基于当前的场景来更加准确的生成机器人的交互内容。本发明的生成方法包括:获取用户信息,根据所述用户信息确定用户意图;获取地点场景信息;根据所述用户意图和地点场景信息,结合当前的机器人生活时间轴生成机器人交互内容。这样就可以根据当前的地点场景信息,结合机器人的生活时间轴来更加准确地生成机器人交互内容,从而更加准确、拟人化的与人进行交互和沟通。对于人来讲每天的生活都具有一定的规律性,为了让机器人与人沟通时更加拟人化,在一天24小时中,让机器人也会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。因此本发明将机器人所在的生活时间轴加入到机器人的交互内容生成中去,使机器人与人交互时更加拟人化,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。交互内容可以是表情或文字或语音等。机器人生活时间轴300是提前进行拟合和设置完成的,具体来讲,机器人生活时间轴300是一系列的参数合集,将这个参数传输给系统进行生成交互内容。
本实施例中的用户信息可以是用户表情、语音信息、手势信息、场景信息、图像信息、视频信息、人脸信息、瞳孔虹膜信息、光感信息和指纹信息等其中的其中一种或几种。本实施例中优选为用户表情,这样识别的准确并且识别的效率高。
本实施例中,基于生活时间轴具体是:根据人类日常生活的时间轴,按照人类的方式,将机器人本身在日常生活时间轴中的自我认知的数值做拟合,机器人的行为按照这个拟合行动,也就是得到一天中机器人自己的行为,从而让机器人基于生活时间轴去进行自己的行为,例如生成交互内容与人类沟通等。假如机器人一直唤醒的话,就会按照这个时间轴上的行为行动,机器人的自我认知也会根据这个时间轴进行相应的更改。生活时间轴与可变参数可以对自我认知中的属性,例如心情值,疲劳值等等的更改,也可以自动加入新的自我认知信息,比如之前没有愤怒值,基于生活时间轴和可变因素的场景就会自动根据之前模拟人类自我认知的场景,从而对机器人的自我认知进行添加。
例如,用户向机器人说话:“好困啊”,机器人听到后理解的为用户很困,然后结合采集到的地点场景信息为房间内,以及机器人生活时间轴,例如当前的时间为上午9点,那么机器人就知道主人是刚刚起床,那么就应该向主人问早,例如回答“早上好”作为回复,也可以配上表情、图片等,本发明中的交互内容可以理解为机器人的回复。而如果用户向机器人说话:“好困啊”,机器人听到后理解的为用户很困,然后结合采集到的地点场景信息为房间内,以及机器人生活时间轴,例如当前的时间为晚上9点,那么机器人就知道主人需要睡觉了,那么就会回复“主人晚安,睡个好觉”等类似用语,也可以配上表情、图片等。这种方式要比单纯的靠场景识别生成回复和表情更加贴近人的生活,更加拟人化。
根据其中一个示例,所述机器人生活时间轴的参数的生成方法包括:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
这样将生活时间轴加入到机器人本身的自我认知中去,使机器人具有拟人化的生活。例如将中午吃饭的认知加入到机器人中去。
根据其中另一个示例,所述将机器人的自我认知进行扩展的步骤具体包括:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。
这样就可以具体的将生活时间轴加入到机器人本身的参数中去。
根据其中另一个示例,所述对机器人的自我认知的参数与生活时间轴中的参数进行拟合的步骤具体包括:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。这样就可以具体的将机器人的自我认知的参数与生活时间轴中的参数进行拟合。其中概率算法可以是贝叶斯概率算法。
例如,在一天24小时中,使机器人会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。每个动作会影响机器人本身的自我认知,将生活时间轴上的参数与机器人本身的自我认知进行结合,拟合后,即让机器人的自我认知包括了,心情,疲劳值,亲密度,好感度,交互次数,机器人的三维的认知,年龄,身高,体重,亲密度,游戏场景值,游戏对象值,地点场景值,地点对象值等。为机器人可以自己识别所在的地点场景,比如咖啡厅,卧室等。
机器一天的时间轴内会进行不同的动作,比如夜里睡觉,中午吃饭,白天运动等等,这些所有的生活时间轴中的场景,对于自我认知都会有影响。这些数值的变化采用的概率模型的动态拟合方式,将这些所有动作在时间轴上发生的几率拟合出来。场景识别:这种地点场景识别会改变自我认知中的地理场景值。
根据其中另一个示例,所述获取地点场景信息的步骤具体包括:通过视频信息获取地点场景信息。这样地点场景信息可以通过视频来获取,通过视频获取更加准确。
根据其中另一个示例,所述获取地点场景信息的步骤具体包括:通过图片信息获取地点场景信息。通过图片获取可以省去机器人的计算量,使机器人的反应更加迅速。
根据其中另一个示例,所述获取地点场景信息的步骤具体包括:通过手势信息获取地点场景信息。通过手势获取可以使机器人的适用范围更加广,例如对于残疾人士或者主人有时候不想说话,就可以通过手势向机器人传递信息。
根据其中另一个示例,所述用户信息包括语音信息,所述获取用户信息,根据所述用户信息确定用户意图的步骤具体包括:获取语音信息,根据所述语音信息确定用户意图。这样就可以通过用户的语音来获取用户的意图,使机器人掌握用户的意图更加准确。当然本实施例中也可以采用其他的例如文字输入等方式让机器人了解到用户的意图。
在更加具体的应用中,详细阐述如下,通过在生活时间轴上的机器人的场景,将机器人本身的自我认知行扩展,例如一天之内正常生活场景中,吃饭,睡觉,运动,这些生活场景,会对机器人本身的心情,疲劳值等产生影响,我们将这些影响拟合,形成一个基于时间轴的自我认知曲线。对自我认知中的参数与生活时间轴中使用场景的参数进行拟合,我们可以使用贝叶斯概率算法,将机器人之间的参数用贝叶斯网络做概率估计,计算生活时间轴上的机器人本身时间轴场景参数改变后,每个参数改变的概率,形成拟合曲线,动态影响机器人本身的自我认知。使得生活时间轴对于机器人本身在时间周期内会有规律性的变化,变化来自于之前算法中的生活场景中的自我认知的拟合,产生拟人化的影响。同时,加上对于地点场景的识别,使得机器人会知道自己的地理位置,会根据自己所处的地理环境,改变交互内容生成的方式。地理位置的改变根据我们的地理场景识别算法,使机器人可以知道自己所处的外界地理环境,比如再咖啡厅或者卧室等。另外,这种创新的模块使得机器人本身具有人类的生活方式,对于表情这块,可按照所处的地里场景,做表情方面的改变。
实施例二
如图2所示,本实施例中公开一种机器人交互内容的生成系统,包括:
意图识别模块201,用于获取用户信息,根据所述用户信息确定用户意图;
场景识别模块202,用于获取地点场景信息;
内容生成模块203,用于根据所述用户意图和地点场景信息,结合机器人生活时间轴模块301发送的当前的机器人生活时间轴生成机器人交互内容。
这样就可以根据当前的地点场景信息,结合机器人的生活时间轴来更加准确地生成机器人交互内容,从而更加准确、拟人化的与人进行交互和沟通。对于人来讲每天的生活都具有一定的规律性,为了让机器人与人沟通时更加拟人化,在一天24小时中,让机器人也会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。因此本发明将机器人所在的生活时间轴加入到机器人的交互内容生成中去,使机器人与人交互时更加拟人化,使得机器人在生活时间轴内具有人类的生活方式,该方法能够提升机器人交互内容生成的拟人性,提升人机交互体验,提高智能性。
例如,用户向机器人说话:“好困啊”,机器人听到后理解的为用户很困,然后结合采集到的地点场景信息为房间内,以及机器人生活时间轴,例如当前的时间为上午9点,那么机器人就知道主人是刚刚起床,那么就应该向主人问早,例如回答“早上好”作为回复,也可以配上表情、图片等,本发明中的交互内容可以理解为机器人的回复。而如果用户向机器人说话:“好困啊”,机器人听到后理解的为用户很困,然后结合采集到的地点场景信息为房间内,以及机器人生活时间轴,例如当前的时间为晚上9点,那么机器人就知道主人需要睡觉了,那么就会回复“主人晚安,睡个好觉”等类似用语,也可以配上表情、图片等。这种方式要比单纯的靠场景识别生成回复和表情更加贴近人的生活,更加拟人化。
根据其中一个示例,所述系统包括基于时间轴与人工智能云处理模块,用于:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
这样将生活时间轴加入到机器人本身的自我认知中去,使机器人具有拟人化的生活。例如将中午吃饭的认知加入到机器人中去。
根据其中另一个示例,所述基于时间轴与人工智能云处理模块具体用于:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。这样就可以具体的将生活时间轴加入到机器人本身的参数中去。
根据其中另一个示例,所述基于时间轴与人工智能云处理模块具体用于:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。这样就可以具体的将机器人的自我认知的参数与生活时间轴中的参数进行拟合。其中概率算法可以是贝叶斯概率算法。
例如,在一天24小时中,使机器人会有睡觉,运动,吃饭,跳舞,看书,吃饭,化妆,睡觉等动作。每个动作会影响机器人本身的自我认知,将生活时间轴上的参数与机器人本身的自我认知进行结合,拟合后,即让机器人的自我认知包括了,心情,疲劳值,亲密度,好感度,交互次数,机器人的三维的认知,年龄,身高,体重,亲密度,游戏场景值,游戏对象值,地点场景值,地点对象值等。为机器人可以自己识别所在的地点场景,比如咖啡厅,卧室等。
机器一天的时间轴内会进行不同的动作,比如夜里睡觉,中午吃饭,白天运动等等,这些所有的生活时间轴中的场景,对于自我认知都会有影响。这些数值的变化采用的概率模型的动态拟合方式,将这些所有动作在时间轴上发生的几率拟合出来。场景识别:这种地点场景识别会改变自我认知中的地理场景值。
根据其中另一个示例,所述场景识别模块具体用于,通过视频信息获取地点场景信息。这样地点场景信息可以通过视频来获取,通过视频获取更加准确。
根据其中另一个示例,所述场景识别模块具体用于,通过图片信息获取地点场景信息。通过图片获取可以省去机器人的计算量,使机器人的反应更加迅速。
根据其中另一个示例,所述场景识别模块具体用于,通过手势信息获取地点场景信息。通过手势获取可以使机器人的适用范围更加广,例如对于残疾人士或者主人有时候不想说话,就可以通过手势向机器人传递信息。
根据其中另一个示例,所述用户信息包括语音信息,所述意图识别模块具体用于:获取语音信息,根据所述语音信息确定用户意图。这样就可以通过用户的语音来获取用户的意图,使机器人掌握用户的意图更加准确。当然本实施例中也可以采用其他的例如文字输入等方式让机器人了解到用户的意图。
此外,本实施例中,还公开一种机器人,包括如上述任一所述的一种机器人交互内容的生成系统。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (19)
1.一种机器人交互内容的生成方法,其特征在于,包括:
获取用户信息,根据所述用户信息确定用户意图;
获取地点场景信息;
根据所述用户意图和地点场景信息,结合当前的机器人生活时间轴生成机器人交互内容。
2.根据权利要求1所述的生成方法,其特征在于,所述机器人生活时间轴的参数的生成方法包括:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
3.根据权利要求2所述的生成方法,其特征在于,所述将机器人的自我认知进行扩展的步骤具体包括:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。
4.根据权利要求2所述的生成方法,其特征在于,所述对机器人的自我认知的参数与生活时间轴中的参数进行拟合的步骤具体包括:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。
5.根据权利要求1所述的生成方法,其特征在于,其中,所述生活时间轴指包含一天24小时的时间轴,所述生活时间轴中的参数至少包括用户在所述生活时间轴上进行的日常生活行为以及代表该行为的参数值。
6.根据权利要求1所述的生成方法,其特征在于,所述获取地点场景信息的步骤具体包括:通过视频信息获取地点场景信息。
7.根据权利要求1所述的生成方法,其特征在于,所述获取地点场景信息的步骤具体包括:通过图片信息获取地点场景信息。
8.根据权利要求1所述的生成方法,其特征在于,所述获取地点场景信息的步骤具体包括:通过手势信息获取地点场景信息。
9.根据权利要求1所述的生成方法,其特征在于,所述用户信息包括语音信息,所述获取用户信息,根据所述用户信息确定用户意图的步骤具体包括:获取语音信息,根据所述语音信息确定用户意图。
10.一种机器人交互内容的生成系统,其特征在于,包括:
意图识别模块,用于获取用户信息,根据所述用户信息确定用户意图;
场景识别模块,用于获取地点场景信息;
内容生成模块,用于根据所述用户意图和地点场景信息,结合当前的机器人生活时间轴生成机器人交互内容。
11.根据权利要求10所述的生成系统,其特征在于,所述系统包括基于时间轴与人工智能云处理模块,用于:
将机器人的自我认知进行扩展;
获取生活时间轴的参数;
对机器人的自我认知的参数与生活时间轴中的参数进行拟合,生成机器人生活时间轴。
12.根据权利要求11所述的生成系统,其特征在于,所述基于时间轴与人工智能云处理模块具体用于:将生活场景与机器人的自我认识相结合形成基于生活时间轴的自我认知曲线。
13.根据权利要求11所述的生成系统,其特征在于,所述基于时间轴与人工智能云处理模块具体用于:使用概率算法,计算生活时间轴上的机器人在时间轴场景参数改变后的每个参数改变的概率,形成拟合曲线。
14.根据权利要求10所述的生成系统,其特征在于,其中,所述生活时间轴指包含一天24小时的时间轴,所述生活时间轴中的参数至少包括用户在所述生活时间轴上进行的日常生活行为以及代表该行为的参数值。
15.根据权利要求10所述的生成系统,其特征在于,所述场景识别模块具体用于,通过视频信息获取地点场景信息。
16.根据权利要求10所述的生成系统,其特征在于,所述场景识别模块具体用于,通过图片信息获取地点场景信息。
17.根据权利要求10所述的生成系统,其特征在于,所述场景识别模块具体用于,通过手势信息获取地点场景信息。
18.根据权利要求10所述的生成系统,其特征在于,所述用户信息包括语音信息,所述意图识别模块具体用于:获取语音信息,根据所述语音信息确定用户意图。
19.一种机器人,其特征在于,包括如权利要求10至18任一所述的一种机器人交互内容的生成系统。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/087736 WO2018000258A1 (zh) | 2016-06-29 | 2016-06-29 | 一种机器人交互内容的生成方法、系统及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106489114A true CN106489114A (zh) | 2017-03-08 |
Family
ID=58285363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680001754.6A Pending CN106489114A (zh) | 2016-06-29 | 2016-06-29 | 一种机器人交互内容的生成方法、系统及机器人 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106489114A (zh) |
WO (1) | WO2018000258A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992935A (zh) * | 2017-12-14 | 2018-05-04 | 深圳狗尾草智能科技有限公司 | 为机器人设置生活周期的方法、设备及介质 |
CN108363492A (zh) * | 2018-03-09 | 2018-08-03 | 南京阿凡达机器人科技有限公司 | 一种人机交互方法及交互机器人 |
CN108733741A (zh) * | 2018-03-07 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种交互方法及装置、智能设备和计算机可读存储介质 |
CN112099630A (zh) * | 2020-09-11 | 2020-12-18 | 济南大学 | 一种多模态意图逆向主动融合的人机交互方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105082150A (zh) * | 2015-08-25 | 2015-11-25 | 国家康复辅具研究中心 | 一种基于用户情绪及意图识别的机器人人机交互方法 |
CN105409197A (zh) * | 2013-03-15 | 2016-03-16 | 趣普科技公司 | 用于提供持久伙伴装置的设备和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105058389A (zh) * | 2015-07-15 | 2015-11-18 | 深圳乐行天下科技有限公司 | 一种机器人系统、机器人控制方法及机器人 |
-
2016
- 2016-06-29 CN CN201680001754.6A patent/CN106489114A/zh active Pending
- 2016-06-29 WO PCT/CN2016/087736 patent/WO2018000258A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105409197A (zh) * | 2013-03-15 | 2016-03-16 | 趣普科技公司 | 用于提供持久伙伴装置的设备和方法 |
CN105082150A (zh) * | 2015-08-25 | 2015-11-25 | 国家康复辅具研究中心 | 一种基于用户情绪及意图识别的机器人人机交互方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992935A (zh) * | 2017-12-14 | 2018-05-04 | 深圳狗尾草智能科技有限公司 | 为机器人设置生活周期的方法、设备及介质 |
CN108733741A (zh) * | 2018-03-07 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种交互方法及装置、智能设备和计算机可读存储介质 |
CN108363492A (zh) * | 2018-03-09 | 2018-08-03 | 南京阿凡达机器人科技有限公司 | 一种人机交互方法及交互机器人 |
CN108363492B (zh) * | 2018-03-09 | 2021-06-25 | 南京阿凡达机器人科技有限公司 | 一种人机交互方法及交互机器人 |
CN112099630A (zh) * | 2020-09-11 | 2020-12-18 | 济南大学 | 一种多模态意图逆向主动融合的人机交互方法 |
CN112099630B (zh) * | 2020-09-11 | 2024-04-05 | 济南大学 | 一种多模态意图逆向主动融合的人机交互方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2018000258A1 (zh) | 2018-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106537294A (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
CN106462254A (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
US11670324B2 (en) | Method for predicting emotion status and robot | |
CN106463118B (zh) | 一种同步语音及虚拟动作的方法、系统及机器人 | |
Bosse et al. | Modelling collective decision making in groups and crowds: Integrating social contagion and interacting emotions, beliefs and intentions | |
Tang et al. | A novel multimodal communication framework using robot partner for aging population | |
CN109789550A (zh) | 基于小说或表演中的先前角色描绘的社交机器人的控制 | |
Scherer et al. | Perception markup language: Towards a standardized representation of perceived nonverbal behaviors | |
CN109658928A (zh) | 一种家庭服务机器人云端多模态对话方法、装置及系统 | |
CN106489114A (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
Cid et al. | Muecas: a multi-sensor robotic head for affective human robot interaction and imitation | |
CN106662932A (zh) | 一种基于意图识别控制家电的方法、系统及机器人 | |
CN107030691A (zh) | 一种看护机器人的数据处理方法及装置 | |
Park et al. | A steward robot for human-friendly human-machine interaction in a smart house environment | |
CN106997243B (zh) | 基于智能机器人的演讲场景监控方法及装置 | |
CN106462255A (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
CN108886532A (zh) | 用于操作个人代理的装置和方法 | |
Rázuri et al. | Automatic emotion recognition through facial expression analysis in merged images based on an artificial neural network | |
Bosse et al. | Agent-based analysis of patterns in crowd behaviour involving contagion of mental states | |
CN106471572B (zh) | 一种同步语音及虚拟动作的方法、系统及机器人 | |
CN106462124A (zh) | 一种基于意图识别控制家电的方法、系统及机器人 | |
Thakur et al. | A complex activity based emotion recognition algorithm for affect aware systems | |
Acampora et al. | Interoperable neuro-fuzzy services for emotion-aware ambient intelligence | |
Chen et al. | Cp-robot: Cloud-assisted pillow robot for emotion sensing and interaction | |
Díaz Rodríguez et al. | Understanding movement and interaction: an ontology for Kinect-based 3D depth sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room 301, Building 39, 239 Renmin Road, Gusu District, Suzhou City, Jiangsu Province, 215000 Applicant after: Suzhou Dogweed Intelligent Technology Co., Ltd. Address before: 518000 Dongfang Science and Technology Building 1307-09, 16 Keyuan Road, Yuehai Street, Nanshan District, Shenzhen City, Guangdong Province Applicant before: Shenzhen green bristlegrass intelligence Science and Technology Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170308 |
|
RJ01 | Rejection of invention patent application after publication |