CN107175674A - 一种机器人交互方法及装置 - Google Patents
一种机器人交互方法及装置 Download PDFInfo
- Publication number
- CN107175674A CN107175674A CN201710367593.9A CN201710367593A CN107175674A CN 107175674 A CN107175674 A CN 107175674A CN 201710367593 A CN201710367593 A CN 201710367593A CN 107175674 A CN107175674 A CN 107175674A
- Authority
- CN
- China
- Prior art keywords
- robot
- interaction
- expression
- interaction context
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Manipulator (AREA)
Abstract
本发明实施例公开了一种机器人交互方法及装置,该方法包括:监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。本发明实施例能够根据交互对象的情感信息做出反应,在与交互对象进行交流互动时,与交互对象产生情感上的共鸣,人机交互效果得到了改善,提升了用户体验感。
Description
技术领域
本发明实施例涉及机器人技术,尤其涉及一种机器人交互方法及装置。
背景技术
随着社会的不断发展和进步,我国正处于城镇化和工业化的快速发展时期,实现城市的可持续发展,建设智慧城市已成为当今世界城市发展不可逆转的历史潮流。智慧服务是智慧城市发展的重要环节之一,服务型机器人以其应用范围广泛、可靠性高等优点成为一种必然趋势。良好的人机互动是评价服务型机器人好坏的关键性因素,目前,服务型机器人往往是无情绪的,在为人类提供服务的过程中,缺少情感上的交流,难以做到真正意义上的沟通,这也成为了制约其发展的原因之一。
现有技术中,大多数服务型机器人在提供服务时,交互过程中的表情呆板,欠缺变化,交互的维度简单无法与人类产生情感上的共鸣,导致人机交互效果差,用户体验感不佳。
发明内容
本发明实施例提供一种机器人交互方法及装置,以解决现有技术中机器人交互效果差、用户体验感不佳的问题。
第一方面,本发明实施例提供了一种机器人交互方法,包括:
监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;
若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;
若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
进一步地,监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配,至少包括:
接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配;和/或,
通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。
进一步地,监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配之前,包括:
加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;
加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;
建立所述表情集与所述状态集的第三映射关系;
获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系;
根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情;
其中,所述表情资源包括图片、动画和视频的一种或多种。
进一步地,控制所述机器人显示与所述当前交互情境对应的交互表情,包括:
读取所述表情集的播放模式和定时器的变量时间;
按照所述变量时间以设定的播放模式显示交互表情。
进一步地,根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情之后,包括:
初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情集、所述状态集以及所述表情资源。
第二方面,本发明实施例还提供了一种机器人交互设备,包括:
匹配模块,用于监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;
第一匹配结果模块,用于若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;
第二匹配结果模块,用于若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
进一步地,所述匹配模块包括:
第一匹配单元,用于接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配;
第二匹配单元,用于通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。
进一步地,所述装置还包括:
第一加载单元,用于加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;
第二加载单元,用于加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;
建立单元,用于建立所述表情集与所述状态集的第三映射关系;
获取单元,用于获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系;
提取单元,用于根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情;
其中,所述表情资源包括图片、动画和视频的一种或多种。
进一步地,所述第一匹配结果模块包括:
读取单元,用于读取所述表情集的播放模式和定时器的变量时间;
显示单元,用于当所述交互对象所处的交互情境与所述机器人所处的当前交互情境匹配的状态下,按照所述变量时间以设定的播放模式显示交互表情。
进一步地,所述装置还包括:
初始化单元,用于初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情集、所述状态集以及所述表情资源。
本发明实施例通过监测机器人所处的交互情境,使机器人设定的当前交互情境与机器人所处的交互情境相匹配,从而使机器人能够根据交互对象的情感信息做出反应,在与交互对象进行交流互动时,可以显式地表达情绪,提供面部表情和交互状态的呈现,与交互对象产生情感上的共鸣,人机交互效果得到了改善,提升了用户体验感,可应用范围广。
附图说明
图1是本发明实施例一中的一种机器人交互方法的流程图;
图2是本发明实施例二中的一种机器人交互方法的流程图;
图3是本发明实施例三中的一种机器人交互方法的流程图;
图4a是本发明实施例四中的一种机器人交互方法的流程图;
图4b是本发明实施例四中的一种机器人交互方法的流程图;
图5是本发明实施例五中的一种机器人交互装置的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种机器人交互方法的流程图,本实施例可适用于通过匹配机器人所处的交互情境与机器人设定的当前交互情境来进行人机交互的情况,该方法可以由一种机器人交互装置来执行,该装置可以采用软件和/或硬件的方式实现,一般集成于机器人中。
本发明实施例一的方法具体包括:
S101、监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配。
具体的,机器人包括两个通用显示器,两个通用显示器上下放置,一个位于机器人的上部,近似于头部区域,用于呈现与交互情境匹配的交互状态和/或交互表情,另一个位于机器人的下部,用于为交互对象提供服务,例如,交互对象可以通过该显示器的显示屏幕查询天气、余额、汇率等事项,放置于机器人上部的显示屏幕尺寸小于放置于机器人下部的显示屏幕尺寸。监测机器人所处的交互情境包括监测机器人所处的交互环境、机器人的交互对象以及机器人交互对象的交互状态和表情等元素,判断机器人所处于的交互情境与机器人获取并呈现的当前交互情境是否匹配。
S102、若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情。
具体的,如果机器人所处于的交互情境与机器人获取并于显示屏幕显示的当前交互情境是匹配的,则机器人与交互对象处于交互状态中,机器人可以获取交互对象的交互状态和/或交互表情并做出反应,在显示屏幕上显示与交互对象的交互状态和/或交互表情对应的交互状态和/或交互表情。机器人的交互对象可以为人、机器人等。
S103、若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
具体的,如果机器人所处于的交互情境与机器人于显示屏幕显示的当前交互情境是不匹配的,机器人更新设定的交互情境,使其与机器人所处于的交互情境相匹配,呈现与所处于的交互情境相匹配的交互状态和/或交互表情。
本发明实施例一提供的一种机器人交互方法,能够根据交互对象的情感信息做出反应,在与交互对象进行交流互动时,可以显式地表达情绪,提供面部表情和交互状态的呈现,与交互对象产生情感上的共鸣,人机交互效果得到了改善,提升了用户体验感。
实施例二
图2为本发明实施例二提供的一种机器人交互方法的流程图,本发明实施例二以实施例一为基础进行了优化,具体是对监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配的操作进一步优化,如图2所示,本发明实施例二的具体包括:
S201、接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配。
具体的,可以通过摄像头监测机器人所处的交互情境的交互状态,机器人的交互状态可以包括交互、休息、等待、修复等,交互即机器人与交互对象进行交流互动,可以为交互对象提供服务,休息即机器人处于休眠状态,等待即机器人处于工作状态中,面前不存在交互对象,但若存在交互对象的时候可以为交互对象提供服务,修复即机器人处于修复状态中,修复完毕后可以为交互对象提供服务或处于休息或等待的状态中。根据机器所处的交互状态,设定机器人显示的交互状态,接收设定机器人交互状态的控制指令,判断控制指令指向的交互状态与机器人当前设定的交互状态是否匹配。
S202、通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。
具体的,可以通过摄像头获取交互情境的图像,例如,可以采集机器人交互对象的图像,分析交互对象在交互状态下的面部表情,判断交互对象的面部表情与机器人显示的交互表情是否匹配。
S203、若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情。
S204、若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
本实施例中,监测机器人所处的交互情境,机器人面前不存在交互对象,获取机器人设定的当前交互状态为等待,与所处于的交互情境相匹配,显示与等待状态相匹配的交互表情,交互表情可以为俏皮表情。继续监测机器人所处的交互情境,某一时刻机器人面前存在交互对象,获取机器人设定的当前交互状态为等待,与所处的交互情境不匹配,更新机器人的交互状态,此时机器人处于交互状态中,通过摄像头监测并采集交互对象的交互表情,分析该交互对象的交互表情为微笑,获取机器人当前显示的交互表情为沮丧,与机器人所处的交互情境不匹配,更新机器人的交互表情,交互表情可以为微笑表情,机器人进入与交互对象的交互状态。
本发明实施例二提供的一种机器人交互方法,通过监测机器人所处的交互状态和机器人交互对象的交互表情,更新机器人设定的交互状态和交互表情,使其与机器人所处的交互情境相匹配,更好的促进机器人与交互对象的互动,实现机器人交互状态以及表情的丰富变化,给交互对象亲切感和信任感,提升了用户体验。
实施例三
图3为本发明实施例三提供的一种机器人交互方法的流程图,本发明实施例三以上述各实施例为基础进行了优化改进,对监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配之前进行了进一步说明,如图3所示,本发明实施例三的方法具体包括:
S301、加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;建立所述表情集与所述状态集的第三映射关系。
具体的,收集并建立表情集,表情集包括愤怒表情、哭泣表情、沮丧表情、大笑表情、俏皮表情、羞怯表情、睡觉表情、卖萌表情以及微笑表情等多个表情,加载表情集并建立表情集与第一数组的第一映射关系,第一数组中的每个数字一一对应表情集中的每个表情。加载交互状态的状态集,状态集可以包括交互、等待、休息、修复等状态,建立状态集与第二数组的第二映射关系,第二数组中的每个数字一一对应状态集中的每种状态。建立表情集与状态集的第三映射关系,状态集中的每种状态对应表情集中的一种或多种表情,例如,交互状态可以对应表情集中的微笑表情、大笑表情、俏皮表情等。
S302、获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系。
具体的,表情集中的每个表情具有多个表情资源,其中,表情资源包括图片、动画和视频的一种或多种,例如获取微笑表情的图片、动画以及视频,微笑表情可以包括多张图片、多个动画以及多个视频。建立表情资源与第三数组的第四映射关系,表情资源中的每个表情一一对应第三数组中的每个数字,根据数字可以获取对应的表情。
S303、根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情。
具体的,提取第一数组、第二数组以及第三数组中的数字组合为数字串,例如,数字串717对应着第一种状态、第一种状态下的第七个表情以及第七个表情中包括的第七个表情资源,根据表情集与第一数组的第一映射关系、状态集与第二数组的第二映射关系、表情集与状态集的第三映射关系以及表情资源与第三数组的第四映射关系,可以获取字符串对应的交互状态、交互表情以及表情资源。
优选的,根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情之后,包括:
初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情集、所述状态集以及所述表情资源。
具体的,初始化机器人所处的交互情境以及该交互情境包括的表情集、状态集以及表情资源,例如,初始化交互情境为银行环境,初始化交互状态为等待,初始化交互表情为微笑,初始化表情资源为微笑表情资源中的第一张图片。
S304、监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配。
S305、若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情。
S306、若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
本发明实施例三提供的一种机器人交互方法,获取机器人的多种交互状态、多交互表情以及表情资源,使机器人的表情变化多样,机器人通过丰富的表情变化将可以更好地辅助人类完成操作,促进人机互动,改善了人机交互中不能产生情感共鸣的问题,快速建立良好的用户体验。
实施例四
图4a为本发明实施例四提供的一种机器人交互方法的流程图,本发明实施例四以上述各实施例为基础进行了优化改进,对控制所述机器人显示与所述当前交互情境对应的交互表情进行了进一步说明,如图4a所示,本发明实施例四的方法具体包括:
S401、监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配。
S402、若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,读取所述表情集的播放模式和定时器的变量时间,按照所述变量时间以设定的播放模式显示交互表情。
具体的,预先设置机器人表情集的播放模式和定时器的变量时间,播放模式可以包括顺序播放、随机播放、循环播放等播放模式。定时器用于控制表情集中每个交互表情的播放时间,可以控制当前交互状态对应的多个交互表情中每个表情资源的播放时间。读取预设的播放模式以及定时器的变量时间,按照设定的播放模式和定时器的变量时间播放表情集以及对应的表情资源。
S403、若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
本实施例中,参见图4b,加载状态集、表情集以及表情资源,并且建立表情集与第一数组的第一映射关系、状态集与第二数组的第二映射关系、表情集与状态集的第三映射关系以及表情资源与第三数组的第四映射关系,初始化设置交互状态、交互表情以及表情资源,确定显示的表情资源的列表,初始化表情集以及表情资源的播放模式,初始化定时器的变量时间。监测机器人所处的交互情境,判断机器人所处的交互情境与机器人设定的当前交互情境是否匹配,如果机器人所处的交互情境与机器人设定的当前交互情境匹配,根据设定的播放模式按照变量时间显示与交互状态对应的交互表情。如果机器人所处的交互情境与机器人设定的当前交互情境不匹配,更新机器人设定的当前交互情境,显示与机器人所处的交互情境对应的交互表情。
本发明实施例四提供的一种机器人交互方法,通过监测机器人所处的交互情境,实现机器人交互表情的丰富变化,使机器人拥有直观的表情,改进人与机器人交互时的体验。
实施例五
图5是本发明实施例五中的一种机器人交互装置的结构示意图,该装置应用于通过监测机器人所处的交互情境的变化来实现匹配机器人所处的交互情境与机器人设定的当前交互情境,一般集成于机器人中。如图5所示,装置包括:匹配模块501、第一匹配结果模块502以及第二匹配结果模块503。
匹配模块501,用于监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;
第一匹配结果模块502,用于若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;
第二匹配结果模块503,用于若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
本发明实施例通过监测机器人所处的交互情境,使机器人设定的当前交互情境与机器人所处的交互情境相匹配,从而使机器人能够根据交互对象的情感信息做出反应,在与交互对象进行交流互动时,可以显式地表达情绪,提供面部表情和交互状态的呈现,与交互对象产生情感上的共鸣,人机交互效果得到了改善,提升了用户体验感,可应用范围广。
在上述各个实施例的基础上,所述匹配模块可以包括:
第一匹配单元,用于接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配;
第二匹配单元,用于通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。
在上述各个实施例的基础上,所述装置可以包括:
第一加载单元,用于加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;
第二加载单元,用于加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;
建立单元,用于建立所述表情集与所述状态集的第三映射关系;
获取单元,用于获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系;
提取单元,用于根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情;
其中,所述表情资源包括图片、动画和视频的一种或多种。
在上述各个实施例的基础上,所述第一匹配结果模块可以包括:
读取单元,用于读取所述表情集的播放模式和定时器的变量时间;
显示单元,用于当所述交互对象所处的交互情境与所述机器人所处的当前交互情境匹配的状态下,按照所述变量时间以设定的播放模式显示交互表情。
在上述各个实施例的基础上,所述装置还可以包括:
初始化单元,用于初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情集、所述状态集以及所述表情资源。
本实施例中,通过第一加载单元加载表情集,并且建立表情集与第一数组的第一映射关系,表情集中的每个表情与数字一一对应,通过第二加载单元加载状态集,并且建立状态集与第二数组的第二映射关系,状态集中的每种状态与数字一一对应,通过建立单元建立表情集和状态集的第三映射关系,状态集中的每种状态可以对应多种表情,利用获取单元获取表情集中每个表情的表情资源,表情资源包括图片、视频或动画的一种或多种,建立表情资源与第三数组一一对应的第四映射关系。在提取单元,提取第一数组、第二数组以及第三数组中的数字组合为数字串,可以获取数字串对应的交互状态、交互表情以及表情资源。
通过初始化单元初始化设置状态集、表情集以及表情资源,在匹配模块中监测机器人所处的交互情境,即监测机器人所处的环境,面前是否存在交互对象,如果存在交互对象,获取交互对象的表情。通过第一匹配单元判断机器人设定的交互状态与监测到的交互情境是否匹配,通过第二匹配单元识别机器人交互对象的交互表情,判断机器人显示的交互表情与机器人交互对象的交互表情是否匹配,例如,处于交互状态中的机器人获取交互对象的表情与机器人显示的交互表情是否匹配,可以是机器人显示的微笑表情与交互对象的微笑表情相匹配,也可以是机器人显示的微笑表情与交互对象的生气表情相匹配,可以根据实际应用情况而具体设定。如果匹配,利用第一匹配结果模块,机器人显示当前交互情境对应的交互表情,如果不匹配,利用第二匹配结果模块,更新机器人设定的交互情境,并且显示与机器人所处的交互情境相匹配的交互表情,进入与机器人所处的交互情境相匹配的交互状态。
本发明实施例五提供的一种机器人交互装置,能够促进人机交互,改善人机交互中用户的体验,使机器人可以显式地表达情绪,呈现面部表情,工作性能高,成本较低,可应用范围广泛。
本发明实施例提供的机器人交互装置可执行本发明任意实施例提供的机器人交互方法,具备执行方法相应的功能模块和有益效果。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种机器人交互方法,其特征在于,包括:
监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;
若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;
若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
2.根据权利要求1所述的方法,其特征在于,监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配,至少包括:
接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配;和/或,
通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。
3.根据权利要求2所述的方法,其特征在于,监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配之前,包括:
加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;
加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;
建立所述表情集与所述状态集的第三映射关系;
获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系;
根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情;
其中,所述表情资源包括图片、动画和视频的一种或多种。
4.根据权利要求3所述的方法,其特征在于,控制所述机器人显示与所述当前交互情境对应的交互表情,包括:
读取所述表情集的播放模式和定时器的变量时间;
按照所述变量时间以设定的播放模式显示交互表情。
5.根据权利要求3所述的方法,其特征在于,根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情之后,包括:
初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情集、所述状态集以及所述表情资源。
6.一种机器人交互装置,其特征在于,包括:
匹配模块,用于监测机器人所处的交互情境,判断所述交互情境与所述机器人设定的当前交互情境是否匹配;
第一匹配结果模块,用于若所述机器人所处的交互情境与所述机器人设定的当前交互情境匹配,控制所述机器人显示所述当前交互情境对应的交互表情;
第二匹配结果模块,用于若所述机器人所处的交互情境与所述机器人设定的当前交互情境不匹配,将所述机器人的当前交互情境设定为监测到的交互情境,控制所述机器人显示与所述监测到的交互情境对应的交互表情。
7.根据权利要求6所述的装置,其特征在于,所述匹配模块包括:
第一匹配单元,用于接收设定所述机器人的交互状态的控制指令,判断所述控制指令指向的交互状态与所述机器人设定的交互状态是否匹配;
第二匹配单元,用于通过图像识别所述机器人的交互对象的交互表情,判断所述交互表情与所述机器人显示的交互表情是否匹配。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
第一加载单元,用于加载交互表情的表情集,建立所述表情集与第一数组的第一映射关系;
第二加载单元,用于加载交互状态的状态集,建立所述状态集与第二数组的第二映射关系;
建立单元,用于建立所述表情集与所述状态集的第三映射关系;
获取单元,用于获取所述表情集中每个表情的多个表情资源,建立所述表情资源与第三数组的第四映射关系;
提取单元,用于根据所述第一映射关系、第二映射关系、第三映射关系以及第四映射关系,提取所述第一数组、第二数组以及第三数组中的数字组合为数字串,获取与所述数字串相匹配的交互状态和交互表情;
其中,所述表情资源包括图片、动画和视频的一种或多种。
9.根据权利要求8所述的装置,其特征在于,所述第一匹配结果模块包括:
读取单元,用于读取所述表情集的播放模式和定时器的变量时间;
显示单元,用于当所述交互对象所处的交互情境与所述机器人所处的当前交互情境匹配的状态下,按照所述变量时间以设定的播放模式显示交互表情。
10.根据权利要求8所述的装置,其特征在于,所述装置还包括:
初始化单元,用于初始化所述机器人所处的交互情境,并初始化与所述交互情境相匹配的所述表情集、所述状态集以及所述表情资源。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710367593.9A CN107175674B (zh) | 2017-05-23 | 2017-05-23 | 一种机器人交互方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710367593.9A CN107175674B (zh) | 2017-05-23 | 2017-05-23 | 一种机器人交互方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107175674A true CN107175674A (zh) | 2017-09-19 |
CN107175674B CN107175674B (zh) | 2020-03-31 |
Family
ID=59832479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710367593.9A Active CN107175674B (zh) | 2017-05-23 | 2017-05-23 | 一种机器人交互方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107175674B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108214490A (zh) * | 2017-12-29 | 2018-06-29 | 弗徕威智能机器人科技(上海)有限公司 | 一种机器人的交互系统 |
CN108356832A (zh) * | 2018-03-07 | 2018-08-03 | 佛山融芯智感科技有限公司 | 一种室内机器人人机互动系统 |
CN109325106A (zh) * | 2018-07-31 | 2019-02-12 | 厦门快商通信息技术有限公司 | 一种医美聊天机器人意图识别方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307349A (ja) * | 2001-04-11 | 2002-10-23 | Sony Corp | ロボット装置、情報学習方法、プログラム及び記録媒体 |
CN101474481A (zh) * | 2009-01-12 | 2009-07-08 | 北京科技大学 | 情感机器人系统 |
CN105345818A (zh) * | 2015-11-04 | 2016-02-24 | 深圳好未来智能科技有限公司 | 带有情绪及表情模块的3d视频互动机器人 |
CN106502389A (zh) * | 2016-09-27 | 2017-03-15 | 北京光年无限科技有限公司 | 一种用于机器人的多模态输出方法 |
-
2017
- 2017-05-23 CN CN201710367593.9A patent/CN107175674B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307349A (ja) * | 2001-04-11 | 2002-10-23 | Sony Corp | ロボット装置、情報学習方法、プログラム及び記録媒体 |
CN101474481A (zh) * | 2009-01-12 | 2009-07-08 | 北京科技大学 | 情感机器人系统 |
CN105345818A (zh) * | 2015-11-04 | 2016-02-24 | 深圳好未来智能科技有限公司 | 带有情绪及表情模块的3d视频互动机器人 |
CN106502389A (zh) * | 2016-09-27 | 2017-03-15 | 北京光年无限科技有限公司 | 一种用于机器人的多模态输出方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108214490A (zh) * | 2017-12-29 | 2018-06-29 | 弗徕威智能机器人科技(上海)有限公司 | 一种机器人的交互系统 |
CN108214490B (zh) * | 2017-12-29 | 2021-08-17 | 弗徕威智能机器人科技(上海)有限公司 | 一种机器人的交互系统 |
CN108356832A (zh) * | 2018-03-07 | 2018-08-03 | 佛山融芯智感科技有限公司 | 一种室内机器人人机互动系统 |
CN109325106A (zh) * | 2018-07-31 | 2019-02-12 | 厦门快商通信息技术有限公司 | 一种医美聊天机器人意图识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107175674B (zh) | 2020-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104778654A (zh) | 非物质文化遗产数字化展示系统及其方法 | |
CN105785813A (zh) | 用于智能机器人系统多模态输出的方法及装置 | |
CN103400106A (zh) | 用基于深度的跟踪来生成和更新数据库的自学习面部识别 | |
CN107175674A (zh) | 一种机器人交互方法及装置 | |
CN110703913A (zh) | 对象交互方法和装置、存储介质及电子装置 | |
CN104238946A (zh) | 一种触控方法、装置及终端 | |
CN102520793A (zh) | 基于手势识别的会议演示交互方法 | |
CN104571823A (zh) | 一种基于智能电视的非接触式虚拟人机交互方法 | |
CN104835059A (zh) | 一种基于体感交互技术的智能广告投放系统 | |
CN107833503A (zh) | 配网核心作业增强现实仿真培训系统 | |
CN116309992A (zh) | 一种智能元宇宙直播人物生成方法、设备和存储介质 | |
CN108115695A (zh) | 一种情感色彩表达系统及机器人 | |
CN104750498A (zh) | 一种控制鼠标模块的方法及电子设备 | |
WO2023134269A1 (zh) | 一种显示设备、虚拟试衣系统及方法 | |
CN109324515A (zh) | 一种控制智能电器的方法及控制终端 | |
CN106250832A (zh) | 一种基于集成卷积神经网络的民族识别方法 | |
CN104123429A (zh) | 一种虚拟仿真场景与现实场景同步控制系统 | |
CN111401116A (zh) | 基于增强卷积和空时lstm网络的双模态情感识别方法 | |
CN103092615A (zh) | 一种任务预览的方法和装置 | |
CN106445430B (zh) | 用于交互界面的即时光色渲染系统和渲染方法及其应用 | |
CN108197364A (zh) | 一种基于运动片元拼接的多角色人体运动合成方法 | |
CN110442242A (zh) | 一种基于双目空间手势交互的智能镜系统及控制方法 | |
CN110633641A (zh) | 一种智能安防行人检测方法、系统、装置及存储介质 | |
CN105446880A (zh) | 一种基于Linux图形界面的互联网彩票自助终端的自动测试方法 | |
CN109859537A (zh) | 一种织锦教学系统及方法、信息数据处理终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20190515 Address after: Room 109, Room No. 2, Tushan Yilang, East Huancheng Road, Shangcheng District, Hangzhou City, Zhejiang 310000 Applicant after: Zhejiang Fubao Intelligent Technology Co., Ltd. Address before: 201203 14 blocks 22301-1544, 498 Guoshoujing Road, Pudong New Area Free Trade Pilot Area, Shanghai Applicant before: SHANGHAI TANGDI INFORMATION TECHNOLOGY CO., LTD. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |