CN112847369B - 机器人情绪转变的方法、装置、机器人及存储介质 - Google Patents
机器人情绪转变的方法、装置、机器人及存储介质 Download PDFInfo
- Publication number
- CN112847369B CN112847369B CN202110026129.XA CN202110026129A CN112847369B CN 112847369 B CN112847369 B CN 112847369B CN 202110026129 A CN202110026129 A CN 202110026129A CN 112847369 B CN112847369 B CN 112847369B
- Authority
- CN
- China
- Prior art keywords
- emotion
- target robot
- mode
- trigger information
- controlling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人情绪转变的方法,包括:预设至少两种情绪模式;将目标机器人的情绪工作模式设置为第一情绪模式;在所述第一情绪模式下,根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪;根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式;其中,所述第一情绪模式、所述第二情绪模式各自独立地选自所述至少两种情绪模式中的一种。在前述基础上,还提供了一种机器人情绪转变的装置、机器人与存储介质。本申请至少解决了在机器人的情绪表达过程中实现情绪自然衔接过渡与转换的问题。
Description
技术领域
本发明涉及智能机器人技术领域。更具体地说,本发明涉及一种机器人情绪转变的方法、装置、机器人及存储介质。
背景技术
随着科技的进步,智能机器人在类人化的演进道路上进入了高速发展期,在融合了机械、电子、传感器、计算机硬件、软件、人工智能等诸多学科的知识后,目前的智能机器人不仅能够完成机械式的动作表达,在类人化的情绪表达上也取得了重大的突破。从这个方面来说,智能机器人距离有机生命体的人已经越来越近,但在情绪表达上仍旧存在诸多有待改进之处。
一个明显的事实是,日常交流中,人的情绪是在不断地变化地,人天生就具有情绪表达上的过渡能力,即,能够从一种情绪自然地转化为另一种情绪。可以说,正是这种情绪表达上的过渡能力,使得人的表达中蕴含了丰富的情感,这也是一切生命体与非生命体之间的一个重要区别,传统智能机器人在情绪表达上的缺陷也正困陷于此。
具体来说,传统智能机器人在完成一次情绪表达以后只能恢复到初始状态,而不能实现从一种情绪到另一种情绪的过渡与转化,使得情绪表达过于机械化。所以说,传统智能机器人目前还无法在人机交互过程中给予用户充足的情感交流体验;更不必谈去表达,只能在活生生的人身上才能流露出的那种情真意切的情感了。
言及于此,现有技术在智能机器人领域所存在的问题,也足够明了了。如若消除前述问题引致的困扰,则势必要在机器人的情绪表达方面作新的技术改进。
发明内容
本发明的一个目的是至少解决上述问题,并提供相应的有益效果。
本发明的另一个目的是,提供机器人情绪转变的方法、装置、机器人及存储介质,至少解决了如何在机器人的情绪表达过程中实现情绪自然衔接过渡与转换的问题。本发明主要通过以下诸方面中的技术方案实现:
<本发明的第一方面>
第一方面提供了一种机器人情绪转变的方法,包括:
预设至少两种情绪模式;
将目标机器人的情绪工作模式设置为第一情绪模式;
在所述第一情绪模式下,根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪;
根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式;
其中,所述第一情绪模式、所述第二情绪模式各自独立地选自所述至少两种情绪模式中的一种。
需要说明的是,“第一情绪模式”、“第二情绪模式”是为了生成情绪服务的,在本发明中是一种便于技术人员理解的形象化表达,不能视为对于本发明的限制,应当理解的是,在不同的情绪模式中,机器人的情绪生成规则可能是不一样的。类似的,“第一情绪”是一种类人化的表达,具体来说,可以理解为机器人作出的类似人类情感的机械表达。
在一些技术方案中,所述机器人情绪转变的方法,还包括:
在所述第二情绪模式下,根据接收的第二情绪触发信息控制目标机器人表达对应的第二情绪。类似的,“第二情绪”是一种类人化的表达,具体来说,可以理解为机器人作出的类似人类情感的机械表达。
在一些技术方案中,所述至少两种情绪模式包括:正常情绪模式、生气情绪模式、开心情绪模式和失落情绪模式。
在一些技术方案中,所述第一情绪触发信息选自对目标机器人的重击、头部触摸、胸部触摸、背部触摸中的一种。
在一些技术方案中,在所述第一情绪模式下,根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪包括:
当所述第一情绪模式为正常情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为开心,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为惊讶,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为无语或者耍贱,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;
当所述第一情绪模式为开心情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为高兴,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为大笑,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为花心,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;
当所述第一情绪模式为生气情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为不懈,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为反抗,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为无语或者无奈,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;
当所述第一情绪模式为失落情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为无助,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为无聊,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为滴汗,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕。
在一些技术方案中,根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式包括:
当所述第一情绪为开心、耍贱、眩晕和无助中的任一种时,所述第二情绪模式为正常情绪模式,
当所述第一情绪为高兴和花心中的任一种时,所述第二情绪模式为开心情绪模式,
当所述第一情绪为惊讶、无语、无聊和滴汗中的任一种时,所述第二情绪模式为生气情绪模式,
当所述第一情绪为反抗和无奈中的任一种时,所述第二情绪模式为失落情绪模式。
<本发明的第二方面>
第二方面提供了一种机器人情绪转变的装置,用于执行第一方面所述的机器人情绪转变的方法;
情绪模式预设模块,用于预设至少两种情绪模式;
情绪模式初始设置模块,用于将目标机器人的情绪工作模式设置为第一情绪模式;
第一情绪表达模块,用于在所述第一情绪模式下,根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪;
情绪工作模式转换模块,用于根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式。
在一些技术方案中,所述机器人情绪转变的装置,还包括:
第二情绪表达模块,用于在所述第二情绪模式下,根据接收的第二情绪触发信息控制目标机器人表达对应的第二情绪。
<本发明的第三方面>
第三方面提供了一种具有情绪转变功能的机器人,包括:
第二方面所述的机器人情绪转变的装置;和
情绪演示装置,所述情绪演示装置用于表现情绪对应的演示工作。
在一些技术方案中,所述情绪演示装置包括四肢器官、面部器官与发声器官,其中,所述四肢器官用于执行与情绪对应的动作演示工作,所述面部器官用于执行与情绪对应的表情演示工作,所述发声器官用于执行与情绪对应的声音演示工作。
<本发明的第四方面>
第四方面提供了一种具有情绪转变功能的机器人,所述机器人包括:
处理器;以及
存储器,用于存储可在所述处理器上运行的计算机程序;
其中,所述计算机程序被所述处理器执行时实现第一方面所述机器人情绪转变的方法。
<本发明的第五方面>
第五方面提供了一种存储介质,所述存储介质存储有计算机指令,所述计算机指令用于执行第一方面所述的机器人情绪转变的方法。
本发明的实施例的技术效果至少包括:
本发明中,通过预设至少两种情绪模式;将目标机器人的情绪工作模式设置为第一情绪模式;在所述第一情绪模式下,根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪;根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式;其中,所述第一情绪模式、所述第二情绪模式各自独立地选自所述至少两种情绪模式中的一种,从而可以实现利用情绪生成情绪状态的功能。本发明基于情绪触发信息和情绪的对应关系,建立起了每一种情绪触发信息和情绪之间的关系,更重要的是这种关系是在第一情绪模式基础上构建的。由此使得,当前情绪与第一情绪模式相关联;在此基础上,转换目标机器人的情绪工作模式为第二情绪模式,从而可以更加拟人化的生成情绪状态。因此,基于本申请的机器人情绪转变的方法,在第一情绪模式的基础上,通过情绪就能准确地生成对应的情绪状态,使机器人情绪更加拟人化,提高人与机器人的交互体验。
除非另有定义,否则,本文中使用的所有技术和科学术语与本发明所属领域的普通技术人员的通常理解具有相同的含义。
在上述各方面中所提及的关于本发明的各种特征和实施方式,视情况而定,在适当变通的情况下可以应用于其他方面。因此,一个方面中的具体特征可以与其他方面中的具体特征适当地行组合。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1为本发明的机器人情绪转变的方法在一些实施例中的流程示意图;
图2为本发明的机器人情绪转变的方法在另一些实施例中的流程示意图;
图3为本发明的机器人情绪转变的装置在一些实施例中的原理示意图;
图4为本发明的机器人情绪转变的装置在另一些实施例中的原理示意图;
图5为本发明的具有情绪转变功能的机器人在一些实施例中的原理示意图;
图6为本发明的情绪演示装置在一些实施例中的原理示意图;
图7为本发明的具有情绪转变功能的机器人在另一些实施例中的原理示意图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
本申请实施例中的术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。还需要说明的是,本申请中,术语“包括”和“设置有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
除以上所述外,仍需要强调的是,在本文中提及“实施例”时,意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
<本发明的第一方面>
第一方面提供了一种机器人情绪转变的方法,所述方法包括:
S100、预设至少两种情绪模式;
S200、将目标机器人的情绪工作模式设置为第一情绪模式;
S300、在所述第一情绪模式下,根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪;在本步骤中,对于本领域技术人员来说,容易理解的是,每一种情绪触发信息对应一种情绪。所述第一情绪触发信息优选为对目标机器人的重击、头部触摸、胸部触摸、背部触摸的一种,根据目标机器人不同的部位采集的触发信息,控制目标机器人的情绪。例如,在第一情绪模式为开心情绪模式时,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为高兴,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为大笑,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为花心。
需要说明的是,所述第一情绪触发信息的获取方式可以是传感器、麦克风、摄像头、无线接收器等,本实施例优选为传感器。但是,本领域技术人员可以根据实际需要确定第一情绪触发信息的获取方式,并不能限制为前述示例性的传感器、麦克风、摄像头、无线接收器。S400、根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式;对此,本领域技术人员可以根据实际需要确定第一情绪所对应的第二情绪模式。在一些实施例中,在第一情绪模式为开心情绪模式时,当所述第一情绪触发信息为对目标机器人的重击,此时控制目标机器人表达的第一情绪为眩晕,根据眩晕情绪转换目标机器人的情绪工作模式为正常情绪模式,即第二情绪模式为正常情绪模式。
其中,所述第一情绪模式、所述第二情绪模式各自独立地选自所述至少两种情绪模式中的一种。
综上所述,根据本发明提供的机器人情绪转变的方法,在第一情绪模式基础上,根据接收的第一情绪触发信息使得目标机器人表达出第一情绪,再根据第一情绪转换目标机器人的情绪工作模式为第二情绪模式,就能进一步使得机器人在第二情绪模式中表达新情绪。从这里可以看出,第二情绪模式的转换是建立在第一情绪的基础上实现的,由此便可以使得机器人在第二情绪模式中表达的新情绪与第一情绪之间存在一种对应关系,从而使得前述的新情绪与第一情绪衔接起来,实现自然的过渡与转化,类似人的情绪表达。相对于现有技术而言,本发明的机器人情绪转变的方法至少能够解决:在情绪表达过程中实现情绪自然衔接过渡与转换的问题。更具体的理由如下所述:
如背景技术中所说明的,现有技术中,机器人表达完一种情绪——例如开心——后,则必须回到初始化的状态(这种初始化的状态是一种无情绪的状态),在初始化的状态下接受新的感官刺激,才能表达另外一种情绪——例如苦恼。与前不同的是,本发明中,如果要按顺序依次表达两种情绪时,机器人则不需要恢复到初始化状态,在表达第一情绪(例如开心)后,就立马进入到与开心情绪对应的第二情绪模式中,然后在第二情绪模式中表达新情绪(例如苦恼)。由此可以看出,本发明的方法中,借助于第一情绪与第二情绪模式之间的对应关系,可以使得第一情绪与新情绪这两种情绪之间的过渡与转换更加自然。
如图2所示,在一些实施例中,所述机器人情绪转变的方法,还包括:
S500、在所述第二情绪模式下,根据接收的第二情绪触发信息控制目标机器人表达对应的第二情绪。这里所述的第二情绪即前文所述的新情绪。在一些实施例中,所述至少两种情绪模式包括:正常情绪模式、生气情绪模式、开心情绪模式和失落情绪模式。需要说明的是,所述至少两种情绪模式可以由本领域技术人员根据需要确定,并不能限制为前述示例性的正常情绪模式、生气情绪模式、开心情绪模式和失落情绪模式。
容易理解的是,在某些实施例中,当所述至少两种情绪模式的数量为N种(N大于等于3)时,在步骤S500之后,所述机器人情绪转变的方法,还可以包括类似于S400的步骤,例如根据所述第二情绪转换目标机器人的情绪工作模式为第三情绪模式,然后在所述第三情绪模式下,根据接收的第三情绪触发信息控制目标机器人表达对应的第三情绪;以此类推,直至根据接收的第N情绪触发信息控制目标机器人表达对应的第N情绪。
在一些实施例中,所述第一情绪触发信息选自对目标机器人的重击、头部触摸、胸部触摸、背部触摸中的一种。需要说明的是,所述情绪触发信息可以由本领域技术人员根据需要确定,并不能限制为前述示例性的重击、头部触摸、胸部触摸、背部触摸。
在一些实施例中,在所述步骤S300中,包括:
当所述第一情绪模式为正常情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为开心,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为惊讶,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为无语或者耍贱,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;
当所述第一情绪模式为开心情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为高兴,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为大笑,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为花心,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;
当所述第一情绪模式为生气情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为不懈,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为反抗,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为无语或者无奈,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;
当所述第一情绪模式为失落情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为无助,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为无聊,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为滴汗,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕。
需要说明的是,所述目标机器人表达的第一情绪可以由本领域技术人员根据需要确定,并不能限制为前述示例性的开心、惊讶、无语、耍贱、眩晕、高兴、大笑、花心、不懈、反抗、无语、无奈、无助、无聊、滴汗。容易理解的是,本发明中的第二情绪以及之后可能存在的第N情绪(N大于等于3),均可以由本领域技术人员根据需要设置,设置方法类似于前述的第一情绪。
在一些实施例中,在所述步骤S400中,包括:
当所述第一情绪为开心、耍贱、眩晕和无助中的任一种时,所述第二情绪模式为正常情绪模式,
当所述第一情绪为高兴和花心中的任一种时,所述第二情绪模式为开心情绪模式,
当所述第一情绪为惊讶、无语、无聊和滴汗中的任一种时,所述第二情绪模式为生气情绪模式,
当所述第一情绪为反抗和无奈中的任一种时,所述第二情绪模式为失落情绪模式。
需要说明的是,所述第二情绪模式可以由本领域技术人员根据需要确定,并不能限制为前述示例性的正常情绪模式、开心情绪模式、生气情绪模式、失落情绪模式。所述第一情绪与第二情绪模式的对应关系,也可由本领域技术人员根据需要确定,并不能限制为前述示例。
需要注意的是,关于本发明中的第二情绪模式之后可能存在的第N情绪模式(N大于等于3)均可以由本领域技术人员根据需要确定,具体来说,第N-1情绪与第N情绪模式的对应关系,可以参照前文所述的第一情绪与第二情绪模式的展示的示例性的对应关系进行设置。
<本发明的第二方面>
如图3所示,第二方面提供了一种机器人情绪转变的装置10,用于执行第一方面所述的方法,具体方法请见上文,具体实现的技术效果与前文方法所实现的技术效果一致,此处不再赘述;
具体地,所述机器人情绪转变的装置10,包括:
情绪模式预设模块100,用于预设至少两种情绪模式;
情绪模式初始设置模块200,用于将目标机器人的情绪工作模式设置为第一情绪模式;
第一情绪表达模块300,用于在所述第一情绪模式下,根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪;
情绪工作模式转换模块400,用于根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式。
在一些实施例中,如图4所示,所述机器人情绪转变的装置,还包括:
第二情绪表达模块500,用于在所述第二情绪模式下,根据接收的第二情绪触发信息控制目标机器人表达对应的第二情绪。
在一些实施例中,所述机器人情绪转变的装置,还包括:第三情绪表达模块(图中未示出),用于在所述第三情绪模式下,根据接收的第三情绪触发信息控制目标机器人表达对应的第三情绪。
相应地,在存在第N情绪模式后(N大于等于3),就存在第N情绪表达模块,用于在所述第N情绪模式下,根据接收的第N情绪触发信息控制目标机器人表达对应的第N情绪。
<本发明的第三方面>
如图5所示,本发明的第三方面提供了一种具有情绪转变功能的机器人20,包括:
第二方面所述的机器人情绪转变的装置10;和
情绪演示装置30,所述情绪演示装置用于表现与第一情绪对应的演示工作。
如图6所示,在一些实施例中,所述情绪演示装置30还用于表现与第二情绪对应的演示工作。
在一些实施例中,所述情绪演示装置30包括四肢器官31、面部器官32与发声器官33,其中,所述四肢器官31用于执行与第一情绪对应的动作演示工作,所述面部器官32用于执行与第一情绪对应的表情演示工作,所述发声器官33用于执行与第一情绪对应的声音演示工作。
同理,在一些实施中,所述四肢器官31还用于执行与第二情绪对应的动作演示工作,所述面部器官32还用于执行与第二情绪对应的表情演示工作,所述发声器官33还用于执行与第二情绪对应的声音演示工作。
<本发明的第四方面>
如图7所示,本发明的第四方面提供了一种具有情绪转变功能的机器人40,包括:
处理器50;以及
存储器60,用于存储可在所述处理器上运行的计算机程序;
其中,所述计算机程序被所述处理器执行时实现第一方面所述机器人情绪转变的方法。
在一些实施例中,所述机器人还包括情绪演示装置30,所述情绪演示装置30用于表现所述机器人情绪转变的方法中与第一情绪对应的演示工作。
在一些实施例中,所述情绪演示装置30用于表现所述机器人情绪转变的方法中与第二情绪对应的演示工作。
<本发明的第五方面>
本发明的第五方面提供了一种存储介质,所述存储介质存储有计算机指令,所述计算机指令用于执行第一方面所述的机器人情绪转变的方法。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施例中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (7)
1.机器人情绪转变的方法,其特征在于,包括:
预设至少两种情绪模式;
将目标机器人的情绪工作模式设置为第一情绪模式;
在所述第一情绪模式下,先根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪;
再根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式;
其中,所述第一情绪模式、所述第二情绪模式各自独立地选自所述至少两种情绪模式中的一种;
在所述第一情绪模式下,先根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪的步骤,包括:当所述第一情绪模式为正常情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为开心,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为惊讶,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为无语或者耍贱,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;当所述第一情绪模式为开心情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为高兴,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为大笑,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为花心,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;当所述第一情绪模式为生气情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为不懈,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为反抗,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为无语或者无奈,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;当所述第一情绪模式为失落情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为无助,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为无聊,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为滴汗,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;
所述再根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式的步骤,包括:当所述第一情绪为开心、耍贱、眩晕和无助中的任一种时,所述第二情绪模式为正常情绪模式,当所述第一情绪为高兴和花心中的任一种时,所述第二情绪模式为开心情绪模式,当所述第一情绪为惊讶、无语、无聊和滴汗中的任一种时,所述第二情绪模式为生气情绪模式,当所述第一情绪为反抗和无奈中的任一种时,所述第二情绪模式为失落情绪模式。
2.根据权利要求1 所述的方法,其特征在于,还包括:
在所述第二情绪模式下,根据接收的第二情绪触发信息控制目标机器人表达对应的第二情绪。
3.机器人情绪转变的装置,其特征在于,包括:
情绪模式预设模块,用于预设至少两种情绪模式;
情绪模式初始设置模块,用于将目标机器人的情绪工作模式设置为第一情绪模式;
第一情绪表达模块,用于在所述第一情绪模式下,先根据接收的第一情绪触发信息控制目标机器人表达对应的第一情绪,包括:当所述第一情绪模式为正常情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为开心,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为惊讶,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为无语或者耍贱,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;当所述第一情绪模式为开心情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为高兴,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为大笑,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为花心,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;当所述第一情绪模式为生气情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为不懈,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为反抗,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为无语或者无奈,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;当所述第一情绪模式为失落情绪模式时,如果所述第一情绪触发信息为对目标机器人的头部触摸,则控制目标机器人表达的第一情绪为无助,如果所述第一情绪触发信息为对目标机器人的胸部触摸,则控制目标机器人表达的第一情绪为无聊,如果所述第一情绪触发信息为对目标机器人的背部触摸,则控制目标机器人表达的第一情绪为滴汗,如果所述第一情绪触发信息为对目标机器人的重击,则控制目标机器人表达的第一情绪为眩晕;
情绪工作模式转换模块,用于再根据所述第一情绪转换目标机器人的情绪工作模式为第二情绪模式,包括:当所述第一情绪为开心、耍贱、眩晕和无助中的任一种时,所述第二情绪模式为正常情绪模式,当所述第一情绪为高兴和花心中的任一种时,所述第二情绪模式为开心情绪模式,当所述第一情绪为惊讶、无语、无聊和滴汗中的任一种时,所述第二情绪模式为生气情绪模式,当所述第一情绪为反抗和无奈中的任一种时,所述第二情绪模式为失落情绪模式。
4.根据权利要求3所述的装置,其特征在于,还包括:
第二情绪表达模块,用于在所述第二情绪模式下,根据接收的第二情绪触发信息控制目标机器人表达对应的第二情绪。
5.具有情绪转变功能的机器人,其特征在于,包括:
权利要求3或4所述的机器人情绪转变的装置;和
情绪演示装置,所述情绪演示装置用于表现情绪对应的演示工作。
6.具有情绪转变功能的机器人,其特征在于,包括:
处理器;以及
存储器,用于存储可在所述处理器上运行的计算机程序;
其中,所述计算机程序被所述处理器执行时实现权利要求1-2任一项所述机器人情绪转变的方法。
7.存储介质,所述存储介质中预存有计算机程序指令,所述计算机程序指令用于执行权利要求1-2任一所述的机器人情绪转变的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110026129.XA CN112847369B (zh) | 2021-01-08 | 2021-01-08 | 机器人情绪转变的方法、装置、机器人及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110026129.XA CN112847369B (zh) | 2021-01-08 | 2021-01-08 | 机器人情绪转变的方法、装置、机器人及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112847369A CN112847369A (zh) | 2021-05-28 |
CN112847369B true CN112847369B (zh) | 2023-04-07 |
Family
ID=76001860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110026129.XA Active CN112847369B (zh) | 2021-01-08 | 2021-01-08 | 机器人情绪转变的方法、装置、机器人及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112847369B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111168689A (zh) * | 2018-11-13 | 2020-05-19 | 上海元趣信息技术有限公司 | 一种自动生成儿童成长视频的机器人系统及其工作方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100850352B1 (ko) * | 2006-09-26 | 2008-08-04 | 한국전자통신연구원 | 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법 |
CN107645523A (zh) * | 2016-07-21 | 2018-01-30 | 北京快乐智慧科技有限责任公司 | 一种情绪交互的方法和系统 |
JP6841167B2 (ja) * | 2017-06-14 | 2021-03-10 | トヨタ自動車株式会社 | コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム |
CN110378428A (zh) * | 2019-07-23 | 2019-10-25 | 上海思依暄机器人科技股份有限公司 | 一种家用机器人及其情绪识别方法和装置 |
KR20190116190A (ko) * | 2019-09-23 | 2019-10-14 | 엘지전자 주식회사 | 로봇 |
CN111191765A (zh) * | 2019-12-31 | 2020-05-22 | 华为技术有限公司 | 一种情绪信息的处理方法及装置 |
-
2021
- 2021-01-08 CN CN202110026129.XA patent/CN112847369B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111168689A (zh) * | 2018-11-13 | 2020-05-19 | 上海元趣信息技术有限公司 | 一种自动生成儿童成长视频的机器人系统及其工作方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112847369A (zh) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2882968C (en) | Facilitating generation of autonomous control information | |
CN108665492B (zh) | 一种基于虚拟人的舞蹈教学数据处理方法及系统 | |
Wheatland et al. | State of the art in hand and finger modeling and animation | |
Sallai | Defining infocommunications and related terms | |
Dipietro et al. | A survey of glove-based systems and their applications | |
JP5967838B2 (ja) | 人間型ロボットのジェスチャと音声の同期 | |
CN104487208B (zh) | 机器人控制脚本生成方法及装置 | |
KR100813668B1 (ko) | 안드로이드 로봇의 감정표현 방법 | |
WO2002076687A1 (en) | Robot device and control method therefor, and storage medium | |
WO2018000267A1 (zh) | 一种机器人交互内容的生成方法、系统及机器人 | |
CN108133259A (zh) | 人工虚拟生命与外界交互的系统及方法 | |
Sebe et al. | The state-of-the-art in human-computer interaction | |
KR100639068B1 (ko) | 로봇의 감정표현장치 및 방법 | |
KR100880613B1 (ko) | 지능형로봇의 감정표현지원시스템과 지원방법 및 이를이용한 지능형 로봇 시스템 | |
Jørgensen | Constructing soft robot aesthetics: art, sensation, and Materiality in practice | |
CN112847369B (zh) | 机器人情绪转变的方法、装置、机器人及存储介质 | |
KR20200114389A (ko) | 근전 전동의수의 엄지기반 손동작 제어시스템 및 그 제어방법 | |
Record et al. | DIY prosthetics workshops:‘Critical Making’for public understanding of human augmentation | |
Kenyon et al. | Human augmentics: Augmenting human evolution | |
KR20080078324A (ko) | 자율적 감정표현 로봇 시스템 | |
Jones et al. | The future of robot-assisted learning in the home | |
Kocoń | Head movements in the idle loop animation | |
Thompson et al. | Emotibot: An Interactive Tool for Multi-Sensory Affect Communication | |
Vélez et al. | ROBSNA: Social robot for interaction and learning therapies | |
Corradini et al. | Towards believable behavior generation for embodied conversational agents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |