CN109521927B - 机器人互动方法和设备 - Google Patents

机器人互动方法和设备 Download PDF

Info

Publication number
CN109521927B
CN109521927B CN201710851144.1A CN201710851144A CN109521927B CN 109521927 B CN109521927 B CN 109521927B CN 201710851144 A CN201710851144 A CN 201710851144A CN 109521927 B CN109521927 B CN 109521927B
Authority
CN
China
Prior art keywords
interaction
robot
information
output information
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710851144.1A
Other languages
English (en)
Other versions
CN109521927A (zh
Inventor
贾梓筠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201710851144.1A priority Critical patent/CN109521927B/zh
Priority to TW107120458A priority patent/TW201915665A/zh
Priority to PCT/CN2018/106103 priority patent/WO2019057019A1/zh
Priority to EP18857745.6A priority patent/EP3686724A4/en
Priority to JP2020515017A priority patent/JP7260221B2/ja
Priority to US16/646,266 priority patent/US11548147B2/en
Publication of CN109521927A publication Critical patent/CN109521927A/zh
Application granted granted Critical
Publication of CN109521927B publication Critical patent/CN109521927B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40391Human to robot skill transfer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40393Learn natural high level command, associate its template with a plan, sequence

Abstract

本发明实施例提供一种机器人互动方法和设备,该方法包括:采集反映互动输出行为的待处理数据;确定与待处理数据对应的机器人互动输出信息;控制机器人执行机器人互动输出信息以模仿互动输出行为;响应于在模仿成功时触发的结束模仿指令,采集与机器人互动输出信息对应的互动触发信息;对应存储互动触发信息和机器人互动输出信息,以形成一条交互规则。机器人可以自动学习以获得互动规则,即自动采集互动触发信息,通过模仿用户的互动输出行为来自动学习机器人互动输出信息,简单方便。而且,不同用户培养的机器人将拥有不同的交互习惯,实现机器人的千人千面的个性化交互功能。

Description

机器人互动方法和设备
技术领域
本发明涉及人工智能技术领域,尤其涉及一种机器人互动方法和设备。
背景技术
近年来,随着机器人技术的发展和人工智能研究不断深入,智能移动机器人在人类生活中扮演越来越重要的角色,在诸多领域得到广泛应用。
为了增强机器人的智能性,会为机器人设置多种互动功能。一般地,机器人通常可以以声音、显示、灯光、动作等一种或多种方式相结合来响应用户的互动。
目前,一般是通过人工制定规则库,实现对语音、人脸、触摸等输入信息进行反馈的内容设计。也就是说,人为定义机器人输入与输出的映射关系,当输入满足一定条件时,基于映射关系输出相应的语音、显示内容、灯效、动效等。比如,设计人员编写了一条规则,内容是:机器人通过语音识别得知用户说了“你好”,并通过人脸表情识别出用户在“微笑”,则会输出语音“你也好,看上去你的心情不错”。
基于人工规则库的设计方法,所有的规则都需要人工预先编写,耗时耗力,而且会使得机器人的互动效果过于程式化,千篇一律,灵活性较差。
发明内容
有鉴于此,本发明实施例提供一种机器人互动方法和设备,用以实现针对新用户的个性化机器人互动。
第一方面,本发明实施例提供一种机器人互动方法,应用于机器人中,包括:
采集反映互动输出行为的待处理数据;
确定与所述待处理数据对应的机器人互动输出信息;
控制机器人执行所述机器人互动输出信息以模仿所述互动输出行为;
响应于在模仿成功时触发的结束模仿指令,采集与所述机器人互动输出信息对应的互动触发信息;
对应存储所述互动触发信息和所述机器人互动输出信息。
第二方面,本发明实施例提供一种机器人互动装置,应用于机器人中,包括:
采集模块,用于采集反映互动输出行为的待处理数据;
确定模块,用于确定与所述待处理数据对应的机器人互动输出信息;
控制模块,用于控制机器人执行所述机器人互动输出信息以模仿所述互动输出行为;
所述采集模块,还用于响应于在模仿成功时触发的结束模仿指令,采集与所述机器人互动输出信息对应的互动触发信息;
存储处理模块,用于对应存储所述互动触发信息和所述机器人互动输出信息。
第三方面,本发明实施例提供一种电子设备,该电子设备可以实现为机器人,包括处理器和存储器,所述存储器用于存储支持机器人执行上述第一方面中机器人互动方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。该电子设备中还可以包括通信接口,用于与其他设备或通信网络通信。
另外,本发明实施例提供了一种计算机存储介质,用于储存该电子设备所用的计算机软件指令,其包含用于执行上述第一方面中机器人互动方法所涉及的程序。
第四方面,本发明实施例提供一种机器人互动方法,应用于客户端中,包括:
在互动列表中添加服务器发送的与互动触发信息对应的互动选项;所述互动选项是所述服务器在对应存储所述互动触发信息和机器人互动输出信息后生成的,所述机器人互动输出信息是机器人模仿待模仿互动行为所需的信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息;
响应于用户根据所述互动选项触发的播放操作,向所述机器人发送播放指令,所述播放指令中包括所述互动触发信息,以使所述机器人从所述服务器中获取并执行所述机器人互动输出信息。
第五方面,本发明实施例提供一种机器人互动装置,应用于客户端中,包括:
添加模块,用于在互动列表中添加服务器发送的与互动触发信息对应的互动选项;所述互动选项是所述服务器在对应存储所述互动触发信息和机器人互动输出信息后生成的,所述机器人互动输出信息是机器人模仿待模仿互动行为所需的信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息;
发送模块,用于响应于用户根据所述互动选项触发的播放操作,向所述机器人发送播放指令,所述播放指令中包括所述互动触发信息,以使所述机器人从所述服务器中获取并执行所述机器人互动输出信息。
第六方面,本发明实施例提供一种电子设备,该电子设备可以实现为用户终端设备,比如智能手机等,包括处理器和存储器,所述存储器用于存储支持该电子设备执行上述第四方面中机器人互动方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。该电子设备中还可以包括通信接口,用于与其他设备或通信网络通信。
另外,本发明实施例提供了一种计算机存储介质,用于储存该电子设备所用的计算机软件指令,其包含用于执行上述第四方面中机器人互动方法所涉及的程序。
第七方面,本发明实施例提供一种机器人互动方法,应用于服务器中,包括:
对应存储机器人发送的互动触发信息和机器人互动输出信息,所述机器人互动输出信息是机器人模仿待模仿互动行为所需的信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息;
生成与所述互动触发信息对应的互动选项;
将所述互动选项发送至所述机器人对应的客户端,以使所述客户端在互动列表中添加所述互动选项。
第八方面,本发明实施例提供一种机器人互动装置,应用于服务器中,包括:
存储模块,用于对应存储机器人发送的互动触发信息和机器人互动输出信息,所述机器人互动输出信息是机器人模仿待模仿互动行为所需的信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息;
生成模块,用于生成与所述互动触发信息对应的互动选项;
发送模块,用于将所述互动选项发送至所述机器人对应的客户端,以使所述客户端在互动列表中添加所述互动选项。
第九方面,本发明实施例提供一种电子设备,该电子设备可以实现为服务器等,包括处理器和存储器,所述存储器用于存储支持该电子设备执行上述第七方面中机器人互动方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。该电子设备中还可以包括通信接口,用于与其他设备或通信网络通信。
另外,本发明实施例提供了一种计算机存储介质,用于储存该电子设备所用的计算机软件指令,其包含用于执行上述第七方面中机器人互动方法所涉及的程序。
第十方面,本发明实施例提供一种机器人互动方法,应用于机器人中,包括:
采集反映互动输出行为的待处理数据;
根据所述待处理数据确定机器人模仿所述互动输出行为所需的机器人互动输出信息;
存储所述机器人互动输出信息。
第十一方面,本发明实施例提供一种机器人互动装置,应用于机器人中,包括:
采集模块,用于采集反映互动输出行为的待处理数据;
确定模块,用于根据所述待处理数据确定机器人模仿所述互动输出行为所需的机器人互动输出信息;
存储模块,用于存储所述机器人互动输出信息。
第十二方面,本发明实施例提供一种电子设备,该电子设备可以实现为机器人,包括处理器和存储器,所述存储器用于存储支持该电子设备执行上述第十方面中机器人互动方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。该电子设备中还可以包括通信接口,用于与其他设备或通信网络通信。
另外,本发明实施例提供了一种计算机存储介质,用于储存该电子设备所用的计算机软件指令,其包含用于执行上述第十方面中机器人互动方法所涉及的程序。
本发明实施例提供的机器人互动方法和设备,为了让机器人具有个性化的交互功能,通过让用户对机器人言传身教,使得机器人模仿用户的行为以学习交互响应方式。具体来说,在使机器人进入学习模式后,用户实施需要机器人模仿的互动输出行为,从而,机器人通过相应的采集装置采集反映该互动输出行为的待处理数据,比如用户发出的语音、包含用户动作信息的深度图像等。进而,通过对该待处理数据进行分析,确定与该待处理数据对应的机器人互动输出信息,即实现人体行为到机器人行为的映射,得到机器人模仿用户的互动输出行为所需的机器人互动输出信息。之后,控制机器人执行该机器人互动输出信息以模仿用户的互动输出行为,并在接收到用户发现模仿成功时触发的结束模仿指令时,采集与该机器人互动输出信息对应的互动触发信息,即触发机器人执行该机器人互动输出信息的触发信息,从而,对应存储该互动触发信息和机器人互动输出信息,以形成一条描述触发条件和输出响应对应关系的互动规则。
通过本方案,机器人可以自动学习以获得互动规则,即自动采集互动触发信息,通过模仿用户的互动输出行为来自动学习机器人互动输出信息,简单方便。而且,不同用户培养的机器人将拥有不同的交互习惯,实现机器人的千人千面的个性化交互功能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a为本发明实施例提供的一种机器人互动方法的流程图;
图1b-图1h为与图1a所示实施例对应的机器人互动过程示意图;
图2为与图1a所示实施例对应的一种机器人互动装置的结构示意图;
图3为与图2所示机器人互动装置对应的电子设备的结构示意图;
图4a为本发明实施例提供的另一种机器人互动方法的流程图;
图4b为与图4a所示实施例对应的客户端界面展示效果示意图;
图4c为与图4a所示实施例对应的另一客户端界面展示效果示意图
图5为与图4a所示实施例对应的一种机器人互动装置的结构示意图;
图6为与图5所示机器人互动装置对应的电子设备的结构示意图;
图7为本发明实施例提供的又一种机器人互动方法的流程图;
图8为与图7所示实施例对应的一种机器人互动装置的结构示意图;
图9为与图8所示机器人互动装置对应的电子设备的结构示意图;
图10为本发明实施例提供的一种机器人互动方法的交互流程图;
图11为本发明实施例提供的再一种机器人互动方法的流程图;
图12为与图11所示实施例对应的一种机器人互动装置的结构示意图;
图13为与图12所示机器人互动装置对应的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种,但是不排除包含至少一种的情况。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应当理解,尽管在本发明实施例中可能采用术语第一、第二、第三等来描述XXX,但这些XXX不应限于这些术语。这些术语仅用来将XXX区分开。例如,在不脱离本发明实施例范围的情况下,第一XXX也可以被称为第二XXX,类似地,第二XXX也可以被称为第一XXX。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
另外,下述各方法实施例中的步骤时序仅为一种举例,而非严格限定。
图1a为本发明实施例提供的一种机器人互动方法的流程图,本实施例提供的该机器人互动方法可以由一机器人互动装置来执行,该机器人互动装置可以实现为软件,或者实现为软件和硬件的组合,该机器人互动装置可以设置在机器人中。如图1a所示,该方法包括如下步骤:
101、采集反映互动输出行为的待处理数据。
为了增加机器人的互动功能,首先需要创建互动输入与输出之间的对应关系,即生成互动规则,该互动规则描述了在什么样的触发条件下,机器人进行怎么样的输出反馈。
而本发明实施例中,一条互动规则是由互动触发信息和机器人互动输出信息构成的。其中,互动触发信息,是在人机交互的场景中,交互者触发的输入信息;机器人互动输出信息是机器人响应于互动触发信息而应该做出的输出反馈。从而,本实施例中,生成互动规则即是让机器人学习机器人互动输出信息,并采集与之对应的互动触发信息,从而对应存储该互动触发信息与机器人互动输出信息的过程。
其中,机器人互动输出信息是机器人通过让学习或者说模仿训练者的互动输出行为而获得的,其中,该训练者可以是某个人,也可以是某个机器人,还可以是某个包含互动输出行为的视频,等等。以训练者为人来说,也就是人通过执行让机器人模仿的互动输出行为,进而机器人采集与该互动输出行为对应的待处理数据,通过对该待处理数据进行分析从而获得使机器人模仿该互动输出行为而需要的机器人互动输出信息。通俗一点来说就是,机器人的互动输出效果,是通过人教给机器人来实现的。
下面将触发互动输出行为的主体称为训练者,训练者可以实施互动输出行为以供机器人模仿学习。举例来说,该互动输出行为比如为:训练者抬起右手,并微笑着说出你好。从而,通过机器人机身上设置的各种采集装置可以采集到与该互动输出行为对应的待处理数据。
可选地,待处理数据可以包括如下至少一种:深度图像、彩色图像、互动语音。其中,对应于上述举例,该深度图像可以反映训练者的肢体动作——抬起右手的过程;该彩色图像可以反映训练者的人脸表情特征——微笑;该互动语音可以反映训练者说出的语音——你好。
可以理解的是,上述深度图像、彩色图像并非限定是一张图像,而更应该理解为是图像序列。
值得说明的是,在正常的使用场景中,机器人可能也会进行其他人机交互的处理过程。为了与机器人的正常人机交互过程区分开,可选地,可以定义机器人的工作模式分为正常工作模式和学习模式。当触发机器人进入学习模式时,才会执行本发明实施例提供的方法,以使得机器人自动学习互动规则。可选地,触发机器人进入学习模式的触发条件可以是训练者触发的一条特定的语音指令,比如“习惯养成”或者“开始学习”等,如图1b所示。从而,当机器人采集并识别到该条特定的语音指令后,进入学习模式,以通过模仿训练者的互动行为来学习机器人互动输出信息。
102、确定与待处理数据对应的机器人互动输出信息。
实际上,为了让机器人能够模仿训练者的互动输出行为,需要将采集到的待处理数据映射为机器人的机器人互动输出信息。
一般来说,机器人互动输出的表现形式往往是语音、动作、显示中的一种或多种的组合,因此,假设待处理数据包含这三种形式对应的信息,下面对如何确定与待处理数据对应的机器人互动输出信息进行介绍。
如前述举例,假设待处理数据中包含“你好”这一互动语音,则可以确定机器人互动输出信息中也包括该互动语音,即以采集到的互动语音作为机器人互动输出信息中的一部分。
再假设待处理数据中包括反映训练者的人脸表情特征——微笑的彩色图像,则可以通过对该彩色图像进行人脸表情识别,进而从预设表情库中确定与识别出的人脸表情对应的表情对象,从而,匹配到的该表情对象作为机器人互动输出信息中的一部分。其中,人脸表情识别的过程可以采用现有相关技术实现,在此不赘述。表情识别的结果可以包括高兴、生气、吃惊、恐惧、厌恶和悲伤等表情,相应地,可以预先构建包含各表情识别结果对应的表情对象的表情库,该表情对象可以是表情动画或表情图像。
再假设待处理数据中包括反映训练者的肢体动作——抬起右手的深度图像,则可以通过对该深度图像进行骨骼识别,以获得人体关节姿态信息;进而确定与该人体关节姿态对应的机器人关节姿态信息,从而,确定出的机器人关节姿态信息作为机器人互动输出信息中的一部分。其中,骨骼识别的方法可以采用现有相关技术来实现,本实施例不赘述,本实施例中仅强调的是,骨骼识别的结果——人体关节姿态信息,是由人体多个关节的运动序列构成,反映了多个关节的运动轨迹。另外,由于实际上,机器人的关节与人体的关节可能并非一一对应的,这与机器人的仿人程度有关,因此,将人体关节姿态信息映射为机器人关节姿态信息的过程中,既可能涉及到关节的映射,也可能涉及到关节姿态的映射。因此,通过预先建立人体关节与机器人关节的映射关系,以便确定人体关节姿态与机器人关节姿态的映射关系。
简单举例来说,假设对应于抬起右手的动作,人体关节的姿态信息为相对于人体坐标系中的某基准线而言,以下各关节在不同时刻相对该基准线的角度分别为:
关节1:30度,40度,50度···;
关节2:20度,30度,40度···;
关节3:40度,50度,60度···;
关节4:40度,50度,60度···。
而机器人关节的姿态信息为相对于机器人坐标系中的某基准线而言,与人体关节对应的以下各关节在不同时刻相对该基准线的角度分别为:
关节a:10度,40度,54度···;
关节b:10度,23度,52度···。
103、控制机器人执行机器人互动输出信息以模仿互动输出行为。
根据确定出的机器人互动输出信息控制机器人以模仿出训练者的互动输出行为,以使得训练者能够直观地看到机器人能够准确模仿出其执行的互动行为,如图1c所示。
104、响应于在模仿成功时触发的结束模仿指令,采集与机器人互动输出信息对应的互动触发信息。
当机器人能够模仿出训练者的互动行为时,训练者可以触发结束模仿指令,该结束模仿指令可以是训练者发出的特定的语音指令,比如“结束训练”,如图1d所示。当机器人采集到该结束模仿指令时,可以进而再采集与已经获得的机器人互动输出信息对应的互动触发信息,即在后续实际使用过程中,触发机器人输出该机器人互动输出信息的输入触发信息。
可选地,当机器人接收到上述结束模仿指令后,可以控制机器人发出预设提示语音,以提示训练者进行互动触发信息的触发,如图1d所示。
该互动触发信息可以是特定语音,也可以是特定语音与特定动作的组合,等等。
举例来说,作为互动触发信息的特定语音比如是“打招呼”或者“嗨”,则将采集到的该特定语音作为互动触发信息,如图1e所示。
另外,可选地,该互动触发信息也可以是训练者通过界面输入给机器人的特定文字。此时,在后续实际与机器人交互的场景中,如果交互者说出与该特定文字对应的语音,也可以认为与该特定文字匹配,进而触发机器人执行对应的机器人互动输出信息。
105、对应存储互动触发信息和机器人互动输出信息。
可选地,可以将直接采集到的互动触发信息以及已经得到的上述机器人互动输出信息作为一条互动规则,对应存储在机器人本地。
通过上述方案,机器人可以自动学习以获得互动规则,即自动采集互动触发信息,通过模仿训练者的互动输出行为来自动学习机器人互动输出信息,简单方便。而且,不同人培养的机器人将拥有不同的交互习惯,可以实现机器人的千人千面的个性化交互功能。
另外,当通过上述过程在某个机器人中形成了一条或多条互动规则后,在实际使用过程中,人机交互的过程可以实现为:
采集交互者的待处理互动触发信息;
若该待处理互动触发信息与已经存在的某条互动触发信息匹配,则控制机器人执行与该互动触发信息对应的机器人互动输出信息。
比如,上述待处理互动触发信息为语音:“打招呼”,发现已经存在与之对应的互动触发信息,从而,控制机器人执行与该互动触发信息对应的机器人互动输出信息:控制机器人抬起右手,并在显示屏中显示出微笑的表情,以及发出“你好”的语音,如图1f所示。
前述提到,可以将互动触发信息和机器人互动输出信息对应存储在机器人本地,可选地,机器人还可以将该互动触发信息和机器人互动输出信息对应存储至服务器中即存储到服务器中与该机器人对应的规则数据库中。具体地,机器人可以向服务器发送存储指令,该存储指令中包含机器人标识,以使服务器根据该机器人标识将该互动触发信息和机器人互动输出信息对应存储至相应的数据库中。
另外,服务器在将互动触发信息和机器人互动输出信息对应存储之后,还可以生成与该互动触发信息对应的互动选项,并将与该互动触发信息对应的互动选项更新到机器人对应的客户端中。可选地,该互动选项可以包括互动触发信息对应的标识项以及多种操作项,其中,以互动触发信息为某特定语音来说,其对应的标识项可以是该特定语音对应的文字内容;多种操作项比如包括播放、删除、修改、分享等,如图1g所示。
可选地,该客户端可以位于机器人中,也可以位于用户终端设备中,比如手机中。用户可以通过该客户端对机器人学习到的各互动规则进行管理、使用。
针对某互动选项来说,比如用户可以在客户端中点击播放操作项而触发播放指令,客户端继而可以将该播放指令发送至机器人,当机器人接收到该播放指令后,从服务器中获取与该互动选项所对应的互动触发信息相对应的机器人互动输出信息,并控制机器人执行该机器人互动输出信息。
再比如,用户在客户端中点击删除操作,可以触发从服务器中删除与该互动选项对应的互动触发信息和机器人互动输出信息。用户在客户端中点击修改操作,可以触发了重新学习与互动触发信息对应的机器人互动输出信息的过程。
再比如,用户可以在客户端中点击分享操作项而触发分享指令,该分享指令中包括分享对象标识。可选地,该分享对象标识可以是用户在点击分享操作项后弹出的好友列表中选择出的好友标识。当客户端接收到该分享指令后,通过服务器将该互动选项对应的互动触发信息和机器人互动输出信息发送至分享对象标识对应的客户端中。可选地,服务器还可以向该分享对象标识对应的客户端发送分享提示信息,该分享提示信息可以如图1h所示,可以包括互动触发信息对应的标识项以及多种操作项。当点击播放操作项时,会触发机器人执行接收到的机器人互动输出信息;当点击删除操作项时,会将接收到的互动触发信息和机器人互动输出信息删除;当点击学会操作项时,会触发将接收到的互动触发信息和机器人互动输出信息存入服务器中与该分享对象标识对应的规则数据库中。
通过上述客户端,不但可以基于客户端实现人机交互,还可以将某机器人的学习结果分享至同类型的其他机器人,以方便其他机器人的互动规则的生成。
以下将详细描述本发明的一个或多个实施例的机器人互动装置。本领域技术人员可以理解,这些机器人互动装置均可使用市售的硬件组件通过本方案所教导的步骤进行配置来构成。
图2为与图1a所示实施例对应的一种机器人互动装置的结构示意图,如图2所示,该装置包括:采集模块11、确定模块12、控制模块13、存储处理模块14。
采集模块11,用于采集反映互动输出行为的待处理数据。
确定模块12,用于确定与所述待处理数据对应的机器人互动输出信息。
控制模块13,用于控制机器人执行所述机器人互动输出信息以模仿所述互动输出行为。
所述采集模块11,还用于响应于在模仿成功时触发的结束模仿指令,采集与所述机器人互动输出信息对应的互动触发信息。
存储处理模块14,用于对应存储所述互动触发信息和所述机器人互动输出信息。
可选地,所述待处理数据包括如下至少一种:深度图像、彩色图像、互动语音。
可选地,若所述待处理数据中包括所述彩色图像,则确定模块12具体用于:对所述彩色图像进行人脸表情识别;从预设表情库中确定与识别出的人脸表情对应的表情对象。
可选地,若所述待处理数据中包括所述深度图像,则确定模块12具体用于:对所述深度图像进行骨骼识别,以获得人体关节姿态信息;确定与所述人体关节姿态信息对应的机器人关节姿态信息。
可选地,所述采集模块11还用于:采集交互者的待处理互动触发信息。
所述控制模块13还用于:若所述待处理互动触发信息与所述互动触发信息匹配,则控制所述机器人执行所述机器人互动输出信息。
可选地,所述存储处理模块14具体用于:将所述互动触发信息和所述机器人互动输出信息对应存储至服务器中,以使所述服务器将与所述互动触发信息对应的互动选项更新到所述机器人对应的客户端中。
可选地,所述装置还包括:接收模块15、获取模块16。
接收模块15,用于接收根据所述互动选项触发的播放指令。
获取模块16,用于从所述服务器中获取与所述互动触发信息对应的所述机器人互动输出信息。
所述控制模块13还用于:控制所述机器人执行所述机器人互动输出信息。
可选地,所述接收模块15还用于:接收根据所述互动选项触发的分享指令,所述分享指令中包括分享对象标识。
所述装置还包括:发送模块17,用于通过所述服务器将所述互动触发信息和所述机器人互动输出信息发送至所述分享对象标识对应的客户端。
图2所示装置可以执行图1a所示实施例的方法,本实施例未详细描述的部分,可参考对图1a所示实施例的相关说明。该技术方案的执行过程和技术效果参见图1a所示实施例中的描述,在此不再赘述。
以上描述了机器人互动装置的内部功能和结构,在一个可能的设计中,机器人互动装置的结构可实现为一电子设备,该电子设备可以为机器人,如图3所示,该机器人可以包括:处理器21和存储器22。其中,所述存储器22用于存储支持机器人执行上述图1a所示实施例中提供的机器人互动方法的程序,所述处理器21被配置为用于执行所述存储器22中存储的程序。
所述程序包括一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器21执行时能够实现如下步骤:
采集反映互动输出行为的待处理数据;
确定与所述待处理数据对应的机器人互动输出信息;
控制机器人执行所述机器人互动输出信息以模仿所述互动输出行为;
响应于在模仿成功时触发的结束模仿指令,采集与所述机器人互动输出信息对应的互动触发信息;
对应存储所述互动触发信息和所述机器人互动输出信息。
可选地,所述处理器21还用于执行前述图1a所示方法步骤中的全部或部分步骤。
其中,所述机器人的结构中还可以包括通信接口23,用于机器人与其他设备或通信网络通信,比如机器人与服务器的通信。
另外,机器人中还可以包括:音频组件24、传感器组件25。
其中,音频组件24被配置为输出和/或输入音频信号。例如,音频组件24包括一个麦克风(MIC),当机器人处于操作模式,如语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器22或经由通信接口23发送。在一些实施例中,音频组件24还包括一个扬声器,用于输出音频信号。
其中,传感器组件25包括一个或多个传感器。例如,传感器组件25包括机器人的显示器,传感器组件25还可以检测用户与机器人接触的存在或不存在等。传感器组件25可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件25还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器等。
另外,本发明实施例提供的机器人具备多自由度的活动灵活性。
另外,本发明实施例提供了一种计算机存储介质,用于储存机器人所用的计算机软件指令,其包含用于执行上述图1a所示方法实施例中机器人互动方法所涉及的程序。
图4a为本发明实施例提供的另一种机器人互动方法的流程图,本实施例提供的该机器人互动方法可以由一机器人互动装置来执行,该机器人互动装置可以实现为软件,或者实现为软件和硬件的组合,该机器人互动装置可以设置在客户端中,该客户端可以安装于用户终端设备比如智能手机中。如图4a所示,可以包括如下步骤:
201、在互动列表中添加服务器发送的与互动触发信息对应的互动选项,该互动选项是服务器在对应存储互动触发信息和机器人互动输出信息后生成的,机器人互动输出信息是机器人模仿互动输出行为所需的信息,互动触发信息用于触发机器人执行机器人互动输出信息。
如前述实施例中所述,机器人通过模仿训练者的互动输出行为以学习到机器人互动输出信息,并在采集到与机器人互动输出信息对应的互动触发信息后,将该互动触发信息和机器人互动输出信息对应存储至服务器中,具体是存储在服务中与该机器人对应的规则数据库中。服务器进而生成与该互动触发信息对应的互动选项,并发送至机器人对应的客户端中,称为客户端A,如图4b所示,该互动选项可以包括互动触发信息对应的标识项以及多种操作项,其中,以互动触发信息为某特定语音来说,其对应的标识项可以是该特定语音对应的文字内容;多种操作项比如包括播放、删除、修改、分享等,假设当前发送至客户端A的互动选项对应于图中的绕口令。
202、响应于用户根据互动选项触发的播放操作,向机器人发送播放指令,播放指令中包括互动触发信息,以使机器人从服务器中获取并执行对应的机器人互动输出信息。
本实施例中,当客户端A安装于独立于机器人的用户终端设备比如手机中时,相当于可以通过手机对机器人进行人机互动控制。比如,当用户点击与绕口令对应的播放操作项时,手机向机器人发送对应的播放指令,以使机器人从服务器中获取并执行对应的机器人互动输出信息,以完成互动。
203、响应于用户根据互动选项触发的分享操作,向服务器发送分享指令,分享指令中包括分享对象标识,以使服务器将互动触发信息和机器人互动输出信息发送至分享对象标识对应的客户端。
本实施例中,用户a对其机器人的训练结果可以分享至好友b,以使得拥有同型号的机器人的好友b可以方便地获得机器人的互动规则。
具体地,当用户a在其客户端A界面中针对绕口令的互动选项触发了分享操作时,客户端A向服务器发送携带有分享对象标识即用户b标识以及待分享互动触发信息标识即绕口令的分享指令。服务器接收到该分享指令后,将待分享互动触发信息标识对应的互动规则即对应的互动触发信息和机器人互动输出信息发送至用户b对应的客户端B中,可选地,服务器可以同时向客户端B发送分享提示信息,如图4b所示,以提示用户b接收到了一条分享消息以及可以进行的操作,以便对接收到的互动规则进行管理。
通过本实施例提供的客户端,既可以实现对机器人的人机互动控制,也可以实现对互动规则的管理、分享。
图5为与图4a所示实施例对应的一种机器人互动装置的结构示意图,如图5所示,该装置包括:添加模块31、发送模块32。
添加模块31,用于在互动列表中添加服务器发送的与互动触发信息对应的互动选项;所述互动选项是所述服务器在对应存储所述互动触发信息和机器人互动输出信息后生成的,所述机器人互动输出信息是机器人模仿互动输出行为所需的信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息。
发送模块32,用于响应于用户根据所述互动选项触发的播放操作,向所述机器人发送播放指令,所述播放指令中包括所述互动触发信息,以使所述机器人从所述服务器中获取并执行所述机器人互动输出信息。
可选地,发送模块32,还用于响应于用户根据所述互动选项触发的分享操作,向所述服务器发送分享指令,所述分享指令中包括分享对象标识,以使所述服务器将所述互动触发信息和所述机器人互动输出信息发送至所述分享对象标识对应的客户端。
图5所示装置可以执行图4a所示实施例的方法,本实施例未详细描述的部分,可参考对图4a所示实施例的相关说明。该技术方案的执行过程和技术效果参见图4a所示实施例中的描述,在此不再赘述。
在一个可能的设计中,图5所示机器人互动装置的结构可实现为一电子设备,该电子设备为用户终端设备,比如智能手机,如图6所示,该用户终端设备可以包括:处理器41和存储器42。其中,所述存储器42用于存储支持用户终端设备执行上述图4a所示实施例中提供的机器人互动方法的程序,所述处理器41被配置为用于执行所述存储器42中存储的程序。
所述程序包括一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器41执行时能够实现如下步骤:
在互动列表中添加服务器发送的与互动触发信息对应的互动选项;所述互动选项是所述服务器在对应存储所述互动触发信息和机器人互动输出信息后生成的,所述机器人互动输出信息是机器人模仿互动输出行为所需的信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息;
响应于用户根据所述互动选项触发的播放操作,向所述机器人发送播放指令,所述播放指令中包括所述互动触发信息,以使所述机器人从所述服务器中获取并执行所述机器人互动输出信息。
可选地,所述处理器41还用于执行前述图4a所示方法步骤中的全部或部分步骤。
其中,所述用户终端设备的结构中还可以包括通信接口43,用于用户终端设备与其他设备或通信网络通信。
另外,本发明实施例提供了一种计算机存储介质,用于储存用户终端设备所用的计算机软件指令,其包含用于执行上述图4a所示方法实施例中机器人互动方法所涉及的程序。
图7为本发明实施例提供的又一种机器人互动方法的流程图,本实施例提供的该机器人互动方法可以由一机器人互动装置来执行,该机器人互动装置可以实现为软件,或者实现为软件和硬件的组合,该机器人互动装置可以设置在服务器中。如图7所示,可以包括如下步骤:
301、对应存储机器人发送的互动触发信息和机器人互动输出信息,机器人互动输出信息是机器人模仿互动输出行为所需的信息,互动触发信息用于触发机器人执行机器人互动输出信息。
302、生成与互动触发信息对应的互动选项。
303、将互动选项发送至机器人对应的客户端,以使客户端在互动列表中添加互动选项。
如前述实施例中所述,机器人通过模仿训练者的互动输出行为以学习到机器人互动输出信息,并在采集到与机器人互动输出信息对应的互动触发信息后,将该互动触发信息和机器人互动输出信息发送至服务器,以使得服务器将该互动触发信息和机器人互动输出信息存储至与该机器人对应的规则数据库中,服务器进而生成与该互动触发信息对应的互动选项,并发送至该机器人对应的客户端中,称为客户端A,其中,互动选项中可以包括分享、播放等操作项。
304、接收客户端发送的与互动选项对应的分享指令,分享指令中包括分享对象标识。
305、将互动触发信息和机器人互动输出信息发送至分享对象标识对应的客户端。
具体地,当用户a在其客户端A界面中针对某互动选项触发了分享操作时,客户端A向服务器发送携带有分享对象标识比如用户b标识以及待分享互动触发信息标识比如绕口令的分享指令。服务器接收到该分享指令后,将待分享互动触发信息标识对应的互动规则即对应的互动触发信息和机器人互动输出信息发送至用户b对应的客户端B中,可选地,服务器可以同时向客户端B发送分享提示信息,以提示用户b可以对接收到的互动规则进行哪些操作。
图8为与图7所示实施例对应的一种机器人互动装置的结构示意图,如图8所示,该装置包括:存储模块51、生成模块52、发送模块53。
存储模块51,用于对应存储机器人发送的互动触发信息和机器人互动输出信息,所述机器人互动输出信息是机器人模仿互动输出行为所需的信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息。
生成模块52,用于生成与所述互动触发信息对应的互动选项。
发送模块53,用于将所述互动选项发送至所述机器人对应的客户端,以使所述客户端在互动列表中添加所述互动选项。
可选地,该装置还包括:接收模块54。
接收模块54,用于接收所述客户端发送的与所述互动选项对应的分享指令,所述分享指令中包括分享对象标识。
相应地,所述发送模块53,还用于向所述分享对象标识对应的客户端发送所述互动触发信息和所述机器人互动输出信息。
图8所示装置可以执行图7所示实施例的方法,本实施例未详细描述的部分,可参考对图7所示实施例的相关说明。该技术方案的执行过程和技术效果参见图7所示实施例中的描述,在此不再赘述。
在一个可能的设计中,图8所示机器人互动装置的结构可实现为一电子设备,该电子设备为服务器,如图9所示,该服务器包括:处理器61和存储器62。其中,所述存储器62用于存储支持服务器执行上述图7所示实施例中提供的机器人互动方法的程序,所述处理器61被配置为用于执行所述存储器62中存储的程序。
所述程序包括一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器61执行时能够实现如下步骤:
对应存储机器人发送的互动触发信息和机器人互动输出信息,所述机器人互动输出信息是机器人模仿互动输出行为所需的信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息;
生成与所述互动触发信息对应的互动选项;
将所述互动选项发送至所述机器人对应的客户端,以使所述客户端在互动列表中添加所述互动选项。
可选地,所述处理器61还用于执行前述图7所示方法步骤中的全部或部分步骤。
其中,所述服务器的结构中还可以包括通信接口63,用于服务器与其他设备或通信网络通信。
另外,本发明实施例提供了一种计算机存储介质,用于储存服务器所用的计算机软件指令,其包含用于执行上述图7所示方法实施例中机器人互动方法所涉及的程序。
图10为本发明实施例提供的一种机器人互动方法的交互流程图,如图10所示,可以包括如下步骤:
401、响应于启动模仿指令,机器人A采集反映互动输出行为的待处理数据。
402、机器人A确定与待处理数据对应的机器人互动输出信息,并执行机器人互动输出信息以模仿互动输出行为。
403、响应于在模仿成功时触发的结束模仿指令,机器人A采集与机器人互动输出信息对应的互动触发信息。
404、机器人A将互动触发信息和机器人互动输出信息发送至服务器。
405、服务器将互动触发信息和机器人互动输出信息存储至机器人A对应的规则数据库中,并生成与互动触发信息对应的互动选项。
406、服务器将互动选项发送至机器人A对应的客户端a中。
407、客户端a在互动列表中添加该互动选项。
408、客户端a响应于用户根据所述互动选项触发的播放操作,向机器人A发送播放指令。
409、机器人A从服务器中获取并执行对应的机器人互动输出信息。
410、客户端a响应于用户根据互动选项触发的分享操作,向服务器发送分享指令,分享指令中包括分享对象标识。
411、服务器将互动选项对应的互动触发信息和机器人互动输出信息以及分享提示信息发送至分享对象标识对应的客户端b。
412、客户端b响应于用户根据分享提示信息触发的播放操作,向机器人B发送播放指令,播放指令中包括所述机器人互动输出信息。
413、机器人B根据播放指令执行机器人互动输出信息。
414、客户端b响应于用户根据分享提示信息触发的学会操作,向服务器发送学会指令。
415、服务器根据学会指令将互动触发信息和机器人互动输出信息存入机器人B对应的规则数据库中。
本实施例中仅以用户在客户端a和客户端b中触发部分操作项为例进行了说明,对其他操作项的操作可以参见前述各实施例中的相关说明。
图11为本发明实施例提供的再一种机器人互动方法的流程图,本实施例提供的该机器人互动方法可以由一机器人互动装置来执行,该机器人互动装置可以实现为软件,或者实现为软件和硬件的组合,该机器人互动装置可以设置在机器人中。如图11所示,该方法包括如下步骤:
501、采集反映互动输出行为的待处理数据。
502、根据待处理数据确定机器人模仿互动输出行为所需的机器人互动输出信息。
503、存储机器人互动输出信息。
本实施例中,机器人可以通过自动学习的方式获取用作输出响应的机器人互动输出信息,以便在实际应用中,机器人可以与用户进行各种各样的互动。
机器人输出响应的获取方式可以是通过学习互动输出行为获得的,该互动输出行为可以是某训练者面向机器人而实际触发的,此时,反映该互动输出行为的待处理数据可以是通过机器人机身上安装的多种采集装置而采集到的感知数据,比如深度图像、彩色图像、语音等数据。可选地,该待处理数据也可以是预先生成的包含互动输出行为的音视频画面。
在获得待处理数据后,根据待处理数据确定机器人模仿互动输出行为所需的机器人互动输出信息的过程可以参见前述图1a所示实施例的相关说明,在此不赘述。
可选地,在确定出可以使机器人模仿互动输出行为的机器人互动输出信息后,可以控制机器人执行该机器人互动输出信息以模仿该互动输出行为。从而,当训练者发现机器人模仿成功时,命令机器人将机器人互动输出信息存储在本地或者存储到服务器中。
另外,在人机互动的应用场景中,交互者向机器人输入不同的互动触发信息,可以触发机器人展现不同的互动效果,从而,互动触发信息与机器人互动输出信息往往是对应的。在机器人通过自动学习的方式获得了机器人互动输出信息后,可以为该机器人互动输出信息设置对应的互动触发信息,从而形成一条互动规则,用于实际人机互动应用中。
因此,可选地,在获得上述机器人互动输出信息后,还可以获取与该机器人互动输出信息对应的互动触发信息,从而,对应存储互动触发信息和机器人互动输出信息,以形成一条互动规则。
可选地,上述互动触发信息可以是训练者手动设置的,比如在某设置界面中写入与机器人互动输出信息对应的互动触发信息,该互动触发信息比如可以是某个物理按键或图标控件被触发,某句话,某个表情以及某些外部环境条件,等等。
可选地,该互动触发信息也可以与机器人互动输出信息类似,也是机器人通过捕获训练者的行为而获得的。比如,实际应用中,机器人在模仿成功训练者的互动输出行为时,训练者可以发出结束学习的指令。机器人响应该指令,可以以语音的方式询问训练者,请其为学习到的机器人互动输出信息设置互动触发信息,比如说出“请为刚学到的互动习惯起个名字吧”,其中,该名字即对应于互动触发信息。训练者从而可以执行与互动触发信息对应的互动触发行为,该行为比如可以是说出某个触发语句,执行某个动作,等。机器人采集包含训练者语句的音频,以及采集包含该动作的图像,从而,可以直接将该音频、图像作为互动触发信息存储。从而,在后续实际应用中,如果采集到交互者触发的音频、动作图像与存储的该音频、图像特征匹配,则机器人会执行对应的机器人互动输出信息。
图12为与图11所示实施例对应的一种机器人互动装置的结构示意图,如图12所示,该装置包括:采集模块71、确定模块72、存储模块73。
采集模块71,用于采集反映互动输出行为的待处理数据。
确定模块72,用于根据所述待处理数据确定机器人模仿所述互动输出行为所需的机器人互动输出信息。
存储模块73,用于存储所述机器人互动输出信息。
可选地,所示采集模块71,还用于采集与所述机器人互动输出信息对应的互动触发信息。
相应地,所述存储模块73,还用于对应存储所述互动触发信息和所述机器人互动输出信息。
图12所示装置可以执行图11所示实施例的方法,本实施例未详细描述的部分,可参考对图11所示实施例的相关说明。该技术方案的执行过程和技术效果参见图11所示实施例中的描述,在此不再赘述。
在一个可能的设计中,图12所示机器人互动装置的结构可实现为一电子设备,该电子设备为机器人,如图13所示,该机器人包括:处理器81和存储器82。其中,所述存储器82用于存储支持机器人执行上述图11所示实施例中提供的机器人互动方法的程序,所述处理器81被配置为用于执行所述存储器82中存储的程序。
所述程序包括一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器81执行时能够实现如下步骤:
采集反映互动输出行为的待处理数据;
根据所述待处理数据确定机器人模仿所述互动输出行为所需的机器人互动输出信息;
存储所述机器人互动输出信息。
可选地,所述处理器81还用于执行前述图11所示方法步骤中的全部或部分步骤。
其中,所述机器人的结构中还可以包括通信接口83,用于机器人与其他设备或通信网络通信。
另外,机器人中还可以包括:音频组件84、传感器组件85。
其中,音频组件84被配置为输出和/或输入音频信号。例如,音频组件84包括一个麦克风(MIC),当机器人处于操作模式,如语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器82或经由通信接口83发送。在一些实施例中,音频组件84还包括一个扬声器,用于输出音频信号。
其中,传感器组件85包括一个或多个传感器。例如,传感器组件85包括机器人的显示器,传感器组件85还可以检测用户与机器人接触的存在或不存在等。传感器组件85可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件85还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器等。
另外,本发明实施例提供了一种计算机存储介质,用于储存机器人所用的计算机软件指令,其包含用于执行上述图11所示方法实施例中机器人互动方法所涉及的程序。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助加必需的通用硬件平台的方式来实现,当然也可以通过硬件和软件结合的方式来实现。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以计算机产品的形式体现出来,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (15)

1.一种机器人互动方法,应用于机器人中,其特征在于,包括:
采集反映互动输出行为的待处理数据;
确定与所述待处理数据对应的机器人互动输出信息;
控制机器人执行所述机器人互动输出信息以模仿所述互动输出行为;
响应于在模仿成功时触发的结束模仿指令,采集与所述机器人互动输出信息对应的互动触发信息;
对应存储所述互动触发信息和所述机器人互动输出信息。
2.根据权利要求1所述的方法,其特征在于,所述待处理数据包括如下至少一种:深度图像、彩色图像、互动语音。
3.根据权利要求2所述的方法,其特征在于,若所述待处理数据中包括所述彩色图像,则所述确定与所述待处理数据对应的机器人互动输出信息,包括:
对所述彩色图像进行人脸表情识别;
从预设表情库中确定与识别出的人脸表情对应的表情对象,所述机器人互动输出信息中包括所述表情对象。
4.根据权利要求2所述的方法,其特征在于,若所述待处理数据中包括所述深度图像,则所述确定与所述待处理数据对应的机器人互动输出信息,包括:
对所述深度图像进行骨骼识别,以获得人体关节姿态信息;
确定与所述人体关节姿态信息对应的机器人关节姿态信息,所述机器人互动输出信息中包括所述机器人关节姿态信息。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述方法还包括:
采集交互者的待处理互动触发信息;
若所述待处理互动触发信息与所述互动触发信息匹配,则控制所述机器人执行所述机器人互动输出信息。
6.根据权利要求1至4中任一项所述的方法,其特征在于,所述对应存储所述互动触发信息和所述机器人互动输出信息,包括:
将所述互动触发信息和所述机器人互动输出信息对应存储至服务器中,以使所述服务器将与所述互动触发信息对应的互动选项更新到所述机器人对应的客户端中。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
接收根据所述互动选项触发的播放指令;
从所述服务器中获取与所述互动触发信息对应的所述机器人互动输出信息;
控制所述机器人执行所述机器人互动输出信息。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
接收根据所述互动选项触发的分享指令,所述分享指令中包括分享对象标识;
通过所述服务器将所述互动触发信息和所述机器人互动输出信息发送至所述分享对象标识对应的客户端。
9.一种电子设备,其特征在于,包括存储器和处理器;其中,
所述存储器用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器执行时实现如权利要求1至8中任一项所述的机器人互动方法。
10.一种机器人互动方法,应用于客户端中,其特征在于,包括:
在互动列表中添加服务器发送的与互动触发信息对应的互动选项;所述互动选项是所述服务器在对应存储所述互动触发信息和机器人互动输出信息后生成的;所述机器人通过如下方式获取所述互动触发信息和机器人互动输出信息:采集反映互动输出行为的待处理数据,确定与所述待处理数据对应的所述机器人互动输出信息,控制机器人执行所述机器人互动输出信息以模仿所述互动输出行为,响应于在模仿成功时触发的结束模仿指令,采集与所述机器人互动输出信息对应的所述互动触发信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息;
响应于用户根据所述互动选项触发的播放操作,向所述机器人发送播放指令,所述播放指令中包括所述互动触发信息,以使所述机器人从所述服务器中获取并执行所述机器人互动输出信息。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
响应于用户根据所述互动选项触发的分享操作,向所述服务器发送分享指令,所述分享指令中包括分享对象标识,以使所述服务器将所述互动触发信息和所述机器人互动输出信息发送至所述分享对象标识对应的客户端。
12.一种电子设备,其特征在于,包括存储器和处理器;其中,
所述存储器用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器执行时实现如权利要求10或11所述的机器人互动方法。
13.一种机器人互动方法,应用于服务器中,其特征在于,包括:
对应存储机器人发送的互动触发信息和机器人互动输出信息,所述机器人通过如下方式获取所述互动触发信息和机器人互动输出信息:采集反映互动输出行为的待处理数据,确定与所述待处理数据对应的所述机器人互动输出信息,控制机器人执行所述机器人互动输出信息以模仿所述互动输出行为,响应于在模仿成功时触发的结束模仿指令,采集与所述机器人互动输出信息对应的所述互动触发信息,所述互动触发信息用于触发所述机器人执行所述机器人互动输出信息;
生成与所述互动触发信息对应的互动选项;
将所述互动选项发送至所述机器人对应的客户端,以使所述客户端在互动列表中添加所述互动选项。
14.根据权利要求13所述的方法,其特征在于,还包括:
接收所述客户端发送的与所述互动选项对应的分享指令,所述分享指令中包括分享对象标识;
向所述分享对象标识对应的客户端发送所述互动触发信息和所述机器人互动输出信息。
15.一种电子设备,其特征在于,包括存储器和处理器;其中,
所述存储器用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器执行时实现如权利要求13或14所述的机器人互动方法。
CN201710851144.1A 2017-09-20 2017-09-20 机器人互动方法和设备 Active CN109521927B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201710851144.1A CN109521927B (zh) 2017-09-20 2017-09-20 机器人互动方法和设备
TW107120458A TW201915665A (zh) 2017-09-20 2018-06-14 機器人互動方法和設備
PCT/CN2018/106103 WO2019057019A1 (zh) 2017-09-20 2018-09-18 机器人互动方法和设备
EP18857745.6A EP3686724A4 (en) 2017-09-20 2018-09-18 ROBOT INTERACTION METHOD AND DEVICE
JP2020515017A JP7260221B2 (ja) 2017-09-20 2018-09-18 ロボット対話方法およびデバイス
US16/646,266 US11548147B2 (en) 2017-09-20 2018-09-18 Method and device for robot interactions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710851144.1A CN109521927B (zh) 2017-09-20 2017-09-20 机器人互动方法和设备

Publications (2)

Publication Number Publication Date
CN109521927A CN109521927A (zh) 2019-03-26
CN109521927B true CN109521927B (zh) 2022-07-01

Family

ID=65769598

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710851144.1A Active CN109521927B (zh) 2017-09-20 2017-09-20 机器人互动方法和设备

Country Status (6)

Country Link
US (1) US11548147B2 (zh)
EP (1) EP3686724A4 (zh)
JP (1) JP7260221B2 (zh)
CN (1) CN109521927B (zh)
TW (1) TW201915665A (zh)
WO (1) WO2019057019A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142227A1 (ja) 2018-01-16 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント 移動体および移動体制御方法
WO2019142229A1 (ja) * 2018-01-16 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント ロボット装置、ロボット装置の制御方法およびプログラム
US11648672B2 (en) 2018-01-16 2023-05-16 Sony Interactive Entertainment Inc. Information processing device and image generation method
DE112020003344T5 (de) * 2019-07-11 2022-04-28 Sony Group Corporation Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren unddatenverarbeitungsprogramm
CN110866588B (zh) * 2019-11-08 2023-05-02 中国科学院软件研究所 一种实现智能虚拟数字动物的可学习能力模型个性化的训练学习方法与系统
CN111360819B (zh) * 2020-02-13 2022-09-27 平安科技(深圳)有限公司 机器人的控制方法及装置、计算机设备、存储介质
CN111224768B (zh) * 2020-03-27 2020-07-24 广东博智林机器人有限公司 应答模拟方法、装置、设备及计算机可读存储介质
CN112201252A (zh) * 2020-10-10 2021-01-08 南京机电职业技术学院 快递机器人语音交互学习及应用系统
CN114789470A (zh) * 2022-01-25 2022-07-26 北京萌特博智能机器人科技有限公司 仿真机器人的调整方法和装置
CN116758908B (zh) * 2023-08-18 2023-11-07 中国工业互联网研究院 基于人工智能的交互方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1748958A (zh) * 2004-09-14 2006-03-22 索尼株式会社 机器人设备和控制其行为的方法
CN105825268A (zh) * 2016-03-18 2016-08-03 北京光年无限科技有限公司 面向机器人学习动作表达的数据处理方法和系统
CN106022305A (zh) * 2016-06-07 2016-10-12 北京光年无限科技有限公司 一种用于智能机器人的动作对比方法以及机器人
CN107053191A (zh) * 2016-12-31 2017-08-18 华为技术有限公司 一种机器人,服务器及人机互动方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5890906A (en) 1995-01-20 1999-04-06 Vincent J. Macri Method and apparatus for tutorial, self and assisted instruction directed to simulated preparation, training and competitive play and entertainment
US6164973A (en) 1995-01-20 2000-12-26 Vincent J. Macri Processing system method to provide users with user controllable image for use in interactive simulated physical movements
US6220865B1 (en) 1996-01-22 2001-04-24 Vincent J. Macri Instruction for groups of users interactively controlling groups of images to make idiosyncratic, simulated, physical movements
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US6666831B1 (en) 1999-08-20 2003-12-23 The Regents Of The University Of California Method, apparatus and system for automation of body weight support training (bwst) of biped locomotion over a treadmill using a programmable stepper device (psd) operating like an exoskeleton drive system from a fixed base
JP2002113680A (ja) 2000-10-06 2002-04-16 Sony Corp ロボット装置及びロボット装置の動作教示方法
US6850818B2 (en) * 2001-10-22 2005-02-01 Sony Corporation Robot apparatus and control method thereof
JP2003324709A (ja) 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 擬似出張用情報送信方法、擬似出張用情報送信装置、擬似出張用情報送信プログラムおよび擬似出張用情報再生方法、擬似出張用情報再生装置、擬似出張用情報再生プログラム
DE602005015621D1 (de) 2004-08-25 2009-09-03 Motorika Ltd Motortraining mit gehirnplastizität
US20060277074A1 (en) 2004-12-07 2006-12-07 Motorika, Inc. Rehabilitation methods
US20070128979A1 (en) 2005-12-07 2007-06-07 J. Shackelford Associates Llc. Interactive Hi-Tech doll
US8909370B2 (en) 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
JP5181541B2 (ja) 2007-06-15 2013-04-10 富士通株式会社 ロボットシステム、エディタ端末、およびエディタプログラム
US20090004635A1 (en) 2007-06-26 2009-01-01 Nancy Dunn Kato Methods for multi-sensory virtual golf instruction
US9283476B2 (en) 2007-08-22 2016-03-15 Microsoft Technology Licensing, Llc Information collection during game play
US7967728B2 (en) 2008-11-16 2011-06-28 Vyacheslav Zavadsky Wireless game controller for strength training and physiotherapy
US10163175B2 (en) 2009-02-25 2018-12-25 Humana Inc. System and method for improving healthcare through social robotics
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
JP5087101B2 (ja) 2010-03-31 2012-11-28 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
EP2668008A4 (en) 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US20120283746A1 (en) 2011-05-02 2012-11-08 Hstar Technologies Mobile Medical Robotic System
JP5172049B2 (ja) * 2011-06-14 2013-03-27 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
US9208432B2 (en) 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
EP2685403A3 (en) * 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
US20140100491A1 (en) 2012-10-05 2014-04-10 Jianjuen Hu Lower Extremity Robotic Rehabilitation System
US9375845B1 (en) * 2014-09-30 2016-06-28 Sprint Communications Company, L.P. Synchronizing robot motion with social interaction
US9592603B2 (en) * 2014-12-01 2017-03-14 Spin Master Ltd. Reconfigurable robotic system
JP6359478B2 (ja) * 2015-03-31 2018-07-18 シャープ株式会社 ロボット
US20180117762A1 (en) * 2015-08-14 2018-05-03 Sphero, Inc. Data exchange system
CN105563500B (zh) * 2016-02-04 2017-08-18 北京光年无限科技有限公司 一种面向家用小型智能机器人的电子控制系统及方法
US20170250935A1 (en) * 2016-02-25 2017-08-31 Facebook, Inc. Techniques for messaging bot app interactions
US10548511B2 (en) 2016-03-30 2020-02-04 Benjamin Douglas Kruger Wearable body monitors and system for collecting and analyzing data and and predicting the trajectory of an object
WO2017183319A1 (ja) * 2016-04-20 2017-10-26 株式会社ソニー・インタラクティブエンタテインメント ロボットおよび筐体
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
CN106272431A (zh) * 2016-09-21 2017-01-04 旗瀚科技有限公司 一种智能人机互动方法
US20180229372A1 (en) * 2017-02-10 2018-08-16 JIBO, Inc. Maintaining attention and conveying believability via expression and goal-directed behavior with a social robot
EP3542315A1 (en) * 2017-03-17 2019-09-25 Google LLC Mirror loss neural networks
US10919152B1 (en) * 2017-05-30 2021-02-16 Nimble Robotics, Inc. Teleoperating of robots with tasks by mapping to human operator pose
CN110998696B (zh) 2017-07-06 2023-01-10 伊虎智动有限责任公司 用于数据驱动型移动技能训练的系统和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1748958A (zh) * 2004-09-14 2006-03-22 索尼株式会社 机器人设备和控制其行为的方法
US8315454B2 (en) * 2004-09-14 2012-11-20 Sony Corporation Robot apparatus and method of controlling the behavior thereof
CN105825268A (zh) * 2016-03-18 2016-08-03 北京光年无限科技有限公司 面向机器人学习动作表达的数据处理方法和系统
CN106022305A (zh) * 2016-06-07 2016-10-12 北京光年无限科技有限公司 一种用于智能机器人的动作对比方法以及机器人
CN107053191A (zh) * 2016-12-31 2017-08-18 华为技术有限公司 一种机器人,服务器及人机互动方法

Also Published As

Publication number Publication date
US11548147B2 (en) 2023-01-10
EP3686724A4 (en) 2021-07-07
TW201915665A (zh) 2019-04-16
CN109521927A (zh) 2019-03-26
EP3686724A1 (en) 2020-07-29
JP7260221B2 (ja) 2023-04-18
US20200282555A1 (en) 2020-09-10
WO2019057019A1 (zh) 2019-03-28
JP2020534567A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
CN109521927B (zh) 机器人互动方法和设备
KR102173479B1 (ko) 의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버
JP7254772B2 (ja) ロボットインタラクションのための方法及びデバイス
CN105126355A (zh) 儿童陪伴机器人与儿童陪伴系统
KR20210110620A (ko) 상호작용 방법, 장치, 전자 장치 및 저장 매체
US11948241B2 (en) Robot and method for operating same
US9796095B1 (en) System and method for controlling intelligent animated characters
CN110400251A (zh) 视频处理方法、装置、终端设备及存储介质
CN109086860B (zh) 一种基于虚拟人的交互方法及系统
CN110609620A (zh) 基于虚拟形象的人机交互方法、装置及电子设备
CN110737335B (zh) 机器人的交互方法、装置、电子设备及存储介质
CN112204565A (zh) 用于基于视觉背景无关语法模型推断场景的系统和方法
EP3529707A1 (en) Emotionally intelligent companion device
CN113703585A (zh) 交互方法、装置、电子设备及存储介质
CN116543082A (zh) 数字人的生成方法、装置和数字人的生成系统
WO2016206645A1 (zh) 为机器装置加载控制数据的方法及装置
US20230326092A1 (en) Real-time visualization of head mounted display user reactions
KR20200117712A (ko) 사용자와 교감이 가능한 인공지능 스마트 스피커
KR20100070773A (ko) 성격 변화 장치 및 그 방법과, 그를 이용한 행동 다양화 장치 및 그 방법과, 그 로봇 시스템
KR20060091329A (ko) 대화식 시스템 및 대화식 시스템을 제어하는 방법
JP2023120130A (ja) 抽出質問応答を利用する会話型aiプラットフォーム
JP7371770B2 (ja) アバター制御プログラム、アバター制御方法および情報処理装置
US20210201139A1 (en) Device and method for measuring a characteristic of an interaction between a user and an interaction device
JP7414735B2 (ja) 複数のロボットエフェクターを制御するための方法
Zikky et al. Utilizing Virtual Humans as Campus Virtual Receptionists

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant