CN107463291A - 基于触摸的具有人格化表现的机器人 - Google Patents

基于触摸的具有人格化表现的机器人 Download PDF

Info

Publication number
CN107463291A
CN107463291A CN201710630951.0A CN201710630951A CN107463291A CN 107463291 A CN107463291 A CN 107463291A CN 201710630951 A CN201710630951 A CN 201710630951A CN 107463291 A CN107463291 A CN 107463291A
Authority
CN
China
Prior art keywords
touch
feedback
behavior
robot
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710630951.0A
Other languages
English (en)
Inventor
蒋化冰
高帅杰
孙斌
吴礼银
康力方
张干
赵亮
邹武林
徐浩明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Muye Robot Technology Co Ltd
Original Assignee
Shanghai Muye Robot Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Muye Robot Technology Co Ltd filed Critical Shanghai Muye Robot Technology Co Ltd
Priority to CN201710630951.0A priority Critical patent/CN107463291A/zh
Publication of CN107463291A publication Critical patent/CN107463291A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种基于触摸的具有人格化表现的机器人,包括:触摸传感系统、触摸控制器和反馈控制器;所述触摸传感系统设置在机器人内部,在机器人表面设置有和触摸传感系统连通的触摸感应点;当所述触摸传感系统通过触摸感应点接收到触摸行为,则所述触摸控制器确定和触摸行为对应的触摸传感点与其环境之间的电容变化,并将电容变化转换为所述反馈控制器可识别的触摸行为信息,发送给反馈控制器;所述反馈控制器根据接收到的触摸行为信息,控制机器人做出对应的具有人格化表现的反馈。本发明的机器人能够针对不同的触摸区域和触摸动作做出带有情绪化的反馈,实现机器人具有人格化表现。

Description

基于触摸的具有人格化表现的机器人
技术领域
本发明实施方式技术智能机器人技术领域,尤其涉及一种基于触摸的具有人格化表现的机器人。
背景技术
机器人作为一种包含相当多学科知识的技术,几乎是伴随着人工智能所产生的。近年来,智能机器人的功能随着图像处理、语音处理、无线网络技术、互联网技术、自动控制及计算处理能力等技术的发展,有了突飞猛进的提高,包括有图像采集视觉功能、实时接受处理语音指令、在没有遥控装置的前提下自动避开障碍到达指定地点等功能,使得智能机器人在人类生活中扮演越来越重要的角色。随着人们的需求不断增多,智能机器人在当今社会变得越来越重要,越来越多的领域和岗位都需要智能机器人参与,因此更强交互功能的机器人将逐渐会成为智能机器人界的宠儿。
在实施本发明的过程中,发明人发现现有技术至少存在如下问题:
现阶段的智能机器人多为根据用户输入的语音指令或者在显示屏上输入的触控指令做出相应的交互反应,而这些交互功能基本都是出于业务逻辑的角度设置的,机器人的拟人化交互功能比较欠缺,使得目前机器人的人机交互形式过于单一。
应该注意,上面对技术背景的介绍只是为了方便对本发明的技术方案进行清楚、完整的说明,并方便本领域技术人员的理解而阐述的。不能仅仅因为这些方案在本发明的背景技术部分进行了阐述而认为上述技术方案为本领域技术人员所公知。
发明内容
针对上述问题,本发明实施方式的目的在于提供一种基于触摸的具有人格化表现的机器人,通过触摸机器人,使得机器人能够针对不同的触摸区域和触摸动作做出带有情绪化的反馈,实现机器人具有人格化表现。
为实现上述目的,本发明实施方式提供一种基于触摸的具有人格化表现的机器人,包括:触摸传感系统、触摸控制器和反馈控制器;所述触摸传感系统设置在机器人内部,在机器人表面设置有和触摸传感系统连通的触摸感应点;当所述触摸传感系统通过触摸感应点接收到触摸行为,则所述触摸控制器确定触摸传感点与其环境之间的电容变化,并将电容变化转换为所述反馈控制器可识别的触摸行为信息,发送给反馈控制器;所述反馈控制器根据接收到的触摸行为信息,控制机器人做出对应的具有人格化表现的反馈。
进一步地,所述触摸传感系统采用柔性电路板,所述柔性电路板紧贴机器人内壁设置;所述触摸控制器采用电容触摸控制处理芯片,当物体未接触触摸感应点时,第一电容为由触摸控制器内部寄生电容与耦合电场共同产生的寄生电容;当物体接触触摸感应点时,第二电容为物体和触摸传感系统之间形成的平行板电容;通过第一电容和第二电容的变化来确定触摸行为。
进一步地,所述触摸传感系统的触摸感应点包括独立触摸感应点和滑条段触摸感应点;触摸传感系统通过独立触摸感应点接收按键触摸行为;触摸传感系统通过一滑条段触摸感应点接收到滑条触摸行为,则激活其邻近滑条段触摸感应点,并计算滑条触摸行为的几何中心位置;所述触摸传感系统还包括接近传感器,如果接近传感器感知到在预先设置的接近距离内有物体,则确定有物体接近机器人。
进一步地,如果触摸控制器通过电容变化感知到位于机器人的头部脸颊部位的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人头部脸颊且触摸感应点的开状态时间大于预先设置的触摸时间,则确定触摸行为对应的反馈行为为害羞;反馈控制器控制机器人给予害羞反馈,所述害羞反馈包括害羞的表情反馈和/或害羞的语言表达。
进一步地,如果触摸控制器通过电容变化感知到位于机器人头部脸颊的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人头部脸颊且触摸感应点的开状态时间小于等于预先设置的触摸时间,则确定触摸行为对应的反馈行为为疑问;反馈控制器控制机器人给予疑问反馈,所述疑惑反馈包括疑问的表情反馈和/或疑问的语言表达。
进一步地,如果触摸控制器通过电容变化感知到位于机器人头顶的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人头顶,则确定触摸行为对应的反馈行为为委屈;反馈控制器控制机器人给予委屈反馈,所述委屈反馈包括委屈的表情反馈和/或委屈的语言表达。
进一步地,如果触摸控制器通过电容变化感知到位于机器人肩膀的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人肩膀,则确定触摸行为对应的反馈行为为询问;反馈控制器控制机器人给予询问反馈,所述询问反馈包括机器人头部转向被触摸侧肩膀,并配合询问的表情反馈和/或询问的语言表达。
进一步地,如果触摸控制器通过电容变化感知到位于机器人手臂的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人手臂,则确定触摸行为对应的反馈行为为友好;反馈控制器控制机器人给予友好反馈,所述友好反馈包括机器人身体转向被触摸侧,并配合友好的表情反馈和/或友好的语言表达。
进一步地,如果触摸控制器通过电容变化感知到位于机器人后背的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人后背,则反馈控制器确定触摸行为对应的反馈行为为疑问;反馈控制器控制机器人给予疑惑反馈,所述疑惑反馈包括机器人转过身面向触摸者,并配合疑惑的表情反馈和/或疑惑的语言表达。
进一步地,如果触摸控制器通过电容变化感知到机器人的任何触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;如果反馈控制器根据触摸行为信息确定触摸行为的力度大于预先设定的力量阈值,则确定对应的反馈行为为生气;反馈控制器控制机器人给予生气反馈,所述生气反馈包括生气的表情反馈和/或生气的语言表达。
由上可见,本发明通过在机器人中设置触摸传感系统、触摸控制器和反馈控制器,使机器人具有了触摸功能和反馈功能。通过机器人表面各身体部分设置的和触摸传感系统连通的触摸感应点,通过电容触摸感应技术测量触摸感应点和其环境之间的电容变化,确定触摸行为。在触摸机器人后机器人根据触摸行为给出拟人化的反馈,从而建立出情感模型,使机器人具有基本的情感水平,拥有相对自然而直观的社会交互行为,从而在机器人整机体验过程中达到智能技术水平,展现机器人具有人格化表现的行为。
附图说明
为了更清楚地说明本发明实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图逐一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施方式中基于触摸的具有人格化表现的机器人头部脸颊布置触摸传感系统的示意图;
图2为本发明实施方式中基于触摸的具有人格化表现的机器人头顶的实现方法的示意图;
图3为本发明实施方式中基于触摸的具有人格化表现的机器人肩膀的实现方法的示意图;
图4为本发明实施方式中基于触摸的具有人格化表现的机器人手臂的实现方法的示意图;
图5为本发明实施方式中基于触摸的具有人格化表现的机器人后背的实现方法的示意图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
机器人的“人格化”是指给物赋予机器人以人的特性。能说会道又具有喜怒哀乐的人形机器人更加容易俘获人心,因此机器人的人格化在某些程度上是模拟人类的形态,并表现出基本的肢体意识,预期达到神似的效果。
本发明提供一种基于触摸的具有人格化表现的机器人,为了机器人能够有触摸功能和反馈功能,该机器人包括触摸传感系统、触摸控制器和反馈控制器。
其中,该触摸传感系统设置在机器人内部。因为机器人外壳通常都是弧面,为了体验良好,触摸传感系统需要紧贴机器人壳体。在本发明实施方式中,采用柔性电路板(FPC,Flexible Printed Circuit)作为触摸传感系统。在机器人表面设置有对应的触摸感应点,例如头部、脸颊、肩膀、手臂、后背等部位分别部署有对应的触摸感应点。
通过电容触摸感应技术测量触摸传感系统和其环境之间的电容变化,以测试触摸传感系统附近是否有物体。在本发明实施例中,触摸控制器采用电容触摸控制处理芯片。当物体未接触触摸感应点时,第一电容为由触摸控制器内部寄生电容与耦合电场共同产生的寄生电容;当物体接触触摸感应点时,第二电容为物体和触摸传感系统之间形成的平行板电容。当触摸传感系统通过触摸感应点接收到触摸行为,触摸控制器确定触摸传感点与其环境之间的电容变化,转换为反馈控制器可识别的触摸行为信息,例如数字信号,反馈给反馈控制器。反馈控制器控制机器人做出带有情绪化的反馈。
此外,基于遍布机器人的触摸感应点,触摸传感系统支持多种触摸感知功能,例如按键、滑条和接近,当然还有其他功能并不在此一一列举。
按键,也称为点触摸,由触摸传感系统对应的各自独立触摸感应点构成。提供两种输出状态活跃(有触摸)或非活跃(无触摸),触摸控制器控制这两种状态分别对应为开(ON)状态和关(OFF)状态。当触摸传感系统感应到有触摸,则触摸控制器记录对应的触摸感应点为按键ON状态;当触摸传感系统无触摸,则触摸控制器记录对应的触摸感应点为按键OFF状态。
滑条,也称为滑动触摸,由触摸传感系统对应的相邻放置呈滑条段触摸感应点构成。触摸某一个滑条段触摸感应点会激活邻近几个滑条段触摸感应点,通过被触摸的滑条段触摸感应点和相邻滑条段触摸感应点计算手指触摸的几何中心位置即质心位置。当触摸传感系统感应到有触摸,则触摸控制器记录该滑条段触摸感应点为滑条ON状态;当触摸传感系统没有感应到有触摸,则触摸控制器记录该滑条段触摸感应点为滑条OFF状态。
接近,触摸传感系统还包括接近传感器,具体由接近传感器检测触摸感应点周围是否有物体。根据接近传感器的大小和结构,在几厘米到几十厘米的距离内,接近传感器可以检测到物体。因此,根据接近传感器预先设定接近距离,例如预先设定周围10cm为接近距离。当接近传感器感应到有物体在接近距离内,则触摸控制器记录对应的触摸感应点为接近ON状态;当接近传感器没有感应到有物体在接近距离内,则触摸控制器记录对应的触摸感应点为接近OFF状态。
基于上述的按键、滑条和接近,可以通过多个独立触摸感应点是否同时被触发,来区别是点击还是拍打;可以通過滑条段触摸感应点否被触发,来判断是否为抚摸;可以通过接近传感器,来判断是否有物体靠近。当然并不局限于此,按键、滑条和接近还可以相互组合,形成对不同的触摸行为的感知。
此外,触摸传感系统还可以进行分辨力量强度,例如预先设置力度阈值,则触摸传感系统可根据是否超过力度阈值来判断是否是撞击或者重压。
触摸的反馈是通过在机器人肢体的不同部位布置触摸传感系统,当人触摸到相应部位时,机器人在不同场景中,分别根据不同的触摸方式给予某些反馈,如动作、语言、表情等,以此达到模拟人的反应,达到人格化的目的。下面将来详细地描述触摸到不同部位时,机器人做出的带有情绪化的反馈。
实施例一
机器人的头部脸颊布置触摸传感系统,布置位置可以参考图1所示。
在本实施例中,设置触摸时间,例如触摸3秒。
当用户触摸机器人脸颊部位,触摸传感系统接收到触摸信号超过触摸时间,则机器人给予害羞的表情反馈,进一步的还可以预先设置害羞的语言表达,例如说出表示害羞、不好意思等语句,表现出害羞的人格反应。
当用户点击机器人脸颊部位,触摸传感系统接收到触摸信号小于触摸时间,机器人给予疑问的反馈,表现出疑问的表情,进一步的还可以预先设置疑问的语言表达,例如询问用户触摸脸颊的目的,以此表现机器人对一些定义不明的动作感到疑问并有求知欲的人格。
实施例二
机器人头顶布置触摸传感系统,布置位置可以参考图2所示。
在本实施例中,当用户抚摸机器人头顶时,机器人表现出委屈的表情,进一步的还可以预先设置委屈的语言表达,例如说出表示伤心难过的语句,以此表现出类似人类委屈、伤心的情感。
实施例三
机器人肩膀布置触摸传感系统,布置位置可以参考图3所示。适用场景可以为用户和机器人对话时,周围有其他人想打断当前的对话,此时可以通过肩部的触摸反馈来实现。
在本实施例中,如果用户手掌轻拍或者长按机器人肩膀,机器人感应到后,头部转向被触摸侧肩膀,表现出疑问的表情,进一步的还可以预先设置询问的语言表达,例如询问触摸的目的。此外,机器人可以切换聊天对象,也可以在询问后继续进行和之前聊天对象的对话。
通过机器人对触摸肩部的反馈,模拟人类对肩部触碰的反应,以此表现机器人对身体部位的触感以及一定的肢体意识。
实施例四
机器人手臂布置触摸传感系统,布置位置可以参考图4所示。
在本实施例中,如果用户手掌轻拍机器人手臂,机器人感应到触摸后,身体转向被触摸侧,表现出微笑友好的表情,进一步的还可以预先设置友好的语言表达,例如向触摸者打招呼,以此模拟人类胳膊被触碰后的反馈。
实施例五
机器人后背布置触摸传感系统,布置位置可以参考图5所示。
如果用户轻拍或点击机器人后背,机器人感应到触摸后,转过身面向触摸者,表现出疑惑的表情,进一步的还可以预先设置疑惑的语言表达,例如询问触摸的目的,以此模拟人被拍后背的反馈,达到人类后背被触碰后的反馈。
实施例六
如果用户撞击机器人,机器人的触摸传感系统接收到触摸信号大于预先设定的力度阈值,机器人转向被触摸侧,表现出生气的表情,进一步的还可以预先设置生气的语言表达,例如询问触摸者的意图。以此来表现机器人不同的情绪,通过触摸来表现出机器人更丰满的人格。
由上可见,本发明通过在机器人中设置触摸传感系统、触摸控制器和反馈控制器,使机器人具有了触摸功能和反馈功能。通过机器人表面各身体部分设置的和触摸传感系统连通的触摸感应点,通过电容触摸感应技术测量触摸感应点和其环境之间的电容变化,确定触摸行为。在触摸机器人后机器人根据触摸行为给出拟人化的反馈,从而建立出情感模型,使机器人具有基本的情感水平,拥有相对自然而直观的社会交互行为,从而在机器人整机体验过程中达到智能技术水平,展现机器人具有人格化表现的行为。
本说明书中的各个实施方式均采用递进的方式描述,各个实施方式之间相同相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。
最后应说明的是:上面对本发明的各种实施方式的描述以描述的目的提供给本领域技术人员。其不旨在是穷举的、或者不旨在将本发明限制于单个公开的实施方式。如上所述,本发明的各种替代和变化对于上述技术所属领域技术人员而言将是显而易见的。因此,虽然已经具体讨论了一些另选的实施方式,但是其它实施方式将是显而易见的,或者本领域技术人员相对容易得出。本发明旨在包括在此已经讨论过的本发明的所有替代、修改、和变化,以及落在上述申请的精神和范围内的其它实施方式。

Claims (10)

1.一种基于触摸的具有人格化表现的机器人,其特征在于,包括:触摸传感系统、触摸控制器和反馈控制器;
所述触摸传感系统设置在机器人内部,在机器人表面设置有和触摸传感系统连通的触摸感应点;
当所述触摸传感系统通过触摸感应点接收到触摸行为,所述触摸控制器确定触摸传感点与其环境之间的电容变化,并将电容变化转换为所述反馈控制器可识别的触摸行为信息,发送给反馈控制器;
所述反馈控制器根据接收到的触摸行为信息,控制机器人做出对应的具有人格化表现的反馈。
2.根据权利要求1所述的基于触摸的具有人格化表现的机器人,其特征在于,所述触摸传感系统采用柔性电路板,所述柔性电路板紧贴机器人内壁设置;
所述触摸控制器采用电容触摸控制处理芯片,当物体未接触触摸感应点时,第一电容为由触摸控制器内部寄生电容与耦合电场共同产生的寄生电容;当物体接触触摸感应点时,第二电容为物体和触摸传感系统之间形成的平行板电容;当触摸传感系统通过触摸感应点接收到触摸行为,触摸控制器根据第一电容和第二电容的变化确定触摸行为。
3.根据权利要求1或2所述的基于触摸的具有人格化表现的机器人,其特征在于,所述触摸传感系统的触摸感应点包括独立触摸感应点和滑条段触摸感应点;
触摸传感系统通过独立触摸感应点接收按键触摸行为;
触摸传感系统通过一滑条段触摸感应点接收到滑条触摸行为,则激活其邻近滑条段触摸感应点,并计算滑条触摸行为的几何中心位置;
所述触摸传感系统还包括接近传感器,如果接近传感器感知到在预先设置的接近距离内有物体,则确定有物体接近机器人。
4.根据权利要求3所述的基于触摸的具有人格化表现的机器人,其特征在于,如果触摸控制器通过电容变化感知到位于机器人的头部脸颊部位的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;
如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人头部脸颊且触摸感应点的开状态时间大于预先设置的触摸时间,则确定触摸行为对应的反馈行为为害羞;
反馈控制器控制机器人给予害羞反馈,所述害羞反馈包括害羞的表情反馈和/或害羞的语言表达。
5.根据权利要求3所述的基于触摸的具有人格化表现的机器人,其特征在于,如果触摸控制器通过电容变化感知到位于机器人头部脸颊的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;
如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人头部脸颊且触摸感应点的开状态时间小于等于预先设置的触摸时间,则确定触摸行为对应的反馈行为为疑问;
反馈控制器控制机器人给予疑问反馈,所述疑惑反馈包括疑问的表情反馈和/或疑问的语言表达。
6.根据权利要求3所述的基于触摸的具有人格化表现的机器人,其特征在于,如果触摸控制器通过电容变化感知到位于机器人头顶的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;
如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人头顶,则确定触摸行为对应的反馈行为为委屈;
反馈控制器控制机器人给予委屈反馈,所述委屈反馈包括委屈的表情反馈和/或委屈的语言表达。
7.根据权利要求3所述的基于触摸的具有人格化表现的机器人,其特征在于,如果触摸控制器通过电容变化感知到位于机器人肩膀的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;
如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人肩膀,则确定触摸行为对应的反馈行为为询问;
反馈控制器控制机器人给予询问反馈,所述询问反馈包括机器人头部转向被触摸侧肩膀,并配合询问的表情反馈和/或询问的语言表达。
8.根据权利要求3所述的基于触摸的具有人格化表现的机器人,其特征在于,如果触摸控制器通过电容变化感知到位于机器人手臂的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;
如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人手臂,则确定触摸行为对应的反馈行为为友好;
反馈控制器控制机器人给予友好反馈,所述友好反馈包括机器人身体转向被触摸侧,并配合友好的表情反馈和/或友好的语言表达。
9.根据权利要求3所述的基于触摸的具有人格化表现的机器人,其特征在于,如果触摸控制器通过电容变化感知到位于机器人后背的触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;
如果反馈控制器根据触摸行为信息确定触摸感应点位于机器人后背,则反馈控制器确定触摸行为对应的反馈行为为疑问;
反馈控制器控制机器人给予疑惑反馈,所述疑惑反馈包括机器人转过身面向触摸者,并配合疑惑的表情反馈和/或疑惑的语言表达。
10.根据权利要求3所述的基于触摸的具有人格化表现的机器人,其特征在于,如果触摸控制器通过电容变化感知到机器人的任何触摸传感系统接收到触摸行为,则将触摸行为对应的触摸感应点记录为开状态,并将感知到的触摸行为转换为所述反馈控制器可识别的触摸行为信息;
如果反馈控制器根据触摸行为信息确定触摸行为的力度大于预先设定的力量阈值,则确定对应的反馈行为为生气;
反馈控制器控制机器人给予生气反馈,所述生气反馈包括生气的表情反馈和/或生气的语言表达。
CN201710630951.0A 2017-07-28 2017-07-28 基于触摸的具有人格化表现的机器人 Pending CN107463291A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710630951.0A CN107463291A (zh) 2017-07-28 2017-07-28 基于触摸的具有人格化表现的机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710630951.0A CN107463291A (zh) 2017-07-28 2017-07-28 基于触摸的具有人格化表现的机器人

Publications (1)

Publication Number Publication Date
CN107463291A true CN107463291A (zh) 2017-12-12

Family

ID=60547800

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710630951.0A Pending CN107463291A (zh) 2017-07-28 2017-07-28 基于触摸的具有人格化表现的机器人

Country Status (1)

Country Link
CN (1) CN107463291A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108312155A (zh) * 2018-03-07 2018-07-24 重庆鲁班机器人技术研究院有限公司 机器人及机器人的控制方法
CN110653813A (zh) * 2018-06-29 2020-01-07 深圳市优必选科技有限公司 一种机器人控制方法、机器人及计算机存储介质
CN111086010A (zh) * 2018-10-24 2020-05-01 丰田自动车株式会社 通信机器人及计算机可读存储介质
CN111086009A (zh) * 2018-10-24 2020-05-01 丰田自动车株式会社 通信机器人及计算机可读存储介质
CN112698747A (zh) * 2020-12-29 2021-04-23 深圳市普渡科技有限公司 机器人触摸互动方法及机器人
CN114138113A (zh) * 2021-11-30 2022-03-04 上海霖运科技有限公司 一种车载ai机器人的触摸交互系统
WO2022194029A1 (zh) * 2021-03-15 2022-09-22 华为技术有限公司 一种机器人的反馈方法及机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184066A (zh) * 2011-04-29 2011-09-14 上海科勒电子科技有限公司 一种应用于卫浴产品的触摸感应装置及其控制方法
CN202753154U (zh) * 2012-07-18 2013-02-27 深圳市中科睿成智能科技有限公司 一种用于交互的机器人装置
CN104635562A (zh) * 2013-11-13 2015-05-20 沈阳新松机器人自动化股份有限公司 一种触觉传感器、触觉传感系统及智能机器人
CN205201537U (zh) * 2015-11-04 2016-05-04 上海拓趣信息技术有限公司 陪护机器人
CN106393113A (zh) * 2016-11-16 2017-02-15 上海木爷机器人技术有限公司 机器人和机器人的交互控制方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184066A (zh) * 2011-04-29 2011-09-14 上海科勒电子科技有限公司 一种应用于卫浴产品的触摸感应装置及其控制方法
CN202753154U (zh) * 2012-07-18 2013-02-27 深圳市中科睿成智能科技有限公司 一种用于交互的机器人装置
CN104635562A (zh) * 2013-11-13 2015-05-20 沈阳新松机器人自动化股份有限公司 一种触觉传感器、触觉传感系统及智能机器人
CN205201537U (zh) * 2015-11-04 2016-05-04 上海拓趣信息技术有限公司 陪护机器人
CN106393113A (zh) * 2016-11-16 2017-02-15 上海木爷机器人技术有限公司 机器人和机器人的交互控制方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108312155A (zh) * 2018-03-07 2018-07-24 重庆鲁班机器人技术研究院有限公司 机器人及机器人的控制方法
CN110653813A (zh) * 2018-06-29 2020-01-07 深圳市优必选科技有限公司 一种机器人控制方法、机器人及计算机存储介质
CN111086010A (zh) * 2018-10-24 2020-05-01 丰田自动车株式会社 通信机器人及计算机可读存储介质
CN111086009A (zh) * 2018-10-24 2020-05-01 丰田自动车株式会社 通信机器人及计算机可读存储介质
CN111086010B (zh) * 2018-10-24 2022-11-08 丰田自动车株式会社 通信机器人及计算机可读存储介质
CN111086009B (zh) * 2018-10-24 2022-11-29 丰田自动车株式会社 通信机器人及计算机可读存储介质
CN112698747A (zh) * 2020-12-29 2021-04-23 深圳市普渡科技有限公司 机器人触摸互动方法及机器人
WO2022142866A1 (zh) * 2020-12-29 2022-07-07 深圳市普渡科技有限公司 机器人触摸互动方法及机器人
WO2022194029A1 (zh) * 2021-03-15 2022-09-22 华为技术有限公司 一种机器人的反馈方法及机器人
CN114138113A (zh) * 2021-11-30 2022-03-04 上海霖运科技有限公司 一种车载ai机器人的触摸交互系统

Similar Documents

Publication Publication Date Title
CN107463291A (zh) 基于触摸的具有人格化表现的机器人
CN110139730B (zh) 触摸感测系统
CN107199571A (zh) 机器人控制系统
CN105224069B (zh) 一种增强现实虚拟键盘输入方法及使用该方法的装置
CN105608432B (zh) 一种基于瞬时肌电图像的手势识别方法
US20120327006A1 (en) Using tactile feedback to provide spatial awareness
Wachs et al. Vision-based hand-gesture applications
CN105068690B (zh) 一种用于触控屏的防误触方法及系统
CN106445168A (zh) 一种智能手套及其使用方法
CN102426486B (zh) 一种立体交互方法及被操作设备
US20130050154A1 (en) Stylus for use with touch screen computing device
CN104866100A (zh) 眼控装置及其眼控方法和眼控系统
CN102789313A (zh) 一种用户交互系统和方法
CN104881122A (zh) 一种体感交互系统激活方法、体感交互方法及系统
US20140253504A1 (en) Mobile electronic device with sensors
CN110442233B (zh) 一种基于手势交互的增强现实键鼠系统
CN107656620A (zh) 虚拟对象控制方法、装置、电子设备及存储介质
CN102779000A (zh) 一种用户交互系统和方法
CN102214039A (zh) 辅助实现多状态触摸屏检测的多模式义肢设备
CN106393113A (zh) 机器人和机器人的交互控制方法
CN107427225A (zh) 用于放松和培养注意力的方法和系统
CN104793738A (zh) 基于Leap Motion的非接触式计算机操控方法
CN104331195B (zh) 触控响应方法及电子设备
CN104915003A (zh) 一种体感控制参数调整的方法、体感交互系统及电子设备
CN104915004A (zh) 一种体感控制屏幕滚动方法、体感交互系统及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171212

RJ01 Rejection of invention patent application after publication