CN101458778B - 一种仿人头像机器人的控制方法 - Google Patents

一种仿人头像机器人的控制方法 Download PDF

Info

Publication number
CN101458778B
CN101458778B CN2008102098032A CN200810209803A CN101458778B CN 101458778 B CN101458778 B CN 101458778B CN 2008102098032 A CN2008102098032 A CN 2008102098032A CN 200810209803 A CN200810209803 A CN 200810209803A CN 101458778 B CN101458778 B CN 101458778B
Authority
CN
China
Prior art keywords
robot
lip
expression
driving mechanism
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2008102098032A
Other languages
English (en)
Other versions
CN101458778A (zh
Inventor
吴伟国
孟庆梅
鹿麟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN2008102098032A priority Critical patent/CN101458778B/zh
Publication of CN101458778A publication Critical patent/CN101458778A/zh
Application granted granted Critical
Publication of CN101458778B publication Critical patent/CN101458778B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

一种仿人头像机器人的控制方法,属于机器人应用领域。本发明的目的是为解决现有机器人表情单一、不具有多感知功能的问题。本发明方法所述机器人具有面部表情和多感知功能,它本体包括运动驱动机构、表情驱动机构、面部壳体和面部弹性皮肤,运动控制系统包括舵机控制器和多个舵机,多感知传感系统感知到的信息输出给主控机进行处理,主控机输出相应的命令信息给舵机控制器,舵机控制器输出PWM脉冲驱动相应的舵机转动到指定的位置,舵机带动运动驱动机构动作,牵动唇部皮肤运动以实现机器人仿人口形的功能,所述舵机带动表情驱动机构动作,以牵动面部弹性皮肤来实现机器人的多种面部表情。

Description

一种仿人头像机器人的控制方法
技术领域
本发明涉及一种具有面部表情及多感知功能的仿人头像机器人的控制方法,属于机器人应用领域。
背景技术
仿人机器人的研究开始于上世纪60年代,经过50几年的发展目前已成为机器人技术领域的主要研究方向之一。它集机械、电子、计算机、材料、传感器、控制技术等多门科学于一体,代表着一个国家的高科技发展水平。“仿人”的意义在于机器人具有类人的感知、决策、行为和交互能力。仿人机器人不仅具有类人的外形外观,重要的是具有类人的感觉系统、类人的智能思维方式和控制系统及决策能力,最终表现“行为类人”。在人机交互中,使机器人具有“亲和力”,构建更融洽、更人性化的交流桥梁。情感在人类的认知、行为过程中起着至关重要的作用,情感影响人类的创造、判断、决策、合理思维、交流和其他一些认知过程。在人机交互中,被设计成具有情感的机器与人建立友好的交互界面,使其具有参与社会事务和开展人际交往的能力,更易被人类所接受;同时机器人具有“生命”使其主体的思维(或行为)具有明确的目的性和方向性,从而显著地提高思维(或行为)的效率和速度;在动态、不可预知和具有潜在“危险”的环境中,赋予机器人思维上的创造性和行为上的自觉性,提高机器人适应环境的能力。
目前,一些仿人头像机器人的研制不具有多种感知功能,对基本面部表情的实现也只限于一种表情。经文献检索发现中国专利公告号为CN201088839,专利号为200720189947.7,名称为机器人笑表情肌肉动作机构。该机构包括头颅架、橡胶表皮,橡胶表皮贴在头颅架上。其特点为机构简单能够实现各种笑的表情。该机构不足之处在于不能实现其他面部表情。中国专利公告号为CN 101020315A,专利号为200710038295.1,名称为仿人机器人头部系统。该机构包括一个六自由度的串联型机构,以DSPF2812为主控节点的可扩展处理器网络。六自由度的串联机构本体由六个舵机驱动,用来模拟双眼、颈部和下巴的运动。可扩展处理器网络由视频处理器、语音处理器、接口模块和DSP F2812主控电路组成。能实现人机交互过程中的运动控制和计算要求。但是该仿人机器人头部系统不具有弹性面部皮肤,因此不能实现对人类面部表情的再现,不具有拟人的多感知功能如嗅觉、触觉、视觉等。
发明内容
本发明的目的是为了解决现有机器人表情单一、不具有多感知功能的问题,提供了一种仿人头像机器人的控制方法。
本发明方法所述机器人具有面部表情和多感知功能,它包括机器人本体、运动控制系统、主控机和多感知传感系统,
机器人本体包括运动驱动机构、表情驱动机构、面部壳体和面部弹性皮肤,
运动控制系统包括舵机控制器和多个舵机,
多感知传感系统感知到的信息输出给主控机进行处理,主控机输出相应的命令信息给舵机控制器,舵机控制器输出PWM脉冲驱动相应的舵机转动到指定的位置,运动驱动机构由相应的舵机带动,牵动唇部皮肤一起运动以实现机器人仿人口形的功能,表情驱动机构由相应的舵机带动,以牵动面部弹性皮肤来实现机器人的多种面部表情。
实现仿人口形的步骤为:
步骤一、基于汉语发音的特点和音位组成建立基本静态视位集,根据基本静态视位集建立机器人基于汉语的基本口形;
步骤二、在机器人的唇部设置运动控制点,每个运动控制点处设置一个滑块,所述滑块与唇部皮肤连接在一起,每个滑块与一个导向槽滑动连接,所述导向槽设置在面部壳体上,所述导向槽的设置方向确定每个运动控制点相应的受力方向;
步骤三、将听觉传感器获得的语音信息按步骤一所述的基本视位集分割成基本的视位和对应的基本口形,在口形模型中找到各运动控制点对应的运动轨迹,通过驱动相应的滑块在与其相连的导向槽内运动,牵动唇部皮肤一起运动,实现与语音协调的仿人口形,
舵机带动表情驱动机构动作,牵动面部弹性皮肤来实现机器人的多种面部表情的步骤为:
在机器人的面部设置表情控制点,每个表情控制点处设置一个滑块,所述滑块与面部弹性皮肤连接在一起,每个滑块与一个导向槽滑动连接,所述导向槽设置在面部壳体上,所述导向槽的设置方向确定每个运动控制点相应的受力方向,舵机驱动滑块与其相连的导向槽内运动,通过控制不同表情控制点的组合运动来实现机器人的多种面部表情。
本发明的优点:本发明的机器人头部可产生多种面部表情,仿人口形的功能强大;具有多感知传感系统,本发明采用舵机作为驱动元件,舵机的体积小、扭矩大,使得机器人的性价比更高。
附图说明
图1本发明结构示意图,图2是多感知传感系统中各传感器分布图,图3是仿人口形各运动控制点分布图,图4是运动驱动机构结构示意图,图5是眼部器官的位置图,图6是仿人口形各运动控制点的滑块分布图,图7是表情驱动各表情控制点分布图,图8是面部表情驱动机构原理图,图9是口形驱动机构原理图,图10是本发明实现的表情——正常的图片,图11是本发明实现的表情——微笑的图片,图12是本发明实现的表情——大笑的图片,图13是本发明实现的表情——生气的图片,图14是本发明实现的表情——悲伤的图片,图15是本发明实现的表情——厌恶的图片,图16是本发明实现的表情——惊讶的图片,图17是本发明实现的表情——害怕的图片。
具体实施方式
具体实施方式一、下面结合图1、图4说明本实施方式,本实施方式包括机器人本体1、运动控制系统2、主控机3和多感知传感系统4,
机器人本体1包括运动驱动机构5、表情驱动机构6、面部壳体7和面部弹性皮肤8,
运动控制系统2包括舵机控制器9和多个舵机10,
多感知传感系统4感知到的信息输出给主控机3进行处理,主控机3输出相应的命令信息给舵机控制器9,舵机控制器9输出PWM脉冲驱动相应的舵机10转动到指定的位置,所述舵机10带动运动驱动机构5动作,牵动唇部皮肤一起运动以实现机器人仿人口形的功能,所述舵机10带动表情驱动机构6动作,以牵动面部弹性皮肤8来实现机器人的多种面部表情。
面部壳体7的材料由快速成型粉末与化学试剂调制经模具成型,该材料具有较强的抗冲击强度和较大的抗耐磨性和机械特性,能够满足壳体对面部弹性皮肤8的支撑作用。另外面部壳体7中的下颚22与面颊部分采用分离式结构,满足机器人头部器官的运动要求。
舵机10是一种位置伺服的驱动器,适用于那些需要角度不断变化并可以保持的控制系统。其工作原理是:控制信号由接收机的通道进入信号调制芯片,获得直流偏置电压。它内部有一个基准电路,产生周期为20ms,宽度为1.5ms的基准信号,将获得的直流偏置电压与电位器的电压比较,获得电压差输出。最后电压差的正负输出到电机驱动芯片决定电机的正反转。当电机转速一定时,通过级联减速齿轮带动电位器旋转,使得电压差为0,电机停止转动。
本实施方式选用的舵机控制器9可驱动32路舵机10,舵机控制器9的控制精度为0.09°/μs。舵机控制器9采用RS232串口与主控机3进行通信,主控机3通过串口发送一定格式的指令到舵机控制器9,就可以从舵机控制器9输出一定占空比的PWM脉冲信号,驱动相应的舵机10转动到指定位置。
本实施方式中机器人头部具有10个自由度,其中运动驱动机构5具有4个自由度,表情驱动机构6具有6个自由度。
具体实施方式二、下面结合图2说明本实施方式,本实施方式与实施方式一的不同之处在于,多感知传感系统4包括2个温度传感器33、5个触觉传感器34、2个视觉传感器35、嗅觉传感器36和听觉传感器37,2个温度传感器33分别设置在前额的左右两侧,1个触觉传感器34设置在前额中部位置,左右两侧面颊处各设置2个触觉传感器34,2个视觉传感器35分别设置在左右眼眶内,嗅觉传感器36设置在鼻子位置,听觉传感器37设置在下巴中部位置,其它与实施方式一相同。
图2所示为多感知传感系统中各传感器的分布图。在本实施方式中温度传感器33采用CMOS传感集成电路S-8100B;触觉传感器34采用FSR传感器,FSR传感器是一种通过改变电阻值来线性改变压力值的传感器,FSR传感器不仅能检测出非常微弱的力,同时利用FSR传感器的两层结构来检测出不同力的触摸方式,FSR传感器的结构外观像人的皮肤,因此采用FSR传感器作为本实施例的触觉传感器34效果更好;视觉传感器35采用CCD摄像头,双眼内分别安装一个CCD摄像头,双眼采用单独无耦合控制具有更远的视野搜索范围,保证了机器人的视觉成像;嗅觉传感器36采用FIS系列气体传感器;听觉传感器37采用台湾凌阳公司生产的SPCE061A单片机为核心处理芯片。
通过机器人的多感知传感系统4实现了机器人的嗅觉、视觉、触觉、听觉等多感知功能。
具体实施方式三、下面结合图4、图5说明本实施方式,本实施方式与实施方式一的不同之处在于,运动驱动机构5包括眼睑驱动机构、眼球驱动机构和下颚驱动机构,眼睑驱动机构用于驱动眼睑17的上下运动,眼球驱动机构用于驱动眼球24左右转动和上下转动,下颚驱动机构用于驱动下颚的上下运动,通过与口形驱动机构互相配合实现仿人口形的功能,其它与实施方式一相同。
运动驱动机构5具有4个自由度,其中眼球24具有2个自由度、眼睑17具有1个自由度、下颚22具有1个自由度。
如图4所示,头部器官包括眼球24、眼睑17、上鄂21和下颚22。上颚21固定不动。眼球24通过固定在眼球上的中转轴19实现左右运动。在绳轮14的驱动下,绕中轴23转动实现眼球的上下运动。下颚22通过下轴20实现机器人唇部的上下运动。双眼24采用单独无耦合控制具有更远的视野搜索范围,保证了机器人的视觉成像。眼睑17通过侧转轴16实现眼睑的上下运动。在设计过程中,视觉传感器2个CCD摄像头作为视觉传感器35分别安装在双眼24内,如图5所示,实现了真正的“仿人”。
具体实施方式四、下面结合图3、图6、图9来说明本实施方式,本实施方式与实施方式三的不同之处在于,实现仿人口形的方法为:
步骤一、基于汉语发音的特点和音位组成建立基本静态视位集,根据基本静态视位集建立机器人基于汉语的基本口形;
步骤二、在机器人的唇部设置运动控制点(b1,b2,b3,b4,b5,b6,b7),每个运动控制点处设置一个滑块28,所述滑块28与唇部皮肤连接在一起,每个滑块28与一个导向槽31滑动连接,所述导向槽31设置在面部壳体7上,所述导向槽31的设置方向确定每个运动控制点相应的受力方向;
步骤三、将听觉传感器37获得的语音信息按步骤一所述的基本视位集分割成基本的视位和对应的基本口形,在口形模型中找到各运动控制点对应的运动轨迹,通过驱动相应的滑块28在与其相连的导向槽31内运动,牵动唇部皮肤一起运动,实现所述的实现与语音协调的仿人口形,其它与实施方式三相同。
本实施方式通过“视位”的概念建立机器人基于汉语的基本口形。不同语言均具有特定的音位集和特有的发音特点,所以不同语言的视位不能完全公用。本实施方式将“视位”应用于机器人的唇部运动中,根据机器人的唇部机构特点和机器人自身系统的具体要求,基于汉语发音的特点和音位组成建立了10个基本静态视位集,如表1所示。为在机器人上实现基本视位,在机器人唇部定义了运动控制点(b1 b2 b3 b4 b5 b6 b7)。机器人的唇部皮肤采用与面部弹性皮肤8相同的材质,能够满足基本口形的设计要求。
表1  10个基本静态视位
Figure GSB00000200266000071
图3所示为机器人唇部设置的运动控制点的分布图,本实施方式共设置了7个点:b1和b2分别设置在上唇部的左右中部位置,b1和b2受力方向与水平垂直;b3和b4分别设置在左右嘴角处,b3和b4的受力方向为与水平方向平行,b5和b6分别设置在下唇部的左右中部位置,b1和b2受力方向与水平垂直;b7设置在唇部正下方1cm~2cm处,b7受力方向与水平垂直。
当机器人通过听觉传感器37获得语音信号,主控机3的处理程序采用Mel频率倒谱系数(MFCC)提取语音的特征值,在语音识别模块中利用基于模板匹配的动态时间规整(DTW)方法识别出在语音库中相应的语音,把所述语音信息按定义的基本视位集分割成基本的视位和对应的口形,在口形模型中找到各运动控制点对应的运动轨迹,通过驱动相应的滑块28在与其相连的导向槽31内运动,实现与语音协调的仿人口形。在本实施例中由于口形与语音的播放存在时间延迟,所以在机器人口形控制与语音播放中应设计时间间隔。
各运动控制点的分布及相应的滑块28的分布如图6所示。
图9为口形驱动机构的原理图。为实现人类脸部肌肉双向运动,采用滑块28和导向槽31来确定各运动控制点的运动方向和往复运动,本图中给出一个运动控制点为b2点,其它运动控制点的工作原理与此点相同;绳索30采用高分子材料线,直线抗拉力约为100N,直径0.4mm,表面光滑,耐腐蚀,零延展性,可以保证准确的位置控制;绳索30的一端固定在一个表情控制点的滑块28上,另一端缠绕在与舵机10相连的绳轮14上,中间由若干导向定滑轮25组成的导向系统来确定绳索30的拉伸方向。考虑到绳索30在运动过程中的“跳动”,绳轮14采用了倾斜挡边的结构。本实施方式中绳轮14的直径为16mm,当舵机10旋转范围为-60°~60°时,绳索30直线运动范围为16.7mm,可以满足滑块28的运动范围要求。
具体实施方式五、下面结合图7、图8、图10~图17说明本实施方式,本实施方式与实施方式一的不同之处在于,舵机10带动表情驱动机构6动作,牵动面部弹性皮肤8来实现机器人的多种面部表情的方法为:
在机器人的面部设置表情控制点(a1,a2,a3,a4,a5,a6,c1,c2,c3,d1,d2,d3,d4),每个表情控制点处设置一个滑块28,所述滑块28与面部弹性皮肤8连接在一起,每个滑块28与一个导向槽31滑动连接,所述导向槽31设置在面部壳体7上,所述导向槽31的设置方向确定每个运动控制点相应的受力方向,舵机10驱动滑块28在与其相连的导向槽31内运动,通过控制不同表情控制点的组合运动来实现机器人的多种面部表情,其它与实施方式一相同。
根据美国心理学家Ekman的面部动作编码系统(Facial Action CodingSystem,FACS)的44个运动单元(AU)中,有24个AU与人的表情有关。本实施方式选取了10个AU(AU1,AU2,AU4,AU5,AU6,AU7,AU12,AU15,AU25,AU26)。在机器人的面部弹性皮肤8上设计与各AU点对应的表情控制点(a1,a2,a3,a4,a5,a6,c1,c2,c3,d1,d2,d3,d4),如图7所示,驱动舵机10通过绳轮14与导向轮25控制面部弹性皮肤8上的表情控制点运动,通过表情控制点的组合和位移变化从而实现不同的面部表情,如图8所示。在图7中圆点代表表情控制点,箭头代表表情控制点的运动方向。在本实施方式中选取14个表情控制点,本实施方式机器人能实现八种面部表情,如图10~图17所示,分别为正常、微笑、大笑、生气、悲伤、厌恶、惊讶和害怕。表情控制点的组合和表情控制点的运动位移如表2和表3所示,其中表3中的负号表示运动方向与图7中箭头相反。
表2 八种面部表情的表情控制点的组合
Figure GSB00000200266000091
表3 八种表情控制点的运动位移
Figure GSB00000200266000092

Claims (3)

1.一种仿人头像机器人的控制方法,所述机器人具有面部表情和多感知功能,它包括机器人本体(1)、运动控制系统(2)、主控机(3)和多感知传感系统(4),
机器人本体(1)包括运动驱动机构(5)、表情驱动机构(6)、面部壳体(7)和面部弹性皮肤(8),
运动控制系统(2)包括舵机控制器(9)和多个舵机(10),
多感知传感系统(4)感知到的信息输出给主控机(3)进行处理,主控机(3)输出相应的命令信息给舵机控制器(9),舵机控制器(9)输出PWM脉冲驱动相应的舵机(10)转动到指定的位置,运动驱动机构(5)由相应舵机(10)带动,牵动唇部皮肤一起运动以实现机器人仿人口形的功能,表情驱动机构(6)由相应舵机(10)带动,以牵动面部弹性皮肤(8)来实现机器人的多种面部表情,
其特征在于,
实现仿人口形的步骤为:
步骤一、基于汉语发音的特点和音位组成建立基本静态视位集,根据基本静态视位集建立机器人基于汉语的基本口形;
步骤二、在机器人的唇部设置运动控制点(b1,b2,b3,b4,b5,b6,b7),每个运动控制点处设置一个滑块(28),所述滑块(28)与唇部皮肤连接在一起,每个滑块(28)与一个导向槽(31)滑动连接,所述导向槽(31)设置在面部壳体(7)上,所述导向槽(31)的设置方向确定每个运动控制点相应的受力方向;
步骤三、将听觉传感器(37)获得的语音信息按步骤一所述的基本视位集分割成基本的视位和对应的基本口形,在口形模型中找到各运动控制点对应的运动轨迹,通过驱动相应的滑块(28)在与其相连的导向槽(31)内运动,牵动唇部皮肤一起运动,实现与语音协调的仿人口形,
舵机(10)带动表情驱动机构(6)动作,牵动面部弹性皮肤(8)来实现机器人的多种面部表情的步骤为:
在机器人的面部设置表情控制点(a1,a2,a3,a4,a5,a6,c1,c2,c3,d1,d2,d3,d4),每个表情控制点处设置一个滑块(28),所述滑块(28)与面部弹性皮肤(8)连接在一起,每个滑块(28)与一个导向槽(31)滑动连接,所述导向槽(31)设置在面部壳体(7)上,所述导向槽(31)的设置方向确定每个运动控制点相应的受力方向,舵机(10)驱动滑块(28)与其相连的导向槽(31)内运动,通过控制不同表情控制点的组合运动来实现机器人的多种面部表情。
2.根据权利要求1所述的一种仿人头像机器人的控制方法,其特征在于多感知传感系统(4)包括2个温度传感器(33)、5个触觉传感器(34)、2个视觉传感器(35)、嗅觉传感器(36)和听觉传感器(37),2个温度传感器(33)分别设置在前额的左右两侧,1个触觉传感器(34)设置在前额中部位置,左右两侧面颊处各设置2个触觉传感器(34),2个视觉传感器(35)分别设置在左右眼眶内,嗅觉传感器(36)设置在鼻子位置,听觉传感器(37)设置在下巴中部位置。
3.根据权利要求1所述的一种仿人头像机器人的控制方法,其特征在于运动驱动机构(5)包括眼睑驱动机构、眼球驱动机构和下颚驱动机构,眼睑驱动机构用于驱动眼睑(17)的上下运动,眼球驱动机构用于驱动眼球(24)左右转动和上下转动,下颚驱动机构用于驱动下颚的上下运动,并通过与口形驱动机构互相配合实现仿人口形的功能。
CN2008102098032A 2008-12-26 2008-12-26 一种仿人头像机器人的控制方法 Active CN101458778B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008102098032A CN101458778B (zh) 2008-12-26 2008-12-26 一种仿人头像机器人的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008102098032A CN101458778B (zh) 2008-12-26 2008-12-26 一种仿人头像机器人的控制方法

Publications (2)

Publication Number Publication Date
CN101458778A CN101458778A (zh) 2009-06-17
CN101458778B true CN101458778B (zh) 2011-04-06

Family

ID=40769627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008102098032A Active CN101458778B (zh) 2008-12-26 2008-12-26 一种仿人头像机器人的控制方法

Country Status (1)

Country Link
CN (1) CN101458778B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101661569B (zh) * 2009-09-18 2013-03-27 北京科技大学 一种智能情感机器人多模态行为关联表达系统
CN102566474A (zh) * 2012-03-12 2012-07-11 上海大学 仿人面部表情机器人交互系统和方法以及人脸检测和跟踪方法
CN103853071B (zh) * 2014-01-20 2016-09-28 南京升泰元机器人科技有限公司 基于生物信号的人机面部表情交互系统
CN104091370B (zh) * 2014-08-01 2017-02-15 哈尔滨工业大学 一种脸型和面部器官可变的仿人头像机器人及其数学建模方法与控制方法
CN104536374B (zh) * 2014-11-19 2018-07-06 曾洪鑫 机器人口型控制机构及其控制系统
WO2017214954A1 (zh) * 2016-06-16 2017-12-21 深圳市创客工场科技有限公司 舵机
CN106646486A (zh) * 2016-12-26 2017-05-10 智能佳(北京)机器人有限公司 一种具有超声波眼睛的人形机器人
CN108732943A (zh) * 2017-04-18 2018-11-02 深圳市丰巨泰科电子有限公司 表情机器人人机交互方法
CN109359508A (zh) * 2018-08-27 2019-02-19 贵阳朗玛信息技术股份有限公司 一种头像处理方法及装置
CN110103234B (zh) * 2019-04-30 2024-05-24 广东工业大学 一种仿人面部表情机器人
CN110561447B (zh) * 2019-08-20 2020-11-13 浙江大学 一种基于分片蒙皮的形状可控人台机器人
CN110653801B (zh) * 2019-09-30 2022-06-17 哈尔滨工业大学 机器人操作臂的导引操纵系统及其柔顺操纵控制与示教学习方法
CN110992455B (zh) * 2019-12-08 2021-03-05 北京中科深智科技有限公司 一种实时表情捕捉系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201073550Y (zh) * 2007-04-19 2008-06-18 复旦大学 一种具有丰富运动自由度的智能服务机器人

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201073550Y (zh) * 2007-04-19 2008-06-18 复旦大学 一种具有丰富运动自由度的智能服务机器人

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴伟国等.仿人头像机器人_H_Frobot_语音及口形系统研制与实验.《机械设计》.2008,第25卷(第1期),16页第2段,16页最后1段至17页第1段,17页倒数第2段-18页第5段,图5. *
鹿麟.具有视觉的仿人头像机器人及人类表情识别与再现的研究.《具有视觉的仿人头像机器人及人类表情识别与再现的研究》.2006,第3页最后1段至第4页第1段,17页第2段至18页最后1段. *

Also Published As

Publication number Publication date
CN101458778A (zh) 2009-06-17

Similar Documents

Publication Publication Date Title
CN101458778B (zh) 一种仿人头像机器人的控制方法
CN101618280B (zh) 具有人机交互功能的仿人头像机器人装置及行为控制方法
CN104493827A (zh) 智能认知机器人及其认知系统
Sosnowski et al. Design and evaluation of emotion-display EDDIE
Spexard et al. Human-oriented interaction with an anthropomorphic robot
JP6505748B2 (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
CN101474481B (zh) 情感机器人系统
Berns et al. Control of facial expressions of the humanoid robot head ROMAN
CN108297098A (zh) 人工智能驱动的机器人控制系统及方法
Gorostiza et al. Multimodal human-robot interaction framework for a personal robot
CN1730135A (zh) 基于多处理器协作的智能表演机器人的控制系统
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
KR100813668B1 (ko) 안드로이드 로봇의 감정표현 방법
CN102699914A (zh) 一种机器人
KR20060079832A (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
Weiguo et al. Development of the humanoid head portrait robot system with flexible face and expression
CN106096716A (zh) 一种面部表情机器人多通道信息情感表达映射方法
CN111421536A (zh) 一种基于触觉信息的摇杆操作控制方法
Sosnowski et al. Eddie-an emotion-display with dynamic intuitive expressions
Vasylkiv et al. Automating behavior selection for affective telepresence robot
CN113319869B (zh) 具有情感交互功能的迎宾机器人系统
Fukuda et al. Human-robot mutual communication system
Wachsmuth et al. The robot head ‘Flobi’: a research platform for cognitive interaction technology
Qingmei et al. Research and experiment of lip coordination with speech for the humanoid head robot-“H&Frobot-III”
Hu et al. Implementation of voice interaction based on questions and answers for guide robot in exhibition hall

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant