CN111113445A - 一种机器人面部情感表达方法 - Google Patents

一种机器人面部情感表达方法 Download PDF

Info

Publication number
CN111113445A
CN111113445A CN201911380279.XA CN201911380279A CN111113445A CN 111113445 A CN111113445 A CN 111113445A CN 201911380279 A CN201911380279 A CN 201911380279A CN 111113445 A CN111113445 A CN 111113445A
Authority
CN
China
Prior art keywords
component
emotion
robot
eint
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911380279.XA
Other languages
English (en)
Inventor
义安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pali International Technology Shenzhen Co Ltd
Original Assignee
Pali International Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pali International Technology Shenzhen Co Ltd filed Critical Pali International Technology Shenzhen Co Ltd
Priority to CN201911380279.XA priority Critical patent/CN111113445A/zh
Publication of CN111113445A publication Critical patent/CN111113445A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人面部情感表达方法,涉及机器人技术领域,机器人包括头部组件、颈部组件、身体组件及扬声器,头部组件又包括头顶组件、面部组件及下巴组件,面部组件上设有两个显示屏,显示屏显示巩膜及眼皮部分,用于模拟眼睛,头顶组件下沿设有凹槽,用于代表左眼眉和右眼眉,情感表达方法具体包括:静态情感表达,动态情感表达,头部组件平移倾斜运动,声音变化及眼部变化,根据不同的情绪类型,五组不同情感表达相互结合,进而呈现不同的情绪类型。本发明通过控制巩膜、眼皮、眼眉、头顶及下巴的位置变化,呈现不同的面部表情,进而逼真的表达情感,进而提高机器人的情绪表达效果,增强了趣味性,并提高了用户体验。

Description

一种机器人面部情感表达方法
技术领域
本发明涉及机器人技术领域,特别涉及一种机器人面部情感表达方法。
背景技术
目前常见的交互机器人都是接受使用者的指挥,运行预先编辑的程序,或根据预先制定的行动规则,与使用者进行互动。交互机器人最重要的娱乐功能在于能够与使用者交互,而面部表情是情绪在面部的表现,是情绪表达的主要通道,但是,现有的机器人一般都是通过显示屏来表达情感,趣味性比较低,且情绪表达效果不好,不能给使用者带来较好的体验感。
发明内容
本发明其目的就在于提供一种生动可爱且具有丰富表情及情感的机器人面部情感表达方法。
实现上述目的而采取的技术方案如下:
一种机器人面部情感表达方法,其中,所述机器人包括头部组件、颈部组件、身体组件及扬声器,头部组件又包括头顶组件、面部组件及下巴组件,所述面部组件上设有两个显示屏,所述显示屏显示巩膜及眼皮部分,用于模拟眼睛,所述头顶组件下沿设有凹槽,用于代表左眼眉和右眼眉,所述情感表达方法具体包括:静态情感表达,动态情感表达,头部组件平移倾斜运动,声音变化及眼部变化,根据不同的情绪类型,五组不同情感表达相互结合,进而呈现不同的情绪类型。
优选地,所述静态情感表达,根据不同的情绪类型,控制所述显示屏中巩膜及眼皮的位置,以及头顶组件和下巴组件相对于面部组件的张开角度,所述头顶组件移动进而带动左眼眉和右眼眉相对所述显示屏移动,进而呈现不同的情绪类型。
优选地,所述动态情感表达,根据不同的情绪类型,控制眼皮活动的时间以及眼皮随机眨眼的时长,控制巩膜活动持续时间及巩膜随机位置变化时间,并通过控制头顶组件和下巴组件相对于面部组件的张开角度及时间,模拟呼吸状态,进而呈现不同的情绪类型。
优选地,所述头部组件平移倾斜运动,控制头部组件跟踪目标移动的速度、平移的范围、向上及向下倾斜运动的范围以及平移和倾斜移动的时间,进而呈现不同的情绪类型。
优选地,所述声音变化,设定一组基准值,根据不同的情绪类型,控制音量、音高及音速与各自基准值的变化幅值。
优选地,所述眼部变化,配合不同的情绪类型,通过控制巩膜及眼皮的位置,以及左眼眉和右眼眉的角度,使眼部呈现不同的凝视方向。
优选地,所述情绪类型包括恐惧、厌恶、惊喜、伤心、生气、开心及平静。
优选地,所述凝视方向包括上凝视、下凝视、左凝视及右凝视。
本发明提供的一种机器人面部情感表达方法,其有益效果在于:通过控制巩膜、眼皮、眼眉、头顶及下巴的位置变化,呈现不同的面部表情,进而逼真的表达情感,进而提高机器人的情绪表达效果,增强了趣味性,并提高了用户体验。
附图说明
图1为本发明实施例中机器人面部结构示意图;
图2为当机器人想表达恐惧时,面部变化示意图;
图3为当机器人想表达恐惧时,眼部变化示意图;
图4为当机器人想表达厌恶时,面部变化示意图;
图5为当机器人想表达厌恶时,眼部变化示意图;
图6为当机器人想表达惊喜时,面部变化示意图;
图7为当机器人想表达惊喜时,眼部变化示意图;
图8为当机器人想表达伤心时,面部变化示意图;
图9为当机器人想表达伤心时,眼部变化示意图;
图10为当机器人想表达生气时,面部变化示意图;
图11为当机器人想表达生气时,眼部变化示意图;
图12为当机器人想表达开心时,面部变化示意图;
图13为当机器人想表达开心时,眼部变化示意图;
图14为当机器人想表达平静时,面部变化示意图;
图15为当机器人想表达平静时,眼部变化示意图;
图16为当机器人右凝视时,眼部变化示意图;
图17为当机器人左凝视时,眼部变化示意图;
图18为当机器人上凝视时,眼部变化示意图;
图19为当机器人下凝视时,眼部变化示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明。在此需要说明的是,对于这些实施方式的说明用于帮助理解本发明,但并不构成对本发明的限定。此外,下面所描述的本发明各个实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互组合。
本实施例提出了一种机器人面部情感表达方法,其中,如图1所示,该机器人包括头部组件、颈部组件1、身体组件及扬声器,头部组件又包括头顶组件4、面部组件3及下巴组件2,面部组件4上设有两个显示屏5,显示屏5显示巩膜及眼皮部分,用于模拟眼睛,头顶组件下沿设有凹槽,用于代表左眼眉6和右眼眉7。
情感表达方法具体包括:静态情感表达,动态情感表达,头部组件平移倾斜运动,声音变化及眼部变化,根据不同的情绪类型,五组不同情感表达相互结合,进而呈现不同的情绪类型。
其中,静态情感表达,根据不同的情绪类型,控制所述显示屏中巩膜及眼皮的位置,以及头顶组件和下巴组件相对于面部组件的张开角度,头顶组件移动进而带动左眼眉和右眼眉相对所述显示屏移动,进而呈现不同的情绪类型。
动态情感表达,根据不同的情绪类型,控制眼皮活动的时间以及眼皮随机眨眼的时长,控制巩膜活动持续时间及巩膜随机位置变化时间,并通过控制头顶组件和下巴组件相对于面部组件的张开角度及时间,模拟呼吸状态,进而呈现不同的情绪类型。
头部组件平移倾斜运动,控制头部组件跟踪目标移动的速度、平移的范围、向上及向下倾斜运动的范围以及平移和倾斜移动的时间,进而呈现不同的情绪类型。
声音变化,设定一组基准值,根据不同的情绪类型,控制音量、音高及音速与各自基准值的变化幅值。
眼部变化,配合不同的情绪类型,通过控制巩膜及眼皮的位置,以及左眼眉和右眼眉的角度,使眼部呈现不同的凝视方向。
例如,当机器人想表达恐惧时,面部及眼部变化如图2、3所示,具体变化参数如下:
(一)静态情感表达
巩膜位置:(x:0,y:0)mm;
左眼眉角度:(Eint*-2)deg.;
左眼皮位置:(Eint*25)pt.;
右眼眉角度:(Eint*2)deg.;
右眼皮位置:(Eint*25)pt.;
头顶组件打开:(Eint)deg.;
下巴组件打开:(Eint)deg.。
(二)动态情感表达
眼皮活动持续时间:(0.5-Eint*0.3)s;
眼皮随机眨眼时长:(8-Eint*0.6)*rand(0.5...1)s;
巩膜活动持续时间:(0.5+Eint*0.04)s;
眼睛巩膜随机位置变化时间:(2-Eint*0.19)*rand(0.5...1)s;
机器人模仿呼吸:头顶组件及下巴组件沿相同方向运动;
运动幅度:12deg.;
运动周期:(4-Eint*0.25)s。
(三)头部组件平移倾斜运动
跟踪目标的平移倾斜速度:(30+Eint*2)deg./s;
随机平移范围:+/-rand(0...24)deg.;
随机向上倾斜运动范围:rand(0...10)deg.;
随机向下倾斜运动范围:rand(0...7)deg.;
随机平移倾斜运动时间:(5-Eint*0.33)*rand(0.5...1)s
(四)声音参数
音量:(基准值*(1-Eint*0.4)%;
音高:(基准值*+Eint*0.5)Hz;
音速:(基准值+Eint*1.5)%。
例如,当机器人想表达厌恶时,面部及眼部变化如图4、5所示,具体变化参数如下:
(一)静态情感表达
巩膜位置:(x:0,y:0)mm;
左眼眉角度:0deg.;
左眼皮位置:(Eint*-9)pt.;
右眼眉角度:0deg.;
右眼皮位置:(Eint*-4)pt.;
头顶组件打开:(0)deg.;
下巴组件打开:(Eint)deg.。
(二)动态情感表达
眼皮活动持续时间:(0.5+Eint*0.1)s;
眼皮随机眨眼时长:(8-Eint*0.6)*rand(0.5...1)s;
巩膜活动持续时间:(0.5-Eint*0.07)s;
眼睛巩膜随机位置变化时间:rand(1...2)s;
机器人模仿呼吸:无变化;
运动幅度:无变化;
运动周期:无变化。
(三)头部组件平移倾斜运动
跟踪目标的平移倾斜速度:(30-Eint*2)deg./s;
随机平移范围:+/-rand(0...80)deg.;
随机向上倾斜运动范围:rand(0...33)deg.;
随机向下倾斜运动范围:rand(0...24)deg.;
随机平移倾斜运动时间:(5+Eint*0.33)*rand(0.5...1)s
(四)声音参数
音量:(基准值)%;
音高:(基准值*-Eint*0.33)Hz;
音速:(基准值-Eint*1.5)%。
例如,当机器人想表达惊喜时,面部及眼部变化如图6、7所示,具体变化参数如下:
(一)静态情感表达
巩膜位置:(x:0,y:0)mm;
左眼眉角度:0deg.;
左眼皮位置:(Eint*5.5)pt.;
右眼眉角度:0deg.;
右眼皮位置:(Eint*5.5)pt.;
头顶组件打开:(Eint)deg.;
下巴组件打开:(-Eint)deg.。
(二)动态情感表达
眼皮活动持续时间:(0.5-Eint*0.03)s;
眼皮随机眨眼时长:(8-Eint*0.6)*rand(0.5...1)s;
巩膜活动持续时间:(0.5-Eint*0.04)s;
眼睛巩膜随机位置变化时间:rand(1...2)s;
机器人模仿呼吸:无变化;
运动幅度:无变化;
运动周期:无变化。
(三)头部组件平移倾斜运动
跟踪目标的平移倾斜速度:(30+Eint*2)deg./s;
随机平移范围:+/-rand(0...16)deg.;
随机向上倾斜运动范围:rand(0...6.6)deg.;
随机向下倾斜运动范围:rand(0...4.8)deg.;
随机平移倾斜运动时间:(5-Eint*0.33)*rand(0.5...1)s
(四)声音参数
音量:(基准值*(1+Eint*0.4)%;
音高:(基准值)Hz;
音速:(基准值+Eint*3)%。
例如,当机器人想表达伤心时,面部及眼部变化如图8、9所示,具体变化参数如下:
(一)静态情感表达
巩膜位置:(x:0,y:-Eint*0.15)mm;
左眼眉角度:(Eint*-2)deg.;
左眼皮位置:(Eint*-5)pt.;
右眼眉角度:(Eint*2)deg.;
右眼皮位置:(Eint*-5)pt.;
头顶组件打开:(Eint*-0.8)deg.;
下巴组件打开:(Eint*0.4)deg.。
(二)动态情感表达
眼皮活动持续时间:(0.5+Eint*0.04)s;
眼皮随机眨眼时长:(8+Eint*0.4)*rand(0.5...1)s;
巩膜活动持续时间:(0.5+Eint*0.04)s;
眼睛巩膜随机位置变化时间:rand(1...2)s;
机器人模仿呼吸:无变化;
运动幅度:无变化;
运动周期:无变化。
(三)头部组件平移倾斜运动
跟踪目标的平移倾斜速度:(30-Eint*1.2)deg./s;
随机平移范围:+/-rand(8...48)deg.;
随机向上倾斜运动范围:rand(3.3...20)deg.;
随机向下倾斜运动范围:rand(2.4...14.5)deg.;
随机平移倾斜运动时间:(5+Eint*0.33)*rand(0.5...1)s
(四)声音参数
音量:(基准值*(1-Eint*0.4)%;
音高:(基准值-Eint*0.5)Hz;
音速:(基准值+Eint*1.5)%。
例如,当机器人想表达生气时,面部及眼部变化如图10、11所示,具体变化参数如下:
(一)静态情感表达
巩膜位置:(x:0,y:0)mm;
左眼眉角度:(Eint*3)deg.;
左眼皮位置:(Eint*-2)pt.;
右眼眉角度:(Eint*-3)deg.;
右眼皮位置:(Eint*-2)pt.;
头顶组件打开:(-Eint)deg.;
下巴组件打开:(0)deg.。
(二)动态情感表达
眼皮活动持续时间:(0.5-Eint*0.02)s;
眼皮随机眨眼时长:(8-Eint*0.6)*rand(0.5...1)s;
巩膜活动持续时间:(0.5-Eint*0.04)s;
眼睛巩膜随机位置变化时间:(2-Eint*0.19)*rand(0.5...1)s;
机器人模仿呼吸:头顶组件及下巴组件沿相同方向运动;
运动幅度:12deg.;
运动周期:(4.5-Eint*0.25)s。
(三)头部组件平移倾斜运动
跟踪目标的平移倾斜速度:(30+Eint*2)deg./s;
随机平移范围:+/-rand(0...24)deg.;
随机向上倾斜运动范围:rand(0...10)deg.;
随机向下倾斜运动范围:rand(0...7)deg.;
随机平移倾斜运动时间:(5-Eint*0.2)*rand(0.5...1)s
(四)声音参数
音量:(基准值*(1+Eint*0.4)%;
音高:(基准值-Eint)Hz;
音速:(基准值+Eint*3)%。
例如,当机器人想表达开心时,面部及眼部变化如图12、13所示,具体变化参数如下:
(一)静态情感表达
巩膜位置:(x:0,y:0)mm;
左眼眉角度:-10deg.;
左眼皮位置:20pt.;
右眼眉角度:10deg.;
右眼皮位置:20pt.;
头顶组件打开:(Eint*0.3)deg.;
下巴组件打开:(Eint*-0.1)deg.。
(二)动态情感表达
眼皮活动持续时间:(0.5-Eint*0.02)s;
眼皮随机眨眼时长:(8-Eint*0.4)*rand(0.5...1)s;
巩膜活动持续时间:(0.5-Eint*0.02)s;
眼睛巩膜随机位置变化时间:rand(1...2)s;
机器人模仿呼吸:头顶组件及下巴组件沿相同方向运动;
运动幅度:12deg.;
运动周期:(3.5-Eint*0.1)s。
(三)头部组件平移倾斜运动
跟踪目标的平移倾斜速度:(30+Eint*2)deg./s;
随机平移范围:+/-rand(0...48)deg.;
随机向上倾斜运动范围:rand(0...20)deg.;
随机向下倾斜运动范围:rand(0...14.5)deg.;
随机平移倾斜运动时间:(5-Eint*0.1)*rand(0.5...1)s
(四)声音参数
音量:(基准值)%;
音高:(基准值)Hz;
音速:(基准值+Eint)%。
例如,当机器人想表达平静时,面部及眼部变化如图14、15所示,具体变化参数如下:
(一)静态情感表达
巩膜位置:(x:0,y:0)mm;
左眼眉角度:0deg.;
左眼皮位置:0pt.;
右眼眉角度:0deg.;
右眼皮位置:0pt.;
头顶组件打开:0deg.;
下巴组件打开:0deg.。
(二)动态情感表达
眼皮活动持续时间:(0.5)s;
眼皮随机眨眼时长:rand(4...8)s;
巩膜活动持续时间:(0.5)s;
眼睛巩膜随机位置变化时间:rand(1...2)s;
机器人模仿呼吸:头顶组件及下巴组件沿相反方向运动;
运动幅度:12deg.;
运动周期:(3.5)s。
(三)头部组件平移倾斜运动
跟踪目标的平移倾斜速度:(30)deg./s;
随机平移范围:+/-rand(8...48)deg.;
随机向上倾斜运动范围:rand(3.3...20)deg.;
随机向下倾斜运动范围:rand(2.4...14.5)deg.;
随机平移倾斜运动时间:rand(2.5...5)s
(四)声音参数
音量:(基准值)%;
音高:(基准值)Hz;
音速:(基准值)%。
例如,当凝视方向为右凝视,眼部变化如图16所示,具体变化参数如下:
巩膜位置:(x:7.5,y:0)mm;
眼皮位置:L+=x*1.6,R+=x*-1.6;
眼眉位置:L:+=x*-0.32,R:+=x*-0.32。
例如,当凝视方向为左凝视,眼部变化如图17所示,具体变化参数如下:
巩膜位置:(x:-7.5,y:0)mm;
眼皮位置:L+=x*1.6,R+=x*-1.6;
眼眉位置:L:+=x*-0.32,R:+=x*-0.32。
例如,当凝视方向为上凝视,眼部变化如图18所示,具体变化参数如下:
巩膜位置:(x:,y:7.5)mm;
眼皮位置:L+=y*1.6,R+=y*1.6;
眼眉位置:无变化。
例如,当凝视方向为下凝视,眼部变化如图19所示,具体变化参数如下:
巩膜位置:(x:,y:-7.5)mm;
眼皮位置:L+=y*1.6,R+=y*1.6;
眼眉位置:无变化。
以上结合附图对本发明的实施方式作了详细说明,但本发明不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本发明原理和精神的情况下,对这些实施方式进行多种变化、修改、替换和变型,仍落入本发明的保护范围内。

Claims (8)

1.一种机器人面部情感表达方法,其中,所述机器人包括头部组件、颈部组件、身体组件及扬声器,头部组件又包括头顶组件、面部组件及下巴组件,所述面部组件上设有两个显示屏,所述显示屏显示巩膜及眼皮部分,用于模拟眼睛,所述头顶组件下沿设有凹槽,用于代表左眼眉和右眼眉,其特征在于,所述情感表达方法具体包括:静态情感表达,动态情感表达,头部组件平移倾斜运动,声音变化及眼部变化,根据不同的情绪类型,五组不同情感表达相互结合,进而呈现不同的情绪类型。
2.根据权利要求1所述的一种机器人面部情感表达方法,其特征在于:所述静态情感表达,根据不同的情绪类型,控制所述显示屏中巩膜及眼皮的位置,以及头顶组件和下巴组件相对于面部组件的张开角度,所述头顶组件移动进而带动左眼眉和右眼眉相对所述显示屏移动,进而呈现不同的情绪类型。
3.根据权利要求1所述的一种机器人面部情感表达方法,其特征在于:所述动态情感表达,根据不同的情绪类型,控制眼皮活动的时间以及眼皮随机眨眼的时长,控制巩膜活动持续时间及巩膜随机位置变化时间,并通过控制头顶组件和下巴组件相对于面部组件的张开角度及时间,模拟呼吸状态,进而呈现不同的情绪类型。
4.根据权利要求1所述的一种机器人面部情感表达方法,其特征在于:所述头部组件平移倾斜运动,控制头部组件跟踪目标移动的速度、平移的范围、向上及向下倾斜运动的范围以及平移和倾斜移动的时间,进而呈现不同的情绪类型。
5.根据权利要求1所述的一种机器人面部情感表达方法,其特征在于:所述声音变化,设定一组基准值,根据不同的情绪类型,控制音量、音高及音速与各自基准值的变化幅值。
6.根据权利要求1所述的一种机器人面部情感表达方法,其特征在于:所述眼部变化,配合不同的情绪类型,通过控制巩膜及眼皮的位置,以及左眼眉和右眼眉的角度,使眼部呈现不同的凝视方向。
7.根据权利要求1-7任一所述的一种机器人面部情感表达方法,其特征在于:所述情绪类型包括恐惧、厌恶、惊喜、伤心、生气、开心及平静。
8.根据权利要求6所述的一种机器人面部情感表达方法,其特征在于:所述凝视方向包括上凝视、下凝视、左凝视及右凝视。
CN201911380279.XA 2019-12-27 2019-12-27 一种机器人面部情感表达方法 Pending CN111113445A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911380279.XA CN111113445A (zh) 2019-12-27 2019-12-27 一种机器人面部情感表达方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911380279.XA CN111113445A (zh) 2019-12-27 2019-12-27 一种机器人面部情感表达方法

Publications (1)

Publication Number Publication Date
CN111113445A true CN111113445A (zh) 2020-05-08

Family

ID=70504248

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911380279.XA Pending CN111113445A (zh) 2019-12-27 2019-12-27 一种机器人面部情感表达方法

Country Status (1)

Country Link
CN (1) CN111113445A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643584A (zh) * 2021-08-16 2021-11-12 中国人民解放军陆军特色医学中心 一种用于训练医患沟通能力的机器人及其工作方法
CN113910231A (zh) * 2021-10-15 2022-01-11 上海电机学院 一种机器人面部表情实现机构及控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090020417A (ko) * 2007-08-23 2009-02-26 전수연 완구 로봇
KR20170046507A (ko) * 2015-10-21 2017-05-02 김지연 자폐아 상담 치료용 감정 표현 로봇
CN107745386A (zh) * 2017-10-12 2018-03-02 北京搜狗科技发展有限公司 一种眼部装置、机器人和显示方法
CN110394810A (zh) * 2019-07-29 2019-11-01 永嘉县信达智能设备制造有限公司 一种仿真机器人脸部结构

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090020417A (ko) * 2007-08-23 2009-02-26 전수연 완구 로봇
KR20170046507A (ko) * 2015-10-21 2017-05-02 김지연 자폐아 상담 치료용 감정 표현 로봇
CN107745386A (zh) * 2017-10-12 2018-03-02 北京搜狗科技发展有限公司 一种眼部装置、机器人和显示方法
CN110394810A (zh) * 2019-07-29 2019-11-01 永嘉县信达智能设备制造有限公司 一种仿真机器人脸部结构

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643584A (zh) * 2021-08-16 2021-11-12 中国人民解放军陆军特色医学中心 一种用于训练医患沟通能力的机器人及其工作方法
CN113910231A (zh) * 2021-10-15 2022-01-11 上海电机学院 一种机器人面部表情实现机构及控制方法
CN113910231B (zh) * 2021-10-15 2024-03-26 上海电机学院 一种机器人面部表情实现机构及控制方法

Similar Documents

Publication Publication Date Title
Sartorato et al. Improving therapeutic outcomes in autism spectrum disorders: Enhancing social communication and sensory processing through the use of interactive robots
CN110103234B (zh) 一种仿人面部表情机器人
JP7177497B2 (ja) 相手を見つめる自律行動型ロボット
CN111113445A (zh) 一种机器人面部情感表达方法
CN105487678A (zh) 一种虚拟现实系统及其实现方法、心理治疗系统
JP2003265869A (ja) ロボットの目・眉機構
Bazo et al. Design and testing of a hybrid expressive face for a humanoid robot
CN108143596A (zh) 一种头戴式视觉训练仪、系统及训练方法
Tsalamlal et al. Affective handshake with a humanoid robot: How do participants perceive and combine its facial and haptic expressions?
Legeny et al. Toward contextual SSVEP-based bci controller: smart activation of stimuli and control weighting
CN115533932A (zh) 多运动控制点表情机器人的机械结构
Doroftei et al. Facial expressions recognition with an emotion expressive robotic head
CN205540564U (zh) 一种虚拟现实系统及心理治疗系统
CN210025312U (zh) 一种仿人面部表情机器人
WO2019208732A1 (ja) 表情可変ロボット
US7533987B2 (en) Method for exercising eye muscle
WO2023037623A1 (ja) リハビリテーション支援装置、その方法およびプログラム
KR102561740B1 (ko) 시야각 확대용 안구운동장치 및 이를 이용한 안구운동방법
US20210308594A1 (en) Figure Expression Using a Multi-Axis Control
Sparrow Fading light and sluggish flight: A two-dimensional model of consciousness in lucid dreams
CN201664403U (zh) 具有视觉训练功能的镜架
CN202342405U (zh) 一种治疗各种屈光异常、弱视、眼球移动障碍和眼肌痉挛等疾病的医疗器械
CN205766181U (zh) 一种仿真机器人
CN114872036B (zh) 一种基于仿生原理的机器人眼-头协同注视行为控制方法
Prashanth et al. Minimalist mechanical design and characterization of an android for human robot interaction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200508

RJ01 Rejection of invention patent application after publication