CN113808623A - 一种可以供盲人使用的情绪识别眼镜 - Google Patents
一种可以供盲人使用的情绪识别眼镜 Download PDFInfo
- Publication number
- CN113808623A CN113808623A CN202111102015.5A CN202111102015A CN113808623A CN 113808623 A CN113808623 A CN 113808623A CN 202111102015 A CN202111102015 A CN 202111102015A CN 113808623 A CN113808623 A CN 113808623A
- Authority
- CN
- China
- Prior art keywords
- module
- micro
- emotion
- expression
- glasses
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011521 glass Substances 0.000 title claims abstract description 44
- 230000008909 emotion recognition Effects 0.000 title claims description 33
- 230000014509 gene expression Effects 0.000 claims abstract description 51
- 230000008451 emotion Effects 0.000 claims abstract description 39
- 230000008921 facial expression Effects 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000002996 emotional effect Effects 0.000 claims description 11
- 238000010195 expression analysis Methods 0.000 claims description 7
- 230000007613 environmental effect Effects 0.000 claims description 3
- 210000004709 eyebrow Anatomy 0.000 claims 1
- 230000001771 impaired effect Effects 0.000 abstract description 24
- 230000036651 mood Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 4
- 230000005611 electricity Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种可以供盲人使用的情绪识别眼镜,包括:眼镜,眼镜上设置有图像捕捉模块和微表情获取模块,图像捕捉模块和微表情获取模块分别能够采集人物面部表情和微表情,处理模块,处理模块与图像捕捉模块和微表情获取模块电连接,处理模块能够根据采集的人物面部表情和微表情识别出对应人物的情绪信息,情绪反馈模块,情绪反馈模块用于接收所述情绪信息,该可以供盲人使用的情绪识别眼镜通过表情与微表情识别分析,能够实时向视障用户反馈对方的情绪信息,及时、高效的帮忙视障者更好的独立社交。
Description
技术领域
本发明属于视障者辅助产品技术领域,更具体地,涉及一种可以供盲人使用的情绪识别眼镜。
背景技术
当前的视障者辅助产品中,关注于视障者在社交中的情绪识别领域的比较少,由于涉及领域不够广泛,使用起来也比较麻烦,而视障者由于在视觉的缺陷,在社交中,并不能像正常人那样比较好的跟社交对象进行交流,并且从对方的面部表情来识别对象在沟通中的情绪变化。
发明内容
本发明的目的是针对现有技术中存在的不足,提供一种可以供盲人使用的情绪识别眼镜,该可以供盲人使用的情绪识别眼镜通过表情与微表情识别分析,能够实时向视障用户反馈对方的情绪信息,及时、高效的帮忙视障者更好的独立社交。
为了实现上述目的,本发明提供一种可以供盲人使用的情绪识别眼镜,包括:
眼镜,所述眼镜上设置有图像捕捉模块和微表情获取模块,所述图像捕捉模块和所述微表情获取模块分别能够采集人物面部表情和微表情;
处理模块,所述处理模块与所述图像捕捉模块和所述微表情获取模块电连接,所述处理模块能够根据采集的人物面部表情和微表情识别出对应人物的情绪信息;
情绪反馈模块,所述情绪反馈模块用于接收所述情绪信息。
可选地,还包括语音信息获取模块,所述语音信息获取模块能够采集声音信息,所述声音信息包括语速、语调和声音大小,所述处理模块与所述语音信息获取模块电连接,所述处理模块根据采集的人物面部表情和微表情配合声音信息识别出对应人物的情绪信息。
可选地,所述图像捕捉模块还能够采集环境背景和身体语言。
可选地,还包括数据库单元,所述数据库单元包括面部表情数据、微表情数据、语音数据和历史人物数据。
可选地,所述处理模块包括图像识别模块、语音和语义识别模块、微表情识别模块和情绪综合分析模块;
所述图像对比模块用于将人物面部表情与所述面部表情数据对比,所述语音和语义对比模块用于将声音信息与所述语音数据对比,所述微表情对比模块用于将微表情与所述微表情数据进行对比,所述图像识别模块、所述语音和语义识别模块、所述微表情识别模块的识别比对结果输入所述情绪综合分析模块进行分析。
可选地,所述眼镜包括镜框和镜腿,所述镜框的鼻梁处设置有与所述图像捕捉模块和所述微表情获取模块电连接的摄像头,所述镜框的眉梢处设置有与所述语音信息获取模块电连接的收音器,所述镜腿上设置有与所述处理单元电连接的播音器,能够播报所述处理单元的分析结果。
可选地,所述镜腿上还设置有调节开关,所述调节开关能够调节所述播音器的播报音量。
可选地,所述镜框上还设置有电源键。
可选地,所述情绪综合分析模块进行分析包括:
根据面部表情数据进行面部表情分析,得出第一分析结果;
根据第一分析结果和语音数据进行声音信息分析,得出第二分析结果;
根据微表情数据进行微表情分析,得出第三分析结果;
将所述第二分析结果和所述第三分析结果进行比对,得出最终结果;
所述第一分析结果、所述第二分析结果和所述第三分析结果通过比例形式输出,综合比例最高的为所述最终结果。
可选地,所述处理模块能够根据所述图像捕捉模块自动捕捉对象,且优先捕捉历史人物数据中有记载的对象。
本发明提供一种可以供盲人使用的情绪识别眼镜,其有益效果在于:
1、该可以供盲人使用的情绪识别眼镜通过表情与微表情识别分析,能够实时向视障用户反馈对方的情绪信息,及时、高效的帮忙视障者更好的独立社交。
2、该可以供盲人使用的情绪识别眼镜使用便利、操作简单,通过语音的方式传达给视障者,解决了部分视障者是由于后天视觉缺失,不懂盲文的现状,减轻视障者在独立社交中的负担。
3、该可以供盲人使用的情绪识别眼镜,帮助视障者进行更好的社交,一定程度上避免了由于视觉缺失,导致被欺骗、语言冲突,识别出异常情绪。
4、该可以供盲人使用的情绪识别眼镜通过数据库单元的技术模型进一步优化,能够应用于视障者学习生活,在精确性、灵敏性、可操作性、经济性等方面有较高的应用价值。
5、该可以供盲人使用的情绪识别眼镜的造型跟普通眼镜相似,携带方便,且不会引起他人异样的眼光。
本发明的其它特征和优点将在随后具体实施方式部分予以详细说明。
附图说明
通过结合附图对本发明示例性实施方式进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显,其中,在本发明示例性实施方式中,相同的参考标号通常代表相同部件。
图1示出了根据本发明的一个实施例的一种可以供盲人使用的情绪识别眼镜的结构示意图。
图2示出了根据本发明的一个实施例的一种可以供盲人使用的情绪识别眼镜的原理图。
附图标记说明:
1、眼镜;2、摄像头;3、收音器;4、电源键;5、调节开关。
具体实施方式
下面将更详细地描述本发明的优选实施方式。虽然以下描述了本发明的优选实施方式,然而应该理解,可以以各种形式实现本发明而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本发明更加透彻和完整,并且能够将本发明的范围完整地传达给本领域的技术人员。
图1示出了根据本发明的一个实施例的一种可以供盲人使用的情绪识别眼镜的结构示意图;图2示出了根据本发明的一个实施例的一种可以供盲人使用的情绪识别眼镜的原理图。
如图1-2所示,一种可以供盲人使用的情绪识别眼镜,包括:
眼镜1,眼镜1上设置有图像捕捉模块和微表情获取模块,图像捕捉模块和微表情获取模块能够采集人物面部表情和微表情;
处理模块,处理模块与图像捕捉模块和微表情获取模块电连接,处理模块能够根据采集的人物面部表情和微表情识别出对应人物的情绪信息,;
情绪反馈模块,情绪反馈模块用于接收情绪信息。
具体的,人物情绪信息包括开心、难过、生气、尴尬、恐惧、说谎、真诚、紧迫、平静;
情绪反馈模块为播音器,通过处理模块、图像捕捉模块和微表情获取模块集成在眼镜1上方便视障者随身携带使用,隐蔽方便,通过处理模块根据采集的人物面部表情和微表情识别出对应人物的情绪信息,方便视障人员及时掌握对象的情绪变化,提高双方的沟通效率,更好的方便视障人员独立社交,通过播音器播报识别结果。
进一步,处理模块根据采集的人物面部表情和微表情配合声音信息识别出对应人物的情绪信息包括利用虚拟技术结合声音信息、人物面部表情和微表情与数据库单元进行比对分析,识别对象的图像与语言信息,进行分析确定对象的情绪。
在本实施例中,还包括语音信息获取模块,语音信息获取模块能够采集声音信息,声音信息包括语速、语调和声音大小,处理模块与语音信息获取模块电连接,处理模块根据采集的人物面部表情和微表情配合声音信息识别出对应人物的情绪信息。
具体的,通过人物面部表情和微表情结合语速、语调和声音大小的变化确认对象的情绪状态,提高识别准确性。例如紧迫时声音变大,语速加快。
在本实施例中,图像捕捉模块还能够采集环境背景和身体语言。
具体的,通过结合环境背景分析现场状况,并通过肢体动作的身体语言结合心理学进行分析,适应多人物的套论交流环境使用,有效分析出情绪发泄对象,确认相应情绪对象,避免识别错误。
在本实施例中,还包括数据库单元,数据库单元包括面部表情数据、微表情数据、语音数据和历史人物数据。
具体的,通过数据库单元储存相应比对文件,同时利用历史人物数据记录熟人信息,方便熟人之间交流,降低运算负担。
在本实施例中,处理模块包括图像识别模块、语音和语义识别模块、微表情识别模块和情绪综合分析模块;
图像对比模块用于将人物面部表情与面部表情数据对比,语音和语义对比模块用于将声音信息与语音数据对比,微表情对比模块用于将微表情与微表情数据进行对比,图像识别模块、语音和语义识别模块、微表情识别模块的识别比对结果输入情绪综合分析模块进行分析。
具体的,情绪综合分析模块结合图像识别模块、语音和语义识别模块、微表情识别模块的识别结果进行综合判定,提高判定准确度。
在本实施例中,眼镜1包括镜框和镜腿,镜框的鼻梁处设置有与图像捕捉模块和微表情获取模块电连接的摄像头2,镜框的眉梢处设置有与语音信息获取模块电连接的收音器3,镜腿上设置有与处理单元电连接的播音器,能够播报处理单元的分析结果。
具体的,通过摄像头2和收音器3采集影音用于分析,通过播音器播报分析结果。
进一步,播音器为骨传导耳机,能够及时隐蔽的传递分析结果,避免外放声音引起对象尴尬。
在本实施例中,镜腿上还设置有调节开关5,调节开关5能够调节播音器的播报音量。
在本实施例中,镜框上还设置有电源键4。
具体的,通过电源键4控制处理模块的启闭,节约电能。
在本实施例中,情绪综合分析模块进行分析包括:
根据面部表情数据进行面部表情分析,得出第一分析结果;
根据第一分析结果和语音数据进行声音信息分析,得出第二分析结果;
根据微表情数据进行微表情分析,得出第三分析结果;
将第二分析结果和第三分析结果进行比对,得出最终结果;
第一分析结果、第二分析结果和第三分析结果通过比例形式输出,综合比例最高的为最终结果。
具体的,通过情绪综合分析模块综合分析面部表情、声音信息和微表情的分析判断结果,通过三个结果相互验证进行最终判定,提高准确性,避免单一信息判定出现识别错误。
进一步,能够预先进行实验,分析三种条件下,对于情绪识别的判断是否统一,设置误差值的比例。首先根据数据库单元结合不同的面部图像,先通过面部图像跟数据库单元对比进行分析,得出情绪可能性占比;其次根据上下文语义进行判断得出情绪可能性占比;最后根据微表情对比得出情绪可能性占比。综合三类情绪识别占比综合分析,得出最终占比。占比率最高的即为当下情绪识别结果。
在本实施例中,处理模块能够根据图像捕捉模块捕捉对象,且优先捕捉历史人物数据中有记载的对象。
具体的,通过历史人物数据方便快速识别熟人,有效从人群中锁定对象,适应多人交流见面使用。
本实施例可以供盲人使用的情绪识别眼镜使用时,以使用者和对象二人对话为例,启动眼镜后,摄像头和收音器实时收集现场信息,图像捕捉模块和微表情获取模块通过摄像头采集环境背景、身体语言、人物面部表情和微表情,语音信息获取模块通过收音器采集对象的语速、语调和声音大小,处理模块根据采集的信息进行分析判断,确认对象的情绪拨动变化,并在变化时通过播音器进行播报,方便使用者判断对象情绪,以及及时调整谈话。例如:
1.通过摄像头结合图像捕捉模块和微表情获取模块捕捉沟通对象的面部表情(包括正面和侧面)和微表情,同时通过收音器和语音信息获取模块采集声音信息,通过数据库单元进行文本语义对比分析,结合面部表情对比分析,以及微表情数据库单元对照分析,通过三种识别方式的有机统一分析,更加准确的定位被捕捉用户的情绪状态;
2.运用虚拟技术进行数据比对后的场景模拟综合分析,结合环境背景,通过场景模拟分析出社交对象的情绪状态以及最佳的沟通方式,实时反馈给视障者以便进行最佳的沟通交流调动;
3.语音反馈:通过语音实时反馈交流对象的情绪反应,视障者通过语音的反馈,及时调整自己的沟通表达,帮助视障者在独立的情况下进行更好的社交。
4.除了传统的情绪识别,还包括微表情分析,通过微表情识别分析,能够帮忙视障者识别社交对象的潜在情绪、潜在意识,如同为视障者提供了一双接近真实的“眼睛”。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。
Claims (10)
1.一种可以供盲人使用的情绪识别眼镜,其特征在于,包括:
眼镜,所述眼镜上设置有图像捕捉模块和微表情获取模块,所述图像捕捉模块和所述微表情获取模块分别能够采集人物面部表情和微表情;
处理模块,所述处理模块与所述图像捕捉模块和所述微表情获取模块电连接,所述处理模块能够根据采集的人物面部表情和微表情识别出对应人物的情绪信息;
情绪反馈模块,所述情绪反馈模块用于接收所述情绪信息。
2.根据权利要求1所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,还包括语音信息获取模块,所述语音信息获取模块能够采集声音信息,所述声音信息包括语速、语调和声音大小,所述处理模块与所述语音信息获取模块电连接,所述处理模块根据采集的人物面部表情和微表情配合声音信息识别出对应人物的情绪信息。
3.根据权利要求2所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,所述图像捕捉模块还能够采集环境背景和身体语言。
4.根据权利要求3所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,还包括数据库单元,所述数据库单元包括面部表情数据、微表情数据、语音数据和历史人物数据。
5.根据权利要求4所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,所述处理模块包括图像识别模块、语音和语义识别模块、微表情识别模块和情绪综合分析模块;
所述图像对比模块用于将人物面部表情与所述面部表情数据对比,所述语音和语义对比模块用于将声音信息与所述语音数据对比,所述微表情对比模块用于将微表情与所述微表情数据进行对比,所述图像识别模块、所述语音和语义识别模块、所述微表情识别模块的识别比对结果输入所述情绪综合分析模块进行分析。
6.根据权利要求1所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,所述眼镜包括镜框和镜腿,所述镜框的鼻梁处设置有与所述图像捕捉模块和所述微表情获取模块电连接的摄像头,所述镜框的眉梢处设置有与所述语音信息获取模块电连接的收音器,所述镜腿上设置有与所述处理单元电连接的播音器,能够播报所述处理单元的分析结果。
7.根据权利要求6所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,所述镜腿上还设置有调节开关,所述调节开关能够调节所述播音器的播报音量。
8.根据权利要求6所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,所述镜框上还设置有电源键。
9.根据权利要求5所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,所述情绪综合分析模块进行分析包括:
根据面部表情数据进行面部表情分析,得出第一分析结果;
根据第一分析结果和语音数据进行声音信息分析,得出第二分析结果;
根据微表情数据进行微表情分析,得出第三分析结果;
将所述第二分析结果和所述第三分析结果进行比对,得出最终结果;
所述第一分析结果、所述第二分析结果和所述第三分析结果通过比例形式输出,综合比例最高的为所述最终结果。
10.根据权利要求4所述的一种可以供盲人使用的情绪识别眼镜,其特征在于,所述处理模块能够根据所述图像捕捉模块自动捕捉对象,且优先捕捉历史人物数据中有记载的对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111102015.5A CN113808623A (zh) | 2021-09-18 | 2021-09-18 | 一种可以供盲人使用的情绪识别眼镜 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111102015.5A CN113808623A (zh) | 2021-09-18 | 2021-09-18 | 一种可以供盲人使用的情绪识别眼镜 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113808623A true CN113808623A (zh) | 2021-12-17 |
Family
ID=78895978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111102015.5A Pending CN113808623A (zh) | 2021-09-18 | 2021-09-18 | 一种可以供盲人使用的情绪识别眼镜 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808623A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220591A (zh) * | 2017-04-28 | 2017-09-29 | 哈尔滨工业大学深圳研究生院 | 多模态智能情绪感知系统 |
CN107705808A (zh) * | 2017-11-20 | 2018-02-16 | 合光正锦(盘锦)机器人技术有限公司 | 一种基于面部特征与语音特征的情绪识别方法 |
CN109711300A (zh) * | 2018-12-18 | 2019-05-03 | 深圳壹账通智能科技有限公司 | 盲人辅助沟通方法、装置、计算机设备和存储介质 |
CN209803481U (zh) * | 2019-05-05 | 2019-12-17 | 南京交通职业技术学院 | 一种具有面部表情识别的智能盲人眼镜 |
CN110991238A (zh) * | 2019-10-30 | 2020-04-10 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 一种基于语音情感分析和微表情识别的演讲辅助系统 |
WO2020175969A1 (ko) * | 2019-02-28 | 2020-09-03 | 주식회사 하가 | 감정 인식 장치 및 감정 인식 방법 |
-
2021
- 2021-09-18 CN CN202111102015.5A patent/CN113808623A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220591A (zh) * | 2017-04-28 | 2017-09-29 | 哈尔滨工业大学深圳研究生院 | 多模态智能情绪感知系统 |
CN107705808A (zh) * | 2017-11-20 | 2018-02-16 | 合光正锦(盘锦)机器人技术有限公司 | 一种基于面部特征与语音特征的情绪识别方法 |
CN109711300A (zh) * | 2018-12-18 | 2019-05-03 | 深圳壹账通智能科技有限公司 | 盲人辅助沟通方法、装置、计算机设备和存储介质 |
WO2020175969A1 (ko) * | 2019-02-28 | 2020-09-03 | 주식회사 하가 | 감정 인식 장치 및 감정 인식 방법 |
CN209803481U (zh) * | 2019-05-05 | 2019-12-17 | 南京交通职业技术学院 | 一种具有面部表情识别的智能盲人眼镜 |
CN110991238A (zh) * | 2019-10-30 | 2020-04-10 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 一种基于语音情感分析和微表情识别的演讲辅助系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108000526B (zh) | 用于智能机器人的对话交互方法及系统 | |
US9436887B2 (en) | Apparatus and method for automatic action selection based on image context | |
CN110349667B (zh) | 结合调查问卷及多模态范式行为数据分析的孤独症评估系统 | |
US20160026871A1 (en) | Obtaining information from an environment of a user of a wearable camera system | |
CN110991238B (zh) | 一种基于语音情感分析和微表情识别的演讲辅助系统 | |
CN111368053B (zh) | 基于法律咨询机器人的情绪安抚系统 | |
CN108009490A (zh) | 一种基于识别情绪的聊天机器人系统及该系统的判断方法 | |
CN112016367A (zh) | 一种情绪识别系统、方法及电子设备 | |
KR102263154B1 (ko) | 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법 | |
CN111931608A (zh) | 基于学生姿态以及学生人脸识别的操行管理的方法和系统 | |
CN109934097A (zh) | 一种基于人工智能的表情和心理健康管理系统 | |
CN116524791A (zh) | 一种基于元宇宙的唇语学习辅助训练系统及其应用 | |
JP4845183B2 (ja) | 遠隔対話方法及び装置 | |
CN113808623A (zh) | 一种可以供盲人使用的情绪识别眼镜 | |
CN110491384B (zh) | 一种语音数据处理方法及装置 | |
WO2020175969A1 (ko) | 감정 인식 장치 및 감정 인식 방법 | |
US20050131697A1 (en) | Speech improving apparatus, system and method | |
CN111128180A (zh) | 一种听力障碍者的辅助对话系统 | |
CN112017495A (zh) | 一种基于学习终端的信息交互方法和系统 | |
Bhuiyan et al. | An Assistance System for Visually Challenged People Based on Computer Vision and IOT | |
CN110046867A (zh) | 人脸识别点名装置及方法 | |
Khan et al. | Sign language translation in urdu/hindi through microsoft kinect | |
CN108733215A (zh) | 一种拟人化虚拟助手注视方向控制方法 | |
CN114492579A (zh) | 情绪识别方法、摄像装置、情绪识别装置及存储装置 | |
CN112183216A (zh) | 一种用于残障人士沟通的辅助系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211217 |