CN117635383A - 一种虚拟导师与多人协作口才培训系统、方法及设备 - Google Patents
一种虚拟导师与多人协作口才培训系统、方法及设备 Download PDFInfo
- Publication number
- CN117635383A CN117635383A CN202311616906.1A CN202311616906A CN117635383A CN 117635383 A CN117635383 A CN 117635383A CN 202311616906 A CN202311616906 A CN 202311616906A CN 117635383 A CN117635383 A CN 117635383A
- Authority
- CN
- China
- Prior art keywords
- expression
- talent
- virtual
- facial expression
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 120
- 238000012549 training Methods 0.000 title claims abstract description 46
- 230000014509 gene expression Effects 0.000 claims abstract description 197
- 230000008921 facial expression Effects 0.000 claims abstract description 110
- 238000004458 analytical method Methods 0.000 claims abstract description 88
- 230000008451 emotion Effects 0.000 claims abstract description 65
- 230000006872 improvement Effects 0.000 claims abstract description 59
- 238000005516 engineering process Methods 0.000 claims abstract description 45
- 238000004088 simulation Methods 0.000 claims abstract description 22
- 238000007726 management method Methods 0.000 claims abstract description 13
- 238000011156 evaluation Methods 0.000 claims abstract description 9
- 238000010195 expression analysis Methods 0.000 claims description 23
- 230000002996 emotional effect Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 12
- 238000013523 data management Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 description 50
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 10
- 238000012423 maintenance Methods 0.000 description 10
- 238000013518 transcription Methods 0.000 description 8
- 230000035897 transcription Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000013024 troubleshooting Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 210000004709 eyebrow Anatomy 0.000 description 5
- 210000001097 facial muscle Anatomy 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 208000019901 Anxiety disease Diseases 0.000 description 3
- 230000036506 anxiety Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000008713 feedback mechanism Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Multimedia (AREA)
- Educational Technology (AREA)
- General Engineering & Computer Science (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Game Theory and Decision Science (AREA)
- Primary Health Care (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明提供了一种虚拟导师与多人协作口才培训系统、方法及设备,涉及口才培训领域,该系统包括:用户管理与个性化设置模块,用于设置用户的个人需求,上传口才表达视频;虚拟导师与情感分析模块,用于利用VR技术生成虚拟导师,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案;所述语音信息包括语速、语调以及发音;多人协作与口才表达模拟模块,用于观摩其他用户的口才表达视频并提供评估和反馈,分享自己的口才表达经验和技巧。本发明克服了时间和地点限制,降低了培训成本,减少了对导师的依赖性,使学员可以随时随地进行个性化的口才表达。
Description
技术领域
本发明涉及口才培训领域,特别是涉及一种虚拟导师与多人协作口才表达培训系统、方法及设备。
背景技术
在传统的口才培训方法中,学员通常需要通过参加实体培训班或与导师进行面对面的指导来提升口才表达技巧和口才表达能力。然而,这种方法存在一些局限性,如时间和地点限制、高昂的培训成本以及对导师的依赖性。
发明内容
本发明的目的是提供一种虚拟导师与多人协作口才培训系统、方法及设备,以解决传统的口才培训方式时间地点限制、培训成本高以及对导师依赖性强的问题。
为实现上述目的,本发明提供了如下方案:
一种虚拟导师与多人协作口才培训系统,包括:
用户管理与个性化设置模块,用于设置用户的个人需求,上传口才表达视频;
虚拟导师与情感分析模块,用于利用VR技术生成虚拟导师,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案;所述语音信息包括语速、语调以及发音;
多人协作与口才表达模拟模块,用于观摩其他用户的口才表达视频并提供评估和反馈,分享自己的口才表达经验和技巧。
可选的,所述虚拟导师与情感分析模块,具体包括:
语义信息以及情感状态获取单元,用于获取所述口才表达视频的语义信息以及情感状态;
匹配及调取单元,用于根据所述语义信息以及所述情感状态调取口才表达技巧库和知识库中与所述口才表达视频匹配的标准语音信息和标准面部表情;
语音改进方案生成模块,用于利用语音分析技术,对比所述用户的语音信息以及所述标准语音信息,生成语音改进方案;
面部表情改进方案生成模块,用于利用所述面部表情分析技术,对比所述用户的面部表情以及所述标准面部表情,生成面部表情改进方案。
可选的,所述语义信息以及情感状态获取单元,具体包括:
语义信息以及情感状态获取子单元,用于将所述口才表达视频输入至神经网络模型中,输出语义信息以及情感状态。
可选的,所述多人协作与口才表达模拟模块,具体包括:
在线模拟单元,用于多人在线观摩在线其他用户的当前口才表达视频,并实时提供评估和反馈,针对所述当前口才表达视频中的语音信息和面部表情分享自己的口才表达经验和技巧,显示用户之间的评估和反馈以及口才表达经验和技巧;
离线模拟单元,用于观摩其他用户上传的口才表达视频,将评估和反馈以及自己的口才表达经验和技巧发送至其他用户的客户端。
可选的,还包括:
技术支持与数据管理模块,用于更新软件、系统维护以及排除故障。
一种虚拟导师与多人协作口才培训方法,包括:
设置用户的个人需求,上传口才表达视频;
利用VR技术生成虚拟导师,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案;所述语音信息包括语速、语调以及发音;
观摩其他用户的口才表达视频并提供评估和反馈,分享自己的口才表达经验和技巧。
可选的,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案,具体包括:
获取所述口才表达视频的语义信息以及情感状态;
根据所述语义信息以及所述情感状态调取口才表达技巧库和知识库中与所述口才表达视频匹配的标准语音信息和标准面部表情;
利用语音分析技术,对比所述用户的语音信息以及所述标准语音信息,生成语音改进方案;
利用所述面部表情分析技术,对比所述用户的面部表情以及所述标准面部表情,生成面部表情改进方案。
可选的,获取所述口才表达视频的语义信息以及情感状态,具体包括:
将所述口才表达视频输入至神经网络模型中,输出语义信息以及情感状态。
一种电子设备,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行上述虚拟导师与多人协作口才培训方法。
一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时实现上述虚拟导师与多人协作口才培训方法。
根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明提供了一种虚拟导师与多人协作口才培训系统、方法及设备,利用VR技术利用VR技术生成虚拟导师,可以在任何时间和地点通过虚拟环境进行口才培训,克服了时间和地点限制,线上就能够学习,降低了培训成本;此外,根据用户的口才表达视频从而针对性的提供技巧改进方案,减少了对导师的依赖性,使学员可以随时随地进行个性化的口才培训。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所提供的虚拟导师与多人协作口才培训系统结构图;
图2为本发明所提供的虚拟导师与多人协作口才培训方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种虚拟导师与多人协作口才培训系统、方法及设备,以解决传统的口才培训方式时间地点限制、培训成本高以及对导师依赖性强的问题。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供了一种虚拟导师与多人协作口才培训系统,包括:
用户管理与个性化设置模块1,用于设置用户的个人需求,上传口才表达视频。
在实际应用中,所述用户管理与个性化设置模块1具体包括:
用户注册和登录:学员可以通过注册账号和登录系统来访问个人信息和使用虚拟导师与多人协作口才培训系统(以下简称系统)的功能。用户管理与个性化设置模块1确保学员的身份和权限,使他们能够享受到个性化的学习体验。
用户信息管理:学员可以在系统中管理个人信息,如姓名、年龄、联系方式等。这些信息有助于系统提供更精确的个性化指导,针对学员的特定需求和目标进行指导。
学习目标设置:学员可以设定自己的学习目标,如应用场景、提高自信、改善语音表达、增强口才表达技巧等。系统根据这些目标为学员提供定制化的学习计划和建议,帮助他们实现目标。
根据设定的学习目标,系统可以利用学员提供的信息和先进的人工智能技术,为学员提供定制化的学习计划和建议。以下是系统如何实现定制化学习计划和建议的步骤:
1.目标分析和评估:系统首先对学员的学习目标进行分析和评估。这可以包括对学员提供的目标描述进行自然语言处理,识别目标的具体内容和关键要素。
2.学习需求识别:系统根据目标分析结果,进一步识别学员的学习需求。通过对目标的解析和对学员的个人信息进行匹配和分析,系统能够确定学员在口才表达技巧和口才表达方面的具体需求。
3.学习资源匹配:系统根据学员的学习需求,从系统中的学习资源库中筛选和匹配适合的学习材料和资源。这些资源可以包括口才表达技巧教程、范例口才表达视频、口才训练练习等。
4.个性化学习计划:基于学员的目标和需求,系统生成个性化的学习计划。学习计划可以包括建议的学习时间表、学习内容和学习任务,帮助学员合理安排学习时间和逐步提升口才表达技巧。
5.实时反馈和调整:学员在学习过程中,系统通过实时分析学员的口才表达表现和进展,提供即时的反馈和建议。这可以包括针对学员的语音、语调、表达能力等方面进行评估和指导,帮助学员不断调整和改进。
通过上述步骤,系统能够根据学员设定的学习目标提供定制化的学习计划和建议。系统利用学员提供的目标信息、个人信息以及先进的人工智能技术,分析学员的需求并匹配合适的学习资源,生成个性化的学习计划,并通过实时反馈和调整来支持学员的学习过程,帮助他们实现目标并提升口才表达技巧和口才表达能力。
示例案例:学员小明在系统中注册账号并登录。他在个性化设置中填写了自己的姓名、年龄和学习目标,希望通过系统的帮助提高自己的口才表达技巧和表达能力。
虚拟导师与情感分析模块2,用于利用VR技术生成虚拟导师,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案;所述语音信息包括语速、语调以及发音。
所述虚拟导师与情感分析模块2,具体包括:语义信息以及情感状态获取单元,用于获取所述口才表达视频的语义信息以及情感状态;匹配及调取单元,用于根据所述语义信息以及所述情感状态调取口才表达技巧库和知识库中与所述口才表达视频匹配的标准语音信息和标准面部表情;语音改进方案生成模块,用于利用语音分析技术,对比所述用户的语音信息以及所述标准语音信息,生成语音改进方案;面部表情改进方案生成模块,用于利用所述面部表情分析技术,对比所述用户的面部表情以及所述标准面部表情,生成面部表情改进方案。
在实际应用中,语音分析技术具体包括:
1.语音识别技术:通过语音识别技术将口才表达视频中的语音信息转化为文本。这可以使用先进的自然语言处理(NLP)和语音识别引擎,例如Google的语音识别API或百度的语音技术。
2.音韵学分析:对语音中的语速、语调、发音进行音韵学分析。这包括对语音信号的基本频率、强度、时长等方面的分析,以捕捉语音的基本特征。
过程:对文本进行音韵学分析,包括语速、语调和发音准确性。
例如:分析发现用户在一些单词的发音上存在模糊,语速相对较快,而在“自信心”这一短语中语调较为低沉。
3.情感语音分析:利用情感语音分析技术,识别语音中的情感状态,例如紧张、兴奋、沮丧等。这可以通过声调、语速、语调等方面的变化来判断。
语音改进方案生成过程:
1.语音特征提取:从用户的语音信息中提取特征,例如语速、语调、发音准确性等。
使用先进的语音识别引擎,将口才表达视频中的语音信息转换为文本,例如:用户说:“我感到有点紧张,希望能够提高演讲的自信心。”
从音频中提取语音特征,如语速、语调、发音准确性等,通过分析音频,确定用户在说“自信心”时语速较快,且发音相对模糊。
过程:利用VR技术或其他设备,捕捉用户口才表达视频中的语音信息,包括语速、语调、发音等。
例如:分析用户演讲视频,提取语音信息,如语速较快、语调单一等。
2.标准语音信息匹配:将用户的语音特征与标准语音信息进行比较,标准语音信息可能来自一个语音库,其中包含了发音准确、语速适中、语调得体的标准发音。
将用户的语音特征与标准语音信息进行比较,找到标准发音和语速,标准语音信息库中包含清晰的“自信心”发音,以及适中的语速。
过程:从口才表达技巧库中调取标准语音信息,与用户的语音信息进行比较。
例如:系统对比用户的语速、语调等与标准的表达要求,发现差异。
3.语音差异分析:对比用户的语音与标准语音的差异,确定改进的方向。这可以通过算法来量化差异,例如使用模式识别或机器学习技术。
通过算法量化用户语音与标准语音的差异,分析发现用户的语音速度较快,发音不够清晰,与标准发音存在较大差异。
过程:利用语音分析技术,比较用户语音信息与标准语音信息的差异,分析错误的发音、不自然的语速等。
例如:系统检测到用户发音模糊,语速过快,使用了不恰当的语调。
4.语音改进建议生成:基于语音差异的分析,系统可以生成个性化的语音改进建议。这可能包括调整语速、强调发音、提高语调的准确性等建议。
根据语音差异,系统生成改进建议,系统生成建议,包括放慢语速,注意清晰发音,特别关注“自信心”一词的语调以增加表达的自信度。
过程:基于语音分析的结果,系统生成个性化的语音改进建议,包括修正发音、调整语速和改进语调等。
例如:虚拟导师建议用户放慢语速,清晰发音,并增加语调的变化,以提高表达的清晰度和自然度。
5.用户反馈:将生成的语音改进建议反馈给用户。这可以通过虚拟导师的语音或文本形式进行,为用户提供可操作的建议,帮助他们改进口才表达。
将改进建议以虚拟导师的形式反馈给用户,虚拟导师语音提示:“在表达‘自信心’这个词时,你可以放慢语速,更清晰地发音,这将使你的表达更显自信。”
这个例子展示了从语音识别到改进建议生成的详细过程。这样的系统结合了多种技术,通过分析用户的语音,提供个性化的建议,帮助他们改进口才表达。实际系统的具体实现可能还包括机器学习算法,以不断优化建议的质量和个性化程度。
整个过程结合了语音分析技术和算法,以提供个性化的、针对性的语音改进方案。这有助于用户更好地理解并改进他们的口才表达技巧。值得注意的是,这只是一种可能的实现方式,具体的技术选择和算法会受到可用技术和系统设计的限制。
面部表情改进方案生成:
a.面部表情信息采集:
过程:利用VR技术或其他设备,捕捉用户口才表达视频中的面部表情信息。
例如:分析用户演讲视频,提取面部表情信息,如微笑、眉毛的表情变化等。
b.标准面部表情匹配:
利用面部表情分析技术,将捕捉到的面部表情转化为可量化的数据,系统分析用户表达时的微笑强度、眼神交流等方面的面部表情特征。
过程:从口才表达技巧库中调取标准面部表情信息,与用户的面部表情信息进行比较。
例如:系统对比用户的微笑、眉毛表情与标准的自信和积极表情,发现有差异。
c.面部表情分析技术应用:
从知识库中调取标准面部表情,与用户的面部表情进行比较,系统对比用户表达时的微笑、眼神等面部表情特征与标准的自信、积极的表情。
过程:利用面部表情分析技术,比较用户面部表情与标准面部表情的差异,分析用户表情的自然度和符合程度。
例如:系统检测到用户在表达时微笑过于僵硬,眉毛表情不够生动。
d.面部表情改进方案生成:
系统通过算法量化用户的面部表情与标准面部表情的差异,发现用户在表达自信时的微笑强度不足,眼神不够坚定,与标准的自信表情存在差异。
根据面部表情差异,系统生成个性化的面部表情改进建议,系统生成建议,包括增加微笑的强度,通过眼神交流传递更积极的信息,提升表达的自信度。
将面部表情改进建议以虚拟导师的形式或其他反馈方式反馈给用户,虚拟导师建议用户在表达时更多地展现微笑,通过眼神传递更自信的信息,以提升整体表达效果。
过程:基于面部表情分析的结果,系统生成个性化的面部表情改进建议,包括使微笑更自然、增加眉毛的表情变化等。
例如:虚拟导师建议用户放松微笑,让表情更生动自然,同时提醒注意眉毛的变化,以提高表达的亲和力和吸引力。
这个过程结合了面部表情采集、分析、匹配和差异分析,以及根据差异生成改进建议的步骤,旨在通过调整面部表情,提升用户的口才表达效果。这样的系统能够更全面地指导用户在演讲和表达中不仅仅关注语音,还注重面部表情的有效运用。
在实际应用中,所述语义信息以及情感状态获取单元,具体包括:语义信息以及情感状态获取子单元,用于将所述口才表达视频输入至神经网络模型中,输出语义信息以及情感状态。
在实际应用中,所述虚拟导师与情感分析模块2,具体包括:
虚拟导师:通过虚拟形象和语音交互,虚拟导师模拟真实导师的角色,为学员提供个性化的口才表达指导和建议。虚拟导师可以根据学员的口才表达表现和个人需求,针对性地提供技巧改进方案。
在实际应用中,虚拟导师根据学员的口才表达表现和个人需求来针对性地提供技巧改进方案,可以借助以下方式和方法:
1.口才表达表现分析:虚拟导师通过分析学员的口才表达表现,包括语速、发音准确性、语调、表情和身体语言等方面的表现,来评估学员的口才表达能力和存在的问题。这可以通过语音识别技术、面部表情分析技术和姿势识别技术等实现。
2.个性化指导:根据学员的口才表达表现分析结果,虚拟导师可以为每个学员提供个性化的指导和建议。例如,对于语速过快的学员,虚拟导师可以提供放慢语速的技巧和练习方法;对于发音准确性有问题的学员,虚拟导师可以提供发音练习和纠正的建议。指导和建议可以通过语音合成技术生成自然流畅的语音,并通过语音交互与学员进行实时互动。
3.口才表达技巧库和知识库:虚拟导师可以具备口才表达技巧和知识的数据库,包括语言表达、身体语言、口才表达结构、故事讲述技巧等方面的知识。基于学员的个人需求和口才表达表现分析,虚拟导师可以从技巧库和知识库中选择合适的内容,针对性地提供口才表达技巧改进方案。
4.实时反馈和建议:虚拟导师可以在学员的口才表达过程中提供实时的反馈和建议。通过语音识别和情感分析技术,虚拟导师可以实时分析学员的语音特征和情感状态,并根据分析结果给予相应的反馈和建议。例如,在学员感到紧张或发音准确性下降时,虚拟导师可以及时给予情感支持和发音纠正的建议。
其中,个人需求指的是学员在用户管理与个性化设置模块1中设定的学习目标。虚拟导师可以通过以下方式获取学员的个人需求:
1.学员设定学习目标:在用户管理与个性化设置模块1中,学员可以设定自己的学习目标,如提高口才表达自信、改善语音表达、增强口才表达技巧等。这些学习目标是学员个人对于自己口才表达能力的期望和需求。
2.个性化设置:学员可以在系统中进行个性化设置,如填写个人信息和特定要求。例如,学员可以提供自己的姓名、年龄、口才表达经验等信息,以便系统更好地了解学员的背景和需求。
3.口才表达表现分析:虚拟导师通过分析学员的口才表达表现,包括语速、发音准确性、语调、表情和身体语言等方面的表现,可以推断学员的特定需求。例如,如果学员在语速方面存在问题,虚拟导师可以推测学员可能想提高自己的语速表达能力。
基于学员设定的学习目标和个性化设置,虚拟导师可以为每个学员提供个性化的口才表达指导和建议。它可以根据学员的口才表达表现和个人需求,针对性地提供技巧改进方案,帮助学员实现他们设定的学习目标。通过定制化的指导和建议,虚拟导师能够满足学员个性化的需求,并帮助他们在口才表达技巧和表达能力方面取得进步。
综上所述,虚拟导师通过分析学员的口才表达表现和个人需求,并结合口才表达技巧库和知识库,以及实时反馈和建议的方式,针对性地提供个性化的口才表达指导和改进方案。这样的个性化指导可以帮助学员针对自身的问题进行有针对性的训练和改善,从而提升口才表达技巧和表达能力。
情感分析:利用语音分析技术和面部表情分析技术,系统能够识别学员的情感状态和情绪变化。基于情感分析结果,虚拟导师可以给予学员情感上的支持和指导,帮助他们调整心态、缓解紧张情绪或提升自信。
具体来说,语音分析技术利用音频信号处理和语音识别算法来分析学员的口才表达表现。它可以分析学员的语速、发音准确性、语调、音量等语音特征,并将其与口才表达技巧和规范进行比较。通过语音分析,虚拟导师可以了解学员在语音表达方面的优势和改进点,并针对性地提供相关的指导和建议。
语音分析技术具体过程如下:
分析学员的语速、发音准确性、语调、音量等语音特征,并将其与口才表达技巧和规范进行比较的过程涉及以下步骤:
1.音频数据获取:
过程:学员进行口才表达模拟时,其语音表达会被录制并转化为数字化的音频数据。
示例:小明进行口才表达模拟,系统获取了他的口才表达音频数据。
2.语音特征提取:
过程:从音频数据中提取相关的语音特征,包括但不限于语速、发音准确性、语调、音量等。
示例:系统通过语音处理算法,提取了小明口才表达音频的语速、发音准确性、语调和音量等特征。
3.口才表达技巧和规范匹配:
过程:将提取的语音特征与口才表达技巧和规范进行比较,以确定学员在口才表达方面的优势和改进点。
示例:系统将小明的语音特征与口才表达技巧库中的标准进行匹配,找出他的表达中可能存在的问题。
4.分析和比较:
过程:对提取的语音特征进行分析,比较学员的表现与口才表达技巧和规范的期望水平。
示例:系统分析了小明的语速是否适中,发音是否准确,语调是否生动,音量是否得体,并将这些与口才表达的标准进行对比。
5.个性化指导和建议生成:
过程:基于分析结果,系统生成个性化的口才表达指导和建议,包括强调学员的优势和提供改进点的建议。
示例:对于小明,系统可能建议他减缓语速,注意发音准确性,并在表达中增加一些语调变化,以提高表达的质量。
6.反馈给学员:
过程:将个性化的指导和建议反馈给学员,帮助他们了解自己的表达特点,并指导他们在口才表达方面的进步。
示例:小明收到了虚拟导师的反馈,了解到自己在语速和发音方面有改进的空间,并得到了具体的建议。
这个过程整合了音频数据的获取、语音特征的提取、与口才表达技巧和规范的匹配、分析比较以及生成个性化建议等步骤,旨在帮助学员在口才表达方面不断提升。
面部表情分析技术使用计算机视觉和图像处理算法来分析学员的面部表情。它可以识别学员的表情变化,如微笑、紧张、焦虑等,以及面部肌肉的活动情况。通过面部表情分析,虚拟导师可以推断学员的情感状态,如自信、紧张、沮丧等,进而给予情感上的支持和指导。例如,当学员在口才表达过程中感到紧张时,虚拟导师可以通过分析学员的面部表情,识别出紧张情绪,并提供相应的情感调节和心理支持。
在实际应用中,面部表情分析技术具体过程如下:
面部表情分析技术通过计算机视觉和图像处理算法,可以详细地分析学员的面部表情,包括微笑、紧张、焦虑等,同时也关注面部肌肉的活动情况。以下是这一过程的详细解释:
1.面部表情识别:
过程:采用计算机视觉技术,系统对学员口才表达视频中的面部进行实时监测和分析,以捕捉面部表情的变化。
示例:在小明进行口才表达模拟时,系统分析他的面部表情,包括微笑、皱眉、眼神等。
2.面部表情分类:
过程:通过训练好的模型,系统对捕获到的面部表情进行分类,识别学员的情感状态,如自信、紧张、沮丧等。
示例:分类模型判断小明此刻的面部表情可能表现出紧张的特征。
3.面部肌肉活动分析:
过程:系统分析面部肌肉的运动,例如通过检测眼部、嘴部、额头等区域的活动程度,以更全面地理解学员的情感状态。
示例:当小明感到紧张时,他的额头可能出现皱纹,眼部肌肉可能有紧张的表现,系统通过这些活动分析出他的紧张情绪。
4.情感推断:
过程:结合面部表情的分类和面部肌肉的活动情况,系统推断学员的情感状态,如是否微笑、是否紧张等。
示例:虚拟导师通过分析小明的面部表情和肌肉活动,推断出他在口才表达过程中可能感到紧张。
5.情感支持和指导:
过程:基于情感分析的结果,虚拟导师提供个性化的情感支持和指导,例如鼓励、放松技巧,或者提供专注于呼吸的建议,以帮助学员调整情感状态。
示例:鉴于小明可能感到紧张,虚拟导师可以给予他一些冷静下来的建议,或者提供一些专注呼吸的技巧,以缓解他的紧张情绪。
这个过程通过综合分析学员的面部表情、肌肉活动等数据,准确判断情感状态,从而为虚拟导师提供有针对性的情感支持和指导。
具体的语音分析技术和面部表情分析技术过程涉及复杂的算法和模型,包括特征提取、模式识别和情感分类等步骤。这些技术的具体实现可能因应用场景和系统设计而有所不同。然而,总体上,语音分析技术和面部表情分析技术的目标是通过分析学员的语音和面部表情数据,了解其口才表达表现和情感状态,并根据分析结果提供个性化的口才表达指导和情感支持。
在实际应用中,这个过程涉及到语音分析技术和面部表情分析技术的复杂算法和模型。具体实现可能因应用场景和系统设计而有所不同,但总体目标是通过分析学员的语音和面部表情数据,了解其口才表达表现和情感状态,并根据分析结果提供个性化的口才表达指导和情感支持。
1.语音分析技术的实现:
特征提取:通过音频信号处理,提取语音特征,例如语速、发音准确性、语调、音量等。
模式识别:利用语音识别算法,将提取的特征与口才表达技巧和规范进行比较,识别学员的语音表达优势和改进点。
情感分类:将语音特征与情感分类模型结合,推断学员的情感状态,例如紧张、自信等。
2.面部表情分析技术的实现:
图像处理:使用计算机视觉技术,对学员面部表情进行实时监测和分析,捕捉微笑、紧张、焦虑等表情变化。
特征提取:提取面部表情的关键特征,包括眼部、嘴部等区域的表情信息。
模式识别:将提取的面部表情特征与已知的模式进行比较,分类学员的情感状态。
3.综合分析和个性化指导:
数据综合:将语音和面部表情分析的结果进行综合,得出学员口才表达的整体情况和情感状态。
个性化指导:根据分析结果,为学员提供个性化的口才表达指导和情感支持。例如,当学员在口才表达过程中感到紧张时,虚拟导师可以给予情感调节的建议,并可能提供一些冷静下来的技巧。
4.系统的灵活性:
应用场景和系统设计:由于不同应用场景和系统设计的需求不同,具体实现可以根据具体情况进行调整和优化。例如,对于多语言支持或者不同文化背景的学员,系统可能需要进行相应的适应性调整。
总体而言,这一过程是一个综合应用多个技术领域的系统,旨在为学员提供全面的口才表达指导和情感支持,通过对语音和面部表情数据的深度分析,为每个学员提供个性化的建议和指导。
尽管语音分析技术和面部表情分析技术在研究和应用中已经取得了一定的进展,但仍存在一些挑战和限制。例如,对不同人群和语言的准确性可能存在差异,环境噪音和个体差异等因素也可能影响分析结果的准确性。因此,在实际应用中,需要对技术进行优化和调整,以提高分析的精确度和适用性。
在实际应用中,对不同人群和语言的准确性可能存在差异,而环境噪音和个体差异等因素也可能影响分析结果的准确性。因此,需要对技术进行优化和调整,以提高分析的精确度和适用性。以下是详细说明此过程:
1.针对不同人群和语言的准确性差异:
数据多样性:收集来自不同人群和语言的数据,确保训练集具有广泛的代表性。这可以包括不同年龄、文化背景、口音等方面的差异。
迁移学习:使用迁移学习的技术,将从一个任务中学到的知识应用到另一个相关任务中。这可以帮助提高在不同人群和语言上的准确性。
2.应对环境噪音的影响:
噪音过滤:在数据预处理阶段使用噪音过滤技术,以减少来自环境的干扰。这可能包括使用降噪算法或者在模型中集成环境噪音适应的机制。
动态调整:在实时应用中,系统可以动态调整对环境噪音的敏感性,根据实际噪音水平进行优化。
3.处理个体差异的挑战:
个性化模型:考虑到每个学员的独特性,可以尝试个性化模型的方法。这可以基于学员的历史数据和反馈,使系统更好地适应个体差异。
实时调整:系统可能需要能够实时调整,以适应个体差异的变化。这可能需要使用增量学习或在线学习的技术。
4.技术优化和调整的策略:
反馈机制:集成用户反馈机制,以便及时纠正分析错误并不断优化系统性能。
迭代改进:定期进行模型和算法的迭代改进,以反映新的数据和技术进展。
5.适用性的广泛性:
可配置性:提供系统参数的可配置性,以便根据特定应用场景和用户需求进行调整。
多语言支持:确保系统能够支持多种语言,可以考虑使用跨语言的算法或者针对不同语言进行定制化的处理。
通过以上策略,系统可以更好地适应不同人群、语言和环境条件下的口才表达和情感分析需求。这种灵活性和适应性是实现技术在实际口才培训系统中成功运用的关键。
示例案例:学员小明进行口才表达模拟,虚拟导师分析他的语速、发音准确性、表情和身体语言,并给予他个性化指导。当小明在口才表达过程中感到紧张时,虚拟导师通过分析他的面部表情和语音特征,给予情感上的支持和指导,帮助他缓解紧张情绪。
其中,个性化指导是根据学员的口才表达表现和个人需求进行针对性的提供。以下是一些可能的个性化指导内容,基于学员的语速、发音准确性、表情和身体语言:
1.语速指导:根据学员的口才表达语速,虚拟导师可以提供相应的指导。如果学员讲话过快,导致清晰度下降或听众难以跟上,虚拟导师可以建议他们放慢语速,并提供相应的练习和技巧。如果学员讲话过慢,虚拟导师可以鼓励他们增加语速以提升流畅度。
2.发音准确性指导:虚拟导师可以根据学员的发音准确性,识别出可能存在的发音问题并提供相应的指导。例如,如果学员在某些音素或单词的发音上有困难,虚拟导师可以帮助他们纠正发音错误,提供发音示范和练习。
3.表情和身体语言指导:通过分析学员的表情和身体语言,虚拟导师可以给予相关的指导。例如,如果学员在口才表达过程中表情僵硬或缺乏肢体动作,虚拟导师可以鼓励他们更多地运用肢体语言来增强表达效果。如果学员的眼神交流不足或姿势不自然,虚拟导师可以提供相关的技巧和练习,帮助他们改善口才表达的非语言表达。
个性化指导的具体内容和方法可以根据学员的个人需求和口才表达表现进行调整和定制。虚拟导师与情感分析模块2通过分析学员的语速、发音准确性、表情和身体语言等方面的数据,利用人工智能和机器学习算法,识别出学员的问题和改进空间,然后根据识别结果为学员提供相应的个性化指导。这些指导可能包括语音练习、发音训练、肢体语言展示、眼神交流技巧等,旨在帮助学员提升口才表达技巧和表达能力。
需要指出的是,个性化指导的具体实施方法可能因系统设计和算法模型的差异而有所不同。在实际应用中,需要综合考虑学员的个人特点、目标和需求,以及系统的技术能力和功能,制定相应的个性化指导策略。
在实际应用中,本发明还包括:
实时互动与反馈模块:
1)实时语音识别与转写:系统能够实时将学员的语音转换为文字,并进行实时的语音识别和转写。这使得系统能够对学员的口才表达进行实时分析,为学员提供及时的反馈和建议。
对学员的口才表达进行实时分析的方法主要涉及实时语音识别和转写技术。下面是一个具体的过程示例:
1.实时语音识别:系统接收学员的语音输入,并利用语音识别技术将语音信号转换为文字。这可以通过采用基于深度学习的语音识别模型来实现。语音识别模型会对输入的语音信号进行分析和解码,将其转换为相应的文字文本。
2.实时语音转写:在语音识别的基础上,系统会将识别到的语音文字进行实时转写,生成对学员口才表达内容的文字化表示。这个过程可以通过语音转写算法来实现,将语音信号转换为文字序列,并及时更新转写结果。
3.实时语音分析:系统根据转写结果,对学员的口才表达进行实时分析。这可能涉及到多种分析技术,如语速分析、发音准确性分析、语调分析等。通过对学员口才表达的文字表示进行处理和分析,系统能够捕捉到不同方面的语言特征和口才表达表现。
4.即时反馈和建议:基于语音分析的结果,系统可以提供即时的反馈和建议。例如,系统可以检测到学员的语速过快,然后给予相应的调整建议,帮助学员提升口才表达的流畅度和清晰度。系统可能还会针对其他方面的表现提供相应的反馈和建议,如发音准确性、用词准确性等。
总体而言,通过实时语音识别和转写技术,系统可以对学员的口才表达进行实时分析,将语音转换为文字,并提供即时的反馈和建议。这样,学员可以在口才表达过程中及时了解自己的表现,并根据系统的指导进行调整和改进,从而提高他们的口才表达表达能力。
2)即时反馈和建议:基于语音识别和口才表达模拟情景,系统能够在学员进行口才表达时提供即时的反馈和建议。这有助于学员及时调整和改进口才表达技巧,提高他们的口才表达表达能力。
虚拟导师与情感分析模块2主要关注学员的口才表达表现和个人需求,针对性地提供技巧改进方案。它通过语音交互和虚拟形象,模拟真实导师的角色,为学员提供个性化的口才表达指导和建议。
实时互动与反馈模块则通过实时语音识别和转写技术,对学员的口才表达进行实时分析,并基于分析结果提供即时的反馈和建议。该模块的主要功能是在学员进行口才表达时提供即时的反馈,例如指出语速过快或清晰度不足,并给予相应的调整建议。通过及时的反馈,学员可以在口才表达过程中实时调整和改进,提高他们的口才表达效果。
因此,虚拟导师与情感分析模块2和实时互动与反馈模块在不同的方面为学员提供支持和指导。虚拟导师与情感分析模块2注重个性化指导和情感支持,帮助学员提升口才表达技巧和表达能力;而实时互动与反馈模块则通过实时分析和即时反馈,帮助学员在口才表达过程中及时调整和改进,提高口才表达效果。两个模块相互协作,共同为学员提供全面的支持和指导,使其在口才培训中取得更好的效果。
示例案例:学员小明进行口才表达时,系统实时识别和转写他的语音,并进行实时的语音分析。系统提供即时的反馈和建议,指出他的语速过快,并给予相应的调整建议,帮助他提升口才表达的流畅度和清晰度。
多人协作与口才表达模拟模块3,用于观摩其他用户的口才表达视频并提供评估和反馈,分享自己的口才表达经验和技巧。
所述多人协作与口才表达模拟模块3,具体包括:在线模拟单元,用于多人在线观摩在线其他用户的当前口才表达视频,并实时提供评估和反馈,针对所述当前口才表达视频中的语音信息和面部表情分享自己的口才表达经验和技巧,显示用户之间的评估和反馈以及口才表达经验和技巧;离线模拟单元,用于观摩其他用户上传的口才表达视频,将评估和反馈以及自己的口才表达经验和技巧发送至其他用户的客户端。
在实际应用中,多人协作与口才表达模拟模块3,具体包括:
多人口才表达模拟:学员可以参与虚拟环境中的多人口才表达模拟。他们可以观摩其他学员的口才表达,并进行评估和反馈。这种多人协作学习模式促进了学员之间的互动和经验分享,激发了学员的学习动力。
经验分享和合作学习:学员可以分享自己的口才表达经验和技巧,并与其他学员合作学习。他们可以共同探讨口才表达技巧、提供互相的建议和反馈,相互激励和共同进步。
示例案例:学员小明参与了多人口才表达模拟,他观摩其他学员的口才表达,并进行评估和反馈。同时,他也分享了自己的口才表达经验和技巧,与其他学员进行合作学习,共同提高口才表达能力和口才表达。
在实际应用中,本发明还包括:技术支持与数据管理模块,用于更新软件、系统维护以及排除故障。
所述技术支持与数据管理模块,具体包括:
1)技术支持:这个模块提供系统运行所需的技术支持和维护。它包括软件更新、系统维护、故障排除等,以确保系统的稳定性和性能。
其中,在技术支持与数据管理模块中,维护的内容通常包括软件更新、系统维护和故障排除。具体展开描述如下:
1.软件更新:技术支持团队负责监测系统的软件版本,并确保系统及其相关组件和模块的更新。软件更新可以包括修复已知的漏洞和问题,改进系统性能和稳定性,以及引入新功能和改进。
2.系统维护:技术支持团队负责系统的日常维护工作,以确保系统的正常运行。这可能涉及数据库管理、服务器管理、网络管理等方面的工作。通过定期的维护措施,系统可以保持高可用性、高性能和稳定性。
3.故障排除:当系统出现故障或异常情况时,技术支持团队负责快速响应并进行故障排除。故障排除的过程可能包括问题诊断、日志分析、错误修复等。通过迅速识别和解决故障,可以最大程度地减少系统的停机时间和用户的影响。
维护过程的具体内容和故障排除过程可能因系统的复杂性和特定的技术实现而有所不同。这些过程需要技术支持团队具备相关的技术知识和经验,以便能够有效地处理各种维护和故障情况。
技术支持与数据管理模块不仅仅是提供一个端口,而是确保系统的稳定性、可靠性和安全性。这个模块的目标是确保系统在运行过程中的技术支持和维护,并提供故障排除的支持,以使学员能够正常使用系统,并获得所需的功能和服务。
2)数据管理和安全:这个模块负责管理用户的个人数据,包括存储、备份和保护用户数据的隐私和安全性。它确保学员的个人信息得到适当的管理和保护,符合相关的隐私法规和规范。
示例案例:技术支持团队负责系统的技术维护和升级,以确保系统的正常运行。数据管理团队负责管理学员的个人数据,包括存储、备份和保护数据的隐私和安全性。
通过以上模块的具体作用,系统能够提供个性化的虚拟导师指导、多人协作学习、实时互动和反馈等功能,有效地帮助学员提升口才表达能力和口才表达技巧。
实施例二
如图2所示,本发明还提供了一种虚拟导师与多人协作口才培训方法,包括:
步骤201:设置用户的个人需求,上传口才表达视频。
步骤202:利用VR技术生成虚拟导师,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案;所述语音信息包括语速、语调以及发音。
步骤203:观摩其他用户的口才表达视频并提供评估和反馈,分享自己的口才表达经验和技巧。
在实际应用中,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案,具体包括:获取所述口才表达视频的语义信息以及情感状态;根据所述语义信息以及所述情感状态调取口才表达技巧库和知识库中与所述口才表达视频匹配的标准语音信息和标准面部表情;利用语音分析技术,对比所述用户的语音信息以及所述标准语音信息,生成语音改进方案;利用所述面部表情分析技术,对比所述用户的面部表情以及所述标准面部表情,生成面部表情改进方案。
在实际应用中,获取所述口才表达视频的语义信息以及情感状态,具体包括:将所述口才表达视频输入至神经网络模型中,输出语义信息以及情感状态。
实施例三
本发明实施例提供一种电子设备包括存储器及处理器,该存储器用于存储计算机程序,该处理器运行计算机程序以使电子设备执行实施例一提供的虚拟导师与多人协作口才培训方法。
在实际应用中,上述电子设备可以是服务器。
在实际应用中,电子设备包括:至少一个处理器(processor)、存储器(memory)、总线及通信接口(Communications Interface)。
其中:处理器、通信接口、以及存储器通过通信总线完成相互间的通信。
通信接口,用于与其它设备进行通信。
处理器,用于执行程序,具体可以执行上述实施例所述的方法。
具体地,程序可以包括程序代码,该程序代码包括计算机操作指令。
处理器可能是中央处理器CPU,或者是特定集成电路ASIC(Application SpecificIntegrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。电子设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器,用于存放程序。存储器可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
基于以上实施例的描述,本申请实施例提供一种存储介质,其上存储有计算机程序指令,计算机程序指令可被处理器执行以实现任意实施例所述的方法
本申请实施例提供的虚拟导师与多人协作口才培训系统以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供语音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网性能。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)其他具有数据交互功能的电子设备。
至此,已经对本主题的特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作可以按照不同的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序,以实现期望的结果。在某些实施方式中,多任务处理和并行处理可以是有利的。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。本领域内的技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、
数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带、磁盘存储或其他磁性存储设备
或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定事务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行事务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种虚拟导师与多人协作口才培训系统,其特征在于,包括:
用户管理与个性化设置模块,用于设置用户的个人需求,上传口才表达视频;
虚拟导师与情感分析模块,用于利用VR技术生成虚拟导师,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案;所述语音信息包括语速、语调以及发音;
多人协作与口才表达模拟模块,用于观摩其他用户的口才表达视频并提供评估和反馈,分享自己的口才表达经验和技巧。
2.根据权利要求1所述的虚拟导师与多人协作口才培训系统,其特征在于,所述虚拟导师与情感分析模块,具体包括:
语义信息以及情感状态获取单元,用于获取所述口才表达视频的语义信息以及情感状态;
匹配及调取单元,用于根据所述语义信息以及所述情感状态调取口才表达技巧库和知识库中与所述口才表达视频匹配的标准语音信息和标准面部表情;
语音改进方案生成模块,用于利用语音分析技术,对比所述用户的语音信息以及所述标准语音信息,生成语音改进方案;
面部表情改进方案生成模块,用于利用所述面部表情分析技术,对比所述用户的面部表情以及所述标准面部表情,生成面部表情改进方案。
3.根据权利要求2所述的虚拟导师与多人协作口才培训系统,其特征在于,所述语义信息以及情感状态获取单元,具体包括:
语义信息以及情感状态获取子单元,用于将所述口才表达视频输入至神经网络模型中,输出语义信息以及情感状态。
4.根据权利要求1所述的虚拟导师与多人协作口才培训系统,其特征在于,所述多人协作与口才表达模拟模块,具体包括:
在线模拟单元,用于多人在线观摩在线其他用户的当前口才表达视频,并实时提供评估和反馈,针对所述当前口才表达视频中的语音信息和面部表情分享自己的口才表达经验和技巧,显示用户之间的评估和反馈以及口才表达经验和技巧;
离线模拟单元,用于观摩其他用户上传的口才表达视频,将评估和反馈以及自己的口才表达经验和技巧发送至其他用户的客户端。
5.根据权利要求1所述的虚拟导师与多人协作口才培训系统,其特征在于,还包括:
技术支持与数据管理模块,用于更新软件、系统维护以及排除故障。
6.一种虚拟导师与多人协作口才培训方法,其特征在于,包括:
设置用户的个人需求,上传口才表达视频;
利用VR技术生成虚拟导师,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案;所述语音信息包括语速、语调以及发音;
观摩其他用户的口才表达视频并提供评估和反馈,分享自己的口才表达经验和技巧。
7.根据权利要求6所述的虚拟导师与多人协作口才培训方法,其特征在于,利用所述虚拟导师分析所述口才表达视频中的用户的语音信息和面部表情,并根据分析结果以及所述个人需求针对性提供技巧改进方案,具体包括:
获取所述口才表达视频的语义信息以及情感状态;
根据所述语义信息以及所述情感状态调取口才表达技巧库和知识库中与所述口才表达视频匹配的标准语音信息和标准面部表情;
利用语音分析技术,对比所述用户的语音信息以及所述标准语音信息,生成语音改进方案;
利用所述面部表情分析技术,对比所述用户的面部表情以及所述标准面部表情,生成面部表情改进方案。
8.根据权利要求7所述的虚拟导师与多人协作口才培训方法,其特征在于,获取所述口才表达视频的语义信息以及情感状态,具体包括:
将所述口才表达视频输入至神经网络模型中,输出语义信息以及情感状态。
9.一种电子设备,其特征在于,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行如权利要求6-8中任一项所述的虚拟导师与多人协作口才培训方法。
10.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求6-8中任一项所述的虚拟导师与多人协作口才培训方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311616906.1A CN117635383A (zh) | 2023-11-30 | 2023-11-30 | 一种虚拟导师与多人协作口才培训系统、方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311616906.1A CN117635383A (zh) | 2023-11-30 | 2023-11-30 | 一种虚拟导师与多人协作口才培训系统、方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117635383A true CN117635383A (zh) | 2024-03-01 |
Family
ID=90026493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311616906.1A Pending CN117635383A (zh) | 2023-11-30 | 2023-11-30 | 一种虚拟导师与多人协作口才培训系统、方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117635383A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117522643A (zh) * | 2023-12-04 | 2024-02-06 | 新励成教育科技股份有限公司 | 一种口才训练方法、装置、设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102169642A (zh) * | 2011-04-06 | 2011-08-31 | 李一波 | 具有智能纠错功能的交互式虚拟教师系统 |
CN106023693A (zh) * | 2016-05-25 | 2016-10-12 | 北京九天翱翔科技有限公司 | 一种基于虚拟现实技术和模式识别技术的教育系统及方法 |
CN111417014A (zh) * | 2020-03-20 | 2020-07-14 | 威比网络科技(上海)有限公司 | 基于在线教育的视频生成方法、系统、设备及存储介质 |
CN115543089A (zh) * | 2022-10-20 | 2022-12-30 | 昆明奥智科技有限公司 | 一种基于五维情绪模型的虚拟人情感交互系统及方法 |
CN116343824A (zh) * | 2023-05-29 | 2023-06-27 | 新励成教育科技股份有限公司 | 口才表达能力的全面评估与解决方法、系统、装置及介质 |
US20230252910A1 (en) * | 2023-04-20 | 2023-08-10 | Davis Carbo | Methods and systems for enhanced training of a user |
US20230316643A1 (en) * | 2020-09-01 | 2023-10-05 | Mofa (Shanghai) Information Technology Co., Ltd. | Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal |
CN116957866A (zh) * | 2023-07-10 | 2023-10-27 | 华中师范大学 | 一种数字人教师个性化教学装置 |
KR20230151155A (ko) * | 2022-04-25 | 2023-11-01 | 주식회사 에이아이파크 | 아바타 스피치 서비스 제공 장치 및 그 동작 방법 |
CN117032847A (zh) * | 2023-05-22 | 2023-11-10 | 魔珐(上海)信息科技有限公司 | 虚拟培训讲师互动方法、电子设备、存储介质及程序产品 |
-
2023
- 2023-11-30 CN CN202311616906.1A patent/CN117635383A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102169642A (zh) * | 2011-04-06 | 2011-08-31 | 李一波 | 具有智能纠错功能的交互式虚拟教师系统 |
CN106023693A (zh) * | 2016-05-25 | 2016-10-12 | 北京九天翱翔科技有限公司 | 一种基于虚拟现实技术和模式识别技术的教育系统及方法 |
CN111417014A (zh) * | 2020-03-20 | 2020-07-14 | 威比网络科技(上海)有限公司 | 基于在线教育的视频生成方法、系统、设备及存储介质 |
US20230316643A1 (en) * | 2020-09-01 | 2023-10-05 | Mofa (Shanghai) Information Technology Co., Ltd. | Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal |
KR20230151155A (ko) * | 2022-04-25 | 2023-11-01 | 주식회사 에이아이파크 | 아바타 스피치 서비스 제공 장치 및 그 동작 방법 |
CN115543089A (zh) * | 2022-10-20 | 2022-12-30 | 昆明奥智科技有限公司 | 一种基于五维情绪模型的虚拟人情感交互系统及方法 |
US20230252910A1 (en) * | 2023-04-20 | 2023-08-10 | Davis Carbo | Methods and systems for enhanced training of a user |
CN117032847A (zh) * | 2023-05-22 | 2023-11-10 | 魔珐(上海)信息科技有限公司 | 虚拟培训讲师互动方法、电子设备、存储介质及程序产品 |
CN116343824A (zh) * | 2023-05-29 | 2023-06-27 | 新励成教育科技股份有限公司 | 口才表达能力的全面评估与解决方法、系统、装置及介质 |
CN116957866A (zh) * | 2023-07-10 | 2023-10-27 | 华中师范大学 | 一种数字人教师个性化教学装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117522643A (zh) * | 2023-12-04 | 2024-02-06 | 新励成教育科技股份有限公司 | 一种口才训练方法、装置、设备及存储介质 |
CN117522643B (zh) * | 2023-12-04 | 2024-05-10 | 新励成教育科技股份有限公司 | 一种口才训练方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111415677B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN105792752B (zh) | 用于诊断和治疗语言相关障碍的计算技术 | |
US10095850B2 (en) | User identity authentication techniques for on-line content or access | |
US9734730B2 (en) | Multi-modal modeling of temporal interaction sequences | |
US20140212854A1 (en) | Multi-modal modeling of temporal interaction sequences | |
Stewart et al. | Multimodal modeling of collaborative problem-solving facets in triads | |
Griol et al. | An architecture to develop multimodal educative applications with chatbots | |
CN117541445B (zh) | 一种虚拟环境交互的口才训练方法、系统、设备及介质 | |
Busso et al. | Recording audio-visual emotional databases from actors: a closer look | |
US11860925B2 (en) | Human centered computing based digital persona generation | |
KR20220128897A (ko) | 인공지능 아바타를 활용한 회화 능력 평가 시스템 및 그 방법 | |
CN117635383A (zh) | 一种虚拟导师与多人协作口才培训系统、方法及设备 | |
Tan et al. | iSocioBot: a multimodal interactive social robot | |
CN117541444B (zh) | 一种互动虚拟现实口才表达训练方法、装置、设备及介质 | |
US20240161372A1 (en) | Method and system for providing service for conversing with virtual person simulating deceased person | |
Li et al. | Multi-stream deep learning framework for automated presentation assessment | |
KR20210131892A (ko) | 대화형 청중 시뮬레이션을 제공하는 장치 및 방법 | |
Ochoa | Multimodal systems for automated oral presentation feedback: A comparative analysis | |
CN117522643B (zh) | 一种口才训练方法、装置、设备及存储介质 | |
Esposito et al. | On the recognition of emotional vocal expressions: motivations for a holistic approach | |
CN111415662A (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN115831153A (zh) | 发音质量测试方法 | |
WO2015179428A1 (en) | User identity authentication techniques for on-line content or access | |
CN114155849A (zh) | 一种虚拟对象的处理方法、装置和介质 | |
Athanasopoulos et al. | King's speech: pronounce a foreign language with style |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |