CN117541444A - 一种互动虚拟现实口才表达训练方法、装置、设备及介质 - Google Patents
一种互动虚拟现实口才表达训练方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117541444A CN117541444A CN202311652509.XA CN202311652509A CN117541444A CN 117541444 A CN117541444 A CN 117541444A CN 202311652509 A CN202311652509 A CN 202311652509A CN 117541444 A CN117541444 A CN 117541444A
- Authority
- CN
- China
- Prior art keywords
- training
- scene
- behavior
- expression
- talent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 311
- 230000014509 gene expression Effects 0.000 title claims abstract description 185
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000008451 emotion Effects 0.000 claims abstract description 64
- 238000004088 simulation Methods 0.000 claims abstract description 42
- 230000003993 interaction Effects 0.000 claims abstract description 17
- 230000006399 behavior Effects 0.000 claims description 119
- 238000004458 analytical method Methods 0.000 claims description 41
- 238000004891 communication Methods 0.000 claims description 37
- 230000004044 response Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 16
- 238000009877 rendering Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 3
- 238000010223 real-time analysis Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 16
- 230000000694 effects Effects 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 11
- 230000006872 improvement Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000003542 behavioural effect Effects 0.000 description 9
- 230000002996 emotional effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 3
- 230000003997 social interaction Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001795 light effect Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241001310793 Podium Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Tourism & Hospitality (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Artificial Intelligence (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提出一种互动虚拟现实口才表达训练方法、装置、设备及介质,互动虚拟现实口才表达训练方法通过响应于训练对象的场景需求,构建目标虚拟口才表达场景并在交互设备上实时显示,增加训练真实感与逼真度,不会受地点的限制;获取训练对象的口才表达数据,实时地通过指导模型对口才表达数据进行分析,确定情感因子以及指导数据,通过观众行为模型对情感因子以及场景需求进行分析,生成行为表现模拟数据;在交互设备上实时显示行为表现模拟数据,真实模拟观众,为训练对象提供更真实的口才表达环境和挑战,使训练对象能够在虚拟世界中体验与真实观众互动;在交互设备上构建虚拟导师实时输出指导数据,提升训练个性化程度和参与度。
Description
技术领域
本申请涉及计算机领域,尤其涉及一种互动虚拟现实口才表达训练方法、装置、设备及介质。
背景技术
口才表达指在公众场合,以有声语言为主要手段,以体态语言为辅助手段,针对某个具体问题,鲜明、完整地发表自己的见解和主张的交流方式,口才表达在人们的日常生活中逐渐变得重要。
现今,口才表达者为了提高自己的口才表达水平,通过需要进行训练,但是目前没有便捷可靠的训练方法,例如口才表达者要训练不同场景中的表达时通常只能自行想象或者达到一个具体的实际地点身临其境地进行训练,费时费力,时间和地点受到严重限制。另外,通常都是口才表达者单独训练,而没有观众,无法模拟真实的口才表达场景,导致口才表达训练效果差。
发明内容
本申请实施例提供一种互动虚拟现实口才表达训练方法、装置、设备及介质,以解决相关技术存在的至少一个问题,技术方案如下:
第一方面,本申请实施例提供了一种互动虚拟现实口才表达训练的方法,包括:
响应于训练对象的场景需求,构建目标虚拟口才表达场景,在交互设备上显示所述目标虚拟口才表达场景;
获取所述训练对象的口才表达数据,实时地通过指导模型对所述口才表达数据进行分析,确定情感因子以及指导数据;
通过观众行为模型对所述情感因子以及所述场景需求进行分析,生成行为表现模拟数据;
在所述交互设备上实时显示所述行为表现模拟数据,以及在所述交互设备上构建虚拟导师实时输出所述指导数据。
在一种实施方式中,所述响应于训练对象的场景需求,构建目标虚拟口才表达场景包括:
响应于所述训练对象的场景选择指令,从预设场景库中确定目标场景模型,对所述目标场景模型进行渲染,生成目标虚拟口才表达场景;
或者,
响应于所述训练对象的场景配置指令,确定按照场景需求配置的场景布局信息、尺寸信息以及灯光信息,对所述场景布局信息、所述尺寸信息以及所述灯光信息进行建模处理,生成个性化场景模型,对所述个性化场景模型进行渲染,生成目标虚拟口才表达场景。
在一种实施方式中,所述通过观众行为模型对所述情感因子以及所述场景需求进行分析,生成行为表现模拟数据包括:
通过所述观众行为模型对所述场景需求进行分析,确定符合所述场景需求对应的若干个第一行为表现;
通过所述观众行为模型对所述情感因子进行分析,确定符合所述情感因子对应的第二行为表现;
根据若干个所述第一行为表现以及所述第二行为表现,生成行为表现模拟数据。
在一种实施方式中,所述根据若干个所述第一行为表现以及所述第二行为表现,生成行为表现模拟数据包括:
当存在相同的所述第一行为表现以及所述第二行为表现时,将相同的所述第一行为表现或所述第二行为表现确定为目标行为表现;
当不存在相同的所述第一行为表现以及所述第二行为表现时,从若干个所述第一行为表现以及所述第二行为表现中随机确定目标行为表现,或者计算每一所述第一行为表现与所述第二行为表现的相似度,将相似度最高的第一行为表现作为目标行为表现;
将确定的所述目标行为表现进行实时地模拟,生成行为表现模拟数据。
在一种实施方式中,所述实时地通过指导模型对所述口才表达数据进行分析,确定情感因子以及指导数据包括:
实时地通过指导模型对所述口才表达数据进行第一分析,确定情感因子;
获取训练对象所输入的训练目标,根据所述训练目标以及所述口才表达数据进行第二分析,得到第二分析结果;
根据所述第二分析结果从技巧库中确定目标口才表达技巧,将所述目标口才表达技巧作为指导数据。
在一种实施方式中,所述在所述交互设备上构建虚拟导师实时输出所述指导数据包括:
响应于所述训练对象的虚拟导师选择指令,从虚拟导师库中确定虚拟导师,在所述交互设备上构建所述虚拟导师实时输出所述指导数据,其中每一虚拟导师具有不同的教学风格、专业领域、指导策略以及声音;
或者,
响应于所述训练对象的虚拟导师创建指令,确定按照训练对象需求配置的外表信息、性格信息以及声音信息,根据所述外表信息、性格信息以及声音信息在所述交互设备上构建虚拟导师实时输出所述指导数据。
在一种实施方式中,所述方法还包括:
获取所述训练对象在所述交互设备上输入的交流信息,所述交流信息包括文字、语音或者手势;
响应于所述交流信息与所述虚拟导师建立实时对话,在所述实时对话的过程中,分析所述交流信息的含义,并根据所述含义查找对应的回答,通过所述虚拟导师输出所述回答。
第二方面,本申请实施例提供了一种互动虚拟现实口才表达训练装置,包括:
构建模块,用于响应于训练对象的场景需求,构建目标虚拟口才表达场景,在交互设备上显示所述目标虚拟口才表达场景;
确定模块,用于获取所述训练对象的口才表达数据,实时地通过指导模型对所述口才表达数据进行分析,确定情感因子以及指导数据;
生成模块,用于通过观众行为模型对所述情感因子以及所述场景需求进行分析,生成行为表现模拟数据;
显示模块,用于在所述交互设备上实时显示所述行为表现模拟数据,以及在所述交互设备上构建虚拟导师实时输出所述指导数据。
在一种实施方式中,所述显示模块还用于:
获取所述训练对象在所述交互设备上输入的交流信息,所述交流信息包括文字、语音或者手势;
响应于所述交流信息与所述虚拟导师建立实时对话,在所述实时对话的过程中,分析所述交流信息的含义,并根据所述含义查找对应的回答,通过所述虚拟导师输出所述回答。
第三方面,本申请实施例提供了一种电子设备,包括:处理器和存储器,该存储器中存储指令,该指令由该处理器加载并执行,以实现上述各方面任一种实施方式中的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被执行时实现上述各方面任一种实施方式中的方法。
上述技术方案中的有益效果至少包括:
通过响应于训练对象的场景需求,构建目标虚拟口才表达场景,在交互设备上实时显示目标虚拟口才表达场景,增加训练的真实感与逼真度,相对现有方案不会受到地点的限制;获取训练对象的口才表达数据,实时地通过指导模型对口才表达数据进行分析,确定情感因子以及指导数据,通过观众行为模型对情感因子以及场景需求进行分析,生成行为表现模拟数据;在交互设备上实时显示行为表现模拟数据,真实模拟观众,为训练对象提供更真实的口才表达环境和挑战,使训练对象能够在虚拟世界中体验与真实观众互动的情况;在交互设备上构建虚拟导师实时输出指导数据,提升训练的个性化程度和参与度。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本申请进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本申请公开的一些实施方式,而不应将其视为是对本申请范围的限制。
图1为本申请一实施例互动虚拟现实口才表达训练方法的步骤流程示意图;
图2为本申请一实施例的互动虚拟现实口才表达训练装置的结构框图;
图3为本申请一实施例的电子设备的结构框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本申请的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
参照图1,示出本申请一实施例的互动虚拟现实口才表达训练方法的流程图,该互动虚拟现实口才表达训练方法至少可以包括步骤S100-S400:
S100、响应于训练对象的场景需求,构建目标虚拟口才表达场景,在交互设备上显示目标虚拟口才表达场景。
S200、获取训练对象的口才表达数据,实时地通过指导模型对口才表达数据进行分析,确定情感因子以及指导数据。
S300、通过观众行为模型对情感因子以及场景需求进行分析,生成行为表现模拟数据。
S400、在交互设备上实时显示行为表现模拟数据,以及在交互设备上构建虚拟导师实时输出指导数据。
本申请实施例的互动虚拟现实口才表达训练方法可以通过计算机、手机、平板、车载终端等终端的电子控制单元、控制器、处理器等执行并传输至交互设备中,或者直接由交互设备执行互动虚拟现实口才表达训练方法,也可以通过云服务器执行后将信息反馈至交互设备。
本申请实施例的技术方案,通过响应于训练对象的场景需求,构建目标虚拟口才表达场景,在交互设备上实时显示目标虚拟口才表达场景,增加训练的真实感与逼真度,相对现有方案不会受到地点的限制;获取训练对象的口才表达数据,实时地通过指导模型对口才表达数据进行分析,确定情感因子以及指导数据,通过观众行为模型对情感因子以及场景需求进行分析,生成行为表现模拟数据;在交互设备上实时显示行为表现模拟数据,真实模拟观众,为训练对象提供更真实的口才表达环境和挑战,使训练对象能够在虚拟世界中体验与真实观众互动的情况;在交互设备上构建虚拟导师实时输出指导数据,提升训练的个性化程度和参与度。
本申请实施例的技术方案克服了传统口才表达训练方法的限制和挑战,提供了个性化、沉浸式和智能化的口才表达训练体验,有效地改善了口才表达技能和表达能力,为训练对象提供了更高效、便捷和优质的训练平台和工具。
在一种实施方式中,步骤S100中响应于训练对象的场景需求,构建目标虚拟口才表达场景,包括步骤S110或S120:
S110、响应于训练对象的场景选择指令,从预设场景库中确定目标场景模型,对目标场景模型进行渲染,生成目标虚拟口才表达场景。
本申请实施例中设计场景模拟模块,用于为训练对象提供多样化的口才表达场景模拟,以增加训练的真实感和逼真度。具体地,场景模拟模块中具有预设场景库,预设场景库中收集了多个不同类型的口才表达场景,包括但不限于会议厅、讲台、大型活动、学术会议等等,预设场景库的口才表达场景可以根据不同的口才表达场景进行分类和组织,以便训练对象能够方便地选择和切换不同的场景进行针对地训练。例如,当用户想选择会议厅的场景时,可以在交互页面上通过语音说“会议厅”或者点击“会议厅”,从而从预设场景库中确定“会议厅”为目标场景模型。
本申请实施例中,设计场景模拟模块中支持虚拟现实技术、计算机图形学、虚拟场景建模和渲染等技术的相关算法,用于对目标场景模型进行渲染,生成目标虚拟口才表达场景。
本申请实施例中,场景模拟模块的虚拟现实环境的多样化和定制化是为了提供更丰富、逼真和个性化的口才表达训练体验,场景模拟模块的功能包括:
1.多样化的场景选择:内建有预设场景库,其中包含各种不同类型的口才表达场景,例如教室、会议室、大型活动场景等等,这些场景涵盖了日常生活和职业领域中常见的情境,训练对象可以通过简单的语音命令或点击屏幕上的选项,从中选择目标场景。例如,如果用户想练习在大型会议中的口才表达,他们可以直接选择“大型活动场景”。
2.场景模型渲染:一旦用户选择了目标场景,会响应这一选择,从预设场景库中获取相应的场景模型,然后对这些模型进行渲染。这个过程包括将场景的三维模型转化为虚拟现实环境,包括模拟场景中的物体、建筑、人物等元素,以创造逼真的虚拟场景。
3.个性化场景配置:允许用户根据自己的需要和训练目标进行场景的个性化配置。用户可以通过语音或手势等方式对场景的布局、尺寸和灯光效果进行调整。例如,如果用户想要一个更昏暗的环境来练习在低光照条件下的演讲,他们可以调整灯光设置以模拟这种场景。这个个性化配置可以使训练更具针对性和挑战性。
4.虚拟现实技术的支持:整合了虚拟现实技术,包括虚拟现实头盔和手柄等设备,以增强用户的虚拟体验,用户可以穿戴虚拟现实头盔,以更深入地沉浸在虚拟场景中,感受到逼真的情境,可以通过手柄进行互动,与虚拟场景中的对象互动,如与虚拟听众交流。
5.个性化训练体验:这种多样化和定制化的虚拟现实环境使训练对象能够根据自己的需求和目标选择不同的口才表达场景。这不仅增加了训练的真实感和逼真度,还提供了创新和高效的训练方式。这有助于增强训练对象的口才表达能力、自信心和适应能力,因为他们可以在各种情境下进行训练,从而更好地应对现实世界中的各种口才表达挑战。
S120、响应于训练对象的场景配置指令,确定按照场景需求配置的场景布局信息、尺寸信息以及灯光信息,对场景布局信息、尺寸信息以及灯光信息进行建模处理,生成个性化场景模型,对个性化场景模型进行渲染,生成目标虚拟口才表达场景,模拟实际口才表达场景中的物理特性。
本申请实施例中,设计场景模拟模块还提供场景定制化的功能,训练对象可以根据自身需求、口才表达主题等自定义特定的虚拟现实环境,人性化。具体地,训练对象可以输入场景配置指令,响应于训练对象的场景配置指令,确定训练对象对场景布局进行调整后得到的按照场景需求配置的场景布局信息、对场景的尺寸大小进行调整后的尺寸信息以及对场景中灯光效果进行调整后的灯光信息。然后,通过场景模拟模块中支持的各种相关算法,对场景布局信息、尺寸信息以及灯光信息进行建模处理,生成个性化场景模型,并对个性化场景模型进行渲染,生成目标虚拟口才表达场景,满足训练对象对口才表达场景的个性化需求,增强口才表达的真实性和针对性;为训练对象提供了创新和高效的训练方式,有助于提升他们的口才表达能力和自信心。
在一种实施方式中,交互页面为交互设备中的页面,交互设备可以为虚拟现实头盔和手柄,训练对象通过佩戴虚拟现实头盔,进入目标虚拟口才表达场景,通过手柄进行交互操作如场景选择切换、配置等;或者可以为手机、电脑等终端,通过下载应用程序或者基于桌面软件,通过屏幕触摸和陀螺仪等传感器与进行交互操作或者使用鼠标和键盘等进行交互操作。
在一种实施方式中,将在交互设备上显示目标虚拟口才表达场景,此时用训练对象可以在目标虚拟口才表达场景下进行口才表达,可以通过手机、相机、麦克风、传感器等设备获取训练对象在目标虚拟口才表达场景下的口才表达数据,口才表达数据包括但不限于声音、图片、视频等等数据。
在一种实施方式中,步骤S200中实时地通过指导模型对口才表达数据进行分析,确定情感因子以及指导数据,包括步骤S210-S230:
S210、实时地通过指导模型对口才表达数据进行第一分析,确定情感因子。
本申请实施例中,提供智能分析与个性化学习模块,通过人工智能技术,对训练对象的口才表达数据进行智能分析,并提供个性化的训练方案和反馈策略等指导数据。可选地,事先收集大量的口才表达相关数据利用机器学习、自然语言处理和情感计算等人工智能技术,对训练对象的口才表达数据进行分析和建模,构建指导模型,学习训练对象的个人特点、情感、口才表达技巧和改进方向,并根据这些信息提供个性化的学习内容和反馈。实际应用中,实时地通过指导模型对口才表达数据进行第一分析,可以对口才表达数据中声音的语速、语调、流利程度等以及对图片或者视频中的手势、表情等进行第一分析,确定训练对象在口才表达过程中的情感以及情感变化,确定情感因子。
本申请实施例中,可以实现情感因子的识别和分析,不仅限于基本情感状态,还能够分析更复杂的情绪变化,这种高级情感分析能力可以让系统更好地适应训练对象的个性和情感波动,以提供更个性化和有效的训练体验。
例如,本申请实施例可以识别以下情感和情绪变化,并相应地调整训练内容:
1.犹豫与自信度波动:系统能够检测到训练对象在演讲过程中的犹豫和自信度变化,当训练对象感到不确定或犹豫时,系统可以提供鼓励和积极的反馈,以增加自信心。反之,当训练对象表现自信时,系统可以提供更具挑战性的任务和反馈,以促进进一步的成长。
2.情感波动:系统可以检测到情感上的波动,例如训练对象可能在演讲过程中感到紧张、兴奋、焦虑或满足等。系统可以相应地调整虚拟观众的反应或训练场景的复杂性,以反映和适应这些情感状态的变化。这有助于训练对象更好地控制情感和情绪,并在不同情感状态下表现出色。
3.注意力与投入度:系统还可以分析训练对象的注意力和投入度。如果训练对象在演讲中分散注意力或表现出不够投入,系统可以采取措施来提高其专注度,例如提供更引人入胜的训练内容或反馈。
因此,通过识别和分析复杂的情感和情绪变化,系统可以根据训练对象的状态和需求,动态地调整训练难度和内容,以提供更个性化和有效的演讲训练体验。这有助于训练对象更好地应对不同的情境和情感挑战,提高其口才表达能力。
S220、获取训练对象所输入的训练目标,根据训练目标以及口才表达数据进行第二分析,得到第二分析结果。
本申请实施例中,提供技巧设定与目标选择模块,旨在根据训练对象需求和目标,设定个性化的口才表达技巧训练目标,并提供相应的训练方案等指导数据。可选地,训练对象可以在交互页面中输入本次口才表达训练的训练目标,例如提高语言表达能力、改善肢体语言、增强声音控制等等,智能分析与个性化学习模块利用指导模型的个性化学习算法对训练目标以及口才表达数据进行第二分析,识别训练对象的优势和待改进部分,用于后续提供相应的个性化训练方案。例如可以对口才表达数据中声音的语速、语调、流利程度等以及对图片或者视频中的肢体动作、表情等进行分析,确定训练对象的待改进部分,得到第二分析结果。
S230、根据第二分析结果从技巧库中确定目标口才表达技巧,将目标口才表达技巧作为指导数据。
本申请实施例中,技巧设定与目标选择模块中预设有技巧库,收集了丰富的口才表达技巧,可以结合专业口才表达培训经验、行业资料和口才表达研究成果等,将技巧库不断完善和更新。技巧库中的口才表达技巧可以根据不同的口才表达类型、场合和目标进行分类和组织,以便区分。具体地,当确定第二分析结果后,从技巧库中匹配用于解决待改进部分的目标口才表达技巧,将目标口才表达技巧作为指导数据,用于为训练对象提供个性化的训练方案。需要说明的是,通过实时地进行第二分析,确定及时且动态调整匹配目标口才表达技巧作为指导数据,提供最佳的个性化训练体验。可选地,指导数据还可以包括与目标口才表达技巧关联的练习活动以及相关口才表达案例的分析等。
本申请实施例中,系统可以实时监测和提供个性化反馈的指导数据,具体地:
1.实时监测训练对象的表现:系统在口才表达训练过程中不断地收集和分析训练对象的口才表达数据,包括声音的语速、语调、流利程度,以及肢体语言、表情等方面的数据。这些数据可能通过麦克风、摄像头或其他传感器设备获取。系统还实时监测训练对象的情感状态,包括情感因子和情感变化。
2.提供个性化反馈:基于实时的数据分析,系统能够为每位训练对象提供个性化的反馈。例如,如果系统检测到训练对象在语速方面过快,它可以提供建议,建议训练对象减慢语速,以提高表达的清晰度。如果训练对象的肢体语言或表情不够生动,系统可以建议他们在表达中更多地运用手势或面部表情来增强沟通效果。
3.及时应用反馈:系统不仅提供反馈,还可以帮助训练对象实时应用这些反馈。这可以通过虚拟现实界面或交互式应用程序来实现。例如,系统可以在屏幕上显示实时的反馈,如文本建议或可视化指导,以帮助训练对象在训练过程中进行改进。这使训练对象能够立即尝试应用建议,以提高口才表达的质量。
4.动态调整训练内容:系统还可以根据训练对象的表现和进展动态调整训练内容。如果训练对象在某个方面表现出改进,系统可以提供更具挑战性的任务,以继续提高其表现水平。相反,如果训练对象需要更多的帮助,系统可以适度减轻训练难度,以确保他们能够有效地提高口才表达能力。
本申请实施例中,技巧设定与目标选择模块中还能够跟踪训练对象的训练进展,并进行定期评估。例如,技巧设定与目标选择模块会记录训练对象的口才表达数据以及每次的第二分析结果,将先后的的第二分析结果进行对比,分析进展情况,并给予相应的反馈和建议,这有助于训练对象了解自己的口才表达能力发展情况,及时调整训练目标和方案,为训练对象提供有效的训练指导和反馈。更具体地:跟踪训练对象的训练进展可以包括:
1.深入数据分析:模块定期记录并分析训练对象的口才表达数据,这些数据包括声音的语速、语调、流利程度,以及肢体语言、表情等多维度信息。这些数据被用于识别训练对象的强项和弱点,以及情感因子和情感变化。通过实时数据分析,系统能够生成详尽的口才表达能力分析报告。
2.生成个性化进展报告:基于数据分析,系统生成个性化的进展报告,突出了训练对象在不同训练环节的表现。这些报告提供了有关口才表达技能的深入见解,包括对语速、语调、肢体语言等方面的评估。报告还突出显示了训练对象的优势和改进点。
3.提供具体改进建议:个性化进展报告不仅仅指出问题,还提供具体的改进建议。这些建议是根据分析的结果和训练对象的目标量身定制的。例如,如果系统发现训练对象在语速方面需要改进,报告可能会建议减慢语速,并提供特定的练习活动或口才表达案例,以帮助训练对象在这一方面取得进步。
4.强调个性化学习:系统的个性化学习算法会根据训练对象的训练进展和反馈进行动态调整。这意味着进展报告和建议会随着时间而变化,以更好地满足训练对象的需求。如果训练对象在某个领域取得了显著进展,系统可能会调整目标口才表达技巧的级别,提供更高级别的技巧,从而给予训练对象更高的挑战。
5.用户参与的个性化选择:训练对象还可以根据自己的兴趣和需求从技巧库中主动选择目标口才表达技巧。这个选择可以更加个性化,允许用户学习他们最感兴趣的口才表达领域,这有助于保持用户的积极性和参与度。
在一些实施方式中,技巧库中的口才表达技巧可以配置相应的级别以及评估指标,在选取口才表达技巧时优先选取级别低的口才表达技巧作为目标口才表达技巧,并可以动态分析训练对象基于目标口才表达技巧调整后的新的口才表达数据进行第二分析,当第二分析结果满足该级别的口才表达技巧的评估指标,选择更高级别的口才表达技巧作为目标口才表达技巧,给予训练对象更高的挑战以及有利于进一步提高口才表达实力。
在一些实施方式中,训练对象可以从技巧库中主动选择目标口才表达技巧作为指导数据,使得训练对象可以个性化地学习自己想学习的口才表达技巧。
在一些实施方式中,基于训练对象的口才表达数据和目标设定,系统会应用个性化学习算法,识别训练对象的优势和改进点,并提供相应的个性化训练方案。该算法可以根据训练对象的训练进展和反馈进行动态调整,以持续提供针对性的学习内容和建议。更具体地:个性化学习算法可以包括:
1.数据驱动的模型:例如使用深度学习模型,如循环神经网络(RNN)或变换器(Transformer)等,来处理用户的口才表达数据,这些模型能够分析用户的语言特点,例如使用的词汇、句式结构、语速、语调等。通过训练这些模型,系统可以学习用户的语言习惯和沟通模式。
2.用户建模:系统会为每个训练对象创建一个个性化的用户模型。这个模型将包括用户的口才表达历史数据,包括之前的演讲、反馈和进展,用户模型也可能包括其他个性化信息,如用户的学习风格、目标和偏好。
3.行为预测:基于用户模型和深度学习模型,系统可以预测用户未来的口才表达行为。例如,系统可以预测用户在特定情境下可能的演讲内容、语速、语调等。这些预测可以帮助系统更好地理解用户,并提供个性化的建议。
4.训练内容生成:系统根据行为预测生成个性化的训练内容。例如,如果系统预测用户在语速方面需要改进,它可以提供相关的练习活动,帮助用户练习控制语速。如果系统预测用户在表情和肢体语言方面需要改进,它可以提供相应的虚拟场景或练习。
5.实时反馈:系统在训练过程中实时监测用户的表现,与先前的预测进行对比。如果用户的实际表现与预测一致,系统可以给予积极的反馈,如果用户的表现与预测不符,系统可以提供针对性的建议,帮助用户调整口才表达方式。
6.动态调整:系统不断更新用户模型和深度学习模型,以适应用户的进展和变化,这意味着系统可以根据用户的学习速度和反馈来调整训练内容的难度和复杂性。如果用户进展顺利,系统可以提供更高级别的挑战,以进一步提高口才表达能力。
7.交互性:用户可以与系统进行互动,例如,他们可以自己设定训练目标或选择想要学习的口才表达技巧。系统将这些用户选择纳入考虑,并在个性化学习算法中集成这些用户设定,以确保培训的个性化程度。
类似地,训练对象可以通过虚拟现实头盔、手柄,或者通过手机、电脑等终进行交互操作,选择目标口才表达技巧、设定训练目标等。
在一种实施方式中,步骤S300包括步骤S310-S330:
S310、通过观众行为模型对场景需求进行分析,确定符合场景需求对应的若干个第一行为表现。
本申请实施例中,提供观众反应模拟模块,旨在模拟真实观众的反应和情绪,以提供更真实的口才表达环境和挑战。具体地,观众反应模拟模块中嵌入了观众行为模型,观众行为模型可以根据不同场景和口才表达类型进行调整和定制,以模拟符合实际需求的真实观众的行为表现以及观众的外貌和表情等等。例如,通过观众行为模型对场景需求进行分析,确定符合场景需求对应的若干个第一行为表现。例如,如果在会议室场景,可以确定第一行为表现为鼓掌、安静等。需要说明的是,观众行为模型根据真实观众的反应和情绪数据进行训练和建模的,它可以帮助系统判断符合需求的真实观众的行为表现,以及可以判断训练对象的口才表达表现和情感因子是否符合预期,在不符合预期时,结合指导模型输出改进建议。
S320、通过观众行为模型对情感因子进行分析,确定符合情感因子对应的第二行为表现。
具体地,通过观众行为模型对情感因子进行分析,确定符合情感因子对应的第二行为表现。
可选地,第一行为表现以及第二行为表现可以包括但不限于如鼓掌、喝彩、提问、安静、发出嘘声等等。例如,如果分析到训练对象当前的情绪因子为兴奋/高昂,可以确定观众所对应的第二行为表现为喝彩;如果分析到训练对象当前的情绪因子为安静/平静,可以确定观众所对应的第二行为表现为安静。又例如,如果训练对象表现自信、语速稳定,即情感因子为自信,可能会模拟观众鼓掌或喝彩等积极的反应,相反,如果训练对象表现紧张、语速不稳定,即情感因子为不自信,可能会生成观众的沉默或轻微的嘘声等负面行为表现。
S330、通过观众行为模型对情感因子进行分析,确定符合情感因子对应的第二行为表现。
可选地,步骤S330包括步骤S3301-S3303:
S3301、当存在相同的第一行为表现以及第二行为表现时,将相同的第一行为表现或第二行为表现确定为目标行为表现。
例如,如果确定第一行为表现包括鼓掌、喝彩,第二行为表现为喝彩,此时可以确定喝彩为目标行为表现。
S3302、当不存在相同的第一行为表现以及第二行为表现时,从若干个第一行为表现以及第二行为表现中随机确定目标行为表现,或者计算每一第一行为表现与第二行为表现的相似度,将相似度最高的第一行为表现作为目标行为表现。
例如,如果确定第一行为表现包括鼓掌、喝彩,第二行为表现为安静,此时不存在相同的第一行为表现以及第二行为表现,可以从鼓掌、喝彩、安静中随机确定一个为目标行为表现;或者,计算每一第一行为表现与第二行为表现的相似度,将与第二行为表现相似度最高的第一行为表现作为目标行为表现。
S3303、将确定的目标行为表现进行实时地模拟,生成行为表现模拟数据。
本申请实施例中,将确定的目标行为表现进行实时地模拟,生成行为表现模拟数据,实时地模拟观众的行为表现。需要说明的是,由于情感因子是不断实时地确定的,因此确定的目标行为表现也是实时的,因此行为表现模拟数据可以基于情感因此的实时变化而进行实时调整,进一步提高观众行为表现模拟的真实性。
需要说明的是,观众反应模拟模块中搭载有虚拟现实、通过计算机图形学、人工智能等处理算法,将确定的目标行为表现进行实时地模拟,以逼真的方式呈现给训练对象,训练对象可以在虚拟现实环境中感受到真实观众的反应和情绪,增加口才表达的真实性和紧张感。本申请实施例中,在交互设备上实时显示行为表现模拟数据,从而为训练对象提供实时地观众行为表现,给训练对象一种身临其境的真实感觉,感受到观众的反应和情绪,提高口才表达训练的效果。
在一种实施方式中,步骤S400中在交互设备上构建虚拟导师实时输出指导数据包括步骤S410或S420:
S410、响应于训练对象的虚拟导师选择指令,从虚拟导师库中确定虚拟导师,在交互设备上构建虚拟导师实时输出指导数据。
本申请实施例中,还提供虚拟导师创建与选择模块,旨在为训练对象提供虚拟导师角色的创建和选择功能,以增强训练对象的训练体验和个性化指导。具体地,虚拟导师创建与选择模块中具有虚拟导师库,虚拟导师库中具有各个虚拟导师(角色),每一虚拟导师具有不同的教学风格、专业领域以及指导策略,可以将虚拟导师的教学风格、专业领域、指导策略以及声音等虚拟导师介绍信息在交互设备的交互页面上进行显示。训练对象可以在交互页面上进行虚拟导师的选择生成对应的虚拟导师选择指令,虚拟导师创建与选择模块响应于训练对象的虚拟导师选择指令,从虚拟导师库中确定虚拟导师,然后在交互设备上构建所选择虚拟导师,利用虚拟导师实时输出指导数据。例如,通过该虚拟导师的声音阅读出指导数据,给训练对象一种真人辅导的沉浸感和代入感,提高训练效果。
S420、响应于训练对象的虚拟导师创建指令,确定按照训练对象需求配置的外表信息、性格信息以及声音信息,根据外表信息、性格信息以及声音信息在交互设备上构建虚拟导师实时输出指导数据。
本申请实施例中,虚拟导师创建与选择模块还提供个性化的虚拟导师创建功能,训练对象可以通过虚拟导师创建指令按照自身需求配置虚拟导师的外貌、性格以及声音等等。具体地,虚拟导师创建与选择模块响应于训练对象的虚拟导师创建指令所配置的导师的外貌、服装、性格以及声音等内容,确定按照训练对象需求配置的外表信息、性格信息以及声音信息,然后通过图形界面或工具根据外表信息、性格信息以及声音信息在交互设备上构建虚拟导师,利用虚拟导师实时输出指导数据。例如,通过语音播放指导数据,接受定制化的训练和指导,提升训练的个性化和参与度。例如,可以定制虚拟导师温和友善但同时富有激励力量的性格,可以为虚拟导师设定适当的语调、表情和肢体语言,使虚拟导师更好地与他建立连接;可以为虚拟导师选择适合他学习风格和需求的声音,喜欢听到温暖和富有魅力的声音,可以为虚拟导师选择这样的声音特征,虚拟导师的声音将通过虚拟现实技术和音频处理技术传达给训练对象,使训练对象能够更好地感受到导师的指导和鼓励,提高训练效果。
而在虚拟导师创建与选择模块的互动性方面,训练对象可以通过语音、文字或虚拟现实技术与虚拟导师进行实时的对话和交流。训练对象可以向虚拟导师提问、分享口才表达稿,并接收虚拟导师的指导和反馈。虚拟导师可以根据训练对象的回答、表达和提问,提供针对性的建议和训练,帮助训练对象改善口才表达技巧和口才表达能力。
需要说明的是,选择的虚拟导师或者创建的虚拟导师可以包括不同背景的专业人士、口才表达教练或口才表达界的成功者等,以满足不同训练对象的需求。
在一种实施方式中,本申请实施例的方法还包括步骤S430-S440:
S430、获取训练对象在交互设备上输入的交流信息。
本申请实施例中,为了进一步地提高训练对象的体验以及真实感,虚拟导师创建与选择模块可以接收训练对象在交互设备上输入的交流信息,交流信息包括文字、语音或者手势等。例如,当训练对象具有疑问时,可以通过语音进行提问。
S440、响应于交流信息与虚拟导师建立实时对话,在实时对话的过程中,分析交流信息的含义,并根据含义查找对应的回答,通过虚拟导师输出回答。
本申请实施例中,虚拟导师创建与选择模块响应于交流信息与虚拟导师建立实时对话,在实时对话的过程中,例如训练对象通过语音进行提问,此时可以分析交流信息的含义,并根据含义查找对应的回答。例如语言分析模型将语音转化为文字,然后提取文字的关键词,利用关键词匹配对应的回答。然后,在确定回答后,将回答转换为音频数据,通过虚拟导师利用其声音播放回答。
可选地,可以通过ChatGPT基于文字得到上述的回答,或者可以通过设置知识图谱,基于关键词从知识图谱中确定对应的回答,不作具体限定。
可选地,本申请实施例还提供角色扮演训练模块,可以用于:
响应于训练对象的训练需求,设定角色扮演的场景,包括但不限于讲会、商务会议、面试等,每个场景都有相应的特点和要求;
响应于训练对象可的角色选定指令,可以选择在场景中扮演的角色,例如口才表达者、主持人、听众等,每个角色都有不同的角色要求和表达方式;
通过虚拟现实技术将训练对象置身于场景中的角色中,以提供身临其境的训练体验。
类似地,可以通过虚拟现实头盔、手柄、终端等进行交互,输入训练需求以及角色选定指令。其中,系统可以利用语音识别技术识别训练对象的语音输入,并通过语音合成技术将扮演的角色的语音输出呈现给训练对象;系统还可以利用情感识别技术分析训练对象的情绪和表达状态,了解训练对象在角色扮演中的情感体验,并相应地调整反馈和评估。
需要说明的是,角色扮演训练模块的主要功能包括:
1.角色学习和表达:训练对象可以在特定的角色中进行学习和表达。通过模拟真实的场景和角色要求,训练对象能够更好地理解和掌握各种角色的特点、需求和表达方式。
2.场景感知和反馈:系统可以通过虚拟现实技术对训练对象的动作、语言和表情进行感知,并提供实时的反馈和评估。训练对象可以根据反馈调整自己的表达方式,改善口才表达技巧和口才表达能力。
3.角色交互和对话:训练对象可以与虚拟现实环境中的其他虚拟角色进行互动和对话。这些虚拟角色可以扮演不同的角色,提供各种角色的反应、提问和回应,使训练对象能够在真实的交互环境中练习口才表达和表达能力。
可选地,本申请实施例还提供口才表达训练社区模块,用于提供个人主页、讨论区/论坛以及视频库。
其中,每个训练对象都有一个个人主页,展示其口才表达成果、训练记录、技巧分享等信息。训练对象可以在讨论区或论坛中创建个人账户,通过注册和登录访问讨论区或论坛,保证训练对象信息的隐私和安全,并在讨论区或论坛中与其他训练对象分享经验、提问问题、讨论话题等,通过训练对象之间的关注、评论、点赞等互动功能,促进训练对象之间的交流和互动,为训练对象提供了一个交流和学习的平台。训练对象可以在视频库上传和分享自己的口才表达视频,也可以观看其他训练对象的口才表达视频,以获得灵感和学习。
可选地,本申请实施例还提供比赛与排行榜模块,用于提供比赛设置、比赛报名以及排行榜的功能。
其中,比赛设置功能中,系统管理员可以设定不同类型的口才表达比赛,如主题口才表达、辩论赛等,比赛设置包括比赛时间、参与资格、评判标准、奖项设置等。比赛报名功能中,训练对象可以根据自己的兴趣和能力报名参加特定的口才表达比赛。训练对象需要在指定的时间内提供相关信息和口才表达稿件,评委会根据设定的评判标准对口才表达进行评分,评分结果将影响参赛者的排名和成绩。排行榜功能中,系统会根据比赛成绩和其他评判标准生成排行榜,展示各参赛者的表现和名次,排行榜可以按照不同的指标进行排序和展示。其中,训练对象可以通过浏览器或手机应用参与比赛和查看排行榜。
需要说明的是,通过设立口才表达比赛,可以激发训练对象的学习兴趣和竞争动力,训练对象可以与其他参赛者竞争,努力提升自己的口才表达技巧和表达能力。
参赛者在比赛结束后,可以获得来自评委和其他训练对象的反馈和评价,这些评价可以帮助参赛者发现问题、改进口才表达能力,并促进个人的成长。参赛者可以在比赛过程中与其他参赛者进行互动和交流,分享经验、互相学习。这种社交互动促进了训练对象之间的学习和进步。
可选地,本申请实施例还提供语音和语言分析模块,一些实施例中该语音和语言分析模块可以作为指导模型中的一部分。语音和语言分析模块用于提供:
1、语音识别:通过语音识别技术,将训练对象的口才表达内容转换为文字形式,以便后续的分析和处理。
2.语言分析:对训练对象的口才表达内容进行语言分析,包括语法、用词准确性、逻辑结构等方面的评估。
3.发音和语调分析:通过对训练对象的语音进行分析,检测发音准确性、语调变化等,帮助训练对象改善口语表达的流畅性和自然度。
可选地,本申请实施例还提供身体语言分析与纠正模块,一些实施例中该身体语言分析与纠正模块可以作为指导模型中的一部分。身体语言分析与纠正模块用于提供:
1.姿势和动作识别:通过虚拟现实技术或传感器技术,对训练对象的姿势和动作进行实时识别和分析。
2.身体语言评估:对训练对象的身体语言进行评估,包括姿势的准确性、手势的适当性、眼神交流等方面的评估。
3.纠正反馈:根据评估结果,系统可以提供针对性的纠正反馈,帮助训练对象改善身体语言表达的效果。
综上,本申请实施例的方法至少具有以下效果:
1.个性化的指导与训练:系统通过智能虚拟导师和个性化学习算法,能够根据训练对象的特点和需求,提供定制化的口才表达指导和训练。这样,训练对象可以根据自身的需求和目标,获得针对性的指导,提高口才表达技巧和表达能力。
2.沉浸式的训练体验:借助虚拟现实技术,该系统能够创造出身临其境的口才表达训练环境,训练对象可以在虚拟场景中进行真实感的口才表达模拟和训练,提高训练的真实性和效果。
3.即时的评估和反馈:系统能够实时分析训练对象的语音、身体语言和口才表达技巧,并提供即时的评估和反馈。训练对象可以即刻了解自己的表现情况,了解哪些方面需要改进,并根据系统的指导和建议进行调整和提升。
4.社交互动和竞争机制:系统通过口才表达训练社区和比赛模块,鼓励训练对象与其他训练对象互动、竞争和分享经验,社交互动能够增加学习动力和参与度,促进训练对象之间的互相学习和进步。
5.身体语言纠正和指导:系统通过身体语言分析与纠正模块,监测训练对象的肢体语言和姿态,并提供实时的纠正和指导。这有助于改善训练对象的肢体表达和形象,提升口才表达的整体效果和说服力。
参照图2,示出了本申请一实施例的互动虚拟现实口才表达训练装置的结构框图,该装置可以包括:
构建模块,用于响应于训练对象的场景需求,构建目标虚拟口才表达场景,在交互设备上显示目标虚拟口才表达场景;
确定模块,用于获取训练对象的口才表达数据,实时地通过指导模型对口才表达数据进行分析,确定情感因子以及指导数据;
生成模块,用于通过观众行为模型对情感因子以及场景需求进行分析,生成行为表现模拟数据;
显示模块,用于在交互设备上实时显示行为表现模拟数据,以及在交互设备上构建虚拟导师实时输出指导数据。
在一种实施方式中,显示模块还可以用于:
获取训练对象在交互设备上输入的交流信息,交流信息包括文字、语音或者手势;
响应于交流信息与虚拟导师建立实时对话,在实时对话的过程中,分析交流信息的含义,并根据含义查找对应的回答,通过虚拟导师输出回答。
本申请实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
参照图3,示出了本申请一实施例电子设备的结构框图,该电子设备包括:存储器310和处理器320,存储器310内存储有可在处理器320上运行的指令,处理器320加载并执行该指令实现上述实施例中的互动虚拟现实口才表达训练方法。其中,存储器310和处理器320的数量可以为一个或多个。
在一种实施方式中,电子设备还包括通信接口330,用于与外界设备进行通信,进行数据交互传输。如果存储器310、处理器320和通信接口330独立实现,则存储器310、处理器320和通信接口330可以通过总线相互连接并完成相互间的通信。该总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(PeripheralComponentInterconnect,PCI)总线或扩展工业标准体系结构(Extended IndustryStandard Architecture,EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图3中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器310、处理器320及通信接口330集成在一块芯片上,则存储器310、处理器320及通信接口330可以通过内部接口完成相互间的通信。
本申请实施例提供了一种计算机可读存储介质,其存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中提供的互动虚拟现实口才表达训练方法。
本申请实施例还提供了一种芯片,该芯片包括,包括处理器,用于从存储器中调用并运行存储器中存储的指令,使得安装有芯片的通信设备执行本申请实施例提供的方法。
本申请实施例还提供了一种芯片,包括:输入接口、输出接口、处理器和存储器,输入接口、输出接口、处理器以及存储器之间通过内部连接通路相连,处理器用于执行存储器中的代码,当代码被执行时,处理器用于执行申请实施例提供的方法。
应理解的是,上述处理器可以是中央处理器(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signal processing,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(fieldprogrammablegate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者是任何常规的处理器等。值得说明的是,处理器可以是支持进阶精简指令集机器(advanced RISC machines,ARM)架构的处理器。
进一步地,可选的,上述存储器可以包括只读存储器和随机存取存储器,还可以包括非易失性随机存取存储器。该存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以包括只读存储器(read-onlymemory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以包括随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用。例如,静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic random access memory,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(doubledata date SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhancedSDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络,或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输。
在本说明书的描述中,参考术语“一个实施例”“一些实施例”“示例”“具体示例”或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分。并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。
应理解的是,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。上述实施例方法的全部或部分步骤是可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。上述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。该存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种互动虚拟现实口才表达训练方法,其特征在于,包括:
响应于训练对象的场景需求,构建目标虚拟口才表达场景,在交互设备上显示所述目标虚拟口才表达场景;
获取所述训练对象的口才表达数据,实时地通过指导模型对所述口才表达数据进行分析,确定情感因子以及指导数据;
通过观众行为模型对所述情感因子以及所述场景需求进行分析,生成行为表现模拟数据;
在所述交互设备上实时显示所述行为表现模拟数据,以及在所述交互设备上构建虚拟导师实时输出所述指导数据。
2.根据权利要求1所述互动虚拟现实口才表达训练方法,其特征在于:所述响应于训练对象的场景需求,构建目标虚拟口才表达场景包括:
响应于所述训练对象的场景选择指令,从预设场景库中确定目标场景模型,对所述目标场景模型进行渲染,生成目标虚拟口才表达场景;
或者,
响应于所述训练对象的场景配置指令,确定按照场景需求配置的场景布局信息、尺寸信息以及灯光信息,对所述场景布局信息、所述尺寸信息以及所述灯光信息进行建模处理,生成个性化场景模型,对所述个性化场景模型进行渲染,生成目标虚拟口才表达场景。
3.根据权利要求1所述互动虚拟现实口才表达训练方法,其特征在于:所述通过观众行为模型对所述情感因子以及所述场景需求进行分析,生成行为表现模拟数据包括:
通过所述观众行为模型对所述场景需求进行分析,确定符合所述场景需求对应的若干个第一行为表现;
通过所述观众行为模型对所述情感因子进行分析,确定符合所述情感因子对应的第二行为表现;
根据若干个所述第一行为表现以及所述第二行为表现,生成行为表现模拟数据。
4.根据权利要求3所述互动虚拟现实口才表达训练方法,其特征在于:所述根据若干个所述第一行为表现以及所述第二行为表现,生成行为表现模拟数据包括:
当存在相同的所述第一行为表现以及所述第二行为表现时,将相同的所述第一行为表现或所述第二行为表现确定为目标行为表现;
当不存在相同的所述第一行为表现以及所述第二行为表现时,从若干个所述第一行为表现以及所述第二行为表现中随机确定目标行为表现,或者计算每一所述第一行为表现与所述第二行为表现的相似度,将相似度最高的第一行为表现作为目标行为表现;
将确定的所述目标行为表现进行实时地模拟,生成行为表现模拟数据。
5.根据权利要求1所述互动虚拟现实口才表达训练方法,其特征在于:所述实时地通过指导模型对所述口才表达数据进行分析,确定情感因子以及指导数据包括:
实时地通过指导模型对所述口才表达数据进行第一分析,确定情感因子;
获取训练对象所输入的训练目标,根据所述训练目标以及所述口才表达数据进行第二分析,得到第二分析结果;
根据所述第二分析结果从技巧库中确定目标口才表达技巧,将所述目标口才表达技巧作为指导数据。
6.根据权利要求1-5任一项所述互动虚拟现实口才表达训练方法,其特征在于:所述在所述交互设备上构建虚拟导师实时输出所述指导数据包括:
响应于所述训练对象的虚拟导师选择指令,从虚拟导师库中确定虚拟导师,在所述交互设备上构建所述虚拟导师实时输出所述指导数据,其中每一虚拟导师具有不同的教学风格、专业领域、指导策略以及声音;
或者,
响应于所述训练对象的虚拟导师创建指令,确定按照训练对象需求配置的外表信息、性格信息以及声音信息,根据所述外表信息、性格信息以及声音信息在所述交互设备上构建虚拟导师实时输出所述指导数据。
7.根据权利要求6所述互动虚拟现实口才表达训练方法,其特征在于:所述方法还包括:
获取所述训练对象在所述交互设备上输入的交流信息,所述交流信息包括文字、语音或者手势;
响应于所述交流信息与所述虚拟导师建立实时对话,在所述实时对话的过程中,分析所述交流信息的含义,并根据所述含义查找对应的回答,通过所述虚拟导师输出所述回答。
8.一种互动虚拟现实口才表达训练装置,其特征在于,包括:
构建模块,用于响应于训练对象的场景需求,构建目标虚拟口才表达场景,在交互设备上显示所述目标虚拟口才表达场景;
确定模块,用于获取所述训练对象的口才表达数据,实时地通过指导模型对所述口才表达数据进行分析,确定情感因子以及指导数据;
生成模块,用于通过观众行为模型对所述情感因子以及所述场景需求进行分析,生成行为表现模拟数据;
显示模块,用于在所述交互设备上实时显示所述行为表现模拟数据,以及在所述交互设备上构建虚拟导师实时输出所述指导数据。
9.一种电子设备,其特征在于,包括:处理器和存储器,所述存储器中存储指令,所述指令由所述处理器加载并执行,以实现如权利要求1至7任一项所述的方法。
10.一种计算机可读介质,所述计算机可读介质内存储有计算机程序,所述计算机程序被执行时实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311652509.XA CN117541444B (zh) | 2023-12-04 | 2023-12-04 | 一种互动虚拟现实口才表达训练方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311652509.XA CN117541444B (zh) | 2023-12-04 | 2023-12-04 | 一种互动虚拟现实口才表达训练方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117541444A true CN117541444A (zh) | 2024-02-09 |
CN117541444B CN117541444B (zh) | 2024-03-29 |
Family
ID=89784125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311652509.XA Active CN117541444B (zh) | 2023-12-04 | 2023-12-04 | 一种互动虚拟现实口才表达训练方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117541444B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117522643A (zh) * | 2023-12-04 | 2024-02-06 | 新励成教育科技股份有限公司 | 一种口才训练方法、装置、设备及存储介质 |
CN117893718A (zh) * | 2024-03-18 | 2024-04-16 | 新励成教育科技股份有限公司 | 一种演讲场景动态生成方法、系统、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108257037A (zh) * | 2018-01-18 | 2018-07-06 | 封玉涛 | 一种以社交场景化为切入点的多应用融合方法及装置 |
CN110764622A (zh) * | 2019-11-01 | 2020-02-07 | 山东大学 | 一种虚拟现实多模式演讲训练工具 |
CN111639218A (zh) * | 2020-05-12 | 2020-09-08 | 广东小天才科技有限公司 | 一种口语训练的交互方法及终端设备 |
CN111833682A (zh) * | 2020-06-03 | 2020-10-27 | 四川大学华西医院 | 基于vr技术的虚拟查体教学方法和装置 |
WO2022052481A1 (zh) * | 2020-09-08 | 2022-03-17 | 平安科技(深圳)有限公司 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
US20220293008A1 (en) * | 2021-03-09 | 2022-09-15 | Ailin SHA | Virtual-scene-based language-learning system and device thereof |
-
2023
- 2023-12-04 CN CN202311652509.XA patent/CN117541444B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108257037A (zh) * | 2018-01-18 | 2018-07-06 | 封玉涛 | 一种以社交场景化为切入点的多应用融合方法及装置 |
CN110764622A (zh) * | 2019-11-01 | 2020-02-07 | 山东大学 | 一种虚拟现实多模式演讲训练工具 |
CN111639218A (zh) * | 2020-05-12 | 2020-09-08 | 广东小天才科技有限公司 | 一种口语训练的交互方法及终端设备 |
CN111833682A (zh) * | 2020-06-03 | 2020-10-27 | 四川大学华西医院 | 基于vr技术的虚拟查体教学方法和装置 |
WO2022052481A1 (zh) * | 2020-09-08 | 2022-03-17 | 平安科技(深圳)有限公司 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
US20220293008A1 (en) * | 2021-03-09 | 2022-09-15 | Ailin SHA | Virtual-scene-based language-learning system and device thereof |
Non-Patent Citations (1)
Title |
---|
朱珂;张思妍;刘雨;: "基于情感计算的虚拟教师模型设计与应用优势", 现代教育技术, no. 06, 15 June 2020 (2020-06-15) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117522643A (zh) * | 2023-12-04 | 2024-02-06 | 新励成教育科技股份有限公司 | 一种口才训练方法、装置、设备及存储介质 |
CN117522643B (zh) * | 2023-12-04 | 2024-05-10 | 新励成教育科技股份有限公司 | 一种口才训练方法、装置、设备及存储介质 |
CN117893718A (zh) * | 2024-03-18 | 2024-04-16 | 新励成教育科技股份有限公司 | 一种演讲场景动态生成方法、系统、设备及介质 |
CN117893718B (zh) * | 2024-03-18 | 2024-06-07 | 新励成教育科技股份有限公司 | 一种演讲场景动态生成方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117541444B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11798431B2 (en) | Public speaking trainer with 3-D simulation and real-time feedback | |
CN117541444B (zh) | 一种互动虚拟现实口才表达训练方法、装置、设备及介质 | |
TWI713000B (zh) | 線上學習輔助方法、系統、設備以及電腦可讀取記錄媒體 | |
US20150072322A1 (en) | Situated simulation for training, education, and therapy | |
CN117541445B (zh) | 一种虚拟环境交互的口才训练方法、系统、设备及介质 | |
US20210043106A1 (en) | Technology based learning platform for persons having autism | |
JP6419924B1 (ja) | 学習支援システムおよび学習支援方法 | |
JP2012516463A (ja) | コンピュータ実行方法 | |
CN110992222A (zh) | 教学交互方法、装置、终端设备及存储介质 | |
CN113748449B (zh) | 评估和培训系统 | |
Schuller et al. | Recent developments and results of ASC-Inclusion: An integrated internet-based environment for social inclusion of children with autism spectrum conditions | |
KR20220129989A (ko) | 아바타에 기초한 인터랙션 서비스 방법 및 장치 | |
CN111133403A (zh) | 用于增进幸福感的动态用户交互系统与方法 | |
CN115145434A (zh) | 基于虚拟形象的互动服务方法及装置 | |
CN117522643B (zh) | 一种口才训练方法、装置、设备及存储介质 | |
Battegazzorre et al. | Training medical communication skills with virtual patients: Literature review and directions for future research | |
US11386920B2 (en) | Interactive group session computing systems and related methods | |
US20240203279A1 (en) | Content-driven virtual agent facilitator for online group activity | |
Doumanis | Evaluating humanoid embodied conversational agents in mobile guide applications | |
Pedro et al. | Towards higher sense of presence: a 3D virtual environment adaptable to confusion and engagement | |
Schneider | Voice assistants are social actors–An empirical analysis of media equation effects in human-voice assistant interaction | |
Carvalho et al. | Investigating and comparing the perceptions of voice interaction in digital games: Opportunities for health and wellness applications | |
Liu et al. | Motivating Online Game Intervention to Enhance Practice Engagement in Children with Functional Articulation Disorder | |
KR20200064021A (ko) | 대화형 교육 시스템에 포함되는 사용자 장치와 교육 서버 | |
CN117788239B (zh) | 一种口才训练的多模态反馈方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |