CN117934229B - 基于创意激发的口才训练引导方法、系统、设备及介质 - Google Patents
基于创意激发的口才训练引导方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN117934229B CN117934229B CN202410302910.9A CN202410302910A CN117934229B CN 117934229 B CN117934229 B CN 117934229B CN 202410302910 A CN202410302910 A CN 202410302910A CN 117934229 B CN117934229 B CN 117934229B
- Authority
- CN
- China
- Prior art keywords
- creative
- lecture
- guide text
- style
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 title claims abstract description 22
- 230000005284 excitation Effects 0.000 title claims abstract description 21
- 238000004458 analytical method Methods 0.000 claims abstract description 39
- 230000008451 emotion Effects 0.000 claims description 47
- 230000006870 function Effects 0.000 claims description 31
- 238000011156 evaluation Methods 0.000 claims description 19
- 230000006872 improvement Effects 0.000 claims description 15
- 230000014509 gene expression Effects 0.000 claims description 14
- 239000013598 vector Substances 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 8
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 238000009825 accumulation Methods 0.000 claims description 5
- 239000012634 fragment Substances 0.000 claims 1
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009897 systematic effect Effects 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 208000001613 Gambling Diseases 0.000 description 1
- 241001416997 Mandelia Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Tourism & Hospitality (AREA)
- Educational Administration (AREA)
- Data Mining & Analysis (AREA)
- Strategic Management (AREA)
- Educational Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
Abstract
本发明提出基于创意激发的口才训练引导方法、系统、设备及介质,其方法包括:获取演讲者的演讲内容,对演讲内容进行主题与风格分析,得到演讲主题以及演讲风格;基于指定函数生成满足预设条件的第一引导文本,预设条件包括第一引导文本对应主题与演讲主题之间的相似度高于第一阈值,且第一引导文本对应的文本风格与演讲风格相一致;对第一引导文本进行创意发散度分析,得到创意发散度值;在创意发散度值低于第二阈值的情况下,对第一引导文本进行创意扩展,得到第二引导文本。本发明可对演讲内容进行深度扩展,进一步提升演讲者演讲水平。
Description
技术领域
本发明涉及智能演讲辅助技术领域,尤其涉及一种基于创意激发的口才训练引导方法、系统、设备及介质。
背景技术
在现代社会中,高效、有说服力的演讲能力对于个人和组织的成功至关重要。然而,传统的演讲准备和练习方法存在诸多局限性,例如演讲内容的编写和优化通常依赖于演讲者的个人经验和直觉,缺乏系统化和科学化的支持,演讲者很难写出其自身知识储备以外的演讲观点,不利于演讲者对演讲内容进行深度挖掘和延伸,容易导致演讲者的演讲缺乏深度,演讲内容相对单一,不利于演讲者提升其演讲水平。
发明内容
本发明实施例提供一种基于创意激发的口才训练引导方法、系统、设备及介质,以解决相关技术存在的问题,技术方案如下:
第一方面,本发明实施例提供了一种基于创意激发的口才训练引导方法,包括:
获取演讲者的演讲内容,对演讲内容进行主题与风格分析,得到演讲主题以及演讲风格;
基于指定函数生成满足预设条件的第一引导文本,预设条件包括第一引导文本对应主题与演讲主题之间的相似度高于第一阈值,且第一引导文本对应的文本风格与演讲风格相一致;
对第一引导文本进行创意发散度分析,得到创意发散度值;在创意发散度值低于第二阈值的情况下,对第一引导文本进行创意扩展,得到第二引导文本。
在一种实施方式中,基于指定函数生成满足预设条件的第一引导文本,包括:
对演讲内容进行分析得到关键词,根据关键词生成初步引导文本;
基于第一指定函数对初步引导文本对应的主题以及演讲主题进行相似度分析,在相似度低于第一阈值的情况下调整初步引导文本,得到相似度高于第一阈值的调整后的引导文本;
基于第二指定函数对调整后的引导文本进行风格一致性评估,得到风格一致性指标;根据风格一致性指标对调整后的引导文本进行风格调整,得到文本风格与演讲风格相一致的第一引导文本。
在一种实施方式中,对第一引导文本进行创意发散度分析,包括:
对第一引导文本进行自然语言分析,得到对应的创意元素;
统计各创意元素在第一引导文本中出现的次数,根据次数计算出每个创意元素的概率;
基于第三指定函数根据概率评估第一引导文本的创意发散度,得到创意发散度值。
在一种实施方式中,对第一引导文本进行创意扩展,包括:
获取演讲者的创意需求;
基于生成式算法根据创意需求生成创意触发点,根据创意触发点调整第一引导文本的内容,得到第二引导文本。
在一种实施方式中,还包括:
基于演讲内容执行至少一次口才技能评估分析,得到评估结果;
根据评估结果生成对应的改进建议。
在一种实施方式中,基于演讲内容执行至少一次口才技能评估分析,包括:
对演讲内容进行每个时间点的情感强度分析,得到反映演讲者情绪变化的情感累积值;
分析演讲内容的语言适应性以及修辞技巧,得到语言技巧得分;
获取与演讲内容相关联的听众数据,统计分析听众数据的数量以得到互动反馈强度;
基于第一预设模型根据累积值、语言技巧得分以及互动反馈强度组成的评估结果生成改进建议。
在一种实施方式中,基于演讲内容执行至少一次口才技能评估分析,包括:
根据演讲内容对应的句子长度以及词汇种类分析复杂度和词汇多样性,得到第一指标得分;
根据演讲内容中相邻词句的语义相似度分析逻辑清晰度和连贯性,得到第二指标得分;
对演讲内容进行情感强度分析,得到情感强度检测值,根据情感强度检测值以及预设的情感强度期望值分析情感表达一致性,得到第三指标得分;
基于第二预设模型根据第一指标得分、第二指标得分、第三指标得分组成的评估结果生成改进建议。
第二方面,本发明实施例提供了一种基于创意激发的口才训练引导系统,执行如上述的基于创意激发的口才训练引导方法。
第三方面,本发明实施例提供了一种电子设备,该装置包括:存储器和处理器。其中,该存储器和该处理器通过内部连接通路互相通信,该存储器用于存储指令,该处理器用于执行该存储器存储的指令,并且当该处理器执行该存储器存储的指令时,使得该处理器执行上述各方面任一种实施方式中的方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质存储计算机程序,当计算机程序在计算机上运行时,上述各方面任一种实施方式中的方法被执行。
上述技术方案中的优点或有益效果至少包括:
本发明可根据演讲者的演讲内容生成演讲主题一致且符合演讲者演讲风格的引导建议,可为演讲者提供更加客观且准确的建议,有利于演讲者准确了解其演讲水平并有助于提升演讲者的演讲技能;同时对引导建议进行创意激发,提供具有创意的内容和观点供演讲者查看,为演讲者提供无限的灵感来源,以便于演讲者根据当前的创意状态和需求对演讲内容进行深度扩展,进一步提升演讲者演讲水平。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。
图1为本发明基于创意激发的口才训练引导方法的流程示意图;
图2为本发明一实施例的电子设备的结构框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
实施例一
在现代社会中,高效、有说服力的演讲能力对于个人和组织的成功至关重要。然而,传统的演讲准备和练习方法存在诸多局限性。首先,演讲者通常通过在场听众的反应来评估自身的演讲效果,但听众的反馈往往带有一定的主观性,演讲者在评估和改进自身的口才表达方面往往缺乏客观的反馈和专业的指导。其次,演讲内容的编写和优化通常依赖于演讲者的个人经验和直觉,缺乏系统化和科学化的支持。此外,传统方法在演讲练习中很难提供实时的、个性化的反馈,使得演讲者难以即时了解和修正自己的不足之处。
本实施例提供了一种基于创意激发的口才训练引导方法,可为演讲者提供一个全面的演讲准备和练习平台,为演讲者实时评估演讲者的口才维度表现,提供个性化的改进建议和资源,还可优化演讲内容,促进演讲技能的持续提升,帮助演讲者以更加科学和系统化的方式提升口才表达能力,满足现代社会对高效沟通和表达的需求。
如图1所示,本实施例的基于创意激发的口才训练引导方法具体包括:
步骤S1:获取演讲者的演讲内容,根据演讲内容进行主题与风格分析,得到演讲主题以及演讲风格。
演讲者的演讲内容可以单单是演讲者当前演讲所收录的实时演讲内容,还可以包括历史演讲内容以及演讲者的实时演讲内容。其中,获取历史演讲数据的目的,是为了分析演讲者一贯的演讲风格和习惯,以便于进行新演讲时提出更符合演讲者风格的建议。无论是历史演讲内容还是实时演讲内容,都可通过收录语音的方式收录演讲者演讲时的音频数据,直接分析音频数据得到具体的演讲内容,也可将音频数据转换为文字文本,通过文本分析得到相应的演讲内容。
本实施例可通过自然语言处理技术对演讲内容进行分析,提取演讲内容中的关键词,并在预先构建的演讲主题关联库中找到与关键词相关联的目标主题,统计目标主题的出现概率,筛选出概率最高的目标主题从而确定准确的演讲主题;同理,也可通过相同的方式在预构的风格关联库中找到对应的目标风格,再筛选概率最高的风格作为演讲风格。
步骤S2:基于指定函数生成满足预设条件的第一引导文本,预设条件包括第一引导文本对应主题与演讲主题之间的相似度高于第一阈值,且第一引导文本对应的文本风格与演讲风格相一致。
具体地,步骤S21:确定演讲主题和演讲风格后,可根据演讲主题和演讲风格生成初步引导文本;初步引导文本可以是对演讲者的演讲内容进行优化后的文本内容,而优化后的文本内容需要与演讲者的演讲主题和演讲风格保持一致。其中,初步引导文本可以通过人工智能技术根据与演讲主题和演讲风格相关的关键词生成,人工智能技术在现有技术中已经公开,在此不做详细描述。
步骤S22:为了使得生成的引导文本的内容更加贴合演讲者的演讲主题和风格,基于第一指定函数对初步引导文本对应的主题以及演讲主题进行相似度分析。具体地,第一指定函数为语义相似度增强函数:
;
其中,表示单个句子或内容片段s i与演讲主题相关的关键词集合T的语义相似度增强值,dist(s i ,t)表示单个句子或内容片段s i与主题相关的单个关键词t之间的距离(如余弦距离)。这个函数旨在衡量句子与主题的贴近程度,以提高生成内容的主题相关性。
步骤S23:当计算出语义相似度增强值低于第一阈值,意味着句子与主题的贴近程度相对较低,此时调整该句子的表达,可通过自然语言技术并结合前后文关系生成连贯的且与演讲主题和演讲风格相关联的句子,得到调整后的引导文本。此时,调整后的引导文本的语义相似度增强值高于第一阈值,意味着调整后的引导文本的句子与主题相符。
步骤S24:还需基于第二指定函数对调整后的引导文本进行风格一致性评估,得到风格一致性指标;根据风格一致性指标对调整后的引导文本进行风格调整,得到文本风格与演讲风格相一致的第一引导文本。其中,第二指定函数为风格一致性评价函数:
;
其中,为演讲者历史演讲内容的风格向量均值,/>为生成的引导文本的风格向量,/>表示欧几里得距离,使用欧几里得距离来衡量演讲者历史演讲风格向量均值与生成的引导文本的风格向量之间的差异;若欧几里得距离越小,表示生成的引导文本的风格与演讲者的历史风格越一致。
其中,风格向量的计算方法为:
步骤S241:从演讲内容中提取出关键的语言特征,这些特征可能包括词汇使用、句式结构、修辞手法、语法模式等;这些特征共同构成了演讲者独特的语言风格;
步骤S242:将提取出的语言特征转换为数值形式,形成风格向量(可采用文本嵌入技术,如Word2Vec、GloVe或BERT等,将文本数据转换为高维空间中的向量)。
步骤S243:对演讲者所有历史演讲内容的风格向量进行均值计算,得到;该均值向量代表了演讲者的平均语言风格,是演讲者历史演讲风格的代表。
步骤S244:对于生成的引导文本也重复步骤S241~步骤S242,得到引导文本的风格向量。
本实施例风格一致性评价函数用于评价生成内容与演讲者风格的一致性,这个指标的值越接近1,表示生成的引导文本的内容与演讲者风格的一致性越高;通过这种方式,可以有效评价生成内容与演讲者风格的一致性,确保生成的演讲内容不仅在内容上丰富、吸引人,而且在风格上也与演讲者保持一致,从而提升演讲的个人化和说服力。
步骤S25:当风格一致性评价函数计算所得的指标值相对较低,则代表生成的引导文本的内容与演讲者风格的一致性较低;此时,对引导文本的内容进行调整,可通过自然语言技术并结合前后文关系生成连贯的且与演讲风格相关联的内容,得到文本风格与演讲风格相一致的第一引导文本。
步骤S3:对第一引导文本进行创意发散度分析,得到创意发散度值;在创意发散度值低于第二阈值的情况下,对第一引导文本进行创意扩展,得到第二引导文本。
具体地,对第一引导文本进行创意发散度分析,包括:
步骤S31:对第一引导文本进行自然语言分析,得到对应的创意元素;自然语言分析可以是对关键词进行分析,将代表文本中特定想法和主题的关键词作为创意元素并将各创意元素组合形成创意概念集合。
步骤S32:统计各创意元素在第一引导文本中出现的次数,根据次数计算出每个创意元素的概率;即将每个创意元素的出现次数除以所有创意元素出现的总次数,得到每个元素出现的概率。
步骤S33:基于第三指定函数根据概率评估第一引导文本的创意发散度,得到创意发散度值。其中,第三指定函数为创意发散度测量函数:
;
其中,C gen代表第一引导文本的创意概念集合,p(c)为创意元素c出现的概率。这个函数通过计算熵来评估第一引导文本的创意发散度,即内容的多样性和创新程度。
步骤S34:若发散度低于预设的第二阈值,可通过调整生成式算法参数或引入新的创意触发元素,以增加内容的多样性和创新程度。具体地,对第一引导文本进行创意扩展和创意调整,包括:
步骤S341:获取演讲者的创意需求;其中,创意需求可以包括演讲主题、期望的演讲风格、目标听众等信息。这一步骤可以通过直接询问演讲者,或分析演讲者的历史演讲数据,还可通过使用预设的模板来实现。
步骤S342:基于生成式算法根据创意需求生成创意触发点,根据创意触发点调整第一引导文本的创意元素,得到第二引导文本。
将演讲者的创意需求以及步骤S31分析得知的已存在的创意元素进行比对,可获知目前创意元素与创意需求之间的偏差情况,此时使用生成式算法来产生具体的创意触发点,根据创意触发点调整第一引导文本的内容,生成第二引导文本,使得第二引导文本是贴近演讲者的演讲主题、贴近演讲风格且具有创意的引导建议,以便于演讲者改进和完善其演讲稿。而创意触发点生成的规则可以预先设置为开放式问题、引人深思的引用、相关故事情节、统计数据或任何可能激发演讲者进一步思考和创意的元素。
举例说明:
假设演讲者正在准备一个关于“创新在教育中的作用”的演讲,创意需求是演讲主题对应的关键词是“教育”和“创新”,此时可能生成的创意触发点:
开放式问题:“如果可以打破传统教育模式的任何一个规则,你会选择哪一个?为什么?”
引人深思的引用:“尼尔森·曼德拉曾说:‘教育是最强大的武器,你可以用它来改变世界。’在你看来,现代教育体系中哪些‘创新’元素最有可能成为这种改变的驱动力?”
相关故事情节:“想象一个未来的教室,学生们通过虚拟现实设备进行历史课程的学习。这种技术创新将如何改变学生对历史的理解和感受?”
统计数据:“研究显示,采用游戏化学习的学生在测试中的表现比传统学习方法的学生提高了30%。这一发现如何启示我们在教育中更广泛地应用创新技术?”。
通过上述创意触发点,演讲者可以从不同角度思考教育创新的可能性和影响,从而丰富演讲内容并提出独到的见解。
需要注意的是,生成式算法是一种机器学习算法,可以从给定的数据中生成新的内容。而生成式算法的原理在现有技术中已经公开,在此不再详细描述。
在一些实施例中,除了可根据演讲内容为演讲者提供扩展性的创意引导建议外,还可根据演讲者的演讲内容提出个性化的反馈的建议,指导演讲者在未来的演讲中改进和调整。
具体地,还包括步骤S4:基于演讲内容执行至少一次口才技能评估分析,得到评估结果;
步骤S5:根据评估结果生成对应的个性化改进建议。
其中,口才技能评估分析方法具体包括:
步骤S41:对演讲内容进行每个时间点的情感强度分析,得到反映演讲者情绪变化的情感累积值;
对每一段演讲者的语音或文本输入,使用情感分析技术来识别和量化不同的情绪表达,再使用公式来更新情感累积值,反映演讲者情绪的动态变化,有助于演讲者了解哪些部分的演讲更能激发特定的情绪反应,以及情绪表达的持续性和变化趋势,进而优化演讲内容和表达方式。
其中,E t,i表示在时间t时刻第i种情绪的累积值,e t,i是在时间t的情绪检测值,λ是情感衰减系数,用于模拟情绪随时间的自然衰减。情感累积值是通过对该情绪在不同时间点的观察值进行动态追踪和累加得到的,同时考虑了情绪的自然衰减。而情绪检测值是通过分析演讲者的语音数据来检测时间点t上不同情绪的表达强度,还可增加面部表情、身体语言等数据以增加情绪分析的准确度。
而情绪的表达通常不会无限持续,而是会随着时间逐渐衰减。因此情感衰减系数λ用于模拟情绪强度随时间衰减的自然过程。较小的λ值意味着情绪衰减得更快。
步骤S42:分析演讲内容的语言适应性以及修辞技巧,得到语言技巧得分。
其中,语言适应性的评估方法为:
分析演讲内容,计算演讲者在不同情境下的语言使用级别L t,m。
使用公式来评估语言适应性,即演讲者如何根据不同情境调整其语言风格。
其中,A d,t表示在时间t的语言适应性得分,L t,m是在时间t和情境m下的语言使用级别,L avg,m是该情境下的平均语言使用级别,M是考虑的情境总数,情境m可以是正式商务会议、教育讲座、公共演讲、非正式聚会、媒体采访等,正式商务会议:在这类情境中,语言通常更加正式和精确,使用专业术语的频率较高。教育讲座:可能需要使用更多的解释性语言和教育性词汇,以确保信息的传达和理解。公共演讲:在较大的听众面前,可能需要更加动人和感染力的语言,以吸引和保持听众的注意力。非正式聚会:在这种轻松的环境中,语言可能更加随意和幽默。媒体采访:在面对媒体时,需要使用清晰、简洁且易于公众理解的语言。
语言使用级别L t,m可以通过分析演讲者在特定情境下的语言使用习惯和风格来获得。这通常涉及对演讲者的语言内容进行自然语言处理分析,包括词汇的选择、句式的复杂性、专业术语的使用频率等因素。通过与特定情境下的预设的平均语言使用水平L avg,m进行比较,可以评估演讲者的语言适应性。
语言使用级别反映了演讲者在特定情境下所采用的语言复杂性、正式程度、专业性和适应性。一个高的语言使用级别可能意味着演讲者能够准确地使用专业术语,构建复杂的句子结构,以及有效地调整其语言风格以适应不同的听众和环境。相反,一个低的语言使用级别可能表明演讲者在这些方面存在不足,需要进一步的提升和调整。
修辞技巧的评估方法为:
通过自然语言处理技术识别演讲中的修辞元素(如比喻、反问等),并对每个修辞技巧赋予得分R n,t;
使用公式来计算总体修辞技巧得分。
其中,R s,t代表时间t的总体修辞技巧得分,R n,t是第n个修辞技巧在时间t的得分,是对应该技巧的权重系数,Nr是修辞技巧的总数。
上述计算所得的语言适应性得分以及总体修辞技巧得分统称为语言技巧得分。
步骤S43:获取与演讲内容相关联的听众数据,统计分析听众数据的数量以得到互动反馈强度。
根据实时监测到的听众反馈数量Ft,使用公式来计算反馈强度,这反映了听众对演讲内容的参与度和反应。
其中,I f,t代表时间t的听众互动反馈强度,Ft是在时间t接收到的反馈数量,Fmin和Fmax分别是接收到的最少和最多反馈数量,k是调节因子,用于调整反馈强度的影响。
步骤S44:基于第一预设模型根据累积值、语言技巧得分以及互动反馈强度组成的评估结果生成改进建议。
将所有评估结果,如情感动态、语言适应性、修辞技巧和听众反馈强度,综合起来,形成一个全面的口才技能评估报告。
根据综合评估结果,生成个性化的反馈和建议,指导演讲者在未来的演讲中改进和调整。
在一些实施例中,口才技能评估方法具体包括:
步骤S45:根据演讲内容对应的句子长度以及词汇种类分析复杂度和词汇多样性,得到第一指标得分。
其中,定义复杂度和词汇多样性指标Ccomp,t为一个综合了句子结构复杂度和词汇多样性的指标,计算方式如下:
;
其中,SDlen是句子长度的标准差,反映了结构的复杂性;Hvocab是词汇的熵值,反映了词汇使用的多样性;δ1和δ2是调整两个维度重要性的系数。
步骤S46:根据演讲内容中相邻词句的语义相似度分析逻辑清晰度和连贯性,得到第二指标得分。
逻辑清晰度和连贯性Clogic,t通过分析句子间的语义关联度和话题连续性来评估,计算方法如下:
;
其中,sim(s i ,s i+1 )是相邻句子si和si+1之间的语义相似度;N是句子总数。
步骤S47:对演讲内容进行情感强度分析,得到情感强度检测值,根据情感强度检测值以及预设的情感强度期望值分析情感表达一致性,得到第三指标得分。
情感表达一致性Cemo,t用于评估演讲内容中情感表达的一致性和适宜性,采用如下公式:
;
其中,对每一段演讲内容进行情感分析,得到的Ei是在第i 段演讲内容中检测到的情感强度,是期望的情感强度,Ne是演讲内容段落数。
步骤S48:基于第二预设模型根据第一指标得分、第二指标得分、第三指标得分组成的评估结果生成改进建议。
根据上述计算得到的各维度的指标得分,应用公式来综合得到总的口才技能评分;
其中,Ck是第k个口才维度的指标得分(k=1代表第一指标得分,k=2代表第二指标得分,k=3代表第三指标得分);ωk是对应指标得分的权重,通过调整权重ωk来反映不同口才维度在总评分中的影响力;K是考虑的口才维度总数。
根据上述综合口才技能评估的结果,以及各维度的具体得分,生成针对演讲者的个性化反馈和改进建议。其中,反馈旨在指出演讲者的强项和待改进之处,并提供具体的改进措施,如练习特定的口才技巧、调整演讲结构等。
在一些实施例中,还可动态调整和学习,即根据演讲者对反馈的响应以及随时间的进步,动态调整评估模型中的权重和其他参数;利用机器学习技术持续优化模型,以适应演讲者的个人特点和发展趋势,确保评估和反馈的准确性和实用性。
上述引导文本以及个性化建议可通过一个直观、用户友好的界面,让演讲者可以通过该界面与AI OratoryConductor进行实时互动,实时查看口才分析结果,激发创意灵感,并直接在平台上编辑和完善演讲稿。同时还可提供演讲实践模拟功能,允许用户在虚拟环境中练习演讲,接收即时反馈和建议。
实施例二
本实施例提供一种基于创意激发的口才训练引导系统,执行如实施例一的基于创意激发的口才训练引导方法。具体地,该系统至少包括:
分析模块,用于获取演讲者的演讲内容,根据演讲内容进行主题与风格分析,得到演讲主题以及演讲风格;
引导文本生成模块,基于指定函数生成满足预设条件的第一引导文本,预设条件包括第一引导文本对应主题与演讲主题之间的相似度高于第一阈值,且第一引导文本对应的文本风格与演讲风格相一致;
引导文本调整模块,用于对第一引导文本进行创意发散度分析,得到创意发散度值;在创意发散度值低于第二阈值的情况下,对第一引导文本进行创意扩展,得到第二引导文本。
本发明实施例系统中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
实施例三
图2示出根据本发明一实施例的电子设备的结构框图。如图2所示,该电子设备包括:存储器100和处理器200,存储器100内存储有可在处理器200上运行的计算机程序。处理器200执行该计算机程序时实现上述实施例中的基于创意激发的口才训练引导方法。存储器100和处理器200的数量可以为一个或多个。
该电子设备还包括:
通信接口300,用于与外界设备进行通信,进行数据交互传输。
如果存储器100、处理器200和通信接口300独立实现,则存储器100、处理器200和通信接口300可以通过总线相互连接并完成相互间的通信。该总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral ComponentInterconnect ,PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture ,EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图2中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器100、处理器200及通信接口300集成在一块芯片上,则存储器100、处理器200及通信接口300可以通过内部接口完成相互间的通信。
本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现本发明实施例中提供的方法。
本发明实施例还提供了一种芯片,该芯片包括,包括处理器,用于从存储器中调用并运行存储器中存储的指令,使得安装有芯片的通信设备执行本发明实施例提供的方法。
本发明实施例还提供了一种芯片,包括:输入接口、输出接口、处理器和存储器,输入接口、输出接口、处理器以及存储器之间通过内部连接通路相连,处理器用于执行存储器中的代码,当代码被执行时,处理器用于执行发明实施例提供的方法。
应理解的是,上述处理器可以是中央处理器(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signal processing,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(fieldprogrammablegate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者是任何常规的处理器等。值得说明的是,处理器可以是支持进阶精简指令集机器(advanced RISC machines,ARM)架构的处理器。
进一步地,可选的,上述存储器可以包括只读存储器和随机存取存储器,还可以包括非易失性随机存取存储器。该存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以包括只读存储器(read-onlymemory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以包括随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用。例如,静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic random access memory ,DRAM) 、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data date SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhancedSDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本发明的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包括于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (7)
1.基于创意激发的口才训练引导方法,其特征在于,包括:
获取演讲者的演讲内容,对所述演讲内容进行主题与风格分析,得到演讲主题以及演讲风格;
基于指定函数生成满足预设条件的第一引导文本,所述预设条件包括所述第一引导文本对应主题与所述演讲主题之间的相似度高于第一阈值,且所述第一引导文本对应的文本风格与所述演讲风格相一致;
对所述第一引导文本进行自然语言分析,得到对应的创意元素;其中,自然语言分析是对关键词进行分析,将代表第一引导文本中特定想法和主题的关键词作为创意元素;
统计各所述创意元素在所述第一引导文本中出现的次数,根据次数计算出每个所述创意元素的概率;
基于第三指定函数根据概率评估所述第一引导文本的创意发散度,得到所述创意发散度值;所述第三指定函数通过计算所述创意元素的概率的熵来评估所述第一引导文本的创意发散度;
在所述创意发散度值低于第二阈值的情况下,获取演讲者的创意需求,
基于生成式算法根据所述创意需求生成创意触发点;触发点生成的规则预先设置为开放式问题、引人深思的引用、相关故事情节或统计数据;
根据所述创意触发点调整所述第一引导文本的内容,得到第二引导文本;
基于所述演讲内容执行至少一次口才技能评估分析,得到评估结果;
根据所述评估结果生成对应的改进建议。
2.根据权利要求1所述的基于创意激发的口才训练引导方法,其特征在于,所述基于指定函数生成满足预设条件的第一引导文本,包括:
对所述演讲内容进行分析得到关键词,根据所述关键词生成初步引导文本;
基于第一指定函数对所述初步引导文本对应的主题以及所述演讲主题进行相似度分析,所述第一指定函数用于计算单个句子或内容片段与演讲主题相关的关键词集合的语义相似度增强值,得到相似度;
在相似度低于所述第一阈值的情况下调整所述初步引导文本,得到相似度高于所述第一阈值的调整后的引导文本;
基于第二指定函数对所述调整后的引导文本进行风格一致性评估,所述第二指定函数使用欧几里得距离来计算演讲者历史演讲风格向量均值与生成的引导文本的风格向量之间的差异,得到风格一致性指标;
根据所述风格一致性指标对所述调整后的引导文本进行风格调整,得到文本风格与所述演讲风格相一致的所述第一引导文本。
3.根据权利要求1所述的基于创意激发的口才训练引导方法,其特征在于,所述基于所述演讲内容执行至少一次口才技能评估分析,包括:
对所述演讲内容进行每个时间点的情感强度分析,得到反映演讲者情绪变化的情感累积值;
分析所述演讲内容的语言适应性以及修辞技巧,得到语言技巧得分;
获取与所述演讲内容相关联的听众数据,统计分析所述听众数据的数量以得到互动反馈强度;
基于第一预设模型根据所述情感累积值、所述语言技巧得分以及所述互动反馈强度组成的所述评估结果生成所述改进建议。
4.根据权利要求1所述的基于创意激发的口才训练引导方法,其特征在于,所述基于所述演讲内容执行至少一次口才技能评估分析,包括:
根据所述演讲内容对应的句子长度以及词汇种类分析复杂度和词汇多样性,得到第一指标得分;
根据所述演讲内容中相邻词句的语义相似度分析逻辑清晰度和连贯性,得到第二指标得分;
对所述演讲内容进行情感强度分析,得到情感强度检测值,根据所述情感强度检测值以及预设的情感强度期望值分析情感表达一致性,得到第三指标得分;
基于第二预设模型根据所述第一指标得分、所述第二指标得分、所述第三指标得分组成的所述评估结果生成所述改进建议。
5.一种基于创意激发的口才训练引导系统,其特征在于,执行如权利要求1~4任一所述的基于创意激发的口才训练引导方法。
6.一种电子设备,其特征在于,包括:处理器和存储器,所述存储器中存储指令,所述指令由处理器加载并执行,以实现如权利要求1~4任一所述的基于创意激发的口才训练引导方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1~4任一所述的基于创意激发的口才训练引导方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410302910.9A CN117934229B (zh) | 2024-03-18 | 2024-03-18 | 基于创意激发的口才训练引导方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410302910.9A CN117934229B (zh) | 2024-03-18 | 2024-03-18 | 基于创意激发的口才训练引导方法、系统、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117934229A CN117934229A (zh) | 2024-04-26 |
CN117934229B true CN117934229B (zh) | 2024-06-21 |
Family
ID=90770528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410302910.9A Active CN117934229B (zh) | 2024-03-18 | 2024-03-18 | 基于创意激发的口才训练引导方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117934229B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086408A (zh) * | 2018-08-02 | 2018-12-25 | 腾讯科技(深圳)有限公司 | 文本生成方法、装置、电子设备及计算机可读介质 |
CN117709311A (zh) * | 2024-02-05 | 2024-03-15 | 新励成教育科技股份有限公司 | 一种基于云端的演讲稿管理方法、装置、设备及存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130332440A1 (en) * | 2012-04-26 | 2013-12-12 | Remeztech Ltd. | Refinements in Document Analysis |
CN105095229A (zh) * | 2014-04-29 | 2015-11-25 | 国际商业机器公司 | 训练主题模型的方法,对比文档内容的方法和相应的装置 |
CN111241282B (zh) * | 2020-01-14 | 2023-09-08 | 北京百度网讯科技有限公司 | 文本主题生成方法、装置及电子设备 |
CN112417846B (zh) * | 2020-11-25 | 2024-06-28 | 中译语通科技股份有限公司 | 文本自动化生成方法、装置、电子设备及存储介质 |
CN113627162A (zh) * | 2021-06-30 | 2021-11-09 | 北京海纳数聚科技有限公司 | 一种基于文本风格迁移技术的文字美化方法 |
CN116150327A (zh) * | 2021-11-19 | 2023-05-23 | 广州视源电子科技股份有限公司 | 文本处理方法和装置 |
CN114239600B (zh) * | 2021-12-20 | 2024-05-28 | 山东浪潮科学研究院有限公司 | 一种生成一致性写作风格文档的方法、设备、存储介质 |
CN114462392B (zh) * | 2022-02-14 | 2024-07-23 | 南京邮电大学 | 一种基于主题关联度与关键词联想的短文本特征扩展方法 |
CN115017870A (zh) * | 2022-05-30 | 2022-09-06 | 平安科技(深圳)有限公司 | 一种闭环的话术扩写方法、装置、计算机设备及存储介质 |
CN115238653A (zh) * | 2022-07-12 | 2022-10-25 | 平安资产管理有限责任公司 | 一种报告生成方法、装置、设备和介质 |
NL1044409B1 (en) * | 2022-08-30 | 2024-03-15 | Zander Laboratories B V | A method performed by an information processing device, a program product, and a system for acquiring artificial intelligence from processing context related operational, human bio-signal and human conduct data. |
US11861320B1 (en) * | 2023-02-27 | 2024-01-02 | Casetext, Inc. | Text reduction and analysis interface to a text generation modeling system |
CN116432663B (zh) * | 2023-06-12 | 2023-10-13 | 山东山大鸥玛软件股份有限公司 | 基于要素简图的可控多样性专业文本生成方法及系统 |
CN116796708A (zh) * | 2023-06-19 | 2023-09-22 | 平安科技(深圳)有限公司 | 自然语言文本生成方法、装置、电子设备及可读存储介质 |
US11875240B1 (en) * | 2023-07-25 | 2024-01-16 | Intuit Inc. | Tuning a generative artificial intelligence model |
-
2024
- 2024-03-18 CN CN202410302910.9A patent/CN117934229B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086408A (zh) * | 2018-08-02 | 2018-12-25 | 腾讯科技(深圳)有限公司 | 文本生成方法、装置、电子设备及计算机可读介质 |
CN117709311A (zh) * | 2024-02-05 | 2024-03-15 | 新励成教育科技股份有限公司 | 一种基于云端的演讲稿管理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117934229A (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106663383B (zh) | 分析受试者的方法和系统 | |
US7797261B2 (en) | Consultative system | |
JP7352115B2 (ja) | 非言語情報生成装置、非言語情報生成モデル学習装置、非言語情報生成方法、非言語情報生成モデル学習方法及びプログラム | |
JP6815899B2 (ja) | 出力文生成装置、出力文生成方法および出力文生成プログラム | |
CN111833853A (zh) | 语音处理方法及装置、电子设备、计算机可读存储介质 | |
Hung et al. | Towards a method for evaluating naturalness in conversational dialog systems | |
Wilks et al. | A prototype for a conversational companion for reminiscing about images | |
US20230154457A1 (en) | Communication System And Related Methods | |
US11790697B1 (en) | Systems for and methods of creating a library of facial expressions | |
WO2019160105A1 (ja) | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム | |
WO2019160090A1 (ja) | 非言語情報生成装置、方法、及びプログラム | |
Rehm et al. | From observation to simulation: generating culture-specific behavior for interactive systems | |
Procter et al. | Intelligent intervention by conversational agent through chatlog analysis | |
JP7043633B2 (ja) | 適応コンピテンシーアセスメントモデルのためのシステム及び方法 | |
CN117711444B (zh) | 一种基于口才表达的互动方法、装置、设备及存储介质 | |
Dsouza et al. | Advancement in communication using natural language based videobot system | |
Pandey et al. | Interview bot with automatic question generation and answer evaluation | |
Octavany et al. | Cleveree: an artificially intelligent web service for Jacob voice chatbot | |
Guinn et al. | Extracting emotional information from the text of spoken dialog | |
CN117934229B (zh) | 基于创意激发的口才训练引导方法、系统、设备及介质 | |
WO2019160104A1 (ja) | 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム | |
JP5685014B2 (ja) | ディスカッション健全度算出装置 | |
Lubis et al. | Emotional triggers and responses in spontaneous affective interaction: recognition, prediction, and analysis | |
Hjalmarsson | Evaluating AdApt, a multi-modal conversational dialogue system using PARADISE | |
Venkatesh et al. | Intelligent tutoring system using hybrid expert system with speech model in neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |