CN118154381B - 基于aigc的图表自动生成方法、装置和电子设备 - Google Patents
基于aigc的图表自动生成方法、装置和电子设备 Download PDFInfo
- Publication number
- CN118154381B CN118154381B CN202410564976.5A CN202410564976A CN118154381B CN 118154381 B CN118154381 B CN 118154381B CN 202410564976 A CN202410564976 A CN 202410564976A CN 118154381 B CN118154381 B CN 118154381B
- Authority
- CN
- China
- Prior art keywords
- learning
- student
- feature vector
- feature
- basic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000006399 behavior Effects 0.000 claims abstract description 152
- 239000013598 vector Substances 0.000 claims description 302
- 239000011159 matrix material Substances 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 15
- 238000012847 principal component analysis method Methods 0.000 claims description 10
- 238000013499 data model Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000013135 deep learning Methods 0.000 abstract description 5
- 230000004069 differentiation Effects 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 9
- 230000002596 correlated effect Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 239000008186 active pharmaceutical agent Substances 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012098 association analyses Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007786 learning performance Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
- G06Q50/2057—Career enhancement or continuing education service
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请涉及图表生成领域,其具体地公开了一种基于AIGC的图表自动生成方法、装置和电子设备,其首先获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据,然后利用深度学习技术,对二者进行特征提取和关联分析,最后通过生成器,以生成学生个性化学习计划,以更好地满足学生的学习需求,帮助学生更高效地学习和掌握知识,从而提高学习效率,实现教育教学的个性化和差异化。
Description
技术领域
本申请涉及图表生成领域,且更为具体地,涉及一种基于AIGC的图表自动生成方法、装置和电子设备。
背景技术
随着互联网技术的不断进步,在线教育和培训因其便利的时间、地点和易用性等优势而日益流行。当前的在线教育方案通常包括老师进行统一的在线视频授课,对学生提供统一化的辅导。学生则接受统一的在线视频授课或辅导,或自行搜索适合自己水平的视频课程。然而,这种模式无法根据学生的学习风格和能力调整教学方式,导致部分学生难以理解和掌握知识。因此,需要通过针对性地设计个性化的学习路径和教学方式,更好地满足学生个体差异化的学习需求,提高学习效果和学生的学习体验。
然而,实施个性化教学方式通常需要依赖教师的经验和学生的学习表现。这种方式容易受到教师个人主观因素的影响,同时考虑到教师时间和资源的限制,无法为每个学生提供个性化的关注和指导。
因此,期望一种基于AIGC的图表自动生成方法、装置和电子设备。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种基于AIGC的图表自动生成方法、装置和电子设备,其首先获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据,然后利用深度学习技术,对二者进行特征提取和关联分析,最后通过生成器,以生成学生个性化学习计划,以更好地满足学生的学习需求,帮助学生更高效地学习和掌握知识,从而提高学习效率,实现教育教学的个性化和差异化。
根据本申请的一个方面,提供了一种基于AIGC的图表自动生成方法,其包括:获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据;将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量;将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量;将所述学生学习基本信息语义特征向量和所述学习基本信息全局语义特征向量进行关联以得到学习基本信息全局关联特征向量;将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量;基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划。
在上述基于AIGC的图表自动生成方法中,将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量,包括:将所述由数据库采集的学生学习基本数据进行分词并通过词嵌入编码器以得到学生学习基本信息词序列;将所述学生学习基本信息词序列通过学生学习基本信息语义编码器以得到所述学生学习基本信息语义特征向量。
在上述基于AIGC的图表自动生成方法中,将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量,包括:将所述由数据库采集的学生学习基本数据进行文本编码以得到学习基本信息文本拼接语义特征向量;将所述学习基本信息文本拼接语义特征向量通过学习基本信息文本多尺度特征编码器以得到所述学习基本信息全局语义特征向量。
在上述基于AIGC的图表自动生成方法中,将所述由数据库采集的学生学习基本数据进行文本编码以得到学习基本信息文本拼接语义特征向量,包括:将所述由数据库采集的学生学习基本数据通过基于上下文编码器的学习基本信息文本理解模型以得到多个学习基本信息文本特征向量;将所述多个学习基本信息文本特征向量进行一维排列以得到所述学习基本信息文本拼接语义特征向量。
在上述基于AIGC的图表自动生成方法中,将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量,包括:将所述由在线学习平台采集的学生在线学习行为数据分别通过学习行为编码器转化为特征值,以获得由多个特征值构成的学生在线学习行为特征向量;将所述学生在线学习行为特征向量通过学生在线学习行为特征编码器以得到所述学生在线学习行为关联特征向量。
在上述基于AIGC的图表自动生成方法中,基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划,包括:对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量;将所述学生多模态特征向量通过生成器,以生成学生个性化学习计划。
在上述基于AIGC的图表自动生成方法中,对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量,包括:计算所述学习基本信息全局关联特征向量的第一自相关样本协方差矩阵,其中,所述第一自相关样本协方差矩阵中各个位置的特征值为所述学习基本信息全局关联特征向量中相应两个位置的特征值之间的方差;计算所述学生在线学习行为关联特征向量的第二自相关样本协方差矩阵,其中,所述第二自相关样本协方差矩阵中各个位置的特征值为所述学生在线学习行为关联特征向量中相应两个位置的特征值之间的方差;使用主成分分析法对所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵进行处理以得到学习基本信息全局关联特征向量的特征隐式表达和学生在线学习行为关联特征向量的特征隐式表达;使用L1正则化来计算所述学习基本信息全局关联特征向量的特征隐式表达和所述学生在线学习行为关联特征向量的特征隐式表达之间的特征隐式间约束矩阵;将所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量分别乘以所述特征隐式间约束矩阵以将所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量映射到所述特征隐式间约束矩阵的特征空间中以得到映射后学习基本信息全局关联特征向量和映射后学生在线学习行为关联特征向量;以及,计算所述映射后学习基本信息全局关联特征向量和所述映射后学生在线学习行为关联特征向量之间的按位置加权和以得到所述学生多模态特征向量。
在上述基于AIGC的图表自动生成方法中,使用主成分分析法对所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵进行处理以得到学习基本信息全局关联特征向量的特征隐式表达和学生在线学习行为关联特征向量的特征隐式表达,包括:创建Spring Web应用程序;创建一个数据模型类,所述数据模型类用于表示所述第一自相关样本协方差矩阵、所述第二自相关样本协方差矩阵、所述学习基本信息全局关联特征向量的特征隐式表达和所述学生在线学习行为关联特征向量的特征隐式表达;在所述Spring Web应用程序中编写所述主成分分析法;创建REST API端点,所述REST API端点用于允许客户端发送所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵;和,将所述Spring Web应用程序部署于Web 服务器。
根据本申请的另一方面,提供了一种基于AIGC的图表自动生成装置,其包括:学生在线学习数据采集模块,用于获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据;学生学习基本数据语义编码模块,用于将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量;学生学习基本数据多尺度特征编码模块,用于将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量;学习基本数据特征关联模块,用于将所述学生学习基本信息语义特征向量和所述学习基本信息全局语义特征向量进行关联以得到学习基本信息全局关联特征向量;学习行为数据特征编码模块,用于将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量;个性化学习计划生成模块,用于基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划。
根据本申请的再一方面,提供了一种电子设备,包括:处理器;以及,存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如上所述的基于AIGC的图表自动生成方法。
与现有技术相比,本申请提供的一种基于AIGC的图表自动生成方法、装置和电子设备,其首先获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据,然后利用深度学习技术,对二者进行特征提取和关联分析,最后通过生成器,以生成学生个性化学习计划,以更好地满足学生的学习需求,帮助学生更高效地学习和掌握知识,从而提高学习效率,实现教育教学的个性化和差异化。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请实施例的基于AIGC的图表自动生成方法的流程图。
图2为根据本申请实施例的基于AIGC的图表自动生成方法中将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量的流程图。
图3为根据本申请实施例的基于AIGC的图表自动生成方法中将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量的流程图。
图4为根据本申请实施例的基于AIGC的图表自动生成方法中将所述由数据库采集的学生学习基本数据进行文本编码以得到学习基本信息文本拼接语义特征向量的流程图。
图5为根据本申请实施例的基于AIGC的图表自动生成装置的框图。
图6为根据本申请实施例的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
示例性方法:图1为根据本申请实施例的基于AIGC的图表自动生成方法的流程图。如图1所示,根据本申请实施例的基于AIGC的图表自动生成方法,其包括:S110,获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据;S120,将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量;S130,将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量;S140,将所述学生学习基本信息语义特征向量和所述学习基本信息全局语义特征向量进行关联以得到学习基本信息全局关联特征向量;S150,将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量;S160,基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划。
在上述基于AIGC的图表自动生成方法中,所述步骤S110,获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据,其中,所述学生学习基本数据包括学生个人信息、学生成绩信息和学习任务信息,所述学生在线学习行为数据包括学生在线学习时长、学习模式和课堂表现。应可以理解,在线教育是利用互联网和数字技术为学生提供灵活、便捷的学习方式。在线教育不受时间和地点的限制,为学生提供了更广阔的学习机会,促进了教育的普及和便捷化。然而,目前的在线教育方案通常包括老师进行统一的在线视频授课,为学生提供一致的辅导。学生会接受统一的在线视频授课或辅导,或者自行搜索适合自己水平的视频课程。设计个性化的学习路径和教学方式,以更好地满足学生个体差异化的学习需求受制于依赖教师的经验和学生的学习表现。这种方式容易受到教师个人主观因素的影响,同时考虑到教师时间和资源的限制,无法为每个学生提供个性化的关注和指导。因此,本申请的技术方案通过获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据,生成学生个性化学习计划。其中,学生学习基本数据涵盖了学生的个人信息、学生成绩信息和学习任务信息,这些数据提供了关于学生学习状态和表现的重要线索。另一方面,获取学生在线学习行为数据包括学生在线学习时长、学习模式和课堂表现等方面的信息。综合学生学习基本数据和在线学习行为数据,可以全面了解学生的学习特点、需求和表现,从而个性化地设计学习计划,提供针对性的教学和指导,帮助学生更好地发展和提升自己的学习能力和成就,实现教育的个性化和优质化目标。这种数据驱动的个性化学习计划生成方法,为教育教学领域带来了更加智能化和有效的教学模式,有助于提高教学质量和学生学习效果。
在上述基于AIGC的图表自动生成方法中,所述步骤S120,将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量。应可以理解,通过语义编码,可以将原始学生学习基本数据转换为具有语义信息的特征向量,从而更好地表达学生的学习状态和特征。其中,语义编码能够将学生学习基本数据进行抽象和表示,将学生个人信息、学生成绩信息和学习任务信息等多维数据转化为一个维度更低、更具代表性的语义特征向量,并挖掘学生学习数据之间的隐藏关系和模式,提取其中的重要特征并转化为语义特征向量。
图2为根据本申请实施例的基于AIGC的图表自动生成方法中将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量的流程图。如图2所示,在本申请一个具体的实施例中,所述步骤S120,包括:S121,将所述由数据库采集的学生学习基本数据进行分词并通过词嵌入编码器以得到学生学习基本信息词序列;S122,将所述学生学习基本信息词序列通过学生学习基本信息语义编码器以得到所述学生学习基本信息语义特征向量。应可以理解,将学生学习基本数据进行分词是为了将连续的文本信息划分成有意义的词语单位,这有助于捕捉文本数据中的语义信息和结构。通过分词,可以将一段文本拆分成词语的序列,每个词语代表着文本中的一个语义单元。接着,通过词嵌入编码器对分词后的词语进行编码,可以将每个词语映射到高维空间中的向量表示。词嵌入编码器能够将词语之间的语义关系和语境信息编码到向量中,使得具有相似语义的词语在向量空间中更加接近,从而实现对词语语义的表征和学习。通过得到学生学习基本信息词序列,可以将文本数据转化为向量表示,实现了从离散的文本信息到连续的向量空间的映射,以帮助挖掘文本数据中的潜在语义信息,从而实现对学生学习行为和特征的更深入理解和分析。
进一步地,将学生学习基本信息词序列通过学生学习基本信息语义编码器转换为学生学习基本信息语义特征向量,可以帮助更好地理解和利用学生的学习数据。这个过程的关键在于将文本数据转换为连续的、具有语义信息的向量表示。通过学生学习基本信息语义编码器,可以将文本数据中的词序列转换为密集的向量表示。这种向量表示能够捕捉词汇之间的语义关系,使得相似含义的词在向量空间中更加接近,从而提高了数据的表达能力和数据之间的比较准确性。具体地,使用所述学生学习基本信息语义编码器的嵌入层分别将所述学生学习基本信息词序列中各个词映射为词嵌入向量以得到学生学习基本信息词嵌入向量的序列;使用所述学生学习基本信息语义编码器的基于转换器的Bert模型对所述学生学习基本信息词嵌入向量的序列进行基于全局的上下文语义编码以得到多个特征向量;以及,将所述多个特征向量进行级联以得到所述学生学习基本信息语义特征向量。
在上述基于AIGC的图表自动生成方法中,所述步骤S130,将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量。应可以理解,在进行多尺度特征编码时,会考虑不同层次和尺度的特征,从局部到全局,从细节到整体,以更全面地描述学生学习数据的语义信息。通过在不同尺度上提取特征并进行编码,可以捕获数据中的细微变化和全局结构,从而更好地理解学生学习行为的复杂性和多样性。通过将多尺度特征编码后的信息整合成学习基本信息全局语义特征向量,可以得到一个更加综合和全面的表示,其中包含了学生学习数据在不同尺度上的语义信息。这种全局语义特征向量可以帮助更准确地理解学生学习行为的整体特征和趋势。
图3为根据本申请实施例的基于AIGC的图表自动生成方法中将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量的流程图。如图3所示,在本申请一个具体的实施例中,所述步骤S130,包括:S131,将所述由数据库采集的学生学习基本数据进行文本编码以得到学习基本信息文本拼接语义特征向量;S132,将所述学习基本信息文本拼接语义特征向量通过学习基本信息文本多尺度特征编码器以得到所述学习基本信息全局语义特征向量。应可以理解,通过文本编码,可以将学生学习基本数据中的文本信息转换为密集的向量表示。这种向量表示不仅能够保留文本数据中的语义信息,还可以捕捉词汇之间的语义关系和文本整体的语义结构。这样,可以综合考虑不同文本信息之间的关联性和综合性,从而更全面地表征学生学习数据的语义信息。
进一步地,考虑到通过文本编码得到的文本内容,但仍可能存在信息损失或信息冗余的问题。为了克服这些问题,本申请的技术方案引入学习基本信息文本多尺度特征编码器。通过多尺度特征编码器,可以在不同的尺度上提取和编码文本信息的特征,从局部到全局,从细节到整体。这样,可以更全面地捕捉文本信息的语义信息,同时保留不同尺度上的特征,避免信息损失和冗余。最终,通过将多尺度特征编码后的学习基本信息文本整合成全局语义特征向量,得到了一个更准确、更全面地表示学习数据的向量,其中包含了文本信息在不同尺度上的语义信息。具体地,所述学习基本信息文本多尺度特征编码器,包括:第一卷积层、与所述第一卷积层并行的第二卷积层,以及,与所述第一卷积层和所述第二卷积层连接的级联层,其中,所述第一卷积层使用具有第一尺度的一维卷积核,所述第二卷积层使用具有第二尺度的一维卷积核。更为具体地,使用所述学习基本信息文本多尺度特征编码器的第一卷积层对所述学习基本信息文本拼接语义特征向量进行一维卷积编码以得到第一尺度特征向量;使用所述多尺度邻域特征提取模块的第二卷积层对所述学习基本信息文本拼接语义特征向量进行卷积编码以得到第二尺度特征向量;将所述第一尺度特征向量和所述第二尺度特征向量进行级联以得到所述学习基本信息全局语义特征向量。
图4为根据本申请实施例的基于AIGC的图表自动生成方法中将所述由数据库采集的学生学习基本数据进行文本编码以得到学习基本信息文本拼接语义特征向量的流程图。如图4所示,在本申请一个具体的实施例中,所述步骤S131,包括:S1311,将所述由数据库采集的学生学习基本数据通过基于上下文编码器的学习基本信息文本理解模型以得到多个学习基本信息文本特征向量;S1312,将所述多个学习基本信息文本特征向量进行一维排列以得到所述学习基本信息文本拼接语义特征向量。应可以理解,通过基于上下文编码器的学习基本信息文本理解模型,可以利用上下文信息来丰富文本的语义表示。上下文编码器能够考虑文本信息周围的语境和背景,从而更好地理解文本内容的含义和语义关系。得到的每个特征向量都代表了文本信息在不同上下文环境下的语义表示。这种多样化的特征向量可以帮助更全面地理解学生学习数据的文本内容,从不同角度和语境中挖掘出更多有用的信息。具体地,对所述由数据库采集的学生学习基本数据进行分词处理以得到基本数据词序列;使用所述基于上下文编码器的学习基本信息文本理解模型的嵌入层分别将所述基本数据词序列中各个词映射为词嵌入向量以得到基本数据词嵌入向量的序列;使用所述基于上下文编码器的学习基本信息文本理解模型的基于转换器的Bert模型对所述基本数据词嵌入向量的序列进行基于全局的上下文语义编码以得到多个学习基本信息文本特征向量。
进一步地,通过将多个学习基本信息文本特征向量进行一维排列,将这些特征向量按顺序连接起来,形成一个更长的向量。这样的操作可以将各个特征向量中的信息整合在一起,形成一个更全面的表示,其中包含了各个特征向量的语义信息。通过这种方式,可以在一个更高维度的空间中表征学习数据的特征,从而更全面地描述学习数据的语义信息。
在上述基于AIGC的图表自动生成方法中,所述步骤S140,将所述学生学习基本信息语义特征向量和所述学习基本信息全局语义特征向量进行关联以得到学习基本信息全局关联特征向量。应可以理解,学生学习基本信息语义特征向量代表了每个学习基本信息文本的语义表示,其中包含了局部信息的语义特征。这些局部特征向量能够帮助更细致地理解每条学习基本信息的语义内容和特点,但仅仅依靠局部特征可能无法全面把握整体学生学习数据的语义信息。与此同时,学习基本信息全局语义特征向量则代表了整体学生学习数据的语义表示,其中包含了全局信息的语义特征。这些全局特征向量能够帮助把握整体学习数据的总体特征和内在关联,提供了更高层次的语义信息。通过将局部特征向量和全局特征向量进行关联,可以综合考虑每条学习基本信息的局部语义信息和整体学习数据的全局语义信息,得到学习基本信息全局关联特征向量。这个全局关联特征向量结合了局部和全局信息,能够更全面地表征学生学习数据的语义特征和内在关联。
在上述基于AIGC的图表自动生成方法中,所述步骤S150,将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量。应可以理解,通过特征编码,可以将学生的在线学习行为转化为数值特征,如点击次数、浏览时间、答题准确率等,从而构建学生在线学习行为的特征向量,以更好地理解和利用学生的学习行为数据,从而实现个性化学习和提升教学效果的目的。
在本申请一个具体的实施例中,所述步骤S150,包括:将所述由在线学习平台采集的学生在线学习行为数据分别通过学习行为编码器转化为特征值,以获得由多个特征值构成的学生在线学习行为特征向量;将所述学生在线学习行为特征向量通过学生在线学习行为特征编码器以得到所述学生在线学习行为关联特征向量。应可以理解,学生在线学习行为数据是多维度、多样化且具有复杂结构的信息,例如学习时长、点击次数、作业完成情况等。通过学习行为编码器,可以将这些原始数据转化为具有语义信息的特征值,将学生的行为行为转化为可计算和可比较的数字表示。这种编码过程能够捕捉学生行为数据中的潜在模式和规律,使得数据更易于处理和分析。将学生在线学习行为数据转化为特征值后,这些特征值可以被组合成一个学生在线学习行为特征向量。这个特征向量可以包含多个维度的特征,每个维度代表了不同的学生行为特征,如学习活跃度、专注度等。通过这种方式构建的特征向量能够更全面地表征学生的在线学习行为。具体地,由在线学习平台采集的学生在线学习行为数据通过词嵌入模型以转化为特征值。考虑到学生在线学习行为中的学生在线学习时长、学习模式和课堂表现属于文本数据,是非结构化数据,需要通过诸如词袋模型、主题模型和词嵌入模型之类的转换器转化为结构化数据。
进一步地,通过学生在线学习行为特征编码器,可以将这些原始特征值进一步转化为更高级的特征表示,从而捕捉到更深层次的学生行为模式和特征之间的关联。其中,特征编码器可以是各种机器学习模型,如神经网络、自编码器等,通过这些模型,可以将学生在线学习行为特征向量映射到一个更具有表征能力的特征空间中,提取出隐藏在数据中的潜在模式和规律。在本申请一个具体的实施例中,使用所述学生在线学习行为特征编码器的各层在层的正向传递中对输入数据分别进行卷积处理、池化处理和非线性激活处理以由所述学生在线学习行为特征编码器的最后一层输出所述学生在线学习行为关联特征向量,其中,所述学生在线学习行为特征编码器的输入为所述学生在线学习行为特征向量。
在上述基于AIGC的图表自动生成方法中,所述步骤S160,基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划。应可以理解,基于学习基本信息全局关联特征向量和学生在线学习行为关联特征向量生成学生个性化学习计划,可以利用综合的学习信息和行为特征,为每位学生量身定制符合其学习需求和特点的个性化学习路径。这种个性化学习计划的生成过程结合了学生的基本信息、学习行为以及学习目标,旨在提供更有效的学习支持和指导,帮助学生更高效地实现学习目标。其中,学习基本信息全局关联特征向量包含了学生的基本信息特征,如年龄、性别、学习偏好等,以及全局关联的学习特征,如学科兴趣、学习能力等。这些特征向量提供了关于学生整体学习背景和特点的综合信息,有助于了解学生的学习基础和整体学习倾向。通过结合这些信息,可以更全面地把握学生的学习需求和特点,为个性化学习计划的生成提供基础支持。
而学生在线学习行为关联特征向量则包含了学生在在线学习过程中的具体行为特征,如学习时长、答题准确率、课程互动等。这些特征向量反映了学生的实际学习行为和学习习惯,能够揭示学生在学习过程中的表现和偏好。综合学习基本信息全局关联特征向量和学生在线学习行为关联特征向量,可以为每位学生生成个性化的学习计划。
在本申请一个具体的实施例中,所述步骤S160,包括:对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量;将所述学生多模态特征向量通过生成器,以生成学生个性化学习计划。应可以理解,在本申请技术方案中,考虑到来自数据库和在线平台的学生数据由不同的系统收集和处理,这可能导致数据格式、质量和处理方法的差异,因此可能存在数据不一致性,从而引入噪音。学生数据有时会存在缺失或丢失的情况,这可能是由于系统错误、学生选择性关闭某些信息收集、数据采集过程中的问题等引起的。缺失数据可能导致信息不完整或不准确,进而影响到特征融合的结果。在数据中存在异常值或离群点会引入数据噪声。这些异常值可能由于误差、干扰或问题数据导致,如果未经处理就被纳入特征融合,可能导致对结果造成负面影响。并且,学生学习基本信息和在线学习行为数据中可能存在描述相同信息的特征。如果这些重复的特征未被适当处理,在特征融合中将导致冗余信息的存在,浪费了模型容量,并可能引入误导性的特征。可能存在相关但不完全相同的特征,如果在融合过程中视为重复特征,可能导致错误的重复特征被考虑,而忽略了重要的差异性或相关性。为了解决融合所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量时可能存在不相关的或冗余的特征的问题,在本申请技术方案中,对所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量。
其中,对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量,包括:计算所述学习基本信息全局关联特征向量的第一自相关样本协方差矩阵,其中,所述第一自相关样本协方差矩阵中各个位置的特征值为所述学习基本信息全局关联特征向量中相应两个位置的特征值之间的方差;计算所述学生在线学习行为关联特征向量的第二自相关样本协方差矩阵,其中,所述第二自相关样本协方差矩阵中各个位置的特征值为所述学生在线学习行为关联特征向量中相应两个位置的特征值之间的方差;使用主成分分析法对所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵进行处理以得到学习基本信息全局关联特征向量的特征隐式表达和学生在线学习行为关联特征向量的特征隐式表达;使用L1正则化来计算所述学习基本信息全局关联特征向量的特征隐式表达和所述学生在线学习行为关联特征向量的特征隐式表达之间的特征隐式间约束矩阵;将所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量分别乘以所述特征隐式间约束矩阵以将所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量映射到所述特征隐式间约束矩阵的特征空间中以得到映射后学习基本信息全局关联特征向量和映射后学生在线学习行为关联特征向量;计算所述映射后学习基本信息全局关联特征向量和所述映射后学生在线学习行为关联特征向量之间的按位置加权和以得到所述学生多模态特征向量。
这里,对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束,其通过保留最重要的特征,帮助消除不相关的或冗余的特征,从而提高特征选择性,减少模型的复杂性和过拟合的风险。并且,通过基于特征隐式表达的稀疏性约束可以使融合后的融合特征训练对噪声和异常值不那么敏感,从而提高所述学生多模态特征向量的鲁棒性。同时,基于特征隐式表达的稀疏性约束后的学生多模态特征向量只包含少量非零元素,使其更容易解释,也有助于理解模型的行为并识别最重要的特征,并且由于其只包含少量非零元素,在存储和处理方面需要也会更少的资源,从而可以显著提高计算效率。
特别地,使用主成分分析法对所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵进行处理以得到学习基本信息全局关联特征向量的特征隐式表达和学生在线学习行为关联特征向量的特征隐式表达,包括:创建Spring Web应用程序;创建一个数据模型类,所述数据模型类用于表示所述第一自相关样本协方差矩阵、所述第二自相关样本协方差矩阵、所述学习基本信息全局关联特征向量的特征隐式表达和所述学生在线学习行为关联特征向量的特征隐式表达;在所述Spring Web应用程序中编写所述主成分分析法;创建REST API端点,所述REST API端点用于允许客户端发送所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵;将所述Spring Web应用程序部署于Web 服务器。
这里,使用 Spring Web 机制来部署基于特征隐式表达的稀疏性约束特征融合算法,其中Spring Web 提供了一个方便的框架来创建 RESTful API,允许客户端通过 HTTP请求与应用程序交互。这使得部署算法变得容易,客户端可以轻松地从各种平台和设备访问它。并且,Spring Web 是一个轻量级的框架,不会对应用程序的性能产生重大影响。它还具有高度可扩展性,可以处理从小型到大型的应用程序。同时,Spring Web 提供了内置的安全功能,例如身份验证和授权,以保护您的应用程序免受未经授权的访问。进一步地,Spring Web 应用程序可以轻松部署到各种 Web 服务器,例如 Apache Tomcat、Nginx 和Cloud Foundry。这使得将算法部署到生产环境变得简单。特别地,Spring Web 有一个庞大而活跃的社区,提供文档、教程和示例。这使得学习和使用该框架变得容易。此外,使用Spring Web 机制可以将算法与其他 Spring 组件集成,例如数据访问、业务逻辑和消息传递。这可以简化应用程序的开发和维护。
总之,Spring Web 机制提供了一个强大且易于使用的平台来部署基于特征隐式表达的稀疏性约束特征融合算法。它提供了 RESTful API、轻量级和可扩展性、安全性、易于部署和社区支持等优势。
其中,部分实现代码如下。
@RestController
@RequestMapping("/features")
public class FeatureFusionController {
@PostMapping("/fuse")
public FeatureVector fuseFeatures(@RequestBody FeatureVectororiginalFeatures) {
// 提取学习基本信息全局关联特征向量
FeatureVector Learning Basic Information Global CorrelatedFeature Vector = pca.extract Learning Basic Information Global CorrelatedFeature Vector(originalFeatures);
// 提取学生在线学习行为关联特征向量
FeatureVector Student Online Learning Behavior CorrelatedFeature Vector = pca.extractStudent Online Learning Behavior CorrelatedFeature Vector(originalFeatures);
// 计算特征隐式表达
FeatureImplicitRepresentation featureImplicitRepresentation =
new FeatureImplicitRepresentation(originalFeatures,Learning Basic Information Global Correlated Feature Vector, Student OnlineLearning Behavior Correlated Feature Vector);
// 施加稀疏性约束
SparseFeatureImplicitRepresentation sparseFeatureImplicitRepresentation =
new SparseFeatureImplicitRepresentation(featureImplicitRepresentation);
// 计算学生多模态特征向量
FeatureVector Student Multimodal Feature Vector = sparseFeatureImplicitRepresentation.computeStudent Multimodal Feature Vector();
return Student Multimodal Feature Vector;
}
}
进一步地,通过生成器生成的个性化学习计划,能够更好地激发学生的学习兴趣,提高学习效率,同时也能更好地满足学生的个性化需求,促进其学习成长和发展。这种基于生成器的个性化学习计划生成方法,将学生的多模态特征向量转化为具体的学习建议,为教育领域带来了创新和进步。通过深度学习技术和生成模型的应用,个性化教育得以更好地实现,为每个学生提供了更加贴心和有效的学习指导,推动了教育的个性化发展。
综上,本申请实施例首先获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据,然后利用深度学习技术,对二者进行特征提取和关联分析,最后通过生成器,以生成学生个性化学习计划,以更好地满足学生的学习需求,帮助学生更高效地学习和掌握知识,从而提高学习效率,实现教育教学的个性化和差异化。
示例性系统:图5为根据本申请实施例的基于AIGC的图表自动生成装置的框图。如图5所示,根据本申请实施例的基于AIGC的图表自动生成装置100,包括:学生在线学习数据采集模块110,用于获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据;学生学习基本数据语义编码模块120,用于将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量;学生学习基本数据多尺度特征编码模块130,用于将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量;学习基本数据特征关联模块140,用于将所述学生学习基本信息语义特征向量和所述学习基本信息全局语义特征向量进行关联以得到学习基本信息全局关联特征向量;学习行为数据特征编码模块150,用于将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量;个性化学习计划生成模块160,用于基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划。
如上所述,根据本申请实施例的所述基于AIGC的图表自动生成装置100可以实现在各种终端设备中,例如部署有基于AIGC的图表自动生成控制算法的服务器等。在一个示例中,根据基于AIGC的图表自动生成装置100可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该基于AIGC的图表自动生成装置100可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该基于AIGC的图表自动生成装置100同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该基于AIGC的图表自动生成装置100与该终端设备也可以是分立的设备,并且基于AIGC的图表自动生成装置100可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
这里,本领域技术人员可以理解,上述基于AIGC的图表自动生成装置中的各个步骤的具体操作已经在上面参考图1至图4的基于AIGC的图表自动生成方法的描述中得到了详细介绍,并因此,将省略其重复描述。
示例性电子设备:下面,参考图6来描述根据本申请实施例的电子设备。
如图6所示,电子设备10包括输入设备11、输入接口12、中央处理器13、存储器14、输出接口15、输出设备16、以及总线17。其中,输入接口12、中央处理器13、存储器14、以及输出接口15通过总线17相互连接,输入设备11和输出设备16分别通过输入接口12和输出接口15与总线17连接,进而与电子设备10的其他组件连接。
具体地,输入设备11接收来自外部的输入信息,并通过输入接口12将输入信息传送到中央处理器13;中央处理器13基于存储器14中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器14中,然后通过输出接口15将输出信息传送到输出设备16;输出设备16将输出信息输出到电子设备10的外部供用户使用。
在一个实施例中,图6所示的电子设备10可以被实现为一种网络设备,该网络设备可以包括:存储器,被配置为存储程序;处理器,被配置为运行存储器中存储的程序,以执行上述实施例描述的任意一种基于AIGC的图表自动生成方法。
根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以从网络上被下载和安装,和/或从可拆卸存储介质被安装。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其它数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字多功能盘(DVD)或其它光盘存储、磁盒、磁带、磁盘存储或其它磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其它的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其它传输机制之类的调制数据信号中的其它数据,并且可包括任何信息递送介质。
可以理解的是,以上实施方式仅仅是为了说明本申请的原理而采用的示例性实施方式,然而本申请并不局限于此。对于本领域内的普通技术人员而言,在不脱离本申请的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本申请的保护范围。
Claims (8)
1.一种基于AIGC的图表自动生成方法,其特征在于,包括:
获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据;
将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量;
将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量;
将所述学生学习基本信息语义特征向量和所述学习基本信息全局语义特征向量进行关联以得到学习基本信息全局关联特征向量;
将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量;
基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划;
其中,基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划,包括:
对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量;
将所述学生多模态特征向量通过生成器,以生成学生个性化学习计划;
其中,对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量,包括:
计算所述学习基本信息全局关联特征向量的第一自相关样本协方差矩阵,其中,所述第一自相关样本协方差矩阵中各个位置的特征值为所述学习基本信息全局关联特征向量中相应两个位置的特征值之间的方差;
计算所述学生在线学习行为关联特征向量的第二自相关样本协方差矩阵,其中,所述第二自相关样本协方差矩阵中各个位置的特征值为所述学生在线学习行为关联特征向量中相应两个位置的特征值之间的方差;
使用主成分分析法对所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵进行处理以得到学习基本信息全局关联特征向量的特征隐式表达和学生在线学习行为关联特征向量的特征隐式表达;
使用L1正则化来计算所述学习基本信息全局关联特征向量的特征隐式表达和所述学生在线学习行为关联特征向量的特征隐式表达之间的特征隐式间约束矩阵;
将所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量分别乘以所述特征隐式间约束矩阵以将所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量映射到所述特征隐式间约束矩阵的特征空间中以得到映射后学习基本信息全局关联特征向量和映射后学生在线学习行为关联特征向量;以及
计算所述映射后学习基本信息全局关联特征向量和所述映射后学生在线学习行为关联特征向量之间的按位置加权和以得到所述学生多模态特征向量。
2.根据权利要求1所述的基于AIGC的图表自动生成方法,其特征在于,将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量,包括:
将所述由数据库采集的学生学习基本数据进行分词并通过词嵌入编码器以得到学生学习基本信息词序列;
将所述学生学习基本信息词序列通过学生学习基本信息语义编码器以得到所述学生学习基本信息语义特征向量。
3.根据权利要求2所述的基于AIGC的图表自动生成方法,其特征在于,将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量,包括:
将所述由数据库采集的学生学习基本数据进行文本编码以得到学习基本信息文本拼接语义特征向量;
将所述学习基本信息文本拼接语义特征向量通过学习基本信息文本多尺度特征编码器以得到所述学习基本信息全局语义特征向量。
4.根据权利要求3所述的基于AIGC的图表自动生成方法,其特征在于,将所述由数据库采集的学生学习基本数据进行文本编码以得到学习基本信息文本拼接语义特征向量,包括:
将所述由数据库采集的学生学习基本数据通过基于上下文编码器的学习基本信息文本理解模型以得到多个学习基本信息文本特征向量;
将所述多个学习基本信息文本特征向量进行一维排列以得到所述学习基本信息文本拼接语义特征向量。
5.根据权利要求4所述的基于AIGC的图表自动生成方法,其特征在于,将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量,包括:
将所述由在线学习平台采集的学生在线学习行为数据分别通过学习行为编码器转化为特征值,以获得由多个特征值构成的学生在线学习行为特征向量;
将所述学生在线学习行为特征向量通过学生在线学习行为特征编码器以得到所述学生在线学习行为关联特征向量。
6.根据权利要求5所述的基于AIGC的图表自动生成方法,其特征在于,使用主成分分析法对所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵进行处理以得到学习基本信息全局关联特征向量的特征隐式表达和学生在线学习行为关联特征向量的特征隐式表达,包括:
创建Spring Web应用程序;
创建一个数据模型类,所述数据模型类用于表示所述第一自相关样本协方差矩阵、所述第二自相关样本协方差矩阵、所述学习基本信息全局关联特征向量的特征隐式表达和所述学生在线学习行为关联特征向量的特征隐式表达;
在所述Spring Web应用程序中编写所述主成分分析法;
创建REST API端点,所述REST API端点用于允许客户端发送所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵;和
将所述Spring Web应用程序部署于Web 服务器。
7.一种基于AIGC的图表自动生成装置,其特征在于,包括:
学生在线学习数据采集模块,用于获取由数据库采集的学生学习基本数据和由在线学习平台采集的学生在线学习行为数据;
学生学习基本数据语义编码模块,用于将所述由数据库采集的学生学习基本数据进行语义编码以得到学生学习基本信息语义特征向量;
学生学习基本数据多尺度特征编码模块,用于将所述由数据库采集的学生学习基本数据进行多尺度特征编码以得到学习基本信息全局语义特征向量;
学习基本数据特征关联模块,用于将所述学生学习基本信息语义特征向量和所述学习基本信息全局语义特征向量进行关联以得到学习基本信息全局关联特征向量;
学习行为数据特征编码模块,用于将所述由在线学习平台采集的学生在线学习行为数据进行特征编码以得到学生在线学习行为关联特征向量;
个性化学习计划生成模块,用于基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划;
其中,基于所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量,生成学生个性化学习计划,包括:
对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量;
将所述学生多模态特征向量通过生成器,以生成学生个性化学习计划;
其中,对学习基本信息全局关联特征向量和学生在线学习行为关联特征向量进行基于特征隐式表达的稀疏性约束以得到学生多模态特征向量,包括:
计算所述学习基本信息全局关联特征向量的第一自相关样本协方差矩阵,其中,所述第一自相关样本协方差矩阵中各个位置的特征值为所述学习基本信息全局关联特征向量中相应两个位置的特征值之间的方差;
计算所述学生在线学习行为关联特征向量的第二自相关样本协方差矩阵,其中,所述第二自相关样本协方差矩阵中各个位置的特征值为所述学生在线学习行为关联特征向量中相应两个位置的特征值之间的方差;
使用主成分分析法对所述第一自相关样本协方差矩阵和所述第二自相关样本协方差矩阵进行处理以得到学习基本信息全局关联特征向量的特征隐式表达和学生在线学习行为关联特征向量的特征隐式表达;
使用L1正则化来计算所述学习基本信息全局关联特征向量的特征隐式表达和所述学生在线学习行为关联特征向量的特征隐式表达之间的特征隐式间约束矩阵;
将所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量分别乘以所述特征隐式间约束矩阵以将所述学习基本信息全局关联特征向量和所述学生在线学习行为关联特征向量映射到所述特征隐式间约束矩阵的特征空间中以得到映射后学习基本信息全局关联特征向量和映射后学生在线学习行为关联特征向量;以及
计算所述映射后学习基本信息全局关联特征向量和所述映射后学生在线学习行为关联特征向量之间的按位置加权和以得到所述学生多模态特征向量。
8.一种电子设备,其特征在于,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一项所述的基于AIGC的图表自动生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410564976.5A CN118154381B (zh) | 2024-05-09 | 2024-05-09 | 基于aigc的图表自动生成方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410564976.5A CN118154381B (zh) | 2024-05-09 | 2024-05-09 | 基于aigc的图表自动生成方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118154381A CN118154381A (zh) | 2024-06-07 |
CN118154381B true CN118154381B (zh) | 2024-08-16 |
Family
ID=91290467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410564976.5A Active CN118154381B (zh) | 2024-05-09 | 2024-05-09 | 基于aigc的图表自动生成方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118154381B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102546206B1 (ko) * | 2023-03-09 | 2023-06-22 | 주식회사 인피닉 | 멀티 스케일 특징들의 상관관계 및 지역적 연관성을 활용한 시맨틱 세그멘테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
CN116415581A (zh) * | 2023-04-21 | 2023-07-11 | 浙江晓扬科技有限公司 | 一种基于智慧教育的教学数据分析系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115146975A (zh) * | 2022-07-08 | 2022-10-04 | 华中师范大学 | 基于深度学习的面向师-机-生教学成效评估方法和系统 |
CN116186250A (zh) * | 2022-12-07 | 2023-05-30 | 华中师范大学 | 小样本条件下的多模态学习水平挖掘方法、系统及介质 |
CN116821195B (zh) * | 2023-05-31 | 2024-06-07 | 郑州富铭科技股份有限公司 | 一种基于数据库自动生成应用的方法 |
CN117438087A (zh) * | 2023-11-03 | 2024-01-23 | 上饶汉氏医学健康体检中心有限公司 | 基于健康监测数据分析的健康管理方法及系统 |
CN117729003A (zh) * | 2023-12-12 | 2024-03-19 | 福建云创信安信息科技有限公司 | 基于机器学习的威胁情报可信分析系统及方法 |
-
2024
- 2024-05-09 CN CN202410564976.5A patent/CN118154381B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102546206B1 (ko) * | 2023-03-09 | 2023-06-22 | 주식회사 인피닉 | 멀티 스케일 특징들의 상관관계 및 지역적 연관성을 활용한 시맨틱 세그멘테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
CN116415581A (zh) * | 2023-04-21 | 2023-07-11 | 浙江晓扬科技有限公司 | 一种基于智慧教育的教学数据分析系统 |
Also Published As
Publication number | Publication date |
---|---|
CN118154381A (zh) | 2024-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111046679B (zh) | 翻译模型的质量信息获取方法、装置及计算机设备 | |
WO2023108993A1 (zh) | 基于深度聚类算法的产品推荐方法、装置、设备及介质 | |
CN113011186B (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
CN114565104A (zh) | 语言模型的预训练方法、结果推荐方法及相关装置 | |
CN114358007A (zh) | 多标签识别方法、装置、电子设备及存储介质 | |
CN112100401B (zh) | 面向科技服务的知识图谱构建方法、装置、设备及存储介质 | |
CN116415581A (zh) | 一种基于智慧教育的教学数据分析系统 | |
Kinsner | Is entropy suitable to characterize data and signals for cognitive informatics? | |
CN115222066A (zh) | 模型训练方法和装置、行为预测方法、设备及存储介质 | |
US20230055263A1 (en) | Stratification in non-classified heterogeneous object labels | |
CN114627282A (zh) | 目标检测模型的建立方法、应用方法、设备、装置及介质 | |
CN115640394A (zh) | 文本分类方法、文本分类装置、计算机设备及存储介质 | |
CN118155231B (zh) | 文档的识别方法、装置、设备、介质及产品 | |
CN114519397A (zh) | 基于对比学习的实体链接模型的训练方法、装置、设备 | |
CN111445545B (zh) | 一种文本转贴图方法、装置、存储介质及电子设备 | |
CN118154381B (zh) | 基于aigc的图表自动生成方法、装置和电子设备 | |
CN114297398B (zh) | 基于神经网络的知识图谱实体链接方法、装置及电子设备 | |
CN112818164B (zh) | 音乐类型识别方法、装置、设备及存储介质 | |
US20220058842A1 (en) | Generating handwriting via decoupled style descriptors | |
CN114612826A (zh) | 视频和文本相似度确定方法、装置、电子设备、存储介质 | |
CN113821610A (zh) | 信息匹配方法、装置、设备及存储介质 | |
CN112231572A (zh) | 用户特征的提取方法、装置、设备及存储介质 | |
Corzo Perez et al. | Hydroinformatics and Applications of Artificial Intelligence and Machine Learning in Water‐Related Problems | |
Kundu et al. | Automatic Image Captioning Using Different Variants of the Long Short-Term Memory (LSTM) Deep Learning Model | |
Mogadala et al. | Knowledge guided attention and inference for describing images containing unseen objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |