CN116721306B - 基于大数据云平台的线上学习内容推荐系统 - Google Patents
基于大数据云平台的线上学习内容推荐系统 Download PDFInfo
- Publication number
- CN116721306B CN116721306B CN202310591656.4A CN202310591656A CN116721306B CN 116721306 B CN116721306 B CN 116721306B CN 202310591656 A CN202310591656 A CN 202310591656A CN 116721306 B CN116721306 B CN 116721306B
- Authority
- CN
- China
- Prior art keywords
- image
- style
- loss function
- target image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 claims abstract description 28
- 238000007781 pre-processing Methods 0.000 claims abstract description 17
- 238000002360 preparation method Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000007499 fusion processing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 66
- 239000010410 layer Substances 0.000 claims description 34
- 238000005520 cutting process Methods 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000004088 simulation Methods 0.000 claims description 9
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 238000003706 image smoothing Methods 0.000 claims description 6
- 230000006872 improvement Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 6
- 239000002356 single layer Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,尤其涉及一种基于大数据云平台的线上学习内容推荐系统,数据准备模块,所述数据预处理模块,与所述数据准备模块连接,所述模型训练模块在接收到各所述转换后图像和各所述掩码图时进行图像借鉴融合处理以得到最优参数模型并将最优参数模型输送至批量生成数据模块;所述批量生成数据模块在接收到所述最优参数模型后进行批量数据生成处理以生成风格借鉴后的目标图像数据集,并将所述目标图像数据集发送给用户终端进行学习。本发明通过保留目标图像的结构和颜色,进而提高了数据集的真实性。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于大数据云平台的线上学习内容推荐系统。
背景技术
线上教学网站的数量与日俱增,通常形式为观看成套的学习视频,再通过课后习题或测验进行学习成果的检验。如今对于教学质量的需求越来越大,个性化教学成为了一个重要需求。个性化教学通常是指通过收集学生的学习过程数据,综合该学生学业能力和学习特点,为其量身定制教育目标、教育计划、辅导方案等内容的一种教育模式。而线上学习与线下相比的一大缺点就是没有真实的教师,因此便产生了一些智能教学辅助系统,通过采集学生数据进行模型构建,然后系统据此对学生进行学习相关内容的个性化推荐。支持向量机、神经网络、逐步回归等模型都取得了一定的应用效果,主要表现在成绩预测、辍学预测等方面。但是现有技术中的学习内容通常是由若干个图像合并而成的,除去学习内容以外,学习内容所呈现的风格也是吸引众多学生的有效手段。
公开号为CN109447140A的专利文献公开了一种基于神经网络深度学习的图像识别并推荐认知的方法,该方法包括从图像数据库中获取图片及分类,输入到卷积神经网络,通过反复的前向和反向传播,训练该神经网络,提高图像识别精度,提取廿层神经网络模型。利用该模型,通过静态采集图片进行物体识别分类。识别结果,结合输入者的个性化特征,分析输入者的兴趣概率。运用所构建的基于有效识别分类的素材云数据库的机器学习模型,采用推荐系统算法,把预测的内容素材推送给图像输入者供认知学习。
但是现有技术中对于学习内容的内容素材的风格单一。
发明内容
为此,本发明提供一种基于大数据云平台的线上学习内容推荐系统,用以解决现有技术中的内容素材的风格单一的问题。
为实现上述目的,本发明提供一种基于大数据云平台的线上学习内容推荐系统,包括:
数据准备模块,获取不同风格的图像并将用以借鉴风格的图像记为目标图像,数据准备模块随机选取单个图像,将其记为风格图像并将该风格图像的风格作为目标图像借鉴后的风格标准;所述数据准备模块将所述目标图像和所述风格图像输送至数据预处理模块;
所述数据预处理模块,与所述数据准备模块连接,用以对所述风格图像进行裁切处理以使风格图像的尺寸与所述目标图像尺寸相同,数据预处理模块在完成对风格图像的裁切后依次制作针对风格图像和目标图像的掩码图并对各图像进行颜色格式转换处理;所述数据预处理模块将各所述转换后图像和各所述掩码图输送至模型训练模块;
所述模型训练模块在接收到各所述转换后图像和各所述掩码图时进行图像借鉴融合处理以得到最优参数模型并将最优参数模型输送至批量生成数据模块;
所述批量生成数据模块在接收到所述最优参数模型后进行批量数据生成处理以生成风格借鉴后的目标图像数据集,并将所述目标图像数据集发送给用户终端进行学习。
进一步地,所述数据预处理模块包括裁剪单元、割离单元和转化单元;
所述裁剪单元用以采用Opencv+Python程序对所述风格图像进行随机裁剪以使裁剪后的风格图像的尺寸与所述目标图像的尺寸相同;
所述割离单元用以采用l abe lme软件对所述目标图像中学习页面的图像信息和文字区域的图像信息进行割离以完成对目标掩码图的制作,采集所述风格图像中的风格特征并割离风格图像中的非风格特征以完成对风格掩码图的制作,用语义描述图像区域和文字区域以使目标掩码图和风格掩码图在同一编码的区域进行风格借鉴;
所述转化单元用以依次将所述目标图像和所述风格图像的RGB颜色格式转化成YUV颜色格式;在所述模型训练模块完成针对各所述掩码图和各所述转换后图像的模型训练后将目标图像的YUV颜色格式转化为RGB颜色格式并以RGB颜色格式保存目标图像。
进一步地,所述转化单元利用所述Python完成对所述目标图像和所述风格图像的颜色格式的转换并利用以下公式完成对对应颜色格式下对应数值的确定,其中,
转化单元依次将所述目标图像和所述风格图像的RGB颜色格式转化成YUV颜色格式时,该目标图像中的YUV值的计算方式如下:
Y=0.299×R+0.587×G+0.114×B;
U=-0.169×R-0.331×G+0.5×B;
V=0.5×R-0.419×G-0.081×B;
转化单元将所述目标图像的YUV颜色格式转化成RGB颜色格式时,该目标图像中的RGB值的计算方式如下:
R=(Y-16)+1.140×(V-128);
G=(Y-16)-0.394×(U-128)-0.581×(V-128);
B=(Y-16)+2.032×(U-128)。
进一步地,所述模型训练模块包括第一设置单元、第二设置单元和生成单元;
其中,所述第一设置单元用以设置使用模型的层数,对于所述目标图像,选择网络浅层参数,使用第一层参数和第二层参数提取目标掩码图的特征且其各层参数的权重均为0.5;对于所述风格图像,选择网络深层参数来提取风格特征,层数配置前五层参数且各层权重按照顺序依次为0.1、0.1、0.2、0.3和0.3;
所述第二设置单元用以设置内容损失和风格损失比重,并确定模型迭代次数,将在学习内容模拟中最优损失比设置为1/1000,并将模型迭代次数设置为500次;
所述生成单元,用以通过随机噪点生成模拟学习内容图片,根据生成图片的清晰度、借鉴纹理和保留色彩判断该图片是否达到预期标准并在该图片达到预期标准时保存该图片中的各项参数;在所述模拟学习内容图片未达到预期标准时重复调整该图片中的各项参数直至调整后的图片达到预期标准。
进一步地,所述模型训练模块中设置有总损失函数,模型训练模块在总损失函数中依次加入掩码损失函数、颜色损失函数和图像平滑函数并分别对内容损失函数和风格损失函数设置对应的权重系数以完成对神经网络模型中总损失函数的改进,改进后的总损失函数表示如下:
Lt(p,a,f)=αLc(p,f)+βLs(a,f)+Ltv+Lm+Lco
其中,Lt(p,a,f)为总损失函数,Lc(p,f)为内容损失函数,Ls(a,x)为风格损失函数,α为内容损失的权重,β为风格损失的权重,Ltv为图像平滑函数,Lm为掩码损失函数,Lco为颜色损失函数。
进一步地,对于所述内容损失函数Lc(p,f),其定义如下:
其中,Fij为内容图经过单层卷积层得到的特征图,Pij为生成图经过卷积层生成的特征图。
进一步地,对于所述风格损失函数Ls(a,x),其定义如下:
其中,为与生成图经过卷积层得到的特征图自相关得到的Gram矩阵,/>为与风格图经过卷积层得到的特征图自相关得到的Gram矩阵。
进一步地,对于所述颜色损失函数Lco,其定义如下:
其中,σC为所述目标图片的标准差,σS为所述风格图片的标准差,μs为所述风格图片的平均亮度,μc为所述目标图片的平均亮度。
进一步地,所述批量生成数据模块将接收到的所述最优参数模型输入到借鉴网络中,并采用指令集的方式快速生成相同预期的模拟学习内容图片以获取不同类别的学习内容数据集。
进一步地,所述数据准备模块包括获取单元、分类单元以及处理单元;
所述获取单元用以通过学习内容识别设备拍照获取不同学习内容在实际环境下的若干目标图片;
所述分类单元用以对各目标图片进行分类处理以获取不同表盘的目标图像;
所述处理单元采用人工生成对应的模拟环境并在各模拟环境下使用摄像机采集若干风格图片,对各风格图片进行分类处理以获取不同风格环境下的风格图像。
与现有技术相比,本发明的有益效果在于,本发明通过构建基于风格借鉴的神经网络模型,提高了生成图像的清晰度和图像质量,以及生成速度;通过随机噪点向量,生成了多种恶劣环境下学习内容的图像;本发明的风格借鉴神经网络,在生成图像保留目标图像的结构和颜色上有很大的改进,在训练过程中,通过掩码的作用,使图像特定区域的借鉴成为可能,这样会使生成图像能够保留很好的结构,在训练之前,对图片的颜色格式进行转换,保留目标图像的颜色。
进一步地,通过保留目标图像的结构和颜色,进而提高了数据集的真实性,从而进一步提高了不同恶劣环境下学习内容的识别精确度。
尤其,通过裁剪单元对风格图像进行裁剪,以使得与目标图像的尺寸相同,并采用割离单元实现对割离风格图像中的非风格特征以完成对风格掩码图的制作,并根据目标图像的颜色风格进行转化,实现特定格式保存目标图像,本发明实施例能够实现对所述转换后图像和各所述掩码图的输送,大大提高了生成符合用户要求的风格的学习图像内容的推荐。
尤其,通过将所述目标图像和所述风格图像的RGB颜色格式转化成YUV颜色格式时采用特定的计算方式,以及将所述目标图像的YUV颜色格式转化成RGB颜色格式时,采用不同的计算方式,大大提升了计算效率,提升图像学习内容的生成效率。
附图说明
图1为本发明所述基于大数据云平台的线上学习内容推荐系统的框架图;
图2为本发明实施例提供的基于大数据云平台的线上学习内容推荐系统的一种结构示意图;
图3为本发明实施例提供的基于大数据云平台的线上学习内容推荐系统的第二种结构示意图;
图4为本发明实施例提供的基于大数据云平台的线上学习内容推荐系统的第三种结构示意图。
具体实施方式
为了使本发明的目的和优点更加清楚明白,下面结合实施例对本发明作进一步描述;应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
以下结合附图,对本发明上述的和另外的技术特征和优点作更详细的说明。
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非在限制本发明的保护范围。
需要说明的是,在本发明的描述中,术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方向或位置关系的术语是基于附图所示的方向或位置关系,这仅仅是为了便于描述,而不是指示或暗示所述装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,还需要说明的是,在本发明的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域技术人员而言,可根据具体情况理解上述术语在本发明中的具体含义。
请参阅图1所示,其为本发明所述基于大数据云平台的线上学习内容推荐系统的框架图。如图1所示,本发明实施例提供的基于大数据云平台的线上学习内容推荐系统包括数据准备模块10、数据预处理模块20、模型训练模块30和批量生成数据模块40。
数据准备模块,获取不同风格的图像并将用以借鉴风格的图像记为目标图像,数据准备模块随机选取单个图像,将其记为风格图像并将该风格图像的风格作为目标图像借鉴后的风格标准;所述数据准备模块将所述目标图像和所述风格图像输送至数据预处理模块;
所述数据预处理模块,与所述数据准备模块连接,用以对所述风格图像进行裁切处理以使风格图像的尺寸与所述目标图像尺寸相同,数据预处理模块在完成对风格图像的裁切后依次制作针对风格图像和目标图像的掩码图并对各图像进行颜色格式转换处理;所述数据预处理模块将各所述转换后图像和各所述掩码图输送至模型训练模块;
所述模型训练模块在接收到各所述转换后图像和各所述掩码图时进行图像借鉴融合处理以得到最优参数模型并将最优参数模型输送至批量生成数据模块;
所述批量生成数据模块在接收到所述最优参数模型后进行批量数据生成处理以生成风格借鉴后的目标图像数据集,并将所述目标图像数据集发送给用户终端进行学习。
具体而言,本发明实施例通过通过构建基于风格借鉴的神经网络模型,提高了生成图像的清晰度和图像质量,以及生成速度;通过随机噪点向量,生成了多种恶劣环境下学习内容的图像;本发明的风格借鉴神经网络,在生成图像保留目标图像的结构和颜色上有很大的改进,在训练过程中,通过掩码的作用,使图像特定区域的借鉴成为可能,这样会使生成图像能够保留很好的结构,在训练之前,对图片的颜色格式进行转换,保留目标图像的颜色。
如图2所示,所述数据预处理模块20包括裁剪单元21、割离单元22和转化单元23;
所述裁剪单元用以采用Opencv+Python程序对所述风格图像进行随机裁剪以使裁剪后的风格图像的尺寸与所述目标图像的尺寸相同;
所述割离单元用以采用l abe lme软件对所述目标图像中学习页面的图像信息和文字区域的图像信息进行割离以完成对目标掩码图的制作,采集所述风格图像中的风格特征并割离风格图像中的非风格特征以完成对风格掩码图的制作,用语义描述图像区域和文字区域以使目标掩码图和风格掩码图在同一编码的区域进行风格借鉴;
所述转化单元用以依次将所述目标图像和所述风格图像的RGB颜色格式转化成YUV颜色格式;在所述模型训练模块完成针对各所述掩码图和各所述转换后图像的模型训练后将目标图像的YUV颜色格式转化为RGB颜色格式并以RGB颜色格式保存目标图像。
具体而言,本发明实施例通过裁剪单元对风格图像进行裁剪,以使得与目标图像的尺寸相同,并采用割离单元实现对割离风格图像中的非风格特征以完成对风格掩码图的制作,并根据目标图像的颜色风格进行转化,实现特定格式保存目标图像,本发明实施例能够实现对所述转换后图像和各所述掩码图的输送,大大提高了生成符合用户要求的风格的学习图像内容的推荐,便于吸引用户。
具体而言,所述转化单元利用所述Python完成对所述目标图像和所述风格图像的颜色格式的转换并利用以下公式完成对对应颜色格式下对应数值的确定,其中,
转化单元依次将所述目标图像和所述风格图像的RGB颜色格式转化成YUV颜色格式时,该目标图像中的YUV值的计算方式如下:
Y=0.299×R+0.587×G+0.114×B;
U=-0.169×R-0.331×G+0.5×B;
V=0.5×R-0.419×G-0.081×B;
转化单元将所述目标图像的YUV颜色格式转化成RGB颜色格式时,该目标图像中的RGB值的计算方式如下:
R=(Y-16)+1.140×(V-128);
G=(Y-16)-0.394×(U-128)-0.581×(V-128);
B=(Y-16)+2.032×(U-128)。
具体而言,本发明实施例通过将所述目标图像和所述风格图像的RGB颜色格式转化成YUV颜色格式时采用特定的计算方式,以及将所述目标图像的YUV颜色格式转化成RGB颜色格式时,采用不同的计算方式,大大提升了计算效率,提升图像学习内容的生成效率。
如图3所示,所述模型训练模块30包括第一设置单元32、第二设置单元32和生成单元33;
其中,所述第一设置单元用以设置使用模型的层数,对于所述目标图像,选择网络浅层参数,使用第一层参数和第二层参数提取目标掩码图的特征且其各层参数的权重均为0.5;对于所述风格图像,选择网络深层参数来提取风格特征,层数配置前五层参数且各层权重按照顺序依次为0.1、0.1、0.2、0.3和0.3;
所述第二设置单元用以设置内容损失和风格损失比重,并确定模型迭代次数,将在学习内容模拟中最优损失比设置为1/1000,并将模型迭代次数设置为500次;
所述生成单元,用以通过随机噪点生成模拟学习内容图片,根据生成图片的清晰度、借鉴纹理和保留色彩判断该图片是否达到预期标准并在该图片达到预期标准时保存该图片中的各项参数;在所述模拟学习内容图片未达到预期标准时重复调整该图片中的各项参数直至调整后的图片达到预期标准。
具体而言,本发明实施例通过设置使用模型的层数以及选择网络深层参数提取风格特征,采用特定的提取方式,便于进行学习内容的构建,且通过随机噪点生成模拟学习内容图片,根据生成图片的清晰度、借鉴纹理和保留色彩判断该图片是否达到预期标准并在该图片达到预期标准时保存该图片中的各项参数;在所述模拟学习内容图片未达到预期标准时重复调整该图片中的各项参数直至调整后的图片达到预期标准,实现对学习图像内容的有效输出,提高输出效率。
具体而言,所述模型训练模块中设置有总损失函数,模型训练模块在总损失函数中依次加入掩码损失函数、颜色损失函数和图像平滑函数并分别对内容损失函数和风格损失函数设置对应的权重系数以完成对神经网络模型中总损失函数的改进,改进后的总损失函数表示如下:
Lt(p,a,f)=αLc(p,f)+βLs(a,f)+Ltv+Lm+Lco
其中,Lt(p,a,f)为总损失函数,Lc(p,f)为内容损失函数,Ls(a,x)为风格损失函数,α为内容损失的权重,β为风格损失的权重,Ltv为图像平滑函数,Lm为掩码损失函数,Lco为颜色损失函数。
具体而言,本发明实施例通过设置总损失函数,实现对内容损失、风格损失、掩码损失以及颜色损失进行综合考量,实现对总损失函数的有效评估,提高有效损失函数的准确性,实现对学习图像内容的有效评估,便于输出符合用户需求的学习图像内容。
具体而言,对于所述内容损失函数Lc(p,f),其定义如下:
其中,Fij为内容图经过单层卷积层得到的特征图,Pij为生成图经过卷积层生成的特征图。
具体而言,本发明实施例通过对内容图和生成图进行卷积层生成的特征图进行求和评估,实现对内容损失函数的有效确定,使得损失函数的确定更为直观和高效,进而使得总损失函数的评估更为精准,实现对学习图像内容的有效评估,便于输出符合用户需求的学习图像内容。
具体而言,对于所述风格损失函数Ls(a,x),其定义如下:
其中,为与生成图经过卷积层得到的特征图自相关得到的Gram矩阵,/>为与风格图经过卷积层得到的特征图自相关得到的Gram矩阵。
具体而言,本发明实施例通过对风格损失函数的有效确定,使得风格损失函数的确定更为直观和高效,进而使得总损失函数的评估更为精准,实现对学习图像内容的有效评估,便于输出符合用户需求的学习图像内容。
具体而言,对于所述颜色损失函数Lco,其定义如下:
其中,σC为所述目标图片的标准差,σS为所述风格图片的标准差,μs为所述风格图片的平均亮度,μc为所述目标图片的平均亮度。
具体而言,所述批量生成数据模块将接收到的所述最优参数模型输入到借鉴网络中,并采用指令集的方式快速生成相同预期的模拟学习内容图片以获取不同类别的学习内容数据集。
具体而言,本发明实施例通过对颜色损失函数的有效确定,使得颜色损失函数的确定更为直观和高效,进而使得总损失函数的评估更为精准,实现对学习图像内容的有效评估,便于输出符合用户需求的学习图像内容。
具体而言,如图4所示,本发明实施例中的所述数据准备模块10包括获取单元11、分类单元12以及处理单元13;
所述获取单元用以通过学习内容识别设备拍照获取不同学习内容在实际环境下的若干目标图片;
所述分类单元用以对各目标图片进行分类处理以获取不同表盘的目标图像;
所述处理单元采用人工生成对应的模拟环境并在各模拟环境下使用摄像机采集若干风格图片,对各风格图片进行分类处理以获取不同风格环境下的风格图像。
具体而言,本发明实施例通过利用获取单元对学习内容进行识别,然后将目标图片进行分类,得到目标图像,并利用摄像机采集若干风格图片,对各风格图片进行分类处理以获取不同风格环境下的风格图像,实现对风格图像的高效获取,提高获取效率。
具体而言,本发明实施例提供的基于大数据云平台的线上学习内容推荐方法包括:对用于学习内容推荐的后台优化,大数据分析处理学员的在线学习相关数据及相关个人基本信息,并根据分析处理结果筛选出若干数据,对筛选出来的数据进行分类分级归纳,利用归纳数据筛选出与学员相匹配的推荐学习内容图像信息;对后台优化包括:当接收学习内容推荐请求数据时,大数据分析处理学员的在线学习相关数据和学习内容推荐请求数据,并根据推荐方法筛选出若干数据,查找和获取与之匹配的课程和计划数据作为平台UI学习推荐页面的推送数据把相关课程和计划记录推送给相关学员查看:所述学习图像内容推荐数据筛选数据包括地区、单位、上级主管单位、行业、专业、职称、职级、站点、基地、搜索记录、观看记录、考试记录、购买记录等几类。本发明实施例能够更好地适应用户对学习图像内容推荐的需求的效果。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
以上所述仅为本发明的优选实施例,并不用于限制本发明;对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于大数据云平台的线上学习内容推荐系统,其特征在于,包括:
数据准备模块,获取不同风格的图像并将用以借鉴风格的图像记为目标图像,数据准备模块随机选取单个图像,将其记为风格图像并将该风格图像的风格作为目标图像借鉴后的风格标准;所述数据准备模块将所述目标图像和所述风格图像输送至数据预处理模块;
所述数据预处理模块,与所述数据准备模块连接,用以对所述风格图像进行裁切处理以使风格图像的尺寸与所述目标图像尺寸相同,数据预处理模块在完成对风格图像的裁切后依次制作针对风格图像和目标图像的掩码图并对各图像进行颜色格式转换处理;所述数据预处理模块将各转换后图像和各所述掩码图输送至模型训练模块;
所述模型训练模块在接收到各所述转换后图像和各所述掩码图时进行图像借鉴融合处理以得到最优参数模型并将最优参数模型输送至批量生成数据模块;
所述批量生成数据模块在接收到所述最优参数模型后进行批量数据生成处理以生成风格借鉴后的目标图像数据集,并将所述目标图像数据集发送给用户终端进行学习;
所述数据预处理模块包括裁剪单元、割离单元和转化单元;
所述裁剪单元用以采用Opencv+Python程序对所述风格图像进行随机裁剪以使裁剪后的风格图像的尺寸与所述目标图像的尺寸相同;
所述割离单元用以采用labelme软件对所述目标图像中学习页面的图像信息和文字区域的图像信息进行割离以完成对目标掩码图的制作,采集所述风格图像中的风格特征并割离风格图像中的非风格特征以完成对风格掩码图的制作,用语义描述图像区域和文字区域以使目标掩码图和风格掩码图在同一编码的区域进行风格借鉴;
所述转化单元用以依次将所述目标图像和所述风格图像的RGB颜色格式转化成YUV颜色格式;在所述模型训练模块完成针对各所述掩码图和各所述转换后图像的模型训练后将目标图像的YUV颜色格式转化为RGB颜色格式并以RGB颜色格式保存目标图像;
所述转化单元利用所述Python完成对所述目标图像和所述风格图像的颜色格式的转换并利用以下公式完成对对应颜色格式下对应数值的确定,其中,
转化单元依次将所述目标图像和所述风格图像的RGB颜色格式转化成YUV颜色格式时,该目标图像中的YUV值的计算方式如下:
Y=0.299×R+0.587×G+0.114×B;
U=-0.169×R-0.331×G+0.5×B;
V=0.5×R-0.419×G-0.081×B;
转化单元将所述目标图像的YUV颜色格式转化成RGB颜色格式时,该目标图像中的RGB值的计算方式如下:
R=(Y-16)+1.140×(V-128);
G=(Y-16)-0.394×(U-128)-0.581×(V-128);
B=(Y-16)+2.032×(U-128);
所述模型训练模块中设置有总损失函数,模型训练模块在总损失函数中依次加入掩码损失函数、颜色损失函数和图像平滑函数并分别对内容损失函数和风格损失函数设置对应的权重系数以完成对神经网络模型中总损失函数的改进,改进后的总损失函数表示如下:
Lt(p,a,f)=αLc(p,f)+βLs(a,x)+Ltv+Lm+Lco
其中,Lt(p,a,f)为总损失函数,Lc(p,f)为内容损失函数,Ls(a,x)为风格损失函数,α为内容损失的权重,β为风格损失的权重,Ltv为图像平滑函数,Lm为掩码损失函数,Lco为颜色损失函数;
对于所述颜色损失函数Lco,其定义如下:
,
其中,为所述目标图像的标准差,/>为所述风格图像的标准差,/>为所述风格图像的平均亮度,/>为所述目标图像的平均亮度。
2.根据权利要求1所述的基于大数据云平台的线上学习内容推荐系统,其特征在于,所述模型训练模块包括第一设置单元、第二设置单元和生成单元;
其中,所述第一设置单元用以设置使用模型的层数,对于所述目标图像,选择网络浅层参数,使用第一层参数和第二层参数提取目标掩码图的特征且其各层参数的权重均为0.5;对于所述风格图像,选择网络深层参数来提取风格特征,层数配置前五层参数且各层权重按照顺序依次为0.1、0.1、0.2、0.3和0.3;
所述第二设置单元用以设置内容损失和风格损失比重,并确定模型迭代次数,将在学习内容模拟中最优损失比设置为1/1000,并将模型迭代次数设置为500次;
所述生成单元,用以通过随机噪点生成模拟学习内容图片,根据生成图片的清晰度、借鉴纹理和保留色彩判断该图片是否达到预期标准并在该图片达到预期标准时保存该图片中的各项参数;在所述模拟学习内容图片未达到预期标准时重复调整该图片中的各项参数直至调整后的图片达到预期标准。
3.根据权利要求1所述的基于大数据云平台的线上学习内容推荐系统,其特征在于,对于所述内容损失函数Lc(p,f),其定义如下:
,
其中,为内容图经过单层卷积层得到的特征图,/>为生成图经过卷积层生成的特征图。
4.根据权利要求3所述的基于大数据云平台的线上学习内容推荐系统,其特征在于,对于所述风格损失函数Ls(a,x),其定义如下:
,
其中,为与生成图经过卷积层得到的特征图自相关得到的Gram矩阵,/>为与风格图经过卷积层得到的特征图自相关得到的Gram矩阵。
5.根据权利要求1所述的基于大数据云平台的线上学习内容推荐系统,其特征在于,所述批量生成数据模块将接收到的所述最优参数模型输入到借鉴网络中,并采用指令集的方式快速生成相同预期的模拟学习内容图片以获取不同类别的学习内容数据集。
6.根据权利要求5所述的基于大数据云平台的线上学习内容推荐系统,其特征在于,所述数据准备模块包括获取单元、分类单元以及处理单元;
所述获取单元用以通过学习内容识别设备拍照获取不同学习内容在实际环境下的若干目标图像;
所述分类单元用以对各目标图像进行分类处理;
所述处理单元采用人工生成对应的模拟环境并在各模拟环境下使用摄像机采集若干风格图像,对各风格图像进行分类处理以获取不同风格环境下的风格图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310591656.4A CN116721306B (zh) | 2023-05-24 | 2023-05-24 | 基于大数据云平台的线上学习内容推荐系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310591656.4A CN116721306B (zh) | 2023-05-24 | 2023-05-24 | 基于大数据云平台的线上学习内容推荐系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116721306A CN116721306A (zh) | 2023-09-08 |
CN116721306B true CN116721306B (zh) | 2024-02-02 |
Family
ID=87866989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310591656.4A Active CN116721306B (zh) | 2023-05-24 | 2023-05-24 | 基于大数据云平台的线上学习内容推荐系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116721306B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019042139A1 (zh) * | 2017-08-29 | 2019-03-07 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置、神经网络的训练方法 |
CN109447140A (zh) * | 2018-10-19 | 2019-03-08 | 广州四十五度科技有限公司 | 一种基于神经网络深度学习的图像识别并推荐认知的方法 |
CN109712068A (zh) * | 2018-12-21 | 2019-05-03 | 云南大学 | 用于葫芦烙画的图像风格迁移与模拟方法 |
WO2020200030A1 (zh) * | 2019-04-02 | 2020-10-08 | 京东方科技集团股份有限公司 | 神经网络的训练方法、图像处理方法、图像处理装置和存储介质 |
CN112740645A (zh) * | 2018-10-12 | 2021-04-30 | 三星电子株式会社 | 显示装置、服务器及其控制方法 |
KR102260628B1 (ko) * | 2020-02-13 | 2021-06-03 | 이인현 | 협력적 스타일 트랜스퍼 기술을 이용한 이미지 생성 시스템 및 방법 |
CN113393370A (zh) * | 2021-06-02 | 2021-09-14 | 西北大学 | 中国书法文字图像风格迁移的方法、系统、智能终端 |
WO2021218119A1 (zh) * | 2020-04-30 | 2021-11-04 | 中国科学院深圳先进技术研究院 | 图像调色增强方法和图像调色增强神经网络训练方法 |
CN114255159A (zh) * | 2021-12-21 | 2022-03-29 | 科大讯飞股份有限公司 | 手写文本图像生成方法、装置、电子设备和存储介质 |
CN115311130A (zh) * | 2022-07-16 | 2022-11-08 | 西北大学 | 一种多风格中国书法文字图像风格迁移方法、系统及终端 |
WO2023000895A1 (zh) * | 2021-07-23 | 2023-01-26 | 腾讯科技(深圳)有限公司 | 图像风格转换方法、装置、电子设备和存储介质 |
CN116091630A (zh) * | 2022-11-01 | 2023-05-09 | 哈尔滨工业大学(深圳) | 用于训练图像生成模型的方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11538178B2 (en) * | 2020-12-22 | 2022-12-27 | Blizzard Entertainment, Inc. | Machine learning-based 2D structured image generation |
-
2023
- 2023-05-24 CN CN202310591656.4A patent/CN116721306B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019042139A1 (zh) * | 2017-08-29 | 2019-03-07 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置、神经网络的训练方法 |
CN112740645A (zh) * | 2018-10-12 | 2021-04-30 | 三星电子株式会社 | 显示装置、服务器及其控制方法 |
CN109447140A (zh) * | 2018-10-19 | 2019-03-08 | 广州四十五度科技有限公司 | 一种基于神经网络深度学习的图像识别并推荐认知的方法 |
CN109712068A (zh) * | 2018-12-21 | 2019-05-03 | 云南大学 | 用于葫芦烙画的图像风格迁移与模拟方法 |
WO2020200030A1 (zh) * | 2019-04-02 | 2020-10-08 | 京东方科技集团股份有限公司 | 神经网络的训练方法、图像处理方法、图像处理装置和存储介质 |
KR102260628B1 (ko) * | 2020-02-13 | 2021-06-03 | 이인현 | 협력적 스타일 트랜스퍼 기술을 이용한 이미지 생성 시스템 및 방법 |
WO2021218119A1 (zh) * | 2020-04-30 | 2021-11-04 | 中国科学院深圳先进技术研究院 | 图像调色增强方法和图像调色增强神经网络训练方法 |
CN113393370A (zh) * | 2021-06-02 | 2021-09-14 | 西北大学 | 中国书法文字图像风格迁移的方法、系统、智能终端 |
WO2023000895A1 (zh) * | 2021-07-23 | 2023-01-26 | 腾讯科技(深圳)有限公司 | 图像风格转换方法、装置、电子设备和存储介质 |
CN114255159A (zh) * | 2021-12-21 | 2022-03-29 | 科大讯飞股份有限公司 | 手写文本图像生成方法、装置、电子设备和存储介质 |
CN115311130A (zh) * | 2022-07-16 | 2022-11-08 | 西北大学 | 一种多风格中国书法文字图像风格迁移方法、系统及终端 |
CN116091630A (zh) * | 2022-11-01 | 2023-05-09 | 哈尔滨工业大学(深圳) | 用于训练图像生成模型的方法及装置 |
Non-Patent Citations (2)
Title |
---|
MSGAN: Generative Adversarial Networks for Image Seasonal Style Transfer;FUQUAN ZHANG等;《Digital Object Identifier》;第104830-104840页 * |
基于HSV颜色模型的图像风格迁移算法;王飞等;《电子元器件与信息技术》;第6卷(第6期);第217-220页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116721306A (zh) | 2023-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110543892B (zh) | 一种基于多层随机森林的零部件识别方法 | |
CN110555434B (zh) | 一种局部对比和全局指导的立体图像视觉显著性检测方法 | |
CN110033023B (zh) | 一种基于绘本识别的图像数据处理方法及系统 | |
CN109583483B (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
CN111368815A (zh) | 一种基于多部件自注意力机制的行人重识别方法 | |
CN106096542B (zh) | 基于距离预测信息的图像视频场景识别方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN110738132B (zh) | 一种具备判别性感知能力的目标检测质量盲评价方法 | |
CN112966574A (zh) | 人体三维关键点预测方法、装置及电子设备 | |
CN111027581A (zh) | 一种基于可学习编码的3d目标检测方法及系统 | |
CN112528058B (zh) | 基于图像属性主动学习的细粒度图像分类方法 | |
CN108647696B (zh) | 图片颜值确定方法及装置、电子设备、存储介质 | |
CN111860091A (zh) | 人脸图像评估方法和系统、服务器和计算机可读存储介质 | |
CN109523558A (zh) | 一种人像分割方法及系统 | |
CN112668638A (zh) | 一种图像美学质量评估和语义识别联合分类方法及系统 | |
CN111432206A (zh) | 基于人工智能的视频清晰度处理方法、装置及电子设备 | |
CN112950579A (zh) | 图像质量评价方法、装置和电子设备 | |
CN112668675B (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
CN114140876A (zh) | 一种课堂实时人体动作识别方法、计算机设备及可读介质 | |
CN116630828B (zh) | 基于地形环境适配的无人机遥感信息采集系统及方法 | |
CN116721306B (zh) | 基于大数据云平台的线上学习内容推荐系统 | |
CN116630749A (zh) | 工业设备故障检测方法、装置、设备以及存储介质 | |
CN113888567B (zh) | 一种图像分割模型的训练方法、图像分割方法及装置 | |
CN116958729A (zh) | 对象分类模型的训练、对象分类方法、装置及存储介质 | |
CN111950565B (zh) | 基于特征融合和朴素贝叶斯的抽象画图像方向识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |