CN113487577B - 基于GRU-CNN组合模型的快速Gamma调校方法、系统及应用 - Google Patents
基于GRU-CNN组合模型的快速Gamma调校方法、系统及应用 Download PDFInfo
- Publication number
- CN113487577B CN113487577B CN202110798509.5A CN202110798509A CN113487577B CN 113487577 B CN113487577 B CN 113487577B CN 202110798509 A CN202110798509 A CN 202110798509A CN 113487577 B CN113487577 B CN 113487577B
- Authority
- CN
- China
- Prior art keywords
- gru
- network
- cnn
- model
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000013598 vector Substances 0.000 claims abstract description 71
- 238000005457 optimization Methods 0.000 claims abstract description 28
- 238000013527 convolutional neural network Methods 0.000 claims description 111
- 230000006870 function Effects 0.000 claims description 38
- 238000012549 training Methods 0.000 claims description 33
- 238000004422 calculation algorithm Methods 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 22
- 230000000694 effects Effects 0.000 claims description 13
- 238000011156 evaluation Methods 0.000 claims description 11
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 229920001621 AMOLED Polymers 0.000 abstract description 20
- 230000008569 process Effects 0.000 abstract description 10
- 238000013135 deep learning Methods 0.000 abstract description 4
- 239000000523 sample Substances 0.000 description 24
- 238000004590 computer program Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Picture Signal Circuits (AREA)
Abstract
本发明公开了基于GRU‑CNN组合模型的快速Gamma调校方法、系统及应用,涉及显示系统画质优化与深度学习技术领域。通过选取多个灰阶序列组成由多个寄存器绑点初始向量组成的输入绑点队列;建立GRU网络,以获得输入绑点队列之间的序列特征;然后建立CNN网络,以获得输入绑点的初始向量的局部特征;将样本模组输入到建立好的组合模型中,获得训练好的组合模型,并进行RGB三色寄存器的初始值预测;GRU‑CNN组合模型有效性评价。在需要快速Gamma调校过程中,减少了网络中的必要参数,提高了调校效率与精度,能够有效地解决现有技术中AMOLED显示模组Gamma调校及OTP过程较为复杂以及耗时的问题。
Description
技术领域
本发明属于显示系统深度学习技术领域,尤其涉及一种基于GRU-CNN组合模型的快速Gamma调校方法、系统、计算机程序产品、计算机设备、计算机可读存储介质、信息数据处理终端。
背景技术
目前,随着社会科学经济水平的不断提升,人们对电子产品的需求量不断提升,而显示屏作为众多电子产品中不可分割的一部分,尤其是新一代的AMOLED(有源矩阵有机发光二极体,Active-matrix organic light-emitting diode)面板技术受到了广泛的关注,相比于LCD具有柔韧性好、发光效率高、轻薄、显示效果好等特点。在AMOLED屏体的检测工序中,Gamma调校至关重要。
现今,对于Gamma调校主要是利用探头分别测量白画面下抓取的N个灰阶的色坐标和亮度,通过控制寄存器的值分别调整色坐标和亮度的值,直到N个画面的输出灰度图像的亮度和色坐标同时满足标准Gamma曲线的要求。
虽然目前的AMOLED显示屏的Gamma调校方法中,存在基于深度学习对AMOLED显示屏的Gamma参数进行调校,但是由于在调校过程中或是不能很好处理序列的数据样本信息,或是由于网络结构复杂,参数众多,计算耗时。综上所述,现有技术中的AMOLED显示屏存在Gamma调校过程较为复杂的问题。
发明内容
为了解决现有技术存在的问题,本发明提供了一种基于GRU-CNN组合模型的快速Gamma调校方法。
本发明是这样实现的,该基于GRU-CNN组合模型的快速Gamma调校方法包括以下步骤:
步骤一、选取多个灰阶序列组成由多个绑点初始向量组成的输入绑点队列;
步骤二、建立GRU网络,以获得输入绑点队列之间的序列特征;
步骤三、建立CNN网络,以获得输入绑点的初始向量的局部特征;
步骤四、样本模组输入到建立好的组合模型中,获得训练好的组合模型,并进行RGB寄存器值的预测;
步骤五、GRU-CNN组合模型有效性评价。
在一个实施例中,在步骤一中,所述绑点初始向量包括模组的输入绑点、颜色坐标及亮度值,组合模型的输出绑点预测向量包括输出绑点及RGB寄存器的值。
在一个实施例中,建立GRU网络,以获得输入绑点队列之间的序列特征的步骤包括:
2.1、GRU网络的建立;GRU网络是LSTM网络的变体,GRU网络是由更新门zt和重置门rt构成,更新门zt的作用类似于LSTM网络结构中的遗忘门和输入门;
2.2、利用建立好的GRU网络,获得输入绑点队列之间的序列特征;对于输入的序列数据集Sa,使用GRU网络学习特征序列,得到GRU网络最终输出的特征向量Ya GRU,其表达式为:
其中,Wr和Wz示重置门和更新门的权重矩阵,fGRU()表示GRU神经网络的映射函数。
在一个实施例中,建立CNN网络,以获得输入绑点的初始向量的局部特征的步骤包括:
3.1、建立CNN网络;CNN网络由卷积层和归一化层交替形成,在输出层前使用全局平均池来减少输出值的维度;
3.2、利用建立好的CNN网络,获得输入绑点的初始向量的局部特征;对于输入的序列数据集Sa,使用CNN网络学习初始向量的局部特征,得到CNN网络最终输出的特征向量YaCNN,其表达式为:
其中,gn表示CNN网络最终学习到的特征向量YaCNN的每一个分量值。
在一个实施例中,样本模组输入到建立好的组合模型中,获得训练好的组合模型,并进行RGB寄存器值的预测的步骤包括:
4.1、混合模型的输出;对输入的序列样本Sa,将GRU网络及CNN网络所提取的特征向量进行混合,随后通过全连接层,输出RGB寄存器的预测值,如下式所示:
其中,表示GRU网络输出的特征向量,/>表示卷积网络输出的特征向量,函数concetenate()将特征向量/>和/>拼接为一个长向量;
4.2、损失函数及优化算法的定义和网络训练;
4.3、使用训练好的GRU-CNN组合模型进行初始值预测;将所获取待调制模组的输入绑点序列,利用训练好的GRU-CNN组合模型得到输出绑点序列Y1,Y2,…Y28,获得RGB寄存器的预测值。
在一个实施例中,损失函数及优化算法的定义和网络训练的步骤包括:
4.2.1、损失函数的定义;在模型训练期间,交叉熵损失函数用来衡量真实值与预测值之间的相似性,其表达式如下式所示:
其中,yk表示第k个训练样本的真实标签,Sk表示输入的第k个序列样本,hw,b(Sk)表示模型输出的概率值,W表示权重参数,b表示偏置,n表示样本的总个数;交叉熵损失函数的作用是利用优化器调整W和b,使损失函数的值达到最小化;
4.2.2、优化算法的定义及网络训练;利用Adam优化算法进行参数优化,经过校正后最终的Adam算法的更新式如下式所示:
其中,mt表示当前梯度的一阶矩均值估计;vt表示当前梯度的二阶矩有偏方差估计;表示校正后的梯度带权平均;/>表示校正后的梯度带权有偏方差;η表示学习率;ε=10-8;随着样本模组数据的不断输入通过Adam算法不断更新参数,损失函数值不断减小,最终完成对GRU-CNN组合模型的训练。
在一个实施例中,在GRU-CNN组合模型有效性评价步骤中,使用均方根误差RMSE和平均绝对误差MAE作为GRU-CNN组合模型的评价指标,RMSE值越小代表模型最终效果越好,计算式如下式所示:
其中,xi代表真实值;代表输出值;N代表所有输出值的个数;
其中,MAE值越小代表模型最终效果越好,计算式如下式所示:
其中,yi代表真实值;代表输出值;N代表所有输出值的个数。
本发明的另一目的在于提供一种实现所述的基于GRU-CNN组合模型的快速Gamma调校方法的调校系统,该基于GRU-CNN组合模型的快速Gamma调校系统包括:
数据采集模块,用于选取多个灰阶序列组成由多个绑点初始向量组成的输入绑点队列;
GRU网络特征提取模块,用于对所述输入绑点队列之间的序列特征进行提取;
CNN网络特征提取模块,用于对所述输入绑点的初始向量的局部特征进行提取;
组合模型训练预测模块,用于对所述样本模组输入到组合模型中进行训练,并进行RGB寄存器值预测;
模型效果评价模块,用于验证建立的组合神经网络GRU-CNN组合模型的有效性,凸显出GRU-CNN组合模型的优越性。
在一个实施例中,所述GRU网络特征提取模块包括:
GRU网络建立单元,用于根据GRU网络的更新门及重置门的特征来建立网络;
GRU网络特征提取单元,用于输入的序列数据集Sa,使用GRU网络学习序列特征。
在一个实施例中,所述CNN网络特征提取模块包括:
CNN网络建立单元,用于根据CNN网络的卷积层、归一化操作及全局平均池化层的特征来建立网络;
CNN网络特征提取单元,用于对输入的序列数据集Sa,使用CNN网络学习初始向量的局部特征。
在一个实施例中,所述组合模型训练预测模块包括:
混合模型输出单元,用于将GRU网络及CNN网络所提取的特征向量进行混合,随后通过全连接层,输出RGB寄存器的预测值;
优化损失单元,用于对损失函数和优化算法进行定义,并将样本模组输入到组合模型中,得到训练好的组合模型;
寄存器值预测单元,将带调制模组输入到训练好的组合模型当中,得到RGB寄存器的预测值。
在一个实施例中,所述优化损失单元包括:
损失函数子单元,用于衡量真实值与预测值之间的相似性,利用优化器调整权重系数;
优化训练子单元,用于进行参数优化,寻找全局最优点,随着样本模组数据的不断输入通过优化算法不断更新参数。
本发明的另一目的在于提供一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施所述基于GRU-CNN组合模型的快速Gamma调校方法。
本发明的另一目的在于提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
步骤一、选取多个灰阶序列组成由多个绑点初始向量组成的输入绑点队列;
步骤二、建立GRU网络,以获得输入绑点队列之间的序列特征;
步骤三、建立CNN网络,以获得输入绑点的初始向量的局部特征;
步骤四、样本模组输入到建立好的组合模型中,获得训练好的组合模型,并进行RGB寄存器的初始值预测;
步骤五、GRU-CNN组合模型有效性评价。
本发明的另一目的在于提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行所述基于GRU-CNN组合模型的快速Gamma调校方法。
本发明的另一目的在于提供一种信息数据处理终端,所述信息数据处理终端包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述基于GRU-CNN组合模型的快速Gamma调校方法。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:
第一、获取多个绑点初始向量组成的输入绑点队列,再之通过GRU网络,对所述输入绑点队列之间的序列特征进行提取,同时通过CNN网络对所述输入绑点的初始向量的局部特征进行提取,输入样本模组得到训练好的组合模型,将待调制模组的利用训练好的GRU-CNN组合模型,获得RGB寄存器的预测值,验证建立的GRU-CNN组合模型的有效性,凸显出GRU-CNN组合模型的优越性。在快速Gamma调校过程中,减少了网络中的必要参数,从而减少计算量,提高了调校效率与精度,能够有效地解决现有技术中的AMOLED显示屏存在Gamma调校过程较为复杂的问题。
第二、本发明主要还是针对当前的存在技术提出的基于深度学习的一种Gamma调校的技术思路,从GRU网络的角度来说,相较于当前LSTM网络简化了网络参数,同时提取了输入绑点队列中绑点之间的序列特征从CNN网络的角度来说,一维CNN网络可以对向量中的特征进行提取,同时网络参数不会繁杂通过二者的结合,既可以提取序列特征,又可以提取向量局部特征
当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本发明实施例的AMOLED显示屏的快速Gamma调校方法的一应用环境示意图;
图2是本发明实施例的AMOLED显示屏的快速Gamma调校方法的流程示意图;
图3是本发明实施例的AMOLED显示屏的快速Gamma调校方法中步骤121中GRU网络的示意图;
图4是本发明实施例的AMOLED显示屏的快速Gamma调校方法中组合模型的示意图;
图5是本发明的第二实施例的一种基于GRU-CNN组合模型的快速Gamma调校方法的模块示意图;
图6是本发明的第三实施例提供的计算机设备的模块示意图。
图中:41、数据采集模块;42、GRU网络特征提取模块;43、CNN网络特征提取模块;44、组合模型训练预测模块;45、模型效果评价模块。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施的限制。
需要说明的是,当元件被称为“固定于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本发明所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的,并不表示是唯一的实施方式。
除非另有定义,本发明所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本发明中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本发明所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
本发明实施例提供的AMOLED显示屏的快速Gamma调校方法,可应用于如图1所示的应用环境中,其中,采集设备与计算设备进行通信。采集设备采集包含目标AMOLED显示屏的多个绑点初始向量组成的输入绑点队列,计算设备通过GRU网络,获得输入绑点队列之间的序列特征,同时通过CNN网络,获得输入绑点的初始向量的局部特征,输入样本模组得到训练好的组合模型,将待调制模组输入训练好的GRU-CNN组合模型,获得RGB寄存器的预测值,验证建立的GRU-CNN组合模型的有效性,凸显出GRU-CNN组合模型的优越性。其中,采集设备可以是具备摄像头的摄制设备。计算设备可以是具备数据处理能力的设备,计算设备可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在本发明实施例中,如图2所示,提供一种AMOLED显示屏的快速Gamma调校方法,以该方法应用在图1中的计算设备为例进行说明,包括如下步骤11至步骤14。
步骤11:选取多个灰阶序列组成由多个绑点初始向量组成的输入绑点队列。
其中,绑点的初始向量包括模组的输入绑点、颜色坐标及亮度值,组合模型的输出绑点预测向量包括输出绑点及RGB寄存器的值。
步骤12:建立GRU网络,以获得输入绑点队列之间的序列特征。
进一步地,作为本实施例的一种实施方式,如图3所示,上述步骤12具体包括以下步骤121至步骤122。
步骤121:GRU网络的建立。
其中,具体是GRU网络是LSTM网络的变体,GRU网络是由更新门zt和重置门rt构成,更新门zt是将LSTM网络结构中遗忘门和输入门合并得到。GRU网络结构如图所示。
其中,S表示序列的样本数据,ht表示t时的输出值,~ht表示t时刻的隐藏状态。GRU网络学习样本特征受到上一时刻的输出值ht-1和当前时刻的输入值St的影响,因此在t时刻GRU网络的输入为ht-1和St。
步骤122:利用建立好的GRU网络,获得输入绑点队列之间的序列特征。
其中,对于输入的序列数据集Sa,使用GRU网络学习特征序列,得到GRU网络最终输出的特征向量YaGRU,其表达式如下式(1):
其中,Wr和Wz示重置门和更新门的权重矩阵,fGRU()表示GRU神经网络的映射函数。
步骤13:建立CNN网络,以获得输入绑点的初始向量的局部特征。
进一步地,作为本实施例的一种实施方式,如图5所示,上述步骤13具体包括以下步骤131至步骤132。
步骤131:CNN网络的建立。
其中,CNN网络是由卷积层和归一化层交替形成,而不是单一的卷积层,
在输出层前使用全局平均池来减少输出值的维度。
卷积操作的目的是为了学习序列样本的局部特征;在卷积网络中引入批量归一化操作来调整神经网络的中间输出,使每一层的中间输出值趋于稳定,从而解决了训练过程中数据分布不稳定的问题;使用全局平均池化层来代替全连接层,仅可以减少特征向量的维数,还可以降低网络的参数
步骤132:利用建立好的CNN网络,获得输入绑点的初始向量的局部特征。
对于输入的序列数据集Sa,使用CNN网络学习初始向量的局部特征,得到CNN网络最终输出的特征向量YaCNN,其表达式如下式(2):
其中,gn表示CNN网络最终学习到的特征向量YaCNN的每一个分量值。
步骤14:样本模组输入到建立好的组合模型中,获得训练好的组合模型,并进行RGB寄存器的初始值预测。
进一步地,作为本实施例的一种实施方式,如图3所示,上述步骤14具体包括以下步骤141至步骤143。
步骤141:混合模型的输出。
其中,对输入的序列样本Sa,将GRU网络及CNN网络所提取的特征向量进行混合,随后通过全连接层,输出RGB寄存器的预测值,如式(3)所示:
其中,表示GRU网络输出的特征向量,/>表示卷积网络输出的特征向量,函数concetenate()将特征向量/>和/>拼接为一个长向量。
步骤142:损失函数及优化算法的定义和网络训练。
进一步地,作为本实施例的一种实施方式,如图5所示,上述步骤142具体包括以下步骤1421至步骤1422。
步骤1421:损失函数的定义。
其中,在模型训练期间,交叉熵损失函数用来衡量真实值与预测值之间的相似性。其表达式如式(4)所示:
其中,yk表示第k个训练样本的真实标签,Sk表示输入的第k个序列样本,hw,b(Sk)表示模型输出的概率值,W表示权重参数,b表示偏置,n表示样本的总个数。
其中,交叉熵损失函数的作用是利用优化器调整W和b,使损失函数的值达到最小化,一般来说,损失函数的总值越小,那么模型的学习效果越好。
步骤1422:优化算法的定义及网络训练。
其中,利用Adam优化算法进行参数优化,它是一个寻找全局最优点的优化算法,Adam算法的优点在于,偏置校正后每次迭代学习率都会有明确的范围,从而使得参数比较平稳,相比于基础随机梯度下降(SGD)算法,不容易陷入局部优点,而且速度更快。经过校正后最终的Adam算法的更新式如式(5)所示:
其中,mt表示当前梯度的一阶矩(均值)估计;vt表示当前梯度的二阶矩(有偏方差)估计;表示校正后的梯度带权平均;/>表示校正后的梯度带权有偏方差;η表示学习率;ε=10-8。
其中,随着样本模组数据的不断输入通过Adam算法不断更新参数,损失函数值不断减小,最终完成对GRU-CNN组合模型的训练。
步骤143:使用训练好的GRU-CNN组合模型进行初始值预测。
其中,具体是将所获取待调制模组的输入绑点序列,利用训练好的GRU-CNN组合模型得到输出绑点序列Y1,Y2,…Y28,获得RGB寄存器的预测值。
步骤15:GRU-CNN组合模型有效性评价。
其中,使用均方根误差(RMSE)和平均绝对误差(MAE)作为GRU-BP模型的评价指标。
其中,RMSE值越小代表模型最终效果越好,计算式如式(6)所示:
其中,xi代表真实值;代表输出值;N代表所有输出值的个数。
其中,MAE值越小代表模型最终效果越好,计算式如式(7)所示:
在本实施例中,通过上述步骤14的实施,验证建立的GRU-CNN组合模型的有效性,与普通的长短期记忆网络(LSTM)预测模型、普通的CNN预测模型作为对照组,以RMSE以及MAR为评价指标以对比预测结果,凸显出GRU-CNN组合模型的优越性。
在本实施例中,通过上述步骤11至步骤15的实施,能够对AMOLED显示屏中的Gamma参数快速调校,在调校过程中,无需进行复杂计算,同时将根据输入绑点初始向量得到RGB寄存器的预测值、将GRU网络和CNN网络有效地结合起来,解决了现有调校方法中存在的参数复杂、序列数据处理能力差等问题,有效地提高了调校AMOLED显示屏Gamma参数的效率和精确度。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
本发明提供一种基于GRU-CNN组合模型的快速Gamma调校方法。
进一步地,如图5所示,该Gamma快速调校方法包括数据采集模块41、GRU网络特征提取模块42、CNN网络特征提取模块43、组合模型训练预测模块44,模型效果评价模块45。各功能模块详细说明如下:
数据采集模块41,用于获取包含多个绑点初始向量组成的输入绑点队列;
GRU网络特征提取模块42,用于对所述输入绑点队列之间的序列特征进行提取;
CNN网络特征提取模块43,用于对所述输入绑点的初始向量的局部特征进行提取;
组合模型训练预测模块44,用于对所述样本模组输入到组合模型中进行训练,并进行RGB寄存器值预测;
模型效果评价模块45,用于验证建立的组合神经网络GRU-CNN组合模型的有效性,凸显出GRU-CNN组合模型的优越性。
进一步地,作为本实施例的一种实施方式,上述GRU网络特征提取模块42包括GRU网络建立单元、GRU网络特征提取单元。各功能单元详细说明如下:
GRU网络建立单元,用于根据GRU网络的更新门及重置门的特征来建立网络;
GRU网络特征提取单元,用于输入的序列数据集Sa,使用GRU网络学习序列特征;
进一步地,作为本实施例的一种实施方式,上述CNN网络特征提取模块43包括CNN网络建立单元、数据处理及训练单元和校正值获取单元。各功能单元详细说明如下:
CNN网络建立单元,用于根据CNN网络的卷积层、归一化操作及全局平均池化层的特征来建立网络;
CNN网络特征提取单元,用于对输入的序列数据集Sa,使用CNN网络学习初始向量的局部特征。
进一步地,作为本实施例的一种实施方式,上述组合模型训练预测模块44包括混合模型输出单元、优化损失单元和寄存器值预测单元。各功能单元详细说明如下:
混合模型输出单元,用于将GRU网络及CNN网络所提取的特征向量进行混合,随后通过全连接层,输出RGB寄存器的预测值;
优化损失单元,用于对损失函数和优化算法进行定义,并将样本模组输入到组合模型中,得到训练好的组合模型;
寄存器值预测单元,将带调制模组输入到训练好的组合模型当中,得到RGB寄存器的预测值。
进一步地,作为本实施例的一种实施方式,上述优化损失单元包括初始化及损失函数子单元和优化训练子单元详细说明如下:
损失函数子单元,用于衡量真实值与预测值之间的相似性,利用优化器调整权重系数;
优化训练子单元,用于进行参数优化,寻找全局最优点,随着样本模组数据的不断输入通过优化算法不断更新参数。
关于上述快速Gamma调校方法中的各个模块/单元可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本发明的第三实施例提供了一种计算机设备,该计算机设备可以是服务器。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储AMOLED显示屏的快速Gamma调校方法中涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。
根据本申请的一个实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述快速Gamma调校方法的步骤,例如图2所示的步骤11至步骤15。
本发明的第四实施例提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现本发明实施例提供的AMOLED显示屏的快速Gamma调校方法的步骤,例如图2所示的步骤11至步骤15。或者,计算机程序被处理器执行时实现上述第一实施例提供的AMOLED显示屏的快速Gamma调校方法的各模块/单元的功能。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围应由所附的权利要求来限制。
Claims (7)
1.一种基于GRU-CNN组合模型的快速Gamma调校方法,其特征在于,所述基于GRU-CNN组合模型的快速Gamma调校方法包括以下步骤:
步骤一、选取多个灰阶序列组成由多个绑点初始向量组成的输入绑点队列;
步骤二、建立GRU网络,以获得输入绑点队列之间的序列特征;
步骤三、建立CNN网络,以获得输入绑点的初始向量的局部特征;
步骤四、样本模组输入到建立好的组合模型中,获得训练好的组合模型,并进行RGB寄存器的初始值预测;
步骤五、GRU-CNN组合模型有效性评价;
选取多个灰阶序列组成由多个绑点初始向量组成的输入绑点队列的步骤包括:模组的输入绑点、颜色坐标及亮度值,组合模型的输出绑点预测向量包括输出绑点及RGB寄存器的值;
建立GRU网络,以获得输入绑点队列之间的序列特征的步骤包括:
2.1、GRU网络的建立;GRU网络是LSTM网络的变体,GRU网络是由更新门zt和重置门rt构成,更新门zt是将LSTM网络结构中遗忘门和输入门合并得到;
2.2、利用建立好的GRU网络,获得输入绑点队列之间的序列特征;对于输入的序列数据集Sa,使用GRU网络学习特征序列,得到GRU网络最终输出的特征向量YaGRU,其表达式为:
Ya GRU=fGRU(Sa,Wr,WZ) (1)
其中,Wr和Wz示重置门和更新门的权重矩阵,fGRU()表示GRU神经网络的映射函数;
建立CNN网络,以获得输入绑点的初始向量的局部特征的步骤包括:
3.1、建立CNN网络;CNN网络由卷积层和归一化层交替形成,在输出层前使用全局平均池来减少输出值的维度;
3.2、利用建立好的CNN网络,获得输入绑点的初始向量的局部特征;对于输入的序列数据集Sa,使用CNN网络学习初始向量的局部特征,得到CNN网络最终输出的特征向量Ya CNN,其表达式为:
Ya CNN={g1,g2,...,gn} (2)
其中,gn表示CNN网络最终学习到的特征向量Ya CNN的每一个分量值;
样本模组输入到建立好的组合模型中,获得训练好的组合模型,并进行RGB寄存器的初始值预测的步骤包括:
4.1、混合模型的输出;对输入的序列样本Sa,将GRU网络及CNN网络所提取的特征向量进行混合,随后通过全连接层,输出RGB寄存器的预测值,如下式所示:
Ya=Fully connected layer(g1,g2,...,gn) (3)
其中,Ya GRU表示GRU网络输出的特征向量,Ya CNN表示卷积网络输出的特征向量,函数concetenate()将特征向量Ya GRU和Ya CNN拼接为一个长向量;
4.2、损失函数及优化算法的定义和网络训练;
4.3、使用训练好的GRU-CNN组合模型进行初始值预测;将所获取待调制模组的输入绑点序列,利用训练好的GRU-CNN组合模型得到输出绑点序列Y1,Y2,…Y28,获得RGB寄存器的预测值。
2.根据权利要求1所述的基于GRU-CNN组合模型的快速Gamma调校方法,其特征在于,损失函数及优化算法的定义和网络训练的步骤包括:
4.2.1、损失函数的定义;在模型训练期间,交叉熵损失函数用来衡量真实值与预测值之间的相似性,其表达式如下式所示:
其中,yk表示第k个训练样本的真实标签,Sk表示输入的第k个序列样本,hw,b(Sk)表示模型输出的概率值,W表示权重参数,b表示偏置,n表示样本的总个数;交叉熵损失函数的作用是利用优化器调整W和b,使损失函数的值达到最小化;
4.2.2、优化算法的定义及网络训练;利用Adam优化算法进行参数优化,经过校正后最终的Adam算法的更新式如下式所示:
其中,mt表示当前梯度的一阶矩估计;vt表示当前梯度的二阶矩估计;表示校正后的梯度带权平均;/>表示校正后的梯度带权有偏方差;η表示学习率;ε=10-8;随着样本模组数据的不断输入通过Adam算法不断更新参数,损失函数值不断减小,最终完成对GRU-CNN组合模型的训练。
3.根据权利要求1所述的基于GRU-CNN组合模型的快速Gamma调校方法,其特征在于,在GRU-CNN组合模型有效性评价步骤中,使用均方根误差RMSE和平均绝对误差MAE作为GRU-BP模型的评价指标,RMSE值越小代表模型最终效果越好,计算式如下式所示:
其中,xi代表真实值;代表输出值;N代表所有输出值的个数;
其中,MAE值越小代表模型最终效果越好,计算式如下式所示:
4.一种实现如权利要求1至3任意一项所述的基于GRU-CNN组合模型的快速Gamma调校方法的调校系统,其特征在于,该基于GRU-CNN组合模型的快速Gamma调校系统包括:
数据采集模块,用于获取包含多个绑点初始向量组成的输入绑点队列;
GRU网络特征提取模块,用于对所述输入绑点队列之间的序列特征进行提取;
CNN网络特征提取模块,用于对所述输入绑点的初始向量的局部特征进行提取;
组合模型训练预测模块,用于对所述样本模组输入到组合模型中进行训练,并进行RGB寄存器值预测;
模型效果评价模块,用于验证建立的组合神经网络GRU-CNN组合模型的有效性,凸显出GRU-CNN组合模型的优越性。
5.根据权利要求4所述的基于GRU-CNN组合模型的快速Gamma调校系统,其特征在于,所述GRU网络特征提取模块包括:
GRU网络建立单元,用于根据GRU网络的更新门及重置门的特征来建立网络;
GRU网络特征提取单元,用于输入的序列数据集Sa,使用GRU网络学习序列特征;
所述CNN网络特征提取模块包括:
CNN网络建立单元,用于根据CNN网络的卷积层、归一化操作及全局平均池化层的特征来建立网络;
CNN网络特征提取单元,用于对输入的序列数据集Sa,使用CNN网络学习初始向量的局部特征。
6.根据权利要求4所述的基于GRU-CNN组合模型的快速Gamma调校系统,其特征在于,所述组合模型训练预测模块包括:
混合模型输出单元,用于将GRU网络及CNN网络所提取的特征向量进行混合,随后通过全连接层,输出RGB寄存器的预测值;
优化损失单元,用于对损失函数和优化算法进行定义,并将样本模组输入到组合模型中,得到训练好的组合模型;
寄存器值预测单元,将带调制模组输入到训练好的组合模型当中,得到RGB寄存器的预测值。
7.根据权利要求6所述的基于GRU-CNN组合模型的快速Gamma调校系统,其特征在于,所述优化损失单元包括:
损失函数子单元,用于衡量真实值与预测值之间的相似性,利用优化器调整权重系数;
优化训练子单元,用于进行参数优化,寻找全局最优点,随着样本模组数据的不断输入通过优化算法不断更新参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110798509.5A CN113487577B (zh) | 2021-07-15 | 2021-07-15 | 基于GRU-CNN组合模型的快速Gamma调校方法、系统及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110798509.5A CN113487577B (zh) | 2021-07-15 | 2021-07-15 | 基于GRU-CNN组合模型的快速Gamma调校方法、系统及应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113487577A CN113487577A (zh) | 2021-10-08 |
CN113487577B true CN113487577B (zh) | 2023-12-26 |
Family
ID=77939373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110798509.5A Active CN113487577B (zh) | 2021-07-15 | 2021-07-15 | 基于GRU-CNN组合模型的快速Gamma调校方法、系统及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487577B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116994515B (zh) * | 2023-09-26 | 2023-12-12 | 昇显微电子(苏州)股份有限公司 | 一种基于梯度下降的快速gamma矫正方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110491336A (zh) * | 2019-08-27 | 2019-11-22 | 武汉精立电子技术有限公司 | 一种显示模组Gamma调校方法及系统 |
CN110675818A (zh) * | 2019-12-03 | 2020-01-10 | 武汉精立电子技术有限公司 | 一种基于曲线匹配的模组Gamma校正方法及系统 |
CN110728362A (zh) * | 2019-12-19 | 2020-01-24 | 武汉精立电子技术有限公司 | 一种基于LSTM神经网络的模组Gamma调节方法 |
-
2021
- 2021-07-15 CN CN202110798509.5A patent/CN113487577B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110491336A (zh) * | 2019-08-27 | 2019-11-22 | 武汉精立电子技术有限公司 | 一种显示模组Gamma调校方法及系统 |
CN110675818A (zh) * | 2019-12-03 | 2020-01-10 | 武汉精立电子技术有限公司 | 一种基于曲线匹配的模组Gamma校正方法及系统 |
CN110728362A (zh) * | 2019-12-19 | 2020-01-24 | 武汉精立电子技术有限公司 | 一种基于LSTM神经网络的模组Gamma调节方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113487577A (zh) | 2021-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110648375B (zh) | 基于参考信息的图像彩色化 | |
US11069090B2 (en) | Systems and methods for image processing | |
CN109934239B (zh) | 图像特征提取方法 | |
CN110245683B (zh) | 一种少样本目标识别的残差关系网络构建方法及应用 | |
US20230059499A1 (en) | Image processing system, image processing method, and non-transitory computer readable medium | |
CN113487577B (zh) | 基于GRU-CNN组合模型的快速Gamma调校方法、系统及应用 | |
WO2019188573A1 (ja) | 演算装置、演算方法およびプログラム | |
CN112651468A (zh) | 一种多尺度轻量化图像分类方法及其存储介质 | |
CN113128478A (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
CN109935206B (zh) | 基于神经网络的显示器件亮度补偿方法、装置及设备 | |
CN112926508B (zh) | 活体检测模型的训练方法和装置 | |
Lang et al. | A full-reference image quality assessment method via deep meta-learning and conformer | |
CN117523336A (zh) | 关键点检测模型的训练方法及关键点检测方法 | |
US20230401737A1 (en) | Method for training depth estimation model, training apparatus, and electronic device applying the method | |
CN117351265A (zh) | 一种遥感图像场景分类方法、装置、存储介质及电子设备 | |
CN114627397A (zh) | 行为识别模型构建方法以及行为识别方法 | |
CN109426599A (zh) | 功率估算方法与功率估算装置 | |
CN116597246A (zh) | 模型训练方法、目标检测方法、电子设备及存储介质 | |
CN115083355B (zh) | 显示控制方法、电子纸显示装置、电子设备和可读存储介质 | |
CN113837998B (zh) | 一种基于深度学习的图片自动调整对齐的方法及装置 | |
CN113256711B (zh) | 一种单目相机的位姿估计方法及系统 | |
CN113076823B (zh) | 一种年龄预测模型的训练方法、年龄预测方法及相关装置 | |
CN112699809B (zh) | 痘痘类别识别方法、装置、计算机设备及存储介质 | |
WO2021232323A1 (zh) | 基于神经网络的区域背光调光方法及装置 | |
CN113642353A (zh) | 一种人脸检测模型的训练方法、存储介质及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |