CN112069853A - 基于深度学习的二维条码图像超分辨方法 - Google Patents
基于深度学习的二维条码图像超分辨方法 Download PDFInfo
- Publication number
- CN112069853A CN112069853A CN202010972706.XA CN202010972706A CN112069853A CN 112069853 A CN112069853 A CN 112069853A CN 202010972706 A CN202010972706 A CN 202010972706A CN 112069853 A CN112069853 A CN 112069853A
- Authority
- CN
- China
- Prior art keywords
- bar code
- resolution
- model
- dimensional bar
- super
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 230000006870 function Effects 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 29
- 238000010606 normalization Methods 0.000 claims abstract description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 229910002056 binary alloy Inorganic materials 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000002910 structure generation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/146—Methods for optical code recognition the method including quality enhancement steps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Electromagnetism (AREA)
- Toxicology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的二维条码图像超分辨重建方法,采用生成模型G和判别模型D组成的网络作为二维条码图像重建的模型。对于生成模型G设计了残差密度块,并且去除了块内的批规范化操作BN。判别模型D采用深度卷积网络。本发明还引入了损失和EM距离对损失函数进行了优化。在建立的训练样本集下训练网络,训练完成后将需要进行超分辨重建的低分辨率二维条码图像输入到训练好的生成模型G中,生成模型G会输出相对应的超分辨率二维条码图像。本发明通过对网络模型的搭建和损失函数的优化,得到更优的网络结构,从而提高了低分辨率二维条码图像的超分辨重建的质量。
Description
技术领域
本发明涉及人工智能和图像处理领域,具体涉及一种基于深度学习的二维条码图像超分辨方法。
背景技术
二维条码是用按一定规律分布的黑白相间的几何图形间的组合来记录数据符号和信息的,而且在编码上巧妙的与计算机内部的逻辑基础0和1的比特流概念结合,使用与二进制相对应的几何形体组合表示文字数值信息,然后在通过条码识别技术识别条码信息,从而达到信息的识读。同时二维条码具有信息容量大、可靠性高保密防伪性强、易于制作、陈本低廉等优点。在科学技术快速发展的形势下,二维条码技术作为数据自动采集的手段被广泛的应用于物流仓储、工业盘点、服装行业、移动支付类、通道闸机、小区门禁和智能家居设备等地方。但是也存在着一些问题,比如,在采集二维条码图像进行识别的时候,因为采集的图像分辨率不足,导致难以识别。
发明内容
有鉴于此,本发明的目的在于提供一种基于深度学习的二维条码图像超分辨方法,搭建的网络模型有利于网络结构学习到更多的二维条码图像细节特征,能够更好的将低分辨的二维条码图像重建成清晰的二维条码超分辨图像。
为实现上述目的,本发明采用如下技术方案:
一种基于深度学习的二维条码图像超分辨方法,包括以下步骤:
步骤S1:采集具有高分辨率的二维条码图像,并进行预处理,得到训练集和测试集;
步骤S2:构建用于二维条码图像超分辨重建的卷积神经网络模型,并优化损失函数;
步骤S3:根据训练集训练优化后的卷积神经网络模型;
步骤S4:将待超分辨重建的低分辨率二维条码图像输入到训练好的卷积神经网络模型,得到重建后的超分辨率二维条码图像。
进一步的,所述步骤S1具体为:
步骤S11:采集二维条码图像,并筛选掉模糊的二维条码图像,整理出具有高分辨率的二维条码图像;
步骤S13:将训练集中的图像做若干角度的翻转,得到扩大N倍的训练集。
进一步的,所述用于二维条码图像超分辨重建的卷积神经网络模型由生成模型G和判别模型D两部分组成。
进一步的,所述生成模型G包括五个模块的内层卷积、16个残差密度块、PRelu激活函数;且残差密度块之间我们运用了密度连接方法指导信息传递,块与块之间用残差学习的方法,且剔除了批规范化操作BN。
进一步的,所述生成模型G的损失函数构建,具体为:在引入l1损失的情况下构造的生成模型损失函数LG的内容损失函数lx,内容损失函数的计算式为:
lx=l1
其中:l1为基于像素级的损失函数,lx为内容损失,r为缩放因子,W为二维条码图像的宽度,H为二维条码图像的高度,x=1,2,3……W,y=1,2,3……H,为训练好的生成模型,θG为生成模型G的权值参数,为高分辨二维条码图像中的某一点的像素值,为经过生成网络G生成的超分辨二维条码图像中某一点的像素值;
在引入EM距离的情况下构造的生成模型损失函数LG的对抗损失lgen,对抗损失函数的计算式为:
其中:D(x)为判别模型,Pz为噪声z生成的样本分布。
进一步的,所述判别模型D由11个内卷积层、12个Leaky Relu激活函数、一个全连接层组成,并重新引入批规范化操作BN。
进一步的,所述判别模型的损失函数构建具体如下:在引入EM距离的前提条件下构造的判别模型的损失函数LD,其计算式为:
其中:Pdata为真实数据样本分布。
进一步的,所述步骤S3具体为:根据训练集对优化后的卷积神经网络模型进行训练,使用反向传播算法进行迭代不断的减小损失函数的损失值进行参数学习,使预测的图像逼近原始图像,以获得网络的最佳权重参数模型。
本发明与现有技术相比具有以下有益效果:
本发明搭建的网络模型有利于网络结构学习到更多的的二维条码图像细节特征,能够更好的实现生成更逼近于真实的二维条码超分辨图像。
附图说明
图1是本发明方法流程图;
图2是本发明一实施例中整体网络结构图;
图3是本发明一实施例中网络结构生成模型图;
图4是本发明一实施例中生成模型的残差密度块示意图;
图5是本发明一实施例中网络结构的判别模型图
图6是本发明一实施例中本发明和Bicubic算法的二维条码图像超分辨后的效果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于深度学习的二维条码图像超分辨方法,包括以下步骤:
1).数据集采集、整理再进行数据集的预处理,生成二维条码图像的训练集样本,和测试集,主要步骤如下:
1-1)对采集的数据集进行筛选,筛选掉模糊的二维条码图像,整理出具有高分辨率的二维条码图像,本实施例中一共整理出了1081张高分辨的二维条码图像这1081张高分辨二维条码图像根据条码密度的不同我们又把数据集分成了两种,其中条码密度低的数据集我们称为2DS-DataSet(202张)、条码密度高的数据集我们称为2DD-DataSet(879张),然后在这两个数据集中各取三分之二的图像作为真实二维条码图像就得到了训练集TrainSet(721张),剩下的高分辨率的二维条码图像运用MATLAB进行下采样得到对应的低分辨率的二维条码图像从而得到测试集TestSet(360张),这里需要指出下采样我们用的是双三次插值,下采样因子为4。
1-2)为了扩大1-1)中的训练集图片的数量我们把1-1中的训练集图片做了45°、90°、135°、180°翻转这样我们把原有训练集数据扩大了4倍,变为了2884张。这样做的目的是为了丰富训练集的图片,可以让网络在训练后提取到二维条码图像更多的特征,提高后期低分辨二维条码图像的超分效果。
1-3)本实施例中建立了测试集TestSet,测试集当中的低分辨率二维条码图像要与对应的高分辨二维条码图像一一对应,这样做的目的是将来网络训练完成后测试网络性能时有比对目标,验证低分辨二维条码的超分效果。
2)构建用于二维条码图像超分辨重建的卷积神经网络模型,并优化损失函数;
在本实施例中,模型整体结构如图2所示,模型由生成模型G和判别模型D两部分组成,其中生成模型G由去除批规范化操作的残差密度块(Residual density block)和子像素卷积层(Subpixel convolution layer)组成。判别模型D由卷积层(Convolution layer)和全连接层(Fully connected layer)组成。图2中,Input表示输入低分辨率的二维条码图像Real image表示的是真实高分辨率的二维条码图像Generate image表示的是超分辨率的二维条码图像
优选的,在本实施例中,生成模型的详细模型如图3所示,它由Conv_G1、Conv_G2、Conv_G3、Conv_G4、Conv_G5五部分的内层卷积组成,其中Conv_G1-Conv_G5的卷积核大小为3×3,特征维度Conv_G1-Conv_G3为64,Conv_G4和Conv_G5的特征维度分别为256和3,步幅默认为1。中间由16个残差密度块组成,图4是残差密度块的示意图,残差密度块之间运用了密度连接方法指导信息传递。且去除了批规范化操作BN。
优选的,在本实施例中,判别模型D的详细模型如图5所示,判别模型由Conv_D1-Conv_D11这11个内卷积层、12个LeakyReLU激活函数、一个全连接层组成。这里Conv_D1-Conv_D7卷积核大小为4×4、步幅为2。Conv_D8-Conv_D9卷积核大小为1×1、步幅为1.Conv_D10-Conv_D11卷积核大小为3×3、步幅为1。需要强调的是Conv_D2-Conv_D11之间重新引入了批规范化操作BN。
3)构造卷积神经网络生成模型的损失函数,生成模型损失函数LG由内容损失lx和对抗损失lgen两部分组成,计算式为:
LG=lx+10-3lgen
其中:l1为基于像素级的损失函数lx为内容损失,r为缩放因子,W为二维条码图像的宽度,H为二维条码图像的高度,x=1,2,3……W,y=1,2,3……H,x和y的值都表示像素值,为训练好的生成模型,θG为生成模型G的权值参数为高分辨二维条码图像中的某一点的像素值,为经过生成网络G生成的超分辨二维条码图像中某一点的像素值。
其中:D(x)为判别模型,Pz为噪声z生成的样本分布。
4)构造卷积神经网络判别模型D的损失函数LD
其中:Pdata为真实数据样本分布
5)采用步骤1-2)得到的训练样本集对网络结构进行训练,使用反向传播算法进行迭代不断的减小损失函数的损失值进行参数学习,使预测的二维条码图像逼近原始的二维条码图像,以获得网络的最佳权重参数模型。
在本实施例中,为了更好地说明低分辨二维条码的超分辨效果由以下实验进一步说明:
本实施例中,实验选用的数据集为我们自己创建的测试集TestSet(360张),实验环境中操作系统为Ubuntu16.04,显卡为NVIDIA TeslaM40,使用PyTorch框架和Python3.5程序语言。
评价指标为图像超分辨领域常用的评价指标峰值性噪比(PSNR)和机构相似性(SSIM)
所述峰值信噪比(PSNR),单位dB,
其中:MMSE为均方差,XMAX为图像的最大像素值、W和H分别为图像的宽和高
结构相似性(SSIM)是测量两幅数字图像之间相似度的指标。
SSSIM(x,y)=[L(x,y)]α[Cx,y]β[Sx,y]γ
其中::ux、uy、σx和σy分别为x、y的平均值和标准差,σxy为x和y的共异数,
C1、C2、C3皆为常数本发明取C1=α=β=γ=1及C3=C2/2。
本实施例中由PSNR和SSIM作为低分辨率二维条码图像经过超分辨后的评价指标。由表1可知,本发明的方法优于双三次插值(Bicubic)的方法,由图6我可以更直观的感受到这个结果。
表1
PSNR | SSIM | |
Bicubic | 25.48 | 0.813 |
本发明 | 29.12 | 0.916 |
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (8)
1.一种基于深度学习的二维条码图像超分辨方法,其特征在于,包括以下步骤:
步骤S1:采集具有高分辨率的二维条码图像,并进行预处理,得到训练集和测试集;
步骤S2:构建用于二维条码图像超分辨重建的卷积神经网络模型,并优化损失函数;
步骤S3:根据训练集训练优化后的卷积神经网络模型;
步骤S4:将待超分辨重建的低分辨率二维条码图像输入到训练好的卷积神经网络模型,得到重建后的超分辨率二维条码图像。
3.根据权利要求1所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述用于二维条码图像超分辨重建的卷积神经网络模型由生成模型G和判别模型D两部分组成。
4.根据权利要求3所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述生成模型G包括五个模块的内层卷积、16个残差密度块、PRelu激活函数;且残差密度块之间运用了密度连接方法指导信息传递,块与块之间用残差学习的方法,并去除了块内的批规范化操作BN。
5.根据权利要求3所述的基于深度学习的二维条码图像超分辨方法,其特征在于:所述生成模型G的损失函数构建,具体为:在引入l1损失的情况下构造的生成模型损失函数LG的内容损失函数lx,内容损失函数的计算式为:
lx=l1
其中:l1为基于像素级的损失函数,lx为内容损失,r为缩放因子,W为二维条码图像的宽度,H为二维条码图像的高度,x=1,2,3......W,y=1,2,3......H,为训练好的生成模型,θG为生成模型G的权值参数,为高分辨二维条码图像中的某一点的像素值,为经过生成网络G生成的超分辨二维条码图像中某一点的像素值;
在引入EM距离的情况下构造的生成模型损失函数LG的对抗损失lgen,对抗损失函数的计算式为:
其中:D(x)为判别模型,Pz为噪声z生成的样本分布。
6.根据权利要求3所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述判别模型D由11个内卷积层、12个Leaky Relu激活函数、一个全连接层组成,并重新引入批规范化操作BN。
8.根据权利要求1所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述步骤S3具体为:根据训练集对优化后的卷积神经网络模型进行训练,使用反向传播算法进行迭代不断的减小损失函数的损失值进行参数学习,使预测的图像逼近原始图像,以获得网络的最佳权重参数模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010972706.XA CN112069853A (zh) | 2020-09-16 | 2020-09-16 | 基于深度学习的二维条码图像超分辨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010972706.XA CN112069853A (zh) | 2020-09-16 | 2020-09-16 | 基于深度学习的二维条码图像超分辨方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112069853A true CN112069853A (zh) | 2020-12-11 |
Family
ID=73696069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010972706.XA Pending CN112069853A (zh) | 2020-09-16 | 2020-09-16 | 基于深度学习的二维条码图像超分辨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112069853A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580381A (zh) * | 2020-12-23 | 2021-03-30 | 成都数之联科技有限公司 | 一种基于深度学习的二维码超辨率重构增强方法及系统 |
CN116757231A (zh) * | 2023-08-22 | 2023-09-15 | 北京紫光青藤微系统有限公司 | 用于条码图像的超分辨率训练图集的生成方法及装置 |
CN117151984A (zh) * | 2023-09-26 | 2023-12-01 | 天津大学 | 基于频域约束和参考图引导的二维条码超分辨率方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157244A (zh) * | 2016-06-08 | 2016-11-23 | 南京航空航天大学 | 一种基于稀疏表示的QR Code图像超分辨重建方法 |
CN109325491A (zh) * | 2018-08-16 | 2019-02-12 | 腾讯科技(深圳)有限公司 | 识别码识别方法、装置、计算机设备和存储介质 |
CN110147864A (zh) * | 2018-11-14 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 编码图案的处理方法和装置、存储介质、电子装置 |
-
2020
- 2020-09-16 CN CN202010972706.XA patent/CN112069853A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157244A (zh) * | 2016-06-08 | 2016-11-23 | 南京航空航天大学 | 一种基于稀疏表示的QR Code图像超分辨重建方法 |
CN109325491A (zh) * | 2018-08-16 | 2019-02-12 | 腾讯科技(深圳)有限公司 | 识别码识别方法、装置、计算机设备和存储介质 |
CN110147864A (zh) * | 2018-11-14 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 编码图案的处理方法和装置、存储介质、电子装置 |
Non-Patent Citations (2)
Title |
---|
张杨忆等: ""改进残差块和对抗损失的GAN图像超分辨率重建"", 《哈尔滨工业大学学报》 * |
陆继翔等: ""基于迁移学习的小样本输电线路巡检图像处理方法"", 《全球能源互联网》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580381A (zh) * | 2020-12-23 | 2021-03-30 | 成都数之联科技有限公司 | 一种基于深度学习的二维码超辨率重构增强方法及系统 |
CN116757231A (zh) * | 2023-08-22 | 2023-09-15 | 北京紫光青藤微系统有限公司 | 用于条码图像的超分辨率训练图集的生成方法及装置 |
CN117151984A (zh) * | 2023-09-26 | 2023-12-01 | 天津大学 | 基于频域约束和参考图引导的二维条码超分辨率方法 |
CN117151984B (zh) * | 2023-09-26 | 2024-06-04 | 天津大学 | 基于频域约束和参考图引导的二维条码超分辨率方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Anwar et al. | A deep journey into super-resolution: A survey | |
CN111768342B (zh) | 基于注意力机制和多级反馈监督的人脸超分辨方法 | |
CN112258526B (zh) | 一种基于对偶注意力机制的ct肾脏区域级联分割方法 | |
CN112069853A (zh) | 基于深度学习的二维条码图像超分辨方法 | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
Luo et al. | Lattice network for lightweight image restoration | |
CN113538246B (zh) | 基于无监督多阶段融合网络的遥感图像超分辨率重建方法 | |
CN115100720A (zh) | 一种低分辨率人脸识别方法 | |
CN112950480A (zh) | 一种融合多感受野和密集残差注意的超分辨率重建方法 | |
CN115965789A (zh) | 一种基于场景感知类注意力的遥感图像语义分割方法 | |
CN116188272B (zh) | 适用于多模糊核的两阶段深度网络图像超分辨率重建方法 | |
Dai et al. | CFGN: A lightweight context feature guided network for image super-resolution | |
CN113379606A (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
Lai et al. | Generative focused feedback residual networks for image steganalysis and hidden information reconstruction | |
CN116385265B (zh) | 一种图像超分辨率网络的训练方法及装置 | |
CN112102388A (zh) | 基于巡检机器人单目图像获取深度图像的方法及装置 | |
CN116385454A (zh) | 一种基于多阶段聚合的医学图像分割方法 | |
CN116681592A (zh) | 基于多尺度自适应非局部注意力网络的图像超分辨率方法 | |
CN116934613A (zh) | 一种用于文字修复的分支卷积通道注意力模块 | |
Liu et al. | Frequency separation-based multi-scale cascading residual block network for image super resolution | |
CN113344110B (zh) | 一种基于超分辨率重建的模糊图像分类方法 | |
CN113191947B (zh) | 一种图像超分辨率的方法及系统 | |
CN115908130A (zh) | 一种基于混合注意力机制的超分辨率重建方法 | |
CN115688234A (zh) | 一种基于条件卷积的建筑布局生成方法、装置及介质 | |
Shen et al. | Itsrn++: Stronger and better implicit transformer network for continuous screen content image super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201211 |