CN110139046B - 一种基于张量的视频帧合成方法 - Google Patents

一种基于张量的视频帧合成方法 Download PDF

Info

Publication number
CN110139046B
CN110139046B CN201910368533.8A CN201910368533A CN110139046B CN 110139046 B CN110139046 B CN 110139046B CN 201910368533 A CN201910368533 A CN 201910368533A CN 110139046 B CN110139046 B CN 110139046B
Authority
CN
China
Prior art keywords
tensor
video
frame
video frame
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910368533.8A
Other languages
English (en)
Other versions
CN110139046A (zh
Inventor
孙岳
詹克羽
刘小洋
李颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sanduotang Media Co ltd
Guangdong Gaohang Intellectual Property Operation Co ltd
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201910368533.8A priority Critical patent/CN110139046B/zh
Publication of CN110139046A publication Critical patent/CN110139046A/zh
Application granted granted Critical
Publication of CN110139046B publication Critical patent/CN110139046B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/141Discrete Fourier transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Abstract

本发明公开了一种基于张量的视频帧合成方法,解决了传统低秩补全视频帧合成效果较差,神经网络方法需大量训练集的问题。实现步骤有:建立基于张量的视频帧合成模型,将视频帧合成转换为补全一个张量;分解目标张量χ;采用交替最小化方法在傅立叶变换域中求解分解后的两个张量;对两个张量傅里叶反变换,相乘后得到目标张量,即恢复缺失帧后的视频。本发明将视频看作张量,将视频帧看作张量的正面切片,将视频帧合成转换为补全一个张量,在变换域中求解得到视频合成结果。本发明获取缺失帧更多信息,细节效果较好,不需大量数据训练,合成精确度较高。用于恢复视频因传输丢失的帧,提高视频质量,或预测视频中目标的未来状态。

Description

一种基于张量的视频帧合成方法
技术领域
本发明属于计算机视觉技术领域,更进一步涉及有关视频帧合成,具体是一种基于张量的视频帧合成方法,利用变换的张量模型完成视频帧合成,用于恢复视频中丢失的帧,提高视频质量,或用于预测视频中目标的运动状态。
背景技术
视频帧合成是计算机视觉中的一个基本问题。例如,在视频传输的实际情况中,由于受传输条件或其他干扰因素的影响,视频的传输往往会伴随着帧的丢失,寻找有效的视频帧合成方法来恢复丢失帧可以提高视频的质量。然而,由于像素在视频帧间的复杂演变,视频帧的合成具有挑战性。
近年来,视频帧的合成问题越来越受到人们的关注。许多相关工作也侧重于从现有的视频帧来合成视频帧,如预测目标的未来状态,学习人或一个物体的将来动作,合成两个现有视频帧之间的视频帧等等。
视频帧合成是具有挑战性的问题,主要有以下原因:1)自然的视频中,场景和物体的运动是高度复杂的;2)对于要合成的视频帧没有信息可以利用;3)没有理论支持视频帧合成的可行性。
Ziwei Liu等人在文章Video frame synthesis using deep voxel flow(Proceedings of International Conference on Computer Vision(ICCV),2017.)中针对视频帧合成问题提出了一种方法deep voxel flow(DVF)。DVF采用全卷积编码-解码结构,包括三个卷积层,三个反卷积层和一个瓶颈层。该方法将传统的基于光流的方法和新的基于神经网络的方法结合,在无监督的情况下通过现有像素值的流动来合成视频帧。这种方法基于神经网络,需要使用大量的数据对网络进行训练,训练需要较长的时间,且当没有足够的数据时,方法会失效。此外,这种DVF方法不适用于具有重复模式的场景。在这些情况下仅仅通过参考RGB差异来确定要复制的立体像素的来源是不明确的,且对细节的处理不是很好。
现有的主流视频帧合成工作主要基于机器学习算法或深度学习方法,如卷积神经网络、生成对抗网络、长短期记忆网络等进行拓展,基于神经网络模型提出的视频帧合成方法的网络结构均比较复杂,模型中含有较多的参数,参数的选择可能影响模型的训练效果,且需要大量的数据集来训练模型。
发明内容
本发明针对现有技术的不足,提出了一种不需要大量训练数据且合成精度更高的基于张量的视频帧合成方法。
本发明是一种基于张量的视频帧合成方法,其特征在于,包括有以下步骤:
步骤1,建立基于张量的视频帧合成模型:对于原始的视频数据
Figure GDA00028187293500000225
Figure GDA0002818729350000021
其中n1和n2表示视频每帧的长和宽,n3表示视频数据的帧数,输入中间随机丢失若干帧后待恢复的视频数据或末尾含有空白帧待预测的视频数据
Figure GDA0002818729350000022
Figure GDA0002818729350000023
将恢复丢失的视频帧或预测未来的视频帧转化为补全一个张量,构造该视频帧合成的低秩tubal-rank张量补全表述,将最终得到的恢复视频或预测视频称作目标张量
Figure GDA0002818729350000024
Figure GDA0002818729350000025
目标张量
Figure GDA0002818729350000026
是一个大小为n1×n2×n3的三阶张量,n1,n2为视频每帧的长和宽,n3为视频的帧数;
步骤2,分解目标张量
Figure GDA0002818729350000027
将目标张量
Figure GDA0002818729350000028
分解为两个大小分别为
Figure GDA0002818729350000029
Figure GDA00028187293500000210
的三阶张量的
Figure GDA00028187293500000211
-积,表示为
Figure GDA00028187293500000212
r为原始视频的秩tubal-rank;
步骤3,求解分解后的两个张量:在傅里叶变换域中采用交替最小化方法对两个张量
Figure GDA00028187293500000216
Figure GDA00028187293500000217
进行交替求解,每次交替最小化是张量
Figure GDA00028187293500000218
Figure GDA00028187293500000219
的最小二乘形式,在傅立叶变换域得到最优化后的张量
Figure GDA00028187293500000220
和张量
Figure GDA00028187293500000213
步骤4,对张量
Figure GDA00028187293500000221
和张量
Figure GDA00028187293500000222
进行傅里叶反变换,张量
Figure GDA00028187293500000223
和张量
Figure GDA00028187293500000224
相乘后即可得到目标张量
Figure GDA00028187293500000214
目标张量即为恢复丢失帧后的视频或预测出待预测帧的视频。
本发明将视频看作三阶张量,将视频帧看作张量的正面切片,将视频帧合成转换为重构一个三阶张量。
本发明与现有技术相比具有以下优点:
为了解决视频的合成,本发明将视频数据看作是一个三阶张量,将视频帧看作是一个三阶张量的正面切片,将视频合成转化为补全一个三阶张量。由于帧的丢失导致该帧的信息全部丢失,传统的应用于图像的低秩补全方法,如非负CP分解(NCPC),高精度低秩张量补全(HaLRTC)等方法,无法获得该帧的更多信息,将其应用在视频帧合成上效果不佳。与其他低秩补全方法相比,本发明的方法可以在变换域获取丢失帧更多的信息,实现更高的恢复或预测精度。而基于神经网络的方法虽然合成效果较好,但网络结构复杂,且需要大量的训练集进行训练,与神经网络的方法相比,本发明的方法可以基于更少的观测帧来合成视频帧。同时,仿真得出的合成结果与相对平方误差(Relative Square Error,RSE)值计算结果表明,本发明中提出的方法在实际的视频帧合成应用中可以实现更好的合成效果。
附图说明
图1是本发明的流程示意图;
图2是两种视频帧合成任务(视频帧恢复、视频帧预测)的示意图;
图3是在KTH数据集上进行视频帧预测的仿真;
图4是在NBA视频上进行视频帧预测的仿真;
图5是在KTH数据集上进行丢失视频帧恢复的仿真;
图6是在NBA视频上进行丢失视频帧恢复的仿真;
图7是两个数据集上不同方法的RSE值随缺失帧数变化的曲线。
具体实施方式
下面结合附图对本发明作详细描述。
实施例1
视频在实际传输过程中,由于受传输条件或其他干扰因素的影响,往往会发生帧的丢失。寻找有效的视频帧合成方法来恢复丢失的帧可以提高视频的质量。而视频帧预测可以通过现有的帧来预测未来的帧,预测目标的未来状态,学习视频中人或一个物体的将来动作。视频帧的合成问题越来越受到人们的关注,但现有的基于神经网络的方法需要大量的训练数据,现有张量方法由于整帧的缺失不能获取足够的信息,恢复精度较低,不能有效地用于视频帧合成。
针对上述现状,本发明经过研究与创新,提出一种基于张量的视频帧合成方法,参见图1,包括有以下步骤:
步骤1,建立基于张量的视频帧合成模型:对于原始的视频数据
Figure GDA0002818729350000031
Figure GDA0002818729350000032
n1和n2表示视频每帧的长和宽,n3为视频的帧数,输入中间随机置零丢失若干帧后待恢复的视频数据或将末尾几帧置零待预测的视频数据
Figure GDA0002818729350000033
Figure GDA0002818729350000034
将恢复丢失的视频帧或预测未来的视频帧转化为补全一个三阶张量,构造该视频帧合成的低tubal-rank张量补全表述,将最终得到的恢复视频或预测视频称作目标张量
Figure GDA0002818729350000035
目标张量
Figure GDA0002818729350000036
是一个大小为n1×n2×n3的三阶张量,n1,n2为视频每帧的长和宽,n3为视频的帧数。
步骤2,分解目标张量
Figure GDA0002818729350000041
将目标张量
Figure GDA00028187293500000418
分解为两个大小分别为
Figure GDA0002818729350000042
Figure GDA0002818729350000043
的三阶张量的
Figure GDA00028187293500000419
-积,表示为
Figure GDA0002818729350000044
r为原始视频的秩tubal-rank;
步骤3,求解分解后的两个张量:在傅里叶变换域中采用交替最小化方法对步骤2中得到的两个张量
Figure GDA00028187293500000420
Figure GDA00028187293500000421
进行交替求解,每次交替最小化是张量
Figure GDA00028187293500000422
Figure GDA00028187293500000423
的最小二乘形式,在傅立叶变换域得到最优化后的张量
Figure GDA00028187293500000424
和张量
Figure GDA0002818729350000045
步骤4,对张量
Figure GDA00028187293500000425
和张量
Figure GDA00028187293500000426
进行傅里叶反变换,张量
Figure GDA00028187293500000427
和张量
Figure GDA00028187293500000428
相乘后即可得到目标张量
Figure GDA0002818729350000046
目标张量即为恢复丢失帧后的视频或预测出待预测帧的视频。
本发明为了将丢失帧后的视频或为含有预测帧的视频更好的合成,将视频看作为一个三阶张量,将视频的帧看作为三阶张量的正面切片,把视频帧的缺失看作张量正面切片的缺失,将视频帧合成转换为低秩张量的补全,将待求解的目标张量分解并转换到变换域,在变换域中分解成若干个子问题,对每个子问题进行交替最小化求解,得到分解后的张量后进行反变换,相乘后得到目标张量。本发明解决了将传统低秩补全方法应用于视频帧合成效果较差,神经网络方法需要大量训练集的问题。
实施例2
基于张量的视频帧合成方法同实施例1,步骤1中所述的构造该视频帧合成的低秩tubal-rank张量补全表述,具体是
1.1对于一个具有n3帧的完整视频
Figure GDA0002818729350000047
Figure GDA0002818729350000048
对视频中的帧进行随机置零用于恢复,或将视频最后几帧置零用于预测,输入中间随机置零若干帧后的视频数据或将末尾几帧置零的视频数据
Figure GDA0002818729350000049
Figure GDA00028187293500000410
Ω表示原始视频
Figure GDA00028187293500000429
中已有帧的序号集合,
Figure GDA00028187293500000411
是在Ω上的投影张量,
Figure GDA00028187293500000412
表示已有的视频帧数据,即
Figure GDA00028187293500000413
其中
Figure GDA00028187293500000414
为张量
Figure GDA00028187293500000430
的第i个正面切片,即完整视频的第i帧,大小为n1×n2
Figure GDA00028187293500000415
为张量
Figure GDA00028187293500000431
的第i个正面切片,0是n1×n2的全0矩阵,表示该帧缺失;|Ω|表示视频
Figure GDA00028187293500000432
中已有帧的数量,那么有n3-|Ω|帧需要被合成。视频帧合成可以被视为从视频
Figure GDA00028187293500000433
中已有的|Ω|帧中恢复视频或预测未来的视频帧,即找到一个低秩的
Figure GDA00028187293500000434
去近似原始视频
Figure GDA00028187293500000416
使
Figure GDA00028187293500000417
1.2将视频帧合成表示为以下低秩tubal-rank张量补全表述,也就是补全一个张量,即原始视频
Figure GDA0002818729350000051
Figure GDA0002818729350000052
Figure GDA0002818729350000053
其中,
Figure GDA0002818729350000054
表示目标张量
Figure GDA00028187293500000519
的秩tubal-rank,r为原始视频的秩,‖·‖F表示三阶张量的Frobenius范数,等于张量所有元素的平方和开方。
本发明通过将视频帧合成建模为补全一个张量,直接通过输入的视频即可恢复出丢失的帧或者预测接下来的视频帧,而不需要使用大量的训练集对模型进行训练。
实施例3
基于张量的视频帧合成方法同实施例1-2,步骤2中所述的将目标张量
Figure GDA00028187293500000520
分解为两个大小分别为
Figure GDA0002818729350000055
Figure GDA0002818729350000056
的三阶张量的
Figure GDA00028187293500000521
-积,具体是
2.1将步骤1中目标张量
Figure GDA00028187293500000522
分解为
Figure GDA0002818729350000057
的形式,其中三阶张量
Figure GDA0002818729350000058
三阶张量
Figure GDA0002818729350000059
·表示两个三阶张量的
Figure GDA00028187293500000523
-积,对于任意两个三阶张量
Figure GDA00028187293500000510
Figure GDA00028187293500000511
定义为
Figure GDA00028187293500000512
i∈[n1],j∈[n4],[n1]表示1到n1的集合,
Figure GDA00028187293500000513
表示三阶张量
Figure GDA00028187293500000524
第i行第j列的tube,
Figure GDA00028187293500000525
表示一种线性变换,即傅立叶变换,
Figure GDA00028187293500000514
Figure GDA00028187293500000526
的逆变换,·*表示对应元素间的乘法。
2.2视频帧合成转换为以下形式
Figure GDA00028187293500000515
即按照Frobenius范数最小,求解三阶张量
Figure GDA00028187293500000527
Figure GDA00028187293500000516
实施例4
基于张量的视频帧合成方法同实施例1-3,步骤3中所述的采用交替最小化方法对张量
Figure GDA00028187293500000528
和张量
Figure GDA00028187293500000529
在傅立叶变换域进行交替求解,具体是
3.1由于在交替求解的过程中求解张量
Figure GDA00028187293500000530
和张量
Figure GDA00028187293500000531
的过程相似,统一表达为
Figure GDA00028187293500000517
并将更新的过程表示为一个函数:
Figure GDA00028187293500000518
即,根据给定的
Figure GDA0002818729350000061
按照
Figure GDA0002818729350000062
Ω,r求解
Figure GDA0002818729350000063
根据卷积定理,上述张量最小二乘形式可转换为傅立叶变换域中的最小二乘形式,即
Figure GDA0002818729350000064
其中
Figure GDA0002818729350000065
即输入的视频数据,
Figure GDA0002818729350000066
表示该张量
Figure GDA0002818729350000067
沿第三维方向的傅里叶变换,即张量
Figure GDA0002818729350000068
的变换域表示,
Figure GDA0002818729350000069
定义为两个三阶张量间对应tube进行循环卷积,即
Figure GDA00028187293500000610
Figure GDA00028187293500000611
表示张量
Figure GDA00028187293500000625
第i行第j列的tube,★表示循环卷积,·§表示两个三阶张量间对应正面切片的矩阵乘法,即
Figure GDA00028187293500000612
Figure GDA00028187293500000613
Figure GDA00028187293500000614
表示3阶张量
Figure GDA00028187293500000626
的第l个正切面;
3.2在傅立叶变换域求解张量
Figure GDA00028187293500000627
Figure GDA00028187293500000628
的过程按侧面切片分为n2个独立的最小二乘最小化:
Figure GDA00028187293500000615
其中,
Figure GDA00028187293500000616
表示张量
Figure GDA00028187293500000617
的第j个侧面切片,j∈[n2]。
在时域中对张量
Figure GDA00028187293500000629
和张量
Figure GDA00028187293500000630
的求解过程需要计算两个张量间的
Figure GDA00028187293500000631
-积,运算量大。本发明将其转换到傅立叶变换域中,将张量间的
Figure GDA00028187293500000632
-积转换为对应切片的矩阵乘法,进一步分解为n2个子问题求解,简化了运算,提高了视频帧合成的运算速度。
实施例5
基于张量的视频帧合成方法同实施例1-4,步骤3.2中,在傅立叶变换域求解张量
Figure GDA00028187293500000633
Figure GDA00028187293500000634
的过程按侧面切片分为n2个独立的最小二乘最小化,具体是
每个最小二乘最小化相当于估计变换域中张量
Figure GDA00028187293500000618
的一个侧面切片
Figure GDA00028187293500000619
j∈[n2],包括有以下步骤:
3.21将傅里叶变换域中的输入视频
Figure GDA00028187293500000620
的侧面切片
Figure GDA00028187293500000621
j∈[n2],按行展开为一个大小为n1n3×1的向量b
Figure GDA00028187293500000622
其中unfold(·)表示将一个1×1×n3的tube转换为长度为n3的向量;类似地,将
Figure GDA00028187293500000623
j∈[n2],变换为大小为rn3×1的向量x
Figure GDA00028187293500000624
3.22将
Figure GDA0002818729350000071
的每个正面切片依次置于一个矩阵的对角线上,转换为一个大小为n1n3×rn3的块对角矩阵
Figure GDA0002818729350000072
3.23将输入视频的投影在傅立叶变换域中的侧面切片
Figure GDA0002818729350000073
转换为一个大小为n3×n3×n1的张量
Figure GDA0002818729350000074
满足
Figure GDA0002818729350000075
其中circ(·)表示将一个向量转换为循环矩阵,然后令
Figure GDA0002818729350000076
估计
Figure GDA0002818729350000077
的第j个侧面切片转化为以下向量的标准最小二乘:
Figure GDA0002818729350000078
然后可以将每个向量
Figure GDA0002818729350000079
恢复为矩阵
Figure GDA00028187293500000710
j∈[n2],进而得到目标视频张量分解后的张量;
通过将侧面切片按行展开为向量,并将
Figure GDA00028187293500000711
转换为循环矩阵,充分利用了视频各帧中的信息,提高了视频帧合成的质量。
其中,在执行交替求解的每次迭代过程中,给定
Figure GDA00028187293500000720
更新
Figure GDA00028187293500000721
时(即求解
Figure GDA00028187293500000712
时,
Figure GDA00028187293500000713
表示第l-1轮迭代求解的
Figure GDA00028187293500000714
表示第l轮迭代求解的
Figure GDA00028187293500000722
),输入数据的维度与原始维度相同,输出数据的维度即与
Figure GDA00028187293500000723
相同;给定
Figure GDA00028187293500000724
更新
Figure GDA00028187293500000725
时(即求解
Figure GDA00028187293500000715
时,
Figure GDA00028187293500000716
表示第l轮迭代求解的
Figure GDA00028187293500000717
Figure GDA00028187293500000718
表示第l轮迭代求解的
Figure GDA00028187293500000726
),为了使输出张量的维度与
Figure GDA00028187293500000727
相同,需要对输入的数据进行转置处理,得到输出数据后再对输出数据进行转置即可得到正确的
Figure GDA00028187293500000719
迭代更新直至
Figure GDA00028187293500000728
Figure GDA00028187293500000729
收敛即可。
本发明在求解出分解后的两个张量之后,再经过傅里叶反变换并将两个张量相乘求解出目标张量,完成输入中间随机丢失若干帧后的视频数据或末尾几帧置零的视频数据的视频帧合成。
下面给出一个更加详细完整的例子,对本发明进一步说明:
实施例6
基于张量的视频帧合成方法同实施例1-5,
步骤1,将视频帧合成问题转化为补全一个张量
输入一个待合成的视频,参见图2,输入的视频可能如图2的(a)所示,是一个中间缺失了某几帧的视频,也可能是如图2的(b)所示的,需要根据已经存在的帧去预测未来帧的视频,无论是中间缺失几帧的情况还是需要预测未来帧的情况,都是相当于利用已有的帧来恢复视频中空缺的帧,将这两种情况的输入视频均记为
Figure GDA0002818729350000081
本发明将一个具有n3帧的视频表示为一个三阶张量
Figure GDA0002818729350000082
假设观测到了
Figure GDA00028187293500000817
的|Ω|帧,那么有n3-|Ω|帧需要被恢复或预测。因此,视频帧合成的问题可以被视为从已观测到的|Ω|帧中恢复未知的帧来补全原始视频
Figure GDA0002818729350000083
即找到一个低秩的
Figure GDA0002818729350000084
使
Figure GDA0002818729350000085
其中
Figure GDA00028187293500000827
是在Ω上的投影,
Figure GDA0002818729350000086
表示已观测到的视频数据,即
Figure GDA0002818729350000087
其中,
Figure GDA0002818729350000088
为张量
Figure GDA00028187293500000819
的第i个正面切片,即完整视频的第i帧,大小为n1×n2
Figure GDA0002818729350000089
为张量
Figure GDA00028187293500000820
的第i个正面切片,0是n1×n2的全0矩阵,表示该帧缺失。
将视频帧合成表示为以下低tubal-rank张量补全表述,补全这个张量的过程也即从已有的帧中合成缺失的帧的过程:
Figure GDA00028187293500000810
Figure GDA00028187293500000811
其中,
Figure GDA00028187293500000812
表示视频数据
Figure GDA00028187293500000821
的tubal-rank,r为原始视频的秩,‖·‖F表示三阶张量的Frobenius范数,等于张量所有元素的平方和开方。
步骤2,将目标张量分解为两个张量的
Figure GDA00028187293500000822
-积
将步骤1中目标张量
Figure GDA00028187293500000823
分解为
Figure GDA00028187293500000813
的形式,
Figure GDA00028187293500000814
则视频帧合成转换问题转换为以下形式
Figure GDA00028187293500000815
因此,恢复视频中缺失的帧,即求解目标张量
Figure GDA00028187293500000816
转化为求解
Figure GDA00028187293500000824
Figure GDA00028187293500000825
两个三阶张量,可以通过交替最小化方法求解。
步骤3,使用交替最小化方法求解
对交替最小化方法,有两个重要的步骤,一个是初始化,一个是在给定
Figure GDA00028187293500000826
Figure GDA00028187293500000828
中的一个来找到最佳的另一个之间交替。对于初始化,使用随机初始化获得标准正交的
Figure GDA0002818729350000091
作为
Figure GDA00028187293500000924
的初始化值。然后使用最小二乘方法交替更新
Figure GDA00028187293500000925
或者
Figure GDA0002818729350000092
更新
Figure GDA00028187293500000926
Figure GDA00028187293500000927
的过程相似,为了方便表述统一表述为
Figure GDA0002818729350000093
并将这一过程表示为一个函数:
Figure GDA0002818729350000094
即,根据给定的
Figure GDA0002818729350000095
按照
Figure GDA0002818729350000096
Ω,r求解
Figure GDA0002818729350000097
根据卷积定理,上述张量最小二乘可以在变换域中转换为标准最小二乘
Figure GDA0002818729350000098
更进一步,可以被分为n2个独立的标准最小二乘最小化:
Figure GDA0002818729350000099
其中,
Figure GDA00028187293500000910
表示张量
Figure GDA00028187293500000911
的第j个侧面切片,j∈[n2]。
每个子问题相当于估计一个侧面切片
Figure GDA00028187293500000912
j∈[n2],可以通过以下步骤解决:
1)将变换域中输入视频的侧面切片
Figure GDA00028187293500000913
j∈[n2]按行展开为一个大小为n1n3×1的向量b
Figure GDA00028187293500000914
类似地,将
Figure GDA00028187293500000915
j∈[n2],变换为大小为rn3×1的向量x
Figure GDA00028187293500000916
2)将目标视频张量分解后的
Figure GDA00028187293500000917
按每个正面切片展开为大小为n1n3×rn3的块对角矩阵,即
Figure GDA00028187293500000918
3)将输入视频的投影在傅立叶变换域中的侧面切片
Figure GDA00028187293500000919
的每行转换为循环矩阵,进而转换为一个大小为n3×n3×n1的张量
Figure GDA00028187293500000920
Figure GDA00028187293500000921
然后令
Figure GDA00028187293500000922
估计目标视频张量分解后
Figure GDA00028187293500000923
的第j个侧面切片可以转化为以下标准最小二乘:
Figure GDA0002818729350000101
然后将向量
Figure GDA0002818729350000102
展开为矩阵,即可恢复出目标视频张量分解后的
Figure GDA0002818729350000103
j∈[n2]。
其中,在执行交替求解的每次迭代过程中,给定
Figure GDA0002818729350000107
更新
Figure GDA0002818729350000108
时,即求解
Figure GDA0002818729350000104
时,输入数据的维度与原始维度相同,输出数据的维度即与
Figure GDA0002818729350000109
相同;给定
Figure GDA00028187293500001010
更新
Figure GDA00028187293500001011
时,即求解
Figure GDA0002818729350000105
时,为了使输出张量的维度与
Figure GDA00028187293500001012
相同,需要对输入的数据进行转置处理,得到输出数据后再对输出数据进行转置即可得到正确的
Figure GDA0002818729350000106
迭代更新直至收敛。
步骤4,得到补全后的视频
将在变换域中得到的分解后的张量进行傅里叶反变换,再将其相乘得到目标张量,即补全后的视频,恢复出输入视频中丢失的帧或者要预测的帧。
由于可以将视频看作是一个三阶的张量,视频帧合成可以转换为从一些采样的正面切片中重构一个三阶张量。恢复缺失帧就是恢复该帧图像,可以在视频帧合成中尝试使用一些传统低秩补全方法,如非负CP分解(NCPC),高精度低秩张量补全(HaLRTC)等方法。由于整帧图像的缺失导致该帧可以获取的信息有限,应用传统的低秩补全方法进行视频帧的合成难度较大,不能有效的用于视频帧合成。
本发明通过将视频数据看作是一个张量,将视频帧看作是一个张量的正面切片,将视频帧合成转化为补全一个张量的方法,将视频帧合成转换到傅立叶变换域进行,并将视频的帧进一步分解为向量的形式,简化运算。本发明方法能获取缺失帧的更多信息,更有利于对缺失帧进行恢复或预测,且不需要大量的数据集进行训练,直接对输入视频进行处理即可恢复输入视频中丢失的帧或预测未来的帧,且合成准确度较高。
下面结合附图,结合仿真实验对本发明的技术效果再做说明:
实施例7
基于张量的视频帧合成方法同实施例1-6,
仿真条件与内容
本发明实施例使用KTH数据集和NBA视频进行仿真,采用离散傅里叶变换,分别对视频帧预测和视频帧插值进行仿真,如附图2所示。KTH数据集包括六种人类活动,由25名受试者在四种不同的场景中多次执行,仿真中使用了行走的数据集。
在仿真中使用
Figure GDA0002818729350000116
-SVD对原始视频
Figure GDA0002818729350000111
进行去噪,即
Figure GDA0002818729350000112
Figure GDA0002818729350000117
的前r个奇异值,并令其余的为0,得到
Figure GDA0002818729350000113
进一步可以得到去噪后的视频
Figure GDA0002818729350000114
其中
Figure GDA0002818729350000115
表示张量转置。仿真中对应KTH视频和NBA视频所使用的tubal rank分别为15和48。
仿真中分别从KTH数据集的行走视频和NBA视频中选取30帧,将数据分别处理为60×80×30和90×160×30。对于视频帧恢复,选取第3、6、9帧作为需要合成的丢失帧,对于视频帧预测,预测视频的最后帧。在仿真中,本发明方法与NCPC方法,HaLRTC方法,DVF方法等进行了性能对比。
仿真结果与分析
参见图3,图3是在KTH数据集上进行视频帧预测的仿真,是一个单人行走的视频,图3的(a)和图3的(b)是已知的视频帧,图3的(c)是使用NCPC方法对视频帧预测,图3的(d)是使用HaLRTC方法对视频帧预测,图3的(e)是使用DVF方法对视频帧预测,图3的(f)是使用本发明的方法对视频帧预测结果。可以看出图3的(c)和图3的(d)的结果无法预测与分辨,图3的(e)基本可以恢复出结果,但效果不如本发明的结果精确。图中目视可见其他几种方法均没有本发明视觉效果好,本发明方法的结果最为准确。
参见图4,图4是在NBA视频上进行视频帧预测的仿真,是一幅场景复杂的比赛视频。图4的(a)和图4的(b)是已知的视频帧,图4的(c)是使用NCPC方法对视频帧预测,图4的(d)是使用HaLRTC方法对视频帧预测,图4的(e)是使用DVF方法对视频帧预测,图4的(f)是使用本发明的方法对视频帧预测。仿真结果与图3中结果相似。
参见图5,图5是在KTH数据集上进行丢失视频帧恢复的仿真。图5的(a)和图5的(b)是已知的视频帧,要恢复这两帧之间的视频帧,图5的(c)是使用NCPC方法恢复丢失帧,图5的(d)是使用HaLRTC方法恢复丢失帧,图5的(e)是使用DVF方法恢复丢失帧,图5的(f)是使用本发明的方法恢复丢失帧。对比几幅恢复出的图像可见,本发明的方法恢复出的图像最为清晰精确。
参见图6,图6是在KTH数据集上进行丢失视频帧恢复的仿真。图6的(a)和图6的(b)是已知的视频帧,要恢复这两帧之间的视频帧,图6的(c)是使用NCPC方法恢复丢失帧,图6的(d)是使用HaLRTC方法恢复丢失帧,图6的(e)是使用DVF方法恢复丢失帧,图6的(f)是使用本发明的方法恢复丢失帧。恢复效果与图5相似,本发明的方法效果最好。
多次实验均证明本发明方法效果最好,还需要说明的是,本发明在实验中直接对输入的30帧视频进行处理即可得到预测或恢复的视频,本发明不需要大量的训练集就可以得到精确的合成结果。
实施例8
基于张量的视频帧合成方法同实施例1-6,仿真条件与内容同实施例7,如果说直接观察合成效果还不够精确,本例采用具体数据进一步定量描述。
为了直观的解释本发明的技术效果,定量分析合成结果的准确性,定义相对平方误差RSE,令
Figure GDA0002818729350000121
表示丢失帧的序号集合。
Figure GDA0002818729350000122
其中
Figure GDA0002818729350000124
是真实数据,
Figure GDA0002818729350000123
是合成视频。
表1
KTH NBA
NCPC 0.5889 0.6998
HaLRTC 0.1334 0.3089
DVF 0.0760 0.2886
Our method 0.0208 0.0845
表2
KTH NBA
NCPC 0.5147 0.5379
HaLRTC 0.1465 0.3240
DVF 0.1250 0.3085
Our method 0.0384 0.0667
表1和表2分别给出了以上视频帧恢复和视频帧预测中本发明方法与其他方法的RSE值,从表中可以看出,本发明方法的合成误差与其他方法相比较小,对视频帧合成的准确率更高。
附图7给出了在两个数据集上的RSE值随缺失帧数变化的曲线。图中仅比较了效果较好的DVF方法和本发明的方法。图7的(a)为KTH数据集,图7的(b)为NBA视频,图中“△”曲线为DVF方法,“╳”曲线为本发明的方法。从图中可以看出,在丢失帧数小于一定值时,本发明方法的视频帧合成误差均低于DVF方法,合成准确度较高。
从附图3-7中可以看出,在实际的视频帧合成中,本发明的方法比其他方法的视觉效果更好,同时RSE值的分析结果表明在缺失帧数小于一定值时,本发明的方法误差更小,合成准确率更高,性能更好。
综上所述,本发明公开的一种基于张量的视频帧合成方法,解决了传统低秩补全方法应用于视频帧合成效果较差,神经网络方法需要大量训练集的问题。包括有以下步骤:1)建立基于张量的视频帧合成模型,将视频帧合成转换为补全一个张量;2)分解目标张量
Figure GDA0002818729350000131
3)采用交替最小化方法在傅立叶变换域中求解分解后的两个张量;4)对得到的两个张量进行傅里叶反变换,相乘后得到目标张量,即恢复缺失帧后的视频。本发明将视频看作张量,将视频帧看作张量的正面切片,将视频帧合成转换为补全一个张量,并在傅立叶变换域中求解。与现有技术相比,可以获取有关缺失帧的更多信息,对细节部分的处理较好,不需要大量的数据进行训练,且对缺失帧的合成精确度较高。本发明方法可以用于恢复视频在传输中丢失的帧或在现有的帧之间进行插值,提高视频质量,或用于预测视频中目标的未来状态。

Claims (1)

1.一种基于张量的视频帧合成方法,其特征在于,包括有以下步骤:
步骤1,建立基于张量的视频帧合成模型:对于原始的视频数据
Figure FDA0002818729340000011
Figure FDA0002818729340000012
其中n1和n2表示视频每帧的长和宽,n3表示视频数据的帧数,输入中间随机丢失若干帧后待恢复的视频数据或末尾含有空白帧待预测的视频数据
Figure FDA0002818729340000013
Figure FDA0002818729340000014
将恢复丢失的视频帧或预测未来的视频帧转化为补全一个张量,构造该视频帧合成的低tubal-rank张量补全表述,将最终得到的恢复视频或预测视频称作目标张量
Figure FDA0002818729340000015
Figure FDA0002818729340000016
目标张量
Figure FDA0002818729340000017
是一个大小为n1×n2×n3的三阶张量,n1,n2为视频每帧的长和宽,n3为视频的帧数;构造该视频帧合成的低tubal-rank张量补全表述,具体是
1.1输入丢失若干帧后的视频数据或含有待预测帧的视频数据
Figure FDA0002818729340000018
Figure FDA0002818729340000019
Ω表示原始视频
Figure FDA00028187293400000110
中已有帧的序号集合,
Figure FDA00028187293400000111
是在Ω上的投影张量,
Figure FDA00028187293400000112
表示已有的视频帧数据,即
Figure FDA00028187293400000113
其中
Figure FDA00028187293400000114
为张量
Figure FDA00028187293400000115
的第i个正面切片,即完整视频的第i帧,大小为n1×n2
Figure FDA00028187293400000116
为张量
Figure FDA00028187293400000117
的第i个正面切片,0是n1×n2的全0矩阵,表示该帧缺失;|Ω|表示视频
Figure FDA00028187293400000118
中已有帧的数量,那么有n3-|Ω|帧需要被合成;视频帧合成可以被视为从视频
Figure FDA00028187293400000119
中已有的|Ω|帧中恢复视频或预测未来的视频帧,即找到一个低秩的
Figure FDA00028187293400000120
去近似原始视频
Figure FDA00028187293400000121
使
Figure FDA00028187293400000122
1.2将视频帧合成表示为以下低tubal-rank张量补全表述,也就是补全一个张量,即原始视频
Figure FDA00028187293400000123
Figure FDA00028187293400000124
Figure FDA0002818729340000021
其中,
Figure FDA0002818729340000022
表示目标张量
Figure FDA0002818729340000023
的秩tubal-rank,r为原始视频的秩,‖·‖F表示三阶张量的Frobenius范数,等于张量所有元素的平方和开方;
步骤2,分解目标张量
Figure FDA0002818729340000024
将目标张量
Figure FDA0002818729340000025
分解为两个大小分别为
Figure FDA0002818729340000026
Figure FDA0002818729340000027
的张量的
Figure FDA0002818729340000028
-积,表达式为
Figure FDA0002818729340000029
r为原始视频的秩tubal-rank;将目标张量
Figure FDA00028187293400000210
分解为两个大小分别为
Figure FDA00028187293400000211
Figure FDA00028187293400000212
的张量的
Figure FDA00028187293400000213
-积,具体是
2.1将目标张量
Figure FDA00028187293400000214
分解为
Figure FDA00028187293400000215
的形式,
Figure FDA00028187293400000216
其中,·表示两个张量的
Figure FDA00028187293400000217
-积,对于任意两个三阶张量
Figure FDA00028187293400000218
Figure FDA00028187293400000219
定义为
Figure FDA00028187293400000220
Figure FDA00028187293400000244
[n1]表示1到n1的集合,
Figure FDA00028187293400000221
表示三阶张量
Figure FDA00028187293400000222
第i行第j列的tube,
Figure FDA00028187293400000223
表示一种线性变换,即傅立叶变换,
Figure FDA00028187293400000224
Figure FDA00028187293400000225
的逆变换,·*表示对应元素间的乘法;
2.2视频帧合成转换为以下形式
Figure FDA00028187293400000226
即按照Frobenius范数最小,求解三阶张量
Figure FDA00028187293400000227
Figure FDA00028187293400000228
步骤3,求解分解后的两个张量:在傅里叶变换域中采用交替最小化方法对两个张量
Figure FDA00028187293400000229
Figure FDA00028187293400000230
进行交替求解,每次交替最小化是张量
Figure FDA00028187293400000231
Figure FDA00028187293400000232
的最小二乘形式,在傅立叶变换域得到最优化后的张量
Figure FDA00028187293400000233
和张量
Figure FDA00028187293400000234
采用交替最小化方法对两个张量
Figure FDA00028187293400000235
和张量
Figure FDA00028187293400000236
进行交替求解,具体是
3.1由于在交替求解的过程中求解张量
Figure FDA00028187293400000237
和张量
Figure FDA00028187293400000238
的过程相似,统一表达为
Figure FDA00028187293400000239
并将更新的过程表示为一个函数:
Figure FDA00028187293400000240
即,根据给定的
Figure FDA00028187293400000241
按照
Figure FDA00028187293400000242
Ω,r求解
Figure FDA00028187293400000243
根据卷积定理,上述张量最小二乘形式转换为傅里叶变换域中的最小二乘形式,即
Figure FDA0002818729340000031
其中
Figure FDA0002818729340000032
即输入的视频数据,
Figure FDA0002818729340000033
表示该张量
Figure FDA0002818729340000034
沿第三维方向的傅里叶变换,即张量
Figure FDA0002818729340000035
的变换域表示,
Figure FDA0002818729340000036
定义为两个三阶张量间对应tube进行循环卷积,即
Figure FDA0002818729340000037
Figure FDA0002818729340000038
表示张量
Figure FDA0002818729340000039
第i行第j列的tube,★表示循环卷积,
Figure FDA00028187293400000310
表示两个三阶张量间对应正面切片的矩阵乘法,即
Figure FDA00028187293400000311
Figure FDA00028187293400000312
Figure FDA00028187293400000313
表示3阶张量
Figure FDA00028187293400000314
的第l个正切面;
3.2在傅里叶变换域求解张量
Figure FDA00028187293400000315
和张量
Figure FDA00028187293400000316
的过程按侧面切片分为n2个独立的最小二乘最小化:
Figure FDA00028187293400000317
其中,
Figure FDA00028187293400000318
表示张量
Figure FDA00028187293400000319
的第j个侧面切片,j∈[n2];在傅立叶变换域求解张量
Figure FDA00028187293400000320
和张量
Figure FDA00028187293400000321
的过程按侧面切片分为n2个独立的最小二乘最小化,具体是
每个最小二乘最小化相当于估计变换域中张量
Figure FDA00028187293400000322
的一个侧面切片
Figure FDA00028187293400000323
j∈[n2],包括有以下步骤:
3.21将傅里叶变换域中的输入视频
Figure FDA00028187293400000324
的侧面切片
Figure FDA00028187293400000325
j∈[n2],按行展开为一个大小为n1n3×1的向量b
Figure FDA00028187293400000326
其中unfold(·)表示将一个1×1×n3tube转换为长度为n3的向量;类似地,将
Figure FDA00028187293400000327
j∈[n2],变换为大小为rn3×1的向量x
Figure FDA00028187293400000328
3.22将
Figure FDA00028187293400000329
的每个正面切片依次置于一个矩阵的对角线上,转换为一个大小为n1n3×rn3的块对角矩阵
Figure FDA00028187293400000330
3.23将输入视频的投影在傅立叶变换域中的侧面切片
Figure FDA0002818729340000041
转换为一个大小为n3×n3×n1的张量
Figure FDA0002818729340000042
满足
Figure FDA0002818729340000043
其中circ(·)表示一个向量转换为循环矩阵,然后令
Figure FDA0002818729340000044
估计
Figure FDA0002818729340000045
的第j个侧面切片转化为以下向量的标准最小二乘:
Figure FDA0002818729340000046
然后可以将每个向量
Figure FDA0002818729340000047
恢复为矩阵
Figure FDA0002818729340000048
j∈[n2],进而得到目标视频张量分解后的张量;
其中,在执行交替求解的每次迭代过程中,给定
Figure FDA0002818729340000049
更新
Figure FDA00028187293400000410
时,即求解
Figure FDA00028187293400000411
时,
Figure FDA00028187293400000412
表示第l-1轮迭代求解的
Figure FDA00028187293400000413
Figure FDA00028187293400000414
表示第l轮迭代求解的
Figure FDA00028187293400000415
输入数据的维度与原始维度相同,输出数据的维度即与
Figure FDA00028187293400000416
相同;给定
Figure FDA00028187293400000417
更新
Figure FDA00028187293400000418
时,即求解
Figure FDA00028187293400000419
时,
Figure FDA00028187293400000420
表示第l轮迭代求解的
Figure FDA00028187293400000421
表示第l轮迭代求解的
Figure FDA00028187293400000422
为了使输出张量的维度与
Figure FDA00028187293400000423
相同,需要对输入的数据进行转置处理,得到输出数据后再对输出数据进行转置即可得到正确的
Figure FDA00028187293400000424
迭代更新直至
Figure FDA00028187293400000425
Figure FDA00028187293400000426
收敛即可;
步骤4,对张量
Figure FDA00028187293400000427
和张量
Figure FDA00028187293400000428
进行傅里叶反变换,张量
Figure FDA00028187293400000429
和张量
Figure FDA00028187293400000430
相乘后即可得到目标张量
Figure FDA00028187293400000431
目标张量即为恢复丢失帧后的视频或预测出待预测帧的视频。
CN201910368533.8A 2019-05-05 2019-05-05 一种基于张量的视频帧合成方法 Active CN110139046B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910368533.8A CN110139046B (zh) 2019-05-05 2019-05-05 一种基于张量的视频帧合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910368533.8A CN110139046B (zh) 2019-05-05 2019-05-05 一种基于张量的视频帧合成方法

Publications (2)

Publication Number Publication Date
CN110139046A CN110139046A (zh) 2019-08-16
CN110139046B true CN110139046B (zh) 2021-03-23

Family

ID=67576075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910368533.8A Active CN110139046B (zh) 2019-05-05 2019-05-05 一种基于张量的视频帧合成方法

Country Status (1)

Country Link
CN (1) CN110139046B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766066B (zh) * 2019-10-18 2023-06-23 天津理工大学 一种基于fnn的张量异质集成车联网缺失数据估计方法
CN111147863B (zh) * 2019-12-30 2021-06-08 西安电子科技大学 基于张量的视频快照压缩成像恢复方法
US11553139B2 (en) * 2020-09-29 2023-01-10 International Business Machines Corporation Video frame synthesis using tensor neural networks
CN112422870B (zh) * 2020-11-12 2021-09-17 复旦大学 一种基于知识蒸馏的深度学习视频插帧方法
CN113158972A (zh) * 2021-05-12 2021-07-23 山东浪潮科学研究院有限公司 基于光流估测的视频分类张量构造方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9942717B1 (en) * 2017-06-08 2018-04-10 Rapid Focus Security, Llc Method and apparatus for direction-aware device location
CN108304806A (zh) * 2018-02-02 2018-07-20 华南理工大学 一种基于对数路径积分特征和卷积神经网络的手势识别方法
CN108595920A (zh) * 2018-05-02 2018-09-28 中广热点云科技有限公司 网络视听管理支撑版权服务子系统
JP2018178311A (ja) * 2017-04-13 2018-11-15 村田機械株式会社 紡績機、空気紡績方法、及び紡績糸

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018178311A (ja) * 2017-04-13 2018-11-15 村田機械株式会社 紡績機、空気紡績方法、及び紡績糸
US9942717B1 (en) * 2017-06-08 2018-04-10 Rapid Focus Security, Llc Method and apparatus for direction-aware device location
CN108304806A (zh) * 2018-02-02 2018-07-20 华南理工大学 一种基于对数路径积分特征和卷积神经网络的手势识别方法
CN108595920A (zh) * 2018-05-02 2018-09-28 中广热点云科技有限公司 网络视听管理支撑版权服务子系统

Also Published As

Publication number Publication date
CN110139046A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN110139046B (zh) 一种基于张量的视频帧合成方法
Wang et al. Robust object removal with an exemplar-based image inpainting approach
CN108133465B (zh) 基于空谱加权tv的非凸低秩松弛的高光谱图像恢复方法
CN104867119B (zh) 基于低秩矩阵重建的结构性缺失图像填充方法
CN108573479A (zh) 基于对偶生成对抗式网络的人脸图像去模糊和恢复方法
CN107154064B (zh) 基于深度稀疏编码的自然图像压缩感知重建方法
CN113240596B (zh) 一种基于高阶张量奇异值分解的彩色视频恢复方法及系统
CN107301630B (zh) 一种基于排序结构组非凸约束的cs-mri图像重构方法
Xu et al. A fast algorithm for cosine transform based tensor singular value decomposition
CN107784628A (zh) 一种基于重建优化和深度神经网络的超分辨率实现方法
CN105957022A (zh) 低秩矩阵重建带有随机值脉冲噪声缺失图像恢复方法
Ren et al. PhySR: Physics-informed deep super-resolution for spatiotemporal data
CN106204477B (zh) 基于在线低秩背景建模的视频序列背景恢复方法
CN109887050A (zh) 一种基于自适应字典学习的编码孔径光谱成像方法
Kang et al. Multipass SAR interferometry based on total variation regularized robust low rank tensor decomposition
CN110675318B (zh) 一种基于主结构分离的稀疏表示图像超分辨率重建方法
CN115063502A (zh) 基于优化迭代网络的ct图像重建方法以及系统
CN112686830B (zh) 基于图像分解的单一深度图的超分辨率方法
CN111714124B (zh) 磁共振电影成像方法、装置、成像设备及存储介质
Barbano et al. Quantifying sources of uncertainty in deep learning-based image reconstruction
CN105844589A (zh) 一种基于混合成像系统的实现光场图像超分辨的方法
Hesabi et al. Structure and texture image inpainting
Takahashi et al. Rank minimization approach to image inpainting using null space based alternating optimization
Geng et al. A weighted nuclear norm method for tensor completion
Chen et al. Causal discovery from sparse time-series data using echo state network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221111

Address after: 510000 2414-2416 of the main building 371, five mountain road, Tianhe District, Guangzhou, Guangdong.

Patentee after: GUANGDONG GAOHANG INTELLECTUAL PROPERTY OPERATION Co.,Ltd.

Address before: 710071 Taibai South Road, Yanta District, Xi'an, Shaanxi Province, No. 2

Patentee before: XIDIAN University

Effective date of registration: 20221111

Address after: 100000 19A, Building 2, No. 48, North Third Ring West Road, Haidian District, Beijing

Patentee after: Beijing Sanduotang Media Co.,Ltd.

Address before: 510000 2414-2416 of the main building 371, five mountain road, Tianhe District, Guangzhou, Guangdong.

Patentee before: GUANGDONG GAOHANG INTELLECTUAL PROPERTY OPERATION Co.,Ltd.

TR01 Transfer of patent right