CN105376563A - 基于双目融合特征相似度的无参考立体图像质量评价方法 - Google Patents

基于双目融合特征相似度的无参考立体图像质量评价方法 Download PDF

Info

Publication number
CN105376563A
CN105376563A CN201510791464.3A CN201510791464A CN105376563A CN 105376563 A CN105376563 A CN 105376563A CN 201510791464 A CN201510791464 A CN 201510791464A CN 105376563 A CN105376563 A CN 105376563A
Authority
CN
China
Prior art keywords
dis
sim
pixel
designated
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510791464.3A
Other languages
English (en)
Other versions
CN105376563B (zh
Inventor
周武杰
王中鹏
邱薇薇
周扬
吴茗蔚
翁剑枫
葛丁飞
王新华
孙丽慧
陈寿法
郑卫红
李鑫
吴洁雯
文小军
金国英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Yuntian Changxiang Information Technology Co ltd
Original Assignee
Zhejiang Lover Health Science and Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lover Health Science and Technology Development Co Ltd filed Critical Zhejiang Lover Health Science and Technology Development Co Ltd
Priority to CN201510791464.3A priority Critical patent/CN105376563B/zh
Publication of CN105376563A publication Critical patent/CN105376563A/zh
Application granted granted Critical
Publication of CN105376563B publication Critical patent/CN105376563B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于双目融合特征相似度的无参考立体图像质量评价方法,其通过对待评价的失真立体图像的左视点图像和右视点图像分别进行Gabor滤波和LOG滤波,得到左右视点融合图像和左右视点融合视觉特征图;然后计算左右视点融合图像与左右视点融合视觉特征图之间的自相似度图像;再获取自相似度图像的量化图像的直方图统计特征向量和自相似度图像的局部二值化模式图像的直方图统计特征向量;最后获取待评价的失真立体图像的客观质量评价预测值;优点是其能够充分考虑到立体视觉感知特性,从而能够有效地提高客观评价结果与主观感知之间的相关性。

Description

基于双目融合特征相似度的无参考立体图像质量评价方法
技术领域
本发明涉及一种立体图像质量客观评价方法,尤其是涉及一种基于双目融合特征相似度的无参考立体图像质量评价方法。
背景技术
进入二十一世纪以来,随着立体图像/视频系统处理技术的日趋成熟,以及计算机网络与通信技术的快速发展,已引起人们对立体图像/视频系统的强烈需求。相比传统的单视点图像/视频系统,立体图像/视频系统由于能够提供深度信息来增强视觉的真实感,给用户以身临其境的全新视觉体验而越来越受到人们的欢迎,已被认为是下一代媒体主要的发展方向,已引发了学术界、产业界的广泛关注。然而,人们为了获得更好的立体临场感和视觉体验,对立体视觉主观感知质量提出了更高的要求。在立体图像/视频系统中,采集、编码、传输、解码及显示等处理环节都会引入一定失真,这些失真将对立体视觉主观感知质量产生不同程度的影响,因此如何有效地进行无参考质量评价是亟需解决的难点问题。综上,评价立体图像质量,并建立与主观质量评价相一致的客观评价模型显得尤为重要。
目前,研究人员提出了不少针对单视点视觉质量的无参考评价方法,然而由于缺乏系统理论深入研究立体视觉感知特性,因此还没有有效地无参考立体图像质量评价方法。相比单视点视觉质量无参考评价模型,无参考立体图像质量评价模型需要考虑不同失真类型立体掩蔽效应以及与之相关的双目竞争/抑制和双目融合等立体感知因素对视觉质量的影响。因此,不能简单地把现有的单视点视觉质量无参考评价模型直接扩展到无参考立体图像质量评价方法中。现有的无参考质量客观评价方法主要是通过机器学习来预测评价模型的,但针对立体图像,现有的立体图像评价方法还是平面图像评价方法的简单扩展,并没有考虑双目视觉特性,因此,如何在评价过程中有效地提取特征信息,在评价过程中进行双目视觉特性结合,使得客观评价结果更加符合人类视觉感知系统,是立体图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于双目融合特征相似度的无参考立体图像质量评价方法,其能够充分考虑到立体视觉感知特性,从而能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于双目融合特征相似度的无参考立体图像质量评价方法,其特征在于包括以下步骤:
①令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};然后采用块匹配方法,计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为{ddis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值,ddis(x,y)表示{ddis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用Gabor滤波方法对{Ldis(x,y)}进行操作,得到左视点响应图,记为{GL,dis(x,y)};并采用LOG滤波方法对{Ldis(x,y)}进行操作,得到左视点视觉特征图,记为{FL,dis(x,y)};其中,GL,dis(x,y)表示{GL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,FL,dis(x,y)表示{FL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
同样,采用Gabor滤波方法对{Rdis(x,y)}进行操作,得到右视点响应图,记为{GR,dis(x,y)};并采用LOG滤波方法对{Rdis(x,y)}进行操作,得到右视点视觉特征图,记为{FR,dis(x,y)};其中,GR,dis(x,y)表示{GR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,FR,dis(x,y)表示{FR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
③根据{Ldis(x,y)}和{Rdis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点融合图像,记为{RL,R,dis(x,y)},其中,RL,R,dis(x,y)表示{RL,R,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
④根据{FL,dis(x,y)}和{FR,dis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点融合视觉特征图,记为{FL,R,dis(x,y)},其中,FL,R,dis(x,y)表示{FL,R,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤计算{RL,R,dis(x,y)}与{FL,R,dis(x,y)}之间的自相似度图像,记为{Hdis,sim(x,y)},其中,Hdis,sim(x,y)表示{Hdis,sim(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥采用量化方法对{Hdis,sim(x,y)}进行处理,得到{Hdis,sim(x,y)}的量化图像,记为{Hdis,sim,Q(x,y)};并采用局部二值化模式操作对{Hdis,sim(x,y)}进行处理,得到{Hdis,sim(x,y)}的局部二值化模式图像,记为{Hdis,sim,lbp(x,y)};其中,Hdis,sim,Q(x,y)表示{Hdis,sim,Q(x,y)}中坐标位置为(x,y)的像素点的像素值,Hdis,sim,lbp(x,y)表示{Hdis,sim,lbp(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑦采用直方图统计方法对{Hdis,sim,Q(x,y)}进行统计操作,得到{Hdis,sim,Q(x,y)}的直方图统计特征向量,记为Hdis,sim,Q,hist;同样,采用直方图统计方法对{Hdis,sim,lbp(x,y)}进行统计操作,得到{Hdis,sim,lbp(x,y)}的直方图统计特征向量,记为Hdis,sim,lbp,hist;其中,Hdis,sim,Q,hist的维数为1×m'维,Hdis,sim,Q,hist中的第m个元素为Hdis,sim,Q,hist(m),Hdis,sim,lbp,hist的维数为1×m'维,Hdis,sim,lbp,hist中的第m个元素为Hdis,sim,lbp,hist(m),1≤m≤m',m'=P+2,P表示局部二值化模式操作中的领域参数;
⑧采用n”幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后利用主观质量评价方法评价出训练集中的每幅失真立体图像的平均主观评分值,将训练集中的第j幅失真立体图像的平均主观评分值记为DMOSj;再按照步骤①至步骤⑦的操作,以相同的方式获取训练集中的每幅失真立体图像对应的自相似度图像的量化图像的直方图统计特征向量和自相似度图像的局部二值化模式图像的直方图统计特征向量,将训练集中的第j幅失真立体图像对应的自相似度图像的量化图像的直方图统计特征向量和自相似度图像的局部二值化模式图像的直方图统计特征向量分别记为Hj,sim,Q,hist和Hj,sim,lbp,hist;其中,n”>1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,Hj,sim,Q,hist和Hj,sim,lbp,hist的维数均为1×m'维;
⑨计算Sdis对应的直方图统计特征向量与训练集中的每幅失真立体图像对应的直方图统计特征向量之间的距离,将Sdis对应的直方图统计特征向量与训练集中的第j幅失真立体图像对应的直方图统计特征向量之间的距离记为Ddis,j,Ddis,j=|Hdis,sim,Q,hist-Hj,sim,Q,hist|+|Hdis,sim,lbp,hist-Hj,sim,lbp,hist|,并将这N'个距离构成的集合记为{Ddis,j|1≤j≤N'},其中,符号“||”为取绝对值符号;然后对{Ddis,j|1≤j≤N'}中的所有距离按从小到大的顺序排列,将排列后的集合记为{D'dis,j|1≤j≤N'};接着获取{D'dis,j|1≤j≤N'}中的前K个距离各自对应的训练集中的失真立体图像的平均主观评分值,并将这K个平均主观评分值构成的集合记为{DMOS'1,DMOS'2,…,DMOS'K},其中,1≤K≤N',DMOS'1,DMOS'2,…,DMOS'K对应表示{D'dis,j|1≤j≤N'}中的第1个距离对应的训练集中的失真立体图像的平均主观评分值、第2个距离对应的训练集中的失真立体图像的平均主观评分值、…、第K个距离对应的训练集中的失真立体图像的平均主观评分值。
⑩计算Sdis的客观质量评价预测值,记为Qdis其中,D'dis,k表示{D'dis,j|1≤j≤N'}中的第k个距离,DMOS'k表示D'dis,k对应的训练集中的失真立体图像的平均主观评分值。
所述的步骤③中的
R L , R , d i s ( x , y ) = L d i s ( x , y ) × G L , d i s ( x , y ) G L , d i s ( x , y ) + G R , d i s ( x , y ) + R d i s ( x + d d i s ( x , y ) , y ) × G R , d i s ( x + d d i s ( x , y ) , y ) G L , d i s ( x , y ) + G R , d i s ( x + d d i s ( x , y ) , y ) ,其中,Rdis(x+ddis(x,y),y)表示{Rdis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值。
所述的步骤④中的 F L , R , d i s ( x , y ) = F L , d i s ( x , y ) × G L , d i s ( x , y ) G L , d i s ( x , y ) + G R , d i s ( x , y ) + F R , d i s ( x + d d i s ( x , y ) , y ) × G R , d i s ( x + d d i s ( x , y ) , y ) G L , d i s ( x , y ) + G R , d i s ( x + d d i s ( x , y ) , y ) ,其中,FR,dis(x+ddis(x,y),y)表示{FR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值。
所述的步骤⑤中的 H d i s , s i m ( x , y ) = 2 × R L , R , d i s ( x , y ) × F L , R , d i s ( x , y ) + C ( R L , R , d i s ( x , y ) ) 2 + ( F L , R , d i s ( x , y ) ) 2 + C , 其中,C为控制参数。
所述的步骤⑥中的局部二值化模式操作中的领域参数P取值为8,且局部半径参数R取值为1。
与现有技术相比,本发明的优点在于:
1)本发明方法采用双目融合模型,对左视点图像和右视点图像进行融合,得到左右视点融合图像;同时对左视点视觉特征图和右视点视觉特征图进行融合,得到左右视点融合视觉特征图,得到的左右视点融合图像和左右视点融合视觉特征图能够很好的模拟双目(立体)视觉感知特性。
2)本发明方法在充分利用了双目视觉感知特性的基础上,获取了左右视点融合图像与左右视点融合视觉特征图之间的自相似度图像,自相似度图像作为双目视觉感知特性信息能够有效地表示主观视觉特性,因此能有效地提高客观评价结果与主观感知之间的相关性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于双目融合特征相似度的无参考立体图像质量评价方法,其总体实现框图如图1所示,其包括以下步骤:
①令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};然后采用现有的块匹配方法,计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为{ddis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值,ddis(x,y)表示{ddis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②采用现有的Gabor滤波方法对{Ldis(x,y)}进行操作,得到左视点响应图,记为{GL,dis(x,y)};然后采用现有的LOG(LaplacianofGaussian)滤波方法对{Ldis(x,y)}进行操作,得到左视点视觉特征图,记为{FL,dis(x,y)};其中,GL,dis(x,y)表示{GL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,FL,dis(x,y)表示{FL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值。
同样,采用现有的Gabor滤波方法对{Rdis(x,y)}进行操作,得到右视点响应图,记为{GR,dis(x,y)};然后采用现有的LOG(LaplacianofGaussian)滤波方法对{Rdis(x,y)}进行操作,得到右视点视觉特征图,记为{FR,dis(x,y)};其中,GR,dis(x,y)表示{GR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,FR,dis(x,y)表示{FR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值。
③根据{Ldis(x,y)}和{Rdis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点融合图像,记为{RL,R,dis(x,y)},其中,RL,R,dis(x,y)表示{RL,R,dis(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤③中的 R L , R , d i s ( x , y ) = L d i s ( x , y ) × G L , d i s ( x , y ) G L , d i s ( x , y ) + G R , d i s ( x , y ) + R d i s ( x + d d i s ( x , y ) , y ) × G R , d i s ( x + d d i s ( x , y ) , y ) G L , d i s ( x , y ) + G R , d i s ( x + d d i s ( x , y ) , y ) ,其中,Rdis(x+ddis(x,y),y)表示{Rdis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值。
④根据{FL,dis(x,y)}和{FR,dis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点融合视觉特征图,记为{FL,R,dis(x,y)},其中,FL,R,dis(x,y)表示{FL,R,dis(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤④中的 F L , R , d i s ( x , y ) = F L , d i s ( x , y ) × G L , d i s ( x , y ) G L , d i s ( x , y ) + G R , d i s ( x , y ) + F R , d i s ( x + d d i s ( x , y ) , y ) × G R , d i s ( x + d d i s ( x , y ) , y ) G L , d i s ( x , y ) + G R , d i s ( x + d d i s ( x , y ) , y ) ,其中,FR,dis(x+ddis(x,y),y)表示{FR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值。
⑤计算{RL,R,dis(x,y)}与{FL,R,dis(x,y)}之间的自相似度图像,记为{Hdis,sim(x,y)},其中,Hdis,sim(x,y)表示{Hdis,sim(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤⑤中的 H d i s , s i m ( x , y ) = 2 × R L , R , d i s ( x , y ) × F L , R , d i s ( x , y ) + C ( R L , R , d i s ( x , y ) ) 2 + ( F L , R , d i s ( x , y ) ) 2 + C , 其中,C为控制参数,在本实施例中取C=0.0001。
⑥采用现有的量化方法对{Hdis,sim(x,y)}进行处理,得到{Hdis,sim(x,y)}的量化图像,记为{Hdis,sim,Q(x,y)};并采用现有的局部二值化模式(LocalBinaryPattern)操作对{Hdis,sim(x,y)}进行处理,得到{Hdis,sim(x,y)}的局部二值化模式图像,记为{Hdis,sim,lbp(x,y)};其中,Hdis,sim,Q(x,y)表示{Hdis,sim,Q(x,y)}中坐标位置为(x,y)的像素点的像素值,Hdis,sim,lbp(x,y)表示{Hdis,sim,lbp(x,y)}中坐标位置为(x,y)的像素点的像素值。
在本实施例中,步骤⑥中的局部二值化模式操作中的领域参数P取值为8,且局部半径参数R取值为1。
⑦采用现有的直方图统计方法对{Hdis,sim,Q(x,y)}进行统计操作,得到{Hdis,sim,Q(x,y)}的直方图统计特征向量,记为Hdis,sim,Q,hist;同样,采用现有的直方图统计方法对{Hdis,sim,lbp(x,y)}进行统计操作,得到{Hdis,sim,lbp(x,y)}的直方图统计特征向量,记为Hdis,sim,lbp,hist;其中,Hdis,sim,Q,hist的维数为1×m'维,Hdis,sim,Q,hist中的第m个元素为Hdis,sim,Q,hist(m),Hdis,sim,lbp,hist的维数为1×m'维,Hdis,sim,lbp,hist中的第m个元素为Hdis,sim,lbp,hist(m),1≤m≤m',m'=P+2,P表示局部二值化模式操作中的领域参数。
⑧采用n”幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后利用现有的主观质量评价方法评价出训练集中的每幅失真立体图像的平均主观评分值,将训练集中的第j幅失真立体图像的平均主观评分值记为DMOSj;再按照步骤①至步骤⑦的操作,以相同的方式获取训练集中的每幅失真立体图像对应的自相似度图像的量化图像的直方图统计特征向量和自相似度图像的局部二值化模式图像的直方图统计特征向量,将训练集中的第j幅失真立体图像对应的自相似度图像的量化图像的直方图统计特征向量和自相似度图像的局部二值化模式图像的直方图统计特征向量分别记为Hj,sim,Q,hist和Hj,sim,lbp,hist;其中,n”>1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,在本实施例中N'≥10,0≤DMOSj≤100,Hj,sim,Q,hist和Hj,sim,lbp,hist的维数均为1×m'维。
在此,Hj,sim,Q,hist和Hj,sim,lbp,hist的获取过程为:
A1、令Sj表示训练集中的第j幅失真立体图像,将Sj的左视点图像记为{Lj(x',y')},将Sj的右视点图像记为{Rj(x',y')};然后采用现有的块匹配方法,计算{Lj(x',y')}与{Rj(x',y')}之间的视差图像,记为{dj(x',y')};其中,1≤x'≤W',1≤y'≤H',W'表示训练集中的失真立体图像的宽度,H'表示训练集中的失真立体图像的高度,Lj(x',y')表示{Lj(x',y')}中坐标位置为(x',y')的像素点的像素值,Rj(x',y')表示{Rj(x',y')}中坐标位置为(x',y')的像素点的像素值,dj(x',y')表示{dj(x',y')}中坐标位置为(x',y')的像素点的像素值。
A2、采用现有的Gabor滤波方法对{Lj(x',y')}进行操作,得到左视点响应图,记为{GL,j(x',y')};然后采用现有的LOG(LaplacianofGaussian)滤波方法对{Lj(x',y')}进行操作,得到左视点视觉特征图,记为{FL,j(x',y')};其中,GL,j(x',y')表示{GL,j(x',y')}中坐标位置为(x',y')的像素点的像素值,FL,j(x',y')表示{FL,j(x',y')}中坐标位置为(x',y')的像素点的像素值。
同样,采用现有的Gabor滤波方法对{Rj(x',y')}进行操作,得到右视点响应图,记为{GR,j(x',y')};然后采用现有的LOG(LaplacianofGaussian)滤波方法对{Rj(x',y')}进行操作,得到右视点视觉特征图,记为{FR,j(x',y')};其中,GR,j(x',y')表示{GR,j(x',y')}中坐标位置为(x',y')的像素点的像素值,FR,j(x',y')表示{FR,j(x',y')}中坐标位置为(x',y')的像素点的像素值。
A3、根据{Lj(x',y')}和{Rj(x',y')}、{GL,j(x',y')}和{GR,j(x',y')}、{dj(x',y')},计算Sj的左右视点融合图像,记为{RL,R,j(x',y')},其中,RL,R,j(x',y')表示{RL,R,j(x',y')}中坐标位置为(x',y')的像素点的像素值。
在此具体实施例中,步骤A3中的 R L , R , j ( x ′ , y ′ ) = L j ( x ′ , y ′ ) × G L , j ( x ′ , y ′ ) G L , j x ′ , y ′ + G R , j ( x ′ , y ′ ) + R j ( x ′ + d j ( x ′ , y ′ ) , y ′ ) × G R , j ( x ′ + d j ( x ′ , y ′ ) , y ′ ) G L , j ( x ′ , y ′ ) + G R , j ( x ′ + d j ( x ′ , y ′ ) , y ′ ) ,其中,Rj(x'+dj(x',y'),y')表示{Rj(x',y')}中坐标位置为(x'+dj(x',y'),y')的像素点的像素值,GR,j(x'+dj(x',y'),y')表示{GR,j(x',y')}中坐标位置为(x'+dj(x',y'),y')的像素点的像素值。
A4、根据{FL,j(x',y')}和{FR,j(x',y')}、{GL,j(x',y')}和{GR,j(x',y')}、{dj(x',y')},计算Sj的左右视点融合视觉特征图,记为{FL,R,j(x',y')},其中,FL,R,j(x',y')表示{FL,R,j(x',y')}中坐标位置为(x',y')的像素点的像素值。
在此具体实施例中,步骤A4中的 F L , R , j ( x ′ , y ′ ) = F L , j ( x ′ , y ′ ) × G L , j ( x ′ , y ′ ) G L , j ( x ′ , y ′ ) + G R , j ( x ′ , y ′ ) + F R , j ( x ′ + d j ( x ′ , y ′ ) , y ′ ) × G R , j ( x ′ + d j ( x ′ , y ′ ) , y ′ ) G L , j ( x ′ , y ′ ) + G R , j ( x ′ + d j ( x ′ , y ′ ) , y ′ ) ,其中,FR,j(x'+dj(x',y'),y')表示{FR,j(x',y')}中坐标位置为(x'+dj(x',y'),y')的像素点的像素值,GR,j(x'+dj(x',y'),y')表示{GR,j(x',y')}中坐标位置为(x'+dj(x',y'),y')的像素点的像素值。
A5、计算{RL,R,j(x',y')}与{FL,R,j(x',y')}之间的自相似度图像,记为{Hj,sim(x',y')},其中,Hj,sim(x,y)表示{Hj,sim(x',y')}中坐标位置为(x',y')的像素点的像素值。
在此具体实施例中,步骤A5中的 H j , s i m ( x ′ , y ′ ) = 2 × R L , R , j ( x ′ , y ′ ) × F L , R , j ( x ′ , y ′ ) + C ( R L , R , j ( x ′ , y ′ ) ) 2 + ( F L , R , j ( x ′ , y ′ ) ) 2 + C , 其中,C为控制参数,在本实施例中取C=0.0001。
A6、采用现有的量化方法对{Hj,sim(x',y')}进行处理,得到{Hj,sim(x',y')}的量化图像,记为{Hj,sim,Q(x',y')};并采用现有的局部二值化模式(LocalBinaryPattern)操作对{Hj,sim(x',y')}进行处理,得到{Hj,sim(x',y')}的局部二值化模式图像,记为{Hj,sim,lbp(x',y')};其中,Hj,sim,Q(x',y')表示{Hj,sim,Q(x',y')}中坐标位置为(x',y')的像素点的像素值,Hj,sim,lbp(x',y')表示{Hj,sim,lbp(x',y')}中坐标位置为(x',y')的像素点的像素值。
在本实施例中,步骤A6中的局部二值化模式操作中的领域参数P取值为8,且局部半径参数R取值为1。
A7、采用现有的直方图统计方法对{Hj,sim,Q(x',y')}进行统计操作,得到{Hj,sim,Q(x',y')}的直方图统计特征向量,记为Hj,sim,Q,hist;同样,采用现有的直方图统计方法对{Hj,sim,lbp(x',y')}进行统计操作,得到{Hj,sim,lbp(x',y')}的直方图统计特征向量,记为Hj,sim,lbp,hist;其中,Hj,sim,Q,hist的维数为1×m'维,Hj,sim,lbp,hist的维数为1×m'维,m'=P+2,P表示局部二值化模式操作中的领域参数。
⑨计算Sdis对应的直方图统计特征向量与训练集中的每幅失真立体图像对应的直方图统计特征向量之间的距离,将Sdis对应的直方图统计特征向量与训练集中的第j幅失真立体图像对应的直方图统计特征向量之间的距离记为Ddis,j,Ddis,j=|Hdis,sim,Q,hist-Hj,sim,Q,hist|+|Hdis,sim,lbp,hist-Hj,sim,lbp,hist|,并将这N'个距离构成的集合记为{Ddis,j|1≤j≤N'},其中,符号“||”为取绝对值符号;然后对{Ddis,j|1≤j≤N'}中的所有距离按从小到大的顺序排列,将排列后的集合记为{D'dis,j|1≤j≤N'};接着获取{D'dis,j|1≤j≤N'}中的前K个距离各自对应的训练集中的失真立体图像的平均主观评分值,并将这K个平均主观评分值构成的集合记为{DMOS'1,DMOS'2,…,DMOS'K},其中,1≤K≤N',在本实施例中取K=10,DMOS'1,DMOS'2,…,DMOS'K对应表示{D'dis,j|1≤j≤N'}中的第1个距离对应的训练集中的失真立体图像的平均主观评分值、第2个距离对应的训练集中的失真立体图像的平均主观评分值、…、第K个距离对应的训练集中的失真立体图像的平均主观评分值。
⑩计算Sdis的客观质量评价预测值,记为Qdis其中,D'dis,k表示{D'dis,j|1≤j≤N'}中的第k个距离,DMOS'k表示D'dis,k对应的训练集中的失真立体图像的平均主观评分值。
为了进一步验证本发明方法的可行性和有效性,进行实验。
在此,采用LIVE立体图像失真库来分析利用本发明方法得到的失真立体图像的客观质量评价预测值与平均主观评分值之间的相关性。这里,利用评估图像质量评价方法的3个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearsonlinearcorrelationcoefficient,PLCC)、Spearman相关系数(Spearmanrankordercorrelationcoefficient,SROCC)、均方误差(rootmeansquarederror,RMSE),PLCC和RMSE反映失真立体图像的客观质量评价预测值的准确性,SROCC反映其单调性。
利用本发明方法计算LIVE立体图像失真库中的每幅失真立体图像的客观质量评价预测值,再利用现有的主观质量评价方法获得LIVE立体图像失真库中的每幅失真立体图像的平均主观评分值。将按本发明方法计算得到的失真立体图像的客观质量评价预测值做五参数Logistic函数非线性拟合,PLCC和SROCC值越高,RMSE值越低说明客观评价方法的客观评价结果与平均主观评分值之间的相关性越好。反映本发明方法的质量评价性能的PLCC、SROCC和RMSE相关系数如表1所列。从表1所列的数据可知,按本发明方法得到的失真立体图像的客观质量评价预测值与平均主观评分值之间的相关性是很好的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的可行性和有效性。
表1利用本发明方法得到的LIVE立体图像失真库中的失真立体图像的客观质量评价预测值与平均主观评分值之间的相关性

Claims (5)

1.一种基于双目融合特征相似度的无参考立体图像质量评价方法,其特征在于包括以下步骤:
①令Sdis表示待评价的失真立体图像,将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)};然后采用块匹配方法,计算{Ldis(x,y)}与{Rdis(x,y)}之间的视差图像,记为{ddis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的宽度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值,ddis(x,y)表示{ddis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用Gabor滤波方法对{Ldis(x,y)}进行操作,得到左视点响应图,记为{GL,dis(x,y)};并采用LOG滤波方法对{Ldis(x,y)}进行操作,得到左视点视觉特征图,记为{FL,dis(x,y)};其中,GL,dis(x,y)表示{GL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,FL,dis(x,y)表示{FL,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
同样,采用Gabor滤波方法对{Rdis(x,y)}进行操作,得到右视点响应图,记为{GR,dis(x,y)};并采用LOG滤波方法对{Rdis(x,y)}进行操作,得到右视点视觉特征图,记为{FR,dis(x,y)};其中,GR,dis(x,y)表示{GR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值,FR,dis(x,y)表示{FR,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
③根据{Ldis(x,y)}和{Rdis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点融合图像,记为{RL,R,dis(x,y)},其中,RL,R,dis(x,y)表示{RL,R,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
④根据{FL,dis(x,y)}和{FR,dis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},计算Sdis的左右视点融合视觉特征图,记为{FL,R,dis(x,y)},其中,FL,R,dis(x,y)表示{FL,R,dis(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤计算{RL,R,dis(x,y)}与{FL,R,dis(x,y)}之间的自相似度图像,记为{Hdis,sim(x,y)},其中,Hdis,sim(x,y)表示{Hdis,sim(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥采用量化方法对{Hdis,sim(x,y)}进行处理,得到{Hdis,sim(x,y)}的量化图像,记为{Hdis,sim,Q(x,y)};并采用局部二值化模式操作对{Hdis,sim(x,y)}进行处理,得到{Hdis,sim(x,y)}的局部二值化模式图像,记为{Hdis,sim,lbp(x,y)};其中,Hdis,sim,Q(x,y)表示{Hdis,sim,Q(x,y)}中坐标位置为(x,y)的像素点的像素值,Hdis,sim,lbp(x,y)表示{Hdis,sim,lbp(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑦采用直方图统计方法对{Hdis,sim,Q(x,y)}进行统计操作,得到{Hdis,sim,Q(x,y)}的直方图统计特征向量,记为Hdis,sim,Q,hist;同样,采用直方图统计方法对{Hdis,sim,lbp(x,y)}进行统计操作,得到{Hdis,sim,lbp(x,y)}的直方图统计特征向量,记为Hdis,sim,lbp,hist;其中,Hdis,sim,Q,hist的维数为1×m'维,Hdis,sim,Q,hist中的第m个元素为Hdis,sim,Q,hist(m),Hdis,sim,lbp,hist的维数为1×m'维,Hdis,sim,lbp,hist中的第m个元素为Hdis,sim,lbp,hist(m),1≤m≤m',m'=P+2,P表示局部二值化模式操作中的领域参数;
⑧采用n”幅原始的无失真立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,将该失真立体图像集合作为训练集,训练集包括多幅失真立体图像;然后利用主观质量评价方法评价出训练集中的每幅失真立体图像的平均主观评分值,将训练集中的第j幅失真立体图像的平均主观评分值记为DMOSj;再按照步骤①至步骤⑦的操作,以相同的方式获取训练集中的每幅失真立体图像对应的自相似度图像的量化图像的直方图统计特征向量和自相似度图像的局部二值化模式图像的直方图统计特征向量,将训练集中的第j幅失真立体图像对应的自相似度图像的量化图像的直方图统计特征向量和自相似度图像的局部二值化模式图像的直方图统计特征向量分别记为Hj,sim,Q,hist和Hj,sim,lbp,hist;其中,n”>1,1≤j≤N',N'表示训练集中包含的失真立体图像的总幅数,0≤DMOSj≤100,Hj,sim,Q,hist和Hj,sim,lbp,hist的维数均为1×m'维;
⑨计算Sdis对应的直方图统计特征向量与训练集中的每幅失真立体图像对应的直方图统计特征向量之间的距离,将Sdis对应的直方图统计特征向量与训练集中的第j幅失真立体图像对应的直方图统计特征向量之间的距离记为Ddis,j,Ddis,j=|Hdis,sim,Q,hist-Hj,sim,Q,hist|+|Hdis,sim,lbp,hist-Hj,sim,lbp,hist|,并将这N'个距离构成的集合记为{Ddis,j|1≤j≤N'},其中,符号“||”为取绝对值符号;然后对{Ddis,j|1≤j≤N'}中的所有距离按从小到大的顺序排列,将排列后的集合记为{D'dis,j|1≤j≤N'};接着获取{D'dis,j|1≤j≤N'}中的前K个距离各自对应的训练集中的失真立体图像的平均主观评分值,并将这K个平均主观评分值构成的集合记为{DMOS'1,DMOS'2,…,DMOS'K},其中,1≤K≤N',DMOS'1,DMOS'2,…,DMOS'K对应表示{D'dis,j|1≤j≤N'}中的第1个距离对应的训练集中的失真立体图像的平均主观评分值、第2个距离对应的训练集中的失真立体图像的平均主观评分值、…、第K个距离对应的训练集中的失真立体图像的平均主观评分值。
⑩计算Sdis的客观质量评价预测值,记为Qdis其中,D'dis,k表示{D'dis,j|1≤j≤N'}中的第k个距离,DMOS'k表示D'dis,k对应的训练集中的失真立体图像的平均主观评分值。
2.根据权利要求1所述的基于双目融合特征相似度的无参考立体图像质量评价方法,其特征在于所述的步骤③中的 R L , R , d i s ( x , y ) = L d i s ( x , y ) × G L , d i s ( x , y ) G L , d i s ( x , y ) + G R , d i s ( x , y ) + R d i s ( x + d d i s ( x , y ) , y ) × G R , d i s ( x + d d i s ( x , y ) , y ) G L , d i s ( x , y ) + G R , d i s ( x + d d i s ( x , y ) , y ) ,其中,Rdis(x+ddis(x,y),y)表示{Rdis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值。
3.根据权利要求1或2所述的基于双目融合特征相似度的无参考立体图像质量评价方法,其特征在于所述的步骤④中的 F L , R , d i s ( x , y ) = F L , d i s ( x , y ) × G L , d i s ( x , y ) G L , d i s ( x , y ) + G R , d i s ( x , y ) + F R , d i s ( x + d d i s ( x , y ) , y ) × G R , d i s ( x + d d i s ( x , y ) , y ) G L , d i s ( x , y ) + G R , d i s ( x + d d i s ( x , y ) , y ) ,其中,FR,dis(x+ddis(x,y),y)表示{FR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐标位置为(x+ddis(x,y),y)的像素点的像素值。
4.根据权利要求3所述的基于双目融合特征相似度的无参考立体图像质量评价方法,其特征在于所述的步骤⑤中的 H d i s , s i m ( x , y ) = 2 × R L , R , d i s ( x , y ) × F L , R , d i s ( x , y ) + C ( R L , R , d i s ( x , y ) ) 2 + ( F L , R , d i s ( x , y ) ) 2 + C , 其中,C为控制参数。
5.根据权利要求4所述的基于双目融合特征相似度的无参考立体图像质量评价方法,其特征在于所述的步骤⑥中的局部二值化模式操作中的领域参数P取值为8,且局部半径参数R取值为1。
CN201510791464.3A 2015-11-17 2015-11-17 基于双目融合特征相似度的无参考立体图像质量评价方法 Active CN105376563B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510791464.3A CN105376563B (zh) 2015-11-17 2015-11-17 基于双目融合特征相似度的无参考立体图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510791464.3A CN105376563B (zh) 2015-11-17 2015-11-17 基于双目融合特征相似度的无参考立体图像质量评价方法

Publications (2)

Publication Number Publication Date
CN105376563A true CN105376563A (zh) 2016-03-02
CN105376563B CN105376563B (zh) 2017-03-22

Family

ID=55378308

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510791464.3A Active CN105376563B (zh) 2015-11-17 2015-11-17 基于双目融合特征相似度的无参考立体图像质量评价方法

Country Status (1)

Country Link
CN (1) CN105376563B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105915883A (zh) * 2016-05-25 2016-08-31 浙江科技学院 基于极限学习和双目融合的盲参考立体图像质量评价方法
CN106023152A (zh) * 2016-05-09 2016-10-12 浙江科技学院 一种无参考立体图像质量客观评价方法
CN106162163A (zh) * 2016-08-02 2016-11-23 浙江科技学院 一种高效视觉质量客观评价方法
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN106791801A (zh) * 2016-11-22 2017-05-31 深圳大学 一种三维图像的质量评价方法及系统
CN107146216A (zh) * 2017-04-07 2017-09-08 浙江科技学院 一种基于梯度自相似度的无参考图像客观质量评价方法
CN109167996A (zh) * 2018-09-21 2019-01-08 浙江科技学院 一种基于卷积神经网络的无参考立体图像质量评价方法
CN110933402A (zh) * 2019-11-28 2020-03-27 天津大学 基于运动纹理特征的无参考立体视频质量评价方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708567A (zh) * 2012-05-11 2012-10-03 宁波大学 一种基于视觉感知的立体图像质量客观评价方法
CN104243976A (zh) * 2014-09-23 2014-12-24 浙江科技学院 一种立体图像客观质量评价方法
CN104581143A (zh) * 2015-01-14 2015-04-29 宁波大学 一种基于机器学习的无参考立体图像质量客观评价方法
CN104658001A (zh) * 2015-03-10 2015-05-27 浙江科技学院 一种无参考非对称失真立体图像客观质量评价方法
EP2887312A1 (en) * 2013-12-18 2015-06-24 Nokia Corporation Method, apparatus and computer program product for depth estimation of stereo images
CN104954778A (zh) * 2015-06-04 2015-09-30 宁波大学 一种基于感知特征集的立体图像质量客观评价方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708567A (zh) * 2012-05-11 2012-10-03 宁波大学 一种基于视觉感知的立体图像质量客观评价方法
EP2887312A1 (en) * 2013-12-18 2015-06-24 Nokia Corporation Method, apparatus and computer program product for depth estimation of stereo images
CN104243976A (zh) * 2014-09-23 2014-12-24 浙江科技学院 一种立体图像客观质量评价方法
CN104581143A (zh) * 2015-01-14 2015-04-29 宁波大学 一种基于机器学习的无参考立体图像质量客观评价方法
CN104658001A (zh) * 2015-03-10 2015-05-27 浙江科技学院 一种无参考非对称失真立体图像客观质量评价方法
CN104954778A (zh) * 2015-06-04 2015-09-30 宁波大学 一种基于感知特征集的立体图像质量客观评价方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于双目信息融合的立体图像质量评价模型;宋洋等;《光电子技术》;20140630;第34卷(第2期);第102-105页 *
宋洋等: "基于双目信息融合的立体图像质量评价模型", 《光电子技术》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106023152A (zh) * 2016-05-09 2016-10-12 浙江科技学院 一种无参考立体图像质量客观评价方法
CN106023152B (zh) * 2016-05-09 2018-06-26 浙江科技学院 一种无参考立体图像质量客观评价方法
CN105915883A (zh) * 2016-05-25 2016-08-31 浙江科技学院 基于极限学习和双目融合的盲参考立体图像质量评价方法
CN106162163A (zh) * 2016-08-02 2016-11-23 浙江科技学院 一种高效视觉质量客观评价方法
CN106791801A (zh) * 2016-11-22 2017-05-31 深圳大学 一种三维图像的质量评价方法及系统
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN106791822B (zh) * 2017-01-13 2018-11-30 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN107146216A (zh) * 2017-04-07 2017-09-08 浙江科技学院 一种基于梯度自相似度的无参考图像客观质量评价方法
CN109167996A (zh) * 2018-09-21 2019-01-08 浙江科技学院 一种基于卷积神经网络的无参考立体图像质量评价方法
CN109167996B (zh) * 2018-09-21 2019-10-29 浙江科技学院 一种基于卷积神经网络的无参考立体图像质量评价方法
CN110933402A (zh) * 2019-11-28 2020-03-27 天津大学 基于运动纹理特征的无参考立体视频质量评价方法
CN110933402B (zh) * 2019-11-28 2021-03-26 天津大学 基于运动纹理特征的无参考立体视频质量评价方法

Also Published As

Publication number Publication date
CN105376563B (zh) 2017-03-22

Similar Documents

Publication Publication Date Title
CN104658001B (zh) 一种无参考非对称失真立体图像客观质量评价方法
CN105376563B (zh) 基于双目融合特征相似度的无参考立体图像质量评价方法
CN104902268B (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
CN105357519B (zh) 基于自相似度特征的无参考立体图像质量客观评价方法
CN105979253B (zh) 基于广义回归神经网络的无参考立体图像质量评价方法
CN105282543A (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN101610425B (zh) 一种评测立体图像质量的方法和装置
CN109872305B (zh) 一种基于质量图生成网络的无参考立体图像质量评价方法
CN104902267A (zh) 一种基于梯度信息的无参考图像质量评价方法
CN105407349A (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN106791822B (zh) 一种基于单双目特征学习的无参考立体图像质量评价方法
CN104361583B (zh) 一种确定非对称失真立体图像客观质量的方法
CN104581143A (zh) 一种基于机器学习的无参考立体图像质量客观评价方法
CN104408716A (zh) 一种基于视觉保真度的立体图像质量客观评价方法
CN109429051B (zh) 基于多视图特征学习的无参考立体视频质量客观评价方法
Yan et al. Blind stereoscopic image quality assessment by deep neural network of multi-level feature fusion
CN104811693A (zh) 一种立体图像视觉舒适度客观评价方法
CN105574901A (zh) 一种基于局部对比度模式的通用无参考图像质量评价方法
CN103136748A (zh) 一种基于特征图的立体图像质量客观评价方法
CN105488792A (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法
CN106023152B (zh) 一种无参考立体图像质量客观评价方法
CN102903107A (zh) 一种基于特征融合的立体图像质量客观评价方法
CN105069794A (zh) 一种基于双目竞争的全盲立体图像质量评价方法
CN105898279B (zh) 一种立体图像质量客观评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210601

Address after: No.1063, building 13, industrial zone, Wuhan, Hubei 430000

Patentee after: Wuhan Tuozhijia Information Technology Co.,Ltd.

Address before: 310023 No. 318 stay Road, Xihu District, Zhejiang, Hangzhou

Patentee before: ZHEJIANG University OF SCIENCE AND TECHNOLOGY

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221125

Address after: 518000 514-12, Building 9, Zone 2, Shenzhen Bay Science and Technology Ecological Park, No. 3609, Baishi Road, High tech Zone Community, Yuehai Street, Nanshan District, Shenzhen, Guangdong

Patentee after: Shenzhen Yuntian Changxiang Information Technology Co.,Ltd.

Address before: No.1063, building 13, industrial zone, Wuhan, Hubei 430000

Patentee before: Wuhan Tuozhijia Information Technology Co.,Ltd.

TR01 Transfer of patent right