CN105208369A - 一种立体图像视觉舒适度增强方法 - Google Patents

一种立体图像视觉舒适度增强方法 Download PDF

Info

Publication number
CN105208369A
CN105208369A CN201510612766.XA CN201510612766A CN105208369A CN 105208369 A CN105208369 A CN 105208369A CN 201510612766 A CN201510612766 A CN 201510612766A CN 105208369 A CN105208369 A CN 105208369A
Authority
CN
China
Prior art keywords
mrow
msub
mfrac
coordinate position
math
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510612766.XA
Other languages
English (en)
Other versions
CN105208369B (zh
Inventor
邵枫
李祖团
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanhe Tianchen Xiamen Technology Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201510612766.XA priority Critical patent/CN105208369B/zh
Publication of CN105208369A publication Critical patent/CN105208369A/zh
Application granted granted Critical
Publication of CN105208369B publication Critical patent/CN105208369B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种立体图像视觉舒适度增强方法,其先分别计算左视点图像的相位一致性图、左视点图像的左视差图像的角视差图像的视差响应图、左视点图像的显著图;然后融合相位一致性图、视差响应图和显著图,得到左视点图像的视觉非舒适性图;接着根据左视点图像的视觉非舒适性图,确定零视差平面所在的坐标位置的汇聚平面值;再根据汇聚平面值调整左视点图像的左视差图像中的像素点的像素值;最后获得经调整后的右视点图像;优点是得到的视觉非舒适性图能较好地定量左视点图像的局部非舒适性程度,从而能较为精确地检测出左视点图像的零视差平面;汇聚平面改变了立体图像正视差与负视差的比重,能有效地提升观看者的视觉体验和增强视觉舒适性。

Description

一种立体图像视觉舒适度增强方法
技术领域
本发明涉及一种图像信号的处理方法,尤其是涉及一种立体图像视觉舒适度增强方法。
背景技术
随着立体视频显示技术和高质量立体视频内容获取技术的快速发展,立体视频的视觉体验质量(QoE,QualityofExperience)是立体视频系统设计中的一个重要问题,而视觉舒适度(VC,VisualComfort)是影响立体视频的视觉体验质量的重要因素。目前,对立体视频/立体图像的质量评价研究主要考虑了内容失真对于图像质量的影响,而很少考虑视觉舒适度等因素的影响。因此,为了提高观看者的视觉体验质量,研究立体视频/立体图像的视觉舒适度增强方法对3D内容制作和后期处理具有十分重要的指导作用。
与常规的平面图像相比,观看基于视差形成的立体图像具有较强的立体感和沉浸感,但是长时间观看立体图像会出现头疼、视觉疲劳、视力模糊甚至恶心等症状。过大的双目视差、人眼焦点调节与辐辏机制冲突通常被认为是引起视觉不舒适的主要原因。人眼的双眼融合机制为具有水平视差的左、右眼物像融合成具有立体感的单一清晰物像提供了生理保证,然而如果水平视差过大,则会导致物像落在Panum融合区域外,人眼将无法正常形成双眼单视性,长时间观看容易造成严重的视觉疲劳;此外,不同于自然观看条件下人眼焦点调节与辐辏机制的一致性(调节距离和辐辏距离都在观看屏幕上),在观看立体图像时,人眼焦点调节与辐辏机制会产生不同程度的冲突,同样会影响观看者的视觉体验质量。通过一定的措施,可以将视觉不舒适降低到可以承受的范围内。目前主要通过线性或非线性的视差重映射方法来调整(增强)立体图像的视觉舒适度,但这类方法会改变立体图像的视差范围,特别是当视差范围挤压过大时,会产生绘制重影。视差偏移是实现立体图像视觉舒适度调整(增强)的一种最简单的方法,但如何有效地表征立体图像视觉非舒适性区域、以及如何有效地对非舒适性进行调节,都是在对立体图像进行视觉舒适度增强过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种立体图像视觉舒适度增强方法,其能够有效地提升观看者的视觉体验和增强视觉舒适性。
本发明解决上述技术问题所采用的技术方案为:一种立体图像视觉舒适度增强方法,其特征在于包括以下步骤:
①将待处理的立体图像的左视点图像、右视点图像及左深度图像对应记为{IL(x,y)}、{IR(x,y)}及{DL(x,y)},其中,(x,y)表示待处理的立体图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W和H对应表示待处理的立体图像的宽度和高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,DL(x,y)表示{DL(x,y)}中坐标位置为(x,y)的像素点的像素值;
②计算{IL(x,y)}的相位一致性图,记为{f1(x,y)},其中,f1(x,y)表示{f1(x,y)}中坐标位置为(x,y)的像素点的像素值,f1(x,y)亦表示{IL(x,y)}中坐标位置为(x,y)的像素点的相位一致性特征;
③计算{IL(x,y)}的左视差图像,记为{dL(x,y)},其中,dL(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点的像素值;然后利用视差转换算法计算{dL(x,y)}的角视差图像,记为{φL(x,y)},其中,φL(x,y)表示{φL(x,y)}中坐标位置为(x,y)的像素点的像素值;再计算{φL(x,y)}的视差响应图,记为{f2(x,y)},其中,f2(x,y)表示{f2(x,y)}中坐标位置为(x,y)的像素点的像素值;
④将{IL(x,y)}分割成M个互不重叠的子块;然后通过计算{IL(x,y)}中的每个子块的特征对比度和空间紧密度,获取{IL(x,y)}中的每个子块的显著值,将{IL(x,y)}中的第h个子块的显著值记为Sh;再将{IL(x,y)}中的每个子块的显著值作为该子块中的所有像素点的显著值,从而得到{IL(x,y)}的显著图,记为{f3(x,y)};其中,M≥1,h的初始值为1,1≤h≤M,f3(x,y)表示{f3(x,y)}中坐标位置为(x,y)的像素点的像素值,f3(x,y)亦表示{IL(x,y)}中坐标位置为(x,y)的像素点的显著值;
⑤对{f1(x,y)}、{f2(x,y)}及{f3(x,y)}进行融合,得到{IL(x,y)}的视觉非舒适性图,记为{F(x,y)},将{F(x,y)}中坐标位置为(x,y)的像素点的像素值记为F(x,y),F(x,y)=f1(x,y)×f2(x,y)×f3(x,y);
⑥计算{IL(x,y)}中的零视差平面所在的坐标位置,记为xZDP x Z D P = arg max 1 ≤ x ≤ W , 1 ≤ y ≤ H F ( x , y ) , 其中,表示取使得F(x,y)的值最大的坐标值;
⑦计算xZDP的汇聚平面值,记为 z ( x Z D P ) = 1 D L ( x Z D P ) 255 × ( 1 z n e a r - 1 z f a r ) + 1 z f a r ; 然后计算{dL(x,y)}中的每个像素点经调整后的像素值,将{dL(x,y)}中坐标位置为x的像素点经调整后的像素值记为d(x), d ( x ) = f × L × ( 1 z ~ c - 1 z ( x ) ) , z ( x ) = 1 D L ( x ) 255 × ( 1 z n e a r - 1 z f a r ) + 1 z f a r ; 其中,f表示水平相机阵列中的各个相机的焦距,L表示待处理的立体图像的左视点与右视点之间的水平基线距离,dZDP表示{IL(x,y)}中的零视差平面所在的坐标位置xZDP的视差值,DL(xZDP)表示{DL(x,y)}中坐标位置为xZDP的像素点的像素值,DL(x)表示{DL(x,y)}中坐标位置为x的像素点的像素值,x∈Ω,Ω表示{DL(x,y)}中的所有像素点的坐标位置的集合,Znear表示最小的场景深度值,Zfar表示最大的场景深度值;
⑧计算经调整后的右视点图像,记为中坐标位置为(x,y)的像素点的像素值记为 I ~ R ( x , y ) = I L ( x + d ( x , y ) , y ) ; 然后将{IL(x,y)}和构成一幅新的立体图像;其中,IL(x+d(x,y),y)表示{IL(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值,d(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点经调整后的像素值。
所述的步骤②中的{f1(x,y)}的获取过程为:
②-1、对{IL(x,y)}进行滤波处理,得到{IL(x,y)}中的每个像素点在不同尺度因子和不同方向因子下的偶对称频率响应和奇对称频率响应,将{IL(x,y)}中坐标位置为(x,y)的像素点在尺度因子为α和方向因子为θ下的偶对称频率响应记为eα,θ(x,y),将{IL(x,y)}中坐标位置为(x,y)的像素点在尺度因子为α和方向因子为θ下的奇对称频率响应记为oα,θ(x,y),其中,α表示滤波处理所采用的滤波器的尺度因子,1≤α≤4,θ表示滤波处理所采用的滤波器的方向因子,1≤θ≤4;
②-2、根据{IL(x,y)}中的每个像素点在不同尺度因子和不同方向因子下的偶对称频率响应和奇对称频率响应,计算{IL(x,y)}中的每个像素点的相位一致性特征,将{IL(x,y)}中坐标位置为(x,y)的像素点的相位一致性特征记为f1(x,y), f 1 ( x , y ) = Σ θ = 1 4 E θ ( x , y ) Σ α = 1 4 Σ θ = 1 4 A α , θ ( x , y ) , 其中, E θ ( x , y ) = ( F θ ( x , y ) ) 2 + ( H θ ( x , y ) ) 2 , F θ ( x , y ) = Σ α = 1 4 e α , θ ( x , y ) , H θ ( x , y ) = Σ α = 1 4 o α , θ ( x , y ) , A α , θ ( x , y ) = ( e α , θ ( x , y ) ) 2 + ( o α , θ ( x , y ) ) 2 ;
②-3、根据{IL(x,y)}中的每个像素点的相位一致性特征,获得{IL(x,y)}的相位一致性图{f1(x,y)},其中,{f1(x,y)}中坐标位置为(x,y)的像素点的像素值为f1(x,y)。
所述的步骤③中其中,f表示水平相机阵列中的各个相机的焦距,L表示待处理的立体图像的左视点与右视点之间的水平基线距离,zc为待处理的立体图像的汇聚平面值。
所述的步骤③中 f 2 ( x , y ) = 1 - V C ( φ L ( x , y ) ) max 1 ≤ x ≤ W , 1 ≤ y ≤ H ( V C ( φ L ( x , y ) ) ) , 其中,max()为取最大值函数。
所述的步骤④中的子块的尺寸大小为8×8,
所述的步骤④中的Sh的具体过程为:
④-1、将{IL(x,y)}从RGB颜色空间转换到YUV颜色空间,得到{IL(x,y)}的亮度分量图、第一色度分量图和第二色度分量图,对应记为{YL(x,y)}、{UL(x,y)}和{VL(x,y)},其中,YL(x,y)表示{YL(x,y)}中坐标位置为(x,y)的像素点的像素值,UL(x,y)表示{UL(x,y)}中坐标位置为(x,y)的像素点的像素值,VL(x,y)表示{VL(x,y)}中坐标位置为(x,y)的像素点的像素值;
④-2、对{YL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{YL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数构成{IL(x,y)}中的第h个子块的亮度特征向量,记为的维数为1;并将经Z字形扫描后的前9个AC系数构成{IL(x,y)}中的第h个子块的纹理特征向量,记为的维数为9;其中,1≤u≤8,1≤v≤8,表示中坐标位置为(u,v)的DCT系数;
④-3、对{UL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{UL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为并对{VL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{VL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数及中的DC系数构成{IL(x,y)}中的第h个子块的颜色特征向量,记为的维数为2;其中,表示中坐标位置为(u,v)的DCT系数,表示中坐标位置为(u,v)的DCT系数;
④-4、对{DL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{DL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数构成{IL(x,y)}中的第h个子块的深度特征向量,记为的维数为1;其中,表示中坐标位置为(u,v)的DCT系数;
④-5、获取{IL(x,y)}中的第h个子块的通用特征向量,记为fh其中,fh的维数为13,此处符号“[]”为矢量表示符号;
④-6、计算{IL(x,y)}中的第h个子块的特征对比度和空间紧密度,对应记为FCh和SCh FC h = Σ q = 1 M ( exp ( - | | x h - x q | | 2 / 2 σ p 2 ) × | | f h - f q | | 2 ) , SC h = Σ q = 1 M ( exp ( - | | f h - f q | | 2 / 2 σ p 2 ) × | | x q - u h | | 2 ) , 其中,q为正整数,1≤q≤M,exp()表示以自然基数e为底的指数函数,符号“||||”为求欧式距离符号,fq表示{IL(x,y)}中的第q个子块的通用特征向量,σp表示高斯函数的标准差,xh表示{IL(x,y)}中的第h个子块中的中心像素点的坐标位置,xq表示{IL(x,y)}中的第q个子块中的中心像素点的坐标位置,σc表示高斯函数的标准差, u h = Σ q = 1 M x q · exp ( - | | f h - f q | | 2 / 2 σ c 2 ) Σ q = 1 M exp ( - | | f h - f q | | 2 / 2 σ c 2 ) ;
④-7、计算{IL(x,y)}中的第h个子块的显著值Sh,Sh=FCh×SCh
与现有技术相比,本发明的优点在于:
1)本发明方法分别计算左视点图像的相位一致性图、左视点图像的左视差图像的角视差图像的视差响应图、左视点图像的显著图,然后融合得到左视点图像的视觉非舒适性图,得到的视觉非舒适性图能够较好地定量左视点图像的局部非舒适性程度,从而能够较为精确地检测出左视点图像的零视差平面。
2)本发明方法将非舒适性程度最高的坐标位置作为零视差平面,并将汇聚平面调整到零视差平面,得到每个像素点经调整后的视差值,由于汇聚平面改变了立体图像正视差与负视差的比重,因此有效地提升了观看者的视觉体验和增强了视觉舒适性。
附图说明
图1为本发明方法的总体实现框图;
图2a为“Balloons”的原始立体图像的“红/绿”图;
图2b为“Balloons”的左视点图像的相位一致性图;
图2c为“Balloons”的左视点图像的左视差图像的角视差图像的视差响应图;
图2d为“Balloons”的左视点图像的显著图;
图2e为“Balloons”的左视点图像的视觉非舒适性图;
图2f为“Balloons”的经调整后立体图像的“红/绿”图;
图3a为“Kendo”的原始立体图像的“红/绿”图;
图3b为“Kendo”的左视点图像的相位一致性图;
图3c为“Kendo”的左视点图像的左视差图像的角视差图像的视差响应图;
图3d为“Kendo”的左视点图像的显著图;
图3e为“Kendo”的左视点图像的视觉非舒适性图;
图3f为“Kendo”的经调整后立体图像的“红/绿”图;
图4a为“PoznanStreet”的原始立体图像的“红/绿”图;
图4b为“PoznanStreet”的左视点图像的相位一致性图;
图4c为“PoznanStreet”的左视点图像的左视差图像的角视差图像的视差响应图;
图4d为“PoznanStreet”的左视点图像的显著图;
图4e为“PoznanStreet”的左视点图像的视觉非舒适性图;
图4f为“PoznanStreet”的经调整后立体图像的“红/绿”图;
图5a为“UndoDance”的原始立体图像的“红/绿”图;
图5b为“UndoDance”的左视点图像的相位一致性图;
图5c为“UndoDance”的左视点图像的左视差图像的角视差图像的视差响应图;
图5d为“UndoDance”的左视点图像的显著图;
图5e为“UndoDance”的左视点图像的视觉非舒适性图;
图5f为“UndoDance”的经调整后立体图像的“红/绿”图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体图像视觉舒适度增强方法,其总体实现框图如图1所示,其包括以下步骤:
①将待处理的立体图像的左视点图像、右视点图像及左深度图像对应记为{IL(x,y)}、{IR(x,y)}及{DL(x,y)},其中,(x,y)表示待处理的立体图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W和H对应表示待处理的立体图像的宽度和高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,DL(x,y)表示{DL(x,y)}中坐标位置为(x,y)的像素点的像素值。
②由于立体图像的空间频率会影响双目融合极限,立体图像的空间频率越低,双目的融合极限就越高,观看的视觉舒适度就越高,因此本发明方法计算{IL(x,y)}的相位一致性图,记为{f1(x,y)},其中,f1(x,y)表示{f1(x,y)}中坐标位置为(x,y)的像素点的像素值,f1(x,y)亦表示{IL(x,y)}中坐标位置为(x,y)的像素点的相位一致性特征。
在此具体实施例中,步骤②中的{f1(x,y)}的获取过程为:
②-1、采用现有的log-Garbor滤波器对{IL(x,y)}进行滤波处理,得到{IL(x,y)}中的每个像素点在不同尺度因子和不同方向因子下的偶对称频率响应和奇对称频率响应,将{IL(x,y)}中坐标位置为(x,y)的像素点在尺度因子为α和方向因子为θ下的偶对称频率响应记为eα,θ(x,y),将{IL(x,y)}中坐标位置为(x,y)的像素点在尺度因子为α和方向因子为θ下的奇对称频率响应记为oα,θ(x,y),其中,α表示滤波处理所采用的滤波器的尺度因子,1≤α≤4,θ表示滤波处理所采用的滤波器的方向因子,1≤θ≤4。
②-2、根据{IL(x,y)}中的每个像素点在不同尺度因子和不同方向因子下的偶对称频率响应和奇对称频率响应,计算{IL(x,y)}中的每个像素点的相位一致性特征,将{IL(x,y)}中坐标位置为(x,y)的像素点的相位一致性特征记为f1(x,y), f 1 ( x , y ) = Σ θ = 1 4 E θ ( x , y ) Σ α = 1 4 Σ θ = 1 4 A α , θ ( x , y ) , 其中, E θ ( x , y ) = ( F θ ( x , y ) ) 2 + ( H θ ( x , y ) ) 2 , F θ ( x , y ) = Σ α = 1 4 e α , θ ( x , y ) , H θ ( x , y ) = Σ α = 1 4 o α , θ ( x , y ) , A α , θ ( x , y ) = ( e α , θ ( x , y ) ) 2 + ( o α , θ ( x , y ) ) 2 .
②-3、根据{IL(x,y)}中的每个像素点的相位一致性特征,获得{IL(x,y)}的相位一致性图{f1(x,y)},其中,{f1(x,y)}中坐标位置为(x,y)的像素点的像素值为f1(x,y)。
③计算{IL(x,y)}的左视差图像,记为{dL(x,y)},其中,dL(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点的像素值;然后利用现有的视差转换算法计算{dL(x,y)}的角视差图像,记为{φL(x,y)},其中,φL(x,y)表示{φL(x,y)}中坐标位置为(x,y)的像素点的像素值;由于过大的视差会导致双眼焦点调节和辐辏的严重冲突,进而引起视觉不舒适,因此本发明方法再计算{φL(x,y)}的视差响应图,记为{f2(x,y)},其中,f2(x,y)表示{f2(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤③中其中,f表示水平相机阵列中的各个相机的焦距,L表示待处理的立体图像的左视点与右视点之间的水平基线距离,zc为待处理的立体图像的汇聚平面值。在本实施例中,f,L和zc的值根据具体的测试序列确定。
在此具体实施例中,步骤③中 f 2 ( x , y ) = 1 - V C ( φ L ( x , y ) ) max 1 ≤ x ≤ W , 1 ≤ y ≤ H ( V C ( φ L ( x , y ) ) ) , 其中,max()为取最大值函数。
④根据人眼立体视觉注意力特性,人眼只对部分视觉重要区域的视觉舒适/不舒适比较敏感,因此本发明方法将{IL(x,y)}分割成M个互不重叠的子块;然后通过计算{IL(x,y)}中的每个子块的特征对比度和空间紧密度,获取{IL(x,y)}中的每个子块的显著值,将{IL(x,y)}中的第h个子块的显著值记为Sh;再将{IL(x,y)}中的每个子块的显著值作为该子块中的所有像素点的显著值,对于{IL(x,y)}中的第h个子块,将Sh作为{IL(x,y)}中的第h个子块中的所有像素点的显著值,从而得到{IL(x,y)}的显著图,记为{f3(x,y)};其中,M≥1,h的初始值为1,1≤h≤M,f3(x,y)表示{f3(x,y)}中坐标位置为(x,y)的像素点的像素值,f3(x,y)亦表示{IL(x,y)}中坐标位置为(x,y)的像素点的显著值。
在此具体实施例中,步骤④中的子块的尺寸大小为8×8,步骤④中的Sh的具体过程为:
④-1、将{IL(x,y)}从RGB颜色空间转换到YUV颜色空间,得到{IL(x,y)}的亮度分量图、第一色度分量图和第二色度分量图,对应记为{YL(x,y)}、{UL(x,y)}和{VL(x,y)},其中,YL(x,y)表示{YL(x,y)}中坐标位置为(x,y)的像素点的像素值,UL(x,y)表示{UL(x,y)}中坐标位置为(x,y)的像素点的像素值,VL(x,y)表示{VL(x,y)}中坐标位置为(x,y)的像素点的像素值。
④-2、对{YL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{YL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数构成{IL(x,y)}中的第h个子块的亮度特征向量,记为的维数为1;并将经Z字形扫描后的前9个AC系数构成{IL(x,y)}中的第h个子块的纹理特征向量,记为的维数为9;其中,1≤u≤8,1≤v≤8,表示中坐标位置为(u,v)的DCT系数。
④-3、对{UL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{UL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为并对{VL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{VL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数及中的DC系数构成{IL(x,y)}中的第h个子块的颜色特征向量,记为的维数为2;其中,表示中坐标位置为(u,v)的DCT系数,表示中坐标位置为(u,v)的DCT系数。
④-4、对{DL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{DL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数构成{IL(x,y)}中的第h个子块的深度特征向量,记为的维数为1;其中,表示中坐标位置为(u,v)的DCT系数。
④-5、获取{IL(x,y)}中的第h个子块的通用特征向量,记为fh其中,fh的维数为13,此处符号“[]”为矢量表示符号。
④-6、计算{IL(x,y)}中的第h个子块的特征对比度和空间紧密度,对应记为FCh和SCh FC h = Σ q = 1 M ( exp ( - | | x h - x q | | 2 / 2 σ p 2 ) × | | f h - f q | | 2 ) , SC h = Σ q = 1 M ( exp ( - | | f h - f q | | 2 / 2 σ p 2 ) × | | x q - u h | | 2 ) , 其中,q为正整数,1≤q≤M,exp()表示以自然基数e为底的指数函数,符号“||||”为求欧式距离符号,fq表示{IL(x,y)}中的第q个子块的通用特征向量,σp表示高斯函数的标准差,在本实施例中取σp=0.4,xh表示{IL(x,y)}中的第h个子块中的中心像素点的坐标位置,xq表示{IL(x,y)}中的第q个子块中的中心像素点的坐标位置,σc表示高斯函数的标准差,在本实施例中取σc=0.9, u h = Σ q = 1 M x q · exp ( - | | f h - f q | | 2 / 2 σ c 2 ) Σ q = 1 M exp ( - | | f h - f q | | 2 / 2 σ c 2 ) .
④-7、计算{IL(x,y)}中的第h个子块的显著值Sh,Sh=FCh×SCh
⑤对{f1(x,y)}、{f2(x,y)}及{f3(x,y)}进行融合,得到{IL(x,y)}的视觉非舒适性图,记为{F(x,y)},将{F(x,y)}中坐标位置为(x,y)的像素点的像素值记为F(x,y),F(x,y)=f1(x,y)×f2(x,y)×f3(x,y)。
⑥计算{IL(x,y)}中的零视差平面所在的坐标位置,记为xZDP x Z D P = arg max 1 ≤ x ≤ W , 1 ≤ y ≤ H F ( x , y ) , 其中,表示取使得F(x,y)的值最大的坐标值。
⑦计算xZDP的汇聚平面值,记为 z ( x Z D P ) = 1 D L ( x Z D P ) 255 × ( 1 z n e a r - 1 z f a r ) + 1 z f a r ; 然后计算{dL(x,y)}中的每个像素点经调整后的像素值,将{dL(x,y)}中坐标位置为x的像素点经调整后的像素值记为d(x), d ( x ) = f × L × ( 1 z ~ c - 1 z ( x ) ) , z ( x ) = 1 D L ( x ) 255 × ( 1 z n e a r - 1 z f a r ) + 1 z f a r ; 其中,f表示水平相机阵列中的各个相机的焦距,L表示待处理的立体图像的左视点与右视点之间的水平基线距离,dZDP表示{IL(x,y)}中的零视差平面所在的坐标位置xZDP的视差值,DL(xZDP)表示{DL(x,y)}中坐标位置为xZDP的像素点的像素值,DL(x)表示{DL(x,y)}中坐标位置为x的像素点的像素值,x∈Ω,Ω表示{DL(x,y)}中的所有像素点的坐标位置的集合,Znear表示最小的场景深度值,Zfar表示最大的场景深度值。在本实施例中,取dZDP=0,f、L、Znear和Zfar的值根据具体的测试序列确定。
⑧计算经调整后的右视点图像,记为中坐标位置为(x,y)的像素点的像素值记为 I ~ R ( x , y ) = I L ( x + d ( x , y ) , y ) ; 然后将{IL(x,y)}和构成一幅新的立体图像;其中,IL(x+d(x,y),y)表示{IL(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值,d(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点经调整后的像素值。
以下就利用本发明方法分别对“Balloons”、“Kendo”、“PoznanStreet”和“UndoDance”三维立体视频测试序列中的两个视点进行舒适度调整。在本实施例中,取“Balloons”、“Kendo”三维立体视频测试序列的第1个和第2个视点分别作为立体图像的左视点和右视点,取“PoznanStreet”三维立体视频测试序列的第5个和第4个视点分别作为立体图像的左视点和右视点,取“UndoDance”的三维立体视频测试序列的第1个和第5个视点分别作为立体图像的左视点和右视点。
在本实施例中,“Balloons”三维立体视频测试序列的f、Znear和Zfar分别为2241.25607、448.251214和11206.280350;“Kendo”三维立体视频测试序列的f、Znear和Zfar分别为448.251214、11206.280350和2241.25607;“PoznanStreet”三维立体视频测试序列的f、Znear和Zfar分别为1732.875727、-34.506386和-2760.510889;“UndoDance”三维立体视频测试序列的f、Znear和Zfar分别为2302.852541609168、2289和213500。未处理的“Balloons”、“Kendo”、“PoznanStreet”和“UndoDance”三维立体视频测试序列的汇聚平面落在无穷远处,
图2a给出了“Balloons”的原始立体图像的“红/绿”图、图2b给出了“Balloons”的左视点图像的相位一致性图、图2c给出了“Balloons”的左视点图像的左视差图像的角视差图像的视差响应图、图2d给出了“Balloons”的左视点图像的显著图、图2e给出了“Balloons”的左视点图像的视觉非舒适性图、图2f给出了“Balloons”的经调整后立体图像的“红/绿”图;图3a给出了“Kendo”的原始立体图像的“红/绿”图、图3b给出了“Kendo”的左视点图像的相位一致性图、图3c给出了“Kendo”的左视点图像的左视差图像的角视差图像的视差响应图、图3d给出了“Kendo”的左视点图像的显著图、图3e给出了“Kendo”的左视点图像的视觉非舒适性图、图3f给出了“Kendo”的经调整后立体图像的“红/绿”图;图4a给出了“PoznanStreet”的原始立体图像的“红/绿”图、图4b给出了“PoznanStreet”的左视点图像的相位一致性图、图4c给出了“PoznanStreet”的左视点图像的左视差图像的角视差图像的视差响应图、图4d给出了“PoznanStreet”的左视点图像的显著图、图4e给出了“PoznanStreet”的左视点图像的视觉非舒适性图、图4f给出了“PoznanStreet”的经调整后立体图像的“红/绿”图;图5a给出了“UndoDance”的原始立体图像的“红/绿”图、图5b给出了“UndoDance”的左视点图像的相位一致性图、图5c给出了“UndoDance”的左视点图像的左视差图像的角视差图像的视差响应图、图5d给出了“UndoDance”的左视点图像的显著图、图5e给出了“UndoDance”的左视点图像的视觉非舒适性图、图5f给出了“UndoDance”的经调整后立体图像的“红/绿”图。从图2a至图5f中可以看出,采用本发明方法得到的经调整后的立体图像,由于调整了正视差和负视差的范围,因此明显提升了观看者的视觉体验和增强了视觉舒适性。

Claims (5)

1.一种立体图像视觉舒适度增强方法,其特征在于包括以下步骤:
①将待处理的立体图像的左视点图像、右视点图像及左深度图像对应记为{IL(x,y)}、{IR(x,y)}及{DL(x,y)},其中,(x,y)表示待处理的立体图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W和H对应表示待处理的立体图像的宽度和高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,DL(x,y)表示{DL(x,y)}中坐标位置为(x,y)的像素点的像素值;
②计算{IL(x,y)}的相位一致性图,记为{f1(x,y)},其中,f1(x,y)表示{f1(x,y)}中坐标位置为(x,y)的像素点的像素值,f1(x,y)亦表示{IL(x,y)}中坐标位置为(x,y)的像素点的相位一致性特征;
③计算{IL(x,y)}的左视差图像,记为{dL(x,y)},其中,dL(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点的像素值;然后利用视差转换算法计算{dL(x,y)}的角视差图像,记为{φL(x,y)},其中,φL(x,y)表示{φL(x,y)}中坐标位置为(x,y)的像素点的像素值;再计算{φL(x,y)}的视差响应图,记为{f2(x,y)},其中,f2(x,y)表示{f2(x,y)}中坐标位置为(x,y)的像素点的像素值;
④将{IL(x,y)}分割成M个互不重叠的子块;然后通过计算{IL(x,y)}中的每个子块的特征对比度和空间紧密度,获取{IL(x,y)}中的每个子块的显著值,将{IL(x,y)}中的第h个子块的显著值记为Sh;再将{IL(x,y)}中的每个子块的显著值作为该子块中的所有像素点的显著值,从而得到{IL(x,y)}的显著图,记为{f3(x,y)};其中,M≥1,h的初始值为1,1≤h≤M,f3(x,y)表示{f3(x,y)}中坐标位置为(x,y)的像素点的像素值,f3(x,y)亦表示{IL(x,y)}中坐标位置为(x,y)的像素点的显著值;
⑤对{f1(x,y)}、{f2(x,y)}及{f3(x,y)}进行融合,得到{IL(x,y)}的视觉非舒适性图,记为{F(x,y)},将{F(x,y)}中坐标位置为(x,y)的像素点的像素值记为F(x,y),F(x,y)=f1(x,y)×f2(x,y)×f3(x,y);
⑥计算{IL(x,y)}中的零视差平面所在的坐标位置,记为xZDP x Z D P = arg max 1 ≤ x ≤ W , 1 ≤ y ≤ H F ( x , y ) , 其中, arg max 1 ≤ x ≤ W , 1 ≤ y ≤ H F ( x , y ) 表示取使得F(x,y)的值最大的坐标值;
⑦计算xZDP的汇聚平面值,记为 z ( x Z D P ) = 1 D L ( x Z D P ) 255 × ( 1 z n e a r - 1 z f a r ) + 1 z f a r ; 然后计算{dL(x,y)}中的每个像素点经调整后的像素值,将{dL(x,y)}中坐标位置为x的像素点经调整后的像素值记为d(x), d ( x ) = f × L × ( 1 z ~ c - 1 z ( x ) ) , z ( x ) = 1 D L ( x ) 255 × ( 1 z n e a r - 1 z f a r ) + 1 z f a r ; 其中,f表示水平相机阵列中的各个相机的焦距,L表示待处理的立体图像的左视点与右视点之间的水平基线距离,dZDP表示{IL(x,y)}中的零视差平面所在的坐标位置xZDP的视差值,DL(xZDP)表示{DL(x,y)}中坐标位置为xZDP的像素点的像素值,DL(x)表示{DL(x,y)}中坐标位置为x的像素点的像素值,x∈Ω,Ω表示{DL(x,y)}中的所有像素点的坐标位置的集合,Znear表示最小的场景深度值,Zfar表示最大的场景深度值;
⑧计算经调整后的右视点图像,记为中坐标位置为(x,y)的像素点的像素值记为 然后将{IL(x,y)}和构成一幅新的立体图像;其中,IL(x+d(x,y),y)表示{IL(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值,d(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点经调整后的像素值。
2.根据权利要求1所述的一种立体图像视觉舒适度增强方法,其特征在于所述的步骤②中的{f1(x,y)}的获取过程为:
②-1、对{IL(x,y)}进行滤波处理,得到{IL(x,y)}中的每个像素点在不同尺度因子和不同方向因子下的偶对称频率响应和奇对称频率响应,将{IL(x,y)}中坐标位置为(x,y)的像素点在尺度因子为α和方向因子为θ下的偶对称频率响应记为eα,θ(x,y),将{IL(x,y)}中坐标位置为(x,y)的像素点在尺度因子为α和方向因子为θ下的奇对称频率响应记为oα,θ(x,y),其中,α表示滤波处理所采用的滤波器的尺度因子,1≤α≤4,θ表示滤波处理所采用的滤波器的方向因子,1≤θ≤4;
②-2、根据{IL(x,y)}中的每个像素点在不同尺度因子和不同方向因子下的偶对称频率响应和奇对称频率响应,计算{IL(x,y)}中的每个像素点的相位一致性特征,将{IL(x,y)}中坐标位置为(x,y)的像素点的相位一致性特征记为f1(x,y), f 1 ( x , y ) = Σ θ = 1 4 E θ ( x , y ) Σ α = 1 4 Σ θ = 1 4 A α , θ ( x , y ) , 其中, E θ ( x , y ) = ( F θ ( x , y ) ) 2 + ( H θ ( x , y ) ) 2 , F θ ( x , y ) = Σ α = 1 4 e α , θ ( x , y ) , H θ ( x , y ) = Σ α = 1 4 o α , θ ( x , y ) , A α , θ ( x , y ) = ( e α , θ ( x , y ) ) 2 + ( o α , θ ( x , y ) ) 2 ;
②-3、根据{IL(x,y)}中的每个像素点的相位一致性特征,获得{IL(x,y)}的相位一致性图{f1(x,y)},其中,{f1(x,y)}中坐标位置为(x,y)的像素点的像素值为f1(x,y)。
3.根据权利要求1或2所述的一种立体图像视觉舒适度增强方法,其特征在于所述的步骤③中其中,f表示水平相机阵列中的各个相机的焦距,L表示待处理的立体图像的左视点与右视点之间的水平基线距离,zc为待处理的立体图像的汇聚平面值。
4.根据权利要求3所述的一种立体图像视觉舒适度增强方法,其特征在于所述的步骤③中 f 2 ( x , y ) = 1 - V C ( φ L ( x , y ) ) max 1 ≤ x ≤ W , 1 ≤ y ≤ H ( V C ( φ L ( x , y ) ) ) , 其中,max()为取最大值函数。
5.根据权利要求1或2所述的一种立体图像视觉舒适度增强方法,其特征在于所述的步骤④中的子块的尺寸大小为8×8,
所述的步骤④中的Sh的具体过程为:
④-1、将{IL(x,y)}从RGB颜色空间转换到YUV颜色空间,得到{IL(x,y)}的亮度分量图、第一色度分量图和第二色度分量图,对应记为{YL(x,y)}、{UL(x,y)}和{VL(x,y)},其中,YL(x,y)表示{YL(x,y)}中坐标位置为(x,y)的像素点的像素值,UL(x,y)表示{UL(x,y)}中坐标位置为(x,y)的像素点的像素值,VL(x,y)表示{VL(x,y)}中坐标位置为(x,y)的像素点的像素值;
④-2、对{YL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{YL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数构成{IL(x,y)}中的第h个子块的亮度特征向量,记为的维数为1;并将经Z字形扫描后的前9个AC系数构成{IL(x,y)}中的第h个子块的纹理特征向量,记为的维数为9;其中,1≤u≤8,1≤v≤8,表示中坐标位置为(u,v)的DCT系数;
④-3、对{UL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{UL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为并对{VL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{VL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数及中的DC系数构成{IL(x,y)}中的第h个子块的颜色特征向量,记为的维数为2;其中,表示中坐标位置为(u,v)的DCT系数,表示中坐标位置为(u,v)的DCT系数;
④-4、对{DL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域进行DCT变换,得到{DL(x,y)}中与{IL(x,y)}中的第h个子块相对应的尺寸大小为8×8的区域的DCT系数矩阵,记为然后将中的DC系数构成{IL(x,y)}中的第h个子块的深度特征向量,记为的维数为1;其中,表示中坐标位置为(u,v)的DCT系数;
④-5、获取{IL(x,y)}中的第h个子块的通用特征向量,记为fh其中,fh的维数为13,此处符号“[]”为矢量表示符号;
④-6、计算{IL(x,y)}中的第h个子块的特征对比度和空间紧密度,对应记为FCh和SCh FC h = Σ q = 1 M ( exp ( - | | x h - x q | | 2 / 2 σ p 2 ) × | | f h - f q | | 2 ) , SC h = Σ q = 1 M ( exp ( - | | f h - f q | | 2 / 2 σ c 2 ) × | | x q - u h | | 2 ) , 其中,q为正整数,1≤q≤M,exp()表示以自然基数e为底的指数函数,符号“||||”为求欧式距离符号,fq表示{IL(x,y)}中的第q个子块的通用特征向量,σp表示高斯函数的标准差,xh表示{IL(x,y)}中的第h个子块中的中心像素点的坐标位置,xq表示{IL(x,y)}中的第q个子块中的中心像素点的坐标位置,σc表示高斯函数的标准差, u h = Σ q = 1 M x q · exp ( - | | f h - f q | | 2 / 2 σ c 2 ) Σ q = 1 M exp ( - | | f h - f q | | 2 / 2 σ c 2 ) ;
④-7、计算{IL(x,y)}中的第h个子块的显著值Sh,Sh=FCh×SCh
CN201510612766.XA 2015-09-23 2015-09-23 一种立体图像视觉舒适度增强方法 Active CN105208369B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510612766.XA CN105208369B (zh) 2015-09-23 2015-09-23 一种立体图像视觉舒适度增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510612766.XA CN105208369B (zh) 2015-09-23 2015-09-23 一种立体图像视觉舒适度增强方法

Publications (2)

Publication Number Publication Date
CN105208369A true CN105208369A (zh) 2015-12-30
CN105208369B CN105208369B (zh) 2017-01-25

Family

ID=54955763

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510612766.XA Active CN105208369B (zh) 2015-09-23 2015-09-23 一种立体图像视觉舒适度增强方法

Country Status (1)

Country Link
CN (1) CN105208369B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109510981A (zh) * 2019-01-23 2019-03-22 杭州电子科技大学 一种基于多尺度dct变换的立体图像舒适度预测方法
CN111405264A (zh) * 2020-01-20 2020-07-10 杭州电子科技大学 一种基于深度调整的3d视频舒适度改善方法
CN117615112A (zh) * 2023-10-11 2024-02-27 浙江华诺康科技有限公司 一种立体舒适度调整方法、装置、设备和可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096125A (zh) * 2013-02-22 2013-05-08 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
KR20140001358A (ko) * 2012-06-26 2014-01-07 한국전자통신연구원 차폐 영역 필터링 기반 영상 처리 방법
CN104469355A (zh) * 2014-12-11 2015-03-25 西安电子科技大学 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
CN104883577A (zh) * 2015-05-26 2015-09-02 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140001358A (ko) * 2012-06-26 2014-01-07 한국전자통신연구원 차폐 영역 필터링 기반 영상 처리 방법
CN103096125A (zh) * 2013-02-22 2013-05-08 吉林大学 基于区域分割的立体视频视觉舒适度评价方法
CN104469355A (zh) * 2014-12-11 2015-03-25 西安电子科技大学 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法
CN104883577A (zh) * 2015-05-26 2015-09-02 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WUJIE ZHOU ET AL: "PMFS: A Perceptual Modulated Feature Similarity Metric for Stereoscopic Image Quality Assessment", 《IEEE SIGNAL PROCESSING LETTERS》 *
姜求平等: "基于视觉重要区域的立体图像视觉舒适度客观评价方法", 《电子信息学报》 *
邵枫等: "基于显著性分析的立体图像视觉舒适度预测", 《光学精密工程》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109510981A (zh) * 2019-01-23 2019-03-22 杭州电子科技大学 一种基于多尺度dct变换的立体图像舒适度预测方法
CN111405264A (zh) * 2020-01-20 2020-07-10 杭州电子科技大学 一种基于深度调整的3d视频舒适度改善方法
CN111405264B (zh) * 2020-01-20 2022-04-12 杭州电子科技大学 一种基于深度调整的3d视频舒适度改善方法
CN117615112A (zh) * 2023-10-11 2024-02-27 浙江华诺康科技有限公司 一种立体舒适度调整方法、装置、设备和可读存储介质
CN117615112B (zh) * 2023-10-11 2024-08-20 浙江华诺康科技有限公司 一种立体舒适度调整方法、装置、设备和可读存储介质

Also Published As

Publication number Publication date
CN105208369B (zh) 2017-01-25

Similar Documents

Publication Publication Date Title
US9525858B2 (en) Depth or disparity map upscaling
EP2532166B1 (en) Method, apparatus and computer program for selecting a stereoscopic imaging viewpoint pair
US20120163701A1 (en) Image processing device, image processing method, and program
EP2323416A2 (en) Stereoscopic editing for video production, post-production and display adaptation
WO2011052389A1 (ja) 画像処理装置及び画像処理方法
US20140327736A1 (en) External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US20120293489A1 (en) Nonlinear depth remapping system and method thereof
CN102186023B (zh) 一种双目立体字幕处理方法
US9172939B2 (en) System and method for adjusting perceived depth of stereoscopic images
WO2013109252A1 (en) Generating an image for another view
CN104506872B (zh) 一种平面视频转立体视频的方法及装置
CN102447939A (zh) 一种影视作品2d转3d的优化方法
CN105208369B (zh) 一种立体图像视觉舒适度增强方法
TW201445977A (zh) 影像處理方法及影像處理系統
CN101662695B (zh) 一种获取虚拟视图的方法和装置
US9019344B2 (en) Apparatus and method for adjusting the perceived depth of 3D visual content
TWI532363B (zh) Improved naked eye 3D display crosstalk method and naked eye 3D display
CN116567191A (zh) 一种面向舒适度提升的立体视觉内容视差调节方法
JP2015012429A (ja) 画像処理装置、画像処理方法および画像処理プログラム
Lu et al. Foreground-object-protected depth map smoothing for DIBR
JP2014042238A (ja) 3dビジュアルコンテントのデプスベースイメージスケーリング用の装置及び方法
WO2013047007A1 (ja) 視差量調整装置およびその動作制御方法
TWI436636B (zh) 三維視訊影像調整方法及裝置
CN109345444A (zh) 深度感知增强的超分辨率立体图像构建方法
Mangiat et al. Disparity remapping for handheld 3D video communications

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191213

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230412

Address after: Room 1901, No.1 Xishanwei Road, Software Park Phase III, Xiamen City, Fujian Province, 361000

Patentee after: Hanhe Tianchen (Xiamen) Technology Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right