CN106778772B - 一种立体图像视觉显著提取方法 - Google Patents
一种立体图像视觉显著提取方法 Download PDFInfo
- Publication number
- CN106778772B CN106778772B CN201611046553.6A CN201611046553A CN106778772B CN 106778772 B CN106778772 B CN 106778772B CN 201611046553 A CN201611046553 A CN 201611046553A CN 106778772 B CN106778772 B CN 106778772B
- Authority
- CN
- China
- Prior art keywords
- lab
- pixel
- log
- rgb
- saliency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种立体图像视觉显著提取方法,其首先获取立体图像的左视点图像的L通道图、a通道图和b通道图,并获取立体图像的深度图像变换到区间[0,255]的图像;然后对L通道图、a通道图和b通道图及变换后的深度图像实施log‑Gabor低通滤波,得到各自的低通滤波特征图;接着根据四幅低通滤波特征图获取左视点视觉显著图;再获取立体图像的中心偏好图;最后融合左视点视觉显著图和中心偏好图得到立体图像的视觉显著图;优点是符合显著语义特征,且具有较强的提取稳定性和较高的提取准确性。
Description
技术领域
本发明涉及一种图像信号的处理方法,尤其是涉及一种立体图像视觉显著提取方法。
背景技术
在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,因此在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。而随着立体视频显示技术和高质量立体视频内容获取技术的快速发展,针对立体图像/视频的显著区域检测及建模也是一个非常重要的研究内容。
然而,立体图像并不是平面图像的简单空间拓展,因此人眼感知立体图像产生立体视觉的过程也不是简单的左视点图像和右视点图像叠加的过程,因此,立体视觉特征(例如:三维视觉注意力)并不是平面视觉特性的简单拓展。然而,现有的立体图像显著图提取方法还停留在平面图像显著提取方法的简单拓展上。因此,如何从立体图像中有效地提取出立体视觉特征、如何使得提取出的立体视觉特征符合人眼三维观看行为都是在对立体图像进行视觉显著图提取过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种立体图像视觉显著提取方法,其符合显著语义特征,且具有较强的提取稳定性和较高的提取准确性。
本发明解决上述技术问题所采用的技术方案为:一种立体图像视觉显著提取方法,其特征在于包括以下步骤:
①令SRGB表示待提取视觉显著的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的深度图像记为{D(x,y)},其中,1≤x≤W,1≤y≤H,W表示SRGB的宽度,H表示SRGB的高度,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,D(x,y)表示{D(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用颜色空间变换方法,将{LRGB(x,y)}从RGB颜色空间变换到Lab颜色空间,得到{LRGB(x,y)}对应的L通道图、a通道图和b通道图,对应记为{LLab,L(x,y)}、{LLab,a(x,y)}和{LLab,b(x,y)},其中,LLab,L(x,y)表示{LLab,L(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a(x,y)表示{LLab,a(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b(x,y)表示{LLab,b(x,y)}中坐标位置为(x,y)的像素点的像素值;
③将{D(x,y)}的像素值范围变换到区间[0,255],将变换得到的图像记为{D0,255(x,y)},其中,D0,255(x,y)表示{D0,255(x,y)}中坐标位置为(x,y)的像素点的像素值;
④分别对{LLab,L(x,y)}、{LLab,a(x,y)}、{LLab,b(x,y)}和{D0,255(x,y)}实施log-Gabor低通滤波,对应得到{LLab,L(x,y)}的低通滤波特征图、{LLab,a(x,y)}的低通滤波特征图、{LLab,b(x,y)}的低通滤波特征图和{D0,255(x,y)}的低通滤波特征图,对应记为{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},其中,LLab,L,log(x,y)表示{LLab,L,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a,log(x,y)表示{LLab,a,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b,log(x,y)表示{LLab,b,log(x,y)}中坐标位置为(x,y)的像素点的像素值,D0,255,log(x,y)表示{D0,255,log(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤根据{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},获取左视点视觉显著图,记为{Lsaliency(x,y)},将{Lsaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Lsaliency(x,y),
⑥获取SRGB的中心偏好图,记为{Csaliency(x,y)},将{Csaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Csaliency(x,y),其中,e为自然基数,x0和y0对应表示SRGB中的中心像素点的横坐标和纵坐标,δx表示SRGB中的像素点的横坐标的标准差,δy表示SRGB中的像素点的纵坐标的标准差;
⑦融合{Lsaliency(x,y)}和{Csaliency(x,y)}得到SRGB的视觉显著图,记为{S3D,saliency(x,y)},其中,S3D,saliency(x,y)表示{S3D,saliency(x,y)}中坐标位置为(x,y)的像素点的像素值。
所述的步骤③中,其中,min()为取最小值函数,max()为取最大值函数。
所述的步骤⑦中S3D,saliency(x,y)=Lsaliency(x,y)×Csaliency(x,y)。
与现有技术相比,本发明的优点在于:
1)本发明方法采用log-Gabor低通滤波器,符合人眼视觉系统对关注物体的检测,使得本发明方法具有较高的提取准确性和较强的稳定性,并能够较好地反映各种因素的显著变化情况,符合显著语义特征。
2)本发明方法将深度信息的特征融合到左视点视觉显著图提取之中,提高了立体视觉显著值预测的准确性和稳定性。
3)本发明方法同时考虑立体图像的中心偏好图和左视点视觉显著图,并最终融合得到立体图像的视觉显著图,通过这个过程进一步提高了三维视觉显著值的预测准确性和稳定性,从而进一步提高了立体图像的视觉显著图的提取稳定性和提取准确性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体图像视觉显著提取方法,其总体实现框图如图1所示,其包括以下步骤:
①令SRGB表示待提取视觉显著的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的右视点图像记为{RRGB(x,y)},将SRGB的深度图像记为{D(x,y)},其中,1≤x≤W,1≤y≤H,W表示SRGB的宽度,H表示SRGB的高度,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,RRGB(x,y)表示{RRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,D(x,y)表示{D(x,y)}中坐标位置为(x,y)的像素点的像素值。
②采用现有的颜色空间变换方法,将{LRGB(x,y)}从RGB颜色空间变换到Lab颜色空间,得到{LRGB(x,y)}对应的L通道图、a通道图和b通道图,对应记为{LLab,L(x,y)}、{LLab,a(x,y)}和{LLab,b(x,y)},其中,LLab,L(x,y)表示{LLab,L(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a(x,y)表示{LLab,a(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b(x,y)表示{LLab,b(x,y)}中坐标位置为(x,y)的像素点的像素值。
③将{D(x,y)}的像素值范围变换到区间[0,255],将变换得到的图像记为{D0,255(x,y)},其中,D0,255(x,y)表示{D0,255(x,y)}中坐标位置为(x,y)的像素点的像素值,,min()为取最小值函数,max()为取最大值函数。
④分别对{LLab,L(x,y)}、{LLab,a(x,y)}、{LLab,b(x,y)}和{D0,255(x,y)}实施现有的log-Gabor低通滤波,对应得到{LLab,L(x,y)}的低通滤波特征图、{LLab,a(x,y)}的低通滤波特征图、{LLab,b(x,y)}的低通滤波特征图和{D0,255(x,y)}的低通滤波特征图,对应记为{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},其中,LLab,L,log(x,y)表示{LLab,L,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a,log(x,y)表示{LLab,a,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b,log(x,y)表示{LLab,b,log(x,y)}中坐标位置为(x,y)的像素点的像素值,D0,255,log(x,y)表示{D0,255,log(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑤根据{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},获取左视点视觉显著图,记为{Lsaliency(x,y)},将{Lsaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Lsaliency(x,y),
⑥获取SRGB的中心偏好图,记为{Csaliency(x,y)},将{Csaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Csaliency(x,y),其中,e为自然基数,e=2.7182818284…,x0和y0对应表示SRGB中的中心像素点的横坐标和纵坐标,δx表示SRGB中的像素点的横坐标的标准差,δy表示SRGB中的像素点的纵坐标的标准差。
在本实施例中,δx=94和δy=94,其中,符号为向上取整符号。
⑦融合{Lsaliency(x,y)}和{Csaliency(x,y)}得到SRGB的视觉显著图,记为{S3D,saliency(x,y)},其中,S3D,saliency(x,y)表示{S3D,saliency(x,y)}中坐标位置为(x,y)的像素点的像素值,S3D,saliency(x,y)=Lsaliency(x,y)×Csaliency(x,y)。
为验证本发明方法的可行性和有效性,进行实验。
在此,采用法国南特大学提供的三维人眼跟踪数据库(3D eye-trackingdatabase)来分析本发明方法的准确性和稳定性。这里,利用评估视觉显著提取方法的3个常用客观参量作为评价指标,即Pearson相关系数(Pearson linear correlationcoefficient,PLCC)、Kullback-Leibler散度系数(Kullback-Leibler divergence,KLD)、AUC参数(the Area Under the receiver operating characteristics Curve,AUC)。
利用本发明方法获取法国南特大学提供的三维人眼跟踪数据库中的每幅立体图像的视觉显著图,并与三维人眼跟踪数据库中的每幅立体图像的主观视觉显著图(三维人眼跟踪数据库中存在)进行比较,PLCC和AUC值越高、KLD值越低说明本发明方法提取的视觉显著图与主观视觉显著图的一致性越好。反映本发明方法的显著提取性能的PLCC、KLD和AUC相关指标如表1所列。从表1所列的数据可知,按本发明方法提取得到的视觉显著图与主观视觉显著图的准确性和稳定性是很好的,表明客观提取结果与人眼主观感知的结果较为一致,足以说明本发明方法的可行性和有效性。
表1利用本发明方法提取得到的视觉显著图与主观视觉显著图的准确性和稳定性
性能指标 | 性能指标值 |
PLCC | 0.5077 |
KLD | 0.3449 |
AUC | 0.7134 |
。
Claims (2)
1.一种立体图像视觉显著提取方法,其特征在于包括以下步骤:
①令SRGB表示待提取视觉显著的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的深度图像记为{D(x,y)},其中,1≤x≤W,1≤y≤H,W表示SRGB的宽度,H表示SRGB的高度,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,D(x,y)表示{D(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用颜色空间变换方法,将{LRGB(x,y)}从RGB颜色空间变换到Lab颜色空间,得到{LRGB(x,y)}对应的L通道图、a通道图和b通道图,对应记为{LLab,L(x,y)}、{LLab,a(x,y)}和{LLab,b(x,y)},其中,LLab,L(x,y)表示{LLab,L(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a(x,y)表示{LLab,a(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b(x,y)表示{LLab,b(x,y)}中坐标位置为(x,y)的像素点的像素值;
③将{D(x,y)}的像素值范围变换到区间[0,255],将变换得到的图像记为{D0,255(x,y)},其中,D0,255(x,y)表示{D0,255(x,y)}中坐标位置为(x,y)的像素点的像素值;
④分别对{LLab,L(x,y)}、{LLab,a(x,y)}、{LLab,b(x,y)}和{D0,255(x,y)}实施log-Gabor低通滤波,对应得到{LLab,L(x,y)}的低通滤波特征图、{LLab,a(x,y)}的低通滤波特征图、{LLab,b(x,y)}的低通滤波特征图和{D0,255(x,y)}的低通滤波特征图,对应记为{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},其中,LLab,L,log(x,y)表示{LLab,L,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a,log(x,y)表示{LLab,a,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b,log(x,y)表示{LLab,b,log(x,y)}中坐标位置为(x,y)的像素点的像素值,D0,255,log(x,y)表示{D0,255,log(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤根据{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},获取左视点视觉显著图,记为{Lsaliency(x,y)},将{Lsaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Lsaliency(x,y),
⑥获取SRGB的中心偏好图,记为{Csaliency(x,y)},将{Csaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Csaliency(x,y),其中,e为自然基数,x0和y0对应表示SRGB中的中心像素点的横坐标和纵坐标,δx表示SRGB中的像素点的横坐标的标准差,δy表示SRGB中的像素点的纵坐标的标准差;
⑦融合{Lsaliency(x,y)}和{Csaliency(x,y)}得到SRGB的视觉显著图,记为{S3D,saliency(x,y)},其中,S3D,saliency(x,y)表示{S3D,saliency(x,y)}中坐标位置为(x,y)的像素点的像素值;
所述的步骤⑦中S3D,saliency(x,y)=Lsaliency(x,y)×Csaliency(x,y)。
2.根据权利要求1所述的一种立体图像视觉显著提取方法,其特征在于所述的步骤③中,其中,min()为取最小值函数,max()为取最大值函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611046553.6A CN106778772B (zh) | 2016-11-23 | 2016-11-23 | 一种立体图像视觉显著提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611046553.6A CN106778772B (zh) | 2016-11-23 | 2016-11-23 | 一种立体图像视觉显著提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106778772A CN106778772A (zh) | 2017-05-31 |
CN106778772B true CN106778772B (zh) | 2019-07-26 |
Family
ID=58974413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611046553.6A Active CN106778772B (zh) | 2016-11-23 | 2016-11-23 | 一种立体图像视觉显著提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778772B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107665488B (zh) * | 2017-09-14 | 2019-12-24 | 浙江科技学院 | 一种立体图像视觉显著提取方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392233A (zh) * | 2014-11-21 | 2015-03-04 | 宁波大学 | 一种基于区域的图像显著图提取方法 |
CN104994375A (zh) * | 2015-07-08 | 2015-10-21 | 天津大学 | 一种基于立体视觉显著性的立体图像质量客观评价方法 |
CN105282543A (zh) * | 2015-10-26 | 2016-01-27 | 浙江科技学院 | 一种基于立体视觉感知的全盲立体图像质量客观评价方法 |
WO2016120440A1 (en) * | 2015-01-29 | 2016-08-04 | Ventana Medical Systems, Inc. | Dot detection, color classification of dots and counting of color classified dots |
-
2016
- 2016-11-23 CN CN201611046553.6A patent/CN106778772B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392233A (zh) * | 2014-11-21 | 2015-03-04 | 宁波大学 | 一种基于区域的图像显著图提取方法 |
WO2016120440A1 (en) * | 2015-01-29 | 2016-08-04 | Ventana Medical Systems, Inc. | Dot detection, color classification of dots and counting of color classified dots |
CN104994375A (zh) * | 2015-07-08 | 2015-10-21 | 天津大学 | 一种基于立体视觉显著性的立体图像质量客观评价方法 |
CN105282543A (zh) * | 2015-10-26 | 2016-01-27 | 浙江科技学院 | 一种基于立体视觉感知的全盲立体图像质量客观评价方法 |
Non-Patent Citations (1)
Title |
---|
《Saliency Detection for Stereoscopic Images》;Yuming Fang et al;;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20140630;第23卷(第6期);第2625-2636页; |
Also Published As
Publication number | Publication date |
---|---|
CN106778772A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10198623B2 (en) | Three-dimensional facial recognition method and system | |
CN102395037B (zh) | 一种格式识别方法及识别装置 | |
CN103347196B (zh) | 一种基于机器学习的立体图像视觉舒适度评价方法 | |
US20160180188A1 (en) | Method for detecting salient region of stereoscopic image | |
CN101610425B (zh) | 一种评测立体图像质量的方法和装置 | |
CN109255358B (zh) | 一种基于视觉显著性和深度图的3d图像质量评价方法 | |
CN104994375A (zh) | 一种基于立体视觉显著性的立体图像质量客观评价方法 | |
CN104392233B (zh) | 一种基于区域的图像显著图提取方法 | |
CN107767358B (zh) | 一种图像中物体模糊度确定方法和装置 | |
CN109409380B (zh) | 一种基于双学习网络的立体图像视觉显著提取方法 | |
CN104361583B (zh) | 一种确定非对称失真立体图像客观质量的方法 | |
KR101720161B1 (ko) | 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법 | |
CN103095996A (zh) | 基于时空显著性检测的多传感器视频融合方法 | |
CN104243956B (zh) | 一种立体图像视觉显著图提取方法 | |
KR101394363B1 (ko) | 영상의 색상 변환 장치 및 방법 | |
CN106682599B (zh) | 一种基于稀疏表示的立体图像视觉显著提取方法 | |
CN106778772B (zh) | 一种立体图像视觉显著提取方法 | |
CN104239883A (zh) | 纹理特征提取方法及装置 | |
CN107665488B (zh) | 一种立体图像视觉显著提取方法 | |
CN104394405B (zh) | 一种基于全参考图像的客观质量评价方法 | |
CN103686136A (zh) | 多媒体处理系统及音频信号处理方法 | |
CN104822058A (zh) | 一种立体图像显著图提取方法 | |
CN108470176B (zh) | 一种基于频域稀疏表示的立体图像视觉显著提取方法 | |
KR101660808B1 (ko) | 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법 | |
CN105869172B (zh) | 一种深度图可靠性评价测度方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221008 Address after: Room 726, Floor 7, Building 1, No. 180, Huashen Road, China (Shanghai) Pilot Free Trade Zone, Pudong New Area, Shanghai, March 2012 Patentee after: Muye Micro (Shanghai) Semiconductor Technology Co.,Ltd. Address before: 310023 No. 318 stay Road, Xihu District, Zhejiang, Hangzhou Patentee before: ZHEJIANG University OF SCIENCE AND TECHNOLOGY |
|
TR01 | Transfer of patent right |