CN106778772B - 一种立体图像视觉显著提取方法 - Google Patents

一种立体图像视觉显著提取方法 Download PDF

Info

Publication number
CN106778772B
CN106778772B CN201611046553.6A CN201611046553A CN106778772B CN 106778772 B CN106778772 B CN 106778772B CN 201611046553 A CN201611046553 A CN 201611046553A CN 106778772 B CN106778772 B CN 106778772B
Authority
CN
China
Prior art keywords
lab
pixel
log
rgb
saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611046553.6A
Other languages
English (en)
Other versions
CN106778772A (zh
Inventor
周武杰
蔡星宇
顾鹏笠
张爽爽
潘婷
周扬
邱薇薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Muye Micro (Shanghai) Semiconductor Technology Co.,Ltd.
Original Assignee
Zhejiang Lover Health Science and Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lover Health Science and Technology Development Co Ltd filed Critical Zhejiang Lover Health Science and Technology Development Co Ltd
Priority to CN201611046553.6A priority Critical patent/CN106778772B/zh
Publication of CN106778772A publication Critical patent/CN106778772A/zh
Application granted granted Critical
Publication of CN106778772B publication Critical patent/CN106778772B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种立体图像视觉显著提取方法,其首先获取立体图像的左视点图像的L通道图、a通道图和b通道图,并获取立体图像的深度图像变换到区间[0,255]的图像;然后对L通道图、a通道图和b通道图及变换后的深度图像实施log‑Gabor低通滤波,得到各自的低通滤波特征图;接着根据四幅低通滤波特征图获取左视点视觉显著图;再获取立体图像的中心偏好图;最后融合左视点视觉显著图和中心偏好图得到立体图像的视觉显著图;优点是符合显著语义特征,且具有较强的提取稳定性和较高的提取准确性。

Description

一种立体图像视觉显著提取方法
技术领域
本发明涉及一种图像信号的处理方法,尤其是涉及一种立体图像视觉显著提取方法。
背景技术
在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,因此在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。而随着立体视频显示技术和高质量立体视频内容获取技术的快速发展,针对立体图像/视频的显著区域检测及建模也是一个非常重要的研究内容。
然而,立体图像并不是平面图像的简单空间拓展,因此人眼感知立体图像产生立体视觉的过程也不是简单的左视点图像和右视点图像叠加的过程,因此,立体视觉特征(例如:三维视觉注意力)并不是平面视觉特性的简单拓展。然而,现有的立体图像显著图提取方法还停留在平面图像显著提取方法的简单拓展上。因此,如何从立体图像中有效地提取出立体视觉特征、如何使得提取出的立体视觉特征符合人眼三维观看行为都是在对立体图像进行视觉显著图提取过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种立体图像视觉显著提取方法,其符合显著语义特征,且具有较强的提取稳定性和较高的提取准确性。
本发明解决上述技术问题所采用的技术方案为:一种立体图像视觉显著提取方法,其特征在于包括以下步骤:
①令SRGB表示待提取视觉显著的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的深度图像记为{D(x,y)},其中,1≤x≤W,1≤y≤H,W表示SRGB的宽度,H表示SRGB的高度,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,D(x,y)表示{D(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用颜色空间变换方法,将{LRGB(x,y)}从RGB颜色空间变换到Lab颜色空间,得到{LRGB(x,y)}对应的L通道图、a通道图和b通道图,对应记为{LLab,L(x,y)}、{LLab,a(x,y)}和{LLab,b(x,y)},其中,LLab,L(x,y)表示{LLab,L(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a(x,y)表示{LLab,a(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b(x,y)表示{LLab,b(x,y)}中坐标位置为(x,y)的像素点的像素值;
③将{D(x,y)}的像素值范围变换到区间[0,255],将变换得到的图像记为{D0,255(x,y)},其中,D0,255(x,y)表示{D0,255(x,y)}中坐标位置为(x,y)的像素点的像素值;
④分别对{LLab,L(x,y)}、{LLab,a(x,y)}、{LLab,b(x,y)}和{D0,255(x,y)}实施log-Gabor低通滤波,对应得到{LLab,L(x,y)}的低通滤波特征图、{LLab,a(x,y)}的低通滤波特征图、{LLab,b(x,y)}的低通滤波特征图和{D0,255(x,y)}的低通滤波特征图,对应记为{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},其中,LLab,L,log(x,y)表示{LLab,L,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a,log(x,y)表示{LLab,a,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b,log(x,y)表示{LLab,b,log(x,y)}中坐标位置为(x,y)的像素点的像素值,D0,255,log(x,y)表示{D0,255,log(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤根据{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},获取左视点视觉显著图,记为{Lsaliency(x,y)},将{Lsaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Lsaliency(x,y),
⑥获取SRGB的中心偏好图,记为{Csaliency(x,y)},将{Csaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Csaliency(x,y),其中,e为自然基数,x0和y0对应表示SRGB中的中心像素点的横坐标和纵坐标,δx表示SRGB中的像素点的横坐标的标准差,δy表示SRGB中的像素点的纵坐标的标准差;
⑦融合{Lsaliency(x,y)}和{Csaliency(x,y)}得到SRGB的视觉显著图,记为{S3D,saliency(x,y)},其中,S3D,saliency(x,y)表示{S3D,saliency(x,y)}中坐标位置为(x,y)的像素点的像素值。
所述的步骤③中,其中,min()为取最小值函数,max()为取最大值函数。
所述的步骤⑦中S3D,saliency(x,y)=Lsaliency(x,y)×Csaliency(x,y)。
与现有技术相比,本发明的优点在于:
1)本发明方法采用log-Gabor低通滤波器,符合人眼视觉系统对关注物体的检测,使得本发明方法具有较高的提取准确性和较强的稳定性,并能够较好地反映各种因素的显著变化情况,符合显著语义特征。
2)本发明方法将深度信息的特征融合到左视点视觉显著图提取之中,提高了立体视觉显著值预测的准确性和稳定性。
3)本发明方法同时考虑立体图像的中心偏好图和左视点视觉显著图,并最终融合得到立体图像的视觉显著图,通过这个过程进一步提高了三维视觉显著值的预测准确性和稳定性,从而进一步提高了立体图像的视觉显著图的提取稳定性和提取准确性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体图像视觉显著提取方法,其总体实现框图如图1所示,其包括以下步骤:
①令SRGB表示待提取视觉显著的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的右视点图像记为{RRGB(x,y)},将SRGB的深度图像记为{D(x,y)},其中,1≤x≤W,1≤y≤H,W表示SRGB的宽度,H表示SRGB的高度,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,RRGB(x,y)表示{RRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,D(x,y)表示{D(x,y)}中坐标位置为(x,y)的像素点的像素值。
②采用现有的颜色空间变换方法,将{LRGB(x,y)}从RGB颜色空间变换到Lab颜色空间,得到{LRGB(x,y)}对应的L通道图、a通道图和b通道图,对应记为{LLab,L(x,y)}、{LLab,a(x,y)}和{LLab,b(x,y)},其中,LLab,L(x,y)表示{LLab,L(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a(x,y)表示{LLab,a(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b(x,y)表示{LLab,b(x,y)}中坐标位置为(x,y)的像素点的像素值。
③将{D(x,y)}的像素值范围变换到区间[0,255],将变换得到的图像记为{D0,255(x,y)},其中,D0,255(x,y)表示{D0,255(x,y)}中坐标位置为(x,y)的像素点的像素值,,min()为取最小值函数,max()为取最大值函数。
④分别对{LLab,L(x,y)}、{LLab,a(x,y)}、{LLab,b(x,y)}和{D0,255(x,y)}实施现有的log-Gabor低通滤波,对应得到{LLab,L(x,y)}的低通滤波特征图、{LLab,a(x,y)}的低通滤波特征图、{LLab,b(x,y)}的低通滤波特征图和{D0,255(x,y)}的低通滤波特征图,对应记为{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},其中,LLab,L,log(x,y)表示{LLab,L,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a,log(x,y)表示{LLab,a,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b,log(x,y)表示{LLab,b,log(x,y)}中坐标位置为(x,y)的像素点的像素值,D0,255,log(x,y)表示{D0,255,log(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑤根据{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},获取左视点视觉显著图,记为{Lsaliency(x,y)},将{Lsaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Lsaliency(x,y),
⑥获取SRGB的中心偏好图,记为{Csaliency(x,y)},将{Csaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Csaliency(x,y),其中,e为自然基数,e=2.7182818284…,x0和y0对应表示SRGB中的中心像素点的横坐标和纵坐标,δx表示SRGB中的像素点的横坐标的标准差,δy表示SRGB中的像素点的纵坐标的标准差。
在本实施例中,δx=94和δy=94,其中,符号为向上取整符号。
⑦融合{Lsaliency(x,y)}和{Csaliency(x,y)}得到SRGB的视觉显著图,记为{S3D,saliency(x,y)},其中,S3D,saliency(x,y)表示{S3D,saliency(x,y)}中坐标位置为(x,y)的像素点的像素值,S3D,saliency(x,y)=Lsaliency(x,y)×Csaliency(x,y)。
为验证本发明方法的可行性和有效性,进行实验。
在此,采用法国南特大学提供的三维人眼跟踪数据库(3D eye-trackingdatabase)来分析本发明方法的准确性和稳定性。这里,利用评估视觉显著提取方法的3个常用客观参量作为评价指标,即Pearson相关系数(Pearson linear correlationcoefficient,PLCC)、Kullback-Leibler散度系数(Kullback-Leibler divergence,KLD)、AUC参数(the Area Under the receiver operating characteristics Curve,AUC)。
利用本发明方法获取法国南特大学提供的三维人眼跟踪数据库中的每幅立体图像的视觉显著图,并与三维人眼跟踪数据库中的每幅立体图像的主观视觉显著图(三维人眼跟踪数据库中存在)进行比较,PLCC和AUC值越高、KLD值越低说明本发明方法提取的视觉显著图与主观视觉显著图的一致性越好。反映本发明方法的显著提取性能的PLCC、KLD和AUC相关指标如表1所列。从表1所列的数据可知,按本发明方法提取得到的视觉显著图与主观视觉显著图的准确性和稳定性是很好的,表明客观提取结果与人眼主观感知的结果较为一致,足以说明本发明方法的可行性和有效性。
表1利用本发明方法提取得到的视觉显著图与主观视觉显著图的准确性和稳定性
性能指标 性能指标值
PLCC 0.5077
KLD 0.3449
AUC 0.7134

Claims (2)

1.一种立体图像视觉显著提取方法,其特征在于包括以下步骤:
①令SRGB表示待提取视觉显著的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的深度图像记为{D(x,y)},其中,1≤x≤W,1≤y≤H,W表示SRGB的宽度,H表示SRGB的高度,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,D(x,y)表示{D(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用颜色空间变换方法,将{LRGB(x,y)}从RGB颜色空间变换到Lab颜色空间,得到{LRGB(x,y)}对应的L通道图、a通道图和b通道图,对应记为{LLab,L(x,y)}、{LLab,a(x,y)}和{LLab,b(x,y)},其中,LLab,L(x,y)表示{LLab,L(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a(x,y)表示{LLab,a(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b(x,y)表示{LLab,b(x,y)}中坐标位置为(x,y)的像素点的像素值;
③将{D(x,y)}的像素值范围变换到区间[0,255],将变换得到的图像记为{D0,255(x,y)},其中,D0,255(x,y)表示{D0,255(x,y)}中坐标位置为(x,y)的像素点的像素值;
④分别对{LLab,L(x,y)}、{LLab,a(x,y)}、{LLab,b(x,y)}和{D0,255(x,y)}实施log-Gabor低通滤波,对应得到{LLab,L(x,y)}的低通滤波特征图、{LLab,a(x,y)}的低通滤波特征图、{LLab,b(x,y)}的低通滤波特征图和{D0,255(x,y)}的低通滤波特征图,对应记为{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},其中,LLab,L,log(x,y)表示{LLab,L,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,a,log(x,y)表示{LLab,a,log(x,y)}中坐标位置为(x,y)的像素点的像素值,LLab,b,log(x,y)表示{LLab,b,log(x,y)}中坐标位置为(x,y)的像素点的像素值,D0,255,log(x,y)表示{D0,255,log(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤根据{LLab,L,log(x,y)}、{LLab,a,log(x,y)}、{LLab,b,log(x,y)}和{D0,255,log(x,y)},获取左视点视觉显著图,记为{Lsaliency(x,y)},将{Lsaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Lsaliency(x,y),
⑥获取SRGB的中心偏好图,记为{Csaliency(x,y)},将{Csaliency(x,y)}中坐标位置为(x,y)的像素点的像素值记为Csaliency(x,y),其中,e为自然基数,x0和y0对应表示SRGB中的中心像素点的横坐标和纵坐标,δx表示SRGB中的像素点的横坐标的标准差,δy表示SRGB中的像素点的纵坐标的标准差;
⑦融合{Lsaliency(x,y)}和{Csaliency(x,y)}得到SRGB的视觉显著图,记为{S3D,saliency(x,y)},其中,S3D,saliency(x,y)表示{S3D,saliency(x,y)}中坐标位置为(x,y)的像素点的像素值;
所述的步骤⑦中S3D,saliency(x,y)=Lsaliency(x,y)×Csaliency(x,y)。
2.根据权利要求1所述的一种立体图像视觉显著提取方法,其特征在于所述的步骤③中,其中,min()为取最小值函数,max()为取最大值函数。
CN201611046553.6A 2016-11-23 2016-11-23 一种立体图像视觉显著提取方法 Active CN106778772B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611046553.6A CN106778772B (zh) 2016-11-23 2016-11-23 一种立体图像视觉显著提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611046553.6A CN106778772B (zh) 2016-11-23 2016-11-23 一种立体图像视觉显著提取方法

Publications (2)

Publication Number Publication Date
CN106778772A CN106778772A (zh) 2017-05-31
CN106778772B true CN106778772B (zh) 2019-07-26

Family

ID=58974413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611046553.6A Active CN106778772B (zh) 2016-11-23 2016-11-23 一种立体图像视觉显著提取方法

Country Status (1)

Country Link
CN (1) CN106778772B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107665488B (zh) * 2017-09-14 2019-12-24 浙江科技学院 一种立体图像视觉显著提取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104392233A (zh) * 2014-11-21 2015-03-04 宁波大学 一种基于区域的图像显著图提取方法
CN104994375A (zh) * 2015-07-08 2015-10-21 天津大学 一种基于立体视觉显著性的立体图像质量客观评价方法
CN105282543A (zh) * 2015-10-26 2016-01-27 浙江科技学院 一种基于立体视觉感知的全盲立体图像质量客观评价方法
WO2016120440A1 (en) * 2015-01-29 2016-08-04 Ventana Medical Systems, Inc. Dot detection, color classification of dots and counting of color classified dots

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104392233A (zh) * 2014-11-21 2015-03-04 宁波大学 一种基于区域的图像显著图提取方法
WO2016120440A1 (en) * 2015-01-29 2016-08-04 Ventana Medical Systems, Inc. Dot detection, color classification of dots and counting of color classified dots
CN104994375A (zh) * 2015-07-08 2015-10-21 天津大学 一种基于立体视觉显著性的立体图像质量客观评价方法
CN105282543A (zh) * 2015-10-26 2016-01-27 浙江科技学院 一种基于立体视觉感知的全盲立体图像质量客观评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Saliency Detection for Stereoscopic Images》;Yuming Fang et al;;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20140630;第23卷(第6期);第2625-2636页;

Also Published As

Publication number Publication date
CN106778772A (zh) 2017-05-31

Similar Documents

Publication Publication Date Title
US10198623B2 (en) Three-dimensional facial recognition method and system
CN102395037B (zh) 一种格式识别方法及识别装置
CN103347196B (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
US20160180188A1 (en) Method for detecting salient region of stereoscopic image
CN101610425B (zh) 一种评测立体图像质量的方法和装置
CN109255358B (zh) 一种基于视觉显著性和深度图的3d图像质量评价方法
CN104994375A (zh) 一种基于立体视觉显著性的立体图像质量客观评价方法
CN104392233B (zh) 一种基于区域的图像显著图提取方法
CN107767358B (zh) 一种图像中物体模糊度确定方法和装置
CN109409380B (zh) 一种基于双学习网络的立体图像视觉显著提取方法
CN104361583B (zh) 一种确定非对称失真立体图像客观质量的方法
KR101720161B1 (ko) 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
CN103095996A (zh) 基于时空显著性检测的多传感器视频融合方法
CN104243956B (zh) 一种立体图像视觉显著图提取方法
KR101394363B1 (ko) 영상의 색상 변환 장치 및 방법
CN106682599B (zh) 一种基于稀疏表示的立体图像视觉显著提取方法
CN106778772B (zh) 一种立体图像视觉显著提取方法
CN104239883A (zh) 纹理特征提取方法及装置
CN107665488B (zh) 一种立体图像视觉显著提取方法
CN104394405B (zh) 一种基于全参考图像的客观质量评价方法
CN103686136A (zh) 多媒体处理系统及音频信号处理方法
CN104822058A (zh) 一种立体图像显著图提取方法
CN108470176B (zh) 一种基于频域稀疏表示的立体图像视觉显著提取方法
KR101660808B1 (ko) 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
CN105869172B (zh) 一种深度图可靠性评价测度方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221008

Address after: Room 726, Floor 7, Building 1, No. 180, Huashen Road, China (Shanghai) Pilot Free Trade Zone, Pudong New Area, Shanghai, March 2012

Patentee after: Muye Micro (Shanghai) Semiconductor Technology Co.,Ltd.

Address before: 310023 No. 318 stay Road, Xihu District, Zhejiang, Hangzhou

Patentee before: ZHEJIANG University OF SCIENCE AND TECHNOLOGY

TR01 Transfer of patent right