CN106600573A - 一种图像处理方法 - Google Patents

一种图像处理方法 Download PDF

Info

Publication number
CN106600573A
CN106600573A CN201611223507.9A CN201611223507A CN106600573A CN 106600573 A CN106600573 A CN 106600573A CN 201611223507 A CN201611223507 A CN 201611223507A CN 106600573 A CN106600573 A CN 106600573A
Authority
CN
China
Prior art keywords
gray
view
characteristic point
scale maps
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611223507.9A
Other languages
English (en)
Other versions
CN106600573B (zh
Inventor
陆小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Vision Optoelectronics Co Ltd
Original Assignee
Ningbo Vision Optoelectronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Vision Optoelectronics Co Ltd filed Critical Ningbo Vision Optoelectronics Co Ltd
Priority to CN201611223507.9A priority Critical patent/CN106600573B/zh
Publication of CN106600573A publication Critical patent/CN106600573A/zh
Application granted granted Critical
Publication of CN106600573B publication Critical patent/CN106600573B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例提供一种图像处理方法,所述方法包括:将待处理图片生成第一视图及第二视图;分别将第一视图及第二视图灰度化,获得第一灰度图以及第二灰度图;分别提取第一灰度图和第二灰度图中的特征点,获取第一灰度图中的每个特征点相对于第二灰度图中对应特征点的第一位置偏移量,以及第二灰度图中的每个特征点相对于第一灰度图中对应特征点的第二位置偏移量;根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图,根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图。所述方法不会出现色偏,能够正常显示立体效果。

Description

一种图像处理方法
技术领域
本发明涉及图像处理领域,具体而言,涉及一种图像处理方法。
背景技术
红蓝眼镜是早期的一种立体显示手段,随着技术的发展,已经逐渐被视觉效果更好的偏振眼镜、快门眼镜以及裸眼3D显示器所取代。但因其成本低廉、制作简便、易于复制,在某些领域仍然有一席之地。同时,红蓝格式的内容也有一定的存量基础。如何把新型的立体显示硬件结合存量的旧有格式内容,提高素材利用率,丰富体验来源,是人们必然面对的问题。
目前与主流3D显示设备相适应的内容,即本发明的目标输出形式,主要是由两独立视点图像组成或与其等价的左右、上下、交替帧、列交织等图像组合或图像序列。但在红蓝内容制作中,无论是拍摄还是抠图手段,当由两视点图像进行分层分色融合时,由于其中第一视点仅保留红色通道,第二视点保留蓝绿通道,视点与颜色之间产生耦合,会使得一部分图像信息发生丢失,而且这种丢失是非对称、非线性、内容依赖的。因此在反过来由红蓝内容重建为独立两视点内容时,需要将这部分丢失的信息,按照一定的规律进行补足。
常见的方式是进行灰度复制,左右两视点缺失的颜色数据分别参照其同像素点的补色灰度进行复制,但这样的问题是虽然能一定程度保证白平衡,但图像趋于黑白,对于蓝绿补红而言也容易出现色偏。如果原始图像三基色统计权重不一致,还会引起两视点图像的总体明度差异,进而影响立体显示效果。
发明内容
有鉴于此,本发明实施例的目的在于提供一种图像处理方法。
本发明实施例提供一种图像处理方法,所述方法包括:将待处理图片生成第一视图及第二视图,所述待处理图片中每个像素点包括两个或三个颜色通道的值,所述第一视图中每个像素值为所述待处理图片中对应像素点的其中一个颜色通道的值,所述第二视图中每个像素值为所述待处理图片中对应像素点的剩余颜色通道的值;分别将所述第一视图及所述第二视图灰度化,获得与所述第一视图对应的第一灰度图以及与所述第二视图对应的第二灰度图;分别提取所述第一灰度图和所述第二灰度图中的特征点,获取所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点的第一位置偏移量,以及所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点的第二位置偏移量;根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图,根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图。
与现有技术相比,本发明实施例提供的一种图像处理方法,首先将待处理图片进行视点分离,获得第一视图及第二视图,进一步的,分别对第一视图及第二视图进行灰度化后,求出第一位置偏移量及第二位置偏移量,根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图,根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图,这种方式下,每个视图缺失的颜色信息通过另一视图上的补色信息进行位移填补,不会出现色偏,并且使得原来只能用于双色3D眼镜上的图像,经过处理能够正常的在主流的支持的两视点视图的立体显示设备进行显示。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例提供的电子设备的结构框图。
图2是本发明实施例提供的一种图像处理方法的流程图。
图3是本发明实施例提供的待处理图片的示意图。
图4是本发明实施例提供的第一灰度图及第二灰度图的示意图。
图5是本发明实施例提供的分别将第一灰度图及第二灰度图进行直方均衡化后的示意图。
图6是本发明实施例提供的第一灰度图中特征点的示意图。
图7是本发明实施例提供的一种图像处理方法中步骤S240的部分流程图。
图8是本发明实施例提供的一种图像处理方法中步骤S310的流程图。
图9是本发明实施例提供的第一视差映射图及第二视差映射图的示意图。
图10是本发明实施例提供的一种图像处理方法中步骤S330的流程图。
图11是本发明实施例提供的一种图像处理方法中步骤S332的流程图。
图12是本发明实施例提供的第三视图及第四视图的示意图。
图13是本发明实施例提供的一种图像处理方法中步骤S240的另一部分流程图。
图14是本发明实施例提供的一种图像处理方法中步骤S410的流程图。
图15是本发明实施例提供的一种图像处理方法中步骤S430的流程图。
图16是本发明实施例提供的一种图像处理方法中步骤S432的流程图。
图17是本发明实施例提供的一种图像处理装置的功能模块示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性或时间先后。
如图1所示,是电子设备100的方框示意图。所述电子设备100包括存储器101、处理器102以及网络模块103。
存储器101可用于存储软件程序以及模块,如本发明实施例中的图像处理方法及装置对应的程序指令/模块,处理器102通过运行存储在存储器101内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现本发明实施例中的图像处理方法。存储器101可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。进一步地,上述存储器101内的软件程序以及模块还可包括:操作系统121以及服务模块122。其中操作系统121,例如可为LINUX、UNIX、WINDOWS,其可包括各种用于管理系统任务(例如内存管理、存储设备控制、电源管理等)的软件组件和/或驱动,并可与各种硬件或软件组件相互通讯,从而提供其他软件组件的运行环境。服务模块122运行在操作系统121的基础上,并通过操作系统121的网络服务监听来自网络的请求,根据请求完成相应的数据处理,并返回处理结果给客户端。也就是说,服务模块122用于向客户端提供网络服务。
网络模块103用于接收以及发送网络信号。上述网络信号可包括无线信号或者有线信号。
可以理解,图1所示的结构仅为示意,所述电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。另外,本发明实施例中的电子设备还可以包括多个具体不同功能的电子设备。
图2示出了本发明实施例提供的一种图像处理方法的流程图,请参阅图2,本实施例描述的是电子设备的处理流程,所述方法包括:
步骤S210,将待处理图片生成第一视图及第二视图,所述待处理图片中每个像素点包括两个或三个颜色通道的值,所述第一视图中每个像素值为所述待处理图片中对应像素点的其中一个颜色通道的值,所述第二视图中每个像素值为所述待处理图片中对应像素点的剩余颜色通道的值。
可以理解的是,待处理图片可以是红蓝图像、红蓝绿图像、黄蓝图像、或绿品红图像等。不同的待处理图像,其每个像素点包括的颜色通道的个数不同,例如,红蓝图像的每个像素点包括两个颜色通道,分别为红色通道和蓝色通道;红蓝绿图像的每个像素点包括三个颜色通道,分别为红色通道、蓝色通道及绿色通道。
将待处理图片按照颜色通道划分为两个视图,请参阅图3,对于如图3中所示红蓝图像,将红蓝图像生成第一视图及第二视图,第一视图中每个像素值为红色通道中每个像素点的像素值,第二视图中每个像素值为蓝色通道中每个像素点的像素值。对于红蓝绿图像,将红蓝绿图像生成第一视图及第二视图,第一视图中每个像素值为红色通道中每个像素点的像素值,第二视图中每个像素值包括两个颜色通道,分别对应蓝绿色颜色通道中每个像素点的像素值。
步骤S220,分别将所述第一视图及所述第二视图灰度化,获得与所述第一视图对应的第一灰度图以及与所述第二视图对应的第二灰度图。
请参阅图4,将第一视图及第二视图灰度化后,得到如图4所示的第一灰度图(图4中左图)及第二灰度图(图4中右图)。
作为一种实施方式,在将所述第一视图及所述第二视图进行灰度化之后,分别对所述第一灰度图及所述第二灰度图进行直方图均衡运算。
直方图均衡化的基本思想是把原始图的直方图变换为均匀分布的形式,可以第一灰度图及所述第二灰度图具有相近的灰度分布,这样有利于后续的计算。
请参阅图5,将第一灰度图进行直方图均衡运算得到如图5中左图所示的直方图均衡后的第一灰度图,将第二灰度图进行直方图均衡运算得到如图5中右图所示的直方图均衡后的第二灰度图。
步骤S230,分别提取所述第一灰度图和所述第二灰度图中的特征点,获取所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点的第一位置偏移量,以及所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点的第二位置偏移量。
图像的特征点既是一个点的位置标识,同时也说明它的局部领域具有一定的模式特征。根据不同的图像匹配算法,其特征点的定义可能不同,例如,可以是图像中的某些极值点,拐点,边缘点,交叉点等。由于特征点的定义可能不同,因此分别提取所述第一灰度图和所述第二灰度图中的特征点的实施方式也不同,例如SIFT算法,SURF算法,ORB算法等,此时不再赘述。
可以理解的是,第一灰度图与第二灰度图中特征点是相互对应的,可以通过比较获得所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点的第一偏移量,即所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点的向左偏移的坐标(或向左偏移像素点的个数)或者向右偏移的坐标(或向右偏移像素点的个数)。
请参阅图6,对第一灰度图提取出的特征点如图7所示,可以为图中树的边缘点等,对第二灰度图提取出的特征点类似。
步骤S240,根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图,根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图。
作为一种实施方式,请参阅图7,根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图的步骤,可以包括:
步骤S310,根据所述第一灰度图中的每个特征点的第一位置偏移量及预设灰阶值,计算每个特征点的灰阶值。
作为一种具体的实施方式,请参阅图8,步骤S310可以包括:
步骤S311,若所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点左偏,分别将所述第一灰度图中的每个特征点的第一位置偏移量与预设系数相乘,得到所述第一灰度图中的每个特征点的加权偏移量;分别将所述预设灰阶值减去所述第一灰度图中的每个特征点的所述加权偏移量的差值作为所述第一视差映射图中每个特征点的灰阶值。
假设预设灰阶值为127,预设系数为k,若所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点左偏x,则可以根据下述公式计算所述第一视差映射图中每个特征点的灰阶值:
P(i,j)=127-kx。
其中,k为常数且kx不大于127。
步骤S312,若所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点右偏,分别将所述第一灰度图中的每个特征点的第一位置偏移量与预设系数相乘,得到所述第一灰度图中的每个特征点的加权偏移量;分别将所述预设灰阶值加上所述第一灰度图中的每个特征点的所述加权偏移量的和值作为所述第一视差映射图中每个特征点的灰阶值。
假设预设灰阶值为127,预设系数为k,若所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点右偏y,则可以根据下述公式计算所述第一视差映射图中每个特征点的灰阶值:
P’(i,j)=127+ky。
其中,k为常数且对ky不大于127。
步骤S320,对所述每个特征点的灰阶值进行插值运算,生成与所述第一灰度图大小相等的所述第一视差映射图。
图像插值运算的方法很多,例如,最邻近值插值,双线性插值等,此处就不再赘述。
请参阅图9,根据上述步骤生成的第一视差映射图如图9中左图所示。
作为一种实施方式,在步骤S320之后,对所述第一视差映射图进行平滑处理。
由于生成的第一视差映射图可能出现空洞或噪点数据,因此可以进一步的对所述第一视差映射图进行平滑处理后再进行后续操作,这样更有利于精确的生成第三视图。
步骤S330,根据所述第一视图、所述第二视图及所述第一视差映射图,获得第三视图。
作为一种具体的实施方式,请参阅图10,步骤S330可以包括:
步骤S331,将所述第一视图中每个像素值作为所述第三视图中其中一个颜色通道的对应像素点的像素值。
步骤S332,根据所述第二视图及所述第一视差映射图中对应像素点的灰阶值,获得所述第三视图中剩余颜色通道的每个像素值。
进一步的,请参阅图11,作为一种实施方式,步骤S332可以包括:
步骤S3321,将所述第三视图中剩余颜色通道的每个像素点作为待处理像素点。
步骤S3322,根据所述第一视差映射图中对应位置像素点的灰阶值,获得第一位移量。
假设所述第一视差映射图中第i行第j列的像素点的灰阶值为P(i,j),预设系数为k,此时第一位移量为:(P(i,j)-127)/k。
步骤S3323,以所述第二视图对应位置的像素点为起点,移动所述第一位移量后,获得的像素点的像素值作为所述待处理像素点的像素值。
假设第二视图在第i行第j列的像素点为G2(i,j),其像素值为G2(i,j)gb,将像素点为G2(i,j)移动位置(P(i,j)-127)/k后,获得的像素点为G2(j,i-(P(j,i)-127)/k),其对应的像素值为G2(j,i-(P(j,i)-127)/k)gb,将G2(j,i-(P(j,i)-127)/k)gb作为待处理像素点G1(j,i)的像素值G1(j,i)gb,即:
G1(j,i)gb=G2(j,i-(P(j,i)-127)/k)gb。
请参阅图12,根据上述步骤生成的第三视图如图12中左图所示。
作为一种实施方式,请参阅图13,根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图的步骤,可以包括:
步骤S410,根据所述第二灰度图中的每个特征点的第二位置偏移量及预设灰阶值,计算每个特征点的灰阶值。
作为一种具体的实施方式,请参阅图14,步骤S410可以包括:
步骤S411,若所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点左偏,分别将所述第二灰度图中的每个特征点的第二位置偏移量与预设系数相乘,得到所述第二灰度图中的每个特征点的加权偏移量;分别将所述预设灰阶值加上所述第二灰度图中的每个特征点的所述加权偏移量的和值作为所述第二视差映射图中每个特征点的灰阶值。
假设预设灰阶值为127,预设系数为k,若所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点左偏y,则可以根据下述公式计算所述第二差映射图中每个特征点的灰阶值:
P’(i,j)=127+ky。
其中,k为常数且ky不大于127。
步骤S412,若所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点右偏,分别将所述第二灰度图中的每个特征点的第二位置偏移量与预设系数相乘,得到所述第二灰度图中的每个特征点的加权偏移量;分别将所述预设灰阶值减去所述第二灰度图中的每个特征点的所述加权偏移量的差值作为所述第二视差映射图中每个特征点的灰阶值。
假设预设灰阶值为127,预设系数为k,若所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点右偏x,则可以根据下述公式计算所述第二视差映射图中每个特征点的灰阶值:
P(i,j)=127-kx。
其中,k为常数且kx不大于127。
步骤S420,对所述每个特征点的灰阶值进行插值运算,生成与所述第二灰度图大小相等的第二视差映射图。
图像插值运算的方法很多,例如,最邻近值插值,双线性插值等,此处就不再赘述。
请参阅图9,根据上述步骤生成的第二视差映射图如图9中右图所示。
作为一种实施方式,在步骤S420之后,对所述第二视差映射图进行平滑处理。
由于生成的第二视差映射图可能出现空洞或噪点数据,因此可以进一步的对所述第二视差映射图进行平滑处理后再进行后续操作,这样更有利于精确的生成第四视图。
步骤S430,根据所述第一视图、所述第二视图及所述第二视差映射图,获得第四视图。
作为一种具体的实施方式,请参阅图15,步骤S430可以包括:
步骤S431,将所述第二视图中每个像素值作为所述第四视图中其中一个颜色通道的每个像素值。
步骤S432,根据所述第一视图及所述第二视差映射图中对应像素点的像素值,获得所述第四视图中剩余颜色通道的每个像素值。
进一步的,请参阅图16,步骤S432可以包括:
步骤S4321,将所述第四视图中剩余颜色通道的每个像素点作为待处理像素点。
步骤S4322,根据所述第二视差映射图中对应位置像素点的灰阶值,获得第二位移量。
假设所述第二视差映射图在第i行第j列的像素点的灰阶值为P’(i,j),预设系数为k,此时第二位移量为:(P'(i,j)-127)/k,其中,P'(i,j)=127+ky。
步骤S4323,以所述第一视图对应位置的像素点为起点,移动所述第二位移量后,获得的像素点的像素值作为所述待处理像素点的像素值。
假设第一视图在第i行第j列的像素点为G1(i,j),其像素值为G1(i,j)r,将像素点为G1(i,j)移动位置(P'(i,j)-127)/k后,获得的像素点为G2(i,j)=G1(i,j-(P'(i,j)-127)/k)=G1(i,j+(P(i,j)-127)/k),其对应的像素值为G1(i,j+(P(i,j)-127)/k)r,将G1(i,j+(P(i,j)-127)/k)r作为待处理像素点G2(i,j)的像素值G2(i,j)r,即:
G2(i,j)r=G1(i,j+(P(i,j)-127)/k)r。
请参阅图12,根据上述步骤生成的第四视图如图12中右图所示。
本发明实施例提供的一种图像处理方法,首先将待处理图片进行视点分离,获得第一视图及第二视图,进一步的,分别对第一视图及第二视图进行灰度化后,求出第一位置偏移量及第二位置偏移量,根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图,根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图,这种方式下,每个视图缺失的颜色信息通过另一视图上的补色信息进行位移填补,不会出现色偏,并且使得原来只能用于双色3D眼镜上的图像,经过处理能够正常的在主流的支持的两视点视图的立体显示设备进行显示。
请参阅图17,是本发明实施例提供的一种图像处理装置500的功能模块示意图。所述图像处理装置500运行于电子设备100中。所述图像处理装置500包括:生成模块510、第一处理模块520、第二处理模块530、第三处理模块540。
生成模块510,用于将待处理图片生成第一视图及第二视图,所述待处理图片中每个像素点包括两个或三个颜色通道的值,所述第一视图中每个像素值为所述待处理图片中对应像素点的其中一个颜色通道的值,所述第二视图中每个像素值为所述待处理图片中对应像素点的剩余颜色通道的值。
第一处理模块520,用于分别将所述第一视图及所述第二视图灰度化,获得与所述第一视图对应的第一灰度图以及与所述第二视图对应的第二灰度图。
第二处理模块530,用于分别提取所述第一灰度图和所述第二灰度图中的特征点,获取所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点的第一位置偏移量,以及所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点的第二位置偏移量。
第三处理模块540,用于根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图,根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图。
以上各模块可以是由软件代码实现,也同样可以由硬件例如集成电路芯片实现。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本发明实施例所提供的图像处理装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种图像处理方法,其特征在于,所述方法包括:
将待处理图片生成第一视图及第二视图,所述待处理图片中每个像素点包括两个或三个颜色通道的值,所述第一视图中每个像素值为所述待处理图片中对应像素点的其中一个颜色通道的值,所述第二视图中每个像素值为所述待处理图片中对应像素点的剩余颜色通道的值;
分别将所述第一视图及所述第二视图灰度化,获得与所述第一视图对应的第一灰度图以及与所述第二视图对应的第二灰度图;
分别提取所述第一灰度图和所述第二灰度图中的特征点,获取所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点的第一位置偏移量,以及所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点的第二位置偏移量;
根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图,根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一灰度图中的每个特征点的所述第一位置偏移量、所述第一视图及所述第二视图,获得第三视图,包括:
根据所述第一灰度图中的每个特征点的第一位置偏移量及预设灰阶值,计算每个特征点的灰阶值;
对所述每个特征点的灰阶值进行插值运算,生成与所述第一灰度图大小相等的第一视差映射图;
根据所述第一视图、所述第二视图及所述第一视差映射图,获得第三视图。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一灰度图中的每个特征点的第一位置偏移量及预设灰阶值,计算第一视差映射图中每个特征点的灰阶值,包括:
若所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点左偏,分别将所述第一灰度图中的每个特征点的第一位置偏移量与预设系数相乘,得到所述第一灰度图中的每个特征点的加权偏移量;分别将所述预设灰阶值减去所述第一灰度图中的每个特征点的所述加权偏移量的差值作为所述第一视差映射图中每个特征点的灰阶值;
若所述第一灰度图中的每个特征点相对于所述第二灰度图中对应特征点右偏,分别将所述第一灰度图中的每个特征点的第一位置偏移量与预设系数相乘,得到所述第一灰度图中的每个特征点的加权偏移量;分别将所述预设灰阶值加上所述第一灰度图中的每个特征点的所述加权偏移量的和值作为所述第一视差映射图中每个特征点的灰阶值。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第一视图、所述第二视图及所述第一视差映射图,获得第三视图,包括:
将所述第一视图中每个像素值作为所述第三视图中其中一个颜色通道的对应像素点的像素值;
根据所述第二视图及所述第一视差映射图中对应像素点的灰阶值,获得所述第三视图中剩余颜色通道的每个像素值。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第二视图及所述第一视差映射图中对应像素点的灰阶值,获得所述第三视图中剩余颜色通道的每个像素值,包括:
将所述第三视图中剩余颜色通道的每个像素点作为待处理像素点;
根据所述第一视差映射图中对应位置像素点的灰阶值,获得第一位移量;
以所述第二视图对应位置的像素点为起点,移动所述第一位移量后,获得的像素点的像素值作为所述待处理像素点的像素值。
6.根据权利要求1所述的方法,其特征在于,所述根据所述第二灰度图中的每个特征点的第二位置偏移量、所述第一视图及所述第二视图,获得第四视图,包括:
根据所述第二灰度图中的每个特征点的第二位置偏移量及预设灰阶值,计算每个特征点的灰阶值;
对所述每个特征点的灰阶值进行插值运算,生成与所述第二灰度图大小相等的第二视差映射图;
根据所述第一视图、所述第二视图及所述第二视差映射图,获得第四视图。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第二灰度图中的每个特征点的第二位置偏移量及预设灰阶值,计算第二视差映射图中每个特征点的灰阶值,包括:
若所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点左偏,分别将所述第二灰度图中的每个特征点的第二位置偏移量与预设系数相乘,得到所述第二灰度图中的每个特征点的加权偏移量;分别将所述预设灰阶值加上所述第二灰度图中的每个特征点的所述加权偏移量的和值作为所述第二视差映射图中每个特征点的灰阶值;
若所述第二灰度图中的每个特征点相对于所述第一灰度图中对应特征点右偏,分别将所述第二灰度图中的每个特征点的第二位置偏移量与预设系数相乘,得到所述第二灰度图中的每个特征点的加权偏移量;分别将所述预设灰阶值减去所述第二灰度图中的每个特征点的所述加权偏移量的差值作为所述第二视差映射图中每个特征点的灰阶值。
8.根据权利要求6所述的方法,其特征在于,所述根据所述第一视图、所述第二视图及所述第二视差映射图,获得第四视图,包括:
将所述第二视图中每个像素值作为所述第四视图中其中一个颜色通道的每个像素值;
根据所述第一视图及所述第二视差映射图中对应像素点的像素值,获得所述第四视图中剩余颜色通道的每个像素值。
9.根据权利要求8所述的方法,其特征在于,所述根据所述第一视图及所述第二视差映射图中对应像素点的像素值,获得所述第四视图中剩余颜色通道的每个像素值,包括:
将所述第四视图中剩余颜色通道的每个像素点作为待处理像素点;
根据所述第二视差映射图中对应位置像素点的灰阶值,获得第二位移量;
以所述第一视图对应位置的像素点为起点,移动所述第二位移量后,获得的像素点的像素值作为所述待处理像素点的像素值。
10.根据权利要求2所述的方法,其特征在于,在所述生成与所述第一灰度图大小相等的第一视差映射图之后,所述方法还包括:对所述第一视差映射图进行平滑处理。
CN201611223507.9A 2016-12-27 2016-12-27 一种图像处理方法 Active CN106600573B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611223507.9A CN106600573B (zh) 2016-12-27 2016-12-27 一种图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611223507.9A CN106600573B (zh) 2016-12-27 2016-12-27 一种图像处理方法

Publications (2)

Publication Number Publication Date
CN106600573A true CN106600573A (zh) 2017-04-26
CN106600573B CN106600573B (zh) 2020-07-14

Family

ID=58604249

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611223507.9A Active CN106600573B (zh) 2016-12-27 2016-12-27 一种图像处理方法

Country Status (1)

Country Link
CN (1) CN106600573B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030002733A1 (en) * 2001-06-29 2003-01-02 Jewel Tsai Multi-mode image processing method and a system thereof
CN1739287A (zh) * 2003-10-22 2006-02-22 松下电器产业株式会社 成像装置及其生产方法、便携设备、以及成像传感器及其生产方法
CN1798957A (zh) * 2003-05-29 2006-07-05 奥林巴斯株式会社 立体摄像机系统和立体光学模块
CN101371593A (zh) * 2006-01-18 2009-02-18 伊斯曼柯达公司 纠正立体显示系统的方法
CN101799939A (zh) * 2010-04-02 2010-08-11 天津大学 基于左右视点图像的中间视点快速、自适应生成算法
CN102113334A (zh) * 2009-05-19 2011-06-29 松下电器产业株式会社 记录介质、再现装置、编码装置、集成电路及再现输出装置
CN102572475A (zh) * 2010-12-17 2012-07-11 微软公司 计算设备中的立体3d视频支持

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030002733A1 (en) * 2001-06-29 2003-01-02 Jewel Tsai Multi-mode image processing method and a system thereof
CN1798957A (zh) * 2003-05-29 2006-07-05 奥林巴斯株式会社 立体摄像机系统和立体光学模块
CN1739287A (zh) * 2003-10-22 2006-02-22 松下电器产业株式会社 成像装置及其生产方法、便携设备、以及成像传感器及其生产方法
CN101371593A (zh) * 2006-01-18 2009-02-18 伊斯曼柯达公司 纠正立体显示系统的方法
CN102113334A (zh) * 2009-05-19 2011-06-29 松下电器产业株式会社 记录介质、再现装置、编码装置、集成电路及再现输出装置
CN101799939A (zh) * 2010-04-02 2010-08-11 天津大学 基于左右视点图像的中间视点快速、自适应生成算法
CN102572475A (zh) * 2010-12-17 2012-07-11 微软公司 计算设备中的立体3d视频支持

Also Published As

Publication number Publication date
CN106600573B (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
CN101398939A (zh) 多视点数据生成装置和方法
CN107204025B (zh) 基于视觉感知的自适应服装动画建模方法
CN107767413A (zh) 一种基于卷积神经网络的图像深度估计方法
CN106920243A (zh) 改进的全卷积神经网络的陶瓷材质件序列图像分割方法
CN104243820B (zh) 一种确定图像边界的方法及装置
WO2022188282A1 (zh) 基于物理感知的三维流体逆向建模方法
CN111833237B (zh) 基于卷积神经网络和局部单应性变换的图像配准方法
CN110728707B (zh) 基于非对称深度卷积神经网络的多视角深度预测方法
CN108388905B (zh) 一种基于卷积神经网络和邻域上下文的光源估计方法
CN106203277A (zh) 基于sift特征聚类的固定镜头实时监控视频特征提取方法
CN103729860B (zh) 一种图像目标跟踪的方法和装置
CN104992496A (zh) 一种纸币面向识别方法及装置
CN104376529A (zh) 一种基于glcm的灰度图像彩色化系统和方法
CN101610425A (zh) 一种评测立体图像质量的方法和装置
CN108765333B (zh) 一种基于深度卷积神经网络的深度图完善方法
CN105893655B (zh) 一种石油储层构型的物理模拟方法
CN106875437A (zh) 一种面向rgbd三维重建的关键帧提取方法
CN103325120A (zh) 一种快速自适应支持权值双目视觉立体匹配方法
CN104811691A (zh) 一种基于小波变换的立体视频质量客观评价方法
CN110096993A (zh) 双目立体视觉的目标检测设备及方法
CN110033483A (zh) 基于dcnn深度图生成方法及系统
CN104700384B (zh) 基于增强现实技术的展示系统及展示方法
CN104661013A (zh) 一种基于空间加权的虚拟视点绘制方法
CN107369138B (zh) 基于高阶统计模型的图像最优化显示方法
CN105872516A (zh) 获取立体片源视差参数的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant