CN103020915B - 一种基于视频数据的物像增强方法 - Google Patents
一种基于视频数据的物像增强方法 Download PDFInfo
- Publication number
- CN103020915B CN103020915B CN201210563588.2A CN201210563588A CN103020915B CN 103020915 B CN103020915 B CN 103020915B CN 201210563588 A CN201210563588 A CN 201210563588A CN 103020915 B CN103020915 B CN 103020915B
- Authority
- CN
- China
- Prior art keywords
- video data
- frame
- image
- enhancement method
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000008569 process Effects 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 8
- 230000003068 static effect Effects 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000003321 amplification Effects 0.000 claims 1
- 238000003199 nucleic acid amplification method Methods 0.000 claims 1
- 238000003384 imaging method Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005303 weighing Methods 0.000 description 2
- 241000288673 Chiroptera Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了基于视频数据的物像增强方法,该方法包括步骤:步骤1,将视频数据d的第k帧画面dk中出现的物像作为物像模板T,其中该视频数据包含L帧,1≤k≤L;步骤2,在视频数据的每一帧画面中寻找模板T的匹配位置,其中第i帧的匹配位置为(xi,yi),T在dk中的位置记为(xk,yk),其中1≤i≤L;步骤3,获得第i帧的偏移量为si=(xi-xk,yi-yk),将视频数据的各帧按照其偏移量进行偏移;步骤4,判断偏移后的结果是否符合要求,如果符合,则结束流程。利用本发明的方法,能够从视频资料中提取目标人物或物体的影像信息。
Description
技术领域
本发明涉及视频数据处理技术领域,特别涉及一种基于视频数据的物像增强方法。
背景技术
如今,通过各种拍摄工具获取的视频数据越来越普遍,例如,除通过高性能、专业设备主动录制得到的视频节目之外,银行、商店、居民小区等场所的安全监控摄像存档数据,通过智能手机等便携设备进行“街拍”等活动得到的影像资料,也都不断被制造出来。并且,随着社会经济的发展和大众生活方式“数字化”和“媒体化”,视频数据量的增长速度也有越来越高的趋势。
尽管视频中包含了海量的数据,但由于拍摄设备以及条件的限制,通常感兴趣的目标在视频中的图像并不总是清晰、可分辨的。
因此,需要提供一种方法,能够从视频资料中提取目标人物或物体的影像信息。目前默认的方法是,用户使用裸眼从视频中挑选出较为清晰的一帧,然后将其保存成静态的图像,再借助其他软件,如Photoshop等进行后续的增强工作。由于没有可用的软件,现在还无法使用整段视频数据的全部信息复原用户感兴趣的图像。
发明内容
为了克服现有技术的上述缺陷,本发明提供了一种基于视频数据的物像增强方法。
本发明的基于视频数据的物像增强方法包括步骤:步骤1,将视频数据d的第k帧画面dk中出现的物像作为物像模板T,其中该视频数据包含L帧,1≤k≤L;步骤2,在视频数据的每一帧画面中确定模板T的匹配位置,其中第i帧的匹配位置为(xi,yi),T在dk中的位置记为(xk,yk),其中1≤i≤L;步骤3,获得L帧中每一帧的偏移量,其中第i帧的偏移量为si=(xi-xk,yi-yk),将视频数据的各帧按照其偏移量进行偏移;步骤4,判断偏移后的视频数据的质量指标是否能够达到预先设定的阈值,如果达到,则结束流程。
可选地,步骤2进一步包括:
步骤2.0,令i=1;
步骤2.1,使用àtrous算法对T进行完全小波变换,得到第1至J阶尺度的小波系数w1至wJ;
步骤2.2,使用àtrous算法对di进行1至J阶小波变换,得到第1至J阶尺度的小波系数v1至vJ;
步骤2.3,令j=1,执行:
步骤2.3.1,计算vj与wj的交叉相关系数矩阵cj,记该矩阵的最大值为cmaxj;
步骤2.3.2,j=j+1,然后重复步骤2.3.1;直到j=J,继续下一步;
步骤2.4,从得到的J个cmaxj中寻找最大值cmax以及最大值对应的小波尺度jm;
步骤2.5,确定cjm中该最大值cmax出现的位置(xi,yi),T在dk中的位置记为(xk,yk);
在步骤2.6,记第i帧的偏移量为si=(xi-xk,yi-yk);
步骤2.7,令i=i+1,重复步骤2.1;直到i=L。
可选地,步骤3进一步包括:
经偏移后的视频数据为 其中,di是原视频的第i帧数据,ds是通过平移增强后的视频数据。可选地,如果步骤4中判断ds的质量指标不能够达到预先设定的阈值,并且是因为偏移造成的模糊,则将视频数据中不同于第k帧画面的另外一帧画面中的物像作为物像模板T,返回步骤2重新执行各步骤。
可选地,如果步骤4中得到的ds的质量指标能够达到预先设定的阈值,则将平移校正过的图像ds中的物像作为物像模板T,执行下一步,并执行以下步骤:
步骤5,令A=180度,令i=1,执行:
步骤5.1,令n=1,a=A/10
步骤5.2,将di旋转n*a-A
步骤5.3,计算旋转后的画面第1至J阶尺度小波系数,寻找各尺度小波系数与模板T的各尺度小波系数的交叉相关系数矩阵最大值,得到该最大值为
步骤5.4,如果n=20,则执行步骤6,如果n<20,令n=n+1,返回到步骤5.2;
步骤6,比较n从1至20的各个其中最大的为其对应的旋转角度为ri=nma-A;
步骤7,如果i=L,则进行下一步,如果i<L,则令i=i+1,返回步骤5.1;
步骤8,将视频数据各帧旋转量、偏移量校正,然后叠加得到
步骤9,如果对drs的质量指标能够达到预先设定的阈值,则结束程序;
可选地,如果步骤9中的drs的质量指标不能够达到预先设定的阈值,并且是由于旋转造成的模糊,则令A=a、更新T,然后返回步骤5.1重新执行各步骤。
可选地,如果步骤9中的drs的质量指标不能够达到预先设定的阈值,并且是由于有缩放造成的模糊,则更新T然后进行下一步;
步骤10,令Z=Zm,其中Zm是目测视频中最大物像尺寸与模板物像尺寸的比值;令i=1,执行:
步骤10.1,令
步骤10.2,将di按照旋转角度ri旋转,得到dr,irot(di,ri),再按照缩放系数 缩放,得到
步骤10.3,计算dr,i,n的1至J阶尺度小波系数,寻找各尺度小波系数模板T的各尺度小波系数的交叉相关系数的交叉相关系数矩阵最大值,得到最大值为
步骤10.4,如果n=20,则执行步骤11,如果n<20,则令n=n+1,回到10.2;
步骤11,比较n=1到20的各个其中最大的为对应的缩放系数为
步骤12,如果i=L,则进行下一步;如果i<L,则令i=i+1,返回步骤10.1;
步骤13,将视频数据各帧缩放系数、偏移量校正,然后叠加得到
步骤14,如果对dzrs的质量指标能够达到预先设定的阈值,则结束程序。可选地,如果对dzrs的质量指标不能够达到预先设定的阈值,并且其中仍含有尺度差异造成的模糊,则令更新T,然后返回10.1执行各步骤。
可选地,所述视频数据是指通过数字摄影设备拍摄的数字格式视频数据,或经模拟摄影设备拍摄的模拟视频经转换后得到的数字视频数据。
可选地,所述视频数据是静态数字图片的离散时间序列,每一张数字图片称为该视频数据的“一帧”。每一帧对应的时刻由其序数以及该视频数据的帧速率计算得到。
利用本发明,能够从视频资料中提取目标人物或物体的影像信息。
附图说明
图1为本发明基于视频数据的物象增强方法的基本流程图;
图2为本发明基于视频数据的物象增强方法的详细流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明提出一种基于视频数据的物象增强方法,其中视频数据是指通过数字摄影设备(如智能手机、电脑摄像头等)拍摄的数字格式视频数据,或经模拟摄影设备(如一些监控摄像头、模拟式摄像机等)拍摄的模拟视频经转换后得到的数字视频数据。该数据为静态数字图片的离散时间序列,每一张数字图片称为该视频数据的“一帧”。每一帧对应的时刻可以由其序数以及该视频数据的帧速率计算得到。每一帧可以是单通道格式的数字图片,对应于灰度(有时也称黑白)视频数据;也可以是三通道格式的数字图片,三个通道分别对应红、绿、蓝三色分量,则对应于彩色视频数据。
而物像增强是指从对比度、分辨率、信噪比三个方面对物像进行修正。
对比度也称反衬度,是衡量画面中最亮部分和最暗部分的亮度的比值。通常一副画面的对比度越高,看起来也就越生动。但由于图像输出设备的限制,图像值要规格化到某一个确定的范围,并且只能用有限的位数来近似规格化后的数值。如果图像中存在某个亮度远大于其他部分的局部,则其他部分的亮度差异将会被近似为很接近甚至相同的数值。这样一来,画面整体的对比度虽然很高,但大部分区域的局部对比度却是很差的。假如我们感兴趣的物像恰好位于对比度低的区域,我们就需要调整其对比度,将其亮度范围拉伸至较大的区间。
分辨率用于衡量图像中相邻物体被分辨的程度。假设有一理想的点光源,其空间亮度分布函数即为点脉冲函数。使用实际的成像系统对这样一个光源进行成像,其图像为具有一定面积和形状以及亮度分布的光斑。这个效应叫做点扩展效应,如果前述的理想点光源亮度为单位亮度,那么其光斑即为该成像系统的点扩展函数。点扩展函数与成像系统的分辨率密切相关,常常用点扩展函数半高全宽来量化分辨率。
信噪比是用来衡量图像质量的重要指标。数字图像的信噪比由信号强度与噪声强度的比值计算得到。通常还会取该比值的以10为底的对数,并乘以系数10,得到单位为“分贝”(dB)的数值。在噪声强度保持不变的情况下,成像系统的分辨率越高,物像的点扩展效应越细微,信号就越集中,因此信噪比也就越好。
本发明基于视频数据的物像增强方法的原理是:将视频数据考虑为对目标真实亮度分布的连续、多次成像。每次成像结果都是视频数据中的一帧画面。这些画面中不相关的像素叠加到一起,由于无论图像中的信号成分还是噪声成分都没有相关性,所以会趋于某个未知的均值。对应于目标同一个位置的像素因包含相关的信号成分,而噪声成分是不相关的,因此将这样的像素叠加之后得到的信号成分趋于真实亮度,而噪声则彼此相互抵消。该方法的实现包含两个环节:以物像模板搜索相关像素和更新物像模板。本发明中将对应于目标同一个位置的像素称为相关像素。不同帧的相关像素之所以不一定出现在同样的位置,主要有以下几个原因:1)在拍摄视频过程中,目标发生了移动。如平移、旋转、靠近或者远离等等;2)目标没有移动,而是拍摄者(或设备)有移动,如抖动等;3)目标发生了形变。比如目标人物面部有表情变化、肢体有动作,或者目标物体有其他形变。
对于不同类型的视频数据,以上三种因素的成分不同。例如,固定式监控摄像头取得的视频数据中,造成相关像素位置变化的主要原因就是目标的运动;手持设备取得的视频数据中,造成相关像素位置变化的主要原因则可能是拍摄者手部难以避免的抖动。
图1为本发明基于视频数据的物像增强方法流程图。图2为本发明基于视频数据的物象增强方法的详细流程图。参照图1并结合图2,该方法包括步骤:
步骤1,将视频数据d的第k帧画面dk中出现的物像作为物像模板T,其中该视频数据包含L帧,1≤k≤L;选择模板T的方法是,用户在视频中手动挑选出最为优化的的一帧dopt(假设为第k帧dk),然后从中圈选出矩形区域,内含图像模板T。后面的增强均基于此模板。因此该模板应该包含用户感兴趣的所有目标,且尽可能不含无关对象。
步骤2,在视频数据的每一帧画面中寻找模板T的匹配位置,其中第i帧的匹配位置为(xi,yi),T在dk中的位置记为(xk,yk),其中1≤i≤L;
其中结合图2,步骤2进一步包括:
步骤2.0,令i=1;
步骤2.1,使用àtrous算法对T进行完全小波变换,得到第1至J阶尺度的小波系数w1至wJ;àtrous算法在本领域通常被称为“多孔算法”,属于该领域公知的一种技术。该技术用于计算离散小波变换,优点是可以将小波变换表达成卷积形式,且各个尺度的小波基可以写成卷积核内嵌0元素的形式。
步骤2.2,使用àtrous算法对di进行1至J阶小波变换,得到第1至J阶尺度的小波系数v1至vJ;假设图像高度为H像素,宽度为W像素,则J=floor(log(min(H,W))/log(2)),亦即,不大于H与W中较小者的以2为底的对数的最大的正数。
步骤2.3,令j=1,
步骤2.3.1,计算vj与wj的交叉相关系数矩阵cj,记该矩阵的最大值为cmaxj;
步骤2.3.2,j=j+1,然后重复步骤2.3.1;直到j=J,继续下一步2.4;
步骤2.4,从得到的J个cmaxj中寻找最大值cmax以及最大值(cmax_j,j=1,...J,共J个,从中找到最大的,假设第j_m个最大,则记cmax_j_m为cmax)对应的小波尺度jm;jm是1至J中的一个。
步骤2.5,确定cjm中该最大值cmax出现的位置(xi,yi),作为视频数据第i帧画面中模板T的匹配位置,T在dk中的位置记为(xk,yk);
在步骤2.6,记第i帧的偏移量为si=(xi-xk,yi-yk);
步骤2.7,令i=i+1,重复步骤2.1;直到i=L。
步骤3,将视频数据的各帧按照其偏移量si进行偏移,然后叠加得到
d_i是原视频的第i帧数据;d_s是通过平移增强后的一帧。同时,视频数据的各帧也被更正为:
d_s_i(x,y)=d_i(x-x_i+x_k,y-y_i+y_k)
步骤4,如果ds令人满意的质量指标能够达到预先设定的阈值指标,则结束流程。在该步骤,ds,的质量主要从分辨率、信噪比、对比度三个角度判定,判定依据是针对分辨率、信噪比、对比度预先设定阈值,如果ds的分辨率、信噪比、对比度均能够达到预先设定的阈值,则认为经偏移后的视频数据符合要求,则结束程序;如果ds不符合质量要求,并且是因为偏移造成的模糊,(判定依据:参与此步骤的di各帧中目标在图像中的大小、角度基本不变,只有位置变化,且ds的模糊是均匀的,并不存在某个特别的角度或者维度。)则返回步骤2重新执行各步骤。下面提到的视频数据是否符合要求,均是指视频数据的质量指标是否能够达到预先设定的阈值指标。
如果步骤4中得到的ds满足要求符合要求,则将平移校正过的图像ds中的物像作为物像模板T,执行下一步。
步骤5,令A=180度,令i=1,执行:
步骤5.1,令n=1,a=A/10
步骤5.2,将旋转n*a-A(此处A是旋转校正的上界,a为校正的步长)。
步骤5.3,使用àtrous算法对旋转后的d_s_i进行1至J阶小波变换,得到第1至J阶尺度的小波系数v1至vJ:
步骤5.3.1计算vj与wj的交叉相关系数矩阵cj,记该矩阵的最大值为cmaxj;
步骤5.3.2,j=j+1,然后重复步骤5.3.1;直到j=J,继续下一步;
步骤5.4,从得到的J个cmaxj中寻找最大值cmax以及最大值(cmax_j,j=1,...J,共J个,从中找到最大的,假设第jm个最大,则记为cmax),到该最大值为
步骤5.5,如果n=20,则执行步骤6,如果n<20,令n=n+1,返回到步骤5.2;
步骤6,比较n从1至20的各个其中最大的为其对应的旋转角度为ri=nma-A;
步骤7,如果i=L,则进行下一步,如果i<L,则令i=i+1,返回步骤5.1;
步骤8,将视频数据各帧旋转量、偏移量校正。首先根据旋转量校正,校正方法为反向旋转相等的角度;然后根据偏移量校正,方法为反向移动相等的距离。然后叠加得到 其中rot的含义为图像旋转操作,数字图像处理中有多种方法均可实现这个操作,例如双三次插值、双线性插值等方法,均是很成熟的公开方法。
步骤9,如果drs满足要求符合要求,则结束程序。
如果步骤9中的drs不符合要求,并且是由于旋转造成的模糊,则令A=a、
更新T,然后返回步骤5.1重新执行各步骤。如果步骤9中的drs不满要求,并且是由于有缩放造成的模糊,则更新T(从增强后的图像中重新选取矩形区域,即为新的模板T)然后进行下一步;
步骤10,令Z=Zm,其中Zm是目测视频中最大物像尺寸与模板物像尺寸的比值;令i=1,执行:
步骤10.1,令
步骤10.2,将di按照旋转角度ri(该角度即为上一步得到的各帧的角度校正量)旋转,得到dr,irot(di,ri),再按照缩放系数缩放,得到 其中,β是指数等间隔化的缩放系数;zoom是图像缩放操作,用插值法实现。
步骤10.3,计算dr,i,n的1至J阶尺度小波系数v_j,令j=1至J:
步骤10.3.1计算vj与wj的交叉相关系数矩阵cj,记该矩阵的最大值为cmaxj;
步骤10.3.2,j=j+1,然后重复步骤10.3.1;直到j=J,继续下一步;
步骤10.4,从得到的J个cmaxj中寻找最大值cmax以及最大值(cmaxj,j=1,...J,共J个,从中找到最大的,假设第jm个最大,则记为cmax),到该最大值为
步骤10.5,如果n=20,则执行步骤11,如果n<20,则令n=n+1,回到10.2;
步骤11,比较n=1到20的各个其中最大的为对应的缩放系数为
步骤12,如果i=L,则进行下一步;如果i<L,则令i=i+1,返回步骤10.1;
令i=i+1,返回步骤10.1;如果i=L,则进行下一步;
步骤13,将视频数据各帧缩放系数、偏移量校正(其中缩放校正是指使用缩放操作,对图像进行z_i的倒数的缩放操作(例,如z_i大于1,则说明图像需要缩小;反之,则需要放大)。然后叠加得到
步骤14,如果对dzrs满足要求符合要求,则结束程序。如果对dzrs不满足要求,并且其中仍含有尺度差异造成的模糊,则令更新T,然后返回10.1执行各步骤。
上述提到的缩放、偏移以及旋转例如是安装于银行大堂墙角与天花板处的监控摄像中可以拍摄到某人进门后走近、移动、身体晃动等正面画面,其中走近对应缩放、移动对应偏移、身体晃动则对应旋转。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于视频数据的物像增强方法,该方法包括步骤:
步骤1,将视频数据d的第k帧画面dk中出现的物像作为物像模板T,其中该视频数据包含L帧,1≤k≤L;
步骤2,第i帧的匹配位置为(xi,yi),T在dk中的位置记为(xk,yk),其中1≤i≤L,在视频数据的每一帧画面中确定模板T的匹配位置,包括以下步骤:
步骤2.0,令i=1;
步骤2.1,使用àtrous算法对T进行完全小波变换,得到第1至J阶尺度的小波系数w1至wJ;
步骤2.2,使用àtrous算法对di进行1至J阶小波变换,得到第1至J阶尺度的小波系数v1至vJ;
步骤2.3,令j=1,执行:
步骤2.3.1,计算vj与wj的交叉相关系数矩阵cj,记该矩阵的最大值为cmaxj;
步骤2.3.2,j=j+1,然后重复步骤2.3.1;直到j=J,继续下一步;
步骤2.4,从得到的J个cmaxj中寻找最大值cmax以及最大值对应的小波尺度jm;
步骤2.5,确定cjm中该最大值cmax出现的位置(xi,yi),T在dk中的位置记为(xk,yk);
在步骤2.6,记第i帧的偏移量为si=(xi-xk,yi-yk);
步骤2.7,如果i<L,则令i=i+1,重复步骤2.1,如果i=L则执行下一步;
步骤3,获得L帧中每一帧的偏移量,其中第i帧的偏移量为si=(xi-xk,yi-yk),将视频数据的各帧按照其偏移量进行偏移;
步骤4,判断偏移后的视频数据的质量指标是否能够达到预先设定的阈值,如果能够达到,则结束流程。
2.根据权利要求1所述的基于视频数据的物像增强方法,其特征在于,步骤3进一步包括:
经平移校正后的视频数据为 其中,di是原视频的第i帧数据,ds是通过平移增强后的视频数据。
3.根据权利要求2所述的基于视频数据的物像增强方法,其特征在于,如果步骤4中判断ds的质量指标不能够达到预先设定的阈值,并且是因为偏移造成的模糊,则将视频数据中不同于第k帧画面的另外一帧画面中的物像作为物像模板T,返回步骤2重新执行各步骤。
4.根据权利要求2所述的基于视频数据的物像增强方法,其特征在于,如果步骤4中得到的ds的质量指标能够达到预先设定的阈值,则将平移校正过的视频数据ds中的物像作为物像模板T,并执行以下步骤:
步骤5,令A=180度,令i=1,执行:
步骤5.1,令n=1,a=A/10,其中n为循环中标记当前循环次数的变量;
步骤5.2,将di旋转n*a-A;
步骤5.3,计算旋转后的画面第1至J阶尺度小波系数,寻找各尺度小波系数与模板T的各尺度小波系数的交叉相关系数矩阵最大值,得到该最大值为
步骤5.4,如果n=20,则执行步骤6,如果n<20,令n=n+1,返回到步骤5.2;
步骤6,比较n从1至20的各个其中最大的为其对应的旋转角度为ri=nma-A;
步骤7,如果i=L,则进行下一步,如果i<L,则令i=i+1,返回步骤5.1;
步骤8,将视频数据各帧旋转量、偏移量校正,然后叠加得到
其中,rot()为图像旋转函数,表示将输入的二维离散图像绕其中心逆时针旋转输入的角度,并将旋转后的图像返回;
步骤9,如果drs的质量指标能够达到预先设定的阈值,则结束程序。
5.根据权利要求4所述的基于视频数据的物像增强方法,其特征在于,如果步骤9中的drs的质量指标不能够达到预先设定的阈值,并且是由于旋转造成的模糊,则令A=a、更新T,然后返回步骤5.1重新执行各步骤。
6.根据权利要求5所述的基于视频数据的物像增强方法,其特征在于,如果步骤9中的drs的质量指标不能够达到预先设定的阈值,并且是由于有缩放造成的模糊,则更新T然后进行下一步;
步骤10,令Z=Zm,其中Zm是目测视频中最大物像尺寸与模板物像尺寸的比值;令i=1,执行:
步骤10.1,令
步骤10.2,将di按照旋转角度ri旋转,得到dr,i=rot(di,ri),再按照缩放系数缩放,得到其中dr,i表示对di旋转角度ri后得到的图像,即dr,i=rot(di,ri),dr,i,n是循环步骤中第n步循环的缩放结果,zoom()为图像缩放函数,表示将输入的二维离散图像缩放给定的倍数,当倍数大于1时,对应的操作为放大,当倍数小于1时,对应的操作为缩小;
步骤10.3,计算dr,i,n的1至J阶尺度小波系数,寻找各尺度小波系数模板T的各尺度小波系数的交叉相关系数的交叉相关系数矩阵最大值,得到最大值为
步骤10.4,如果n=20,则执行步骤11,如果n<20,则令n=n+1,回到10.2;
步骤11,比较n=1到20的各个其中最大的为对应的缩放系数为
步骤12,如果i=L,则进行下一步;如果i<L,则令i=i+1,返回步骤10.1;
步骤13,将视频数据各帧缩放系数、偏移量校正,然后叠加得到
步骤14,如果dzrs的质量指标能够达到预先设定的阈值,则结束程序。
7.根据权利要求6所述的基于视频数据的物像增强方法,其特征在于,如果在步骤14中dzrs的质量指标不能够达到预先设定的阈值,并且其中仍含有尺度差异造成的模糊,则令更新T,然后返回10.1执行各步骤。
8.根据权利要求1-7任一项所述的基于视频数据的物像增强方法,其特征在于,所述视频数据是指通过数字摄影设备拍摄的数字格式视频数据,或经模拟摄影设备拍摄的模拟视频经转换后得到的数字视频数据。
9.根据权利要求8所述的基于视频数据的物像增强方法,其特征在于,所述视频数据是静态数字图片的离散时间序列,每一张数字图片称为该视频数据的“一帧”,每一帧对应的时刻由其序数以及该视频数据的帧速率计算得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210563588.2A CN103020915B (zh) | 2012-12-21 | 2012-12-21 | 一种基于视频数据的物像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210563588.2A CN103020915B (zh) | 2012-12-21 | 2012-12-21 | 一种基于视频数据的物像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103020915A CN103020915A (zh) | 2013-04-03 |
CN103020915B true CN103020915B (zh) | 2016-04-13 |
Family
ID=47969484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210563588.2A Active CN103020915B (zh) | 2012-12-21 | 2012-12-21 | 一种基于视频数据的物像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103020915B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463824B (zh) | 2013-09-13 | 2018-04-10 | 北京京东方光电科技有限公司 | 一种薄膜晶体管型基板检测设备的图像校正方法及装置 |
CN104881847A (zh) * | 2015-04-17 | 2015-09-02 | 广西科技大学 | 一种基于小波分析和伪彩色处理的比赛视频图像增强方法 |
CN105931198A (zh) * | 2016-04-14 | 2016-09-07 | 西安工程大学 | 一种基于小波变换的覆冰绝缘子图像增强方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102202164A (zh) * | 2011-05-20 | 2011-09-28 | 长安大学 | 基于运动估计的道路视频稳定方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060245500A1 (en) * | 2004-12-15 | 2006-11-02 | David Yonovitz | Tunable wavelet target extraction preprocessor system |
US8873626B2 (en) * | 2009-07-02 | 2014-10-28 | Qualcomm Incorporated | Template matching for video coding |
-
2012
- 2012-12-21 CN CN201210563588.2A patent/CN103020915B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102202164A (zh) * | 2011-05-20 | 2011-09-28 | 长安大学 | 基于运动估计的道路视频稳定方法 |
Non-Patent Citations (5)
Title |
---|
An airborne synthetic aperture radar (SAR)exexperiment to support RADARSAT-2 ground moving target indication (GMTI);C.E. Livingstone等;《Can.J.Remote Sensing》;20021231;第28卷(第6期);第794-813页 * |
Intra prediction using template matching with adaptive illumination compensation;Yunfei Zheng等;《ICIP 2008. 15th IEEE International Conference on Image Processing,2008》;20081015;第125-128页 * |
一种改进的基于低延迟的电子稳像算法分析与实现;方万利等;《云南民族大学学报(自然科学版)》;20121110;第21卷(第6期);第457-461页 * |
基于位置补偿技术的模具监视系统;姚俊峰等;《计算机工程》;20100531;第36卷(第9期);第238-239、242页 * |
实时视频图像相关跟踪的算法的改进与实现;王艳萍;《舰船科学技术》;20040630;第26卷(第3期);第57-59、62页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103020915A (zh) | 2013-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10685421B1 (en) | Configurable convolution engine for interleaved channel data | |
US9794540B2 (en) | Hardware-based convolutional color correction in digital images | |
US9336582B1 (en) | Convolutional color correction | |
US10949958B2 (en) | Fast fourier color constancy | |
CN113034358B (zh) | 一种超分辨率图像处理方法以及相关装置 | |
Jiang et al. | Image contrast enhancement with brightness preservation using an optimal gamma correction and weighted sum approach | |
CN110574025A (zh) | 用于合并交错通道数据的卷积引擎 | |
CN101901474A (zh) | 改变图像的密度和对比度中的至少一个的方法 | |
CN102208101A (zh) | 一种红外图像的自适应线性变换增强方法 | |
CN108024105A (zh) | 图像色彩调节方法、装置、电子设备及存储介质 | |
CN103020915B (zh) | 一种基于视频数据的物像增强方法 | |
CN103268596A (zh) | 一种降低图像噪声和使颜色接近标准的方法 | |
CN115330640B (zh) | 光照贴图降噪方法、装置、设备和介质 | |
WO2017182789A1 (en) | Blending images | |
CN111489322A (zh) | 给静态图片加天空滤镜的方法及装置 | |
Hwang et al. | Probabilistic moving least squares with spatial constraints for nonlinear color transfer between images | |
CN113963072B (zh) | 双目摄像头标定方法、装置、计算机设备和存储介质 | |
CN113592753A (zh) | 基于工业相机拍摄的图像的处理方法、装置和计算机设备 | |
CN113628259A (zh) | 图像的配准处理方法及装置 | |
Tan et al. | A simple gray-edge automatic white balance method with FPGA implementation | |
CN116843566A (zh) | 色调映射方法、装置、显示设备和存储介质 | |
Choi et al. | Very deep learning-based illumination estimation approach with cascading residual network architecture (CRNA) | |
Zhang et al. | Learning a single convolutional layer model for low light image enhancement | |
CN116261043A (zh) | 对焦距离确定方法、装置、电子设备和可读存储介质 | |
CN112561787B (zh) | 图像处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |