CN108830804B - 基于线扩展函数标准差的虚实融合模糊一致性处理方法 - Google Patents

基于线扩展函数标准差的虚实融合模糊一致性处理方法 Download PDF

Info

Publication number
CN108830804B
CN108830804B CN201810500760.7A CN201810500760A CN108830804B CN 108830804 B CN108830804 B CN 108830804B CN 201810500760 A CN201810500760 A CN 201810500760A CN 108830804 B CN108830804 B CN 108830804B
Authority
CN
China
Prior art keywords
matrix
curve
value
edge
standard deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810500760.7A
Other languages
English (en)
Other versions
CN108830804A (zh
Inventor
韩成
张超
白利娟
李华
杨帆
胡汉平
权巍
薛耀红
徐超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN201810500760.7A priority Critical patent/CN108830804B/zh
Publication of CN108830804A publication Critical patent/CN108830804A/zh
Application granted granted Critical
Publication of CN108830804B publication Critical patent/CN108830804B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方法,其通过电缆将摄像机与计算机进行连接,真实场景中包含着ARToolkit中的Hiro方形黑白标识卡;其特征在于:首先获取融合场景中与虚拟物体处于相近或相同深度位置上的真实物体区域,然后估计该区域边缘的LSF标准差,并结合该标准差与图像退化模型对虚拟物体进行模糊化处理,最后生成虚实物体间具有模糊一致性的融合场景。

Description

基于线扩展函数标准差的虚实融合模糊一致性处理方法
技术领域
本发明涉及一种基于线扩展函数(line spread function,LSF)标准差的虚实融合模糊一致性处理方法,属于计算机视觉技术领域。
背景技术
在增强现实(Augmented Reality,AR)系统中,摄像机获取场景图像时会由于外界环境以及人为等因素造成图像失真现象的模糊。虚拟物体在融合场景中始终保持清晰,与经过自然渲染的真实场景融合会出现明显的拼接现象,使场景缺乏沉浸感,甚至会引起用户眼睛不适应、疲劳等现象。因此在AR系统中对虚拟物体加入景深效果使其与场景中真实物体具有相同的模糊效果,可以提高系统的真实感和沉浸感,增强用户在融合场景中的深度感知。
图像模糊根据形成原因可以分为两种:运动模糊与散焦模糊。其中运动模糊是因为拍摄场景时拍摄对象与摄像机之间发生相对移动或者摄像机抖动,因此拍摄图像上会出现多个物体影像重叠现象,也就是图像模糊。而散焦模糊产生的原因一般是相机的聚焦不准确或者拍摄对象在焦距范围之外。
针对散焦模糊,P.Kán和H.Kaufman提出了一种基于物理的路径跟踪算法,结合相机透镜成像原理与基于差分渲染的光线路径算法实时绘制出具有复杂全局照明效果以及景深效果的融合场景,大大提高了AR系统融合场景图像的质量。Rompapas D C等人在H.Kaufmann的研究基础上通过测量用户眼睛的焦距和瞳孔大小来实现虚拟图像与真实场景之间的模糊一致性,并通过实时测量用户眼睛状态来调整相应的虚拟图像。Chen Y等人就是根据虚拟物体的深度分为三层,在每一层采用不同半径的高斯模糊核对虚拟物体进行模糊,并提出了一种改进的高斯模糊算法来模拟景深渲染,并结合分层渲染方法实现了AR场景中虚拟物体与真实物体之间的模糊一致性。赵东阳等计算摄像机容许的弥散圈的直径及其前后景深值,然后通过计算机标定得到的转换矩阵求出摄像机拍摄物体所允许的清晰范围以及AR系统融合场景中虚拟物体各个像素点的景深值,接着根据像素景深值以及场景中近、远剪切面的弥散圆直径值计算出模糊因子。在模糊处理方面,先对场景进行了均值与亮度预模糊处理,接着使用混合功能将模糊化之前的清晰场景与模糊化之后的场景融合生成更加真实的场景图。
针对运动模糊,严玉若结合Randon变换与Canny算子计算出真实物体运动模糊退化模型的PSF参数,并结合多次渲染实现了虚拟物体与真实物体间相同的运动模糊效果。
发明内容
为了提高AR融合场景的真实性与沉浸感,本发明的目的在于提供一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方法,其首先获取融合场景中与虚拟物体处于相近或相同深度位置上的真实物体区域,然后估计该区域边缘的LSF标准差,并结合该标准差与图像退化模型对虚拟物体进行模糊化处理,最后生成虚实物体间具有模糊一致性的融合场景。
本发明的技术方案是这样实现的:一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方法,通过电缆将摄像机与计算机进行连接,真实场景中包含着ARToolkit中的Hiro方形黑白标识卡;其特征在于具体的步骤如下:
步骤1、使用摄像机拍摄真实场景,获得真实场景图像并用I1表示。
步骤2、利用matlab的rgb2gray函数将I1灰度化得到真实场景灰度图像I2,并根据公式
Gx(f(x,y))=(f(x+1,y)-f(x-1,y))/2
计算I2在水平方向上的梯度Gx,其中(x,y)为图像I2中x行y列的像素,f为图像I2中的像素灰度值,f(x+1,y)-f(x-1,y)为(x,y)像素的左右邻点的灰度差值,得到真实场景梯度图像I3
步骤4、根据sobel算子的y方向模板[1 2 1;0 0 0;-1 -2 -1]提取I2在垂直方向的边缘,设置边缘的长度阈值为L个像素,获得大于长度阈值L的边缘的个数N,每条边缘我们用Ej表示,设有j=1,2…N;
步骤5、针对边缘Ej,选取合适的矩形感兴趣区域Rj,Rj的高为边缘Ej的长度并且边缘Ej为该包含区域R的中心线,利用plot函数绘制在I3的感兴趣区域R中每一行的梯度曲线;
步骤6、将感兴趣区域Rj中所有梯度曲线进行均值拟合,得到曲线Sj,当曲线Sj只有一个波峰时,判断该曲线是否属于正态分布,如果满足正态分布曲线则进行下一步;当S有两个波峰时,则判断其波峰值是否相等,若不相等则认为曲线S不是高斯型曲线,则舍弃该边缘直线Ej;得到满足正态分布的曲线所对应的边缘直线的个数记为M,且1<=j<=M<=N;
步骤7、根据公式
Figure GDA0001756349470000041
计算满足正态分布的曲线Sj的标准差,其中q′j,max为曲线S的波峰值,q′j为曲线S上每个坐标的y值;
步骤8、根据公式
Figure GDA0001756349470000042
计算出第一数字图像I1中所有符合高斯型曲线边缘梯度曲线的标准差均值;
步骤9、在散焦模糊PSF退化模型中,PSF是点光源经过相机光圈发生散焦、衍射、散射等变化形成一个扩大像素的数学过程描述,由于高斯型PSF的圆周对称性可以将PSF简化为一维的LSF,它是形成模糊图像上的一条直线或者边缘的数学过程描述。因此将由步骤8计算边缘直线的标准差均值作为图像I1的LSF标准差σ;
步骤10、高斯模糊的半径r为近似于3σ的奇数值,在边长为r的正方形Rect中画一个半径为r/2的内接圆C,计算内接圆C在正方形Rect中每个边长为1的小正方形内占的面积,得到一个r*r的面积矩阵ar
步骤11、结合标准差σ与公式
Figure GDA0001756349470000043
计算r*r的高斯模板中每个系数的值,其中k=r/2,x∈[0,2k],y∈[0,2k],将模板左上角归一化为1,即模板中每个系数除以g(1,1),得到高斯模板矩阵gr
步骤12、根据公式h=gr*ar求出相应的矩阵hr,其中ar为步骤10中得到的面积矩阵,gr为步骤11中得到的高斯模板矩阵,并将矩阵hr进行归一化处理使该矩阵内的值在[0,1]之间以及矩阵内的所有元素之和等于1,得到最后的权重矩阵Hr
步骤13、在以某个像素P为中心的r*r邻域内取每个像素的颜色值组成r*r的颜色矩阵Cr。利用公式Pr=Cr*Hr计算得到矩阵Pr,取矩阵Pr内所有元素值的和作为像素P的颜色值;
步骤14、利用ARToolkit的simple程序将I1进行二值化处理,将得到的二值化图像进行边缘检测、连通域分析以及筛选处理,提取出矩形区域作为标识卡候选区域Areai,其中i=0,1,2…n;接着根据标识卡对候选区域Areai进行标识卡模板匹配值计算,若候选区域Areai具有最高匹配值而且匹配值大于提前设定阈值,则认为Areai是检测到的标识卡区域Am,然后系统会存储标识卡区域Am的相关信息,比如面积、识别号码、方向、匹配值、四个顶点的坐标值及其四条边的直线方程表达式,首先通过提取出标识卡四个角点的坐标,结合摄像机内参P与世界坐标系上标识卡相对应角点的三维坐标(Xm,Ym,Zm)计算出摄像机相对于标识卡的位置,也就是由旋转矩阵和平移矩阵组成的转换矩阵Tcm,利用转换矩阵Tcm将虚拟物体叠加注册在I1上,得到融合场景图像并用I4表示;
步骤15、针对I4中虚拟物体的每个像素的R,G,B三个通道分别做步骤13中的运算,根据计算得到每个像素的颜色值重新绘制I4得到第三数字图像I5最终实现虚实物体间的模糊一致性;
利用以上步骤实现了基于LSF标准差的虚实融合模糊一致性处理方法。
本发明的积极效果是其首先获取融合场景中与虚拟物体处于相近或相同深度位置上的真实物体区域,然后估计该区域边缘的LSF标准差,并结合该标准差与图像退化模型对虚拟物体进行模糊化处理,最后生成虚实物体间具有模糊一致性的融合场景。
附图说明
图1为本发明的结构示意图,其中计算机1,相机2,真实场景3。
具体实施方式
下面结合附图和实施例对本发明做进一步的描述:如图1所示,一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方法,通过电缆将摄像机2与计算机1进行连接,真实场景3中包含着ARToolkit中的Hiro方形黑白标识卡4;其特征在于具体的步骤如下:
步骤1、使用摄像机2拍摄真实场景3,获得真实场景图像并用I1表示。
步骤2、利用matlab的rgb2gray函数将I1灰度化得到真实场景灰度图像I2,并根据公式
Gx(f(x,y))=(f(x+1,y)-f(x-1,y))/2
计算I2在水平方向上的梯度Gx,其中(x,y)为图像I2中x行y列的像素,f为图像I2中的像素灰度值,f(x+1,y)-f(x-1,y)为(x,y)像素的左右邻点的灰度差值,得到真实场景梯度图像I3
步骤4、根据sobel算子的y方向模板[1 2 1;0 0 0;-1 -2 -1]提取I2在垂直方向的边缘,设置边缘的长度阈值为L个像素,获得大于长度阈值L的边缘的个数N,每条边缘我们用Ej表示,设有j=1,2…N。实验中L=10,N=31,每条边缘的长度如下:
Figure GDA0001756349470000071
步骤5、针对边缘Ej,选取合适的矩形感兴趣区域Rj,Rj的高为边缘Ej的长度并且边缘Ej为该包含区域R的中心线,利用plot函数绘制在I3的感兴趣区域R中每一行的梯度曲线。例如,当j=1时,选取合适的矩形感兴趣区域R1R1的高为边缘E1的长度并且边缘E1为该包含区域R1的中心线,利用plot函数绘制在I3的感兴趣区域R1中每一行的梯度曲线;当j=2…N时与j=1类似。
步骤6、将感兴趣区域Rj中所有梯度曲线进行均值拟合,得到曲线Sj,当曲线Sj只有一个波峰时,判断该曲线是否属于正态分布,如果满足正态分布曲线则进行下一步;当S有两个波峰时,判断其波峰值是否相等,若不相等则认为曲线S不是高斯型曲线,则舍弃该边缘直线Ej;得到满足正态分布的曲线所对应的边缘直线的个数记为M=26,且1<=j<=M<=N。
步骤7、根据公式
Figure GDA0001756349470000081
计算满足正态分布的曲线Sj的标准差,其中q′j,max为曲线S的波峰值,q′j为曲线S上每个坐标的y值。例如,边缘Ej对应曲线Sj的标准差σj如下所示:
序号M 标准差σ<sub>j</sub> 序号M 标准差σ<sub>j</sub> 序号M 标准差σ<sub>j</sub> 序号M 标准差σ<sub>j</sub>
1 1.1940 8 1.3211 15 1.3182 22 1.3172
2 1.1923 9 1.2796 16 1.2251 23 1.3666
3 1.2363 10 1.3403 17 1.3352 24 1.3453
4 1.2494 11 1.2836 18 1.0105 25 1.3160
5 1.2031 12 1.3522 19 1.3545 26 1.3734
6 1.2810 13 1.3354 20 1.2726
7 1.3182 14 1.2772 21 1.3422
步骤8、根据公式
Figure GDA0001756349470000082
计算出第一数字图像I1中所有符合高斯型曲线边缘梯度曲线的标准差,
Figure GDA0001756349470000083
步骤9、在散焦模糊PSF退化模型中,PSF是点光源经过相机光圈发生散焦、衍射、散射等变化形成一个扩大像素的数学过程描述,由于高斯型PSF的圆周对称性可以将PSF简化为一维的LSF,它是形成模糊图像上的一条直线或者边缘的数学过程描述。因此将由步骤8计算边缘直线的标准差均值作为图像I1的LSF标准差σ。
步骤10、高斯模糊的半径r为近似于3σ的奇数值,在边长为r的正方形Rect中画一个半径为r/2的内接圆C,计算内接圆C在正方形Rect中每个边长为1的小正方形内占的面积,得到一个r*r的面积矩阵ar。例如,当r=3时,
Figure GDA0001756349470000091
步骤11、结合标准差σ与公式
Figure GDA0001756349470000092
计算r*r的高斯模板中每个系数的值,其中k=r/2,x∈[0,2k],y∈[0,2k],将模板左上角归一化为1,即模板中每个系数除以g(1,1),得到高斯模板矩阵gr。例如,当r=3时,
Figure GDA0001756349470000093
步骤12、根据公式h=gr*ar求出相应的矩阵hr,其中ar为步骤10中得到的面积矩阵,gr为步骤11中得到的高斯模板矩阵,并将矩阵hr进行归一化处理使该矩阵内的值在[0,1]之间以及矩阵内的所有元素之和等于1,得到最后的权重矩阵Hr。例如,当r=3时,
Figure GDA0001756349470000094
Figure GDA0001756349470000095
步骤13、在以某个像素P为中心的r*r邻域内取每个像素的颜色值组成r*r的颜色矩阵Cr。利用公式Pr=Cr*Hr计算得到矩阵Pr,取矩阵Pr内所有元素值的和作为像素P的颜色值。
步骤14、利用ARToolkit的simple程序将I1进行二值化处理,将得到的二值化图像进行边缘检测、连通域分析以及筛选处理,提取出矩形区域作为标识卡候选区域Areai,其中i=0,1,2…n;接着根据标识卡4对候选区域Areai进行标识卡模板匹配值计算,若候选区域Areai具有最高匹配值而且匹配值大于提前设定阈值,则认为Areai是检测到的标识卡区域Am。然后系统会存储标识卡区域Am的相关信息,比如面积、识别号码、方向、匹配值、四个顶点的坐标值及其四条边的直线方程表达式。首先通过提取出标识卡四个角点的坐标,结合摄像机内参P与世界坐标系上标识卡相对应角点的三维坐标(Xm,Ym,Zm)计算出摄像机相对于标识卡的位置,也就是由旋转矩阵和平移矩阵组成的转换矩阵Tcm,利用转换矩阵Tcm将虚拟物体叠加注册在I1上,得到融合场景图像并用I4表示。
步骤15、针对I4中虚拟物体的每个像素的R,G,B三个通道分别做步骤13中的运算,根据计算得到每个像素的颜色值重新绘制I4得到第三数字图像I5最终实现虚实物体间的模糊一致性。
利用以上步骤实现了基于LSF标准差的虚实融合模糊一致性处理方法。

Claims (1)

1.一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方法,通过电缆将摄像机与计算机进行连接,真实场景中包含着ARToolkit中的Hiro方形黑白标识卡;其特征在于具体的步骤如下:
步骤1、使用摄像机拍摄真实场景,获得真实场景图像并用I1表示;
步骤2、利用matlab的rgb2gray函数将I1灰度化得到真实场景灰度图像I2,并根据公式
Gx(f(x,y))=(f(x+1,y)-f(x-1,y))/2
计算I2在水平方向上的梯度Gx,其中(x,y)为图像I2中x行y列的像素,f为图像I2中的像素灰度值,f(x+1,y)-f(x-1,y)为(x,y)像素的左右邻点的灰度差值,得到真实场景梯度图像I3
步骤4、根据sobel算子的y方向模板[1 2 1;0 0 0;-1 -2 -1]提取I2在垂直方向的边缘,设置边缘的长度阈值为L个像素,获得大于长度阈值L的边缘的个数N,每条边缘我们用Ej表示,设有j=1,2…N;
步骤5、针对边缘Ej,选取合适的矩形感兴趣区域Rj,Rj的高为边缘Ej的长度并且边缘Ej为该包含区域R的中心线,利用plot函数绘制在I3的感兴趣区域R中每一行的梯度曲线;
步骤6、将感兴趣区域Rj中所有梯度曲线进行均值拟合,得到曲线Sj,当曲线Sj只有一个波峰时,判断该曲线是否属于正态分布,如果满足正态分布曲线则进行下一步;当S有两个波峰时,则判断其波峰值是否相等,若不相等则认为曲线S不是高斯型曲线,则舍弃该边缘直线Ej;得到满足正态分布的曲线所对应的边缘直线的个数记为M,且1<=j<=M<=N;
步骤7、根据公式
Figure FDA0001670241310000021
计算满足正态分布的曲线Sj的标准差,其中q′j,max为曲线S的波峰值,q′j为曲线S上每个坐标的y值;
步骤8、根据公式
Figure FDA0001670241310000022
计算出第一数字图像I1中所有符合高斯型曲线边缘梯度曲线的标准差均值;
步骤9、在散焦模糊PSF退化模型中,PSF是点光源经过相机光圈发生散焦、衍射、散射等变化形成一个扩大像素的数学过程描述,由于高斯型PSF的圆周对称性可以将PSF简化为一维的LSF,它是形成模糊图像上的一条直线或者边缘的数学过程描述, 因此将由步骤8计算边缘直线的标准差均值作为图像I1的LSF标准差σ;
步骤10、高斯模糊的半径r为近似于3σ的奇数值,在边长为r的正方形Rect中画一个半径为r/2的内接圆C,计算内接圆C在正方形Rect中每个边长为1的小正方形内占的面积,得到一个r*r的面积矩阵ar
步骤11、结合标准差σ与公式
Figure FDA0001670241310000023
计算r*r的高斯模板中每个系数的值,其中k=r/2,x∈[0,2k],y∈[0,2k],将模板左上角归一化为1,即模板中每个系数除以g(1,1),得到高斯模板矩阵gr
步骤12、根据公式h=gr*ar求出相应的矩阵hr,其中ar为步骤10中得到的面积矩阵,gr为步骤11中得到的高斯模板矩阵,并将矩阵hr进行归一化处理使该矩阵内的值在[0,1]之间以及矩阵内的所有元素之和等于1,得到最后的权重矩阵Hr
步骤13、在以某个像素P为中心的r*r邻域内取每个像素的颜色值组成r*r的颜色矩阵Cr, 利用公式Pr=Cr*Hr计算得到矩阵Pr,取矩阵Pr内所有元素值的和作为像素P的颜色值;
步骤14、利用ARToolkit的simple程序将I1进行二值化处理,将得到的二值化图像进行边缘检测、连通域分析以及筛选处理,提取出矩形区域作为标识卡候选区域Areai,其中i=0,1,2…n;接着根据标识卡对候选区域Areai进行标识卡模板匹配值计算,若候选区域Areai具有最高匹配值而且匹配值大于提前设定阈值,则认为Areai是检测到的标识卡区域Am,然后系统会存储标识卡区域Am的相关信息,比如面积、识别号码、方向、匹配值、四个顶点的坐标值及其四条边的直线方程表达式,首先通过提取出标识卡四个角点的坐标,结合摄像机内参P与世界坐标系上标识卡相对应角点的三维坐标(Xm,Ym,Zm)计算出摄像机相对于标识卡的位置,也就是由旋转矩阵和平移矩阵组成的转换矩阵Tcm,利用转换矩阵Tcm将虚拟物体叠加注册在I1上,得到融合场景图像并用I4表示;
步骤15、针对I4中虚拟物体的每个像素的R,G,B三个通道分别做步骤13中的运算,根据计算得到每个像素的颜色值重新绘制I4得到第三数字图像I5最终实现虚实物体间的模糊一致性;
利用以上步骤实现了基于LSF标准差的虚实融合模糊一致性处理方法。
CN201810500760.7A 2018-05-23 2018-05-23 基于线扩展函数标准差的虚实融合模糊一致性处理方法 Active CN108830804B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810500760.7A CN108830804B (zh) 2018-05-23 2018-05-23 基于线扩展函数标准差的虚实融合模糊一致性处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810500760.7A CN108830804B (zh) 2018-05-23 2018-05-23 基于线扩展函数标准差的虚实融合模糊一致性处理方法

Publications (2)

Publication Number Publication Date
CN108830804A CN108830804A (zh) 2018-11-16
CN108830804B true CN108830804B (zh) 2023-03-10

Family

ID=64147214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810500760.7A Active CN108830804B (zh) 2018-05-23 2018-05-23 基于线扩展函数标准差的虚实融合模糊一致性处理方法

Country Status (1)

Country Link
CN (1) CN108830804B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705537B (zh) * 2019-09-27 2023-03-28 合肥市智享亿云信息科技有限公司 一种基于摄像头的平面图案识别方法及其装置与应用
CN110807745B (zh) * 2019-10-25 2022-09-16 北京小米智能科技有限公司 图像处理方法及装置、电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053418A (ja) * 2009-09-01 2011-03-17 Olympus Corp 光学装置、およびそれを用いた撮像装置、撮像システム
CN102096941A (zh) * 2011-01-30 2011-06-15 北京航空航天大学 虚实融合环境下的光照一致性方法
CN102651133A (zh) * 2012-03-17 2012-08-29 哈尔滨工业大学 基于长曝光成像的动目标模糊图像等效仿真方法与装置
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法
CN104574339A (zh) * 2015-02-09 2015-04-29 上海安威士科技股份有限公司 一种用于视频监控的多尺度柱面投影全景图像生成方法
CN105719298A (zh) * 2016-01-22 2016-06-29 北京航空航天大学 一种基于边缘检测技术的线扩散函数提取的方法
CN106980371A (zh) * 2017-03-24 2017-07-25 电子科技大学 一种基于临近异构分布式结构的移动增强现实交互方法
CN107292965A (zh) * 2017-08-03 2017-10-24 北京航空航天大学青岛研究院 一种基于深度图像数据流的虚实遮挡处理方法
CN107341853A (zh) * 2017-07-13 2017-11-10 河北中科恒运软件科技股份有限公司 超大虚拟场景和动态摄屏的虚实融合方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008050320A2 (en) * 2006-10-23 2008-05-02 Ben Gurion University Of The Negev, Research And Development Authority Blind restoration of images degraded by isotropic blur
CN105608667A (zh) * 2014-11-20 2016-05-25 深圳英飞拓科技股份有限公司 一种全景拼接的方法及装置
CN105160641B (zh) * 2015-08-04 2018-05-29 成都多贝科技有限责任公司 基于图像处理的x射线焊缝区域提取方法
CN106204554A (zh) * 2016-07-01 2016-12-07 厦门美图之家科技有限公司 基于多聚焦图像的景深信息获取方法、系统及拍摄终端
CN106600557B (zh) * 2016-12-19 2019-09-17 辽宁工程技术大学 基于混合高斯模型与稀疏约束的psf估计方法
CN106952222A (zh) * 2017-03-17 2017-07-14 成都通甲优博科技有限责任公司 一种交互式图像虚化方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053418A (ja) * 2009-09-01 2011-03-17 Olympus Corp 光学装置、およびそれを用いた撮像装置、撮像システム
CN102096941A (zh) * 2011-01-30 2011-06-15 北京航空航天大学 虚实融合环境下的光照一致性方法
CN102651133A (zh) * 2012-03-17 2012-08-29 哈尔滨工业大学 基于长曝光成像的动目标模糊图像等效仿真方法与装置
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法
CN104574339A (zh) * 2015-02-09 2015-04-29 上海安威士科技股份有限公司 一种用于视频监控的多尺度柱面投影全景图像生成方法
CN105719298A (zh) * 2016-01-22 2016-06-29 北京航空航天大学 一种基于边缘检测技术的线扩散函数提取的方法
CN106980371A (zh) * 2017-03-24 2017-07-25 电子科技大学 一种基于临近异构分布式结构的移动增强现实交互方法
CN107341853A (zh) * 2017-07-13 2017-11-10 河北中科恒运软件科技股份有限公司 超大虚拟场景和动态摄屏的虚实融合方法及系统
CN107292965A (zh) * 2017-08-03 2017-10-24 北京航空航天大学青岛研究院 一种基于深度图像数据流的虚实遮挡处理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
无参考图像模糊度估计;朱宏亮;《中国优秀硕士学位论文全文数据库 信息科技辑》;20110115(第1期);第I138-1230页正文第36-43页 *
高斯模糊的算法;阮一峰;《http://www.ruanyifeng.com/blog/2012/11/gaussian_blur.html》;20121114;第6-8页 *

Also Published As

Publication number Publication date
CN108830804A (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
Zhu et al. Haze removal method for natural restoration of images with sky
CN102867288B (zh) 深度图像转换设备和方法
Wang et al. Haze removal based on multiple scattering model with superpixel algorithm
RU2659745C1 (ru) Реконструкция документа из серии изображений документа
US8928737B2 (en) System and method for three dimensional imaging
CN111104943A (zh) 基于决策级融合的彩色图像感兴趣区域提取方法
Liu et al. Image de-hazing from the perspective of noise filtering
Lei et al. Evaluation and modeling of depth feature incorporated visual attention for salient object segmentation
Asmare et al. Image Enhancement by Fusion in Contourlet Transform.
CN110555820A (zh) 基于卷积神经网络和动态引导滤波的图像融合方法
CN108830804B (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法
Singh et al. Weighted least squares based detail enhanced exposure fusion
CN116342519A (zh) 一种基于机器学习的图像处理方法
Angot et al. A 2D to 3D video and image conversion technique based on a bilateral filter
Hao et al. Texture enhanced underwater image restoration via laplacian regularization
GB2585197A (en) Method and system for obtaining depth data
CN114372931A (zh) 一种目标对象虚化方法、装置、存储介质及电子设备
CN110717879A (zh) 多聚焦图像的处理方法及装置、存储介质、电子设备
Qu et al. Algorithm of multiexposure image fusion with detail enhancement and ghosting removal
Zhao et al. Image aesthetics enhancement using composition-based saliency detection
Chang et al. R2p: Recomposition and retargeting of photographic images
Cao et al. Depth image vibration filtering and shadow detection based on fusion and fractional differential
Tran et al. Single Image Dehazing via Regional Saturation-Value Translation
Dai et al. Underwater image enhancement based on multiscale fusion generative adversarial network
Park et al. Variational image dehazing using a fuzzy membership function

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant