CN108830804A - 基于线扩展函数标准差的虚实融合模糊一致性处理方法 - Google Patents

基于线扩展函数标准差的虚实融合模糊一致性处理方法 Download PDF

Info

Publication number
CN108830804A
CN108830804A CN201810500760.7A CN201810500760A CN108830804A CN 108830804 A CN108830804 A CN 108830804A CN 201810500760 A CN201810500760 A CN 201810500760A CN 108830804 A CN108830804 A CN 108830804A
Authority
CN
China
Prior art keywords
value
matrix
edge
standard deviation
curve
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810500760.7A
Other languages
English (en)
Other versions
CN108830804B (zh
Inventor
韩成
张超
白利娟
李华
杨帆
胡汉平
权巍
薛耀红
徐超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN201810500760.7A priority Critical patent/CN108830804B/zh
Publication of CN108830804A publication Critical patent/CN108830804A/zh
Application granted granted Critical
Publication of CN108830804B publication Critical patent/CN108830804B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方法,其通过电缆将摄像机与计算机进行连接,真实场景中包含着ARToolkit中的Hiro方形黑白标识卡;其特征在于:首先获取融合场景中与虚拟物体处于相近或相同深度位置上的真实物体区域,然后估计该区域边缘的LSF标准差,并结合该标准差与图像退化模型对虚拟物体进行模糊化处理,最后生成虚实物体间具有模糊一致性的融合场景。

Description

基于线扩展函数标准差的虚实融合模糊一致性处理方法
技术领域
本发明涉及一种基于线扩展函数(line spread function,LSF) 标准差的虚实融合模糊一致性处理方法,属于计算机视觉技术领 域。
背景技术
在增强现实(Augmented Reality,AR)系统中,摄像机获取场景 图像时会由于外界环境以及人为等因素造成图像失真现象的模糊。虚 拟物体在融合场景中始终保持清晰,与经过自然渲染的真实场景融合 会出现明显的拼接现象,使场景缺乏沉浸感,甚至会引起用户眼睛不 适应、疲劳等现象。因此在AR系统中对虚拟物体加入景深效果使其 与场景中真实物体具有相同的模糊效果,可以提高系统的真实感和沉 浸感,增强用户在融合场景中的深度感知。
图像模糊根据形成原因可以分为两种:运动模糊与散焦模糊。其 中运动模糊是因为拍摄场景时拍摄对象与摄像机之间发生相对移动 或者摄像机抖动,因此拍摄图像上会出现多个物体影像重叠现象,也 就是图像模糊。而散焦模糊产生的原因一般是相机的聚焦不准确或者 拍摄对象在焦距范围之外。
针对散焦模糊,P.Kán和H.Kaufman提出了一种基于物理的路 径跟踪算法,结合相机透镜成像原理与基于差分渲染的光线路径算法 实时绘制出具有复杂全局照明效果以及景深效果的融合场景,大大提 高了AR系统融合场景图像的质量。Rompapas D C等人在H.Kaufmann 的研究基础上通过测量用户眼睛的焦距和瞳孔大小来实现虚拟图像 与真实场景之间的模糊一致性,并通过实时测量用户眼睛状态来调整 相应的虚拟图像。Chen Y等人就是根据虚拟物体的深度分为三层, 在每一层采用不同半径的高斯模糊核对虚拟物体进行模糊,并提出了 一种改进的高斯模糊算法来模拟景深渲染,并结合分层渲染方法实现了AR场景中虚拟物体与真实物体之间的模糊一致性。赵东阳等计算 摄像机容许的弥散圈的直径及其前后景深值,然后通过计算机标定得 到的转换矩阵求出摄像机拍摄物体所允许的清晰范围以及AR系统融 合场景中虚拟物体各个像素点的景深值,接着根据像素景深值以及场 景中近、远剪切面的弥散圆直径值计算出模糊因子。在模糊处理方面, 先对场景进行了均值与亮度预模糊处理,接着使用混合功能将模糊化 之前的清晰场景与模糊化之后的场景融合生成更加真实的场景图。
针对运动模糊,严玉若结合Randon变换与Canny算子计算出真 实物体运动模糊退化模型的PSF参数,并结合多次渲染实现了虚拟物 体与真实物体间相同的运动模糊效果。
发明内容
为了提高AR融合场景的真实性与沉浸感,本发明的目的在于提 供一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方 法,其首先获取融合场景中与虚拟物体处于相近或相同深度位置上 的真实物体区域,然后估计该区域边缘的LSF标准差,并结合该标 准差与图像退化模型对虚拟物体进行模糊化处理,最后生成虚实物 体间具有模糊一致性的融合场景。
本发明的技术方案是这样实现的:一种基于线扩展函数LSF标准 差的虚实融合模糊一致性处理方法,通过电缆将摄像机与计算机进 行连接,真实场景中包含着ARToolkit中的Hiro方形黑白标识卡; 其特征在于具体的步骤如下:
步骤1、使用摄像机拍摄真实场景,获得真实场景图像并用I1表示。
步骤2、利用matlab的rgb2gray函数将I1灰度化得到真实场景 灰度图像I2,并根据公式
Gx(f(x,y))=(f(x+1,y)-f(x-1,y))/2
计算I2在水平方向上的梯度Gx,其中(x,y)为图像I2中x行y列 的像素,f为图像I2中的像素灰度值,f(x+1,y)-f(x-1,y)为(x,y)像 素的左右邻点的灰度差值,得到真实场景梯度图像I3
步骤4、根据sobel算子的y方向模板[1 2 1;0 0 0;-1 -2 -1] 提取I2在垂直方向的边缘,设置边缘的长度阈值为L个像素,获得大 于长度阈值L的边缘的个数N,每条边缘我们用Ej表示,设有 j=1,2…N;
步骤5、针对边缘Ej,选取合适的矩形感兴趣区域Rj,Rj的高为 边缘Ej的长度并且边缘Ej为该包含区域R的中心线,利用plot函数 绘制在I3的感兴趣区域R中每一行的梯度曲线;
步骤6、将感兴趣区域Rj中所有梯度曲线进行均值拟合,得到曲 线Sj,当曲线Sj只有一个波峰时,判断该曲线是否属于正态分布,如 果满足正态分布曲线则进行下一步;当S有两个波峰时,则判断其波 峰值是否相等,若不相等则认为曲线S不是高斯型曲线,则舍弃该边 缘直线Ej;得到满足正态分布的曲线所对应的边缘直线的个数记为M, 且1<=j<=M<=N;
步骤7、根据公式
计算满足正态分布的曲线Sj的标准差,其中qj,max为曲线S的波峰值, q′j为曲线S上每个坐标的y值;
步骤8、根据公式
计算出第一数字图像I1中所有符合高斯型曲线边缘梯度曲线的 标准差均值;
步骤9、在散焦模糊PSF退化模型中,PSF是点光源经过相机光 圈发生散焦、衍射、散射等变化形成一个扩大像素的数学过程描述, 由于高斯型PSF的圆周对称性可以将PSF简化为一维的LSF,它是形 成模糊图像上的一条直线或者边缘的数学过程描述。因此将由步骤8 计算边缘直线的标准差均值作为图像I1的LSF标准差σ;
步骤10、高斯模糊的半径r为近似于3σ的奇数值,在边长为r 的正方形Rect中画一个半径为r/2的内接圆C,计算内接圆C在正 方形Rect中每个边长为1的小正方形内占的面积,得到一个r*r的 面积矩阵ar
步骤11、结合标准差σ与公式计算r*r的 高斯模板中每个系数的值,其中k=r/2,x∈[0,2k],y∈[0,2k],将模板 左上角归一化为1,即模板中每个系数除以g(1,1),得到高斯模板矩阵 gr
步骤12、根据公式h=gr*ar求出相应的矩阵hr,其中ar为步骤 10中得到的面积矩阵,gr为步骤11中得到的高斯模板矩阵,并将矩 阵hr进行归一化处理使该矩阵内的值在[0,1]之间以及矩阵内的所有 元素之和等于1,得到最后的权重矩阵Hr
步骤13、在以某个像素P为中心的r*r邻域内取每个像素的颜 色值组成r*r的颜色矩阵Cr。利用公式Pr=Cr*Hr计算得到矩阵Pr, 取矩阵Pr内所有元素值的和作为像素P的颜色值;
步骤14、利用ARToolkit的simple程序将I1进行二值化处理, 将得到的二值化图像进行边缘检测、连通域分析以及筛选处理,提取 出矩形区域作为标识卡候选区域Areai,其中i=0,1,2…n;接着根据 标识卡对候选区域Areai进行标识卡模板匹配值计算,若候选区域 Areai具有最高匹配值而且匹配值大于提前设定阈值,则认为Areai是检测到的标识卡区域Am,然后系统会存储标识卡区域Am的相关信 息,比如面积、识别号码、方向、匹配值、四个顶点的坐标值及其四 条边的直线方程表达式,首先通过提取出标识卡四个角点的坐标,结 合摄像机内参P与世界坐标系上标识卡相对应角点的三维坐标 (Xm,Ym,Zm)计算出摄像机相对于标识卡的位置,也就是由旋转矩阵和 平移矩阵组成的转换矩阵Tcm,利用转换矩阵Tcm将虚拟物体叠加注册 在I1上,得到融合场景图像并用I4表示;
步骤15、针对I4中虚拟物体的每个像素的R,G,B三个通道分 别做步骤13中的运算,根据计算得到每个像素的颜色值重新绘制I4得到第三数字图像I5最终实现虚实物体间的模糊一致性;
利用以上步骤实现了基于LSF标准差的虚实融合模糊一致性处 理方法。
本发明的积极效果是其首先获取融合场景中与虚拟物体处于相 近或相同深度位置上的真实物体区域,然后估计该区域边缘的LSF 标准差,并结合该标准差与图像退化模型对虚拟物体进行模糊化处 理,最后生成虚实物体间具有模糊一致性的融合场景。
附图说明
图1为本发明的结构示意图,其中计算机1,相机2,真实场景 3。
具体实施方式
下面结合附图和实施例对本发明做进一步的描述:如图1所示, 一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方法, 通过电缆将摄像机2与计算机1进行连接,真实场景3中包含着 ARToolkit中的Hiro方形黑白标识卡4;其特征在于具体的步骤如下:
步骤1、使用摄像机2拍摄真实场景3,获得真实场景图像并用 I1表示。
步骤2、利用matlab的rgb2gray函数将I1灰度化得到真实场景 灰度图像I2,并根据公式
Gx(f(x,y))=(f(x+1,y)-f(x-1,y))/2
计算I2在水平方向上的梯度Gx,其中(x,y)为图像I2中x行y列 的像素,f为图像I2中的像素灰度值,f(x+1,y)-f(x-1,y)为(x,y)像 素的左右邻点的灰度差值,得到真实场景梯度图像I3
步骤4、根据sobel算子的y方向模板[1 2 1;0 0 0;-1 -2 -1] 提取I2在垂直方向的边缘,设置边缘的长度阈值为L个像素,获得大 于长度阈值L的边缘的个数N,每条边缘我们用Ej表示,设有 j=1,2…N。实验中L=10,N=31,每条边缘的长度如下:
步骤5、针对边缘Ej,选取合适的矩形感兴趣区域Rj,Rj的高为 边缘Ej的长度并且边缘Ej为该包含区域R的中心线,利用plot函数 绘制在I3的感兴趣区域R中每一行的梯度曲线。例如,当j=1时,选 取合适的矩形感兴趣区域R1R1的高为边缘E1的长度并且边缘E1为该包 含区域R1的中心线,利用plot函数绘制在I3的感兴趣区域R1中每一 行的梯度曲线;当j=2…N时与j=1类似。
步骤6、将感兴趣区域Rj中所有梯度曲线进行均值拟合,得到曲 线Sj,当曲线Sj只有一个波峰时,判断该曲线是否属于正态分布,如 果满足正态分布曲线则进行下一步;当S有两个波峰时,判断其波峰 值是否相等,若不相等则认为曲线S不是高斯型曲线,则舍弃该边缘 直线Ej;得到满足正态分布的曲线所对应的边缘直线的个数记为 M=26,且1<=j<=M<=N。
步骤7、根据公式
计算满足正态分布的曲线Sj的标准差,其中qj,max为曲线S的波峰值, q′j为曲线S上每个坐标的y值。例如,边缘Ej对应曲线Sj的标准差σj如下所示:
序号M 标准差σj 序号M 标准差σj 序号M 标准差σj 序号M 标准差σj
1 1.1940 8 1.3211 15 1.3182 22 1.3172
2 1.1923 9 1.2796 16 1.2251 23 1.3666
3 1.2363 10 1.3403 17 1.3352 24 1.3453
4 1.2494 11 1.2836 18 1.0105 25 1.3160
5 1.2031 12 1.3522 19 1.3545 26 1.3734
6 1.2810 13 1.3354 20 1.2726
7 1.3182 14 1.2772 21 1.3422
步骤8、根据公式
计算出第一数字图像I1中所有符合高斯型曲线边缘梯度曲线的 标准差,
步骤9、在散焦模糊PSF退化模型中,PSF是点光源经过相机光 圈发生散焦、衍射、散射等变化形成一个扩大像素的数学过程描述, 由于高斯型PSF的圆周对称性可以将PSF简化为一维的LSF,它是形 成模糊图像上的一条直线或者边缘的数学过程描述。因此将由步骤8 计算边缘直线的标准差均值作为图像I1的LSF标准差σ。
步骤10、高斯模糊的半径r为近似于3σ的奇数值,在边长为r 的正方形Rect中画一个半径为r/2的内接圆C,计算内接圆C在正 方形Rect中每个边长为1的小正方形内占的面积,得到一个r*r的 面积矩阵ar。例如,当r=3时,
步骤11、结合标准差σ与公式计算r*r的 高斯模板中每个系数的值,其中k=r/2,x∈[0,2k],y∈[0,2k],将模板 左上角归一化为1,即模板中每个系数除以g(1,1),得到高斯模板矩阵 gr。例如,当r=3时,
步骤12、根据公式h=gr*ar求出相应的矩阵hr,其中ar为步骤 10中得到的面积矩阵,gr为步骤11中得到的高斯模板矩阵,并将矩 阵hr进行归一化处理使该矩阵内的值在[0,1]之间以及矩阵内的所有 元素之和等于1,得到最后的权重矩阵Hr。例如,当r=3时,
步骤13、在以某个像素P为中心的r*r邻域内取每个像素的颜 色值组成r*r的颜色矩阵Cr。利用公式Pr=Cr*Hr计算得到矩阵Pr, 取矩阵Pr内所有元素值的和作为像素P的颜色值。
步骤14、利用ARToolkit的simple程序将I1进行二值化处理, 将得到的二值化图像进行边缘检测、连通域分析以及筛选处理,提取 出矩形区域作为标识卡候选区域Areai,其中i=0,1,2…n;接着根据 标识卡4对候选区域Areai进行标识卡模板匹配值计算,若候选区域 Areai具有最高匹配值而且匹配值大于提前设定阈值,则认为Areai是检测到的标识卡区域Am。然后系统会存储标识卡区域Am的相关信 息,比如面积、识别号码、方向、匹配值、四个顶点的坐标值及其四 条边的直线方程表达式。首先通过提取出标识卡四个角点的坐标,结 合摄像机内参P与世界坐标系上标识卡相对应角点的三维坐标 (Xm,Ym,Zm)计算出摄像机相对于标识卡的位置,也就是由旋转矩阵和 平移矩阵组成的转换矩阵Tcm,利用转换矩阵Tcm将虚拟物体叠加注册 在I1上,得到融合场景图像并用I4表示。
步骤15、针对I4中虚拟物体的每个像素的R,G,B三个通道分 别做步骤13中的运算,根据计算得到每个像素的颜色值重新绘制I4得到第三数字图像I5最终实现虚实物体间的模糊一致性。
利用以上步骤实现了基于LSF标准差的虚实融合模糊一致性处 理方法。

Claims (1)

1.一种基于线扩展函数LSF标准差的虚实融合模糊一致性处理方法,通过电缆将摄像机与计算机进行连接,真实场景中包含着ARToolkit中的Hiro方形黑白标识卡;其特征在于具体的步骤如下:
步骤1、使用摄像机拍摄真实场景,获得真实场景图像并用I1表示。
步骤2、利用matlab的rgb2gray函数将I1灰度化得到真实场景灰度图像I2,并根据公式
Gx(f(x,y))=(f(x+1,y)-f(x-1,y))/2
计算I2在水平方向上的梯度Gx,其中(x,y)为图像I2中x行y列的像素,f为图像I2中的像素灰度值,f(x+1,y)-f(x-1,y)为(x,y)像素的左右邻点的灰度差值,得到真实场景梯度图像I3
步骤4、根据sobel算子的y方向模板[1 2 1;0 0 0;-1 -2 -1]提取I2在垂直方向的边缘,设置边缘的长度阈值为L个像素,获得大于长度阈值L的边缘的个数N,每条边缘我们用Ej表示,设有j=1,2…N;
步骤5、针对边缘Ej,选取合适的矩形感兴趣区域Rj,Rj的高为边缘Ej的长度并且边缘Ej为该包含区域R的中心线,利用plot函数绘制在I3的感兴趣区域R中每一行的梯度曲线;
步骤6、将感兴趣区域Rj中所有梯度曲线进行均值拟合,得到曲线Sj,当曲线Sj只有一个波峰时,判断该曲线是否属于正态分布,如果满足正态分布曲线则进行下一步;当S有两个波峰时,则判断其波峰值是否相等,若不相等则认为曲线S不是高斯型曲线,则舍弃该边缘直线Ej;得到满足正态分布的曲线所对应的边缘直线的个数记为M,且1<=j<=M<=N;
步骤7、根据公式
计算满足正态分布的曲线Sj的标准差,其中q′j,max为曲线S的波峰值,q′j为曲线S上每个坐标的y值;
步骤8、根据公式
计算出第一数字图像I1中所有符合高斯型曲线边缘梯度曲线的标准差均值;
步骤9、在散焦模糊PSF退化模型中,PSF是点光源经过相机光圈发生散焦、衍射、散射等变化形成一个扩大像素的数学过程描述,由于高斯型PSF的圆周对称性可以将PSF简化为一维的LSF,它是形成模糊图像上的一条直线或者边缘的数学过程描述。因此将由步骤8计算边缘直线的标准差均值作为图像I1的LSF标准差σ;
步骤10、高斯模糊的半径r为近似于3σ的奇数值,在边长为r的正方形Rect中画一个半径为r/2的内接圆C,计算内接圆C在正方形Rect中每个边长为1的小正方形内占的面积,得到一个r*r的面积矩阵ar
步骤11、结合标准差σ与公式计算r*r的高斯模板中每个系数的值,其中k=r/2,x∈[0,2k],y∈[0,2k],将模板左上角归一化为1,即模板中每个系数除以g(1,1),得到高斯模板矩阵gr
步骤12、根据公式h=gr*ar求出相应的矩阵hr,其中ar为步骤10中得到的面积矩阵,gr为步骤11中得到的高斯模板矩阵,并将矩阵hr进行归一化处理使该矩阵内的值在[0,1]之间以及矩阵内的所有元素之和等于1,得到最后的权重矩阵Hr
步骤13、在以某个像素P为中心的r*r邻域内取每个像素的颜色值组成r*r的颜色矩阵Cr。利用公式Pr=Cr*Hr计算得到矩阵Pr,取矩阵Pr内所有元素值的和作为像素P的颜色值;
步骤14、利用ARToolkit的simple程序将I1进行二值化处理,将得到的二值化图像进行边缘检测、连通域分析以及筛选处理,提取出矩形区域作为标识卡候选区域Areai,其中i=0,1,2…n;接着根据标识卡对候选区域Areai进行标识卡模板匹配值计算,若候选区域Areai具有最高匹配值而且匹配值大于提前设定阈值,则认为Areai是检测到的标识卡区域Am,然后系统会存储标识卡区域Am的相关信息,比如面积、识别号码、方向、匹配值、四个顶点的坐标值及其四条边的直线方程表达式,首先通过提取出标识卡四个角点的坐标,结合摄像机内参P与世界坐标系上标识卡相对应角点的三维坐标(Xm,Ym,Zm)计算出摄像机相对于标识卡的位置,也就是由旋转矩阵和平移矩阵组成的转换矩阵Tcm,利用转换矩阵Tcm将虚拟物体叠加注册在I1上,得到融合场景图像并用I4表示;
步骤15、针对I4中虚拟物体的每个像素的R,G,B三个通道分别做步骤13中的运算,根据计算得到每个像素的颜色值重新绘制I4得到第三数字图像I5最终实现虚实物体间的模糊一致性;
利用以上步骤实现了基于LSF标准差的虚实融合模糊一致性处理方法。
CN201810500760.7A 2018-05-23 2018-05-23 基于线扩展函数标准差的虚实融合模糊一致性处理方法 Active CN108830804B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810500760.7A CN108830804B (zh) 2018-05-23 2018-05-23 基于线扩展函数标准差的虚实融合模糊一致性处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810500760.7A CN108830804B (zh) 2018-05-23 2018-05-23 基于线扩展函数标准差的虚实融合模糊一致性处理方法

Publications (2)

Publication Number Publication Date
CN108830804A true CN108830804A (zh) 2018-11-16
CN108830804B CN108830804B (zh) 2023-03-10

Family

ID=64147214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810500760.7A Active CN108830804B (zh) 2018-05-23 2018-05-23 基于线扩展函数标准差的虚实融合模糊一致性处理方法

Country Status (1)

Country Link
CN (1) CN108830804B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705537A (zh) * 2019-09-27 2020-01-17 合肥市群智科技有限公司 一种基于摄像头的平面图案识别方法及其装置与应用
CN110807745A (zh) * 2019-10-25 2020-02-18 北京小米智能科技有限公司 图像处理方法及装置、电子设备

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100080487A1 (en) * 2006-10-23 2010-04-01 Yitzhak Yitzhaky Blind restoration of images degraded by isotropic blur
JP2011053418A (ja) * 2009-09-01 2011-03-17 Olympus Corp 光学装置、およびそれを用いた撮像装置、撮像システム
CN102096941A (zh) * 2011-01-30 2011-06-15 北京航空航天大学 虚实融合环境下的光照一致性方法
CN102651133A (zh) * 2012-03-17 2012-08-29 哈尔滨工业大学 基于长曝光成像的动目标模糊图像等效仿真方法与装置
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法
CN104574339A (zh) * 2015-02-09 2015-04-29 上海安威士科技股份有限公司 一种用于视频监控的多尺度柱面投影全景图像生成方法
CN105160641A (zh) * 2015-08-04 2015-12-16 成都多贝科技有限责任公司 基于图像处理的x射线焊缝区域提取方法
CN105608667A (zh) * 2014-11-20 2016-05-25 深圳英飞拓科技股份有限公司 一种全景拼接的方法及装置
CN105719298A (zh) * 2016-01-22 2016-06-29 北京航空航天大学 一种基于边缘检测技术的线扩散函数提取的方法
CN106204554A (zh) * 2016-07-01 2016-12-07 厦门美图之家科技有限公司 基于多聚焦图像的景深信息获取方法、系统及拍摄终端
CN106600557A (zh) * 2016-12-19 2017-04-26 辽宁工程技术大学 基于混合高斯模型与稀疏约束的psf估计方法
CN106952222A (zh) * 2017-03-17 2017-07-14 成都通甲优博科技有限责任公司 一种交互式图像虚化方法及装置
CN106980371A (zh) * 2017-03-24 2017-07-25 电子科技大学 一种基于临近异构分布式结构的移动增强现实交互方法
CN107292965A (zh) * 2017-08-03 2017-10-24 北京航空航天大学青岛研究院 一种基于深度图像数据流的虚实遮挡处理方法
CN107341853A (zh) * 2017-07-13 2017-11-10 河北中科恒运软件科技股份有限公司 超大虚拟场景和动态摄屏的虚实融合方法及系统

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100080487A1 (en) * 2006-10-23 2010-04-01 Yitzhak Yitzhaky Blind restoration of images degraded by isotropic blur
JP2011053418A (ja) * 2009-09-01 2011-03-17 Olympus Corp 光学装置、およびそれを用いた撮像装置、撮像システム
CN102096941A (zh) * 2011-01-30 2011-06-15 北京航空航天大学 虚实融合环境下的光照一致性方法
CN102651133A (zh) * 2012-03-17 2012-08-29 哈尔滨工业大学 基于长曝光成像的动目标模糊图像等效仿真方法与装置
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法
CN105608667A (zh) * 2014-11-20 2016-05-25 深圳英飞拓科技股份有限公司 一种全景拼接的方法及装置
CN104574339A (zh) * 2015-02-09 2015-04-29 上海安威士科技股份有限公司 一种用于视频监控的多尺度柱面投影全景图像生成方法
CN105160641A (zh) * 2015-08-04 2015-12-16 成都多贝科技有限责任公司 基于图像处理的x射线焊缝区域提取方法
CN105719298A (zh) * 2016-01-22 2016-06-29 北京航空航天大学 一种基于边缘检测技术的线扩散函数提取的方法
CN106204554A (zh) * 2016-07-01 2016-12-07 厦门美图之家科技有限公司 基于多聚焦图像的景深信息获取方法、系统及拍摄终端
CN106600557A (zh) * 2016-12-19 2017-04-26 辽宁工程技术大学 基于混合高斯模型与稀疏约束的psf估计方法
CN106952222A (zh) * 2017-03-17 2017-07-14 成都通甲优博科技有限责任公司 一种交互式图像虚化方法及装置
CN106980371A (zh) * 2017-03-24 2017-07-25 电子科技大学 一种基于临近异构分布式结构的移动增强现实交互方法
CN107341853A (zh) * 2017-07-13 2017-11-10 河北中科恒运软件科技股份有限公司 超大虚拟场景和动态摄屏的虚实融合方法及系统
CN107292965A (zh) * 2017-08-03 2017-10-24 北京航空航天大学青岛研究院 一种基于深度图像数据流的虚实遮挡处理方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LEIDA LI等: "No-Reference Image Blur Assessment Based on Discrete Orthogonal Moments", 《IEEE TRANSACTIONS ON CYBERNETICS》 *
朱宏亮: "无参考图像模糊度估计", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
谢巍等: "基于几何投影的线扩展函数算法研究", 《激光与光电子学进展》 *
阮一峰: "高斯模糊的算法", 《HTTP://WWW.RUANYIFENG.COM/BLOG/2012/11/GAUSSIAN_BLUR.HTML》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705537A (zh) * 2019-09-27 2020-01-17 合肥市群智科技有限公司 一种基于摄像头的平面图案识别方法及其装置与应用
CN110705537B (zh) * 2019-09-27 2023-03-28 合肥市智享亿云信息科技有限公司 一种基于摄像头的平面图案识别方法及其装置与应用
CN110807745A (zh) * 2019-10-25 2020-02-18 北京小米智能科技有限公司 图像处理方法及装置、电子设备

Also Published As

Publication number Publication date
CN108830804B (zh) 2023-03-10

Similar Documents

Publication Publication Date Title
DE112020004813B4 (de) System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation
Ghosh et al. A survey on image mosaicing techniques
Tao et al. Depth from combining defocus and correspondence using light-field cameras
Zhang et al. An image stitching algorithm based on histogram matching and SIFT algorithm
CN109685913B (zh) 基于计算机视觉定位的增强现实实现方法
CN111062905A (zh) 一种基于显著图增强的红外和可见光融合方法
CN110211043A (zh) 一种用于全景图像拼接的基于网格优化的配准方法
CN108122191A (zh) 鱼眼图像拼接成全景图像和全景视频的方法及装置
CN109523551B (zh) 一种获取机器人行走姿态的方法及系统
CN104424640A (zh) 对图像进行虚化处理的方法和装置
US10169891B2 (en) Producing three-dimensional representation based on images of a person
CN105869115B (zh) 一种基于kinect2.0的深度图像超分辨率方法
CN110956661A (zh) 基于双向单应矩阵的可见光与红外相机动态位姿计算方法
Asmare et al. Image Enhancement by Fusion in Contourlet Transform.
CN116091314A (zh) 一种基于多尺度深度单应性的红外图像拼接方法
CN108830804A (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法
CN112529498B (zh) 一种仓储物流管理方法及系统
Hua et al. Background extraction using random walk image fusion
CN111105350B (zh) 大视差场景下基于自身单应性变换的实时视频拼接方法
CN112132771A (zh) 一种基于光场成像的多聚焦图像融合方法
CN107392986A (zh) 一种基于高斯金字塔和各向异性滤波的图像景深渲染方法
GB2585197A (en) Method and system for obtaining depth data
Yang et al. A depth map generation algorithm based on saliency detection for 2D to 3D conversion
Yang et al. Depth from water reflection
Guo et al. Fast Defogging and Restoration Assessment Approach to Road Scene Images*.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant