CN111798484B - 基于事件相机的连续稠密光流估计方法及系统 - Google Patents

基于事件相机的连续稠密光流估计方法及系统 Download PDF

Info

Publication number
CN111798484B
CN111798484B CN202010620378.7A CN202010620378A CN111798484B CN 111798484 B CN111798484 B CN 111798484B CN 202010620378 A CN202010620378 A CN 202010620378A CN 111798484 B CN111798484 B CN 111798484B
Authority
CN
China
Prior art keywords
optical flow
event
camera
dense
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010620378.7A
Other languages
English (en)
Other versions
CN111798484A (zh
Inventor
余磊
付婧祎
杨文�
陈欣宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010620378.7A priority Critical patent/CN111798484B/zh
Publication of CN111798484A publication Critical patent/CN111798484A/zh
Application granted granted Critical
Publication of CN111798484B publication Critical patent/CN111798484B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Algebra (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本发明提供一种基于事件相机的连续稠密光流估计方法及系统,使用EDI模型重建任意时刻的清晰图像,利用亮度恒定假设支持得到任意时刻的稀疏光流,所述EDI表示事件相机二重积分;通过添加HS约束或CLG约束,实现估计稠密光流,所述HS表示全局光流,所述CLG表示结合本地和全局光流。和现有技术相比,本发明提供了一种不受图像模糊影响的光流估计方案,并在估计光流时引进了HS和CLG两种约束方法,利用了事件流和灰度图像的优势,提高了光流估计的准确率,能够支持高动态范围和高速运动场景应用。

Description

基于事件相机的连续稠密光流估计方法及系统
技术领域
本发明属于图像处理领域,特别涉及高动态范围和高速运动场景下的光流估计技术。
背景技术
光流估计是计算机视觉领域的一个重要技术问题,近几十年来受到了广泛关注。传统的视觉传感器以固定的帧率采集图像,存在一些技术限制,低帧率的相机在高速运动时会产生运动模糊,而高帧率的相机又需要较大功耗和带宽。除此之外,传统相机对光照变化比较敏感,在高动态光照场景下容易使图像出现部分过曝或者欠曝的情况。运动模糊、过曝以及欠曝会使图像损失纹理、梯度、边缘等细节,影响输出图像的质量,进而降低光流估计的精度,因此基于传统相机的光流估计方法难以应用于高速运动等场景下的视觉任务中。
受仿生学启发的事件相机(Event Camera)是基于事件的传感器,其工作原理与传统的相机有很大的差别,如附图1所示。事件相机模拟人体视网膜的成像原理,其像素阵列通过测量每个像素的光强变化,以微秒级响应速度输出异步事件,输出的事件数据包含像素点位置、时间戳以及极性信息。相比于传统相机,事件相机具有高动态、高时间分辨率、低功耗的特性,可以提供传统相机两帧之间“盲时间”内的信息,为传统相机在高速运动等场景下无法进行高精度光流估计的问题提供了解决方案。
目前,基于事件相机的光流估计方法主要分为单纯基于事件流的方法,以及联合事件流和灰度图像的方法。单纯基于事件流的方法,由于缺少亮度图像,导致空间信息不足,从而会影响到光流估计的准确性,因此,更多的研究者将目光投向了联合事件流和灰度图像的方法,将事件流的高时间分辨率和灰度图像的高空间保真度相结合。但是由于相机存在固有的模糊效果,在高速运动场景中,输出的灰度图像可能会存在模糊,也会降低光流的质量。因此,需要研究出一种新的不受灰度图像模糊影响的光流估计方法,使事件相机的优势得到更加充分的发挥。此外,在光流的计算中,根据所形成的光流场中二维矢量的疏密程度,可以将光流法分为稠密光流与稀疏光流两种。稠密光流计算图像上所有的点的偏移量,从而形成一个稠密的光流场。由于光流矢量稠密,所以其效果也明显优于稀疏光流。因此,如果进行稠密光流的估计,可以使得所得光流更加准确,是本领域亟待解决的技术问题。
发明内容
基于以上分析,本发明的目的在于充分发挥事件相机在光流估计领域中的优势,利用事件相机的特性设计出在高速运动等场景下的瞬时光流估计方法,提高光流估计的精度。
本发明的技术方案提供一种基于事件相机的连续稠密光流估计方法,包括使用EDI模型重建任意时刻的清晰图像,利用亮度恒定假设支持得到任意时刻的稀疏光流,所述EDI表示事件相机二重积分;通过添加HS约束或CLG约束,实现估计稠密光流,所述HS表示全局光流,所述CLG表示结合本地和全局光流。
而且,所述使用EDI模型重建任意时刻的清晰图像,利用事件生成模型计算任意时刻的稀疏光流,实现方式包括如下步骤,
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,得到任意时刻f的清晰亮度图像I(f),
Figure BDA0002562851140000021
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分:
步骤1.2,基于亮度恒定假设,结合EDI模型,得到光流的如下表达,
Figure BDA0002562851140000022
其中,δ是狄拉克函数,v为待求光流,
Figure BDA0002562851140000023
表示求空间梯度,c是相机激发事件点的阈值,p为相机激发事件点的极性,te为相机激发事件点的时刻;
步骤1.3,假设当前时刻f的邻域时间内[f-∈,f+∈]像素点运动速度一致,其中时长∈远小于曝光时间,取时间[f-∈,f+∈]内的事件进行积分用于求解光流,并引入参数λ调整∈,
Figure BDA0002562851140000024
基于上式支持使用最小二乘法得到任意时刻的稀疏光流。
而且,通过添加HS约束实现估计稠密光流时,实现方式包括如下步骤,
步骤A1,使用I简化表示清晰亮度图像,令光流矢量v=(v1,v2),其中v1,v2分别表示光流矢量v在x和y方向上的分量,定义能量函数:
Figure BDA0002562851140000025
其中,Ix、Iy和It分别表示图像I在x方向上的导数、在y方向上的导数和对时间的导数,是用于调节平滑程度的参数;
步骤A2,令变量
Figure BDA0002562851140000026
并对其进行求导得:
Ix(Ixv1+Iyv2+It)-2Δv1=0
Iy(Ixv1+Iyv2+It)-2Δv2=0
其中,Δ是拉普拉斯算子操作,进行拉普拉斯操作替换后得到:
Figure BDA0002562851140000027
Figure BDA0002562851140000031
其中,
Figure BDA0002562851140000032
Figure BDA0002562851140000033
表示光流分量的平均值;
步骤A3,使用Gauss-Seidel迭代方法,利用估计的空间梯度和之前速度估计的平均值
Figure BDA0002562851140000034
Figure BDA0002562851140000035
来计算一组新的速度估计值v1 k+1和v2 k+1,得到HS光流迭代公式:
Figure BDA0002562851140000036
Figure BDA0002562851140000037
其中,k用于标识迭代的次数;
步骤A4,令
Figure BDA0002562851140000038
Figure BDA0002562851140000039
根据迭代公式计算v1和v2的值直至收敛,得到稠密光流v。
而且,通过添加CLG约束实现估计稠密光流时,实现方式包括如下步骤,
步骤B1,定义以下符号:
ω=(v1,v2,1)T
Figure BDA00025628511400000310
Figure BDA00025628511400000311
Figure BDA00025628511400000312
其中,向量ω是光流v的扩展维度表示,Kρ是高斯核,ρ表示高斯核的邻域窗口大小,*表示卷积操作,则CLG光流法的最小化能量函数表示为:
Figure BDA00025628511400000313
其中,α是用于调节平滑程度的参数;
步骤B2,对CLG光流法的最小化能量函数中参与积分的变量进行求导和拉普拉斯操作后,得到CLG光流迭代公式:
Figure BDA00025628511400000314
Figure BDA00025628511400000315
步骤B3,令
Figure BDA0002562851140000041
Figure BDA0002562851140000042
根据迭代公式计算v1和v2的值直至收敛,得到稠密光流v。
本发明提供一种基于事件相机的连续稠密光流估计系统,用于执行如上所述基于事件相机的连续稠密光流估计方法。
和现有技术相比,本发明提供了一种不受图像模糊影响的光流估计方案,并在估计光流时引进了HS和CLG两种约束方法,利用了事件流和灰度图像的优势,提高了光流估计的准确率,能够支持高动态范围和高速运动场景应用。
附图说明
图1是传统相机和本发明采用的事件相机数据对比图。
图2是本发明实施例流程图。
具体实施方式
为了更清楚地了解本发明,下面结合附图和实施例具体介绍本发明技术方案。
本发明利用事件相机DVS(Dynamic Vision Sensor,动态视觉传感器)和APS(Active Pixel Sensor,传统的主动像素传感器)数据,提出了一种不受图像模糊影响的光流估计方法。首先,提出了基于EDI模型的稀疏光流方法,使用事件相机二重积分(Event-based Double Integral,EDI)模型重建任意时刻的清晰图像,利用亮度恒定假设支持得到任意时刻的光流。其次,在计算光流时引进了HS(Horn-Schunck,全局光流)和CLG(Combining Local and Global Optic Flow,结合本地和全局光流)两种约束方法,分别命名为引入HS约束的EDI光流方法和引入CLG约束的EDI光流方法。通过添加HS或CLG约束计算稠密光流,使得光流估计更加准确。
参见图2,本发明实施例提供的一种基于事件相机的连续稠密光流估计方法,包括以下步骤:
步骤1,基于EDI模型的稀疏光流方法:首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合“亮度恒定假设”光流公式,得到任意时刻稀疏光流的计算方法。
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,计算出任意时刻f的清晰亮度图像I(f):
Figure BDA0002562851140000043
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分:
Figure BDA0002562851140000051
其中,ti为曝光起始时刻,f,t为曝光时间内的任意时刻,c是相机激发事件点的阈值,τ为积分符号,e(t)为连续时间t的函数,定义为:
e(t)=pδ(t-te)
其中,p为相机激发事件点的极性,te为相机激发事件点的时刻,δ是狄拉克函数。
步骤1.2,基于“亮度恒定”假设的光流公式可以表示为:
Figure BDA0002562851140000052
其中,
Figure BDA0002562851140000053
表示任意亮度图像B的空间梯度,
Figure BDA0002562851140000054
表示亮度图像B的时间导数,v即为待求光流,再结合EDI模型可得:
Figure BDA0002562851140000055
其中,
Figure BDA0002562851140000056
为Ei(f)对时间f求导,可以表示为:
Figure BDA0002562851140000057
最终求得光流计算的表达式如下:
Figure BDA0002562851140000058
步骤1.3,假设当前时刻f的邻域时间内[f-∈,f+∈]像素点运动速度一致,其中时长∈非常小,远远小于曝光时间。取时间[f-∈,f+∈]内的事件进行积分用于求解光流,并引入参数λ来调整∈,实施例采用通过实验得到的λ优选建议取值1.5,此时公式可以表达为:
Figure BDA0002562851140000059
至此,可以使用最小二乘法求得任意时刻的稀疏光流。
步骤2,引入约束的EDI光流方法:在计算步骤1中的稀疏光流v基础上,通过添加额外的约束,从而得到稠密光流。可以采用以下两种约束任一:
A、引入HS约束的EDI光流方法
步骤A1,使用I简化表示任意时刻f的清晰亮度图像I(f),令光流矢量v=(v1,v2),其中v1,v2分别表示光流矢量v在x和y方向上的分量,定义一个能量函数:
Figure BDA0002562851140000061
其中,Ix、Iy和It分别表示图像I在x方向上的导数、在y方向上的导数和对时间的导数,
Figure BDA0002562851140000062
表示求梯度,该能量函数的前半部分(Ixv1+Iyv2+It)2是灰度变化因子,后半部分
Figure BDA0002562851140000063
Figure BDA0002562851140000064
是平滑因子,α是用于调节平滑程度的参数,通过实验得到α的优选建议取值为1.25;
步骤A2,为了便于推导,令变量
Figure BDA0002562851140000065
并对其进行求导得:
Ix(Ixv1+Iyv2+It)-2Δv1=0
Iy(Ixv1+Iyv2+It)-2Δv2=0 (5)
其中,Δ是拉普拉斯算子操作
Figure BDA0002562851140000066
Figure BDA0002562851140000067
表示对Δ后的任意变量A求x和y方向上的二阶导,进行拉普拉斯操作替换后得到:
Figure BDA0002562851140000068
Figure BDA0002562851140000069
其中,
Figure BDA00025628511400000610
Figure BDA00025628511400000611
表示光流分量的平均值。
步骤A3,使用Gauss-Seidel迭代方法,利用估计的空间梯度和之前速度估计的平均值
Figure BDA00025628511400000612
Figure BDA00025628511400000613
来计算一组新的速度估计值v1 k+1和v2 k+1,得到HS光流迭代公式:
Figure BDA00025628511400000614
Figure BDA00025628511400000615
其中,k用于标识迭代的次数。
步骤A4,结合上述步骤1,令:
Figure BDA00025628511400000616
Figure BDA00025628511400000617
Figure BDA00025628511400000618
Figure BDA00025628511400000619
的初始值为0,根据迭代公式计算v1和v2的值直至收敛,得到稠密光流v。
B、引入CLG约束的EDI光流方法
步骤B1,定义以下符号:
ω=(v1,v2,1)T (10)
Figure BDA00025628511400000620
Figure BDA00025628511400000621
Figure BDA00025628511400000622
其中,向量ω是光流v的扩展维度表示,Kρ是高斯核,ρ表示高斯核的邻域窗口大小,*表示卷积操作,则CLG光流法的最小化能量函数可以表示为:
Figure BDA0002562851140000071
其中,α是用于调节平滑程度的参数,和公式(4)取值一致;
步骤B2,根据HS的推导方法(和步骤A2、A3一致的方式)来推导CLG,即对CLG光流法的最小化能量函数中参与积分的变量进行求导和拉普拉斯操作后,可以得到CLG光流迭代公式:
Figure BDA0002562851140000072
Figure BDA0002562851140000073
步骤B3,结合上述步骤1,令:
Figure BDA0002562851140000074
Figure BDA0002562851140000075
Figure BDA0002562851140000076
Figure BDA0002562851140000077
的初始值为0,根据迭代公式计算v1和v2的值直至收敛,得到稠密光流v。
基于EDI模型的稀疏光流方法可称为EDI-OF方法,引入HS约束的EDI光流方法可称为EDI-HS方法,引入CLG约束的EDI光流方法可称为EDI-CLG方法。根据需求,具体实施时可以直接选择其一执行。
具体实施时,该方法可采用计算机软件技术实现自动运行流程,实施方法流程的相应系统装置也在本发明的保护范围内。
应当理解的是,上述针对实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (4)

1.一种基于事件相机的连续稠密光流估计方法,其特征在于:包括使用EDI模型重建任意时刻的清晰图像,利用亮度恒定假设支持得到任意时刻的稀疏光流,所述EDI表示事件相机二重积分;通过添加HS约束或CLG约束,实现估计稠密光流,所述HS表示全局光流,所述CLG表示结合本地和全局光流;
使用EDI模型重建任意时刻的清晰图像,利用事件生成模型计算任意时刻的稀疏光流,实现方式包括如下步骤,
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,得到任意时刻f的清晰亮度图像I(f),
Figure FDA0003750027200000011
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分:
步骤1.2,基于亮度恒定假设,结合EDI模型,得到光流的如下表达,
Figure FDA0003750027200000012
其中,δ是狄拉克函数,v为待求光流,
Figure FDA0003750027200000013
表示求空间梯度,c是相机激发事件点的阈值,p为相机激发事件点的极性,te为相机激发事件点的时刻;
步骤1.3,假设当前时刻f的邻域时间内[f-∈,f+∈]像素点运动速度一致,其中时长∈远小于曝光时间,取时间[f-∈,f+∈]内的事件进行积分用于求解光流,并引入参数λ调整∈,
Figure FDA0003750027200000014
基于上式支持使用最小二乘法得到任意时刻的稀疏光流。
2.根据权利要求1所述基于事件相机的连续稠密光流估计方法,其特征在于:通过添加HS约束实现估计稠密光流时,实现方式包括如下步骤,
步骤A1,使用I简化表示清晰亮度图像,令光流矢量v=(v1,v2),其中v1,v2分别表示光流矢量v在x和y方向上的分量,定义能量函数:
Figure FDA0003750027200000015
其中,Ix、Iy和It分别表示图像I在x方向上的导数、在y方向上的导数和对时间的导数,α是用于调节平滑程度的参数;
步骤A2,令变量
Figure FDA0003750027200000021
并对其进行求导得:
Ix(Ixv1+Iyv2+It)-α2Δv1=0
Iy(Ixv1+Iyv2+It)-α2Δv2=0
其中,Δ是拉普拉斯算子操作,进行拉普拉斯操作替换后得到:
Figure FDA0003750027200000022
Figure FDA0003750027200000023
其中,
Figure FDA0003750027200000024
Figure FDA0003750027200000025
表示光流分量的平均值;
步骤A3,使用Gauss-Seidel迭代方法,利用估计的空间梯度和之前速度估计的平均值
Figure FDA0003750027200000026
Figure FDA0003750027200000027
来计算一组新的速度估计值v1 k+1和v2 k+1,得到HS光流迭代公式:
Figure FDA0003750027200000028
Figure FDA0003750027200000029
其中,k用于标识迭代的次数;
步骤A4,令
Figure FDA00037500272000000210
Figure FDA00037500272000000211
根据迭代公式计算v1和v2的值直至收敛,得到稠密光流v。
3.根据权利要求1所述基于事件相机的连续稠密光流估计方法,其特征在于:通过添加CLG约束实现估计稠密光流时,实现方式包括如下步骤,
步骤B1,定义以下符号:
ω=(v1,v2,1)T
Figure FDA00037500272000000212
Figure FDA00037500272000000213
Figure FDA00037500272000000214
其中,向量ω是光流v的扩展维度表示,Kρ是高斯核,ρ表示高斯核的邻域窗口大小,*表示卷积操作,则CLG光流法的最小化能量函数表示为:
Figure FDA0003750027200000031
其中,α是用于调节平滑程度的参数;
步骤B2,对CLG光流法的最小化能量函数中参与积分的变量进行求导和拉普拉斯操作后,得到CLG光流迭代公式:
Figure FDA0003750027200000032
Figure FDA0003750027200000033
步骤B3,令
Figure FDA0003750027200000034
Figure FDA0003750027200000035
根据迭代公式计算v1和v2的值直至收敛,得到稠密光流v。
4.一种基于事件相机的连续稠密光流估计系统,其特征在于:用于执行如权利要求1至3任一项所述基于事件相机的连续稠密光流估计方法。
CN202010620378.7A 2020-06-30 2020-06-30 基于事件相机的连续稠密光流估计方法及系统 Active CN111798484B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010620378.7A CN111798484B (zh) 2020-06-30 2020-06-30 基于事件相机的连续稠密光流估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010620378.7A CN111798484B (zh) 2020-06-30 2020-06-30 基于事件相机的连续稠密光流估计方法及系统

Publications (2)

Publication Number Publication Date
CN111798484A CN111798484A (zh) 2020-10-20
CN111798484B true CN111798484B (zh) 2022-08-30

Family

ID=72810792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010620378.7A Active CN111798484B (zh) 2020-06-30 2020-06-30 基于事件相机的连续稠密光流估计方法及系统

Country Status (1)

Country Link
CN (1) CN111798484B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112802063A (zh) * 2021-02-03 2021-05-14 阳光电源股份有限公司 卫星云图的预测方法、装置以及计算机可读存储介质
CN114581490B (zh) * 2022-04-29 2022-09-20 北京大学 一种场景设置方法、装置、控制设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815861A (zh) * 2017-01-17 2017-06-09 湖南优象科技有限公司 一种紧凑型的光流计算方法与设备
US9983681B2 (en) * 2014-10-21 2018-05-29 Samsung Electronics Co., Ltd. Method and apparatus for displaying screen in response to event related to motion of external object
CN110428477A (zh) * 2019-06-24 2019-11-08 武汉大学 一种不受速度影响的事件相机的成图方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663721B (zh) * 2012-04-01 2015-04-15 清华大学 动态场景的散焦深度估计和全聚焦图像获取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9983681B2 (en) * 2014-10-21 2018-05-29 Samsung Electronics Co., Ltd. Method and apparatus for displaying screen in response to event related to motion of external object
CN106815861A (zh) * 2017-01-17 2017-06-09 湖南优象科技有限公司 一种紧凑型的光流计算方法与设备
CN110428477A (zh) * 2019-06-24 2019-11-08 武汉大学 一种不受速度影响的事件相机的成图方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Bringing a Blurry Frame Alive at High Frame-Rate With an Event Camera;Liyuan Pan etal.;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20200109;全文 *
基于脉冲耦合神经网络的HS变分光流算法研究;宋涛等;《激光杂志》;20191231;第40卷(第2期);全文 *

Also Published As

Publication number Publication date
CN111798484A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
Stoffregen et al. Reducing the sim-to-real gap for event cameras
Xu et al. Motion deblurring with real events
Wang et al. Joint filtering of intensity images and neuromorphic events for high-resolution noise-robust imaging
CN112396562B (zh) 一种高动态范围场景下基于rgb与dvs图像融合的视差图增强方法
CN112734650B (zh) 一种基于虚拟多曝光融合的不均匀光照图像增强方法
Kronander et al. A unified framework for multi-sensor HDR video reconstruction
CN111798485B (zh) 一种利用imu增强的事件相机光流估计方法及系统
US20210321052A1 (en) System and method for high-resolution, high-speed, and noise-robust imaging
CN111798484B (zh) 基于事件相机的连续稠密光流估计方法及系统
WO2019105297A1 (zh) 图像虚化处理方法、装置、移动设备及存储介质
CN102779334A (zh) 一种多曝光运动图像的校正方法及装置
US20210227139A1 (en) Video stabilization method and apparatus and non-transitory computer-readable medium
US11093778B2 (en) Method and system for selecting image region that facilitates blur kernel estimation
CN104282003A (zh) 一种基于梯度筛选的数字模糊图像盲复原方法
CN110428477B (zh) 一种不受速度影响的事件相机的成图方法
CN102170526A (zh) 散焦模糊核计算及其散焦模糊图像清晰化处理方法
CN111798370A (zh) 基于流形约束的事件相机图像重建方法及系统
CN114245007A (zh) 一种高帧率视频合成方法、装置、设备和存储介质
CN104902168B (zh) 一种图像合成方法、装置及拍摄设备
Kim et al. Dynamic scene deblurring using a locally adaptive linear blur model
WO2022184167A1 (zh) 成像方法、装置、设备及存储介质
CN115883755A (zh) 一种多类型场景下多曝光图像融合方法
CN111652821A (zh) 基于梯度信息的微光视频图像降噪处理方法、装置和设备
Xiaohui et al. The image adaptive method for solder paste 3D measurement system
Lin et al. Extracting depth and radiance from a defocused video pair

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant