CN111798485B - 一种利用imu增强的事件相机光流估计方法及系统 - Google Patents

一种利用imu增强的事件相机光流估计方法及系统 Download PDF

Info

Publication number
CN111798485B
CN111798485B CN202010620421.XA CN202010620421A CN111798485B CN 111798485 B CN111798485 B CN 111798485B CN 202010620421 A CN202010620421 A CN 202010620421A CN 111798485 B CN111798485 B CN 111798485B
Authority
CN
China
Prior art keywords
optical flow
imu
event
foreground
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010620421.XA
Other languages
English (en)
Other versions
CN111798485A (zh
Inventor
余磊
付婧祎
杨文�
叶琪霖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010620421.XA priority Critical patent/CN111798485B/zh
Publication of CN111798485A publication Critical patent/CN111798485A/zh
Application granted granted Critical
Publication of CN111798485B publication Critical patent/CN111798485B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Operations Research (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本发明提供一种利用IMU增强的事件相机光流估计方法及系统,首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合亮度恒定假设,建立基础光流模型,所述EDI表示基于事件的二重积分;然后将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计;当出现混合运动场景时将背景与前景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新方式联合估计混合运动场景的背景光流和前景光流,最后组合得到场景的整体连续光流。本发明适于应用的场景分包括单独背景运动或前景物体一致运动的运动一致场景,以及背景与前景的运动方向和大小不同的混合运动场景。

Description

一种利用IMU增强的事件相机光流估计方法及系统
技术领域
本发明属于图像处理领域,特别涉及高动态范围和高速运动场景下的连续光流估计技术方案。
背景技术
在计算机视觉领域中,光流(Optical Flow)估计一直是一个核心技术问题,在导航、运动分割、跟踪以及图像配准等应用中起到重要作用。事件相机是一种新型的仿生传感器,如附图1所示,该相机具有独立的像素,这些像素只在光强变化发生时异步地产生一系列脉冲,称为“事件”,每个事件由亮度变化像素点的时空坐标及其正负极性组成。由于事件相机以场景动态变化的速率采样得到事件,与传统光学相机相比,具有几大优势:高时间分辨率,低时延,高动态范围(High Dynamic Range,HDR)以及低功耗和低带宽。基于以上这些优点,事件相机能够很好地捕捉运动,因此可以解决光流估计中由于传统相机限制所导致的问题。
目前较新的事件相机比如DAVIS(Dynamic and Active-pixel Vision Sensor,主动像素视觉传感器),带有IMU(Inertial Measurement Unit,惯性测量单元)模块,IMU可以测量三轴的线加速度和角速度,常常用来获取相机的三维运动信息,在SLAM(SimultaneousLocalization and Mapping,同时定位与地图构建)、导航等应用中用来自身定位,且能做到与事件点和亮度图像的时间同步。由于事件相机输出事件流易受噪声等因素的影响,使事件点点轨迹出现偏差,而IMU数据包含的相机运动信息与事件点的点轨迹有着密切的关系,通过IMU获取相机运动后可以反推事件点的运动轨迹。因此,可以使用IMU对事件点进行运动补偿,也就可以以此得到事件点速度信息,即光流。
但是通常情况下,少量的IMU携带的信息过少,目前尚未有合适的技术方案出现。
发明内容
为了充分发挥事件相机在光流估计领域中的优势,利用事件相机的特性设计出更加高效且适用的光流估计方法,本发明提供了一种引入IMU约束和稀疏约束的连续光流估计方案,应用场景分别为单独背景运动或前景物体一致运动的运动一致场景和背景与前景的运动方向和大小不同的混合运动场景。
本发明所采用的技术方案提供一种利用IMU增强的事件相机光流估计方法,首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合亮度恒定假设,建立基础光流模型,所述EDI表示基于事件的二重积分;然后将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计;当出现混合运动场景时将背景与前景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新方式联合估计混合运动场景的背景光流和前景光流,最后组合得到场景的整体连续光流。
而且,建立基础光流模型的实现方式包括以下步骤,
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,计算出任意时刻f的清晰亮度图像I(f):
Figure BDA0002562857850000021
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分;
步骤1.2,基于亮度恒定假设的光流公式,得到光流计算的表达式如下,
Figure BDA0002562857850000022
其中,δ是狄拉克函数,v为待求光流,
Figure BDA0002562857850000023
表示求空间梯度,c是相机激发事件点的阈值,p为相机激发事件点的极性,te为相机激发事件点的时刻;
简化表示为,
A·v=b+ε1
其中,变量
Figure BDA0002562857850000024
ε1表示EDI模型估计光流的误差项。
而且,将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计,实现方式包括以下步骤,
步骤2.1,事件相机运动过程中,同时输出一系列事件点和IMU数据,IMU数据包括线加速度和角速度,利用输出数据的时间戳,将事件点和IMU数据在时间上对齐;通过线性插值,得到任意事件点ej的变换矩阵
Figure BDA0002562857850000025
tj表示该事件点的时间戳;
步骤2.2,每个事件点都带有坐标信息,将事件点ej的原始像素坐标表示为xj,运动补偿后的像素坐标表示为xj′,根据相机投影模型π(.)和事件点ej的深度信息Z(xj),得到运动补偿后的事件点像素坐标:
Figure BDA0002562857850000026
步骤2.3,已知原始像素坐标xj和时间间隔Δt,则用IMU和事件点估计光流,
v=m+ε2 (9)
其中,变量
Figure BDA0002562857850000027
ε2表示IMU运动补偿模型估计光流的误差项;
步骤2.4,将IMU作为约束引入EDI模型中来估计光流,利用最小二乘法写出代价函数,
Figure BDA0002562857850000031
其中,||.||2表示矩阵的l2范数,λ1表示IMU约束的权重系数;
步骤2.5,设光流值v*=argminf(v),通过二乘法得到估计结果:
v*=(ATA+λ1E)-1(ATb+λ1m)
其中,E表示单位矩阵。
而且,当出现混合运动场景时,处理方式包括以下步骤,
步骤3.1,通过鲁棒性主成分分析法(RobustPCA),可以将图像矩阵表示为背景矩阵L和前景稀疏矩阵S,得到凸优化问题:
Figure BDA0002562857850000032
其中,||.||*表示矩阵的核范数,||.||1表示矩阵的l1范数,λ2为正则化参数,用来调节稀疏矩阵的权重;
步骤3.2,将前景光流vf加入稀疏项约束,而背景光流vb加入IMU约束,得到:
v=vb+vf
参考运动一致场景,得到加入前景光流稀疏项约束的代价函数,
Figure BDA0002562857850000033
步骤3.3,得到优化问题minvf(vf,vb),采用交替迭代更新的方法,联合估计背景和前景的光流;
步骤3.4,交替迭代更新至迭代收敛后,将前景光流和背景光流相加,得到混合运动场景下的连续光流。
而且,步骤3.3中联合估计背景和前景的光流的实现方式为,
若固定前景光流vf,通过下式求解背景光流vb
vb=(ATA+λ1E)-1[AT(b-A·vf)+λ1m]
得到背景光流vb后,固定vb,更新前景光流vf,得到以下优化问题:
Figure BDA0002562857850000034
其中变量
Figure BDA0002562857850000035
变量b′=b-A·vb
应用ISTA方法,迭代求解该优化问题,通过不断的迭代更新直至收敛,最终求解得到前景光流vf
本发明还提供一种利用IMU增强的事件相机光流估计方法,用于执行如上所述利用IMU增强的事件相机光流估计系统。
本发明的有益效果是,利用相机自带IMU输出的数据对背景光流进行补偿,不仅补偿速度快而且补偿效果较好;通过对前景光流加入稀疏约束,避免了背景补偿对前景光流准确性的影响,从而得到更加准确的连续光流估计结果。本发明适于应用的场景分包括单独背景运动或前景物体一致运动的运动一致场景,以及背景与前景的运动方向和大小不同的混合运动场景。
附图说明
图1是传统相机和事件相机数据对比图。
图2是本发明实施例背景光流补偿原理图。
图3是本发明实施例流程图。
具体实施方式
为了更清楚地了解本发明,下面结合附图和实施例具体介绍本发明技术内容。
本发明考虑到,通常情况下,少量的IMU携带的信息过少,将一段时间内的IMU积分得到事件点的轨迹,对事件点变换后可通过IMU运动补偿模型估计得到该时间段内的连续光流。但IMU光流模型受限于只由相机运动生成事件点的场景,因此,需要将IMU作为约束引入特定的光流模型,并设置一定的权重,这样既能通过IMU约束增加光流估计方法的精度,也能在相机静止的时候保证光流估计的进行,增加方法的鲁棒性。而在混合运动场景中,前景和背景运动不同,IMU的补偿反而会导致错误的前景光流。因此,需要将前景与背景分割开来处理,以此突出IMU对于背景光流估计的优势,使得光流估计更加准确。
本发明提出首先,利用事件相机DVS(Dynamic Vision Sensor,动态视觉传感器)和APS(Active Pixel Sensor,传统的主动像素传感器)数据,建立EDI(Event-basedDouble Integral,基于事件的二重积分)光流模型,在重建清晰亮度图像的同时估计连续光流。然后引入惯性测量单元,将IMU作为约束加入EDI光流模型,实现任意运动一致场景的连续光流估计。其次,为了解决加入IMU约束后的场景受限问题,将前景与背景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新的方法可以估计出任意运动场景的背景光流和前景光流,最后组合为场景的整体连续光流。
参见图3,本发明实施例提供一种利用IMU增强的事件相机光流估计方法,包括以下步骤:
步骤1,首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合“亮度恒定假设”光流公式,推导出基于EDI模型的光流计算方法,并将其作为本发明所使用的基础光流模型。
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,计算出任意时刻f的清晰亮度图像I(f):
Figure BDA0002562857850000051
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分:
Figure BDA0002562857850000052
其中,ti为曝光起始时刻,f,t为曝光时间内的任意时刻,c是相机激发事件点的阈值,τ为积分符号,e(t)为连续时间t的函数,本发明将其定义为:
e(t)=pδ(t-te)
其中,p为相机激发事件点的极性,te为相机激发事件点的时刻,δ是狄拉克函数。
步骤1.2,基于“亮度恒定”假设的光流公式可以表示为:
Figure BDA0002562857850000053
其中,
Figure BDA0002562857850000054
表示任意亮度图像B的空间梯度,
Figure BDA0002562857850000055
表示亮度图像B的时间导数,v即为待求光流,再结合EDI模型可得:
Figure BDA0002562857850000056
其中,
Figure BDA0002562857850000057
为Ei(f)对时间f求导,可以表示为:
Figure BDA0002562857850000058
最终求得光流计算的表达式如下:
Figure BDA0002562857850000059
将其简化表示为:
A·v=b+ε1 (6)
其中,变量
Figure BDA00025628578500000510
ε1表示EDI模型估计光流的误差项。
步骤2,将IMU运动补偿模型作为约束加入基础光流模型,以实现任意运动一致场景下的连续光流估计。步骤2.1,事件相机运动过程中,同时输出一系列事件点和IMU数据,IMU数据包括线加速度和角速度。利用输出数据的时间戳,将事件点和IMU数据在时间上对齐。如附图2所示,时间轴t轴上,圆点表示事件点,方格表示IMU数据,上方I1,I2,I3,I4表示与其相对应的图像帧序列,将时间间隔
Figure BDA0002562857850000061
内的IMU数据积分得到I2,I3两帧之间的变换矩阵
Figure BDA0002562857850000062
即:
Figure BDA0002562857850000063
其中,线加速度二次积分得到平移变化量
Figure BDA0002562857850000064
角速度积分得到旋转变化量
Figure BDA0002562857850000065
Figure BDA0002562857850000066
表示任意时刻f第k个事件点的时间戳,
Figure BDA0002562857850000067
Figure BDA0002562857850000068
分别表示任意事件点ej相对于参考时间戳
Figure BDA00025628578500000618
Figure BDA00025628578500000610
的变换矩阵。再通过将
Figure BDA00025628578500000611
线性插值,即可得到任意事件点ej的变换矩阵
Figure BDA00025628578500000612
tj表示该事件点的时间戳。
步骤2.2,每个事件点都带有坐标信息,将事件点ej的原始像素坐标表示为xj,运动补偿后的像素坐标表示为xj′,将像素坐标xj通过相机投影模型π(.)和事件点ej的深度信息Z(xj)反投影到世界坐标系,得到反投影后坐标xj1为:
xj1=Z(xj-1(xj)
然后根据得到的事件点的变换矩阵
Figure BDA00025628578500000613
在三维坐标下对坐标xj1进行变换,变换后的坐标记为xj2
Figure BDA00025628578500000614
最后通过相机投影模型π(.)将坐标xj2投影到像素坐标上,得到运动补偿后的事件点像素坐标:
Figure BDA00025628578500000615
步骤2.3,已知原始像素坐标xj和时间间隔Δt,则可用IMU和事件点估计光流,将其写成
v=m+ε2 (9)
其中,变量
Figure BDA00025628578500000616
ε2表示IMU运动补偿模型估计光流的误差项;
步骤2.4,将IMU作为约束引入EDI模型中来估计光流,利用最小二乘法写出代价函数:
Figure BDA00025628578500000617
其中,||.||2表示矩阵的l2范数,λ1表示IMU约束的权重系数,越大IMU影响越大,通过实验得到λ1的优选建议取值范围为[0,1],当相机静止不输出IMU数据时就能将其设为零值;
步骤2.5,设光流值v*=argminf(v),通过二乘法得到解:
v*=(ATA+λ1E)-1(ATb+λ1m) (11)
其中,E表示单位矩阵。
将EDI模型估计光流方法和引入IMU约束的EDI光流模型方法分别命名为EDIF和EDIF_IMU。然后将这两种方法与目前常见的基于事件相机的光流估计方法比较,分别为图像对比度最大化估计光流和SAE局部平面拟合估计光流方法,将其命名为DVS-CM和DVS-LP。
采用带有标准偏差的平均端点误差(AEE)和平均角度误差(AAE)计算光流估计结果与真实值的误差,二者具体定义如下:
Figure BDA0002562857850000071
Figure BDA0002562857850000072
其中,vi=(vx,i,vy,i)表示第i个光流测量值,ui=(vx,i,vy,i)表示相应的光流真实值,vx,i,vy,i表示光流在x和y方向上的分量,N表示光流矢量总数。四种方法的误差对比如表1所示,总体上来说,EDIF_IMU的结果最好,终点误差AEE和角度误差AAE都比较小,EDIF的结果也比另外两种现有方法更优,说明了本专利方法的有效性。
表1
Figure BDA0002562857850000073
步骤3,由于加入IMU约束后,本发明提出的光流估计方法受限于运动一致场景,因此进一步的,本发明将背景与前景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新的方法可以联合估计任意运动场景的背景光流和前景光流,最后组合为场景的整体连续光流。步骤3.1,通过鲁棒性主成分分析法(RobustPCA),可以将图像矩阵表示为背景矩阵L和前景稀疏矩阵S,可以写出凸优化问题:
minS,L||L||*+λ2||S||1 (12)
其中,||.||*表示矩阵的核范数,也就是矩阵奇异值的和。||.||1表示矩阵的l1范数,也就是矩阵列向量绝对值之和的最大值。λ2为正则化参数,用来调节稀疏矩阵的权重,实施例通过实验得到λ2的优选建议取值为0.3。
步骤3.2,将前景光流vf加入稀疏项约束,而背景光流vb加入IMU约束。由此,可以将光流写成:
v=vb+vf (13)
参考运动一致场景,可得到加入前景光流稀疏项约束的代价函数:
Figure BDA0002562857850000081
步骤3.3,得到优化问题minvf(vf,vb),采用交替迭代更新的方法,联合估计背景和前景的光流,若固定前景光流vf,可以通过下式求解背景光流vb
vb=(ATA+λ1E)-1[AT(b-A·vf)+λ1m] (15)
得到背景光流vb后,就固定vb,然后更新前景光流vf,也就是以下优化问题:
Figure BDA0002562857850000082
其中变量
Figure BDA0002562857850000083
变量b′=b-A·vb
应用ISTA(迭代收缩阈值方法,iterative shrinkage-thresholding algorithm)迭代求解该优化问题。迭代步骤可以表示为:
Figure BDA0002562857850000084
其中,k用于标识迭代的次数,tk>0表示迭代步长,
Figure BDA0002562857850000085
表示软阈值操作函数:
Figure BDA0002562857850000086
其中,x表示任意变量,sign(.)表示符号函数,最后不断的迭代更新直至收敛,最终求解得到前景光流vf
步骤3.4,利用交替迭代更新,固定前景光流vf,求解背景光流vb,固定背景光流vb求解前景光流vf,然后直至迭代收敛。最后将前景光流和背景光流相加,得到混合运动场景下的连续光流v。
将引入稀疏约束的连续光流估计方法命名为EDIMU_Sparse,将DVS-CM作为对比方法,对本发明提出的方法进行测试。视觉对比可看出,相对于图像对比度最大化方法在混合运动场景的应用,本文提出的方法EDIMU_Sparse估计的连续光流更加平滑,且背景光流更加一致,说明了本专利方法的有效性。
具体实施时,该方法可采用计算机软件技术实现自动运行流程,实施方法流程的相应系统装置也在本发明的保护范围内。
应当理解的是,上述针对实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (5)

1.一种利用IMU增强的事件相机光流估计方法,其特征在于:首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合亮度恒定假设,建立基础光流模型,所述EDI表示基于事件的二重积分;然后将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计;当出现混合运动场景时将背景与前景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新方式联合估计混合运动场景的背景光流和前景光流,最后组合得到场景的整体连续光流;
当出现混合运动场景时,处理方式包括以下步骤,
步骤3.1,通过鲁棒性主成分分析法Robust PCA,将图像矩阵表示为背景矩阵L和前景稀疏矩阵S,得到凸优化问题:
Figure FDA0003653193880000011
其中,||.||*表示矩阵的核范数,||.||1表示矩阵的l1范数,λ2为正则化参数,用来调节稀疏矩阵的权重;
步骤3.2,将前景光流vf加入稀疏项约束,而背景光流vb加入IMU约束,得到光流:
v=vb+vf
参考运动一致场景,得到加入前景光流稀疏项约束的代价函数,
Figure FDA0003653193880000012
其中,λ1表示IMU约束的权重系数;设事件点ej的原始像素坐标表示为xj,运动补偿后的像素坐标表示为xj′,已知原始像素坐标xj和时间间隔Δt,变量
Figure FDA0003653193880000013
步骤3.3,得到优化问题minvf(vf,vb),采用交替迭代更新的方法,联合估计背景和前景的光流;
步骤3.4,交替迭代更新至迭代收敛后,将前景光流和背景光流相加,得到混合运动场景下的连续光流。
2.根据权利要求1所述利用IMU增强的事件相机光流估计方法,其特征在于:建立基础光流模型的实现方式包括以下步骤,
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,计算出任意时刻f的清晰亮度图像I(f):
Figure FDA0003653193880000021
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分;
步骤1.2,基于亮度恒定假设的光流公式,得到光流计算的表达式如下,
Figure FDA0003653193880000022
其中,δ是狄拉克函数,v为待求光流,
Figure FDA0003653193880000023
表示求空间梯度,c是相机激发事件点的阈值,p为相机激发事件点的极性,te为相机激发事件点的时刻;
简化表示为,
A·v=b+ε1
其中,变量
Figure FDA0003653193880000024
ε1表示EDI模型估计光流的误差项。
3.根据权利要求2所述利用IMU增强的事件相机光流估计方法,其特征在于:将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计,实现方式包括以下步骤,
步骤2.1,事件相机运动过程中,同时输出一系列事件点和IMU数据,IMU数据包括线加速度和角速度,利用输出数据的时间戳,将事件点和IMU数据在时间上对齐;通过线性插值,得到任意事件点ej的变换矩阵
Figure FDA0003653193880000025
tj表示该事件点的时间戳;
步骤2.2,每个事件点都带有坐标信息,将事件点ej的原始像素坐标表示为xj,运动补偿后的像素坐标表示为xj′,根据相机投影模型π(.)和事件点ej的深度信息Z(xj),得到运动补偿后的事件点像素坐标:
Figure FDA0003653193880000026
步骤2.3,已知原始像素坐标xj和时间间隔Δt,则用IMU和事件点估计光流,
v=m+ε2 (9)
其中,变量
Figure FDA0003653193880000027
ε2表示IMU运动补偿模型估计光流的误差项;
步骤2.4,将IMU作为约束引入EDI模型中来估计光流,利用最小二乘法写出代价函数,
Figure FDA0003653193880000028
其中,||.||2表示矩阵的l2范数,λ1表示IMU约束的权重系数;
步骤2.5,设光流值v*=argminf(v),通过二乘法得到估计结果:
v*=(ATA+λ1E)-1(ATb+λ1m)
其中,E表示单位矩阵。
4.根据权利要求1或2或3所述利用IMU增强的事件相机光流估计方法,其特征在于:步骤3.3中联合估计背景和前景的光流的实现方式为,
若固定前景光流vf,通过下式求解背景光流vb
vb=(ATA+λ1E)-1[AT(b-A·vf)+λ1m]
得到背景光流vb后,固定vb,更新前景光流vf,得到以下优化问题:
Figure FDA0003653193880000031
其中,E表示单位矩阵,变量
Figure FDA0003653193880000032
变量b′=b-A·vb
应用ISTA方法,迭代求解该优化问题,通过不断的迭代更新直至收敛,最终求解得到前景光流vf
5.一种利用IMU增强的事件相机光流估计系统,其特征在于:用于执行如权利要求1至4任一项所述利用IMU增强的事件相机光流估计方法。
CN202010620421.XA 2020-06-30 2020-06-30 一种利用imu增强的事件相机光流估计方法及系统 Active CN111798485B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010620421.XA CN111798485B (zh) 2020-06-30 2020-06-30 一种利用imu增强的事件相机光流估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010620421.XA CN111798485B (zh) 2020-06-30 2020-06-30 一种利用imu增强的事件相机光流估计方法及系统

Publications (2)

Publication Number Publication Date
CN111798485A CN111798485A (zh) 2020-10-20
CN111798485B true CN111798485B (zh) 2022-07-19

Family

ID=72810841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010620421.XA Active CN111798485B (zh) 2020-06-30 2020-06-30 一种利用imu增强的事件相机光流估计方法及系统

Country Status (1)

Country Link
CN (1) CN111798485B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116134829A (zh) * 2020-12-31 2023-05-16 华为技术有限公司 一种图像处理方法以及装置
CN114137247B (zh) * 2021-11-30 2024-01-19 上海科技大学 基于事件相机的速度感知方法、装置、设备和介质
CN114842386B (zh) * 2022-05-06 2024-05-17 中国科学技术大学 一种面向事件相机的渐进式迭代优化的事件运动分割方法
CN117739996B (zh) * 2024-02-21 2024-04-30 西北工业大学 一种基于事件相机惯性紧耦合的自主定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204477A (zh) * 2016-07-06 2016-12-07 天津大学 基于在线低秩背景建模的视频序列背景恢复方法
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
US10600189B1 (en) * 2016-12-06 2020-03-24 Apple Inc. Optical flow techniques for event cameras

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110692083B (zh) * 2017-05-29 2024-01-05 苏黎世大学 用于动态视觉传感器的块匹配光流和立体视觉
CN110120098B (zh) * 2018-02-05 2023-10-13 浙江商汤科技开发有限公司 场景尺度估计及增强现实控制方法、装置和电子设备
US11244464B2 (en) * 2018-03-09 2022-02-08 Samsung Electronics Co., Ltd Method and apparatus for performing depth estimation of object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204477A (zh) * 2016-07-06 2016-12-07 天津大学 基于在线低秩背景建模的视频序列背景恢复方法
US10600189B1 (en) * 2016-12-06 2020-03-24 Apple Inc. Optical flow techniques for event cameras
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Asynchronous frameless event-based optical flow;Ryad Benosman etal.;《Neural Networks》;20121231;全文 *
一种局部和全局相结合的光流计算方法;张建明等;《计算机工程与科学》;20051231;第27卷(第5期);全文 *

Also Published As

Publication number Publication date
CN111798485A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
CN111798485B (zh) 一种利用imu增强的事件相机光流估计方法及系统
US11238606B2 (en) Method and system for performing simultaneous localization and mapping using convolutional image transformation
WO2020253618A1 (zh) 一种视频抖动的检测方法及装置
CN113286194A (zh) 视频处理方法、装置、电子设备及可读存储介质
CN111899276A (zh) 一种基于双目事件相机的slam方法及系统
WO2023071790A1 (zh) 目标对象的姿态检测方法、装置、设备及存储介质
CN113269682B (zh) 一种结合帧间信息的非均匀运动模糊视频复原方法
CN113744337A (zh) 一种融合视觉、imu与声纳的同步定位与建图方法
CN112233179A (zh) 一种视觉里程计测量方法
CN115375581A (zh) 基于事件时空同步的动态视觉事件流降噪效果评价方法
CN111899345B (zh) 一种基于2d视觉图像的三维重建方法
Li et al. Gyroflow: Gyroscope-guided unsupervised optical flow learning
CN111798484B (zh) 基于事件相机的连续稠密光流估计方法及系统
CN112131991B (zh) 一种基于事件相机的数据关联方法
Xue et al. Event-based non-rigid reconstruction from contours
CN116592878A (zh) 一种低照度视觉惯性定位系统
CN116151320A (zh) 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置
Tistarelli Computation of coherent optical flow by using multiple constraints
CN113256711A (zh) 一种单目相机的位姿估计方法及系统
US20240029283A1 (en) Image depth prediction method, electronic device, and non-transitory storage medium
Lobo et al. Bioinspired visuo-vestibular artificial perception system for independent motion segmentation
CN112529936B (zh) 一种用于室外无人机的单目稀疏光流算法
Zong et al. An event camera tracking based on MLS surface fitting algorithm
CN115546876B (zh) 一种瞳孔追踪方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant