CN111798485B - 一种利用imu增强的事件相机光流估计方法及系统 - Google Patents
一种利用imu增强的事件相机光流估计方法及系统 Download PDFInfo
- Publication number
- CN111798485B CN111798485B CN202010620421.XA CN202010620421A CN111798485B CN 111798485 B CN111798485 B CN 111798485B CN 202010620421 A CN202010620421 A CN 202010620421A CN 111798485 B CN111798485 B CN 111798485B
- Authority
- CN
- China
- Prior art keywords
- optical flow
- imu
- event
- foreground
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 121
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000005259 measurement Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000005457 optimization Methods 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000005284 excitation Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims description 3
- 238000000513 principal component analysis Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000004907 flux Effects 0.000 claims description 2
- 239000000126 substance Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/75—Circuitry for compensating brightness variation in the scene by influencing optical camera components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Operations Research (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
本发明提供一种利用IMU增强的事件相机光流估计方法及系统,首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合亮度恒定假设,建立基础光流模型,所述EDI表示基于事件的二重积分;然后将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计;当出现混合运动场景时将背景与前景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新方式联合估计混合运动场景的背景光流和前景光流,最后组合得到场景的整体连续光流。本发明适于应用的场景分包括单独背景运动或前景物体一致运动的运动一致场景,以及背景与前景的运动方向和大小不同的混合运动场景。
Description
技术领域
本发明属于图像处理领域,特别涉及高动态范围和高速运动场景下的连续光流估计技术方案。
背景技术
在计算机视觉领域中,光流(Optical Flow)估计一直是一个核心技术问题,在导航、运动分割、跟踪以及图像配准等应用中起到重要作用。事件相机是一种新型的仿生传感器,如附图1所示,该相机具有独立的像素,这些像素只在光强变化发生时异步地产生一系列脉冲,称为“事件”,每个事件由亮度变化像素点的时空坐标及其正负极性组成。由于事件相机以场景动态变化的速率采样得到事件,与传统光学相机相比,具有几大优势:高时间分辨率,低时延,高动态范围(High Dynamic Range,HDR)以及低功耗和低带宽。基于以上这些优点,事件相机能够很好地捕捉运动,因此可以解决光流估计中由于传统相机限制所导致的问题。
目前较新的事件相机比如DAVIS(Dynamic and Active-pixel Vision Sensor,主动像素视觉传感器),带有IMU(Inertial Measurement Unit,惯性测量单元)模块,IMU可以测量三轴的线加速度和角速度,常常用来获取相机的三维运动信息,在SLAM(SimultaneousLocalization and Mapping,同时定位与地图构建)、导航等应用中用来自身定位,且能做到与事件点和亮度图像的时间同步。由于事件相机输出事件流易受噪声等因素的影响,使事件点点轨迹出现偏差,而IMU数据包含的相机运动信息与事件点的点轨迹有着密切的关系,通过IMU获取相机运动后可以反推事件点的运动轨迹。因此,可以使用IMU对事件点进行运动补偿,也就可以以此得到事件点速度信息,即光流。
但是通常情况下,少量的IMU携带的信息过少,目前尚未有合适的技术方案出现。
发明内容
为了充分发挥事件相机在光流估计领域中的优势,利用事件相机的特性设计出更加高效且适用的光流估计方法,本发明提供了一种引入IMU约束和稀疏约束的连续光流估计方案,应用场景分别为单独背景运动或前景物体一致运动的运动一致场景和背景与前景的运动方向和大小不同的混合运动场景。
本发明所采用的技术方案提供一种利用IMU增强的事件相机光流估计方法,首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合亮度恒定假设,建立基础光流模型,所述EDI表示基于事件的二重积分;然后将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计;当出现混合运动场景时将背景与前景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新方式联合估计混合运动场景的背景光流和前景光流,最后组合得到场景的整体连续光流。
而且,建立基础光流模型的实现方式包括以下步骤,
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,计算出任意时刻f的清晰亮度图像I(f):
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分;
步骤1.2,基于亮度恒定假设的光流公式,得到光流计算的表达式如下,
简化表示为,
A·v=b+ε1
而且,将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计,实现方式包括以下步骤,
步骤2.1,事件相机运动过程中,同时输出一系列事件点和IMU数据,IMU数据包括线加速度和角速度,利用输出数据的时间戳,将事件点和IMU数据在时间上对齐;通过线性插值,得到任意事件点ej的变换矩阵tj表示该事件点的时间戳;
步骤2.2,每个事件点都带有坐标信息,将事件点ej的原始像素坐标表示为xj,运动补偿后的像素坐标表示为xj′,根据相机投影模型π(.)和事件点ej的深度信息Z(xj),得到运动补偿后的事件点像素坐标:
步骤2.3,已知原始像素坐标xj和时间间隔Δt,则用IMU和事件点估计光流,
v=m+ε2 (9)
步骤2.4,将IMU作为约束引入EDI模型中来估计光流,利用最小二乘法写出代价函数,
其中,||.||2表示矩阵的l2范数,λ1表示IMU约束的权重系数;
步骤2.5,设光流值v*=argminf(v),通过二乘法得到估计结果:
v*=(ATA+λ1E)-1(ATb+λ1m)
其中,E表示单位矩阵。
而且,当出现混合运动场景时,处理方式包括以下步骤,
步骤3.1,通过鲁棒性主成分分析法(RobustPCA),可以将图像矩阵表示为背景矩阵L和前景稀疏矩阵S,得到凸优化问题:
其中,||.||*表示矩阵的核范数,||.||1表示矩阵的l1范数,λ2为正则化参数,用来调节稀疏矩阵的权重;
步骤3.2,将前景光流vf加入稀疏项约束,而背景光流vb加入IMU约束,得到:
v=vb+vf
参考运动一致场景,得到加入前景光流稀疏项约束的代价函数,
步骤3.3,得到优化问题minvf(vf,vb),采用交替迭代更新的方法,联合估计背景和前景的光流;
步骤3.4,交替迭代更新至迭代收敛后,将前景光流和背景光流相加,得到混合运动场景下的连续光流。
而且,步骤3.3中联合估计背景和前景的光流的实现方式为,
若固定前景光流vf,通过下式求解背景光流vb:
vb=(ATA+λ1E)-1[AT(b-A·vf)+λ1m]
得到背景光流vb后,固定vb,更新前景光流vf,得到以下优化问题:
应用ISTA方法,迭代求解该优化问题,通过不断的迭代更新直至收敛,最终求解得到前景光流vf。
本发明还提供一种利用IMU增强的事件相机光流估计方法,用于执行如上所述利用IMU增强的事件相机光流估计系统。
本发明的有益效果是,利用相机自带IMU输出的数据对背景光流进行补偿,不仅补偿速度快而且补偿效果较好;通过对前景光流加入稀疏约束,避免了背景补偿对前景光流准确性的影响,从而得到更加准确的连续光流估计结果。本发明适于应用的场景分包括单独背景运动或前景物体一致运动的运动一致场景,以及背景与前景的运动方向和大小不同的混合运动场景。
附图说明
图1是传统相机和事件相机数据对比图。
图2是本发明实施例背景光流补偿原理图。
图3是本发明实施例流程图。
具体实施方式
为了更清楚地了解本发明,下面结合附图和实施例具体介绍本发明技术内容。
本发明考虑到,通常情况下,少量的IMU携带的信息过少,将一段时间内的IMU积分得到事件点的轨迹,对事件点变换后可通过IMU运动补偿模型估计得到该时间段内的连续光流。但IMU光流模型受限于只由相机运动生成事件点的场景,因此,需要将IMU作为约束引入特定的光流模型,并设置一定的权重,这样既能通过IMU约束增加光流估计方法的精度,也能在相机静止的时候保证光流估计的进行,增加方法的鲁棒性。而在混合运动场景中,前景和背景运动不同,IMU的补偿反而会导致错误的前景光流。因此,需要将前景与背景分割开来处理,以此突出IMU对于背景光流估计的优势,使得光流估计更加准确。
本发明提出首先,利用事件相机DVS(Dynamic Vision Sensor,动态视觉传感器)和APS(Active Pixel Sensor,传统的主动像素传感器)数据,建立EDI(Event-basedDouble Integral,基于事件的二重积分)光流模型,在重建清晰亮度图像的同时估计连续光流。然后引入惯性测量单元,将IMU作为约束加入EDI光流模型,实现任意运动一致场景的连续光流估计。其次,为了解决加入IMU约束后的场景受限问题,将前景与背景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新的方法可以估计出任意运动场景的背景光流和前景光流,最后组合为场景的整体连续光流。
参见图3,本发明实施例提供一种利用IMU增强的事件相机光流估计方法,包括以下步骤:
步骤1,首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合“亮度恒定假设”光流公式,推导出基于EDI模型的光流计算方法,并将其作为本发明所使用的基础光流模型。
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,计算出任意时刻f的清晰亮度图像I(f):
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分:
其中,ti为曝光起始时刻,f,t为曝光时间内的任意时刻,c是相机激发事件点的阈值,τ为积分符号,e(t)为连续时间t的函数,本发明将其定义为:
e(t)=pδ(t-te)
其中,p为相机激发事件点的极性,te为相机激发事件点的时刻,δ是狄拉克函数。
步骤1.2,基于“亮度恒定”假设的光流公式可以表示为:
最终求得光流计算的表达式如下:
将其简化表示为:
A·v=b+ε1 (6)
步骤2,将IMU运动补偿模型作为约束加入基础光流模型,以实现任意运动一致场景下的连续光流估计。步骤2.1,事件相机运动过程中,同时输出一系列事件点和IMU数据,IMU数据包括线加速度和角速度。利用输出数据的时间戳,将事件点和IMU数据在时间上对齐。如附图2所示,时间轴t轴上,圆点表示事件点,方格表示IMU数据,上方I1,I2,I3,I4表示与其相对应的图像帧序列,将时间间隔内的IMU数据积分得到I2,I3两帧之间的变换矩阵即:
其中,线加速度二次积分得到平移变化量角速度积分得到旋转变化量 表示任意时刻f第k个事件点的时间戳,和分别表示任意事件点ej相对于参考时间戳和的变换矩阵。再通过将线性插值,即可得到任意事件点ej的变换矩阵tj表示该事件点的时间戳。
步骤2.2,每个事件点都带有坐标信息,将事件点ej的原始像素坐标表示为xj,运动补偿后的像素坐标表示为xj′,将像素坐标xj通过相机投影模型π(.)和事件点ej的深度信息Z(xj)反投影到世界坐标系,得到反投影后坐标xj1为:
xj1=Z(xj)π-1(xj)
最后通过相机投影模型π(.)将坐标xj2投影到像素坐标上,得到运动补偿后的事件点像素坐标:
步骤2.3,已知原始像素坐标xj和时间间隔Δt,则可用IMU和事件点估计光流,将其写成
v=m+ε2 (9)
步骤2.4,将IMU作为约束引入EDI模型中来估计光流,利用最小二乘法写出代价函数:
其中,||.||2表示矩阵的l2范数,λ1表示IMU约束的权重系数,越大IMU影响越大,通过实验得到λ1的优选建议取值范围为[0,1],当相机静止不输出IMU数据时就能将其设为零值;
步骤2.5,设光流值v*=argminf(v),通过二乘法得到解:
v*=(ATA+λ1E)-1(ATb+λ1m) (11)
其中,E表示单位矩阵。
将EDI模型估计光流方法和引入IMU约束的EDI光流模型方法分别命名为EDIF和EDIF_IMU。然后将这两种方法与目前常见的基于事件相机的光流估计方法比较,分别为图像对比度最大化估计光流和SAE局部平面拟合估计光流方法,将其命名为DVS-CM和DVS-LP。
采用带有标准偏差的平均端点误差(AEE)和平均角度误差(AAE)计算光流估计结果与真实值的误差,二者具体定义如下:
其中,vi=(vx,i,vy,i)表示第i个光流测量值,ui=(vx,i,vy,i)表示相应的光流真实值,vx,i,vy,i表示光流在x和y方向上的分量,N表示光流矢量总数。四种方法的误差对比如表1所示,总体上来说,EDIF_IMU的结果最好,终点误差AEE和角度误差AAE都比较小,EDIF的结果也比另外两种现有方法更优,说明了本专利方法的有效性。
表1
步骤3,由于加入IMU约束后,本发明提出的光流估计方法受限于运动一致场景,因此进一步的,本发明将背景与前景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新的方法可以联合估计任意运动场景的背景光流和前景光流,最后组合为场景的整体连续光流。步骤3.1,通过鲁棒性主成分分析法(RobustPCA),可以将图像矩阵表示为背景矩阵L和前景稀疏矩阵S,可以写出凸优化问题:
minS,L||L||*+λ2||S||1 (12)
其中,||.||*表示矩阵的核范数,也就是矩阵奇异值的和。||.||1表示矩阵的l1范数,也就是矩阵列向量绝对值之和的最大值。λ2为正则化参数,用来调节稀疏矩阵的权重,实施例通过实验得到λ2的优选建议取值为0.3。
步骤3.2,将前景光流vf加入稀疏项约束,而背景光流vb加入IMU约束。由此,可以将光流写成:
v=vb+vf (13)
参考运动一致场景,可得到加入前景光流稀疏项约束的代价函数:
步骤3.3,得到优化问题minvf(vf,vb),采用交替迭代更新的方法,联合估计背景和前景的光流,若固定前景光流vf,可以通过下式求解背景光流vb:
vb=(ATA+λ1E)-1[AT(b-A·vf)+λ1m] (15)
得到背景光流vb后,就固定vb,然后更新前景光流vf,也就是以下优化问题:
应用ISTA(迭代收缩阈值方法,iterative shrinkage-thresholding algorithm)迭代求解该优化问题。迭代步骤可以表示为:
其中,x表示任意变量,sign(.)表示符号函数,最后不断的迭代更新直至收敛,最终求解得到前景光流vf。
步骤3.4,利用交替迭代更新,固定前景光流vf,求解背景光流vb,固定背景光流vb求解前景光流vf,然后直至迭代收敛。最后将前景光流和背景光流相加,得到混合运动场景下的连续光流v。
将引入稀疏约束的连续光流估计方法命名为EDIMU_Sparse,将DVS-CM作为对比方法,对本发明提出的方法进行测试。视觉对比可看出,相对于图像对比度最大化方法在混合运动场景的应用,本文提出的方法EDIMU_Sparse估计的连续光流更加平滑,且背景光流更加一致,说明了本专利方法的有效性。
具体实施时,该方法可采用计算机软件技术实现自动运行流程,实施方法流程的相应系统装置也在本发明的保护范围内。
应当理解的是,上述针对实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (5)
1.一种利用IMU增强的事件相机光流估计方法,其特征在于:首先利用EDI模型,将任意时刻模糊亮度图像重建为清晰亮度图像,再结合亮度恒定假设,建立基础光流模型,所述EDI表示基于事件的二重积分;然后将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计;当出现混合运动场景时将背景与前景分割开来处理,在估计背景光流时引入IMU约束,估计前景光流时引入稀疏约束,通过交替迭代更新方式联合估计混合运动场景的背景光流和前景光流,最后组合得到场景的整体连续光流;
当出现混合运动场景时,处理方式包括以下步骤,
步骤3.1,通过鲁棒性主成分分析法Robust PCA,将图像矩阵表示为背景矩阵L和前景稀疏矩阵S,得到凸优化问题:
其中,||.||*表示矩阵的核范数,||.||1表示矩阵的l1范数,λ2为正则化参数,用来调节稀疏矩阵的权重;
步骤3.2,将前景光流vf加入稀疏项约束,而背景光流vb加入IMU约束,得到光流:
v=vb+vf
参考运动一致场景,得到加入前景光流稀疏项约束的代价函数,
步骤3.3,得到优化问题minvf(vf,vb),采用交替迭代更新的方法,联合估计背景和前景的光流;
步骤3.4,交替迭代更新至迭代收敛后,将前景光流和背景光流相加,得到混合运动场景下的连续光流。
2.根据权利要求1所述利用IMU增强的事件相机光流估计方法,其特征在于:建立基础光流模型的实现方式包括以下步骤,
步骤1.1,将在曝光时间T内生成的第i帧模糊亮度图像表示为y[i],使用EDI模型,用亮度图像生成时间段内的事件点补偿模糊亮度图像,计算出任意时刻f的清晰亮度图像I(f):
其中,Ei(f)表示第i帧模糊亮度图像的生成时间T内产生事件点的二重积分;
步骤1.2,基于亮度恒定假设的光流公式,得到光流计算的表达式如下,
简化表示为,
A·v=b+ε1
3.根据权利要求2所述利用IMU增强的事件相机光流估计方法,其特征在于:将IMU作为约束加入基础光流模型,实现任意运动一致场景下的连续光流估计,实现方式包括以下步骤,
步骤2.1,事件相机运动过程中,同时输出一系列事件点和IMU数据,IMU数据包括线加速度和角速度,利用输出数据的时间戳,将事件点和IMU数据在时间上对齐;通过线性插值,得到任意事件点ej的变换矩阵tj表示该事件点的时间戳;
步骤2.2,每个事件点都带有坐标信息,将事件点ej的原始像素坐标表示为xj,运动补偿后的像素坐标表示为xj′,根据相机投影模型π(.)和事件点ej的深度信息Z(xj),得到运动补偿后的事件点像素坐标:
步骤2.3,已知原始像素坐标xj和时间间隔Δt,则用IMU和事件点估计光流,
v=m+ε2 (9)
步骤2.4,将IMU作为约束引入EDI模型中来估计光流,利用最小二乘法写出代价函数,
其中,||.||2表示矩阵的l2范数,λ1表示IMU约束的权重系数;
步骤2.5,设光流值v*=argminf(v),通过二乘法得到估计结果:
v*=(ATA+λ1E)-1(ATb+λ1m)
其中,E表示单位矩阵。
5.一种利用IMU增强的事件相机光流估计系统,其特征在于:用于执行如权利要求1至4任一项所述利用IMU增强的事件相机光流估计方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010620421.XA CN111798485B (zh) | 2020-06-30 | 2020-06-30 | 一种利用imu增强的事件相机光流估计方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010620421.XA CN111798485B (zh) | 2020-06-30 | 2020-06-30 | 一种利用imu增强的事件相机光流估计方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111798485A CN111798485A (zh) | 2020-10-20 |
CN111798485B true CN111798485B (zh) | 2022-07-19 |
Family
ID=72810841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010620421.XA Active CN111798485B (zh) | 2020-06-30 | 2020-06-30 | 一种利用imu增强的事件相机光流估计方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111798485B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116134829A (zh) * | 2020-12-31 | 2023-05-16 | 华为技术有限公司 | 一种图像处理方法以及装置 |
CN114137247B (zh) * | 2021-11-30 | 2024-01-19 | 上海科技大学 | 基于事件相机的速度感知方法、装置、设备和介质 |
CN114842386B (zh) * | 2022-05-06 | 2024-05-17 | 中国科学技术大学 | 一种面向事件相机的渐进式迭代优化的事件运动分割方法 |
CN117739996B (zh) * | 2024-02-21 | 2024-04-30 | 西北工业大学 | 一种基于事件相机惯性紧耦合的自主定位方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204477A (zh) * | 2016-07-06 | 2016-12-07 | 天津大学 | 基于在线低秩背景建模的视频序列背景恢复方法 |
CN107687850A (zh) * | 2017-07-26 | 2018-02-13 | 哈尔滨工业大学深圳研究生院 | 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法 |
US10600189B1 (en) * | 2016-12-06 | 2020-03-24 | Apple Inc. | Optical flow techniques for event cameras |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110692083B (zh) * | 2017-05-29 | 2024-01-05 | 苏黎世大学 | 用于动态视觉传感器的块匹配光流和立体视觉 |
CN110120098B (zh) * | 2018-02-05 | 2023-10-13 | 浙江商汤科技开发有限公司 | 场景尺度估计及增强现实控制方法、装置和电子设备 |
US11244464B2 (en) * | 2018-03-09 | 2022-02-08 | Samsung Electronics Co., Ltd | Method and apparatus for performing depth estimation of object |
-
2020
- 2020-06-30 CN CN202010620421.XA patent/CN111798485B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204477A (zh) * | 2016-07-06 | 2016-12-07 | 天津大学 | 基于在线低秩背景建模的视频序列背景恢复方法 |
US10600189B1 (en) * | 2016-12-06 | 2020-03-24 | Apple Inc. | Optical flow techniques for event cameras |
CN107687850A (zh) * | 2017-07-26 | 2018-02-13 | 哈尔滨工业大学深圳研究生院 | 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法 |
Non-Patent Citations (2)
Title |
---|
Asynchronous frameless event-based optical flow;Ryad Benosman etal.;《Neural Networks》;20121231;全文 * |
一种局部和全局相结合的光流计算方法;张建明等;《计算机工程与科学》;20051231;第27卷(第5期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111798485A (zh) | 2020-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111798485B (zh) | 一种利用imu增强的事件相机光流估计方法及系统 | |
US11238606B2 (en) | Method and system for performing simultaneous localization and mapping using convolutional image transformation | |
WO2020253618A1 (zh) | 一种视频抖动的检测方法及装置 | |
CN113286194A (zh) | 视频处理方法、装置、电子设备及可读存储介质 | |
CN111899276A (zh) | 一种基于双目事件相机的slam方法及系统 | |
WO2023071790A1 (zh) | 目标对象的姿态检测方法、装置、设备及存储介质 | |
CN113269682B (zh) | 一种结合帧间信息的非均匀运动模糊视频复原方法 | |
CN113744337A (zh) | 一种融合视觉、imu与声纳的同步定位与建图方法 | |
CN112233179A (zh) | 一种视觉里程计测量方法 | |
CN115375581A (zh) | 基于事件时空同步的动态视觉事件流降噪效果评价方法 | |
CN111899345B (zh) | 一种基于2d视觉图像的三维重建方法 | |
Li et al. | Gyroflow: Gyroscope-guided unsupervised optical flow learning | |
CN111798484B (zh) | 基于事件相机的连续稠密光流估计方法及系统 | |
CN112131991B (zh) | 一种基于事件相机的数据关联方法 | |
Xue et al. | Event-based non-rigid reconstruction from contours | |
CN116592878A (zh) | 一种低照度视觉惯性定位系统 | |
CN116151320A (zh) | 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置 | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
Tistarelli | Computation of coherent optical flow by using multiple constraints | |
CN113256711A (zh) | 一种单目相机的位姿估计方法及系统 | |
US20240029283A1 (en) | Image depth prediction method, electronic device, and non-transitory storage medium | |
Lobo et al. | Bioinspired visuo-vestibular artificial perception system for independent motion segmentation | |
CN112529936B (zh) | 一种用于室外无人机的单目稀疏光流算法 | |
Zong et al. | An event camera tracking based on MLS surface fitting algorithm | |
CN115546876B (zh) | 一种瞳孔追踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |