CN114842058A - 面向虚拟现实的先验驱动双向补偿的全景图像配准方法 - Google Patents

面向虚拟现实的先验驱动双向补偿的全景图像配准方法 Download PDF

Info

Publication number
CN114842058A
CN114842058A CN202210316082.5A CN202210316082A CN114842058A CN 114842058 A CN114842058 A CN 114842058A CN 202210316082 A CN202210316082 A CN 202210316082A CN 114842058 A CN114842058 A CN 114842058A
Authority
CN
China
Prior art keywords
image
pixel
representing
compensation
image registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210316082.5A
Other languages
English (en)
Inventor
张晖
赵梦
赵海涛
朱洪波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210316082.5A priority Critical patent/CN114842058A/zh
Priority to PCT/CN2022/107421 priority patent/WO2023184795A1/zh
Priority to JP2023517808A priority patent/JP2024515913A/ja
Publication of CN114842058A publication Critical patent/CN114842058A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种面向虚拟现实的先验驱动双向补偿的全景图像配准方法,包括:对两幅待配准图像进行运动目标提取,对提取到运动目标的图像前景集进行自适应形变像素校正,提取图像特征,完成运动目标匹配;对匹配成功的运动目标进行运动方向和速度检测,根据两个摄像头物理时间的差值计算得到运动目标的速度,对各自运动目标进行补偿;对目标提取失败的图像、目标匹配失败的图像以及进行了双向补偿的图像进行图像配准。本发明能够解决现有VR监控场景下存在的因摄像机时钟不同步导致的图像导致的运动前景时图像配准效率低、效果差等技术问题。

Description

面向虚拟现实的先验驱动双向补偿的全景图像配准方法
技术领域
本发明属于深度学习和图像处理技术领域,尤其涉及一种面向虚拟现实的先验驱动双向补偿的全景图像配准方法。
背景技术
图像配准就是将单幅或多幅图片依据某种最优的变换映射到目标图片。基于灰度信息的图像配准方法是基于灰度信息寻求配准图像与待配准图像之间相似性最大化的过程。相似性度量方法一般采用互信息、平方差、Hausdorff距离、互相关系数、平方差和等度量等方法。其中互信息在图像融合中使用较为频繁。配准图像与待配准图像相似性最大化的过程实际上也是最优化的过程,通过对变换模型的参数进行不断调整,只有当相似性最大化时,变换模型的参数才能达到最优,将待配准图像按照该最优模型进行变换,完成与配准图像的配准。基于特征信息的图像配准利用特征提取算法提取特征,然后通过建立配准图像与待配准图像之间的特征点的映射关系得到变换模型,从而完成图像配准。
不同类型的图片在进行配准时采用的算法、评价标准也不同。随着医学方面各种设备的日渐进步,图像配准在医学图像处理方面重要性也愈来愈高。对不同时间拍摄的同一患者的图像进行配准,可以很好的分析患者器官和病理的动态变化状况,以便进行更加准确的医疗诊断,制定更具有针对性的治疗方案。图像配准也是材料力学方向研究力学性质的一种方法。将不同的传感器采集到的温度、形状等信息进行融合与比较得到温度场、形变场等各类数值。再把各类数值带入理论模型当中进行参数的优化。图像配准还可以用来进行运动目标自动追踪、模式识别和视频分析等。
然而,现有VR监控场景下,因摄像机时钟不同步导致图像中存在运动前景时图像配准效率低、效果差等技术问题。
发明内容
解决的技术问题:现有VR监控场景下因摄像机时钟不同步导致的图像中存在运动前景时图像配准效率低、效果差等技术问题。
技术方案:
一种面向虚拟现实的先验驱动双向补偿的全景图像配准方法,所述全景图像配准方法包括以下步骤:
S1、采用基于Vibe的背景消减法对两幅待配准图像进行运动目标提取,对提取到运动目标的图像前景集进行自适应形变像素校正,使用SURF特征提取算法提取图像特征,并根据特征阈值完成运动目标匹配;
S2、采用稀疏光流法对匹配成功的运动目标进行运动方向和速度检测,根据摄像机的物理时间计算逻辑时间,根据两个摄像头物理时间的差值计算得到运动目标的速度,对各自运动目标进行补偿;
S3、基于密集卷积神经网络构建第一图像配准模型,基于VGG16网络构建第二图像配准模型;对目标提取失败的图像、目标匹配失败的图像以及进行了双向补偿的图像进行图像配准,以图像是否进行双向补偿将图像分为两类,其中,采用第一图像配准模型对基于位置预测的双向补偿后的图像进行图像配准,采用第二图像配准模型对包括目标提取失败和目标配准失败的图像在内的没有进行双向补偿的图像进行图像配准。
进一步地,步骤S1中,采用基于Vibe的背景消减法对两幅待配准图像进行运动目标提取,对提取到运动目标的图像前景集进行自适应形变像素校正的过程包括以下步骤:
为待检测的图像序列中每个像素值都建立一个包含N个样本值的背景模型M(x),M(x)={v1,v2…vN},vi表示索引为i的背景样本,i=1,2,...,N;
更新背景模型M(x)如下:
M0(x)={vy(y|y∈NG(x))}
式中,NG(x)表示x位置的像素的空间邻域,vy表示处于该空间邻域的像素点的颜色值;背景模型的样本点从邻域像素点随机抽取N个生成;
根据以下公式对像素进行校正:
Figure BDA0003567750600000021
Figure BDA0003567750600000022
Figure BDA0003567750600000023
式中,(xd,yd)表示发生形变的像素坐标,(xc,yc)表示有形变的中心像素坐标,(xu,yu)表示矫正之后的像素坐标,K1和K2分别表示一阶和二阶放射畸变系数;r表示形变后的坐标到中心像素坐标的距离;α和1-α表示相机焦距所处的相对位置:
Figure BDA0003567750600000031
Figure BDA0003567750600000032
式中,fmax、fmin分别表示相机焦距的最大值和最小值,fc表示相机实际焦距。
进一步地,采用稀疏光流法计算前景中运动目标的速度和方向,得出在x、y两个方向上的速度分别为u、v:
Figure BDA0003567750600000033
其中
Figure BDA0003567750600000034
Figure BDA0003567750600000035
Figure BDA0003567750600000036
表示第i个像素在x和y方向上的图像梯度,
Figure BDA0003567750600000037
表示第i个像素时间上的梯度;
两幅待配准图像A和图像B中左侧图像前景集表示为:
AN={pA1,pA2…pAN};
右侧图像前景集表示为:
BN={pB1,pB2…pBN};
其中pAi、pBi表示构成图像A和图像B的前景集的像素;
右侧图像真正的物理时间t′与左侧图像时间t满足t′=t+Δt,Δt为两幅图像物理时间的差值;对图像A进行位置补偿的时间tA和对图像B进行位置补偿的时间tB分别为:
tA=t+Δt/2
tB=t′-Δt/2=t+Δt/2;
补偿后左侧前景集为:
AN′={pA1′,pA2′…pAN′}
Figure BDA0003567750600000038
Figure BDA0003567750600000039
其中pAi′表示构成图像A补偿后的前景集的像素,pAix表示补偿前x方向上的像素分量,pAix′表示在x方向上补偿后的像素分量,uA表示该像素在x方向上的速度,pAiy表示补偿前y方向上的像素分量,pAiy′表示在y方向上补偿后的像素分量,uB表示该像素在y方向上的速度;
补偿后右侧图像前景集为:
BN′={pB1′,pB2′…pBN′}
Figure BDA0003567750600000041
Figure BDA0003567750600000042
其中pBi′表示构成图像B补偿后的前景集的像素,pBix表示补偿前x方向上的像素分量,pBix′表示在x方向上补偿后的像素分量,uB表示该像素在x方向上的速度,pBiy表示补偿前y方向上的像素分量,pBiy′表示在y方向上补偿后的像素分量,vB表示该像素在y方向上的速度。
进一步地,步骤S3中,所述第一图像配准模型由依次连接的三个密集网络块、一个卷积层和一个第一池化层组成,其中每个密集网络块是由一个卷积层、一个第二池化层和一个密集网络依次连接组成;第一池化层的输出经过压平后与回归网络连接,回归网络采用五个完全连接层依次连接组成,用于输出图像配准的几何变换的参数。
进一步地,步骤S3中,所述第二图像配准模型包括依次连接的特征提取网络、特征匹配网络和回归网络,其中,特征提取网络包括依次连接的两个卷积层和一个池化层,用于提取待配准图像的相关特征,生成特征图;特征提取网络包括两路匹配网络,两路匹配网络共享权值,每个匹配网络用来采用相关图进行相关性计算,进行特征描述子的匹配,其输出通过回归网络输出图像配准的几何变换的参数。
本发明针对摄像机不同步和前景运动目标导致的图像配准效率问题给出了补偿方案,首先使用背景消减法对图像进行目标提取,然后在目标匹配时考虑了两个相机的形变,进行自适应形变校正,最后对两幅图像中的前景分别进行补偿操作。本发明还提出了基于密集卷积神经网络的图像配准算法,提供了一种端到端获取变换参数的方法,最后对是否进行双向补偿的图像采用不同的配准方案,提高算法效率。
有益效果:
第一,本发明针对不同步的摄像头拍摄到的图像,根据前景中是否包含运动物体采用了不同的配准方法;当前景中存在运动物体时,本发明的自适应形变像素校正和基于位置预测的双向补偿可以有效的避免不同步的时间差内运动物体造成的偏移,配准结果更加精准。
第二,本发明提出的基于DSCNN的图像配准方法可以实现端到端的输出配准所需的转换参数与传统的图像配准算法相比计算时间大幅缩小,有更加广阔的应用前景。
附图说明
图1为本发明的面向虚拟现实的先验驱动双向补偿的全景图像配准方法的整体流程图;
图2为目标提取流程图;
图3为考虑形变的目标匹配流程图;
图4为基于双向补偿的图像配准流程图;
图5为DSCNN图像配准流程图;
图6为DSCNN图像配准网络结构图;
图7为基于VGG-16的图像配准网络结构图。
具体实施方式
下面的实施例可使本专业技术人员更全面地理解本发明,但不以任何方式限制本发明。
本发明提出面向虚拟现实的先验驱动双向补偿的全景图像配准方法,基本包括运动目标提取、考虑形变的运动目标匹配、基于位置预测的双向补偿、针对不同前景集采用不同的配准方法。如图1所示,具体包括以下步骤:
步骤1:ViBe算法为待检测的图像序列中每个像素值都建立一个包含N个样本值的背景模型M(x),vi表示索引为i的背景样本:
M(x)={v1,v2…vN}
v(x)表示位置在x处的像素在给定的颜色空间中的颜色值,该像素的背景模型为M(x)。
ViBe假定相邻的像素点空间分布关系也相似。ViBe背景模型初始化是利用单帧图像就可以完成的,该技术在面临光源突然变化时可以快速响应,即将原来所有样本点全部抛弃,重新初始化:
M0(x)={vy(y|y∈NG(x))}
NG(x)表示x位置的像素的空间邻域,vy表示处于该空间邻域的像素点的颜色值。具体实施时背景模型的样本点从邻域像素点随机抽取N个生成。
自适应形变像素校正主要是根据不同焦距会导致不同类型的形变,如焦距处于设备的中间值时容易产生桶形形变,焦距过长时,容易产生桶形和枕形形变的混合形变,无论哪种变形都会对匹配结果产生负面影响,故提出以下公式对像素进行校正:
Figure BDA0003567750600000061
Figure BDA0003567750600000062
Figure BDA0003567750600000063
其中(xd,yd)表示发生形变的像素坐标,(xc,yc)表示有形变的中心像素坐标,(xu,yu)表示矫正之后的像素坐标,K1和K2分别表示一阶和二阶放射畸变系数。r表示形变后的坐标到中心像素坐标的距离。α和1-α表示相机焦距所处的相对位置:
Figure BDA0003567750600000064
Figure BDA0003567750600000065
其中fmax、fmin分别表示相机焦距的最大值和最小值,fc表示相机实际焦距。
步骤2:使用LK光流法计算匹配好的前景运动目标单位时间内在各个方向上的位移:
I(x,y,t)=I(x+dx,y+dy,t+dt)
右边进行泰勒级数展开,两边同除以dt得公式:
fxu+fyv+ft=0
其中
Figure BDA0003567750600000066
fx,fy表示图像梯度,ft表示时间上的梯度。LK光流根据边长为3的正方形内的9个像素点具有相同的运动来找到他们的光流方程,组成9个等式2个未知数的方程组,使用最小二乘拟合求解。求解结果如下:
Figure BDA0003567750600000067
由于摄像机内部晶振等各种原因导致右侧图像与左侧图像存在一个微小的时间间隔Δt,右侧图像真正的物理时间t′与左侧图像时间t满足t′=t+Δt。t时刻左侧待配准图像提取出的运动目标表示为AN={pA1,pA2…pAN},同一时间右侧待配准图像提取出的运动目标表示为BN={pB1,pB2…pBN},对两幅图像进行位置补偿的时间分别为:
tA=t+Δt/2
tB=t′-Δt/2=t+Δt/2。
位置补偿后左右两侧待配准图像的前景图为:
AN′={pA1′,pA2′…pAN′}
Figure BDA0003567750600000071
Figure BDA0003567750600000072
BN′={pB1′,pB2′…pBN′}
Figure BDA0003567750600000073
Figure BDA0003567750600000074
其中,pAi′表示构成A补偿后的前景集的像素,pAix表示补偿前x方向上的像素分量,pAix′表示在x方向上补偿后的像素分量,uA表示该像素在x方向上的速度,pAiy表示补偿前y方向上的像素分量,pAiy′表示在y方向上补偿后的像素分量,uB表示该像素在y方向上的速度,Δt为两幅图像物理时间的差值;pBi′表示构成B补偿后的前景集的像素,pBix表示补偿前x方向上的像素分量,pBix′表示在x方向上补偿后的像素分量,uB表示该像素在x方向上的速度,pBiy表示补偿前y方向上的像素分量,pBiy′表示在y方向上补偿后的像素分量,vB表示该像素在y方向上的速度。
步骤3:待配准图像A与待配准图像B分别经过DSCNN网络提取特征,两个特征提取网络共享权重参数,之后经过由5个全连接层组成的回归网络,最终输出图像配准的变换参数。
图像配准所用到的特征提取网络为基于密集卷积神经网络的,该网络结构是由三个密集网络块和一个卷积层、一个池化层组成,其中密集网络块是由一个卷积层一个池化层和一个密集网络组成,输出经过压平后与回归网络连接。随着CNN卷积层数的增加,网络的输入信息和梯度信息会随着网络深度的增加而逐渐消失。ResNets和Highway Netwoks用不同的方法证实了神经网络从开始值至结束的路径越短,越能够缓解梯度消失的问题。ResNets通过标识连接将信号分流,获取了更好的梯度流和信息。FractalNets保证了网络的短路径,降低了梯度消失的影响。因此本发明将密集网络块引入特征提取网络,提出了一种基于密集网络的特征提取网络,既保证了提取较为全面的特征信息,又不会出现梯度消失问题,如图6所示。图中密集网络块的各层是直接相连接的,保证了各层网络之间的信息流达到最大。密集网络块中的每一层的输入都是前面所有层的输出,保证了网络的前馈特性,本层的特征映射也会传递给后面层作为输入。本发明中DSCNN的回归网络是由5个完全连接层组成。全连接层用来寻找特征之间的非线性关系和高级推理。最后输出可以对齐两幅图像的转换参数。
步骤4:对没有提取到运动目标和运动目标匹配失败的图像进行基于VGG16的图像配准。这是因为本发明提出的基于双向补偿的图像配准算法核心思想是针对不同前景的图像采用不同的配准算法以求较高的配准准确率,如图1所示。针对成功检测并匹配到运动前景的图像来进行基于DSCNN的图像配准,当检测不到目标或匹配不成功时,直接进行基于VGG16的图像配准,而不必进行双向补偿操作,以降低整体算法的时间复杂度。
基于VGG16的图像配准算法主要包括特征提取网络,特征匹配网络和回归网络三大部分,其中特征提取网络部分采用改进的VGG-16,两路匹配网络共享权值,匹配网络用来进行特征描述子的匹配,其输出通过回归网络输出几何变换的参数。特征提取网络采用标准的卷积神经网络架构,将待配准图像输入没有完全连接层的卷积神经网络,生成特征图。卷积神经网络截取VGG-16部分网络,其网络结构如图7所示。
经典的图像配准几何估计丢弃了原始的描述符,而关注描述符对之间的相似程度,这是因为描述符对相似程度和空间位置已包含了几何估计所需的必要信息,通过阈值化相似值仅保留最相似邻居的匹配去修建描述符对。本发明匹配网络也借鉴了这种思想,采用关联层,只考虑描述符对之间的空间位置和相似程度而不考虑原始描述符。本发明匹配网络采用相关层和归一化层的结构。其中,相关层计算所有特征描述子的相似性,归一化层用于对相似度分数进行处理和归一化以便去除模糊匹配。
应当指出,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也在本申请权利要求的保护范围内。

Claims (5)

1.一种面向虚拟现实的先验驱动双向补偿的全景图像配准方法,其特征在于,所述全景图像配准方法包括以下步骤:
S1、采用基于Vibe的背景消减法对两幅待配准图像进行运动目标提取,对提取到运动目标的图像前景集进行自适应形变像素校正,使用SURF特征提取算法提取图像特征,并根据特征阈值完成运动目标匹配;
S2、采用稀疏光流法对匹配成功的运动目标进行运动方向和速度检测,根据摄像机的物理时间计算逻辑时间,根据两个摄像头物理时间的差值计算得到运动目标的速度,对各自运动目标进行补偿;
S3、基于密集卷积神经网络构建第一图像配准模型,基于VGG16网络构建第二图像配准模型;对目标提取失败的图像、目标匹配失败的图像以及进行了双向补偿的图像进行图像配准,以图像是否进行双向补偿将图像分为两类,其中,采用第一图像配准模型对基于位置预测的双向补偿后的图像进行图像配准,采用第二图像配准模型对包括目标提取失败和目标配准失败的图像在内的没有进行双向补偿的图像进行图像配准。
2.根据权利要求1所述的面向虚拟现实的先验驱动双向补偿的全景图像配准方法,其特征在于,步骤S1中,采用基于Vibe的背景消减法对两幅待配准图像进行运动目标提取,对提取到运动目标的图像前景集进行自适应形变像素校正的过程包括以下步骤:
为待检测的图像序列中每个像素值都建立一个包含N个样本值的背景模型M(x),M(x)={v1,v2…vN},vi表示索引为i的背景样本,i=1,2,...,N;
更新背景模型M(x)如下:
M0(x)={vy(y|y∈NG(x))}
式中,NG(x)表示x位置的像素的空间邻域,vy表示处于该空间邻域的像素点的颜色值;背景模型的样本点从邻域像素点随机抽取N个生成;
根据以下公式对像素进行校正:
Figure FDA0003567750590000011
Figure FDA0003567750590000012
Figure FDA0003567750590000021
式中,(xd,yd)表示发生形变的像素坐标,(xc,yc)表示有形变的中心像素坐标,(xu,yu)表示矫正之后的像素坐标,K1和K2分别表示一阶和二阶放射畸变系数;r表示形变后的坐标到中心像素坐标的距离;α和1-α表示相机焦距所处的相对位置:
Figure FDA0003567750590000022
Figure FDA0003567750590000023
式中,fmax、fmin分别表示相机焦距的最大值和最小值,fc表示相机实际焦距。
3.根据权利要求1所述的面向虚拟现实的先验驱动双向补偿的全景图像配准方法,其特征在于,步骤S2中,对各自运动目标进行补偿的过程包括以下步骤:
采用稀疏光流法计算前景中运动目标的速度和方向,得出在x、y两个方向上的速度分别为u、v:
Figure FDA0003567750590000024
其中
Figure FDA0003567750590000025
Figure FDA0003567750590000026
Figure FDA0003567750590000027
表示第i个像素在x和y方向上的图像梯度,
Figure FDA0003567750590000028
表示第i个像素时间上的梯度;
两幅待配准图像A和图像B中左侧图像前景集表示为:
AN={pA1,pA2…pAN};
右侧图像前景集表示为:
BN={pB1,pB2…pBN};
其中pAi、pBi表示构成图像A和图像B的前景集的像素;
右侧图像真正的物理时间t′与左侧图像时间t满足t′=t+Δt,Δt为两幅图像物理时间的差值;对图像A进行位置补偿的时间tA和对图像B进行位置补偿的时间tB分别为:
tA=t+Δt/2
tB=t′-Δt/2=t+Δt/2;
补偿后左侧前景集为:
AN′={pA1′,pA2′…pAN′}
Figure FDA0003567750590000031
Figure FDA0003567750590000032
其中pAi′表示构成图像A补偿后的前景集的像素,pAix表示补偿前x方向上的像素分量,pAix′表示在x方向上补偿后的像素分量,uA表示该像素在x方向上的速度,pAiy表示补偿前y方向上的像素分量,pAiy′表示在y方向上补偿后的像素分量,uB表示该像素在y方向上的速度;
补偿后右侧图像前景集为:
BN′={pB1′,pB2′…pBN′}
Figure FDA0003567750590000033
Figure FDA0003567750590000034
其中pBi′表示构成图像B补偿后的前景集的像素,pBix表示补偿前x方向上的像素分量,pBix′表示在x方向上补偿后的像素分量,uB表示该像素在x方向上的速度,pBiy表示补偿前y方向上的像素分量,pBiy′表示在y方向上补偿后的像素分量,vB表示该像素在y方向上的速度。
4.根据权利要求1所述的面向虚拟现实的先验驱动双向补偿的全景图像配准方法,其特征在于,步骤S3中,所述第一图像配准模型由依次连接的三个密集网络块、一个卷积层和一个第一池化层组成,其中每个密集网络块是由一个卷积层、一个第二池化层和一个密集网络依次连接组成;第一池化层的输出经过压平后与回归网络连接,回归网络采用五个完全连接层依次连接组成,用于输出图像配准的几何变换的参数。
5.根据权利要求1所述的面向虚拟现实的先验驱动双向补偿的全景图像配准方法,其特征在于,步骤S3中,所述第二图像配准模型包括依次连接的特征提取网络、特征匹配网络和回归网络,其中,特征提取网络包括依次连接的两个卷积层和一个池化层,用于提取待配准图像的相关特征,生成特征图;特征提取网络包括两路匹配网络,两路匹配网络共享权值,每个匹配网络用来采用相关图进行相关性计算,进行特征描述子的匹配,其输出通过回归网络输出图像配准的几何变换的参数。
CN202210316082.5A 2022-03-28 2022-03-28 面向虚拟现实的先验驱动双向补偿的全景图像配准方法 Pending CN114842058A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210316082.5A CN114842058A (zh) 2022-03-28 2022-03-28 面向虚拟现实的先验驱动双向补偿的全景图像配准方法
PCT/CN2022/107421 WO2023184795A1 (zh) 2022-03-28 2022-07-22 面向虚拟现实元宇宙的先验双向补偿的全景图像配准方法
JP2023517808A JP2024515913A (ja) 2022-03-28 2022-07-22 仮想現実メタバース向けの事前双方向補償ベースのパノラマ画像位置合わせ方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210316082.5A CN114842058A (zh) 2022-03-28 2022-03-28 面向虚拟现实的先验驱动双向补偿的全景图像配准方法

Publications (1)

Publication Number Publication Date
CN114842058A true CN114842058A (zh) 2022-08-02

Family

ID=82563796

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210316082.5A Pending CN114842058A (zh) 2022-03-28 2022-03-28 面向虚拟现实的先验驱动双向补偿的全景图像配准方法

Country Status (3)

Country Link
JP (1) JP2024515913A (zh)
CN (1) CN114842058A (zh)
WO (1) WO2023184795A1 (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3603737B2 (ja) * 2000-03-30 2004-12-22 日本電気株式会社 移動体追尾方法及びその装置
CN104778653A (zh) * 2014-11-28 2015-07-15 浙江工商大学 一种图像配准的方法
CN110059699B (zh) * 2019-03-18 2021-01-29 中南大学 一种基于卷积神经网络的图像中天际线自动检测方法
CN114066955A (zh) * 2021-11-19 2022-02-18 安徽大学 一种红外光图像配准到可见光图像的配准方法

Also Published As

Publication number Publication date
JP2024515913A (ja) 2024-04-11
WO2023184795A1 (zh) 2023-10-05

Similar Documents

Publication Publication Date Title
Schneider et al. RegNet: Multimodal sensor registration using deep neural networks
CN109903299B (zh) 一种条件式生成对抗网络的异源遥感图像配准方法及装置
CN111784747B (zh) 一种基于关键点检测和校正的车辆多目标跟踪系统及方法
CN112836640B (zh) 一种单摄像头多目标行人跟踪方法
CN111639580B (zh) 一种结合特征分离模型和视角转换模型的步态识别方法
CN105631899B (zh) 一种基于灰度纹理特征的超声图像运动目标跟踪方法
CN111783748A (zh) 人脸识别方法、装置、电子设备及存储介质
CN112001278A (zh) 一种基于结构化知识蒸馏的人群计数模型及其方法
CN111563404B (zh) 用于基于视频的人再识别的全局局部时间表示方法
CN112767480A (zh) 一种基于深度学习的单目视觉slam定位方法
Zou et al. Microarray camera image segmentation with Faster-RCNN
CN111401113A (zh) 一种基于人体姿态估计的行人重识别方法
CN114724185A (zh) 一种轻量型的多人姿态跟踪方法
CN112989889B (zh) 一种基于姿态指导的步态识别方法
CN112307892A (zh) 一种基于第一视角rgb-d数据的手部动作识别方法
Saif et al. Crowd density estimation from autonomous drones using deep learning: challenges and applications
CN109344758B (zh) 基于改进局部二值模式的人脸识别方法
CN113065506A (zh) 一种人体姿态识别方法及系统
CN114842058A (zh) 面向虚拟现实的先验驱动双向补偿的全景图像配准方法
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
CN114170450A (zh) 一种基于区域一致性和gms的图像特征匹配方法
CN110097032B (zh) 一种基于深度学习的行人重识别方法
CN115272904A (zh) 多个单目摄像头下的目标实时跟踪与距离度量系统及方法
CN113327267A (zh) 一种基于单目rgb视频的动作评价方法
CN114761998A (zh) 通过神经网络的自适应学习从图像确定深度的方法及其系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination