CN117075099A - 三维形变测量方法、装置、计算机设备及介质 - Google Patents

三维形变测量方法、装置、计算机设备及介质 Download PDF

Info

Publication number
CN117075099A
CN117075099A CN202310879828.8A CN202310879828A CN117075099A CN 117075099 A CN117075099 A CN 117075099A CN 202310879828 A CN202310879828 A CN 202310879828A CN 117075099 A CN117075099 A CN 117075099A
Authority
CN
China
Prior art keywords
deformation
radar
plane
target
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310879828.8A
Other languages
English (en)
Inventor
彭慧
尹奎
管世玉
张爽
梁伟
王续胜
龙昌林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
First Construction Co Ltd of China Construction Third Engineering Division
Original Assignee
First Construction Co Ltd of China Construction Third Engineering Division
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by First Construction Co Ltd of China Construction Third Engineering Division filed Critical First Construction Co Ltd of China Construction Third Engineering Division
Priority to CN202310879828.8A priority Critical patent/CN117075099A/zh
Publication of CN117075099A publication Critical patent/CN117075099A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • G01B15/06Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons for measuring the deformation in a solid

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请公开一种三维形变测量方法、装置、计算机设备及存储介质,涉及工程测量监测技术领域,所述方法包括确定雷达和相机之间的融合采样周期和融合空间关系,基于融合采样周期,获取被测目标的雷达数据和视觉图像,对雷达数据进行第一形变处理,得到被测目标在雷达发射方向上的平面外形变信息,对视觉图像进行第二形变处理,得到被测目标在相机拍摄视线垂直的平面方向上的平面内形变信息,基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息,即通过融合雷达发射方向上的平面外形变信息和平面方向上的平面内形变信息,体现雷达数据与视觉图像相互修正与融合的价值,从而能够实现对被测目标的高精度形变测量。

Description

三维形变测量方法、装置、计算机设备及介质
技术领域
本申请涉及工程测量监测技术领域,尤其涉及一种三维形变测量方法、装置、计算机设备及存储介质。
背景技术
目前可以直接测量三维形变的方法有GNSS、三维激光扫描、合成孔径雷达、双目摄像头等方法。
基于北斗/GPS的监测手段可以测量目标的三维形变,GNSS接收机动态监测精度较差,静态差分技术虽然可以通过消除误差和增加观测时长等策略获得毫米级的监测精度,但其时效性难以满足实时性监测要求,其水平监测精度可达到毫米级别,但高程的测量误差为水平误差的2倍左右,无法测量亚毫米级的形变。此外北斗/GPS需要参考基站和多颗卫星联合计算,对部署安装位置空间条件有要求。
三维激光扫描技术是近年来发展的一种高精度快速测量技术,其原理是精确控制发射角度,快速发射激光脉冲,采用脉冲测距法获得各点坐标,通过海量数据获得点云信息。可以非接触式地对建筑物开展沉降、水平位移、倾斜、裂缝和挠度监测,优点是分辨率高,信息量丰富,但是三维激光扫描设备昂贵,其测距精度容易受到温度、气压、风力影响,精度一般在若干毫米级别,存在一定的局限性,且数据处理量大,无法快速获得动态变化信息,不能全天候工作、不能动态测量、不能远距离测量。
合成孔径雷达在雷达波束扫描获取整个扫描区域的二维信息基础上,再驱动雷达天线沿一横向方向扫描、并反复获取同一区域的多幅图像信息,通过多幅图像的振幅与相位信息叠加,求取扫描区域的二维形变。合成孔径雷达虽然可以测量三维形变,变形测量精度高,且不受光照和气候条件限制,工作距离远,但是需要滑轨扫描成像,对雷达性能要求极高,成本高昂,且观测时间间隔大,完成一幅图像扫描需要数十分钟,难以跟踪瞬态形变。
双目摄像头三角测量原理可以测得物体三维形变,但目前技术尚不成熟,其标定复杂,径向精度差,且易受天气、光照影响。
可见,上述三维形变的测量方式存在测量精度差、测量效率低且测量成本高的问题。
发明内容
本申请实施例的目的在于提出一种三维形变测量方法,以解决相关技术中三维形变的测量方式存在测量精度差、测量效率低且测量成本高的问题。
为了解决上述技术问题,本申请实施例提供一种三维形变测量方法,包括如下步骤:
确定雷达和相机之间的融合采样周期和融合空间关系;
基于融合采样周期,获取被测目标的雷达数据和视觉图像;
对雷达数据进行第一形变处理,得到被测目标在雷达发射方向上的平面外形变信息;
对视觉图像进行第二形变处理,得到被测目标在相机拍摄视线垂直的平面方向上的平面内形变信息;
基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息。
为了解决上述技术问题,本申请实施例提供一种三维形变测量装置,三维形变测量装置包括:
参数确定模块,用于确定雷达和相机之间的融合采样周期和融合空间关系;
数据获取模块,用于基于融合采样周期,获取被测目标的雷达数据和视觉图像;
第一形变模块,用于对雷达数据进行第一形变处理,得到被测目标在雷达发射方向上的平面外形变信息;
第二形变模块,用于对视觉图像进行第二形变处理,得到被测目标在相机拍摄视线垂直的平面方向上的平面内形变信息;
信息融合模块,用于基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述三维形变测量方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述的三维形变测量方法的步骤。
与相关技术相比,本申请实施例主要有以下有益效果:
通过确定雷达和相机之间的融合采样周期和融合空间关系,基于融合采样周期,获取被测目标的雷达数据和视觉图像,对雷达数据进行第一形变处理,得到被测目标在雷达发射方向上的平面外形变信息,对视觉图像进行第二形变处理,得到被测目标在相机拍摄视线垂直的平面方向上的平面内形变信息,基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息,即通过融合雷达发射方向上的平面外形变信息和平面方向上的平面内形变信息,更加体现雷达数据与视觉图像相互修正与融合的价值,从而能够实现对被测目标的高精度形变测量,进而形成工程领域的非接触、高精度、高效率、经济性好、可广泛推广应用的三维形变测量技术。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的系统架构图;
图2是本申请实施例提供的三维形变测量方法的流程示意图;
图3是本申请实施例提供的多线程时间融合方法流程示意图;
图4是本申请实施例提供的雷达与相机融合周期示意图;
图5是本申请实施例提供的雷达目标距离及方位角转换至方位坐标示意图;
图6是本申请实施例提供的线性调频连续波雷达信号示意图;
图7是本申请实施例提供的雷达测量位移的基本原理示意图;
图8是本申请实施例提供的数字图像相关技术原理示意图;
图9是本申请实施例提供的面外Z向位移对面内X、Y向位移形变的修正示意图;
图10是本申请实施例提供的面内X、Y向位移对面外Z向位移形变的修正示意图;
图11是本申请提供的三维形变测量装置的一个实施例的结构示意图;
图12是本申请提供的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
由于当前三维测量技术均存在不足,无法在三维形变测量领域开展广泛的应用,而目前在二维或一维形变测量方面,具有高精度、便捷、非接触式的代表技术主要有微波雷达和视觉图像技术。
微波雷达其波束穿透能力强,且不受到天气、光照等条件的影响,具有良好的距离和速度估计精度,但也存在误报、方位角测量弱、无法对检测到的目标进行识别等缺点,而摄像头可以将拍摄的被测目标以帧图片或视频流的形式进行存储,并对被测目标进行分类和识别等,但摄像头受天气变化的影响较大,障碍物的范围也不容易测量。因此,就单传感器而言,其自身的局限性极大地限制了被测目标检测和跟踪精度,往往会导致被测目标的漏报和误报,以至于不能够准确且连续的对被测目标进行跟踪。
由雷达和图像的感知特性可知一维干涉雷达和单目图像监测手段具有较强的感知互补性和匹配度,雷达对目标的径向微动非常敏感,而由于其角度分辨率低的原因导致雷达对正交于径向的横向和竖向形变不敏感,图像监测手段对于面内的横向和竖向位移敏感,而对径向离面位移监测不占优势。
因此,结合雷达和图像的技术特点及优势与不足,提出一种将微波雷达和视觉图像融合起来的思路,通过融合雷达的径向位移和图像的二维位移,形成工程领域的非接触、高精度、高效率、经济性好、可广泛推广应用的三维形变测量技术。
如图1所示,图1是本申请实施例提供的系统架构图。该系统由雷达分系统、视觉分系统和显控分系统组成。其中,雷达分系统包括雷达射频组件和雷达信息处理板卡。雷达射频组件由雷达天线、发射机、接收机、低噪放大器、混频器和中频放大器等组成,雷达射频组件用于完成微波信号发射接收以及解调功能。雷达信息处理板卡主要用于完成微波信号调理、微波信号采集、信息处理,同时具备数据串行接口,实现数据分发。显控分系统对应上位机控制平台,用于实现雷达参数控制、信息交互以及位移显示。本申请所采用的测量设备仅需单个雷达、雷达信息处理板卡,以及单个相机镜头等组成,可配置电池、无线传输模块,设备体积小,轻巧易安装,经济便捷,可实现野外的长时间实时监测。
需要说明的是,本申请实施例所提供的三维形变测量方法一般由服务器/终端设备执行,相应地,三维形变测量装置一般设置于服务器/终端设备中,终端设备可以是包括雷达分系统、视觉分系统和显控分系统的设备。
在本申请实施例中,如图2所示,图2是本申请实施例提供的三维形变测量方法的流程示意图,三维形变测量方法的具体实现包括:
S201:确定雷达和相机之间的融合采样周期和融合空间关系。
其中,雷达可以是微波雷达传感器,相机可以是配置相机传感器的设备,融合采样周期为对雷达采集周期和相机采集周期的融合。具体地,根据雷达与相机不同的采样周期,设定融合采样周期,将雷达与相机各自的采样数据通过时间标定的插值法,得到融合采样周期的采样数据,以解决不同传感器(即雷达和相机之间)的时间同步问题。
具体地,融合空间关系表示不同传感器各自所属的坐标系之间的变换关系。例如,当相机无厂家数据,或厂家数据不可靠时,通过对相机进行标定,得到相机参数,从而得到世界坐标系与相机坐标系的关系,相机坐标系与图像坐标系的关系,以及图像坐标系与像素坐标系的关系。通过雷达与相机的位置关系,得到雷达坐标系与相机坐标系的变换关系。通过对上述坐标系之间的相互转换,即可实现雷达与相机的空间同步,即可在同一坐标系下进行雷达数据与视觉图像处理,得到多传感器对同一被测目标的不同信息。
具体地,由于微波雷达传感器与相机传感器具备不同的采样周期,如果不将两个传感器的时间线统一,会导致两个传感器采集的数据非同一时间下采集,易造成目标误检,因此,需在数据采集阶段对两类传感器在时间上进行配准融合。
在一些实施方式中,确定雷达和相机之间的融合采样周期和融合空间关系,包括:
从雷达中获取第一采集数据和从相机中获取第二采集数据;
将第一采集数据和第二采集数据各自所标定的时间戳进行对齐,得到融合采样周期;
基于雷达与相机的位置关系,确定融合空间关系。
具体地,本申请实施例是基于多线程技术完成雷达与相机采集数据的时间配准融。即分别初始化雷达数据采集线程和相机数据采集线程,并在雷达数据采集线程采集雷达数据(即第一采集数据),在相机数据采集线程采集图像数据(即第二采集数据),由于第一采集数据和第二采集数据均标定时间戳,因此可以对第一采集数据的时间戳和第二采集数据的时间戳进行对齐,得到雷达和相机的融合采样周期。如图3所示,图3是本申请实施例提供的多线程时间融合方法流程示意图,当前融合采样周期的实现过程包括:
步骤31:初始化雷达数据采集线程;
步骤32:初始化相机数据采集线程;
步骤33:在雷达数据采集线程采集雷达数据;
步骤34:在相机数据采集线程采集图像数据;
步骤35:将雷达数据和图像数据保存在数据池;
步骤36:标记雷达数据与图像数据时间戳;
步骤37:将雷达数据与图像数据进行时间配准;
步骤38:进入下一阶段采集。
在本申请实施例中,以采样周期较长的传感器采样周期作为融合采样周期。假如,雷达采样周期比相机采样周期短,则以相机采样周期作为融合采样周期,如4图所示,图4是本申请实施例提供的雷达与相机融合周期示意图。图4中雷达采样时间(即雷达采样周期)快于相机采样时间(即相机采样周期),即融合时间点以相机采样时间为主。
具体地,同一时刻下两种传感器的数据不需要配准,不同时刻下,两种传感器的数据需要配准,利用已知时刻的已测数据,计算推测未知时刻的数据。由于本申请实施例中雷达与相机的采样频率(即采集周期)均较高,采样周期以毫秒(ms)计量,被测目标在短暂的相邻采样时刻不会产生过大的位移形变,因此,采用插值法能满足精度要求,由于多数的荷载和位移为非线性关系,因此,本申请实施例中采用拉格朗日抛物线插值法对两个传感器进行时间配准融合。拉格朗日抛物线插值法采用如下插值公式所示:
其中,x(t)表示融合时间点t时刻的推测数据值,t时刻位于k时刻与k+1时刻之间;xk表示k时刻所测的数据值;xk-1表示k-1时刻的数据值,即k时刻的上一个时间点所测的数据值;xk+1表示k+1时刻的数据值,即k时刻的下一个时间点所测的数据值。
融合空间关系为关于微波雷达传感器与相机传感器的空间融合,由于微波雷达传感器与相机传感器采用的坐标系各不相同,两个传感器的设备空间位置也存在不同,当进行多个被测目标同时观测时,不同传感器测出的数据无法统一到同一个观测目标上,因此需要对不同传感器的坐标系进行统一,完成空间上的融合同步,才能对所测的数据进行后续的算法处理。
本申请实施例采用测量距离及方位角的微波雷达,相比同时具备测量距离、方位角和俯仰角的雷达,既节约成本,又能满足多目标三维形变测量的要求。
具体地,如图5所示,图5是本申请实施例提供的雷达目标距离及方位角转换至方位坐标示意图。微波雷达传感器以Or为原点并构建XrYrZr的雷达坐标系。微波雷达传感器探测到目标物的雷达目标距离为dr,目标相对方位角为θ,将雷达目标距离及目标相对方位角转换至雷达方位坐标,则目标物在雷达Xr方向的方位坐标为xr=drsinθ,多个目标物则可以根据各自不同的雷达目标距离和目标相对方位角得到多个雷达方位坐标。
进一步地,世界坐标系(xw,yw,zw)是一个三维直角坐标系,世界坐标系中被测目标与相机存在一定的空间位置关系,相机坐标系(xc,yc,zc)也是一个三维直角坐标系,原点位于镜头光心处,X、Y轴分别与相面的两边平行,Z轴为镜头光轴,与像平面垂直。
世界坐标系与相机坐标系的转换关系为:
其中,R、t为相机的外参,通过相机标定可得到,相机标定有标准的方法,如:张氏标定法。R为3×3的旋转矩阵,t为3×1的平移矢量,(xc,yc,zc,1)T为被测目标在相机坐标系的齐次坐标,(xw,yw,zw,1)T为被测目标在世界坐标系的齐次坐标。
雷达与相机设于同一个设备中,观测方向保持一致,雷达坐标方向与相机坐标方向保持一致,若默认坐标方向不一致,则设置旋转参数,旋转后保持一致,取观测被测目标的方向为Z方向,垂直观测方向的平面为X、Y方向。但由于雷达安装位置与相机安装位置存在偏差,通过测量,可以得到雷达与相机安装时的空间位置偏差向量Ta=[xa,ya,za],将被测目标所在在雷达坐标系的坐标(xr,yr,zr)转换至相机坐标系,转换后得到的目标坐标(xc’,yc’,zc’)为:
其中,被测目标在相机坐标系中的坐标为(xc,yc,zc),因此将目标坐标(xc’,yc’,zc’)与(xc,yc,zc)进行比对匹配,即可完成雷达目标与相机目标的匹配融合,从而确保了被测目标为同一个目标物。
前面提到,在本申请实施例中通过雷达只得到被测目标在Xr方向的方位坐标xr,只得到相机坐标系下xc’坐标,将坐标xc’与xc进行比对匹配,也能使目标物得到匹配,但当雷达测量同距离同xr坐标时的多目标时,将无法分辨,此时,需考虑移动雷达与目标物之间的距离和角度关系,尽量避免多目标在同一距离和同一xr坐标,仍无法避免时,需考虑增设设备使雷达具备俯仰角测量功能。
在本申请实施例中,将被测目标在相机坐标系中的坐标(xc,yc,zc)通过光学投影,在图像平面上的投影点坐标为(xp,yp),其转换公式为:
其中,f为相机的内参,在该公式中表示焦距,可以通过相机厂商数据可得到,无厂商数据时,通过相机标定可得到。(xc,yc,zc,1)T为被测目标在相机坐标系中的齐次坐标,(xp,yp,1)T为被测目标在图像坐标系中的齐次坐标。
像素坐标系的原点位于图像左上角,像素坐标系为离散值,单位是像素(pixel),图像坐标系的原点为相机光轴与成像平面的交点(称为主点),通常情况下是成像平面的中点,图像坐标系的单位是mm。被测目标的图像坐标(xp,yp)与像素坐标(u,v)的转换公式:
其中,dx、dy分别为相机感光器件中单个像素在X、Y轴方向上的物理尺寸,u0、v0为主点(图像原点)坐标,(xp,yp,1)T为目标点在图像坐标系中的齐次坐标,(u,v,1)T为目标点在像素坐标系中的齐次坐标。dx、dy、u0、v0为相机的内参,通过相机厂商数据可得到,无厂商数据时,通过相机标定可得到。
需要说明的是,坐标系转换过程中,还需考虑相机的畸变影响,畸变系数通过相机标定得到。
在一些实施方式中,在基于融合采样周期,获取被测目标的雷达数据和视觉图像之前,方法还包括:
若通过雷达接收到被测目标的反射回波,则获取被测目标的雷达数据;
若通过相机检测到被测目标存在纹理特征信息,则获取被测目标的视觉图像。
具体地,被测目标的位移形变时,被测目标存在纹理特征信息即可进行视觉图像测量,被测目标可反射回波即可进行微波雷达测量,若被测目标不存在纹理特征或无法反射回波时,通过设置反射回波靶标或图像特征靶标或两者合二为一的靶标,再进行雷达数据和视觉图像的获取。
S202:基于融合采样周期,获取被测目标的雷达数据和视觉图像。
其中,雷达数据包括被测目标的差频信号。被测目标可以是桥梁、建筑、基坑、边坡等结构物体。
在一些实施方式中,对雷达数据进行第一形变处理,得到被测目标在雷达发射方向上的平面外形变信息,包括:
对差频信号进行快速傅里叶变换得到目标差频;
基于目标差频和被测目标的距离关系,确定目标距离;
确定目标差频所在的目标相位;
基于目标距离和目标相位,得到平面外形变信息。
本申请所采用的雷达技术为基于线性调频连续波技术和相位干涉原理,由雷达分系统向被测目标发射频率随时间连续变化的微波信号,经被测目标反射,反射回波信号被接收天线接收,并与发射信号混频、滤波、采样后得到包含距离信息和变形信息的差频信号,通过对差频信号进行快速傅里叶变换后可得目标差频。依据目标差频和被测目标距离的关系可得到目标距离,通过目标差频定位到相位谱中的目标相位,多个扫频的目标相位进行干涉计算可得被测目标的平面外形变信息。
示例性的,如图6所示,图6为本申请实施例提供的线性调频连续波雷达信号示意图。其中,图中的T表示微波信号的循环重复发射时间周期;f0表示发射微波信号(即图中发射波)初始频率;fb表示差频信号的频率;τ表示回波信号传输延时;B表示在一个周期内发射微波信号的频率带宽。
进一步地,平面外形变信息可以为被测目标在雷达视线方向的形变量,其中,被测目标在雷达视线方向的形变量,λ表示发射雷达信号电磁波的波长;/>表示雷达接收的第一次发射信号的回波相位;/>表示为接收到的第二次发射信号的回波相位。如图7所示,图7是本申请实施例提供的雷达测量位移的基本原理示意图,分别展示了第一次发射信号的回波相位和第二次发射信号的回波相位的形变量。
S203:对雷达数据进行第一形变处理,得到被测目标在雷达发射方向上的平面外形变信息。
具体地,雷达分系统通过发射与接收微波信号,进行微波信号处理,得到被测目标的Z方向(即雷达向被测目标的发射方向或雷达对被测目标的径向)位移形变信息,将被测目标的Z方向位移形变信息作为面外形变信息。
S204:对视觉图像进行第二形变处理,得到被测目标在相机拍摄视线垂直的平面方向上的平面内形变信息。
具体地,相机测得被测目标的视频图像,进行图像数据处理,得到被测目标的X、Y方向(与相机拍摄视线垂直的平面方向)位移形变信息,作为平面内形变信息。
需要说明的是,本申请实施例不仅可测量桥梁、建筑等结构物的位移形变,还可测量基坑、边坡的位移形变,还可通过测得拉索的形变曲线,得到拉索的振动频谱,进而计算得到拉索的索力,对桥梁、建筑等结构中的拉索进行索力实时监测。
其中,视觉图像包括相邻帧的第一图像和第二图像,第一图像的获取时间早于第二图像的获取时间,在一些实施方式中,对视觉图像进行第二形变处理,得到被测目标在相机拍摄视线垂直的平面方向上的平面内形变信息,包括:
分别对第一图像和第二图像进行追踪,得到被测目标的第一图像区域和第二图像区域;
将第二图像区域在第一图像区域进行搜索,得到被测目标的图像中心变化信息;
将图像中心变化信息作为平面内形变信息。
在本申请实施例中,通过工业相机测得被测目标的视频图像,基于GPU(图形处理器)并行运算的数字图像处理技术,对视频图像中相邻的第一图像和第二图像中的被测目标进行追踪、匹配及位移解算,从而得到平面内形变信息。示例性的,匹配采用的是亚像素匹配算法,亚像素匹配算法包括但不仅限于IC-GN(反向组合高斯-牛顿)算法或FA-NR(正向累加牛顿拉夫森)算法。
具体地,如图8所示,图8是本申请实施例提供的数字图像相关技术原理示意图。第一图像和第二图像为被测目标表面变形前后的两幅数字图像,如图8中的参考图像为在变形前的第一图像,取以待求点(x,y)为图像中心的M×N矩形图像子区(即第一图像区域),如图8中的变形后图像为在变形后的第二图像,通过一定的搜索方法,并按某一相关函数来进行相关计算,寻找与选定的图像子区相关系数C(u,v)为最大值或最小值(取决于所选用的函数)的以(x′,y′)为中心的M×N矩形区域(即第二图像区域)以确定被测目标的整像素位移u,v,整像素位移u,v为图像中心变化信息。
本申请实施例中可以先采用整像素初值搜索算法、再采用亚像素匹配算法。其中,整像素初值搜索算法包括但不仅限于FTCC(基于傅里叶变换的互相关)算法或FNCC(快速归一化互相关)算法。由于FTCC算法能实现对被测目标存在较大平移、旋转情形下的初值搜索,且FTCC算法搜索范围小,搜索效率更高,因此整像素初值搜索算法优先采用FTCC算法;由于IC-GN算法避免了大部分冗余计算,运算效率更高、鲁棒性更好,因此亚像素匹配算法优先采用IC-GN算法。
S205:基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息。
具体地,将平面外形变信息和平面内形变信息进行融合实际为平面外形变信息和平面内形变信息相互反馈和修正,得到最终确定的X、Y、Z的三维位移形变信息,三维位移形变信息即为被测目标的三维形变信息。雷达将Z方向位移向视觉图像反馈,用以修正视觉图像所测的X、Y方向(面内方向)位移形变信息;视觉图像将X、Y向位移向雷达反馈,用以修正雷达所测的Z方向(面外方向)位移形变信息;通过计算收敛,得到被测目标最终确定的X、Y、Z三维位移形变信息。
通过确定雷达和相机之间的融合采样周期和融合空间关系,基于融合采样周期,获取被测目标的雷达数据和视觉图像,对雷达数据进行第一形变处理,得到被测目标在雷达发射方向上的平面外形变信息,对视觉图像进行第二形变处理,得到被测目标在相机拍摄视线垂直的平面方向上的平面内形变信息,基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息,即通过融合雷达发射方向上的平面外形变信息和平面方向上的平面内形变信息,更加体现雷达数据与视觉图像相互修正与融合的价值,从而能够实现对被测目标的高精度形变测量,进而形成工程领域的非接触、高精度、高效率、经济性好、可广泛推广应用的三维形变测量技术。
进一步地,微波雷达所测信息(即平面外形变信息)与视觉图像所测信息(即平面内形变信息)的相互修正,根据雷达所测Z向的位移,如t1~t2采样帧时刻所测的Δzc,修正图像所测X、Y向位移,如t1~t2采样帧时刻所测的Δxc、Δyc,又根据图像所测X、Y向位移,如t1~t2采样帧时刻所测的Δxc、Δyc,再修正雷达所测Z向的位移,如t1~t2采样帧时刻所测的Δzc,通过多次修正和最终收敛,得到被测目标相邻采样帧确定的X、Y、Z方向三维位移形变信息,如t1~t2采样帧的Δxc、Δyc、Δzc,通过多个采样帧的位移形变信息随时程的累加,从而得到被测目标在X、Y、Z方向的三维位移形变信息随时程动态变化的过程。
其中,平面外形变信息为被测目标的径向位移变化量,平面内形变信息为平面方向位移变化量,三维形变信息为被测目标在平面方向上的形变信息时,在一些实施方式中,基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息,包括:
基于预设的相机参数、径向位移变化量、被测目标到雷达的物距和被测目标在相机坐标系的第一坐标,确定第一修正参数;
基于第一修正参数对平面方向位移变化量进行融合,得到被测目标在平面方向上的形变信息。
关于微波雷达所测信息对视觉图像所测信息的修正,由于雷达得到的位移为面外Z向位移,发生面外位移后,相机外参发生变化,所测图像大小也将发生一定变化。如图9所示,图9是本申请实施例提供的面外Z向位移对面内X、Y向位移形变的修正示意图。假设物体移向成像镜头的离面位移为正,若物距为zc的被测目标出现了刚体离面位移Δzc,Δzc即为径向位移变化量,可见Y方向高度为yc的被测目标在图像平面中的高度由yp变成yp’,X方向也为同样缩放。因此,通过推导,对被测目标在相机坐标系的第一坐标(xc,yc,zc),刚体离面位移Δzc引起的面内X、Y方向位移Δxp、Δyp分别为:
由于f为已知相机参数,被测目标在图像平面中的图像坐标为(xp,yp),因此可以得到Δxp、Δyp值,将Δxp、Δyp值作为第一修正参数。
若相机所测的被测目标在X、Y方向产生的形变位移值(即平面方向位移变化量)为Δxc、Δyc,根据雷达得到的Z向位移Δzc,对Δxc、Δyc值进行修正,修正后的形变位移值Δxc’、Δyc’值分别为:
需要说明的是,本申请实施例中采用定焦普通镜头,成像质量稳定,非物方远心镜头,关于发生面外位移后的图像清晰度问题,由于本申请实施例测形变位移时一般距离目标物较远,具备较大的相机景深,而目标物的形变位移一般较小,因此发生面外位移后的图像不会出现模糊,若需近距离观测面外大位移图像会出现模糊时,则采用更大景深镜头,或物方远心镜头。此外,由于本申请实施例中被测目标的形变位移远小于测距,相机的参数在形变测量中变化很小,对测量精度影响可忽略,因此不考虑三维形变位移时的相机参数变化。
其中,平面外形变信息为被测目标到雷达的距离变化量。
在一些实施方式中,三维形变信息为被测目标在径向上的形变信息时,基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息,包括:
基于相机参数、被测目标在图像坐标系中的第二坐标和距离变化量,确定第二修正参数;
将第二修正参数作为被测目标在径向上的形变信息。
具体地,关于视觉图像所测信息对微波雷达所测信息的修正,由于视觉图像所得到的位移为面内X、Y方向产生的位移,发生面内位移后,被测目标的角度发生变化,被测目标的前后位置存在着空间位移关系,雷达所测的Z向位移并非实际的Z向位移,两者存在着空间投影分解关系,因此需要对雷达所测的Z向位移形变进行修正。本申请基于视觉成像原理,通过被测目标在成像平面的图像坐标,结合雷达所测距离值,反推被测目标的三维坐标,得到被测目标前后的三维坐标,从而得到被测目标在Z向的位移形变值,也就是第二修正参数。如图10所示,图10是本申请实施例提供的面内X、Y向位移对面外Z向位移形变的修正示意图。若被测目标P(xc,yc,zc)经过相机镜头后在对称的成像平面为第二坐标Pp(xp,yp),对称成像平面坐标系如图10所示,对称成像平面坐标原点Op与光心Oc的距离为f(一般情况下等于焦距),P到光心Oc的距离为d。根据几何关系可得:
解方程组得:
其中,f为已知相机参数,d通过雷达所测距离再考虑雷达安装位置与相机安装位置偏差后可得到,xp,yp通过目标物的图片像素坐标经转换为成像平面图像坐标可得到,因此通过上式,可得到目标点P(xc,yc,zc)的坐标值,以及目标点发生位移后的点位P’(xc’,yc’,zc’)的坐标值,从而可得到被测目标发生的Z方向的位移。
但由于雷达测位移相比测距离而言,精度更高,因此,当雷达测距精度不高时,采用两次所测的距离差,来进行Z方向的位移修正,能满足精度要求。
zc的计算式中,f为固定参数,设当前采样帧t1时刻所测的距离d1,所测的图像坐标(xp1,yp1),所得的zc1坐标值为:
下一采样帧t2时刻所测的距离d2,所测的图像坐标(xp2,yp2),但由于雷达和相机采样频率较高,每秒可采样几十帧,因此t2时刻的图像坐标仍采用xp1,yp1值,对计算精度影响不大,则zc2坐标值为:
因此雷达在Z方向所测的位移Δd(即被测目标到雷达的距离变化量),经修正后得到位移Δzc(第二修正参数)为:
式中:为t1采样帧时刻所得到的常数值;
其中,Δd=d1-d2,为雷达t1~t2采样帧时刻所测的位移。
与相关技术相比,本申请实施例中,通过雷达技术与视觉图像技术优势互补,实现对被测目标在X、Y、Z方向的三维位移形变信息测量,并实时动态监测被测目标在X、Y、Z三个维度的位移形变动态变化过程。可实现对被测目标的远距离、高精度的位移测量,常规测量时距离100m精度达到0.1mm,可根据需要配置远距离观测镜头进行更远距离测量。可实现对被测目标的大位移、大变形测量,大位移、大变形测量时,被测目标的角度及距离都有较大变化,更加体现雷达与视觉图像信息相互修正与融合的价值,从而能够实现对所测目标物的高精度位移形变测量。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图11,作为对上述图2所示方法的实现,本申请提供了一种三维形变测量装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图11所示,为本申请提供的三维形变测量装置的一个实施例的结构示意图,所述三维形变测量装置还包括:参数确定模块111、数据获取模块112、第一形变模块113、第二形变模块114以及信息融合模块115。其中,
参数确定模块111,用于确定雷达和相机之间的融合采样周期和融合空间关系;
数据获取模块112,用于基于融合采样周期,获取被测目标的雷达数据和视觉图像;
第一形变模块113,用于对雷达数据进行第一形变处理,得到被测目标在雷达发射方向上的平面外形变信息;
第二形变模块114,用于对视觉图像进行第二形变处理,得到被测目标在相机拍摄视线垂直的平面方向上的平面内形变信息;
信息融合模块115,用于基于融合空间关系,将平面外形变信息和平面内形变信息进行融合,得到被测目标的三维形变信息。
在一些实施方式中,参数确定模块111用于:
从雷达中获取第一采集数据和从相机中获取第二采集数据;
将第一采集数据和第二采集数据各自所标定的时间戳进行对齐,得到融合采样周期;
基于雷达与相机的位置关系,确定融合空间关系。
在一些实施方式中,雷达数据包括被测目标的差频信号,第一形变模块113用于:
对差频信号进行快速傅里叶变换得到目标差频;
基于目标差频和被测目标的距离关系,确定目标距离;
确定目标差频所在的目标相位;
基于目标距离和目标相位,得到平面外形变信息。
在一些实施方式中,视觉图像包括相邻帧的第一图像和第二图像,第一图像的获取时间早于第二图像的获取时间,第二形变模块114用于:
分别对第一图像和第二图像进行追踪,得到被测目标的第一图像区域和第二图像区域;
将第二图像区域在第一图像区域进行搜索,得到被测目标的图像中心变化信息;
将图像中心变化信息作为平面内形变信息。
在一些实施方式中,平面外形变信息为被测目标的径向位移变化量,平面内形变信息为平面方向位移变化量,三维形变信息为被测目标在平面方向上的形变信息时,信息融合模块115用于:
基于预设的相机参数、径向位移变化量、被测目标到雷达的物距和被测目标在相机坐标系的第一坐标,确定第一修正参数;
基于第一修正参数对平面方向位移变化量进行融合,得到被测目标在平面方向上的形变信息。
在一些实施方式中,平面外形变信息为被测目标到雷达的距离变化量,三维形变信息为被测目标在径向上的形变信息时,信息融合模块115用于:
基于相机参数、被测目标在图像坐标系中的第二坐标和距离变化量,确定第二修正参数;
将第二修正参数作为被测目标在径向上的形变信息。
在一些实施方式中,上述三维形变测量装置还用于:
若通过雷达接收到被测目标的反射回波,则获取被测目标的雷达数据;
若通过相机检测到被测目标存在纹理特征信息,则获取被测目标的视觉图像。
关于上述实施例中三维形变测量装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图12,图12为本实施例计算机设备基本结构框图。
所述计算机设备12包括通过系统总线相互通信连接存储器121、处理器122、网络接口123。需要指出的是,图中仅示出了具有组件121-123的计算机设备12,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器121至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或D三维形变测量存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器121可以是所述计算机设备12的内部存储单元,例如该计算机设备12的硬盘或内存。在另一些实施例中,所述存储器121也可以是所述计算机设备12的外部存储设备,例如该计算机设备12上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器121还可以既包括所述计算机设备12的内部存储单元也包括其外部存储设备。本实施例中,所述存储器121通常用于存储安装于所述计算机设备12的操作系统和各类应用软件,例如三维形变测量方法的程序代码等。此外,所述存储器121还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器122在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器122通常用于控制所述计算机设备12的总体操作。本实施例中,所述处理器122用于运行所述存储器121中存储的程序代码或者处理数据,例如运行所述三维形变测量方法的程序代码。
所述网络接口123可包括无线网络接口或有线网络接口,该网络接口123通常用于在所述计算机设备12与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有三维形变测量程序,所述三维形变测量程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的三维形变测量方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种三维形变测量方法,其特征在于,所述方法包括:
确定雷达和相机之间的融合采样周期和融合空间关系;
基于所述融合采样周期,获取被测目标的雷达数据和视觉图像;
对所述雷达数据进行第一形变处理,得到所述被测目标在所述雷达发射方向上的平面外形变信息;
对所述视觉图像进行第二形变处理,得到所述被测目标在所述相机拍摄视线垂直的平面方向上的平面内形变信息;
基于所述融合空间关系,将所述平面外形变信息和所述平面内形变信息进行融合,得到所述被测目标的三维形变信息。
2.根据权利要求1所述的三维形变测量方法,其特征在于,所述确定雷达和相机之间的融合采样周期和融合空间关系,包括:
从所述雷达中获取第一采集数据和从所述相机中获取第二采集数据;
将所述第一采集数据和所述第二采集数据各自所标定的时间戳进行对齐,得到所述融合采样周期;
基于所述雷达与所述相机的位置关系,确定所述融合空间关系。
3.根据权利要求1所述的三维形变测量方法,其特征在于,所述雷达数据包括所述被测目标的差频信号,所述对所述雷达数据进行第一形变处理,得到所述被测目标在所述雷达发射方向上的平面外形变信息,包括:
对所述差频信号进行快速傅里叶变换得到目标差频;
基于目标差频和所述被测目标的距离关系,确定目标距离;
确定所述目标差频所在的目标相位;
基于所述目标距离和所述目标相位,得到所述平面外形变信息。
4.根据权利要求1所述的三维形变测量方法,其特征在于,所述视觉图像包括相邻帧的第一图像和第二图像,所述第一图像的获取时间早于所述第二图像的获取时间,所述对所述视觉图像进行第二形变处理,得到所述被测目标在所述相机拍摄视线垂直的平面方向上的平面内形变信息,包括:
分别对所述第一图像和所述第二图像进行追踪,得到所述被测目标的第一图像区域和第二图像区域;
将所述第二图像区域在所述第一图像区域进行搜索,得到所述被测目标的图像中心变化信息;
将所述图像中心变化信息作为平面内形变信息。
5.根据权利要求1所述的三维形变测量方法,其特征在于,所述平面外形变信息为所述被测目标的径向位移变化量,所述平面内形变信息为平面方向位移变化量,所述三维形变信息为所述被测目标在平面方向上的形变信息时,所述基于所述融合空间关系,将所述平面外形变信息和所述平面内形变信息进行融合,得到所述被测目标的三维形变信息,包括:
基于预设的相机参数、所述径向位移变化量、所述被测目标到所述雷达的物距和所述被测目标在相机坐标系的第一坐标,确定第一修正参数;
基于所述第一修正参数对所述平面方向位移变化量进行融合,得到所述被测目标在平面方向上的形变信息。
6.根据权利要求5所述的三维形变测量方法,其特征在于,所述平面外形变信息为所述被测目标到所述雷达的距离变化量,所述三维形变信息为所述被测目标在径向上的形变信息时,所述基于所述融合空间关系,将所述平面外形变信息和所述平面内形变信息进行融合,得到所述被测目标的三维形变信息,包括:
基于所述相机参数、所述被测目标在图像坐标系中的第二坐标和所述距离变化量,确定第二修正参数;
将所述第二修正参数作为所述被测目标在径向上的形变信息。
7.根据权利要求1-6所述的三维形变测量方法,其特征在于,在所述基于所述融合采样周期,获取被测目标的雷达数据和视觉图像之前,所述方法还包括:
若通过所述雷达接收到所述被测目标的反射回波,则获取被测目标的雷达数据;
若通过所述相机检测到所述被测目标存在纹理特征信息,则获取被测目标的视觉图像。
8.一种三维形变测量装置,其特征在于,所述三维形变测量装置包括:
参数确定模块,用于确定雷达和相机之间的融合采样周期和融合空间关系;
数据获取模块,用于基于所述融合采样周期,获取被测目标的雷达数据和视觉图像;
第一形变模块,用于对所述雷达数据进行第一形变处理,得到所述被测目标在所述雷达发射方向上的平面外形变信息;
第二形变模块,用于对所述视觉图像进行第二形变处理,得到所述被测目标在所述相机拍摄视线垂直的平面方向上的平面内形变信息;
信息融合模块,用于基于所述融合空间关系,将所述平面外形变信息和所述平面内形变信息进行融合,得到所述被测目标的三维形变信息。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的三维形变测量方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的三维形变测量方法的步骤。
CN202310879828.8A 2023-07-17 2023-07-17 三维形变测量方法、装置、计算机设备及介质 Pending CN117075099A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310879828.8A CN117075099A (zh) 2023-07-17 2023-07-17 三维形变测量方法、装置、计算机设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310879828.8A CN117075099A (zh) 2023-07-17 2023-07-17 三维形变测量方法、装置、计算机设备及介质

Publications (1)

Publication Number Publication Date
CN117075099A true CN117075099A (zh) 2023-11-17

Family

ID=88701369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310879828.8A Pending CN117075099A (zh) 2023-07-17 2023-07-17 三维形变测量方法、装置、计算机设备及介质

Country Status (1)

Country Link
CN (1) CN117075099A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117968621A (zh) * 2024-03-21 2024-05-03 中铁八局集团昆明铁路建设有限公司 围岩变形监测方法、装置、电子设备及可读存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117968621A (zh) * 2024-03-21 2024-05-03 中铁八局集团昆明铁路建设有限公司 围岩变形监测方法、装置、电子设备及可读存储介质

Similar Documents

Publication Publication Date Title
JP7339934B2 (ja) 障害物検出方法、装置、電子機器、記憶媒体及びコンピュータプログラム
US20220214424A1 (en) Sensor Calibration Method and Apparatus
CN105225241A (zh) 无人机深度图像的获取方法及无人机
US9316486B2 (en) Method and apparatus for determining and storing the position and orientation of antenna structures
CN102798350B (zh) 一种臂架挠度的测量方法、装置及系统
Nienaber et al. A comparison of low-cost monocular vision techniques for pothole distance estimation
CN113655453B (zh) 用于传感器标定的数据处理方法、装置及自动驾驶车辆
CN108596117B (zh) 一种基于二维激光测距仪阵列的场景监控方法
CN109828250B (zh) 一种雷达标定方法、标定装置及终端设备
CN111913169B (zh) 激光雷达内参、点云数据的修正方法、设备及存储介质
CN112419405B (zh) 一种目标跟踪联合显示方法、安防系统及电子设备
US11867795B2 (en) System and method for constructing fused tracks from radar detections
Lee et al. Extrinsic and temporal calibration of automotive radar and 3D LiDAR
CN117075099A (zh) 三维形变测量方法、装置、计算机设备及介质
CN111780716A (zh) 一种基于目标像素面积和宽高比的单目实时测距方法
KR101674298B1 (ko) 카메라 렌즈 초점거리 정보를 이용한 거리계산 방법
CN106569206A (zh) 一种基于微波光学复合的目标探测方法
CN113296120B (zh) 一种障碍物检测方法及终端
Tanaka Ultra-high-accuracy visual marker for indoor precise positioning
US7123749B2 (en) Height measurement apparatus
CN105403886A (zh) 一种机载sar定标器图像位置自动提取方法
CN114754695B (zh) 多视场桥梁挠度测量装置、方法及存储介质
Pishehvari et al. Robust range-doppler registration with hd maps
RU2406071C1 (ru) Способ навигации движущихся объектов
CN116125488A (zh) 目标追踪方法、信号融合方法、装置、终端和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination