CN113362379B - 一种基于虚拟超声图像的运动目标轨迹追踪检测方法 - Google Patents

一种基于虚拟超声图像的运动目标轨迹追踪检测方法 Download PDF

Info

Publication number
CN113362379B
CN113362379B CN202110777487.4A CN202110777487A CN113362379B CN 113362379 B CN113362379 B CN 113362379B CN 202110777487 A CN202110777487 A CN 202110777487A CN 113362379 B CN113362379 B CN 113362379B
Authority
CN
China
Prior art keywords
label
moving
virtual
moving target
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110777487.4A
Other languages
English (en)
Other versions
CN113362379A (zh
Inventor
黄少伟
韩国鑫
李坚
白伟华
许译丹
宋佳愔
骆恺翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhaoqing University
Original Assignee
Zhaoqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhaoqing University filed Critical Zhaoqing University
Priority to CN202110777487.4A priority Critical patent/CN113362379B/zh
Publication of CN113362379A publication Critical patent/CN113362379A/zh
Application granted granted Critical
Publication of CN113362379B publication Critical patent/CN113362379B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于虚拟超声图像的运动目标轨迹追踪检测方法,包括如下步骤:S1:测量超声信号,构建虚拟超声图像;S2:虚拟超声图像预处理;S3:实时测量运动目标位置;S4:移动目标位置的估算;S5:判定移动机器人的控制参数,追踪移动目标。本发明避免了背景与环境因素对追踪检测过程产生的影响,提高了检测精度。相比于利用机器视觉等方法能够节约硬件成本;同时,该方法相比于其他观测模型或者方法降低了算法结构的复杂性,能够提高计算效率,进一步降低了对于硬件处理器的算力要求。

Description

一种基于虚拟超声图像的运动目标轨迹追踪检测方法
技术领域
本发明涉及超声图像技术领域,特别涉及一种基于虚拟超声图像的运动目标轨迹追踪检测方法。
背景技术
随着物联网和信息技术的快速发展,动态目标行动轨迹的精确检测与追踪已经成为实时监测目标状态的关键技术手段。对于畜牧行业,大型动物的精细化养殖要求也不断提高,非接触式的运动目标检测对于运动目标的精细养殖和健康生长具有重要意义。目前,以人工的方式针对固定场景或场地内运动目标轨迹的监测不仅浪费人工成本、且效率低下,利用计算机技术与物联网技术进行交叉,提出一种基于虚拟超声图像的非接触式运动目标轨迹追踪自动检测方法,能够解决传统方法下运动目标检测人工成本高,检测精度差的问题。
现有运动轨迹检测及物体追踪方案中,主要采用基于视频图像处理技术的运动轨迹及其实时跟踪方法。通常首先对视频序列图像进行预处理,包括图像灰度化、图像滤波以及图像增强等;然后利用改进的背景差分法进行运动目标识别与检测;最后进行运动目标特征匹配,实现目标运动轨迹实时跟踪。
典型现有技术方案举例:
·目标追踪系统
申请(专利)号:CN201610877910.7
基于当前视频图像帧中包含目标的局部图以及所述局部图在所述当前视频图像帧中的坐标,预测下一视频图像帧中包含所述目标的局部图的坐标。其中,所述目标追踪模块的至少一部分是通过逻辑硬件实现的。该目标追踪系统还可以包括用于定位局部图的目标检测模块,以及用于从局部图中提取图像特征的特征提取模块。
·一种基于深度神经网络的多目标追踪算法
申请(专利)号:CN202110325552.X
本发明公开了一种基于深度神经网络的多目标追踪算法,首先设计一个基于孪生网络实现的单目标追踪器,通过该网络对已确定的目标在此帧图像中进行相似性度量,得到上一帧图像上的各个目标在此帧上的位置预测;接着利用深度卷积神经网络在此帧图像上进行目标检测;最后,将得到的追踪预测图像和检测得到的行人图像进行关联匹配,可以利用余弦相似度和面积重叠的方式,来提高追踪的准确率。
·一种从视频中自动追踪目标物体的方法
申请(专利)号:CN201810069464.6
本发明公开了一种从视频中自动追踪目标物体的方法,包括初始化;选取目标物体的运动集合作为目标物体的运动状态s-t;采用系统模型计算时刻t-1的目标物体的运动状态为s-(t-1)的条件下t时刻的目标物体的运动状态为s-t的先验条件概率p(s-t|s-(t-1)),采用观测模型计算目标物体的运动状态为s-t的条件下观测值为z-t的后验条件概率p(z-t|s-t),观测值z-t为时刻t的视觉信息;根据迭代关系式计算得到p(s-t|z-(1:t)),其中p(z-t|z-(1:t-1))是常数,z-(1:t)为时刻1到时刻t的观测值;根据计算得到当前时刻t的目标物体的位置为依次进行迭代。
现有技术存在如下缺陷:
(1)目前运动轨迹检测仍以图像追踪为主流解决方案,但该技术具有成本高、设备发热量较大、对处理器的算力和使用环境要求较高的缺点。
(2)现有基于机器视觉的轨迹检测及物体追踪算法较难将环境因素从采集图像中剥离,如在采用玻璃幕墙的建筑中进行目标识别,极易将玻璃幕墙外的物体添加到追踪列表,导致识别数据错误。
(3)现有基于机器视觉的轨迹检测及物体追踪算法采样时以透视视角为主,且受限于视觉传感器的视野范围,难以构建物体在环境中的精确位置。
发明内容
本发明的目的在于提供一种基于虚拟超声图像的运动目标轨迹追踪检测方法,可以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于虚拟超声图像的运动目标轨迹追踪检测方法,包括如下步骤:
S1:测量超声信号,构建虚拟超声图像;
S2:虚拟超声图像预处理;
S3:实时测量运动目标位置;
S4:移动目标位置的估算;
S5:判定移动机器人的控制参数,追踪移动目标。
进一步地,S1中一次测量的超声信号持续时间为τ,返回信号被采样n次。这样,在一个测量周期内形成一维阵列,沿时间轴累计一定数量的阵列得到虚拟超声图像。
进一步地,在测量周期τ期间接收到的超声波信号被采样n次,由s(k)表示,二进制数据序列表示对象的存在为1,不存在为0。因此,从d(k)到由s(k)表示的对象的距离可以用下式(1)计算,其中c是空气中超声波信号的速度:
Figure BDA0003156226920000031
进一步地,S2虚拟超声图像预处理包括以下步骤:
步骤1:初始化坐标数组label[i,j]和标签集t[k],每个坐标数组具有与虚拟超声波图像相同的大小;
label[i,j]=0(i=1,...,m,j=1,...,n),t[k]=k(k=0,...,p-1),i=j=1,k=0.其中,p是虚拟超声波图像中可能具有目标物体的最大数量。
步骤2:从给定行的最左像素开始,如下方式决定其坐标:
如果上像素和左像素均为0,则让k=k+1,label[i,j]=t[k];
如果上像素或左像素为1,当上像素为1,则label[i,j]=label[i-1,j],当左像素为1,则label[i,j]=label[i,j-1];
如果上像素和左像素都为1,当label[i-1,j]=label[i,j-1],则label[i,j]=label[i,j-1],当label[i-1,j]≠label[i,j-1],则label[i,j]=label[i,j-1]且t[label[i,j-1]]=label[i-1,j]
最后对所有像素重复以上操作;
步骤3:使用坐标数组重新标记标签集,如果第一次传递的结果是t[k]=j,t[j]=i,t[i]=i,那么t[k]和t[j]的值被交换,t[i]的值保持为初始值,将标签集改为t[k]=t[j]=t[i]=i,结果显示第i,j和第k个像素位于同一区域;
步骤4:使用坐标数组label[i,j]=t[label[i,j]]来重新定位标签集。
进一步地,S3的步骤包括:将运动目标设定为一个圆柱形物体,设圆柱体半径为R,两个超声波传感器之间的距离是2D,两个传感器的测量值分别为d1和d2,圆柱体的中心位置是(x,y),则使用三角测量法提取出以下关系:
Figure BDA0003156226920000041
Figure BDA0003156226920000042
Figure BDA0003156226920000043
进一步地,S4中当移动目标无法保持在机器人的探测范围内时,应根据移动机器人和移动目标的轨迹来估计移动机器人的下一个测量姿态。
进一步地,S5中追踪移动目标需要机器人与移动目标的相对距离保持在传感器感知范围内,超声波传感器的测量距离一般用弧度和测量距离来表示。
与现有技术相比,本发明的有益效果是:
1、利用该算法构造虚拟超声图像,能够将运动目标与现实的物理世界剥离,并实现运动目标轨迹的追踪与检测,避免了背景与环境因素对追踪检测过程产生的影响,提高了检测精度。
2、该算法在硬件上主要利用超声波传感器和处理器,相比于利用机器视觉等方法能够节约硬件成本;同时,该方法相比于其他观测模型或者方法降低了算法结构的复杂性,能够提高计算效率,进一步降低了对于硬件处理器的算力要求。
附图说明
图1为本发明运动目标轨迹追踪检测算法流程图;
图2为本发明虚拟超声波图像;
图3为本发明三角法测量运动目标位置原理图;
图4为本发明双弧法估算机器人探测范围内移动目标可能的移动范围示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1,一种基于虚拟超声图像的运动目标轨迹追踪检测方法,包括如下步骤:
步骤1:测量超声信号,构建虚拟超声图像
该算法利用虚拟超声图像计算目标物体的位置和速度,该虚拟超声图像由目标物体返回的信号沿时间轴累计构造而成。一次测量的超声信号持续时间为τ,返回信号被采样n次。这样,在一个测量周期内形成一维阵列,沿时间轴累计一定数量的阵列得到虚拟超声图像。然后每个物体在图像中都有一个轨迹,轨迹的斜率提供了关于物体速度的信息。
在测量周期τ期间接收到的超声波信号被采样n次,由s(k)表示,二进制数据序列表示对象的存在为1,不存在为0。因此,从d(k)到由s(k)表示的对象的距离可以用等式计算(1),其中c是空气中超声波信号的速度。
Figure BDA0003156226920000061
在构建虚拟超声图像时,当机器人以不同的速度在不同的方向上移动时进行新的测量,虚拟超声波图像中的像素位置就会参照移动机器人当前的坐标重新排列。以这种方式构建的虚拟超声波图像包含了关于目标物体的位置和速度的信息,其图示如图2所示,该图像使用n×m的FIFO存储器构造,并在每轮测量后进行更新。将每个代表位置的像素点称为一个信息元,位置信息由信息元在行中的位置获取,速度信息由计算一条直线的斜率估计,由相邻的信息元连接形成的目标轨迹。轨迹αj的斜率由式(2)计算。
Figure BDA0003156226920000062
其中,△m和△n分别是测量轴和采样轴中轨迹的起点和结束点之间的距离,用信息元的数量表示。由于采样轴中的一个像素对应于(1/2cτ/n)m,而测量轴中的一个信息元对应现实世界中的τ秒,利用式(3)可以将虚拟超声波图像中目标物体的移动速度转换为现实世界中运动目标的实际移动速度。
Figure BDA0003156226920000063
移动机器人的速度vm、图像中目标物体的移动速度vo以及运动目标实际移动速度v之间的关系可以利用公式(4)表示:
vo=v+vm (4)
步骤2:虚拟超声图像预处理
由于从物体返回的超声波信号通常包括噪声,因此虚拟超声波图像不适合直接计算轨迹的斜率,为了提取适合于应用该算法的图像,设计了虚拟超声图像的预处理算法。虚拟超声图像预处理算法采用双通算法对区域进行分割,从而实现目标的分离,算法考虑由上和左信息元为起始对每个像素进行标记。
(1)初始化坐标数组label[i,j]和标签集t[k]。每个坐标数组具有与虚拟超声波图像相同的大小。
label[i,j]=0(i=1,...,m,j=1,...,n),t[k]=k(k=0,...,p-1),i=j=1,k=0.其中,p是虚拟超声波图像中可能具有目标物体的最大数量。
(2)从给定行的最左像素开始,如下方式决定其坐标:
如果上像素和左像素均为0,则让k=k+1,label[i,j]=t[k];
如果上像素或左像素为1,当上像素为1,则label[i,j]=label[i-1,j],当左像素为1,则label[i,j]=label[i,j-1];
如果上像素和左像素都为1,当label[i-1,j]=label[i,j-1],则label[i,j]=label[i,j-1],当label[i-1,j]≠label[i,j-1],则label[i,j]=label[i,j-1]且t[label[i,j-1]]=label[i-1,j]
最后对所有像素重复以上操作。
(3)使用坐标数组重新标记标签集。例如,如果第一次传递的结果是t[k]=j,t[j]=i,t[i]=i,那么t[k]和t[j]的值被交换,t[i]的值保持为初始值。现在,将标签集改为t[k]=t[j]=t[i]=i,结果显示第i,j和第k个像素位于同一区域。
(4)使用坐标数组label[i,j]=t[label[i,j]]来重新定位标签集。
步骤3:实时测量运动目标位置
将运动目标设定为一个圆柱形物体,设圆柱体半径为R,两个超声波传感器之间的距离是2D,两个传感器的测量值分别为d1和d2,圆柱体的中心位置是(x,y),则使用三角测量法(公式7)从图3中提取出以下关系:
Figure BDA0003156226920000071
Figure BDA0003156226920000072
Figure BDA0003156226920000081
运动目标体相对于传感器系统的位置(x,y)和方向θ,其原点为两个传感器的中心,通过测距方程(5)和(6)计算得出x、y。
Figure BDA0003156226920000082
Figure BDA0003156226920000083
当无法确定圆柱体半径时,由于d1、d2通常远大于R,所以上述方程可用以下方程来近似:
Figure BDA0003156226920000084
Figure BDA0003156226920000085
用(xa,ya)逼近(x,y)时,近似误差满足以下关系:
Figure BDA0003156226920000086
步骤4:移动目标位置的估算
当移动目标无法保持在机器人的探测范围内时,应根据移动机器人和移动目标的轨迹来估计移动机器人的下一个测量姿态。如图4所示,当已知移动目标的最大速度
Figure BDA0003156226920000087
最大转动角
Figure BDA0003156226920000088
和当前方向
Figure BDA0003156226920000089
在下一测量时间内移动目标的可能移动区域Tk+1可以被估算并表示为角度为
Figure BDA00031562269200000810
(同前表示)、半径为
Figure BDA00031562269200000811
的弧。如果机器人在测量后发生运动,那么在下一次测量时机器人的最佳姿态是让机器人的运动轴与移动目标重合。图4显示了机器人和移动目标在测量k和k+1时的姿态,图4中交集部分M表示移动目标可能的移动区域,交集部分P表示移动机器人的探测范围。
如果移动目标暂时从移动机器人的探测范围内丢失,则从虚拟超声图像中给出的移动目标的轨迹来估算运动目标体的可能位置,即可利用公式(13)通过计算所有先前位置向量的位移△dk来估算移动目标下一个位置d*,其中d1为最后一次测量的距离,n为处理器FIFO缓冲区的大小。
Figure BDA0003156226920000091
当前测量距离dm可以通过估算距离d*进行补偿。如果dm和d*之间的差大于经验确定的某个阈值ε,则由于移动目标超出了移动机器人的探测范围,则将估算的距离向量用作移动对象的下一个位置。
Figure BDA0003156226920000092
步骤5:判定移动机器人的控制参数,追踪移动目标
追踪移动目标需要机器人与移动目标的相对距离保持在传感器感知范围内,超声波传感器的测量距离一般用弧度和测量距离来表示。因此,需确定移动机器人的运动参数,使移动目标的运动方向与圆弧中心重合,同时保持运动目标体在测量的距离内。设Ω(k)和θ(k)分别表示弧的轴线角和机器人进行第k次测量时移动目标的方向,然后根据式(15)调整下次测量开弧轴角Ω(k+1)。
Ω(k+1)=Ω(k)+(90-θ(k)) (15)
基于传感器的坐标系利用公式(10)(11)计算移动目标的位置(x,y),参照机器人坐标系围绕Ω(k)旋转,将其转换为坐标(x’,y’)。
Figure BDA0003156226920000093
通过公式(17)和(18)计算出机器人的移动距离d和转角α:
Figure BDA0003156226920000094
Figure BDA0003156226920000101
然后利用公式(19)计算机器人的移动速度Vm:
Figure BDA0003156226920000102
d'=min(d,dmax) (20)
在公式(19)中,vmax是移动机器人的最大速度,dmax是机器人与移动目标之间可保持的最大距离。
超声波传感技术能够发射振动频率高于20kHz的机械波至目标物体并产生显著反射形成反射回波以实现各类物体不同状态检测,是一种能够针对运动目标体进行无损探测的技术,其方向性好、能够成为射线而定向传播,具有频率高、波长短、绕射现象小的优点。本发明通过对被测物体返回的超声信号进行一定次数测量周期的累积,构造出虚拟超声图像。追踪测量过程由携有超声波传感器等检测设备的移动机器人完成,由于图像是在移动机器人运动时形成的,背景物体的位置轨迹斜率与机器人的速度成正比,因此可以将运动目标体与背景物体分离。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (3)

1.一种基于虚拟超声图像的运动目标轨迹追踪检测方法,其特征在于,包括如下步骤:
S1:测量超声信号,构建虚拟超声图像;
S2:虚拟超声图像预处理;
S3:实时测量运动目标位置;
S4:移动目标位置的估算;
S5:判定移动机器人的控制参数,追踪移动目标;
其中S1中一次测量的超声信号持续时间为τ,返回信号被采样n次,这样,在一个测量周期内形成一维阵列,沿时间轴累计一定数量的阵列得到虚拟超声图像;
在测量周期τ期间接收到的超声波信号被采样n次,由s(k)表示,二进制数据序列表示对象的存在为1,不存在为0,从d(k)到由s(k)表示的对象的距离可以用下式(1)计算,其中c是空气中超声波信号的速度:
Figure QLYQS_1
其中S2虚拟超声图像预处理包括以下步骤:
步骤1:初始化坐标数组label[i,j]和标签集t[k],每个坐标数组具有与虚拟超声波图像相同的大小;
label[i,j]=0(i=1,...,m,j=1,...,n),t[k]=k(k=0,...,p-1),i=j=1,k=0.其中,p是虚拟超声波图像中可能具有目标物体的最大数量;
步骤2:从给定行的最左像素开始,如下方式决定其坐标:
如果上像素和左像素均为0,则让k=k+1,label[i,j]=t[k];
如果上像素或左像素为1,当上像素为1,则label[i,j]=label[i-1,j],当左像素为1,则label[i,j]=label[i,j-1];
如果上像素和左像素都为1,当label[i-1,j]=label[i,j-1],则label[i,j]=label[i,j-1],当label[i-1,j]≠label[i,j-1],则label[i,j]=label[i,j-1]且t[label[i,j-1]]=label[i-1,j]
最后对所有像素重复以上操作;
步骤3:使用坐标数组重新标记标签集,如果第一次传递的结果是t[k]=j,t[j]=i,t[i]=i,那么t[k]和t[j]的值被交换,t[i]的值保持为初始值,将标签集改为t[k]=t[j]=t[i]=i,结果显示第i,j和第k个像素位于同一区域;
步骤4:使用坐标数组label[i,j]=t[label[i,j]]来重新定位标签集;
其中S3的步骤包括:将运动目标设定为一个圆柱形物体,设圆柱体半径为R,两个超声波传感器之间的距离是2D,两个传感器的测量值分别为d1和d2,圆柱体的中心位置是(x,y),则使用三角测量法提取出以下关系:
Figure QLYQS_2
Figure QLYQS_3
Figure QLYQS_4
2.如权利要求1所述的基于虚拟超声图像的运动目标轨迹追踪检测方法,其特征在于,S4中当移动目标无法保持在机器人的探测范围内时,应根据移动机器人和移动目标的轨迹来估计移动机器人的下一个测量姿态。
3.如权利要求1所述的基于虚拟超声图像的运动目标轨迹追踪检测方法,其特征在于,S5中追踪移动目标需要机器人与移动目标的相对距离保持在传感器感知范围内,超声波传感器的测量距离用弧度和测量距离来表示。
CN202110777487.4A 2021-07-09 2021-07-09 一种基于虚拟超声图像的运动目标轨迹追踪检测方法 Active CN113362379B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110777487.4A CN113362379B (zh) 2021-07-09 2021-07-09 一种基于虚拟超声图像的运动目标轨迹追踪检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110777487.4A CN113362379B (zh) 2021-07-09 2021-07-09 一种基于虚拟超声图像的运动目标轨迹追踪检测方法

Publications (2)

Publication Number Publication Date
CN113362379A CN113362379A (zh) 2021-09-07
CN113362379B true CN113362379B (zh) 2023-04-07

Family

ID=77538977

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110777487.4A Active CN113362379B (zh) 2021-07-09 2021-07-09 一种基于虚拟超声图像的运动目标轨迹追踪检测方法

Country Status (1)

Country Link
CN (1) CN113362379B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114489086A (zh) * 2022-04-14 2022-05-13 武汉跨克信息技术有限公司 一种仿生机器人协同作业方法及装置
CN115128166B (zh) * 2022-06-17 2024-07-12 广东电网有限责任公司广州供电局 基于孪生网络和超声导波的电缆铝护套腐蚀损伤成像方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004144719A (ja) * 2002-10-28 2004-05-20 Matsushita Electric Works Ltd 超音波アレイセンサによる物体位置・形状の計測方法及びその計測装置
CN106127807A (zh) * 2016-06-21 2016-11-16 中国石油大学(华东) 一种实时的视频多类多目标跟踪方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7171948B2 (ja) * 2019-05-17 2022-11-15 コーニンクレッカ フィリップス エヌ ヴェ 対象の移動を追跡するための超音波システム及び方法
CN110371108B (zh) * 2019-06-14 2020-12-15 浙江零跑科技有限公司 车载超声波雷达与车载环视系统融合方法
CN110488811B (zh) * 2019-07-22 2023-04-07 上海有个机器人有限公司 一种基于社交网络模型的机器人对行人轨迹预测的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004144719A (ja) * 2002-10-28 2004-05-20 Matsushita Electric Works Ltd 超音波アレイセンサによる物体位置・形状の計測方法及びその計測装置
CN106127807A (zh) * 2016-06-21 2016-11-16 中国石油大学(华东) 一种实时的视频多类多目标跟踪方法

Also Published As

Publication number Publication date
CN113362379A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN103064086B (zh) 一种基于深度信息的车辆跟踪方法
CN113362379B (zh) 一种基于虚拟超声图像的运动目标轨迹追踪检测方法
CN111239766B (zh) 基于激光雷达的水面多目标快速识别跟踪方法
CN115372958A (zh) 一种基于毫米波雷达和单目视觉融合的目标检测和跟踪方法
Zhang et al. Multiple vehicle-like target tracking based on the velodyne lidar
CN114998276B (zh) 一种基于三维点云的机器人动态障碍物实时检测方法
CN110187337B (zh) 一种基于ls和neu-ecef时空配准的高机动目标跟踪方法及系统
CN111929676B (zh) 一种基于密度聚类的x波段雷达目标检测与跟踪方法
CN115220041A (zh) 一种带有多普勒补偿的毫米波雷达尺度定位方法和系统
CN117593650B (zh) 基于4d毫米波雷达与sam图像分割的动点滤除视觉slam方法
CN114280611A (zh) 一种融合毫米波雷达与摄像头的路侧感知方法
CN113554705B (zh) 一种变化场景下的激光雷达鲁棒定位方法
CN117419719A (zh) 一种融合imu的三维激光雷达定位与建图方法
CN109635692B (zh) 基于超声波传感器的场景再识别方法
CN113091733A (zh) 一种基于毫米波雷达与imu融合的实时定位装置及方法
CN117331071A (zh) 一种基于毫米波雷达与视觉多模态融合的目标检测方法
CN113311430A (zh) 蜂群无人机数量估计和航迹生成方法
CN112581610A (zh) 从多波束声呐数据中建立地图的鲁棒优化方法和系统
CN108152824A (zh) 一种基于激光雷达的网球定位系统及方法
CN112731335B (zh) 一种基于全区域激光扫描的多无人机协作定位方法
CN111239761B (zh) 一种用于室内实时建立二维地图的方法
CN114155511A (zh) 一种用于自动驾驶汽车在公共道路的环境信息采集方法
CN112184764A (zh) 一种基于傅里叶-梅林变换的目标跟踪方法
Lu et al. Research on Unmanned Surface Vessel Perception Algorithm Based on Multi-Sensor Fusion
Dalhaug et al. Combining short and wide baseline stereo cameras for improved maritime target tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant