CN113096154B - 一种基于斜装深度相机的目标检测与跟踪方法及系统 - Google Patents

一种基于斜装深度相机的目标检测与跟踪方法及系统 Download PDF

Info

Publication number
CN113096154B
CN113096154B CN202010018062.0A CN202010018062A CN113096154B CN 113096154 B CN113096154 B CN 113096154B CN 202010018062 A CN202010018062 A CN 202010018062A CN 113096154 B CN113096154 B CN 113096154B
Authority
CN
China
Prior art keywords
depth
image
point
depth image
average
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010018062.0A
Other languages
English (en)
Other versions
CN113096154A (zh
Inventor
余小欢
凌晨
朱程利
陈嵩
白云峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Guangpo Intelligent Technology Co ltd
Original Assignee
Zhejiang Guangpo Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Guangpo Intelligent Technology Co ltd filed Critical Zhejiang Guangpo Intelligent Technology Co ltd
Priority to CN202010018062.0A priority Critical patent/CN113096154B/zh
Publication of CN113096154A publication Critical patent/CN113096154A/zh
Application granted granted Critical
Publication of CN113096154B publication Critical patent/CN113096154B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于斜装深度相机的目标检测与跟踪方法,所述方法包括:对获取的前N帧深度图像进行求平均,得到一平均深度图像;根据所述平均深度图像,得到深度相机的安装高度信息和角度信息;根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图;在所述投影深度图中进行像素点遍历,得到一局部极值点集合,并获取所述当前帧的深度图像中的各个头部区域。相应的,本发明还公开了基于深度相机的目标检测与跟踪系统。通过本发明,提供简单并且准确率高的目标检测的技术方案。

Description

一种基于斜装深度相机的目标检测与跟踪方法及系统
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于斜装深度相机的目标检测与跟踪方法及系统。
背景技术
目标检测与跟踪技术是计算机视觉技术领域的关键问题之一,在视频监控、机器人导航、智能交通等领域都有着广泛的应用。传统的目标检测与跟踪主要是基于单目视觉或者双目视觉的技术方案实现。基于单目视觉的技术方案通过机器学习的方法来实现目标检测和跟踪,该方案最简单,使用也最广泛。但是该技术方案对光照变化、阴影、目标的姿态、运动速度等变化都很敏感,而且当目标被遮挡的时候容易出现统计错误的情形。基于双目乃至多目的技术方案是通过视差的计算得到三维信息,并进行目标的检测与跟踪,但是,该技术方案计算量太大,而且容易受到场景中目标的几何形状、噪声干扰等因素的影响,并且该技术方案完全依赖于特征点的匹配,当目标纹理不好的时候,容易出现目标统计错误的问题。
也有一些技术方案采用结构光相机(比如Kinect)来实现客流统计,比如申请公布号为CN104732559A的专利提出了基于RGB-D数据的多目标检测与跟踪,该方法比传统的单目视觉和多目视觉的方案虽然在鲁棒性具有优势,但是仍然存在下面的一些问题:
1、针对运动状态的目标对象,缺乏对于静止目标对象的检测与跟踪的支持;
2、严重依赖于RGB的数据信息,采用基于传统的机器学习来进行分类,当环境的光线变化、目标对象运动过快等情况时,都会导致检测准确率变差;
3、该技术方案先通过滑动窗口的方式基于RGB和深度信息提取方向梯度直方图特征并进行分类,然后将检测的结果带入到粒子滤波算法来实现目标的跟踪,其技术方案的处理流程太复杂,计算复杂度太高,并且非常耗时,对于在边缘计算设备上的实际方案部署不是很理想。
发明内容
基于此,本发明的目的在于提供一种基于斜装深度相机的目标检测与跟踪方法及系统,解决上述技术问题,提供简单并且准确率高的目标检测的技术方案。
为实现上述目的,本发明提供了一种基于斜装深度相机的目标检测与跟踪方法,所述方法包括:
S1、对获取的前N帧深度图像进行求平均,得到一平均深度图像;
S2、根据所述平均深度图像,得到深度相机的安装高度信息和角度信息;
S3、根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图;
S4、在所述投影深度图中进行像素点遍历,得到一局部极值点集合,并获取所述当前帧的深度图像中的各个头部区域。
优选的,所述步骤S1包括:
获取所述前N帧深度图像中每一帧深度图像中的深度数据,根据公式(1),计算得到所述平均深度图像;
Figure BDA0002359668720000021
其中,i、j为图像坐标系下的横坐标和纵坐标,Da(i,j)为所述平均深度图像在图像坐标系中i、j处的深度值,Dl(i,j)为第l帧深度图像在图像坐标系中i、j处的深度值。
优选的,所述步骤S2包括:
根据公式(2)、(3)和(4)计算得到深度相机的安装高度信息h和角度信息ɑ,
h=L1×cos(α) (2);
Figure BDA0002359668720000031
Figure BDA0002359668720000032
其中,L1为所述平均深度图像在中心点(W/2,H/2)处的深度值,L2为所述平均深度图像在坐标点(W/2,H*3/4)处的深度值,
Figure BDA0002359668720000033
为所述平均深度图像中心点(W/2,H/2)和坐标点(W/2,H*3/4)的光线的夹角,δ为深度相机纵向视场角的一半,y1和y2分别为所述平均深度图像中心点(W/2,H/2)和坐标点(W/2,H*3/4)的y轴的坐标值,W和H分别为所述平均深度图像的横向和纵向的分辨率的大小。
优选的,所述步骤S3包括:
根据所述安装高度信息、角度信息以及所述平均深度图像中每一个像素点的深度值信息,利用公式(5)得到所述当前帧的深度图像对应的前景图,
Figure BDA0002359668720000034
其中,F(i,j)为所述前景图在图像坐标系下(x,y)点处的像素值,Da(i,j)为所述平均深度图像在图像坐标系中i、j处的深度值,H为深度相机的纵向分辨率,α为深度相机倾角,δ为深度相机纵向视场角的一半,y为图像坐标系下的纵向坐标。
优选的,所述步骤S3还包括:
基于所述前景图,将所述当前帧的深度图像通过俯视角投影方法得到对应的投影深度图,所述俯视角投影方法的计算公式为式(6),
Figure BDA0002359668720000041
其中,Dp(i,j)为所述投影深度图在图像坐标系下(x,y)点处的深度值,F(i,j)为所述前景图在图像坐标系下(x,y)点处的像素值,D(i,j)为所述当前帧的深度图像在图像坐标系下(x,y)点处的像素值,H为深度相机的纵向分辨率,α为深度相机倾角,δ为深度相机纵向视场角的一半,y为图像坐标系下的纵向坐标。
优选的,所述步骤S3还包括:对所述投影深度图进行栅格化降采样处理,得到栅格化后的投影深度图。
优选的,所述步骤S4还包括:对所述局部极值点集合采用局部最大值约束的方式,得到约束后的局部极值点集合。
优选的,于所述步骤S4后还包括:根据最近邻搜索的方式在相邻两帧的深度图像中获取每一个头部区域的运行轨迹。
优选的,所述最近邻搜索的步骤具体包括:
获取相邻两帧的深度图像,分别获取相邻两帧的深度图像的局部极值点集合,分别标记为第一局部极值点集合和第二局部极值点集合;
计算所述第一局部极值点集合中的一个点与所述第二局部极值点集合中的每一个点的距离,将距离最近的点作为该点对应的匹配点;
以此类推,得到所述第一局部极值点集合中的每一个点对应所述第二局部极值点集合中的匹配点,建立相邻两帧的深度图像之间的运行轨迹,获取每一头部区域的运行轨迹。
为实现上述目的,本发明提供了一种基于斜装深度相机的目标检测与跟踪系统,所述系统包括:
平均图像模块,用于对获取的前N帧深度图像进行求平均,得到一平均深度图像;
相机信息模块,用于根据所述平均深度图像,得到深度相机的安装高度信息和角度信息;
投影深度图模块,用于根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图;
局部极值点模块,用于在所述投影深度图中进行像素点遍历,得到一局部极值点集合,并获取所述当前帧的深度图像中的各个头部区域。
与现有技术相比,本发明一种基于斜装深度相机的目标检测与跟踪方法及系统,所带来的有益效果为:本发明通过深度相机采集原始的深度数据信息,并基于该数据信息进行目标检测和跟踪,因此对于环境变化、阴影、噪声等都有非常好的抗干扰能力;采用斜装式深度相机,其适用的场景高度范围非常宽,其典型的安装高度范围在2m-8m之间,安装角度在20度-80度之间;采用投影变换的方式进行目标前景的提取,提高了图像的抗干扰能力;本技术方案不采用传统的阈值分割的方式,而采用栅格化极值点搜索的技术方案来进行目标检测,其准确率更高;本技术方案基于投影深度图的极值点检测实现目标检测的技术方案,并基于最近邻搜索方式获取目标点的运行轨迹并进行跟踪,该技术方案实现简单方便,并且准确率非常高,能够非常好的实时性地进行目标跟踪。
附图说明
图1是根据本发明的一个实施例的基于斜装深度相机的目标检测与跟踪方法的流程示意图。
图2是根据本发明的一个实施例的基于斜装深度相机的目标检测与跟踪系统的系统示意图。
具体实施方式
以下将结合附图所示的具体实施方式对本发明进行详细描述,但这些实施方式并不限制本发明,本领域的普通技术人员根据这些实施方式所做出的结构、方法、或功能上的变换均包含在本发明的保护范围内。
如图1所示的本发明的一实施例,本发明提供一种基于斜装深度相机的目标检测与跟踪方法,所述方法包括:
S1、对获取的前N帧深度图像进行求平均,得到一平均深度图像;
S2、根据所述平均深度图像,得到深度相机的安装高度信息和角度信息;
S3、根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图;
S4、在所述投影深度图中进行像素点遍历,得到一局部极值点集合,并获取所述当前帧的深度图像中的各个头部区域。
在所述步骤S1中,利用深度相机采集深度图像。本发明中的深度相机采取斜装的安装方式,基于该斜装方式的深度相机对目标的检测和跟踪的技术方案。对采集到的前N帧深度图像进行求平均,得到一平均深度图像。根据本发明的一具体实施例,所述N取值为10。具体地,获取所述前N帧深度图像中每一帧深度图像中的深度数据,根据公式(1),计算得到所述平均深度图像,
Figure BDA0002359668720000071
其中,i、j为图像坐标系下的横坐标和纵坐标,Da(i,j)为所述平均深度图像在图像坐标系中i、j处的深度值,Dl(i,j)为第l帧深度图像在图像坐标系中i、j处的深度值。
在步骤S2中,根据所述平均深度图像,得到深度相机的安装高度信息和角度信息。根据公式(2)、(3)和(4)计算得到深度相机的安装高度信息h和角度信息ɑ;
h=L1×cos(α) (2);
Figure BDA0002359668720000072
Figure BDA0002359668720000073
其中,L1为所述平均深度图像在中心点(W/2,H/2)处的深度值,L2为所述平均深度图像在坐标点(W/2,H*3/4)处的深度值,
Figure BDA0002359668720000074
为所述平均深度图像中心点(W/2,H/2)和坐标点(W/2,H*3/4)的光线的夹角,δ为深度相机纵向视场角的一半,y1和y2分别为所述平均深度图像中心点(W/2,H/2)和坐标点(W/2,H*3/4)的y轴的坐标值,W和H分别为所述平均深度图像的横向和纵向的分辨率的大小。W和H的值取决于深度相机的分辨率。
在所述步骤S3中,根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图。具体地,根据所述安装高度信息、角度信息以及所述平均深度图像中每一个像素点的深度值信息,利用公式(5)得到所述当前帧的深度图像对应的前景图,
Figure BDA0002359668720000081
其中,其中,F(i,j)为所述前景图在图像坐标系下(x,y)点处的像素值,Da(i,j)为所述平均深度图像在图像坐标系中i、j处的深度值,H为深度相机的纵向分辨率,α为深度相机倾角,δ为深度相机纵向视场角的一半,y为图像坐标系下的纵向坐标。T一般取值为1200mm。
基于所述前景图,将所述当前帧的深度图像通过俯视角投影方法得到对应的投影深度图,所述俯视角投影方法的计算公式为式(6),
Figure BDA0002359668720000082
其中,Dp(i,j)为所述投影深度图在图像坐标系下(x,y)点处的深度值,F(i,j)为所述前景图在图像坐标系下(x,y)点处的像素值,D(i,j)为所述当前帧的深度图像在图像坐标系下(x,y)点处的像素值,H为深度相机的纵向分辨率,α为深度相机倾角,δ为深度相机纵向视场角的一半,y为图像坐标系下的纵向坐标。通过投影变换的方式实现目前前景的提取,提高了图像的抗干扰能力。
根据本发明的一具体实施例,所述步骤S3还包括:对所述投影深度图进行栅格化降采样处理,得到栅格化后的投影深度图。具体地,从所述投影深度图的左上角到其右下角,按照从左到右以及从上到下的顺序,设置降采样系数为K,降采样前投影深度图的每K*K个点对应降采样后投影深度图的一个点。通过采用取平均值的方式,从左到右及从上到下的间隔步长均是K。其中,K的取值一般是为经验值,其典型值包含3、5、7等。K值一般和图像的原始分辨率有关,分辨率越大,K值越大。
在所述步骤S4中,在所述投影深度图中进行像素点遍历,得到一局部极值点集合,得到所述当前帧的深度图像中的各个头部区域。通过滑动窗口方式在当前帧的投影深度图中搜索局部极值点集合,并通过迭代的方式获取局部极值点集合。具体地,从所述栅格化后的投影深度图中的左上角开始遍历,以列优先的方式逐行逐列对每一个像素点进行遍历,计算当前遍历的像素点的深度值与该像素点相邻的L*L区域内的每一个像素点的深度值进行比较,若当前遍历的像素点的深度值比所述L*L区域内的每一个像素点的深度值都小,则将当前遍历的像素点作为极值点,以此类推,对每一个遍历的像素点进行计算,得到局部极值点集合。比如,所述L值为15。所述局部极值点集合包括多个点集。将所述局部极值点集合中的坐标点作为目标点,根据目标点,得到所述当前帧的深度图像中的各个头部区域,从而完成对目标点的检测。通过对栅格化的投影深度图进行极值点搜索来进行目标检测,其检测的准确率更高。
根据本发明的一具体实施例,所述步骤S4还包括:对所述局部极值点集合采用局部最大值约束的方式,得到约束后的局部极值点集合。具体地,计算所述局部极值点集合中个的每一个点与该集合中的其它点的欧式距离,若所述欧式距离小于一预设距离阈值,则将值较小的点加入到约束后的局部极值点集合中,若所述欧式距离大于所述距离阈值时,则将该点加入到约束后的局部极值点集合中。所述距离阈值取值为20。将所述约束后的局部极值点集合中的坐标点作为目标点,根据目标点,得到所述当前帧的深度图像中的各个头部区域,从而完成对目标点的检测。
根据本发明的一具体实施例,于所述步骤S4后还包括:根据最近邻搜索的方式在相邻两帧的深度图像中获取每一个头部区域的运行轨迹。具体地,获取相邻两帧的深度图像,基于上述技术方案,分别获取相邻两帧的深度图像的局部极值点集合,分别标记为第一局部极值点集合和第二局部极值点集合,计算所述第一局部极值点集合中的一个点与所述第二局部极值点集合中的每一个点的距离,将距离最近的点作为该点对应的匹配点,以此类推,得到所述第一局部极值点集合中的每一个点对应所述第二局部极值点集合中的匹配点,建立相邻两帧的深度图像之间的运行轨迹,因此获取每一头部区域的运行轨迹。基于该技术方案,通过最近邻搜索的方式获取目标点的运行轨迹并进行跟踪,该技术方案实现简单方便,并且准确率非常高,能够非常好的实时性地进行目标跟踪。
如图2所示的本发明的一实施例,本发明提供一种基于斜装深度相机的目标检测与跟踪系统,所述系统包括:
平均图像模块20,用于对获取的前N帧深度图像进行求平均,得到一平均深度图像;
相机信息模块21,用于根据所述平均深度图像,得到深度相机的安装高度信息和角度信息;
投影深度图模块22,用于根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图;
局部极值点模块23,用于在所述投影深度图中进行像素点遍历,得到一局部极值点集合,并获取所述当前帧的深度图像中的各个头部区域。
所述平均图像模块对采集到的前N帧深度图像进行求平均,得到一平均深度图像。根据本发明的一具体实施例,所述N取值为10。根据上述方法步骤中公式(1),计算得到所述平均深度图像。
所述相机信息模块根据所述平均深度图像,得到深度相机的安装高度信息和角度信息。根据上述方法步骤中公式(2)、(3)和(4)计算得到深度相机的安装高度信息和角度信息。
所述投影深度图模块根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图。具体地,根据所述安装高度信息、角度信息以及所述平均深度图像中每一个像素点的深度值信息,利用公式(5)得到所述当前帧的深度图像对应的前景图,并基于所述前景图,将所述当前帧的深度图像通过俯视角投影方法得到对应的投影深度图。根据本发明的一具体实施例,所述投影深度图模块还用于对所述投影深度图进行栅格化降采样处理,得到栅格化后的投影深度图。
所述局部极值点模块在所述投影深度图中进行像素点遍历,得到一局部极值点集合,得到所述当前帧的深度图像中的各个头部区域。根据上述实施例,通过滑动窗口方式在栅格化后的投影深度图中搜索局部极值点集合,通过迭代的方式获取局部极值点集合。根据本发明的一具体实施例,所述局部极值点模块对所述局部极值点集合采用局部最大值约束的方式,得到约束后的局部极值点集合。将所述约束后的局部极值点集合中的坐标点作为目标点,从而得到所述当前帧的深度图像中的各个头部区域
根据本发明的一具体实施例,所述系统还包括最近邻模块,用于根据最近邻搜索的方式在相邻两帧的深度图像中获取每一个头部区域的运行轨迹,实现对目标的跟踪。
尽管为示例目的,已经公开了本发明的优选实施方式,但是本领域的普通技术人员将意识到,在不脱离由所附的权利要求书公开的本发明的范围和精神的情况下,各种改进、增加以及取代是可能的。

Claims (4)

1.一种基于斜装深度相机的目标检测与跟踪方法,其特征在于,所述方法包括步骤:
S1、对获取的前N帧深度图像进行求平均,得到一平均深度图像;
S2、根据所述平均深度图像,得到深度相机的安装高度信息和角度信息;
S3、根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图;
S4、在所述投影深度图中进行像素点遍历,得到一局部极值点集合,并获取所述当前帧的深度图像中的各个头部区域;
所述步骤S3包括:
根据所述安装高度信息、角度信息以及所述平均深度图像中每一个像素点的深度值信息,利用公式(5)得到所述当前帧的深度图像对应的前景图,
Figure 312769DEST_PATH_IMAGE002
(5);
其中,F(i,j)为所述前景图在图像坐标系下(x,y)点处的像素值,Da(i,j)为所述平均深度图像在图像坐标系中i、j处的深度值,H为深度相机的纵向分辨率,α为深度相机倾角,δ为深度相机纵向视场角的一半,y为图像坐标系下的纵向坐标;
基于所述前景图,将所述当前帧的深度图像通过俯视角投影方法得到对应的投影深度图,所述俯视角投影方法的计算公式为式(6),
Figure DEST_PATH_IMAGE004
(6);
其中,Dp(i,j)为所述投影深度图在图像坐标系下(x,y)点处的深度值,F(i,j)为所述前景图在图像坐标系下(x,y)点处的像素值,D(i,j)为所述当前帧的深度图像在图像坐标系下(x,y)点处的像素值,H为深度相机的纵向分辨率,α深度相机倾角,δ为深度相机纵向视场角的一半,y为图像坐标系下的纵向坐标;
对所述投影深度图进行栅格化降采样处理,得到栅格化后的投影深度图;
所述步骤S4包括:
对所述局部极值点集合采用局部最大值约束的方式,得到约束后的局部极值点集合;
根据最近邻搜索的方式在相邻两帧的深度图像中获取每一个头部区域的运行轨迹,其中,所述最近邻搜索的步骤具体包括:
获取相邻两帧的深度图像,分别获取相邻两帧的深度图像的局部极值点集合,分别标记为第一局部极值点集合和第二局部极值点集合;
计算所述第一局部极值点集合中的一个点与所述第二局部极值点集合中的每一个点的距离,将距离最近的点作为该点对应的匹配点;
以此类推,得到所述第一局部极值点集合中的每一个点对应所述第二局部极值点集合中的匹配点,建立相邻两帧的深度图像之间的运行轨迹,获取每一头部区域的运行轨迹。
2.如权利要求1所述的基于斜装深度相机的目标检测与跟踪方法,其特征在于,所述步骤S1包括:
获取所述前N帧深度图像中每一帧深度图像中的深度数据,根据公式(1),计算得到所述平均深度图像;
Figure 634291DEST_PATH_IMAGE006
(1);
其中,i、j为图像坐标系下的横坐标和纵坐标,Da(i,j)为所述平均深度图像在图像坐标系中i、j处的深度值,Dl(i,j)为第l帧深度图像在图像坐标系中i、j处的深度值。
3.如权利要求2所述的基于斜装深度相机的目标检测与跟踪方法,其特征在于,所述步骤S2包括:
根据公式(2)、(3)和(4)计算得到深度相机的安装高度信息h和倾角信息ɑ,
Figure DEST_PATH_IMAGE008
(2);
Figure DEST_PATH_IMAGE009
(3);
Figure DEST_PATH_IMAGE011
(4);
其中,L1为所述平均深度图像在中心点(W/2, H/2)处的深度值,L2为所述平均深度图像在坐标点(W/2, H*3/4)处的深度值,∂为所述平均深度图像中心点(W/2, H/2) 和坐标点(W/2, H*3/4)的光线的夹角,δ为深度相机纵向视场角的一半,y1和y2分别为所述平均深度图像中心点(W/2, H/2) 和坐标点(W/2, H*3/4)的y轴的坐标值,W和H分别为所述平均深度图像的横向和纵向的分辨率的大小。
4.一种基于斜装深度相机的目标检测与跟踪系统,其特征在于,所述系统执行如权利要求1-3任一所述的基于斜装深度相机的目标检测与跟踪方法,所述系统包括:
平均图像模块,用于对获取的前N帧深度图像进行求平均,得到一平均深度图像;
相机信息模块,用于根据所述平均深度图像,得到深度相机的安装高度信息和角度信息;
投影深度图模块,用于根据所述平均深度图像、安装高度信息、角度信息以及当前帧的深度图像,获取所述当前帧的深度图像对应的前景图以及对应的投影深度图;
局部极值点模块,用于在所述投影深度图中进行像素点遍历,得到一局部极值点集合,并获取所述当前帧的深度图像中的各个头部区域。
CN202010018062.0A 2020-01-08 2020-01-08 一种基于斜装深度相机的目标检测与跟踪方法及系统 Active CN113096154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010018062.0A CN113096154B (zh) 2020-01-08 2020-01-08 一种基于斜装深度相机的目标检测与跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010018062.0A CN113096154B (zh) 2020-01-08 2020-01-08 一种基于斜装深度相机的目标检测与跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN113096154A CN113096154A (zh) 2021-07-09
CN113096154B true CN113096154B (zh) 2023-02-21

Family

ID=76663397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010018062.0A Active CN113096154B (zh) 2020-01-08 2020-01-08 一种基于斜装深度相机的目标检测与跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN113096154B (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005069757A (ja) * 2003-08-21 2005-03-17 National Institute Of Advanced Industrial & Technology 中心窩広視野画像を利用したカメラ位置姿勢推定方法及びシステム
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
US8897491B2 (en) * 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
EP2869263A1 (en) * 2013-10-29 2015-05-06 Thomson Licensing Method and apparatus for generating depth map of a scene
CN106372598A (zh) * 2016-08-31 2017-02-01 广州精点计算机科技有限公司 一种基于图像特征检测的消除视频旋转和抖动的稳像方法
CN106780618B (zh) * 2016-11-24 2020-11-03 周超艳 基于异构深度摄像机的三维信息获取方法及其装置

Also Published As

Publication number Publication date
CN113096154A (zh) 2021-07-09

Similar Documents

Publication Publication Date Title
CN110569704A (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN108597009B (zh) 一种基于方向角信息进行三维目标检测的方法
Kang et al. Detection and tracking of moving objects from a moving platform in presence of strong parallax
CN109086724B (zh) 一种加速的人脸检测方法及存储介质
CN113506318B (zh) 一种车载边缘场景下的三维目标感知方法
CN110910421B (zh) 基于分块表征和可变邻域聚类的弱小运动目标检测方法
CN107832674B (zh) 一种车道线检测方法
CN112115980A (zh) 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法
CN110021029B (zh) 一种适用于rgbd-slam的实时动态配准方法及存储介质
Qu et al. Evaluation of SIFT and SURF for vision based localization
CN112164117A (zh) 一种基于Kinect相机的V-SLAM位姿估算方法
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
CN115619826A (zh) 一种基于重投影误差和深度估计的动态slam方法
CN112215925A (zh) 自适应采煤机随动跟踪多摄像头视频拼接方法
Long et al. A real-time dense stereo matching method for critical environment sensing in autonomous driving
Wang et al. An improved ArUco marker for monocular vision ranging
CN113689365B (zh) 一种基于Azure Kinect的目标跟踪定位方法
CN113221739B (zh) 基于单目视觉的车距测量方法
TWI509568B (zh) 偵測多移動目標之方法
CN108846363A (zh) 一种基于发散式扫描的分区域车底阴影检测方法
CN113096154B (zh) 一种基于斜装深度相机的目标检测与跟踪方法及系统
CN113643322B (zh) 基于DeepLabv3+_SLAM的动态对象检测方法
CN114240895A (zh) 基于路侧监控视角车辆三维包围框检测系统及方法
CN114283199A (zh) 一种面向动态场景的点线融合语义slam方法
CN114511803A (zh) 一种面向视觉跟踪任务的目标遮挡检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant