CN112734834A - 一种羽毛球空间坐标检测方法及系统 - Google Patents

一种羽毛球空间坐标检测方法及系统 Download PDF

Info

Publication number
CN112734834A
CN112734834A CN202011470357.8A CN202011470357A CN112734834A CN 112734834 A CN112734834 A CN 112734834A CN 202011470357 A CN202011470357 A CN 202011470357A CN 112734834 A CN112734834 A CN 112734834A
Authority
CN
China
Prior art keywords
depth
image
background
badminton
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011470357.8A
Other languages
English (en)
Other versions
CN112734834B (zh
Inventor
梁斌
王学谦
李寿杰
叶林奇
兰斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen International Graduate School of Tsinghua University
Original Assignee
Shenzhen International Graduate School of Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen International Graduate School of Tsinghua University filed Critical Shenzhen International Graduate School of Tsinghua University
Priority to CN202011470357.8A priority Critical patent/CN112734834B/zh
Publication of CN112734834A publication Critical patent/CN112734834A/zh
Application granted granted Critical
Publication of CN112734834B publication Critical patent/CN112734834B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种羽毛球空间坐标检测方法及其系统,该方法包括以下步骤:S1:获取深度相机所采集的场景的三维深度模型,根据三维深度模型建立深度背景模板;S2:获取深度相机所采集的深度图像,结合深度图像与所述深度背景模板得到背景剔除后的图像,根据背景剔除后的图像获取最大连通区域,并根据所述最大连通区域的边界确定羽毛球的中心点坐标,再通过羽毛球的中心点坐标获取羽毛球的空间坐标位置。本发明提出的羽毛球空间坐标检测方法及系统,减少了二维坐标系到三维深度空间转换的过程,提高了检测精度,避免了帧差法带来的重影、延迟等问题。

Description

一种羽毛球空间坐标检测方法及系统
技术领域
本发明涉及图像处理技术领域,尤其涉及一种羽毛球空间坐标检测方法及系统。
背景技术
羽毛球是运动速度最快的球类运动,并且羽毛球整体颜色为白色,特征点比较少,不易分辨,这就给羽毛球的追踪增加了难度。
当前的目标检测方法大多数是基于二维彩色图像,二维图像中包含了物体的颜色、二维坐标等信息,但无法获取物体在空间中的三维坐标信息和物体的体积等信息。随着深度相机的发展,人们越来越关注于深度图像的处理,因为深度图像相比于二维图像具有更丰富的位置坐标信息和物体表面特征信息。当前对于羽毛球的追踪方法多是对二维彩色图像采用帧差法,这种方法受限于相机的检测帧率,当相机帧率过低或者目标运动过快时,极易出现重影现象,严重影响检测精度。而利用彩色图像检测到羽毛球后,需要对彩色图形和深度图像利用内参外参进行对齐,之后再在深度图像中检测羽毛球的位置,获取羽毛球的三维坐标信息,这不仅会增加算法的工作量,也会影响羽毛球的检测精度。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种羽毛球空间坐标检测方法及系统,减少了二维坐标系到三维深度空间转换的过程,提高了检测精度,避免了帧差法带来的重影、延迟等问题。
为了达到上述目的,本发明采用以下技术方案:
本发明的一个实施例公开了一种羽毛球空间坐标检测方法,包括以下步骤:
S1:获取深度相机所采集的场景的三维深度模型,根据三维深度模型建立深度背景模板;
S2:获取深度相机所采集的深度图像,结合深度图像与所述深度背景模板得到背景剔除后的图像,根据背景剔除后的图像获取最大连通区域,并根据所述最大连通区域的边界确定羽毛球的中心点坐标,再通过羽毛球的中心点坐标获取羽毛球的空间坐标位置。
优选地,步骤S1具体包括:获取深度相机所采集的场景的三维深度模型depth1(x,y,z),再对人物的移动区域建立背景模型depth2(x,y,z),根据下式得到深度背景模板depth(x,y,z):
depth(x,y,z)=depth1(x,y,z)∪depth2(x,y,z)。
优选地,步骤S1还包括:对所述深度背景模板的可靠性进行检测,以对所述深度背景模板进行更新;
进一步地,对所述深度背景模板的可靠性进行检测,以对所述深度背景模板进行更新具体包括:
采集羽毛球场实际对战中的前N帧图像FbN,将前N帧图像与所述深度背景模板做差,得到背景剔除后的前N帧图像Fb`N;再对背景剔除后的前N帧图像Fb`N依次进行腐蚀膨胀处理和连通域分析,得到m个连通域Fb`Ni,i∈{1,2,...,m},采用下式对所述深度背景模板的可靠性进行检测:
Figure BDA0002833582540000021
其中,SFb`N表示m个连通域Fb`Ni,i∈{1,2,...,m}的面积的总和,Smax表示羽毛球的最大面积;
在对所述深度背景模板的可靠性进行检测得到模板需更新时,采用下式对所述深度背景模板进行更新:
Figure BDA0002833582540000022
其中,SFb`Ni,i∈{1,2,..,m}表示各个连通域Fb`Ni,i∈{1,2,...,m}的面积,depth(x,y,z)表示所述深度背景模板;
在对所述深度背景模板的可靠性进行检测得到模板有效时,则进行下一张图像的检测,直至N张图像全部检测得到模板有效,完成对所述深度背景模板的更新。
优选地,步骤S2中获取深度相机所采集的深度图像,结合深度图像与所述深度背景模板得到背景剔除后的图像具体包括:
获取深度相机所采集的当前帧图像的深度图像为Fn(x,y,z),将当前帧图像的深度图像与所述深度背景模板depth(x,y,z)做差得到背景剔除后的三维图像F`n(x,y,z):F`n(x,y,z)=|Fn(x,y,z)-depth(x,y,z)|。
优选地,步骤S2中根据背景剔除后的图像获取最大连通域具体包括:对背景剔除后的图像做阈值处理得到二值图像,再根据所述二值图像得到最大连通区域;
进一步地,对背景剔除后的图像做阈值处理得到二值图像具体包括:采用下式对背景剔除后的图像做阈值处理:
Figure BDA0002833582540000031
其中,Rn(x,y)为得到的二值图像,Dn(x,y)=F`n(x,y),T为阈值。
优选地,步骤S2中在对背景剔除后的图像做阈值处理得到二值图像之后还包括:采用腐蚀膨胀算法对所述二值图像进行滤波。
本发明另一实施例公开了一种羽毛球空间坐标检测系统,包括:
深度背景生成模块,被配置为获取深度相机所采集的场景的三维深度模型,并根据三维深度模型建立深度背景模板;
目标检测模块,被配置为获取深度相机所采集的深度图像,结合深度图像与所述深度背景模板得到背景剔除后的图像,根据背景剔除后的图像获取最大连通区域,并根据所述最大连通区域的边界确定羽毛球的中心点坐标,再通过羽毛球的中心点坐标获取羽毛球的空间坐标位置。
优选地,所述深度背景生成模块包括背景模板建立模块和背景模板更新模块,其中:所述背景模板建立模块被配置为获取深度相机所采集的场景的三维深度模型,并根据三维深度模型建立深度背景模板,所述背景模板更新模块被配置为对所述深度背景模板的可靠性进行检测,以对所述深度背景模板进行更新。
优选地,根据背景剔除后的图像获取最大连通区域具体包括:对背景剔除后的图像做阈值处理得到二值图像,再根据所述二值图像得到最大连通区域;进一步地,在对背景剔除后的图像做阈值处理得到二值图像之后还包括:采用腐蚀膨胀算法对所述二值图像进行滤波。
本发明另一实施例公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现上述的羽毛球空间坐标检测方法的步骤。
与现有技术相比,本发明的有益效果在于:本发明公开的基于深度图像的羽毛球空间坐标检测方法,通过背景差法对深度背景进行减除,从而获得物体的实际位置,减少了二维坐标系到三维深度空间转换的过程,提高了检测精度,避免了帧差法带来的重影、延迟等问题;在提高羽毛球的检测精度、降低实时检测对处理器性能的要求等方面具有重要意义。而且该方法直接对图像的深度图像进行处理,降低了算法的复杂度,可以提高算法的执行效率和实时性。本发明能够应用于羽毛球等球类运动的位置检测、轨迹预测等领域。
附图说明
图1是本发明优选实施例的羽毛球空间坐标检测方法的流程图;
图2是本发明优选实施例的场景示意图;
图3是本发明优选实施例的深度背景模板更新的流程图;
图4是本发明优选实施例对羽毛球进行检测的具体流程图;
图5是根据最小外接矩形检测得到的矩形框;
图6是本发明优选实施例的羽毛球空间坐标检测系统的结构框图。
具体实施方式
为了使本发明实施例所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。另外,连接既可以是用于固定作用也可以是用于电路连通作用。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多该特征。在本发明实施例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
随着kinect、realsense D435i等深度相机的发展,人们捕捉物体空间位置信息的能力大大提升,但在物体检测算法上依然局限于从彩色图像中获取物体的二维坐标信息,再映射到深度相机所对应的深度空间中,但由于羽毛球存在速度快、体积小、颜色特征不明显等特点,基于彩色图像的羽毛球追踪算法存在延迟、重影、算法复杂等问题,本发明提出的基于深度图像背景差的羽毛球空间坐标检测方法可以很好的解决这些问题。
如图1所示,本发明的优选实施例公开了一种羽毛球空间坐标检测方法,包括以下步骤:
S1:获取深度相机所采集的场景的三维深度模型,根据三维深度模型建立深度背景模板;
由于羽毛球运动的特点,运动员在场地上移动时有一定的移动范围,但利用二维图像进行处理时并不能对运动员移动的三维位置进行处理,而采用深度相机就可以完成这项工作,本实施例中的摄像头的位置为固定,工作场景如图2所示。
首先设置背景信息,通过深度相机采集场景的三维深度模型作为背景,得到depth1(x,y,z),作为整个场景内物体存在的背景,由于人物移动也会对背景差法产生影响,之后对人物的移动区域建立背景模型得到depth2(x,y,z),利用公式(1)得到建立的深度背景模板:
depth(x,y,z)=depth1(x,y,z)∪depth2(x,y,z) (1)
在建立完成深度背景模板之后,由于人物移动区域限定不准确等因素的影响,深度背景模板的建立可能会出现背景建立不完整的情况,因此本实施例中在应用该背景模板之前还对建立的模板进行检测。设图像前N帧图像为FbN。
具体地,如图3所示,步骤S1还包括以下步骤:取羽毛球场中实际对战中的前N帧图像进行检测,将前N帧图像FbN与深度背景模板depth通过公式(2)做差,得到背景剔除后的前N帧图像Fb`N:
Fb`N(x,y,z)=|FbN(x,y,z)-depth(x,y,z)| (2)
在背景剔除之后,对Fb`N进行腐蚀膨胀处理以进行滤波,再对Fb`N进行连通域分析,设图像中一共有m个连通域,则得到Fb`Ni,i∈{1,2,...,m},背景剔除之后的Fb`N中各个连通域的面积为SFb`Ni,i∈{1,2,...,m},对于Fb`N中m个连通域的面积的总和为SFb`N,利用公式(3)对建立的深度背景模板的可靠性进行检测:
Figure BDA0002833582540000061
其中,Smax为羽毛球的最大面积。
如果模板需更新则利用公式(4)进行背景更新运算,模板有效则进行下一张图像的检测,直到对N张图像全部完成检测,从而实现了深度背景模板的更新。
Figure BDA0002833582540000062
其中在对Fb`N进行腐蚀膨胀处理后不会存在各个连通域的面积为SFb`Ni,i∈{1,2,...,m}均小于Smax而Fb`N中m个连通域的面积的总和为SFb`N大于Smax的情况,使得上述深度背景模板的更新顺利进行。
S2:获取深度相机所采集的深度图像,结合深度图像与深度背景模板得到背景剔除后的图像,根据背景剔除后的图像获取最大连通区域,并根据最大连通区域的边界确定羽毛球的中心点坐标,再通过羽毛球的中心点坐标获取羽毛球的空间坐标位置。
在得到完整可靠的深度背景模板之后就可以对羽毛球进行检测,具体检测流程图如图4所示,具体包括:
背景剔除:
通过深度相机得到当前帧图像的深度图像为Fn(x,y,z),将当前帧图像与背景图像通过公式(5)做差得到背景剔除后的三维图像F`n(x,y,z)。通过背景剔除就可以对图像中的羽毛球进行检测:
F`n(x,y,z)=|Fn(x,y,z)-depth(x,y,z)| (5)
阈值处理:
为了对羽毛球进行捕捉,本实施例对背景剔除后的图像做阈值处理,因为在深度图像的显示时,是通过颜色的深浅来表征目标的距离,在完成背景剔除之后,图像中就只剩下了羽毛球的图像信息,因此可以忽略图像的距离信息,令Dn(x,y)=F`n(x,y),通过阈值处理公式(6)由深度图像转换为二值图像Rn(x,y)。
Figure BDA0002833582540000071
图像滤波:
为了保证图像的平滑完整,本实施例中引入了腐蚀膨胀算法对阈值处理后的图像进行滤波,减少尖锐噪声和空洞的影响。
最小外接矩形检测:
为了更好的确定羽毛球的中心位置,首先采用连通性分析确定图像中的最大连通区域,之后通过矩形检测算法确定连通区域的边界,如图5所示,即x方向的最大值xmax、x方向的最小值xmin、y方向的最大值ymax、y方向的最小值ymin,通过公式(7)、公式(8)确定深度图像中羽毛球的中心点坐标为(xcenter,ycenter):
xcenter=(xmax-xmin)/2 (7)
ycenter=(ymax-ymin)/2 (8)
根据中心点坐标就可以得到深度坐标的位置(具体为:对深度图像进行映射,根据一个范围求中心点即为羽毛球的中心),从而直接得到羽毛球的空间坐标位置(x,y,z)。
本发明优选实施例的羽毛球空间坐标检测方法直接对深度相机采集到的深度图像进行处理,消除了利用彩色图像检测再映射到深度图像时坐标校正带来的误差,提高了位置检测精度,对于羽毛球等速度快、体积小的物体检测具有更高的准确性;而且该方法直接对图像的深度图像进行处理,降低了算法的复杂度。本发明中提出的检测方法提高了算法的执行效率和实时性。
如图6所示,本发明另一实施例公开了一种羽毛球空间坐标检测系统,该羽毛球空间坐标检测系统将背景差法扩展到三维空间,包括深度背景生成模块10和目标检测模块20,其中深度背景生成模块10包括深度背景模板建立模块11和深度背景模板更新模块12,目标检测模块20包括深度图像背景差法处理模块21和最小外接矩形检测模块22。记图像中第n帧深度图像为Fn(x,y,z),深度模板为depth(x,y,z)。
深度背景模板建立模块11被配置为采用上述公式(1)来建立得到深度背景模板;深度背景模板更新模块12被配置为执行如图3所示的流程步骤,具体通过公式(2)、(3)和(4)来完成深度背景模板更新。
深度图像背景差法处理模块21被配置为执行背景剔除和阈值处理,即采用上述公式(5)和(6)以分别进行背景剔除和阈值处理;最小外接矩形检测模块22被配置为执行图像滤波和最小外接矩形检测,即采用腐蚀膨胀算法对阈值处理得到的二值图像进行滤波,根据滤波后的二值图像得到最大连通区域,并根据最大连通区域确定羽毛球的中心点坐标,再通过羽毛球的中心点坐标获取羽毛球的空间坐标位置。
本发明还有一实施例公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现上述的羽毛球空间坐标检测方法的步骤。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种羽毛球空间坐标检测方法,其特征在于,包括以下步骤:
S1:获取深度相机所采集的场景的三维深度模型,根据三维深度模型建立深度背景模板;
S2:获取深度相机所采集的深度图像,结合深度图像与所述深度背景模板得到背景剔除后的图像,根据背景剔除后的图像获取最大连通区域,并根据所述最大连通区域的边界确定羽毛球的中心点坐标,再通过羽毛球的中心点坐标获取羽毛球的空间坐标位置。
2.根据权利要求1所述的羽毛球空间坐标检测方法,其特征在于,步骤S1具体包括:获取深度相机所采集的场景的三维深度模型depth1(x,y,z),再对人物的移动区域建立背景模型depth2(x,y,z),根据下式得到深度背景模板depth(x,y,z):
depth(x,y,z)=depth1(x,y,z)∪depth2(x,y,z)。
3.根据权利要求1所述的羽毛球空间坐标检测方法,其特征在于,步骤S1还包括:对所述深度背景模板的可靠性进行检测,以对所述深度背景模板进行更新;
进一步地,对所述深度背景模板的可靠性进行检测,以对所述深度背景模板进行更新具体包括:
采集羽毛球场实际对战中的前N帧图像FbF,将前N帧图像与所述深度背景模板做差,得到背景剔除后的前N帧图像Fb`N;再对背景剔除后的前N帧图像Fb`N依次进行腐蚀膨胀处理和连通域分析,得到m个连通域Fb`Ni,i∈{1,2,…,m},采用下式对所述深度背景模板的可靠性进行检测:
Figure FDA0002833582530000011
其中,SFb`N表示m个连通域Fb`Ni,i∈{1,2,…,m}的面积的总和,Smax表示羽毛球的最大面积;
在对所述深度背景模板的可靠性进行检测得到模板需更新时,采用下式对所述深度背景模板进行更新:
Figure FDA0002833582530000021
其中,SFb`Ni,i∈{1,2,…,m}表示各个连通域Fb`Ni,i∈{1,2,…,m}的面积,depth(x,y,z)表示所述深度背景模板;
在对所述深度背景模板的可靠性进行检测得到模板有效时,则进行下一张图像的检测,直至N张图像全部检测得到模板有效,完成对所述深度背景模板的更新。
4.根据权利要求1所述的羽毛球空间坐标检测方法,其特征在于,步骤S2中获取深度相机所采集的深度图像,结合深度图像与所述深度背景模板得到背景剔除后的图像具体包括:
获取深度相机所采集的当前帧图像的深度图像为Fn(x,y,z),将当前帧图像的深度图像与所述深度背景模板depth(x,y,z)做差得到背景剔除后的三维图像F`n(x,y,z):F`n(x,y,z)=|Fn(x,y,z)-depth(x,y,z)|。
5.根据权利要求4所述的羽毛球空间坐标检测方法,其特征在于,步骤S2中根据背景剔除后的图像获取最大连通域具体包括:对背景剔除后的图像做阈值处理得到二值图像,再根据所述二值图像得到最大连通区域;
进一步地,对背景剔除后的图像做阈值处理得到二值图像具体包括:采用下式对背景剔除后的图像做阈值处理:
Figure FDA0002833582530000022
其中,Rn(x,y)为得到的二值图像,Dn(x,y)=F`n(x,y),T为阈值。
6.根据权利要求5所述的羽毛球空间坐标检测方法,其特征在于,步骤S2中在对背景剔除后的图像做阈值处理得到二值图像之后还包括:采用腐蚀膨胀算法对所述二值图像进行滤波。
7.一种羽毛球空间坐标检测系统,其特征在于,包括:
深度背景生成模块,被配置为获取深度相机所采集的场景的三维深度模型,并根据三维深度模型建立深度背景模板;
目标检测模块,被配置为获取深度相机所采集的深度图像,结合深度图像与所述深度背景模板得到背景剔除后的图像,根据背景剔除后的图像获取最大连通区域,并根据所述最大连通区域的边界确定羽毛球的中心点坐标,再通过羽毛球的中心点坐标获取羽毛球的空间坐标位置。
8.根据权利要求7所述的羽毛球空间坐标检测系统,其特征在于,所述深度背景生成模块包括背景模板建立模块和背景模板更新模块,其中:所述背景模板建立模块被配置为获取深度相机所采集的场景的三维深度模型,并根据三维深度模型建立深度背景模板,所述背景模板更新模块被配置为对所述深度背景模板的可靠性进行检测,以对所述深度背景模板进行更新。
9.根据权利要求7所述的羽毛球空间坐标检测系统,其特征在于,根据背景剔除后的图像获取最大连通区域具体包括:对背景剔除后的图像做阈值处理得到二值图像,再根据所述二值图像得到最大连通区域;进一步地,在对背景剔除后的图像做阈值处理得到二值图像之后还包括:采用腐蚀膨胀算法对所述二值图像进行滤波。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,所述计算机可执行指令促使处理器实现权利要求1至6任一项所述的羽毛球空间坐标检测方法的步骤。
CN202011470357.8A 2020-12-14 2020-12-14 一种羽毛球空间坐标检测方法及系统 Active CN112734834B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011470357.8A CN112734834B (zh) 2020-12-14 2020-12-14 一种羽毛球空间坐标检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011470357.8A CN112734834B (zh) 2020-12-14 2020-12-14 一种羽毛球空间坐标检测方法及系统

Publications (2)

Publication Number Publication Date
CN112734834A true CN112734834A (zh) 2021-04-30
CN112734834B CN112734834B (zh) 2023-07-07

Family

ID=75599864

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011470357.8A Active CN112734834B (zh) 2020-12-14 2020-12-14 一种羽毛球空间坐标检测方法及系统

Country Status (1)

Country Link
CN (1) CN112734834B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036490A (zh) * 2014-05-13 2014-09-10 重庆大学 适用于移动通信网络传输中的前景分割方法
CN106683070A (zh) * 2015-11-04 2017-05-17 杭州海康威视数字技术股份有限公司 基于深度相机的身高测量方法及装置
CN107729295A (zh) * 2017-10-19 2018-02-23 广东工业大学 一种羽毛球的实时落点预判方法、平台及设备
CN109087328A (zh) * 2018-05-31 2018-12-25 湖北工业大学 基于计算机视觉的羽毛球落点位置预测方法
CN111260684A (zh) * 2020-03-02 2020-06-09 成都信息工程大学 基于帧差法和背景差分法结合的前景像素提取方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036490A (zh) * 2014-05-13 2014-09-10 重庆大学 适用于移动通信网络传输中的前景分割方法
CN106683070A (zh) * 2015-11-04 2017-05-17 杭州海康威视数字技术股份有限公司 基于深度相机的身高测量方法及装置
CN107729295A (zh) * 2017-10-19 2018-02-23 广东工业大学 一种羽毛球的实时落点预判方法、平台及设备
CN109087328A (zh) * 2018-05-31 2018-12-25 湖北工业大学 基于计算机视觉的羽毛球落点位置预测方法
CN111260684A (zh) * 2020-03-02 2020-06-09 成都信息工程大学 基于帧差法和背景差分法结合的前景像素提取方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LI, L: "\"Application of two-dimensional detection based on the background subtraction in badminton Hawkeye system\"" *

Also Published As

Publication number Publication date
CN112734834B (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
WO2021208275A1 (zh) 一种交通视频背景建模方法及系统
CN106780620B (zh) 一种乒乓球运动轨迹识别定位与跟踪系统及方法
CN104200485B (zh) 一种面向视频监控的人体跟踪方法
CN107452015B (zh) 一种具有重检测机制的目标跟踪系统
US11093737B2 (en) Gesture recognition method and apparatus, electronic device, and computer-readable storage medium
CN106960449B (zh) 基于多特征约束的异源配准方法
CN106056053A (zh) 基于骨骼特征点提取的人体姿势识别方法
CN102915545A (zh) 一种基于OpenCV的视频目标跟踪算法
CN108830856B (zh) 一种基于时间序列sd-oct视网膜图像的ga自动分割方法
CN109708658B (zh) 一种基于卷积神经网络的视觉里程计方法
Shi et al. Moving target detection algorithm in image sequences based on edge detection and frame difference
CN104834893A (zh) 一种正面视角的行人步态周期检测方法
CN103295200A (zh) 数字图像配准方法及装置、数字减影图像矫正方法及设备
CN109086724A (zh) 一种加速的人脸检测方法及存储介质
CN104408741A (zh) 一种时序一致性约束的视频全局运动估计方法
CN107230219A (zh) 一种单目机器人上的目标人发现与跟随方法
CN102113900A (zh) 彩色血流动态帧相关方法和装置
CN110210584A (zh) 一种基于改进surf复合算法的高速动态二维码识别方法
CN115375733A (zh) 基于视频和点云数据的雪车雪橇三维滑行轨迹提取方法
CN114979489A (zh) 基于陀螺仪的重型装备生产场景视频监控稳像方法及系统
CN106846372A (zh) 人体运动质量视觉分析与评价系统及其方法
CN113484867A (zh) 一种基于成像声呐封闭空间下鱼群密度探测方法
CN106529441A (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN103096117A (zh) 视频噪声检测方法及装置
CN114569114A (zh) 一种身高测量方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant