CN111898437A - 一种目标检测方法、装置 - Google Patents
一种目标检测方法、装置 Download PDFInfo
- Publication number
- CN111898437A CN111898437A CN202010604547.8A CN202010604547A CN111898437A CN 111898437 A CN111898437 A CN 111898437A CN 202010604547 A CN202010604547 A CN 202010604547A CN 111898437 A CN111898437 A CN 111898437A
- Authority
- CN
- China
- Prior art keywords
- target
- video stream
- aerial vehicle
- unmanned aerial
- target place
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 claims abstract description 59
- 238000012545 processing Methods 0.000 claims abstract description 57
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 40
- 238000013507 mapping Methods 0.000 claims abstract description 16
- 239000000725 suspension Substances 0.000 claims description 15
- 238000005339 levitation Methods 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 14
- 230000008569 process Effects 0.000 description 9
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000001931 thermography Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种目标检测方法、装置及系统。其中,所述方法包括:获取航拍无人机俯拍目标场所得到的视频流,所述航拍无人机悬浮于所述目标场所上空,且所述航拍无人机的拍摄视场覆盖所述目标场所;采用基于颜色特征的目标检测算法和目标跟踪算法,确定所述目标对象在所述视频流中的运动轨迹;基于所述视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述目标对象在所述视频流中的运动轨迹,确定所述目标对象在平面坐标系中的运动轨迹数据。本申请具有实施简单、实施成本低和数据处理速度快、准确性高的优点。
Description
技术领域
本申请涉及图像处理技术领域,具体涉及一种目标检测方法、装置及系统。
背景技术
随着计算机技术和视频监控技术的快速进步,视频监控在日常生活中的应用越来越广泛。
例如,在一些应用中,需要对固定场所范围内的固定数量的人员的随机运动进行追踪和分析。目前主流的方法是,在目标场所场边安装8台甚至16台具有热成像功能的摄像机采集场上人员的热成像信息,然后利用热成像信息经过坐标系仿射变换、人工辅助标识人员、遮挡人员重识别等诸多数据处理过程实现目标人员跟踪,得到目标人员的运动轨迹。但是这种方法由于需要配置大量的热成像摄像机和后台计算设备,且数据处理过程复杂、数据处理量大,存在实施复杂、实施成本较高和数据处理效率低等不足。
发明内容
本申请的目的是提供一种目标检测方法、装置及系统。
本申请第一方面提供一种目标检测方法,包括:
获取航拍无人机俯拍目标场所得到的视频流,所述航拍无人机悬浮于所述目标场所上空,且所述航拍无人机的拍摄视场覆盖所述目标场所;
采用基于颜色特征的目标检测算法和目标跟踪算法,确定目标对象在所述视频流中的运动轨迹;
基于所述视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述目标对象在所述视频流中的运动轨迹,确定所述目标对象在平面坐标系中的运动轨迹数据。
本申请第二方面提供一种目标检测装置,包括:
视频流获取模块,用于获取航拍无人机俯拍目标场所得到的视频流,所述航拍无人机悬浮于所述目标场所上空,且所述航拍无人机的拍摄视场覆盖所述目标场所;
目标检测跟踪模块,用于采用基于颜色特征的目标检测算法和目标跟踪算法,确定目标对象在所述视频流中的运动轨迹;
轨迹数据确定模块,用于基于所述视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述目标对象在所述视频流中的运动轨迹,确定所述目标对象在平面坐标系中的运动轨迹数据。
本申请第三方面提供一种目标检测系统,包括:航拍无人机和与所述航拍无人机连接的计算机设备;其中,
所述航拍无人机悬浮于目标场所上空,用于俯拍所述目标场所,并将拍摄得到的视频流发送给所述后台数据处理设备;
所述后台数据处理设备用于根据所述视频流,采用本申请第一方面提供的方法检测所述目标场所中目标对象的运动轨迹数据,并输出所述目标对象的运动轨迹数据。
相较于现有技术,本申请提供的目标检测方法,由于视频流是采用航拍无人机俯拍目标场所得到的,因此,其画面是二维平面画面且画面无畸变,所以,不需要进行坐标系仿射变换即可直接进行目标对象的识别和所述目标场所的平面坐标系映射,而且也不会存在场边摄像机拍摄的视频中目标对象频繁互相遮挡的问题,不需要频繁进行目标重识别,因此,可有效简化数据处理过程、提高处理效率,且由于未经仿射变换的图像保真度更高,因此在该视频流的基础上测得的运动轨迹数据相较于现有技术检测得到的运动轨迹数据更加准确;另外,只需要根据目标对象与目标场所的颜色差异,利用颜色特征即可准确识别出视频流中的目标对象并进行跟踪,相较于现有技术利用热成像信息识别目标并人工辅助进行标识的方式,算法更加简单、数据处理效率更高、处理结果更加准确;此外,由于本申请数据处理量更小、数据处理算法更加简单高效,对后台数据处理设备的要求较低,只需要一台航拍无人机和后台数据处理设备即可实施,因此,还具备实施简单、实施成本较低的优点。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本申请的一些实施方式所提供的一种目标检测方法的流程图;
图2示出了本申请的一些实施方式所提供的一种目标检测装置的示意图;
图3示出了本申请的一些实施方式所提供的一种后台数据处理设备的示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本申请所属领域技术人员所理解的通常意义。
另外,术语“第一”和“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例提供一种目标检测方法、装置及系统,下面结合实施例及附图进行示例性说明。
请参考图1,其示出了本申请的一些实施方式所提供的一种目标检测方法的流程图,如图1所示,所述目标检测方法,可以包括以下步骤:
步骤S101:获取航拍无人机俯拍目标场所得到的视频流,所述航拍无人机悬浮于所述目标场所上空,且所述航拍无人机的拍摄视场覆盖所述目标场所;
步骤S102:采用基于颜色特征的目标检测算法和目标跟踪算法,确定目标对象在所述视频流中的运动轨迹;
步骤S103:基于所述视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述目标对象在所述视频流中的运动轨迹,确定所述目标对象在平面坐标系中的运动轨迹数据。
相较于现有技术,本申请实施例提供的目标检测方法,由于视频流是采用航拍无人机俯拍目标场所得到的,因此,其画面是二维平面画面且画面无畸变,所以,不需要进行坐标系仿射变换即可直接进行目标对象的识别和所述目标场所的平面坐标系映射,而且也不会存在场边摄像机拍摄的视频中目标对象频繁互相遮挡的问题,不需要频繁进行目标重识别,因此,可有效简化数据处理过程、提高处理效率,且由于未经仿射变换的图像保真度更高,因此在该视频流的基础上测得的运动轨迹数据相较于现有技术检测得到的运动轨迹数据更加准确;另外,只需要根据目标对象与目标场所的颜色差异,利用颜色特征即可准确识别出视频流中的目标对象并进行跟踪,相较于现有技术利用热成像信息识别目标并人工辅助进行标识的方式,算法更加简单、数据处理效率更高、处理结果更加准确;此外,由于本申请数据处理量更小、数据处理算法更加简单高效,对后台数据处理设备的要求较低,只需要一台航拍无人机和后台数据处理设备即可实施,因此,还具备实施简单、实施成本较低的优点。
在本申请实施例的一些变更实施方式中,所述航拍无人机相对于所述目标场所的悬浮高度满足以下条件:
式中,h表示航拍无人机的悬浮高度,L表示目标场所的长度,θ表示航拍无人机摄像头的视场角,a表示正畸系数。
在本申请实施例的一些变更实施方式中,所述获取航拍无人机俯拍得到的视频流之前,还包括:
获取航拍无人机俯拍目标场所得到的调试画面;
计算所述调试画面的畸变率;
根据所述畸变率调整所述正畸系数的大小,并根据调整后的正畸系数控制所述航拍无人机调整悬浮高度,直至所述调试画面的畸变率小于预设畸变率阈值。
在本申请实施例的一些变更实施方式中,所述方法还包括:
根据所述目标场所的定位中心偏离所述视频流画面中心的偏移信息,控制所述航拍无人机水平移动,直至所述目标场所的定位中心偏离所述视频流画面中心的偏离量小于预设偏移量阈值。
在另一些实施方式中,所述采用基于颜色特征的目标检测算法和目标跟踪算法,确定目标对象在所述视频流中的运动轨迹之前,还包括:
根据目标场所标记对所述视频流中的每一帧进行对齐处理。
通过本实施方式,可以确保视频流中的每一帧保持对齐,从而确保最终检测得到的运动轨迹的准确性。
在本申请实施例的一些变更实施方式中,所述目标场所包括目标场所,所述视频流包括实时视频流,所述目标对象包括人员。
下面结合具体的应用场景对本申请实施例进行说明,在一些实施方式中,所述目标检测方法用于基于视频流对人员的运动轨迹数据进行检测,所述目标检测方法,可以包括以下步骤:
步骤S201:获取航拍无人机俯拍目标场所得到的实时视频流,所述航拍无人机悬浮于所述目标场所中心上空,且所述航拍无人机的拍摄视场覆盖所述目标场所。
其中,所述航拍无人机是指搭载有摄像机的无人飞行器,可采用多旋翼飞行器实现,以实现在目标场所上空固定位置悬浮的目的,确保拍摄得到的实时视频流中各帧画面的同步,避免画面抖动、错位的问题,便于后续直接进行人员的识别和运动轨迹跟踪。
在一些实施方式中,所述航拍无人机可以悬浮于所述目标场所中心上空,从而确保拍摄得到的实时视频流以目标场所中心呈中心对称,从而最大程度上确保根据该实时视频流识别得到的人员图像的位置具有较高的准确性。
此外,所述航拍无人机的拍摄视场覆盖所述目标场所,从而利用一台航拍无人机拍摄的画面即可实现对全目标场所所有人员的识别和跟踪,相较于现有技术中采用多台摄像机拍摄后拼接形成全场画面的方式,采用的摄像机更少,而且不需要进行图像变换和拼接,因此,实施成本更低、处理效率更快、准确度更高。
步骤S202:根据所述实时视频流中人员图像与目标场所底色的颜色差异,采用基于颜色特征的目标检测算法和目标跟踪算法,确定所述人员图像在所述实时视频流中的运动轨迹。
考虑到,目标场所底色作为背景色,一般为绿色,或者浅绿色与深绿色间隔,因此,颜色较为单一,而在俯拍的实时视频流画面中,看到的则是人员的头部和部分躯干,所以人员位置以头部颜色和着装颜色为主,头部颜色一般为黑色、黄色等可以显著与底色区分的颜色,而为了便于识别人员,人员着装的颜色也较少使用绿色,因此,根据颜色特征的差别,即可方便地将人员与底色进行区别,采用基于颜色特征的目标检测算法,即可将与人员对应的人员图像从实时视频流中识别出来,并进行目标跟踪。
其中,由于只需要采用颜色特征即可实现对人员图像的识别和跟踪,相较于现有技术中场边摄像机拍摄的视频中需要根据人脸特征、身高特征、体型特征等多维度特征进行人员识别的方式,所采用的特征更少,因此目标识别和跟踪的运算量更少、效率更高,且可以实现较高的准确度。
需要说明的是,本申请实施例可以采用现有技术提供的任意基于颜色特征的目标检测算法对实时视频流中的人员图像进行识别,也可以采用现有技术提供的任意基于颜色特征的目标跟踪算法对实时视频流中的人员图像进行跟踪,本申请实施例不做限定,其均可以实现本申请实施例的目的,均应在本申请的保护范围之内。
步骤S203:基于所述实时视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述人员图像在所述实时视频流中的运动轨迹,确定所述人员图像对应的人员的运动轨迹数据。
考虑到实时视频流的画面是以像素进行度量的,而人员在目标场所中的具体位置是采用所述目标场所的平面坐标系进行度量的,因此,为了获得人员的运动轨迹数据,还需要建立实时视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,利用该映射关系和所述人员图像在实时视频流的像素坐标,确定所述人员图像对应的人员在目标场所中的物理坐标,然后利用人员各个轨迹点的物理坐标,按照时序排列形成人员的运动轨迹数据。
例如,将人员图像在实时视频流中的像素坐标(m,n)通过坐标系映射转换为人员用户在目标场所的平面坐标系中的位置坐标(x,y),其中,所述映射关系可以根据目标场所的目标场所标记确定,例如,目标场所中线在实时视频流中的像素长度为1000像素(pixel),目标场所中线在平面坐标系中的长度为50米,则一个像素代表0.05米,本领域技术人员可以根据实际需求灵活设置像素坐标系的原点的位置,其并不影响最终运动轨迹数据的计算,均在本申请的保护范围之内。
其中,所述运动轨迹数据可以包括每一帧对应的时间信息、人员的物理坐标等信息,还可以基于上述信息,计算所述人员在每一个轨迹点(物理坐标) 处对应的速度、加速度、运动方向等信息,以便于对人员的运动状况进行全面的分析和评价。
相较于现有技术,本申请实施例提供的目标检测方法,由于实时视频流是采用航拍无人机俯拍目标场所得到的,因此,其画面是二维平面画面且画面无畸变,所以,不需要进行坐标系仿射变换即可直接进行人员识别和所述目标场所的平面坐标系映射,而且也不会存在场边摄像机拍摄的视频中人员频繁互相遮挡的问题,不需要频繁进行目标重识别,因此,可有效简化数据处理过程、提高处理效率,且由于未经仿射变换的图像保真度更高,因此在该实时视频流的基础上测得的运动轨迹数据相较于现有技术检测得到的运动轨迹数据更加准确;另外,只需要根据人员图像与目标场所底色的颜色差异,利用颜色特征即可准确识别出实时视频流中的人员图像并进行跟踪,相较于现有技术利用热成像信息识别目标并人工辅助进行标识的方式,算法更加简单、数据处理效率更高、处理结果更加准确;此外,由于本申请数据处理量更小、数据处理算法更加简单高效,对后台数据处理设备的要求较低,只需要一台航拍无人机和后台数据处理设备即可实施,因此,还具备实施简单、实施成本较低的优点。
考虑到,摄像机因为光学结构的原因,拍摄的画面往往会存在畸变,且畸变一般是位于画面边缘区域,因此,为了准确测量人员的运动轨迹,需要确保实时视频流画面中至少目标场所范围内没有畸变,因此,所述航拍无人机相对于所述目标场所的悬浮高度需要满足以下条件:
式中,h表示航拍无人机的悬浮高度,L表示目标场所的长度,θ表示航拍无人机摄像头的视场角,a表示正畸系数。
其中,a为1时,航拍无人机的视场角正好覆盖目标场所范围,若检测到存在边缘畸变时,可以将a设置为大于1的数值,例如1.1、1.2、1.5等,本申请实施例不做限定,本领域技术人员可以在确保目标场所范围内无畸变的条件下灵活设置所述正畸系数a的大小,需要说明的是,正畸系数a与航拍无人机的悬浮高度h呈正比,正畸系数a越大,航拍无人机的悬浮高度h越高,相应的,画面中人员图像的尺寸越小,考虑到人员图像尺寸过小可能会影响跟踪效果,所以,正畸系数a的值不宜过大,实际应用中一般控制在1.5以下,从而兼顾畸变和人员识别跟踪效果之间的平衡,获得更准确的检测结果。
在上述实施方式的基础上,在一些变更实施方式中,所述获取航拍无人机俯拍得到的实时视频流之前,还包括:
在开始前,获取航拍无人机俯拍目标场所得到的调试画面;
根据所述调试画面中的目标场所标记,确定所述调试画面的畸变率;
根据所述畸变率调整所述正畸系数的大小,并根据调整后的正畸系数控制所述航拍无人机调整悬浮高度,直至所述调试画面的畸变率小于预设畸变率阈值。
通过本实施方式,可以在开始前对航拍无人机的高度进行调整,确保后续录制的实时视频流中的目标场所范围内不存在畸变,从而提高检测得到的人员的运动轨迹数据的准确性。
与上述实施方式出于相同的目的,在另一些实施方式中,所述获取航拍无人机俯拍得到的实时视频流之前,还包括:
在开始前,获取航拍无人机俯拍目标场所得到的调试画面;
根据所述调试画面中的目标场所标记,确定所述调试画面的畸变率;
根据所述畸变率对所述航拍无人机的摄像机进行畸变校正,直至所述调试画面的畸变率小于预设畸变率阈值。
本实施方式可以应用于具有畸变校正功能的航拍无人机,可以通过调整所述航拍无人机的摄像机的正畸参数进行畸变校正,具体实施方式可以根据不同航拍无人机的机型、根据产品使用说明进行调整,此处不再赘述,其也在本申请的保护范围之内。本实施方式可以控制航拍无人机在较低的位置进行拍摄,从而可以获得更为清晰、比例更大的目标场所画面,有助于提高人员图像的目标检测和目标跟踪的准确性和效率。
在上述任意实施方式的基础上,在一些变更实施方式中,所述根据所述调试画面中的目标场所标记,确定所述调试画面的畸变率,包括:
根据目标场所底色与目标场所标记的颜色差异,识别所述调试画面中的目标场所标记;
检测所述目标场所标记中目标场所端线的长度和目标场所中线的长度;
根据所述目标场所端线的长度和所述目标场所中线的长度的差异,确定所述调试画面的畸变率。
其中,目标场所底色一般为绿色,在目标场所中可以绘制目标场所标记,所述目标场所标记可以包括围绕目标场所周围的长方形,其中,该长方形中较长的称为边线,较短的称为端线,与端线平行的位于目标场所中心的线段称为中线,目标场所标记一般为白色,根据颜色特征,即可将识别所述调试画面中的目标场所标记,本领域技术人员可以参照现有技术提供的基于颜色特征的目标识别方法灵活变更实施,此处不再赘述。
然后,测量所述目标场所标记中目标场所端线的长度和目标场所中线的长度,此处的长度可以是像素长度(像素坐标系中的长度,单位是像素),也可以是物理长度(平面坐标系中的长度,单位是米),本申请不做限定,其均可用于畸变率的计算。
本实施方式,只需要识别调试画面中的目标场所标记,然后利用目标场所端线的长度和目标场所中线的长度,即可测量调试画面的畸变率,具有测量方式简单、测量效率高的优点。
具体的,在一些实施方式中,所述根据所述目标场所端线的长度和所述目标场所中线的长度的差异,确定所述调试画面的畸变率,包括:
根据所述目标场所端线的长度和所述目标场所中线的长度,采用以下公式确定所述调试画面的畸变率:
式中,d表示畸变率,x1表示目标场所一侧端线的长度,x2表示目标场所另一侧端线的长度,y表示目标场所中线的长度。
其中,d的绝对值越小,表示畸变率越小,d为0时表示无畸变,d为大于0或小于0都表示有畸变。
通过上述实施方式测量的畸变率,充分考虑了两侧端线与中线的差异,而且最终计算得到的是相对值(比值),因此能够真实、有效地表征所述调试画面的畸变率。
此外,本领域技术人员也可以参照上述实施方式灵活变更实施,例如,
式中,d表示畸变率,x1表示目标场所一侧端线的长度,x2表示目标场所另一侧端线的长度,y表示目标场所中线的长度。
其中,d为0时表示无畸变,d为大于1或小于1都表示有畸变,且d与1 的差值的绝对值越大,表示畸变越严重。
以上仅为示例性说明,其均在本申请的保护范围之内。
考虑到,航拍无人机在目标场所中心时,拍摄的画面是中心对阵的,这有助于最大程度上减轻画面畸变,避免航拍无人机偏离中心导致拍摄画面不对称导致的目标场所范围内的畸变,因此,在一些变更实施方式中,所述方法还包括:根据所述实时视频流中目标场所中心点偏离画面中心的偏移信息,控制所述航拍无人机水平移动,直至所述目标场所中心点偏离画面中心的偏离量小于预设偏移量阈值。
其中,所述偏移信息可以是目标场所中心点的坐标与画面中心的坐标的差别信息,例如,目标场所中心点的像素坐标是(1050,550)画面中心的像素坐标(1000,500),则偏移信息可以表示为(1050-1000,550-500),即(50,50),此时目标场所中心点与画面中心的偏移量可以表示为像素,若预设偏移量阈值为20像素,则需要控制所述航拍无人机水平移动,直至所述目标场所中心点偏离画面中心的偏离量小于预设偏移量阈值20像素。
通过本实施方式,可以确保航拍无人机拍摄的画面保持中心对阵,有助于最大程度上减轻画面畸变,避免航拍无人机偏离中心导致拍摄画面不对称导致的目标场所范围内的畸变,从而最大程度上确保根据该实时视频流识别得到的人员图像的位置具有较高的准确性。
在另一些实施方式中,所述根据所述实时视频流中人员图像与目标场所底色的颜色差异,采用基于颜色特征的目标检测算法和目标跟踪算法,确定所述人员图像在所述实时视频流中的运动轨迹之前,还包括:
根据目标场所标记对所述实时视频流中的每一帧进行对齐处理。
通过本实施方式,可以确保实时视频流中的每一帧保持对齐,从而确保最终检测得到的运动轨迹的准确性。
在本申请实施例的一些变更实施方式中,所述根据所述实时视频流中人员图像与目标场所底色的颜色差异,采用基于颜色特征的目标检测算法和目标跟踪算法,确定所述人员图像在所述实时视频流中的运动轨迹,包括:
根据人员与所述目标场所底色的颜色差异,基于颜色特征识别所述实时视频流每一帧中的人员图像;
将所述人员图像作为跟踪目标,采用目标跟踪算法,确定所述人员图像在所述实时视频流中的运动轨迹。
本实施方式,首先基于颜色特征识别出人员图像,然后再利用目标跟踪算法确定人员图像的运动轨迹,具有较高的准确性和较高的效率。
在一些实施方式中,所述根据人员与所述目标场所底色的颜色差异,基于颜色特征识别所述实时视频流每一帧中的人员图像,可以包括:
根据所述实时视频流中人员图像与目标场所底色的颜色差异,采用背景差分法识别所述实时视频流每一帧中的人员图像。
背景差分法(Background Subtraction)是利用当前图像与背景图像的差分来检测出运动区域的一种技术,是目前运动目标检测的主流方法,其基本思想是将当前每一帧图像与事先存储或实时获取的背景图像相减,计算出与背景偏离超过一定阀值的区域作为运动区域。该算法实现简单,相减结果直接给出目标的位置、大小、形状等信息,能够提供关于运动目标区域的完整描述,精确度和灵敏度比较高,具有良好的性能表现。在具体实施时,本领域技术人员可以参考现有技术提供的任意背景差分法灵活变更实施,其均可以实现本申请实施例的目的,均在本申请的保护范围之内。
由于目标场所底色颜色较为单一,因此用背景差分法可以准确地识别出实时视频流每一帧中的人员图像,具有精准度高、运算简单、高效的优点。
在另一些实施方式中,所述根据人员与所述目标场所底色的颜色差异,基于颜色特征识别所述实时视频流每一帧中的人员图像,可以包括:
针对所述实时视频流中的每一帧,将该帧按照所述目标场所底色的颜色进行二值化处理,并根据二值化处理结果区别于所述目标场所底色的人员图像。
考虑到目标场所底色颜色较为单一,可以根据底色颜色的颜色区间,基于该颜色区间对每一帧进行二值化处理,其中,例如,颜色区间内(绿色)的像素赋值为白色(RGB为:255,255,255),颜色区间外的像素赋值为黑色(RGB 为:0,0,0),二值化处理后,黑色的即为人员图像(黑色还包括其他物体图像,由于其他物体面积较小,可以根据黑色图像的大小筛掉其他物体图像,剩余的即为人员图像)。
由于目标场所底色颜色较为单一,因此本方法可以准确地识别出实时视频流每一帧中的人员图像,由于二值化处理效率高、准确度也较高,因此本方法还具有具有精准度高、实施简单、高效的优点。
在前述实施方式的基础上,在一些变更实施方式中,所述将所述人员图像作为跟踪目标,采用目标跟踪算法,确定所述人员图像在所述实时视频流中的运动轨迹,包括:
将所述人员图像作为跟踪目标,在当前帧中生成包围所述跟踪目标的目标框,并将所述目标框的中心点确定为所述人员图像在当前帧中的轨迹点;
在下一帧中所述目标框对应位置的附近生成多个候选框;
计算每个所述候选框与所述目标框的图像相似度;
将图像相似度最高的候选框的中心点确定为所述人员图像在下一帧中的轨迹点;
在确定所述人员图像在每一帧中的轨迹点后,将所述人员图像在每一帧中的轨迹点进行连接,形成所述人员图像在所述实时视频流中的运动轨迹。
由于所述实时视频流为平面影像,因此人员之间几乎不会产生遮挡的问题,因此,采用上述实施方式即可实现对各个人员的精准跟踪,准确形成所述人员图像在所述实时视频流中的运动轨迹。
在上述实施方式的基础上,在一些变更实施方式中,所述在下一帧中所述目标框对应位置的附近生成多个候选框,可以包括:
根据所述人员图像的历史运动轨迹数据,采用运动轨迹预测方法,预测所述人员图像在下一帧中的预测位置;
确定所述人员图像在当前帧中的轨迹点与所述预测位置之间的连线;
沿所述连线生成多个候选框。
其中,所述预测位置可以是一个,也可以是多个,例如,可以是正前方的一个位置,也可以是正前方、左前方、右前方三个方向的多个位置,本申请实施例不做限定,通过本实施方式,只需要按照预测的轨迹生成少量的候选框,即可准确地在候选框中找出下一帧中的轨迹点,相较于相关技术中在目标周围各个方向都生成候选框的方式,候选框数量大幅减少,从而使得整体运算量大幅下降,可有效提高整体运算效率,从而更加快捷、高效且准确地确定出人员的运动轨迹数据。
在上述的实施例中,提供了一种目标检测方法,与之相对应的,本申请还提供一种目标检测装置。本申请实施例提供的目标检测装置可以实施上述目标检测方法,该目标检测装置可以通过软件、硬件或软硬结合的方式来实现。例如,该目标检测装置可以包括集成的或分开的功能模块或单元来执行上述各方法中的对应步骤。请参考图2,其示出了本申请的一些实施方式所提供的一种目标检测装置的示意图。由于装置实施例基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。下述描述的装置实施例仅仅是示意性的。
如图2所示,所述目标检测装置10可以包括:
视频流获取模块101,用于获取航拍无人机俯拍目标场所得到的视频流,所述航拍无人机悬浮于所述目标场所上空,且所述航拍无人机的拍摄视场覆盖所述目标场所;
目标检测跟踪模块102,用于采用基于颜色特征的目标检测算法和目标跟踪算法,确定目标对象在所述视频流中的运动轨迹;
轨迹数据确定模块103,用于基于所述视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述目标对象在所述视频流中的运动轨迹,确定所述目标对象在平面坐标系中的运动轨迹数据。
在本申请实施例的一些变更实施方式中,所述航拍无人机相对于所述目标场所的悬浮高度满足以下条件:
式中,h表示航拍无人机的悬浮高度,L表示目标场所的长度,θ表示航拍无人机摄像头的视场角,a表示正畸系数。
在本申请实施例的一些变更实施方式中,所述装置10,还包括:
调试画面获取模块,用于获取航拍无人机俯拍目标场所得到的调试画面;
畸变率确定模块,用于确定所述调试画面的畸变率;
悬浮高度调整模块,用于根据所述畸变率调整所述正畸系数的大小,并根据调整后的正畸系数控制所述航拍无人机调整悬浮高度,直至所述调试画面的畸变率小于预设畸变率阈值。
在本申请实施例的一些变更实施方式中,所述装置10,还包括:
偏移量调整模块,用于根据所述实时视频流中目标场所中心点偏离画面中心的偏移信息,控制所述航拍无人机水平移动,直至所述目标场所中心点偏离画面中心的偏离量小于预设偏移量阈值。
在本申请实施例的一些变更实施方式中,所述目标场所包括目标场所,所述视频流包括实时视频流,所述目标对象包括人员。
下面结合具体的应用场景对本申请实施例进行说明,所述目标检测装置用于基于视频流对人员的运动轨迹数据进行检测,所述目标检测装置可以包括:
视频流获取模块,用于获取航拍无人机俯拍目标场所得到的实时视频流,所述航拍无人机悬浮于所述目标场所中心上空,且所述航拍无人机的拍摄视场覆盖所述目标场所;
运动轨迹跟踪模块,用于根据所述实时视频流中人员图像与目标场所底色的颜色差异,采用基于颜色特征的目标检测算法和目标跟踪算法,确定所述人员图像在所述实时视频流中的运动轨迹;
轨迹数据确定模块,用于基于所述实时视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述人员图像在所述实时视频流中的运动轨迹,确定所述人员图像对应的人员的运动轨迹数据。
在本申请实施例的一些变更实施方式中,所述航拍无人机相对于所述目标场所的悬浮高度满足以下条件:
式中,h表示航拍无人机的悬浮高度,L表示目标场所的长度,θ表示航拍无人机摄像头的视场角,a表示正畸系数。
在本申请实施例的一些变更实施方式中,所述装置,还包括:
调试画面获取模块,用于在开始前,获取航拍无人机俯拍目标场所得到的调试画面;
畸变率确定模块,用于根据所述调试画面中的目标场所标记,确定所述调试画面的畸变率;
悬浮高度调整模块,用于根据所述畸变率调整所述正畸系数的大小,并根据调整后的正畸系数控制所述航拍无人机调整悬浮高度,直至所述调试画面的畸变率小于预设畸变率阈值。
在本申请实施例的一些变更实施方式中,所述装置,还包括:
调试画面获取模块,用于在开始前,获取航拍无人机俯拍目标场所得到的调试画面;
畸变率确定模块,用于根据所述调试画面中的目标场所标记,确定所述调试画面的畸变率;
畸变校正模块,用于根据所述畸变率对所述航拍无人机的摄像机进行畸变校正,直至所述调试画面的畸变率小于预设畸变率阈值。
在本申请实施例的一些变更实施方式中,所述畸变率确定模块,包括:
目标场所标记识别单元,用于根据目标场所底色与目标场所标记的颜色差异,识别所述调试画面中的目标场所标记;
标记长度检测单元,用于检测所述目标场所标记中目标场所端线的长度和目标场所中线的长度;
畸变率计算单元,用于根据所述目标场所端线的长度和所述目标场所中线的长度的差异,确定所述调试画面的畸变率。
在本申请实施例的一些变更实施方式中,所述畸变率计算单元,包括:
畸变率计算子单元,用于根据所述目标场所端线的长度和所述目标场所中线的长度,采用以下公式确定所述调试画面的畸变率:
式中,d表示畸变率,x1表示目标场所一侧端线的长度,x2表示目标场所另一侧端线的长度,y表示目标场所中线的长度。
在本申请实施例的一些变更实施方式中,所述装置还包括:
偏移量调整模块,用于根据所述实时视频流中目标场所中心点偏离画面中心的偏移信息,控制所述航拍无人机水平移动,直至所述目标场所中心点偏离画面中心的偏离量小于预设偏移量阈值。
在本申请实施例的一些变更实施方式中,所述装置还包括:
对齐处理模块,用于根据目标场所标记对所述实时视频流中的每一帧进行对齐处理。
在本申请实施例的一些变更实施方式中,所述运动轨迹跟踪模块,包括:
目标识别单元,用于根据人员与所述目标场所底色的颜色差异,基于颜色特征识别所述实时视频流每一帧中的人员图像;
目标跟踪单元,用于将所述人员图像作为跟踪目标,采用目标跟踪算法,确定所述人员图像在所述实时视频流中的运动轨迹。
在本申请实施例的一些变更实施方式中,所述目标识别单元,包括:
第一目标识别子单元,用于根据所述实时视频流中人员图像与目标场所底色的颜色差异,采用背景差分法识别所述实时视频流每一帧中的人员图像。
在本申请实施例的一些变更实施方式中,所述目标识别单元,包括:
第二目标识别子单元,用于针对所述实时视频流中的每一帧,将该帧按照所述目标场所底色的颜色进行二值化处理,并根据二值化处理结果区别于所述目标场所底色的人员图像。
在本申请实施例的一些变更实施方式中,所述目标跟踪单元,包括:
目标框确定子单元,用于将所述人员图像作为跟踪目标,在当前帧中生成包围所述跟踪目标的目标框,并将所述目标框的中心点确定为所述人员图像在当前帧中的轨迹点;
候选框生成子单元,用于在下一帧中所述目标框对应位置的附近生成多个候选框;
相似度计算子单元,用于计算每个所述候选框与所述目标框的图像相似度;
轨迹点确定子单元,用于将图像相似度最高的候选框的中心点确定为所述人员图像在下一帧中的轨迹点;
运动轨迹确定子单元,用于在确定所述人员图像在每一帧中的轨迹点后,将所述人员图像在每一帧中的轨迹点进行连接,形成所述人员图像在所述实时视频流中的运动轨迹。
在本申请实施例的一些变更实施方式中,所述候选框生成子单元,包括:
位置预测子单元,用于根据所述人员图像的历史运动轨迹数据,采用运动轨迹预测装置,预测所述人员图像在下一帧中的预测位置;
连线确定子单元,用于确定所述人员图像在当前帧中的轨迹点与所述预测位置之间的连线;
连线候选框确定子单元,用于沿所述连线生成多个候选框。
本申请实施例提供的目标检测装置,与本申请前述实施例提供的目标检测方法出于相同的发明构思,具有相同的有益效果。
本申请实施方式还提供一种与前述实施方式所提供的目标检测方法对应的目标检测系统,所述目标检测系统,包括:航拍无人机1和与所述航拍无人机连接的后台数据处理设备2;其中,
所述航拍无人机1悬浮于目标场所上空,用于俯拍所述目标场所,并将拍摄得到的视频流发送给所述后台数据处理设备2;
所述后台数据处理设备2用于根据所述视频流,采用本申请上述任意实施方式提供的目标检测方法检测所述目标场所中目标对象的运动轨迹数据,并输出所述目标对象的运动轨迹数据。
具体的,所述目标场所可以包括目标场所,所述视频流可以包括实时视频流,所述目标对象可以包括人员,所述目标检测系统可以用于对人员的运动轨迹数据进行检测,相应的,
所述航拍无人机1悬浮于目标场所上空,用于俯拍所述目标场所,并将拍摄得到的实时视频流发送给所述后台数据处理设备;
所述后台数据处理设备2用于根据所述实时视频流,采用本申请上述任意实施方式提供的目标检测方法检测所述目标场所中各人员的运动轨迹数据,并输出所述各人员的运动轨迹数据。
其中,请参考图3,其示出了本申请的一些实施方式所提供的一种后台数据处理设备的示意图。如图3所示,所述后台数据处理设备2包括:处理器 200,存储器201,总线202和通信接口203,所述处理器200、通信接口203 和存储器201通过总线202连接;所述存储器201中存储有可在所述处理器 200上运行的计算机程序,所述处理器200运行所述计算机程序时执行本申请前述任一实施方式所提供的目标检测方法。
其中,存储器201可能包含高速随机存取存储器(RAM:Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口203(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
总线202可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。其中,存储器201用于存储程序,所述处理器200在接收到执行指令后,执行所述程序,前述本申请实施例任一实施方式揭示的所述目标检测方法可以应用于处理器200中,或者由处理器200实现。
处理器200可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器200中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器200可以是通用处理器,包括中央处理器 (Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器201,处理器200读取存储器201中的信息,结合其硬件完成上述方法的步骤。
本申请实施例提供的目标检测系统,与本申请前述实施例提供的目标检测方法出于相同的发明构思,具有相同的有益效果。
需要说明的是,附图中的流程图和框图显示了根据本申请的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等) 执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括: U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器 (RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围,其均应涵盖在本申请的权利要求和说明书的范围当中。
Claims (10)
1.一种目标检测方法,其特征在于,包括:
获取航拍无人机俯拍目标场所得到的视频流,所述航拍无人机悬浮于所述目标场所上空,且所述航拍无人机的拍摄视场覆盖所述目标场所;
采用基于颜色特征的目标检测算法和目标跟踪算法,确定目标对象在所述视频流中的运动轨迹;
基于所述视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述目标对象在所述视频流中的运动轨迹,确定所述目标对象在平面坐标系中的运动轨迹数据。
3.根据权利要求2所述的方法,其特征在于,所述获取航拍无人机俯拍得到的视频流之前,还包括:
获取航拍无人机俯拍目标场所得到的调试画面;
计算所述调试画面的畸变率;
根据所述畸变率调整所述正畸系数的大小,并根据调整后的正畸系数控制所述航拍无人机调整悬浮高度,直至所述调试画面的畸变率小于预设畸变率阈值。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述目标场所的定位中心偏离所述视频流画面中心的偏移信息,控制所述航拍无人机水平移动,直至所述目标场所的定位中心偏离所述视频流画面中心的偏离量小于预设偏移量阈值。
5.根据权利要求1所述的方法,其特征在于,所述采用基于颜色特征的目标检测算法和目标跟踪算法,确定目标对象在所述视频流中的运动轨迹之前,还包括:
根据目标场所标记对所述视频流中的每一帧进行对齐处理。
6.一种目标检测装置,其特征在于,所述装置包括:
视频流获取模块,用于获取航拍无人机俯拍目标场所得到的视频流,所述航拍无人机悬浮于所述目标场所上空,且所述航拍无人机的拍摄视场覆盖所述目标场所;
目标检测跟踪模块,用于采用基于颜色特征的目标检测算法和目标跟踪算法,确定目标对象在所述视频流中的运动轨迹;
轨迹数据确定模块,用于基于所述视频流的像素坐标系与所述目标场所的平面坐标系之间的映射关系,根据所述目标对象在所述视频流中的运动轨迹,确定所述目标对象在平面坐标系中的运动轨迹数据。
8.根据权利要求6所述的装置,其特征在于,还包括:
调试画面获取模块,用于获取航拍无人机俯拍目标场所得到的调试画面;
畸变率确定模块,用于确定所述调试画面的畸变率;
悬浮高度调整模块,用于根据所述畸变率调整所述正畸系数的大小,并根据调整后的正畸系数控制所述航拍无人机调整悬浮高度,直至所述调试画面的畸变率小于预设畸变率阈值。
9.根据权利要求6所述的装置,其特征在于,还包括:
偏移量调整模块,用于根据所述实时视频流中目标场所中心点偏离画面中心的偏移信息,控制所述航拍无人机水平移动,直至所述目标场所中心点偏离画面中心的偏离量小于预设偏移量阈值。
10.一种目标检测系统,其特征在于,包括:航拍无人机和与所述航拍无人机连接的后台数据处理设备;其中,
所述航拍无人机悬浮于目标场所上空,用于俯拍所述目标场所,并将拍摄得到的视频流发送给所述后台数据处理设备;
所述后台数据处理设备用于根据所述视频流,采用权利要求1至5任一项所述的方法检测所述目标场所中目标对象的运动轨迹数据,并输出所述目标对象的运动轨迹数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010604547.8A CN111898437A (zh) | 2020-06-29 | 2020-06-29 | 一种目标检测方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010604547.8A CN111898437A (zh) | 2020-06-29 | 2020-06-29 | 一种目标检测方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111898437A true CN111898437A (zh) | 2020-11-06 |
Family
ID=73206499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010604547.8A Pending CN111898437A (zh) | 2020-06-29 | 2020-06-29 | 一种目标检测方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111898437A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203265A (zh) * | 2016-06-28 | 2016-12-07 | 江苏大学 | 一种基于无人机采集图像的施工扬尘污染源自动监测及影响范围预测系统及方法 |
CN107911429A (zh) * | 2017-11-04 | 2018-04-13 | 南京奇蛙智能科技有限公司 | 一种基于视频的无人机云端在线交通流量监测方法 |
CN108320510A (zh) * | 2018-04-03 | 2018-07-24 | 深圳市智绘科技有限公司 | 一种基于无人机航拍视频交通信息统计方法及系统 |
CN109859250A (zh) * | 2018-11-20 | 2019-06-07 | 北京悦图遥感科技发展有限公司 | 一种航空红外视频多目标检测与跟踪方法及装置 |
CN110191311A (zh) * | 2019-04-15 | 2019-08-30 | 贵州电网有限责任公司 | 一种基于多无人机的实时视频拼接方法 |
-
2020
- 2020-06-29 CN CN202010604547.8A patent/CN111898437A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203265A (zh) * | 2016-06-28 | 2016-12-07 | 江苏大学 | 一种基于无人机采集图像的施工扬尘污染源自动监测及影响范围预测系统及方法 |
CN107911429A (zh) * | 2017-11-04 | 2018-04-13 | 南京奇蛙智能科技有限公司 | 一种基于视频的无人机云端在线交通流量监测方法 |
CN108320510A (zh) * | 2018-04-03 | 2018-07-24 | 深圳市智绘科技有限公司 | 一种基于无人机航拍视频交通信息统计方法及系统 |
CN109859250A (zh) * | 2018-11-20 | 2019-06-07 | 北京悦图遥感科技发展有限公司 | 一种航空红外视频多目标检测与跟踪方法及装置 |
CN110191311A (zh) * | 2019-04-15 | 2019-08-30 | 贵州电网有限责任公司 | 一种基于多无人机的实时视频拼接方法 |
Non-Patent Citations (2)
Title |
---|
张善文: "《图像模式识别》", 29 February 2020, 西安:西安电子科技大学出版社, pages: 165 - 167 * |
谭安胜: "舰载无人机光电载荷对海上目标搜索决策分析", 指挥控制与仿真, vol. 32, no. 4 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111898438A (zh) | 一种监控场景多目标跟踪方法及系统 | |
CN108012083B (zh) | 人脸采集方法、装置及计算机可读存储介质 | |
CN110334635B (zh) | 主体追踪方法、装置、电子设备和计算机可读存储介质 | |
CN103517041B (zh) | 基于多相机旋转扫描的实时全景监控方法和装置 | |
US8417059B2 (en) | Image processing device, image processing method, and program | |
US8184859B2 (en) | Road marking recognition apparatus and method | |
WO2019233264A1 (zh) | 图像处理方法、计算机可读存储介质和电子设备 | |
CN104978390B (zh) | 使用出行路径元数据进行情景感知目标检测 | |
CN110692083A (zh) | 用于动态视觉传感器的块匹配光流和立体视觉 | |
CN104392416B (zh) | 一种运动场景的视频拼接方法 | |
US11538175B2 (en) | Method and apparatus for detecting subject, electronic device, and computer readable storage medium | |
US8824823B1 (en) | Increased quality of image objects based on depth in scene | |
JP5909147B2 (ja) | 撮像装置、撮像装置の制御方法、およびプログラム | |
CN111932587A (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN111383204A (zh) | 视频图像融合方法、融合装置、全景监控系统及存储介质 | |
CN113223050A (zh) | 一种基于ArUco码的机器人运动轨迹实时采集方法 | |
US20220245760A1 (en) | Method and image-processing device for evaluating an alignment of stitched images | |
CN111598097B (zh) | 一种基于机器人视觉的仪表位置、读数识别方法和系统 | |
CN109255797B (zh) | 图像处理装置及方法、电子设备 | |
CN113610835A (zh) | 看护摄像机的人形检测方法 | |
CN110310492B (zh) | 一种移动车辆测速方法及装置 | |
JP5148573B2 (ja) | 画像処理システム、画像処理方法およびプログラム | |
CN111898437A (zh) | 一种目标检测方法、装置 | |
CN111898436A (zh) | 一种基于视觉信号的多目标跟踪处理优化方法 | |
CN110020572B (zh) | 基于视频图像的人数统计方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |