CN113129333A - 多目标实时跟踪方法及其系统和电子设备 - Google Patents
多目标实时跟踪方法及其系统和电子设备 Download PDFInfo
- Publication number
- CN113129333A CN113129333A CN202010045588.8A CN202010045588A CN113129333A CN 113129333 A CN113129333 A CN 113129333A CN 202010045588 A CN202010045588 A CN 202010045588A CN 113129333 A CN113129333 A CN 113129333A
- Authority
- CN
- China
- Prior art keywords
- tracked object
- frame image
- tracked
- current frame
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 114
- 238000001514 detection method Methods 0.000 claims abstract description 124
- 230000003287 optical effect Effects 0.000 claims abstract description 70
- 238000013135 deep learning Methods 0.000 claims abstract description 49
- 238000012545 processing Methods 0.000 claims abstract description 32
- 230000004044 response Effects 0.000 claims description 37
- 238000006073 displacement reaction Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 11
- 238000012544 monitoring process Methods 0.000 claims description 8
- 230000014759 maintenance of location Effects 0.000 claims description 4
- 230000008901 benefit Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000026683 transduction Effects 0.000 description 1
- 238000010361 transduction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/20—Adaptations for transmission via a GHz frequency band, e.g. via satellite
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Astronomy & Astrophysics (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
一种多目标实时跟踪方法及其系统和电子设备。该多目标实时跟踪方法包括步骤:在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
Description
技术领域
本发明涉及目标跟踪技术领域,尤其是涉及多目标实时跟踪方法及其系统和电子设备。
背景技术
近年来,诸如AR(Augmented Reality,增强现实)眼镜等等之类的近眼显示光学系统为人类创造了丰富的视感体验。为了进一步提升用户体验,该近眼显示光学系统也需要具备物体识别功能,即用于近眼显示光学系统的多目标跟踪方法,以通过该近眼显示光学系统上配置的图像传感器采集场景图像,并计算识别场景中的物体,如人、笔记本电脑、椅子、杯子、瓶子、书以及手机等等。而为了能够关联物体在前后帧的信息,现有的多目标跟踪方法除了能够输出物体在每一帧的位置包围框之外,还需要输出物体的身份标识(即ID),以实现每一个被识别的物体的多目标跟踪。
目前,多目标跟踪方法按照是否融合目标检测结果,通常可以分为两类:基于检测的跟踪方法(英文Detection-Based Tracking;简称DBT)和与检测无关的跟踪方法(英文Detection-Free Tracking;简称DFT)。该与检测无关的跟踪方法通常需要在视频中人为地初始化一些目标的位置,然后利用跟踪算法逐帧跟踪这些目标,找到这些目标在视频中接下来的每一帧的位置。该基于检测的跟踪方法则不需要人工初始化目标位置,但需要目标检测器对视频中每一帧图像进行检测,并利用跟踪算法将每一帧检测的结果关联起来,最终得到目标的跟踪结果。
然而,由于该与检测无关的跟踪方法不依赖目标检测器,因此一旦出现频繁遮挡、尺寸变化、出平面旋转或光照变化等情况导致跟踪漂移后,就很难获得正确的跟踪结果。而该基于检测的跟踪方法则可以利用检测结果来修正跟踪结果,从而维持持续稳定地跟踪,使得基于检测的跟踪方法受到越来越多的关注,已经成为多目标跟踪领域的主流框架。
但现有的基于检测的跟踪方法均是基于每一帧均存在检测结果为前提,并且目前效果较好的目标检测器主要是利用深度学习模型构建的,而深度学习模型具有模型层数多、卷积计算量大以及计算耗时长的特点,导致目标检测器在诸如AR眼镜或手机等移动端运行时难以达到实时。因而,现有的基于检测的跟踪方法无法计算每一帧的检测结果,进而该现有的基于检测的跟踪方法无法实现实时的多目标跟踪。
发明内容
本发明的一优势在于提供一多目标实时跟踪方法及其系统和电子设备,其能够实现实时的多目标跟踪,以便在诸如AR眼镜或手机等移动端充分应用。
本发明的另一优势在于提供一多目标实时跟踪方法及其系统和电子设备,其中,在本发明的一实施例中,所述多目标实时跟踪方法能够将利用光流法的目标跟踪过程和利用深度学习的目标检测过程分别在不同线程中运行,以在充分利用深度学习在目标检测效果和精度上的优势的同时,又能够实现多目标的实时跟踪。
本发明的另一优势在于提供一多目标实时跟踪方法及其系统和电子设备,其中,在本发明的一实施例中,所述多目标实时跟踪方法创造性地提出利用光流跟踪法提供的物体位置信息作为检测信息,以实时地确定不同物体的身份标识,进而实现多目标的实施跟踪。
本发明的另一优势在于提供一多目标实时跟踪方法及其系统和电子设备,其中,在本发明的一实施例中,所述多目标实时跟踪方法创造性地提出将基于深度学习的目标检测模型在独立线程中运行,而不需要考虑其是否能够处理每一帧图像,以便解决现有的基于检测的跟踪方法对每一帧图像均要检测的问题,进而确保多目标实时跟踪的实现。
本发明的另一优势在于提供一多目标实时跟踪方法及其系统和电子设备,其中为了达到上述优势,在本发明中不需要采用复杂的结构和庞大的计算量,对软硬件要求低。因此,本发明成功和有效地提供一解决方案,不只提供一多目标实时跟踪方法及其系统和电子设备,同时还增加了所述多目标实时跟踪方法及其系统和电子设备的实用性和可靠性。
为了实现上述至少一优势或其他优势和目的,本发明提供了多目标实时跟踪方法,包括步骤:
在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;
在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
在本发明的一实施例中,所述在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识的步骤,包括步骤:
根据该被跟踪物体的包围框的中心,计算该被跟踪物体的该包围框内光流特征点的位移平均值和相对于该包围框的中心的缩放平均值;
将该位移平均值和该缩放平均值叠加至该被跟踪物体在该上一帧图像中的包围框位置,以得到该被跟踪物体在该当前帧图像中的包围框位置;以及
根据所有的该被跟踪物体在该当前帧图像中的包围框位置,确定每个该被跟踪物体的身份标识。
在本发明的一实施例中,所述根据该被跟踪物体的包围框的中心,计算该被跟踪物体的该包围框内光流特征点的位移平均值和相对于该包围框的中心的缩放平均值的步骤,包括步骤:
通过对该当前帧图像进行FAST特征点检测处理,获得初始特征点;
基于该初始特征点,通过Lucas-Kanade算法计算光流,以获得该光流特征点的位置;
根据该被跟踪物体的包围框位置和该光流特征点的位置,以该包围框的中心为中心点,计算在该包围框内每个该光流特征点相对于该中心点的缩放值的平均值,以获得该缩放平均值;以及
根据该被跟踪物体的包围框位置和该光流特征点的位置,计算在该包围框内每个该光流特征点的位移值的平均值,以获得该位移平均值。
在本发明的一实施例中,所述根据所有的该被跟踪物体在该当前帧图像中的包围框位置,确定每个该被跟踪物体的身份标识的步骤,包括步骤:
计算每个该被跟踪物体在该当前帧图像和该上一帧图像之间的相关性系数;
响应于该相关性系数大于预定关联阈值,将相应的该被跟踪物体在该当前帧图像中的包围框位置作为检测物体的边框位置;以及
根据该检测物体的边框位置,通过简单的在线实时跟踪方法计算并匹配在前后帧图像中物体的身份标识,以获得每个该被跟踪物体的身份标识。
在本发明的一实施例中,所述在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体的步骤,包括步骤:
在输入该视频流中的当前帧图像时,判断该基于深度学习的目标检测模型是否正在运行;
响应于该基于深度学习的目标检测模型正在运行,跳过检测该当前帧图像;以及
响应于该基于深度学习的目标检测模型未运行,通过该基于深度学习的目标检测模型对该当前帧图像进行目标检测处理,以得到该候选跟踪物体。
在本发明的一实施例中,所述根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体的步骤,包括步骤:
检测是否存在已有的被跟踪物体;
响应于存在该已有的被跟踪物体,计算该候选跟踪物体与该已有的被跟踪物体之间的交并比;
响应于该交并比大于预定交并比阈值,比较该候选跟踪物体的置信度得分与该已有的被跟踪物体的置信度得分的大小;
响应于该已有的被跟踪物体的置信度得分不小于该候选跟踪物体的置信度得分,将该已有的被跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体;以及
响应于该已有的被跟踪物体的置信度得分小于该候选跟踪物体的置信度得分,或该交并比不大于该预定交并比阈值,或不存在该已有的被跟踪物体,将该候选跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体。
根据本发明的另一方面,本发明进一步提供了多目标实时跟踪系统,包括相互可通信地连接的:
一目标跟踪模块,用于在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;
一目标检测模块,用于在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
一目标更新模块,用于根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
在本发明的一实施例中,所述目标跟踪模块包括相互可通信地连接的一均值计算模块、一位置叠加模块以及一标识确定模块,其中所述均值计算模块用于根据该被跟踪物体的包围框的中心,计算该被跟踪物体的该包围框内光流特征点的位移平均值和相对于该包围框的中心的缩放平均值;其中所述位置叠加模块用于将该位移平均值和该缩放平均值叠加至该被跟踪物体在该上一帧图像中的包围框位置,以得到该被跟踪物体在该当前帧图像中的包围框位置;其中所述标识确定模块用于根据所有的该被跟踪物体在该当前帧图像中的包围框位置,确定每个该被跟踪物体的身份标识。
在本发明的一实施例中,所述目标检测模块进一步用于在输入该视频流中的当前帧图像时,判断该基于深度学习的目标检测模型是否正在运行;响应于该基于深度学习的目标检测模型正在运行,跳过检测该当前帧图像;以及响应于该基于深度学习的目标检测模型未运行,通过该基于深度学习的目标检测模型对该当前帧图像进行目标检测处理,以得到该候选跟踪物体。
在本发明的一实施例中,所述目标更新模块包括相互可通信地连接的一监测模块、一交并比计算模块、一置信度比较模块、一保留模块以及一更新模块,其中所述监测模块用于监测是否存在已有的被跟踪物体;其中所述交并比计算模块用于响应于存在该已有的被跟踪物体,计算该候选跟踪物体与该已有的被跟踪物体之间的交并比;其中所述置信度比较模块用于响应于该交并比大于预定交并比阈值,比较该候选跟踪物体的置信度得分与该已有的被跟踪物体的置信度得分的大小;其中所述保留模块用于响应于该已有的被跟踪物体的置信度得分不小于该候选跟踪物体的置信度得分,将该已有的被跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体;其中所述更新模块用于响应于该已有的被跟踪物体的置信度得分小于该候选跟踪物体的置信度得分,或该交并比不大于该预定交并比阈值,或不存在该已有的被跟踪物体,将该候选跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体。
根据本发明的另一方面,本发明进一步提供了电子设备,包括:
至少一处理器,用于执行指令;和
与所述至少一处理器可通信地连接的存储器,其中,所述存储器具有至少一指令,其中,所述指令被所述至少一处理器执行,以使得所述至少一处理器执行多目标实时跟踪方法中的部分或全部步骤,其中所述多目标实时跟踪方法包括步骤:
在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;
在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
根据本发明的另一方面,本发明进一步提供了电子设备,包括:
一近眼显示光学系统;和
一多目标实时跟踪系统,其中所述多目标实时跟踪系统被配置于所述近眼显示光学系统,用于实时跟踪经由所述近眼显示光学系统采集的视频流中的目标,其中所述多目标实时跟踪系统包括依次可通信地连接的:
一目标跟踪模块,用于在第一线程中,通过光流法根据被跟踪物体在该视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;
一目标检测模块,用于在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
一目标更新模块,用于根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
通过对随后的描述和附图的理解,本发明进一步的目的和优势将得以充分体现。
本发明的这些和其它目的、特点和优势,通过下述的详细说明,附图和权利要求得以充分体现。
附图说明
图1是根据本发明的一实施例的多目标实时跟踪方法的流程示意图。
图2示出了根据本发明的上述实施例的所述多目标实时跟踪方法的一个应用示例。
图3示出了根据本发明的上述实施例的所述多目标实时跟踪方法的目标跟踪步骤的流程示意图。
图4A和图4B示出了根据本发明的上述实施例的所述多目标实时跟踪方法的所述目标跟踪步骤中均值计算的一个示例。
图5A和图5B示出了根据本发明的上述实施例的所述多目标实时跟踪方法的所述目标跟踪步骤中标识确定的一个示例。
图6示出了根据本发明的上述实施例的所述多目标实时跟踪方法的目标检测步骤的流程示意图。
图7示出了根据本发明的上述实施例的所述多目标实时跟踪方法的目标更新步骤的流程示意图。
图8示出了根据本发明的上述实施例的所述多目标实时跟踪方法中交并比计算的一个示例。
图9示出了根据本发明的一实施例的多目标实时跟踪系统的框图示意图。
图10示出了根据本发明的一实施例的一电子设备的框图示意图。
图11示出了根据本发明的一实施例的另一电子设备的立体示意图。
具体实施方式
以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。
在本发明中,权利要求和说明书中术语“一”应理解为“一个或多个”,即在一个实施例,一个元件的数量可以为一个,而在另外的实施例中,该元件的数量可以为多个。除非在本发明的揭露中明确示意该元件的数量只有一个,否则术语“一”并不能理解为唯一或单一,术语“一”不能理解为对数量的限制。
在本发明的描述中,需要理解的是,属于“第一”、“第二”等仅用于描述目的,而不能理解为指示或者暗示相对重要性。本发明的描述中,需要说明的是,除非另有明确的规定和限定,属于“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接或者一体地连接;可以是机械连接,也可以是电连接;可以是直接连接,也可以是通过媒介间接连结。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
近年来,虽然随着深度学习技术的快速发展,其应用也越来越广泛。现有的基于检测的跟踪方法通常将视频流的多目标跟踪任务分解成两个独立的子任务:目标检测和数据关联。也就是说,现有的基于检测的跟踪方法先通过离线训练好的目标检测器对视频流中的每一帧进行检测,再将过目标跟踪问题看作基于检测结果的数据关联问题,进而将属于同一目标的来自不同视频帧的检测结果关联起来连成目标的轨迹,使其具有相同的身份标识。但现有的基于深度学习的目标检测方法所利用的目标检测器(基于深度学习构建的)往往具有模型层数多、卷积计算量大以及计算耗时的特点,导致该目标检测器在诸如AR眼镜或手机等移动端运行时难以达到实时。因而,现有的基于检测的跟踪方法无法计算每一帧的检测结果,进而该现有的基于检测的跟踪方法无法实现实时的多目标跟踪。
因此,为了解决上述问题,本发明提出一种多目标实时跟踪方法及其系统和电子设备,其能够提高实现实时的多目标跟踪,尤其是诸如AR眼镜或手机等移动端的应用场景。
示意性方法
参考说明书附图之图1至图8所示,根据本发明的一实施例的一种多目标实时跟踪方法被阐明。具体地,如图1所示,所述多目标实时跟踪方法包括步骤:
S100:在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算所述被跟踪物体在所述视频流的当前帧图像中的位置,以获得在所述当前帧图像中跟踪到的每个所述被跟踪物体的身份标识;
S200:在第二线程中,通过训练好的基于深度学习的目标检测模型对所述视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
S300:根据所述候选跟踪物体,更新在所述当前帧图像中需要跟踪的所述被跟踪物体。
值得注意的是,如图2所示,本发明的所述多目标实时跟踪方法采用双线程的工作方式,将目标跟踪和目标检测的过程分别在不同的线程中进行运行,以在一个线程中通过光流法对所述视频流中每一帧图像均进行目标跟踪来实现实时的多目标跟踪的同时,还能够在另一个线程中通过目标检测模型对所述视频流中的部分帧图像进行目标检测处理来获得候选的跟踪物体,并利用这些候选的跟踪物体来更新被跟踪物体,以便及时修正多目标的跟踪结果,从而维持持续且稳定的跟踪效果。
换言之,由于所述基于深度学习的目标检测模型是在一个独立线程中来进行目标检测处理的,因此本发明的所述多目标实时跟踪方法无需考虑所述目标检测模型是否能够处理所述视频流中的每一帧图像,而是可以间隔地处理所述视频流中的部分帧图像,以便在充分利用所述基于深度学习的目标检测模型在目标检测上的高精度优势的情况下,不会影响在另一个独立线程中多目标跟踪的实时性。因而,本发明的所述多目标实时跟踪方法能够在确保实现实时地多目标跟踪的同时,也能够提升多目标跟踪的准确度和精度。
更具体地,如图3所示,本发明的所述多目标实时跟踪方法的所述步骤S100,可以包括步骤:
S110:根据所述被跟踪物体的包围框的中心,计算所述被跟踪物体的所述包围框内光流特征点的位移平均值和相对于所述包围框的中心的缩放平均值;
S120:将所述位移平均值和所述缩放平均值叠加至所述被跟踪物体在所述上一帧图像中的包围框位置,以得到所述被跟踪物体在所述当前帧图像中的包围框位置;以及
S130:根据所有的所述被跟踪物体在所述当前帧图像中的包围框位置,确定每个所述被跟踪物体的身份标识。
示例性地,在本发明的一示例中,如图4A和图4B所示,本发明的所述多目标实时跟踪方法的所述步骤S110,可以包括步骤:
S111:通过对所述当前帧图像进行FAST特征点检测处理,获得初始特征点;
S112:基于所述初始特征点,通过Lucas-Kanade算法计算光流,以获得所述光流特征点的位置;
S113:根据所述被跟踪物体的所述包围框位置和所述光流特征点的位置,以所述包围框的中心为中心点,计算在所述包围框内每个所述光流特征点相对于所述中心点的缩放值的平均值,以获得所述缩放平均值;以及
S114:根据所述被跟踪物体的包围框位置和所述光流特征点的位置,计算在所述包围框内每个所述光流特征点的位移值的平均值,以获得所述位移平均值。
可以理解的是,如图4B所示,在获得所述位移平均值和所述缩放平均值之后,本发明可以将所述位移平均值和所述缩放平均值作为所述包围框的缩放值和位移值,并将所述包围框的缩放值和位移值叠加至所述被跟踪物体在前一阵图像中的包围框位置上,以得到所述被跟踪物体在所述当前帧图像中的包围框位置。
值得一提的是,虽然通过光流法能够获得所述被跟踪物体在所述当前帧图像中的包围框位置,但是当所述被跟踪物体的可信度较低时,所述被跟踪物体在所述当前帧图像中的包围框位置则有可能存在错误,或者所述被跟踪物体将无法被正常跟踪到。因此,在通过简单的在线实时跟踪方法确定每个所述被跟踪物体的身份标识的过程中,本发明的所述多目标实时跟踪方法的需要先根据所述被跟踪物体在前后帧的关联系数进行筛选,以剔除掉可信度较低的被跟踪物体,即放弃对可信度较低的被跟踪物体进行跟踪。
具体地,在本发明的一示例中,如图5A所示,本发明的所述多目标实时跟踪方法的所述步骤S130,可以包括步骤:
S131:计算每个所述被跟踪物体在所述当前帧图像和所述上一帧图像之间的相关性系数;
S132:响应于所述相关性系数大于预定关联阈值,将相应的所述被跟踪物体在所述当前帧图像中的包围框位置作为检测物体的边框位置;以及
S133:根据所述检测物体的边框位置,通过简单的在线实时跟踪方法计算并匹配在前后帧图像中物体的身份标识,以获得每个所述被跟踪物体的身份标识。
示例性地,在所述步骤S131中,可以通过相关性系数计算模型来计算每个所述被跟踪物体在所述当前帧图像和所述上一帧图像之间的相关性系数,其中所述相关性系数计算模型可以但不限于被实施为:
其中:ncc为所述被跟踪物体在所述当前帧图像和所述上一帧图像之间的相关性系数;T和S分别为较小图像和较大图像的灰度值;M*N为较小图像的分辨率;E为灰度值均值;Si,j为较大图像在(i,j)处大小为M*N的区域;Si,j(s,t)为区域(s,t)处的灰度值。
值得注意的是,所述相关性系数ncc的取值范围通常为-1至1,其中当所述相关性系数ncc越大,则表明关联性越强,所述被跟踪物体的可信度就越高;当所述相关性系数ncc越小,则表明关联性越弱,所述被跟踪物体的可信度就越低。
优选地,在所述步骤S132中,所述预定关联阈值被实施为0.1至0.5。这样,当所述被跟踪物体的所述相关性系数大于所述预定关联阈值时,则认为所述被跟踪物体的可信度较高,并将所述被跟踪物体在所述当前帧图像中的包围框位置作为检测物体的边框位置,以继续跟踪所述被跟踪物体;而当所述被跟踪物体的所述相关性系数不大于(即小于或等于)所述预定关联阈值时,则认为所述被跟踪物体的可信度较低,并剔除所述被跟踪物体,以停止跟踪所述被跟踪物体。
而在所述步骤S133中,所述简单的在线实时跟踪方法(英文Simple Online andRealtime Tracking,简称SORT)优选地融合了卡尔曼滤波(Kalman Filter)和匈牙利算法(Hungarian algorithm),以便实现快速实时的多目标跟踪。具体地,如图5B所示,先根据在所述上一帧图像中已被跟踪物体的包围框位置,通过卡尔曼滤波预测所述已被跟踪物体在所述当前帧图像中的位置估计值;再通过匈牙利算法找到每个所述检测物体的边框位置与所述已被跟踪物体在所述当前帧图像中的位置估计值之间的最佳分配,如果存在最佳分配,则认为所述检测物体与所述已被跟踪物体属于同一物体,将所述已被跟踪物体的身份标识赋予所述检测物体;如果不存在最佳分配,则认为所述检测物体属于新的物体,将新的身份标识(如将已有的最大身份标识加1)赋予所述检测物体,以确保同一物体具有同样的身份标识,而不同的物体具有不同的身份标识。
换言之,在所述步骤S133中,根据所述检测物体的边框位置和所述已被跟踪物体在所述当前帧图像中的位置估计值,通过匈牙利算法计算所述当前帧图像中的检测物体与在所述上一帧图像中已被跟踪物体之间的关联性,以根据所述当前帧图像与所述上一帧图像的物体关联结果,生成所述检测物体的身份标识,以获得在所述当前帧图像中跟踪到的每个所述被跟踪物体的身份标识。
示例性地,在实际应用过程中,如图2所示,当输入视频流中的每一帧图像时,首先,判断跟踪器是否初始化,如果跟踪器未初始化(即所述跟踪器中不存在任何被跟踪物体),则初始化跟踪器,以存入被跟踪物体;如果跟踪器已初始化(即所述跟踪器中存在被跟踪物体),则利用光流法由所述被跟踪物体在前一帧图像中的位置来计算所述被跟踪物体在当前帧图像中的位置。接着,遍历每个所述被跟踪物体在前后帧图像中的相关性系数,如果相关性系数大于0.3,则认为所述被跟踪物体的可信度高,以继续跟踪;否则停止跟踪所述被跟踪物体。之后,将得到全部被跟踪物体在所述当前帧图像中的位置作为检测物体的位置,以输入所述SORT算法。最后,通过所述SORT算法计算所述检测物体与所述已跟踪物体之间的关联性,进而输出每个所述被跟踪物体的身份标识。
例如,在所述SORT算法初始化之后,身份标识的初值为0,这样每检测到一个新的物体,身份标识的值将加1,以此类推,身份标识的值不重复使用。特别地,如果没有已被跟踪物体,则将当前所有的检测物体均作为新的物体,依次将已有的最大身份标识的值加1作为所述检测物体的身份标识。而如果当前的检测物体与已被跟踪物体匹配为同一物体,则将所述已被跟踪物体的身份标识赋予所述检测物体;但如果当前的检测物体无法与已被跟踪物体匹配为同一物体,则仍将已有的最大身份标识的值加1作为所述检测物体的身份标识。
值得一提的是,本发明的所述多目标实时跟踪方法的所述步骤S100和所述步骤S200分别在不同的线程中执行,使得在所述步骤S200中的所述基于深度学习的目标检测模型虽然在目标检测时需要进行较大的计算量和耗费较长的时间,但却无需对所述视频流中的每一帧图像均进行目标检测,而是可以间隔地处理所述视频流中的部分帧图像,以充分利用所述基于深度学习的目标检测模型在目标检测方面的高精度优势,进而提升所述多目标实时跟踪方法的跟踪精度和跟踪效率。
示例性地,如图6所示,本发明的所述多目标实时跟踪方法的所述步骤S200,可以包括步骤:
S210:在输入所述视频流中的当前帧图像时,判断所述基于深度学习的目标检测模型是否正在运行;
S220:响应于所述基于深度学习的目标检测模型正在运行,跳过检测所述当前帧图像;以及
S230:响应于所述基于深度学习的目标检测模型未运行,通过所述基于深度学习的目标检测模型对所述当前帧图像进行目标检测处理,以得到所述候选跟踪物体。
当然,在本发明的其他示例中,所述多目标实时跟踪方法的所述步骤S200可以每间隔预定时间段,从所述视频流中提取当前帧图像进行目标检测,进而根据检测出的所述候选跟踪物体来更新被跟踪物体,以修正目标跟踪进程,从而获得更好的多目标实时跟踪结果。
优选地,所述基于深度学习的目标检测模型可以被实施为SSD MobileNet模型,以在输入所述视频流中某帧图像之后,输出该帧图像中目标(即所述候选跟踪物体)的包围框位置、置信度得分以及类别。可以理解的是,所述置信度得分表明所述候选跟踪物体被成功检测的置信度,得分越高表明所述候选跟踪物体被准确地检测的可能性越高。
值得注意的是,在通过所述步骤S200获得所述候选跟踪物体之后,由于所述候选跟踪物体与已有的被跟踪物体(即所述上一帧图像中的已被跟踪物体)可能属于同一物体,因此在所述步骤S300中,需要先判断所述候选跟踪物体与已有的被跟踪物体是否属于同一物体,再根据判断结果来更新在所述当前帧图像中的被跟踪物体。可以理解的是,在所述步骤S100中,所述当前帧图像中的所述被跟踪物体可以是在所述上一帧图像中的已被跟踪物体(即已有的被跟踪物体),也可以是经由所述基于深度学习的目标检测模型检测出来的所述候选跟踪物体。此外,所述步骤S300既可以在所述第一线程中执行,也可以在所述第二线程中执行,本发明对此不再赘述。
示例性地,如图2所示,在所述第二线程中,每间隔一定时间将对所述视频流中的一帧图像进行检测计算处理,并将检测结果作为候选跟踪物体;之后,根据候选跟踪物体与已被跟踪物体的数据关联,来判断所述候选跟踪物体是否是新的物体,如果否,则移除所述候选跟踪物体,将所述已被跟踪物体作为在所述当前帧图像中需要跟踪的被跟踪物体;如果是,则将所述候选跟踪物体作为在所述当前帧图像中需要跟踪的被跟踪物体。
具体地,如图7所示,本发明的所述多目标实时跟踪方法的所述步骤S300,可以包括步骤:
S310:监测是否存在已有的被跟踪物体;
S320:响应于存在所述已有的被跟踪物体,计算所述候选跟踪物体与所述已有的被跟踪物体之间的交并比;
S330:响应于所述交并比大于预定交并比阈值,比较所述候选跟踪物体的置信度得分与所述已有的被跟踪物体的置信度得分的大小;
S340:响应于所述已有的被跟踪物体的置信度得分不小于所述候选跟踪物体的置信度得分,将所述已有的被跟踪物体作为在所述当前帧图像中需要跟踪的所述被跟踪物体;以及
S350:响应于所述已有的被跟踪物体的置信度得分小于所述候选跟踪物体的置信度得分,或所述交并比不大于所述预定交并比阈值,或不存在所述已有的被跟踪物体,将所述候选跟踪物体作为在所述当前帧图像中需要跟踪的被跟踪物体。
特别地,如图8所示,以两个矩形框分别表示所述已有的被跟踪物体和所述候选跟踪物体的包围框,两者的位置存在重叠区域。因而,所述候选跟踪物体与所述已有的被跟踪物体之间的交并比IoU被实施为两者重叠区域的面积I与两者总面积U之间的比值I/U,以表示所述已有的被跟踪物体和所述候选跟踪物体之间的重叠率。
优选地,所述预定交并比阈值可以被实施为0.1至0.4。这样,当所述候选跟踪物体与所述已有的被跟踪物体之间的交并比IoU大于所述预定交并比阈值时,则可以认为所述候选跟踪物体和所述已有的被跟踪物体可能属于同一物体,进而通过置信度得分来判断所述候选跟踪物体和所述已有的被跟踪物体作为被跟踪物体的可信度高低,将置信度得分高的物体作为在所述当前帧图像中需要跟踪的被跟踪物体。
当然,在本发明的其他示例中,响应于所述已有的被跟踪物体的置信度得分不小于所述候选跟踪物体的置信度得分,也可以继续计算所述已有的被跟踪物体在前后帧图像中的相关联系数,进而当所述已有的被跟踪物体在前后帧图像中的相关性系数大于所述预定关联阈值时,将所述已有的被跟踪物体作为在所述当前帧图像中需要跟踪的所述被跟踪物体;否则,将所述候选跟踪物体作为在所述当前帧图像中需要跟踪的所述被跟踪物体。
值得一提的是,在本发明的上述步骤S133中,在通过所述匈牙利算法进行最佳分配之前,还可以先判断所述检测物体与所述已被跟踪物体的交并比是否小于所述预定交并比阈值,如果是,则认为所述检测物体为新的物体,可以在最大的已有身份标识的基础上加1作为所述检测物体的身份标识;否则,通过所述匈牙利算法进行最佳分配。
示意性系统
参考说明书附图之图9所示,根据本发明的一实施例的一多目标实时跟踪系统被阐明。具体地,如图9所示,所述多目标实时跟踪系统1可以包括相互可通信地连接的一目标跟踪模块10、一目标检测模块20以及一目标更新模块30。所述目标跟踪模块10用于在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识。所述目标检测模块20用于在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体。所述目标更新模块30用于根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
更具体地,如图9所示,所述目标跟踪模块10包括相互可通信地连接的一均值计算模块11、一位置叠加模块12以及一标识确定模块13,其中所述均值计算模块11用于根据该被跟踪物体的包围框的中心,计算该被跟踪物体的该包围框内光流特征点的位移平均值和相对于该包围框的中心的缩放平均值;其中所述位置叠加模块12用于将该位移平均值和该缩放平均值叠加至该被跟踪物体在该上一帧图像中的包围框位置,以得到该被跟踪物体在该当前帧图像中的包围框位置;其中所述标识确定模块13用于根据所有的该被跟踪物体在该当前帧图像中的包围框位置,确定每个该被跟踪物体的身份标识。
值得注意的是,在本发明的一示例中,所述均值计算模块11进一步用于通过对该当前帧图像进行FAST特征点检测处理,获得初始特征点;基于该初始特征点,通过Lucas-Kanade算法计算光流,以获得该光流特征点的位置;根据该被跟踪物体的包围框位置和该光流特征点的位置,以该包围框的中心为中心点,计算在该包围框内每个该光流特征点相对于该中心点的缩放值的平均值,以获得该缩放平均值;以及根据该被跟踪物体的包围框位置和该光流特征点的位置,计算在该包围框内每个该光流特征点的位移值的平均值,以获得该位移平均值。
此外,所述标识确认模块13进一步用于计算每个该被跟踪物体在该当前帧图像和该上一帧图像之间的相关性系数;响应于该相关性系数大于预定关联阈值,将相应的该被跟踪物体在该当前帧图像中的包围框位置作为检测物体的边框位置;以及根据该检测物体的边框位置,通过简单的在线实时跟踪方法计算并匹配在前后帧图像中物体的身份标识,以获得每个该被跟踪物体的身份标识。
值得一提的是,在本发明的一示例中,所述目标检测模块20进一步用于在输入该视频流中的当前帧图像时,判断该基于深度学习的目标检测模型是否正在运行;响应于该基于深度学习的目标检测模型正在运行,跳过检测该当前帧图像;以及响应于该基于深度学习的目标检测模型未运行,通过该基于深度学习的目标检测模型对该当前帧图像进行目标检测处理,以得到该候选跟踪物体。
在本发明的一示例中,如图9所示,所述目标更新模块30包括相互可通信地连接的一监测模块31、一交并比计算模块32、一置信度比较模块33、一保留模块34以及一更新模块35,其中所述监测模块31用于监测是否存在已有的被跟踪物体;其中所述交并比计算模块32用于响应于存在该已有的被跟踪物体,计算该候选跟踪物体与该已有的被跟踪物体之间的交并比;其中所述置信度比较模块33用于响应于该交并比大于预定交并比阈值,比较该候选跟踪物体的置信度得分与该已有的被跟踪物体的置信度得分的大小;其中所述保留模块34用于响应于该已有的被跟踪物体的置信度得分不小于该候选跟踪物体的置信度得分,将该已有的被跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体;其中所述更新模块35用于响应于该已有的被跟踪物体的置信度得分小于该候选跟踪物体的置信度得分,或该交并比不大于该预定交并比阈值,或不存在该已有的被跟踪物体,将该候选跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体。
示意性电子设备
下面,参考图10来描述根据本发明的一实施例的电子设备。如图10所示,电子设备90包括一个或多个处理器91和存储器92。
所述处理器91可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备90中的其他组件以执行期望的功能。换言之,所述处理器91包括被配置成执行指令的一个或多个物理设备。例如,所述处理器91可被配置成执行作为以下各项的一部分的指令:一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其他逻辑构造。这种指令可被实现以执行任务、实现数据类型、转换一个或多个部件的状态、实现技术效果、或以其他方式得到期望结果。
所述处理器91可包括被配置成执行软件指令的一个或多个处理器。作为补充或替换,所述处理器91可包括被配置成执行硬件或固件指令的一个或多个硬件或固件逻辑机。所述处理器91的处理器可以是单核或多核,且在其上执行的指令可被配置为串行、并行和/或分布式处理。所述处理器91的各个组件可任选地分布在两个或更多单独设备上,这些设备可以位于远程和/或被配置成进行协同处理。所述处理器91的各方面可由以云计算配置进行配置的可远程访问的联网计算设备来虚拟化和执行。
所述存储器92可以包括一个或多个计算程序产品,所述计算程序产品可以包括各种形式的计算可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算可读存储介质上可以存储一个或多个计算程序指令,所述处理器11可以运行所述程序指令,以实现上文所述的本发明的上述示意性方法中的部分或全部步骤,以及/或者其他期望的功能。
换言之,所述存储器92包括被配置成保存可由所述处理器91执行以实现此处所述的方法和过程的机器可读指令的一个或多个物理设备。在实现这些方法和过程时,可以变换所述存储器92的状态(例如,保存不同的数据)。所述存储器92可以包括可移动和/或内置设备。所述存储器92可包括光学存储器(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器(例如,RAM、EPROM、EEPROM等)和/或磁存储器(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等等。所述存储器92可包括易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址和/或内容可寻址设备。
可以理解,所述存储器92包括一个或多个物理设备。然而,本文描述的指令的各方面可另选地通过不由物理设备在有限时长内持有的通信介质(例如,电磁信号、光信号等)来传播。所述处理器91和所述存储器92的各方面可被一起集成到一个或多个硬件逻辑组件中。这些硬件逻辑组件可包括例如现场可编程门阵列(FPGA)、程序和应用专用的集成电路(PASIC/ASIC)、程序和应用专用的标准产品(PSSP/ASSP)、片上系统(SOC)以及复杂可编程逻辑器件(CPLD)。
在一个示例中,如图10所示,所述电子设备90还可以包括输入装置93和输出装置94,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。例如,该输入装置93可以是例如用于采集图像数据或视频数据的摄像模组等等。又如,所述输入装置93可以包括诸如键盘、鼠标、触摸屏或游戏控制器之类的一个或多个用户输入设备或者与其对接。在一些实施例中,所述输入装置93可以包括所选择的自然用户输入(NUI)部件或与其对接。这种元件部分可以是集成的或外围的,并且输入动作的转导和/或处理可以在板上或板外被处理。示例NUI部件可包括用于语言和/或语音识别的话筒;用于机器视觉和/或姿势识别的红外、色彩、立体显示和/或深度相机;用于运动检测和/或意图识别的头部跟踪器、眼睛跟踪器、加速计和/或陀螺仪;以及用于评估脑部活动和/或身体运动的电场感测部件;和/或任何其他合适的传感器。
该输出装置94可以向外部输出各种信息,包括分类结果等。该输出装置94可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,所述电子设备90还可以进一步包括所述通信装置,其中所述通信装置可被配置成将所述电子设备90与一个或多个其他计算机设备通信地耦合。所述通信装置可以包括与一个或多个不同通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统可被配置成用于经由无线电话网络或者有线或无线局域网或广域网来进行通信。在一些实施例中,所述通信装置可允许所述电子设备90经由诸如因特网这样的网络将消息发送至其他设备以及/或者从其它设备接收消息。
将会理解,此处描述的配置和/或方法本质是示例性的,这些具体实施例或示例不应被视为限制性的,因为许多变体是可能的。此处描述的具体例程或方法可以表示任何数量的处理策略中的一个或多个。如此,所示和/或所述的各种动作可以以所示和/或所述顺序、以其他顺序、并行地执行,或者被省略。同样,上述过程的次序可以改变。
当然,为了简化,图10中仅示出了该电子设备90中与本发明有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备90还可以包括任何其他适当的组件。
根据本发明的另一方面,本发明进一步提供了诸如配置有摄像模组的近眼显示光学系统等等之类的电子设备,其中所述电子设备配置有上述多目标实时跟踪系统,用于处理经由近眼显示光学系统采集的视频流。示例性地,如图11所示,所述电子设备包括一近眼显示光学系统600和所述多目标实时跟踪系统1,其中所述多目标实时跟踪系统1被配置于所述近眼显示光学系统600,用于实时跟踪经由所述近眼显示光学系统600采集的视频流中的目标。可以理解的是,所述近眼显示光学系统600可以但不限于被实施为具有摄像功能的AR眼镜。
示意性计算程序产品
除了上述方法和设备以外,本发明的实施例还可以是计算程序产品,其包括计算程序指令,所述计算程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本发明各种实施例的方法中的步骤。
所述计算程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本发明实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如C语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本发明的实施例还可以是计算可读存储介质,其上存储有计算程序指令,所述计算程序指令在被处理器运行时使得所述处理器执行本说明书上述方法中的步骤。
所述计算可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本发明的基本原理,但是,需要指出的是,在本发明中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本发明的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本发明为必须采用上述具体的细节来实现。
本发明中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本发明的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本发明。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本发明的范围。因此,本发明不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
本领域的技术人员应理解,上述描述及附图中所示的本发明的实施例只作为举例而并不限制本发明。本发明的目的已经完整并有效地实现。本发明的功能及结构原理已在实施例中展示和说明,在没有背离所述原理下,本发明的实施方式可以有任何变形或修改。
Claims (12)
1.多目标实时跟踪方法,其特征在于,包括步骤:
在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;
在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
2.如权利要求1所述的多目标实时跟踪方法,其中,所述在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识的步骤,包括步骤:
根据该被跟踪物体的包围框的中心,计算该被跟踪物体的该包围框内光流特征点的位移平均值和相对于该包围框的中心的缩放平均值;
将该位移平均值和该缩放平均值叠加至该被跟踪物体在该上一帧图像中的包围框位置,以得到该被跟踪物体在该当前帧图像中的包围框位置;以及
根据所有的该被跟踪物体在该当前帧图像中的包围框位置,确定每个该被跟踪物体的身份标识。
3.如权利要求2所述的多目标实时跟踪方法,其中,所述根据该被跟踪物体的包围框的中心,计算该被跟踪物体的该包围框内光流特征点的位移平均值和相对于该包围框的中心的缩放平均值的步骤,包括步骤:
通过对该当前帧图像进行FAST特征点检测处理,获得初始特征点;
基于该初始特征点,通过Lucas-Kanade算法计算光流,以获得该光流特征点的位置;
根据该被跟踪物体的包围框位置和该光流特征点的位置,以该包围框的中心为中心点,计算在该包围框内每个该光流特征点相对于该中心点的缩放值的平均值,以获得该缩放平均值;以及
根据该被跟踪物体的包围框位置和该光流特征点的位置,计算在该包围框内每个该光流特征点的位移值的平均值,以获得该位移平均值。
4.如权利要求3所述的多目标实时跟踪方法,其中,所述根据所有的该被跟踪物体在该当前帧图像中的包围框位置,确定每个该被跟踪物体的身份标识的步骤,包括步骤:
计算每个该被跟踪物体在该当前帧图像和该上一帧图像之间的相关性系数;
响应于该相关性系数大于预定关联阈值,将相应的该被跟踪物体在该当前帧图像中的包围框位置作为检测物体的边框位置;以及
根据该检测物体的边框位置,通过简单的在线实时跟踪方法计算并匹配在前后帧图像中物体的身份标识,以获得每个该被跟踪物体的身份标识。
5.如权利要求1至4中任一所述的多目标实时跟踪方法,其中,所述在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体的步骤,包括步骤:
在输入该视频流中的当前帧图像时,判断该基于深度学习的目标检测模型是否正在运行;
响应于该基于深度学习的目标检测模型正在运行,跳过检测该当前帧图像;以及
响应于该基于深度学习的目标检测模型未运行,通过该基于深度学习的目标检测模型对该当前帧图像进行目标检测处理,以得到该候选跟踪物体。
6.如权利要求5所述的多目标实时跟踪方法,其中,所述根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体的步骤,包括步骤:
检测是否存在已有的被跟踪物体;
响应于存在该已有的被跟踪物体,计算该候选跟踪物体与该已有的被跟踪物体之间的交并比;
响应于该交并比大于预定交并比阈值,比较该候选跟踪物体的置信度得分与该已有的被跟踪物体的置信度得分的大小;
响应于该已有的被跟踪物体的置信度得分不小于该候选跟踪物体的置信度得分,将该已有的被跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体;以及
响应于该已有的被跟踪物体的置信度得分小于该候选跟踪物体的置信度得分,或该交并比不大于该预定交并比阈值,或不存在该已有的被跟踪物体,将该候选跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体。
7.多目标实时跟踪系统,其特征在于,包括相互可通信地连接的:
一目标跟踪模块,用于在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;
一目标检测模块,用于在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
一目标更新模块,用于根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
8.如权利要求7所述的多目标实时跟踪系统,其中,所述目标跟踪模块包括相互可通信地连接的一均值计算模块、一位置叠加模块以及一标识确定模块,其中所述均值计算模块用于根据该被跟踪物体的包围框的中心,计算该被跟踪物体的该包围框内光流特征点的位移平均值和相对于该包围框的中心的缩放平均值;其中所述位置叠加模块用于将该位移平均值和该缩放平均值叠加至该被跟踪物体在该上一帧图像中的包围框位置,以得到该被跟踪物体在该当前帧图像中的包围框位置;其中所述标识确定模块用于根据所有的该被跟踪物体在该当前帧图像中的包围框位置,确定每个该被跟踪物体的身份标识。
9.如权利要求7或8所述的多目标实时跟踪系统,其中,所述目标检测模块进一步用于在输入该视频流中的当前帧图像时,判断该基于深度学习的目标检测模型是否正在运行;响应于该基于深度学习的目标检测模型正在运行,跳过检测该当前帧图像;以及响应于该基于深度学习的目标检测模型未运行,通过该基于深度学习的目标检测模型对该当前帧图像进行目标检测处理,以得到该候选跟踪物体。
10.如权利要求9所述的多目标实时跟踪系统,其中,所述目标更新模块包括相互可通信地连接的一监测模块、一交并比计算模块、一置信度比较模块、一保留模块以及一更新模块,其中所述监测模块用于监测是否存在已有的被跟踪物体;其中所述交并比计算模块用于响应于存在该已有的被跟踪物体,计算该候选跟踪物体与该已有的被跟踪物体之间的交并比;其中所述置信度比较模块用于响应于该交并比大于预定交并比阈值,比较该候选跟踪物体的置信度得分与该已有的被跟踪物体的置信度得分的大小;其中所述保留模块用于响应于该已有的被跟踪物体的置信度得分不小于该候选跟踪物体的置信度得分,将该已有的被跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体;其中所述更新模块用于响应于该已有的被跟踪物体的置信度得分小于该候选跟踪物体的置信度得分,或该交并比不大于该预定交并比阈值,或不存在该已有的被跟踪物体,将该候选跟踪物体作为在该当前帧图像中需要跟踪的该被跟踪物体。
11.电子设备,其特征在于,包括:
至少一处理器,用于执行指令;和
与所述至少一处理器可通信地连接的存储器,其中,所述存储器具有至少一指令,其中,所述指令被所述至少一处理器执行,以使得所述至少一处理器执行多目标实时跟踪方法中的部分或全部步骤,其中所述多目标实时跟踪方法包括步骤:
在第一线程中,通过光流法根据被跟踪物体在视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;
在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
12.电子设备,其特征在于,包括:
一近眼显示光学系统;和
一多目标实时跟踪系统,其中所述多目标实时跟踪系统被配置于所述近眼显示光学系统,用于实时跟踪经由所述近眼显示光学系统采集的视频流中的目标,其中所述多目标实时跟踪系统包括依次可通信地连接的:
一目标跟踪模块,用于在第一线程中,通过光流法根据被跟踪物体在该视频流的上一帧图像中的位置计算该被跟踪物体在该视频流的当前帧图像中的位置,以获得在该当前帧图像中跟踪到的每个该被跟踪物体的身份标识;
一目标检测模块,用于在第二线程中,通过训练好的基于深度学习的目标检测模型对该视频流中的部分帧图像进行目标检测处理,以获得候选跟踪物体;以及
一目标更新模块,用于根据该候选跟踪物体,更新在该当前帧图像中需要跟踪的该被跟踪物体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010045588.8A CN113129333B (zh) | 2020-01-16 | 2020-01-16 | 多目标实时跟踪方法及其系统和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010045588.8A CN113129333B (zh) | 2020-01-16 | 2020-01-16 | 多目标实时跟踪方法及其系统和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129333A true CN113129333A (zh) | 2021-07-16 |
CN113129333B CN113129333B (zh) | 2023-06-16 |
Family
ID=76772058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010045588.8A Active CN113129333B (zh) | 2020-01-16 | 2020-01-16 | 多目标实时跟踪方法及其系统和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129333B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114937058A (zh) * | 2021-08-06 | 2022-08-23 | 北京轻舟智航科技有限公司 | LiDAR点云中的3D多对象跟踪的系统和方法 |
CN114937058B (zh) * | 2021-08-06 | 2024-11-05 | 北京轻舟智航科技有限公司 | LiDAR点云中的3D多对象跟踪的系统和方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200494A (zh) * | 2014-09-10 | 2014-12-10 | 北京航空航天大学 | 一种基于光流的实时视觉目标跟踪方法 |
CN106548151A (zh) * | 2016-11-03 | 2017-03-29 | 北京光年无限科技有限公司 | 面向智能机器人的目标物检测追踪识别方法和系统 |
US20180046865A1 (en) * | 2016-08-15 | 2018-02-15 | Qualcomm Incorporated | Multi-to-multi tracking in video analytics |
CN107992366A (zh) * | 2017-12-26 | 2018-05-04 | 网易(杭州)网络有限公司 | 对多个目标对象进行检测和跟踪的方法、系统和电子设备 |
CN108681723A (zh) * | 2018-05-25 | 2018-10-19 | 郑州目盼智能科技有限公司 | 一种嵌入人脸跟踪方法 |
US20190034734A1 (en) * | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | Object classification using machine learning and object tracking |
WO2019074601A1 (en) * | 2017-10-13 | 2019-04-18 | Qualcomm Incorporated | TRACKING OBJECTS FOR NEURONAL NETWORK SYSTEMS |
CN109785363A (zh) * | 2018-12-29 | 2019-05-21 | 中国电子科技集团公司第五十二研究所 | 一种无人机航拍视频运动小目标实时检测与跟踪方法 |
US20190304102A1 (en) * | 2018-03-30 | 2019-10-03 | Qualcomm Incorporated | Memory efficient blob based object classification in video analytics |
CN110415277A (zh) * | 2019-07-24 | 2019-11-05 | 中国科学院自动化研究所 | 基于光流和卡尔曼滤波的多目标追踪方法、系统、装置 |
CN110570451A (zh) * | 2019-08-05 | 2019-12-13 | 武汉大学 | 基于stc和分块重检测的多线程视觉目标跟踪方法 |
WO2019237536A1 (zh) * | 2018-06-11 | 2019-12-19 | 平安科技(深圳)有限公司 | 目标实时跟踪方法、装置、计算机设备及存储介质 |
-
2020
- 2020-01-16 CN CN202010045588.8A patent/CN113129333B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200494A (zh) * | 2014-09-10 | 2014-12-10 | 北京航空航天大学 | 一种基于光流的实时视觉目标跟踪方法 |
US20180046865A1 (en) * | 2016-08-15 | 2018-02-15 | Qualcomm Incorporated | Multi-to-multi tracking in video analytics |
CN106548151A (zh) * | 2016-11-03 | 2017-03-29 | 北京光年无限科技有限公司 | 面向智能机器人的目标物检测追踪识别方法和系统 |
US20190034734A1 (en) * | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | Object classification using machine learning and object tracking |
WO2019074601A1 (en) * | 2017-10-13 | 2019-04-18 | Qualcomm Incorporated | TRACKING OBJECTS FOR NEURONAL NETWORK SYSTEMS |
CN107992366A (zh) * | 2017-12-26 | 2018-05-04 | 网易(杭州)网络有限公司 | 对多个目标对象进行检测和跟踪的方法、系统和电子设备 |
US20190304102A1 (en) * | 2018-03-30 | 2019-10-03 | Qualcomm Incorporated | Memory efficient blob based object classification in video analytics |
CN108681723A (zh) * | 2018-05-25 | 2018-10-19 | 郑州目盼智能科技有限公司 | 一种嵌入人脸跟踪方法 |
WO2019237536A1 (zh) * | 2018-06-11 | 2019-12-19 | 平安科技(深圳)有限公司 | 目标实时跟踪方法、装置、计算机设备及存储介质 |
CN109785363A (zh) * | 2018-12-29 | 2019-05-21 | 中国电子科技集团公司第五十二研究所 | 一种无人机航拍视频运动小目标实时检测与跟踪方法 |
CN110415277A (zh) * | 2019-07-24 | 2019-11-05 | 中国科学院自动化研究所 | 基于光流和卡尔曼滤波的多目标追踪方法、系统、装置 |
CN110570451A (zh) * | 2019-08-05 | 2019-12-13 | 武汉大学 | 基于stc和分块重检测的多线程视觉目标跟踪方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114937058A (zh) * | 2021-08-06 | 2022-08-23 | 北京轻舟智航科技有限公司 | LiDAR点云中的3D多对象跟踪的系统和方法 |
CN114937058B (zh) * | 2021-08-06 | 2024-11-05 | 北京轻舟智航科技有限公司 | LiDAR点云中的3D多对象跟踪的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113129333B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11551377B2 (en) | Eye gaze tracking using neural networks | |
CN108229322B (zh) | 基于视频的人脸识别方法、装置、电子设备及存储介质 | |
US11074461B2 (en) | People flow estimation device, display control device, people flow estimation method, and recording medium | |
WO2019020103A1 (zh) | 目标识别方法、装置、存储介质和电子设备 | |
US20210124928A1 (en) | Object tracking methods and apparatuses, electronic devices and storage media | |
CN110660102B (zh) | 基于人工智能的说话人识别方法及装置、系统 | |
CN113313053B (zh) | 图像处理方法、装置、设备、介质及程序产品 | |
US11688078B2 (en) | Video object detection | |
CN112597872A (zh) | 视线角度估计方法和装置、存储介质、电子设备 | |
CN113012054A (zh) | 基于抠图的样本增强方法和训练方法及其系统和电子设备 | |
US10991117B2 (en) | Performing a loop closure detection | |
CN112149615A (zh) | 人脸活体检测方法、装置、介质及电子设备 | |
WO2022056540A1 (en) | Enhancing detection of occluded objects in a multiple object detection system | |
US11195024B1 (en) | Context-aware action recognition by dual attention networks | |
CN113129249B (zh) | 基于深度视频的空间平面检测方法及其系统和电子设备 | |
CN110490058B (zh) | 行人检测模型的训练方法、装置、系统和计算机可读介质 | |
CN113705390B (zh) | 定位方法、装置、电子设备和存储介质 | |
CN111797873A (zh) | 场景识别方法、装置、存储介质及电子设备 | |
CN113065523A (zh) | 目标追踪方法及装置、电子设备和存储介质 | |
CN114461078B (zh) | 一种基于人工智能的人机交互方法 | |
CN113129333B (zh) | 多目标实时跟踪方法及其系统和电子设备 | |
CN111986230B (zh) | 一种视频中目标物的姿态跟踪方法及装置 | |
CN111199179B (zh) | 目标对象的跟踪方法、终端设备及介质 | |
KR20230050150A (ko) | 조감도 영상 기반 안전지대 차선 인식 방법 및 시스템 | |
CN112633496A (zh) | 一种检测模型的处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20210716 Assignee: Zhejiang Shunwei Technology Co.,Ltd. Assignor: SUNNY OPTICAL (ZHEJIANG) RESEARCH INSTITUTE Co.,Ltd. Contract record no.: X2024330000055 Denomination of invention: Multi target real-time tracking method and its system and electronic devices Granted publication date: 20230616 License type: Common License Record date: 20240515 |