CN116453017A - 目标跟踪方法、装置、电子设备及存储介质 - Google Patents
目标跟踪方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116453017A CN116453017A CN202310371465.7A CN202310371465A CN116453017A CN 116453017 A CN116453017 A CN 116453017A CN 202310371465 A CN202310371465 A CN 202310371465A CN 116453017 A CN116453017 A CN 116453017A
- Authority
- CN
- China
- Prior art keywords
- information
- region
- region information
- frame image
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 230000011218 segmentation Effects 0.000 claims abstract description 49
- 238000012545 processing Methods 0.000 claims description 75
- 238000010586 diagram Methods 0.000 claims description 56
- 238000001914 filtration Methods 0.000 claims description 29
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 58
- 238000004590 computer program Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 230000033228 biological regulation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种目标跟踪方法、装置、电子设备及存储介质,可以应用于人工智能技术领域。该方法包括:基于目标对象的第一区域信息,确定目标对象的第二区域信息,其中,第一区域信息表征目标对象在视频的第t‑1帧图像中的区域信息,第二区域信息表征目标对象在视频的第t帧图像中的区域信息,t为大于等于3的整数;基于第二区域信息,对第t帧图像进行分割,得到第t帧图像的分割图;对分割图进行检测,确定第t帧图像中的至少一个第三区域信息;基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息,并基于目标区域信息对目标对象进行跟踪。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及一种目标跟踪方法、装置、电子设备及存储介质。
背景技术
随着长波红外图像传感器技术的发展,长波红外图像为目标检测提供了新的信息来源。长波红外信号能够反应目标的自发辐射信息,且在大气传输中散射程度较小,因此对长波红外图像中的目标特征进行研究和分析,可以实现对远距离目标进行检测和跟踪。目前,基于长波红外图像的较小目标检测方法已较为广泛地应用于森林防火、野外搜救、夜间侦查、目标跟踪等相关领域。在这些任务中,目标往往呈现出与背景不同的灰度特征,较易分辨。
在实现本公开发明构思的过程中,发明人发现,在相关技术中,如果保证对目标对象进行检测和跟踪的准确性,则会使用较多的计算机资源,导致效率较低,难以实时对目标对象进行检测和跟踪;而如果追求实时检测,则对目标对象进行检测和跟踪的准确度又会较难满足需求。
发明内容
鉴于上述问题,本公开提供了目标跟踪方法、装置、电子设备及存储介质。
根据本公开的第一个方面,提供了一种目标跟踪方法,包括:基于目标对象的第一区域信息,确定目标对象的第二区域信息,其中,第一区域信息表征目标对象在视频的第t-1帧图像中的区域信息,第二区域信息表征目标对象在视频的第t帧图像中的区域信息,t为大于等于3的整数;基于第二区域信息,对第t帧图像进行分割,得到第t帧图像的分割图;对分割图进行检测,确定第t帧图像中的至少一个第三区域信息;基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息,并基于目标区域信息对目标对象进行跟踪。
根据本公开的实施例,在基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息,并基于目标区域信息对目标对象进行跟踪之前,上述目标跟踪方法还包括:将第二区域信息确定为第一候选区域信息;基于第t帧图像,确定目标对象的对象区域信息,并将对象区域信息确定为第二候选区域信息;确定第一候选区域信息和第二候选区域信息之间的相似度;在相似度低于预设相似度阈值的情况下,基于第一候选区域信息和第三区域信息,确定差异信息。
根据本公开的实施例,第一区域信息包括第一区域中心信息和第一区域范围信息;基于目标对象的第一区域信息,确定目标对象的第二区域信息,包括:利用第一滤波算法和第二滤波算法处理目标对象的速度信息和第一区域中心信息,确定第t帧图像中的目标对象的第二区域中心信息,其中,速度信息表征目标对象在第t-1帧图像中的速度信息,第二滤波算法用于降低第一滤波算法的误差;根据第二区域中心信息和第一区域范围信息,得到第二区域信息。
根据本公开的实施例,第二区域信息包括第二区域中心信息和第一区域范围信息,第三区域信息包括第三区域中心信息和第二区域范围信息;在基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息之前,上述目标跟踪方法还包括:基于第二区域中心信息、第一区域范围信息、第三区域中心信息和第二区域范围信息,确定差异信息。
根据本公开的实施例,对分割图进行检测,确定第t帧图像中的至少一个第三区域信息,包括:将分割图输入第一目标形状感知模块,输出第一处理图;将第一处理图输入第一凝视模块,输出第二处理图;将第二处理图输入第一降采样模块,输出第一降采样处理图;将第一降采样处理图输入第一解耦模块,输出第三区域信息。
根据本公开的实施例,上述目标跟踪方法还包括:对视频的第1帧图像进行检测,得到第1帧图像中的目标对象的第五区域信息,其中,第五区域信息能用于确定第一区域信息。
根据本公开的实施例,对视频的第1帧图像进行检测,得到第1帧图像中的目标对象的第五区域信息,包括:将第1帧图像输入第二目标形状感知模块,输出第三处理图;将第三处理图输入第二凝视模块,输出第四处理图;将第四处理图输入第二降采样模块,输出第二降采样处理图;将第二降采样处理图输入第二解耦模块,输出第五区域信息。
本公开的第二方面提供了一种目标跟踪装置,包括:第一确定模块,用于基于目标对象的第一区域信息,确定目标对象的第二区域信息,其中,第一区域信息表征目标对象在视频的第t-1帧图像中的区域信息,第二区域信息表征目标对象在视频的第t帧图像中的区域信息,t为大于3的整数;分割模块,用于基于第二区域信息,对第t帧图像进行分割,得到第t帧图像的分割图;第二确定模块,用于对分割图进行检测,确定第t帧图像中的至少一个第三区域信息;第三确定模块,用于基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息,并基于目标区域信息对目标对象进行跟踪。
本公开的第三方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述方法。
本公开的第四方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述方法。
根据本公开提供的目标跟踪方法、装置、电子设备及存储介质,通过根据第t-1帧图像中的目标对象的第一区域信息,所确定的第t帧图像中的目标对象的第二区域信息,来对第t帧图像进行分割,再对分割图进行检测,由此减少了检测量,提高了检测速度,再根据检测第二区域信息和第三区域信息之间的差异信息,从至少一个第三区域信息中,较为准确地确定目标对象在第t帧图像中的目标区域信息,由此,提高了所确定的目标区域信息的准确性,进而可以实现对目标对象实时的准确跟踪。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的目标跟踪方法的应用场景图;
图2示意性示出了根据本公开实施例的目标跟踪方法的流程图;
图3示意性示出了根据本公开实施例的分割第t帧图像的示意图;
图4示意性示出了根据本公开实施例的目标区域信息确定方法的流程图;
图5示意性示出了根据本公开实施例的确定第一区域信息的示意图;
图6示意性示出了根据本公开实施例的确定第二区域信息的示意图;
图7示意性示出了根据本公开实施例的第二区域中心信息确定方法的流程图;
图8示意性示出了根据本公开另一实施例的目标跟踪方法的流程图;
图9示意性示出了根据本公开实施例的第一目标检测网络的示意图;
图10示意性示出了根据本公开实施例的第二目标检测网络的结构示意图;
图11示意性示出了根据本公开实施例的第一目标形状感知模块或者第二目标形状感知模块的结构示意图;
图12示意性示出了根据本公开实施例的第一凝视模块或者第二凝视模块的结构示意图;
图13示意性示出了根据本公开实施例的第一降采样处理模块或者第二降采样处理模块的结构示意图;
图14示意性示出了根据本公开实施例的解耦头的结构示意图;
图15a示意性示出了根据本公开实施例的行人标签的示意图;
图15b示意性示出了根据本公开实施例的检测行人的示意图;
图15c示意性示出了根据本公开实施例的车辆标签的示意图;
图15d示意性示出了根据本公开实施例的检测车辆的示意图;
图16示意性示出了根据本公开实施例的重合轨迹的第一个示意图;
图17示意性示出了根据本公开实施例的重合轨迹的第二个示意图;
图18示意性示出了根据本公开实施例的目标跟踪装置的结构框图;
图19示意性示出了根据本公开实施例的适于实现目标跟踪方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本公开的技术方案中,所涉及的数据(如包括但不限于用户个人信息)的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
在相关技术中,一些因素增加了对较小目标检测的难度,比如红外探测器分辨率较低、噪声较大、图像质量较难满足需求、单通道信息输出等,较小目标例如可以包括行人、车辆等。从视频采集环境分析,野外场景中部分背景可能会具有和目标相近的灰度或形状信息,目标在运动过程中可能会出现形变、被遮挡、消失等情况。这些因素导致目前的复杂背景下的红外较小目标检测和跟踪技术仍是一项较为具有挑战性的任务。
根据本公开的实施例,可以采用基于深度学习的全局目标检测算法配合跟踪算法进行目标的检测和跟踪,利用目标检测方法推测出目标的位置和尺寸,再由目标跟踪算法进行目标的帧间跟踪。
但是上述方法存在如下问题:
(1)如果保证对目标对象进行检测和跟踪的准确性,则会使用较多的计算机资源,导致效率较低难以实时对目标对象进行检测和跟踪;而如果实时检测,则对目标对象进行检测和跟踪的准确度会较难满足需求。
(2)难以对相似目标进行区分,以及对目标在运动过程中出现的遮挡、消失和交会等场景适应性不佳。
有鉴于此,本公开的实施例提供了一种目标跟踪方法,包括:基于目标对象的第一区域信息,确定目标对象的第二区域信息,其中,第一区域信息表征目标对象在第t-1帧图像中的区域信息,第二区域信息表征目标对象在第t帧图像中的区域信息,t为大于等于3的整数。基于第二区域信息,对第t帧图像进行分割,得到第t帧图像的分割图。对分割图进行检测,确定第t帧图像中的至少一个第三区域信息。基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息,并基于目标区域信息对目标对象进行跟踪。
图1示意性示出了根据本公开实施例的目标跟踪方法的应用场景图。
如图1所示,根据该实施例的应用场景100可以包括第一终端设备101、第二终端设备102、第三终端设备103、网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103中的至少一个通过网络104与服务器105交互,以接收或发送消息等。第一终端设备101、第二终端设备102、第三终端设备103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用第一终端设备101、第二终端设备102、第三终端设备103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的目标跟踪方法一般可以由服务器105执行。相应地,本公开实施例所提供的目标跟踪装置一般可以设置于服务器105中。本公开实施例所提供的目标跟踪方法也可以由不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的目标跟踪装置也可以设置于不同于服务器105且能够与第一终端设备101、第二终端设备102、第三终端设备103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
以下将基于图1描述的场景,通过图2~图17对公开实施例的目标跟踪方法进行详细描述。
图2示意性示出了根据本公开实施例的目标跟踪方法的流程图。
如图2所示,该实施例的目标跟踪方法包括操作S210~操作S240。
在操作S210,基于目标对象的第一区域信息,确定目标对象的第二区域信息,其中,第一区域信息表征目标对象在视频的第t-1帧图像中的区域信息,第二区域信息表征目标对象在视频的第t帧图像中的区域信息,t为大于等于3的整数。
根据本公开的实施例,第一区域信息可以是基于对第t-1帧图像中的目标对象进行检测和跟踪得到的。第一区域信息可以包括第t-1帧图像中的目标对象,还可以包括在第t-1帧图像中,目标对象的检测框中心的坐标信息和检测框的尺寸信息。检测框的尺寸信息可以包括检测框的长度信息和宽度信息。
根据本公开的实施例,第二区域信息可以是基于目标对象在第t-1帧图像中的第一区域信息,得到的目标对象在第t帧图像的区域信息。第二区域信息可以是预估的区域信息,即可以为RoI(Region of Interes,感兴趣区域)信息,该RoI信息表征可能存在目标对象的区域信息。第二区域信息可以包括在第t帧图像中,预估的目标对象的检测框中心的坐标信息和检测框的尺寸信息。检测框的尺寸信息可以包括检测框的长度信息和宽度信息。
基于目标对象的第一区域信息,确定目标对象的第二区域信息,例如:根据第t-1帧中的目标对象的朝向信息和第一区域信息,来得到第二区域信息;还例如:根据第t-1帧中的目标对象的速度信息和第一区域信息,来得到第二区域信息;还例如,仅根据第t-1帧中的目标对象的第一区域信息,确定目标对象位于的路径,再基于该路径,确定第t帧图像中的目标对象的第二区域信息。
根据本公开的实施例,可以利用卡尔曼滤波算法处理第一区域信息,来得到第二区域信息;也可以利用滑动加权平均滤波算法处理第一区域信息,来得到第二区域信息。
在操作S220,基于第二区域信息,对第t帧图像进行分割,得到第t帧图像的分割图。
根据本公开的实施例,通过基于预估得到的目标对象在第t帧图像中的第二区域信息,对第t帧图像进行分割,节省了检测所消耗的算力,提高了效率,并且可以在最大程度上保证分割图中包括目标对象。
根据本公开的实施例,可以是通过第二区域信息中的检测框的中心位置信息,对第t帧图像进行分割,得到第t帧图像的分割图。具体地,可以是根据检测框的中心坐标,来结合预设的分割尺寸,对第t帧图像进行分割,得到分割图。例如,预设的分割尺寸可以为64像素×64像素,但不限于此。
图3示意性示出了根据本公开实施例的分割第t帧图像的示意图。
如图3所示,第t帧图像310中可以包括三个对象的第二区域信息,该三个对象的第二区域信息分别在第t帧图像310中通过虚线框标出。由此,可以根据该三个对象的第二区域信息,对第t帧图像进行分割,得到分割图321、分割图322和分割图323,每个分割图可以各自包括一个第t帧图像中的不同的对象。
在操作S230,对分割图进行检测,确定第t帧图像中的至少一个第三区域信息。
根据本公开的实施例,由于第t帧图像中可能包括其他的对象,因此在分割之后得到的分割图中,也会可能包括其他的对象。由此,对分割图进行检测,可能会同时检测出目标对象在分割图的区域信息和其他对象在分割图的区域信息。基于此,至少一个第三区域信息可以包括目标对象在第t帧图像的区域信息和其他对象在分割图的区域信息。
根据本公开的实施例,可以利用经训练的CNN(Convolutional Neural Network,卷积神经网络)对分割图进行检测;还可以利用SSD(Single Shot MultiBox Detector,单次多边框检测器)算法对分割图进行检测;还可以利用YOLO(you only look once,基于深度神经网络的对象识别和定位)系列算法,对分割图进行检测。
根据本公开的实施例,通过对分割图进行检测,还可以得到目标对象的类别信息和置信度信息,但不限于此。
在操作S240,基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息,并基于目标区域信息对目标对象进行跟踪。
根据本公开的实施例,差异信息可以用于表征第二区域信息和第三区域信息之间的差异。
可以根据第二区域信息和第三区域信息之间的位置差异和尺寸差异,来确定差异信息;还可以仅根据第二区域信息和第三区域信息之间的尺寸差异,来确定差异信息。
通过确定差异信息,可以确定至少一个第三区域信息中,与得到的目标对象的第二区域信息,差异最小的第三区域信息。由此,可以将该差异最小的第三区域信息,确定为目标对象在第t帧图像中的实际的区域信息,即目标区域信息。
可以通过逐帧确定目标对象在每个帧图像中的目标区域信息,来实现对目标对象逐帧跟踪。
根据本公开的实施例,可以基于KCF(Kernel Correlation Filter,核相关滤波器)算法从至少一个第三区域信息中确定目标区域信息,并基于该目标区域信息对目标对象进行跟踪;还可以基于其他均值偏移算法,来从至少一个第三区域信息中确定目标区域信息,并基于该目标区域信息对目标对象进行跟踪。
由于仅利用KCF算法在没有先验知识的情况下,较难直接确定准确的目标区域信息,由此,在跟踪目标对象的过程中,可以利用检测得到的第三区域信息,来提高KCF算法输出的目标区域信息的准确性,而不是直接利用KCF算法仅根据目标对象的特征来进行跟踪,由此可以较为准确地确定目标区域信息并进行跟踪,但不限于此,也可以结合检测得到的目标对象的类别信息和置信度信息,来提高KCF算法输出的目标区域信息的准确性。
并且,由于CNN对目标发生形变或被遮挡等情况的适应性较难满足需求,因此,可以通过确定第二区域信息和第三区域信息之间的差异信息,来确定第t-1帧图像中的目标对象和第t帧图像中的目标对象之间的特征差异和特征变化,来提高CNN的适应性。
根据本公开的实施例,对目标对象进行跟踪,可以是对目标对象的目标区域信息进行锁定,但不限于此;也可以是将检测得到的目标对象的目标对象的类别信息和置信度信息与目标区域信息进行关联,但不限于此。
根据本公开的实施例,通过根据第t-1帧图像中的目标对象的第一区域信息,所确定的第t帧图像中的目标对象的第二区域信息,来对第t帧图像进行分割,再对分割图进行检测,由此减少了检测量,提高了检测速度,再根据检测第二区域信息和第三区域信息之间的差异信息,从至少一个第三区域信息中,较为准确地确定目标对象在第t帧图像中的目标区域信息,由此,提高了所确定的目标区域信息的准确性,进而可以实现对目标对象实时的准确跟踪。
根据本公开的实施例,在检测分割图而未得到第三区域信息的情况下,可以基于第t帧图像中的目标对象的第二区域信息和速度信息,对第三区域信息进行分割。例如,可以利用卡尔曼滤波算法处理第t帧图像中的目标对象的第二区域信息和速度信息,确定第t+1帧图像中的目标对象的第二区域信息,再利用该第t+1帧图像中的目标对象的第二区域信息对第t+1帧图像进行分割。也可以仅基于第t帧图像中的目标对象的第二区域信息,确定第t+1帧图像中的目标对象的第二区域信息,再利用该第t+1帧图像中的目标对象的第二区域信息对第t+1帧图像进行分割。
图4示意性示出了根据本公开实施例的目标区域信息确定方法的流程图。
如图4所示,该实施例的目标区域信息确定方法包括操作S401~S407。
在操作S401,基于第二区域信息,对第t帧图像进行分割,得到第t帧图像的分割图。
在操作S402,对分割图进行检测。
在操作S403,存在第三区域信息?如果否,则执行操作S404;如果是,则执行操作S405。
在操作S404,基于第二区域信息,分割第t+1帧图像。
在操作S405,第三区域信息为多个?如果否,则执行操作S406;如果是,则执行操作S407。
在操作S406,将第三区域信息确定为目标区域信息。
在操作S407,基于差异信息,从多个第三区域信息中确定目标区域信息。
根据本公开的实施例,在基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息,并基于目标区域信息对目标对象进行跟踪之前,上述目标跟踪方法还包括:将第二区域信息确定为第一候选区域信息。基于第t帧图像,确定目标对象的对象区域信息,并将对象区域信息确定为第二候选区域信息。确定第一候选区域信息和第二候选区域信息之间的相似度。在相似度低于预设相似度阈值的情况下,基于第一候选区域信息和第三区域信息,确定差异信息。
根据本公开的实施例,第一候选区域信息和第二候选区域信息均可以用于从至少一个第三区域信息中确定目标区域信息。例如,可以根据第一候选区域信息和至少一个上述第三区域信息之间的差异信息,从上述至少一个第三区域信息中确定目标区域信息;还可以根据第二候选区域信息和至少一个上述第三区域信息之间的差异信息,从上述至少一个第三区域信息中确定目标区域信息。
根据本公开的实施例,基于第t帧图像,确定目标对象的对象区域信息,并将对象区域信息确定为第二候选区域信息。例如,可以利用KCF算法,根据目标对象在第t帧图像的灰度、灰度分布和梯度等信息,对目标对象的特征进行归纳,得到特征模板,可以基于该特征模板,得到第二候选区域信息。
由于在目标对象被遮挡的情况下,利用KCF算法所确定的第二候选区域信息,会附带遮挡到目标对象的背景信息,在此情况下,第二候选区域信息的准确性会较难满足需求。基于此,直接利用KCF算法得到的第二候选区域信息来跟踪目标对象,可能会出现跟踪漂移或者算法失效等情况。需要说明的是,上述内容并不限于目标对象被遮挡,在目标对象发生形变,消失等情况下,也会影响第二候选区域信息的准确度。
基于此,需要通过确定第一候选区域信息和第二候选区域信息之间的相似度,来避免由于目标对象被遮挡而使预估得到的第二区域信息的准确度降低的问题,以使得在目标对象被遮挡的情况下,依然可以使目标区域信息的准确性满足需求。
例如,在第t帧图像中的目标对象被遮挡的情况下,基于第t-1帧图像,所预估得到的第一候选区域信息不会受到影响,但是基于第t帧图像得到的第二候选区域信息会由于目标对象被遮挡,而导致准确度降低。由此,基于第二候选区域信息来确定差异信息,会影响到所确定的差异信息的准确度。
在第一候选区域信息和第二候选区域信息相似度低于预设相似度阈值的情况下,可以确定目标对象被遮挡,进而可以基于较为准确的第一候选区域信息,来确定差异信息。其中,预设相似度阈值可以为80%、85%、90%等,本公开在此不作限定。
图5示意性示出了根据本公开实施例的确定第一区域信息的示意图。
如图5所示,可以确定第一候选目标区域信息510和第二候选目标区域信息520之间的相似度,由此,在相似度低于预设相似度阈值的情况下,可以将第一候选目标区域信息510确定为第一区域信息。
根据本公开的实施例,通过将根据第一区域信息确定的第二区域信息,确定为第一候选区域信息,以及将根据第t帧图像确定的目标对象的对象区域信息,确定为第二候选区域信息,由此,可以在第一候选区域信息和第二候选区域信息的相似度低于预设相似度阈值的情况下,使用较为准确的第一候选区域信息,来与第三区域信息,确定差异信息,提高了差异信息的准确度。
图6示意性示出了根据本公开实施例的确定第二区域信息的示意图。
如图6所示,可以对分割图601进行检测,得到第三区域信息602。可以根据第一候选区域信息603和第二候选区域信息604,确定第一候选区域信息603和第二候选区域信息604之间的相似度605。在相似度低于预设相似度阈值的情况下,根据第一候选区域信息603和第三区域信息602,确定第三区域信息602和第一候选区域信息603之间的差异信息606,进而可以根据差异信息606,确定目标区域信息607,该目标区域信息607可以作为下一帧图像的第一区域信息,由此可以确定下一帧图像的第二区域信息608。
根据本公开的实施例,在第一候选区域信息和第二候选区域信息相似度高于预设相似度阈值的情况下,可以确定目标对象未被遮挡,进而可以确定较为准确的第二候选区域信息与至少一个上述第三区域信息之间的差异信息,来从上述至少一个第三区域信息中,确定目标区域信息,实现对目标对象的跟踪。
根据本公开的实施例,第一区域信息包括第一区域中心信息和第一区域范围信息。基于目标对象的第一区域信息,确定目标对象的第二区域信息,包括:利用第一滤波算法和第二滤波算法处理目标对象的速度信息和第一区域中心信息,确定第t帧图像中的目标对象的第二区域中心信息,其中,速度信息表征目标对象在第t-1帧图像中的速度信息,第二滤波算法用于降低第一滤波算法的误差。根据第二区域中心信息和第一区域范围信息,得到第二区域信息。
根据本公开的实施例,第一滤波算法可以是卡尔曼滤波算法;第二滤波算法可以是滑动加权平均滤波算法。
根据本公开的实施例,第一区域中心信息,可以包括目标对象在第t-1帧图像中的上述检测框中心的坐标信息;第二区域中心信息,可以包括目标对象在第t帧图像中的上述检测框中心的坐标信息。
根据本公开的实施例,由于卡尔曼滤波算法在启动初期没有学习到观测噪声和系统噪声的知识,因此,在卡尔曼滤波算法的输出结果存在漂移大,收敛慢等问题,精度相对于其他滤波方法较低。基于此,发明人发现,可以利用滑动加权平均滤波算法来降低卡尔曼滤波算法在启动初期的误差。
由于卡尔曼算法在启动初期的一定帧数内会存在较大误差,由此,可以设置在预设帧数内,利用卡尔曼滤波算法对第一区域中心信息进行滤波处理,得到中间区域中心信息;再利用滑动加权平均滤波算法处理中间区域中心信息,得到第二区域中心信息。其中,预设帧数可以为20帧,25帧,30帧等,本公开对此不作限定。
而超过预设帧数,则可以仅利用卡尔曼滤波算法对第一区域中心信息进行滤波处理,得到中间区域中心信息,再将该中间区域中心信息直接确定为第二区域中心信息。
结合卡尔曼滤波算法和滑动加权平均滤波算法的热启动机制公式如公式(1)和公式(2)所示,下述公式(1)和(2)以确定第t+1帧图像的第二区域中心信息为例。
其中,t可以表示帧数,Kalman(X(t))可以表示第t+1帧图像的中间区域中心信息,可以表示第t+1帧图像的第二区域中心信息,a可以表示权重信息,X(t)可以表示第t+1帧图像的第一区域中心信息,/>可以表示基于第t帧图像所得到的第二区域中心信息,times可以为预设帧数。
根据本公开的实施例,通过利用第二滤波算法降低第一滤波算法的误差,提高了第一候选区域信息的准确性。
根据本公开的实施例,可以将第t-1帧图像中的目标对象的置信度信息和类别信息,作为第t帧图像中的目标对象的置信度信息和类别信息,但不限于此。其中,第一区域范围信息可以包括在第t-1帧图像中,目标对象的上述检测框的宽度信息和高度信息。
图7示意性示出了根据本公开实施例的第二区域中心信息确定方法的流程图。
如图7所示,该实施例的第二区域中心信息确定方法包括操作S710~S740。
在操作S710,利用第一滤波算法处理第一区域中心信息,得到中间区域中心信息。
在操作S720,确定帧数小于预设帧数?如果是,则执行操作S730;如果否,则执行操作S740。
在操作S730,利用第二滤波算法处理中间区域中心信息得到第二区域中心信息。
在操作S740,将中间区域中心信息确定为第二区域中心信息。
根据本公开的实施例,第二区域信息包括第二区域中心信息和第一区域范围信息,第三区域信息包括第三区域中心信息和第二区域范围信息。在基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息之前,上述目标跟踪方法还包括:基于第二区域中心信息、第一区域范围信息、第三区域中心信息和第二区域范围信息,确定差异信息。
根据本公开的实施例,可以通过下述公式(3)来确定差异信息:
其中,D可以表示差异信息,第二区域中心信息可以表示为(x1,y1),第一区域范围信息可以表示为(w1,h1),第三区域中心信息可以表示为(x2,y2),第四区域范围信息可以表示为(w2,h2)。w1和w2可以表示区域宽度信息,h1和h2可以表示区域高度信息。x1和x2可以表示基于第t帧图像建立的二维坐标系的x轴的坐标信息,y1和y2可以表示基于第t帧图像建立的二维坐标系的y轴的坐标信息。
根据本公开的实施例,由于基于第二区域中心信息、第一区域范围信息、第三区域中心信息和第二区域范围信息,实现了差异信息的确定,由此得到的准确性满足需求的差异信息。
根据本公开的实施例,上述目标跟踪方法还包括:对视频的第1帧图像进行检测,得到第1帧图像中的目标对象的第五区域信息,其中,第五区域信息能用于确定第一区域信息。
根据本公开的实施例,第五区域信息可以是目标对象在第1帧图像中的区域信息。由于第1帧图像为视频的首帧图像,因此,仅能通过对第1帧图像进行全局检测,来得到第1帧图像中的目标对象的第五区域信息,而不能基于上一帧的结果来对第1帧图像进行分割,再针对第1帧图像的分割图进行检测。
根据本公开的实施例,在第t帧图像之前的帧图像均不存在目标对象的情况下,可以对第t帧图像进行全局检测,来得到第t帧图像中的目标对象。
根据本公开的实施例,在t=2的情况下,可以利用卡尔曼滤波算法或者滑动加权平均滤波算法处理第五区域信息,来确定第一区域信息;或者,在第t-1帧图像之前的帧图像不存在目标对象的情况下,可以对第t-1帧图像进行全局检测,得到第五区域信息。由此,可以利用卡尔曼滤波算法或者滑动加权平均滤波算法处理第五区域信息,来确定第一区域信息。
图8示意性示出了根据本公开另一实施例的目标跟踪方法的流程图。
如图8所示,该实施例的目标跟踪方法包括操作S801~S808。
在操作S801,输入视频第t帧图像。
在操作S802,确定第t帧图像为第1帧图像?如果是,则执行S803;如果否,则执行S805。
在操作S803,对第t帧图像进行检测,得到第五区域信息。
在操作S804,将第五区域信息作为目标区域信息。
在操作S805,基于第二区域信息,对第t帧图像进行分割,得到分割图。
在操作S806,对分割图进行检测,得到至少一个第三区域信息。
在操作S807,基于第二区域信息和至少一个第三区域信息之间的差异信息,确定目标区域信息。
在操作S808,基于目标区域信息,跟踪目标对象。
根据本公开的实施例,对分割图进行检测,确定第t帧图像中的至少一个第三区域信息,包括:将分割图输入第一目标形状感知模块,输出第一处理图。将第一处理图输入第一凝视模块,输出第二处理图。将第二处理图输入第一降采样模块,输出第一降采样处理图。将第一降采样处理图输入第一解耦模块,输出第三区域信息。
根据本公开的实施例,可以将分割图输入第一目标检测网络,来得到第三区域信息。第一目标检测网络可以用于对分割图进行检测。第一目标检测网络可以包括第一目标形状感知模块、第一凝视模块、第一降采样模块和第一解耦模块。其中,第一解耦模块可以包括多个解耦头。
根据本公开的实施例,第一目标检测网络的主体可以是用于检测分割图中的红外车辆和行人等较小目标的IRSDet-Lite-D2目标检测模型。第一目标检测网络的输入可以包括64像素×64像素×1通道的分割图,但不限于此;输出可以包括目标对象的类别信息、置信度信息和区域信息,但不限于此。该模型的后处理函数可以与yolov5算法的后处理函数一致,但不限于此。yolov5算法属于上述YOLO系列算法,在此不再赘述。
图9示意性示出了根据本公开实施例的第一目标检测网络的示意图。
如图9所示,Input Image可以表示分割图,64×64×1可以表示分割图的尺寸,SPblock(Shape Perception Block,目标形状感知模块)可以表示第一目标形状感知模块。第一凝视模块(Gaze block)可以包括处理层L1、处理层L2和处理层L3,其中,处理层L1和处理层L2之间的方块表示处理层L1的输出图像;处理层L2和处理层L3之间的方块表示L2的输出图像;可以将处理层L2和处理层L3输出的图像作为上述第二处理图,输入到第一降采样模块(Optimized FPN+PAN,Optimized Feature Pyramid Network+Pyramid AttentionNetwork),第一降采样模块可以将分辨率不同的第一降采样处理图分别输入到第一解耦模块中的多个解耦头(Decoupled Head)中,再由解耦头输出第三区域信息。
根据本公开的实施例,对视频的第1帧图像进行检测,得到第1帧图像中的目标对象的第五区域信息,包括:将第1帧图像输入第二目标形状感知模块,输出第三处理图。将第三处理图输入第二凝视模块,输出第四处理图。将第四处理图输入第二降采样模块,输出第二降采样处理图。将第二降采样处理图输入第二解耦模块,输出第五区域信息。
根据本公开的实施例,可以将第1帧图像输入第二目标检测网络,来得到第五区域区域信息。第二目标检测网络可以用于对第1帧图像进行检测。第一目标检测网络可以包括第二目标形状感知模块、第二凝视模块、第二降采样模块和第二解耦模块。其中,第二解耦模块可以包括多个解耦头。
根据本公开的实施例,第二目标检测网络可以是用于检测整幅视频图像中的红外车辆和行人较小目标IRSDet-Lite-D1目标检测模型,可以是一种基于CNN的目标检测模型。该模型的输入可以包括640像素×640像素×1通道(宽×高×深)的图像,但不限于此;输出可以包括目标对象的类别信息、置信度信息和区域信息,但不限于此。该模型的后处理函数可以与yolov5算法的后处理函数一致,但不限于此。yolov5算法属于上述YOLO系列算法,在此不再赘述。
图10示意性示出了根据本公开实施例的第二目标检测网络的结构示意图。
如图10所示,SP block(Shape Perception Block,目标形状感知模块)可以表示第一目标形状感知模块。第一凝视模块(Gaze block)可以包括处理层L1、处理层L2和处理层L3,其中,处理层L1和处理层L2之间的方块表示处理层L1的输出图像;处理层L2和处理层L3之间的方块表示L2的输出图像;L2和L3可以将输出的图像作为上述第二处理图,输入到第一降采样模块(Optimized FPN+PAN,Optimized Feature Pyramid Network+PyramidAttention Network),第一降采样模块可以将分辨率不同的第一降采样处理图分别输入到第一解耦模块中的多个解耦头(Decoupled Head)中,再由解耦头输出第三区域信息。
图11示意性示出了根据本公开实施例的第一目标形状感知模块或者第二目标形状感知模块的结构示意图。
如图11所示,Input可以表示输入的分割图或者第1帧图像,Output可以表示输出的第一处理图或者第三处理图。第一目标形状感知模块或者第二目标形状感知模块可以包括CA(Convolutional layer+Attention layer,卷积层+注意力层)和CBA(Convolutionallayer+Batch normalization layer+Attention layer,卷积层+批归一化层+注意力层)。k可以表示卷积核,S可以表示步长,d可以表示空洞率。表示第一目标形状感知模块或者第二目标形状感知模块中传播的图像在通道维度上的叠加,⊕表示第一目标形状感知模块或者第二目标形状感知模块中传播的图像对应通道上元素加法。例如:x*y*l的图像和x*y*m的图像,/>操作是将两者按照第三维度叠加,结果可以为x*y*(l+m)。⊕操作可以仅在两个特征图形状完全一致的情况下进行,结果可以为对应索引位置的两个数值相加。即输入都是x*y*l的图像,输出也是x*y*l的图像。
图12示意性示出了根据本公开实施例的第一凝视模块或者第二凝视模块的结构示意图。
如图12所示,第一凝视模块或者第二凝视模块可以包括CBA、BottleNeck block(瓶颈块)、Guide Block(引导块)。Input可以表示输入的第一处理图或者第三处理图,Output可以表示输出的第二处理图或者第四处理图。图12中指引线上的C可以表示在第一凝视模块或者第二凝视模块中传播的图像的通道数。
图13示意性示出了根据本公开实施例的第一降采样处理模块或者第二降采样处理模块的结构示意图。
如图13所示,第一降采样处理模块或者第二降采样处理模块可以包括gaze block(凝视块)、Upsampling(上采样)、Downsampling(下采样)和CBA。其中,C1、C2和C3可以分别表示多个分辨率不同的第二处理图或者示多个分辨率不同的第四处理图,P1、P2和P3可以表示多个分辨率不同的第一降采样处理图或者多个分辨率不同的第二降采样处理图。图中的虚线框示意性标示出了凝视块,凝视块的结构可以与上述第一凝视模块或第二凝视模块的结构相同或相类似。
图14示意性示出了根据本公开实施例的解耦头的结构示意图。
如图14所示,解耦头可以包括CBA、Conv(卷积层)。Input可以表示输入的第一降采样处理图和第二降采样处理图。Output可以包括输出的第三区域信息或者第五区域信息。
根据本公开的实施例,本公开的目标跟踪方法可以在实现嵌入式平台端实现,例如,可以在瑞芯微RK3588S嵌入式平台实现,但不限于此。本公开的方法在20帧~110帧具有满足需求的处理速度,以及具有满足需求的跟踪准确度。
图15a示意性示出了根据本公开实施例的行人标签的示意图。
图15b示意性示出了根据本公开实施例的检测行人的示意图。
图15c示意性示出了根据本公开实施例的车辆标签的示意图。
图15d示意性示出了根据本公开实施例的检测车辆的示意图。
如图15a和图15b所示,图15a中可以包括标注的目标对象,该目标对象可以为行人,由此,通过对行人进行标注,以得到用于训练第一目标检测网络和第二目标检测网络的标签。图15b中可以包括利用第一目标检测模型或者第二目标检测模型进行检测,所得到的目标对象的类别信息、置信度信息和区域信息。例如,类别信息可以包括图15b中的person,置信度信息可以包括图15b中的0.9等,区域信息由检测框表示。
如图15c和图15d所示,图14c中可以包括标注的目标对象,该目标对象可以为车辆,由此,通过对车辆进行标注,以得到用于训练第一目标检测网络和第二目标检测网络的标签。图14d中可以包括利用第一目标检测模型或者第二目标检测模型进行检测,所得到的目标对象的类别信息、置信度信息和区域信息。例如,类别信息可以包括图14d中的car,置信度信息可以包括图14d中的0.96等,区域信息由检测框表示。
图16示意性示出了根据本公开实施例的重合轨迹的第一个示意图。
图17示意性示出了根据本公开实施例的重合轨迹的第二个示意图。
如图16和图17所示,图16中的标签轨迹和预测轨迹几乎重合,以及图17中的标签轨迹和预测轨迹几乎重合,由此,可以看出本公开的目标跟踪方法的跟踪准确度满足需求,并且,基于线段的连续性,可以看出本公开的目标跟踪方法可以实时逐帧进行跟踪。
基于上述目标跟踪方法,本公开还提供了一种目标跟踪装置。以下将结合图18对该装置进行详细描述。
图18示意性示出了根据本公开实施例的目标跟踪装置的结构框图。
如图18所示,该实施例的目标跟踪装置1800包括第一确定模块1810、分割模块1820、第二确定模块1830和第三确定模块1840。
第一确定模块1810用于基于目标对象的第一区域信息,确定目标对象的第二区域信息,其中,第一区域信息表征目标对象在视频的第t-1帧图像中的区域信息,第二区域信息表征目标对象在视频的第t帧图像中的区域信息,t为大于3的整数。在一实施例中,第一确定模块1810可以用于执行前文描述的操作S210,在此不再赘述。
分割模块1820用于基于第二区域信息,对第t帧图像进行分割,得到第t帧图像的分割图。在一实施例中,分割模块1820可以用于执行前文描述的操作S220,在此不再赘述。
第二确定模块1830用于对分割图进行检测,确定第t帧图像中的至少一个第三区域信息。在一实施例中,第二确定模块1830可以用于执行前文描述的操作S230,在此不再赘述。
第三确定模块1840用于基于第二区域信息与至少一个第三区域信息之间的差异信息,从至少一个第三区域信息中确定目标区域信息,并基于目标区域信息对目标对象进行跟踪。在一实施例中,第三确定模块1840可以用于执行前文描述的操作S240,在此不再赘述。
需要说明的是,上述目标跟踪装置与上述目标跟踪方法是相对应的,上述目标跟踪装置可以包括用于实现上述流程图中涉及的目标跟踪方法所有功能的模块、单元、子单元等,为了描述的简洁起见,在此不再赘述,具体描述可参考上述对目标跟踪方法的描述。
根据本公开的实施例,第一确定模块1810、分割模块1820、第二确定模块1830和第三确定模块1840中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一确定模块1810、分割模块1820、第二确定模块1830和第三确定模块1840中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一确定模块1810、分割模块1820、第二确定模块1830和第三确定模块1840中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图19示意性示出了根据本公开实施例的适于实现目标跟踪方法的电子设备的方框图。
如图19所示,根据本公开实施例的电子设备1900包括处理器1901,其可以根据存储在只读存储器(ROM)1902中的程序或者从存储部分1908加载到随机访问存储器(RAM)1903中的程序而执行各种适当的动作和处理。处理器1901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器1901还可以包括用于缓存用途的板载存储器。处理器1901可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1903中,存储有电子设备1900操作所需的各种程序和数据。处理器1901、ROM 1902以及RAM 1903通过总线1904彼此相连。处理器1901通过执行ROM 1902和/或RAM1903中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 1902和RAM 1903以外的一个或多个存储器中。处理器1901也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备1900还可以包括输入/输出(I/O)接口1905,输入/输出(I/O)接口1905也连接至总线1904。电子设备1900还可以包括连接至输入/输出(I/O)接口1905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1907;包括硬盘等的存储部分1908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1909。通信部分1909经由诸如因特网的网络执行通信处理。驱动器1910也根据需要连接至输入/输出(I/O)接口1905。可拆卸介质1911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1910上,以便于从其上读出的计算机程序根据需要被安装入存储部分1908。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 1902和/或RAM 1903和/或ROM 1902和RAM 1903以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的目标跟踪方法。
在该计算机程序被处理器1901执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1909被下载和安装,和/或从可拆卸介质1911被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分1909从网络上被下载和安装,和/或从可拆卸介质1911被安装。在该计算机程序被处理器1901执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (10)
1.一种目标跟踪方法,包括:
基于目标对象的第一区域信息,确定所述目标对象的第二区域信息,其中,所述第一区域信息表征所述目标对象在视频的第t-1帧图像中的区域信息,所述第二区域信息表征所述目标对象在所述视频的第t帧图像中的区域信息,t为大于等于3的整数;
基于所述第二区域信息,对所述第t帧图像进行分割,得到所述第t帧图像的分割图;
对所述分割图进行检测,确定所述第t帧图像中的至少一个第三区域信息;
基于所述第二区域信息与至少一个所述第三区域信息之间的差异信息,从所述至少一个第三区域信息中确定目标区域信息,并基于所述目标区域信息对所述目标对象进行跟踪。
2.根据权利要求1所述的方法,其中,在所述基于所述第二区域信息与至少一个所述第三区域信息之间的差异信息,从所述至少一个第三区域信息中确定目标区域信息,并基于所述目标区域信息对所述目标对象进行跟踪之前,所述方法还包括:
将所述第二区域信息确定为第一候选区域信息;
基于所述第t帧图像,确定所述目标对象的对象区域信息,并将所述对象区域信息确定为第二候选区域信息;
确定所述第一候选区域信息和所述第二候选区域信息之间的相似度;
在所述相似度低于预设相似度阈值的情况下,基于所述第一候选区域信息和所述第三区域信息,确定所述差异信息。
3.根据权利要求1所述的方法,其中,所述第一区域信息包括第一区域中心信息和第一区域范围信息;
所述基于目标对象的第一区域信息,确定所述目标对象的第二区域信息,包括:
利用第一滤波算法和第二滤波算法处理所述目标对象的速度信息和所述第一区域中心信息,确定所述第t帧图像中的目标对象的第二区域中心信息,其中,所述速度信息表征所述目标对象在所述第t-1帧图像中的速度信息,所述第二滤波算法用于降低所述第一滤波算法的误差;
根据所述第二区域中心信息和所述第一区域范围信息,得到所述第二区域信息。
4.根据权利要求1所述的方法,其中,所述第二区域信息包括第二区域中心信息和第一区域范围信息,所述第三区域信息包括第三区域中心信息和第二区域范围信息;
在所述基于所述第二区域信息与至少一个所述第三区域信息之间的差异信息,从所述至少一个第三区域信息中确定目标区域信息之前,所述方法还包括:
基于所述第二区域中心信息、所述第一区域范围信息、所述第三区域中心信息和所述第二区域范围信息,确定所述差异信息。
5.根据权利要求1所述的方法,其中,所述对所述分割图进行检测,确定所述第t帧图像中的至少一个第三区域信息,包括:
将所述分割图输入第一目标形状感知模块,输出第一处理图;
将所述第一处理图输入第一凝视模块,输出第二处理图;
将所述第二处理图输入第一降采样模块,输出第一降采样处理图;
将所述第一降采样处理图输入第一解耦模块,输出所述第三区域信息。
6.根据权利要求1所述的方法,还包括:
对所述视频的第1帧图像进行检测,得到所述第1帧图像中的所述目标对象的第五区域信息,其中,所述第五区域信息能用于确定所述第一区域信息。
7.根据权利要求6所述的方法,其中,所述对所述视频的第1帧图像进行检测,得到所述第1帧图像中的所述目标对象的第五区域信息,包括:
将所述第1帧图像输入第二目标形状感知模块,输出第三处理图;
将所述第三处理图输入第二凝视模块,输出第四处理图;
将所述第四处理图输入第二降采样模块,输出第二降采样处理图;
将所述第二降采样处理图输入第二解耦模块,输出所述第五区域信息。
8.一种目标跟踪装置,包括:
第一确定模块,用于基于目标对象的第一区域信息,确定所述目标对象的第二区域信息,其中,所述第一区域信息表征所述目标对象在视频的第t-1帧图像中的区域信息,所述第二区域信息表征所述目标对象在所述视频的第t帧图像中的区域信息,t为大于等于3的整数;
分割模块,用于基于所述第二区域信息,对所述第t帧图像进行分割,得到所述第t帧图像的分割图;
第二确定模块,用于对所述分割图进行检测,确定所述第t帧图像中的至少一个第三区域信息;
第三确定模块,用于基于所述第二区域信息与至少一个所述第三区域信息之间的差异信息,从所述至少一个第三区域信息中确定目标区域信息,并基于所述目标区域信息对所述目标对象进行跟踪。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310371465.7A CN116453017A (zh) | 2023-04-10 | 2023-04-10 | 目标跟踪方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310371465.7A CN116453017A (zh) | 2023-04-10 | 2023-04-10 | 目标跟踪方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116453017A true CN116453017A (zh) | 2023-07-18 |
Family
ID=87121409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310371465.7A Pending CN116453017A (zh) | 2023-04-10 | 2023-04-10 | 目标跟踪方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116453017A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118097521A (zh) * | 2024-04-28 | 2024-05-28 | 腾讯科技(深圳)有限公司 | 对象识别方法、装置、设备、介质及程序产品 |
-
2023
- 2023-04-10 CN CN202310371465.7A patent/CN116453017A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118097521A (zh) * | 2024-04-28 | 2024-05-28 | 腾讯科技(深圳)有限公司 | 对象识别方法、装置、设备、介质及程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11216955B2 (en) | Target tracking methods and apparatuses, electronic devices, and storage media | |
US20240013506A1 (en) | Joint training of neural networks using multi-scale hard example mining | |
US11643076B2 (en) | Forward collision control method and apparatus, electronic device, program, and medium | |
US11321593B2 (en) | Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device | |
US11270158B2 (en) | Instance segmentation methods and apparatuses, electronic devices, programs, and media | |
US10984266B2 (en) | Vehicle lamp detection methods and apparatuses, methods and apparatuses for implementing intelligent driving, media and devices | |
Nieto et al. | Real-time lane tracking using Rao-Blackwellized particle filter | |
Xu et al. | Fast vehicle and pedestrian detection using improved Mask R‐CNN | |
KR20200044108A (ko) | 단안 이미지 깊이 추정 방법 및 장치, 기기, 프로그램 및 저장 매체 | |
Benito-Picazo et al. | Deep learning-based video surveillance system managed by low cost hardware and panoramic cameras | |
KR20210012012A (ko) | 물체 추적 방법들 및 장치들, 전자 디바이스들 및 저장 매체 | |
KR102387357B1 (ko) | 바운딩 박스를 시공간상으로 매칭하여 영상 내 객체를 검출하는 방법 및 장치 | |
CN116453017A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN110390295B (zh) | 一种图像信息识别方法、装置及存储介质 | |
Yang et al. | YOLOv8-Lite: A Lightweight Object Detection Model for Real-time Autonomous Driving Systems | |
Liu et al. | A joint optical flow and principal component analysis approach for motion detection | |
WO2023105800A1 (en) | Object detection device, object detection method, and object detection system | |
CN113762027B (zh) | 一种异常行为的识别方法、装置、设备及存储介质 | |
Truong et al. | Single object tracking using particle filter framework and saliency-based weighted color histogram | |
US11170267B1 (en) | Method, system and computer program product for region proposals | |
CN113379591B (zh) | 速度确定方法、速度确定装置、电子设备及存储介质 | |
US20220012506A1 (en) | System and method of segmenting free space based on electromagnetic waves | |
EP4379659A1 (en) | Enhanced tracking and speed detection | |
CN115431968B (zh) | 车辆控制器、车辆及车辆控制方法 | |
Mišić et al. | Improving performance of background subtraction on mobile devices: a parallel approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |