CN114219829A - 车辆跟踪方法、计算机设备及存储装置 - Google Patents

车辆跟踪方法、计算机设备及存储装置 Download PDF

Info

Publication number
CN114219829A
CN114219829A CN202111306742.3A CN202111306742A CN114219829A CN 114219829 A CN114219829 A CN 114219829A CN 202111306742 A CN202111306742 A CN 202111306742A CN 114219829 A CN114219829 A CN 114219829A
Authority
CN
China
Prior art keywords
vehicle
detection frame
target
frame
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111306742.3A
Other languages
English (en)
Inventor
郝行猛
舒梅
杨文韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202111306742.3A priority Critical patent/CN114219829A/zh
Publication of CN114219829A publication Critical patent/CN114219829A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请公开了一种车辆跟踪方法、计算机设备及存储装置。该方法包括:对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框;确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对历史视频帧进行第二车辆部位的检测得到的检测框;第一车辆部位和第二车辆部位的类型不同,历史视频帧包括预设视频中当前视频帧之前的视频帧;从各个候选部位检测框确定出目标部位检测框,并将目标部位检测框和待处理部位检测框进行关联;目标部位检测框标识的第二车辆部位和待处理部位检测框标识的第一车辆部位属于同一目标车辆;基于关联后的目标部位检测框和待处理部位检测框,对目标车辆进行跟踪,能够提高对目标车辆的跟踪效率。

Description

车辆跟踪方法、计算机设备及存储装置
技术领域
本申请涉及图像处理技术领域,特别是涉及一种车辆跟踪方法、计算机设备及存储装置。
背景技术
随着现代化交通道路发展及智能交通管理系统普及,交通安全越显重要。居民生活、电子警察、智能高清卡口、违停取证、雷达超速抓拍等辅助方法在智能交通领域发挥关键作用。
智能交通系统可以在各种场所的出入口、停车场、道路等交通场景对车辆进行跟踪抓拍。目前大多数用于车辆抓拍的监控系统都具备识别功能,对车辆进行跟踪过程中可以对车辆抓拍,对车辆抓拍之后可以对车辆的车牌信息进行识别。目前,由于存在对车辆跟踪的不稳定性,导致对车辆进行抓拍时,出现车辆漏抓拍或多抓拍等情况,并且可能无法准确的识别车辆的车牌信息,对车辆的跟踪效率低。
发明内容
本申请主要解决的技术问题是提供一种车辆跟踪方法、计算机设备及存储装置,能够提高对目标车辆的跟踪效率。
为了解决上述问题,本申请第一方面提供了一种车辆跟踪方法,该方法包括:对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框;确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对历史视频帧进行第二车辆部位的检测得到的检测框;第一车辆部位和第二车辆部位的类型不同,历史视频帧包括预设视频中当前视频帧之前的视频帧;从各个候选部位检测框确定出目标部位检测框,并将目标部位检测框和待处理部位检测框进行关联;目标部位检测框标识的第二车辆部位和待处理部位检测框标识的第一车辆部位属于同一目标车辆;基于关联后的目标部位检测框和待处理部位检测框,对目标车辆进行跟踪。
为了解决上述问题,本申请第二方面提供了一种计算机设备,该计算机设备包括相互耦接的存储器和处理器,存储器中存储有程序数据,处理器用于执行程序数据以实现上述车辆跟踪方法中的任一步骤。
为了解决上述问题,本申请第三方面提供了一种存储装置,该存储装置存储有能够被处理器运行的程序数据,程序数据用于实现上述车辆跟踪方法中的任一步骤。
上述方案,对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框;确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对历史视频帧进行第二车辆部位的检测得到的检测框;第一车辆部位和第二车辆部位的类型不同,历史视频帧包括预设视频中当前视频帧之前的视频帧;通过对车辆的不用部位的局部关键区域进行检测方式,得到第一车辆部位及第二车辆部位对应的检测框,可以缩小对目标车辆的有效特征关注范围;从各个候选部位检测框中确定出目标部位检测框,并将目标部位检测框和待处理部位检测框进行关联;其中,目标部位检测框标识的第二车辆部位和待处理部位检测框标识的第一车辆部位属于同一目标车辆;基于关联后的目标部位检测框和待处理部位检测框,对目标车辆进行跟踪,可以减少目标车辆在密集或者近距离交汇时的交叠区域,提高对目标车辆进行跟踪的稳定性,通过对目标部位检测框和待处理部位检测框的两者联动跟踪、相互补充的抓拍方式,能够提高对目标车辆的跟踪效率。
附图说明
为了更清楚地说明本申请中的技术方案,下面将对实施例描述中所需要的附图作简单的介绍,显而易见地,下面描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来说,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请车辆跟踪方法第一实施例的流程示意图;
图2是本申请车辆的第一车辆部位、第二车辆部位第一实施例的示意图;
图3是本申请车辆的第一车辆部位、第二车辆部位第二实施例的示意图;
图4是本申请车辆的第一车辆部位、第二车辆部位第三实施例的示意图;
图5是本申请图1中步骤S13第一实施例的流程示意图;
图6是本申请图5中步骤S1313一实施例的实例示意图;
图7是本申请图1中步骤S13第二实施例的流程示意图;
图8是本申请图1中步骤S13第三实施例的流程示意图;
图9是本申请图1中步骤S14一实施例的流程示意图;
图10是本申请车辆跟踪方法第二实施例的流程示意图;
图11是本申请车辆跟踪方法第三实施例的流程示意图;
图12是本申请车辆抓拍装置第一实施例的结构示意图;
图13是本申请车辆抓拍装置第二实施例的结构示意图;
图14是本申请计算机设备一实施例的结构示意图;
图15是本申请存储装置一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中的术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请提供以下实施例,下面对各实施例进行具体说明。
请参阅图1,图1是本申请车辆跟踪方法第一实施例的流程示意图。该方法可以包括以下步骤:
S11:对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框。
预设视频是对车辆拍摄得到的视频,预设视频可以是监控视频。例如在智慧交通场景中,可以利用监控系统对道路、停车场等场景的车辆拍摄得到监控视频,其中,可以实时获取由监控系统对车辆进行实时拍摄的监控视频,也可以是由监控系统在预设时间段内对车辆拍摄得到监控视频,本申请对此不做限制。
在一些实施方式中,第一车辆部位可以包括车辆部位、车脸部位、车牌部位、车灯部位、车窗部位等中的至少一种。其中,车辆部位包括对完整的整个车辆,车脸部位包括车头车脸部位和/或车尾车脸部位。
在一些实施方式中,可以利用检测模型对预设视频的视频帧进行第一车辆部位的检测,得到待处理部位检测框的检测结果;其中,检测结果包括坐标框信息、置信度、分类结果;分类结果可以表示第一车辆部位的类别,例如可以表示类别:车辆部位、车脸部位、车牌部位、车灯部位或车窗部位。
在一些实施方式中,利用检测模型对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框。若当前视频帧包括多个车辆,则可以得到多个车辆的待处理部位检测框。
例如第一车辆部位包括车脸部位或车牌部位,则可以利用检测模型对预设视频的当前视频帧的车辆进行车脸部位、车牌部位进行定位检测,以得到当前视频帧对第一车辆部位的检测结果,也即得到车脸部位或车牌部位对应的检测框及检测结果,检测结果可以包括车辆的车脸检测框或车牌检测框的检测结果。
在一些实施方式中,检测模型可以是基于深度学习的算法模型,例如可以利用YOLO算法(You Only Look Once)检测视频的视频帧的中所有车辆的车脸部位、车牌部位,以得到所有车辆的第一车辆部位的检测结果,也即是输出对所有车辆检测出的车脸检测框和车牌检测框。
检测结果可以包括检测框的位置信息(或坐标信息)、分类结果(检测框所属的类别)、检测框对应的置信度,检测框所属的类别可以包括车脸部位或车牌部位的类别,检测框的分类结果可以用字符进行表示,例如可以用第一字符“0”表示车脸部位的类别,用第二字符“1”表示车牌部位的类别。从而可以利用YOLO算法检测预设视频中每一帧视频帧的检测结果。
在一些实施方式中,在得到预设视频的当前视频帧的车辆的待处理部位检测框的检测结果之后,可以判断检测结果的置信度是否大于预设置信度阈值,若置信度大于预设置信度阈值,则可以将该视频帧作为作为目标车辆对于当前视频帧的起始视频帧,也即是可以从该视频帧开始对目标车辆进行跟踪。其中,预设置信度阈值可以是用户预先设定的参数。也即是可以将该当前视频帧的车辆作为目标车辆,将当前视频帧作为目标车辆的起始视频帧,使得可以在起始视频帧之后的视频帧对目标车辆进行跟踪。通过将置信度大于预设置信度阈值的当前视频帧作为目标车辆在预设视频的起始视频帧,可以提高确定的目标车辆的有效性,并确保有效的目标车辆的起始状态的稳定性。
S12:确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对历史视频帧进行第二车辆部位的检测得到的检测框;第一车辆部位和第二车辆部位的类型不同,历史视频帧包括预设视频中当前视频帧之前的视频帧。
得到待处理部位检测框之后,可以确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对历史视频帧进行第二车辆部位的检测得到的检测框。在此之前,可以对历史视频帧进行第二车辆部位的检测,得到候选部位检测框,其中,历史视频帧包括预设视频中当前视频帧之前的视频帧,第二车辆部位也可以为车辆部位、车脸部位、车牌部位、车灯部位或车窗部位,第二车辆部位与第一车辆部位的类型不同。本申请中,对历史视频帧进行第二车辆部位的检测得到的候选部位检测框的过程可以参考上述步骤S11中,对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框的过程,本申请在此不再赘述。
在一些实施方式中,在步骤S11中对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框的过程中,也可以对预设视频的当前视频帧进行第二车辆部位的检测,第二车辆部位与第一车辆部位的类型不同。该过程可以参考上述步骤S11的具体实施过程,本申请在此不再赘述。
在一些实施方式中,在该步骤S12中,可以确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对当前视频帧进行第二车辆部位的检测得到的检测框;第一车辆部位和第二车辆部位的类型不同。
在一些实施方式中,在该步骤S12中,可以确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对当前视频帧和历史视频帧进行第二车辆部位的检测得到的检测框;其中,第一车辆部位和第二车辆部位的类型不同,历史视频帧包括预设视频中当前视频帧之前的视频帧。
在一些实施方式中,同一目标车辆的第一车辆部位和第二车辆部位存在重合区域。存在重合区域可以表示第一车辆部位和第二车辆部位在同一目标车辆存在包含关系,例如第一车辆部位包含第二车辆部位,或者,第二车辆部位包含第一车辆部位。存在重合区域也可以表示第一车辆部位和第二车辆部位在同一目标车辆中的位置存在部分重合的区域。第一车辆部位和第二车辆部位的类型不同。第一车辆部位和第二车辆部位可以包括车辆部位、车脸部位、车牌部位、车灯部位、车窗部位等中的至少一种。例如第一车辆部位为车辆部位,则第二部位为车脸部位、车牌部位、车灯部位、车窗部位等中的至少一种。本申请对此不做限制。
在一些实施方式中,第一车辆部位包括车牌部位、车灯部位中的至少一种,第二车辆部位包括车脸部位,其中,车脸部位包括车头车脸部位和/或车尾车脸部位。例如第一车辆部位包括车牌部位,第二车辆部位包括车脸部位。例如第一车辆部位包括车灯部位,第二车辆部位包括车脸部位。
在一些实施方式中,第一车辆部位包括车脸部位,第二车辆部位包括车牌部位、车灯部位中的至少一种。例如第一车辆部位包括车脸部位,第二车辆部位包括车牌部位。例如第一车辆部位包括车脸部位,第二车辆部位包括车灯部位。
在一些实施方式中,第一车辆部位包括车辆部位,第二车辆部位包括车脸部位、车牌部位、车灯部位、车窗部位中的至少一种。例如第一车辆部位包括车辆部位,则第二车辆部位可以包括车脸部位、车牌部位、车灯部位或车窗部位。
在一些实施方式中,第一车辆部位包括车脸部位、车牌部位、车灯部位、车窗部位中的至少一种,第二车辆部位包括所述车辆部位。例如第一车辆部位包括车脸部位、车牌部位、车灯部位或车窗部位,则第二车辆部位可以包括车辆部位。
可以理解的是,本申请对于第一车辆部位和第二车辆部位的组合还可以是目标车辆的其他部位,本申请不限于此。
请参阅2至图4,车辆100可以包括多个部位,例如可以包括车辆部位101、车脸部位102、车牌部位103、车灯部位104、车窗部位105等中的至少一种,其中,可以将车辆部位101、车脸部位102、车牌部位103、车灯部位104或车窗部位105作为第一车辆部位或第二车辆部位。其中,属于同一目标车辆的第一车辆部位与第二车辆部位的类型不同,并且第一车辆部位与第二车辆部位存在重合区域。第一车辆部位与第二车辆部位对应部位的检测框的尺寸可以不同。
其中,车辆部位101与车脸部位102、车牌部位103、车灯部位104或车窗部位105存在重合区域,车脸部位102与车牌部位103或车灯部位104存在重合区域。
以第一车辆部位为车牌部位103,第二车辆部位为车脸部位102为例,对当前视频帧进行车牌部位103的检测,可以得到车牌部位103对应的待处理部位检测框。确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对历史视频帧进行车脸部位102的检测得到的检测框。车牌部位103对应的待处理部位检测框的尺寸可以小于车脸部位102对应的候选部位检测框,当然,在一些应用场景也可以是相同的尺寸,本申请对此不做限制。
S13:从各个候选部位检测框中确定出目标部位检测框,并将目标部位检测框和待处理部位检测框进行关联;其中,目标部位检测框标识的第二车辆部位和待处理部位检测框标识的第一车辆部位属于同一目标车辆。
为了将属于同一目标车辆的不同类型部位的检测框进行关联,可以从各个候选部位检测框中确定出目标部位检测框,并将目标部位检测框和待处理部位检测框进行关联。其中,目标部位检测框标识的第二车辆部位和待处理部位检测框标识的第一车辆部位属于同一目标车辆,也即是第一车辆部位对应的待处理部位检测框与第二车辆部位对应的目标部位检测框属于同一目标车辆。
在一些实施方式中,可以基于各个候选部位检测框和待处理部位检测框的相似度,确定出目标部位检测框。例如可以将相似度最高的候选部位检测框作为目标部位检测框。对候选部位检测框与待处理部位检测框相似度的表示可以是多样的,例如候选部位检测框与待处理部位检测框之间的重合度,候选部位检测框与待处理部位之间的特征信息相似度等,本申请对此不做限制。
在一些实施方式中,可以基于各个候选部位检测框和待处理部位检测框的坐标框信息,确定出目标部位检测框。通过候选部位检测框和待处理部位检测框的坐标框信息,可以确定候选部位检测框与待处理部位检测框之间的位置关系,从而通过位置关系确定出目标部位检测框。
S14:基于关联后的目标部位检测框和待处理部位检测框,对目标车辆进行跟踪。
因将属于同一目标的不同类型的第一车辆部位和第二车辆部位的检测框进行关联,可以基于关联后的目标部位检测框和待处理部位检测框,对目标车辆进行跟踪。因目标部位检测框和待处理部位检测框进行关联,则可以通过目标车辆的目标部位检测框和待处理部位检测框对目标车辆联动跟踪、相互补充的方式,在当前视频帧之后的视频帧对目标车辆进行跟踪。
本实施例中,通过对车辆的不用部位的局部关键区域进行检测方式,得到第一车辆部位及第二车辆部位对应的检测框,可以缩小对目标车辆的有效特征关注范围;从各个候选部位检测框中确定出目标部位检测框,并将目标部位检测框和待处理部位检测框进行关联;其中,目标部位检测框标识的第二车辆部位和待处理部位检测框标识的第一车辆部位属于同一目标车辆;基于关联后的目标部位检测框和待处理部位检测框,对目标车辆进行跟踪,可以减少目标车辆在密集或者近距离交汇时的交叠区域,提高对目标车辆进行跟踪的稳定性,通过对目标部位检测框和待处理部位检测框的两者联动跟踪、相互补充的抓拍方式,能够提高对目标车辆的跟踪效率。
在一些实施例中,请参阅图5,上述步骤S13中,可以基于各个候选部位检测框和待处理部位检测框的相似度,确定出目标部位检测框。步骤S13中从各个候选部位检测框中确定出目标部位检测框,可以包括以下步骤:
S1311:获取各个候选部位检测框和待处理部位检测框的重叠程度。
相似度可以包括重叠程度,其中,重叠程度可以用候选部位检测框和待处理部位检测框之间的重合区域的面积占比值表示。
在一些实施方式中,可以根据各候选部位检测框和待处理部位检测框的坐标框信息,获取各个候选部位检测框和待处理部位检测框的重叠程度,也即是重合区域的面积占比值。
作为一种示例,以待处理部位检测框对应的第一车辆部位为车牌部位,候选部位检测框对应的第二车辆部位为车脸部位为例进行说明,可以将待处理部位检测框表示为车牌检测框,将候选部位检测框表示为车脸检测框,下述以此对获取各个候选部位检测框和待处理部位检测框的重叠程度进行说明。
基于车脸检测框和车牌检测框的坐标框信息,获取车脸检测框与车牌检测框的重合区域的面积占比值。
车脸检测框的坐标框信息可以表示车脸检测框的位置信息,车牌检测框的坐标框的信息可以表示车牌检测框的位置信息。其中,坐标框信息包括检测框预设角的坐标信息、中心坐标、宽度信息、高度信息中的至少一种。例如在车牌检测框的坐标框信息中,检测框预设角的坐标信息可以包括左上角、右上角、右下角、左下角等,预设角可以根据检测框的形状进行设置,本申请对此不做限制。
基于各个车脸检测框和车牌检测框的坐标框的信息,通过IOS(IntersectionOver Self,并集面积)运算的方式,获取各个车脸检测框与车牌检测框的重合区域的面积占比值,从而可以基于重合区域的面积占比值,建立车牌检测框与车脸检测框之间的键对关系。
具体地,可以利用各车脸检测框及车牌检测框的坐标框信息,获取各车脸检测框与车牌检测框的重合区域的面积值。其中,坐标框信息包括检测框预设角的坐标信息、中心坐标、宽度信息、高度信息中的至少一种。
假设车脸检测框的坐标信息为F_bbox(xf,yf,wf,hf),其中,(xf,yf)表示车脸检测框的中心坐标,wf表示车脸检测框的宽度信息,hf表示车脸检测框的高度信息。车牌框坐标框为P_bbox(xp,yp,wp,hp),其中,(xp,yp)表示车脸检测框的中心坐标,wp表示车脸检测框的宽度信息,hp表示车脸检测框的高度信息。可以通过以下判别公式判断车脸检测框与车牌检测框是否相交,具体如下:
Figure BDA0003340571350000061
若上述公式(1)成立,则车脸检测框与车牌检测框相交,可以表示车脸检测框与车牌检测框存在相交区域,也即存在重合区域。否则,上述公式(1)不成立,则车脸检测框与车牌检测框不相交,也即不存在重合区域。
在一些上述方式中,若车脸检测框及车牌检测框的预设角为左上角,设定(x1,y1)为车牌检测框P_bbox的左上角的坐标信息,(x2,y2)为车脸检测框F_bbox的左上角的坐标信息,则对车脸检测框及车牌检测框的左上角坐标信息进行计算,其计算公式如下:
Figure BDA0003340571350000062
由上,可以得到各个车脸检测框及车牌检测框的重合区域的坐标信息bbox[xleft,ytop,xright,ybottom],其中,可以通过以下公式获取重合区域的坐标信息,具体如下:
Figure BDA0003340571350000071
可以通过以下计算公式获取车牌检测框与车脸检测框之间重合区域的面积值Area_inter,其中,计算公式为:
Figure BDA0003340571350000072
上述公式(4)中,area_width表示重合区域的宽度信息,area_height表示重合区域的高度信息,Area_inter表示重合区域的面积值。
在一些实施方式中,可以将车牌检测框与车脸检测框之间的重合区域的面积值与车牌检测框的面积值的比值,作为各个车脸检测框与车牌检测框的重合区域的面积占比值。其中,重合区域的面积占比值可以用下述公式表示:
Figure BDA0003340571350000073
上述公式(5)中,IOS_plate表示车脸检测框与车牌检测框的重合区域的面积占比值,Area_inter表示重合区域的面积值,wp*hp车牌检测框的面积值,其中,面积值也即是车牌检测框的宽度信息wp与高度信息hp的乘积。
在一些上述方式中,各个车脸检测框与车牌检测框的重合区域的面积占比值IOS_plate,可以作为各个候选部位检测框和待处理部位检测框的重叠程度。
S1312:确定大于预设重叠阈值的重叠程度对应的候选部位检测框作为目标部位候选检测框。
获取各个候选部位检测框和待处理部位检测框的重叠程度之后,可以将每个重叠程度与预设重叠阈值进行比较,以确定出大于预设重叠阈值的重叠程度对应的候选部位检测框,从而可以该候选部位检测框作为目标部位候选检测框。
作为一种示例,以待处理部位检测框对应的第一车辆部位为车牌部位,候选部位检测框对应的第二车辆部位为车脸部位为例进行说明,可以将待处理部位检测框表示为车牌检测框,将候选部位检测框表示为车脸检测框。可以判断各脸检测框与车牌检测框之间的重合区域的面积占比值是否大于预设重叠阈值。若判断为重合区域的面积占比值大于预设重叠阈值,则可以将大于预设重叠阈值对应的车脸检测框作为目标部位候选检测框。
S1313:基于目标部位候选检测框,确定目标部位检测框。
在一些实施方式中,若目标部位候选检测框的数量为一个,则可以将目标部位候选检测框确定为目标部位检测框。
在一些实施方式中,若目标部位候选检测框的数量为多个,则可以确定大于预设重叠阈值的重叠程度的最大值,将最大值对应的目标部位候选检测框确定为目标部位检测框。
在一些实施方式中,若目标部位候选检测框的数量为多个,则基于目标部位候选检测框和待处理部位检测框的欧式距离值,将欧式距离值的最小值对应的目标部位候选检测框确定为目标部位检测框。
作为一种示例,以待处理部位检测框对应的第一车辆部位为车牌部位,候选部位检测框对应的第二车辆部位为车脸部位为例进行说明,可以将待处理部位检测框表示为车牌检测框,将候选部位检测框表示为车脸检测框。
若车脸检测框与多个车牌检测框的重合区域的面积占比值大于预设重叠阈值,则分别获取车脸检测框与大于预设重叠阈值的各车牌检测框的坐标框信息之间的欧式距离值。例如当一个车脸检测框F_bbox与多个车牌检测框P_bbox之间的重合区域的面积占比值大于预设重叠阈值时,分别获取车脸检测框F_bbox与多个车牌检测框P_bbox之间的欧式距离值。
在一些实施方式中,可以利用欧式距离公式获取车脸检测框的中心坐标信息(xf,yf)与多个车牌检测框的中心坐标(xp,yp)之间的欧式距离值,以作为车脸检测框与车牌检测框之间的欧式距离值。其中,欧式距离公式可以如下:
Figure BDA0003340571350000081
上述公式(6)中,Eu表示车脸检测框与车牌检测框之间的欧式距离值,(xp,yp)表示车牌检测框的中心坐标,(xf,yf)表示车脸检测框的中心坐标信息。
将最小的欧式距离值对应的车脸检测框确定为目标部位检测框,以将该车脸检测框与车牌检测框进行关联。
请参阅图6,可以将多个车脸检测框作为车脸队列,将多个车牌检测框作为车牌队列,可以将车牌队列中的车牌检测框与车脸队列中的多个车脸检测框建立键对关系,依次获取车牌队列中的车牌检测框与车脸队列中的多个车脸检测框之间的重合区域的面积占比值,例如依次获取车牌检测框1与车脸检测框1、车脸检测框2、车脸检测框3、车脸检测框4、车脸检测框5和车脸检测框6之间的重合区域的面积占比值。若车牌检测框1与车脸检测框1、车脸检测框2、车脸检测框3、车脸检测框4和车脸检测框5之间的重合区域的面积占比值大于预设重叠阈值,则分别获取车牌检测框1与车脸检测框1、车脸检测框2、车脸检测框3、车脸检测框4、车脸检测框5之间的欧式距离值。若车牌检测框1与车脸检测框1之间的欧式距离值最小,从而可以将车脸检测框1与车牌检测框1进行目标关联。
本实施例中,通过获取各个候选部位检测框和待处理部位检测框的重叠程度,通过重叠程度、两者中心点的欧式距离值相结合的方式确定目标部位检测框,可以有效的选出目标部位检测框,从而提高待处理部位与目标部位检测框关联的可靠性。
在一些实施例中,请参阅图7,上述步骤S13中,可以基于各个候选部位检测框和待处理部位检测框的坐标框信息,确定出目标部位检测框,步骤S13中从各个候选部位检测框中确定出目标部位检测框,可以包括以下步骤:
S1321:获取各个候选部位检测框和待处理部位检测框的坐标框信息的位置关系。
其中,坐标框信息可以包括检测框预设角的坐标信息、中心坐标、宽度信息、高度信息中的至少一种。例如在车牌检测框的坐标框信息中,检测框预设角的坐标信息可以包括左上角、右上角、右下角、左下角等,预设角可以根据检测框的形状进行设置,本申请对此不做限制。
在一些实施方式中,坐标框信息包括检测框的中心点坐标,可以利用候选部位检测框和待处理部位检测框的坐标框信息,获取候选部位检测框和待处理部位检测框的坐标框信息的位置关系,例如可以通过坐标框信息判断各候选部位检测框和待处理部位检测框是否存在包含关系。
S1322:确定位置关系存在包含关系的坐标框信息对应的候选部位检测框作为目标部位候选检测框。
由于属于同一目标车辆的候选部位检测框和待处理部位检测框存在重合区域,重合区域可以表示包含关系或部分重合,则可以通过候选部位检测框与待处理部位检测框之间的位置关系,确定存在包含关系的候选部位检测框作为目标部位候选检测框。
在一些实施方式中,包含关系包括:候选部位检测框的中心点坐标位于待处理部位检测框中,和/或,待处理部位检测框的中心点坐标位于候选部位检测框中。
在一些实施方式中,若候选部位检测框的中心点坐标位于待处理部位检测框中,表示候选部位检测框与待处理部位检测框存在重合区域,可以确定其位置关系存在包含关系。
在一些实施方式中,若待处理部位检测框的中心点坐标位于候选部位检测框中,表示候选部位检测框与待处理部位检测框存在重合区域,可以确定其位置关系存在包含关系。
在一些实施方式中,若候选部位检测框的中心点坐标位于待处理部位检测框中,且待处理部位检测框的中心点坐标位于候选部位检测框中,表示候选部位检测框与待处理部位检测框存在重合区域,或者,表示候选部位检测框完全重合于待处理部位检测框,或者,待处理部位检测框完全重合于候选部位检测框,可以确定其位置关系存在包含关系。
S1323:基于目标部位候选检测框,确定目标部位检测框。
在一些实施方式中,若目标部位候选检测框的数量为一个,则可以将目标部位候选检测框确定为目标部位检测框。
在一些实施方式中,若目标部位候选检测框的数量为多个,则基于目标部位候选检测框和待处理部位检测框的欧式距离值,将欧式距离值的最小值对应的目标部位候选检测框确定为目标部位检测框。
本实施例中,可以通过各候选部位检测框与待处理部位检测框是否存在包含关系,通过包含关系确定目标部位检测框,可以有效的选出目标部位检测框,从而提高待处理部位与目标部位检测框关联的可靠性。
在一些实施例中,请参阅图8,上述步骤S13中,将目标部位检测框和待处理部位检测框进行关联,可以包括以下步骤:
S1331:将第一部位标识或第二部位标识作为目标车辆的目标车辆标识。
第一车辆部位对应第一部位标识,第二车辆部位对应第二部位标识。其中,待处理部位检测框对应第一部位标识,目标部位检测框对应第二部位标识。
因目标部位检测框和待处理部位检测框属于同一目标车辆,在对将目标部位检测框和待处理部位检测框进行关联时,可以将目标部位检测框和待处理部位检测框对应的标识(目标车辆标识)进行统一,将第一部位标识或第二部位标识作为目标车辆的目标车辆标识。
例如第一车辆部位为车牌部位,第二车辆部位为车脸部位,则待处理部位检测框对应的第一车辆部位为车脸部位,目标部位检测框对应的第二车辆部位为车脸部位,可以将待处理部位检测框表示为车牌检测框,将目标部位检测框表示为车脸检测框,由于对车脸检测框设置有对应的车脸标识符(第二部位标识),对车牌检测框设置有对应的车牌标识符(第一部位标识),将车脸检测框与车牌检测框进行目标的键对关联后,车脸检测框与车牌检测框可以归属于同一目标车辆的局部特征区域,为了使关联的车脸检测框和车牌检测框共享同一标识符,车脸检测框和车牌检测框可以共享目标标识符(目标车辆标识)。
标识符可以用ID(Identity document,身份证标识号)表示,例如可以用ID分别表示车脸标识符和车牌标识符,例如车牌的标识符为1、2、3等。另外,车脸检测框和车牌检测框也可以设置有目标车辆标识,目标车辆标识可以用于标识某一目标的车脸检测框和车牌检测框,目标标车辆标识也可以用ID表示,可以理解的是,本申请的标识符也可以用其他方式进行表示,本申请对此不做限制。其中,目标标识符为车脸检测框的车脸标识符或车牌检测框的车牌标识符。在车脸检测框或车牌检测框的标识符的选择中,可以将在视频中累计有效状态的帧数较多或较长的作为标识作为目标标识符,也可以将车脸标识符、车牌标识符的值较小的标识符作为目标标识符。当然,本申请还可以采用其他的方式确定关联的车脸检测框和车牌检测框共享的目标标识符,本申请对此不做限制。
S1332:对目标部位检测框和待处理部位检测框设置目标车辆标识。其中,目标车辆标识用于标识目标部位检测框标识的第二车辆部位和待处理部位检测框标识的第一车辆部位属于同一目标车辆。
对属于同一目标车辆的目标部位检测框和待处理部位检测框进行目标车辆标识的统一后,将该统一的目标车辆标识设置为对目标部位检测框对应的第二部位标识和待处理部位检测框对应的第一部位标识,以表明该目标部位检测框和待处理部位检测框属于同一目标车辆。
由于关联成功的目标部位检测框、待处理部位检测框共享同一个目标车辆标识,通过两者联动跟踪、相互补充抓拍的方式,可以有效提高恶劣环境下目标车辆的抓拍率。
在一些实施例中,请参阅图9,上述步骤S14中,基于关联后的目标部位检测框和待处理部位检测框,对目标车辆进行跟踪,可以包括以下步骤:
S141:基于视频关联后的目标检测框和待处理部位检测框,在视频的后续视频帧对目标车辆进行跟踪。
关联后的目标检测框与待处理部位检测框共享同一目标车辆标识,属于同一目标车辆。在对预设视频的后续视频帧对目标车辆进行跟踪,在跟踪的过程中,可以对后续视频帧中的目标检测框或待处理部位检测框进行单独跟踪,若视频帧中存在关联的目标检测框、待处理部位检测框中的任意一个检测框,则对目标车辆的跟踪成功,且可以确定目标车辆的目标车辆标识的有效状态持续为有效,直到对目标完成抓拍。
S142:设置目标检测框和待处理部位检测框的目标车辆标识的有效状态,有效状态包括有效、无效。
在后续视频帧对目标车辆进行跟踪的过程中,还可以设置目标车辆对应的目标车辆标识的有效状态。其中,有效状态包括有效、无效。
在一些实施方式中,设置目标检测框和待处理部位检测框的目标车辆标识的有效状态时,可以将预设视频后续的每一视频帧作为待处理视频帧,对每个待处理视频帧进行下述处理:
对预设视频的待处理视频帧进行第一车辆部位和第二车辆部位的检测,得到待匹配部位检测框;其中,待匹配部位检测框包括第一车辆部位对应的第一车辆部位检测框和/或第二车辆部位对应的第二车辆部位检测框。该过程可以参考上述实施例中步骤S11的实施过程,本申请在此不再赘述。
在一些实施方式中,若第一车辆部位对应的待处理部位检测框与第一车辆部位检测框匹配,则将目标车辆的有效状态设置为有效;和/或,若第二车辆部位对应的目标检测框与第二车辆部位检测框匹配,则将目标车辆标识的有效状态设置为有效。也即是待处理部位检测框与在待处理视频帧对应的待匹配部位检测框其中一者匹配,则可以确定该待处理部位检测框对应的目标车辆标识的有效状态为有效。例如待处理部位检测框为车牌检测框或车脸检测框,待匹配部位检测框为待匹配车牌检测框或待匹配车脸检测框,在带处理视频帧检测的待匹配车脸检测框或待匹配车牌检测框,若车牌检测框与待匹配车牌检测框,或者车脸检测框与待匹配车脸检测框匹配,则可以将该车脸检测框和车牌检测框的目标车辆对应的目标车辆标识的有效状态设置为有效。
在一些实施方式中,若第一车辆部位对应的待处理部位检测框与第一车辆部位检测框不匹配,且第二车辆部位对应的目标检测框与第二车辆部位检测框不匹配,则将目标车辆标识的有效状态设置为无效,并删除目标车辆标识,以不再对该目标车辆进行跟踪。
在一些实施方式中,若连续K帧的待处理视频帧目标车辆的目标车辆标识的有效状态为无效,也即是连续K帧的待处理视频帧目标车辆的待处理检测框与待匹配部位检测框不匹配,则将目标车辆标识的有效状态设置为无效,并删除目标车辆标识,以不再对该目标车辆进行跟踪。其中,K为大于或等于1的整数。
在一些实施方式中,若连续N帧的待处理视频帧目标车辆的移动位移小于预设移动位移,则可以表明该目标车辆为静止车辆,也可以定义为无效目标,可以不对该目标进行抓拍。从而,可以将目标车辆标识的有效状态设置为无效,并删除目标车辆标识。其中,N为大于或等于1的整数。预设移动位移可以用下述公式表示:
Δs=h_valid*shift_ratio (7)
上述公式(7)中,Δs表示预设移动位移,shift_ratio表示用于检测目标的有效位移系数,h_valid表示目标的预设抓拍区域的纵向高度。
请参阅图10,图10是本申请车辆跟踪方法第二实施例的流程示意图。该方法可以包括以下步骤:
S21:对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框。
该步骤的具体实施过程可以参考上述实施例中步骤S11的实施过程,此处不再赘述。
S22:判断待处理部位检测框与第一车辆部位对应的候选部位检测框是否匹配。
其中,第一车辆部位对应的候选部位检测框包括对历史视频帧进行第一车辆部位的检测得到的检测框。
历史视频帧是当前视频帧之前的视频帧,对历史视频帧进行第一车辆部位的检测得到检测框的过程,可以参考上述实施例中步骤S11的具体实施过程,此处不再赘述。
第一车辆部位对应的候选部位检测框对应的第一部位标识的有效状态为有效。可以判断待处理部位检测框与第一车辆部位对应的候选部位检测框是否匹配。例如可以判断待处理部位检测框与候选部位检测框的位置是否一致,若一致,则可以认为待处理部位检测框与第一车辆部位对应的候选部位检测框匹配,否则,则不匹配。
在步骤S22中,若待处理部位检测框与第一车辆部位对应的候选部位检测框匹配,则执行步骤S23。
若待处理部位检测框与第一车辆部位对应的候选部位检测框不匹配,则执行步骤S24。
S23:将待处理部位对应的第一部位标识设置为第一车辆部位对应的候选部位检测框对应的第一部位标识。
若待处理部位检测框匹配,也即表示对当前视频帧进行第一车辆部位检测出的待处理部位检测框,与对历史视频帧进行第一车辆部位检测出的候选部位检测框属于同一目标车辆,也即是待处理部位检测框与第一车辆部位对应的候选部位检测框属于同一目标车辆,由于第一车辆部位对应第一部位标识,第二车辆部位对应第二部位标识。可以将待处理部位检测框与候选部位检测框设置相同的第一部位标识。
作为一种示例,以待处理部位检测框对应的第一车辆部位为车牌部位,候选部位检测框对应的第二车辆部位为车脸部位为例进行说明,可以将待处理部位检测框表示为车牌检测框,将候选部位检测框表示为车脸检测框。
在一些实施方式中,可以为待处理部位检测框设置第一标志位,为车脸检测框和车牌检测框设置第二标志位。若待处理部位检测框匹配成功,则将待处理部位检测框对应的第一标志位的状态调整为“1”,表示检测框结果匹配成功,并将与待处理部位检测框匹配成功的车脸检测框或车牌检测框对应的第二标志位的状态设置为“1”,用于表示该匹配的车脸检测框或车牌检测框是匹配的,使得基于该车脸检测框或车牌检测框的第二标志位的状态对标识符进行跟踪。同理,若待处理部位检测框匹配不成功,则将待处理部位检测框对应的第一标志位的状态保持设置为“0”,表示待处理部位检测框匹配不成功。若当前视频帧中车脸检测框或车牌检测框对应的第二标志位的状态为“0”,则表示当前视频帧中不存在待处理部位检测框与车脸检测框或车牌检测框匹配,需要进行主动跟踪。
S24:为待处理部位检测框对应的第一部位标识分配新的第一部位标识。
若待处理部位检测框不匹配,表示待处理部位检测框与第一车辆部位对应的候选部位检测框不属于同一目标车辆,需要分配不同的第一部位标识。则可以为待处理部位检测框分配新的第一部位标识,以使得该待处理检测框标识的第一车辆部位属于另一目标车辆。
S25:提取待处理部位检测框的几何矩特征信息,以及利用历史视频帧的第一车辆部位对应的候选部位检测框的坐标框信息,获取目标车辆的运动的主方向,并利用预设视频的帧率及目标车辆的运动速率,得到目标车辆在当前视频帧的位置信息。
该待处理检测框属于不同的目标车辆,需要对该待处理检测框进行主动跟踪。
提取待处理部位检测框的几何矩特征信息,其中,可以利用Hu矩特征描述子对待处理部位检测框进行特征压缩提取1*7的Hu矩特征向量(也即几何特征信息),图像的Hu矩特征向量是一种具有平移、旋转和尺度不变性的图像特征。
具体地,例如对于一幅大小为M×N的二维离散图像函数f(x,y),二维离散图像函数f(x,y)可以表示视频的当前视频帧的数据信息,利用则(p+q)阶标准矩计算公式对视频的当前视频帧进行离散化,其中,(p+q)阶标准矩计算公式可以表示为:
Figure BDA0003340571350000121
上述公式(8)中,N和M分别表示视频帧的列与行;其中,mpq各阶矩的物理意义可以表示为:例如0阶矩(m00):目标区域的质量;1阶矩(m01,m10):目标区域的质心;2阶矩(m02,m11,m20):目标区域的旋转半径;3阶矩(m03,m12,m21,m30):目标区域的方位和斜度,反应目标的扭曲,目标区域可以是检测框结果所在的区域。
选择以目标区域的质心为中心构建中心矩,那么矩的计算永远是目标区域中的点相对于目标区域的质心,而与目标区域的位置无关,及具备了平移不变性。其中,可以利用以下(p+q)阶中心矩计算公式构建中心矩:
Figure BDA0003340571350000131
上述公式(9)中,p=0,1,2,…;q=0,1,2…,可以由0阶原点矩和1阶原点矩,得到目标区域的质心坐标,其中,可以用
Figure BDA0003340571350000132
表示图像的质心,质心的坐标可以表示为:
Figure BDA0003340571350000133
为了抵消尺度变化对中心矩的影响,利用上述公式(8)和公式(9)对各阶中心距进行归一化处理,得到归一化中心矩:
Figure BDA0003340571350000134
由上述公式可知,0阶矩表示目标区域的质量(面积),那么如果目标区域的尺度发生变化(缩小2倍),显然其0阶中心矩也会相应变小,使得矩具备尺度不变性。
利用归一化的2阶、3阶矩及中心矩ηpq,可以得到以下7个不变矩组,也即Hu矩向量[M1,M2,…,M7],它们在图像平移、旋转和比例变化时保持不变。具体如下:
Figure BDA0003340571350000135
可以将上述Hu矩特征向量作为待处理部位检测框的几何矩特征信息。
利用历史视频帧的第一车辆部位对应的候选部位检测框的坐标框信息,获取目标车辆的运动的主方向,并利用预设视频的帧率及目标车辆的运动速率,得到目标车辆在当前视频帧的位置信息。
具体地,例如当前视频帧中有效状态的车牌检测框或车脸检测框的标识符的第二标志位的状态值不是1,例如为0,则需要进行主动跟踪。可以采用线性回归方式对预设视频的历史视频帧中候选部位检测框的坐标信息,例如坐标信息可以是候选部位检测框的中心坐标,采用线性回归方式对历史视频帧中候选部位检测框的中心坐标的位移向量进行拟合,以获取目标车辆的运动的主方向,也即是模拟该目标车辆的移动方向。其中,目标车辆的位移线性回归的目标函数方程为:
Figure BDA0003340571350000136
上述公式(12)中,minf表示位移线性回归的目标函数的最小值,x,y为目标位移向量中检测框结果的中心点坐标,变量k、b为常数。
在一些实施方式中,求取上述公式(12)的目标函数f的最优解,也即是求出变量k与b的解,使得目标函数f的值最小。
在该求取变量k与b的解过程中,需要对公式两侧分别进行一阶偏导计算,并令其偏导函数等于0,可以得到:
Figure BDA0003340571350000141
将上述公式(13)化简拆分处理后,可以得到如下形式:
Figure BDA0003340571350000142
令上述公式中
Figure BDA0003340571350000143
则由公式(14)计算得到变量k,b解如下:
Figure BDA0003340571350000144
在一些实施方式中,将求出的变量参数k,b带入上述参数方程(目标函数minf),并结合预设视频的帧率及目标的运动速率,运动速率可以是目标车辆的位移速度,其中,已知帧率,两帧视频帧之间的时间间隔1/f秒作为帧率,结合位移速度可以算出位移,从而可以利用预设视频的帧率及目标车辆的运动速率,得到目标车辆在当前视频帧的位置信息,估计历史视频帧的候选部位检测框对应的目标车辆在当前视频帧进行主动跟踪的迭代起始位置。通过该方式,可以减少主动跟踪的耗时,保证定位结果的准确度。
S26:利用几何矩特征信息和位置信息进行特征匹配,得到第一车辆部位在当前视频帧对应的检测框。
利用待处理部位检测框的几何矩特征信息与目标车辆在当前视频帧的位置信息进行特征匹配,以确定候选部位检测框对应的目标车辆在当前视频帧对应的检测框,也即是与目标车辆的第一车辆部位匹配的待处理部位检测框。可以选择特征匹配的重合度最高的待处理部位检测框,作为该目标车辆在当前视频帧进行第一车辆部位检测对应的检测框,以通过该方式进行主动跟踪,可以有效降低目标迭代搜索定位时间的复杂度。
在一些实施方式中,本实施例还可以对第二车辆部位实施上述步骤。具体地,对预设视频的当前视频帧进行第二车辆部位的检测,得到待处理部位检测框。判断待处理部位检测框与第二车辆部位对应的候选部位检测框是否匹配,其中,第二车辆部位对应的候选部位检测框包括对历史视频帧进行第二车辆部位的检测得到的检测框。若待处理部位检测框匹配,则将待处理部位对应的第二部位标识设置为第二车辆部位对应的候选部位检测框对应的第二部位标识。若待处理部位检测框不匹配,则为待处理部位对应的第二部位标识分配新的第二部位标识。提取待处理部位检测框的几何矩特征信息,以及利用历史视频帧的第二车辆部位对应的候选部位检测框的坐标框信息,获取目标车辆的运动的主方向,并利用预设视频的帧率及目标车辆的运动速率,得到目标车辆在当前视频帧的位置信息;利用几何矩特征信息和位置信息进行特征匹配,得到第二车辆部位在当前视频帧对应的检测框。
该实施例中,在步骤S23或步骤S26之后,可以执行上述步骤S12值步骤S14,此处不再赘述。
请参阅图11,图11是本申请车辆跟踪方法第三实施例的流程示意图。该方法可以包括以下步骤:
S31:在对目标车辆进行跟踪的过程中,若检测到目标车辆在预设抓拍区域内发生预设动作,则对目标车辆进行抓拍。
其中,预设抓拍区域为凸多边形的有效抓拍区域,凸多边形的有效抓拍区域可以根据具体的抓拍路段进行设置,可以适应多种场景,本申请对此不做限制。
预设动作包括目标车辆的移动位移达到预设抓拍位移。在视频帧对目标车辆的跟踪过程中,若在视频帧中检测到目标在预设抓拍区域内的移动位移大于或等于预设移动位移,则满足对目标车辆的抓拍要求,并可以对该目标车辆进行抓拍。其中,对目标车辆进行抓拍的过程中,目标车辆的目标车辆标识的有效状态为有效。
本实施例中,预设抓拍区域为凸多边形的有效抓拍区域,通过凸多边形的有效抓拍区域替代传统抓拍线,结合目标在抓拍区域是否发生预设抓拍位移,作为目标车辆抓拍的判别条件,对其目标采取柔性抓拍操作的方式,以“面”代“线”,可以有效的过滤随机的无效目标,提升目标车辆的抓拍率。
在一些实施方式中,可以对满足抓拍要求的目标车辆进行多次抓拍,以获取得到目标车辆的多张抓拍结果。
在一些实施方式中,可以在多个地方,在不同时间,对满足抓拍要求的目标车辆进行多次抓拍,以获取得到目标车辆的多张抓拍结果。
在一些实施方式中,步骤S31之前还可以包括上述步骤S11至步骤S14,本申请在此不再赘述。
S32:对目标车辆的抓拍结果进行车牌识别,得到目标车辆的车牌识别信息。
可以通过车牌识别技术对目标车辆的抓拍结果进行车牌识别,得到目标车辆的车牌识别信息。其中,车牌识别技术是指对摄像机所拍摄的车辆图像或视频序列,经过机器视觉、图像处理和模式识别等算法处理后自动读取车牌号码、车牌类型、车牌颜色等信息的技术。在对车牌的识别过程中还包括车牌定位、字符分割、字符识别等算法。该车牌识别技术目前已经被广泛应用于智能交通系统的各种场合,该车牌识别过程可以参考目前的智能交通系统的各种场合的车牌识别技术,本申请对此不再赘述。
在一些实施方式中,可以对目标车辆的多张抓拍结果进行车牌识别,得到目标车辆的多张车牌识别信息。其中,多张抓拍结果可以是来自同一地方对目标车辆车辆的抓拍结果,也可以是来自不同时间的不同地方对目标车辆车辆的抓拍结果,本申请对此不做限制。
由于是对已过滤无效目标车辆得到的抓拍结果,使得提高了对目标车辆的抓拍率及图像质量,而车牌识别的效果取决于抓拍结果的图像质量,通过对检测到目标车辆在预设抓拍区域内的移动位移达到预设抓拍位移,对目标车辆进行抓拍的抓拍结果进行车牌识别,可以提升车牌识别质量,节省计算资源。
S33:将目标车辆的车牌识别信息存入目标车辆的车牌识别队列。
可以将同一目标车辆的车牌识别信息存入目标车辆的车牌识别队列,使得将属于同一目标车辆的车牌识别信息存入同一个车牌识别队列。
在一些实施方式中,可以将同一目标车辆的多个车牌识别信息存入预设长度的车牌识别队列,该预设长度可以根据车牌的识别时间、识别数量等场景进行设置,本申请对此不做限制。
S34:从车牌识别队列中选出最佳的车牌识别信息,作为目标车辆车辆的车牌识别结果。
可以从属于同一目标车辆的车牌识别队列的多个车牌识别信息中,选出最佳的车牌识别信息,其中,可以从车牌识别队列中采用投票优选出最佳的车牌识别信息,最为目标车辆的车牌识别结果。
投票优选可以是选择车牌识别队列中出现次数最多的车牌识别信息,例如在目标车辆的车牌识别队列中,车牌识别信息“A123456”出现的次数最多,则可以将车牌识别队列中的车牌识别信息“A123456”作为目标车辆的车牌识别结果。当然,本申请还可以采用其他的选择方式选出最佳的车牌识别信息,本申请对此不做限制。
S35:将目标车辆的抓拍结果及目标车辆的车牌识别结果进行上报。
选出最佳的车牌识别信息后,可以将最佳的车牌识别信息作为目标车辆的车牌识别进行上报,上报可以是上报给预设系统,预设系统例如停车管理、交通诱导、交通执法、公路稽查、车辆调度、车辆检测等的系统,本申请对此不做限制。
在一些实施方式中,还可以将目标车辆的抓拍结果及目标车辆的车牌识别结果进行上报,使得可以通过人工或其他验证途径再次对车牌识别结果的正确性进行验证。其中,可以通过抓拍结果对车牌识别结果进行验证,以保证对目标车辆的车牌识别结果的正确性。
该实施例的具体实施方式可参考上述实施例的实施过程,在此不再赘述。
对于上述实施例,本申请还提供一种车辆跟踪装置。请参阅图12,图12是本申请车牌抓拍装置第一实施例的结构示意图。该车牌抓拍装置40包括:检测模块41、确定模块42、关联模块43和跟踪模块44,其中,检测模块41、确定模块42、关联模块43和跟踪模块44连接。
检测模块41用于对预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框。
确定模块42用于确定待处理部位检测框对应的各个候选部位检测框,候选部位检测框包括对历史视频帧进行第二车辆部位的检测得到的检测框;其中,第一车辆部位和第二车辆部位的类型不同,历史视频帧包括预设视频中当前视频帧之前的视频帧。
关联模块43用于从各个候选部位检测框中确定出目标部位检测框,并将目标部位检测框和待处理部位检测框进行关联;其中,目标部位检测框标识的第二车辆部位和待处理部位检测框标识的第一车辆部位属于同一目标车辆。
跟踪模块44用于基于关联后的目标部位检测框和待处理部位检测框,对目标车辆进行跟踪。
该实施例的具体实施方式可参考上述实施例的实施过程,在此不再赘述。
在一些实施例中,请参阅图13,图13是本申请车辆跟踪装置二实施例的结构示意图。该车牌抓拍装置40还可以包括匹配模块45和抓拍模块46,其中,检测模块41、确定模块42、关联模块43、跟踪模块44、匹配模块45和抓拍模块46连接。
匹配模块45用于判断待处理部位检测框与第一车辆部位对应的候选部位检测框是否匹配,其中,第一车辆部位对应的候选部位检测框包括对历史视频帧进行第一车辆部位的检测得到的检测框。
若待处理部位检测框匹配,则将待处理部位对应的第一部位标识设置为第一车辆部位对应的候选部位检测框对应的第一部位标识。
若待处理部位检测框不匹配,则提取待处理部位检测框的几何矩特征信息,以及利用历史视频帧的所述第一车辆部位对应的候选部位检测框的坐标框信息,获取目标车辆的运动的主方向,并利用预设视频的帧率及目标车辆的运动速率,得到目标车辆在当前视频帧的位置信息;利用几何矩特征信息和位置信息进行特征匹配,得到第一车辆部位的检测在当前视频帧对应的检测框。
若待处理部位检测框不匹配,则为待处理部位检测框对应的第一部位标识分配新的第一部位标识。
抓拍模块46用于在对目标车辆进行跟踪的过程中,若检测到目标车辆在预设抓拍区域内发生预设动作,则对目标车辆进行抓拍。
其中,预设抓拍区域包括凸多边形的有效抓拍区域;预设动作包括目标车辆的移动位移达到预设抓拍位移。
在一些实施方式中,抓拍模块46还可以用于13对目标车辆的抓拍结果进行车牌识别,得到目标车辆的车牌识别信息;将目标车辆的车牌识别信息存入目标车辆的车牌识别队列;从车牌识别队列中选出最佳的车牌识别信息,作为目标车辆的车牌识别结果;将目标车辆的抓拍结果及目标车辆的车牌识别结果进行上报。当然,该实施方式也可以是具备该实施例的实施功能的其他的模块执行,本申请不限于此。
该实施例的具体实施方式可参考上述实施例的实施过程,在此不再赘述。
对于上述实施例,本申请提供一种计算机设备,请参阅图14,图14是本申请计算机设备一实施例的结构示意图。该计算机设备50包括存储器51和处理器52,其中,存储器51和处理器52相互耦接,存储器51中存储有程序数据,处理器52用于执行程序数据以实现上述车辆跟踪方法中任一实施例中的步骤。
在本实施例中,处理器52还可以称为CPU(Central Processing Unit,中央处理单元)。处理器52可能是一种集成电路芯片,具有信号的处理能力。处理器52还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器52也可以是任何常规的处理器等。
该实施例的具体实施方式可参考上述实施例的实施过程,在此不再赘述。
对于上述实施例的方法,其可以采用计算机程序的形式实现,因而本申请提出一种存储装置,请参阅图15,图15是本申请存储装置一实施例的结构示意图。该存储装置60中存储有能够被处理器运行的程序数据61,程序数据61可被处理器执行以实现上述车辆跟踪方法中任一实施例的步骤。
该实施例的具体实施方式可参考上述实施例的实施过程,在此不再赘述。
本实施例存储装置60可以是U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等可以存储程序数据的介质,或者也可以为存储有该程序数据的服务器,该服务器可将存储的程序数据发送给其他设备运行,或者也可以自运行该存储的程序数据。
在本申请所提供的几个实施例中,应该理解的,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储装置中,该存储装置是一种计算机可读取存储介质。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (18)

1.一种车辆跟踪方法,其特征在于,所述方法包括:
对所述预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框;
确定所述待处理部位检测框对应的各个候选部位检测框,所述候选部位检测框包括对历史视频帧进行第二车辆部位的检测得到的检测框;所述第一车辆部位和第二车辆部位的类型不同,所述历史视频帧包括所述预设视频中所述当前视频帧之前的视频帧;
从所述各个候选部位检测框中确定出目标部位检测框,并将所述目标部位检测框和所述待处理部位检测框进行关联;其中,所述目标部位检测框标识的第二车辆部位和所述待处理部位检测框标识的第一车辆部位属于同一目标车辆;
基于关联后的所述目标部位检测框和所述待处理部位检测框,对所述目标车辆进行跟踪。
2.根据权利要求1所述的方法,其特征在于,所述从所述各个候选部位检测框中确定出目标部位检测框,包括:
基于所述各个候选部位检测框和所述待处理部位检测框的相似度,确定出所述目标部位检测框;或者,
基于所述各个候选部位检测框和所述待处理部位检测框的坐标框信息,确定出所述目标部位检测框。
3.根据权利要求2所述的方法,其特征在于,所述相似度包括重叠程度,所述基于所述各个候选部位检测框和所述待处理部位检测框的相似度,确定出所述目标部位检测框,包括:
获取所述各个候选部位检测框和所述待处理部位检测框的重叠程度;
确定大于预设重叠阈值的重叠程度对应的所述候选部位检测框作为目标部位候选检测框;
基于所述目标部位候选检测框,确定所述目标部位检测框。
4.根据权利要求3所述的方法,其特征在于,所述基于所述目标部位候选检测框,确定所述目标部位检测框,包括:
若所述目标部位候选检测框的数量为一个,则将所述目标部位候选检测框确定为所述目标部位检测框;
若所述目标部位候选检测框的数量为多个,则基于所述目标部位候选检测框和所述待处理部位检测框的欧式距离值,将所述欧式距离值的最小值对应的所述目标部位候选检测框确定为所述目标部位检测框;或者,确定大于所述预设重叠阈值的重叠程度的最大值,将所述最大值对应的所述目标部位候选检测框确定为所述目标部位检测框。
5.根据权利要求2所述的方法,其特征在于,所述基于所述各个候选部位检测框和所述待处理部位检测框的坐标框信息,确定出所述目标部位检测框,包括:
获取所述各个候选部位检测框和所述待处理部位检测框的坐标框信息的位置关系;
确定所述位置关系存在包含关系的坐标框信息对应的所述候选部位检测框作为目标部位候选检测框;其中,所述坐标框信息包括检测框的中心点坐标,所述包含关系包括:所述候选部位检测框的中心点坐标位于所述待处理部位检测框中,和/或,所述待处理部位检测框的中心点坐标位于所述候选部位检测框中;
基于所述目标部位候选检测框,确定所述目标部位检测框。
6.根据权利要求3所述的方法,其特征在于,
所述同一目标车辆的所述第一车辆部位和第二车辆部位存在重合区域。
7.根据权利要求6所述的方法,其特征在于,
所述第一车辆部位包括车牌部位、车灯部位中的至少一种,所述第二车辆部位包括车脸部位,其中,所述车脸部位包括车头车脸部位和/或车尾车脸部位;或者,
所述第一车辆部位包括所述车脸部位,所述第二车辆部位包括所述车牌部位、车灯部位中的至少一种;或者,
所述第一车辆部位包括车辆部位,所述第二车辆部位包括所述车脸部位、所述车牌部位、所述车灯部位、车窗部位中的至少一种;或者,
所述第一车辆部位包括所述车脸部位、所述车牌部位、所述车灯部位、所述车窗部位中的至少一种,所述第二车辆部位包括所述车辆部位。
8.根据权利要求1所述的方法,其特征在于,
所述第一车辆部位对应第一部位标识,所述第二车辆部位对应第二部位标识;
所述将所述目标部位检测框和所述待处理部位检测框进行关联,包括:
将所述第一部位标识或第二部位标识作为所述目标车辆的目标车辆标识;
对所述目标部位检测框和所述待处理部位检测框设置所述目标车辆标识;其中,所述目标车辆标识用于标识所述目标部位检测框标识的第二车辆部位和所述待处理部位检测框标识的第一车辆部位属于所述同一目标车辆。
9.根据权利要求1所述的方法,其特征在于,所述基于关联后的所述目标部位检测框和所述待处理部位检测框,对所述目标车辆进行跟踪,包括:
基于所述视频关联后的所述目标检测框和所述待处理部位检测框,在所述视频的后续视频帧对所述目标车辆进行跟踪;
设置所述目标检测框和所述待处理部位检测框的所述目标车辆标识的有效状态,所述有效状态包括有效、无效。
10.根据权利要求9所述的方法,其特征在于,所述设置所述目标检测框和所述待处理部位检测框的所述目标车辆标识的有效状态,包括:
将所述预设视频后续的每一视频帧作为待处理视频帧,对每个所述待处理视频帧进行下述处理:
对所述预设视频的所述待处理视频帧进行所述第一车辆部位和所述第二车辆部位的检测,得到待匹配部位检测框;其中,所述待匹配部位检测框包括所述第一车辆部位对应的第一车辆部位检测框和/或所述第二车辆部位对应的第二车辆部位检测框;
若所述第一车辆部位对应的所述待处理部位检测框与所述第一车辆部位检测框匹配,则将所述目标车辆的有效状态设置为所述有效;和/或,若所述第二车辆部位对应的所述目标检测框与所述第二车辆部位检测框匹配,则将所述目标车辆标识的有效状态设置为所述有效;
若所述第一车辆部位对应的所述待处理部位检测框与所述第一车辆部位检测框不匹配,且所述第二车辆部位对应的所述目标检测框与所述第二车辆部位检测框不匹配,则将所述目标车辆标识的有效状态设置为所述无效,并删除所述目标车辆标识;或者,
若连续N帧的所述待处理视频帧所述目标车辆的移动位移小于预设移动位移,则将所述目标车辆标识的有效状态设置为所述无效,并删除所述目标车辆标识,其中,所述N为大于或等于1的整数。
11.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在对所述目标车辆进行跟踪的过程中,若检测到所述目标车辆在预设抓拍区域内发生预设动作,则对所述目标车辆进行抓拍。
12.根据权利要求11所述的方法,其特征在于,所述预设抓拍区域包括凸多边形的有效抓拍区域;预设动作包括所述目标车辆的移动位移达到预设抓拍位移。
13.根据权利要求11所述的方法,其特征在于,在所述对所述目标进行抓拍之后,所述方法还包括:
对所述目标车辆的抓拍结果进行车牌识别,得到所述目标车辆的车牌识别信息;
将所述目标车辆的车牌识别信息存入所述目标车辆的车牌识别队列;
从所述车牌识别队列中选出最佳的所述车牌识别信息,作为所述目标车辆的车牌识别结果;
将所述目标车辆的抓拍结果及所述目标车辆的车牌识别结果进行上报。
14.根据权利要求1所述的方法,其特征在于,在所述对所述预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框之后,所述方法还包括:
判断所述待处理部位检测框与所述第一车辆部位对应的候选部位检测框是否匹配,其中,所述第一车辆部位对应的候选部位检测框包括对所述历史视频帧进行所述第一车辆部位的检测得到的检测框;
若所述待处理部位检测框不匹配,则提取所述待处理部位检测框的几何矩特征信息,以及利用所述历史视频帧的所述第一车辆部位对应的候选部位检测框的坐标框信息,获取所述目标车辆的运动的主方向,并利用所述预设视频的帧率及所述目标车辆的运动速率,得到所述目标车辆在所述当前视频帧的位置信息;利用所述几何矩特征信息和所述位置信息进行特征匹配,得到所述第一车辆部位在所述当前视频帧对应的检测框。
15.根据权利要求14所述的方法,其特征在于,所述第一车辆部位对应第一部位标识,所述第二车辆部位对应第二部位标识;所述方法还包括:
若所述待处理部位检测框匹配,则将所述待处理部位对应的所述第一部位标识设置为所述第一车辆部位对应的候选部位检测框对应的第一部位标识;
若所述待处理部位检测框不匹配,则为所述待处理部位检测框对应的所述第一部位标识分配新的第一部位标识。
16.根据权利要求1所述的方法,其特征在于,所述对所述预设视频的当前视频帧进行第一车辆部位的检测,得到待处理部位检测框,包括:
利用检测模型对所述预设视频的视频帧进行所述第一车辆部位的检测,得到所述待处理部位检测框的检测结果;其中,所述检测结果包括坐标框信息、置信度;
若所述置信度大于预设置信度阈值,则将所述当前视频帧作为所述目标车辆的起始视频帧。
17.一种计算机设备,其特征在于,包括相互耦接的存储器和处理器,所述存储器中存储有程序数据,所述处理器用于执行所述程序数据以实现权利要求1至16任一项所述方法的步骤。
18.一种存储装置,其特征在于,存储有能够被处理器运行的程序数据,所述程序数据用于实现权利要求1至16任一项所述方法的步骤。
CN202111306742.3A 2021-11-05 2021-11-05 车辆跟踪方法、计算机设备及存储装置 Pending CN114219829A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111306742.3A CN114219829A (zh) 2021-11-05 2021-11-05 车辆跟踪方法、计算机设备及存储装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111306742.3A CN114219829A (zh) 2021-11-05 2021-11-05 车辆跟踪方法、计算机设备及存储装置

Publications (1)

Publication Number Publication Date
CN114219829A true CN114219829A (zh) 2022-03-22

Family

ID=80696701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111306742.3A Pending CN114219829A (zh) 2021-11-05 2021-11-05 车辆跟踪方法、计算机设备及存储装置

Country Status (1)

Country Link
CN (1) CN114219829A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114495509A (zh) * 2022-04-08 2022-05-13 四川九通智路科技有限公司 基于深度神经网络监控隧道运行状态的方法
CN114677774A (zh) * 2022-03-30 2022-06-28 深圳市捷顺科技实业股份有限公司 道闸控制方法及相关设备
CN114882491A (zh) * 2022-07-11 2022-08-09 浙江大华技术股份有限公司 一种非机动车目标的跟踪方法、装置和电子设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677774A (zh) * 2022-03-30 2022-06-28 深圳市捷顺科技实业股份有限公司 道闸控制方法及相关设备
CN114677774B (zh) * 2022-03-30 2023-10-17 深圳市捷顺科技实业股份有限公司 道闸控制方法及相关设备
CN114495509A (zh) * 2022-04-08 2022-05-13 四川九通智路科技有限公司 基于深度神经网络监控隧道运行状态的方法
CN114495509B (zh) * 2022-04-08 2022-07-12 四川九通智路科技有限公司 基于深度神经网络监控隧道运行状态的方法
CN114882491A (zh) * 2022-07-11 2022-08-09 浙江大华技术股份有限公司 一种非机动车目标的跟踪方法、装置和电子设备
CN114882491B (zh) * 2022-07-11 2022-10-25 浙江大华技术股份有限公司 一种非机动车目标的跟踪方法、装置和电子设备

Similar Documents

Publication Publication Date Title
CN106354816B (zh) 一种视频图像处理方法及装置
Jazayeri et al. Vehicle detection and tracking in car video based on motion model
CN114219829A (zh) 车辆跟踪方法、计算机设备及存储装置
CN109145742B (zh) 一种行人识别方法及系统
CN108694399B (zh) 车牌识别方法、装置及系统
CN114119676B (zh) 基于多特征信息融合的目标检测跟踪识别方法和系统
CN105321350A (zh) 套牌车检测方法及装置
CN114155284A (zh) 基于多目标行人场景的行人跟踪方法、装置、设备及介质
WO2014132490A1 (ja) 車両諸元計測処理装置、車両諸元計測方法及び記録媒体
Li et al. Robust vehicle tracking for urban traffic videos at intersections
Rateke et al. Passive vision region-based road detection: A literature review
CN111539986A (zh) 目标跟踪方法、装置、计算机设备和存储介质
Gao et al. On‐line vehicle detection at nighttime‐based tail‐light pairing with saliency detection in the multi‐lane intersection
CN112434566A (zh) 客流统计方法、装置、电子设备及存储介质
CN112733598A (zh) 车辆违法判别方法、装置、计算机设备和存储介质
Gu et al. Embedded and real-time vehicle detection system for challenging on-road scenes
CN108257152A (zh) 一种基于视频的道路入侵检测方法及系统
CN114548214A (zh) 目标跟踪方法、计算机设备及存储装置
CN110766009A (zh) 尾牌识别方法、装置以及计算机可读存储介质
Sharma et al. Automatic vehicle detection using spatial time frame and object based classification
Michael et al. Fast change detection for camera-based surveillance systems
Tu et al. Robust vehicle tracking based on scale invariant feature transform
Batzer et al. Generic hypothesis generation for small and distant objects
Tourani et al. Challenges of video-based vehicle detection and tracking in intelligent transportation systems
Lin et al. Incorporating appearance and edge features for vehicle detection in the blind-spot area

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination