CN117495913B - 夜间目标轨迹的跨时空关联方法和装置 - Google Patents

夜间目标轨迹的跨时空关联方法和装置 Download PDF

Info

Publication number
CN117495913B
CN117495913B CN202311833199.1A CN202311833199A CN117495913B CN 117495913 B CN117495913 B CN 117495913B CN 202311833199 A CN202311833199 A CN 202311833199A CN 117495913 B CN117495913 B CN 117495913B
Authority
CN
China
Prior art keywords
target
track
night
image frames
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311833199.1A
Other languages
English (en)
Other versions
CN117495913A (zh
Inventor
阮威健
胡金晖
王耀威
蓝湘源
蒋成进
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart City Research Institute Of China Electronics Technology Group Corp
Original Assignee
Smart City Research Institute Of China Electronics Technology Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart City Research Institute Of China Electronics Technology Group Corp filed Critical Smart City Research Institute Of China Electronics Technology Group Corp
Priority to CN202311833199.1A priority Critical patent/CN117495913B/zh
Publication of CN117495913A publication Critical patent/CN117495913A/zh
Application granted granted Critical
Publication of CN117495913B publication Critical patent/CN117495913B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种夜间目标轨迹的跨时空关联方法和装置,其方法包括:对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹;针对多个目标轨迹中的每个目标轨迹,采用预设的表现对齐网络模型对目标轨迹中的所有图像帧进行特征图重构处理,获得所有图像帧对应的重构特征图,并将所有图像帧对应的重构特征图进行卷积处理,获得每个目标轨迹对应的目标轨迹特征,其中,表现对齐网络模型通过夜间轨迹跨时空关联的训练数据集训练得到;基于目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联。该方法可以提高夜间场景下轨迹关联的准确性。

Description

夜间目标轨迹的跨时空关联方法和装置
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种夜间目标轨迹的跨时空关联方法和装置,还涉及用于执行该夜间目标轨迹的跨时空关联方法的电子设备及存储介质。
背景技术
在计算机视觉领域,为了获得一个目标的连续、完整的运动轨迹,通常需要联合多个摄像头拍摄的视频,从多个视频中获得目标的轨迹片段进行关联,以此来形成属于该目标的连续、完整的运动轨迹。目标轨迹跨时空关联是指在不同时空下识别出同一目标的运动轨迹。目前,现有的轨迹跨时空关联方法主要聚焦在白天等正常光照下的场景,缺乏夜间条件下的目标轨迹跨时空关联方法以及相关的夜间数据集,导致现有轨迹关联方法直接应用到夜间场景时,性能急剧下降,准确性差,难以满足实际视频侦查应用需求。
发明内容
有鉴于此,本申请实施例提供了一种夜间目标轨迹的跨时空关联方法和装置,以及执行该夜间目标轨迹的跨时空关联方法的电子设备及存储介质,可以解决现有轨迹关联方法直接应用到夜间场景时存在的性能下降、准确性差的问题。
本申请实施例的第一方面提供了一种夜间目标轨迹的跨时空关联方法,包括:对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹;针对所述多个目标轨迹中的每个目标轨迹,采用预设的表现对齐网络模型对所述目标轨迹中的所有图像帧进行特征图重构处理,获得所述所有图像帧对应的重构特征图,并将所述所有图像帧对应的重构特征图进行卷积处理,获得每个目标轨迹对应的目标轨迹特征,其中,所述表现对齐网络模型通过夜间轨迹跨时空关联的训练数据集训练得到;基于所述目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联。
在一种可能实现方式中,所述针对所述多个目标轨迹中的每个目标轨迹,采用预设的表现对齐网络模型对所述目标轨迹中的所有图像帧进行特征图重构处理,获得所述所有图像帧对应的重构特征图,并将所述所有图像帧对应的重构特征图进行卷积处理,获得每个目标轨迹对应的目标轨迹特征的步骤之前,还包括:搭建表现对齐网络结构,其中,所述表现对齐网络结构包括滤波网络层和卷积网络层,所述滤波网络层用于对所述目标轨迹中的图像帧进行特征图重构处理,所述卷积网络层用于根据重构图像特征图生成目标轨迹特征;采用预构建的夜间轨迹跨时空关联的训练数据集将所述表现对齐网络结构进行网络训练,获得所述预设的表现对齐网络模型,其中,所述预构建的夜间轨迹跨时空关联的训练数据集中包含有多个夜间风格图像。
在一种可能实现方式中,所述采用预构建的夜间轨迹跨时空关联的训练数据集将所述表现对齐网络结构进行网络训练,获得所述预设的表现对齐网络模型的步骤之前,包括:采用预先训练好的风格迁移模型将白天图像数据集中存储的所有白色风格图像转化为夜间风格图像,获得第一训练数据集;对夜间轨迹测试数据集中的每个夜间轨迹图像分别进行明度通道信息提取,并统计所述夜间轨迹测试数据集中所有夜间轨迹图像的明度通道分布属性,根据所述明度通道分布属性自适应调整所述夜间轨迹测试数据集中所有夜间轨迹图像的明度通道信息,将调整明度通道信息后的夜间轨迹测试数据集作为第二训练数据集;将所述第一训练数据集和所述第二训练数据集进行合并,获得夜间轨迹跨时空关联的训练数据集。
在一种可能实现方式中,所述针对所述多个目标轨迹中的每个目标轨迹,采用预设的表现对齐网络模型对所述目标轨迹中的所有图像帧进行特征图重构处理,获得所述所有图像帧对应的重构特征图,并将所述所有图像帧对应的重构特征图进行卷积处理,获得每个目标轨迹对应的目标轨迹特征的步骤,包括:针对每个目标轨迹,通过所述预设的表现对齐网络模型中的滤波网络层,以所述目标轨迹中的所有图像帧逐一作为中心图像帧,获取所述中心图像帧及其相邻图像帧的特征图,对所述相邻图像帧的特征图进行变种操作,获得多个变种特征图,从所述多个变种特征图中选取一个变种特征图作为所述相邻图像帧的代表性特征图,根据所述中心图像帧的特征图以及所述代表性特征图进行特征图重构处理,以获得所述目标轨迹中的所有图像帧对应的重构特征图;通过所述预设的表现对齐网络模型中的卷积网络层,对所述目标轨迹中的所有图像帧对应的重构特征图进行卷积处理,获得卷积后的特征图序列,将所述特征图序列确定为所述目标轨迹对应的目标轨迹特征。
在一种可能实现方式中,所述对所述相邻图像帧的特征图进行变种操作,获得多个变种特征图,从所述多个变种特征图中选取一个变种特征图作为所述相邻图像帧的代表性特征图的步骤,包括:将所述相邻图像帧的目标图像与所述中心图像帧的目标图像进行目标尺寸比较,若所述相邻图像帧的目标尺寸小于所述中心图像帧的目标尺寸,以所述相邻图像帧的特征图中心为中心按比例进行剪裁处理,否则对所述相邻图像帧的特征图进行下采样处理,获得多个变种特征图;采用预设的相关响应公式计算出每种变种特征图的相关响应值,选取最大相关响应值所对应的变种特征图作为所述相邻图像帧的代表性特征图。
在一种可能实现方式中,所述对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹的步骤,包括:针对所述多个监控视频中的每个监控视频,采用目标检测器遍历所述监控视频中的所有图像帧,识别出有目标的图像帧,并对所述有目标的图像帧进行裁剪,获得多个含目标的有效视频片段;针对所述多个有效视频片段中的每个有效视频片段,采用目标追踪算子对所述有效视频片段的初始图像帧上的目标进行追踪,获得所述目标的多个片段性运动轨迹;按照每个有效视频片段的时序信息,将所述目标的多个片段性运动轨迹进行拼接,获得所述监控视频对应的目标轨迹。
在一种可能实现方式中,所述采用目标追踪算子对所述有效视频片段的初始图像帧上的目标进行追踪,获得所述目标的多个片段性运动轨迹的步骤,还包括:基于所述目标追踪算子确定所述有效视频片段中每帧图像帧追踪得到的目标位置的置信度,将所述每帧图像帧追踪得到的目标位置的置信度作为所述每帧图像帧在所述片段性运动轨迹上的质量权重;将所述所有图像帧对应的重构特征图进行卷积处理的步骤之后,还包括:按照每帧图像帧在所述片段性运动轨迹上的质量权重所述图像帧的特征图进行加权归一化处理。
本申请实施例的第二方面提供了一种夜间目标轨迹的跨时空关联装置,包括:目标轨迹提取模块,用于对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹;目标轨迹特征提取模块,用于针对所述多个目标轨迹中的每个目标轨迹,采用预设的表现对齐网络模型对所述目标轨迹中的所有图像帧进行特征图重构处理,获得所述所有图像帧对应的重构特征图,并将所述所有图像帧对应的重构特征图进行卷积处理,获得每个目标轨迹对应的目标轨迹特征,其中,所述表现对齐网络模型通过夜间轨迹跨时空关联的训练数据集训练得到;目标轨迹关联模块,用于基于所述目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联。
本申请实施例的第三方面提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在电子设备上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面提供的夜间目标轨迹的跨时空关联方法的各步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现第一方面提供的夜间目标轨迹的跨时空关联方法的各步骤。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行时实现第一方面提供的夜间目标轨迹的跨时空关联方法的各步骤。
本申请实施例提供的一种夜间目标轨迹的跨时空关联方法和装置,以及执行该夜间目标轨迹的跨时空关联方法的电子设备及存储介质,具有以下有益效果:
本申请采用通过夜间轨迹跨时空关联的训练数据集训练得到的表现对齐网络模型对基于夜间场景下采集的监控视频所提取到的目标轨迹进行目标轨迹特征提取,再基于提取到的目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联,可以解决现有技术缺乏夜间条件下的目标轨迹跨时空关联方法以及相关的夜间数据集,将聚焦白天等正常光照场景的轨迹关联方法直接应用到夜间场景时存在的性能下降、准确性差的问题。另外,目标轨迹经过表现对齐网络模型的特征图重构处理和卷积处理,可以提高目标轨迹特征的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种夜间目标轨迹的跨时空关联方法的实现流程图;
图2为本申请实施例提供的夜间目标轨迹的跨时空关联方法中训练表现对齐网络模型的一种实现流程图;
图3为本申请实施例提供的夜间目标轨迹的跨时空关联方法中构建夜间轨迹跨时空关联的训练数据集的一种实现流程图;
图4为本申请实施例提供的夜间目标轨迹的跨时空关联方法中提取目标轨迹特征的一种实现流程图;
图5为本申请实施例提供的夜间目标轨迹的跨时空关联方法中确定相邻图像帧的代表性特征图的一种实现流程图;
图6为本申请实施例提供的夜间目标轨迹的跨时空关联方法中提取目标轨迹的一种实现流程图;
图7为本申请实施例提供的一种夜间目标轨迹的跨时空关联装置的基础结构框图;
图8为本申请实施例提供的一种电子设备的基本结构框图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、设备、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。“多个”表示“两个或两个以上”。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请的一些实施例中,请参阅图1,图1为本申请实施例提供的一种夜间目标轨迹的跨时空关联方法的实现流程图。如图1所示,具体可以包括步骤S11至步骤S13。
S11:对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹。
在一个实施例中,运动中的目标由于位置不断在变化,因此目标连续、完整的运动轨迹需要联合多个摄像头拍摄的视频来获得。其中,运动中的目标可以是行人,可以是动物,也可以是车辆,本实施例对此不进行限定。具体地,通过多个摄像头采集到在夜间场景下的多个监控视频后,可以通过对各个监控视频按视频帧进行目标检测和目标追踪处理,以此实现目标轨迹提取,获得监控视频中关于运动中的目标所对应的目标轨迹。可以理解的是,针对每个监控视频,若该监控视频中只包含有一个运动中的目标,则只提取该运动中的目标所对应的目标轨迹,此时,该监控视频可以提取得到一个目标轨迹。若该监控视频中包含有多个运动中的目标,则提取每个运动中的目标各自对应的目标轨迹,此时,该监控视频可以对应提取得到多个目标轨迹。目标轨迹可以表示为图像帧序列,该图像帧序列的每一帧图像帧中都含有一个共同的目标。
S12:针对所述多个目标轨迹中的每个目标轨迹,采用预设的表现对齐网络模型对所述目标轨迹中的所有图像帧进行特征图重构处理,获得所述所有图像帧对应的重构特征图,并将所述所有图像帧对应的重构特征图进行卷积处理,获得每个目标轨迹对应的目标轨迹特征,其中,所述表现对齐网络模型通过夜间轨迹跨时空关联的训练数据集训练得到。
在一个实施例中,为了解决现有轨迹跨时空关联均聚焦在白天等正常光照场景,缺乏夜间场景条件下的目标轨迹跨时空关联方法以及相关的夜间数据集的问题,本实施例通过基于白天等正常光照场景下的数据集预构建夜间轨迹跨时空关联的训练数据集,基于该夜间轨迹跨时空关联的训练数据集预先训练得到一个表现对齐网络模型,进而通过该表现对齐网络模型来对获得的每个目标轨迹进行目标轨迹特征提取,以此,提高夜间场景下目标轨迹特征提取的准确性,从而提高夜间场景下轨迹关联的准确性。具体地,表现对齐网络模型用于对目标轨迹中的所有图像帧进行特征图重构处理,获得所有图像帧对应的重构特征图,并将所有图像帧对应的重构特征图进行卷积处理,获得该目标轨迹对应的目标轨迹特征。针对从读个监控视频中提取到的多个目标轨迹,每个目标轨迹经过表现对齐网络模型进行目标轨迹特征提取,都可以得到对应的目标轨迹特征。目标轨迹特征可以表示为特征图序列,该特征图序列的每一帧特征图中都含有一个共同的目标的特征。特征图序列中的特征图与图像帧序列中的图像帧一一对应。
S13:基于所述目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联。
在一个实施例中,通过表现对齐网络模型提取到每个目标轨迹对应的目标轨迹特征后,可以基于目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,例如计算出跨摄像头下不同目标轨迹相互之间的相似度,基于相似度确定匹配结果,再根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联。示例性的,假设摄像头A对应提取到3个目标轨迹,分别为A1、A2、A3;摄像头B对应提取到2个目标轨迹,分别为B1、B2;摄像头C对应提取到1个目标轨迹,为C1。举例说明,以A1作为关联对象,通过计算A1分别与B1、B2、C1之间的相似度,并进行相似度排序,可以从B1、B2、C1中确定跨摄像头下与A1相匹配的目标轨迹,将该跨摄像头下与A1相匹配的目标轨迹与该A1进行关联。以A2作为关联对象,通过计算A2与B1、B2、C1之间的相似度,并进行相似度排序,可以从B1、B2、C1中确定跨摄像头下与A2相匹配的目标轨迹,将该跨摄像头下与A2相匹配的目标轨迹与该A2进行关联。以A3作为关联对象,通过计算A3与B1、B2、C1之间的相似度,并进行相似度排序,可以从B1、B2、C1中确定跨摄像头下与A3相匹配的目标轨迹,将该跨摄像头下与A3相匹配的目标轨迹与该A3进行关联。以B1作为关联对象,通过计算B1与A1、A2、A3、C1之间的相似度,并进行相似度排序,可以从A1、A2、A3、C1中确定跨摄像头下与B1相匹配的目标轨迹,将该跨摄像头下与B1相匹配的目标轨迹与该B1进行关联。以B2作为关联对象,通过计算B2与A1、A2、A3、C1之间的相似度,并进行相似度排序,可以从A1、A2、A3、C1中确定跨摄像头下与B2相匹配的目标轨迹,将该跨摄像头下与B2相匹配的目标轨迹与该B2进行关联。以C1作为关联对象,通过计算C1分别与A1、A2、A3、B1、B2之间的相似度,并进行相似度排序,可以从A1、A2、A3、B1、B2中确定跨摄像头下与C1相匹配的目标轨迹,将该跨摄像头下与C1相匹配的目标轨迹与该C1进行关联。可以理解的是,针对任意一个目标轨迹,如果跨摄像头下没有跨摄像头下相匹配的目标轨迹,则不进行跨时空关联。在本实施例中,可以采用cosine距离度量方式,计算出跨摄像头下不同目标轨迹之间的相似度。
可以理解的是,跨摄像头下的两个目标轨迹可以根据两个目标轨迹之间的相似度和时间是否重合来确定是否相匹配。例如,以A1作为关联对象,假设计算得到的相似度由大到小排序为B2、C1、B1,在第一个具体的例子中,可以设置相似性度量匹配的规则为选取所有摄像头下最大相似度的目标轨迹与关联对象匹配,即此时可以认为A1与B2相匹配,将该B2与该A1进行关联。在第二个具体的例子中,可以设置相似性度量匹配的规则为选取除关联对象所在摄像头以外的每个摄像头下各自对应的最大相似度的目标轨迹与关联对象匹配,即由于B2、C1以及A1三者分别来自不同的摄像头,如果B2、C1各自与A1的相似度均超出相似度阈值,则可以认为A1与B2、C1均相匹配,将该B2、C1均与A1进行关联。在第三个具体的例子中,可以设置相似性度量匹配的规则为选取除关联对象所在摄像头以外的每个摄像头下满足预设相似度阈值的任意一个目标轨迹与关联对象匹配。比如假设B2、C1、B1各自对应的相似度值为94%、88%、86%,预设相似度阈值为85%时,可以将该B2、C1均与A1进行关联,预设相似度阈值为90%时,则可以将该B2均与A1进行关联。在第四个具体的例子中,可以设置相似性度量匹配的规则还可以包括时间不重合条件,时间不重合条件可以与上述三个例子中的任意一个例子的规则进行组合来实现相似性度量匹配。两个目标轨迹无论相似度如何,如果时间重合,则认定该个目标轨迹不匹配。
以上可以看出,本申请实施例提供的夜间目标轨迹的跨时空关联方法采用通过夜间轨迹跨时空关联的训练数据集训练得到的表现对齐网络模型对基于夜间场景下采集的监控视频所提取到的目标轨迹进行目标轨迹特征提取,再基于提取到的目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联,可以解决现有技术缺乏夜间条件下的目标轨迹跨时空关联方法以及相关的夜间数据集,将聚焦白天等正常光照场景的轨迹关联方法直接应用到夜间场景时存在的性能下降、准确性差的问题。另外,目标轨迹经过表现对齐网络模型的特征图重构处理和卷积处理,可以提高目标轨迹特征的准确性。
本申请的一些实施例中,请参阅图2,图2为本申请实施例提供的夜间目标轨迹的跨时空关联方法中训练表现对齐网络模型的一种实现流程图。如图2所示,具体可以包括步骤S21至步骤S22。
S21:搭建表现对齐网络结构,其中,所述表现对齐网络结构包括滤波网络层和卷积网络层,所述滤波网络层用于对所述目标轨迹中的图像帧进行特征图重构处理,所述卷积网络层用于根据重构图像特征图生成目标轨迹特征;
S22:采用预构建的夜间轨迹跨时空关联的训练数据集将所述表现对齐网络结构进行网络训练,获得所述预设的表现对齐网络模型,其中,所述预构建的夜间轨迹跨时空关联的训练数据集中包含有多个夜间风格图像。
在一个实施例中,由于一个目标轨迹中存在多帧图像,同一个目标在不同图像之间存在尺度变化、姿态变化等因素,如果直接对这些图像帧的特征图进行平均池化准确性回大大降低。因此,为了更好地提取目标轨迹的特征,本通过搭建一个表观对齐网络结构,通过采用预构建的包含大量夜间风格图像数据的夜间轨迹跨时空关联的训练数据集来训练该表现对齐网络结构,直至表现对齐网络结构训练至收敛状态,获得训练好的表现对齐网络模型。进而,通过采用该训练好的表现对齐网络模型来实现目标轨迹特征的提取,能够提高特征提取的准确性。具体地,表现对齐网络结构搭建为包括滤波网络层和卷积网络层。滤波网络层用于对目标轨迹中的图像帧进行特征图重构处理,能够获得目标轨迹中关于目标更为准确的特征图,从而保证后续的目标轨迹特征提取具有较高的准确性。卷积网络层用于根据重构图像特征图生成目标轨迹特征,具体地,卷积网络层可以搭建为一个3D卷积算子,采用3x3x3的3D卷积核,其步长s设置为3,1,1。
本申请的一些实施例中,请参阅图3,图3为本申请实施例提供的夜间目标轨迹的跨时空关联方法中构建夜间轨迹跨时空关联的训练数据集的一种实现流程图。如图3所示,具体可以包括步骤S31至步骤S33。
S31:采用预先训练好的风格迁移模型将白天图像数据集中存储的所有白色风格图像转化为夜间风格图像,获得第一训练数据集;
S32:对夜间轨迹测试数据集中的每个夜间轨迹图像分别进行明度通道信息提取,并统计所述夜间轨迹测试数据集中所有夜间轨迹图像的明度通道分布属性,根据所述明度通道分布属性自适应调整所述夜间轨迹测试数据集中所有夜间轨迹图像的明度通道信息,将调整明度通道信息后的夜间轨迹测试数据集作为第二训练数据集;
S33:将所述第一训练数据集和所述第二训练数据集进行合并,获得夜间轨迹跨时空关联的训练数据集。
在一个实施例中,针对缺乏相关的夜间数据集的问题,可以基于生成对抗网络训练一个风格迁移模型(EnlightenGAN),具体地,可以通过随机选取预设数量张(比如3000张)MARS(Motion Analysis and Re-identification Set)数据集上的白天图像和夜间目标轨迹图像帧,组成风格迁移模型的训练集,用于训练该风格迁移模型,使得该风格迁移模型具备将白天风格图像转化为夜间风格图像的能力。生成对抗网络 (GAN)是一种深度学习网络,主要功能是实现图像、音乐或文本的生成,生成对抗网络的主要思想是通过生成器(generator)与判别器(discriminator)不断对抗进行训练,最终使得判别器难以分辨生成器生成的数据(图片,音频等)和真实的数据。MARS(Motion Analysis and Re-identification Set,运动分析和再识别集)数据集是基于视频的行人重识别的最大的数据集。在本实施例中,可以采用预先训练好的风格迁移模型将白天图像数据集中存储的所有白色风格图像转化为夜间风格图像,获得第一训练数据集。需要说明的是,该白天图像数据集为MARS数据集,通过将MARS数据集上的所有白色风格图像转化为夜间风格图像,即可得到第一训练数据集。进一步地,还可以通过提取夜间轨迹测试数据库中各图像的HSV信息,其中,HSV信息包括色调通道信息H、饱和度通道信息S、明度通道信息V,以此实现对夜间轨迹测试数据集中的每个夜间轨迹图像分别进行明度通道信息提取。获得各图像的明度通道信息后,通过统计夜间轨迹测试数据集中所有夜间轨迹图像的明度通道分布属性,根据明度通道分布属性自适应调整夜间轨迹测试数据集中所有夜间轨迹图像的明度通道信息,调整后得到新的夜间轨迹测试数据集,将该新的夜间轨迹测试数据集作为增广训练集,即第二训练数据集。通过将该第一训练数据集和第二训练数据集进行合并,即可获得夜间轨迹跨时空关联的训练数据集。
本申请的一些实施例中,请参阅图4,图4为本申请实施例提供的夜间目标轨迹的跨时空关联方法中提取目标轨迹特征的一种实现流程图。如图4所示,具体可以包括步骤S41至步骤。
S41:针对每个目标轨迹,通过所述预设的表现对齐网络模型中的滤波网络层,以所述目标轨迹中的所有图像帧逐一作为中心图像帧,获取所述中心图像帧及其相邻图像帧的特征图,对所述相邻图像帧的特征图进行变种操作,获得多个变种特征图,从所述多个变种特征图中选取一个变种特征图作为所述相邻图像帧的代表性特征图,根据所述中心图像帧的特征图以及所述代表性特征图进行特征图重构处理,以获得所述目标轨迹中的所有图像帧对应的重构特征图;
S42:通过所述预设的表现对齐网络模型中的卷积网络层,对所述目标轨迹中的所有图像帧对应的重构特征图进行卷积处理,获得卷积后的特征图序列,将所述特征图序列确定为所述目标轨迹对应的目标轨迹特征。
在一个实施例中,表现对齐网络模型中的滤波网络层具体可以利用深度残差网络ResNet提取出目标轨迹中各图像帧的特征图,并基于一个特征图学习公式对各特征图进行学习,得到一个相关滤波器KCF(即)。具体地,该相关滤波器的学习公式表示为:
其中,F表示为指傅里叶变换,y表示为满足高斯分布的标签,x表示为特征,为常数。
KCF(Kernel Correlation Filter,核相关滤波算法)是一种目标追踪算法。在本实施例中,针对目标轨迹中的所有图像帧,可以分别以每一帧图像帧作为中心图像帧,对与该中心图像帧相邻的相邻图像帧的特征图进行变种操作,得到多个变种特征图,进而利用基于中心图像帧学习到的KCF,从该多个变种特征图中选取出一个最能代表相邻图像帧的变种特征图作为该相邻图像帧的代表性特征图,最后根据中心图像帧的特征图以及代表性特征图进行特征图重构处理,得到该中心图像帧对应的重构特征图。具体地,特征图重构处理可以通过如下重构公式实现:
其中,xi是中心图像帧的原始特征图i位置上的特征值,zj是相邻图像帧的特征图j位置上的特征值。
可以理解的是,当目标轨迹中的所有图像帧都作为中心图像帧进行特征图重构后,便可得到目标轨迹中的所有图像帧对应的重构特征图。
得到目标轨迹中的所有图像帧对应的重构特征图后,表现对齐网络模型中的卷积网络层可以通过将目标轨迹中的所有图像帧对应的重构特征图逐一进行卷积处理,即可获得卷积后的特征图序列,该特征图序列即为目标轨迹对应的目标轨迹特征。
本申请的一些实施例中,请参阅图5,图5为本申请实施例提供的夜间目标轨迹的跨时空关联方法中确定相邻图像帧的代表性特征图的一种实现流程图。如图5所示,具体可以包括步骤S51至步骤S52。
S51:将所述相邻图像帧的目标图像与所述中心图像帧的目标图像进行目标尺寸比较,若所述相邻图像帧的目标尺寸小于所述中心图像帧的目标尺寸,以所述相邻图像帧的特征图中心为中心按比例进行剪裁处理,否则对所述相邻图像帧的特征图进行下采样处理,获得多个变种特征图;
S52:采用预设的相关响应公式计算出每种变种特征图的相关响应值,选取最大相关响应值所对应的变种特征图作为所述相邻图像帧的代表性特征图。
在一个实施例中,可以通过将相邻图像帧的目标图像与中心图像帧的目标图像进行目标尺寸比较,若相邻图像帧的目标尺寸小于中心图像帧的目标尺寸,则以相邻图像帧的特征图中心为中心按比例进行剪裁处理,此处可以包含多种比例,对应可以裁剪得到多种不同尺寸的变种特征图。反之,通过对相邻图像帧的特征图直接进行下采样处理,对应获得多种不同尺寸的变种特征图。可以理解的是,剪裁处理和下采样处理这两方式得到插值操作均采用相应特征图的平均值进行插值。获得多个变种特征图后,基于中心图像帧的特征图,通过特征图学习公式学习得到目标轨迹中的中心图像帧的KCF(即)后。然后,针对任意一个相邻图像帧的变种特征图,利用学习好的KCF,可以采用预设的相关响应公式计算出每种变种特征图的相关响应值,相关响应公式具体为:
在本实施例中,计算出每种变种特征图的相关响应值后,可以通过对各变种特征图的相关响应值进行大小排序,选取最大相关响应值所对应的变种特征图作为相邻图像帧的代表性特征图。
本申请的一些实施例中,请参阅图6,图6为本申请实施例提供的夜间目标轨迹的跨时空关联方法中提取目标轨迹的一种实现流程图。如图6所示,具体可以包括步骤S61至步骤S63。
S61:针对所述多个监控视频中的每个监控视频,采用目标检测器遍历所述监控视频中的所有图像帧,识别出有目标的图像帧,并对所述有目标的图像帧进行裁剪,获得多个含目标的有效视频片段;
S62:针对所述多个有效视频片段中的每个有效视频片段,采用目标追踪算子对所述有效视频片段的初始图像帧上的目标进行追踪,获得所述目标的多个片段性运动轨迹;
S63:按照每个有效视频片段的时序信息,将所述目标的多个片段性运动轨迹进行拼接,获得所述监控视频对应的目标轨迹。
在一个实施例中,采集夜间场景里多个摄像头下的监控视频,即可得到多个监控视频,针对该多个监控视频中的每个监控视频,可以通过采用预先训练好的目标检测器(FasterRCNN)遍历监控视频中的所有图像帧,识别出有目标的图像帧,删减掉没有目标的视频帧,进而再通过对这些有目标的图像帧进行裁剪,以此获得多个含目标的有效视频片段。针对多个有效视频片段中的每个有效视频片段,可以采用目标追踪算子ECO(EfficientConvolution Operators for Tracking)对有效视频片段的初始图像帧上的目标进行追踪,获得目标的多个片段性运动轨迹。按照每个有效视频片段的时序信息,将目标的多个片段性运动轨迹进行拼接,获得监控视频对应的目标轨迹。可以理解的是,当监控视频中包含有多个目标时,可以按照目标逐一进行目标轨迹提取。
在一个实施例中,通过目标追踪算子ECO对图像帧上的目标进行追踪时,ECO还可以计算每帧图像帧追踪得到的目标位置的置信度,将每帧图像帧追踪得到的目标位置的置信度作为每帧图像帧各自在片段性运动轨迹上的质量权重。在后续利用表现对齐网络模型进行目标轨迹特征提取时,可以在将所述所有图像帧对应的重构特征图进行卷积处理之后,按照每帧图像帧在片段性运动轨迹上的质量权重对各图像帧对应的卷积后得到的特征图进一步进行加权归一化处理,从而得到最终的目标轨迹特征。本实施例加入图像帧的质量权重进行加权归一化处理,可以进一步地提高目标轨迹特征的准确性。
可以理解的是,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本申请的一些实施例中,请参阅图7,图7为本申请实施例提供的一种夜间目标轨迹的跨时空关联装置的基础结构框图。本实施例中该装置包括的各单元用于执行上述方法实施例中的各步骤。具体请参阅上述方法实施例中的相关描述。为了便于说明,仅示出了与本实施例相关的部分。如图7所示,夜间目标轨迹的跨时空关联装置包括:目标轨迹提取模块71、目标轨迹特征提取模块72和目标轨迹关联模块73。其中:目标轨迹提取模块71用于对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹。目标轨迹特征提取模块72用于针对所述多个目标轨迹中的每个目标轨迹,采用预设的表现对齐网络模型对所述目标轨迹中的所有图像帧进行特征图重构处理,获得所述所有图像帧对应的重构特征图,并将所述所有图像帧对应的重构特征图进行卷积处理,获得每个目标轨迹对应的目标轨迹特征,其中,所述表现对齐网络模型通过夜间轨迹跨时空关联的训练数据集训练得到。目标轨迹关联模块73用于基于所述目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联。
应当理解的是,上述夜间目标轨迹的跨时空关联装置,与上述的夜间目标轨迹的跨时空关联方法一一对应,此处不再赘述。
本申请的一些实施例中,请参阅图8,图8为本申请实施例提供的一种电子设备的基本结构框图。如图8所示,该实施例的电子设备8包括:处理器81、存储器82以及存储在所述存储器82中并可在所述处理器81上运行的计算机程序83,例如夜间目标轨迹的跨时空关联方法的程序。处理器81执行所述计算机程序83时实现上述各个夜间目标轨迹的跨时空关联方法各实施例中的步骤。或者,所述处理器81执行所述计算机程序83时实现上述夜间目标轨迹的跨时空关联装置对应的实施例中各模块的功能。具体请参阅实施例中的相关描述,此处不赘述。
示例性的,所述计算机程序83可以被分割成一个或多个模块(单元),用于执行上述方法实施例中的各个步骤。所述一个或者多个模块被存储在所述存储器82中,并由所述处理器81执行,以完成本申请。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序83在所述电子设备8中的执行过程。
所述电子设备可包括,但不仅限于,处理器81、存储器82。本领域技术人员可以理解,图8仅仅是电子设备8的示例,并不构成对电子设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所述处理器81可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器82可以是所述电子设备8的内部存储单元,例如电子设备8的硬盘或内存。所述存储器82也可以是所述电子设备8的外部存储设备,例如所述电子设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器82还可以既包括所述电子设备8的内部存储单元也包括外部存储设备。所述存储器82用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器82还可以用于暂时地存储已经输出或者将要输出的数据。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现上述各个方法实施例中的步骤。在本实施例中,所述计算机可读存储介质可以是非易失性,也可以是易失性。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时可实现上述各个方法实施例中的步骤。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述装置中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (7)

1.一种夜间目标轨迹的跨时空关联方法,其特征在于,包括:
对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹;
搭建表现对齐网络结构,其中,所述表现对齐网络结构包括滤波网络层和卷积网络层,所述滤波网络层用于对所述目标轨迹中的图像帧进行特征图重构处理,所述卷积网络层用于根据重构图像特征图生成目标轨迹特征;
采用预构建的夜间轨迹跨时空关联的训练数据集将所述表现对齐网络结构进行网络训练,获得预设的表现对齐网络模型,其中,所述预构建的夜间轨迹跨时空关联的训练数据集中包含有多个夜间风格图像;
针对所述多个目标轨迹中的每个目标轨迹,通过所述预设的表现对齐网络模型中的滤波网络层,以所述目标轨迹中的所有图像帧逐一作为中心图像帧,获取所述中心图像帧及其相邻图像帧的特征图,对所述相邻图像帧的特征图进行变种操作,将所述相邻图像帧的目标图像与所述中心图像帧的目标图像进行目标尺寸比较,若所述相邻图像帧的目标尺寸小于所述中心图像帧的目标尺寸,以所述相邻图像帧的特征图中心为中心按比例进行剪裁处理,否则对所述相邻图像帧的特征图进行下采样处理,获得多个变种特征图,采用预设的相关响应公式计算出每种变种特征图的相关响应值,从所述多个变种特征图中选取最大相关响应值所对应的变种特征图作为所述相邻图像帧的代表性特征图,根据所述中心图像帧的特征图以及所述代表性特征图,采用预设的表现对齐网络模型对所述目标轨迹中的所有图像帧进行特征图重构处理,获得所述目标轨迹中的所有图像帧对应的重构特征图,并通过所述预设的表现对齐网络模型中的卷积网络层,将所述目标轨迹中的所有图像帧对应的重构特征图进行卷积处理,获得卷积后的特征图序列,将所述特征图序列确定为每个目标轨迹对应的目标轨迹特征,其中,所述表现对齐网络模型通过夜间轨迹跨时空关联的训练数据集训练得到;
基于所述目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联。
2.根据权利要求1所述的夜间目标轨迹的跨时空关联方法,其特征在于,所述采用预构建的夜间轨迹跨时空关联的训练数据集将所述表现对齐网络结构进行网络训练,获得所述预设的表现对齐网络模型的步骤之前,包括:
采用预先训练好的风格迁移模型将白天图像数据集中存储的所有白色风格图像转化为夜间风格图像,获得第一训练数据集;
对夜间轨迹测试数据集中的每个夜间轨迹图像分别进行明度通道信息提取,并统计所述夜间轨迹测试数据集中所有夜间轨迹图像的明度通道分布属性,根据所述明度通道分布属性自适应调整所述夜间轨迹测试数据集中所有夜间轨迹图像的明度通道信息,将调整明度通道信息后的夜间轨迹测试数据集作为第二训练数据集;
将所述第一训练数据集和所述第二训练数据集进行合并,获得夜间轨迹跨时空关联的训练数据集。
3.根据权利要求1所述的夜间目标轨迹的跨时空关联方法,其特征在于,所述对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹的步骤,包括:
针对所述多个监控视频中的每个监控视频,采用目标检测器遍历所述监控视频中的所有图像帧,识别出有目标的图像帧,并对所述有目标的图像帧进行裁剪,获得多个含目标的有效视频片段;
针对所述多个含目标的有效视频片段中的每个有效视频片段,采用目标追踪算子对所述有效视频片段的初始图像帧上的目标进行追踪,获得所述目标的多个片段性运动轨迹;
按照每个有效视频片段的时序信息,将所述目标的多个片段性运动轨迹进行拼接,获得所述监控视频对应的目标轨迹。
4.根据权利要求3所述的夜间目标轨迹的跨时空关联方法,其特征在于,所述采用目标追踪算子对所述有效视频片段的初始图像帧上的目标进行追踪,获得所述目标的多个片段性运动轨迹的步骤,还包括:
基于所述目标追踪算子确定所述有效视频片段中每帧图像帧追踪得到的目标位置的置信度,将所述每帧图像帧追踪得到的目标位置的置信度作为所述每帧图像帧在所述片段性运动轨迹上的质量权重;
将所述所有图像帧对应的重构特征图进行卷积处理的步骤之后,还包括:
按照每帧图像帧在所述片段性运动轨迹上的质量权重对所述图像帧的特征图进行加权归一化处理。
5.一种夜间目标轨迹的跨时空关联装置,其特征在于,包括:
目标轨迹提取模块,用于对多个摄像头在夜间场景下的多个监控视频分别进行目标轨迹提取,获得多个目标轨迹;
目标轨迹特征提取模块,用于搭建表现对齐网络结构,其中,所述表现对齐网络结构包括滤波网络层和卷积网络层,所述滤波网络层用于对所述目标轨迹中的图像帧进行特征图重构处理,所述卷积网络层用于根据重构图像特征图生成目标轨迹特征;采用预构建的夜间轨迹跨时空关联的训练数据集将所述表现对齐网络结构进行网络训练,获得预设的表现对齐网络模型,其中,所述预构建的夜间轨迹跨时空关联的训练数据集中包含有多个夜间风格图像,针对所述多个目标轨迹中的每个目标轨迹,通过所述预设的表现对齐网络模型中的滤波网络层,以所述目标轨迹中的所有图像帧逐一作为中心图像帧,获取所述中心图像帧及其相邻图像帧的特征图,对所述相邻图像帧的特征图进行变种操作,将所述相邻图像帧的目标图像与所述中心图像帧的目标图像进行目标尺寸比较,若所述相邻图像帧的目标尺寸小于所述中心图像帧的目标尺寸,以所述相邻图像帧的特征图中心为中心按比例进行剪裁处理,否则对所述相邻图像帧的特征图进行下采样处理,获得多个变种特征图,采用预设的相关响应公式计算出每种变种特征图的相关响应值,从所述多个变种特征图中选取最大相关响应值所对应的变种特征图作为所述相邻图像帧的代表性特征图,根据所述中心图像帧的特征图以及所述代表性特征图,采用预设的表现对齐网络模型对所述目标轨迹中的所有图像帧进行特征图重构处理,获得所述目标轨迹中的所有图像帧对应的重构特征图,并通过所述预设的表现对齐网络模型中的卷积网络层,将所述目标轨迹中的所有图像帧对应的重构特征图进行卷积处理,获得卷积后的特征图序列,将所述特征图序列确定为每个目标轨迹对应的目标轨迹特征,其中,所述表现对齐网络模型通过夜间轨迹跨时空关联的训练数据集训练得到;
目标轨迹关联模块,用于基于所述目标轨迹特征,对跨摄像头下的目标轨迹进行相似性度量匹配,并根据匹配结果,对跨摄像头下相匹配的目标轨迹进行关联。
6.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述方法的步骤。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述方法的步骤。
CN202311833199.1A 2023-12-28 2023-12-28 夜间目标轨迹的跨时空关联方法和装置 Active CN117495913B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311833199.1A CN117495913B (zh) 2023-12-28 2023-12-28 夜间目标轨迹的跨时空关联方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311833199.1A CN117495913B (zh) 2023-12-28 2023-12-28 夜间目标轨迹的跨时空关联方法和装置

Publications (2)

Publication Number Publication Date
CN117495913A CN117495913A (zh) 2024-02-02
CN117495913B true CN117495913B (zh) 2024-04-30

Family

ID=89678592

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311833199.1A Active CN117495913B (zh) 2023-12-28 2023-12-28 夜间目标轨迹的跨时空关联方法和装置

Country Status (1)

Country Link
CN (1) CN117495913B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295594A (zh) * 2016-08-17 2017-01-04 北京大学 一种基于动态路径树的跨摄像头目标跟踪方法及装置
CN106295598A (zh) * 2016-08-17 2017-01-04 北京大学 一种跨摄像头目标跟踪方法及装置
CN110245609A (zh) * 2019-06-13 2019-09-17 深圳力维智联技术有限公司 行人轨迹生成方法、装置及可读存储介质
CN111353448A (zh) * 2020-03-05 2020-06-30 南京理工大学 基于相关性聚类和时空约束的行人多目标跟踪方法
CN112465078A (zh) * 2021-02-03 2021-03-09 成都点泽智能科技有限公司 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质
CN113627497A (zh) * 2021-07-27 2021-11-09 武汉大学 一种基于时空约束的跨摄像头行人轨迹匹配方法
CN114693746A (zh) * 2022-03-31 2022-07-01 西安交通大学 基于身份识别和跨摄像头目标追踪的智能监控系统及方法
CN114913200A (zh) * 2022-03-11 2022-08-16 中国科学院自动化研究所 基于时空轨迹关联的多目标跟踪方法及系统
CN115620090A (zh) * 2022-11-07 2023-01-17 中电科新型智慧城市研究院有限公司 模型训练方法、低照度目标重识别方法和装置、终端设备
CN115856872A (zh) * 2022-12-02 2023-03-28 华南理工大学 一种车辆运动轨迹连续跟踪方法
CN117218382A (zh) * 2023-09-27 2023-12-12 中山大学 一种无人系统大跨度穿梭多摄像头轨迹跟踪识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015165092A1 (zh) * 2014-04-30 2015-11-05 中国科学院自动化研究所 大范围优先的跨摄像机视觉目标再识别方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295594A (zh) * 2016-08-17 2017-01-04 北京大学 一种基于动态路径树的跨摄像头目标跟踪方法及装置
CN106295598A (zh) * 2016-08-17 2017-01-04 北京大学 一种跨摄像头目标跟踪方法及装置
CN110245609A (zh) * 2019-06-13 2019-09-17 深圳力维智联技术有限公司 行人轨迹生成方法、装置及可读存储介质
CN111353448A (zh) * 2020-03-05 2020-06-30 南京理工大学 基于相关性聚类和时空约束的行人多目标跟踪方法
CN112465078A (zh) * 2021-02-03 2021-03-09 成都点泽智能科技有限公司 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质
CN113627497A (zh) * 2021-07-27 2021-11-09 武汉大学 一种基于时空约束的跨摄像头行人轨迹匹配方法
CN114913200A (zh) * 2022-03-11 2022-08-16 中国科学院自动化研究所 基于时空轨迹关联的多目标跟踪方法及系统
CN114693746A (zh) * 2022-03-31 2022-07-01 西安交通大学 基于身份识别和跨摄像头目标追踪的智能监控系统及方法
CN115620090A (zh) * 2022-11-07 2023-01-17 中电科新型智慧城市研究院有限公司 模型训练方法、低照度目标重识别方法和装置、终端设备
CN115856872A (zh) * 2022-12-02 2023-03-28 华南理工大学 一种车辆运动轨迹连续跟踪方法
CN117218382A (zh) * 2023-09-27 2023-12-12 中山大学 一种无人系统大跨度穿梭多摄像头轨迹跟踪识别方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
MULTI-TARGET MULTI-CAMERA VEHICLE TRACKING USING TRANSFORMER-BASED CAMERA LINK MODEL AND SPATIAL-TEMPORAL INFORMATION;Hsiang-Wei Huang et al;《arXiv》;20230118;第1-5页 *
Online Inter-Camera Trajectory Association Exploiting Person Re-Identification and Camera Topology;Na Jiang et al;《Session: FF-5》;20181031;第1457-1465页 *
基于 AVI 数据与深度强化学习的城市快速路匝道协调控制方法;蔺庆海 等;《中国公路学报》;20230915;第1-25页 *
基于时间序列启发式信息的室内轨迹跟踪算法;秦俊平 等;《计算机研究与发展》;20171231;第54卷(第12期);第2698-2710页 *
时空特征对齐的多目标跟踪算法;程稳 等;《光电工程》;20230630;第50卷(第6期);第[230009-1]-[230009-13] 页 *
融合时空特征的隧道场景跨相机车辆实时跟踪方法;苟铃滔 等;《计算机工程与应用》;20231008;第59卷(第24期);第88-97页 *

Also Published As

Publication number Publication date
CN117495913A (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
US11200424B2 (en) Space-time memory network for locating target object in video content
WO2022126377A1 (zh) 检测车道线的方法、装置、终端设备及可读存储介质
CN111104867B (zh) 基于部件分割的识别模型训练、车辆重识别方法及装置
CN110853033B (zh) 基于帧间相似度的视频检测方法和装置
US20240320840A1 (en) Target tracking method, target tracking apparatus, electronic device and computer readable medium
CN109034086B (zh) 车辆重识别方法、装置及系统
WO2021104124A1 (zh) 圈养栏信息的确定方法、装置及系统、存储介质
TWI497449B (zh) 非監督式調適方法與應用其之影像自動分類方法
CN111444758A (zh) 一种基于时空信息的行人重识别方法及装置
CN113010736B (zh) 一种视频分类方法、装置、电子设备及存储介质
CN115493612A (zh) 一种基于视觉slam的车辆定位方法及装置
CN110472561B (zh) 足球进球类型识别方法、装置、系统及存储介质
CN113450457B (zh) 道路重建方法、装置、计算机设备和存储介质
CN115393788A (zh) 一种基于增强全局信息注意力的多尺度监控行人重识别方法
CN113014876B (zh) 视频监控方法、装置、电子设备及可读存储介质
CN111476132A (zh) 视频场景识别方法、装置及电子设备、存储介质
CN114220087A (zh) 一种车牌检测方法、车牌检测器及相关设备
CN113918510A (zh) 图片归档方法、装置、终端设备及计算机可读存储介质
CN117557972A (zh) 一种车辆重识别的方法、装置、设备及可读存储介质
CN111027434B (zh) 一种行人识别模型的训练方法、装置及电子设备
CN117495913B (zh) 夜间目标轨迹的跨时空关联方法和装置
CN116364064A (zh) 一种音频拼接方法、电子设备及存储介质
CN114091519A (zh) 一种基于多粒度遮挡感知的遮挡行人重识别方法
CN110830734B (zh) 一种突变和渐变镜头切换识别方法及系统
CN110738225B (zh) 图像识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant