WO2015165092A1 - 大范围优先的跨摄像机视觉目标再识别方法 - Google Patents

大范围优先的跨摄像机视觉目标再识别方法 Download PDF

Info

Publication number
WO2015165092A1
WO2015165092A1 PCT/CN2014/076640 CN2014076640W WO2015165092A1 WO 2015165092 A1 WO2015165092 A1 WO 2015165092A1 CN 2014076640 W CN2014076640 W CN 2014076640W WO 2015165092 A1 WO2015165092 A1 WO 2015165092A1
Authority
WO
WIPO (PCT)
Prior art keywords
trajectory
trajectories
target
similarity
matching
Prior art date
Application number
PCT/CN2014/076640
Other languages
English (en)
French (fr)
Inventor
黄凯奇
曹黎俊
陈威华
Original Assignee
中国科学院自动化研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中国科学院自动化研究所 filed Critical 中国科学院自动化研究所
Priority to US15/307,805 priority Critical patent/US9996939B2/en
Priority to PCT/CN2014/076640 priority patent/WO2015165092A1/zh
Priority to CN201480000159.1A priority patent/CN104094279B/zh
Publication of WO2015165092A1 publication Critical patent/WO2015165092A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Definitions

  • the invention relates to the field of video surveillance and pattern recognition, and in particular relates to a wide-range priority cross-camera visual target re-identification method. Background technique
  • the existing video surveillance requires someone to monitor in real time before the video, and it is impossible to implement automatic monitoring and alarming. It is easy to monitor for a long time and cause excessive fatigue. At the same time, due to the scope of monitoring, it is often necessary for monitoring personnel to perform multi-channel monitoring at the same time, which is often overwhelming. This requires intelligent video surveillance.
  • the core technology of intelligent video surveillance and the re-identification of visual targets in large-scale surveillance scenes have always been one of the research hotspots in the field of computer vision.
  • Re-recognition of visual targets based on multi-scene target tracking has also attracted many scholars.
  • Target tracking in multiple scenarios not only enables monitoring and tracking of pedestrians in public places, but also provides more useful value information for further advanced processing such as behavior recognition.
  • the traditional multi-scene target tracking algorithm is mainly divided into two steps: The first step is to complete the multi-target tracking in a single scene, and obtain the complete trajectory of each target in each single scene; the second step cross-scene target relay, through the scene The spatio-temporal information realizes the trajectory connection between the scenes and completes the target relay.
  • the cross-scene target relay is based on the target tracking of a single scene, and the input is derived from the result of single scene tracking.
  • the single scene tracking result does not reach a certain level
  • the cross-scene relay effect is directly affected.
  • today's single-scene target tracking algorithm will generate a large number of broken fragmentary trajectories and erroneous interference trajectories in practical applications, and have not yet reached the standard that can be used for cross-scene relay. This makes the effect of the cross-scene relay algorithm not guaranteed, and ultimately the target tracking of multiple scenes in the actual scene is difficult to achieve.
  • the object of the present invention is to provide a wide-range cross-camera visual target re-recognition method for solving the defects of the prior art, and to solve the problem of target re-identification in a large-scale monitoring scenario, and the recognition accuracy is high.
  • the present invention provides a wide-range priority cross-camera visual target re-identification method, the method comprising:
  • Step S1 obtaining an initial trajectory of a single scene target
  • Step S2 calculating a piecewise main color spectrum histogram feature of each track to obtain a track feature expression; Step S3, using a method of minimizing the uncertainty to obtain a calculation formula of the matching degree between any two tracks, thereby obtaining any two Matching degree between tracks;
  • step S4 the global data fusion is performed on all the trajectories using the method of the maximum posterior probability to obtain the tracking result across the scene.
  • step S1 for each track, the average value of the confidence of all the frames is used to indicate the trajectory accuracy of the track:
  • the confidence level indicates the tracking result for each frame, and 0.2 indicates that the tracking target is lost.
  • Loss, s and ⁇ are the start frame and end frame of the track, respectively;
  • step S2 specifically includes:
  • is the color of the sum of the number of pixels of the former w and more than 90% of the total number of pixels, and the total characteristics of each track are:
  • the motion period is found by the similarity information between each frame in the trajectory, and the original trajectory feature H is re-segmented by the period, by the following formula
  • the periodic information that may exist in the total feature H is obtained;
  • p argmax ⁇ ⁇ (4)
  • the trajectory is re-segmented uniformly by the periodic information p, and the segmented main color spectrum histogram feature of the trajectory is obtained:
  • H ⁇ H 1 , H 2 ,...,H ( 5 )
  • step S3 specifically includes:
  • the matching formula is: , R max Sim(H , H ) - min Sz'm(H, A , H V B ) ( r ,
  • step S4 specifically includes:
  • ⁇ * arg max ⁇ P ⁇ ) ⁇ P(T k )
  • ⁇ T is the similarity of the trajectory ii
  • is the prior probability of the possible fused trajectory, which can be expressed as a Markov chain containing the transition probability ⁇ P(l kM ⁇ l V k );
  • step S4-2 a graph structure is established, wherein each node represents a track segment /, and its value is c, and each edge represents a prior probability /3 ⁇ 4 ⁇ ⁇ ), which is obtained from the smallest cost function stream in the entire graph.
  • ⁇ * The largest set, the cost energy for each stream is represented by a negative logarithmic function:
  • the matching probability of the motion information and the time information respectively indicating the trajectory respectively represent the matching probability between the apparent features of the trajectory
  • the matching similarity formula is:
  • the cost energy of each stream is obtained, and the traversal finally obtains the set that maximizes the posterior probability, which is the result of multi-scene target tracking and re-identification.
  • the invention re-tests the visual target across the camera, and the recognition accuracy is high.
  • FIG. 1 is a flow chart of a method for re-identifying a cross-camera visual target of a wide range of priority according to the present invention. detailed description
  • the target relay effect across scenes largely depends on the quality of single scene tracking.
  • the present invention is a target tracking re-identification method based on global trajectory fusion, which can be used in a single scene tracking trajectory is not very good. Get a relatively good cross-scene relay result.
  • this method proposes a new trajectory feature expression, which enables it to complete multi-scene target tracking and re-identification in non-overlapping scenarios.
  • the invention preferentially solves the problem of target re-identification in a large-scale monitoring scenario.
  • the method relies on the global optimization of all the trajectories of multiple cameras to realize the re-identification of the visual targets in multiple scenes and form a complete target trajectory. ⁇
  • FIG. 1 is a flow chart of a method for re-identifying a cross-camera visual target of a wide range of priority according to the present invention. As shown in the figure, the present invention specifically includes the following steps:
  • Step 101 Obtain an initial trajectory of a single scene target.
  • the initial trajectory segment of each pedestrian in each scene is obtained by pedestrian detection and single-target pedestrian tracking.
  • Pedestrian detection methods are based on pedestrian head and shoulder detection, and single target tracking algorithms utilize adaptive multi-feature fusion.
  • Confidence indicates the tracking result for each frame, ⁇ 0.2 indicates that the tracking target is lost.
  • c (1)
  • ⁇ and ⁇ are the start and end frames of the track, respectively.
  • N is the trajectory summary.
  • Each track /, [ c,, C , , s, , , , , , ], represents the position, accuracy, scene, time and appearance of the track.
  • Step 102 Calculate a piecewise main color spectrum histogram feature of each track, and obtain a trajectory feature expression
  • the MCSHR feature For the MCSHR feature, first calculate the HSV color histogram of the target in each frame, and then divide the color into 16*2 colors according to its H and S values, and select the first w color values as the target MCSHR feature expression of the target.
  • h ⁇ C l , C 2 , .., C ( 2 ) where C is the color of the sum of the number of pixels of the former w and 90% or more of the total number of pixels.
  • H ⁇ H l , H 2 ,...,H ( 5 )
  • " / / ⁇ represents the number of segments of the track segment.
  • Step 103 Obtain a calculation formula of the matching degree between any two tracks by using a method of minimizing the uncertainty, thereby obtaining a matching degree between any two tracks;
  • the uncertainty of the similarity between the two trajectories is also important to some extent; by calculating the uncertainty of the similarity between the two trajectories to guide the matching between the trajectories, that is, to maximize the similarity
  • the degree of uncertainty is minimized, so that the obtained similarity matching value can better reflect the true similarity relationship between the two tracks.
  • the specific matching formula is:
  • Step 104 Perform global data fusion on all the trajectories using the method of maximum posterior probability to obtain the tracking result across the scene.
  • the goal is to find the maximum posterior probability of the set ⁇ under the condition that there is no overlap between the given trajectory set L and the traversed trajectory:
  • a graph structure is constructed in which each node represents a track segment /, and its value is c, and each edge represents a prior probability ⁇ , ⁇ ). Then, by making the smallest cost function flow in the whole graph, we can get the largest set, so we convert (7) into a minimum cost function. question. For the cost energy of each stream, it is represented by a negative logarithmic function:
  • the specific calculation process may refer to the minimum flow method (J. Liu, P. Carr, RT Collins, and Y. Liu Tracking sports players with context-conditioned mot ion Models, " CVPR 2013 ).
  • the corpse represents the matching probability between the apparent features of the trajectory, using the previously obtained segmented main color spectrum histogram features as the apparent feature representation of the trajectory.
  • an adjustment factor A where 2.5 is taken.
  • the specific matching similarity formula is:
  • the calculation method of Z ⁇ (H A , H S ) is as shown in the formula (6). Substituting (9) into ( 8 ), the cost energy of each stream can be obtained. The set r that maximizes the posterior probability by traversing is the result of the multi-scene target tracking and re-identification.
  • the invention extends the idea of single scene trajectory data fusion, and extends it to trajectory data fusion of multiple scenes globally, and distinguishes trajectory matching from the same scene or different scenes. It simplifies the traditional two-step multi-target tracking method and unifies it in a unified data fusion process.
  • the segmented main color spectrum histogram features are used, and the accuracy of target re-identification is improved by minimizing the uncertainty.
  • the visual object re-identification method of the cross-camera of the invention can also obtain a better relay effect under the condition that the single-scene algorithm is not ideal, and realize the visual object re-recognition in multiple scenes. Suitable for non-overlapping scenes.
  • the new feature expression and similarity calculation method are used to further improve the accuracy of re-recognition.
  • RAM random access memory
  • ROM read-only memory
  • EEPROM electrically programmable ROM
  • EEPROM electrically erasable programmable ROM
  • registers hard disk, removable disk, CD-ROM, or technical field Any other form of storage medium known.

Abstract

本发明涉及一种大范围优先的跨摄像机视觉目标再识别方法,所述方法包括:步骤S1,获得单场景目标的初始轨迹;步骤S2,计算每条轨迹的分段主颜色谱直方图特征,得到轨迹特征表达;步骤S3,利用最小化不确定度的方法得到任意两条轨迹间匹配度的计算公式,从而得到任意两条轨迹间匹配度;步骤S4,对所有轨迹采用最大后验概率的方法进行全局数据融合得到跨场景的跟踪结果。本发明目标再试别方法,识别正确率高。

Description

大范围优先的跨摄像机视觉目标再识别方法 技术领域
本发明涉及视频监控与模式识别领域, 尤其涉及一种大范围优先的跨摄 像机视觉目标再识别方法。 背景技术
随着社会现代化建设的快速发展, 人们对社会安全的关注也越来越高, 特别是对于一些公共场所, 如学校, 医院和政府机关等的监控。 如今数以千 计的摄像机被用于公共场所的日常监控, 这些摄像机每天产生着大量的视频 数据。 但是, 作为传统的视频监控系统由于需要人为的监视, 因而存在着很 多难以克服的问题。
首先, 现有的视频监控都需要有人在视频前实时监视, 没法实现自动监 控报警, 很容易长时间监视而造成人员的过度疲劳。 同时, 由于监控范围的 原因, 通常需要监控人员同时进行多路监控, 往往会应接不暇。 这就需要智 能化视频监控。
而智能视频监控的核心技术, 大范围监控场景下的视觉目标再识别技术 也一直是计算机视觉领域的研究热点之一, 基于多场景目标跟踪的视觉目标 再识别也是吸引了很多学者的研究。 多场景下的目标跟踪不仅能实现对公共 场所行人的监控跟踪, 同时, 也为进一步的高级处理(如行为识别)提供了 更有用的价值信息。 传统的多场景目标跟踪算法主要分两步: 第一步是先完 成单场景下多目标的跟踪, 得到每个单场景下各个目标的完整轨迹; 第二步 跨场景目标接力, 通过场景间的时空信息实现场景间的轨迹连接, 完成目标 接力。 从这两步可以看出, 跨场景目标接力是以单场景的目标跟踪为基础的, 其输入来源于单场景跟踪的结果。 也就是说, 当单场景跟踪结果达不到一定 标准时, 跨场景接力效果直接会受到很大的影响。 而现今的单场景目标跟踪 算法在实际应用中都会长生大量的断裂的零碎轨迹和错误的干扰轨迹, 都还 没有达到可以用于跨场景接力的标准。 这就使得跨场景接力算法的效果无法 得到保证, 最终导致实际场景中的多场景的目标跟踪难以实现。 传统的跨场 景接力算法都是假设单场景跟踪效果已经足够理想, 以此作为算法输入, 因 而其在实际应用中接力效果相对较差。 那么如何在单场景目标跟踪效果不好 的情况下, 提高跨场景接力准确率, 从而完成基本的多场景目标跟踪以实现 目标的再识别成为了一个急需解决的问题。 发明内容
本发明的目的是针对现有技术的缺陷, 提供一种大范围优先的跨摄像机 视觉目标再识别方法, 解决大范围监控场景下的目标再识别问题, 识别正确 率高。
为实现上述目的, 本发明提供了一种大范围优先的跨摄像机视觉目标再 识别方法, 所述方法包括:
步骤 S1, 获得单场景目标的初始轨迹;
步骤 S2,计算每条轨迹的分段主颜色谱直方图特征,得到轨迹特征表达; 步骤 S 3, 利用最小化不确定度的方法得到任意两条轨迹间匹配度的计算 公式, 从而得到任意两条轨迹间匹配度;
步骤 S4, 对所有轨迹釆用最大后验概率的方法进行全局数据融合得到跨 场景的跟踪结果。
进一步的, 所述步骤 S 1中, 对每一轨迹, 所有帧的置信度的平均值 被用来表示该轨迹的轨迹准确度:
Figure imgf000004_0001
其中, 置信度 表示对于每一帧的跟踪结果, 0.2表示跟踪目标丟 失, sβ分别为该轨迹的起始帧和结束帧;
最后形成的所有目标轨迹的集合为 £ = /2,... }, N为轨迹综述, 每一 条轨迹 /,= [ ί,,ς.Α, ,,Ω,] , 分别表示轨迹的位置, 准确度, 所属场景, 时间和 表观特征。
进一步的, 所述步骤 S2具体包括:
计算每帧中目标的颜色直方图,然后根据其 Η和 S值,将颜色分为 16*2 个颜色, 从中选取前 η个颜色值作为该目标该帧的特征:
h = {Cl,C2,..,C ( 2 )
其中, ς为前 w种像素数之和占总像素数比例的 90%以上的颜色,每一 条轨迹的总特征为:
H=∑: , ( 3)
其中, m¾为轨迹 的长度;
对总特征 H中的所有特征 , 利用计算相互间的相似度 Λ = ), 通过其轨迹中每帧间的相似度信息找到运动周期, 利用周期对原来轨迹特 征 H进行重新分段, 通过下式得到总特征 H中可能存在的周期性信息; p = argmax Τ Λ ( 4 ) 利用周期性信息 p对将轨迹重新进行均匀分段, 至此得到轨迹的分段 主颜色谱直方图特征:
H = {H1,H2,...,H ( 5 )
其中, i/ =「m¾/ /^表示轨迹分段的段数。
进一步的, 所述步骤 S3具体包括:
计算两条轨迹间相似度指导轨迹间的匹配, 在最大化相似度的同时最 小化不确定度, 由此使得得到的相似度匹配值能反映两轨迹间的真实相似 关系, 匹配公式为: , R max Sim(H , H ) - min Sz'm(H,A , HV B ) ( r
Dis{H\HB) = \ ' ( 6 )
max Sim H ,Hj ) + min Sim Hu A , Hv B )
其中, 4£为两段不同轨迹的分段主颜色谱直方图特征, H 和 H】 分别为其中的某一段, i = {l,2,...,dA},j = {l,2,...,d
进一步的, 所述步骤 S4具体包括:
步骤 S4_l, 每一条全局融合后的轨迹为 Γ ={/.,/.,...,/. }, 那么总的融合 后的轨迹集合为 = {7 , 2,...,7 }, m为融合后的轨迹数目;在给定轨迹集合 L 和融合后轨迹间无重叠的条件下, 集合 Γ的最大后验概率为:
Γ* = arg max Π P \Τ) Π P(Tk )
Figure imgf000006_0001
其中, \T)为轨迹 ii的相似度, τ )为可能的融合后的轨迹的先验概 率, 它可以表示为一条包含转移概率 Π P(lkM \l Vk )的马尔科夫链;
步骤 S4-2,建立图结构,其中每个节点表示一个轨迹片段 /,,其值为 c,, 每条边表示先验概率 /¾^), 从整个图中最小的代价函数流得到使得 Γ* 最大的集合, 对于每条流的代价能量 用负对数函数表示:
e^-logPi l^l^Pil^l^ ( g )
= -log( m*^* J
其中, 和 分别表示轨迹间的运动信息和时间信息的匹配概率, 表 示轨迹表观特征间的匹配概率, 匹配相似度公式为:
Figure imgf000006_0002
得到每条流的代价能量, 遍历最终得到使后验概率最大的集合 Γ即为多 场景目标跟踪和再识别的结果。
本发明跨摄像机的视觉目标再试别方法, 识别正确率高。 附图说明
图 1为本发明大范围优先的跨摄像机视觉目标再识别方法的流程图。 具体实施方式
下面通过附图和实施例, 对本发明的技术方案做进一步的详细描述。 跨场景的目标接力效果很大程度上依赖于单场景跟踪结果的好坏, 本 发明为一种基于全局轨迹融合的目标跟踪再识别方法, 该方法能在单场景 跟踪轨迹不是很好的情况下得到相对较好的跨场景接力结果。 同时, 本方 法提出一个新的轨迹特征表达, 使其能在非重叠场景下完成多场景的目标 艮踪和再识别。
本发明优先解决大范围监控场景下的目标再识别问题。 该方法依靠对 多摄像机所有轨迹的全局优化实现多场景下的视觉目标再识别, 并形成完 整的目标轨迹。 釆用具有周期性的分段主颜色谱直方图特征作为轨迹特征 表达, 利用最小化不确定度的方法实现轨迹的匹配, 进一步提高目标再识 别的准确率。
图 1为本发明大范围优先的跨摄像机视觉目标再识别方法的流程图,如 图所示, 本发明具体包括如下步骤:
步骤 101, 获得单场景目标的初始轨迹;
具体的, 通过行人检测和单目标的行人跟踪, 得到每个场景下每个行 人的初始轨迹片段。 行人检测方法釆用基于行人头肩检测, 单目标跟踪算 法则利用自适应多特征融合的方法。 用置信度 表示对于每一帧的跟踪结 果, < 0.2表示跟踪目标丟失。 对每一轨迹, 其所有帧的 的平均值被用 来表示该轨迹的轨迹准确度: c = (1 )
Figure imgf000007_0001
其中, ^和^分别为该轨迹的起始帧和结束帧。 则最后形成的所有目标轨迹的集合为 = ,/2,... }, N为轨迹综述。每 一条轨迹 /,= [ c,,C,,s,, ,, ,], 分别表示轨迹的位置, 准确度, 所属场景, 时间 和表观特征。
步骤 102, 计算每条轨迹的分段主颜色谱直方图特征, 得到轨迹特征 表达;
对 MCSHR特征, 首先计算每帧中目标的 HSV颜色直方图, 然后根据其 H和 S值, 将颜色分为 16*2个颜色, 从中选取前 w个颜色值作为该目标该 帧的 MCSHR特征表达: h = {Cl,C2,..,C ( 2 ) 其中, C,为前 w种像素数之和占总像素数比例的 90%以上的颜色, 这 样, 针对每条轨迹, 得到所需的总得 MCSHR特征:
H = ymih. ( 3 ) 其中, m¾为轨迹 的长度。 对 H中的所有/^ 利用其论文中的方法计 算相互间的相似度 Λ = Simih^hj)。 由于行人在运动过程中其步伐存在着明显 的周期性, 这里的想法是通过其轨迹中每帧间的相似度信息找到这种运动 的周期。 利用周期对原来轨迹特征 H进行重新分段。 即通过如下公式找到 H中可能存在的周期性信息 p:
1
P = arg max Τ Λ ( ) 利用 ρ对将轨迹重新进行均勾分段, 至此得到轨迹的分段主颜色谱直 方图特征:
H = {Hl,H2,...,H ( 5 ) 其中, =「 / /^表示轨迹分段的段数。
步骤 103, 利用最小化不确定度的方法得到任意两条轨迹间匹配度的 计算公式, 从而得到任意两条轨迹间匹配度; 在轨迹匹配的过程中, 两轨迹间相似度的不确定性在一定程度上也是 很重要的; 通过计算两轨迹间相似度的这种不确定性来指导轨迹间的匹 配, 即在最大化相似度的同时最小化不确定度, 这样使得得到的相似度匹 配值更能反映两轨迹间的真实相似关系。 具体的匹配公式为:
, R max Szm(H.A ,Hf)-min Szm(H,A ,HB) , r ,
Dis{H HB) = \ ' A B ( 6 )
max Sim{H ,Hj ) + min Sim Hu A , Hv B ) 其中, 4£为两段不同轨迹的分段主颜色谱直方图特征。 H,A和 H 分别为其中的某一段, i = {l,2,...,dA},j = {l,2,...,dB}。
步骤 104, 对所有轨迹釆用最大后验概率的方法进行全局数据融合得 到跨场景的跟踪结果。
在得到所有轨迹的集合 £ = /2,... }以及其中每条轨迹的各项属性
局优化。
首先, 可以将每一条全局融合后的轨迹表示为 η ={Ζ, , /,,...,/,}, 那么总 的融合后的轨迹集合为 = {7 ,7 ,...,7 }, m为融合后的轨迹数目。 目标就是 在给定轨迹集合 L和融合后轨迹间无重叠的条件下, 求集合 Γ的最大后验 概率:
Figure imgf000009_0001
这里 Ζ,.|Γ)为轨迹 Ζ,.的相似度, 即之前的准确度 ς. ; Ρ(Γλ)为可能的融合 后的轨迹的先验概率, 它可以表示为一条包含转移概率 Π P(lki+i
Figure imgf000009_0002
)的马尔科 夫链。
建立一个图结构, 其中每个节点表示一个轨迹片段 /,, 其值为 c,, 每条 边表示先验概率 ^,→^)。 那么, 通过求整个图中最小的代价函数流可以 得到使得 最大的集合, 因此将 (7 ) 式转化为一个求最小代价函数的问 题。 对于每条流的代价能量 , 用负对数函数表示:
e^-XogPiLU^l^Pil^l^ ( g )
= -log( ^QP。)
其中, 和 分别表示轨迹间的运动信息和时间信息的匹配概率, 具 体计算过程可参考最小流方法 (J. Liu, P. Carr, R. T. Collins, and Y. Liu Tracking sports players with context—conditioned mot ion models, " CVPR 2013 ) 。 尸。表示轨迹表观特征间的匹配概率, 利用之前 求得的分段主颜色谱直方图特征作为轨迹的表观特征表达。 同时, 为了区 分来自于不同场景的轨迹片段, 引入了一个调整因子 A, 这里取 2.5。 则 具体的匹配相似度公式为:
Figure imgf000010_0001
Z^(HA,HS)的计算方法如(6 )式所示。 则将(9)式代入到(8)式中, 即可求得每条流的代价能量。 通过遍历最终得到使后验概率最大的集合 r 即为所求的多场景目标跟踪和再识别的结果。
本发明延用单场景轨迹数据融合的思想, 将其扩展到多场景全局的轨 迹数据融合, 区分对待来自于同一场景或者不同场景的轨迹匹配。 简化了 传统的两步的多目标跟踪方法, 将其统一在一个统一的数据融合过程中。 釆用分段的主颜色谱直方图特征, 并利用最小化不确定度的方法提高了目 标再识别的准确率。
本发明跨摄像机的视觉目标再识别方法在单场景算法效果不理想的 情况下, 也能得到较好的接力效果, 实现多场景下视觉目标再识别。 适用 于非重叠场景。 利用新的特征表达及相似度计算方法进一步提高再识别的 准确率。
专业人员应该还可以进一步意识到, 结合本文中所公开的实施例描述的 各示例的单元及算法步骤, 能够以电子硬件、 计算机软件或者二者的结合来 实现, 为了清楚地说明硬件和软件的可互换性, 在上述说明中已经按照功能 一般性地描述了各示例的组成及步骤。 这些功能究竟以硬件还是软件方式来 执行, 取决于技术方案的特定应用和设计约束条件。 专业技术人员可以对每 个特定的应用来使用不同方法来实现所描述的功能, 但是这种实现不应认为 超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、 处理 器执行的软件模块, 或者二者的结合来实施。 软件模块可以置于随机存储器 ( RAM ) 、 内存、 只读存储器(ROM ) 、 电可编程 R0M、 电可擦除可编程 R0M、 寄存器、 硬盘、 可移动磁盘、 CD-ROM , 或技术领域内所公知的任意其它形式 的存储介质中。
以上所述的具体实施方式, 对本发明的目的、 技术方案和有益效果进行 了进一步详细说明, 所应理解的是, 以上所述仅为本发明的具体实施方式而 已, 并不用于限定本发明的保护范围, 凡在本发明的精神和原则之内, 所做 的任何修改、 等同替换、 改进等, 均应包含在本发明的保护范围之内。

Claims

权 利 要 求 书
1、 一种大范围优先的跨摄像机视觉目标再识别方法, 其特征在于, 所述 方法包括:
步骤 Sl, 获得单场景目标的初始轨迹;
步骤 S2, 计算每条轨迹的分段主颜色谱直方图特征, 得到轨迹特征表 达;
步骤 S 3,利用最小化不确定度的方法得到任意两条轨迹间匹配度的计 算公式, 从而得到任意两条轨迹间匹配度;
步骤 S4,对所有轨迹釆用最大后验概率的方法进行全局数据融合得到 跨场景的跟踪结果。
2、 根据权利要求 1所述的方法, 其特征在于, 所述步骤 S1中, 对每 一轨迹, 所有帧的置信度的平均值被用来表示该轨迹的轨迹准确度:
Figure imgf000012_0001
其中, 置信度 表示对于每一帧的跟踪结果, <0.2表示跟踪目标丟 失, sβ分别为该轨迹的起始帧和结束帧;
最后形成的所有目标轨迹的集合为 £ = /2,… }, N为轨迹综述, 每一 条轨迹
Figure imgf000012_0002
, 分别表示轨迹的位置, 准确度, 所属场景, 时间和 表观特征。
3、根据权利要求 1所述的方法, 其特征在于, 所述步骤 S2具体包括: 计算每帧中目标的颜色直方图,然后根据其 Η和 S值,将颜色分为 16*2 个颜色, 从中选取前 η个颜色值作为该目标该帧的特征:
h = {Cl,C2,..,C ( 2 )
其中, ς为前 w种像素数之和占总像素数比例的 90%以上的颜色,每一 条轨迹的总特征为:
H=∑: , ( 3 )
其中, m¾为轨迹 的长度;
对总特征 H中的所有特征 , 利用计算相互间的相似度 A = SZ'm(/^, ), 通过其轨迹中每帧间的相似度信息找到运动周期, 利用周期对原来轨迹特 征 H进行重新分段, 通过下式得到总特征 H中可能存在的周期性信息 p:
Figure imgf000013_0001
利用周期性信息 p对将轨迹重新进行均勾分段, 至此得到轨迹的分段 主颜色谱直方图特征:
H={H1,H2,...,Hii} ( 5 )
其中, =「 / /^表示轨迹分段的段数。
4、根据权利要求 3所述的方法, 其特征在于, 所述步骤 S3具体包括: 计算两条轨迹间相似度指导轨迹间的匹配, 在最大化相似度的同时最 小化不确定度, 由此使得得到的相似度匹配值能反映两轨迹间的真实相似 关系, 匹配公式为:
Figure imgf000013_0002
其中, 4£为两段不同轨迹的分段主颜色语直方图特征, H 和 H】 分别为其中的某一段, i = {1,2,...,^}, j' = {l,2,...,dB}。
5、根据权利要求 4所述的方法, 其特征在于, 所述步骤 S4具体包括: 步骤 S4-l, 每一条全局融合后的轨迹为 η ={/,,/,,...,/, }, 那么总的融合 后的轨迹集合为 = {7 ,7 ,...,7 }, m为融合后的轨迹数目;在给定轨迹集合 L 和融合后轨迹间无重叠的条件下, 集合 Γ的最大后验概率为: r* = argmaxn (,|r) Π P(Tk)
Ί Γ Ί] = ,\/ί≠ j
其中, \T)为轨迹 的相似度, τ; )为可能的融合后的轨迹的先验概 率, 它可以表示为一条包含转移概率 ΠΡ . V.)的马尔科夫链;
步骤 S4-2,建立图结构,其中每个节点表示一个轨迹片段 /,,其值为 c,, 每条边表示先验概率 ^,→^), 从整个图中最小的代价函数流得到使得 Γ* 最大的集合, 对于每条流的代价能量 用负对数函数表示:
e^-XogPiLU^l^Pil^l^ ( g )
= -log( m*^* J
其中, 和 分别表示轨迹间的运动信息和时间信息的匹配概率, 表 示轨迹表观特征间的匹配概率, 匹配相似度公式为:
Figure imgf000014_0001
得到每条流的代价能量, 遍历最终得到使后验概率最大的集合 Γ即为 多场景目标跟踪和再识别的结果。
PCT/CN2014/076640 2014-04-30 2014-04-30 大范围优先的跨摄像机视觉目标再识别方法 WO2015165092A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/307,805 US9996939B2 (en) 2014-04-30 2014-04-30 Large-range-first cross-camera visual target re-identification method
PCT/CN2014/076640 WO2015165092A1 (zh) 2014-04-30 2014-04-30 大范围优先的跨摄像机视觉目标再识别方法
CN201480000159.1A CN104094279B (zh) 2014-04-30 2014-04-30 大范围优先的跨摄像机视觉目标再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/076640 WO2015165092A1 (zh) 2014-04-30 2014-04-30 大范围优先的跨摄像机视觉目标再识别方法

Publications (1)

Publication Number Publication Date
WO2015165092A1 true WO2015165092A1 (zh) 2015-11-05

Family

ID=51640973

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2014/076640 WO2015165092A1 (zh) 2014-04-30 2014-04-30 大范围优先的跨摄像机视觉目标再识别方法

Country Status (3)

Country Link
US (1) US9996939B2 (zh)
CN (1) CN104094279B (zh)
WO (1) WO2015165092A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163041A (zh) * 2018-04-04 2019-08-23 腾讯科技(深圳)有限公司 视频行人再识别方法、装置及存储介质
CN110473232A (zh) * 2017-07-14 2019-11-19 腾讯科技(深圳)有限公司 图像识别方法、装置、存储介质及电子设备

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704824B (zh) * 2017-09-30 2020-05-29 北京正安维视科技股份有限公司 基于空间约束的行人重识别方法及设备
CN108765459A (zh) * 2018-04-18 2018-11-06 中国人民解放军国防科技大学 基于小轨迹图关联模型的半在线视觉多目标跟踪方法
CN108875588B (zh) * 2018-05-25 2022-04-15 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN108876823B (zh) * 2018-07-02 2022-05-17 晋建志 基于时空连续性的单目跨相机多目标识别定位跟踪装置及方法
CN110750681B (zh) * 2018-07-05 2022-08-16 武汉斗鱼网络科技有限公司 一种账号相似度计算方法、存储介质、电子设备及系统
CN108986143B (zh) * 2018-08-17 2022-05-03 浙江捷尚视觉科技股份有限公司 一种视频中目标检测跟踪方法
US10958854B2 (en) 2018-11-02 2021-03-23 BriefCam Ltd. Computer-implemented method for generating an output video from multiple video sources
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
CN109522843B (zh) * 2018-11-16 2021-07-02 北京市商汤科技开发有限公司 一种多目标跟踪方法及装置、设备和存储介质
CN109521420B (zh) * 2018-12-20 2022-10-04 西安电子科技大学 基于多特征匹配的多目标跟踪方法
CN110223329A (zh) * 2019-05-10 2019-09-10 华中科技大学 一种多摄像机多目标跟踪方法
CN110728702B (zh) * 2019-08-30 2022-05-20 深圳大学 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统
CN110706251B (zh) * 2019-09-03 2022-09-23 北京正安维视科技股份有限公司 一种行人跨镜头跟踪方法
CN115311329B (zh) * 2019-10-11 2023-05-23 杭州云栖智慧视通科技有限公司 一种基于双环节约束的视频多目标跟踪方法
CN113515982B (zh) * 2020-05-22 2022-06-14 阿里巴巴集团控股有限公司 轨迹还原方法及设备、设备管理方法及管理设备
CN112102371A (zh) * 2020-09-14 2020-12-18 湖州中科院应用技术研究与产业化中心 基于整体图平均化模型的群体目标轨迹分析模型
CN112149740B (zh) * 2020-09-25 2021-12-28 上海商汤智能科技有限公司 目标重识别方法、装置、存储介质及设备
CN112200841B (zh) * 2020-09-30 2021-08-27 杭州海宴科技有限公司 一种基于行人体态的跨域多摄像头跟踪方法和装置
CN112529939A (zh) * 2020-12-15 2021-03-19 广州云从鼎望科技有限公司 一种目标轨迹匹配方法、装置、机器可读介质及设备
CN112541457B (zh) * 2020-12-21 2021-10-26 重庆紫光华山智安科技有限公司 一种监控节点的搜索方法及相关装置
CN117455958B (zh) * 2023-12-22 2024-03-08 武汉以彼古罗咨询服务有限公司 一种面向精子识别的轨迹追踪方法和装置
CN117495913B (zh) * 2023-12-28 2024-04-30 中电科新型智慧城市研究院有限公司 夜间目标轨迹的跨时空关联方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080040179A1 (en) * 2006-08-14 2008-02-14 Deutsche Boerse Ag System and method for sharing information and causing an action based on that information
CN101277429A (zh) * 2007-03-27 2008-10-01 中国科学院自动化研究所 监控中多路视频信息融合处理与显示的方法和系统
CN101854516A (zh) * 2009-04-02 2010-10-06 北京中星微电子有限公司 视频监控系统、视频监控服务器及视频监控方法
CN102724773A (zh) * 2012-05-25 2012-10-10 西安电子科技大学 基于m2m通信的无线智能监控装置及方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
US7242421B2 (en) * 2000-11-10 2007-07-10 Perceptive Network Technologies, Inc. Methods of establishing a communications link using perceptual sensing of a user's presence
WO2003032143A2 (en) * 2001-10-12 2003-04-17 Hrl Laboratories, Llc Vision-based pointer tracking method and apparatus
US7558762B2 (en) * 2004-08-14 2009-07-07 Hrl Laboratories, Llc Multi-view cognitive swarm for object recognition and 3D tracking
US7623676B2 (en) * 2004-12-21 2009-11-24 Sarnoff Corporation Method and apparatus for tracking objects over a wide area using a network of stereo sensors
US20060170769A1 (en) * 2005-01-31 2006-08-03 Jianpeng Zhou Human and object recognition in digital video
WO2008031088A2 (en) * 2006-09-08 2008-03-13 Advanced Fuel Research, Inc. Image analysis by object addition and recovery
US8098891B2 (en) * 2007-11-29 2012-01-17 Nec Laboratories America, Inc. Efficient multi-hypothesis multi-human 3D tracking in crowded scenes
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
WO2013178725A1 (en) * 2012-05-31 2013-12-05 Thomson Licensing Segmentation of a foreground object in a 3d scene
US9489743B2 (en) * 2013-03-13 2016-11-08 Mecommerce, Inc. Determining dimension of target object in an image using reference object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080040179A1 (en) * 2006-08-14 2008-02-14 Deutsche Boerse Ag System and method for sharing information and causing an action based on that information
CN101277429A (zh) * 2007-03-27 2008-10-01 中国科学院自动化研究所 监控中多路视频信息融合处理与显示的方法和系统
CN101854516A (zh) * 2009-04-02 2010-10-06 北京中星微电子有限公司 视频监控系统、视频监控服务器及视频监控方法
CN102724773A (zh) * 2012-05-25 2012-10-10 西安电子科技大学 基于m2m通信的无线智能监控装置及方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473232A (zh) * 2017-07-14 2019-11-19 腾讯科技(深圳)有限公司 图像识别方法、装置、存储介质及电子设备
CN110473232B (zh) * 2017-07-14 2024-02-09 腾讯科技(深圳)有限公司 图像识别方法、装置、存储介质及电子设备
CN110163041A (zh) * 2018-04-04 2019-08-23 腾讯科技(深圳)有限公司 视频行人再识别方法、装置及存储介质

Also Published As

Publication number Publication date
CN104094279A (zh) 2014-10-08
US9996939B2 (en) 2018-06-12
US20170116753A1 (en) 2017-04-27
CN104094279B (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
WO2015165092A1 (zh) 大范围优先的跨摄像机视觉目标再识别方法
Matern et al. Exploiting visual artifacts to expose deepfakes and face manipulations
Oh et al. Fast video object segmentation by reference-guided mask propagation
Yang et al. LRW-1000: A naturally-distributed large-scale benchmark for lip reading in the wild
WO2018188453A1 (zh) 人脸区域的确定方法、存储介质、计算机设备
CN107274433B (zh) 基于深度学习的目标跟踪方法、装置及存储介质
WO2020098158A1 (zh) 行人重识别方法、装置及计算机可读存储介质
US11568637B2 (en) UAV video aesthetic quality evaluation method based on multi-modal deep learning
WO2018000752A1 (zh) 一种基于多尺度cnn和连续crf的单目图像深度估计方法
WO2016004673A1 (zh) 一种基于云服务的智能目标识别装置、系统及方法
CN103971386A (zh) 一种动态背景场景下的前景检测方法
WO2023077821A1 (zh) 基于多清晰度集成自训练的小样本低质量图像目标检测方法
CN104021544B (zh) 一种温室蔬菜病害监控视频关键帧提取方法即提取系统
CN107248174A (zh) 一种基于tld算法的目标跟踪方法
WO2020258978A1 (zh) 对象检测方法和装置
CN111241928B (zh) 人脸识别底库优化方法、系统、设备、可读存储介质
CN110097026A (zh) 一种基于多维要素视频分割的段落关联规则评判方法
CN111382647B (zh) 一种图片处理方法、装置、设备及存储介质
Tan et al. A multiple object tracking algorithm based on YOLO detection
Han et al. Two-stream neural networks for tampered face detection
CN113344971A (zh) 一种融合卡尔曼滤波的孪生红外目标跟踪方法
CN112487978B (zh) 一种视频中说话人定位的方法、装置及计算机存储介质
Jeong et al. Congestion-aware bayesian loss for crowd counting
CN115188081A (zh) 一种面向复杂场景的检测跟踪一体化方法
CN103886607A (zh) 一种针对扰动目标的检测及抑制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14890621

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15307805

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14890621

Country of ref document: EP

Kind code of ref document: A1