CN116229127A - 基于视频事件主体时序行为的匹配方法及装置 - Google Patents

基于视频事件主体时序行为的匹配方法及装置 Download PDF

Info

Publication number
CN116229127A
CN116229127A CN202310518706.6A CN202310518706A CN116229127A CN 116229127 A CN116229127 A CN 116229127A CN 202310518706 A CN202310518706 A CN 202310518706A CN 116229127 A CN116229127 A CN 116229127A
Authority
CN
China
Prior art keywords
standard
frame
matrix
combination
distance proportion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310518706.6A
Other languages
English (en)
Other versions
CN116229127B (zh
Inventor
李泽宁
薛陈楠
徐劲松
王烨阳
孙立烨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202310518706.6A priority Critical patent/CN116229127B/zh
Publication of CN116229127A publication Critical patent/CN116229127A/zh
Application granted granted Critical
Publication of CN116229127B publication Critical patent/CN116229127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视频事件主体时序行为的匹配方法及装置,属于计算机身份识别匹配领域。获取时序行为发生过程中关键帧数下不同对象两两组合的标准距离比例矩阵1和2;获取待测视频,确定待匹配的初始距离矩阵,根据初始距离矩阵计算得到测试距离比例矩阵1;从测试距离比例矩阵1中抽取与标准距离比例矩阵1的标准帧相对应的帧数,根据抽取帧数与标准距离比例矩阵1对应帧数的特征差值,判断可能的身份特征匹配组合;根据抽取帧数从初始距离矩阵中再次抽取对应帧数,计算得到测试距离比例矩阵2,根据测试距离比例矩阵2与标准距离比例矩阵2,对判断出的组合进行帧数验证。本发明能够对视频中的对象成员进行有效的身份特征匹配。

Description

基于视频事件主体时序行为的匹配方法及装置
技术领域
本发明属于计算机身份识别匹配领域,具体涉及如何在不同的视频中,进行识别行为发生并将对象与预定身份特征相匹配的方法。可以应用在集体运动技战术分析中,也可以应用在其他具有明显时序特征的行为分析中。
背景技术
现今的身份识别技术,已经能够达到识别视频中各种具备不同特征的对象,并对其进行持续跟踪的要求。但由于识别后的所有对象对于计算机而言是等价的,这一问题导致只使用现有技术是无法对非连续视频片段中同一运动目标进行识别并分析。
发明内容
本发明的目的在于提供一种基于视频事件主体时序行为的匹配方法及装置,以解决现有技术无法对非连续视频片段中同一运动目标进行识别并分析的问题。
为了实现上述目的,本发明采用如下技术方案:
一方面,本发明提供了一种基于视频事件主体时序行为的匹配方法,包含如下步骤:
获取时序行为发生过程中所有关键帧数中对应不同身份特征的对象两两之间构成的所有身份匹配组合中每个组合的两个对象之间的标准距离矩阵;
根据标准距离矩阵,以帧数为分组求出每一帧数下所有组合的标准距离之和,将每一帧数下每个组合的标准距离除以该帧数下所有组合的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵1;以组合为分组求出每一组合在所有帧数下的标准距离之和,将每一组合在每一帧数下的标准距离除以该组合在所有帧数下的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵2;
获取待测视频,确定该待测视频中待匹配的不同身份特征对象两两之间的所有可能组合情况和该待测视频所有帧数下所有可能组合情况的初始距离矩阵;
从初始距离矩阵中随机抽取设定比例的帧数并按时间先后顺序排列,按照标准距离比例矩阵1的计算方法计算得到测试距离比例矩阵1;
从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况;将抽取帧数按照时间先后顺序排列,得到测试距离比例矩阵1’,若判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔大致相同,则将初步判断出的可能的身份匹配组合情况判定为大致身份特征匹配的组合;
从初始距离矩阵中抽取与测试距离比例矩阵1’各帧数相对应的帧数,按照标准距离比例矩阵2的计算方法计算得到测试距离比例矩阵2;
将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,分别与标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配。
进一步地,所述标准距离矩阵根据以下方法获取:
收集大量时序行为的视频样本,对收集的视频样本进行分割处理,得到若干分割好的帧数相同的视频样本;
找到每个分割好的视频样本中不同身份特征对象两两之间组成的若干组合中每种组合的两个对象之间形成的距离曲线中的关键节点对应的所有关键帧数,计算每个分割好的视频样本中关键帧数下每种组合两个对象之间的距离;
将所有分割好的视频样本中相同关键帧数下的每种组合两个对象之间的距离取平均值,得到每个关键帧数下每种组合的标准距离,从而得到所述标准距离矩阵。
进一步地,所述从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况,包括:
计算测试距离比例矩阵1的第一帧下所有组合数据分别与标准距离比例矩阵1第一标准帧下每个标准组合数据的特征差值,若计算出的特征差值均在第一阈值范围内,则将测试距离比例矩阵1的第一帧抽取出来作为测试距离比例矩阵1’的第一帧,否则,舍弃该帧,继续计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第一标准帧下每个标准组合数据的特征差值,直至计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第一帧;将测试距离比例矩阵1’第一帧下的所有组合数据分别与标准距离比例矩阵1第一标准帧下第一个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第一标准帧下第一个标准组合对应的可能的身份特征匹配组合;将测试距离比例矩阵1’第一帧下的所有组合数据分别与标准距离比例矩阵1第一标准帧下第二个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第一标准帧下第二个标准组合对应的可能的身份特征匹配组合;依此类推,直至得到与标准距离比例矩阵1第一标准帧下最后一个标准组合对应的可能的身份特征匹配组合;
计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第二标准帧下每个标准组合数据的特征差值,若计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第二帧,否则,舍弃该帧,继续计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第二标准帧下每个标准组合数据的特征差值,直至计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第二帧;将测试距离比例矩阵1’第二帧下的所有组合数据分别与标准距离比例矩阵1第二标准帧下的第一个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第二标准帧下第一个标准组合对应的可能的身份特征匹配组合;将测试距离比例矩阵1’第二帧下的所有组合数据分别与标准距离比例矩阵1第二标准帧下的第二个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第二标准帧下第二个标准组合对应的可能的身份特征匹配组合;依此类推,直至得到与标准距离比例矩阵1第二标准帧下最后一个标准组合对应的可能的身份特征匹配组合;检查测试距离比例矩阵1’第二帧判断出的可能组合情况与之前帧数判断出的可能组合情况是否一致,若否,则舍弃该帧,从测试距离比例矩阵1中继续抽取测试距离比例矩阵1’的第二帧,并判断可能组合情况,直至判断出的可能组合情况与之前帧数判断出的可能组合情况一致;
依此类推,直至抽取出与标准距离比例矩阵1最后一个标准帧相对应的帧数。
进一步地,所述特征差值最小的判断方法为:若计算出的特征差值满足在第二阈值范围内,则判断该特征差值最小。
进一步地,判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔是否大致相同的方法为:
若测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的标准帧数间隔的差值在预定误差范围内,则判断两者的帧数间隔为大致相同。
进一步地,所述预定误差范围为测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔的差值在±5帧之内。
进一步地,所述将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,分别与标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配,包括:
若测试距离比例矩阵2的行数据对应的组合为两种或两种以上可能组合,则取每种可能组合,计算该组合在不同帧数下的数据与标准距离比例矩阵2对应标准组合在不同帧数下数据的特征差值和,所有可能组合中特征差值之和最小的组合为满足帧数匹配下的身份特征匹配;
若测试距离比例矩阵2的行数据对应的组合仅为一种可能组合,则计算该组合在不同帧数下的数据与标准距离比例矩阵2对应标准组合在不同帧数下数据的特征差值和,若计算出的特征差值和不超过第三阈值,则判断出的大致身份特征匹配的组合为满足帧数匹配下的身份特征匹配。
另一方面,本发明提供了一种基于视频事件主体时序行为的匹配装置,包括:
标准距离获取模块,用于获取时序行为发生过程中所有关键帧数中对应不同身份特征的对象两两之间构成的所有身份匹配组合中每个组合的两个对象之间的标准距离矩阵;
行为标准确立模块,用于根据标准距离矩阵,以帧数为分组求出每一帧数下所有组合的标准距离之和,将每一帧数下每个组合的标准距离除以该帧数下所有组合的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵1;以组合为分组求出每一组合在所有帧数下的标准距离之和,将每一组合在每一帧数下的标准距离除以该组合在所有帧数下的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵2;
初始距离矩阵获取模块,用于获取待测视频,确定该待测视频中待匹配的不同身份特征对象两两之间的所有可能组合情况和该待测视频所有帧数下所有可能组合情况的初始距离矩阵;
第一测试距离比例矩阵计算模块,用于从初始距离矩阵中随机抽取设定比例的帧数并按时间先后顺序排列,按照标准距离比例矩阵1的计算方法计算得到测试距离比例矩阵1;
位置匹配模块,用于从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况;将抽取帧数按照时间先后顺序排列,得到测试距离比例矩阵1’,若判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔大致相同,则将初步判断出的可能的身份匹配组合情况判定为大致身份特征匹配的组合;
第二测试距离比例矩阵计算模块,用于从初始距离矩阵中抽取与测试距离比例矩阵1’各帧数相对应的帧数,按照标准距离比例矩阵2的计算方法计算得到测试距离比例矩阵2;
帧数验证模块,用于将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,分别与标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配。
相比于现有技术,本发明具有以下有益效果:
本发明通过将每一个对象的特征与标准模板进行比较,从而确定这个对象在行为中的具体身份特征,且分别从帧数以及组合情况进行多次判断,确保了结果的准确性,从而能够对视频中的对象成员进行有效的身份特征匹配;本发明可以应用于集体运动技战术分析中,也可以应用在其他具有明显时序特征的行为分析中,为后续实现各类分析提供了技术基础。
附图说明
图1为本发明方法流程图;
图2为本发明实施例中的标准距离矩阵示意图;
图3为本发明实施例中的标准距离比例矩阵1示意图;
图4为本发明实施例中的标准距离比例矩阵2示意图;
图5为本发明实施例中的测试距离比例矩阵1’示意图;
图6为本发明实施例中的测试距离比例矩阵2示意图;
图7为本发明具体实施例中步骤(3)的结果展示图;
图8为本发明具体实施例中步骤(5)的结果展示图;
图9为本发明装置结构示意图。
实施方式
下面结合具体实施例对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
在一组时序行为之中,每一个对象都会对应一个特定的身份特征。使用现有技术来识别视频中的对象时,很难识别出与其身份特征有关的信息,即每个对象对于计算机而言是等价的。
为此,本发明提出了一种基于视频事件主体时序行为的匹配方法,将视频样本中对象之间的距离矩阵以折线图的形式反映(横坐标为帧数,纵坐标为距离),可以得到所有对象两两之间的距离曲线。将待测情况下对象之间的距离曲线与视频样本中的距离曲线进行比较,如果两条距离曲线对应的两个对象身份相同,那么它将具有非常明显的特征——即这两条曲线的形状几乎是相同的。根据这个规律,可以确定每一条曲线对应的两个对象,进而确定每一个对象对应的身份特征。同样的,对某一单个物体其在事件发生过程中的相对位置特征也可作为待测事件时序发生的依据,从而确定包含该目标的事件发生时间。
结合图1所示,一种基于视频事件主体时序行为的匹配方法,包括:
步骤S1,获取时序行为发生过程中所有关键帧数中对应不同身份特征的对象两两之间构成的所有身份匹配组合中每个组合的两个对象之间的标准距离矩阵;
由于不同样本中两个处于相同的相对位置的对象对应的距离曲线形状基本相同,找到所有视频样本中对象形成的距离曲线中的关键节点(以足球视频为例,关键节点是指,当识别到足球在待匹配对象(无论身份)脚下时,就可以认定该点为关键节点)对应的所有关键帧数(例如关键节点后60帧,可以根据视频帧率进行调整),得到关键帧数中对应不同身份的对象两两之间的距离矩阵。将其按两两组合的形式确定出全部样本数据并取平均值,得到所有关键帧数下每种组合中两个对象的标准距离。
具体的,基于事先已收集的大量实际样本数据,计算得出某时序行为发生过程中每个关键帧数对应不同身份特征的对象两两之间的距离矩阵(以x个对象两两之间有m种组合为例),按组合确定两对象(如:x 1-x 2x 1-x 3x 2-x 3……)的全部距离样本数据的平均值为该种行为之下在某一确定帧数时的两者的标准距离(记行为发生的时刻为第1帧,按样本视频每秒取帧、取样)。
更具体的,标准距离矩阵根据以下方法获取:
收集大量某时序行为的视频样本,对收集的视频样本进行分割处理,得到若干分割好的帧数相同的视频样本;
找到每个分割好的视频样本中不同身份特征对象两两之间组成的m种组合中每种组合的两个对象之间形成的距离曲线中的关键节点对应的所有关键帧数,计算每个分割好的视频样本中关键帧数下每种组合两个对象之间的距离;
将所有分割好的视频样本中相同关键帧数下的每种组合两个对象之间的距离取平均值,得到每个关键帧数下每种组合的标准距离,从而得到标准距离矩阵。
以足球运动视频中的二过一战术为例,收集该战术的大量视频样本数据,对视频样本数据进行分割处理,得到若干组分割好的视频,每组视频包含相同数量的视频帧,每组视频都有起始帧(作为其中一个关键帧),针对每个起始帧又有m种组合两个对象彼此之间的距离,将所有组视频的起始帧下每种组合的两个对象之间的距离取平均值,可以得到起始帧下该种组合两个对象之间的标准距离,按照此方法,计算出所有关键帧数中不同身份特征的对象两两之间的标准距离。
步骤S2,根据标准距离矩阵,以帧数为分组求出每一帧数下所有组合的标准距离之和,将每一帧数下每个组合的标准距离除以该帧数下所有组合的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵1;以组合为分组求出每一组合在所有帧数下的标准距离之和,将每一组合在每一帧数下的标准距离除以该组合在所有帧数下的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵2;
根据步骤S1中获得的m种组合在不同帧数下的标准距离,以帧数n为分组(用列表示)求出在该帧时m种组合的标准距离之和sumA,并把该列的m种组合的标准距离分别除以该帧数下的sumA,将所得的新的数据矩阵称为“标准距离比例矩阵1”(
Figure SMS_1
),用以反映该帧时行为中对象的相对位置特征;类似的,根据步骤S1中获得的m种组合在不同帧数下的标准距离,以某一确定的配对组合(如:x 1-x 2)为分组(用行表示)求出在该种身份匹配情况之下的不同帧数的标准距离之和sumB,并把该行的各个帧数下的标准距离分别除以该种组合下的sumB,将所得的新的数据矩阵称为“标准距离比例矩阵2”(/>
Figure SMS_2
) ,用以反映该种配对组合下行为中对象的相对位置特征。
步骤S3,获取待测视频,确定该待测视频中待匹配的不同身份特征对象两两之间的所有可能组合情况和该待测视频所有帧数下所有可能组合情况的初始距离矩阵;
将现场拍摄得到的待测视频样本,通过检测器和跟踪器分析以及处理得到待匹配的x!种情况(本例中采取x个对象的排列组合)的可能性,每次取x!种情况当中的一种(即视作已经完成每一组合的身份匹配,例如:x 1-x 2x 1-x 3x 2-x 3 ……m种),计算出待测视频所有帧数下m种可能组合的距离,得到初始距离矩阵。
步骤S4,从初始距离矩阵中随机抽取设定比例的帧数并按时间先后顺序排列,按照标准距离比例矩阵1的计算方法计算得到测试距离比例矩阵1;
从初始距离矩阵中随机抽取设定比例的帧数,按照步骤S2标准距离比例矩阵1的计算方法,求出 “测试距离比例矩阵1”(
Figure SMS_3
)。
步骤S5,从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况;将抽取帧数按照时间先后顺序排列,得到测试距离比例矩阵1’,若判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔大致相同,则将初步判断出的可能的身份匹配组合情况判定为大致身份特征匹配的组合;
其中,所述从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况,包括:
计算测试距离比例矩阵1的第一帧下所有组合数据分别与标准距离比例矩阵1第一标准帧下每个标准组合数据的特征差值,若计算出的特征差值均在第一阈值范围内,则将测试距离比例矩阵1的第一帧抽取出来作为测试距离比例矩阵1’的第一帧,否则,舍弃该帧,继续计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第一标准帧下每个标准组合数据的特征差值,直至计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第一帧;将测试距离比例矩阵1’第一帧下的所有组合数据分别与标准距离比例矩阵1第一标准帧下第一个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第一标准帧下第一个标准组合对应的可能的身份特征匹配组合;将测试距离比例矩阵1’第一帧下的所有组合数据分别与标准距离比例矩阵1第一标准帧下第二个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第一标准帧下第二个标准组合对应的可能的身份特征匹配组合;依此类推,直至得到与标准距离比例矩阵1第一标准帧下最后一个标准组合对应的可能的身份特征匹配组合;
计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第二标准帧下每个标准组合数据的特征差值,若计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第二帧,否则,舍弃该帧,继续计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第二标准帧下每个标准组合数据的特征差值,直至计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第二帧;将测试距离比例矩阵1’第二帧下的所有组合数据分别与标准距离比例矩阵1第二标准帧下的第一个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第二标准帧下第一个标准组合对应的可能的身份特征匹配组合;将测试距离比例矩阵1’第二帧下的所有组合数据分别与标准距离比例矩阵1第二标准帧下的第二个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第二标准帧下第二个标准组合对应的可能的身份特征匹配组合;依此类推,直至得到与标准距离比例矩阵1第二标准帧下最后一个标准组合对应的可能的身份特征匹配组合;检查测试距离比例矩阵1’第二帧判断出的可能组合情况与之前帧数判断出的可能组合情况是否一致,若否,则舍弃该帧,从测试距离比例矩阵1中继续抽取测试距离比例矩阵1’的第二帧,并判断可能组合情况,直至判断出的可能组合情况与之前帧数判断出的可能组合情况一致;
依此类推,直至抽取出与标准距离比例矩阵1最后一个标准帧相对应的帧数。
以第一帧为例,测试距离比例矩阵1’第一帧下m组数据与标准距离比例矩阵1第一标准帧下标准组合1数据的特征差值A 11为:
Figure SMS_4
式中,
Figure SMS_5
表示测试距离比例矩阵1’第一帧下第1、2…m组合的数据,/>
Figure SMS_6
表示标准距离比例矩阵1第一标准帧下标准组合1的数据;
测试距离比例矩阵1’第一帧下m组数据与标准距离比例矩阵1第一标准帧下标准组合2的数据的特征差值A 21为:
Figure SMS_7
式中,
Figure SMS_8
表示标准距离比例矩阵1第一标准帧下标准组合2的数据;
后续组合计算以此类推。
其中,特征差值最小的判断方法为:若计算出的特征差值满足在第二阈值范围内,则判断该特征差值最小。
其中,测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔是否大致相同的判断方法为:
若测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的标准帧数间隔的差值在预定误差范围(例如±5帧,可视情况修改)内,则判断两者的帧数间隔为大致相同。
该步骤具体可以通过如下步骤实现:
S501,计算测试距离比例矩阵1第p帧下m组数据分别与标准距离比例矩阵1第n标准帧下组合1数据的特征差值、m组数据分别与标准距离比例矩阵1第n标准帧下组合2数据的特征差值,……,m组数据分别与标准距离比例矩阵1第n标准帧下组合m数据的特征差值,判断计算出的特征差值是否均满足在第一阈值范围内,若是,进入步骤S502;否则,进入步骤S503;初始p=1,n=1;
S502,将该第p帧抽取出来作为测试距离比例矩阵1’的第n帧,并将抽取出来的该第n帧下m组数据与标准距离比例矩阵1对应第n标准帧下标准组合1的数据计算特征差值,将计算出的特征差值满足第二阈值范围内的所有组合记作可能的标准组合1,将抽取出来的该第n帧下m组数据与标准距离比例矩阵1对应第n标准帧下标准组合2的数据计算特征差值,将计算出的特征差值满足第二阈值范围内的所有组合记作可能的标准组合2,后续组合以此类推,检查判断出的该第n帧下的可能组合情况与前面已经判断出的各帧数下的可能组合情况是否相一致,若是,则进入步骤S504;若否,则进入步骤S503;
S503,舍弃该第p帧,使p=p+1,返回步骤S501;
S504,使p=p+1,n=n+1,判断n是否大于标准距离比例矩阵1的最大帧数,若是,停止循环,进入步骤S505,否则返回步骤S501;
S505,判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔的差值是否在预定误差范围内,若是,判断两者的帧数间隔为大致相同,则将步骤S502判断出的身份匹配组合情况进一步判定为大致身份特征匹配。
步骤S6,从初始距离矩阵中抽取与测试距离比例矩阵1’各帧数相对应的帧数,按照标准距离比例矩阵2的计算方法计算得到测试距离比例矩阵2;
从步骤S3中获取的初始距离矩阵中抽取与步骤S5的测试距离比例矩阵1’帧数相对应的帧数,计算得到测试距离比例矩阵2。
步骤S7,将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,分别与标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配。
将步骤S5中判断出的多种身份特征匹配的可能情况再次分别进行判断(即进行帧数验证),将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,与步骤S2的标准距离比例矩阵2对应标准组合的行数据计算特征差值和。
若测试距离比例矩阵2的行数据对应的组合为两种或两种以上可能组合,则取每种可能组合,计算该组合在不同帧数下的数据与标准距离比例矩阵2对应标准组合在不同帧数下数据的特征差值和,所有可能组合中特征差值之和最小的组合为满足帧数匹配下的身份特征匹配;
若测试距离比例矩阵2的各行数据对应的组合仅为一种可能组合,则计算该组合在不同帧数下的数据与标准距离比例矩阵2对应标准组合在不同帧数下数据的特征差值和,若计算出的特征差值和不超过第三阈值,则将步骤S5判断出的大致身份特征匹配组合判断为满足帧数匹配下的身份特征匹配。
以分析足球运动视频中的二过一技战术为例进行说明:
步骤1:基于已收集的大量实际样本数据,以足球运动视频中的二过一技战术为例,计算得出在实施该类战术之后对应不同身份的球员(jgzd、fs)、球(ball)两两之间的距离矩阵(本例中采取以四个对象有六种组合),按组合取确定两对象(如:jg-ballzd- ballfs-ball,jg-zdzd-fsjg- fs)的全部距离样本数据的平均值为该种战术之下某一关键帧数的两者的标准距离(技战术开始实施的时刻为第1帧,按样本视频30帧/秒取样)。如图2所示,为本发明实施例中的标准距离矩阵示意图。
步骤2:根据步骤1中获得的六种组合在不同帧数下的标准距离,以帧数为分组求出在该帧数下六种组合的标准距离之和sumA,并把这一列的六种组合的标准距离分别除以该帧数下的sumA,将所得的新的数据矩阵称为“标准距离比例矩阵1”(
Figure SMS_9
),用以反映该帧时场上球员和球的位置特征,以图2示出的标准距离数据为例,计算出的标准距离比例矩阵1如图3所示;
类似的,根据步骤1中获得的六种组合在不同帧数下的标准距离,以某一确定的配对组合(如:jg-ball)为分组求出本行在该种身份匹配情况之下的不同帧数的标准距离之和sumB,并把这一行的各个帧数下的标准距离分别除以该种组合下的sumB,将所得的新的数据矩阵称为“标准距离比例矩阵2”(
Figure SMS_10
),用以反映该帧时场上球员和球的位置特征。以图2示出的标准距离数据为例,计算出的标准距离比例矩阵2如图4所示。
步骤3:通过现场拍摄获取待测视频样本,将获取的视频样本通过检测器和跟踪器分析以及处理得到待匹配的6种情况(即4个对象所有的排列组合,每次取6种情况当中的一种,即视作已经完成每一组合的身份匹配,如jg-ballzd-ballfs-balljg-zdzd-fsjg- fs共六种)的可能性,并计算待测视频样本所有帧数下6种可能组合情况的初始距离矩阵;
步骤4:从初始距离矩阵当中随机抽取设定比例(例如10%,可视情况修改)的帧数,按照步骤2的方法求出“测试距离比例矩阵1”(
Figure SMS_11
)。
步骤5:将步骤4中所得到的测试距离比例矩阵1依次按照帧数取列,计算测试距离比例矩阵1的第一帧下6种组合数据分别与步骤2的标准距离比例矩阵1第一标准帧下每个标准组合数据的特征差值,若计算出的特征差值均在第一阈值范围(本实施例中,取值-千分之八到千分之八)内,则将测试距离比例矩阵1的第一帧抽取出来作为测试距离比例矩阵1’的第一帧,否则舍弃该帧,继续计算下一帧下6种组合数据与标准距离比例矩阵1第一标准帧下每个标准组合数据的特征差值,直至计算出的特征差值均满足在第一阈值范围内,则将该帧作为测试距离比例矩阵1’的第一帧;将测试距离比例矩阵1’第一帧下的6种组合数据分别与标准距离比例矩阵1第一标准帧下标准组合1的数据计算特征差值,将计算出的特征差值满足第二阈值范围(本实施例中,取值-千分之四到千分之四)的所有组合记作可能的标准组合1;将测试距离比例矩阵1’第一帧下的6种组合数据分别与标准距离比例矩阵1第一标准帧下标准组合2的数据计算特征差值,将计算出的特征差值满足第二阈值范围的所有组合记作可能的标准组合2;依此类推,直至判断出标准组合m所对应的可能组合;
然后,计算测试距离比例矩阵1的下一帧数下6种组合数据分别与标准距离比例矩阵1第二标准帧下每个标准组合数据的特征差值,若计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第二帧,否则,舍弃该帧,继续计算测试距离比例矩阵1的下一帧数下6种组合数据分别与标准距离比例矩阵1第二标准帧下每个标准组合数据的特征差值,直至计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第二帧;将测试距离比例矩阵1’第二帧下的6种组合数据分别与标准距离比例矩阵1第二标准帧下标准组合1的数据计算特征差值,将计算出的特征差值满足第二阈值范围的所有组合记作可能的标准组合1;将测试距离比例矩阵1’第二帧下的6种组合数据分别与标准距离比例矩阵1第二标准帧下标准组合2的数据计算特征差值,将计算出的特征差值满足第二阈值范围的所有组合记作可能的标准组合2;依此类推,直至判断出标准组合m所对应的可能组合;然后,检查测试距离比例矩阵1’第二帧判断出的可能组合情况与之前帧数判断出的可能组合情况是否一致,若否,则舍弃该帧,从测试距离比例矩阵1中继续抽取测试距离比例矩阵1’的第二帧,并判断可能组合情况,直至判断出的可能组合情况与之前帧数判断出的可能组合情况一致;
依此类推,直至抽取出与标准距离比例矩阵1最后一个标准帧相对应的帧数。
之后,将抽取帧数按照时间先后顺序排列,得到测试距离比例矩阵1’,判断测试距离比例矩阵1’中的帧数间隔与标准距离比例矩阵1的帧数间隔的差值是否在预定误差范围(本例为±5帧之内)内,若是,判断两者的帧数间隔为大致相同,则将初步判断出的身份匹配组合情况判定为大致身份特征匹配。
步骤6:从步骤3中获取的初始距离矩阵中抽取与步骤5的测试距离比例矩阵1’帧数相对应的帧数,得到测试距离比例矩阵2;
步骤7:将步骤5中判断出的多种身份特征匹配的可能情况再次分别进行帧数验证,将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,与步骤2的标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配。
下面给出具体实施例,获取的标准距离比例矩阵1、标准距离比例矩阵2分别如图3和图4所示,帧数间隔为2:
(1)首先我们对一段已有的待检测的二过一视频进行识别并处理,获取关键节点后30帧内的距离数据构建初始距离矩阵。
(2)然后从初始距离矩阵中以20%为阈值进行抽取,随机抽取6帧(分别是1、2、5、7、8、11帧),求出对应帧数下的测试距离比例矩阵1。
(3)将测试距离比例矩阵1(共6帧)的第一帧下的列数据与标准距离比例矩阵1(共3帧)的第一标准帧下的列数据计算特征差值。如果均在-千分之八至千分之八以内,则将该帧抽取出来作为测试距离比例矩阵1’的第一帧;如果不满足,则用测试距离比例矩阵1的第二帧进行比较。直到从测试距离比例矩阵1中找到与标准距离比例矩阵1内的全部标准帧相对应的帧数,得到的测试距离比例矩阵1’如图5所示,抽取出来的帧数分别是测试距离比例矩阵1中的1帧、5帧、8帧,分别对应测试距离比例矩阵1’的第一帧、第二帧和第三帧。
在抽取到测试距离比例矩阵1’的第一帧后,相应的计算测试距离比例矩阵1’ 第一帧下m组数据
Figure SMS_12
与标准距离比例矩阵1中第一标准帧下标准组合1/>
Figure SMS_13
的数据的差,保存所有满足-千分之四至千分之四阈值范围的值作为标准组合1可能的取值格式为(1,m)。相应求出第一标准帧下剩余5个标准组合的可能对应组合。计算表格如图7所示。本实施例中,判断出的测试距离比例矩阵1’第一帧下与标准组合1-6对应的可能取值组合分别为(标准1,测试1)、(标准2, 测试2)、(标准3,测试3)、(标准4, 测试4)、(标准5, 测试5)、(标准6, 测试6);
依此类推,抽取到测试距离比例矩阵1’的第二帧后,判断测试距离比例矩阵1’的第二帧下与标准距离比例矩阵1第二标准帧下标准组合1-6对应的可能组合;抽取到测试距离比例矩阵1’的第三帧后,判断测试距离比例矩阵1’的第三帧下与标准距离比例矩阵1第三标准帧下标准组合1-6对应的可能组合;
然后,判断抽取出的3帧帧数间隔与标准距离比例矩阵1的帧数间隔在±5帧内,进一步判断大致身份特征匹配;
(4)再根据测试距离比例矩阵1’从初始距离矩阵中重新抽取与测试距离比例矩阵1’帧数相对应的帧数,计算获取测试距离比例矩阵2,如图6所示。
(5)由于判断出的可能组合情况为(标准1,测试1)、(标准2, 测试2)、(标准3,测试3)、(标准4, 测试4)、(标准5, 测试5)、(标准6, 测试6),相应计算测试距离比例矩阵2测试组合1在不同帧数(n=1,2,3)下的Testdis/sumB1n与标准距离比例矩阵2中标准组合1在不同帧数(n=1,2,3)下的Stadis/sumB1n的特征差值和SUM 1,依次类推,计算出SUM 2、…… SUM 6,如图8所示,计算出的特征差值和均不超过第三阈值(本实施例为百分之一),则步骤(3)判断出的大致身份特征匹配为满足帧数匹配下的身份特征匹配。
将最终判断结果与实际身份匹配结果相比较,可以发现,该判断结果与实际身份匹配结果一致,说明本发明能够对视频中的对象成员进行有效的身份特征匹配。
在另一实施例中,本发明提供了一种基于视频事件主体时序行为的匹配装置,如图9所示,包括:
标准距离获取模块,用于获取时序行为发生过程中所有关键帧数中对应不同身份特征的对象两两之间构成的所有身份匹配组合中每个组合的两个对象之间的标准距离矩阵;
行为标准确立模块,用于根据标准距离矩阵,以帧数为分组求出每一帧数下所有组合的标准距离之和,将每一帧数下每个组合的标准距离除以该帧数下所有组合的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵1;以组合为分组求出每一组合在所有帧数下的标准距离之和,将每一组合在每一帧数下的标准距离除以该组合在所有帧数下的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵2;
初始距离矩阵获取模块,用于获取待测视频,确定该待测视频中待匹配的不同身份特征对象两两之间的所有可能组合情况和该待测视频所有帧数下所有可能组合情况的初始距离矩阵;
第一测试距离比例矩阵计算模块,用于从初始距离矩阵中随机抽取设定比例的帧数并按时间先后顺序排列,按照标准距离比例矩阵1的计算方法计算得到测试距离比例矩阵1;
位置匹配模块,用于从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况;将抽取帧数按照时间先后顺序排列,得到测试距离比例矩阵1’,若判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔大致相同,则将初步判断出的可能的身份匹配组合情况判定为大致身份特征匹配的组合;
第二测试距离比例矩阵计算模块,用于从初始距离矩阵中抽取与测试距离比例矩阵1’各帧数相对应的帧数,按照标准距离比例矩阵2的计算方法计算得到测试距离比例矩阵2;
帧数验证模块,用于将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,分别与标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配。
本发明还提供了一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行前述的基于视频事件主体时序行为的匹配方法。
本发明还提供了一种计算设备,包括:
一个或多个处理器、一个或多个存储器以及一个或多个程序,其中一个或多个程序存储在所述一个或多个存储器中,并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行前述的基于视频事件主体时序行为的匹配方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上已以较佳实施例公布了本发明,然其并非用以限制本发明,凡采取等同替换或等效变换的方案所获得的技术方案,均落在本发明的保护范围内。

Claims (8)

1.一种基于视频事件主体时序行为的匹配方法,其特征在于,包含如下步骤:
获取时序行为发生过程中所有关键帧数中对应不同身份特征的对象两两之间构成的所有身份匹配组合中每个组合的两个对象之间的标准距离矩阵;
根据标准距离矩阵,以帧数为分组求出每一帧数下所有组合的标准距离之和,将每一帧数下每个组合的标准距离除以该帧数下所有组合的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵1;以组合为分组求出每一组合在所有帧数下的标准距离之和,将每一组合在每一帧数下的标准距离除以该组合在所有帧数下的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵2;
获取待测视频,确定该待测视频中待匹配的不同身份特征对象两两之间的所有可能组合情况和该待测视频所有帧数下所有可能组合情况的初始距离矩阵;
从初始距离矩阵中随机抽取设定比例的帧数并按时间先后顺序排列,按照标准距离比例矩阵1的计算方法计算得到测试距离比例矩阵1;
从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况;将抽取帧数按照时间先后顺序排列,得到测试距离比例矩阵1’,若判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔大致相同,则将初步判断出的可能的身份匹配组合情况判定为大致身份特征匹配的组合;
从初始距离矩阵中抽取与测试距离比例矩阵1’各帧数相对应的帧数,按照标准距离比例矩阵2的计算方法计算得到测试距离比例矩阵2;
将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,分别与标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配。
2.根据权利要求1所述的基于视频事件主体时序行为的匹配方法,其特征在于,所述标准距离矩阵根据以下方法获取:
收集大量时序行为的视频样本,对收集的视频样本进行分割处理,得到若干分割好的帧数相同的视频样本;
找到每个分割好的视频样本中不同身份特征对象两两之间组成的若干组合中每种组合的两个对象之间形成的距离曲线中的关键节点对应的所有关键帧数,计算每个分割好的视频样本中关键帧数下每种组合两个对象之间的距离;
将所有分割好的视频样本中相同关键帧数下的每种组合两个对象之间的距离取平均值,得到每个关键帧数下每种组合的标准距离,从而得到所述标准距离矩阵。
3.根据权利要求1所述的基于视频事件主体时序行为的匹配方法,其特征在于,所述从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况,包括:
计算测试距离比例矩阵1的第一帧下所有组合数据分别与标准距离比例矩阵1第一标准帧下每个标准组合数据的特征差值,若计算出的特征差值均在第一阈值范围内,则将测试距离比例矩阵1的第一帧抽取出来作为测试距离比例矩阵1’的第一帧,否则,舍弃该帧,继续计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第一标准帧下每个标准组合数据的特征差值,直至计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第一帧;将测试距离比例矩阵1’第一帧下的所有组合数据分别与标准距离比例矩阵1第一标准帧下第一个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第一标准帧下第一个标准组合对应的可能的身份特征匹配组合;将测试距离比例矩阵1’第一帧下的所有组合数据分别与标准距离比例矩阵1第一标准帧下第二个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第一标准帧下第二个标准组合对应的可能的身份特征匹配组合;依此类推,直至得到与标准距离比例矩阵1第一标准帧下最后一个标准组合对应的可能的身份特征匹配组合;
计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第二标准帧下每个标准组合数据的特征差值,若计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第二帧,否则,舍弃该帧,继续计算测试距离比例矩阵1的下一帧数下所有组合数据分别与标准距离比例矩阵1第二标准帧下每个标准组合数据的特征差值,直至计算出的特征差值均在第一阈值范围内,则将该帧抽取出来作为测试距离比例矩阵1’的第二帧;将测试距离比例矩阵1’第二帧下的所有组合数据分别与标准距离比例矩阵1第二标准帧下的第一个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第二标准帧下第一个标准组合对应的可能的身份特征匹配组合;将测试距离比例矩阵1’第二帧下的所有组合数据分别与标准距离比例矩阵1第二标准帧下的第二个标准组合数据计算特征差值,将计算出的特征差值最小的组合记为与标准距离比例矩阵1第二标准帧下第二个标准组合对应的可能的身份特征匹配组合;依此类推,直至得到与标准距离比例矩阵1第二标准帧下最后一个标准组合对应的可能的身份特征匹配组合;检查测试距离比例矩阵1’第二帧判断出的可能组合情况与之前帧数判断出的可能组合情况是否一致,若否,则舍弃该帧,从测试距离比例矩阵1中继续抽取测试距离比例矩阵1’的第二帧,并判断可能组合情况,直至判断出的可能组合情况与之前帧数判断出的可能组合情况一致;
依此类推,直至抽取出与标准距离比例矩阵1最后一个标准帧相对应的帧数。
4.根据权利要求3所述的基于视频事件主体时序行为的匹配方法,其特征在于,所述特征差值最小的判断方法为:若计算出的特征差值满足在第二阈值范围内,则判断该特征差值最小。
5.根据权利要求1所述的基于视频事件主体时序行为的匹配方法,其特征在于,判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔是否大致相同的方法为:
若测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的标准帧数间隔的差值在预定误差范围内,则判断两者的帧数间隔为大致相同。
6.根据权利要求5所述的基于视频事件主体时序行为的匹配方法,其特征在于,所述预定误差范围为测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔的差值在±5帧之内。
7.根据权利要求1所述的基于视频事件主体时序行为的匹配方法,其特征在于,所述将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,分别与标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配,包括:
若测试距离比例矩阵2的行数据对应的组合为两种或两种以上可能组合,则取每种可能组合,计算该组合在不同帧数下的数据与标准距离比例矩阵2对应标准组合在不同帧数下数据的特征差值和,所有可能组合中特征差值之和最小的组合为满足帧数匹配下的身份特征匹配;
若测试距离比例矩阵2的行数据对应的组合仅为一种可能组合,则计算该组合在不同帧数下的数据与标准距离比例矩阵2对应标准组合在不同帧数下数据的特征差值和,若计算出的特征差值和不超过第三阈值,则判断出的大致身份特征匹配的组合为满足帧数匹配下的身份特征匹配。
8.一种基于视频事件主体时序行为的匹配装置,其特征在于,包括:
标准距离获取模块,用于获取时序行为发生过程中所有关键帧数中对应不同身份特征的对象两两之间构成的所有身份匹配组合中每个组合的两个对象之间的标准距离矩阵;
行为标准确立模块,用于根据标准距离矩阵,以帧数为分组求出每一帧数下所有组合的标准距离之和,将每一帧数下每个组合的标准距离除以该帧数下所有组合的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵1;以组合为分组求出每一组合在所有帧数下的标准距离之和,将每一组合在每一帧数下的标准距离除以该组合在所有帧数下的标准距离之和,得到以组合为行、帧数为列的标准距离比例矩阵2;
初始距离矩阵获取模块,用于获取待测视频,确定该待测视频中待匹配的不同身份特征对象两两之间的所有可能组合情况和该待测视频所有帧数下所有可能组合情况的初始距离矩阵;
第一测试距离比例矩阵计算模块,用于从初始距离矩阵中随机抽取设定比例的帧数并按时间先后顺序排列,按照标准距离比例矩阵1的计算方法计算得到测试距离比例矩阵1;
位置匹配模块,用于从测试距离比例矩阵1中抽取出与标准距离比例矩阵1的各标准帧相对应的帧数,根据抽取帧数下的列数据与标准距离比例矩阵1对应标准帧下的列数据的特征差值,初步判断出测试距离比例矩阵1中各行数据可能的身份匹配组合情况;将抽取帧数按照时间先后顺序排列,得到测试距离比例矩阵1’,若判断测试距离比例矩阵1’的帧数间隔与标准距离比例矩阵1的帧数间隔大致相同,则将初步判断出的可能的身份匹配组合情况判定为大致身份特征匹配的组合;
第二测试距离比例矩阵计算模块,用于从初始距离矩阵中抽取与测试距离比例矩阵1’各帧数相对应的帧数,按照标准距离比例矩阵2的计算方法计算得到测试距离比例矩阵2;
帧数验证模块,用于将测试距离比例矩阵2按照判断出的大致身份特征匹配的组合取行,分别与标准距离比例矩阵2对应标准组合的行数据计算特征差值和,取特征差值之和最小的组合为满足帧数匹配下的身份特征匹配。
CN202310518706.6A 2023-05-10 2023-05-10 基于视频事件主体时序行为的匹配方法及装置 Active CN116229127B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310518706.6A CN116229127B (zh) 2023-05-10 2023-05-10 基于视频事件主体时序行为的匹配方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310518706.6A CN116229127B (zh) 2023-05-10 2023-05-10 基于视频事件主体时序行为的匹配方法及装置

Publications (2)

Publication Number Publication Date
CN116229127A true CN116229127A (zh) 2023-06-06
CN116229127B CN116229127B (zh) 2023-07-28

Family

ID=86570075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310518706.6A Active CN116229127B (zh) 2023-05-10 2023-05-10 基于视频事件主体时序行为的匹配方法及装置

Country Status (1)

Country Link
CN (1) CN116229127B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934131A (zh) * 2019-02-28 2019-06-25 南京航空航天大学 一种基于无人机的小目标检测方法
CN110457985A (zh) * 2019-06-05 2019-11-15 深圳大学 基于视频序列的行人再识别方法、装置及计算机设备
CN114627151A (zh) * 2021-09-23 2022-06-14 北京理工大学 一种无人机集群对空中目标运动状态跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934131A (zh) * 2019-02-28 2019-06-25 南京航空航天大学 一种基于无人机的小目标检测方法
CN110457985A (zh) * 2019-06-05 2019-11-15 深圳大学 基于视频序列的行人再识别方法、装置及计算机设备
CN114627151A (zh) * 2021-09-23 2022-06-14 北京理工大学 一种无人机集群对空中目标运动状态跟踪方法

Also Published As

Publication number Publication date
CN116229127B (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
CN110047095B (zh) 基于目标检测的跟踪方法、装置及终端设备
CN113838054B (zh) 基于人工智能的机械零件表面损伤检测方法
JP6216024B1 (ja) 学習済モデル生成方法及び信号データ判別装置
CN111126122B (zh) 人脸识别算法评估方法及装置
CN111382627B (zh) 同行判定方法及相关产品
US11461584B2 (en) Discrimination device and machine learning method
CN109726737B (zh) 基于轨迹的异常行为检测方法及装置
CN110766088A (zh) 同行车辆分析方法、装置、及存储装置
CN109376686A (zh) 一种多维度人脸数据采集方案、采集系统及采集方法
CN110827339B (zh) 目标点云提取的方法
CN116229127B (zh) 基于视频事件主体时序行为的匹配方法及装置
CN112464297B (zh) 硬件木马检测方法、装置及存储介质
CN104715160B (zh) 基于kmdb的软测量建模数据异常点检测方法
CN110555413B (zh) 时序信号的处理方法及装置、设备及可读介质
CN107886615B (zh) 边缘检测方法及验钞设备
CN114187625A (zh) 一种基于视频源自动探测技术的视频检测方法
CN113918471A (zh) 测试用例的处理方法、装置及计算机可读存储介质
CN113435482A (zh) 一种判断开放集的方法、装置及其设备
CN112415152A (zh) 一种鉴别牦牛奶掺假的方法及应用
CN112749625B (zh) 时序行为检测方法、时序行为检测装置及终端设备
CN117395080B (zh) 加密系统扫描器的检测方法、装置、电子设备和存储介质
CN117236572B (zh) 一种基于数据分析的干粉灭火设备性能评估方法及系统
HE et al. Predicting the NBA winning percentage base on the linear regression model
CN111681673B (zh) 庭审过程中敲法槌的识别方法及系统
CN112270269A (zh) 一种人脸图像质量的评估方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant