CN109376610A - 视频监控中基于图像概念网络的行人不安全行为检测方法 - Google Patents

视频监控中基于图像概念网络的行人不安全行为检测方法 Download PDF

Info

Publication number
CN109376610A
CN109376610A CN201811132864.3A CN201811132864A CN109376610A CN 109376610 A CN109376610 A CN 109376610A CN 201811132864 A CN201811132864 A CN 201811132864A CN 109376610 A CN109376610 A CN 109376610A
Authority
CN
China
Prior art keywords
concept
network
vocabulary
semantic
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811132864.3A
Other languages
English (en)
Other versions
CN109376610B (zh
Inventor
李群
肖甫
徐鼎
周剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201811132864.3A priority Critical patent/CN109376610B/zh
Publication of CN109376610A publication Critical patent/CN109376610A/zh
Application granted granted Critical
Publication of CN109376610B publication Critical patent/CN109376610B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种视频监控中基于图像概念网络的行人不安全行为检测方法,由事先获取的概念词汇表构建基于词激活力的语义概念网络,然后应用社会网络分析方法挖掘概念共现相关提取场景语义概念,进一步实现场景概念检测;另一方面,应用概念推理模型提取视觉一致语义概念特征;最后,应用场景语义概念优化视觉一致语义概念,并应用分类器完成基于图像识别的行人不安全行为检测。本发明能够实现行人不安全行为检测,同时对行人在参与交通过程中普遍存在的不安全行为有很好的预警效果。

Description

视频监控中基于图像概念网络的行人不安全行为检测方法
技术领域
本发明涉及一种行人不安全行为检测方法,属于视频监控应用和计算机视觉集成领域。
背景技术
马路上行人的交通陋习导致的不安全行为是目前我国道路交通伤害的重要诱因。行人不安全行为如过马路不走人行横道、行走中低头看手机等。如果能够及时对行人不安全行为预警,就能避免交通隐患,保证行人和行车的安全。计算机视觉技术和图像识别技术已经被广泛应用到交通流量控制、车辆检测和追踪等领域。除此之外,图像识别还被广泛应用于人体行为识别,如对于图像中包含的人与对象交互行为的识别,对于图像中包含场景信息的人体行为的识别等。所以,可以利用图像识别来进行行人不安全行为检测。
面向行人不安全行为检测的图像识别技术的关键是跨越语义鸿沟。而要跨越语义鸿沟,关键是获取图像的语义特征。其中,语义概念提取是语义特征提取这一基本研究问题中的一个颇具生命力的方向,也是目前视觉研究中的一个热点。而且,目前的研究表明,利用概念的共现模式,可以加强语义概念的提取。同时考虑到语义概念的关系复杂,类似一个网络。
发明内容
发明目的:本发明针对语义概念提取方法的不足,提出一种视频监控中基于图像概念网络的行人不安全行为检测方法,采用视觉一致语义概念和场景语义概念提取方案,前者用于检测视觉相关语义概念以及同一概念的视觉变化性,后者挖掘语义概念的共现模式和相关性。针对集群概念相关性研究的不足,同时考虑到语义概念的复杂关系类似一个网络,本发明应用复杂网络建模方法——词激活力构建语义概念网络,应用网络分析方法,有效的获取集群概念的相关性。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种视频监控中基于图像概念网络的行人不安全行为检测方法,由事先获取的概念词汇表构建基于词激活力的语义概念网络,然后应用社会网络分析方法挖掘概念共现相关提取场景语义概念,进一步实现场景概念检测;另一方面,应用概念推理模型提取视觉一致语义概念特征;最后,应用场景语义概念优化视觉一致语义概念,并应用分类器完成基于图像识别的行人不安全行为检测。
具体包括以下步骤:
步骤1,给定训练集,提取每幅图像的语义概念,根据其在图像中的位置信息组成句子,同类图像概念构成的句子集合为一个文本,由此构建语义概念词汇表。
根据给定训练集和查询图提取图像的视觉特征,应用概念推理模型提取视觉一致语义概念,同时根据语义概念词汇表建立个体概念模型,进而提取图像描述子。
步骤2,基于词激活力的概念网络建模:由语义概念词汇表通过网络结构对语义概念网络建模,应用词激活力转化为图像语义概念激活力,构建基于词激活力的语义概念网络,并应用社会网络分析方法挖掘图像语义概念的共现属性,提取场景语义概念描述子。
步骤3,融合个体语义概念特征和场景语义概念特征获取融合特征,或者以场景语义概念描述子优化图像描述子作为最终特征,把融合特征或者优化后的图像描述子输入到线性SVM分类器(Support Vector Machine,支持向量机)对分类器进行训练,利用训练好的分类器实现行人不安全行为检测从而给定不安全行为标识。
优选的:所述步骤2中基于词激活力的语义概念网络构建包括以下步骤:
步骤21,给定语义概念词汇表中的一对语义概念词汇,记为词汇一cl和词汇二ck,首先计算得出它们各自的词汇一频率和词汇二频率以及它们的共现频率它们的激活力为:
其中,是词汇一cl和词汇二ck共生频率中词汇一cl对词汇二ck前向距离的平均值。
步骤22,构建网络结构S=(N,E,W),其中N表示节点集,E表示连接节点的边缘集,且每个边缘对应其重要性被分配给一个大于零的权重W。对应于网络结构事先建立的概念词汇表C,概念网络则由每个概念c关联网络结构S中的节点n构建。
步骤23,网络边缘权重由谷歌距离NGD(the Normalized Google Distance,NGD)和激活力二次加权获取,其中谷歌距离NGD用于评估全局语义概念共现,词激活力用于捕捉局部共现活跃性属性。两两成对的词汇一cl和词汇二ck之间的全局语义共现依据谷歌距离NGD计算为:
其中,S(cl)表示包含词汇一cl的页面数量,S(ck)表示包含词汇二ck的页面数量,S(cl,ck)表示同时包含词汇一cl和词汇二ck的页面数量,Ω表示谷歌所搜索的总页面数;
步骤24,以网络的加权边缘表示各节点之间的共现相关性,以快速模块式最大化算法作为网络中的分层社区检测共现模式,实现场景语义概念描述子的提取。
优选的:所述步骤3中融合个体语义概念特征和场景语义概念特征获取融合特征的方法:
设个体概念概率特征为Fc,场景概念概率特征为Fs,获取融合特征F=[F1F2],其中F1=W1Fc,F2=W2Fs,则目标函数定义为:
τ12=1,τ1≥0,τ2≥0.
其中,R1(W1,F1)、R2(W2,F2)为重构函数,C1、C2为特征相关项,g(F1)、g(F2)为惩罚函数,W1,W212,λ,λ1,λ2为权重系数,为惩罚因子。
优选的:采用模块化优化模式对场景语义概念提取,通过比较节点的链路密度测量模块化分区的质量,模块化优化模式为:M=ψ(Ni,Nj),i≠j=1,2,3,......,,其中,M表示优化模式,ψ表示优化函数,Ni表示模块i,Nj表示模块j。
优选的:词激活力是加权复杂网络链接的一种统计学方法,能够获取词网络中的重要信息,是一种映射方法。
优选的:所述分类器为SVM分类器。
优选的:采用CoHOG(Co-occurrence Histograms of Oriented Gradients,共生方向梯度直方图)、PHOG(pyramid of histogram of oriented gradients,金字塔方向梯度直方图)、SIFT(Scale Invariant Feature Transform,尺度不变特征变换)、或GIST(Generalized Search Trees,通用搜索树)提取图像的视觉特征。
本发明相比现有技术,具有以下有益效果:
1、本发明把加权复杂网络链接的统计学方法——词激活力引入到图像识别领域,抽象和升华词激活力为场景图像语义概念激活力,并基于此构建场景图像语义概念的稀疏编码网络。并应用社会网络分析方法,提取语义概念的共现相关模式,从网络分析的角度分析和提取概念的语义相关,其能够获取图像语义概念及其相关性的重要信息。
2、本发明利用概率推理模型检测视觉一致语义概念,研究同一概念的视觉变化性及其与其它概念的视觉距离。并以网络的加权边缘表示各节点之间的共现相关性,以一种快速的模块式最大化算法作为网络中的分层社区检测共现模式,实现场景语义概念的提取。视觉一致语义概念与场景概念结合应用于行人不安全行为的检测,可以加强行人不安全行为语义概念的提取,构建稳定的检测模型。
附图说明
图1为本发明的流程图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明提出的视频监控中基于图像概念网络的行人不安全行为检测方法,由事先获取的概念词汇表构建基于词激活力的语义概念网络,然后应用社会网络分析方法挖掘概念共现相关提取场景语义概念,进一步实现场景概念检测。另一方面,应用概念推理模型提取视觉一致语义概念特征;最后,应用场景语义概念优化视觉一致语义概念,并应用分类器完成基于图像识别的行人不安全行为检测。如图1所示,包括视觉一致语义概念提取、基于词激活力的语义概念网络构建、基于社会网络分析方法的网络共现模式挖掘、和基于判别模型的行人不安全行为识别,具体包括以下步骤:
步骤1,个体视觉一致语义概念提取,给定训练集,提取每幅图像的语义概念,根据其在图像中的位置信息组成句子,同类图像概念构成的句子集合为一个文本,由此构建语义概念词汇表。
根据给定训练集和查询图提取图像的视觉特征,应用概念推理模型提取视觉一致语义概念,同时根据语义概念词汇表建立个体概念模型,进而提取图像描述子。
1)提取图像的视觉特征,可以选用共生方向梯度直方图CoHOG、金字塔方向梯度直方图PHOG、尺度不变特征SIFT、或通用搜索树GIST。
2)利用个体概念模型,提取视觉一致语义概念特征。个体语义概念模型P定义如下:
P(concept,visual feature),
P(concept|visual feature).
由此视觉一致语义概念模型提取的描述子既不像传统的视觉描述子纯粹基于底层图像特征,也不像文本描述子仅包含高层语义概念,该描述子可以记录高层语义以及从底层特征获取的相关置信度值。
步骤2,基于词激活力的语义概念网络构建。基于词激活力的概念网络建模:由语义概念词汇表通过网络结构对语义概念网络建模,应用词激活力转化为图像语义概念激活力,构建基于词激活力的语义概念网络,并应用社会网络分析方法挖掘图像语义概念的共现属性,提取场景语义概念描述子。
所述步骤2中基于词激活力的语义概念网络构建包括以下步骤:
步骤21,给定语义概念词汇表中的一对语义概念词汇,记为词汇一cl和词汇二ck,首先计算得出它们各自的词汇一频率和词汇二频率以及它们的共现频率它们的激活力为:
其中,是词汇一cl和词汇二ck共生频率中词汇一cl对词汇二ck前向距离的平均值。
步骤22,构建网络结构S=(N,E,W),其中N表示节点集,E表示连接节点的边缘集,且每个边缘对应其重要性被分配给一个大于零的权重W。对应于网络结构事先建立的概念词汇表C,概念网络则由每个概念c关联网络结构S中的节点n构建。
步骤23,网络边缘权重由谷歌距离和激活力二次加权获取,其中谷歌距离NGD用于评估全局语义概念共现,词激活力用于捕捉局部共现活跃性属性。两两成对的词汇一cl和词汇二ck之间的全局语义共现依据谷歌距离NGD计算为:
其中,S(cl)表示包含词汇一cl的页面数量,S(ck)表示包含词汇二ck的页面数量,S(cl,ck)表示同时包含词汇一cl和词汇二ck的页面数量,Ω表示谷歌所搜索的总页面数。
步骤24,以网络的加权边缘表示各节点之间的共现相关性,以快速模块式最大化算法作为网络中的分层社区检测共现模式,实现场景语义概念描述子的提取。
本发明通过一个网络结构对语义概念网络建模,应用词激活力转化为图像语义概念激活力,构建语义概念网络,并挖掘图像语义概念的共现属性。词激活力是加权复杂网络链接的一种统计学方法,其公式定义形式与万有引力公式相仿,其能够获取词网络中的重要信息,是一种优越的映射方法。实验表明,词激活力网络能够有效的挖掘出合理的词簇和层次结构,而且揭示了大脑中词网络编码的方式。
本发明应用社会网络分析技术,通过检测网络结构中的分层社区来开发概念共现模式,提取场景语义概念。许多现实生活中的复杂网络如社交网络和生物学网络中存在一个普遍的属性:社区结构。社区被定义为网络中具有严密的内部链接和松动的外部链接的节点群。检测有意义的概念共现模式的问题可以看作检测概念网络中存在重叠节点的社区。为了实现场景语义概念提取,采用模块化优化模式对场景语义概念提取,通过比较节点的链路密度测量模块化分区的质量。
步骤3,融合个体语义概念特征和场景语义概念特征获取融合特征,把融合特征输入到线性SVM对分类器进行训练,利用训练好的分类器实现行人不安全行为检测从而给定不安全行为标识。
所述步骤3中融合个体语义概念特征和场景语义概念特征获取融合特征的方法:
设个体概念概率特征为Fc,场景概念概率特征为Fs,获取融合特征F=[F1F2],其中F1=W1Fc,F2=W2Fs,则目标函数定义为:
τ12=1,τ1≥0,τ2≥0.
其中,R1(W1,F1)、R2(W2,F2)为重构函数,C1、C2为特征相关项,g(F1)、g(F2)为惩罚函数,W1,W212,λ,λ1,λ2为权重系数,为惩罚因子。
采用模块化优化模式对场景语义概念提取,通过比较节点的链路密度测量模块化分区的质量,模块化优化模式为:M=ψ(Ni,Nj),i≠j=1,2,3,......,,其中,M表示优化模式,ψ表示优化函数,Ni表示模块i,Nj表示模块j。
应用特征融合算法获取融合特征后,给定一个图像,其融合特征可以输入到SVM等辨别式分类器实现分类,从而给定不安全行为标识。优化后特征描述子提取,优化后的特征描述子既包含个体语义概念本身的属性,又包含概念之间的共现相关属性。
本发明以语义概念提取为基础,通过识别和分类图像中的场景和对象,以确定视频图像中是否包含行人不安全行为。本发明应用复杂网络建模方法构建语义概念网络,目的是应用社会网络分析方法挖掘众多语义概念的复杂关系,进一步地提取视觉一致语义概念,用以检测概念的视觉相关以及视觉变化性,并提取场景语义概念挖掘语义概念的共现模式和相关性。本发明从跨越图像视觉信息与语义信息之间的“语义鸿沟”入手,提出了一种基于概念网络建模和社会网络分析方法的行人不安全行为检测方案,网络构建采用复杂网络构建方法词激活力,成功的实现了从文本词到图像语义概念词汇的抽象,并应用此激活力实现了语义概念网络的构建。基于社会网络分析实现了语义概念共现模式的挖掘,分析和充分挖掘了场景中的对象之间和人与对象之间的位置和相互作用关系,从而加强场景图像中对象的识别。采用判别模型可以实现鲁棒的行人不安全行为检测。本发明提出以语义概念提取为基础,应用复杂网络建模方法构建语义概念网络,挖掘概念共现模式,以此实现行人不安全行为检测,同时对行人在参与交通过程中普遍存在的不安全行为有很好的预警效果。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (8)

1.一种视频监控中基于图像概念网络的行人不安全行为检测方法,其特征在于:由事先获取的概念词汇表构建基于词激活力的语义概念网络,然后应用社会网络分析方法挖掘概念共现相关提取场景语义概念,进一步实现场景概念检测;另一方面,应用概念推理模型提取视觉一致语义概念特征;最后,应用场景语义概念优化视觉一致语义概念,并应用分类器完成基于图像识别的行人不安全行为检测。
2.根据权利要求1所述视频监控中基于图像概念网络的行人不安全行为检测方法,其特征在于,包括以下步骤:
步骤1,给定训练集,提取每幅图像的语义概念,根据其在图像中的位置信息组成句子,同类图像概念构成的句子集合为一个文本,由此构建语义概念词汇表;
根据给定训练集和查询图提取图像的视觉特征,应用概念推理模型提取视觉一致语义概念,同时根据语义概念词汇表建立个体概念模型,进而提取图像描述子;
步骤2,基于词激活力的语义概念网络构建;基于词激活力的概念网络建模:由语义概念词汇表通过网络结构对语义概念网络建模,应用词激活力转化为图像语义概念激活力,构建基于词激活力的语义概念网络,并应用社会网络分析方法挖掘图像语义概念的共现相关,提取场景语义概念描述子;
步骤3,融合个体语义概念特征和场景语义概念特征获取融合特征,把融合特征或者优化后的图像描述子输入到线性SVM分类器对分类器进行训练,利用训练好的分类器实现行人不安全行为检测从而给定不安全行为标识。
3.根据权利要求2所述视频监控中基于图像概念网络的行人不安全行为检测方法,其特征在于:所述步骤2中基于词激活力的语义概念网络构建包括以下步骤:
步骤21,给定语义概念词汇表中的一对语义概念词汇,记为词汇一cl和词汇二ck,首先计算得出它们各自的词汇一频率和词汇二频率以及它们的共现频率它们的激活力为:
其中,是词汇一cl和词汇二ck共生频率中词汇一cl对词汇二ck前向距离的平均值;
步骤22,构建网络结构S=(N,E,W),其中N表示节点集,E表示连接节点的边缘集,且每个边缘对应其重要性被分配给一个大于零的权重W;对应于网络结构事先建立的概念词汇表C,概念网络则由每个概念c关联网络结构S中的节点n构建;
步骤23,网络边缘权重由谷歌距离NGD和激活力二次加权获取,其中谷歌距离NGD用于评估全局语义概念共现,词激活力用于捕捉局部共现活跃性属性;两两成对的词汇一cl和词汇二ck之间的全局语义共现依据谷歌距离NGD计算为:
其中,S(cl)表示包含词汇一cl的页面数量,S(ck)表示包含词汇二ck的页面数量,S(cl,ck)表示同时包含词汇一cl和词汇二ck的页面数量,Ω表示谷歌所搜索的总页面数;
步骤24,以网络的加权边缘表示各节点之间的共现相关性,以快速模块式最大化算法作为网络中的分层社区检测共现模式,实现场景语义概念描述子的提取。
4.根据权利要求2所述视频监控中基于图像概念网络的行人不安全行为检测方法,其特征在于:所述步骤3中融合个体语义概念特征和场景语义概念特征获取融合特征的方法:
设个体概念概率特征为Fc,场景概念概率特征为Fs,获取融合特征F=[F1F2],其中F1=W1Fc,F2=W2Fs,则目标函数定义为:
τ12=1,τ1≥0,τ2≥0.
其中,R1(W1,F1)、R2(W2,F2)为重构函数,C1、C2为特征相关项,g(F1)、g(F2)为惩罚函数,W1,W212,λ,λ1,λ2为权重系数,为惩罚因子。
5.根据权利要求1所述视频监控中基于图像概念网络的行人不安全行为检测方法,其特征在于:采用模块化优化模式对场景语义概念提取,通过比较节点的链路密度测量模块化分区的质量,
模块化优化模式M为:M=ψ(Ni,Nj),i≠j=1,2,3,......,,
其中,ψ表示优化函数,Ni表示模块i,Nj表示模块j。
6.根据权利要求1所述视频监控中基于图像概念网络的行人不安全行为检测方法,其特征在于:词激活力是加权复杂网络链接的一种统计学方法,能够获取词网络中的重要信息,是一种映射方法。
7.根据权利要求1所述视频监控中基于图像概念网络的行人不安全行为检测方法,其特征在于:所述分类器为SVM分类器。
8.根据权利要求1所述视频监控中基于图像概念网络的行人不安全行为检测方法,其特征在于:采用共生方向梯度直方图、金字塔方向梯度直方图、尺度不变特征、或通用搜索树提取图像的视觉特征。
CN201811132864.3A 2018-09-27 2018-09-27 视频监控中基于图像概念网络的行人不安全行为检测方法 Active CN109376610B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811132864.3A CN109376610B (zh) 2018-09-27 2018-09-27 视频监控中基于图像概念网络的行人不安全行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811132864.3A CN109376610B (zh) 2018-09-27 2018-09-27 视频监控中基于图像概念网络的行人不安全行为检测方法

Publications (2)

Publication Number Publication Date
CN109376610A true CN109376610A (zh) 2019-02-22
CN109376610B CN109376610B (zh) 2022-03-29

Family

ID=65402610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811132864.3A Active CN109376610B (zh) 2018-09-27 2018-09-27 视频监控中基于图像概念网络的行人不安全行为检测方法

Country Status (1)

Country Link
CN (1) CN109376610B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135345A (zh) * 2019-05-15 2019-08-16 武汉纵横智慧城市股份有限公司 基于深度学习的行为识别方法、装置、设备及存储介质
CN110990777A (zh) * 2019-07-03 2020-04-10 北京市安全生产科学技术研究院 数据关联性分析方法及系统、可读存储介质
CN111079430A (zh) * 2019-10-21 2020-04-28 国家电网公司华中分部 一种组合深度学习和概念图谱的电力故障事件抽取方法
CN111126194A (zh) * 2019-12-10 2020-05-08 郑州轻工业大学 一种社交媒体视觉内容情感分类方法
CN111737511A (zh) * 2020-06-17 2020-10-02 南强智视(厦门)科技有限公司 基于自适应局部概念嵌入的图像描述方法
CN117037502A (zh) * 2023-10-09 2023-11-10 中关村科学城城市大脑股份有限公司 车辆处理信息生成方法、装置、设备和计算机可读介质
CN117115564A (zh) * 2023-10-19 2023-11-24 南方科技大学 基于跨模态概念发现与推理的图像分类方法及智能终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102402612A (zh) * 2011-12-20 2012-04-04 广州中长康达信息技术有限公司 一种视频语义网关
CN103379266A (zh) * 2013-07-05 2013-10-30 武汉烽火众智数字技术有限责任公司 一种具有视频语义分析功能的高清网络摄像机
CN108027834A (zh) * 2015-09-21 2018-05-11 高通股份有限公司 用于通过文本的视频搜索的语义多感官嵌入

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102402612A (zh) * 2011-12-20 2012-04-04 广州中长康达信息技术有限公司 一种视频语义网关
CN103379266A (zh) * 2013-07-05 2013-10-30 武汉烽火众智数字技术有限责任公司 一种具有视频语义分析功能的高清网络摄像机
CN108027834A (zh) * 2015-09-21 2018-05-11 高通股份有限公司 用于通过文本的视频搜索的语义多感官嵌入

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135345A (zh) * 2019-05-15 2019-08-16 武汉纵横智慧城市股份有限公司 基于深度学习的行为识别方法、装置、设备及存储介质
CN110990777A (zh) * 2019-07-03 2020-04-10 北京市安全生产科学技术研究院 数据关联性分析方法及系统、可读存储介质
CN110990777B (zh) * 2019-07-03 2022-03-18 北京市应急管理科学技术研究院 数据关联性分析方法及系统、可读存储介质
CN111079430A (zh) * 2019-10-21 2020-04-28 国家电网公司华中分部 一种组合深度学习和概念图谱的电力故障事件抽取方法
CN111079430B (zh) * 2019-10-21 2023-09-15 国家电网公司华中分部 一种组合深度学习和概念图谱的电力故障事件抽取方法
CN111126194B (zh) * 2019-12-10 2023-04-07 郑州轻工业大学 一种社交媒体视觉内容情感分类方法
CN111126194A (zh) * 2019-12-10 2020-05-08 郑州轻工业大学 一种社交媒体视觉内容情感分类方法
CN111737511B (zh) * 2020-06-17 2022-06-07 南强智视(厦门)科技有限公司 基于自适应局部概念嵌入的图像描述方法
CN111737511A (zh) * 2020-06-17 2020-10-02 南强智视(厦门)科技有限公司 基于自适应局部概念嵌入的图像描述方法
CN117037502A (zh) * 2023-10-09 2023-11-10 中关村科学城城市大脑股份有限公司 车辆处理信息生成方法、装置、设备和计算机可读介质
CN117037502B (zh) * 2023-10-09 2023-12-22 中关村科学城城市大脑股份有限公司 车辆处理信息生成方法、装置、设备和计算机可读介质
CN117115564A (zh) * 2023-10-19 2023-11-24 南方科技大学 基于跨模态概念发现与推理的图像分类方法及智能终端
CN117115564B (zh) * 2023-10-19 2024-03-26 南方科技大学 基于跨模态概念发现与推理的图像分类方法及智能终端

Also Published As

Publication number Publication date
CN109376610B (zh) 2022-03-29

Similar Documents

Publication Publication Date Title
CN109376610A (zh) 视频监控中基于图像概念网络的行人不安全行为检测方法
CN107330396B (zh) 一种基于多属性和多策略融合学习的行人再识别方法
CN104881637B (zh) 基于传感信息及目标追踪的多模信息系统及其融合方法
CN106845373A (zh) 面向监控视频的行人属性预测方法
CN110414441B (zh) 一种行人行踪分析方法及系统
Zhou et al. Conceptlearner: Discovering visual concepts from weakly labeled image collections
CN110598543B (zh) 基于属性挖掘和推理的模型训练方法及行人再识别方法
CN108920643B (zh) 加权多特征融合的细粒度图像检索方法
CN102016839A (zh) 使用捕捉位置序列信息的图像分类
CN105975932A (zh) 基于时间序列shapelet的步态识别分类方法
CN110008861A (zh) 一种基于全局和局部特征学习的行人再识别方法
Lv et al. Person re-identification with expanded neighborhoods distance re-ranking
CN114038048A (zh) 一种身份类型识别系统
CN109583371A (zh) 基于深度学习的陆标信息提取与匹配方法
Zhang et al. A Multiple Instance Learning and Relevance Feedback Framework for Retrieving Abnormal Incidents in Surveillance Videos.
Cai et al. Selective weakly supervised human detection under arbitrary poses
Zhang et al. Automated data collection and safety analysis at intersections based on a novel video processing system
Shetty et al. Animal Detection and Classification in Image & Video Frames Using YOLOv5 and YOLOv8
Yang et al. Semi-supervised multimodal clustering algorithm integrating label signals for social event detection
Zhang et al. Massive-Scale Aerial Photo Categorization by Cross-Resolution Visual Perception Enhancement
Hai et al. Improving The Efficiency of Semantic Image Retrieval using A Combined Graph and SOM Model
CN109214286A (zh) 基于深度神经网络多层特征融合的人脸识别方法
Zhang et al. A Novel Approach for Annotation-based Image Retrieval Using Deep Architecture.
Bornia et al. Towards a semantic video analysis using deep learning and ontology
Zaheer Content-based image retrieval

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant