CN111027416A - 一种基于商用WiFi的位置自适应动作识别方法 - Google Patents

一种基于商用WiFi的位置自适应动作识别方法 Download PDF

Info

Publication number
CN111027416A
CN111027416A CN201911148775.2A CN201911148775A CN111027416A CN 111027416 A CN111027416 A CN 111027416A CN 201911148775 A CN201911148775 A CN 201911148775A CN 111027416 A CN111027416 A CN 111027416A
Authority
CN
China
Prior art keywords
action
classifier
model
data
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911148775.2A
Other languages
English (en)
Other versions
CN111027416B (zh
Inventor
周瑞
龚子元
侯缓缓
周保
唐凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201911148775.2A priority Critical patent/CN111027416B/zh
Publication of CN111027416A publication Critical patent/CN111027416A/zh
Application granted granted Critical
Publication of CN111027416B publication Critical patent/CN111027416B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于商用WiFi的位置自适应动作识别方法,根据人体动作对CSI产生影响的原理,从CSI数据中提取幅值信息,首先利用奇异谱分析的方法获得趋势分量成分,然后通过伪标签半监督学习将基于LSTM分类模型的动作识别能力泛化到所有位置上去,在进行半监督学习时采用双评分多分类器,双评分机制将分类器评分以及类别评分作为分类概率的加权项提高了评分精度,实现位置自适应的高精度动作识别。通过实验表明本发明能够达到针对所有位置约85%的动作识别正确率,比直接使用源域模型的精度提升了约40%,并且能够泛化到未采集动作数据的位置。

Description

一种基于商用WiFi的位置自适应动作识别方法
技术领域
本发明涉及一种动作识别技术,尤其涉及一种基于商用WiFi的位置自适应的动作识别技术。
背景技术
动作识别通常指对人们执行的动作进行监测和识别的过程。准确的识别动作在许多场合都有着重要意义。例如:通过室内日常动作识别,可以实现居家安全监控,对异常动作的发生及时做出判断和预警;通过对驾驶员的动作识别,可以监测驾驶员的行为操作是否安全合法,从而协助驾驶员安全驾驶,降低交通事故的发生概率;实时准确的动作识别还可以应用到体感游戏、人机智能交互等场景,提高人们的生活质量。
目前主流的动作识别技术通常基于视频监控或可穿戴设备。基于视频监控的方法能够高精度识别出人的动作。但是,视频监控非常依赖于环境中的光线条件,在光线条件很差或有障碍物遮挡的情况下无法进行识别。另外,视频监控存在隐私泄露问题,不适合部署在卫生间浴室等隐私场景。基于可穿戴设备的动作识别方法不存在隐私侵犯问题,也不需要光线条件,但是要求人时刻佩戴设备才能进行识别,对人的主观意愿有较强依赖性。
信道状态信息(Channel State Information,CSI)是WiFi物理层信息,描述信号在每条传输路径上的衰弱因子,能够反映信号散射、环境衰弱、距离衰减等信息。利用CSI可以感知环境中的细微变化,当人在覆盖WiFi的房间内进行不同动作时,会对WiFi信号的传播造成不同影响,使得采集到的CSI幅值和相位发生不同变化,这使得采用CSI来进行动作识别成为可能。采用基于商用WiFi的方法进行人的动作识别,能够有效解决弱光、无光及遮挡情况下的动作识别,不存在隐私侵犯,也不需要人们穿戴任何设备,是一种低成本、普适性、无侵犯的动作识别方法。
但是,当人在不同位置进行动作时,不仅动作会导致CSI变化,人所处的位置也会对CSI产生影响,也就是说,CSI的变化是位置和动作的叠加结果。如果只用单个位置的动作数据来训练识别模型,则在其它位置上的动作识别效果就会很差;而如果使用所有位置的动作数据来训练识别模型,对数据贴标基于人工介入会消耗大量资源,对于较大的监控环境不可行。
伪标签学习是一种半监督学习方法,先使用高成本的有标签数据训练分类模型,再将数据量大且低成本的无标签数据输入这个分类模型,模型输出的分类结果作为无标签数据的伪标签;之后,再使用有标签数据与伪标签数据重新训练分类模型,将完成训练后的分类模型作为最终的分类模型。伪标签学习使用少量有标签数据结合大量无标签数据,相对于仅使用少量有标签数据的学习方法,能提高决策边界的精确性与模型的稳健性。
发明内容
本发明所要解决的技术问题是,提出一种在利用商用WiFi设备的进行位置自适应的动作识别过程中,通过生成更精确的伪标签从而提升分类效果的方法。
本发明为解决上述技术问题所采用的技术方案是,一种基于商用WiFi的位置自适应动作识别方法,包括以下步骤:
1)监测环境部署:将一对WiFi发射器和接收器部署在房间两端;
2)在房间内选取若干个位置作为执行动作的位置,在每个位置上进行若干次动作,采集每个位置上每种动作的CSI数据并提取CSI幅值数据;
3)在执行动作的位置中选取部分位置作为源域,其余位置作为目标域;源域上的CSI幅值数据带有动作标签,目标域上的CSI幅值数据没有动作标签;理论上源域的位置选的越多,精度越高,但同时数据采集和训练模型的成本也越高。实际操作时,源域在可接受的精度上尽可能选少的位置。
4)对所有CSI幅值数据进行奇异谱分析从而提取趋势分量成分作为趋势信号,源域上的带有动作标签的趋势信号为源域数据,目标域上的没有动作标签的趋势信号为目标域数据;
5)建立双评分多分类器集成学习模型作为标签模型,对目标域数据贴伪标签,包括以下步骤:
5-1)利用源域数据作为动作样本来训练标签模型,并对标签模型进行评分,将平均分类精度作为分类器评分Sr,将每种动作的分类精度作为类别评分Sc
Figure BDA0002282962140000021
Sr中每个元素
Figure BDA0002282962140000022
表示第i个分类器的评分,(Nr)i表示第i个分类器预测的动作样本数,
Figure BDA0002282962140000023
表示第i个分类器预测正确的动作样本数;
Figure BDA0002282962140000024
Sc中每个元素
Figure BDA0002282962140000025
表示第i个分类器对第j个类别的类别评分,(Nc)ij表示第i个分类器对第j个类别预测的动作样本数,
Figure BDA0002282962140000026
表示第i个分类器对第j个类别预测正确的动作样本数,i∈[1..m],j∈[1..n],m为分类器总个数,n为动作类别总数;
5-2)利用建立好的标签模型,将目标域数据输入到标签模型中,标签模型输出该目标域数据的各项分类概率Pij;再将对应的分类器评分以及类别评分作为分类概率的加权项,计算出该目标域数据的在每个分类器处的评分Sij
Figure BDA0002282962140000031
Pij为被第i个分类器分成第j个类别的概率;
最终计算出该目标域数据的总评分Sj,取总评分最高的类别为目标域数据贴上伪标签Label:
Figure BDA0002282962140000032
Figure BDA0002282962140000033
6)利用源域数据和带有伪标签的目标域数据共同作为动作样本来训练分类模型,源域数据和带有伪标签的目标域数据涵盖了房间内部分位置,训练出的分类模型能够泛化到房间中未采集数据的位置。
本发明根据人体动作对CSI产生影响的原理,从CSI数据中提取幅值信息,首先利用奇异谱分析的方法获得趋势分量成分,然后通过伪标签半监督学习将分类模型的动作识别能力泛化到所有位置上去,在进行半监督学习时采用双评分多分类器,双评分机制将分类器评分以及类别评分作为分类概率的加权项提高了评分精度,实现位置自适应的高精度动作识别。
进一步的,在标签模型以及分类模型的选择上,因为样本是时序数据,所以选择使用LSTM来做基本的模型。分类器的双层结构比单层结构能够学习到更深层的信息,因此分类效果会比单层的好一些,但是训练的时间成本会更高,标签模型因为由多个分类器组成,学习的成本较高,所以用单层的LSTM,比用双层结构降低了时间成本。当所有输入样本均有标签的情况下,无需使用多分类器结构,因此分类模型只有1个分类器,为了提升分类准确率,所以该分类器采用双层结构。
本发明的有益效果是,通过实验表明本发明能够达到针对所有位置约85%的动作识别正确率,比直接使用源域模型的精度提升了约40%,并且能够泛化到未采集动作数据的位置。
附图说明
图1为实验环境示意图;
图2为实施流程图;
图3为奇异谱分析信号分解图;
图4动作识别准确率。
具体实施方式
基于WiFi的位置自适应动作识别方法要求在室内覆盖WiFi信号。部署设备为一台WiFi发射器和一台WiFi接收器,均配置Intel Wireless Link 5300agn(IWL5300)无线网卡,发射器网卡和接收器网卡均配置3根天线,因此共包括9个天线对,每个天线对包含30条子载波。WiFi发射器以100Hz的发包率发射CSI数据。实验环境示意图如图1所示。
本方法首先建立基于多分类器的集成学习标签模型,基分类器采用长短时记忆循环神经网络(Long Short-Term Memory,LSTM),实施流程如图2所示,然后通过标签模型对无标签动作数据贴伪标签,最后用真实标签动作数据和伪标签动作数据共同训练得到位置无关动作识别模型。步骤如下:
步骤1:选取若干位置,在每个位置上执行动作并采集CSI数据,每次动作采集10秒数据;
步骤2:在执行动作的位置中,选取部分位置作为源域,对源域中的动作数据设置对应的动作标签,其它位置作为目标域,对目标域中的动作数据不设置动作标签;
步骤3:对所有CSI动作数据提取幅值信息,然后进行奇异谱分析,提取趋势分量成分,包含以下步骤:
步骤3-1:将每条CSI子载波数据转化得到轨迹矩阵。假设X表示转化后的轨迹矩阵,xi表示数据包编号为i的CSI幅值,N表示动作结束时刻所对应的数据包编号,L为选取的窗口长度,轨迹矩阵X如下:
Figure BDA0002282962140000041
步骤3-2:对轨迹矩阵X进行奇异值分解。令U表示L×L阶的酉矩阵,Σ表示L×(N-L+1)阶半正定对角矩阵,V是(N-L+1)×(N-L+1)阶酉矩阵,VT是V的共轭转置矩阵,得到奇异值分解后的轨迹矩阵X′:
X′=UΣVT
步骤3-3:将进行奇异值分解后的轨迹矩阵进行分组并重构,得到各组不同的分量成分,提取其中的趋势信号分量。假设
Figure BDA0002282962140000051
为第i组的趋势信号分量,d为分解后趋势分量成分的组数,获得趋势信号X″如图3所示。源域数据为带有动作标签的趋势信号,目标域数据为没有动作标签的趋势信号。
Figure BDA0002282962140000052
步骤4:训练基于多分类器集成学习标签模型,标签模型中的分类器基于双向LSTM模型,具有6个分类器,每个分类器具有一层包含128个节点的隐藏层,包括以下步骤:
步骤4-1:将源域数据输入到标签模型中,提取动作数据时序特征:
F=LSTM(X″;Θ)
X″表示输入的源域数据,Θ是循环神经网络参数,F为提取后的特征信息。
步骤4-2:利用Softmax函数对提取特征后的动作数据进行分类,令P表示动作被分成各类的概率,WF和bF分别表示权重和偏置系数:
P=softmax(WF·F+bF)
步骤4-3:训练标签模型,获得多分类器评分
Figure BDA0002282962140000053
Figure BDA0002282962140000054
表示第i个分类器的评分,m表示分类器个数,Nr表示预测的动作样本数,
Figure BDA0002282962140000055
表示预测正确的动作样本数:
Figure BDA0002282962140000056
步骤4-4:训练标签模型,获得类别评分Sc
Figure BDA0002282962140000057
Figure BDA0002282962140000058
表示第i个分类器第j个类别的类别评分,m表示分类器个数,n表示类别个数,(Nc)ij表示第i个分类器预测第j个类别的动作样本数,
Figure BDA0002282962140000059
表示第i个分类器预测第j个类别的预测正确的动作样本数:
Figure BDA00022829621400000510
步骤5:利用训练好的标签模型为目标域中未带动作标签的动作数据贴上伪标签,包含以下步骤:
步骤5-1:将无标签动作数据输入到标签模型中,计算动作数据被第i个分类器分成第j个类别的得分Sij,Pij为被第i个分类器分成第j个类别的概率:
Figure BDA0002282962140000061
步骤5-2:计算该动作数据被分成各个类别的总得分Sj,m表示分类器个数:
Figure BDA0002282962140000062
步骤5-3:具有最大得分的类别就是为该动作数据贴上的伪标签Label:
Figure BDA0002282962140000063
步骤6:用带有真实动作标签的位置的数据和贴有伪标签的位置的数据共同训练动作分类模型,动作分类模型使用1个双层双向LSTM分类器,该分类器的第一层隐藏节点数为128,第二层隐藏节点数为64,学习率为0.0001,得到最终的能够用于所有位置的动作识别模型,包括未采集动作数据的位置。
实施例的识别准确率如图4所示,表明本发明方法实施的两个场景,在会议室能够达到针对所有位置约82%的动作识别正确率,在大厅能够达到针对所有位置约85%的动作识别正确率,比直接使用源域模型的42%和40%,本发明方法的识别精度提升了约40%。

Claims (3)

1.一种基于商用WiFi的位置自适应动作识别方法,其特征在于,包括以下步骤:
1)监测环境部署:将一对WiFi发射器和接收器部署在房间两端;
2)在房间内选取若干个位置作为执行动作的位置,在每个位置上进行若干次动作,采集每个位置上每种动作的CSI数据并提取CSI幅值数据;
3)在执行动作的位置中选取部分位置作为源域,其余位置作为目标域;源域上的CSI幅值数据带有动作标签,目标域上的CSI幅值数据没有动作标签;
4)对所有CSI幅值数据进行奇异谱分析从而提取趋势分量成分作为趋势信号,源域上的带有动作标签的趋势信号为源域数据,目标域上的没有动作标签的趋势信号为目标域数据;
5)建立双评分多分类器集成学习模型作为标签模型,对目标域数据贴伪标签,包括以下步骤:
5-1)利用源域数据作为动作样本来训练标签模型,并对标签模型进行评分,将平均分类精度作为分类器评分Sr,将每种动作的分类精度作为类别评分Sc
Figure FDA0002282962130000011
Sr中每个元素
Figure FDA0002282962130000017
表示第i个分类器的评分,(Nr)i表示第i个分类器预测的动作样本数,
Figure FDA0002282962130000012
表示第i个分类器预测正确的动作样本数;
Figure FDA0002282962130000013
Sc中每个元素
Figure FDA0002282962130000014
表示第i个分类器对第j个类别的类别评分,(Nc)ij表示第i个分类器对第j个类别预测的动作样本数,
Figure FDA0002282962130000015
表示第i个分类器对第j个类别预测正确的动作样本数,i∈[1..m],j∈[1..n],m为分类器总个数,n为动作类别总数;
5-2)利用建立好的标签模型,将目标域数据输入到标签模型中,标签模型输出该目标域数据的各项分类概率Pij;再将对应的分类器评分以及类别评分作为分类概率的加权项,计算出该目标域数据的在每个分类器处的评分Sij
Figure FDA0002282962130000016
Pij为被第i个分类器分成第j个类别的概率;
最终计算出该目标域数据的总评分Sj,取总评分最高的类别为目标域数据贴上伪标签Label:
Figure FDA0002282962130000021
Figure FDA0002282962130000022
6)利用源域数据和带有伪标签的目标域数据共同作为动作样本来训练分类模型,源域数据和带有伪标签的目标域数据涵盖了房间内所有执行动作的位置。
2.如权利要求1所述方法,其特征在于,所述标签模型为双向长短期记忆网络LSTM模型;分类模型为双向LSTM模型。
3.如权利要求2所述方法,其特征在于,所述标签模型具有6个分类器,每个分类器具有节点数为128的隐藏层,所述分类模型具有1个分类器,该分类器具有两层隐藏层,第一层隐藏节点数为128,第二层隐藏节点数为64,学习率为0.0001。
CN201911148775.2A 2019-11-21 2019-11-21 一种基于商用WiFi的位置自适应动作识别方法 Expired - Fee Related CN111027416B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911148775.2A CN111027416B (zh) 2019-11-21 2019-11-21 一种基于商用WiFi的位置自适应动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911148775.2A CN111027416B (zh) 2019-11-21 2019-11-21 一种基于商用WiFi的位置自适应动作识别方法

Publications (2)

Publication Number Publication Date
CN111027416A true CN111027416A (zh) 2020-04-17
CN111027416B CN111027416B (zh) 2022-03-15

Family

ID=70206305

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911148775.2A Expired - Fee Related CN111027416B (zh) 2019-11-21 2019-11-21 一种基于商用WiFi的位置自适应动作识别方法

Country Status (1)

Country Link
CN (1) CN111027416B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295531A (zh) * 2016-08-01 2017-01-04 乐视控股(北京)有限公司 一种手势识别方法和装置以及虚拟现实终端
CN107480699A (zh) * 2017-07-13 2017-12-15 电子科技大学 一种基于信道状态信息和支持向量机的入侵检测方法
US9883511B1 (en) * 2012-12-05 2018-01-30 Origin Wireless, Inc. Waveform design for time-reversal systems
CN108460134A (zh) * 2018-03-06 2018-08-28 云南大学 基于多源域集成迁移学习的文本主题分类模型及分类方法
CN109547127A (zh) * 2018-12-29 2019-03-29 西安理工大学 一种基于wifi中CSI信号强度的低头角度检测方法
CN110110580A (zh) * 2019-03-12 2019-08-09 西北大学 一种面向Wi-Fi信号的手语孤立词识别网络构建及分类方法
CN110288018A (zh) * 2019-06-24 2019-09-27 桂林电子科技大学 一种融合深度学习模型的WiFi身份识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9883511B1 (en) * 2012-12-05 2018-01-30 Origin Wireless, Inc. Waveform design for time-reversal systems
CN106295531A (zh) * 2016-08-01 2017-01-04 乐视控股(北京)有限公司 一种手势识别方法和装置以及虚拟现实终端
CN107480699A (zh) * 2017-07-13 2017-12-15 电子科技大学 一种基于信道状态信息和支持向量机的入侵检测方法
CN108460134A (zh) * 2018-03-06 2018-08-28 云南大学 基于多源域集成迁移学习的文本主题分类模型及分类方法
CN109547127A (zh) * 2018-12-29 2019-03-29 西安理工大学 一种基于wifi中CSI信号强度的低头角度检测方法
CN110110580A (zh) * 2019-03-12 2019-08-09 西北大学 一种面向Wi-Fi信号的手语孤立词识别网络构建及分类方法
CN110288018A (zh) * 2019-06-24 2019-09-27 桂林电子科技大学 一种融合深度学习模型的WiFi身份识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WEIDONG YANG等: "Multi-Class Wheat Moisture Detection with 5GHz Wi-Fi: A Deep LSTM Approach", 《网页在线公开:HTTPS://IEEEXPLORE.IEEE.ORG/STAMP/STAMP.JSP?TP=&ARNUMBER=8487423》 *
吴春香等: "无线感知网络中动作识别的滤波算法", 《计算机技术与发展》 *
周瑞等: "基于卡尔曼滤波的WiFi-PDR融合室内定位", 《电子科技大学学报》 *

Also Published As

Publication number Publication date
CN111027416B (zh) 2022-03-15

Similar Documents

Publication Publication Date Title
CN112101184B (zh) 一种基于半监督学习的无线跨域动作识别方法
CN106097346B (zh) 一种自学习的视频火灾探测方法
CN108901021B (zh) 一种基于无线网络信道状态信息的深度学习身份识别系统及方法
CN105512640B (zh) 一种基于视频序列的人流量统计方法
CN107220604A (zh) 一种基于视频的跌倒检测方法
CN106600631A (zh) 基于多目标跟踪的客流统计方法
CN104063719B (zh) 基于深度卷积网络的行人检测方法及装置
CN108053427A (zh) 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置
CN108009473A (zh) 基于目标行为属性视频结构化处理方法、系统及存储装置
CN110084151A (zh) 基于非局部网络深度学习的视频异常行为判别方法
CN107480699A (zh) 一种基于信道状态信息和支持向量机的入侵检测方法
CN106846729A (zh) 一种基于卷积神经网络的跌倒检测方法和系统
CN108093406A (zh) 一种基于集成学习的无线传感网入侵检测方法
CN110070530A (zh) 一种基于深度神经网络的输电线路覆冰检测方法
CN107133569A (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN106815604A (zh) 基于多层信息融合的注视点检测方法
CN101414411B (zh) 影像式的空位侦测系统与方法
CN202130312U (zh) 一种驾驶员疲劳驾驶监控装置
CN103530657B (zh) 一种基于加权l2抽取深度学习人脸识别方法
CN104268586A (zh) 一种多视角动作识别方法
CN106295474B (zh) 船舶驾驶员的疲劳检测方法、系统和服务器
CN109473119A (zh) 一种声学目标事件监控方法
CN112364769A (zh) 基于商用Wi-Fi的人群计数方法
CN109977908A (zh) 一种基于深度学习的车辆行车车道检测方法
CN106991400A (zh) 一种火灾烟雾检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220315

CF01 Termination of patent right due to non-payment of annual fee