CN115601834A - 基于WiFi信道状态信息的跌倒检测方法 - Google Patents
基于WiFi信道状态信息的跌倒检测方法 Download PDFInfo
- Publication number
- CN115601834A CN115601834A CN202211279009.1A CN202211279009A CN115601834A CN 115601834 A CN115601834 A CN 115601834A CN 202211279009 A CN202211279009 A CN 202211279009A CN 115601834 A CN115601834 A CN 115601834A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- human body
- cnn
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
- A61B5/1117—Fall detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/30—Monitoring; Testing of propagation channels
- H04B17/309—Measuring or estimating channel quality parameters
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Physiology (AREA)
- Veterinary Medicine (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Quality & Reliability (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
Abstract
本发明提供一种基于WiFi信道状态信息的跌倒检测方法。该方法包括:训练阶段和检测阶段;训练阶段包括:获取同一时间段内的WiFi的CSI数据和视频数据;提取所述视频数据中的人体掩码,然后根据时间戳将相同时刻下的CSI数据与人体掩码匹配为一个训练数据对,进而构建得到训练数据集;使用训练数据集迭代更新GAN网络;利用CNN‑AE模型对正常人体轮廓图片进行特征提取,然后利用提取的CNN‑AE特征对单分类支持向量机OCSVM模型进行训练;检测阶段包括:实时获取CSI数据;利用训练好的生成器根据实时获取的CSI数据生成场景图片;利用CNN‑AE模型对场景图片进行特征提取,将提取到的特征输入至训练好的OCSVM模型以检测是否发生跌倒行为。
Description
技术领域
本发明涉及行为识别技术领域,尤其涉及一种基于WiFi信道状态信息的跌倒检测方法。
背景技术
传统的跌倒检测方法主要分为接触式感知检测和非接触式感知检测。接触式感知检测通过人员穿戴各种定制的加速度传感器、陀螺仪等获取用户的肢体行为和运动方式等信息,由于该检测方式需要用户实时携带特定的设备,这耗费了大量的成本且难以长期稳定运行,故该检测方式不符合智能化感知的发展需求。非接触式感知检测(主要指基于计算机视觉的跌倒检测)主要依托摄像头和各类的传感器展开。该检测方式通过采集视频图像信号、物理数据参数和用户计算信息实现数据收集,之后进行人体前景目标提取、特征提取、再运用机器学习的算法模拟跌倒决策过程,达到跌倒检测的效果。但是,该检测方式需要光线充足的环境条件(在大雾等光线条件不好的环境下无法进行精准的识别),并且可能产生室内隐私问题(例如澡堂和厕所等场景无法适用),同时在室内情况下受视距影响大,比如某些死角可能监测不到。此外,利用超宽带、ZigBee、和射频信号等技术在轨迹追踪、位置信息获取等方面有良好的表现,但是此类信号的获取需要专门的设备,其特定的部署方式以及高成本限制了其应用场景。
发明内容
为了在保护用户隐私的同时提高对跌倒状态的精准检测,本发明提供一种基于WiFi信道状态信息的跌倒检测方法。
本发明提供一种基于WiFi信道状态信息的跌倒检测方法,包括:训练阶段和检测阶段;
训练阶段包括:
获取同一时间段内的WiFi的CSI数据和视频数据;
提取所述视频数据中的人体掩码,然后根据时间戳将相同时刻下的CSI数据与人体掩码匹配为一个训练数据对,进而构建得到训练数据集;
使用训练数据集迭代更新GAN网络;其中,每次迭代更新过程包括:利用生成器根据CSI数据生成假图片,将CSI数据对应的人体掩码和假图片作为对抗器的输入进行对抗训练;
利用CNN-AE模型对正常人体轮廓图片进行特征提取,然后利用提取的CNN-AE特征对单分类支持向量机OCSVM模型进行训练;
检测阶段包括:
实时获取CSI数据;利用训练好的生成器根据实时获取的CSI数据生成场景图片;
利用CNN-AE模型对场景图片进行特征提取,将提取到的特征输入至训练好的OCSVM模型以检测是否发生跌倒行为。
进一步地,利用Mask R-CNN框架提取视频数据中的人体掩码。
进一步地,在训练阶段和检测阶段中,利用CNN-AE模型对图片进行特征提取之前,先对图片进行背景减除。
进一步地,所述的利用CNN-AE模型对场景图片进行特征提取,将提取到的特征输入至训练好的OCSVM模型以检测是否发生跌倒行为,具体包括:
给定一段视频序列,采用逐帧处理的方式,对当前帧场景图片进行背景减除以从中提取人体轮廓图;再利用CNN-AE模型从人体轮廓图中提取出轮廓特征x,将轮廓特征x输入至OCSVM模型中,若OCSVM模型输出的概率值超过设定的阈值时,认为是正常帧,否则是异常帧,并将该异常帧标记为跌倒行为;最后统计异常帧的帧数是否超过设定的阈值,若是,则视为发生跌倒。
本发明的有益效果:
(1)不同于现有的利用WiFi的信道状态信息,提取幅度和相位特征,利用人体动态路径解决跌倒检测问题的构思,本发明先通过WiFi信道状态信息生成人体活动姿势图像,然后通过机器学习算法实现跌倒检测。
(2)为了能够根据WiFi的信道状态信息生成准确的人体活动姿势图像,提出基于GAN网络生成图片的方法,可以提升成像的精度。
附图说明
图1为本发明实施例提供的基于WiFi信道状态信息的跌倒检测方法的流程示意图;
图2为本发明实施例提供的CNN-AE模型的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着物联网(IOT)的发展,无线路由设备已融入千家万户,基于Wi-Fi感知的应用在生活中正被广泛应用,本发明正是基于Wi-Fi信号的信道状态信息,并结合深度学习和机器学习的技术实现室内人体跌倒事件检测。
如图1所示,本发明实施例提供一种基于WiFi信道状态信息的跌倒检测方法,包括:训练阶段和检测阶段;
训练阶段包括:
获取同一时间段内的WiFi的CSI数据和视频数据;
具体地,在本发明实施例中,在硬件设备上,使用两台配置了Intel 5300的网卡的计算机,其中一台计算机作为发射端,其天线数量为2根;另外一台计算机作为接受端,其天线数量为3根;在软件设备上,使用部署在ubuntu14.04系统上开源的CSI tool;基于上述的软件和硬件配置来采集CSI数据,该CSI数据格式为2*3*30的矩阵。
视频数据则采用视频数据使用360摄像头进行采集;需要说明的是,采集到的视频数据仅仅是作为数据标注使用,并不会泄露用户隐私。
提取所述视频数据中的人体掩码,然后根据时间戳将相同时刻下的CSI数据与人体掩码匹配为一个训练数据对,进而构建得到训练数据集;
具体地,利用Mask R-CNN框架提取视频数据中的人体掩码。在本发明实施例中,一个时刻下(例如每秒)采用5个CSI数据包与一个人体掩码匹配为一个训练数据对,构成150*2*3的矩阵。
使用训练数据集迭代更新GAN网络;其中,每次迭代更新过程包括:利用生成器根据CSI数据生成假图片,将CSI数据对应的人体掩码和假图片作为对抗器的输入进行对抗训练;
具体地,在训练阶段,需要先将CSI矩阵进行上采样处理,然后将上采样处理结果输入至生成器生成假图片。迭代更新的停止条件可以是达到设定迭代次数,也可以是生成器的准确率达到给定准确率阈值。在原有CSI矩阵的基础上采用上采样算法,根据算法在原始数据上插入适当的数据,可以部分解决样本的稀疏性,使生成器更容易获得丰富的特征来进行原始图像的生成。
利用CNN-AE模型对正常人体轮廓图片进行特征提取,然后利用提取的CNN-AE特征对单分类支持向量机OCSVM模型进行训练;
具体地,正常人体轮廓图片是指除跌倒行为之外的其他日常行为活动的场景图像,例如行走场景图像和正常坐着的场景图像。本步骤的作用是为了使得单分类支持向量机OCSVM模型学习日常的正常姿势,以便能够区分开正常姿势和跌倒行为。
一般而言,场景图像中存在大量的无效背景信息,为消除图像冗余,减少特征提取计算量,在利用CNN-AE模型对图片进行特征提取之前,先对图片进行背景减除。本实施例中,背景减除的过程也成为人体轮廓图提取过程,该过程具体包括:首先提取每个轮廓的最小外接矩形,然后保持矩形区域的长宽比,将其缩放到大小为30×30像素的模板中,最后对每个像素点作归一化处理。
本发明实施例采用的CNN-AE模型的结构如图2所示。CNN-AE是一种无监督的学习算法,通过神经网络学习到原始输入数据的隐含特征,利用卷积层代替人工神经网络的全连接层,更适合二维图像信息的重构,具体过程是针对输入数据x,通过自动编码器编码得到中间语义向量x*,接着中间语义向量x*进入解码器中得到输出结果,完成对特征x*的重构。在神经网络的输入和输出之间建立损失函数,采用随机梯度下降(StochasticGradient Desecnt,SGD)优化算法使网络模型经过多次迭代来优化模型参数,实现特征的提取。
其中,以第l个卷积层的特征图计算过程为例,该计算过程可采用公式(1)表示:
与原始自动编码器和堆叠自动编码器相比,CNN-AE需要调整的参数量更少,使得在相对较少的训练数据集下更容易训练。
检测阶段包括:
实时获取CSI数据;利用训练好的生成器根据实时获取的CSI数据生成场景图片;
利用CNN-AE模型对场景图片进行特征提取,将提取到的特征输入至训练好的OCSVM模型以检测是否发生跌倒行为。
具体地,给定一段视频序列,采用逐帧处理的方式,对当前帧场景图片进行背景减除,即从中提取人体轮廓图,然后再利用CNN-AE模型从人体轮廓图中提取出轮廓特征x,最后通过OCSVM模型判别该帧图像中的姿势是否为正常姿势。OCSVM模型会根据输入的轮廓特征x输出具体的数值,既该帧中的姿势是正常姿势的概率。当该概率值超过设定的阈值时,认为是正常帧,否则是异常帧,将该异常帧标记为跌倒行为;最后统计异常帧的帧数是否超过设定的阈值,若是,则视为发生跌倒,最终实现人体跌倒事件检测。
OCSVM模型进行跌倒识别的具体计算过程如下:假设坐标原点为异常点,使所有的数据点x=[x1,x2,…xn]与原点在特征空间分离,并且最大化分离超平面到原点的距离。通过数据点x建立决策函数f(x),如公式(2)所示。
采用具有不同参数γ值的高斯核函数kGuassian(x,y)建模,高斯核函数的定义为公式(3):
kGuassian(x,y)=exp(-γ‖x-y‖) (3)
公式(2)中需估计的参数包括ω和ρ,为了得到参数ω和ρ,通过引入拉格朗日乘子得到公式(4)的对偶形式:
其中,αi代表一个拉格朗日乘数,得到最优函数参数(ω和ρ)与最优解α之间的关系,优化模型参数ω和ρ。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (4)
1.基于WiFi信道状态信息的跌倒检测方法,其特征在于,包括:训练阶段和检测阶段;
训练阶段包括:
获取同一时间段内的WiFi的CSI数据和视频数据;
提取所述视频数据中的人体掩码,然后根据时间戳将相同时刻下的CSI数据与人体掩码匹配为一个训练数据对,进而构建得到训练数据集;
使用训练数据集迭代更新GAN网络;其中,每次迭代更新过程包括:利用生成器根据CSI数据生成假图片,将CSI数据对应的人体掩码和假图片作为对抗器的输入进行对抗训练;
利用CNN-AE模型对正常人体轮廓图片进行特征提取,然后利用提取的CNN-AE特征对单分类支持向量机OCSVM模型进行训练;
检测阶段包括:
实时获取CSI数据;利用训练好的生成器根据实时获取的CSI数据生成场景图片;
利用CNN-AE模型对场景图片进行特征提取,将提取到的特征输入至训练好的OCSVM模型以检测是否发生跌倒行为。
2.根据权利要求1所述的基于WiFi信道状态信息的跌倒检测方法,其特征在于,利用Mask R-CNN框架提取视频数据中的人体掩码。
3.根据权利要求1所述的基于WiFi信道状态信息的跌倒检测方法,其特征在于,在训练阶段和检测阶段中,利用CNN-AE模型对图片进行特征提取之前,先对图片进行背景减除。
4.根据权利要求3所述的基于WiFi信道状态信息的跌倒检测方法,其特征在于,所述的利用CNN-AE模型对场景图片进行特征提取,将提取到的特征输入至训练好的OCSVM模型以检测是否发生跌倒行为,具体包括:
给定一段视频序列,采用逐帧处理的方式,对当前帧场景图片进行背景减除以从中提取人体轮廓图;再利用CNN-AE模型从人体轮廓图中提取出轮廓特征x,将轮廓特征x输入至OCSVM模型中,若OCSVM模型输出的概率值超过设定的阈值时,认为是正常帧,否则是异常帧,并将该异常帧标记为跌倒行为;最后统计异常帧的帧数是否超过设定的阈值,若是,则视为发生跌倒。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211279009.1A CN115601834A (zh) | 2022-10-19 | 2022-10-19 | 基于WiFi信道状态信息的跌倒检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211279009.1A CN115601834A (zh) | 2022-10-19 | 2022-10-19 | 基于WiFi信道状态信息的跌倒检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115601834A true CN115601834A (zh) | 2023-01-13 |
Family
ID=84849076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211279009.1A Pending CN115601834A (zh) | 2022-10-19 | 2022-10-19 | 基于WiFi信道状态信息的跌倒检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115601834A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116156505A (zh) * | 2023-04-18 | 2023-05-23 | 南京桂瑞得信息科技有限公司 | 基于去噪自编码器与度量学习的WiFi设备检测方法 |
-
2022
- 2022-10-19 CN CN202211279009.1A patent/CN115601834A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116156505A (zh) * | 2023-04-18 | 2023-05-23 | 南京桂瑞得信息科技有限公司 | 基于去噪自编码器与度量学习的WiFi设备检测方法 |
CN116156505B (zh) * | 2023-04-18 | 2023-08-04 | 南京桂瑞得信息科技有限公司 | 基于去噪自编码器与度量学习的WiFi设备检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10198823B1 (en) | Segmentation of object image data from background image data | |
CN109684924B (zh) | 人脸活体检测方法及设备 | |
CN111598998B (zh) | 三维虚拟模型重建方法、装置、计算机设备和存储介质 | |
KR101964397B1 (ko) | 정보처리장치 및 정보처리방법 | |
US9928405B2 (en) | System and method for detecting and tracking facial features in images | |
CN109684925B (zh) | 一种基于深度图像的人脸活体检测方法及设备 | |
CN101563710B (zh) | 识别由视频监视摄像机检测到的对象的特性的方法及装置 | |
US20130230237A1 (en) | Method and apparatus for bi-layer segmentation | |
US9798923B2 (en) | System and method for tracking and recognizing people | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN108416266A (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN103514432A (zh) | 人脸特征提取方法、设备和计算机程序产品 | |
CN108647625A (zh) | 一种表情识别方法及装置 | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
WO2009152509A1 (en) | Method and system for crowd segmentation | |
WO2016165064A1 (zh) | 基于多视角学习的鲁棒性前景检测方法 | |
JP2020149642A (ja) | 物体追跡装置および物体追跡方法 | |
CN104766065A (zh) | 基于多视角学习的鲁棒性前景检测方法 | |
CN115601834A (zh) | 基于WiFi信道状态信息的跌倒检测方法 | |
Hempel et al. | Pixel-wise motion segmentation for SLAM in dynamic environments | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
Babu et al. | Subject independent human action recognition using spatio-depth information and meta-cognitive RBF network | |
CN107665495B (zh) | 对象跟踪方法及对象跟踪装置 | |
CN102156879B (zh) | 基于加权陆地运动距离的人体目标匹配方法 | |
CN116778214A (zh) | 一种行为检测方法、装置、设备及其存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |