CN108229421A - 一种基于深度视频信息的坠床行为实时检测方法 - Google Patents
一种基于深度视频信息的坠床行为实时检测方法 Download PDFInfo
- Publication number
- CN108229421A CN108229421A CN201810071513.XA CN201810071513A CN108229421A CN 108229421 A CN108229421 A CN 108229421A CN 201810071513 A CN201810071513 A CN 201810071513A CN 108229421 A CN108229421 A CN 108229421A
- Authority
- CN
- China
- Prior art keywords
- falling
- bed
- head
- depth image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度视频信息的坠床行为实时检测方法,属于数字图像识别技术领域,包括:根据室内场景的深度视频,得到背景图像和前景图像,利用深度神经网络对前景图像进行检测,得到头部位置;当深度视频中连续两帧深度图像的头部位置距离小于距离阈值时,根据深度视频中连续多帧深度图像的头部位置,得到头部序列特征;利用坠床分类器对头部序列特征进行检测,判断是否发生坠床行为。本发明对坠床行为的检测不受被子等遮挡物影响,准确度高,实时性强。
Description
技术领域
本发明属于数字图像识别技术领域,更具体地,涉及一种基于深度视频信息的坠床行为实时检测方法。
背景技术
在老年人和婴幼儿群体中,坠床的发生会造成严重的健康问题。如果未能及时发现,会延误治疗,乃至威胁生命健康。因为,及时的发现坠床对于保护个体的生命健康显得十分重要。目前,针对坠床的自动检测方法主要分为三种:基于传感器设备的坠床检测方法,基于无线信号的坠床检测方法,以及基于视频图像的坠床检测方法。
基于传感器设备的坠床检测方法,主要通过随身穿戴速度传感器等设备,以及在地面和床面布置压力传感器等设备,检测人体的速度和压力等物理量的变化判断坠床行为,该方法计算量小,但是需要用户实时穿戴,会日常生活有一定的影响;基于无线信号的坠床检测方法,通过WIFI等无线电波,通过对收发过程中的信号变化进行建模来判断坠床行为,该方法设备简单,无需穿戴,但是由于信号易受干扰,鲁棒性较差,造成检测的准确度较低;基于视频图像的坠床检测方法,通过自动检测视频中的行为进行检测坠床,但是易受光照影响,虽然存在使用深度图像的方法,但是不能解决盖被子时人体遮挡情况下的坠床检测,而且实时性较差。
由此可见,现有技术存在易受被子等遮挡物影响,准确度低,实时性差的技术问题。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于深度视频信息的坠床行为实时检测方法,由此解决,现有技术存在易受被子等遮挡物影响,准确度低,实时性差的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于深度视频信息的坠床行为实时检测方法,包括:
(1)根据室内场景的深度视频,得到背景图像和前景图像,利用深度神经网络对前景图像进行检测,得到头部位置;
(2)当深度视频中连续两帧深度图像的头部位置距离小于距离阈值时,根据深度视频中连续多帧深度图像的头部位置,得到头部序列特征;
(3)利用坠床分类器对头部序列特征进行检测,判断是否发生坠床行为。
进一步地,步骤(1)包括:
(1-1)从室内场景的深度视频中提取深度图像,对每个像素点在连续的n帧深度图像中的像素值进行大小排序,取其中值作为背景图像中的该像素点的像素值,得到背景图像;
(1-2)当深度图像大于第n帧时,通过当前帧深度图像与背景图像进行逐像素点比较像素值大小,当像素值的差值大于差值阈值时,则认为该像素点是前景,保留该像素点的像素值,否则,将该像素点的像素置零,进而得到当前帧的前景图像;
(1-3)利用深度神经网络对当前帧的前景图像进行检测,得到当前帧的头部位置。
进一步地,步骤(1-2)还包括:当深度图像大于第n帧时,若深度视频中连续两帧深度图像的头部位置距离大于等于距离阈值,则将当前帧的前景区域中每个像素点的像素值赋给背景图像中的对应的像素点,更新背景图像。
进一步地,深度神经网络为训练好的深度神经网络,所述深度神经网络的训练包括:
获取在室内场景中人走动、坐下、躺下、起床、坠床的样本深度图像,并标定所有样本深度图像中的人体位置与头部位置,得到标定后的样本深度图像,将标定后的样本深度图像转化成相同尺寸的8位3通道图像作为训练样本集;使用训练样本集对基于YOL0网络的深度神经网络行进训练,得到针对室内场景检测人体头部的训练好的深度神经网络。
进一步地,步骤(1-3)的具体实现方式为:
将当前帧的前景图像输入深度神经网络,得到多个头部矩形框和每个头部矩形框的置信度,对于置信度大于置信阈值的头部矩形框,通过非极大值抑制去掉虚景和重复的头部检测框,得到当前帧的头部位置。
进一步地,步骤(2)包括:
(2-1)连续两帧深度图像为当前帧的深度图像和前一帧的深度图像,当深度视频中连续两帧深度图像的头部位置距离小于距离阈值时,则该头部位置为人体,否则剔除该头部位置;
(2-2)获取深度视频中每帧深度图像的三维信息,根据三维信息,得到深度图像中所有像素点的法向量,对所有法向量为重力方向的像素点进行RANSAC平面拟合,得到地面位置;
(2-3)根据深度视频中连续多帧深度图像的头部位置和地面位置,得到头部中心距离地面的头部高度,连续多帧深度图像的头部高度构成头部序列特征。
进一步地,步骤(3)包括:
利用坠床分类器对头部序列特征进行检测,判断是否发生坠床行为,若判断发生坠床行为,再检测头部中心距离地面的头部高度,若头部高度在预设时间范围内未变化,则判定为坠床;若在预设时间范围内头部高度恢复正常高度,则判定为正常状态。
进一步地,坠床分类器根据坠床行为数据集构建得到,所述坠床行为数据集为对样本视频序列中的每一帧图像人工标定坠床行为与非坠床行为的头部序列特征。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明提出的基于深度视频信息的坠床行为实时检测方法,通过提取前景图像,缩小了头部检测的搜索范围,提高了头部检测深度神经网络的检测精度与速度,保证了方法的准确度与实时性。
(2)本发明提出的基于深度视频信息的坠床行为实时检测方法,通过使用深度神经网络定位头部,使得在盖被子等身体被大量遮挡的情况下也能有效检测坠床行为,具有很强的实用性。
(3)本发明提出的基于深度视频信息的坠床行为实时检测方法,通过运用视频帧间的距离信息,对人体再确认,进一步提高了本发明方法的效率与准确度。
附图说明
图1是本发明实施例提供的坠床行为检测方法的流程示意图;
图2是本发明实施例提供的室内场景的深度图像;
图3是本发明实施例提供的背景图像;
图4是本发明实施例提供的前景图像;
图5是本发明实施例提供的头部检测深度神经网络;
图6是本发明实施例提供的地面拟合的结果;
图7是本发明实施例提供的在视频中坠床检测的过程。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,一种基于深度视频信息的坠床行为实时检测方法,属于数字图像识别技术领域,包括:根据室内场景的深度视频,得到背景图像和前景图像,利用深度神经网络对前景图像进行检测,得到头部位置;当深度视频中连续两帧深度图像的头部位置距离小于距离阈值时,根据深度视频中连续多帧深度图像的头部位置,得到头部序列特征;利用坠床分类器对头部序列特征进行检测,判断是否发生坠床行为。本发明对坠床行为的检测不受被子等遮挡物影响,准确度高,实时性强。具体的:
(1)通过深度传感器可实时获取室内场景的深度视频,通过对深度视频中的帧进行提取,可以获得深度视频的每一帧深度图像,如图2所示。由于深度图像不受光照影响,可全天候获取数据;同时由于无需彩色图像,可有效保护用户隐私。
(2)在深度传感器安装固定后的初始化阶段,对室内场景的背景进行建模。在连续输入的n(n=90)帧深度图像,分别对深度图像中每个像素点的连续n帧的像素值进行大小排序,取其中值作为背景图像中的该位置像素点的值。由此完成背景建模,如图3所示,得到背景图像IBG。
(3)当输入的深度图像I大于第n(n=90)帧时,则开始获取前景图像IFG.通过当前帧深度图像与步骤(2)中获得的背景图像IBG,进行逐像素点比较大小,当像素值的差值大于差值阈值εBG=40mm时,则认为该像素点是前景,保留该像素点的像素值;否则,将该像素点的像素置零。如图4所示,全图像素点比较完毕后即可获得前景图像IFG。当深度图像大于第n(n=90)帧时,通过步骤(5)获得人体确认结果后,如果在该前景区域头部不被确认为人体,则将该前景区域置为背景,具体的,把该前景区域每个位置的像素值赋给背景深度图像的对应位置,更新该位置的背景图像IBG;
(4)根据步骤(3)中获取的前景图像IFG,如图5所示,可以确定头部位置xhead。在坠床过程中,头部位置变化相对明显,且在人的睡眠过程中,头部也是唯一不易被遮挡的部位,较容易进行检测。
其中,用于检测头部位置的是基于YOLO网络改进的深度神经网络。将前景图像IFG输入深度神经网络,通过网络模型进行预测,可获得一系列头部矩形框及每个头部矩形框的置信度。然后,通过非极大值抑制获得头部位置。
具体步骤如下:
(4.1)由于YOLO网络只适用于彩色图像,对于深度图像不能直接套用。则在其网络输入端前增加数据处理层,用于处理深度图像数据。对于原有数据位数为16位的单通道深度图像,通过数据处理层构建一张与输入深度图相同尺寸的8位3通道图像。具体的,将输入深度图像的所有像素值的高8位数据按照原位置放在第1通道,所有像素值的低8位数据按照原位置据放在第2通道,第3通道空闲,则构成8位三通道图像。
(4.2)制作训练数据集,收集在室内场景中人走动、坐下、躺下、起床、坠床等日常活动的样本深度图像,并人工标定所有样本深度图像中的人体位置与头部位置,共10000张。使用该数据集对头部检测深度神经网络行进训练,得到针对室内场景检测人体头部的深度神经网络。
步骤(4.1)和(4.2)是离线步骤;在开始坠床检测之前完成该网络模型的改进和训练;
(4.3)将前景图像/FG输入深度神经网络,进行预测,获得一系列头部矩形框及每个头部矩形框的置信度。
(4.4)保留步骤(4.3)得到的置信度大于εbox,且在IFG图像前景区域中的头部候选框,进一步通过非极大值抑制去掉虚景和重复的头部检测框,获得头部位置xhead。
(5)通过步骤(4)中获得头部位置,以及视频中前一帧的头部位置,可以进行人体的再确认。由于仅根据头部的检测结果,会存在部分虚景的情况。通过利用时间序列信息,前后两帧深度图像的头部位置距离要在d0=200mm范围内,若当前帧深度图像头部位置与上一帧深度图像头部位置距离小于d0=200mm,则确认该位置为人体,否则剔除该头部位置。
(6)当通过步骤(5)确定为人体后,提取通过步骤(4)获得的连续多帧的头部高度,构成头部特征。
具体步骤如下:
(6.1)通过步骤(1)获取的深度视频,由于深度图像中含有三维信息,根据每个像素点的三维信息,得到深度图像中所有像素点的法向量,分别统计指向相同方向的法向量数量,则可确定法向量数量最多的所指向的方向。由于深度传感器是俯视视角拍摄,深度图像中在重力方向的法向量最多,所以法向量数量最多的所指向的方向即为重力方向。通过对所有法向量为重力方向的点进行RANSAC平面拟合,如图6所示,即可找到地面位置。
(6.2)通过步骤(4)的头部位置,根据(6.1)得到地面位置,可得到头部中心距离地面的头部高度,连续多帧的头部高度构成头部序列特征,具体帧数为m=60;
(7)采用训练完成的坠床分类器,如图7所示,对步骤(6)得到的头部序列特征进行分类判别,判断坠床行为是否发生。
具体步骤如下:
(7.1)构建坠床行为数据集:在离线获取的视频序列中,人工标定坠床行为与非坠床行为的头部序列特征。各提取50组特征,构建坠床行为数据集,作为(7.2)坠床分类器的分类基础。
特别的,步骤(7.1)是离线步骤,在进行分类器判别和坠床检测之前,离线完成样本的获取;
(7.2)分类器判别:根据步骤(7.1)的共100组数据构建最近邻分类器作为坠床分类器。对步骤(6)输出的头部序列特征进行实时分类,判断是否发生坠床;
(7.3)坠床检测:若分类器判断为发生坠床,再检测头部中心xhead距离地面的头部高度,若头部高度预设时间10s内未变化,则判定为坠床;若在预设时间10s内头部高度恢复正常高度,则判定为正常状态。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于深度视频信息的坠床行为实时检测方法,其特征在于,包括:
(1)根据室内场景的深度视频,得到背景图像和前景图像,利用深度神经网络对前景图像进行检测,得到头部位置;
(2)当深度视频中连续两帧深度图像的头部位置距离小于距离阈值时,根据深度视频中连续多帧深度图像的头部位置,得到头部序列特征;
(3)利用坠床分类器对头部序列特征进行检测,判断是否发生坠床行为。
2.如权利要求1所述的一种基于深度视频信息的坠床行为实时检测方法,其特征在于,所述步骤(1)包括:
(1-1)从室内场景的深度视频中提取深度图像,对每个像素点在连续的n帧深度图像中的像素值进行大小排序,取其中值作为背景图像中的该像素点的像素值,得到背景图像;
(1-2)当深度图像大于第n帧时,通过当前帧深度图像与背景图像进行逐像素点比较像素值大小,当像素值的差值大于差值阈值时,则认为该像素点是前景,保留该像素点的像素值,否则,将该像素点的像素置零,进而得到当前帧的前景图像;
(1-3)利用深度神经网络对当前帧的前景图像进行检测,得到当前帧的头部位置。
3.如权利要求2所述的一种基于深度视频信息的坠床行为实时检测方法,其特征在于,所述步骤(1-2)还包括:当深度图像大于第n帧时,若深度视频中连续两帧深度图像的头部位置距离大于等于距离阈值,则将当前帧的前景区域中每个像素点的像素值赋给背景图像中的对应的像素点,更新背景图像。
4.如权利要求2所述的一种基于深度视频信息的坠床行为实时检测方法,其特征在于,所述深度神经网络为训练好的深度神经网络,所述深度神经网络的训练包括:
获取在室内场景中人走动、坐下、躺下、起床、坠床的样本深度图像,并标定所有样本深度图像中的人体位置与头部位置,得到标定后的样本深度图像,将标定后的样本深度图像转化成相同尺寸的8位3通道图像作为训练样本集;使用训练样本集对基于YOLO网络的深度神经网络行进训练,得到针对室内场景检测人体头部的训练好的深度神经网络。
5.如权利要求2所述的一种基于深度视频信息的坠床行为实时检测方法,其特征在于,所述步骤(1-3)的具体实现方式为:
将当前帧的前景图像输入深度神经网络,得到多个头部矩形框和每个头部矩形框的置信度,对于置信度大于置信阈值的头部矩形框,通过非极大值抑制去掉虚景和重复的头部检测框,得到当前帧的头部位置。
6.如权利要求1或2所述的一种基于深度视频信息的坠床行为实时检测方法,其特征在于,所述步骤(2)包括:
(2-1)连续两帧深度图像为当前帧的深度图像和前一帧的深度图像,当深度视频中连续两帧深度图像的头部位置距离小于距离阈值时,则该头部位置为人体,否则剔除该头部位置;
(2-2)获取深度视频中每帧深度图像的三维信息,根据三维信息,得到深度图像中所有像素点的法向量,对所有法向量为重力方向的像素点进行RANSAC平面拟合,得到地面位置;
(2-3)根据深度视频中连续多帧深度图像的头部位置和地面位置,得到头部中心距离地面的头部高度,连续多帧深度图像的头部高度构成头部序列特征。
7.如权利要求1或2所述的一种基于深度视频信息的坠床行为实时检测方法,其特征在于,所述步骤(3)包括:
利用坠床分类器对头部序列特征进行检测,判断是否发生坠床行为,若判断发生坠床行为,再检测头部中心距离地面的头部高度,若头部高度在预设时间范围内未变化,则判定为坠床;若在预设时间范围内头部高度恢复正常高度,则判定为正常状态。
8.如权利要求7所述的一种基于深度视频信息的坠床行为实时检测方法,其特征在于,所述坠床分类器根据坠床行为数据集构建得到,所述坠床行为数据集为对样本视频序列中的每一帧图像人工标定坠床行为与非坠床行为的头部序列特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810071513.XA CN108229421B (zh) | 2018-01-24 | 2018-01-24 | 一种基于深度视频信息的坠床行为实时检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810071513.XA CN108229421B (zh) | 2018-01-24 | 2018-01-24 | 一种基于深度视频信息的坠床行为实时检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108229421A true CN108229421A (zh) | 2018-06-29 |
CN108229421B CN108229421B (zh) | 2021-07-02 |
Family
ID=62667390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810071513.XA Active CN108229421B (zh) | 2018-01-24 | 2018-01-24 | 一种基于深度视频信息的坠床行为实时检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108229421B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886102A (zh) * | 2019-01-14 | 2019-06-14 | 华中科技大学 | 一种基于深度图像的跌倒行为时空域检测方法 |
CN110751063A (zh) * | 2019-09-29 | 2020-02-04 | 四川工商学院 | 一种基于深度学习的幼儿防踢被子识别装置及方法 |
WO2020151299A1 (zh) * | 2019-01-23 | 2020-07-30 | 平安科技(深圳)有限公司 | 黄色禁停线识别方法、装置、计算机设备及存储介质 |
CN115205982A (zh) * | 2022-09-08 | 2022-10-18 | 深圳市维海德技术股份有限公司 | 起立跟踪检测方法、电子设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729614A (zh) * | 2012-10-16 | 2014-04-16 | 上海唐里信息技术有限公司 | 基于视频图像的人物识别方法及人物识别装置 |
EP2763116A1 (en) * | 2013-02-01 | 2014-08-06 | FamilyEye BVBA | Fall detection system and method for detecting a fall of a monitored person |
CN104156936A (zh) * | 2013-05-13 | 2014-11-19 | 浙江大华技术股份有限公司 | 一种电弧检测方法及装置 |
CN105868707A (zh) * | 2016-03-28 | 2016-08-17 | 华中科技大学 | 一种基于深度图像信息的坠床行为实时检测方法 |
-
2018
- 2018-01-24 CN CN201810071513.XA patent/CN108229421B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729614A (zh) * | 2012-10-16 | 2014-04-16 | 上海唐里信息技术有限公司 | 基于视频图像的人物识别方法及人物识别装置 |
EP2763116A1 (en) * | 2013-02-01 | 2014-08-06 | FamilyEye BVBA | Fall detection system and method for detecting a fall of a monitored person |
CN104156936A (zh) * | 2013-05-13 | 2014-11-19 | 浙江大华技术股份有限公司 | 一种电弧检测方法及装置 |
CN105868707A (zh) * | 2016-03-28 | 2016-08-17 | 华中科技大学 | 一种基于深度图像信息的坠床行为实时检测方法 |
Non-Patent Citations (3)
Title |
---|
MICHAEL VOLKHARDT ETAL.: "Fallen Person Detection for Mobile Robots using 3D Depth Data", 《2013 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS》 * |
杨森等: "基于改进可变形部件模型与判别模型的葡萄叶片检测与跟踪", 《农业工程学报》 * |
聂静: "复杂环境下的快速人头检测系统的设计与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886102A (zh) * | 2019-01-14 | 2019-06-14 | 华中科技大学 | 一种基于深度图像的跌倒行为时空域检测方法 |
WO2020151299A1 (zh) * | 2019-01-23 | 2020-07-30 | 平安科技(深圳)有限公司 | 黄色禁停线识别方法、装置、计算机设备及存储介质 |
CN110751063A (zh) * | 2019-09-29 | 2020-02-04 | 四川工商学院 | 一种基于深度学习的幼儿防踢被子识别装置及方法 |
CN115205982A (zh) * | 2022-09-08 | 2022-10-18 | 深圳市维海德技术股份有限公司 | 起立跟踪检测方法、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108229421B (zh) | 2021-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112216049B (zh) | 一种基于图像识别的施工警戒区监测预警系统及方法 | |
CN105447529B (zh) | 一种服饰检测及其属性值识别的方法和系统 | |
CN105279483B (zh) | 一种基于深度图像的跌倒行为实时检测方法 | |
CN108229421A (zh) | 一种基于深度视频信息的坠床行为实时检测方法 | |
CN107657244B (zh) | 一种基于多摄像机的人体跌倒行为检测系统及其检测方法 | |
CN102609724B (zh) | 一种基于双摄像头的周围环境信息提示方法 | |
CN109118479A (zh) | 基于胶囊网络的绝缘子缺陷识别定位装置及方法 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
CN112183472A (zh) | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 | |
CN108629316A (zh) | 一种多视角的视频异常事件检测方法 | |
CN109448326B (zh) | 一种基于快速图像识别的地质灾害智能群防监测系统 | |
CN107886507B (zh) | 一种基于图像背景和空间位置的显著区域检测方法 | |
CN105930795A (zh) | 一种基于人体骨骼关节点间空间向量的行走状态识别方法 | |
CN107301375A (zh) | 一种基于稠密光流的视频图像烟雾检测方法 | |
CN100565557C (zh) | 基于粒子动态采样模型的红外人体目标跟踪系统 | |
CN108898108B (zh) | 一种基于扫地机器人的用户异常行为监测系统及方法 | |
CN113111767A (zh) | 一种基于深度学习3d姿态评估的跌倒检测方法 | |
CN105022999A (zh) | 一种人码伴随实时采集系统 | |
CN110363742A (zh) | 一种基于cnn和图像处理的转辙机缺口检测方法 | |
CN105893962A (zh) | 一种机场安检卡口人流统计方法 | |
CN104463869A (zh) | 一种视频火焰图像复合识别方法 | |
CN110490150A (zh) | 一种基于车辆检索的违章图片自动审核系统及方法 | |
CN112270381A (zh) | 基于深度学习的人流量检测方法 | |
CN110006444A (zh) | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 | |
CN108898098A (zh) | 基于监控平台的早期视频烟雾检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |