CN108960067B - 基于深度学习的实时的列车驾驶员动作识别系统和方法 - Google Patents
基于深度学习的实时的列车驾驶员动作识别系统和方法 Download PDFInfo
- Publication number
- CN108960067B CN108960067B CN201810567349.1A CN201810567349A CN108960067B CN 108960067 B CN108960067 B CN 108960067B CN 201810567349 A CN201810567349 A CN 201810567349A CN 108960067 B CN108960067 B CN 108960067B
- Authority
- CN
- China
- Prior art keywords
- action
- driver
- module
- action recognition
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
Abstract
本发明提供了一种基于深度学习的实时的列车驾驶员动作识别系统,包括:摄像头采集模块,驾驶员关键部位检测模块,物体检测模块,动作匹配模块,监控预警模块,监控记录模块;其中动作匹配模块包括人类自身动作识别模块,人类环境交互动作识别模块。该系统使用深度卷积神经网络进行物体、人体检测,具有较强的泛化能力,对驾驶室内的物体和驾驶员的识别非常准确。同时动作模板经过离线数据的分析与建模,非常精准地捕捉了动作的特定规律和运动范围,从而可以精确地匹配驾驶员的动作。
Description
技术领域
本发明涉及一种列车驾驶技术,尤其涉及一种基于深度学习的实时的列车驾驶员动作识别嵌入式系统和识别方法。
现有技术
火车司机在驾驶过程中操作规范与否关系到列车行车安全,目前列车驾驶室装备6A系统,可以以列车运行过程中火车司机的行为以视频形式存储到SD卡中,列车到站之后,再由铁路工作人员人工检查视频中是否存在列车司机操作不当之处,而在列车行驶过程中,无法实时判别司机操作是否合乎规范,也就无法有效保证列车安全可靠地运行。因此,在列车司机驾驶的同时,实现6A系统对于司机操作动作的分析,实时判别操作规范与否的需求越来越迫切。
司机动作识别是计算机视觉的重难点问题之一。一些传统的方法,比如基于Haar级联特征或者梯度直方图+支持向量机等多种方法,都存在准确率较低的问题。而随着深度学习的发展,神经网络对人的检测已经有了非常大的提升。物体检测模型YOLO(You OnlyLook Once)可以非常迅速而准确地检测出图像或视频中的人。但是YOLO只是检测出人在图像中的相对位置,并没有识别出人类的身体部位和动作。而神经网络对于人类身体部位的检测准确率也已经大幅提升,比如CMU的OpenPose,在较高的硬件配置下可以实时地非常准确地识别出人类的多个身体部位。但是直接使用OpenPose来识别驾驶员动作主要存在两个问题:1.对硬件的要求很高,难以应用到嵌入式设备中,无法移植到列车驾驶室的6A系统中上。2.OpenPose只是识别了人体的关键节点,并没有对特定动作的识别。
发明内容
本发明的目的是提供基于深度学习的实时的列车驾驶员动作识别嵌入式系统,并使用深度卷积神经网络对驾驶室内的物体和驾驶员实现准确的识别。同时,通过动作模板经过离线数据的分析与建模,捕捉动作的特定规律和运动范围,从而可以精确地匹配驾驶员的动作。
本发明的技术方案是提供了一种基于深度学习的实时的列车驾驶员动作识别系统,包括:摄像头采集模块,驾驶员关键部位检测模块,物体检测模块,动作匹配模块,监控预警模块,监控记录模块;其中动作匹配模块包括人类自身动作识别模块,人类环境交互动作识别模块;其特征在于:
摄像头采集模块用于采集驾驶室的监控画面;
驾驶员关键部位检测模块用于对画面中的司机,司机的头部和面部,司机的手部位置进行检测;
物体检测模块用于对驾驶室内关键物体,包括电话、司控器、机车操作显示屏、驾驶台的位置进行检测;
动作匹配模块利用物体检测模块检测到的物体位置信息,使用动作模板匹配的方法进行驾驶员动作识别,并将识别出的动作输出;
动作匹配模块包括人类自身动作识别模块和人类环境交互动作识别模块,其中,人类自身动作识别模块用于识别驾驶员自身的动作,人类环境交互动作识别模块用于识别驾驶员与环境交互的动作;
监控预警模块根据动作匹配模块输出的动作信息进行监控预警,而监控记录模块对实时监控的动作进行记录存储;其中,对驾驶员关键部位检测模块和物体检测模块进行离线深度学习进行训练。
进一步地,人类自身动作包括坐着、站着或打手势。
进一步地,识别驾驶员与环境交互的动作包括打电话或操作屏幕。
进一步地,使用前面训练得到的检测模型直接检测出驾驶员,及其头部,手部和驾驶室内的关键目标作为动作识别模块的输入。
该发明还提供了一种基于深度学习的实时的列车驾驶员动作识别系统进行列车驾驶员动作识别的方法,其特征在于:包括以下步骤:
步骤1、从摄像头采集监控画面;
步骤2、使用改进的tiny-yolo神经网络对驾驶员的关键部位和驾驶室的关键物体进行检测,并将将检测结果输出到动作识别模块中;
步骤3、对驾驶员自身的动作进行识别,该步骤中将驾驶员关键部位的检测结果利用空间的相互位置关系与动作模板库里的动作模板进行匹配;
步骤4、对驾驶员与环境交互的动作进行识别,该步骤中将驾驶员的关键部位与物体检测模型输出的关键物体位置进行比较,如果位置重合就识别出相应动作。
本发明的有益效果在于:
1、检测速度快。改进的YOLO神经网络结构使得网络层数显著减小,前向传播时间减少,而动作识别模块使用了动作模板匹配的方式,时间消耗几乎可以忽略不计。
2、动作识别准确。使用深度卷积神经网络进行物体、人体检测,具有较强的泛化能力,对驾驶室内的物体和驾驶员的识别非常准确。而动作模板经过离线数据的分析与建模,非常精准地捕捉了动作的特定规律和运动范围,从而可以精确地匹配驾驶员的动作。
3、较强的鲁棒性。自己训练的深度学习模型YOLO对驾驶室检测的结果非常稳定,对光照和摄像角度都不敏感,而动作模板的匹配具有通用性,只要神经网络检测出的结果正确,就可以保证动作检测的鲁棒性。
4、对计算资源和内存的消耗小,适合部署在嵌入式系统中。
附图说明
图1是本发明所述的系统模块结构图;
图2是本发明所述的驾驶员关键部位检测模块和物体检测模块的骨干网络结构;
图3是本发明所述的检测模型的离线训练方法。
具体实施方式
以下结合附图对本发明的技术方案进行详细说明。
如图1所示,该实施例提供了一种基于深度学习的实时的列车驾驶员动作识别系统,包括:摄像头采集模块,驾驶员关键部位检测模块,物体检测模块,动作匹配模块,监控预警模块,监控记录模块;其中动作匹配模块包括人类自身动作识别模块,人类环境交互动作识别模块
首先摄像头采集模块采集驾驶室的监控画面;
驾驶员关键部位检测模块对画面中的司机,司机的头部和面部,司机的手部位置进行检测;
物体检测模块对驾驶室内关键物体,包括电话,司控器,机车操作显示屏,驾驶台的位置进行检测;
动作匹配模块利用物体检测模块检测到的物体位置信息,使用动作模板匹配的方法进行驾驶员动作识别,并将识别出的动作输出。
动作匹配模块包括人类自身动作识别模块和人类环境交互动作识别模块。
人类自身动作识别模块可以识别驾驶员自身的动作,例如坐着,站着,打手势等;人类环境交互动作识别模块可以识别驾驶员与环境交互的动作,例如挂档,打电话,操作屏幕等。
监控预警模块根据动作匹配模块输出的动作信息进行监控预警,而监控记录模块对实时监控的动作进行记录存储。其中,对驾驶员关键部位检测模块和物体检测模块进行离线深度学习进行训练。
为了更好地理解本发明,该实施例对驾驶员关键部位模块和物体检测模块的神经网络结构和检测原理进行说明。
如图2所示,该实施例提供了驾驶员关键部位检测模块和物体检测模块的骨干网络结构。
首先将图像进行尺度缩放至224x224像素大小,再输入网络进行训练。使用3x3的卷积核,步长为1,并将补零宽度设置为1,从而保证每个卷积层的输出特征图尺寸与输入图像一样,使用2x2的最大池化层进行降采样,将底层的图像信息逐层汇总到高层的结构信息,并在每层间使用渗漏纠正线性单元(leakyReLU)函数作为激活函数,相比纠正线性单元(ReLU)函数增加了激活函数的平滑性,保护了负数输出的梯度不会消失。通过连续的卷积层和最大池化层对图像进行特征提取,在每个卷积层前加入批量归一化(batch_normalization)进行归一化,训练过程中会不断优化网络参数提升效果,并输出特征图。
然后将特征图分成7x7的区域,对每块区域是否包含物体的概率进行学习,同时在每块区域内生成若干个锚框(anchor box),学习假设锚框包含物体的前提下该物体所属类别的条件概率,计算联合概率,从而得到一个7x7x30的。张量,然后使用非最大值去除技术滤去多余的锚框,最后对损失函数计算梯度反向传播训练即可学习待检测目标在图像中的位置和类别。
为了更好地理解本发明,该实施例该实例对驾驶员关键部位检测模块和物体检测模块训练和检测流程进行说明。
将PASCAL VOC 2012数据集混合自己标注的驾驶舱监控视频数据重新训练神经网络,该神经网络采用逐帧检测的方法,对人,人的头部,人的手掌,机车屏幕,司控器,电话等目标进行检测,将检测结果输出到动作识别模块中。
为了更好地理解本发明,该实施例对人类自身动作识别模块和人类环境交互动作识别模块进行说明。
使用前面驾驶员关键部位检测模块和物体检测模块训练得到的检测模型直接检测出驾驶员,及其头部,手部和驾驶室内的关键目标作为动作识别模块的输入。
人类自身动作识别模块将驾驶员关键部位的检测结果利用空间的相互位置关系与动作模板库里的动作模板进行匹配(Human Pose Template Matching)。这种动作识别模型不需要训练,因为驾驶员操作动作规范中只有有限个可枚举的动作,所以针对这些动作的数据进行分析和建模,可以捕捉到动作的特征规律和运动关系,提炼出动作模板,运行时只需要根据这些模板匹配即可。
人类环境交互动作识别模块将驾驶员的关键部位与物体检测模型输出的关键物体位置进行比较,如果位置重合就识别出相应动作。例如驾驶员的手部与电话重合,则识别为打电话动作。
本发明还提供了一种基于深度学习的实时的列车驾驶员动作识别方法,包括以下步骤:
步骤1、从摄像头采集监控画面;
在该步骤1中,可以使用任何摄像头采集驾驶室的RGB图片。
步骤2、使用改进的tiny-yolo神经网络对驾驶员的关键部位和驾驶室的关键物体进行检测,并将将检测结果输出到动作识别模块中;
在该步骤2中,检测模型需要使用深度学习进行离线训练。我们将PASCAL VOC2012数据集混合自己标注的驾驶舱监控视频数据重新训练神经网络,该神经网络采用逐帧检测的方法,对人,人的头部,人的手掌,机车屏幕,司控器,电话等目标进行检测,将检测结果输出到动作识别模块中。训练方法如图3所示。
改进的tiny-yolo的骨干网络结构如图2所示,首先将图像进行尺度缩放至224x224像素大小,再输入网络进行训练。使用3x3的卷积核,步长为1,并将补零宽度设置为1,从而保证每个卷积层的输出特征图尺寸与输入图像一样,使用2x2的最大池化层进行降采样,将底层的图像信息逐层汇总到高层的结构信息,并在每层间使用渗漏纠正线性单元(leakyReLU)函数作为激活函数,相比纠正线性单元(ReLU)函数增加了激活函数的平滑性,保护了负数输出的梯度不会消失。通过连续的卷积层和最大池化层对图像进行特征提取,在每个卷积层前加入批量归一化(batch_normalization)进行归一化,训练过程中会不断优化网络参数提升效果,并输出特征图。然后将特征图分成7x7的区域,对每块区域是否包含物体的概率进行学习,同时在每块区域内生成若干个锚框(anchor box),学习假设锚框包含物体的前提下该物体所属类别的条件概率,计算联合概率,从而得到一个7x7x30的张量,然后使用非最大值去除技术滤去多余的锚框,最后对损失函数计算梯度反向传播训练即可学习待检测目标在图像中的位置和类别。
步骤3、对驾驶员自身的动作进行识别
该步骤3中,将驾驶员关键部位的检测结果利用空间的相互位置关系与动作模板库里的动作模板进行匹配(Human Pose Template Matching)。接下来将描述动作模板库的建立和匹配方法:
动作模板以规则集合约束为基础,模板坐标系的原点在左上角,水平向右为x轴正方向,竖直向下为y轴正方向,下面分为几类动作模板(Human Pose Template)说明:
例如:打手势
使用深度网络检测出的驾驶员头部,手部以及驾驶员本身,将它们的检测框坐标作为输入,以检测目标的框中心作为检测目标的中心,设驾驶员手的中心为handcenter,设驾驶员头的中心为headcenter,驾驶员在挥手时他的框的宽度为dwidth,框的高度为dheight,对于驾驶员的打手势动作应当满足如下关系
1)水平方向
||handcenter.x-headcenter.x||≥dwidth*α
经过分析大量视频数据,当摄像头在驾驶员的侧面时,α的值取为0.4有较好的识别效果。
2)竖直方向
当驾驶员打出比较标准的手势时应满足
handcenter.y-headcenter.y≤dheight*β
经分析,当摄像头在驾驶员的侧方时,β取为0.125效果较好。
另外,驾驶员经常会打出不标准的手势,此时应满足
当水平方向和竖直方向均满足如上规则时,认为动作与此模板匹配。
例如:站立,坐着
根据检测出的整个人的高度,与整个驾驶室和座位的高度来比对,从而完成站立和坐着的动作匹配。
步骤4、对驾驶员与环境交互的动作进行识别
该步骤4中,将驾驶员的关键部位与物体检测模型输出的关键物体位置进行比较,如果位置重合就识别出相应动作。具体方法如下
例如:操作机车屏幕,挂挡
步骤2中已经检测出机车屏幕和司控器以及司机手部的位置,所以只需要判断手的位置是否进入机车屏幕和司控器的区域,从而完成与对应动作模板的匹配。
例如:打电话
因为这个动作需要多帧联合检测,所以模板规则较为复杂。当驾驶员拿起电话时认为开始打电话,将电话放回初始位置认为挂断电话。因为电话在驾驶室的位置是固定的,所以驾驶员的手第一次进入对讲机的框内为拿起电话,记录电话的初始位置,第二次进入初始位置为放下电话。在拿起电话和放下电话这两个动作之间的时间内都认为在打电话。
在这个过程中,拿起电话是需要时间的,即使这个时间很短,也会超过一帧,而这些连续帧会对多帧联合检测造成干扰。所以在第一次检测到驾驶员的手进入电话的框内时,需要设定一段延迟时间。这段时间内都不再检测手是否进入电话的框。当这段延迟过了之后,就认为驾驶员已经把电话拿起来了,这时候开始打电话,当手再次进入电话的初始位置的框内,就认为驾驶员已经放下电话,经过一段延迟时间后就认为通话结束。经过分析数据,延迟时间设置为30帧。
Claims (5)
1.一种基于深度学习的实时的列车驾驶员动作识别系统,包括:摄像头采集模块,驾驶员关键部位检测模块,物体检测模块,动作匹配模块,监控预警模块,监控记录模块;其中动作匹配模块包括人类自身动作识别模块,人类环境交互动作识别模块;其特征在于:
摄像头采集模块用于采集驾驶室的监控画面;
驾驶员关键部位检测模块用于对画面中的司机,司机的头部和面部,司机的手部位置进行检测;
物体检测模块用于对驾驶室内关键物体,包括电话、司控器、机车操作显示屏、驾驶台的位置进行检测;
动作匹配模块利用物体检测模块检测到的物体位置信息,使用动作模板匹配的方法进行驾驶员动作识别,并将识别出的动作输出;
动作匹配模块包括人类自身动作识别模块和人类环境交互动作识别模块,其中,人类自身动作识别模块用于识别驾驶员自身的动作,人类环境交互动作识别模块用于识别驾驶员与环境交互的动作;
监控预警模块根据动作匹配模块输出的动作信息进行监控预警,而监控记录模块对实时监控的动作进行记录存储;其中,对驾驶员关键部位检测模块和物体检测模块进行离线深度学习进行训练。
2.根据权利要求1所述的一种基于深度学习的实时的列车驾驶员动作识别系统,其特征在于:人类自身动作包括坐着、站着或打手势。
3.根据权利要求1所述的一种基于深度学习的实时的列车驾驶员动作识别系统,其特征在于:识别驾驶员与环境交互的动作包括打电话或操作屏幕。
4.根据权利要求1所述的一种基于深度学习的实时的列车驾驶员动作识别系统,其特征在于:使用前面训练得到的检测模型直接检测出驾驶员,及其头部,手部和驾驶室内的关键目标作为动作识别模块的输入。
5.一种利用权利要求1所述的基于深度学习的实时的列车驾驶员动作识别系统进行列车驾驶员动作识别的方法,其特征在于:包括以下步骤:
步骤1、从摄像头采集监控画面;
步骤2、使用改进的tiny-yolo神经网络对驾驶员的关键部位和驾驶室的关键物体进行检测,并将将检测结果输出到动作识别模块中;
步骤3、对驾驶员自身的动作进行识别,该步骤中将驾驶员关键部位的检测结果利用空间的相互位置关系与动作模板库里的动作模板进行匹配;
步骤4、对驾驶员与环境交互的动作进行识别,该步骤中将驾驶员的关键部位与物体检测模型输出的关键物体位置进行比较,如果位置重合就识别出相应动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810567349.1A CN108960067B (zh) | 2018-06-05 | 2018-06-05 | 基于深度学习的实时的列车驾驶员动作识别系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810567349.1A CN108960067B (zh) | 2018-06-05 | 2018-06-05 | 基于深度学习的实时的列车驾驶员动作识别系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108960067A CN108960067A (zh) | 2018-12-07 |
CN108960067B true CN108960067B (zh) | 2021-04-13 |
Family
ID=64493558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810567349.1A Active CN108960067B (zh) | 2018-06-05 | 2018-06-05 | 基于深度学习的实时的列车驾驶员动作识别系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960067B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740454A (zh) * | 2018-12-19 | 2019-05-10 | 贵州大学 | 一种基于yolo-v3的人体体态识别方法 |
CN110163084A (zh) * | 2019-04-08 | 2019-08-23 | 睿视智觉(厦门)科技有限公司 | 操作员动作监督方法、装置及电子设备 |
WO2020215241A1 (zh) | 2019-04-24 | 2020-10-29 | 江南大学 | 一种面向计算资源局限平台部署的实时目标检测的方法 |
CN110298994A (zh) * | 2019-07-01 | 2019-10-01 | 南京派光智慧感知信息技术有限公司 | 一种轨道列车驾驶员行为综合监测警示系统 |
CN110544360B (zh) * | 2019-08-07 | 2022-04-08 | 北京全路通信信号研究设计院集团有限公司 | 一种列车安全驾驶监测系统及方法 |
CN110472549A (zh) * | 2019-08-09 | 2019-11-19 | 紫荆智维智能科技研究院(重庆)有限公司 | 基于车载gpu加速的列车驾驶员动作实时识别系统及方法 |
CN110618635A (zh) * | 2019-10-08 | 2019-12-27 | 中兴飞流信息科技有限公司 | 一种基于ai技术的列车驾驶室作业规范监测系统 |
CN111325160B (zh) * | 2020-02-25 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN112017384A (zh) * | 2020-08-05 | 2020-12-01 | 山东大学 | 一种区域实时监控自动报警方法及系统 |
CN112800854A (zh) * | 2021-01-04 | 2021-05-14 | 中南大学 | 一种基于图像的机车乘务员作业自动分析系统 |
CN112861677A (zh) * | 2021-01-28 | 2021-05-28 | 上海商汤临港智能科技有限公司 | 轨交驾驶员的动作检测方法及装置、设备、介质及工具 |
CN112966589A (zh) * | 2021-03-03 | 2021-06-15 | 中润油联天下网络科技有限公司 | 一种在危险区域的行为识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106941602A (zh) * | 2017-03-07 | 2017-07-11 | 中国铁道科学研究院 | 机车司机行为识别方法、装置及系统 |
CN107126224A (zh) * | 2017-06-20 | 2017-09-05 | 中南大学 | 一种基于Kinect的轨道列车驾驶员状态的实时监测和预警方法与系统 |
CN107492251A (zh) * | 2017-08-23 | 2017-12-19 | 武汉大学 | 一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101159847B1 (ko) * | 2005-01-20 | 2012-06-25 | 삼성전자주식회사 | 졸음운전 감지용 얼굴 검출 정규화 장치 및 방법 |
-
2018
- 2018-06-05 CN CN201810567349.1A patent/CN108960067B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106941602A (zh) * | 2017-03-07 | 2017-07-11 | 中国铁道科学研究院 | 机车司机行为识别方法、装置及系统 |
CN107126224A (zh) * | 2017-06-20 | 2017-09-05 | 中南大学 | 一种基于Kinect的轨道列车驾驶员状态的实时监测和预警方法与系统 |
CN107492251A (zh) * | 2017-08-23 | 2017-12-19 | 武汉大学 | 一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108960067A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960067B (zh) | 基于深度学习的实时的列车驾驶员动作识别系统和方法 | |
US7680295B2 (en) | Hand-gesture based interface apparatus | |
CN102831439B (zh) | 手势跟踪方法及系统 | |
KR20110003146A (ko) | 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법 | |
JP5598751B2 (ja) | 動作認識装置 | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
WO2022252642A1 (zh) | 基于视频图像的行为姿态检测方法、装置、设备及介质 | |
CN106200971A (zh) | 基于手势识别的人机交互系统装置及操作方法 | |
CN109325408A (zh) | 一种手势判断方法及存储介质 | |
CN106814853A (zh) | 一种基于机器学习的眼控跟踪方法 | |
CN113869276B (zh) | 基于微表情的谎言识别方法及系统 | |
CN107374630A (zh) | 一种医疗检测系统患者床位置的控制方法和装置 | |
CN106778574A (zh) | 用于人脸图像的检测方法和装置 | |
CN111241922B (zh) | 一种机器人及其控制方法、计算机可读存储介质 | |
CN112507918A (zh) | 一种手势识别方法 | |
CN114155610B (zh) | 基于上半身姿态估计的面板装配关键动作识别方法 | |
KR101344851B1 (ko) | 영상처리장치 및 영상처리방법 | |
KR100553850B1 (ko) | 얼굴인식/표정인식 시스템 및 방법 | |
CN116261742A (zh) | 信息处理装置及信息处理方法 | |
CN114332927A (zh) | 课堂举手行为检测方法、系统、计算机设备和存储介质 | |
KR20100121817A (ko) | 눈의 영역을 추적하는 방법 | |
CN111813995A (zh) | 一种基于时空关系的行人提取物品行为检测方法及系统 | |
CN110826495A (zh) | 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统 | |
CN110825218A (zh) | 用于执行手势检测的系统和设备 | |
CN115546825A (zh) | 一种安检规范性自动监测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |