CN111444827B - 一种智能动态行为分析的方法 - Google Patents
一种智能动态行为分析的方法 Download PDFInfo
- Publication number
- CN111444827B CN111444827B CN202010219166.8A CN202010219166A CN111444827B CN 111444827 B CN111444827 B CN 111444827B CN 202010219166 A CN202010219166 A CN 202010219166A CN 111444827 B CN111444827 B CN 111444827B
- Authority
- CN
- China
- Prior art keywords
- behavior
- user
- image information
- information
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供一种智能动态行为分析的方法,其操作流程如下:A、用户将本人身份证放至行为分析设备的身份证识别器识别区域内,接着用户通过身份证实名认证后进入系统登录界面,并点击系统界面的开始分析单元;B、用户预先穿戴动作捕捉传感器,接着用户相继根据行为分析设备的提示音站在人脸识别摄像头和电子行为感应器的正前方。本发明通过步骤A、步骤B、步骤C、步骤D、步骤E、步骤F和步骤G一系列操作流程的配合,可分别对用户的动作图像信息、脸部表情信息和规划行为特征信息进行多组采集,同时对采集的信息进行表情、动作以及行为特征多维度分析比对,从而直接增强行为分析方法的分析精准度。
Description
技术领域
本发明涉及行为分析领域,尤其涉及一种智能动态行为分析的方法。
背景技术
人体在运动过程中,是通过肢体的协同配合达到一系列动作的实现,比如学习洗手:打开水龙头----淋湿双手----拿肥皂----抹肥皂----把肥皂放回原位----搓手(搓手心----交叉搓手背)----用水冲洗双手----清洗手心、手背----关水龙头----把手擦干,而且肢体动作的过程都是连续的。
随着现在科技的发展,现在很多高端智能市场出现了行为分析设备,然而现有的行为分析方法在分析过程中,精准度较低,不可对用户做出的多种表情、动作以及行为特征进行多维度分析比对,从而易造成行为分析方法在分析过程中出现较大的安全漏洞,易对使用方造成严重的经济损失和维护后果。
因此,有必要提供一种智能动态行为分析的方法解决上述技术问题。
发明内容
本发明提供一种智能动态行为分析的方法,解决了现有行为分析方法在分析过程中,精准度较低,不可对用户做出多种表情、动作以及行为特征进行多维度分析比对的问题。为解决上述技术问题,本发明提供的一种智能动态行为分析的方法,其操作流程如下:
A、用户将本人身份证放至行为分析设备的身份证识别器识别区域内,接着用户通过身份证实名认证后进入系统登录界面,并点击系统界面的开始分析单元;
B、用户预先穿戴动作捕捉传感器,接着用户相继根据行为分析设备的提示音站在人脸识别摄像头和电子行为感应器的正前方;
C、接着单片机分别对用户的动作图像信息、脸部表情信息和规划行为特征信息进行处理,并发送至行为数据采集模块;
D、接着行为数据采集模块将采集的图像信息、脸部表情信息和规划行为特征信息输入云计算数据库内,并由行为识别器进行行为识别;
E、再由图片过滤器对采集的图像信息进行过滤,去除模糊、重叠以及不完整的图像照片,留下清晰和完整度较高的图像照片,接着再将图像信息输入行为分析模块进行分析,以云计算数据库内的原始图像信息为判断依据,对采集的用户图像信息进行分别进行表情、动作以及行为特征比对;
F、若图像信息和云计算数据库内的原始图像信息匹配成功时,则结束行为分析,并由安保人员带领用户进入下一步流程,同时用户采集的图像信息由显示模块控制触摸显示屏进行显示,再由安保人员手动放大触摸显示屏上的用户图像照片,并对用户进行真人比对,从而安保人员对用户进行最后人工确认;
G、若图像信息和云计算数据库内的原始图像信息匹配失败时,则单片机通过警报模块控制蜂鸣器开启,并对周边安保人员进行听觉警示,从而便于安保人员采集相应询问以及应急措施。
优选的,所述在步骤B中,用户穿戴的动作捕捉传感器包括手指、关节部以及头部,且动作捕捉传感器的捕捉方式为三维光学多维捕捉。
优选的,所述在步骤C中,行为数据采集模块分别对动作图像信息、脸部表情信息和规划行为特征信息采集的次数至少为6次,且6次动作图像、脸部表情以及规划行为特征均不相同。
优选的,所述在步骤D中,云计算数据库包括监控模块和存储模块,且监控模块所用的监控摄像头数量至少为4个,且存储模块的覆盖更新周期为半个月。
优选的,所述在步骤E中,表情比对单元的比对依据为用户向人脸识别传感器做出的“喜”、“怒”、“哀”、“乐”、“愁”和“苦”六种表情。
优选的,所述在步骤E中,动作比对单元的比对依据为用户穿戴动作捕捉传感器做出的“蹦”、“跳”、“走”、“蹲”、“俯”和“躺”六组动作。
优选的,所述在步骤E中,行为特征比对单元的比对依据为用户向电子行为传感器做出的“上抬头”、“下抬头”、“左摇头”、“右摇头”、“眨眨眼”和“微笑”六组行为特征。
与相关技术相比较,本发明提供的智能动态行为分析的方法具有如下有益效果:
本发明提供一种智能动态行为分析的方法,
1、本发明通过步骤A、步骤B、步骤C、步骤D、步骤E、步骤F和步骤G一系列操作流程的配合,可分别对用户的动作图像信息、脸部表情信息和规划行为特征信息进行多组采集,同时对采集的信息进行表情、动作以及行为特征多维度分析比对,从而直接增强行为分析方法的分析精准度,防止不法分子攻击漏洞给使用方造成较大的经济损失;
2、本发明通过动作捕捉传感器包括手指、关节部以及头部,可对用户的肢体实现全覆盖,进一步增强用户动作图像信息采集的全面性和精准性,通过6次动作图像、脸部表情以及规划行为特征均不相同,防止动作图像信息、脸部表情信息和规划行为特征信息采集的数据出现重叠或错误,进一步降低行为分析方法信息的采集出错率,通过监控模块所用的监控摄像头数量至少为4个,可对分析设备现场的四周进行无死角监控拍摄,防止投机分子采取不正规手段蒙混过关,通过存储模块的覆盖更新周期为半个月,增强云计算数据库的更新速率,避免云计算数据库内部信息出现迟滞,通过“喜”、“怒”、“哀”、“乐”、“愁”和“苦”六种表情,增强表情比对单元的比对依据多样性和精准率,通过“蹦”、“跳”、“走”、“蹲”、“俯”和“躺”六组动作,增强动作比对单元的比对依据多样性和精准率,通过“上抬头”、“下抬头”、“左摇头”、“右摇头”、“眨眨眼”和“微笑”六组行为特征,可对用户行为特征细节进行多样性获取,增强行为特征比对单元的比对精准度。
附图说明
图1为本发明提供的智能动态行为分析的方法的一种较佳实施例的系统原理图;
图2为图1所示方法流程图。
具体实施方式
下面结合附图和实施方式对本发明作进一步说明。
请结合参阅图1和图2,其中图1为本发明提供的智能动态行为分析的方法的一种较佳实施例的系统原理图,图2为图1所示方法流程图。一种智能动态行为分析的方法,其操作流程如下:
A、用户将本人身份证放至行为分析设备的身份证识别器识别区域内,接着用户通过身份证实名认证后进入系统登录界面,并点击系统界面的开始分析单元;
B、用户预先穿戴动作捕捉传感器,接着用户相继根据行为分析设备的提示音站在人脸识别摄像头和电子行为感应器的正前方;
C、接着单片机分别对用户的动作图像信息、脸部表情信息和规划行为特征信息进行处理,并发送至行为数据采集模块;
D、接着行为数据采集模块将采集的图像信息、脸部表情信息和规划行为特征信息输入云计算数据库内,并由行为识别器进行行为识别;
E、再由图片过滤器对采集的图像信息进行过滤,去除模糊、重叠以及不完整的图像照片,留下清晰和完整度较高的图像照片,接着再将图像信息输入行为分析模块进行分析,以云计算数据库内的原始图像信息为判断依据,对采集的用户图像信息进行分别进行表情、动作以及行为特征比对;
F、若图像信息和云计算数据库内的原始图像信息匹配成功时,则结束行为分析,并由安保人员带领用户进入下一步流程,同时用户采集的图像信息由显示模块控制触摸显示屏进行显示,再由安保人员手动放大触摸显示屏上的用户图像照片,并对用户进行真人比对,从而安保人员对用户进行最后人工确认;
G、若图像信息和云计算数据库内的原始图像信息匹配失败时,则单片机通过警报模块控制蜂鸣器开启,并对周边安保人员进行听觉警示,从而便于安保人员采集相应询问以及应急措施。
所述在步骤B中,用户穿戴的动作捕捉传感器包括手指、关节部以及头部,且动作捕捉传感器的捕捉方式为三维光学多维捕捉,可对用户的肢体实现全覆盖,进一步增强用户动作图像信息采集的全面性和精准性。
所述在步骤C中,行为数据采集模块分别对动作图像信息、脸部表情信息和规划行为特征信息采集的次数至少为6次,且6次动作图像、脸部表情以及规划行为特征均不相同,防止动作图像信息、脸部表情信息和规划行为特征信息采集的数据出现重叠或错误,进一步降低行为分析方法信息的采集出错率。
所述在步骤D中,云计算数据库包括监控模块和存储模块,且监控模块所用的监控摄像头数量至少为4个,可对分析设备现场的四周进行无死角监控拍摄,防止投机分子采取不正规手段蒙混过关,且存储模块的覆盖更新周期为半个月,增强云计算数据库的更新速率,避免云计算数据库内部信息出现迟滞。
所述在步骤E中,表情比对单元的比对依据为用户向人脸识别传感器做出的“喜”、“怒”、“哀”、“乐”、“愁”和“苦”六种表情,增强表情比对单元的比对依据多样性和精准率。
所述在步骤E中,动作比对单元的比对依据为用户穿戴动作捕捉传感器做出的“蹦”、“跳”、“走”、“蹲”、“俯”和“躺”六组动作,增强动作比对单元的比对依据多样性和精准率。
所述在步骤E中,行为特征比对单元的比对依据为用户向电子行为传感器做出的“上抬头”、“下抬头”、“左摇头”、“右摇头”、“眨眨眼”和“微笑”六组行为特征,可对用户行为特征细节进行多样性获取,增强行为特征比对单元的比对精准度。
与相关技术相比较,本发明提供的智能动态行为分析的方法具有如下有益效果:
本发明通过步骤A、步骤B、步骤C、步骤D、步骤E、步骤F和步骤G一系列操作流程的配合,可分别对用户的动作图像信息、脸部表情信息和规划行为特征信息进行多组采集,同时对采集的信息进行表情、动作以及行为特征多维度分析比对,从而直接增强行为分析方法的分析精准度,防止不法分子攻击漏洞给使用方造成较大的经济损失。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (7)
1.一种智能动态行为分析的方法,其特征在于,其操作流程如下:
A、用户将本人身份证放至行为分析设备的身份证识别器识别区域内,接着用户通过身份证实名认证后进入系统登录界面,并点击系统界面的开始分析单元;
B、用户预先穿戴动作捕捉传感器,接着用户相继根据行为分析设备的提示音站在人脸识别摄像头和电子行为感应器的正前方;
C、接着单片机分别对用户的动作图像信息、脸部表情信息和规划行为特征信息进行处理,并发送至行为数据采集模块;
D、接着行为数据采集模块将采集的图像信息、脸部表情信息和规划行为特征信息输入云计算数据库内,并由行为识别器进行行为识别;
E、再由图片过滤器对采集的图像信息进行过滤,去除模糊、重叠以及不完整的图像照片,留下清晰和完整度较高的图像照片,接着再将图像信息输入行为分析模块进行分析,以云计算数据库内的原始图像信息为判断依据,对采集的用户图像信息进行分别进行表情、动作以及行为特征比对;
F、若图像信息和云计算数据库内的原始图像信息匹配成功时,则结束行为分析,并由安保人员带领用户进入下一步流程,同时用户采集的图像信息由显示模块控制触摸显示屏进行显示,再由安保人员手动放大触摸显示屏上的用户图像照片,并对用户进行真人比对,从而安保人员对用户进行最后人工确认;
G、若图像信息和云计算数据库内的原始图像信息匹配失败时,则单片机通过警报模块控制蜂鸣器开启,并对周边安保人员进行听觉警示,从而便于安保人员采集相应询问以及应急措施。
2.根据权利要求1所述的智能动态行为分析的方法,其特征在于,所述在步骤B中,用户穿戴的动作捕捉传感器包括手指、关节部以及头部,且动作捕捉传感器的捕捉方式为三维光学多维捕捉。
3.根据权利要求1所述的智能动态行为分析的方法,其特征在于,所述在步骤C中,行为数据采集模块分别对动作图像信息、脸部表情信息和规划行为特征信息采集的次数至少为6次,且6次动作图像、脸部表情以及规划行为特征均不相同。
4.根据权利要求1所述的智能动态行为分析的方法,其特征在于,所述在步骤D中,云计算数据库包括监控模块和存储模块,且监控模块所用的监控摄像头数量至少为4个,且存储模块的覆盖更新周期为半个月。
5.根据权利要求1所述的智能动态行为分析的方法,其特征在于,所述在步骤E中,表情比对单元的比对依据为用户向人脸识别传感器做出的“喜”、“怒”、“哀”、“乐”、“愁”和“苦”六种表情。
6.根据权利要求1所述的智能动态行为分析的方法,其特征在于,所述在步骤E中,动作比对单元的比对依据为用户穿戴动作捕捉传感器做出的“蹦”、“跳”、“走”、“蹲”、“俯”和“躺”六组动作。
7.根据权利要求1所述的智能动态行为分析的方法,其特征在于,所述在步骤E中,行为特征比对单元的比对依据为用户向电子行为传感器做出的“上抬头”、“下抬头”、“左摇头”、“右摇头”、“眨眨眼”和“微笑”六组行为特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010219166.8A CN111444827B (zh) | 2020-03-25 | 2020-03-25 | 一种智能动态行为分析的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010219166.8A CN111444827B (zh) | 2020-03-25 | 2020-03-25 | 一种智能动态行为分析的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111444827A CN111444827A (zh) | 2020-07-24 |
CN111444827B true CN111444827B (zh) | 2023-03-21 |
Family
ID=71647965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010219166.8A Active CN111444827B (zh) | 2020-03-25 | 2020-03-25 | 一种智能动态行为分析的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111444827B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451564A (zh) * | 2017-07-31 | 2017-12-08 | 上海爱优威软件开发有限公司 | 一种人脸动作控制方法及系统 |
CN109636401A (zh) * | 2018-11-30 | 2019-04-16 | 上海爱优威软件开发有限公司 | 一种基于用户微表情的支付方法及系统 |
WO2019177869A1 (en) * | 2018-03-16 | 2019-09-19 | Magic Leap, Inc. | Facial expressions from eye-tracking cameras |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11073899B2 (en) * | 2010-06-07 | 2021-07-27 | Affectiva, Inc. | Multidevice multimodal emotion services monitoring |
-
2020
- 2020-03-25 CN CN202010219166.8A patent/CN111444827B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451564A (zh) * | 2017-07-31 | 2017-12-08 | 上海爱优威软件开发有限公司 | 一种人脸动作控制方法及系统 |
WO2019177869A1 (en) * | 2018-03-16 | 2019-09-19 | Magic Leap, Inc. | Facial expressions from eye-tracking cameras |
CN109636401A (zh) * | 2018-11-30 | 2019-04-16 | 上海爱优威软件开发有限公司 | 一种基于用户微表情的支付方法及系统 |
Non-Patent Citations (1)
Title |
---|
二代身份证快速图像识别关键技术研究;朱慧玲等;《科技资讯》;20160725(第08期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111444827A (zh) | 2020-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751022B (zh) | 基于图像识别的城市宠物活动轨迹监测方法及相关设备 | |
JP5008269B2 (ja) | 情報処理装置、情報処理方法 | |
Seo et al. | Automated postural ergonomic risk assessment using vision-based posture classification | |
CN101499134B (zh) | 基于现场可编程门阵列的虹膜识别方法及系统 | |
CN107908288A (zh) | 一种面向人机交互的快速人体动作识别方法 | |
CN107831907A (zh) | 基于步态识别的身份认证方法及装置 | |
CN105426827A (zh) | 活体验证方法、装置和系统 | |
Nagalakshmi Vallabhaneni | The analysis of the impact of yoga on healthcare and conventional strategies for human pose recognition | |
CN101276421A (zh) | 人脸部件特征和Gabor人脸特征融合的人脸识别方法及其装置 | |
CN108958482B (zh) | 一种基于卷积神经网络的相似性动作识别装置及方法 | |
Mekruksavanich et al. | Automatic Recognition of Construction Worker Activities Using Deep Learning Approaches and Wearable Inertial Sensors. | |
Mehrizi et al. | Automatic health problem detection from gait videos using deep neural networks | |
Martínez-Villaseñor et al. | Deep learning for multimodal fall detection | |
CN108364303A (zh) | 一种带隐私保护的摄像机智能跟踪方法 | |
CN111444827B (zh) | 一种智能动态行为分析的方法 | |
Chen et al. | Human posture tracking with flexible sensors for motion recognition | |
Khanal et al. | Classification of physical exercise intensity by using facial expression analysis | |
Trujillo-Guerrero et al. | Accuracy comparison of CNN, LSTM, and Transformer for activity recognition using IMU and visual markers | |
CN110364260A (zh) | 基于指示性语言范式的孤独症早期评估装置及系统 | |
Fengjiang et al. | Kinect-based gait recognition system design via deterministic learning | |
Bhowmick et al. | A Framework for Eye-Based Human Machine Interface | |
JP7463792B2 (ja) | 情報処理システム、情報処理装置及び情報処理方法 | |
CN109299636A (zh) | 可标示腮红区域的身体信息分析装置 | |
Shushma et al. | Autism Spectrum Disorder detection using AI Algorithm | |
CN114926887A (zh) | 人脸识别方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |