CN115056785A - 一种ai识别辅助下的心理评测量表改良算法 - Google Patents
一种ai识别辅助下的心理评测量表改良算法 Download PDFInfo
- Publication number
- CN115056785A CN115056785A CN202210583367.5A CN202210583367A CN115056785A CN 115056785 A CN115056785 A CN 115056785A CN 202210583367 A CN202210583367 A CN 202210583367A CN 115056785 A CN115056785 A CN 115056785A
- Authority
- CN
- China
- Prior art keywords
- database
- emotion
- recognition
- learning
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/223—Posture, e.g. hand, foot, or seat position, turned or inclined
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Developmental Disabilities (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Automation & Control Theory (AREA)
- Social Psychology (AREA)
- Pathology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种AI识别辅助下的心理评测量表改良算法,包括:建立通用特征模型;场景行为模型;心理情感模型;专家模型的四大标准算法体系,信息标准体系。本发明所述的一种AI识别辅助下的心理评测量表改良算法,通过数据处理,能够快速构建出AI情感计算模型的层次结构,建立详细的学习数据库,并在进行人脸识别和体态识别时进行同步学习,对于多重学习结果进行分析,自动化完善数据库的准确特征。
Description
技术领域
本发明涉及人工智能情绪动作识别技术领域,特别涉及一种AI 识别辅助下的心理评测量表改良算法。
背景技术
人工智能的AI情绪动作识别是一种在人脸识别上进行拓展延伸的一种高智能化全景应用领域,目前的人脸识别技术在2016年之后到2018年的研发期间,经过服务器、算法的迭代更新,已经趋于成熟,应用于解锁识别,活体验证等方面比较成熟,但是进行的拓展应用来说,还是一个比较冷门的领域,人脸识别领域和视频动作识别体育领域方面,并没有相结合的算法方法,国内率先使用运动识别算法的是以KEPP公司作为国内领军企业的,但是其应用只仅仅在动作应用方面,并没有实现情绪+人脸识别+动作识别+文件识别+测谎+专注度检测检测的底层逻辑算法引擎。
目前,单纯的人脸证件识别已经无法满足反欺诈的需求,所以国内极为需要一款可以视频测谎+情绪+人脸识别+动作识别+文件识别+专注度检测的底层逻辑算法引擎,并且现有领域的反欺诈人脸识别系统并不能综合音频进行测谎。
目前,随着2020年底元宇宙概念的到来,以及2021年底元宇宙VR概念的普及,针对元宇宙的到来,以及2021年度国外脑机接口的不断研发,人类的生活将逐渐转变为由互联网+硬件的方式转变为元宇宙概念,并且随着人类科技水平的提升,很多人的生活会从办公室操作电脑转变为使用意识操控智能设备,并且随着2019年以来,居家办公成为常态,人类急需一种可以使用意念操控的设备从而完成办公,但是带来的不足就是因为没有底层的情绪算法引擎,元宇宙办公概念将变为一种比较机械化,没有情感的办公方式,会让人类的办公变得枯燥无味。
目前,在自动驾驶领域急需一种可以根据情绪、肢体动作变化、专注度识别的底层算法逻辑,因为在自动驾驶级别L2-L4之间,还是需要驾驶员认为干涉操纵车辆,提高驾驶专注度的,在L5 驾驶级别放开之前,美国电动车及能源公司研发的专注度系统是根据眼球眼动变化以及方向盘重物感知进行的L3级别的自动驾驶,但是这种的检测方式还是不够灵敏,在国内仍然还是有很多的车主选择使用重物挂在方向盘上欺骗汽车自动驾驶系统的行为,并绕开眼动检测,让L3级别的车辆自动驾驶,驾驶人睡觉的事件屡见不鲜。并且在驾驶安全领域,驾驶员出现了以外突发事件,必须使用SOS或者手机报警的方式进行急救。在高端汽车里面,会有碰撞检测报警系统,但是低端老百姓的家用车还是无法实现,并且,现在全球范围内,驾驶员突发疾病导致车祸的时间屡见不鲜,急需一种可以配合自动驾驶车辆和低端车辆的生命保障系统的底层算法逻辑。
发明内容
本发明的主要目的在于提供一种AI识别辅助下的心理评测量表改良算法,可以有效解决背景技术中的问题。
为实现上述目的,本发明采取的技术方案为:
一种AI识别辅助下的心理评测量表改良算法,包括以下步骤:
步骤一、建立情感体系基础数据库,对表情进行布点式编码;
步骤二、建立音频数据库,对基础音频进行区别录入基础模型;
步骤三、AI智能学习生成人类情绪参考模型:根据摄像头和麦克风捕获的信息,分别建立四轴情绪体系,分别为:Y+唤起水平高;Y-唤起水平低;X-愉悦程度低;X+愉悦程度高的四个不同轴体体系,以增加其AI学习的效率。
步骤四、建立AI视频学习音频学习专注度数据库;
步骤五、建立AI文件审核数据库;
步骤六、建立AI动作识别数据库;
步骤七、建立搭载数据的云端-SaaS Identity+AI;前端-智能视频平台;后端-人机协作工厂的云端数据处理储存读取模块。
步骤八、建立活体监测数据库,并以AI学习的方式对数据库内容进行学习。
步骤九、完善AI算法的底层逻辑,对A I情感计算模型层次结构设置为特性提取,提取四个层次:S1通用特征模型; S2场景行为模型;S3心理情感模型;S4专家模型。
所述的在其情感体系基础数据库建立后,对算法模型的预设类别进行表格统计后作为底层数据库算法,以方便与AI智能学习生成人类情绪参考模型进行算法交互,其对应逻辑类别分为:预处理;通用特征模型;心理情感模型;场景行为模型;语言模型。
所述的在步骤三中,所述的四轴情绪体系,其Y+唤起水平高的到X+愉悦程度高对应了:1兴奋、2惊讶、3欣喜、4快乐、5满意;Y+唤起水平高到X-愉悦程度低对应了:6恐慌、7害怕、8愤怒、9恼怒、10挫败;其X-愉悦水平低Y-唤起水平低对应了:11. 悲痛、12沮丧、13无聊、14疲倦;其X+愉悦程度高到Y-唤起水平低对应了:15满足、16平静、17冷静、18放松、19困倦。
所述的在步骤四中,所述AI视频学习音频学习专注度数据库,是根据建立动作识别数据库中的头部运动数据,综合面部眼动角度和脸颊肌肉进行数据混合识别学习的,并调取表情进行布点式编码数据进行综合分析应用,定义人的面部由数十种基本的表情模块所组成,通过对面部肌肉动作单元的检测,分析出人物情绪状态的细微变化。
所述的在表情进行布点式编码是对身体的各个肌肉进行布点监控学习的,并且在AI学习肌肉动作过程中对错误数据进行记录,对正确数据进行应用,具体包括:
(1)睫毛肌肉编码运动区:其特性在于标识睫毛处5-20个运动点位,对睫毛运动进行视频捕获分析;
(2)眼动层:其特性在于标识6-24个眼动区,分为菱形分部,内环区域为瞳孔散射识别点位;
(3)鼻梁区:其特性在于布设有4-16个鼻梁运动监控点位区。
(4)鼻孔区:其特性在于布设有6-24个鼻孔运动监控点位区。
(5)嘴部区域:其特性在于上嘴唇布设有6-24个运动监控点位区,下嘴唇布设有8-32个运动监控点位区,中置有5-20个张嘴识别运动监控点位区。
(6)臂膀区:其特性在于布设有3-12个臂膀运动监控点位区。
(7)手指区:其特性在于每个手指关节处设置了3-12个手关节运动监控点位区。
(8)脸颊区:其特性在于布设有18-72个臂膀运动监控点位区。
(9)面部轮廓区:其特性在于布设有18-72个臂膀运动监控点位区
所述的AI学习肌肉动作读取的数据可以对表情进行布点式编码的正确数据进行智能化存储学习,并且应用到四轴情绪体系,在应用时,对运动监控点位区的XY轴变化的角度数值进行记录,从而将运动数据化。
所述步骤六中,所述AI动作识别数据库,依赖于四轴情绪体系的轴体关系和情感体系基础数据库的正确库里面的数据,并且可以对人的呼吸频率进行检测,从而达到视频数据测谎的效果。
所述的在对运动监控点位区的XY轴变化的角度数值进行记录,从而将运动数据化的过程中,对运动监控点位区的角度变化从而监控脸颊起伏,起到面部血流心跳识别功能。
所述的AI视频学习音频学习专注度数据库,使用了三维方框建模方式,对三个头部姿态--roll俯仰角Z轴旋转、yaw偏航角Y轴旋转、pitch横滚角X轴旋转;两个复合情绪维度--情绪剧烈程度、情绪积极程度;左眼、右眼专注度;当AI发现申请人有侥幸、欺骗的表现,经常偷看其它地方,或旁边有人提示的情况,实时提示人工或者AI智能审核人员。
所述的AI文件审核数据库中,对桌面文件进行拍摄,并且综合所述的AI动作识别数据库和建立音频数据库对签字过程进行监督,并且录制签字时候的音频。
所述的步骤九中,分别对:S1通用特征模型;S2场景行为模型;S3心理情感模型;S4专家模型进行计算分析:
S1通用特征模型:将眼动、方向、视域检测,头部姿态进行数据化记录。
S2场景行为模型:将前景,后景通过对前景和背景的分离,获取申请人在视频中的背景信息,识别其是否为高风险背景并实时告警提示;
S3心理情感模型:对于基础表情划分为7种基础情绪,好感度取用四轴情绪体系的数据予以应用,情感浓度对基础表情的强弱进行打分评估,细分表情对在场景下人的可感知情绪好坏进行打分,符合表情进行128维符合情绪进行读取学习。
S4专家模型进行计算分析;是对复杂表情和动作AI无法识别时人工介入识别的辅助学习步骤。
与现有技术相比,本发明具有如下有益效果:
1、本发明通过数据处理,通过摄像头,将需要进行检测的人的动作进行捕捉,数据库分析,AI学习,并且实现情绪+人脸识别+动作识别+文件识别+测谎+专注度检测检测的底层逻辑算法引擎的根算法。
2、本发明在反欺诈领域,使用情绪识别和语音识别以及动作文件OCR识别的方式,是现在动态合同协议签署监控,对签署文件进行OCR识别,监控人手的签字动作,对合同朗诵人的声音进行记录分析,如果出现情绪不稳定或者合同造假行为,立即触发警报识别,采用了说话人识别的功能,尤其在金融审核领域,同框多人时,可以对说话的人和代理人进行识别,在产生表情动作和声音比对AI数据库出现欺诈可能性的时候,及时对本次的审核进行制止。
3、以基本的引擎逻辑来说,提供了一种可以多维度,多用途的情绪解决方案,AI对千人千面进行识别学习,学习后,在实际应用时,检测包括元宇宙,虚拟办公,自动驾驶等情绪波动和交互,让虚拟化世界变得多姿多彩。并且在未来计算机水平可以达到让人类思维永生的时候,制造实体思维转体机器人,让机器人使用本引擎可以赋予机器人基础的根算法逻辑,让机器人可以自主展现表情,让肉体死亡后思维云存储的机器人类得以得到和肉体活着的时候一样的情绪逻辑,通过AI学习库可以使用肢体语言和面部表情表述自己的情绪。
4.在车辆驾驶领域,可以通过监控摄像头,对驾驶员的情绪动作进行监控,如果出现驾驶疲劳的情况,会主动提醒驾驶员和中控机构停车休息,自动驾驶时,自动驾驶会接管车辆,在路边安全地带或者高速公路的休息区进行自动驶入休息,在非自动驾驶车辆应用方面,通过表情视频数据分析,以及动作和声音动作分析,可以对驾驶疲劳的人进行报警提醒,如果出现了驾驶人员身体不适的情况,通过数据库比对人像分析后,可以分析驾驶员的肢体表情动作,分析痛苦表情和手捂住身体的位置,自动判断其病症特点,如果视频分析出严重紧急病症,驾驶员通过人工操纵非自动驾驶汽车靠边的同时,算法底层逻辑报警机制会将出现的危险情况,定位信息,发送给急救组织和交通公安部门。
本专利采用以下几个步骤实现驾驶分析。具体生产方案如下四步骤:
(1)现存基础注意度信息,对驾驶员的脖子,表情,肢体进行监控,并且通过反复学习确定非疲劳的样子,如果出现疲劳情况可以对专注度转移情况进行算法预判。
(2)常见的病症记录,比如紧急心肌梗死时,驾驶员会将身体歪向一侧,右手捂住心脏部位,异物击穿挡风玻璃后集中驾驶员头部,驾驶员会表现出痛苦动作,手捂头的类似动作,通过多次的算法学习,完善根数据库后,可以驾驶员进行病症分析报警。
(3)对AI学习形成图表后,可以进行反推数据的其他领域应用;
(4)通过人工检查学习成功和修改AI识别逻辑,获得最终情感表情动作的数据。
附图说明
图1为本发明一种AI识别辅助下的心理评测量表算法的四轴情绪体系示意图。
图2为本发明一种AI识别辅助下的心理评测量表AI视频学习音频学习专注度数据库的动作识别偏轴角度示意图。
图3为本发明一种AI识别辅助下的心理评测量表改良算法的建立AI动作识别数据库时的视频调查问卷AI逻辑学习图。
图4为本发明一种AI识别辅助下的心理评测量表对算法模型的预设类别进行表格统计后作为底层数据库算法底层逻辑图。
图5为本发明一种AI识别辅助下的心理评测量表的布点式编码详解图。
图6为本发明一种AI识别辅助下的心理评测量表的专注度数据库训练学习数据库建立根逻辑。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
本发明因技术领域限制,必须附录人员肖像照片,所使用的附图带有本申请单位的研发人员照片,并已经进行模糊化处理。
在本发明的描述中,需要说明的是,术语“上”、“下”、“内”、“外”“前端”、“后端”、“两端”、“一端”、“另一端”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“设置有”、“连接”等,应做广义理解,例如“连接”,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
实施例
如图1所示,一种AI识别辅助下的心理评测量表改良算法,包括以下步骤:
一种AI识别辅助下的心理评测量表改良算法,包括以下步骤:
步骤一、建立情感体系基础数据库,对表情进行布点式编码;
步骤二、建立音频数据库,对基础音频进行区别录入基础模型;
步骤三、AI智能学习生成人类情绪参考模型:根据摄像头和麦克风捕获的信息,分别建立四轴情绪体系,分别为:Y+唤起水平高;Y-唤起水平低;X-愉悦程度低;X+愉悦程度高的四个不同轴体体系,以增加其AI学习的效率。
步骤四、建立AI视频学习音频学习专注度数据库;
步骤五、建立AI文件审核数据库;
步骤六、建立AI动作识别数据库;
步骤七、建立搭载数据的云端-SaaS Identity+AI;前端-智能视频平台;后端-人机协作工厂的云端数据处理储存读取模块。
步骤八、建立活体监测数据库,并以AI学习的方式对数据库内容进行学习。
步骤九、完善AI算法的底层逻辑,对A I情感计算模型层次结构设置为特性提取,提取四个层次:S1通用特征模型; S2场景行为模型;S3心理情感模型;S4专家模型。
所述的在其情感体系基础数据库建立后,对算法模型的预设类别进行表格统计后作为底层数据库算法,以方便与AI智能学习生成人类情绪参考模型进行算法交互,其对应逻辑类别分为:预处理;通用特征模型;心理情感模型;场景行为模型;语言模型。
所述的在步骤三中,所述的四轴情绪体系,其Y+唤起水平高的到X+愉悦程度高对应了:1兴奋、2惊讶、3欣喜、4快乐、5满意;Y+唤起水平高到X-愉悦程度低对应了:6恐慌、7害怕、8愤怒、9恼怒、10挫败;其X-愉悦水平低Y-唤起水平低对应了:11. 悲痛、12沮丧、13无聊、14疲倦;其X+愉悦程度高到Y-唤起水平低对应了:15满足、16平静、17冷静、18放松、19困倦。
所述的在步骤四中,所述AI视频学习音频学习专注度数据库,是根据建立动作识别数据库中的头部运动数据,综合面部眼动角度和脸颊肌肉进行数据混合识别学习的,并调取表情进行布点式编码数据进行综合分析应用,定义人的面部由数十种基本的表情模块所组成,通过对面部肌肉动作单元的检测,分析出人物情绪状态的细微变化。
所述的在表情进行布点式编码是对身体的各个肌肉进行布点监控学习的,并且在AI学习肌肉动作过程中对错误数据进行记录,对正确数据进行应用,具体包括:
(1)睫毛肌肉编码运动区:其特性在于标识睫毛处5-20个运动点位,对睫毛运动进行视频捕获分析;
(2)眼动层:其特性在于标识6-24个眼动区,分为菱形分部,内环区域为瞳孔散射识别点位;
(3)鼻梁区:其特性在于布设有4-16个鼻梁运动监控点位区。
(4)鼻孔区:其特性在于布设有6-24个鼻孔运动监控点位区。
(5)嘴部区域:其特性在于上嘴唇布设有6-24个运动监控点位区,下嘴唇布设有8-32个运动监控点位区,中置有5-20个张嘴识别运动监控点位区。
(6)臂膀区:其特性在于布设有3-12个臂膀运动监控点位区。
(7)手指区:其特性在于每个手指关节处设置了3-12个手关节运动监控点位区。
(8)脸颊区:其特性在于布设有18-72个臂膀运动监控点位区。
(9)面部轮廓区:其特性在于布设有18-72个臂膀运动监控点位区
所述的AI学习肌肉动作读取的数据可以对表情进行布点式编码的正确数据进行智能化存储学习,并且应用到四轴情绪体系,在应用时,对运动监控点位区的XY轴变化的角度数值进行记录,从而将运动数据化。
所述步骤六中,所述AI动作识别数据库,依赖于四轴情绪体系的轴体关系和情感体系基础数据库的正确库里面的数据,并且可以对人的呼吸频率进行检测,从而达到视频数据测谎的效果。
所述的在对运动监控点位区的XY轴变化的角度数值进行记录,从而将运动数据化的过程中,对运动监控点位区的角度变化从而监控脸颊起伏,起到面部血流心跳识别功能。
所述的AI视频学习音频学习专注度数据库,使用了三维方框建模方式,对三个头部姿态--roll俯仰角Z轴旋转、yaw偏航角Y轴旋转、pitch横滚角X轴旋转;两个复合情绪维度--情绪剧烈程度、情绪积极程度;左眼、右眼专注度;当AI发现申请人有侥幸、欺骗的表现,经常偷看其它地方,或旁边有人提示的情况,实时提示人工或者AI智能审核人员。
所述的AI文件审核数据库中,对桌面文件进行拍摄,并且综合所述的AI动作识别数据库和建立音频数据库对签字过程进行监督,并且录制签字时候的音频。
所述的步骤九中,分别对:S1通用特征模型;S2场景行为模型;S3心理情感模型;S4专家模型进行计算分析:
S1通用特征模型:将眼动、方向、视域检测,头部姿态进行数据化记录。
S2场景行为模型:将前景,后景通过对前景和背景的分离,获取申请人在视频中的背景信息,识别其是否为高风险背景并实时告警提示;
S3心理情感模型:对于基础表情划分为7种基础情绪,好感度取用四轴情绪体系的数据予以应用,情感浓度对基础表情的强弱进行打分评估,细分表情对在场景下人的可感知情绪好坏进行打分,符合表情进行128维符合情绪进行读取学习。
S4专家模型进行计算分析;是对复杂表情和动作AI无法识别时人工介入识别的辅助学习步骤。
本发明通过数据处理,将表情进行布点式编码通过摄像头摄制各种不同形态的动作表情形成算法模型的预设类别进行表格统计后作为底层数据库算法底层逻辑的根坐标,并且参照三维方框建模方式对二维视频的立体化分析,形成两个复合情绪维度,对三个头部姿态--roll俯仰角Z轴旋转、yaw偏航角Y轴旋转、pitch横滚角 X轴旋转进行坐标点位识别,并且将触发数据源记录到四轴情绪体系,应用时可以进行读取,并且综合音频学习数据库,对摄像头摄录的事件进行读取学习分析。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (10)
1.一种AI识别辅助下的心理评测量表改良算法,其特征在于:包括以下步骤:
步骤一、建立情感体系基础数据库,对表情进行布点式编码;
步骤二、建立音频数据库,对基础音频进行区别录入基础模型;
步骤三、AI智能学习生成人类情绪参考模型:根据摄像头和麦克风捕获的信息,分别建立四轴情绪体系,分别为:Y+唤起水平高;Y-唤起水平低;X-愉悦程度低;X+愉悦程度高的四个不同轴体体系,以增加其AI学习的效率。
步骤四、建立AI视频学习音频学习专注度数据库;
步骤五、建立AI文件审核数据库;
步骤六、建立AI动作识别数据库;
步骤七、建立搭载数据的云端-SaaS Identity+AI;前端-智能视频平台;后端-人机协作工厂的云端数据处理储存读取模块。
步骤八、建立活体监测数据库,并以AI学习的方式对数据库内容进行学习。
步骤九、完善AI算法的底层逻辑,对AI情感计算模型层次结构设置为特性提取,提取四个层次:S1通用特征模型;S2场景行为模型;S3心理情感模型;S4专家模型。
2.根据权利要求1所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:所述的其情感体系基础数据库建立后,对算法模型的预设类别进行表格统计后作为底层数据库算法,以方便与AI智能学习生成人类情绪参考模型进行算法交互,其对应逻辑类别分为:预处理;通用特征模型;心理情感模型;场景行为模型;语言模型。
3.根据权利要求1所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:在所述步骤三中,所述的四轴情绪体系,其Y+唤起水平高的到X+愉悦程度高对应了:1兴奋、2惊讶、3欣喜、4快乐、5满意;Y+唤起水平高到X-愉悦程度低对应了:6恐慌、7害怕、8愤怒、9恼怒、10挫败;其X-愉悦水平低Y-唤起水平低对应了:11.悲痛、12沮丧、13无聊、14疲倦;其X+愉悦程度高到Y-唤起水平低对应了:15满足、16平静、17冷静、18放松、19困倦。
4.根据权利要求1所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:在所述步骤四中,所述AI视频学习音频学习专注度数据库,是根据建立动作识别数据库中的头部运动数据,综合面部眼动角度和脸颊肌肉进行数据混合识别学习的,并调取表情进行布点式编码数据进行综合分析应用,定义人的面部由数十种基本的表情模块所组成,通过对面部肌肉动作单元的检测,分析出人物情绪状态的细微变化。
5.根据权利要求1所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:在所述表情进行布点式编码是对身体的各个肌肉进行布点监控学习的,并且在AI学习肌肉动作过程中对错误数据进行记录,对正确数据进行应用,具体包括:
(1)睫毛肌肉编码运动区:其特性在于标识睫毛处5-20个运动点位,对睫毛运动进行视频捕获分析;
(2)眼动层:其特性在于标识6-24个眼动区,分为菱形分部,内环区域为瞳孔散射识别点位;
(3)鼻梁区:其特性在于布设有4-16个鼻梁运动监控点位区。
(4)鼻孔区:其特性在于布设有6-24个鼻孔运动监控点位区。
(5)嘴部区域:其特性在于上嘴唇布设有6-24个运动监控点位区,下嘴唇布设有8-32个运动监控点位区,中置有5-20个张嘴识别运动监控点位区。
(6)臂膀区:其特性在于布设有3-12个臂膀运动监控点位区。
(7)手指区:其特性在于每个手指关节处设置了3-12个手关节运动监控点位区。
(8)脸颊区:其特性在于布设有18-72个臂膀运动监控点位区。
(9)面部轮廓区:其特性在于布设有18-72个臂膀运动监控点位区
所述的AI学习肌肉动作读取的数据可以对表情进行布点式编码的正确数据进行智能化存储学习,并且应用到四轴情绪体系,在应用时,对运动监控点位区的XY轴变化的角度数值进行记录,从而将运动数据化。
6.根据权利要求1所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:在所述步骤六中,所述AI动作识别数据库,依赖于四轴情绪体系的轴体关系和情感体系基础数据库的正确库里面的数据,并且可以对人的呼吸频率进行检测,从而达到视频数据测谎的效果。
7.根据权利要求5所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:在所述对运动监控点位区的XY轴变化的角度数值进行记录,从而将运动数据化的过程中,对运动监控点位区的角度变化从而监控脸颊起伏,起到面部血流心跳识别功能。
8.根据权利要求1所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:AI视频学习音频学习专注度数据库,使用了三维方框建模方式,对三个头部姿态--roll俯仰角Z轴旋转、yaw偏航角Y轴旋转、pitch横滚角X轴旋转;两个复合情绪维度--情绪剧烈程度、情绪积极程度;左眼、右眼专注度;当AI发现申请人有侥幸、欺骗的表现,经常偷看其它地方,或旁边有人提示的情况,实时提示人工或者AI智能审核人员。
9.根据权利要求1所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:在所述AI文件审核数据库中,对桌面文件进行拍摄,并且综合所述的AI动作识别数据库和建立音频数据库对签字过程进行监督,并且录制签字时候的音频。
10.根据权利要求书1所述的一种AI识别辅助下的心理评测量表改良算法,其特征在于:在所述步骤九中,分别对:S1通用特征模型;S2场景行为模型;S3心理情感模型;S4专家模型进行计算分析:
S1通用特征模型:将眼动、方向、视域检测,头部姿态进行数据化记录。
S2场景行为模型:将前景,后景通过对前景和背景的分离,获取申请人在视频中的背景信息,识别其是否为高风险背景并实时告警提示;
S3心理情感模型:对于基础表情划分为7种基础情绪,好感度取用四轴情绪体系的数据予以应用,情感浓度对基础表情的强弱进行打分评估,细分表情对在场景下人的可感知情绪好坏进行打分,符合表情进行128维符合情绪进行读取学习。
S4专家模型进行计算分析;是对复杂表情和动作AI无法识别时人工介入识别的辅助学习步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210583367.5A CN115056785A (zh) | 2022-05-25 | 2022-05-25 | 一种ai识别辅助下的心理评测量表改良算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210583367.5A CN115056785A (zh) | 2022-05-25 | 2022-05-25 | 一种ai识别辅助下的心理评测量表改良算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115056785A true CN115056785A (zh) | 2022-09-16 |
Family
ID=83199052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210583367.5A Withdrawn CN115056785A (zh) | 2022-05-25 | 2022-05-25 | 一种ai识别辅助下的心理评测量表改良算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115056785A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116362596A (zh) * | 2023-03-10 | 2023-06-30 | 领途教育咨询(北京)有限公司 | 一种基于元宇宙vr的大数据人才评测系统 |
-
2022
- 2022-05-25 CN CN202210583367.5A patent/CN115056785A/zh not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116362596A (zh) * | 2023-03-10 | 2023-06-30 | 领途教育咨询(北京)有限公司 | 一种基于元宇宙vr的大数据人才评测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021174618A1 (zh) | 一种脑电图模式分类模型的训练方法、分类方法及系统 | |
Katsis et al. | Toward emotion recognition in car-racing drivers: A biosignal processing approach | |
US7027621B1 (en) | Method and apparatus for operator condition monitoring and assessment | |
Wu et al. | A regression method with subnetwork neurons for vigilance estimation using EOG and EEG | |
Basu et al. | Emotion recognition based on physiological signals using valence-arousal model | |
CN113033503A (zh) | 一种多特征融合的危险驾驶行为检测方法及系统 | |
Němcová et al. | Multimodal features for detection of driver stress and fatigue | |
Xu et al. | E-key: An EEG-based biometric authentication and driving fatigue detection system | |
Zhang et al. | A systematic survey of driving fatigue monitoring | |
KR20190035558A (ko) | 멀티모달 학습 기반의 운전자 상태 인식 시스템 및 그 방법 | |
CN115064246A (zh) | 一种基于多模态信息融合的抑郁症评估系统及设备 | |
CN109875583A (zh) | 一种基于ar技术的疲劳驾驶检测系统及方法 | |
CN115056785A (zh) | 一种ai识别辅助下的心理评测量表改良算法 | |
Walizad et al. | Driver drowsiness detection system using convolutional neural network | |
Villa et al. | Survey of biometric techniques for automotive applications | |
Abbas et al. | A methodological review on prediction of multi-stage hypovigilance detection systems using multimodal features | |
Kassem et al. | Drivers fatigue level prediction using facial, and head behavior information | |
Liu et al. | 3dcnn-based real-time driver fatigue behavior detection in urban rail transit | |
Anumas et al. | Driver fatigue monitoring system using video face images & physiological information | |
Bulygin et al. | Image-Based Fatigue Detection of Vehicle Driver: State-of-the-Art and Reference Model | |
Chatterjee et al. | Smartphone-based drowsiness detection system for drivers in real-time | |
Li et al. | A driving attention detection method based on head pose | |
Priyanka et al. | A Review on Drowsiness Prediction System using Deep Learning Approaches | |
Zaman et al. | Incorporation of physiological features in drowsiness detection using deep neural network approach | |
Montanaro et al. | A hybrid approach based on behavioural and physiological data for driver monitoring systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220916 |