CN113705621B - 一种基于人心识别模型的无接触图像评测方法 - Google Patents

一种基于人心识别模型的无接触图像评测方法 Download PDF

Info

Publication number
CN113705621B
CN113705621B CN202110898333.0A CN202110898333A CN113705621B CN 113705621 B CN113705621 B CN 113705621B CN 202110898333 A CN202110898333 A CN 202110898333A CN 113705621 B CN113705621 B CN 113705621B
Authority
CN
China
Prior art keywords
autonomic nerve
value
autonomic
data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110898333.0A
Other languages
English (en)
Other versions
CN113705621A (zh
Inventor
齐中祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Womin High New Science & Technology Beijing Co ltd
Original Assignee
Womin High New Science & Technology Beijing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Womin High New Science & Technology Beijing Co ltd filed Critical Womin High New Science & Technology Beijing Co ltd
Priority to CN202110898333.0A priority Critical patent/CN113705621B/zh
Publication of CN113705621A publication Critical patent/CN113705621A/zh
Application granted granted Critical
Publication of CN113705621B publication Critical patent/CN113705621B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Evolutionary Biology (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及一种基于人心识别模型的无接触图像评测方法,该方法包括:持续获取用户的植物神经信号;持续获取用户的图像;将植物神经信号输入人心识别模型,得到识别结果;人心识别模型用于识别时间连续的一段植物神经信号的变化;通过识别结果对图像进行评测。本发明通过植物神经信号和用户图像进行识别,实现了心理健康状态的客观评测。

Description

一种基于人心识别模型的无接触图像评测方法
技术领域
本发明涉及心理评测技术领域,尤其涉及一种基于人心识别模型的无接触图像评测方法。
背景技术
随着社会节奏加快,人们面临巨大的心理压力,容易出现疲劳、寂寞、焦虑、抑郁、恐慌等心理应激反应,心理问题成为社会问题。
心理问题如果处理不好,会转化为心理精神疾病,对国民的身心和工作带来很大的负面影响。
发明内容
(一)要解决的技术问题
鉴于现有技术的上述缺点、不足,本发明提供一种基于人心识别模型的无接触图像评测方法。
(二)技术方案
为了达到上述目的,本发明采用的主要技术方案包括:
一种基于人心识别模型的无接触图像评测方法,所述方法包括:
S101,持续获取用户的植物神经信号;
S102,持续获取用户的图像;
S103,将所述植物神经信号输入人心识别模型,得到识别结果;所述人心识别模型用于识别时间连续的一段植物神经信号的变化;
S104,通过所述识别结果对所述图像进行评测。
可选地,所述S103之前还包括:
S201,获取多段时间连续的历史植物神经信号,每一段历史植物神经信号S(i)为一个样本数据,其中,i为信号标识;
S202,每一个样本数据生成一个植物神经信号集P,所述植物神经信号集P中每一个元素eP包括2个维度,一个维度为数据值dP,另一个维度为时间值tP;其中,任一样本数据的任一历史植物神经信号值S(i)一一对应P中的一个元素eP(i),且eP(i)的数据值dP(i)=S(i),eP(i)的时间值tP(i)为S(i)的采集时间;
S203,根据每一个植物神经信号集P形成对应的植物神经差集Δ,所述植物神经差集Δ的每一个元素eΔ包括2个维度,一个维度为数据值dΔ,另一个维度为时间值tΔ;其中,植物神经信号集P中的任一元素eP(i)一一对应Δ中的一个元素eΔ(i);
S204,依次将各样本数据输入神经网络模型,进行特征识别,得到该样本数据中每个元素的植物神经信号值的特征,进而形成对应的特征集I,所述特征集I中每个元素eI包括2个维度,一个维度为数据值dI,另一个维度为时间值tI;其中,任一样本数据的任一历史植物神经信号值S(i)一一对应I中的一个元素eI(i),且eI(i)的数据值dI(i)为所述任一样本数据中第i个历史植物神经信号值的特征,eI(i)的时间值tI(i)=tP(i);
S205,根据所述植物神经差集Δ以及特征集I确定各样本数据的变化,进而形成人心识别模型。
可选地,
对于植物神经信号集P中的最后一个元素eP(l),其与Δ中的最后一个元素eΔ(l)对应,且eΔ(l)的数据值dΔ(l)=0,eΔ(l)的时间值tΔ(l)为eP(l)的时间值tP(l);其中,l为植物神经信号集P中的最后一个元素的标识;
对于植物神经信号集P中的非最后一个元素eP(j),其一一对应Δ中的一个元素eΔ(j),且eΔ(j)的数据值dΔ(j)=dP(j+1)-dP(j),eΔ(j)的时间值tΔ(j)=tP(j),其中,j为植物神经信号集P中非最后一个元素的标识。
可选地,所述S205具体包括:
依次将各样本数据的植物神经差集Δ以及特征集I输入人心识别模型进行训练,得到训练好的人心识别模型;
其中,人心识别模型训练过程为:
对于任一样本数据,将其植物神经差集Δ以及特征集I,通过人心识别模型得到变化集C,所述变化集C中每个元素eC包括2个维度,一个维度为数据值dC,另一个维度为时间值tC
其中,所述植物神经信号集P中的任一元素eP(i)一一对应变化集C中的一个元素eC(i),且eC(i)的数据值eC(i)的时间值tC(i)=tP(i);D1(i)为根据植物神经差集Δ得到的植物神经参数,/> 为特征集I中所有dI的均值。
可选地,所述D1(i)=dΔ(i)*dI(i)。
可选地,所述 植物神经差集Δ中所有dΔ的均值。
可选地,S103具体包括:
S103-1,生成植物神经信号集PA,所述植物神经信号集PA中每一个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>其中,PA的元素/>与S101中得到的植物神经信号一一对应,且PA的任一元素/>的数据值/> 的时间值/>为A(x)的采集时间,A(x)为S101中得到的第x个植物神经信号,x为S101中得到的植物神经信号标识,所述S101中得到的植物神经信号按照时间顺序排列;
S103-2,根据植物神经信号集PA形成对应的植物神经差集ΔA,所述植物神经差集ΔA的每一个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>其中,ΔA的元素/>与S101中得到的植物神经信号一一对应;
S103-3,将S101中得到的植物神经信号输入神经网络模型,进行特征识别,得到该植物神经信号中每个元素的植物神经信号值的特征,进而形成对应的特征集IA,所述特征集IA中每个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>其中,IA的元素/>与S 101中得到的植物神经信号一一对应,且/>的数据值/>为A(x)的特征,/>的时间值/>
S103-4,将植物神经差集ΔA以及特征集IA输入人心识别模型,得到识别结果CA
可选地,对于植物神经信号集PA中的最后一个元素其与ΔA中的最后一个元素/>对应,且/>的数据值/> 的时间值/>的时间值/>其中,xl为植物神经信号集PA中的最后一个元素的标识;
对于植物神经信号集PA中的非最后一个元素其一一对应ΔA中的一个元素/>且/>的数据值/> 的时间值/>其中,xj为植物神经信号集PA中非最后一个元素的标识。
可选地,所述S104具体包括:
S104-1,按植物神经信号的时间,对应取该时间对应的图像;
S104-2,识别取到每一图像中的面部表情以及头部旋转夹角、膝关节夹角、肘关节夹角;
S104-3,将每一图像中面部表情与CA中对应时间的元素值的积作为修正的面部表情,头部旋转夹角与CA中对应时间的元素值的积作为修正的头部旋转夹角,膝关节夹角与CA中对应时间的元素值的积作为修正的膝关节夹角,肘关节夹角与CA中对应时间的元素值的积作为修正的肘关节夹角;
S104-4,根据修正的面部表情以及修正的头部旋转夹角、修正的膝关节夹角、修正的肘关节夹角进行评测,得到该用户的评测结果。
可选地,所述S104-2中膝关节夹角包括左膝关节夹角和右膝关节夹角;
肘关节夹角包括左肘关节夹角和右肘关节夹角;
所述左膝关节夹角=左大腿与左小腿形成的夹角-预先获取的放松状态下左大腿与左小腿形成的夹角;
所述右膝关节夹角=右大腿与右小腿形成的夹角-预先获取的放松状态下右大腿与右小腿形成的夹角;
左肘关节夹角=左前臂与左上臂形成的夹角-预先获取的放松状态下左前臂与左上臂形成的夹角;
右肘关节夹角=右前臂与右上臂形成的夹角-预先获取的放松状态下右前臂与右上臂形成的夹角。
(三)有益效果
持续获取用户的植物神经信号;持续获取用户的图像;将植物神经信号输入人心识别模型,得到识别结果;人心识别模型用于识别时间连续的一段植物神经信号的变化;通过识别结果对图像进行评测。本发明通过植物神经信号和用户图像进行识别,实现了心理健康状态的客观评测。
附图说明
图1为本发明一实施例提供的一种基于人心识别模型的无接触图像评测方法的流程示意图。
具体实施方式
为了更好的解释本发明,以便于理解,下面结合附图,通过具体实施方式,对本发明作详细描述。
随着社会节奏加快,人们面临巨大的心理压力,容易出现疲劳、寂寞、焦虑、抑郁、恐慌等心理应激反应,心理问题成为社会问题。心理问题如果处理不好,会转化为心理精神疾病,对国民的身心和工作带来很大的负面影响。
基于此,本发明提供一种基于人心识别模型的无接触图像评测方法,该方法包括:持续获取用户的植物神经信号;持续获取用户的图像;将植物神经信号输入人心识别模型,得到识别结果;人心识别模型用于识别时间连续的一段植物神经信号的变化;通过识别结果对图像进行评测。本发明通过植物神经信号和用户图像进行识别,实现了心理健康状态的客观评测。
在具体实现时,可以向用户提供心理评测的问卷,在用户回答问卷过程中,通过如图1所示的方法评测该用户的心理。还可以由评测人员与用户进行沟通,如聊天、提问等,在用户交流过程中,通过如图1所示的方法评测该用户的心理。
参见图1,本实施例提供的基于人心识别模型的无接触图像评测方法的实现过程如下:
S101,持续获取用户的植物神经信号。
本步骤可以通过植物神经信号采集设备持续采集用户的植物神经信号。
植物神经信号受大脑皮质和下丘脑的支配和调节,但不受人的意志所控制,也就是说,用户可能控制自己的情绪、表情、心跳、血液等,逃避展现自己真实的心理,造成评测结果错误,但其不能控制植物神经信号,因此通过对植物神经信号的分析可以获取到用户最真实的反应,使得最终的评测结果不受人为控制而产生错误,提升了本方法得到的评测结果的准确性和客观性。
具体实现时,可以持续获取用户回答评测题时的植物神经信号,或者,持续获取用户交流时的植物神经信号。
S102,持续获取用户的图像。
在持续获取植物神经信号的同时,还会持续获取用户的图像。此处的图像为用户的全身图像,包括脸和身体。
另外,虽然本实施例将持续获取用户的图像编号为S102,但是在具体实现时,其与步骤S101是同时进行的。
S103,将植物神经信号输入人心识别模型,得到识别结果。
其中,人心识别模型用于识别时间连续的一段植物神经信号的变化。
该人心识别模型的训练过程如下:
S201,获取多段时间连续的历史植物神经信号,每一段历史植物神经信号S(i)为一个样本数据。
其中,i为信号标识。
历史植物神经信号为对历史用户进行采集的植物神经信号。
S202,每一个样本数据生成一个植物神经信号集P,植物神经信号集P中每一个元素eP包括2个维度,一个维度为数据值dP,另一个维度为时间值tP
其中,任一样本数据的任一历史植物神经信号值S(i)一一对应P中的一个元素eP(i),且eP(i)的数据值dP(i)=S(i),eP(i)的时间值tP(i)为S(i)的采集时间。
例如由1毫秒至5毫秒采集到的用户1的历史植物神经信号S如表1所示,那么其会生成一个植物神经信号集P,P中包括5个元素,每个元素包括2个维度,第一个维度就是其对应的S的值,第二个维度是该值的采集时间。
表1
例如植物神经信号集P包括的5个元素为:eP(0)、eP(1)、eP(2)、eP(3)、eP(4)。其中,eP(0)的数据值dP(0)为S(0),eP(0)的时间值tP(0)为1。eP(1)的数据值dP(1)为S(1),eP(1)的时间值tP(1)为2。eP(2)的数据值dP(2)为S(2),eP(2)的时间值tP(2)为3。eP(3)的数据值dP(3)为S(3),eP(3)的时间值tP(3)为4。eP(4)的数据值dP(4)为S(4),eP(4)的时间值tP(4)为5。
需要说明的是,表1中历史植物神经信号由0开始标识以及P集合中的元素由0开始仅为示例,在实际应用中可以从1开始标识,也可以从任何一个标识点开始标识,本实施例对此不做限定。
同样,本实施例中出现的标识,仅以0开始作为示例,实际应用时可以从其他开始标识。
S203,根据每一个植物神经信号集P形成对应的植物神经差集Δ,植物神经差集Δ的每一个元素eΔ包括2个维度,一个维度为数据值dΔ,另一个维度为时间值tΔ
其中,植物神经信号集P中的任一元素eP(i)一一对应Δ中的一个元素eΔ(i)。
具体的,
对于植物神经信号集P中的最后一个元素eP(l),其与Δ中的最后一个元素eΔ(l)对应,且eΔ(l)的数据值dΔ(l)=0,eΔ(l)的时间值tΔ(l)为eP(l)的时间值tP(l)。其中,l为植物神经信号集P中的最后一个元素的标识。
对于植物神经信号集P中的非最后一个元素eP(j),其一一对应Δ中的一个元素eΔ(j),且eΔ(j)的数据值dΔ(j)=dP(j+1)-dP(j),eΔ(j)的时间值tΔ(j)=tP(j),其中,j为植物神经信号集P中非最后一个元素的标识。
例如,在得到植物神经信号集P={eP(0),eP(1),eP(2),eP(3),eP(4)}之后,植物神经差集Δ也有5个元素,分别为:eΔ(0)、eΔ(1)、eΔ(2)、eΔ(3)、eΔ(4)。其中,eΔ(0)的数据值dΔ(0)=dP(1)-dP(0),eΔ(0)的时间值tΔ(0)=tP(0)=1。eΔ(1)的数据值dΔ(1)=dP(2)-dP(1),eΔ(1)的时间值tΔ(1)=tP(1)=2。eΔ(2)的数据值dΔ(2)=dP(3)一dP(2),eΔ(2)的时间值tΔ(2)=tP(2)=3。eΔ(3)的数据值dΔ(3)=dP(4)-dP(3),eΔ(3)的时间值tΔ(3)=tP(3)=4。eΔ(4)的数据值dΔ(4)=dP(5)-dP(4),eΔ(4)的时间值tΔ(4)=tP(4)=5。
S204,依次将各样本数据输入神经网络模型,进行特征识别,得到该样本数据中每个元素的植物神经信号值的特征,进而形成对应的特征集I,特征集I中每个元素eI包括2个维度,一个维度为数据值dI,另一个维度为时间值tI
其中,任一样本数据的任一历史植物神经信号值S(i)一一对应I中的一个元素eI(i),且eI(i)的数据值dI(i)为任一样本数据中第i个历史植物神经信号值的特征,eI(i)的时间值tI(i)=tP(i)。
例如,历史植物神经信号S,其对应的特征集I也包括5个元素,分别为:eI(0)、eI(1)、eI(2)、eI(3)、eI(4)。其中,eI(0)的数据值dI(0)为S(0)的特征值,eI(0)的时间值tI(0)=tP(0)=1。eI(1)的数据值dI(1)为S(1)的特征值,eI(1)的时间值tI(1)=tP(1)=2。eI(2)的数据值dI(2)为S(2)的特征值,eI(2)的时间值tI(2)=tP(2)=3。eI(3)的数据值dI(3)为S(3)的特征值,eI(3)的时间值tI(3)=tP(3)=4。eI(4)的数据值dI(4)为S(4)的特征值,eI(4)的时间值tI(4)=tP(4)=5。
S205,根据植物神经差集Δ以及特征集I确定各样本数据的变化,进而形成人心识别模型。
具体的,依次将各样本数据的植物神经差集Δ以及特征集I输入人心识别模型进行训练,得到训练好的人心识别模型。
其中,人心识别模型训练过程为:
对于任一样本数据,将其植物神经差集Δ以及特征集I,通过人心识别模型得到变化集C,变化集C中每个元素eC包括2个维度,一个维度为数据值dC,另一个维度为时间值tC
其中,植物神经信号集P中的任一元素eP(i)一一对应变化集C中的一个元素eC(i),且eC(i)的数据值eC(i)的时间值tC(i)=tP(i)。D1(i)为根据植物神经差集Δ得到的植物神经参数,/> 为特征集I中所有dI的均值。
对于D1(i)的确定方案有多种,如D1(i)=dΔ(i)*dI(i)。再如 植物神经差集Δ中所有dΔ的均值。
仍以上述例子为例,变化集C中的元素也有5个,分别为eC(0)、eC(1)、eC(2)、eC(3)、eC(4)。eC(0)的数据值eC(0)的时间值tC(0)=tP(0)=1,其中,/>D1(0)=dΔ(0)*dI(0),或者,/> eC(1)的数据值/>eC(1)的时间值tC(1)=tP(1)=2,其中,/>D1(1)=dΔ(1)*dI(1),或者,/>eC(2)的数据值/>eC(2)的时间值tC(2)=tP(2)=3,其中,/>D1(2)=dΔ(2)*dI(2),或者,/>eC(3)的数据值/>eC(3)的时间值tC(3)=tP(3)=4,其中,/> D1(3)=dΔ(3)*dI(3),或者,/>eC(4)的数据值/>eC(4)的时间值tC(4)=tP(4)=5,其中,/> D1(4)=dΔ(4)*dI(4),或者,/>
执行至此,可以得到,一个历史植物神经信号S,对应一个植物神经信号集P,一个植物神经差集Δ、一个特征集I和一个变化集C。
P、Δ、I、C中元素的数量与历史植物神经信号中信号数量相同,且P、Δ、I、C中所有时间值相同的元素均对应历史植物神经信号中的相同信号。通过时间值就可以找到历史植物神经信号中该信号在P、Δ、I、C中对应的元素。也就是说,通过时间值t,以及该t在P、Δ、I、C中的元素,就可以知道历史植物神经信号中的一个信号,其信号值、差值、特征值以及变化情况。通过上述情况的追踪,就可以得到用户植物神经信号对于其内心的真实反应。
以上描述的是人心识别模型的训练过程,在得到人心识别模型后,即可通过人心识别模型对S101中采集的植物神经信号进行识别。
识别过程与人心识别模型的训练过程相同,再此不进行详细的展开说明。该识别过程如下:
S103-1,生成植物神经信号集PA,植物神经信号集PA中每一个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>
其中,PA的元素与S101中得到的植物神经信号一一对应,且PA的任一元素的数据值/> 的时间值/>为A(x)的采集时间,A(x)为S101中得到的第x个植物神经信号,x为S101中得到的植物神经信号标识,S101中得到的植物神经信号按照时间顺序排列。
S103-2,根据植物神经信号集PA形成对应的植物神经差集ΔA,植物神经差集ΔA的每一个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>
其中,ΔA的元素与S101中得到的植物神经信号一一对应。
对于植物神经信号集PA中的最后一个元素其与ΔA中的最后一个元素对应,且/>的数据值/> 的时间值/>为/>的时间值/>其中,xl为植物神经信号集PA中的最后一个元素的标识。
对于植物神经信号集PA中的非最后一个元素其一一对应ΔA中的一个元素/>且/>的数据值/> 的时间值/>其中,xj为植物神经信号集PA中非最后一个元素的标识。
S103-3,将S101中得到的植物神经信号输入神经网络模型,进行特征识别,得到该植物神经信号中每个元素的植物神经信号值的特征,进而形成对应的特征集IA,特征集IA中每个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>
其中,IA的元素与S101中得到的植物神经信号一一对应,且/>的数据值为A(x)的特征,/>的时间值/>
S103-4,将植物神经差集ΔA以及特征集IA输入人心识别模型,得到识别结果CA
S104,通过识别结果对图像进行评测。
具体的,
S104-1,按植物神经信号的时间,对应取该时间对应的图像。
S104-2,识别取到每一图像中的面部表情以及头部旋转夹角、膝关节夹角、肘关节夹角。
其中,膝关节夹角包括左膝关节夹角和右膝关节夹角。
肘关节夹角包括左肘关节夹角和右肘关节夹角。
左膝关节夹角=左大腿与左小腿形成的夹角-预先获取的放松状态下左大腿与左小腿形成的夹角。
右膝关节夹角=右大腿与右小腿形成的夹角-预先获取的放松状态下右大腿与右小腿形成的夹角。
左肘关节夹角=左前臂与左上臂形成的夹角-预先获取的放松状态下左前臂与左上臂形成的夹角。
右肘关节夹角=右前臂与右上臂形成的夹角-预先获取的放松状态下右前臂与右上臂形成的夹角。
S104-3,将每一图像中面部表情与CA中对应时间的元素值的积作为修正的面部表情,头部旋转夹角与CA中对应时间的元素值的积作为修正的头部旋转夹角,膝关节夹角与CA中对应时间的元素值的积作为修正的膝关节夹角,肘关节夹角与CA中对应时间的元素值的积作为修正的肘关节夹角。
S104-4,根据修正的面部表情以及修正的头部旋转夹角、修正的膝关节夹角、修正的肘关节夹角进行评测,得到该用户的评测结果。
本实施例提供的方法,由于植物神经信号是用户无法自主控制的,而面部表情和动作是用户可以控制的,通过植物神经信号对面部表情和动作做修正可以还原用户对表情和动作的控制,使得修正后的面部表情和动作可以反应用户的真实心理,使得最终的评测结果更客观、更准确。
本实施例提供的方法,持续获取用户的植物神经信号;持续获取用户的图像;将植物神经信号输入人心识别模型,得到识别结果;人心识别模型用于识别时间连续的一段植物神经信号的变化;通过识别结果对图像进行评测。本发明通过植物神经信号和用户图像进行识别,实现了心理健康状态的客观评测。
为了更好的理解上述技术方案,下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更清楚、透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例,或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。
应当注意的是,在权利要求中,不应将位于括号之间的任何附图标记理解成对权利要求的限制。词语“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的词语“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的权利要求中,这些装置中的若干个可以是通过同一个硬件来具体体现。词语第一、第二、第三等的使用,仅是为了表述方便,而不表示任何顺序。可将这些词语理解为部件名称的一部分。
此外,需要说明的是,在本说明书的描述中,术语“一个实施例”、“一些实施例”、“实施例”、“示例”、“具体示例”或“一些示例”等的描述,是指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管已描述了本发明的优选实施例,但本领域的技术人员在得知了基本创造性概念后,则可对这些实施例作出另外的变更和修改。所以,权利要求应该解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种修改和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也应该包含这些修改和变型在内。

Claims (9)

1.一种基于人心识别模型的无接触图像评测方法,其特征在于,所述方法包括:
S101,持续获取用户的植物神经信号;
S102,持续获取用户的图像;
S103,将所述植物神经信号输入人心识别模型,得到识别结果CA;所述人心识别模型用于识别时间连续的一段植物神经信号的变化;
S104,通过所述识别结果对所述图像进行评测;
所述S104具体包括:
S104-1,按植物神经信号的时间,对应取该时间对应的图像;
S104-2,识别取到每一图像中的面部表情以及头部旋转夹角、膝关节夹角、肘关节夹角;
S104-3,将每一图像中面部表情与CA中对应时间的元素的数据值的积作为修正的面部表情,头部旋转夹角与CA中对应时间的元素的数据值的积作为修正的头部旋转夹角,膝关节夹角与CA中对应时间的元素的数据值的积作为修正的膝关节夹角,肘关节夹角与CA中对应时间的元素的数据值的积作为修正的肘关节夹角;
S104-4,根据修正的面部表情以及修正的头部旋转夹角、修正的膝关节夹角、修正的肘关节夹角进行评测,得到该用户的评测结果。
2.根据权利要求1所述的方法,其特征在于,所述S103之前还包括:
S201,获取多段时间连续的历史植物神经信号,每一历史段植物神经信号S(i)为一个样本数据,其中,i为信号标识;
S202,每一个样本数据生成一个植物神经信号集P,所述植物神经信号集P中每一个元素eP包括2个维度,一个维度为数据值dP,另一个维度为时间值tP;其中,任一样本数据的任一历史植物神经信号值S(i)一一对应P中的一个元素eP(i),且eP(i)的数据值dP(i)=S(i),eP(i)的时间值tP(i)为B(i)的采集时间;
S203,根据每一个植物神经信号集P形成对应的植物神经差集Δ,所述植物神经差集Δ的每一个元素eΔ包括2个维度,一个维度为数据值dΔ,另一个维度为时间值tΔ;其中,植物神经信号集P中的任一元素eP(i)一一对应Δ中的一个元素eΔ(i);
S204,依次将各样本数据输入神经网络模型,进行特征识别,得到该样本数据中每个元素的植物神经信号值的特征,进而形成对应的特征集I,所述特征集I中每个元素eI包括2个维度,一个维度为数据值dI,另一个维度为时间值tI;其中,任一样本数据的任一历史植物神经信号值S(i)一一对应I中的一个元素eI(i),且eI(i)的数据值dI(i)为所述任一样本数据中第i个历史植物神经信号值的特征,eI(i)的时间值tI(i)=tP(i);
S205,根据所述植物神经差集Δ以及特征集I确定各样本数据的变化,进而形成人心识别模型。
3.根据权利要求2所述的方法,其特征在于:
对于植物神经信号集P中的最后一个元素eP(l),其与Δ中的最后一个元素eΔ(l)对应,且eΔ(l)的数据值dΔ(l)=0,eΔ(l)的时间值tΔ(l)为eP(l)的时间值tP(l);其中,1为植物神经信号集P中的最后一个元素的标识;
对于植物神经信号集P中的非最后一个元素eP(j),其一一对应Δ中的一个元素eΔ(j),且eΔ(j)的数据值dΔ(j)=dP(j+1)-dP(j)的数据值,eΔ(j)的时间值tΔ(j)=tP(j),其中,j为植物神经信号集P中非最后一个元素的标识。
4.根据权利要求2所述的方法,其特征在于,所述S205具体包括:
依次将各样本数据的植物神经差集Δ以及特征集I输入人心识别模型进行训练,得到训练好的人心识别模型;
其中,人心识别模型训练过程为:
对于任一样本数据,将其植物神经差集Δ以及特征集I,通过人心识别模型得到变化集C,所述变化集C中每个元素eC包括2个维度,一个维度为数据值dC,另一个维度为时间值tC
其中,所述植物神经信号集P中的任一元素eP(i)一一对应变化集C中的一个元素eC(i),且eC(i)的数据值eC(i)的时间值tC(i)=tP(i);D1(i)为根据植物神经差集Δ得到的植物神经参数,/> 为特征集I中所有dI的均值。
5.根据权利要求4所述的方法,其特征在于,所述D1(i)=dΔ(i)*dI(i)。
6.根据权利要求4所述的方法,其特征在于,所述 植物神经差集Δ中所有dΔ的均值。
7.根据权利要求6所述的方法,其特征在于,S103具体包括:
S103-1,生成植物神经信号集PA,所述植物神经信号集PA中每一个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>其中,PA的元素/>与S101中得到的植物神经信号一一对应,且PA的任一元素/>的数据值/>的时间值/>为A(x)的采集时间,A(x)为S101中得到的第x个植物神经信号,x为S101中得到的植物神经信号标识,所述S101中得到的植物神经信号按照时间顺序排列;
S103-2,根据植物神经信号集PA形成对应的植物神经差集ΔA,所述植物神经差集ΔA的每一个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>其中,ΔA的元素/>与S101中得到的植物神经信号一一对应;
S103-3,将S101中得到的植物神经信号输入神经网络模型,进行特征识别,得到该植物神经信号中每个元素的植物神经信号值的特征,进而形成对应的特征集IA,所述特征集IA中每个元素包括2个维度,一个维度为数据值/>另一个维度为时间值/>其中,IA的元素与S101中得到的植物神经信号一一对应,且/>的数据值/>为A(x)的特征,的时间值/>
S103-4,将植物神经差集ΔA以及特征集IA输入人心识别模型,得到识别结果CA
8.根据权利要求7所述的方法,其特征在于:
对于植物神经信号集PA中的最后一个元素其与ΔA中的最后一个元素/>对应,且/>的数据值/>的时间值/>为/>的时间值其中,xl为植物神经信号集PA中的最后一个元素的标识;
对于植物神经信号集PA中的非最后一个元素其一一对应ΔA中的一个元素/>且/>的数据值/> 的时间值其中,xj为植物神经信号集PA中非最后一个元素的标识。
9.根据权利要求1所述的方法,其特征在于,所述S104-2中膝关节夹角包括左膝关节夹角和右膝关节夹角;
肘关节夹角包括左肘关节夹角和右肘关节夹角;
所述左膝关节夹角=左大腿与左小腿形成的夹角-预先获取的放松状态下左大腿与左小腿形成的夹角;
所述右膝关节夹角=右大腿与右小腿形成的夹角-预先获取的放松状态下右大腿与右小腿形成的夹角;
左肘关节夹角=左前臂与左上臂形成的夹角-预先获取的放松状态下左前臂与左上臂形成的夹角;
右肘关节夹角=右前臂与右上臂形成的夹角-预先获取的放松状态下右前臂与右上臂形成的夹角。
CN202110898333.0A 2021-08-05 2021-08-05 一种基于人心识别模型的无接触图像评测方法 Active CN113705621B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110898333.0A CN113705621B (zh) 2021-08-05 2021-08-05 一种基于人心识别模型的无接触图像评测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110898333.0A CN113705621B (zh) 2021-08-05 2021-08-05 一种基于人心识别模型的无接触图像评测方法

Publications (2)

Publication Number Publication Date
CN113705621A CN113705621A (zh) 2021-11-26
CN113705621B true CN113705621B (zh) 2023-12-08

Family

ID=78651694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110898333.0A Active CN113705621B (zh) 2021-08-05 2021-08-05 一种基于人心识别模型的无接触图像评测方法

Country Status (1)

Country Link
CN (1) CN113705621B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069294A (zh) * 2015-08-07 2015-11-18 北京环度智慧智能技术研究所有限公司 一种用于认知能力值测试的计算和分析方法
CN107085709A (zh) * 2017-04-25 2017-08-22 广东数相智能科技有限公司 一种基于视频信息的自信度判断方法、装置及系统
CN109376225A (zh) * 2018-11-07 2019-02-22 广州市平道信息科技有限公司 聊天机器人装置及系统
CN109730701A (zh) * 2019-01-03 2019-05-10 中国电子科技集团公司电子科学研究院 一种情绪数据的获取方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11141088B2 (en) * 2018-10-09 2021-10-12 Sony Corporation Electronic device for recognition of mental behavioral attributes based on deep neural networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069294A (zh) * 2015-08-07 2015-11-18 北京环度智慧智能技术研究所有限公司 一种用于认知能力值测试的计算和分析方法
CN107085709A (zh) * 2017-04-25 2017-08-22 广东数相智能科技有限公司 一种基于视频信息的自信度判断方法、装置及系统
CN109376225A (zh) * 2018-11-07 2019-02-22 广州市平道信息科技有限公司 聊天机器人装置及系统
CN109730701A (zh) * 2019-01-03 2019-05-10 中国电子科技集团公司电子科学研究院 一种情绪数据的获取方法及装置

Also Published As

Publication number Publication date
CN113705621A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
Khushaba et al. A framework of temporal-spatial descriptors-based feature extraction for improved myoelectric pattern recognition
Khezri et al. Reliable emotion recognition system based on dynamic adaptive fusion of forehead biopotentials and physiological signals
Holzreiter et al. Assessment of gait patterns using neural networks
Patel et al. A novel approach to monitor rehabilitation outcomes in stroke survivors using wearable technology
Aung et al. Estimation of upper limb joint angle using surface EMG signal
Ozdemir et al. EMG based hand gesture recognition using deep learning
Kashi et al. A machine-learning model for automatic detection of movement compensations in stroke patients
Neacsu et al. Automatic EMG-based hand gesture recognition system using time-domain descriptors and fully-connected neural networks
Mollazadeh et al. Principal components of hand kinematics and neurophysiological signals in motor cortex during reach to grasp movements
Zhang et al. Fuzzy inference system based automatic Brunnstrom stage classification for upper-extremity rehabilitation
CN113974612B (zh) 一种卒中患者上肢运动功能自动化评估方法与系统
Iftime et al. Automatic determination of synergies by radial basis function artificial neural networks for the control of a neural prosthesis
Majid et al. EMG feature extractions for upper-limb functional movement during rehabilitation
Tiwari et al. Classification of physiological signals for emotion recognition using IoT
CN109126045A (zh) 智能化运动分析和训练系统
Hu New biometric approach based on motor imagery EEG signals
Wang et al. Diagnosis and intervention for children with autism spectrum disorder: a survey
CN113705621B (zh) 一种基于人心识别模型的无接触图像评测方法
CN113693598B (zh) 用于人心识别的心理评测系统
Pradhan et al. Hand gesture recognition and biometric authentication using a multi-day dataset
CN113693597B (zh) 一种用于人心识别的心理健康评测系统
Zohirov Classification Of Some Sensitive Motion Of Fingers To Create Modern Biointerface
CN113707294B (zh) 一种基于动态视频数据的心理评测方法
CN113693599B (zh) 用于人心识别的心理评测系统
Kipouras Evidence for a 3-stage model for the process of free-hand forgery of signatures and/or handwriting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 301, 3rd Floor, No. 8 Sijiqing Road, Haidian District, Beijing, 100195

Applicant after: WOMIN HIGH-NEW SCIENCE & TECHNOLOGY (BEIJING) CO.,LTD.

Address before: 100000 West, floor 14, block B, Haidian culture and art building, No. a 28, Zhongguancun Street, Haidian District, Beijing

Applicant before: WOMIN HIGH-NEW SCIENCE & TECHNOLOGY (BEIJING) CO.,LTD.

GR01 Patent grant
GR01 Patent grant