CN117338298B - 情绪干预方法、装置、可穿戴情绪干预设备及存储介质 - Google Patents

情绪干预方法、装置、可穿戴情绪干预设备及存储介质 Download PDF

Info

Publication number
CN117338298B
CN117338298B CN202311650883.6A CN202311650883A CN117338298B CN 117338298 B CN117338298 B CN 117338298B CN 202311650883 A CN202311650883 A CN 202311650883A CN 117338298 B CN117338298 B CN 117338298B
Authority
CN
China
Prior art keywords
target
intervention
emotion
emotional
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311650883.6A
Other languages
English (en)
Other versions
CN117338298A (zh
Inventor
刘杰
刘韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Chaoshu Times Technology Co ltd
Original Assignee
Beijing Chaoshu Times Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Chaoshu Times Technology Co ltd filed Critical Beijing Chaoshu Times Technology Co ltd
Priority to CN202311650883.6A priority Critical patent/CN117338298B/zh
Publication of CN117338298A publication Critical patent/CN117338298A/zh
Application granted granted Critical
Publication of CN117338298B publication Critical patent/CN117338298B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Anesthesiology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Surgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Pain & Pain Management (AREA)
  • Acoustics & Sound (AREA)

Abstract

本发明涉及个人数据处理技术领域,公开了情绪干预方法、装置、可穿戴情绪干预设备及存储介质。本发明提供了一种情绪干预方法,应用于可穿戴情绪干预设备,方法包括:采集用户在指定时长内的个人数据;确定用户当前所处交互环境的环境数据;根据环境数据和个人数据,识别用户当前的目标情绪状态;若目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与目标情绪状态对应的第一目标干预策略;执行第一目标干预策略,以调节目标情绪状态。能够满足用户随时随地管理情绪的需求,有利于提高用户的心理健康水平。

Description

情绪干预方法、装置、可穿戴情绪干预设备及存储介质
技术领域
本发明涉及个人数据处理技术领域,具体涉及情绪干预方法、装置、可穿戴情绪干预设备及存储介质。
背景技术
情绪管理对于人们的心理健康至关重要。良好的情绪管理能够帮助人们更好地应对生活中的挑战和压力,提升心理健康水平。
相关技术中,为实现情绪干预,需要依靠专业人员的指导和支持。但在实际场景下,当人们出现情绪问题时,可能会因时间和空间的限制,而导致无法直接与专业人员沟通,及时进行情绪干预,从而无法满足人们随时随地管理情绪的需求。
发明内容
有鉴于此,本发明提供了一种情绪干预方法、装置、可穿戴情绪干预设备及存储介质,以解决人们无法及时合理调节自身情绪的问题。
第一方面,本发明提供了一种情绪干预方法,应用于可穿戴情绪干预设备,方法包括:
采集用户在指定时长内的个人数据;
确定用户当前所处交互环境的环境数据;
根据环境数据和个人数据,识别用户当前的目标情绪状态;
若目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与目标情绪状态对应的第一目标干预策略;
执行第一目标干预策略,以调节目标情绪状态;
若所述第一目标干预策略完整执行,评估执行所述第一目标干预策略的效果,当所述效果满足第一预设条件时,则将所述目标情绪状态与所述第一目标干预策略标记为关联持续有效,并在下一次情绪干预时使用,当所述效果不满足所述第一预设条件时,则暂时解除关联所述目标情绪状态与所述第一目标干预策略,并在下一次情绪干预时允许所述用户自由选择目标干预策略,
其中,采用贝塞尔函数评估执行所述第一目标干预策略的效果,所述贝塞尔函数可表达为,其中,t是时间参数,n是控制情绪变化速率的参数,x是控制情绪干预效果强度的参数。
有益效果:本实施例提供的情绪干预方法,能够自动识别用户当前在交互环境下的目标情绪状态,进而通过执行与该目标情绪状态对应的第一目标干预策略,实时调节该目标情绪状态,从而满足用户随时随地管理情绪的需求,有利于提高用户的心理健康水平。
在一种可选的实施方式中,根据环境数据和个人数据,识别用户当前的目标情绪状态,包括:
将环境数据和个人数据输入至预先训练好的情绪检测模型中,基于内置的多个神经元,分别建立情绪数据与预置的多个情绪状态之间的映射关系,情绪数据包括环境数据和个人数据;
基于各映射关系对应的置信值,确定用户当前的目标情绪状态。
在一种可选的实施方式中,基于各映射关系对应的置信值,确定用户当前的目标情绪状态,包括:
将置信值最大的映射关系作为目标映射关系;
将目标映射关系中与情绪数据对应的情绪状态,作为目标情绪状态。
在一种可选的实施方式中,情绪检测模型的训练方法包括:
获取多组输入样本数据,每组输入样本数据包括对应的情绪参考状态,输入样本数据包括:环境样本数据和个人样本数据;
分别将各组输入样本数据输入预设的深度学习网络模型中,得到各组输入样本数据对应的情绪预测状态;
基于各组的情绪预测状态和对应的情绪参考状态的比较结果,计算预设的深度学习网络模型的决定系数;
若决定系数大于或者等于指定系数阈值,则确定深度学习网络模型训练完成,得到情绪检测模型;
其中,决定系数R_squared的计算公式如下:
R_squared=1-(SS_res/SS_tot);
SS_res=Σ(y_true-y_pred)^2;
SS_tot=Σ(y_true-mean(y_true))^2;
SS_res表示情绪预测状态和对应的情绪参考状态的比较结果;SS_tot表示输入样本数据和对应情绪预测状态的均值之间的差异;y_true表示所述情绪预测状态;y_pred表示所述情绪预测状态对应的所述情绪参考状态;mean(y_true)表示所有情绪预测状态的平均结果。
在一种可选的实施方式中,根据环境数据和个人数据,识别用户当前的目标情绪状态,包括:
根据环境数据和个人数据,通过预设情绪公式识别用户当前的目标情绪状态;
其中,预设情绪公式如下:
情绪状态=(情绪指数-基线情绪指数)×预设强度参数;
a1为个人数据对应的第一权重,a2为环境数据对应的第二权重;基线情绪指数为参考群体的平均情绪状态对应的指数。
在一种可选的实施方式中,可穿戴情绪干预设备包括显示器,方法还包括:
监测第一目标干预策略的执行进度;
若第一目标干预策略在执行过程中被终止,则通过显示器向用户推送多种候选干预策略,以供用户从多个候选干预策略中选择待执行的第二目标干预策略。
在一种可选的实施方式中,方法还包括:
响应第二目标干预策略被选中,执行第二目标干预策略;
构建环境数据、个人数据以及第二目标干预策略之间的目标对应关系;
记录并存储对应关系,得到干预记录。
在一种可选的实施方式中,方法还包括:
基于干预记录,调节情绪检测模型。
在一种可选的实施方式中,确定用户当前所处交互环境的环境数据,包括:
采集交互环境的环境图像数据;
采集交互环境下的音频数据;
将环境图像数据和音频数据确定为交互环境的环境数据。
第二方面,本发明提供了一种情绪干预装置,应用于可穿戴情绪干预设备,装置包括:
采集模块,用于采集用户在指定时长内的个人数据;
第一确定模块,用于确定用户当前所处交互环境的环境数据;
情绪识别模块,用于根据环境数据和个人数据,识别用户当前的目标情绪状态;
第二确定模块,用于若目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与目标情绪状态对应的第一目标干预策略;
执行模块,用于执行第一目标干预策略,以调节目标情绪状态。
第三方面,本发明提供了一种可穿戴情绪干预设备,包括:存储器和处理器,存储器和处理器之间互相通信连接,存储器中存储有计算机指令,处理器通过执行计算机指令,从而执行上述第一方面或其对应的任一实施方式的情绪干预方法。
第四方面,本发明提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机指令,计算机指令用于使计算机执行上述第一方面或其对应的任一实施方式的情绪干预方法。
附图说明
图1是根据本发明实施例的情绪干预方法的流程示意图;
图2是根据本发明实施例的另一情绪干预方法的流程示意图;
图3是根据本发明实施例的情绪干预装置的结构框图;
图4是本发明实施例的可穿戴情绪干预设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在本申请实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应当理解,尽管在本申请实施例中可能采用术语第一、第二、第三等来描述,但这些描述不应限于这些术语。这些术语仅用来将描述区分开。例如,在不脱离本申请实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者装置中还存在另外的相同要素。
特别需要说明的是,在说明书中存在的符号和/或数字,如果在附图说明中未被标记的,均不是附图标记。
下面结合附图详细说明本申请的可选实施例。
相关技术中,为实现情绪干预,需要依靠专业人员的指导和支持。但在实际场景下,当人们出现情绪问题时,可能会因时间和空间的限制,而导致无法直接与专业人员沟通,及时进行情绪干预,从而无法满足人们随时随地管理情绪的需求。
鉴于此,本发明提供一种情绪干预方法,通过可穿戴情绪干预设备采集用户在指定时长内的个人数据,并确定用户当前所处交互环境的环境数据,进而根据环境数据和个人数据,识别用户当前的目标情绪状态。若目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与目标情绪状态对应的第一目标干预策略,进而执行第一目标干预策略,以调节目标情绪状态。通过本发明提供的情绪干预方法,能够自动识别用户当前在交互环境下的目标情绪状态,进而通过执行与该目标情绪状态对应的第一目标干预策略,实时调节该目标情绪状态,从而满足用户随时随地管理情绪的需求,有利于提高用户的心理健康水平。
若第一目标干预策略完整执行,评估执行第一目标干预策略的效果,当效果满足第一预设条件时,则将目标情绪状态与第一目标干预策略标记为有效关联,并在下一次情绪干预时使用,当效果不满足第一预设条件时,则解除关联目标情绪状态与第一目标干预策略,并在下一次情绪干预时允许用户自由选择目标干预策略,
其中,采用贝塞尔函数评估执行第一目标干预策略的效果。
具体地,可按如下步骤进行评估:
收集情绪干预前用户的基线情绪数据,表示为{x1,x2,…,xn}。
收集情绪干预后用户的情绪数据,表示为{y1,y2,…,yn}。
计算干预前后情绪变化的差值,包括:
对于每个用户i,计算其情绪变化差值d=yi-xi
利用贝塞尔函数拟合情绪变化差值:
选择适当的贝塞尔函数类型,例如,第一类贝塞尔函数Jn(x),其中,n是控制情绪变化速率的参数,x是控制情绪干预效果强度的参数。
使用最小二乘法或其他拟合方法,将贝塞尔函数拟合到情绪变化差值数据{d1,d2,…,dn}上。
评估拟合效果:
使用拟合优度指标或评估指标评估贝塞尔函数对情绪变化差值的拟合效果,拟合优度指标例如可以是R2,具体表示为
其中,是贝塞尔函数拟合后的预测值,/>是情绪变化差值的平均值,R2的值越接近1,贝塞尔函数对情绪变化差值的拟合效果越好,干预策略的效果越显著。其中,第一预设条件例如可以是R2满足预设的值。
例如,贝塞尔函数可表达为,其中,t是时间参数,n是控制情绪变化速率的参数,x是控制情绪干预效果强度的参数。
例如,假设n=1,x=2,则
J_1(2)≈-0.46356594788397004
这个例子中的最优值是指情绪干预前后情绪变化差值最小时的贝塞尔函数值。在具体应用中,可以通过比较不同参数下的贝塞尔函数值来选择最优参数。
请注意,上述提供了一种使用贝塞尔函数评估情绪干预效果的方法。具体的实现可因数据类型、样本量和研究目标而不同。
其中,本发明提供的可穿戴情绪干预设备可以是智能手环、智能手表、智能项链或智能者眼镜等任意一种能够贴合用户皮肤,且便于用户随身佩戴的电子设备。
根据本发明实施例,提供了一种情绪干预方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中提供了一种情绪干预方法,可用于上述的可穿戴情绪干预设备,图1是根据本发明实施例的情绪干预方法的流程图,如图1所示,该流程包括如下步骤:
步骤S101,采集用户在指定时长内的个人数据。
在本发明实施例中,情绪与人体的生理变化密切相关,当人体处于不同的情绪状态时,会产生不同的生理反应。因此,为确定用户的情绪是否发生异常,则采集用户在指定时长内的个人数据,以通过该个人数据监测当前用户自身的生理反应。其中,其中,用户的个人数据至少包括以下的数据来源:生理、心理、社交、日常活动等。其中,生理数据包括:心率、呼吸频率、皮肤电阻数据、睡眠质量、身体健康状态等。心理数据包括:压力水平、焦虑成都、幸福指数等。社交数据可以包括:社交支持、人家关系状态等。日常活动数据包括:工作满意度、休闲娱乐活动参与度等。环境数据至少包括以下数据来源:天气、季节、生活环境等。
在一些可选地实施方式中,为便于及时检测用户的情绪变化,可以按照指定周期,定时采集用户在指定时长内的个人数据,进而有助于避免无效检测的同时,避免检测资源被过度占用。
步骤S102,确定用户当前所处交互环境的环境数据。
在本发明实施例中,由于环境的变化和刺激也会对人体的情绪产生影响。例如,音乐、颜色、气味、温度等环境因素都可能引发情绪的变化。因此,为便于准确识别用户当前的情绪状态,则识别用户当前所处的交互环境,进而确定该交互环境的环境数据,以通过该环境数据检测当前用户是独处还是处于与他人交互的环境下,从而便于后续进行针对性分析。
步骤S103,根据环境数据和个人数据,识别用户当前的目标情绪状态。
在本发明实施例中,为提高情绪状态的识别效率,则将得到的环境数据和个人数据输入预先训练好的情绪检测模型中,通过预先训练好的情绪检测模型进行情绪检测,从而识别用户当前的目标情绪状态。
在一示例中,情绪检测模型可以是以自注意力机制模型为框架,通过深度学习训练得到。
步骤S104,若目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与目标情绪状态对应的第一目标干预策略。
在本发明实施例中,预先针对用户可能产生的异常情绪状态配置多种干预策略,进而得到多个情绪状态与干预策略的对应关系。多个情绪状态包括目标情绪状态。当确定目标情绪状态为异常状态后,将目标情绪状态与多个情绪状态相匹配,从多个情绪状态与干预策略的对应关系中,确定目标对应关系,进而根据该目标对应关系,确定与目标情绪状态对应的第一目标干预策略。目标对应关系即为目标情绪状态与第一目标干预策略之间的对应关系。
步骤S105,执行第一目标干预策略,以调节目标情绪状态。
在本发明实施例中,在确定第一目标干预策略后,对用户当前的目标情绪状态进行调节,以保障用户当前能够处于健康的情绪状态下。
例如:若当前确定目标情绪状态为用户处于焦虑状态,则对应执行的第一目标干预策略可以是播放能够缓解情绪的音乐或者通过语音进行冥想指导用户放松,进而实现调节目标情绪状态的目的。或者,若确定的目标情绪状态为愤怒状态时,则可以通过声音或者震动等方式提示用户当前其情绪出现异常,进而实现调节目标情绪状态的目的。或者,若确定的目标情绪状态为低落状态时,则可以通过播放乡村、民谣或者钢琴曲等具有安抚效果的音乐,进而实现调节目标情绪状态的目的。
本实施例提供的情绪干预方法,能够自动识别用户当前在交互环境下的目标情绪状态,进而通过执行与该目标情绪状态对应的第一目标干预策略,实时调节该目标情绪状态,从而满足用户随时随地管理情绪的需求,有利于提高用户的心理健康水平。
在一些可选的实施方式中,若目标情绪状态为正常状态,则不进行情绪干预。
在另一些可选的实施方式中,识别用户当前的目标情绪状态的过程可以如下:
步骤a1,将环境数据和个人数据输入至预先训练好的情绪检测模型中,基于内置的多个神经元,分别建立情绪数据与预置的多个情绪状态之间的映射关系;
步骤a2,基于各映射关系对应的置信值,确定用户当前的目标情绪状态。
具体的,将环境数据和个人数据作为用户当前的情绪数据,进而将该情绪数据输入预先训练好的情绪检测模型中,通过神经元,分别建立情绪数据与预置的多个情绪状态之间的映射关系,以分别确定当前情绪数据可能对应的情绪状态以及对应的置信值,进而根据各映射关系的置信值,确定用户当前的目标情绪状态。其中,情绪检测模型可以是以自注意力机制模型为框架的深度学习模型,置信度通过预置在情绪检测模型中的softmax函数(归一化函数)确定。
在一实施场景中,置信度的确定过程如下:
在情绪检测模型中,每个情绪状态对应着一个神经元,该神经元的输出表示该情绪的置信度。假设模型输出的向量为[c1,c2,...,cn],其中ci表示第i个情绪状态的输出值。那么根据softmax函数的定义,第i个情绪状态的置信值可以计算为:
confidence_i=exp(ci)/sum(exp(cj))
其中,exp()是指数函数,sum(exp(cj))表示所有情绪状态的输出值的指数函数的和。
通过这样的计算,可以得到每个情绪状态的置信值,置信值越大表示模型对该情绪状态的判断越有信心。根据置信值的大小,可以确定用户当前的目标情绪状态。
例如:将置信值最大的映射关系作为目标映射关系,并将目标映射关系中与情绪数据对应的情绪状态,作为目标情绪状态。
再例如:当存在置信值相同的多个映射关系,则基于预置的投票机制,将投票结果最高的映射关系作为目标映射关系,进而确定目标情绪状态。
在一些可选的实施场景中,情绪检测模型的训练方法包括:获取多组输入样本数据,每组输入样本数据包括对应的情绪参考状态,输入样本数据包括:环境样本数据和个人样本数据;分别将各组输入样本数据输入预设的深度学习网络模型中,得到各组输入样本数据对应的情绪预测状态;基于各组的情绪预测状态和对应的情绪参考状态的比较结果,计算预设的深度学习网络模型的决定系数;若决定系数大于或者等于指定系数阈值,则确定深度学习网络模型训练完成,得到情绪检测模型;
其中,决定系数R_squared的计算公式如下:
R_squared=1-(SS_res/SS_tot);
SS_res=Σ(y_true-y_pred)^2;
SS_tot=Σ(y_true-mean(y_true))^2;
SS_res表示情绪预测状态和对应的情绪参考状态的比较结果;SS_tot表示输入样本数据和对应情绪预测状态的均值之间的差异;y_true表示所述情绪预测状态;y_pred表示所述情绪预测状态对应的所述情绪参考状态;mean(y_true)表示所有情绪预测状态的平均结果。
在一示例中,若决定系数小于指定系数阈值,则表征为训练完成,需调节深度学习网络模型的模型参数继续训练,直至决定系数大于或者等于指定系数阈值。其中,决定系数越接近1越稳定。指定系数阈值的具体数值可以是根据相关人员的训练经验确定的,可以根据需求自行设定,在本发明中不进行限定。
在另一些可选的实施方式中,为快速确定用户当前的目标情绪状态,可以预先采集大量的用户情绪记录数据。其中,用户情绪记录数据包括在不同情绪状态下,用户的个人数据和对应的环境数据。
基于用户情绪记录数据,通过数据拟合的方式,建立个人数据、环境数据以及情绪状态之间的关联关系,以便后续在对用户的情绪状态进行分析时,可以充分考虑用户的个人因素和外界环境因素的影响,进而使监测得到的目标情绪状态,能够更贴合用户的真实情绪状态。
例如:个人数据、环境数据以及情绪状态对应情绪指数之间的关联关系可以可以采用下述公式进行表示:
情绪状态=(情绪指数-基线情绪指数)×预设强度参数。
其中,a1为个人数据对应的第一权重,a2为环境数据对应的第二权重。优选的,a1+a2=1,a1>a2。基线情绪指数:表示参考群体的平均情绪状态对应的指数。
其中,情绪指数用于衡量用户情绪状态,预设强度参数用于定义情绪的强度或程度,可以通过对情绪体验的主观评价或生理指标进行量化来确定。预设强度参数的取值范围为[0,10],其中,1表示非常弱,10表示非常强。
在本实施例中提供了一种情绪干预方法,可用于上述可穿戴情绪干预设备,图2是根据本发明实施例的情绪干预方法的流程图,如图2所示,该流程包括如下步骤:
步骤S201,采集用户在指定时长内的个人数据。
步骤S202,确定用户当前所处交互环境的环境数据。
步骤S203,根据环境数据和个人数据,识别用户当前的目标情绪状态。
步骤S204,若目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与目标情绪状态对应的第一目标干预策略。
步骤S205,执行第一目标干预策略,以调节目标情绪状态。
步骤S206,监测第一目标干预策略的执行进度。
在本发明实施例中,为避免当前执行的第一目标干预策略对用户的目标情绪状态进行针对性调节,则监测第一目标干预策略的执行进度,以便当第一目标干预策略被终止时,可以及时为用户提供可选择的多种候选干预策略,便于用户从中选择适合调节目标情绪状态的第二目标干预策略。
步骤S207,若第一目标干预策略在执行过程中被终止,则通过显示器向用户推送多种候选干预策略,以供用户从多个候选干预策略中选择待执行的第二目标干预策略。
本实施例提供的情绪干预方法,通过监测第一目标干预策略的执行进度,可以检测当前所执行的第一目标干预策略是否满足用户调节情绪的需求,以当用户终止第一目标干预策略时,可以及时推送多种候选干预策略,便于用户进行针对性选择,从而满足用户调节自身情绪的需求。
在一些可选的实施方式中,在推送多种候选干预策略之前,还可以在此确定用户当前的目标情绪状态。若目标情绪状态为正常状态,则表征用户的情绪状态已经恢复正常,进而不推送多种候选干预策略。
在另一些可选的实施方式中,上述情绪干预方法还包括如下步骤:
步骤S208,响应第二目标干预策略被选中,执行第二目标干预策略。
在本发明实施例中,当第二目标干预策略被选中,则表征用户还需继续调节自身的情绪状态,则在第二目标干预策略被选中后,执行第二目标干预策略。
步骤S209,构建环境数据、个人数据以及第二目标干预策略之间的目标对应关系。
步骤S210,存储对应关系,得到干预记录。
在本发明实施例中,为确定用户的情绪干预情况,则将建立的对应关系进行存储,形成本次情绪调节的干预记录,进而便于后续用户查询时,可以明确自身情绪调节情况。例如:通过干预记录,有助于用户明确自身情绪调节周期、次数、所采用的目标干预策略等,进而有助于用户可以有意调节或者克制自身的情绪状态,减少情绪异常的情况发生。
在一可选的实施方式中,干预记录还用于调节情绪检测模型。由于预先训练好的情绪检测模型是针对大众用户的情绪样本数据训练得到的,因此,在进行情绪状态检测时,可能会导致确定目标情绪状态与用户当前的情绪状态不匹配。通过干预记录调节情绪检测模型,使情绪检测模型在进行情绪状态检测时,能够更贴合当前用户的情绪状态,使得到的检测结果更具有针对性,有助于提高检测结果的准确性。
通过上述情绪干预方法,通过存储干预记录,有助于用户可以随时随地访问情绪数据、学习情绪管理技巧,从而能够更好地帮助人们管理自身情绪,提升心理健康,使人们能够在需要的时候获得及时、便捷的情绪支持和干预。
在一些可选的实施方式中,环境数据包括交互环境的环境图像数据和音频数据。具体的,通过可穿戴设备上的图像采集摸块(例如:普通摄像头或者深度摄像头)采集当前交互环境的环境图像,进而通过特征提取等图像处理技术对该环境图像进行图像处理,从而得到图像数据,以便后续可以通过图像数据识别当前具体环境以及该用户在当前交互环境下是否存在同伴。通过可穿戴设备上的麦克风或者其他音频采集装置,采集用户当前的音频数据,以便后续可以根据该音频数据识别用户是否在与他人交流。
在一些可选的应用场景中,通过可穿戴情绪干预设备,对用户的目标情绪状态进行干预的过程可以如下:
在用户佩戴可穿戴情绪干预设备的过程中,可穿戴情绪干预设备可以按照制定周期定时采集用户在指定时长内的个人数据。可穿戴情绪干预设备通过自身的图像采集模块采集当前所处社交环境的图像数据,并同时通过自身的音频采集模块采集该指定时长内的音频数据,从而得到用户当前所处交互环境的环境数据。
将环境数据和个人数据输入预先训练好的情绪检测模型中,识别用户当前的目标情绪状态。当目标情绪状态为异常状态时,则从预置的多个情绪状态与干预策略的对应关系中,确定与目标情绪状态对应的第一目标干预策略,进而执行第一目标干预策略,以调节目标情绪状态。
但若第一目标干预策略执行的过程中被用户终止,则通过显示器向用户推送多种候选干预策略,以供用户从多个候选干预策略中选择待执行的第二目标干预策略。
在每次情绪干预完成后,均存储干预记录。其中,干预记录包括采集的环境数据、个人数据以及被执行的第一目标干预策略或第二目标干预策略。
通过本发明提供的情绪干预方法,通过可穿戴情绪干预设备可以帮助人们更好地管理情绪,提升心理健康,能够有效地解决传统情绪干预方法的限制,使人们能够在需要的时候获得及时、便捷的情绪支持和干预。
在本实施例中还提供了一种情绪干预装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种情绪干预装置,应用于可穿戴情绪干预设备,如图3所示,包括:
采集模块301,用于采集用户在指定时长内的个人数据;
第一确定模块302,用于确定用户当前所处交互环境的环境数据;
情绪识别模块303,用于根据环境数据和个人数据,识别用户当前的目标情绪状态;
第二确定模块304,用于若目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与目标情绪状态对应的第一目标干预策略;
第一执行模块305,用于执行第一目标干预策略,以调节目标情绪状态。
在一些可选的实施方式中,情绪识别模块303包括:
第一识别单元,用于将环境数据和个人数据输入至预先训练好的情绪检测模型中,基于内置的多个神经元,分别建立情绪数据与预置的多个情绪状态之间的映射关系,其中,情绪数据包括环境数据和个人数据;筛选单元,用于基于各映射关系对应的置信值,确定用户当前的目标情绪状态。
在一些可选的实施方式中,筛选单元包括:第一处理单元,用于将置信值最大的映射关系作为目标映射关系;第二处理单元,用于将目标映射关系中与情绪数据对应的情绪状态,作为目标情绪状态。
在一些可选的实施方式中,所述情绪检测模型的训练装置包括:
获取模块,用于获取多组输入样本数据,每组输入样本数据包括对应的情绪参考状态,所述输入样本数据包括:环境样本数据和个人样本数据;
训练模块,用于分别将各组所述输入样本数据输入预设的深度学习网络模型中,得到各组所述输入样本数据对应的情绪预测状态;
计算模块,用于基于各组的所述情绪预测状态和对应的所述情绪参考状态的比较结果,计算所述预设的深度学习网络模型的决定系数;
训练检测模块,用于若所述决定系数大于或者等于指定系数阈值,则确定所述深度学习网络模型训练完成,得到所述情绪检测模型;
其中,所述决定系数R_squared的计算公式如下:
R_squared=1-(SS_res/SS_tot);
SS_res=Σ(y_true-y_pred)^2;
SS_tot=Σ(y_true-mean(y_true))^2;
SS_res表示所述情绪预测状态和对应的所述情绪参考状态的比较结果;SS_tot表示所述输入样本数据和对应情绪预测状态的均值之间的差异;y_true表示所述情绪预测状态;y_pred表示所述情绪预测状态对应的所述情绪参考状态;mean(y_true)表示所有情绪预测状态的平均结果。
在一些可选的实施方式中,情绪识别模块303包括:
第二识别单元,用于根据环境数据和个人数据,通过预设情绪公式识别用户当前的目标情绪状态;其中,预设情绪公式如下:;情绪状态=(情绪指数-基线情绪指数)×预设强度参数;a1为个人数据对应的第一权重,a2为环境数据对应的第二权重;基线情绪指数为参考群体的平均情绪状态对应的指数。
在一些可选的实施方式中,可穿戴情绪干预设备包括显示器,装置还包括:监测模块,用于监测第一目标干预策略的执行进度;推送模块,用于若第一目标干预策略在执行过程中被终止,则通过显示器向用户推送多种候选干预策略,以供用户从多个候选干预策略中选择待执行的第二目标干预策略。
在一些可选的实施方式中,装置还包括:第二执行模块,用于响应第二目标干预策略被选中,执行第二目标干预策略;构建模块,用于构建环境数据、个人数据以及第二目标干预策略之间的目标对应关系;存储模块,用于存储对应关系,得到干预记录。
在一些可选的实施方式中,装置还包括:基于干预记录,调节情绪检测模型。
在一些可选的实施方式中,第一确定模块302包括:第一采集单元,用于采集交互环境的环境图像数据;第二采集单元,用于采集交互环境下的音频数据;第三处理单元,用于将环境图像数据和音频数据确定为交互环境的环境数据。
上述各个模块和单元的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
本实施例中的情绪干预装置是以功能单元的形式来呈现,这里的单元是指ASIC(Application Specific Integrated Circuit,专用集成电路)电路,执行一个或多个软件或固定程序的处理器和存储器,和/或其他可以提供上述功能的器件。
本发明实施例还提供一种可穿戴情绪干预设备,具有上述图3所示的情绪干预装置。
请参阅图4,图4是本发明可选实施例提供的一种可穿戴情绪干预设备的结构示意图,如图4所示,该可穿戴情绪干预设备包括:一个或多个处理器10、存储器20,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相通信连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在可穿戴情绪干预设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在一些可选的实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个可穿戴情绪干预设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图4中以一个处理器10为例。
处理器10可以是中央处理器,网络处理器或其组合。其中,处理器10还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路,可编程逻辑器件或其组合。上述可编程逻辑器件可以是复杂可编程逻辑器件,现场可编程逻辑门阵列,通用阵列逻辑或其任意组合。
其中,存储器20存储有可由至少一个处理器10执行的指令,以使至少一个处理器10执行实现上述实施例示出的方法。
存储器20可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据可穿戴情绪干预设备的使用所创建的数据等。此外,存储器20可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些可选的实施方式中,存储器20可选包括相对于处理器10远程设置的存储器,这些远程存储器可以通过网络连接至该可穿戴情绪干预设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
存储器20可以包括易失性存储器,例如,随机存取存储器;存储器也可以包括非易失性存储器,例如,快闪存储器,硬盘或固态硬盘;存储器20还可以包括上述种类的存储器的组合。
该可穿戴情绪干预设备还包括输入装置30和输出装置40。处理器10、存储器20、输入装置30和输出装置40可以通过总线或者其他方式连接,图4中以通过总线连接为例。
输入装置30可接收输入的数字或字符信息,以及产生与该可穿戴情绪干预设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等。输出装置40可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。上述显示设备包括但不限于液晶显示器,发光二极管,显示器和等离子体显示器。在一些可选的实施方式中,显示设备可以是触摸屏。
本发明实施例还提供了一种计算机可读存储介质,上述根据本发明实施例的方法可在硬件、固件中实现,或者被实现为可记录在存储介质,或者被实现通过网络下载的原始存储在远程存储介质或非暂时机器可读存储介质中并将被存储在本地存储介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件的存储介质上的这样的软件处理。其中,存储介质可为磁碟、光盘、只读存储记忆体、随机存储记忆体、快闪存储器、硬盘或固态硬盘等;进一步地,存储介质还可以包括上述种类的存储器的组合。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件,当软件或计算机代码被计算机、处理器或硬件访问且执行时,实现上述实施例示出的方法。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。

Claims (11)

1.一种情绪干预方法,其特征在于,应用于可穿戴情绪干预设备,所述方法包括:
采集用户在指定时长内的个人数据;
确定所述用户当前所处交互环境的环境数据;
根据所述环境数据和所述个人数据,识别所述用户当前的目标情绪状态;
若所述目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与所述目标情绪状态对应的第一目标干预策略;
执行所述第一目标干预策略,以调节所述目标情绪状态;
当所述第一目标干预策略完整执行,评估执行所述第一目标干预策略的效果,当所述效果满足第一预设条件时,则将所述目标情绪状态与所述第一目标干预策略标记为关联持续有效,并在下一次情绪干预时继续使用,
当所述效果不满足所述第一预设条件时,则暂时解除关联所述目标情绪状态与所述第一目标干预策略,并在下一次情绪干预时允许所述用户自由选择目标干预策略,
其中,采用贝塞尔函数评估执行所述第一目标干预策略的效果,所述贝塞尔函数的表达式为
其中,t是时间参数,n是控制情绪变化速率的参数,x是控制情绪干预效果强度的参数;
其中,所述根据所述环境数据和所述个人数据,识别所述用户当前的目标情绪状态,包括:
将所述环境数据和所述个人数据输入至预先训练好的情绪检测模型中,基于内置的多个神经元,分别建立情绪数据与预置的多个情绪状态之间的映射关系,其中,所述情绪数据包括所述环境数据和所述个人数据;
基于各映射关系对应的置信值,确定所述用户当前的目标情绪状态。
2.根据权利要求1所述的方法,其特征在于,所述基于各映射关系对应的置信值,确定所述用户当前的目标情绪状态,包括:
将置信值最大的映射关系作为目标映射关系;
将所述目标映射关系中与所述情绪数据对应的情绪状态,作为所述目标情绪状态。
3.根据权利要求2所述的方法,其特征在于,所述情绪检测模型的训练方法包括:
获取多组输入样本数据,其中,每组输入样本数据包括对应的情绪参考状态,所述输入样本数据包括:环境样本数据和个人样本数据;
分别将各组所述输入样本数据输入预设的深度学习网络模型中,得到各组所述输入样本数据对应的情绪预测状态;
基于各组的所述情绪预测状态和对应的所述情绪参考状态的比较结果,计算所述预设的深度学习网络模型的决定系数;
若所述决定系数大于或者等于指定系数阈值,则确定所述深度学习网络模型训练完成,得到所述情绪检测模型;
其中,所述决定系数R_squared的计算公式如下:
R_squared=1-(SS_res/SS_tot);
SS_res=Σ(y_true-y_pred)^2;
SS_tot=Σ(y_true-mean(y_true))^2;
SS_res表示所述情绪预测状态和对应的所述情绪参考状态的比较结果;SS_tot表示所述输入样本数据和对应情绪预测状态的均值之间的差异;y_true表示所述情绪预测状态;y_pred表示所述情绪预测状态对应的所述情绪参考状态;mean(y_true)表示所有情绪预测状态的平均结果。
4.根据权利要求1所述的方法,其特征在于,所述根据所述环境数据和所述个人数据,识别所述用户当前的目标情绪状态,包括:
根据所述环境数据和所述个人数据,通过预设情绪公式识别所述用户当前的目标情绪状态;
其中,所述预设情绪公式如下:
情绪状态=(情绪指数-基线情绪指数)×预设强度参数;
所述a1为所述个人数据对应的第一权重,所述a2为所述环境数据对应的第二权重;所述基线情绪指数为参考群体的平均情绪状态对应的指数。
5.根据权利要求1所述的方法,其特征在于,所述可穿戴情绪干预设备包括显示器,所述方法还包括:
监测所述第一目标干预策略的执行进度;
若所述第一目标干预策略在执行过程中被终止,则通过所述显示器向所述用户推送多种候选干预策略,以供所述用户从所述多个候选干预策略中选择待执行的第二目标干预策略。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
响应所述第二目标干预策略被选中,执行所述第二目标干预策略;
构建所述环境数据、所述个人数据以及所述第二目标干预策略之间的目标对应关系;
存储所述对应关系,得到干预记录。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
基于干预记录,调节所述情绪检测模型。
8.根据权利要求1所述的方法,其特征在于,所述确定用户当前所处交互环境的环境数据,包括:
采集所述交互环境的环境图像数据;
采集所述交互环境下的音频数据;
将所述环境图像数据和所述音频数据确定为所述交互环境的环境数据。
9.一种情绪干预装置,其特征在于,应用于可穿戴情绪干预设备,所述装置包括:
采集模块,用于采集用户在指定时长内的个人数据;
第一确定模块,用于确定所述用户当前所处交互环境的环境数据;
情绪识别模块,用于根据所述环境数据和所述个人数据,识别所述用户当前的目标情绪状态;
第二确定模块,用于若所述目标情绪状态为异常状态,则从预置的多个情绪状态与干预策略的对应关系中,确定与所述目标情绪状态对应的第一目标干预策略;
第一执行模块,用于执行所述第一目标干预策略,以调节所述目标情绪状态;
所述第一执行模块还用于:
当所述第一目标干预策略完整执行,评估执行所述第一目标干预策略的效果,当所述效果满足第一预设条件时,则将所述目标情绪状态与所述第一目标干预策略标记为关联持续有效,并在下一次情绪干预时继续使用,
当所述效果不满足所述第一预设条件时,则暂时解除关联所述目标情绪状态与所述第一目标干预策略,并在下一次情绪干预时允许所述用户自由选择目标干预策略,
其中,采用贝塞尔函数评估执行所述第一目标干预策略的效果,所述贝塞尔函数的表达式为
其中,t是时间参数,n是控制情绪变化速率的参数,x是控制情绪干预效果强度的参数。
10.一种可穿戴情绪干预设备,其特征在于,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1至8中任一项所述的情绪干预方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令用于使计算机执行权利要求1至8中任一项所述的情绪干预方法。
CN202311650883.6A 2023-12-05 2023-12-05 情绪干预方法、装置、可穿戴情绪干预设备及存储介质 Active CN117338298B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311650883.6A CN117338298B (zh) 2023-12-05 2023-12-05 情绪干预方法、装置、可穿戴情绪干预设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311650883.6A CN117338298B (zh) 2023-12-05 2023-12-05 情绪干预方法、装置、可穿戴情绪干预设备及存储介质

Publications (2)

Publication Number Publication Date
CN117338298A CN117338298A (zh) 2024-01-05
CN117338298B true CN117338298B (zh) 2024-03-12

Family

ID=89365319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311650883.6A Active CN117338298B (zh) 2023-12-05 2023-12-05 情绪干预方法、装置、可穿戴情绪干预设备及存储介质

Country Status (1)

Country Link
CN (1) CN117338298B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105681900A (zh) * 2015-12-31 2016-06-15 宇龙计算机通信科技(深圳)有限公司 一种信息处理方法及移动终端
CN111184521A (zh) * 2020-01-20 2020-05-22 北京津发科技股份有限公司 一种压力识别手环
CN115590516A (zh) * 2022-09-29 2023-01-13 平安银行股份有限公司(Cn) 一种情绪提醒方法、具有情绪提醒功能的手环及相关装置
CN116211305A (zh) * 2022-12-20 2023-06-06 重庆邮电大学 动态实时情绪检测方法及系统
CN116485424A (zh) * 2023-06-19 2023-07-25 江西倬慧信息科技有限公司 一种智能营销方法、系统、设备终端及可读存储介质
CN116491944A (zh) * 2023-04-28 2023-07-28 江苏经贸职业技术学院 一种基于智能手环的心理状态监测评估系统
CN116965818A (zh) * 2023-08-01 2023-10-31 上海迎智正能文化发展有限公司 一种基于人工智能的异常情绪调控方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10373515B2 (en) * 2017-01-04 2019-08-06 International Business Machines Corporation System and method for cognitive intervention on human interactions
CN111145871A (zh) * 2018-11-02 2020-05-12 京东方科技集团股份有限公司 情绪干预方法、装置和系统,以及计算机可读存储介质
FR3090940B1 (fr) * 2018-12-21 2021-07-23 Univ Montpellier Mesure temporelle a haute precision d’evenements vibro-acoustiques en synchronisation avec un signal sonore sur dispositif a ecran tactile
US20230120262A1 (en) * 2021-10-14 2023-04-20 Koa Health B.V. Method for Improving the Success of Immediate Wellbeing Interventions to Achieve a Desired Emotional State

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105681900A (zh) * 2015-12-31 2016-06-15 宇龙计算机通信科技(深圳)有限公司 一种信息处理方法及移动终端
CN111184521A (zh) * 2020-01-20 2020-05-22 北京津发科技股份有限公司 一种压力识别手环
CN115590516A (zh) * 2022-09-29 2023-01-13 平安银行股份有限公司(Cn) 一种情绪提醒方法、具有情绪提醒功能的手环及相关装置
CN116211305A (zh) * 2022-12-20 2023-06-06 重庆邮电大学 动态实时情绪检测方法及系统
CN116491944A (zh) * 2023-04-28 2023-07-28 江苏经贸职业技术学院 一种基于智能手环的心理状态监测评估系统
CN116485424A (zh) * 2023-06-19 2023-07-25 江西倬慧信息科技有限公司 一种智能营销方法、系统、设备终端及可读存储介质
CN116965818A (zh) * 2023-08-01 2023-10-31 上海迎智正能文化发展有限公司 一种基于人工智能的异常情绪调控方法及系统

Also Published As

Publication number Publication date
CN117338298A (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
CN107773214B (zh) 一种最佳唤醒策略的方法、计算机可读介质和系统
US10638965B2 (en) Method and system for monitoring stress conditions
KR101851690B1 (ko) 착용형 센서를 이용한 일주기 생체리듬의 비정상성 탐지 장치 및 방법
RU2672684C2 (ru) Сенсорные стимулы для повышения точности оценки определения стадий сна
WO2020010668A1 (zh) 基于睡眠大数据的人体健康评估方法及评估系统
CN107209807A (zh) 疼痛管理可穿戴设备
JP2021508518A (ja) ユーザの精神/感情状態をモデリングする方法およびシステム
KR102053604B1 (ko) 수면 분석 방법 및 이를 이용한 수면 분석 디바이스
CN105431851A (zh) 用于定制患者护理的健康护理决策支持系统
KR102074794B1 (ko) 뇌파신호를 센싱하는 정신치료장치 및 그 장치를 이용하여 뇌파신호를 표시및 저장하는 정신치료시스템 및 중간관리자를 통한 뇌파신호 관리시스템
CN110706816A (zh) 一种基于人工智能进行睡眠环境调控的方法及设备
CN110111815A (zh) 动物异常声音监控方法及装置、存储介质、电子设备
CN115862873A (zh) 一种睡眠节律量化及干预的方法、系统和装置
CN117064388A (zh) 基于情绪识别实现精神障碍评估分析的系统
CN108937967A (zh) 一种基于vr技术的心理学记忆数据提升检测方法及系统
CN117338298B (zh) 情绪干预方法、装置、可穿戴情绪干预设备及存储介质
JP7005921B2 (ja) 睡眠状態推定装置、睡眠状態推定方法および睡眠状態推定プログラム
CN112489815A (zh) 一种抑郁症情绪监测方法、装置及可读存储介质
CN115547491A (zh) 健康管理方法、装置、电子设备及存储介质
Li et al. Self-reported well-being score modelling and prediction: Proof-of-concept of an approach based on linear dynamic systems
Kaur et al. Implementation of a Neuro‐Fuzzy‐Based Classifier for the Detection of Types 1 and 2 Diabetes
TWI808579B (zh) 自動進化的腦波偵測系統與用於腦波資料庫的自動進化方法
JP2020534614A5 (zh)
CN113358382B (zh) 一种冲洗水压舒适性测试装置及方法
WO2022144978A1 (ja) 情報処理装置、制御方法及び記憶媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant