CN108209946A - 一种情绪控制装置与方法 - Google Patents

一种情绪控制装置与方法 Download PDF

Info

Publication number
CN108209946A
CN108209946A CN201810106194.1A CN201810106194A CN108209946A CN 108209946 A CN108209946 A CN 108209946A CN 201810106194 A CN201810106194 A CN 201810106194A CN 108209946 A CN108209946 A CN 108209946A
Authority
CN
China
Prior art keywords
emotional state
user
mobile terminal
practical
cloud server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810106194.1A
Other languages
English (en)
Inventor
贺鹏程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Haode Translation Information Technology Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201810106194.1A priority Critical patent/CN108209946A/zh
Priority to CN202110568627.7A priority patent/CN113288145A/zh
Priority to CN202110568055.2A priority patent/CN113288144A/zh
Publication of CN108209946A publication Critical patent/CN108209946A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Fuzzy Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

一种情绪控制装置及方法,包括:移动端、探测器和云端服务器,云端服务器根据探测器采集的身体信号来分析确定与之对应的理论情绪状态并反馈至移动端,在移动端针对至少一段连续的时间区间内的实际情绪状态信息分析确认当前用户的实际情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,和/或在云端服务器分析确认当前用户的理论情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,云端服务器通过移动端向当前用户发出预警提示,基于用户对移动端的操作完成对云端服务器的示教过程,云端服务器根据示教过程确定的至少两种极端情绪状态信息来预先配置情感分析算法的参数。本发明能够准确预知用户情绪变化趋势,从而进行有效调整。

Description

一种情绪控制装置与方法
技术领域
本发明涉及人工智能领域,尤其涉及一种情绪控制装置与方法。
背景技术
情绪与感受是一对互动的心理状态,彼此转化,相生相克。拉平情绪曲线,保持身心健康。感受是用户通过外界条件刺激来获得的,用户通过感受产生心理上情绪的变化,并且将情绪通过身体信号反馈出来。
情绪是身体内部的一种能量,可以通过体表如胸部或腕部测量确定与某种情绪相关的特征信号。然而与情绪相关的特征数据十分庞杂,其由于因人而异而致使这些情绪特征数据的指向性并不明确。若单纯基于情绪信号来引导调节人员的情绪,往往会出现相反的效果。
CN104939810A提供了一种控制情绪的方法及装置,其中,所述方法包括:A)获取一脉搏频率;B)当所述脉搏频率的值高于一预设频率值时,获取一声音信息;C)检测所述声音信息中的声音强度与节拍速度;D)根据所述声音强度与节拍速度判断用户是否处于情绪失控状态;E)当处于情绪失控状态时,停止获取所述声音信息,播放一预设音频,通过上述步骤解决了自动探测情绪失控状态并根据上述状态自动实施控制情绪的问题。该技术方案虽然能够探测并提示相关人员控制情绪,但是这种控制出现在情绪失控状态之后,而一旦人员陷入情绪失控,就会出现难以控制的结局,不能达到所期待的技术效果。
CN107456218A公开了一种情绪感测系统及可穿戴设备,该情绪感测系统包括可检测心率与呼吸信号的胸部节点和/或可检测脉搏与血氧信号的腕部节点、上位机以及云服务器,所述胸部节点和/或所述腕部节点无线连接所述上位机,所述上位机无线连接所述云服务器,所述胸部节点和/或所述腕部节点所采集的信号通过所述上位机上传至所述云服务器,所述云服务器根据所采集的信号,基于预设的数据库,利用情感分析算法确定所采集的信号所对应的情绪状态,并反馈至所述上位机。该系统能够及时、可靠地感测用户的情绪状态,可帮助用户对自己的情绪进行管理与调整,并可发布到社交网络上,增强了基于情感交流的社交和娱乐性。该技术方案仅仅提供了信号采集的具体手段,在说明书中非常笼统地介绍了CNN与LSTM的情绪分析模型,虽然用户能够获得计算而得的情绪状态,但当前最优的情绪计算结果也与实际情绪存在较大差异,且不能应对纷繁复杂的个体情况,所以该技术方案在实践中并不能完成对用户情绪的引导和管理。
CN107485402A公开了一种情绪监测装置及系统。该装置包括:接收模块和控制模块,所述接收模块用于接收第一终端发送的指示第一用户的情绪状态的状态信息,所述第一终端与所述情绪监测装置存在绑定关系;所述控制模块用于根据所述状态信息呈现出反映所述第一用户的情绪状态的信息。该发明解决了第二用户实时掌握第一用户情绪的问题,但它对于如何引导和管理第一用户的情绪没有提供解决方案。
发明内容
本发明源自这样的发现,没有任何一个人能够准确描述某种情绪所带来的心理感受,无论是悲伤、喜悦还是痛苦。虽然现在有脑电波扫描、特征信号探测等等方法,也有大量人工智能的算法如CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)被用于构件情绪模型,然而具体到个体的适用效果而言都只能说是差强人意。
从心理学家的角度来看,情绪是可管理的,至少是可引导的。这种管理与引导需要科学的方法和装置来辅助才能达到预期的效果。故此,本发明的任务在于,提供一种由使用人员自身来标定并记录情绪,并由此来有针对性地训练情绪控制能力的装置及方法。通过本发明,一方面可以通过示教过程来完成对云端服务器情感分析算法的训练,另一方面可以由用户持续地调整实际情绪状态与理论情绪状态之差别,使得本发明的装置逐渐习得用户的情绪特征,进而有效管理用户情绪。
一种情绪控制装置,至少包括:移动端,用于自动采集和/或由用户输入实际情绪状态信息;探测器,用于以间接或直接地接触用户身体的方式采集身体信号,所述身体信号经由所述移动端发送给云端服务器;云端服务器,用于基于预设的数据库利用情感分析算法确定与所述身体信号对应的理论情绪状态信息;其特征在于,所述云端服务器基于所述探测器采集的身体信号来分析确定与之对应的理论情绪状态并反馈至所述移动端,并且所述云端服务器或所述移动端基于用户通过所述移动端输入的感受、所述实际情绪状态信息和/或外界条件信息分析所述实际情绪状态的变化趋势,并且在所述实际情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,所述移动端向当前用户发出预警提示。本发明通过将外界条件、情绪、感受和身体信号进行综合分析,记录其相关联系,从而可以确定用户的实际情绪状态变化趋势,并且在情绪向极端趋势变化的过程中进行调节,使得情绪状态维持在需要的状态。并且,本发明可以将情绪的变化趋势在云服务器进行共享,从而避免伙伴在情绪易爆发时接触和谈合作,减少负面情绪的传染范围,促进人群的快乐生活。
根据一个优选实施方式,所述云端服务器基于用户输入的实际情绪状态信息、身体信号和/或外界条件来分析并完成所述云端服务器的示教过程,其中,所述云端服务器根据所述示教过程确定的至少两种极端情绪状态信息来预先配置情感分析算法的参数。通过对用户输入的感受信息以及外界条件变化信息来对云端服务器进行示教,使云端服务器能够确定情感分析算法。在确定情感分析算法后,基于外界条件和身体信号对实际情绪状态进行准确分析,提高对个体的实际情绪状态的分析概率,有利于制定个性化的情感分析算法。
根据一个优选实施方式,所述移动端将用户以文本、语音、视频和/或图形的方式输入的感受与对应的自动采集的实际情绪状态以关联的形式存储或提供至所述云端服务器,或者,所述移动端记录引发用户的实际情绪状态的外界条件并以与对应的实际情绪状态关联的形式存储或提供至所述云端服务器,所述云端服务器对用户的特定情绪状态和所述外界条件之间的相关性进行分析,并且基于所述相关性对所述特定情绪状态的引发进行预警。在确定实际情绪状态与外界条件和身体信号的关联后,有利于在实际情绪状态向特定情绪状态转变过程中进行引导,使情绪快速转变,从而避免用户的情绪转变为极端情绪,或者避免用户在极端情绪下做出不好的事情。
根据一个优选实施方式,所述云端服务器将用户输入的当前情绪状态信息和所述移动端提供的与实际情绪状态信息相关的外界条件以彼此关联的方式进行存储,所述移动端被设置为由用户按照与外界条件相关的方式检索存储在所述云端服务器和/或所述移动端的实际情绪状态信息。将外界条件、身体信号和情绪状态相关联,有利于用户在需要了解自己的情绪历史记录时进行检索,从而快速了解自己在指定外界条件的情绪状态。而且,本发明有利于通过云端服务器进行大数据搜集,了解外界条件对人群的情绪状态的刺激。特别的,对于需要进行情绪引导和激发的演员,通过外界条件或情景来检索相关情绪并引导情绪爆发,有利于演技的提升。
根据一个优选实施方式,所述云端服务器根据所述实际情绪状态信息来校正基于所述探测器采集的身体信号分析确定的理论情绪状态,由校正后的理论情绪状态构成的情绪管理配置文件按照可根据身体信号进行检索的方式存储在所述移动端。情绪是个性化的,基于个体的性格不同而存在差异。即使同样的外界条件,也会产生情绪的不同。因此,个性化的情绪状态分析十分重要。基于身体信号进行检索,有利于用户通过身体信息特征来获知自己的情绪状态记录信息。并且对于需要研究情绪的专家或者学术机构,能够提供大量样本以供其研究身体与病人情绪的关联。不仅如此,演员能够通过身体信号的检索了解具有身体病痛的人的情绪和感受,从而引导自己的情绪来达到真实的表情表演。
根据一个优选实施方式,在示教过程中,所述移动端向用户施加能够引发情绪的刺激信息,并且自动采集和/或由用户输入与所述刺激信息对应的实际情绪状态信息,同时所述探测器采集用户的与所述刺激信息对应的身体信号,所述云端服务器基于示教过程中的至少两种所述实际情绪状态信息、所述身体信号来预先配置情感分析算法的参数,并且校正与所述身体信号对应的理论情绪状态信息。通过施加刺激信息,能够准确获得用户的相应的情绪状态以及身体信号,从而对云端服务器进行准确示教。优选的,通过示教过程,能够优先获得出现概率较少的极端情绪的相关变化趋势,从而完善云端服务器的情绪状态信息。
根据一个优选实施方式,所述移动端由用户输入实际情绪状态的步骤包括:用户以点选的方式选择当前情绪的类型以及级别,和/或用户以文本、语音、视频或图形的方式输入自身的实际情绪状态。用户以点选的方式选择情绪级别,有利于记录用户的情绪状态的变化以及同样外界条件下情绪的不同变化。
根据一个优选实施方式,所述移动端以外界条件、身体信号、实际情绪状态和感受的映射关联逐渐增加的方式存储和显示外界条件信息、身体信号信息、实际情绪状态信息和感受信息,其中,每一个外界条件与至少一个身体信号映射关联,每一个身体信号与至少一个实际情绪状态映射关联,每一个实际情绪状态与至少一个感受映射关联。本发明的将外界条件、情绪状态和身体信号及感受关联显示,有利于用户观察自己的情绪状态的变化并调整自己的负面情绪。
根据一个优选实施方式,所述云端服务器基于对每一时刻的至少一个外界条件、身体信号和/或感受的迭代分析来记录实际情绪状态和理论情绪状态,并且所述移动终端以显示具有映射关联的标识的方式显示外界条件变化、身体信号变化、感受变化和实际情绪状态的变化趋势,以颜色变化、声音和 /或振动的方式提醒用户实际情绪状态的极端变化趋势,和/或显示改变实际情绪状态的建议。本发明的以颜色变化、声音和/或振动的方式显示情绪状态的变化趋势,一方面有利于用户自己判断自己的情绪状态变化趋势,另一方面有利于用户了解自己受外界条件的影响程度。优选的,对于演员,则有利于判断自己的情绪状态是否符合预期的现场场景,即判断自己的情绪是否到位,从而提升演技的表情。
本发明还提供一种情绪控制方法,至少包括:自动采集和/或由用户输入实际情绪状态信息;以间接或直接地接触用户身体的方式采集身体信号,基于预设的数据库利用情感分析算法确定与所述身体信号对应的理论情绪状态信息;其特征在于,基于所述探测器采集的身体信号来分析确定与之对应的理论情绪状态并反馈至所述移动端,并且基于用户通过所述移动端输入的感受、所述实际情绪状态信息和/或外界条件信息分析所述实际情绪状态的变化趋势,并且在所述实际情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,所述移动端向当前用户发出预警提示。
本发明的有益技术效果:
本发明的情绪控制装置及情绪控制方法,能够将用户的情绪状态进行个性化分析,提高个人的情绪状态变化的准确判断。并且,本发明能够利用云平台将情绪状态的数据进行大数据化进行各行业的共享,有利于政府部门分析外界条件的变化对群体的情绪状态的影响。对于演员、谈判者、医生等需要情绪调节的职业人员,本发明能够帮助其调节情绪状态或引导其情绪变化至适宜工作的情绪状态。特别的,良好的情绪状态不仅有益于工作,还有益于生活,避免用户由于负面情绪造成身体的损害,延长寿命。本发明的情绪控制装置及情绪控制方法,有益于大家快乐工作和生活。
附图说明
图1是本发明的逻辑结构示意图;和
图2是本发明的移动端的显示示意图。
附图标记列表
10:移动端 20:探测器
30:云端服务器 31:数据库
具体实施方式
下面结合附图进行详细说明。
实施例1
如图1所示,本发明提供一种情绪控制装置。本发明的情绪控制装置至少包括移动端10、探测器20和云端服务器30。移动端10用于自动采集和 /或由用户输入实际情绪状态信息。优选的,移动端10包括图像或视频采集装置。移动端可以是智能终端,例如笔记本、手机、智能手环、智能手表等移动装置,也可以是摄像装置。优选的,摄像装置包括普通摄像装置和夜用摄像装置。优选的,自动采集是自动采集用户的脸部表情以及微表情。或者,由用户将自己的表情图片或视频、或用文字描述的情绪输入移动端。
本发明的探测器用于以间接或直接地接触用户身体的方式采集身体信号。探测器包括多种采集人体生理信号的模块。探测器的探测模块至少包括脉搏传感器、心跳传感器、血压传感器、呼吸频率传感器、声音采集模块、手部振动模块和脚步频率传感器中的一种或几种。优选的,探测器中的探测模块还可以根据需求增加微波信号传感器,用于检测脑电波的变化。探测器中的探测模块还可以根据需求增加设置在头部的电极。优选的,探测器20采集的身体信号经由所述移动端10发送给云端服务器30。
本发明的云端服务器30用于基于预设的数据库利用情感分析算法确定与身体信号对应的理论情绪状态信息。优选的,云端服务器30设置有存储若干情感分析算法的数据库31。所述云端服务器30根据所述探测器20采集的身体信号来分析并确定与之对应的理论情绪状态并反馈至所述移动端 10。优选的,情感分析算法包括贝叶斯分类算法、神经网络、支持向量机、决策树、基于事例推理的学习、关联规则学习等机器学习算法。
例如:示教过程的方法步骤包括:
S1:启动示教模式;
S2:用户选择:根据用户名选择本次示教对象,若本次示教的对象为数据存储模块中已经录入的用户,则直接进行选择;若本次示教的对象为尚未录入的用户,则通过移动端录入其用户的情绪信息再进行选择,所述的用户情绪信息包括用户名和用户脸部照片、用户样例情绪及与其关联的外界条件和感受;
S3:样例选取,若本次示教的样例情绪视频和示教匹配内容已经存储在该用户名下,则直接选取已存储的样例情绪视频和示教匹配内容;若本次示教的样例情绪视频和示教匹配内容没有包含在该用户名下,则通过移动端读入本次示教的示教匹配内容,并且将本次示教的样例情绪视频和示教匹配内容存入该用户名下,然后选取存入的样例情绪视频和示教匹配内容;
S4:情绪变换:调用步骤S3中选取的样例情绪视频,基于用户脸部照片进行基于情绪演化,实现样例情绪在用户脸部照片上的视频反演,生成示教情绪视频;
S5:实时示教:移动端实时显示步骤S4生成的示教情绪视频和步骤S3 选取的示教匹配内容进行示教。例如,此时用户处于烦躁情绪,用户通过移动端输入烦躁信息。移动端采集用户此刻的烦躁情绪表情、时间轴一一对应的外界条件以及用户的感受并存储至用户名下。云端服务器根据移动端采集的烦躁表情以及外界条件进行理论情绪分析,多次重复,直至示教结束;
S6:效果评估:云端服务器根据理论情绪分析的情绪和示教过程中录入的用户情绪信息,通过对比修正情绪分析算法,并且记录与该情绪时间关联的外界条件和感受。
其中一种理论情绪分析算法如下所述。情绪感知算法以支持向量机多分类算法为基础实现情绪感知,支持向量机的模型是定义在特征空间上的间隔最大的线性分类器,可以转化为一个求解凸二次规划的问题,通过求解优化问题来获得分类结果。在示教过程中,只要保证分类结果和真实值Y在一个范围ε以内,就认为是可以接受的,该优化问题表达公式如下:
该方法通过非线性映射将低维空间的示教样本映射至高维空间F,然后在高维空间中通过线性分类器进行分类。其中w表示权重向量,wT为其转置向量,b表示线性阈值参数,相关参数通过示教过程获得。
优选的,云端服务器30基于用户对所述移动端10的操作完成对所述云端服务器30的示教过程。首先,云端服务器30需要用户配合以完成示教过程。本发明中的示教是指示范性的人工智能的编程。当用户的实际情绪状态、身体信号以及外界条件以关联的形式存储在云端服务器中时,云端服务器30通过示教过程将实际情绪状态、身体信号以及外界条件的关联关系以及情感分析算法写入内存中,形成针对用户的个性化情感分析算法。用户与云端服务器30通过移动端10的示教次数越多,则云端服务器30的情感分析算法越准确。例如,根据用户多次输入的样例信息而调节各种信息的权重参数,使情感分析算法的理论情绪状态尽量与用户的实际情绪状态一致或近似。
其中,所述云端服务器30根据所述示教过程确定的至少两种极端情绪状态信息来预先配置情感分析算法的参数。
优选的,在示教过程中,所述移动端10向用户施加能够引发情绪的刺激信息,并且自动采集和/或由用户输入与所述刺激信息对应的实际情绪状态信息。同时所述探测器20采集用户的与所述刺激信息对应的身体信号。所述云端服务器基于示教过程中的至少两种所述实际情绪状态信息、所述身体信号来预先配置情感分析算法的参数。优选的,云端服务器30基于实际情绪状态来校正与身体信号对应的理论情绪状态信息。
优选的,刺激信息包括视频、图片、文字信息和声音等能够引起用户情绪反应的信息。文字信息包括能够引起用户反应的悲伤情景描述、快乐情景描述、温暖场景描述、笑话等文字。特别地,刺激信息还包括能够引起用户极端情绪的刺激信息,以便记录用户的极端情绪。
优选的,云端服务器30还基于示教过程中的实际情绪状态的变化趋势形成个性化的情绪变化曲线。例如,情绪变化为:微开心→开心→不开心→平静→悲伤。正常情况下,用户不会从非常开心状态瞬间转入悲伤状态。
通过持续性分析当前用户的理论情绪状态,本发明的情绪控制装置就能够利用云端服务器30来确定情绪状态的变化趋势。例如,通过对探测器20 所采集的身体信号分析可以表明,当前用户的情绪变化趋势正在从平缓变为激烈,且这种趋势没有缓解的趋势时,若移动端10根据理论情绪状态模型推演得到当前用户趋于发怒,则其在该用户发怒之前(例如愤怒等级为4级且趋势为增长),以用户指定的声音、文本、图形或视频等方式向该用户发出提示,以助于其及时地缓解紧张或愤怒的情绪,而不出现情绪爆发。
优选的,在所述移动端10针对至少一段连续的时间区间内的实际情绪状态信息分析确认当前用户的实际情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,和/或在所述云端服务器分析确认当前用户的理论情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,所述云端服务器通过所述移动端向当前用户发出预警提示。具体地,移动端10或云端服务器30对当前用户的实际情绪状态的变化趋势进行分析,确认实际情绪状态的变化趋势将在可预见的时间点超出临界值。此时,云端服务器30通过移动端10向用户发出振动、声音、颜色变化等多种提示,以提醒用户控制情绪。
优选的,所述移动端10将用户以文本、语音、视频和/或图形的方式输入的感受与对应的自动采集的实际情绪状态以关联的形式存储或提供至所述云端服务器30。或者,所述移动端10记录引发用户的实际情绪状态的外界条件并以与对应的实际情绪状态关联的形式存储或提供至所述云端服务器30。所述云端服务器30对用户的特定情绪状态和所述外界关系之间的相关性进行分析,并且基于所述相关性对所述特定情绪状态的引发进行预警。优选的,外界条件例如是天气情况、环境噪音、温度和地理位置信息等。
例如,阴天,温度较低,用户处于陌生的地理位置,环境安静,用户的实际情绪状态为悲伤,移动端采集身体信号。则移动端10或云端服务器30 将同一时刻的外界条件、身体信号和实际情绪状态进行关联存储,并且对实际情绪状态的前一限定时间内的情绪状态变化趋势和后一限定时间内的情绪状态变化趋势进行记录。云端服务器30对用户的悲伤情绪和所述外界关系之间的相关性进行分析,并且基于所述相关性对悲伤情绪的引发进行预警。优选的,云端服务器30再次分析得到近似的情绪状态变化趋势以及与其相关的外界条件和身体信号,就会对用户进行重要提示,避免用户陷入极端的悲伤情绪。
优选的,由移动端10在一段时间内持续地分析当前用户的实际情绪状态信息。如果确认当前用户情绪变化从快乐1到恐惧1,在到恐惧2,又转到悲哀1,那么这种趋势变化不会在可预见的时间点超出临界值恐惧4。此时不会向用户发出提示。根据前述优选实施方式,实际情绪状态可以由移动端自动采集,也可以由用户手动输入。在示教阶段,以用户手动输入为主;在结束示教阶段之后,由移动端自动采集为主。优选地,在所述云端服务器 30分析确认当前用户的理论情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,通过所述移动端10向当前用户发出提示。
优选的,所述云端服务器30将用户输入的当前情绪状态信息和所述移动端10提供的与实际情绪状态信息相关的外界条件以彼此关联的方式进行存储,有助于信息的检索。所述移动端10被设置为由用户按照与外界条件相关的方式检索存储在所述云端服务器30和/或所述移动端10的实际情绪状态信息。
情绪检索是情绪训练过程中的一项重要手段。用户通过检索触发某种不良情绪的身体信号能够检索到存储在云端服务器的实际情绪状态信息。优选的,实际情绪状态信息可以是用户以文本、图片和/或视频方式记录的某种内心感受,也可以是由移动端10采集的声音、视频或图像信息。
优选的,所述移动端10由用户输入实际情绪状态的步骤包括:用户以点选的方式选择当前情绪的类型以及级别,和/或用户以文本、语音、视频或图形的方式输入自身的实际情绪状态。
优选的,所述移动端10自动采集用户的实际情绪状态的步骤包括:所述移动端10以音频和/或视频采集的方式采集实际情绪状态,并且将所述采集的实际情绪状态与用户以点选的方式选择的情绪类型和情绪级别进行比较,从而对所采集的实际情绪状态进行归类和分级。
特别的,移动端10可以按照与外界条件相关的方式提供实际情绪状态信息作为检索结果。例如,以外界条件“阴天-冬季”或身体信号进行输入并检索,则检索到若干相关的情绪状态“悲伤”、“哭泣”等等。用户可以了解自己受外界条件的影响以及回忆当时的情景。
虽然云端服务器30能够对身体信号和情绪状态进行分析,但都是基于理论研究进行的。每个个体的性格不同,有的人喜爱阴天,在阴天心情也比较好。有的人反感阴天,在阴天心情比较负面。因此,需要示教过程来对理论情绪状态进行校正,使云端服务器30的分析能够适应独立的个体。优选的,所述云端服务器30根据所述实际情绪状态信息来校正基于所述探测器采集的身体信号分析确定的理论情绪状态。由校正后的理论情绪状态构成的情绪管理配置文件按照可根据身体信号进行检索的方式存储在所述移动端。
优选的,移动端10在记录实际情绪状态信息时,能够在使用本发明装置的用户在感受到某种情绪时,将与该情绪相关的身体信号以数据记录的形式存储记录下来。所述数据记录可以是语音、文本、图片、视频或以上几种之组合。例如由智能手机作为移动端10分别针对性记录与引发该情绪的时间、地点和天气等外界条件。
优选的,校正后的理论情绪状态可通过可自定义的关键字来进行检索。优选地,检索得到的理论情绪状态能够按照与近似的实际情绪状态一同提供的方式来交付检索结果。将理论情绪状态与近似的实际情绪状态一同提供,有利于用户根据检索结果来确定想要的检索信息,提高信息检索的准确率。
优选的,根据实际情绪状态校正理论情绪状态的步骤包括:将实际情绪状态与理论情绪状态加以比较,并定性和/或定量地调整该理论情绪状态,从而生成与当前用户相关的用户情绪配置文件。优选地,该用户情绪配置文件也兼顾了与各个实际情绪状态信息相关的外界条件。这样的配置,有利于快速引导用户的负面情绪逐步转变为正向情绪,具体地,在调整理论情绪状态时,设置与理论情绪状态相关的个性化条件在用户情绪配置文件中。个性化条件包括与用户匹配的外界条件和身体信号。当用户处于极端的负面情绪并需要引导时,用户情绪配置文件基于与理论情绪状态相关的个性化条件,调节移动端的刺激信息,或者改变用户的外界条件来逐步调节用户的情绪状态缓慢变化。
优选的,移动端10的显示包括外界条件标识、身体特征标识、情绪状态标识和感受标识。其中,外界条件标识、身体特征标识、情绪状态标识和感受标识的变化彼此关联,至少一个外界条件定性和/或定量地改变身体特征。至少一个身体特征定性和/或定量地引发情绪状态标识的变化。至少一个情绪状态定性和/或定量地引发用户感受的变化。优选的,在用户输入感受时,云端服务器将通过移动端发送的对应的外界条件、身体信号和感受分析实际情绪状态并显示为情绪状态标识。优选的,外界条件标识、身体特征标识、情绪状态标识和感受标识以同步变化的方式在移动端实时显示。用户在移动端能够同时查看外界条件标识、身体特征标识、情绪状态标识和感受标识以及其中一个标识的变化引起的其它标识变化。
例如,所述移动端10以外界条件、身体信号、实际情绪状态和感受的映射关联逐渐增加的方式存储和显示外界条件信息、身体信号信息、实际情绪状态信息和感受信息。其中,每一个外界条件与至少一个身体信号映射关联。每一个身体信号与至少一个实际情绪状态映射关联。每一个实际情绪状态与至少一个感受映射关联。
优选的,所述云端服务器基于对每一时刻的至少一个外界条件、身体信号和/或感受的迭代分析来记录实际情绪状态和理论情绪状态。所述移动终端10以显示具有映射关联的标识的方式显示外界条件变化、身体信号变化、感受变化和实际情绪状态的变化趋势,以颜色变化、声音和/或振动的方式提醒用户实际情绪状态的极端变化趋势,和/或显示改变实际情绪状态的建议。
移动端10以由至少两个圆组成的圆形阵列的方式显示用户输入的感受、与其关联的实际情绪状态、外界条件和身体信号。其中,每一个圆划分为若干个用于记录信息的空格。
如图2所示,所述移动端10以由四个圆组成的圆形列表的方式存储并显示用户输入的感受、与其关联的实际情绪状态、外界条件和身体信号。其中。圆形列表包括外圈标识和内圈标识。所述内圈标识包括第一内圈标识11 和半径大于所述第一内圈标识的第二内圈标识12.所述外圈标识包括第一外圈标识13和半径大于所述第一外圈标识的第二外圈标识14。
所述第一内圈标识11的每一空格用于存储与实际情绪状态关联的外界条件。所述第二内圈标识12的每一空格用于存储与实际情绪状态关联的身体特征。所述第一外圈标识13的每一空格用于存储所述实际情绪状态。所述第二外圈标识14的每一空格用于存储用户输入的感受。每一种信息的变化都可能引起其它信息的变化。
例如,外界条件中的噪音指数增大,外界条件标识的每一个空格沿顺时针进行记录并进行颜色变化,身体特征标识的每一空格沿顺时针记录身体信号并进行相应颜色的变化。在噪音指数增大超过个性阈值后,感受标识的每一空格沿顺时针记录感受并发生相应颜色的变化。例如,用户输入的感受为烦躁2级。则情绪状态标识基于外界条件变化、身体特征变化和感受及其等级产生变化,导致情绪状态标识的颜色发生变化。在用户的实际情绪状态不适合工作或学习时,移动端10以声音、振动或闪烁的方式向用户示警,提醒用户改善情绪或者引导情绪变化。优选的,云端服务器30通过移动端10 向用户发出引导情绪变化的建议,例如结合外界条件提出运动建议、音乐歌曲建议等等。
优选的,云端服务器30基于用户在一段时间内的情绪状态变化趋势通过移动端10向用户发出引导情绪的建议,例如旅游建议、探亲建议、亲子活动建议、工作休息建议甚至生活作息建议,以此引导用户快乐健康的生活,延长寿命。
实施例2
本实施例是对实施例1的进一步改进,重复的内容不再赘述。
本实施例提供一种情绪控制方法,至少包括:自动采集和/或由用户输入实际情绪状态信息;以间接或直接地接触用户身体的方式采集身体信号,基于预设的数据库利用情感分析算法确定与所述身体信号对应的理论情绪状态信息。根据所述探测器采集的身体信号来分析确定与之对应的理论情绪状态并反馈至移动端。在针对至少一段连续的时间区间内的实际情绪状态信息分析确认当前用户的实际情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,和/或在分析确认当前用户的理论情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,向当前用户发出预警提示,并且基于用户对所述移动端的操作完成对云端服务器的示教过程。其中,根据所述示教过程确定的至少两种极端情绪状态信息来预先配置情感分析算法的参数。
优选的,所述方法还包括:基于用户输入的实际情绪状态信息、身体信号和/或外界条件来分析并完成所述云端服务器的示教过程。其中,根据所述示教过程确定的至少两种极端情绪状态信息来预先配置情感分析算法的参数。
优选的,所述方法还包括:在示教过程中,所述移动端向用户施加能够引发情绪的刺激信息,并且自动采集和/或由用户输入与所述刺激信息对应的实际情绪状态信息。同时所述探测器采集用户的与所述刺激信息对应的身体信号。所述云端服务器基于示教过程中的至少两种所述实际情绪状态信息、所述身体信号来预先配置情感分析算法的参数,并且校正与所述身体信号对应的理论情绪状态信息。
优选的,所述方法还包括:将用户以文本、语音、视频和/或图形的方式输入的感受与对应的自动采集的实际情绪状态以关联的形式存储或提供至所述云端服务器。或者,记录引发用户的实际情绪状态的外界条件并以与对应的实际情绪状态关联的形式存储或提供至所述云端服务器。对用户的特定情绪状态和所述外界条件之间的相关性进行分析,并且基于所述相关性对所述特定情绪状态的引发进行预警。
优选的,所述方法还包括:将用户输入的当前情绪状态信息和所述移动端提供的与实际情绪状态信息相关的外界条件以彼此关联的方式进行存储。将移动端设置为由用户按照与外界条件相关的方式检索实际情绪状态信息的装置。
优选的,所述方法还包括:根据所述实际情绪状态信息来校正基于所述探测器采集的身体信号分析确定的理论情绪状态,由校正后的理论情绪状态构成的情绪管理配置文件按照可根据身体信号进行检索的方式存储在所述移动端。
优选的,所述方法还包括:由用户输入实际情绪状态的步骤包括:
用户以点选的方式选择当前情绪的类型以及级别,和/或
用户以文本、语音、视频或图形的方式输入自身的实际情绪状态。
优选的,所述方法还包括:以外界条件、身体信号、实际情绪状态和感受的映射关联逐渐增加的方式存储和显示外界条件信息、身体信号信息、实际情绪状态信息和感受信息。其中,每一个外界条件与至少一个身体信号映射关联。每一个身体信号与至少一个实际情绪状态映射关联。每一个实际情绪状态与至少一个感受映射关联。
优选的,所述方法还包括:基于对每一时刻的至少一个外界条件、身体信号和/或感受的迭代分析来记录实际情绪状态和理论情绪状态。以显示具有映射关联的标识的方式将外界条件变化、身体信号变化、感受变化和实际情绪状态的变化趋势显示在移动端。以颜色变化、声音和/或振动的方式提醒用户实际情绪状态的极端变化趋势,和/或显示改变实际情绪状态的建议。
例如,一个职业为演员的用户通过移动端10完成与云端服务器30的示教过程,使得云端服务器30确定情绪分析算法,并且在示教的过程中完成理论情绪状态的校正。
在演员需要在片场扮演一个久别儿子的母亲的时候,演员需要通过自定义关键词检索到相关的情绪状态。演员在移动端输入“久别重逢儿子”后检索到若干与情绪状态相关的信息,包括含有外界条件、身体特征和感受的文字信息、图片信息、视频信息。演员根据需要进一步选择符合条件的性格特征的母亲情绪,并输入引导情绪的指令。本发明的移动终端向用户输出刺激信息,例如对应的音乐和相似的场景视频,引导用户的情绪由当前的平静向微开心转变,同时演员将自己的感受输入移动终端,以便云端服务器分析演员当前的实际情绪状态,从而确定引导情绪的过程和步骤。云端服务器在确定演员的情绪已经调整为微开心的状态下,继续向演员施加刺激信息,将演员的情绪从“为开心”调整为带着眼泪的激动的喜悦。演员在被引导的过程中,其身体信号和自身感受输入移动端。云端服务器再次根据演员的身体信号和自身感受分析当前的实际情绪状态的变化趋势。在判断演员的实际情绪状态的变化趋势在可预见的时间内接近与久别重逢的儿子相见的情绪时,以振动或声音的方式提醒演员。演员调整自己的情绪为目标情绪,顺利将情绪和演技在片场表现出来。
需要注意的是,上述具体实施例是示例性的,本领域技术人员可以在本发明公开内容的启发下想出各种解决方案,而这些解决方案也都属于本发明的公开范围并落入本发明的保护范围之内。本领域技术人员应该明白,本发明说明书及其附图均为说明性而并非构成对权利要求的限制。本发明的保护范围由权利要求及其等同物限定。

Claims (10)

1.一种情绪控制装置,至少包括:
移动端,用于自动采集和/或由用户输入实际情绪状态信息;
探测器,用于以间接或直接地接触用户身体的方式采集身体信号,所述身体信号经由所述移动端发送给云端服务器;
云端服务器,用于基于预设的数据库利用情感分析算法确定与所述身体信号对应的理论情绪状态信息;
其特征在于,
所述云端服务器基于所述探测器采集的身体信号来分析确定与之对应的理论情绪状态并反馈至所述移动端,并且
所述云端服务器或所述移动端基于用户通过所述移动端输入的感受、所述实际情绪状态信息和/或外界条件信息分析所述实际情绪状态的变化趋势,并且在所述实际情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,所述移动端向当前用户发出预警提示。
2.如权利要求1所述的情绪控制装置,其特征在于,
所述云端服务器基于用户输入的实际情绪状态信息、身体信号和/或外界条件来分析并完成所述云端服务器的示教过程,其中,所述云端服务器根据所述示教过程确定的至少两种极端情绪状态信息来预先配置情感分析算法的参数。
3.如权利要求1所述的情绪控制装置,其特征在于,所述移动端将用户以文本、语音、视频和/或图形的方式输入的感受与对应的自动采集的实际情绪状态以关联的形式存储或提供至所述云端服务器,
或者,所述移动端记录引发用户的实际情绪状态的外界条件并以与对应的实际情绪状态关联的形式存储或提供至所述云端服务器,
所述云端服务器对用户的特定情绪状态和所述外界条件之间的相关性进行分析,并且基于所述相关性对所述特定情绪状态的引发进行预警。
4.如权利要求1至3之一所述的情绪控制装置,其特征在于,所述云端服务器将用户输入的当前情绪状态信息和所述移动端提供的与实际情绪状态信息相关的外界条件以彼此关联的方式进行存储,
所述移动端被设置为由用户按照与外界条件相关的方式检索存储在所述云端服务器和/或所述移动端的实际情绪状态信息。
5.如前述权利要求之一所述的情绪控制装置,其特征在于,所述云端服务器根据所述实际情绪状态信息来校正基于所述探测器采集的身体信号分析确定的理论情绪状态,由校正后的理论情绪状态构成的情绪管理配置文件按照可根据身体信号进行检索的方式存储在所述移动端。
6.如前述权利要求之一所述的情绪控制装置,其特征在于,在示教过程中,所述移动端向用户施加能够引发情绪的刺激信息,并且自动采集和/或由用户输入与所述刺激信息对应的实际情绪状态信息,同时
所述探测器采集用户的与所述刺激信息对应的身体信号,
所述云端服务器基于示教过程中的至少两种所述实际情绪状态信息、所述身体信号来预先配置情感分析算法的参数,并且校正与所述身体信号对应的理论情绪状态信息。
7.如前述权利要求之一所述的情绪控制装置,其特征在于,所述移动端由用户输入实际情绪状态的步骤包括:
用户以点选的方式选择当前情绪的类型以及级别,和/或
用户以文本、语音、视频或图形的方式输入自身的实际情绪状态。
8.如前述权利要求之一所述的情绪控制装置,其特征在于,所述移动端以外界条件、身体信号、实际情绪状态和感受的映射关联逐渐增加的方式存储和显示外界条件信息、身体信号信息、实际情绪状态信息和感受信息,其中,
每一个外界条件与至少一个身体信号映射关联,
每一个身体信号与至少一个实际情绪状态映射关联,
每一个实际情绪状态与至少一个感受映射关联。
9.如权利要求8所述的情绪控制装置,其特征在于,所述云端服务器基于对每一时刻的至少一个外界条件、身体信号和/或感受的迭代分析来记录实际情绪状态和理论情绪状态,并且
所述移动终端以显示具有映射关联的标识的方式显示外界条件变化、身体信号变化、感受变化和实际情绪状态的变化趋势,以颜色变化、声音和/或振动的方式提醒用户实际情绪状态的极端变化趋势,和/或显示改变实际情绪状态的建议。
10.一种情绪控制方法,至少包括:
自动采集和/或由用户输入实际情绪状态信息;
以间接或直接地接触用户身体的方式采集身体信号,
基于预设的数据库利用情感分析算法确定与所述身体信号对应的理论情绪状态信息;
其特征在于,
基于所述探测器采集的身体信号来分析确定与之对应的理论情绪状态并反馈至所述移动端,并且
基于用户通过所述移动端输入的感受、所述实际情绪状态信息和/或外界条件信息分析所述实际情绪状态的变化趋势,并且在所述实际情绪状态的变化趋势将在可预见的时间点超出临界值的情况下,所述移动端向当前用户发出预警提示。
CN201810106194.1A 2018-02-02 2018-02-02 一种情绪控制装置与方法 Withdrawn CN108209946A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201810106194.1A CN108209946A (zh) 2018-02-02 2018-02-02 一种情绪控制装置与方法
CN202110568627.7A CN113288145A (zh) 2018-02-02 2018-02-02 一种用于训练情绪控制能力的示教装置与方法
CN202110568055.2A CN113288144A (zh) 2018-02-02 2018-02-02 一种基于情绪引导的情绪状态显示终端及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810106194.1A CN108209946A (zh) 2018-02-02 2018-02-02 一种情绪控制装置与方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CN202110568055.2A Division CN113288144A (zh) 2018-02-02 2018-02-02 一种基于情绪引导的情绪状态显示终端及方法
CN202110568627.7A Division CN113288145A (zh) 2018-02-02 2018-02-02 一种用于训练情绪控制能力的示教装置与方法

Publications (1)

Publication Number Publication Date
CN108209946A true CN108209946A (zh) 2018-06-29

Family

ID=62670524

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201810106194.1A Withdrawn CN108209946A (zh) 2018-02-02 2018-02-02 一种情绪控制装置与方法
CN202110568055.2A Withdrawn CN113288144A (zh) 2018-02-02 2018-02-02 一种基于情绪引导的情绪状态显示终端及方法
CN202110568627.7A Withdrawn CN113288145A (zh) 2018-02-02 2018-02-02 一种用于训练情绪控制能力的示教装置与方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN202110568055.2A Withdrawn CN113288144A (zh) 2018-02-02 2018-02-02 一种基于情绪引导的情绪状态显示终端及方法
CN202110568627.7A Withdrawn CN113288145A (zh) 2018-02-02 2018-02-02 一种用于训练情绪控制能力的示教装置与方法

Country Status (1)

Country Link
CN (3) CN108209946A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859822A (zh) * 2019-01-15 2019-06-07 浙江强脑科技有限公司 情绪调节方法、装置及计算机可读存储介质
CN110881987A (zh) * 2019-08-26 2020-03-17 首都医科大学 一种基于可穿戴设备的老年人情绪监测系统
CN110916688A (zh) * 2019-11-25 2020-03-27 西安戴森电子技术有限公司 基于人工智能技术对于情绪监测的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107007291A (zh) * 2017-04-05 2017-08-04 天津大学 基于多生理参数的紧张情绪强度识别系统及信息处理方法
CN107025371A (zh) * 2017-03-09 2017-08-08 安徽创易心理科技有限公司 一种情绪动态监控与管理方法及系统
CN107456218A (zh) * 2017-09-05 2017-12-12 清华大学深圳研究生院 一种情绪感测系统及可穿戴设备
CN107464188A (zh) * 2017-06-23 2017-12-12 浙江大学 一种基于物联网情绪感知技术的互联网社交应用系统
CN107582077A (zh) * 2017-08-17 2018-01-16 南京信息工程大学 一种基于手机触摸行为的人体精神状态分析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025371A (zh) * 2017-03-09 2017-08-08 安徽创易心理科技有限公司 一种情绪动态监控与管理方法及系统
CN107007291A (zh) * 2017-04-05 2017-08-04 天津大学 基于多生理参数的紧张情绪强度识别系统及信息处理方法
CN107464188A (zh) * 2017-06-23 2017-12-12 浙江大学 一种基于物联网情绪感知技术的互联网社交应用系统
CN107582077A (zh) * 2017-08-17 2018-01-16 南京信息工程大学 一种基于手机触摸行为的人体精神状态分析方法
CN107456218A (zh) * 2017-09-05 2017-12-12 清华大学深圳研究生院 一种情绪感测系统及可穿戴设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王伟军: "《大数据分析》", 31 May 2017, 重庆大学出版社 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859822A (zh) * 2019-01-15 2019-06-07 浙江强脑科技有限公司 情绪调节方法、装置及计算机可读存储介质
CN110881987A (zh) * 2019-08-26 2020-03-17 首都医科大学 一种基于可穿戴设备的老年人情绪监测系统
CN110916688A (zh) * 2019-11-25 2020-03-27 西安戴森电子技术有限公司 基于人工智能技术对于情绪监测的方法

Also Published As

Publication number Publication date
CN113288144A (zh) 2021-08-24
CN113288145A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
CN108310587B (zh) 一种睡眠控制装置与方法
CN110507335B (zh) 基于多模态信息的服刑人员心理健康状态评估方法及系统
US10885800B2 (en) Human performance optimization and training methods and systems
JP3968522B2 (ja) 記録装置、及び記録方法
CN105069294B (zh) 一种用于认知能力值测试的计算和分析方法
Liu et al. Towards smart educational recommendations with reinforcement learning in classroom
CN108652648B (zh) 一种用于老年人抑郁症的抑郁监控装置
CN112704499B (zh) 基于独立空间的智能心理评估与干预系统及方法
CN108078573A (zh) 一种基于生理反应信息与刺激信息的兴趣取向值测验方法
CN108209946A (zh) 一种情绪控制装置与方法
KR102437264B1 (ko) 의사 창발 장치, 의사 창발 방법 및 의사 창발 프로그램
CN116578731B (zh) 多媒体信息处理方法、系统、计算机设备和存储介质
CN113317762A (zh) 一种云端服务器
CN113853161A (zh) 用于识别和测量情感状态的系统和方法
CN108492855A (zh) 一种用于训练老年人注意力的装置与方法
US20200367798A1 (en) Wearable device for determining psycho-emotional state of user during evaluation or testing
Villegas-Ch et al. Identification of emotions from facial gestures in a teaching environment with the use of machine learning techniques
WO2022011448A1 (en) Method and system for an interface for personalization or recommendation of products
WO2021116360A1 (en) An interactive user system and method
WO2023102125A1 (en) Management of psychiatric or mental conditions using digital or augmented reality with personalized exposure progression
US20230290505A1 (en) Context Aware Assessment
US20220284649A1 (en) Virtual Representation with Dynamic and Realistic Behavioral and Emotional Responses
KR102407457B1 (ko) 인공지능을 이용한 보청기 적합 시스템
JP7300929B2 (ja) 認知機能促進支援システム、学習システム、推定システム、及び認知機能促進支援方法
CN108461125B (zh) 一种针对老年人的记忆力训练装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210401

Address after: No.12-6, 19 dapingzheng street, Yuzhong District, Chongqing 400010

Applicant after: Chongqing Haode Translation Information Technology Co.,Ltd.

Address before: 100028 20-1307, Liufang Nanli, Chaoyang District, Beijing

Applicant before: He Pengcheng

TA01 Transfer of patent application right
WW01 Invention patent application withdrawn after publication

Application publication date: 20180629

WW01 Invention patent application withdrawn after publication