CN109685149B - 情绪精细划归模型构建及自动进行情绪精细获取的方法 - Google Patents

情绪精细划归模型构建及自动进行情绪精细获取的方法 Download PDF

Info

Publication number
CN109685149B
CN109685149B CN201811618262.9A CN201811618262A CN109685149B CN 109685149 B CN109685149 B CN 109685149B CN 201811618262 A CN201811618262 A CN 201811618262A CN 109685149 B CN109685149 B CN 109685149B
Authority
CN
China
Prior art keywords
emotion
target
original
vectors
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811618262.9A
Other languages
English (en)
Other versions
CN109685149A (zh
Inventor
徐承迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Factory Technology Services Suqian Co ltd
Original Assignee
Jiangsu Intelligent Workshop Technology Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Intelligent Workshop Technology Research Institute Co ltd filed Critical Jiangsu Intelligent Workshop Technology Research Institute Co ltd
Priority to CN201811618262.9A priority Critical patent/CN109685149B/zh
Publication of CN109685149A publication Critical patent/CN109685149A/zh
Application granted granted Critical
Publication of CN109685149B publication Critical patent/CN109685149B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供了情绪精细划归模型构建及自动进行情绪精细获取的方法,所述情绪精细划归模型构建方法作用于分组数据集中的每一个分组,包括计算分组内所有情绪信号矢量的致密度,并选取致密度最低的情绪信号矢量为目标情绪信号矢量;计算所述目标情绪信号矢量对应的目标邻域集;选出包含情绪信号矢量数量最多的K个目标邻域;获取每个目标邻域对应的目标情绪信号矢量作为子归类中心;获取子归类中心对应的原始情绪矢量。本发明构建了情绪的精细划归模型,充分发挥神经网络和自定义的划归方法的优势,实现了基于原始的生理信号即可自动识别用户情绪,具有高智能化和高精细度的显著优势。

Description

情绪精细划归模型构建及自动进行情绪精细获取的方法
技术领域
本发明涉及智能医疗领域,尤其涉及情绪精细划归模型构建及自动进行情绪精细获取的方法。
背景技术
研究报告显示,用户的情绪状态与用户的身体健康状况有重要关系,因此,如何基于现代化的智能穿戴设备达到随时关注用户情绪状态的目的是目前亟待解决的问题。
情绪起因复杂,并且包含多种成分,因此对于情绪的分析一直是学术界的难点,而基于生理信号判断情绪更是具备较高的难度,因此,如何基于生理信号获取情绪这一问题一直有待解决。
发明内容
为了解决上述技术问题,本发明提出了情绪精细划归模型构建及自动进行情绪精细获取的方法。本发明具体是以如下技术方案实现的:
一种情绪精细划归模型构建方法,所述情绪精细划归模型构建方法作用于分组数据集中的每一个分组,包括:
计算分组内所有情绪信号矢量的致密度,并选取致密度最低的情绪信号矢量为目标情绪信号矢量;
计算所述目标情绪信号矢量对应的目标邻域集;
选出包含情绪信号矢量数量最多的K个目标邻域;
获取每个目标邻域中对应的目标情绪信号矢量作为子归类中心;
获取子归类中心对应的原始情绪矢量。
进一步地,所述分组数据集的获取方法包括:
获取原始数据集,所述原始数据集中的每个元素均包括原始生理信号数据包和原始情绪向量;
从原始数据集中提取情绪信息,构建与原始数量集中的元素一一对应的训练集,所述训练集中的元素均为情绪信号构成的情绪信号矢量,所述情绪信号矢量与所述原始情绪向量之间具备一一对应关系;
根据原始情绪向量为所述情绪信号矢量进行分组,得到分组数据集。
进一步地,原始情绪向量的各个位置的含义依次为:讶异程度、狂喜程度、愤怒程度、悲痛程度、警惕程度、热爱程度、憎恨程度、恐慌程度;
原始情绪向量最大值所在元素位置相同的原始情绪向量被归结为一组,相应的,其对应的情绪信号矢量也被归结为一组得到惊异数据组、狂喜数据组、愤怒数据组、悲痛数据组、警惕数据组、热爱数据组、憎恨数据组和恐慌数据组;相应的,这八组的分组编号为0-7。
进一步地,情绪信号矢量ai的致密度为
Figure BDA0001926279070000021
其中
Figure BDA0001926279070000022
其中n为分组内的情绪信号矢量个数。
进一步地,所述目标邻域集中的元素为目标邻域。本发明实施例中的目标邻域为以目标情绪信号矢量为中心,M-1倍的R半径和M倍的R半径所形成环形区域中所有情绪信号矢量的集合,M为目标邻域的特征值。本发明实施例中R半径与情绪信号矢量的致密度有关,具体地,
Figure BDA0001926279070000023
其中q为可调节系数,O(xi)为情绪信号矢量ai的致密度。各个目标邻域的特征值分别为1,2……,
Figure BDA0001926279070000024
一种自动进行情绪精细获取的方法,包括:
采集原始生理信号;
对所述原始生理信号进行数据处理,得到其对应的情绪信号矢量;
根据预设神经网络模型获取所述情绪信号矢量对应的分组编号以得到目标分组;
计算所述目标分组中的各个子归类中心与所述情绪信号矢量的距离;
输出距离最近的子归类中心对应的原始情绪矢量。
本发明实施例提供供情绪精细划归模型构建及自动进行情绪精细获取的方法,在获取原始的生理信号的基础上,创造性地从原始的生理信号中提取情绪特征,进而构建了情绪的精细划归模型,充分发挥神经网络和自定义的划归方法的优势,实现了基于原始的生理信号即可自动识别用户情绪,具有高智能化和高精细度的显著优势。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明实施例提供的一种情绪粗略划归模型构建方法流程图;
图2是本发明实施例提供的神经网络的训练方法流程图;
图3是本发明实施例提供的一种情绪精细划归模型构建方法流程图;
图4是本发明实施例提供的一种自动进行情绪粗略获取的方法流程图;
图5是本发明实施例提供的一种情绪精确获取方法流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例公开一种情绪粗略划归模型构建方法,如图1所示,所述方法包括:
S1.获取原始数据集,所述原始数据集中的每个元素均包括原始生理信号数据包和原始情绪向量。
所述原始生理信号数据包通过当被测试者处于某种情绪下时在被测试者设上佩戴采集设备而获取。为了使得被测试者处于某种情绪之中,可以对被测试者进行情绪诱导。
具体地,所述原始生理信号的获取包括下述内容:
(1)测量被测试者的皮肤导电信号。
(2)将电极片贴于被测试者的左右前额和双侧耳垂,以测量被测试者的脑电波信号。
(3)测量被测试者的脉搏信号和呼吸信号。
具体地,为了建立更为合理的情绪划归模型,本发明实施例中对于人类的情绪进行了研究,从而提取了最能够表达人体情绪的原始情绪,作为情绪程度划归模型的根基,经过发明人的研究,本发明实施例中提取的原始情绪为:令人惊异、狂喜、愤怒、悲痛、警惕、热爱、憎恨、恐慌。显然,在人们的日常生活中,大部分的时间并不会产生特别强烈的情绪,发明人认为情绪的强烈程度也是情绪划归模型的另一个重要因素。
基于上述研究结果,本发明实施例中原始情绪向量的各个位置的含义依次为:讶异程度、狂喜程度、愤怒程度、悲痛程度、警惕程度、热爱程度、憎恨程度、恐慌程度。
S2.从原始数据集中提取情绪信息,构建与原始数量集中的元素一一对应的训练集,所述训练集中的元素均为情绪信号构成的情绪信号矢量,所述情绪信号矢量与所述原始情绪向量之间具备一一对应关系。
具体地,所述情绪信号为对原始生理信号数据包进行数据处理而得到,本发明实施例公开具体的数据处理方法,包括下述内容:
(1)提取皮肤电导信号中的情绪信息,具体方法为:
对所述皮肤电导信号进行离散采样,得到离散采样序列{i,f(i)}。
根据公式
Figure BDA0001926279070000051
计算皮肤电导信号的第一特征参量。其中
Figure BDA0001926279070000052
N为离散采样个数,t为预设常量,大于10小于40。
根据公式
Figure BDA0001926279070000053
计算皮肤电导信号的第二特征参量。其中p为预设常量,取值在0到1之间,N为离散采样个数,其中Λ(i-1,p,N-1)=2F1(0,-i+1;-N+1;1/p),其中2F1()表示高斯超几何级数。
(2)提取脑电波中的情绪信息,具体方法为:统计α波、β波和θ波的出现频率。
(3)计算脉搏信号和呼吸信号的统计值。
因此,与原始数量集中元素对应的情绪信号构成的情绪信号矢量各个位置的含义依次为:第一特征参量、第二特征参量、α波出现频率、β波出现频率、θ波出现频率、脉搏速率平均值、呼吸强度平均值和呼吸频率平均值。
S3.根据所述情绪信号矢量和所述原始情绪向量之间的一一对应关系训练预设神经网络模型。
具体地,所述神经网络模型以情绪信号矢量为输入,以情绪信号矢量对应的分组编号为输出。
具体地,所述神经网络模型包括输入层、神经元层和输出层。所述神经元层包括多个子层,每个子层的神经元都有对应编号,并且每个子层的神经元数量相等。在每个子层内部,相邻的神经元互相连接通信,并且每个神经元与下一层对应编号的神经元连接通信。
在本发明实施例中公开所述神经网络的训练方法,如图2所示,所述方法包括:
S31.根据原始情绪向量为所述情绪信号矢量进行分组,得到分组数据集。
原始情绪向量最大值所在元素位置相同的原始情绪向量被归结为一组,相应的,其对应的情绪信号矢量也被归结为一组。
因此,本发明实施例中共得到八组训练数据。分别为惊异数据组、狂喜数据组、愤怒数据组、悲痛数据组、警惕数据组、热爱数据组、憎恨数据组和恐慌数据组;相应的,这八组的分组编号为0-7。
S32.根据所述分组数据集训练所述神经网络模型,通过调节神经网络中各个神经元节点的权值,得到目标神经网络。在所述目标神经网络中,以所述分组数据集中的任何情绪信号矢量为输入得到的输出均与所述情绪信号矢量在所述分组数据集中的分组结果一致。
为了更为精确的得到情绪的划归结果,本发明实施例进一步提供一种情绪精细划归模型构建方法,所述情绪精细划归模型构建方法作用分组数据集中的每一个分组,如图3所示,所述方法包括:
S100.计算分组内所有情绪信号矢量的致密度,并选取致密度最低的情绪信号矢量为目标情绪信号矢量。
本发明实施例中情绪信号矢量ai的致密度为
Figure BDA0001926279070000071
其中
Figure BDA0001926279070000072
其中n为分组内的情绪信号矢量个数。
S200.计算所述目标情绪信号矢量对应的目标邻域集。
具体地,所述目标邻域集中的元素为目标邻域。本发明实施例中的目标邻域为以目标情绪信号矢量为中心,M-1倍的R半径和M倍的R半径所形成环形区域中所有情绪信号矢量的集合,M为目标邻域的特征值。本发明实施例中R半径与情绪信号矢量的致密度有关,具体地,
Figure BDA0001926279070000073
其中q为可调节系数,O(xi)为情绪信号矢量ai的致密度。各个目标邻域的特征值分别为1,2……,
Figure BDA0001926279070000074
S300.选出包含情绪信号矢量数量最多的K个目标邻域。
K与精细程度相关,可以根据实际情况进行定义。
S400.获取每个目标邻域中对应的目标情绪信号矢量作为子归类中心。
S500.获取子归类中心对应的原始情绪矢量。
基于上述神经网络模型的训练结果,本发明实施例进一步提供一种自动进行情绪粗略获取的方法,如图4所示,所述方法包括:
S101.获取采集到的原始生理信号。
S102.对所述原始生理信号进行数据处理,得到其对应的情绪信号矢量。
S103.根据所述神经网络模型获取所述情绪信号矢量对应的分组编号以得到目标分组。
S104.输出所述目标分组中的目标情绪信号矢量对应的原始情绪矢量。
进一步地,基于情绪精细划归模型构建方法的实施结果,本发明实施例进一步提供一种情绪精确获取方法,所述方法在步骤S104的输出结果的基础上进一步实施,如图5所示,所述方法包括:
S201.计算所述目标分组中的各个子归类中心与所述情绪信号矢量的距离。
S202.输出距离最近的子归类中心对应的原始情绪矢量。
本发明实施例提供了情绪粗划归模型和精细精细划归模型的构建方法,并提供了自动进行情绪粗略划归和精细划归的方法,其能够自动基于用户的生理信号判断用户的情绪状态,具有多粒度,全自动,准确度高的显著优点;同时设计了子情绪表达法,并能够基于子情绪表达法输出文字化的情绪判断结果,以便于了解用户的情绪状态,具有良好的用户体验。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (2)

1.一种情绪精细划归模型构建方法,所述情绪精细划归模型构建方法作用于分组数据集中的每一个分组,其特征在于,包括:
获取原始数据集,所述原始数据集中的每个元素均包括原始生理信号数据包和原始情绪向量;从原始数据集中提取情绪信息,构建与原始数据集中的元素一一对应的训练集,所述训练集中的元素均为情绪信号构成的情绪信号矢量,所述情绪信号矢量与所述原始情绪向量之间具备一一对应关系;根据原始情绪向量为所述情绪信号矢量进行分组,得到分组数据集;
计算分组内所有情绪信号矢量的致密度,并选取致密度最低的情绪信号矢量为目标情绪信号矢量;情绪信号矢量ai的致密度O(xi)为
Figure FDA0002863558500000011
其中
Figure FDA0002863558500000012
其中n为分组内的情绪信号矢量个数;与原始数据集中元素对应的情绪信号构成的情绪信号矢量各个位置的含义依次为:第一特征参量、第二特征参量、α波出现频率、β波出现频率、θ波出现频率、脉搏速率平均值、呼吸强度平均值和呼吸频率平均值;根据公式
Figure FDA0002863558500000013
计算皮肤电导信号的第一特征参量;其中
Figure FDA0002863558500000014
N为离散采样个数;根据公式
Figure FDA0002863558500000015
计算皮肤电导信号的第二特征参量;其中t为预设常量,p为预设常量,取值在0到1之间,N为离散采样个数,其中Λ(i-1,p,N-1)=2F1(0,-i+1;-N+1;1/p),其中2F1()表示高斯超几何级数;其中,{i,f(i)}为对所述皮肤电导信号进行离散采样得到的离散采样序列;
计算所述目标情绪信号矢量对应的目标邻域集;所述目标邻域集中的元素为目标邻域;所述目标邻域为以目标情绪信号矢量为中心,M-1倍的R半径和M倍的R半径所形成环形区域中所有情绪信号矢量的集合,M为目标邻域的特征值;R半径与情绪信号矢量的致密度有关,
Figure FDA0002863558500000016
其中q为可调节系数,O(xi)为情绪信号矢量ai的致密度;各个目标邻域的特征值分别为1,2……,
Figure FDA0002863558500000017
选出包含情绪信号矢量数量最多的K个目标邻域;
获取每个目标邻域中对应的目标情绪信号矢量作为子归类中心;
获取子归类中心对应的原始情绪矢量。
2.根据权利要求1所述的方法,其特征在于:
原始情绪向量的各个位置的含义依次为:讶异程度、狂喜程度、愤怒程度、悲痛程度、警惕程度、热爱程度、憎恨程度、恐慌程度;
原始情绪向量最大值所在元素位置相同的原始情绪向量被归结为一组,相应的,其对应的情绪信号矢量也被归结为一组得到惊异数据组、狂喜数据组、愤怒数据组、悲痛数据组、警惕数据组、热爱数据组、憎恨数据组和恐慌数据组;相应的,这八组的分组编号为0-7。
CN201811618262.9A 2018-12-28 2018-12-28 情绪精细划归模型构建及自动进行情绪精细获取的方法 Active CN109685149B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811618262.9A CN109685149B (zh) 2018-12-28 2018-12-28 情绪精细划归模型构建及自动进行情绪精细获取的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811618262.9A CN109685149B (zh) 2018-12-28 2018-12-28 情绪精细划归模型构建及自动进行情绪精细获取的方法

Publications (2)

Publication Number Publication Date
CN109685149A CN109685149A (zh) 2019-04-26
CN109685149B true CN109685149B (zh) 2021-04-27

Family

ID=66190776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811618262.9A Active CN109685149B (zh) 2018-12-28 2018-12-28 情绪精细划归模型构建及自动进行情绪精细获取的方法

Country Status (1)

Country Link
CN (1) CN109685149B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169508A (zh) * 2017-04-17 2017-09-15 杭州电子科技大学 一种基于融合特征的旗袍图像情感语义识别方法
CN107918487A (zh) * 2017-10-20 2018-04-17 南京邮电大学 一种基于皮肤电信号识别中文情感词的方法
CN108042145A (zh) * 2017-11-28 2018-05-18 广州视源电子科技股份有限公司 情绪状态识别方法和系统、情绪状态识别设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130055429A (ko) * 2011-11-18 2013-05-28 삼성전자주식회사 감정 세그먼트 기반의 감정 인식 장치 및 방법
CN103892792B (zh) * 2012-12-24 2017-05-10 中国科学院深圳先进技术研究院 情感识别模型生成装置及其生成情感识别模型的方法
TWI535420B (zh) * 2014-08-29 2016-06-01 國立臺中教育大學 多生理訊號之情感運算引擎系統及方法
CN105260745A (zh) * 2015-09-30 2016-01-20 西安沧海网络科技有限公司 一种基于大数据进行情感识别及预测的信息推送服务系统
CN105894039A (zh) * 2016-04-25 2016-08-24 京东方科技集团股份有限公司 情绪识别模型建立方法、情绪识别方法及装置、智能设备
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知系统
CN107822623A (zh) * 2017-10-11 2018-03-23 燕山大学 一种基于多源生理信息的驾驶员疲劳及情绪评价方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169508A (zh) * 2017-04-17 2017-09-15 杭州电子科技大学 一种基于融合特征的旗袍图像情感语义识别方法
CN107918487A (zh) * 2017-10-20 2018-04-17 南京邮电大学 一种基于皮肤电信号识别中文情感词的方法
CN108042145A (zh) * 2017-11-28 2018-05-18 广州视源电子科技股份有限公司 情绪状态识别方法和系统、情绪状态识别设备

Also Published As

Publication number Publication date
CN109685149A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
Tuncer et al. Surface EMG signal classification using ternary pattern and discrete wavelet transform based feature extraction for hand movement recognition
Benalcázar et al. Hand gesture recognition using machine learning and the Myo armband
CN109994203B (zh) 一种基于eeg信号深度多视角特征学习的癫痫检测方法
CN112656427B (zh) 一种基于维度模型的脑电信号情绪识别方法
Göksu BCI oriented EEG analysis using log energy entropy of wavelet packets
Zamanian et al. A new feature extraction method to improve emotion detection using EEG signals
Raurale et al. Emg acquisition and hand pose classification for bionic hands from randomly-placed sensors
Ahirwal et al. Emotion recognition system based on EEG signal: a comparative study of different features and classifiers
CN114091529A (zh) 一种基于生成对抗网络数据增强的脑电情感识别方法
CN109697472B (zh) 一种子情绪划归方法
Immanuel et al. Recognition of emotion with deep learning using EEG signals-the next big wave for stress management in this covid-19 outbreak
CN113749656A (zh) 基于多维生理信号的情感识别方法和装置
CN109685149B (zh) 情绪精细划归模型构建及自动进行情绪精细获取的方法
Azami et al. Automatic signal segmentation based on singular spectrum analysis and imperialist competitive algorithm
CN109508783B (zh) 情绪粗略划归模型构建及自动进行情绪粗略获取方法
Hindarto et al. Feature Extraction ElectroEncephaloGram (EEG) using wavelet transform for cursor movement
KR20210023170A (ko) Ppg신호를 이용한 딥러닝 기반의 감정인식 시스템 및 감정인식 방법
CN116747495A (zh) 一种动作计数方法、装置、终端设备及可读存储介质
CN110604578A (zh) 基于semg的人手手内动作识别方法
Jindal MobileSOFT: U: A deep learning framework to monitor heart rate during intensive physical exercise
CN115270855A (zh) 情感识别方法、情感识别设备及情感识别系统
Cene et al. Upper-limb movement classification through logistic regression sEMG signal processing
Partovi et al. A deep learning algorithm for classifying grasp motions using multi-session EEG recordings
Bharti et al. An enhanced feature extraction method and classification method of EEG signals using artificial intelligence
Donmez et al. Classification of Emotional States from Multi-channel EEG Signals by Convolutional Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210401

Address after: 214000 no.1-2201-2, financial 8th Street, Wuxi City, Jiangsu Province

Applicant after: Jiangsu intelligent workshop Technology Research Institute Co.,Ltd.

Address before: 310052 476, 4 floor, 3 story A building, No. 301, Binxing Road, Changhe street, Binjiang District, Hangzhou, Zhejiang.

Applicant before: HANGZHOU YITU NETWORK TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20190426

Assignee: Jiangsu zhongmedia Information Technology Co.,Ltd.

Assignor: Jiangsu intelligent workshop Technology Research Institute Co.,Ltd.

Contract record no.: X2022980004189

Denomination of invention: Construction of emotion fine classification model and automatic emotion fine acquisition method

Granted publication date: 20210427

License type: Common License

Record date: 20220414

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20190426

Assignee: Taihu Wuxi science and technology talent training center

Assignor: Jiangsu intelligent workshop Technology Research Institute Co.,Ltd.

Contract record no.: X2022980012914

Denomination of invention: A method for constructing a fine-grained classification model of emotions and automatically obtaining fine-grained emotions

Granted publication date: 20210427

License type: Common License

Record date: 20220823

EE01 Entry into force of recordation of patent licensing contract
TR01 Transfer of patent right

Effective date of registration: 20240201

Address after: Room 308, Building B1, Ruigu Building, No. 19 Hongzehu East Road, Suyu District, Suqian City, Jiangsu Province, 223800

Patentee after: Smart Factory Technology Services (Suqian) Co.,Ltd.

Country or region after: China

Address before: 214000 no.1-2201-2, financial 8th Street, Wuxi City, Jiangsu Province

Patentee before: Jiangsu intelligent workshop Technology Research Institute Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right