CN109685156A - 一种用于识别情绪的分类器的获取方法 - Google Patents

一种用于识别情绪的分类器的获取方法 Download PDF

Info

Publication number
CN109685156A
CN109685156A CN201811648316.6A CN201811648316A CN109685156A CN 109685156 A CN109685156 A CN 109685156A CN 201811648316 A CN201811648316 A CN 201811648316A CN 109685156 A CN109685156 A CN 109685156A
Authority
CN
China
Prior art keywords
classifier
sample
training
current
sample set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811648316.6A
Other languages
English (en)
Other versions
CN109685156B (zh
Inventor
金涛
江浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou canba Technology Co.,Ltd.
Original Assignee
Zhejiang Xinming Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Xinming Intelligent Technology Co Ltd filed Critical Zhejiang Xinming Intelligent Technology Co Ltd
Priority to CN201811648316.6A priority Critical patent/CN109685156B/zh
Publication of CN109685156A publication Critical patent/CN109685156A/zh
Application granted granted Critical
Publication of CN109685156B publication Critical patent/CN109685156B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供了一种用于识别情绪的分类器的获取方法,包括获取第一样本集和第二样本集;第一样本集和第二样本集中每个元素均包括四个内容,分别为基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值、基于皮肤电导信号的第三特征值以及情绪分类结果;获取训练过程控制参数并初始化循环控制参数和分类器;执行循环训练过程以训练符合预设要求的子分类器;将所述子分类器与当前的分类器级联以更新当前的分类器;更新当前的分类器的误判率和检测率;判断当前的分类器的误判率是否大于最大误判率;若否,则输出当前的分类器。本发明注重被误判样本和表达负面情绪的样本,从而使得分类器能够吸收错误教训,并提升对于负面情绪的识别的敏感度。

Description

一种用于识别情绪的分类器的获取方法
技术领域
本发明涉及数据处理领域,尤其涉及一种用于识别情绪的分类器的获取方法。
背景技术
随着智能式穿戴设备普及度越来越高,对于生理参数的数据处理日益成为了研究的热点,基于生理参数的数据处理可以便于掌握用户的身体状态和心理状态,从而为用户提供各种基于身体状态和心理状态的服务,比如,如果用户情绪不佳,可以为用户播放欢快的歌曲调节身心,还可以根据用户身体状态和心理状态与用户进行智能对话,因此,生理参数的数据处理具备较高的研究价值;
但是现有技术中对于生理参数的数据处理的相关技术并不成熟,从而限制了基于用户身体状态和心理状态提供相关服务的技术方案的研发。
发明内容
为了解决上述技术问题,本发明提出了一种用于识别情绪的分类器的获取方法。本发明具体是以如下技术方案实现的:
一种用于识别情绪的分类器的获取方法,包括:
获取第一样本集和第二样本集;第一样本集和第二样本集中每个元素均包括四个内容,分别为基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值、基于皮肤电导信号的第三特征值以及情绪分类结果;
获取训练过程控制参数并初始化循环控制参数和分类器;
执行循环训练过程:从所述第一样本集和第二样本集中各有放回的随机抽取一半数据得到当前训练样本集;根据所述当前训练样本集训练符合预设要求的子分类器;
将所述子分类器与当前的分类器级联以更新当前的分类器;更新当前的分类器的误判率和检测率;
判断当前的分类器的误判率是否大于最大误判率;若否,则输出当前的分类器。
进一步地,每个样本使用(xi,yi)来表示,则每个样本中的用于分类的特征使用xi统一标识,即xi为向量,其各个分量分别表示基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值、基于皮肤电导信号的第三特征值;情绪分类结果使用yi表示:如果是负面情绪,则被标记为1,否则,被标记为0。
进一步地,若是,则清空第二样本集;使用当前的分类器对于对于第一样本集进行分类,并将分类错误的样本加入第二样本集,并重复执行执行循环训练过程的步骤。
进一步地,子分类器的训练方法包括:
初始化当前训练样本集中每个样本的权值、训练阈值和当前训练样本集中样本的权值分布的调整次数;
使用具有权值的当前训练样本,依据训练阈值训练多个线性元分类器;
使用当前训练样本验证每个线性元分类器以得到其误判率;
根据误判率得到疑似子分类器;
验证所述疑似子分类器是否满足预设要求,若满足,则判定所述疑似子分类器为子分类器。
进一步地,若不满足,则调整当前训练样本集中每个样本的权值;调整训练阈值;重新训练线性元分类器。
进一步地,所述调整当前训练样本集中每个样本的权值为:增大被所述疑似子分类器错误分类的样本的权重,降低被所述疑似子分类器正确分类的样本的权重。
本发明实施例详细给出了一种用于识别情绪的分类器的获取方法,其能够在训练过程中充分注重被误判的样本和表达负面情绪的样本,从而使得训练的过程中,分类器能够充分吸收错误教训,并提升训练器对于负面情绪的识别的敏感度,本发明得到的分类器可以直接应用于需要识别负面情绪的场景中。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明实施例提供的一种生理数据处理方法流程图;
图2是本发明实施例提供的心率变异率的第一特征值的获取方法流程图;
图3是本发明实施例提供的基于皮肤电导信号的第二特征值的获取方法流程图;
图4是本发明实施例提供的基于皮肤电导信号的第三特征值的获取方法流程图;
图5是本发明实施例提供的分类器的训练过程流程图;
图6是本发明实施例提供的子分类器的训练方法流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明提供一种生理数据处理方法,如图1所示,所述方法包括:
S101.对待识别用户的生理参数进行采样并得到心率变异率序列、皮肤电导信号序列。
S102.从所述心率变异率序列、皮肤电导信号序列中提取特征参数,所述特征参数包括基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值和第三特征值。
S103.将所述特征参数输入预先设置的分类器以便于所述分类器输出对用户情绪状态的识别结果。
具体地,所述识别结果可以为二值化的结果,具体为负面情绪和非负面情绪,若用户产生焦虑、抑郁等情绪都可能是情绪状态的识别结果为负面情绪。
在本发明实施例的实施过程中,发明人研究了各类生理情感信号对于焦虑和抑郁情绪的指向作用,基于研究结果得到了基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值和第三特征值。基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值和第三特征值具有下述三个主要特点:
(1)指向性明确,通过对其进行数据处理能够得到较为明确的焦虑和抑郁的判断结果,并且误判率相对较低;
(2)心率变异率和皮肤电导信号相对容易采集,因此,可以通过普通的穿戴式设备进行采集而不会为用户带来负担;
(3)基于心率变异率和皮肤电导信号进行进一步处理得到的特征值有更加明确的指向作用,特征值的具体算法由本发明实施例给出具体定义。
具体地,本发明实施例进一步公开心率变异率的第一特征值的获取方法,如图2所示,包括:
S1.根据心率变异率序列{xi}得到待重构序列{yi τ}。
其中,其中N′为所述心率变异序列{xi}的总长度,可见,{yi τ}为长度为的序列,τ为分段参数,可以根据经验值进行设定。
S2.对所述待重构序列{yi τ}进行m维的相空间重构得到目标序列{zj m}。
其中,zj m={yj,yj+1,……,yj+m-1},其中m为固定值,本发明实施例中取值为2。
S3.计算目标序列{zj m}相邻元素之间的相对距离得到目标距离序列{nj m}。
S4.根据预设公式计算所述心率变异率的第一特征值。
具体地,所述公式为其中其中δ为{xi}标准差的0.2倍,在具体的实施过程中公式为为理想值,但是实际应用中可以在处理器中进行相似的逼近。
具体地,本发明实施例进一步公开基于皮肤电导信号的第二特征值的获取方法,如图3所示,包括:
S10.根据皮肤电导信号序列{elci}得到待卷积序列{elc*i}。
具体地,
S20.将所述待卷积序列{elc*i}与预设窗函数进行卷积得到卷积序列{*dsti}。
具体地,所述窗函数优选为汉宁窗。汉宁窗又称升余弦窗,可以看作是3个矩形时间窗的频谱之和。
S30.根据所述卷积序列得到第二特征值。
具体地,第二特征值的获取根据公式
具体地,本发明实施例进一步公开基于皮肤电导信号的第三特征值的获取方法,如图4所示,包括:
S100.获取皮肤电导信号{elci}。
S200.根据公式计算皮肤电导信号{elci}的第三特征值。
具体地,为浓缩参数,其具体定义本实施例给出详细解释,N为皮肤电导信号{elci}的长度,n为浓缩参数的第一内部参数,可以进行设定,通常大于0并且小于40,其值越高浓缩效果越好,但是计算速度也越慢;p为浓缩参数的第二内部参数,其用于表示重点提取信息的部分在所述皮肤电导信号{elci}中的位置,本发明实施例重点提取中间信号的信息,所以取值为0.5。
具体地其中,Λn(i-1,p,N-1)为浓缩核,浓缩核Λn(i-1,p,N-1)定义为其中2F1()为超几何函数,Μ(p,n,N)为与p,n,N有关的常量,其取值可以为
在获取基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值和第三特征值的基础上,只要将其输入预先设置的分类器即可得到情绪的识别结果。所述分类器可以通过大量训练样本训练而得到,具体而言,所述分类器的训练过程可以包括下述步骤,如图5所示,包括:
S201.获取第一样本集和第二样本集。
具体地,本发明实施例中第一样本集为存在负面情绪的样本集,第二样本集为不存在负面情绪的样本集。具体地,第一样本集和第二样本集中每个元素均包括四个项,分别为基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值、基于皮肤电导信号的第三特征值以及情绪识别结果。
若将每个样本使用(xi,yi)来表示,则每个样本中的用于分类的特征为xi统一标识:基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值、基于皮肤电导信号的第三特征值;相应的,其属于的分类结果使用yi表示:如果是负面情绪,则情绪识别结果被标记为1,否则,被标记为0。
S202.获取训练过程控制参数并初始化循环控制参数和分类器。
所述训练过程控制参数包括训练结果的最大误判率Ftarget,各层子分类器的最大误判率fmax,各层子分类器的最小检测率dmin
具体地,本发明实施例中误判率为被错判的样本数量与参与判断的样本数量的比值,检测率为被正确判断的样本数量与参与判断的样本数量的比值。
所述循环控制参数包括循环控制变量,当前循环结果中子分类器的误判率和检测率,具体地,其分别按照下式进行初始化:循环控制变量i=0,当前循环结果中子分类器的误判率Fi=1和检测率Di=1。
分类器初始化为空。
S203.执行循环训练过程:循环控制变量自增1,即i=i+1;从所述第一样本集和第二样本集中各有放回的随机抽取一半数据得到当前训练样本集;根据所述当前训练样本集训练符合预设要求的第i个子分类器Ci
在每一次循环过程中均基于当前的第一样本集和第二样本集随机有放回抽取当前训练样本,从而最大限度提升子分类器训练的随机性。
S204.将第i个子分类器Ci与当前的分类器级联以更新当前的分类器;更新当前的分类器的误判率Fi+1=Fi*fi和检测率Di+1=Di*di,其中fi和di分别为第i个子分类器Ci的误判率和检测率。
S205.判断当前的分类器的误判率是否大于最大误判率。
S206.若是,则清空第二样本集;使用当前的分类器对于对于第一样本集进行分类,并将分类错误的样本加入第二样本集,并重复执行步骤S203。
首先对第二样本集进行了清空操作,并且基于当前级联的分类器进行分类,并将错判的样本归入第二样本集,从而提升了训练过程中对于错判样本和属于负面情绪的样本的关注度,使得被错判的样本在下一次的训练过程中发挥作用,从而提升了训练的精度,并且在训练过程中达到了始终注意属于负面情绪的样本的作用,从而侧面提升了属于负面情绪的样本的重要程度。
S207.若否,则流程结束,并输出当前的分类器。
具体地,本发明实施例中进一步给出了子分类器的训练方法,如图6所示,包括。
S301.初始化当前训练样本集中每个样本的权值、训练阈值T和当前训练样本集中样本的权值分布的调整次数t。
令,当前训练样本集中样本的权值分布为其中N为当前训练样本集中的样本总数。
S302.使用具有权值的当前训练样本,依据训练阈值T训练M个线性元分类器Gm(x)。
具体地,所述线性元分类器可以具体为支持向量机(SVM),其具体训练方法属于现有技术,本发明实施例不做赘述。线性基本分类器的个数M可以预先设定。
S303.使用当前训练样本验证每个线性元分类器Gm(x)以得到其误判率em
具体地,误判率其中t为当前训练样本集中样本的权值分布的调整次数,ωti为当前的训练样本集中样本的权值分布,I(Gm(xi≠yi))表示编号为i的样本使用元分类器Gm(x)出现了误判,则I(Gm(xi≠yi))取值为1。
S304.根据误判率得到疑似子分类器
S305.使用当前训练样本验证所述疑似子分类器以得到其误判率f(G(x))和检测率d(G(x))。
S306.若误判率f(G(x))≤fmax并且检测率d(G(x))≥dmin,则判定所述疑似子分类器达到预设标准,结束流程。
进一步地,还将其作为子分类器并执行步骤S204,具体地在步骤S204中还有fi=f(G(x)),di=d(G(x))。
S306.否则,调整当前训练样本集中每个样本的权值;调整训练阈值T;令当前训练样本集中样本的权值分布的调整次数自增1;返回执行步骤302。
具体地,所述调整当前训练样本集中每个样本的权值具体为:增大被所述疑似子分类器错误分类的样本的权重,降低被所述疑似子分类器正确分类的样本的权重,具体调节过程本发明实施例不做限定,使用现有技术即可。
具体地,在下一轮的迭代中训练阈值T可以适当被缩小,其具体的缩小方法可以人工根据经验设定,本发明实施例并不限定其具体实施方式。
本发明实施例详细给出了一种生理数据处理方法,其能够得到最具有指向性的生理特征参数,通过将其输入预先设置的分类器,能够得到较为精准的情绪识别结果,其可以广泛应用于需要对于用户的情绪状态进行关注的场景之中,比如,为用户播放调节情绪的音乐或者与在智能对话中照顾到用户的情绪。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种用于识别情绪的分类器的获取方法,其特征在于,包括:
获取第一样本集和第二样本集;第一样本集和第二样本集中每个元素均包括四个内容,分别为基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值、基于皮肤电导信号的第三特征值以及情绪分类结果;
获取训练过程控制参数并初始化循环控制参数和分类器;
执行循环训练过程:从所述第一样本集和第二样本集中各有放回的随机抽取一半数据得到当前训练样本集;根据所述当前训练样本集训练符合预设要求的子分类器;
将所述子分类器与当前的分类器级联以更新当前的分类器;更新当前的分类器的误判率和检测率;
判断当前的分类器的误判率是否大于最大误判率;若否,则输出当前的分类器。
2.根据权利要求1所述的方法,其特征在于:
每个样本使用(xi,yi)来表示,则每个样本中的用于分类的特征使用xi统一标识,即xi为向量,其各个分量分别表示基于心率变异率的第一特征值,基于皮肤电导信号的第二特征值、基于皮肤电导信号的第三特征值;情绪分类结果使用yi表示:如果是负面情绪,则被标记为1,否则,被标记为0。
3.根据权利要求2所述的方法,其特征在于:
若是,则清空第二样本集;使用当前的分类器对于对于第一样本集进行分类,并将分类错误的样本加入第二样本集,并重复执行执行循环训练过程的步骤。
4.根据权利要求2所述的方法,其特征在于:
子分类器的训练方法包括:
初始化当前训练样本集中每个样本的权值、训练阈值和当前训练样本集中样本的权值分布的调整次数;
使用具有权值的当前训练样本,依据训练阈值训练多个线性元分类器;
使用当前训练样本验证每个线性元分类器以得到其误判率;
根据误判率得到疑似子分类器;
验证所述疑似子分类器是否满足预设要求,若满足,则判定所述疑似子分类器为子分类器。
5.根据权利要求4所述的方法,其特征在于:
若不满足,则调整当前训练样本集中每个样本的权值;调整训练阈值;重新训练线性元分类器。
6.根据权利要求5所述的方法,其特征在于:
所述调整当前训练样本集中每个样本的权值为:增大被所述疑似子分类器错误分类的样本的权重,降低被所述疑似子分类器正确分类的样本的权重。
CN201811648316.6A 2018-12-30 2018-12-30 一种用于识别情绪的分类器的获取方法 Active CN109685156B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811648316.6A CN109685156B (zh) 2018-12-30 2018-12-30 一种用于识别情绪的分类器的获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811648316.6A CN109685156B (zh) 2018-12-30 2018-12-30 一种用于识别情绪的分类器的获取方法

Publications (2)

Publication Number Publication Date
CN109685156A true CN109685156A (zh) 2019-04-26
CN109685156B CN109685156B (zh) 2021-11-05

Family

ID=66191627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811648316.6A Active CN109685156B (zh) 2018-12-30 2018-12-30 一种用于识别情绪的分类器的获取方法

Country Status (1)

Country Link
CN (1) CN109685156B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101075294A (zh) * 2006-05-19 2007-11-21 腾讯科技(深圳)有限公司 一种建立人脸检测器的方法
CN101496716A (zh) * 2009-02-26 2009-08-05 周洪建 利用ecg信号检测睡眠呼吸暂停的测量方法
CN101887721A (zh) * 2010-07-19 2010-11-17 东南大学 一种基于心电信号与语音信号的双模态情感识别方法
CN103892792A (zh) * 2012-12-24 2014-07-02 中国科学院深圳先进技术研究院 情感识别模型生成装置及其生成情感识别模型的方法
CN104504383A (zh) * 2015-01-14 2015-04-08 东南大学 一种基于肤色和Adaboost算法的人脸检测方法
CN104835507A (zh) * 2015-03-30 2015-08-12 渤海大学 一种串并结合的多模式情感信息融合与识别方法
CN105147248A (zh) * 2015-07-30 2015-12-16 华南理工大学 基于生理信息的抑郁症评估系统及其评估方法
CN105224911A (zh) * 2015-08-27 2016-01-06 湖北文理学院 一种多视角实时行人检测方法及系统
CN106923846A (zh) * 2015-12-31 2017-07-07 深圳先进技术研究院 一种心理压力评估与反馈系统
US20170311901A1 (en) * 2016-04-18 2017-11-02 Massachusetts Institute Of Technology Extraction of features from physiological signals
CN108309328A (zh) * 2018-01-31 2018-07-24 南京邮电大学 一种基于自适应模糊支持向量机的情绪识别方法
CN108804512A (zh) * 2018-04-20 2018-11-13 平安科技(深圳)有限公司 文本分类模型的生成装置、方法及计算机可读存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101075294A (zh) * 2006-05-19 2007-11-21 腾讯科技(深圳)有限公司 一种建立人脸检测器的方法
CN101496716A (zh) * 2009-02-26 2009-08-05 周洪建 利用ecg信号检测睡眠呼吸暂停的测量方法
CN101887721A (zh) * 2010-07-19 2010-11-17 东南大学 一种基于心电信号与语音信号的双模态情感识别方法
CN103892792A (zh) * 2012-12-24 2014-07-02 中国科学院深圳先进技术研究院 情感识别模型生成装置及其生成情感识别模型的方法
CN104504383A (zh) * 2015-01-14 2015-04-08 东南大学 一种基于肤色和Adaboost算法的人脸检测方法
CN104835507A (zh) * 2015-03-30 2015-08-12 渤海大学 一种串并结合的多模式情感信息融合与识别方法
CN105147248A (zh) * 2015-07-30 2015-12-16 华南理工大学 基于生理信息的抑郁症评估系统及其评估方法
CN105224911A (zh) * 2015-08-27 2016-01-06 湖北文理学院 一种多视角实时行人检测方法及系统
CN106923846A (zh) * 2015-12-31 2017-07-07 深圳先进技术研究院 一种心理压力评估与反馈系统
US20170311901A1 (en) * 2016-04-18 2017-11-02 Massachusetts Institute Of Technology Extraction of features from physiological signals
CN108309328A (zh) * 2018-01-31 2018-07-24 南京邮电大学 一种基于自适应模糊支持向量机的情绪识别方法
CN108804512A (zh) * 2018-04-20 2018-11-13 平安科技(深圳)有限公司 文本分类模型的生成装置、方法及计算机可读存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Y. GU等: "Using GA-based feature selection for emotion recognition from physiological signals", 《2008 INTERNATIONAL SYMPOSIUM ON INTELLIGENT SIGNAL PROCESSING AND COMMUNICATIONS SYSTEMS》 *
傅炜东等: "基于多尺度模糊熵的脑电信号特征提取方法", 《航天医学与医学工程》 *
纪丽珍: "冠心病患者短时心血管时间序列分析研究", 《中国博士学位论文全文数据库医药卫生科技辑》 *

Also Published As

Publication number Publication date
CN109685156B (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
Kong et al. Weakly labelled audioset tagging with attention neural networks
Piergiovanni et al. Learning latent super-events to detect multiple activities in videos
Zheng et al. Student’s t-hidden Markov model for unsupervised learning using localized feature selection
CN110362677B (zh) 文本数据类别的识别方法及装置、存储介质、计算机设备
Thakoor et al. Hidden Markov model-based weighted likelihood discriminant for 2-D shape classification
CN108235770A (zh) 图像识别方法及云端系统
CN107564513A (zh) 语音识别方法及装置
US8352395B1 (en) Training an attentional cascade
WO2021031817A1 (zh) 情绪识别方法、装置、计算机装置及存储介质
Song et al. Temporal action localization in untrimmed videos using action pattern trees
Bao et al. Informedia@ trecvid 2011
CN109730700A (zh) 一种用户情绪提醒方法
CN109934114A (zh) 一种手指静脉模板生成与更新算法及系统
Tavallali et al. An efficient training procedure for viola-jones face detector
CN111782863B (zh) 音频分段方法、装置、存储介质及电子设备
KR102185979B1 (ko) 동영상에 포함된 객체의 운동 유형을 결정하기 위한 방법 및 장치
CN106384587B (zh) 一种语音识别方法及系统
Guo et al. Continuous human action recognition in real time
CN109730665A (zh) 一种生理数据处理方法
CN110070891B (zh) 一种歌曲识别方法、装置以及存储介质
CN109685156A (zh) 一种用于识别情绪的分类器的获取方法
CN109583492A (zh) 一种识别对抗性图像的方法及终端
Zhipeng et al. High-order Markov random fields and their applications in cross-language speech recognition
Davies et al. Exploring the effect of rhythmic style classification on automatic tempo estimation
Milchevski et al. Multimodal affective analysis combining regularized linear regression and boosted regression trees

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20211019

Address after: Room 1403, 14th floor, 736 Jiangshu Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province 310000

Applicant after: Hangzhou canba Technology Co.,Ltd.

Address before: No. 2790, Xingsheng street, Sanjiang street, Shengzhou City, Shaoxing City, Zhejiang Province

Applicant before: ZHEJIANG XINMING INTELLIGENT TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant