CN111462773A - 一种自杀风险预测模型的生成方法和预测系统 - Google Patents

一种自杀风险预测模型的生成方法和预测系统 Download PDF

Info

Publication number
CN111462773A
CN111462773A CN202010220759.6A CN202010220759A CN111462773A CN 111462773 A CN111462773 A CN 111462773A CN 202010220759 A CN202010220759 A CN 202010220759A CN 111462773 A CN111462773 A CN 111462773A
Authority
CN
China
Prior art keywords
audio
features
characteristic
value
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010220759.6A
Other languages
English (en)
Other versions
CN111462773B (zh
Inventor
冯甄陶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xintu Entropy Technology Suzhou Co ltd
Original Assignee
Xintu Entropy Technology Suzhou Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xintu Entropy Technology Suzhou Co ltd filed Critical Xintu Entropy Technology Suzhou Co ltd
Priority to CN202010220759.6A priority Critical patent/CN111462773B/zh
Publication of CN111462773A publication Critical patent/CN111462773A/zh
Application granted granted Critical
Publication of CN111462773B publication Critical patent/CN111462773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供一种自杀风险预测模型的生成方法,包括:步骤1:按预设主题采集用户第一音频数据和用户自杀可能性得分;步骤2:对第一音频数据提取音频特征;步骤3:通过有效特征关联图计算音频特征的最终稳定特征值;步骤4:将最终稳定特征值作为输入值,自杀可能性得分作为输出层,利用反向传播算法训练得到自杀风险预测模型。通过本发明,数据采集快捷、方便,利用语音和人工智能技术,实现了对用户自杀可能性的自动识别,为心理危机的预防和干预提供了强有力的支持。

Description

一种自杀风险预测模型的生成方法和预测系统
技术领域
本发明涉及心理学和人工智能领域,更具体地涉及一种自杀风险预测模型的生成方法和预测系统。
背景技术
自杀是全世界公认的社会和公共卫生问题,每年有超过80万人因自杀而死亡,据世界卫生组织(World Health Organization,WHO)称,自杀是15~29岁人群中第二大死亡原因。WHO发布的第一份关于预防自杀的报告指出,预防自杀是全球的当务之急。临床医生、临床心理学家、心理危机干预工作者、社会工作者都渴望有效地预测个体的自杀风险性,并在此基础上采取针对性的措施,预防个体自杀行为的发生。但是,自杀行为产生的原因非常复杂,而且自杀风险性是一个不断发展变化的过程,其意愿的表露也涉及到个体的主观选择,因此临床上很难把握个体的自杀风险性。
目前已有数个影响较大的、以预测个体自杀风险性的工具问世,如哥伦比亚自杀严重性评估量表、自杀未遂与自我伤害访谈、自我伤害的想法和行为问卷、自杀意念量表以及死亡/自杀内隐联想测验等。通过这些工具,可以评估工作对象在将来产生自杀行为的可能性,但是这些方法均依据被试的自我报告,受主观影响较大,需要被试的积极配合和主动应答,且其成本耗费较大。
发明内容
为克服现有技术的上述缺陷,本发明提出一种通过待测试者自然状态下自我介绍的语音数据,利用音频特征预测实现对其自杀风险进行自动识别的模型的生成方法和预测系统,通过充分利用互联网上大量无标注(标注指自杀可能性)的自我介绍的音频数据,可以对用户的自杀风险进行更为生态化的计算预测。
根据本发明的一个方面,提出一种自杀风险预测模型的生成方法,包括:
步骤1:按预设主题采集用户第一音频数据和用户自杀可能性得分;优选的,自杀可能性得分通过被试完成自杀可能性量表得到;优选的,所述预设主题为自我介绍;步骤2:对所述第一音频数据提取音频特征;步骤3:通过有效特征关联图计算所述音频特征的最终稳定特征值;步骤4:将所述最终稳定特征值作为输入值,自杀可能性得分作为输出层,利用反向传播算法训练得到自杀风险预测模型。
较佳地,在所述步骤2中,提取音频特征包括:对音频数据进行加窗切分处理,在每个窗口中进行音频特征提取。
较佳地,在所述步骤2中,所述音频特征包括:基本特征、基本特征的导数值特征、基本特征的均值和方差以及导数值特征的均值和方差,其中,基本特征包括:强度、响度、过零率、基频、基频包络、8个线性频谱对,12个梅尔倒谱系数。
较佳地,所述步骤S3中,所述有效特征关联图的获取步骤包括:
S31:按预设主题获取第二音视频数据,形成无标注的音频数据;
S32:对第二音视频数据提取音频特征,计算任意两个音频特征间的皮尔逊相关系数作为所述两个音频特征之间的关联值,将所述音频特征作为节点,将所述关联值作为两个节点之间的边的权重,从而形成音频特征关联图;
S33:从音频特征关联图中删除特征间关联值小于第一阈值的边,得到有效特征关联图。
较佳地,所述步骤S3中计算所述音频特征的最终稳定性特征值的步骤包括:
(1)计算所述音频特征的t+1轮的特征值,计算公式为:
Figure BDA0002425982500000021
其中,
Figure BDA0002425982500000022
表示音频特征Xa在0时刻的特征值,
Figure BDA0002425982500000023
分别表示第t轮和第t+1轮音频特征Xa的特征值(t≥1);
Figure BDA0002425982500000024
表示由音频特征Xc至音频特征Xa的特征关联值;a、b、c分别为有效特征关联图中的音频特征;
(2)对步骤(1)中的计算公式进行多轮级联迭代,直至所有音频特征的第t+1轮和第t轮特征值之差的和小于设定的第二阈值,至此,特征值达到稳定状态,音频特征的第t+1轮特征值即为音频特征的最终稳定特征值。
根据本发明的另一方面,提出一种自杀风险预测系统,所述系统包括被试音频数据采集模块、音频特征提取模块、音频特征稳定特征值生成模块、自杀风险预测模型生成模块和预测模块;其中,
被试音频数据采集模块,用于按预设主题采集被试的音频数据;优选的,所述预设主题为自我介绍;
音频特征提取模块,用于接收音频数据,并提取音频特征;
音频特征稳定特征值生成模块,用于接收音频特征,并生成音频特征的最终稳定特征值;
自杀风险预测模型生成模块,用于利用反向传播神经网络生成自杀风险预测模型;
预测模块,用于接收被试的音频数据,通过所述音频特征提取模块、音频特征稳定特征值生成模块和自杀风险预测模型,获得被试自杀可能风险值,并判断是否进行自杀风险预警。
较佳地,在音频特征提取模块中,对音频数据进行加窗切分处理,在每个窗口中进行音频特征提取。音频特征包括:基本特征、基本特征的导数值特征、基本特征的均值和方差以及导数值特征的均值和方差,其中,基本特征包括:强度、响度、过零率、基频、基频包络、8个线性频谱对,12个梅尔倒谱系数。
较佳地,所述音频特征稳定特征值生成模块中,生成音频特征的稳定特征值的步骤包括;
(1)计算所述音频特征的t+1轮的特征值,计算公式为:
Figure BDA0002425982500000031
其中,
Figure BDA0002425982500000032
表示音频特征Xa在0时刻的特征值,
Figure BDA0002425982500000033
分别表示第t轮和第t+1轮音频特征Xa的特征值(t≥1);
Figure BDA0002425982500000041
表示由音频特征Xc至音频特征Xa的特征关联值;a、b、c分别为有效特征关联图中的音频特征;
(2)对步骤(1)中的计算公式进行多轮级联迭代,直至所有音频特征的第t+1轮和第t轮特征值之差的和小于设定的第二阈值,至此,特征值达到稳定状态,音频特征的t+1轮特征值
Figure BDA0002425982500000042
为音频特征的最终稳定特征值。
较佳地,有效特征关联图的生成步骤包括:
按预设主题获取第二音视频数据,形成无标注的音频数据;
通过音频特征提取模块提取第二音视频数据的音频特征,计算任意两个音频特征间的皮尔逊相关系数作为所述两个音频特征之间的关联值,将所述音频特征作为节点,将所述关联值作为两个节点之间的边的权重,从而形成音频特征关联图;
从音频特征关联图中删除特征间关联值小于第一阈值的边,得到有效特征关联图。
较佳地,所述自杀风险预测模型生成模块包括:
有标注的音频信息采集单元,用于按预设主题采集用户第一音频数据和用户自杀可能性得分,并将所述第一音频数据传送给所述音频特征提取模块进行音频特征提取,然后将提取的音频特征传送到所述音频特征稳定特征值生成模块;优选的,自杀可能性得分通过被试完成自杀可能性量表得到;
模型生成单元,用于从所述音频特征稳定特征值生成模块接收第一音频数据的音频特征的最终稳定特征值,将所述最终稳定特征值作为输入值,用户自杀可能性得分作为输出层,利用反向传播算法训练得到自杀风险预测模型。
本发明弥补了传统自杀风险监测手段无法大规模实施、耗费大量人力和时间资源的缺陷,充分利用网络环境数据,结合心理学理论和大数据技术,实现了一种网络环境下基于用户语音资料的自杀风险预警技术,风险监测所用的数据获取更为简便,且将自杀风险监测的时间节点提前,为存在自杀意愿的用户提供早期的心理风险援助提供辅助诊断手段,为网络用户中可能存在的心理健康问题提供帮助,并预防潜在的自杀风险。
附图说明
图1为根据本发明一个实施例的自杀风险预测模型的生成方法流程示意图;
图2为根据本发明一个实施例的自杀风险预测系统的结构示意图。
为了能明确实现本发明的实施例的结构,在图中标注了特定的尺寸、结构和器件,但这仅为示意需要,并非意图将本发明限定在该特定尺寸、结构、器件和环境中,根据具体需要,本领域的普通技术人员可以将这些器件和环境进行调整或者修改,所进行的调整或者修改仍然包括在后附的权利要求的范围中。
具体实施方式
下面结合附图和具体实施例对本发明提供的基于特定文本朗读语音数据的焦虑识别方法的和预警系统进行详细描述。
在以下的描述中,将描述本发明的多个不同的方面,然而,对于本领域内的普通技术人员而言,可以仅仅利用本发明的一些或者全部结构或者流程来实施本发明。为了解释的明确性而言,阐述了特定的数目、配置和顺序,但是很明显,在没有这些特定细节的情况下也可以实施本发明。在其他情况下,为了不混淆本发明,对于一些众所周知的特征将不再进行详细阐述。
在通过语音网络预测自杀可能性的研究中,研究数据的获取主要分为两部分。一部分为用户实验获取有标注数据,用于训练预测模型;另一部分为从互联网搜索并下载的大量无标注的自我介绍的音视频数据,用于输入预测模型并进行用户自杀可能性的预测计算。
用户实验获取的有标注数据也分为两部分,一是实验被试的自我介绍音频数据,二是被试通过完成自杀可能性量表(Suicidal Possibility Scale)得到的自杀可能性得分(即标注部分)。自杀可能性量表(Suicidal Possibility Scale,SPS)是有36项条目的自评量表,用于检测14岁以上青少年的自杀危险,它主要由4个维度构成:绝望感、自杀意念、消极自我评价、敌对。SPS总量表和各分量表的一致性程度较高,重测信度和分半信度也比较理想。
在本发明中,有标注就是音频数据被标注了自杀可能性得分;被试指待测试者;用户指用于采集其信息者。
如图1所示,本发明提供了一种自杀风险预测模型的生成方法,包括:步骤1:按预设主题采集用户第一音频数据和用户自杀可能性得分;优选的,自杀可能性得分通过用户完成自杀可能性量表得到;预设主题可以为自我介绍;步骤2:对第一音频数据提取音频特征;步骤3:通过有效特征关联图计算音频特征的最终稳定特征值;步骤4:将最终稳定特征值作为输入值,自杀可能性得分作为输出层,利用反向传播算法训练得到自杀风险预测模型。
在一个实施例中,用户实验中音频数据采集流程如下(下面以自我介绍这一预设主题为例):
在数据采集过程中,具体的音频数据采集实施过程如下所示:
实验场地:
安静的室内空间,无杂音影响。提前在空间内确定好患者音频数据采集实验的被试位置。
使用设备:
录音笔一个
Figure BDA0002425982500000061
Figure BDA0002425982500000071
下面是用户实验中被试的自杀可能性得分的采集流程:
在数据采集过程中,具体的量表得分数据采集实施过程如下所示:
实验场地:
安静的室内空间,无杂音影响。
使用设备:
平板电脑一个,里面已导入自杀可能性量表。
实验过程:
被试在平板上完成自杀可能性量表的作答。
在步骤S2中,为了描述音频在细节上的变化,对音频数据进行加窗切分处理。例如,帧长30ms、帧移15ms,加窗函数为汉明窗,然后在每个窗口中进行音频特征提取。在特征提取上,首先提取基本音频特征(比如强度(intensity)、响度(loudness)、过零率(zero-crossing rate)、基频(fundamental frequency,F0)、基频包络(F0 envelope)、8个线性频谱对(line spectral pairs,LSP),12个梅尔倒谱系数(MFCC)),为了表述音频特征的动态变化,对所有基本音频特征分别计算其导数值特征(△),并在窗口切分技术上分别计算基本音频特征和其导数值的均值和方差来表示音频动态变化特点,最后针对每个音频样本,共提取了100个时域特征。
在步骤3:通过有效特征关联图计算上面提取的音频特征的最终稳定特征值。其中,有效特征关联图的生成步骤包括:
(1)按预设主题获取大量无标注的第二音视频数据,形成无标注的自我介绍音频数据;比如从互联网搜索并下载。无标注的就是指单纯的音视频数据。
(2)对于每一个第二音频数据,提取其音频特征,计算任意两个音频特征间的皮尔逊相关系数作为它们之间的关联值,将每个特征作为节点,两个特征间的关联值作为它们之间的边的权重,从而生成音频特征关联图;设定关联值的第一阈值,两个特征间的关联值超过第一阈值的,表示高相关,低于第一阈值的,表示较低的关联,可以认为它们之间的关联较小,从而忽略它们之间的影响,从音频特征关联图中删除特征间关联值小于第一阈值的边,得到有效特征关联图;第一阈值一般可以取0.4。
(3)计算所有音频特征的最终稳定特征值。即针对音频数据的音频特征,根据有效特征关联图对音频特征的进一步处理,计算步骤如下:
步骤3-1:
Figure BDA0002425982500000081
表示音频特征Xa的数值,在此基础上计算该音频特征的t+1轮的特征值,计算公式为:
Figure BDA0002425982500000082
其中,
Figure BDA0002425982500000083
分别表示第t轮和第t+1轮音频特征Xa的特征值(t≥1);
Figure BDA0002425982500000084
表示由音频特征Xc至音频特征Xa的特征关联值;a、b、c分别为有效特征关联图中的特征;公式中使用了省略号,这是数学公式中常用的写法。
步骤3-2:对步骤3-1中的计算公式进行多轮级联迭代,直至所有音频特征的第t+1轮和第t轮特征值之差的和小于设定的第二阈值时,至此,则认为在t+1轮达到特征值的稳定状态,这个时候音频特征的t+1轮特征值就是最终稳定特征值,从而得到所有音频特征的最终稳定特征值。第二阈值一般为比较小的数,比如0.01,这样状态会比较稳定。
针对用户实验获得的有自杀可能性用户的音频数据(即有标注数据),经过上述步骤处理后,得到音频特征的最终稳定特征值。
在步骤S4中,将所有第一音频数据的音频特征的最终稳定特征值作为输入值,对应的用户自杀可能性数值作为输出层,利用反向传播算法训练得到自杀风险预测模型。
其中,利用反向传播算法训练模型是现有的技术手段,有多种框架可以选择使用。
根据本发明的另一方面,提出一种自杀风险预测系统,如图2所示,该系统包括被试音频数据采集模块、音频特征提取模块、音频特征稳定特征值生成模块、自杀风险预测模型生成和预测模块;其中,
被试音频数据采集模块,用于按预设主题采集被试的音频数据;
音频特征提取模块,用于接收音频数据,并提取音频特征;
音频特征稳定特征值生成模块,用于接收音频特征,并生成音频特征的最终稳定特征值;
自杀风险预测模型生成模块,用于利用反向传播神经网络生成自杀风险预测模型;
预测模块,用于接收被试的音频数据,通过所述音频特征提取模块、音频特征稳定特征值生成模块和自杀风险预测模型,获得被试自杀可能风险值,并判断是否进行自杀风险预警。
优选的,预设主题为自我介绍。
在音频特征提取模块中,为了描述音频在细节上的变化,对音频数据进行加窗切分处理。例如,帧长30ms、帧移15ms,加窗函数为汉明窗,然后在每个窗口中进行音频特征提取。在特征提取上,首先提取基本音频特征(比如,强度(intensity)、响度(loudness)、过零率(zero-crossing rate)、基频(fundamental frequency,F0)、基频包络(F0 envelope)、8个线性频谱对(line spectral pairs,LSP),12个梅尔倒谱系数(MFCC)),为了表述音频特征的动态变化,对所有音频特征分别计算其导数值特征(△),并在窗口切分技术上分别计算基本音频特征和其导数的均值和方差来表示音频动态变化特点,最后针对每个音频样本,共提取了100个时域特征。
在音频特征稳定特征值生成模块中,生成音频特征的稳定特征值的步骤包括;
(1)计算所述音频特征的t+1轮的特征值,计算公式为:
Figure BDA0002425982500000091
其中,
Figure BDA0002425982500000101
表示音频特征Xa在0时刻的特征值,
Figure BDA0002425982500000102
分别表示第t轮和第t+1轮音频特征Xa的特征值(t≥1);
Figure BDA0002425982500000103
表示由音频特征Xc至音频特征Xa的特征关联值;a、b、c分别为有效特征关联图中的音频特征;
(2)对步骤(1)中的计算公式进行多轮级联迭代,直至所有音频特征的第t+1轮和第t轮特征值之差的和小于设定的第二阈值,至此,特征值达到稳定状态,音频特征的t+1轮时的特征值是音频特征的最终稳定特征值。
其中,有效特征关联图的生成步骤包括:
按预设主题获取第二音视频数据(如通过互联网下载),形成无标注的音频数据;
通过音频特征提取模块提取第二音视频数据的音频特征,计算任意两个音频特征间的皮尔逊相关系数作为所述两个音频特征之间的关联值,将所述音频特征作为节点,将所述关联值作为两个节点之间的边的权重,从而形成音频特征关联图;
从音频特征关联图中删除特征间关联值小于第一阈值的边,得到有效特征关联图。
所述自杀风险预测模型生成模块包括:有标注的音频信息采集单元,用于按预设主题采集用户第一音频数据和用户自杀可能性得分,并将所述第一音频数据传送给所述音频特征提取模块进行音频特征提取,然后将提取的音频特征传送到所述音频特征稳定特征值生成模块;优选的,自杀可能性得分通过被试完成自杀可能性量表得到;模型生成单元,用于从所述音频特征稳定特征值生成模块接收第一音频数据的音频特征的最终稳定特征值,将所述最终稳定特征值作为输入值,用户自杀可能性得分作为输出层,利用反向传播算法训练得到自杀风险预测模型。
在预测模块中,针对任何新的用户即被试,在获取按预设主题的语音数据后,通过语音特征提取单元提取音频特征,然后利用音频特征稳定特征值生成模块得到该用户音频特征的最终稳定特征值,将最终稳定特征值传送训练得到的预测模型,然后根据返回的自杀可能风险值判断是否进行自杀风险预警。判断方法与自杀可能性得分为同一标准,比如采用SPS量表获得自杀可能性得分时,继续利用SPS总量表和各分量表的标准进行自杀风险预警。
本发明充分利用网络环境数据,结合心理学理论和大数据技术,实现了一基于用户语音资料的自杀风险预警技术,风险监测所用的数据获取更为简便。而且预测的内容与传统的内容完全不同,并没有相关自杀的信息,预测更为隐蔽,因此准确性更高。通过对用户的语音进行分析,与传统方法相比,对用户的侵扰更少,使得预测的生态性更高,而且由于整个过程中可以完全不涉及自杀,所以用户的表现会更自然,从而会有更好的预测效果。
最后应说明的是,以上实施例仅用以描述本发明的技术方案而不是对本技术方法进行限制,本发明在应用上可以延伸为其他的修改、变化、应用和实施例,并且因此认为所有这样的修改、变化、应用、实施例都在本发明的精神和教导范围内。

Claims (10)

1.一种自杀风险预测模型的生成方法,包括:
步骤1:按预设主题采集用户的第一音频数据和用户自杀可能性得分;优选的,自杀可能性得分通过用户完成自杀可能性量表得到;优选的,所述预设主题为自我介绍;
步骤2:对所述第一音频数据提取音频特征;
步骤3:通过有效特征关联图计算所述音频特征的最终稳定特征值;
步骤4:将所述音频数据的最终稳定特征值作为输入层,自杀可能性得分作为输出层,利用反向传播算法训练获得自杀风险预测模型。
2.根据权利要求1所述的方法,其特征在于,在所述步骤2中,提取音频特征包括:对音频数据进行加窗切分处理,在每个窗口中进行音频特征提取。
3.根据权利要求1所述的方法,其特征在于,在所述步骤2中,所述音频特征包括:基本特征、基本特征的导数值特征、基本特征的均值和方差以及导数值特征的均值和方差,其中,基本特征包括:强度、响度、过零率、基频、基频包络、8个线性频谱对,12个梅尔倒谱系数。
4.根据权利要求1所述的方法,其特征在于,所述步骤S3中,所述有效特征关联图的获取步骤包括:
S31:按所述预设主题获取第二音视频数据,形成无标注的音频数据;
S32:对第二音视频数据提取所述音频特征,计算任意两个音频特征间的皮尔逊相关系数作为所述两个音频特征之间的关联值,将所述音频特征作为节点,将所述关联值作为两个节点之间的边的权重,从而形成音频特征关联图;
S33:从音频特征关联图中删除特征间关联值小于第一阈值的边,得到有效特征关联图。
5.根据权利要求1所述的方法,其特征在于,所述步骤S3中计算所述音频特征的最终稳定性特征值的步骤包括:
(1)计算所述音频特征的t+1轮的特征值,计算公式为:
Figure FDA0002425982490000011
其中,
Figure FDA0002425982490000021
表示音频特征Xa在0时刻的特征值,
Figure FDA0002425982490000022
分别表示第t轮和第t+1轮音频特征Xa的特征值(t≥1);
Figure FDA0002425982490000023
表示由音频特征Xc至音频特征Xa的特征关联值;a、b、c分别为有效特征关联图中的音频特征;
(2)对步骤(1)中的计算公式进行多轮级联迭代,直至所有音频特征的第t+1轮和第t轮特征值之差的和小于设定的第二阈值,音频特征的t+1轮特征值为最终稳定特征值。
6.一种自杀风险预测系统,其特征在于,所述系统包括被试音频数据采集模块、音频特征提取模块、音频特征稳定特征值生成模块、自杀风险预测模型生成和预测模块;其中,
被试音频数据采集模块,用于按预设主题采集被试的音频数据;优选的,所述预设主题为自我介绍;
音频特征提取模块,用于接收所述音频数据,并提取音频特征;
音频特征稳定特征值生成模块,用于接收所述音频特征,并生成音频特征的最终稳定特征值;
自杀风险预测模型生成模块,用于利用反向传播神经网络生成自杀风险预测模型;
预测模块,用于接收所述被试的音频数据,通过所述音频特征提取模块、音频特征稳定特征值生成模块和自杀风险预测模型,获得被试自杀可能风险值,并判断是否进行自杀风险预警。
7.根据权利要求6所述的预测系统,其特征在于,在所述音频特征提取模块中,能够对音频数据进行加窗切分处理,在每个窗口中进行音频特征提取,所述音频特征包括:基本特征、基本特征的导数值特征、基本特征的均值和方差以及导数值特征的均值和方差,其中,基本特征包括:强度、响度、过零率、基频、基频包络、8个线性频谱对,12个梅尔倒谱系数。
8.根据权利要求6所述的方法,其特征在于,所述音频特征稳定特征值生成模块中,生成音频特征的稳定特征值的步骤包括;
(1)计算所述音频特征的t+1轮的特征值,计算公式为:
Figure FDA0002425982490000031
其中,
Figure FDA0002425982490000032
表示音频特征Xa在0时刻的特征值,
Figure FDA0002425982490000033
分别表示第t轮和第t+1轮音频特征Xa的特征值(t≥1);
Figure FDA0002425982490000034
表示由音频特征Xc至音频特征Xa的特征关联值;a、b、c分别为有效特征关联图中的音频特征;
(2)对步骤(1)中的计算公式进行多轮级联迭代,直至所有音频特征的第t+1轮和第t轮特征值之差的和小于设定的第二阈值,音频特征的t+1轮特征值为最终稳定特征值。
9.根据权利要求8所述的预测系统,其特征在于,有效特征关联图的生成步骤包括:
按所述预设主题获取第二音视频数据,形成无标注的音频数据;
通过音频特征提取模块提取第二音视频数据的音频特征,计算任意两个音频特征间的皮尔逊相关系数作为所述两个音频特征之间的关联值,将所述音频特征作为节点,将所述关联值作为两个节点之间的边的权重,从而形成音频特征关联图;
从音频特征关联图中删除特征间关联值小于第一阈值的边,得到有效特征关联图。
10.根据权利要求6所述的预测系统,其特征在于,所述自杀风险预测模型生成模块包括:
有标注的音频信息采集单元,用于按所述预设主题采集用户第一音频数据和用户自杀可能性得分,并将所述第一音频数据传送给所述音频特征提取模块进行音频特征提取,然后将提取的音频特征传送到所述音频特征稳定特征值生成模块;优选的,自杀可能性得分通过用户完成自杀可能性量表得到;
模型生成单元,用于从所述音频特征稳定特征值生成模块接收第一音频数据的音频特征的最终稳定特征值,将所述最终稳定特征值作为输入层,用户自杀可能性得分作为输出层,利用反向传播算法训练得到自杀风险预测模型。
CN202010220759.6A 2020-03-26 2020-03-26 一种自杀风险预测模型的生成方法和预测系统 Active CN111462773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010220759.6A CN111462773B (zh) 2020-03-26 2020-03-26 一种自杀风险预测模型的生成方法和预测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010220759.6A CN111462773B (zh) 2020-03-26 2020-03-26 一种自杀风险预测模型的生成方法和预测系统

Publications (2)

Publication Number Publication Date
CN111462773A true CN111462773A (zh) 2020-07-28
CN111462773B CN111462773B (zh) 2023-05-05

Family

ID=71682289

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010220759.6A Active CN111462773B (zh) 2020-03-26 2020-03-26 一种自杀风险预测模型的生成方法和预测系统

Country Status (1)

Country Link
CN (1) CN111462773B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111739647A (zh) * 2020-08-07 2020-10-02 暨南大学 基于磁共振影像的双相障碍自杀风险预测方法及相关装置
CN116759086A (zh) * 2023-06-07 2023-09-15 华东师范大学 基于主题统觉测试的自杀风险识别模型构建方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020077825A1 (en) * 2000-08-22 2002-06-20 Silverman Stephen E. Methods and apparatus for evaluating near-term suicidal risk using vocal parameters
US20130166291A1 (en) * 2010-07-06 2013-06-27 Rmit University Emotional and/or psychiatric state detection
CN104881719A (zh) * 2015-06-03 2015-09-02 重庆医科大学 一种青少年自杀或自伤风险评估预警模型构建方法
US20160099011A1 (en) * 2013-05-24 2016-04-07 Children's Hospital Medical Center System and Method for Assessing Suicide Risk of a Patient Based Upon Non-Verbal Characteristics of Voice Data
CN106073706A (zh) * 2016-06-01 2016-11-09 中国科学院软件研究所 一种面向简易精神状态量表的个性化信息和音频数据分析方法及系统
CN106725532A (zh) * 2016-12-13 2017-05-31 兰州大学 基于语音特征与机器学习的抑郁症自动评估系统和方法
CN109171769A (zh) * 2018-07-12 2019-01-11 西北师范大学 一种应用于抑郁症检测的语音、面部特征提取方法及系统
CN109240486A (zh) * 2018-07-05 2019-01-18 腾讯科技(深圳)有限公司 一种弹出消息处理方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020077825A1 (en) * 2000-08-22 2002-06-20 Silverman Stephen E. Methods and apparatus for evaluating near-term suicidal risk using vocal parameters
US20130166291A1 (en) * 2010-07-06 2013-06-27 Rmit University Emotional and/or psychiatric state detection
US20160099011A1 (en) * 2013-05-24 2016-04-07 Children's Hospital Medical Center System and Method for Assessing Suicide Risk of a Patient Based Upon Non-Verbal Characteristics of Voice Data
CN104881719A (zh) * 2015-06-03 2015-09-02 重庆医科大学 一种青少年自杀或自伤风险评估预警模型构建方法
CN106073706A (zh) * 2016-06-01 2016-11-09 中国科学院软件研究所 一种面向简易精神状态量表的个性化信息和音频数据分析方法及系统
CN106725532A (zh) * 2016-12-13 2017-05-31 兰州大学 基于语音特征与机器学习的抑郁症自动评估系统和方法
CN109240486A (zh) * 2018-07-05 2019-01-18 腾讯科技(深圳)有限公司 一种弹出消息处理方法、装置、设备及存储介质
CN109171769A (zh) * 2018-07-12 2019-01-11 西北师范大学 一种应用于抑郁症检测的语音、面部特征提取方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111739647A (zh) * 2020-08-07 2020-10-02 暨南大学 基于磁共振影像的双相障碍自杀风险预测方法及相关装置
CN116759086A (zh) * 2023-06-07 2023-09-15 华东师范大学 基于主题统觉测试的自杀风险识别模型构建方法及装置

Also Published As

Publication number Publication date
CN111462773B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
Hassan et al. COVID-19 detection system using recurrent neural networks
US11373055B2 (en) Bidirectional attention-based image-text cross-modal retrieval method
Wyatt et al. Inferring colocation and conversation networks from privacy-sensitive audio with implications for computational social science
WO2019104890A1 (zh) 结合音频分析和视频分析的欺诈识别方法、装置及存储介质
Şen et al. Multimodal deception detection using real-life trial data
Huang et al. Depression Detection from Short Utterances via Diverse Smartphones in Natural Environmental Conditions.
CN108520753B (zh) 基于卷积双向长短时记忆网络的语音测谎方法
WO2021147363A1 (zh) 一种基于文本的抑郁症识别方法
CN111329494B (zh) 抑郁症参考数据的获取方法及装置
CN107456208A (zh) 多模式交互的言语语言功能障碍评估系统与方法
CN111951824A (zh) 一种基于声音判别抑郁症的检测方法
Pettitt et al. Quantitative acoustic analysis of the vocal repertoire of the golden rocket frog (Anomaloglossus beebei)
Levitan et al. Combining Acoustic-Prosodic, Lexical, and Phonotactic Features for Automatic Deception Detection.
Henríquez et al. Nonlinear dynamics characterization of emotional speech
KR20210075511A (ko) 재난대응 추천방법 및 그 장치
CN111462773A (zh) 一种自杀风险预测模型的生成方法和预测系统
CN110941953A (zh) 一种兼顾可解释性的网络虚假评论的自动识别方法及系统
Haider et al. A System for Real-Time Privacy Preserving Data Collection for Ambient Assisted Living.
CN115631772A (zh) 自伤自杀危险性评估方法、装置、电子设备及存储介质
CN110136743A (zh) 基于声音采集的健康状态监控方法、装置及存储介质
Elbarougy Speech emotion recognition based on voiced emotion unit
CN116048282B (zh) 一种数据处理方法、系统、装置、设备及存储介质
Yerigeri et al. Meta-heuristic approach in neural network for stress detection in Marathi speech
Narayanan et al. Detection of depression from social media using deep learning approach
Henríquez Rodríguez et al. Global selection of features for nonlinear dynamics characterization of emotional speech

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant