CN115188396A - 内容展示方法、语音数据处理方法及装置 - Google Patents
内容展示方法、语音数据处理方法及装置 Download PDFInfo
- Publication number
- CN115188396A CN115188396A CN202210909871.XA CN202210909871A CN115188396A CN 115188396 A CN115188396 A CN 115188396A CN 202210909871 A CN202210909871 A CN 202210909871A CN 115188396 A CN115188396 A CN 115188396A
- Authority
- CN
- China
- Prior art keywords
- user
- voice
- voice data
- target
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000003672 processing method Methods 0.000 title abstract description 13
- 230000008451 emotion Effects 0.000 claims abstract description 184
- 230000006996 mental state Effects 0.000 claims abstract description 47
- 230000008909 emotion recognition Effects 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 17
- 230000001960 triggered effect Effects 0.000 claims description 6
- 230000004630 mental health Effects 0.000 abstract description 31
- 238000009223 counseling Methods 0.000 description 24
- 230000015654 memory Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 230000009323 psychological health Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000002996 emotional effect Effects 0.000 description 5
- 230000003370 grooming effect Effects 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 5
- 208000019901 Anxiety disease Diseases 0.000 description 4
- 230000036506 anxiety Effects 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000005311 autocorrelation function Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001939 inductive effect Effects 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 210000001260 vocal cord Anatomy 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 208000020016 psychiatric disease Diseases 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Developmental Disabilities (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本说明书实施方式提供一种内容展示方法、语音数据处理方法及装置。该方法通过对用户的语音数据进行情感识别,得到所述语音数据对应的目标情感类别,且所述目标情感类别可以传达出用户心理状态;进而基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;从而展示所述目标产品方案的内容,实现向用户准确地推荐心理健康产品,减少用户购买错误产品的几率。特别是用户无法准确描述自己心理状态的情况下,通过对用户的语音数据进行情感识别,准确且及时地了解用户心理状态,以向用户提供与其匹配的心理健康产品,提升产品推荐的准确性。
Description
技术领域
本说明书实施方式涉及计算机技术领域,具体涉及一种内容展示方法、语音数据处理方法及装置。
背景技术
随着生活节奏的加快和生活压力的加大,国民的心理健康面临着严峻的挑战,精神障碍患者或者心理疾病患者的数量不断增加,对心理咨询的需求也随之增加。
在传统技术中,用户通过终端访问心理咨询线上平台,心理咨询线上平台向终端返回一系列的心理健康产品,终端接收并展示心理咨询线上平台返回的心理健康产品。用户浏览这些罗列的心理健康产品,并从中选择一个适合自身的心理健康产品。
发明内容
有鉴于此,本说明书实施方式致力于提供一种内容展示方法、语音数据处理方法及装置,以实现向用户准确地推荐与用户心理状态匹配的心理疏导解决方案。
本说明书实施方式提供了一种内容展示方法,所述方法包括:根据采集到的用户声音生成语音数据;对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案。展示所述目标产品方案的内容。
本说明书实施方式提供一种内容展示方法,所述方法包括:发送采集用户声音所生成的语音数据至服务器;以用于所述服务器对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;接收所述服务器发送的所述目标产品方案;展示所述目标产品方案的内容。
本说明书实施方式提供一种语音数据处理方法,所述方法包括:接收采集用户声音所生成的语音数据;对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项;利用所述至少一个目标产品项构建能够疏导所述用户心理状态的目标产品方案。
本说明书实施方式提供一种内容展示装置,所述装置包括:语音数据生成模块,用于根据采集到的用户声音生成语音数据;语音数据识别模块,用于对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;产品方案确定模块,用于基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;方案内容展示模块,用于展示所述目标产品方案的内容。
本说明书实施方式提供一种内容展示装置,所述装置包括:语音数据发送模块,用于发送采集用户声音所生成的语音数据至服务器;以用于所述服务器对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;产品方案接收模块,用于接收所述服务器发送的所述目标产品方案;方案内容展示模块,用于展示所述目标产品方案的内容。
本说明书实施方式提供一种语音数据处理装置,所述装置包括:语音数据接收模块,用于接收采集用户声音所生成的语音数据;语音数据识别模块,用于对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;产品项确定模块,用于基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项;产品方案构建模块,用于利用所述至少一个目标产品项构建能够疏导所述用户心理状态的目标产品方案。
本说明书实施方式提供一种计算设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述实施方式中的方法步骤。
本说明书实施方式提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述实施方式中的方法步骤。
本说明书实施方式提供一种计算机程序产品,所述计算机程序产品中包括指令,所述指令被计算机设备的处理器执行时,使得所述计算机设备能够执行上述实施方式中的方法步骤。
本说明书实施方式,通过对用户的语音数据进行情感识别,得到所述语音数据对应的目标情感类别,且所述目标情感类别可以传达出用户心理状态;进而基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;从而展示所述目标产品方案的内容,实现向用户准确地推荐心理健康产品,减少用户购买错误产品的几率。特别是用户无法准确描述自己心理状态的情况下,通过对用户的语音数据进行情感识别,准确且及时地了解用户心理状态,以向用户提供与其匹配的心理健康产品,提升产品推荐的准确性。
附图说明
图1a所示为一实施方式提供的场景示例中心理咨询介绍首页的示意图;
图1b所示为一实施方式提供的场景示例中语音输入界面的示意图;
图1c所示为一实施方式提供的场景示例中语音输入标识的示意图;
图1d所示为一实施方式提供的场景示例中产品方案的示意图;
图1e所示为一实施方式提供的场景示例中内容展示方法的交互图;
图1f所示为一实施方式提供的内容展示方法的应用环境图;
图2所示为一实施方式提供的内容展示方法的流程示意图;
图3a所示为一实施方式提供的场景示例中语音输入界面的示意图;
图3b所示为一实施方式提供的场景示例中语音识别标识的示意图;
图4所示为一实施方式提供的场景示例中文本内容的示意图;
图5所示为一实施方式提供的场景示例中医生的介绍信息的示意图;
图6所示为一实施方式提供的场景示例中咨询服务产品的示意图;
图7所示为一实施方式提供的内容展示方法的流程示意图;
图8所示为一实施方式提供的语音数据处理方法的流程示意图;
图9所示为一实施方式提供的内容展示装置的结构框图;
图10所示为一实施方式提供的内容展示装置的结构框图;
图11所示为一实施方式提供的语音数据处理装置的结构框图;
图12所示为一实施方式提供的计算机设备的内部结构图。
具体实施方式
下面将结合本说明书实施方式中的附图,对本说明书实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅是本说明书一部分实施方式,而不是全部的实施方式。基于本说明书中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本说明书保护的范围。
在一个具体的场景示例中,终端上安装有可以提供线上心理咨询服务功能的应用软件A。请参阅图1a,应用软件A提供有心理咨询介绍首页。心理咨询介绍首页中提供有心理咨询控件“知心咨询”102,终端对心理咨询控件进行检测。用户怀疑自己存在心理疾病时,可以打开终端上的应用软件A,终端展示心理咨询介绍首页。用户点击心理咨询介绍首页上的“知心咨询”控件,终端检测到“知心咨询”控件被触发,终端显示语音输入界面。请参阅图1b,语音输入界面具有语音输入控件104和提示信息106。所述提示信息用于引导用户通过口头表达所述用户心理状态。用户可以通过讲话的方式对自己的心理状态进行口头讲述,终端的麦克风可以对用户声音进行采集。在采集用户声音的过程中,终端可以展示语音输入标识和/或取消语音输入的提醒文字,语音输入标识用于提醒用户终端正在采集用户的声音。在一些实施方式中,请参阅图1c,提醒文字可以是“上划取消”。
本场景示例中,终端可以根据采集到的用户声音生成语音数据,终端对语音数据进行分帧、加窗、预加重等预处理,得到预处理后的语音数据。对预处理后的语音数据进行情感特征提取,得到若干个语音特征参数。语音特征参数可以是基音周期、共振峰、短时平均能量或幅度、线性预测系数(LPC)、感知加权预测系数(PLP)、短时平均过零率、线性预测倒谱系数(LPCC)、自相关函数、梅尔倒谱系数(MFCC)、小波变换系数、经验模态分解系数(EMD)、伽马通滤波器系数(GFCC)等中任一个。
本场景示例中,终端中部署有语音模板库,语音模板库中存储有语音特征与语音模板的对应关系,语音模板可以用来描述一种情感类别,所述情感类别包括高兴、悲哀、生气、惊吓、中性中的至少一种。利用从语音数据中提起的语音特征参数与语音模板库中的语音特征进行匹配,确定与所述语音特征参数匹配的目标语音模板。基于所述目标语音模板,确定用于描述所述用户心理状态的目标情感类别。
本场景示例中,可以预先已经整理好情感类别与产品方案的对应关系,并存储在终端,则终端利用目标情感类别在情感类别与产品方案的对应关系中进行查询,得到与目标情感类别对应的目标产品方案,从而终端可以展示目标产品方案的内容。
示例性地,34岁的男士“小明”拿出手机,打开应用软件A,并点击心理咨询控件“知心咨询”。手机显示语音输入界面,“小明”点击语音输入控件,开始用语音描述自己最近的心理状态,小明这样说:“我今年34岁,上养老下养小,最近项目交付出现了一些问题,需要经常通宵加班,更加没有时间陪爱人和孩子,而且我明显感觉到自己体力下降,特别容易疲劳,记忆力也不如以前,偶尔还会出现头疼,我真的老了吗?”
本示例中,“小明”语音输入上述内容后,手机的界面可以显示“正在解析中,请稍等”的语音解析标识。手机后台对上述语音内容进行预处理和特征提取,以识别出对应的情感类别,从而确定小明的心理状态处于焦虑不安中。
本示例中,在对上述语音内容完成解析后,并根据小明的心理状态为小明推荐对应的产品方案。请参阅图1d,手机可以显示文本内容和针对小明目前焦虑的心理状态的心理医生的介绍信息、心理咨询机构的介绍信息。心理医生的介绍信息可以包括医生的姓名、就职医院、专业擅长、患者评价、接诊患者数量、患者就诊的响应时间中的至少一个。心理咨询机构的介绍信息可以包括机构位置、机构的服务内容、机构咨询服务的价格、咨询次数中的至少一个。
本示例中,文本内容可以是“根据您的描述,我们感觉到您内心较为焦虑,所以我们建议您适当运动,生活要规律,作息要合理,持续学习,对自己建立自信,自信的您充满正能量。”心理医生的介绍信息可以是擅长缓解男士压力的心理专家李XX,李XX就职于上海市第X人民医院心理科。心理咨询机构的介绍信息可以是位于上海市陆家嘴XY商场三楼,距离您的位置小于800米。
请参阅图1e。在一个具体的场景示例中,终端提供语音输入界面;其中,所述语音输入界面具有语音输入入口。在终端检测到语音输入入口被触发的情况下,终端对用户声音进行采集,并根据采集到的用户声音生成语音数据。终端向服务器发送采集用户声音所生成的语音数据。服务器接收到语音数据。服务器对语音数据进行情感识别,得到所述语音数据对应的目标情感类别。目标情感类别可以用于描述所述用户声音传达出的用户心理状态。在服务器识别所述语音数据的过程中,终端可以展示语音识别标识。其中,所述语音识别标识用于表现识别所述语音数据的过程。因此,服务器可以基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案。服务器向终端发送针对所述用户心理状态的目标产品方案。终端接收所述服务器发送的所述目标产品方案;终端展示所述目标产品方案的内容。
请参阅图1f,本说明书实施方式提供一种疏导心理问题产品方案的推荐系统,且本说明书提供的内容展示或者语音数据处理方法应用于该推荐系统。该推荐系统可以包括由终端110和服务器120形成的硬件环境。终端110通过网络与服务器120进行通信。终端110可以采集用户声音,并根据采集到的用户声音生成语音数据。终端110发送基于采集的用户声音生成的语音数据至服务器120。服务器120接收采集用户声音所生成的语音数据。服务器120所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别。其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态。服务器120基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项;并利用所述至少一个目标产品项构建能够疏导所述用户心理状态的目标产品方案。服务器120向终端110发送目标产品方案。终端110接收目标产品方案,并展示目标产品方案的内容。
其中,终端110可以是台式电脑、平板电脑、笔记本电脑、智能手机、数字助理、智能可穿戴设备、导购终端、电视机、智能音箱、麦克风等。其中,智能可穿戴设备包括但不限于智能手环、智能手表、智能眼镜、智能头盔、智能项链等。服务器120可以是具有一定运算处理能力的电子设备。其可以具有网络通信模块、处理器和存储器等。上述服务器还可以为分布式服务器,可以是具有多个处理器、存储器、网络通信模块等协同运作的系统。或者,服务器还可以为若干服务器形成的服务器集群。或者,随着科学技术的发展,服务器还可以是能够实现说明书实施方式相应功能的新的技术手段。例如,可以是基于量子计算实现的新形态的“服务器”。
请参阅图2,本说明书实施方式提供一种内容展示方法。该内容展示方法应用于用户终端,该内容展示方法可以包括以下步骤。
步骤S210:根据采集到的用户声音生成语音数据。
在一些情况下,线上心里咨询平台提供有一系列的心理健康产品,由于用户心理状态的抽象性,用户很难弄清楚自己的心理状态,用户在不清楚自己心理状态的情况从线上心里咨询平台上提供的心理健康产品中进行选择,用户往往挑选不出适合自己心理状态的服务产品。因此,本实施方式中提供一种内容展示方法以向用户准确地推荐与用户心理状态匹配的心理疏导解决方案。
具体地,用户说话的语气或者用户说话的语调可以在一定程度上反映用户情感,因此,引导用户利用语音方式对自己心理状态进行口头描述,终端可以对用户声音进行采集,并根据采集到的用户声音生成语音数据。在一些实施方式中,用户可以打开终端上的麦克风设备,在用户通过口头描述自己心理状态时,通过麦克风设备采集用户声音,终端将采集的用户声音转换为语音数据。在一些实施方式中,预先准备有基于用户对心理状态的口头描述生成的音频文件,音频文件是对用户声音进行采集而生成的,将音频文件导入,终端对音频文件进行处理,得到对应的语音数据。
步骤S220:对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别。
其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态。语音情感识别包括语音的情感特征提取及情感语音的识别过程。通过传感器采集用户声音,生成语音数据。情感识别可以理解为计算机设备对语音数据进行分析和处理以识别用户的情感,得到用户正处在的情感状态的过程。
具体地,在一些实施方案中,可以通过一些机器学习算法模型识别语音情感,比如GMM(高斯混合模型)、SVM(支持向量机,Support Vector Machine)、KNN(邻近算法,K-Nearest Neighbor)、HMM(隐马尔可夫模型)。将语音数据输入至算法模型中进行情感识别,算法模型输出语音数据对应的目标情感类别。在一些实施方式中,已经预先准备有语音模板库中,语音模板库中存储有语音模板与语音特征之间的模板特征对应关系。对语音数据进行特征提取,得到语音特征参数。利用语音特征参数与模板特征对应关系中的语音特征进行匹配,将与语音特征参数匹配的语音特征所对应的语音模板确定为目标语音模板。目标语音模板对应有情感类别,将目标语音模板对应的情感类别确定为语音数据对应的目标情感类别。
需要说明的是,在一些实施方式中,情感类别可以包括生气、悲伤、高兴、害怕、中性。在一些实施方式中,情感类别可以包括生气、悲伤、高兴、害怕、中性、厌恶、无聊。在一些实施方式中,情感类别可以包括中性、高兴、生气、恐惧和悲伤。
步骤S230:基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案。
在一些情况下,为了减少用户挑选心理健康产品的操作成本,提升心理健康产品与用户实际心理状态的匹配程度,需要针对用户心理状态进行心理健康产品的推荐。具体地,目标情感类别用于描述所述用户声音传达出的用户心理状态,在识别到语音数据对应的目标情感类别后,可以根据目标情感类别进行查询,得到与目标情感类别对应的目标产品方案,而且,该目标产品方案是针对用户心理状态,利于提升心理健康产品的针对性。
本实施方式中,可以针对不同的情感类别预先配置有对应的产品方案,即预先存储有情感类别与产品方案的对应关系,在确定目标情感类别之后,利用目标情感类别在情感类别与产品方案的对应关系中进行查询,得到针对所述用户心理状态的目标产品方案。
本实施方式中,产品方案也可以是对多个心理健康产品的融合而产生的,即产品方案包括有多个产品项,不同的产品项可以单独作为一个心理健康产品。各心理健康产品可以具有各自的产品标签,产品标签用于表示该心理健康产品可以疏导的心理状态。利用目标情感类别与产品标签进行匹配,将与目标情感类别匹配的产品标签所对应的至少一个心理健康产品进行打包,生成目标产品方案。
本实施方式中,还可以预先整理有情感类别与心理状态的对应关系以及心理状态与产品方案的对应关系。根据目标情感类别在情感类别与心理状态的对应关系中进行查询,得到与目标情感类别对应的用户心理状态,利用用户心理状态在心理状态与产品方案的对应关系进行查询,得到针对用户心理状态的目标产品方案。
本实施方式中,也可以预先整理有情感类别与心理状态的对应关系以及心理状态与心理健康产品的对应关系。根据目标情感类别在情感类别与心理状态的对应关系中进行查询,得到与目标情感类别对应的用户心理状态,利用用户心理状态在心理状态与心理健康产品的对应关系进行查询,得到针对用户心理状态的至少一个心理健康产品,利用针对用户心理状态的至少一个心理健康产品多为产品项,构成目标产品方案。
步骤S240:展示所述目标产品方案的内容。
具体地,为了直观地向用户展示目标产品方案,以使用户快速了解到目标产品方案的具体信息,在确定针对所述用户心理状态的目标产品方案后,终端可以展示目标产品方案的内容。在一些实施方式中,目标产品方案的内容可以包括针对用户心理状态的心理疏导课程的介绍信息,可以包括针对用户心理状态的心理医生的介绍信息,可以包括针对用户心理状态的心理咨询机构的介绍信息,可以包括针对用户心理状态的书籍的介绍信息,可以包括针对用户心理状态的音频文件或者视频文件的介绍信息。
上述内容展示方法,通过对用户的语音数据进行情感识别,得到所述语音数据对应的目标情感类别,且所述目标情感类别可以传达出用户心理状态;进而基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;从而展示所述目标产品方案的内容,实现向用户准确地推荐心理健康产品,减少用户购买错误产品的几率。特别是用户无法准确描述自己心理状态的情况下,通过对用户的语音数据进行情感识别,准确且及时地了解用户心理状态,以向用户提供与其匹配的心理健康产品,提升产品推荐的准确性。
在一些实施方式中,请参阅图3a,在所述根据采集到的用户声音生成语音数据之前,该内容展示方法还可以包括:提供语音输入界面;其中,所述语音输入界面具有语音输入入口;相应地,所述根据采集到的用户声音生成语音数据,可以包括:在所述语音输入入口被触发的情况下,根据采集到的用户声音生成语音数据。
在一些情况下,为了全面了解用户的心理状态,提升心理健康产品推荐的准确性,本实施方式中采集用户声音,并对用户声音中所包括的情感进行识别,以准确地判断用户情感归属。具体地,终端可以提供语音输入界面。所述语音输入界面具有语音输入入口。终端对语音输入入口进行检测,在检测到语音输入入口被触发的情况下,通过麦克风采集用户声音,并将用户声音转换为语音数据。本实施方式中,语音输入入口可以采用控件的方式,语音输入界面具有语音输入控件,在用户触发(比如单击、双击、长按等)语音输入控件的情况下,终端启动麦克风开始采集用户声音。本实施方式中,用户也可以在语音输入界面发出预设操作手势,确定用户开始对心理状态进行口头描述,则语音输入界面中可以展示语音输入标识,语音输入标识可以用于提醒用户正在口头表达心理状态。
本实施方式中,通过采集用户声音生成语音数据,从而可以从语音数据识别用户情感,更加全面地了解用户情感状态,以准确地判断用户情感归属,利用提升产品推荐的准确性。
在一些实施方式中,请参阅图3b,该内容展示方法还可以包括:识别所述语音数据的过程中,展示语音识别标识。
具体地,在一些情况下,用户对其心理状态口头描述后,对采集用户声音所生成的语音数据进行情感识别需要花费一段时间,在识别语音数据的过程中,终端可能对用户操作是无响应的,影响用户体验。因此,在识别所述语音数据的过程中,展示语音识别标识。通过语音识别标识表现识别所述语音数据的过程,以提醒用户后台正在识别语音数据,减少用户识别过程中的操作。
本实施方式中,语音识别标识可以采用文字方式,比如语音识别标识可以是文字“正在对您的心理状态进行解析,请稍等”。语音识别标识可以采用文字方式和音频,比如,播放舒缓的音频,语音识别标识可以是文字“正在处理,请稍等”。语音识别标识可以采用视频文件,通过播放视频文件,提升用户的视觉效果,提升情感识别过程的趣味性,改善用户体验。
在一些实施方式中,所述展示所述目标产品方案的内容,可以包括:展示用于疏导所述用户心理状态的文本内容。
在一些情况下,通过采集的用户声音不仅可以确定语音特征,而且可以确定从用户扣描述的字面意思中提取一些文字特征。结合从语音数据中识别到的目标情感类别以及从字面意思中提取的文字特征,可以生成一段用户疏导用户心理状态的文本内容。终端展示用于疏导所述用户心理状态的文本内容。比如,请参阅图4,从字面意思中提取的文字特征包括:家人、孩子、焦虑、吵架,识别到的目标情感类别包括焦虑,则生成用于疏导用户心理状态的文本内容:“我们能够感受到你对家人和孩子的爱,希望你能够和家人敞开心扉的聊一聊,敞开心扉,表达自己的内心,及时沟通,给自己放个假,减少对工作和未来的焦虑”。本实施方式中,可以预先准备有若干个文本模板,结合从语音数据中识别到的目标情感类别以及从字面意思中提取的文字特征,从若干个文本模板中获取目标文本模板,并将提取到的文字特征对应的文字内容填充至目标文本模板,生成用于疏导所述用户心理状态的文本内容。本实施方式中,通过展示用于疏导所述用户心理状态的文本内容,向用户及时地表达同理感受,利用文字力量疏导用户心理,提升转化几率。
在一些实施方式中,请参阅图5,所述展示所述目标产品方案的内容,可以包括:展示能够疏导所述用户心理状态的医生的介绍信息。
在一些情况下,为了减少用户挑选医生的操作成本,提升医生擅长专业与用户实际心理状态的匹配程度,需要针对用户心理状态进行医生的推荐。具体地,目标情感类别用于描述所述用户声音传达出的用户心理状态,在识别到语音数据对应的目标情感类别后,可以根据目标情感类别进行查询,确定与目标情感类别对应的医生,获取医生的介绍信息,终端展示医生的介绍信息。本实施方式中,所展示的医生的介绍信息是针对用户心理状态,提升医生推荐的准确性。
在一些实施方式中,已经预先存储有情感类别与医生专业标签的对应关系。根据目标情感类别在情感类别与医生专业标签的对应关系中进行查询,得到与目标情感类别对应的医生专业标签所对应的医生,并作为能够疏导所述用户心理状态的医生,获取能够疏导所述用户心理状态的医生的介绍信息并展示。
在一些实施方式中,也可以预先整理有情感类别与心理状态的对应关系以及心理状态与医生的对应关系。根据目标情感类别在情感类别与心理状态的对应关系中进行查询,得到与目标情感类别对应的用户心理状态,利用用户心理状态在心理状态与医生的对应关系进行查询,得到针对用户心理状态的至少一个医生,终端获取并展示至少一个医生的介绍信息。
在一些实施方式中,请参阅图6,所述展示所述目标产品方案的内容,至少可以包括以下之一:展示能够疏导所述用户心理状态的咨询服务产品的介绍信息;或者,展示能够疏导所述用户心理状态的咨询服务产品的列表。
其中,目标产品方案的内容可以包括针对用户心理状态的心理疏导课程的介绍信息,可以包括针对用户心理状态的心理医生的介绍信息,可以包括针对用户心理状态的心理咨询机构的介绍信息,可以包括针对用户心理状态的书籍的介绍信息,可以包括针对用户心理状态的音频文件或者视频文件的介绍信息。
在一些情况下,为了减少用户挑选咨询服务产品的操作成本,提升咨询服务产品与用户实际心理状态的匹配程度,需要针对用户心理状态进行咨询服务产品的推荐。具体地,目标情感类别用于描述所述用户声音传达出的用户心理状态,在识别到语音数据对应的目标情感类别后,可以根据目标情感类别进行查询,确定与目标情感类别对应的咨询服务产品,获取咨询服务产品的介绍信息,终端展示咨询服务产品的介绍信息。本实施方式中,所展示的咨询服务产品的介绍信息是针对用户心理状态,提升咨询服务产品推荐的准确性。
在一些实施方式中,已经预先存储有情感类别与咨询服务产品标签的对应关系。根据目标情感类别在情感类别与咨询服务产品标签的对应关系中进行查询,得到与目标情感类别对应的咨询服务产品标签所对应的咨询服务产品,并作为能够疏导所述用户心理状态的咨询服务产品,获取能够疏导所述用户心理状态的咨询服务产品的介绍信息并展示。
在一些实施方式中,也可以预先整理有情感类别与心理状态的对应关系以及心理状态与咨询服务产品的对应关系。根据目标情感类别在情感类别与心理状态的对应关系中进行查询,得到与目标情感类别对应的用户心理状态,利用用户心理状态在心理状态与咨询服务产品的对应关系进行查询,得到针对用户心理状态的至少一个咨询服务产品,终端获取并展示咨询服务产品的列表。
本说明书实施方式提供一种内容展示方法,该内容展示方法可以包括以下步骤。
步骤S302:提供语音输入界面。
其中,所述语音输入界面具有语音输入入口。
步骤S304:在所述语音输入入口被触发的情况下,根据采集到的用户声音生成语音数据。
步骤S306:对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态。
具体地,在一些实施方式中,对所述语音数据进行特征提取,得到语音特征参数;将所述语音数据的语音特征参数在语音模板库中进行匹配,得到与所述语音特征参数匹配的目标语音模板;基于所述目标语音模板,确定用于描述所述用户心理状态的目标情感类别。在一些实施方式中,对所述语音数据进行特征提取,得到语音特征参数;在所述语音特征参数在语音模板库中没有匹配到目标语音模板的情况下,将所述语音特征参数输入至神经网络中进行情感识别,得到与所述语音特征参数匹配的目标语音模板;基于所述目标语音模板,确定用于描述所述用户心理状态的目标情感类别。
步骤S308:基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案。
具体地,基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项;利用所述至少一个目标产品项构建能够疏导所述用户心理状态的目标产品方案。
步骤S310:展示所述目标产品方案的内容。
具体地,可以展示用于疏导所述用户心理状态的文本内容。可以展示能够疏导所述用户心理状态的医生的介绍信息;也可以展示能够疏导所述用户心理状态的咨询服务产品的介绍信息;还可以展示能够疏导所述用户心理状态的咨询服务产品的列表。
步骤S312:在检测到所述目标产品方案没有满足用户需求的情况下,接收采集于用户声音的新的语音数据。
请参阅图7,本说明书实施方式提供一种内容展示方法,可以应用于用户终端。该内容展示方法包括以下步骤。
步骤S710:发送采集用户声音所生成的语音数据至服务器。
步骤S720:接收所述服务器发送的所述目标产品方案。
步骤S730:展示所述目标产品方案的内容。
具体地,终端向服务器发送语音数据,以使所述服务器对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别。其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案。服务器向终端发送目标产品方案。终端接收目标产品方案,并展示目标产品方案的内容。
上述内容展示方法,通过对用户的语音数据进行情感识别,得到所述语音数据对应的目标情感类别,且所述目标情感类别可以传达出用户心理状态;进而基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;从而展示所述目标产品方案的内容,实现向用户准确地推荐心理健康产品,减少用户购买错误产品的几率。特别是用户无法准确描述自己心理状态的情况下,通过对用户的语音数据进行情感识别,准确且及时地了解用户心理状态,以向用户提供与其匹配的心理健康产品,提升产品推荐的准确性。
在一些实施方式中,所述展示所述目标产品方案的内容,可以包括:展示用于疏导所述用户心理状态的文本内容。
在一些实施方式中,所述展示所述目标产品方案的内容,至少可以包括以下之一:展示能够疏导所述用户心理状态的医生的介绍信息;或者,展示能够疏导所述用户心理状态的咨询服务产品的介绍信息;或者,展示能够疏导所述用户心理状态的咨询服务产品的列表。
本实施方式中,通过展示用于疏导所述用户心理状态的文本内容,向用户及时地表达同理感受,利用文字力量疏导用户心理,提升转化几率,进一步地展示用于疏导所述用户心理状态的医生的介绍信息、咨询服务产品的介绍信息、咨询服务产品的列表中的至少一个,减少用户挑选医生、咨询服务产品的操作成本,提升医生擅长专业、咨询服务产品与用户实际心理状态的匹配程度,需要针对用户心理状态进行医生、咨询服务产品的推荐。
请参阅图8,本说明书实施方式提供一种语音数据处理方法,可以应用于服务器。该语音数据处理方法包括以下步骤。
步骤S810:接收采集用户声音所生成的语音数据。
具体地,在一些实施方式中,终端可以采集用户声音,生成音频文件。终端向服务器发送音频文件。服务器接收音频文件,服务器可以对音频文件进行分帧、加窗、预加重等预处理,得到语音数据。在一些实施方式中,终端可以采集用户声音,对采集的用户声音进行转换和预处理,得到语音数据,终端发送语音数据至服务器,服务器接收到语音数据。
步骤S820:对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别。
其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态。具体地,服务器可以预先存储有语音模板库中,语音模板库中存储有语音模板与语音特征之间的模板特征对应关系。对语音数据进行特征提取,得到语音特征参数。利用语音特征参数与模板特征对应关系中的语音特征进行匹配,将与语音特征参数匹配的语音特征所对应的语音模板确定为目标语音模板。目标语音模板对应有情感类别,将目标语音模板对应的情感类别确定为语音数据对应的目标情感类别。
步骤S830:基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项。
步骤S840:利用所述至少一个目标产品项构建能够疏导所述用户心理状态的目标产品方案。
具体地,产品方案也可以是对多个心理健康产品的融合而产生的,即产品方案包括有多个产品项,不同的产品项可以单独作为一个心理健康产品。各心理健康产品可以具有各自的产品标签,产品标签用于表示该心理健康产品可以疏导的心理状态。利用目标情感类别与产品标签进行匹配,得到与目标情感类别匹配的产品标签所对应的至少一个心理健康产品,将至少一个心理健康产品作为产品项打包,生成目标产品方案。
上述语音数据处理方法,通过对用户的语音数据进行情感识别,得到所述语音数据对应的目标情感类别,且所述目标情感类别可以传达出用户心理状态;进而基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;实现为用户准确地推荐心理健康产品,减少用户购买错误产品的几率。特别是用户无法准确描述自己心理状态的情况下,通过对用户的语音数据进行情感识别,准确且及时地了解用户心理状态,以向用户提供与其匹配的心理健康产品,提升产品推荐的准确性。
在一些实施方式中,服务器构建完构建能够疏导所述用户心理状态的目标产品方案,服务器发送目标产品方案至终端。
在一些实施方式中,对所述语音数据进行特征提取,得到语音特征参数;将所述语音数据的语音特征参数在语音模板库中进行匹配,得到与所述语音特征参数匹配的目标语音模板;根据所述目标语音模板,确定所述语音数据对应的目标情感类别。需要说明的是,本实施方式中,将所述语音数据的语音特征参数在语音模板库中进行匹配,还可以根据失真判决准则进行识别,确定目标语音模板。常用的失真判决准则可以是欧式距离、协方差矩阵与贝叶斯距离等。
在一些实施方式中,对所述语音数据进行特征提取,得到语音特征参数;在所述语音特征参数在语音模板库中没有匹配到目标语音模板的情况下,将所述语音特征参数输入至神经网络中进行情感识别,得到与所述语音特征参数匹配的目标语音模板;根据所述目标语音模板,确定所述语音信号表达的用户情感状态所属的目标情感类别。在一些实施方式中,将所述目标语音模板存储至所述语音模板库中,以更新语音模板库,在下一次提取到同样的语音特征参数时,在更新后的语音模板库进行匹配。
需要说明的是,语音特征参数可以是基音周期、共振峰、短时平均能量或幅度、线性预测系数(LPC)、感知加权预测系数(PLP)、短时平均过零率、线性预测倒谱系数(LPCC)、自相关函数、梅尔倒谱系数(MFCC)、小波变换系数、经验模态分解系数(EMD)、伽马通滤波器系数(GFCC)等中任一个。在一些实施方式中,语音特征参数可以包括能量、过零率、基音频率、梅尔倒谱系数和傅里叶系数。
本实施方式中,基音周期(Pitch)是声带振动频率的倒数。基音周期(Pitch)可以是人发出浊音时,气流通过声道促使声带振动的周期。声带震动的周期即为基音周期。基音周期的估计称为基音检测(Pitch Detection)。基频包含了大量表征语音情感的特征,在语音情感识别中至关重要。本实施方式中,根据声学观点,声道可以看作非均匀截面的声管,当声音激励信号的频率与声道频率一致时,声道将发生共振,产生的波形称为共振峰。共振峰是语音信号处理最重要的参数之一,它决定着元音中的音质。共振峰参数包括共振峰频率和共振峰带宽。不同情感发音的共振峰位置不同,情感状态发生变化时前三个共振峰的峰值变化较大,且其峰值从低到高依次为第一共振峰、第二共振峰和第三共振峰。本实施方式中,线性预测系数(LPC)是语音数据的一个特征参数,一段语音数据的采样值可以通过过去若干语音采样值的线性组合来逼近(最小均方误差),能够决定唯一的一组预测系数,这个预测系数称为线性预测系数。本实施方式中,线性预测倒谱系数(Linear PredictionCepstral Coefficients)的计算与标准倒谱(Standard Cepstrum)类似,除了LPCCs是由光滑自回归功率谱(Smoothed Auto-Regressive Power Spectrum)计算得到的,而非功率谱的Peridogram Estimate。本实施方式中,自相关函数可以理解为将一个有序的随机变量系列与其自身相比较。相关函数是描述信号X(s)、Y(t)(信号X(s)、Y(t)可以是随机的,也可以是确定的)在任意两个不同时刻s、t的取值之间的相关程度。两个信号之间的相似性大小用相关系数来衡量。本实施方式中,梅尔倒谱系数(MFCC):Mel频率倒谱系数(MFCC)是根据人的听觉机理发现的特征参数,它与频率成非线性对应关系。在1000Hz以下,人耳对声音的感知能力与频率成线性关系,而在1000Hz以上,人耳对声音的感知能力与频率成非线性关系。本实施方式中,小波变换系数:对一个给定信号进行小波变换,就是将该信号按某一小波函数簇展开。对一个给定信号进行小波变换,可以理解为将该信号按某一小波函数簇展开,即将信号表示为一系列不同尺度和不同时移的小波函数的线性组合,其中每一项的系数称为小波系数,而同一尺度下所有不同时移的小波函数的线性组合称为信号在该尺度下的小波分量。本实施方式中,经验模态分解系数(EMD):经验模态分解(EMD)方法的实质是通过特征时间尺度来识别信号中所内含的所有振动模态(Intrinsic Oscillatory Mode)。在这一过程中,特征时间尺度及IMF的定义都具有一定的经验性和近似性。
在一些实施方式中,所述基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项,至少可以包括以下之一:根据所述目标情感类别,在情感类别与医生专业标签之间的对应关系中进行匹配,得到能够疏导所述用户心理状态的医生的介绍信息;或者,根据所述目标情感类别,在情感类别与咨询服务标签之间的对应关系中进行匹配,得到能够疏导所述用户心理状态的咨询服务产品的介绍信息。
在一些实施方式中,语音模板库可以理解为一种情感语料库。以CASIA汉语情感语料库为例进行说明,CASIA汉语情感语料库由中国科学院自动化所(Institute ofAutomation,Chinese Academy of Sciences)录制,共包括四个专业发音人,六种情绪生气、高兴、害怕、悲伤、惊讶和中性,共9600句不同发发音。其中300句是相同文本的,也即是说对相同的文本赋以不同的情感来阅读,这些语料可以用来对比分析不同情感状态下的声学及韵律表现;另外100句是不同文本的,这些文本从字面意思就可以看出其情感归属,便于录音人更准确地表现出情感。
关于应用于服务器的语音数据处理方法的具体限定可以参见上文中对于内容展示方法的限定,在此不再赘述。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
请参阅图9,本说明书实施方式提供了一种内容展示装置。内容展示装置包括语音数据接收模块、语音数据识别模块、产品方案确定模块和方案内容展示模块。
语音数据生成模块,用于根据采集到的用户声音生成语音数据。
语音数据识别模块,用于对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态。
产品方案确定模块,用于基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案。
方案内容展示模块,用于展示所述目标产品方案的内容。
请参阅图10,本说明书实施方式提供了一种内容展示装置。内容展示装置包括语音数据发送模块、产品方案接收模块和方案内容展示模块。
语音数据发送模块,用于发送采集用户声音所生成的语音数据至服务器;以用于所述服务器对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案。
产品方案接收模块,用于接收所述服务器发送的所述目标产品方案。
方案内容展示模块,用于展示所述目标产品方案的内容。
关于内容展示装置的具体限定可以参见上文中对于内容展示方法的限定,在此不再赘述。上述内容展示装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
请参阅图11,本说明书实施方式提供了一种语音数据处理装置。语音数据处理装置包括语音数据接收模块、语音数据识别模块、产品项确定模块和产品方案构建模块。
语音数据接收模块,用于接收采集用户声音所生成的语音数据。
语音数据识别模块,用于对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态。
产品项确定模块,用于基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项。
产品方案构建模块,用于利用所述至少一个目标产品项构建能够疏导所述用户心理状态的目标产品方案。
关于语音数据处理装置的具体限定可以参见上文中对于语音数据处理方法的限定,在此不再赘述。上述语音数据处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一些实施方式中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图12所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种语音数据处理或者内容展示方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图12中示出的结构,仅仅是与本说明书所公开方案相关的部分结构的框图,并不构成对本说明书所公开方案所应用于其上的计算机设备的限定,具体地,计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一些实施方式中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述实施方式中的方法步骤。
在一些实施方式中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施方式中的方法步骤。
在一些实施方式中,还提供一种计算机程序产品,所述计算机程序产品中包括指令,上述指令可由计算机设备的处理器执行时实现上述实施方式中的方法步骤。
本领域普通技术人员可以理解实现上述实施方式方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施方式的流程。其中,本说明所提供的各实施方式中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施方式的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施方式中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述仅为本说明书的较佳实施方式而已,并不用以限制本说明书,凡在本说明书的精神和原则之内,所作的任何修改、等同替换等,均应包含在本说明书的保护范围之内。
Claims (14)
1.一种内容展示方法,其特征在于,所述方法包括:
根据采集到的用户声音生成语音数据;
对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;
基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;
展示所述目标产品方案的内容。
2.根据权利要求1所述的方法,其特征在于,在所述根据采集到的用户声音生成语音数据之前,所述方法还包括:
提供语音输入界面;其中,所述语音输入界面具有语音输入入口;
相应地,所述根据采集到的用户声音生成语音数据,包括:
在所述语音输入入口被触发的情况下,根据采集到的用户声音生成语音数据。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
识别所述语音数据的过程中,展示语音识别标识;其中,所述语音识别标识用于表现识别所述语音数据的过程。
4.根据权利要求1所述的方法,其特征在于,所述展示所述目标产品方案的内容,包括:
展示用于疏导所述用户心理状态的文本内容。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述展示所述目标产品方案的内容,包括:
展示能够疏导所述用户心理状态的医生的介绍信息。
6.根据权利要求5所述的方法,其特征在于,所述展示所述目标产品方案的内容,至少包括以下之一:
展示能够疏导所述用户心理状态的咨询服务产品的介绍信息;
展示能够疏导所述用户心理状态的咨询服务产品的列表。
7.一种内容展示方法,其特征在于,所述方法包括:
发送采集用户声音所生成的语音数据至服务器;以用于所述服务器对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;
接收所述服务器发送的所述目标产品方案;
展示所述目标产品方案的内容。
8.根据权利要求7所述的方法,其特征在于,所述展示所述目标产品方案的内容,包括:
展示用于疏导所述用户心理状态的文本内容。
9.根据权利要求7或8所述的方法,其特征在于,所述展示所述目标产品方案的内容,至少包括以下之一:
展示能够疏导所述用户心理状态的医生的介绍信息;
展示能够疏导所述用户心理状态的咨询服务产品的介绍信息;
展示能够疏导所述用户心理状态的咨询服务产品的列表。
10.一种语音数据处理方法,其特征在于,所述方法包括:
接收采集用户声音所生成的语音数据;
对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;
基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项;
利用所述至少一个目标产品项构建能够疏导所述用户心理状态的目标产品方案。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:所述基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项,至少包括以下之一:
根据所述目标情感类别,在情感类别与医生专业标签之间的对应关系中进行匹配,得到能够疏导所述用户心理状态的医生的介绍信息;
根据所述目标情感类别,在情感类别与咨询服务标签之间的对应关系中进行匹配,得到能够疏导所述用户心理状态的咨询服务产品的介绍信息。
12.一种内容展示装置,其特征在于,所述装置包括:
语音数据生成模块,用于根据采集到的用户声音生成语音数据;
语音数据识别模块,用于对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;
产品方案确定模块,用于基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;
方案内容展示模块,用于展示所述目标产品方案的内容。
13.一种内容展示装置,其特征在于,所述装置包括:
语音数据发送模块,用于发送采集用户声音所生成的语音数据至服务器;以用于所述服务器对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;基于所述目标情感类别,确定针对所述用户心理状态的目标产品方案;
产品方案接收模块,用于接收所述服务器发送的所述目标产品方案;
方案内容展示模块,用于展示所述目标产品方案的内容。
14.一种语音数据处理装置,其特征在于,所述装置包括:
语音数据接收模块,用于接收采集用户声音所生成的语音数据;
语音数据识别模块,用于对所述语音数据进行情感识别,得到所述语音数据对应的目标情感类别;其中,所述目标情感类别用于描述所述用户声音传达出的用户心理状态;
产品项确定模块,用于基于所述目标情感类别,确定针对所述用户心理状态的至少一个目标产品项;
产品方案构建模块,用于利用所述至少一个目标产品项构建能够疏导所述用户心理状态的目标产品方案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210909871.XA CN115188396A (zh) | 2022-07-29 | 2022-07-29 | 内容展示方法、语音数据处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210909871.XA CN115188396A (zh) | 2022-07-29 | 2022-07-29 | 内容展示方法、语音数据处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115188396A true CN115188396A (zh) | 2022-10-14 |
Family
ID=83521618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210909871.XA Pending CN115188396A (zh) | 2022-07-29 | 2022-07-29 | 内容展示方法、语音数据处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115188396A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967611A (zh) * | 2017-12-06 | 2018-04-27 | 安徽省科普产品工程研究中心有限责任公司 | 一种基于语音识别和情感分析的评分系统 |
CN111241822A (zh) * | 2020-01-03 | 2020-06-05 | 北京搜狗科技发展有限公司 | 输入场景下情绪发现与疏导方法及装置 |
CN111243710A (zh) * | 2020-01-20 | 2020-06-05 | 话媒(广州)科技有限公司 | 一种基于交互的心理健康服务推荐方法及装置 |
CN111312394A (zh) * | 2020-01-15 | 2020-06-19 | 东北电力大学 | 一种基于组合情感的心理健康状况评估系统及其处理方法 |
CN111564202A (zh) * | 2020-04-30 | 2020-08-21 | 深圳市镜象科技有限公司 | 基于人机对话的心理疏导方法、心理疏导终端和存储介质 |
CN112086169A (zh) * | 2020-09-19 | 2020-12-15 | 北京心灵力量科技有限公司 | 采用心理数据标签化建模的交互式心理疏导系统 |
CN112466435A (zh) * | 2021-02-02 | 2021-03-09 | 南京硅基智能科技有限公司 | 心理辅导方案的确定方法及装置、存储介质、电子装置 |
CN113035232A (zh) * | 2021-03-23 | 2021-06-25 | 北京智能工场科技有限公司 | 一种基于语音识别的心理状态预测系统、方法及装置 |
CN114171161A (zh) * | 2020-09-11 | 2022-03-11 | 华为云计算技术有限公司 | 基于云端设备的心理治疗方法及设备 |
-
2022
- 2022-07-29 CN CN202210909871.XA patent/CN115188396A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967611A (zh) * | 2017-12-06 | 2018-04-27 | 安徽省科普产品工程研究中心有限责任公司 | 一种基于语音识别和情感分析的评分系统 |
CN111241822A (zh) * | 2020-01-03 | 2020-06-05 | 北京搜狗科技发展有限公司 | 输入场景下情绪发现与疏导方法及装置 |
CN111312394A (zh) * | 2020-01-15 | 2020-06-19 | 东北电力大学 | 一种基于组合情感的心理健康状况评估系统及其处理方法 |
CN111243710A (zh) * | 2020-01-20 | 2020-06-05 | 话媒(广州)科技有限公司 | 一种基于交互的心理健康服务推荐方法及装置 |
CN111564202A (zh) * | 2020-04-30 | 2020-08-21 | 深圳市镜象科技有限公司 | 基于人机对话的心理疏导方法、心理疏导终端和存储介质 |
CN114171161A (zh) * | 2020-09-11 | 2022-03-11 | 华为云计算技术有限公司 | 基于云端设备的心理治疗方法及设备 |
CN112086169A (zh) * | 2020-09-19 | 2020-12-15 | 北京心灵力量科技有限公司 | 采用心理数据标签化建模的交互式心理疏导系统 |
CN112466435A (zh) * | 2021-02-02 | 2021-03-09 | 南京硅基智能科技有限公司 | 心理辅导方案的确定方法及装置、存储介质、电子装置 |
CN113035232A (zh) * | 2021-03-23 | 2021-06-25 | 北京智能工场科技有限公司 | 一种基于语音识别的心理状态预测系统、方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yadav et al. | Survey on machine learning in speech emotion recognition and vision systems using a recurrent neural network (RNN) | |
US11942194B2 (en) | Systems and methods for mental health assessment | |
US11120895B2 (en) | Systems and methods for mental health assessment | |
JP7022062B2 (ja) | 統合化された物体認識および顔表情認識を伴うvpa | |
Bachorowski | Vocal expression and perception of emotion | |
US10706873B2 (en) | Real-time speaker state analytics platform | |
US20200126566A1 (en) | Method and apparatus for voice interaction | |
Johar | Emotion, affect and personality in speech: The Bias of language and paralanguage | |
Hashem et al. | Speech emotion recognition approaches: A systematic review | |
Sethu et al. | Speech based emotion recognition | |
KR102444012B1 (ko) | 말 장애 평가 장치, 방법 및 프로그램 | |
Caponetti et al. | Biologically inspired emotion recognition from speech | |
CN117352000A (zh) | 语音分类方法、装置、电子设备及计算机可读介质 | |
Khurana et al. | Tri-integrated convolutional neural network for audio image classification using Mel-frequency spectrograms | |
CN113593523B (zh) | 基于人工智能的语音检测方法、装置及电子设备 | |
CN115188396A (zh) | 内容展示方法、语音数据处理方法及装置 | |
CN116580691A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
Costantini et al. | Automatic Emotion Recognition from DEMoS Corpus by Machine Learning Analysis of Selected Vocal Features. | |
Rao et al. | Deep learning structure for emotion prediction using MFCC from native languages | |
He | Stress and emotion recognition in natural speech in the work and family environments | |
Wang et al. | Advancements and challenges in speech emotion recognition: a comprehensive review | |
Telembici et al. | Emotion Recognition Audio Database for Service Robots | |
Li | [Retracted] Application of an Improved LSTM Model to Emotion Recognition | |
Sarmah et al. | A State-of-arts Review of Deep Learning Techniques for Speech Emotion Recognition | |
Renuka et al. | Affective Model Based Speech Emotion Recognition Using Deep Learning Techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |