CN116631446B - 一种基于言语分析的行为方式分析方法及系统 - Google Patents
一种基于言语分析的行为方式分析方法及系统 Download PDFInfo
- Publication number
- CN116631446B CN116631446B CN202310920707.3A CN202310920707A CN116631446B CN 116631446 B CN116631446 B CN 116631446B CN 202310920707 A CN202310920707 A CN 202310920707A CN 116631446 B CN116631446 B CN 116631446B
- Authority
- CN
- China
- Prior art keywords
- analyzed
- voice data
- determining
- behavior
- personnel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 74
- 230000006399 behavior Effects 0.000 claims description 122
- 238000000034 method Methods 0.000 claims description 30
- 230000008451 emotion Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 10
- 230000003542 behavioural effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 4
- 238000001228 spectrum Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 17
- 230000006854 communication Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 206010027951 Mood swings Diseases 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种基于言语分析的行为方式分析方法及系统,属于分析技术领域。本发明的方案创造性的利用了对话语音收音来分析、预测人员的行为方式,相比调查问卷等传统方式来说具有更高的效率和准确性。
Description
技术领域
本发明涉及行为分析技术领域,具体而言,涉及一种基于言语分析的行为方式分析方法、系统、电子设备及计算机存储介质。
背景技术
行为方式是一种人格的外显特征,指的是人在不同环境中表现出的不同行为,了解个人及周边人员的行为方式,在管理、谈判、销售等行业中均有突出作用。人的行为方式中最直接,也是最容易掌握的,即为他的言语。言语是一种人们之间相互沟通最简单,最方便的方式。语言是人类交流最重要的功能之一,语言沟通中不仅会传递双方所要表达的信息,也在无意识的传递我们自身的行为方式。在人际沟通过程中,人说话的目的不仅仅只是把想要表达的意思传递给对方,更主要的目的也是为了让对方能愉快地接受自己的意见或想法,需要通过语言了解沟通对象的行为方式。
过往研究中通过言语分析主要对人的人格特征进行分析,缺少对行为方式的分析应用,而行为方式分析中,更多基于问卷测试或与专业心理咨询师沟通的方式,问卷测试主要为自评的方式,心理咨询师沟通为他评形式,均存在一定的主观性。而人的行为方式主要通过日常无意识的沟通进行表现,因此通过基于言语分析的方式,对人的行为方式分析,在管理、谈判、销售等行业中均有广阔的应用。
发明内容
为解决上述技术问题至少之一,本发明具体提供了一种基于言语分析的行为方式分析方法、系统、电子设备及计算机存储介质。
本发明的第一方面提供了一种基于言语分析的行为方式分析方法,包括如下步骤:
获取语音场景中的第一语音数据;
根据所述第一语音数据确定待分析人员,并提取得出与所述待分析人员对应的关键指标参数;
对所述关键指标参数按照预设方式进行分析,基于分析结果确定匹配的行为模式,根据所述行为模式推测所述待分析人员在日常生活中的行为方式。
进一步地,所述关键指标参数包括音色、音高、音长、语义;
则所述对所述关键指标参数按照预设方式进行分析,包括:
对所述第一语音数据中的功率谱进行分析,确定所述第一语音数据中的发音人数、各发音人员及与各发音人员对应的第二语音数据,根据所述第二语音数据确定所述待分析人员及对应的所述第二语音数据;
对所述第二语音数据进行音强参数提取,分析得到所述待分析人员的声波振幅范围,根据所述声波振幅范围确定所述待分析人员的情绪状态;
根据所述第二语音数据对所述待分析人员的语音时间和静音时间进行统计,确定说话速率,以及统计所述待分析人员在对话过程中的平均停顿时长、沉默时长;
基于特定语词库对所述第二语音数据中的语词语句进行分割、识别处理,获得特定语词。
进一步地,所述根据所述第一语音数据确定待分析人员,包括:
确定所述待分析人员的第三语音数据,将所述第三语音数据与各所述第二语音数据进行匹配,将匹配得出的所述第二语音数据对应的发音人员确定为所述待分析人员;
和/或,
对各所述第二语音数据进行语义分析,确定交互状态,根据所述交互状态确定所述待分析人员。
进一步地,所述基于分析结果确定匹配的行为模式,包括:
将与所述关键指标参数中的所述音高、所述音长、所述语义对应的分析结果输入行为模式预测模型,所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算,预测得出匹配的所述行为模式。
进一步地,所述方法还包括:获取所述待分析人员的历史干扰数据,根据所述历史干扰数据的干扰度确定第一系数;
则所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算之后,还包括:
使用所述第一系数对所述行为模式预测模型的预测结果值进行调整,根据调整后的预测结果值和行为模型得出匹配的所述行为模式。
进一步地,在根据所述第一语音数据确定待分析人员之外,所述方法还包括:
根据所述第一语音数据确定所述语音场景中的目标关联待分析人员,根据所述目标关联待分析人员的第四语音数据确定所述目标关联待分析人员的第一行为模式;
则所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算之后,还包括:
若所述第一行为模式与所述目标关联待分析人员的第二行为模式的偏差值超过阈值,则根据所述偏差值确定第二系数,使用所述第二系数对所述行为模式预测模型的预测结果值进行调整,根据调整后的预测结果值和行为模型得出匹配的所述行为模式。
进一步地,所述根据所述偏差值确定第二系数,包括:
统计所述偏差值超过阈值的所述目标关联待分析人员的数量,根据所述数量确定第三系数;
根据各所述偏差值确定第四系数;
根据所述第三系数和所述第四系数得出所述第二系数。
本发明的第二方面提供了一种基于言语分析的行为方式分析系统,包括获取模块、处理模块、存储模块;所述处理模块与所述获取模块、所述存储模块电连接;
所述存储模块,用于存储可执行的计算机程序代码;
所述获取模块,用于获取语音场景中的语音数据,并传输给所述处理模块;
所述处理模块,用于通过调用所述存储模块中的所述可执行的计算机程序代码,执行如前任一项所述的方法。
本发明的第三方面提供了一种电子设备,包括:存储有可执行程序代码的存储器;与所述存储器耦合的处理器;所述处理器调用所述存储器中存储的所述可执行程序代码,执行如前任一项所述的方法。
本发明的第四方面提供了一种计算机存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上任一项所述的方法。
本发明的有益效果在于:
本发明通过外接设备对对应的对话场景进行录音采集,从中识别出待分析人员,并进一步从其对话语音中提取出关键指标参数,基于这些关键指标参数来综合分析该待分析人员的行为模式,进而推测其在日常生活中的行为方式。本发明的方案创造性的利用了对话语音收音来分析、预测人员的行为方式,相比调查问卷等传统方式来说具有更高的效率和准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例公开的一种基于言语分析的行为方式分析方法的结构示意图。
图2是本发明实施例公开的一种基于言语分析的行为方式分析系统的结构示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
参阅图1所示流程示意图,本发明实施例提供了一种基于言语分析的行为方式分析方法,包括如下步骤:
获取语音场景中的第一语音数据;
根据所述第一语音数据确定待分析人员,并提取得出与所述待分析人员对应的关键指标参数;
对所述关键指标参数按照预设方式进行分析,基于分析结果确定匹配的行为模式,根据所述行为模式推测所述待分析人员在日常生活中的行为方式。
本发明通过外接设备对对应的对话场景进行录音采集,从中识别出待分析人员,并进一步从其对话语音中提取出关键指标参数,基于这些关键指标参数来综合分析该待分析人员的行为模式,进而推测其在日常生活中的行为方式。本发明的方案创造性的利用了对话语音收音来分析、预测人员的行为方式,相比调查问卷等传统方式来说具有更高的效率和准确性。
其中,各类行为模式与日常生活中真实行为方式之间的具有强关联关系,该关联关系可以采用现有研究成果,由于不是本发明的技术重点,在此不再赘述。
需要说明的是,本发明中涉及的语音场景可以是行为方式分析机构的专门场景,也可以是日常生活场景,只需要将对应的录音数据采集并上传至分析平台即可。
进一步地,所述关键指标参数包括音色、音高、音长、语义;
则所述对所述关键指标参数按照预设方式进行分析,包括:
对所述第一语音数据中的功率谱进行分析,确定所述第一语音数据中的发音人数、各发音人员及与各发音人员对应的第二语音数据,根据所述第二语音数据确定所述待分析人员及对应的所述第二语音数据;
对所述第二语音数据进行音强参数提取,分析得到所述待分析人员的声波振幅范围,根据所述声波振幅范围确定所述待分析人员的情绪状态;
根据所述第二语音数据对所述待分析人员的语音时间和静音时间进行统计,确定说话速率,以及统计所述待分析人员在对话过程中的平均停顿时长、沉默时长;
基于特定语词库对所述第二语音数据中的语词语句进行分割、识别处理,获得特定语词。
关键指标参数包括音色、音高、音长、语义四项,其中音色主要用于人员角色的区分,音高、音长、语义分析结果则可用于人员性格特征的分析。具体分析方式如下:
1)音色分析:以语音音色鉴别为核心,对语音材料中功率频谱进行分析比较,识别出语音材料中的发音人数,能够区分出录音文件中不同人员的语音材料,并提取出不同人员的语音材料。
2)音强分析:根据已提取出的语音材料,收集最小音高、步长等音强参数,提取分析人员的声波振幅范围。音强可以用于分析发音人当时所处的情绪状态,判断其是否处于较高的状态(如激动、生气)或较平、较低的情绪状态(如平和、低落)。
3)语速分析:对分析人员的语音材料中的语音时间和静音时间进行统计,分析说话速率,并统计人员在对话过程中的平均停顿时长、沉默时长。说话速率、平均停顿时长、沉默时长也可用于分析发音人员的行为模式。
4)语义分析:预先给各类性格特征关联配置了特定语词,还可以给各语词配置具体的关联度系数,据此构建得出特定语词库。对语音材料中的语词语句进行分割后,再与特定语词库进行匹配操作即可完成特定语词的识别,该识别结果可用于后续的性格特征分析。
进一步地,所述根据所述第一语音数据确定待分析人员,包括:
确定所述待分析人员的第三语音数据,将所述第三语音数据与各所述第二语音数据进行匹配,将匹配得出的所述第二语音数据对应的发音人员确定为所述待分析人员;
和/或,
对各所述第二语音数据进行语义分析,确定交互状态,根据所述交互状态确定所述待分析人员。
可预先采集待分析人员的语音小样,从中提取出特定的音频特征(例如音色、音调),通过音频特征的匹配操作即可确定从语音场景中提取出的各第二语音数据中的哪个是与待分析人员匹配的,进而将对应的发音人员确定为待分析人员。
除此之外,还可以对语音场景中的全部语音数据进行语义分析,从而确定各发音人员之间的交互状态,例如发音人员A、B主要是是提问状态,发音人员C主要是回答状态,则可将发音人员C确定为待分析人员。对于语义分析和交互状态的具体分析确定方式,可采用现有技术即可,本发明不再赘述。
进一步地,所述基于分析结果确定匹配的行为模式,包括:
将与所述关键指标参数中的所述音高、所述音长、所述语义对应的分析结果输入行为模式预测模型,所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算,预测得出匹配的所述行为模式。
现有方式一般是基于语义分析结果来确定人员的行为模式,例如从人员对于具体问题的答复内容中提取得到前述的特定语词,由于特定语词与不同的行为模型具有不同的关联度系数,对各特定语词及对应的关联度系数进行综合分析即可相对准确的预测得出人员的行为模式。
相比于上述传统方式,本发明的方案并非仅基于语义分析结果,而是对音高、音长、语义这三类关键指标参数进行了综合分析,可以获得更为准确的行为模式预测结果。同时,人员的行为模式是复杂多样的,难以通过具体函数关系来表征,对此本发明搭建了行为模式预测模型,充分使用各类深度学习算法(如神经网络算法)进行上述多参数耦合情况下的行为模式预测,可极大提升预测准确性和效率。
在对行为模式预测模型进行搭建和训练时,应依据DISC理论,DISC理论将人的行为模型分为4类,分别为谨慎型、稳健型、支配型和影响型。当然,行为模型还可以再具体细分,本发明不作限定。
还可以将上述4类行为模型分别配置对应的预测结果值区间,例如[A-B]为谨慎型,[C-D]为稳健型,[E-F]为支配型,[G-H]为影响型,A-H为具体的预测结果值,上述预测结果值A-H的值可设置为依次变大,且可以设置为连续。对应地,行为模式预测模型综合匹配计算后得到预测结果值,将预测结果值与上述区间进行比对即可命中对应的行为模型,从而确定出待分析人员的行为模式。
进一步地,所述方法还包括:获取所述待分析人员的历史干扰数据,根据所述历史干扰数据的干扰度确定第一系数;
则所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算之后,还包括:
使用所述第一系数对所述行为模式预测模型的预测结果值进行调整,根据调整后的预测结果值和行为模型得出匹配的所述行为模式。
为确保行为方式预测的准确性,一般会在录音采样之前让人员先平复一段时间,这样可以减少在先的一些情况导致的情绪波动对本次的情绪产生余波影响。虽然平复时间可以减缓在先情绪波动的影响,但导致波动的情况各不相同、每个人对情绪波动的平复能力也存在较大差别,所以,平复时间的设置并不能完全避免在先情绪波动的影响。
对于上述情况,本发明对待分析人员的历史干扰数据进行获取,识别其中对情绪产生较大影响的历史干扰数据,并采用一定的评估方法分析其干扰度。干扰度包括事件干扰度值和时间干扰度值,事件干扰度值指的是情绪干扰事件的严重度对于情绪波动的影响程度评估值,事件干扰度值与情绪干扰事件的严重度正相关(例如,交通事件、股票涨跌等具有较小的事件干扰度值,失业、家庭变故等具有较大的事件干扰度值);时间干扰度值指的是基于情绪干扰事件与本次录音采样阶段的时间差得到的影响程度评估值,时间差与影响程度评估值负相关。根据干扰度确定出的第一系数来修正行为模式预测模型的预测结果值,从而得到更为准确的行为模式预测结果。
举例说明如下:将待分析人员的关键指标参数输入行为模式预测模型后得到的预测结果值为D,此时可确定其匹配的行为模型为稳健型,即判定其为稳健型的行为模式。但是,若存在例如交通事件的历史干扰数据,确定第一系数为大于1的某值,即判定交通事件对其言语行为产生了抑制影响,使用第一系数将其预测结果值调大矫正为E,此时得到其匹配的行为模型为支配型。又或者,历史干扰数据为股票涨停,确定第一系数为小于1的某值,即判定股票涨停对其言语行为产生了激励影响,使用第一系数将其预测结果值调小矫正为B,此时得到其匹配的行为模型为谨慎型。于是,在确定第一系数时,还应当考虑历史干扰数据的抑制影响或激励影响,进而设置第一系数为大于1或小于1的数值。当然,那些不会产生情绪波动的事件的系数设置为1,也即不将其列入历史干扰数据。
需要说明的是,历史干扰数据可以在人员进行录音采样之前通过填表或自述的方式向测试方提供,也可以通过大数据分析的方式获取,具体不予限定。
进一步地,在根据所述第一语音数据确定待分析人员之外,所述方法还包括:
根据所述第一语音数据确定所述语音场景中的目标关联待分析人员,根据所述目标关联待分析人员的第四语音数据确定所述目标关联待分析人员的第一行为模式;
则所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算之后,还包括:
若所述第一行为模式与所述目标关联待分析人员的第二行为模式的偏差值超过阈值,则根据所述偏差值确定第二系数,使用所述第二系数对所述行为模式预测模型的预测结果值进行调整,根据调整后的预测结果值和行为模型得出匹配的所述行为模式。
除了待分析人员的历史干扰数据可能会对其当下的情绪产生影响,录音采样现场的其它人员的行为模式也会对待分析人员的情绪产生影响,进而影响其言语方式。本发明对该干扰因素也进行了考虑,以进一步提升行为模式预测的准确性。
首先,确定出语音场景中的目标关联待分析人员,例如施问者(招聘人员、行为方式分析测试工作人员等),采用与上述同样的方法分析其在此采样阶段的行为模式(不考虑上述的干扰因素),如果其行为模式与早先记录的真实行为模式(预先得出,考虑各种干扰因素之后预测得出的)差距过大,则说明目标关联待分析人员存在异常情绪,该异常情绪会对待分析人员的情绪产生较大影响。例如,目标关联待分析人员与待分析人员就某个话题产生了较大的争议,导致双方情绪异常,待分析人员的言语方面出现“失真”,进而影响后续的行为方式预测。本发明的第二系数可以适当降低该干扰因素的影响。
由于目标关联待分析人员与待分析人员仅在录音场景阶段进行接触,所以主要是目标关联待分析人员的激励情绪会对待分析人员产生影响。所以,设置偏差值为正偏差,相应地第二系数与偏差值负相关,即目标关联待分析人员的行为方式越异常,则使用更小的第二系数来将预测结果值矫正调小。
进一步地,所述根据所述偏差值确定第二系数,包括:
统计所述偏差值超过阈值的所述目标关联待分析人员的数量,根据所述数量确定第三系数;
根据各所述偏差值确定第四系数;
根据所述第三系数和所述第四系数得出所述第二系数。
录音场景中可能会包括多个目标关联待分析人员,例如多个招聘官与一个待分析人员。情绪异常的目标关联待分析人员越多时,其对待分析人员的干扰也就越强,进而会导致待分析人员在言语方面出现更大的“失真”。所以,本发明设置综合各情绪异常的目标关联待分析人员的偏差值和人员数量来确定出更为合理的第二系数,进而确保后续预测出的行为方式的准确性。
其中,可先计算各偏差值的均值/方差/标准差等等效值,则根据等效值来计算第四系数。第二系数与偏差值的等效值和上述数量均负相关。
如图2所示,本发明实施例的一种基于言语分析的行为方式分析系统,包括获取模块、处理模块、存储模块;所述处理模块与所述获取模块、所述存储模块连接;
所述存储模块,用于存储可执行的计算机程序代码;
所述获取模块,用于获取语音场景中的语音数据,并传输给所述处理模块;
所述处理模块,用于通过调用所述存储模块中的所述可执行的计算机程序代码,执行如前任一项所述的方法。
本发明实施例还公开了一种电子设备,包括:存储有可执行程序代码的存储器;与所述存储器耦合的处理器;所述处理器调用所述存储器中存储的所述可执行程序代码,执行如前述实施例所述的方法。
本发明实施例还公开了一种计算机存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如前述实施例所述的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程负载均衡装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (6)
1.一种基于言语分析的行为方式分析方法,其特征在于,包括如下步骤:
获取语音场景中的第一语音数据;
根据所述第一语音数据确定待分析人员,并提取得出与所述待分析人员对应的关键指标参数;
对所述关键指标参数按照预设方式进行分析,基于分析结果确定匹配的行为模式,根据所述行为模式推测所述待分析人员在日常生活中的行为方式;
其中,所述关键指标参数包括音色、音高、音长、语义;则所述对所述关键指标参数按照预设方式进行分析,包括:
对所述第一语音数据中的功率谱进行分析,确定所述第一语音数据中的发音人数、各发音人员及与各发音人员对应的第二语音数据,根据所述第二语音数据确定所述待分析人员及对应的所述第二语音数据;
对所述第二语音数据进行音强参数提取,分析得到所述待分析人员的声波振幅范围,根据所述声波振幅范围确定所述待分析人员的情绪状态;
根据所述第二语音数据对所述待分析人员的语音时间和静音时间进行统计,确定说话速率,以及统计所述待分析人员在对话过程中的平均停顿时长、沉默时长;
基于特定语词库对所述第二语音数据中的语词语句进行分割、识别处理,获得特定语词;
其中,所述基于分析结果确定匹配的行为模式,包括:
将与所述关键指标参数中的所述音高、所述音长、所述语义对应的分析结果输入行为模式预测模型,所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算,预测得出匹配的所述行为模式;
其中,所述方法还包括:获取所述待分析人员的历史干扰数据,根据所述历史干扰数据的干扰度确定第一系数;则所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算,预测得出匹配的所述行为模式,还包括:
使用所述第一系数对所述行为模式预测模型的预测结果值进行调整,根据调整后的预测结果值和行为模型得出匹配的所述行为模式;
其中,在根据所述第一语音数据确定待分析人员之外,所述方法还包括:
根据所述第一语音数据确定所述语音场景中的目标关联待分析人员,根据所述目标关联待分析人员的第四语音数据确定所述目标关联待分析人员的第一行为模式;则所述行为模式预测模型依据各所述分析结果与行为模型进行综合匹配计算之后,还包括:
若所述第一行为模式与所述目标关联待分析人员的第二行为模式的偏差值超过阈值,则根据所述偏差值确定第二系数,使用所述第二系数对所述行为模式预测模型的预测结果值进行调整,根据调整后的预测结果值和行为模型得出匹配的所述行为模式。
2.根据权利要求1所述的一种基于言语分析的行为方式分析方法,其特征在于:所述根据所述第一语音数据确定待分析人员,包括:
确定所述待分析人员的第三语音数据,将所述第三语音数据与各所述第二语音数据进行匹配,将匹配得出的所述第二语音数据对应的发音人员确定为所述待分析人员;
和/或,
对各所述第二语音数据进行语义分析,确定交互状态,根据所述交互状态确定所述待分析人员。
3.根据权利要求1所述的一种基于言语分析的行为方式分析方法,其特征在于:所述根据所述偏差值确定第二系数,包括:
统计所述偏差值超过阈值的所述目标关联待分析人员的数量,根据所述数量确定第三系数;
根据各所述偏差值确定第四系数;
根据所述第三系数和所述第四系数得出所述第二系数。
4.一种基于言语分析的行为方式分析系统,包括获取模块、处理模块、存储模块;所述处理模块与所述获取模块、所述存储模块电连接;
所述存储模块,用于存储可执行的计算机程序代码;
所述获取模块,用于获取语音场景中的语音数据,并传输给所述处理模块;
其特征在于:所述处理模块,用于通过调用所述存储模块中的所述可执行的计算机程序代码,执行如权利要求1-3任一项所述的方法。
5.一种电子设备,包括:存储有可执行程序代码的存储器;与所述存储器耦合的处理器;其特征在于:所述处理器调用所述存储器中存储的所述可执行程序代码,执行如权利要求1-3任一项所述的方法。
6.一种计算机存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1-3任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310920707.3A CN116631446B (zh) | 2023-07-26 | 2023-07-26 | 一种基于言语分析的行为方式分析方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310920707.3A CN116631446B (zh) | 2023-07-26 | 2023-07-26 | 一种基于言语分析的行为方式分析方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116631446A CN116631446A (zh) | 2023-08-22 |
CN116631446B true CN116631446B (zh) | 2023-11-03 |
Family
ID=87597732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310920707.3A Active CN116631446B (zh) | 2023-07-26 | 2023-07-26 | 一种基于言语分析的行为方式分析方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116631446B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440864A (zh) * | 2013-07-31 | 2013-12-11 | 湖南大学 | 基于语音的人格特征预测方法 |
CN108470564A (zh) * | 2018-04-03 | 2018-08-31 | 苏州欧孚网络科技股份有限公司 | 根据音频识别人格特征的人工智能方法 |
WO2021081418A1 (en) * | 2019-10-25 | 2021-04-29 | Ellipsis Health, Inc. | Acoustic and natural language processing models for speech-based screening and monitoring of behavioral health conditions |
KR102381088B1 (ko) * | 2021-07-20 | 2022-03-30 | 양영준 | 인공지능에 기반한 심리검사 시스템 및 그 동작 방법 |
CN114490947A (zh) * | 2022-02-16 | 2022-05-13 | 平安国际智慧城市科技股份有限公司 | 基于人工智能的对话服务方法、装置、服务器及介质 |
KR20220106029A (ko) * | 2021-01-21 | 2022-07-28 | 주식회사 에스알유니버스 | 인공지능을 활용한 심리 상담 방법 및 장치 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8195460B2 (en) * | 2008-06-17 | 2012-06-05 | Voicesense Ltd. | Speaker characterization through speech analysis |
DE102013101871A1 (de) * | 2013-02-26 | 2014-08-28 | PSYWARE GmbH | Wortwahlbasierte Sprachanalyse und Sprachanalyseeinrichtung |
CN111914111A (zh) * | 2019-05-08 | 2020-11-10 | 阿里巴巴集团控股有限公司 | 基于声音的面具形象确定方法、装置及计算机存储介质 |
-
2023
- 2023-07-26 CN CN202310920707.3A patent/CN116631446B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440864A (zh) * | 2013-07-31 | 2013-12-11 | 湖南大学 | 基于语音的人格特征预测方法 |
CN108470564A (zh) * | 2018-04-03 | 2018-08-31 | 苏州欧孚网络科技股份有限公司 | 根据音频识别人格特征的人工智能方法 |
WO2021081418A1 (en) * | 2019-10-25 | 2021-04-29 | Ellipsis Health, Inc. | Acoustic and natural language processing models for speech-based screening and monitoring of behavioral health conditions |
KR20220106029A (ko) * | 2021-01-21 | 2022-07-28 | 주식회사 에스알유니버스 | 인공지능을 활용한 심리 상담 방법 및 장치 |
KR102381088B1 (ko) * | 2021-07-20 | 2022-03-30 | 양영준 | 인공지능에 기반한 심리검사 시스템 및 그 동작 방법 |
CN114490947A (zh) * | 2022-02-16 | 2022-05-13 | 平安国际智慧城市科技股份有限公司 | 基于人工智能的对话服务方法、装置、服务器及介质 |
Non-Patent Citations (2)
Title |
---|
邓志娟.高管人格识别及其外向性对创新绩效和公司绩效的影响 ——从业绩电话交流会中挖掘语音线索.万方.2023,第31-51页. * |
高管人格识别及其外向性对创新绩效和公司绩效的影响 ——从业绩电话交流会中挖掘语音线索;邓志娟;万方;第31-51页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116631446A (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10573337B2 (en) | Computer-based escalation detection | |
US9058816B2 (en) | Emotional and/or psychiatric state detection | |
CN111739559B (zh) | 一种话语预警方法、装置、设备及存储介质 | |
US8788270B2 (en) | Apparatus and method for determining an emotion state of a speaker | |
US20150142446A1 (en) | Credit Risk Decision Management System And Method Using Voice Analytics | |
CN109697207A (zh) | 时序数据的异常监控方法及系统 | |
CN102623009A (zh) | 一种基于短时分析的异常情绪自动检测和提取方法和系统 | |
CN112468659B (zh) | 应用于电话客服的质量评价方法、装置、设备及存储介质 | |
CN103440864A (zh) | 基于语音的人格特征预测方法 | |
US20210020191A1 (en) | Methods and systems for voice profiling as a service | |
CN113628627B (zh) | 一种基于结构化语音分析的电力行业客户服务质检系统 | |
CN112966082A (zh) | 音频质检方法、装置、设备以及存储介质 | |
Labied et al. | An overview of automatic speech recognition preprocessing techniques | |
CN116048282B (zh) | 一种数据处理方法、系统、装置、设备及存储介质 | |
CN113539243A (zh) | 语音分类模型的训练方法、语音分类方法及相关装置 | |
CN116631446B (zh) | 一种基于言语分析的行为方式分析方法及系统 | |
CN112885379A (zh) | 客服语音评估方法、系统、设备及存储介质 | |
KR20180005876A (ko) | 음성데이터 기반 인성평가를 통한 인공지능형 개인신용평가 및 분석 시스템 및 방법 | |
CN110675858A (zh) | 基于情绪识别的终端控制方法和装置 | |
Yerigeri et al. | Meta-heuristic approach in neural network for stress detection in Marathi speech | |
CN112786058B (zh) | 声纹模型训练方法、装置、设备以及存储介质 | |
CN108470564A (zh) | 根据音频识别人格特征的人工智能方法 | |
Wang | Detecting pronunciation errors in spoken English tests based on multifeature fusion algorithm | |
CN114678040B (zh) | 语音一致性检测方法、装置、设备及存储介质 | |
Kanai et al. | Robust voice activity detection using empirical mode decomposition and modulation spectrum analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 203, No. 9, Lane 681, Haiyang Road, Pudong New Area, Shanghai, 200120 Patentee after: Shanghai Yingzhi Zhengneng Health Technology Co.,Ltd. Address before: Room 203, No. 9, Lane 681, Haiyang Road, Pudong New Area, Shanghai, 200120 Patentee before: Shanghai Yingzhi Zhengneng Culture Development Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |