CN113515636A - 一种文本数据处理方法、电子设备 - Google Patents
一种文本数据处理方法、电子设备 Download PDFInfo
- Publication number
- CN113515636A CN113515636A CN202111066422.5A CN202111066422A CN113515636A CN 113515636 A CN113515636 A CN 113515636A CN 202111066422 A CN202111066422 A CN 202111066422A CN 113515636 A CN113515636 A CN 113515636A
- Authority
- CN
- China
- Prior art keywords
- emotion
- data
- polarity
- target object
- text data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种文本数据处理方法、电子设备,属于电数字数据处理领域,特别属于处理自然语言数据处理中的文本处理技术领域,其中,该方法包括:获取目标对象在实时交互过程中的文本数据;对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;根据所述情绪识别结果进行预警处理。通过上述方案解决了现有的在实时交互过程不分析对象的情绪而导致的用户体验较差,数据未充分利用的问题,达到了有效提升用户体验,提高数据利用率的技术效果。
Description
技术领域
本申请属于电数字数据处理领域,特别属于处理自然语言数据处理中的文本处理技术领域,尤其涉及一种文本数据处理方法、电子设备。
背景技术
随着互联网技术的不断发展,IM(Instant Messaging,即时通讯)的应用越来越广泛。在IM的过程中,用户可以通过发送文字、图片和语音等来进行信息的交互。在交互的过程中,用户所发送的数据内容往往存在很多的信息,通过对发送数据的自然语音数据处理,可以获取发送者要表达的内容,也可以分析发送者的需求。
然而,IM交互数据中不仅可以分析出交互双方的诉求,还可以分析出交互双方的情绪等,如何在进行自然语音数据处理的过程中,对交互双方的情绪进行分析和利用,目前尚未提出有效的解决方案。
发明内容
本申请目的在于提供一种文本数据处理方法、电子设备,可以实现对交互过程中目标对象情绪的及时有效分析和利用。
本申请提供一种文本数据处理方法、电子设备是这样实现的:
一种文本数据处理方法,所述方法包括:
获取目标对象在实时交互过程中的文本数据;
对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;
根据所述情绪识别结果进行预警处理。
一种文本数据处理方法,所述方法包括:
接收目标对象在实时交互过程中发送的交互数据;
接收服务端通过上述方法对交互数据进行处理生成的预警信息;
显示所述交互数据和预警信息。
一种文本数据处理方法,所述方法包括:
获取患者在医患沟通过程中的文本数据;
对所述文本数据进行情绪分析,确定所述患者的情绪识别结果;
根据所述情绪识别结果对医生端进行预警处理。
一种文本数据处理方法,所述方法包括:
获取目标对象在实时交互过程中的文本数据;
对所述文本数据进行情绪分析,确定所述目标对象的情绪极性和极性概率值;
根据所述目标对象的情绪极性和极性概率值,对所述目标对象的交互方进行服务评价。
一种电子设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现如下方法的步骤:
获取目标对象在实时交互过程中的文本数据;
对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;
根据所述情绪识别结果进行预警处理。
一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现如下方法的步骤:
获取目标对象在实时交互过程中的文本数据;
对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;
根据所述情绪识别结果进行预警处理。
本申请提供的文本数据处理方法、电子设备,通过在实时交互过程中对目标对象的文本数据进行情绪分析,可以得到目标对象的情绪识别结果,然后基于情绪识别结果可以进行预警处理。例如,如果发现目标对象情绪非常消极,那么可以优先回复该目标对象,以提升交互的满意度。通过上述方案解决了现有的在实时交互过程不分析对象的情绪而导致的用户体验较差,数据未充分利用的问题,达到了有效提升用户体验,提高数据利用率的技术效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的文本数据处理方法一种实施例的方法流程图;
图2是本申请提供的数据分段示意图;
图3是本申请提供的情绪类别与表征符合的对应关系示意图;
图4是本申请提供的层次BGRU-CNN情绪分析模型示意图;
图5是本申请提供的文本数据处理方法另一种实施例的方法流程图;
图6是本申请提供的在线问诊的架构示意图;
图7是本申请提供的一种文本数据处理方法的电子设备的硬件结构框图;
图8是本申请提供的文本数据处理装置一种实施例的模块结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
针对现有的即时通讯过程中,未对交流双方的情绪进行分析,所导致的数据未得到有效利用,用户体验较差的问题,在本例中提供了一种文本数据处理方法,如图1所示,可以包括如下步骤:
步骤101:获取目标对象在实时交互过程中的文本数据;
在实时交互过程中,目标对象发送的可以是文字消息、文件、语音与视频等。对文字消息可以直接转换为文本数据,对于文件可以通过识别技术识别出对应的文本数据,针对语音数据也可以通过对声音的文字识别得到文本数据,视频通过处理也可以得到文本数据。
对于目标对象发送的具体数据类型在本例中不作限定,可以根据实际的情况和需求,目标对象可以发送文字、语音,甚至图片视频,或者表情等,都可以作为得到文本数据的基础。对于处理端,在接收到目标对象发送的内容之后,可以进行处理得到文本数据。
对于上述的实时交互,可以是IM通讯,例如,用户A和用户B进行IM通讯,将用户A作为目标对象,那么就获取用户A发送的内容进行处理后作为文本数据,如果将用户B作为目标对象,那么就获取用户B发送的内容进行处理后作为文本数据。即,以通讯过程中作为被分析的一方作为目标对象。
考虑到实时交互时的情绪分析,那么可以限制获取数据的时间段,例如,当前时间的半小时内的数据,或者当前时间之前10分钟内的数据,或者当前时间之前一天内的数据等等。具体的时间跨度和周期可以根据实际情况设定,本申请对此不作限定。即,获取目标对象在实时交互过程中的文本数据可以是获取目标对象在实时交互过程中预定时间长度内的文本数据。以此作为分析基础,来对目标对象进行情绪分析。
因为实时交互一般是交互双方都发送内容的,在本例中,如果仅对一方进行情绪分析,那么仅获取被分析一方所发送的内容即可,如果是对交互双方都进行情绪分析,那么就分别获取交互双方发送的内容。具体采用哪种方式,可以根据实际的场景需求选择,本申请对此不作限定。
步骤102:对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;
在具体实现的时候,对文本数据进行情绪分析,确定所述目标对象的情绪识别结果的时候,可以是确定目标对象当前是积极情绪,还是消极情绪,如果是积极情绪,那么积极情绪有多高,如果是消极情绪,那么消极情绪有多高。或者,也可以具体识别出目标对象是哪种积极情绪(例如:开心、信任等),或者是哪种消极情绪(例如:生气、吃惊等)。
为了实现积极情绪、积极情绪有多高、消极情绪、消极情绪有多高的标定,可以设置情绪值概率值,例如,识别出目标对象的消极情绪概率值或者积极情绪概率值,从而实现对情绪类型和情绪程度的标定。
步骤103:根据所述情绪识别结果进行预警处理。
例如,如果发现目标对象的消极情绪比较高,那么可以给交互的另一方发送预警信息,以提醒目标对象的消极情绪较高,需要优先或者妥善处理,也或者是在发现目标情绪消极情绪比较高的情况下,进行预警以引导客服介入对目标对象进行情绪处理。
具体的,对所述文本数据进行情绪分析,可以包括:
1)对所述文本数据进行主客观识别,以获取所述文本数据中的主观内容数据;
2)对所述主观内容数据进行情绪极性识别,确定所述目标对象的情绪极性;
3)根据确定的情绪极性对所述主观内容数据进行情绪类别识别。
即,可以先识别对文本数据进行主客观识别,以识别出其中的主观数据和客观数据,对于客观数据而言,对于情绪分析是没有价值的,因此,仅保留其中的主观数据进行情绪分析。在情绪分析的时候,可以先确定目标对象的情绪极性,即,确定是积极还是消极的,在确定极性之后,再确定具体的类别。例如,如果是消极情绪,可以确定是害怕、惊讶、伤心、厌恶、生气中的哪种,如果是积极情绪,可以确定是期待、快乐、信任中的哪种。即,实现具体的情绪标定。然而,值得注意的是上述所列举的积极、消极的情绪类别仅是一种示例性表述,在实际实现的时候,也可以包括其他的具体情绪类别,本申请对此不作限定。
通过先识别主客观数据,再识别情绪极性,再识别具体情绪类别的方式,可以减少数据处理量,提升识别速度,因为每个层级都会筛选掉一部分数据,使得需要被处理的数据量减少,从而可以提升数据处理的效率。
在主观内容数据进行情绪极性识别,确定所述目标对象的情绪极性的时候,可以通过对目标对象在实时交互过程中的发送连续性,将主观内容数据划分为多个数据段,将目标对象连续发送的内容作为一段,从而划分为多个数据段。其中,发送连续性指的是中间未穿插交互对方发送的消息,如果有交互对方发送的消息,那么当前分段就终止,下一条目标对象发送的消息作为下一个分段的内容。例如,可以如图2所示,发送内容按时间序列排序为:s1、d1、d2、s2、s3、s4、d3、d4、d5、d6、s5、s6、s7、s8、d7、s9、d8、d9......,其中,s表示目标对象发送的内容,d表示对方发送的内容。那么可以提取目标对象发送的内容,(s1、s2、s3、s4、s5、s6、s7、s8……)按照连续性将目标对象发送的数据划分为7个数据段(图2中每个虚线框圈定的是一个数据段)。即,通过连续性实现了数据的分段。这样可以确定多个数据段中各个数据段的情绪极性和极性概率值。在一个实施方式中,可以按照目标对象在实时交互过程中的发送连续性,将所述主观内容数据划分为多个数据段;确定所述多个数据段中各个数据段的情绪极性和极性概率值,其中,情绪极性包括:积极情绪和消极情绪。
具体的,在确定所述多个数据段中各个数据段的情绪极性和极性概率值之后,还可以根据各个数据段的情绪极性和极性概率值,计算各相邻数据段的情绪波动极性和情绪波动得分,其中,情绪波动极性包括:积极情绪波动和消极情绪波动;将积极情绪波动的情绪波动得分进行累加,得到积极情绪波动分;将消极情绪波动的情绪波动得分进行累加,得到消极情绪波动分。或者,可以将连续的消极情绪波动的情绪波动得分进行累加,作为消极情绪波动分。
如果是将积极情绪波动的情绪波动得分进行累加,得到积极情绪波动分;将消极情绪波动的情绪波动得分进行累加,得到消极情绪波动分,那么通过各个数据段的情绪极性和极性概率值、积极情绪波动分和消极情绪波动分,可以对交互对方进行服务评价。也可以基于得到的消极情绪波动分进行预警,以便即使对目标对象的消极情绪进行处理。
或者,也可以将连续的消极情绪波动的情绪波动得分进行累加,作为消极情绪波动分来进行预警,因为连续的消极情绪波动的情绪波动得分的累加值更能体现目标对象的消极情绪的程度。
举例而言,上述每段数据在识别后属于确定积极情绪的概率为Ppos和属于消极情绪的概率为Pneg,其中,Ppos+Pneg=1。如果 Ppos大于 Pneg,则判定该段情绪为积极,如果Ppos小于等于 Pneg,则判定该段请求为消极。对于一段文本,如果判定为积极情绪,则他的情绪极性分值为 Ppos,如果判定为消极情绪,则他的情绪极性分值为-Pneg。以图2中的7段文本的情绪极性为例,假设情绪概率值分别为:-P1neg、P2pos、-P3neg、-P4neg、-P5neg、P6pos、P7pos。计算相邻两数据段的情绪分差值,可以是将当前段的极性概率值减去前一端的极性概率值作为当前段的情绪波动分:P2pos+P1neg、-P3neg-P2pos、-P4neg+P3neg、-P5neg+P4neg、P6pos+P5neg、P7pos-P6pos。可以将所有正值结果累加作为积极情绪波动分,将连续的负值结果累加再取绝对值作为消极情绪波动分,可以统计出情绪极性分值随着时间序列的动态变化。
在进行文本数据分段的时候,或者是进行主观内容数据分段的时候,除了可以采用上述的基于连续性的分段方式以外,还可以采用基于时间的动态分段方式,例如,假设每段采集数据的起始句用p1表示,结尾句用p2表示,p1(含)和p2(不含)中间的所有内容用句号拼接后作为一段文本。算法描述如下:遍历按时间序列排列的交互数据,目标对象发送的内容置为p1,将p2不断向前移动,如果当前p2指向的会话的发送时间减去p1指向的会话的发送时间的差值大于时间范围阈值t或p2指向了对方发送的会话,则该段结束,p1指向p2,p2继续向前移动,直到遍历完所有会话内容。
在一个实施方式中,在根据各个数据段的情绪极性和极性概率值,计算各相邻数据段的情绪波动极性和情绪波动得分之后,可以将连续消极情绪波动的情绪波动得分进行累加,得到预警值;确定所述预警值与预设预警阈值进行比较;如果超出所述预警阈值,发送预警信息。即,根据情绪波动得分进行预警,例如,提醒接收端及时对目标对象的消息进行处理。进一步的,可以设置多重预警阈值,超出不同的预警阈值,可以采用不同的预警方式,不同的预警方式表明不同的紧急程度,从而实现更多层次的预警处理。
上述主要是实现对消极情绪、积极情绪的划分,在实现的时候,为了实现更细粒度的情绪划分,还可以实现对情绪具体类别的划分,例如,根据确定的情绪极性对所述主观内容数据进行情绪类别识别,可以包括:对各数据段执行如下操作:获取与当前数据段的情绪极性关联的细粒度情绪类别集;对当前数据段进行语义分析;根据语义分析结果,与关联的细粒度情绪类别集中的各情绪类别进行匹配,以确定出所述当前数据段的情绪类别。其中,消极情绪的类别可以包括:害怕、惊讶、伤心、厌恶、生气,积极情绪的类别可以包括:期待、快乐、信任。通过语义分析,可以具体识别出目标对象当前是哪种情绪类别。
对于不同的情绪类别,可以关联不同的可视化数据,即,可以设置不同的情绪类型所对应的可视化数据,在根据确定的情绪极性对所述主观内容数据进行情绪类别识别之后,可以为识别出的情绪类别匹配可视化数据;将匹配的可视化数据推送至文本数据接收端进行显示。通过将可视化数据一起推送至接收端,可以使得接收端可以更快速有效的知道目标对象当前的情绪状态。其中,上述的可视化数据可以包括但不限于以下至少之一:表情、颜色、强调等。只要能实现可视化分类提醒的表征方式,都可以作为本例中的可视化数据。例如,可以如图3所示,设置不同情绪类别对应的表情符号,以不同的表情符号来表示不同的情绪类别。
考虑到一般的文本情感分类多采用全局分类器来进行粗粒度的分类,当进行细粒度的多分类时,大量相关性差的文本往往会给分类器带来干扰,影响分类器的效果,因此,在本例中采用层次结构的情绪分类模型,将细粒度情绪分类以分层的形式添加在粗粒度情绪分类的基础之上,提高整体分类的性能。即,对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果,可以是将所述文本数据输入预设的情绪分析模型,其中,所述情绪分析模型包括:用于进行主客观识别的第一层基于双向门控循环单元的卷积神经网络(BGRU-CNN)、用于进行情绪极性识别的第二层基于双向门控循环单元的卷积神经网络、用于进行情绪类别识别的第三层基于双向门控循环单元的卷积神经网络;将所述情绪分析模型的输出结果作为所述目标对象的情绪识别结果。
如图4所示,设置了三层四个BGRU-CNN以实现对文本数据的情绪的细粒度划分,文本数据通过第一层BGRU-CNN划分为主观和客观,对于主观数据,通过第二层BGRU-CNN,划分为消极和积极,对于消极数据通过第三层BGRU-CNN(消极)划分为具体的消极情绪类别,对于积极数据通过第三层BGRU-CNN(积极)划分为具体的积极情绪类别。
对于接收端而言,即,目标对象实时交互的对端,提供了一种文本数据处理方法,可以包括如下步骤:
S1:接收目标对象在实时交互过程中发送的交互数据;
S2:接收服务端通过上述的方法对交互数据进行处理生成的预警信息;
S3:显示所述交互数据和预警信息。
即,在接收端可以同时显示交互数据和预警信息,以实现情绪预警,便于对目标对象的消极情绪及时进行处理,提升用户体验。
具体的,在显示所述交互数据和预警信息的时候,可以是在显示所述交互数据的页面,通过表情图像或语音数据,显示所述预警信息。
基于上述的文本数据处理方法,在本例中还从服务评价的角度提供了一种文本数据处理方法,如图5所示,可以包括如下步骤:
步骤501:获取目标对象在实时交互过程中的文本数据;
步骤502:对所述文本数据进行情绪分析,确定所述目标对象的情绪极性和极性概率值;
步骤503:根据所述目标对象的情绪极性和极性概率值,对所述目标对象的交互方进行服务评价。
具体的,在确定所述目标对象的情绪极性和极性概率值的时候,可以采用上述的确定所述目标对象的情绪极性和极性概率值的方法,本例不再赘述。
即,可以通过对目标对象的情绪分析,实现对交互方的服务评价,该方式主要用户在线的交流服务中,例如:客服问答、在线问诊等场景中,通过客户端的情绪分析,实现对服务端的服务评价。对于本例中的对文本数据的处理与上述方法中的文本数据处理是相同的,在此不再赘述。
针对在线问诊场景,考虑到医生往往需要通过接诊中列表进入IM详情页,然后才能给患者发送文字、图片和语音等信息来提供医学咨询服务,医生与患者之间的交互往往是多轮的,当医生需要同时服务于多个接诊中患者的时候,一般是随机选择一个进行服务。而每个接诊中的患者当前的情绪状态和情绪波动可能是不同的,有的可能非常着急,有的可能非常生气,而有的可能比较平和,不同情绪状态下的患者,对于医生回复速度的急切程度和忍耐程度可能是不同的,目前的在线问诊方式医生无法有效感知到用户当前的情绪状况的。因此,实时把控用户在线上接诊中状态下实时的情绪状况,对于辅助医生在同时接诊多名患者的时候,优先级的选择,以及服务质量的提高,有着重要的作用。
基于此,在本例中提供了一种面向医患沟通的文本数据处理方法,可以应用在医患沟通,或者在线问诊流程中,具体的,可以包括如下步骤:
S1:获取患者在医患沟通过程中的文本数据;
S2:对所述文本数据进行情绪分析,确定所述患者的情绪识别结果;
S3:根据所述情绪识别结果对医生端进行预警处理。
对患者的文本数据的处理可以采用与上述的文本数据处理相同的处理方式,在此不再赘述。
如图6所示为在线问诊的架构示意图,考虑到患者通过问诊平台购买问诊服务并发起在线问诊后,患者端可以通过与医生端进行IM交互,在交互的过程中,可以通过服务器实时获取患者端的交互数据,以对患者进行情绪分析,从而实现情绪预警。如果确定需要进行情绪预警,可以是通知医生端,也可以是通过客服介入进行处理。具体方式可以根据实际情况和需求设定,本申请对此不作限定。
进一步的,上述服务器可以是独立设置的,也可以是设置在医生端与医生端集成设置的。
对于患者端而言,可以设置发送模块,发送模块用于采集原始数据,采集原始数据后一方面被直接用于本地窗口渲染,另一方面先经过预处理(例如:编码、容错保护等),再进行端对端加密,最后进行网络传输,以到达医生端。其中,端对端加密可以是一种只有参与通讯的用户可以读取信息的通信系统。
对于医生而言,通过医生端平台接收到患者的问诊请求之后,可以通过医生端的接收模块对接收到的码流先进行端对端解密,然后再进行反解析(例如:错误恢复、解码等)。在反解析后,其中一路直接显示在接收端屏幕主窗口上供医生查看,另一路可以经过动态分段采集算法进行分段,然后对每段文本经过预处理后送至层次BGRU-CNN情绪分析模型进行用户情感实时分析。
其中,层次BGRU-CNN情绪分类模型可以分为三层,共构建4个BGRU-CNN分类器,主客观分类器位于第一层,情绪极性分类器位于第二层,消极情绪分类器和积极情绪分类器位于第三层。每个分类器各采用自己分类类别的有标注语料进行训练,当整个模型需要判断一段文本的情绪时,自上而下先通过主客观分类器,判断该端文本是否含有情绪,如果含有情绪,则需要送入第二层的情绪极性分类器,输出情绪极性分类和概率分值,用于计算该段文本的情绪极分。然后送入第三层,进而得到该段文本所属的细粒度情绪类别,用于在前端展示情绪识别结果。
对于上述的4个BGRU-CNN神经网络模型而言,架构可以是相同的,不同的仅是训练分类语料的不同,使用不同分类语料训练时会进行不同的模型参数调整。
其中,BGRU-CNN神经网络模型可以分为:词向量输入层、BGRU层、CNN层和情绪分类输出层:
1)词向量输入层:使用预训练的词向量嵌入到本模型的词典矩阵中,利用从大量外部无标注语料库上训练和提炼出来的分词的语义信息进行训练,以提高BGRU-CNN模型的分类效果,是一种特殊的迁移学习。初始化完成的词向量矩阵,在模型的整个训练过程中参数将被不断更新。
2)BGRU层:采用双向的GRU网络,对于每个句子都用两条GRU神经网络,分别从正向和反向两个方向接收句子单词的输入,然后将它们的输出结果拼接,作为整个BGRU层的输出,这样不仅可以解决每个靠后单词权重大的问题,而且每个时刻的输出不仅考虑了在它之前的语义信息,而且考虑到它之后的语义信息。通过BGRU可以很好地模拟人的行为,即先读完整个句子,再判断每个单词的语义。
3)CNN层:对BGRU层的输出矩阵进行卷积操作和池化操作。卷积操作实质上完成了对文本特征表示中局部重要信息的捕获,池化操作则完成了对局部重要信息的提取。
4)情绪分类输出层:得到该段文本在多个分类上的概率分布,取概率值最大的类别即判定输入文本为该种情绪类别。
上述层次BGRU-CNN情绪分析模型的第二层可以输出情绪极性分值,用于计算消极情绪波动分和积极情绪波动分。积极情绪波动分可以表示医生对患者服务使其情绪提升的能力,在一定程度上反映了医生的服务质量,因此,可以通过积极情绪波动分作为医生服务质量的一个评价维度,可以将积极情绪波动分传输到云端存储以进行医生服务质量评价,参与到医生列表的排序、派单优先级等场景中使用。消极情绪波动分可以用于判断患者当前是否已超出情绪波动二级阈值α1和α2(其中,α1<α2),如果超出阈值α1则可以在医生端展示情绪波动预警提示,如果超出阈值α2则可以通知客服端,由客服根据实际情况进行及时的人工介入,客服在实际核查服务记录时可以对其按分段进行情绪分类标注回传到云端,用于在云端优化层次BGRU-CNN情绪分析模型,在对模型进行优化后,可以通过端云协同技术实现模型的热更新,以实现情绪识别和预警能力的持续优化。
上述层次BGRU-CNN情绪分析模型的第三层可以输出该段文本的细粒度情绪分类,通过细粒度的情绪分类可以绘制情感图形,在医生端实时展示,辅助医生把控患者情绪,为患者提供更好的服务。
假设患者端和医生端IM会话发送内容按时间序列排序为:s1、d1、d2、s2、s3、s4、d3、d4、d5、d6、s5、s6、s7、s8、d7、s9、d8、d9......,其中,s表示患者发送的内容,d表示医生发送的内容。那么动态分段采集算法可以仅采集患者发送的内容,假设每段采集的起始句用p1表示,结尾句用p2表示,那么p1(含)和p2(不含)中间的所有内容用句号拼接成一段文本经过预处理后送入层次BGRU-CNN情绪分析模型进行情绪分析。
具体的,可以是遍历按时间序列排列的IM医患会话内容;第一条患者发送的内容置为p1,p2不断向前移动;如果当前p2指向的会话的发送时间减去p1指向的会话的发送时间的差值大于时间范围阈值t或p2指向了医生发送的会话,那么该段结束。p1指向p2,p2继续向前移动,直到遍历完所有会话内容,以实现对会话内容的分段。
其中,上述层次BGRU-CNN情绪分析模型的第二层能输出每段文本属于积极情绪的概率 Ppos和属于消极情绪的概率 Pneg,其中,Ppos+Pneg=1。如果 Ppos大于 Pneg则判定该段情绪为积极,否则判定为消极。对于一段文本,如果判定为积极情绪,则他的情绪极性分值为 Ppos,如果判定为消极情绪,则他的情绪极性分值为-Pneg。假设存在7段文本,这7段文本的情绪极性分值为:-P1neg、P2pos、-P3neg、-P4neg、-P5neg、P6pos、P7pos。每段之间的情绪波动分为该段分值减去他的前一段的分值:P2pos+P1neg、-P3neg-P2pos、-P4neg+P3neg、-P5neg+P4neg、P6pos+P5neg、P7pos-P6pos。将所有正值结果累加即为积极情绪波动分,将连续的负值结果累加再取绝对值即为消极情绪波动分,情绪极性分值随着时间序列动态计算。
在上例中,通过将细粒度情绪分类以分层的形式添加在粗粒度情绪分类的基础之上,提高了整体分类的性能。
对于每个BGRU-CNN情绪分类模型而言,可以按照如下方式进行训练:
1)收集全网患者的问诊会话文本数据(例如:主诉、剔除系统类消息),全量作为无标注数据集,使用部分构建有标注数据集。
2)将所有数据使用动态采集算法进行采集分段,使用众包等方式人工标注为普拉切克情绪轮定义的8种基本情绪:害怕、惊讶、伤心、厌恶、生气、期待、快乐、信任或者标记为客观即无情感,作为有标注数据集。
3)对有标注数据集和无标注数据集进行一致的文本预处理:将表情符、URL、数字等转化为特殊的语义单元,重复的符号替换为一个,利用NLPIR汉语分词工具进行分词。
4)将经过文本预处理后的全量无标注数据集利用Word2Vec工具训练词向量,嵌入到下游分类模型的输入层。
5)利用经过文本预处理后的有标注数据集训练BGRU-CNN模型,使用训练集中20%的数据作为交叉验证集来调节BGRU-CNN模型在该层次结构分类中使用的超参数,使用网格搜索法选择使平均准确率最大的超参数。
6)主客观分类器、情绪极性分类器、积极情绪分类器和消极情绪分类器这4个分类器分别使用相应类别的有标注语料训练模型,即完成整个层次BGRU-CNN情绪分析模型的训练。
进一步的,在在线问诊医患沟通过程中,使用动态分段采集算法实时采集患者发送的文本信息进行分段。经过文本预处理后,送入训练好的层次BGRU-CNN模型,输出的消极情绪波动分用于判断是否在医生端接诊中列表展示情绪波动预警。对于输出的细粒度情绪识别结果,可以用于在医生端接诊中列表展示代表该种情绪的表情符号,以辅助医生把控患者情绪状态,判断优先级进行接诊服务。如果判定为客观则不展示,如果判定为主观,则展示出具体情绪类别中的一种,例如,设置8种情绪类别:5种消极情感和3种积极情感,那么可以分别用不同色调的表情展示,例如可以通过emoji表情表示,或者是使用一套适合医疗场景下的更为严肃的表情符号。为了实现对预警的及时处理,在消极情绪波动分大于阈值的情况下,优先展示情绪波动预警。
上例是通过IM问诊的方式,也可以适用于视频问诊等,只要可以实现对患者情绪的有效识别,都适用于本申请所提供的方案,对此不再追溯。
通过上例的方式,无需额外信息采集,从患者输入的问诊文本中就可以进行情绪识别,在模型训练完成后,可以实时分析患者的情绪,处理速度快,且消耗系统资源小。通过采用动态分段采集算法,获取患者一定时间内连续发送的文本,进行整体的情绪分析,更能代表患者当下实时的实现状态,且相较于单条分析,消耗系统资源更小。利用 BGRU 来捕获患者在线问诊文本中的长相关性特征,利用CNN来强化局部重要特征的捕捉和提取,增强了BGRU 的健壮性,更加有利于情绪分类,然后采用层次结构分类方法进一步提高模型在细粒度患者问诊情绪分类上的效果。进一步的,可以为医生提供实时情绪预警和8种细粒度情绪分析结果,帮助医生更准确的把握患者情绪状态。还可以为客服介入提供预警,提升用户体验,且客服在处理预警过程中对患者对话内容进行情绪判定,可以回传到云端对BGRU-CNN模型进行再训练,并通过端云协同技术实现模型的热更新,实现问诊情绪识别和预警能力的持续优化。
上述是以将文本数据处理方法应用在医患沟通、在线问诊领域进行的说明,在实际实现的时候,也可以用于其它领域,例如,一般的IM通讯、网购咨询、售后客服等。
本申请上述实施例所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。以运行在电子设备上为例,图7是本申请提供的一种文本数据处理方法的电子设备的硬件结构框图。如图7所示,电子设备10可以包括一个或多个(图中仅示出一个)处理器02(处理器02可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器04、以及用于通信功能的传输模块06。本领域普通技术人员可以理解,图7所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子设备10还可包括比图7中所示更多或者更少的组件,或者具有与图7所示不同的配置。
存储器04可用于存储应用软件的软件程序以及模块,如本申请实施例中的文本数据处理方法对应的程序指令/模块,处理器02通过运行存储在存储器04内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的应用程序的文本数据处理方法。存储器04可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器04可进一步包括相对于处理器02远程设置的存储器,这些远程存储器可以通过网络连接至电子设备10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输模块06用于经由一个网络接收或者发送数据。上述的网络具体实例可包括电子设备10的通信供应商提供的无线网络。在一个实例中,传输模块06包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输模块06可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
在软件层面,上述文本数据处理装置可以如图8所示,包括:
获取模块801,用于获取目标对象在实时交互过程中的文本数据;
确定模块802,用于对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;
处理模块803,用于根据所述情绪识别结果进行预警处理。
在一个实施方式中,上述确定模块802包括:
第一识别单元,用于对所述文本数据进行主客观识别,以获取所述文本数据中的主观内容数据;
第二识别单元,用于对所述主观内容数据进行情绪极性识别,确定所述目标对象的情绪极性;
第三识别单元,用于根据确定的情绪极性对所述主观内容数据进行情绪类别识别。
在一个实施方式中,上述第二识别单元具体可以用于按照目标对象在实时交互过程中的发送连续性,将所述主观内容数据划分为多个数据段;确定所述多个数据段中各个数据段的情绪极性和极性概率值,其中,情绪极性包括:积极情绪和消极情绪。
在一个实施方式中,上述第二识别单元具体可以用于在确定所述多个数据段中各个数据段的情绪极性和极性概率值之后,根据各个数据段的情绪极性和极性概率值,计算各相邻数据段的情绪波动极性和情绪波动得分,其中,情绪波动极性包括:积极情绪波动和消极情绪波动;将积极情绪波动的情绪波动得分进行累加,得到积极情绪波动分;将消极情绪波动的情绪波动得分进行累加,得到消极情绪波动分。
在一个实施方式中,上述第二识别单元具体可以用于在根据各个数据段的情绪极性和极性概率值,计算各相邻数据段的情绪波动极性和情绪波动得分之后,将连续消极情绪波动的情绪波动得分进行累加,得到预警值;确定所述预警值与预设预警阈值进行比较;如果超出所述预警阈值,发送预警信息。
在一个实施方式中,上述第三识别单元具体可以用于对各数据段执行如下操作:获取与当前数据段的情绪极性关联的细粒度情绪类别集;对当前数据段进行语义分析;根据语义分析结果,与关联的细粒度情绪类别集中的各情绪类别进行匹配,以确定出所述当前数据段的情绪类别。
在一个实施方式中,在根据确定的情绪极性对所述主观内容数据进行情绪类别识别之后,还可以包括:为识别出的情绪类别匹配可视化数据;将匹配的可视化数据推送至文本数据接收端进行显示。
在一个实施方式中,上述确定模块802具体可以将所述文本数据输入预设的情绪分析模型,其中,所述情绪分析模型包括:用于进行主客观识别的第一层基于双向门控循环单元的卷积神经网络(Bi-directional Gated Recurrent Unit Neural Network -Convolutional Neural Network,简称为BGRU-CNN)、用于进行情绪极性识别的第二层基于双向门控循环单元的卷积神经网络、用于进行情绪类别识别的第三层基于双向门控循环单元的卷积神经网络;将所述情绪分析模型的输出结果作为所述目标对象的情绪识别结果。
在一个实施方式中,上述获取模块801具体可以用于获取所述目标对象在实时交互过程中的语音数据;将所述语音数据转换为文本数据。
在一个实施方式中,上述获取模块801具体可以用于获取所述目标对象在实时交互过程中预设时间长度内的文本数据。
在本例中还提供了一种文本数据处理装置,位于接收端设备,包括:
第一接收模块,用于接收目标对象在实时交互过程中发送的交互数据;
第二接收模块,用于接收服务端通过上述的方法对交互数据进行处理生成的预警信息;
显示模块,用于显示所述交互数据和预警信息。
在一个实施方式中,上述显示模块具体可以用于在显示所述交互数据的页面,通过表情图像或语音数据,显示所述预警信息。
在本例中还提供了一种文本数据处理装置,可以位于服务端或者位于医生端中,包括:
获取模块,用于获取患者在医患沟通过程中的文本数据;
确定模块,用于对所述文本数据进行情绪分析,确定所述患者的情绪识别结果;
预警模块,用于根据所述情绪识别结果对医生端进行预警处理。
本申请的实施例还提供能够实现上述实施例中的文本数据处理方法中全部步骤的一种电子设备的具体实施方式,所述电子设备具体包括如下内容:处理器(processor)、存储器(memory)、通信接口(Communications Interface)和总线;其中,所述处理器、存储器、通信接口通过所述总线完成相互间的通信;所述处理器用于调用所述存储器中的计算机程序,所述处理器执行所述计算机程序时实现上述实施例中的文本数据处理方法中的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
步骤1:获取目标对象在实时交互过程中的文本数据;
步骤2:对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;
步骤3:根据所述情绪识别结果进行预警处理。
从上述描述可知,本申请实施例通过在实时交互过程中对目标对象的文本数据进行情绪分析,可以得到目标对象的情绪识别结果,然后基于情绪识别结果可以进行预警处理。例如,如果发现目标对象情绪非常消极,那么可以优先回复该目标对象,以提升交互的满意度。通过上述方案解决了现有的在实时交互过程不分析对象的情绪而导致的用户体验较差,数据未充分利用的问题,达到了有效提升用户体验,提高数据利用率的技术效果。
本申请的实施例还提供能够实现上述实施例中的文本数据处理方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的文本数据处理方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
步骤1:获取目标对象在实时交互过程中的文本数据;
步骤2:对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;
步骤3:根据所述情绪识别结果进行预警处理。
从上述描述可知,本申请实施例通过在实时交互过程中对目标对象的文本数据进行情绪分析,可以得到目标对象的情绪识别结果,然后基于情绪识别结果可以进行预警处理。例如,如果发现目标对象情绪非常消极,那么可以优先回复该目标对象,以提升交互的满意度。通过上述方案解决了现有的在实时交互过程不分析对象的情绪而导致的用户体验较差,数据未充分利用的问题,达到了有效提升用户体验,提高数据利用率的技术效果。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于硬件+程序类实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
虽然本申请提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、车载人机交互设备、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
虽然本说明书实施例提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或终端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式数据处理环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书实施例的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
以上所述仅为本说明书实施例的实施例而已,并不用于限制本说明书实施例。对于本领域技术人员来说,本说明书实施例可以有各种更改和变化。凡在本说明书实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书实施例的权利要求范围之内。
Claims (14)
1.一种文本数据处理方法,其特征在于,所述方法包括:
获取目标对象在实时交互过程中的文本数据;
对所述文本数据进行情绪分析,确定所述目标对象的情绪识别结果;
根据所述情绪识别结果进行预警处理。
2.根据权利要求1所述的方法,其特征在于,对所述文本数据进行情绪分析,包括:
对所述文本数据进行主客观识别,以获取所述文本数据中的主观内容数据;
对所述主观内容数据进行情绪极性识别,确定所述目标对象的情绪极性;
根据确定的情绪极性对所述主观内容数据进行情绪类别识别。
3.根据权利要求2所述的方法,其特征在于,对所述主观内容数据进行情绪极性识别,确定所述目标对象的情绪极性,包括:
按照目标对象在实时交互过程中的发送连续性,将所述主观内容数据划分为多个数据段;
确定所述多个数据段中各个数据段的情绪极性和极性概率值,其中,情绪极性包括:积极情绪和消极情绪。
4.根据权利要求3所述的方法,其特征在于,在确定所述多个数据段中各个数据段的情绪极性和极性概率值之后,还包括:
根据各个数据段的情绪极性和极性概率值,计算各相邻数据段的情绪波动极性和情绪波动得分,其中,情绪波动极性包括:积极情绪波动和消极情绪波动;
将积极情绪波动的情绪波动得分进行累加,得到积极情绪波动分;
将消极情绪波动的情绪波动得分进行累加,得到消极情绪波动分。
5.根据权利要求4所述的方法,其特征在于,在根据各个数据段的情绪极性和极性概率值,计算各相邻数据段的情绪波动极性和情绪波动得分之后,还包括:
将连续消极情绪波动的情绪波动得分进行累加,得到预警值;
确定所述预警值与预设预警阈值进行比较;
如果超出所述预警阈值,发送预警信息。
6.根据权利要求3所述的方法,其特征在于,根据确定的情绪极性对所述主观内容数据进行情绪类别识别,包括:
对各数据段执行如下操作:
获取与当前数据段的情绪极性关联的细粒度情绪类别集;
对当前数据段进行语义分析;
根据语义分析结果,与关联的细粒度情绪类别集中的各情绪类别进行匹配,以确定出所述当前数据段的情绪类别。
7.根据权利要求2所述的方法,其特征在于,在根据确定的情绪极性对所述主观内容数据进行情绪类别识别之后,还包括:
为识别出的情绪类别匹配可视化数据;
将匹配的可视化数据推送至文本数据接收端。
8.根据权利要求1所述的方法,其特征在于,获取目标对象在实时交互过程中的文本数据包括:
获取所述目标对象在实时交互过程中的语音数据;
将所述语音数据转换为文本数据。
9.根据权利要求1所述的方法,其特征在于,在根据所述情绪识别结果进行预警处理之后,还包括:
对所述文本数据进行情绪分析,确定所述目标对象的情绪极性和极性概率值;
根据所述目标对象的情绪极性和极性概率值,对所述目标对象的交互方进行服务评价。
10.一种文本数据处理方法,其特征在于,所述方法包括:
接收目标对象在实时交互过程中发送的交互数据;
接收服务端通过权利要求1至9中任一项所述的方法对交互数据进行处理生成的预警信息;
显示所述交互数据和预警信息。
11.根据权利要求10所述的方法,其特征在于,显示所述交互数据和预警信息包括:
在显示所述交互数据的页面,通过图像或语音数据,显示所述预警信息。
12.一种文本数据处理方法,其特征在于,所述方法包括:
获取患者在医患沟通过程中的文本数据;
对所述文本数据进行情绪分析,确定所述患者的情绪识别结果;
根据所述情绪识别结果对医生端进行预警处理。
13.一种电子设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求1至9中任一项所述方法的步骤。
14.一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现权利要求1至9中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111066422.5A CN113515636A (zh) | 2021-09-13 | 2021-09-13 | 一种文本数据处理方法、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111066422.5A CN113515636A (zh) | 2021-09-13 | 2021-09-13 | 一种文本数据处理方法、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113515636A true CN113515636A (zh) | 2021-10-19 |
Family
ID=78063260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111066422.5A Pending CN113515636A (zh) | 2021-09-13 | 2021-09-13 | 一种文本数据处理方法、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113515636A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106361356A (zh) * | 2016-08-24 | 2017-02-01 | 北京光年无限科技有限公司 | 情绪监控和预警方法及系统 |
CN106548788A (zh) * | 2015-09-23 | 2017-03-29 | 中国移动通信集团山东有限公司 | 一种智能情绪确定方法及系统 |
CN110516836A (zh) * | 2019-07-05 | 2019-11-29 | 中国平安财产保险股份有限公司 | 基于大数据的智能预警方法、装置、设备及存储介质 |
CN112463967A (zh) * | 2020-12-07 | 2021-03-09 | 携程计算机技术(上海)有限公司 | 情绪预警方法、系统、设备及存储介质 |
-
2021
- 2021-09-13 CN CN202111066422.5A patent/CN113515636A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548788A (zh) * | 2015-09-23 | 2017-03-29 | 中国移动通信集团山东有限公司 | 一种智能情绪确定方法及系统 |
CN106361356A (zh) * | 2016-08-24 | 2017-02-01 | 北京光年无限科技有限公司 | 情绪监控和预警方法及系统 |
CN110516836A (zh) * | 2019-07-05 | 2019-11-29 | 中国平安财产保险股份有限公司 | 基于大数据的智能预警方法、装置、设备及存储介质 |
CN112463967A (zh) * | 2020-12-07 | 2021-03-09 | 携程计算机技术(上海)有限公司 | 情绪预警方法、系统、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
刘高军 等: "基于BGRU-CNN的层次结构微博情感分析", 《北方工业大学学报》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110717325B (zh) | 文本的情感分析方法、装置、电子设备及存储介质 | |
CN106448670B (zh) | 基于深度学习和强化学习的自动回复对话系统 | |
CN112699774B (zh) | 视频中人物的情绪识别方法及装置、计算机设备及介质 | |
CN111190939A (zh) | 一种用户画像构建方法及装置 | |
CN112732911A (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
US11386804B2 (en) | Intelligent social interaction recognition and conveyance using computer generated prediction modeling | |
CN112307351A (zh) | 用户行为的模型训练、推荐方法、装置和设备 | |
CN109599187A (zh) | 一种在线问诊的分诊方法、服务器、终端、设备及介质 | |
CN107016046A (zh) | 基于视觉场景化的智能机器人对话方法及系统 | |
CN112149632A (zh) | 一种视频识别方法、装置及电子设备 | |
CN117390140B (zh) | 基于机器阅读理解的中文方面级情感分析方法及系统 | |
CN115526166A (zh) | 一种图文情感推断方法、系统、存储介质及设备 | |
CN111339940B (zh) | 视频风险识别方法及装置 | |
CN113741759B (zh) | 评论信息的展示方法、装置、计算机设备和存储介质 | |
CN116994188A (zh) | 一种动作识别方法、装置、电子设备及存储介质 | |
Asaad | Review on Deep Learning and Neural Network Implementation for Emotions Recognition | |
CN111062207B (zh) | 表情图像处理方法、装置、计算机存储介质及电子设备 | |
Alaghband et al. | Facial expression phoenix (FePh): an annotated sequenced dataset for facial and emotion-specified expressions in sign language | |
CN112633004A (zh) | 文本标点符号删除方法、装置、电子设备和存储介质 | |
CN112330780A (zh) | 一种生成目标角色的动画表情的方法和系统 | |
CN111800333A (zh) | 会话消息处理方法、装置、计算机可读存储介质及设备 | |
CN116543798A (zh) | 基于多分类器的情感识别方法和装置、电子设备、介质 | |
CN116684688A (zh) | 基于观众情绪的直播模式切换方法及相关装置 | |
CN113515636A (zh) | 一种文本数据处理方法、电子设备 | |
CN113626603B (zh) | 文本分类的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |