CN113345575A - 信息生成方法及装置 - Google Patents
信息生成方法及装置 Download PDFInfo
- Publication number
- CN113345575A CN113345575A CN202110590019.6A CN202110590019A CN113345575A CN 113345575 A CN113345575 A CN 113345575A CN 202110590019 A CN202110590019 A CN 202110590019A CN 113345575 A CN113345575 A CN 113345575A
- Authority
- CN
- China
- Prior art keywords
- therapeutic intervention
- text
- sequence
- preset
- technology
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Machine Translation (AREA)
Abstract
本公开实施例公开了一种信息生成方法及装置,首先将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn];将治疗干预技术文本序列L[C1,C2,C3......Cn]输入至预先训练的循环神经网络进行预测,输出序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1;而后将每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m],采用基于目标用户的历史治疗干预技术文本能够快速预测下一阶段的治疗干预技术文本。
Description
技术领域
本公开涉及数据处理技术领域,具体涉及到一种信息生成方法及装置。
背景技术
多个治疗干预技术文本可以组成一个治疗干预线文本,相关技术中,依据历史治疗干预技术文本内容,无法快速预测下一阶段的治疗干预技术文本,从而信息生成效率低。
发明内容
本公开的主要目的在于提供一种信息生成方法及装置,以提高信息生成效率。
为了实现上述目的,根据本公开的第一方面,提供了一种信息生成方法,包括:将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn];将所述治疗干预技术文本序列L[C1,C2,C3......Cn]输入至预先训练的循环神经网络进行预测,输出所述序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1;将治疗干预技术文本序列L[C1,C2,C3......Cn,Cn+1]输入至所述预先训练的循环神经网络中,输出治疗干预技术文本Cn+2;将每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m]。
可选地,方法还包括:在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本,其中,将所述相似治疗干预技术文本作为备选治疗干预技术文本。
可选地,预先训练的循环神经网络的训练过程包括:对每一个预设治疗干预技术文本进行独热编码,得到每一个预设治疗干预技术文本对应的独热向量;基于所述预设治疗干预技术文本对应的独热向量,确定每一个预设治疗干预线文本的序列;将所有的预设治疗干预线文本的序列,输入至预建立的双向循环神经网络中,并且以序列中的最后一个独热向量为实际值,使用交叉熵损失函数计算误差,完成所述网络的参数学习,得到训练完成的网络模型。
可选地,在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本;基于预测得到治疗干预技术文本,在语义向量词典中确定与其对应的目标语义向量;确定与所述目标语义向量相似的相似语义向量,以将所述相似语义向量对应的治疗干预技术文本作为相似治疗干预技术文本。
可选地,方法还包括建立语义向量词典,包括:将预设治疗干预技术的描述文本、所述预设治疗干预技术的成效描述文本作为分类网络的输入;将预设治疗干预技术的描述文本标定为正性类别标签、将所述预设治疗干预技术的成效描述文本标定为负性类别标签;基于所述分类网络的输入、标定的所述正性类别标签、标定的所述负性类别标签,对所述分类网络进行训练;获取训练过程中提取的所述描述文本的注意力向量,并由所述注意力向量组成语义向量词典。
根据本公开的第二方面,提供了一种信息生成装置,包括:排序单元,被配置成将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn];第一预测单元,被配置成将所述治疗干预技术文本序列L[C1,C2,C3......Cn]输入至预先训练的循环神经网络进行预测,输出所述序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1;第二预测单元,被配置成将治疗干预技术文本序列L[C1,C2,C3......Cn,Cn+1]输入至所述预先训练的循环神经网络进行预测,输出治疗干预技术文本Cn+2;循环预测单元,被配置成将每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m]。
装置还包括:确定单元,被配置成在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本,其中,将所述相似治疗干预技术文本作为备选治疗干预技术文本。
预先训练的循环神经网络的训练过程包括:对每一个预设治疗干预技术文本进行独热编码,得到每一个预设治疗干预技术文本对应的独热向量;基于所述预设治疗干预技术文本对应的独热向量,确定每一个预设治疗干预线文本的序列;将所有的预设治疗干预线文本的序列,输入至预建立的双向循环神经网络中,并且以序列中的最后一个独热向量为实际值,使用交叉熵损失函数计算误差,完成所述网络的参数学习,得到训练完成的网络模型。
根据本公开的第三方面,提供了一种计算机可读存储介质,存储有计算机指令,所述计算机指令用于使所述计算机执行第一方面任意一项实施例所述的信息生成方法。
根据本公开的第四方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器执行第一方面任意一项实施例所述的信息生成方法。
在本公开实施例信息生成方法中,首先将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn];将治疗干预技术文本序列L[C1,C2,C3......Cn]输入至预先训练的循环神经网络进行预测,输出序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1;而后将每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m],采用基于目标用户的历史治疗干预技术文本能够快速预测当前治疗干预技术文本,提高了信息生成效率。。
附图说明
为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本公开信息生成方法的一个实施例流程图;
图2是本公开信息生成方法的另一个实施例流程图;
图3是本公开实施例信息生成装置的结构示意图;
图4是根据本公开实施例的电子设备的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本公开方案,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分的实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
根据本公开实施例,提供了一种信息生成方法,如图1所示,该方法包括如下的步骤101至步骤104:
步骤101:将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn]。
在本实施例中,治疗干预技术文本可以包括79种类别的文本内容,例如,“满灌不确定性”文本、“区别想法和事实”文本、“识别潜在假设或规则”文本、“发展新的适应性标准和假设”文本、“否定问题”文本等等。
具体地,在实际场景中不同的咨询阶段需要给予不同的治疗干预技术,且不同治疗干预技术的时间的先后排序,会得到不同的治疗干预线。而不同的治疗干预线的优秀程度并不相同。
针对同一心理咨询者,为了预测出较为优秀的治疗干预线文本,可以从该咨询者档案中获取该咨询者的历史治疗干预技术文本,并将历史治疗干预技术文本按照时间先后顺序排序,以预测下一阶段的治疗干预技术文本。
为了便于理解,治疗干预技术文本可以用C来表示,79种治疗干预技术文本中的任一种治疗干预技术文本可以用Cx表示,将心理咨询者的治疗干预技术文本按照时间先后排序后,可以得到治疗干预技术文本序列L[C1,C2,C3......Cn]。
步骤102:将所述治疗干预技术文本序列L[C1,C2,C3......Cn]输入至预先训练的循环神经网络进行预测,输出所述序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1。
在本实施例中,预先训练的循环神经网络可以是预训练的双向循环神经网络,该预训练的双向循环神经网络可以基于历史治疗干预技术文本序列预测出下一个阶段的治疗干预技术文本Cn+1。例如,历史治疗干预技术文本依次是“满灌不确定性”文本、“区别想法和事实”文本,那么经过双向循环神经网络进行预测后,下一个治疗干预技术文本可以是“识别潜在假设或规则”文本。再例如,历史治疗干预技术文本是“区别想法和事实”文本,那么预测出的下一个治疗干预技术文本可以是“满灌不确定性”文本,在此之后的下一次预测的治疗干预技术文本可以是“识别潜在假设或规则”文本。
预训练的双向循环神经网络可以对输入的至少一个治疗干预技术文本之间的顺序、治疗干预技术文本的特征词进行识别,从而可以基于目前的治疗干预技术的组合方式,确定下一个阶段的治疗干预技术文本。
作为本实施例一种可选的实现方式,预先训练的循环神经网络的训练过程包括:对每一个预设治疗干预技术文本进行独热编码,得到每一个预设治疗干预技术文本对应的独热向量;基于所述预设治疗干预技术文本对应的独热向量,确定每一个预设治疗干预线文本的序列;将所有的预设治疗干预线文本的序列,输入至预建立的双向循环神经网络中,并且以序列中的最后一个独热向量为实际值,使用交叉熵损失函数计算误差,完成所述网络的参数学习,得到训练完成的网络模型。
具体地,双向循环神经网络(又称Bi-LSTM),LSTM的全称是Long Short-TermMemory,它是RNN(Recurrent Neural Network)的一种。LSTM由于其设计的特点,非常适合用于对时序数据的建模,如文本数据。BiLSTM是Bi-directional Long Short-Term Memory的缩写,是由前向LSTM与后向LSTM组合而成。Bi-LSTM在自然语言处理任务中都常被用来建模上下文信息。
针对L[C1,C2,C3......Cn],将各个干预技术文本的one-hot编码按照从左到右依次输入到了一个LSTM层,依次获得状态向量组l[h1, h2……hn]。将上述治疗干预技术文本的one-hot编码按照从右到左输入另一个LSTM伸进网络,获得r[hn, hn-1, …… h1]的隐状态向量组。将两组隐向量组l、r进行首位拼接,获得了2n*1的张量T。将T输入到一个LSTM+MLP全连接层,进行softmax(软最大化),来预测下一个序列L中的下一项治疗干预技术文本。
使用交叉熵损失函数计算误差时,交叉熵损失函数用于训练上述Bi-LSTM中的网络参数。交叉熵(Cross Entropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息。
针对L[C1,C2,C3......Cn],将上C1的首尾拼接隐状向量,右向左向量r[hl],左向有向量r[h1]向量输入到一个LSTM,预测治疗方案中下一个为C2,那么正确的分类是[0,0,0, 0,……,1,0],其中,也就是C2在0ne-hot编码表中的编码。那么,交叉熵损失函数就是-1logP,其中,P表示当前softmax层中C2类别的实际概率值。 通过将P概率值极大化,来实现交叉熵损失函数最小。也就是,样本L子序列[C1、C2]的交叉熵损失是C2对应标签(one-hot表示1的位置)的概率的负对数。这个损失函数的误差值经反向传播到上述各LSTM循环神经网络、MLP多层感知机中网络参数,进行参数调整,完成网络的训练。
在本实施例中,治疗干预线是由1个或者多个治疗干预技术组合而成。例如,某机构根据过往咨询案例资料,提供了79个治疗干预技术(为了便于区分设定为C1、C2、C3……),对咨询案例资料预处理后,可以得到任一治疗干预技术的组合方式。如一例认知技术C3是“满灌不确定性”,其组在处理后的咨询案例历史记录中,曾出现了“C1C2C3”、“C3C6C5"、“C7C3C8”、“C3<END>”……等1个或多个治疗干预技术组成的治疗干预线,单独使用的治疗干预技术可以以<END>标识结尾。
具体地,可以首先对每一个治疗干预技术进行one-hot编码,以使每一个治疗干预技术文本表示为一个独热向量C,例如,向量C可以是[0,0,1,0,......],那么由治疗干预技术文本组成的一个治疗干预线可以表示一个由独热向量组合的向量序列,例如L[C1,C2,C3,......]。也即,每一个预设治疗干预线文本由一个或多个预设治疗干预技术文本组成,每一个预设治疗干预线文本的序列包括一个或多个独热向量。
更具体地,在将所有的治疗干预线转换序列后,可以将其输入到双向神经网络中进行深度学习,学习过程可以是以向量序列中的最后一个向量为实际值,使用交叉熵损失函数计算误差,完成网络参数的学习。在网络训练过程中可以是同时训练多组模型,每组可训练 20次、 30次、 或50次等, 对于预测出的治疗干预技术文本组成的序列,可以由专家组审核打分(例如,对输出的治疗干预技术文本组成的治疗干预线进行打分),将分值最高治疗干预线文本所对应的模型确定为最终训练完成的模型,由上述训练过程可知,本实施例对于双向循环神经网络的训练过程并不以损失函数绝对的数值大小为追求目的。通过上述训练过程对双向循环神经网络进行训练,并由专家组对网络输出的结果进行打分,可以得到最优秀的预测模型,进而可以得到最专业、最优的治疗干预线文本。
步骤103:将治疗干预技术文本序列L[C1,C2,C3......Cn,Cn+1]输入至所述预先训练的循环神经网络进行预测,输出治疗干预技术文本Cn+2。
在本实施例中,在步骤102得到预测的治疗干预技术文本Cn+1后,可以将其组成的治疗干预技术文本序列L[C1,C2,C3......Cn,Cn+1]再次输入至预先训练的双向循环神经网络中进行预测,得到Cn+1下一个阶段的治疗干预技术文本Cn+2。
步骤104:将每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m]。
在本实施例中,将每一次预测输出的治疗干预技术文本再次输入至预先训练的循环神经网络中,得到后一阶段的预测结果文本,直到执行预设次数m次后,将执行完毕得到的治疗干预技术文本组成的序列确定为治疗干预线文本L[C1,C2,C3......Cn,Cn+1,......Cn+m]。
可以理解的是,预设次数m可以是大于等于1的自然数,如果m取值为2,那么步骤103便不再执行。
本实施例的上述应用场景仅仅是示意性的,根据实现需要,本实施例的预测模型可以应用与任何通过连续性实施技术手段,从而达到某种目的的应用场景中。
上述实施例基于目标用户的历史治疗干预技术文本预测得到优秀的治疗干预线文本。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本公开还提供了一种信息生成方法另一实施例,如图2所示,包括步骤201:
步骤201:将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn]。
步骤202:将所述治疗干预技术文本序列输入至预先训练的循环神经网络进行预测,输出所述序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1。
步骤204:将治疗干预技术文本序列L[C1,C2,C3......Cn,Cn+1]输入至所述预先训练的循环神经网络中,输出治疗干预技术文本Cn+2。
每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m]。
本实施例中的步骤201至步骤204与步骤101至步骤104的实施例相同,在此不在赘述。
步骤205:在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本,其中,将所述相似治疗干预技术文本作为备选治疗干预技术文本。
在本实施例中,解决了实际应用场景中,治疗干预线文本固话,缺少多样性,无法预测备选治疗干预线文本。
如步骤202和步骤203,在每一次得到治疗干预技术文本之后,可从数据库中直接确定存储的与其相似的相似治疗干预技术文本。也可以在预建立的语义向量词典中确定与其相似的相似治疗干预技术文本。
作为本实施例一种可选的实现方式,在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本;基于预测得到治疗干预技术文本,在语义向量词典中确定与其对应的目标语义向量;确定与所述目标语义向量相似的相似语义向量,以将所述相似语义向量对应的治疗干预技术文本作为相似治疗干预技术文本。
在本可选的实现方式中,语义向量表达词典中存储了每一个治疗干预技术的描述文本的特征(描述文本可以包括:治疗干预技术是什么的描述文本,治疗过程是什么的描述文本)、还存储了每一个治疗干预技术的治疗预期成效描述文本的特征(成效描述文本可以包括咨询师的谈话反馈文本),通过包括每一个治疗干预技术的治疗预期成效描述文本的特征,增强了对治疗干预技术的特征描述的信息向量。
基于预建立的语义向量词典,可以通过特征匹配的方式确定相似治疗干预技术文本,该相似治疗干预技术作为备选治疗干预技术可以为心理咨询师提供潜在的治疗干预技术文本、及基于潜在的治疗干预技术文本组成的治疗干预线文本。进而避免了治疗干预线模式固化,忽略潜在备选优化项目的可能性的技术缺陷。
作为本实施例一种可选的实现方式,在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本;基于预测得到治疗干预技术文本,在语义向量词典中确定与其对应的目标语义向量;确定与所述目标语义向量相似的相似语义向量,以将所述相似语义向量对应的治疗干预技术文本作为相似治疗干预技术文本。
在本可选的实现方式中,在每一次预测得到治疗干预技术文本后,可以首先从存储表中确定该治疗干预技术对应的目标描述性文本,例如,治疗干预技术为“满贯不确定性”文本,那么其对应的目标描述性文本可以包括:“适用人群事对未来不确定事件感到焦虑的人”文本内容、“功能用于矫正用户对不确定时间发生概率的认知,通过满贯疗法,让用户快速暴露在不确定感中,从而逐步形成对不确定事件的习惯化、“效果是帮助用户觉察自己应对不确定时间的能力,逐步接纳客观存在的不确定性,进而降低由不确定感引发的焦虑水平”、“步骤是焦虑水平前测、估算实际事件概率、为此焦虑的成本与效益分析、以往应对经验、满贯不确定性”。可以利用特征提取手段提取出语义特征,而后利用特征匹配手段,在语义向量词典中确定与其对应的目标语义向量,具体可以是使用cosine余弦相似度进行数值计算,获得数值高的前5个目标语义向量,其对应的治疗干预技术,可作为备选的治疗干预技术文本。
作为本实施例一种可选的实现方式,方法还包括建立语义向量表达词典,包括:将预设治疗干预技术的描述文本、所述预设治疗干预技术的成效描述文本作为分类网络的输入;将预设治疗干预技术的描述文本标定为正性类别标签、将所述预设治疗干预技术的成效描述文本标定为负性类别标签;基于所述分类网络的输入、标定的所述正性类别标签、标定的所述负性类别标签,对所述分类网络进行训练;获取训练过程中提取的所述描述文本的注意力向量,并由所述注意力向量组成语义向量表达词典。
在本可选的实现方式中,预设治疗干预技术的描述文本、成效描述文本可以从大量咨询案例资料中获取,例如,案例中关于“漫灌不确定性”的描述文本、和预期成效描述文本可以包括:“其实,每个人对未来不确定的事情都会感到担忧,但如果长期处于这样的担忧中,我们的正常生活也会逐渐受到影响。通过刚刚的谈话,相信你也发现了,你担心的那个结果只是事件发展的其中一种可能性,并不是百分之百会发生。想想看,如果我们去担心生活中的每个不确定,会有哪些坏处呢,很好!刚开始会有些困难,甚至可能让你有些不舒服。别担心,跟着我慢慢地练习,相信你一定可以做到。嗯,对于日常生活中的不确定事件,你可以试着用这样的方式,让自己慢慢接受它,慢慢平静下来,然后提前做一些准备来应对可能出现的状况。”等段落的汇总。
具体地,可以在训练分类器的过程中建立语义向量词典。可以首先获取预设治疗干预技术文本的内容,并对文本内容进行标定,将预设治疗干预技术的描述文本标定为正性类别标签,将预设治疗干预技术的成效描述文本标定为负性类别标签,而后训练分类器,以区分不同类别的标签。在训练过程中抽取治疗干预技术的语义向量,组成语义向量词典。
具体地,训练分类器地过程可以包括将上述预设治疗干预技术的描述文本、和治疗预期成效描述文本转换为词向量序列,可以通过分词、词向量化、词向量序列化过程实现,例如,将上述的文本内容进行拆分,随机打乱,对文本分词,“……担忧/是/存在/发生/的/可能性/的,只有/用/可能性/极小/来/减轻/担忧……”,使用开源词嵌入、词向量数据库,转化为实密词向量序列S,这是一个元素为向量的数组结构,[w1、w2、w3……],其中w表示某一个词的向量。可以将词向量序列输入至一个双向循环神经网络中,以对描述文本进行特征提取得到描述文本的正向文本向量和反向文本向量;而后在对所述正向文本向量和所述反向文本向量拼接后,将拼接向量输入至注意力网络中,得到注意力向量,注意力网络用于自动学习文本描述中的关键词、情绪词等重点语义;将注意力向量作为全连接网络的输入,以标定的正性和负性为目标,对网络参数进行训练,激活函数使用softmax,负性数值为0,正性数值为1,使用交叉熵损失,来完成网络参数的训练。在此过程中提取注意力网络向全连接网络中的输出向量,得到语义向量词典。该训练过程完成了双向循环神经网络(不同于步骤102中的神经网络)、注意力层、全连接层的参数化。
步骤205:将所述相似治疗干预技术文本作为备选治疗干预技术文本。
在本实施例中,可以将步骤204确定相似治疗干预技术文本确定为备选治疗干预技术文本。
由于CBT认知行为疗法使用中,心理咨询师提供个人单一设计治疗干预线模式,存在主观经验依赖、决策路径依赖等风险,缺乏专家会诊和集体智慧共识输出治疗干预线多样性,辅助提供自动化治疗干预线潜在优化项目。本实施例融合了诊断案例、不同咨询个体、不同咨询师的等隐形知识数据,自动发现、拓展、优化了下一步序贯治疗的备选治疗干预技术,充分使用了多角色的集体智慧共识。为咨询者提供潜在、多样、丰富、可优化的治疗干预项目。
本公开实施例提供了一种信息生成装置,包括:排序单元301,被配置成将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn];第一预测单元302,被配置成将所述治疗干预技术文本序列L[C1,C2,C3......Cn]输入至预先训练的循环神经网络进行预测,输出所述序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1;第二预测单元303,被配置成将治疗干预技术文本序列L[C1,C2,C3......Cn,Cn+1]输入至所述预先训练的循环神经网络进行预测,输出治疗干预技术文本Cn+2;循环预测单元304,被配置成将每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m]。
作为本实施例一种可选的实现方式,装置还包括:确定单元,被配置成在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本,其中,将所述相似治疗干预技术文本作为备选治疗干预技术文本。
作为本实施例一种可选的实现方式,预先训练的循环神经网络的训练过程包括:对每一个预设治疗干预技术文本进行独热编码,得到每一个预设治疗干预技术文本对应的独热向量;基于所述预设治疗干预技术文本对应的独热向量,确定每一个预设治疗干预线文本的序列;将所有的预设治疗干预线文本的序列,输入至预建立的双向循环神经网络中,并且以序列中的最后一个独热向量为实际值,使用交叉熵损失函数计算误差,完成所述网络的参数学习,得到训练完成的网络模型。
本公开实施例提供了一种电子设备,如图4所示,该电子设备包括一个或多个处理器41以及存储器42,图4中以一个处理器41为例。
该控制器还可以包括:输入装置43和输出装置44。
处理器41、存储器42、输入装置43和输出装置44可以通过总线或者其他方式连接,图4中以通过总线连接为例。
处理器41可以为中央处理器(CentralProcessingUnit,CPU)。处理器41还可以为其他通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现场可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器42作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本公开实施例中的控制方法对应的程序指令/模块。处理器41通过运行存储在存储器42中的非暂态软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的信息生成方法。
存储器42可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据服务器操作的处理装置的使用所创建的数据等。此外,存储器42可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器42可选包括相对于处理器41远程设置的存储器,这些远程存储器可以通过网络连接至网络连接装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置43可接收输入的数字或字符信息,以及产生与服务器的处理装置的用户设置以及功能控制有关的键信号输入。输出装置44可包括显示屏等显示设备。
一个或者多个模块存储在存储器42中,当被一个或者多个处理器41执行时,执行如图1所示的方法。
本领域技术人员可以理解,实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各电机控制方法的实施例的流程。其中,存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)、随机存储记忆体(RandomAccessMemory,RAM)、快闪存储器(FlashMemory)、硬盘(HardDiskDrive,缩写:HDD)或固态硬盘(Solid-StateDrive,SSD)等;存储介质还可以包括上述种类的存储器的组合。
虽然结合附图描述了本公开的实施方式,但是本领域技术人员可以在不脱离本公开的精神和范围的情况下作出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (10)
1.一种信息生成方法,其特征在于,包括:
将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn];
将所述治疗干预技术文本序列L[C1,C2,C3......Cn]输入至预先训练的循环神经网络进行预测,输出所述序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1;
将治疗干预技术文本序列L[C1,C2,C3......Cn,Cn+1]输入至所述预先训练的循环神经网络中,输出治疗干预技术文本Cn+2;
将每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m]。
2.根据权利要求1所述的信息生成方法,其特征在于,所述方法还包括:
在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本,其中,将所述相似治疗干预技术文本作为备选治疗干预技术文本。
3.根据权利要求1所述的信息生成方法,其特征在于,所述预先训练的循环神经网络的训练过程包括:
对每一个预设治疗干预技术文本进行独热编码,得到每一个预设治疗干预技术文本对应的独热向量;
基于所述预设治疗干预技术文本对应的独热向量,确定每一个预设治疗干预线文本的序列;
将所有的预设治疗干预线文本的序列,输入至预建立的双向循环神经网络中,并且以序列中的最后一个独热向量为实际值,使用交叉熵损失函数计算误差,完成所述网络的参数学习,得到训练完成的网络模型。
4.根据权利要求2所述的信息生成方法,其特征在于,所述在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本;
基于预测得到治疗干预技术文本,在语义向量词典中确定与其对应的目标语义向量;
确定与所述目标语义向量相似的相似语义向量,以将所述相似语义向量对应的治疗干预技术文本作为相似治疗干预技术文本。
5.根据权利要求4所述的信息生成方法,其特征在于,所述方法还包括建立语义向量词典,包括:
将预设治疗干预技术的描述文本、所述预设治疗干预技术的成效描述文本作为分类网络的输入;
将预设治疗干预技术的描述文本标定为正性类别标签、将所述预设治疗干预技术的成效描述文本标定为负性类别标签;
基于所述分类网络的输入、标定的所述正性类别标签、标定的所述负性类别标签,对所述分类网络进行训练;
获取训练过程中提取的所述描述文本的注意力向量,并由所述注意力向量组成语义向量词典。
6.一种信息生成装置,其特征在于,包括:
排序单元,被配置成将目标用户的至少一个治疗干预技术文本按照时间先后排序,得到治疗干预技术文本序列L[C1,C2,C3......Cn];
第一预测单元,被配置成将所述治疗干预技术文本序列L[C1,C2,C3......Cn]输入至预先训练的循环神经网络进行预测,输出所述序列中最后一个元素Cn的下一个治疗干预技术文本Cn+1;
第二预测单元,被配置成将治疗干预技术文本序列L[C1,C2,C3......Cn,Cn+1]输入至所述预先训练的循环神经网络进行预测,输出治疗干预技术文本Cn+2;
循环预测单元,被配置成将每一次得到的治疗干预技术文本序列输入至所述预先训练的循环神经网络进行预测,循环执行预设次数m次后,得到治疗干预技术文本组成的序列L[C1,C2,C3......Cn,Cn+1,......Cn+m]。
7.根据权利要求6所述的信息生成装置,其特征在于,所述装置还包括:
确定单元,被配置成在每一次预测得到治疗干预技术文本后,确定与其相似的相似治疗干预技术文本,其中,将所述相似治疗干预技术文本作为备选治疗干预技术文本。
8.根据权利要求6所述的信息生成装置,其特征在于,所述预先训练的循环神经网络的训练过程包括:
对每一个预设治疗干预技术文本进行独热编码,得到每一个预设治疗干预技术文本对应的独热向量;
基于所述预设治疗干预技术文本对应的独热向量,确定每一个预设治疗干预线文本的序列;
将所有的预设治疗干预线文本的序列,输入至预建立的双向循环神经网络中,并且以序列中的最后一个独热向量为实际值,使用交叉熵损失函数计算误差,完成所述网络的参数学习,得到训练完成的网络模型。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行权利要求1-5任意一项所述的信息生成方法。
10.一种电子设备,其特征在于,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器执行权利要求1-5任意一项所述的信息生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110590019.6A CN113345575B (zh) | 2021-05-28 | 2021-05-28 | 信息生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110590019.6A CN113345575B (zh) | 2021-05-28 | 2021-05-28 | 信息生成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113345575A true CN113345575A (zh) | 2021-09-03 |
CN113345575B CN113345575B (zh) | 2022-07-15 |
Family
ID=77472548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110590019.6A Active CN113345575B (zh) | 2021-05-28 | 2021-05-28 | 信息生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113345575B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108563624A (zh) * | 2018-01-03 | 2018-09-21 | 清华大学深圳研究生院 | 一种基于深度学习的自然语言生成方法 |
CN110110331A (zh) * | 2019-04-30 | 2019-08-09 | 清华大学 | 文本生成方法、装置、介质和计算设备 |
US20210027018A1 (en) * | 2019-07-22 | 2021-01-28 | Advanced New Technologies Co., Ltd. | Generating recommendation information |
-
2021
- 2021-05-28 CN CN202110590019.6A patent/CN113345575B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108563624A (zh) * | 2018-01-03 | 2018-09-21 | 清华大学深圳研究生院 | 一种基于深度学习的自然语言生成方法 |
CN110110331A (zh) * | 2019-04-30 | 2019-08-09 | 清华大学 | 文本生成方法、装置、介质和计算设备 |
US20210027018A1 (en) * | 2019-07-22 | 2021-01-28 | Advanced New Technologies Co., Ltd. | Generating recommendation information |
Also Published As
Publication number | Publication date |
---|---|
CN113345575B (zh) | 2022-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shen et al. | Improving variational encoder-decoders in dialogue generation | |
CN108763284B (zh) | 一种基于深度学习和主题模型的问答系统实现方法 | |
CN108416065B (zh) | 基于层级神经网络的图像-句子描述生成系统及方法 | |
CN112435656B (zh) | 模型训练方法、语音识别方法、装置、设备及存储介质 | |
CN110796160B (zh) | 一种文本分类方法、装置和存储介质 | |
Sojasingarayar | Seq2seq ai chatbot with attention mechanism | |
CN113435211B (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN111858931A (zh) | 一种基于深度学习的文本生成方法 | |
Chen et al. | Delving deeper into the decoder for video captioning | |
CN110991190B (zh) | 一种文档主题增强系统、文本情绪预测系统和方法 | |
CN111400461B (zh) | 智能客服问题匹配方法及装置 | |
CN115599901B (zh) | 基于语义提示的机器问答方法、装置、设备及存储介质 | |
CN109857865B (zh) | 一种文本分类方法及系统 | |
Chi et al. | Speaker role contextual modeling for language understanding and dialogue policy learning | |
CN114911932A (zh) | 基于主题语义增强的异构图结构多会话者情感分析方法 | |
CN110399472B (zh) | 面试提问提示方法、装置、计算机设备及存储介质 | |
CN113704419A (zh) | 对话处理方法及装置 | |
Zhou et al. | ICRC-HIT: A deep learning based comment sequence labeling system for answer selection challenge | |
CN110942774A (zh) | 一种人机交互系统、其对话方法、介质和设备 | |
CN111046157B (zh) | 一种基于平衡分布的通用英文人机对话生成方法和系统 | |
CN115935975A (zh) | 一种情感可控的新闻评论生成方法 | |
CN116341519A (zh) | 基于背景知识的事件因果关系抽取方法、装置及存储介质 | |
CN112364659B (zh) | 一种无监督的语义表示自动识别方法及装置 | |
CN112560440A (zh) | 一种基于深度学习的面向方面级情感分析的句法依赖方法 | |
CN111241843B (zh) | 基于复合神经网络的语义关系推断系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |