CN111651497B - 用户标签挖掘方法、装置、存储介质及电子设备 - Google Patents
用户标签挖掘方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN111651497B CN111651497B CN202010360086.4A CN202010360086A CN111651497B CN 111651497 B CN111651497 B CN 111651497B CN 202010360086 A CN202010360086 A CN 202010360086A CN 111651497 B CN111651497 B CN 111651497B
- Authority
- CN
- China
- Prior art keywords
- data
- corpus
- preset
- analyzing
- answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000005065 mining Methods 0.000 title claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 73
- 238000012545 processing Methods 0.000 claims abstract description 27
- 238000004458 analytical method Methods 0.000 claims description 59
- 230000015654 memory Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 8
- 230000006854 communication Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 15
- 239000012634 fragment Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Fuzzy Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例公开了一种用户标签挖掘方法、装置、存储介质及电子设备,属于数据处理领域。方法包括:服务器获取音频数据,基于语音识别ASR算法将音频数据转成文本数据,对音频数据和文本数据进行分析得到语料集合,语料集合中包括角色数据、上下文逻辑文本数据,基于预训练模型对语料集合和预设标签问题进行分析得到至少一种用户的标签数据,通过此种方式可精确的定位用户标签的位置并得到更全面的用户标签,且上述采集用户标签的方式可移植性强。
Description
技术领域
本申请涉及数据处理领域,尤其涉及一种用户标签挖掘方法、装置、存储介质及电子设备。
背景技术
随着互联网的发展,数据在互联网行业扮演着越来越重要的角色,例如:零售、交通、社交、搜索、教育、医疗等各个行业均涉及大规模的数据挖掘、数据处理,以提供有效服务或提升服务质量。以在线教育为例,在线教育场景中,为了提供更便捷的服务,通过采集包含用户标签的用户画像能够辅助工作人员(如:销售顾问和/或销售人员和/或教师)获取更多与用户(学生和/家长)相关的信息,从而便于及时为用户提供更全面的服务,类似的应用场景在其他领域也较为普遍。
但在相关技术中,通常采用正则表达式和关键词的方式来采集用户标签,采集的方式可移植性较差和容错性较差,且所采集的用户标签不够准确、不够全面。
发明内容
本申请实施例提供了一种用户标签挖掘方法、装置、存储介质及电子设备,可以解决相关技术中采集用户标签的方式存在可移植性较差和容错性较差,且所采集的用户标签不够准确、不够全面的问题。所述技术方案如下:
第一方面,本申请实施例提供了一种用户标签挖掘方法,所述方法包括:
获取音频数据;
基于语音识别ASR算法将所述音频数据转成文本数据;
对所述音频数据和所述文本数据进行分析得到语料集合;其中,所述语料集合中包括角色数据和上下文逻辑文本数据;
基于预训练模型对所述语料集合和预设标签问题进行分析得到至少一种标签数据。
第二方面,本申请实施例提供了一种用户标签挖掘装置,所述用户标签挖掘装置包括:
获取模块,用于获取音频数据;
处理模块,用于基于语音识别ASR算法将所述音频数据转成文本数据;
第一分析模块,用于对所述音频数据和所述文本数据进行分析得到语料集合;其中,所述语料集合中包括角色数据和上下文逻辑文本数据;
第二分析模块,用于基于预训练模型对所述语料集合和预设标签问题进行分析得到至少一种标签数据。
第三方面,本申请实施例提供一种计算机存储介质,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行上述的方法步骤。
第四方面,本申请实施例提供一种电子设备,可包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行上述的方法步骤。
本申请一些实施例提供的技术方案带来的有益效果至少包括:
本申请实施例的方案在执行时,服务器获取音频数据,基于语音识别ASR算法将音频数据转成文本数据,对音频数据和文本数据进行分析得到语料集合,语料集合中包括角色数据和上下文逻辑文本数据,基于预训练模型对语料集合和预设标签问题进行分析得到至少一种用户的标签数据,通过此种方式可精确的定位用户标签的位置并得到更全面的用户标签,且上述采集用户标签的方式可移植性较强。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种系统架构图;
图2是本申请实施例提供的用户标签挖掘方法的流程示意图;
图3是本申请实施例提供的用户标签挖掘方法的另一流程示意图;
图4是本申请实施例提供的一种装置的结构示意图;
图5是本申请实施例提供的一种装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
图1示出了可以应用本申请实施例的用户标签挖掘方法或用户标签挖掘装置的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质,终端设备101、102、103上可以安装有各种通信客户端应用,例如:视频录制应用、视频播放应用、语音交互应用、搜索类应用、及时通信工具、邮箱客户端、社交平台软件等。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。网络104可以包括各种类型的有线通信链路或无线通信链路,例如:有线通信链路包括光纤、双绞线或同轴电缆的,无线通信链路包括蓝牙通信链路、无线保真(WIreless-FIdelity,Wi-Fi)通信链路或微波通信链路等。终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为软件时,可以是安装于上述所列举的电子设备中。其可以实现呈多个软件或软件模块(例如:用来提供分布式服务),也可以实现成单个软件或软件模块,在此不作具体限定。当终端设备101、102、103为硬件时,其上还可以安装有显示设备和摄像头,显示设备显示可以是各种能实现显示功能的设备,摄像头用于采集视频流;例如:显示设备可以是阴极射线管显示器(Cathode raytubedisplay,简称CR)、发光二极管显示器(Light-emitting diode display,简称LED)、电子墨水屏、液晶显示屏(Liquid crystal display,简称LCD)、等离子显示面板(Plasmadisplaypanel,简称PDP)等。用户可以利用终端设备101、102、103上的显示设备,来查看显示的文字、图片、视频等信息。
需要说明的是,本申请实施例提供的用户标签挖掘方法一般由服务器105执行,相应的,用户标签挖掘装置一般设置于服务器105中。服务器105可以是提供各种服务的服务器,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块,在此不做具体限定。
本申请中的服务器105可以为提供各种服务的终端设备,如:服务器获取教学视频,并对教学视频处理得到一个或多个有效语音小片段,基于预设间隔时长对一个或多个有效语音小片段进行分组得到一个或多个长语音片段,分析一个或多个长语音片段获取有效发音时长占比信息,获取一个或多个长语音片段各自对应的一个或多个视频片段,分析一个或多个视频片段获取一个或多个视频片段各自对应的正脸数、笑脸数、正脸占比和笑脸占比,将分析结果和一个或多个视频片段输入至二分类模型进行分类处理得到一个或多个视频片段各自对应的分类结果,分析结果包括有效发音时长占比信息、正脸数、笑脸数、正脸占比和笑脸占比中的至少一种,基于分类结果确定至少一个视频片段作为目标视频片段。
在此需要说明的是,本申请实施例所提供的用户标签挖掘方法可以由终端设备101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的用户标签挖掘装置一般设置于对应终端设备中,和/或,服务器105中,但本申请不限于此。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面将结合附图2至附图3,对本申请实施例提供的用户标签挖掘方法进行详细介绍。在这里需要说明的是,为了方便描述,实施例以在线教育行业为例进行说明,但本领域技术人员明白,本申请的适用并不局限于在线教育行业,本申请所描述的用户标签挖掘方法可以有效应用于互联网各个行业领域。
请参见图2,为本申请实施例提供了一种用户标签挖掘方法的流程示意图。如图2所示,本申请实施例的所述方法可以包括以下步骤:
S201,获取音频数据。
这里的描述以在线教育行业为例,但本领域技术人员明白,本方法的适用并不局限于在线教育行业。一般的,在工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)沟通时,会产生包含用户信息的音频信号,服务器可在工作人员与用户进行沟通时持续获取对应产生的音频信号,或服务器也可在工作人员与用户结束沟通时获取对应的完整音频信号,并对音频信号进行数字化处理获取对应的音频数据。
S202,基于语音识别ASR算法将音频数据转成文本数据。
一般的,ASR(Automatic Speech Recognition,语音识别)算法是以语音为研究对象,终端通过识别和理解将语音信号转变为相应的文本或命令。ASR技术本质上是一种模式识别技术,包括特征提取、模式匹配、训练模式库等三个过程,ASR算法将对输入的语音信号进行预处理后,从中提取语音特征,并基于该语音特征训练模型库,将提取的语音特征与预先存储的语音模板进行比较,进一步根据搜索和匹配策略查询到训练模式库中与输入的语音信号最匹配的模板,基于该模板通过查表的方式可得到ASR算法的识别结果。
ASR系统构建过程主要包括两部分:训练过程和识别过程。训练过程通常是在离线状态下完成的:对预先收集的海量语音信号、语言数据库进行信号处理和知识挖掘,获取ASR系统所需要的“声学模型”和“语言模型”。识别过程通常是在线状态下完成的:对工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)实时的语音信号进行识别,识别过程可以分为“前端”模块和“后端大模块,“前端”模块主用于端点检测(去除多余的静音部分和非说话声音部分))、降噪、特征提取等,“后端”模块用于利用训练好的“声学模型”和“语言模型”对用户说话的特征向量进行统计模式识别(又称“解码”),获取包含的文字信息,此外,后端模块还包括“自适应”的反馈模块,可对工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的语音信号进行自学习,从而对“声学模型”和“语音模型”进行一定的“校正”,进一步提高识别的准确率。
S203,对音频数据和文本数据进行分析得到语料集合。
其中,语料集合是指从工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的音频数据中分析提取出来的语料库,包括角色数据、上下文逻辑文本数据。
一般的,音频数据中不仅包括数字化的音频信号的数据,还包括工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的角色数据,如:对音频数据的频段分析,可初步获得音频频段对应的角色身份信息;也可直接通过分析文本数据获取角色数据。基于语音识别ASR算法对音频数据进行解析后,工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的音频数据将转换成txt等文本格式的数据;基于角色数据可对文本数据进行进一步的分析,梳理符合逻辑的上下文对话的上下文逻辑文本数据,角色数据和上下文逻辑文本数据共同组成语料集合。
S204,基于预训练模型对所述语料集合和预设标签问题进行分析得到至少一种标签数据。
其中,标签数据是用于描述用户(学生和/或家长)特征的数据,不同的用户(学生和/或家长)对应的标签数据不同。标签是用来描述用户特征的数据形式,通过标签可有效扩充用户的分析角度,且通过对不同标签进行解析可实现对数据筛选和分析,如:对用户进行刻画时,可以从“性别”、“年龄”、“地区”、“兴趣爱好”、“学习时间”“产品偏好”、“上课设备”、“学习感受”等角度进行描述,尽可能的扩展分析角度,可更全面、更准确地对分析对象进行全面的刻画。预训练模型是指基于预设数据对深度神经网络Bert模型进行预先训练得到的模型,可对后续输入的语料集合进行类似阅读理解方式的数据分析,最后可输出得到语料集合对应的用户标签数据。预设标签问题是指根据所需要获取的用户标签数据而对应预先设置的问题,语料集合中可包含多种问题,根据预设标签问题可更精确地定位到用户标签数据所在位置,语料集合中包含用户标签数据的问题可与预设标签问题一致,也可与预设标签问题语义相同和/或相似。
深度神经网络Bert(Bidirectional Encoder Representation fromTransformers,基于Transformer双向表征编码)模型,旨在通过联合调解所有层中的上下文来预先训练深度双向表示,故训练的Bert表示可通过额外的输出层进行微调,而不用为特定任务来修改模型结构,即Transformer的双向编码表示来改进基于架构微调的方法,可将Bert模型理解为通用的NLU(Natural Language Understanding)模型,为不同的NLP(Natural Language Processing,自然语言处理)任务提供支持。目前,使用预训练的语言表达形式(language representation)为下游任务提供支持包括两种策略:feature-based方法和fine-tuning方法;feature-based方法需要根据不同任务设定模型结构,将预训练的表达形式当作额外特征使用;fine-tuning方法则是使用尽量少的特定任务参数,在下游具体任务使用时仅需要微调预训练参数即可,Bert模型就属于这种fine-tuning方法。
一般的,基于预训练模型对语料集合中的数据进行分析之前,还需要对预训练模型进行预训练,将预设语料集合和预设标签问题作为输入特征输入至深度神经网络Bert模型中,基于预设标签问题获取预设语料集合中的答案数据,分析该答案数据,并将预设标签数据作为该答案数据的分析结果,预设标签数据为深度神经网络Bert模型的输出特征,基于输入特征和输出特征进行至少一次特征提取训练得到预训练模型。基于预训练模型对语料集合中的数据进行分析后,可得到用户(学生和/或家长)的至少一种标签数据,基于该标签数据可分析得到用户(学生和/或家长)的潜在需求,并能为用户(学生和/或家长)提供更全面的相关服务。
本申请实施例的方案在执行时,服务器获取音频数据,基于语音识别ASR算法将音频数据转成文本数据,对音频数据和文本数据进行分析得到语料集合,语料集合中包括角色数据和上下文逻辑文本数据,基于预训练模型对语料集合和预设标签问题进行分析得到至少一种用户的标签数据,通过此种方式可精确的定位用户标签的位置并得到更全面的用户标签,且上述采集用户标签的方式可移植性较强。
正如前面描述,实施例主要以在线教育行业为例进行了描述,但本领域技术人员明白,本方法的适用并不局限于在线教育行业,例如在零售、交通、社交、搜索、教育、医疗等各个行业的用户标签处理,均可以适用本申请所描述的方法。
请参见图3,为本申请实施例提供了一种用户标签挖掘方法的流程示意图,该用户标签挖掘方法可以包括以下步骤:
S301,获取音频数据。
这里的描述以在线教育行业为例,但本领域技术人员明白,本方法的适用并不局限于在线教育行业。一般的,在工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)沟通时,会产生包含用户信息的音频信号,服务器可在工作人员与用户进行沟通时持续获取对应产生的音频信号,或服务器也可在工作人员与用户结束沟通时获取对应的完整音频信号,并对音频信号进行数字化处理获取对应的音频数据。
S302,基于语音识别ASR算法将音频数据转成文本数据。
一般的,ASR算法是以语音为研究对象,终端通过识别和理解将语音信号转变为相应的文本或命令。ASR技术本质上是一种模式识别技术,包括特征提取、模式匹配、训练模式库等三个过程,ASR算法将对输入的语音信号进行预处理后,从中提取语音特征,并基于该语音特征训练模型库,将提取的语音特征与预先存储的语音模板进行比较,进一步根据搜索和匹配策略查询到训练模式库中与输入的语音信号最匹配的模板,基于该模板通过查表的方式可得到ASR算法的识别结果。
ASR系统构建过程主要包括两部分:训练过程和识别过程。训练过程通常是在离线状态下完成的:对预先收集的海量语音信号、语言数据库进行信号处理和知识挖掘,获取ASR系统所需要的“声学模型”和“语言模型”。识别过程通常是在线状态下完成的:对工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)实时的语音信号进行识别,识别过程可以分为“前端”模块和“后端大模块,“前端”模块主用于端点检测(去除多余的静音部分和非说话声音部分))、降噪、特征提取等,“后端”模块用于利用训练好的“声学模型”和“语言模型”对用户说话的特征向量进行统计模式识别(又称“解码”),获取包含的文字信息,此外,后端模块还包括“自适应”的反馈模块,可对工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的语音信号进行自学习,从而对“声学模型”和“语音模型”进行一定的“校正”,进一步提高识别的准确率。
S303,分析音频数据中包含的角色数据。
其中,音频数据中包括工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的对话内容,角色数据是指对话内容对应的说话者的角色身份信息,工作人员(教师和/或销售顾问和/或销售人员)与用户(学生和/或家长)各自的说话内容不同,通常工作人员(教师和/或销售顾问和/或销售人员)以提出预设固定问题的形式向用户(学生和/或家长)询问,用户(学生和/或家长)则根据自身情况对提出的问题作出相应的回答,同时,工作人员(教师和/或销售顾问和/或销售人员)与用户(学生和/或家长)的说话频段是各不相同的,由此可通过分析音频数据进而分别获得工作人员(教师和/或销售顾问和/或销售人员)与用户(学生和/或家长)的角色数据,以及工作人员(教师和/或销售顾问和/或销售人员)与用户(学生和/或家长)分别对应的沟通内容,便于后续能准确定位提取用户(学生和/或家长)的标签数据。
S304,基于角色数据对文本数据进行逻辑整理得到上下文逻辑文本数据。
其中,上下文逻辑文本数据是指符合逻辑并包含完整的上下文意思的文本数据,可通过对工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的角色数据,以及工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)沟通内容的文本数据进行逻辑整理获得上下文逻辑文本数据,是后续利用预训练模型进行分析的输入数据。
S305,将预设语料集合和预设标签问题作为输入特征输入至深度神经网络Bert模型中。
其中,预设语料集合是用于对深度神经网络Bert模型进训练的语料库,包括预设的角色数据和上下文逻辑文本数据,预设标签问题是指根据所需要获取的用户标签数据而对应预先设置的问题,预设语料集合和/或语料集合中可包含多种问题,根据预设标签问题可更精确地定位到用户标签数据所在位置,预设语料集合和/或语料集合中包含用户标签数据的问题可与预设标签问题一致,也可与预设标签问题语义相同和/或相似,可用于训练深度神经网络Bert模型从预设语料集合中获取用户标签数据所在位置的答案数据,进而分析该答案数据推理得到与之对应的用户标签数据。
深度神经网络Bert模型旨在通过联合调解所有层中的上下文来预先训练深度双向表示,故训练的Bert表示可通过额外的输出层进行微调,而不用为特定任务来修改模型结构,即Transformer的双向编码表示来改进基于架构微调的方法,可将Bert模型理解为通用的NLU(Natural Language Understanding)模型,为不同的NLP(Natural LanguageProcessing,自然语言处理)任务提供支持。目前,使用预训练的语言表达形式(languagerepresentation)为下游任务提供支持包括两种策略:feature-based方法和fine-tuning方法;feature-based方法需要根据不同任务设定模型结构,将预训练的表达形式当作额外特征使用;fine-tuning方法则是使用尽量少的特定任务参数,在下游具体任务使用时仅需要微调预训练参数即可,Bert模型就属于这种fine-tuning方法。
S306,基于预设标签问题获取预设语料集合中的答案数据。
其中,答案数据是指从预设语料集合中查询到与预设标签问题对应的答案,不同的语料集合对应不同的答案数据,该答案数据中包含用户的标签数据,可训练深度神经网络Bert模型基于预设标签问题对预设语料集合中的答案进行查询。
S307,分析答案数据,并将预设标签数据作为答案数据的分析结果
其中,预设标签数据是指根据预设标签问题预先设置的与之对应的标签数据,预设标签问题与预设标签数据分别一一对应,预设标签数据可以是多种。
一般的,从预设语料集合中可查询到与预设标签问题对应的答案数据,答案数据中包含用户的标签数据,将预设标签数据作为该答案数据的分析结果,也即深度神经网络Bert模型的输出特征,训练深度神经网络Bert模型能对语料集合进行阅读理解形式的分析,以得到语料集合中用户的标签数据。
S308,基于输入特征和输出特征进行至少一次特征提取训练得到预训练模型。
其中,输入特征是指预设语料集合中的特征数据,包括预设的角色数据和上下文逻辑文本数据,输出特征是指可作为深度神经网络Bert模型输出结果的标签数据。预训练模型是指基于预设数据对深度神经网络Bert模型进行预先训练得到的模型,可对后续输入的语料集合进行类似阅读理解方式的数据分析,最后可输出得到语料集合对应的用户标签数据。
S309,将语料集合和预设标签问题作为输入特征输入至预训练模型。
其中,语料集合是指从工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的音频数据中分析提取出来的语料库,且语料集合是经过梳理之后具有一定上下文逻辑的语料数据,包括角色数据、上下文逻辑文本数据。音频数据中不仅包括数字化的音频信号的数据,还包括工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的角色数据,如:对音频数据的频段分析,可初步获得音频频段对应的角色身份信息;基于语音识别ASR算法对音频数据进行解析后,工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的音频数据将转换成txt等文本格式的数据;基于角色数据可对文本数据进行进一步的分析,梳理符合逻辑的上下文对话的上下文逻辑文本数据,角色数据和上下文逻辑文本数据共同组成语料集合。
一般的,语料集合中包括工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)语音沟通过程中的角色数据、上下文逻辑文本数据,将语料集合和预设标签问题作为输入特征输入至预训练模型,可通过该预训练模型对语料集合中的角色数据、上下文逻辑文本数据进行充分的上下文理解,进而推理得出用户(学生和/或家长)对应的标签数据。同时,根据预设标签问题可使预训练模型精确地从语料集合中查询到与预设标签问题对应的答案数据,进而能快速获取用户的标签数据。
举例说明:参见表1的语料集合,包括角色数据、上下文逻辑文本数据,在该语料集合中的角色数据包括工作人员(销售顾问和/或销售人员和/或教师)CC与用户(学生和/或家长)Parent,且工作人员CC和用户Parent对应各自的沟通内容,语料集合中的对话数据具有完整的上下文逻辑。预设标签问题包括:“上课时间?”、“接触英语时间”、“上课设备?”。
角色身份 | 对话数据 |
CC | 宝妈您好,孩子有节试听课,安排在什么时间比较合适呢? |
Parent | 今晚六点吧。 |
CC | 宝贝几岁开始接触英语的? |
Parent | 从三岁开始吧! |
CC | 用什么设备上课呢,平板,笔记本还是学习机啊? |
Parent | 笔记本可以吗? |
表1
S310,基于预训练模型提取语料集合中的至少一种问题数据。
其中,问题数据是指工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)语音沟通过程中,工作人员(销售顾问和/或销售人员和/或教师)向用户(学生和/或家长)提出的问题,且与预设标签问题内容和/或表达意思相同和/或相似的问题,问题数据根据工作人员(销售顾问和/或销售人员和/或教师)的提问方式的不同而有所差异,工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)语音沟通过程产生的对话数据还包括除上述问题数据之外的问题数据。
举例说明:请参见表1中的语料集合,通常工作人员(销售顾问和/或销售人员和/或教师)在沟通过程中以询问的方式获取用户的基本信息,可通过预训练模型对该语料集合进行分析,从工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的语音对话数据中提取问题数据:“宝妈您好,孩子有节试听课,安排在什么时间比较合适呢?”,“宝贝几岁开始接触英语的?”,“用什么设备上课呢,平板,笔记本还是学习机啊?”,与预设标签问题:“上课时间?”、“接触英语时间”、“上课设备?相似。
S311,分析至少一种问题数据得到与之对应的角色数据。
一般的,在获取工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)的语音对话数据中的问题数据后,可确定问题数据对应的角色身份信息,即角色数据,进而可分析得到另一角色数据的对话信息。
S312,在基于角色数据查询到另一角色数据时,获取另一角色数据对应的至少一种答案数据。
其中,答案数据是指工作人员(销售顾问和/或销售人员和/或教师)与用户(学生和/或家长)语音沟通过程中,用户(学生和/或家长)针对工作人员(销售顾问和/或销售人员和/或教师)提出的预设标签问题内容作出相应的回答数据,在用户(学生和/或家长)给出的回答比较直接时,可直接从中提取得到用户(学生和/或家长)的答案数据;在用户(学生和/或家长)给出的回答比较隐晦时,可通过对用户(学生和/或家长)回答进行语义分析,进而从对应的语义分析结果中提取得到用户(学生和/或家长)的答案数据。
S313,对至少一种答案数据进行语义识别分析获取语义数据。
一般的,通过语义识别算法计算答案数据与预设文本的语义相似度,如果相似度符合预设条件,则可判断为答案数据与预设文本“相似”,语义识别是编译过程的一个逻辑阶段,语义识别的任务是对结构上正确的源程序进行上下文有关性质的审查,进行类型审查,以此判断当前语义。
S314,分析语义数据获取至少一种标签数据。
其中,标签数据是用于描述用户(学生和/或家长)特征的数据,不同的用户(学生和/或家长)对应的标签数据不同。标签是用来描述用户特征的数据形式,通过标签可有效扩充用户的分析角度,且通过对不同标签进行解析可实现对数据筛选和分析,如:对用户进行刻画时,可以从“性别”、“年龄”、“地区”、“兴趣爱好”、“学习时间”“产品偏好”、“上课设备”、“学习感受”等角度进行描述,尽可能的扩展分析角度,可更全面、更准确地对分析对象进行全面的刻画。
一般的,基于预训练模型对语料集合中的数据进行分析后,可得到用户(学生和/或家长)的至少一种标签数据,基于该标签数据可分析得到用户(学生和/或家长)的潜在需求,并能为用户(学生和/或家长)提供更全面的相关服务。
举例说明:请参见表1中的语料集合,通过预训练模型分析可得到工作人员CC在提问中的问题数据为:“试听课时间”,“接触英语时间”,“上课设备”,基于预训练模型对语料集合进行分析可进一步得到用户Parent针对工作人员CC的提问做出的答案数据为:“今晚六点吧。”,“从三岁开始吧!”,“笔记本可以吗?”,进而对该回答数据进行提取数据处理和/或语义识别分析处理得到对应的标签数据:“六点”,“三岁”,“笔记本”。
本申请实施例的方案在执行时,服务器获取音频数据,基于语音识别ASR算法将音频数据转成文本数据,分析音频数据中包含的角色数据,基于角色数据对文本数据进行逻辑整理得到上下文逻辑文本数据,将预设语料集合和预设标签问题作为输入特征输入至深度神经网络模型中,基于预设标签问题获取预设语料集合中的答案数据,分析答案数据,并将预设标签数据作为答案数据的分析结果,基于输入特征和输出特征进行至少一次特征提取训练得到预训练模型,将语料集合和预设标签问题作为输入特征输入至预训练模型,基于预训练模型提取语料集合中的至少一种问题数据,分析至少一种问题数据得到与之对应的角色数据,在基于角色数据查询到另一角色数据时,获取另一角色数据对应的至少一种答案数据,对至少一种答案数据进行语义识别分析获取语义数据,分析语义数据获取至少一种标签数据,通过此种方式可基于角色数据精确的定位用户标签的位置,并经过充分挖掘后得到更全面的用户标签,且采集用户标签的方式可移植性强。
正如前面描述,实施例主要以在线教育行业为例进行了描述,但本领域技术人员明白,本方法的适用并不局限于在线教育行业,例如在零售、交通、社交、搜索、教育、医疗等各个行业的用户标签处理,均可以适用本申请所描述的方法。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参见图4,其示出了本申请一个示例性实施例提供的用户标签挖掘装置的结构示意图。以下简称装置4,装置4可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分。装置4包括获取模块401、处理模块402、第一分析模块403、第二分析模块404。
获取模块401,用于获取音频数据;
处理模块402,用于基于语音识别ASR算法将所述音频数据转成文本数据;
第一分析模块403,用于对所述音频数据和所述文本数据进行分析得到语料集合;其中,所述语料集合中包括角色数据和上下文逻辑文本数据;
第二分析模块404,用于基于预训练模型对所述语料集合和预设标签问题进行分析得到至少一种标签数据。
可选地,所述装置4还包括:
第一处理单元,用于将预设语料集合和所述预设标签问题作为输入特征输入至深度神经网络Bert模型中;
第二处理单元,用于基于所述预设标签问题获取所述预设语料集合中的答案数据;
执行单元,用于分析所述答案数据,并将所述预设标签数据作为所述答案数据的分析结果;其中,所述预设标签数据为所述深度神经网络Bert模型的输出特征;
第一提取单元,用于基于所述输入特征和所述输出特征进行至少一次特征提取训练得到所述预训练模型。
可选地,所述第二分析模块404包括:
输入单元,用于将所述语料集合和预设标签问题作为输入特征输入至所述预训练模型;
第三处理单元,用于基于所述预训练模型提取所述语料集合中的至少一种问题数据,并分析所述至少一种问题数据得到与之对应的至少一种答案数据;
第一获取单元,用于从所述至少一种答案数据中获取所述至少一种标签数据。
可选地,所述第二分析模块404包括:
第一分析单元,用于对所述至少一种答案数据进行语义识别分析获取语义数据;
第二分析单元,用于分析所述语义数据获取所述至少一种标签数据。
可选地,所述第二分析模块404包括:
第二提取单元,用于基于所述预训练模型提取所述语料集合中的至少一种问题数据;
第三分析单元,用于分析所述至少一种问题数据得到与之对应的角色数据;
第二获取单元,用于在基于所述角色数据查询到另一角色数据时,获取所述另一角色数据对应的所述至少一种答案数据。
可选地,所述第一分析模块403包括:
第四分析单元,用于分析所述音频数据中包含的所述角色数据;
逻辑整理单元,用于基于所述角色数据对所述文本数据进行逻辑整理得到所述上下文逻辑文本数据;其中,所述角色数据和所述上下文逻辑文本数据与所述语料集合对应。
可选地,所述装置4中的所述标签数据包括学习语种年龄数据、学习设备类型数据、学习感受数据、学习时间数据中的至少一种。
需要说明的是,上述实施例提供的装置4在执行用户标签挖掘方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的用户标签挖掘方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
正如前面描述,实施例主要以在线教育行业为例进行了描述,但本领域技术人员明白,本方法的适用并不局限于在线教育行业,例如在零售、交通、社交、搜索、教育、医疗等各个行业的用户标签处理,均可以适用本申请所描述的方法。
图5为本申请实施例提供的一种用户标签挖掘装置结构示意图,以下简称装置5,装置5可以集成于前述服务器或终端设备中,如图5所示,该装置包括:存储器502、处理器501、输入装置503、输出装置504和通信接口。
存储器502可以是独立的物理单元,与处理器501、输入装置503和输出装置504可以通过总线连接。存储器502、处理器501、输入装置503和输出装置504也可以集成在一起,通过硬件实现等。
存储器502用于存储实现以上方法实施例,或者装置实施例各个模块的程序,处理器501调用该程序,执行以上方法实施例的操作。
输入装置502包括但不限于键盘、鼠标、触摸面板、摄像头和麦克风;输出装置包括但限于显示屏。
通信接口用于收发各种类型的消息,通信接口包括但不限于无线接口或有线接口。
可选地,当上述实施例的分布式任务调度方法中的部分或全部通过软件实现时,装置也可以只包括处理器。用于存储程序的存储器位于装置之外,处理器通过电路/电线与存储器连接,用于读取并执行存储器中存储的程序。
处理器可以是中央处理器(central processing unit,CPU),网络处理器(network processor,NP)或者CPU和NP的组合。
处理器还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmablelogic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complexprogrammable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gatearray,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
存储器可以包括易失性存储器(volatile memory),例如存取存储器(random-access memory,RAM);存储器也可以包括非易失性存储器(non-volatile memory),例如快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD);存储器还可以包括上述种类的存储器的组合。
其中,处理器501调用存储器502中的程序代码用于执行以下步骤:
获取音频数据;
基于语音识别ASR算法将所述音频数据转成文本数据;
对所述音频数据和所述文本数据进行分析得到语料集合;其中,所述语料集合中包括角色数据和上下文逻辑文本数据;
基于预训练模型对所述语料集合和预设标签问题进行分析得到至少一种标签数据。
在一个或多个实施例中,处理器501还用于:
将预设语料集合和所述预设标签问题作为输入特征输入至深度神经网络Bert模型中;
基于所述预设标签问题获取所述预设语料集合中的答案数据;
分析所述答案数据,并将所述预设标签数据作为所述答案数据的分析结果;其中,所述预设标签数据为所述深度神经网络Bert模型的输出特征;
基于所述输入特征和所述输出特征进行至少一次特征提取训练得到所述预训练模型。
在一个或多个实施例中,处理器501还用于:
将所述语料集合和所述预设标签问题作为输入特征输入至所述预训练模型;
基于所述预训练模型提取所述语料集合中的至少一种问题数据,并分析所述至少一种问题数据得到与之对应的至少一种答案数据;
从所述至少一种答案数据中获取所述至少一种标签数据。
在一个或多个实施例中,处理器501还用于:
对所述至少一种答案数据进行语义识别分析获取语义数据;
分析所述语义数据获取所述至少一种标签数据。
在一个或多个实施例中,处理器501还用于:
基于所述预训练模型提取所述语料集合中的所述至少一种问题数据;
分析所述至少一种问题数据得到与之对应的角色数据;
在基于所述角色数据查询到另一角色数据时,获取所述另一角色数据对应的所述至少一种答案数据。
在一个或多个实施例中,处理器501还用于:
分析所述音频数据中包含的所述角色数据;
基于所述角色数据对所述文本数据进行逻辑整理得到所述上下文逻辑文本数据;其中,所述角色数据和所述上下文逻辑文本数据与所述语料集合对应。
需要说明的是,上述实施例提供的装置5在执行用户标签挖掘方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的用户标签挖掘方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
正如前面描述,实施例主要以在线教育行业为例进行了描述,但本领域技术人员明白,本方法的适用并不局限于在线教育行业,例如在零售、交通、社交、搜索、教育、医疗等各个行业的用户标签处理,均可以适用本申请所描述的方法。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本申请实施例还提供了一种计算机存储介质,所述计算机存储介质可以存储有多条指令,所述指令适于由处理器加载并执行如上述图2~图3所示实施例的方法步骤,具体执行过程可以参见图2~图3所示实施例的具体说明,在此不进行赘述。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
Claims (6)
1.一种用户标签挖掘方法,其特征在于,所述方法包括:
获取音频数据;
基于语音识别ASR算法将所述音频数据转成文本数据;
对所述音频数据和所述文本数据进行分析得到语料集合;其中,所述语料集合中包括角色数据和上下文逻辑文本数据;
基于预训练模型对所述语料集合和预设标签问题进行分析得到至少一种标签数据;
其中,所述预训练模型的训练过程,包括:
将预设语料集合和所述预设标签问题作为输入特征输入至深度神经网络Bert模型中;
基于所述预设标签问题获取所述预设语料集合中的答案数据;
分析所述答案数据,并将预设标签数据作为所述答案数据的分析结果;其中,所述预设标签数据为所述深度神经网络Bert模型的输出特征;
基于所述输入特征和所述输出特征进行至少一次特征提取训练得到所述预训练模型;
其中,所述基于预训练模型对所述语料集合和预设标签问题进行分析得到至少一种标签数据,包括:
将所述语料集合和所述预设标签问题作为输入特征输入至所述预训练模型;
基于所述预训练模型提取所述语料集合中的至少一种问题数据,并分析所述至少一种问题数据得到与之对应的至少一种答案数据;
从所述至少一种答案数据中获取所述至少一种标签数据;
其中,所述从所述至少一种答案数据中获取所述至少一种标签数据,包括:
对所述至少一种答案数据进行语义识别分析获取语义数据;
分析所述语义数据获取所述至少一种标签数据;
其中,所述基于所述预训练模型提取所述语料集合中的至少一种问题数据,并分析所述至少一种问题数据得到与之对应的至少一种答案数据,包括:
基于所述预训练模型提取所述语料集合中的所述至少一种问题数据;
分析所述至少一种问题数据得到与之对应的角色数据;
在基于所述角色数据查询到另一角色数据时,获取所述另一角色数据对应的所述至少一种答案数据。
2.根据权利要求1所述的方法,其特征在于,所述对所述音频数据和所述文本数据进行分析得到语料集合,包括:
分析所述音频数据中包含的所述角色数据;
基于所述角色数据对所述文本数据进行逻辑整理得到所述上下文逻辑文本数据;其中,所述角色数据和所述上下文逻辑文本数据与所述语料集合对应。
3.根据权利要求1所述的方法,其特征在于,所述标签数据包括学习语种年龄数据、学习设备类型数据、学习感受数据、学习时间数据。
4.一种用户标签挖掘装置,其特征在于,所述装置包括:
获取模块,用于获取音频数据;
处理模块,用于基于语音识别ASR算法将所述音频数据转成文本数据;
第一分析模块,用于对所述音频数据和所述文本数据进行分析得到语料集合;其中,所述语料集合中包括角色数据和上下文逻辑文本数据;
第二分析模块,用于基于预训练模型对所述语料集合和预设标签问题进行分析得到至少一种标签数据;
其中,第一处理单元,用于将预设语料集合和所述预设标签问题作为输入特征输入至深度神经网络Bert模型中;
第二处理单元,用于基于所述预设标签问题获取所述预设语料集合中的答案数据;
执行单元,用于分析所述答案数据,并将预设标签数据作为所述答案数据的分析结果;其中,所述预设标签数据为所述深度神经网络Bert模型的输出特征;
第一提取单元,用于基于所述输入特征和所述输出特征进行至少一次特征提取训练得到所述预训练模型;
其中,所述第二分析模块包括:
输入单元,用于将所述语料集合和预设标签问题作为输入特征输入至所述预训练模型;
第三处理单元,用于基于所述预训练模型提取所述语料集合中的至少一种问题数据,并分析所述至少一种问题数据得到与之对应的至少一种答案数据;
第一获取单元,用于从所述至少一种答案数据中获取所述至少一种标签数据;
其中,所述第二分析模块包括:
第一分析单元,用于对所述至少一种答案数据进行语义识别分析获取语义数据;
第二分析单元,用于分析所述语义数据获取所述至少一种标签数据;
其中,所述第二分析模块包括:
第二提取单元,用于基于所述预训练模型提取所述语料集合中的至少一种问题数据;
第三分析单元,用于分析所述至少一种问题数据得到与之对应的角色数据;
第二获取单元,用于在基于所述角色数据查询到另一角色数据时,获取所述另一角色数据对应的所述至少一种答案数据。
5.一种计算机存储介质,其特征在于,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行如权利要求1~3任意一项的方法步骤。
6.一种电子设备,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如权利要求1~3任意一项的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360086.4A CN111651497B (zh) | 2020-04-30 | 2020-04-30 | 用户标签挖掘方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360086.4A CN111651497B (zh) | 2020-04-30 | 2020-04-30 | 用户标签挖掘方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111651497A CN111651497A (zh) | 2020-09-11 |
CN111651497B true CN111651497B (zh) | 2023-11-14 |
Family
ID=72345536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010360086.4A Active CN111651497B (zh) | 2020-04-30 | 2020-04-30 | 用户标签挖掘方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111651497B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270169B (zh) * | 2020-10-14 | 2023-07-25 | 北京百度网讯科技有限公司 | 对白角色预测方法、装置、电子设备及存储介质 |
CN112163081A (zh) * | 2020-10-14 | 2021-01-01 | 网易(杭州)网络有限公司 | 标签确定方法、装置、介质及电子设备 |
CN112906365A (zh) * | 2021-01-25 | 2021-06-04 | 绿瘦健康产业集团有限公司 | 一种用户画像生成方法、装置、终端设备以及存储介质 |
CN113761938B (zh) * | 2021-09-06 | 2023-12-08 | 上海明略人工智能(集团)有限公司 | 用于训练nlp模型的方法及装置、电子设备、存储介质 |
CN114021060A (zh) * | 2021-11-10 | 2022-02-08 | 北京达佳互联信息技术有限公司 | 一种用户标签展示方法、装置、电子设备及存储介质 |
CN114186559B (zh) * | 2021-12-09 | 2022-09-13 | 北京深维智信科技有限公司 | 一种从销售会话中确定会话主体角色标签的方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107578769A (zh) * | 2016-07-04 | 2018-01-12 | 科大讯飞股份有限公司 | 语音数据标注方法和装置 |
CN109256128A (zh) * | 2018-11-19 | 2019-01-22 | 广东小天才科技有限公司 | 一种根据用户语料自动判定用户角色的方法及系统 |
CN110021308A (zh) * | 2019-05-16 | 2019-07-16 | 北京百度网讯科技有限公司 | 语音情绪识别方法、装置、计算机设备和存储介质 |
CN110136723A (zh) * | 2019-04-15 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 基于语音信息的数据处理方法及装置 |
CN110335595A (zh) * | 2019-06-06 | 2019-10-15 | 平安科技(深圳)有限公司 | 基于语音识别的插问对话方法、装置及存储介质 |
CN110364146A (zh) * | 2019-08-23 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、语音识别设备及存储介质 |
CN110472224A (zh) * | 2019-06-24 | 2019-11-19 | 深圳追一科技有限公司 | 服务质量的检测方法、装置、计算机设备和存储介质 |
CN110782318A (zh) * | 2019-10-21 | 2020-02-11 | 五竹科技(天津)有限公司 | 基于音频交互的营销方法、装置以及存储介质 |
CN110853649A (zh) * | 2019-11-05 | 2020-02-28 | 集奥聚合(北京)人工智能科技有限公司 | 基于智能语音技术的标签提取方法、系统、设备及介质 |
CN111046225A (zh) * | 2019-12-20 | 2020-04-21 | 网易(杭州)网络有限公司 | 音频资源处理方法、装置、设备及存储介质 |
CN111061881A (zh) * | 2019-12-27 | 2020-04-24 | 浪潮通用软件有限公司 | 文本分类方法、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11631236B2 (en) * | 2017-03-14 | 2023-04-18 | Samsung Electronics Co., Ltd. | System and method for deep labeling |
-
2020
- 2020-04-30 CN CN202010360086.4A patent/CN111651497B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107578769A (zh) * | 2016-07-04 | 2018-01-12 | 科大讯飞股份有限公司 | 语音数据标注方法和装置 |
CN109256128A (zh) * | 2018-11-19 | 2019-01-22 | 广东小天才科技有限公司 | 一种根据用户语料自动判定用户角色的方法及系统 |
CN110136723A (zh) * | 2019-04-15 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 基于语音信息的数据处理方法及装置 |
CN110021308A (zh) * | 2019-05-16 | 2019-07-16 | 北京百度网讯科技有限公司 | 语音情绪识别方法、装置、计算机设备和存储介质 |
CN110335595A (zh) * | 2019-06-06 | 2019-10-15 | 平安科技(深圳)有限公司 | 基于语音识别的插问对话方法、装置及存储介质 |
CN110472224A (zh) * | 2019-06-24 | 2019-11-19 | 深圳追一科技有限公司 | 服务质量的检测方法、装置、计算机设备和存储介质 |
CN110364146A (zh) * | 2019-08-23 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、语音识别设备及存储介质 |
CN110782318A (zh) * | 2019-10-21 | 2020-02-11 | 五竹科技(天津)有限公司 | 基于音频交互的营销方法、装置以及存储介质 |
CN110853649A (zh) * | 2019-11-05 | 2020-02-28 | 集奥聚合(北京)人工智能科技有限公司 | 基于智能语音技术的标签提取方法、系统、设备及介质 |
CN111046225A (zh) * | 2019-12-20 | 2020-04-21 | 网易(杭州)网络有限公司 | 音频资源处理方法、装置、设备及存储介质 |
CN111061881A (zh) * | 2019-12-27 | 2020-04-24 | 浪潮通用软件有限公司 | 文本分类方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111651497A (zh) | 2020-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111651497B (zh) | 用户标签挖掘方法、装置、存储介质及电子设备 | |
CN110033659B (zh) | 一种远程教学互动方法、服务器、终端以及系统 | |
US11348476B2 (en) | Personalized learning system and method for the automated generation of structured learning assets based on user data | |
CN110600033B (zh) | 学习情况的评估方法、装置、存储介质及电子设备 | |
US11494161B2 (en) | Coding system and coding method using voice recognition | |
US20050026129A1 (en) | Interactive computerized performance support system and method | |
US20200051451A1 (en) | Short answer grade prediction | |
CN111930792A (zh) | 数据资源的标注方法、装置、存储介质及电子设备 | |
CN110245253B (zh) | 一种基于环境信息的语义交互方法及系统 | |
CN110880324A (zh) | 语音数据的处理方法、装置、存储介质及电子设备 | |
CN108710653B (zh) | 一种绘本朗读点播方法、装置及系统 | |
CN112417158A (zh) | 文本数据分类模型的训练方法、分类方法、装置和设备 | |
CN110867187B (zh) | 语音数据的处理方法、装置、存储介质及电子设备 | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
CN117615182B (zh) | 一种直播互动动态切换方法、系统及终端 | |
CN117349515A (zh) | 搜索处理方法、电子设备和存储介质 | |
Okada et al. | Predicting performance of collaborative storytelling using multimodal analysis | |
CN117252259A (zh) | 基于深度学习的自然语言理解方法及ai助教系统 | |
CN116629236A (zh) | 一种待办事项提取方法、装置、设备及存储介质 | |
CN116543798A (zh) | 基于多分类器的情感识别方法和装置、电子设备、介质 | |
CN111415662A (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN112328871B (zh) | 一种基于rpa模块的回复生成方法、装置、设备及存储介质 | |
Pandey et al. | Interview bot with automatic question generation and answer evaluation | |
CN115171673A (zh) | 一种基于角色画像的交流辅助方法、装置及存储介质 | |
CN209625781U (zh) | 用于亲子教育的双语切换装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |