CN115132208A - 一种基于ctc算法构建的人工智能催收方法 - Google Patents

一种基于ctc算法构建的人工智能催收方法 Download PDF

Info

Publication number
CN115132208A
CN115132208A CN202210801766.4A CN202210801766A CN115132208A CN 115132208 A CN115132208 A CN 115132208A CN 202210801766 A CN202210801766 A CN 202210801766A CN 115132208 A CN115132208 A CN 115132208A
Authority
CN
China
Prior art keywords
data
character
sequence
sentence
approximate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210801766.4A
Other languages
English (en)
Inventor
陈德泉
杨成林
徐捷
龚潇雨
杨百通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Sanxiang Bank Co Ltd
Original Assignee
Hunan Sanxiang Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Sanxiang Bank Co Ltd filed Critical Hunan Sanxiang Bank Co Ltd
Priority to CN202210801766.4A priority Critical patent/CN115132208A/zh
Publication of CN115132208A publication Critical patent/CN115132208A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开一种基于CTC算法构建的人工智能催收方法,获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据,根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据,实现提高噪音环境下CTC算法语音转换文字准确率的效果,以解决由于杂音较多,导致CTC直接输出序列预测的结果不准确的问题。

Description

一种基于CTC算法构建的人工智能催收方法
技术领域
本发明涉及科技金融技术领域,尤其涉及一种基于CTC算法构建的人工智能催收方法。
背景技术
CTC算法全称叫:Connectionist temporal classification。简称语音识别的声学模型训练,对于音频每一帧的数据,需要知道对应的模型才能进行有效的训练,在训练数据之前需要做语音对齐的预处理。而语音对齐的过程本身就需要进行反复多次的迭代,来确保对齐更准确,这本身就是一个比较耗时的工作,语音识别转化文字数据准确度较低。
但在实际使用中,需要识别的音频信息通常含有大量的杂音,杂音会对CTC算法的准确性造成严重的影响,例如,当人说出hello时,现有的方式是通过采用CTC作为损失函数的声学模型训练,是一种完全端到端的声学模型训练,不需要预先对数据做对齐,只需要一个输入序列和一个输出序列即可以训练。这样就不需要对数据对齐和一一标注,并且CTC直接输出序列预测的概率,在银行使用CTC的过程中,由于应用场景是电话催收场景,被催收人接到催收电话时的所在位置不可控,有些被催收人在室外,催收系统采集的语音数据中含着大量的杂音,由于杂音较多,导致CTC直接输出序列预测的结果不准确。
发明内容
本发明的目的在于提供一种基于CTC算法构建的人工智能催收方法,以解决由于杂音较多,导致CTC直接输出序列预测的结果不准确的问题。
第一方面,本发明提供一种基于CTC算法构建的人工智能催收方法,包括:
获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据;
将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据;
根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列;
调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据;
将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据。
进一步地,获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据,包括;
所述获取语音通话音频数据,对所述语音通话音频数据根据频率划分为室外语音通话音频数据、室内语音音频数据、重度噪音干扰型语音音频数据;
将所述室外语音通话音频数据、所述室内语音音频数据、所述重度噪音干扰型语音音频数据依次匹配所述预先设定的去除噪音模型,所述预先设定的去除噪音模型包括,室外语音降噪模型、室内语音降噪模型,得到降到模型匹配结果;
将所述室外语音通话音频数据、所述室内语音音频数据、所述重度噪音干扰型语音音频数据依次带入对应的预先设定的去除噪音模型,得到去噪数据以及噪音数据。
进一步地,将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据,包括:
将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据;
将所述去噪转化文字数据进行断词,得到对应的断词数据,
对所述断词数据带入数据库比对,得到断词近似词组序列;
通过所述对应的断词数据与所述断词近似词组序列比对,生成待改正文字数据。
进一步地,根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列,包括:
将所述待改正文字数据进行文字特征提取,所述文字特征提取包括词组构成元素,以及词读音元素,得到待检索特征数据;
根据待检索特征数据在数据库内完成近似文字数据检索,得到检索结果;
通过所述检索结果在数据库内调取近似文字数据,生成近似转换文字序列。
进一步地,调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据,包括:
将所述去噪转换文字数据进行断句处理,得到断句数据;
对所述断句数据进行排序处理并建立数字标签,将所述待改正文字数据与所述断句数据匹配,得到基础断句标签;
根据基础断句标签提取所述待改正文字数据前句数据以及后句数据;
将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据。
进一步地,将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据,包括:
所述预设语义模型包括常规催收语义模型、状态异常催收语义模型、静态催收语义模型;
调取所述推断语义数据序列对应所述近似转化文字序列,将所述近似转化文字序列聚类分析,得到分析结果;
将所述分析结果加权处理排序,生成修正文字数据。
本发明的有益效果如下:本发明提供的一种基于CTC算法构建的人工智能催收方法及系统,获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据,将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据,根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列,调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据,将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据,实现提高噪音环境下CTC算法语音转换文字准确率的效果,以解决由于杂音较多,导致CTC直接输出序列预测的结果不准确的问题。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于CTC算法构建的人工智能催收方法流程图;
图2为本发明实施例提供的基于CTC算法构建的人工智能催收方法步骤S102的流程图;
图3为本发明实施例提供的基于CTC算法构建的人工智能催收方法S103的流程图;
图4为本发明实施例提供的基于CTC算法构建的人工智能催收方法S104的流程图;
图5为本发明实施例提供的基于CTC算法构建的人工智能催收方法S105的流程图;
图6为本发明实施例提供的基于CTC算法构建的人工智能催收方法S106的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。以下结合附图,详细说明本发明各实施例提供的技术方案。
请参阅图1,本发明提供一种基于CTC算法构建的人工智能催收方法,包括:
S101,获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据;
获取银行业务人员或智能语音系统与被催收人员语音通话信息数据,对语音通话信息进行去操作处理,得到去除的噪音数据和去除噪音后的干净数据。
S102,将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据;
将所述去除噪音后的干净数据也就是去噪数据转化成文字信息数据,文字信息数据中含有错别字,或语义明显不对的词汇,这些错误词汇需要进行改正处理。
S103,根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列;
在数据库内调取与需要进行改正的错误词汇近似的词汇,将这些词汇进行排列,得到近似转换文字序列。
S104,调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据;
为了使改正后的词汇与实际语境一致,调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据。
S105,将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据。
将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据,实现提高噪音环境下CTC算法语音转换文字准确率的效果,以解决由于杂音较多,导致CTC直接输出序列预测的结果不准确的问题。
进一步地,请参阅图2,获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据,包括;
S201,所述获取语音通话音频数据,对所述语音通话音频数据根据频率划分为室外语音通话音频数据、室内语音音频数据、重度噪音干扰型语音音频数据;
不同的环境音频文件的噪音处理方式不同,所以需要将音频数据根据音频频率进行处理,语音通话音频数据根据频率划分为室外语音通话音频数据、室内语音音频数据、重度噪音干扰型语音音频数据。
S202,将所述室外语音通话音频数据、所述室内语音音频数据、所述重度噪音干扰型语音音频数据依次匹配所述预先设定的去除噪音模型,所述预先设定的去除噪音模型包括,室外语音降噪模型、室内语音降噪模型,得到降到模型匹配结果;
将音频数据进行划分后,匹配对应地去除噪音模型,可以提升降噪的准确性,去除降噪模型也可以根据使用需要自行设置。
S203,将所述室外语音通话音频数据、所述室内语音音频数据、所述重度噪音干扰型语音音频数据依次带入对应的预先设定的去除噪音模型,得到去噪数据以及噪音数据。
进一步地,请参阅图3,将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据,包括:
S301,将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据;
将所述去除噪音后的干净数据也就是去噪数据转化成文字信息数据,文字信息数据中含有错别字,或语义明显不对的词汇,这些错误词汇需要进行改正处理。
S302,将所述去噪转化文字数据进行断词,得到对应的断词数据,
对文字数据进行断词处理,利于后续词汇的处理,提升词汇处理的准确性。
S303,对所述断词数据带入数据库比对,得到断词近似词组序列;
断词后为避免出错,将断词数据带入数据库比对,得到断词近似词组序列,用于后续的词汇处理。
S304,通过所述对应的断词数据与所述断词近似词组序列比对,生成待改正文字数据。
通过所述对应的断词数据与所述断词近似词组序列比对,将比对结果近似率高于预设值时,则比对结果成立,这时将比对结果生成待改正文字数据。
进一步地,请参阅图4,根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列,包括:
S401,将所述待改正文字数据进行文字特征提取,所述文字特征提取包括词组构成元素,以及词读音元素,得到待检索特征数据;
为文字数据便于在数据库内检索,将所述待改正文字数据进行文字特征提取,使所述待改正文字数据进行文字特征与数据库内数据特征一致。
S402,根据待检索特征数据在数据库内完成近似文字数据检索,得到检索结果;
根据待检索特征数据在数据库内完成近似文字数据检索,在数据库内通过预设检索规则,根据检索特征,完成检索,得到检索结果。
S403,通过所述检索结果在数据库内调取近似文字数据,生成近似转换文字序列。
为提升准确率,所述检索结果在数据库内调取近似文字数据,生成近似转换文字序列,避免检索结果偏差过大。
进一步地,请参阅图5,调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据,包括:
S501,将所述去噪转换文字数据进行断句处理,得到断句数据;
为便于寻找知道句,将所述去噪转换文字数据进行断句处理,得到断句数据。
S502,对所述断句数据进行排序处理并建立数字标签,将所述待改正文字数据与所述断句数据匹配,得到基础断句标签;
待改正文字存在于句中,为能够实现寻找词时可以寻找到指定句,对所述断句数据进行排序处理并建立数字标签,将所述待改正文字数据与所述断句数据匹配,得到基础断句标签,通过建立标签的形式便于句的查找。
S503,根据基础断句标签提取所述待改正文字数据前句数据以及后句数据;
通过建立的句的标签,对指定词汇进行查询,提取所述待改正文字数据前句数据以及后句数据。
S504,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据。
进一步地,请参阅图6,将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据,包括:
S601,所述预设语义模型包括常规催收语义模型、状态异常催收语义模型、静态催收语义模型;
S602,调取所述推断语义数据序列对应所述近似转化文字序列,将所述近似转化文字序列聚类分析,得到分析结果;
为提升数据的准确性,避免直接输出的内容是错误的,调取所述推断语义数据序列对应所述近似转化文字序列,将所述近似转化文字序列聚类分析,得到分析结果
S603,将所述分析结果加权处理排序,生成修正文字数据。
对分析结果加权排列,选择加权第一位的数据,生成修正文字数据。将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据,实现提高噪音环境下CTC算法语音转换文字准确率的效果,以解决由于杂音较多,导致CTC直接输出序列预测的结果不准确的问题
由以上实施例可知,本发明提供的一种基于CTC算法构建的人工智能催收方法,获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据,将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据,根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列,调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据,将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据,实现提高噪音环境下CTC算法语音转换文字准确率的效果,以解决由于杂音较多,导致CTC直接输出序列预测的结果不准确的问题。
本发明实施例还提供一种存储介质,本发明实施例还提供一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器执行时实现本发明提供的基于CTC算法构建的人工智能催收方法的各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(英文:Read-OnlyMemory,简称:ROM)或随机存储记忆体(英文:RandomAccessMemory,简称:RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上所述的本发明实施方式并不构成对本发明保护范围的限定。

Claims (6)

1.一种基于CTC算法构建的人工智能催收方法,其特征在于,包括;
获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据;
将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据;
根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列;
调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据;
将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据。
2.如权利要求1所述的方法,其特征在于,获取语音通话音频数据,对所述音频数据通过预先设定的去除噪音模型,将音频数据分解得到去噪数据以及噪音数据,包括;
所述获取语音通话音频数据,对所述语音通话音频数据根据频率化分为室外语音通话音频数据、室内语音音频数据、重度噪音干扰型语音音频数据;
将所述室外语音通话音频数据、所述室内语音音频数据、所述重度噪音干扰型语音音频数据依次匹配所述预先设定的去除噪音模型,所述预先设定的去除噪音模型包括,室外语音降噪模型、室内语音降噪模型,得到降到模型匹配结果;
将所述室外语音通话音频数据、所述室内语音音频数据、所述重度噪音干扰型语音音频数据依次带入对应的预先设定的去除噪音模型,得到去噪数据以及噪音数据。
3.如权利要求1所述的方法,其特征在于,将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据,对所述去噪转换文字数据进行校错处理,生成待改正文字数据,包括:
将所述去噪数据带入预设语音转文字模型,得到去噪转换文字数据;
将所述去噪转化文字数据进行断词,得到对应的断词数据,
对所述断词数据带入数据库比对,得到断词近似词组序列;
通过所述对应的断词数据与所述断词近似词组序列比对,生成待改正文字数据。
4.如权利要求1所述的方法,其特征在于,根据所述待改正文字数据在数据库内调取近似文字数据,生成近似转换文字序列,包括:
将所述待改正文字数据进行文字特征提取,所述文字特征提取包括词组构成元素,以及词读音元素,得到待检索特征数据;
根据待检索特征数据在数据库内完成近似文字数据检索,得到检索结果;
通过所述检索结果在数据库内调取近似文字数据,生成近似转换文字序列。
5.如权利要求1所述的方法,其特征在于,调取所述待改正文字数据前句数据以及后句数据,将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据,包括:
将所述去噪转换文字数据进行断句处理,得到断句数据;
对所述断句数据进行排序处理并建立数字标签,将所述待改正文字数据与所述断句数据匹配,得到基础断句标签;
根据基础断句标签提取所述待改正文字数据前句数据以及后句数据;
将所述近似转换文字序列内的文字数据按照序列顺序依次与所述前句数据、后句数据匹配,得到待验证语义数据。
6.如权利要求1所述的方法,其特征在于,将待验证语义数据带入预设语义模型,得到推断语义数据序列,调取所述推断语义数据序列对应所述近似转化文字序列,生成修正文字数据,包括:
所述预设语义模型包括常规催收语义模型、状态异常催收语义模型、静态催收语义模型;
调取所述推断语义数据序列对应所述近似转化文字序列,将所述近似转化文字序列聚类分析,得到分析结果;
将所述分析结果加权处理排序,生成修正文字数据。
CN202210801766.4A 2022-07-07 2022-07-07 一种基于ctc算法构建的人工智能催收方法 Pending CN115132208A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210801766.4A CN115132208A (zh) 2022-07-07 2022-07-07 一种基于ctc算法构建的人工智能催收方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210801766.4A CN115132208A (zh) 2022-07-07 2022-07-07 一种基于ctc算法构建的人工智能催收方法

Publications (1)

Publication Number Publication Date
CN115132208A true CN115132208A (zh) 2022-09-30

Family

ID=83382759

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210801766.4A Pending CN115132208A (zh) 2022-07-07 2022-07-07 一种基于ctc算法构建的人工智能催收方法

Country Status (1)

Country Link
CN (1) CN115132208A (zh)

Similar Documents

Publication Publication Date Title
US20190278846A1 (en) Semantic extraction method and apparatus for natural language, and computer storage medium
US8644488B2 (en) System and method for automatically generating adaptive interaction logs from customer interaction text
CN111046133A (zh) 基于图谱化知识库的问答方法、设备、存储介质及装置
CN108682420B (zh) 一种音视频通话方言识别方法及终端设备
CN111477216A (zh) 一种用于对话机器人的音意理解模型的训练方法及系统
CN109192225B (zh) 语音情感识别和标注的方法及装置
CN110277088B (zh) 智能语音识别方法、装置及计算机可读存储介质
CN111445898B (zh) 语种识别方法、装置、电子设备和存储介质
CN111797632A (zh) 信息处理方法、装置及电子设备
CN112992125B (zh) 一种语音识别方法、装置、电子设备、可读存储介质
CN111613214A (zh) 一种用于提升语音识别能力的语言模型纠错方法
CN112257437A (zh) 语音识别纠错方法、装置、电子设备和存储介质
CN112951211B (zh) 一种语音唤醒方法及装置
CN111883137A (zh) 基于语音识别的文本处理方法及装置
CN111881297A (zh) 语音识别文本的校正方法及装置
CN110826301B (zh) 标点符号添加方法、系统、移动终端及存储介质
CN111091809A (zh) 一种深度特征融合的地域性口音识别方法及装置
CN115858776B (zh) 一种变体文本分类识别方法、系统、存储介质和电子设备
CN112231440A (zh) 一种基于人工智能的语音搜索方法
CN111737424A (zh) 一种问题的匹配方法、装置、设备及存储介质
CN116303951A (zh) 对话处理方法、装置、电子设备和存储介质
CN115132208A (zh) 一种基于ctc算法构建的人工智能催收方法
CN115691503A (zh) 语音识别方法、装置、电子设备和存储介质
KR102332268B1 (ko) 고객 상담 요약 장치 및 방법
CN111274434A (zh) 音频语料自动标注方法、系统、介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination