CN114401346A - 基于人工智能的应答方法、装置、设备及介质 - Google Patents
基于人工智能的应答方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114401346A CN114401346A CN202210037742.6A CN202210037742A CN114401346A CN 114401346 A CN114401346 A CN 114401346A CN 202210037742 A CN202210037742 A CN 202210037742A CN 114401346 A CN114401346 A CN 114401346A
- Authority
- CN
- China
- Prior art keywords
- dialect
- target
- user
- model
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 108
- 230000004044 response Effects 0.000 title claims abstract description 78
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 47
- 230000008569 process Effects 0.000 claims abstract description 38
- 238000012216 screening Methods 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims description 108
- 238000012545 processing Methods 0.000 claims description 34
- 230000009467 reduction Effects 0.000 claims description 34
- 238000012549 training Methods 0.000 claims description 30
- 230000011218 segmentation Effects 0.000 claims description 26
- 239000003795 chemical substances by application Substances 0.000 claims description 18
- 230000001960 triggered effect Effects 0.000 claims description 10
- 230000003993 interaction Effects 0.000 abstract description 12
- 230000000694 effects Effects 0.000 abstract description 8
- 238000004364 calculation method Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007711 solidification Methods 0.000 description 2
- 230000008023 solidification Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
- H04M3/4936—Speech interaction details
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/527—Centralised call answering arrangements not requiring operator intervention
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能领域,提供一种基于人工智能的应答方法、装置、设备及介质,能够根据用户类型从第一话术库中随机筛选出第一话术表,并从第二话术库中随机筛选出第二话术表,通过随机筛选的方式,能够保证应答的多样性,在利用第一话术表播报过程中,将用户输入的语音输入至第一模型,当第一模型输出预设结果时,利用第二话术表建立输入语音对应的候选子集,利用第二模型从候选子集中筛选出目标提问,并利用目标提问对应的应答话术进行应答,进而基于人工智能手段实现智能应答,模型的联合应用以及不同类型话术表的建立,不仅提升了人机交互的多样性,且优化了应答效率及应答效果。本发明还涉及区块链技术,模型可存储于区块链节点中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的应答方法、装置、设备及介质。
背景技术
销售是一门具有技巧、经验的工作。优秀的销售人员可以根据客户的不同疑问和反馈进行多样性的话术劝导和回复,使得客户得到满意答案的同时,尽可能促成销售结果。
目前,运用人工智能技术进行智能电话呼叫的场景已经十分普遍,比如在金融、互联网、教育等各个行业,智能呼叫机器人的出现,有效缩减了高昂的人工成本。但是,当前业界中,绝大多数智能呼叫的使用场景均为相对固定化的服务流程,比如信用卡还款提醒、贷款催收、收集客户信息、快递和课程通知等,主要为通知型或者取槽值信息型应用场景,不会和客户有过多复杂的交互过程。
固化的回应方式会带来一定的弊端,尤其对于销售场景,因为客户的意图多样,原本就需要具有丰富经验和技巧的销售坐席去促达销售客户,而目前的智能呼叫机器人的流程和应答话术都是线下配置好的,相对固化和单一,当面对客户多变的问题时,无法做到精准适配,使得客户对机器人的答复不够满意。
发明内容
鉴于以上内容,有必要提供一种基于人工智能的应答方法、装置、设备及介质,旨在解决智能应答问题。
一种基于人工智能的应答方法,所述基于人工智能的应答方法包括:
响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术;
根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表;
利用所述第一话术表生成播报语音进行流程播报;
在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,其中,所述第一模型用于意图识别;
获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集;
调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问;
利用所述目标提问对应的应答话术对所述输入语音进行应答。
根据本发明优选实施例,在获取预先建立的第一话术库及第二话术库前,所述方法还包括:
对于每个用户类型,从指定数据库中获取所述用户类型对应的坐席的评分;
获取所述评分排在前预设位的坐席作为所述用户类型对应的至少一个目标坐席;
采集所述至少一个目标坐席中每个目标坐席进行主流程播报的语音;
对所述每个目标坐席进行主流程播报的语音进行转化,得到所述每个目标坐席进行主流程播报的话术文本;
将所述每个目标坐席确定为key,将所述每个目标坐席进行主流程播报的话术文本作为value,生成所述每个目标坐席对应的流程话术表;
整合所述每个目标坐席对应的流程话术表,并对每个流程话术表进行分词处理;
对分词处理后的每个流程话术表进行向量化表示,得到所述用户类型对应的所述第一话术库;
采集所述每个目标坐席进行答疑的语音;
对所述每个目标坐席进行答疑的语音进行转化,得到所述每个目标坐席进行答疑的话术文本;
从所述每个目标坐席进行答疑的话术文本中获取用户提问作为key,从所述每个目标坐席进行答疑的话术文本中获取所述每个目标坐席的应答话术作为value,生成所述每个目标坐席对应的答疑话术表;
整合所述每个目标坐席对应的答疑话术表,并对每个答疑话术表进行分词处理;
对分词处理后的每个答疑话术表进行向量化表示,得到所述用户类型对应的所述第二话术库。
根据本发明优选实施例,在所述获取预先建立的与用户类型对应的第一话术库及第二话术库前,所述方法还包括:
每隔预设时间间隔,从所述指定数据库中获取所述每个用户类型对应的坐席的评分;
根据获取的评分更新所述每个用户类型对应的第一话术库及第二话术库。
根据本发明优选实施例,在所述将所述输入语音输入至预先训练的第一模型前,所述方法还包括:
构建初始模型,所述初始模型包括首尾依次相连的两个GRU层及两个Dense层;
获取训练样本,并获取每个训练样本的标签,其中,所述标签包括肯定意向、否定意向及无法识别意向;
将所述每个训练样本的标签作为训练目标,并利用所述训练样本训练所述初始模型;
当所述初始模型的损失达到收敛时,停止训练,得到所述第一模型。
根据本发明优选实施例,所述利用所述第二话术表建立所述输入语音对应的候选子集包括:
对所述输入语音进行分词处理,得到目标分词;
对所述目标分词进行向量化表示,得到目标向量;
计算所述目标向量与所述第二话术表中每个key值对应的向量的相似度;
获取所述相似度大于或者等于配置阈值的key值作为目标key值,并获取所述目标key值对应的value值作为目标value值;
根据所述目标key值及所述目标value值建立所述输入语音对应的候选子集。
根据本发明优选实施例,所述方法还包括:
当所述输出数据为肯定意向时,检测当前流程对应的下一流程,并控制执行所述下一流程;或者
当所述输出数据为否定意向时,从所述第一话术表中获取所述当前流程对应的话术生成播报语音进行播报。
根据本发明优选实施例,所述第二模型包括BERT层,所述利用所述第二模型从所述候选子集中筛选出目标提问包括:
将所述输入语音及所述候选子集中的每个话术分别输入至所述第二模型;
获取所述输入语音在所述BERT层的首层字向量及尾层字向量;
计算所述输入语音在所述BERT层的首层字向量及尾层字向量的均值,得到第一句向量;
对所述第一句向量进行降维操作,得到第一降维向量;
获取所述每个话术在所述BERT层的首层字向量及尾层字向量;
计算所述每个话术在所述BERT层的首层字向量及尾层字向量的均值,得到所述每个话术对应的第二句向量;
对所述每个话术对应的第二句向量进行降维操作,得到所述每个话术对应的第二降维向量;
计算所述第一降维向量与所述每个话术对应的第二降维向量的差的绝对值,得到所述每个话术对应的绝对向量;
拼接所述第一降维向量、所述每个话术对应的第二降维向量及所述每个话术对应的绝对向量,得到所述每个话术对应的目标向量;
利用所述第二模型的全连接层对所述每个话术对应的目标向量进行处理,得到所述每个话术对应的概率值;
获取所述概率值最大的话术作为所述目标提问。
一种基于人工智能的应答装置,所述基于人工智能的应答装置包括:
获取单元,用于响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术;
筛选单元,用于根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表;
播报单元,用于利用所述第一话术表生成播报语音进行流程播报;
输入单元,用于在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,其中,所述第一模型用于意图识别;
建立单元,用于获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集;
所述筛选单元,还用于调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问;
应答单元,用于利用所述目标提问对应的应答话术对所述输入语音进行应答。
一种计算机设备,所述计算机设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于人工智能的应答方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被计算机设备中的处理器执行以实现所述基于人工智能的应答方法。
由以上技术方案可以看出,本发明能够响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术,根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表,通过随机筛选话术表的方式,能够保证应答的多样性,有效解决了目前总是采用一种话术给用户带来乏味感,利用所述第一话术表生成播报语音进行流程播报,在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集,调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问,利用所述目标提问对应的应答话术对所述输入语音进行应答,基于人工智能手段实现智能应答,模型的联合应用以及不同类型话术表的建立,不仅提升了人机交互的多样性,且优化了应答效率及应答效果。
附图说明
图1是本发明基于人工智能的应答方法的较佳实施例的流程图。
图2是本发明基于人工智能的应答装置的较佳实施例的功能模块图。
图3是本发明实现基于人工智能的应答方法的较佳实施例的计算机设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于人工智能的应答方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于人工智能的应答方法应用于一个或者多个计算机设备中,所述计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(DigitalSignal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述计算机设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S11,响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术。
在本实施例中,所述用户可以为任意用户。
所述用户发出交互请求,以触发所述呼叫指令。
在本发明的至少一个实施例中,所述用户类型可以包括,但不限于以下一种或者多种的组合:
新用户、处于还款阶段的用户、已经还清账款的用户等。
在本发明的至少一个实施例中,在获取预先建立的第一话术库及第二话术库前,所述方法还包括:
对于每个用户类型,从指定数据库中获取所述用户类型对应的坐席的评分;
获取所述评分排在前预设位的坐席作为所述用户类型对应的至少一个目标坐席;
采集所述至少一个目标坐席中每个目标坐席进行主流程播报的语音;
对所述每个目标坐席进行主流程播报的语音进行转化,得到所述每个目标坐席进行主流程播报的话术文本;
将所述每个目标坐席确定为key,将所述每个目标坐席进行主流程播报的话术文本作为value,生成所述每个目标坐席对应的流程话术表;
整合所述每个目标坐席对应的流程话术表,并对每个流程话术表进行分词处理;
对分词处理后的每个流程话术表进行向量化表示,得到所述用户类型对应的所述第一话术库;
采集所述每个目标坐席进行答疑的语音;
对所述每个目标坐席进行答疑的语音进行转化,得到所述每个目标坐席进行答疑的话术文本;
从所述每个目标坐席进行答疑的话术文本中获取用户提问作为key,从所述每个目标坐席进行答疑的话术文本中获取所述每个目标坐席的应答话术作为value,生成所述每个目标坐席对应的答疑话术表;
整合所述每个目标坐席对应的答疑话术表,并对每个答疑话术表进行分词处理;
对分词处理后的每个答疑话术表进行向量化表示,得到所述用户类型对应的所述第二话术库。
其中,所述指定数据库可以为指定平台的数据库,所述指定数据库用于存储坐席与用户间的交互语音。
在本实施例中,所述前预设位可以进行自定义配置,如前20位等。
通过所述前预设位的配置,能够从众多坐席中筛选出绩优者,以提升用户与智能机器人间的交互体验。
在本实施例中,所述主流程可以包括,但不限于:销售流程、申请流程等。
例如:所述申请流程可以包括:向用户进行打招呼,然后依次播报所述申请流程所包含的各个子流程。
在本实施例中,可以采用ASR(Automatic Speech Recognition,自动语音识别技术)技术对语音进行转化,本发明对语音转化的方式不做限制。
在上述实施方式中,筛选出每个用户类型对应的绩优坐席的话术建立话术库,并对话术库中的话术进行分词及向量化处理,不仅提升了交互的友好性,同时有效降低了后续利用话术进行计算时的计算量,进而提高了计算效率。
进一步地,在所述获取预先建立的与用户类型对应的第一话术库及第二话术库前,所述方法还包括:
每隔预设时间间隔,从所述指定数据库中获取所述每个用户类型对应的坐席的评分;
根据获取的评分更新所述每个用户类型对应的第一话术库及第二话术库。
其中,所述预设时间间隔可以进行自定义配置,如每隔1个月等。
通过上述实施方式,能够保证每个用户类型对应的第一话术库及第二话术库是周期性更新的,进一步优化了应答的效果。
在本发明的至少一个实施例中,所述获取所述用户的用户类型包括:
获取所述用户的历史数据;
根据所述用户的历史数据确定所述用户的用户类型。
例如:当没有检测到所述用户的历史数据时,确定所述用户的用户类型为新用户;进一步地,从所述用户的历史数据中获取所述用户的处理流程,并根据所述用户的处理流程确定所述用户的用户类型。
S12,根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表。
可以理解的是,由于所述第一话术库及所述第二话术库中存储的话术都源自绩优坐席,而每个绩优坐席的应答均得到了用户的肯定意向,因此,无论选择其中哪个坐席对应的话术表,都可以有效提升交互体验。
在上述实施方式中,通过随机筛选话术表的方式,能够保证应答的多样性,有效解决了目前总是采用一种话术给用户带来乏味感。
S13,利用所述第一话术表生成播报语音进行流程播报。
具体地,可以采用TTS(TextToSpeech,从文本到语音)技术,利用所述第一话术表生成播报语音进行流程播报,本发明不限制。
S14,在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,其中,所述第一模型用于意图识别。
在本发明的至少一个实施例中,在所述将所述输入语音输入至预先训练的第一模型前,所述方法还包括:
构建初始模型,所述初始模型包括首尾依次相连的两个GRU(Gate RecurrentUnit,门循环单元)层及两个Dense层;
获取训练样本,并获取每个训练样本的标签,其中,所述标签包括肯定意向、否定意向及无法识别意向;
将所述每个训练样本的标签作为训练目标,并利用所述训练样本训练所述初始模型;
当所述初始模型的损失达到收敛时,停止训练,得到所述第一模型。
在本实施例中,所述训练样本可以为获取到的坐席与用户间的交互语音。
在上述实施方式中,训练得到的所述第一预设模型能够对所述用户的意图进行初步识别,以便后续进行有针对性的响应。
S15,获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集。
在本实施例中,所述预设结果可以为“无法识别意向”。
在本发明的至少一个实施例中,所述利用所述第二话术表建立所述输入语音对应的候选子集包括:
对所述输入语音进行分词处理,得到目标分词;
对所述目标分词进行向量化表示,得到目标向量;
计算所述目标向量与所述第二话术表中每个key值对应的向量的相似度;
获取所述相似度大于或者等于配置阈值的key值作为目标key值,并获取所述目标key值对应的value值作为目标value值;
根据所述目标key值及所述目标value值建立所述输入语音对应的候选子集。
其中,所述配置阈值可以进行自定义配置,如85%。
通过上述实施方式,当所述第一模型的识别结果为无法识别意向时,说明并非是对主流程的提问,而是非流程性的其他疑问,此时,首先对话术表中的话术进行初筛,以进一步提升后续应答的准确性。
在本发明的至少一个实施例中,所述方法还包括:
当所述输出数据为肯定意向时,检测当前流程对应的下一流程,并控制执行所述下一流程;或者
当所述输出数据为否定意向时,从所述第一话术表中获取所述当前流程对应的话术生成播报语音进行播报。
通过上述实施方式,能够根据用户的实时意图有针对性的进行响应。
S16,调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问。
在本发明的至少一个实施例中,所述第二模型包括BERT(Bidirectional EncoderRepresentations from Transformers)层,所述利用所述第二模型从所述候选子集中筛选出目标提问包括:
将所述输入语音及所述候选子集中的每个话术分别输入至所述第二模型;
获取所述输入语音在所述BERT层的首层字向量及尾层字向量;
计算所述输入语音在所述BERT层的首层字向量及尾层字向量的均值,得到第一句向量;
对所述第一句向量进行降维操作,得到第一降维向量;
获取所述每个话术在所述BERT层的首层字向量及尾层字向量;
计算所述每个话术在所述BERT层的首层字向量及尾层字向量的均值,得到所述每个话术对应的第二句向量;
对所述每个话术对应的第二句向量进行降维操作,得到所述每个话术对应的第二降维向量;
计算所述第一降维向量与所述每个话术对应的第二降维向量的差的绝对值,得到所述每个话术对应的绝对向量;
拼接所述第一降维向量、所述每个话术对应的第二降维向量及所述每个话术对应的绝对向量,得到所述每个话术对应的目标向量;
利用所述第二模型的全连接层对所述每个话术对应的目标向量进行处理,得到所述每个话术对应的概率值;
获取所述概率值最大的话术作为所述目标提问。
在本实施例中,可以采用PCA(Principal Component Analysis,主成分分析)法进行降维操作,保留指定维数的主成分(如将BERT原有的768维降至256维或者384维)。
需要说明的是,在传统的BERT层中,通用需要计算所有层的字向量的平均值,得到最终的句向量,计算量大,效率较低。
在智能呼叫的场景下,对计算效率的要求较高,且待匹配的句子通常为中短句,因此,传统的BERT层得到的向量维度较高,会造成信息冗余。因此,本实施例仅抽取BERT层首尾两层的字向量进行计算,有效减少了计算量,进而提高了计算效率,减少了用户的等待时间。
S17,利用所述目标提问对应的应答话术对所述输入语音进行应答。
具体地,对所述目标提问进行语音转化,并利用转化后的语音进行应答。
通过上述实施方式,能够基于人工智能手段实现智能应答,模型的联合应用以及不同类型话术表的建立,不仅提升了人机交互的多样性,且优化了应答效率及应答效果。
需要说明的是,为了进一步提高数据的安全性,避免数据被恶意篡改,训练得到的模型可存储于区块链节点中。
由以上技术方案可以看出,本发明能够响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术,根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表,通过随机筛选话术表的方式,能够保证应答的多样性,有效解决了目前总是采用一种话术给用户带来乏味感,利用所述第一话术表生成播报语音进行流程播报,在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集,调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问,利用所述目标提问对应的应答话术对所述输入语音进行应答,基于人工智能手段实现智能应答,模型的联合应用以及不同类型话术表的建立,不仅提升了人机交互的多样性,且优化了应答效率及应答效果。
如图2所示,是本发明基于人工智能的应答装置的较佳实施例的功能模块图。所述基于人工智能的应答装置11包括建立单元110、获取单元111、筛选单元112、播报单元113、输入单元114、应答单元115。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
获取单元111响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术。
在本实施例中,所述用户可以为任意用户。
所述用户发出交互请求,以触发所述呼叫指令。
在本发明的至少一个实施例中,所述用户类型可以包括,但不限于以下一种或者多种的组合:
新用户、处于还款阶段的用户、已经还清账款的用户等。
在本发明的至少一个实施例中,在所述获取预先建立的与用户类型对应的第一话术库及第二话术库前,
对于每个用户类型,从指定数据库中获取所述用户类型对应的坐席的评分;
获取所述评分排在前预设位的坐席作为所述用户类型对应的至少一个目标坐席;
采集所述至少一个目标坐席中每个目标坐席进行主流程播报的语音;
对所述每个目标坐席进行主流程播报的语音进行转化,得到所述每个目标坐席进行主流程播报的话术文本;
将所述每个目标坐席确定为key,将所述每个目标坐席进行主流程播报的话术文本作为value,生成所述每个目标坐席对应的流程话术表;
整合所述每个目标坐席对应的流程话术表,并对每个流程话术表进行分词处理;
对分词处理后的每个流程话术表进行向量化表示,得到所述用户类型对应的所述第一话术库;
采集所述每个目标坐席进行答疑的语音;
对所述每个目标坐席进行答疑的语音进行转化,得到所述每个目标坐席进行答疑的话术文本;
从所述每个目标坐席进行答疑的话术文本中获取用户提问作为key,从所述每个目标坐席进行答疑的话术文本中获取所述每个目标坐席的应答话术作为value,生成所述每个目标坐席对应的答疑话术表;
整合所述每个目标坐席对应的答疑话术表,并对每个答疑话术表进行分词处理;
对分词处理后的每个答疑话术表进行向量化表示,得到所述用户类型对应的所述第二话术库。
其中,所述指定数据库可以为指定平台的数据库,所述指定数据库用于存储坐席与用户间的交互语音。
在本实施例中,所述前预设位可以进行自定义配置,如前20位等。
通过所述前预设位的配置,能够从众多坐席中筛选出绩优者,以提升用户与智能机器人间的交互体验。
在本实施例中,所述主流程可以包括,但不限于:销售流程、申请流程等。
例如:所述申请流程可以包括:向用户进行打招呼,然后依次播报所述申请流程所包含的各个子流程。
在本实施例中,可以采用ASR(Automatic Speech Recognition,自动语音识别技术)技术对语音进行转化,本发明对语音转化的方式不做限制。
在上述实施方式中,筛选出每个用户类型对应的绩优坐席的话术建立话术库,并对话术库中的话术进行分词及向量化处理,不仅提升了交互的友好性,同时有效降低了后续利用话术进行计算时的计算量,进而提高了计算效率。
进一步地,在所述获取预先建立的与用户类型对应的第一话术库及第二话术库前,每隔预设时间间隔,从所述指定数据库中获取所述每个用户类型对应的坐席的评分;
根据获取的评分更新所述每个用户类型对应的第一话术库及第二话术库。
其中,所述预设时间间隔可以进行自定义配置,如每隔1个月等。
通过上述实施方式,能够保证每个用户类型对应的第一话术库及第二话术库是周期性更新的,进一步优化了应答的效果。
在本发明的至少一个实施例中,所述获取单元111获取所述用户的用户类型包括:
获取所述用户的历史数据;
根据所述用户的历史数据确定所述用户的用户类型。
例如:当没有检测到所述用户的历史数据时,确定所述用户的用户类型为新用户;进一步地,从所述用户的历史数据中获取所述用户的处理流程,并根据所述用户的处理流程确定所述用户的用户类型。
筛选单元112根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表。
可以理解的是,由于所述第一话术库及所述第二话术库中存储的话术都源自绩优坐席,而每个绩优坐席的应答均得到了用户的肯定意向,因此,无论选择其中哪个坐席对应的话术表,都可以有效提升交互体验。
在上述实施方式中,通过随机筛选话术表的方式,能够保证应答的多样性,有效解决了目前总是采用一种话术给用户带来乏味感。
播报单元113利用所述第一话术表生成播报语音进行流程播报。
具体地,可以采用TTS(TextToSpeech,从文本到语音)技术,利用所述第一话术表生成播报语音进行流程播报,本发明不限制。
输入单元114在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,其中,所述第一模型用于意图识别。
在本发明的至少一个实施例中,在所述将所述输入语音输入至预先训练的第一模型前,构建初始模型,所述初始模型包括首尾依次相连的两个GRU(Gate Recurrent Unit,门循环单元)层及两个Dense层;
获取训练样本,并获取每个训练样本的标签,其中,所述标签包括肯定意向、否定意向及无法识别意向;
将所述每个训练样本的标签作为训练目标,并利用所述训练样本训练所述初始模型;
当所述初始模型的损失达到收敛时,停止训练,得到所述第一模型。
在本实施例中,所述训练样本可以为获取到的坐席与用户间的交互语音。
在上述实施方式中,训练得到的所述第一预设模型能够对所述用户的意图进行初步识别,以便后续进行有针对性的响应。
建立单元110获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集。
在本实施例中,所述预设结果可以为“无法识别意向”。
在本发明的至少一个实施例中,所述建立单元110利用所述第二话术表建立所述输入语音对应的候选子集包括:
对所述输入语音进行分词处理,得到目标分词;
对所述目标分词进行向量化表示,得到目标向量;
计算所述目标向量与所述第二话术表中每个key值对应的向量的相似度;
获取所述相似度大于或者等于配置阈值的key值作为目标key值,并获取所述目标key值对应的value值作为目标value值;
根据所述目标key值及所述目标value值建立所述输入语音对应的候选子集。
其中,所述配置阈值可以进行自定义配置,如85%。
通过上述实施方式,当所述第一模型的识别结果为无法识别意向时,说明并非是对主流程的提问,而是非流程性的其他疑问,此时,首先对话术表中的话术进行初筛,以进一步提升后续应答的准确性。
在本发明的至少一个实施例中,当所述输出数据为肯定意向时,检测当前流程对应的下一流程,并控制执行所述下一流程;或者
当所述输出数据为否定意向时,从所述第一话术表中获取所述当前流程对应的话术生成播报语音进行播报。
通过上述实施方式,能够根据用户的实时意图有针对性的进行响应。
所述筛选单元112调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问。
在本发明的至少一个实施例中,所述第二模型包括BERT(Bidirectional EncoderRepresentations from Transformers)层,所述利用所述第二模型从所述候选子集中筛选出目标提问包括:
将所述输入语音及所述候选子集中的每个话术分别输入至所述第二模型;
获取所述输入语音在所述BERT层的首层字向量及尾层字向量;
计算所述输入语音在所述BERT层的首层字向量及尾层字向量的均值,得到第一句向量;
对所述第一句向量进行降维操作,得到第一降维向量;
获取所述每个话术在所述BERT层的首层字向量及尾层字向量;
计算所述每个话术在所述BERT层的首层字向量及尾层字向量的均值,得到所述每个话术对应的第二句向量;
对所述每个话术对应的第二句向量进行降维操作,得到所述每个话术对应的第二降维向量;
计算所述第一降维向量与所述每个话术对应的第二降维向量的差的绝对值,得到所述每个话术对应的绝对向量;
拼接所述第一降维向量、所述每个话术对应的第二降维向量及所述每个话术对应的绝对向量,得到所述每个话术对应的目标向量;
利用所述第二模型的全连接层对所述每个话术对应的目标向量进行处理,得到所述每个话术对应的概率值;
获取所述概率值最大的话术作为所述目标提问。
在本实施例中,可以采用PCA(Principal Component Analysis,主成分分析)法进行降维操作,保留指定维数的主成分(如将BERT原有的768维降至256维或者384维)。
需要说明的是,在传统的BERT层中,通用需要计算所有层的字向量的平均值,得到最终的句向量,计算量大,效率较低。
在智能呼叫的场景下,对计算效率的要求较高,且待匹配的句子通常为中短句,因此,传统的BERT层得到的向量维度较高,会造成信息冗余。因此,本实施例仅抽取BERT层首尾两层的字向量进行计算,有效减少了计算量,进而提高了计算效率,减少了用户的等待时间。
应答单元115利用所述目标提问对应的应答话术对所述输入语音进行应答。
具体地,对所述目标提问进行语音转化,并利用转化后的语音进行应答。
通过上述实施方式,能够基于人工智能手段实现智能应答,模型的联合应用以及不同类型话术表的建立,不仅提升了人机交互的多样性,且优化了应答效率及应答效果。
需要说明的是,为了进一步提高数据的安全性,避免数据被恶意篡改,训练得到的模型可存储于区块链节点中。
由以上技术方案可以看出,本发明能够响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术,根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表,通过随机筛选话术表的方式,能够保证应答的多样性,有效解决了目前总是采用一种话术给用户带来乏味感,利用所述第一话术表生成播报语音进行流程播报,在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集,调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问,利用所述目标提问对应的应答话术对所述输入语音进行应答,基于人工智能手段实现智能应答,模型的联合应用以及不同类型话术表的建立,不仅提升了人机交互的多样性,且优化了应答效率及应答效果。
如图3所示,是本发明实现基于人工智能的应答方法的较佳实施例的计算机设备的结构示意图。
所述计算机设备1可以包括存储器12、处理器13和总线,还可以包括存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于人工智能的应答程序。
本领域技术人员可以理解,所述示意图仅仅是计算机设备1的示例,并不构成对计算机设备1的限定,所述计算机设备1既可以是总线型结构,也可以是星形结构,所述计算机设备1还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置,例如所述计算机设备1还可以包括输入输出设备、网络接入设备等。
需要说明的是,所述计算机设备1仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
其中,存储器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器12在一些实施例中可以是计算机设备1的内部存储单元,例如该计算机设备1的移动硬盘。存储器12在另一些实施例中也可以是计算机设备1的外部存储设备,例如计算机设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器12还可以既包括计算机设备1的内部存储单元也包括外部存储设备。存储器12不仅可以用于存储安装于计算机设备1的应用软件及各类数据,例如基于人工智能的应答程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。处理器13是所述计算机设备1的控制核心(Control Unit),利用各种接口和线路连接整个计算机设备1的各个部件,通过运行或执行存储在所述存储器12内的程序或者模块(例如执行基于人工智能的应答程序等),以及调用存储在所述存储器12内的数据,以执行计算机设备1的各种功能和处理数据。
所述处理器13执行所述计算机设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于人工智能的应答方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机程序在所述计算机设备1中的执行过程。例如,所述计算机程序可以被分割成建立单元110、获取单元111、筛选单元112、播报单元113、输入单元114、应答单元115。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、计算机设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述基于人工智能的应答方法的部分。
所述计算机设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指示相关的硬件设备来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器等。
进一步地,计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,在图3中仅用一根直线表示,但并不表示仅有一根总线或一种类型的总线。所述总线被设置为实现所述存储器12以及至少一个处理器13等之间的连接通信。
尽管未示出,所述计算机设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器13逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述计算机设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述计算机设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该计算机设备1与其他计算机设备之间建立通信连接。
可选地,该计算机设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在计算机设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
图3仅示出了具有组件12-13的计算机设备1,本领域技术人员可以理解的是,图3示出的结构并不构成对所述计算机设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
结合图1,所述计算机设备1中的所述存储器12存储多个指令以实现一种基于人工智能的应答方法,所述处理器13可执行所述多个指令从而实现:
响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术;
根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表;
利用所述第一话术表生成播报语音进行流程播报;
在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型;
获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集;
调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问;
利用所述目标提问对应的应答话术对所述输入语音进行应答。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
本发明可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。本发明中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于人工智能的应答方法,其特征在于,所述基于人工智能的应答方法包括:
响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术;
根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表;
利用所述第一话术表生成播报语音进行流程播报;
在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,其中,所述第一模型用于意图识别;
获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集;
调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问;
利用所述目标提问对应的应答话术对所述输入语音进行应答。
2.如权利要求1所述的基于人工智能的应答方法,其特征在于,在获取预先建立的第一话术库及第二话术库前,所述方法还包括:
对于每个用户类型,从指定数据库中获取所述用户类型对应的坐席的评分;
获取所述评分排在前预设位的坐席作为所述用户类型对应的至少一个目标坐席;
采集所述至少一个目标坐席中每个目标坐席进行主流程播报的语音;
对所述每个目标坐席进行主流程播报的语音进行转化,得到所述每个目标坐席进行主流程播报的话术文本;
将所述每个目标坐席确定为key,将所述每个目标坐席进行主流程播报的话术文本作为value,生成所述每个目标坐席对应的流程话术表;
整合所述每个目标坐席对应的流程话术表,并对每个流程话术表进行分词处理;
对分词处理后的每个流程话术表进行向量化表示,得到所述用户类型对应的所述第一话术库;
采集所述每个目标坐席进行答疑的语音;
对所述每个目标坐席进行答疑的语音进行转化,得到所述每个目标坐席进行答疑的话术文本;
从所述每个目标坐席进行答疑的话术文本中获取用户提问作为key,从所述每个目标坐席进行答疑的话术文本中获取所述每个目标坐席的应答话术作为value,生成所述每个目标坐席对应的答疑话术表;
整合所述每个目标坐席对应的答疑话术表,并对每个答疑话术表进行分词处理;
对分词处理后的每个答疑话术表进行向量化表示,得到所述用户类型对应的所述第二话术库。
3.如权利要求2所述的基于人工智能的应答方法,其特征在于,在所述获取预先建立的与用户类型对应的第一话术库及第二话术库前,所述方法还包括:
每隔预设时间间隔,从所述指定数据库中获取所述每个用户类型对应的坐席的评分;
根据获取的评分更新所述每个用户类型对应的第一话术库及第二话术库。
4.如权利要求1所述的基于人工智能的应答方法,其特征在于,在所述将所述输入语音输入至预先训练的第一模型前,所述方法还包括:
构建初始模型,所述初始模型包括首尾依次相连的两个GRU层及两个Dense层;
获取训练样本,并获取每个训练样本的标签,其中,所述标签包括肯定意向、否定意向及无法识别意向;
将所述每个训练样本的标签作为训练目标,并利用所述训练样本训练所述初始模型;
当所述初始模型的损失达到收敛时,停止训练,得到所述第一模型。
5.如权利要求1所述的基于人工智能的应答方法,其特征在于,所述利用所述第二话术表建立所述输入语音对应的候选子集包括:
对所述输入语音进行分词处理,得到目标分词;
对所述目标分词进行向量化表示,得到目标向量;
计算所述目标向量与所述第二话术表中每个key值对应的向量的相似度;
获取所述相似度大于或者等于配置阈值的key值作为目标key值,并获取所述目标key值对应的value值作为目标value值;
根据所述目标key值及所述目标value值建立所述输入语音对应的候选子集。
6.如权利要求1所述的基于人工智能的应答方法,其特征在于,所述方法还包括:
当所述输出数据为肯定意向时,检测当前流程对应的下一流程,并控制执行所述下一流程;或者
当所述输出数据为否定意向时,从所述第一话术表中获取所述当前流程对应的话术生成播报语音进行播报。
7.如权利要求1所述的基于人工智能的应答方法,其特征在于,所述第二模型包括BERT层,所述利用所述第二模型从所述候选子集中筛选出目标提问包括:
将所述输入语音及所述候选子集中的每个话术分别输入至所述第二模型;
获取所述输入语音在所述BERT层的首层字向量及尾层字向量;
计算所述输入语音在所述BERT层的首层字向量及尾层字向量的均值,得到第一句向量;
对所述第一句向量进行降维操作,得到第一降维向量;
获取所述每个话术在所述BERT层的首层字向量及尾层字向量;
计算所述每个话术在所述BERT层的首层字向量及尾层字向量的均值,得到所述每个话术对应的第二句向量;
对所述每个话术对应的第二句向量进行降维操作,得到所述每个话术对应的第二降维向量;
计算所述第一降维向量与所述每个话术对应的第二降维向量的差的绝对值,得到所述每个话术对应的绝对向量;
拼接所述第一降维向量、所述每个话术对应的第二降维向量及所述每个话术对应的绝对向量,得到所述每个话术对应的目标向量;
利用所述第二模型的全连接层对所述每个话术对应的目标向量进行处理,得到所述每个话术对应的概率值;
获取所述概率值最大的话术作为所述目标提问。
8.一种基于人工智能的应答装置,其特征在于,所述基于人工智能的应答装置包括:
获取单元,用于响应于用户触发的呼叫指令,获取所述用户的用户类型,及获取预先建立的第一话术库及第二话术库,其中,所述第一话术库用于存储流程话术,所述第二话术库用于存储答疑话术;
筛选单元,用于根据所述用户的用户类型从所述第一话术库中随机筛选出第一话术表,并从所述第二话术库中随机筛选出第二话术表;
播报单元,用于利用所述第一话术表生成播报语音进行流程播报;
输入单元,用于在播报过程中,当检测到所述用户的输入语音时,将所述输入语音输入至预先训练的第一模型,其中,所述第一模型用于意图识别;
建立单元,用于获取所述第一模型的输出数据,当所述输出数据为预设结果时,利用所述第二话术表建立所述输入语音对应的候选子集;
所述筛选单元,还用于调用预先训练的第二模型,并利用所述第二模型从所述候选子集中筛选出目标提问;
应答单元,用于利用所述目标提问对应的应答话术对所述输入语音进行应答。
9.一种计算机设备,其特征在于,所述计算机设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的基于人工智能的应答方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被计算机设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于人工智能的应答方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210037742.6A CN114401346A (zh) | 2022-01-13 | 2022-01-13 | 基于人工智能的应答方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210037742.6A CN114401346A (zh) | 2022-01-13 | 2022-01-13 | 基于人工智能的应答方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114401346A true CN114401346A (zh) | 2022-04-26 |
Family
ID=81230871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210037742.6A Pending CN114401346A (zh) | 2022-01-13 | 2022-01-13 | 基于人工智能的应答方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114401346A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117079640A (zh) * | 2023-10-12 | 2023-11-17 | 深圳依时货拉拉科技有限公司 | 语音监测方法、装置、计算机设备及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877800A (zh) * | 2018-08-30 | 2018-11-23 | 出门问问信息科技有限公司 | 语音交互方法、装置、电子设备及可读存储介质 |
CN108986811A (zh) * | 2018-08-31 | 2018-12-11 | 北京新能源汽车股份有限公司 | 一种语音识别的检测方法、装置和设备 |
CN111696558A (zh) * | 2020-06-24 | 2020-09-22 | 深圳壹账通智能科技有限公司 | 智能外呼方法、装置、计算机设备及存储介质 |
-
2022
- 2022-01-13 CN CN202210037742.6A patent/CN114401346A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877800A (zh) * | 2018-08-30 | 2018-11-23 | 出门问问信息科技有限公司 | 语音交互方法、装置、电子设备及可读存储介质 |
CN108986811A (zh) * | 2018-08-31 | 2018-12-11 | 北京新能源汽车股份有限公司 | 一种语音识别的检测方法、装置和设备 |
CN111696558A (zh) * | 2020-06-24 | 2020-09-22 | 深圳壹账通智能科技有限公司 | 智能外呼方法、装置、计算机设备及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117079640A (zh) * | 2023-10-12 | 2023-11-17 | 深圳依时货拉拉科技有限公司 | 语音监测方法、装置、计算机设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112417128B (zh) | 话术推荐方法、装置、计算机设备及存储介质 | |
CN114007131B (zh) | 视频监控方法、装置及相关设备 | |
CN114387061A (zh) | 产品推送方法、装置、电子设备及可读存储介质 | |
CN112001175A (zh) | 流程自动化方法、装置、电子设备及存储介质 | |
CN114021582B (zh) | 结合语音信息的口语理解方法、装置、设备及存储介质 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN113704410A (zh) | 情绪波动检测方法、装置、电子设备及存储介质 | |
CN113807103A (zh) | 基于人工智能的招聘方法、装置、设备及存储介质 | |
CN115525750A (zh) | 机器人话术检测可视化方法、装置、电子设备及存储介质 | |
CN113553431B (zh) | 用户标签提取方法、装置、设备及介质 | |
CN114610855A (zh) | 对话回复生成方法、装置、电子设备及存储介质 | |
CN114461777A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN113591489B (zh) | 语音交互方法、装置及相关设备 | |
CN114020886A (zh) | 语音意图识别方法、装置、设备及存储介质 | |
CN113254814A (zh) | 网络课程视频打标签方法、装置、电子设备及介质 | |
CN114401346A (zh) | 基于人工智能的应答方法、装置、设备及介质 | |
CN117278675A (zh) | 一种基于意图分类的外呼方法、装置、设备及介质 | |
CN112542172A (zh) | 基于在线会议的沟通辅助方法、装置、设备及介质 | |
CN114186028A (zh) | 咨诉工单处理方法、装置、设备及存储介质 | |
CN115346095A (zh) | 视觉问答方法、装置、设备及存储介质 | |
CN113870478A (zh) | 快速取号方法、装置、电子设备及存储介质 | |
CN113990313A (zh) | 语音控制方法、装置、设备及存储介质 | |
CN114548114A (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN113706207A (zh) | 基于语义解析的订单成交率分析方法、装置、设备及介质 | |
CN112101191A (zh) | 基于边框注意力网络的表情识别方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |