CN111583935A - 贷款智能进件方法、装置及存储介质 - Google Patents
贷款智能进件方法、装置及存储介质 Download PDFInfo
- Publication number
- CN111583935A CN111583935A CN202010254541.2A CN202010254541A CN111583935A CN 111583935 A CN111583935 A CN 111583935A CN 202010254541 A CN202010254541 A CN 202010254541A CN 111583935 A CN111583935 A CN 111583935A
- Authority
- CN
- China
- Prior art keywords
- user
- voice
- input voice
- input
- loan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000002716 delivery method Methods 0.000 title claims description 17
- 238000004458 analytical method Methods 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000003062 neural network model Methods 0.000 claims abstract description 31
- 239000013598 vector Substances 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims description 40
- 230000003042 antagnostic effect Effects 0.000 claims description 34
- 238000001228 spectrum Methods 0.000 claims description 18
- 230000008909 emotion recognition Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008451 emotion Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010183 spectrum analysis Methods 0.000 description 2
- 206010013954 Dysphoria Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
Abstract
本发明属于人工智能技术领域,公开了一种贷款智能进件方法、装置及存储介质,方法包括:获取进件时用户的第一输入语音和审批时用户的第二输入语音;提取语音特征;利用语音分析模型进行语音分析,得出进件时的用户和审批时的用户是否是同一用户;若是同一用户,则审批通过,用户进件成功;若不是同一用户,则审批不通过,用户进件失败;其中,语音分析模型采用对抗神经网络模型,包括生成模型和判别模型,生成模型用于生成与所述第二输入语音对应的语音向量,判别模型用于判断第二输入语音对应的用户与第一输入语音对应的用户是同一用户的概率。本发明可以对用户信息进行复核比对,以确认是否是本人在操作,对用户信息进行多维度判别。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种贷款智能进件方法、装置及存储介质。
背景技术
目前,贷款产品通常是通过用户手工录入的方式将产品所需的字段一个一个地录入到各种贷款产品的app中,而通常都需要录入几十甚至几百个字段,这需要消耗大量的时间和精力,而且由于文化水平的差异,还有部分贷款用户打字速度比较慢,如果要录入几十甚至几百个字段,其效率可想而知。这种手工录入大批量用户信息字段的方式不仅效率低下,对于部分贷款意愿强烈,但不善于打字的用户,增加了贷款申请的壁垒,而且,仅通过字段录入难以对用户的真实信息进行多维度判别。
发明内容
本发明提供一种贷款智能进件方法、装置及存储介质,以解决现有技术中难以对用户的真实信息进行多维度判别的问题。
为了实现上述目的,本发明的一个方面是提供一种贷款智能进件方法,包括:
获取进件时用户的第一输入语音和审批时用户的第二输入语音;
提取所述第一输入语音和所述第二输入语音的语音特征;
利用经过训练得到的语音分析模型,对所述第一输入语音和所述第二输入语音进行语音分析,得出进件时的用户和审批时的用户是否是同一用户;
若进件时的用户与审批时的用户是同一用户,则审批通过,用户进件成功;若进件时的用户与审批时的用户不是同一用户,则审批不通过,用户进件失败;
其中,所述语音分析模型采用对抗神经网络模型,所述对抗神经网络模型包括生成模型和判别模型,所述生成模型用于生成与所述第二输入语音对应的语音向量,所述判别模型用于判断第二输入语音对应的用户与第一输入语音对应的用户是同一用户的概率。
在一个实施例中,所述贷款智能进件方法还包括:对所述对抗神经网络模型进行训练;
对所述对抗神经网络模型进行训练的步骤包括:
获取训练样本,所述训练样本包括进件时用户的第一输入语音和审批时用户的第二输入语音;
将训练样本输入对抗神经网络模型进行训练,其中,通过所述生成模型对所述第一输入语音进行语音特征的学习,生成与所述第二输入语音相对应的语音向量,所述语音向量用于对抗训练;通过所述判别模型对第一输入语音和第二输入语音对应的用户是否是同一用户进行判断,输出第一输入语音和第二输入语音对应的用户是同一用户的概率;
当所述判别模型输出结果的准确率超过预设阈值时,结束训练。
在一个实施例中,通过所述生成模型对所述第一输入语音进行语音特征的学习,生成与所述第二输入语音相对应的语音向量的步骤包括:
将所述第一输入语音输入所述生成模型;
通过所述生成模型的全连接层将所述第一输入语音的语音特征转化为特征表;
对所述特征表的语音特征数据进行反卷积运算,经过多层反卷积层生成输出语音特征,作为与第二输入语音相对应的语音向量。
在一个实施例中,通过所述判别模型对第一输入语音和第二输入语音对应的用户是否是同一用户进行判断的步骤包括:
通过卷积层对所述输出语音特征进行卷积运算;
通过全连接层对卷积运算结果进行处理;
通过激活函数输出所述输出语音特征为真假的概率。
在一个实施例中,提取所述第一输入语音和所述第二输入语音的语音特征时,使用梅尔频率倒谱系数语音特征进行采样分析,通过使用声谱图、倒谱分析、Mel频率分析、Mel频率倒谱系数的方式对语音特征进行提取。
在一个实施例中,提取梅尔频率倒谱系数语音特征的步骤包括:
对输入语音进行预处理,所述预处理包括预加重、分帧和加窗处理;
通过快速傅里叶变换得到与每一个短时分析窗对应的FFT频谱;
通过Mel滤波器组得到与FFT频谱对应的Mel频谱;
在Mel频谱上进行倒谱分析,获得梅尔频率倒谱系数。
在一个实施例中,获取进件时用户的第一输入语音之后,还包括:
通过语音识别获取与第一输入语音对应的录入字段信息;
获取用户的证件图片,并通过图像文字识别获取用户的证件信息;
通过获取的证件信息对相应的录入字段信息进行验证。
在一个实施例中,获取进件时用户的第一输入语音之后,还包括:
将第一输入语音转化为文本;
对转化文本进行文字情绪识别;
根据文字情绪识别结果判断用户是否说谎,若判断得出用户说谎,则结束进件,若判断得出用户未说谎,则进行获取审批时用户的第二输入语音的步骤。
为了实现上述目的,本发明的另一个方面是提供一种电子装置,该电子装置包括:处理器和存储器,所述存储器中包括贷款智能进件程序,所述贷款智能进件程序被所述处理器执行时实现如上所述的贷款智能进件方法。
为了实现上述目的,本发明的再一个方面是提供一种计算机可读存储介质,所述计算机可读存储介质中包括贷款智能进件程序,所述贷款智能进件程序被处理器执行时,实现如上所述的贷款智能进件方法。
相对于现有技术,本发明具有以下优点和有益效果:
本发明通过对抗神经网络模型对用户进件时和审批时的输入语音进行语音分析,可以对用户信息进行复核比对,以确认是否是本人在操作,对用户信息进行多维度判别。
本发明通过语音交互方式,让用户在沟通中即可填入贷款所需信息,可以有效避免客户产生烦躁等负面情绪,并且,降低贷款申请的技术壁垒,减少因打字速度、不会打字等原因而放弃贷款的客户人数。
本发明采用语音作为贷款信息的一个来源,可以增加用户在语音录入时的说话情绪判断,增加用户说话语速、声音频率等方面的数据,可作为智能风控判别用户真实性、有效性的一个手段、方式。
附图说明
图1为本发明所述贷款智能进件方法的流程示意图;
图2为本发明中贷款智能进件装置的示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将参考附图来描述本发明所述的实施例。本领域的普通技术人员可以认识到,在不偏离本发明的精神和范围的情况下,可以用各种不同的方式或其组合对所描述的实施例进行修正。因此,附图和描述在本质上是说明性的,仅仅用以解释本发明,而不是用于限制权利要求的保护范围。此外,在本说明书中,附图未按比例画出,并且相同的附图标记表示相同的部分。
图1为本发明所述贷款智能进件方法的流程示意图,如图1所示,所述贷款智能进件方法包括以下步骤:
步骤S1,获取进件时用户的第一输入语音和审批时用户的第二输入语音,其中,进件指的是用户贷款时向贷款机构或银行系统提交申请贷款所需材料,审批指的是进件后对所提交材料进行审核,审批通过,则表示进件成功,才可向用户发放贷款;第一输入语音指的是用户申请贷款时录入的语音信息,第二输入语音指的是对用户贷款申请进行审批时用户录入的语音信息;
步骤S2,提取第一输入语音和第二输入语音的语音特征;
步骤S3,利用经过训练得到的语音分析模型,对所述第一输入语音和所述第二输入语音进行语音分析,得出进件时的用户和审批时的用户是否是同一用户;
若进件时的用户与审批时的用户是同一用户,则审批通过,用户进件成功;若进件时的用户与审批时的用户不是同一用户,则审批不通过,用户进件失败。
其中,语音分析模型采用对抗神经网络模型,所述对抗神经网络模型包括生成模型和判别模型,所述生成模型用于生成与第二输入语音对应的语音向量(其中,语音向量由语音特征值组成),所述判别模型用于判断第二输入语音对应的用户与第一输入语音对应的用户是同一用户的概率,具体地,若输出概率大于或等于预先设定的概率阈值,则判定为进件和审批时是同一用户,若输出概率小于预先设定的概率阈值,则判定为进件和审批时不是同一用户,则进件不成功,不能发放贷款。
需要说明的是,第一输入语音和第二输入语音的内容均为用户申请贷款时填写的各种信息,包括个人身份证、住址等的个人信息及配偶、联系人、贷款意图、是否有房有车等相关信息。
本发明通过对抗神经网络模型对进件和审批时用户的输入语音进行语音分析,增加对用户进件进行审批的判断维度,得出进件和审批时是否是同一用户,从而判别用户的真实性,实现用户的智能进件。
本发明的一个实施例中,所述贷款智能进件方法还包括对语音分析模型的训练步骤,当语音分析模型采用对抗神经网络模型时,对所述对抗神经网络模型进行训练的步骤包括:
获取训练样本,所述训练样本包括进件时用户的第一输入语音和审批时用户的第二输入语音;
将训练样本输入对抗神经网络模型进行训练,其中,通过生成模型对第一输入语音进行语音特征的学习,通过学习的语音特征生成新的语音,作为与第二输入语音相对应的语音向量,所述语音向量用于对抗训练;通过判别模型对第一输入语音和第二输入语音对应的用户是否是同一用户进行判断,输出第一输入语音和第二输入语音对应的用户是同一用户的概率,概率越大,表明所述对抗神经网络模型的准确率越高,当所述判别模型输出结果的准确率超过预设阈值时,结束训练。进一步地,生成模型使用用户的第一输入语音文件,接收随机噪声,通过生成模型的全连接层将第一输入语音的语音特征转化为特征表,通过反卷积层对所述特征表的语音特征数据进行反卷积运算,经过多层反卷积层生成输出语音特征,作为与第二输入语音相对应的语音向量。通过判别模型的卷积层对生成模型的输出语音特征进行卷积运算,接入全连接层处理,最后送入激活函数中,输出所述输出语音特征数据为真假的概率,概率越大,表明所述对抗神经网络模型的准确率越高,当准确率超过预设阈值时,则可以结束训练。
当用户审批时的第二输入语音被采集时,通过判别模型来判断该用户的第二输入语音的各个特征值的真假,达到判断用户是否为本人的目的。具体地,将用户进件时的第一输入语音输入生成模型,得到与第二输入语音对应的语音向量,将得到的语音向量和第二输入语音均输入判别模型,从而得到第二输入语音的特征值的真假,其中,特征值指的是提取的语音特征,例如下文中的MFCC系数。通过判别模型输出特征值为真实的概率(第二输入语音的特征值与第一输入语音的特征值越接近,则认为第二输入语音越真),当输出概率值大于预设的概率阈值时,则认为第二输入语音的用户与第一输入语音的用户是同一用户。
本发明中,可以采用相同的方法提取第一输入语音和第二输入语音的语音特征。在一个实施例中,使用梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC)语音特征对样本数据进行采样分析,通过使用声谱图、倒谱分析、Mel频率分析、Mel频率倒谱系数的方式来对语音特征进行提取。
以提取第一输入语音的语音特征为例,提取MFCC语音特征的具体步骤包括:
对第一输入语音进行预处理,所述预处理包括预加重、分帧和加窗处理;
通过快速傅里叶变换(fast Fourier transform,FFT)得到与每一个短时分析窗对应的FFT频谱;
通过Mel滤波器组得到与FFT频谱对应的Mel频谱;
在Mel频谱上进行倒谱分析,获得Mel频率倒谱系数MFCC,其中,倒谱分析包括对Mel频谱进行对数运算处理后,再进行傅里叶逆变换,傅里叶逆变换通过离散余弦变换(Discrete Cosine Transform,DCT)实现,取DCT后的第2个到第13个系数作为MFCC系数。
需要说明的是,采用上述的类似方法可以提取语音的多种特征,而不仅限于MFCC系数语音特征,例如,语速、响度、高音、停顿等。其中,响度与频率有关,响度用对数值来表示,即为响度级,响度级定位为方,响度与频率声级对应关系同等响度曲线公式计算出。音高通过声音频率高低来定义。停顿通过静息的次数来区分。因此,可以使用类似的方法进行频谱分析,得到上述语音特征。通过对其他语音特征的分析,可以对审批时的用户信息进行复核比对,确认是否本人操作。
在一个实施例中,获取进件时用户的第一输入语音之后,还包括:
通过语音识别获取与第一输入语音对应的录入字段信息;获取用户的证件图片,并通过图像文字识别获取用户的证件信息,其中,证件图片指的是摄取的身份证图片;通过获取的证件信息对相应的录入字段信息进行验证,例如,通过录入字段与证件信息的字段进行文字字段比对,得到录入字段与证件信息的字段的相似度,若相似度大于或等于预设相似度阈值,则验证通过,若相似度小于预设相似度阈值,则验证不通过。
需要说明的是,本发明中的语音识别技术和图像文字识别均为现有技术,在此不再赘述。本发明通过语音识别和图像文字识别相结合,进一步地加强了对用户信息的验证过程,降低用户信息录入错误的可能性。
在一个实施例中,获取进件时用户的第一输入语音之后,还包括:
通过语音识别获取与第一输入语音对应的录入字段信息;
将录入字段信息以页面的形式展现,以方便用户对录入信息进行查缺补漏,确保贷款申请信息的正确性,以更便捷、更高效的方式申请贷款,完成贷款场景的进件。
在一个实施例中,获取进件时用户的第一输入语音之后,还包括:
将第一输入语音转化为文本;
对转化文本进行文字情绪识别;
根据文字情绪识别结果判断用户是否说谎,若判断得出用户说谎,则结束进件,若判断得出用户未说谎,则进行获取审批时用户的第二输入语音的步骤。通过文字情绪识别对用户进行预先判断,若用户说谎,则无需再获取第二输入语音,直接结束进件。
根据文字情绪识别结果判断用户是否说谎,包括:当识别到用户录入第一输入语音时的情绪波动剧烈,或者带有惊慌、惊愕等情绪时,则认为用户说谎;当识别到用户录入第一输入语音时的情绪稳定、平缓,则认为用户未说谎。其中,情绪波动判别的是语速是否大于150字/min,说话响度频率的波动是否过大或过小,或停顿次数是否过多。也就是说,通过得到的语音特征等可以识别到情绪是否波动以及情绪的波动情况,此处的情绪波动指的是输入语音所携带的情绪波动,通过将输入语音转化为文字进行情绪识别。通过用户录音的声音状态来分析用户语音录入贷款信息时的情绪特征,以判断其是否说谎,增加量对用户语速、声音频率、情绪等方面的考量,有利于有效地进行智能风控判别。
图2为本发明所述贷款智能进件装置的示意图,如图2所示,所述贷款智能进件装置包括:
语音获取模块1,用于获取进件时用户的第一输入语音和审批时用户的第二输入语音,其中,进件指的是用户贷款时向贷款机构或银行系统提交申请贷款所需材料,审批指的是进件后对所提交材料进行审核,审批通过,则表示进件成功,才可向用户发放贷款;第一输入语音指的是用户申请贷款时录入的语音信息,第二输入语音指的是对用户贷款申请进行审批时用户录入的语音信息;
特征提取模块2,用于提取第一输入语音和第二输入语音的语音特征;
语音分析模块3,利用经过训练得到的语音分析模型,对所述第一输入语音和所述第二输入语音进行语音分析;
第一判断模块4,根据语音分析结果判断进件时的用户和审批时的用户是否是同一用户;若进件时的用户与审批时的用户是同一用户,则审批通过,用户进件成功;若进件时的用户与审批时的用户不是同一用户,则审批不通过,用户进件失败。
其中,语音分析模型采用对抗神经网络模型,所述对抗神经网络模型包括生成模型和判别模型,所述生成模型用于生成与第二输入语音对应的语音向量(其中,语音向量由语音特征值组成),所述判别模型用于判断第二输入语音对应的用户与第一输入语音对应的用户是同一用户的概率,具体地,若语音分析得到的输出概率大于或等于预先设定的概率阈值,则判定模块判定为进件和审批时是同一用户,若输出概率小于预先设定的概率阈值,则判定模块判定为进件和审批时不是同一用户,则进件不成功,不能发放贷款。
需要说明的是,第一输入语音和第二输入语音的内容均为用户申请贷款时填写的各种信息,包括个人身份证、住址等的个人信息及配偶、联系人、贷款意图、是否有房有车等相关信息。
本发明的一个实施例中,所述贷款智能进件装置还包括训练模块,对语音分析模型进行训练,当语音分析模型采用对抗神经网络模型时,对所述对抗神经网络模型进行训练的步骤包括:
获取训练样本,所述训练样本包括进件时用户的第一输入语音和审批时用户的第二输入语音;
将训练样本输入对抗神经网络模型进行训练,其中,通过生成模型对第一输入语音进行语音特征的学习,通过学习的语音特征生成新的语音,作为与第二输入语音相对应的语音向量,所述语音向量用于对抗训练;通过判别模型对第一输入语音和第二输入语音对应的用户是否是同一用户进行判断,输出第一输入语音和第二输入语音对应的用户是同一用户的概率,概率越大,表明所述对抗神经网络模型的准确率越高,当所述判别模型输出结果的准确率超过预设阈值时,结束训练。进一步地,生成模型使用用户的第一输入语音文件,接收随机噪声,通过生成模型的全连接层将第一输入语音的语音特征转化为特征表,通过反卷积层对所述特征表的语音特征数据进行反卷积运算,经过多层反卷积层生成输出语音特征,作为与第二输入语音相对应的语音向量。通过判别模型的卷积层对生成模型的输出语音特征进行卷积运算,接入全连接层处理,最后送入激活函数中,输出所述输出语音特征数据为真假的概率,概率越大,表明所述对抗神经网络模型的准确率越高,当准确率超过预设阈值时,则可以结束训练。
当用户审批时的第二输入语音被采集时,通过判别模型来判断该用户的第二输入语音的各个特征值的真假,达到判断用户是否为本人的目的。具体地,将用户进件时的第一输入语音输入生成模型,得到与第二输入语音对应的语音向量,将得到的语音向量和第二输入语音均输入判别模型,从而得到第二输入语音的特征值的真假,其中,特征值指的是提取的语音特征,例如下文中的MFCC系数。通过判别模型输出特征值为真实的概率(第二输入语音的特征值与第一输入语音的特征值越接近,则认为第二输入语音越真),当输出概率值大于预设的概率阈值时,则认为第二输入语音的用户与第一输入语音的用户是同一用户。
本发明中,特征提取模块可以采用相同的方法提取第一输入语音和第二输入语音的语音特征。在一个实施例中,使用梅尔频率倒谱系数(Mel Frequency CepstrumCoefficient,MFCC)语音特征对样本数据进行采样分析,通过使用声谱图、倒谱分析、Mel频率分析、Mel频率倒谱系数的方式来对语音特征进行提取。
以提取第一输入语音的语音特征为例,提取MFCC语音特征的具体步骤包括:
对第一输入语音进行预处理,所述预处理包括预加重、分帧和加窗处理;
通过快速傅里叶变换(Fast Fourier Transform,FFT)得到与每一个短时分析窗对应的FFT频谱;
通过Mel滤波器组得到与FFT频谱对应的Mel频谱;
在Mel频谱上进行倒谱分析,获得Mel频率倒谱系数MFCC,其中,倒谱分析包括对Mel频谱进行对数运算处理后,再进行傅里叶逆变换,傅里叶逆变换通过离散余弦变换(Discrete Cosine Transform,DCT)实现,取DCT后的第2个到第13个系数作为MFCC系数。
需要说明的是,采用上述的类似方法可以提取语音的多种特征,而不仅限于MFCC系数语音特征,例如,语速、响度、高音、停顿等。其中,响度与频率有关,响度用对数值来表示,即为响度级,响度级定位为方,响度与频率声级对应关系同等响度曲线公式计算出。音高通过声音频率高低来定义。停顿通过静息的次数来区分。因此,可以使用类似的方法进行频谱分析,得到上述语音特征。
在一个实施例中,所述贷款智能进件装置还包括:语音识别模块,通过语音识别获取与第一输入语音对应的录入字段信息,使得用户只需要进行有效的语音交互即可完成字段的输入,有利于大批量的字段录入,将贷款进件与用户打字完全分离开,是否会打字不再成为用户申请贷款的壁垒;文字识别模块,获取用户的证件图片,并通过图像文字识别获取用户的证件信息,其中,证件图片指的是摄取的身份证图片;验证模块,通过获取的证件信息对相应的录入字段信息进行验证,确保了录入信息的准确性和可靠性。例如,通过录入字段与证件信息的字段进行文字字段比对,得到录入字段与证件信息的字段的相似度,若相似度大于或等于预设相似度阈值,则验证通过,若相似度小于预设相似度阈值,则验证不通过。
在一个实施例中,所述贷款智能进件装置还包括:语音识别模块,通过语音识别获取与第一输入语音对应的录入字段信息;页面展示模块,将录入字段信息以页面的形式展现,以方便用户对录入信息进行查缺补漏,确保贷款申请信息的正确性,以更便捷、更高效的方式申请贷款,完成贷款场景的进件。
在一个实施例中,所述贷款智能进件装置还包括:文本转化模块,用于将第一输入语音转化为文本;情绪识别模块,用于对转化文本进行文字情绪识别;第二判断模块,用于根据文字情绪识别结果判断用户是否说谎,若判断得出用户说谎,则结束进件,若判断得出用户未说谎,则进行获取审批时用户的第二输入语音的步骤。通过文字情绪识别对用户进行预先判断,若用户说谎,则无需再获取第二输入语音,直接结束进件。
需要说明的是,本发明之贷款智能进件装置的具体实施方式与上述贷款智能进件方法的具体实施方式大致相同,在此不再赘述。
本发明所述贷款智能进件方法应用于电子装置,所述电子装置可以是电视机、智能手机、平板电脑、计算机等终端设备。
所述电子装置包括:处理器和存储器,用于存储贷款智能进件程序,处理器执行所述贷款智能进件程序,实现以下的贷款智能进件方法:
获取进件时用户的第一输入语音和审批时用户的第二输入语音;
提取所述第一输入语音和所述第二输入语音的语音特征;
利用经过训练得到的语音分析模型,对所述第一输入语音和所述第二输入语音进行语音分析,得出进件时的用户和审批时的用户是否是同一用户;
若进件时的用户与审批时的用户是同一用户,则审批通过,用户进件成功;若进件时的用户与审批时的用户不是同一用户,则审批不通过,用户进件失败;
其中,所述语音分析模型采用对抗神经网络模型,所述对抗神经网络模型包括生成模型和判别模型,所述生成模型用于生成与所述第二输入语音对应的语音向量,所述判别模型用于判断第二输入语音对应的用户与第一输入语音对应的用户是同一用户的概率。
所述电子装置还包括网络接口和通信总线等。其中,网络接口可以包括标准的有线接口、无线接口,通信总线用于实现各个组件之间的连接通信。
存储器包括至少一种类型的可读存储介质,可以是闪存、硬盘、光盘等非易失性存储介质,也可以是插接式硬盘等,且并不限于此,可以是以非暂时性方式存储指令或软件以及任何相关联的数据文件并向处理器提供指令或软件程序以使该处理器能够执行指令或软件程序的任何装置。本发明中,存储器存储的软件程序包括贷款智能进件程序,并可以向处理器提供该贷款智能进件程序,以使得处理器可以执行该贷款智能进件程序,实现贷款智能进件方法。
处理器可以是中央处理器、微处理器或其他数据处理芯片等,可以运行存储器中的存储程序,例如,本发明中贷款智能进件程序。
所述电子装置还可以包括显示器,显示器也可以称为显示屏或显示单元。在一些实施例中显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。显示器用于显示在电子装置中处理的信息以及用于显示可视化的工作界面。
所述电子装置还可以包括用户接口,用户接口可以包括输入单元(比如键盘)、语音输出装置(比如音响、耳机)等。
需要说明的是,本发明之电子装置的具体实施方式与上述贷款智能进件方法、装置的具体实施方式大致相同,在此不再赘述。
在其他实施例中,贷款智能进件程序还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器中,并由处理器执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。例如,所述贷款智能进件程序可以被分割为:语音获取模块1、特征提取模块2、语音分析模块3和第一判断模块4。上述模块所实现的功能或操作步骤均与上文类似,此处不再详述。
本发明的一个实施例中,计算机可读存储介质可以是任何包含或存储程序或指令的有形介质,其中的程序可以被执行,通过存储的程序指令相关的硬件实现相应的功能。例如,计算机可读存储介质可以是计算机磁盘、硬盘、随机存取存储器、只读存储器等。本发明并不限于此,可以是以非暂时性方式存储指令或软件以及任何相关数据文件或数据结构并且可提供给处理器以使处理器执行其中的程序或指令的任何装置。所述计算机可读存储介质中包括贷款智能进件程序,所述贷款智能进件程序被处理器执行时,实现如下的贷款智能进件方法:
获取进件时用户的第一输入语音和审批时用户的第二输入语音;
提取所述第一输入语音和所述第二输入语音的语音特征;
利用经过训练得到的语音分析模型,对所述第一输入语音和所述第二输入语音进行语音分析,得出进件时的用户和审批时的用户是否是同一用户;
若进件时的用户与审批时的用户是同一用户,则审批通过,用户进件成功;若进件时的用户与审批时的用户不是同一用户,则审批不通过,用户进件失败;
其中,所述语音分析模型采用对抗神经网络模型,所述对抗神经网络模型包括生成模型和判别模型,所述生成模型用于生成与所述第二输入语音对应的语音向量,所述判别模型用于判断第二输入语音对应的用户与第一输入语音对应的用户是同一用户的概率。
本发明之计算机可读存储介质的具体实施方式与上述贷款智能进件方法、装置的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
Claims (10)
1.一种贷款智能进件方法,应用于电子装置,其特征在于,包括:
获取进件时用户的第一输入语音和审批时用户的第二输入语音;
提取所述第一输入语音和所述第二输入语音的语音特征;
利用经过训练得到的语音分析模型,对所述第一输入语音和所述第二输入语音进行语音分析,得出进件时的用户和审批时的用户是否是同一用户;
若进件时的用户与审批时的用户是同一用户,则审批通过,用户进件成功;若进件时的用户与审批时的用户不是同一用户,则审批不通过,用户进件失败;
其中,所述语音分析模型采用对抗神经网络模型,所述对抗神经网络模型包括生成模型和判别模型,所述生成模型用于生成与所述第二输入语音对应的语音向量,所述判别模型用于判断第二输入语音对应的用户与第一输入语音对应的用户是同一用户的概率。
2.根据权利要求1所述的贷款智能进件方法,其特征在于,所述贷款智能进件方法还包括:对所述对抗神经网络模型进行训练;
对所述对抗神经网络模型进行训练的步骤包括:
获取训练样本,所述训练样本包括进件时用户的第一输入语音和审批时用户的第二输入语音;
将训练样本输入对抗神经网络模型进行训练,其中,通过所述生成模型对所述第一输入语音进行语音特征的学习,生成与所述第二输入语音相对应的语音向量,所述语音向量用于对抗训练;通过所述判别模型对第一输入语音和第二输入语音对应的用户是否是同一用户进行判断,输出第一输入语音和第二输入语音对应的用户是同一用户的概率;
当所述判别模型输出结果的准确率超过预设阈值时,结束训练。
3.根据权利要求2所述的贷款智能进件方法,其特征在于,通过所述生成模型对所述第一输入语音进行语音特征的学习,生成与所述第二输入语音相对应的语音向量的步骤包括:
将所述第一输入语音输入所述生成模型;
通过所述生成模型的全连接层将所述第一输入语音的语音特征转化为特征表;
对所述特征表的语音特征数据进行反卷积运算,经过多层反卷积层生成输出语音特征,作为与第二输入语音相对应的语音向量。
4.根据权利要求3所述的贷款智能进件方法,其特征在于,通过所述判别模型对第一输入语音和第二输入语音对应的用户是否是同一用户进行判断的步骤包括:
通过卷积层对所述输出语音特征进行卷积运算;
通过全连接层对卷积运算结果进行处理;
通过激活函数输出所述输出语音特征为真假的概率。
5.根据权利要求1所述的贷款智能进件方法,其特征在于,提取所述第一输入语音和所述第二输入语音的语音特征时,使用梅尔频率倒谱系数语音特征进行采样分析,通过使用声谱图、倒谱分析、Mel频率分析、Mel频率倒谱系数的方式对语音特征进行提取。
6.根据权利要求5所述的贷款智能进件方法,其特征在于,提取梅尔频率倒谱系数语音特征的步骤包括:
对输入语音进行预处理,所述预处理包括预加重、分帧和加窗处理;
通过快速傅里叶变换得到与每一个短时分析窗对应的FFT频谱;
通过Mel滤波器组得到与FFT频谱对应的Mel频谱;
在Mel频谱上进行倒谱分析,获得梅尔频率倒谱系数。
7.根据权利要求1所述的贷款智能进件方法,其特征在于,获取进件时用户的第一输入语音之后,还包括:
通过语音识别获取与第一输入语音对应的录入字段信息;
获取用户的证件图片,并通过图像文字识别获取用户的证件信息;
通过获取的证件信息对相应的录入字段信息进行验证。
8.根据权利要求1所述的贷款智能进件方法,其特征在于,获取进件时用户的第一输入语音之后,还包括:
将第一输入语音转化为文本;
对转化文本进行文字情绪识别;
根据文字情绪识别结果判断用户是否说谎,若判断得出用户说谎,则结束进件,若判断得出用户未说谎,则进行获取审批时用户的第二输入语音的步骤。
9.一种电子装置,其特征在于,该电子装置包括:处理器和存储器,所述存储器中包括贷款智能进件程序,所述贷款智能进件程序被所述处理器执行时实现如权利要求1至8中任一项所述的贷款智能进件方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括贷款智能进件程序,所述贷款智能进件程序被处理器执行时,实现如权利要求1至8中任一项所述的贷款智能进件方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010254541.2A CN111583935A (zh) | 2020-04-02 | 2020-04-02 | 贷款智能进件方法、装置及存储介质 |
PCT/CN2020/103931 WO2021196458A1 (zh) | 2020-04-02 | 2020-07-24 | 贷款智能进件方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010254541.2A CN111583935A (zh) | 2020-04-02 | 2020-04-02 | 贷款智能进件方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111583935A true CN111583935A (zh) | 2020-08-25 |
Family
ID=72112451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010254541.2A Pending CN111583935A (zh) | 2020-04-02 | 2020-04-02 | 贷款智能进件方法、装置及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111583935A (zh) |
WO (1) | WO2021196458A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113488069A (zh) * | 2021-07-06 | 2021-10-08 | 浙江工业大学 | 基于生成式对抗网络的语音高维特征快速提取方法和装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040006476A1 (en) * | 2001-07-03 | 2004-01-08 | Leo Chiu | Behavioral adaptation engine for discerning behavioral characteristics of callers interacting with an VXML-compliant voice application |
KR20140034958A (ko) * | 2012-09-10 | 2014-03-21 | (주)크리젠솔루션 | 모바일 어플리케이션을 이용한 대출 심사 자료 관리 시스템 |
CN105513597A (zh) * | 2015-12-30 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | 声纹认证处理方法及装置 |
CN107977776A (zh) * | 2017-11-14 | 2018-05-01 | 重庆小雨点小额贷款有限公司 | 信息处理方法、装置、服务器及计算机可读存储介质 |
CN109325742A (zh) * | 2018-09-26 | 2019-02-12 | 平安普惠企业管理有限公司 | 业务审批方法、装置、计算机设备及存储介质 |
CN110010133A (zh) * | 2019-03-06 | 2019-07-12 | 平安科技(深圳)有限公司 | 基于短文本的声纹检测方法、装置、设备及存储介质 |
CN110379441A (zh) * | 2019-07-01 | 2019-10-25 | 特斯联(北京)科技有限公司 | 一种基于对抗型人工智能网络的语音服务方法与系统 |
CN110443692A (zh) * | 2019-07-04 | 2019-11-12 | 平安科技(深圳)有限公司 | 企业信贷审核方法、装置、设备及计算机可读存储介质 |
CN110675881A (zh) * | 2019-09-05 | 2020-01-10 | 北京捷通华声科技股份有限公司 | 一种语音校验方法和装置 |
CN110738998A (zh) * | 2019-09-11 | 2020-01-31 | 深圳壹账通智能科技有限公司 | 基于语音的个人信用评估方法、装置、终端及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8600798B1 (en) * | 2007-09-21 | 2013-12-03 | Ellie Mae, Inc. | Loan screening |
CN109360571A (zh) * | 2018-10-31 | 2019-02-19 | 深圳壹账通智能科技有限公司 | 贷款信息的处理方法及装置、存储介质、计算机设备 |
CN109473108A (zh) * | 2018-12-15 | 2019-03-15 | 深圳壹账通智能科技有限公司 | 基于声纹识别的身份验证方法、装置、设备及存储介质 |
-
2020
- 2020-04-02 CN CN202010254541.2A patent/CN111583935A/zh active Pending
- 2020-07-24 WO PCT/CN2020/103931 patent/WO2021196458A1/zh active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040006476A1 (en) * | 2001-07-03 | 2004-01-08 | Leo Chiu | Behavioral adaptation engine for discerning behavioral characteristics of callers interacting with an VXML-compliant voice application |
KR20140034958A (ko) * | 2012-09-10 | 2014-03-21 | (주)크리젠솔루션 | 모바일 어플리케이션을 이용한 대출 심사 자료 관리 시스템 |
CN105513597A (zh) * | 2015-12-30 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | 声纹认证处理方法及装置 |
CN107977776A (zh) * | 2017-11-14 | 2018-05-01 | 重庆小雨点小额贷款有限公司 | 信息处理方法、装置、服务器及计算机可读存储介质 |
CN109325742A (zh) * | 2018-09-26 | 2019-02-12 | 平安普惠企业管理有限公司 | 业务审批方法、装置、计算机设备及存储介质 |
CN110010133A (zh) * | 2019-03-06 | 2019-07-12 | 平安科技(深圳)有限公司 | 基于短文本的声纹检测方法、装置、设备及存储介质 |
CN110379441A (zh) * | 2019-07-01 | 2019-10-25 | 特斯联(北京)科技有限公司 | 一种基于对抗型人工智能网络的语音服务方法与系统 |
CN110443692A (zh) * | 2019-07-04 | 2019-11-12 | 平安科技(深圳)有限公司 | 企业信贷审核方法、装置、设备及计算机可读存储介质 |
CN110675881A (zh) * | 2019-09-05 | 2020-01-10 | 北京捷通华声科技股份有限公司 | 一种语音校验方法和装置 |
CN110738998A (zh) * | 2019-09-11 | 2020-01-31 | 深圳壹账通智能科技有限公司 | 基于语音的个人信用评估方法、装置、终端及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113488069A (zh) * | 2021-07-06 | 2021-10-08 | 浙江工业大学 | 基于生成式对抗网络的语音高维特征快速提取方法和装置 |
CN113488069B (zh) * | 2021-07-06 | 2024-05-24 | 浙江工业大学 | 基于生成式对抗网络的语音高维特征快速提取方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021196458A1 (zh) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564954B (zh) | 深度神经网络模型、电子装置、身份验证方法和存储介质 | |
WO2018166187A1 (zh) | 服务器、身份验证方法、系统及计算机可读存储介质 | |
CN107492379B (zh) | 一种声纹创建与注册方法及装置 | |
CN110956966B (zh) | 声纹认证方法、装置、介质及电子设备 | |
WO2020077885A1 (zh) | 身份验证方法、装置、计算机设备和存储介质 | |
WO2019019256A1 (zh) | 电子装置、身份验证的方法、系统及计算机可读存储介质 | |
CN109034069B (zh) | 用于生成信息的方法和装置 | |
CN109859772A (zh) | 情绪识别方法、装置及计算机可读存储介质 | |
CN110505504B (zh) | 视频节目处理方法、装置、计算机设备及存储介质 | |
CN112418059B (zh) | 一种情绪识别的方法、装置、计算机设备及存储介质 | |
CN107766868A (zh) | 一种分类器训练方法及装置 | |
CN110738998A (zh) | 基于语音的个人信用评估方法、装置、终端及存储介质 | |
CN109582825B (zh) | 用于生成信息的方法和装置 | |
Noroozi et al. | Supervised vocal-based emotion recognition using multiclass support vector machine, random forests, and adaboost | |
CN110704618B (zh) | 确定对话数据对应的标准问题的方法及装置 | |
CN108650266B (zh) | 服务器、声纹验证的方法及存储介质 | |
CN111583935A (zh) | 贷款智能进件方法、装置及存储介质 | |
CN109101956B (zh) | 用于处理图像的方法和装置 | |
WO2021128847A1 (zh) | 终端交互方法、装置、计算机设备及存储介质 | |
CN108630208B (zh) | 服务器、基于声纹的身份验证方法及存储介质 | |
CN110992930A (zh) | 声纹特征提取方法、装置、终端及可读存储介质 | |
CN116450943A (zh) | 基于人工智能的话术推荐方法、装置、设备及存储介质 | |
CN115242927A (zh) | 客服对象分配方法、装置、计算机设备及存储介质 | |
CN111785280B (zh) | 身份认证方法和装置、存储介质和电子设备 | |
CN114242075A (zh) | 基于人脸和声纹的身份认证方法、装置以及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200825 |