CN115424328A - 一种信息录入方法及装置、存储介质及电子设备 - Google Patents

一种信息录入方法及装置、存储介质及电子设备 Download PDF

Info

Publication number
CN115424328A
CN115424328A CN202211077788.7A CN202211077788A CN115424328A CN 115424328 A CN115424328 A CN 115424328A CN 202211077788 A CN202211077788 A CN 202211077788A CN 115424328 A CN115424328 A CN 115424328A
Authority
CN
China
Prior art keywords
information
face information
user
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211077788.7A
Other languages
English (en)
Inventor
于聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bank of China Ltd
Original Assignee
Bank of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of China Ltd filed Critical Bank of China Ltd
Priority to CN202211077788.7A priority Critical patent/CN115424328A/zh
Publication of CN115424328A publication Critical patent/CN115424328A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种信息录入方法及装置、存储介质及电子设备,可应用于金融领域或其他领域,其中,可以先通过智能柜台端的摄像头采集用户视频,并通过智能柜台端的录音设备采集用户语音信息;利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果;判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配;若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。能够实现无接触录入信息,提高信息录入效率,提升用户满意度。

Description

一种信息录入方法及装置、存储介质及电子设备
技术领域
本发明涉及数据处理技术领域,特别涉及一种信息录入方法及装置、存储介质及电子设备。
背景技术
随着人工智能和大数据的发展,越来越多的银行网点智能柜台。目前在智能柜台端主要依靠客户在电子屏幕上手动录入信息来实现各种功能,这种“人-机,机-人”交互的方式不利于疫情的防控;同时,大量的老龄客户可能会存在眼花、行动受限等,不便于在银行服务机器人上手动录入信息。
发明内容
本发明所要解决的技术问题是提供一种信息录入方法,能够实现无接触录入信息。
本发明还提供了一种信息录入装置,用以保证上述方法在实际中的实现及应用。
一种信息录入方法,应用于智能柜台端,所述方法包括:
响应于信息录入指令,通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息;
利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果;
判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配;
若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。
上述的方法,可选的,构建神经网络模型的过程,包括:
获取初始神经网络模型以及训练数据集;所述训练数据集包括多个历史用户图片;
应用预设的生成对抗网络对所述训练数据集中的每个所述历史用户图片进行数据增强,获得目标训练数据集;
利用所述目标训练数据集对所述初始神经网络模型进行训练,获得神经网络模型。
上述的方法,可选的,所述利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息,包括:
通过预先构建神经网络模型的特征提取模块提取所述用户视频中的每一视频帧的视频帧空间特征和时间特征,
通过预先构建神经网络模型的输出模块基于各个所述视频帧的视频帧空间特征和时间特征,输出所述用户视频的人脸信息。
上述的方法,可选的,所述判断所述人脸信息与所述业务办理指令对应的客户的标准人脸信息是否匹配,包括:
计算所述人脸信息与所述业务办理指令对应的客户的标准人脸信息的相似度;
在所述人脸信息与所述标准人脸信息的相似度大于预设的相似度阈值的情况下,确定所述人脸信息与所述标准人脸信息匹配;
在所述人脸信息与所述标准人脸信息的相似度不大于预设的相似度阈值的情况下,确定所述人脸信息与所述标准人脸信息不匹配。
上述的方法,可选的,所述在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果之后,还包括:
当接收到信息确认指令时,根据所述语音识别结果为所述用户办理所述信息录入框对应的业务。
一种信息录入装置,应用于智能柜台端,所述装置包括:
采集单元,用于响应于信息录入指令,通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息;
执行单元,用于利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果;
判断单元,用于判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配;
显示单元,用于若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。
上述的装置,可选的,所述执行单元,包括:
获取子单元,用于获取初始神经网络模型以及训练数据集;所述训练数据集包括多个历史用户图片;
执行子单元,用于应用预设的生成对抗网络对所述训练数据集中的每个所述历史用户图片进行数据增强,获得目标训练数据集;
训练子单元,用于利用所述目标训练数据集对所述初始神经网络模型进行训练,获得神经网络模型。
上述的装置,可选的,所述执行单元,包括:
特征提取单元,用于通过预先构建神经网络模型的特征提取模块提取所述用户视频中的每一视频帧的视频帧空间特征和时间特征,
输出单元,用于通过预先构建神经网络模型的输出模块基于各个所述视频帧的视频帧空间特征和时间特征,输出所述用户视频的人脸信息。
一种存储介质,所述存储介质包括存储指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如上述的信息录入方法。
一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如上述的信息录入方法。
与现有技术相比,本发明包括以下优点:
本发明提供了一种信息录入方法及装置、存储介质及电子设备,该方法包括:响应于信息录入指令,通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息;利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果;判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配;若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。应用本发明实施例提供的方法,能够实现无接触录入信息,提高信息录入效率,提升用户满意度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明提供的一种信息录入方法的方法流程图;
图2为本发明提供的一种构建神经网络模型的过程的流程图;
图3为本发明提供的一种获得用户视频中的人脸信息的过程的流程图;
图4为本发明提供的一种判断人脸信息与标准人脸信息是否匹配的过程的流程图;
图5为本发明提供的一种信息录入装置的结构示意图;
图6为本发明提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明实施例提供了一种信息录入方法,该方法可以应用于电子设备,电子设备可以是银行的智能柜台端,所述方法的方法流程图如图1所示,具体包括:
S101:响应于信息录入指令,通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息。
在本实施例中,信息录入指令可以是接收到用户的录入语音信息后触发的指令,也可以是读取到用户的银行卡、身份证等情况下触发的指令,还可以是应用程序执行过程中触发的指令,或者是移动端通过服务器发送的指令,又或者是工作人员点击预设的控件触发的信息录入指令等等。
可选的,信息录入指令的指令信息可以包括用户的用户标识。
S102:利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果。
在本实施例中,神经网络模型可以是卷积长短时记忆力网络。
可选的,人脸信息可以包括人脸特征。在一些实施例中,人脸特征可以包括视频帧中的空间特征以及时间特征。
可选的,语音识别模型可以是深度卷积神经网络DCNN。
其中,语音识别结果可以是文本内容。
S103:判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配。
在本实施例中,可以先确定信息录入指令对应的用户,获取该用户的预先存储的标准人脸信息,将人脸信息与标准人脸信息进行匹配。
S104:若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。
S105:输出提示信息,提示信息用于提示人脸核验失败。
在本实施例中,输出提示信息的方式可以是在显示界面显示提示信息,或者向用户的移动端发送提示信息,能够有效的保障信息录入的准确性和安全性。
应用本发明实施例提供的方法,能够实现无接触录入信息,提高信息录入效率,提升用户满意度。
在本发明提供的一实施例中,基于上述的实施过程,可选的,构建神经网络模型的过程,如图2所示,具体包括:
S201:获取初始神经网络模型以及训练数据集;所述训练数据集包括多个历史用户图片。
在一些实施例中,历史用户图片标注有样本标签。
S202:应用预设的生成对抗网络对所述训练数据集中的每个所述历史用户图片进行数据增强,获得目标训练数据集。
在本实施例中,对历史用户图片进行数据增强,获得目标历史用户图片,将所有的历史用户图片和各个目标历史用户图片组成目标训练数据集。
S203:利用所述目标训练数据集对所述初始神经网络模型进行训练,获得神经网络模型。
在本实施例中,利用目标训练数据集对初始神经网络模型进行训练,当初始神经网络模型满足训练条件时,将满足训练条件的初始识别模型作为神经网络模型。
应用本发明实施例提供的方法,通过生成对抗网络对历史人脸图片进行数据增强,能够有效的增加训练样本数量,从而可以利用充足的样本训练初始神经网络模型,获得训练好的神经网络模型,提高了神经网络模型的精度。
在本发明提供的一实施例中,基于上述的实施过程,可选的,所述利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息,如图3所示,包括:
S301:通过预先构建神经网络模型的特征提取模块提取所述用户视频中的每一视频帧的视频帧空间特征和时间特征;
在本实施例中,可以通过特征提取模块中的卷积网络提取得到视频帧中的空间特征,通过特征提取模块中的长短时记忆力网络提取视频帧间的时间特征。
S302:通过预先构建神经网络模型的输出模块基于各个所述视频帧的视频帧空间特征和时间特征,输出所述用户视频的人脸信息。
在本实施例中,输出模块可以对时间特征和视频帧空间特征进行融合,获得人脸信息。
在本发明提供的一实施例中,基于上述的实施过程,可选的,所述判断所述人脸信息与所述业务办理指令对应的客户的标准人脸信息是否匹配,如图4所示,包括:
S401:计算所述人脸信息与所述业务办理指令对应的客户的标准人脸信息的相似度。
在本实施例中,相似度可以是余弦相似度或欧氏距离等。
S402:在所述人脸信息与所述标准人脸信息的相似度大于预设的相似度阈值的情况下,确定所述人脸信息与所述标准人脸信息匹配。
S403:在所述人脸信息与所述标准人脸信息的相似度不大于预设的相似度阈值的情况下,确定所述人脸信息与所述标准人脸信息不匹配。
在本发明提供的一实施例中,基于上述的实施过程,可选的,所述在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果之后,还包括:
当接收到信息确认指令时,根据所述语音识别结果为所述用户办理所述信息录入框对应的业务。
当接收到重新录入指令时,删除所述语音识别结果,并重新返回执行S101中的通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息。
与图1所述的方法相对应,本发明实施例还提供了一种信息录入装置,用于对图1中方法的具体实现,本发明实施例提供的信息录入装置可以应用于电子设备中,其结构示意图如图5所示,具体包括:
采集单元501,用于响应于信息录入指令,通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息;
执行单元502,用于利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果;
判断单元503,用于判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配;
显示单元504,用于若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。
在本发明提供的一实施例中,基于上述的方案,可选的,所述执行单元,包括:
获取子单元,用于获取初始神经网络模型以及训练数据集;所述训练数据集包括多个历史用户图片;
执行子单元,用于应用预设的生成对抗网络对所述训练数据集中的每个所述历史用户图片进行数据增强,获得目标训练数据集;
训练子单元,用于利用所述目标训练数据集对所述初始神经网络模型进行训练,获得神经网络模型。
在本发明提供的一实施例中,基于上述的方案,可选的,所述执行单元,包括:
特征提取单元,用于通过预先构建神经网络模型的特征提取模块提取所述用户视频中的每一视频帧的视频帧空间特征和时间特征,
输出单元,用于通过预先构建神经网络模型的输出模块基于各个所述视频帧的视频帧空间特征和时间特征,输出所述用户视频的人脸信息。
在本发明提供的一实施例中,基于上述的方案,可选的,所述判断单元,包括:
计算子单元,用于计算所述人脸信息与所述业务办理指令对应的客户的标准人脸信息的相似度;
第一确定子单元,用于在所述人脸信息与所述标准人脸信息的相似度大于预设的相似度阈值的情况下,确定所述人脸信息与所述标准人脸信息匹配;
第二确定子单元,用于在所述人脸信息与所述标准人脸信息的相似度不大于预设的相似度阈值的情况下,确定所述人脸信息与所述标准人脸信息不匹配。
在本发明提供的一实施例中,基于上述的方案,可选的,信息录入装置还包括:
业务办理单元,用于当接收到信息确认指令时,根据所述语音识别结果为所述用户办理所述信息录入框对应的业务。
上述本发明实施例公开的信息录入装置中的各个单元和模块具体的原理和执行过程,与上述本发明实施例公开的信息录入方法相同,可参见上述本发明实施例提供的信息录入方法中相应的部分,这里不再进行赘述。
本发明实施例还提供了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述信息录入方法。
本发明实施例还提供了一种电子设备,其结构示意图如图6所示,具体包括存储器601,以及一个或者一个以上的指令602,其中一个或者一个以上指令602存储于存储器601中,且经配置以由一个或者一个以上处理器603执行所述一个或者一个以上指令602进行以下操作:
响应于信息录入指令,通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息;
利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果;
判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配;
若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。
在本发明提供的方法可以应用于银行的智能柜台端,在实际的应用过程中,具体实现方案如下:
1、对捕获的客户图片和语音信息进行信息录入;
2、对捕获的图片利用GAN(生成对抗网络)进行数据增强;
3、对训练好的神经网络,传入客户的视频和语音特征,识别出改客户的语音及人脸信息,人脸信息与银行本地数据库的人脸信息进行核对,确保客户本人在录入信息;识别出的语音信息回显到智归端。
在本实施例中,人脸识别模块除了学习视频帧空间特征,还要结合上下文学习视频帧之间蕴含的时序关系信息。将N帧人脸视频序列定义为F1:N={F1,F2,…}。因此采用CONVLSTM卷积长短时记忆力网络来捕获视频帧序列中的人脸特征。
在本实施例中,语音识别模块采用DCNN深度卷积神经网络。
需要说明的是,本发明提供的一种信息录入方法及装置、存储介质及电子设备可用于人工智能领域、区块链领域、分布式领域、云计算领域、大数据领域、物联网领域、移动互联领域、网络安全领域、芯片领域、虚拟现实领域、增强现实领域、全息技术领域、量子计算领域、量子通信领域、量子测量领域、数字孪生领域或金融领域。上述仅为示例,并不对本发明提供的一种信息录入方法及装置、存储介质及电子设备的应用领域进行限定。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本发明时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上对本发明所提供的一种信息录入方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种信息录入方法,其特征在于,应用于智能柜台端,所述方法包括:
响应于信息录入指令,通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息;
利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果;
判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配;
若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。
2.根据权利要求1所述的方法,其特征在于,构建神经网络模型的过程,包括:
获取初始神经网络模型以及训练数据集;所述训练数据集包括多个历史用户图片;
应用预设的生成对抗网络对所述训练数据集中的每个所述历史用户图片进行数据增强,获得目标训练数据集;
利用所述目标训练数据集对所述初始神经网络模型进行训练,获得神经网络模型。
3.根据权利要求1所述的方法,其特征在于,所述利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息,包括:
通过预先构建神经网络模型的特征提取模块提取所述用户视频中的每一视频帧的视频帧空间特征和时间特征,
通过预先构建神经网络模型的输出模块基于各个所述视频帧的视频帧空间特征和时间特征,输出所述用户视频的人脸信息。
4.根据权利要求1所述的方法,其特征在于,所述判断所述人脸信息与所述业务办理指令对应的客户的标准人脸信息是否匹配,包括:
计算所述人脸信息与所述业务办理指令对应的客户的标准人脸信息的相似度;
在所述人脸信息与所述标准人脸信息的相似度大于预设的相似度阈值的情况下,确定所述人脸信息与所述标准人脸信息匹配;
在所述人脸信息与所述标准人脸信息的相似度不大于预设的相似度阈值的情况下,确定所述人脸信息与所述标准人脸信息不匹配。
5.根据权利要求1所述的方法,其特征在于,所述在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果之后,还包括:
当接收到信息确认指令时,根据所述语音识别结果为所述用户办理所述信息录入框对应的业务。
6.一种信息录入装置,其特征在于,应用于智能柜台端,所述装置包括:
采集单元,用于响应于信息录入指令,通过所述智能柜台端的摄像头采集用户视频,并通过所述智能柜台端的录音设备采集用户语音信息;
执行单元,用于利用预先构建的神经网络模型对所述用户视频中的各视频帧进行处理,获得所述用户视频中的人脸信息;并利用预先训练好的语音识别模型对所述用户语音信息进行语音识别,获得语音识别结果;
判断单元,用于判断所述人脸信息与所述信息录入指令对应的用户的标准人脸信息是否匹配;
显示单元,用于若所述人脸信息与所述标准人脸信息匹配,则在所述智能柜台端的显示界面的信息录入框中显示所述语音识别结果。
7.根据权利要求6所述的装置,其特征在于,所述执行单元,包括:
获取子单元,用于获取初始神经网络模型以及训练数据集;所述训练数据集包括多个历史用户图片;
执行子单元,用于应用预设的生成对抗网络对所述训练数据集中的每个所述历史用户图片进行数据增强,获得目标训练数据集;
训练子单元,用于利用所述目标训练数据集对所述初始神经网络模型进行训练,获得神经网络模型。
8.根据权利要求6所述的装置,其特征在于,所述执行单元,包括:
特征提取单元,用于通过预先构建神经网络模型的特征提取模块提取所述用户视频中的每一视频帧的视频帧空间特征和时间特征,
输出单元,用于通过预先构建神经网络模型的输出模块基于各个所述视频帧的视频帧空间特征和时间特征,输出所述用户视频的人脸信息。
9.一种存储介质,其特征在于,所述存储介质包括存储指令,其中,在所述指令运行时控制所述存储介质所在的设备执行如权利要求1~5任意一项所述的信息录入方法。
10.一种电子设备,其特征在于,包括存储器,以及一个或者一个以上的指令,其中一个或一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行如权利要求1~5任意一项所述的信息录入方法。
CN202211077788.7A 2022-09-05 2022-09-05 一种信息录入方法及装置、存储介质及电子设备 Pending CN115424328A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211077788.7A CN115424328A (zh) 2022-09-05 2022-09-05 一种信息录入方法及装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211077788.7A CN115424328A (zh) 2022-09-05 2022-09-05 一种信息录入方法及装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN115424328A true CN115424328A (zh) 2022-12-02

Family

ID=84203050

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211077788.7A Pending CN115424328A (zh) 2022-09-05 2022-09-05 一种信息录入方法及装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN115424328A (zh)

Similar Documents

Publication Publication Date Title
EP3477519B1 (en) Identity authentication method, terminal device, and computer-readable storage medium
US11436863B2 (en) Method and apparatus for outputting data
CN109034069B (zh) 用于生成信息的方法和装置
CN109993150B (zh) 用于识别年龄的方法和装置
CN112863683B (zh) 基于人工智能的病历质控方法、装置、计算机设备及存储介质
CN109660744A (zh) 基于大数据的智能双录方法、设备、存储介质及装置
CN108549848B (zh) 用于输出信息的方法和装置
JP2022177232A (ja) 画像処理方法、テキスト認識方法及び装置
CN110046806B (zh) 用于客服派单的方法、装置和计算设备
CN113656761B (zh) 基于生物识别技术的业务处理方法、装置和计算机设备
CN113314150A (zh) 基于语音数据的情绪识别方法、装置及存储介质
CN114282258A (zh) 截屏数据脱敏方法、装置、计算机设备及存储介质
CN112434953A (zh) 一种基于计算机数据处理的客服人员考核方法和装置
CN112419257A (zh) 文本录制视频清晰度检测方法、装置、计算机设备及存储介质
CN116912478A (zh) 目标检测模型构建、图像分类方法、电子设备
CN115424328A (zh) 一种信息录入方法及装置、存储介质及电子设备
CN116129881A (zh) 语音任务处理方法、装置、电子设备及存储介质
CN115497152A (zh) 基于图像识别的客户信息分析方法、装置、系统及介质
CN115565186A (zh) 文字识别模型的训练方法、装置、电子设备和存储介质
WO2019000051A1 (en) DATA ANALYSIS METHOD AND LEARNING SYSTEM
CN115098729A (zh) 视频处理方法、样本生成方法、模型训练方法及装置
CN114186039A (zh) 一种视觉问答方法、装置及电子设备
CN113901418A (zh) 基于视频的身份验证方法、装置、计算机设备及存储介质
CN113868516A (zh) 对象推荐方法、装置、电子设备及存储介质
CN113449506A (zh) 一种数据检测方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination