CN116205723A - 基于人工智能的面签风险检测方法及相关设备 - Google Patents
基于人工智能的面签风险检测方法及相关设备 Download PDFInfo
- Publication number
- CN116205723A CN116205723A CN202310154569.2A CN202310154569A CN116205723A CN 116205723 A CN116205723 A CN 116205723A CN 202310154569 A CN202310154569 A CN 202310154569A CN 116205723 A CN116205723 A CN 116205723A
- Authority
- CN
- China
- Prior art keywords
- mouth
- video
- audio
- key point
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 132
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 35
- 230000001815 facial effect Effects 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000000605 extraction Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 17
- 238000004378 air conditioning Methods 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 66
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009963 fulling Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能,提供一种基于人工智能的面签风险检测方法及相关设备。该方法基于客户音频从面签视频中提取目标视频,识别目标视频中每个视频帧的嘴部关键点的关键点坐标信息,基于关键点坐标信息生成每个视频帧的嘴部姿势状态,根据嘴部姿势状态及视频帧的帧数量识别嘴部检测结果,若嘴部检测结果为预设检测结果,对客户音频与目标视频进行一致性检测,若不一致,对目标视频进行唇语识别,得到唇语信息,根据唇语信息能够准确的生成风险结果。此外,本发明还涉及区块链技术,所述风险结果可存储于区块链中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的面签风险检测方法及相关设备。
背景技术
为了提高面签的安全性,通常需要对面签视频进行不合规现象的检测,举例来说,不合规现象包括有:因第三方代替客户本人回答机器人问题或第三方指导客户回答机器人问题等现象。
然而,在面签风险的检测方案中,由于受到非说话的嘴部运动以及不同用户说话时嘴部姿态各异等因素的影响,造成无法准确的生成面签视频的风险结果。
发明内容
鉴于以上内容,有必要提供一种基于人工智能的面签风险检测方法及相关设备,能够解决无法准确的生成面签视频的风险结果的技术问题。
一方面,本发明提出一种基于人工智能的面签风险检测方法,所述基于人工智能的面签风险检测方法包括:
获取客户音频,并基于所述客户音频从获取到的面签视频中提取目标视频;
识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息;
基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态;
根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果;
若所述嘴部检测结果为预设检测结果,则基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测;
若所述客户音频与所述目标视频不一致,则对所述目标视频进行唇语识别,得到唇语信息;
根据所述唇语信息生成所述面签视频的风险结果。
根据本发明优选实施例,所述基于所述客户音频从获取到的面签视频中提取目标视频包括:
识别所述客户音频的采集场景及生成时段;
从所述采集场景中获取与所述生成时段对应的视频作为所述面签视频;
基于所述客户音频中每个音频帧的时间戳,从所述面签视频中获取出对应的视频帧作为所述目标视频。
根据本发明优选实施例,所述嘴部关键点包括第一关键点、第二关键点、第三关键点及第四关键点,所述识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息包括:
将每个视频帧中所有像素点的像素值输入至预先训练完成的嘴部识别模型中,得到每个视频帧中嘴部所对应的目标像素点;
识别所述目标像素点在所述视频帧中的位置信息;
基于所述位置信息识别出处于上顶点的目标像素点作为所述第一关键点,处于下顶点的目标像素点作为所述第二关键点,处于左顶点的目标像素点作为所述第三关键点,及处于右顶点的目标像素点作为所述第四关键点;
识别出与所述嘴部关键点对应的位置信息作为所述坐标信息。
根据本发明优选实施例,所述基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态包括:
基于所述第一关键点的坐标信息及所述第二关键点的坐标信息计算所述嘴部在每个视频帧中的高度,并基于所述第三关键点的坐标信息及所述第四关键点的坐标信息计算所述嘴部在每个视频帧中的宽度;
基于所述高度及所述宽度识别出所述嘴部在每个视频帧中的姿势比值;
根据所述姿势比值及第一预设比值识别出所述嘴部姿势状态。
根据本发明优选实施例,所述根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果包括:
统计所述多个视频帧中所述嘴部姿势状态为预设状态的状态数量;
基于所述状态数量及所述帧数量识别出所述嘴部姿势状态为所述预设状态的状态比值;
根据所述状态比值及第二预设比值识别出所述嘴部检测结果。
根据本发明优选实施例,所述一致性检测模型包括音频特征提取网络、视频特征提取网络及特征比较网络,所述基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测包括:
基于所述音频特征提取网络,从所述客户音频中提取音频波动特征;
基于所述视频特征提取网络,从所述目标视频中提取嘴部运动特征;
基于所述特征比较网络中的参数权值对所述音频波动特征及所述嘴部运动特征进行计算,得到与所述音频波动特征对应的第一特征,及与所述嘴部运动特征对应的第二特征;
计算所述第一特征与所述第二特征的相似度;
若所述相似度大于预设相似度阈值,则确定所述客户音频与所述目标视频一致;或者
若所述相似度小于预设相似度阈值,则确定所述客户音频与所述目标视频不一致。
根据本发明优选实施例,所述对所述目标视频进行唇语识别,得到唇语信息包括:
根据每个视频帧的嘴部关键点的关键点坐标信息生成每个嘴部关键点的序列信息;
将多个所述序列信息输入至预先训练完成的唇语识别模型中,得到第一文本信息;
对所述客户音频进行语音识别,得到第二文本信息;
若所述第一文本信息与所述第二文本信息相同,则将所述第一文本信息或者所述第二文本信息确定为所述唇语信息。
另一方面,本发明还提出一种基于人工智能的面签风险检测装置,所述基于人工智能的面签风险检测装置包括:
提取单元,用于获取客户音频,并基于所述客户音频从获取到的面签视频中提取目标视频;
识别单元,用于识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息;
生成单元,用于基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态;
所述识别单元,还用于根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果;
检测单元,用于若所述嘴部检测结果为预设检测结果,则基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测;
所述识别单元,还用于若所述客户音频与所述目标视频不一致,则对所述目标视频进行唇语识别,得到唇语信息;
所述生成单元,还用于根据所述唇语信息生成所述面签视频的风险结果。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述基于人工智能的面签风险检测方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述基于人工智能的面签风险检测方法。
由以上技术方案可以看出,本申请通过所述客户音频提取所述面签视频中的目标视频,能够避免所述面签视频中的多余视频帧对所述嘴部检测结果的影响,进而结合所述嘴部姿势状态及所述帧数量能够避免单一嘴部姿势状态对所述嘴部检测结果的影响,从而提高所述嘴部检测结果的准确性,进而在所述嘴部检测结果为预设检测结果时,进一步检测所述客户音频与所述目标视频的一致性,能够避免所述面签视频中存在非说话的预设检测结果而造成风险结果的误识别,因此,能够提高所述风险结果的准确性,同时,由于面签视频通常客户回答指定内容,因此通过识别出所述唇语信息,来进一步剔除误报,从而提高所述风险结果的生成准确性。
附图说明
图1是本发明基于人工智能的面签风险检测方法的较佳实施例的流程图。
图2是本发明基于人工智能的面签风险检测装置的较佳实施例的功能模块图。
图3是本发明实现基于人工智能的面签风险检测方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于人工智能的面签风险检测方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于人工智能的面签风险检测方法可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
所述基于人工智能的面签风险检测方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
101,获取客户音频,并基于所述客户音频从获取到的面签视频中提取目标视频。
在本发明的至少一个实施例中,所述客户音频可以从与面签业务有关联的语音识别模块或者声音定位模块中获取。
所述面签视频是指与所述客户音频在同一场景及同一时段生成的视频,所述面签视频中包括客户回答机器人的画面视频。
所述目标视频是指所述面签视频中与所述客户音频具有相同时间戳的视频帧。
在本发明的至少一个实施例中,所述电子设备基于所述客户音频从获取到的面签视频中提取目标视频包括:
识别所述客户音频的采集场景及生成时段;
从所述采集场景中获取与所述生成时段对应的视频作为所述面签视频;
基于所述客户音频中每个音频帧的时间戳,从所述面签视频中获取出对应的视频帧作为所述目标视频。
其中,所述采集场景可以是具体的会议室,所述采集场景也可以是具体的语音通道。
通过结合所述采集场景及所述生成时段能够准确的获取到与所述客户音频所对应的面签视频,进而结合所述时间戳能够剔除所述面签视频中不存在语音的干扰视频帧。
102,识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息。
在本发明的至少一个实施例中,所述嘴部关键点包括第一关键点、第二关键点、第三关键点及第四关键点,其中,所述第一关键点是指处于上顶点的目标像素点,所述第二关键点是指处于下顶点的目标像素点,所述第三关键点是指处于左顶点的目标像素点,所述第四关键点是指处于右顶点的目标像素点。所述目标像素点是指每个视频帧中属于嘴部的像素点。
所述关键点坐标信息是指所述嘴部关键点在基于对应视频帧构建的坐标系中的坐标值。
在本发明的至少一个实施例中,所述电子设备识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息包括:
将每个视频帧中所有像素点的像素值输入至预先训练完成的嘴部识别模型中,得到每个视频帧中嘴部所对应的目标像素点;
识别所述目标像素点在所述视频帧中的位置信息;
基于所述位置信息识别出处于上顶点的目标像素点作为所述第一关键点,处于下顶点的目标像素点作为所述第二关键点,处于左顶点的目标像素点作为所述第三关键点,及处于右顶点的目标像素点作为所述第四关键点;
识别出与所述嘴部关键点对应的位置信息作为所述坐标信息。
其中,所述嘴部识别模型中存储有嘴部与多个像素值的映射关系。
所述目标像素点是指与所述嘴部存在映射关系的像素值所对应的像素点。
所述位置信息可以是坐标值,例如,所述目标像素点是在相应的视频帧在的位置为第5行第6列的像素点,则该目标像素点所对应的位置信息可以是(5,6)。
通过所述嘴部识别模型中的映射关系,能够准确并快速的识别出所述目标像素点,进而通过所述目标像素点能够合理的识别出所述嘴部关键点,并从所述位置信息中能够快速提取出所述坐标信息。
103,基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态。
在本发明的至少一个实施例中,所述嘴部姿势状态包括紧闭状态、开合状态等。
在本发明的至少一个实施例中,所述电子设备基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态包括:
基于所述第一关键点的坐标信息及所述第二关键点的坐标信息计算所述嘴部在每个视频帧中的高度,并基于所述第三关键点的坐标信息及所述第四关键点的坐标信息计算所述嘴部在每个视频帧中的宽度;
基于所述高度及所述宽度识别出所述嘴部在每个视频帧中的姿势比值;
根据所述姿势比值及第一预设比值识别出所述嘴部姿势状态。
其中,所述姿势比值可以是所述宽度与所述高度的比值,所述姿势比值也可以是所述宽度与所述高度的比值。
所述第一预设比值可以根据实际需求设定。
通过所述高度及所述宽度,能够生成同时受所述高度及所述宽度影响的姿势比值,由于用户嘴部运动时同时受到所述高度及所述宽度的影响,因此,能够准确的生成所述嘴部姿势状态。
具体地,当所述姿势比值是所述宽度与所述高度的比值时,所述电子设备根据所述姿势比值及第一预设比值识别出所述嘴部姿势状态包括:
计算所述第一预设比值与误差比值的总和,得到目标比值;
若所述姿势比值大于所述目标比值,则确定所述嘴部姿势状态为紧闭状态;或者
若所述姿势比值小于所述第一预设比值,则确定所述嘴部姿势状态为开合状态。
其中,所述误差比值是指根据所述面签视频的风险结果的容差性确定得到的。
通过设定所述误差比值能够准确的识别出所述嘴部姿势状态。
具体地,当所述姿势比值为所述宽度与所述高度的比值时,所述电子设备根据所述姿势比值及第一预设比值识别出所述嘴部姿势状态包括:
若所述姿势比值大于所述目标比值,则确定所述嘴部姿势状态为开合状态;或者
若所述姿势比值小于所述第一预设比值,则确定所述嘴部姿势状态为紧闭状态。
104,根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果。
在本发明的至少一个实施例中,所述嘴部检测结果包括所述嘴部处于运动状态,以及,所述嘴部不处于运动状态。
在本发明的至少一个实施例中,所述电子设备根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果包括:
统计所述多个视频帧中所述嘴部姿势状态为预设状态的状态数量;
基于所述状态数量及所述帧数量识别出所述嘴部姿势状态为所述预设状态的状态比值;
根据所述状态比值及第二预设比值识别出所述嘴部检测结果。
其中,所述预设状态通常设定为开合状态。
所述状态比值是指所述状态数量与所述帧数量的比值。
所述第二预设比值可以根据实际需求设定。
具体地,所述电子设备根据所述状态比值及第二预设比值识别出所述嘴部检测结果包括:
若所述状态比值大于所述第二预设比值,则确定所述嘴部检测结果为所述嘴部处于运动状态;或者,若所述状态比值小于所述第二预设比值,则确定所述嘴部检测结果为所述嘴部不处于运动状态。
通过所述状态比值与所述第二预设比值的关系,识别出所述嘴部检测结果,由于所述状态比值同时受到所述状态数量及所述帧数量的影响,因此,能够提高所述嘴部检测结果的准确性。
105,若所述嘴部检测结果为预设检测结果,则基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测。
在本发明的至少一个实施例中,所述预设检测结果通常设定为所述嘴部处于运动状态。
所述一致性检测模型用于检测所述客户音频与所述目标视频中的特征信息是否一致,基于所述一致性检测模型,能够剔除因吃东西、抿嘴等现象而造成嘴部运动。所述一致性检测模型包括音频特征提取网络、视频特征提取网络及特征比较网络。
在本发明的至少一个实施例中,所述电子设备基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测包括:
基于所述音频特征提取网络,从所述客户音频中提取音频波动特征;
基于所述视频特征提取网络,从所述目标视频中提取嘴部运动特征;
基于所述特征比较网络中的参数权值对所述音频波动特征及所述嘴部运动特征进行计算,得到与所述音频波动特征对应的第一特征,及与所述嘴部运动特征对应的第二特征;
计算所述第一特征与所述第二特征的相似度;
若所述相似度大于预设相似度阈值,则确定所述客户音频与所述目标视频一致;或者
若所述相似度小于预设相似度阈值,则确定所述客户音频与所述目标视频不一致。
其中,所述预设相似度阈值可以根据实际需求设定。
通过所述参数权值,能够将所述音频波动特征户及所述嘴部运动特征映射至同一维度上,提高所述相似度的计算合理性,从而提高所述客户音频与所述目标视频的检测结果。
在本发明的至少一个实施例中,若所述客户音频与所述目标视频一致,则确定所述面签视频不存在风险。
106,若所述客户音频与所述目标视频不一致,则对所述目标视频进行唇语识别,得到唇语信息。
在本发明的至少一个实施例中,所述唇语信息是指所述目标视频中用户嘴部所表达出的文本。
在本发明的至少一个实施例中,所述电子设备对所述目标视频进行唇语识别,得到唇语信息包括:
根据每个视频帧的嘴部关键点的关键点坐标信息生成每个嘴部关键点的序列信息;
将多个所述序列信息输入至预先训练完成的唇语识别模型中,得到第一文本信息;
对所述客户音频进行语音识别,得到第二文本信息;
若所述第一文本信息与所述第二文本信息相同,则将所述第一文本信息或者所述第二文本信息确定为所述唇语信息。
其中,所述唇语识别模型属于现有技术模型,本申请对此不再赘述。
通过所述客户音频所识别出的第二文本信息与所述目标视频所识别出的第一文本信息的关系,能够准确的生成所述唇语信息。
107,根据所述唇语信息生成所述面签视频的风险结果。
需要强调的是,为进一步保证上述风险结果的私密和安全性,上述风险结果还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述风险结果包括所述面签视频存在风险、所述面签视频不存在风险。
在本发明的至少一个实施例中,所述电子设备根据所述唇语信息生成所述面签视频的风险结果包括:
检测所述唇语信息中是否包括预设词汇;
若所述唇语信息中包括所述预设词汇,则确定所述风险结果为所述面签视频存在风险;或者
若所述唇语信息中不包括所述预设词汇,则确定所述风险结果为所述面签视频不存在风险。
其中,所述预设词汇可以根据实际需求设定,例如,所述预设词汇可以包括,但不限于:了解、知道等。
在本发明的至少一个实施例中,所述方法还包括:
当所述面签视频存在风险时,根据所述面签视频生成报警信息。
由以上技术方案可以看出,本申请通过所述客户音频提取所述面签视频中的目标视频,能够避免所述面签视频中的多余视频帧对所述嘴部检测结果的影响,进而结合所述嘴部姿势状态及所述帧数量能够避免单一嘴部姿势状态对所述嘴部检测结果的影响,从而提高所述嘴部检测结果的准确性,进而在所述嘴部检测结果为预设检测结果时,进一步检测所述客户音频与所述目标视频的一致性,能够避免所述面签视频中存在非说话的预设检测结果而造成风险结果的误识别,因此,能够提高所述风险结果的准确性,同时,由于面签视频通常客户回答指定内容,因此通过识别出所述唇语信息,来进一步剔除误报,从而提高所述风险结果的生成准确性。
如图2所示,是本发明基于人工智能的面签风险检测装置的较佳实施例的功能模块图。所述基于人工智能的面签风险检测装置11包括提取单元110、识别单元111、生成单元112及检测单元113。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
提取单元110获取客户音频,并基于所述客户音频从获取到的面签视频中提取目标视频。
在本发明的至少一个实施例中,所述客户音频可以从与面签业务有关联的语音识别模块或者声音定位模块中获取。
所述面签视频是指与所述客户音频在同一场景及同一时段生成的视频,所述面签视频中包括客户回答机器人的画面视频。
所述目标视频是指所述面签视频中与所述客户音频具有相同时间戳的视频帧。
在本发明的至少一个实施例中,所述提取单元110基于所述客户音频从获取到的面签视频中提取目标视频包括:
识别所述客户音频的采集场景及生成时段;
从所述采集场景中获取与所述生成时段对应的视频作为所述面签视频;
基于所述客户音频中每个音频帧的时间戳,从所述面签视频中获取出对应的视频帧作为所述目标视频。
其中,所述采集场景可以是具体的会议室,所述采集场景也可以是具体的语音通道。
通过结合所述采集场景及所述生成时段能够准确的获取到与所述客户音频所对应的面签视频,进而结合所述时间戳能够剔除所述面签视频中不存在语音的干扰视频帧。
识别单元111识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息。
在本发明的至少一个实施例中,所述嘴部关键点包括第一关键点、第二关键点、第三关键点及第四关键点,其中,所述第一关键点是指处于上顶点的目标像素点,所述第二关键点是指处于下顶点的目标像素点,所述第三关键点是指处于左顶点的目标像素点,所述第四关键点是指处于右顶点的目标像素点。所述目标像素点是指每个视频帧中属于嘴部的像素点。
所述关键点坐标信息是指所述嘴部关键点在基于对应视频帧构建的坐标系中的坐标值。
在本发明的至少一个实施例中,所述识别单元111识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息包括:
将每个视频帧中所有像素点的像素值输入至预先训练完成的嘴部识别模型中,得到每个视频帧中嘴部所对应的目标像素点;
识别所述目标像素点在所述视频帧中的位置信息;
基于所述位置信息识别出处于上顶点的目标像素点作为所述第一关键点,处于下顶点的目标像素点作为所述第二关键点,处于左顶点的目标像素点作为所述第三关键点,及处于右顶点的目标像素点作为所述第四关键点;
识别出与所述嘴部关键点对应的位置信息作为所述坐标信息。
其中,所述嘴部识别模型中存储有嘴部与多个像素值的映射关系。
所述目标像素点是指与所述嘴部存在映射关系的像素值所对应的像素点。
所述位置信息可以是坐标值,例如,所述目标像素点是在相应的视频帧在的位置为第5行第6列的像素点,则该目标像素点所对应的位置信息可以是(5,6)。
通过所述嘴部识别模型中的映射关系,能够准确并快速的识别出所述目标像素点,进而通过所述目标像素点能够合理的识别出所述嘴部关键点,并从所述位置信息中能够快速提取出所述坐标信息。
生成单元112基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态。
在本发明的至少一个实施例中,所述嘴部姿势状态包括紧闭状态、开合状态等。
在本发明的至少一个实施例中,所述生成单元112基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态包括:
基于所述第一关键点的坐标信息及所述第二关键点的坐标信息计算所述嘴部在每个视频帧中的高度,并基于所述第三关键点的坐标信息及所述第四关键点的坐标信息计算所述嘴部在每个视频帧中的宽度;
基于所述高度及所述宽度识别出所述嘴部在每个视频帧中的姿势比值;
根据所述姿势比值及第一预设比值识别出所述嘴部姿势状态。
其中,所述姿势比值可以是所述宽度与所述高度的比值,所述姿势比值也可以是所述宽度与所述高度的比值。
所述第一预设比值可以根据实际需求设定。
通过所述高度及所述宽度,能够生成同时受所述高度及所述宽度影响的姿势比值,由于用户嘴部运动时同时受到所述高度及所述宽度的影响,因此,能够准确的生成所述嘴部姿势状态。
具体地,当所述姿势比值是所述宽度与所述高度的比值时,所述生成单元112根据所述姿势比值及第一预设比值识别出所述嘴部姿势状态包括:
计算所述第一预设比值与误差比值的总和,得到目标比值;
若所述姿势比值大于所述目标比值,则确定所述嘴部姿势状态为紧闭状态;或者
若所述姿势比值小于所述第一预设比值,则确定所述嘴部姿势状态为开合状态。
其中,所述误差比值是指根据所述面签视频的风险结果的容差性确定得到的。
通过设定所述误差比值能够准确的识别出所述嘴部姿势状态。
具体地,当所述姿势比值为所述宽度与所述高度的比值时,所述生成单元112根据所述姿势比值及第一预设比值识别出所述嘴部姿势状态包括:
若所述姿势比值大于所述目标比值,则确定所述嘴部姿势状态为开合状态;或者
若所述姿势比值小于所述第一预设比值,则确定所述嘴部姿势状态为紧闭状态。
所述识别单元111根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果。
在本发明的至少一个实施例中,所述嘴部检测结果包括所述嘴部处于运动状态,以及,所述嘴部不处于运动状态。
在本发明的至少一个实施例中,所述识别单元111根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果包括:
统计所述多个视频帧中所述嘴部姿势状态为预设状态的状态数量;
基于所述状态数量及所述帧数量识别出所述嘴部姿势状态为所述预设状态的状态比值;
根据所述状态比值及第二预设比值识别出所述嘴部检测结果。
其中,所述预设状态通常设定为开合状态。
所述状态比值是指所述状态数量与所述帧数量的比值。
所述第二预设比值可以根据实际需求设定。
具体地,所述识别单元111根据所述状态比值及第二预设比值识别出所述嘴部检测结果包括:
若所述状态比值大于所述第二预设比值,则确定所述嘴部检测结果为所述嘴部处于运动状态;或者,若所述状态比值小于所述第二预设比值,则确定所述嘴部检测结果为所述嘴部不处于运动状态。
通过所述状态比值与所述第二预设比值的关系,识别出所述嘴部检测结果,由于所述状态比值同时受到所述状态数量及所述帧数量的影响,因此,能够提高所述嘴部检测结果的准确性。
若所述嘴部检测结果为预设检测结果,则检测单元113基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测。
在本发明的至少一个实施例中,所述预设检测结果通常设定为所述嘴部处于运动状态。
所述一致性检测模型用于检测所述客户音频与所述目标视频中的特征信息是否一致,基于所述一致性检测模型,能够剔除因吃东西、抿嘴等现象而造成嘴部运动。所述一致性检测模型包括音频特征提取网络、视频特征提取网络及特征比较网络。
在本发明的至少一个实施例中,所述检测单元113基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测包括:
基于所述音频特征提取网络,从所述客户音频中提取音频波动特征;
基于所述视频特征提取网络,从所述目标视频中提取嘴部运动特征;
基于所述特征比较网络中的参数权值对所述音频波动特征及所述嘴部运动特征进行计算,得到与所述音频波动特征对应的第一特征,及与所述嘴部运动特征对应的第二特征;
计算所述第一特征与所述第二特征的相似度;
若所述相似度大于预设相似度阈值,则确定所述客户音频与所述目标视频一致;或者
若所述相似度小于预设相似度阈值,则确定所述客户音频与所述目标视频不一致。
其中,所述预设相似度阈值可以根据实际需求设定。
通过所述参数权值,能够将所述音频波动特征户及所述嘴部运动特征映射至同一维度上,提高所述相似度的计算合理性,从而提高所述客户音频与所述目标视频的检测结果。
在本发明的至少一个实施例中,若所述客户音频与所述目标视频一致,则确定所述面签视频不存在风险。
若所述客户音频与所述目标视频不一致,则所述识别单元111对所述目标视频进行唇语识别,得到唇语信息。
在本发明的至少一个实施例中,所述唇语信息是指所述目标视频中用户嘴部所表达出的文本。
在本发明的至少一个实施例中,所述识别单元111对所述目标视频进行唇语识别,得到唇语信息包括:
根据每个视频帧的嘴部关键点的关键点坐标信息生成每个嘴部关键点的序列信息;
将多个所述序列信息输入至预先训练完成的唇语识别模型中,得到第一文本信息;
对所述客户音频进行语音识别,得到第二文本信息;
若所述第一文本信息与所述第二文本信息相同,则将所述第一文本信息或者所述第二文本信息确定为所述唇语信息。
其中,所述唇语识别模型属于现有技术模型,本申请对此不再赘述。
通过所述客户音频所识别出的第二文本信息与所述目标视频所识别出的第一文本信息的关系,能够准确的生成所述唇语信息。
所述生成单元112根据所述唇语信息生成所述面签视频的风险结果。
需要强调的是,为进一步保证上述风险结果的私密和安全性,上述风险结果还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述风险结果包括所述面签视频存在风险、所述面签视频不存在风险。
在本发明的至少一个实施例中,所述生成单元112根据所述唇语信息生成所述面签视频的风险结果包括:
检测所述唇语信息中是否包括预设词汇;
若所述唇语信息中包括所述预设词汇,则确定所述风险结果为所述面签视频存在风险;或者
若所述唇语信息中不包括所述预设词汇,则确定所述风险结果为所述面签视频不存在风险。
其中,所述预设词汇可以根据实际需求设定,例如,所述预设词汇可以包括,但不限于:了解、知道等。
在本发明的至少一个实施例中,当所述面签视频存在风险时,所述生成单元112根据所述面签视频生成报警信息。
由以上技术方案可以看出,本申请通过所述客户音频提取所述面签视频中的目标视频,能够避免所述面签视频中的多余视频帧对所述嘴部检测结果的影响,进而结合所述嘴部姿势状态及所述帧数量能够避免单一嘴部姿势状态对所述嘴部检测结果的影响,从而提高所述嘴部检测结果的准确性,进而在所述嘴部检测结果为预设检测结果时,进一步检测所述客户音频与所述目标视频的一致性,能够避免所述面签视频中存在非说话的预设检测结果而造成风险结果的误识别,因此,能够提高所述风险结果的准确性,同时,由于面签视频通常客户回答指定内容,因此通过识别出所述唇语信息,来进一步剔除误报,从而提高所述风险结果的生成准确性。
如图3所示,是本发明实现基于人工智能的面签风险检测方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如基于人工智能的面签风险检测程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成提取单元110、识别单元111、生成单元112及检测单元113。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种基于人工智能的面签风险检测方法,所述处理器13可执行所述计算机可读指令从而实现:
获取客户音频,并基于所述客户音频从获取到的面签视频中提取目标视频;
识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息;
基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态;
根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果;
若所述嘴部检测结果为预设检测结果,则基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测;
若所述客户音频与所述目标视频不一致,则对所述目标视频进行唇语识别,得到唇语信息;
根据所述唇语信息生成所述面签视频的风险结果。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
获取客户音频,并基于所述客户音频从获取到的面签视频中提取目标视频;
识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息;
基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态;
根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果;
若所述嘴部检测结果为预设检测结果,则基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测;
若所述客户音频与所述目标视频不一致,则对所述目标视频进行唇语识别,得到唇语信息;
根据所述唇语信息生成所述面签视频的风险结果。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (10)
1.一种基于人工智能的面签风险检测方法,其特征在于,所述基于人工智能的面签风险检测方法包括:
获取客户音频,并基于所述客户音频从获取到的面签视频中提取目标视频;
识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息;
基于所述述关键点坐标信息生成每个视频帧的嘴部姿势状态;
根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果;
若所述嘴部检测结果为预设检测结果,则基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测;
若所述客户音频与所述目标视频不一致,则对所述目标视频进行唇语识别,得到唇语信息;
根据所述唇语信息生成所述面签视频的风险结果。
2.如权利要求1所述的基于人工智能的面签风险检测方法,其特征在于,所述基于所述客户音频从获取到的面签视频中提取目标视频包括:
识别所述客户音频的采集场景及生成时段;
从所述采集场景中获取与所述生成时段对应的视频作为所述面签视频;
基于所述客户音频中每个音频帧的时间戳,从所述面签视频中获取出对应的视频帧作为所述目标视频。
3.如权利要求1所述的基于人工智能的面签风险检测方法,其特征在于,所述嘴部关键点包括第一关键点、第二关键点、第三关键点及第四关键点,所述识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息包括:
将每个视频帧中所有像素点的像素值输入至预先训练完成的嘴部识别模型中,得到每个视频帧中嘴部所对应的目标像素点;
识别所述目标像素点在所述视频帧中的位置信息;
基于所述位置信息识别出处于上顶点的目标像素点作为所述第一关键点,处于下顶点的目标像素点作为所述第二关键点,处于左顶点的目标像素点作为所述第三关键点,及处于右顶点的目标像素点作为所述第四关键点;
识别出与所述嘴部关键点对应的位置信息作为所述坐标信息。
4.如权利要求3所述的基于人工智能的面签风险检测方法,其特征在于,所述基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态包括:
基于所述第一关键点的坐标信息及所述第二关键点的坐标信息计算所述嘴部在每个视频帧中的高度,并基于所述第三关键点的坐标信息及所述第四关键点的坐标信息计算所述嘴部在每个视频帧中的宽度;
基于所述高度及所述宽度识别出所述嘴部在每个视频帧中的姿势比值;
根据所述姿势比值及第一预设比值识别出所述嘴部姿势状态。
5.如权利要求1所述的基于人工智能的面签风险检测方法,其特征在于,所述根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果包括:
统计所述多个视频帧中所述嘴部姿势状态为预设状态的状态数量;
基于所述状态数量及所述帧数量识别出所述嘴部姿势状态为所述预设状态的状态比值;
根据所述状态比值及第二预设比值识别出所述嘴部检测结果。
6.如权利要求5所述的基于人工智能的面签风险检测方法,其特征在于,所述一致性检测模型包括音频特征提取网络、视频特征提取网络及特征比较网络,所述基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测包括:
基于所述音频特征提取网络,从所述客户音频中提取音频波动特征;
基于所述视频特征提取网络,从所述目标视频中提取嘴部运动特征;
基于所述特征比较网络中的参数权值对所述音频波动特征及所述嘴部运动特征进行计算,得到与所述音频波动特征对应的第一特征,及与所述嘴部运动特征对应的第二特征;
计算所述第一特征与所述第二特征的相似度;
若所述相似度大于预设相似度阈值,则确定所述客户音频与所述目标视频一致;或者
若所述相似度小于预设相似度阈值,则确定所述客户音频与所述目标视频不一致。
7.如权利要求1所述的基于人工智能的面签风险检测方法,其特征在于,所述对所述目标视频进行唇语识别,得到唇语信息包括:
根据每个视频帧的嘴部关键点的关键点坐标信息生成每个嘴部关键点的序列信息;
将多个所述序列信息输入至预先训练完成的唇语识别模型中,得到第一文本信息;
对所述客户音频进行语音识别,得到第二文本信息;
若所述第一文本信息与所述第二文本信息相同,则将所述第一文本信息或者所述第二文本信息确定为所述唇语信息。
8.一种基于人工智能的面签风险检测装置,其特征在于,所述基于人工智能的面签风险检测装置包括:
提取单元,用于获取客户音频,并基于所述客户音频从获取到的面签视频中提取目标视频;
识别单元,用于识别所述目标视频中每个视频帧的嘴部关键点的关键点坐标信息;
生成单元,用于基于所述关键点坐标信息生成每个视频帧的嘴部姿势状态;
所述识别单元,还用于根据所述嘴部姿势状态及多个所述视频帧的帧数量识别所述目标视频的嘴部检测结果;
检测单元,用于若所述嘴部检测结果为预设检测结果,则基于预先训练完成的一致性检测模型对所述客户音频与所述目标视频进行一致性检测;
所述识别单元,还用于若所述客户音频与所述目标视频不一致,则对所述目标视频进行唇语识别,得到唇语信息;
所述生成单元,还用于根据所述唇语信息生成所述面签视频的风险结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至7中任意一项所述的基于人工智能的面签风险检测方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于人工智能的面签风险检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310154569.2A CN116205723A (zh) | 2023-02-10 | 2023-02-10 | 基于人工智能的面签风险检测方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310154569.2A CN116205723A (zh) | 2023-02-10 | 2023-02-10 | 基于人工智能的面签风险检测方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116205723A true CN116205723A (zh) | 2023-06-02 |
Family
ID=86515640
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310154569.2A Pending CN116205723A (zh) | 2023-02-10 | 2023-02-10 | 基于人工智能的面签风险检测方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116205723A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116542674A (zh) * | 2023-07-06 | 2023-08-04 | 鲁担(山东)数据科技有限公司 | 一种基于大数据的风险分析评估方法及系统 |
-
2023
- 2023-02-10 CN CN202310154569.2A patent/CN116205723A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116542674A (zh) * | 2023-07-06 | 2023-08-04 | 鲁担(山东)数据科技有限公司 | 一种基于大数据的风险分析评估方法及系统 |
CN116542674B (zh) * | 2023-07-06 | 2023-09-26 | 鲁担(山东)数据科技有限公司 | 一种基于大数据的风险分析评估方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709409B (zh) | 人脸活体检测方法、装置、设备及介质 | |
US20210326597A1 (en) | Video processing method and apparatus, and electronic device and storage medium | |
WO2023050650A1 (zh) | 动画视频生成方法、装置、设备及存储介质 | |
WO2021208601A1 (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
CN110163111A (zh) | 基于人脸识别的叫号方法、装置、电子设备及存储介质 | |
CN111222486B (zh) | 手部姿态识别模型的训练方法、装置、设备及存储介质 | |
WO2022188697A1 (zh) | 提取生物特征的方法、装置、设备、介质及程序产品 | |
WO2019119396A1 (zh) | 人脸表情识别方法及装置 | |
CN111680544B (zh) | 人脸识别方法、装置、系统、设备及介质 | |
CN112381019B (zh) | 复合表情识别方法、装置、终端设备及存储介质 | |
CN112132030A (zh) | 视频处理方法及装置、存储介质及电子设备 | |
CN111783593A (zh) | 基于人工智能的人脸识别方法、装置、电子设备及介质 | |
WO2023109631A1 (zh) | 数据处理方法、装置、设备、存储介质及程序产品 | |
Tran et al. | Phase segmentation methods for an automatic surgical workflow analysis | |
CN116205723A (zh) | 基于人工智能的面签风险检测方法及相关设备 | |
CN115222443A (zh) | 客户群体划分方法、装置、设备及存储介质 | |
CN114639152A (zh) | 基于人脸识别的多模态语音交互方法、装置、设备及介质 | |
CN116628161A (zh) | 答案生成方法、装置、设备及存储介质 | |
CN116468043A (zh) | 嵌套实体识别方法、装置、设备及存储介质 | |
CN112949305B (zh) | 负反馈信息采集方法、装置、设备及存储介质 | |
CN113627186B (zh) | 基于人工智能的实体关系检测方法及相关设备 | |
CN113766297B (zh) | 视频处理方法、播放终端及计算机可读存储介质 | |
CN114898155A (zh) | 车辆定损方法、装置、设备及存储介质 | |
CN114329095A (zh) | 系统逻辑图生成方法、装置、设备及存储介质 | |
CN113762237A (zh) | 文本图像处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |