CN110427803A - 基于视频分析的测谎方法、装置、电子设备及存储介质 - Google Patents
基于视频分析的测谎方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN110427803A CN110427803A CN201910528235.0A CN201910528235A CN110427803A CN 110427803 A CN110427803 A CN 110427803A CN 201910528235 A CN201910528235 A CN 201910528235A CN 110427803 A CN110427803 A CN 110427803A
- Authority
- CN
- China
- Prior art keywords
- video
- lie
- detecting
- video sequence
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004458 analytical method Methods 0.000 title claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 78
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 claims abstract description 26
- 230000007787 long-term memory Effects 0.000 claims abstract description 23
- 238000012360 testing method Methods 0.000 claims description 32
- 230000015654 memory Effects 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 25
- 238000005516 engineering process Methods 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 12
- 230000006399 behavior Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 13
- 230000003542 behavioural effect Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000000714 time series forecasting Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 238000005194 fractionation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/164—Lie detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Psychology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Social Psychology (AREA)
- Animal Behavior & Ethology (AREA)
- Hospice & Palliative Care (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于视频分析的测谎方法、装置、电子设备及存储介质。所述基于视频分析的测谎方法能够当接收到测谎指令时,获取待测谎视频,并将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值,当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险,从而实现自动化测谎,达成智能决策的效果,不仅高效,而且准确,进一步标记所述目标人物为可疑人物,当侦测到所述目标人物说话时,输出危险提示,进而能够在再次面对说谎者时及时采取措施,降低被骗几率,提升了用户体验。
Description
技术领域
本发明涉及智能决策技术领域,尤其涉及一种基于视频分析的测谎方法、装置、电子设备及存储介质。
背景技术
随着人工智能技术的飞速发展,很多领域都在逐步减少人为操作的过程,而更加倾向于自动化方式。
传统的测谎方法通常需要观察被测试者的行为,并依据心理学家或微表情专家等的经验总结进行判断。例如:眼球往左转是回忆,眼球往右转是撒谎,又或者人在撒谎的时候会坐立不安,小动作不断等。
虽然上述方式也是自动化实现,但主要是依赖于一段时间内眼睛转动、眨眼次数、身体姿态、情绪、人脸动作单元(action units,AU)等具体特征做统计,然后根据统计结果确认是否在撒谎,由于现实生活中,个体差异较大,通常一个人说谎时具备的特征,在另一个人身上未必也存在,因此现有技术方案测谎时的准确性较差,并且在测谎结束后,没有及时对说谎者进行标记,导致说谎者多次犯错,相关人员也不能在再次面对说谎者时及时采取措施。
发明内容
鉴于以上内容,有必要提供一种基于视频分析的测谎方法、装置、电子设备及存储介质,能够实现自动化测谎,不仅高效,而且准确,还能够在再次面对说谎者时及时采取措施,降低被骗几率,提升了用户体验。
一种基于视频分析的测谎方法,所述方法包括:
当接收到测谎指令时,获取待测谎视频,所述待测谎视频包括待预测视频序列及基准视频序列;
将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值;
当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险;
标记所述目标人物为可疑人物;
当侦测到所述目标人物说话时,输出危险提示。
根据本发明优选实施例,在将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中前,所述方法还包括:
获取样本视频;
对所述样本视频中的每个视频进行拆分,得到每个视频的第一视频序列及第二视频序列;
结合长短期记忆网络算法及神经网络算法,利用所述第一视频序列及所述第二视频序列训练得到所述测谎模型。
根据本发明优选实施例,所述获取所述样本视频包括以下一种或者多种方式的组合:
获取上传的非说谎视频,作为所述样本视频;及/或
采用网络爬虫技术获取非说谎视频,作为所述样本视频;及/或
从指定服务器获取非说谎视频,作为所述样本视频。
根据本发明优选实施例,所述对所述第一视频序列及所述第二视频序列进行训练包括:
将所述第一视频序列确定为训练样本;
将所述第二视频序列确定为标签;
以所述第二视频序列拟合训练所述第一视频序列。
根据本发明优选实施例,在得到所述测谎模型后,所述方法还包括:
获取所述测谎模型的损失函数,当所述损失函数超出配置数值范围时,继续训练所述测谎模型;或者
获取验证视频,将所述验证视频输入到所述测谎模型中进行验证,得到验证结果,根据所述验证结果确定所述测谎模型的准确率,当所述准确率小于配置阈值时,继续训练所述测谎模型。
根据本发明优选实施例,所述方法还包括:
当接收到面审指令时,获取面审视频;
将所述面审视频输入到所述测谎模型中进行检测,得到第一检测结果;
当所述第一检测结果为所述面审视频中的待审用户有说谎风险时,获取所述待审用户的历史信用数据;
将所述历史信用数据及所述第一检测结果发送至指定人员的终端设备。
根据本发明优选实施例,所述方法还包括:
在进行庭审时,每隔预设时间间隔获取受审人员视频;
将所述受审人员视频输入到所述测谎模型中进行检测,得到第二检测结果;
实时显示所述第二检测结果。
一种基于视频分析的测谎装置,所述装置包括:
获取单元,用于当接收到测谎指令时,获取待测谎视频,所述待测谎视频包括待预测视频序列及基准视频序列;
输入单元,用于将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值;
确定单元,用于当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险;
标记单元,用于标记所述目标人物为可疑人物;
输出单元,用于当侦测到所述目标人物说话时,输出危险提示。
根据本发明优选实施例,所述获取单元,还用于在将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中前,获取样本视频;
所述装置还包括:
拆分单元,用于对所述样本视频中的每个视频进行拆分,得到每个视频的第一视频序列及第二视频序列;
训练单元,用于结合长短期记忆网络算法及神经网络算法,利用所述第一视频序列及所述第二视频序列训练得到所述测谎模型。
根据本发明优选实施例,所述获取单元获取所述样本视频包括以下一种或者多种方式的组合:
获取上传的非说谎视频,作为所述样本视频;及/或
采用网络爬虫技术获取非说谎视频,作为所述样本视频;及/或
从指定服务器获取非说谎视频,作为所述样本视频。
根据本发明优选实施例,所述训练单元对所述第一视频序列及所述第二视频序列进行训练包括:
将所述第一视频序列确定为训练样本;
将所述第二视频序列确定为标签;
以所述第二视频序列拟合训练所述第一视频序列。
根据本发明优选实施例,所述获取单元,还用于在得到所述测谎模型后,获取所述测谎模型的损失函数;
所述训练单元,还用于当所述损失函数超出配置数值范围时,继续训练所述测谎模型;或者
所述获取单元,还用于获取验证视频;
所述装置还包括:
验证单元,用于将所述验证视频输入到所述测谎模型中进行验证,得到验证结果;
所述确定单元,还用于根据所述验证结果确定所述测谎模型的准确率;
所述训练单元,还用于当所述准确率小于配置阈值时,继续训练所述测谎模型。
根据本发明优选实施例,所述获取单元,还用于当接收到面审指令时,获取面审视频;
所述装置还包括:
检测单元,用于将所述面审视频输入到所述测谎模型中进行检测,得到第一检测结果;
所述获取单元,还用于当所述第一检测结果为所述面审视频中的待审用户有说谎风险时,获取所述待审用户的历史信用数据;
发送单元,用于将所述历史信用数据及所述第一检测结果发送至指定人员的终端设备。
根据本发明优选实施例,所述获取单元,还用于在进行庭审时,每隔预设时间间隔获取受审人员视频;
所述检测单元,还用于将所述受审人员视频输入到所述测谎模型中进行检测,得到第二检测结果;
所述装置还包括:
显示单元,用于实时显示所述第二检测结果。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于视频分析的测谎方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述基于视频分析的测谎方法。
由以上技术方案可以看出,本发明能够当接收到测谎指令时,获取待测谎视频,所述待测谎视频包括待预测视频序列及基准视频序列,并将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值,当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险,从而实现自动化测谎,不仅高效,而且准确,进一步标记所述目标人物为可疑人物,当侦测到所述目标人物说话时,输出危险提示,进而能够在再次面对说谎者时及时采取措施,降低被骗几率,提升了用户体验。
附图说明
图1是本发明基于视频分析的测谎方法的较佳实施例的流程图。
图2是本发明基于视频分析的测谎装置的较佳实施例的功能模块图。
图3是本发明实现基于视频分析的测谎方法的较佳实施例的电子设备的结构示意图。
主要元件符号说明
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于视频分析的测谎方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于视频分析的测谎方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(DigitalSignal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,当接收到测谎指令时,获取待测谎视频。
其中,所述待测谎视频包括待预测视频序列及基准视频序列。
在本发明的至少一个实施例中,所述电子设备接收所述测谎指令包括,但不限于以下一种或者多种的组合:
(1)所述电子设备接收到用户触发配置按键的信号,以确定接收到所述测谎指令。
具体地,所述配置按键是预先配置的,用于触发所述测谎指令。所述配置按键可以是虚拟按键,也可以是实体按键。
(2)所述电子设备接收到配置语音信号,以确定接收到所述测谎指令。
具体地,所述配置语音信号是预先配置的,用于触发所述测谎指令。
进一步地,所述电子设备接收用户输入的语音,并对所述语音进行语音识别,以确定所述语音是否与所述配置语音一致,并且,当所述语音与所述配置语音一致时,所述电子设备确定接收到所述测谎指令。
在本发明的至少一个实施例中,所述待测谎视频可以由用户上传,也可以由任意终端直接传输至所述电子设备,本发明不限制。
S11,将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值。
在本发明的至少一个实施例中,在将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中前,所述电子设备训练所述测谎模型。
具体地,所述电子设备在将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中前,所述方法还包括:
所述电子设备获取样本视频,并对所述样本视频中的每个视频进行拆分,得到每个视频的第一视频序列及第二视频序列,进一步地,所述电子设备结合长短期记忆网络算法及神经网络算法,利用所述第一视频序列及所述第二视频序列训练得到所述测谎模型。
具体地,所述样本视频为确定的非说谎视频,由于本案进行的是时序预测,因此,采用非说谎视频作为样本视频可以有效预测下一时序的行为。
进一步地,所述样本视频中记录着目标人物的行为数据,所述行为数据包括,但不限于:人脸动作单元、眼球位置数据、人体姿态数据等。
具体地,FACS(Facial Action Coding System,面部行为编码系统)中详细分析了面部全部肌肉组织的活动,及其活动所引起的面部各个独立部位的变化,以及可观察到的、由这些肌肉活动所引起的表情。在此基础上,将脸部运动分解成一些基本的AU。其中,AU是脸部肌肉的细微运动,也就是指人脸部的基本肌肉动作单元,且AU主要有单个AU和组合AU。
例如:AU可以包括内眉上扬、嘴角上扬、鼻子蹙皱等。
进一步地,所述电子设备可以采用人脸识别算法,提取所述样本视频中每个人物的人脸动作单元、眼球位置数据,本发明不限制。
在本发明的至少一个实施例中,所述电子设备对所述样本视频中的每个视频进行拆分包括:
所述电子设备按照时间顺序对所述样本视频中的每个视频进行拆分,得到每个视频的第一视频序列及第二视频序列。
其中,所述第一视频序列作为训练数据,所述第二视频序列作为标签数据,也就是说,所述电子设备根据所述第一视频序列进行预测,得到预测结果,并以所述第二视频序列作为基准,确定与所述预测结果的差异性。
例如:所述电子设备将前35帧视频作为所述第一视频序列,并将第36帧到第40帧视频作为所述第二视频序列。
可以理解的是,由于35帧视频的时间为1秒左右,因此以35帧视频训练,在时间上刚好符合人类面部表情行为的规律性,既可以抓取足够的细节,又避免浪费多余的时间,训练效果更好,且更为准确。
通过上述实施方式,所述电子设备采用所述长短期记忆网络算法(Long Short-Term Memory,LSTM),能够处理和预测时间序列中间隔和延迟相对较长的重要事件,也就是说,能够通过当前一段时间内的行为数据,合理预测出下一时序时间段的行为数据,并结合神经网络算法训练出的面部细节特征,判断出不同帧视频序列特征的差异性,进一步根据差异性判断所述目标人物是否有说谎风险。
在本发明的至少一个实施例中,所述电子设备获取样本视频包括,但不限于以下一种或者多种方式的组合:
(1)所述电子设备获取上传的非说谎视频,作为所述样本视频。
具体地,所述电子设备可以接收多个用户录制的非说谎视频,作为所述样本视频。
通过上述实施方式,可以有效保证所述样本视频来源的可信赖性,避免由于样本错误造成所述测谎模型有误。
(2)所述电子设备采用网络爬虫技术获取非说谎视频,作为所述样本视频。
由于训练样本的数量越多,训练精度越高,因此,所述电子设备采用网络爬虫技术,可以获取到大量非说谎视频作为所述样本视频,有效保证了模型的训练精度。
(3)所述电子设备从指定服务器获取非说谎视频,作为所述样本视频。
具体地,所述指定服务器可以包括,但不限于公安机关的服务器、心里医疗机构的服务器等,一方面保证了权威性,另一方面保证了合法性。
在本发明的至少一个实施例中,所述电子设备对所述第一视频序列及所述第二视频序列进行训练包括:
所述电子设备将所述第一视频序列确定为训练样本,并将所述第二视频序列确定为标签,进一步以所述第二视频序列拟合训练所述第一视频序列。
具体地,所述电子设备以所述第二视频序列为标签训练所述测谎模型,通过不断更新所述测谎模型的相关参数,使所述第一视频序列中目标人物的行为数据在下一时间段(即所述第二视频序列所处的时间段)的预测结果向所述第二视频序列不断靠拢,从而实现对所述测谎模型的拟合训练。
通过上述实施方式,所述电子设备能够以所述第二视频序列为标签,对所述测谎模型进行回归式训练,以提高所述测谎模型的测谎精度。
在本发明的至少一个实施例中,在得到所述测谎模型后,所述方法还包括:
(1)所述电子设备获取所述测谎模型的损失函数,当所述损失函数超出配置数值范围时,继续训练所述测谎模型。
具体地,所述配置范围不固定,可以根据实际情况进行自定义配置。
通过所述损失函数,可以评价所述测谎模型的优劣,当确定所述测谎模型的准确度不够时,所述电子设备继续训练所述测谎模型,以提高所述测谎模型的准确度。
(2)所述电子设备获取验证视频,将所述验证视频输入到所述测谎模型中进行验证,得到验证结果,根据所述验证结果确定所述测谎模型的准确率,当所述准确率小于配置阈值时,继续训练所述测谎模型。
具体地,所述验证视频中的人物可以确定为在说谎。
具体地,所述配置阈值也可以进行自定义配置,本发明不限制。所述预设阈值可以用于鉴定所述测谎模型的准确率。
因此,当所述电子设备通过所述测谎模型,确定所述验证视频中的人物没有说谎风险时,则说明所述测谎模型测试有误,所述电子设备继续训练所述测谎模型,以提高所述测谎模型的准确度。
S12,当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险。
具体地,所述差异值可以在[0,1]的数值范围内。
进一步地,所述差异值满足配置条件包括:
当所述差异值处于预设数值范围时,所述电子设备确定所述述差异值满足配置条件。
其中,所述预设数值范围根据实际训练情况确定。
例如:当所述预设数值范围为[0.5,1]时,如果所述电子设备确定所述差异值为0.7,则确定所述差异值满足所述配置条件,所述电子设备进一步确定所述待测谎视频中的目标人物有说谎风险。
在本发明的至少一个实施例中,所述方法还包括:
当接收到面审指令时,所述电子设备获取面审视频,将所述面审视频输入到所述测谎模型中进行检测,得到第一检测结果,当所述第一检测结果为所述面审视频中的待审用户有说谎风险时,获取所述待审用户的历史信用数据,进一步地,所述电子设备将所述历史信用数据及所述第一检测结果发送至指定人员的终端设备。
具体地,所述面审视频可以包括,但不限于:银行贷款时的面审视频、保险报销时的面审视频等。
具体地,所述历史信用数据包括,但不限于:所述待审用户贷款时的信用数据、所述待审用户在使用信用卡时的信用数据等。
具体地,所述指定人员可以包括,但不限于:银行工作人员、保险业务审核人员等。
通过上述实施方式,所述电子设备能够在检测到所述待审用户有说谎嫌疑时,将获取到的所述历史信用数据及所述第一检测结果同时发送至指定人员的终端设备,以供进一步审核,给所述指定人员带来方便的同时,也给双方都提供了更好的安全保障。
在本发明的至少一个实施例中,所述方法还包括:
在进行庭审时,所述电子设备每隔预设时间间隔获取受审人员视频,并将所述受审人员视频输入到所述测谎模型中进行检测,得到第二检测结果,进一步地,所述电子设备实时显示所述第二检测结果。
具体地,所述预设时间间隔可以根据实际需求进行配置,本发明不限制。
可以理解的是,在进行庭审时,观察受审人员的行为也是非常重要的,可以辅助判断受审人员是否有说谎嫌疑,并针对现场情况进行进一步提问。而由于现场氛围紧张,且可能会有一些突发情况影响,受审人员的一些行为细节被忽略也很正常。为了避免这种情况发生,本实施方式可以实时监控受审人员的行为,并判断是否有说谎嫌疑,进一步显示所述第二检测结果,让审判人员可以同步看到,辅助进行更加高效且准确的审判。
S13,标记所述目标人物为可疑人物。
在本发明的至少一个实施例中,所述电子设备可以以任意方式标记所述目标人物为可疑人物,本发明不限制。
例如:所述电子设备在所述目标人物的姓名前标记“!”。
S14,当侦测到所述目标人物说话时,输出危险提示。
在本发明的至少一个实施例中,当侦测到所述目标人物说话时,所述电子设备输出危险提示。
具体地,所述危险提示可以包括弹窗提示,警铃提示等,本发明对提示方式不限制。
通过上述实施方式,能够在确认危险人物后,及时提示危险人物可能在说谎,以减少被骗几率。
由以上技术方案可以看出,本发明能够当接收到测谎指令时,获取待测谎视频,所述待测谎视频包括待预测视频序列及基准视频序列,并将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值,当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险,从而实现自动化测谎,不仅高效,而且准确,进一步标记所述目标人物为可疑人物,当侦测到所述目标人物说话时,输出危险提示,进而能够在再次面对说谎者时及时采取措施,降低被骗几率,提升了用户体验。
如图2所示,是本发明基于视频分析的测谎装置的较佳实施例的功能模块图。所述基于视频分析的测谎装置11包括获取单元110、输入单元111、确定单元112、拆分单元113、训练单元114、验证单元115、检测单元116、发送单元117、显示单元118、提取单元119、标记单元120以及输出单元121。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
当接收到测谎指令时,获取单元110获取待测谎视频。
其中,所述待测谎视频包括待预测视频序列及基准视频序列。
在本发明的至少一个实施例中,所述获取单元110接收所述测谎指令包括,但不限于以下一种或者多种的组合:
(1)所述获取单元110接收到用户触发配置按键的信号,以确定接收到所述测谎指令。
具体地,所述配置按键是预先配置的,用于触发所述测谎指令。所述配置按键可以是虚拟按键,也可以是实体按键。
(2)所述获取单元110接收到配置语音信号,以确定接收到所述测谎指令。
具体地,所述配置语音信号是预先配置的,用于触发所述测谎指令。
进一步地,所述获取单元110接收用户输入的语音,并对所述语音进行语音识别,以确定所述语音是否与所述配置语音一致,并且,当所述语音与所述配置语音一致时,所述获取单元110确定接收到所述测谎指令。
在本发明的至少一个实施例中,所述待测谎视频可以由用户上传,也可以由任意终端直接传输至所述获取单元110,本发明不限制。
输入单元111将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值。
在本发明的至少一个实施例中,所述输入单元111在将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中前,训练单元114训练所述测谎模型。
具体地,所述输入单元111在将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中前,所述方法还包括:
所述获取单元110获取样本视频,进一步地,拆分单元113对所述样本视频中的每个视频进行拆分,得到每个视频的第一视频序列及第二视频序列,进一步地,所述训练单元114结合长短期记忆网络算法及神经网络算法,利用所述第一视频序列及所述第二视频序列训练得到所述测谎模型。
具体地,所述样本视频为确定的非说谎视频,由于本案进行的是时序预测,因此,采用非说谎视频作为样本视频可以有效预测下一时序的行为。
进一步地,所述样本视频中记录着目标人物的行为数据,所述行为数据包括,但不限于:人脸动作单元、眼球位置数据、人体姿态数据等。
具体地,FACS(Facial Action Coding System,面部行为编码系统)中详细分析了面部全部肌肉组织的活动,及其活动所引起的面部各个独立部位的变化,以及可观察到的、由这些肌肉活动所引起的表情。在此基础上,将脸部运动分解成一些基本的AU。其中,AU是脸部肌肉的细微运动,也就是指人脸部的基本肌肉动作单元,且AU主要有单个AU和组合AU。
例如:AU可以包括内眉上扬、嘴角上扬、鼻子蹙皱等。
进一步地,提取单元119可以采用人脸识别算法,提取所述样本视频中每个人物的人脸动作单元、眼球位置数据,本发明不限制。
在本发明的至少一个实施例中,所述拆分单元113对所述样本视频中的每个视频进行拆分包括:
所述拆分单元113按照时间顺序对所述样本视频中的每个视频进行拆分,得到每个视频的第一视频序列及第二视频序列。
其中,所述第一视频序列作为训练数据,所述第二视频序列作为标签数据,也就是说,对所述第一视频序列进行预测,得到预测结果,并以所述第二视频序列作为基准,确定与所述预测结果的差异性。
例如:所述拆分单元113将前35帧视频作为所述第一视频序列,并将第36帧到第40帧视频作为所述第二视频序列。
可以理解的是,由于35帧视频的时间为1秒左右,因此以35帧视频训练,在时间上刚好符合人类面部表情行为的规律性,既可以抓取足够的细节,又避免浪费多余的时间,训练效果更好,且更为准确。
通过上述实施方式,采用所述长短期记忆网络算法(Long Short-Term Memory,LSTM),能够处理和预测时间序列中间隔和延迟相对较长的重要事件,也就是说,能够通过当前一段时间内的行为数据,合理预测出下一时序时间段的行为数据,并结合神经网络算法训练出的面部细节特征,判断出不同帧视频序列特征的差异性,进一步根据差异性判断所述目标人物是否有说谎风险。
在本发明的至少一个实施例中,所述获取单元110获取样本视频包括,但不限于以下一种或者多种方式的组合:
(1)所述获取单元110获取上传的非说谎视频,作为所述样本视频。
具体地,所述获取单元110可以接收多个用户录制的非说谎视频,作为所述样本视频。
通过上述实施方式,可以有效保证所述样本视频来源的可信赖性,避免由于样本错误造成所述测谎模型有误。
(2)所述获取单元110采用网络爬虫技术获取非说谎视频,作为所述样本视频。
由于训练样本的数量越多,训练精度越高,因此,所述获取单元110采用网络爬虫技术,可以获取到大量非说谎视频作为所述样本视频,有效保证了模型的训练精度。
(3)所述获取单元110从指定服务器获取非说谎视频,作为所述样本视频。
具体地,所述指定服务器可以包括,但不限于公安机关的服务器、心里医疗机构的服务器等,一方面保证了权威性,另一方面保证了合法性。
在本发明的至少一个实施例中,所述训练单元114对所述第一视频序列及所述第二视频序列进行训练包括:
所述训练单元114将所述第一视频序列确定为训练样本,并将所述第二视频序列确定为标签,进一步以所述第二视频序列拟合训练所述第一视频序列。
具体地,所述训练单元114以所述第二视频序列为标签训练所述测谎模型,通过不断更新所述测谎模型的相关参数,使所述第一视频序列中目标人物的行为数据在下一时间段(即所述第二视频序列所处的时间段)的预测结果向所述第二视频序列不断靠拢,从而实现对所述测谎模型的拟合训练。
通过上述实施方式,所述训练单元114能够以所述第二视频序列为标签,对所述测谎模型进行回归式训练,以提高所述测谎模型的测谎精度。
在本发明的至少一个实施例中,在得到所述测谎模型后,所述方法还包括:
(1)所述获取单元110获取所述测谎模型的损失函数,当所述损失函数超出配置数值范围时,所述训练单元114继续训练所述测谎模型。
具体地,所述配置范围不固定,可以根据实际情况进行自定义配置。
通过所述损失函数,可以评价所述测谎模型的优劣,当确定所述测谎模型的准确度不够时,所述训练单元114继续训练所述测谎模型,以提高所述测谎模型的准确度。
(2)所述获取单元110获取验证视频,进一步地,验证单元115将所述验证视频输入到所述测谎模型中进行验证,得到验证结果,确定单元112根据所述验证结果确定所述测谎模型的准确率,当所述准确率小于配置阈值时,所述训练单元114继续训练所述测谎模型。
具体地,所述验证视频中的人物可以确定为有说谎风险。
具体地,所述配置阈值也可以进行自定义配置,本发明不限制。所述预设阈值可以用于鉴定所述测谎模型的准确率。
因此,当所述确定单元112通过所述测谎模型,确定所述验证视频中的人物没有说谎风险时,则说明所述测谎模型测试有误,所述训练单元114继续训练所述测谎模型,以提高所述测谎模型的准确度。
当所述差异值满足配置条件时,所述确定单元112确定所述待测谎视频中的目标人物有说谎风险。
具体地,所述差异值可以在[0,1]的数值范围内。
进一步地,所述差异值满足配置条件包括:
当所述差异值处于预设数值范围时,所述确定单元112确定所述述差异值满足配置条件。
其中,所述预设数值范围根据实际训练情况确定。
例如:当所述预设数值范围为[0.5,1]时,如果所述确定单元112确定所述差异值为0.7,则确定所述差异值满足所述配置条件,所述确定单元112进一步确定所述待测谎视频中的目标人物有说谎风险。
在本发明的至少一个实施例中,所述方法还包括:
当接收到面审指令时,所述获取单元110获取面审视频,进一步地,检测单元116将所述面审视频输入到所述测谎模型中进行检测,得到第一检测结果,当所述第一检测结果为所述面审视频中的待审用户有说谎风险时,所述获取单元110获取所述待审用户的历史信用数据,进一步地,发送单元117将所述历史信用数据及所述第一检测结果发送至指定人员的终端设备。
具体地,所述面审视频可以包括,但不限于:银行贷款时的面审视频、保险报销时的面审视频等。
具体地,所述历史信用数据包括,但不限于:所述待审用户贷款时的信用数据、所述待审用户在使用信用卡时的信用数据等。
具体地,所述指定人员可以包括,但不限于:银行工作人员、保险业务审核人员等。
通过上述实施方式,能够在所述检测单元116检测到所述待审用户有说谎嫌疑时,所述发送单元117将获取到的所述历史信用数据及所述第一检测结果同时发送至指定人员的终端设备,以供进一步审核,给所述指定人员带来方便的同时,也给双方都提供了更好的安全保障。
在本发明的至少一个实施例中,所述方法还包括:
在进行庭审时,所述获取单元110每隔预设时间间隔获取受审人员视频,进一步地,所述检测单元116将所述受审人员视频输入到所述测谎模型中进行检测,得到第二检测结果,进一步地,显示单元118实时显示所述第二检测结果。
具体地,所述预设时间间隔可以根据实际需求进行配置,本发明不限制。
可以理解的是,在进行庭审时,观察受审人员的行为也是非常重要的,可以辅助判断受审人员是否有说谎嫌疑,并针对现场情况进行进一步提问。而由于现场氛围紧张,且可能会有一些突发情况影响,受审人员的一些行为细节被忽略也很正常。为了避免这种情况发生,本实施方式可以实时监控受审人员的行为,并判断是否有说谎嫌疑,进一步显示所述第二检测结果,让审判人员可以同步看到,辅助进行更加高效且准确的审判。
标记单元120标记所述目标人物为可疑人物。
在本发明的至少一个实施例中,所述标记单元120可以以任意方式标记所述目标人物为可疑人物,本发明不限制。
例如:所述标记单元120在所述目标人物的姓名前标记“!”。
输出单元121当侦测到所述目标人物说话时,输出危险提示。
在本发明的至少一个实施例中,当侦测到所述目标人物说话时,所述输出单元121输出危险提示。
具体地,所述危险提示可以包括弹窗提示,警铃提示等,本发明对提示方式不限制。
通过上述实施方式,能够在确认危险人物后,及时提示危险人物可能在说谎,以减少被骗几率。
由以上技术方案可以看出,本发明能够当接收到测谎指令时,获取待测谎视频,所述待测谎视频包括待预测视频序列及基准视频序列,并将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值,当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险,从而实现自动化测谎,不仅高效,而且准确,进一步标记所述目标人物为可疑人物,当侦测到所述目标人物说话时,输出危险提示,进而能够在再次面对说谎者时及时采取措施,降低被骗几率,提升了用户体验。
如图3所示,是本发明实现基于视频分析的测谎方法的较佳实施例的电子设备的结构示意图。
所述电子设备1是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备1还可以是但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(InternetProtocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备1还可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。
所述电子设备1所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如测谎程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于视频分析的测谎方法实施例中的步骤,例如图1所示的步骤S10、S11、S12、S13、S14。
或者,所述处理器13执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如当接收到测谎指令时,获取待测谎视频;将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值;当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险;标记所述目标人物为可疑人物;当侦测到所述目标人物说话时,输出危险提示。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成获取单元110、输入单元111、确定单元112、拆分单元113、训练单元114、验证单元115、检测单元116、发送单元117、显示单元118、提取单元119、标记单元120以及输出单元121。
所述存储器12可用于存储所述计算机程序和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机程序和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器12可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是集成电路中没有实物形式的具有存储功能的电路,如RAM(Random-AccessMemory,随机存取存储器)、FIFO(First In First Out,)等。或者,所述存储器12也可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种基于视频分析的测谎方法,所述处理器13可执行所述多个指令从而实现:当接收到测谎指令时,获取待测谎视频;将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值;当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险;标记所述目标人物为可疑人物;当侦测到所述目标人物说话时,输出危险提示。
根据本发明优选实施例,所述处理器13执行多个指令包括:
获取样本视频;
对所述样本视频中的每个视频进行拆分,得到每个视频的第一视频序列及第二视频序列;
结合长短期记忆网络算法及神经网络算法,利用所述第一视频序列及所述第二视频序列训练得到所述测谎模型。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
获取上传的非说谎视频,作为所述样本视频;及/或
采用网络爬虫技术获取非说谎视频,作为所述样本视频;及/或
从指定服务器获取非说谎视频,作为所述样本视频。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
将所述第一视频序列确定为训练样本;
将所述第二视频序列确定为标签;
以所述第二视频序列拟合训练所述第一视频序列。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
获取所述测谎模型的损失函数,当所述损失函数超出配置数值范围时,继续训练所述测谎模型;或者
获取验证视频,将所述验证视频输入到所述测谎模型中进行验证,得到验证结果,根据所述验证结果确定所述测谎模型的准确率,当所述准确率小于配置阈值时,继续训练所述测谎模型。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
当接收到面审指令时,获取面审视频;
将所述面审视频输入到所述测谎模型中进行检测,得到第一检测结果;
当所述第一检测结果为所述面审视频中的待审用户有说谎风险时,获取所述待审用户的历史信用数据;
将所述历史信用数据及所述第一检测结果发送至指定人员的终端设备。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
在进行庭审时,每隔预设时间间隔获取受审人员视频;
将所述受审人员视频输入到所述测谎模型中进行检测,得到第二检测结果;
实时显示所述第二检测结果。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于视频分析的测谎方法,其特征在于,所述方法包括:
当接收到测谎指令时,获取待测谎视频,所述待测谎视频包括待预测视频序列及基准视频序列;
将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值;
当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险;
标记所述目标人物为可疑人物;
当侦测到所述目标人物说话时,输出危险提示。
2.如权利要求1所述的基于视频分析的测谎方法,其特征在于,在将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中前,所述方法还包括:
获取样本视频;
对所述样本视频中的每个视频进行拆分,得到每个视频的第一视频序列及第二视频序列;
结合长短期记忆网络算法及神经网络算法,利用所述第一视频序列及所述第二视频序列训练得到所述测谎模型。
3.如权利要求2所述的基于视频分析的测谎方法,其特征在于,所述获取样本视频包括以下一种或者多种方式的组合:
获取上传的非说谎视频,作为所述样本视频;及/或
采用网络爬虫技术获取非说谎视频,作为所述样本视频;及/或
从指定服务器获取非说谎视频,作为所述样本视频。
4.如权利要求2所述的基于视频分析的测谎方法,其特征在于,所述对所述第一视频序列及所述第二视频序列进行训练包括:
将所述第一视频序列确定为训练样本;
将所述第二视频序列确定为标签;
以所述第二视频序列拟合训练所述第一视频序列。
5.如权利要求2所述的基于视频分析的测谎方法,其特征在于,在得到所述测谎模型后,所述方法还包括:
获取所述测谎模型的损失函数,当所述损失函数超出配置数值范围时,继续训练所述测谎模型;或者
获取验证视频,将所述验证视频输入到所述测谎模型中进行验证,得到验证结果,根据所述验证结果确定所述测谎模型的准确率,当所述准确率小于配置阈值时,继续训练所述测谎模型。
6.如权利要求1所述的基于视频分析的测谎方法,其特征在于,所述方法还包括:
当接收到面审指令时,获取面审视频;
将所述面审视频输入到所述测谎模型中进行检测,得到第一检测结果;
当所述第一检测结果为所述面审视频中的待审用户有说谎风险时,获取所述待审用户的历史信用数据;
将所述历史信用数据及所述第一检测结果发送至指定人员的终端设备。
7.如权利要求1所述的基于视频分析的测谎方法,其特征在于,所述方法还包括:
在进行庭审时,每隔预设时间间隔获取受审人员视频;
将所述受审人员视频输入到所述测谎模型中进行检测,得到第二检测结果;
实时显示所述第二检测结果。
8.一种基于视频分析的测谎装置,其特征在于,所述装置包括:
获取单元,用于当接收到测谎指令时,获取待测谎视频,所述待测谎视频包括待预测视频序列及基准视频序列;
输入单元,用于将所述待测谎视频输入到结合长短期记忆网络算法及神经网络算法训练的测谎模型中,得到根据所述待预测视频序列预测的预测视频序列,及所述预测视频序列与所述基准视频序列的差异值;
确定单元,用于当所述差异值满足配置条件时,确定所述待测谎视频中的目标人物有说谎风险;
标记单元,用于标记所述目标人物为可疑人物;
输出单元,用于当侦测到所述目标人物说话时,输出危险提示。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的基于视频分析的测谎方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于视频分析的测谎方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910528235.0A CN110427803A (zh) | 2019-06-18 | 2019-06-18 | 基于视频分析的测谎方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910528235.0A CN110427803A (zh) | 2019-06-18 | 2019-06-18 | 基于视频分析的测谎方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110427803A true CN110427803A (zh) | 2019-11-08 |
Family
ID=68408683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910528235.0A Pending CN110427803A (zh) | 2019-06-18 | 2019-06-18 | 基于视频分析的测谎方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110427803A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329748A (zh) * | 2021-01-04 | 2021-02-05 | 中国科学院自动化研究所 | 面向交互场景的自动谎言检测方法、装置、设备及介质 |
CN112991076A (zh) * | 2021-02-08 | 2021-06-18 | 支付宝(杭州)信息技术有限公司 | 信息处理方法及装置 |
WO2021139053A1 (zh) * | 2020-01-06 | 2021-07-15 | 深圳壹账通智能科技有限公司 | 基于远程光体积描述术的风险评估方法、装置、设备及存储介质 |
CN113243918A (zh) * | 2021-06-11 | 2021-08-13 | 深圳般若计算机系统股份有限公司 | 基于多模态隐匿信息测试的风险检测方法及装置 |
CN113723242A (zh) * | 2021-08-20 | 2021-11-30 | 湖南全航信息通信有限公司 | 基于视频终端的视觉测谎方法、电子设备及介质 |
US20230315810A1 (en) * | 2022-03-29 | 2023-10-05 | Emotion Comparator Systems Sweden AB | System and method for interpretation of human interpersonal interaction |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016330A (zh) * | 2015-10-27 | 2017-08-04 | 赛峰身份与安全公司 | 通过预记录的图像投影对欺诈进行检测的方法 |
CN109886110A (zh) * | 2019-01-17 | 2019-06-14 | 深圳壹账通智能科技有限公司 | 微表情评分方法、装置、计算机设备及存储介质 |
-
2019
- 2019-06-18 CN CN201910528235.0A patent/CN110427803A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016330A (zh) * | 2015-10-27 | 2017-08-04 | 赛峰身份与安全公司 | 通过预记录的图像投影对欺诈进行检测的方法 |
CN109886110A (zh) * | 2019-01-17 | 2019-06-14 | 深圳壹账通智能科技有限公司 | 微表情评分方法、装置、计算机设备及存储介质 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021139053A1 (zh) * | 2020-01-06 | 2021-07-15 | 深圳壹账通智能科技有限公司 | 基于远程光体积描述术的风险评估方法、装置、设备及存储介质 |
CN112329748A (zh) * | 2021-01-04 | 2021-02-05 | 中国科学院自动化研究所 | 面向交互场景的自动谎言检测方法、装置、设备及介质 |
CN112329748B (zh) * | 2021-01-04 | 2021-04-30 | 中国科学院自动化研究所 | 面向交互场景的自动谎言检测方法、装置、设备及介质 |
US11238289B1 (en) | 2021-01-04 | 2022-02-01 | Institute Of Automation, Chinese Academy Of Sciences | Automatic lie detection method and apparatus for interactive scenarios, device and medium |
CN112991076A (zh) * | 2021-02-08 | 2021-06-18 | 支付宝(杭州)信息技术有限公司 | 信息处理方法及装置 |
CN113243918A (zh) * | 2021-06-11 | 2021-08-13 | 深圳般若计算机系统股份有限公司 | 基于多模态隐匿信息测试的风险检测方法及装置 |
CN113723242A (zh) * | 2021-08-20 | 2021-11-30 | 湖南全航信息通信有限公司 | 基于视频终端的视觉测谎方法、电子设备及介质 |
CN113723242B (zh) * | 2021-08-20 | 2024-04-26 | 湖南全航信息通信有限公司 | 基于视频终端的视觉测谎方法、电子设备及介质 |
US20230315810A1 (en) * | 2022-03-29 | 2023-10-05 | Emotion Comparator Systems Sweden AB | System and method for interpretation of human interpersonal interaction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110427803A (zh) | 基于视频分析的测谎方法、装置、电子设备及存储介质 | |
CN107742100B (zh) | 一种考生身份验证方法及终端设备 | |
Zhang et al. | Pdvocal: Towards privacy-preserving parkinson's disease detection using non-speech body sounds | |
CN111582342B (zh) | 一种图像识别方法、装置、设备以及可读存储介质 | |
CN110347872A (zh) | 视频封面图像提取方法及装置、存储介质及电子设备 | |
CN108573268A (zh) | 图像识别方法和装置、图像处理方法和装置及存储介质 | |
US10953280B2 (en) | Observation-based break prediction for sporting events | |
CN110210194A (zh) | 电子合同显示方法、装置、电子设备及存储介质 | |
CN113556603B (zh) | 调整视频播放效果的方法及装置、电子设备 | |
CN111832583A (zh) | 基于区块链的健康管理方法、装置、介质及电子设备 | |
Abouelenien et al. | Gender-based multimodal deception detection | |
CN109858344A (zh) | 婚恋对象推荐方法、装置、计算机设备及存储介质 | |
Yu et al. | Semi-supervised learning and data augmentation in wearable-based momentary stress detection in the wild | |
Stylios et al. | BioPrivacy: Development of a keystroke dynamics continuous authentication system | |
CN111027419A (zh) | 一种视频无关内容检测的方法、装置、设备和介质 | |
KR20220106029A (ko) | 인공지능을 활용한 심리 상담 방법 및 장치 | |
CN114245204B (zh) | 基于人工智能的视频面签方法、装置、电子设备及介质 | |
CN110175522A (zh) | 考勤方法、系统及相关产品 | |
Beriwal et al. | Techniques for suicidal ideation prediction: a qualitative systematic review | |
US10887629B1 (en) | Basketball video interaction method and device, intelligent basketball stand and storage medium | |
CN116884577A (zh) | 基于机器视觉的心理疗愈方法、装置、设备及介质 | |
CN116630736A (zh) | 一种用户表情捕捉模型的训练方法及系统 | |
CN114971658B (zh) | 一种反诈宣传方法、系统、电子设备以及存储介质 | |
CN113435975B (zh) | 轮椅租赁处理方法、装置及相关设备 | |
CN115661890A (zh) | 模型训练方法、人脸识别方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191108 |