CN109858411A - 基于人工智能的案件审判方法、装置及计算机设备 - Google Patents
基于人工智能的案件审判方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN109858411A CN109858411A CN201910048310.3A CN201910048310A CN109858411A CN 109858411 A CN109858411 A CN 109858411A CN 201910048310 A CN201910048310 A CN 201910048310A CN 109858411 A CN109858411 A CN 109858411A
- Authority
- CN
- China
- Prior art keywords
- target
- feature
- lie
- expression
- spokesman
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 37
- 230000009471 action Effects 0.000 claims abstract description 46
- 238000003860 storage Methods 0.000 claims abstract description 17
- 238000013136 deep learning model Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 230000014509 gene expression Effects 0.000 claims description 95
- 238000012549 training Methods 0.000 claims description 56
- 238000004590 computer program Methods 0.000 claims description 18
- 238000005086 pumping Methods 0.000 claims description 13
- 238000005520 cutting process Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000003252 repetitive effect Effects 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 5
- 230000000644 propagated effect Effects 0.000 claims description 4
- 210000004209 hair Anatomy 0.000 claims description 2
- 210000003205 muscle Anatomy 0.000 description 42
- 210000004709 eyebrow Anatomy 0.000 description 29
- 210000000744 eyelid Anatomy 0.000 description 28
- 230000006870 function Effects 0.000 description 15
- 206010040954 Skin wrinkling Diseases 0.000 description 13
- 230000037303 wrinkles Effects 0.000 description 11
- 230000008921 facial expression Effects 0.000 description 10
- 230000000877 morphologic effect Effects 0.000 description 10
- 230000008602 contraction Effects 0.000 description 8
- 230000036651 mood Effects 0.000 description 8
- 210000001364 upper extremity Anatomy 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 241000223503 Platysma Species 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 230000005764 inhibitory process Effects 0.000 description 4
- 229940037201 oris Drugs 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 206010063659 Aversion Diseases 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001125 extrusion Methods 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000931705 Cicada Species 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 208000029091 Refraction disease Diseases 0.000 description 1
- 206010044684 Trismus Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004430 ametropia Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001595 contractor effect Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000004373 mandible Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000029052 metamorphosis Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 208000014733 refractive error Diseases 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Abstract
本发明适用于人工智能技术领域,提供了一种基于人工智能的案件审判方法、装置、存储设备及计算机设备。其中,方法包括:获取对目标发言人的脸部表情拍摄的目标视频;以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段;从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集;将提取的特征集输入预先训练好的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果;展示所述每个问题的撒谎评估结果。本发明通过识别每个目标发言人在回答每个问题时的撒谎概率,得到欺诈评估结果,辅助法官进行判决,减少主观因素影响,降低了案件的误判率。
Description
技术领域
本发明属于人工智能技术领域,尤其涉及一种基于人工智能的案件审判方法、装置、存储介质及计算机设备。
背景技术
传统的法庭,通过法官对律师、被告人、证人和陪审团相关的证词,进行专业的分析和判断,最终得出审判结果。
然而,由于被告或者原告为了自己的权益,给出的证词一般是为了自己着想,当被告或者原告、以及相应的证人在撒谎或者夸大其词的时候,法官很难发现其中的瑕疵,从而导致案件的走向存在偏差,造成案件的审判结果不当。
综上所述,目前的案件审判方法过于依靠法官存在误判的问题。
发明内容
有鉴于此,本发明实施例提供了一种基于人工智能的案件审判方法、装置、存储介质及终端设备,以解决现有技术中基于人工智能的案件审判方法存在过于依靠法官存在误判的问题。
本发明实施例的第一方面提供了一种基于人工智能的案件审判方法,包括:
获取对目标发言人的脸部表情拍摄的目标视频;
以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段;
从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集;
将提取的特征集输入预先训练好的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果;
展示所述每个问题的撒谎评估结果。
本发明实施例的第二方面提供了一种基于人工智能的案件审判装置,包括:
获取模块,用于获取对目标发言人的脸部表情拍摄的目标视频;
切割模块,用于以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段;
生成模块,用于从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集;
识别模块,用于将提取的特征集输入预先训练好的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果;
展示模块,用于展示所述每个问题的撒谎评估结果。
本发明实施例的第三方面提供了一种计算机设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取对目标发言人的脸部表情拍摄的目标视频;
以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段;
从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集;
将提取的特征集输入预先训练好的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果;
展示所述每个问题的撒谎评估结果。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取对目标发言人的脸部表情拍摄的目标视频;
以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段;
从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集;
将提取的特征集输入预先训练好的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果;
展示所述每个问题的撒谎评估结果。
本发明实施例通过获取目标发言人的脸部表情拍摄的目标视频,以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段,从每个第一视频片段中分别提取由各个目标发言人脸部包含的动作特征,生成特征集,将提取的特征集输入预先训练得到的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果,展示所述每个问题的撒谎评估结果,以使得法官结合根据所述每个问题的欺诈评估结果判断每个目标发言人的撒谎概率来审判案件。可见,本方案通过识别每个目标发言人在回答每个问题时的撒谎概率,得到欺诈评估结果,辅助法官进行判决,减少主观因素影响,降低了案件的误判率,解决了现有技术中过于依靠法官的主观意识造成审判结果不准确的问题。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中基于人工智能的案件审判方法的一应用环境示意图;
图2是本发明实施例一提供的基于人工智能的案件审判方法的实现流程示意图;
图3是本发明实施例二提供的基于人工智能的案件审判装置的示意图;
图4是本发明实施例提供的基于人工智能的案件审判装置中生成模块的示意图;
图5是本发明实施例二提供的基于人工智能的案件审判装置中识别模块的示意图;
图6是本发明实施例三提供的计算机设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一
本申请提供的基于人工智能的案件审判方法,可应用在如图1的应用环境中,其中,计算机设备通过网络与服务器进行通信。其中,计算机设备/客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
图2示出了本发明实施例一提供的基于人工智能的案件审判方法的实现流程示意图。如图2所示,该基于人工智能的案件审判方法具体包括如下步骤101至步骤106。
101、获取目标发言人的脸部表情拍摄的目标视频;
本实施例中,应用的场景可以为法庭上,原告、原告的证人、被告、被告的证人、原告的律师和被告的律师就案件的细节问题进行辩论的场景。目标发言人至少包括原告、原告的证人、被告和被告的证人。在目标发言人进行发言时,不管他是坐着发言还是站着发言,其脸部是完全暴露在摄像头的拍摄范围内的,因此可以通过摄像头对所述目标发言人的脸部表情进行拍摄。获取目标发言人的脸部表情录制的目标视频可以有以下三种方式:
第一种方式:为每个目标发言人配置一个或一组摄像头。
例如,分别为原告、原告的证人、被告、被告的证人设置一个摄像头。
第二种方式:通过一组摄像头拍摄目标发言人的脸部表情录制的目标视频,再通过人脸识别确定每个目标发言人的目标视频。
第三种方式:通过一组摄像头拍摄目标发言人的脸部表情录制的目标视频,再通过特征词汇识别确定每个目标发言人的目标视频。
例如,证人在发言时会表明自己的身份,“我是被告的证人XXX”,因此可快速确定该目标发言人为被告的证人,提取被告的证人的脸部特征信息,将所述脸部特征信息与被告的证人这个身份信息进行关联存储。类似地,将其他目标发言人的脸部特征信息与对应的身份信息进行关联存储。
102、以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段。
在本实施例中,可以是先将一次开庭的视频从头到尾进行录制,在录制完成后才进行分析处理,也可以是每录制预定的时间段(分阶段录制)后进行分析处理,然后汇总各个阶段的分析处理结果,还可以是边录制边分析处理。
可以理解的是,由于目标发言人在发言时一般是被提问了才会回答问题,例如,法官对被告的证人提问,被告的证人接着回答;或者,原告的律师对被告进行提问,被告接着回答,因此,以单个问题为单位对所述目标视频进行切割,便于后续判断每个目标发言人的每个问题是否存在撒谎的嫌疑。单个问题是指一问一答或者一问多答。
需要说明的是,对所述目标视频进行切割之前,需要先获取目标视频的语音,再对语音进行文本识别,最后再对文本中的问题进行识别并进行切割。
103、从每个第一视频片段中分别提取由各个目标发言人脸部包含的动作形态特征,生成特征集。
动作形态特征包括脸部动作形态单元。可以理解的是,不论是脸部的完整表情,还是微表情,由不同的动作形态单元组合来表现。不同的脸部动作形态单元组合代表了不同的情绪,例如,惊讶、厌恶、轻蔑、愤怒和担忧等。其中,饱满的惊讶表情动作形态特征组合如下:
(1)额肌充分收缩,双眉大幅提升。
(2)上睑提肌收缩,在额肌收缩的共同作用下,使上眼睑大幅提升,眼睛睁大,露出虹膜上缘的眼白部分。
(3)嘴巴不自觉地张开,配合一次快速吸气;只有下唇在下巴(下颚)的带动下自然向下轻微张开,嘴唇表面皮肤不会变紧,不向两侧拉伸。
饱满的厌恶表情的动作形态特征组合如下:
(1)皱眉肌收缩,双眉皱紧。
(2)眼轮匝肌强烈收缩,紧闭双眼,同时造成双眉下压。
(3)提上唇肌和上唇鼻翼提肌收缩,提升上唇,同时在鼻翼两侧挤压形成鼻唇沟。
(4)颏肌收缩,将下唇向上强力推起,使双唇紧紧闭合;下巴同时向上皱起,表面皮肤产生很多褶皱;下唇与下巴上的肌肉隆起之间形成深沟。
(5)降口角肌收缩,将嘴角向下拉,与提上唇肌的作用形成制衡,在嘴角两侧形成括号形纹路。
需要说明的是,如果刺激源力度减弱为中等,则会让目标发言人产生轻蔑情绪。轻蔑总体上表达了行为人对刺激源自上而下的排斥感。虽然也是排斥,但心态轻松很多,不需要消耗很多精神来应对。
轻蔑表情动作形态特征组合如下:
(1)皱眉肌收缩,形成轻微皱眉纹。
(2)眼轮匝肌轻微收缩,造成眼睑紧张、轻微闭合,同时造成双眉轻微下压。
(3)提上唇肌主导收缩,上唇向上提升;鼻翼被间接向上提升并向两侧拉伸,在鼻翼两侧形成浅沟纹。
(4)下唇没有明显形态变化,双唇可能保持闭合,也可能轻微分开。
需要说明的是,不屑的表情形态(厌恶的微表情动作形态特征)如果刺激源力度很弱,会让人产生不屑情绪。不屑就是完全的轻视,除了看不起之外,根本就不用花力气来加以排斥。
饱满愤怒表情的动作形态特征如下:
(1)眼轮匝肌强烈收缩,导致双眉下压;皱眉肌强烈收缩,眉头紧皱。
(2)上睑提肌强烈收缩,将上眼睑提至最高,想要努力露出全部虹膜上缘(如图中虚线所示)。但是,上眼睑的提升和双眉下压形成互相挤压的愤怒形态,会在上眼睑皮肤上形成斜线的皮肤褶皱。
(3)下眼睑绷紧。上眼睑的形态和绷紧的下眼睑匹配,称为怒视。
(4)提上唇肌和上唇鼻翼提肌共同收缩,提升鼻翼的同时也使脸颊隆起,形成鼻翼两侧深沟纹。
(5)下颚向下张开,下唇在降下唇肌的作用下下拉,露出部分下齿,在颈阔肌的收缩作用下向两侧拉伸并变薄,紧紧贴在下颚骨上。
进一步地,憋气的愤怒表情动作形态特征组合如下:
(1)皱眉肌收缩,眼轮匝肌收缩,使双眉皱紧并下压。
(2)上睑提肌收缩。
(3)眼轮匝肌的收缩,还会使下眼睑绷紧并轻微向两侧拉扯。
(4)口轮匝肌收缩,使双唇紧紧闭在一起。
(5)降口角肌收缩,使双侧嘴角向下弯曲。
(6)颏肌收缩,在下巴上形成肌肉隆起,表面凹凸不平,同时向上推起下唇,保持双唇紧闭。
进一步地,最小的愤怒表情的动作形态特征组合为:
(1)上睑提肌收缩,上眼睑试图上提(通常会遇到双眉的皱紧、下压)。
(2)眼轮匝肌收缩,下眼睑绷紧,更贴紧颅骨。
饱满的恐惧表情的动作形态特征组合如下:
(1)皱眉肌收缩,双眉向中间皱紧,形成纵向皱眉纹。
(2)额肌中束收缩,向上提升两侧眉头,在额前形成倒U形皱纹。
(3)上睑提肌收缩,试图提升上眼睑,但因为眼轮匝肌和皱眉肌的反向运动受到抑制,在上眼睑的皮肤上形成对角线褶皱。如果不受到抑制的话,可以分析出虹膜上缘会全部露出(如图中虚线所示)。
(4)提上唇肌和上唇鼻翼提肌共同收缩,提升上唇,露出上齿。
(5)颈阔肌收缩,将嘴角向两侧拉开,使嘴的水平宽度比正常状态更大。
(6)降下唇肌收缩,将下唇向下拉低,露出部分下齿。
进一步地,害怕的动作形态特征组合如下:
(1)皱眉肌和额肌中束共同收缩,正常的拱形眉形(虚线)被破坏,眉头上扬,眉形整体在内侧1/3处扭曲向上(箭头)。
(2)上眼睑向上提升,露出更多的虹膜上缘。
(3)提上唇肌轻微收缩,上唇提起,略微露出上齿。
(4)颈阔肌轻微收缩,将嘴角向两侧拉开,使嘴的水平宽度较平时的松弛状态更大。
进一步地,不安的动作形态特征组合如下:
(1)眉毛整体趋平,依旧保持着扭曲的状态,眉头上扬,但程度略微减轻;皱眉肌引起轻微纵向皱纹。
(2)眼睛睁开的程度增加,但并不夸张,上眼睑提升没有恐惧和害怕的表情中那么明显,但虹膜上缘露出的面积要比正常的松弛面孔中大一些。
进一步地,担忧的动作形态特征组合如下:
(1)眉头上扬和扭曲的眉形,说明心有压力,但不是厌恶和愤怒。
(2)嘴唇紧闭,唇红部分隐藏,口轮匝肌收缩使嘴唇紧绷,嘴角处由于降口角肌的收缩,也产生隆起。
进一步地,轻微担忧的动作形态特征组合如下:此时眉毛没有大幅提升,仅能观察到眉头的上扬和眉毛的平直扭曲形态;眼睑整体自然,但上眼睑还是处于比正常状态略高的位置,露出的虹膜面积较大。这种眉眼形态组合就是恐惧的微表情动作形态特征。
痛哭的动作形态特征组合如下:
(1)眼轮匝肌和皱眉肌共同收缩,造成双眉下压,眉头间出现纵向皱纹。但是,额肌中部收缩,轻微向上提升眉头,整个眉形趋平,在内侧1/3处呈现扭曲向上眉形。
(2)眼轮匝肌收缩,造成眼睑的有力闭合,在眼内侧角挤压形成皱纹,在眼角外侧相互挤压形成鱼尾纹。
(3)提上唇肌收缩,在提升上唇的同时,与眼轮匝肌共同使脸颊位置提高,隆起的脸颊与下眼睑相互挤压,形成下眼睑下方的凹陷区域,并在鼻翼两侧形成鼻唇沟。
(4)颈阔肌收缩,将嘴角向两侧拉伸,使嘴的水平宽度比平常增加;拉伸的嘴角与脸颊之间挤压形成法令纹。
(5)降口角肌收缩,向下拉低嘴角;降下唇肌同时收缩,将下唇整体下拉,试图露出下齿。
(6)颏肌收缩,将下嘴唇中部向上推起,并在下巴上形成表面凹凸不平的肌肉隆起。下嘴唇中部的推起将原本可以露出的部分下齿遮住,两侧嘴角处还保留向下,因此能够露出嘴角位置的下齿。下嘴唇曲线呈W形。这样的口型,是痛哭表情所特有的。
进一步地,闭嘴哭泣的动作形态特征组合如下:
(1)眼轮匝肌和皱眉肌收缩程度减轻,但仍然造成双眉下压、皱起;额肌中部收缩,轻微向上提升眉头,扭曲向上,整个眉形趋平。
(2)眼睑紧张,呈闭合趋势。
(3)提上唇肌收缩,轻微提升上唇,在鼻翼两侧形成鼻唇沟(比痛哭时浅)。
(4)颈阔肌收缩,将嘴角向两侧拉伸。
(5)降口角肌收缩,向下拉低嘴角。
(6)颏肌收缩,将下嘴唇中部向上推起,并在下巴上形成表面凹凸不平的肌肉隆起;唇间线呈水平状,双唇抿紧。
进一步地,小悲伤的动作形态特征组合如下:仍然留在脸上的,是悲伤的眉:整体眉形皱起、下压,但眉头上提。这种眉形是悲伤表情的必要动作形态特征
开怀大笑表情的动作形态特征组合如下:
(1)眉毛保持松弛时的自然拱形,前额平滑。
(2)眼轮匝肌收缩,双眼紧闭,下眼睑凸起、提升,下方会出现笑容专有的沟纹;眼角内侧形成皱纹,眼角外侧产生鱼尾纹,渐隐。
(3)颧大肌收缩,提口角肌协同收缩,嘴角向上、向两侧提升;同时造成脸颊隆起,提升到最高位置,呈最圆状态。
(4)上唇提升后,露出大部分上齿;下颚打开,下唇在颧大肌和降下唇肌共同收缩的作用下拉长,表面变平滑,露出少量下齿(相对于上唇而言)。
(5)下巴展开,皮肤平滑,自嘴角到下巴颏,形成笑容特有的沟纹,与鼻唇沟一气贯通。
进一步地,饱满的微笑的动作形态特征组合如下:
(1)眼睛眯起,上眼睑基本不动,下眼睑轻微提升、凸起,在眼睛下方形成笑容沟纹。
(2)脸颊提升、饱满,表面皮肤光滑。
(3)嘴角仍然因向耳朵方向的大幅拉扯而咧开,上唇提升,上齿露出,下唇展开程度减弱,看不到下齿;下巴光滑、展开。
惊喜的表情的动作形态特征组合如下:
(1)双眉提升,属惊讶表情特征。
(2)上眼睑大幅提升,露出大部分虹膜上缘。这在惊讶和恐惧表情中都可能出现,但根据自然不扭曲的眉形判断,没有恐惧。
(3)上唇提升,露出上齿,下颚打开,下唇张开呈U形,嘴角向两侧、向上拉起,属惊讶、大笑特征。
(4)脸颊隆起,下眼睑下方有笑容特有的沟纹。
期待的笑的表情的动作形态特征组合如下:
(1)双眉提升,属惊讶表情特征。
(2)上眼睑大幅提升,露出大部分虹膜上缘,这是惊讶的微表情动作形态特征。
(3)上唇提升,露出上齿,下唇拉长,上下齿咬合,嘴角向两侧、向上拉起,为笑容特征。
(4)脸颊隆起,下眼睑下方有笑容特有的沟纹。
需要说明的是,期待的笑这个表情眉眼有惊讶表情特征,但因为没有嘴部的配合,表达出来的惊讶不是真正的吃惊,而是倾向于已经预知了即将发生的结果,是默契,同时确认笑容特征,综合而言是期待的笑。
冷笑或讥笑(不屑地笑)的动作形态特征组合如下:
(1)上唇单侧提升,露出上齿,鼻翼两侧形成鼻唇沟,是典型的厌恶表情特征。
(2)单侧嘴角上扬明显,单侧脸颊隆起,为笑容特征。
(3)眼睑闭合,但下眼睑没有凸起、变紧,下方也没有产生笑容沟纹,因此不是真笑。
需要说明的是,确认属于厌恶情绪,因为眼睛特征的缺失,笑容不真诚;露出的嘴角的笑意,是内心对于厌恶刺激源的优越感而产生的,不是愉快,是不屑一顾。
狞笑(愤怒的笑)表现的是经典的准备搏击的表情,其动作形态特征组合如下:
(1)略微低头,下巴回缩,为准备攻击时的头部姿态特征。
(2)双眉皱紧、下压,呈“10∶10状”,眉间有皱眉纹,为典型的愤怒表情特征。
(3)上眼睑努力上提,遇到双眉下压阻力,在上眼睑皮肤上形成褶皱,下眼睑绷紧,为愤怒表情的必要动作形态特征。
(4)上唇提起,露出上齿,嘴角向两侧拉伸、向上翘起,下唇放松,为笑容的局部特征。
(5)上齿有咬下唇的动作趋势,表抑制。
需要说明的是,愤怒特征明显,可以确定为主导情绪;出现了笑容的嘴部特征,但没有眼睛参加,不是真诚笑容,没有愉悦情绪;再加上牙齿咬嘴唇的抑制动作,可以判断当事人抑制愤怒(暂不攻击)的心态,但笑容表示当事人对情境有掌控感或者压力不大。在愤怒的主导情绪下发出笑容,可以称为狞笑,表达了进攻可能性和对战斗结果的内心得意。
恐惧的笑的动作形态特征组合如下:
(1)双眉形态变平,眉头和眉梢的连线角度改变,尽管没有明显的眉头上扬,但还是能看到眉头上扬造成的眉形改变,属恐惧或悲伤表情特征。
(2)上眼睑试图睁大,但遇到双眉下压的阻力,在皮肤上形成褶皱(堆积隆起),如果没有阻力,可判断出虹膜的暴露区域会增加,这是恐惧表情特征,排除悲伤。
(3)下眼睑凸起、绷紧、上提,下方出现笑容沟纹,加上嘴角、嘴唇形态以及脸颊的隆起,都是笑容的标准特征。
需要说明的是,恐惧的笑这个表情笑容特征充分,是真笑容,但眉毛和上眼睑的形态为恐惧表情的最小特征,可以判断有恐惧类情绪存在。在笑容中掺杂了害怕的情绪,常见于下级对上级、弱势对强势的对话情境。
悲喜交加的动作形态特征组合如下,混杂了愉悦和悲伤两种表情:
(1)眉头上扬,眉形趋平但在内侧1/3处出现扭曲,为悲伤或恐惧表情特征,但紧闭的双眼排除了恐惧的存在。
(2)下眼睑、嘴部和脸颊形态是笑容的标准特征。
狡猾的笑的动作形态特征组合如下:
(1)双眉下压,轻微皱起,眉间有轻微皱眉纹。
(2)眼轮匝肌收缩,眼睛眯起,上眼睑没有提升,排除愤怒和恐惧情绪;下眼睑凸起、弯曲、上提,下方因脸颊隆起挤压形成沟纹,为笑容特征。
(3)嘴角被颧大肌拉扯,向耳侧翘起,脸颊隆起,为笑容特征。
(4)下唇在颏肌的收缩下向上推起,与上唇抿紧,下巴上有隆起,表示认可。
需要说明的是,狡猾的笑的笑容特征明显,眉毛的降低会给笑容中添加一些坏坏的感觉。皱眉肌的收缩暗指用力思考,抑制的嘴唇又能凸显出笑容中的恶意。
得意的笑的动作形态特征组合如下:
(1)眉毛轻微提升,但上眼睑没有提升,因此否定惊讶表情特征,表示的是自信。
(2)视线偏转至右侧,不正视刺激源,属于视觉阻断行为,表示没有接收或者表达信息的意愿。
(3)下眼睑形态符合笑容特征。
(4)上唇有提升表现,鼻唇沟明显;嘴角向两侧拉扯,上下嘴唇变长;在下唇被颏肌顶起的状态下,唇间线呈水平直线,说明如果没有颏肌的作用,唇间线将向下弯曲。这些口型表现属笑容特征。
(5)颏肌隆起和降口角肌下拉的双重作用参与了嘴部形态的抑制,说明当事人不希望流露出明显的笑意。
需要说明的是,自信的笑容中出现了主动抑制行为(嘴部),同时出现视觉阻断以中止有效交流,属于偷偷的得意。
不悦的厌恶的动作形态特征组合如下:
(1)皱眉纹显示出有明显皱眉动作,同时双眉内侧1/3处有扭曲,眉头向上,结合眼睑形态判断不是恐惧,属于悲伤表情的必要动作形态特征。
(2)上眼睑在眼轮匝肌的作用下下压,几乎遮盖了虹膜的上半部分,停留在瞳孔上方。由于不是自然下垂,而是用力闭合至这个位置,所以不是失神,结合眉毛的下压判断为厌恶表情的典型动作形态特征。
(3)口轮匝肌有轻微收缩,嘴唇不是完全放松,而是向外撅起,程度很小,同时颏肌也有配合动作,表示自我抑制,拒绝表达自己的观点。
需要说明的是,眉毛的形态和眼睑的用力闭合表达了不悦(不悦属悲伤类情绪)的厌恶,以不高兴为主,用貌似无神的故意忽略眼神表达不关注的轻蔑,与眉毛的皱紧形成矛盾,嘴部的轻微抑制形态表现了内心承受压力的状态,用缄口的形式强化了厌恶情绪的表达。
需要说明的是,在目标发言人进行发言时,通过识别出微表情来确定是否撒谎。
从每个第一视频片段中分别提取由各个目标发言人脸部包含的动作特征,生成特征集,具体包括:
201、按照预设第一时间间隔从所述第一视频片段的开始播放时间点开始等间距地确定出各个抽帧时间点;
202、将所述第一视频片段中各个所述抽帧时间点对应的视频帧抽取出来,得到各个脸部图像。
203、判断所述各个脸部图像的组合是否包含目标发言人的特征集,若没有包含目标发言人的特征集,则按照预设第二时间间隔重复上述201和202的操作直至各个脸部图像的组合能完整包含目标发言人的特征集。
对于上述步骤201,服务器在从该第一视频片段中提取出脸部图像时,具体可以采用等间隔的方式抽取该第一视频片段中的视频帧。首先,服务器可以按照预设时间间隔从所述第一视频片段的开始播放时间点开始等间距地确定出各个抽帧时间点。该预设时间间隔可以根据实际情况需要进行设置,例如设置为100毫秒,也即每隔100毫秒抽取一个视频帧。举例说明,该第一视频片段总时长为2分钟,即120s,其开始播放时间点为0,则服务器在该第一视频片段上确定的各个抽帧时间点分别为100ms、200ms、300ms、400ms、……,依次类推,最后一个抽帧时间点为120s所在的位置。因此,可以得到该2分钟的第一视频片段中确定出的抽帧时间点共1200个。
对于上述步骤202,可以理解的是,在确定出各个抽帧时间点之后,相当于确定了本次应当从该第一视频片段中抽取哪些视频帧作为脸部图像。服务器可以将所述第一视频片段中各个所述抽帧时间点对应的视频帧抽取出来,得到各个脸部图像。继续上述举例,即,服务器从该第一视频片段上100ms、200ms、300ms、400ms、……、120s的时间点上的视频帧抽取出来,得到共1200个视频帧作为所述各个脸部图像,也即共1200个脸部图像。
对于上述步骤203,判断所述各个脸部图像的组合是否包含目标发言人的特征集,继续上述举例,即,判断所述1200个脸部图像能否完整体现目标发言人的特征集,若不足以体现,则每隔50毫秒抽取一个视频帧,可以得到该2分钟的第一视频片段中确定出的抽帧时间点共2400个,得到共2400个脸部图像,再次判断,若所述2400个脸部图像能够完整体现目标发言人的特征集,则对体现出来的微表情进行分析处理。
104、将提取的特征集输入预先训练得到的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果。
可选地,将提取的特征集输入预先训练得到的撒谎评估深度学习模型进行识别,具体包括:
301、将特征集构造为待识别特征向量。
302、根据所述待识别特征向量和预设微表情库中的每个预设表情的预设特征向量,确定所述脸部图像与每个所述预设表情属于同种表情类别的相似概率;
303、当所述脸部图像与预设微表情库中的第一预设表情属于同种表情类别的相似概率大于预设阈值时,确定所述脸部图像的表情类别为所述第一预设表情的表情类别。
对于301,所述待识别特征向量可以以矩阵的方式呈现、可以以行向量的方式呈现、也可以以列向量的方式呈现,本实施例不对待识别特征向量的表示形式加以限制。
对于302,示例性地,提取何种类型的待识别特征向量,可以基于预设微表情库中的预设特征向量的类型,当预设特征向量为形状特征向量时,则提取脸部图像中的形状特征向量;当预设特征向量为纹理特征向量时,则提取脸部图像中的纹理特征向量;当预设特征向量为形状特征向量和纹理特征向量时,则提取脸部图像中的形状特征向量和脸部图像中的纹理特征向量。
对于303,当提取到上述脸部图像的待识别特征向量后,确定脸部图像与每个预设表情属于同种表情类别的相似概率;当脸部图像与预设微表情库中的预设表情属于同种表情类别的相似概率大于预设阈值时,确定脸部图像的表情类别为预设表情的表情类别。
而在相关技术中,在进行微表情的表情类别识别时,是确定脸部图像与预设微表情库中的预设表情的距离值,当脸部图像与预设微表情库中的预设表情的距离值小于某个预设值时,则确定脸部图像的表情类别为预设表情的表情类别,而当脸部图像与预设微表情库中的预设表情的距离值大于某个预设值时,则确定脸部图像的表情类别不是预设表情的表情类别,基于上述通过距离来确定表情类别的方法(可以认为目标函数即为求脸部图像与预设表情的距离值的函数),由于不同的微表情之间,其形状特征和纹理特征相差很小,特征空间重合度较大,因此上述目标函数无法有效的对脸部图像进行识别。为了增加微表情之间的辨识度,本实施例中使用基于相似概率的目标函数,从而在对待识别微表情进行识别时,会对待识别微表情与预设微表情库中的预设表情属于同种表情类别的相似概率进行预测,如果待识别微表情与预设微表情库中的某一预设表情本来就属于同种表情类别,那么相似概率的值就大于预设阈值,如果待识别微表情与预设微表情库中的某一预设表情本来就不属于同种表情类别,那么相似概率的值就小于预设阈值。
进一步地,在进行微表情识别时,一般是利用分类器来进行识别的,由于分类器是基于概率来确定两个图像是否属于同一样本的,所以基于概率来确定两个图像是否属于同一样本的准确性比基于距离来确定两个图像是否属于同一样本的准确性更高。
进一步地,所述撒谎评估深度学习模型通过以下步骤预先训练得到:
401、对所述深度神经网络进行反向传播的迭代训练。
402、在每次迭代训练的前向传播过程中,确定批量训练图片实例中每个训练图片实例的损失值。
403、根据各训练图片实例的损失值,从所述批量训练图片实例中确定出所有难度实例。
404、对所述难度实例进行学习。
对于402,具体可以包括:
501、获取训练图片实例,对所获取的训练图片实例进行标记标签的操作,构建训练样本集。
其中,标记标签包括对训练图片实例进行标记好标签,对部分图片标记为第一类标签,对部分图片标记为第二类标签,对部分图片标记为第三类标签,直到所有的图片都被标记完成。例如,对图片标记为惊讶、厌恶、愤怒、担忧、不安和轻蔑等。
502、获取深度神经网络模型结构及其相应的训练参数,初始化深度神经网络模型。
503、将预定数量的训练样本组成一个批量训练图片实例输入深度神经网络进行计算,得到此批量训练图片实例中每个样本图片的分类标签。
504、将样本图片的分类标签与所述样本图片的标记标签进行对比,计算每个样本训练图片实例的损失值。
其中,计算损失值Loss的方法为:
Loss=-log[softmax(ak)],k为该样本图片的标记标签的类别
其中,a为类别概率,softmax(ak)为交叉损失函数。
对于402,具体可以包括:
601、针对任一训练图片实例,对比该训练图片实例的损失值和第一预设阈值的大小关系;若该损失值大于或等于所述第一预设阈值,则确定所述训练图片实例为难度实例;
602、遍历所述批量训练图片实例,查找出所有难度实例。
对于601和602,将训练图片实例中的每个训练样本的Loss与第一预设阈值θ1进行对比,若Loss超过阈值θ1,则认为此训练样本为难度实例,用于本次学习,反之则将其舍弃。例如,害怕、不安与担忧这三个微表情均属于难度实例。
在所述根据各训练图片实例的损失值,从批量训练图片实例中确定出所有难度实例之后,还包括:
404、确定所述批量训练图片实例的损失平均值;
405、对比所述损失平均值和预设阈值的大小关系。
对应地,对所述难度实例进行学习,包括:
701、若所述损失平均值超过第二预设阈值,则放弃学习非难度实例的特征,学习所述所有难度实例的特征;
进一步地,在学习时,将各难度实例的损失值反向传播;根据各损失值调整用于训练的网络参数。
702、若所述损失平均值未超过第二预设阈值,则放弃学习所述批量训练图片实例的特征。
其中,所述第二预设阈值小于所述第一预设阈值。
作为本发明的一个实施例,将一个批量训练图片实例样本图片的损失平均值Lavg与所述第二阈值进行对比,若损失平均值Lavg超过所述第二阈值,则认为此批量训练图片实例中绝大多数样本图片为难度实例,将损失值进行反向传播,微调网络参数,对模型进行训练;若损失平均值Lavg未超过所述第二阈值,则认为此批量训练图片实例样本图片几乎均为为非难度实例,所得Loss值不进行反向传播,舍弃该批量训练图片实例,阻止模型学习此批量训练图片实例中训练样本特征,进一步加速。
其中,损失平均值Lavg为批量训练图片实例样本图片中所有样本图片的loss值之和除以每个批量训练图片实例中样本数量N;即,
其中,a为类别概率,softmax(ai_k)为交叉损失函数。
105、展示所述每个问题的撒谎评估结果。
展示所述每个问题的撒谎评估结果,以使得法官结合根据所述每个问题的欺诈评估结果判断每个目标发言人的撒谎概率来审判案件。
在本实施例中,每个问题的欺诈评估结果可以以标注或标签的形式展现给法官,例如存在欺诈为1,没有欺诈为0。法官结合现场的情况以及对目标发言人的欺诈评估结果对所有目标发言人进行最终的审定。
本发明实施例通过获取目标发言人的脸部表情拍摄的目标视频,以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段,从每个第一视频片段中分别提取由各个目标发言人脸部包含的动作特征,生成特征集,将提取的特征集输入预先训练得到的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果,展示所述每个问题的撒谎评估结果,以使得法官结合根据所述每个问题的欺诈评估结果判断每个目标发言人的撒谎概率来审判案件。可见,本方案通过识别每个目标发言人在回答每个问题时的撒谎概率,得到欺诈评估结果,辅助法官进行判决,减少主观因素影响,降低了案件的误判率,解决了现有技术中过于依靠法官的主观意识造成审判结果不准确的问题。
基于人工智能的案件审判方法应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例二
请参考图3,其示出了本发明实施例二提供的基于人工智能的案件审判装置30的示意图。所述基于人工智能的案件审判装置30,包括:获取模块31,切割模块32,生成模块33,识别模块34和展示模块35。其中,各模块的具体功能如下:
获取模块31,用于获取对目标发言人的脸部表情拍摄的目标视频;
切割模块32,用于以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段;
生成模块33,用于从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集;
识别模块34,用于将提取的特征集输入预先训练好的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果;
展示模块35,用于展示所述每个问题的撒谎评估结果。
可选地,如图4所示,生成模块33包括:
第一确定单元331,用于按照预设第一时间间隔从所述第一视频片段的开始播放时间点开始等间距地确定出各个抽帧时间点;
抽取单元332,用于将所述第一视频片段中各个所述抽帧时间点对应的视频帧抽取出来,得到各个脸部图像;
判断单元333,用于判断所述各个脸部图像的组合是否包含目标发言人动作形态特征的特征集,若没有包含目标发言人动作形态特征的特征集,则按照预设第二时间间隔进行操作直至各个脸部图像的组合能完整包含目标发言人动作形态特征的特征集。
可选地,如图5所示,识别模块34包括:
构造单元341,用于将特征集构造为待识别特征向量;
计算单元342,用于根据所述待识别特征向量和预设微表情库中的每个预设表情的预设特征向量,计算所述脸部图像与每个所述预设表情属于同种表情类别的相似概率;
第二确定单元343,用于当所述脸部图像与预设微表情库中的第一预设表情属于同种表情类别的相似概率大于预设阈值时,确定所述脸部图像的表情类别为所述第一预设表情的表情类别。
可选地,基于人工智能的案件审判装置30还包括:
第一确定模块,用于在每次迭代训练的前向传播过程中,确定批量训练图片实例中每个训练图片实例的损失值;
第二确定模块,用于根据各训练图片实例的损失值,从所述批量训练图片实例中确定出所有难度实例;
学习模块,用于对所述难度实例进行学习。
可选地,第一确定模块包括:
标记单元,用于获取训练图片实例,对所获取的训练图片实例进行标记标签的操作,构建训练样本集;
初始化单元,用于获取深度神经网络模型结构及其相应的训练参数,初始化深度神经网络模型;
输入单元,用于将预定数量个训练样本组成一个批量训练图片实例输入深度神经网络进行计算,得到批量训练图片实例中每个样本图片的分类标签;
对比计算单元,用于将样本图片的分类标签与所述样本图片的标记标签进行对比,计算每个样本训练图片实例的损失值。
关于基于人工智能的案件审判装置的具体限定可以参见上文中对于基于人工智能的案件审判方法的限定,在此不再赘述。上述基于人工智能的案件审判装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
实施例三
在本实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储基于人工智能的案件审判方法中涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人工智能的案件审判方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于人工智能的案件审判方法的步骤,例如图2所示的步骤101至步骤105。或者,处理器执行计算机程序时实现上述实施例中基于人工智能的案件审判装置的各模块/单元的功能,例如图3所示模块31至模块35的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中基于人工智能的案件审判方法的步骤,例如图2所示的步骤101至步骤105。或者,计算机程序被处理器执行时实现上述实施例中基于人工智能的案件审判装置的各模块/单元的功能,例如图3所示模块31至模块35的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于人工智能的案件审判方法,其特征在于,包括:
获取对目标发言人的脸部表情拍摄的目标视频;
以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段;
从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集;
将提取的特征集输入预先训练好的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果;
展示所述每个问题的撒谎评估结果。
2.根据权利要求1所述的基于人工智能的案件审判方法,其特征在于,从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集,具体包括:
按照预设第一时间间隔从所述第一视频片段的开始播放时间点开始等间距地确定出各个抽帧时间点;
将所述第一视频片段中各个所述抽帧时间点对应的视频帧抽取出来,得到各个脸部图像;
判断所述各个脸部图像的组合是否包含目标发言人动作形态特征的特征集,若没有包含目标发言人动作形态特征的特征集,则按照预设第二时间间隔进行操作直至各个脸部图像的组合能完整包含目标发言人动作形态特征的特征集。
3.根据权利要求2所述的基于人工智能的案件审判方法,其特征在于,将提取的特征集输入预先训练得到的撒谎评估深度学习模型进行识别,包括:
将所述特征集构造为待识别特征向量;
根据所述待识别特征向量和预设微表情库中的每个预设表情的预设特征向量,计算所述脸部图像与每个所述预设表情属于同种表情类别的相似概率;
当所述脸部图像与预设微表情库中的第一预设表情属于同种表情类别的相似概率大于预设阈值时,确定所述脸部图像的表情类别为所述第一预设表情的表情类别。
4.根据权利要求1所述的基于人工智能的案件审判方法,其特征在于,所述撒谎评估深度学习模型为深度神经网络,所述撒谎评估深度学习模型通过以下方法预先训练得到:
对所述深度神经网络进行反向传播的迭代训练;
在每次迭代训练的前向传播过程中,确定批量训练图片实例中每个训练图片实例的损失值;
根据各训练图片实例的损失值,从所述批量训练图片实例中确定出所有难度实例;
对所述难度实例进行学习。
5.根据权利要求4所述的基于人工智能的案件审判方法,其特征在于,在每次迭代训练的前向传播过程中,确定批量训练图片实例中每个训练图片实例的损失值,包括:
获取训练图片实例,对所获取的训练图片实例标记标签,构建训练样本集;
获取深度神经网络模型结构及其相应的训练参数,初始化深度神经网络模型;
将预定数量个训练样本组成一个批量训练图片实例输入深度神经网络进行计算,得到批量训练图片实例中每个样本图片的分类标签;
将样本图片的分类标签与所述样本图片的标记标签进行对比,计算每个样本训练图片实例的损失值。
6.根据权利要求4所述的基于人工智能的案件审判方法,其特征在于,根据各训练图片实例的损失值,从所述批量训练图片实例中确定出所有难度实例,包括:
针对任一训练图片实例,对比所述训练图片实例的损失值和第一预设阈值的大小关系;
若该损失值大于或等于所述第一预设阈值,则确定所述训练图片实例为难度实例;
遍历所述批量训练图片实例,查找出所有难度实例。
7.根据权利要求6所述的基于人工智能的案件审判方法,其特征在于,对所述难度实例进行学习,包括:
若所述损失平均值超过第二预设阈值,则放弃学习非难度实例的特征,学习所述所有难度实例的特征;
若所述损失平均值未超过第二预设阈值,则放弃学习所述批量训练图片实例的特征。
8.一种基于人工智能的案件审判装置,其特征在于,包括:
获取模块,用于获取对目标发言人的脸部表情拍摄的目标视频;
切割模块,用于以单个问题为单位对所述目标视频进行切割,得到每个问题对应的第一视频片段;
生成模块,用于从每个第一视频片段中分别提取目标发言人脸部的动作形态特征,生成特征集;
识别模块,用于将提取的特征集输入预先训练好的撒谎评估深度学习模型进行识别,输出所述目标发言人回答每个问题的撒谎评估结果;
展示模块,用于展示所述每个问题的撒谎评估结果。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910048310.3A CN109858411A (zh) | 2019-01-18 | 2019-01-18 | 基于人工智能的案件审判方法、装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910048310.3A CN109858411A (zh) | 2019-01-18 | 2019-01-18 | 基于人工智能的案件审判方法、装置及计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109858411A true CN109858411A (zh) | 2019-06-07 |
Family
ID=66895167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910048310.3A Pending CN109858411A (zh) | 2019-01-18 | 2019-01-18 | 基于人工智能的案件审判方法、装置及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109858411A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951856A (zh) * | 2017-03-16 | 2017-07-14 | 腾讯科技(深圳)有限公司 | 表情包提取方法及装置 |
CN107704834A (zh) * | 2017-10-13 | 2018-02-16 | 上海壹账通金融科技有限公司 | 微表情面审辅助方法、装置及存储介质 |
CN108460464A (zh) * | 2017-02-22 | 2018-08-28 | 中兴通讯股份有限公司 | 深度学习训练方法及装置 |
CN108734570A (zh) * | 2018-05-22 | 2018-11-02 | 深圳壹账通智能科技有限公司 | 一种风险预测方法、存储介质和服务器 |
CN108765131A (zh) * | 2018-05-18 | 2018-11-06 | 深圳壹账通智能科技有限公司 | 基于微表情的信贷审核方法、装置、终端及可读存储介质 |
CN109165608A (zh) * | 2018-08-30 | 2019-01-08 | 深圳壹账通智能科技有限公司 | 多视角微表情识别方法、装置、存储介质和计算机设备 |
-
2019
- 2019-01-18 CN CN201910048310.3A patent/CN109858411A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460464A (zh) * | 2017-02-22 | 2018-08-28 | 中兴通讯股份有限公司 | 深度学习训练方法及装置 |
CN106951856A (zh) * | 2017-03-16 | 2017-07-14 | 腾讯科技(深圳)有限公司 | 表情包提取方法及装置 |
CN107704834A (zh) * | 2017-10-13 | 2018-02-16 | 上海壹账通金融科技有限公司 | 微表情面审辅助方法、装置及存储介质 |
CN108765131A (zh) * | 2018-05-18 | 2018-11-06 | 深圳壹账通智能科技有限公司 | 基于微表情的信贷审核方法、装置、终端及可读存储介质 |
CN108734570A (zh) * | 2018-05-22 | 2018-11-02 | 深圳壹账通智能科技有限公司 | 一种风险预测方法、存储介质和服务器 |
CN109165608A (zh) * | 2018-08-30 | 2019-01-08 | 深圳壹账通智能科技有限公司 | 多视角微表情识别方法、装置、存储介质和计算机设备 |
Non-Patent Citations (1)
Title |
---|
李文书等: "微表情识别方法综述", 人类工效学, vol. 24, no. 04, pages 75 - 80 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dubey et al. | Automatic emotion recognition using facial expression: a review | |
WO2020253349A1 (zh) | 基于图像识别的驾驶行为预警方法、装置和计算机设备 | |
CN104881660B (zh) | 基于gpu加速的人脸表情识别及互动方法 | |
Koelstra et al. | Non-rigid registration using free-form deformations for recognition of facial actions and their temporal dynamics | |
CN108197533A (zh) | 一种基于用户表情的人机交互方法、电子设备及存储介质 | |
Hassanat | Visual words for automatic lip-reading | |
Krumhuber et al. | The role of facial movements in emotion recognition | |
US20220230471A1 (en) | Artificial Intelligence-Assisted Evaluation Method for Aesthetic Medicine and Evaluation System Using Same | |
CN109858411A (zh) | 基于人工智能的案件审判方法、装置及计算机设备 | |
Lee | Detection and recognition of facial emotion using bezier curves | |
Taskirar et al. | Face recognition using dynamic features extracted from smile videos | |
Shan | An efficient approach to smile detection | |
Lee et al. | Recognition of facial emotion through face analysis based on quadratic bezier curves | |
Wei et al. | Three-dimensional joint geometric-physiologic feature for lip-reading | |
Sheikh | Robust recognition of facial expressions on noise degraded facial images | |
Li et al. | Automatic facial expression recognition using 3D faces | |
Singh et al. | Emotion Recognition System through Facial Expressions Using Machine Learning | |
Frank et al. | Automatic pixel selection for optimizing facial expression recognition using eigenfaces | |
Hiremani et al. | Significance of conventional and nonconventional features in classification of face through human intelligence | |
Ghijsen | Facial expression analysis for human computer interaction | |
Ratliff | Active appearance models for affect recognition using facial expressions | |
Bernhardt et al. | Detecting emotions from everyday body movements | |
Majumder et al. | Facial expression recognition with regional features using local binary patterns | |
KR102399121B1 (ko) | 인공지능(ai) 기반 영상 및 음성정보를 활용한 자살고위험군 조기선별시스템 및 방법 | |
Banerjee et al. | Automatic Facial Expression Recognition Using Geometrical Features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |