CN109543658A - 智能审讯辅助方法及装置 - Google Patents
智能审讯辅助方法及装置 Download PDFInfo
- Publication number
- CN109543658A CN109543658A CN201811589242.3A CN201811589242A CN109543658A CN 109543658 A CN109543658 A CN 109543658A CN 201811589242 A CN201811589242 A CN 201811589242A CN 109543658 A CN109543658 A CN 109543658A
- Authority
- CN
- China
- Prior art keywords
- hearing
- people
- face
- applicable elements
- interrogation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
本发明提供了一种智能审讯辅助方法及装置,其中,首先获取被审讯人在供述前的面部活动特征数据;之后,基于获取的面部活动特征数据,确定审讯适用条件;最后基于确定的审讯适用条件,从审讯知识图谱中获取与审讯适用条件匹配的审讯方法。其中,审讯知识图谱包括多个审讯方法,以及与每个审讯方法匹配的审讯适用条件。上述技术方案中的审讯知识图谱是以心理学理论为支撑构造的,再通过对面部活动特征数据的处理,实现了有效结合不同个体的认知特征,以心理学理论为支撑,自动为审讯员推荐合理的审讯方法,实现了对审讯过程的智能辅助。
Description
技术领域
本发明涉及法律和计算领域,具体涉及一种智能审讯辅助方法及装置。
背景技术
在审讯罪犯的过程中,要想罪犯将所有的犯罪事实全部供述出来,需要将罪犯的心理防线打开,要想将罪犯的心理防线打开,就需要针对不同的罪犯采取不同的审讯方法。
每个个体在面对相似的环境刺激信息时,因其自身的认知信息加工信息过程不同,从而产生不同的行为反应过程。上述不同认知的形成是由于每个个体在感知觉的刺激阈限、注意资源、工作记忆、刺激信息表征方式、语义记忆体系、问题解决策略等方面存在差异,造成了对认知信息的加工过程不同。再进一步,上述在认知信息加工过程中的各种差异,主要是由于不同个体的脑结构存在差异以及不同个体在启动认知任务时的脑网络层级水平的活动存在差异造成的。故具备不同的脑结构、活动差异的个体,一方面在认知信息加工过程中表现出差异,另一方面在伴随性的生理表征上也存在差异。
当前在审讯过程中,无法有效结合不同个体的认知特征,以心理学理论为支撑,为审讯员自动推荐合理的审讯方法,不能实现审讯的智能辅助,容易在实际应用中会给审讯员造成理解、概念转换的困难。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种智能审讯辅助方法及装置,解决了现有技术中无法有效结合不同个体的认知特征,以心理学理论为支撑,为审讯员自动推荐合理的审讯方法的缺陷。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
第一方面,本申请实施例提供了一种智能审讯辅助方法,包括:
获取被审讯人在供述前的面部活动特征数据;
基于获取的面部活动特征数据,确定审讯适用条件;
基于确定的审讯适用条件,从审讯知识图谱中获取与所述审讯适用条件匹配的审讯方法;其中,所述审讯知识图谱包括多个审讯方法,以及与每个审讯方法匹配的审讯适用条件。
在一种可能的实施方式中,所述审讯方法包括以下至少一项:证据出示方法、关系建立方法、权威建立方法;
其中,所述证据出示方法包括以下至少一项:逐步出示证据方法、真假证据混合出示方法;
所述关系建立方法包括以下至少一项:给与口头关怀的方法、询问家庭情况的方法;
所述权威建立方法包括以下至少一项:表明等级身份的权威建立方法、表明专业性的权威建立方法。
在一种可能的实施方式中,所述审讯适用条件包括以下至少一项:
被审讯人的基础信息、被审讯人的情绪状态、被审讯人的供述前陈述、被审讯人的供述方式、被审讯人的供述内容。
在一种可能的实施方式中,上述智能审讯辅助方法还包括生成所述审讯知识图谱的步骤:
获取历史审讯过程中的多个审讯方法;
获取每个审讯方法产生效果的审讯使用条件;
建立每个审讯方法与对应的审讯适用条件的对应关系。
在一种可能的实施方式中,所述基于获取的面部活动特征数据,确定审讯适用条件,包括:
利用卷积神经网络模型,基于获取的面部活动特征数据,确定被审讯人的认知特征类型;
基于确定的被审讯人的认知特征类型,确定所述审讯适用条件。
在一种可能的实施方式中,所述智能审讯辅助方法还包括建立所述认知特征类型与所述审讯适用条件的对应关系的步骤:
获取历史审讯过程中的多个历史被审讯人的面部活动特征数据,以及每个历史被审讯人的审讯适用条件;
针对每个历史被审讯人,利用卷积神经网络模型,基于获取的该历史被审讯人的面部活动特征数据,确定该历史被审讯人的认知特征类型;
建立每个认知特征类型与对应的审讯适用条件的对应关系。
在一种可能的实施方式中,所述智能审讯辅助方法还包括建立所述卷积神经网络模型的步骤:
获取历史审讯过程中的多个历史被审讯人的面部活动特征数据,以及每个历史被审讯人的认知特征类型;
利用卷积神经网络模型,建立每个面部活动特征数据与对应的认知特征类型的对应关系。
在一种可能的实施方式中,所述获取被审讯人在供述前的面部活动特征数据,包括:
获取被审讯人在供述前的多张面部图像;所述多张面部图像为至少一个预定区域内的面部图像;
针对每张面部图像,基于该面部图像与该面部图像对应的比较图像的灰度值的变化,确定该面部图像对应的温度变化值、心率变化值以及呼吸变化值;
基于每张面部图像的温度变化值、心率变化值以及呼吸变化值,确定被审讯人在供述前的面部活动特征数据。
在一种可能的实施方式中,所述该面部图像对应的比较图像为在拍摄所述该面部图像的前一秒或后一秒拍摄的面部图像。
第二方面,本申请实施例提供了一种智能审讯辅助装置,包括:
数据获取模块,用于获取被审讯人在供述前的面部活动特征数据;
数据处理模块,用于基于获取的面部活动特征数据,确定审讯适用条件;
审讯推荐模块,用于基于确定的审讯适用条件,从审讯知识图谱中获取与所述审讯适用条件匹配的审讯方法;其中,所述审讯知识图谱包括多个审讯方法,以及与每个审讯方法匹配的审讯适用条件。
(三)有益效果
本发明实施例提供了一种智能审讯辅助方法及装置。具备以下有益效果:
本发明实施例首先获取被审讯人在供述前的面部活动特征数据;之后,基于获取的面部活动特征数据,确定审讯适用条件;最后基于确定的审讯适用条件,从审讯知识图谱中获取与审讯适用条件匹配的审讯方法。其中,审讯知识图谱包括多个审讯方法,以及与每个审讯方法匹配的审讯适用条件。上述技术方案中的审讯知识图谱是以心理学理论为支撑构造的,再通过对面部活动特征数据的处理,实现了有效结合不同个体的认知特征,以心理学理论为支撑,自动为审讯员推荐合理的审讯方法,实现了对审讯过程的智能辅助。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性的示出了本发明一实施例的智能审讯辅助方法的流程图;
图2示意性的示出了本发明另一实施例的智能审讯辅助方法中生成审讯知识图谱的流程图;
图3示意性的示出了本发明另一实施例的智能审讯辅助方法中基于获取的面部活动特征数据,确定审讯适用条件的流程图;
图4示意性的示出了本发明一实施例的智能审讯辅助装置的框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例提供了一种智能审讯辅助方法,该方法能够有效地结合不同个体的认知特征,以心理学理论为支撑,自动为审讯员推荐合理的审讯方法,实现了对审讯过程的智能辅助。具体的,上述智能审讯辅助方法包括如下步骤:
S110、获取被审讯人在供述前的面部活动特征数据。
在具体实施时,此步骤可以利用如下子步骤实现:
S1101、获取被审讯人在供述前的多张面部图像;所述多张面部图像为至少一个预定区域内的面部图像。
S1102、针对每张面部图像,基于该面部图像与该面部图像对应的比较图像的灰度值的变化,确定该面部图像对应的温度变化值、心率变化值以及呼吸变化值。
这里,该面部图像对应的比较图像为在拍摄该面部图像的前一秒或后一秒拍摄的面部图像。
S1103、基于每张面部图像的温度变化值、心率变化值以及呼吸变化值,确定被审讯人在供述前的面部活动特征数据。
S120、基于获取的面部活动特征数据,确定审讯适用条件。
S130、基于确定的审讯适用条件,从审讯知识图谱中获取与所述审讯适用条件匹配的审讯方法;其中,所述审讯知识图谱包括多个审讯方法,以及与每个审讯方法匹配的审讯适用条件。
上述实施例中,所述面部活动特征数据为被审讯人面部的至少一个预定区域内的面部活动特征数据。这里的预定区域为预先设定的兴趣区域,这些预定的兴趣区域是人的面部中最能体现人的情绪的部位。预定的兴趣区域的数量可以根据实际的需求灵活设定,例如设置9个预定的兴趣区域。
每个预定区域可以设置多个活动点位(Landmarks),每一个活动点位由一组坐标值描述:
Dn(Xn,Yn)
D表示某一活动点位,n为点位的序号,Xn为第n个活动点位的横坐标值,Yn为第n个活动点位的纵坐标值。
在具体实施时,每个预定区域可以设置18到20个点位。
这里,面部活动特征数据包括以下至少一项:被审讯人在供述前的面部温度变化;被审讯人在供述前的心率变化;被审讯人在供述前的呼吸变化。
本步骤在得到被审讯人的面部图像后,基于面部图像与该面部图像对应的比较图像的灰度值的变化,确定该面部图像对应的温度变化值、心率变化值以及呼吸变化值;之后针对每种预制视频,基于该预制视频对应的每张面部图像的温度变化值、心率变化值以及呼吸变化值,确定被审讯人在供述前的面部活动特征数据。
上述该面部图像对应的比较图像为在拍摄所述该面部图像的前一秒或后一秒拍摄的面部图像。当然,比较图像还可以是在拍摄面部图像之前或之后的N秒拍摄的图像。
面部得温度的变化值、心率的变化值以及呼吸的变化值表现在面部的视频图像的颜色变化上,上面比较图像与面部图像即位于视频图像的相邻位置上。
在具体实施例时,通过图像增强技术可以将面部图像的温度变化值、心率的变化值或呼吸的变化值描述为:
ΔC=(C(n+1)-Cn)
上述,C表示面部图像的色彩,C(n+1)表示第(n+1)秒的面部图像的色彩值,Cn表示第n秒的面部图像的色彩值。
上述面部图像可以是32*32的灰度图。
上述,审讯方法包括以下至少一项:证据出示方法、关系建立方法、权威建立方法;
其中,所述证据出示方法包括以下至少一项:逐步出示证据方法、真假证据混合出示方法;
所述关系建立方法包括以下至少一项:给与口头关怀的方法、询问家庭情况的方法;
所述权威建立方法包括以下至少一项:表明等级身份的权威建立方法、表明专业性的权威建立方法。
上述审讯适用条件包括以下至少一项:
被审讯人的基础信息、被审讯人的情绪状态、被审讯人的供述前陈述、被审讯人的供述方式、被审讯人的供述内容。
在一些实施例中,如图2所示,上述智能审讯辅助方法还包括生成所述审讯知识图谱的步骤:
S210、获取历史审讯过程中的多个审讯方法。
S220、获取每个审讯方法产生效果的审讯使用条件。
S230、建立每个审讯方法与对应的审讯适用条件的对应关系。
上述知识图谱是基于审讯专家经验构建的。在具体实施时,对多名审讯专家进行访谈,收集审讯过程中所采用的审讯方法、策略以及产生效果的适用条件,并生成知识图谱,其中具体适用条件审讯专家需要详细描述,如下:
(1)被审讯人的基本信息;
(2)被审讯人的情绪状态;
(3)被审讯人的供述前陈述、供述方式、供述内容。
上述知识图谱,主要分为以下几个组成部分:
(1)证据信息的有策略适用组块,该模块主要提供证据出示方法,包括但不限于:逐步地出示证据、真假信息混合地出示证据等。
(2)建立良好关系组块,该模块主要提供关系建立方法,包括但不限于:给予口头关怀、安慰、询问家庭情况等。
(3)建立权威组块,该模块主要提供权威建立方法,包括但不限于:表明高等级身份、表明专业性等。
其他组块由后续新获取的审讯专家经验再度汇集补充,形成一个可持续补充、录入、生成概念树的数据库。
在一些实施例中,如图3所示,上述智能审讯辅助方法中的基于获取的面部活动特征数据,确定审讯适用条件,具体包括如下步骤:
S310、利用卷积神经网络模型,基于获取的面部活动特征数据,确定被审讯人的认知特征类型。
在执行此步骤之前,还需要执行如下建立卷积神经网络模型的步骤:
S3101、获取历史审讯过程中的多个历史被审讯人的面部活动特征数据,以及每个历史被审讯人的认知特征类型。
S3102、利用卷积神经网络模型,建立每个面部活动特征数据与对应的认知特征类型的对应关系。
上述卷积神经网络模型,针对输入大小为32*32的灰度图,包括3个卷积&MaxPooling、1个全链接层以及一个p=0.5的Softmax层。根据各层神经元个数不同,又分为:
CNN-64:[32,32,64,64]
CNN-96:[48,48,96,200]
CNN-128:[64,64,128,300]
除了Softmax层外,其余各层激活函数均为:
ReLU(x)=max(0,x)
权值W初始化采用Krizhevsky的零均值、常数标准差(Standard Deviation,STD)方案,各层STD为:
[0.0001,0.001,0.001,0.01,0.1]
上述卷积神经网络模型的构建过程中,从互联网上抽取深思、犹豫、下决心、漠然4类各900张面部图片,经过ROI处理得到4500张图片作为训练数据。测试数据由互联网下载的上述4类各300张图片构成。经过训练、测试,得到的卷积神经网络模型的在确定认知特征类型时的准确率超过98%。
S320、基于确定的被审讯人的认知特征类型,确定所述审讯适用条件。
在具体实施时,执行此步骤之前还需要执行如下建立所述认知特征类型与所述审讯适用条件的对应关系的步骤:
S3201、获取历史审讯过程中的多个历史被审讯人的面部活动特征数据,以及每个历史被审讯人的审讯适用条件。
S3202、针对每个历史被审讯人,利用卷积神经网络模型,基于获取的该历史被审讯人的面部活动特征数据,确定该历史被审讯人的认知特征类型。
S3203、建立每个认知特征类型与对应的审讯适用条件的对应关系。
在具体实施时,调取多名审讯专家的审讯录像,将视频切分,采集被审讯人在审讯专家采用某种特定审讯方法后,至供述前的面部活动变化,并将其输入到上述卷积神经网络模型中进行分类,得出其认知特征的具体分类结果。将得到的认知特征分类结果,与知识图谱中的审讯方法一一匹配,形成对应关系。
上述实施例主要由两个部分构成,第一部分是面部活动特征提取、认知特征类型计算部分,由一个摄像机用于捕获面部活动特征,一个带有中央处理器的计算机用于按照训练好的模型计算分析对应的认知特征类型;第二部分是一个带有储存介质的电子计算机,用于存放、调用根据审讯专家经验、知识设计的知识图谱。
上述实施例,实现了面部活动特征数据抽取与卷积神经网络计算,分析被审讯人员的认知特征类型。上述实施例,建立了一个开放式、可不断持续完善的、基于审讯专家经验汇集形成的智能审讯辅助方法。根据被审讯人员在审讯中的具体认知特征类型,自动推荐已经被经验证实有效的审讯方法与审讯策略。
上述实施例,增强了审讯辅助方法的智能性,主要体现在被审讯人认知特征类型获取、分析以及审讯方法与策略的自动推荐。弥补了以往依靠皮肤电、脑电等生理信号分析被审讯人状态缺乏心理学理论支撑的逻辑缺环。将审讯专家的工作经验录入并设计成为数据库,使得专家经验变为可借用、可推广的产品。
上述实施例通过对被审讯人的生理特征进行多通道信号采集、分析,反向推断被审讯人在特定条件下的认知特征类型,并结合由审讯专家知识汇集而成的知识图谱自动推荐审讯方法。
如图4所示,本申请实施例提供了一种智能审讯辅助装置,包括:
数据获取模块410,用于获取被审讯人在供述前的面部活动特征数据;
数据处理模块420,用于基于获取的面部活动特征数据,确定审讯适用条件;
审讯推荐模块430,用于基于确定的审讯适用条件,从审讯知识图谱中获取与所述审讯适用条件匹配的审讯方法;其中,所述审讯知识图谱包括多个审讯方法,以及与每个审讯方法匹配的审讯适用条件。
本发明实施例的方法中的每个步骤是与本发明实施例的装置在智能审讯辅助过程中的步骤一一对应的,本发明实施例的装置在智能审讯辅助过程中每个步骤均包含在本发明实施例的方法中,因此,对于重复的部分,这里不再进行赘述。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种智能审讯辅助方法,其特征在于,包括:
获取被审讯人在供述前的面部活动特征数据;
基于获取的面部活动特征数据,确定审讯适用条件;
基于确定的审讯适用条件,从审讯知识图谱中获取与所述审讯适用条件匹配的审讯方法;其中,所述审讯知识图谱包括多个审讯方法,以及与每个审讯方法匹配的审讯适用条件。
2.根据权利要求1所述的方法,其特征在于,所述审讯方法包括以下至少一项:证据出示方法、关系建立方法、权威建立方法;
其中,所述证据出示方法包括以下至少一项:逐步出示证据方法、真假证据混合出示方法;
所述关系建立方法包括以下至少一项:给与口头关怀的方法、询问家庭情况的方法;
所述权威建立方法包括以下至少一项:表明等级身份的权威建立方法、表明专业性的权威建立方法。
3.根据权利要求1所述的方法,其特征在于,所述审讯适用条件包括以下至少一项:
被审讯人的基础信息、被审讯人的情绪状态、被审讯人的供述前陈述、被审讯人的供述方式、被审讯人的供述内容。
4.根据权利要求1所述的方法,其特征在于,还包括生成所述审讯知识图谱的步骤:
获取历史审讯过程中的多个审讯方法;
获取每个审讯方法产生效果的审讯使用条件;
建立每个审讯方法与对应的审讯适用条件的对应关系。
5.根据权利要求1所述的方法,其特征在于,所述基于获取的面部活动特征数据,确定审讯适用条件,包括:
利用卷积神经网络模型,基于获取的面部活动特征数据,确定被审讯人的认知特征类型;
基于确定的被审讯人的认知特征类型,确定所述审讯适用条件。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括建立所述认知特征类型与所述审讯适用条件的对应关系的步骤:
获取历史审讯过程中的多个历史被审讯人的面部活动特征数据,以及每个历史被审讯人的审讯适用条件;
针对每个历史被审讯人,利用卷积神经网络模型,基于获取的该历史被审讯人的面部活动特征数据,确定该历史被审讯人的认知特征类型;
建立每个认知特征类型与对应的审讯适用条件的对应关系。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括建立所述卷积神经网络模型的步骤:
获取历史审讯过程中的多个历史被审讯人的面部活动特征数据,以及每个历史被审讯人的认知特征类型;
利用卷积神经网络模型,建立每个面部活动特征数据与对应的认知特征类型的对应关系。
8.根据权利要求1所述的方法,其特征在于,所述获取被审讯人在供述前的面部活动特征数据,包括:
获取被审讯人在供述前的多张面部图像;所述多张面部图像为至少一个预定区域内的面部图像;
针对每张面部图像,基于该面部图像与该面部图像对应的比较图像的灰度值的变化,确定该面部图像对应的温度变化值、心率变化值以及呼吸变化值;
基于每张面部图像的温度变化值、心率变化值以及呼吸变化值,确定被审讯人在供述前的面部活动特征数据。
9.根据权利要求1所述的方法,其特征在于,所述该面部图像对应的比较图像为在拍摄所述该面部图像的前一秒或后一秒拍摄的面部图像。
10.一种智能审讯辅助装置,其特征在于,包括:
数据获取模块,用于获取被审讯人在供述前的面部活动特征数据;
数据处理模块,用于基于获取的面部活动特征数据,确定审讯适用条件;
审讯推荐模块,用于基于确定的审讯适用条件,从审讯知识图谱中获取与所述审讯适用条件匹配的审讯方法;其中,所述审讯知识图谱包括多个审讯方法,以及与每个审讯方法匹配的审讯适用条件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811589242.3A CN109543658A (zh) | 2018-12-25 | 2018-12-25 | 智能审讯辅助方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811589242.3A CN109543658A (zh) | 2018-12-25 | 2018-12-25 | 智能审讯辅助方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109543658A true CN109543658A (zh) | 2019-03-29 |
Family
ID=65858058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811589242.3A Pending CN109543658A (zh) | 2018-12-25 | 2018-12-25 | 智能审讯辅助方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109543658A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633654A (zh) * | 2019-08-29 | 2019-12-31 | 武汉赛可锐信息技术有限公司 | 基于身体数据的远程审讯方法、装置、终端设备及介质 |
CN111723577A (zh) * | 2020-05-14 | 2020-09-29 | 张宗奇 | 基于预设审讯模式进行审讯的方法、装置和设备 |
CN112668384A (zh) * | 2020-08-07 | 2021-04-16 | 深圳市唯特视科技有限公司 | 一种知识图谱构建方法、系统、电子设备及存储介质 |
CN113099131A (zh) * | 2021-03-31 | 2021-07-09 | 重庆风云际会智慧科技有限公司 | 一种便携式讯问一体机 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010036353A9 (en) * | 2008-09-25 | 2010-07-01 | Suregene Llc | Genetic markers for optimizing treatment for schizophrenia |
CN102945624A (zh) * | 2012-11-14 | 2013-02-27 | 南京航空航天大学 | 基于云计算模型和表情信息反馈的智能化视频教学系统 |
CN103251418A (zh) * | 2013-06-05 | 2013-08-21 | 清华大学 | 一种图像认知心理分析系统 |
CN105160318A (zh) * | 2015-08-31 | 2015-12-16 | 北京旷视科技有限公司 | 基于面部表情的测谎方法及系统 |
CN105608440A (zh) * | 2016-01-03 | 2016-05-25 | 复旦大学 | 基于最小化误差的面部微表情序列特征抽取方法 |
CN206283606U (zh) * | 2016-11-24 | 2017-06-27 | 武汉赛可锐信息技术有限公司 | 一种数字化高清远程审讯系统 |
CN206285117U (zh) * | 2016-08-31 | 2017-06-30 | 北京新科永创科技有限公司 | 智能审讯终端 |
CN107704834A (zh) * | 2017-10-13 | 2018-02-16 | 上海壹账通金融科技有限公司 | 微表情面审辅助方法、装置及存储介质 |
CN108154096A (zh) * | 2017-12-19 | 2018-06-12 | 科大讯飞股份有限公司 | 一种审讯资料的审查方法及装置 |
CN108898058A (zh) * | 2018-05-29 | 2018-11-27 | 深圳市敢为特种设备物联网技术有限公司 | 心理活动的识别方法、智能领带及存储介质 |
CN208236026U (zh) * | 2018-05-23 | 2018-12-14 | 昆明开尔科技有限公司 | 一种未成年人智能谈话室 |
CN109069072A (zh) * | 2016-02-08 | 2018-12-21 | 纽洛斯公司 | 欺骗检测系统和方法 |
-
2018
- 2018-12-25 CN CN201811589242.3A patent/CN109543658A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010036353A9 (en) * | 2008-09-25 | 2010-07-01 | Suregene Llc | Genetic markers for optimizing treatment for schizophrenia |
CN102945624A (zh) * | 2012-11-14 | 2013-02-27 | 南京航空航天大学 | 基于云计算模型和表情信息反馈的智能化视频教学系统 |
CN103251418A (zh) * | 2013-06-05 | 2013-08-21 | 清华大学 | 一种图像认知心理分析系统 |
CN105160318A (zh) * | 2015-08-31 | 2015-12-16 | 北京旷视科技有限公司 | 基于面部表情的测谎方法及系统 |
CN105608440A (zh) * | 2016-01-03 | 2016-05-25 | 复旦大学 | 基于最小化误差的面部微表情序列特征抽取方法 |
CN109069072A (zh) * | 2016-02-08 | 2018-12-21 | 纽洛斯公司 | 欺骗检测系统和方法 |
CN206285117U (zh) * | 2016-08-31 | 2017-06-30 | 北京新科永创科技有限公司 | 智能审讯终端 |
CN206283606U (zh) * | 2016-11-24 | 2017-06-27 | 武汉赛可锐信息技术有限公司 | 一种数字化高清远程审讯系统 |
CN107704834A (zh) * | 2017-10-13 | 2018-02-16 | 上海壹账通金融科技有限公司 | 微表情面审辅助方法、装置及存储介质 |
CN108154096A (zh) * | 2017-12-19 | 2018-06-12 | 科大讯飞股份有限公司 | 一种审讯资料的审查方法及装置 |
CN208236026U (zh) * | 2018-05-23 | 2018-12-14 | 昆明开尔科技有限公司 | 一种未成年人智能谈话室 |
CN108898058A (zh) * | 2018-05-29 | 2018-11-27 | 深圳市敢为特种设备物联网技术有限公司 | 心理活动的识别方法、智能领带及存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633654A (zh) * | 2019-08-29 | 2019-12-31 | 武汉赛可锐信息技术有限公司 | 基于身体数据的远程审讯方法、装置、终端设备及介质 |
CN111723577A (zh) * | 2020-05-14 | 2020-09-29 | 张宗奇 | 基于预设审讯模式进行审讯的方法、装置和设备 |
CN112668384A (zh) * | 2020-08-07 | 2021-04-16 | 深圳市唯特视科技有限公司 | 一种知识图谱构建方法、系统、电子设备及存储介质 |
CN112668384B (zh) * | 2020-08-07 | 2024-05-31 | 深圳市唯特视科技有限公司 | 一种知识图谱构建方法、系统、电子设备及存储介质 |
CN113099131A (zh) * | 2021-03-31 | 2021-07-09 | 重庆风云际会智慧科技有限公司 | 一种便携式讯问一体机 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ravaja | Contributions of psychophysiology to media research: Review and recommendations | |
CN109543658A (zh) | 智能审讯辅助方法及装置 | |
CN108888277A (zh) | 心理测试方法、系统及终端设备 | |
Bolls et al. | Media psychophysiology and neuroscience: Bringing brain science into media processes and effects research | |
Simon et al. | Recognizing humanity: dehumanization predicts neural mirroring and empathic accuracy in face-to-face interactions | |
Shifferman | More Than Meets the fMRI: The Unethical Apotheosis of Neuroimages. | |
De Moya et al. | Quantified self: a literature review based on the funnel paradigm | |
Zhu et al. | ArvaNet: Deep recurrent architecture for PPG-based negative mental-state monitoring | |
JP2005124909A (ja) | 感情情報提示方法、感情情報表示装置及び情報コンテンツの検索方法 | |
Wang | Unsupervised learning: foundations of neural computation | |
Rincon et al. | Detecting emotions through non-invasive wearables | |
Nicolae et al. | Preparatory experiments regarding human brain perception and reasoning of image complexity for synthetic color fractal and natural texture images via EEG | |
Asif et al. | Emotion recognition using temporally localized emotional events in EEG with naturalistic context: DENS# dataset | |
CN113096773B (zh) | 一种采集和处理认知信息的系统和方法 | |
CN113076347B (zh) | 移动终端上基于情绪的推送程序筛选系统及筛选方法 | |
Taherisadr et al. | Erudite: Human-in-the-loop iot for an adaptive personalized learning system | |
CN108209946A (zh) | 一种情绪控制装置与方法 | |
Pal et al. | Study of neuromarketing with eeg signals and machine learning techniques | |
Liu et al. | Emotion Recognition Through Observer's Physiological Signals | |
Arora et al. | Deep‐SQA: A deep learning model using motor activity data for objective sleep quality assessment assisting digital wellness in healthcare 5.0 | |
Macdonald et al. | Mobile sensing in aging research. | |
Ugon et al. | Automatic sleep stages classification combining semantic representation and dynamic expert system | |
Csepeli et al. | Facebook-Diagnostics: Detection of Mental Health Problems Based on Online Traces | |
Rincón et al. | Adding real data to detect emotions by means of smart resource artifacts in MAS | |
KR102453089B1 (ko) | 습관형성을 위한 습관 노트 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190329 |
|
RJ01 | Rejection of invention patent application after publication |