CN110348301A - 基于视频的查票实现方法、装置、计算机设备及存储介质 - Google Patents
基于视频的查票实现方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110348301A CN110348301A CN201910482500.6A CN201910482500A CN110348301A CN 110348301 A CN110348301 A CN 110348301A CN 201910482500 A CN201910482500 A CN 201910482500A CN 110348301 A CN110348301 A CN 110348301A
- Authority
- CN
- China
- Prior art keywords
- seat
- video
- sequence
- facial image
- passenger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000003860 storage Methods 0.000 title claims abstract description 22
- 230000001815 facial effect Effects 0.000 claims abstract description 95
- 238000009826 distribution Methods 0.000 claims abstract description 64
- 238000013507 mapping Methods 0.000 claims abstract description 42
- 230000002159 abnormal effect Effects 0.000 claims abstract description 18
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 9
- 238000005194 fractionation Methods 0.000 claims description 9
- 239000000203 mixture Substances 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 239000004744 fabric Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000151 deposition Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于视频的查票实现方法、装置、计算机设备及存储介质。该方法包括:将当前时刻的车厢监控视频进行视频拆分得到视频图像序列;获取视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与每一座位的映射关系;通过人脸识别获取视频图像序列中所包括人脸图像一一对应的用户身份信息;根据每一用户身份信息与座位分布信息中每一座位的映射关系,以得到当前乘客分布信息;获取初始乘客分布信息,将当前乘客分布信息与初始乘客分布信息进行比对,获取两者之间的差异值,以得到异常乘客分布信息。该方法采用图像检测技术,实现对乘客座位的精准定位,通过比对可获知未购票而乘坐座位的异常乘客,提高了查票效率。
Description
技术领域
本发明涉及图像检测技术领域,尤其涉及一种基于视频的查票实现方法、装置、计算机设备及存储介质。
背景技术
目前,火车上检查乘客是否有票,都是通过人工查票的方式进行的。人工查票耗时耗力,并且效率低下。并且在查票的过程中,逃票的人会故意躲避人工查票,这就导致查票的准确率降低。
发明内容
本发明实施例提供了一种基于视频的查票实现方法、装置、计算机设备及存储介质,旨在解决现有技术中检查乘客是否有票,都是通过人工查票的方式进行的,导致人工查票耗时耗力,并且效率低下的问题。
第一方面,本发明实施例提供了一种基于视频的查票实现方法,其包括:
获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列;
获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系;
通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息;
根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息;以及
获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息;其中,若所述当前乘客分布信息中座位对应的用户身份信息与所述初始乘客分布信息中座位对应的用户身份信息不一致,获取对应的座位及座位对应的用户身份信息组成差异值。
第二方面,本发明实施例提供了一种基于视频的查票实现装置,其包括:
视频拆分单元,用于获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列;
座位定位单元,用于获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系;
身份识别单元,用于通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息;
乘客分布获取单元,用于根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息;以及
异常分布获取单元,用于获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息;其中,若所述当前乘客分布信息中座位对应的用户身份信息与所述初始乘客分布信息中座位对应的用户身份信息不一致,获取对应的座位及座位对应的用户身份信息组成差异值。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于视频的查票实现方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于视频的查票实现方法。
本发明实施例提供了一种基于视频的查票实现方法、装置、计算机设备及存储介质。该方法包括获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列;获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系;通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息;根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息;以及获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息。该方法采用图像检测技术,实现了对乘客座位的精准定位,通过得到的当前乘客分布信息与所述初始乘客分布信息进行比对,即可获知未购票而乘坐座位的异常乘客,提高了查票效率。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于视频的查票实现方法的应用场景示意图;
图2为本发明实施例提供的基于视频的查票实现方法的流程示意图;
图3为本发明实施例提供的基于视频的查票实现方法的子流程示意图;
图4为本发明实施例提供的基于视频的查票实现方法的另一子流程示意图;
图5为本发明实施例提供的基于视频的查票实现方法的另一子流程示意图;
图6为本发明实施例提供的基于视频的查票实现装置的示意性框图;
图7为本发明实施例提供的基于视频的查票实现装置的子单元示意性框图;
图8为本发明实施例提供的基于视频的查票实现装置的另一子单元示意性框图;
图9为本发明实施例提供的基于视频的查票实现装置的另一子单元示意性框图;
图10为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的基于视频的查票实现方法的应用场景示意图,图2为本发明实施例提供的基于视频的查票实现方法的流程示意图,该基于视频的查票实现方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S150。
S110、获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列。
在本实施例中,为了实现了火车(如动车、高铁等)上乘客的查票,可以在火车上每节车厢内设置多个摄像头,每一摄像头对准指定座位区域以进行视频查票。例如,高铁上某一节车厢内由100个座位,每排5个座位一共20排。次节车厢内设置有5个摄像头,分别记为1号-5号摄像头,其中1号摄像头对准1-20号座位的区域,2号摄像头对准21-40号座位的区域,3号摄像头对准41-60号座位的区域,4号摄像头对准61-80号座位的区域,5号摄像头对准81-100号座位的区域。通过将1-5号摄像头在某一时刻的监控视频组合,得到当前时刻的车厢监控视频并上传至服务器(火车票售票系统可以视为服务器)。
为了在当前时刻的车厢监控视频中获取当前乘客分布信息,此时需要将先将所述车厢监控视频进行视频拆分得到视频图像序列。一般车厢监控视频中每一秒的视频由24-30张图片组成,当获取了某一车厢的10秒长度的车厢监控视频,可以将所述车厢监控视频拆分得到由240-300帧图像组成的视频图像序列。
在一实施例中,步骤S110包括:
将所述车厢监控视频按时间先后顺序将所述车厢监控视频进行拆分分解,得到对应的多帧车厢监控图片以组成视频图像序列。
在本实施例中,是通过将所述车厢监控视频按时间先后顺序将所述车厢监控视频进行拆分分解,有顺序的将对应的多帧车厢监控图片以组成视频图像序列。通过上述方式能确保视频拆分的合理性。
S120、获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系。
在一实施例中,如图3所示,步骤S120包括:
S121、通过人脸识别获取所述视频图像序列中每一帧视频图像包括的人脸图像;
S122、根据每一帧视频图像中各人脸图像的像素点分布区域,获取每一人脸图像的定位信息;
S123、根据每一帧视频图像中各座位的像素点分布区域、及每一人脸图像的定位信息,获取每一人脸图像在车厢对应的座位编号,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系。
在本实施例中,当获取了240-300帧视频图像组成的视频图像序列后,视频图像序列可以作为人脸识别并判断当前乘客分布信息的图片素材。
由于摄像头在采集指定区域的视频时,若乘客是按照每一座位的区域规范就坐时,每一人脸图像都是在每一座位的分布区域内,例如1号摄像头对准1-20号座位的区域,且1号摄像头采集的视频图像序列经人脸识别后,得到20个用户身份识别信息(分别记为A1-A20号用户),其中A1号用户身份识别信息对应的人脸图像是出现在1号摄像头拍摄图像中1号座位的区域,A2号用户身份识别信息对应的人脸图像是出现在1号摄像头拍摄图像中2号座位的区域,……,A20号用户身份识别信息对应的人脸图像是出现在1号摄像头拍摄图像中20号座位的区域。通过得到人脸图像每一座位的映射关系,即可进一步判断每一座位上的乘客身份信息。
S130、通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息。
在本实施例中,对所述视频图像序列进行人脸识别,得到所述视频图像序列中存在的用户身份识别信息。
在一实施例中,如图4所示,步骤S130包括:
S131、将所述视频图像序列中每一帧视频图像依次进行灰度校正及噪声过滤,得到预处理后图片序列;
S132、通过卷积神经网络模型获取与预处理后图片序列对应的图片特征向量集合;其中,预处理后图片序列中各预处理后图片均对应图片特征向量集合中唯一一个图片特征向量;
S133、将所述图片特征向量中每一图片特征向量与人脸数据库中已存储的特征模板进行比对,若人脸数据库中已存储的特征模板中存在与预处理后图片对应的图片特征向量相同的特征模板,获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息。
在本实施例中,获取的原始人脸图像由于受到各种条件的限制和随机干扰,往往不能直接使用,必须在图像处理的早期阶段对它进行灰度校正、噪声过滤等图像预处理。对于人脸图像而言,其预处理过程主要包括人脸图像的光线补偿、灰度变换、直方图均衡化、归一化、几何校正、滤波以及锐化等。所述视频图像序列中每一帧视频图像经过上述预处理后,得到预处理后图片序列。
之后在获取视频图像的图片特征向量时,先获取与每一帧预处理后图片对应的像素矩阵,然后将每一帧预处理后图片对应的像素矩阵作为卷积神经网络模型中输入层的输入,得到多个特征图,之后将特征图输入池化层,得到每一特征图对应的最大值所对应一维向量,最后将每一特征图对应的最大值所对应一维向量输入至全连接层,得到与每一帧预处理后图片对应的图片特征向量。
由于人脸数据库中已存储的特征模板中存储了已采集的海量的人脸图片对应的特征向量,也即每一个人的人脸均对应唯一的特征向量,有了这些海量的特征模板为数据基础后,可以用来确定预处理后图片对应的一个或多个人,从而实现人脸识别。其中,用户身份信息可以是用户的身份证号,由于每一公民的身份证号是唯一的,可以作为其唯一识别码。
S140、根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息。
在一实施例中,如图5所示,步骤S140包括:
S141、根据每一人脸图像与车厢座位分布信息中每一座位的映射关系,得到每一用户身份信息与所述座位分布信息中每一座位的映射关系;
S142、将每一座位对应的用户身份信息写入预先构建的数据表,得到当前乘客分布信息。
在本实施例中,由于已获知了视频图像序列中每一人脸图像对应的用户身份信息和座位编号,此时可以根据这两类信息编制车厢座位分布信息,同时得到与车厢座位分布信息对应的乘客分布信息,如下表1:
序号 | 乘客姓名 | 座位编号 | 身份证号 |
1 | 张三 | 1号车厢01号座位 | X1 |
2 | 张四 | 1号车厢02号座位 | X2 |
3 | |||
…… | |||
N | 张百 | 5号车厢100号座位 | XN |
表1
当获取了由车厢监控视频得到实际的当前乘客分布信息时,可以与该火车的车票预售系统中的初始乘客分布信息对应的数据表进行比对,判断是否有未购票乘客,或是坐错座位的乘客,从而实现同时监控视频的自动查票。
S150、获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息;其中,若所述当前乘客分布信息中座位对应的用户身份信息与所述初始乘客分布信息中座位对应的用户身份信息不一致,获取对应的座位及座位对应的用户身份信息组成差异值。
即在每节车厢安装监控,通过视频监控自动进行人员位置分析,每节车厢的每个座位是否有人坐,然后和系统售票的座位进行对比,把未售的位置筛选出来,如果此位置被人占坐,并且通过人脸识别此乘客有无购票,若无购票信息,则通知乘务人员进行其进行检票和补票。具体实施时,也可通过车厢人员数量进行筛选,把车厢人员数量明显高于售票数量的车厢作为重点检查车厢。
该方法实现了对乘客座位的精准定位,通过得到的当前乘客分布信息与所述初始乘客分布信息进行比对,即可获知未购票而乘坐座位的异常乘客,提高了查票效率。
本发明实施例还提供一种基于视频的查票实现装置,该基于视频的查票实现装置用于执行前述基于视频的查票实现方法的任一实施例。具体地,请参阅图6,图6是本发明实施例提供的基于视频的查票实现装置的示意性框图。该基于视频的查票实现装置100可以配置于服务器中。
如图6所示,基于视频的查票实现装置100包括视频拆分单元110、座位定位单元120、身份识别单元130、乘客分布获取单元140、异常分布获取单元150。
视频拆分单元110,用于获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列。
在本实施例中,为了实现了火车(如动车、高铁等)上乘客的查票,可以在火车上每节车厢内设置多个摄像头,每一摄像头对准指定座位区域以进行视频查票。例如,高铁上某一节车厢内由100个座位,每排5个座位一共20排。次节车厢内设置有5个摄像头,分别记为1号-5号摄像头,其中1号摄像头对准1-20号座位的区域,2号摄像头对准21-40号座位的区域,3号摄像头对准41-60号座位的区域,4号摄像头对准61-80号座位的区域,5号摄像头对准81-100号座位的区域。通过将1-5号摄像头在某一时刻的监控视频组合,得到当前时刻的车厢监控视频。
为了在当前时刻的车厢监控视频中获取当前乘客分布信息,此时需要将先将所述车厢监控视频进行视频拆分得到视频图像序列。一般车厢监控视频中每一秒的视频由24-30张图片组成,当获取了某一车厢的10秒长度的车厢监控视频,可以将所述车厢监控视频拆分得到由240-300帧图像组成的视频图像序列。
在一实施例中,视频拆分单元110具体用于:
将所述车厢监控视频按时间先后顺序将所述车厢监控视频进行拆分分解,得到对应的多帧车厢监控图片以组成视频图像序列。
在本实施例中,是通过将所述车厢监控视频按时间先后顺序将所述车厢监控视频进行拆分分解,有顺序的将对应的多帧车厢监控图片以组成视频图像序列。通过上述方式能确保视频拆分的合理性。
座位定位单元120,用于获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系。
在一实施例中,如图7所示,座位定位单元120包括:
人脸识别单元121,用于通过人脸识别获取所述视频图像序列中每一帧视频图像包括的人脸图像;
人脸分布单元122,用于根据每一帧视频图像中各人脸图像的像素点分布区域,获取每一人脸图像的定位信息;
座位编号获取单元123,用于根据每一帧视频图像中各座位的像素点分布区域、及每一人脸图像的定位信息,获取每一人脸图像在车厢对应的座位编号,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系。
在本实施例中,当获取了240-300帧视频图像组成的视频图像序列后,视频图像序列可以作为人脸识别并判断当前乘客分布信息的图片素材。
由于摄像头在采集指定区域的视频时,若乘客是按照每一座位的区域规范就坐时,每一人脸图像都是在每一座位的分布区域内,例如1号摄像头对准1-20号座位的区域,且1号摄像头采集的视频图像序列经人脸识别后,得到20个用户身份识别信息(分别记为A1-A20号用户),其中A1号用户身份识别信息对应的人脸图像是出现在1号摄像头拍摄图像中1号座位的区域,A2号用户身份识别信息对应的人脸图像是出现在1号摄像头拍摄图像中2号座位的区域,……,A20号用户身份识别信息对应的人脸图像是出现在1号摄像头拍摄图像中20号座位的区域。通过得到人脸图像每一座位的映射关系,即可进一步判断每一座位上的乘客身份信息。
身份识别单元130,用于通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息。
在本实施例中,对所述视频图像序列进行人脸识别,得到所述视频图像序列中存在的用户身份识别信息。
在一实施例中,如图8所示,身份识别单元130包括:
预处理单元131,用于将所述视频图像序列中每一帧视频图像依次进行灰度校正及噪声过滤,得到预处理后图片序列;
特征向量获取单元132,用于通过卷积神经网络模型获取与预处理后图片序列对应的图片特征向量集合;其中,预处理后图片序列中各预处理后图片均对应图片特征向量集合中唯一一个图片特征向量;
特征向量比对单元133,用于将所述图片特征向量中每一图片特征向量与人脸数据库中已存储的特征模板进行比对,若人脸数据库中已存储的特征模板中存在与预处理后图片对应的图片特征向量相同的特征模板,获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息。
在本实施例中,获取的原始人脸图像由于受到各种条件的限制和随机干扰,往往不能直接使用,必须在图像处理的早期阶段对它进行灰度校正、噪声过滤等图像预处理。对于人脸图像而言,其预处理过程主要包括人脸图像的光线补偿、灰度变换、直方图均衡化、归一化、几何校正、滤波以及锐化等。所述视频图像序列中每一帧视频图像经过上述预处理后,得到预处理后图片序列。
之后在获取视频图像的图片特征向量时,先获取与每一帧预处理后图片对应的像素矩阵,然后将每一帧预处理后图片对应的像素矩阵作为卷积神经网络模型中输入层的输入,得到多个特征图,之后将特征图输入池化层,得到每一特征图对应的最大值所对应一维向量,最后将每一特征图对应的最大值所对应一维向量输入至全连接层,得到与每一帧预处理后图片对应的图片特征向量。
由于人脸数据库中已存储的特征模板中存储了已采集的海量的人脸图片对应的特征向量,也即每一个人的人脸均对应唯一的特征向量,有了这些海量的特征模板为数据基础后,可以用来确定预处理后图片对应的一个或多个人,从而实现人脸识别。其中,用户身份信息可以是用户的身份证号,由于每一公民的身份证号是唯一的,可以作为其唯一识别码。
乘客分布获取单元140,用于根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息。
在一实施例中,如图9所示,乘客分布获取单元140包括:
映射关系获取单元141,用于根据每一人脸图像与车厢座位分布信息中每一座位的映射关系,得到每一用户身份信息与所述座位分布信息中每一座位的映射关系;
数据表写入单元142,用于将每一座位对应的用户身份信息写入预先构建的数据表,得到当前乘客分布信息。
在一实施例中,由于已获知了视频图像序列中每一人脸图像对应的用户身份信息和座位编号,此时可以根据这两类信息编制车厢座位分布信息,同时得到与车厢座位分布信息对应的乘客分布信息,如表1。当获取了由车厢监控视频得到实际的当前乘客分布信息时,可以与该火车的车票预售系统中的初始乘客分布信息对应的数据表进行比对,判断是否有未购票乘客,或是坐错座位的乘客,从而实现同时监控视频的自动查票。
异常分布获取单元150,用于获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息;其中,若所述当前乘客分布信息中座位对应的用户身份信息与所述初始乘客分布信息中座位对应的用户身份信息不一致,获取对应的座位及座位对应的用户身份信息组成差异值。
即在每节车厢安装监控,通过视频监控自动进行人员位置分析,每节车厢的每个座位是否有人坐,然后和系统售票的座位进行对比,把未售的位置筛选出来,如果此位置被人占坐,并且通过人脸识别此乘客有无购票,若无购票信息,则通知乘务人员进行其进行检票和补票。具体实施时,也可通过车厢人员数量进行筛选,把车厢人员数量明显高于售票数量的车厢作为重点检查车厢。
该装置实现了对乘客座位的精准定位,通过得到的当前乘客分布信息与所述初始乘客分布信息进行比对,即可获知未购票而乘坐座位的异常乘客,提高了查票效率。
上述基于视频的查票实现装置可以实现为计算机程序的形式,该计算机程序可以在如图10所示的计算机设备上运行。
请参阅图10,图10是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图10,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于视频的查票实现方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于视频的查票实现方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图10中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下功能:获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列;获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系;通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息;根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息;以及获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息;其中,若所述当前乘客分布信息中座位对应的用户身份信息与所述初始乘客分布信息中座位对应的用户身份信息不一致,获取对应的座位及座位对应的用户身份信息组成差异值。
在一实施例中,处理器502在执行所述将所述车厢监控视频进行视频拆分得到视频图像序列的步骤时,执行如下操作:将所述车厢监控视频按时间先后顺序将所述车厢监控视频进行拆分分解,得到对应的多帧车厢监控图片以组成视频图像序列。
在一实施例中,处理器502在执行所述获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系的步骤时,执行如下操作:通过人脸识别获取所述视频图像序列中每一帧视频图像包括的人脸图像;根据每一帧视频图像中各人脸图像的像素点分布区域,获取每一人脸图像的定位信息;根据每一帧视频图像中各座位的像素点分布区域、及每一人脸图像的定位信息,获取每一人脸图像在车厢对应的座位编号,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系。
在一实施例中,处理器502在执行所述通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息的步骤时,执行如下操作:将所述视频图像序列中每一帧视频图像依次进行灰度校正及噪声过滤,得到预处理后图片序列;通过卷积神经网络模型获取与预处理后图片序列对应的图片特征向量集合;其中,预处理后图片序列中各预处理后图片均对应图片特征向量集合中唯一一个图片特征向量;将所述图片特征向量中每一图片特征向量与人脸数据库中已存储的特征模板进行比对,若人脸数据库中已存储的特征模板中存在与预处理后图片对应的图片特征向量相同的特征模板,获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息。
在一实施例中,处理器502在执行所述根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息的步骤是,执行如下操作:根据每一人脸图像与车厢座位分布信息中每一座位的映射关系,得到每一用户身份信息与所述座位分布信息中每一座位的映射关系;将每一座位对应的用户身份信息写入预先构建的数据表,得到当前乘客分布信息。
本领域技术人员可以理解,图10中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图10所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现以下步骤:获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列;获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系;通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息;根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息;以及获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息;其中,若所述当前乘客分布信息中座位对应的用户身份信息与所述初始乘客分布信息中座位对应的用户身份信息不一致,获取对应的座位及座位对应的用户身份信息组成差异值。
在一实施例中,所述将所述车厢监控视频进行视频拆分得到视频图像序列,包括:将所述车厢监控视频按时间先后顺序将所述车厢监控视频进行拆分分解,得到对应的多帧车厢监控图片以组成视频图像序列。
在一实施例中,所述获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系,包括:通过人脸识别获取所述视频图像序列中每一帧视频图像包括的人脸图像;根据每一帧视频图像中各人脸图像的像素点分布区域,获取每一人脸图像的定位信息;根据每一帧视频图像中各座位的像素点分布区域、及每一人脸图像的定位信息,获取每一人脸图像在车厢对应的座位编号,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系。
在一实施例中,所述通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息,包括:将所述视频图像序列中每一帧视频图像依次进行灰度校正及噪声过滤,得到预处理后图片序列;通过卷积神经网络模型获取与预处理后图片序列对应的图片特征向量集合;其中,预处理后图片序列中各预处理后图片均对应图片特征向量集合中唯一一个图片特征向量;将所述图片特征向量中每一图片特征向量与人脸数据库中已存储的特征模板进行比对,若人脸数据库中已存储的特征模板中存在与预处理后图片对应的图片特征向量相同的特征模板,获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息。
在一实施例中,所述根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息,包括:根据每一人脸图像与车厢座位分布信息中每一座位的映射关系,得到每一用户身份信息与所述座位分布信息中每一座位的映射关系;将每一座位对应的用户身份信息写入预先构建的数据表,得到当前乘客分布信息。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于视频的查票实现方法,其特征在于,包括:
获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列;
获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系;
通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息;
根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息;以及
获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息;其中,若所述当前乘客分布信息中座位对应的用户身份信息与所述初始乘客分布信息中座位对应的用户身份信息不一致,获取对应的座位及座位对应的用户身份信息组成差异值。
2.根据权利要求1所述的基于视频的查票实现方法,其特征在于,所述将所述车厢监控视频进行视频拆分得到视频图像序列,包括:
将所述车厢监控视频按时间先后顺序将所述车厢监控视频进行拆分分解,得到对应的多帧车厢监控图片以组成视频图像序列。
3.根据权利要求1所述的基于视频的查票实现方法,其特征在于,所述获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系,包括:
通过人脸识别获取所述视频图像序列中每一帧视频图像包括的人脸图像;
根据每一帧视频图像中各人脸图像的像素点分布区域,获取每一人脸图像的定位信息;
根据每一帧视频图像中各座位的像素点分布区域、及每一人脸图像的定位信息,获取每一人脸图像在车厢对应的座位编号,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系。
4.根据权利要求1所述的基于视频的查票实现方法,其特征在于,所述通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息,包括:
将所述视频图像序列中每一帧视频图像依次进行灰度校正及噪声过滤,得到预处理后图片序列;
通过卷积神经网络模型获取与预处理后图片序列对应的图片特征向量集合;其中,预处理后图片序列中各预处理后图片均对应图片特征向量集合中唯一一个图片特征向量;
将所述图片特征向量中每一图片特征向量与人脸数据库中已存储的特征模板进行比对,若人脸数据库中已存储的特征模板中存在与预处理后图片对应的图片特征向量相同的特征模板,获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息。
5.根据权利要求1所述的基于视频的查票实现方法,其特征在于,所述根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息,包括:
根据每一人脸图像与车厢座位分布信息中每一座位的映射关系,得到每一用户身份信息与所述座位分布信息中每一座位的映射关系;
将每一座位对应的用户身份信息写入预先构建的数据表,得到当前乘客分布信息。
6.一种基于视频的查票实现装置,其特征在于,包括:
视频拆分单元,用于获取当前时刻的车厢监控视频,将所述车厢监控视频进行视频拆分得到视频图像序列;
座位定位单元,用于获取所述视频图像序列中包括的人脸图像对应的定位信息,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系;
身份识别单元,用于通过人脸识别获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息;
乘客分布获取单元,用于根据每一用户身份信息与所述座位分布信息中每一座位的映射关系,以得到当前乘客分布信息;以及
异常分布获取单元,用于获取初始乘客分布信息,将所述当前乘客分布信息与所述初始乘客分布信息进行比对,获取所述当前乘客分布信息与所述初始乘客分布信息之间的差异值,以得到异常乘客分布信息;其中,若所述当前乘客分布信息中座位对应的用户身份信息与所述初始乘客分布信息中座位对应的用户身份信息不一致,获取对应的座位及座位对应的用户身份信息组成差异值。
7.根据权利要求6所述的基于视频的查票实现装置,其特征在于,所述座位定位单元,包括:
人脸识别单元,用于通过人脸识别获取所述视频图像序列中每一帧视频图像包括的人脸图像;
人脸分布单元,用于根据每一帧视频图像中各人脸图像的像素点分布区域,获取每一人脸图像的定位信息;
座位编号获取单元,用于根据每一帧视频图像中各座位的像素点分布区域、及每一人脸图像的定位信息,获取每一人脸图像在车厢对应的座位编号,以得到每一人脸图像与车厢座位分布信息中每一座位的映射关系。
8.根据权利要求6所述的基于视频的查票实现装置,其特征在于,所述身份识别单元,包括:
预处理单元,用于将所述视频图像序列中每一帧视频图像依次进行灰度校正及噪声过滤,得到预处理后图片序列;
特征向量获取单元,用于通过卷积神经网络模型获取与预处理后图片序列对应的图片特征向量集合;其中,预处理后图片序列中各预处理后图片均对应图片特征向量集合中唯一一个图片特征向量;
特征向量比对单元,用于将所述图片特征向量中每一图片特征向量与人脸数据库中已存储的特征模板进行比对,若人脸数据库中已存储的特征模板中存在与预处理后图片对应的图片特征向量相同的特征模板,获取所述视频图像序列中所包括人脸图像一一对应的用户身份信息。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述的基于视频的查票实现方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至5任一项所述的基于视频的查票实现方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910482500.6A CN110348301B (zh) | 2019-06-04 | 基于视频的查票实现方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910482500.6A CN110348301B (zh) | 2019-06-04 | 基于视频的查票实现方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110348301A true CN110348301A (zh) | 2019-10-18 |
CN110348301B CN110348301B (zh) | 2024-07-05 |
Family
ID=
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126158A (zh) * | 2019-11-27 | 2020-05-08 | 中铁程科技有限责任公司 | 基于人脸识别的自动检票方法、装置及系统 |
CN111680638A (zh) * | 2020-06-11 | 2020-09-18 | 深圳北斗应用技术研究院有限公司 | 一种乘客路径识别方法和基于该方法的客流清分方法 |
CN112597886A (zh) * | 2020-12-22 | 2021-04-02 | 成都商汤科技有限公司 | 乘车逃票检测方法及装置、电子设备和存储介质 |
CN113034772A (zh) * | 2021-03-19 | 2021-06-25 | 广州民航信息技术有限公司 | 机场登机的复核确认方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709470A (zh) * | 2017-01-04 | 2017-05-24 | 西南交通大学 | 基于人脸识别的列车在途检票方法 |
US20170182957A1 (en) * | 2015-04-22 | 2017-06-29 | Panasonic Avionics Corporation | Passenger seat pairing system |
KR101869864B1 (ko) * | 2017-04-18 | 2018-06-21 | 주식회사 지오소프트 | 영상 기반 열차 부정 탑승 승객 감시 시스템 및 방법 |
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170182957A1 (en) * | 2015-04-22 | 2017-06-29 | Panasonic Avionics Corporation | Passenger seat pairing system |
CN106709470A (zh) * | 2017-01-04 | 2017-05-24 | 西南交通大学 | 基于人脸识别的列车在途检票方法 |
KR101869864B1 (ko) * | 2017-04-18 | 2018-06-21 | 주식회사 지오소프트 | 영상 기반 열차 부정 탑승 승객 감시 시스템 및 방법 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126158A (zh) * | 2019-11-27 | 2020-05-08 | 中铁程科技有限责任公司 | 基于人脸识别的自动检票方法、装置及系统 |
CN111680638A (zh) * | 2020-06-11 | 2020-09-18 | 深圳北斗应用技术研究院有限公司 | 一种乘客路径识别方法和基于该方法的客流清分方法 |
CN111680638B (zh) * | 2020-06-11 | 2020-12-29 | 深圳北斗应用技术研究院有限公司 | 一种乘客路径识别方法和基于该方法的客流清分方法 |
CN112597886A (zh) * | 2020-12-22 | 2021-04-02 | 成都商汤科技有限公司 | 乘车逃票检测方法及装置、电子设备和存储介质 |
CN113034772A (zh) * | 2021-03-19 | 2021-06-25 | 广州民航信息技术有限公司 | 机场登机的复核确认方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019134141B4 (de) | Sicherheitsgurt-Zustandsbestimmungsverfahren | |
CN110334959B (zh) | 一种航班舱位资源分配方法及装置 | |
CN108596277A (zh) | 一种车辆身份识别方法、装置和存储介质 | |
CN108351967A (zh) | 一种多人脸检测方法、装置、服务器、系统及存储介质 | |
CN112330833A (zh) | 人脸识别考勤数据验证方法、装置及计算机设备 | |
CN108229297A (zh) | 人脸识别方法和装置、电子设备、计算机存储介质 | |
CN107633558A (zh) | 一种基于人像与身份证比对识别的自助检票方法和设备 | |
CN108171162B (zh) | 人群拥挤度检测方法、装置及系统 | |
CN110399362B (zh) | 异常考勤数据的筛选方法、装置、计算机设备及存储介质 | |
CN108960214A (zh) | 指纹图像增强二值化方法、装置、设备、系统及存储介质 | |
CN110991249A (zh) | 人脸检测方法、装置、电子设备及介质 | |
Beckmann et al. | Applying FSL to the FIAC data: model‐based and model‐free analysis of voice and sentence repetition priming | |
CN109871845A (zh) | 证件图像提取方法及终端设备 | |
US11023714B2 (en) | Suspiciousness degree estimation model generation device | |
CN110378254B (zh) | 车损图像修改痕迹的识别方法、系统、电子设备及存储介质 | |
CN113085478B (zh) | 车载空调控制方法、装置、设备及存储介质 | |
CN105913014A (zh) | 基于身份证芯片照片和视频的身份鉴定方法及系统 | |
CN108229749A (zh) | 基于深度学习的不良购票行为管理方法 | |
CN106331746A (zh) | 用于识别视频文件中的水印位置的方法和装置 | |
CN110348301A (zh) | 基于视频的查票实现方法、装置、计算机设备及存储介质 | |
CN110390533A (zh) | 网约车司机身份鉴定方法、装置、设备及存储介质 | |
CN110751395A (zh) | 一种旅客行程状态确定方法、装置及服务器 | |
CN113950709A (zh) | 不匹配的驾驶员检测 | |
CN110348301B (zh) | 基于视频的查票实现方法、装置、计算机设备及存储介质 | |
CN110135229A (zh) | 一种利用神经网络的驾驶员身份识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |