CN113780213A - 基于监控进行行人识别的方法、系统、设备及存储介质 - Google Patents

基于监控进行行人识别的方法、系统、设备及存储介质 Download PDF

Info

Publication number
CN113780213A
CN113780213A CN202111087224.7A CN202111087224A CN113780213A CN 113780213 A CN113780213 A CN 113780213A CN 202111087224 A CN202111087224 A CN 202111087224A CN 113780213 A CN113780213 A CN 113780213A
Authority
CN
China
Prior art keywords
point cloud
pedestrian
monitoring
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111087224.7A
Other languages
English (en)
Other versions
CN113780213B (zh
Inventor
谭黎敏
赵钊
洪军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Westwell Information Technology Co Ltd
Original Assignee
Shanghai Westwell Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Westwell Information Technology Co Ltd filed Critical Shanghai Westwell Information Technology Co Ltd
Priority to CN202111087224.7A priority Critical patent/CN113780213B/zh
Publication of CN113780213A publication Critical patent/CN113780213A/zh
Application granted granted Critical
Publication of CN113780213B publication Critical patent/CN113780213B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了基于监控进行行人识别的方法、系统、设备及存储介质,该方法包括以下步骤:基于监控区域将激光雷达与摄像机进行联合标定,并获得每个摄像机所获得的影像对应的监控区域的局部区域;激光雷达实时采集监控区域的点云数据,并通过一用于点云识别的第一神经网络识别出代表行人的点云簇所在的实时位置延续每个点云簇的基于监控区域的历史移动轨迹;将摄像机拍摄的视频帧识别获得抠图影像片段,并根据抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配;基于每个点云簇的历史移动轨迹将对应的抠图影像片段组合成一跟踪影像片段。本发明能够建立针对每个行人生成多机位的跟踪视频,增强监控效果。

Description

基于监控进行行人识别的方法、系统、设备及存储介质
技术领域
本发明属于视觉监控领域,尤其涉及一种基于监控进行行人识别的方法、系统、设备及存储介质。
背景技术
监控系统又称之为闭路电视监控系统(英文:Closed-Circuit Television,缩写CCTV),典型的监控系统主要由前端音视频采集设备、音视频传输设备、后端存储、控制及显示设备这五大部分组成,其中后端设备可进一步分为中心控制设备和分控制设备。前、后端设备有多种构成方式,它们之间的联系(也可称作传输系统)可通过同轴电缆、双绞线、光纤、微波、无线等多种方式来实现。
在人群混杂的广场、走廊等需要进行监控的区域,目前主要采用球台监视器等设备拍摄人群中部分行人(受制于镜头视角)的图像,在进行基于各种需求的图像识别。但是由于,行人行走时的速度不同,经常在拍设置发生行人遮挡等情况,造成漏检或者重复扫描等情况,而且,单个摄像机可能只能拍摄到行人的背面,几乎无法进行识别,难以进行准确的检测,造成数据不精确,也弱化了监控效果。
因此,本发明提供了一种基于监控进行行人识别的方法、系统、设备及存储介质。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本实用新型的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
针对现有技术中的问题,本发明的目的在于提供基于监控进行行人识别的方法、系统、设备及存储介质,克服了现有技术的困难,能够结合激光雷达和多个摄像机的配合生成针对每个行人生成多机位的跟踪视频,有效避免了因为行人自身遮挡或是其他行人相互遮挡而造成的漏检(检测不准确)的情况,,大大增强了监控效果。
本发明的实施例提供一种基于监控进行行人识别的方法,包括以下步骤:
基于监控区域将一激光雷达与至少两个摄像机进行联合标定,并获得每个所述摄像机所获得的影像对应的监控区域的局部区域;
所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的第一神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据所述点云簇的位置变化延续每个所述点云簇的基于所述监控区域的历史移动轨迹;
将所述摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行所述行人的影像分区识别获得抠图影像片段,并根据所述抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配;
基于每个所述点云簇的历史移动轨迹将不同的所述摄像机拍摄到的对应该点云簇的所述抠图影像片段组合成一跟踪影像片段。
优选地,所述基于每个所述点云簇的历史移动轨迹将不同的所述摄像机拍摄到的对应该点云簇的所述抠图影像片段组合成一跟踪影像片段之后还包括:
基于所述跟踪影像片段中抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别,获得所述视频帧的防疫穿戴设备的标签信息;
当所述跟踪影像片段具有至少一干视频帧满足防疫穿戴设备的预设标签信息组合,则所述跟踪影像片段对应的行人满足预设防疫穿戴设备的要求。
优选地,所述基于监控区域将一激光雷达与至少两个摄像机进行联合标定,并获得每个所述摄像机所获得的影像对应的监控区域的局部区域,包括:
将所述激光雷达与所有所述摄像机在世界坐标系进行联合标定,并获得每个所述摄像机所获得的影像对应的在世界坐标系中所述监控区域的局部区域。
优选地,所述将所述激光雷达与所有所述摄像机在世界坐标系进行联合标定,并获得每个所述摄像机所获得的影像对应的在世界坐标系中所述监控区域的局部区域,包括:
在监控区域划分为多个矩阵排列的网格区域,在每个网格区域的中心设置于一具有唯一数字编号的标定对位件;
所述激光雷达扫描所述监控区域,识别出获得每个所述标定对位件对应的点云簇在所述监控区域的行列分布,对所述监控区域的点云数据进行区块化划分,并基于每个所述标定对位件的数字编号在所述网格区域的排布,建立所述区块化点云数据与数字编号的映射关系;
将每个所述摄像机分别基于各自的固定光轴拍摄的图片,进行基于图片进行数字编号文本的识别,获得每个图片中的包含的所有标定对位件的数字编号;
将所述图片中的所有所述数字编号所代表的网格区域在世界坐标系中拼合建立一监控拍摄区域;以及
建立每个所述摄像机的与各自的所述监控拍摄区域、所述监控拍摄区域对应的所述数字编号的集合的映射关系。
优选地,所述将所述摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行所述行人的影像分区识别获得抠图影像片段,并根据所述抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配,包括:
将所述摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行所述行人的影像分区识别;
按时序组合获得抠图影像片段,并根据所述抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇进行匹配;
建立每个所述抠图影像片段对应的行人与点云簇的历史移动轨迹的映射关系。
优选地,所述基于所述跟踪影像片段中抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别,包括:
自所述跟踪影像片段中基于预设时序间隔依序抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别。
优选地,所述第一神经网络是一用于识别代表行人的点云簇的识别神经网络,经过大量代表行人的点云簇数据训练,输出代表每个行人的点云簇的识别结果;
所述第二神经网络是一用于识别行人的图片识别神经网络,经过大量代表行人的图像样本训练,输出自图片中抠图得到的代表行人的影像分区;
所述第三神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过大量防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。
本发明的实施例还提供一种基于监控进行行人识别的系统,用于实现上述的基于监控进行行人识别的方法,基于监控进行行人识别的系统包括:
联合标定模块,基于监控区域将一激光雷达与至少两个摄像机进行联合标定,并获得每个所述摄像机所获得的影像对应的监控区域的局部区域;
激光采集模块,所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的第一神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据所述点云簇的位置变化延续每个所述点云簇的基于所述监控区域的历史移动轨迹;
点云匹配模块,将所述摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行所述行人的影像分区识别获得抠图影像片段,并根据所述抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配;
跟踪影像模块,基于每个所述点云簇的历史移动轨迹将不同的所述摄像机拍摄到的对应该点云簇的所述抠图影像片段组合成一跟踪影像片段。
本发明的实施例还提供一种基于监控进行行人识别的设备,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行上述基于监控进行行人识别的方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现上述基于监控进行行人识别的方法的步骤。
本发明的基于监控进行行人识别的方法、系统、设备及存储介质,能够结合激光雷达和多个摄像机的配合生成针对每个行人生成多机位的跟踪视频,有效避免了因为行人自身遮挡或是其他行人相互遮挡而造成的漏检(检测不准确)的情况,,大大增强了监控效果。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明的基于监控进行行人识别的方法的流程图。
图2至6是使用本发明的基于监控进行行人识别的方法的过程步骤示意图。
图7是本发明的基于监控进行行人识别的系统的结构示意图
图8本发明的基于监控进行行人识别的设备的结构示意图。以及
图9是本发明一实施例的计算机可读存储介质的结构示意图。
附图标记
11 摄像机
111 局部区域
12 摄像机
121 局部区域
122 抠图影像片段
13 摄像机
131 局部区域
132 抠图影像片段
14 摄像机
141 局部区域
142 抠图影像片段
2 监控区域
21 网格区域
22 标定对位件
30 第三神经网络
31至37 视频帧
具体实施方式
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本申请所揭露的内容轻易地了解本申请的其他优点与功效。本申请还可以通过另外不同的具体实施方式加以实施或应用系统,本申请中的各项细节也可以根据不同观点与应用系统,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面以附图为参考,针对本申请的实施例进行详细说明,以便本申请所属技术领域的技术人员能够容易地实施。本申请可以以多种不同形态体现,并不限定于此处说明的实施例。
在本申请的表示中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的表示意指结合该实施例或示例表示的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,表示的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本申请中表示的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于表示目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的表示中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了明确说明本申请,省略与说明无关的器件,对于通篇说明书中相同或类似的构成要素,赋予了相同的参照符号。
在通篇说明书中,当说某器件与另一器件“连接”时,这不仅包括“直接连接”的情形,也包括在其中间把其它元件置于其间而“间接连接”的情形。另外,当说某种器件“包括”某种构成要素时,只要没有特别相反的记载,则并非将其它构成要素排除在外,而是意味着可以还包括其它构成要素。
当说某器件在另一器件“之上”时,这可以是直接在另一器件之上,但也可以在其之间伴随着其它器件。当对照地说某器件“直接”在另一器件“之上”时,其之间不伴随其它器件。
虽然在一些实例中术语第一、第二等在本文中用来表示各种元件,但是这些元件不应当被这些术语限制。这些术语仅用来将一个元件与另一个元件进行区分。例如,第一接口及第二接口等表示。再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
此处使用的专业术语只用于言及特定实施例,并非意在限定本申请。此处使用的单数形态,只要语句未明确表示出与之相反的意义,那么还包括复数形态。在说明书中使用的“包括”的意义是把特定特性、区域、整数、步骤、作业、要素及/或成份具体化,并非排除其它特性、区域、整数、步骤、作业、要素及/或成份的存在或附加。
虽然未不同地定义,但包括此处使用的技术术语及科学术语,所有术语均具有与本申请所属技术领域的技术人员一般理解的意义相同的意义。普通使用的字典中定义的术语追加解释为具有与相关技术文献和当前提示的内容相符的意义,只要未进行定义,不得过度解释为理想的或非常公式性的意义。
图1是本发明的基于监控进行行人识别的方法的流程图。如图1所示,本发明基于监控进行行人识别的方法,包括以下步骤:
S110、基于监控区域将一激光雷达与至少两个摄像机进行联合标定,并获得每个摄像机所获得的影像对应的监控区域的局部区域。
S120、激光雷达实时采集监控区域的点云数据,并通过一用于点云识别的第一神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据点云簇的位置变化延续每个点云簇的基于监控区域的历史移动轨迹。
S130、将摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行行人的影像分区识别获得抠图影像片段,并根据抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配。
S140、基于每个点云簇的历史移动轨迹将不同的摄像机拍摄到的对应该点云簇的抠图影像片段组合成一跟踪影像片段。
在一个优选实施例中,步骤S140之后还包括:
S150、基于跟踪影像片段中抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别,获得视频帧的防疫穿戴设备的标签信息。
S160、当跟踪影像片段具有至少一干视频帧满足防疫穿戴设备的预设标签信息组合,则跟踪影像片段对应的行人满足预设防疫穿戴设备的要求。
在一个优选实施例中,步骤S110中包括:
将激光雷达与所有摄像机在世界坐标系进行联合标定,并获得每个摄像机所获得的影像对应的在世界坐标系中监控区域的局部区域。
在一个优选实施例中,步骤S110中包括:
S111、在监控区域划分为多个矩阵排列的网格区域,在每个网格区域的中心设置于一具有唯一数字编号的标定对位件。本实施例中的标定对位件是一个表面设有明显数字编号的安全锥,但不以此为限。
S112、激光雷达扫描监控区域,识别出获得每个标定对位件对应的点云簇在监控区域的行列分布,对监控区域的点云数据进行区块化划分,并基于每个标定对位件的数字编号在网格区域的排布,建立区块化点云数据与数字编号的映射关系。
S113、将每个摄像机分别基于各自的固定光轴拍摄的图片,进行基于图片进行数字编号文本的识别,获得每个图片中的包含的所有标定对位件的数字编号。
S114、将图片中的所有数字编号所代表的网格区域在世界坐标系中拼合建立一监控拍摄区域。以及
S115、建立每个摄像机的与各自的监控拍摄区域、监控拍摄区域对应的数字编号的集合的映射关系,联合标定结束后,去除所有标定对位件(从监控区域拿走所有安全锥即可)。
在一个优选实施例中,网格区域为正方形,边长的取值为0.8米至1.5米,使得每个网格区域只能站一个行人,从而更精确行人位置的定位,便于提升基于世界坐标系中的网格区域实现激光雷达与相机的监控拍摄区域之间的标定精确度。
在一个优选实施例中,步骤S130中包括:
S131、将摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行行人的影像分区识别。
S132、按时序组合获得抠图影像片段,并根据抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇进行匹配。
S133、建立每个抠图影像片段对应的行人与点云簇的历史移动轨迹的映射关系。
在一个优选实施例中,步骤S150中,自跟踪影像片段中基于预设时序间隔依序抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别。
在一个优选实施例中,第一神经网络是一用于识别代表行人的点云簇的识别神经网络,经过大量代表行人的点云簇数据训练,输出代表每个行人的点云簇的识别结果。
第二神经网络是一用于识别行人的图片识别神经网络,经过大量代表行人的图像样本训练,输出自图片中抠图得到的代表行人的影像分区。
第三神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过大量防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。
以下通过图2至6展示了本发明的基于监控进行行人识别的方法的实施过程示意图。如图2至6所示(本实施例中使用了俯视图来介绍流程,但实际使用时,摄像机11、摄像机12、摄像机13、摄像机14、都设置于高处,以与水平面斜向下30°至60°来拍摄图像,但不以此为限。),本发明的实施过程如下:
如图2和3所示,在一个广场设置至少一激光雷达(图中未示出)与四个摄像机11、12、13、14,首先,基于监控区域2将一激光雷达与摄像机11、12、13、14进行世界坐标系下的联合标定,摄像机11、12、13、14基于各自的固定光轴所获得的图像对应的监控区域2的局部区域的世界坐标系中的范围。
本实施例中,通过在监控区域2划分为6×9的多个矩阵排列的网格区域21,在每个网格区域21的中心设置于一具有唯一数字编号(S1、S2、S3、S4、S5、S6、S7、S8、S9、S10、S11、S12、%..S54)的标定对位件22。激光雷达扫描监控区域2,识别出获得每个标定对位件对应的点云簇在监控区域2的行列分布,对监控区域2的点云数据进行区块化划分,并基于每个标定对位件的数字编号在网格区域21的排布,建立区块化点云数据与数字编号的映射关系。在一个变形例中,本发明也可以采用现有技术实现激光雷达与摄像机基于世界坐标系的第二端联合标定。
参见图3,进行基于图片进行数字编号文本的识别,获得每个图片中的包含的所有标定对位件22的数字编号。将图片中的所有数字编号所代表的网格区域21在世界坐标系中拼合建立一监控拍摄区域。获得摄像机11基于各自的固定光轴所获得的图像对应的监控区域2的监控拍摄区域111的世界坐标系中的范围,例如:监控拍摄区域111包括了网格S1、S2、S3、S7、S8、S9、S13、S14、S15、S19、S20、S21、S25、S26、S27等。获得摄像机12于各自的固定光轴所获得的图像对应的监控区域2的监控拍摄区域121的世界坐标系中的范围。获得摄像机13于各自的固定光轴所获得的图像对应的监控区域2的监控拍摄区域131的世界坐标系中的范围。获得摄像机14于各自的固定光轴所获得的图像对应的监控区域2的监控拍摄区域141的世界坐标系中的范围。建立每个摄像机与各自的监控拍摄区域、监控拍摄区域对应的数字编号的集合的映射关系。
如图4和5所示,利用激光雷达实时采集监控区域2的点云数据,并通过一用于点云识别的第一神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据点云簇的位置变化延续每个点云簇的基于监控区域的历史移动轨迹。第一神经网络是一用于识别代表行人的点云簇的识别神经网络,经过大量代表行人的点云簇数据训练,输出代表每个行人的点云簇的识别结果。将摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行行人的影像分区识别获得抠图影像片段,并根据抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配。第二神经网络是一用于识别行人的图片识别神经网络,经过大量代表行人的图像样本训练,输出自图片中抠图得到的代表行人的影像分区。以行人15为例,其自行人15’所在的位置走到行人15的所在的位置的过程中产生了历史移动轨迹。通过对摄像机11、摄像机12、摄像机13以及摄像机14的视频进行第二神经网络识别,获得基于行人的抠图影像片段。并根据抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配,获知摄像机12、摄像机13以及摄像机14都拍摄到了关于行人15的视频。
如图6所示,由于在行人15的路程中经过了摄像机12的监控拍摄区域121、摄像机13的监控拍摄区域131、摄像机14的监控拍摄区域141,将对应行人15点云簇在各个监控拍摄区域中移动时对应的各个抠图影像片段(摄像机12拍摄的到的抠图影像片段122、摄像机13拍摄的到的抠图影像片段132、摄像机14拍摄的到的抠图影像片段142)共同组合成一跟踪影像片段100。
基于跟踪影像片段100中基于预设时序间(5秒)隔依序抽取若干视频帧(视频帧21、32、33、34、35、36、37)通过一识别防疫穿戴设备的第三神经网络30进行图像识别,获得视频帧的防疫穿戴设备的标签信息。第三神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过大量防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。
最后输出检测结果39,可选的检测结果包括:
若跟踪影像片段的任何一个视频帧中没有识别出任何一个防疫穿戴设备的预设标签,则跟踪影像片段对应的行人未穿戴任何防疫穿戴设备,进行警告操作(例如播放预设音频等)。
若跟踪影像片段的部分视频帧中识别出至少一个防疫穿戴设备的预设标签,则跟踪影像片段对应的行人穿戴至少一个了防疫穿戴设备,也可以进行相应警告操作(例如播放预设音频等)。
若跟踪影像片段中至少一个视频帧中识别出了全部的防疫穿戴设备的预设标签,则跟踪影像片段对应的行人穿戴了全套预设防疫穿戴设备。(其他视频帧中可能存在其他行人遮挡或是行人自身遮挡了防疫穿戴设备的情况,例如:有时候摄像机拍摄行人时,身体可能遮挡住了一个手套,所以针对每个行人的跟踪影像片段中只要有一个视频帧满足预设的所有防疫穿戴设备的预设标签,就认为其佩戴了全套防疫穿戴设备。)
本发明通过将设置在不同位置的摄像机来拍摄行人,使得能够从更多的视角(机位)获得行人的视频(有些摄像机能够拍摄到行人的正面,有些摄像机能够拍摄到行人的侧面,尽可能避免了现有技术在个别情况下只拍摄到行人背面的缺点),从而避免单一视角下行人的部分身体被遮挡的情况,将多个视角获得的抠图影像片段组合成一个跟踪影像片段,来获得行人更全面的视频,基于这个视频进行图像识别就能消除单一视角的弊病,更容易看到行人周身的全貌,从而对复杂要求的图像识别,例如:需要同时佩戴防疫眼镜、口罩、防疫服、防疫手套等多种防疫穿戴设备的要求。
本发明的基于监控进行行人识别的方法能够结合激光雷达和多个摄像机的配合生成针对每个行人生成多机位的跟踪视频,有效避免了因为行人自身遮挡或是其他行人相互遮挡而造成的漏检(检测不准确)的情况,,大大增强了监控效果。
图7是本发明的基于监控进行行人识别的系统的结构示意图。如图7所示,本发明的实施例还提供一种基于监控进行行人识别的系统5,用于实现上述的基于监控进行行人识别的方法,包括:
联合标定模块51,基于监控区域将一激光雷达与至少两个摄像机进行联合标定,并获得每个摄像机所获得的影像对应的监控区域的局部区域。
激光采集模块52,激光雷达实时采集监控区域的点云数据,并通过一用于点云识别的第一神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据点云簇的位置变化延续每个点云簇的基于监控区域的历史移动轨迹。
点云匹配模块53,将摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行行人的影像分区识别获得抠图影像片段,并根据抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配。
跟踪影像模块54,基于每个点云簇的历史移动轨迹将不同的摄像机拍摄到的对应该点云簇的抠图影像片段组合成一跟踪影像片段。
防疫识别模块55,基于跟踪影像片段中抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别,获得视频帧的防疫穿戴设备的标签信息。
检测输出模块56,当跟踪影像片段具有至少一干视频帧满足防疫穿戴设备的预设标签信息组合,则跟踪影像片段对应的行人满足预设防疫穿戴设备的要求。
本发明的基于监控进行行人识别的系统,能够结合激光雷达和多个摄像机的配合生成针对每个行人生成多机位的跟踪视频,有效避免了因为行人自身遮挡或是其他行人相互遮挡而造成的漏检(检测不准确)的情况,,大大增强了监控效果。
本发明实施例还提供一种基于监控进行行人识别的设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的基于监控进行行人识别的方法的步骤。
如上,本发明的基于监控进行行人识别的设备能够结合激光雷达和多个摄像机的配合生成针对每个行人生成多机位的跟踪视频,有效避免了因为行人自身遮挡或是其他行人相互遮挡而造成的漏检(检测不准确)的情况,,大大增强了监控效果。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图8是本发明的基于监控进行行人识别的设备的结构示意图。下面参照图8来描述根据本发明的这种实施方式的电子设备600。图8显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的基于监控进行行人识别的方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,能够结合激光雷达和多个摄像机的配合生成针对每个行人生成多机位的跟踪视频,有效避免了因为行人自身遮挡或是其他行人相互遮挡而造成的漏检(检测不准确)的情况,,大大增强了监控效果。
图9是本发明的计算机可读存储介质的结构示意图。参考图9所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的基于监控进行行人识别的方法、系统、设备及存储介质,能够结合激光雷达和多个摄像机的配合生成针对每个行人生成多机位的跟踪视频,有效避免了因为行人自身遮挡或是其他行人相互遮挡而造成的漏检(检测不准确)的情况,,大大增强了监控效果。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (10)

1.一种基于监控进行行人识别的方法,其特征在于,包括以下步骤:
基于监控区域将一激光雷达与至少两个摄像机进行联合标定,并获得每个所述摄像机所获得的影像对应的监控区域的局部区域;
所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的第一神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据所述点云簇的位置变化延续每个所述点云簇的基于所述监控区域的历史移动轨迹;
将所述摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行所述行人的影像分区识别获得抠图影像片段,并根据所述抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配;
基于每个所述点云簇的历史移动轨迹将不同的所述摄像机拍摄到的对应该点云簇的所述抠图影像片段组合成一跟踪影像片段。
2.根据权利要求1所述的基于监控进行行人识别的方法,其特征在于,所述基于每个所述点云簇的历史移动轨迹将不同的所述摄像机拍摄到的对应该点云簇的所述抠图影像片段组合成一跟踪影像片段之后还包括:
基于所述跟踪影像片段中抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别,获得所述视频帧的防疫穿戴设备的标签信息;
当所述跟踪影像片段具有至少一干视频帧满足防疫穿戴设备的预设标签信息组合,则所述跟踪影像片段对应的行人满足预设防疫穿戴设备的要求。
3.根据权利要求1所述的基于监控进行行人识别的方法,其特征在于,所述基于监控区域将一激光雷达与至少两个摄像机进行联合标定,并获得每个所述摄像机所获得的影像对应的监控区域的局部区域,包括:
将所述激光雷达与所有所述摄像机在世界坐标系进行联合标定,并获得每个所述摄像机所获得的影像对应的在世界坐标系中所述监控区域的局部区域。
4.根据权利要求3所述的基于监控进行行人识别的方法,其特征在于,所述将所述激光雷达与所有所述摄像机在世界坐标系进行联合标定,并获得每个所述摄像机所获得的影像对应的在世界坐标系中所述监控区域的局部区域,包括:
在监控区域划分为多个矩阵排列的网格区域,在每个网格区域的中心设置于一具有唯一数字编号的标定对位件;
所述激光雷达扫描所述监控区域,识别出获得每个所述标定对位件对应的点云簇在所述监控区域的行列分布,对所述监控区域的点云数据进行区块化划分,并基于每个所述标定对位件的数字编号在所述网格区域的排布,建立所述区块化点云数据与数字编号的映射关系;
将每个所述摄像机分别基于各自的固定光轴拍摄的图片,进行基于图片进行数字编号文本的识别,获得每个图片中的包含的所有标定对位件的数字编号;
将所述图片中的所有所述数字编号所代表的网格区域在世界坐标系中拼合建立一监控拍摄区域;以及
建立每个所述摄像机的与各自的所述监控拍摄区域、所述监控拍摄区域对应的所述数字编号的集合的映射关系。
5.根据权利要求4所述的基于监控进行行人识别的方法,其特征在于,所述将所述摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行所述行人的影像分区识别获得抠图影像片段,并根据所述抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配,包括:
将所述摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行所述行人的影像分区识别;
按时序组合获得抠图影像片段,并根据所述抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇进行匹配;
建立每个所述抠图影像片段对应的行人与点云簇的历史移动轨迹的映射关系。
6.根据权利要求2所述的基于监控进行行人识别的方法,其特征在于,所述基于所述跟踪影像片段中抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别,包括:
自所述跟踪影像片段中基于预设时序间隔依序抽取若干视频帧通过一识别防疫穿戴设备的第三神经网络进行图像识别。
7.根据权利要求2所述的基于监控进行行人识别的方法,其特征在于,所述第一神经网络是一用于识别代表行人的点云簇的识别神经网络,经过大量代表行人的点云簇数据训练,输出代表每个行人的点云簇的识别结果;
所述第二神经网络是一用于识别行人的图片识别神经网络,经过大量代表行人的图像样本训练,输出自图片中抠图得到的代表行人的影像分区;
所述第三神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过大量防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。
8.一种基于监控进行行人识别的系统,其特征在于,用于实现如权利要求1所述的基于监控进行行人识别的方法,包括:
联合标定模块,基于监控区域将一激光雷达与至少两个摄像机进行联合标定,并获得每个所述摄像机所获得的影像对应的监控区域的局部区域;
激光采集模块,所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的第一神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据所述点云簇的位置变化延续每个所述点云簇的基于所述监控区域的历史移动轨迹;
点云匹配模块,将所述摄像机拍摄的当前影像的每一视频帧通过一第二神经网络进行所述行人的影像分区识别获得抠图影像片段,并根据所述抠图影像片段在当前影像中的位置与局部区域内的行人的点云簇的历史移动轨迹进行匹配;
跟踪影像模块,基于每个所述点云簇的历史移动轨迹将不同的所述摄像机拍摄到的对应该点云簇的所述抠图影像片段组合成一跟踪影像片段。
9.一种基于监控进行行人识别的设备,其特征在于,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行权利要求1至7中任意一项所述基于监控进行行人识别的方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,程序被处理器执行时实现权利要求1至7中任意一项所述基于监控进行行人识别的方法的步骤。
CN202111087224.7A 2021-09-16 2021-09-16 基于监控进行行人识别的方法、系统、设备及存储介质 Active CN113780213B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111087224.7A CN113780213B (zh) 2021-09-16 2021-09-16 基于监控进行行人识别的方法、系统、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111087224.7A CN113780213B (zh) 2021-09-16 2021-09-16 基于监控进行行人识别的方法、系统、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113780213A true CN113780213A (zh) 2021-12-10
CN113780213B CN113780213B (zh) 2024-02-02

Family

ID=78851429

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111087224.7A Active CN113780213B (zh) 2021-09-16 2021-09-16 基于监控进行行人识别的方法、系统、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113780213B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108594245A (zh) * 2018-07-04 2018-09-28 北京国泰星云科技有限公司 一种目标物运动监测系统及方法
CN110675431A (zh) * 2019-10-08 2020-01-10 中国人民解放军军事科学院国防科技创新研究院 一种融合图像和激光点云的三维多目标跟踪方法
CN111008990A (zh) * 2019-12-12 2020-04-14 大连理工大学 一种基于网格的目标轨迹跟踪和恢复的方法
US20200202177A1 (en) * 2018-07-16 2020-06-25 Accel Robotics Corporation System having a bar of relocatable distance sensors that detect stock changes in a storage area
CN111383132A (zh) * 2020-03-19 2020-07-07 东南大学 一种适用于疫情期的智慧工地管理系统及管理方法
WO2021164644A1 (zh) * 2020-02-18 2021-08-26 深圳市商汤科技有限公司 违规事件检测方法及装置、电子设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108594245A (zh) * 2018-07-04 2018-09-28 北京国泰星云科技有限公司 一种目标物运动监测系统及方法
US20200202177A1 (en) * 2018-07-16 2020-06-25 Accel Robotics Corporation System having a bar of relocatable distance sensors that detect stock changes in a storage area
CN110675431A (zh) * 2019-10-08 2020-01-10 中国人民解放军军事科学院国防科技创新研究院 一种融合图像和激光点云的三维多目标跟踪方法
CN111008990A (zh) * 2019-12-12 2020-04-14 大连理工大学 一种基于网格的目标轨迹跟踪和恢复的方法
WO2021164644A1 (zh) * 2020-02-18 2021-08-26 深圳市商汤科技有限公司 违规事件检测方法及装置、电子设备和存储介质
CN111383132A (zh) * 2020-03-19 2020-07-07 东南大学 一种适用于疫情期的智慧工地管理系统及管理方法

Also Published As

Publication number Publication date
CN113780213B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
US9141184B2 (en) Person detection system
US8457356B2 (en) Method and system of video object tracking
US9373174B2 (en) Cloud based video detection and tracking system
ZA202300610B (en) System and method for crop monitoring
CN109375068B (zh) 一种基于紫外成像电晕检测的目标识别方法及装置
DE112016006066T5 (de) Analyse von umgebungslicht zur blickverfolgung
US20140023243A1 (en) Kernel counter
CN110536074B (zh) 一种智能巡检系统、巡检方法
CN110659391A (zh) 一种视频侦查方法及装置
CN109636763B (zh) 一种智能复眼监控系统
CN113111844A (zh) 一种作业姿态评估方法、装置、本地终端及可读存储介质
WO2006083944A1 (en) Real-time image detection using polarization data
JP2010268158A (ja) 画像処理システム、画像処理方法およびプログラム
CN107993256A (zh) 动态目标跟踪方法、装置及存储介质
CN110796738A (zh) 巡检设备状态跟踪的三维可视化方法及装置
JP2007188294A (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
CN112101288A (zh) 安全帽佩戴检测方法、装置、设备及存储介质
CN114511592B (zh) 一种基于rgbd相机和bim系统的人员轨迹追踪方法及系统
JP2019159593A5 (ja) 情報処理装置、情報処理方法、及びプログラム
CN113447128A (zh) 一种多人体温检测方法、装置、电子设备及存储介质
US11132778B2 (en) Image analysis apparatus, image analysis method, and recording medium
CN113780213B (zh) 基于监控进行行人识别的方法、系统、设备及存储介质
US10831360B2 (en) Telepresence framework for region of interest marking using headmount devices
CN113780214B (zh) 基于人群进行图像识别的方法、系统、设备及存储介质
CN114495015A (zh) 人体姿态检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050

Applicant after: Shanghai Xijing Technology Co.,Ltd.

Address before: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050

Applicant before: SHANGHAI WESTWELL INFORMATION AND TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant