CN113780214B - 基于人群进行图像识别的方法、系统、设备及存储介质 - Google Patents
基于人群进行图像识别的方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN113780214B CN113780214B CN202111088700.7A CN202111088700A CN113780214B CN 113780214 B CN113780214 B CN 113780214B CN 202111088700 A CN202111088700 A CN 202111088700A CN 113780214 B CN113780214 B CN 113780214B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- image
- camera
- neural network
- optical axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012544 monitoring process Methods 0.000 claims abstract description 109
- 238000013528 artificial neural network Methods 0.000 claims abstract description 74
- 230000003287 optical effect Effects 0.000 claims abstract description 68
- 238000005192 partition Methods 0.000 claims abstract description 27
- 230000002265 prevention Effects 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 7
- 238000000638 solvent extraction Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000003909 pattern recognition Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于人群进行图像识别的方法、系统、设备及存储介质,该方法包括以下步骤:基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得相机转动到各个光轴位置时,相机所获得的图像对应的监控区域的局部区域;激光雷达实时采集监控区域的点云数据,并识别出点云数据中代表每个行人的点云簇所在的实时位置;将相机基于一光轴位置拍摄的当前图像通过一第一神经网络进行行人的图像分区识别,并根据行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配;仅未被第二神经网络识别的图像分区通过一第二神经网络进行图像识别。本发明能够结合激光雷达避免重复扫描,增强监控效果。
Description
技术领域
本发明属于视觉监控领域,尤其涉及一种基于人群进行图像识别的方法、系统、设备及存储介质。
背景技术
监控系统又称之为闭路电视监控系统(英文:Closed-Circuit Television,缩写CCTV),典型的监控系统主要由前端音视频采集设备、音视频传输设备、后端存储、控制及显示设备这五大部分组成,其中后端设备可进一步分为中心控制设备和分控制设备。前、后端设备有多种构成方式,它们之间的联系(也可称作传输系统)可通过同轴电缆、双绞线、光纤、微波、无线等多种方式来实现。
在人群混杂的广场、走廊等需要进行监控的区域,目前主要采用球台监视器等设备拍摄人群中部分行人(受制于镜头视角)的图像,在进行基于各种需求的图像识别。但是由于,行人行走时的速度不同,经常在拍设置发生行人遮挡等情况,造成漏检或者重复扫描等情况,而设置多个设备一方面增加了成本,另一方面对于行人相互遮挡的情况本质上没有太大改进个,而且多个设备各自拍摄到的图像中有较多的行人是重复的,既浪费了计算量,也难以估算监控区域的行人总数,造成数据不精确,也弱化了监控效果。
因此,本发明提供了一种基于人群进行图像识别的方法、系统、设备及存储介质。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
针对现有技术中的问题,本发明的目的在于提供基于人群进行图像识别的方法、系统、设备及存储介质,克服了现有技术的困难,能够通过可转动监控中装置扫描广场等广阔区域,并且通过结合激光雷达避免重复扫描,减少了图形识别的计算量,能够更准确地统计监控区域的行人总数,增强监控效果。
本发明的实施例提供一种基于人群进行图像识别的方法,包括以下步骤:
基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域;
所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置;
将所述相机基于一光轴位置拍摄的当前图像通过一第一神经网络进行所述行人的图像分区识别,并根据所述行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配;
仅将对应的历史图像中均未被第二神经网络识别的所述点云簇对应的图像分区通过一第二神经网络进行图像识别。
优选地,所述基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域,包括:
基于监控区域将一激光雷达与一球台装置驱动的相机进行世界坐标系下的联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域的世界坐标系中的范围。
优选地,所述基于监控区域将一激光雷达与一球台装置驱动的相机进行世界坐标系下的联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域的世界坐标系中的范围,包括:
在监控区域划分为多个矩阵排列的网格区域,在每个网格区域的中心设置于一具有唯一数字编号的标定对位件;
所述激光雷达扫描所述监控区域,识别出获得每个所述标定对位件对应的点云簇在所述监控区域的行列分布,对所述监控区域的点云数据进行区块化划分,并基于每个所述标定对位件的数字编号在所述网格区域的排布,建立所述区块化点云数据与数字编号的映射关系;
将所述相机分别拍摄各个光轴位置下的图片,进行基于图片进行数字编号文本的识别,获得每个图片中的包含的所有标定对位件的数字编号;
将所述图片中的所有所述数字编号所代表的网格区域在世界坐标系中拼合建立一监控拍摄区域;
建立所述相机的各个光轴位置与所述监控拍摄区域、所述监控拍摄区域对应的所述数字编号的集合的映射关系。
优选地,所述网格区域为正方形,边长的取值为0.8米至1.5米。
优选地,所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置之后、所述将所述相机基于一光轴位置拍摄的当前图像通过一第一神经网络进行所述行人的图像分区识别,并根据所述行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配之前,还包括以下步骤:
将基于未被第二神经网络识别的点云簇作为待识别点云簇,基于实时位置生成待识别点云簇的分布图,获得各个所述光轴位置对应的局部区域中待识别点云簇的数量,将所述相机移动到所述待识别点云簇的数量最多的局部区域对应的光轴位置。
优选地,所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,还包括:根据所述点云簇的位置变化获得每个所述点云簇的基于所述监控区域的历史移动轨迹;
所述仅将对应的历史图像中均未被第二神经网络识别的所述点云簇对应的图像分区通过一第二神经网络进行图像识别,包括:
当所述点云簇对应的历史移动轨迹中的各历史图像均未被第二神经网络识别,则将所述点云簇对应的图像分区通过一基于预设识别任务的第二神经网络进行图像识别,将所述点云簇对应的历史移动轨迹标记为已被第二神经网络识别。
优选地,所述将所述相机基于一光轴位置拍摄的当前图像通过一第一神经网络进行所述行人的图像分区识别,并根据所述行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配,包括:
将所述相机基于一光轴位置拍摄的当前图像通过一用于识别行人的第一神经网络进行每个行人的图像分区识别,
根据所述行人在当前图像中的各网格区域的位置与当前光轴位置对应的局部区域对应的部分点云数据中的行人的点云簇进行匹配;
建立每个所述图像分区对应的行人与所述点云簇的历史移动轨迹的映射关系。
优选地,所述第二神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过多种防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。
本发明的实施例还提供一种基于人群进行图像识别的系统,用于实现上述的基于人群进行图像识别的方法,基于人群进行图像识别的系统包括:
联合标定模块,基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域;
激光采集模块,所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置;
图像分区模块,将所述相机基于一光轴位置拍摄的当前图像通过一用于识别行人的第一神经网络进行所述行人的图像分区识别,并根据所述行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配;
去重识别模块,仅将对应的历史图像中均未被第二神经网络识别的所述点云簇对应的图像分区通过一基于预设识别任务的第二神经网络进行图像识别。
本发明的实施例还提供一种基于人群进行图像识别的设备,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行上述基于人群进行图像识别的方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现上述基于人群进行图像识别的方法的步骤。
本发明的基于人群进行图像识别的方法、系统、设备及存储介质,能够通过可转动监控中装置扫描广场等广阔区域,并且通过结合激光雷达避免重复扫描,减少了图形识别的计算量,能够更准确地统计监控区域的行人总数,增强监控效果。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明的基于人群进行图像识别的方法的流程图。
图2至6是使用本发明的基于人群进行图像识别的方法的过程步骤示意图。
图7是本发明的基于人群进行图像识别的系统的结构示意图
图8本发明的基于人群进行图像识别的设备的结构示意图。以及
图9是本发明一实施例的计算机可读存储介质的结构示意图。
附图标记
1 球台装置
2 监控区域
21 网格区域
22 标定对位件
23 监控拍摄区域
231 监控拍摄区域
232 监控拍摄区域
11 第一行人
11' 第一行人的历史位置
111 第一行人的图像分区
12 第二行人
121 第二行人的图像分区
具体实施方式
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本申请所揭露的内容轻易地了解本申请的其他优点与功效。本申请还可以通过另外不同的具体实施方式加以实施或应用系统,本申请中的各项细节也可以根据不同观点与应用系统,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面以附图为参考,针对本申请的实施例进行详细说明,以便本申请所属技术领域的技术人员能够容易地实施。本申请可以以多种不同形态体现,并不限定于此处说明的实施例。
在本申请的表示中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的表示意指结合该实施例或示例表示的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,表示的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本申请中表示的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于表示目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的表示中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了明确说明本申请,省略与说明无关的器件,对于通篇说明书中相同或类似的构成要素,赋予了相同的参照符号。
在通篇说明书中,当说某器件与另一器件“连接”时,这不仅包括“直接连接”的情形,也包括在其中间把其它元件置于其间而“间接连接”的情形。另外,当说某种器件“包括”某种构成要素时,只要没有特别相反的记载,则并非将其它构成要素排除在外,而是意味着可以还包括其它构成要素。
当说某器件在另一器件“之上”时,这可以是直接在另一器件之上,但也可以在其之间伴随着其它器件。当对照地说某器件“直接”在另一器件“之上”时,其之间不伴随其它器件。
虽然在一些实例中术语第一、第二等在本文中用来表示各种元件,但是这些元件不应当被这些术语限制。这些术语仅用来将一个元件与另一个元件进行区分。例如,第一接口及第二接口等表示。再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
此处使用的专业术语只用于言及特定实施例,并非意在限定本申请。此处使用的单数形态,只要语句未明确表示出与之相反的意义,那么还包括复数形态。在说明书中使用的“包括”的意义是把特定特性、区域、整数、步骤、作业、要素及/或成份具体化,并非排除其它特性、区域、整数、步骤、作业、要素及/或成份的存在或附加。
虽然未不同地定义,但包括此处使用的技术术语及科学术语,所有术语均具有与本申请所属技术领域的技术人员一般理解的意义相同的意义。普通使用的字典中定义的术语追加解释为具有与相关技术文献和当前提示的内容相符的意义,只要未进行定义,不得过度解释为理想的或非常公式性的意义。
图1是本发明的基于人群进行图像识别的方法的流程图。如图1所示,本发明基于人群进行图像识别的方法,包括以下步骤:
S110、基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得相机转动到各个光轴位置时,相机所获得的图像对应的监控区域的局部区域。
S120、激光雷达实时采集监控区域的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置。
S140、将相机基于一光轴位置拍摄的当前图像通过一用于识别行人的第一神经网络进行行人的图像分区识别,并根据行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配。
S150、仅将对应的历史图像中均未被第二神经网络识别的点云簇对应的图像分区通过一基于预设识别任务的第二神经网络进行图像识别。
在一个优选实施例中,步骤S110中,基于监控区域将一激光雷达与一球台装置驱动的相机进行世界坐标系下的联合标定,并获得相机转动到各个光轴位置时,相机所获得的图像对应的监控区域的局部区域的世界坐标系中的范围。
在一个优选实施例中,步骤S110包括:
S111、在监控区域划分为多个矩阵排列的网格区域,在每个网格区域的中心设置于一具有唯一数字编号的标定对位件。本实施例中的标定对位件是一个表面设有明显数字编号的安全锥,但不以此为限。
S112、激光雷达扫描监控区域,识别出获得每个标定对位件对应的点云簇在监控区域的行列分布,对监控区域的点云数据进行区块化划分,并基于每个标定对位件的数字编号在网格区域的排布,建立区块化点云数据与数字编号的映射关系。
S113、将相机分别拍摄各个光轴位置下的图片,进行基于图片进行数字编号文本的识别,获得每个图片中的包含的所有标定对位件的数字编号。
S114、将图片中的所有数字编号所代表的网格区域在世界坐标系中拼合建立一监控拍摄区域。
S115、建立相机的各个光轴位置与监控拍摄区域、监控拍摄区域对应的数字编号的集合的映射关系,联合标定结束后,去除所有标定对位件 (从监控区域拿走所有安全锥即可)。
在一个优选实施例中,网格区域为正方形,边长的取值为0.8米至 1.5米,使得每个网格区域只能站一个行人,从而更精确行人位置的定位,便于提升基于世界坐标系中的网格区域实现激光雷达与相机的监控拍摄区域之间的标定精确度。
在一个优选实施例中,步骤S120之后、步骤S140之前还包括以下步骤:
S130、将基于未被第二神经网络识别的点云簇作为待识别点云簇,基于实时位置生成待识别点云簇的分布图,获得各个光轴位置对应的局部区域中待识别点云簇的数量,将相机移动到待识别点云簇的数量最多的局部区域对应的光轴位置。从而优化对相机拍摄的任务调度,在相同的任务次数(拍摄次数)中尽可能监控更多未被识别的行人。
在一个优选实施例中,步骤S130可以替换为:
将基于未被第二神经网络识别的点云簇作为待识别点云簇,基于实时位置生成待识别点云簇的分布图,基于点云簇的历史移动轨迹以及相关时间信息生成未来移动轨迹,未来移动轨迹用于预测未来各时间点时点云簇在监控区域中的位置。将还未被第二神经网络识别的点云簇中,未来将最早离开监控区域的待识别点云簇作为目标点云簇,将相机首先移动到目标点云簇所在的局部区域对应的光轴位置,从而尽可能避免漏检,从而优化对相机拍摄的任务调度,在相同的任务次数(拍摄次数)中尽可能监控更多未被识别的行人。
在一个优选实施例中,步骤S120还包括:
根据点云簇的位置变化获得每个点云簇的基于监控区域的历史移动轨迹。
步骤S150中包括:
S151、判断点云簇对应的历史移动轨迹是否已被第二神经网络识别,若否,则执行步骤S152,若是,则执行步骤S154。
S152、将点云簇对应的图像分区通过一基于预设识别任务的第二神经网络进行图像识别。
S153、将点云簇对应的历史移动轨迹标记为已被第二神经网络识别。
S154、返回步骤S120,重复上述步骤S120、S130、S140、S150 进行下一次图片采集时的最佳光轴位置判断。
在一个优选实施例中,步骤S140中包括:
S141、将相机基于一光轴位置拍摄的当前图像通过一用于识别行人的第一神经网络进行每个行人的图像分区识别,
S142、根据行人在当前图像中的各网格区域的位置与当前光轴位置对应的局部区域对应的部分点云数据中的行人的点云簇进行匹配。
S143、建立每个图像分区对应的行人与点云簇的历史移动轨迹的映射关系。
在一个优选实施例中,第二神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过多种防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。
本发明利用激光雷达记录行人的历史轨迹,并根据对于历史轨迹的标定来确认是否已被识别过,在后续识别时能够进行去重,不必在扫描这些已经被识别过的行人,优化了监控设备的调度效率,同时,大大减少了无效图形计算的运算量。
以下通过图2至6展示了本发明的基于人群进行图像识别的方法的实施过程示意图。如图2至6所示(本实施例中才用了俯视图来介绍流程,但实际使用时,球台装置1驱动的相机通常设置于高处,以与水平面斜向下30°至60°来拍摄图像,但不以此为限。),本发明的实施过程如下:
如图2和3所示,在一个广场设置至少一激光雷达(图中未示出)与一球台装置1驱动的相机,首先,基于监控区域2将一激光雷达与一球台装置驱动的相机进行世界坐标系下的联合标定,并获得相机转动到各个光轴位置时,相机所获得的图像对应的监控区域2的局部区域的世界坐标系中的范围。本实施例中,通过在监控区域2划分为6×9的多个矩阵排列的网格区域21,在每个网格区域21的中心设置于一具有唯一数字编号 (S1、S2、S3、S4、S5、S6、S7、S8、S9、S10、S11、S12、%..S54) 的标定对位件22。激光雷达扫描监控区域2,识别出获得每个标定对位件对应的点云簇在监控区域2的行列分布,对监控区域2的点云数据进行区块化划分,并基于每个标定对位件的数字编号在网格区域21的排布,建立区块化点云数据与数字编号的映射关系。将相机分别拍摄各个光轴位置下的图片,进行基于图片进行数字编号文本的识别,获得每个图片中的包含的所有标定对位件22的数字编号。将图片中的所有数字编号所代表的网格区域21在世界坐标系中拼合建立一监控拍摄区域23。建立相机的各个光轴位置与监控拍摄区域23、监控拍摄区域23对应的数字编号的集合{S15、S16、S21、S22、S27、S28}的映射关系。
利用激光雷达实时采集监控区域2的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据点云簇的位置变化获得每个点云簇的基于监控区域2的历史移动轨迹。
将基于未被第二神经网络识别的点云簇作为待识别点云簇,基于实时位置生成待识别点云簇的分布图,获得各个光轴位置对应的监控拍摄区域 23中待识别点云簇的数量,将相机移动到待识别点云簇的数量最多的监控拍摄区域23对应的光轴位置。从而优化对相机拍摄的任务调度,在相同的任务次数(拍摄次数)中尽可能监控更多未被识别的行人。
如图4所示,在t1时刻,将相机基于一光轴位置拍摄的当前图像通过一用于识别行人的第一神经网络进行行人的图像分区识别(获得了基于第一行人11的图像分区111),并根据第一行人11在当前图像中的位置与当前光轴位置对应的局部区域中的第一行人11的点云簇进行匹配。由于基于人11对应点云簇对应的历史移动轨迹可知,此时第一行人11还未被第二神经网络识别,则将第一行人11对应的点云簇对应的图像分区通过一基于预设识别任务的第二神经网络进行图像识别。第二神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过多种防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。通过第二神经网络的识别,获知第一行人11已经佩戴了口罩。将第一行人11对应的点云簇对应的历史移动轨迹标记为已被第二神经网络识别。
如图5、6所示,在t2时刻,将相机基于另一光轴位置拍摄的当前图像通过一用于识别行人的第一神经网络进行行人的图像分区识别(获得了基于第一行人11的图像分区111和基于第二行人12的图像分区121),并根据第一行人11、12在当前图像中的位置与当前光轴位置对应的局部区域中的第一行人11、12的点云簇进行匹配。
由于基于人11对应点云簇对应的历史移动轨迹可知,此时第一行人 11已经被第二神经网络识别(在第一行人11的第一行人11的历史位置 11'),则将不对图5中的第一行人11的图像分区111进行后续识别处理,避免了重复识别的计算量,加快了整体识别速度。
由于基于人12对应点云簇对应的历史移动轨迹可知,此时第二行人 12还未被第二神经网络识别,则将第二行人12对应的点云簇对应的图像分区通过一基于预设识别任务的第二神经网络进行图像识别。第二神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过多种防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。通过第二神经网络的识别,获知第二行人12未佩戴了口罩,则进行警告操作。并将第二行人12对应的点云簇对应的历史移动轨迹标记为已被第二神经网络识别。
本发明的基于人群进行图像识别的方法能够通过可转动监控中装置扫描广场等广阔区域,并且通过结合激光雷达避免重复扫描,减少了图形识别的计算量,尤其是在广场等几十人或几百人聚集、交织行走的场所,本发明能够非常有效地避免重复识别的计算量,加快监控设备对于人群进行个体识别速度和准确度,同时能够更准确地统计监控区域的行人总数,增强监控效果。
图7是本发明的基于人群进行图像识别的系统的结构示意图。如图7 所示,本发明的实施例还提供一种基于人群进行图像识别的系统5,用于实现上述的基于人群进行图像识别的方法,包括:
联合标定模块51,基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得相机转动到各个光轴位置时,相机所获得的图像对应的监控区域的局部区域。
激光采集模块52,激光雷达实时采集监控区域的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置。
光轴选择模块53,将基于未被第二神经网络识别的点云簇作为待识别点云簇,基于实时位置生成待识别点云簇的分布图,获得各个光轴位置对应的局部区域中待识别点云簇的数量,将相机移动到待识别点云簇的数量最多的局部区域对应的光轴位置。
图像分区模块54,将相机基于一光轴位置拍摄的当前图像通过一用于识别行人的第一神经网络进行行人的图像分区识别,并根据行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配。
去重识别模块55,仅将对应的历史图像中均未被第二神经网络识别的点云簇对应的图像分区通过一基于预设识别任务的第二神经网络进行图像识别。
本发明的基于人群进行图像识别的系统,能够通过可转动监控中装置扫描广场等广阔区域,并且通过结合激光雷达避免重复扫描,减少了图形识别的计算量,能够更准确地统计监控区域的行人总数,增强监控效果。
本发明实施例还提供一种基于人群进行图像识别的设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的基于人群进行图像识别的方法的步骤。
如上,本发明的基于人群进行图像识别的设备能够通过可转动监控中装置扫描广场等广阔区域,并且通过结合激光雷达避免重复扫描,减少了图形识别的计算量,能够更准确地统计监控区域的行人总数,增强监控效果。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图8是本发明的基于人群进行图像识别的设备的结构示意图。下面参照图8来描述根据本发明的这种实施方式的电子设备600。图8显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,电子设备600以通用计算设备的形式表现。电子设备 600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线 630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备 600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的基于人群进行图像识别的方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,能够通过可转动监控中装置扫描广场等广阔区域,并且通过结合激光雷达避免重复扫描,减少了图形识别的计算量,能够更准确地统计监控区域的行人总数,增强监控效果。
图9是本发明的计算机可读存储介质的结构示意图。参考图9所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如 Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的基于人群进行图像识别的方法、系统、设备及存储介质,能够通过可转动监控中装置扫描广场等广阔区域,并且通过结合激光雷达避免重复扫描,减少了图形识别的计算量,能够更准确地统计监控区域的行人总数,增强监控效果。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (8)
1.一种基于人群进行图像识别的方法,其特征在于,包括以下步骤:
基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域;
所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置,根据所述点云簇的位置变化获得每个所述点云簇的基于所述监控区域的历史移动轨迹;
将基于未被第二神经网络识别的所述点云簇作为待识别点云簇,基于所述实时位置生成待识别点云簇的分布图,基于所述点云簇的历史移动轨迹以及相关时间信息生成未来移动轨迹,所述未来移动轨迹用于预测未来各时间点时点云簇在监控区域中的位置,将还未被第二神经网络识别的点云簇中,未来将最早离开监控区域的所述待识别点云簇作为目标点云簇,将相机首先移动到所述目标点云簇所在的局部区域对应的光轴位置;
将所述相机基于一光轴位置拍摄的当前图像通过一第一神经网络进行所述行人的图像分区识别,并根据所述行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配;
当所述点云簇对应的历史移动轨迹中的各历史图像均未被第二神经网络识别,则将所述点云簇对应的图像分区通过一基于预设识别任务的第二神经网络进行图像识别,将所述点云簇对应的历史移动轨迹标记为已被第二神经网络识别。
2.根据权利要求1所述的基于人群进行图像识别的方法,其特征在于,所述基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域,包括:
基于监控区域将一激光雷达与一球台装置驱动的相机进行世界坐标系下的联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域的世界坐标系中的范围。
3.根据权利要求2所述的基于人群进行图像识别的方法,其特征在于,所述基于监控区域将一激光雷达与一球台装置驱动的相机进行世界坐标系下的联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域的世界坐标系中的范围,包括:
在监控区域划分为多个矩阵排列的网格区域,在每个网格区域的中心设置于一具有唯一数字编号的标定对位件;
所述激光雷达扫描所述监控区域,识别出获得每个所述标定对位件对应的点云簇在所述监控区域的行列分布,对所述监控区域的点云数据进行区块化划分,并基于每个所述标定对位件的数字编号在所述网格区域的排布,建立区块化的所述点云数据与数字编号的映射关系;
将所述相机分别拍摄各个光轴位置下的图片,进行基于图片进行数字编号文本的识别,获得每个图片中的包含的所有标定对位件的数字编号;
将所述图片中的所有所述数字编号所代表的网格区域在世界坐标系中拼合建立一监控拍摄区域;
建立所述相机的各个光轴位置与所述监控拍摄区域、所述监控拍摄区域对应的所述数字编号的集合的映射关系。
4.根据权利要求1所述的基于人群进行图像识别的方法,其特征在于,所述将所述相机基于一光轴位置拍摄的当前图像通过一第一神经网络进行所述行人的图像分区识别,并根据所述行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配,包括:
将所述相机基于一光轴位置拍摄的当前图像通过一用于识别行人的第一神经网络进行每个行人的图像分区识别,
根据所述行人在当前图像中的各网格区域的位置与当前光轴位置对应的局部区域对应的部分点云数据中的行人的点云簇进行匹配;
建立每个所述图像分区对应的行人与所述点云簇的历史移动轨迹的映射关系。
5.根据权利要求1所述的基于人群进行图像识别的方法,其特征在于,所述第二神经网络是一用于识别防疫穿戴设备检测的图片识别神经网络,经过多种防疫穿戴设备的图像样本训练,输出佩戴防疫穿戴设备的种类或者未佩戴防疫穿戴设备的识别结果。
6.一种基于人群进行图像识别的系统,其特征在于,用于实现如权利要求1所述的基于人群进行图像识别的方法,包括:
联合标定模块,基于监控区域将一激光雷达与至少一球台装置驱动的相机进行联合标定,并获得所述相机转动到各个光轴位置时,所述相机所获得的图像对应的监控区域的局部区域;
激光采集模块,所述激光雷达实时采集所述监控区域的点云数据,并通过一用于点云识别的神经网络识别出点云数据中代表每个行人的点云簇所在的实时位置;
图像分区模块,将所述相机基于一光轴位置拍摄的当前图像通过一第一神经网络进行所述行人的图像分区识别,并根据所述行人在当前图像中的位置与当前光轴位置对应的局部区域中的行人的点云簇进行匹配;
去重识别模块,仅将对应的历史图像中均未被第二神经网络识别的所述点云簇对应的图像分区通过一第二神经网络进行图像识别。
7.一种基于人群进行图像识别的设备,其特征在于,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行权利要求1至5中任意一项所述基于人群进行图像识别的方法的步骤。
8.一种计算机可读存储介质,用于存储程序,其特征在于,程序被处理器执行时实现权利要求1至5中任意一项所述基于人群进行图像识别的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111088700.7A CN113780214B (zh) | 2021-09-16 | 2021-09-16 | 基于人群进行图像识别的方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111088700.7A CN113780214B (zh) | 2021-09-16 | 2021-09-16 | 基于人群进行图像识别的方法、系统、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113780214A CN113780214A (zh) | 2021-12-10 |
CN113780214B true CN113780214B (zh) | 2024-04-19 |
Family
ID=78851437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111088700.7A Active CN113780214B (zh) | 2021-09-16 | 2021-09-16 | 基于人群进行图像识别的方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780214B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110505408A (zh) * | 2019-09-12 | 2019-11-26 | 深圳传音控股股份有限公司 | 终端拍摄方法、装置、移动终端及可读存储介质 |
CN110517354A (zh) * | 2018-05-21 | 2019-11-29 | 北京京东尚科信息技术有限公司 | 用于三维点云分割的方法、装置、系统及介质 |
CN110675431A (zh) * | 2019-10-08 | 2020-01-10 | 中国人民解放军军事科学院国防科技创新研究院 | 一种融合图像和激光点云的三维多目标跟踪方法 |
CN111008990A (zh) * | 2019-12-12 | 2020-04-14 | 大连理工大学 | 一种基于网格的目标轨迹跟踪和恢复的方法 |
CN111383132A (zh) * | 2020-03-19 | 2020-07-07 | 东南大学 | 一种适用于疫情期的智慧工地管理系统及管理方法 |
CN112802106A (zh) * | 2021-02-05 | 2021-05-14 | 梅卡曼德(北京)机器人科技有限公司 | 对象抓取方法及装置 |
CN112837384A (zh) * | 2021-03-01 | 2021-05-25 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆标记方法、装置和电子设备 |
CN113343840A (zh) * | 2021-06-02 | 2021-09-03 | 合肥泰瑞数创科技有限公司 | 基于三维点云的对象识别方法及装置 |
CN113345237A (zh) * | 2021-06-29 | 2021-09-03 | 山东高速建设管理集团有限公司 | 一种使用路侧激光雷达数据提取车辆轨迹的变道识别与预测方法、系统、设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345510A (zh) * | 2018-09-07 | 2019-02-15 | 百度在线网络技术(北京)有限公司 | 物体检测方法、装置、设备、存储介质及车辆 |
US11195064B2 (en) * | 2019-07-11 | 2021-12-07 | Waymo Llc | Cross-modal sensor data alignment |
-
2021
- 2021-09-16 CN CN202111088700.7A patent/CN113780214B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110517354A (zh) * | 2018-05-21 | 2019-11-29 | 北京京东尚科信息技术有限公司 | 用于三维点云分割的方法、装置、系统及介质 |
CN110505408A (zh) * | 2019-09-12 | 2019-11-26 | 深圳传音控股股份有限公司 | 终端拍摄方法、装置、移动终端及可读存储介质 |
CN110675431A (zh) * | 2019-10-08 | 2020-01-10 | 中国人民解放军军事科学院国防科技创新研究院 | 一种融合图像和激光点云的三维多目标跟踪方法 |
CN111008990A (zh) * | 2019-12-12 | 2020-04-14 | 大连理工大学 | 一种基于网格的目标轨迹跟踪和恢复的方法 |
CN111383132A (zh) * | 2020-03-19 | 2020-07-07 | 东南大学 | 一种适用于疫情期的智慧工地管理系统及管理方法 |
CN112802106A (zh) * | 2021-02-05 | 2021-05-14 | 梅卡曼德(北京)机器人科技有限公司 | 对象抓取方法及装置 |
CN112837384A (zh) * | 2021-03-01 | 2021-05-25 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆标记方法、装置和电子设备 |
CN113343840A (zh) * | 2021-06-02 | 2021-09-03 | 合肥泰瑞数创科技有限公司 | 基于三维点云的对象识别方法及装置 |
CN113345237A (zh) * | 2021-06-29 | 2021-09-03 | 山东高速建设管理集团有限公司 | 一种使用路侧激光雷达数据提取车辆轨迹的变道识别与预测方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113780214A (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11657595B1 (en) | Detecting and locating actors in scenes based on degraded or supersaturated depth data | |
AU2012340862B2 (en) | Geographic map based control | |
CN110400352B (zh) | 利用特征识别的摄像机校准 | |
US9141184B2 (en) | Person detection system | |
CN110659391A (zh) | 一种视频侦查方法及装置 | |
EA018349B1 (ru) | Способ видеоанализа | |
EP2659465A2 (en) | Tracking moving objects using a camera network | |
CN113569825B (zh) | 视频监控方法、装置、电子设备和计算机可读介质 | |
JP4764172B2 (ja) | 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム | |
CN109636763B (zh) | 一种智能复眼监控系统 | |
CN113177968A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN112364843A (zh) | 插拔式航拍图像目标定位检测方法、系统、设备 | |
AU2018379393A1 (en) | Monitoring systems, and computer implemented methods for processing data in monitoring systems, programmed to enable identification and tracking of human targets in crowded environments | |
CN111291646A (zh) | 一种人流量统计方法、装置、设备及存储介质 | |
CN111242847B (zh) | 基于闸道的图像拼接方法、系统、设备及存储介质 | |
US10462448B2 (en) | Image generation system and image generation method | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN114169425A (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN113780214B (zh) | 基于人群进行图像识别的方法、系统、设备及存储介质 | |
CN111783613B (zh) | 异常检测方法、模型的训练方法、装置、设备及存储介质 | |
CN116912517B (zh) | 相机视野边界的检测方法及装置 | |
CN110378241B (zh) | 作物生长状态监控方法、装置、计算机设备及存储介质 | |
CN113780213B (zh) | 基于监控进行行人识别的方法、系统、设备及存储介质 | |
CN114071015B (zh) | 一种联动抓拍路径的确定方法、装置、介质及设备 | |
Sharma et al. | An edge-controlled outdoor autonomous UAV for colorwise safety helmet detection and counting of workers in construction sites |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Applicant after: Shanghai Xijing Technology Co.,Ltd. Address before: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Applicant before: SHANGHAI WESTWELL INFORMATION AND TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |