CN109344743B - 一种监控视频数据处理实现方法 - Google Patents
一种监控视频数据处理实现方法 Download PDFInfo
- Publication number
- CN109344743B CN109344743B CN201811074111.1A CN201811074111A CN109344743B CN 109344743 B CN109344743 B CN 109344743B CN 201811074111 A CN201811074111 A CN 201811074111A CN 109344743 B CN109344743 B CN 109344743B
- Authority
- CN
- China
- Prior art keywords
- video image
- neural network
- objects
- video
- people
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
本发明公开了一种监控视频数据处理实现方法,包括以下步骤:利用视频摄像头实时采集该视频摄像头所在场所的视频图像,并采用窗口分割所述视频图像,得到数段视频图像窗;复制所述数段视频图像窗,其中之一的数段视频图像窗导入第一级神经网络进行神经网络训练,并利用训练后的第一级神经网络识别视频图像中的物和/或人;提取另一份数段视频图像窗的HOG特征,并识别该数段视频图像窗中的物和/或人;将识别的物和/或人进行融合组成,求得物和/或人的共有子集,剔除共有子集中的物;并将所述共有子集中的人的特征导入第一级神经网络和第二级神经网络进行神经网络训练,利用第二级神经网络识别并连续跟踪人的运动轨迹。
Description
技术领域
本发明涉及视频数据处理技术领域,尤其是一种监控视频数据处理实现方法。
背景技术
视频图像处理技术在智能视频图像分析技术中得到广泛应用。一般是在摄像头采集前端通过嵌入式技术实现,由于摄像头采集前端嵌入式设备处理能力的限制,只能使用简单的视频图像增强算法,其效果较为局限。与此同时,仅仅通过视频增强处理的识别分辨率较低。
发明内容
针对上述问题,本发明的目的在于提供一种监控视频数据处理实现方法,本发明采用的技术方案如下:
一种监控视频数据处理实现方法,包括以下步骤:
步骤S01,利用视频摄像头实时采集该视频摄像头所在场所的视频图像,并采用窗口分割所述视频图像,得到数段视频图像窗。
步骤S02,复制所述步骤S01中数段视频图像窗,得到两份相同的数段视频图像窗;将其中之一的数段视频图像窗导入第一级神经网络进行神经网络训练,并利用训练后的第一级神经网络识别视频图像中的物和/或人。
步骤S03,提取另一份数段视频图像窗的HOG特征,并识别该数段视频图像窗中的物和/或人。
步骤S04,将步骤S02中和步骤S03中识别的物和/或人进行融合组成,求得物和/或人的共有子集,剔除共有子集中的物;并将所述共有子集中的人的特征导入第一级神经网络和第二级神经网络进行神经网络训练,利用第二级神经网络识别并连续跟踪人的运动轨迹。
具体地,所述步骤S01中,采用窗口分割所述视频图像,具体如下:
步骤S11,所述视频摄像头拍摄的视频图像的时间长度为T,以视频图像的初始帧为起点、时间长度为τ划分获得起始视频图像窗;所述T为大于0的正数;所述τ为大于0、且小于T的正数。
步骤S12,以第i个视频图像窗的个视频帧为起点、时间长度为τ划分视频图像窗;所述i为大于等于2的自然数,所述K为大于0、且小于τ的正数。
步骤S13,重复步骤S12,得到数段分割后的视频图像窗。
进一步地,所述步骤S02中,提取数段分割后的视频图像窗,并按时间顺序依次复制视频图像窗,获得两份相同的分割后的视频图像窗。
优选地,所述步骤S02中,将所述数段视频图像窗按时间先后顺序依次导入第一级神经网络,并识别任一视频图像窗内的物和/或人。
更进一步地,所述步骤S03中,按时间先后顺序提取任一视频图像窗内的物和/或人的HOG特征,获得识别的物和/或人。
进一步地,所述步骤S04中,将步骤S02和步骤S03中一一对应的视频图像窗的物和/或人进行融合组成,求得该视频图像窗的物和/或人的共有子集。
优选地,所述步骤S04中,将剔除物的共有子集导入第一级神经网络和第二级神经网络进行神经网络训练,实现人与物的特征区分。
更进一步地,所述步骤S04中,连续获取物和/或人的共有子集,并利用第二级神经网络进行精准识别,获得视频图像中人的运动轨迹。
与现有技术相比,本发明具有以下有益效果:
(1)本发明巧妙地利用窗口分割视频图像,得到数段视频图像窗,在该数据窗内记载至少一个视频帧的图像,如此设计的好处在于,既能保证视频数据的连续性,又能与神经网络配合提高识别的准确率。
(2)本发明通过设计二级神经网络识别物和/或人的特征,并提取视频图像的中人和物的HOG特征,并求得两份视频图像窗中一一对应的视频图像窗中的人和/或物的共有子集。如此一来,便能筛选出人的特征。在此基础上,将人的特征导入第一级神经网络和第二级神经网络,实现神经网络的训练。
(3)本发明通过视频图像窗口分割,并结合神经网络训练和HOG特征,以获取精确的视频特征,在提高视频处理的分辨率的同时,也能保证识别的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需使用的附图作简单介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对保护范围的限定,对于本领域技术人员来说,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明的处理流程图。
图2为本发明的视频图像窗口分割的流程图。
具体实施方式
为使本申请的目的、技术方案和优点更为清楚,下面结合附图和实施例对本发明作进一步说明,本发明的实施方式包括但不限于下列实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例
如图1至图2所示,本实施例提供了一种监控视频数据处理实现方法,解决现有技术中识别分辨率低、效果局限等问题。需要说明的是,本实施例中所述的“第一”、“第二”等序号用语仅用于区分同类部件。具体来说,该方法包括以下步骤:
第一步,利用视频摄像头实时采集该视频摄像头所在场所的视频图像,并采用窗口分割所述视频图像,得到数段视频图像窗。
(1)所述视频摄像头拍摄的视频图像的时间长度为T,以视频图像的初始帧为起点、时间长度为τ划分获得起始视频图像窗。其中,所述T为大于0的正数,所述τ为大于0、且小于T的正数。
(2)以第i个视频图像窗的个视频帧为起点、时间长度为τ划分视频图像窗。所述i为大于等于2的自然数,所述K为大于0、且小于τ的正数。
(3)重复步骤(1),得到数段分割后的视频图像窗。
第二步,复制所第一步中数段视频图像窗,得到两份相同的数段视频图像窗;将其中之一的数段视频图像窗导入第一级神经网络进行神经网络训练,并利用训练后的第一级神经网络识别视频图像中的物和/或人。具体来说,提取数段分割后的视频图像窗,并按时间顺序依次复制视频图像窗,获得两份相同的分割后的视频图像窗。另外,将所述数段视频图像窗按时间先后顺序依次导入第一级神经网络,并识别任一视频图像窗内的物和/或人。
第三步,提取另一份数段视频图像窗的HOG特征,并识别该数段视频图像窗中的物和/或人。其中,提取HOG特征的方式、方法为现有技术,在此就不予赘述。在此,按时间先后顺序提取任一视频图像窗内的物和/或人的HOG特征,获得识别的物和/或人。
第四步,将第二步和第三步中识别的物和/或人进行融合组成,求得物和/或人的共有子集,剔除共有子集中的物;并将所述共有子集中的人的特征导入第一级神经网络和第二级神经网络进行神经网络训练,利用第二级神经网络识别并连续跟踪人的运动轨迹。其中,融合组成的方式如下:将第二步和第三步中一一对应的视频图像窗的物和/或人进行融合组成,求得该视频图像窗的物和/或人的共有子集。将起始视频图像窗分别进行第二步和第三步的处理,分别得到起始视频图像窗的物和/或人的特征。采用对应的视频图像窗的物和/或人进行融合组成,随着神经网络的训练,识别分辨率得到进一步的提升。在本实施例中,将剔除物的共有子集导入第一级神经网络和第二级神经网络进行神经网络训练,实现人与物的特征区分。另外,通过连续获取物和/或人的共有子集,并利用第二级神经网络进行精准识别,获得视频图像中人的运动轨迹。
在本发明通过设置两层次的神经网络进行识别,并利用提取的HOG特征对应的人和物的特征进行训练神经网络,进而,提高视频的识别分辨率。可以说,本发明具有突出的实质性特点和显著的进步,在视频数据处理技术领域具有很高的实用价值和推广价值。
上述实施例仅为本发明的优选实施例,并非对本发明保护范围的限制,但凡采用本发明的设计原理,以及在此基础上进行非创造性劳动而作出的变化,均应属于本发明的保护范围之内。
Claims (8)
1.一种监控视频数据处理实现方法,其特征在于,包括以下步骤:
步骤S01,利用视频摄像头实时采集该视频摄像头所在场所的视频图像,并采用窗口分割所述视频图像,得到数段视频图像窗;
步骤S02,复制所述步骤S01中数段视频图像窗,得到两份相同的数段视频图像窗;将其中之一的数段视频图像窗导入第一级神经网络进行神经网络训练,并利用训练后的第一级神经网络识别视频图像中的物和/或人;
步骤S03,提取另一份数段视频图像窗的HOG特征,并识别该数段视频图像窗中的物和/或人;
步骤S04,将步骤S02中和步骤S03中识别的物和/或人进行融合组成,求得物和/或人的共有子集,剔除共有子集中的物;并将所述共有子集中的人的特征导入第一级神经网络和第二级神经网络进行神经网络训练,利用第二级神经网络识别并连续跟踪人的运动轨迹。
2.根据权利要求1所述的一种监控视频数据处理实现方法,其特征在于,所述步骤S01中,采用窗口分割所述视频图像,具体如下:
步骤S11,所述视频摄像头拍摄的视频图像的时间长度为T,以视频图像的初始帧为起点、时间长度为τ划分获得起始视频图像窗;所述T为大于0的正数;所述τ为大于0、且小于T的正数;
步骤S12,以第i个视频图像窗的个视频帧为起点、时间长度为τ划分视频图像窗;所述i为大于等于2的自然数,所述K为大于0、且小于τ的正数;
步骤S13,重复步骤S12,得到数段分割后的视频图像窗。
3.根据权利要求2所述的一种监控视频数据处理实现方法,其特征在于,所述步骤S02中,提取数段分割后的视频图像窗,并按时间顺序依次复制视频图像窗,获得两份相同的分割后的视频图像窗。
4.根据权利要求3所述的一种监控视频数据处理实现方法,其特征在于,所述步骤S02中,将所述数段视频图像窗按时间先后顺序依次导入第一级神经网络,并识别任一视频图像窗内的物和/或人。
5.根据权利要求2所述的一种监控视频数据处理实现方法,其特征在于,所述步骤S03中,按时间先后顺序提取任一视频图像窗内的物和/或人的HOG特征,获得识别的物和/或人。
6.根据权利要求1~5任一项所述的一种监控视频数据处理实现方法,其特征在于,所述步骤S04中,将步骤S02和步骤S03中一一对应的视频图像窗的物和/或人进行融合组成,求得该视频图像窗的物和/或人的共有子集。
7.根据权利要求6所述的一种监控视频数据处理实现方法,其特征在于,所述步骤S04中,将剔除物的共有子集导入第一级神经网络和第二级神经网络进行神经网络训练,实现人与物的特征区分。
8.根据权利要求6所述的一种监控视频数据处理实现方法,其特征在于,所述步骤S04中,连续获取物和/或人的共有子集,并利用第二级神经网络进行精准识别,获得视频图像中人的运动轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811074111.1A CN109344743B (zh) | 2018-09-14 | 2018-09-14 | 一种监控视频数据处理实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811074111.1A CN109344743B (zh) | 2018-09-14 | 2018-09-14 | 一种监控视频数据处理实现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109344743A CN109344743A (zh) | 2019-02-15 |
CN109344743B true CN109344743B (zh) | 2023-07-25 |
Family
ID=65305657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811074111.1A Active CN109344743B (zh) | 2018-09-14 | 2018-09-14 | 一种监控视频数据处理实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109344743B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104156983A (zh) * | 2014-08-05 | 2014-11-19 | 天津大学 | 一种基于视频图像处理的公交客流统计方法 |
CN105678243A (zh) * | 2015-12-30 | 2016-06-15 | 山东大学 | 一种监控视频特征帧在线提取方法 |
CN105718878A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于级联卷积神经网络的第一视角空中手写和空中交互方法 |
CN106897708A (zh) * | 2017-03-06 | 2017-06-27 | 深圳英飞拓科技股份有限公司 | 立体人脸检测方法及装置 |
-
2018
- 2018-09-14 CN CN201811074111.1A patent/CN109344743B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104156983A (zh) * | 2014-08-05 | 2014-11-19 | 天津大学 | 一种基于视频图像处理的公交客流统计方法 |
CN105678243A (zh) * | 2015-12-30 | 2016-06-15 | 山东大学 | 一种监控视频特征帧在线提取方法 |
CN105718878A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于级联卷积神经网络的第一视角空中手写和空中交互方法 |
CN106897708A (zh) * | 2017-03-06 | 2017-06-27 | 深圳英飞拓科技股份有限公司 | 立体人脸检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109344743A (zh) | 2019-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110598535B (zh) | 一种监控视频数据中使用的人脸识别分析方法 | |
CN109543526B (zh) | 基于深度差异性特征的真假面瘫识别系统 | |
CN107480178B (zh) | 一种基于图像与视频跨模态比对的行人重识别方法 | |
CN109635686B (zh) | 结合人脸与外观的两阶段行人搜索方法 | |
CN106997629A (zh) | 门禁控制方法、装置及系统 | |
CN109472191B (zh) | 一种基于时空上下文的行人重识别与追踪方法 | |
Liong et al. | Micro-expression recognition using apex frame with phase information | |
CN105160318A (zh) | 基于面部表情的测谎方法及系统 | |
CN107590473B (zh) | 一种人脸活体检测方法、介质和相关装置 | |
CN110414367B (zh) | 一种基于gan和ssn的时序行为检测方法 | |
CN111563404B (zh) | 用于基于视频的人再识别的全局局部时间表示方法 | |
Ma et al. | A region histogram of oriented optical flow (RHOOF) feature for apex frame spotting in micro-expression | |
CN109034247B (zh) | 一种基于跟踪算法的较高纯度的人脸识别样本提取方法 | |
CN111027377A (zh) | 一种双流神经网络时序动作定位方法 | |
CN111639580A (zh) | 一种结合特征分离模型和视角转换模型的步态识别方法 | |
Elharrouss et al. | FSC-set: counting, localization of football supporters crowd in the stadiums | |
CN109002808B (zh) | 一种人体行为识别方法及系统 | |
EP2483834B1 (de) | Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objekts in einem Bild | |
CN111626212B (zh) | 图片中对象的识别方法和装置、存储介质及电子装置 | |
CN109344743B (zh) | 一种监控视频数据处理实现方法 | |
CN106934339B (zh) | 一种目标跟踪、跟踪目标识别特征的提取方法和装置 | |
CN104504162A (zh) | 一种基于机器人视觉平台的视频检索方法 | |
CN110766093A (zh) | 一种基于多帧特征融合的视频目标重识别方法 | |
CN112749605A (zh) | 身份识别方法、系统和设备 | |
CN108197593B (zh) | 基于三点定位方法的多尺寸人脸表情识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |