CN111832485A - 一种用于识别场景的深度学习方法及自动学习巡检方法 - Google Patents
一种用于识别场景的深度学习方法及自动学习巡检方法 Download PDFInfo
- Publication number
- CN111832485A CN111832485A CN202010676167.5A CN202010676167A CN111832485A CN 111832485 A CN111832485 A CN 111832485A CN 202010676167 A CN202010676167 A CN 202010676167A CN 111832485 A CN111832485 A CN 111832485A
- Authority
- CN
- China
- Prior art keywords
- scene
- video data
- automatic
- function
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 238000007689 inspection Methods 0.000 title claims abstract description 43
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 230000006870 function Effects 0.000 claims abstract description 37
- 230000008569 process Effects 0.000 claims abstract description 36
- 230000002123 temporal effect Effects 0.000 claims abstract description 11
- 238000012544 monitoring process Methods 0.000 claims abstract description 8
- 238000010586 diagram Methods 0.000 claims description 34
- 238000004422 calculation algorithm Methods 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 claims description 14
- 238000003066 decision tree Methods 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 239000003086 colorant Substances 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种用于识别场景的深度学习方法及自动学习巡检方法,其包括有如下步骤:步骤S1,启动“自动学习巡检”功能;步骤S2,识别场景的时间和空间信息:对场景监控摄像头视频数据和网络信息进行自动解析,获取场景的时间和空间信息;步骤S3,记录场景视频数据,并对场景进行分类;步骤S4,针对场景视频数据进行深度学习并生成研判报告;步骤S5,关闭或启动新的“自动学习巡检”功能。本发明不仅能提高巡检效率,而且大大节省了人工成本,使得本发明在实际应用过程中更具智能化和自动化性能,较好地满足了城市巡检工作应用需求。
Description
技术领域
本发明涉及城市巡检活动中的场景智能识别和自动巡逻的方法,尤其涉及一种用于识别场景的深度学习方法及自动学习巡检方法。
背景技术
城市巡检活动是指对城市各个场景进行巡检的过程,其目的是对城市环境中的人、车、物体、文字信息等进行检查,有助于提前发现一些安全隐患,以及纠正一些不合规的行为、事项等等。现有的城市巡检方法是由巡检人员定期到场景的现场进行巡逻,通过手持终端取证并上报巡检结果,这种巡检方式不仅效率低下,而且费时费力,缺乏智能化和自动化能力。
发明内容
本发明要解决的技术问题在于,针对现有技术的不足,提供一种可提高巡检效率,能节省人工以及节省成本,而且更具智能化和自动化性能的用于识别场景的深度学习方法及自动学习巡检方法。
为解决上述技术问题,本发明采用如下技术方案。
一种用于识别场景的深度学习方法,其包括有:步骤S40,通过场景监控摄像头获取场景视频数据,对所述场景视频数据进行场景分析及图像识别;步骤S41,对所述场景视频数据进行收集,利用决策树中的ID3算法对所述场景视频数据中的场景特征进行解析和分类;步骤S42,利用OCR算法对所述场景视频数据中的人、物进行识别,利用行人重识别算法对所述场景视频数据中的特定行人进行识别。
优选地,所述步骤S40包括如下过程:利用ITTI视觉显著性模型构建包含图像颜色、亮度和方向的高斯金字塔,利用所述高斯金字塔计算图像的亮度特征图、颜色特征图和方向特征图,再结合不同尺度的特征图获得亮度、颜色和方向皆显著的图像,相加处理后得到最终的视觉显著图像,实现自动场景识别功能。
优选地,所述步骤S41包括如下过程:从初始场景视频数据开始,根据所述场景视频数据计算出所有可能特征的信息增益,选择信息增益最大的特征作为结点特征,由所述结点特征的不同取值建立子结点,再通过递归方法调用子结点来建立决策树,从而完成特征分类,以及实现视频解析。
优选地,所述步骤S42中,对所述场景视频数据中的人、物进行识别的过程基于深度卷积神经网络实现,所述深度卷积神经网络首先在输入层中将视频或图像直接作为网络输入,通过训练提取特征,然后在卷积层中利用激活函数ELU将输入转变为非线性的表达方式,再通过池化层来缩小图片特征尺寸,最后,全连接层的输出取决于分类的个数。
优选地,所述步骤S42中,对所述场景视频数据中特定行人进行识别的过程包括:先对视频或图像进行特征提取,获取在不同视频或图像中的行人变化特征,然后进行度量学习,将学习到的特征映射到新的空间,使相同的人特征距离更近,不同的人特征距离更远,最后进行匹配,根据行人的当前视频或图像查找不同视频或图像中出现该行人的画面。
一种自动学习巡检方法,其包括有如下步骤:步骤S1,启动“自动学习巡检”功能;步骤S2,识别场景的时间和空间信息:对场景监控摄像头视频数据和网络信息进行自动解析,获取场景的时间和空间信息;步骤S3,记录场景视频数据,并对场景进行分类;步骤S4,针对场景视频数据进行深度学习并生成研判报告;步骤S5,关闭或启动新的“自动学习巡检”功能。
优选地,所述步骤S2中,识别场景时间和空间信息的过程包括:步骤S20,开启“自动判别场景的时间和空间信息”功能;步骤S21,基于ITTI视觉显著性模型实现自动场景识别功能;步骤S21,结束“自动判别场景的时间和空间信息”功能。
优选地,所述步骤S21包括如下过程:利用高斯采样方法构建包含图像颜色、亮度和方向的高斯金字塔,再利用高斯金字塔计算图像的亮度特征图、颜色特征图和方向特征图,结合不同尺度的特征图获得亮度、颜色和方向显著的图,相加处理后得到最终的视觉显著图,实现自动场景识别功能。
优选地,所述步骤S3包括如下过程:步骤S30,开启“自动记录并解析场景视频”功能;步骤S31,利用ID3算法对场景进行分类,实现视频解析;步骤S32,结束“自动记录并解析场景视频”功能。
优选地,所述步骤S31中,利用ID3算法对场景分类的过程包括:从初始场景视频开始,根据场景视频计算出所有可能特征的信息增益,选择信息增益最大的特征作为结点特征,由结点特征的不同取值建立子结点,再用递归方法调用子结点建立决策树,从而完成场景分类以及实现视频解析。
本发明公开的用于识别场景的深度学习方法及自动学习巡检方法中,当用户开启“自动学习巡检”功能时,系统自动判别场景的时间和空间信息,然后自动记录场景视频并解析场景类别,再根据深度学习场景并生成研判报告,最后关闭或启动新一轮的“自动分级学习巡检”过程。相比现有技术中携带手持终端进行人工巡检的方式而言,本发明不仅能提高巡检效率,而且大大节省了人工成本,使得本发明在实际应用过程中更具智能化和自动化性能,较好地满足了城市巡检工作应用需求。
附图说明
图1为本发明自动学习巡检方法的流程图;
图2为识别场景的时间和空间信息过程的流程图;
图3为自动记录并解析场景视频过程的流程图;
图4为针对场景视频数据进行深度学习并生成研判报告过程的流程图。
具体实施方式
下面结合附图和实施例对本发明作更加详细的描述。
本发明公开了一种用于识别场景的深度学习方法,请参见图4,其包括有:
步骤S40,通过场景监控摄像头获取场景视频数据,对所述场景视频数据进行场景分析及图像识别;
步骤S41,对所述场景视频数据进行收集,利用决策树中的ID3算法对所述场景视频数据中的场景特征进行解析和分类;
步骤S42,利用OCR算法对所述场景视频数据中的人、物进行识别,利用行人重识别算法对所述场景视频数据中的特定行人进行识别。
上述方法中,先对对视频进行场景分析及图像识别,然后对场景进行解析和分类,再对场景进行深度学习解析,最后根据深度学习结果,运用推理技术,生成具有时空标识的自动巡检报告,以供后续巡检确认和调度使用,同时自动录存关键原始影像记录,以供供查证和机器视觉模型研发和训练使用。基于上述方法,有助于提高城市巡检效率,以及节省人工成本,较好地满足了应用需求。
作为一种优选方式,所述步骤S40包括如下过程:利用ITTI视觉显著性模型构建包含图像颜色、亮度和方向的高斯金字塔,利用所述高斯金字塔计算图像的亮度特征图、颜色特征图和方向特征图,再结合不同尺度的特征图获得亮度、颜色和方向皆显著的图像,相加处理后得到最终的视觉显著图像,实现自动场景识别功能。
作为一种应用举例,对视频进行场景分析及图像识别的过程包括:从场景监控摄像头视频和网络信息等中,运用场景识别算法自动解析并获取场景的时间和空间信息。具体的方法:ITTI视觉显著性模型首先利用高斯采样方法构建图像的颜色、亮度和方向金字塔;接着利用高斯金字塔计算图像的亮度特征图、颜色特征图和方向特征图;最后结合不同尺度的特征图即可获得亮度、颜色和方向比较显著的图,相加得到最终的视觉显著图,实现自动场景识别功能。
进一步地,所述步骤S41包括如下过程:从初始场景视频数据开始,根据所述场景视频数据计算出所有可能特征的信息增益,选择信息增益最大的特征作为结点特征,由所述结点特征的不同取值建立子结点,再通过递归方法调用子结点来建立决策树,从而完成特征分类,以及实现视频解析。
作为一种应用举例,对场景进行解析和分类的过程中:在收集大量的场景视频后,利用决策树中的ID3算法对场景进行分类。具体的方法:首先,从初始场景视频开始,对场景视频计算出所有可能的特征的信息增益,选择信息增益最大的特征作为结点特征;接着,由该特征的不同取值建立子结点,再用递归的方法调用子结点建立决策树,从而完成分类,实现视频解析技术。
本实施例的所述步骤S42中,对所述场景视频数据中的人、物进行识别的过程基于深度卷积神经网络实现,所述深度卷积神经网络首先在输入层中将视频或图像直接作为网络输入,通过训练提取特征,然后在卷积层中利用激活函数ELU将输入转变为非线性的表达方式,再通过池化层来缩小图片特征尺寸,最后,全连接层的输出取决于分类的个数。
同时,在所述步骤S42中,对所述场景视频数据中特定行人进行识别的过程包括:先对视频或图像进行特征提取,获取在不同视频或图像中的行人变化特征,然后进行度量学习,将学习到的特征映射到新的空间,使相同的人特征距离更近,不同的人特征距离更远,最后进行匹配,根据行人的当前视频或图像查找不同视频或图像中出现该行人的画面。
作为一种应用举例,本实施例对场景进行深度学习解析过程中:先利用OCR算法对场景(如:车、人、物)进行识别。具体的方法包括:将可能内容存在的区域检测出来,从而进行进一步的文字识别。检测的部分是利用Seglink算法实现对任意角度的文字区域的检测。先检测文本行的一部分,再把每个文本字符连接起来构成一个完成的文本行。识别的部分是利用Multi-digit Number Classification算法对定长的字符进行序列识别,该算法是通过深度卷积神经网络来实现。深度卷积神经网络首先在输入层中将视频/图片直接作为网络输入,通过训练提取特征;接着,在卷积层中通过卷积运算即利用激活函数ELU将输入转变为非线性的表达方式;然后通过池化层来缩小图片特征尺寸;最后,全连接层的输出取决于分类的个数。
与此同时,利用行人ReID即行人重识别算法来判断图像/视频中是否有特定的行人。具体的方法:首先对视频/图像进行特征提取,提取在不同视频/图像中行人变化的特征;接着进行度量学习,将学习到的特征映射到新的空间,从而使得相同的人特征距离更近,不同的人特征距离更远;最后进行匹配,通过该行人的视频/图像查找到不同视频/图像中出现该行人的画面。
在完成步骤S42之后,需生成自动巡检报告:结合以上深度学习步骤,运用推理技术,生成具有时空标识的自动巡检报告,同时自动录存关键的原始影像记录。
实际应用中,上述深度学习方法可应用于一种自动学习巡检方法,请参见图1,该自动学习巡检方法包括有如下步骤:
步骤S1,启动“自动学习巡检”功能;
步骤S2,识别场景的时间和空间信息:对场景监控摄像头视频数据和网络信息进行自动解析,获取场景的时间和空间信息;
步骤S3,记录场景视频数据,并对场景进行分类;
步骤S4,针对场景视频数据进行深度学习并生成研判报告;
步骤S5,关闭或启动新的“自动学习巡检”功能。
请参见图2,所述步骤S2中,识别场景时间和空间信息的过程包括:
步骤S20,开启“自动判别场景的时间和空间信息”功能;
步骤S21,基于ITTI视觉显著性模型实现自动场景识别功能;
步骤S21,结束“自动判别场景的时间和空间信息”功能。
作为一种优选方式,所述步骤S21包括如下过程:利用高斯采样方法构建包含图像颜色、亮度和方向的高斯金字塔,再利用高斯金字塔计算图像的亮度特征图、颜色特征图和方向特征图,结合不同尺度的特征图获得亮度、颜色和方向显著的图,相加处理后得到最终的视觉显著图,实现自动场景识别功能。
请参见图3,所述步骤S3包括如下过程:
步骤S30,开启“自动记录并解析场景视频”功能;
步骤S31,利用ID3算法对场景进行分类,实现视频解析;
步骤S32,结束“自动记录并解析场景视频”功能。
进一步地,所述步骤S31中,利用ID3算法对场景分类的过程包括:
从初始场景视频开始,根据场景视频计算出所有可能特征的信息增益,选择信息增益最大的特征作为结点特征,由结点特征的不同取值建立子结点,再用递归方法调用子结点建立决策树,从而完成场景分类以及实现视频解析。
此处应当声明,上述步骤S31中所采用的ID3算法,仅作为一种应用举例来描述“对场景进行分类”的具体实现过程,本发明在实际应用过程中不局限于该ID3算法,也就是说,无论采用该ID3算法还是替换为其他同等功能的算法,皆属于对本发明部分技术手段的简单替换,而这些替换方式皆属于本发明的保护范围。
本发明公开的用于识别场景的深度学习方法及自动学习巡检方法中,当用户开启“自动学习巡检”功能时,系统自动判别场景的时间和空间信息,然后自动记录场景视频并解析场景类别,再根据深度学习场景并生成研判报告,最后关闭或启动新一轮的“自动分级学习巡检”过程。相比现有技术中携带手持终端进行人工巡检的方式而言,本发明不仅能提高巡检效率,而且大大节省了人工成本,使得本发明在实际应用过程中更具智能化和自动化性能,较好地满足了城市巡检工作应用需求。
以上所述只是本发明较佳的实施例,并不用于限制本发明,凡在本发明的技术范围内所做的修改、等同替换或者改进等,均应包含在本发明所保护的范围内。
Claims (10)
1.一种用于识别场景的深度学习方法,其特征在于,包括有:
步骤S40,通过场景监控摄像头获取场景视频数据,对所述场景视频数据进行场景分析及图像识别;
步骤S41,对所述场景视频数据进行收集,利用决策树对所述场景视频数据中的场景特征进行解析和分类;
步骤S42,利用OCR算法对所述场景视频数据中的人、物进行识别,利用行人重识别算法对所述场景视频数据中的特定行人进行识别。
2.如权利要求1所述的用于识别场景的深度学习方法,其特征在于,所述步骤S40包括如下过程:
利用ITTI视觉显著性模型构建包含图像颜色、亮度和方向的高斯金字塔,利用所述高斯金字塔计算图像的亮度特征图、颜色特征图和方向特征图,再结合不同尺度的特征图获得亮度、颜色和方向皆显著的图像,相加处理后得到最终的视觉显著图像,实现自动场景识别功能。
3.如权利要求1所述的用于识别场景的深度学习方法,其特征在于,所述步骤S41包括如下过程:从初始场景视频数据开始,根据所述场景视频数据计算出所有可能特征的信息增益,选择信息增益最大的特征作为结点特征,由所述结点特征的不同取值建立子结点,再通过递归方法调用子结点来建立决策树,从而完成特征分类,以及实现视频解析。
4.如权利要求1所述的用于识别场景的深度学习方法,其特征在于,所述步骤S42中,对所述场景视频数据中的人、物进行识别的过程基于深度卷积神经网络实现,所述深度卷积神经网络首先在输入层中将视频或图像直接作为网络输入,通过训练提取特征,然后在卷积层中利用激活函数ELU将输入转变为非线性的表达方式,再通过池化层来缩小图片特征尺寸,最后,全连接层的输出取决于分类的个数。
5.如权利要求1所述的用于识别场景的深度学习方法,其特征在于,所述步骤S42中,对所述场景视频数据中特定行人进行识别的过程包括:先对视频或图像进行特征提取,获取在不同视频或图像中的行人变化特征,然后进行度量学习,将学习到的特征映射到新的空间,使相同的人特征距离更近,不同的人特征距离更远,最后进行匹配,根据行人的当前视频或图像查找不同视频或图像中出现该行人的画面。
6.一种自动学习巡检方法,其特征在于,包括有如下步骤:
步骤S1,启动“自动学习巡检”功能;
步骤S2,识别场景的时间和空间信息:对场景监控摄像头视频数据和网络信息进行自动解析,获取场景的时间和空间信息;
步骤S3,记录场景视频数据,并对场景进行分类;
步骤S4,针对场景视频数据进行深度学习并生成研判报告;
步骤S5,关闭或启动新的“自动学习巡检”功能。
7.如权利要求6所述的自动学习巡检方法,其特征在于,所述步骤S2中,识别场景时间和空间信息的过程包括:
步骤S20,开启“自动判别场景的时间和空间信息”功能;
步骤S21,基于ITTI视觉显著性模型实现自动场景识别功能;
步骤S21,结束“自动判别场景的时间和空间信息”功能。
8.如权利要求7所述的自动学习巡检方法,其特征在于,所述步骤S21包括如下过程:利用高斯采样方法构建包含图像颜色、亮度和方向的高斯金字塔,再利用高斯金字塔计算图像的亮度特征图、颜色特征图和方向特征图,结合不同尺度的特征图获得亮度、颜色和方向显著的图,相加处理后得到最终的视觉显著图,实现自动场景识别功能。
9.如权利要求6所述的自动学习巡检方法,其特征在于,所述步骤S3包括如下过程:
步骤S30,开启“自动记录并解析场景视频”功能;
步骤S31,利用ID3算法对场景进行分类,实现视频解析;
步骤S32,结束“自动记录并解析场景视频”功能。
10.如权利要求9所述的自动学习巡检方法,其特征在于,所述步骤S31中,利用ID3算法对场景分类的过程包括:
从初始场景视频开始,根据场景视频计算出所有可能特征的信息增益,选择信息增益最大的特征作为结点特征,由结点特征的不同取值建立子结点,再用递归方法调用子结点建立决策树,从而完成场景分类以及实现视频解析。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010676167.5A CN111832485A (zh) | 2020-07-14 | 2020-07-14 | 一种用于识别场景的深度学习方法及自动学习巡检方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010676167.5A CN111832485A (zh) | 2020-07-14 | 2020-07-14 | 一种用于识别场景的深度学习方法及自动学习巡检方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111832485A true CN111832485A (zh) | 2020-10-27 |
Family
ID=72923258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010676167.5A Pending CN111832485A (zh) | 2020-07-14 | 2020-07-14 | 一种用于识别场景的深度学习方法及自动学习巡检方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111832485A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633095A (zh) * | 2020-12-14 | 2021-04-09 | 公安部交通管理科学研究所 | 一种视频点位备案信息校验方法 |
CN113837403A (zh) * | 2021-08-27 | 2021-12-24 | 深圳市飞思捷跃科技有限公司 | 一种自学习物联网维保计划生成系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537010A (zh) * | 2014-12-17 | 2015-04-22 | 温州大学 | 基于决策树的网构软件中的构件分类方法 |
CN107256386A (zh) * | 2017-05-23 | 2017-10-17 | 东南大学 | 基于深度学习的人类行为分析方法 |
WO2018099473A1 (zh) * | 2016-12-02 | 2018-06-07 | 北京市商汤科技开发有限公司 | 场景分析方法和系统、电子设备 |
CN109149440A (zh) * | 2018-08-03 | 2019-01-04 | 国网辽宁省电力有限公司营口供电公司 | 一种输电线路智能巡检系统及巡检方法 |
US20190236373A1 (en) * | 2018-01-31 | 2019-08-01 | Guangzhou Institute Of Building Science Co., Ltd. | Data Transmission System of Safety Patrol on Construction Project Site Based on "Internet Plus" |
CN110415220A (zh) * | 2019-07-09 | 2019-11-05 | 国电大渡河瀑布沟发电有限公司 | 一种大型水电站的设备智能巡检方法 |
CN110796740A (zh) * | 2019-10-30 | 2020-02-14 | 佛山市艾温特智能科技有限公司 | 一种基于ar游戏的安全防护方法、系统和可读存储介质 |
CN111080832A (zh) * | 2019-12-27 | 2020-04-28 | 上海复亚智能科技有限公司 | 输电线路杆塔的巡检方法及系统 |
-
2020
- 2020-07-14 CN CN202010676167.5A patent/CN111832485A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537010A (zh) * | 2014-12-17 | 2015-04-22 | 温州大学 | 基于决策树的网构软件中的构件分类方法 |
WO2018099473A1 (zh) * | 2016-12-02 | 2018-06-07 | 北京市商汤科技开发有限公司 | 场景分析方法和系统、电子设备 |
CN107256386A (zh) * | 2017-05-23 | 2017-10-17 | 东南大学 | 基于深度学习的人类行为分析方法 |
US20190236373A1 (en) * | 2018-01-31 | 2019-08-01 | Guangzhou Institute Of Building Science Co., Ltd. | Data Transmission System of Safety Patrol on Construction Project Site Based on "Internet Plus" |
CN109149440A (zh) * | 2018-08-03 | 2019-01-04 | 国网辽宁省电力有限公司营口供电公司 | 一种输电线路智能巡检系统及巡检方法 |
CN110415220A (zh) * | 2019-07-09 | 2019-11-05 | 国电大渡河瀑布沟发电有限公司 | 一种大型水电站的设备智能巡检方法 |
CN110796740A (zh) * | 2019-10-30 | 2020-02-14 | 佛山市艾温特智能科技有限公司 | 一种基于ar游戏的安全防护方法、系统和可读存储介质 |
CN111080832A (zh) * | 2019-12-27 | 2020-04-28 | 上海复亚智能科技有限公司 | 输电线路杆塔的巡检方法及系统 |
Non-Patent Citations (1)
Title |
---|
冯文刚;吴绍忠;田华伟;肖延辉;: "警用视频分析的统一结构场模型研究", 中国人民公安大学学报(自然科学版), no. 04, 15 November 2014 (2014-11-15) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633095A (zh) * | 2020-12-14 | 2021-04-09 | 公安部交通管理科学研究所 | 一种视频点位备案信息校验方法 |
CN113837403A (zh) * | 2021-08-27 | 2021-12-24 | 深圳市飞思捷跃科技有限公司 | 一种自学习物联网维保计划生成系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110458077B (zh) | 一种车辆颜色识别方法及系统 | |
CN109977773B (zh) | 基于多目标检测3d cnn的人体行为识别方法及系统 | |
CN108022235B (zh) | 高压输电铁塔关键部件缺陷识别方法 | |
CN111797653A (zh) | 基于高维图像的图像标注方法和装置 | |
CN109190504B (zh) | 汽车图像数据的处理方法、装置及可读存储介质 | |
CN106339657B (zh) | 基于监控视频的秸秆焚烧监测方法、装置 | |
CN111832485A (zh) | 一种用于识别场景的深度学习方法及自动学习巡检方法 | |
CN111507324B (zh) | 卡片边框识别方法、装置、设备和计算机存储介质 | |
CN110458126B (zh) | 一种受电弓状态监测方法及装置 | |
CN112861845A (zh) | 车牌识别方法、装置、计算机设备和存储介质 | |
CN112052730B (zh) | 一种3d动态人像识别监控设备及方法 | |
CN112784835A (zh) | 圆形印章的真实性识别方法、装置、电子设备及存储介质 | |
CN113065568A (zh) | 目标检测、属性识别与跟踪方法及系统 | |
CN111461076A (zh) | 帧差法与神经网络结合的烟雾检测方法和检测系统 | |
CN107635188A (zh) | 一种基于Docker平台的视频车辆跟踪分析方法 | |
Kiew et al. | Vehicle route tracking system based on vehicle registration number recognition using template matching algorithm | |
CN110969173A (zh) | 目标分类方法及装置 | |
CN113139452A (zh) | 基于目标检测的使用手机行为的检测方法 | |
CN111199050B (zh) | 一种用于对病历进行自动脱敏的系统及应用 | |
CN108256401B (zh) | 一种获取目标属性特征语义的方法及装置 | |
CN114241348A (zh) | 基于多模块卷积神经网络的异常行为识别方法及装置 | |
CN113627477A (zh) | 车辆多属性识别方法及系统 | |
CN114549628A (zh) | 一种电力杆倾斜检测方法、装置、设备及存储介质 | |
KR101468566B1 (ko) | 저조도 영상에서의 말레이시아 차량 번호판 인식 방법과 그 시스템 | |
CN112714284A (zh) | 一种电力设备检测方法、装置及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |