CN117319610A - 基于高位全景相机区域增强的智慧城市道路监控方法 - Google Patents
基于高位全景相机区域增强的智慧城市道路监控方法 Download PDFInfo
- Publication number
- CN117319610A CN117319610A CN202311594580.7A CN202311594580A CN117319610A CN 117319610 A CN117319610 A CN 117319610A CN 202311594580 A CN202311594580 A CN 202311594580A CN 117319610 A CN117319610 A CN 117319610A
- Authority
- CN
- China
- Prior art keywords
- monitoring
- projection
- enhancement
- network
- panoramic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000002776 aggregation Effects 0.000 claims description 15
- 238000004220 aggregation Methods 0.000 claims description 15
- 230000008447 perception Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 230000002093 peripheral effect Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 230000001965 increasing effect Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 210000000887 face Anatomy 0.000 description 7
- 230000004927 fusion Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/182—Network patterns, e.g. roads or rivers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A30/00—Adapting or protecting infrastructure or their operation
- Y02A30/60—Planning or developing urban green infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明属于交通控制技术领域,涉及一种基于高位全景相机区域增强的智慧城市道路监控方法,先构建城市高位全景视频监控数据集,对高位全景视频监控进行等距投影和六面体投影后再进行融合,然后基于全局信息引导的局部信息融合,并采用人工标记生成局部推荐后进行基于广角度感受野的推荐区域增强,采用区域增强网络得到基于显著性区域推荐的全景监控内容推荐,最后动态调节监控内容和人工干预监控内容;能实现智慧城市全方位无死角的视频监控,高清晰度的观察推荐区域发生的事件,而且提供的监控推荐能够任意调节观看监控角度,并且能够观看的角度清晰,极大的方便城市管理,甚至可以应用于需要监控的其他场合,为智慧城市提供方便。
Description
技术领域
本发明属于交通控制技术领域,涉及一种基于高位全景相机区域增强的智慧城市道路监控方法。
背景技术
目前智慧城市正在不断建设中,伴随着经济的飞速发展和社会的不断进步,对智慧城市的要求逐步提升,而作为智慧城市的眼睛,道路监控显得非常的重要,目前,道路监控已经基本实现全覆盖,大规模监控的部署,让智慧城市的安全问题得到了解决,大规模的监控已经改变人们生活的方方面面。
在智慧城市虽然道路监控得到了大范围的布置,但是,其真正的意义并没有发挥出来,因为目前视频监控大多数为单方向监控,相对于全景监控来说,单方向监控更加方便且便宜,而全景监控需要更加复杂的系统支持,且要求安保人员随时调节监控方向才能更好的发挥监控的作用,因此,目前的全景监控仅仅作为普通监控的补充,往往通过全景监控寻找到指定物体之后,通过单方向监控跟踪,由于其复杂性,导致目前全景监控相关的研究较少。
然而全景监控视频能覆盖更多的范围,而普通监控视频存非常多的弊端,如无法观看到监范围外的区域,而全景监控能无死角监控,作为城市安全预警能提供更完备的建议,全景监控内容相关的应用将会迎来井喷式的发展。因此,亟需设计一种基于高位全景相机区域增强的智慧城市道路监控方法,用于提升监控安全预测的准确性。
发明内容
针对传统城市安全监控方式无法做到全方位无死角的监控,且对于高位监控来说局部区域放大会失真导致无法看清的问题,以及对于高位全景安全监控相关研究少的问题,本发明提出一种基于高位全景相机区域增强的智慧城市道路监控方法,实现对城市高位全景道路监控。
为实现上述目的,本发明通过以下技术方案实现:
S1、利用采集的全景摄像头视频段构建城市高位全景视频监控数据集;
S2、基于步骤S1构建的数据集,先采用等距投影(ERP投影)的方式将全景视频转化为平面图像处理,再在全局投影作为全局信息感知的基础上,通过六面体投影(CMP投影)的方式将全景视频转化为六面体的六个面;
S3、将等距投影(ERP)和六面体投影(CMP)融合;
S4、将六面体的六个面分别放到六个深度学习网络中提取局部无失真细节信息,同时为捕获物体全局信息,将物体的位置信息通过神经网络编码为特征向量,物体的语义特征同样被建模为基于物体位置信息的语义协同聚合;
S5、将全局和局部特征感知网络定义为局部和全局显著性区域推荐,在训练显著性区域推荐网络时,对网络输出与全景显著性推荐求损失,并反向调节局部和全局特征感知网络,同时在基于视点标记的显著性物体检测数据集(AVSOD60K)的基础上,生成物体外围框,并根据视点显著性值判定物体外围框的显著度,得到推荐区域;
S6、对步骤S5得到的推荐区域通过基于空间的信息增强和基于时序的信息增强两方面进行增强,增加推荐区域的清晰度;
S7、对区域增强网络进行训练,其中区域增强网络包含特征编码网络和特征解码网络,特征编码网络将输入信息逐步编码为高层信息,其特征随着网络深度加深而更加抽象,在特征解码网络中通过抽象特征像素级变化恢复出分辨率更高的增强图;
S8、输入全景监控视频,通过上述步骤将全景内容转化为2D平面内容后,再通过区域增强网络生成清晰的内容信息,得到推荐的全景监控内容,获得推荐窗口;
S9、如步骤S8获得的推荐窗口为安保人员想关注的内容,则保持窗口不变;如不是,安保人员将鼠标移动到物体上,并点击该关注的物体,将窗口视角决定权转变为自己控制,此时以此鼠标标记点为中心,形成针对中心为投影中心的投影窗口。
作为本发明的进一步技术方案,步骤S2的具体过程表示为:
,
其中和/>分别表示等距投影和六面体投影结果,/>和分别表示两种投影方式,/>表示来自于视频V的第i帧图片,j表示六面体投影的6个面的索引。
作为本发明的进一步技术方案,步骤S3的具体过程表示为:
,
其中、/>分别表示等距投影网络和六面体投影网络的输出。
作为本发明的进一步技术方案,步骤S4的具体过程为:
首先定义语义引导的全方位关系节点嵌入,其中,j表示六面体投影的6个面的索引,Concat代表等距投影特征和六面体特征特征聚合,Construct代表将特征通过1*1卷积操作转化为关系节点;
然后定义语义引导的全方位节点融合,其中,T表示矩阵转置,BN代表归一化处理(batchnormalize)。
作为本发明的进一步技术方案,步骤S6增强后的推荐区域为,其中,/>代表空间信息感知模块,/>代表时序信息感知模块,1-3代表连续3帧。
作为本发明的进一步技术方案,步骤S7所述区域增强网络的输出为,其中,/>代表广角度特征聚合,采用不同核大小的膨胀卷积构成,0-4代表共5个尺度的分支聚合,/>代表最终将5个广角度特征聚合后的特征转化为输出。
与现有技术相比,本发明的有益效果是:
本发明能实现智慧城市全方位无死角的视频监控,生成的视频监控能够生成重要事件和内容的区域推荐,基于此推荐能够高清晰度的观察推荐区域发生的事件,而且提供的监控推荐能够任意调节观看监控角度,并且能够观看的角度清晰,极大的方便城市管理,甚至可以应用于需要监控的其他场合,为智慧城市提供方便。
附图说明
图1为本发明提供的基于高位全景相机区域增强的智慧城市道路监控方法的流程示意图。
图2为本发明提供的基于语义引导全方位融合的高位全景相机区域增强方法的网络框架示意图。
具体实施方式
下面结合附图通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
实施例:
如图1-2所示,本实施例提供了一基于语义引导全方位融合的高位全景相机区域增强方法,首先基于等距投影和六面体投影的双流推荐算法生成局部区域推荐,局部推荐网络的训练标记来源于显著性物体和视点检测算法,利用生成的区域推荐作为输入,区域增强网络将像素级邻域范围内像素值迁移的方式增加区域分辨率,而邻域内像素值迁移基于广角度感受野实现,从而生成增强后的区域推荐,具体实施包括如下步骤:
S1、构建城市高位全景视频监控数据集:
利用采集的全景摄像头视频段构建城市高位全景视频监控数据集V;
S2、高位全景视频监控投影:
基于高位全景监控视频数据集V,先采用等距投影(ERP投影)的方式将全景视频转化为平面图像(Ferp)处理,从而提供视频中物体的相对位置以及语义协同等全局信息,从而保证视频全局信息不丢失,再在全局投影作为全局信息感知的基础上,引入六面体投影(CMP投影)的方式将全景视频转化为六面体的六个面(Fcmp),由于是相对于不同位置角度的投影,其每个面都不会存在扭曲和拉伸导致的失真,因此可以提供丰富的细节信息的补充,具体为:
,
其中和/>分别表示等距投影和六面体投影结果,/>和分别表示两种投影方式,/>表示来自于视频V的第i帧图片,j表示六面体投影的6个面的索引;
S3、等距投影(ERP)和六面体投影(CMP)融合:
等距投影能感知物体相对位置以及语义协同关系,虽然存在物体局部拉伸导致的失真,但是相对于图片全局信息来说,其能最大限度的保证物体全局信息不丢失,而六面体投影能保证物体局部区域不被拉伸,且物体不会发生形变,虽然会存在物体会被切割以及划分为6个面的过程中会丢失全局信息,但是其能最大限度的保证物体局部细节信息不丢失,因此,可以充分发挥二者的互补特性,将二者融合既能够保证物体局部不被拉伸,又能保证感知全局信息,具体为:
,
其中、/>分别表示等距投影网络和六面体投影网络的输出;
S4、基于全局信息引导的局部信息融合:
将六面体的六个面分别放到六个深度学习网络中提取局部无失真细节信息,而细节信息对于区域增强来说非常重要,丢失的全局信息可以通过等距投影补充,从而保证物体间相对位置不变以及语义协同关联的同时,增强对局部细节内容的提取,为捕获物体全局信息,将位置信息通过神经网络编码为特征向量,同时,物体的语义特征同样被建模为基于物体位置信息的语义协同聚合;具体为:
首先定义语义引导的全方位关系节点嵌入,其中,j表示六面体投影的6个面的索引,Concat代表等距投影特征和六面体特征特征聚合,Construct代表将特征通过1*1卷积操作转化为关系节点;
然后定义语义引导的全方位节点融合,其中,T表示矩阵转置,BN代表归一化处理(batchnormalize);
S5、局部区域推荐人工标记生成:
将全局和局部特征感知双流网络定义为局部和全局显著性区域推荐,训练双流显著性区域推荐网络,将网络输出与全景显著性推荐求损失,并反向调节局部全局双流显著性感知网络;为制定人工标记的显著性区域推荐,在基于视点标记的显著性物体检测数据集(AVSOD60K)的基础上,生成物体外围框,并根据视点显著性值判定物体外围框的显著度,具体为:,其中,Rank代表将视点Fixation根据视点强度生成排名,/>代表获取显著性物体/>外围边界框;
S6、基于广角度感受野的推荐区域增强:
通过步骤S5生成的推荐区域由于全景视频分辨率的原因,在需要局部区域放大的时候,存在分辨率低导致的无法看清的问题,因此需要将生成的推荐区域增强,以保证能够看清;
为增加推荐区域的清晰度,需要将局部区域信息增强,局部区域信息增强来源于基于空间的信息增强和基于时序的信息增强两个方面:,其中,代表空间信息感知模块,/>代表时序信息感知模块,1-3代表连续3帧;
S7、区域增强网络训练:
区域增强网络包含特征编码网络和特征解码网络,特征编码网络将输入信息逐步编码为高层信息,其特征随着网络深度加深而更加抽象,而本实施例的目的为利用特征由浅入深的方式感知物体尺度信息,同时感知物体抽象过程中像素的变化,从而在解码网络中,能够通过抽象特征像素级变化恢复出分辨率更高的增强图,特征的增强需要兼顾空间信息的同时兼顾时序信息,从而确保解码层中有足够的像素级信息恢复出更高分辨率的增强图,本实施例采用广角度感受野增强的方式为解码提供更多像素信息,区域增强网络的输出为,其中,/>代表广角度特征聚合,采用不同核大小的膨胀卷积构成,0-4代表共5个尺度的分支聚合,/>代表最终将5个广角度特征聚合后的特征转化为输出;
S8、基于显著性区域推荐的全景监控内容推荐:
输入全景监控视频,通过上述步骤将全景内容转化为2D平面内容后,再通过区域增强网络生成清晰的内容信息,得到推荐的全景监控内容;
S9、动态调节监控内容和人工干预监控内容:
通过上述方式获得的推荐的全景监控内容为程序推荐内容,如果直接播放程序推荐的窗口在大多数情况下是符合人眼的,但是,仍然存在部分窗口可能并不是安保人员真正想关注的内容,如安保人员可能想观看非显著的区域,如,城市建筑物,街道旁边的景色;如果安保人员需要将窗口视角决定权转变为自己控制,则需要将鼠标移动到物体上,并点击该关注的物体,此时,程序会以此鼠标标记点为中心,形成针对中心为投影中心的投影窗口,并基于此窗口提供后续监控。
本文中未详细描述的网络结构、算法均为本领域通用技术。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。
Claims (6)
1.一种基于高位全景相机区域增强的智慧城市道路监控方法,其特征在于,包括以下步骤:
S1、利用采集的全景摄像头视频段构建城市高位全景视频监控数据集;
S2、基于步骤S1构建的数据集,先采用等距投影的方式将全景视频转化为平面图像处理,再在全局投影作为全局信息感知的基础上,通过六面体投影的方式将全景视频转化为六面体的六个面;
S3、将等距投影和六面体投影融合;
S4、将六面体的六个面分别放到六个深度学习网络中提取局部无失真细节信息,同时为捕获物体全局信息,将物体的位置信息通过神经网络编码为特征向量,物体的语义特征同样被建模为基于物体位置信息的语义协同聚合;
S5、将全局和局部特征感知网络定义为局部和全局显著性区域推荐,在训练显著性区域推荐网络时,对网络输出与全景显著性推荐求损失,并反向调节局部和全局特征感知网络,同时在基于视点标记的显著性物体检测数据集的基础上,生成物体外围框,并根据视点显著性值判定物体外围框的显著度,得到推荐区域;
S6、对步骤S5得到的推荐区域通过基于空间的信息增强和基于时序的信息增强两方面进行增强,增加推荐区域的清晰度;
S7、对区域增强网络进行训练,其中区域增强网络包含特征编码网络和特征解码网络,特征编码网络将输入信息逐步编码为高层信息,其特征随着网络深度加深而更加抽象,在特征解码网络中通过抽象特征像素级变化恢复出分辨率更高的增强图;
S8、输入全景监控视频,通过上述步骤将全景内容转化为2D平面内容后,再通过区域增强网络生成清晰的内容信息,得到推荐的全景监控内容,获得推荐窗口;
S9、如步骤S8获得的推荐窗口为安保人员想关注的内容,则保持窗口不变;如不是,安保人员将鼠标移动到物体上,并点击该关注的物体,将窗口视角决定权转变为自己控制,此时以此鼠标标记点为中心,形成针对中心为投影中心的投影窗口。
2.根据权利要求1所述基于高位全景相机区域增强的智慧城市道路监控方法,其特征在于,步骤S2的具体过程表示为:
,
其中和/>分别表示等距投影和六面体投影结果,/>和/>分别表示两种投影方式,/>表示来自于视频V的第i帧图片,j表示六面体投影的6个面的索引。
3.根据权利要求2所述基于高位全景相机区域增强的智慧城市道路监控方法,其特征在于,步骤S3的具体过程表示为:
,
其中、/>分别表示等距投影网络和六面体投影网络的输出。
4.根据权利要求3所述基于高位全景相机区域增强的智慧城市道路监控方法,其特征在于,步骤S4的具体过程为:
首先定义语义引导的全方位关系节点嵌入,其中,j表示六面体投影的6个面的索引,Concat代表等距投影特征和六面体特征聚合,Construct代表将特征通过1*1卷积操作转化为关系节点;
然后定义语义引导的全方位节点融合,其中,T表示矩阵转置,BN代表归一化处理。
5.根据权利要求4所述基于高位全景相机区域增强的智慧城市道路监控方法,其特征在于,步骤S6增强后的推荐区域为,其中,/>代表空间信息感知模块,/>代表时序信息感知模块,1-3代表连续3帧。
6.根据权利要求5所述基于高位全景相机区域增强的智慧城市道路监控方法,其特征在于,步骤S7所述区域增强网络的输出为,其中,/>代表广角度特征聚合,采用不同核大小的膨胀卷积构成,0-4代表共5个尺度的分支聚合,/>代表最终将5个广角度特征聚合后的特征转化为输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311594580.7A CN117319610B (zh) | 2023-11-28 | 2023-11-28 | 基于高位全景相机区域增强的智慧城市道路监控方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311594580.7A CN117319610B (zh) | 2023-11-28 | 2023-11-28 | 基于高位全景相机区域增强的智慧城市道路监控方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117319610A true CN117319610A (zh) | 2023-12-29 |
CN117319610B CN117319610B (zh) | 2024-01-30 |
Family
ID=89273898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311594580.7A Active CN117319610B (zh) | 2023-11-28 | 2023-11-28 | 基于高位全景相机区域增强的智慧城市道路监控方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117319610B (zh) |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170336705A1 (en) * | 2016-05-19 | 2017-11-23 | Avago Technologies General Ip (Singapore) Pte. Ltd. | 360 degree video capture and playback |
AU2020101435A4 (en) * | 2020-07-21 | 2020-08-27 | Southwest University | A panoramic vision system based on the uav platform |
US20200374558A1 (en) * | 2017-10-23 | 2020-11-26 | Lg Electronics Inc. | Image decoding method and device using rotation parameters in image coding system for 360-degree video |
CN112449093A (zh) * | 2020-11-05 | 2021-03-05 | 北京德火科技有限责任公司 | 一种三维全景视频融合监控平台 |
CN113177518A (zh) * | 2021-05-24 | 2021-07-27 | 西安建筑科技大学 | 一种利用弱监督区域推荐的车辆重识别方法 |
KR20210096473A (ko) * | 2020-01-28 | 2021-08-05 | 인하대학교 산학협력단 | 신뢰도 추정을 통한 글로벌 및 로컬 검색을 기반으로 한 견고한 시각적 물체 추적 |
CN114648482A (zh) * | 2020-12-19 | 2022-06-21 | 中国科学院深圳先进技术研究院 | 立体全景图像的质量评价方法、系统 |
CN114708521A (zh) * | 2022-04-07 | 2022-07-05 | 中南大学 | 基于街景图像目标关系感知网络的城市功能区识别方法及系统 |
CN114745528A (zh) * | 2022-06-13 | 2022-07-12 | 松立控股集团股份有限公司 | 一种高位全景视频安全监控方法 |
CN114913434A (zh) * | 2022-06-02 | 2022-08-16 | 大连理工大学 | 一种基于全局关系推理的高分辨率遥感影像变化检测方法 |
CN115423812A (zh) * | 2022-11-05 | 2022-12-02 | 松立控股集团股份有限公司 | 一种全景监控平面化展示方法 |
CN115564969A (zh) * | 2022-10-10 | 2023-01-03 | 华南理工大学 | 一种全景图显著性预测方法、设备及存储介质 |
CN115631121A (zh) * | 2022-10-31 | 2023-01-20 | 电子科技大学 | 一种基于自监督学习的全景图像显著性预测方法 |
CN115861878A (zh) * | 2022-11-24 | 2023-03-28 | 松立控股集团股份有限公司 | 基于迭代精细化的全景安全监控城市异常事件检测方法 |
CN116052095A (zh) * | 2023-03-31 | 2023-05-02 | 松立控股集团股份有限公司 | 一种用于智慧城市全景视频监控的车辆重识别方法 |
CN116185179A (zh) * | 2022-12-29 | 2023-05-30 | 浙江工业大学 | 基于众包眼动数据的全景图视觉显著性预测方法和系统 |
CN116542889A (zh) * | 2023-05-06 | 2023-08-04 | 电子科技大学 | 一种拥有稳定视点的全景视频增强方法 |
CN116561424A (zh) * | 2023-05-12 | 2023-08-08 | 云南大学 | 一种应用于智能推荐系统的图神经网络结合Transformer的推荐方法 |
US11763485B1 (en) * | 2022-04-20 | 2023-09-19 | Anhui University of Engineering | Deep learning based robot target recognition and motion detection method, storage medium and apparatus |
CN116778186A (zh) * | 2023-05-26 | 2023-09-19 | 深圳大学 | 全景图像显著性对象的检测方法、装置、设备及存储介质 |
WO2023182987A1 (en) * | 2022-03-23 | 2023-09-28 | Google Llc | Multi-resolution transformer for video quality assessment |
CN117058546A (zh) * | 2023-08-16 | 2023-11-14 | 湖南星图空间信息技术有限公司 | 全局局部细节感知条件随机场的高分辨率遥感影像建筑物提取方法 |
-
2023
- 2023-11-28 CN CN202311594580.7A patent/CN117319610B/zh active Active
Patent Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170336705A1 (en) * | 2016-05-19 | 2017-11-23 | Avago Technologies General Ip (Singapore) Pte. Ltd. | 360 degree video capture and playback |
US20200374558A1 (en) * | 2017-10-23 | 2020-11-26 | Lg Electronics Inc. | Image decoding method and device using rotation parameters in image coding system for 360-degree video |
KR20210096473A (ko) * | 2020-01-28 | 2021-08-05 | 인하대학교 산학협력단 | 신뢰도 추정을 통한 글로벌 및 로컬 검색을 기반으로 한 견고한 시각적 물체 추적 |
AU2020101435A4 (en) * | 2020-07-21 | 2020-08-27 | Southwest University | A panoramic vision system based on the uav platform |
CN112449093A (zh) * | 2020-11-05 | 2021-03-05 | 北京德火科技有限责任公司 | 一种三维全景视频融合监控平台 |
CN114648482A (zh) * | 2020-12-19 | 2022-06-21 | 中国科学院深圳先进技术研究院 | 立体全景图像的质量评价方法、系统 |
WO2022126674A1 (zh) * | 2020-12-19 | 2022-06-23 | 中国科学院深圳先进技术研究院 | 立体全景图像的质量评价方法、系统 |
CN113177518A (zh) * | 2021-05-24 | 2021-07-27 | 西安建筑科技大学 | 一种利用弱监督区域推荐的车辆重识别方法 |
WO2023182987A1 (en) * | 2022-03-23 | 2023-09-28 | Google Llc | Multi-resolution transformer for video quality assessment |
CN114708521A (zh) * | 2022-04-07 | 2022-07-05 | 中南大学 | 基于街景图像目标关系感知网络的城市功能区识别方法及系统 |
US11763485B1 (en) * | 2022-04-20 | 2023-09-19 | Anhui University of Engineering | Deep learning based robot target recognition and motion detection method, storage medium and apparatus |
CN114913434A (zh) * | 2022-06-02 | 2022-08-16 | 大连理工大学 | 一种基于全局关系推理的高分辨率遥感影像变化检测方法 |
CN114745528A (zh) * | 2022-06-13 | 2022-07-12 | 松立控股集团股份有限公司 | 一种高位全景视频安全监控方法 |
CN115564969A (zh) * | 2022-10-10 | 2023-01-03 | 华南理工大学 | 一种全景图显著性预测方法、设备及存储介质 |
CN115631121A (zh) * | 2022-10-31 | 2023-01-20 | 电子科技大学 | 一种基于自监督学习的全景图像显著性预测方法 |
CN115423812A (zh) * | 2022-11-05 | 2022-12-02 | 松立控股集团股份有限公司 | 一种全景监控平面化展示方法 |
CN115861878A (zh) * | 2022-11-24 | 2023-03-28 | 松立控股集团股份有限公司 | 基于迭代精细化的全景安全监控城市异常事件检测方法 |
CN116185179A (zh) * | 2022-12-29 | 2023-05-30 | 浙江工业大学 | 基于众包眼动数据的全景图视觉显著性预测方法和系统 |
CN116052095A (zh) * | 2023-03-31 | 2023-05-02 | 松立控股集团股份有限公司 | 一种用于智慧城市全景视频监控的车辆重识别方法 |
CN116542889A (zh) * | 2023-05-06 | 2023-08-04 | 电子科技大学 | 一种拥有稳定视点的全景视频增强方法 |
CN116561424A (zh) * | 2023-05-12 | 2023-08-08 | 云南大学 | 一种应用于智能推荐系统的图神经网络结合Transformer的推荐方法 |
CN116778186A (zh) * | 2023-05-26 | 2023-09-19 | 深圳大学 | 全景图像显著性对象的检测方法、装置、设备及存储介质 |
CN117058546A (zh) * | 2023-08-16 | 2023-11-14 | 湖南星图空间信息技术有限公司 | 全局局部细节感知条件随机场的高分辨率遥感影像建筑物提取方法 |
Non-Patent Citations (2)
Title |
---|
"360度全景监控系统解决方案", 数字社区&智能家居, no. 04 * |
邹香玲;门威;: "智慧视频感知中复杂环境下目标检测的研究", 河南广播电视大学学报, no. 03 * |
Also Published As
Publication number | Publication date |
---|---|
CN117319610B (zh) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220044375A1 (en) | Saliency Map Enhancement-Based Infrared and Visible Light Fusion Method | |
CN103945208B (zh) | 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法 | |
CN113191953B (zh) | 一种基于Transformer的人脸图像超分辨的方法 | |
CN111368846B (zh) | 一种基于边界语义分割的道路积水识别方法 | |
WO2021177324A1 (ja) | 画像生成装置、画像生成方法、記録媒体生成方法、学習モデル生成装置、学習モデル生成方法、学習モデル、データ処理装置、データ処理方法、推論方法、電子機器、生成方法、プログラム及び非一時的コンピュータ可読媒体 | |
CN106952286A (zh) | 基于运动显著图和光流矢量分析的动态背景目标分割方法 | |
CN107808140B (zh) | 一种基于图像融合的单目视觉道路识别算法 | |
CN103971354A (zh) | 低分辨率红外图像重建高分辨率红外图像的方法 | |
CN103729620A (zh) | 一种基于多视角贝叶斯网络的多视角行人检测方法 | |
Yan et al. | NLFNet: Non-local fusion towards generalized multimodal semantic segmentation across RGB-depth, polarization, and thermal images | |
De Carvalho et al. | Rethinking panoptic segmentation in remote sensing: A hybrid approach using semantic segmentation and non-learning methods | |
CN115423812A (zh) | 一种全景监控平面化展示方法 | |
Huang et al. | Change detection with absolute difference of multiscale deep features | |
Wang et al. | Paccdu: pyramid attention cross-convolutional dual unet for infrared and visible image fusion | |
Qiu et al. | Priorlane: A prior knowledge enhanced lane detection approach based on transformer | |
CN103646397A (zh) | 基于多源数据融合的实时合成孔径透视成像方法 | |
CN117319610B (zh) | 基于高位全景相机区域增强的智慧城市道路监控方法 | |
CN115049935B (zh) | 一种城市违章建筑分割检测方法 | |
CN103903269B (zh) | 球机监控视频的结构化描述方法和系统 | |
CN111726535A (zh) | 基于车辆感知的智慧城市cim视频大数据画质控制方法 | |
CN116310916A (zh) | 一种高分辨率遥感城市图像语义分割方法及系统 | |
Liu et al. | Indoor privacy-preserving action recognition via partially coupled convolutional neural network | |
Li et al. | SPN2D-GAN: semantic prior based night-to-day image-to-image translation | |
CN113284042B (zh) | 一种多路并行图像内容特征优化风格迁移方法及系统 | |
Fang et al. | Artificial Intelligence: Second CAAI International Conference, CICAI 2022, Beijing, China, August 27–28, 2022, Revised Selected Papers, Part I |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |