CN116664555A - 实时应用场景下的神经网络切片部署方法、系统 - Google Patents
实时应用场景下的神经网络切片部署方法、系统 Download PDFInfo
- Publication number
- CN116664555A CN116664555A CN202310920521.8A CN202310920521A CN116664555A CN 116664555 A CN116664555 A CN 116664555A CN 202310920521 A CN202310920521 A CN 202310920521A CN 116664555 A CN116664555 A CN 116664555A
- Authority
- CN
- China
- Prior art keywords
- frame
- slice
- information
- module
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000000295 complement effect Effects 0.000 claims abstract description 22
- 238000004458 analytical method Methods 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000010191 image analysis Methods 0.000 abstract description 4
- 239000000284 extract Substances 0.000 abstract description 3
- 238000012805 post-processing Methods 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 abstract description 2
- 238000003709 image segmentation Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 239000013589 supplement Substances 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Neurology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种实时应用场景下的神经网络切片部署方法、系统,对视频流当前帧的各切片进行切片帧补全,得到每个切片的补全帧,在各切片的补全帧上进行神经网络推理,推理完成后抽取当前切片的分析结果。本发明主要是应用于基于神经网络的场景分析,比如显著区域检测,图像分割等任务,并使用自信息,帧间信息,帧内信息对切片进行补全,补全后应用神经网络进行图像分析,然后抽取分析后的结果,以支持后续的实时后处理和编码流程,解决了实时神经网络部署中帧信息不完整的问题。
Description
技术领域
本发明属于神经网络应用技术领域,具体涉及一种实时应用场景下的神经网络切片部署方法、系统。
背景技术
近年来,神经网络以其强大的性能而广泛应用于场景分析和视频处理。但是,在低延迟的实时应用场景中,基于神经网络的方案往往受限于吞吐量的限制。换言之,由于吞吐量的制约,神经网络无法获得完整的帧信息进行进一步的分析和处理,只能基于部分帧信息(切片)进行操作。
但是因为神经网络在特征工程(通过原始数据提取特征)中会使用到局部和全局信息,基于切片的分析操作可能会导致结果的误差大。
发明内容
本发明针对实时场景中神经网络由于吞吐量的限制只能使用切片信息进行分析导致误差大的问题,提供一种实时应用场景下的神经网络切片部署方法、系统。对于低延迟的实时应用场景,对切片使用自信息、帧内信息和帧间信息进行帧补全,补全后用神经网络进行图像分析,抽取分析结果来支持后续的后处理或编码流程。
为解决上述技术问题,本发明所采用的技术方案为:
一种实时应用场景下的神经网络切片部署方法,对视频流当前帧的各切片进行切片帧补全,得到每个切片的补全帧,在各切片的补全帧上进行神经网络推理,推理完成后抽取当前切片的分析结果。
作为本发明的优选方案,所述的切片帧补全方法为:
获取视频流的D个帧,每个帧具有N*M个切片,且完整帧以N*M切片形式展现;
令第d帧为当前帧,第k个切片为当前切片,d∈[1,D],k∈[1,N*M];
若第d帧为第一帧,则对第d帧各切片的帧补全为:
对于第k个切片,缺失的前k-1个切片信息以自信息补全,缺失的后N*M-k个切片信息以帧内信息补全;
若第d帧不是第一帧,则对第d帧各切片的帧补全为:
对于第k个切片,缺失的前k-1个切片信息以自信息补全,缺失的后N*M-k个切片信息则根据当前切片与前一帧对应切片在直方图分布的相似度选择帧内信息补全还是帧间信息补全;
当相似度大于设定阈值则使用帧间信息补全,当相似度小于设定阈值则使用帧内信息补全。
作为本发明的一种优选方案,所述的自信息是当前帧已有的切片信息;
所述的帧内信息是在视频流的先验知识下,基于当前帧已有切片信息的估计;当前帧的第k个切片为当前切片,缺失的后N*M-k个切片信息使用前k个切片信息作为需补全切片的信息进行补全,假定要分析第d帧的第二个切片,在分析第二个切片的时候,第一个切片已经得到了,所以,我们会把第一个切片用做第二个切片的自信息补全。
所述的帧间信息是在视频流的先验知识下,基于相同场景临近帧的估计;意思是使用相同场景的前帧信息进行补全,譬如要分析第d帧的第二个切片,需要补全第d帧的第三个切片,如果第d帧的第二个切片和第d-1帧的第二个切片直方图分布类似,我们就认为第d帧和第d-1帧场景相同。然后,我们会用第d-1帧的第三个切片来补全第d帧的第三个切片。
本发明还提供了一种实时应用场景下的神经网络切片部署系统,包括预处理模块,用于从视频流中获得D个帧的各切片;
自信息模块,获得第d帧已有的切片信息;
帧内信息模块,获得第d帧已有的切片信息并在先验知识的基础上对第d帧已有的切片信息进行估计;
帧间信息模块,基于相同场景对第d帧的前一帧的切片信息进行估计;
首帧判断模块,判断第d帧是否为第一帧;
相似度比较模块,对临近两帧同一切片的直方图分布的相似度进行比较;
补全模块,若首帧判断模块判断第d帧为第一帧时,则对第d帧的第k个切片缺少的前k-1个切片信息以自信息模块的结果进行补全;缺失的后N*M-k个切片信息以帧内信息模块的结果补全;
若首帧判断模块判断第d帧不是第一帧时,则对于第k个切片,缺失的前k-1个切片信息以自信息模块的结果补全,缺失的后N*M-k个切片信息则根据相似度比较模块的比较结果选择;
当相似度大于设定阈值则使用帧间信息模块的结果补全,当相似度小于设定阈值则使用帧内信息模块的结果补全;
神经网络模块,对补全模块补全获得的各切片的补全帧进行神经网络推理并获得各切片的分析结果。
本发明还提供了一种计算机系统,包括存储器、处理器和存储在存储器上并可运行的计算机程序,所述计算机程序被加载至处理器时实现上述神经网络切片部署方法。
本发明主要是应用于基于神经网络的场景分析,比如显著区域检测,图像分割等任务,并使用自信息,帧间信息,帧内信息对切片进行补全,补全后应用神经网络进行图像分析,然后抽取分析后的结果,以支持后续的实时后处理和编码流程,解决了实时神经网络部署中帧信息不完整的问题。
附图说明
图1为以ROI为例展示的本发明的原理图。
图2为本发明以2*2切片下展示的帧补全原理图。
图3为以ROI为例基于完整帧信息、的ROI结果图。
图4为基于切片信息和的ROI结果图。
图5为本发明的对比ROI结果图。
具体实施方式
一种实时应用场景下的神经网络切片部署方法,可以解决在实时应用场景中吞吐量受限制的问题,通过对视频流当前帧的各切片进行切片帧补全,得到每个切片的补全帧,在各切片的补全帧上进行神经网络推理,推理完成后抽取当前切片的分析结果。
以感兴趣区域(ROI)为例,如图1所示,利用视频流的先验知识将切片补全为完整帧,然后在补全帧上进行神经网络推理,推理完成后抽取当前切片的相关分析结果。并且在帧补全的过程中用到了三种信息:自信息,帧间信息,帧内信息。其中自信息是当前帧已有的切片信息;帧间信息是基于相同场景临近帧的估计;帧内信息是基于当前帧已有信息的估计。
对于切片补全为完整帧使用的方法是:
获取视频流的D个帧,每个帧具有N*M个切片,且完整帧以N*M切片形式展现;本实施例以2*2切片为例;
如图2所示,每一帧都具有切片A、切片B、切片C和切片D;
对于第一帧,因为没有帧间信息,补全帧的信息来源于自信息和帧内信息。具体而言,对于切片A缺失的切片B、切片C和切片D都是使用帧内信息来补充,因为切片A只有切片A信息,所以切片A所缺失的切片B、切片C和切片D信息都是根据切片A得到的帧内信息;
而切片B缺失切片A、切片C和切片D,因为这一帧中切片A信息有,所有以切片A的自信息来作为切片B缺失的切片A信息,切片C和切片D则是使用帧内信息来补充,本实施例中切片C以切片A为基础得到的帧内信息,切片D是以切片B为基础得到的帧内信息;
切片C缺失切片A、切片B和切片D,缺失的切片A和切片B则以切片A和切片B的自信息来补全,切片D则是以切片B为基础的帧内信息;
切片D缺失切片A、切片B、切片C,缺失的切片A、切片B和切片C以切片A、切片B和切片C的自信息来补全。
对于第二帧,因为同一场景的前一帧存在,切片的缺失信息由自信息和帧间信息补全。
具体是对于切片A,缺失的切片B、切片C和切片D以第一帧对应切片的帧间信息来补全,即缺失的切片B以上一帧的切片B为基础得到的帧间信息;缺失的切片C以上一帧的切片C为基础得到的帧间信息;缺失的切片D以上一帧的切片D为基础得到的帧间信息;
对于切片B,缺失切片A、切片C和切片D,对于缺失的切片A则以切片A的自信息补全,缺失的切片C以上一帧的切片C为基础得到的帧间信息;缺失的切片D以上一帧的切片D为基础得到的帧间信息;
对于切片C,缺失切片A、切片B和切片D,缺失的切片A和切片B则以切片A和切片B的自信息来补全,缺失的切片D以上一帧的切片D为基础得到的帧间信息;
对于切片D,缺失切片A、切片B、切片C,缺失的切片A、切片B和切片C以切片A、切片B和切片C的自信息来补全。
每个帧的各切片补全后都使用神经网络进行图像分析,分析后提取分析结果,在ROI为例,基于完整帧信息、的分析结果如图3所示,基于切片信息和的分析结果如图4所示,而本发明获得的分析结果对比图如图3所示,图3、图4和图5比较可以看出,本发明基于不完整的切片信息,使用本发明的方案后可以得到和基于完整帧信息相近的分析结果。
基于相同的发明构思,本发明实施例提供的一种实时应用场景下的神经网络切片部署方法,包括预处理模块,用于从视频流中获得D个帧的各切片;
自信息模块,获得第d帧已有的切片信息;
帧内信息模块,获得第d帧已有的切片信息并在先验知识的基础上对第d帧已有的切片信息进行估计;
帧间信息模块,基于相同场景对第d帧的前一帧的切片信息进行估计;
首帧判断模块,判断第d帧是否为第一帧;
相似度比较模块,对临近两帧同一切片的直方图分布的相似度进行比较;
补全模块,若首帧判断模块判断第d帧为第一帧时,则对第d帧的第k个切片缺少的前k-1个切片信息以自信息模块的结果进行补全;缺失的后N*M-k个切片信息以帧内信息模块的结果补全;
若首帧判断模块判断第d帧不是第一帧时,则对于第k个切片,缺失的前k-1个切片信息以自信息模块的结果补全,缺失的后N*M-k个切片信息则根据相似度比较模块的比较结果选择;
当相似度大于设定阈值则使用帧间信息模块的结果补全,当相似度小于设定阈值则使用帧内信息模块的结果补全;
神经网络模块,对补全模块补全获得的各切片的补全帧进行神经网络推理并获得各切片的分析结果。
基于相同的发明构思,本发明实施例提供的一种计算机系统,包括存储器、处理器和存储在存储器上并可运行的计算机程序,所述计算机程序被加载至处理器时实现所述的神经网络切片部署方法。
Claims (5)
1.一种实时应用场景下的神经网络切片部署方法,其特征在于:对视频流当前帧的各切片进行切片帧补全,得到每个切片的补全帧,在各切片的补全帧上进行神经网络推理,推理完成后抽取当前切片的分析结果。
2.根据权利要求1所述的实时应用场景下的神经网络切片部署方法,其特征在于,所述的切片帧补全方法为:
获取视频流的D个帧,每个帧具有N*M个切片,且完整帧以N*M切片形式展现;
令第d帧为当前帧,第k个切片为当前切片,d∈[1,D],k∈[1,N*M];
若第d帧为第一帧,则对第d帧各切片的帧补全为:
对于第k个切片,缺失的前k-1个切片信息以自信息补全,缺失的后N*M-k个切片信息以帧内信息补全;
若第d帧不是第一帧,则对第d帧各切片的帧补全为:
对于第k个切片,缺失的前k-1个切片信息以自信息补全,缺失的后N*M-k个切片信息则根据当前切片与前一帧对应切片在直方图分布的相似度选择帧内信息补全还是帧间信息补全;
当相似度大于设定阈值则使用帧间信息补全,当相似度小于设定阈值则使用帧内信息补全。
3.根据权利要求2所述的实时应用场景下的神经网络切片部署方法,其特征在于:所述的自信息是当前帧已有的切片信息;
所述的帧内信息是在视频流的先验知识下,基于当前帧已有切片信息的估计;
所述的帧间信息是在视频流的先验知识下,基于相同场景临近帧的估计。
4.一种实时应用场景下的神经网络切片部署系统,其特征在于:包括预处理模块,用于从视频流中获得D个帧的各切片;
自信息模块,获得第d帧已有的切片信息;
帧内信息模块,获得第d帧已有的切片信息并在先验知识的基础上对第d帧已有的切片信息进行估计;
帧间信息模块,基于相同场景对第d帧的前一帧的切片信息进行估计;
首帧判断模块,判断第d帧是否为第一帧;
相似度比较模块,对临近两帧同一切片的直方图分布的相似度进行比较;
补全模块,若首帧判断模块判断第d帧为第一帧时,则对第d帧的第k个切片缺少的前k-1个切片信息以自信息模块的结果进行补全;缺失的后N*M-k个切片信息以帧内信息模块的结果补全;
若首帧判断模块判断第d帧不是第一帧时,则对于第k个切片,缺失的前k-1个切片信息以自信息模块的结果补全,缺失的后N*M-k个切片信息则根据相似度比较模块的比较结果选择;
当相似度大于设定阈值则使用帧间信息模块的结果补全,当相似度小于设定阈值则使用帧内信息模块的结果补全;
神经网络模块,对补全模块补全获得的各切片的补全帧进行神经网络推理并获得各切片的分析结果。
5.一种计算机系统,包括存储器、处理器和存储在存储器上并可运行的计算机程序,其特征在于:所述计算机程序被加载至处理器时实现如权利要求1或2或3所述的神经网络切片部署方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310920521.8A CN116664555B (zh) | 2023-07-26 | 2023-07-26 | 实时应用场景下的神经网络切片部署方法、系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310920521.8A CN116664555B (zh) | 2023-07-26 | 2023-07-26 | 实时应用场景下的神经网络切片部署方法、系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116664555A true CN116664555A (zh) | 2023-08-29 |
CN116664555B CN116664555B (zh) | 2024-02-06 |
Family
ID=87724439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310920521.8A Active CN116664555B (zh) | 2023-07-26 | 2023-07-26 | 实时应用场景下的神经网络切片部署方法、系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116664555B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007195080A (ja) * | 2006-01-23 | 2007-08-02 | Victor Co Of Japan Ltd | 動画像復号化装置及び動画像復号化プログラム |
CN101292864A (zh) * | 2008-05-28 | 2008-10-29 | 青岛大学医学院附属医院 | 人体疾病信息手区成像的影像表达测定方法及其装置 |
CN108447021A (zh) * | 2018-03-19 | 2018-08-24 | 河北工业大学 | 基于分块和逐帧优化的视频缩放方法 |
US20200162736A1 (en) * | 2018-11-15 | 2020-05-21 | Electronics And Telecommunications Research Institute | Method and apparatus for image processing using quantization parameter |
CN113256585A (zh) * | 2021-05-24 | 2021-08-13 | 北京理工大学 | 基于时空张量分解的红外视频运动小目标实时检测方法 |
CN113345062A (zh) * | 2021-08-04 | 2021-09-03 | 成都市谛视科技有限公司 | 三维虚拟角色动作补全方法、装置和服务器 |
CN113345061A (zh) * | 2021-08-04 | 2021-09-03 | 成都市谛视科技有限公司 | 动作补全模型的训练方法、装置、补全方法、设备和介质 |
-
2023
- 2023-07-26 CN CN202310920521.8A patent/CN116664555B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007195080A (ja) * | 2006-01-23 | 2007-08-02 | Victor Co Of Japan Ltd | 動画像復号化装置及び動画像復号化プログラム |
CN101292864A (zh) * | 2008-05-28 | 2008-10-29 | 青岛大学医学院附属医院 | 人体疾病信息手区成像的影像表达测定方法及其装置 |
CN108447021A (zh) * | 2018-03-19 | 2018-08-24 | 河北工业大学 | 基于分块和逐帧优化的视频缩放方法 |
US20200162736A1 (en) * | 2018-11-15 | 2020-05-21 | Electronics And Telecommunications Research Institute | Method and apparatus for image processing using quantization parameter |
CN113256585A (zh) * | 2021-05-24 | 2021-08-13 | 北京理工大学 | 基于时空张量分解的红外视频运动小目标实时检测方法 |
CN113345062A (zh) * | 2021-08-04 | 2021-09-03 | 成都市谛视科技有限公司 | 三维虚拟角色动作补全方法、装置和服务器 |
CN113345061A (zh) * | 2021-08-04 | 2021-09-03 | 成都市谛视科技有限公司 | 动作补全模型的训练方法、装置、补全方法、设备和介质 |
Non-Patent Citations (1)
Title |
---|
李士进 等: "新闻视频片花检索新方法", 《电视技术》, no. 01, pages 68 - 70 * |
Also Published As
Publication number | Publication date |
---|---|
CN116664555B (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yasarla et al. | Uncertainty guided multi-scale residual learning-using a cycle spinning cnn for single image de-raining | |
US7447337B2 (en) | Video content understanding through real time video motion analysis | |
Cheung et al. | Robust background subtraction with foreground validation for urban traffic video | |
US9247139B2 (en) | Method for video background subtraction using factorized matrix completion | |
CN113205138B (zh) | 人脸人体匹配方法、设备和存储介质 | |
Kajo et al. | Self-motion-assisted tensor completion method for background initialization in complex video sequences | |
Ianasi et al. | A fast algorithm for background tracking in video surveillance, using nonparametric kernel density estimation | |
CN116664555B (zh) | 实时应用场景下的神经网络切片部署方法、系统 | |
Liu et al. | Automatic body segmentation with graph cut and self-adaptive initialization level set (SAILS) | |
Shao et al. | Hyper RPCA: joint maximum correntropy criterion and Laplacian scale mixture modeling on-the-fly for moving object detection | |
CN109636818A (zh) | 一种拉普拉斯正则约束下低秩稀疏优化的目标分割方法 | |
Chung et al. | Low-complexity and reliable moving objects detection and tracking for aerial video surveillance with small uavs | |
Liu et al. | Robust online matrix completion with Gaussian mixture model | |
Gillespie et al. | Robust estimation of camera motion in MPEG domain | |
Cuevas et al. | Moving object detection for real-time high-quality lightweight applications on smart cameras | |
Ramakrishnan et al. | Low-complexity global motion estimation for aerial vehicles | |
Smolka | Peer group filter for impulsive noise removal in color images | |
Pardo | Simple and robust hard cut detection using interframe differences | |
SanMiguel et al. | Shadow detection in video surveillance by maximizing agreement between independent detectors | |
Gangal et al. | Automatic restoration of old motion picture films using spatiotemporal exemplar-based inpainting | |
Ling-Yu et al. | Foreground segmentation using motion vectors in sports video | |
Neri et al. | Video sequence segmentation for object-based coders using higher order statistics | |
Hsu et al. | Efficient moving object extraction in compressed low-bit-rate video | |
Tao et al. | Moving target detection in image sequences | |
Liu et al. | Automatic extraction of initial moving object based on advanced feature and video analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |