CN112149683B - 夜视环境下活物检测方法及装置 - Google Patents
夜视环境下活物检测方法及装置 Download PDFInfo
- Publication number
- CN112149683B CN112149683B CN202011066129.4A CN202011066129A CN112149683B CN 112149683 B CN112149683 B CN 112149683B CN 202011066129 A CN202011066129 A CN 202011066129A CN 112149683 B CN112149683 B CN 112149683B
- Authority
- CN
- China
- Prior art keywords
- image sequence
- night vision
- instance segmentation
- model
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004297 night vision Effects 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000011218 segmentation Effects 0.000 claims abstract description 61
- 238000001514 detection method Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000005520 cutting process Methods 0.000 claims abstract description 24
- 238000013145 classification model Methods 0.000 claims abstract description 22
- 230000008859 change Effects 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims abstract description 11
- 230000003068 static effect Effects 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 241000699670 Mus sp. Species 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种夜视环境下活物检测方法及装置,其中该方法包括:获得夜视环境下的视频,对夜视环境下的视频进行切帧处理,获得视频帧;对所述视频帧进行动态区域检测,得到动态变化的区域结果;构建动态区域分类模型和实例分割模型;基于动态区域分类模型,对所述动态变化的区域结果进行分类,得到分类结果;基于实例分割模型,对所述视频帧进行实例分割,得到实例分割结果;将分类结果和实例分割结果进行交并比计算,得到最终检测结果。本发明可以解决在后厨夜间环境且活物体积小的情况下,准确进行图像识别的问题。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及夜视环境下活物检测方法及装置。
背景技术
本部分旨在为权利要求书中陈述的本发明实施例提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
从后厨夜视环境下识别活物(比如老鼠)的技术是一门涉及计算机视觉和人工智能等诸多领域的研究课题。在视频监控、后厨监管行业中有巨大应用前景。因此对活物(比如老鼠)检测已经成为后厨监管机器视觉领域的研究热点之一。但是因为其应用环境的复杂性、目标小、背景复杂多变、行为的类差异性等影响因素,现在的识别模型存在着识别准确率低、训练时间长等问题。
发明内容
本发明实施例提供一种夜视环境下活物检测方法,用以解决在后厨夜间环境且活物体积小的情况下,准确进行图像识别的技术问题,该方法包括:
获得夜视环境下的视频,对夜视环境下的视频进行切帧处理,获得视频帧;
对所述视频帧进行动态区域检测,得到动态变化的区域结果;
构建动态区域分类模型和实例分割模型;
基于动态区域分类模型,对所述动态变化的区域结果进行分类,得到分类结果;
基于实例分割模型,对所述视频帧进行实例分割,得到实例分割结果;
将分类结果和实例分割结果进行交并比计算,得到最终检测结果。
本发明实施例还提供一种夜视环境下活物检测装置,用以解决在后厨夜间环境且活物体积小的情况下,准确进行图像识别的技术问题,该装置包括:
视频切帧处理模块,用于获得夜视环境下的视频,对夜视环境下的视频进行切帧处理,获得视频帧;
动态区域检测模块,用于对所述视频帧进行动态区域检测,得到动态变化的区域结果;
模型构建模块,用于构建动态区域分类模型和实例分割模型;
分类识别模块,用于基于动态区域分类模型,对所述动态变化的区域结果进行分类,得到分类结果;
实例分割模型,用于基于实例分割模型,对所述视频帧进行实例分割,得到实例分割结果;
交并比计算模块,用于将分类结果和实例分割结果进行交并比计算,得到最终检测结果。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述夜视环境下活物检测方法。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述夜视环境下活物检测方法的计算机程序。
本发明实施例中,获得夜视环境下的视频,对夜视环境下的视频进行切帧处理,获得视频帧;对所述视频帧进行动态区域检测,得到动态变化的区域结果;构建动态区域分类模型和实例分割模型;基于动态区域分类模型,对所述动态变化的区域结果进行分类,得到分类结果;基于实例分割模型,对所述视频帧进行实例分割,得到实例分割结果;将分类结果和实例分割结果进行交并比计算,得到最终检测结果,针对夜视环境下的后厨视频,采用动态检测、分类识别和实例分割方法,能够有效检测视频中的活物,对后厨夜视环境下的活物检测有很好的帮助。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明实施例中夜视环境下活物检测方法流程图;
图2为本发明实施例中视频切帧处理流程图;
图3为本发明实施例中视频帧进行动态区域检测流程图;
图4为本发明实施例中视频切帧处理流程图;
图5为本发明实施例中夜视环境下活物检测装置结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
图1为本发明实施例中夜视环境下活物检测方法流程图,如图1所示,该方法包括:
步骤101:获得夜视环境下的视频,对夜视环境下的视频进行切帧处理,获得视频帧;
步骤102:对所述视频帧进行动态区域检测,得到动态变化的区域结果;
步骤103:构建动态区域分类模型和实例分割模型;
步骤104:基于动态区域分类模型,对所述动态变化的区域结果进行分类,得到分类结果;
步骤105:基于实例分割模型,对所述视频帧进行实例分割,得到实例分割结果;
步骤106:将分类结果和实例分割结果进行交并比计算,得到最终检测结果。
其中,步骤103可以是前期准备工作,位于步骤101之前。步骤105可以是和步骤102、步骤104同步执行的步骤。
在本发明实施例中,在步骤101中,可以跳帧切帧的方式来进行视频切帧处理。具体的,如图2所示,该步骤101具体包括:
步骤1011:将视频图像序列分解为静态图像序列;
步骤1012:基于设置的采样步长(采样步长可以设为5帧,也可以是其他数字)采用跳帧切帧方式来进行视频切帧处理,获取静态RGB图像序列。
在本发明实施例中,在步骤102中,可以使用图像二值化、腐蚀膨胀和取轮廓来识别动态区域图像。具体的,如图3所示,该步骤102具体包括:
步骤1021:将静态RGB图像序列通过色彩空间转换转化为静态灰度图像序列;
步骤1022:将静态灰度图像序列进行高斯噪声滤波,生成滤波后的静态灰度图像序列;
其中,根据高斯分布公式搭建高斯滤波器,基于高斯滤波器将静态灰度图像序列进行能量转化,将低能量去除,去除灰度图中存在的高斯噪声,生成具有更少噪声的灰度图像构成的静态灰度图像序列。
步骤1023:将滤波后的静态灰度图像序列进行标准化处理,使得每一个像素点的灰度值都处于0-255之间;
其中,将具有更少噪声的灰度图像构成的全部静态灰度图像序列进行标准化处理,使得静态连续帧序列中的灰度图像中每一个像素点的灰度值都处于0-255之间。
步骤1024:基于每一个像素点的灰度值都处于0-255之间的滤波后的静态灰度图像序列,通过帧差法计算得到二值化运动帧差图序列;
其中,基于每一个像素点的灰度值都处于0-255之间的静态连续帧序列,通过帧差法计算得到与原动作序列相对应的二值化运动帧差图序列,即获得了运动帧差图。
步骤1025:基于帧间差分法,根据二值化运动帧差图序列确定运动目标主体。
其中,基于相邻帧间图像差分思想,利用图像序列中的像素强度数据的时域变化和相关性来确定各像素位置的“运动”并提取目标主体。
帧间差分法是一种通过对视频图像序列中相邻两帧作差分运算来获得运动目标轮廓的方法,它可以很好地适用于存在多个运动目标和摄像机移动的情况。当监控场景中出现异常物体运动时,帧与帧之间会出现较为明显的差别,两帧相减,得到两帧图像亮度差的绝对值,判断它是否大于阈值来分析视频或图像序列的运动特性,确定图像序列中有无物体运动。
在本发明实施例中,在步骤103中,分类识别方法为卷积神经网络识别,实例分割方法为掩膜基于区域的卷积神经网络。首先构建了一个卷积神经网络的动态区域分类模型和实例分割模型,实现对动态区域的分类预测和视频帧的实例分割,如图4所示,具体包括:
步骤1031:建立分类训练集,基于分类训练集对卷积神经网络模型进行训练,获得动态区域分类模型;
步骤1032:建立实例分割训练集,对实例分割训练集进行掩膜基于区域的卷积神经网络训练,获得实例分割模型。
在本发明实施例中,步骤106中采用的交并比(loU)函数做的是计算两个边界框交集和并集之比。
本发明实施例中还提供了一种夜视环境下活物检测装置,如下面的实施例所述。由于该装置解决问题的原理与夜视环境下活物检测方法相似,因此该装置的实施可以参见夜视环境下活物检测方法的实施,重复之处不再赘述。
图5为本发明实施例中夜视环境下活物检测装置结构框图,如图5所示,该装置包括:
视频切帧处理模块02,用于获得夜视环境下的视频,对夜视环境下的视频进行切帧处理,获得视频帧;
动态区域检测模块04,用于对所述视频帧进行动态区域检测,得到动态变化的区域结果;
模型构建模块06,用于构建动态区域分类模型和实例分割模型;
分类识别模块08,用于基于动态区域分类模型,对所述动态变化的区域结果进行分类,得到分类结果;
实例分割模型10,用于基于实例分割模型,对所述视频帧进行实例分割,得到实例分割结果;
交并比计算模块12,用于将分类结果和实例分割结果进行交并比计算,得到最终检测结果。
在本发明实施例中,视频切帧处理模02具体用于:
将视频图像序列分解为静态图像序列;
基于设置的采样步长采用跳帧切帧方式来进行视频切帧处理,获取静态RGB图像序列。
在本发明实施例中,动态区域检测模块04具体用于:
将静态RGB图像序列通过色彩空间转换转化为静态灰度图像序列;
将静态灰度图像序列进行高斯噪声滤波,生成滤波后的静态灰度图像序列;
将滤波后的静态灰度图像序列进行标准化处理,使得每一个像素点的灰度值都处于0-255之间;
基于每一个像素点的灰度值都处于0-255之间的滤波后的静态灰度图像序列,通过帧差法计算得到二值化运动帧差图序列;
基于帧间差分法,根据二值化运动帧差图序列确定运动目标主体。
在本发明实施例中,模型构建模块06具体用于:
建立分类训练集,基于分类训练集对卷积神经网络模型进行训练,获得动态区域分类模型;
建立实例分割训练集,对实例分割训练集进行掩膜基于区域的卷积神经网络训练,获得实例分割模型。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述夜视环境下活物检测方法。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述夜视环境下活物检测方法的计算机程序。
综上,本发明针对夜视环境下的后厨视频,采用动态检测、分类识别和实例分割方法,能够有效检测视频中的活物(比如老鼠),对后厨夜视环境下的活物检测有很好的帮助。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种夜视环境下活物检测方法,其特征在于,包括:
获得夜视环境下的视频,对夜视环境下的视频进行切帧处理,获得视频帧;
对所述视频帧进行动态区域检测,得到动态变化的区域结果;
构建动态区域分类模型和实例分割模型;
基于动态区域分类模型,对所述动态变化的区域结果进行分类,得到分类结果;
基于实例分割模型,对所述视频帧进行实例分割,得到实例分割结果;
将分类结果和实例分割结果进行交并比计算,得到最终检测结果。
2.如权利要求1所述的夜视环境下活物检测方法,其特征在于,对夜视环境下的视频进行切帧处理,获得视频帧,包括:
将视频图像序列分解为静态图像序列;
基于设置的采样步长采用跳帧切帧方式来进行视频切帧处理,获取静态RGB图像序列。
3.如权利要求2所述的夜视环境下活物检测方法,其特征在于,对所述视频帧进行动态区域检测,得到动态变化的区域结果,包括:
将静态RGB图像序列通过色彩空间转换转化为静态灰度图像序列;
将静态灰度图像序列进行高斯噪声滤波,生成滤波后的静态灰度图像序列;
将滤波后的静态灰度图像序列进行标准化处理,使得每一个像素点的灰度值都处于0-255之间;
基于每一个像素点的灰度值都处于0-255之间的滤波后的静态灰度图像序列,通过帧差法计算得到二值化运动帧差图序列;
基于帧间差分法,根据二值化运动帧差图序列确定运动目标主体。
4.如权利要求1所述的夜视环境下活物检测方法,其特征在于,构建动态区域分类模型,包括:
建立分类训练集,基于分类训练集对卷积神经网络模型进行训练,获得动态区域分类模型;
构建实例分割模型,包括:
建立实例分割训练集,对实例分割训练集进行掩膜基于区域的卷积神经网络训练,获得实例分割模型。
5.一种夜视环境下活物检测装置,其特征在于,包括:
视频切帧处理模块,用于获得夜视环境下的视频,对夜视环境下的视频进行切帧处理,获得视频帧;
动态区域检测模块,用于对所述视频帧进行动态区域检测,得到动态变化的区域结果;
模型构建模块,用于构建动态区域分类模型和实例分割模型;
分类识别模块,用于基于动态区域分类模型,对所述动态变化的区域结果进行分类,得到分类结果;
实例分割模型,用于基于实例分割模型,对所述视频帧进行实例分割,得到实例分割结果;
交并比计算模块,用于将分类结果和实例分割结果进行交并比计算,得到最终检测结果。
6.如权利要求5所述的夜视环境下活物检测装置,其特征在于,视频切帧处理模具体用于:
将视频图像序列分解为静态图像序列;
基于设置的采样步长采用跳帧切帧方式来进行视频切帧处理,获取静态RGB图像序列。
7.如权利要求6所述的夜视环境下活物检测装置,其特征在于,动态区域检测模块具体用于:
将静态RGB图像序列通过色彩空间转换转化为静态灰度图像序列;
将静态灰度图像序列进行高斯噪声滤波,生成滤波后的静态灰度图像序列;
将滤波后的静态灰度图像序列进行标准化处理,使得每一个像素点的灰度值都处于0-255之间;
基于每一个像素点的灰度值都处于0-255之间的滤波后的静态灰度图像序列,通过帧差法计算得到二值化运动帧差图序列;
基于帧间差分法,根据二值化运动帧差图序列确定运动目标主体。
8.如权利要求5所述的夜视环境下活物检测装置,其特征在于,模型构建模块具体用于:
建立分类训练集,基于分类训练集对卷积神经网络模型进行训练,获得动态区域分类模型;
建立实例分割训练集,对实例分割训练集进行掩膜基于区域的卷积神经网络训练,获得实例分割模型。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4任一所述方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有执行权利要求1至4任一所述方法的计算机程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011066129.4A CN112149683B (zh) | 2020-09-30 | 2020-09-30 | 夜视环境下活物检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011066129.4A CN112149683B (zh) | 2020-09-30 | 2020-09-30 | 夜视环境下活物检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112149683A CN112149683A (zh) | 2020-12-29 |
CN112149683B true CN112149683B (zh) | 2024-07-19 |
Family
ID=73952380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011066129.4A Active CN112149683B (zh) | 2020-09-30 | 2020-09-30 | 夜视环境下活物检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112149683B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113052158A (zh) * | 2021-03-30 | 2021-06-29 | 济南博观智能科技有限公司 | 夜间红外场景目标识别方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443173A (zh) * | 2019-07-26 | 2019-11-12 | 华中科技大学 | 一种基于帧间关系的视频实例分割方法及系统 |
CN111598112A (zh) * | 2020-05-18 | 2020-08-28 | 中科视语(北京)科技有限公司 | 多任务的目标检测方法、装置、电子设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0951182A1 (en) * | 1998-04-14 | 1999-10-20 | THOMSON multimedia S.A. | Method for detecting static areas in a sequence of video pictures |
CN111652140A (zh) * | 2020-06-03 | 2020-09-11 | 广东小天才科技有限公司 | 基于深度学习的题目精准分割方法、装置、设备和介质 |
CN111652142A (zh) * | 2020-06-03 | 2020-09-11 | 广东小天才科技有限公司 | 基于深度学习的题目分割方法、装置、设备和介质 |
-
2020
- 2020-09-30 CN CN202011066129.4A patent/CN112149683B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443173A (zh) * | 2019-07-26 | 2019-11-12 | 华中科技大学 | 一种基于帧间关系的视频实例分割方法及系统 |
CN111598112A (zh) * | 2020-05-18 | 2020-08-28 | 中科视语(北京)科技有限公司 | 多任务的目标检测方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112149683A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107194559B (zh) | 一种基于三维卷积神经网络的工作流识别方法 | |
Desa et al. | Image subtraction for real time moving object extraction | |
CN103605983B (zh) | 一种遗留物检测和跟踪方法 | |
Lian et al. | A novel method on moving-objects detection based on background subtraction and three frames differencing | |
CN113297926A (zh) | 行为检测识别方法及系统 | |
CN112149683B (zh) | 夜视环境下活物检测方法及装置 | |
Christodoulou et al. | Advanced statistical and adaptive threshold techniques for moving object detection and segmentation | |
CN102968797B (zh) | 一种图像前景和背景分割的方法和装置 | |
KR20190125569A (ko) | 영상 특징의 미분 및 지도 학습을 이용하여 비디오의 장면 상황 정보를 생성하는 방법 및 장치 | |
Olugboja et al. | Detection of moving objects using foreground detector and improved morphological filter | |
Miura et al. | The examination of the image correction of the moving-object detection for low illumination video image | |
KR101158728B1 (ko) | 실시간 전경 영상 검출시스템 및 방법 | |
CN111797761B (zh) | 一种三阶段烟雾检测系统、方法及可读介质 | |
Liang et al. | Real-time background subtraction under varying lighting conditions | |
Kumar et al. | Edge detection in the medical MR brain image based on fuzzy logic technique | |
Fakharian et al. | Hybrid object detection using improved Gaussian mixture model | |
Fazli et al. | Multiple object tracking using improved GMM-based motion segmentation | |
JP6618438B2 (ja) | 前景領域抽出装置、方法、及びプログラム | |
Yu et al. | A moving target detection algorithm based on the dynamic background | |
CN110427796B (zh) | 获取动态纹理描述模型的方法及视频异常行为检索法 | |
Guo et al. | Implementation and analysis of moving objects detection in Video Surveillance | |
Bhuvaneswari et al. | Moving object tracking using background subtraction technique and its parametric evaluation | |
Jain et al. | A highly adaptive method for moving target detection in dynamic background with a simplified manner | |
Chen | Moving shadow detection in video surveillance based on multi-feature analysis | |
Celik et al. | Autonomous and adaptive learning of shadows for surveillance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240617 Address after: 100084 C2301, c2302, 21 / F, building 8, yard 1, Zhongguancun East Road, Haidian District, Beijing Applicant after: BEIJING THUNISOFT INFORMATION TECHNOLOGY Co.,Ltd. Country or region after: China Address before: 100086 room 1608, Zijin building, 68 Wanquanhe Road, Haidian District, Beijing Applicant before: Huayu Jinxin (Beijing) Software Co.,Ltd. Country or region before: China |
|
GR01 | Patent grant | ||
GR01 | Patent grant |