CN111754386B - 图像区域屏蔽方法、装置、设备及存储介质 - Google Patents
图像区域屏蔽方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111754386B CN111754386B CN201910234507.6A CN201910234507A CN111754386B CN 111754386 B CN111754386 B CN 111754386B CN 201910234507 A CN201910234507 A CN 201910234507A CN 111754386 B CN111754386 B CN 111754386B
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- video frame
- current video
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000011218 segmentation Effects 0.000 claims abstract description 81
- 238000001514 detection method Methods 0.000 claims description 50
- 238000012549 training Methods 0.000 claims description 13
- 230000000873 masking effect Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 abstract description 15
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种图像区域屏蔽方法、装置、设备及存储介质,属于图像处理技术领域。所述方法包括:获取当前视频帧中待屏蔽的目标的区域图像,该当前视频帧为视频中的任一个视频帧;确定该区域图像的语义分割图像;基于该语义分割图像,从该当前视频帧中确定属于该目标的像素点;对确定的像素点对应的区域进行屏蔽。本申请避免需要用户手动操作,提高了屏蔽效率,并且,由于本申请实施例基于语义分割图像精准地确定出属于目标的像素点,因此,可以精准的对该目标进行屏蔽,提高了屏蔽精度。
Description
技术领域
本申请涉及图像处理技术领域,特别涉及一种图像区域屏蔽方法、装置、设备及存储介质。
背景技术
对于一些视频,考虑到可能会涉及个人隐私等情况,通常希望能够对视频中某目标进行屏蔽,比如,将视频中的某个或某些用户屏蔽掉。
在相关技术中,一般需要用户手动进行屏蔽。用户可以下载某类应用,该类应用提供有屏蔽功能,用户可以通过该类应用打开视频,然后基于该屏蔽功能手动对视频中的某个或某些目标进行屏蔽处理,比如将视频中的某个人打上马赛克。
然而,上述提供的图像区域屏蔽方法需要用户手动操作,屏蔽效率低,另外,屏蔽的精度也比较低。
发明内容
本申请实施例提供了一种图像区域屏蔽方法、装置、设备及存储介质,可以解决相关技术中屏蔽效率和精度较低的问题。所述技术方案如下:
第一方面,提供了一种图像区域屏蔽方法,所述方法包括:
获取当前视频帧中待屏蔽的目标的区域图像,所述当前视频帧为视频中的任一个视频帧;
确定所述区域图像的语义分割图像;
基于所述语义分割图像,从所述当前视频帧中确定属于所述目标的像素点;
对确定的像素点对应的区域进行屏蔽。
在本申请一种可能的实现方式中,所述获取当前视频帧中待屏蔽的目标的区域图像,包括:
确定所述当前视频帧中所述目标所在的目标框的目标框信息;
基于所述目标框信息,获取所述当前视频帧中所述目标的区域图像。
在本申请一种可能的实现方式中,所述确定所述当前视频帧中所述目标所在的目标框的目标框信息,包括:
当所述当前视频帧为所述视频中的第一个视频帧时,通过目标检测模型确定所述当前视频帧中所述目标所在的目标框的目标框信息,所述目标检测模型用于确定任一视频帧中的目标所在的目标框的目标框信息;否则,
若所述当前视频帧的前一个视频帧使用所述目标检测模型确定目标框信息,则通过多目标跟踪算法确定所述当前视频帧中所述目标所在的目标框的目标框信息;或者,
若与所述当前视频帧相邻的前参考阈值个连续的视频帧使用多目标跟踪算法确定目标框信息,则通过所述目标检测模型确定所述当前视频帧中所述目标所在的目标框的目标框信息;或者,
若与所述当前视频帧相邻的前多个连续的视频帧使用多目标跟踪算法且所述多个视频帧的数量小于所述参考阈值,则通过多目标跟踪算法确定所述当前视频帧中所述目标所在的目标框的目标框信息。
在本申请一种可能的实现方式中,所述目标框信息包括所述目标框的尺寸和任意顶点坐标。
在本申请一种可能的实现方式中,所述确定所述区域图像的语义分割图像,包括:
调用目标语义分割模型,所述目标语义分割模型是基于多个区域图像样本和所述多个区域图像样本对应的语义分割图像样本,对待训练的语义分割模型进行训练得到;
将所述区域图像输入至所述目标语义分割模型中,由所述目标语义分割模型输出所述区域图像的语义分割图像。
在本申请一种可能的实现方式中,当所述当前视频帧中的目标的数量为多个,且每个目标对应一个标识信息时,从多个标识信息中选择属于参考标识信息集合的标识信息,将选择的标识信息对应的目标确定为所述当前视频帧中待屏蔽的目标。
第二方面,提供了一种图像区域屏蔽装置,所述装置包括:
获取模块,用于获取当前视频帧中待屏蔽的目标的区域图像,所述当前视频帧为视频中的任一个视频帧;
第一确定模块,用于确定所述区域图像的语义分割图像;
第二确定模块,用于基于所述语义分割图像,从所述当前视频帧中确定属于所述目标的像素点;
屏蔽模块,用于对确定的像素点对应的区域进行屏蔽。
在本申请一种可能的实现方式中,所述获取模块用于:
确定所述当前视频帧中所述目标所在的目标框的目标框信息;
基于所述目标框信息,获取所述当前视频帧中所述目标的区域图像。
在本申请一种可能的实现方式中,所述获取模块用于:
当所述当前视频帧为所述视频中的第一个视频帧时,通过目标检测模型确定所述当前视频帧中所述目标所在的目标框的目标框信息,所述目标检测模型用于确定任一视频帧中的目标所在的目标框的目标框信息;否则,
若所述当前视频帧的前一个视频帧使用所述目标检测模型确定目标框信息,则通过多目标跟踪算法确定所述当前视频帧中所述目标所在的目标框的目标框信息;或者,
若与所述当前视频帧相邻的前参考阈值个连续的视频帧使用多目标跟踪算法确定目标框信息,则通过所述目标检测模型确定所述当前视频帧中所述目标所在的目标框的目标框信息;或者,
若与所述当前视频帧相邻的前多个连续的视频帧使用多目标跟踪算法且所述多个视频帧的数量小于所述参考阈值,则通过多目标跟踪算法确定所述当前视频帧中所述目标所在的目标框的目标框信息。
在本申请一种可能的实现方式中,所述目标框信息包括所述目标框的尺寸和任意顶点坐标。
在本申请一种可能的实现方式中,所述第一确定模块用于:
调用目标语义分割模型,所述目标语义分割模型是基于多个区域图像样本和所述多个区域图像样本对应的语义分割图像样本,对待训练的语义分割模型进行训练得到;
将所述区域图像输入至所述目标语义分割模型中,由所述目标语义分割模型输出所述区域图像的语义分割图像。
在本申请一种可能的实现方式中,当所述当前视频帧中的目标的数量为多个,且每个目标对应一个标识信息时,从多个标识信息中选择属于参考标识信息集合的标识信息,将选择的标识信息对应的目标确定为所述当前视频帧中待屏蔽的目标。
第三方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现上述第一方面所述的图像区域屏蔽方法。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,所述指令被处理器执行时实现上述第一方面所述的图像区域屏蔽方法。
第五方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面所述的图像区域屏蔽方法。
本申请实施例提供的技术方案带来的有益效果是:
获取当前视频帧中待屏蔽的目标的区域图像,该当前视频帧为视频中的任一个视频帧,确定该区域图像的语义分割图像。由于该语义分割图像对包括的所有像素点进行类别区分,因此,基于该语义分割图像可以从当前视频帧中确定属于目标的像素点,之后,即可对确定的像素点对应的区域进行屏蔽。如此避免需要用户手动操作,提高了屏蔽效率,并且,由于本申请实施例基于语义分割图像精准地确定出属于目标的像素点,因此,可以精准的对该目标进行屏蔽,提高了屏蔽精度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种图像区域屏蔽方法的流程图;
图2是根据另一示例性实施例示出的一种图像区域屏蔽方法的流程图;
图3是根据一示例性实施例示出的一种当前视频帧的示意图;
图4是根据一示例性实施例示出的一种图像区域屏蔽装置的结构示意图;
图5是根据另一示例性实施例示出的一种终端500的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在对本申请实施例提供的图像区域屏蔽方法进行详细介绍之前,先对本申请实施例涉及的执行主体进行简单介绍。本申请实施例提供的图像区域屏蔽方法可以由电子设备来执行,作为一种示例,该电子设备可以为摄像设备(该摄像设备可以为任意类型的摄像设备,比如可以为枪机或者球机等)、计算机设备、终端、嵌入式设备等,本申请实施例对此不作限定。
接下来将结合附图对本申请实施例提供的图像区域屏蔽方法进行详细介绍。请参考图1,图1是根据一示例性实施例示出的一种图像区域屏蔽方法的流程图,该图像区域屏蔽方法可以应用于电子设备中,该方法可以包括如下几个步骤:
步骤101:获取当前视频帧中待屏蔽的目标的区域图像,当前视频帧为视频中的任一个视频帧。
步骤102:确定区域图像的语义分割图像。
步骤103:基于语义分割图像,从当前视频帧中确定属于目标的像素点。
步骤104:对确定的像素点对应的区域进行屏蔽。
在本申请实施例中,获取当前视频帧中待屏蔽的目标的区域图像,该当前视频帧为视频中的任一个视频帧,确定该区域图像的语义分割图像。由于该语义分割图像对包括的所有像素点进行类别区分,因此,基于该语义分割图像可以从当前视频帧中确定属于目标的像素点,之后,即可对确定的像素点对应的区域进行屏蔽。如此避免需要用户手动操作,提高了屏蔽效率,并且,由于本申请实施例基于语义分割图像精准地确定出属于目标的像素点,因此,可以精准的对该目标进行屏蔽,提高了屏蔽精度。
作为一种示例,该获取当前视频帧中待屏蔽的目标的区域图像,包括:
确定该当前视频帧中该目标所在的目标框的目标框信息;
基于该目标框信息,获取该当前视频帧中该目标的区域图像。
作为一种示例,该确定该当前视频帧中该目标所在的目标框的目标框信息,包括:
当该当前视频帧为该视频中的第一个视频帧时,通过目标检测模型确定该当前视频帧中该目标所在的目标框的目标框信息,该目标检测模型用于确定任一视频帧中的目标所在的目标框的目标框信息;否则,
若该当前视频帧的前一个视频帧使用该目标检测模型确定目标框信息,则通过多目标跟踪算法确定该当前视频帧中该目标所在的目标框的目标框信息;或者,
若与该当前视频帧相邻的前参考阈值个连续的视频帧使用多目标跟踪算法确定目标框信息,则通过该目标检测模型确定该当前视频帧中该目标所在的目标框的目标框信息;或者,
若与该当前视频帧相邻的前多个连续的视频帧使用多目标跟踪算法且该多个视频帧的数量小于该参考阈值,则通过多目标跟踪算法确定该当前视频帧中该目标所在的目标框的目标框信息。
作为一种示例,该目标框信息包括该目标框的尺寸和/或任意顶点坐标。
作为一种示例,该确定该区域图像的语义分割图像,包括:
调用目标语义分割模型,该目标语义分割模型是基于多个区域图像样本和该多个区域图像样本对应的语义分割图像样本,对待训练的语义分割模型进行训练得到;
将该区域图像输入至该目标语义分割模型中,由该目标语义分割模型输出该区域图像的语义分割图像。
作为一种示例,当该当前视频帧中的目标的数量为多个,且每个目标对应一个标识信息时,从多个标识信息中选择属于参考标识信息集合的标识信息,将选择的标识信息对应的目标确定为该当前视频帧中待屏蔽的目标。
上述所有可选技术方案,均可按照任意结合形成本申请的可选实施例,本申请实施例对此不再一一赘述。
请参考图2,图2是根据一示例性实施例示出的一种图像区域屏蔽方法的流程图,该图像区域屏蔽方法可以应用于电子设备中,该方法可以包括如下几个步骤:
步骤201:确定当前视频帧中待屏蔽的目标所在的目标框的目标框信息,该当前视频帧为视频中的任一个视频帧。
作为一种示例,该目标框信息包括该目标框的尺寸和任意顶点坐标。示例性的,该目标框信息也可以包括该目标框的任意一个顶点坐标和该目标框的尺寸,该尺寸包括该目标框的宽度和高度。作为一种示例,该目标框信息还可以包括该目标框的四个顶点的坐标。
为了能够对目标进行屏蔽,电子设备可以确定该目标在每个视频帧中的位置,作为一种示例,可以确定该目标在每个视频帧中所在的目标框的目标框信息,从而根据该目标框信息定位该目标。为了便于描述和理解,本申请以对当前视频帧中的目标进行屏蔽处理为例进行说明,该当前视频帧为待处理视频中的任一个视频帧,即该电子设备对每个视频帧均可采用该方法对目标进行屏蔽。作为一种示例,该视频可以为当前正在采集的视频,或者,也可以是预先已录制好的。
示例性的,请参考图3,该当前视频帧如图中的31所示,该目标如图中的32所示,该目标所在的目标框如图中的33所示。
作为一种示例,可以采用目标检测法结合多目标跟踪算法确定当前视频帧中待屏蔽的目标所在的目标框的目标框信息,示例性的,根据该当前视频帧在整个视频中所处的位置不同,该实现可以包括如下几种情况:
第一种情况:当该当前视频帧为该视频中的第一个视频帧时,通过目标检测模型确定该当前视频帧中该目标所在的目标框的目标框信息,该目标检测模型用于确定任一视频帧中的目标所在的目标框的目标框信息。
也就是说,对于视频中的第一个视频帧,可以使用目标检测模型来确定其中的目标所在的目标框的目标框信息。作为一种示例,可以将该当前视频帧输入至该目标检测模型中,由该目标检测模型对目标进行检测处理,输出该当前视频帧中的目标所在的目标框的目标框信息,示例性的,该目标框信息可以为该目标框的左上顶点坐标和尺寸。
需要说明的是,该目标检测模型可以是基于多个训练数据对待训练的检测网络进行训练得到,作为一种示例,该多个训练数据可以包括多个视频帧图像样本和该多个视频帧图像样本中已标定的目标的目标框信息,进一步地,还可以包括每个目标的类别标签。也就是说,可以预先获取该多个训练数据,然后将该多个训练数据输入至待训练的检测网络中进行深度学习和训练,得到该目标检测模型。
作为一种示例,该待训练的检测网络可以包括深度卷积神经网络,进一步地,该待训练的网络模型可以为YOLO(You Only Look Once,你只看一次)网络,SSD(Single ShotDetector,一次性探测器),本申请实施例对此不做限定。
第二种情况:当该当前视频帧不是该视频中的第一个视频帧时,根据该当前视频帧在视频中所处的位置来确定当前视频帧中该目标所在的目标框的目标框信息。
示例性的,当该当前视频帧不是该视频中的第一个视频帧时,可以包括如下(1)-(3)这几种可能的实现方式:
(1)若该当前视频帧的前一个视频帧使用该目标检测模型确定目标框信息,则通过多目标跟踪算法确定该当前视频帧中该目标所在的目标框的目标框信息。
也就是说,当该当前视频帧的前一个视频帧使用的是目标检测模型确定目标框信息时,对于当前视频帧来说,可以使用多目标跟踪算法来确定该目标在该当前视频帧中所在的目标框的目标框信息。也就是说,在对整个视频中的视频帧进行处理的过程中,某个视频帧使用目标检测模型确定目标框信息后,下一个或者多个视频帧可以使用多目标跟踪算法来确定目标框信息,如此可以使得准确跟踪每个目标,并保证信息检测的稳定性。
(2)若与该当前视频帧相邻的前参考阈值个连续的视频帧使用多目标跟踪算法确定目标框信息,则通过该目标检测模型确定该当前视频帧中该目标所在的目标框的目标框信息。
作为一种示例,该参考阈值可以用于限制连续使用多目标跟踪算法确定目标所在的目标框的目标框信息的视频帧数量。该参考阈值可以由用户根据实际需求进行设置,或者,也可以由该电子设备默认设置,本申请实施例对此不做限定。
作为一种示例,可以使用目标检测模型和多个目标跟踪交替确定视频帧中目标所在的目标框的目标框信息。若该当前视频帧的前参考阈值个连续的视频帧使用多目标跟踪算法,则对于当前视频帧来说,可以使用目标检测模型来确定当前视频帧中该目标所在的目标框的目标框信息。也即是,当使用多目标跟踪算法确定了多个连续的视频帧中目标所在的目标框的目标框信息时,对之后的一个视频帧可以使用目标检测模型来确定其中的目标所在的目标框的目标框信息。示例性的,当使用目标检测模型来确定其中的目标所在的目标框的目标框信息后,继续使用多目标跟踪算法确定多个视频帧中目标所在的目标框的目标框信息。
(3)若与该当前视频帧相邻的前多个连续的视频帧使用多目标跟踪算法且该多个视频帧的数量小于该参考阈值,则通过多目标跟踪算法确定该当前视频帧中该目标所在的目标框的目标框信息。
作为一种示例,由于该参考阈值可以用于限制连续使用多目标跟踪算法确定目标所在的目标框的目标框信息的视频帧数量,因此,若与该当前视频帧相邻的前多个连续的视频帧使用多目标跟踪算法且该多个视频帧的数量小于该参考阈值,说明可以继续使用多目标跟踪算法确定该当前视频帧中该目标所在的目标框的目标框信息。
示例性的,假设该参考阈值为5,即连续5个视频帧使用多目标跟踪算法,且每隔5个视频帧使用一次目标检测模型。在实施中,当该当前视频帧为第一个视频帧时,使用目标检测模型确定该当前视频帧中目标所在的目标框的目标框信息。当该当前视频帧为第二个视频帧、第三个视频帧、第四个视频帧、第五个视频帧或第六个视频帧时,可以使用多目标跟踪算法确定该当前视频帧中该目标所在的目标框的目标框信息。当该当前视频帧为第七个视频帧时,可以使用目标检测模型确定该当前视频帧中该目标所在的目标框的目标框信息。以此类推,通过目标检测模型和多目标跟踪算法结合,确定每个视频帧中目标所在的目标框的目标框信息。
值得一提的是,上述采用目标检测法和多目标跟踪算法结合,可以保证准确跟踪目标,另外可以保证系统的稳定性。
需要说明的是,上述确定当前视频帧中待屏蔽的目标所在的目标框的目标框信息的实现方式仅是示例性的,在另一实施例中,还可以采用其它方式来实现,比如,还可以仅使用目标检测模型来确定每个视频帧中目标所在的目标框的目标框信息,再如,使用目标检测模型检测的视频帧与使用多目标跟踪算法检测的视频帧之间的数量可以不定,比如可以是随机的,等等,本申请实施例对此不作限定。
步骤202:基于该目标框信息,获取该当前视频帧中该目标的区域图像。
作为一种示例,该电子设备可以基于该目标框信息,从该当前视频帧中切割出该目标的区域图像,比如可以基于目标框的尺寸和任一顶点坐标,从该当前视频帧中切割出该目标的图像。应当理解的是,该目标的区域图像实际上也就是该目标所在的目标框包围的区域的图像。
需要说明的是,上述步骤201和步骤202用于实现获取当前视频帧中待屏蔽的目标的区域图像的步骤。
步骤203:确定该区域图像的语义分割图像。
作为一种示例,确定该区域图像的语义分割图像的实现可以包括:调用目标语义分割模型,该目标语义分割模型是基于多个区域图像样本和该多个区域图像样本对应的语义分割图像样本,对待训练的语义分割模型进行训练得到;将该区域图像输入至该目标语义分割模型中,由该目标语义分割模型输出该区域图像的语义分割图像。
也即是,该电子设备可以调用预先已经训练好的目标语义分割模型,将该区域图像输入至该目标语义分割模型中,由该目标语义分割模型对该区域图像进行语义分割处理,输出该区域图像对应的语义分割图像,该语义分割图像中标定有每个像素点的类别,示例性的,当某个像素点属于目标时,可以将该像素点对应的类别置为“1”,否则,当某个像素点不属于目标时,可以将该像素点对应的类型置为“0”,如此可以将该区域图像中属于目标的像素点与不属于目标的像素点区分开来。比如,当该目标为人时,则当某个像素点属于该人的像素点时,该像素点对应的类别为“1”,当某个像素点不属于该人的像素点时,该像素点对应的类别为“0”。
在调用该目标语义分割模型之前,可以获取多个区域图像样本和该多个区域图像样本对应的语义分割图像样本,每个区域图像样本对应的语义分割图像样本可以标定有每个像素点的类别标签,比如,若某像素点使用目标,则可以将该像素点标定为“1”,即label(x,y)=1,否则,将该像素点标定为“0”。其中,label(x,y)表示一个像素点的坐标,进一步地,可以将该多个区域图像样本和该多个区域图像样本对应的语义分割图像样本输入至待训练的语义分割模型进行深度学习和训练,得到该目标语义分割模型。
步骤204:基于该语义分割图像,从该当前视频帧中确定属于该目标的像素点。
由于该语义分割图像中的每个像素点均对应有一个类别,因此,可以根据该语义分割图像,从该当前视频帧中确定属于该目标的像素点。作为一种示例,可以根据该语义分割图像在当前视频帧中的坐标和该语义分割图像中每个像素点的坐标,将该语义分割图像中每个像素点的坐标和类别回溯至该当前视频帧中,从而确定该当前视频帧中确定属于该目标的像素点。
步骤205:对确定的像素点对应的区域进行屏蔽。
作为一种示例,可以对确定的像素点对应的区域添加马赛克,比如,确定的像素点对应的区域为32指示的区域,电子设备对该区域添加马赛克。
需要说明的是,本申请实施例仅是以添加马赛克的方式对区域屏蔽为例进行说明,在另一实施例中,还可以采用其它方式添加马赛克,本申请实施例对此不做限定。
作为一种示例,当该当前视频帧中的目标的数量为多个,且每个目标对应一个标识信息时,从多个标识信息中选择属于参考标识信息集合的标识信息,将选择的标识信息对应的目标确定为该当前视频帧中待屏蔽的目标。
其中,该标识信息可以用于唯一标识一个目标,比如该标识信息为目标的ID(Identification,身份标识)。
其中,该参考标识信息集合可以根据实际需求进行设置。该参考标识信息集合可以用于记录用户想要屏蔽的目标,也就是说,当视频帧中包括多个目标时,用户可以根据实际需求选择需要屏蔽哪些目标,进一步地,可以根据用户想要屏蔽的多个目标的标识信息,生成参考标识信息集合。对于当前视频帧来说,每个目标对应一个标识信息,电子设备可以根据标识信息和参考标识信息集合,确定屏蔽的目标。
需要说明的是,由于本申请使用了多目标跟踪算法来确定目标的目标框信息,因此,可以由该多个目标跟踪算法来确定每个目标的标识信息,且在对整个视频进行处理的过程中,该标识信息会一直存在,且不变。如此,电子设备即可根据该标识信息,确定每个视频帧中需要屏蔽的目标。
在本申请实施例中,获取当前视频帧中待屏蔽的目标的区域图像,该当前视频帧为视频中的任一个视频帧,确定该区域图像的语义分割图像。由于该语义分割图像对包括的所有像素点进行类别区分,因此,基于该语义分割图像可以从当前视频帧中确定属于目标的像素点,之后,即可对确定的像素点对应的区域进行屏蔽。如此避免需要用户手动操作,提高了屏蔽效率,并且,由于本申请实施例基于语义分割图像精准地确定出属于目标的像素点,因此,可以精准的对该目标进行屏蔽,提高了屏蔽精度。
图4是根据一示例性实施例示出的一种图像区域屏蔽装置的结构示意图,该图像区域屏蔽装置可以由软件、硬件或者两者的结合实现。该图像区域屏蔽装置可以包括:
获取模块410,用于获取当前视频帧中待屏蔽的目标的区域图像,所述当前视频帧为视频中的任一个视频帧;
第一确定模块420,用于确定所述区域图像的语义分割图像;
第二确定模块430,用于基于所述语义分割图像,从所述当前视频帧中确定属于所述目标的像素点;
屏蔽模块440,用于对确定的像素点对应的区域进行屏蔽。
在本申请一种可能的实现方式中,所述获取模块410用于:
确定所述当前视频帧中所述目标所在的目标框的目标框信息;
基于所述目标框信息,获取所述当前视频帧中所述目标的区域图像。
在本申请一种可能的实现方式中,所述获取模块410用于:
当所述当前视频帧为所述视频中的第一个视频帧时,通过目标检测模型确定所述当前视频帧中所述目标所在的目标框的目标框信息,所述目标检测模型用于确定任一视频帧中的目标所在的目标框的目标框信息;否则,
若所述当前视频帧的前一个视频帧使用所述目标检测模型确定目标框信息,则通过多目标跟踪算法确定所述当前视频帧中所述目标所在的目标框的目标框信息;或者,
若与所述当前视频帧相邻的前参考阈值个连续的视频帧使用多目标跟踪算法确定目标框信息,则通过所述目标检测模型确定所述当前视频帧中所述目标所在的目标框的目标框信息;或者,
若与所述当前视频帧相邻的前多个连续的视频帧使用多目标跟踪算法且所述多个视频帧的数量小于所述参考阈值,则通过多目标跟踪算法确定所述当前视频帧中所述目标所在的目标框的目标框信息。
在本申请一种可能的实现方式中,所述目标框信息包括所述目标框的尺寸和任意顶点坐标。
在本申请一种可能的实现方式中,所述第一确定模块420用于:
调用目标语义分割模型,所述目标语义分割模型是基于多个区域图像样本和所述多个区域图像样本对应的语义分割图像样本,对待训练的语义分割模型进行训练得到;
将所述区域图像输入至所述目标语义分割模型中,由所述目标语义分割模型输出所述区域图像的语义分割图像。
在本申请一种可能的实现方式中,当所述当前视频帧中的目标的数量为多个,且每个目标对应一个标识信息时,从多个标识信息中选择属于参考标识信息集合的标识信息,将选择的标识信息对应的目标确定为所述当前视频帧中待屏蔽的目标。
在本申请实施例中,获取当前视频帧中待屏蔽的目标的区域图像,该当前视频帧为视频中的任一个视频帧,确定该区域图像的语义分割图像。由于该语义分割图像对包括的所有像素点进行类别区分,因此,基于该语义分割图像可以从当前视频帧中确定属于目标的像素点,之后,即可对确定的像素点对应的区域进行屏蔽。如此避免需要用户手动操作,提高了屏蔽效率,并且,由于本申请实施例基于语义分割图像精准地确定出属于目标的像素点,因此,可以精准的对该目标进行屏蔽,提高了屏蔽精度。
需要说明的是:上述实施例提供的图像区域屏蔽装置在实现图像区域屏蔽方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的图像区域屏蔽装置与图像区域屏蔽方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图5示出了本申请一个示例性实施例提供的终端500的结构框图。该终端500可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端500还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端500包括有:处理器501和存储器502。
处理器501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器501可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器501可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器502还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器502中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器501所执行以实现本申请中方法实施例提供的图像区域屏蔽方法。
在一些实施例中,终端500还可选包括有:外围设备接口503和至少一个外围设备。处理器501、存储器502和外围设备接口503之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口503相连。具体地,外围设备包括:射频电路504、触摸显示屏505、摄像头506、音频电路507、定位组件508和电源509中的至少一种。
外围设备接口503可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器501和存储器502。在一些实施例中,处理器501、存储器502和外围设备接口503被集成在同一芯片或电路板上;在一些其他实施例中,处理器501、存储器502和外围设备接口503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路504将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路504包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路504可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路504还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏505是触摸显示屏时,显示屏505还具有采集在显示屏505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器501进行处理。此时,显示屏505还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏505可以为一个,设置终端500的前面板;在另一些实施例中,显示屏505可以为至少两个,分别设置在终端500的不同表面或呈折叠设计;在再一些实施例中,显示屏505可以是柔性显示屏,设置在终端500的弯曲表面上或折叠面上。甚至,显示屏505还可以设置成非矩形的不规则图形,也即异形屏。显示屏505可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件506用于采集图像或视频。可选地,摄像头组件506包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件506还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路507可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器501进行处理,或者输入至射频电路504以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端500的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器501或射频电路504的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路507还可以包括耳机插孔。
定位组件508用于定位终端500的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件508可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源509用于为终端500中的各个组件进行供电。电源509可以是交流电、直流电、一次性电池或可充电电池。当电源509包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端500还包括有一个或多个传感器510。该一个或多个传感器510包括但不限于:加速度传感器511、陀螺仪传感器512、压力传感器513、指纹传感器514、光学传感器515以及接近传感器516。
加速度传感器511可以检测以终端500建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器511可以用于检测重力加速度在三个坐标轴上的分量。处理器501可以根据加速度传感器511采集的重力加速度信号,控制触摸显示屏505以横向视图或纵向视图进行用户界面的显示。加速度传感器511还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器512可以检测终端500的机体方向及转动角度,陀螺仪传感器512可以与加速度传感器511协同采集用户对终端500的3D动作。处理器501根据陀螺仪传感器512采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器513可以设置在终端500的侧边框和/或触摸显示屏505的下层。当压力传感器513设置在终端500的侧边框时,可以检测用户对终端500的握持信号,由处理器501根据压力传感器513采集的握持信号进行左右手识别或快捷操作。当压力传感器513设置在触摸显示屏505的下层时,由处理器501根据用户对触摸显示屏505的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器514用于采集用户的指纹,由处理器501根据指纹传感器514采集到的指纹识别用户的身份,或者,由指纹传感器514根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器501授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器514可以被设置终端500的正面、背面或侧面。当终端500上设置有物理按键或厂商Logo时,指纹传感器514可以与物理按键或厂商Logo集成在一起。
光学传感器515用于采集环境光强度。在一个实施例中,处理器501可以根据光学传感器515采集的环境光强度,控制触摸显示屏505的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏505的显示亮度;当环境光强度较低时,调低触摸显示屏505的显示亮度。在另一个实施例中,处理器501还可以根据光学传感器515采集的环境光强度,动态调整摄像头组件506的拍摄参数。
接近传感器516,也称距离传感器,通常设置在终端500的前面板。接近传感器516用于采集用户与终端500的正面之间的距离。在一个实施例中,当接近传感器516检测到用户与终端500的正面之间的距离逐渐变小时,由处理器501控制触摸显示屏505从亮屏状态切换为息屏状态;当接近传感器516检测到用户与终端500的正面之间的距离逐渐变大时,由处理器501控制触摸显示屏505从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图5中示出的结构并不构成对终端500的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例还提供了一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行上述各个实施例提供的图像区域屏蔽方法。
本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行各个实施例提供的图像区域屏蔽方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (6)
1.一种图像区域屏蔽方法,其特征在于,所述方法包括:
当当前视频帧为视频中的第一个视频帧时,通过目标检测模型确定所述当前视频帧中待屏蔽的目标所在的目标框的目标框信息,所述目标检测模型用于确定任一视频帧中的目标所在的目标框的目标框信息;否则,若与所述当前视频帧相邻的前参考阈值个连续的视频帧使用多目标跟踪算法确定目标框信息,则通过所述目标检测模型确定所述当前视频帧中所述目标所在的目标框的目标框信息;或者,若与所述当前视频帧相邻的前多个连续的视频帧使用多目标跟踪算法且所述多个视频帧的数量小于所述参考阈值,则通过多目标跟踪算法确定所述当前视频帧中所述目标所在的目标框的目标框信息,所述当前视频帧为视频中的任一个视频帧;
基于所述目标框信息,获取所述当前视频帧中所述目标的区域图像;
确定所述区域图像的语义分割图像;
基于所述语义分割图像,从所述当前视频帧中确定属于所述目标的像素点;
对确定的像素点对应的区域进行屏蔽。
2.如权利要求1所述的方法,其特征在于,所述确定所述区域图像的语义分割图像,包括:
调用目标语义分割模型,所述目标语义分割模型是基于多个区域图像样本和所述多个区域图像样本对应的语义分割图像样本,对待训练的语义分割模型进行训练得到;
将所述区域图像输入至所述目标语义分割模型中,由所述目标语义分割模型输出所述区域图像的语义分割图像。
3.如权利要求1所述的方法,其特征在于,当所述当前视频帧中的目标的数量为多个,且每个目标对应一个标识信息时,从多个标识信息中选择属于参考标识信息集合的标识信息,将选择的标识信息对应的目标确定为所述当前视频帧中待屏蔽的目标。
4.一种图像区域屏蔽装置,其特征在于,所述装置包括:
获取模块,用于当当前视频帧为视频中的第一个视频帧时,通过目标检测模型确定所述当前视频帧中待屏蔽的目标所在的目标框的目标框信息,所述目标检测模型用于确定任一视频帧中的目标所在的目标框的目标框信息;否则,若与所述当前视频帧相邻的前参考阈值个连续的视频帧使用多目标跟踪算法确定目标框信息,则通过所述目标检测模型确定所述当前视频帧中所述目标所在的目标框的目标框信息;或者,若与所述当前视频帧相邻的前多个连续的视频帧使用多目标跟踪算法且所述多个视频帧的数量小于所述参考阈值,则通过多目标跟踪算法确定所述当前视频帧中所述目标所在的目标框的目标框信息,所述当前视频帧为视频中的任一个视频帧;基于所述目标框信息,获取所述当前视频帧中所述目标的区域图像;
第一确定模块,用于确定所述区域图像的语义分割图像;
第二确定模块,用于基于所述语义分割图像,从所述当前视频帧中确定属于所述目标的像素点;
屏蔽模块,用于对确定的像素点对应的区域进行屏蔽。
5.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现权利要求1-3所述的任一项方法的步骤。
6.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现权利要求1-3所述的任一项方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910234507.6A CN111754386B (zh) | 2019-03-26 | 2019-03-26 | 图像区域屏蔽方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910234507.6A CN111754386B (zh) | 2019-03-26 | 2019-03-26 | 图像区域屏蔽方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111754386A CN111754386A (zh) | 2020-10-09 |
CN111754386B true CN111754386B (zh) | 2023-08-18 |
Family
ID=72671499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910234507.6A Active CN111754386B (zh) | 2019-03-26 | 2019-03-26 | 图像区域屏蔽方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111754386B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112399080A (zh) * | 2020-11-03 | 2021-02-23 | 广州酷狗计算机科技有限公司 | 视频处理方法、装置、终端及计算机可读存储介质 |
CN112906594B (zh) * | 2021-03-03 | 2022-06-03 | 杭州海康威视数字技术股份有限公司 | 一种布防区域生成方法、装置、设备及存储介质 |
CN115460353B (zh) * | 2022-11-11 | 2023-03-24 | 深圳市鹏创软件有限公司 | 教学跟踪摄像设备配置方法、装置、电子设备及介质 |
CN115761598B (zh) * | 2022-12-20 | 2023-09-08 | 易事软件(厦门)股份有限公司 | 一种基于云端业务平台的大数据分析方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101215650B1 (ko) * | 2012-06-15 | 2012-12-26 | (주)리얼허브 | 동영상에 포함되는 이동 객체의 프라이버시 정보 보호를 위한 마스킹 처리 장치 및 마스킹 처리 방법 |
CN105049911A (zh) * | 2015-07-10 | 2015-11-11 | 西安理工大学 | 一种基于人脸识别的视频特效处理方法 |
JP2017228853A (ja) * | 2016-06-20 | 2017-12-28 | パナソニックIpマネジメント株式会社 | モニタリングシステム、マスク処理設定方法及びコンピュータプログラム |
CN108848334A (zh) * | 2018-07-11 | 2018-11-20 | 广东小天才科技有限公司 | 一种视频处理的方法、装置、终端和存储介质 |
CN109063506A (zh) * | 2018-07-09 | 2018-12-21 | 江苏达实久信数字医疗科技有限公司 | 用于医疗手术示教系统的隐私处理方法 |
CN109325967A (zh) * | 2018-09-14 | 2019-02-12 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、介质以及设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101936802B1 (ko) * | 2012-07-20 | 2019-01-09 | 한국전자통신연구원 | 얼굴인식 기반의 개인정보보호 장치 및 방법 |
-
2019
- 2019-03-26 CN CN201910234507.6A patent/CN111754386B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101215650B1 (ko) * | 2012-06-15 | 2012-12-26 | (주)리얼허브 | 동영상에 포함되는 이동 객체의 프라이버시 정보 보호를 위한 마스킹 처리 장치 및 마스킹 처리 방법 |
CN105049911A (zh) * | 2015-07-10 | 2015-11-11 | 西安理工大学 | 一种基于人脸识别的视频特效处理方法 |
JP2017228853A (ja) * | 2016-06-20 | 2017-12-28 | パナソニックIpマネジメント株式会社 | モニタリングシステム、マスク処理設定方法及びコンピュータプログラム |
CN109063506A (zh) * | 2018-07-09 | 2018-12-21 | 江苏达实久信数字医疗科技有限公司 | 用于医疗手术示教系统的隐私处理方法 |
CN108848334A (zh) * | 2018-07-11 | 2018-11-20 | 广东小天才科技有限公司 | 一种视频处理的方法、装置、终端和存储介质 |
CN109325967A (zh) * | 2018-09-14 | 2019-02-12 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、介质以及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111754386A (zh) | 2020-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111754386B (zh) | 图像区域屏蔽方法、装置、设备及存储介质 | |
CN111127509B (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN112084811B (zh) | 身份信息的确定方法、装置及存储介质 | |
CN109922356B (zh) | 视频推荐方法、装置和计算机可读存储介质 | |
CN110839128B (zh) | 拍照行为检测方法、装置及存储介质 | |
CN109886208B (zh) | 物体检测的方法、装置、计算机设备及存储介质 | |
CN113627413B (zh) | 数据标注方法、图像比对方法及装置 | |
CN111385525B (zh) | 视频监控方法、装置、终端及系统 | |
CN111857793B (zh) | 网络模型的训练方法、装置、设备及存储介质 | |
CN110738185B (zh) | 表单对象的识别方法、装置及存储介质 | |
CN111931712B (zh) | 人脸识别方法、装置、抓拍机及系统 | |
CN112257594B (zh) | 多媒体数据的显示方法、装置、计算机设备及存储介质 | |
CN111860064B (zh) | 基于视频的目标检测方法、装置、设备及存储介质 | |
CN112184802B (zh) | 标定框的调整方法、装置及存储介质 | |
CN112241987B (zh) | 确定防区的系统、方法、装置及存储介质 | |
CN111611414B (zh) | 车辆检索方法、装置及存储介质 | |
CN113592874B (zh) | 图像显示方法、装置和计算机设备 | |
CN112990424B (zh) | 神经网络模型训练的方法和装置 | |
CN110660031B (zh) | 图像锐化方法及装置、存储介质 | |
CN111984738B (zh) | 数据关联方法、装置、设备及存储介质 | |
CN111369434B (zh) | 拼接视频封面生成的方法、装置、设备和存储介质 | |
CN112135256A (zh) | 移动轨迹的确定方法、装置、设备及可读存储介质 | |
CN113129221B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN113052408B (zh) | 一种社区聚合的方法及装置 | |
CN113590877B (zh) | 获取标注数据的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |