CN111753762B - 视频中关键标识的识别方法、装置、设备以及存储介质 - Google Patents
视频中关键标识的识别方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN111753762B CN111753762B CN202010599295.4A CN202010599295A CN111753762B CN 111753762 B CN111753762 B CN 111753762B CN 202010599295 A CN202010599295 A CN 202010599295A CN 111753762 B CN111753762 B CN 111753762B
- Authority
- CN
- China
- Prior art keywords
- key
- video
- mask
- frame
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000012545 processing Methods 0.000 claims abstract description 16
- 230000015654 memory Effects 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000006854 communication Effects 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 8
- 238000011049 filling Methods 0.000 claims description 8
- 238000003708 edge detection Methods 0.000 claims description 7
- 230000007797 corrosion Effects 0.000 claims description 5
- 238000005260 corrosion Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005530 etching Methods 0.000 description 4
- 238000002156 mixing Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/635—Overlay text, e.g. embedded captions in a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/09—Recognition of logos
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了视频中关键标识的识别方法、装置、设备以及存储介质,涉及人工智能领域,尤其涉及图像识别技术,特别涉及利用深度学习神经网络的图像识别技术。具体实现方案为:从视频中提取多个关键帧;利用多个该关键帧之间的差异,生成关键标识的蒙版;在该视频的视频帧中,利用该蒙版确定关键标识区域图像;对该关键标识区域图像进行识别,得到该视频中包括的关键标识类别。本申请实施例利用视频的部分关键帧生成关键标识的蒙版,可以提高识别结果的准确性,容错性强,还可以减少关键标识识别所需的数据处理量,提高识别速度。
Description
技术领域
本申请涉及人工智能领域,尤其涉及图像识别技术,特别涉及利用深度学习神经网络的图像识别技术。
背景技术
在一些场景下,需要对一些媒体涉及的相关视频或图片进行及时有效的识别和清理。这些媒体在电视或网页发布的视频中往往具有特定的标识,因此需要对这些特定的标识进行有效的识别。目前对这些标识的识别方式容错性较弱,尤其在分辨率和清晰度较低的场景下的识别效果不理想。
发明内容
本申请提供了一种视频中关键标识的识别方法、装置、设备以及存储介质。
根据本申请的一方面,提供了一种视频中关键标识的识别方法,包括:
从视频中提取多个关键帧;
利用多个该关键帧之间的差异,生成关键标识的蒙版;
在该视频的视频帧中,利用该蒙版确定关键标识区域图像;
对该关键标识区域图像进行识别,得到该视频中包括的关键标识类别。
根据本申请的另一方面,提供了一种视频中关键标识的识别装置,包括:
提取模块,用于从视频中提取多个关键帧;
生成模块,用于利用多个该关键帧之间的差异,生成关键标识的蒙版;
确定模块,用于在该视频的视频帧中,利用该蒙版确定关键标识区域图像;
识别单元,用于对该关键标识区域图像进行识别,得到该视频中包括的关键标识类别。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行视频中关键标识的识别方法。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使该计算机执行视频中关键标识的识别方法。
根据本申请的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方法。
根据本申请实施例,利用视频的部分关键帧生成关键标识的蒙版,可以提高识别结果的准确性,容错性强,还可以减少关键标识识别所需的数据处理量,提高识别速度。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请一实施例的视频中关键标识的识别方法的流程图;
图2是根据本申请另一实施例的视频中关键标识的识别方法的流程图;
图3是根据本申请另一实施例的视频中关键标识的识别方法的流程图;
图4是根据本申请另一实施例的视频中关键标识的识别方法的流程图;
图5是根据本申请另一实施例的视频中关键标识的识别方法的流程图;
图6是本申请实施例的视频中关键标识的识别方法中区域划分的示例图;
图7是本申请实施例的视频中关键标识的识别方法的应用实例的流程图;
图8是本申请实施例的视频中关键标识的识别方法的视频场景变换帧的示意图;
图9是本申请实施例的视频中关键标识的识别方法中利用帧间差生成的蒙版的示意图;
图10是本申请实施例的视频中关键标识的识别方法中对蒙版进行腐蚀、膨胀和连通后的示意图;
图11是本申请实施例的视频中关键标识的识别方法中识别出关键标识区域的示意图;
图12是根据本申请一实施例的视频中关键标识的识别装置的框图;
图13是根据本申请另一实施例的视频中关键标识的识别装置的框图;
图14是根据本申请实施例的视频中关键标识的识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请一实施例的视频中关键标识的识别方法的流程图,该方法可以包括:
S101、从视频中提取多个关键帧;
S102、利用多个该关键帧之间的差异,生成关键标识的蒙版;
S103、在该视频的视频帧中,利用该蒙版确定关键标识区域图像;
S104、对该关键标识区域图像进行识别,得到该视频中包括的关键标识类别。
在本申请实施例中,视频可以包括若干视频帧,视频帧也可以称为帧图像。视频可以是直播的视频,也可以是录播的视频。视频中的关键标识可能有多种类型,例如,电视视频中的电视台台标,网络视频中的网站标识。有的关键标识可以表示视频的来源,有的关键标识可以表示视频的归属,有的关键标识可以表示视频的作者,或者其他类型的关键标识。假设视频中关键标识在视频帧中出现的位置一般具有一定的重复性,可以利用该特点识别关键标识。
在本申请实施例中,从视频中提取多个关键帧后,可以利用提取的关键帧的差异得到蒙版,进而利用蒙版确定关键标识区域图像,再利用关键标识识别模型对关键标识区域图像进行识别。
不同视频中的关键标识可能不同,例如,不同媒体的电视台标可能不同。可以采集各种具有特色的关键标识的图像作为样本图像,训练得到关键标识识别模型。关键标识识别模型的算法可以包括但不限于深度学习、神经网络等。利用关键标识识别模型可以对关键标识区域图像进行识别,得到该图像中包括的关键标识类别。例如,可以采集各种电视台例如:中央台、地方台等的台标图案作为样本图像,训练得到台标识别模型。利用台标识别模型对提取的台标区域图像进行识别,得到该视频的台标类别,例如XX卫视的台标等。
在本实施例中,利用视频的部分关键帧生成关键标识的蒙版,可以提高识别结果的准确性,容错性强,还可以减少关键标识识别所需的数据处理量,提高识别速度。
图2是根据本申请另一实施例的视频中关键标识的识别方法的流程图。该实施例的视频中关键标识的识别方法可以包括上述实施例的各步骤。在本实施例中,在S101中,从视频中提取多个关键帧,包括:根据该视频中相邻帧之间的差异,提取所述视频中场景变换的关键帧。场景变换时,不同场景的视频帧之间的像素差异一般较大,因此根据场景变换提取的关键帧也可以称为场景变换帧。在本实施例中,场景关键帧包括视频中变化较大的帧,利用场景关键帧中关键标识位置变化较小的特点,可以更准确的得到关键标识的蒙版的位置,从而得到准确的关键标识识别结果,具有更强的容错性,还可以减少关键标识识别需要处理的数据量,提高识别速度。
在一种可能的实施方式中,根据该视频中相邻帧之间的差异,提取该视频中场景变换的关键帧,包括:
S1011、从该视频中获取包括当前帧的三个连续帧;
S1012、计算该三个连续帧中每两个相邻帧的像素之间的平均绝对差(MeanAbsolute Difference,简称MAD或MAFD),得到第一平均绝对差和第二平均绝对差;
S1013、计算该第一平均绝对差与第二平均绝对差之间的第一差值;
S1014、在该第一平均绝对差、第二平均绝对差和该第一差值中的最小值大于第一阈值的情况下,提取该三个连续帧中的当前帧作为关键帧。
示例性地,视频中三个连续帧包括T1、T2和T3,其中,T3为当前帧,T2为当前帧的前一帧,T1为T2的前一帧。T3和T2的第一平均绝对差为mafd1,T2和T1的第二平均绝对差为mafd2,mafd1和mafd2的差值的绝对值为第一差值diff。如果mafd1、mafd2、diff的最小值为mafd2,并且,mafd2大于第一阈值,提取T3作为关键帧。类似地,从视频帧还可以提取场景变换时的其他关键帧例如T10、T16、T36等。具体提取多少关键帧可以灵活设置。例如,设置提取的关键帧的总数为N个。再如,从该视频的部分视频帧如M个视频帧中提取所有场景变换时的关键帧。再如,从该视频的所有视频帧中提取所有场景变换时的关键帧。
在本实施例中,视频中三个连续帧中每两个相邻帧的像素之间的平均绝对差,以及设定阈值进行比较,能够准确且方便地从视频中提取在场景变换时的关键帧。
图3是根据本申请另一实施例的视频中关键标识的识别方法的流程图。该实施例的视频中关键标识的识别方法可以包括上述实施例的各步骤。在本实施例中,该方法还包括:S301、对该关键帧进行黑边检测,去除该关键帧的黑边区域。
在本实施例中,在S101从视频中提取多个关键帧之后,可以对各个关键帧进行黑边检测,去除各个关键帧的黑边区域。然后执行S102,利用去除黑边之后的多个该关键帧之间的差异,生成关键标识的蒙版。有些视频帧会有黑边区域,预先去除黑边区域,可以减少黑边区域对生成的关键标识的蒙版的干扰,得到更准确的蒙版。
图4是根据本申请另一实施例的视频中关键标识的识别方法的流程图。该实施例的视频中关键标识的识别方法可以包括上述实施例的各步骤。在本实施例中,可以利用不同的关键帧之间的差异,去除关键帧中的动态区域,得到蒙版。该蒙版可以包括该关键帧中的非动态区域,在S102中,利用多个该关键帧之间的差异,生成关键标识的蒙版,包括:
S1021、将多个该关键帧分别转换为灰度图;
S1022、计算待处理关键帧与其前一关键帧的灰度图的差值,得到该待处理关键帧的每个像素位置对应的第二差值;
S1023、遍历该待处理关键帧,将该待处理关键帧的灰度图中像素值大于像素最小值,和/或,该第二差值小于变化最大值的像素位置,确定为属于蒙版的像素位置。
在本申请实施例中,将关键帧换成灰度图,可以仅保留像素的亮度,像素的亮度主要处于0~255范围内。例如,待处理关键帧T10的灰度图为G2,待处理关键帧的前一关键帧T3的灰度图为G1。计算G2与G1的位置相同的各像素在灰度图的差值的绝对值(0~255),记为第二差值ad。
设置两个阈值,像素最小值pixel_min和变化最大值diff_max。其中,设置像素最小值可以解决透明关键标识的问题,透明关键标识区域有最小值,设置像素最小值可以有利于识别透明关键标识。设置变化最大值有利于提取变化较大的帧。
遍历待处理关键帧T10中每个像素位置,如果待处理关键帧T10在当前像素位置在灰度图的亮度大于像素最小值pixel_min,并且该像素位置的第二差值ad小于变化最大值diff_max,则表示该像素位置变化较小,将该像素位置确定为属于蒙版的像素位置,例如,将该像素位置的值置为255。进一步地,待处理关键帧中其他不属于蒙版的像素位置可以置为0,也就是将蒙版之外的区域设置为黑色。处理后的关键帧可以称为差值帧。本示例中的0和255仅是示例,而非限制,也可以填充其他值,只要能够明显区分蒙版内外的区域即可。
在一种可能的实施方式中,该方法在S102中,利用多个该关键帧之间的差异,生成关键标识的蒙版,还包括:
S1024、获取该待处理关键帧中属于蒙版的像素位置与其前一关键帧中属于蒙版的像素位置的交集。这样可以得到更加准确的关键标识的蒙版。
在本实施例中,如果所提取的关键帧的数目为N个,则可以按照所提取的关键帧的顺序,逐个执行上述的生成关键标识的蒙版的步骤。每次执行后,可以缓存当前的待处理关键帧及其处理后的差值帧,以便于用于对下一个待处理关键帧进行处理。
在本实施例中,关键帧及其处理后的差值帧可以一起缓存,可以称为缓存帧。每一次待处理关键帧可以与其前一个缓存帧综合,进而利用多个关键帧的差值帧的交集得到蒙版。例如,关键帧T10的差值帧中,属于蒙版的像素位置包括S1、S2、S3、S4,关键帧T10之后的关键帧T16的差值帧中,属于蒙版的像素位置包括S2、S3、S4、S5。如果取二者的交集,属于蒙版的像素位置包括S2、S3、S4。这时,在关键帧T16的差值帧中,可以更新为只保留属于蒙版的像素位置包括S2、S3、S4,不保留S5。这样,在关键帧T16的缓存帧中,也保留关键帧T16以及更新后的差值帧。
也可以在遍历关键帧的过程中,以前一个缓存帧包括的差值帧中属于蒙版的像素位置作为后续的比较依据。例如,差值帧中属于蒙版的像素位置包括S1、S2、S3、S4,但是在本次关键帧的蒙版计算过程中,S1的计算结果不符合像素最小值pixel_min和变化最大值diff_max这两个阈值,这种情况下,将S1设置为0,保留S2、S3、S4作为属于蒙版的像素位置。
上述像素位置仅是示例,而非限制,在实际应用中,一个视频帧中包括若干的像素位置,遍历视频帧可以判断每个像素位置是否属于蒙版。
在一种可能的实施方式中,在S102生成关键标识的蒙版之后,该方法还包括:S401、对该蒙版进行腐蚀、膨胀和连通处理。由于视频中的关键标识的图案各不相同,有些图标可能包括字母、数字和文字等。因此,初步确定属于蒙版的像素位置之后,可能会有一些蒙版内的像素位置被设置为0,使得蒙版内不连续。对蒙版进行腐蚀,可以去掉蒙版内的单像素区域和细线等。对蒙版进行膨胀可以是的蒙版的使轮廓变大,重复多次使轮廓进一步变大。这样有利于使得蒙版包括完整的未变化图形。
此外,还可以对蒙版中进行连通处理,填充空洞。例如,将蒙版中非255像素位置转换为255。这样,可以使得蒙版包括的关键标识图像更加完整。
在一种可能的实施方式中,在S103中,在该视频的视频帧中,利用该蒙版确定关键标识区域图像,包括:使用该蒙版和该视频的视频帧进行阿尔法alpha计算,提取至少一个关键标识区域图像,将该视频帧的其他部分填充为第一像素值。其中,阿尔法alpha计算可以称为阿尔法融合alpha blending。例如,可以采用下式1进行alpha计算。
p=(p0*alpha+p1*(255-alpha))/255 式1,
其中,p表示alpha混合后的结果(0~255),p0表示视频帧的原图像(0~255),p1表示纯黑图像(0),alpha表示蒙板(mask)中的值(0或255)。
此外,将视频帧中除了关键标识区域图像之外的其他部分填充为第一像素值,例如填充为0表示黑色。当然也可以填充为及其他数值表示对应的颜色。
在利用关键帧的差异确定出蒙版后,可以对蒙版进行多次腐蚀和膨胀处理,并进行连通处理,然后利用最终的蒙版和该视频中的一个或多个视频帧进行阿尔法alpha计算,得到每个视频帧中的关键标识区域图像。如果一个视频帧中包括多个关键标识,利用蒙版可以从视频帧中提取多个关键标识区域图像。因此,不仅能够在一次识别过程中识别单个关键标识,也可以兼顾一个视频帧的画面中包括多个关键标识的情况。
图5是根据本申请另一实施例的视频中关键标识的识别方法的流程图。该实施例的视频中关键标识的识别方法可以包括上述实施例的各步骤。在本实施例中,该方法还包括:
S501、将填充后的视频帧划分为多个区域;
S502、提取划分后的视频帧的四个角所在的区域图像;
S503、根据该四个角所在的区域图像与提取的关键标识区域图像,确定进行识别的关键标识区域图像。
在本实施例中,可以将划分后提取的四个角所在的区域图像与利用蒙版提取的关键标识区域图像综合比较,确定最后对哪些关键标识区域图像进行识别。例如,如图6所示,将视频帧的画面利用两条横线和两条竖线平均分为九个区域,四个角所在的区域图像包括L1、L2、R1、R2,关键标识区域图像包括3个,处于L1、L2、R1的区域图像内,则可以只对处于L1、L2、R1区域图像内的3个关键标识区域图像进行识别。上述划分为九个区域仅是示例而非限制,也可以划分为其他数量个区域,例如,12个、16个等,具体可以根据视频帧的画面大小和关键标识的图案大小来选择。这样,可以适用于一个视频帧的画面中包括多个关键标识的情况,也可以减少误识别的关键标识区域图像,从而减少识别算法计算量,提高识别准确性和速度。
在一种应用示例中,仪从视频中提取的关键标识为台标为例进行说明:由于台标(包括半透明台标)在视频中的位置和图形基本固定不变,其他位置的内容会不断变化,利用多个视频帧中变化较小的区域生成蒙板,提取完整的台标区域。如图7所示,该台标识别方法可以包括:
S1.场景变换帧提取:
例如,如图8所示,利用多媒体处理工具ffmpeg可以抽取视频场景变换时的关键帧,减少处理耗时和计算量并加强识别效果。
计算当前帧和前一视频帧之间的平均绝对差(mafd),计算两个mafd之间的差(diff),例如,利用连续的3个视频帧T1、T2、T3(当前帧)计算出两个mafd,T3-T2等于mafd1,T2-T1等于mafd2,mafd1-mafd2的绝对值等于diff。在两个mafd和diff之间求最小值。当这个最小值大于设定阈值时,认为当前帧发生了场景变换,输出当前帧。
S2.检测场景关键帧四周的黑边,去除黑边区域。
S3.将场景变换帧转换成灰度图,例如仅保留亮度。使用灰度图与之前多个灰度图比较,根据像素差异生成蒙板(mask),如图9所示。
示例性算法:设置两个阈值,像素最小值(pixel_min),变化最大值(diff_max)。pixel_min可以解决透明台标的问题,因为透明台标区域有最小值。
将当前灰度图与前一个灰度图求差的绝对值(0~255),简称ad;
遍历图像每一个像素位置,当前位置像素值大于pixel_min且当前位置像素对应的ad小于diff_max,且前N帧灰度图和ad的对应位置均满足上述两个条件,则将这个位置的mask置为255。将不满足条件的像素位置的mask置为0。
在一种示例中,mask每个像素位置的值可以根据当前关键帧和之前缓存的帧一起计算出来。缓存帧可以包括原帧和差值帧,每个缓存帧按照上述规则过滤得到属于模板的像素位置。对于每个像素位置,所有缓存帧都符合的当前位置mask值为255,有一个不符合的,当前mask值为0。
利用多个关键帧之间求差值,可以去除动态区域生成蒙板,并对蒙版做腐蚀和膨胀运算,使未变化图形比较完整。
S4.将像素位置的蒙版mask置为0代表填黑,置为255代表保留原图像数据。
S5.对蒙版mask做腐蚀(corrode)和膨胀(expand),并重复多次。
腐蚀的可以去掉蒙版单像素区域和细线。膨胀可以使蒙版轮廓变大,重复多次使轮廓进一步变大。
S6.填充空洞(floodfill),也可以称为连通处理。
将蒙版mask中值为255包围的区域内的非255像素位置转换为255,实现蒙版内的连通。,如图10所示为经过腐蚀、膨胀和连通处理后的蒙版的示例。
S7.使用最终的蒙版mask和当前帧做阿尔法alpha计算,提取台标区域图像,其他部分填充为黑色。利用蒙板提取视频帧中的固定区域,其他区域填黑。例如将台标区域图像以外填黑,降低错误识别。
其中,alpha计算可以称为alpha blending,公式示例为:p=(p0*alpha+p1*(255-alpha))/255。其中,p表示alpha混合后的结果(0~255),p0表示视频帧的原图像(0~255),p1表示纯黑图像(0),alpha表示蒙板(mask)中的值(0或255)。其中,原图像可以是彩色图像,色彩空间可以包括YUV。
S8.对提取的台标区域图像进行台标识别。例如,利用预先训练的台标识别模型对提取的台标区域图像进行台标识别,得到视频包括的台标类别,如图11所示。
此外,也可以对视频帧进行区域划分,将四个角的区域图像与台标区域图像比较,综合确定最终对哪些台标区域图像进行识别。
采用上述的方法,如果视频中有多个台标,包括同时出现和不同时出现的台标,都可以包含在提取台标区域图像中,最后通过台标识别得到多个台标的类别。因此,可以同时识别一个视频中的多个台标。
在上述的方法中,通过场景变换帧提取找到像素变化较大的帧,由于台标位置变化小,因此根据变化较大的帧可以更准确的找到台标位置。有较强的容错性,可识别视频背景复杂情况下的台标。
在上述的方法中,通过多帧图像比较和最小像素值过滤,可以解决透明台标和视频中长时间不移动的物体,降低错误识别。
图12是根据本申请一实施例的视频中关键标识的识别装置的框图。该装置可以包括:
提取模块41,用于从视频中提取多个关键帧;
生成模块42,用于利用多个该关键帧之间的差异,生成关键标识的蒙版;
确定模块43,用于在该视频的视频帧中,利用该蒙版确定关键标识区域图像;
识别单元44,用于对该关键标识区域图像进行识别,得到该视频中包括的关键标识类别。
在一种可能的实施方式中,该提取模块具体用于根据该视频中相邻帧之间的差异,提取该视频中场景变换的关键帧。
在一种可能的实施方式中,如图13所示,该提取模块41包括:
获取子模块411,用于从该视频中获取包括当前帧的三个连续帧;
第一计算子模块412,用于计算该三个连续帧中每两个相邻帧的像素之间的平均绝对差,得到第一平均绝对差和第二平均绝对差;
第二计算子模块413,用于计算该第一平均绝对差与第二平均绝对差之间的第一差值;
提取子模块414,用于在该第一平均绝对差、第二平均绝对差和该第一差值中的最小值大于第一阈值的情况下,提取该三个连续帧中的当前帧作为关键帧。
在一种可能的实施方式中,该装置还包括:
黑边检测模块51,用于对该关键帧进行黑边检测,去除该关键帧的黑边区域。
在一种可能的实施方式中,该蒙版包括该关键帧中的非动态区域,该生成模块42包括:
灰度子模块421,用于将多个该关键帧分别转换为灰度图;
第三计算子模块422,用于计算待处理关键帧与其前一关键帧的灰度图的差值,得到该待处理关键帧的每个像素位置对应的第二差值;
遍历子模块423,用于遍历该待处理关键帧,将该待处理关键帧的灰度图中像素值大于像素最小值,和/或,该第二差值小于变化最大值的像素位置,确定为属于蒙版的像素位置。
在一种可能的实施方式中,该生成模块42还包括:
交集子模块424,用于获取该待处理关键帧中属于蒙版的像素位置与其前一关键帧中属于蒙版的像素位置的交集。
在一种可能的实施方式中,该装置还包括:
蒙版处理模块52,用于对该蒙版进行腐蚀、膨胀和连通处理。
在一种可能的实施方式中,该确定模块43具体用于使用该蒙版和该视频的视频帧进行阿尔法alpha计算,提取至少一个关键标识区域图像,将该视频帧的其他部分填充为第一像素值。
在一种可能的实施方式中,该装置还包括:
划分模块53,用于将填充后的视频帧划分为多个区域;提取划分后的视频帧的四个角所在的区域图像;根据四个角所在的区域图像与提取的关键标识区域图像,确定进行识别的关键标识区域图像。
本申请实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图14所示,是根据本申请实施例的视频中关键标识的识别方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图14所示,该电子设备包括:一个或多个处理器901、存储器902,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图14中以一个处理器901为例。
存储器902即为本申请所提供的非瞬时计算机可读存储介质。其中,该存储器存储有可由至少一个处理器执行的指令,以使该至少一个处理器执行本申请所提供的视频中关键标识的识别方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的视频中关键标识的识别方法。
存储器902作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的视频中关键标识的识别方法对应的程序指令/模块(例如,附图12所示的提取模块41、生成模块42、确定模块43和识别单元43)。处理器901通过运行存储在存储器902中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的视频中关键标识的识别方法。
存储器902可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据视频中关键标识的识别方法的电子设备的使用所创建的数据等。此外,存储器902可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器902可选包括相对于处理器901远程设置的存储器,这些远程存储器可以通过网络连接至视频中关键标识的识别方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
视频中关键标识的识别方法的电子设备还可以包括:输入装置903和输出装置904。处理器901、存储器902、输入装置903和输出装置904可以通过总线或者其他方式连接,图14中以通过总线连接为例。
输入装置903可接收输入的数字或字符信息,以及产生与视频中关键标识的识别方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置904可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与虚拟专用服务器(VPS)服务中,存在的管理难度大,业务扩展性弱的缺陷。
在本申请实施例中,利用视频的部分关键帧生成关键标识的蒙版,可以提高识别结果的准确性,容错性强,还可以减少关键标识识别所需的数据处理量,提高识别速度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种视频中关键标识的识别方法,包括:
从视频中提取多个关键帧;
利用多个所述关键帧之间的差异,生成关键标识的蒙版;
在所述视频的视频帧中,利用所述蒙版确定关键标识区域图像;
对所述关键标识区域图像进行识别,得到所述视频中包括的关键标识类别;
其中,从视频中提取多个关键帧,包括:
根据所述视频中相邻帧之间的差异,提取所述视频中场景变换的关键帧;
其中,根据所述视频中相邻帧之间的差异,提取所述视频中场景变换的关键帧,包括:
从所述视频中获取包括当前帧的三个连续帧;
计算所述三个连续帧中每两个相邻帧的像素之间的平均绝对差,得到第一平均绝对差和第二平均绝对差;
计算所述第一平均绝对差与第二平均绝对差之间的第一差值;
在所述第一平均绝对差、第二平均绝对差和所述第一差值中的最小值大于第一阈值的情况下,提取所述三个连续帧中的当前帧作为关键帧。
2.根据权利要求1所述的方法,其中,还包括:
对所述关键帧进行黑边检测,去除所述关键帧的黑边区域。
3.根据权利要求1所述的方法,其中,所述蒙版包括所述关键帧中的非动态区域,所述利用多个所述关键帧之间的差异,生成关键标识的蒙版,包括:
将多个所述关键帧分别转换为灰度图;
计算待处理关键帧与其前一关键帧的灰度图的差值,得到所述待处理关键帧的每个像素位置对应的第二差值;
遍历所述待处理关键帧,将所述待处理关键帧的灰度图中像素值大于像素最小值,和/或,所述第二差值小于变化最大值的像素位置,确定为属于蒙版的像素位置。
4.根据权利要求3所述的方法,其中,所述利用多个所述关键帧之间的差异,生成关键标识的蒙版,还包括:
获取所述待处理关键帧中属于蒙版的像素位置与其前一关键帧中属于蒙版的像素位置的交集。
5.根据权利要求1所述的方法,其中,所述方法还包括:
对所述蒙版进行腐蚀、膨胀和连通处理。
6.根据权利要求1所述的方法,其中,所述在所述视频的视频帧中,利用所述蒙版确定关键标识区域图像,包括:
使用所述蒙版和所述视频的视频帧进行阿尔法alpha计算,提取至少一个关键标识区域图像,将所述视频帧的其他部分填充为第一像素值。
7.根据权利要求1至6中任一项所述的方法,其中,还包括:
将填充后的视频帧划分为多个区域;
提取划分后的视频帧的四个角所在的区域图像;
根据所述四个角所在的区域图像与提取的关键标识区域图像,确定进行识别的关键标识区域图像。
8.一种视频中关键标识的识别装置,包括:
提取模块,用于从视频中提取多个关键帧;
生成模块,用于利用多个所述关键帧之间的差异,生成关键标识的蒙版;
确定模块,用于在所述视频的视频帧中,利用所述蒙版确定关键标识区域图像;
识别单元,用于对所述关键标识区域图像进行识别,得到所述视频中包括的关键标识类别;
其中,所述提取模块具体用于根据所述视频中相邻帧之间的差异,提取所述视频中场景变换的关键帧;
其中,所述提取模块包括:
获取子模块,用于从所述视频中获取包括当前帧的三个连续帧;
第一计算子模块,用于计算所述三个连续帧中每两个相邻帧的像素之间的平均绝对差,得到第一平均绝对差和第二平均绝对差;
第二计算子模块,用于计算所述第一平均绝对差与第二平均绝对差之间的第一差值;
提取子模块,用于在所述第一平均绝对差、第二平均绝对差和所述第一差值中的最小值大于第一阈值的情况下,提取所述三个连续帧中的当前帧作为关键帧。
9.根据权利要求8所述的装置,其中,还包括:
黑边检测模块,用于对所述关键帧进行黑边检测,去除所述关键帧的黑边区域。
10.根据权利要求8所述的装置,其中,所述蒙版包括所述关键帧中的非动态区域,所述生成模块包括:
灰度子模块,用于将多个所述关键帧分别转换为灰度图;
第三计算子模块,用于计算待处理关键帧与其前一关键帧的灰度图的差值,得到所述待处理关键帧的每个像素位置对应的第二差值;
遍历子模块,用于遍历所述待处理关键帧,将所述待处理关键帧的灰度图中像素值大于像素最小值,和/或,所述第二差值小于变化最大值的像素位置,确定为属于蒙版的像素位置。
11.根据权利要求10所述的装置,其中,所述生成模块还包括:
交集子模块,用于获取所述待处理关键帧中属于蒙版的像素位置与其前一关键帧中属于蒙版的像素位置的交集。
12.根据权利要求8所述的装置,其中,还包括:
蒙版处理模块,用于对所述蒙版进行腐蚀、膨胀和连通处理。
13.根据权利要求8所述的装置,其中,所述确定模块具体用于使用所述蒙版和所述视频的视频帧进行阿尔法alpha计算,提取至少一个关键标识区域图像,将所述视频帧的其他部分填充为第一像素值。
14.根据权利要求8至13中任一项所述的装置,其中,还包括:
划分模块,用于将填充后的视频帧划分为多个区域;提取划分后的视频帧的四个角所在的区域图像;根据所述四个角所在的区域图像与提取的关键标识区域图像,确定进行识别的关键标识区域图像。
15.一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010599295.4A CN111753762B (zh) | 2020-06-28 | 2020-06-28 | 视频中关键标识的识别方法、装置、设备以及存储介质 |
EP21163943.0A EP3819820B1 (en) | 2020-06-28 | 2021-03-22 | Method and apparatus for recognizing key identifier in video, device and storage medium |
US17/208,684 US11748986B2 (en) | 2020-06-28 | 2021-03-22 | Method and apparatus for recognizing key identifier in video, device and storage medium |
KR1020210038213A KR102596989B1 (ko) | 2020-06-28 | 2021-03-24 | 동영상의 키 식별자 식별 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램 |
JP2021100928A JP7209044B2 (ja) | 2020-06-28 | 2021-06-17 | ビデオにおけるキーロゴの認識方法、装置、設備、記憶媒体、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010599295.4A CN111753762B (zh) | 2020-06-28 | 2020-06-28 | 视频中关键标识的识别方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111753762A CN111753762A (zh) | 2020-10-09 |
CN111753762B true CN111753762B (zh) | 2024-03-15 |
Family
ID=72676856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010599295.4A Active CN111753762B (zh) | 2020-06-28 | 2020-06-28 | 视频中关键标识的识别方法、装置、设备以及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11748986B2 (zh) |
EP (1) | EP3819820B1 (zh) |
JP (1) | JP7209044B2 (zh) |
KR (1) | KR102596989B1 (zh) |
CN (1) | CN111753762B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112883902B (zh) * | 2021-03-12 | 2023-01-24 | 百度在线网络技术(北京)有限公司 | 视频检测方法、装置、电子设备及存储介质 |
CN113221801B (zh) * | 2021-05-24 | 2023-08-18 | 北京奇艺世纪科技有限公司 | 版号信息识别方法、装置、电子设备及可读存储介质 |
GB2618863A (en) * | 2022-02-02 | 2023-11-22 | Preqin Ltd | System for and method of detecting changes |
CN114979481B (zh) * | 2022-05-23 | 2023-07-07 | 深圳市海创云科技有限公司 | 一种5g超高清视频监控系统及方法 |
CN115115822B (zh) * | 2022-06-30 | 2023-10-31 | 小米汽车科技有限公司 | 车端图像处理方法、装置、车辆、存储介质及芯片 |
CN116524417B (zh) * | 2023-06-30 | 2023-10-20 | 深圳市华曦达科技股份有限公司 | 一种基于Flink的分布式实时视频关键帧的提取方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102226907A (zh) * | 2011-05-24 | 2011-10-26 | 武汉嘉业恒科技有限公司 | 基于多特征的车牌定位方法及装置 |
CN109376603A (zh) * | 2018-09-25 | 2019-02-22 | 北京周同科技有限公司 | 一种视频识别方法、装置、计算机设备及存储介质 |
CN110781711A (zh) * | 2019-01-21 | 2020-02-11 | 北京嘀嘀无限科技发展有限公司 | 目标对象识别方法、装置、电子设备及存储介质 |
CN110909613A (zh) * | 2019-10-28 | 2020-03-24 | Oppo广东移动通信有限公司 | 视频人物识别方法、装置、存储介质与电子设备 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5617149A (en) | 1994-11-22 | 1997-04-01 | Electronics And Telecommunications Research Institute | Apparatus and method for detecting scene changes using the difference of mad between image frames |
KR20030067133A (ko) | 2002-02-07 | 2003-08-14 | (주)지토 | 동영상의 자동분할 기술을 응용한 지능형 디지털 영상녹화기 시스템 |
US7483484B2 (en) * | 2003-10-09 | 2009-01-27 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting opaque logos within digital video signals |
US7843512B2 (en) * | 2004-03-31 | 2010-11-30 | Honeywell International Inc. | Identifying key video frames |
JP4720705B2 (ja) | 2006-09-27 | 2011-07-13 | ソニー株式会社 | プログラム、検出方法、及び検出装置 |
US8280158B2 (en) * | 2009-10-05 | 2012-10-02 | Fuji Xerox Co., Ltd. | Systems and methods for indexing presentation videos |
US8396302B2 (en) * | 2011-01-11 | 2013-03-12 | Intel Corporation | Method of detecting logos, titles, or sub-titles in video frames |
JP2013054430A (ja) | 2011-09-01 | 2013-03-21 | Nikon Corp | 画像評価装置、撮像装置およびプログラム |
US8947600B2 (en) | 2011-11-03 | 2015-02-03 | Infosys Technologies, Ltd. | Methods, systems, and computer-readable media for detecting scene changes in a video |
CN103714314B (zh) | 2013-12-06 | 2017-04-19 | 安徽大学 | 一种结合边缘和颜色信息的电视视频台标识别方法 |
KR101537559B1 (ko) | 2013-12-30 | 2015-07-20 | 전자부품연구원 | 객체 검출 장치, 차량용 객체 검출 장치 및 이들의 방법 |
KR101898765B1 (ko) | 2015-12-27 | 2018-09-13 | 전자부품연구원 | 콘텐츠 인식 기술 기반 콘텐츠 자동 생성 방법 및 시스템 |
US10169655B2 (en) * | 2016-11-30 | 2019-01-01 | Arris Enterprises Llc | Detection of logos in a sequence of video frames |
CN106851397B (zh) | 2017-02-28 | 2020-03-10 | 青岛海信电器股份有限公司 | 一种台标更换方法及装置 |
-
2020
- 2020-06-28 CN CN202010599295.4A patent/CN111753762B/zh active Active
-
2021
- 2021-03-22 EP EP21163943.0A patent/EP3819820B1/en active Active
- 2021-03-22 US US17/208,684 patent/US11748986B2/en active Active
- 2021-03-24 KR KR1020210038213A patent/KR102596989B1/ko active IP Right Grant
- 2021-06-17 JP JP2021100928A patent/JP7209044B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102226907A (zh) * | 2011-05-24 | 2011-10-26 | 武汉嘉业恒科技有限公司 | 基于多特征的车牌定位方法及装置 |
CN109376603A (zh) * | 2018-09-25 | 2019-02-22 | 北京周同科技有限公司 | 一种视频识别方法、装置、计算机设备及存储介质 |
CN110781711A (zh) * | 2019-01-21 | 2020-02-11 | 北京嘀嘀无限科技发展有限公司 | 目标对象识别方法、装置、电子设备及存储介质 |
CN110909613A (zh) * | 2019-10-28 | 2020-03-24 | Oppo广东移动通信有限公司 | 视频人物识别方法、装置、存储介质与电子设备 |
Also Published As
Publication number | Publication date |
---|---|
US11748986B2 (en) | 2023-09-05 |
JP7209044B2 (ja) | 2023-01-19 |
US20210209375A1 (en) | 2021-07-08 |
EP3819820A3 (en) | 2021-11-10 |
JP2021166066A (ja) | 2021-10-14 |
KR20210040323A (ko) | 2021-04-13 |
EP3819820B1 (en) | 2022-12-21 |
KR102596989B1 (ko) | 2023-10-31 |
CN111753762A (zh) | 2020-10-09 |
EP3819820A2 (en) | 2021-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111753762B (zh) | 视频中关键标识的识别方法、装置、设备以及存储介质 | |
Braham et al. | Semantic background subtraction | |
CN111292337B (zh) | 图像背景替换方法、装置、设备及存储介质 | |
CN109214999B (zh) | 一种视频字幕的消除方法及装置 | |
Chudasama et al. | Image segmentation using morphological operations | |
CN109753953B (zh) | 图像中定位文本的方法、装置、电子设备和存储介质 | |
CN106875437B (zh) | 一种面向rgbd三维重建的关键帧提取方法 | |
CN112528976B (zh) | 文本检测模型的生成方法和文本检测方法 | |
US20070036432A1 (en) | Object detection in images | |
CN111709873B (zh) | 图像转换模型生成器的训练方法和装置 | |
CN112528786B (zh) | 车辆跟踪方法、装置及电子设备 | |
CN111767920B (zh) | 感兴趣区域的提取方法、装置、电子设备及存储介质 | |
CN111260684A (zh) | 基于帧差法和背景差分法结合的前景像素提取方法及系统 | |
CN111275034B (zh) | 从图像中提取文本区域的方法、装置、设备和存储介质 | |
CN112270745B (zh) | 一种图像生成方法、装置、设备以及存储介质 | |
CN108509917A (zh) | 基于镜头类相关性分析的视频场景分割方法和装置 | |
JP2018045693A (ja) | 動画像背景除去方法及び動画像背景除去システム | |
CN107369176B (zh) | 一种柔性ic基板氧化面积检测系统及方法 | |
CN111768356A (zh) | 一种人脸图像融合方法、装置、电子设备及存储介质 | |
CN106251348B (zh) | 一种面向深度相机的自适应多线索融合背景减除方法 | |
CN112184837A (zh) | 一种图像检测方法、装置、电子设备及存储介质 | |
Chan et al. | On the hardware/software design and implementation of a high definition multiview video surveillance system | |
CN111414938A (zh) | 一种板式换热器内气泡的目标检测方法 | |
CN110942420B (zh) | 一种图像字幕的消除方法及装置 | |
CN113627342A (zh) | 视频深度特征提取优化的方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |