CN108154103A - 检测推广信息显著性的方法、装置、设备和计算机存储介质 - Google Patents
检测推广信息显著性的方法、装置、设备和计算机存储介质 Download PDFInfo
- Publication number
- CN108154103A CN108154103A CN201711395251.4A CN201711395251A CN108154103A CN 108154103 A CN108154103 A CN 108154103A CN 201711395251 A CN201711395251 A CN 201711395251A CN 108154103 A CN108154103 A CN 108154103A
- Authority
- CN
- China
- Prior art keywords
- video
- conspicuousness
- promotion message
- frequency band
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本发明提供一种检测推广信息显著性的方法、装置、设备和计算机存储介质,所述方法包括:抽取视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果;基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分;基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性。本发明通过对视频内容进行分析,并利用显著性检测模型获取各帧图像的显著性检测结果,从而获取视频段的推广信息显著性,实现准确判断推广信息是否位于视频内容中的显著性区域。
Description
【技术领域】
本发明涉及互联网技术领域,尤其涉及一种检测推广信息显著性的方法、装置、设备和计算机存储介质。
【背景技术】
随着互联网数据的爆炸性增长,以及人工智能技术的快速发展,围绕视频中推广信息的产品正在不断受到关注,比如视频贴片推广信息、视频植入推广信息等。但现有技术在将贴片推广信息、植入推广信息加入到视频时,并没有考虑到推广信息位置对视频内容的影响程度,如果加入的推广信息位于观看内容的显著性区域,则会遮挡用户所观看的视频内容,严重影响用户的观看体验。因此,亟需提供一种能够准确检测视频中推广信息显著性的方法。
【发明内容】
有鉴于此,本发明提供了一种检测推广信息显著性的方法、装置、设备和计算机存储介质,用于准确检测视频内容中推广信息的显著性,从而更合理地在视频内容中放置推广信息。
本发明为解决技术问题所采用的技术方案是提供一种检测推广信息显著性的方法,所述方法包括:抽取视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果;基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分;基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性。
根据本发明一优选实施例,所述显著性检测模型是通过如下方式预先训练得到的:获取已标注显著性区域的图像;将所述各图像作为输入,将各图像中像素的显著性标注结果作为输出,训练分类模型,得到所述显著性检测模型。
根据本发明一优选实施例,在所述抽取视频段中的每帧图像之前,还包括:基于视频中场景切换帧的位置对视频进行切分,得到一个以上的视频段;针对各视频段,继续执行抽取视频段中的每帧图像的操作。
根据本发明一优选实施例,所述基于场景切换帧的位置对视频进行切分,得到一个以上的视频段包括:获取视频中的各个场景切换帧;确定所述各个场景切换帧在视频中的出现时间,并基于所述出现时间将视频切分为多个视频段。
根据本发明一优选实施例,所述获取视频中的各个场景切换帧包括:获取视频中每帧图像的特征信息;依次比较每帧图像之间的特征信息是否匹配,若不匹配,则确定当前比较的两帧图像中的前一帧图像为场景切换帧。
根据本发明一优选实施例,所述方法还包括:在将图像作为显著性检测模型的输入之前,对图像进行超分辨率分割。
根据本发明一优选实施例,所述基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分包括:确定每帧图像中的推广信息区域;将一帧图像中属于推广信息区域的各像素对应的输出结果进行累加,将累加结果作为该一帧图像的推广信息显著性得分。
根据本发明一优选实施例,所述将一帧图像中属于推广信息区域的各像素对应的输出结果进行累加包括:将在所述推广信息区域中各像素满足预设要求的输出结果进行累加。
根据本发明一优选实施例,所述基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性包括:将视频段中对应每帧图像的推广信息显著性得分进行整合,得到该视频段所对应的推广信息显著性。
根据本发明一优选实施例,所述分类模型为全卷积神经网络模型。
根据本发明一优选实施例,所述方法还包括:将视频段对应的推广信息显著性发送至视频监控系统,由视频监控系统对视频段中的推广信息进行调整。
本发明为解决技术问题所采用的技术方案是提供一种检测推广信息显著性的装置,所述装置包括:处理单元,用于抽取视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果;确定单元,用于基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分;获取单元,用于基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性。
根据本发明一优选实施例,所述装置还包括训练单元,用于通过如下方式预先训练得到显著性检测模型:获取已标注显著性区域的图像;将所述各图像作为输入,将各图像中像素的显著性标注结果作为输出,训练分类模型,得到所述显著性检测模型。
根据本发明一优选实施例,所述装置还包括切分单元,用于在所述抽取视频段中的每帧图像之前,具体执行:基于视频中场景切换帧的位置对视频进行切分,得到一个以上的视频段;所述检测单元针对各视频段执行所述抽取视频段中的每帧图像的操作。
根据本发明一优选实施例,所述切分单元在基于场景切换帧的位置对视频进行切分,得到一个以上的视频段时,具体执行:获取视频中的各个场景切换帧;确定所述各个场景切换帧在视频中的出现时间,并基于所述出现时间将视频切分为多个视频段。
根据本发明一优选实施例,所述确定单元在基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分时,具体执行:确定每帧图像中的推广信息区域;将一帧图像中属于推广信息区域的各像素对应的输出结果进行累加,将累加结果作为该一帧图像的推广信息显著性得分。
根据本发明一优选实施例,所述获取单元在基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性时,具体执行:将视频段中对应每帧图像的推广信息显著性得分进行整合,得到该视频段所对应的推广信息显著性。
根据本发明一优选实施例,所述装置还包括监控单元:将视频段对应的推广信息显著性发送至视频监控系统,由视频监控系统对视频段中的推广信息进行调整。
由以上技术方案可以看出,本发明通过对视频内容进行分析,利用显著性检测模型获取各帧图像的显著性检测结果,从而获取视频段的推广信息显著性,实现准确判断推广信息是否位于视频内容中的显著性区域。
【附图说明】
图1为本发明一实施例提供的检测推广信息显著性的方法流程图;
图2为本发明一实施例提供的输入显著性检测模型的图像;
图3为本发明一实施例提供的显著性检测模型的输出结果的示意图;
图4为本发明一实施例提供的检测推广信息显著性的装置结构图;
图5为本发明一实施例提供的计算机系统/服务器的框图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
对于观看内容来说,用户只对观看内容中的部分区域感兴趣,而对其他剩余的区域不感兴趣,而显著性区域则是观看内容中最能引起用户兴趣、最能表现观看内容的区域。因此,本发明通过对视频内容进行分析,检测视频内容中推广信息的显著性,从而更加准确地判断视频内容中的推广信息是否位于视频内容的显著性区域而影响用户的观看。
图1为本发明一实施例提供的检测推广信息显著性的方法流程图,如图1中所述,所述方法包括:
在101中,基于视频中场景切换帧的位置对所述视频进行切分,得到一个以上的视频段。
在本步骤中,首先获取视频中所包含的场景切换帧,然后确定所获取的场景切换帧在视频中的位置,最后根据所确定的各场景切换帧对应的位置对视频进行切分,从而得到一个以上的视频段。可以理解的是,若当前视频已知为一个摄制场景下的视频,则不需对该视频进行切分,而直接进行对视频中每帧图像的显著性检测。
可以理解的是,一个视频可能是由多个摄制场景构成的,本步骤的目的就在于按照不同的摄制场景,将视频切分一个以上的视频段。其中,视频中的场景切换帧用于表示视频中在进行场景切换时的图像,即场景切换帧与与其相邻的下一帧图像属于视频中的两个不同摄制场景,因此,基于视频中的场景切换帧对视频进行切分,能够使得切分所得到的一个以上的视频段分别属于不同的摄制场景。
具体地,在获取视频中的场景切换帧时,可以采用以下方式:获取视频中每帧图像的特征信息,其中,每帧图像的特征信息可以包括图像的颜色直方图信息、图像的特征点信息等;依次比较视频中每帧图像之间的特征信息是否匹配,若两帧图像之间的特征信息匹配,则表明该两帧图像属于同一个摄制场景,若两帧图像之间的特征信息不匹配,则表明该两帧图像属于不同的摄制场景,并确定当前比较的两帧图像中的前一帧图像为场景切换帧。
获取视频中的场景切换帧之后,再确定场景切换帧在视频中的出现时间,将各场景切换帧的出现时间作为各场景切换帧的位置,进而基于各场景切换帧的出现时间对视频进行切分,以得到一个以上的视频片段。也就是说,根据各场景切换帧切分所得到的一个以上的视频段为对应不同摄制场景的视频段,而每个视频段则对应相同的摄制场景。
在102中,抽取各视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果。
在用户进行观看时,人眼总是会选择性地将注意力集中在观看内容中的某些最具吸引力的内容上,以便从中快速有效地获取重要信息,而这些最具吸引力的内容就是对应观看内容的显著性区域。因此,本步骤就是用于获取视频段中每帧图像的显著性区域。
在本步骤中,首先抽取各视频段中的每帧图像,然后利用预先训练得到的显著性检测模型,得到由显著性检测模型输出的对应每帧图像的显著性检测结果。
具体地,显著性检测模型可以采用如下方式预先训练得到:获取已标注显著性区域的图像,其中在对图像进行标注时,可以将图像中位于显著性区域的像素标注为1,而位于其他区域的像素标注为0,也可以按照显著性区域的划分等级对图像进行标注,例如按照显著性高低将图像中的像素划分为5个等级;将各图像作为输入,将各图像中像素的显著性标注结果作为输出,训练分类模型,得到显著性检测模型。在本步骤中,所使用的分类模型可以包括全卷积神经网络模型、支持向量机等,本发明对此不进行限定。
在将图像作为显著性检测模型的输入之前,还可以对图像进行超分辨率分割,将图像的分割结果作为显著性检测模型的输入。通过对图像进行超分辨率分割,能够进一步提升显著性检测模型检测图像显著性的精确程度。
在本步骤中,显著性检测模型的输出结果代表图像显著性区域的检测结果,即通过显著性检测模型的输出结果,能够获取每帧图像的显著性区域。如图2以及图3中所示,图2为输入显著性检测模型的原始图像,图3则为显著性检测模型输出的该图像的显著性区域的检测结果,在输出结果中越白的部分,表示图像的显著性越高,相反则越低。
在103中,基于所述输出结果,确定所述每帧图像所对应的推广信息显著性得分。
在本步骤中,首先确定每帧图像中的推广信息区域,进而基于步骤102所得到的显著性区域的检测结果,获取每帧图像所对应的推广信息显著性得分。其中,可以通过使用推广信息图像的识别算法或者依据默认的推广信息出现位置,来确定每帧图像中的推广信息区域,本发明对确定推广信息区域的方法不进行限定。
具体地,在获取每帧图像所对应的推广信息显著性得分时,可以直接累加推广信息区域中由显著性检测模型所输出的各像素的显著性检测结果,作为对应该帧图像的推广信息显著性得分;也可以仅累加在推广信息区域中由显著性检测模型所输出的各像素的显著性检测结果里满足预设要求的值,作为对应该帧图像的推广信息显著性得分。
举例来说,若一帧图像的推广信息区域中含有3个像素,由显著性检测模型输出的对应该3个像素的显著性检测结果分别为1、0.2以及0.7,在确定该帧图像所对应的推广信息显著性得分时,可以直接将3个值的累加结果1.9,作为该帧图像所对应的推广信息显著性得分;也可以仅将超过预设阈值的值进行累加,即若预设阈值为0.6,则仅将1以及0.7进行累加,将累加结果1.7作为该帧图像所对应的推广信息显著性得分。
在104中,基于每帧图像对应的推广信息显著性得分,获取各视频段对应的推广信息显著性。
在本步骤中,基于步骤103所确定的视频中每帧图像所对应的推广信息显著性得分,获取各视频段所对应的推广信息显著性。
其中,在获取各视频段所对应的推广信息显著性时,可以采用将视频段中对应每帧图像的推广信息显著性得分进行归一化处理的方式来获取。具体地,在进行归一化处理时可以采用以下方式:确定各视频段中所包含图像的总帧数;分别累加各视频段中每帧图像对应的推广信息显著性得分;分别将各视频段推广信息显著性得分的累加结果与各视频段中所包含图像的总帧数相除,将计算结果作为各视频段所对应的推广信息显著性。在获取各视频段所对应的推广信息显著性时,也可以在对各视频段中每帧图像对应的推广信息显著性得分进行累加后,直接将累加结果作为各视频段的推广信息显著性。
由于图像的显著性区域表示人眼对图像中注意力较为集中的区域,因此,若各视频段所对应的推广信息显著性越高,则表面视频段中存在的推广信息越会遮挡视频的关键内容,从而影响用户的观看。
在获取各视频段的推广信息显著性之后,还可以进一步进行以下处理:将所获取的推广信息显著性发送至视频监控系统,视频监控系统根据各视频段所对应的推广信息显著性,判断各视频段中所存在的推广信息是否合理,若不合理,则对视频段中存在的推广信息进行调整。也可以将所获取的推广信息显著性发送至视频监控人员,视频监控人员根据推广信息显著性对各视频中的推广信息进行调整,使得推广信息不位于图像显著性区域而影响用户观看。
图4为本发明一实施例提供的检测推广信息显著性的装置结构图,如图4中所示,所述装置包括:切分单元41、训练单元42、检测单元43、确定单元44、处理单元45以及应用单元46。
切分单元41,用于基于视频中场景切换帧的位置对所述视频进行切分,得到一个以上的视频段。
切分单元41首先获取视频中所包含的场景切换帧,然后确定所获取的场景切换帧在视频中的位置,最后根据所确定的各场景切换帧对应的位置对视频进行切分,从而得到一个以上的视频段。可以理解的是,若当前视频已知为一个摄制场景下的视频,则不需要切分单元41对该视频进行切分,而直接由检测单元42对该视频中的每帧图像进行显著性检测。
可以理解的是,一个视频可能是由多个摄制场景构成的,切分单元41的目的就在于按照不同的摄制场景,将视频切分一个以上的视频段。其中,视频中的场景切换帧用于表示视频中在进行场景切换时的图像,即场景切换帧与与其相邻的下一帧图像属于视频中的两个不同摄制场景,因此,切分单元41基于视频中的场景切换帧对视频进行切分,能够使得切分所得到的一个以上的视频段分别属于不同的摄制场景。
具体地,切分单元41在获取视频中的场景切换帧时,可以采用以下方式:获取视频中每帧图像的特征信息,其中,每帧图像的特征信息可以包括图像的颜色直方图信息、图像的特征点信息等;依次比较视频中每帧图像之间的特征信息是否匹配,若两帧图像之间的特征信息匹配,则表明该两帧图像属于同一个摄制场景,若两帧图像之间的特征信息不匹配,则表明该两帧图像属于不同的摄制场景,并确定当前比较的两帧图像中的前一帧图像为场景切换帧。
切分单元41获取视频中的场景切换帧之后,再确定场景切换帧在视频中的出现时间,将各场景切换帧的出现时间作为各场景切换帧的位置,进而基于各场景切换帧的出现时间对视频进行切分,以得到一个以上的视频片段。也就是说,切分单元41根据各场景切换帧切分所得到的一个以上的视频段为对应不同摄制场景的视频段,而每个视频段则对应相同的摄制场景。
训练单元42,用于预先训练得到显著性检测模型。
具体地,训练单元42在训练显著性检测模型时,可以采用如下方式:
获取已标注显著性区域的图像,其中在对图像进行标注时,可以将图像中位于显著性区域的像素标注为1,而位于其他区域的像素标注为0,也可以按照显著性区域的划分等级对图像进行标注,例如按照显著性高低将图像中的像素划分为5个等级;将各图像作为输入,将各图像中像素的显著性标注结果作为输出,训练分类模型,得到显著性检测模型。训练单元42所使用的分类模型可以包括全卷积神经网络模型、支持向量机等,本发明对此不进行限定。
检测单元43,用于抽取各视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果。
在用户进行观看时,人眼总是会选择性地将注意力集中在观看内容中的某些最具吸引力的内容上,以便从中快速有效地获取重要信息,而这些最具吸引力的内容就是对应观看内容的显著性区域。因此,检测单元43就是用于获取视频段中每帧图像的显著性区域。
检测单元43首先抽取各视频段中的每帧图像,然后利用训练单元42预先训练得到的显著性检测模型,得到由显著性检测模型输出的对应每帧图像的显著性检测结果。
在将图像作为显著性检测模型的输入之前,检测单元43还可以对图像进行超分辨率分割,将图像的分割结果作为显著性检测模型的输入。通过对图像进行超分辨率分割,能够进一步提升显著性检测模型检测图像显著性的精确程度。
检测单元43所得到的显著性检测模型的输出结果代表图像显著性区域的检测结果,即通过显著性检测模型的输出结果,能够获取每帧图像的显著性区域。
确定单元44,用于基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分。
确定单元44首先确定每帧图像中的推广信息区域,进而基于检测单元43所得到的显著性区域的检测结果,获取每帧图像所对应的推广信息显著性得分。其中,确定单元44可以通过使用推广信息图像的识别算法或者依据默认的推广信息出现位置,来确定每帧图像中的推广信息区域,本发明对确定推广信息区域的方法不进行限定。
具体地,确定单元44在获取每帧图像所对应的推广信息显著性得分时,可以直接累加推广信息区域中由显著性检测模型所输出的各像素的显著性检测结果,作为对应该帧图像的推广信息显著性得分;也可以仅累加在推广信息区域中由显著性检测模型所输出的各像素的显著性检测结果里满足预设要求的值,作为对应该帧图像的推广信息显著性得分。
处理单元45,用于基于每帧图像对应的推广信息显著性得分,获取各视频段对应的推广信息显著性。
处理单元45基于确定单元44所确定的视频中每帧图像所对应的推广信息显著性得分,获取各视频段所对应的推广信息显著性。
其中,处理单元45在获取各视频段所对应的推广信息显著性时,可以采用将视频段中对应每帧图像的推广信息显著性得分进行归一化处理的方式来获取。具体地,处理单元45在进行归一化处理时可以采用以下方式:确定各视频段中所包含图像的总帧数;分别累加各视频段中每帧图像对应的推广信息显著性得分;分别将各视频段推广信息显著性得分的累加结果与各视频段中所包含图像的总帧数相除,将计算结果作为各视频段所对应的推广信息显著性。在获取各视频段所对应的推广信息显著性时,处理单元45也可以在对各视频段中每帧图像对应的推广信息显著性得分进行累加后,直接将累加结果作为各视频段的推广信息显著性。
应用单元46,用于利用推广信息显著性调整各视频段中的推广信息。
由于图像的显著性区域表示人眼对图像中注意力较为集中的区域,因此,若各视频段所对应的推广信息显著性越高,则表面视频段中存在的推广信息越会遮挡视频的关键内容,从而影响用户的观看。
因此,应用单元46利用处理单元45所获取的推广信息显著性对各视频段中的推广信息进行调整。在获取各视频段的推广信息显著性之后,应用单元46可以将所获取的推广信息显著性发送至视频监控系统,视频监控系统根据各视频段所对应的推广信息显著性,判断各视频段中所存在的推广信息是否合理,若不合理,则对视频段中存在的推广信息进行调整。应用单元46也可以将所获取的推广信息显著性发送至视频监控人员,由视频监控人员根据推广信息显著性直接对各视频中的推广信息进行调整,使得推广信息不位于图像中的显著性区域而影响用户观看。
图5示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。图5显示的计算机系统/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统/服务器012以通用计算设备的形式表现。计算机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,系统存储器028,连接不同系统组件(包括系统存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器028可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机系统/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统034可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元016通过运行存储在系统存储器028中的程序,从而执行各种功能应用以及数据处理,例如实现一种检测推广信息显著性的方法,可以包括:
抽取视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果;
基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分;
基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。例如,被上述一个或多个处理器执行的方法流程,可以包括:
抽取视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果;
基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分;
基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
利用本发明提供的技术方案,通过对视频进行分析,利用显著性检测模型得到视频中每帧图像的显著性检测结果,进而基于每帧图像的显著性检测结果确定视频段的推广信息显著性,从而实现更加准确地判断推广信息是否位于视频内容中的显著性区域而影响用户的观看。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (20)
1.一种检测推广信息显著性的方法,其特征在于,所述方法包括:
抽取视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果;
基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分;
基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性。
2.根据权利要求1所述的方法,其特征在于,所述显著性检测模型是通过如下方式预先训练得到的:
获取已标注显著性区域的图像;
将所述各图像作为输入,将各图像中像素的显著性标注结果作为输出,训练分类模型,得到所述显著性检测模型。
3.根据权利要求1所述的方法,其特征在于,在所述抽取视频段中的每帧图像之前,还包括:
基于视频中场景切换帧的位置对视频进行切分,得到一个以上的视频段;
针对各视频段,继续执行抽取视频段中的每帧图像的操作。
4.根据权利要求3所述的方法,其特征在于,所述基于场景切换帧的位置对视频进行切分,得到一个以上的视频段包括:
获取视频中的各个场景切换帧;
确定所述各个场景切换帧在视频中的出现时间,并基于所述出现时间将视频切分为多个视频段。
5.根据权利要求4所述的方法,其特征在于,所述获取视频中的各个场景切换帧包括:
获取视频中每帧图像的特征信息;
依次比较每帧图像之间的特征信息是否匹配,若不匹配,则确定当前比较的两帧图像中的前一帧图像为场景切换帧。
6.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
在将图像作为显著性检测模型的输入之前,对图像进行超分辨率分割。
7.根据权利要求1所述的方法,其特征在于,所述基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分包括:
确定每帧图像中的推广信息区域;
将一帧图像中属于推广信息区域的各像素对应的输出结果进行累加,将累加结果作为该一帧图像的推广信息显著性得分。
8.根据权利要求7所述的方法,其特征在于,所述将一帧图像中属于推广信息区域的各像素对应的输出结果进行累加包括:
将在所述推广信息区域中各像素满足预设要求的输出结果进行累加。
9.根据权利要求1所述的方法,其特征在于,所述基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性包括:
将视频段中对应每帧图像的推广信息显著性得分进行整合,得到该视频段所对应的推广信息显著性。
10.根据权利要求2所述的方法,其特征在于,所述分类模型为全卷积神经网络模型。
11.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将视频段对应的推广信息显著性发送至视频监控系统,由视频监控系统对视频段中的推广信息进行调整。
12.一种检测推广信息显著性的装置,其特征在于,所述装置包括:
检测单元,用于抽取视频段中的每帧图像,将所述图像作为显著性检测模型的输入,获取所述显著性检测模型的输出结果;
确定单元,用于基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分;
处理单元,用于基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性。
13.根据权利要求12所述的装置,其特征在于,所述装置还包括训练单元,用于通过如下方式预先训练得到显著性检测模型:
获取已标注显著性区域的图像;
将所述各图像作为输入,将各图像中像素的显著性标注结果作为输出,训练分类模型,得到所述显著性检测模型。
14.根据权利要求12所述的装置,其特征在于,所述装置还包括切分单元,用于在所述抽取视频段中的每帧图像之前,具体执行:基于视频中场景切换帧的位置对视频进行切分,得到一个以上的视频段;
所述检测单元针对各视频段分别执行所述抽取视频段中的每帧图像的操作。
15.根据权利要求14所述的装置,其特征在于,所述切分单元在基于场景切换帧的位置对视频进行切分,得到一个以上的视频段时,具体执行:
获取视频中的各个场景切换帧;
确定所述各个场景切换帧在视频中的出现时间,并基于所述出现时间将视频切分为多个视频段。
16.根据权利要求12所述的装置,其特征在于,所述确定单元在基于所述输出结果,确定所述每帧图像对应的推广信息显著性得分时,具体执行:
确定每帧图像中的推广信息区域;
将一帧图像中属于推广信息区域的各像素对应的输出结果进行累加,将累加结果作为该一帧图像的推广信息显著性得分。
17.根据权利要求12所述的装置,其特征在于,所述获取单元在基于每帧图像对应的推广信息显著性得分,获取视频段对应的推广信息显著性时,具体执行:
将视频段中对应每帧图像的推广信息显著性得分进行整合,得到该视频段所对应的推广信息显著性。
18.根据权利要求12所述的装置,其特征在于,所述装置还包括监控单元,用于将视频段对应的推广信息显著性发送至视频监控系统,由视频监控系统对视频段中的推广信息进行调整。
19.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-11中任一所述的方法。
20.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-11中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711395251.4A CN108154103A (zh) | 2017-12-21 | 2017-12-21 | 检测推广信息显著性的方法、装置、设备和计算机存储介质 |
US16/228,581 US10936875B2 (en) | 2017-12-21 | 2018-12-20 | Method and apparatus for detecting significance of promotional information, device and computer storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711395251.4A CN108154103A (zh) | 2017-12-21 | 2017-12-21 | 检测推广信息显著性的方法、装置、设备和计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108154103A true CN108154103A (zh) | 2018-06-12 |
Family
ID=62464156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711395251.4A Pending CN108154103A (zh) | 2017-12-21 | 2017-12-21 | 检测推广信息显著性的方法、装置、设备和计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10936875B2 (zh) |
CN (1) | CN108154103A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109831680A (zh) * | 2019-03-18 | 2019-05-31 | 北京奇艺世纪科技有限公司 | 一种视频清晰度的评价方法及装置 |
CN110765882A (zh) * | 2019-09-25 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种视频标签确定方法、装置、服务器及存储介质 |
CN111444819A (zh) * | 2020-03-24 | 2020-07-24 | 北京百度网讯科技有限公司 | 切割帧确定方法、网络训练方法、装置、设备及存储介质 |
CN111914850A (zh) * | 2019-05-07 | 2020-11-10 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN116030115A (zh) * | 2023-03-22 | 2023-04-28 | 四川航天职业技术学院(四川航天高级技工学校) | 应用于ai的视觉设计图像分析方法及系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110930220A (zh) * | 2019-11-14 | 2020-03-27 | 北京无限光场科技有限公司 | 一种显示方法、装置、终端设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104219559A (zh) * | 2013-05-31 | 2014-12-17 | 奥多比公司 | 在视频内容中投放不明显叠加 |
CN105472434A (zh) * | 2014-11-17 | 2016-04-06 | Tcl集团股份有限公司 | 植入内容到视频演示中的方法和系统 |
CN106164906A (zh) * | 2014-04-07 | 2016-11-23 | 谷歌公司 | 用于计算网页上的电话号码的显著性分值并且自动将其注释/附加至广告的方法 |
CN106651430A (zh) * | 2016-10-19 | 2017-05-10 | 天津工业大学 | 一种基于视觉注意机制的广告设计客观评价方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040125877A1 (en) * | 2000-07-17 | 2004-07-01 | Shin-Fu Chang | Method and system for indexing and content-based adaptive streaming of digital video content |
JP5465620B2 (ja) * | 2010-06-25 | 2014-04-09 | Kddi株式会社 | 映像コンテンツに重畳する付加情報の領域を決定する映像出力装置、プログラム及び方法 |
US10572735B2 (en) * | 2015-03-31 | 2020-02-25 | Beijing Shunyuan Kaihua Technology Limited | Detect sports video highlights for mobile computing devices |
WO2018033156A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 视频图像的处理方法、装置和电子设备 |
-
2017
- 2017-12-21 CN CN201711395251.4A patent/CN108154103A/zh active Pending
-
2018
- 2018-12-20 US US16/228,581 patent/US10936875B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104219559A (zh) * | 2013-05-31 | 2014-12-17 | 奥多比公司 | 在视频内容中投放不明显叠加 |
CN106164906A (zh) * | 2014-04-07 | 2016-11-23 | 谷歌公司 | 用于计算网页上的电话号码的显著性分值并且自动将其注释/附加至广告的方法 |
CN105472434A (zh) * | 2014-11-17 | 2016-04-06 | Tcl集团股份有限公司 | 植入内容到视频演示中的方法和系统 |
CN106651430A (zh) * | 2016-10-19 | 2017-05-10 | 天津工业大学 | 一种基于视觉注意机制的广告设计客观评价方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109831680A (zh) * | 2019-03-18 | 2019-05-31 | 北京奇艺世纪科技有限公司 | 一种视频清晰度的评价方法及装置 |
CN111914850A (zh) * | 2019-05-07 | 2020-11-10 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN111914850B (zh) * | 2019-05-07 | 2023-09-19 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN110765882A (zh) * | 2019-09-25 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种视频标签确定方法、装置、服务器及存储介质 |
CN110765882B (zh) * | 2019-09-25 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种视频标签确定方法、装置、服务器及存储介质 |
CN111444819A (zh) * | 2020-03-24 | 2020-07-24 | 北京百度网讯科技有限公司 | 切割帧确定方法、网络训练方法、装置、设备及存储介质 |
CN111444819B (zh) * | 2020-03-24 | 2024-01-23 | 北京百度网讯科技有限公司 | 切割帧确定方法、网络训练方法、装置、设备及存储介质 |
CN116030115A (zh) * | 2023-03-22 | 2023-04-28 | 四川航天职业技术学院(四川航天高级技工学校) | 应用于ai的视觉设计图像分析方法及系统 |
CN116030115B (zh) * | 2023-03-22 | 2023-06-02 | 四川航天职业技术学院(四川航天高级技工学校) | 应用于ai的视觉设计图像分析方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US10936875B2 (en) | 2021-03-02 |
US20190197314A1 (en) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108154103A (zh) | 检测推广信息显著性的方法、装置、设备和计算机存储介质 | |
CN109858371B (zh) | 人脸识别的方法及装置 | |
CN109145680B (zh) | 一种获取障碍物信息的方法、装置、设备和计算机存储介质 | |
CN107492379B (zh) | 一种声纹创建与注册方法及装置 | |
CN109816441B (zh) | 策略推送方法、系统及相关装置 | |
CN110163096B (zh) | 人物识别方法、装置、电子设备和计算机可读介质 | |
US11126827B2 (en) | Method and system for image identification | |
CN109086834B (zh) | 字符识别方法、装置、电子设备及存储介质 | |
CN110232340A (zh) | 建立视频分类模型以及视频分类的方法、装置 | |
CN108197318A (zh) | 人脸识别方法、装置、机器人及存储介质 | |
CN114612987B (zh) | 一种表情识别方法及装置 | |
CN110245580A (zh) | 一种检测图像的方法、装置、设备和计算机存储介质 | |
CN109543560A (zh) | 一种视频中人物的分割方法、装置、设备和计算机存储介质 | |
CN111325107B (zh) | 检测模型训练方法、装置、电子设备和可读存储介质 | |
CN109446907A (zh) | 一种视频聊天的方法、装置、设备和计算机存储介质 | |
CN111738199B (zh) | 图像信息验证方法、装置、计算装置和介质 | |
WO2023197648A1 (zh) | 截图处理方法及装置、电子设备和计算机可读介质 | |
CN112016545A (zh) | 一种包含文本的图像生成方法及装置 | |
US20230410222A1 (en) | Information processing apparatus, control method, and program | |
CN115544475A (zh) | 一种业务服务方法及装置 | |
CN108197608A (zh) | 人脸识别方法、装置、机器人及存储介质 | |
EP3885934A1 (en) | Video search method and apparatus, computer device, and storage medium | |
CN111783515A (zh) | 行为动作识别的方法和装置 | |
CN111354013A (zh) | 目标检测方法及装置、设备和存储介质 | |
CN112183284B (zh) | 一种安全信息验证、代驾接单控制方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180612 |
|
RJ01 | Rejection of invention patent application after publication |