CN109919244B - 用于生成场景识别模型的方法和装置 - Google Patents
用于生成场景识别模型的方法和装置 Download PDFInfo
- Publication number
- CN109919244B CN109919244B CN201910204897.2A CN201910204897A CN109919244B CN 109919244 B CN109919244 B CN 109919244B CN 201910204897 A CN201910204897 A CN 201910204897A CN 109919244 B CN109919244 B CN 109919244B
- Authority
- CN
- China
- Prior art keywords
- video
- scene
- samples
- sample
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本公开的实施例公开了用于生成场景识别模型的方法和装置。该方法的一具体实施方式包括:获取样本集合,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别;通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数。该实施方式有助于使用场景识别模型提高场景识别的准确性。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成场景识别模型的方法和装置。
背景技术
场景识别是一种用计算机实现人的视觉功能的技术,它的目的是使计算机能够对图像或视频进行处理,自动识别图像或视频中的场景。随着深度学习的发展,使用深度学习方法训练场景识别模型,以解决场景识别问题已越来越普遍。目前,训练场景识别模型的方法,通常使用大量的图像或视频作为训练样本,对图像或视频表征的场景的类别进行标注,从而训练得到场景识别模型。
发明内容
本公开的实施例提出了用于生成场景识别模型的方法和装置,以及用于识别视频的方法和装置。
第一方面,本公开的实施例提供了一种用于生成场景识别模型的方法,该方法包括:获取样本集合,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别;通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数。
在一些实施例中,模型用于识别输入模型的待分类视频所属的场景类别,模型包括特征提取层、第一分类器、第二分类器,特征提取层用于提取待分类视频的视频特征数据,第一分类器用于确定待分类视频是否属于场景视频,第二分类器用于响应于确定待分类视频属于场景视频,确定待分类视频所属的场景类别。
在一些实施例中,样本集合包括视频样本集合;以及通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数所,包括:从视频样本集合中选择视频样本;将所选择的视频样本输入特征提取层,以得到视频特征数据;基于所选择的视频样本的标注信息,确定所选择的视频样本是否属于至少一个场景类别包括的场景类别;响应于确定属于,通过将视频特征数据作为第一分类器的输入,并将表征所选择的视频样本属于所述至少一个场景类别之一的指示信息作为第一分类器的期望输出,以及通过将视频特征数据作为第二分类器的输入,并将所选择的视频样本的标注信息作为第二分类器的期望输出,来调整模型的参数;响应于确定不属于,通过将视频特征数据作为第一分类器的输入,并将所选择的视频样本的标注信息作为第一分类器的期望输出,来调整模型的参数。
在一些实施例中,样本集合中的样本的标注信息由具有预设数目的元素的向量来表示,预设数目的元素中的元素对应于多个预设场景类别中的场景类别。
第二方面,本公开的实施例提供了一种用于识别视频的方法,该方法包括:获取目标视频;将目标视频输入预先训练的场景识别模型,得到场景识别结果,其中,场景识别模型为根据上述第一方面中任一实施例描述的方法生成的,场景识别结果用于表征目标视频是否属于场景视频,以及在目标视频属于场景视频的情况下,场景识别结果还用于表征目标视频所属的场景类别。
在一些实施例中,该方法还包括:将目标视频和场景识别结果关联存储。
在一些实施例中,该方法还包括:获取目标用户的视频需求信息;响应于确定视频需求信息与场景识别结果匹配,将目标视频发送至目标用户的终端。
第三方面,本公开的实施例提供了一种用于生成场景识别模型的装置,该装置包括:样本获取单元,被配置成获取样本集合,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别;调整单元,被配置成通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数。
在一些实施例中,模型用于识别输入模型的待分类视频所属的场景类别,模型包括特征提取层、第一分类器、第二分类器,特征提取层用于提取待分类视频的视频特征数据,第一分类器用于确定待分类视频是否属于场景视频,第二分类器用于响应于确定待分类视频属于场景视频,确定待分类视频所属的场景类别。
在一些实施例中,样本集合包括视频样本集合;以及调整单元包括:选择模块,被配置成从视频样本集合中选择视频样本;提取模块,被配置成将所选择的视频样本输入特征提取层,以得到视频特征数据;确定模块,被配置成基于所选择的视频样本的标注信息,确定所选择的视频样本是否属于至少一个场景类别包括的场景类别;第一调整模块,被配置成响应于确定属于,响应于确定属于,通过将视频特征数据作为第一分类器的输入,并将表征所选择的视频样本属于所述至少一个场景类别之一的指示信息作为第一分类器的期望输出,以及通过将视频特征数据作为第二分类器的输入,并将所选择的视频样本的标注信息作为第二分类器的期望输出,来调整模型的参数;第二调整模块,被配置成响应于确定不属于,通过将视频特征数据作为第一分类器的输入,并将所选择的视频样本的标注信息作为第一分类器的期望输出,来调整模型的参数。
在一些实施例中,样本集合中的样本的标注信息由具有预设数目的元素的向量来表示,预设数目的元素中的元素对应于多个预设场景类别中的场景类别。
第四方面,本公开的实施例提供了一种用于识别视频的装置,该装置包括:视频获取单元,被配置成获取目标视频;生成单元,被配置成将目标视频输入预先训练的场景识别模型,得到场景识别结果,其中,场景识别模型为根据第一方面中任一实施例描述的方法生成的,场景识别结果用于表征目标视频是否属于场景视频,以及在目标视频属于场景视频的情况下,场景识别结果还用于表征目标视频所属的场景类别。
在一些实施例中,该装置还包括:存储单元,被配置成将目标视频和场景识别结果关联存储。
在一些实施例中,该装置还包括:信息获取单元,被配置成获取目标用户的视频需求信息;发送单元,被配置成响应于确定视频需求信息与场景识别结果匹配,将目标视频发送至目标用户的终端。
第五方面,本公开的实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面或第二方面中任一实现方式描述的方法。
第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面或第二方面中任一实现方式描述的方法。
本公开的实施例提供的用于生成场景识别模型的方法和装置,通过获取样本集合,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别,然后将样本集合中的样本作为模型的输入,将输入的样本的标注信息作为模型的期望输出,来调整模型的参数。从而实现了区别性地使用包括某种场景信息的样本和不包括场景信息的样本,训练得到场景识别模型,使得训练得到的场景识别模型能够更准确地识别不包括场景信息的信息,以及识别包括场景信息的信息所属的场景类别。现有技术通常为了提高训练得到的场景识别模型的准确性,需要大量的、表征不同类型的场景的信息作为训练样本,本公开的实施例由于使用了属于某种场景类别的正样本和不属于任何场景类别的负样本训练模型,可以在利用场景识别模型识别场景时,确定输入的信息是否属于预设的多个场景类别,如果属于再确定所属的场景类别,从而可以细化场景分类的过程,提高场景识别的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的实施例的用于生成场景识别模型的方法的一个实施例的流程图;
图3是根据本公开的实施例的用于生成场景识别模型的方法的一个应用场景的示意图;
图4是根据本公开的实施例的用于识别视频的方法的一个实施例的流程图;
图5是根据本公开的实施例的用于生成场景识别模型的装置的一个实施例的结构示意图;
图6是根据本公开的实施例的用于识别视频的装置的一个实施例的结构示意图;
图7是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关公开,而非对该公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关公开相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于生成场景识别模型的方法或用于生成场景识别模型的装置,以及用于识别视频的方法和用于识别视频的装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频播放应用、视频处理应用、网页浏览器应用、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备。当终端设备101、102、103为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如利用终端设备101、102、103上传的样本集合进行模型训练的后台模型服务器。后台模型服务器可以利用获取的样本集合进行模型训练,生成场景识别模型,还可以将场景识别模型发送到终端设备,或者利用场景识别模型对目标视频进行处理,得到场景识别结果。
需要说明的是,本公开的实施例所提供的用于生成场景识别模型的方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,用于生成场景识别模型的装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。此外,本公开的实施例所提供的用于识别视频的方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,用于识别视频的装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在训练模型所需的样本集合不需从远程获取,或者目标视频不需从远程获取的情况下,上述系统架构可以不包括网络,而只包括服务器或终端设备。
继续参考图2,示出了根据本公开的用于生成场景识别模型的方法的一个实施例的流程200。该用于生成场景识别模型的方法,包括以下步骤:
步骤201,获取样本集合。
在本实施例中,用于生成场景识别模型的方法的执行主体(例如图1所示的服务器或终端设备)可以通过有线连接方式或者无线连接方式从远程获取样本集合,或从本地获取样本集合。其中,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别。
在本实施例中,样本集合中的样本可以是各种类型的样本,包括但不限于以下任一种:视频、图像、文本等。
具体地,属于预设的至少一个场景类别中的场景类别(例如当样本为视频时,包括属于某场景类别的画面)的样本,其对应的标注信息用于表征其属于预设的至少一个场景类别中的场景类别。例如,上述场景类别的画面包括海边、会议室、森林等画面。不属于预设的至少一个场景类别中的场景类别(例如当样本为视频时,不包括属于场景类别的画面)的样本,其对应的标注信息用于表征其不属于预设的至少一个场景类别中的任何场景类别。例如,用户自拍的、其背景为纯色的视频。样本标注信息可以是标注人员预先对样本进行标注的信息。
标注信息可以包括以下至少一种形式的信息:数字、文字、符号。作为示例,假设样本为视频样本,某视频样本对应的标注信息可以包括向量(1,0,0,…,0),其中的第一个元素对应于场景类别“海边”,该向量用于表征该视频样本所属的场景类别为“海边”(即该场景类别的视频包括海边的画面)。某视频样本对应的标注信息可以包括向量(0,1,0,…,0),其中的第二个元素对应于场景类别“会议室”,用于表征该视频样本所属的场景类别为“会议室”。假设不属于任何场景类别的视频样本对应的标注信息均为向量(0,0,0,…,0)。
在本实施例的一些可选的实现方式中,样本集合中的样本的标注信息由具有预设数目的元素的向量来表示,预设数目的元素中的元素对应于多个预设场景类别中的场景类别。
作为示例,假设样本为视频样本,预设数量为100,某个视频样本所属的场景类别为“森林”,则该样本对应的向量可以为(1,0,0,0,…,0),该向量包括100个元素,其中第一个元素对应于“森林”场景类别。这里,数字1表示该视频属于“森林”类,其他的元素0表示该样本不属于0所在的元素位置对应的场景类别。类似的,对于另一个样本,该样本对应的场景类别为“会议室”,则该样本对应的向量可以是(0,1,0,0,…,0),其中第二个元素对应于“会议室”场景类别。
可选的,样本集合中的、不属于上述至少一个场景类别的样本的标注信息可以包括向量,也可以包括其他形式的信息。例如,标注信息可以包括向量(0,0,0,0,…0),其中,每个元素均为0。或者,标注信息可以包括数字“-1”,用于表征样本不属于任何场景类别。
需要说明的是,向量中的数值也可以是其他数值,不限于0和1。通过使用向量表征样本类别信息,可以灵活地对场景识别模型识别的场景类别进行扩展。例如,实际应用中,只需识别10个场景类别,向量包括的元素的数量大于10,其中的第1到第10个元素分别对应于预设的场景类别。当需要使场景识别模型能够识别更多场景类别时,只需设置其他元素对应的场景类别,从而可以灵活地对场景识别模型的识别能力进行扩展。
步骤202,通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数。
在本实施例中,上述执行主体可以通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数。
具体地,作为示例,模型可以是各种类型的模型,例如卷积神经网络模型(包括但不限于残差网络、全卷积神经网络等各种结构的卷积神经网络)、循环神经网络模型等。在训练模型的过程中,针对每次训练输入的样本,可以得到实际输出。其中,实际输出是模型实际输出的数据,对应于标注信息。然后,上述执行主体可以采用梯度下降法和反向传播法,基于实际输出和期望输出,来调整模型的参数。
在本实施例中,模型可以包括特征提取层和分类层,其中,特征提取层用于提取输入的样本的特征(例如颜色、形状、纹理等特征),得到用于表征样本的特征的特征数据。分类层可以包括用于对特征数据进行分类的各种分类器(例如支持向量机,softmax分类函数等)。
在本实施例的一些可选的实现方式中,模型用于识别输入模型的待分类视频所属的场景类别。模型可以包括特征提取层、第一分类器、第二分类器,特征提取层用于提取待分类视频的视频特征数据,第一分类器用于确定待分类视频是否属于场景视频。场景视频是包括属于上述至少一个场景类别之一的画面的视频。通常,第一分类器(例如sigmoid分类函数)用于对待分类视频进行二分类。第二分类器用于响应于确定待分类视频属于场景视频,确定待分类视频所属的场景类别。通常,第二分类器为多分类器(例如softmax分类函数),用于从预设的多个场景类别中,确定输入的视频所属的场景类别。
在本实施例的一些可选的实现方式中,样本集合包括视频样本集合。上述执行主体可以按照如下步骤对模型进行训练:
步骤一,从视频样本集合中选择视频样本。
具体地,上述执行主体可以按照各种方式从视频样本集合中选择视频样本,例如随机选择,按照预先设置的各个样本的编号顺序选择等。
步骤二,将所选择的视频样本输入特征提取层,以得到视频特征数据。
具体地,特征提取层可以对输入的样本视频包括的视频帧进行特征提取(可以对每个帧或部分帧(例如关键帧或随机抽取预设数量的帧)进行特征提取),从而得到视频特征数据。通常,视频特征数据可以是向量或矩阵的形式。
步骤三,基于所选择的视频样本的标注信息,确定所选择的视频样本是否属于至少一个场景类别包括的场景类别。
步骤四,响应于确定所选择的视频样本属于至少一个场景类别包括的场景类别,通过将视频特征数据作为第一分类器的输入,并将表征所选择的视频样本属于所述至少一个场景类别之一的指示信息作为第一分类器的期望输出,以及通过将视频特征数据作为第二分类器的输入,并将所选择的视频样本的标注信息作为第二分类器的期望输出,来调整模型的参数。
其中,上述指示信息用于表征所选择的视频样本属于所述至少一个场景类别之一。即,指示信息用于指示视频样本是场景视频。其中,场景视频是包括属于上述至少一个场景类别之一的画面的视频。作为示例,所选择的视频样本对应的指示信息可以为数字1,用于表征视频样本是场景视频。上述标注信息可以是向量,该向量的每个元素对应于预设的场景类别。当元素为“1”时,表征视频属于该元素对应的场景类别。当元素为“0”时,表征视频不属于该元素对应的场景类别。
具体地,上述执行主体可以利用预设的损失函数,确定第一分类器的实际输出和期望输出的差距,以及第二分类器的实际输出和期望输出的差距。其中,第一分类器可以对应于二分类损失函数,利用二分类损失函数确定的损失值可以用于表征第一分类器的实际输出和期望输出的差距。第二分类器可以对应于多分类损失函数,利用多分类损失函数确定的损失值可以用于表征第二分类器的实际输出和期望输出的差距。作为示例,上述二分类损失函数和多分类损失函数可以是不同形式的交叉熵损失函数。上述执行主体可以利用上述二分类损失函数和多分类损失函数,以及利用反向传播法和梯度下降法,来调整模型的参数,以使上述二分类损失函数和多分类损失函数所确定的损失值逐渐减小。
步骤五,响应于确定所选择的视频样本不属于至少一个场景类别包括的场景类别,通过将视频特征数据作为第一分类器的输入,并将所选择的视频样本的标注信息作为第一分类器的期望输出,来调整模型的参数。
具体地,上述执行主体可以利用上述二分类损失函数,确定用于表征第一分类器的实际输出和期望输出的差距的损失值。利用上述二分类损失函数,以及利用反向传播法和梯度下降法,来调整模型的参数,以使上述二分类损失函数的损失值逐渐减小。
实践中,在使用训练得到的场景识别模型进行场景识别时,首先使用第一分类器确定输入的视频是否为场景视频,如果不是场景视频,输出用于表征输入的视频为非场景视频的信息;如果是场景视频,再使用第二分类器确定输入的视频所属的场景类别。其中,场景视频是包括属于场景类别的画面的视频。从而本可选的实现方式可以通过对视频进行两次分类(two stage),细化对视频进行场景识别的步骤,有利于进一步提高场景识别模型的识别准确性。
实践中,训练场景识别模型的过程通常为循环执行,即当上述执行主体确定调整参数后的场景识别模型满足预设条件时,确定场景识别模型训练完成。当不满足预设条件时,逐次选择样本并调整场景识别模型的参数。作为示例,预设条件可以包括但不限于以下至少一项:训练时间超过预设时长;训练次数超过预设次数;利用上述二分类损失函数和上述多分类损失函数计算所得到的损失值分别小于预设的第一损失值阈值和第二损失值阈值。
继续参见图3,图3是根据本实施例的用于生成场景识别模型的方法的应用场景的一个示意图。在图3的应用场景中,电子设备301首先获取样本集合302,其中,样本集合中的样本为视频样本。样本集合302包括正样本和负样本。其中,正样本对应于预设的、用于表征正样本所属的场景类别的标注信息,负样本对应于预设的、用于表征负样本不属于任何场景类别的标注信息。例如,正样本3021对应的场景类别信息3021'用于表征正样本3021属于场景类别“海边”,正样本3022对应的场景类别信息3022'用于表征正样本3022属于场景类别“会议室”,负样本3023、3024分别对应的标注信息3023',用于表征负样本3023、3024不属于任何场景类别。
然后,电子设备301利用机器学习方法,将样本集合302中的正样本作为输入,将输入的正样本对应的标注信息作为期望输出,训练场景识别模型;将样本集合302中的负样本作为输入,将输入的负样本对应的标注信息作为期望输出,训练场景识别模型。例如图中所示,电子设备依次使用正样本3021、3022和负样本3023、3024,以及分别对应的场景类别信息3021'、3022'和非场景标注信息3023',对场景识别模型进行训练,每次训练时,根据场景识别模型的实际输出和期望输出的差距,来调整场景识别模型的参数。将调整参数后的场景识别模型作为下次训练的场景识别模型继续训练。每次训练结束后,电子设备301确定是否满足预设的结束训练条件(例如训练次数超过预设次数),如果满足预设条件,则结束训练,将最近一次训练的模型确定为场景识别模型303。
本公开的上述实施例提供的方法,通过获取样本集合,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别,然后将样本集合中的样本作为模型的输入,将输入的样本的标注信息作为模型的期望输出,来调整模型的参数。从而实现了区别性地使用包括某种场景信息的样本和不包括场景信息的样本,训练得到场景识别模型,使得训练得到的场景识别模型能够更准确地识别不包括场景信息的信息,以及识别包括场景信息的信息所属的场景类别。现有技术通常为了提高训练得到的场景识别模型的准确性,需要大量的、表征不同类型的场景的信息作为训练样本,本公开的实施例由于使用了属于某种场景类别的正样本和不属于任何场景类别的负样本训练模型,可以在利用场景识别模型识别场景时,确定输入的信息是否属于预设的多个场景类别,如果属于再确定所属的场景类别,从而可以细化场景分类的过程,提高场景识别的准确性。
进一步参考图4,示出了根据本公开的用于识别视频的方法的一个实施例的流程400。该用于识别视频的方法,包括以下步骤:
步骤401,获取目标视频。
在本实施例中,用于识别视频的方法的执行主体(如图1所示的服务器或终端设备)可以从本地或从远程获取目标视频。其中,目标视频是待对其进行场景识别的视频。例如从某视频播放网站或视频播放应用提供的视频中提取的视频。
步骤402,将目标视频输入预先训练的场景识别模型,得到场景识别结果。
在本实施例中,上述执行主体可以将目标视频输入预先训练的场景识别模型,得到场景识别结果。其中,场景识别模型为根据上述图2对应实施例描述的方法生成的。
场景识别结果用于表征目标视频是否属于场景视频,以及在目标视频属于场景视频的情况下,场景识别结果还用于表征目标视频所属的场景类别。其中,场景视频是包括属于场景类别的画面的视频。场景识别结果可以包括但不限于以下至少一种形式的信息:数字、文字、符号。作为示例,假设场景识别结果为文字“海边”,则该场景识别结果用于表征目标视频为场景视频,并且目标视频所属的场景类别为“海边”。假设场景识别结果为文字“非场景”,则该场景识别结果用于表征目标视频不属于场景视频。
可选的,上述执行主体可以按照各种方式输出场景识别结果,例如将场景识别结果显示在上述执行主体包括的显示屏上,或将场景识别结果与目标视频发送到与上述执行主体通信连接的其他电子设备。
在本实施例的一些可选的实现方式中,上述执行主体还可以将目标视频和场景识别结果关联存储。具体地,作为示例,上述执行主体可以将目标视频和场景识别结果存储到目标存储区(例如上述执行主体包括的存储区或与上述执行主体通信连接的电子设备的存储区)。再通过使用二维表格、指针等形式,建立目标视频和场景识别结果的对应关系。例如,上述二维表格可以用于存储场景识别结果和对应的视频的标识(例如名称、编号、存储地址等),上述执行主体可以将目标视频的标识和场景识别结果对应地存储到该二维表格中。通过将目标视频和场景识别结果关联存储,可以使用户在观看视频时,快速地得知视频所属的场景类别。或者,可以使用户利用场景识别结果检索到对应的视频。
在本实施例的一些可选的实现方式中,上述执行主体还可以执行如下步骤:
首先,获取目标用户的视频需求信息。其中,目标用户为欲通过其使用的终端获得被上述执行主体进行场景识别的视频的用户。例如某视频网站的注册用户,或在视频网站的搜索界面输入搜索信息的用户。上述执行主体可以从远程或从本地获取目标用户的视频需求信息。视频需求信息可以是用于表征用户所需求的视频的信息。作为示例,视频需求信息可以是用户输入的检索语句。或者,视频需求信息可以是用于表征目标用户的喜好的信息(例如包含于目标用户的个人信息中)。
然后,响应于确定视频需求信息与场景识别结果匹配,将目标视频发送至目标用户的终端。
具体地,上述执行主体可以利用各种方法确定视频需求信息与上述场景识别结果是否匹配。例如,当视频需求信息和场景识别结果分别包括文字时,上述执行主体可以利用现有的确定文本相似度的方法,确定视频需求信息包括的文字和场景识别结果包括的文字之间的相似度。如果所确定的相似度大于等于预设的相似度阈值,则确定视频需求信息与场景识别结果匹配。再例如,视频需求信息是用户通过点击、筛选等方式确定的视频类别,如果该视频类别与上述场景识别结果表征的场景类别相同,则确定视频需求信息与场景识别结果匹配。
本实现方式可以通过利用场景识别模型的识别准确性高的特点,提高对目标视频识别的准确性,从而将目标视频有针对性地发送到目标用户的终端,有利于减少用户为获得目标视频进行检索而耗费的数据流量,以及减少用户在检索过程中占用的存储容量。
本公开的上述实施例提供的方法,通过使用图2对应实施例生成的场景识别模型,对目标视频进行场景识别,输出目标视频的场景识别结果,从而提高了输出视频的场景识别结果的准确性。
进一步参考图5,作为对上述图2所示方法的实现,本公开提供了一种用于生成场景识别模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于生成场景识别模型的装置500包括:样本获取单元501,被配置成获取样本集合,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别;调整单元502,被配置成通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数。
在本实施例中,样本获取单元501可以通过有线连接方式或者无线连接方式从远程获取样本集合,或从本地获取样本集合。其中,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别。
在本实施例中,样本集合中的样本可以是各种类型的样本,包括但不限于以下任一种:视频、图像、文本等。
具体地,属于预设的至少一个场景类别中的场景类别(例如当样本为视频时,包括属于某场景类别的画面)的样本,其对应的标注信息用于表征其属于预设的至少一个场景类别中的场景类别。例如,上述场景类别的画面包括海边、会议室、森林等画面。不属于预设的至少一个场景类别中的场景类别(例如当样本为视频时,不包括属于场景类别的画面)的样本,其对应的标注信息用于表征其不属于预设的至少一个场景类别中的任何场景类别。例如,用户自拍的、其背景为纯色的视频。样本标注信息可以是标注人员预先对样本进行标注的信息。
标注信息可以分别包括以下至少一种形式的信息:数字、文字、符号。作为示例,假设样本为视频样本,某视频样本对应的标注信息可以包括向量(1,0,0,…,0),其中的第一个元素对应于场景类别“海边”,该向量用于表征该视频样本所属的场景类别为“海边”(即该场景类别的视频包括海边的画面)。某视频样本对应的标注信息可以包括向量(0,1,0,…,0),其中的第二个元素对应于场景类别“会议室”,用于表征该视频样本所属的场景类别为“会议室”。假设不属于任何场景类别的视频样本对应的标注信息均为向量(0,0,0,…,0)。
在本实施例中,调整单元502可以通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数。
具体地,作为示例,模型可以是各种类型的模型,例如卷积神经网络模型(包括但不限于残差网络、全卷积神经网络等各种结构的卷积神经网络)、循环神经网络模型等。在训练模型的过程中,针对每次训练输入的样本,可以得到实际输出。其中,实际输出是模型实际输出的数据,对应于标注信息。然后,上述调整单元502可以采用梯度下降法和反向传播法,基于实际输出和期望输出,调整模型的参数。
在本实施例中,模型可以包括特征提取层和分类层,其中,特征提取层用于提取输入的样本的特征(例如颜色、形状、纹理等特征),得到用于表征样本的特征的特征数据。分类层可以包括用于对特征数据进行分类的各种分类器(例如支持向量机,softmax分类函数等)。
在本实施例的一些可选的实现方式中,模型用于识别输入模型的待分类视频所属的场景类别,模型包括特征提取层、第一分类器、第二分类器,特征提取层用于提取待分类视频的视频特征数据,第一分类器用于确定待分类视频是否属于场景视频,第二分类器用于响应于确定待分类视频属于场景视频,确定待分类视频所属的场景类别。
在本实施例的一些可选的实现方式中,样本集合包括视频样本集合;以及调整单元502可以包括:选择模块(图中未示出),被配置成从视频样本集合中选择视频样本;提取模块(图中未示出),被配置成将所选择的视频样本输入特征提取层,以得到视频特征数据;确定模块(图中未示出),被配置成基于所选择的视频样本的标注信息,确定所选择的视频样本是否属于至少一个场景类别包括的场景类别;第一调整模块(图中未示出),被配置成响应于确定属于,通过将视频特征数据作为第一分类器的输入,并将表征所选择的视频样本属于所述至少一个场景类别之一的指示信息作为第一分类器的期望输出,以及通过将视频特征数据作为第二分类器的输入,并将所选择的视频样本的标注信息作为第二分类器的期望输出,来调整模型的参数;第二调整模块(图中未示出),被配置成响应于确定不属于,通过将视频特征数据作为第一分类器的输入,并将所选择的视频样本的标注信息作为第一分类器的期望输出,来调整模型的参数。
在本实施例的一些可选的实现方式中,样本集合中的样本的标注信息由具有预设数目的元素的向量来表示,预设数目的元素中的元素对应于多个预设场景类别中的场景类别。
本公开的上述实施例提供的装置500,通过获取样本集合,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别,然后将样本集合中的样本作为模型的输入,将输入的样本的标注信息作为模型的期望输出,来调整模型的参数。从而实现了区别性地使用包括某种场景信息的样本和不包括场景信息的样本,训练得到场景识别模型,使得训练得到的场景识别模型能够更准确地识别不包括场景信息的信息,以及识别包括场景信息的信息所属的场景类别。现有技术通常为了提高训练得到的场景识别模型的准确性,需要大量的、表征不同类型的场景的信息作为训练样本,本公开的实施例由于使用了属于某种场景类别的正样本和不属于任何场景类别的负样本训练模型,可以在利用场景识别模型识别场景时,确定输入的信息是否属于预设的多个场景类别,如果属于再确定所属的场景类别,从而可以细化场景分类的过程,提高场景识别的准确性。
进一步参考图6,作为对上述图4所示方法的实现,本公开提供了一种用于识别视频的装置的一个实施例,该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于识别视频的装置600包括:视频获取单元601,被配置成获取目标视频;生成单元602,被配置成将目标视频输入预先训练的场景识别模型,得到场景识别结果,其中,场景识别模型为根据上述图2对应实施例描述的方法生成的,场景识别结果用于表征目标视频是否属于场景视频,以及在目标视频属于场景视频的情况下,场景识别结果还用于表征目标视频所属的场景类别。
在本实施例中,视频获取单元601可以从本地或从远程获取目标视频。其中,目标视频是待对其进行场景识别的视频。例如从某视频播放网站或视频播放应用提供的视频中提取的视频。
在本实施例中,生成单元602可以将目标视频输入预先训练的场景识别模型,得到场景识别结果。其中,场景识别模型为根据上述图2对应实施例描述的方法生成的。
场景识别结果用于表征目标视频是否属于场景视频,以及在目标视频属于场景视频的情况下,场景识别结果还用于表征目标视频所属的场景类别。其中,场景视频是包括属于场景类别的画面的视频。场景识别结果可以包括但不限于以下至少一种形式的信息:数字、文字、符号。作为示例,假设场景识别结果为文字“海边”,则该场景识别结果用于表征目标视频为场景视频,并且目标视频所属的场景类别为“海边”。假设场景识别结果为文字“非场景”,则该场景识别结果用于表征目标视频不属于场景视频。
可选的,上述生成单元602可以按照各种方式输出场景识别结果,例如将场景识别结果显示在上述装置600包括的显示屏上,或将场景识别结果与目标视频发送到与上述装置600通信连接的其他电子设备。
在本实施例的一些可选的实现方式中,该装置600还可以包括:存储单元(图中未示出),被配置成将目标视频和场景识别结果关联存储。
在本实施例的一些可选的实现方式中,该装置600还可以包括:信息获取单元(图中未示出),被配置成获取目标用户的视频需求信息;发送单元(图中未示出),被配置成响应于确定视频需求信息与场景识别结果匹配,将目标视频发送至目标用户的终端。
本公开的上述实施例提供的装置600,通过使用图2对应实施例生成的场景识别模型,对目标视频进行场景识别,输出目标视频的场景识别结果,从而提高了输出视频的场景识别结果的准确性。
下面参考图7,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器或终端设备)700的结构示意图。本公开的实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开的实施例的方法中限定的上述功能。
需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开的实施例中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取样本集合,样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的至少一个场景类别中的场景类别;通过将样本集合中的样本作为模型的输入,并将样本的标注信息作为模型的期望输出,来调整模型的参数。
此外,当上述一个或者多个程序被该电子设备执行时,还可以使得该电子设备:获取目标视频;将目标视频输入预先训练的场景识别模型,得到场景识别结果。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括样本获取单元、调整单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,样本获取单元还可以被描述为“获取样本集合的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种用于生成场景识别模型的方法,包括:
获取样本集合,所述样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的所述至少一个场景类别中的场景类别;属于预设的至少一个场景类别中的场景类别的样本,其对应的标注信息用于表征其属于预设的至少一个场景类别中的场景类别;不属于预设的至少一个场景类别中的场景类别的样本,其对应的标注信息用于表征其不属于预设的至少一个场景类别中的任何场景类别;
通过将所述样本集合中的样本作为所述模型的输入,并将所述样本的标注信息作为所述模型的期望输出,来调整所述模型的参数。
2.根据权利要求1所述的方法,其中,所述模型用于识别输入所述模型的待分类视频所属的场景类别,所述模型包括特征提取层、第一分类器、第二分类器,所述特征提取层用于提取所述待分类视频的视频特征数据,所述第一分类器用于确定所述待分类视频是否属于场景视频,所述第二分类器用于响应于确定所述待分类视频属于场景视频,确定所述待分类视频所属的场景类别。
3.根据权利要求2所述的方法,其中,所述样本集合包括视频样本集合;以及
通过将所述样本集合中的样本作为所述模型的输入,并将所述样本的标注信息作为所述模型的期望输出,来调整所述模型的参数,包括:
从所述视频样本集合中选择视频样本;
将所选择的视频样本输入所述特征提取层,以得到视频特征数据;
基于所选择的视频样本的标注信息,确定所选择的视频样本是否属于所述至少一个场景类别包括的场景类别;
响应于确定所选择的视频样本属于所述至少一个场景类别包括的场景类别,通过将所述视频特征数据作为所述第一分类器的输入,并将表征所选择的视频样本属于所述至少一个场景类别之一的指示信息作为所述第一分类器的期望输出,以及通过将所述视频特征数据作为所述第二分类器的输入,并将所选择的视频样本的标注信息作为所述第二分类器的期望输出,来调整所述模型的参数;
响应于确定所选择的视频样本不属于所述至少一个场景类别包括的场景类别,通过将所述视频特征数据作为所述第一分类器的输入,并将所选择的视频样本的标注信息作为所述第一分类器的期望输出,来调整所述模型的参数。
4.根据权利要求1-3之一所述的方法,其中,所述样本集合中的样本的标注信息由具有预设数目的元素的向量来表示,所述预设数目的元素中的元素对应于多个预设场景类别中的场景类别。
5.一种用于识别视频的方法,包括:
获取目标视频;
将所述目标视频输入预先训练的场景识别模型,以得到场景识别结果,其中,所述场景识别模型为根据权利要求1-4之一所述的方法生成的,所述场景识别结果用于表征所述目标视频是否属于场景视频,以及在所述目标视频属于场景视频的情况下,所述场景识别结果还用于表征所述目标视频所属的场景类别。
6.根据权利要求5所述的方法,其中,所述方法还包括:
将所述目标视频和所述场景识别结果关联存储。
7.根据权利要求5或6所述的方法,其中,所述方法还包括:
获取目标用户的视频需求信息;
响应于确定所述视频需求信息与所述场景识别结果匹配,将所述目标视频发送至所述目标用户的终端。
8.一种用于生成场景识别模型的装置,包括:
样本获取单元,被配置成获取样本集合,所述样本集合中的样本具有标注信息,该标注信息用于表征该样本不属于预设的至少一个场景类别中的任何场景类别,或者用于表征该样本所属的所述至少一个场景类别中的场景类别;属于预设的至少一个场景类别中的场景类别的样本,其对应的标注信息用于表征其属于预设的至少一个场景类别中的场景类别;不属于预设的至少一个场景类别中的场景类别的样本,其对应的标注信息用于表征其不属于预设的至少一个场景类别中的任何场景类别;
调整单元,被配置成通过将所述样本集合中的样本作为所述模型的输入,并将所述样本的标注信息作为所述模型的期望输出,来调整所述模型的参数。
9.根据权利要求8所述的装置,其中,所述模型用于识别输入所述模型的待分类视频所属的场景类别,所述模型包括特征提取层、第一分类器、第二分类器,所述特征提取层用于提取所述待分类视频的视频特征数据,所述第一分类器用于确定所述待分类视频是否属于场景视频,所述第二分类器用于响应于确定所述待分类视频属于场景视频,确定所述待分类视频所属的场景类别。
10.根据权利要求9所述的装置,其中,所述样本集合包括视频样本集合;以及
所述调整单元包括:
选择模块,被配置成从所述视频样本集合中选择视频样本;
提取模块,被配置成将所选择的视频样本输入所述特征提取层,以得到视频特征数据;
确定模块,被配置成基于所选择的视频样本的标注信息,确定所选择的视频样本是否属于所述至少一个场景类别包括的场景类别;
第一调整模块,被配置成响应于确定属于,响应于确定属于,通过将所述视频特征数据作为所述第一分类器的输入,并将表征所选择的视频样本属于所述至少一个场景类别之一的指示信息作为所述第一分类器的期望输出,以及通过将所述视频特征数据作为所述第二分类器的输入,并将所选择的视频样本的标注信息作为所述第二分类器的期望输出,来调整所述模型的参数;
第二调整模块,被配置成响应于确定不属于,通过将所述视频特征数据作为所述第一分类器的输入,并将所选择的视频样本的标注信息作为所述第一分类器的期望输出,来调整所述模型的参数。
11.根据权利要求8-10之一所述的装置,其中,所述样本集合中的样本的标注信息由具有预设数目的元素的向量来表示,所述预设数目的元素中的元素对应于多个预设场景类别中的场景类别。
12.一种用于识别视频的装置,包括:
视频获取单元,被配置成获取目标视频;
生成单元,被配置成将所述目标视频输入预先训练的场景识别模型,得到场景识别结果,其中,所述场景识别模型为根据权利要求1-4之一所述的方法生成的,所述场景识别结果用于表征所述目标视频是否属于场景视频,以及在所述目标视频属于场景视频的情况下,所述场景识别结果还用于表征所述目标视频所属的场景类别。
13.根据权利要求12所述的装置,其中,所述装置还包括:
存储单元,被配置成将所述目标视频和所述场景识别结果关联存储。
14.根据权利要求12或13所述的装置,其中,所述装置还包括:
信息获取单元,被配置成获取目标用户的视频需求信息;
发送单元,被配置成响应于确定所述视频需求信息与所述场景识别结果匹配,将所述目标视频发送至所述目标用户的终端。
15.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910204897.2A CN109919244B (zh) | 2019-03-18 | 2019-03-18 | 用于生成场景识别模型的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910204897.2A CN109919244B (zh) | 2019-03-18 | 2019-03-18 | 用于生成场景识别模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109919244A CN109919244A (zh) | 2019-06-21 |
CN109919244B true CN109919244B (zh) | 2021-09-07 |
Family
ID=66965393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910204897.2A Active CN109919244B (zh) | 2019-03-18 | 2019-03-18 | 用于生成场景识别模型的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109919244B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112231594B (zh) * | 2019-06-27 | 2024-04-12 | 北京百度网讯科技有限公司 | 信息处理方法和装置 |
CN110458051A (zh) * | 2019-07-25 | 2019-11-15 | 中移(杭州)信息技术有限公司 | 一种设备控制的方法、装置、服务器及可读存储介质 |
CN111309715B (zh) * | 2020-01-15 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 通话场景的识别方法和装置 |
CN111723746A (zh) * | 2020-06-22 | 2020-09-29 | 江苏云从曦和人工智能有限公司 | 场景识别模型生成方法、系统、平台、设备及介质 |
CN111818223A (zh) * | 2020-06-24 | 2020-10-23 | 瑞声科技(新加坡)有限公司 | 声音外放的模式切换方法、装置、设备、介质及发声系统 |
CN113033507B (zh) * | 2021-05-20 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 场景识别方法、装置、计算机设备和存储介质 |
CN113643136A (zh) * | 2021-09-01 | 2021-11-12 | 京东科技信息技术有限公司 | 信息处理方法、系统和装置 |
CN116528282B (zh) * | 2023-07-04 | 2023-09-22 | 亚信科技(中国)有限公司 | 覆盖场景识别方法、装置、电子设备和可读存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679189B (zh) * | 2012-09-14 | 2017-02-01 | 华为技术有限公司 | 场景识别的方法和装置 |
US9202144B2 (en) * | 2013-10-30 | 2015-12-01 | Nec Laboratories America, Inc. | Regionlets with shift invariant neural patterns for object detection |
CN106897695A (zh) * | 2017-02-24 | 2017-06-27 | 上海斐讯数据通信技术有限公司 | 一种图像识别处理装置、系统及方法 |
CN108831505B (zh) * | 2018-05-30 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 用于识别应用的使用场景的方法和装置 |
CN109034069B (zh) * | 2018-07-27 | 2021-04-09 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109166170A (zh) * | 2018-08-21 | 2019-01-08 | 百度在线网络技术(北京)有限公司 | 用于渲染增强现实场景的方法和装置 |
CN109145840B (zh) * | 2018-08-29 | 2022-06-24 | 北京字节跳动网络技术有限公司 | 视频场景分类方法、装置、设备及存储介质 |
CN109446990B (zh) * | 2018-10-30 | 2020-02-28 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
-
2019
- 2019-03-18 CN CN201910204897.2A patent/CN109919244B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109919244A (zh) | 2019-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109919244B (zh) | 用于生成场景识别模型的方法和装置 | |
CN109816589B (zh) | 用于生成漫画风格转换模型的方法和装置 | |
CN109740018B (zh) | 用于生成视频标签模型的方法和装置 | |
CN108830235B (zh) | 用于生成信息的方法和装置 | |
CN109961032B (zh) | 用于生成分类模型的方法和装置 | |
CN109993150B (zh) | 用于识别年龄的方法和装置 | |
CN109308490B (zh) | 用于生成信息的方法和装置 | |
CN109947989B (zh) | 用于处理视频的方法和装置 | |
KR102002024B1 (ko) | 객체 라벨링 처리 방법 및 객체 관리 서버 | |
CN110009059B (zh) | 用于生成模型的方法和装置 | |
CN110084317B (zh) | 用于识别图像的方法和装置 | |
JP7394809B2 (ja) | ビデオを処理するための方法、装置、電子機器、媒体及びコンピュータプログラム | |
CN110209658B (zh) | 数据清洗方法和装置 | |
CN109815448B (zh) | 幻灯片生成方法及装置 | |
CN109816023B (zh) | 用于生成图片标签模型的方法和装置 | |
CN111897950A (zh) | 用于生成信息的方法和装置 | |
CN113033677A (zh) | 视频分类方法、装置、电子设备和存储介质 | |
CN110008926B (zh) | 用于识别年龄的方法和装置 | |
CN111582360B (zh) | 用于标注数据的方法、装置、设备和介质 | |
CN112766284A (zh) | 图像识别方法和装置、存储介质和电子设备 | |
CN109934142A (zh) | 用于生成视频的特征向量的方法和装置 | |
CN110046571B (zh) | 用于识别年龄的方法和装置 | |
CN110335237B (zh) | 用于生成模型的方法、装置和用于识别图像的方法、装置 | |
CN110414625B (zh) | 确定相似数据的方法、装置、电子设备及存储介质 | |
CN110472558B (zh) | 图像处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |