CN116886991A - 生成视频资料的方法、装置、终端设备以及可读存储介质 - Google Patents

生成视频资料的方法、装置、终端设备以及可读存储介质 Download PDF

Info

Publication number
CN116886991A
CN116886991A CN202311051224.0A CN202311051224A CN116886991A CN 116886991 A CN116886991 A CN 116886991A CN 202311051224 A CN202311051224 A CN 202311051224A CN 116886991 A CN116886991 A CN 116886991A
Authority
CN
China
Prior art keywords
video data
processed
specific event
generating
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311051224.0A
Other languages
English (en)
Other versions
CN116886991B (zh
Inventor
张建辉
李林军
郑明达
李江松
林洪龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Jialixin Development Co ltd
Original Assignee
Zhuhai Jialixin Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Jialixin Development Co ltd filed Critical Zhuhai Jialixin Development Co ltd
Priority to CN202311051224.0A priority Critical patent/CN116886991B/zh
Publication of CN116886991A publication Critical patent/CN116886991A/zh
Application granted granted Critical
Publication of CN116886991B publication Critical patent/CN116886991B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请适用于视频处理技术领域,提供了一种生成视频资料的方法、装置、终端设备以及可读存储介质,该方法包括:获取用户输入的待处理文本;识别出待处理文本对应的特定事件;生成特定事件对应的目标视频资料,其中,每个目标视频资料标记有特定事件的起始时间和结束时间。可见,本申请可以根据用户输入的文本及时查询出文本关联的特定事件对应的视频资料,无需人工手动回放的方式来依次查询,降低人力成本。

Description

生成视频资料的方法、装置、终端设备以及可读存储介质
技术领域
本申请属于视频处理技术领域,尤其涉及一种生成视频资料的方法、装置、终端设备以及可读存储介质。
背景技术
目前,对目标场所监控范围内的视频进行处理和记录,生成对应的视频资料,以方面后续发生特定事件后,对特定事件进行追踪及回溯。但是现有技术中,只能依靠人工手动回放的方式来依次查询出特定事件相关的视频资料,当需要查询的视频资料数量较多时,这种查询方式不能及时满足用户的查询需求。
发明内容
本申请实施例提供了一种生成视频资料的方法、装置、终端设备以及可读存储介质,可以解决现有技术中只能依靠人工手动回放的方式来依次查询出特定事件相关的视频资料,存在不能及时满足用户的查询需求的技术问题。
第一方面,本申请实施例提供了一种生成视频资料的方法,包括:
获取用户输入的待处理文本;
识别出所述待处理文本对应的特定事件;
生成所述特定事件对应的目标视频资料,其中,每个目标视频资料标记有所述特定事件的起始时间和结束时间。
在第一方面的一种可能的实现方式中,识别出所述待处理文本对应的特定事件,包括:
对所述待处理文本进行分词处理,得到待处理词组;
将所述待处理词组输入至关键词识别模型中,输出候选关键词;
将所述候选关键词与本地数据库存储的预设关键词进行匹配,将匹配度大于预设匹配度阈值的候选关键词作为目标关键词;所述目标关键词是指表征特征事件的关键词。
在第一方面的一种可能的实现方式中,生成所述特定事件对应的目标视频资料之前,还包括:
获取待处理视频资料;
对所述待处理视频资料进行分类处理,得到每个待处理视频资料对应的特定事件。
在第一方面的一种可能的实现方式中,对所述待处理视频资料进行分类处理,得到每个待处理视频资料对应的特定事件,包括:
将所述待处理视频资料输入至事件分类模型,输出每个待处理视频资料对应的特定事件。
在第一方面的一种可能的实现方式中,所述事件分类模型包括环境信息提取网络架构、人体信息提取网络架构、融合处理网络架构以及判别网络架构;
将所述待处理视频资料输入至事件分类模型,输出每个待处理视频资料对应的特定事件,包括:
根据所述环境信息提取网络架构对所述待处理视频资料进行环境信息提取,输出环境特征向量;
根据所述人体信息提取网络架构对所述待处理视频资料和所述环境特征向量进行人体特征提取,输出人体特征向量;
根据融合处理网络架构对所述环境特征向量和所述人体特征向量进行融合处理,输出融合特征向量;
根据所述判别网络架构对所述融合特征向量进行判别,每个待处理视频资料对应的特定事件。
在第一方面的一种可能的实现方式中,生成所述特定事件对应的目标视频资料,包括:
查询出所述特定事件对应的候选视频资料;
将所述候选视频资料输入至时序定位网络,得到目标视频资料。
在第一方面的一种可能的实现方式中,时序定位网络包括特征提取层、类别预测层以及隐状态转移层;
将所述候选视频资料输入至时序定位网络,得到目标视频资料,包括:
根据所述特征提取层提取候选视频资料的时序特征向量;
根据所述类别预测层对所述时序特征向量进行预测,得到每个时间步上的类别预测结果;
根据隐状态转移层基于每个时间步上的类别预测结果,识别出每个时间步之间的时序关系,输出所述候选视频资料中所述特定事件的起始时间和结束时间;
将标记有所述特定事件的起始时间和结束时间的候选视频资料作为目标视频资料。
第二方面,本申请实施例提供了一种生成视频资料的装置,包括:
第一获取模块,用于获取用户输入的待处理文本;
识别模块,用于识别出所述待处理文本对应的特定事件;
生成模块,用于生成所述特定事件对应的目标视频资料,其中,每个目标视频资料标记有所述特定事件的起始时间和结束时间。
在第二方面的一种可能的实现方式中,所述识别模块,包括:
分词处理子模块,用于对所述待处理文本进行分词处理,得到待处理词组;
关键词识别子模块,用于将所述待处理词组输入至关键词识别模型中,输出候选关键词;
匹配子模块,用于将所述候选关键词与本地数据库存储的预设关键词进行匹配,将匹配度大于预设匹配度阈值的候选关键词作为目标关键词;所述目标关键词是指表征特征事件的关键词。
在第二方面的一种可能的实现方式中,所述装置,还包括:
第二获取模块,用于获取待处理视频资料;
分类处理模块,用于对所述待处理视频资料进行分类处理,得到每个待处理视频资料对应的特定事件。
在第二方面的一种可能的实现方式中,分类处理模块,包括:
事件分类单元,用于将待处理视频资料输入至事件分类模型,输出每个待处理视频资料对应的特定事件。
在第二方面的一种可能的实现方式中,事件分类模型包括环境信息提取网络架构、人体信息提取网络架构、融合处理网络架构以及判别网络架构;
事件分类单元,包括:
环境信息提取单元,用于根据环境信息提取网络架构对待处理视频资料进行环境信息提取,输出环境特征向量;
人体信息提取单元,用于根据人体信息提取网络架构对待处理视频资料和环境特征向量进行人体特征提取,输出人体特征向量;
融合处理单元,用于根据融合处理网络架构对环境特征向量和人体特征向量进行融合处理,输出融合特征向量;
判别单元,用于根据判别网络架构对融合特征向量进行判别,每个待处理视频资料对应的特定事件。
在第二方面的一种可能的实现方式中,所述生成模块,包括:
查询子模块,用于查询出所述特定事件对应的候选视频资料;
时序定位子模块,用于将所述候选视频资料输入至时序定位网络,得到目标视频资料。
在第二方面的一种可能的实现方式中,时序定位网络包括特征提取层、类别预测层以及隐状态转移层;
所述时序定位子模块,包括:
提取单元,用于根据所述特征提取层提取候选视频资料的时序特征向量;
预测单元,用于根据所述类别预测层对所述时序特征向量进行预测,得到每个时间步上的类别预测结果;
定位单元,用于根据隐状态转移层基于每个时间步上的类别预测结果,识别出每个时间步之间的时序关系,输出所述候选视频资料中所述特定事件的起始时间和结束时间;
标记单元,用于将标记有所述特定事件的起始时间和结束时间的候选视频资料作为目标视频资料。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所说的方法。
第四方面,本申请实施例提供了一种可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的方法。
本申请实施例与现有技术相比存在的有益效果是:
本申请实施例中,通过获取用户输入的待处理文本;识别出待处理文本对应的特定事件;生成特定事件对应的目标视频资料,其中,每个目标视频资料标记有特定事件的起始时间和结束时间。可见,本申请实施例可以根据用户输入的文本及时查询出文本关联的特定事件对应的视频资料,无需人工手动回放的方式来依次查询,降低人力成本。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的生成视频资料的方法的示意性流程图;
图2是本申请实施例提供的生成视频资料的装置的结构示意图;
图3是本申请实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
下面对本申请实施例的技术方案进行介绍。
图1示出了本申请提供的生成视频资料的方法的示意性流程图,作为示例而非限定,该方法可以应用于终端设备,该方法包括以下步骤:
步骤S101,获取用户输入的待处理文本。
其中,待处理文本是指用户输入的查询文本,例如“我想查询**特定事件相关的视频资料”。
步骤S102,识别出待处理文本对应的特定事件。
可以理解的是,特定事件是指需要监控的目标场所发生的事件,目标场所可以是私人场所或者活动场所等需要监控的场所,本申请实施例中的特定事件可以是穿越警戒线、区域入侵、进入区域、离开区域、人员聚集、快速移动等,其中,穿越警戒线是指目标越过用户设置的警戒面,区域入侵是指目标在用户设置的检测区域范围内停留(包括静止和移动)超过设定时间,进入区域是指目标从用户设置的检测区域外进入检测区域内,离开区域是指目标从用户设置的检测区域内离开检测区域,人员聚集是指检测区域的人员数量或者人员密度达到一定程度,快速移动是指监控区域中有目标进行快速移动。
示例性地,识别出待处理文本对应的特定事件,包括:
步骤S201,对待处理文本进行分词处理,得到待处理词组。
具体地,对待处理文本进行分词处理,得到待处理词组,包括:
(1)下载分词模型文件:首先需要下载jieba库提供的基于统计机器学习的分词模型文件;
(2)将分词模型文件放置在指定位置:将下载的分词模型文件(通常以".lm"和".dict"为后缀)放置在jieba库所在的文件夹中;
(3)加载分词模型:在使用jieba进行分词前,通过jieba.set_model(即模型文件路径)方法加载分词模型,将模型文件路径替换为下载的模型文件所在的路径;
(4)进行分词处理:使用jieba.lcut或jieba.lcut_for_search方法对待处理文本进行分词处理,分别返回以列表形式表示的待处理词组。
步骤S202,将待处理词组输入至关键词识别模型中,输出候选关键词。
其中,关键词识别模型可以是预先训练的条件随机场(CRF)序列标注模型,它可以基于命名实体识别原理将文本中的命名实体定位并分类为预先定义的类别,即可以从待处理词组识别出表征特征事件的候选关键词。
示例性地,根据CRF模型学习到的参数,对待处理词组的标签序列进行预测,预测结果中被标记为命名实体的待处理词组即可作为候选关键词。
可选的,将待处理词组输入至关键词识别模型中,输出候选关键词之前,还包括:训练关键词识别模型。
示例性地,训练关键词识别模型,包括:
(1)数据准备:首先,需要准备带有标注的训练数据,其中,每个训练样本包含一个句子和对应的标签序列,标签序列表示每个词的命名实体类型(如人名、地名等);
(2)特征构建:对于每个词组,需要构建特征向量表示,特征可以是词性特征、上下文特征、前缀和后缀特征或者字符级别特征。其中,词性特征表示将每个词组的词性作为特征之一,上下文特征表示考虑当前词组的前一个和后一个词组的特征,如它们的词性、上下文词语等,前缀和后缀特征表示提取词组的前缀和后缀作为特征,字符级别特征表示将词组拆分成字符形式,提取字符级别的特征,如字符的Unicode编码、字符形态等。
(3)模型训练:使用训练数据和特征向量,进行CRF模型的训练,从而得到关键词识别模型。需说明的是,训练过程通过最大化训练数据的对数似然函数,来调整模型的参数,以使得模型能够更好地预测词组的标签序列。
步骤S203,将候选关键词与本地数据库存储的预设关键词进行匹配,将匹配度大于预设匹配度阈值的候选关键词作为目标关键词。
其中,目标关键词是指表征特征事件的关键词。
可以理解的是,本地数据库存储有与特定事件相关的预设关键词,通过预设关键词进一步对候选关键词进行匹配验证,从而提高识别准确率。
示例性地,将候选关键词与本地数据库存储的预设关键词进行匹配,将匹配度大于预设匹配度阈值的候选关键词作为目标关键词,包括:
根据下列公示计算候选关键词与本地数据库存储的预设关键词之间的匹配度:
match_score = (v1 · v2) / (|v1| * |v2|),
其中,match_score表示匹配度,v1表示候选关键词的第一特征向量,v2表示预设关键词的第二特征向量,·表示向量之间的内积,|v1| 代表第一特征向量的模,|v2|表示预设关键词的第二特征向量的模,*表示向量之间的乘积;
当匹配度大于预设匹配度阈值时,将匹配度大于预设匹配度阈值的候选关键词作为目标关键词。
步骤S103,生成特定事件对应的目标视频资料。
其中,每个目标视频资料标记有特定事件的起始时间和结束时间。
可选的,生成特定事件对应的目标视频资料之前,还包括:
步骤S301,获取待处理视频资料。
其中,待处理视频资料是指历史在目标场所监控范围采集到的视频,其中,目标场所是指私人场所或者活动场所等需要监控的场所。
步骤S302,对待处理视频资料进行分类处理,得到每个待处理视频资料对应的特定事件。
可以理解的是,需要先建立视频资料与特定事件之间的关联关系。
具体地,对待处理视频资料进行分类处理,得到每个待处理视频资料对应的特定事件,包括:
将待处理视频资料输入至事件分类模型,输出每个待处理视频资料对应的特定事件。
示例性地,事件分类模型包括环境信息提取网络架构、人体信息提取网络架构、融合处理网络架构以及判别网络架构。
将待处理视频资料输入至事件分类模型,输出每个待处理视频资料对应的特定事件,包括:
步骤S401,根据环境信息提取网络架构对待处理视频资料进行环境信息提取,输出环境特征向量。
具体应用中,本申请实施例的环境信息提取网络架构包括卷积神经网络和注意力机制,先采用卷积神经网络提取待处理视频资料中全部位置的特征,然后通过注意力机制将不同位置的特征进行加权融合,从而得到环境特征向量。
步骤S402,根据人体信息提取网络架构对待处理视频资料和环境特征向量进行人体特征提取,输出人体特征向量。
具体应用中,人体信息提取网络架构包括目标检测网络、人体姿态估计网络以及动作编码网络。
示例性地,目标检测网络可以是Fast R-CNN目标检测网络,通过引入RPN(regionproposal networks),代替专门的生成候选窗口算法,通过对特征图上的每个点进行滑窗操作,将不同尺寸的锚点框映射到原始图片,得到候选区域,完成前景背景的粗分类和粗定位,从而准确定位追踪视频资料中的目标人体;人体姿态估计网络可以是OpenPose网络架构,通过分析人体的姿势来理解人体的动作和行为,检测头部、手臂、躯干、腿部等关键部位,并通过关键点之间的连接关系构建人体的姿势表达,从而得到人体姿态图;动作编码网络可以是自编码器结构,根据二分匹配的方法,将视频资料中前一帧的人体姿态图和当前帧的人体姿态图进行匹配,提取出每一对匹配的人体姿态图中的局部特征,然后进行这些局部特征进行并置,得到最终的局部特征作为人体特征向量。
步骤S403,根据融合处理网络架构对环境特征向量和人体特征向量进行融合处理,输出融合特征向量。
具体应用中,融合处理网络架构可以是注意力机制网络,通过赋予环境特征向量和人体特征向量不同的权重来对环境信息和人体特征进行融合,得到融合特征向量。
步骤S404,根据判别网络架构对融合特征向量进行判别,每个待处理视频资料对应的特定事件。
具体应用中,判别网络架构可以是包括生成器和判别器,通过生成器生成样本特定事件,判别器根据融合特征向量和样本特定事件进行判别,若判别结果一致则判定样本特定事件为融合特征向量所表征的待处理视频资料对应的特定事件。
具体应用中,生成特定事件对应的目标视频资料,包括:
步骤S501,查询出特定事件对应的候选视频资料。
可以理解的是,本地数据库可以将上述步骤S301-步骤S302获取到的每个特定事件和对应的候选视频资料进行存储。示例性地,采用MySQL数据库创建特征事件表格和候选视频表格,通过添加字段索引的方式,可以快速查询到特定事件对应的候选视频资料。
步骤S502,将候选视频资料输入至时序定位网络,得到目标视频资料。
其中,时序定位网络包括特征提取层、类别预测层以及隐状态转移层。
可以理解的是,候选视频资料还不能直观的显示出在视频中特定事件的起始时间和结束时间,需要识别出每个视频资料中特定事件的起始时间和结束时间并加以标记,方便用户查看。
示例性地,将候选视频资料输入至时序定位网络,得到目标视频资料,包括:
步骤S601,根据特征提取层提取候选视频资料的时序特征向量。
具体应用中,特征提取层可以是卷积层或者循环神经网络层,可以对候选视频资料进行处理和抽取,得到时序特征向量。
步骤S602,根据类别预测层对时序特征向量进行预测,得到每个时间步上的类别预测结果。
具体应用中,类别预测层包括全连接层,通过全连接层将时序特征向量映射到事件类别的概率分布,然后使用Softmax函数对各类别进行归一化,并得到每个时间步上的类别预测结果。
步骤S603,根据隐状态转移层基于每个时间步上的类别预测结果,识别出每个时间步之间的时序关系,输出候选视频资料中特定事件的起始时间和结束时间。
具体应用中,隐状态转移层可以是隐马尔可夫模型,通过隐马尔可夫模型基于每个时间步上的类别预测结果,采集模型学习的方式得到时序依赖关系,识别出每个时间步之间的时序关系,从而得到候选视频资料中起始时间和结束时间。
步骤S604,将标记有特定事件的起始时间和结束时间的候选视频资料作为目标视频资料。
本申请实施例中,通过获取用户输入的待处理文本;识别出待处理文本对应的特定事件;生成特定事件对应的目标视频资料,其中,每个目标视频资料标记有特定事件的起始时间和结束时间。可见,本申请实施例可以根据用户输入的文本及时查询出文本关联的特定事件对应的视频资料,无需人工手动回放的方式来依次查询,降低人力成本。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的生成视频资料的方法,图2示出了本申请实施例提供的生成视频资料的装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图2,该装置包括:
第一获取模块21,用于获取用户输入的待处理文本;
识别模块22,用于识别出所述待处理文本对应的特定事件;
生成模块23,用于生成所述特定事件对应的目标视频资料,其中,每个目标视频资料标记有所述特定事件的起始时间和结束时间。
在一种可能的实现方式中,所述识别模块,包括:
分词处理子模块,用于对所述待处理文本进行分词处理,得到待处理词组;
关键词识别子模块,用于将所述待处理词组输入至关键词识别模型中,输出候选关键词;
匹配子模块,用于将所述候选关键词与本地数据库存储的预设关键词进行匹配,将匹配度大于预设匹配度阈值的候选关键词作为目标关键词;所述目标关键词是指表征特征事件的关键词。
在一种可能的实现方式中,所述装置,还包括:
第二获取模块,用于获取待处理视频资料;
分类处理模块,用于对所述待处理视频资料进行分类处理,得到每个待处理视频资料对应的特定事件。
在一种可能的实现方式中,分类处理模块,包括:
事件分类单元,用于将待处理视频资料输入至事件分类模型,输出每个待处理视频资料对应的特定事件。
在一种可能的实现方式中,事件分类模型包括环境信息提取网络架构、人体信息提取网络架构、融合处理网络架构以及判别网络架构;
事件分类单元,包括:
环境信息提取单元,用于根据环境信息提取网络架构对待处理视频资料进行环境信息提取,输出环境特征向量;
人体信息提取单元,用于根据人体信息提取网络架构对待处理视频资料和环境特征向量进行人体特征提取,输出人体特征向量;
融合处理单元,用于根据融合处理网络架构对环境特征向量和人体特征向量进行融合处理,输出融合特征向量;
判别单元,用于根据判别网络架构对融合特征向量进行判别,每个待处理视频资料对应的特定事件。
在一种可能的实现方式中,所述生成模块,包括:
查询子模块,用于查询出所述特定事件对应的候选视频资料;
时序定位子模块,用于将所述候选视频资料输入至时序定位网络,得到目标视频资料。
在一种可能的实现方式中,时序定位网络包括特征提取层、类别预测层以及隐状态转移层;
所述时序定位子模块,包括:
提取单元,用于根据所述特征提取层提取候选视频资料的时序特征向量;
预测单元,用于根据所述类别预测层对所述时序特征向量进行预测,得到每个时间步上的类别预测结果;
定位单元,用于根据隐状态转移层基于每个时间步上的类别预测结果,识别出每个时间步之间的时序关系,输出所述候选视频资料中所述特定事件的起始时间和结束时间;
标记单元,用于将标记有所述特定事件的起始时间和结束时间的候选视频资料作为目标视频资料。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图3为本申请实施例提供的终端设备的结构示意图。如图3所示,该实施例的终端设备3包括:至少一个处理器30、存储器31以及存储在所述存储器31中并可在所述至少一个处理器30上运行的计算机程序32,所述处理器30执行所述计算机程序32时实现上述任意各个方法实施例中的步骤。
所述终端设备3可以是桌上型计算机、笔记本、掌上电脑及云端终端设备等计算设备。该终端设备可包括,但不仅限于,处理器30、存储器31。本领域技术人员可以理解,图3仅仅是终端设备3的举例,并不构成对终端设备3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),该处理器30还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路 (Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器31在一些实施例中可以是所述终端设备3的内部存储单元,例如终端设备3的硬盘或内存。所述存储器31在另一些实施例中也可以是所述终端设备3的外部存储设备,例如所述终端设备3上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器31还可以既包括所述终端设备3的内部存储单元也包括外部存储设备。所述存储器31用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器31还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种生成视频资料的方法,其特征在于,包括:
获取用户输入的待处理文本;
识别出所述待处理文本对应的特定事件;
生成所述特定事件对应的目标视频资料,其中,每个目标视频资料标记有所述特定事件的起始时间和结束时间。
2.如权利要求1所述的生成视频资料的方法,其特征在于,识别出所述待处理文本对应的特定事件,包括:
对所述待处理文本进行分词处理,得到待处理词组;
将所述待处理词组输入至关键词识别模型中,输出候选关键词;
将所述候选关键词与本地数据库存储的预设关键词进行匹配,将匹配度大于预设匹配度阈值的候选关键词作为目标关键词;所述目标关键词是指表征特征事件的关键词。
3.如权利要求1所述的生成视频资料的方法,其特征在于,生成所述特定事件对应的目标视频资料之前,还包括:
获取待处理视频资料;
对所述待处理视频资料进行分类处理,得到每个待处理视频资料对应的特定事件。
4.如权利要求3所述的生成视频资料的方法,其特征在于,对所述待处理视频资料进行分类处理,得到每个待处理视频资料对应的特定事件,包括:
将所述待处理视频资料输入至事件分类模型,输出每个待处理视频资料对应的特定事件。
5.如权利要求4所述的生成视频资料的方法,其特征在于,所述事件分类模型包括环境信息提取网络架构、人体信息提取网络架构、融合处理网络架构以及判别网络架构;
将所述待处理视频资料输入至事件分类模型,输出每个待处理视频资料对应的特定事件,包括:
根据所述环境信息提取网络架构对所述待处理视频资料进行环境信息提取,输出环境特征向量;
根据所述人体信息提取网络架构对所述待处理视频资料和所述环境特征向量进行人体特征提取,输出人体特征向量;
根据融合处理网络架构对所述环境特征向量和所述人体特征向量进行融合处理,输出融合特征向量;
根据所述判别网络架构对所述融合特征向量进行判别,每个待处理视频资料对应的特定事件。
6.如权利要求1所述的生成视频资料的方法,其特征在于,生成所述特定事件对应的目标视频资料,包括:
查询出所述特定事件对应的候选视频资料;
将所述候选视频资料输入至时序定位网络,得到目标视频资料。
7.如权利要求6所述的生成视频资料的方法,其特征在于,时序定位网络包括特征提取层、类别预测层以及隐状态转移层;
将所述候选视频资料输入至时序定位网络,得到目标视频资料,包括:
根据所述特征提取层提取候选视频资料的时序特征向量;
根据所述类别预测层对所述时序特征向量进行预测,得到每个时间步上的类别预测结果;
根据所述隐状态转移层基于每个时间步上的类别预测结果,识别出每个时间步之间的时序关系,输出所述候选视频资料中所述特定事件的起始时间和结束时间;
将标记有所述特定事件的起始时间和结束时间的候选视频资料作为目标视频资料。
8.一种生成视频资料的装置,其特征在于,包括:
获取模块,用于获取用户输入的待处理文本;
识别模块,用于识别出所述待处理文本对应的特定事件;
生成模块,用于生成所述特定事件对应的目标视频资料,其中,每个目标视频资料标记有所述特定事件的起始时间和结束时间。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种可读存储介质,所述可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202311051224.0A 2023-08-21 2023-08-21 生成视频资料的方法、装置、终端设备以及可读存储介质 Active CN116886991B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311051224.0A CN116886991B (zh) 2023-08-21 2023-08-21 生成视频资料的方法、装置、终端设备以及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311051224.0A CN116886991B (zh) 2023-08-21 2023-08-21 生成视频资料的方法、装置、终端设备以及可读存储介质

Publications (2)

Publication Number Publication Date
CN116886991A true CN116886991A (zh) 2023-10-13
CN116886991B CN116886991B (zh) 2024-05-03

Family

ID=88257032

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311051224.0A Active CN116886991B (zh) 2023-08-21 2023-08-21 生成视频资料的方法、装置、终端设备以及可读存储介质

Country Status (1)

Country Link
CN (1) CN116886991B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388583A (zh) * 2018-01-26 2018-08-10 北京览科技有限公司 一种基于视频内容的视频搜索方法和视频搜索装置
CN109905772A (zh) * 2019-03-12 2019-06-18 腾讯科技(深圳)有限公司 视频片段查询方法、装置、计算机设备及存储介质
CN110502661A (zh) * 2019-07-08 2019-11-26 天脉聚源(杭州)传媒科技有限公司 一种视频搜索方法、系统及存储介质
CN111324768A (zh) * 2020-02-12 2020-06-23 新华智云科技有限公司 一种视频搜索系统和方法
CN111723238A (zh) * 2019-03-22 2020-09-29 曜科智能科技(上海)有限公司 视频多事件的裁剪及文本描述方法及其装置、设备和介质
CN112989120A (zh) * 2021-05-13 2021-06-18 广东众聚人工智能科技有限公司 一种视频片段查询系统和视频片段查询方法
CN114090823A (zh) * 2021-09-09 2022-02-25 秒针信息技术有限公司 视频检索方法、装置、电子设备及计算机可读存储介质
KR102398987B1 (ko) * 2021-03-20 2022-05-18 주식회사 앤다스 이벤트 영상 검색 시스템, 이벤트 영상 검색 방법 및 기록 매체에 저장된 프로그램
CN114529983A (zh) * 2022-01-14 2022-05-24 清华大学 事件及视频融合的动作识别方法及装置
CN115578664A (zh) * 2022-08-29 2023-01-06 杭州半云科技有限公司 一种基于视频监控的应急事件判定方法及装置
CN115797830A (zh) * 2022-11-24 2023-03-14 南通大学 基于同源异构信息的多感知视频异常事件检测方法及设备
CN116189053A (zh) * 2022-10-09 2023-05-30 北京邮电大学 一种基于多模态的未修剪长视频识别系统及方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388583A (zh) * 2018-01-26 2018-08-10 北京览科技有限公司 一种基于视频内容的视频搜索方法和视频搜索装置
CN109905772A (zh) * 2019-03-12 2019-06-18 腾讯科技(深圳)有限公司 视频片段查询方法、装置、计算机设备及存储介质
CN111723238A (zh) * 2019-03-22 2020-09-29 曜科智能科技(上海)有限公司 视频多事件的裁剪及文本描述方法及其装置、设备和介质
CN110502661A (zh) * 2019-07-08 2019-11-26 天脉聚源(杭州)传媒科技有限公司 一种视频搜索方法、系统及存储介质
CN111324768A (zh) * 2020-02-12 2020-06-23 新华智云科技有限公司 一种视频搜索系统和方法
KR102398987B1 (ko) * 2021-03-20 2022-05-18 주식회사 앤다스 이벤트 영상 검색 시스템, 이벤트 영상 검색 방법 및 기록 매체에 저장된 프로그램
CN112989120A (zh) * 2021-05-13 2021-06-18 广东众聚人工智能科技有限公司 一种视频片段查询系统和视频片段查询方法
CN114090823A (zh) * 2021-09-09 2022-02-25 秒针信息技术有限公司 视频检索方法、装置、电子设备及计算机可读存储介质
CN114529983A (zh) * 2022-01-14 2022-05-24 清华大学 事件及视频融合的动作识别方法及装置
CN115578664A (zh) * 2022-08-29 2023-01-06 杭州半云科技有限公司 一种基于视频监控的应急事件判定方法及装置
CN116189053A (zh) * 2022-10-09 2023-05-30 北京邮电大学 一种基于多模态的未修剪长视频识别系统及方法
CN115797830A (zh) * 2022-11-24 2023-03-14 南通大学 基于同源异构信息的多感知视频异常事件检测方法及设备

Also Published As

Publication number Publication date
CN116886991B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
CN109117777B (zh) 生成信息的方法和装置
CN108319723B (zh) 一种图片分享方法和装置、终端、存储介质
CN109872162B (zh) 一种处理用户投诉信息的风控分类识别方法及系统
CN111738011A (zh) 违规文本的识别方法及装置、存储介质、电子装置
US10915756B2 (en) Method and apparatus for determining (raw) video materials for news
CN113094478B (zh) 表情回复方法、装置、设备及存储介质
CN110633475A (zh) 基于计算机场景的自然语言理解方法、装置、系统和存储介质
CN111190946A (zh) 报告生成方法、装置、计算机设备和存储介质
CN114372532A (zh) 标签标注质量的确定方法、装置、设备、介质及产品
CN114242047A (zh) 一种语音处理方法、装置、电子设备及存储介质
CN108536791A (zh) 基于神经网络的搜索方法、设备及存储介质
CN116886991B (zh) 生成视频资料的方法、装置、终端设备以及可读存储介质
CN116187341A (zh) 语义识别方法及其装置
CN115169345A (zh) 文本情感分析模型的训练方法、装置、设备及存储介质
CN117933260A (zh) 一种文本质量分析方法、装置、设备及存储介质
CN115576789A (zh) 流失用户识别方法和系统
CN115512176A (zh) 模型训练方法、图像理解方法、装置、介质与电子设备
CN114780757A (zh) 短媒体标签抽取方法、装置、计算机设备和存储介质
CN115510457A (zh) 数据识别方法、装置、设备及计算机程序产品
CN115618873A (zh) 数据处理方法、装置、计算机设备及存储介质
CN113449094A (zh) 语料获取方法、装置、电子设备及存储介质
CN112579774A (zh) 模型训练方法、模型训练装置及终端设备
CN111626059A (zh) 一种信息处理方法及装置
CN117077678B (zh) 一种敏感词识别方法、装置、设备及介质
CN112508095B (zh) 一种样本处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant