CN114786059B - 视频生成方法、视频生成装置、电子设备、存储介质 - Google Patents

视频生成方法、视频生成装置、电子设备、存储介质 Download PDF

Info

Publication number
CN114786059B
CN114786059B CN202210439688.8A CN202210439688A CN114786059B CN 114786059 B CN114786059 B CN 114786059B CN 202210439688 A CN202210439688 A CN 202210439688A CN 114786059 B CN114786059 B CN 114786059B
Authority
CN
China
Prior art keywords
attribute
video
keyword
text
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210439688.8A
Other languages
English (en)
Other versions
CN114786059A (zh
Inventor
梁亚妮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202210439688.8A priority Critical patent/CN114786059B/zh
Publication of CN114786059A publication Critical patent/CN114786059A/zh
Application granted granted Critical
Publication of CN114786059B publication Critical patent/CN114786059B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供一种视频生成方法、视频生成装置、电子设备、存储介质,属于人工智能技术领域。包括:获取原始视频,将原始视频分离为音频和图像帧;对音频进行语音处理,得到第一关键词和语调属性;根据第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧;对人物图像帧进行人物表情识别,得到人物表情属性;对图文图像帧进行光学字符识别,得到第二关键词;根据第一关键词、语调属性、人物表情属性、第二关键词得到关键时间点;将关键时间点、第一关键词和第二关键词输入知识图谱,根据知识图谱输出的剪辑策略对原始视频进行剪辑处理,生成目标视频。本申请通过知识图谱输出的剪辑策略对原始视频进行剪辑,能够自动输出剪辑后的视频。

Description

视频生成方法、视频生成装置、电子设备、存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种视频生成方法、视频生成装置、电子设备、存储介质。
背景技术
目前,视频拍摄完成后,需要人工对视频进行剪辑来完成后期制作,但是视频剪辑对人工制作有一定的技术和时间要求,效率低且容易因人为操作而出错。
发明内容
本申请实施例的主要目的在于提出一种视频生成方法、视频生成装置、电子设备、存储介质,能够自动输出剪辑后的视频,降低了视频制作对于技术和时间的要求,提高视频剪辑的效率。
为实现上述目的,本申请实施例的第一方面提出了一种视频生成方法,所述方法包括:
获取原始视频,将所述原始视频分离为音频和图像帧;
对所述音频进行语音处理,得到第一关键词和语调属性;
根据预设的第一分类模型对所述图像帧进行分类,得到人物图像帧和图文图像帧;
对所述人物图像帧进行人物表情识别,得到人物表情属性;
对所述图文图像帧进行光学字符识别,得到第二关键词;
获取所述第一关键词的时间属性、所述语调属性的时间属性、所述人物表情属性的时间属性、所述第二关键词的时间属性,根据所述第一关键词对应的时间属性、所述语调属性对应的时间属性、所述人物表情属性对应的时间属性、所述第二关键词对应的时间属性得到关键时间点;
将所述关键时间点、所述第一关键词和所述第二关键词输入预先建立的知识图谱,根据所述知识图谱输出剪辑策略;
根据所述剪辑策略对所述原始视频进行剪辑处理,生成目标视频。
在一些实施例,所述对所述音频进行语音处理,得到第一关键词和语调属性,包括:
将所述音频转换为第一文本,对所述第一文本进行语义识别,得到所述第一文本中的第一关键词;
对所述音频进行语调分析,得到声纹特征,根据预设的第二分类模型对所述声纹特征进行分类,得到语调属性。
在一些实施例,所述将所述音频转换为第一文本,对所述第一文本进行语义识别,得到所述第一文本中的第一关键词,包括:
根据预设的语音识别模型对所述音频进行语音识别,将所述音频转换为对应的所述第一文本;
对所述第一文本进行分词处理,得到第一单词序列;
对所述第一单词序列中每个单词进行词性标注,得到所述第一单词序列中每个所述单词的单词词性;
根据所述单词词性对所述第一单词序列进行词性还原,得到第二单词序列;
对所述第二单词序列进行语义识别,得到所述第一文本中的第一关键词。
在一些实施例,所述对所述人物图像帧进行人物表情识别,得到人物表情属性,包括:
对所述人物图像帧进行人脸对齐处理,在所述人物图像帧中定位人脸特征点;
对所述人脸特征点进行姿态估计,得到人物表情属性。
在一些实施例,所述对所述图文图像帧进行光学字符识别,得到第二关键词,包括:
对所述图文图像帧进行光学字符识别,得到所述图文图像帧中的第二文本;
根据命名实体识别模型对所述图文图像帧中的第二文本进行语义识别,得到第二关键词。
在一些实施例,所述方法还包括:
获取预设的评分函数;
根据所述评分函数对所述剪辑策略进行打分,得到所述剪辑策略的打分值;
根据所述打分值对所述剪辑策略进行筛选,得到筛选后的剪辑策略,将筛选后的剪辑策略作为目标策略;
将所述目标策略以及对应所述目标策略的关键时间点、第一关键词、第二关键词输入知识图谱,以更新所述知识图谱。
在一些实施例,所述根据所述剪辑策略对所述原始视频进行剪辑处理,生成目标视频,包括:
根据所述剪辑策略获取剪辑时间点和剪辑行为,所述剪辑行为包括滤镜选择、视频片段加速、视频片段放慢、视频片段整合、视频片段氛围选择、背景乐导入、音频调整中的至少一种;
根据所述剪辑时间点和所述剪辑行为对所述原始视频进行剪辑处理,生成目标视频。
本申请实施例的第二方面提出了一种视频生成装置,所述装置包括:
获取模块,用于获取原始视频,将所述原始视频分离为音频和图像帧;
语音处理模块,用于对所述音频进行语音处理,得到第一关键词和语调属性;
图像分类模块,用于根据预设的第一分类模型对所述图像帧进行分类,得到人物图像帧和图文图像帧;
人物表情识别模块,用于对所述人物图像帧进行人物表情识别,得到人物表情属性;
图文识别模块,用于对所述图文图像帧进行光学字符识别,得到第二关键词;
关键时间点识别模块,用于获取所述第一关键词的时间属性、所述语调属性的时间属性、所述人物表情属性的时间属性、所述第二关键词的时间属性,根据所述第一关键词对应的时间属性、所述语调属性对应的时间属性、所述人物表情属性对应的时间属性、所述第二关键词对应的时间属性得到关键时间点;
剪辑策略输出模块,用于将所述关键时间点、所述第一关键词和所述第二关键词输入预先建立的知识图谱,根据所述知识图谱输出剪辑策略;
目标视频生成模块,用于根据所述剪辑策略对所述原始视频进行剪辑处理,生成目标视频。
本申请实施例的第三方面提出了一种电子设备,所述电子设备包括存储器和处理器,其中,所述存储器中存储有程序,所述程序被所述处理器执行时所述处理器用于执行如本申请第一方面实施例任一项所述的方法。
本申请实施例的第四方面提出了一种存储介质,该存储介质为计算机可读存储介质,所述存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如本申请第一方面实施例任一项所述的方法。
本申请实施例提出的视频生成方法、视频生成装置、电子设备、存储介质,通过获取原始视频,将原始视频分离为音频和图像帧,对音频进行语音处理,得到第一关键词和语调属性,根据预设的第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧,对人物图像帧进行人物表情识别,得到人物表情属性,对图文图像帧进行光学字符识别,获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到关键时间点,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略,根据剪辑策略对原始视频进行剪辑处理,生成目标视频,能够自动输出剪辑后的视频,降低了对视频制作的技术要求和时间要求,提高了视频剪辑的效率。
附图说明
图1是本申请实施例提供的视频生成方法的第一流程图;
图2是图1中的步骤S120的流程图;
图3是图2中的步骤S210的流程图;
图4是图1中的步骤S140的流程图;
图5是图1中的步骤S150的流程图;
图6是图1中的步骤S180的流程图;
图7是本申请另一实施例提供的视频生成方法的第二流程图;
图8为本申请另一实施例提供的视频生成方法的第三流程图;
图9为本申请实施例提供的视频生成装置的模块结构框图;
图10是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
在本申请的各个具体实施方式中,当涉及到需要根据用户信息、用户行为数据,用户历史数据以及用户位置信息等与用户身份或特性相关的数据进行相关处理时,都会先获得用户的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关国家和地区的相关法律法规和标准。此外,当本申请实施例需要获取用户的敏感个人信息时,会通过弹窗或者跳转到确认页面等方式获得用户的单独许可或者单独同意,在明确获得用户的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的用户相关数据。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
光学字符识别(Optical Character Recognition,OCR):是对文本的图像文件进行分析识别处理,获取文字及版面信息的过程。
知识图谱(Knowledge Graph):是一种由实体、关系和属性组成的数据结构,提供知识化服务,最初应用于搜索引擎、推荐系统,用于优化搜索引擎、推荐系统返回的结果。
自动语音识别(Automatic Speech Recognition,ASR):是将语音转换为文本的技术。
梅尔频率倒谱系数(Mel-Frequency Cepstral Coefficients,MFCCs):是组成梅尔频率倒谱的系数,其中梅尔频率倒谱是基于声音频率的非线性梅尔刻度的对数能量频谱的线性变换。
支持向量机(Support Vector Machine,SVM):是将样本映射到高维度的特征空间中,根据该高维度特征空间对样本进行分类。
连接时序分类模型(Connectionist Temporal Classification,CTC):是端到端的神经网络模型,能够自动学习输入序列与输出序列的对齐,用于语音识别和书写识别。
长短期记忆网络(Long Short-Term Memory,LSTM):是一种循环神经网络,通过遗忘门、输入门和输出门控制网络当前时刻的输出,其中遗忘门用于确定上一时刻的单元状态有多少保存到当前时刻的单元状态中,输入门用于确定当前时刻的网络输入有多少保存到当前时刻的单元状态中,输出门用于确定当前时刻的单元状态有多少作为网络当前时刻的输出。
目前,视频拍摄完成后,需要人工对视频进行剪辑来完成后期制作,但是视频剪辑对人工制作有一定的技术和时间要求,效率低且容易因人为操作而出错。
基于此,本申请实施例提出一种视频生成方法、视频生成装置、电子设备、存储介质,通过获取原始视频,将原始视频分离为音频和图像帧,对音频进行语音处理,得到第一关键词和语调属性,根据预设的第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧,对人物图像帧进行人物表情识别,得到人物表情属性,对图文图像帧进行光学字符识别,获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到关键时间点,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略,根据剪辑策略对原始视频进行剪辑处理,生成目标视频。本申请实施例通过知识图谱输出剪辑策略,并根据剪辑策略对视频进行剪辑处理,能够自动输出剪辑后的视频,降低了对视频制作的技术要求和时间要求,提高了视频剪辑的效率。
本申请实施例提供的视频生成方法、视频生成装置、电子设备、存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的视频生成方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的视频生成方法,涉及人工智能领域。本申请实施例提供的视频生成方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现视频生成方法的应用等,但并不局限于以上形式。
本申请实施例可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
参照图1,根据本申请实施例第一方面实施例的视频生成方法,包括但不限于步骤S110至步骤S180。
步骤S110,获取原始视频,将原始视频分离为音频和图像帧;
步骤S120,对音频进行语音处理,得到第一关键词和语调属性;
步骤S130,根据预设的第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧;
步骤S140,对人物图像帧进行人物表情识别,得到人物表情属性;
步骤S150,对图文图像帧进行光学字符识别,得到第二关键词;
步骤S160,获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到关键时间点;
步骤S170,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略;
步骤S180,根据剪辑策略对原始视频进行剪辑处理,生成目标视频。
在一些实施例的步骤S110中,获取原始视频,可以将原始视频输入视频分离工具,通过视频分离工具将原始视频分离为音频和多个图像帧,也可以将原始视频输入预先训练的视频分离模型,通过视频分离模型输出原始视频对应的音频和多个图像帧。需要说明的是,音频和图像帧具有时间属性。由于视频是由多个图像帧按照时间顺序排列组成的,根据视频的时间戳可以得到音频和图像帧的时间属性。
在一些实施例的步骤S120中,对从原始视频中分离出的音频进行语音处理,得到第一关键词和语调属性,其中第一关键词为音频中的重要内容,语调属性用于表征音频在原始视频中的重要程度,包括重要、正常、不重要。
在一些实施例的步骤S130中,利用第一分类模型对从原始视频中分离出的图像帧进行分类,根据分类结果得到人物图像帧和图文图像帧,其中第一分类模型为图像分类模型,将图像帧输入图像分类模型,根据图像分类模型对图像帧进行分类,将包含人物特征的图像帧分类为人物图像帧,将不包含人物特征的图像帧分类为图文图像帧。
在一些实施例的步骤S140中,对人物图像帧进行人物表情识别,得到人物图像帧中人物的人物表情属性,其中人物表情属性用于反映人物图像帧中人物的情感,包括感兴趣-兴奋、高兴-喜欢、惊奇-惊讶、伤心-痛苦、害怕-恐惧、害羞-羞辱、轻蔑-厌恶、生气-愤怒等。需要说明的是,若人物图像帧中人物具有肢体动作,对人物图像帧进行关键动作识别,得到人物图像帧中人物的关键动作,例如各类手势动作。本申请实施例采用landmarks算法对人物图像帧进行landmarks检测,得到关键动作特征点,根据关键动作特征点进行人体姿态估计,得到人物图像帧中的关键动作。
在一些实施例的步骤S150中,对图文图像帧进行光学字符识别,得到第二关键词,其中第二关键词为图文图像帧对应的重要文本信息。光学字符识别通过检测暗、亮的模式确定字符形状,根据字符识别方法将字符形状翻译为计算机文字,从而将图文图像帧中的文字转化为计算机可编辑的文字。
在一些实施例的步骤S160中,由于音频和图像帧具有时间属性,因此根据音频得到的第一关键词和语调属性也具有时间属性,根据图像帧得到的人物表情属性和第二关键词也具有时间属性。通过获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到原始视频的关键时间点。
在一些实施例的步骤S170中,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,通过对知识图谱的结构化规则库进行搜索,输出与关键时间点、第一关键词和第二关键词匹配的剪辑策略,其中结构化规则库是根据大量已有数据进行机器训练生成的原始视频要素与剪辑策略的匹配关系,所述原始视频要素为关键时间点、第一关键词和第二关键词。
在一些实施例的步骤S180中,根据知识图谱输出的剪辑策略对原始视频进行剪辑处理,得到目标视频,其中目标视频为剪辑后的原始视频。根据剪辑策略对视频进行剪辑处理,能够自动输出剪辑后的视频,降低了对视频制作的技术要求,节省了视频制作的时间。
本申请实施例提出的视频生成方法,通过获取原始视频,将原始视频分离为音频和图像帧,对音频进行语音处理,得到第一关键词和语调属性,根据预设的第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧,对人物图像帧进行人物表情识别,得到人物表情属性,对图文图像帧进行光学字符识别,获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到关键时间点,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略,根据剪辑策略对原始视频进行剪辑处理,生成目标视频,能够自动输出剪辑后的视频,降低了对视频制作的技术要求和时间要求,提高了视频剪辑的效率。
在一些实施例中,如图2所示,步骤S120具体包括但不限于步骤S210至步骤S220。
步骤S210,将音频转换为第一文本,对第一文本进行语义识别,得到第一文本中的第一关键词;
步骤S220,对音频进行语调分析,得到声纹特征,根据预设的第二分类模型对声纹特征进行分类,得到语调属性。
在一些实施例的步骤S210中,利用自动语音识别技术将音频转换为第一文本,对第一文本进行语义识别,以提取第一文本中的第一关键词。
在一些实施例的步骤S220中,将音频划分为多个音频帧,对音频帧进行傅里叶变换得到对应的功率谱,将梅尔滤波器组应用于功率谱,根据功率谱和梅尔滤波器组计算每个梅尔滤波器的能量,并根据每个梅尔滤波器的能量得到梅尔滤波器组的能量,将梅尔滤波器组的能量进行对数变换,得到能量对数,对能量对数进行离散余弦变换取得到多个系数,选择第2个至第13个系数作为MCFFs,其中MCFFs为一个12维的声纹特征。除了MCFFs外,还可以将线性预测系数、基频、基频轨迹曲线、短时能量等特征作为声纹特征,并根据第二分类模型对声纹特征进行分类,得到声调属性,其中第二分类模型可以是SVM分类器或者神经网络模型。
在一些实施例中,如图3所示,步骤S210具体包括但不限于步骤S310至步骤S350。
步骤S310,根据预设的语音识别模型对音频进行语音识别,将音频转换为对应的第一文本;
步骤S320,对第一文本进行分词处理,得到第一单词序列;
步骤S330,对第一单词序列中每个单词进行词性标注,得到第一单词序列中每个单词的单词词性;
步骤S340,根据单词词性对第一单词序列进行词性还原,得到第二单词序列;
步骤S350,对第二单词序列进行语义识别,得到第一文本中的第一关键词。
在一些实施例的步骤S310中,语音识别模型包括声学模型和语言模型,声学模型用于计算语音到音素的概率,将语音转换为音素;语言模型用于计算音素到文字的概率,将音素转换为文字。声学模型和语言模型之间的联系通过词典建立,词典根据声学模型识别的音素找到对应的文字。语音识别模型进行语音识别的过程为:提取音频的声纹特征,将声纹特征输入声学模型得到声纹特征到音素序列的声学模型得分,根据词典得到声学模型识别的音素序列对应的词序列,将词序列输入语言模型得到语言模型得分,解码器根据声学模型得分和语言模型得分输出得分最高的词序列作为语音识别的结果,其中声学模型可以为CTC模型、隐马尔科夫模型、混合高斯模型等。若音频中包括数字,语音识别模型将数字进行数字规整,得到数字对应的文本。
在一些实施例的步骤S320中,对第一文本进行分词处理,根据分界符将第一文本中的字序列组合成词序列,得到第一单词序列。若第一文本为中文文本,将逗号、句号等标点符号作为分界符,可识别中文文本中的句子,将空格、换行符作为分界符,可识别中文文本中的段落,句子或者段落中的汉字字符、词语可以为一个单词,根据汉字字符、词语得到第一单词序列;若第一文本为英文文本,英文单词之间以空格作为分界符,根据空格对第一文本进行分词处理,得到第一单词序列。
在一些实施例的步骤S330中,对第一单词序列中的每个单词进行词性标注,得到每个单词的单词词性,其中单词词性为名词、动词、形容词、代词、数词、副词等。
在一些实施例的步骤S340中,根据单词词性对第一单词序列中的每个单词进行词性还原,得到第二单词序列,其中第二单词序列为第一单词序列中每个单词的原形。词性还原是通过对单词词性进行分析,将单词的复杂形态转变成最基础的形态。
在一些实施例的步骤S350中,根据命名实体识别模型对第二单词序列进行语义识别,得到第一文本中的第一关键词,其中命名实体识别模型采用LSTM网络,将第二单词序列输入LSTM网络进行语义识别,得到第一文本中的第一关键词。
在一些实施例中,如图4所示,步骤S140具体包括但不限于步骤S410至步骤S420。
步骤S410,对人物图像帧进行人脸对齐处理,在人物图像帧中定位人脸特征点;
步骤S420,对人脸特征点进行姿态估计,得到人物表情属性。
在一些实施例的步骤S410中,对人物图像帧进行landmarks检测,将人物图像帧输入landmarks算法进行人脸对齐处理,在人物图像帧中定位人脸特征点,其中人脸对齐指的是人物图像帧中各像素之间高层语义的对齐,人脸特征点可用于定义人物图像帧中人物的脸部轮廓、下颌轮廓、眼角、瞳孔、嘴巴、鼻子等。需要说明的是,landmarks算法可以在人物图像帧中定位到68个人脸特征点。
在一些实施例的步骤S420中,对人脸特征点进行人脸姿态估计,得到人物表情属性,其中进行人脸姿态估计的方法分为两类,包括基于二维标定信息估计人脸姿态的方法和基于数据驱动的预测模型估计人脸姿态的方法。基于二维标定信息估计人脸姿态的方法通过计算人脸的关键特征点,选取参考系,计算关键特征点和参考系的变换矩阵,根据迭代算法优化变换矩阵,根据变换矩阵得到人脸三维姿态信息。基于数据驱动的预测模型估计人脸姿态的方法通过预先训练的姿态回归器预测输入人脸块的三维欧拉角,以得到人脸三维姿态信息。本申请实施例采用基于二维标定信息估计人脸姿态的方法进行人脸姿态估计,通过步骤S420定位到人脸特征点的位置即二维标定信息,根据定位的人脸特征点的位置和选取的参考系计算变换矩阵,根据梯度下降算法优化变换矩阵,得到人脸空间向量,根据情感识别模型将人脸空间向量进行分类得到人物表情属性。
在一些实施例中,如图5所示,步骤S150具体包括但不限于步骤S510至步骤S520。
步骤S510,对图文图像帧进行光学字符识别,得到图文图像帧中的第二文本;
步骤S520,根据命名实体识别模型对图文图像帧中的第二文本进行语义识别,得到第二关键词。
在一些实施例的步骤S510中,光学字符识别通过确定图文图像帧中的字符形状,根据字符识别方法将字符形状翻译为计算机文字,从而得到图文图像帧中的第二文本;
在一些实施例的步骤S520中,命名实体识别模型可以为LSTM,根据LSTM对图文图像帧中的第二文本进行语义识别,得到第二文本中的第二关键词。根据LSTM进行语义识别的过程为:对第二文本进行分词处理,得到第三单词序列,对第三单词序列中的每个单词进行词性标注,得到第三单词序列中每个单词的单词词性,根据单词词性对第三单词序列中的每个单词进行词性还原,得到第四单词序列,将第四单词序列输入LSTM网络,根据LSTM网络提取第二文本中的第二关键词。
在一些实施例中,如图6所示,步骤S180具体包括但不限于步骤S610至步骤S620。
步骤S610,根据剪辑策略获取剪辑时间点和剪辑行为;
步骤S620,根据剪辑时间点和剪辑行为对原始视频进行剪辑处理,生成目标视频。
在一些实施例的步骤S610中,根据剪辑策略获取剪辑时间点和剪辑行为,其中剪辑时间点为知识图谱中与剪辑策略相对应的关键时间点,剪辑行为包括滤镜选择、视频片段加速、视频片段放慢、视频片段整合、视频片段氛围选择、视频片段高亮、背景乐导入、音频调整中的至少一种。
在一些实施例的步骤S620中,根据剪辑时间点匹配定位到原始视频的时间点,根据剪辑行为对原始视频时间点对应的视频片段进行剪辑处理,对剪辑后的视频片段进行拼接处理,生成目标视频。
参照图7,本申请另一实施例还提供一种视频生成方法,包括但不限于步骤S710至步骤S740。
步骤S710,获取预设的评分函数;
步骤S720,根据评分函数对剪辑策略进行打分,得到剪辑策略的打分值;
步骤S730,根据打分值对剪辑策略进行筛选,得到筛选后的剪辑策略,将筛选后的剪辑策略作为目标策略;
步骤S740,将目标策略以及对应目标策略的关键时间点、第一关键词、第二关键词输入知识图谱,以更新知识图谱。
在一些实施例的步骤S710至S740中,基于打分值对剪辑策略进行筛选,将筛选后的剪辑策略以及与筛选后的剪辑策略对应的关键时间点、第一关键词、第二关键词输入知识图谱,以更新知识图谱的结构化规则库,强化知识图谱。
参照图8,本申请另一实施例还提供一种视频生成方法,包括但不限于步骤S8010至步骤S8110。
步骤S8010,获取原始视频文件,将原始视频文件分离为音频和图像帧;
步骤S8020,根据预设的语音识别模型对音频进行语音识别,将音频转换为对应的第一文本,根据LSTM网络提取第一文本中的第一关键词;
步骤S8030,提取音频的声纹特征,对声纹特征进行分类,得到语调属性;
步骤S8040,根据分类模型对图像帧进行分类,得到人物图像帧和图文图像帧;
步骤S8050,对人物图像帧进行landmarks检测,得到关键人脸特征点的定位和关键动作特征点的定位;
步骤S8060,根据关键人脸特征点的定位对关键人脸特征点进行人脸姿态估计,得到人物表情属性;
步骤S8070,根据关键动作特征点的定位对关键动作特征点进行人体姿态估计,得到人物关键动作;
步骤S8080,对图文图像帧进行光学字符识别,得到图文图像帧对应的第二文本,根据LSTM网络提取第二文本中的第二关键词;
步骤S8090,获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、人物关键动作的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、人物关键动作对应的时间属性、第二关键词对应的时间属性得到关键时间点;
步骤S8100,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略;
步骤S8110,根据剪辑策略对原始视频进行剪辑处理,生成目标视频。
本申请实施例还提供一种视频生成装置,如图9所示,可以实现上述视频生成方法,该装置包括:获取模块910、语音处理模块920、图像分类模块930、人物表情识别模块940、图文识别模块950、关键时间点识别模块960、剪辑策略输出模块970和目标视频生成模块980,其中获取模块910用于获取原始视频,将原始视频分离为音频和图像帧;语音处理模块920用于对音频进行语音处理,得到第一关键词和语调属性;图像分类模块930用于根据预设的第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧;人物表情识别模块940用于对人物图像帧进行人物表情识别,得到人物表情属性;图文识别模块950用于对图文图像帧进行光学字符识别,得到第二关键词;关键时间点识别模块960用于获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到关键时间点;剪辑策略输出模块970用于将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略;目标视频生成模块980用于根据剪辑策略对原始视频进行剪辑处理,生成目标视频。
本申请实施例提出的视频生成装置,通过获取原始视频,将原始视频分离为音频和图像帧,对音频进行语音处理,得到第一关键词和语调属性,根据预设的第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧,对人物图像帧进行人物表情识别,得到人物表情属性,对图文图像帧进行光学字符识别,获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到关键时间点,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略,根据剪辑策略对原始视频进行剪辑处理,生成目标视频,能够自动输出剪辑后的视频,降低了对视频制作的技术要求和时间要求,提高了视频剪辑效率。
本申请实施例的视频生成装置用于执行上述实施例中的视频生成方法,其具体处理过程与上述实施例中的视频生成方法相同,此处不再一一赘述。
本申请实施例还提供了一种电子设备,包括:
至少一个处理器,以及,
与至少一个处理器通信连接的存储器;其中,
存储器存储有指令,指令被至少一个处理器执行,以使至少一个处理器执行指令时实现如本申请第一方面实施例中任一项的方法。
本申请实施例提出的电子设备,通过获取原始视频,将原始视频分离为音频和图像帧,对音频进行语音处理,得到第一关键词和语调属性,根据预设的第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧,对人物图像帧进行人物表情识别,得到人物表情属性,对图文图像帧进行光学字符识别,获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到关键时间点,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略,根据剪辑策略对原始视频进行剪辑处理,生成目标视频,能够自动输出剪辑后的视频,降低了对视频制作的技术要求和时间要求,提高了视频剪辑效率。
下面结合图10对电子设备的硬件结构进行详细说明。该电子设备包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。
处理器1010,可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器1020,可以采用ROM(Read Only Memory,只读存储器)、静态存储设备、动态存储设备或者RAM(Random Access Memory,随机存取存储器)等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行本申请实施例的视频生成方法;
输入/输出接口1030,用于实现信息输入及输出;
通信接口1040,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;和
总线1050,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息;
其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
本申请实施例还提供一种存储介质,该存储介质是计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令用于使计算机执行本申请实施例的视频生成方法。
本申请实施例提出的存储介质,通过获取原始视频,将原始视频分离为音频和图像帧,对音频进行语音处理,得到第一关键词和语调属性,根据预设的第一分类模型对图像帧进行分类,得到人物图像帧和图文图像帧,对人物图像帧进行人物表情识别,得到人物表情属性,对图文图像帧进行光学字符识别,获取第一关键词的时间属性、语调属性的时间属性、人物表情属性的时间属性、第二关键词的时间属性,根据第一关键词对应的时间属性、语调属性对应的时间属性、人物表情属性对应的时间属性、第二关键词对应的时间属性得到关键时间点,将关键时间点、第一关键词和第二关键词输入预先建立的知识图谱,根据知识图谱输出剪辑策略,根据剪辑策略对原始视频进行剪辑处理,生成目标视频,能够自动输出剪辑后的视频,降低了对视频制作的技术要求和时间要求,提高了视频剪辑效率。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1至图8中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种视频生成方法,其特征在于,所述方法包括:
获取原始视频,将所述原始视频分离为音频和图像帧;
对所述音频进行语音处理,得到第一关键词和语调属性;
根据预设的第一分类模型对所述图像帧进行分类,得到人物图像帧和图文图像帧;
对所述人物图像帧进行人物表情识别,得到人物表情属性;
对所述图文图像帧进行光学字符识别,得到第二关键词;
获取所述第一关键词的时间属性、所述语调属性的时间属性、所述人物表情属性的时间属性、所述第二关键词的时间属性,根据所述第一关键词对应的时间属性、所述语调属性对应的时间属性、所述人物表情属性对应的时间属性、所述第二关键词对应的时间属性得到关键时间点;
将所述关键时间点、所述第一关键词和所述第二关键词输入预先建立的知识图谱,根据所述知识图谱输出剪辑策略;
根据所述剪辑策略对所述原始视频进行剪辑处理,生成目标视频。
2.根据权利要求1所述的视频生成方法,其特征在于,所述对所述音频进行语音处理,得到第一关键词和语调属性,包括:
将所述音频转换为第一文本,对所述第一文本进行语义识别,得到所述第一文本中的第一关键词;
对所述音频进行语调分析,得到声纹特征,根据预设的第二分类模型对所述声纹特征进行分类,得到语调属性。
3.根据权利要求2所述的视频生成方法,其特征在于,所述将所述音频转换为第一文本,对所述第一文本进行语义识别,得到所述第一文本中的第一关键词,包括:
根据预设的语音识别模型对所述音频进行语音识别,将所述音频转换为对应的所述第一文本;
对所述第一文本进行分词处理,得到第一单词序列;
对所述第一单词序列中每个单词进行词性标注,得到所述第一单词序列中每个所述单词的单词词性;
根据所述单词词性对所述第一单词序列进行词性还原,得到第二单词序列;
对所述第二单词序列进行语义识别,得到所述第一文本中的第一关键词。
4.根据权利要求1所述的视频生成方法,其特征在于,所述对所述人物图像帧进行人物表情识别,得到人物表情属性,包括:
对所述人物图像帧进行人脸对齐处理,在所述人物图像帧中定位人脸特征点;
对所述人脸特征点进行姿态估计,得到人物表情属性。
5.根据权利要求1至4任一项所述的视频生成方法,其特征在于,所述对所述图文图像帧进行光学字符识别,得到第二关键词,包括:
对所述图文图像帧进行光学字符识别,得到所述图文图像帧中的第二文本;
根据命名实体识别模型对所述图文图像帧中的第二文本进行语义识别,得到第二关键词。
6.根据权利要求1至4任一项所述的视频生成方法,其特征在于,所述方法还包括:
获取预设的评分函数;
根据所述评分函数对所述剪辑策略进行打分,得到所述剪辑策略的打分值;
根据所述打分值对所述剪辑策略进行筛选,得到筛选后的剪辑策略,将筛选后的剪辑策略作为目标策略;
将所述目标策略以及对应所述目标策略的关键时间点、第一关键词、第二关键词输入知识图谱,以更新所述知识图谱。
7.根据权利要求1至4任一项所述的视频生成方法,其特征在于,所述根据所述剪辑策略对所述原始视频进行剪辑处理,生成目标视频,包括:
根据所述剪辑策略获取剪辑时间点和剪辑行为,所述剪辑行为包括滤镜选择、视频片段加速、视频片段放慢、视频片段整合、视频片段氛围选择、背景乐导入、音频调整中的至少一种;
根据所述剪辑时间点和所述剪辑行为对所述原始视频进行剪辑处理,生成目标视频。
8.一种视频生成装置,其特征在于,所述装置包括:
获取模块,用于获取原始视频,将所述原始视频分离为音频和图像帧;
语音处理模块,用于对所述音频进行语音处理,得到第一关键词和语调属性;
图像分类模块,用于根据预设的第一分类模型对所述图像帧进行分类,得到人物图像帧和图文图像帧;
人物表情识别模块,用于对所述人物图像帧进行人物表情识别,得到人物表情属性;
图文识别模块,用于对所述图文图像帧进行光学字符识别,得到第二关键词;
关键时间点识别模块,用于获取所述第一关键词的时间属性、所述语调属性的时间属性、所述人物表情属性的时间属性、所述第二关键词的时间属性,根据所述第一关键词对应的时间属性、所述语调属性对应的时间属性、所述人物表情属性对应的时间属性、所述第二关键词对应的时间属性得到关键时间点;
剪辑策略输出模块,用于将所述关键时间点、所述第一关键词和所述第二关键词输入预先建立的知识图谱,根据所述知识图谱输出剪辑策略;
目标视频生成模块,用于根据所述剪辑策略对所述原始视频进行剪辑处理,生成目标视频。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,其中,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时所述处理器用于执行:
如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,在所述计算机程序被计算机执行时,所述计算机用于执行:
如权利要求1至7任一项所述的方法。
CN202210439688.8A 2022-04-25 2022-04-25 视频生成方法、视频生成装置、电子设备、存储介质 Active CN114786059B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210439688.8A CN114786059B (zh) 2022-04-25 2022-04-25 视频生成方法、视频生成装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210439688.8A CN114786059B (zh) 2022-04-25 2022-04-25 视频生成方法、视频生成装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN114786059A CN114786059A (zh) 2022-07-22
CN114786059B true CN114786059B (zh) 2023-06-20

Family

ID=82432866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210439688.8A Active CN114786059B (zh) 2022-04-25 2022-04-25 视频生成方法、视频生成装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN114786059B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115802101A (zh) * 2022-11-25 2023-03-14 深圳创维-Rgb电子有限公司 一种短视频生成方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022048347A1 (zh) * 2020-09-02 2022-03-10 华为技术有限公司 一种视频编辑方法及设备
CN114245203A (zh) * 2021-12-15 2022-03-25 平安科技(深圳)有限公司 基于剧本的视频剪辑方法、装置、设备及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170228600A1 (en) * 2014-11-14 2017-08-10 Clipmine, Inc. Analysis of video game videos for information extraction, content labeling, smart video editing/creation and highlights generation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022048347A1 (zh) * 2020-09-02 2022-03-10 华为技术有限公司 一种视频编辑方法及设备
CN114245203A (zh) * 2021-12-15 2022-03-25 平安科技(深圳)有限公司 基于剧本的视频剪辑方法、装置、设备及介质

Also Published As

Publication number Publication date
CN114786059A (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
US10192545B2 (en) Language modeling based on spoken and unspeakable corpuses
CN112784696B (zh) 基于图像识别的唇语识别方法、装置、设备及存储介质
CN111985243A (zh) 情感模型的训练方法、情感分析方法、装置及存储介质
CN116343747A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN117271736A (zh) 一种问答对的生成方法和系统、电子设备及存储介质
CN115759071A (zh) 基于大数据的政务敏感信息识别系统和方法
CN114786059B (zh) 视频生成方法、视频生成装置、电子设备、存储介质
KR20190059185A (ko) 청각 장애 학생들을 위한 전문 자료 텍스트 분석 기반 음성인식 기술 정확도 향상 방법 및 시스템
CN111126084A (zh) 数据处理方法、装置、电子设备和存储介质
CN113901838A (zh) 对话检测方法和装置、电子设备、存储介质
CN117033796A (zh) 基于用户表达偏好的智能回复方法、装置、设备及介质
CN116364054A (zh) 基于diffusion的语音合成方法、装置、设备、存储介质
CN116312463A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN114491076B (zh) 基于领域知识图谱的数据增强方法、装置、设备及介质
CN116127066A (zh) 文本聚类方法、文本聚类装置、电子设备及存储介质
CN114974219A (zh) 语音识别方法、语音识别装置、电子设备及存储介质
CN114974310A (zh) 基于人工智能的情感识别方法、装置、计算机设备及介质
CN112988965B (zh) 文本数据处理方法、装置、存储介质及计算机设备
CN113377965B (zh) 感知文本关键词的方法及相关装置
CN116741141A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN116665652A (zh) 语音识别方法、语音识别系统、计算机设备和存储介质
CN116564274A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN116645961A (zh) 语音识别方法、语音识别装置、电子设备及存储介质
CN116343762A (zh) 情绪识别模型的训练方法和装置、电子设备及存储介质
CN117097922A (zh) 视频生成方法、视频生成装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant