CN112233661B - 基于语音识别的影视内容字幕生成方法、系统及设备 - Google Patents
基于语音识别的影视内容字幕生成方法、系统及设备 Download PDFInfo
- Publication number
- CN112233661B CN112233661B CN202011099384.9A CN202011099384A CN112233661B CN 112233661 B CN112233661 B CN 112233661B CN 202011099384 A CN202011099384 A CN 202011099384A CN 112233661 B CN112233661 B CN 112233661B
- Authority
- CN
- China
- Prior art keywords
- different
- speech
- lines
- video content
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000004590 computer program Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000033764 rhythmic process Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本发明涉及一种基于语音识别的影视内容字幕生成方法、系统及设备,其方法包括,接收影视内容相关音频文件,影视内容相关音频文件包括纯音频文件和成品视频源文件;基于预先构建的角色特征音频计算模型,对纯音频文件和成品视频源文件进行角色识别,确定不同角色形象;按照不同的角色形象对影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;确定不同的台词集中不同台词的语义相关度,根据语义相关度划分不同的台词集中的台词为不同台词应用场景;按照时间轴串联不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑,通过语音识别自动生成台词的方式,有效地提高了字幕编辑的效率。
Description
技术领域
本发明属于字幕编辑技术领域,具体涉及一种基于语音识别的影视内容字幕生成方法、系统及设备。
背景技术
现阶段电视机用户看到的影视视频内容可涵盖不同类型、不同国家、不同语言,影视业务内容投放也具备大量的节目资源对于运营工作来讲具有不小的工作体量。用户在浏览不同国家、不同地区的语种节目需要借助对应字幕、台词来辅助理解影视节目所表达的意图。目前,大多数的影视节目字幕一般为后期人工编辑校准,根据演员剧本等具备台词的电影、电视剧进行字幕编辑,但老电影、无剧本等类型无指台词的节目也需要人工编辑字幕,这就造成了字幕编辑工作严重依赖剧本台词、人工编辑的工作模式。
但是,人工编辑的方式,对人工量要求较大,且容易出错,导致字幕编辑的效率相对较低。
发明内容
为了至少解决现有技术存在的上述问题,本发明提供了一种基于语音识别的影视内容字幕生成方法、系统及设备,以提高字幕编辑的效率。
本发明提供的技术方案如下:
一方面,一种基于语音识别的影视内容字幕生成方法,包括:
接收影视内容相关音频文件,所述影视内容相关音频文件包括纯音频文件和成品视频源文件;
基于预先构建的角色特征音频计算模型,对所述纯音频文件和所述成品视频源文件进行角色识别,确定不同角色形象;
按照不同的所述角色形象对所述影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;
确定不同的所述台词集中不同台词的语义相关度,根据所述语义相关度划分不同的所述台词集中的台词为不同台词应用场景;
按照时间轴串联所述不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑。
可选的,上述在所述接收影视内容相关音频文件之前,还包括:
根据音色、语调、节奏、发音和语种构建角色特征音频计算模型。
可选的,上述所述确定不同的所述台词集中不同台词的语义相关度,包括:
通过语义识别算法对不同的所述台词集中不同台词进行关联度计算,得到不同台词的语义相关度。
可选的,上述所述根据所述语义相关度划分不同的所述台词集中的台词为不同台词应用场景,包括:
根据所述语义相关度,确定不同台词间的连贯程度;
根据所述连贯程度,划分为不同台词应用场景。
可选的,上述所述划分为不同台词应用场景之后,还包括:
按照所述语义相关度、所述连贯程度和台词应用场景,对每个所述台词应用场景对应的台词进行校准。
可选的,上述所述划分为不同台词应用场景之后,还包括:
标记每个所述台词应用场景对应的时间戳节点。
可选的,上述所述按照时间轴串联所述不同台词应用场景中的对应台词,进行台词拼接之前,还包括:
识别每个所述台词应用场景的时间戳节点;
按照时间先后顺序,对所述时间戳节点排序,得到所有台词应用场景的时间轴。
可选的,上述所述生成每个角色形象对应的台词集之后,还包括:
获取目标语种类别需求;
根据所述目标语种类别需求,将所述台词集转化为对应的语种台词。
另一方面,一种基于语音识别的影视内容字幕生成系统,包括:
文件接收模块,用于接收影视内容相关音频文件,所述影视内容相关音频文件包括纯音频文件和成品视频源文件;
角色识别模块,用于基于预先构建的角色特征音频计算模型,对所述纯音频文件和所述成品视频源文件进行角色识别,确定不同角色形象;
台词生成模块,用于按照不同的所述角色形象对所述影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;
场景划分模块,用于确定不同的所述台词集中不同台词的语义相关度,根据所述语义相关度划分不同的所述台词集中的台词为不同台词应用场景;
台词拼接模块,用于按照时间轴串联所述不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑。
再一方面,一种基于语音识别的影视内容字幕生成设备,包括:处理器,以及与所述处理器相连接的存储器;
所述存储器用于存储计算机程序,所述计算机程序至少用于执行上述任一项所述的基于语音识别的影视内容字幕生成方法;
所述处理器用于调用并执行所述存储器中的所述计算机程序。
本发明的有益效果为:
本发明提供的一种基于语音识别的影视内容字幕生成方法、系统及设备,方法通过,接收影视内容相关音频文件,影视内容相关音频文件包括纯音频文件和成品视频源文件,基于预先构建的角色特征音频计算模型,对纯音频文件和成品视频源文件进行角色识别,确定不同角色形象;按照不同的角色形象对影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;确定不同的台词集中不同台词的语义相关度,根据语义相关度划分不同的台词集中的台词为不同台词应用场景;按照时间轴串联不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑的方式,实现了根据语音识别的方式自动生成台词,解决了人工编辑台词复杂的问题,从而可以更好地实现字幕编辑,既能保证台词的准确性,又能提高字幕编辑的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于语音识别的影视内容字幕生成方法的一种流程图;
图2是本发明实施例提供的基于语音识别的影视内容字幕生成系统的一种结构示意图;
图3是本发明实施例提供的基于语音识别的影视内容字幕生成设备的一种结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
图1是本发明实施例提供的基于语音识别的影视内容字幕生成方法的一种流程图。
如图1所示,本实施例的一种基于语音识别的影视内容字幕生成方法,包括以下步骤:
S11、接收影视内容相关音频文件,影视内容相关音频文件包括纯音频文件和成品视频源文件。
具体的,用户选择将影视内容相关音频文件导入系统,当然包括了纯音频文件和成品视频源文件,导入的过程可以是自动导入也可以手动导入。导入系统后,系统自动解析所导入的文件的属性,包括文件格式、时长、文件大小等等基本属性。
S12、基于预先构建的角色特征音频计算模型,对纯音频文件和成品视频源文件进行角色识别,确定不同角色形象。
具体的,在系统运行之前,首先包括了构建角色特征音频计算模型的过程,构建的基本依据便是根据不同的音色、语调、节奏、发音和语种等,语种包括了中文、外文,中文包括了普通话、方言等。构建角色特征音频计算模型的目的在于,识别导入的音频文件中包括多少种语音类别,也就表示了有多少个角色形象,在一个影视作品中,每个角色的语言表达都是不一样的,通过对音频的分析处理,可以了解到整个影视作品中的角色数量,通过角色的发声特征了解不同的角色形象。
S13、按照不同的角色形象对影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集。
在确定了不同的角色形象以后,对源文件也就是影视内容相关音频文件进行拆分,而拆分的依据就是根据不同的角色形象,识别出每一个角色形象所对应的语音内容,然后将其进行转化,生成对应的台词集,台词集包括了每个角色形象的所有的语音。当然,也可以是,首先对影视内容相关音频文件进行段落拆分,通过连贯度进行段落拆分,然后对每个段落中的所有的角色形象进行角色的语音识别,并生成对应的台词集,此时对应的台词集便是某个段落中的所有的角色形象的对应的所有台词。具体的语音识别的过程包括了语种识别、词汇识别、方言识别等类型的音频识别。
S14、确定不同的台词集中不同台词的语义相关度,根据语义相关度划分不同的台词集中的台词为不同台词应用场景。
在某个具体的影视作品中,都会分为不同的表演场景。在上述得到不同的角色形象的台词集以后,确定不同台词之间的语义相关度,具体的可以通过语义识别算法对不同的所述台词集中不同台词进行关联度计算,得到不同台词的语义相关度,然后根据语义相关度划分不同的台词应用场景。划分过程则可以是,根据不同台词间的语义相关度,确定不同台词间的连贯程度,然后根据连贯程度,划分为不同的应用场景,划分场景以后便可以按照具体的场景进行每个场景的台词生成,同时还可以按照场景校准对应的台词,根据每个场景中的语义相关度、连贯度和台词应用场景对每个场景中的台词进行校准。例如,某个场景中是两人对话的形式,则可以根据对应台词的语义连贯程度校准措辞,通过具体场景判断,可以更好地保证台词的准确度。
S15、按照时间轴串联不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑。
在根据不同的语音相关度或是音频连贯度确定将整个音频文件划分为不同的台词应用场景后,对应的对每个台词应用场景标记时间戳节点,标记时间戳节点可以根据时间戳节点对各个台词应用场景进行按顺序分配,在识别每个台词应用场景的时间戳节点后,按照时间先后顺序,对时间戳节点排序,得到所有台词应用场景的时间轴。从而保证了各个场景之间的先后顺序和连贯性。在确定了时间轴以后,便可以按照时间轴顺序串联不同的台词应用场景中的对应台词,进行台词拼接,保证了台词顺序的正确性,然后便可以进行字幕编辑,同时也可以对其进行存储等。
本实施例提供的一种基于语音识别的影视内容字幕生成方法,通过接收影视内容相关音频文件,影视内容相关音频文件包括纯音频文件和成品视频源文件,基于预先构建的角色特征音频计算模型,对纯音频文件和成品视频源文件进行角色识别,确定不同角色形象;按照不同的角色形象对影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;确定不同的台词集中不同台词的语义相关度,根据语义相关度划分不同的台词集中的台词为不同台词应用场景;按照时间轴串联不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑的方式,实现了根据语音识别的方式自动生成台词,解决了人工编辑台词复杂的问题,从而可以更好地实现字幕编辑,既能保证台词的准确性,又能提高字幕编辑的效率。
进一步地,在上述实施例的基础上,本实施例中,在生成每个角色形象对应的台词集之后,还包括:获取目标语种类别需求,根据目标语种类别需求,将台词集转化为对应的语种台词。为了满足不同人的需求,可以选择在获取到对应的台词集以后,进行翻译,例如若是需要汉语,则可以选择将其他语言类型翻译为汉语,若是需要英语,则可以将其翻译为英语,具体的可以根据不同的用户需求进行确定。
采用本申请的方法可为内容生产者、内容运营人员提一种可以为影视内容提供语音识别自动生成台词的服务,解决人工编辑字幕台词等问题。通过自动化处理方式改变人工编辑的传统工作模式,提升工作效率。同时该装置可将内容生产者、内容运营方原有无字幕或待翻译的影视节目进行字幕自动处理,大大提升了相关工作的处理效率。
基于同一总的发明构思,本申请还保护一种基于语音识别的影视内容字幕生成系统。
图2是本发明实施例提供的基于语音识别的影视内容字幕生成系统的一种结构示意图。
如图2所示,本申请的一种基于语音识别的影视内容字幕生成系统,包括:
文件接收模块10,用于接收影视内容相关音频文件,影视内容相关音频文件包括纯音频文件和成品视频源文件;
角色识别模块20,用于基于预先构建的角色特征音频计算模型,对纯音频文件和成品视频源文件进行角色识别,确定不同角色形象;
台词生成模块30,用于按照不同的角色形象对影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;
场景划分模块40,用于确定不同的台词集中不同台词的语义相关度,根据语义相关度划分不同的台词集中的台词为不同台词应用场景;
台词拼接模块50,用于按照时间轴串联不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑。
本实施例提供的一种基于语音识别的影视内容字幕生成系统,通过接收影视内容相关音频文件,影视内容相关音频文件包括纯音频文件和成品视频源文件,基于预先构建的角色特征音频计算模型,对纯音频文件和成品视频源文件进行角色识别,确定不同角色形象;按照不同的角色形象对影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;确定不同的台词集中不同台词的语义相关度,根据语义相关度划分不同的台词集中的台词为不同台词应用场景;按照时间轴串联不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑的方式,实现了根据语音识别的方式自动生成台词,解决了人工编辑台词复杂的问题,从而可以更好地实现字幕编辑,既能保证台词的准确性,又能提高字幕编辑的效率。
关于系统部分的实施例,在对应的方法实施例中已经做了详细的介绍说明,因此,在对应的系统部分不再进行具体的阐述,可以相互参照进行理解。
基于一个总的发明构思,本发明实施例还提供一种基于语音识别的影视内容字幕生成设备。
图3是本发明实施例提供的基于语音识别的影视内容字幕生成设备的一种结构示意图。
如图3所示,本实施例的一种基于语音识别的影视内容字幕生成设备,包括:处理器100,以及与处理器100相连接的存储器200;
存储器用于存储计算机程序,计算机程序至少用于执行上述任一实施例的基于语音识别的影视内容字幕生成方法;
处理器用于调用并执行存储器中的计算机程序。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (7)
1.一种基于语音识别的影视内容字幕生成方法,其特征在于,包括:
接收影视内容相关音频文件,所述影视内容相关音频文件包括纯音频文件和成品视频源文件;
基于预先构建的角色特征音频计算模型,对所述纯音频文件和所述成品视频源文件进行角色识别,确定不同角色形象;
按照不同的所述角色形象对所述影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;
确定不同的所述台词集中不同台词的语义相关度,根据所述语义相关度划分不同的所述台词集中的台词为不同台词应用场景;
所述确定不同的所述台词集中不同台词的语义相关度,包括:
通过语义识别算法对不同的所述台词集中不同台词进行关联度计算,得到不同台词的语义相关度;
所述根据所述语义相关度划分不同的所述台词集中的台词为不同台词应用场景,包括:
根据所述语义相关度,确定不同台词间的连贯程度;
根据所述连贯程度,划分为不同台词应用场景;
还包括:
按照所述语义相关度、所述连贯程度和台词应用场景,对每个所述台词应用场景对应的台词进行校准;
按照时间轴串联所述不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑。
2.根据权利要求1所述的基于语音识别的影视内容字幕生成方法,其特征在于,在所述接收影视内容相关音频文件之前,还包括:
根据音色、语调、节奏、发音和语种构建角色特征音频计算模型。
3.根据权利要求2所述的基于语音识别的影视内容字幕生成方法,其特征在于,所述划分为不同台词应用场景之后,还包括:
标记每个所述台词应用场景对应的时间戳节点。
4.根据权利要求3所述的基于语音识别的影视内容字幕生成方法,其特征在于,所述按照时间轴串联所述不同台词应用场景中的对应台词,进行台词拼接之前,还包括:
识别每个所述台词应用场景的时间戳节点;
按照时间先后顺序,对所述时间戳节点排序,得到所有台词应用场景的时间轴。
5.根据权利要求1所述的基于语音识别的影视内容字幕生成方法,其特征在于,所述生成每个角色形象对应的台词集之后,还包括:
获取目标语种类别需求;
根据所述目标语种类别需求,将所述台词集转化为对应的语种台词。
6.一种基于语音识别的影视内容字幕生成系统,其特征在于,包括:
文件接收模块,用于接收影视内容相关音频文件,所述影视内容相关音频文件包括纯音频文件和成品视频源文件;
角色识别模块,用于基于预先构建的角色特征音频计算模型,对所述纯音频文件和所述成品视频源文件进行角色识别,确定不同角色形象;
台词生成模块,用于按照不同的所述角色形象对所述影视内容相关音频文件进行解析和语音识别,生成每个角色形象对应的台词集;
场景划分模块,用于确定不同的所述台词集中不同台词的语义相关度,根据所述语义相关度划分不同的所述台词集中的台词为不同台词应用场景;
所述确定不同的所述台词集中不同台词的语义相关度,包括:
通过语义识别算法对不同的所述台词集中不同台词进行关联度计算,得到不同台词的语义相关度;
所述根据所述语义相关度划分不同的所述台词集中的台词为不同台词应用场景,包括:
根据所述语义相关度,确定不同台词间的连贯程度;
根据所述连贯程度,划分为不同台词应用场景;
还包括:
按照所述语义相关度、所述连贯程度和台词应用场景,对每个所述台词应用场景对应的台词进行校准;
台词拼接模块,用于按照时间轴串联所述不同台词应用场景中的对应台词,进行台词拼接,以进行字幕编辑。
7.一种基于语音识别的影视内容字幕生成设备,其特征在于,包括:处理器,以及与所述处理器相连接的存储器;
所述存储器用于存储计算机程序,所述计算机程序至少用于执行权利要求1-5任一项所述的基于语音识别的影视内容字幕生成方法;
所述处理器用于调用并执行所述存储器中的所述计算机程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011099384.9A CN112233661B (zh) | 2020-10-14 | 2020-10-14 | 基于语音识别的影视内容字幕生成方法、系统及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011099384.9A CN112233661B (zh) | 2020-10-14 | 2020-10-14 | 基于语音识别的影视内容字幕生成方法、系统及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112233661A CN112233661A (zh) | 2021-01-15 |
CN112233661B true CN112233661B (zh) | 2024-04-05 |
Family
ID=74112949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011099384.9A Active CN112233661B (zh) | 2020-10-14 | 2020-10-14 | 基于语音识别的影视内容字幕生成方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112233661B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113973229B (zh) * | 2021-08-11 | 2023-12-29 | 上海卓越睿新数码科技股份有限公司 | 一种处理视频中口误的在线剪辑方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004071013A (ja) * | 2002-08-05 | 2004-03-04 | Nippon Hoso Kyokai <Nhk> | 映像付帯音声データ記録方法、映像付帯音声データ記録装置および映像付帯音声データ記録プログラム |
CN103885924A (zh) * | 2013-11-21 | 2014-06-25 | 北京航空航天大学 | 一种领域自适应的公开课字幕自动生成系统及方法 |
CN105245917A (zh) * | 2015-09-28 | 2016-01-13 | 徐信 | 一种多媒体语音字幕生成的系统和方法 |
WO2016110664A1 (en) * | 2015-01-11 | 2016-07-14 | Holland Nigel Alexander | Altering a supplementary audio recording for adding to a video recording |
CN107241616A (zh) * | 2017-06-09 | 2017-10-10 | 腾讯科技(深圳)有限公司 | 视频台词提取方法、装置及存储介质 |
CN108509465A (zh) * | 2017-02-28 | 2018-09-07 | 阿里巴巴集团控股有限公司 | 一种视频数据的推荐方法、装置和服务器 |
CN109246472A (zh) * | 2018-08-01 | 2019-01-18 | 平安科技(深圳)有限公司 | 视频播放方法、装置、终端设备及存储介质 |
CN109558513A (zh) * | 2018-11-30 | 2019-04-02 | 百度在线网络技术(北京)有限公司 | 一种内容推荐方法、装置、终端及存储介质 |
CN109657101A (zh) * | 2018-12-28 | 2019-04-19 | 广州有好戏网络科技有限公司 | 电影语录识别匹配系统、电影放映器及存储介质 |
CN110166818A (zh) * | 2018-11-30 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 待配音视频的生成方法、计算机设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11238854B2 (en) * | 2016-12-14 | 2022-02-01 | Google Llc | Facilitating creation and playback of user-recorded audio |
-
2020
- 2020-10-14 CN CN202011099384.9A patent/CN112233661B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004071013A (ja) * | 2002-08-05 | 2004-03-04 | Nippon Hoso Kyokai <Nhk> | 映像付帯音声データ記録方法、映像付帯音声データ記録装置および映像付帯音声データ記録プログラム |
CN103885924A (zh) * | 2013-11-21 | 2014-06-25 | 北京航空航天大学 | 一种领域自适应的公开课字幕自动生成系统及方法 |
WO2016110664A1 (en) * | 2015-01-11 | 2016-07-14 | Holland Nigel Alexander | Altering a supplementary audio recording for adding to a video recording |
CN105245917A (zh) * | 2015-09-28 | 2016-01-13 | 徐信 | 一种多媒体语音字幕生成的系统和方法 |
CN108509465A (zh) * | 2017-02-28 | 2018-09-07 | 阿里巴巴集团控股有限公司 | 一种视频数据的推荐方法、装置和服务器 |
CN107241616A (zh) * | 2017-06-09 | 2017-10-10 | 腾讯科技(深圳)有限公司 | 视频台词提取方法、装置及存储介质 |
CN109246472A (zh) * | 2018-08-01 | 2019-01-18 | 平安科技(深圳)有限公司 | 视频播放方法、装置、终端设备及存储介质 |
CN109558513A (zh) * | 2018-11-30 | 2019-04-02 | 百度在线网络技术(北京)有限公司 | 一种内容推荐方法、装置、终端及存储介质 |
CN110166818A (zh) * | 2018-11-30 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 待配音视频的生成方法、计算机设备及存储介质 |
CN109657101A (zh) * | 2018-12-28 | 2019-04-19 | 广州有好戏网络科技有限公司 | 电影语录识别匹配系统、电影放映器及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112233661A (zh) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108447486B (zh) | 一种语音翻译方法及装置 | |
CN110517689B (zh) | 一种语音数据处理方法、装置及存储介质 | |
KR101990023B1 (ko) | 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템 | |
WO2016037440A1 (zh) | 视频语音转换方法、装置和服务器 | |
US9552807B2 (en) | Method, apparatus and system for regenerating voice intonation in automatically dubbed videos | |
CN110740275B (zh) | 一种非线性编辑系统 | |
US9412359B2 (en) | System and method for cloud-based text-to-speech web services | |
EP4322029A1 (en) | Method and apparatus for generating video corpus, and related device | |
CN113033217B (zh) | 字幕敏感信息自动屏蔽转译方法和装置 | |
JP2012181358A (ja) | テキスト表示時間決定装置、テキスト表示システム、方法およびプログラム | |
CN110781649A (zh) | 一种字幕编辑方法、装置及计算机存储介质、电子设备 | |
JP2015523623A (ja) | 既存の単一言語プロセスからマルチ言語プロセスを構築すること | |
CN113035199A (zh) | 音频处理方法、装置、设备及可读存储介质 | |
CN111508466A (zh) | 一种文本处理方法、装置、设备及计算机可读存储介质 | |
CN117787409A (zh) | 基于大语言模型的人机交互方法、装置及电子设备 | |
CN112233661B (zh) | 基于语音识别的影视内容字幕生成方法、系统及设备 | |
CN108831503B (zh) | 一种口语评测方法及装置 | |
CN116582726B (zh) | 视频生成方法、装置、电子设备及存储介质 | |
CN113870833A (zh) | 语音合成相关系统、方法、装置及设备 | |
CN111968646A (zh) | 一种语音识别方法及装置 | |
Spolaôr et al. | A video indexing and retrieval computational prototype based on transcribed speech | |
CN116504223A (zh) | 语音翻译方法及装置、电子设备、存储介质 | |
CN113948062B (zh) | 数据转换方法及计算机存储介质 | |
CN114446304A (zh) | 语音交互方法、数据处理方法、装置和电子设备 | |
CN109241331B (zh) | 一种面向智能机器人的故事数据处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |