CN117596433A - 一种基于时间轴微调的国际中文教学视听课件编辑系统 - Google Patents

一种基于时间轴微调的国际中文教学视听课件编辑系统 Download PDF

Info

Publication number
CN117596433A
CN117596433A CN202410078612.6A CN202410078612A CN117596433A CN 117596433 A CN117596433 A CN 117596433A CN 202410078612 A CN202410078612 A CN 202410078612A CN 117596433 A CN117596433 A CN 117596433A
Authority
CN
China
Prior art keywords
video
unit
module
editing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410078612.6A
Other languages
English (en)
Other versions
CN117596433B (zh
Inventor
王涛
郑云龙
李华
王康
李华丰
何晗
李育涵
孙伟伟
李子宾
逄菲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Audio Visual Speaking Technology Co ltd
Natural Semantics Qingdao Technology Co ltd
Original Assignee
Beijing Audio Visual Speaking Technology Co ltd
Natural Semantics Qingdao Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Audio Visual Speaking Technology Co ltd, Natural Semantics Qingdao Technology Co ltd filed Critical Beijing Audio Visual Speaking Technology Co ltd
Priority to CN202410078612.6A priority Critical patent/CN117596433B/zh
Publication of CN117596433A publication Critical patent/CN117596433A/zh
Application granted granted Critical
Publication of CN117596433B publication Critical patent/CN117596433B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Security & Cryptography (AREA)
  • Educational Technology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明涉及教育技术领域,具体涉及一种基于时间轴微调的国际中文教学视听课件编辑系统,包括视频解析模块、字幕识别处理模块、时间轴分析模块、视频剪辑模块、分层交互集成模块、个性化内容生成模块以及课件整合生成模块;其中,视频解析模块:用于解析输入的教学视频文件;字幕识别处理模块:识别并提取视频中的字幕文本数据,生成标准化的文本数据流;时间轴分析模块:用于指导视频剪辑模块的操作;视频剪辑模块:使用时间轴分析模块提供的时间标记数据。本发明,通过自动化和智能化的视频编辑流程提高教学视频的制作效率和质量,同时强化了视频的个性化和互动性,保证了其在多种平台的兼容性和广泛可接入性。

Description

一种基于时间轴微调的国际中文教学视听课件编辑系统
技术领域
本发明涉及教育技术领域,尤其涉及一种基于时间轴微调的国际中文教学视听课件编辑系统。
背景技术
随着数字化教学的迅速发展和多媒体技术的广泛应用,短视频已成为现代教学中一个重要的工具,特别是在语言教学领域,视听课件的使用极大地丰富了教学内容和手段,提高了学生的学习兴趣和效率,然而,随着教育需求的多样化和个性化,传统的纸质教材已难以满足所有学习者的需求,特别是对于中文这样一个具有表意文字和高语境特征的语言,标准化的教材在满足不同学习者具体需求方面面临挑战。
现有的视频编辑技术主要聚焦于影视制作的效果和功能,对于教育领域中特有的需求,如个性化学习路径、互动性强的学习环境、以及对方言和口音的准确识别和处理等方面,尚缺乏有效的解决方案,此外,视频教学资源的制作和编辑过程通常时间消耗大,对教师和教材制作者的技术要求高,这限制了短视频教学资源个性化和高效制作的可能性。
因此,急需一种能够自动化并个性化处理教学视频内容的系统,以适应不同学习者的需求,同时提高视频教学资源制作的效率和质量。
发明内容
基于上述目的,本发明提供了一种基于时间轴微调的国际中文教学视听课件编辑系统。
一种基于时间轴微调的国际中文教学视听课件编辑系统,包括视频解析模块、字幕识别处理模块、时间轴分析模块、视频剪辑模块、分层交互集成模块、个性化内容生成模块以及课件整合生成模块;其中,
视频解析模块:用于解析输入的教学视频文件,提取视频中的音频和视觉数据,以生成数据流来作为后续模块的输入基础;
字幕识别处理模块:接收视频解析模块的输出,通过自然语言处理技术,识别并提取视频中的字幕文本数据,生成标准化的文本数据流;
时间轴分析模块:接收字幕识别处理模块文本数据流,并结合视频解析模块提供的视觉数据,分析确定关键教学点的时间码,输出为时间标记的关键教学点,用于指导视频剪辑模块的操作;
视频剪辑模块:使用时间轴分析模块提供的时间标记数据,对原始视频进行剪辑和重组;
分层交互集成模块:结合字幕识别与处理模块的文本数据和视频剪辑模块的输出,创建能交互的字幕和注释;
个性化内容生成模块:根据用户反馈和学习数据,调整视频内容和难度,并分析来自用户的互动数据,结合视频剪辑模块的输出来优化课件内容;
课件整合生成模块:将所有模块的输出整合成统一的、多平台兼容的视频格式,确保编辑后的课件能在不同的设备和平台上流畅播放。
进一步的,所述视频解析模块包括视频数据分离单元、音频处理单元、视觉数据优化单元、数据流同步单元以及数据流封装单元;其中,
视频数据分离单元:通过使用编解码技术,将输入的教学视频文件进行数据流分离,具体包括将视频文件分解为独立的音频和视觉数据流;
音频处理单元:应用数字信号处理技术,对分离出的音频数据流进行处理,包括音频信号的放大、噪声减少和音频范围的调整,以提高语音清晰度和质量;
视觉数据优化单元:利用图像处理算法对分离出的视觉数据流进行优化处理,包括图像稳定、色彩校正以及亮度和对比度的调整;
数据流同步单元:通过时间戳和帧同步技术,实现音频和视觉数据流的同步,以将音频与视频图像在时间上一致,为视频剪辑和后续处理提供同步的数据流;
数据流封装单元:采用标准的多媒体容器格式,对优化后的音频和视觉数据流进行重新封装,以生成统一的数据格式。
进一步的,所述字幕识别处理模块包括字幕提取单元、自然语言处理单元、方言口音处理单元、文本标准化单元以及数据流输出单元;其中,
字幕提取单元:接收视频解析模块的输出,并通过图像识别和文本提取技术从视频数据流中识别和提取字幕,该字幕提取单元在取技过程中还通过使用光学字符识别OCR技术,来保证字幕文本提取的精度;
自然语言处理单元:利用机器学习和深度学习模型对提取的字幕文本进行自然语言处理,包括分词、词性标注、语义分析和句法解析;
方言口音处理单元:通过集成多种方言和口音的语言模型,来处理视频中的方言和口音变体,以识别并标准化不同地区和群体的语言表达;
文本标准化单元:通过自然语言处理技术对处理后的字幕文本进行标准化,具体包括纠正识别错误、统一术语和短语的使用,形成生成标准化的文本数据流。
进一步的,所述字幕提取单元中从视频数据流中识别和提取字幕具体步骤为:
S1:接收视频解析模块输出的视觉数据流,并对视频帧进行预处理包括灰度化、二值化和噪声滤除,所述灰度化是将彩色图像转换为灰度图像的过程,具体公式为:,其中,R,G,B分别是红、绿、蓝色通道的像素值,/>是灰度图像,二值化是使用固定阈值或自适应阈值方法将灰度图像转换为黑白图像的过程;
S2:进行字幕区域定位步骤,具体采用边缘检测和区域增长算法图像分割技术,来定位字幕区域;
S3:在定位的字幕区域应用光学字符识别技术来提取文字,光学字符识别包括字符分割、特征提取和字符识别三个子步骤;
S4:通过文本校对算法对OCR输出的文字进行后处理,包括校正错别字、统一文字格式。
进一步的,所述时间轴分析模块包括关键帧提取单元、文本关键帧匹配单元、时间码分析单元以及时间标记输出单元;其中,
关键帧提取单元:利用帧差分法从视频解析模块接收的视觉数据流中提取关键帧,并通过比较连续帧之间的像素差异来确定关键帧,具体关键帧的提取公式表示为:,其中,/>和/>分别表示连续的两帧,/>表示它们之间的差异度;
文本关键帧匹配单元:结合字幕识别处理模块提供的文本数据流和关键帧提取单元的输出,对字幕文本与视频中的关键帧进行匹配;
时间码分析单元:基于文本与关键帧的匹配结果,确定关键教学点的时间码,具体使用动态时间规整DTW算法,来匹配字幕文本与关键帧的时间序列,该DTW算法是通过计算最小累积距离来找到最佳匹配路径,具体公式为:
,其中,/>表示序列间的距离;
时间标记输出单元:将确定的关键教学点的时间码格式化为时间标记,输出到视频剪辑模块,以便于视频剪辑模块进行精准剪辑。
进一步的,所述视频剪辑模块包括时间码导向剪辑单元、视频重组单元以及播放速度调整单元;其中,
时间码导向剪辑单元:接收时间轴分析模块确定的关键教学点的时间标记,并根据该时间标记对原始视频进行剪辑,具体剪辑操作基于非线性视频编辑技术,允许从原始视频中精确地选择和提取特定的帧序列,剪辑过程表示为:
,其中,/>表示剪辑后的视频序列,/>表示在时间t的帧,表示所有关键时间点的集合;
视频重组单元:对剪辑后的视频帧序列进行重组,以形成连续且流畅的视频片段,具体使用视频融合技术,确保不同片段之间过渡自然,无明显的剪辑痕迹;
播放速度调整单元:根据教学内容的需要调整视频的播放速度,具体利用时间伸缩算法,来调整视频播放速度而不失真。
进一步的,所述分层交互集成模块包括字幕生成单元、语音输出控制单元、动态注释整合单元、用户交互响应单元以及互动数据记录单元;其中,
交互式字幕生成单元:接收字幕识别处理模块的文本数据流,并结合视频剪辑模块的输出,使用文本叠加技术,将字幕文本以交互式图层的形式覆盖在视频帧上,或隐藏原有视频中的嵌入式硬字幕,用户播放视频时可选择隐藏或显示字幕,该交互式图层允许用户点击字幕中的特定词汇或短语,触发相关的动作或显示附加信息;
语音输出控制单元:通过基于卷积神经网络CNN的方法,通过训练神经网络模型来深度学习音频信号的特征,并根据这些特征将背景声音和人物语音分离出来,并通过方法大量的训练数据提高分离效果,允许学生能选择进行配音练习;
动态注释整合单元:根据视频内容和字幕文本创建动态注释,该单元具体使用数据绑定技术,将注释内容与视频中的特定时间点或元素关联起来,具体当视频展示某一关键概念时,注释将会自动显示解释或补充信息;
用户交互响应单元:使用事件监听技术来处理用户与交互式字幕和注释的互动,以响应用户的点击或选择操作,并根据操作提供反馈包括显示详细信息、播放相关视频片段或跳转至相关教学材料;
互动数据记录单元:记录用户与交互式元素的互动数据,包括点击频率、停留时间和用户选择路径。
进一步的,所述个性化内容生成模块包括用户反馈分析单元、内容难度调整单元以及视频个性化剪辑单元;其中,
用户反馈分析单元:用于收集并分析用户在观看视频过程中的反馈和互动数据,包括观看时间、重复观看的部分、暂停和跳过的片段,具体分析使用聚类分析来识别用户的学习偏好和难点,该聚类分析将通过K-均值算法实现数据挖掘,具体挖掘公式为:,其中,/>是簇/>的中心点,/>是簇/>中的数据点集合;
内容难度调整单元:使用自适应学习算法根据用户的学习反馈动态调整视频内容的难度和深度,具体算法采用基于用户学习进度的难度调整模型,具体算法公式表示为:其中,/>表示新的难度级别,/>是当前难度级别,/>是基于用户学习效果的调整系数,/>是用户的学习效果评分,/>是预定的学习效果阈值;
视频个性化剪辑单元:根据用户的学习行为和理解程度,对视频进行个性化剪辑,采用基于用户反馈的剪辑决策模型,具体公式表示为:
,其中,/>是剪辑后的视频序列,/>表示视频的第/>个片段,/>是用户对第/>个片段的兴趣权重,n是视频片段的总数。
进一步的,所述课件整合生成模块具体包括多格式视频编码单元、视频质量优化单元、视频容器封装单元以及跨平台兼容性测试单元;其中,
多格式视频编码单元:接收来自系统所有模块的视频数据,并将其编码为多种格式,以确保兼容性,具体采用H.264、VP9和HEVC的编码标准,使视频能够被广泛的设备和平台支持;
视频质量优化单元:在编码过程中对视频进行质量优化,包括分辨率调整、比特率控制和压缩噪声减少;
视频容器封装单元:将编码后的视频数据封装到不同的视频容器格式中,视频容器格式包括MP4、WebM或MKV;
跨平台兼容性测试单元:对封装后的视频文件进行兼容性测试,确保视频文件能够在不同操作系统、浏览器和设备上正常播放,兼容性测试包括在Windows、macOS、iOS和Android平台上进行播放测试。
本发明的有益效果:
本发明,通过集成先进的语音和图像识别技术,系统能够快速准确地处理语言的多样性,包括方言和口音,从而大幅减少了传统视频编辑所需的手动工作量,同时,通过自动化的时间轴分析和个性化剪辑,本系统不仅确保视听课件语境的完整,而且提高了视频制作的灵活度和速度,还提升了教学视频的专业性和针对性,使之更加适合教学目的。
本发明,通过引入个性化内容生成模块和分层交互集成模块,大大增强了教学视频的个性化和互动性,个性化模块根据学习者的需求及反馈和学习行为动态调整视频内容和难度,使学习过程更加贴合每个学习者的特定需求,分层交互集成模块则允许在视频中加入交互式字幕和注释,增加了学习者的参与度,提升了学习体验和效果。
本发明,通过支持多种视频格式和进行兼容性测试,本系统的输出视频适用于各类操作系统和设备,从而扩大了教学视频的可接入范围,这一特点特别适合当前多元化的教育环境,如线上教学、远程学习等,保证了所有学习者都能够无障碍地访问和使用教学资源。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的国际中文教学视听课件编辑系统示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,对本发明进一步详细说明。
需要说明的是,除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如图1所示,一种基于时间轴微调的国际中文教学视听课件编辑系统,包括视频解析模块、字幕识别处理模块、时间轴分析模块、视频剪辑模块、分层交互集成模块、个性化内容生成模块以及课件整合生成模块;其中,
视频解析模块:用于解析输入的教学视频文件,提取视频中的音频和视觉数据,以生成数据流来作为后续模块的输入基础;
字幕识别处理模块:接收视频解析模块的输出,通过自然语言处理技术,识别并提取视频中的字幕文本数据,此字幕识别处理模块还能处理方言和口音的变体,生成标准化的文本数据流;
时间轴分析模块:接收字幕识别处理模块文本数据流,并结合视频解析模块提供的视觉数据,分析确定关键教学点的时间码,输出为时间标记的关键教学点,用于指导视频剪辑模块的操作;
视频剪辑模块:使用时间轴分析模块提供的时间标记数据,对原始视频进行剪辑和重组,用于根据教学内容的需要调整视频的播放速度和顺序;
分层交互集成模块:结合字幕识别与处理模块的文本数据和视频剪辑模块的输出,创建能交互的字幕和注释,以增强学习体验;
个性化内容生成模块:根据用户反馈和学习数据,调整视频内容和难度,并分析来自用户的互动数据,结合视频剪辑模块的输出来优化课件内容;
课件整合生成模块:将所有模块的输出整合成统一的、多平台兼容的视频格式,确保编辑后的课件能在不同的设备和平台上流畅播放。
视频解析模块包括视频数据分离单元、音频处理单元、视觉数据优化单元、数据流同步单元以及数据流封装单元;其中,
视频数据分离单元:通过使用编解码技术,将输入的教学视频文件进行数据流分离,具体包括将视频文件分解为独立的音频和视觉数据流,此单元确保音频和视觉数据的完整性和高保真度,为后续处理提供基础;
音频处理单元:应用数字信号处理技术,对分离出的音频数据流进行处理,包括音频信号的放大、噪声减少和音频范围的调整,以提高语音清晰度和质量,以便更好地用于教学内容的解析和展示;
视觉数据优化单元:利用图像处理算法对分离出的视觉数据流进行优化处理,包括图像稳定、色彩校正以及亮度和对比度的调整,此单元旨在增强视频图像的清晰度和视觉效果,确保视觉内容的质量和教学有效性;
数据流同步单元:通过时间戳和帧同步技术,实现音频和视觉数据流的同步,以将音频与视频图像在时间上一致,为视频剪辑和后续处理提供同步的数据流;
数据流封装单元:采用标准的多媒体容器格式,对优化后的音频和视觉数据流进行重新封装,以生成统一的数据格式,以便于系统中其他模块的处理和分析。
字幕识别处理模块包括字幕提取单元、自然语言处理单元、方言口音处理单元、文本标准化单元以及数据流输出单元;其中,
字幕提取单元:接收视频解析模块的输出,并通过图像识别和文本提取技术从视频数据流中识别和提取字幕,该字幕提取单元在取技过程中还通过使用光学字符识别OCR技术,来保证字幕文本提取的精度;
自然语言处理单元:利用机器学习和深度学习模型对提取的字幕文本进行自然语言处理,包括分词、词性标注、语义分析和句法解析,以实现对字幕内容的高效处理和理解;
方言口音处理单元:通过集成多种方言和口音的语言模型,来处理视频中的方言和口音变体,以识别并标准化不同地区和群体的语言表达,确保字幕的普遍可理解性;
文本标准化单元:通过自然语言处理技术对处理后的字幕文本进行标准化,具体包括纠正识别错误、统一术语和短语的使用,形成生成标准化的文本数据流,来确保字幕文本的标准化和准确性,为时间轴分析模块和其他相关模块提供清晰、准确的文本数据流。
字幕提取单元中从视频数据流中识别和提取字幕具体步骤为:
S1:接收视频解析模块输出的视觉数据流,并对视频帧进行预处理包括灰度化、二值化和噪声滤除,灰度化是将彩色图像转换为灰度图像的过程,具体公式为:,其中,R,G,B分别是红、绿、蓝色通道的像素值,/>是灰度图像,二值化是使用固定阈值或自适应阈值方法将灰度图像转换为黑白图像的过程;
S2:进行字幕区域定位步骤,具体采用边缘检测和区域增长算法图像分割技术,来定位字幕区域,该边缘检测可以使用Canny算法,该算法通过计算图像的梯度来识别边缘;
S3:在定位的字幕区域应用光学字符识别技术来提取文字,光学字符识别包括字符分割、特征提取和字符识别三个子步骤,其中,特征提取涉及到形状、大小和笔画等特征的计算,而字符识别则通常基于机器学习算法,如支持向量机(SVM)或卷积神经网络(CNN);
S4:通过文本校对算法对OCR输出的文字进行后处理,包括校正错别字、统一文字格式,以提高字幕文本的准确度和可读性。
时间轴分析模块包括关键帧提取单元、文本关键帧匹配单元、时间码分析单元以及时间标记输出单元;其中,
关键帧提取单元:利用帧差分法从视频解析模块接收的视觉数据流中提取关键帧,并通过比较连续帧之间的像素差异来确定关键帧,具体关键帧的提取公式表示为:,其中,/>和/>分别表示连续的两帧,/>表示它们之间的差异度;
文本关键帧匹配单元:结合字幕识别处理模块提供的文本数据流和关键帧提取单元的输出,对字幕文本与视频中的关键帧进行匹配,这一步骤使用自然语言处理技术,如语义分析,以确保文本内容与关键帧的相关性;
时间码分析单元:基于文本与关键帧的匹配结果,确定关键教学点的时间码,具体使用动态时间规整DTW算法,来匹配字幕文本与关键帧的时间序列,该DTW算法是通过计算最小累积距离来找到最佳匹配路径,具体公式为:
,其中,/>表示序列间的距离;
时间标记输出单元:将确定的关键教学点的时间码格式化为时间标记,输出到视频剪辑模块,该单元确保每个关键教学点都有明确的时间标记,以便于视频剪辑模块进行精准剪辑;
该时间轴分析模块分析过程中时间的起点和终点,是以句子的完整为依据进行分析处理的。
视频剪辑模块包括时间码导向剪辑单元、视频重组单元以及播放速度调整单元;其中,
时间码导向剪辑单元:接收时间轴分析模块确定的关键教学点的时间标记,并根据该时间标记对原始视频进行剪辑,具体剪辑操作基于非线性视频编辑技术,允许从原始视频中精确地选择和提取特定的帧序列,剪辑过程表示为:
,其中,/>表示剪辑后的视频序列,/>表示在时间t的帧,表示所有关键时间点的集合;
视频重组单元:对剪辑后的视频帧序列进行重组,以形成连续且流畅的视频片段,具体使用视频融合技术,确保不同片段之间过渡自然,无明显的剪辑痕迹,视频重组过程中,可能涉及到帧内插值技术,以平滑帧与帧之间的过渡;
播放速度调整单元:根据教学内容的需要调整视频的播放速度,具体利用时间伸缩算法,来调整视频播放速度而不失真,该算法通过在连续帧之间插入新帧或去除现有帧来实现速度调整,以保持视频的流畅性。
分层交互集成模块包括字幕生成单元、语音输出控制单元、动态注释整合单元、用户交互响应单元以及互动数据记录单元;其中,
交互式字幕生成单元:接收字幕识别处理模块的文本数据流,并结合视频剪辑模块的输出,使用文本叠加技术,将字幕文本以交互式图层的形式覆盖在视频帧上,或隐藏原有视频中的嵌入式硬字幕,用户播放视频时可选择隐藏或显示字幕,该交互式图层允许用户点击字幕中的特定词汇或短语,触发相关的动作或显示附加信息;
语音输出控制单元:通过基于卷积神经网络CNN的方法,通过训练神经网络模型来深度学习音频信号的特征,并根据这些特征将背景声音和人物语音分离出来,并通过方法大量的训练数据提高分离效果,允许学生能选择进行配音练习;
动态注释整合单元:根据视频内容和字幕文本创建动态注释,该单元具体使用数据绑定技术,将注释内容与视频中的特定时间点或元素关联起来,具体当视频展示某一关键概念时,注释将会自动显示解释或补充信息;
用户交互响应单元:使用事件监听技术来处理用户与交互式字幕和注释的互动,以响应用户的点击或选择操作,并根据操作提供反馈包括显示详细信息、播放相关视频片段或跳转至相关教学材料;
互动数据记录单元:记录用户与交互式元素的互动数据,包括点击频率、停留时间和用户选择路径,这些数据用于分析用户的学习行为,为个性化内容生成模块提供输入数据。
个性化内容生成模块包括用户反馈分析单元、内容难度调整单元以及视频个性化剪辑单元;其中,
用户反馈分析单元:用于收集并分析用户在观看视频过程中的反馈和互动数据,包括观看时间、重复观看的部分、暂停和跳过的片段,具体分析使用聚类分析来识别用户的学习偏好和难点,该聚类分析将通过K-均值算法实现数据挖掘,具体挖掘公式为:,其中,/>是簇/>的中心点,/>是簇/>中的数据点集合;
内容难度调整单元:使用自适应学习算法根据用户的学习反馈动态调整视频内容的难度和深度,具体算法采用基于用户学习进度的难度调整模型,具体算法公式表示为:其中,/>表示新的难度级别,/>是当前难度级别,/>是基于用户学习效果的调整系数,/>是用户的学习效果评分,可能考虑错误率、完成时间等因素,/>是预定的学习效果阈值,此公式通过考虑用户的实际学习效果相对于预期效果的差距来调整难度,使教学内容更贴合用户的实际需求;
视频个性化剪辑单元:根据用户的学习行为和理解程度,对视频进行个性化剪辑,采用基于用户反馈的剪辑决策模型,具体公式表示为:
,其中,/>是剪辑后的视频序列,/>表示视频的第/>个片段,/>是用户对第/>个片段的兴趣权重,n是视频片段的总数,在这个公式中,视频片段的剪辑不仅考虑了用户的兴趣,还考虑了每个片段的难度评估,从而更全面地满足用户的学习需求。
课件整合生成模块具体包括多格式视频编码单元、视频质量优化单元、视频容器封装单元以及跨平台兼容性测试单元;其中,
多格式视频编码单元:接收来自系统所有模块的视频数据,并将其编码为多种格式,以确保兼容性,具体采用H.264、VP9和HEVC的编码标准,使视频能够被广泛的设备和平台支持;
视频质量优化单元:在编码过程中对视频进行质量优化,包括分辨率调整、比特率控制和压缩噪声减少,这些优化确保视频在不同设备上的播放质量,同时保持文件大小在合理范围内;
视频容器封装单元:将编码后的视频数据封装到不同的视频容器格式中,视频容器格式包括MP4、WebM或MKV,该单元确保视频文件包含所有必要的元数据,如音频轨道、字幕和关键帧信息,以便于不同播放器和设备的解析和播放;
跨平台兼容性测试单元:对封装后的视频文件进行兼容性测试,确保视频文件能够在不同操作系统、浏览器和设备上正常播放,兼容性测试包括在Windows、macOS、iOS和Android平台上进行播放测试。
本发明旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,包括视频解析模块、字幕识别处理模块、时间轴分析模块、视频剪辑模块、分层交互集成模块、个性化内容生成模块以及课件整合生成模块;其中,
视频解析模块:用于解析输入的教学视频文件,提取视频中的音频和视觉数据,以生成数据流来作为后续模块的输入基础;
字幕识别处理模块:接收视频解析模块的输出,通过自然语言处理技术,识别并提取视频中的字幕文本数据,生成标准化的文本数据流;
时间轴分析模块:接收字幕识别处理模块文本数据流,并结合视频解析模块提供的视觉数据,分析确定关键教学点的时间码,输出为时间标记的关键教学点,用于指导视频剪辑模块的操作;
视频剪辑模块:使用时间轴分析模块提供的时间标记数据,对原始视频进行剪辑和重组;
分层交互集成模块:结合字幕识别与处理模块的文本数据和视频剪辑模块的输出,创建能交互的字幕和注释;
个性化内容生成模块:根据用户反馈和学习数据,调整视频内容和难度,并分析来自用户的互动数据,结合视频剪辑模块的输出来优化课件内容;
课件整合生成模块:将所有模块的输出整合成统一的、多平台兼容的视频格式,确保编辑后的课件能在不同的设备和平台上流畅播放。
2.根据权利要求1所述的一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,所述视频解析模块包括视频数据分离单元、音频处理单元、视觉数据优化单元、数据流同步单元以及数据流封装单元;其中,
视频数据分离单元:通过使用编解码技术,将输入的教学视频文件进行数据流分离,具体包括将视频文件分解为独立的音频和视觉数据流;
音频处理单元:应用数字信号处理技术,对分离出的音频数据流进行处理,包括音频信号的放大、噪声减少和音频范围的调整,以提高语音清晰度和质量;
视觉数据优化单元:利用图像处理算法对分离出的视觉数据流进行优化处理,包括图像稳定、色彩校正以及亮度和对比度的调整;
数据流同步单元:通过时间戳和帧同步技术,实现音频和视觉数据流的同步,以将音频与视频图像在时间上一致,为视频剪辑和后续处理提供同步的数据流;
数据流封装单元:采用标准的多媒体容器格式,对优化后的音频和视觉数据流进行重新封装,以生成统一的数据格式。
3.根据权利要求2所述的一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,所述字幕识别处理模块包括字幕提取单元、自然语言处理单元、方言口音处理单元、文本标准化单元以及数据流输出单元;其中,
字幕提取单元:接收视频解析模块的输出,并通过图像识别和文本提取技术从视频数据流中识别和提取字幕,该字幕提取单元在取技过程中还通过使用光学字符识别OCR技术,来保证字幕文本提取的精度;
自然语言处理单元:利用机器学习和深度学习模型对提取的字幕文本进行自然语言处理,包括分词、词性标注、语义分析和句法解析;
方言口音处理单元:通过集成多种方言和口音的语言模型,来处理视频中的方言和口音变体,以识别并标准化不同地区和群体的语言表达;
文本标准化单元:通过自然语言处理技术对处理后的字幕文本进行标准化,具体包括纠正识别错误、统一术语和短语的使用,形成生成标准化的文本数据流。
4.根据权利要求3所述的一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,所述字幕提取单元中从视频数据流中识别和提取字幕具体步骤为:
S1:接收视频解析模块输出的视觉数据流,并对视频帧进行预处理包括灰度化、二值化和噪声滤除,所述灰度化是将彩色图像转换为灰度图像的过程,具体公式为:,其中,R,G,B分别是红、绿、蓝色通道的像素值,/>是灰度图像,二值化是使用固定阈值或自适应阈值方法将灰度图像转换为黑白图像的过程;
S2:进行字幕区域定位步骤,具体采用边缘检测和区域增长算法图像分割技术,来定位字幕区域;
S3:在定位的字幕区域应用光学字符识别技术来提取文字,光学字符识别包括字符分割、特征提取和字符识别三个子步骤;
S4:通过文本校对算法对OCR输出的文字进行后处理,包括校正错别字、统一文字格式。
5.根据权利要求4所述的一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,所述时间轴分析模块包括关键帧提取单元、文本关键帧匹配单元、时间码分析单元以及时间标记输出单元;其中,
关键帧提取单元:利用帧差分法从视频解析模块接收的视觉数据流中提取关键帧,并通过比较连续帧之间的像素差异来确定关键帧,具体关键帧的提取公式表示为:,其中,/>和/>分别表示连续的两帧,/>表示它们之间的差异度;
文本关键帧匹配单元:结合字幕识别处理模块提供的文本数据流和关键帧提取单元的输出,对字幕文本与视频中的关键帧进行匹配;
时间码分析单元:基于文本与关键帧的匹配结果,确定关键教学点的时间码,具体使用动态时间规整DTW算法,来匹配字幕文本与关键帧的时间序列,该DTW算法是通过计算最小累积距离来找到最佳匹配路径,具体公式为:
,其中,/>表示序列间的距离;
时间标记输出单元:将确定的关键教学点的时间码格式化为时间标记,输出到视频剪辑模块,以便于视频剪辑模块进行精准剪辑。
6.根据权利要求5所述的一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,所述视频剪辑模块包括时间码导向剪辑单元、视频重组单元以及播放速度调整单元;其中,
时间码导向剪辑单元:接收时间轴分析模块确定的关键教学点的时间标记,并根据该时间标记对原始视频进行剪辑,具体剪辑操作基于非线性视频编辑技术,允许从原始视频中精确地选择和提取特定的帧序列,剪辑过程表示为:
,其中,/>表示剪辑后的视频序列,/>表示在时间t的帧,/>表示所有关键时间点的集合;
视频重组单元:对剪辑后的视频帧序列进行重组,以形成连续且流畅的视频片段,具体使用视频融合技术,确保不同片段之间过渡自然,无明显的剪辑痕迹;
播放速度调整单元:根据教学内容的需要调整视频的播放速度,具体利用时间伸缩算法,来调整视频播放速度而不失真。
7.根据权利要求6所述的一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,所述分层交互集成模块包括字幕生成单元、语音输出控制单元、动态注释整合单元、用户交互响应单元以及互动数据记录单元;其中,
交互式字幕生成单元:接收字幕识别处理模块的文本数据流,并结合视频剪辑模块的输出,使用文本叠加技术,将字幕文本以交互式图层的形式覆盖在视频帧上,或隐藏原有视频中的嵌入式硬字幕,用户播放视频时可选择隐藏或显示字幕,该交互式图层允许用户点击字幕中的特定词汇或短语,触发相关的动作或显示附加信息;
语音输出控制单元,通过基于卷积神经网络CNN的方法,来训练神经网络模型来深度学习音频信号的特征,并根据该特征将背景声音和人物语音分离出来,该语音输出控制单元还通过大量的训练数据提高分离效果,允许学生能选择进行配音练习;
动态注释整合单元:根据视频内容和字幕文本创建动态注释,该单元具体使用数据绑定技术,将注释内容与视频中的特定时间点或元素关联起来,具体当视频展示某一关键概念时,注释将会自动显示解释或补充信息;
用户交互响应单元:使用事件监听技术来处理用户与交互式字幕和注释的互动,以响应用户的点击或选择操作,并根据操作提供反馈包括显示详细信息、播放相关视频片段或跳转至相关教学材料;
互动数据记录单元:记录用户与交互式元素的互动数据,包括点击频率、停留时间和用户选择路径。
8.根据权利要求7所述的一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,所述个性化内容生成模块包括用户反馈分析单元、内容难度调整单元以及视频个性化剪辑单元;其中,
用户反馈分析单元:用于收集并分析用户在观看视频过程中的反馈和互动数据,包括观看时间、重复观看的部分、暂停和跳过的片段,具体分析使用聚类分析来识别用户的学习偏好和难点,该聚类分析将通过K-均值算法实现数据挖掘,具体挖掘公式为:,其中,/>是簇/>的中心点,/>是簇/>中的数据点集合;
内容难度调整单元:使用自适应学习算法根据用户的学习反馈动态调整视频内容的难度和深度,具体算法采用基于用户学习进度的难度调整模型,具体算法公式表示为:其中,/>表示新的难度级别,/>是当前难度级别,/>是基于用户学习效果的调整系数,/>是用户的学习效果评分,/>是预定的学习效果阈值;
视频个性化剪辑单元:根据用户的学习行为和理解程度,对视频进行个性化剪辑,采用基于用户反馈的剪辑决策模型,具体公式表示为:
,其中,/>是剪辑后的视频序列,/>表示视频的第/>个片段,/>是用户对第/>个片段的兴趣权重,n是视频片段的总数。
9.根据权利要求8所述的一种基于时间轴微调的国际中文教学视听课件编辑系统,其特征在于,所述课件整合生成模块具体包括多格式视频编码单元、视频质量优化单元、视频容器封装单元以及跨平台兼容性测试单元;其中,
多格式视频编码单元:接收来自系统所有模块的视频数据,并将其编码为多种格式,以确保兼容性,具体采用H.264、VP9和HEVC的编码标准,使视频能够被广泛的设备和平台支持;
视频质量优化单元:在编码过程中对视频进行质量优化,包括分辨率调整、比特率控制和压缩噪声减少;
视频容器封装单元:将编码后的视频数据封装到不同的视频容器格式中,视频容器格式包括MP4、WebM或MKV;
跨平台兼容性测试单元:对封装后的视频文件进行兼容性测试,确保视频文件能够在不同操作系统、浏览器和设备上正常播放,兼容性测试包括在Windows、macOS、iOS和Android平台上进行播放测试。
CN202410078612.6A 2024-01-19 2024-01-19 一种基于时间轴微调的国际中文教学视听课件编辑系统 Active CN117596433B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410078612.6A CN117596433B (zh) 2024-01-19 2024-01-19 一种基于时间轴微调的国际中文教学视听课件编辑系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410078612.6A CN117596433B (zh) 2024-01-19 2024-01-19 一种基于时间轴微调的国际中文教学视听课件编辑系统

Publications (2)

Publication Number Publication Date
CN117596433A true CN117596433A (zh) 2024-02-23
CN117596433B CN117596433B (zh) 2024-04-05

Family

ID=89922418

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410078612.6A Active CN117596433B (zh) 2024-01-19 2024-01-19 一种基于时间轴微调的国际中文教学视听课件编辑系统

Country Status (1)

Country Link
CN (1) CN117596433B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117786134A (zh) * 2024-02-27 2024-03-29 自然语义(青岛)科技有限公司 中文语言教学视听平台多模态语料库及智能多维检索系统

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110306026A1 (en) * 2010-06-14 2011-12-15 Gordon Scott Scholler System for making and viewing audio-visual instructional content
CN107633719A (zh) * 2017-09-15 2018-01-26 张占龙 基于多语种人机交互的拟人形象人工智能教学系统和方法
US20180366013A1 (en) * 2014-08-28 2018-12-20 Ideaphora India Private Limited System and method for providing an interactive visual learning environment for creation, presentation, sharing, organizing and analysis of knowledge on subject matter
WO2019019406A1 (zh) * 2017-07-28 2019-01-31 深圳市鹰硕技术有限公司 一种用于更新教学录播数据的装置
JP2019160071A (ja) * 2018-03-15 2019-09-19 Jcc株式会社 要約作成システム、及び要約作成方法
CN111768664A (zh) * 2020-06-15 2020-10-13 镇江蓝图信息科技有限公司 一种基于互联网的远程视频教学系统及其使用方法
CN115278272A (zh) * 2022-05-18 2022-11-01 江苏农林职业技术学院 一种教育实践在线指导系统及方法
CN116484052A (zh) * 2023-06-26 2023-07-25 广州宏途数字科技有限公司 一种基于大数据的教育资源共享系统
CN116628510A (zh) * 2023-07-25 2023-08-22 自然语义(青岛)科技有限公司 一种自训练可迭代的人工智能模型训练方法
CN117055724A (zh) * 2023-05-08 2023-11-14 华中师范大学 虚拟教学场景中生成式教学资源系统及其工作方法
US20230368690A1 (en) * 2022-05-16 2023-11-16 Gemiini Educational Systems, Inc. Mobile application for generating and viewing video clips in different languages
CN117252259A (zh) * 2023-08-04 2023-12-19 上海智芝全智能科技有限公司 基于深度学习的自然语言理解方法及ai助教系统
CN117333339A (zh) * 2023-11-03 2024-01-02 云南敏圣科技有限公司 一种互联网在线课程智能化编辑的创建方法
CN117376502A (zh) * 2023-12-07 2024-01-09 翔飞(天津)智能科技有限公司 一种基于ai技术的视频制作系统

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110306026A1 (en) * 2010-06-14 2011-12-15 Gordon Scott Scholler System for making and viewing audio-visual instructional content
US20180366013A1 (en) * 2014-08-28 2018-12-20 Ideaphora India Private Limited System and method for providing an interactive visual learning environment for creation, presentation, sharing, organizing and analysis of knowledge on subject matter
WO2019019406A1 (zh) * 2017-07-28 2019-01-31 深圳市鹰硕技术有限公司 一种用于更新教学录播数据的装置
CN107633719A (zh) * 2017-09-15 2018-01-26 张占龙 基于多语种人机交互的拟人形象人工智能教学系统和方法
JP2019160071A (ja) * 2018-03-15 2019-09-19 Jcc株式会社 要約作成システム、及び要約作成方法
CN111768664A (zh) * 2020-06-15 2020-10-13 镇江蓝图信息科技有限公司 一种基于互联网的远程视频教学系统及其使用方法
US20230368690A1 (en) * 2022-05-16 2023-11-16 Gemiini Educational Systems, Inc. Mobile application for generating and viewing video clips in different languages
CN115278272A (zh) * 2022-05-18 2022-11-01 江苏农林职业技术学院 一种教育实践在线指导系统及方法
CN117055724A (zh) * 2023-05-08 2023-11-14 华中师范大学 虚拟教学场景中生成式教学资源系统及其工作方法
CN116484052A (zh) * 2023-06-26 2023-07-25 广州宏途数字科技有限公司 一种基于大数据的教育资源共享系统
CN116628510A (zh) * 2023-07-25 2023-08-22 自然语义(青岛)科技有限公司 一种自训练可迭代的人工智能模型训练方法
CN117252259A (zh) * 2023-08-04 2023-12-19 上海智芝全智能科技有限公司 基于深度学习的自然语言理解方法及ai助教系统
CN117333339A (zh) * 2023-11-03 2024-01-02 云南敏圣科技有限公司 一种互联网在线课程智能化编辑的创建方法
CN117376502A (zh) * 2023-12-07 2024-01-09 翔飞(天津)智能科技有限公司 一种基于ai技术的视频制作系统

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
SHODA VERA PAOLA: "Let’s play videos in literacy practice: From let’s play to let’s learn", E-LEARNING AND DIGITAL MEDIA, 1 September 2022 (2022-09-01) *
景琪;: "多媒体课件制作中视频音频的采集与编辑研究", 无线互联科技, no. 07, 10 April 2020 (2020-04-10) *
李贵炎;: "教学信息化背景下高职网络课程教学平台功能设计研究", 现代职业教育, no. 28, 8 October 2016 (2016-10-08) *
林喆: "Camtasia交互式微课的设计与录制—-以茶文化课程为例", 大学教育, 1 January 2020 (2020-01-01) *
肖勇;冯玉芬;: "远程教育中视频同步字幕的批量制作", 福建电脑, no. 02, 1 February 2008 (2008-02-01) *
郑红梅;张胜;袁志山;陆勤强;: "《数控机床》视频教学课件的研究开发", 现代计算机(专业版), no. 08, 25 August 2010 (2010-08-25) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117786134A (zh) * 2024-02-27 2024-03-29 自然语义(青岛)科技有限公司 中文语言教学视听平台多模态语料库及智能多维检索系统
CN117786134B (zh) * 2024-02-27 2024-05-10 自然语义(青岛)科技有限公司 中文语言教学视听平台多模态语料库及智能多维检索系统

Also Published As

Publication number Publication date
CN117596433B (zh) 2024-04-05

Similar Documents

Publication Publication Date Title
CN105245917B (zh) 一种多媒体语音字幕生成的系统和方法
CN117596433B (zh) 一种基于时间轴微调的国际中文教学视听课件编辑系统
EP1425736B1 (en) Method for processing audiovisual data using speech recognition
CN111538851B (zh) 自动生成演示视频的方法、系统、设备及存储介质
US20070011012A1 (en) Method, system, and apparatus for facilitating captioning of multi-media content
CN111212317A (zh) 一种视频播放的跳转导航方法
US20180226101A1 (en) Methods and systems for interactive multimedia creation
KR20150057591A (ko) 동영상파일에 대한 자막데이터 생성방법 및 장치
Federico et al. An automatic caption alignment mechanism for off-the-shelf speech recognition technologies
US20110243447A1 (en) Method and apparatus for synthesizing speech
KR102124828B1 (ko) 전자문서의 이미지 자동변환을 통한 강의영상 컨텐츠 제작시스템
CN112714348A (zh) 智能音视频同步方法
KR101066651B1 (ko) 자막정보가 포함된 디지털 동영상으로 부터 추출된 언어학습용 데이터를 이용한 언어학습방법
KR101618777B1 (ko) 파일 업로드 후 텍스트를 추출하여 영상 또는 음성간 동기화시키는 서버 및 그 방법
US11537781B1 (en) System and method to support synchronization, closed captioning and highlight within a text document or a media file
CN112151048B (zh) 音视图数据生成以及处理的方法
CN114173191A (zh) 一种基于人工智能的多语言答疑方法和系统
KR20110110382A (ko) 언어 학습을 위해 멀티미디어 자막으로 음성 인식 시스템을 사용하는 방법
JP3816901B2 (ja) ストリームデータの編集方法と編集システム及びプログラム
KR20150055921A (ko) 동영상 재생 제어 방법 및 장치
KR101462249B1 (ko) 비디오 컨텐츠의 시청각 정보 출력 오류를 검출하는 장치 및 방법
KR20140076182A (ko) 멀티미디어 파일의 자막/가사에 대한 특정문구 삽입/판독법을 통한 해당 학습대상 추출 학습장치
US11770590B1 (en) Providing subtitle for video content in spoken language
EP4345814A1 (en) Video-generation system
CN113490058A (zh) 一种应用于影视后期的智能字幕匹配系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant