CN116320534A - 视频制作方法及装置 - Google Patents
视频制作方法及装置 Download PDFInfo
- Publication number
- CN116320534A CN116320534A CN202310296002.9A CN202310296002A CN116320534A CN 116320534 A CN116320534 A CN 116320534A CN 202310296002 A CN202310296002 A CN 202310296002A CN 116320534 A CN116320534 A CN 116320534A
- Authority
- CN
- China
- Prior art keywords
- video
- point
- frame rate
- action
- avatar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 49
- 230000009471 action Effects 0.000 claims abstract description 176
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 100
- 230000033001 locomotion Effects 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims description 52
- 230000000694 effects Effects 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 230000001502 supplementing effect Effects 0.000 claims description 9
- 230000008676 import Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 44
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本说明书提供一种视频制作方法及装置,其中视频制作方法包括:获取动捕数据和动作视频,并对动作视频进行识别得到骨骼点数据;根据动捕数据生成虚拟形象视频,以及将骨骼点数据添加至动作视频中得到骨骼点视频;将虚拟形象视频和骨骼点视频导入至编辑器;通过编辑器对虚拟形象视频和骨骼点视频进行融合,得到包含判定信息的目标视频;其中,判定信息与骨骼点数据相对应。
Description
技术领域
本说明书涉及视频处理技术领域,特别涉及一种视频制作方法。本说明书同时涉及一种视频制作装置,一种计算设备,以及一种计算机可读存储介质。
背景技术
健身运动是一项通过徒手或利用各种器械,运用特定的动作方式和方法进行锻炼,以发达肌肉、增长体力、改善形体和陶冶情操为目的的运动项目。健身运动简单易行、适当运动,能有效地增强人们的体质,增进人们的健康,发达全身肌力,增强力量,提高生产劳动效率;还能改善人们的体型、体态、陶冶人们的美好情操,所以深受人民大众的喜爱。
随着互联网的发展,足不出户进行健身运动也变得可行,但是对于动作的标准也逐渐变低,有可能达不到锻炼健身的目的,而现有技术中,大多数供用户参考的锻炼视频,都是由人为参与制作,需要消耗大量的人力资源,且效率低下,因此亟需一种有效的方案以解决上述问题。
发明内容
有鉴于此,本说明书实施例提供了一种视频制作方法。本说明书同时涉及一种视频制作装置,一种计算设备,以及一种计算机可读存储介质,以解决现有技术中存在的技术缺陷。
根据本说明书实施例的第一方面,提供了一种视频制作方法,包括:
获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据;
根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频;
将所述虚拟形象视频和所述骨骼点视频导入至编辑器;
通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。
根据本说明书实施例的第二方面,提供了一种视频制作装置,包括:
数据获取模块,被配置为获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据;
视频生成模块,被配置为根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频;
导入模块,被配置为将所述虚拟形象视频和所述骨骼点视频导入至编辑器;
视频处理模块,被配置为通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。
根据本说明书实施例的第三方面,提供了一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令:
根据本说明书实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现所述视频制作方法的步骤。
本说明书提供一种视频制作方法及装置,其中所述视频制作方法包括:获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据;根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频;将所述虚拟形象视频和所述骨骼点视频导入至编辑器;通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。通过获取动捕数据和动作视频,根据动捕数据生成虚拟形象视频,并根据骨骼点数据生成骨骼点视频,由于对虚拟形象视频和骨骼点视频进行融合,从而可以得到包含判定信息的目标视频,实现不需要人为参与的前提下,自动完成包含判定信息的视频创建,以提高视频创建效率,实现在下游业务中可以使用目标视频达到辅助用户学习标准动作的目的。
附图说明
图1是本说明书一实施例提供的一种视频制作方法的示意图;
图2-1是本说明书一实施例提供的一种视频制作方法的流程图;
图2-2是本说明书一实施例提供的一种视频制作方法的录制示意图;
图3是本说明书一实施例提供的一种视频制作方法的编辑器示意图;
图4是本说明书一实施例提供的一种应用于服务器的视频制作方法的处理流程图;
图5是本说明书一实施例提供的一种视频制作装置的结构示意图;
图6是本说明书一实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本说明书。但是本说明书能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本说明书内涵的情况下做类似推广,因此本说明书不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本说明书一个或多个实施例涉及的名词术语进行解释。
图像帧:是组成视频的最小单位。
帧率(Framerate):是以帧称为单位的位图图像连续出现在显示器上的频率(速率)。
在本说明书中,提供了一种视频制作方法,本说明书同时涉及一种视频制作装置,一种计算设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
参见图1,图1是本说明书一实施例提供的一种视频制作方法的示意图,本说明书实施例提供了一种视频制作方法,包括:获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据,根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频,将所述虚拟形象视频和所述骨骼点视频导入至编辑器,通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频。
本说明书实施例通过获取动捕数据和动作视频,根据动捕数据生成虚拟形象视频,并根据骨骼点数据生成骨骼点视频,由于对虚拟形象视频和骨骼点视频进行融合,从而可以得到包含判定信息的目标视频。
图2-1示出了根据本说明书一实施例提供的一种视频制作方法的流程图,具体包括以下步骤:
步骤S102,获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据。
其中,动捕数据即动作捕捉数据,动作捕捉是运动物体的关键部位设置跟踪器,跟踪器收集到的数据可以为动作捕捉数据;动作视频可以为包含待展示的动作的视频,例如,包含舞蹈动作的视频、包含武术动作的视频等;对所述动作视频进行识别可以理解为使用神经网络等方法对动作视频进行识别;骨骼点数据可以为人体的骨骼关键点在视频中的位置、深度等数据。
在实际应用中,对于健身动作的录制,舞蹈人需要穿着动捕服,在动捕房中进行舞蹈或健身动作,其中,动捕房的四周可以全部是绿幕。需要从穿着动捕服的舞蹈人获取动捕数据,并且在舞蹈人的前方还配置有摄像头,该摄像头用于录制舞蹈人的动作视频,后续需要对动作视频进行分析识别,以获取骨骼点数据。其中,本说明书实施例不对摄像头的分辨率进行限制,例如,摄像头的分辨率可以为640×480、1920×1080等。
例如,通过动捕设备实时获取动捕房中的舞蹈人的动捕数据,并获得摄像头拍摄的舞蹈人的动作视频,通过对动作视频进行分析,得到舞蹈人的骨骼点数据。
需要说明的是,在动捕房中进行动作录制的过程中,还可以加入音乐。例如,在录制现场包括三个模块,分别是动捕设备、摄像头和音乐设备。动捕设备开始录制是通过一个开关进行的,在开始前舞蹈人的动作定帧静止,相应地,摄像头开始录制也是通过一个开关进行的,在开始前舞蹈人的动作定帧静止。音乐有一个开关,在开始录制前不播放音乐。在准备开始录制的情况下,需要先同时开始动捕设备、摄像头的录制,并且让舞蹈人保持定帧静止,一段时间后(如2秒)后开始通过音乐设备播放歌曲,同时舞蹈人开始进行跳舞,其中,一段时间是留给后续学习者进入视频动作播放时“3、2、1、go”的准备时间。在录制歌曲完毕后,动捕设备、摄像头、音乐设备一起停止。
还需要说明的是,摄像头可以在舞蹈人正前方,录制正前方的动作视频,另外,参见图2-2,图2-2是本说明书一实施例提供的一种视频制作方法的录制示意图,舞蹈人204在动捕房202进行舞蹈动作,舞蹈人204的前方可以放置一个提示装置206(如屏幕或白板)提示舞蹈人204要进行什么舞蹈动作,舞蹈人204录制时嘴部可以跟随歌词开合,避免脸部无表情,可以给观看者更好的体验。录制完毕后,就可以获得动捕数据、摄像头拍摄的动作视频、对动作视频进行进一步分析识别可以获得骨骼点数据,动作视频以及骨骼点数据开启的时间点一致,并且结束的时间也一致。
具体地,可以通过机器学习算法对动作视频进行分析,得到舞蹈人的骨骼点数据。
在一种可能的实现方式中,所述对所述动作视频进行识别得到骨骼点数据包括:
获取所述动作视频的图像帧序列,根据人体骨骼关键点检测算法依次对所述图像帧序列中的图像帧进行识别,得到每一图像帧的骨骼点数据。
其中,图像帧序列可以为动作视频的所有图像帧组成的序列,例如,动作视频的帧率为每秒24帧,动作视频共10秒,则图像帧序列为240图像帧顺序组成的帧序列;人体骨骼关键点检测算法可以为基于机器学习的骨骼关键点检测算法,该算法可以使用本领域的常规技术手段,本说明书实施例不再进行赘述。
在实际应用中,对动作视频进行识别以得到骨骼点数据,则需要对动作视频中的每一帧图像进行分析识别,然后得到每一帧图像的骨骼点数据。
例如,动作视频的帧率为每秒24帧,动作视频共10秒,则图像帧序列为240图像帧顺序组成的帧序列,使用人体骨骼关键点检测算法对240图像帧进行骨骼点检测,可以或得对应的240组骨骼点数据。
本说明书实施例通过获取动捕数据以及动作视频,对动作视频进行识别得到骨骼点数据,便于后续根据骨骼点数据对动捕数据生成的视频进行标记。
步骤S104,根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频。
具体的,在上述获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据的基础上,可以根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频。
其中,虚拟形象视频可以是渲染生成的虚拟人物的视频,例如,数字人视频,动画视频等;骨骼点视频可以是包含显示骨骼点的动作视频,例如,动作视频中的人物视频上显示骨骼点,骨骼点可以包括头部,手部,膝盖,脚部等关键点处。
在实际应用中,可以根据动捕数据渲染出一个虚拟人物的视频,即,数字人视频,并根据骨骼点数据在动作视频中显示骨骼点,以生成是骨骼点视频。后续可以用数字人视频和虚拟人物视频进行比对进行判定点的设置。
例如,使用动捕数据在软件中生成数字人视频,再将得到的骨骼点数据对应的添加至动作视频中,以得到显示出骨骼点的骨骼点视频。
本说明书实施例通过通过根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频,便于将虚拟形象视频和骨骼点视频进行对照,提高判定点标记的准确性。
在一种可能的实现方式中,所述根据所述动捕数据生成虚拟形象视频,包括:
根据所述动捕数据生成初始形象视频;
接收针对所述初始形象视频的效果添加指令,并根据所述效果添加指令对所述初始形象视频进行更新,得到虚拟形象视频;
其中,所述虚拟形象视频中包含与所述效果添加指令对应的展示效果。
上述初始形象视频可以是没有增加特效的,直接根据动捕数据生成的数字人视频;效果添加指令可以是对初始形象视频添加特效的指令,例如,添加放大,缩小,晃动等特效;根据所述效果添加指令对所述初始形象视频进行更新,可以理解为对初始形象视频进行特效处理。
在实际应用中,虚拟形象视频制作期间的镜头和特效播放,可以根据歌曲和舞蹈动作进行修改和调试,例如高潮部分场景特效需要闪烁,镜头可能拉进或者位移。并且可以输出两套虚拟形象视频,这两套虚拟形象视频的摄像机角度一致、时间一致,其中一个视频是正常视频(带特效,带背景),另外一个视频可以为角色为白色,贴图场景为全黑色,并且无特效的视频,这种视频可以用做判定抠图。
例如,首先根据获得的动捕数据生成初始形象视频,然后获取对初始形象视频进行的效果添加指令,该效果添加指令中包括:在初始形象视频的第10秒添加晃动特效,在初始形象视频的第20秒添加放大特效,在初始形象视频的第21秒添加缩小特效。根据该效果添加指令对初始形象视频进行处理,最终可以得到虚拟形象视频。
需要说明的是,为了便于进行后续的判定点标记,还可以生成一个无特效的视频。这样对视频中的判定点进行标记时,可以提高效率。
综上,通过在初始形象视频中添加展示效果,可以使得虚拟形象视频观感更佳,以此创建的目标视频更具有个性化特点,以提高观看用户的体验。
在一种可能的实现方式中,所述将所述骨骼点数据添加至所述动作视频中得到骨骼点视频,包括:
提取每一图像帧的骨骼点数据中骨骼点的位置信息;
根据所述位置信息将对应的骨骼点标注在对应的图像帧中,在每一图像帧均标注完成的情况下,得到骨骼点视频。
其中,位置信息可以为骨骼点在图像中显示的坐标位置,例如,位置信息为(456,789);将对应的骨骼点标注在对应的图像帧中,可以理解为将骨骼点在对应的图像帧中进行标注,以使图像帧中显示出骨骼点。
在实际应用中,需要根据每一图像帧的骨骼点数据,在对应的图像帧中进行标注,以使可以在骨骼点视频显示出骨骼点。
例如,动作视频的帧率为每秒24帧,动作视频共10秒,则图像帧序列为240图像帧顺序组成的帧序列,使用人体骨骼关键点检测算法对240图像帧进行骨骼点检测,可以或得对应的240组骨骼点数据,根据240组骨骼点数据,在240图像帧中进行骨骼点的标注。
本说明书实施例通过提取每一图像帧的骨骼点数据中骨骼点的位置信息,根据所述位置信息将对应的骨骼点标注在对应的图像帧中,在每一图像帧均标注完成的情况下,得到骨骼点视频,以使骨骼点视频中的骨骼点为可视的,在此基础上进行目标视频的创建,可以有效的提高目标视频的质量。
步骤S106,将所述虚拟形象视频和所述骨骼点视频导入至编辑器。
具体的,在上述根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频的基础上,可以将所述虚拟形象视频和所述骨骼点视频导入至编辑器。
其中,编辑器可以为对虚拟形象视频和骨骼点视频进行编辑的容器,如,视频编辑软件。
在实际应用中,在得到虚拟形象视频和骨骼点视频后,可以将虚拟形象视频和骨骼点视频导入同一界面的编辑软件中,便于进行判定点的标记。判定点的标记可以理解为对照骨骼点视频,在虚拟形象视频中进行判定点的标记,判定点用于后续对跟着视频中做动作的人进行动作判断。
参见图3,图3是本说明书一实施例提供的一种视频制作方法的编辑器示意图,编辑器可以包括视频区域,在视频区域可以导入数字人视频302和骨骼点视频304,具体地,左边可以是数字人视频302,右边可以是骨骼点视频304,本说明书实施例不进行限定。数字人视频302和骨骼点视频304会同步跟随下方时间轴306拖动、播放而变动,视频下方有秒以及毫秒显示,此处毫秒显示或者秒显示可以相互换算,也就是说,可以进行时间单位的设置。
对于判定点314的标记,可以在数字人视频302上进行编辑,具体地,用鼠标可以在视频上点击,点击位置出现一个可以拖动的圆形图标,大小可以为20*20像素,点击并进行拖动图标后,有个区域可以编辑如下信息:id(标识):本判定点314在本谱面的id;位置信息:以(x,y)形式显示的位置信息,其中,(x,y)的单位可以为像素点;判定类型:在该区域进行哪种判定,如:碰触、停留、滑动等等。还可以设定其它参数:判定的特殊参数,需要等判定类型都做完再整合。例如判定点314显示大小,判定点314的停留时间、滑动速度等参数。还包括时间轴306区域:可以左右拖动时间轴306,同时改变数字人视频302和骨骼点视频304的显示画面,最小颗粒度为50毫秒或者按照帧也可以,本说明书实施例不进行限定。还可以显示帧率信息,如:24帧。
进一步地,可以导入歌曲,例如,想添加自定义的歌曲,可以点击导入歌曲,相应地,还包括音频时间轴308,并可以对歌曲进行剪辑。界面中还可以包括按钮区域:播放暂停按钮310,以及导出excel按钮312,其中,播放和暂停按钮310可以从当前时间轴306位置播放和暂停视频,导出excel按钮312可以把编辑完的判定点314按照时间顺序导出成excel表格,可以直观的显示出判定点314的顺序。
为了能准确的在虚拟形象视频中添加判定点,需要保证虚拟形象视频和骨骼点视频的帧率相同,具体实施方式如下所述。
所述将所述虚拟形象视频和所述骨骼点视频导入至编辑器之前,还包括:
对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配;
相应的,所述将所述虚拟形象视频和所述骨骼点视频导入至编辑器,包括:
将适配后的所述虚拟形象视频和所述骨骼点视频导入至编辑器。
其中,对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配,可以理解为使虚拟形象视频的帧率和骨骼点视频的帧率相同。
在实际应用中,为了能准确的在虚拟形象视频中添加判定点,需要保证虚拟形象视频和骨骼点视频的帧率相同,可以设定一个固定帧率对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配,也可以以骨骼点视频的帧率为基准。两种帧率适配方式,具体实现方式如下所述。
(1)在一种可能的实现方式中,所述对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配,包括:
在所述虚拟形象视频的帧率不为预设帧率的情况下,根据所述预设帧率对所述虚拟形象视频进行帧率处理;
在所述骨骼点视频的帧率不为预设帧率的情况下,根据所述预设帧率对所述骨骼点视频进行帧率处理。
其中,预设帧率可以理解为预先设定好的帧率,即,虚拟形象视频的帧率和骨骼点视频的帧率都要满足该帧率。
在所述虚拟形象视频的帧率不为预设帧率的情况下,无法实现准确的在虚拟形象视频中添加判定点,为了能准确的在虚拟形象视频中添加判定点,需要保证虚拟形象视频和骨骼点视频的帧率相同,所以可以将虚拟形象视频的帧率和骨骼点视频的帧率调整至相同帧率。
例如,预设帧率为30帧,虚拟形象视频的帧率为24帧,则虚拟形象视频的帧率不满足预设帧率,对虚拟形象视频进行帧率处理,也就是将虚拟形象视频的帧率调整为30帧。骨骼点视频的帧率为60帧,则骨骼点视频的帧率不满足预设帧率,对骨骼点视频进行帧率处理,也就是将骨骼点视频的帧率调整为30帧。
综上,通过将虚拟形象视频和骨骼点视频分别进行帧率适配处理,可以在后续进行判定信息标注时,使得视频在更细粒度上的对齐,以此保证判定信息添加的准确性。
在一种可能的实现方式中,根据所述预设帧率对所述虚拟形象视频或所述骨骼点视频进行帧率处理,包括:
在所述虚拟形象视频的帧率小于所述预设帧率的情况下,对所述虚拟形象视频进行补帧处理,或在所述虚拟形象视频的帧率大于所述预设帧率的情况下,对所述虚拟形象视频进行抽帧处理;
在所述骨骼点视频的帧率小于所述预设帧率的情况下,对所述骨骼点视频进行补帧处理,在所述骨骼点视频的帧率大于所述预设帧率的情况下,对所述骨骼点视频进行抽帧处理。
其中,补帧处理可以理解为对视频进行增加图像帧,相应的,抽帧处理可以理解为对视频进行减少图像帧。
沿用上例,预设帧率为30帧,虚拟形象视频的帧率为24帧,则虚拟形象视频的帧率不满足预设帧率,对虚拟形象视频进行帧率处理,也就是将虚拟形象视频的帧率调整为30帧,具体地,可以平均地在虚拟形象视频中增加图像帧,如,每隔4个图像帧增加一个空帧。骨骼点视频的帧率为60帧,则骨骼点视频的帧率不满足预设帧率,对骨骼点视频进行帧率处理,也就是将骨骼点视频的帧率调整为30帧,具体地,可以平均地在骨骼点视频中去除图像帧,如,每隔1个图像帧去除一个图像帧。
(2)除上述帧率适配方法以外,还可以用虚拟形象视频的帧率去适配骨骼点视频的帧率,具体实施方式如下所述。
所述对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配,包括:
确定所述骨骼点视频的帧率,在所述虚拟形象视频的帧率和所述骨骼点视频的帧率不匹配的情况下,对所述虚拟形象视频进行帧率处理。
在实际应用中,因为行动视频是通过摄像头拍摄的,行动视频的帧率固定,从中提取的骨骼点数据的组数也是一定的,那么就可以用虚拟形象视频的帧率去适配骨骼点视频的帧率,也就是说,使虚拟形象视频的帧率和骨骼点视频的帧率相同。
在一种可能的实现方式中,对所述虚拟形象进行帧率处理,包括:
在所述虚拟形象视频的帧率小于所述骨骼点视频的帧率的情况下,对所述虚拟形象视频进行补帧处理;
在所述虚拟形象视频的帧率大于所述骨骼点视频的帧率的情况下,对所述虚拟形象视频进行抽帧处理。
沿用上例,虚拟形象视频的帧率为24帧,骨骼点视频的帧率为30帧,则虚拟形象视频的帧率不满足骨骼点视频的帧率,对虚拟形象视频进行帧率处理,也就是将虚拟形象视频的帧率调整为30帧,具体地,可以平均地在虚拟形象视频中增加图像帧,如,每隔4个图像帧增加一个空帧。
又例如,虚拟形象视频的帧率为40帧,骨骼点视频的帧率为30帧,则虚拟形象视频的帧率不满足预设帧率,对虚拟形象视频进行帧率处理,也就是将虚拟形象视频的帧率调整为30帧,具体地,可以平均地在虚拟形象视频中去除图像帧,如,每隔3个图像帧去除一个图像帧。
本说明书实施例将所述虚拟形象视频和骨骼点视频导入至编辑器之前,还对视频的帧率进行调整,提高了虚拟形象视频和骨骼点视频进行融合的准确度。
步骤S108,通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。
具体的,在上述将所述虚拟形象视频和所述骨骼点视频导入至编辑器的基础上,可以通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频。
上述融合可以理解为相互对照;判定信息可以理解为判定点的信息,例如,id,位置信息,判定类型等。
在一种可能的实现方式中,所述通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频,包括:
接收视频进度调整指令,根据所述视频调整指令中携带的时间标识,确定所述虚拟形象视频和所述骨骼点视频的目标帧数;
根据所述目标帧数显示所述虚拟形象视频对应的图像帧,和所述骨骼点视频对应的图像帧。
其中,视频进度调整指令可以理解为对视频的进度条进行拖动所产生的指令;时间标识可以为视频的进度条时间的标识,例如,视频的第1000毫秒;目标帧数可以为要定位到的帧数,例如,第50帧。
例如,视频进度调整指令中的时间标识为2000毫秒,则确定第2000毫秒是第50帧,则显示虚拟形象视频的第50帧,以及显示骨骼点视频的第50帧。
本说明书实施例接收视频进度调整指令,根据所述视频调整指令中携带的时间标识,确定所述虚拟形象视频和所述骨骼点视频的目标帧数,以达到准确定将虚拟形象视频和骨骼点视频进行对应显示。
在一种可能的实现方式中,所述通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频,包括:
接收针对所述编辑器中的虚拟形象视频提交的判定点添加指令,根据所述判定点添加指令中携带的动作判定数据,以及所述虚拟形象视频生成包含判定信息的目标视频;
其中,所述动作判定数据包括所述骨骼点数据的中的骨骼点标识、动作类型以及动作判定阈值。
上述判定点添加指令可以为,对虚拟形象视频进行添加判定点的指令。
例如,接收视频进度调整指令中的时间标识为2000毫秒,则确定第2000毫秒是第50帧,则显示虚拟形象视频的第50帧,以及显示骨骼点视频的第50帧,接收针对虚拟形象视频的第50帧的判定点添加指令,即,生成一个圆形图标,大小可以为20*20像素,图标对应的动作判定数据包括:id(标识):本判定点在本图像帧的id,还可以包括对应的骨骼点标识;位置信息:以(x,y)形式显示的位置信息,其中,(x,y)的单位可以为像素点;判定类型(动作类型):在该区域进行哪种判定,如:碰触、停留、滑动等等。还可以设定其它参数:判定的特殊参数,需要等判定类型都做完再整合。例如判定点显示大小为50*50像素,判定点的停留时间为2秒等参数。
本说明书实施例接收针对所述编辑器中的虚拟形象视频提交的判定点添加指令,根据所述判定点添加指令中携带的动作判定数据,以及所述虚拟形象视频生成包含判定信息的目标视频,由于判定点是基于骨骼点视频得到的,所以判定信息准确度高。
在一种可能的实现方式中,所述根据判定点添加指令中携带的动作判定数据,以及所述虚拟形象视频生成包含判定信息的目标视频,包括:
根据所述动作判定数据确定所述虚拟形象视频中的待处理帧,以及所述待处理帧的判定点位置;
建立所述判定点位置与对应的骨骼点标识的对应关系,以及建立所述判定点位置与所述动作类型的对应关系;
根据所述动作判定阈值和所述判定点位置确定所述待处理帧的动作判定区域,并在所述虚拟形象视频中的所有待处理帧处理完成的情况下,生成包含判定信息的目标视频。
沿用上例,第50帧的动作判定数据包括:id(标识):本判定点在本图像帧的id,还可以包括对应的骨骼点标识;位置信息:以(x,y)形式显示的位置信息,其中,(x,y)的单位可以为像素点;判定类型(动作类型):在该区域进行哪种判定,如:碰触、停留、滑动等等。还可以设定其它参数:判定的特殊参数,需要等判定类型都做完再整合。例如判定点显示大小为50*50像素,判定点的停留时间为2秒等参数。建立id与对应的骨骼点标识的对应关系,建立id与对应的判定类型的对应关系,判定区域为50*50像素。依照上述方法依次对所有图像帧进行处理,最终得到包含判定信息的目标视频。
在得到包含判定信息的目标视频后,就可以使用目标视频对用户的视频进行判断,具体实施方式如下所述。
所述得到包含判定信息的目标视频之后,还包括:
向用户播放目标视频,其中,所述目标视频中包含动作判定区域;
采集关联所述目标视频的用户动作视频,其中,所述用户动作视频中的用户动作与所述目标视频中的标准动作相关联;
在确定所述目标视频播放至预设判定区间的情况下,在所述用户动作视频中确定所述动作判定区域对应的骨骼点采集区域;
根据所述预设判定区间和所述骨骼点采集区域,在所述用户动作视频中采集用户骨骼点数据;
基于所述动作判定区域关联的标准骨骼点数据,对所述用户骨骼点数据进行动作判定,并展示动作判定结果。
在实际应用中,通过在终端上向用户播放标准动作视频,其中,该标准动作视频中包含动作判定区域,从而后续能够让用户根据该标准动作视频的指示做出相应地动作,需要说明的是,本说明书提供的动作判定方法,可以通过与终端相关联的视频显示设备播放该标准动作视频。其中,与终端相关联的视频显示设备可以理解为终端上配置的视频显示设备,例如终端可以理解为手机、笔记本电脑等设备,该终端上配置的视频显示设备可以理解为手机上的显示屏、或者笔记本电脑上的显示屏等等。或者独立于终端之外,并与该终端之间存在通信连接的视频显示设备;例如终端可以理解为主机、服务器等设备,该终端上配置的视频显示设备可以理解为与主机之间通信连接的显示器、电视、投影仪等能够显示视频的设备、或者与服务器之间通信连接的显示器、电视、投影仪等能够显示视频的设备等等。
其中,终端可以理解为任意一种能够实现该动作判定方法的设备,例如,用户手机、电脑、服务器、主机等等,本说明书对此不作具体限制。该标准动作视频可以理解为展示某种标准动作的视频,而用户可以根据该标准动作视频中的标准动作的指导做出相应地动作。例如,在教学场景下,该标准动作视频可以为舞蹈训练视频、健身动作教学视频、商务礼仪培训视频等等。用户能够根据该视频进行各种技能学习;再例如,在游戏场景下,该标准动作视频可以为舞蹈动作视频、健身动作视频等等,用户能够模仿该视频中的标准动作进行游戏。
该动作判定区域可以理解为进行动作判定的区域,用户能够基于该动作判定区域可以了解到当前动作或接下来的动作中,需要重点关注的地方。在实际应用中,考虑到如果标准动作视频中仅展示有标准动作,那么在动作视频播放时,没有向用户提示标准动作中的关键部位的动作判定区域,会使得用户无法有针对性的进行学习或游戏,从而导致用户的学习效率较低,或者游戏体验较差。例如,在俯卧撑教学视频中,如果不对肩膀或手臂部位的动作进行重点突出,那么用户在跟着俯卧撑教学视频学习俯卧撑的过程中,无法快速的把握重点在于手臂或肩膀的动作,从而导致学习的效率较差。再例如,在舞蹈游戏视频中,如果不提示接下来的进行动作,那么用户在游戏过程中,可能无法跟上舞蹈的节奏,从而导致用户的游戏体验较差。
当在播放标准动作视频的过程中,本说明实施例能够同步采集与该标准动作视频相关联的用户动作视频,其中,用户动作视频中的用户动作与标准动作视频中的标准动作相关联。需要说明的是,该用户动作是用户根据该标准动作视频中的标准动作所做出的动作。并且,本说明书提供的动作判定方法能够通过与终端相关联的视频采集设备同步采集用户动作视频。其中,与终端相关联的视频采集设备可以理解为终端上配置的视频采集设备,例如终端可以理解为手机、笔记本电脑等设备,该终端上配置的视频采集设备可以理解为手机上的摄像头、或者笔记本电脑上的摄像头等等;或者独立于终端之外,并与该终端之间存在通信连接的视频采集设备。例如终端可以理解为主机、服务器等设备,该终端上配置的视频采集设备可以理解为与主机之间通信连接的摄像头、或者与服务器之间通信连接的摄像头等等。该通信连接包括无线连接以及有线连接。
当确定标准动作视频播放至预设判定区间的情况下,能够在用户动作视频中确定动作判定区域对应的骨骼点采集区域,并根据该骨骼点采集区域在用户动作视频中采集用户骨骼点数据。然后基于动作判定区域关联的标准骨骼点数据,对用户骨骼点数据进行动作判定,从而获得判定结果,并对该动作判定结果进行展示。
本说明书实施例通过确定标准动作视频播放至预设判定区间的情况下,根据该预设判定区间以及该标准动作视频中的动作判定区域,从用户动作视频中确定骨骼点采集区域;并基于动作判定区域关联的标准骨骼点数据,对骨骼点采集区域对应的用户骨骼点数据与进行动作判定,从而快速且准确的出用户的当前动作与标准动作之间的差异;并将该动作判定结果进行展示,便于后续用户能够基于该判定结果对自己的动作进行调整,进一步的提高该用户的技能学习或身体锻炼的效率。
本说明书提供一种视频制作方法及装置,其中所述视频制作方法包括:获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据;根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频;将所述虚拟形象视频和所述骨骼点视频导入至编辑器;通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。通过获取动捕数据和动作视频,根据动捕数据生成虚拟形象视频,并根据骨骼点数据生成骨骼点视频,由于对虚拟形象视频和骨骼点视频进行融合,从而可以得到包含判定信息的目标视频。
下述结合附图4,以本说明书提供的视频制作方法在服务器的应用为例,对所述视频制作方法进行进一步说明。其中,图4示出了本说明书一实施例提供的一种应用于服务器的视频制作方法的处理流程图,具体包括以下步骤:
步骤S402,获取动捕数据和动作视频。
例如,通过动捕设备实时获取动捕房中的舞蹈人的动捕数据,并获得摄像头拍摄的舞蹈人的动作视频,通过对动作视频进行分析,得到舞蹈人的骨骼点数据。
步骤S404,获取所述动作视频的图像帧序列,根据人体骨骼关键点检测算法依次对所述图像帧序列中的图像帧进行识别,得到每一图像帧的骨骼点数据。
例如,动作视频的帧率为每秒24帧,动作视频共10秒,则图像帧序列为240图像帧顺序组成的帧序列,使用人体骨骼关键点检测算法对240图像帧进行骨骼点检测,可以或得对应的240组骨骼点数据。
步骤S406,根据所述动捕数据生成初始形象视频;接收针对所述初始形象视频的效果添加指令,并根据所述效果添加指令对所述初始形象视频进行更新,得到虚拟形象视频。
例如,首先根据获得的动捕数据生成初始形象视频,然后获取对初始形象视频进行的效果添加指令,该效果添加指令中包括:在初始形象视频的第10秒添加晃动特效。
步骤S408,提取每一图像帧的骨骼点数据中骨骼点的位置信息;根据所述位置信息将对应的骨骼点标注在对应的图像帧中,在每一图像帧均标注完成的情况下,得到骨骼点视频。
例如,动作视频的帧率为每秒24帧,动作视频共10秒,则图像帧序列为240图像帧顺序组成的帧序列,使用人体骨骼关键点检测算法对240图像帧进行骨骼点检测,可以或得对应的240组骨骼点数据,根据240组骨骼点数据,在240图像帧中进行骨骼点的标注。
步骤S410,对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配,将适配后的所述虚拟形象视频和所述骨骼点视频导入至编辑器。
例如,预设帧率为30帧,虚拟形象视频的帧率为24帧,则虚拟形象视频的帧率不满足预设帧率,对虚拟形象视频进行帧率处理,也就是将虚拟形象视频的帧率调整为30帧。骨骼点视频的帧率为24帧,则骨骼点视频的帧率不满足预设帧率,对骨骼点视频进行帧率处理,也就是将骨骼点视频的帧率调整为30帧。
步骤S412,接收针对所述编辑器中的虚拟形象视频提交的判定点添加指令,根据所述判定点添加指令中携带的动作判定数据,以及所述虚拟形象视频生成包含判定信息的目标视频。
例如,接收视频进度调整指令中的时间标识为2000毫秒,则确定第2000毫秒是第50帧,则显示虚拟形象视频的第50帧,以及显示骨骼点视频的第50帧,接收针对虚拟形象视频的第50帧的判定点添加指令,即,生成一个圆形图标,大小可以为20*20像素,图标对应的动作判定数据包括:id(标识):本判定点在本图像帧的id,还可以包括对应的骨骼点标识;位置信息:以(x,y)形式显示的位置信息,其中,(x,y)的单位可以为像素点;判定类型(动作类型):在该区域进行哪种判定,如:碰触、停留、滑动等等。还可以设定其它参数:判定的特殊参数,需要等判定类型都做完再整合。例如判定点显示大小为50*50像素,判定点的停留时间为2秒等参数。
步骤S414,采集关联所述目标视频的用户动作视频,在所述用户动作视频中采集用户骨骼点数据,对所述用户骨骼点数据进行动作判定,并展示动作判定结果。
例如,采集关联所述目标视频的用户动作视频,在所述用户动作视频中采集用户骨骼点数据,该用户的骨骼点坐标均在以(x,y)为中心,50*50像素的范围内,则判定用户的动作为:标准。
本说明书实施例由于对虚拟形象视频和骨骼点视频进行融合,从而可以得到包含判定信息的目标视频,并且目标视频包含的判定信息是通过虚拟形象视频和骨骼点视频融合得到,提高了目标视频的判定信息的准确性。
与上述方法实施例相对应,本说明书还提供了视频制作装置实施例,图5示出了本说明书一实施例提供的一种视频制作装置的结构示意图。如图5所示,该装置包括:
数据获取模块502,被配置为获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据;
视频生成模块504,被配置为根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频;
导入模块506,被配置为将所述虚拟形象视频和所述骨骼点视频导入至编辑器;
视频处理模块508,被配置为通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。
在一种可能的实现方式中,数据获取模块502,还被配置为:
获取所述动作视频的图像帧序列,根据人体骨骼关键点检测算法依次对所述图像帧序列中的图像帧进行识别,得到每一图像帧的骨骼点数据。
在一种可能的实现方式中,视频生成模块504,还被配置为:
提取每一图像帧的骨骼点数据中骨骼点的位置信息;
根据所述位置信息将对应的骨骼点标注在对应的图像帧中,在每一图像帧均标注完成的情况下,得到骨骼点视频。
在一种可能的实现方式中,视频生成模块504,还被配置为:
根据所述动捕数据生成初始形象视频;
接收针对所述初始形象视频的效果添加指令,并根据所述效果添加指令对所述初始形象视频进行更新,得到虚拟形象视频;
其中,所述虚拟形象视频中包含与所述效果添加指令对应的展示效果。
在一种可能的实现方式中,视频处理模块508,还被配置为:
接收针对所述编辑器中的虚拟形象视频提交的判定点添加指令,根据所述判定点添加指令中携带的动作判定数据,以及所述虚拟形象视频生成包含判定信息的目标视频;
其中,所述动作判定数据包括所述骨骼点数据的中的骨骼点标识、动作类型以及动作判定阈值。
在一种可能的实现方式中,视频处理模块508,还被配置为:
根据所述动作判定数据确定所述虚拟形象视频中的待处理帧,以及所述待处理帧的判定点位置;
建立所述判定点位置与对应的骨骼点标识的对应关系,以及建立所述判定点位置与所述动作类型的对应关系;
根据所述动作判定阈值和所述判定点位置确定所述待处理帧的动作判定区域,并在所述虚拟形象视频中的所有待处理帧处理完成的情况下,生成包含判定信息的目标视频。
在一种可能的实现方式中,视频处理模块508,还被配置为:
对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配;
相应的,所述将所述虚拟形象视频和所述骨骼点视频导入至编辑器,包括:
将适配后的所述虚拟形象视频和所述骨骼点视频导入至编辑器。
在一种可能的实现方式中,视频处理模块508,还被配置为:
在所述虚拟形象视频的帧率不为预设帧率的情况下,根据所述预设帧率对所述虚拟形象视频进行帧率处理;
在所述骨骼点视频的帧率不为预设帧率的情况下,根据所述预设帧率对所述骨骼点视频进行帧率处理。
在一种可能的实现方式中,视频处理模块508,还被配置为:
在所述虚拟形象视频的帧率小于所述预设帧率的情况下,对所述虚拟形象视频进行补帧处理,或在所述虚拟形象视频的帧率大于所述预设帧率的情况下,对所述虚拟形象视频进行抽帧处理;
在所述骨骼点视频的帧率小于所述预设帧率的情况下,对所述骨骼点视频进行补帧处理,在所述骨骼点视频的帧率大于所述预设帧率的情况下,对所述骨骼点视频进行抽帧处理。
在一种可能的实现方式中,视频处理模块508,还被配置为:
确定所述骨骼点视频的帧率,在所述虚拟形象视频的帧率和所述骨骼点视频的帧率不匹配的情况下,对所述虚拟形象视频进行帧率处理。
在一种可能的实现方式中,视频处理模块508,还被配置为:
在所述虚拟形象视频的帧率小于所述骨骼点视频的帧率的情况下,对所述虚拟形象视频进行补帧处理;
在所述虚拟形象视频的帧率大于所述骨骼点视频的帧率的情况下,对所述虚拟形象视频进行抽帧处理。
在一种可能的实现方式中,视频处理模块508,还被配置为:
接收视频进度调整指令,根据所述视频调整指令中携带的时间标识,确定所述虚拟形象视频和所述骨骼点视频的目标帧数;
根据所述目标帧数显示所述虚拟形象视频对应的图像帧,和所述骨骼点视频对应的图像帧。
在一种可能的实现方式中,视频处理模块508,还被配置为:
向用户播放目标视频,其中,所述目标视频中包含动作判定区域;
采集关联所述目标视频的用户动作视频,其中,所述用户动作视频中的用户动作与所述目标视频中的标准动作相关联;
在确定所述目标视频播放至预设判定区间的情况下,在所述用户动作视频中确定所述动作判定区域对应的骨骼点采集区域;
根据所述预设判定区间和所述骨骼点采集区域,在所述用户动作视频中采集用户骨骼点数据;
基于所述动作判定区域关联的标准骨骼点数据,对所述用户骨骼点数据进行动作判定,并展示动作判定结果。
本说明书提供一种视频制作方法及装置,其中所述视频制作装置包括:数据获取模块,被配置为获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据;视频生成模块,被配置为根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频;导入模块,被配置为将所述虚拟形象视频和所述骨骼点视频导入至编辑器;视频处理模块,被配置为通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。通过获取动捕数据和动作视频,根据动捕数据生成虚拟形象视频,并根据骨骼点数据生成骨骼点视频,由于对虚拟形象视频和骨骼点视频进行融合,从而可以得到包含判定信息的目标视频。
上述为本实施例的一种视频制作装置的示意性方案。需要说明的是,该视频制作装置的技术方案与上述的视频制作方法的技术方案属于同一构思,视频制作装置的技术方案未详细描述的细节内容,均可以参见上述视频制作方法的技术方案的描述。
图6示出了根据本说明书一实施例提供的一种计算设备600的结构框图。该计算设备600的部件包括但不限于存储器610和处理器620。处理器620与存储器610通过总线630相连接,数据库650用于保存数据。
计算设备600还包括接入设备640,接入设备640使得计算设备600能够经由一个或多个网络660通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备640可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本说明书的一个实施例中,计算设备600的上述部件以及图6中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图6所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备600可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备600还可以是移动式或静止式的服务器。
其中,处理器620用于执行如下计算机可执行指令:该计算机可执行指令被处理器执行时实现上述视频制作方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的视频制作方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述视频制作方法的技术方案的描述。
本说明书一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时以用于:实现上述视频制作方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的视频制作方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述视频制作方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本说明书并不受所描述的动作顺序的限制,因为依据本说明书,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本说明书所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本说明书优选实施例只是用于帮助阐述本说明书。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本说明书的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本说明书。本说明书仅受权利要求书及其全部范围和等效物的限制。
Claims (16)
1.一种视频制作方法,其特征在于,包括:
获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据;
根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频;
将所述虚拟形象视频和所述骨骼点视频导入至编辑器;
通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。
2.根据权利要求1所述的方法,其特征在于,所述对所述动作视频进行识别得到骨骼点数据包括:
获取所述动作视频的图像帧序列,根据人体骨骼关键点检测算法依次对所述图像帧序列中的图像帧进行识别,得到每一图像帧的骨骼点数据。
3.根据权利要求2所述的方法,其特征在于,所述将所述骨骼点数据添加至所述动作视频中得到骨骼点视频,包括:
提取每一图像帧的骨骼点数据中骨骼点的位置信息;
根据所述位置信息将对应的骨骼点标注在对应的图像帧中,在每一图像帧均标注完成的情况下,得到骨骼点视频。
4.根据权利要求1所述的方法,其特征在于,所述根据所述动捕数据生成虚拟形象视频,包括:
根据所述动捕数据生成初始形象视频;
接收针对所述初始形象视频的效果添加指令,并根据所述效果添加指令对所述初始形象视频进行更新,得到虚拟形象视频;
其中,所述虚拟形象视频中包含与所述效果添加指令对应的展示效果。
5.根据权利要求1所述的方法,其特征在于,所述通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频,包括:
接收针对所述编辑器中的虚拟形象视频提交的判定点添加指令,根据所述判定点添加指令中携带的动作判定数据,以及所述虚拟形象视频生成包含判定信息的目标视频;
其中,所述动作判定数据包括所述骨骼点数据的中的骨骼点标识、动作类型以及动作判定阈值。
6.根据权利要求5所述的方法,其特征在于,所述根据判定点添加指令中携带的动作判定数据,以及所述虚拟形象视频生成包含判定信息的目标视频,包括:
根据所述动作判定数据确定所述虚拟形象视频中的待处理帧,以及所述待处理帧的判定点位置;
建立所述判定点位置与对应的骨骼点标识的对应关系,以及建立所述判定点位置与所述动作类型的对应关系;
根据所述动作判定阈值和所述判定点位置确定所述待处理帧的动作判定区域,并在所述虚拟形象视频中的所有待处理帧处理完成的情况下,生成包含判定信息的目标视频。
7.根据权利要求1所述的方法,其特征在于,所述将所述虚拟形象视频和所述骨骼点视频导入至编辑器之前,还包括:
对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配;
相应的,所述将所述虚拟形象视频和所述骨骼点视频导入至编辑器,包括:
将适配后的所述虚拟形象视频和所述骨骼点视频导入至编辑器。
8.根据权利要求7所述的方法,其特征在于,所述对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配,包括:
在所述虚拟形象视频的帧率不为预设帧率的情况下,根据所述预设帧率对所述虚拟形象视频进行帧率处理;
在所述骨骼点视频的帧率不为预设帧率的情况下,根据所述预设帧率对所述骨骼点视频进行帧率处理。
9.根据权利要求8所述的方法,其特征在于,根据所述预设帧率对所述虚拟形象视频或所述骨骼点视频进行帧率处理,包括:
在所述虚拟形象视频的帧率小于所述预设帧率的情况下,对所述虚拟形象视频进行补帧处理,或在所述虚拟形象视频的帧率大于所述预设帧率的情况下,对所述虚拟形象视频进行抽帧处理;
在所述骨骼点视频的帧率小于所述预设帧率的情况下,对所述骨骼点视频进行补帧处理,在所述骨骼点视频的帧率大于所述预设帧率的情况下,对所述骨骼点视频进行抽帧处理。
10.根据权利要求7所述的方法,其特征在于,所述对所述虚拟形象视频的帧率和所述骨骼点视频的帧率进行适配,包括:
确定所述骨骼点视频的帧率,在所述虚拟形象视频的帧率和所述骨骼点视频的帧率不匹配的情况下,对所述虚拟形象视频进行帧率处理。
11.根据权利要求10所述的方法,其特征在于,对所述虚拟形象进行帧率处理,包括:
在所述虚拟形象视频的帧率小于所述骨骼点视频的帧率的情况下,对所述虚拟形象视频进行补帧处理;
在所述虚拟形象视频的帧率大于所述骨骼点视频的帧率的情况下,对所述虚拟形象视频进行抽帧处理。
12.根据权利要求1所述的方法,其特征在于,所述通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频,包括:
接收视频进度调整指令,根据所述视频调整指令中携带的时间标识,确定所述虚拟形象视频和所述骨骼点视频的目标帧数;
根据所述目标帧数显示所述虚拟形象视频对应的图像帧,和所述骨骼点视频对应的图像帧。
13.根据权利要求1所述的方法,其特征在于,所述得到包含判定信息的目标视频之后,还包括:
向用户播放目标视频,其中,所述目标视频中包含动作判定区域;
采集关联所述目标视频的用户动作视频,其中,所述用户动作视频中的用户动作与所述目标视频中的标准动作相关联;
在确定所述目标视频播放至预设判定区间的情况下,在所述用户动作视频中确定所述动作判定区域对应的骨骼点采集区域;
根据所述预设判定区间和所述骨骼点采集区域,在所述用户动作视频中采集用户骨骼点数据;
基于所述动作判定区域关联的标准骨骼点数据,对所述用户骨骼点数据进行动作判定,并展示动作判定结果。
14.一种视频制作装置,其特征在于,包括:
数据获取模块,被配置为获取动捕数据和动作视频,并对所述动作视频进行识别得到骨骼点数据;
视频生成模块,被配置为根据所述动捕数据生成虚拟形象视频,以及将所述骨骼点数据添加至所述动作视频中得到骨骼点视频;
导入模块,被配置为将所述虚拟形象视频和所述骨骼点视频导入至编辑器;
视频处理模块,被配置为通过所述编辑器对所述虚拟形象视频和所述骨骼点视频进行融合,得到包含判定信息的目标视频;其中,所述判定信息与所述骨骼点数据相对应。
15.一种计算设备,其特征在于,包括存储器和处理器;所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,以实现权利要求1至13任意一项所述视频制作方法的步骤。
16.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1至13任意一项所述视频制作方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310296002.9A CN116320534A (zh) | 2023-03-23 | 2023-03-23 | 视频制作方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310296002.9A CN116320534A (zh) | 2023-03-23 | 2023-03-23 | 视频制作方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116320534A true CN116320534A (zh) | 2023-06-23 |
Family
ID=86779565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310296002.9A Pending CN116320534A (zh) | 2023-03-23 | 2023-03-23 | 视频制作方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116320534A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116980654A (zh) * | 2023-09-22 | 2023-10-31 | 北京小糖科技有限责任公司 | 基于视频教学的交互方法、装置、设备及存储介质 |
-
2023
- 2023-03-23 CN CN202310296002.9A patent/CN116320534A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116980654A (zh) * | 2023-09-22 | 2023-10-31 | 北京小糖科技有限责任公司 | 基于视频教学的交互方法、装置、设备及存储介质 |
CN116980654B (zh) * | 2023-09-22 | 2024-01-19 | 北京小糖科技有限责任公司 | 基于视频教学的交互方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560605B (zh) | 交互方法、装置、终端、服务器和存储介质 | |
KR101936692B1 (ko) | 댄스 키모션 자동생성을 이용한 댄스 트레이닝 장치 및 방법 | |
CN109815776B (zh) | 动作提示方法和装置、存储介质及电子装置 | |
CN104461006A (zh) | 一种基于自然用户界面的互联网智能镜 | |
TW201337815A (zh) | 電子試衣方法和電子試衣裝置 | |
CN110418205A (zh) | 健身教学方法、装置、设备、系统及存储介质 | |
WO2019175425A1 (en) | Use of a human pose estimation model for generating and/or refining a movement model | |
CN111617464B (zh) | 一种动作识别的跑步机健身方法 | |
CN108874114A (zh) | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 | |
CN109168062A (zh) | 视频播放的展示方法、装置、终端设备及存储介质 | |
CN116320534A (zh) | 视频制作方法及装置 | |
CN111080752A (zh) | 基于音频的动作序列生成方法、装置以及电子设备 | |
EP3786971A1 (en) | Advancement manager in a handheld user device | |
CN113487709A (zh) | 一种特效展示方法、装置、计算机设备以及存储介质 | |
CN109547806A (zh) | 一种ar替身直播方法 | |
JPWO2018135246A1 (ja) | 情報処理システム及び情報処理装置 | |
CN112190921A (zh) | 一种游戏交互方法及装置 | |
JP7078577B2 (ja) | 動作類似度評価装置、方法およびプログラム | |
CN112348942A (zh) | 一种健身交互方法和系统 | |
CN113051013A (zh) | 页面展示方法及装置 | |
WO2015058388A1 (zh) | 一种显示图像的方法和装置 | |
CN116328279A (zh) | 一种基于视觉人体姿势估计的实时辅助训练方法及设备 | |
JP2022552785A (ja) | 定量化された運動のフィードバックシステム | |
CN111985395A (zh) | 视频生成方法及装置 | |
CN113038148A (zh) | 商品动态演示方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |