CN110505405A - 基于体感技术的视频拍摄系统及方法 - Google Patents

基于体感技术的视频拍摄系统及方法 Download PDF

Info

Publication number
CN110505405A
CN110505405A CN201910782246.1A CN201910782246A CN110505405A CN 110505405 A CN110505405 A CN 110505405A CN 201910782246 A CN201910782246 A CN 201910782246A CN 110505405 A CN110505405 A CN 110505405A
Authority
CN
China
Prior art keywords
data
module
video
image data
operational order
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910782246.1A
Other languages
English (en)
Inventor
崔炜
王鑫
孙丽英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Yixue Education Technology Co Ltd
Original Assignee
Shanghai Yixue Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Yixue Education Technology Co Ltd filed Critical Shanghai Yixue Education Technology Co Ltd
Priority to CN201910782246.1A priority Critical patent/CN110505405A/zh
Publication of CN110505405A publication Critical patent/CN110505405A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于体感技术的视频拍摄系统及方法,所述系统包括图像数据采集模块、语音数据采集模块、图像数据转换模块、语音数据转换模块、动画数据调取模块、第一处理模块、第二处理模块和显示模块;所述图像数据采集模块,用于采集图像数据;所述语音数据采集模块,用于采集语音数据;所述图像数据转换模块,用于将图像数据转换为操作指令;所述语音数据转换模块,用于将语音数据转换为操作指令;所述动画数据调取模块,用于自预置数据库调取动画数据;所述第一处理模块,用于根据操作指令控制动画数据调取模块调取对应的动画数据;所述第二处理模块,用于将视频数据在显示模块进行显示。本发明能够降低视频拍摄难度,提高视频拍摄效率,提高拍摄出的视频质量。

Description

基于体感技术的视频拍摄系统及方法
技术领域
本发明属于人机交互技术领域,尤其涉及一种基于体感技术的视频拍摄系统及方法。
背景技术
近几年,随着人工智能的快速发展,人工智能教育模式越来越广泛地被社会所接受,人工智能教育可以突破时间、空间的限制,为学生提供个性化的学习方案,帮助学生全方面的提高能力和素养。而且在人工智能学习系统中,一般广泛使用成本较低、管理方便、可反复使用的录播视频,可以有效减少教师的重复性劳动。在录播视频中根据制作形式一般分为这四种:①无需教师出镜的录屏视频,即仅录制教师讲课音频和电脑操作画面;②无需教师出镜的全动画视频,即仅录制教师讲课音频并配合音频进行后期动画制作;③需要教师出镜的简单棚拍视频,即教师在摄影棚内使用电子大屏幕演示PPT进行录制;④需要教师出镜并需要后期增加动画特效的视频,即教师在摄影棚内使用绿幕进行录制,视频编辑制作人员在绿幕视频素材基础上进行动画特效加工。其中第④种视频形式,因形式新颖、视频内容生动、利于理解而广受欢迎,一般会称其为“精品课”视频,但其制作过程也是最复杂的,目前其制作过程一般分为三步:一是教研人员根据知识图谱设计视频拍摄制作脚本,包含讲解内容文案、出镜教师动作、动画特效形式等;二是出镜教师根据视频拍摄制作脚本进行视频录制,拍摄视频素材;三是视频编辑制作人员根据视频拍摄制作脚本剪辑制作视频,包括绿幕抠像处理、配合教师动作添加动画特效等。
为了使知识点讲解更加生动有趣,使教学视频更有吸引力,在“精品课”视频的拍摄制作脚本设计中,往往会将教师置于某种特殊的情境中,例如讲解英语对话时处于不同国家的标志性建筑物前,讲解语文文言文时处于古代等。进一步的,拍摄制作脚本设计时会使教师与动画特效产生一些交互,例如讲解数学圆柱知识时教师在身前手画出3D圆柱,并使圆柱翻转展示不同角度等。这些不同的情境和动画特效的展现效果都依赖于出镜教师拍摄视频素材的质量和视频编辑制作人员的后期制作能力和经验。但在摄影棚录制知识点教学视频时,由于不同出镜老师对视频拍摄制作脚本的理解程度不同,往往会因为出镜老师无法完全理解拍摄制作脚本设计的情境或者拍摄时动作不到位,而导致录制暂停或重录,这样就会浪费人力、时间,甚至影响出镜教师的状态,造成录制效率和质量低下。视频编辑制作人员在后期剪辑制作时,会花费大量时间对原始视频进行绿幕抠像处理,再配合教师动作制作动画特效,若出镜教师拍摄时动作不到位,视频编辑制作人员需要改变原来的视频拍摄制作脚本中对动画特效的设计,造成制作效率低下,甚至会影响教学视频的质量。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于体感技术的视频拍摄系统,其能够降低视频拍摄难度,提高视频拍摄效率,提高拍摄出的视频质量。
本发明还提供了一种基于体感技术的视频拍摄方法,用于保证上述拍摄系统实现降低视频拍摄难度,提高视频拍摄效率,提高拍摄出的视频质量的目的。
为解决上述技术问题,本发明第一方面公开了一种基于体感技术的视频拍摄系统,包括图像数据采集模块、语音数据采集模块、图像数据转换模块、语音数据转换模块、动画数据调取模块、第一处理模块、第二处理模块和显示模块;
所述图像数据采集模块,用于采集图像数据;
所述语音数据采集模块,用于采集语音数据;
所述图像数据转换模块,用于将图像数据转换为操作指令;
所述语音数据转换模块,用于将语音数据转换为操作指令;
所述动画数据调取模块,用于自预置数据库调取动画数据;
所述第一处理模块,用于根据操作指令控制动画数据调取模块调取对应的动画数据;
所述第二处理模块,用于将采集到的图像数据、语音数据、及调取的动画数据合成为视频数据在显示模块进行显示。
上述一种基于体感技术的视频拍摄系统,所述图像数据采集模块为3D传感器;
所述图像数据转换模块包括特征提取单元、匹配单元和获取单元;
所述特征提取单元,用于对所述图像数据中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
所述匹配单元,用于将所述特征参数与预存的特征参数进行匹配;
所述获取单元,用于当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。
上述一种基于体感技术的视频拍摄系统,所述图像数据采集模块为体感摄像机。
上述一种基于体感技术的视频拍摄系统,所述第二处理模块包括第一视频生成单元、第二视频生成单元和视频合成单元;
所述第一视频生成单元,用于将采集到的图像数据和语音数据生成为第一视频数据;
所述第二视频生成单元,用于将调取的动画数据生成为第二视频数据;
视频合成单元,用于将第一视频数据和第二视频数据合成为一条视频数据,并将视频数据发送至显示模块进行显示。
上述一种基于体感技术的视频拍摄系统,还包括存储模块,用于将第一视频数据存储至第一存储分区,将第二视频数据存储至第二存储分区。
本发明第二方面公开了一种基于体感技术的视频拍摄方法,包括以下步骤:
步骤一、采集被拍摄者的图像数据和语音数据;
步骤二、将采集到的图像数据转换为操作指令,将采集到的语音数据转换为操作指令;
步骤三、根据操作指令自预置数据库中调取对应的动画数据;
步骤四、将采集到的图像数据、语音数据、及调取的动画数据合成为视频数据在显示模块进行显示。
上述一种基于体感技术的视频拍摄方法,步骤二中将采集到的图像数据转换为操作指令包括:
步骤201、将所述图像数据中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
步骤202、将所述特征参数与预存的特征参数进行匹配;
步骤203、当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。
本发明与现有技术相比具有以下优点:本发明通过设置显示模块,在显示模块中显示图像数据、语音数据、及调取的动画数据合成的视频数据,能够使被拍摄者直观的看到自己在视频中所处的情景,使被拍摄者能够更加准确的执行表演。另外,通过从采集到的图像数据和语音数据得到操作指令,能够使被拍摄者调取自己想要的动画数据进行显示。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明视频拍摄系统的原理框图。
图2为本发明视频拍摄方法的流程图。
附图标记说明:
1—图像数据采集模块; 2—图像数据转换模块; 3—语音数据转换模块;
4—语音数据采集模块; 5—动画数据调取模块; 6—第一处理模块;
7—第二处理模块; 8—显示模块。
具体实施方式
实施例1
如图1所示,一种基于体感技术的视频拍摄系统,包括图像数据采集模块1、语音数据采集模块4、图像数据转换模块2、语音数据转换模块3、动画数据调取模块5、第一处理模块6、第二处理模块7和显示模块8。
本实施例中,所述图像数据采集模块1,用于采集图像数据;所述图像数据采集模块1为3D传感器。
本实施例中,所述语音数据采集模块4,用于采集语音数据;所述语音数据采集模块4为麦克风。
本实施例中,所述图像数据转换模块2,用于将图像数据转换为操作指令;所述图像数据转换模块2包括特征提取单元、匹配单元和获取单元。
本实施例中,所述特征提取单元,用于对所述图像数据中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹。
本实施例中,所述匹配单元,用于将所述特征参数与预存的特征参数进行匹配。
本实施例中,所述获取单元,用于当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。
本实施例中,所述语音数据转换模块3,用于将语音数据转换为操作指令;所述语音数据转换模块3通过语音识别技术将语音数据识别为文本数据,并将该文本数据与预存的指令标记文本进行匹配,当匹配度达到预定阈值时,获取与指令标记文本对应的指令,并将该指令作为操作指令。
本实施例中,所述动画数据调取模块5,用于自预置数据库调取动画数据。
本实施例中,所述第一处理模块6,用于根据操作指令控制动画数据调取模块5调取对应的动画数据。例如,一个操作指令为“调取知识点标题文字框”,第一处理模块6根据该操作指令查询出对应的动画数据存储路径,然后控制动画数据调取模块5按照该存储路径调取对应的动画数据。
本实施例中,所述第二处理模块7,用于将采集到的图像数据、语音数据、及调取的动画数据合成为视频数据在显示模块8进行显示。
本实施例中,所述第二处理模块7包括第一视频生成单元、第二视频生成单元和视频合成单元。
所述第一视频生成单元,用于将采集到的图像数据和语音数据生成为第一视频数据。
所述第二视频生成单元,用于将调取的动画数据生成为第二视频数据。
所述视频合成单元,用于将第一视频数据和第二视频数据合成为一条视频数据,并将视频数据发送至显示模块8进行显示。
本实施例中,所述显示模块8为显示屏。
本实施例中,还包括存储模块,用于将第一视频数据存储至第一存储分区,将第二视频数据存储至第二存储分区。将第一视频数据和第二视频数据分开存储,目的在于便于后期对第一视频数据和第二视频数据进行处理,使第一视频数据和第二视频数据合成后的视频内容更加和谐。
接下来以拍摄教学视频为应用场景对本发明视频拍摄系统进行说明。
所述显示模块8包括由前至后依次排布的前侧图像层、中间图像层和后侧图像层。
实际拍摄时,出镜教师站在绿幕前,面对显示屏和3D传感器,3D传感器通过色键算法将出镜教师影像中绿幕背景进行消除,将消除后的背景部分以阿尔法通道代替,得到背景为透明的出镜教师的图像数据,第一视频生成单元将该出镜教师的图像数据与麦克风采集到的出镜教师的语音数据合成为第一视频数据,并将该第一视频数据在显示屏的中间图像层显示。
显示屏的后侧图像层有预先设定的背景素材。例如在出镜教师在讲解正方体时,背景素材可以为一个蛋糕工厂的背景,在显示屏中显示出出镜教师站在蛋糕工厂中的影像。
根据操作指令调取的动画数据在前侧图像层、中间图像层和后侧图像层均有显示。例如,当出镜教师做出从身后抓取一个正方体的动作时,整个过程中,调取的动画数据开始在后侧图像层显示,随之在中间图像层显示,最后再前侧图像层显示,从而实现将一个正方体从出镜教师身后移动至身前的效果。
通过将前侧图像层、中间图像层和后侧图像层进行叠加,形成完整的视频数据。其中。所述第一视频生成单元,用于将采集到的出镜教师的图像数据和语音数据生成为第一视频数据。所述第二视频生成单元,用于将调取的动画数据生成为第二视频数据。所述视频合成单元,用于将第一视频数据和第二视频数据合成为一条视频数据,
在视频拍摄过程中,当出镜教师发出语音时,语音数据采集模块4采集该语音,所述语音数据转换模块3通过语音识别技术将语音数据识别为文本数据,并将该文本数据与预存的指令标记文本进行匹配,当匹配度达到预定阈值时,获取与指令标记文本对应的指令,并将该指令作为操作指令。例如,当出镜教师说到“同学你好,这节课我们来认识正方体”,假设预存的指令标记文本为“认识正方体”,此时匹配度达到预定阈值,假设对应的指令为“调取知识点标题文字框”,则第一处理模块6根据该操作指令查询出对应的动画数据存储路径,然后控制动画数据调取模块5按照该存储路径调取对应的动画数据。
同样的,当出镜教师做出某个动作时,图像数据采集模块1采集该整个动作过程的图像数据,所述图像数据转换模块2中的特征提取单元对所述图像数据中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹。所述匹配单元将所述特征参数与预存的特征参数进行匹配;所述获取单元,用于当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。例如,“出镜教师将手以特定的手势从一个位置移动到另一个位置时”,假设获取单元获取到的操作指令为“将正方体从第一位置移动到第二位置”,则第一处理模块6根据该操作指令查询出对应的动画数据存储路径,然后控制动画数据调取模块5按照该存储路径调取对应的动画数据。
实施例2
如图1所示,一种基于体感技术的视频拍摄系统,包括图像数据采集模块1、语音数据采集模块4、图像数据转换模块2、语音数据转换模块3、动画数据调取模块5、第一处理模块6、第二处理模块7和显示模块8。
本实施例中,所述图像数据采集模块1,用于采集图像数据;所述图像数据采集模块1为微软公司生产的Kinect体感摄影机。体感摄影机对拍摄到的图像中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹。体感摄影机将采集的图像信息和获取的特征参数合成为图像数据发送至图像数据转换模块2。
本实施例中,所述语音数据采集模块4,用于采集语音数据;所述语音数据采集模块4为麦克风。
本实施例中,所述图像数据转换模块2,用于将图像数据转换为操作指令;所述图像数据转换模块2包括匹配单元和获取单元。
本实施例中,所述匹配单元,用于将所述特征参数与预存的特征参数进行匹配。
本实施例中,所述获取单元,用于当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。
本实施例中,所述语音数据转换模块3,用于将语音数据转换为操作指令;所述语音数据转换模块3通过语音识别技术将语音数据识别为文本数据,并将该文本数据与预存的指令标记文本进行匹配,当匹配度达到预定阈值时,获取与指令标记文本对应的指令,并将该指令作为操作指令。
本实施例中,所述动画数据调取模块5,用于自预置数据库调取动画数据。
本实施例中,所述第一处理模块6,用于根据操作指令控制动画数据调取模块5调取对应的动画数据。例如,一个操作指令为“调取知识点标题文字框”,第一处理模块6根据该操作指令查询出对应的动画数据存储路径,然后控制动画数据调取模块5按照该存储路径调取对应的动画数据。
本实施例中,所述第二处理模块7,用于将采集到的图像数据、语音数据、及调取的动画数据合成为视频数据在显示模块8进行显示。
本实施例中,所述第二处理模块7包括第一视频生成单元、第二视频生成单元和视频合成单元。
所述第一视频生成单元,用于将采集到的图像数据和语音数据生成为第一视频数据。
所述第二视频生成单元,用于将调取的动画数据生成为第二视频数据。
所述视频合成单元,用于将第一视频数据和第二视频数据合成为一条视频数据,并将视频数据发送至显示模块8进行显示。
本实施例中,所述显示模块8为显示屏。
本实施例中,还包括存储模块,用于将第一视频数据存储至第一存储分区,将第二视频数据存储至第二存储分区。
接下来以拍摄教学视频为应用场景对本发明视频拍摄系统进行说明。
所述显示模块8包括由前至后依次排布的前侧图像层、中间图像层和后侧图像层。
实际拍摄时,出镜教师站在绿幕前,面对显示屏和体感摄像机,体感摄像机通过色键算法将出镜教师影像中绿幕背景进行消除,将消除后的背景部分以阿尔法通道代替,得到背景为透明的出镜教师的图像数据,第一视频生成单元将该出镜教师的图像数据与麦克风采集到的出镜教师的语音数据合成为第一视频数据,并将该第一视频数据在显示屏的中间图像层显示。
显示屏的后侧图像层有预先设定的背景素材。例如在出镜教师在讲解正方体时,背景素材可以为一个蛋糕工厂的背景,在显示屏中显示出出镜教师站在蛋糕工厂中的影像。
根据操作指令调取的动画数据在前侧图像层、中间图像层和后侧图像层均有显示。例如,当出镜教师做出从身后抓取一个正方体的动作时,整个过程中,调取的动画数据开始在后侧图像层显示,随之在中间图像层显示,最后再前侧图像层显示,从而实现将一个正方体从出镜教师身后移动至身前的效果。
通过将前侧图像层、中间图像层和后侧图像层进行叠加,形成完整的视频数据。其中。所述第一视频生成单元,用于将采集到的出镜教师的图像数据和语音数据生成为第一视频数据。所述第二视频生成单元,用于将调取的动画数据生成为第二视频数据。所述视频合成单元,用于将第一视频数据和第二视频数据合成为一条视频数据,
在视频拍摄过程中,当出镜教师发出语音时,语音数据采集模块4采集该语音,所述语音数据转换模块3通过语音识别技术将语音数据识别为文本数据,并将该文本数据与预存的指令标记文本进行匹配,当匹配度达到预定阈值时,获取与指令标记文本对应的指令,并将该指令作为操作指令。例如,当出镜教师说到“同学你好,这节课我们来认识正方体”,假设预存的指令标记文本为“认识正方体”,此时匹配度达到预定阈值,假设对应的指令为“调取知识点标题文字框”,则第一处理模块6根据该操作指令查询出对应的动画数据存储路径,然后控制动画数据调取模块5按照该存储路径调取对应的动画数据。
同样的,当出镜教师做出某个动作时,图像数据采集模块1采集该整个动作过程的图像数据,所述特征提取单元对所述图像数据中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹。所述匹配单元将所述特征参数与预存的特征参数进行匹配;所述获取单元,用于当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。例如,“出镜教师将手以特定的手势从一个位置移动到另一个位置时”,假设获取单元获取到的操作指令为“将正方体从第一位置移动到第二位置”,则第一处理模块6根据该操作指令查询出对应的动画数据存储路径,然后控制动画数据调取模块5按照该存储路径调取对应的动画数据。
实施例3
如图2所示,一种基于体感技术的视频拍摄方法,包括以下步骤:
步骤一、采集被拍摄者的图像数据和语音数据;
步骤二、将采集到的图像数据转换为操作指令,将采集到的语音数据转换为操作指令;
步骤三、根据操作指令自预置数据库中调取对应的动画数据;
步骤四、将采集到的图像数据、语音数据、及调取的动画数据合成为视频数据在显示模块8进行显示。
本实施例中,步骤二中将采集到的图像数据转换为操作指令包括:
步骤201、将所述图像数据中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
步骤202、将所述特征参数与预存的特征参数进行匹配;
步骤203、当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。

Claims (7)

1.一种基于体感技术的视频拍摄系统,其特征在于:包括图像数据采集模块、语音数据采集模块、图像数据转换模块、语音数据转换模块、动画数据调取模块、第一处理模块、第二处理模块和显示模块;
所述图像数据采集模块,用于采集图像数据;
所述语音数据采集模块,用于采集语音数据;
所述图像数据转换模块,用于将图像数据转换为操作指令;
所述语音数据转换模块,用于将语音数据转换为操作指令;
所述动画数据调取模块,用于自预置数据库调取动画数据;
所述第一处理模块,用于根据操作指令控制动画数据调取模块调取对应的动画数据;
所述第二处理模块,用于将采集到的图像数据、语音数据、及调取的动画数据合成为视频数据在显示模块进行显示。
2.按照权利要求1所述的一种基于体感技术的视频拍摄系统,其特征在于:所述图像数据采集模块为3D传感器;
所述图像数据转换模块包括特征提取单元、匹配单元和获取单元;
所述特征提取单元,用于对所述图像数据中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
所述匹配单元,用于将所述特征参数与预存的特征参数进行匹配;
所述获取单元,用于当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。
3.按照权利要求1所述的一种基于体感技术的视频拍摄系统,其特征在于:所述图像数据采集模块为体感摄像机。
4.按照权利要求1所述的一种基于体感技术的视频拍摄系统,其特征在于:所述第二处理模块包括第一视频生成单元、第二视频生成单元和视频合成单元;
所述第一视频生成单元,用于将采集到的图像数据和语音数据生成为第一视频数据;
所述第二视频生成单元,用于将调取的动画数据生成为第二视频数据;
视频合成单元,用于将第一视频数据和第二视频数据合成为一条视频数据,并将视频数据发送至显示模块进行显示。
5.按照权利要求4所述的一种基于体感技术的视频拍摄系统,其特征在于:还包括存储模块,用于将第一视频数据存储至第一存储分区,将第二视频数据存储至第二存储分区。
6.一种基于体感技术的视频拍摄方法,其特征在于:包括以下步骤:
步骤一、采集被拍摄者的图像数据和语音数据;
步骤二、将采集到的图像数据转换为操作指令,将采集到的语音数据转换为操作指令;
步骤三、根据操作指令自预置数据库中调取对应的动画数据;
步骤四、将采集到的图像数据、语音数据、及调取的动画数据合成为视频数据在显示模块进行显示。
7.按照权利要求6所述的一种基于体感技术的视频拍摄方法,其特征在于:步骤二中将采集到的图像数据转换为操作指令包括:
步骤201、将所述图像数据中的人体部位的三维立体图像进行特征提取获取特征参数;所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
步骤202、将所述特征参数与预存的特征参数进行匹配;
步骤203、当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,并将该指令作为操作指令。
CN201910782246.1A 2019-08-22 2019-08-22 基于体感技术的视频拍摄系统及方法 Pending CN110505405A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910782246.1A CN110505405A (zh) 2019-08-22 2019-08-22 基于体感技术的视频拍摄系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910782246.1A CN110505405A (zh) 2019-08-22 2019-08-22 基于体感技术的视频拍摄系统及方法

Publications (1)

Publication Number Publication Date
CN110505405A true CN110505405A (zh) 2019-11-26

Family

ID=68589142

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910782246.1A Pending CN110505405A (zh) 2019-08-22 2019-08-22 基于体感技术的视频拍摄系统及方法

Country Status (1)

Country Link
CN (1) CN110505405A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111601061A (zh) * 2020-06-01 2020-08-28 联想(北京)有限公司 一种视频录制信息处理方法及电子设备
CN113140138A (zh) * 2021-04-25 2021-07-20 新东方教育科技集团有限公司 互动教学方法、装置、存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103607556A (zh) * 2013-11-25 2014-02-26 广东威创视讯科技股份有限公司 视频会议系统及其实现方法
CN104519260A (zh) * 2013-09-28 2015-04-15 南京专创知识产权服务有限公司 一种基于体感的单人拍照方法
CN104881122A (zh) * 2015-05-29 2015-09-02 深圳奥比中光科技有限公司 一种体感交互系统激活方法、体感交互方法及系统
CN108614872A (zh) * 2018-04-20 2018-10-02 北京比特智学科技有限公司 课程内容展示方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104519260A (zh) * 2013-09-28 2015-04-15 南京专创知识产权服务有限公司 一种基于体感的单人拍照方法
CN103607556A (zh) * 2013-11-25 2014-02-26 广东威创视讯科技股份有限公司 视频会议系统及其实现方法
CN104881122A (zh) * 2015-05-29 2015-09-02 深圳奥比中光科技有限公司 一种体感交互系统激活方法、体感交互方法及系统
CN108614872A (zh) * 2018-04-20 2018-10-02 北京比特智学科技有限公司 课程内容展示方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111601061A (zh) * 2020-06-01 2020-08-28 联想(北京)有限公司 一种视频录制信息处理方法及电子设备
CN111601061B (zh) * 2020-06-01 2021-12-24 联想(北京)有限公司 一种视频录制信息处理方法及电子设备
CN113140138A (zh) * 2021-04-25 2021-07-20 新东方教育科技集团有限公司 互动教学方法、装置、存储介质及电子设备

Similar Documents

Publication Publication Date Title
WO2021043053A1 (zh) 一种基于人工智能的动画形象驱动方法和相关装置
CN103905809B (zh) 信息处理设备和记录介质
JP6019108B2 (ja) 文字に基づく映像生成
JP4310916B2 (ja) 映像表示装置
KR101381594B1 (ko) 가상현실을 이용한 교육 장치 및 방법
CN107798932A (zh) 一种基于ar技术的早教训练系统
US20140223279A1 (en) Data augmentation with real-time annotations
CN110110104B (zh) 一种自动生成虚拟三维空间内房屋讲解的方法及装置
CN106210703A (zh) Vr环境中特写镜头的运用及显示方法和系统
JP2014519082A5 (zh)
JP2006162692A (ja) 講義コンテンツ自動作成システム
CN106408480A (zh) 基于增强现实、语音识别的国学三维交互学习系统及方法
CN105447896A (zh) 一种幼儿动画创作系统
CN106723987A (zh) 智能讲台
CN115209180A (zh) 视频生成方法以及装置
CN112270768B (zh) 基于虚拟现实技术的古籍阅读方法、系统及其构建方法
WO2021012491A1 (zh) 多媒体信息展示方法、装置、计算机设备及存储介质
CN110505405A (zh) 基于体感技术的视频拍摄系统及方法
CN108961368A (zh) 三维动画环境中实时直播综艺节目的方法和系统
CN108881765A (zh) 轻量录播方法、装置及系统
CN203588489U (zh) 一种情景教学设备
CN113240781A (zh) 基于语音驱动及图像识别的影视动画制作方法、系统
Yi et al. Techniques application on cultural and artistic documentary production: A study of simon schama’s power of the art
CN113221840B (zh) 一种人像视频处理方法
KR102360919B1 (ko) 음성 더빙 기반의 진행자 영상 편집 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191126