CN110072055A - 基于人工智能的视频制作方法及系统 - Google Patents
基于人工智能的视频制作方法及系统 Download PDFInfo
- Publication number
- CN110072055A CN110072055A CN201910376970.4A CN201910376970A CN110072055A CN 110072055 A CN110072055 A CN 110072055A CN 201910376970 A CN201910376970 A CN 201910376970A CN 110072055 A CN110072055 A CN 110072055A
- Authority
- CN
- China
- Prior art keywords
- personage
- artificial intelligence
- video
- feature
- video flowing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims abstract description 38
- 239000012634 fragment Substances 0.000 claims abstract description 49
- 230000009471 action Effects 0.000 claims abstract description 14
- 238000004519 manufacturing process Methods 0.000 claims description 24
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 102000008297 Nuclear Matrix-Associated Proteins Human genes 0.000 description 2
- 108010035916 Nuclear Matrix-Associated Proteins Proteins 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000299 nuclear matrix Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种基于人工智能的视频制作方法及系统,该方法包括:获取相机输出的视频流;基于人工智能模型从所述视频流提取人物面部特征以及动作特征;基于所述人物面部特征对所述视频流进行裁剪,得到人物裁剪图;基于所述人物动作特征对所述人物裁剪图进行排序,得到拍摄片段图。通过本发明,节省了视频广播技术中设备资源和人力资源的投入。
Description
技术领域
本发明涉及视频制作领域,具体地,涉及一种基于人工智能的视频制作方法及系统。
背景技术
目前,常规的户外广播技术对文化和体育类重大事件进行视频制作通常需要使用大量设备资源和众多人力资源。比如单从视频角度来看,需要多个相机和多位摄影师在专用的图片以及视频制作区域进行视频剪辑,并且在拍摄过程中还需要导演及许多的工作人员参与其中。
针对不要求实况直播的情况,户外广播也很难做到事件全景覆盖。并且在户外广播技术进行视频制作剪辑的过程复杂,有时无法实时追踪人物并针对人物进行取景,得到全面的景色输出,导致用户的体验不佳。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提出了一种基于人工智能的视频制作方法及系统。
为实现本发明的目的而提供一种基于人工智能的视频制作方法,所述方法包括:
获取相机输出的视频流;
基于人工智能模型从所述视频流提取人物面部特征以及动作特征;
基于所述人物面部特征对所述视频流进行裁剪,得到人物裁剪图;
基于所述人物动作特征对所述人物裁剪图进行排序,得到拍摄片段图。
优选地,在所述基于所述人物动作特征对所述人物的裁剪图进行排序,得到拍摄片段图的步骤之后,还包括:
对所述拍摄片段图进行镜头选择。
优选地,以镜头指标要求对所述拍摄片段图进行镜头选择;
所述镜头指标要求包括:人物口型变化、人物镜头视角、场景切换要求。
优选地,所述人工智能模型为卷积神经网络模型。
优选地,所述人物动作特征包括:
人物的位置、面部朝向以及人物口型变化。
一种基于人工智能的视频制作系统,包括:相机以及中央处理器;
所述相机用于实时获取不同位置的图片,并对所述图片进行裁剪以及视频流转换,并将转换完成的视频流传输给所述中央处理器;
所述中央处理器用于获取所述视频流;基于人工智能模型从所述视频流提取人物面部特征以及动作特征;基于所述人物面部特征对所述视频流进行裁剪,得到人物裁剪图;基于所述人物动作特征对所述人物裁剪图进行排序,得到拍摄片段图。
优选地,所述中央处理器还用于对所述拍摄片段图进行镜头选择。
优选地,所述中央处理器基于镜头指标要求对所述拍摄片段图进行镜头选择;
所述镜头指标要求包括:人物口型变化、人物镜头视角、场景切换要求。
优选地,所述人物动作特征包括:
人物的位置、面部朝向以及人物口型变化。
优选地,还包括:显示器或/和存储器;
所述中央处理器在得到拍摄片段图后,向所述显示器输出所述拍摄片段图,或/和通过所述存储器存储所述拍摄片段图。
本发明具有以下有益效果:
本发明提供的基于人工智能的视频制作方法及系统,在获取到相机的视频流之后,基于人工智能模型提取视频流中人物面部特征以及动作特征;基于人物面部特征对视频流进行裁剪,得到人物裁剪图;基于动作特征对人物裁剪图进行排序,得到拍摄片段图,本发明实现了自动取景、片段排列的视频制作的自动化,节省了视频广播技术中设备资源和人力资源的投入。
附图说明
图1为本发明实施例提供的基于人工智能的视频制作方法的一种流程图;
图2为本发明实施例提供的基于人工智能的视频制作方法的另一种流程图;
图3为本发明实施例提供的基于人工智能的视频制作系统的一种结构示意图;
图4为本发明实施例提供的基于人工智能的视频制作系统的另一种结构示意图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图来对本发明提供的基于人工智能的视频制作方法及系统进行详细描述。
实施例一
如图1所示为本发明实施例提供的基于人工智能的视频制作方法的一种流程图,本实施例中,提供的基于人工智能的视频制作方法包括以下步骤:
步骤101:获取相机输出的视频流。
具体地,本发明中的相机可以是根据直播要求摆放不同位置的静态超高清相机,静态的宽镜头保证能被实时地以多种方式裁剪。此外相机会不断的导出视频流。
步骤102:基于人工智能模型从视频流提取人物面部特征以及动作特征。
具体地,人工智能模型包含面部检测和跟踪技术、面部特征点和姿态估计以及视觉说话者检测。基于人工智能模型从视频流提取多个特征,这样可以检测每一帧里面人物在什么位置、面部朝哪个方向、他们何时发言。
具体地,人工智能模块为卷积神经网络(CNN,Convolution-al Neural Network)模型,CNN模型是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元。CNN模型限制参数了个数并挖掘了局部结构。主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。局部感受视野,权值共享以及时间或空间亚采样这三种思想结合起来,获得了某种程度的位移、尺度、形变不变性。通过“卷积核”作为中介。同一个卷积核在所有图像内是共享的,图像通过卷积操作后仍然保留原先的位置关系。
进一步,CNN模型的输入V公式为:
V=conv2(W,X,”valid”)+b;
CNN模型的输出Y公式为:
上面的输入输出公式是对每一个卷积层而言的,每一个卷积层都有一个不同的权重矩阵W,并且W,X,Y是矩阵形式。对于最后一层全连接层,设为第L层,输出是向量形式的yL,期望输出是d,则有总误差公式:
E=12||d-yL||22;
conv2()是Matlab中卷积运算的函数,第三个参数valid指明卷积运算的类型,前面介绍的卷积方式就是valid型。W是卷积核矩阵,X,是输入矩阵,b是偏置,是激活函数,总误差公式中的d,y分别是期望输出和网络输出的向量。||x||2表示向量xx的2-范数,计算表达式为||x||2=(∑x2i)12。全连接层神经元的输入输出计算公式与BP网络(BackPropagation,多层前馈网络)完全相同。
步骤103:基于人物面部特征对视频流进行裁剪,得到人物裁剪图。
具体地,一般有广角裁剪、中间部分裁剪和闭合裁剪,每一个裁剪的部分一般是一个、两个或者三个候选人的人脸组合。裁剪下来的被组合成帧,目的就是想到得到足够多的包括面部的视角,得到人物裁剪图。
步骤104:基于人物动作特征对人物裁剪图进行排序,得到拍摄片段图。
具体地,人物动作特征包括:
人物的位置、面部朝向以及人物口型变化。
具体地,对人物裁剪图进行排序就是定义镜头何时切换的过程。通常保证说话人在镜头内是基本要求,一般镜头切换发生在人说话开始或者结束发言的时候。
本发明提供的基于人工智能的视频制作方法及系统,在获取到相机的视频流之后,基于人工智能模型提取视频流中人物面部特征以及动作特征;基于人物面部特征对视频流进行裁剪,得到人物裁剪图;基于动作特征对人物裁剪图进行排序,得到拍摄片段图,本发明实现了自动取景、片段排列的视频制作的自动化,节省了视频广播技术中设备资源和人力资源的投入。
实施例二
如图2所示为本发明实施例提供的基于人工智能的视频制作方法的另一种流程图,本实施例中,提供的基于人工智能的视频制作方法包括以下步骤:
步骤201:获取相机输出的视频流。
步骤202:基于人工智能模型从视频流提取人物面部特征以及动作特征。
步骤203:基于人物面部特征对视频流进行裁剪,得到人物裁剪图。
步骤204:基于人物动作特征对人物裁剪图进行排序,得到拍摄片段图。
步骤205:对拍摄片段图进行镜头选择。
具体地,本发明另一个实施例中,可以以镜头指标要求对拍摄片段图进行镜头选择;
镜头指标要求包括:人物口型变化、人物镜头视角、场景切换要求。
具体地,基于镜头指标进行镜头的选择,比如,当检测到有人发言时,通常会使用近距离镜头的剪裁,人物比较少,说话人可以获得更多的关注度,此外,如果没有检测到语音,基本会选择相对人数更多的镜头视角。同时也会选择最近没有切换过的镜头视角。我们有一些基本的需求指标比如要求说话人在镜头内,允许偶尔的将镜头切换至现场反应镜头,偶尔的切换为特定的镜头。
本发明实施例提供的基于人工智能的视频制作方法,在得到拍摄片段图之后,对拍摄片段片图进行镜头选择,可以便于优化拍摄片段图,得到镜头指标要求的拍摄片段图。
实施例三
针对上述基于人工智能的视频制作方法,本发明还提供了一种基于人工智能的视频制作系统,如图3所示为本发明实施例提供的基于人工智能的视频制作系统的一种结构示意图,本实施例中基于人工智能的视频制作系统包括:相机以及中央处理器。
相机用于实时获取不同位置的图片,并对图片进行裁剪以及视频流转换,并将转换完成的视频流传输给中央处理器。
中央处理器用于获取视频流;基于人工智能模型从视频流提取人物面部特征以及动作特征;基于人物面部特征对视频流进行裁剪,得到人物裁剪图;基于人物动作特征对人物裁剪图进行排序,得到拍摄片段图。
具体地,本发明中的相机可以是根据直播要求摆放不同位置的静态超高清相机,静态的宽镜头保证能被实时地以多种方式裁剪。此外相机会不断的导出视频流。
具体地,人工智能模型包含面部检测和跟踪技术、面部特征点和姿态估计以及视觉说话者检测。基于人工智能模型从视频流提取多个特征,这样可以检测每一帧里面人物在什么位置、面部朝哪个方向、他们何时发言。
具体地,人工智能模块为卷积神经网络(CNN,Convolution-al Neural Network)模型,CNN模型是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元。CNN模型限制参数了个数并挖掘了局部结构。主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。局部感受视野,权值共享以及时间或空间亚采样这三种思想结合起来,获得了某种程度的位移、尺度、形变不变性。通过“卷积核”作为中介。同一个卷积核在所有图像内是共享的,图像通过卷积操作后仍然保留原先的位置关系。
进一步,CNN模型的输入V公式为:
V=conv2(W,X,”valid”)+b;
CNN模型的输出Y公式为:
上面的输入输出公式是对每一个卷积层而言的,每一个卷积层都有一个不同的权重矩阵W,并且W,X,Y是矩阵形式。对于最后一层全连接层,设为第L层,输出是向量形式的yL,期望输出是d,则有总误差公式:
E=12||d-yL||22;
conv2()是Matlab中卷积运算的函数,第三个参数valid指明卷积运算的类型,前面介绍的卷积方式就是valid型。W是卷积核矩阵,X,是输入矩阵,b是偏置,是激活函数,总误差公式中的d,y分别是期望输出和网络输出的向量。||x||2表示向量xx的2-范数,计算表达式为||x||2=(∑x2i)12。全连接层神经元的输入输出计算公式与BP网络(BackPropagation,多层前馈网络)完全相同。
具体地,中央处理器对人物裁剪图进行排序就是定义镜头何时切换的过程。通常保证说话人在镜头内是基本要求,一般镜头切换发生在人说话开始或者结束发言的时候。
具体地,人物动作特征包括:人物的位置、面部朝向以及人物口型变化。
本发明实施例提供的基于人工智能的视频制作系统,中央处理器在获取到相机的视频流之后,基于人工智能模型提取视频流中人物面部特征以及动作特征;基于人物面部特征对视频流进行裁剪,得到人物裁剪图;基于动作特征对人物裁剪图进行排序,得到拍摄片段图,本发明实现了自动取景、片段排列的视频制作的自动化,节省了视频广播技术中设备资源和人力资源的投入。
本发明的另一个实施例中,中央处理器还用于对拍摄片段图进行镜头选择。
进一步,中央处理器基于镜头指标要求对拍摄片段图进行镜头选择;
镜头指标要求包括:人物口型变化、人物镜头视角、场景切换要求。
具体地,基于镜头指标进行镜头的选择,比如,当检测到有人发言时,通常会使用近距离镜头的剪裁,人物比较少,说话人可以获得更多的关注度,此外,如果没有检测到语音,基本会选择相对人数更多的镜头视角。同时也会选择最近没有切换过的镜头视角。我们有一些基本的需求指标比如要求说话人在镜头内,允许偶尔的将镜头切换至现场反应镜头,偶尔的切换为特定的镜头。
实施例四
如图4所示为本发明实施例提供的基于人工智能的视频制作系统的另一种结构示意图,相对于图3所示实施例,本实施例中基于人工智能的视频制作系统还包括:显示器和存储器。
中央处理器在得到拍摄片段图后,向显示器输出拍摄片段图,并通过存储器存储拍摄片段图。
本发明实施例提供的基于人工智能的视频制作系统,采用显示器对拍摄片段图进行显示,便于操作人员实时观察拍摄片段图处理效果;采用存储器对拍摄片段图进行存储,便于操作人员调取历史拍摄片段图进行处理与比对。
进一步,本发明另一个实施例中,基于人工智能的视频制作系统包括:相机、中央处理器以及显示器;中央处理器在得到拍摄片段图后,向显示器输出拍摄片段图。本实施例中采用显示器对拍摄片段图进行显示,便于操作人员实时观察拍摄片段图处理效果。
进一步,本发明另一个实施例中,基于人工智能的视频制作系统包括:相机、中央处理器以及存储器;中央处理器在得到拍摄片段图后,通过存储器存储拍摄片段图。本实施例中,采用存储器对拍摄片段图进行存储,便于操作人员调取历史拍摄片段图进行处理与比对。
综上,本发明提供的基于人工智能的视频制作方法及系统可接受一个或多个视频流输入,每一个输入都以静态超高清相机录制,每一个宽镜头安置在舞台的不同位置(静态的宽镜头保证能被实时地以多种方式裁剪),从视频流中使用人工智能技术提取多个特征,自动执行镜头取景、片段排列和选择。本发明解决了常规的户外广播技术对设备资源需求多和人力资源投入大、多个拍摄会场难覆盖、不同位置镜头间来回切换、多相机视频片段难剪辑的直播报道需求和问题。本方法还可形成最终的直播输出,有助于带来综合全面多范围的报道。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (10)
1.一种基于人工智能的视频制作方法,其特征在于,所述方法包括:
获取相机输出的视频流;
基于人工智能模型从所述视频流提取人物面部特征以及动作特征;
基于所述人物面部特征对所述视频流进行裁剪,得到人物裁剪图;
基于所述人物动作特征对所述人物裁剪图进行排序,得到拍摄片段图。
2.根据权利要求1所述的基于人工智能的视频制作方法,其特征在于,在所述基于所述人物动作特征对所述人物的裁剪图进行排序,得到拍摄片段图的步骤之后,还包括:
对所述拍摄片段图进行镜头选择。
3.根据权利要求2所述的基于人工智能的视频制作方法,其特征在于,以镜头指标要求对所述拍摄片段图进行镜头选择;
所述镜头指标要求包括:人物口型变化、人物镜头视角、场景切换要求。
4.根据权利要求1所述的基于人工智能的视频制作方法,其特征在于,所述人工智能模型为卷积神经网络模型。
5.根据权利要求1-4任一项所述的基于人工智能的视频制作方法,其特征在于,所述人物动作特征包括:
人物的位置、面部朝向以及人物口型变化。
6.一种基于人工智能的视频制作系统,其特征在于,包括:相机以及中央处理器;
所述相机用于实时获取不同位置的图片,并对所述图片进行裁剪以及视频流转换,并将转换完成的视频流传输给所述中央处理器;
所述中央处理器用于获取所述视频流;基于人工智能模型从所述视频流提取人物面部特征以及动作特征;基于所述人物面部特征对所述视频流进行裁剪,得到人物裁剪图;基于所述人物动作特征对所述人物裁剪图进行排序,得到拍摄片段图。
7.根据权利要求6所述的基于人工智能的视频制作系统,其特征在于,所述中央处理器还用于对所述拍摄片段图进行镜头选择。
8.根据权利要求7所述的基于人工智能的视频制作系统,其特征在于,所述中央处理器基于镜头指标要求对所述拍摄片段图进行镜头选择;
所述镜头指标要求包括:人物口型变化、人物镜头视角、场景切换要求。
9.根据权利要求6或7所述的基于人工智能的视频制作系统,其特征在于,所述人物动作特征包括:
人物的位置、面部朝向以及人物口型变化。
10.根据权利要求9所述的基于人工智能的视频制作系统,其特征在于,还包括:显示器或/和存储器;
所述中央处理器在得到拍摄片段图后,向所述显示器输出所述拍摄片段图,或/和通过所述存储器存储所述拍摄片段图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910376970.4A CN110072055A (zh) | 2019-05-07 | 2019-05-07 | 基于人工智能的视频制作方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910376970.4A CN110072055A (zh) | 2019-05-07 | 2019-05-07 | 基于人工智能的视频制作方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110072055A true CN110072055A (zh) | 2019-07-30 |
Family
ID=67370423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910376970.4A Pending CN110072055A (zh) | 2019-05-07 | 2019-05-07 | 基于人工智能的视频制作方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110072055A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021036318A1 (zh) * | 2019-08-31 | 2021-03-04 | 华为技术有限公司 | 一种视频图像处理方法及装置 |
CN112839170A (zh) * | 2020-12-31 | 2021-05-25 | 上海米哈游天命科技有限公司 | 拍摄方法、装置、电子设备及存储介质 |
CN113382304A (zh) * | 2021-06-07 | 2021-09-10 | 北博(厦门)智能科技有限公司 | 一种基于人工智能技术的视频拼接方法 |
US12125210B2 (en) | 2019-08-31 | 2024-10-22 | Huawei Technologies Co., Ltd. | Video image processing method and apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103595953A (zh) * | 2013-11-14 | 2014-02-19 | 华为技术有限公司 | 一种控制视频拍摄的方法和装置 |
CN104038705A (zh) * | 2014-05-30 | 2014-09-10 | 无锡天脉聚源传媒科技有限公司 | 视频制作方法和装置 |
US20140270711A1 (en) * | 2013-03-15 | 2014-09-18 | FitStar, Inc. | Generating a custom exercise video |
CN107911748A (zh) * | 2017-11-24 | 2018-04-13 | 南京融升教育科技有限公司 | 一种基于人脸识别的视频裁剪方法 |
CN109040780A (zh) * | 2018-08-07 | 2018-12-18 | 北京优酷科技有限公司 | 一种视频处理方法及服务器 |
-
2019
- 2019-05-07 CN CN201910376970.4A patent/CN110072055A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140270711A1 (en) * | 2013-03-15 | 2014-09-18 | FitStar, Inc. | Generating a custom exercise video |
CN103595953A (zh) * | 2013-11-14 | 2014-02-19 | 华为技术有限公司 | 一种控制视频拍摄的方法和装置 |
CN104038705A (zh) * | 2014-05-30 | 2014-09-10 | 无锡天脉聚源传媒科技有限公司 | 视频制作方法和装置 |
CN107911748A (zh) * | 2017-11-24 | 2018-04-13 | 南京融升教育科技有限公司 | 一种基于人脸识别的视频裁剪方法 |
CN109040780A (zh) * | 2018-08-07 | 2018-12-18 | 北京优酷科技有限公司 | 一种视频处理方法及服务器 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021036318A1 (zh) * | 2019-08-31 | 2021-03-04 | 华为技术有限公司 | 一种视频图像处理方法及装置 |
US12125210B2 (en) | 2019-08-31 | 2024-10-22 | Huawei Technologies Co., Ltd. | Video image processing method and apparatus |
CN112839170A (zh) * | 2020-12-31 | 2021-05-25 | 上海米哈游天命科技有限公司 | 拍摄方法、装置、电子设备及存储介质 |
CN113382304A (zh) * | 2021-06-07 | 2021-09-10 | 北博(厦门)智能科技有限公司 | 一种基于人工智能技术的视频拼接方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Das et al. | Toyota smarthome: Real-world activities of daily living | |
US11568637B2 (en) | UAV video aesthetic quality evaluation method based on multi-modal deep learning | |
EP3855731B1 (en) | Context based target framing in a teleconferencing environment | |
JP6966421B2 (ja) | 角度分離されたサブシーンの合成およびスケーリング | |
US7113201B1 (en) | Image processing apparatus | |
CN110072055A (zh) | 基于人工智能的视频制作方法及系统 | |
CN110572570B (zh) | 一种多人场景的智能识别拍摄的方法、系统及存储介质 | |
CN110545378A (zh) | 一种多人场景的智能识别拍摄的系统和方法 | |
US11076127B1 (en) | System and method for automatically framing conversations in a meeting or a video conference | |
Zhang et al. | Dinet: Deformation inpainting network for realistic face visually dubbing on high resolution video | |
JPWO2008078736A1 (ja) | 同一性判定装置、同一性判定方法および同一性判定用プログラム | |
Moorthy et al. | Gazed–gaze-guided cinematic editing of wide-angle monocular video recordings | |
WO2018057449A1 (en) | Auto-directing media construction | |
CN111415318A (zh) | 基于拼图任务的无监督相关滤波目标跟踪方法及系统 | |
Zhang et al. | Boosting-based multimodal speaker detection for distributed meeting videos | |
CN112492231A (zh) | 远程交互方法、装置、电子设备和计算机可读存储介质 | |
Sun et al. | Learning adaptive patch generators for mask-robust image inpainting | |
CN114666457A (zh) | 一种视音频节目的导播方法、装置、设备、系统及介质 | |
CN108320331B (zh) | 一种生成用户场景的增强现实视频信息的方法与设备 | |
CN104780341B (zh) | 一种信息处理方法以及信息处理装置 | |
CN117768597B (zh) | 一种导播方法、装置、设备和存储介质 | |
Wang et al. | Personal multi-view viewpoint recommendation based on trajectory distribution of the viewing target | |
Sarhan et al. | Sign, attend and tell: spatial attention for sign language recognition | |
Casserfelt et al. | An investigation of transfer learning for deep architectures in group activity recognition | |
Fujisawa et al. | Automatic content curation system for multiple live sport video streams |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190730 |