CN108632551A - 基于深度学习的视频录摄方法、装置及终端 - Google Patents
基于深度学习的视频录摄方法、装置及终端 Download PDFInfo
- Publication number
- CN108632551A CN108632551A CN201710168941.XA CN201710168941A CN108632551A CN 108632551 A CN108632551 A CN 108632551A CN 201710168941 A CN201710168941 A CN 201710168941A CN 108632551 A CN108632551 A CN 108632551A
- Authority
- CN
- China
- Prior art keywords
- photograph
- training
- taken
- video record
- sample image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的视频录摄方法,包括采集多个目标场景的多张训练样本图像;对每张训练样本图像进行预处理;利用预处理后的训练样本图像训练稀疏自编码网络;通过所述多张训练样本图像和所述稀疏自编码网络训练训练分类器,以得到分类模型;利用所述分类模型对视频录摄过程中的图像进行实时分类,以确定所述视频录摄的场景,从而调用与所述视频录摄的场景对应的音频参数。本发明还提供一种基于深度学习的视频录摄装置及终端。本发明的基于深度学习的视频录摄方法、装置及终端能利用训练后的稀疏自编码网络后训练训练分类器,从而对视频录摄的场景进行识别后调用与所述视频录摄的场景对应的音频参数,以提升视频摄录效果。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于深度学习的视频录摄方法、装置及终端。
背景技术
随着智能终端的快速发展,人们对智能终端的要求也越来越高,而摄像性能和效果又是其中重要的一环。
现有的视频录摄方法在大声压环境,例如演唱会或大型晚会场景下,由于场面复杂,声音嘈杂,因此,如果麦克风输入的音频参数设置不合理就很容易导致麦克风输入溢出,从而容易导致音频信号截止,视频摄录效果很差。
发明内容
本发明的目的在于,克服现有的显示所存在的缺陷,而提供一种基于深度学习的视频录摄方法、装置及终端,其可以根据不同场景来调整音频参数,视频摄录效果好。
一种基于深度学习的视频录摄方法,包括采集多个目标场景的多张训练样本图像;对每张训练样本图像进行预处理;利用预处理后的训练样本图像训练稀疏自编码网络;通过所述多张训练样本图像和所述稀疏自编码网络训练训练分类器,以得到分类模型;利用所述分类模型对视频录摄过程中的图像进行实时分类,以确定所述视频录摄的场景,从而调用与所述视频录摄的场景对应的音频参数。
本发明还提供一种基于深度学习的视频录摄装置,所述装置包括图像采集模块、训练预处理模块、网络训练模块、分类模型获取模块、音频调整模块。图像采集模块用于采集多个目标场景的多张训练样本图像;训练预处理模块用于对每张训练样本图像进行预处理;网络训练模块用于利用预处理后的训练样本图像训练稀疏自编码网络;分类模型获取模块通过所述多张训练样本图像和所述稀疏自编码网络训练训练分类器,以得到分类模型;音频调整模块用于利用所述分类模型对视频录摄过程中的图像进行实时分类,以确定所述视频录摄的场景,从而调用与所述视频录摄的场景对应的音频参数。
本发明还提供一种使用上述基于深度学习的视频录摄装置的终端。
本发明的基于深度学习的视频录摄方法、装置及终端能利用训练后的稀疏自编码网络后训练训练分类器,从而对视频录摄的场景进行识别后调用与所述视频录摄的场景对应的音频参数,以提升视频摄录效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为一种终端的结构示意图。
图2为本发明一实施例提供的基于深度学习的视频录摄方法的流程示意图。
图3为本发明一实施例提供的基于深度学习的视频录摄装置的结构示意图。
图4为本发明一实施例提供的终端的结构示意图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的基于深度学习的视频录摄方法、装置及终端其具体实施方式、方法、步骤、结构、特征及其功效,详细说明如下。
有关本发明的前述及其他技术内容、特点及功效,在以下配合参考图式的较佳实施例的详细说明中将可清楚呈现。通过具体实施方式的说明,当可对本发明为达成预定目的所采取的技术手段及功效得以更加深入且具体的了解,然而所附图式仅是提供参考与说明之用,并非用来对本发明加以限制。
图1示出了一种终端的结构框图。本发明的基于深度学习的视频录摄方法可以但不限于应用于如图1所示的终端。如图1所示,终端10包括存储器102、存储控制器104,一个或多个(图中仅示出一个)处理器106、外设接口108、射频模块110、定位模块112、摄像模块114、音频模块116、屏幕118以及按键模块120。这些组件通过一条或多条通讯总线/信号线122相互通讯。
可以理解,图1所示的结构仅为示意,终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
存储器102可用于存储软件程序以及模块,如本发明实施例中的基于深度学习的视频录摄方法及装置对应的程序指令/模块,处理器106通过运行存储在存储控制器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的基于深度学习的视频录摄方法及系统。
存储器102可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器102可进一步包括相对于处理器106远程设置的存储器,这些远程存储器可以通过网络连接至终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。处理器106以及其他可能的组件对存储器102的访问可在存储控制器104的控制下进行。
外设接口108将各种输入/输入装置耦合至CPU以及存储器102。处理器106运行存储器102内的各种软件、指令以执行终端10的各种功能以及进行数据处理。
在一些实施例中,外设接口108,处理器106以及存储控制器104可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
射频模块110用于接收以及发送电磁波,实现电磁波与电信号的相互转换,从而与通讯网络或者其他设备进行通讯。射频模块110可包括各种现有的用于执行这些功能的电路元件,例如,天线、射频收发器、数字信号处理器、加密/解密芯片、用户身份模块(SIM)卡、存储器等等。射频模块110可与各种网络如互联网、企业内部网、无线网络进行通讯或者通过无线网络与其他设备进行通讯。上述的无线网络可包括蜂窝式电话网、无线局域网或者城域网。上述的无线网络可以使用各种通信标准、协议及技术,包括但并不限于全球移动通信系统(Global System for Mobile Communication,GSM)、增强型移动通信技术(Enhanced Data GSM Environment,EDGE),宽带码分多址技术(wideband code divisionmultiple access,W-CDMA),码分多址技术(Code division access,CDMA)、时分多址技术(time division multiple access,TDMA),蓝牙,无线保真技术(Wireless,Fidelity,WiFi)(如美国电气和电子工程师协会标准IEEE 802.11a,IEEE802.11b,IEEE802.11g和/或IEEE 802.11n)、网络电话(Voice over internet protocal,VoIP)、全球微波互联接入(Worldwide Interoperability for Microwave Access,Wi-Max)、其他用于邮件、即时通讯及短消息的协议,以及任何其他合适的通讯协议,甚至可包括那些当前仍未被开发出来的协议。
定位模块112用于获取终端10的当前位置。定位模块112的实例包括但不限于全球卫星定位系统(GPS)、基于无线局域网或者移动通信网的定位技术。
摄像模块114用于拍摄照片或者视频。拍摄的照片或者视频可以存储至存储器102内,并可通过射频模块110发送。
音频模块116向用户提供音频接口,其可包括一个或多个麦克风、一个或者多个扬声器以及音频电路。音频电路从外设接口108处接收声音数据,将声音数据转换为电信息,将电信息传输至扬声器。扬声器将电信息转换为人耳能听到的声波。音频电路还从麦克风处接收电信息,将电信号转换为声音数据,并将声音数据传输至外设接口108中以进行进一步的处理。音频数据可以从存储器102处或者通过射频模块110获取。此外,音频数据也可以存储至存储器102中或者通过射频模块110进行发送。在一些实例中,音频模块116还可包括一个耳机播孔,用于向耳机或者其他设备提供音频接口。
屏幕118在终端10与用户之间提供一个输出界面。具体地,屏幕118向用户显示视频输出,这些视频输出的内容可包括文字、图形、视频、及其任意组合。一些输出结果是对应于一些用户界面对象。可以理解的,屏幕118还可以包括触控屏幕。触控屏幕在终端10与用户之间同时提供一个输出及输入界面。除了向用户显示视频输出,触控屏幕还接收用户的输入,例如用户的点击、滑动等手势操作,以便用户界面对象对这些用户的输入做出响应。检测用户输入的技术可以是基于电阻式、电容式或者其他任意可能的触控检测技术。触控屏幕显示单元的具体实例包括但并不限于液晶显示器或发光聚合物显示器。
按键模块120同样提供用户向终端10进行输入的接口,用户可以通过按下不同的按键以使终端10执行不同的功能。
图2为本发明一实施例提供的基于深度学习的视频录摄方法的流程示意图。如图2所示,基于深度学习的视频录摄方法包括如下步骤:
步骤S21:采集多个目标场景的多张训练样本图像;
其中,目标场景为视频录摄的所有可能的场景中的一个。具体地,目标场景例如可以但不限于为大声压场景,例如演唱会或大型晚会等等,也可以为公园等环境安静的场景等等。
步骤S22:对每张训练样本图像进行预处理;
其中,预处理可以但不限于包括随机选取每张训练样本图像中的多个图像块例如k*k个图像块,并对训练样本图像的多个图像块进行白化处理PCA(Principal ComponentAnalysis)白化处理或ZCA(Zero-phase Component Analysis)白化处理等等。
具体地,对训练样本图像的多个图像块进行白化处理包括:
对多个像素块进行归一化处理,具体步骤如下:
利用公式(1)(2)计算每一个k*k的图像块(m=k*k)的均值,并将每一个像素减去均值,其中,i=1,2,……,n,表示有n个输入图像块:x(1),x(2),…,x(n),u(i)表示第i个输入图像块的均值;
xj (i)=xj (i)-u(i) (2)
对归一化后的图像块计算协方差矩阵sigma,如公式(3);
对sigma矩阵进行奇异值(SVD)分解,得到sigma矩阵的奇异向量;
[U,S,V]=svd(sigma) (4)
计算PCA白化处理得到的数据,若x'表示去相关处理后的图像块,U和UT分别表示上个步骤中的sigma矩阵分解得到的奇异向量矩阵及其转置,S是sigma矩阵分解得到的奇异值对角矩阵,ε是规则化参数,则
步骤S23:利用预处理后的训练样本图像训练稀疏自编码网络;
具体地,步骤S23可以但不限于包括:
将所述训练样本图像中白化处理后的图像块作为稀疏自编码网络的输入矩阵和目标矩阵;
其中,在本实施例中例如稀疏自编码网络N共3层,第一层为输入层、第二层为隐藏层、第三层为输出层。
采用正态分布随机初始化所述稀疏自编码网络的权值和偏置单元;
其中,在本实施例中可以但不限于将正态分布函数均值初始化为0,方差初始化为0.01。
采用BP反向传播算法更新所述稀疏自编码网络的权值和偏置单元。
具体地,采用BP反向传播算法更新所述稀疏自编码网络的权值和偏置单元包括如下第一步到第十步:
第一步、若用η表示稀疏自编码网络的惩罚因子,则:
其中,ρ表示随机选取的稀疏性参数,ρ经验取值范围0.01~0.05,ρj表示稀疏性自编码网络隐层第j个神经元的平均活跃度,j∈[1,s],β表示随机选取的惩罚因子权重取值,经验取值范围0.1~0.5,s表示稀疏自编码网络隐藏层的神经元的数目,隐藏层的神经元数目s例如可以但不限于为40个;
第二步、若an表示稀疏自编码网络输出层的输出矩阵,则:
其中,k∈[1,N],N表示稀疏自编码网络的层数,b表示稀疏自编码网络第k层的偏置,w表示第k层稀疏自编码网络的权值,exp(.)表示自然数为底的指数操作,X表示稀疏自编码网络的输入矩阵;
第三步、若al表示稀疏自编码网络隐藏层的输出矩阵,则
其中,l表示稀疏自编码网络隐藏层,W表示稀疏自编码网络隐藏层的权值矩阵,B表示稀疏自编码网络隐藏层的偏置矩阵;
第四步、若Jcost表示稀疏自编码网络的代价函数,则
其中,m表示白化后的图像块数目,yt表示稀疏自编码网络第t个目标矩阵,t∈[1,m],wp表示稀疏自编码网络的第p个权值,p∈[1,k],k表示权值的数目,λ表示随机选取的权重衰减参数,λ的经验取值范围为0.01~0.05;
第五步、若δN表示稀疏自编码网络输出层神经元的残差,则:
δN=-(y-aN)*aN*(1-aN) (10)
第六步、若δl表示稀疏自编码网络隐藏层神经元的残差,则:
其中,l表示稀疏自编码网络隐藏层,y表示稀疏自编码网络的目标矩阵,wl表示稀疏自编码网络隐藏层的权值,ρj表示稀疏自编码网络隐层第j个神经元的平均活跃度,j∈[1,s],(.)T表示转置操作;
第七步、计算稀疏自编码网络每层神经元的权值和偏置的偏导数:
第八步、根据如下式子更新稀疏自编码网络每层偏置的偏导数:
第九步、分别利用公式(14)、(15)更新稀疏自编码网络的权值和偏置:
其中,α表示随机选取的自编码网络的学习率,α的经验取值范围0.001~0.01;
第十步、判断稀疏自编码网络的代价函数值Jcost是否小于经验阈值例如0.1,若是,表示网络训练完成;否则循环执行上述第一步到第九步;
步骤S24:通过多张训练样本图像和稀疏自编码网络训练训练分类器,以得到分类模型;
在本发明一实施方式中,训练分类器可以但不限于为逻辑回归(LogisticRegression)分类器。
在本发明一实施方式中,基于深度学习的视频录摄方法还可以但不限于包括:利用测试样本图像对训练分类器进行分类效果测试,以调整音频参数。
具体地,首先,采集测试样本图像,然后随机选取每张测试样本图像中的多个图像块,并对每张测试样本图像中的多个图像块进行白化处理后,利用测试样本图像中白处理后的图像块对训练分类器进行分类效果测试,最后根据分类效果测试的结果调整音频参数。
步骤S25:利用分类模型对视频录摄过程中的图像进行实时分类,以确定视频录摄的场景,从而调用与视频录摄的场景对应的音频参数。
图3为本发明一实施例提供的基于深度学习的视频录摄装置的结构示意图。如图3所示,基于深度学习的视频录摄装置20包括图像采集模块201、训练预处理模块202、网络训练模块203、分类模型获取模块204、音频调整模块205。图像采集模块201用于采集多个目标场景的多张训练样本图像;训练预处理模块202用于对每张训练样本图像进行预处理;网络训练模块203用于利用预处理后的训练样本图像训练稀疏自编码网络;分类模型获取模块204通过多张训练样本图像和稀疏自编码网络训练训练分类器,以得到分类模型;音频调整模块205用于利用分类模型对视频录摄过程中的图像进行实时分类,以确定视频录摄的场景,从而调用与视频录摄的场景对应的音频参数。
在本发明一实施方式中,训练预处理模块202包括训练选取单元、训练白化处理单元。训练选取单元用于随机选取每张训练样本图像中的多个图像块;训练白化处理单元对训练样本图像的多个图像块进行白化处理。
在本发明一实施方式中,分类模型获取模块204包括输入单元、初始化单元、更新单元。输入单元用于将训练样本图像中白化处理后的图像块作为稀疏自编码网络的输入矩阵和目标矩阵;初始化单元用于采用正态分布随机初始化稀疏自编码网络的权值和偏置单元;更新单元用于采用BP反向传播算法更新稀疏自编码网络的权值和偏置单元。
在本发明一实施方式中,装置还包括分类效果测试模块(图中未示出)。分类效果测试模块用于采集测试样本图像,并随机选取每张测试样本图像中的多个图像块后,对每张测试样本图像中的多个图像块进行白化处理,以利用测试样本图像中白处理后的图像块对训练分类器进行分类效果测试,并根据分类效果测试的结果调整音频参数。
图4为本发明一实施例提供的终端的结构示意图。如图4所示,终端30包括基于深度学习的视频录摄装置,基于深度学习的视频录摄装置的结构请参考图3,在此不再赘述。此外,终端的结构还可以参考图1,在此不再赘述。
本发明的基于深度学习的视频录摄方法、装置及终端能利用训练后的稀疏自编码网络后训练训练分类器,从而对视频录摄的场景进行识别后调用与所述视频录摄的场景对应的音频参数,以提升视频摄录效果。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (9)
1.一种基于深度学习的视频录摄方法,其特征在于,包括:
采集多个目标场景的多张训练样本图像;
对每张训练样本图像进行预处理;
利用预处理后的训练样本图像训练稀疏自编码网络;
通过所述多张训练样本图像和所述稀疏自编码网络训练训练分类器,以得到分类模型;
利用所述分类模型对视频录摄过程中的图像进行实时分类,以确定所述视频录摄的场景,从而调用与所述视频录摄的场景对应的音频参数。
2.如权利要求1所述的基于深度学习的视频录摄方法,其特征在于,对每张训练样本图像进行预处理的步骤包括:
随机选取每张训练样本图像中的多个图像块;
对所述训练样本图像的多个图像块进行白化处理。
3.如权利要求1或2所述的基于深度学习的视频录摄方法,其特征在于,通过所述多张训练样本图像和所述稀疏自编码网络训练训练分类器,以得到分类模型的步骤包括:
将所述训练样本图像中白化处理后的图像块作为稀疏自编码网络的输入矩阵和目标矩阵;
采用正态分布随机初始化所述稀疏自编码网络的权值和偏置单元;
采用BP反向传播算法更新所述稀疏自编码网络的权值和偏置单元。
4.如权利要求2所述的基于深度学习的视频录摄方法,其特征在于,所述基于深度学习的视频录摄方法还包括:
采集测试样本图像;
随机选取每张测试样本图像中的多个图像块;
对每张测试样本图像中的多个图像块进行白化处理;
利用测试样本图像中白处理后的图像块对所述训练分类器进行分类效果测试;
根据分类效果测试的结果调整音频参数。
5.一种基于深度学习的视频录摄装置,其特征在于,所述装置包括:
图像采集模块,用于采集多个目标场景的多张训练样本图像;
训练预处理模块,用于对每张训练样本图像进行预处理;
网络训练模块,用于利用预处理后的训练样本图像训练稀疏自编码网络;
分类模型获取模块,通过所述多张训练样本图像和所述稀疏自编码网络训练训练分类器,以得到分类模型;
音频调整模块,用于利用所述分类模型对视频录摄过程中的图像进行实时分类,以确定所述视频录摄的场景,从而调用与所述视频录摄的场景对应的音频参数。
6.如权利要求5所述的基于深度学习的视频录摄装置,其特征在于,所述训练预处理模块包括:
训练选取单元,用于随机选取每张训练样本图像中的多个图像块;
训练白化处理单元,对所述训练样本图像的多个图像块进行白化处理。
7.如权利要求6所述的基于深度学习的视频录摄装置,其特征在于,所述分类模型获取模块包括:
输入单元,用于将所述训练样本图像中白化处理后的图像块作为稀疏自编码网络的输入矩阵和目标矩阵;
初始化单元,用于采用正态分布随机初始化所述稀疏自编码网络的权值和偏置单元;
更新单元,用于采用BP反向传播算法更新所述稀疏自编码网络的权值和偏置单元。
8.如权利要求6所述的基于深度学习的视频录摄装置,其特征在于,装置还包括:
分类效果测试模块,用于采集测试样本图像,并随机选取每张测试样本图像中的多个图像块后,对每张测试样本图像中的多个图像块进行白化处理,以利用测试样本图像中白处理后的图像块对所述训练分类器进行分类效果测试,并根据分类效果测试的结果调整音频参数。
9.一种终端,其特征在于,所述终端包括如权利要求5至8任意一项所述的基于深度学习的视频录摄装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710168941.XA CN108632551A (zh) | 2017-03-16 | 2017-03-16 | 基于深度学习的视频录摄方法、装置及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710168941.XA CN108632551A (zh) | 2017-03-16 | 2017-03-16 | 基于深度学习的视频录摄方法、装置及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108632551A true CN108632551A (zh) | 2018-10-09 |
Family
ID=63686548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710168941.XA Pending CN108632551A (zh) | 2017-03-16 | 2017-03-16 | 基于深度学习的视频录摄方法、装置及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108632551A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062307A (zh) * | 2019-12-12 | 2020-04-24 | 天地伟业技术有限公司 | 一种基于Tiny-Darknet的场景识别分类方法 |
CN111476132A (zh) * | 2020-03-30 | 2020-07-31 | 微梦创科网络科技(中国)有限公司 | 视频场景识别方法、装置及电子设备、存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009098510A (ja) * | 2007-10-18 | 2009-05-07 | Sanyo Electric Co Ltd | 音声記録装置 |
US20120050570A1 (en) * | 2010-08-26 | 2012-03-01 | Jasinski David W | Audio processing based on scene type |
CN103841348A (zh) * | 2014-03-31 | 2014-06-04 | 华为技术有限公司 | 视音频录制效果的调节方法、装置和系统 |
CN104199876A (zh) * | 2014-08-20 | 2014-12-10 | 广州三星通信技术研究有限公司 | 关联乐曲与图片的方法和装置 |
CN104995681A (zh) * | 2013-02-15 | 2015-10-21 | 高通股份有限公司 | 多声道音频数据的视频分析辅助产生 |
CN105205449A (zh) * | 2015-08-24 | 2015-12-30 | 西安电子科技大学 | 基于深度学习的手语识别方法 |
CN106162206A (zh) * | 2016-08-03 | 2016-11-23 | 北京疯景科技有限公司 | 全景录制、播放方法及装置 |
-
2017
- 2017-03-16 CN CN201710168941.XA patent/CN108632551A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009098510A (ja) * | 2007-10-18 | 2009-05-07 | Sanyo Electric Co Ltd | 音声記録装置 |
US20120050570A1 (en) * | 2010-08-26 | 2012-03-01 | Jasinski David W | Audio processing based on scene type |
CN104995681A (zh) * | 2013-02-15 | 2015-10-21 | 高通股份有限公司 | 多声道音频数据的视频分析辅助产生 |
CN103841348A (zh) * | 2014-03-31 | 2014-06-04 | 华为技术有限公司 | 视音频录制效果的调节方法、装置和系统 |
CN104199876A (zh) * | 2014-08-20 | 2014-12-10 | 广州三星通信技术研究有限公司 | 关联乐曲与图片的方法和装置 |
CN105205449A (zh) * | 2015-08-24 | 2015-12-30 | 西安电子科技大学 | 基于深度学习的手语识别方法 |
CN106162206A (zh) * | 2016-08-03 | 2016-11-23 | 北京疯景科技有限公司 | 全景录制、播放方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062307A (zh) * | 2019-12-12 | 2020-04-24 | 天地伟业技术有限公司 | 一种基于Tiny-Darknet的场景识别分类方法 |
CN111476132A (zh) * | 2020-03-30 | 2020-07-31 | 微梦创科网络科技(中国)有限公司 | 视频场景识别方法、装置及电子设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018228168A1 (zh) | 图像处理方法及相关产品 | |
WO2021036991A1 (zh) | 高动态范围视频生成方法及装置 | |
CN106101743B (zh) | 全景视频识别方法及装置 | |
CN110933312B (zh) | 拍照控制方法及相关产品 | |
WO2022017261A1 (zh) | 图像合成方法和电子设备 | |
CN113840346B (zh) | 一种运营商切换方法及相关设备 | |
CN112566152B (zh) | 一种卡顿预测的方法、数据处理的方法以及相关装置 | |
CN107705251A (zh) | 图片拼接方法、移动终端及计算机可读存储介质 | |
CN109068052A (zh) | 视频拍摄方法、移动终端及计算机可读存储介质 | |
CN106611402B (zh) | 图像处理方法及装置 | |
CN109639996B (zh) | 高动态场景成像方法、移动终端及计算机可读存储介质 | |
CN112580400B (zh) | 图像选优方法及电子设备 | |
US20230162323A1 (en) | Image frame super-resolution implementation method and apparatus | |
EP4287068A1 (en) | Model training method, scene recognition method, and related device | |
KR20200110379A (ko) | 딥 신경망 구조 축소를 위한 방법 및 시스템 | |
CN108924647A (zh) | 视频编辑方法、视频编辑装置、终端 | |
CN113660369B (zh) | 来电处理及模型训练方法、装置、终端设备和存储介质 | |
CN108632551A (zh) | 基于深度学习的视频录摄方法、装置及终端 | |
CN107277377A (zh) | 拍照方法及装置 | |
CN116668656B (zh) | 图像处理方法及电子设备 | |
CN106060620A (zh) | 基于遥控器的一键交互方法、第一客户端及系统 | |
CN113793407B (zh) | 动态图像制作方法、移动终端及存储介质 | |
CN112435169A (zh) | 一种基于神经网络的图像生成方法及设备 | |
CN112188102A (zh) | 拍照方法、移动终端及存储介质 | |
CN114726746A (zh) | Sla性能预测方法及相关装置、设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181009 |
|
RJ01 | Rejection of invention patent application after publication |