CN110198411A - 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质 - Google Patents
一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110198411A CN110198411A CN201910473344.7A CN201910473344A CN110198411A CN 110198411 A CN110198411 A CN 110198411A CN 201910473344 A CN201910473344 A CN 201910473344A CN 110198411 A CN110198411 A CN 110198411A
- Authority
- CN
- China
- Prior art keywords
- depth
- video
- field
- image data
- data stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
Abstract
本申请公开了一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质,其中,该方法包括实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。实现了一种人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
Description
技术领域
本申请涉及移动通信领域,尤其涉及一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质。
背景技术
现有技术中,随着智能终端设备的快速发展,出现了区别于常规智能手机的穿戴式设备,例如,智能手表或者智能手环等穿戴式设备。由于穿戴式设备相较于传统的智能手机,其软、硬件环境、操作方式以及操作环境等特殊性,若将传统的智能手机的操控方案转用至穿戴式设备,则可能会给用户的操作带来不便之处、用户体验不佳。
发明内容
为了解决现有技术中的上述技术缺陷,本发明提出了一种视频拍摄过程中的景深控制方法,该方法包括:
获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;
实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;
在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;
在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
可选的,所述获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像,包括:
在所述视频拍摄过程中,实时获取所述视频图像数据流;
根据所述视频图像数据流以及预设的显示比例,生成所述预览图像。
可选的,所述取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像,还包括:
结合所述预设的显示比例,在所述穿戴设备的显示区域内划分视频预览区域;
在所述视频预览区域内实时显示所述预览图像。
可选的,所述实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面,包括:
实时解析所述视频图像数据流;
确定所述视频拍摄过程中的焦距信息以及景深信息,其中,所述焦距信息包括当前的对焦对象的焦距信息,所述景深信息包括所述视频图像数据流中的各个拍摄对象对应的各自的景深信息。
可选的,所述实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面,还包括:
实时感测所述视频图像数据流中的景深变化状态;
若所述景深变化状态超过预设值,则确定变化后的图像帧为所述关键帧,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面。
可选的,所述在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面,包括:
在所述视频预览区域内,沿所述穿戴设备的长度方向确定所述视频预览区域的两个相对边缘;
分别以所述两个相对边缘作为划分起始边缘,沿所述穿戴设备的长度方向延伸预设长度作为所述关联区域的显示范围。
可选的,所述在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面,包括:
在所述关联区域的显示范围内,确定景深画面的数量;
结合所述景深画面的数量,将所述显示范围划分为多个折叠单元。
可选的,所述在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象,包括:
在所述视频关联区域的边缘获取选取信号,确定与所述选取信号对应的景深对象;
在选取后的视频拍摄过程中,监测所述视频图像数据流中是否存在所述目标景深对象,若是,则将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
本发明还提出了一种视频拍摄过程中的景深控制设备,该设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如上述任一项所述的方法的步骤。
本发明还提出了一种计算机可读存储介质,该计算机可读存储介质上存储有视频拍摄过程中的景深控制程序,所述视频拍摄过程中的景深控制程序被处理器执行时实现如上述任一项所述的视频拍摄过程中的景深控制方法的步骤。
本发明的有益效果在于,通过获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;然后,实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;再然后,在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;最后,在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。实现了一种人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的可穿戴设备一种实施方式的硬件结构示意图;
图2为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图3为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图4为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图5为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图6是本发明视频拍摄过程中的景深控制方法第一实施例的流程图;
图7是本发明视频拍摄过程中的景深控制方法第二实施例的流程图;
图8是本发明视频拍摄过程中的景深控制方法第三实施例的流程图;
图9是本发明视频拍摄过程中的景深控制方法第四实施例的流程图;
图10是本发明视频拍摄过程中的景深控制方法第五实施例的流程图;
图11是本发明视频拍摄过程中的景深控制方法第六实施例的流程图;
图12是本发明视频拍摄过程中的景深控制方法第七实施例的流程图;
图13是本发明视频拍摄过程中的景深控制方法第八实施例的流程图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
本发明实施例中提供的可穿戴设备包括智能手环、智能手表、以及智能手机等移动终端。随着屏幕技术的不断发展,柔性屏、折叠屏等屏幕形态的出现,智能手机等移动终端也可以作为可穿戴设备。本发明实施例中提供的可穿戴设备可以包括:RF(RadioFrequency,射频)单元、WiFi模块、音频输出单元、A/V(音频/视频)输入单元、传感器、显示单元、用户输入单元、接口单元、存储器、处理器、以及电源等部件。
后续描述中将以可穿戴设备为例进行说明,请参阅图1,其为实现本发明各个实施例的一种可穿戴设备的硬件结构示意图,该可穿戴设备100可以包括:RF(RadioFrequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的可穿戴设备结构并不构成对可穿戴设备的限定,可穿戴设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对可穿戴设备的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,射频单元101可以将上行信息发送给基站,另外也可以将基站发送的下行信息接收后,发送给可穿戴设备的处理器110处理,基站向射频单元101发送的下行信息可以是根据射频单元101发送的上行信息生成的,也可以是在检测到可穿戴设备的信息更新后主动向射频单元101推送的,例如,在检测到可穿戴设备所处的地理位置发生变化后,基站可以向可穿戴设备的射频单元101发送地理位置变化的消息通知,射频单元101在接收到该消息通知后,可以将该消息通知发送给可穿戴设备的处理器110处理,可穿戴设备的处理器110可以控制该消息通知显示在可穿戴设备的显示面板1061上;通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信,具体的可以包括:通过无线通信与网络系统中的服务器通信,例如,可穿戴设备可以通过无线通信从服务器中下载文件资源,比如可以从服务器中下载应用程序,在可穿戴设备将某一应用程序下载完成之后,若服务器中该应用程序对应的文件资源更新,则该服务器可以通过无线通信向可穿戴设备推送资源更新的消息通知,以提醒用户对该应用程序进行更新。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(GeneralPacket Radio Service,通用分组无线服务)、CDMA2000(Code Division Multiple Access2000,码分多址2000)、WCDMA(Wideband Code Division Multiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous Code Division Multiple Access,时分同步码分多址)、FDD-LTE(Frequency Division Duplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time Division Duplexing-Long Term Evolution,分时双工长期演进)等。
在一种实施方式中,可穿戴设备100可以通过插入SIM卡来接入现有的通信网络。
在另一种实施方式中,可穿戴设备100可以通过设置esim卡(Embedded-SIM),来实现接入现有的通信网络,采用esim卡的方式,可以节省可穿戴设备的内部空间,降低厚度。
可以理解的是,虽然图1示出了射频单元101,但是可以理解的是,射频单元101其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。,可穿戴设备100可以单独通过wifi模块102来实现与其他设备或通信网络的通信连接,本发明实施例并不以此为限。
WiFi属于短距离无线传输技术,可穿戴设备通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在可穿戴设备100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与可穿戴设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
在一种实施方式中,可穿戴设备100包括有一个或多个摄像头,通过开启摄像头,能够实现对图像的捕获,实现拍照、录像等功能,摄像头的位置可以根据需要进行设置。
可穿戴设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在可穿戴设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等。
在一种实施方式中,可穿戴设备100还包括接近传感器,通过采用接近传感器,可穿戴设备能够实现非接触操控,提供更多的操作方式。
在一种实施方式中,可穿戴设备100还包括心率传感器,在佩戴时,通过贴近使用者,能够实现心率的侦测。
在一种实施方式中,可穿戴设备100还可以包括指纹传感器,通过读取指纹,能够实现安全验证等功能。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
在一种实施方式中,显示面板1061采用柔性显示屏,采用柔性显示屏的可穿戴设备在佩戴时,屏幕能够进行弯曲,从而更加贴合。可选的,所述柔性显示屏可以采用OLED屏体以及石墨烯屏体,在其他实施方式中,所述柔性显示屏也可以是其他显示材料,本实施例并不以此为限。
在一种实施方式中,可穿戴设备的显示面板1061可以采取长方形,便于佩戴时环绕。在其他实施方式中,也可以采取其他方式。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与可穿戴设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
在一种实施方式中,可穿戴设备100的侧边可以设置有一个或多个按钮。按钮可以实现短按、长按、旋转等多种方式,从而实现多种操作效果。按钮的数量可以为多个,不同的按钮之间可以组合使用,实现多种操作功能。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现可穿戴设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现可穿戴设备的输入和输出功能,具体此处不做限定。比如,当通过射频单元101接收到某一应用程序的消息通知时,处理器110可以控制将该消息通知显示在显示面板1061的某一预设区域内,该预设区域与触控面板1071的某一区域对应,通过对触控面板1071某一区域进行触控操作,可以对显示面板1061上对应区域内显示的消息通知进行控制。
接口单元108用作至少一个外部装置与可穿戴设备100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到可穿戴设备100内的一个或多个元件或者可以用于在可穿戴设备100和外部装置之间传输数据。
在一种实施方式中,可穿戴设备100的接口单元108采用触点的结构,通过触点与对应的其他设备连接,实现充电、连接等功能。采用触点还可以防水。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是可穿戴设备的控制中心,利用各种接口和线路连接整个可穿戴设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行可穿戴设备的各种功能和处理数据,从而对可穿戴设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
可穿戴设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,可穿戴设备100还可以包括蓝牙模块等,在此不再赘述。可穿戴设备100通过蓝牙,可以与其他终端设备连接,实现通信以及信息的交互。
请参考图2-图4,为本发明实施例提供的一种可穿戴设备一种实施方式下的结构示意图。本发明实施例中的可穿戴设备,包括柔性屏幕。在可穿戴设备展开时,柔性屏幕呈长条形;在可穿戴设备处于佩戴状态时,柔性屏幕弯曲呈环状。图2及图3示出了可穿戴设备屏幕展开时的结构示意图,图4示出了可穿戴设备屏幕弯曲时的结构示意图。
基于上述各个实施方式,可以看到,若所述设备为手表、手环或者可穿戴式设备时,所述设备的屏幕可以不覆盖设备的表带区域,也可以覆盖设备的表带区域。在此,本申请提出一种可选的实施方式,在本实施方式中,所述设备可以为手表、手环或者可穿戴式设备,所述设备包括屏幕以及连接部。所述屏幕可以为柔性屏幕,所述连接部可以为表带。可选的,所述设备的屏幕或者屏幕的显示区可以部分或者全部的覆盖在设备的表带上。如图5所示,图5为本申请实施例提供的一种可穿戴设备一种实施方式的硬件示意图,所述设备的屏幕向两侧延伸,部分的覆盖在设备的表带上。在其他实施方式中,所述设备的屏幕也可以全部覆盖在所述设备的表带上,本申请实施例并不以此为限。
实施例一
图6是本发明视频拍摄过程中的景深控制方法第一实施例的流程图。一种视频拍摄过程中的景深控制方法,该方法包括:
S1、获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;
S2、实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;
S3、在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;
S4、在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
在本实施例中,首先,获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;然后,实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;再然后,在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;最后,在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
由于在现有技术中,特别是在穿戴设备上进行拍摄预览时,由于穿戴设备的显示区域较为狭窄,而又因为拍摄预览区域具有特定的长宽比例,因此,其拍摄预览在穿戴设备的显示区域内,即使有较宽的横向显示空间,但由于纵向显示空间的不足,同样造成拍摄预览较为狭小,用户在拍摄预览过程中,实时获取当前拍摄预览图像中的景深信息,同时,获取该穿戴状态下的可视区域,在此可视区域内重叠、或交错重叠显示多个景深页面,其中,各个景深页面显示上述拍摄预览图中,根据不同的景深信息得到的景深对象,同时,获取该景深页面的滑动信号,根据该滑动信号浏览待选定的景深对象,然后,根据相应的拖拽操作将其中之一的景深对象作为目标景深对象。从而实现了一种较为便捷的景深对象交互操作方案,使得用户在拍摄时,充分利用穿戴设备的显示空间,较为便捷地进行景深对象交互操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
本实施例的有益效果在于,通过获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;然后,实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;再然后,在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;最后,在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。实现了一种人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例二
图7是本发明视频拍摄过程中的景深控制方法第二实施例的流程图,基于上述实施例,所述获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像,包括:
S11、在所述视频拍摄过程中,实时获取所述视频图像数据流;
S12、根据所述视频图像数据流以及预设的显示比例,生成所述预览图像。
在本实施例中,首先,在所述视频拍摄过程中,实时获取所述视频图像数据流;然后,根据所述视频图像数据流以及预设的显示比例,生成所述预览图像。
可选的,在所述视频拍摄过程中,通过一个摄像头或者在必要的时候,切换为两个摄像头实时获取所述视频图像数据流,其中,必要的时侯包括需要增强对景深进行识别的情况;
可选的,根据所述视频图像数据流以及预设的显示比例,生成所述预览图像,其中,显示比例包括显示的长宽比例,具体的,根据长宽比例以及穿戴设备的显示宽度或者显示点阵的宽度,确定该显示比例。
本实施例的有益效果在于,通过在所述视频拍摄过程中,实时获取所述视频图像数据流;然后,根据所述视频图像数据流以及预设的显示比例,生成所述预览图像。实现了一种更为人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例三
图8是本发明视频拍摄过程中的景深控制方法第三实施例的流程图,基于上述实施例,所述取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像,还包括:
S13、结合所述预设的显示比例,在所述穿戴设备的显示区域内划分视频预览区域;
S14、在所述视频预览区域内实时显示所述预览图像。
在本实施例中,首先,结合所述预设的显示比例,在所述穿戴设备的显示区域内划分视频预览区域;然后,在所述视频预览区域内实时显示所述预览图像。
可选的,结合所述预设的显示比例以及穿戴设备的显示点阵宽度,在所述穿戴设备的显示区域内划分视频预览区域,其中,该视频预览区域与当前的拍摄方位以及用户的查看角度相关,从而便于用户查看的同时,不会影响到视频拍摄;
可选的,在所述视频预览区域内实时显示当前时刻的所述预览图像,以及显示当前时刻的前一时刻的预览图像,从而便于用户回看。
本实施例的有益效果在于,通过结合所述预设的显示比例,在所述穿戴设备的显示区域内划分视频预览区域;然后,在所述视频预览区域内实时显示所述预览图像。实现了一种更为人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例四
图9是本发明视频拍摄过程中的景深控制方法第四实施例的流程图,基于上述实施例,所述实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面,包括:
S21、实时解析所述视频图像数据流;
S22、确定所述视频拍摄过程中的焦距信息以及景深信息,其中,所述焦距信息包括当前的对焦对象的焦距信息,所述景深信息包括所述视频图像数据流中的各个拍摄对象对应的各自的景深信息。
在本实施例中,首先,实时解析所述视频图像数据流;然后,确定所述视频拍摄过程中的焦距信息以及景深信息,其中,所述焦距信息包括当前的对焦对象的焦距信息,所述景深信息包括所述视频图像数据流中的各个拍摄对象对应的各自的景深信息。
可选的,当所述视频图像数据流包括景深数据流以及图像数据流时,则实时解析所述视频图像数据流中的景深数据流;
可选的,确定所述视频拍摄过程中的焦距信息以及景深信息,其中,所述焦距信息包括当前的对焦对象的焦距信息,所述景深信息包括所述视频图像数据流中的各个拍摄对象对应的各自的景深信息,也即,确定的对象包括视频范围内的所有对象,或者所有的可能为主体的对象。
本实施例的有益效果在于,通过实时解析所述视频图像数据流;然后,确定所述视频拍摄过程中的焦距信息以及景深信息,其中,所述焦距信息包括当前的对焦对象的焦距信息,所述景深信息包括所述视频图像数据流中的各个拍摄对象对应的各自的景深信息。实现了一种更为人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例五
图10是本发明视频拍摄过程中的景深控制方法第五实施例的流程图,基于上述实施例,所述实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面,还包括:
S23、实时感测所述视频图像数据流中的景深变化状态;
S24、若所述景深变化状态超过预设值,则确定变化后的图像帧为所述关键帧,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面。
在本实施例中,首先,实时感测所述视频图像数据流中的景深变化状态;然后,若所述景深变化状态超过预设值,则确定变化后的图像帧为所述关键帧,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面。
可选的,根据穿戴设备景深摄像头获取的景深数据流,实时感测所述视频图像数据流中的景深变化状态;
可选的,确定目标对象或者预设对象的预设景深变化幅值,作为本实施例的预设值,然后,监测景深变化状态,若所述景深变化状态超过预设值,则确定变化后的图像帧为所述关键帧,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面。
本实施例的有益效果在于,通过实时感测所述视频图像数据流中的景深变化状态;然后,若所述景深变化状态超过预设值,则确定变化后的图像帧为所述关键帧,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面。实现了一种更为人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例六
图11是本发明视频拍摄过程中的景深控制方法第六实施例的流程图,基于上述实施例,所述在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面,包括:
S31、在所述视频预览区域内,沿所述穿戴设备的长度方向确定所述视频预览区域的两个相对边缘;
S32、分别以所述两个相对边缘作为划分起始边缘,沿所述穿戴设备的长度方向延伸预设长度作为所述关联区域的显示范围。
在本实施例中,首先,在所述视频预览区域内,沿所述穿戴设备的长度方向确定所述视频预览区域的两个相对边缘;然后,分别以所述两个相对边缘作为划分起始边缘,沿所述穿戴设备的长度方向延伸预设长度作为所述关联区域的显示范围。
可选的,在所述视频预览区域内,沿所述穿戴设备的长度方向确定所述视频预览区域的两个相对边缘,可以理解的是,为了便于用户区分不同的景深,两个相对边缘所划分的区域分别用于显示浅景深和深景深;
可选的,分别以所述两个相对边缘作为划分起始边缘,沿所述穿戴设备的长度方向延伸预设长度作为所述关联区域的显示范围,该预设长度将跟随景深对象的增多而增长。
本实施例的有益效果在于,通过在所述视频预览区域内,沿所述穿戴设备的长度方向确定所述视频预览区域的两个相对边缘;然后,分别以所述两个相对边缘作为划分起始边缘,沿所述穿戴设备的长度方向延伸预设长度作为所述关联区域的显示范围。实现了一种更为人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例七
图12是本发明视频拍摄过程中的景深控制方法第七实施例的流程图,基于上述实施例,所述在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面,包括:
S33、在所述关联区域的显示范围内,确定景深画面的数量;
S34、结合所述景深画面的数量,将所述显示范围划分为多个折叠单元。
在本实施例中,首先,在所述关联区域的显示范围内,确定景深画面的数量;然后,结合所述景深画面的数量,将所述显示范围划分为多个折叠单元。
可选的,在所述关联区域的显示范围内,确定景深画面的数量,或者,确定景深对象对应的景深画面的数量;
可选的,结合所述景深画面的数量,将所述显示范围划分为多个折叠单元,根据景深画面的数量确定该折叠的密度,从而保持关联区域的范围在较小的区间范围内。
本实施例的有益效果在于,通过在所述关联区域的显示范围内,确定景深画面的数量;然后,结合所述景深画面的数量,将所述显示范围划分为多个折叠单元。实现了一种更为人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例八
图13是本发明视频拍摄过程中的景深控制方法第八实施例的流程图,基于上述实施例,所述在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象,包括:
S41、在所述视频关联区域的边缘获取选取信号,确定与所述选取信号对应的景深对象;
S42、在选取后的视频拍摄过程中,监测所述视频图像数据流中是否存在所述目标景深对象,若是,则将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
在本实施例中,首先,在所述视频关联区域的边缘获取选取信号,确定与所述选取信号对应的景深对象;然后,在选取后的视频拍摄过程中,监测所述视频图像数据流中是否存在所述目标景深对象,若是,则将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
可选的,在所述视频关联区域的边缘获取选取信号,确定与所述选取信号对应的景深对象,其中,选取信号包括折叠区域的滑动信号,根据滑动信号的覆盖区域展开该区域内的景深对象;
可选的,在选取后的视频拍摄过程中,监测所述视频图像数据流中是否存在所述目标景深对象,若是,则将所述目标景深对象作为所述视频拍摄过程中的追焦对象,可以理解的是,在本实施例中,在拍摄过程中,实时监测拍摄对象,若该拍摄对象的景深已被用户选定过,则当期出现于画面内时,则以将焦点置于其所在的位置。
本实施例的有益效果在于,通过在所述视频关联区域的边缘获取选取信号,确定与所述选取信号对应的景深对象;然后,在选取后的视频拍摄过程中,监测所述视频图像数据流中是否存在所述目标景深对象,若是,则将所述目标景深对象作为所述视频拍摄过程中的追焦对象。实现了一种更为人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例九
基于上述实施例,本发明还提出了一种视频拍摄过程中的景深控制设备,该设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如上述任一项所述的方法的步骤。
具体的,在本实施例中,首先,获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;然后,实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;再然后,在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;最后,在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
由于在现有技术中,特别是在穿戴设备上进行拍摄预览时,由于穿戴设备的显示区域较为狭窄,而又因为拍摄预览区域具有特定的长宽比例,因此,其拍摄预览在穿戴设备的显示区域内,即使有较宽的横向显示空间,但由于纵向显示空间的不足,同样造成拍摄预览较为狭小,用户在拍摄预览过程中,实时获取当前拍摄预览图像中的景深信息,同时,获取该穿戴状态下的可视区域,在此可视区域内重叠、或交错重叠显示多个景深页面,其中,各个景深页面显示上述拍摄预览图中,根据不同的景深信息得到的景深对象,同时,获取该景深页面的滑动信号,根据该滑动信号浏览待选定的景深对象,然后,根据相应的拖拽操作将其中之一的景深对象作为目标景深对象。从而实现了一种较为便捷的景深对象交互操作方案,使得用户在拍摄时,充分利用穿戴设备的显示空间,较为便捷地进行景深对象交互操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
本实施例的有益效果在于,通过获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;然后,实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;再然后,在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;最后,在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。实现了一种人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
实施例十
基于上述实施例,本发明还提出了一种计算机可读存储介质,该计算机可读存储介质上存储有位图处理程序,位图处理程序被处理器执行时实现如上述任一项所述的位图处理方法的步骤。
实施本发明的位图处理方法、设备及计算机可读存储介质,通过获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;然后,实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;再然后,在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;最后,在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。实现了一种人性化的视频拍摄过程中的景深控制方案,使得用户在使用穿戴设备进行拍摄时,即可在穿戴设备上对拍摄的景深进行实时调控,避免了切换操作的不便,提高了操作效率,增强了用户体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种视频拍摄过程中的景深控制方法,其特征在于,所述方法包括:
获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像;
实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面;
在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面;
在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
2.根据权利要求1所述的视频拍摄过程中的景深控制方法,其特征在于,所述获取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像,包括:
在所述视频拍摄过程中,实时获取所述视频图像数据流;
根据所述视频图像数据流以及预设的显示比例,生成所述预览图像。
3.根据权利要求2所述的视频拍摄过程中的景深控制方法,其特征在于,所述取视频拍摄过程中的视频图像数据流,同时,在穿戴设备的显示区域内划分视频预览区域,在所述视频预览区域内显示与所述视频图像数据流对应的预览图像,还包括:
结合所述预设的显示比例,在所述穿戴设备的显示区域内划分视频预览区域;
在所述视频预览区域内实时显示所述预览图像。
4.根据权利要求3所述的视频拍摄过程中的景深控制方法,其特征在于,所述实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面,包括:
实时解析所述视频图像数据流;
确定所述视频拍摄过程中的焦距信息以及景深信息,其中,所述焦距信息包括当前的对焦对象的焦距信息,所述景深信息包括所述视频图像数据流中的各个拍摄对象对应的各自的景深信息。
5.根据权利要求4所述的视频拍摄过程中的景深控制方法,其特征在于,所述实时解析所述视频图像数据流,确定所述视频拍摄过程中的焦距信息以及景深信息,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面,还包括:
实时感测所述视频图像数据流中的景深变化状态;
若所述景深变化状态超过预设值,则确定变化后的图像帧为所述关键帧,同时,结合所述焦距信息以及所述景深信息,在所述视频图像数据流提取关键帧的景深画面。
6.根据权利要求5所述的视频拍摄过程中的景深控制方法,其特征在于,所述在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面,包括:
在所述视频预览区域内,沿所述穿戴设备的长度方向确定所述视频预览区域的两个相对边缘;
分别以所述两个相对边缘作为划分起始边缘,沿所述穿戴设备的长度方向延伸预设长度作为所述关联区域的显示范围。
7.根据权利要求6所述的视频拍摄过程中的景深控制方法,其特征在于,所述在所述视频预览区域的相邻区域内划分视频关联区域,在所述视频关联区域内折叠显示多张所述关键帧的景深画面,包括:
在所述关联区域的显示范围内,确定景深画面的数量;
结合所述景深画面的数量,将所述显示范围划分为多个折叠单元。
8.根据权利要求7所述的视频拍摄过程中的景深控制方法,其特征在于,所述在所述视频关联区域的景深画面中选取目标景深对象,并在选取后的视频拍摄过程中,将所述目标景深对象作为所述视频拍摄过程中的追焦对象,包括:
在所述视频关联区域的边缘获取选取信号,确定与所述选取信号对应的景深对象;
在选取后的视频拍摄过程中,监测所述视频图像数据流中是否存在所述目标景深对象,若是,则将所述目标景深对象作为所述视频拍摄过程中的追焦对象。
9.一种视频拍摄过程中的景深控制设备,其特征在于,所述设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有视频拍摄过程中的景深控制程序,所述视频拍摄过程中的景深控制程序被处理器执行时实现如权利要求1至8中任一项所述的视频拍摄过程中的景深控制方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910473344.7A CN110198411B (zh) | 2019-05-31 | 2019-05-31 | 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910473344.7A CN110198411B (zh) | 2019-05-31 | 2019-05-31 | 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110198411A true CN110198411A (zh) | 2019-09-03 |
CN110198411B CN110198411B (zh) | 2021-11-02 |
Family
ID=67753827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910473344.7A Active CN110198411B (zh) | 2019-05-31 | 2019-05-31 | 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110198411B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113141447A (zh) * | 2020-03-04 | 2021-07-20 | 电子科技大学 | 全景深图像采集方法、合成方法、装置、设备及存储介质 |
CN113676592A (zh) * | 2021-08-02 | 2021-11-19 | Oppo广东移动通信有限公司 | 录音方法、装置、电子设备及计算机可读介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060165402A1 (en) * | 2005-01-24 | 2006-07-27 | Canon Kabushiki Kaisha | Imaging apparatus, imaging method, imaging program, and storing medium |
CN101794056A (zh) * | 2010-02-05 | 2010-08-04 | 明基电通有限公司 | 摄影设定控制方法及摄影装置 |
CN102368824A (zh) * | 2011-09-16 | 2012-03-07 | 清华大学 | 视频立体转换方法 |
CN105141840A (zh) * | 2015-08-24 | 2015-12-09 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN105933613A (zh) * | 2016-06-28 | 2016-09-07 | 广东欧珀移动通信有限公司 | 一种图像处理的方法、装置及移动终端 |
CN106527886A (zh) * | 2016-09-30 | 2017-03-22 | 北京小米移动软件有限公司 | 图片显示方法及装置 |
US20170094245A1 (en) * | 2015-09-24 | 2017-03-30 | Intel Corporation | Drift correction for camera tracking |
CN106855677A (zh) * | 2015-12-09 | 2017-06-16 | 由田新技股份有限公司 | 动态式自动追焦系统 |
CN107357500A (zh) * | 2017-06-21 | 2017-11-17 | 努比亚技术有限公司 | 一种图片调整方法、终端及存储介质 |
CN107888829A (zh) * | 2017-11-23 | 2018-04-06 | 努比亚技术有限公司 | 移动终端的对焦方法、移动终端及存储介质 |
CN108196783A (zh) * | 2018-01-31 | 2018-06-22 | 努比亚技术有限公司 | 拍摄参数调节方法、移动终端及计算机可读存储介质 |
CN108898617A (zh) * | 2018-05-24 | 2018-11-27 | 宇龙计算机通信科技(深圳)有限公司 | 一种目标对象的跟踪方法和装置 |
WO2019039870A1 (ko) * | 2017-08-22 | 2019-02-28 | 삼성전자 주식회사 | 이미지의 표시 효과를 제어할 수 있는 전자 장치 및 영상 표시 방법 |
CN109697444A (zh) * | 2017-10-20 | 2019-04-30 | 中国移动通信有限公司研究院 | 基于深度图像的对象识别方法及装置、设备、存储介质 |
US20190132495A1 (en) * | 2017-11-01 | 2019-05-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image processing method, and device |
CN109799912A (zh) * | 2019-02-25 | 2019-05-24 | 努比亚技术有限公司 | 一种显示控制方法、设备及计算机可读存储介质 |
-
2019
- 2019-05-31 CN CN201910473344.7A patent/CN110198411B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060165402A1 (en) * | 2005-01-24 | 2006-07-27 | Canon Kabushiki Kaisha | Imaging apparatus, imaging method, imaging program, and storing medium |
CN101794056A (zh) * | 2010-02-05 | 2010-08-04 | 明基电通有限公司 | 摄影设定控制方法及摄影装置 |
CN102368824A (zh) * | 2011-09-16 | 2012-03-07 | 清华大学 | 视频立体转换方法 |
CN105141840A (zh) * | 2015-08-24 | 2015-12-09 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
US20170094245A1 (en) * | 2015-09-24 | 2017-03-30 | Intel Corporation | Drift correction for camera tracking |
CN106855677A (zh) * | 2015-12-09 | 2017-06-16 | 由田新技股份有限公司 | 动态式自动追焦系统 |
CN105933613A (zh) * | 2016-06-28 | 2016-09-07 | 广东欧珀移动通信有限公司 | 一种图像处理的方法、装置及移动终端 |
CN106527886A (zh) * | 2016-09-30 | 2017-03-22 | 北京小米移动软件有限公司 | 图片显示方法及装置 |
CN107357500A (zh) * | 2017-06-21 | 2017-11-17 | 努比亚技术有限公司 | 一种图片调整方法、终端及存储介质 |
WO2019039870A1 (ko) * | 2017-08-22 | 2019-02-28 | 삼성전자 주식회사 | 이미지의 표시 효과를 제어할 수 있는 전자 장치 및 영상 표시 방법 |
CN109697444A (zh) * | 2017-10-20 | 2019-04-30 | 中国移动通信有限公司研究院 | 基于深度图像的对象识别方法及装置、设备、存储介质 |
US20190132495A1 (en) * | 2017-11-01 | 2019-05-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image processing method, and device |
CN107888829A (zh) * | 2017-11-23 | 2018-04-06 | 努比亚技术有限公司 | 移动终端的对焦方法、移动终端及存储介质 |
CN108196783A (zh) * | 2018-01-31 | 2018-06-22 | 努比亚技术有限公司 | 拍摄参数调节方法、移动终端及计算机可读存储介质 |
CN108898617A (zh) * | 2018-05-24 | 2018-11-27 | 宇龙计算机通信科技(深圳)有限公司 | 一种目标对象的跟踪方法和装置 |
CN109799912A (zh) * | 2019-02-25 | 2019-05-24 | 努比亚技术有限公司 | 一种显示控制方法、设备及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
魏新警: "浅谈数码单反相机的运动跟焦", 《现代电影技术》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113141447A (zh) * | 2020-03-04 | 2021-07-20 | 电子科技大学 | 全景深图像采集方法、合成方法、装置、设备及存储介质 |
CN113141447B (zh) * | 2020-03-04 | 2022-06-03 | 电子科技大学 | 全景深图像采集方法、合成方法、装置、设备及存储介质 |
CN113676592A (zh) * | 2021-08-02 | 2021-11-19 | Oppo广东移动通信有限公司 | 录音方法、装置、电子设备及计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110198411B (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109982179A (zh) | 音频信号输出方法、装置、可穿戴设备及存储介质 | |
CN110109725A (zh) | 一种界面颜色调整方法及穿戴式设备 | |
CN110362368A (zh) | 可穿戴设备的图片定制显示方法、相关设备及存储介质 | |
CN110177209A (zh) | 一种视频参数调控方法、设备及计算机可读存储介质 | |
CN110225282A (zh) | 一种视频录制控制方法、设备及计算机可读存储介质 | |
CN110308883A (zh) | 屏幕的拆分方法、可穿戴设备及计算机可读存储介质 | |
CN110099218A (zh) | 一种拍摄过程中的交互操控方法、设备及计算机可读存储介质 | |
CN110109544A (zh) | 马达震动幅度的调整方法、可穿戴设备及可读存储介质 | |
CN110187769A (zh) | 一种预览图像查看方法、设备及计算机可读存储介质 | |
CN110069132A (zh) | 应用控制方法、智能穿戴设备及计算机可读存储介质 | |
CN110175066A (zh) | 可穿戴设备、交互控制方法以及计算机可读存储介质 | |
CN110083289A (zh) | 一种按钮显示方法、可穿戴设备和计算机可读存储介质 | |
CN110198411A (zh) | 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质 | |
CN110113529A (zh) | 一种拍摄参数调控方法、设备及计算机可读存储介质 | |
CN110177208A (zh) | 一种视频录制的关联控制方法、设备及计算机可读存储介质 | |
CN110072071A (zh) | 一种视频录制交互控制方法、设备及计算机可读存储介质 | |
CN110086563A (zh) | 一种旋转控制方法、设备及计算机可读存储介质 | |
CN110175259A (zh) | 图片显示方法、可穿戴设备及计算机可读存储介质 | |
CN110086929A (zh) | 息屏显示方法、手机、可穿戴设备和计算机可读存储介质 | |
CN110134312A (zh) | 控制方法、可穿戴设备及计算机可读存储介质 | |
CN110049253A (zh) | 一种对焦控制方法、设备及计算机可读存储介质 | |
CN110049248A (zh) | 一种拍摄对象调控方法、设备及计算机可读存储介质 | |
CN110187770A (zh) | 一种腕带声控交互方法、设备及计算机可读存储介质 | |
CN110134304A (zh) | 一种折叠显示方法、设备及计算机可读存储介质 | |
CN110109605A (zh) | 一种图像分享方法、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |