CN110099218A - 一种拍摄过程中的交互操控方法、设备及计算机可读存储介质 - Google Patents
一种拍摄过程中的交互操控方法、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110099218A CN110099218A CN201910472343.0A CN201910472343A CN110099218A CN 110099218 A CN110099218 A CN 110099218A CN 201910472343 A CN201910472343 A CN 201910472343A CN 110099218 A CN110099218 A CN 110099218A
- Authority
- CN
- China
- Prior art keywords
- video
- preview
- display
- video image
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种拍摄过程中的交互操控方法、设备及计算机可读存储介质,其中,该方法包括:实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;最后,若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。实现了一种人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
Description
技术领域
本申请涉及移动通信领域,尤其涉及一种拍摄过程中的交互操控方法、设备及计算机可读存储介质。
背景技术
现有技术中,随着智能终端设备的快速发展,出现了区别于常规智能手机的穿戴式设备,例如,智能手表或者智能手环等穿戴式设备。由于穿戴式设备相较于传统的智能手机,其软、硬件环境、操作方式以及操作环境等特殊性,若将传统的智能手机的操控方案转用至穿戴式设备,则可能会给用户的操作带来不便之处、用户体验不佳。
发明内容
为了解决现有技术中的上述技术缺陷,本发明提出了一种拍摄过程中的交互操控方法,该方法包括:
获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;
根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;
实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;
若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。
可选的,所述获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态,包括:
通过所述穿戴设备的运动传感组件获取所述运动状态;
结合所述穿戴设备的显示屏位置以及所述运动状态,确定所述穿戴设备的显示状态,其中,所述显示状态包括显示区域以及显示方位。
可选的,所述根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象,包括:
根据所述运动状态确定当前的视线范围;
在所述视线范围内,结合所述显示方位划分所述显示区域,得到所述视频预览区域。
可选的,所述根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象,还包括:
确定所述视频预览区域的区域范围,在所述区域范围的两侧划分所述显示区域,得到第一视频关联区域和第二视频关联区域;
在所述第一视频关联区域内实时显示第一预览对象,以及,在所述第二视频关联区域内实时显示第二预览对象。
可选的,所述实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例,包括:
实时监测所述视频图像,识别并跟踪所述预览对象;
在所述视频预览区域内标记所述预览对象。
可选的,所述实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例,还包括:
若所述预览对象是处于所述视频图像范围内,则将所述预览对象实时复制显示于所述视频关联区域;
识别所述预览对象相较于所述视频图像范围的显示比例。
可选的,所述若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值,包括:
对所述预览对象进行属性分类;
根据所述属性分类,设置所述预览对象所属的属性类别,相较于所述视频图像范围的预设比利值类别。
可选的,所述若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值,还包括:
在所述关联区域内选择所述预览对象作为目标焦距对象;
实时调整拍摄过程中的对焦区域,使得所述对焦区域包含所述目标焦距对象所在的区域。
本发明还提出了一种拍摄过程中的交互操控设备,该设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如上述任一项所述的方法的步骤。
本发明还提出了一种计算机可读存储介质,该计算机可读存储介质上存储有拍摄过程中的交互操控程序,所述拍摄过程中的交互操控程序被处理器执行时实现如上述任一项所述的拍摄过程中的交互操控方法的步骤。
本发明的有益效果在于,通过获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;然后,根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;再然后,实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;最后,若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。实现了一种人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的可穿戴设备一种实施方式的硬件结构示意图;
图2为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图3为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图4为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图5为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图6是本发明拍摄过程中的交互操控方法第一实施例的流程图;
图7是本发明拍摄过程中的交互操控方法第二实施例的流程图;
图8是本发明拍摄过程中的交互操控方法第三实施例的流程图;
图9是本发明拍摄过程中的交互操控方法第四实施例的流程图;
图10是本发明拍摄过程中的交互操控方法第五实施例的流程图;
图11是本发明拍摄过程中的交互操控方法第六实施例的流程图;
图12是本发明拍摄过程中的交互操控方法第七实施例的流程图;
图13是本发明拍摄过程中的交互操控方法第八实施例的流程图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
本发明实施例中提供的可穿戴设备包括智能手环、智能手表、以及智能手机等移动终端。随着屏幕技术的不断发展,柔性屏、折叠屏等屏幕形态的出现,智能手机等移动终端也可以作为可穿戴设备。本发明实施例中提供的可穿戴设备可以包括:RF(RadioFrequency,射频)单元、WiFi模块、音频输出单元、A/V(音频/视频)输入单元、传感器、显示单元、用户输入单元、接口单元、存储器、处理器、以及电源等部件。
后续描述中将以可穿戴设备为例进行说明,请参阅图1,其为实现本发明各个实施例的一种可穿戴设备的硬件结构示意图,该可穿戴设备100可以包括:RF(RadioFrequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的可穿戴设备结构并不构成对可穿戴设备的限定,可穿戴设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对可穿戴设备的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,射频单元101可以将上行信息发送给基站,另外也可以将基站发送的下行信息接收后,发送给可穿戴设备的处理器110处理,基站向射频单元101发送的下行信息可以是根据射频单元101发送的上行信息生成的,也可以是在检测到可穿戴设备的信息更新后主动向射频单元101推送的,例如,在检测到可穿戴设备所处的地理位置发生变化后,基站可以向可穿戴设备的射频单元101发送地理位置变化的消息通知,射频单元101在接收到该消息通知后,可以将该消息通知发送给可穿戴设备的处理器110处理,可穿戴设备的处理器110可以控制该消息通知显示在可穿戴设备的显示面板1061上;通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信,具体的可以包括:通过无线通信与网络系统中的服务器通信,例如,可穿戴设备可以通过无线通信从服务器中下载文件资源,比如可以从服务器中下载应用程序,在可穿戴设备将某一应用程序下载完成之后,若服务器中该应用程序对应的文件资源更新,则该服务器可以通过无线通信向可穿戴设备推送资源更新的消息通知,以提醒用户对该应用程序进行更新。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(GeneralPacket Radio Service,通用分组无线服务)、CDMA2000(Code Division MultipleAccess2000,码分多址2000)、WCDMA(Wideband Code Division Multiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous Code Division Multiple Access,时分同步码分多址)、FDD-LTE(Frequency Division Duplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time Division Duplexing-Long Term Evolution,分时双工长期演进)等。
在一种实施方式中,可穿戴设备100可以通过插入SIM卡来接入现有的通信网络。
在另一种实施方式中,可穿戴设备100可以通过设置esim卡(Embedded-SIM),来实现接入现有的通信网络,采用esim卡的方式,可以节省可穿戴设备的内部空间,降低厚度。
可以理解的是,虽然图1示出了射频单元101,但是可以理解的是,射频单元101其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。,可穿戴设备100可以单独通过wifi模块102来实现与其他设备或通信网络的通信连接,本发明实施例并不以此为限。
WiFi属于短距离无线传输技术,可穿戴设备通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在可穿戴设备100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与可穿戴设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
在一种实施方式中,可穿戴设备100包括有一个或多个摄像头,通过开启摄像头,能够实现对图像的捕获,实现拍照、录像等功能,摄像头的位置可以根据需要进行设置。
可穿戴设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在可穿戴设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等。
在一种实施方式中,可穿戴设备100还包括接近传感器,通过采用接近传感器,可穿戴设备能够实现非接触操控,提供更多的操作方式。
在一种实施方式中,可穿戴设备100还包括心率传感器,在佩戴时,通过贴近使用者,能够实现心率的侦测。
在一种实施方式中,可穿戴设备100还可以包括指纹传感器,通过读取指纹,能够实现安全验证等功能。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
在一种实施方式中,显示面板1061采用柔性显示屏,采用柔性显示屏的可穿戴设备在佩戴时,屏幕能够进行弯曲,从而更加贴合。可选的,所述柔性显示屏可以采用OLED屏体以及石墨烯屏体,在其他实施方式中,所述柔性显示屏也可以是其他显示材料,本实施例并不以此为限。
在一种实施方式中,可穿戴设备的显示面板1061可以采取长方形,便于佩戴时环绕。在其他实施方式中,也可以采取其他方式。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与可穿戴设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
在一种实施方式中,可穿戴设备100的侧边可以设置有一个或多个按钮。按钮可以实现短按、长按、旋转等多种方式,从而实现多种操作效果。按钮的数量可以为多个,不同的按钮之间可以组合使用,实现多种操作功能。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现可穿戴设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现可穿戴设备的输入和输出功能,具体此处不做限定。比如,当通过射频单元101接收到某一应用程序的消息通知时,处理器110可以控制将该消息通知显示在显示面板1061的某一预设区域内,该预设区域与触控面板1071的某一区域对应,通过对触控面板1071某一区域进行触控操作,可以对显示面板1061上对应区域内显示的消息通知进行控制。
接口单元108用作至少一个外部装置与可穿戴设备100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到可穿戴设备100内的一个或多个元件或者可以用于在可穿戴设备100和外部装置之间传输数据。
在一种实施方式中,可穿戴设备100的接口单元108采用触点的结构,通过触点与对应的其他设备连接,实现充电、连接等功能。采用触点还可以防水。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是可穿戴设备的控制中心,利用各种接口和线路连接整个可穿戴设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行可穿戴设备的各种功能和处理数据,从而对可穿戴设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
可穿戴设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,可穿戴设备100还可以包括蓝牙模块等,在此不再赘述。可穿戴设备100通过蓝牙,可以与其他终端设备连接,实现通信以及信息的交互。
请参考图2-图4,为本发明实施例提供的一种可穿戴设备一种实施方式下的结构示意图。本发明实施例中的可穿戴设备,包括柔性屏幕。在可穿戴设备展开时,柔性屏幕呈长条形;在可穿戴设备处于佩戴状态时,柔性屏幕弯曲呈环状。图2及图3示出了可穿戴设备屏幕展开时的结构示意图,图4示出了可穿戴设备屏幕弯曲时的结构示意图。
基于上述各个实施方式,可以看到,若所述设备为手表、手环或者可穿戴式设备时,所述设备的屏幕可以不覆盖设备的表带区域,也可以覆盖设备的表带区域。在此,本申请提出一种可选的实施方式,在本实施方式中,所述设备可以为手表、手环或者可穿戴式设备,所述设备包括屏幕以及连接部。所述屏幕可以为柔性屏幕,所述连接部可以为表带。可选的,所述设备的屏幕或者屏幕的显示区可以部分或者全部的覆盖在设备的表带上。如图5所示,图5为本申请实施例提供的一种可穿戴设备一种实施方式的硬件示意图,所述设备的屏幕向两侧延伸,部分的覆盖在设备的表带上。在其他实施方式中,所述设备的屏幕也可以全部覆盖在所述设备的表带上,本申请实施例并不以此为限。
实施例一
图6是本发明拍摄过程中的交互操控方法第一实施例的流程图。一种拍摄过程中的交互操控方法,该方法包括:
S1、获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;
S2、根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;
S3、实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;
S4、若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。
在本实施例中,首先,获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;然后,根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;再然后,实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;最后,若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。
考虑到在现有技术中,特别是在穿戴设备上进行拍摄预览时,由于穿戴设备的显示区域较为狭窄,而又因为视频录制预览区域具有特定的长宽比例,因此,其视频录制预览区域在穿戴设备的显示区域内,即使有较宽的横向显示空间,但由于纵向显示空间的不足,同样造成视频录制预览区域较为狭小,用户在视频录制预览过程中,在视频录制预览区域的其它并排区域内,实时显示并更新录制过程中的拍摄对象的单独显示区域,具体的,在视频拍摄过程中,由于预览区域较小,无法准确、清晰地获取待拍摄对象的录制效果,在本方案中,通过在拍摄预览区域内点击并选定拍摄对象后,将此拍摄对象作为目标的跟踪区域,将此跟踪区域显示于录制预览区域的关联区域,同时予以放大实时更新显示,可以理解的是,此时,穿戴设备仍然处于视频录制状态,穿戴设备的视频录制区域和多个关联区域同时实时显示视频预览,对多个关联区域进行移动和排序,确定处于前排的关联区域,将处于前排的关联区域内对应的拍摄对象作为主焦对象。从而实现了一种较为便捷的视频录制交互操作方案,使得用户在录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
本实施例的有益效果在于,通过获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;然后,根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;再然后,实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;最后,若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。实现了一种人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例二
图7是本发明拍摄过程中的交互操控方法第二实施例的流程图,基于上述实施例,所述获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态,包括:
S11、通过所述穿戴设备的运动传感组件获取所述运动状态;
S12、结合所述穿戴设备的显示屏位置以及所述运动状态,确定所述穿戴设备的显示状态,其中,所述显示状态包括显示区域以及显示方位。
在本实施例中,首先,通过所述穿戴设备的运动传感组件获取所述运动状态;然后,结合所述穿戴设备的显示屏位置以及所述运动状态,确定所述穿戴设备的显示状态,其中,所述显示状态包括显示区域以及显示方位。
可选的,当处于视频录制状态时,实时通过所述穿戴设备的运动传感组件获取所述运动状态;
可选的,为了避免视频录制过程中,穿戴设备调整录制方位造成用户不便于查看当前的预览图像,在本实施例中,将结合所述穿戴设备的显示屏位置以及所述运动状态,确定所述穿戴设备的显示状态,其中,所述显示状态包括显示区域以及显示方位。
本实施例的有益效果在于,通过通过所述穿戴设备的运动传感组件获取所述运动状态;然后,结合所述穿戴设备的显示屏位置以及所述运动状态,确定所述穿戴设备的显示状态,其中,所述显示状态包括显示区域以及显示方位。实现了一种更为人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例三
图8是本发明拍摄过程中的交互操控方法第三实施例的流程图,基于上述实施例,所述根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象,包括:
S21、根据所述运动状态确定当前的视线范围;
S22、在所述视线范围内,结合所述显示方位划分所述显示区域,得到所述视频预览区域。
在本实施例中,首先,根据所述运动状态确定当前的视线范围;然后,在所述视线范围内,结合所述显示方位划分所述显示区域,得到所述视频预览区域。
可选的,根据所述运动状态确定当前的视线范围,其中,所述视线范围可进一步确定为与拍摄方位相对于的视线方位下,对应于显示区域的视线范围,由此,确定更为准确的视线范围;
可选的,在所述视线范围内,结合所述显示方位划分所述显示区域,得到所述视频预览区域,同样的,如上例所述,显示方位与当前的视线方位处于同一方位,从而便于用户查看划分得到的视频预览区域。
本实施例的有益效果在于,通过所述运动状态确定当前的视线范围;然后,在所述视线范围内,结合所述显示方位划分所述显示区域,得到所述视频预览区域。实现了一种更为人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例四
图9是本发明拍摄过程中的交互操控方法第四实施例的流程图,基于上述实施例,所述根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象,还包括:
S23、确定所述视频预览区域的区域范围,在所述区域范围的两侧划分所述显示区域,得到第一视频关联区域和第二视频关联区域;
S24、在所述第一视频关联区域内实时显示第一预览对象,以及,在所述第二视频关联区域内实时显示第二预览对象。
在本实施例中,首先,确定所述视频预览区域的区域范围,在所述区域范围的两侧划分所述显示区域,得到第一视频关联区域和第二视频关联区域;然后,在所述第一视频关联区域内实时显示第一预览对象,以及,在所述第二视频关联区域内实时显示第二预览对象。
可选的,确定所述视频预览区域的区域范围,在所述区域范围的两侧划分所述显示区域,得到第一视频关联区域和第二视频关联区域,其中,第一视频关联区域和第二视频关联区域分别用于显示不同类别的预览对象;
可选的,在所述第一视频关联区域内实时显示第一预览对象,以及,在所述第二视频关联区域内实时显示第二预览对象,例如,将预览对象分为拍摄主体预览对象以及拍摄背景预览对象,或者,提取两个拍摄主体预览对象,分别置于上述第一视频关联区域和第二视频关联区域。
本实施例的有益效果在于,通过确定所述视频预览区域的区域范围,在所述区域范围的两侧划分所述显示区域,得到第一视频关联区域和第二视频关联区域;然后,在所述第一视频关联区域内实时显示第一预览对象,以及,在所述第二视频关联区域内实时显示第二预览对象。实现了一种更为人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例五
图10是本发明拍摄过程中的交互操控方法第五实施例的流程图,基于上述实施例,所述实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例,包括:
S31、实时监测所述视频图像,识别并跟踪所述预览对象;
S32、在所述视频预览区域内标记所述预览对象。
在本实施例中,首先,实时监测所述视频图像,识别并跟踪所述预览对象;然后,在所述视频预览区域内标记所述预览对象。
可选的,提取预览对象的对象特征,例如,该对象为人物时,识别该人物的面部特征,实时监测所述视频图像,通过该预览对象的对象特征识别并跟踪所述预览对象;
可选的,在所述视频预览区域内标记所述预览对象,其中,为了便于提醒用户当前的预览对象已被复制到关联区域,在本实施例中,将通过对象标记的方式,在所述视频预览区域内标记所述预览对象,其中,对象标记的方式包括标记该对象的对象中心点,以及标记该对象的对象轮廓。
本实施例的有益效果在于,通过实时监测所述视频图像,识别并跟踪所述预览对象;然后,在所述视频预览区域内标记所述预览对象。实现了一种更为人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例六
图11是本发明拍摄过程中的交互操控方法第六实施例的流程图,基于上述实施例,所述实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例,还包括:
S33、若所述预览对象是处于所述视频图像范围内,则将所述预览对象实时复制显示于所述视频关联区域;
S34、识别所述预览对象相较于所述视频图像范围的显示比例。
在本实施例中,首先,若所述预览对象是处于所述视频图像范围内,则将所述预览对象实时复制显示于所述视频关联区域;然后,识别所述预览对象相较于所述视频图像范围的显示比例。
可选的,若所述预览对象是处于所述视频图像范围内,则将所述预览对象实时复制显示于所述视频关联区域,可以理解的是,为了便于用户实时跟踪预览对象,在本实施例中,将划分视频关联区域,该视频关联区域与视频预览区域并排显示,从而使得用户在录制过程中,持续监测预览对象,而无需凭记忆回顾此前视频录制过程中出现的该预览对象;
可选的,识别所述预览对象相较于所述视频图像范围的显示比例,其中,可以理解的是,当在视频录制过程中出现该预览对象后,即将其复制显示于视频关联区域,而若当该预览对象消失于后续的视频图像范围时,在该视频关联区域内仍然保留最后时刻的预览对象。
本实施例的有益效果在于,通过判断若所述预览对象是处于所述视频图像范围内,则将所述预览对象实时复制显示于所述视频关联区域;然后,识别所述预览对象相较于所述视频图像范围的显示比例。实现了一种更为人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例七
图12是本发明拍摄过程中的交互操控方法第七实施例的流程图,基于上述实施例,所述若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值,包括:
S41、对所述预览对象进行属性分类;
S42、根据所述属性分类,设置所述预览对象所属的属性类别,相较于所述视频图像范围的预设比利值类别。
在本实施例中,首先,对所述预览对象进行属性分类;然后,根据所述属性分类,设置所述预览对象所属的属性类别,相较于所述视频图像范围的预设比利值类别。
可选的,对所述预览对象进行属性分类,例如,按其色彩进行分类,分为冷色调预览对象以及暖色调预览对象,又例如,按其形态进行分类,或者按其在画面内的运动状态进行分类等;
可选的,根据所述属性分类,设置所述预览对象所属的属性类别,相较于所述视频图像范围的预设比利值类别,可以理解的时,当按预览对象在画面内的运动状态进行分类时,若运动的幅度或频率较大,则对应的,设置较高的预设比例值,反之,则设置较低的预设比利值,从而避免预览对象的运动幅度过程或者频率较高而造成看不清楚的情况发生。
本实施例的有益效果在于,通过对所述预览对象进行属性分类;然后,根据所述属性分类,设置所述预览对象所属的属性类别,相较于所述视频图像范围的预设比利值类别。实现了一种更为人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例八
图13是本发明拍摄过程中的交互操控方法第八实施例的流程图,基于上述实施例,所述若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值,还包括:
S43、在所述关联区域内选择所述预览对象作为目标焦距对象;
S44、实时调整拍摄过程中的对焦区域,使得所述对焦区域包含所述目标焦距对象所在的区域。
在本实施例中,首先,在所述关联区域内选择所述预览对象作为目标焦距对象;然后,实时调整拍摄过程中的对焦区域,使得所述对焦区域包含所述目标焦距对象所在的区域。
可选的,在所述关联区域内选择所述预览对象作为目标焦距对象,可以理解的是,在关联区域内显示一个或多个预览对象,上述一个或多个预览对象可能并不存在于当前的视频录制进度中,而在本实施例中,通过选取目标焦距对象,也即,当在视频录制进度中,重新出现该预览对象时,将其作为对焦区域;
可选的,实时调整拍摄过程中的对焦区域,使得所述对焦区域包含所述目标焦距对象所在的区域,可以理解的是,当在视频录制进度中,重新出现该预览对象时,该预览对象所占据的区域可能发生比例上的变化,因此,在本实施例中,将该视频录制过程中的预览对象作为对焦区域。
本实施例的有益效果在于,通过在所述关联区域内选择所述预览对象作为目标焦距对象;然后,实时调整拍摄过程中的对焦区域,使得所述对焦区域包含所述目标焦距对象所在的区域。实现了一种更为人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例九
基于上述实施例,本发明还提出了一种拍摄过程中的交互操控设备,该设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如上述任一项所述的方法的步骤。
具体的,在本实施例中,首先,获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;然后,根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;再然后,实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;最后,若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。
考虑到在现有技术中,特别是在穿戴设备上进行拍摄预览时,由于穿戴设备的显示区域较为狭窄,而又因为视频录制预览区域具有特定的长宽比例,因此,其视频录制预览区域在穿戴设备的显示区域内,即使有较宽的横向显示空间,但由于纵向显示空间的不足,同样造成视频录制预览区域较为狭小,用户在视频录制预览过程中,在视频录制预览区域的其它并排区域内,实时显示并更新录制过程中的拍摄对象的单独显示区域,具体的,在视频拍摄过程中,由于预览区域较小,无法准确、清晰地获取待拍摄对象的录制效果,在本方案中,通过在拍摄预览区域内点击并选定拍摄对象后,将此拍摄对象作为目标的跟踪区域,将此跟踪区域显示于录制预览区域的关联区域,同时予以放大实时更新显示,可以理解的是,此时,穿戴设备仍然处于视频录制状态,穿戴设备的视频录制区域和多个关联区域同时实时显示视频预览,对多个关联区域进行移动和排序,确定处于前排的关联区域,将处于前排的关联区域内对应的拍摄对象作为主焦对象。从而实现了一种较为便捷的视频录制交互操作方案,使得用户在录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
本实施例的有益效果在于,通过获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;然后,根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;再然后,实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;最后,若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。实现了一种人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
实施例十
基于上述实施例,本发明还提出了一种计算机可读存储介质,该计算机可读存储介质上存储有位图处理程序,位图处理程序被处理器执行时实现如上述任一项所述的位图处理方法的步骤。
实施本发明的位图处理方法、设备及计算机可读存储介质,通过获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;然后,根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;再然后,实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;最后,若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。实现了一种人性化的拍摄过程中的交互操控方案,使得用户在使用穿戴设备录制视频时,充分利用穿戴设备的显示空间,较为便捷地进行拍摄对象选定和切换操作,避免了在狭窄的显示区域内进行多次切换的不便,提高了操作效率,增强了用户体验。
需要说明的是,在本文中,术语“包括”、″包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句″包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种拍摄过程中的交互操控方法,其特征在于,所述方法包括:
获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态;
根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象;
实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例;
若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值。
2.根据权利要求1所述的拍摄过程中的交互操控方法,其特征在于,所述获取穿戴设备的拍摄状态,其中,所述拍摄状态包括拍摄过程中的运动状态和显示状态,包括:
通过所述穿戴设备的运动传感组件获取所述运动状态;
结合所述穿戴设备的显示屏位置以及所述运动状态,确定所述穿戴设备的显示状态,其中,所述显示状态包括显示区域以及显示方位。
3.根据权利要求2所述的拍摄过程中的交互操控方法,其特征在于,所述根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象,包括:
根据所述运动状态确定当前的视线范围;
在所述视线范围内,结合所述显示方位划分所述显示区域,得到所述视频预览区域。
4.根据权利要求3所述的拍摄过程中的交互操控方法,其特征在于,所述根据所述穿戴设备的运动状态和显示状态确定视频预览区域和视频关联区域,其中,通过所述视频预览区域实时显示当前的视频图像,通过所述视频关联区域实时显示经选取的预览对象,还包括:
确定所述视频预览区域的区域范围,在所述区域范围的两侧划分所述显示区域,得到第一视频关联区域和第二视频关联区域;
在所述第一视频关联区域内实时显示第一预览对象,以及,在所述第二视频关联区域内实时显示第二预览对象。
5.根据权利要求4所述的拍摄过程中的交互操控方法,其特征在于,所述实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例,包括:
实时监测所述视频图像,识别并跟踪所述预览对象;
在所述视频预览区域内标记所述预览对象。
6.根据权利要求5所述的拍摄过程中的交互操控方法,其特征在于,所述实时监测所述视频图像,确定所述预览对象是否处于所述视频图像范围内,以及识别所述预览对象相较于所述视频图像范围的显示比例,还包括:
若所述预览对象是处于所述视频图像范围内,则将所述预览对象实时复制显示于所述视频关联区域;
识别所述预览对象相较于所述视频图像范围的显示比例。
7.根据权利要求6所述的拍摄过程中的交互操控方法,其特征在于,所述若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值,包括:
对所述预览对象进行属性分类;
根据所述属性分类,设置所述预览对象所属的属性类别,相较于所述视频图像范围的预设比利值类别。
8.根据权利要求7所述的拍摄过程中的交互操控方法,其特征在于,所述若所述预览对象处于所述视频图像范围内,且所述预览对象相较于所述视频图像范围的显示比例小于预设比利值,则在所述视频关联区域内将所述预览对象放大至预设比利值,还包括:
在所述关联区域内选择所述预览对象作为目标焦距对象;
实时调整拍摄过程中的对焦区域,使得所述对焦区域包含所述目标焦距对象所在的区域。
9.一种拍摄过程中的交互操控设备,其特征在于,所述设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有拍摄过程中的交互操控程序,所述拍摄过程中的交互操控程序被处理器执行时实现如权利要求1至8中任一项所述的拍摄过程中的交互操控方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910472343.0A CN110099218B (zh) | 2019-05-31 | 2019-05-31 | 一种拍摄过程中的交互操控方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910472343.0A CN110099218B (zh) | 2019-05-31 | 2019-05-31 | 一种拍摄过程中的交互操控方法、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110099218A true CN110099218A (zh) | 2019-08-06 |
CN110099218B CN110099218B (zh) | 2021-12-17 |
Family
ID=67450005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910472343.0A Active CN110099218B (zh) | 2019-05-31 | 2019-05-31 | 一种拍摄过程中的交互操控方法、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110099218B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110620876A (zh) * | 2019-09-26 | 2019-12-27 | 努比亚技术有限公司 | 一种图像预览交互方法、设备及计算机可读存储介质 |
CN110620875A (zh) * | 2019-09-26 | 2019-12-27 | 努比亚技术有限公司 | 一种视频拍摄过程中的截图控制方法、设备及计算机可读存储介质 |
CN110896451A (zh) * | 2019-11-20 | 2020-03-20 | 维沃移动通信有限公司 | 预览画面显示方法及电子设备 |
CN117956063A (zh) * | 2024-03-26 | 2024-04-30 | 深圳市微克科技股份有限公司 | 一种基于智能穿戴设备的摇一摇拍照方法、系统和介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100272368A1 (en) * | 2009-04-25 | 2010-10-28 | Hon Hai Precision Industry Co., Ltd. | Image previewing system capable of automatically magnifying face portion in image and magnifying method thereof |
CN104104787A (zh) * | 2013-04-12 | 2014-10-15 | 上海果壳电子有限公司 | 拍照方法、系统及手持设备 |
CN105824492A (zh) * | 2015-09-30 | 2016-08-03 | 维沃移动通信有限公司 | 一种显示控制方法及终端 |
CN105872349A (zh) * | 2015-01-23 | 2016-08-17 | 中兴通讯股份有限公司 | 拍摄方法、拍摄装置及移动终端 |
CN109799937A (zh) * | 2019-02-25 | 2019-05-24 | 努比亚技术有限公司 | 一种输入控制方法、设备及计算机可读存储介质 |
-
2019
- 2019-05-31 CN CN201910472343.0A patent/CN110099218B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100272368A1 (en) * | 2009-04-25 | 2010-10-28 | Hon Hai Precision Industry Co., Ltd. | Image previewing system capable of automatically magnifying face portion in image and magnifying method thereof |
CN104104787A (zh) * | 2013-04-12 | 2014-10-15 | 上海果壳电子有限公司 | 拍照方法、系统及手持设备 |
CN105872349A (zh) * | 2015-01-23 | 2016-08-17 | 中兴通讯股份有限公司 | 拍摄方法、拍摄装置及移动终端 |
CN105824492A (zh) * | 2015-09-30 | 2016-08-03 | 维沃移动通信有限公司 | 一种显示控制方法及终端 |
CN109799937A (zh) * | 2019-02-25 | 2019-05-24 | 努比亚技术有限公司 | 一种输入控制方法、设备及计算机可读存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110620876A (zh) * | 2019-09-26 | 2019-12-27 | 努比亚技术有限公司 | 一种图像预览交互方法、设备及计算机可读存储介质 |
CN110620875A (zh) * | 2019-09-26 | 2019-12-27 | 努比亚技术有限公司 | 一种视频拍摄过程中的截图控制方法、设备及计算机可读存储介质 |
CN110620875B (zh) * | 2019-09-26 | 2023-08-11 | 努比亚技术有限公司 | 一种视频拍摄过程中的截图控制方法、设备及计算机可读存储介质 |
CN110620876B (zh) * | 2019-09-26 | 2023-09-08 | 爱云保(上海)科技有限公司 | 一种图像预览交互方法、设备及计算机可读存储介质 |
CN110896451A (zh) * | 2019-11-20 | 2020-03-20 | 维沃移动通信有限公司 | 预览画面显示方法及电子设备 |
CN117956063A (zh) * | 2024-03-26 | 2024-04-30 | 深圳市微克科技股份有限公司 | 一种基于智能穿戴设备的摇一摇拍照方法、系统和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110099218B (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110099218A (zh) | 一种拍摄过程中的交互操控方法、设备及计算机可读存储介质 | |
CN110299100A (zh) | 显示方向调整方法、可穿戴设备及计算机可读存储介质 | |
CN109982179A (zh) | 音频信号输出方法、装置、可穿戴设备及存储介质 | |
CN110123333A (zh) | 一种可穿戴设备辅助运动的方法、可穿戴设备及存储介质 | |
CN110225282A (zh) | 一种视频录制控制方法、设备及计算机可读存储介质 | |
CN110177209A (zh) | 一种视频参数调控方法、设备及计算机可读存储介质 | |
CN110175008A (zh) | 操作终端的方法、可穿戴设备及计算机可读存储介质 | |
CN110177208A (zh) | 一种视频录制的关联控制方法、设备及计算机可读存储介质 | |
CN110072071A (zh) | 一种视频录制交互控制方法、设备及计算机可读存储介质 | |
CN110198411A (zh) | 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质 | |
CN110213637A (zh) | 视频文件增加水印的方法、可穿戴设备及可读存储介质 | |
CN110109603A (zh) | 一种页面操作方法、可穿戴设备及计算机可读存储介质 | |
CN110175593A (zh) | 可疑对象处理方法、可穿戴设备和计算机可读存储介质 | |
CN110083248A (zh) | 消息交互方法、可穿戴设备及计算机可读存储介质 | |
CN110086929A (zh) | 息屏显示方法、手机、可穿戴设备和计算机可读存储介质 | |
CN110069200A (zh) | 可穿戴设备输入控制方法、可穿戴设备及存储介质 | |
CN110086808A (zh) | 一种账户登录控制方法、设备及计算机可读存储介质 | |
CN110049253A (zh) | 一种对焦控制方法、设备及计算机可读存储介质 | |
CN110191282A (zh) | 一种拍摄参数调控方法、设备及计算机可读存储介质 | |
CN110049248A (zh) | 一种拍摄对象调控方法、设备及计算机可读存储介质 | |
CN110096150A (zh) | 一种搜索交互控制方法、设备及计算机可读存储介质 | |
CN110150804A (zh) | 一种表带固定结构及可穿戴设备 | |
CN110062167A (zh) | 一种联动拍摄控制方法、设备及计算机可读存储介质 | |
CN110210851A (zh) | 金融安全保护方法、可穿戴设备及计算机可读存储介质 | |
CN110134304A (zh) | 一种折叠显示方法、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |