CN111158492A - 视频剪辑方法及头戴式设备 - Google Patents
视频剪辑方法及头戴式设备 Download PDFInfo
- Publication number
- CN111158492A CN111158492A CN201911424113.3A CN201911424113A CN111158492A CN 111158492 A CN111158492 A CN 111158492A CN 201911424113 A CN201911424113 A CN 201911424113A CN 111158492 A CN111158492 A CN 111158492A
- Authority
- CN
- China
- Prior art keywords
- head
- clip
- video
- control
- mounted device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000004044 response Effects 0.000 claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims description 86
- 238000004091 panning Methods 0.000 claims description 18
- 238000013519 translation Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 abstract description 24
- 238000004891 communication Methods 0.000 abstract description 5
- 210000003128 head Anatomy 0.000 description 115
- 239000011521 glass Substances 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 230000003993 interaction Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004382 visual function Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
- G06F3/04855—Interaction with scrollbars
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/06—Cutting and rejoining; Notching, or perforating record carriers otherwise than by recording styli
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本发明实施例提供一种视频剪辑方法及头戴式设备,应用于通信领域,以解决头戴式设备剪辑视频的过程较为繁琐问题。该方法包括:响应于用户的头部带动头戴式设备运动的第一输入,在虚拟屏幕上显示第一视频的视频剪辑界面,视频剪辑界面中包括至少一个剪辑控件;响应于用户的头部带动头戴式设备运动的第二输入,调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置;将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频;第一位置和第二位置为同一剪辑控件在视频剪辑界面中的不同位置;或者为不同剪辑控件在视频剪辑界面中的不同位置。该方法具体应用于头戴式设备剪辑视频的过程中。
Description
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种视频剪辑方法及头戴式设备。
背景技术
随着通信技术的发展,用户对电子设备编辑视频,如剪辑视频的需求越来越高。
当前,电子设备通常是在电脑中使用专业的视频剪辑应用后期剪辑视频,以得到剪辑后的视频。其中,用户可以先通过该专业的视频剪辑应用中的剪辑控件触发电子设备剪辑视频,进而通过视频剪辑应用中的保存控件触发电子设备保存剪辑后的视频,而该剪辑控件和该保存控件在该视频剪辑应用的层级可能较深,如该剪辑控件和该保存控件位于该视频剪辑应中的多级菜单中。从而,用户可能需要多次触发打开该多级菜单中的不同层级,以查找并操作该剪辑控件和该保存控件。从而,导致视频剪辑的过程较为繁琐。
发明内容
本发明实施例提供一种视频剪辑方法及头戴式设备,能够解决头戴式设备剪辑视频的过程较为繁琐问题。
为了解决上述技术问题,本发明实施例是这样实现的:
第一方面,本发明实施例提供一种视频剪辑方法,应用于头戴式设备,该方法包括:接收用户的第一输入,第一输入为用户的头部带动头戴式设备运动的输入;响应于第一输入,在虚拟屏幕上,显示第一视频的视频剪辑界面,视频剪辑界面中包括至少一个剪辑控件;接收用户的第二输入,第二输入为用户的头部带动头戴式设备运动的输入;响应于第二输入,调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置;将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频;其中,在至少一个剪辑控件为一个剪辑控件的情况下,第一位置和第二位置为同一剪辑控件在视频剪辑界面中的不同位置;或者,在至少一个剪辑控件包括两个剪辑控件的情况下,第一位置和第二位置为不同剪辑控件在视频剪辑界面中的不同位置。
第二方面,本发明实施例还提供了一种头戴式设备,该头戴式设备包括:接收模块、显示模块、调节模块和剪辑模块;接收模块,用于接收用户的第一输入,第一输入为用户的头部带动头戴式设备运动的输入;显示模块,用于响应于接收模块接收的第一输入,在虚拟屏幕上,显示第一视频的视频剪辑界面,视频剪辑界面中包括至少一个剪辑控件;接收模块,还用于接收用户的第二输入,第二输入为用户的头部带动头戴式设备运动的输入;调节模块,用于响应于接收模块接收的第二输入,调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置;剪辑模块,用于将第一视频中调节模块得到的第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频;其中,在至少一个剪辑控件为一个剪辑控件的情况下,第一位置和第二位置为同一剪辑控件在视频剪辑界面中的不同位置;或者,在至少一个剪辑控件包括两个剪辑控件的情况下,第一位置和第二位置为不同剪辑控件在视频剪辑界面中的不同位置。
第三方面,本发明实施例提供了一种头戴式设备,包括处理器、存储器及存储在该存储器上并可在该处理器上运行的计算机程序,该计算机程序被该处理器执行时实现如第一方面所述的视频剪辑方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储计算机程序,该计算机程序被处理器执行时实现如第一方面所述的视频剪辑方法的步骤。
在本发明实施例中,可以通过用户的头部带动头戴式设备运动,触发头戴式设备显示第一视频的视频剪辑界面,并调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置,进而将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频。如此,在用户佩戴头戴式设备的情况下,用户不需要先控制手机或电脑等电子设备剪辑视频(如第一视频),再控制头戴式设备从该电子设备获取剪辑后的视频(即第二视频),而是可以通过头部的运动带动头戴式设备运动以剪辑视频,即用户的头部与头戴式设备的自然交互可以实现剪辑视频。从而,在用户使用头戴式设备的场景中,使得头戴式设备可以快速、便捷地剪辑视频。
附图说明
图1为本发明实施例提供的一种可能的操作系统的架构示意图;
图2为本发明实施例提供的一种视频剪辑方法的流程示意图;
图3为本发明实施例提供的头戴式设备显示内容的示意图之一;
图4为本发明实施例提供的头戴式设备显示内容的示意图之二;
图5为本发明实施例提供的头戴式设备显示内容的示意图之三;
图6为本发明实施例提供的头戴式设备显示内容的示意图之四;
图7为本发明实施例提供的头戴式设备显示内容的示意图之五;
图8为本发明实施例提供的头戴式设备显示内容的示意图之六;
图9为本发明实施例提供的头戴式设备显示内容的示意图之七;
图10为本发明实施例提供的一种可能的头戴式设备的结构示意图;
图11为本发明实施例提供的一种头戴式设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本文中的“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。“多个”是指两个或多于两个。
需要说明的是,本发明实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本发明实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
本申请的说明书和权利要求书中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述对象的特定顺序。例如,第一输入和第二输入等是用于区别不同的输入,而不是用于描述输入的特定顺序。
本发明实施例中,头戴式设备可以看作是一台微型的电子设备,如手机。具体的,该头戴式设备可以为增强现实(Augmented Reality,AR)眼镜或AR头盔等AR设备。其中,AR眼镜或AR头盔可以通过透明玻璃(如镜片)在用户的直接视野中覆盖虚拟对象,使得用户可以同时观察真实世界和虚拟世界。
其中,头戴式设备具有以下功能:
第一、头戴式设备具有追踪眼球视线的功能。其中,头戴式设备可以根据眼球视线实现判断用户的状态(如用户查看物体的状态),进而根据用户的状态执行相应的操作。例如,头戴式设备可以追踪眼球视线确定用户的眼睛在看哪里,从而可以在虚拟屏幕上显示用户所看的路面的信息或建筑物的信息。
第二、头戴式设备可以具有语音识别功能。其中,用户对头戴式设备的语音输入可以替代打字和操作指令,控制头戴式设备执行语音输入指示的操作。例如,用户在需要打电话或者发短信的场景中,用户可以对头戴式设备的语音输入,控制头戴式设备打电话或者发短信。
第三、头戴式设备中内置运动传感器,用于检测用户的基本运动(如转动和平移)和健康状态,如检测用户的头部的运动。示例性的,上述运动传感器可以包括加速度计和陀螺仪。即,头戴式设备可以通过内置的运动传感器检测头戴式设备的转动方向和转动角度,或者,头戴式设备的平移方向和平移距离。也即,头戴式设备可以检测佩戴该头戴式设备的用户的头部的转动方向和转动角度,或者,用户的头部的平移方向和平移距离。
第四、头戴式设备中的位于用户视野中的镜片(如AR眼镜中的镜片)设置有高清投影仪,用于实时投屏,以使得头戴式设备在虚拟屏幕(如高清投影仪的投屏区域)显示内容,如显示视频的内容或一些应用的操作界面。其中,头戴式设备的虚拟屏幕的尺寸通常较大,使得用户可以在较广的区域查看视频或进行界面操作等动作。
可以理解,本发明实施例中,当上述实施例中的电子设备为AR设备时,该电子设备可以为集成有AR技术的电子设备。其中,AR技术是指实现现实场景和虚拟场景结合的一种技术。采用AR技术可以复原人类的视觉功能,从而使得人类可以通过AR技术体验现实场景和虚拟场景结合的感觉,进而使得人类更好地体验身临其境的感受。
下面以AR设备为AR眼镜为例,当用户佩戴上AR眼镜后,用户观看到的场景是通过AR技术处理所产生的,即通过AR技术可以使得虚拟场景叠加显示在现实场景中。当用户对AR眼镜显示的内容操作时,用户可以看到AR眼镜将现实场景“剥开”,从而将更加真实的一面展示给用户。例如,用户肉眼观察一个纸箱时只能观察到纸箱外壳,但是当用户佩戴上AR眼镜后,用户便可以通过AR眼镜直接观察到纸箱的内部结构。
上述AR设备中可以包括摄像头,从而AR设备可以在摄像头拍摄的画面的基础上结合虚拟画面进行展示和互动。例如,本发明实施例中,AR设备可以在显示视频编辑界面的情况下,响应于用户的头部带动AR设备运动的输入,快速、便捷的编辑视频。
另外,本发明实施例中的虚拟屏幕,可以为采用AR技术显示内容时,能够用于显示投射设备投射的内容的任意载体。其中,该投射设备可以为采用AR技术的投射设备,例如本发明实施例中的头戴式设备或AR设备,如AR眼镜。
当采用AR技术在虚拟屏幕显示内容时,投射设备可以将投射设备获取(或内部集成的)的虚拟场景,或虚拟场景和现实场景投射至虚拟屏幕上,使得虚拟屏幕可以显示这些内容,从而向用户展示现实场景与虚拟场景叠加的效果。
结合AR技术应用的不同场景,虚拟屏幕通常可以为电子设备(例如手机)的显示屏、AR眼镜的镜片、汽车的挡风玻璃、房间的墙壁等任意可能的载体。
下面分别以虚拟屏幕为电子设备的显示屏、AR眼镜的镜片,以及汽车的挡风玻璃为例,对采用AR技术在虚拟屏幕上显示内容的过程进行示例性的说明。
一种示例中,当虚拟屏幕为电子设备的显示屏时,投射设备可以为该电子设备。电子设备可以通过其摄像头采集电子设备所处区域中的现实场景,并将该现实场景显示在电子设备的显示屏上,然后电子设备可以将其获取(或内部集成的)的虚拟场景投射到电子设备的显示屏上,从而使得该虚拟场景可以叠加显示在该现实场景中,进而使得用户可以通过电子设备的显示屏看到现实场景和虚拟场景叠加后的效果。
另一种示例中,当虚拟屏幕为AR眼镜的镜片时,投射设备可以为该AR眼镜。当用户佩戴眼镜时,用户可以通过AR眼镜的镜片看到其所处区域中的现实场景,并且AR眼镜可以将其获取(或内部集成的)的虚拟场景投射到AR眼镜的镜片上,从而使得用户可以通过AR眼镜的镜片看到现实场景和虚拟场景叠加后的显示效果。
又一种示例中,当虚拟屏幕为汽车的挡风玻璃时,投射设备可以为任意电子设备。当用户位于汽车内时,用户可以通过汽车的挡风玻璃看到其所处区域中的现实场景,并且投射设备可以将其获取(或内部集成的)的虚拟场景投射到汽车的挡风玻璃上,从而使得用户可以通过汽车的挡风玻璃看到现实场景和虚拟场景叠加后的显示效果。
当然,本发明实施例中,也可以不限定虚拟屏幕的具体形式,例如其可能为非载体的现实空间。这种情况下,当用户位于现实空间中时,用户可以直接看到该现实空间中的现实场景,并且投射设备可以将其获取(或内部集成的)的虚拟场景投射到现实空间中,从而使得用户在现实空间中可以看到现实场景和虚拟场景叠加后的显示效果。
具体的,本发明实施例提供的视频剪辑方法,可以通过用户的头部带动头戴式设备运动,触发头戴式设备显示第一视频的视频剪辑界面,并调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置,进而将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频。如此,在用户佩戴头戴式设备的情况下,用户不需要先控制手机或电脑等电子设备剪辑视频(如第一视频),再控制头戴式设备从该电子设备获取剪辑后的视频(即第二视频),而是可以通过头部的运动带动头戴式设备运动以剪辑视频,即用户的头部与头戴式设备的自然交互可以实现剪辑视频。从而,在用户使用头戴式设备的场景中,使得头戴式设备可以快速、便捷地剪辑视频。
需要说明的是,本发明实施例提供的视频剪辑方法,执行主体可以为头戴式设备,或者,该头戴式设备的中央处理器(Central Processing Unit,CPU),或者该头戴式设备中的用于执行视频剪辑方法的控制模块。本发明实施例中以头戴式设备执行视频剪辑方法为例,说明本发明实施例提供的视频剪辑方法。
本发明实施例中的头戴式设备可以为具有操作系统的头戴式设备。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本发明实施例不作具体限定。
下面以一种可能的操作系统为例,介绍一下本发明实施例提供的视频剪辑方法所应用的软件环境。
如图1所示,为本发明实施例提供的一种可能的操作系统的架构示意图。在图1中,操作系统的架构包括4层,分别为:应用程序层、应用程序框架层、系统运行库层和内核层(具体可以为Linux内核层)。
其中,应用程序层包括操作系统中的各个应用程序(包括系统应用程序和第三方应用程序)。
应用程序框架层是应用程序的框架,开发人员可以在遵守应用程序的框架的开发原则的情况下,基于应用程序框架层开发一些应用程序。例如,系统设置应用、系统聊天应用和系统相机应用等应用程序。第三方设置应用、第三方相机应用和第三方聊天应用等应用程序。
系统运行库层包括库(也称为系统库)和操作系统运行环境。库主要为操作系统提供其所需的各类资源。操作系统运行环境用于为操作系统提供软件环境。
内核层是操作系统的操作系统层,属于操作系统软件层次的最底层。内核层基于Linux内核为操作系统提供核心系统服务和与硬件相关的驱动程序。
以操作系统为例,本发明实施例中,开发人员可以基于上述如图1所示的操作系统的系统架构,开发实现本发明实施例提供的视频剪辑方法的软件程序,从而使得该视频剪辑方法可以基于如图1所示的操作系统运行。即处理器或者头戴式设备可以通过在操作系统中运行该软件程序实现本发明实施例提供的视频剪辑方法。
下面结合图2所示的视频剪辑方法的流程图对本发明实施例提供的视频剪辑方法进行详细描述。其中,虽然在方法流程图中示出了本发明实施例提供的视频剪辑方法的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。例如,图2中示出的视频剪辑方法可以包括步骤201-步骤205:
步骤201、头戴式设备接收用户的第一输入,第一输入为用户的头部带动头戴式设备运动的输入。
可选的,在头戴式设备可以在虚拟屏幕上显示视频(如第一视频)的内容的情况下,接收第一输入。
其中,头戴式设备包括检测设备空间姿态信息的空间姿态捕获装置,当头戴式设备的空间姿态捕获装置接收到用户的头部带动头戴式设备运动的第一输入,即接收到用户的头部转动操作或移动操作,基于该第一输入,当空间姿态捕获装置捕获到头戴式设备在三维直角坐标系中的X轴、Y轴和Z轴中的至少一个轴上的偏转角速度满足预设条件(例如,偏转角速度变化量大于或者等于预设角速度变化阈值)的情况下,确定为接收到用户的头部带动头戴式设备运动的第一输入。其中,空间姿态捕获装置可以是陀螺仪、重力传感器等装置。
可以理解的是,头戴式设备显示第一视频的内容时,使得第一视频的内容落入用户的视野中,即使得用户可以查看到第一视频的内容。
其中,头戴式设备可以在暂停播放视频的情况下,显示第一视频的内容,即显示第一视频中的某一视频帧。
可选的,第一输入可以用于触发头戴式设备进入视频剪辑的状态,如触发头戴式设备在虚拟屏幕上显示视频剪辑界面。
可选的,本发明实施例中,第一视频可以为头戴式设备录制的视频。此时,头戴式设备可以在录制第一视频结束时显示第一视频的内容。
可以理解的是,头戴式设备佩戴在用户的头部,随着用户的头部的运动头戴式设备运动,即用户的头部带动头戴式设备运动。具体的,用户可以通过转动头部或移动头部带动头戴式设备运动,即带动头戴式设备转动一定角度或移动一定距离。
示例性的,第一输入可以为用户转动头部带动头戴式设备转动的输入,或者为用户移动头部带动头戴式设备移动的输入。
如图3所示,为本发明实施例中用户佩戴头戴式设备查看视频的示意图。图3中的(a)示出了用户的头部处于初始状态,即用户的头部保持竖直未移动或未转动。并且,图3中的(a)示出了头戴式设备的虚拟屏幕M之间的相对位置,即虚拟屏幕M为用户佩戴头戴式设备时的可视区域。图3中的(b)示出了虚拟屏幕M的平面图,虚拟屏幕M中可以显示视频(如第一视频)的内容N1。
可选的,虚拟屏幕M上的内容可以由佩戴头戴式设备的用户看到,其他用户无法看到。
可以理解的是,用户可以保持脖子以下的部位不同,而是通过脖子带动头部运动。
步骤202、响应于第一输入,头戴式设备在虚拟屏幕上,显示第一视频的视频剪辑界面,视频剪辑界面中包括至少一个剪辑控件。
可选的,至少一个剪辑控件包括一个剪辑控件或两个剪辑控件。
可选的,在本发明实施例提供的示例1中,即至少一个剪辑控件为一个剪辑控件的情况下,该一个剪辑控件对应第一视频的时长的中间时间点,即该视频剪辑控件位于视频剪界面中指示第一视频的中间时间点的位置。
可选的,在本发明实施例提供的示例2中,即至少一个剪辑控件为一个剪辑控件的情况下,当头戴式设备开始显示第一视频的视频剪辑界面时,两个剪辑控件中一个剪辑控件对应第一视频的时长中的起始时间点,即该视频剪辑控件位于视频剪辑界面中指示第一视频的起始时间点的位置。两个剪辑控件中另一个剪辑控件对应第一视频的时长中的结束时间点,即该视频剪辑控件位于视频剪辑界面中指示第一视频的结束时间点的位置。此时,这两个剪辑控件对应时间点之间的内容即为第一视频。
步骤203、头戴式设备接收用户的第二输入,第二输入为用户的头部带动头戴式设备运动的输入。
其中,头戴式设备包括检测设备空间姿态信息的空间姿态捕获装置,当头戴式设备的空间姿态捕获装置接收到用户的头部带动头戴式设备运动的第二输入,即接收到用户的头部转动操作或移动操作,基于该第二输入,当空间姿态捕获装置捕获到头戴式设备在三维直角坐标系中的X轴、Y轴和Z轴的至少一个轴上的偏转角速度满足预设条件(例如,偏转角速度变化量大于或者等于预设角速度变化阈值)的情况下,确定为接收到用户的头部带动头戴式设备运动的第二输入。其中,空间姿态捕获装置可以是陀螺仪、重力传感器等装置。
可选的,第二输入可以为用户转动头部带动头戴式设备转动的输入,或者为用户移动头部带动头戴式设备移动的输入。
其中,第二输入可以用于触发上述至少一个剪辑控件中的剪辑控件在视频剪辑界面上移动,即用户的头部运动带动剪辑控件在视频剪辑界面上移动,使得剪辑控件在视频剪辑界面上的位置发生变化。
具体的,在一个剪辑控件在视频剪辑界面上移动的情况下,该剪辑控件在视频剪辑界面上的位置不同,该剪辑控件对应第一视频的时间点不同。
步骤204、响应于第二输入,头戴式设备调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置。
具体的,在至少一个剪辑控件包括两个剪辑控件的情况下,头戴式设备调节至少一个剪辑控件中的某一个剪辑控件或全部剪辑控件。
可以理解的是,头戴式设备调节至少一个剪辑控件在视频剪辑界面中的位置之后,第一视频中至少一个剪辑控件对应的时间点之间的内容可以发生变化。即第二输入结束时,第一视频中至少一个剪辑控件对应的时间点之间的内容,为第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容。
可选的,随着一个剪辑控件在视频剪辑界面上的移动,AR可以将当前显示的视频帧切换为第一视频中与该剪辑控件当前对应的时间点的视频帧。
步骤205、头戴式设备将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频。
可以理解的是,第一视频中至少一个剪辑控件对应第一时间点和第二时间点之间的内容为头戴式设备剪辑得到的内容。相应的,第一视频中第一时间点和第二时间点之外的内容为头戴式设备删除的内容。
可选的,头戴式设备可以在执行步骤204的结束时刻之后的一定时长之后开始执行步骤205,而无需用户触发头戴式设备执行步骤205。其中,该一定时长可以为预先设置的,如10秒。
可以理解的是,由于在调节至少一个剪辑控件在视频剪辑界面中的位置之后,头戴式设备可以自动地将第一视频中至少一个剪辑控件对应的第一时间点和第二时间点之间的内容确定为第二视频,而无需用户执行特定的动作触发头戴式设备开始剪辑视频,因此提高了头戴式设备剪辑视频的便捷性。
需要说明的是,本发明实施例提供的视频剪辑方法,可以通过用户的头部带动头戴式设备运动,触发头戴式设备显示第一视频的视频剪辑界面,并调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置,进而将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频。如此,在用户佩戴头戴式设备的情况下,用户不需要先控制手机或电脑等电子设备剪辑视频(如第一视频),再控制头戴式设备从该电子设备获取剪辑后的视频(即第二视频),而是可以通过头部的运动带动头戴式设备运动以剪辑视频,即用户的头部与头戴式设备的自然交互可以实现剪辑视频。从而,在用户使用头戴式设备的场景中,使得头戴式设备可以快速、便捷地剪辑视频。
可选的,本发明实施例中,视频剪辑界面还包括进度条控件,至少一个剪辑控件位于进度条控件上,进度条控件对应第一视频的时长。具体的,进度条控件上的不同位置对应第一视频的时长中的不同时间点。
可以理解的是,进度条控件的起始位置可以对应第一视频的起始时间点,进度条控件的结束位置可以对应第一视频的结束时间点。
具体的,上述实施例中,头戴式设备调节至少一个剪辑控件至视频剪辑界面中的位置,指的是头戴式设备调节至少一个剪辑控件在进度条控件上的位置,即第一位置和第二位置为进度条控件上的不同位置。
其中,在上述示例1中,在头戴式设备开始显示视频编辑界面时,头戴式设备可以在进度条控件的中间位置P0显示一个剪辑控件(记为剪辑控件K0)。具体的,头戴式设备可以先将剪辑控件K0向进度条控件的起始位置移动,并将进度控件中剪辑控件K0距离该起始位置最近的位置作为第一位置;随后,将剪辑控件K0向进度条控件的结束位置移动,并将进度控件中剪辑控件K0距离该结束位置最近的位置作为第二位置。
其中,在上述示例2中,在头戴式设备开始显示视频编辑界面时,头戴式设备可以在进度条控件的起始位置显示一个剪辑控件(记为剪辑控件K1),并在进度条控件的结束位置显示一个剪辑控件(记为剪辑控件K2)。
具体的,上述实施例中,头戴式设备调节两个剪辑控件中的剪辑控件在视频剪辑界面中的位置,指的是头戴式设备调节这两个剪辑控件在进度条控件上的位置。具体的,头戴式设备可以将剪辑控件K1向进度条控件的结束位置的方向移动,将剪辑控件K2向进度条控件的开始位置的方向移动。
示例性的,进度条控件可以位于视频编辑界面的下方。
在示例1中,结合图3,如图4所示,为头戴式设备显示的视频剪辑界面的正面图。图4中示出的虚拟屏幕M上包括第一视频的内容N1,进度条控件W,剪辑控件K0。剪辑控件K0位于进度条控件W上的中间位置P0。进度条控件W中的阴影区域表示头戴式设备实时剪辑得到的视频的内容,第一视频为进度条控件W中起始位置P1对应的时间点和结束位置P2对对应的时间点之间的视频。
可选的,本发明实施例中,在头戴式设备将第一视频剪辑为第二视频的情况下,头戴式设备可以将剪辑控件K0移动至靠近进度条控件的起始位置的一个位置,再将剪辑控件K0移动至靠近进度条控件的结束位置的一个位置。
在示例2中,结合图3,如图5所示,为头戴式设备显示的视频剪辑界面的正面图。图5中示出的虚拟屏幕M上包括第一视频的内容N1,进度条控件W,剪辑控件K1和剪辑控件K2。剪辑控件K1位于进度条控件W上的起始位置P1,剪辑控件K2位于进度条控件W上的结束位置P2。进度条控件W中的阴影区域表示头戴式设备剪辑得到的视频的内容。
可选的,本发明实施例中,在头戴式设备将第一视频剪辑为第二视频的情况下,头戴式设备可以在进度条控件上移动剪辑控件K1和剪辑控件K2的位置。
本发明实施例中,头戴式设备可以显示进度条控件,而进度条控件对应第一视频的时长,从而头戴式设备可以向用户直观的显示第一视频的时长中的不同时间点,使得用户后续可以方便的在进度条控件上调整至少一个剪辑控件的位置。
可选的,第一输入用于控制头戴式设备沿第一方向转动第一角度,且第一角度大于或等于第一预设角度。例如,第一方向可以为用户头部的上侧方向,第一预设角度为10度。即第一输入可以为用户的头部向上抬起超过10度的动作。
结合图3,如图6所示,用户的头部可以带动头戴式设备向上(即方向A1)转动超过10度,以触发头戴式设备开始显示视频剪辑界面,如显示图3中的(b)示出的视频剪辑界面。
其中,由于用户可以通过向上转动头部带动头戴式设备向上转动的角度达到第一预设角度的输入,即用户的头部与头戴式设备的自然交互触发头戴式设备显示视频剪辑界面,而无需用户的手指操控并触发头戴式设备显示视频剪辑界面,因此使得用户可以快速、便捷触发头戴式设备显示视频剪辑界面。
可选的,本发明实施例用户可以通过转动头部带动头戴式设备转动,以触发头戴式设备调节两个剪辑控件中至少一个剪辑控件在视频剪辑界面中的位置。示例性的,上述步骤203可以通过步骤203a实现:
步骤203a、头戴式设备根据第二输入对应的用户的头部的运动参数,调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置。
其中,运动参数包括转动方向和转动角度,或包括平移方向和平移距离。
如此,用户不仅可以通过转动头部带动头戴式设备运动,控制至少一个剪辑控件在视频剪辑界面中移动,还可以通过平移头部带动头戴式设备运动,控制至少一个剪辑控件在视频剪辑界面中移动,因此使得用户可以根据自身使用习惯选择一种方式控制至少一个剪辑控件移动,有利于提高头戴式设备剪辑视频过程中的人机交互性能。
可选的,本发明实施例中,在至少一个剪辑控件包括一个剪辑控件、且运动参数包括转动方向的情况下,一个剪辑控件的不同移动方向与转动方向中的不同方向相关联,一个剪辑控件的移动距离与转动角度相关联;在至少一个剪辑控件包括两个剪辑控件、且运动参数包括转动方向的情况下,两个剪辑控件中不同的剪辑控件的移动方向与转动方向中的不同方向相关联,两个剪辑控件中每个剪辑控件的移动距离与转动角度相关联。
示例性,第二输入包括第一输入和第二子输入。其中,第一子输入为用户头部带动头戴式设备沿着第三方向转动第三角度的输入,第二输入为用户头部带动头戴式设备沿着第四方向转动第四角度的输入。其中,第三方向和第四方向不同。
可选的,用户的头部沿一个方向转动的不同角度对应第一视频的时长中的不同时间点,即对应一个剪辑控件进度条控件中的不同位置。
结合上述实施例,在示例1,剪辑控件K0的第一移动方向与第三方向相关联,剪辑控件K0的第二移动方向与第四方向相关联。剪辑控件K0沿着第一移动方向的第一移动距离与第三角度相关联,剪辑控件K0沿着第二移动方向的第二移动距离与第四角度相关联。
在示例1,第三方向可以为用户头部的左侧方向,即第一子输入可以为用户的头部向左转动带动头戴式设备向左转动的动作。第三角度的取值范围可以为[0,90]度,第三角度中的不同角度对应第一视频的时长中的不同时间点。具体的,第三角度从0度变化到90度的过程中,剪辑控件K0沿着第一移动方向(如向左的移动方向)从进度条控件的中间位置P0移动至起始位置P1。例如,在第三角度为45度时,剪辑控件K0对应第一视频的时长的1/4位置处的时间点,即第一剪辑控件在视频剪辑界面的位置为进度条控件的1/4位置处。在第三角度为90度时,剪辑控件K0对应第一视频的时长的起始时间点,即剪辑控件K0在视频剪辑界面的位置为进度条控件的起始位置P1。
类似的,在示例1中,第四方向可以为用户头部的右侧方向,即第二子输入可以为用户的头部向右转动带动头戴式设备向右转动的动作。其中,第四角度的取值范围可以为[0,90]度,取值范围为[0,90]度的第四角度中的不同角度对应第一视频的时长中的不同时间点。具体的,第四角度从0度变化到90度的过程中,剪辑控件K0沿着第二移动方向(如向右的移动方向)从进度条控件的中间位置P0移动至结束位置P2。例如,在第四角度为45度时,剪辑控件K0对应第一视频的时长的1/4位置处的时间点,即剪辑控件K0在视频剪辑界面的位置为进度条控件的1/4位置处。在第四角度为90度时,剪辑控件K0对应第一视频的时长的结束时间点,即剪辑控件K0在视频剪辑界面的位置为进度条控件的结束位置P2。
例如,结合图4和图6,如图7中的(a)所示,用户的头部带动头戴式设备沿向左(即方向A2)转动θ1度的第一子输入之后,如图7中的(b)所示,头戴式设备在视频剪辑界面上将剪辑控件K0移动至进度条控件W的位置P3处,并且视频剪辑界面中的视频内容更新为第一视频时长中位置P3对应的时间点的视频内容N2。
随后,如图7中的(c)所示,用户的头部带动头戴式设备沿向右(即方向A3)转动θ2度的第二子输入之后,如图7中的(d)所示,头戴式设备在视频剪辑界面上将剪辑控件K0移动至进度条控件W的位置P4处。并且,视频剪辑界面中的视频内容更新为第一视频时长中位置P4对应的时间点的视频内容N3。此时,第二输入包括第一子输入和第二子输入。
相应的,头戴式设备可以将第一视频中位置P3和位置P4对应的时间点之间的内容确定为第二视频。此时,第一位置为位置P3,第二位置为位置P4;相应的,第一时间点为位置P3对应的时间点,第二时间点为位置P4对应的时间点。
结合上述实施例,在示例2,剪辑控件K2的第三移动方向与第三方向相关联,剪辑控件K1的第四移动方向与第四方向相关联。剪辑控件K2沿着第三移动方向的第三移动距离与第三角度相关联,剪辑控件K1沿着第四移动方向的第四移动距离与第四角度相关联。
在示例2,第三方向可以为用户头部的左侧方向,即第一子输入可以为用户的头部向左转动带动头戴式设备向左转动的动作。第三角度的取值范围可以为[0,90]度,第三角度中的不同角度对应第一视频的时长中的不同时间点。具体的,第三角度从0度变化到90度的过程中,剪辑控件K2沿着第三移动方向(如向左的移动方向)从进度条控件的结束位置P2移动至起始位置P1。例如,在第三角度为45度时,剪辑控件K2对应第一视频的时长的1/2位置处的时间点,即第一剪辑控件在视频剪辑界面的位置为进度条控件的中间位置。在第三角度为90度时,剪辑控件K2对应第一视频的时长的起始时间点,即剪辑控件K2在视频剪辑界面的位置为进度条控件的起始位置P1。
类似的,在示例2中,第四方向可以为用户头部的右侧方向,即第二子输入可以为用户的头部向右转动带动头戴式设备向右转动的动作。其中,第四角度的取值范围可以为[0,90]度,取值范围为[0,90]度的第四角度中的不同角度对应第一视频的时长中的不同时间点。具体的,第四角度从0度变化到90度的过程中,剪辑控件K1沿着第四移动方向(如向右的移动方向)从进度条控件的起始位置P1移动至结束位置P2。例如,在第四角度为45度时,剪辑控件K1对应第一视频的时长的1/2位置处的时间点,即剪辑控件K1在视频剪辑界面的位置为进度条控件的中间位置P0。在第四角度为90度时,剪辑控件K1对应第一视频的时长的结束时间点,即剪辑控件K1在视频剪辑界面的位置为进度条控件的结束位置P2。
例如,结合图5和图6,如图8中的(a)所示,用户的头部带动头戴式设备沿向左(即方向A2)转动θ3度的第一子输入之后,如图8中的(b)所示,头戴式设备在视频剪辑界面上将剪辑控件K2移动至进度条控件W的位置P5处,并且视频剪辑界面中的视频内容更新为第一视频时长中位置P5对应的时间点的视频内容N4。
随后,如图8中的(c)所示,用户的头部带动头戴式设备沿向右(即方向A3)转动θ4度的第二子输入之后,如图8中的(d)所示,头戴式设备在视频剪辑界面上将剪辑控件K1移动至进度条控件W的位置P6处。并且,视频剪辑界面中的视频内容更新为第一视频时长中位置P6对应的时间点的视频内容N5。此时,第二输入包括第一子输入和第二子输入。
相应的,头戴式设备可以将第一视频中位置P6和位置P5对应的时间点之间的内容确定为第二视频。此时,第一位置为位置P6,第二位置为位置P5;相应的,第一时间点为位置P6对应的时间点,第二时间点为位置P5对应的时间点。
本发明实施例中,由于用户可以通过转动头部带动头戴式设备转动的输入,即用户的头部与头戴式设备的自然交互触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置,而无需用户的手指操控并触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置,因此使得用户可以快速、便捷触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置。
可选的,本发明实施例中,用户可以通过平移头部带动头戴式设备转动,触发头戴式设备调节至少一个剪辑控件在视频剪辑界面中的位置。
可选的,本发明实施例中,至少一个剪辑控件包括一个剪辑控件、且运动参数包括平移方向的情况下,一个剪辑控件的不同移动方向与平移方向中的不同方向相关联,一个剪辑控件的移动距离与平移距离相关联;在至少一个剪辑控件包括两个剪辑控件、且运动参数包括平移方向的情况下,两个剪辑控件中不同的剪辑控件的移动方向与平移方向中的不同方向相关联。
结合上述实施例,第二输入包括用户头部带动头戴式设备沿着第五方向平移第一距离的第三子输入,和用户头部带动头戴式设备沿着第六方向平移第二距离的第四子输入。其中,第五方向和第六方向不同。
可选的,用户的头部沿一个方向平移的不同距离对应第一视频的时长中的不同时间点,即对应一个剪辑控件进度条控件中的不同位置。
示例性的,在示例1,剪辑控件K0的第一移动方向与第五方向相关联,剪辑控件K0的第二移动方向与第六方向相关联。剪辑控件K0沿着第一移动方向的第一移动距离与第一距离相关联,剪辑控件K0沿着第二移动方向的第二移动距离与第二距离相关联。
在示例1,第五方向为用户头部的左侧方向,即第一子输入可以为用户的头部向左移动带动头戴式设备向左移动(即沿着第一移动方向移动)的动作。其中,第一距离的取值范围可以为[0,10]厘米,第一距离中的不同距离对应第一视频的时长中的不同时间点。具体的,第一距离从0变化到10厘米的过程中,剪辑控件K0沿着第一移动方向从进度条控件的中间位置P0移动至起始位置P1。例如,在第一距离为5厘米时,剪辑控件K0对应第一视频的时长的1/4位置处的时间点,也即第一剪辑控件在视频剪辑界面的位置为进度条控件的1/4位置处。在第一距离为10厘米时,剪辑控件K0对应第一视频的时长的起始时间点,即剪辑控件K0在视频剪辑界面的位置为进度条控件的起始位置P1。
示例性的,第六方向可以为用户头部的右侧方向,即第二子输入可以为用户的头部向右移动带动头戴式设备向右移动(即沿着第二移动方向移动)的动作。其中,第二距离的取值范围可以为[0,10]厘米,第二距离中的不同距离对应第一视频的时长中的不同时间点。具体的,第二距离从0变化到10厘米过程中,剪辑控件K0沿着第二移动方向从进度条控件的中间位置P0移动至结束位置P2。例如,在第二距离为5厘米时,剪辑控件K0对应第一视频的时长的1/4位置处的时间点,也即第二剪辑控件在视频剪辑界面的位置为进度条控件的1/4位置处。在第二距离为10厘米时,剪辑控件K0对应第一视频的时长的结束时间点,即剪辑控件K0在视频剪辑界面的位置为进度条控件的结束位置P2。
类似的,对用户头部移动带动头戴式设备移动触发头戴式设备调节至少一个剪辑控件在视频剪辑界面中的位置的过程,可以参照上述图7中的相关描述,本发明实施例对此不再赘述。
结合上述实施例,在示例2,剪辑控件K2的第三移动方向与第五方向相关联,剪辑控件K1的第四移动方向与第六方向相关联。剪辑控件K2沿着第三移动方向的第三移动距离与第一距离相关联,剪辑控件K1沿着第四移动方向的第四移动距离与第二距离相关联。
在示例1,第五方向为用户头部的左侧方向,即第一子输入可以为用户的头部向左移动带动头戴式设备向左移动(即沿着第三移动方向移动)的动作。其中,第一距离的取值范围可以为[0,10]厘米,第一距离中的不同距离对应第一视频的时长中的不同时间点。具体的,第一距离从0变化到10厘米的过程中,剪辑控件K2沿着第三移动方向从进度条控件的中间位置P0移动至起始位置P1。例如,在第一距离为5厘米时,剪辑控件K2对应第一视频的时长的1/2位置处的时间点,也即第一剪辑控件在视频剪辑界面的位置为进度条控件的中间位置P0。在第一距离为10厘米时,剪辑控件K2对应第一视频的时长的起始时间点,即剪辑控件K2在视频剪辑界面的位置为进度条控件的起始位置P1。
示例性的,第六方向可以为用户头部的右侧方向,即第二子输入可以为用户的头部向右移动带动头戴式设备向右移动(即沿着第四移动方向移动)的动作。其中,第二距离的取值范围可以为[0,10]厘米,第二距离中的不同距离对应第一视频的时长中的不同时间点。具体的,第二距离从0变化到10厘米过程中,剪辑控件K1沿着第四移动方向从进度条控件的起始位置P1移动至结束位置P2。例如,在第二距离为5厘米时,剪辑控件K1对应第一视频的时长的1/2位置处的时间点,也即第二剪辑控件在视频剪辑界面的位置为进度条控件的中间位置P0。在第二距离为10厘米时,剪辑控件K1对应第一视频的时长的结束时间点,即剪辑控件K1在视频剪辑界面的位置为进度条控件的结束位置P2。
类似的,对用户头部移动带动头戴式设备移动触发头戴式设备调节至少一个剪辑控件在视频剪辑界面中的位置的过程,可以参照上述图8中的相关描述,本发明实施例对此不再赘述。
本发明实施例中,由于用户可以通过移动头部带动头戴式设备移动的输入,即用户的头部与头戴式设备的自然交互触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置,而无需用户的手指操控并触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置,因此使得用户可以快速、便捷触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置。
本发明实施例中,头戴式设备可以在用户的触发下开始剪辑视频,以使得头戴式设备可以及时且准确地开始剪辑视频。可选的,本发明实施例提供的视频剪辑方法,在上述步骤205之前还可以包括步骤206,相应的步骤205可以通过步骤205a实现:
步骤206、头戴式设备接收用户的第三输入,第三输入为用户的头部带动头戴式设备运动的输入。
其中,头戴式设备包括检测设备空间姿态信息的空间姿态捕获装置,当头戴式设备的空间姿态捕获装置接收到用户的头部带动头戴式设备运动的第三输入,即接收到用户的头部转动操作或移动操作,基于该第三输入,当空间姿态捕获装置捕获到头戴式设备在三维直角坐标系中的X轴、Y轴和Z轴中的至少一个轴上的偏转角速度满足预设条件(例如,偏转角速度变化量大于或者等于预设角速度变化阈值)的情况下,确定为接收到用户的头部带动头戴式设备运动的第三输入。其中,空间姿态捕获装置可以是陀螺仪、重力传感器等装置。
示例性的,第三输入可以为用户转动头部带动头戴式设备转动的输入,或者为用户移动头部带动头戴式设备移动的输入。
可选的,第三输入为用户的头部带动头戴式设备沿着第二方向转动第二角度的输入,第二角度大于或等于第二预设角度。例如,第二方向可以为用户头部的下侧方向,第二预设角度为10度。即第三输入可以为用户的头部向下低头超过10度的动作。
结合图3和图8,如图9所示,用户的头部可以带动头戴式设备向下(即方向A4)转动超过10度,以触发头戴式设备开始剪辑并存储视频,如头戴式设备可以将图8中的(d)示出的第一视频中位置P6和位置P5对应的时间点之间的内容剪辑并存储为第二视频内容。
其中,由于用户可以通过向下(即第二方向)转动头部带动头戴式设备向下转动的角度达到第二预设角度的输入,即用户的头部与头戴式设备的自然交互触发头戴式设备开始剪辑并存储视频,而无需用户的手指操控并触发头戴式设备开始剪辑并存储视频,因此使得用户可以快速、便捷地开始剪辑并存储视频。
步骤205a、响应于第三输入,头戴式设备将第一视频中第一时间点和第二时间点之间的内容剪辑为第二视频,并存储第二视频。
具体的,头戴式设备将第一视频中第一时间点和第二时间点之间的内容存储为第二视频,并删除第一视频中第一时间点和第二时间点之外的内容。
本发明实施例中,由于头戴式设备可以在用户的触发下开始剪辑视频,因此可以避免用户还正在触发头戴式设备调节至少一个剪辑控件在视频剪辑界面中的位置的情况下,误触发头戴式设备开始剪辑视频。从而,保证了头戴式设备剪辑视频的准确性和可控性。
本发明实施例中,用户触发头戴式设备调节至少一个剪辑控件在视频剪辑界面中的位置的时间通常不会太长,若该过程中时间过长可能表示用户已经长时间不进行调节触发至少一个剪辑控件在视频剪辑界面中的位置的动作了。具体的,本发明实施例中,上述步骤203可以通过步骤203c实现:
步骤203c、在预设时间段内,头戴式设备接收用户的头部带动头戴式设备运动的第二输入。
可以理解的是,预设时间段可以表示用户有效执行头部带动头戴式设备运动,以控制头戴式设备调节至少一个剪辑控件在视频剪辑界面中的位置的有效时长。
具体的,在预设时间段内,头戴式设备可以实时检测用户的头部的动作,以调节至少一个剪辑控件在视频剪辑界面中的位置。而在预设时间结束之后,头戴式设备将不再调节至少一个剪辑控件在视频剪辑界面中的位置。
本发明实施例中,由于头戴式设备是在预设时间段内接收用户的头部带动头戴式设备运动的第二输入,即在预设时间段内调节至少一个剪辑控件在视频剪辑界面中的位置,而不会持续执行调节至少一个剪辑控件在视频剪辑界面中的位置的步骤,因此有利于避免头戴式设备执行非必要的判断如何调节至少一个剪辑控件在视频剪辑界面中的位置的步骤,而浪费避免头戴式设备的资源。
可选的,本发明实施例中,在上述步骤204可以通过步骤204b实现:
步骤204b、头戴式设备在第一时间点和第二时间点之间的时长小于预设时长的情况下,头戴式设备重新调节至少一个剪辑控件至视频剪辑界面中的第三位置和第四位置。
其中,第一视频中第三位置对应的第三时间点和第四位置对应的第四时间点之间的时长为预设时长。
例如,预设时长为1秒。
如此,无论头戴式设备如何调节至少一个剪辑控件在视频剪辑界面中的位置,头戴式设备也可以剪辑得到第二视频的时长大于或等于预设时长。即上述至少一个剪辑控件对应的两个时间点之前的时长大于或等于预设时长,保证至少一个剪辑控件对应的两个时间点能够指示有效的视频的内容。
示例性的,在用户触发头戴式设备控制一个剪辑控件从进度条控件的起始位置移动至进度条控件的结束位置的情况下,头戴式设备剪辑得到的第二视频的时长为第一视频中结束时间点之前预设时长内的内容。反之,在用户触发头戴式设备控制一个剪辑控件从进度条控件的技术位置移动至进度条控件的起始位置的情况下,头戴式设备剪辑得到的第二视频的时长为第一视频中起始时间点之后预设时长内的内容。
本发明实施例中,由于头戴式设备可以控制第二视频的时长大于或等于预设时长,因此可以避免至少一个剪辑控件的无效移动(如两个剪辑控件完全接触)导致头戴式设备剪辑不到视频的内容的情况发生,从而有利于头戴式设备成功剪辑视频。
如图10所示,为本发明实施例提供的一种可能的头戴式设备的结构示意图。图10中示出的头戴式设备10包括:接收模块10a、显示模块10b、调节模块10c和剪辑模块10d;接收模块10a,用于接收用户的第一输入,第一输入为用户的头部带动头戴式设备运动的输入;显示模块10b,用于响应于接收模块10a接收的第一输入,在虚拟屏幕上,显示第一视频的视频剪辑界面,视频剪辑界面中包括至少一个剪辑控件;接收模块10a,还用于接收用户的第二输入,第二输入为用户的头部带动头戴式设备运动的输入;调节模块10c,用于响应于接收模块10a接收的第二输入,调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置;剪辑模块10d,用于将第一视频中调节模块10c得到的第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频;其中,在至少一个剪辑控件为一个剪辑控件的情况下,第一位置和第二位置为同一剪辑控件在视频剪辑界面中的不同位置;或者,在至少一个剪辑控件包括两个剪辑控件的情况下,第一位置和第二位置为不同剪辑控件在视频剪辑界面中的不同位置。
本发明实施例提供的头戴式设备,可以通过用户的头部带动头戴式设备运动,触发头戴式设备显示第一视频的视频剪辑界面,并调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置,进而将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频。如此,在用户佩戴头戴式设备的情况下,用户不需要先控制手机或电脑等电子设备剪辑视频(如第一视频),再控制头戴式设备从该电子设备获取剪辑后的视频(即第二视频),而是可以通过头部的运动带动头戴式设备运动以剪辑视频,即用户的头部与头戴式设备的自然交互可以实现剪辑视频。从而,在用户使用头戴式设备的场景中,使得头戴式设备可以快速、便捷地剪辑视频。
可选的,接收模块10a,还用于剪辑模块10d将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频之前,接收用户的第三输入,第三输入为用户的头部带动头戴式设备运动的输入;剪辑模块10d,具体用于响应于接收模块10a接收的第三输入,将第一视频中第一时间点和第二时间点之间的内容剪辑为第二视频,并存储第二视频。
其中,由于头戴式设备可以在用户的触发下开始剪辑视频,因此可以避免用户还正在触发头戴式设备调节至少一个剪辑控件在视频剪辑界面中的位置的情况下,误触发头戴式设备开始剪辑视频。从而,保证了头戴式设备剪辑视频的准确性和可控性。
可选的,视频剪辑界面还包括进度条控件,至少一个剪辑控件位于进度条控件上,进度条控件对应第一视频的时长;调节模块10c,具体用于调节至少一个剪辑控件至进度条控件上的第一位置和第二位置。
其中,头戴式设备可以显示进度条控件,而进度条控件对应第一视频的时长,从而头戴式设备可以向用户直观的显示第一视频的时长中的不同时间点,使得用户后续可以方便的在进度条控件上调整至少一个剪辑控件的位置。
可选的,第一输入为用户的头部带动头戴式设备沿第一方向的转动第一角度的输入,第一角度大于或等于第一预设角度。
其中,由于用户可以通过向上转动头部带动头戴式设备向上转动的角度达到第一预设角度的输入,即用户的头部与头戴式设备的自然交互触发头戴式设备显示视频剪辑界面,而无需用户的手指操控并触发头戴式设备显示视频剪辑界面,因此使得用户可以快速、便捷触发头戴式设备显示视频剪辑界面。
可选的,第三输入为用户的头部带动头戴式设备沿着第二方向转动第二角度的输入,第二角度大于或等于第二预设角度。
其中,由于用户可以通过向下转动头部带动头戴式设备向下(即第二方向)转动的角度达到第二预设角度的输入,即用户的头部与头戴式设备的自然交互触发头戴式设备开始剪辑并存储视频,而无需用户的手指操控并触发头戴式设备开始剪辑并存储视频,因此使得用户可以快速、便捷地开始剪辑并存储视频。
可选的,调节模块10c,具体用于根据第二输入对应的用户的头部的运动参数,调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置;其中,运动参数包括转动方向和转动角度,或包括平移方向和平移距离。
其中,用户不仅可以通过转动头部带动头戴式设备运动,控制至少一个剪辑控件在视频剪辑界面中移动,还可以通过平移头部带动头戴式设备运动,控制至少一个剪辑控件在视频剪辑界面中移动,因此使得用户可以根据自身使用习惯选择一种方式控制至少一个剪辑控件移动,有利于提高头戴式设备剪辑视频过程中的人机交互性能。
可选的,在至少一个剪辑控件包括一个剪辑控件、且运动参数包括转动方向的情况下,一个剪辑控件的不同移动方向与转动方向中的不同方向相关联,一个剪辑控件的移动距离与转动角度相关联;在至少一个剪辑控件包括两个剪辑控件、且运动参数包括转动方向的情况下,两个剪辑控件中不同的剪辑控件的移动方向与转动方向中的不同方向相关联,两个剪辑控件中每个剪辑控件的移动距离与转动角度相关联。
其中,由于用户可以通过转动头部带动头戴式设备转动的输入,即用户的头部与头戴式设备的自然交互触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置,而无需用户的手指操控并触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置,因此使得用户可以快速、便捷触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置。
可选的,在至少一个剪辑控件包括一个剪辑控件、且运动参数包括平移方向的情况下,一个剪辑控件的不同移动方向与平移方向中的不同方向相关联,一个剪辑控件的移动距离与平移距离相关联;在至少一个剪辑控件包括两个剪辑控件、且运动参数包括平移方向的情况下,两个剪辑控件中不同的剪辑控件的移动方向与平移方向中的不同方向相关联,两个剪辑控件中每个剪辑控件的移动距离与平移距离相关联。
其中,由于用户可以通过移动头部带动头戴式设备移动的输入,即用户的头部与头戴式设备的自然交互触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置,而无需用户的手指操控并触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置,因此使得用户可以快速、便捷触发头戴式设备调节至少一个剪辑控件在视频编辑界面中的位置。
可选的,调节模块10c,还用于调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置之后,在第一时间点和第二时间点之间的时长小于预设时长的情况下,重新调节至少一个剪辑控件至视频剪辑界面中的第三位置和第四位置;其中,第一视频中第三位置对应的第三时间点和第四位置对应的第四时间点之间的时长为预设时长。
本发明实施例中,由于头戴式设备可以控制第二视频的时长大于或等于预设时长,因此可以避免至少一个剪辑控件的无效移动(如两个剪辑控件完全接触)导致头戴式设备剪辑不到视频的内容的情况发生,从而有利于头戴式设备成功剪辑视频。
本发明实施例提供的头戴式设备100能够实现上述方法实施例中头戴式设备实现的各个过程,为避免重复,这里不再赘述。
图11为本发明实施例提供的一种头戴式设备的硬件结构示意图,该头戴式设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图11中示出的头戴式设备结构并不构成对头戴式设备的限定,头戴式设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,头戴式设备包括但不限于AR眼镜和AR头盔等。
其中,处理器110,用于控制传感器105接收用户的第一输入,第一输入为用户的头部带动头戴式设备运动的输入;控制显示模块10b响应于控制传感器105接收的第一输入,在虚拟屏幕上,显示第一视频的视频剪辑界面,视频剪辑界面中包括至少一个剪辑控件;还用于控制传感器105接收用户的第二输入,第二输入为用户的头部带动头戴式设备运动的输入;并且,用于响应于传感器105接收的第二输入,调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置;以及,用于将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频;其中,在至少一个剪辑控件为一个剪辑控件的情况下,第一位置和第二位置为同一剪辑控件在视频剪辑界面中的不同位置;或者,在至少一个剪辑控件包括两个剪辑控件的情况下,第一位置和第二位置为不同剪辑控件在视频剪辑界面中的不同位置。
本发明实施例提供的头戴式设备,可以通过用户的头部带动头戴式设备运动,触发头戴式设备显示第一视频的视频剪辑界面,并调节至少一个剪辑控件至视频剪辑界面中的第一位置和第二位置,进而将第一视频中第一位置对应的第一时间点和第二位置对应的第二时间点之间的内容剪辑为第二视频。如此,在用户佩戴头戴式设备的情况下,用户不需要先控制手机或电脑等电子设备剪辑视频(如第一视频),再控制头戴式设备从该电子设备获取剪辑后的视频(即第二视频),而是可以通过头部的运动带动头戴式设备运动以剪辑视频,即用户的头部与头戴式设备的自然交互可以实现剪辑视频。从而,在用户使用头戴式设备的场景中,使得头戴式设备可以快速、便捷地剪辑视频。
应理解的是,本发明实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
头戴式设备通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与头戴式设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
头戴式设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在头戴式设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别头戴式设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与头戴式设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图11中,触控面板1071与显示面板1061是作为两个独立的部件来实现头戴式设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现头戴式设备的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与头戴式设备100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到头戴式设备100内的一个或多个元件或者可以用于在头戴式设备100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是头戴式设备的控制中心,利用各种接口和线路连接整个头戴式设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行头戴式设备的各种功能和处理数据,从而对头戴式设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
头戴式设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,头戴式设备100包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种头戴式设备,包括处理器110,存储器109,存储在存储器109上并可在所述处理器110上运行的计算机程序,该计算机程序被处理器110执行时实现上述方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
可选的,本发明实施例中,上述实施例中的头戴式设备可以为AR设备。具体的,当上述实施例中的头戴式设备为AR设备时,该AR设备可以包括上述头戴式设备中的全部或部分功能模块。当然,该AR设备还可以包括上述头戴式设备中未包括的功能模块。
可以理解,本发明实施例中,当上述实施例中的头戴式设备为AR设备时,该头戴式设备可以为集成有AR技术的头戴式设备。其中,上述AR技术是指实现现实场景和虚拟场景结合的一种技术。采用AR技术可以复原人类的视觉功能,从而使得人类可以通过AR技术体验现实场景和虚拟场景结合的感觉,进而使得人类更好地体验身临其境的感受。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台头戴式设备(可以是手机,计算机等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (20)
1.一种视频剪辑方法,其特征在于,应用于头戴式设备,所述方法包括:
接收用户的第一输入,所述第一输入为用户的头部带动所述头戴式设备运动的输入;
响应于所述第一输入,在虚拟屏幕上,显示第一视频的视频剪辑界面,所述视频剪辑界面中包括至少一个剪辑控件;
接收用户的第二输入,所述第二输入为用户的头部带动所述头戴式设备运动的输入;
响应于所述第二输入,调节所述至少一个剪辑控件在至所述视频剪辑界面中的第一位置和第二位置;
将所述第一视频中所述第一位置对应的第一时间点和所述第二位置对应的第二时间点之间的内容剪辑为第二视频;
其中,在所述至少一个剪辑控件为一个剪辑控件的情况下,所述第一位置和第二位置为同一剪辑控件在所述视频剪辑界面中的不同位置;或者,在所述至少一个剪辑控件包括两个剪辑控件的情况下,所述第一位置和所述第二位置为不同剪辑控件在所述视频剪辑界面中的不同位置。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一视频中所述第一位置对应的第一时间点和所述第二位置对应的第二时间点之间的内容剪辑为第二视频之前,所述方法还包括:
接收用户的第三输入,所述第三输入为用户的头部带动所述头戴式设备运动的输入;
所述将所述第一视频中所述第一位置对应的第一时间点和所述第二位置对应的第二时间点之间的内容剪辑为第二视频,包括:
响应于所述第三输入,将所述第一视频中所述第一时间点和所述第二时间点之间的内容剪辑为所述第二视频,并存储所述第二视频。
3.根据权利要求1所述的方法,其特征在于,所述视频剪辑界面还包括进度条控件,所述至少一个剪辑控件位于所述进度条控件上,所述进度条控件对应所述第一视频的时长;
所述调节所述至少一个剪辑控件至所述视频剪辑界面中的第一位置和第二位置,包括:
调节所述至少一个剪辑控件至所述进度条控件上的所述第一位置和所述第二位置。
4.根据权利要求1所述的方法,其特征在于,所述第一输入为用户的头部带动所述头戴式设备沿第一方向的转动第一角度的输入,所述第一角度大于或等于第一预设角度。
5.根据权利要求2所述的方法,其特征在于,所述第三输入为用户的头部带动所述头戴式设备沿着第二方向转动第二角度的输入,所述第二角度大于或等于第二预设角度。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述调节所述至少一个剪辑控件至所述视频剪辑界面中的第一位置和第二位置,包括:
根据所述第二输入对应的用户的头部的运动参数,调节所述至少一个剪辑控件至所述视频剪辑界面中的所述第一位置和所述第二位置;
其中,所述运动参数包括转动方向和转动角度,或包括平移方向和平移距离。
7.根据权利要求6所述的方法,其特征在于,在所述至少一个剪辑控件包括一个剪辑控件、且所述运动参数包括所述转动方向的情况下,所述一个剪辑控件的不同移动方向与所述转动方向中的不同方向相关联,所述一个剪辑控件的移动距离与所述转动角度相关联;
在所述至少一个剪辑控件包括所述两个剪辑控件、且所述运动参数包括所述转动方向的情况下,所述两个剪辑控件中不同的剪辑控件的移动方向与所述转动方向中的不同方向相关联,所述两个剪辑控件中每个剪辑控件的移动距离与所述转动角度相关联。
8.根据权利要求6所述的方法,其特征在于,在所述至少一个剪辑控件包括所述一个剪辑控件、且所述运动参数包括所述平移方向的情况下,所述一个剪辑控件的不同移动方向与所述平移方向中的不同方向相关联,所述一个剪辑控件的移动距离与所述平移距离相关联;
在所述至少一个剪辑控件包括所述两个剪辑控件、且所述运动参数包括所述平移方向的情况下,所述两个剪辑控件中不同的剪辑控件的移动方向与所述平移方向中的不同方向相关联,所述两个剪辑控件中每个剪辑控件的移动距离与所述平移距离相关联。
9.根据权利要求1所述的方法,其特征在于,所述调节所述至少一个剪辑控件至所述视频剪辑界面中的第一位置和第二位置之后,包括:
在所述第一时间点和所述第二时间点之间的时长小于预设时长的情况下,重新调节所述至少一个剪辑控件至所述视频剪辑界面中的第三位置和第四位置;
其中,所述第一视频中所述第三位置对应的第三时间点和所述第四位置对应的第四时间点之间的时长为所述预设时长。
10.一种头戴式设备,其特征在于,所述头戴式设备包括:接收模块、显示模块、调节模块和剪辑模块;
所述接收模块,用于接收用户的第一输入,所述第一输入为用户的头部带动所述头戴式设备运动的输入;
所述显示模块,用于响应于所述接收模块接收的所述第一输入,在虚拟屏幕上,显示第一视频的视频剪辑界面,所述视频剪辑界面中包括至少一个剪辑控件;
所述接收模块,还用于接收用户的第二输入,所述第二输入为用户的头部带动所述头戴式设备运动的输入;
所述调节模块,用于响应于所述接收模块接收的所述第二输入,调节所述至少一个剪辑控件至所述视频剪辑界面中的第一位置和第二位置;
所述剪辑模块,用于将所述第一视频中所述调节模块得到的所述第一位置对应的第一时间点和所述第二位置对应的第二时间点之间的内容剪辑为第二视频;
其中,在所述至少一个剪辑控件为一个剪辑控件的情况下,所述第一位置和第二位置为同一剪辑控件在所述视频剪辑界面中的不同位置;或者,在所述至少一个剪辑控件包括两个剪辑控件的情况下,所述第一位置和所述第二位置为不同剪辑控件在所述视频剪辑界面中的不同位置。
11.根据权利要求10所述的头戴式设备,其特征在于,
所述接收模块,还用于所述剪辑模块将所述第一视频中所述第一位置对应的第一时间点和所述第二位置对应的第二时间点之间的内容剪辑为第二视频之前,接收用户的第三输入,所述第三输入为用户的头部带动所述头戴式设备运动的输入;
所述剪辑模块,具体用于响应于所述接收模块接收的所述第三输入,将所述第一视频中所述第一时间点和所述第二时间点之间的内容剪辑为所述第二视频,并存储所述第二视频。
12.根据权利要求10所述的头戴式设备,其特征在于,所述视频剪辑界面还包括进度条控件,所述至少一个剪辑控件位于所述进度条控件上,所述进度条控件对应所述第一视频的时长;
所述调节模块,具体用于调节所述至少一个剪辑控件至所述进度条控件上的所述第一位置和所述第二位置。
13.根据权利要求10所述的头戴式设备,其特征在于,所述第一输入为用户的头部带动所述头戴式设备沿第一方向的转动第一角度的输入,所述第一角度大于或等于第一预设角度。
14.根据权利要求11所述的头戴式设备,其特征在于,所述第三输入为用户的头部带动所述头戴式设备沿着第二方向转动第二角度的输入,所述第二角度大于或等于第二预设角度。
15.根据权利要求10至14中任一项所述的头戴式设备,其特征在于,
所述调节模块,具体用于根据所述第二输入对应的用户的头部的运动参数,调节所述至少一个剪辑控件至所述视频剪辑界面中的所述第一位置和所述第二位置;
其中,所述运动参数包括转动方向和转动角度,或包括平移方向和平移距离。
16.根据权利要求15所述的头戴式设备,其特征在于,在所述至少一个剪辑控件包括一个剪辑控件、且所述运动参数包括所述转动方向的情况下,所述一个剪辑控件的不同移动方向与所述转动方向中的不同方向相关联,所述一个剪辑控件的移动距离与所述转动角度相关联;
在所述至少一个剪辑控件包括所述两个剪辑控件、且所述运动参数包括所述转动方向的情况下,所述两个剪辑控件中不同的剪辑控件的移动方向与所述转动方向中的不同方向相关联,所述两个剪辑控件中每个剪辑控件的移动距离与所述转动角度相关联。
17.根据权利要求15所述的头戴式设备,其特征在于,在所述至少一个剪辑控件包括所述一个剪辑控件、且所述运动参数包括所述平移方向的情况下,所述一个剪辑控件的不同移动方向与所述平移方向中的不同方向相关联,所述一个剪辑控件的移动距离与所述平移距离相关联;
在所述至少一个剪辑控件包括所述两个剪辑控件、且所述运动参数包括所述平移方向的情况下,所述两个剪辑控件中不同的剪辑控件的移动方向与所述平移方向中的不同方向相关联,所述两个剪辑控件中每个剪辑控件的移动距离与所述平移距离相关联。
18.根据权利要求10所述的头戴式设备,其特征在于,所述调节模块,还用于调节所述至少一个剪辑控件至所述视频剪辑界面中的所述第一位置和所述第二位置之后,在所述第一时间点和所述第二时间点之间的时长小于预设时长的情况下,重新调节所述至少一个剪辑控件至所述视频剪辑界面中的第三位置和第四位置;
其中,所述第一视频中所述第三位置对应的第三时间点和所述第四位置对应的第四时间点之间的时长为所述预设时长。
19.一种头戴式设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至9中任一项所述的视频剪辑方法的步骤。
20.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至9中任一项所述的视频剪辑方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911424113.3A CN111158492B (zh) | 2019-12-31 | 2019-12-31 | 视频剪辑方法及头戴式设备 |
PCT/CN2020/141169 WO2021136329A1 (zh) | 2019-12-31 | 2020-12-30 | 视频剪辑方法及头戴式设备 |
EP20909898.7A EP4086729A4 (en) | 2019-12-31 | 2020-12-30 | VIDEO EDITING PROCEDURE AND HEAD-WEAR DEVICE |
US17/851,010 US20220326764A1 (en) | 2019-12-31 | 2022-06-27 | Video trimming method and head-mounted device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911424113.3A CN111158492B (zh) | 2019-12-31 | 2019-12-31 | 视频剪辑方法及头戴式设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111158492A true CN111158492A (zh) | 2020-05-15 |
CN111158492B CN111158492B (zh) | 2021-08-06 |
Family
ID=70560662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911424113.3A Active CN111158492B (zh) | 2019-12-31 | 2019-12-31 | 视频剪辑方法及头戴式设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220326764A1 (zh) |
EP (1) | EP4086729A4 (zh) |
CN (1) | CN111158492B (zh) |
WO (1) | WO2021136329A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021136329A1 (zh) * | 2019-12-31 | 2021-07-08 | 维沃移动通信有限公司 | 视频剪辑方法及头戴式设备 |
CN113242467A (zh) * | 2021-03-01 | 2021-08-10 | 北京达佳互联信息技术有限公司 | 视频剪辑方法、装置、终端及存储介质 |
CN114697749A (zh) * | 2020-12-28 | 2022-07-01 | 北京小米移动软件有限公司 | 视频剪辑方法、装置,存储介质及电子设备 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6992702B1 (en) * | 1999-09-07 | 2006-01-31 | Fuji Xerox Co., Ltd | System for controlling video and motion picture cameras |
CN101662720A (zh) * | 2008-08-26 | 2010-03-03 | 索尼株式会社 | 声音处理装置、声像定位位置调节方法及视频处理装置 |
CN102981626A (zh) * | 2012-12-12 | 2013-03-20 | 紫光股份有限公司 | 一种头戴式计算机 |
CN103064187A (zh) * | 2011-10-24 | 2013-04-24 | 索尼公司 | 头戴式显示器及用于控制头戴式显示器的方法 |
CN106030458A (zh) * | 2013-12-31 | 2016-10-12 | 爱福露恩斯公司 | 用于基于凝视的媒体选择和编辑的系统和方法 |
US20170332947A1 (en) * | 2014-11-08 | 2017-11-23 | Nicholas Olof SUNDIN | System and methods for diplopia assessment |
CN108156407A (zh) * | 2017-12-13 | 2018-06-12 | 深圳市金立通信设备有限公司 | 一种视频剪辑方法及终端 |
CN108369653A (zh) * | 2015-10-16 | 2018-08-03 | 奇跃公司 | 使用眼睛特征的眼睛姿态识别 |
CN109613984A (zh) * | 2018-12-29 | 2019-04-12 | 歌尔股份有限公司 | Vr直播中视频图像的处理方法、设备及系统 |
CN109831704A (zh) * | 2018-12-14 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 视频剪辑方法、装置、计算机设备和存储介质 |
CN109845277A (zh) * | 2016-10-26 | 2019-06-04 | 索尼公司 | 信息处理装置、信息处理系统、信息处理方法和程序 |
US20190317593A1 (en) * | 2014-07-29 | 2019-10-17 | Google Llc | Image editing with audio data |
CN110381371A (zh) * | 2019-07-30 | 2019-10-25 | 维沃移动通信有限公司 | 一种视频剪辑方法及电子设备 |
CN110460907A (zh) * | 2019-08-16 | 2019-11-15 | 维沃移动通信有限公司 | 一种视频播放控制方法及终端 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7769819B2 (en) * | 2005-04-20 | 2010-08-03 | Videoegg, Inc. | Video editing with timeline representations |
KR101958778B1 (ko) * | 2012-08-31 | 2019-03-15 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 및 이를 이용한 디지털 디바이스 제어 방법 |
KR20150095046A (ko) * | 2014-02-12 | 2015-08-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US9529510B2 (en) * | 2014-03-07 | 2016-12-27 | Here Global B.V. | Determination of share video information |
US10754529B2 (en) * | 2016-10-28 | 2020-08-25 | Adobe Inc. | Facilitating editing of virtual-reality content using a virtual-reality headset |
CN110402426A (zh) * | 2017-03-22 | 2019-11-01 | 索尼公司 | 图像处理装置、方法及程序 |
EP3486753B1 (en) * | 2017-11-21 | 2022-05-04 | Bellevue Investments GmbH & Co. KGaA | Method for realtime 360 degree video perspective view path determination |
CN111158492B (zh) * | 2019-12-31 | 2021-08-06 | 维沃移动通信有限公司 | 视频剪辑方法及头戴式设备 |
-
2019
- 2019-12-31 CN CN201911424113.3A patent/CN111158492B/zh active Active
-
2020
- 2020-12-30 EP EP20909898.7A patent/EP4086729A4/en active Pending
- 2020-12-30 WO PCT/CN2020/141169 patent/WO2021136329A1/zh unknown
-
2022
- 2022-06-27 US US17/851,010 patent/US20220326764A1/en active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6992702B1 (en) * | 1999-09-07 | 2006-01-31 | Fuji Xerox Co., Ltd | System for controlling video and motion picture cameras |
CN101662720A (zh) * | 2008-08-26 | 2010-03-03 | 索尼株式会社 | 声音处理装置、声像定位位置调节方法及视频处理装置 |
CN103064187A (zh) * | 2011-10-24 | 2013-04-24 | 索尼公司 | 头戴式显示器及用于控制头戴式显示器的方法 |
CN102981626A (zh) * | 2012-12-12 | 2013-03-20 | 紫光股份有限公司 | 一种头戴式计算机 |
CN106030458A (zh) * | 2013-12-31 | 2016-10-12 | 爱福露恩斯公司 | 用于基于凝视的媒体选择和编辑的系统和方法 |
US20190317593A1 (en) * | 2014-07-29 | 2019-10-17 | Google Llc | Image editing with audio data |
US20170332947A1 (en) * | 2014-11-08 | 2017-11-23 | Nicholas Olof SUNDIN | System and methods for diplopia assessment |
CN108369653A (zh) * | 2015-10-16 | 2018-08-03 | 奇跃公司 | 使用眼睛特征的眼睛姿态识别 |
CN109845277A (zh) * | 2016-10-26 | 2019-06-04 | 索尼公司 | 信息处理装置、信息处理系统、信息处理方法和程序 |
CN108156407A (zh) * | 2017-12-13 | 2018-06-12 | 深圳市金立通信设备有限公司 | 一种视频剪辑方法及终端 |
CN109831704A (zh) * | 2018-12-14 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 视频剪辑方法、装置、计算机设备和存储介质 |
CN109613984A (zh) * | 2018-12-29 | 2019-04-12 | 歌尔股份有限公司 | Vr直播中视频图像的处理方法、设备及系统 |
CN110381371A (zh) * | 2019-07-30 | 2019-10-25 | 维沃移动通信有限公司 | 一种视频剪辑方法及电子设备 |
CN110460907A (zh) * | 2019-08-16 | 2019-11-15 | 维沃移动通信有限公司 | 一种视频播放控制方法及终端 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021136329A1 (zh) * | 2019-12-31 | 2021-07-08 | 维沃移动通信有限公司 | 视频剪辑方法及头戴式设备 |
CN114697749A (zh) * | 2020-12-28 | 2022-07-01 | 北京小米移动软件有限公司 | 视频剪辑方法、装置,存储介质及电子设备 |
CN113242467A (zh) * | 2021-03-01 | 2021-08-10 | 北京达佳互联信息技术有限公司 | 视频剪辑方法、装置、终端及存储介质 |
CN113242466A (zh) * | 2021-03-01 | 2021-08-10 | 北京达佳互联信息技术有限公司 | 视频剪辑方法、装置、终端及存储介质 |
CN113242466B (zh) * | 2021-03-01 | 2023-09-05 | 北京达佳互联信息技术有限公司 | 视频剪辑方法、装置、终端及存储介质 |
CN113242467B (zh) * | 2021-03-01 | 2023-09-05 | 北京达佳互联信息技术有限公司 | 视频剪辑方法、装置、终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP4086729A1 (en) | 2022-11-09 |
WO2021136329A1 (zh) | 2021-07-08 |
CN111158492B (zh) | 2021-08-06 |
US20220326764A1 (en) | 2022-10-13 |
EP4086729A4 (en) | 2023-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111158492B (zh) | 视频剪辑方法及头戴式设备 | |
CN109499061B (zh) | 游戏场景画面的调整方法、装置、移动终端和存储介质 | |
CN111147743B (zh) | 摄像头控制方法及电子设备 | |
CN108628515B (zh) | 一种多媒体内容的操作方法和移动终端 | |
CN108762634B (zh) | 一种控制方法及终端 | |
WO2021136266A1 (zh) | 虚拟画面同步方法及穿戴式设备 | |
CN111258420B (zh) | 信息交互方法、头戴式设备及介质 | |
CN111142675A (zh) | 输入方法及头戴式电子设备 | |
WO2019076371A1 (zh) | 资源数据展示方法及移动终端 | |
CN110944236B (zh) | 一种群组创建方法及电子设备 | |
CN111010523A (zh) | 一种视频录制方法及电子设备 | |
CN109995391B (zh) | 一种图片显示方法、智能穿戴终端及计算机可读存储介质 | |
CN109859718B (zh) | 屏幕亮度调整方法及终端设备 | |
CN111443805B (zh) | 一种显示方法及可穿戴电子设备 | |
CN111240483B (zh) | 操作控制方法、头戴式设备及介质 | |
CN111246105B (zh) | 拍摄方法、电子设备及计算机可读存储介质 | |
CN111352505B (zh) | 操作控制方法、头戴式设备及介质 | |
CN109814825B (zh) | 显示屏操控方法和移动终端 | |
CN111273885A (zh) | 一种ar图像显示方法及ar设备 | |
CN111142772A (zh) | 一种内容显示方法及可穿戴设备 | |
CN110955378A (zh) | 一种控制方法及电子设备 | |
CN111340962B (zh) | 控制方法、电子设备及存储介质 | |
CN109547773B (zh) | 控制方法及电子设备 | |
CN111258482B (zh) | 信息分享方法、头戴式设备及介质 | |
CN110502292B (zh) | 一种显示控制方法及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |