CN109547696A - 一种拍摄方法及终端设备 - Google Patents
一种拍摄方法及终端设备 Download PDFInfo
- Publication number
- CN109547696A CN109547696A CN201811520972.8A CN201811520972A CN109547696A CN 109547696 A CN109547696 A CN 109547696A CN 201811520972 A CN201811520972 A CN 201811520972A CN 109547696 A CN109547696 A CN 109547696A
- Authority
- CN
- China
- Prior art keywords
- input
- target
- user
- movement
- action parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供一种拍摄方法及终端设备,涉及通信技术领域,用于解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。该方法包括:接收用户的第一输入;基于第一输入,确定目标AR对象和目标AR对象的动作参数;接收用户的第二输入;响应于第二输入,执行拍摄操作,并在拍摄过程中,按照动作参数,更新目标AR对象的显示。本发明实施例用于录像或拍摄照片。
Description
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种拍摄方法及终端设备。
背景技术
目前,一些终端设备的拍摄模式中新增了一种增强现实(Augmented Reality,AR)拍摄模式。在AR拍摄模式下,终端设备能够通过识别技术和AR技术,给用户拍摄场景中添加各种图像模型,因此极大的增加了用户的拍摄趣味性。
现有技术中,在AR拍摄模式下拍摄照片或视频时,终端设备会提供固定的图案模板供用户选用,用户可以基于自己的喜好在模板中选取任意AR图案,并将选取的AR图案添加在拍摄场景中。然而,由于在AR拍摄模式下用户只能从固定的图案模板选取AR图案,因此AR图案的选择不够灵活。
发明内容
本发明实施例提供一种拍摄方法及终端设备,用于解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种拍摄方法,包括:
接收用户的第一输入;
基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数;
接收用户的第二输入;
响应于所述第二输入,执行拍摄操作,并在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
第二方面,本发明的实施例提供终端设备,包括:
接收用户的第一输入;
响应于所述第一输入,执行拍摄操作;
在拍摄过程中,接收用户对第一AR对象的第二输入;
响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示。
第三方面,本发明实施例提供了一种终端设备,包括:
接收单元,用于接收用户的第一输入;
处理单元,用于基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数;
所述接收单元,还用于接收用户的第二输入;
所述处理单元,还用于响应于所述第二输入,执行拍摄操作;
显示单元,用于在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
第四方面,本发明实施例提供了一种终端设备,包括:
接收单元,用于接收用户的第一输入;
处理单元,用于响应于所述第一输入,执行拍摄操作;
所述接收单元,还用于在拍摄过程中,接收用户对第一AR对象的第二输入;
显示单元,用于响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示。
第五方面,本发明实施例提供了一种终端设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第一方面或第二方面所述的拍摄方法的步骤。
第六方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如第一方面或第二方面所述的拍摄方法的步骤。
本发明实施例提供的拍摄方法首先接收用户的第一输入,然后基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,再接收用户的第二输入,最后响应于所述第二输入,执行拍摄操作,并在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示,由于本发明实施例可以在拍摄过程中,按照基于用户输入确定的动作参数更新目标AR对象的显示,因此用户可以通过第一输入编辑目标AR对象的显示。即,用户可以根据想要的动态效果输入第一操作,从而控制目标AR对象的显示效果。由于本发明实施例提供的拍摄方法可以对目标AR对象动态效果进行编辑,因此本发明实施例可以解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
附图说明
图1为本申请实施例提供的安卓操作系统的架构图;
图2为本发明实施例提供的拍摄方法的步骤流程图之一;
图3为本发明实施例提供的拍摄方法的应用场景的界面图之一;
图4为本发明实施例提供的拍摄方法的应用场景的界面图之二;
图5为本发明实施例提供的拍摄方法的应用场景的界面图之一;
图6为本发明实施例提供的拍摄方法的应用场景的界面图之二;
图7为本发明实施例提供的拍摄方法的步骤流程图之二;
图8为本发明实施例提供的终端设备的结构示意图之一;
图9为本发明实施例提供的终端设备的结构示意图之二;
图10为本发明实施例提供的终端设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系;在公式中,字符“/”,表示前后关联对象是一种“相除”的关系。如果不加说明,本文中的“多个”是指两个或两个以上。
为了便于清楚描述本发明实施例的技术方案,在本发明的实施例中,采用了“第一”、“第二”等字样对功能或作用基本相同的相同项或相似项进行区分,本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定。
本发明实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本发明实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。在本发明实施例中,除非另有说明,“多个”的含义是指两个或者两个以上。
现有技术中,在AR拍摄模式下拍摄照片或视频时,终端设备会提供固定的图案模板供用户选用,用户可以基于自己的喜好在模板中选取任意AR图案,并将选取的AR图案添加在拍摄场景中。然而,由于在AR拍摄模式下用户只能从固定的图案模板选取AR图案,因此AR图案的选择不够灵活。
基于上述问题,本发明实施例提供了一种拍摄方法及终端设备,该拍摄方法首先接收用户的第一输入,然后基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,再接收用户的第二输入,最后响应于所述第二输入,执行拍摄操作,并在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示,由于本发明实施例可以在拍摄过程中,按照基于用户输入确定的动作参数更新目标AR对象的显示,因此用户可以通过第一输入编辑目标AR对象的显示。即,用户可以根据想要的动态效果输入第一操作,从而控制目标AR对象的显示效果。由于本发明实施例提供的拍摄方法可以对目标AR对象动态效果进行编辑,因此本发明实施例可以解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
下面以安卓操作系统为例,介绍一下本申请实施例提供的拍摄方法所应用的软件环境。
如图1所示,图1为本申请实施例提供的拍摄方法所应用的一种可能的安卓操作系统的架构示意图。在图1中,安卓操作系统的架构包括4层,分别为:应用程序层、应用程序框架层、系统运行库层和内核层(具体可以为Linux内核层)。
其中,应用程序层包括安卓操作系统中的各个应用程序(包括系统应用程序和第三方应用程序)。
应用程序框架层是应用程序的框架,开发人员可以在遵守应用程序的框架的开发原则的情况下,基于应用程序框架层开发一些应用程序。
系统运行库层包括库(也称为系统库)和安卓操作系统运行环境。库主要为安卓操作系统提供其所需的各类资源。安卓操作系统运行环境用于为安卓操作系统提供软件环境。
内核层是安卓操作系统的操作系统层,属于安卓操作系统软件层次的最底层。内核层基于Linux内核为安卓操作系统提供核心系统服务和与硬件相关的驱动程序。
以安卓操作系统为例,本申请实施例中,开发人员可以基于上述如图1所示的安卓操作系统的系统架构,开发实现本申请实施例提供的快速启动应用程序的方法的软件程序,从而使得该快速启动应用程序的方法可以基于如图1所示的安卓操作系统运行。即处理器或者终端设备可以通过在安卓操作系统中运行该软件程序实现本申请实施例提供的快速启动应用程序的方法。
本申请实施例提供的终端设备可以为手机、平板电脑、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personaldigital assistant,PDA)、智能手表、智能手环等终端设备,或者该终端设备还可以为其他类型的终端设备,本申请实施例不作限定。
本发明的实施例提供一种拍摄方法,具体的,参照图2所示,该拍摄方法包括如下步骤步骤201至步骤204。
步骤201、接收用户的第一输入。
具体的,本发明实施例中的第一输入可以为用户的姿态信息,或者用户在触控显示屏上对目标AR对象的触控点击输入,或者是特定语音指令,或者是特定手势,或者是对终端设备的实体按键输入的按压操作。
在本发明的一些实施例中,所述特定手势可以为单击手势、滑动手势、压力识别手势、长按手势、面积变化手势、双按手势、双击手势中的任意一种。
以下实施例中以第一输入为用户的姿态信息为例对本发明实施例进行说明。
步骤202、基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数。
具体的,本发明实施例中的目标AR对象可以从AR拍摄模式的AR图案模板中选取,也可以从其他位置选择,例如:从网页上选取,或者从本地数据库中选取。
可选的,上述步骤202中基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,包括:采集用户的第一姿态信息和第二姿态信息;
基于所述第一姿态信息,确定所述目标AR对象;
基于所述第二姿态信息,确定所述目标AR对象的至少一个动作;其中,所述动作参数包括所述至少一个动作。
以下对上述实施例中基于所述第一姿态信息,确定所述目标AR对象的实现方式进行举例说明。
示例性的,参照图3所示,图3中以终端设备为手机、拍摄预览界面中包括一个用户、第一姿态信息为该一个用户的手部在AR图案的目标位置停留时间长度大于或等于阈值时间长度的姿态信息为例示出。如图3所示,用户在拍摄预览界面中将手部31放置在AR图案(图3中显示为“耳朵”的AR图案)32处,并停留一定时间长度,终端设备采集到用户的图像后,基于图像识别技术,确定用户的手部31在AR图案32处停留的时间长度大于阈值时间长度,则将AR图案32确定为目标AR对象。
示例性的,参照图4所示,图4中以终端设备为手机、拍摄预览界面中包括多个用户(图4中以包括两个用户为例示出)、第一姿态信息为所述多个用户中每一个的手部在AR图案的目标位置停留时间长度大于或等于阈值时间长度的姿态信息为例示出。如图4所示,第一用户41在拍摄预览界面中将手部410放置在AR图案42处,并停留一定时间长度;第二用户43在拍摄预览界面中将手部430放置在AR图案44处,并停留一定时间长度;终端设备采集到第一用户和第二用户的图像后,基于图像识别技术,确定第一用户41的手部410在AR图案42处停留的时间长度大于阈值时间长度,第二用户43的手部430在AR图案44处停留的时间长度大于阈值时间长度,因此将AR图案42以及AR图案44确定为目标AR对象。
以下对上述实施例中基于所述第二姿态信息,确定所述目标AR对象的至少一个动作的实现方式进行举例说明。
参照图5所示,图5中以第二姿态信息为用户的手势,且每一种手势分别对应一个动作为例示出。如图5所示,采到用户手部的姿态变化依次如图5中的①、②、③、④、⑤、⑥所示,则依次确定所述目标AR对象的动作依次为摇摆、受力形变、拉伸、缩放、平移、翻滚。
示例性的,如图6所示,当拍摄预览界面中包括多个用户以及多个目标AR对象时,多个用户分别按照上述图5所示方式对目标AR对象的动作进行编辑,终端设备记录所有参与编辑用户对应的目标AR对象的动作,也可以为一个用户按照上述图5所示方式对目标AR对象的动作进行编辑,终端设备记录该用户对应的目标AR对象的动作后,将该用户对应的目标AR对象的动作应用到所有目标AR对象上。
进一步可选的,在基于所述第一姿态信息,确定所述目标AR对象,以及基于所述第二姿态信息,确定所述目标AR对象的至少一个动作之后,上述步骤202中所述基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,还包括:
采集用户的第三姿态信息;
基于所述第三姿态信息,确定所述目标AR对象执行所述至少一个动作时的效果参数;
其中,所述效果参数包括以下至少一项:执行所述至少一个动作前等待的时间长度、所述至少一个动作中的每个动作的重复执行次数、所述至少一个动作中的每个动作的执行顺序以及所述目标AR对象执行所述至少一个动作中的每个动作时的所述目标AR对象的目标部位的形变硬度。
可选的,基于所述第三姿态信息,确定所述目标AR对象执行所述至少一个动作时的效果参数,包括:
基于所述第三姿态信息,获取用户书写的至少一个描述符以及所述一个描述符中每一个描述符对应的描述参数;
其中,所述描述符包括:用于指示执行所述至少一个动作前等待的时间长度的第一描述符、用于指示所述至少一个动作中的每个动作的重复执行次数的第二描述符、用于指示所述至少一个动作中的每个动作的执行顺序的第三描述符以及用于指示所述目标AR对象执行所述至少一个动作中的每个动作时的所述目标AR对象的目标部位的形变硬度的第四描述符中的至少一个。
示例性的,第一描述为可以为用户在镜头前书写的字母“w”,第二描述符为可以为用户在镜头前书写的字母“n”,第二描述符为可以为用户在镜头前书写的字母“a”,第二描述符为可以为用户在镜头前书写的字母“s”。此外,任意描述符对应的描述参数可以为在描述符输入完成后,紧接着在镜头前书写的参数。即,所述至少一个描述符以及所述一个描述符中每一个描述符对应的描述参数的格式可以为w(t)、n(x)、a(x)、s(x)。
步骤203、接收用户的第二输入。
具体的,本发明实施例中的第二输入可以为用户在触控显示屏上对用于触发录像或拍照的虚拟按键的触控点击输入,或者是特定语音指令,或者是特定手势,或者是对终端设备的实体按键输入的按压操作。
在本发明的一些实施例中,所述特定手势可以为单击手势、滑动手势、压力识别手势、长按手势、面积变化手势、双按手势、双击手势中的任意一种。
步骤204、响应于所述第二输入,执行拍摄操作,并在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
可选的,当基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,包括:采集用户的第一姿态信息和第二姿态信息,基于所述第一姿态信息,确定所述目标AR对象,基于所述第二姿态信息,确定所述目标AR对象的至少一个动作的情况下,上述步骤204中按照所述动作参数,更新所述目标AR对象的显示,包括:
按照所述动作参数,控制所述目标AR对象执行所述至少一个动作。
进一步可选的,本发明实施例提供的拍摄方法还包括:
在拍摄过程中,接收用户对所述目标AR对象的第三输入;
响应于所述第三输入,按照所述第三输入对应的动作参数,更新所述目标AR对象的显示。
具体的,本发明实施例中的第三输入可以为用户在触控显示屏上目标AR对象和/或目标AR对象以外的其他AR对象的触控点击输入,或者是特定语音指令,或者是特定手势,或者是对终端设备的实体按键输入的按压操作。
在本发明的一些实施例中,所述特定手势可以为单击手势、滑动手势、压力识别手势、长按手势、面积变化手势、双按手势、双击手势中的任意一种。
示例性的,第三输入可以为在拍摄预览画面中添加其他AR对象的输入。即,用户可以通过第三输入添加其他AR物体。示例性的,添加的AR对象可以为玩具球、爱心等。
示例性的,第三输入可以为用户或其他AR物体与目标AR对象接触,更新所述目标AR对象的显示,可以根据用户或其他AR物体与目标AR对象接触是目标AR对象产生对应的物理效果。
本发明实施例提供的拍摄方法首先接收用户的第一输入,然后基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,再接收用户的第二输入,最后响应于所述第二输入,执行拍摄操作,并在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示,由于本发明实施例可以在拍摄过程中,按照基于用户输入确定的动作参数更新目标AR对象的显示,因此用户可以通过第一输入编辑目标AR对象的显示。即,用户可以根据想要的动态效果输入第一操作,从而控制目标AR对象的显示效果。由于本发明实施例提供的拍摄方法可以对目标AR对象动态效果进行编辑,因此本发明实施例可以解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
本发明的实施例提供一种拍摄方法,具体的,参照图7所示,该拍摄方法包括如下步骤步骤701至步骤704。
步骤701、接收用户的第一输入。
具体的,本发明实施例中的第一输入可以为用户在触控显示屏上对用于触发拍照或录像的虚拟按键的触控点击输入,或者是特定语音指令,或者是特定手势,或者是对终端设备的实体按键输入的按压操作。
在本发明的一些实施例中,所述特定手势可以为单击手势、滑动手势、压力识别手势、长按手势、面积变化手势、双按手势、双击手势中的任意一种。
步骤702、响应于所述第一输入,执行拍摄操作。
示例性的,步骤701和702可以为用户点击终端设备上用户标识拍摄功能的图标,然后终端设备启动摄像头并显示在拍照预览界面中实时显示摄像头采集的图像。
步骤703、在拍摄过程中,接收用户对第一AR对象的第二输入。
本发明实施例中的第二输入可以为用户的姿态信息,或者是特定语音指令,或者是特定手势,或者是对终端设备的实体按键输入的按压操作。
在本发明的一些实施例中,所述特定手势可以为单击手势、滑动手势、压力识别手势、长按手势、面积变化手势、双按手势、双击手势中的任意一种。
步骤704、响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示。
以下对上述步骤704中响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示的实现方式进行详细说明。
实现方式一、
可选的,上述步骤704中响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示,包括:
基于所述第二输入,确定所述第一AR对象的动作参数;
其中,所述动作参数包括以下至少一项:所述第一AR对象的物理属性、所述第一AR对象的互动部位以及与所述第一AR对象互动的互动对象,所述物理属性包括动作执行延迟时间、动作重复执行次数、所述第一AR对象的目标部位的形变软硬度中的至少一项。
发明实施中基于所述第二输入,确定所述第一AR对象的动作参数的显示方式可以参照上述实施例一中基于所述第一输入,确定所述目标AR对象的动作参数的显示方式,即上述实施例一中基于所述第一输入,确定所述目标AR对象的动作参数的显示方式,均可援引至本发明实施对基于所述第二输入,确定所述第一AR对象的动作参数的显示过程进行解释说明。
进一步可选的,在基于所述第二输入,确定所述第一AR对象的动作参数的情况下,上述步骤704中所述按照所述第二输入对应的动作参数,更新第一AR对象的显示,包括:
按照所述第二输入对应的动作参数,控制所述第一AR对象执行动作。
可选的,在控制所述第一AR对象执行动作之前,所述方法还包括:
基于用户姿态信息,确定所述第一AR对象执行的动作。
具体的,本发明实施例中基于用户姿态信息,确定所述第一AR对象执行的动作的实现方式可以参照上述实施例一中基于所述第二姿态信息,确定所述目标AR对象的至少一个动作的实现方式,不同之处在于,上述实施例一中确定所述目标AR对象的至少一个动作后,需要进行触发,所述目标AR对象才会执行确定的所述至少一个动作,而本发明实施例中在确定所述第一AR对象执行的动作,第一AR对象会立即执行确定的动作,即本发明实施例中时实时根据用户的姿态信息,控制所述第一AR对象执行动作的。
实现方式二、
可选的,上述步骤704中响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示,包括:
采集用户的姿态信息;
按照与所述姿态信息匹配的动作参数,更新第一AR对象的显示。
具体的,上述实施例方式二即为:在用户开始连拍或录像时,通过把身体与第一AR对象接触,或活动头部让第一AR对象活动并与其它用户、其他AR对象或其它AR图案接触,实时生成各种各样的有趣场景。
进一步的,在上述步骤703(在接收用户对第一AR对象的第二输入)之前,本发明实施例提供的方法还包括:
接收用户的第三输入;
基于所述第三输入,确定所述第一AR对象。
同样,本发明实施例中基于所述第三输入,确定所述第一AR对象的显示方式可以参照上述实施例一中基于所述第一输入,确定目标AR对象的显示方式,在此不再重复说明。
示例性的,用户可以将手部放置在第一AR对象处,并停留一定时间长度,从而使终端设备确定所述第一AR对象。
再进一步的,在上述步骤703(接收用户对第一AR对象的第二输入)之后,本发明实施例提供的拍摄方法还包括:
响应于所述第二输入,显示所述第二AR对象,并将所述第二AR对象确定为所述第一AR对象执行动作的互动对象;
在所述第一AR对象执行第一动作的情况下,控制所述第二AR对象执行与所述第一动作匹配的第二动作。
即,上述实施例中可以响应于所述第二输入,在拍摄场景中添加第一AR对象以外的其他AR对象,并且在拍摄过程中添加的第二AR对象可以预设所述第一AR对象执行动作的互动对象。
可选的,在所述第一AR对象执行第一动作的情况下,控制所述第二AR对象执行与所述第一动作匹配的第二动作,包括:
在所述第一AR对象执行第一动作的情况下,根据预设对应关系获取所述第二动作,所述预设对象关系包括所述第一动作与所述第二动作的对应关系;
控制所述第二AR对象执行所述第二动作。
示例性的,第一AR对象执行的动作可以与第二AR对象执行的动作动作相同,例如:第一AR对象抬起右手,则第二AR对象执行与第一AR对象相同的动作,抬起右手。
示例性的,第一AR对象执行的动作可以与第二AR对象执行的动作动作相反。例如:第一AR对象耳朵折叠,则第二AR对象执行与第一AR对象相反的动作,耳朵展开。
当然,第一AR对象执行的动作与第二AR对象执行的动作动作还可以以其他方式匹配,本发明实施例中对此不作限定。
本发明实施例提供的拍摄方法首先接收用户的第一输入,然后响应于所述第一输入,执行拍摄操作,再接收用户的第二输入,最后响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示,由于本发明实施例可以在拍摄过程中,按照接收用户的第二输入,并基于用户的第二输入对应的动作参数更新第一AR对象的显示,因此用户可以通过第二输入编辑第一AR对象的显示。即,用户可以根据想要的动态效果输入第二操作,从而控制第一AR对象的显示效果。由于本发明实施例提供的拍摄方法可以对第一AR对象动态效果进行编辑,因此本发明实施例可以解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
本申请实施例可以根据上述方法示例对终端设备等进行功能模块的划分。例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用集成的单元的情况下,图8示出了上述实施例一中所涉及的终端设备的一种可能的结构示意图,该终端设备800包括:
接收单元81,用于接收用户的第一输入;
处理单元82,用于基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数;
所述接收单元81,还用于接收用户的第二输入;
所述处理单元82,还用于响应于所述第二输入,执行拍摄操作;
显示单元83,用于在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
可选的,所述接收单元81,具体用于采集用户的第一姿态信息和第二姿态信息;
所述处理单元82,具体用于基于所述第一姿态信息,确定所述目标AR对象,以及基于所述第二姿态信息,确定所述目标AR对象的至少一个动作;其中,所述动作参数包括所述至少一个动作;
所述显示单元83,具体用于按照所述动作参数,控制所述目标AR对象执行所述至少一个动作。
可选的,所述接收单元,还用于采集用户的第三姿态信息;
所述处理单元,具体还用于基于所述第三姿态信息,确定所述目标AR对象执行所述至少一个动作时的效果参数;
其中,所述效果参数包括以下至少一项:执行所述至少一个动作前等待的时间长度、所述至少一个动作中的每个动作的重复执行次数、所述至少一个动作中的每个动作的执行顺序以及所述目标AR对象执行所述至少一个动作中的每个动作时的所述目标AR对象的目标部位的形变硬度。
可选的,所述接收单元,还用于在拍摄过程中,接收用户对所述目标AR对象的第三输入;
所述显示单元,还用于响应于所述第三输入,按照所述第三输入对应的动作参数,更新所述目标AR对象的显示。
本发明实施例提供的终端设备首先接收用户的第一输入,然后基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,再接收用户的第二输入,最后响应于所述第二输入,执行拍摄操作,并在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示,由于本发明实施例可以在拍摄过程中,按照基于用户输入确定的动作参数更新目标AR对象的显示,因此用户可以通过第一输入编辑目标AR对象的显示。即,用户可以根据想要的动态效果输入第一操作,从而控制目标AR对象的显示效果。由于本发明实施例提供的终端设备可以对目标AR对象动态效果进行编辑,因此本发明实施例可以解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
本申请实施例可以根据上述方法示例对终端设备等进行功能模块的划分。例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用集成的单元的情况下,图9示出了上述实施例二中所涉及的终端设备的一种可能的结构示意图,该终端设备900包括:
接收单元91,用于接收用户的第一输入;
处理单元92,用于基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数;
所述接收单元91,还用于接收用户的第二输入;
所述处理单元92,还用于响应于所述第二输入,执行拍摄操作;
显示单元93,用于在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
可选的,所述接收单元91,还用于接收用户的第三输入;
所述处理单元92,还用于基于所述第三输入,确定所述第一AR对象。
可选的,所述处理单元,具体用于基于所述第二输入,确定所述第一AR对象的动作参数;
其中,所述动作参数包括以下至少一项:所述第一AR对象的物理属性、所述第一AR对象的互动部位以及与所述第一AR对象互动的互动对象,所述物理属性包括动作执行延迟时间、动作重复执行次数、所述第一AR对象的目标部位的形变软硬度中的至少一项;
所述显示单元93,具体用按照所述第二输入对应的动作参数,控制所述第一AR对象执行动作。
可选的,所述接收单元91,具体用于采集用户的姿态信息;
所述显示单元93,具体用于所述按照与所述姿态信息匹配的动作参数,更新第一AR对象的显示。
可选的,所述显示单元93,还用于响应于所述第二输入,显示所述第二AR对象,并将所述第二AR对象确定为对所述第一AR对象执行动作的互动对象,以及在所述第一AR对象执行第一动作的情况下,控制所述第二AR对象执行与所述第一动作匹配的第二动作。
本发明实施例提供的终端设备首先接收用户的第一输入,然后响应于所述第一输入,执行拍摄操作,再接收用户的第二输入,最后响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示,由于本发明实施例可以在拍摄过程中,按照接收用户的第二输入,并基于用户的第二输入对应的动作参数更新第一AR对象的显示,因此用户可以通过第二输入编辑第一AR对象的显示。即,用户可以根据想要的动态效果输入第二操作,从而控制第一AR对象的显示效果。由于本发明实施例提供的终端设备可以对第一AR对象动态效果进行编辑,因此本发明实施例可以解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
图10为实现本发明的实施例的一种终端设备的硬件结构示意图,该终端设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110以及电源111等部件。本领域技术人员可以理解,图10中示出的终端设备结构并不构成对终端设备的限定,终端设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,终端设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备以及计步器等。
其中,输入单元104或用户输入单元107,用于接收用户的第一输入;
处理器110,用于基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数;
输入单元104或用户输入单元107,还用于接收用户的第二输入;
处理器110,还用于响应于所述第二输入,执行拍摄操作;
显示单元106,用于在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
本发明实施例提供的终端设备首先接收用户的第一输入,然后基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,再接收用户的第二输入,最后响应于所述第二输入,执行拍摄操作,并在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示,由于本发明实施例可以在拍摄过程中,按照基于用户输入确定的动作参数更新目标AR对象的显示,因此用户可以通过第一输入编辑目标AR对象的显示。即,用户可以根据想要的动态效果输入第一操作,从而控制目标AR对象的显示效果。由于本发明实施例提供的终端设备可以对目标AR对象动态效果进行编辑,因此本发明实施例可以解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
或者;
输入单元104或用户输入单元107,用于接收用户的第一输入;
处理器110,用于基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数;
输入单元104或用户输入单元107,还用于接收用户的第二输入;
处理器110,还用于响应于所述第二输入,执行拍摄操作;
显示单元106,用于在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
本发明实施例提供的终端设备首先接收用户的第一输入,然后响应于所述第一输入,执行拍摄操作,再接收用户的第二输入,最后响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示,由于本发明实施例可以在拍摄过程中,按照接收用户的第二输入,并基于用户的第二输入对应的动作参数更新第一AR对象的显示,因此用户可以通过第二输入编辑第一AR对象的显示。即,用户可以根据想要的动态效果输入第二操作,从而控制第一AR对象的显示效果。由于本发明实施例提供的终端设备可以对第一AR对象动态效果进行编辑,因此本发明实施例可以解决现有技术中AR图案动态效果单一,在连拍或录像模式的动画效果死板的问题。
应理解的是,本发明实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
终端设备通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与终端设备执行的特定功能相关联的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
终端设备还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在终端设备移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测多个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别终端设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息以及产生与终端设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图10中,触控面板1071与显示面板1061是作为两个独立的部件来实现终端设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现终端设备的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与终端设备连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到终端设备内的一个或多个元件或者可以用于在终端设备和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是终端设备的控制中心,利用各种接口和线路连接整个终端设备的多个部分,通过运行或执行存储在存储器109内的软件程序和/或模块以及调用存储在存储器109内的数据,执行终端设备的各种功能和处理数据,从而对终端设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
终端设备还可以包括给多个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电以及功耗管理等功能。
另外,终端设备包括一些未示出的功能模块,在此不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例一所述的拍摄方法的多个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络侧设备等)执行本发明多个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (13)
1.一种拍摄方法,其特征在于,包括:
接收用户的第一输入;
基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数;
接收用户的第二输入;
响应于所述第二输入,执行拍摄操作,并在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,包括:
采集用户的第一姿态信息和第二姿态信息;
基于所述第一姿态信息,确定所述目标AR对象;
基于所述第二姿态信息,确定所述目标AR对象的至少一个动作;
其中,所述动作参数包括所述至少一个动作;
所述按照所述动作参数,更新所述目标AR对象的显示,包括:
按照所述动作参数,控制所述目标AR对象执行所述至少一个动作。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数,所述方法还包括:
采集用户的第三姿态信息;
基于所述第三姿态信息,确定所述目标AR对象执行所述至少一个动作时的效果参数;
其中,所述效果参数包括以下至少一项:执行所述至少一个动作前等待的时间长度、所述至少一个动作中的每个动作的重复执行次数、所述至少一个动作中的每个动作的执行顺序以及所述目标AR对象执行所述至少一个动作中的每个动作时的所述目标AR对象的目标部位的形变硬度。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
在拍摄过程中,接收用户对所述目标AR对象的第三输入;
响应于所述第三输入,按照所述第三输入对应的动作参数,更新所述目标AR对象的显示。
5.一种拍摄方法,其特征在于,包括:
接收用户的第一输入;
响应于所述第一输入,执行拍摄操作;
在拍摄过程中,接收用户对第一AR对象的第二输入;
响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示。
6.根据权利要求5所述的方法,其特征在于,在接收用户对第一AR对象的第二输入之前,所述方法还包括:
接收用户的第三输入;
基于所述第三输入,确定所述第一AR对象。
7.根据权利要求5所述的方法,其特征在于,所述响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示,包括:
基于所述第二输入,确定所述第一AR对象的动作参数;
其中,所述动作参数包括以下至少一项:所述第一AR对象的物理属性、所述第一AR对象的互动部位以及与所述第一AR对象互动的互动对象,所述物理属性包括动作执行延迟时间、动作重复执行次数、所述第一AR对象的目标部位的形变软硬度中的至少一项;
所述按照所述第二输入对应的动作参数,更新第一AR对象的显示,包括:
按照所述第二输入对应的动作参数,控制所述第一AR对象执行动作。
8.根据权利要求5所述的方法,其特征在于,所述响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示,包括:
采集用户的姿态信息;
按照与所述姿态信息匹配的动作参数,更新第一AR对象的显示。
9.根据权利要求5所述的方法,其特征在于,所述接收用户对第一AR对象的第二输入之后,所述方法还包括:
响应于所述第二输入,显示所述第二AR对象,并将所述第二AR对象确定为对所述第一AR对象执行动作的互动对象;
在所述第一AR对象执行第一动作的情况下,控制所述第二AR对象执行与所述第一动作匹配的第二动作。
10.一种终端设备,其特征在于,包括:
接收单元,用于接收用户的第一输入;
处理单元,用于基于所述第一输入,确定目标AR对象和所述目标AR对象的动作参数;
所述接收单元,还用于接收用户的第二输入;
所述处理单元,还用于响应于所述第二输入,执行拍摄操作;
显示单元,用于在拍摄过程中,按照所述动作参数,更新所述目标AR对象的显示。
11.一种终端设备,其特征在于,包括:
接收单元,用于接收用户的第一输入;
处理单元,用于响应于所述第一输入,执行拍摄操作;
所述接收单元,还用于在拍摄过程中,接收用户对第一AR对象的第二输入;
显示单元,用于响应于所述第二输入,按照所述第二输入对应的动作参数,更新第一AR对象的显示。
12.一种终端设备,其特征在于,包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的拍摄方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的拍摄方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811520972.8A CN109547696B (zh) | 2018-12-12 | 2018-12-12 | 一种拍摄方法及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811520972.8A CN109547696B (zh) | 2018-12-12 | 2018-12-12 | 一种拍摄方法及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109547696A true CN109547696A (zh) | 2019-03-29 |
CN109547696B CN109547696B (zh) | 2021-07-30 |
Family
ID=65854830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811520972.8A Active CN109547696B (zh) | 2018-12-12 | 2018-12-12 | 一种拍摄方法及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109547696B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110062171A (zh) * | 2019-05-31 | 2019-07-26 | 维沃移动通信(杭州)有限公司 | 一种拍摄方法及终端 |
TWI775135B (zh) * | 2019-08-28 | 2022-08-21 | 大陸商北京市商湯科技開發有限公司 | 互動方法、裝置、設備以及記錄媒體 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080201144A1 (en) * | 2007-02-16 | 2008-08-21 | Industrial Technology Research Institute | Method of emotion recognition |
CN105975935A (zh) * | 2016-05-04 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法和装置 |
CN106210545A (zh) * | 2016-08-22 | 2016-12-07 | 北京金山安全软件有限公司 | 一种视频拍摄方法、装置及电子设备 |
CN107911614A (zh) * | 2017-12-25 | 2018-04-13 | 腾讯数码(天津)有限公司 | 一种基于手势的图像拍摄方法、装置和存储介质 |
CN108259761A (zh) * | 2018-03-23 | 2018-07-06 | 维沃移动通信有限公司 | 一种拍摄方法及终端 |
CN108874136A (zh) * | 2018-06-13 | 2018-11-23 | 北京百度网讯科技有限公司 | 动态图像生成方法、装置、终端和存储介质 |
CN108924438A (zh) * | 2018-06-26 | 2018-11-30 | Oppo广东移动通信有限公司 | 拍摄控制方法及相关产品 |
-
2018
- 2018-12-12 CN CN201811520972.8A patent/CN109547696B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080201144A1 (en) * | 2007-02-16 | 2008-08-21 | Industrial Technology Research Institute | Method of emotion recognition |
CN105975935A (zh) * | 2016-05-04 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法和装置 |
CN106210545A (zh) * | 2016-08-22 | 2016-12-07 | 北京金山安全软件有限公司 | 一种视频拍摄方法、装置及电子设备 |
CN107911614A (zh) * | 2017-12-25 | 2018-04-13 | 腾讯数码(天津)有限公司 | 一种基于手势的图像拍摄方法、装置和存储介质 |
CN108259761A (zh) * | 2018-03-23 | 2018-07-06 | 维沃移动通信有限公司 | 一种拍摄方法及终端 |
CN108874136A (zh) * | 2018-06-13 | 2018-11-23 | 北京百度网讯科技有限公司 | 动态图像生成方法、装置、终端和存储介质 |
CN108924438A (zh) * | 2018-06-26 | 2018-11-30 | Oppo广东移动通信有限公司 | 拍摄控制方法及相关产品 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110062171A (zh) * | 2019-05-31 | 2019-07-26 | 维沃移动通信(杭州)有限公司 | 一种拍摄方法及终端 |
US11778304B2 (en) | 2019-05-31 | 2023-10-03 | Vivo Mobile Communication Co., Ltd. | Shooting method and terminal |
TWI775135B (zh) * | 2019-08-28 | 2022-08-21 | 大陸商北京市商湯科技開發有限公司 | 互動方法、裝置、設備以及記錄媒體 |
Also Published As
Publication number | Publication date |
---|---|
CN109547696B (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107872623B (zh) | 一种拍摄方法、移动终端及计算机可读存储介质 | |
CN109889348A (zh) | 一种图像分享方法及装置 | |
CN110035227A (zh) | 特效效果显示方法及终端设备 | |
CN109613958A (zh) | 一种终端设备控制方法及终端设备 | |
CN110231897A (zh) | 一种对象处理方法及终端设备 | |
CN108763317A (zh) | 一种辅助选取图片的方法和终端设备 | |
CN109085968A (zh) | 一种截屏方法及终端设备 | |
CN110244884A (zh) | 一种桌面图标管理方法及终端设备 | |
CN108881719A (zh) | 一种切换拍摄方式的方法及终端设备 | |
CN110007822A (zh) | 一种界面显示方法及终端设备 | |
CN109085963A (zh) | 一种界面显示方法及终端设备 | |
CN110225180A (zh) | 一种内容输入方法及终端设备 | |
CN109815462A (zh) | 一种文本生成方法及终端设备 | |
CN109120853A (zh) | 一种长曝光图像拍摄方法及终端 | |
CN109117054A (zh) | 一种显示控制方法及终端 | |
CN108984143A (zh) | 一种显示控制方法及终端设备 | |
KR20210100171A (ko) | 세션 생성 방법 및 단말 장치 | |
CN108540668B (zh) | 一种程序启动方法及移动终端 | |
EP4131028A1 (en) | Note creating method and electronic device | |
CN109361864A (zh) | 一种拍摄参数设置方法及终端设备 | |
CN110022445A (zh) | 一种内容输出方法及终端设备 | |
CN110233914A (zh) | 一种终端设备及其控制方法 | |
CN110012152A (zh) | 一种界面显示方法及终端设备 | |
CN109547696A (zh) | 一种拍摄方法及终端设备 | |
CN109933267A (zh) | 控制终端设备的方法及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |