CN114245000A - 拍摄方法和装置、电子设备、存储介质 - Google Patents
拍摄方法和装置、电子设备、存储介质 Download PDFInfo
- Publication number
- CN114245000A CN114245000A CN202010942772.2A CN202010942772A CN114245000A CN 114245000 A CN114245000 A CN 114245000A CN 202010942772 A CN202010942772 A CN 202010942772A CN 114245000 A CN114245000 A CN 114245000A
- Authority
- CN
- China
- Prior art keywords
- mirror
- track
- image
- template
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开是关于一种拍摄方法和装置、电子设备、存储介质。该方法包括:接收图像采集启动指令;在所述电子设备的图像取景框内创建AR锚点,所述AR锚点对应被拍摄对象在虚拟三维空间中的位置;根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹;所述运镜轨迹表示期望相机模组在虚拟三维空间中的移动路线;根据所述运镜轨迹对所述被拍摄对象进行图像采集。本实施例中通过在虚拟现实场景内显示运镜轨迹,方便用户根据运镜轨迹运用运镜拍摄技巧,从而获得高质量的视频;同时,本实施例中无需携带额外的硬件,降低成本;并且,无需用户需要专业的运镜知识,降低学习成本,有利于提升拍摄体验。
Description
技术领域
本公开涉及控制技术领域,尤其涉及一种拍摄方法和装置、电子设备、存储介质。
背景技术
目前,在影视拍摄过程中,为获取特定效果的视频,通常会用到运动镜头,即通过移动摄像机机位,或者改变镜头光轴,或者变化镜头焦距所进行的拍摄,后称之为“运镜”。为实现上述运镜功能,由专业人员选位、铺设导轨等操作,需要很多的专业知识和硬件,这对于普通的终端用户来说则不太方便,即成本太高和硬件不便携带,并且学习成本极高。
发明内容
本公开提供一种拍摄方法和装置、电子设备、存储介质,以解决相关技术的不足。
根据本公开实施例的第一方面,提供一种拍摄方法,适应于设置有相机模组的电子设备,所述方法包括:
接收图像采集启动指令;
在所述电子设备的图像取景框内创建AR锚点,所述AR锚点对应被拍摄对象在虚拟三维空间中的位置;
根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹;所述运镜轨迹表示期望相机模组在虚拟三维空间中的移动路线;
根据所述运镜轨迹对所述被拍摄对象进行图像采集。
可选地,在所述电子设备的图像取景框内创建AR锚点,包括:
获取图像取景框内各对象的多个特征点;
确定所述多个特征点中的一个特征点作为AR锚点,所述AR锚点所在对象作为被拍摄对象且所述AR锚点的位置对应所述被拍摄对象在虚拟三维空间中的位置。
可选地,获取图像取景框内各对象的多个特征点,包括:
获取图像取景框内预览场景的平面图像和深度图像;
根据所述深度图像获取所述预览场景内各对象的多个特征点。
可选地,获取图像取景框内各对象的多个特征点,包括:
获取图像取景框内预览场景的平面图像和深度图像;
根据预设的特征点提取模型获取所述平面图像内的多个特征点;
基于所述深度图像,确定各特征点的深度数据,得到各对象的多个特征点。
可选地,根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹,包括:
从预设的模板库内获取目标模板,所述目标模板内包括运镜轨迹的目标形状、参考点与运镜轨迹的相对位置;
当所述AR锚点和所述参考点重合时,生成经过所述当前位置且与所述目标形状相匹配的运镜轨迹。
可选地,从预设的模板库内获取目标模板,包括:
展示预设的模板库内的模板;所述模板包括以下至少一种:推镜头模板、拉镜头模板、摇镜头模板、横移镜头模板、升降镜头模板、降镜头模板和环绕镜头模板;
当检测到表示选择模板的触发操作时,获取所述触发操作对应的模板作为目标模板。
可选地,根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹,包括:
基于预设规则,根据所述AR锚点和所述当前位置生成至少一条运镜轨迹;所述运镜轨迹包括一种或者多种:推镜头轨迹、拉镜头轨迹、摇镜头轨迹、横移镜头轨迹、升降镜头轨迹、降镜头轨迹和环绕镜头轨迹;
确定用户所选择的运镜轨迹作为生成的运镜轨迹。
可选地,生成运镜轨迹之后,所述方法还包括:
对比所述运镜轨迹和所述图像取景框内各对象的位置;
当存在对象位于所述运镜轨迹上时,调整所述运镜轨迹处于所述对象周围的部分,以使所述运镜轨迹绕过所述对象。
可选地,根据所述运镜轨迹对所述被拍摄对象进行图像采集,包括:
获取相机模组的实时位置和初始位置,所述初始位置是指生成所述运镜轨迹时相机模组所在的位置;
获取初始位置、AR锚点的位置和运镜轨迹的空间关系;
基于所述空间关系,根据所述实时位置相对于所述初始位置的相对位置移动所述AR锚点和所述运镜轨迹。
可选地,根据所述运镜轨迹对所述被拍摄对象进行图像采集,包括:
在拍摄过程中,检测相机模组是否位于所述运镜轨迹之上;
当所述相机模组未位于所述运镜轨迹之上时,调整所述运镜轨迹的指定参数,以提醒所述相机模组偏移所述运镜轨迹。
根据本公开实施例的第二方面,提供一种一种拍摄装置,适应于设置有相机模组的电子设备,所述装置包括:
指令接收模块,用于接收图像采集启动指令;
锚点创建模块,用于在所述电子设备的图像取景框内创建AR锚点,所述AR锚点对应被拍摄对象在虚拟三维空间中的位置;
轨迹生成模块,用于根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹;所述运镜轨迹表示期望相机模组在虚拟三维空间中的移动路线;
图像采集模块,用于根据所述运镜轨迹对所述被拍摄对象进行图像采集。
可选地,所述锚点创建模块包括:
特征点获取单元,用于获取图像取景框内各对象的多个特征点;
锚点确定单元,用于确定所述多个特征点中的一个特征点作为AR锚点,所述AR锚点所在对象作为被拍摄对象且所述AR锚点的位置对应所述被拍摄对象在虚拟三维空间中的位置。
可选地,所述特征点获取单元包括:
图像获取子单元,用于获取图像取景框内预览场景的平面图像和深度图像;
特征点获取子单元,用于根据所述深度图像获取所述预览场景内各对象的多个特征点。
可选地,所述特征点获取单元包括:
图像获取子单元,用于获取图像取景框内预览场景的平面图像和深度图像;
特征点提取子单元,用于根据预设的特征点提取模型获取所述平面图像内的多个特征点;
特征点确定子单元,用于基于所述深度图像,确定各特征点的深度数据,得到各对象的多个特征点。
可选地,所述轨迹生成模块包括:
模块获取单元,用于从预设的模板库内获取目标模板,所述目标模板内包括运镜轨迹的目标形状、参考点与运镜轨迹的相对位置;
轨迹生成单元,用于当所述AR锚点和所述参考点重合时,生成经过所述当前位置且与所述目标形状相匹配的运镜轨迹。
可选地,所述模块获取单元包括:
模板展示子单元,用于展示预设的模板库内的模板;所述模板包括以下至少一种:推镜头模板、拉镜头模板、摇镜头模板、横移镜头模板、升降镜头模板、降镜头模板和环绕镜头模板;
模板确定子单元,用于当检测到表示选择模板的触发操作时,获取所述触发操作对应的模板作为目标模板。
可选地,所述轨迹生成模块包括:
轨迹生成单元,用于基于预设规则,根据所述AR锚点和所述当前位置生成至少一条运镜轨迹;所述运镜轨迹包括一种或者多种:推镜头轨迹、拉镜头轨迹、摇镜头轨迹、横移镜头轨迹、升降镜头轨迹、降镜头轨迹和环绕镜头轨迹;
轨迹确定单元,用于确定用户所选择的运镜轨迹作为生成的运镜轨迹。
可选地,所述装置还包括:
位置对比模块,用于对比所述运镜轨迹和所述图像取景框内各对象的位置;
轨迹调整模块,用于当存在对象位于所述运镜轨迹上时,调整所述运镜轨迹处于所述对象周围的部分,以使所述运镜轨迹绕过所述对象。
可选地,所述图像采集模块包括:
位置获取单元,用于获取相机模组的实时位置和初始位置,所述初始位置是指生成所述运镜轨迹时相机模组所在的位置;
关系获取单元,用于获取初始位置、AR锚点的位置和运镜轨迹的空间关系;
轨迹移动单元,用于基于所述空间关系,根据所述实时位置相对于所述初始位置的相对位置移动所述AR锚点和所述运镜轨迹。
可选地,所述图像采集模块包括:
轨迹检测单元,用于在拍摄过程中,检测相机模组是否位于所述运镜轨迹之上;
轨迹调整单元,用于当所述相机模组未位于所述运镜轨迹之上时,调整所述运镜轨迹的指定参数,以提醒所述相机模组偏移所述运镜轨迹。
根据本公开实施例的第三方面,提供一种一种电子设备,包括:
相机;
处理器;
用于存储所述处理器可执行的计算机程序的存储器;
其中,所述处理器被配置为执行所述存储器中的计算机程序,以实现如第一方面所述的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,当所述存储介质中的可执行的计算机程序由处理器执行时,能够实现如第一方面所述的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
由上述实施例可知,本公开实施例可以接收图像采集启动指令;然后,在所述电子设备的图像取景框内创建AR锚点,所述AR锚点对应被拍摄对象在虚拟三维空间中的位置;之后,根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹;所述运镜轨迹表示期望相机模组在虚拟三维空间中的移动路线;最后,根据所述运镜轨迹对所述被拍摄对象进行图像采集。这样,本实施例中通过在虚拟现实场景内显示运镜轨迹,方便用户根据运镜轨迹运用运镜拍摄技巧,从而获得高质量的视频;同时,本实施例中无需携带额外的硬件,降低成本;并且,无需用户需要专业的运镜知识,降低学习成本,有利于提升拍摄体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种拍摄方法的流程图。
图2是根据一示例性实施例示出的确定AR锚点的流程图。
图3是根据一示例性实施例示出的一种虚拟现实场景的效果示意图。
图4是根据一示例性实施例示出的一种获取特征点的流程图。
图5是根据一示例性实施例示出的另一种获取特征点的流程图。
图6是根据一示例性实施例示出的一种生成运镜轨迹的流程图。
图7是根据一示例性实施例示出的一种获取目标模板的流程图。
图8是根据一示例性实施例示出的一种显示模板的效果示意图。
图9是根据一示例性实施例示出的一种显示运镜轨迹的效果示意图。
图10是根据一示例性实施例示出的另一种生成运镜轨迹的流程图。
图11是根据一示例性实施例示出的一种显示两条运镜轨迹的效果示意图。
图12是根据一示例性实施例示出的另一种拍摄方法的流程图。
图13是根据一示例性实施例示出的又一种拍摄方法的流程图。
图14是根据一示例性实施例示出的又一种拍摄方法的流程图。
图15是根据一示例性实施例示出的调整运镜轨迹的指定参数的效果示意图。
图16是根据一示例性实施例示出的一种拍摄装置的框图。
图17是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性所描述的实施例并不代表与本公开相一致的所有实施例。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置例子。
为解决上述技术问题,本公开实施例提供了一种拍摄方法,该方法可以适用于设置有相机模组的电子设备,例如智能手机、平板电脑和智能耳机等,当用户开启相机模组进行拍摄时,电子设备可以执行上述拍摄方法。图1是根据一示例性实施例示出的一种拍摄方法的流程图,包括步骤11~步骤14:
在步骤11中,接收图像采集启动指令。
本实施例中,在相机模组开启后,电子设备可以在显示屏上显示一图像取景框,用户可以通过触控显示屏或者使用按键启动图像采集功能。其中,图像采集功能可以采用拍摄视频功能或者连拍图像功能。之后,电子设备中处理器可以检测显示屏或者按键,获取图像采集启动指令。
在步骤12中,在所述电子设备的图像取景框内创建AR锚点,所述AR锚点对应被拍摄对象在虚拟三维空间中的位置。
本实施例中,参见图2,在步骤21中,电子设备中处理器可以获取图像取景框内各对象的多个特征点,效果如图3所示。参见图3,特征点20表示图像取景框中人物肘部以及肘部在整个图像取景框中的空间位置(通过特征点的坐标数据以及与其他特征点的相对位置关系来体现)。
其中,处理器获取图像取景框内各对象的多个特征点,可以包括:
在一示例中,电子设备中设置有普通摄像头和深度摄像头,这样普通摄像头可以获取图像取景框内预览场景的平面图像,深度摄像头可以获取预览场景的深度图像。参见图4,在步骤41中,处理器与普通摄像头和深度摄像头分别通信,可以获取到平面图像和深度图像。在步骤42中,处理器可以根据深度图像和平面图像,获取预览场景内各对象的多个特征点,这些特征点可以反映出对象的轮廓,空间位置等,例如人物的头部和肘部,桌子的桌脚,室内墙角等。可理解的是,各特征点的属性数据可以包括三维坐标数据、与其他特征点的空间关系数据、与镜头的空间关系数据等,可以根据具体场景进行设置。最后,处理器可以将多个特征点插入到预览场景的对象之上。其中将特征点插入到预览场景的过程可以参考相关技术,在此不再赘述。
在另一示例中,电子设备中设置有普通摄像头和深度摄像头,这样普通摄像头可以获取预览场景的平面图像,深度摄像头可以获取预览场景的深度图像。参见图5,在步骤51中,处理器可以获取预览场景的平面图像和深度图像。在步骤52中,处理器可以调用预设的特征点提取模型,例如FAST算法、SIFT算法、SUFR算法、ORB算法、HARRIS算法等,将平面图像输入到该特征点提取模型,从而可以得到平面图像内的多个特征点。可理解的是,此时各特征点的属性数据可以包括二维坐标数据、与其他特征点的平面关系数据、与镜头的平面关系数据等。在步骤53中,处理器可以根据基于深度图像,确定各特征点的深度数据,进而可以平面关系更新为空间关系,即各特征点从平面坐标系迁移到三维坐标系,此时,各特征点的属性数据可以包括三维坐标数据、与其他特征点的空间关系数据、与镜头的空间关系数据等。最后,处理器可以将多个特征点插入到预览场景的对象之上。
需要说明的是,本步骤的核心在于开启图像采集功能后会从当前的普通拍摄模式(即预览场景中有什么对象就显示什么对象)自动切换到虚拟三维空间,从而实现如图3所示的包含多个特征点的效果。
继续参见图2,在步骤22中,确定所述多个特征点中的一个特征点作为AR锚点,所述AR锚点所在对象作为被拍摄对象且AR锚点的位置对应被拍摄对象在虚拟三维空间中的位置。本实施例中,电子设备中处理器与显示器通信,控制显示器显示上述图像取景框,以将多个特征点展现给用户。用户可以通过按键或者触控等方式对电子设备进行触发操作,例如用户点击图3中的特征点20。这样,处理器可以根据触发操作确定图像取景框内的一个特征点作为AR锚点。可理解的是,该AR锚点所在对象作为被拍摄对象。或者说,用户通过选择AR锚点的方式从虚拟三维空间中选择了一个被拍摄对象。
在步骤13中,根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹;所述运镜轨迹表示期望相机模组在虚拟三维空间中的移动路线。
本实施例中,电子设备中处理器可以根据电子设备中镜头的当前位置和AR锚点生成运镜轨迹,包括:
在一示例中,电子设备内预设有模板库,该模板库内包括若干个模板,每个模板包括运镜轨迹的目标形状、参考点与运镜轨迹的相对位置。例如,模板1包括运镜轨迹的形状为圆形、参考点与运镜轨迹的相对位置即是半径,此模板1对应环绕镜头的运镜技巧。模板2包括运镜轨迹的形状为从上到下的垂线段,参考点位于垂线的上端点,此模板对应降镜头的运镜技巧;将模板2中的形状反过来即对应升镜头的运镜技巧。模板3包括运镜轨迹的形状为从左到右的水平线段,参考点为水平线段左端点,此模板对应横移镜头的运镜技巧。需要说明的是,上述仅列举了几种模板,可以根据具体运镜技巧设置相应的模板,例如跟随镜头、摇镜头、推镜头、拉镜头等,相应模板落入本公开的保护范围。
参见图6,在步骤61中,处理器可以从预设的模板库内获取模板,得到目标模板;获取方式可以包括:参见图7,在步骤71中,当处理器确定AR锚点后,可以根据AR锚点的位置或者AR锚点对应对象从模板库内匹配出数个模板作为候选模板,罗列展示在AR锚点周围,效果如图8所示,以方便用户选择。当然,匹配方式还可以是随机选出数个候选模板,还可以是根据用户的使用历史从中选出使用频次较高的数个候选模板,相应方案落入本公开的保护范围。在步骤72中,当用户触发操作其中一个候选模板后,处理器可以确定该候选模板作为目标模板。相应地,目标模板包括运镜轨迹的目标形状、参考点与运镜轨迹的相对位置。
在步骤62中,处理器可以将AR锚点和参考点叠加,使两者重合。当AR锚点和参考点重合时,处理器可以生成经过镜头的当前位置且与目标形状相匹配的运镜轨迹,效果如图9所示。参见图9,当用户选择人物上的特征点20作为AR锚点时,且选择模板3时,可以获得一条从左到右的水平线段21,且水平线段21到AR锚点的水平距离为d(即参考点与运镜轨迹的相对位置)。
在另一示例中,电子设备内存储有预设规则,该预设规则可以包括若干个生成运镜轨迹的规则。例如,以AR锚点为中心,生成一个经过当前位置的圆形或者生成一个预设半径的圆形,该圆形作为运镜轨迹时对应环绕镜头的运镜技巧。又如,在水平方向与AR锚点距离d的参考点为起点或者当前位置为起点,生成形状为从上到下的垂线段,该垂线段作为运镜轨迹时对应降镜头的运镜技巧。再如,在水平方向与AR锚点距离d的参考点为起点或者当前位置为起点,生成形状为从左到右的水平线段,该水平线段作为运镜轨迹时对应横移镜头的运镜技巧。需要说明的是,上述仅列举了几种规则,可以根据具体运镜技巧设置相应的规则,例如跟随镜头、摇镜头、推镜头、拉镜头等,相应规则落入本公开的保护范围。
参见图10,在步骤101中,处理器可以基于预设规则,根据AR锚点和当前位置至少一条运镜轨迹,效果如图11所示。参见图11,处理器生成了运镜轨迹21和运镜轨迹22。在步骤102中,处理器可以检测用户的触发操作,确定用户选择的运镜轨迹作为生成的运镜轨迹。
实际应用中,图像取景框内可以包括若干个对象,那么根据模板或者预设规则生成运镜轨迹可能会经过某个对象,这样用户在运镜过程中可能发生危险。为此,在一实施例中,参见图12,在步骤121中,处理器可以对比运镜轨迹和图像取景框中对象的位置,从而可以确定是否有对象位于运镜轨迹之上。在步骤122中,当存在对象位于运镜轨迹之上时,处理器可以调整运镜轨迹处于对象周围的部分,并将调整后得到的运镜轨迹作为最终的运镜轨迹,否则不做调整。这样,本实施例中通过对运镜轨迹适应性调整,可以保证实现运镜拍摄的同时保证用户安全。
在步骤14中,根据所述运镜轨迹对所述被拍摄对象进行图像采集。
本实施例中,用户可以根据运镜轨迹的指引,对被拍摄对象进行图像采集,如拍摄视频和连拍图像。
实际应用中,在生成图像取景框之后,用户可能会移动电子设备,此时,参见图13,在步骤131中,处理器可以获取相机模组的实时位置和初始位置,初始位置是指生成所述运镜轨迹时相机模组所在的位置。在步骤132中,处理器可以获取初始位置、AR锚点的位置和运镜轨迹的空间关系。需要说明的是,在获取到运镜轨迹时,实际上已经获得到初始位置、AR锚点的位置与运镜轨迹三者的空间关系,因此可以预先计算出空间关系并存储到指定位置以方便后续使用。在步骤133中,处理器可以基于所述空间关系,根据实时位置相对于初始位置的相对位置移动AR锚点和运镜轨迹,从而调整运镜轨迹在显示屏中的显示部分,这样可以减少处理数据的数量,并且通过动态显示运镜轨迹可以提升用户的使用体验。
实际应用中,在运镜拍摄过程中,用户或者镜头可能会偏移运镜轨迹。为此,本实施例中,参见图14,在步骤141中,处理器可以在拍摄过程检测相机模组是否位于运镜轨迹之上。在步骤142中,当相机模组未位于运镜轨迹之上时,调整运镜轨迹的指定参数,例如颜色、宽度、虚实线、移动速度、频闪等,以提醒相机模组偏移运镜轨迹,效果如图15所示,方框23内的运镜轨迹变细,提醒用户已经远离运镜轨迹。这样,本实施例可以保证用户在准确的运镜,以获得高质量的视频。
至此,本实施例中通过在虚拟现实场景内显示运镜轨迹,方便用户根据运镜轨迹运用运镜拍摄技巧,从而获得高质量的视频;同时,本实施例中无需携带额外的硬件,降低成本;并且,无需用户需要专业的运镜知识,降低学习成本,有利于提升拍摄体验。
下面结合各种运镜技巧来描述上述一种拍摄方法,包括:
推镜头或者拉镜头
描述:拍摄者不动,镜头由远向被拍摄对象移动。
实现:
1.选择被拍摄对象和运镜模板;
2.选择AR锚点、被拍摄对象,生成运镜轨迹;
3.拍摄者根据运镜轨迹移动进行图像采集。
摇镜头
描述:拍摄者运动,镜头位置固定,镜头拍摄角度跟随移动。
实现:
1.拍摄者选择被拍摄对象和运镜模板;
2.动态识别被拍摄对象的位置,基于位置移动镜头进行图像采集。
横移镜头
描述:被拍摄对象和镜头保持固定距离,镜头跟随被拍摄对象移动。
实现:
1.拍摄者选择AR锚点、被拍摄对象和运镜模板;
2.在AR锚点固定距离和方向生成运镜轨迹;
3.检测被拍摄对象在视频每帧构图中的位置,拍摄者平行移动进行图像采集。
升降镜头
描述:机位从上到下或者从下到上。
实现:
1.拍摄者选择AR锚点、被拍摄对象和运镜模板;
2.根据从上到下或者从下到上,AR锚点放置高度和被拍摄对象的身高有关;
3.显示固定距离为起点的机位和运镜轨迹进行图像采集。
在上述一种拍摄方法的基础上,本公开实施例还提供了一种拍摄装置,适应于设置有相机模组的电子设备,参见图16,所述装置包括:
指令接收模块161,用于接收图像采集启动指令;
锚点创建模块162,用于在所述电子设备的图像取景框内创建AR锚点,所述AR锚点对应被拍摄对象在虚拟三维空间中的位置;
轨迹生成模块163,用于根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹;所述运镜轨迹表示期望相机模组在虚拟三维空间中的移动路线;
图像采集模块164,用于根据所述运镜轨迹对所述被拍摄对象进行图像采集。
在一实施例中,所述AR锚点创建模块包括:
特征点获取单元,用于获取图像取景框内各对象的多个特征点;
锚点确定单元,用于确定所述多个特征点中的一个特征点作为AR锚点,所述AR锚点所在对象作为被拍摄对象且所述AR锚点的位置对应所述被拍摄对象在虚拟三维空间中的位置。
在一实施例中,所述特征点获取单元包括:
图像获取子单元,用于获取图像取景框内预览场景的平面图像和深度图像;
特征点获取子单元,用于根据所述深度图像获取所述预览场景内各对象的多个特征点。
在一实施例中,所述特征点获取单元包括:
图像获取子单元,用于获取图像取景框内预览场景的平面图像和深度图像;
特征点提取子单元,用于根据预设的特征点提取模型获取所述平面图像内的多个特征点;
特征点确定子单元,用于基于所述深度图像,确定各特征点的深度数据,得到各对象的多个特征点。
在一实施例中,所述轨迹生成模块包括:
模块获取单元,用于从预设的模板库内获取目标模板,所述目标模板内包括运镜轨迹的目标形状、参考点与运镜轨迹的相对位置;
轨迹生成单元,用于当所述AR锚点和所述参考点重合时,生成经过所述当前位置且与所述目标形状相匹配的运镜轨迹。
在一实施例中,所述模块获取单元包括:
模板展示子单元,用于展示预设的模板库内的模板;所述模板包括以下至少一种:推镜头模板、拉镜头模板、摇镜头模板、横移镜头模板、升降镜头模板、降镜头模板和环绕镜头模板;
模板确定子单元,用于当检测到表示选择模板的触发操作时,获取所述触发操作对应的模板作为目标模板。
在一实施例中,所述轨迹生成模块包括:
轨迹生成单元,用于基于预设规则,根据所述AR锚点和所述当前位置生成至少一条运镜轨迹;所述运镜轨迹包括一种或者多种:推镜头轨迹、拉镜头轨迹、摇镜头轨迹、横移镜头轨迹、升降镜头轨迹、降镜头轨迹和环绕镜头轨迹;
轨迹确定单元,用于确定用户所选择的运镜轨迹作为生成的运镜轨迹。
在一实施例中,所述装置还包括:
位置对比模块,用于对比所述运镜轨迹和所述图像取景框内各对象的位置;
轨迹调整模块,用于当存在对象位于所述运镜轨迹上时,调整所述运镜轨迹处于所述对象周围的部分,以使所述运镜轨迹绕过所述对象。
在一实施例中,所述图像采集模块包括:
位置获取单元,用于获取相机模组的实时位置和初始位置,所述初始位置是指生成所述运镜轨迹时相机模组所在的位置;
关系获取单元,用于获取初始位置、AR锚点的位置和运镜轨迹的空间关系;
轨迹移动单元,用于基于所述空间关系,根据所述实时位置相对于所述初始位置的相对位置移动所述AR锚点和所述运镜轨迹。
在一实施例中,所述图像采集模块包括:
轨迹检测单元,用于在拍摄过程中,检测相机模组是否位于所述运镜轨迹之上;
轨迹调整单元,用于当所述相机模组未位于所述运镜轨迹之上时,调整所述运镜轨迹的指定参数,以提醒所述相机模组偏移所述运镜轨迹。
可理解的是,本公开实施例提供的装置与上述方法相对应,具体内容可以参考方法各实施例的内容,在此不再赘述。
图17是根据一示例性实施例示出的一种电子设备的框图。例如,电子设备1700可以是智能手机,计算机,数字广播终端,平板设备,医疗设备,健身设备,个人数字助理等。
参照图17,电子设备1700可以包括以下一个或多个组件:处理组件1702,存储器1704,电源组件1706,多媒体组件1708,音频组件1710,输入/输出(I/O)的接口1712,传感器组件1714,通信组件1716,以及图像采集组件1718。
处理组件1702通常控制电子设备1700的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件1702可以包括一个或多个处理器1720来执行计算机程序。此外,处理组件1702可以包括一个或多个模块,便于处理组件1702和其他组件之间的交互。例如,处理组件1702可以包括多媒体模块,以方便多媒体组件1708和处理组件1702之间的交互。
存储器1704被配置为存储各种类型的数据以支持在电子设备1700的操作。这些数据的示例包括用于在电子设备1700上操作的任何应用程序或方法的计算机程序,联系人数据,电话簿数据,消息,图片,视频等。存储器1704可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1706为电子设备1700的各种组件提供电力。电源组件1706可以包括电源管理系统,一个或多个电源,及其他与为电子设备1700生成、管理和分配电力相关联的组件。电源组件1706可以包括电源芯片,控制器可以电源芯片通信,从而控制电源芯片导通或者断开开关器件,使电池向主板电路供电或者不供电。
多媒体组件1708包括在电子设备1700和目标对象之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示屏(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自目标对象的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。
音频组件1710被配置为输出和/或输入音频信号。例如,音频组件1710包括一个麦克风(MIC),当电子设备1700处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1704或经由通信组件1716发送。在一些实施例中,音频组件1710还包括一个扬声器,用于输出音频信号。
I/O接口1712为处理组件1702和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。
传感器组件1714包括一个或多个传感器,用于为电子设备1700提供各个方面的状态评估。例如,传感器组件1714可以检测到电子设备1700的打开/关闭状态,组件的相对定位,例如组件为电子设备1700的显示屏和小键盘,传感器组件1714还可以检测电子设备1700或一个组件的位置改变,目标对象与电子设备1700接触的存在或不存在,电子设备1700方位或加速/减速和电子设备1700的温度变化。本示例中,传感器组件1714可以包括磁力传感器、陀螺仪和磁场传感器,其中磁场传感器包括以下至少一种:霍尔传感器、薄膜磁致电阻传感器、磁性液体加速度传感器。
通信组件1716被配置为便于电子设备1700和其他设备之间有线或无线方式的通信。电子设备1700可以接入基于通信标准的无线网络,如WiFi,2G、3G、4G、5G,或它们的组合。在一个示例性实施例中,通信组件1716经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件1716还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备1700可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现。
在示例性实施例中,还提供了一种包括可执行的计算机程序的非临时性可读存储介质,例如包括指令的存储器1704,上述可执行的计算机程序可由处理器执行以实现上述方法。其中,可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本公开旨在涵盖任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (22)
1.一种拍摄方法,其特征在于,适应于设置有相机模组的电子设备,所述方法包括:
接收图像采集启动指令;
在所述电子设备的图像取景框内创建AR锚点,所述AR锚点对应被拍摄对象在虚拟三维空间中的位置;
根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹;所述运镜轨迹表示期望相机模组在虚拟三维空间中的移动路线;
根据所述运镜轨迹对所述被拍摄对象进行图像采集。
2.根据权利要求1所述的拍摄方法,其特征在于,在所述电子设备的图像取景框内创建AR锚点,包括:
获取图像取景框内各对象的多个特征点;
确定所述多个特征点中的一个特征点作为AR锚点,所述AR锚点所在对象作为被拍摄对象且所述AR锚点的位置对应所述被拍摄对象在虚拟三维空间中的位置。
3.根据权利要求2所述的拍摄方法,其特征在于,获取图像取景框内各对象的多个特征点,包括:
获取图像取景框内预览场景的平面图像和深度图像;
根据所述深度图像获取所述预览场景内各对象的多个特征点。
4.根据权利要求2所述的拍摄方法,其特征在于,获取图像取景框内各对象的多个特征点,包括:
获取图像取景框内预览场景的平面图像和深度图像;
根据预设的特征点提取模型获取所述平面图像内的多个特征点;
基于所述深度图像,确定各特征点的深度数据,得到各对象的多个特征点。
5.根据权利要求1所述的拍摄方法,其特征在于,根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹,包括:
从预设的模板库内获取目标模板,所述目标模板内包括运镜轨迹的目标形状、参考点与运镜轨迹的相对位置;
当所述AR锚点和所述参考点重合时,生成经过所述当前位置且与所述目标形状相匹配的运镜轨迹。
6.根据权利要求5所述的拍摄方法,其特征在于,从预设的模板库内获取目标模板,包括:
展示预设的模板库内的模板;所述模板包括以下至少一种:推镜头模板、拉镜头模板、摇镜头模板、横移镜头模板、升降镜头模板、降镜头模板和环绕镜头模板;
当检测到表示选择模板的触发操作时,获取所述触发操作对应的模板作为目标模板。
7.根据权利要求1所述的拍摄方法,其特征在于,根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹,包括:
基于预设规则,根据所述AR锚点和所述当前位置生成至少一条运镜轨迹;所述运镜轨迹包括一种或者多种:推镜头轨迹、拉镜头轨迹、摇镜头轨迹、横移镜头轨迹、升降镜头轨迹、降镜头轨迹和环绕镜头轨迹;
确定用户所选择的运镜轨迹作为生成的运镜轨迹。
8.根据权利要求1~7任一项所述的拍摄方法,其特征在于,生成运镜轨迹之后,所述方法还包括:
对比所述运镜轨迹和所述图像取景框内各对象的位置;
当存在对象位于所述运镜轨迹上时,调整所述运镜轨迹处于所述对象周围的部分,以使所述运镜轨迹绕过所述对象。
9.根据权利要求1~7任一项所述的拍摄方法,其特征在于,根据所述运镜轨迹对所述被拍摄对象进行图像采集,包括:
获取相机模组的实时位置和初始位置,所述初始位置是指生成所述运镜轨迹时相机模组所在的位置;
获取初始位置、AR锚点的位置和运镜轨迹的空间关系;
基于所述空间关系,根据所述实时位置相对于所述初始位置的相对位置移动所述AR锚点和所述运镜轨迹。
10.根据权利要求1所述的拍摄方法,其特征在于,根据所述运镜轨迹对所述被拍摄对象进行图像采集,包括:
在拍摄过程中,检测相机模组是否位于所述运镜轨迹之上;
当所述相机模组未位于所述运镜轨迹之上时,调整所述运镜轨迹的指定参数,以提醒所述相机模组偏移所述运镜轨迹。
11.一种拍摄装置,其特征在于,适应于设置有相机模组的电子设备,所述装置包括:
指令接收模块,用于接收图像采集启动指令;
锚点创建模块,用于在所述电子设备的图像取景框内创建AR锚点,所述AR锚点对应被拍摄对象在虚拟三维空间中的位置;
轨迹生成模块,用于根据所述相机模组的当前位置和所述AR锚点在所述图像取景框中生成运镜轨迹;所述运镜轨迹表示期望相机模组在虚拟三维空间中的移动路线;
图像采集模块,用于根据所述运镜轨迹对所述被拍摄对象进行图像采集。
12.根据权利要求11所述的拍摄装置,其特征在于,所述锚点创建模块包括:
特征点获取单元,用于获取图像取景框内各对象的多个特征点;
锚点确定单元,用于确定所述多个特征点中的一个特征点作为AR锚点,所述AR锚点所在对象作为被拍摄对象且所述AR锚点的位置对应所述被拍摄对象在虚拟三维空间中的位置。
13.根据权利要求12所述的拍摄装置,其特征在于,所述特征点获取单元包括:
图像获取子单元,用于获取图像取景框内预览场景的平面图像和深度图像;
特征点获取子单元,用于根据所述深度图像获取所述预览场景内各对象的多个特征点。
14.根据权利要求12所述的拍摄装置,其特征在于,所述特征点获取单元包括:
图像获取子单元,用于获取图像取景框内预览场景的平面图像和深度图像;
特征点提取子单元,用于根据预设的特征点提取模型获取所述平面图像内的多个特征点;
特征点确定子单元,用于基于所述深度图像,确定各特征点的深度数据,得到各对象的多个特征点。
15.根据权利要求11所述的拍摄装置,其特征在于,所述轨迹生成模块包括:
模块获取单元,用于从预设的模板库内获取目标模板,所述目标模板内包括运镜轨迹的目标形状、参考点与运镜轨迹的相对位置;
轨迹生成单元,用于当所述AR锚点和所述参考点重合时,生成经过所述当前位置且与所述目标形状相匹配的运镜轨迹。
16.根据权利要求15所述的拍摄装置,其特征在于,所述模块获取单元包括:
模板展示子单元,用于展示预设的模板库内的模板;所述模板包括以下至少一种:推镜头模板、拉镜头模板、摇镜头模板、横移镜头模板、升降镜头模板、降镜头模板和环绕镜头模板;
模板确定子单元,用于当检测到表示选择模板的触发操作时,获取所述触发操作对应的模板作为目标模板。
17.根据权利要求11所述的拍摄装置,其特征在于,所述轨迹生成模块包括:
轨迹生成单元,用于基于预设规则,根据所述AR锚点和所述当前位置生成至少一条运镜轨迹;所述运镜轨迹包括一种或者多种:推镜头轨迹、拉镜头轨迹、摇镜头轨迹、横移镜头轨迹、升降镜头轨迹、降镜头轨迹和环绕镜头轨迹;
轨迹确定单元,用于确定用户所选择的运镜轨迹作为生成的运镜轨迹。
18.根据权利要求11~17任一项所述的拍摄装置,其特征在于,所述装置还包括:
位置对比模块,用于对比所述运镜轨迹和所述图像取景框内各对象的位置;
轨迹调整模块,用于当存在对象位于所述运镜轨迹上时,调整所述运镜轨迹处于所述对象周围的部分,以使所述运镜轨迹绕过所述对象。
19.根据权利要求11~17任一项所述的拍摄装置,其特征在于,所述图像采集模块包括:
位置获取单元,用于获取相机模组的实时位置和初始位置,所述初始位置是指生成所述运镜轨迹时相机模组所在的位置;
关系获取单元,用于获取初始位置、AR锚点的位置和运镜轨迹的空间关系;
轨迹移动单元,用于基于所述空间关系,根据所述实时位置相对于所述初始位置的相对位置移动所述AR锚点和所述运镜轨迹。
20.根据权利要求11所述的拍摄装置,其特征在于,所述图像采集模块包括:
轨迹检测单元,用于在拍摄过程中,检测相机模组是否位于所述运镜轨迹之上;
轨迹调整单元,用于当所述相机模组未位于所述运镜轨迹之上时,调整所述运镜轨迹的指定参数,以提醒所述相机模组偏移所述运镜轨迹。
21.一种电子设备,其特征在于,包括:
相机;
处理器;
用于存储所述处理器可执行的计算机程序的存储器;
其中,所述处理器被配置为执行所述存储器中的计算机程序,以实现如权利要求1~10任一项所述方法。
22.一种计算机可读存储介质,其特征在于,当所述存储介质中的可执行的计算机程序由处理器执行时,能够实现如权利要求1~10任一项所述方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010942772.2A CN114245000A (zh) | 2020-09-09 | 2020-09-09 | 拍摄方法和装置、电子设备、存储介质 |
KR1020210052776A KR102575196B1 (ko) | 2020-09-09 | 2021-04-23 | 촬영 방법, 촬영 장치, 전자기기 및 저장매체 |
JP2021073829A JP7110443B2 (ja) | 2020-09-09 | 2021-04-26 | 撮影方法及び撮影装置、電子機器、記憶媒体 |
US17/244,233 US11457139B2 (en) | 2020-09-09 | 2021-04-29 | Photography method, electronic device, and storage medium |
EP21171117.1A EP3968626A1 (en) | 2020-09-09 | 2021-04-29 | Photography method, photography apparatus, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010942772.2A CN114245000A (zh) | 2020-09-09 | 2020-09-09 | 拍摄方法和装置、电子设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114245000A true CN114245000A (zh) | 2022-03-25 |
Family
ID=75746202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010942772.2A Pending CN114245000A (zh) | 2020-09-09 | 2020-09-09 | 拍摄方法和装置、电子设备、存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11457139B2 (zh) |
EP (1) | EP3968626A1 (zh) |
JP (1) | JP7110443B2 (zh) |
KR (1) | KR102575196B1 (zh) |
CN (1) | CN114245000A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114979785A (zh) * | 2022-04-15 | 2022-08-30 | 荣耀终端有限公司 | 视频处理方法和相关装置 |
CN115379195A (zh) * | 2022-08-26 | 2022-11-22 | 维沃移动通信有限公司 | 视频生成方法、装置、电子设备和可读存储介质 |
WO2024007478A1 (zh) * | 2022-07-06 | 2024-01-11 | 杭州像衍科技有限公司 | 基于单手机的人体三维建模数据采集与重建方法及系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230135877A (ko) | 2022-03-17 | 2023-09-26 | 주식회사 엘지에너지솔루션 | 절연액 공급 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105408937A (zh) * | 2013-05-02 | 2016-03-16 | 高通股份有限公司 | 用于便于计算机视觉应用程序初始化的方法 |
CN107148639A (zh) * | 2015-09-15 | 2017-09-08 | 深圳市大疆创新科技有限公司 | 确定跟踪目标的位置信息的方法及装置、跟踪装置及系统 |
WO2019199904A1 (en) * | 2018-04-10 | 2019-10-17 | Facebook, Inc. | Automated decisions based on descriptive models |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1994029670A1 (fr) * | 1993-06-10 | 1994-12-22 | Kabushiki Kaisha Oh - Yoh Keisoku Kenkyusho | Appareil pour mesurer la position d'un objet en mouvement |
US9239965B2 (en) * | 2012-06-12 | 2016-01-19 | Electronics And Telecommunications Research Institute | Method and system of tracking object |
US20150379333A1 (en) * | 2014-06-27 | 2015-12-31 | Eric L. Ingram | Three-Dimensional Motion Analysis System |
JP6525724B2 (ja) * | 2015-05-20 | 2019-06-05 | キヤノン株式会社 | パンニング情報表示装置、パンニング情報の表示処理を実行する方法およびパンニング情報表示プログラム |
WO2018022657A1 (en) | 2016-07-25 | 2018-02-01 | Ctrl-Labs Corporation | System and method for measuring the movements of articulated rigid bodies |
US10469768B2 (en) * | 2017-10-13 | 2019-11-05 | Fyusion, Inc. | Skeleton-based effects and background replacement |
US10665034B2 (en) | 2018-02-17 | 2020-05-26 | Varjo Technologies Oy | Imaging system, display apparatus and method of producing mixed-reality images |
CN109618183B (zh) * | 2018-11-29 | 2019-10-25 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
-
2020
- 2020-09-09 CN CN202010942772.2A patent/CN114245000A/zh active Pending
-
2021
- 2021-04-23 KR KR1020210052776A patent/KR102575196B1/ko active IP Right Grant
- 2021-04-26 JP JP2021073829A patent/JP7110443B2/ja active Active
- 2021-04-29 US US17/244,233 patent/US11457139B2/en active Active
- 2021-04-29 EP EP21171117.1A patent/EP3968626A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105408937A (zh) * | 2013-05-02 | 2016-03-16 | 高通股份有限公司 | 用于便于计算机视觉应用程序初始化的方法 |
CN107148639A (zh) * | 2015-09-15 | 2017-09-08 | 深圳市大疆创新科技有限公司 | 确定跟踪目标的位置信息的方法及装置、跟踪装置及系统 |
WO2019199904A1 (en) * | 2018-04-10 | 2019-10-17 | Facebook, Inc. | Automated decisions based on descriptive models |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114979785A (zh) * | 2022-04-15 | 2022-08-30 | 荣耀终端有限公司 | 视频处理方法和相关装置 |
CN114979785B (zh) * | 2022-04-15 | 2023-09-08 | 荣耀终端有限公司 | 视频处理方法、电子设备及存储介质 |
WO2024007478A1 (zh) * | 2022-07-06 | 2024-01-11 | 杭州像衍科技有限公司 | 基于单手机的人体三维建模数据采集与重建方法及系统 |
US12014463B2 (en) | 2022-07-06 | 2024-06-18 | Image Derivative Inc. | Data acquisition and reconstruction method and system for human body three-dimensional modeling based on single mobile phone |
CN115379195A (zh) * | 2022-08-26 | 2022-11-22 | 维沃移动通信有限公司 | 视频生成方法、装置、电子设备和可读存储介质 |
CN115379195B (zh) * | 2022-08-26 | 2023-10-03 | 维沃移动通信有限公司 | 视频生成方法、装置、电子设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11457139B2 (en) | 2022-09-27 |
JP7110443B2 (ja) | 2022-08-01 |
US20220078335A1 (en) | 2022-03-10 |
JP2022045887A (ja) | 2022-03-22 |
KR102575196B1 (ko) | 2023-09-06 |
KR20220033402A (ko) | 2022-03-16 |
EP3968626A1 (en) | 2022-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11636653B2 (en) | Method and apparatus for synthesizing virtual and real objects | |
CN106572299B (zh) | 摄像头开启方法及装置 | |
CN114245000A (zh) | 拍摄方法和装置、电子设备、存储介质 | |
CN107426502B (zh) | 拍摄方法及装置、电子设备、存储介质 | |
US11770497B2 (en) | Method and device for processing video, and storage medium | |
US11310443B2 (en) | Video processing method, apparatus and storage medium | |
CN105282441A (zh) | 拍照方法及装置 | |
CN106210495A (zh) | 图像拍摄方法和装置 | |
US11425305B2 (en) | Control method and apparatus, electronic device, and storage medium | |
CN113206948B (zh) | 图像效果的预览方法、装置、电子设备及存储介质 | |
CN106598429A (zh) | 移动终端的窗口调整方法及装置 | |
US11252341B2 (en) | Method and device for shooting image, and storage medium | |
CN108986803B (zh) | 场景控制方法及装置、电子设备、可读存储介质 | |
WO2018192094A1 (zh) | 场景展示方法及装置 | |
EP3945717A1 (en) | Take-off capture method and electronic device, and storage medium | |
CN113315903B (zh) | 图像获取方法和装置、电子设备、存储介质 | |
CN116939351A (zh) | 拍摄方法、装置、电子设备及可读储存介质 | |
CN113989424A (zh) | 三维虚拟形象的生成方法、装置及电子设备 | |
CN106201238B (zh) | 展示对焦状态的方法及装置 | |
CN114697517A (zh) | 视频处理方法、装置、终端设备及存储介质 | |
CN114078280A (zh) | 动作捕捉方法、装置、电子设备及存储介质 | |
CN113438416B (zh) | 图像数量获取方法和装置、电子设备、存储介质 | |
CN112784107A (zh) | 在视频中提取图片的方法、装置及存储介质 | |
CN116095466A (zh) | 拍摄方法、装置、电子设备及存储介质 | |
CN114827441A (zh) | 拍摄方法、装置、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |