CN112188100B - 联合拍摄方法、联合拍摄装置 - Google Patents
联合拍摄方法、联合拍摄装置 Download PDFInfo
- Publication number
- CN112188100B CN112188100B CN202011051859.7A CN202011051859A CN112188100B CN 112188100 B CN112188100 B CN 112188100B CN 202011051859 A CN202011051859 A CN 202011051859A CN 112188100 B CN112188100 B CN 112188100B
- Authority
- CN
- China
- Prior art keywords
- camera
- area
- image
- shooting
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种联合拍摄方法、联合拍摄装置及电子设备,属于通信技术领域。该方法包括:在第一设备的摄像头启动的情况下,接收第一输入;在第一设备和第二设备已建立连接的情况下,响应于第一输入,向第二设备发送联合拍摄信息;接收第二设备发送的第二设备的摄像头的第一目标数据;根据第一设备的摄像头的第一目标数据和第二设备的摄像头的第一目标数据,显示联合拍摄界面;根据联合拍摄界面中的实时画面,生成联合拍摄图像;其中,第一目标数据包括:摄像头实时获取的图像和摄像头的实时方位中的至少一项;联合拍摄界面包括:用于显示第一设备的摄像头的采集画面的第一区域、用于显示第二设备的摄像头的采集画面的第二区域。
Description
技术领域
本申请属于通信技术领域,具体涉及一种联合拍摄方法、联合拍摄装置及电子设备。
背景技术
随着通信技术的发展,电子设备中的拍摄功能越来越强大,用户使用电子设备拍摄的频率也越来越高。
目前,智能手环、智能眼睛、智能腕表等智能穿戴设备中也配置有拍摄功能。用户可以使用智能穿戴设备进行拍照,也可以使用手机进行拍摄。然而,目前的智能穿戴设备和手机的拍摄是相互独立的,无法相互提升拍摄效果,拍摄体验不佳。
发明内容
本申请实施例的目的是提供一种联合拍摄方法、联合拍摄装置及电子设备,能够解决在使用智能穿戴设备和手机共同拍摄时,拍摄体验不佳的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种联合拍摄方法,应用于第一设备,该方法包括:在第一设备的摄像头启动的情况下,接收第一输入;在第一设备和第二设备已建立连接,响应于第一输入,向第二设备发送联合拍摄信息;根据第一设备的摄像头的第一目标数据和第二设备的摄像头的第一目标数据,显示联合拍摄界面;根据联合拍摄界面中的实时画面,生成联合拍摄图像;其中,第一目标数据包括:摄像头实时获取的图像和摄像头的实时方位中的至少一项;联合拍摄界面包括:用于显示第一设备的摄像头的采集画面的第一区域、用于显示第二设备的摄像头的采集画面的第二区域。
第二方面,本申请实施例提供了一种联合拍摄装置,该联合拍摄装置包括:接收模块、发送模块、显示模块和生成模块;接收模块,用于在第一设备的摄像头启动的情况下,接收第一输入;发送模块,用于在第一设备和第二设备已建立连接的情况下,响应于接收模块接收的第一输入,向第二设备发送联合拍摄信息;接收模块,用于接收第二设备发送的第二设备的摄像头的第一目标数据;显示模块用于根据第一设备的摄像头的第一目标数据和接收模块接收的第二设备的摄像头的第一目标数据,显示联合拍摄界面;生成模块,用于根据显示模块显示的联合拍摄界面中的实时画面,生成联合拍摄图像;其中,第一目标数据包括:摄像头实时获取的图像和摄像头的实时方位中的至少一项;联合拍摄界面包括:用于显示第一设备的摄像头的采集画面的第一区域、用于显示第二设备的摄像头的采集画面的第二区域。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或,所述程序或指令被所述处理器执行时实现如第一方面所述的联合拍摄方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的联合拍摄方法的步骤。
第五方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的联合拍摄方法。
在本申请实施例中,若用户需求采用联合拍摄方式拍摄图片或视频,可以在第一设备的摄像头启动的情况下,输入第一输入;第一设备接收用户的第一输入后,可以在第一设备和第二设备已建立连接的情况下,响应于第一输入,向第二设备发送联合拍摄信息,指示第二设备与第一设备进行联合拍摄;第二设备在接收到第一设备发送的联合拍摄信息之后,可以在第二设备的摄像头启动的情况下,向第一设备发送第二设备的摄像头的第一目标数据;第一设备在接收到第二设备发送的第二设备的摄像头的第一目标数据之后,可以根据第一设备的摄像头的第一目标数据和第二设备的第一目标数据,显示联合拍摄界面。第一设备可以根据该联合拍摄界面中的实时画面生成联合拍摄图像。由于该联合拍摄界面可以包括:显示第一设备的摄像头的采集画面的第一区域、显示第二设备的摄像头的采集画面的区域;因此,第一设备可以根据第一设备和与第一设备已建立连接的第二设备各自实时采集的图像进行联合拍摄,例如用户可以通过手机和智能穿戴设备进行联合拍照,一方面,联合拍摄的趣味性更强,可以提升用户的拍摄体验,另一方面,联合拍摄生成的联合拍摄图像可以使用两个设备不同取景位置采集的图像数据进行处理,也可以提升图片和视频的拍摄效果。
附图说明
图1为本申请实施例提供的一种联合拍摄场景示意图;
图2为本申请实施例提供的联合拍摄方法的流程示意图;
图3为本申请实施例提供的联合拍摄界面示意图之一;
图4为本申请实施例提供的联合拍摄界面示意图之二;
图5为本申请实施例提供的联合拍摄界面示意图之三;
图6为本申请实施例提供的一种联合拍摄装置可能的结构示意图;
图7为本申请实施例提供的一种电子设备可能的结构示意图;
图8为本申请实施例提供的一种电子设备的硬件示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的联合拍摄方法进行详细地说明。
图1为本申请实施例提供的一种联合拍摄场景示意图。如图1中所示,用户左手手持手机01、左手佩戴智能手表02、佩戴智能眼镜03。用户可以通过手机01和智能手表02进行联合拍摄;通过智能眼镜03和智能手表02进行联合拍摄;也可以通过手机01、智能手表02、智能眼镜03进行联合拍摄。
需要说明的是,在联合拍摄场景下,用户可以使用两个设备进行联合拍摄,也可以使用三个设备进行联合拍摄,下面以两个设备为例对本申请实施例中联合拍摄的方法进行说明。
可以理解,在本申请实施例中,用户可以采用本申请实施例提供的联合拍摄方式拍摄图片和视频。示例性的,电子设备可以在联合拍摄界面中显示“联合拍照”、“联合录像”、“联合AR萌拍”等联合拍摄控件,以供用户根据需要选择需要的拍摄模式。
示例性的,下述的第一设备可以为手机或智能眼镜;第二设备可以为智能手表或智能手环。
图2为本申请实施例提供的一种联合拍摄方法的交互流程示意图。如图2 中所示,该联合拍摄方法包括下述的S201至S207:
S201、在第一设备的摄像头启动的情况下,第一设备接收第一输入。
其中,第一输入为用户触发第一设备启用联合拍摄功能的输入。
示例性的,第一输入可以为用户在第一设备的拍摄界面中的输入,可以为预设轨迹的输入,也可以为在拍摄界面中对联合拍摄控件的输入。
在本申请实施例中,在第一设备接收到第一输入之后,若第一设备和第二设备未建立连接,第一设备和第二设备可以先建立连接,然后再执行S202,若第一设备和第二设备已建立连接,第一设备可以直接执行下述的S202。
S202、在第一设备和第二设备已建立连接的情况下,第一设备响应于第一输入,向第二设备发送联合拍摄信息。
其中,该联合拍摄信息用于指示第二设备与第一设备进行联合拍摄。
可选地,第一设备可以和第二设备建立无线连接、有线连接,第一设备也可以通过人体通信和第二设备建立连接。
例如,第一设备和第二设备可以在同一个局域网中。
需要说明的是,在第一设备和第二设备已建立连接的情况下,用户可以通过第一设备控制第一设备和第二设备进行联合拍摄。在第一设备和第二设备启动联合拍摄功能之后,第二设备可以向第一设备发送第二设备的摄像头实时采集的画面的数据,第一设备可以根据第一设备的摄像头和第二设备的摄像头实时采集的画面进行联合拍摄。
S203、第二设备接收第一设备发送的联合拍摄信息。
需要说明的是,当第二设备接收到第一设备发送的联合拍摄信息时,若第二设备未启动摄像头,则第二设备可以先启动第二设备的摄像头再执行下述的 S204,若第二设备已启动摄像头,则第二设备可以直接执行下述的S204。
需要说明的是,在第一设备启动了摄像头且第二设备启动了摄像头,并且第一设备启动联合拍摄功能之后,第二设备可以通过与第一设备建立的连接实时向第一设备发送第二设备的摄像头获取(预览或者采集)的画面的数据。第一设备可以接收第二设备实时传输的数据。
S204、在第二设备的摄像头启动的情况下,第二设备向第一设备发送第二设备的摄像头的第一目标数据。
其中,第一目标数据包括:摄像头实时获取的图像和摄像头的实时方位(具体为指示摄像头实时方位的信息)中的至少一项。
可以理解,摄像头的方位包括摄像头朝向的方向和摄像头的位置中的至少一项。
S205、第一设备接收第二设备发送的第二设备的摄像头的第一目标数据。
进而,在第一设备接收到第二设备的摄像头的第一目标数据之后,第一设备获取第一设备的摄像头的第一目标数据。
S206、第一设备根据第一设备的摄像头的第一目标数据和第二设备的摄像头的第一目标数据,显示联合拍摄界面。
其中,联合拍摄界面包括:第一区域和第二区域,第一区域用于显示第一设备的摄像头的采集画面、第二区域用于显示第二设备的摄像头的采集画面。
示例性的,第一区域可以为联合拍摄界面中第一设备的摄像头对应的视图框,第二区域可以为联合拍摄界面中第二设备的摄像头对应的视图框。
可选地,联合拍摄界面中的第一区域和第二区域可以不相邻、相邻、或具有重叠区域。
可选地,联合拍摄界面中的第一区域和第二区域中显示的图像内容可以部分重复,全部重复、也可以不重复。
为了便于描述,在下述实施例中,第一设备的摄像头可以称为第一摄像头,两者意思相同,可以互换;第二设备的摄像头可以称为第二摄像头,两者意思相同,可以互换。
需要说明的是,上述的联合拍摄界面中还可以包括:用于显示第一摄像头和第二摄像头重复采集的实时画面的区域、第一摄像头和第二摄像头未采集到图像的区域。本申请实施例中,重复采集的实时画面中可以包括相同对象的图像。
示例性的,图3为本申请实施例提供的一种联合拍摄界面的示意图。其中,如图3中的(a)所示,为第一设备显示的联合拍摄界面,该联合拍摄界面包的视图框为A1C1B3C4,该联合拍摄界面中第一设备的摄像头(以下称为第一摄像头)的视图框为A1A2A3A4,该联合拍摄界面中第二设备的摄像头(以下称为第二摄像头)的视图框为B1B2B3B4,该联合拍摄界面中的区域A1A2A3A4 为显示第一摄像头采集的画面的第一区域、区域B1B2B3B4为显示第二摄像头采集的画面的第二区域、区域B1C2A3C3显示第一摄像头采集的画面和第二摄像头采集的画面中的内容重叠区域、区域A4C3B4C4和区域A2C1B2C2为第一摄像头和第二摄像头未采集到图像的区域。
需要说明的是,上述示例以第一区域和第二区域为平行的区域为例进行说明,在实际拍摄过程中,由于第一设备的摄像头和第二设备摄像头的取景位置 (和/或取景角度)可能存在偏差,使得第一区域和第二区域为非平行的区域,例如图3中的(b)所示的联合拍摄界面,该联合拍摄界面的视图框为D1F1F2F3,该联合拍摄界面中第一设备的摄像头的视图框为D1D2D3D4,该联合拍摄界面中第二设备的摄像头的视图框为E1E2E3E4。
需要说明的是,假设第一设备的摄像头的视图框为第一视图框,第二设备的摄像头的视图框为第二视图框,那么,联合拍摄界面的视图框的宽度为第一视图框和第二视图框的8个顶点中,横坐标最小到横坐标最大的之间的距离;联合拍摄界面的视图框的高度为第一视图框和第二视图框的8个顶点中,纵坐标最小到纵坐标最大的之间的距离。比如,图4中的(a)的联合拍摄界面的视图框为A1A2A3A4,图4中的(b)的联合拍摄界面的视图框为A1B2B5A4,图4中的(c)的联合拍摄界面的视图框为A1A2B5B4。
具体的,第一设备的摄像头的第一目标数据包括:第一摄像头实时获取的图像和第一摄像头的实时方位中的至少一项。第二设备的摄像头的第一目标数据包括:第二摄像头实时获取的图像和第二摄像头的实时方位中的至少一项。本申请实施例中,摄像头的实时方位是指摄像头实时朝向的方向和摄像头当前所处的位置中的至少一项。
示例性的,以第一实时数据为第一设备的摄像头的第一目标数据、第二实时数据为第二设备的摄像头的第一目标数据为例,在第一实时数据指示第一设备的摄像头实时获取的图像的情况下,第二实时数据指示第二设备的摄像头实时获取的图像;在第一实时数据指示第一设备的摄像头的位置和第一设备的摄像头朝向的方向中的至少一项的情况下,第二实时数据指示第二摄像头的位置和第二设备的摄像头朝向的方向中的至少一项。
示例性的,在目标实时数据指示目标摄像头朝向的方向和位置的情况下,目标实时数据可以包括目标设备的重力传感器的实时数据和目标设备中的陀螺仪的实时数据;在目标实时数据指示目标摄像头实时获取的图像数据的情况下,可以包括目标摄像头实时预览到的图像和实时采集到的图像数据。其中,目标实时数据为第一实时数据或第二实时数据。在目标实时数据为第一实时数据的情况下,目标摄像头为第一摄像头、目标设备为第一设备;在目标实时数据为第二实时数据的情况下,目标摄像头为第二摄像头、目标设备为第二设备。
示例性的,结合图1,假设用户的左手佩戴智能手表02,且左手手持手机 01进行联合拍摄,那么可以看出,两个设备之间的距离不远,手机01可以根据手机01和手表02中的重力传感器、陀螺仪等设备计算出手机01的朝向、手表02的朝向,以及各自采集的图像之间的相对距离。
可选地,本申请实施例中,手机01还可以根据手机01和手表02中的重力传感器、陀螺仪等设备计算出手机01和手表02的的倾斜角度。例如,计算出手机01和手表02在yoz平面内的倾斜角度。如此可以计算出手机01与手表02在yoz平面内的相对角度。
S207、第一设备根据联合拍摄界面中的实时画面,生成联合拍摄图像。
需要说明的是,在第一设备和第二设备开始联合拍摄之后,第二设备实时向第一设备发送第二设备的摄像头实时获取的图像。
可选地,联合拍摄界面中不同区域的实时画面可以为采集内容连续的画面,也可以为采集内容不连续的画面。
示例性的,联合拍摄界面中显示的实时画面中均显示的是针对相同采集对象在相同角度的实时画面,也可以是针对相同采集对象在不同角度的实时画面,也可以是针对不同采集对象的实时画面。
本申请实施例提供的联合拍摄方法,若用户需求采用联合拍摄方式拍摄图片或视频,可以在第一设备的摄像头启动的情况下,输入第一输入;第一设备接收用户的第一输入后,可以在第一设备和第二设备已建立连接的情况下,响应于第一输入,向第二设备发送联合拍摄信息,指示第二设备与第一设备进行联合拍摄;第二设备在接收到第一设备发送的联合拍摄信息之后,可以在第二设备的摄像头启动的情况下,向第一设备发送第二设备的摄像头的第一目标数据;第一设备在接收到第二设备发送的第二设备的摄像头的第一目标数据之后,可以根据第一设备的摄像头的第一目标数据和第二设备的第一目标数据,显示联合拍摄界面。第一设备可以根据该联合拍摄界面中的实时画面生成联合拍摄图像。由于该联合拍摄界面可以包括:显示第一设备的摄像头的采集画面的第一区域、显示第二设备的摄像头的采集画面的区域;因此,第一设备可以根据第一设备和与第一设备已建立连接的第二设备各自实时采集的图像进行联合拍摄,例如用户可以通过手机和智能穿戴设备进行联合拍照,一方面,联合拍摄的趣味性更强,可以提升用户的拍摄体验,另一方面,联合拍摄生成的联合拍摄图像可以使用两个设备不同取景位置采集的图像数据进行处理,也可以提升图片和视频的拍摄效果。
可选地,在本申请实施例提供的联合拍摄方法,针对联合拍摄界面中不同显示情况,可以采用不同的拍摄处理的方式,上述的S207具体可以通过下述的S207a、S207b或S207c1和S207c2执行。
方式1:
在联合拍摄界面的第一区域和第二区域中包括画面重复区域的情况下,上述的S207可以通过S207a执行:
S207a、第一设备将联合拍摄界面中画面重复区域的目标像素叠加,生成联合拍摄图像中与画面重复区域对应的图像区域。
其中,目标像素包括该画面重复区域中第一设备的摄像头对应的像素和第二设备的摄像头对应的像素。
示例性的,结合图3中的(a),若画面重复区域为B1C2A3C3,则第一设备可以采用第一设备的摄像头采集的该区域中图像的像素,和第二设备的摄像头采集的该区域中图像的像素进行像素的叠加,若联合拍摄界面为图4中的(a) 所示的界面,即第二区域B1B2B3B4位于第一区域A1A2A3A4中,即画面的重叠区域为第二区域B1B2B3B4,则第一设备在生成联合拍摄图像时,可以将第一设备的摄像头在区域B1B2B3B4中图像的像素和第二设备的摄像头在区域B1B2B3B4中图像的像素进行叠加。
基于该方案,第一设备可以将联合拍摄界面中内容重叠的区域的像素叠加,可以使得生成的联合拍摄图像中该区域的图像像素更多,图像的清晰度更高,提升了拍摄的效果。
方式2:
在联合拍摄界面的第一区域和第二区域相邻,且第一区域和第二区域的画面存在画面内容连续的情况下,上述的S207可以通过S207b1执行:
S207b1、第一设备将联合拍摄界面中的第一区域和第二区域中画面内容连续的区域中的画面拼接,生成联合拍摄图像。
示例性的,结合图4中的(b),第一区域A1A2A3A4的右侧边和第二区域B1B2B3B4的左侧边相邻,且A2A5附近的画面和B1B4附近的画面内容连续,则在生成联合拍摄图像的过程中,可以将区域A1A2A5A6的画面和区域B1B2B3B4的画面拼接。结合图4中的(c),第一区域A1A2A3A4的下侧边和第二区域B1B2B3B4的上侧边相邻,且A4A6附近的画面和B1B2附近的画面内容连续,则在生成联合拍摄图像的过程中,可以将区域A1A5A6A4的画面和区域B1B2B3B4的画面拼接。
在联合拍摄界面的第一区域和第二区域包括重叠区域,且该重叠区域的周围画面连续的情况下,上述的S207可以通过S207b2执行:
S207b2、第一设备将联合拍摄界面中的第一区域和第二区域中未重叠的画面分别和重叠区域的画面拼接,生成联合拍摄图像。
结合图4中的(c)若边B1B2位于边A4A3上方,即区域B1B2A6A4为重叠区域,且区域B1B2A6A4上方的画面和下方的画面与区域B1B2A6A4的画面内容连续,则第一设备可以将区域A1A5B2B4的画面和区域B1B2A6A4 拼接,将区域A4A6B3B4的画面和区域B1B2A6A4的画面拼接。
基于该方案,第一设备可以将联合拍摄界面中相邻区域画面内容连续的区域的画面进行拼接,可以使得拍摄画面范围更广,拍摄效果更佳。
方式3:
在联合拍摄界面中包括第一设备的摄像头和第二设备的摄像头未采集画面区域的情况下,上述的S207可以通过S207c1和S207c2执行:
S207c1、第一设备裁剪联合拍摄界面中的目标区域。
其中,目标区域包括以下至少一项:第一裁剪区域、第二裁剪区域、第三裁剪区域。
第一裁剪区域包括联合拍摄界面中第一设备的摄像头和第二设备的摄像头均未采集的区域;第二裁剪区域包括第一区域中与第二设备的摄像头未采集的画面相邻的区域;第三裁剪区域包括所述第二区域中与第一设备的摄像头未采集的画面相邻的区域。
S207c2、第一设备根据联合拍摄界面中裁剪目标区域后的第一区域和第二区域中的实时画面,生成联合拍摄图像。
示例性的,结合图5,第一设备可以沿着L1和L3裁剪,保留区域B1B2B3B4 中的图像内容;可以沿着L2和L4裁剪,保留区域A1A2A3A4中的图像内容;也可以沿着L3和L4裁剪,保留L3下方和L4上方之间的区域中的图像内容;也可以沿着L1和L2裁剪,保留L1右侧和L2左侧之间的区域中的图像内容。
基于该方案,第一设备可以对联合拍摄界面中的画面进行裁剪,可以根据用户的需要进行裁剪,从而使得第一设备可以获得拍摄效果更加的联合拍摄图像。
在实际应用场景中,若用户使用第一设备和第二设备对相同拍摄对象进行联合拍摄的情况下,由于两个设备的摄像头的角度和位置可能不完全相同,从而使得第一设备的摄像头采集的画面和第二设备的摄像头采集到的两个画面中,相同拍摄对象的显示方向或相同拍摄对象的显示尺寸存在差异,因此,联合拍摄装置可以在联合拍摄界面中显示两个不同设备的摄像头对应采集到的画面之前,可以先按照下述的方式调整联合拍摄界面中两个不同设备的画面的显示的效果。
可选地,本申请实施例提供的联合拍摄方法,在S206之前,还可以包括下述的S208和S209:
S208、第一设备接收第二设备发送的第二设备的摄像头实时获取的第二图像。
S209、第一设备根据第二图像和第一设备的摄像头实时获取的第一图像中,相同对象的显示参数,调整第二图像的相对显示方位。
其中,该相同对象的显示参数包括该相同对象的显示尺寸和显示角度中的至少一项。
进而,上述的S206具体可以通过S206a执行:
S206a、第一设备根据第一图像、调整显示方位后的第二图像,在联合拍摄界面的第一区域显示第一图像,在联合拍摄界面的第二区域显示第二图像。
其中,调整后的第二图像和第一图像中的相同对象的显示方位相同;该联合拍摄界面中的第一区域和第二区域存在重叠区域。
示例性的,若第一图像和第二图像的采集角度在同一水平面上,即第一设备的摄像头的第一显示框和第二设备的摄像头的第二显示框的画面是平行的,例如图3中的(a)中所示,则无需旋转角度,可以根据需要将重复的画面显示在同一个区域中;若第一显示框和第二显示框的画面有夹角(一种情况是显示的同一个对象有夹角,比如同一个树在第一显示框中是垂直显示的,在第二显示框中是倾斜显示的),例如图3中的(b)所示,则第一设备可以根据同一个对象将第二显示框进行旋转,第二设备的摄像头采集的画面与第一设备的摄像头采集的画面的取景平面统一。
基于该方案,由于第一设备和第二设备的朝向不同,在第一设备和第二设备的摄像头的取景平面不统一的情况下,为了避免联合采集界面中的同一个对象显示的效果不佳,第一设备可以在联合拍摄界面中显示实时画面时,先调整第二图像的显示角度,使得第二图像和第一图像显示视觉效果更加满足用户的需要。
本申请实施例中,在第一设备和第二设备进行联合拍摄时,若用户需要调整联合拍摄界面中的拍摄范围,用户可以通过下述的方式控制摄像头调整摄像头的方位。
可选地,本申请实施例提供的联合拍摄方法,在S207之前,还可以包括下述的S210至S215:
S210、第一设备接收在联合拍摄界面的第二输入。
其中,第二输入为用户触发第二设备的摄像头转向的输入。
示例性的,第二输入也可以为用户在联合拍摄界面中的拖动第一图像框至第二图像框的输入。
其中,第一图像框为显示第一摄像头的采集画面的图像框,即联合拍摄界面中第一设备的摄像头对应的视图框;第二图像框为显示第二摄像头的采集画面的图像框,即联合拍摄界面中第二设备的摄像头对应的视图框。或者,第一图像框为显示第二摄像头的采集画面的图像框,即联合拍摄界面中第一设备的摄像头对应的视图框;第二图像框为显示第一摄像头的采集画面的图像框,即联合拍摄界面中第二设备的摄像头对应的视图框。
示例性的,如图5所示,用户在联合拍摄界面的区域B1B2B3B4中手指按压或者接触,然后向区域A1A2A3A4拖动(例如沿箭头51所示方向拖动区域 B1B2B3B4);或者,用户在联合拍摄界面的区域A1A2A3A4手指按压或者接触,然后向区域B1B2B3B4拖动(例如沿箭头52所示方向拖动区域 A1A2A3A4)。
S211、第一设备响应于第二输入,向第二设备发送摄像头转向信息。
其中,摄像头转向信息包括摄像头转向角度和摄像头转向距离中的至少一项。
可选地,该摄像头转向信息可以为预设的,也可以根据第二输入的输入参数确定的,本申请实施例对此不作具体限定。
示例性的,若摄像头的转向信息为预设的,在第一设备接收到第二输入之后,结合图3中的(a)以及图4,预设的转向信息可以为指示第二设备的摄像头朝右上转向,得到图4中的(a),使得第二设备的摄像头的采集画面和第一设备的摄像头的采集画面居中(重复区域的画面是相同的)的位置;预设的转向信息也可以指示第二设备的摄像头朝右上方转向,得到图4中的(b),使得第二设备的摄像头的采集画面和第一设备的摄像头的采集画面右上角连续;预设的转向信息,也可以指示第二设备的摄像头超左下方转向,得到图4中的(c),使得第二设备的摄像头的采集画面和第一设备的摄像头的采集画面左下角连续。
S212、第二设备接收第一设备发送的摄像头转向信息。
可以理解,第一设备和第二设备可以通过无线连接收发信息,例如收发摄像头转向信息。
S213、第二设备根据该摄像头转向信息,调整第二设备的摄像头的方位。
需要说明的是,在本申请实施例中,第二设备的摄像头可以具有转向的功能。
S214、第二设备向第一设备发送第二设备的摄像头实时获取的图像和第二设备的摄像头转向后的实时方位中的至少一项。
S215、第一设备根据第二目标数据,调整联合拍摄界面中,第二设备调整后的摄像头采集画面的显示角度和显示位置中的至少一项。
其中,第二目标数据包括第一设备的摄像头实时获取的图像和第二设备实时获取的图像,或第一设备的摄像头的实时方位和第二设备的摄像头转向后的实时方位。
基于该方案,使得用户可以根据需要通过第一设备控制第二设备的摄像头进行转向,控制方式灵活,提升了用户采用第一设备和第二设备联合拍摄的操作体验。
在本申请实施例中,在第一设备向第二设备发送摄像头转向信息之前,第一设备需要获取转向信息,可以采用下述的方式获取转向信息。
可选地,本申请实施例提供的联合拍摄方法,在S211之前,还可以包括下述的S216和S217:
S216、第一设备根据第一设备的摄像头实时的目标参数,以及第二设备的摄像头实时的目标参数,确定第二设备的摄像头的转向角度和转向距离。
其中,目标参数包括摄像头的方位和聚焦距离中的至少一项。
示例性的,第一设备可以根据第一摄像头的实时方位和第二摄像头的实时方位的差,确定第二摄像头相对第一摄像头移动的方位。或者,第一设备可以根据第一摄像头的聚焦距离和第二摄像头的聚焦距离的差确定第二摄像头移动的方位。
示例性的,摄像头的聚焦距离可以为摄像头的对焦距离。
示例性地,第一摄像头和第二摄像头可以对焦到同一对象。
S217、第一设备根据该转向角度和转向距离,生成摄像头转向信息。
基于该方案,第一设备可以在接收到第二输入之后,可以根据第一设备的摄像头实时的目标参数,以及第二设备的摄像头实时的目标参数,先确定第二设备的摄像头需要转向的角度和距离,然后根据确定的转向角度和转向距离生成指示第二设备的摄像头的转向信息,从而可以使得第二设备根据第一设备的发送的摄像头转向信息精确控制第二设备的相同转向。
可选地,在用户期望通过联合拍摄模式拍摄更清晰的图像的情况下,即需要得到清晰度较高的照片或视频,用户可以在启动联合拍摄功能之后选择更清晰的联合拍摄模式,进而,在第一设备接收到第一目标数据之后,还可以执行下述的步骤。
可选地,本申请实施例提供的联合拍摄方法,在上述的S205之后,还可以包括下述的T0:
T0:第一设备确定目标夹角是否在预设范围内。
其中,目标夹角为第一设备的摄像头的朝向和第二设备的摄像头的朝向的夹角。
具体的,第一设备可以通过第一设备和第二设备实时采集的图像中内容确定目标夹角,第一设备也可以通过第一设备的摄像头的方位和第二设备的摄像头的方位确定目标夹角。
示例性的,第二设备可以在接收到联合拍摄信息之后,向第一设备发送第二设备的重力传感器和陀螺仪的实时数据(可以指示第二设备的摄像头的方位)。第一设备在接收到第二设备发送的第二设备的重力传感器和陀螺仪的实时数据之后,结合第一设备的重力传感器和陀螺仪的实时数据(可以指示第二设备的摄像头的方位)确定目标夹角。
需要说明的是,上述目标夹角在预设范围内指示:第一设备的摄像头和第二设备的摄像头的采集角度比较接近,采集的画面重复内容大于预设阈值,例如画面重复率大于50%。
进而,上述的S206具体可以通过下述的S206b执行:
S206b、在目标夹角在预设范围内的情况下,第一设备根据第一设备的摄像头和第二设备的摄像头的第一目标数据,显示联合拍摄界面。
可以理解,在目标夹角不在预设范围内的情况下,第一设备的摄像头和第二设备的摄像头采集的画面重叠的内容较少。
进而,在上述的T0之后,还可以包括下述的S206c。
S206c、在目标夹角不在预设范围内的情况下,第一设备显示提示信息,该提示信息提示用户调整第一设备和第二设备的位置,以使得目标夹角在预设范围内。
可以理解,在第一设备显示提示信息的情况下,用户可以结合该提示信息,根据需要调整第一设备和第二设备中的至少一个。
基于该方案,第一设备可以在选择拍摄更清晰的图像的情况下,先确定第一设备的摄像头和第二设备的摄像头的朝向的夹角是否在预设范围内,在目标夹角在预设范围内的情况下,再根据第一设备的摄像头和第二设备的摄像头的第一目标数据,显示联合拍摄界面,从而可以使得第一摄像头和第二摄像头采集相同的采集对象重复区域更多,从而使得该相同的采集对象在生成的联合图像中更清晰,提升了用户的拍摄体验。
需要说明的是,本申请实施例提供的联合拍摄方法,执行主体可以为联合拍摄装置,或者该联合拍摄装置中的用于执行联合拍摄的方法的控制模块。本申请实施例中以联合拍摄装置执行联合拍摄的方法为例,说明本申请实施例提供的联合拍摄的装置。
图6为本申请实施例提供的一种联合拍摄装置的结构示意图,该联合拍摄装置为第一设备或第一设备中的控制模块。如图6中所示,该联合拍摄装置600 包括:接收模块601、发送模块602、显示模块603和生成模块604;接收模块601,用于在第一设备的摄像头启动的情况下,接收第一输入;发送模块602,用于在第一设备和第二设备已建立连接的情况下,响应于接收模块301接收的第一输入,向第二设备发送联合拍摄信息;接收模块601,还用于接收第二设备发送的第二设备的摄像头的第一目标数据;显示模块603,用于根据第一设备的摄像头的第一目标数据和接收模块接收的第二设备的摄像头的第一目标数据,显示联合拍摄界面;生成模块604,用于根据显示模块603显示的联合拍摄界面中的实时画面,生成联合拍摄图像;其中,第一目标数据包括:摄像头实时获取的图像和摄像头的实时方位中的至少一项;联合拍摄界面包括:用于显示第一设备的摄像头的采集画面的第一区域、用于显示第二设备的摄像头的采集画面的第二区域。
可选地,联合拍摄装置还包括:调整模块;接收模块,还用于在显示模块根据第一设备的摄像头的第一目标数据和第二设备的摄像头的第一目标数据,显示联合拍摄界面之前,接收第二设备发送的第二设备的摄像头实时获取的第二图像;调整模块,用于根据接收模块接收的第二图像和第一设备的摄像头实时获取的第一图像中,相同对象的显示参数,调整第二图像的相对显示方位;显示模块,具体用于根据第一图像、调整显示方位后的第二图像,在联合拍摄界面的第一区域显示第一图像,在联合拍摄界面的第二区域显示第二图像;其中,调整后的第二图像和第一图像中的相同对象的显示方位相同;第一区域和第二区域存在重叠区域。
可选地,联合拍摄装置还包括:调整模块;接收模块,还用于在显示模块根据第一设备的摄像头的第一目标数据和第二设备的摄像头的第一目标数据,显示联合拍摄界面之前,接收在联合拍摄界面中的第二输入;发送模块,还用于响应于接收模块接收的第二输入,向第二设备发送摄像头转向信息;调整模块,用于根据第二目标数据,调整联合拍摄界面中,第二设备的摄像头采集画面的显示角度和显示位置中的至少一项;其中,第二目标数据包括第一设备的摄像头实时获取的图像和第二设备的摄像头转向后实时获取的图像,或第一设备的摄像头的实时方位和第二设备的摄像头转向后的实时方位。
可选地,联合拍摄装置还包括:确定模块和生成模块;确定模块,用于在发送模块向第二设备发送摄像头转向信息之前,根据第一设备的摄像头实时的目标参数,以及第二设备的摄像头实时的目标参数,确定第二设备的摄像头的转向角度和转向距离;生成模块,用于根据确定模块确定的转向角度和转向距离,生成摄像头转向信息;其中,目标参数包括摄像头的方位和聚焦距离中的至少一项。
可选地,第一区域和第二区域中包括画面重复区域;生成模块具体用于:将画面重复区域的目标像素叠加,生成联合拍摄图像中与画面重复区域对应的图像区域;其中,目标像素包括在画面重复区域中第一设备的摄像头对应的像素和第二设备的摄像头对应的像素。
可选地,第一区域和第二区域相邻,且第一区域和第二区域的画面内容连续;生成模块具体用于:将第一区域和第二区域中画面内容连续的区域中的画面拼接,生成联合拍摄图像。
可选地,联合拍摄界面中包括第一设备的摄像头和第二设备的摄像头未采集画面的区域;生成模块具体用于:裁剪联合拍摄界面中的目标区域;根据裁剪目标区域后的第一区域的第二区域中的实时画面,生成联合拍摄图像;其中,目标区域包括以下至少一项:第一裁剪区域、第二裁剪区域、第三裁剪区域;第一裁剪区域包括联合拍摄界面中第一设备的摄像头和第二设备的摄像头均未采集的区域;第二裁剪区域包括第一区域中与第二设备的摄像头未采集的画面相邻的区域;第三裁剪区域包括第二区域中与第一设备的摄像头未采集的画面相邻的区域。
本申请实施例提供的联合拍摄装置,若用户需求采用联合拍摄方式拍摄图片或视频,可以在第一设备的摄像头启动的情况下,输入第一输入;联合拍摄装置接收用户的第一输入后,可以在第一设备和第二设备已建立连接的情况下,响应于第一输入,向第二设备发送联合拍摄信息,指示第二设备与第一设备进行联合拍摄;第二设备在接收到第一设备发送的联合拍摄信息之后,可以在第二设备的摄像头启动的情况下,向第一设备发送第二设备的摄像头的第一目标数据;联合拍摄装置在接收到第二设备发送的第二设备的摄像头的第一目标数据之后,可以根据第一设备的摄像头的第一目标数据和第二设备的第一目标数据,显示联合拍摄界面。联合拍摄装置可以根据该联合拍摄界面中的实时画面生成联合拍摄图像。由于该联合拍摄界面可以包括:显示第一设备的摄像头的采集画面的第一区域、显示第二设备的摄像头的采集画面的区域;因此,联合拍摄装置可以根据第一设备和与第一设备已建立连接的第二设备各自实时采集的图像进行联合拍摄,例如用户可以通过手机和智能穿戴设备进行联合拍照,一方面,联合拍摄的趣味性更强,可以提升用户的拍摄体验,另一方面,联合拍摄生成的联合拍摄图像可以使用两个设备不同取景位置采集的图像数据进行处理,也可以提升图片和视频的拍摄效果。
本申请实施例中的联合拍摄装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer, UMPC)、上网本或者个人数字助理(personaldigital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(NetworkAttached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的联合拍摄装置以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的联合拍摄装置能够实现图1至图5的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选的,如图7所示,本申请实施例还提供一种电子设备700,包括处理器701,存储器702,存储在存储器702上并可在处理器701上运行的程序或信息,该程序或信息被处理器701执行时实现上述联合拍摄方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图8为实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备1000包括但不限于:射频单元1001、网络模块1002、音频输出单元1003、输入单元1004、传感器1005、显示单元1006、用户输入单元1007、接口单元1008、存储器1009、以及处理器1010等部件。
本领域技术人员可以理解,电子设备1000还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1010逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图8中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,用户输入单元1007,用于在所述第一设备的摄像头启动的情况下,接收第一输入;射频单元1001,用于在所述第一设备和第二设备已建立连接的情况下,响应于所述第一输入,向所述第二设备发送联合拍摄信息;射频单元 1001,还用于接收所述第二设备发送的第二设备的摄像头的第一目标数据;显示单元1006用于根据所述第一设备的摄像头的第一目标数据和所述第二设备的摄像头的第一目标数据,显示联合拍摄界面;处理器1010,用于根据所述联合拍摄界面中的实时画面,生成联合拍摄图像;其中,摄像头的第一目标数据包括:摄像头实时获取的图像和摄像头的实时方位中的至少一项;所述联合拍摄界面包括:用于显示所述第一设备的摄像头的采集画面的第一区域、用于显示所述第二设备的摄像头的采集画面的第二区域。
本申请实施例提供一种电子设备,该电子设备为第一设备,若用户需求采用联合拍摄方式拍摄图片或视频,可以在第一设备的摄像头启动的情况下,输入第一输入;第一设备接收用户的第一输入后,可以在第一设备和第二设备已建立连接的情况下,响应于第一输入,向第二设备发送联合拍摄信息,指示第二设备与第一设备进行联合拍摄;第二设备在接收到第一设备发送的联合拍摄信息之后,可以在第二设备的摄像头启动的情况下,向第一设备发送第二设备的摄像头的第一目标数据;第一设备在接收到第二设备发送的第二设备的摄像头的第一目标数据之后,可以根据第一设备的摄像头的第一目标数据和第二设备的第一目标数据,显示联合拍摄界面。第一设备可以根据该联合拍摄界面中的实时画面生成联合拍摄图像。由于该联合拍摄界面可以包括:显示第一设备的摄像头的采集画面的第一区域、显示第二设备的摄像头的采集画面的区域;因此,第一设备可以根据第一设备和与第一设备已建立连接的第二设备各自实时采集的图像进行联合拍摄,例如用户可以通过手机和智能穿戴设备进行联合拍照,一方面,联合拍摄的趣味性更强,可以提升用户的拍摄体验,另一方面,联合拍摄生成的联合拍摄图像可以使用两个设备不同取景位置采集的图像数据进行处理,也可以提升图片和视频的拍摄效果。
应理解的是,本申请实施例中,输入单元1004可以包括图形处理器 (GraphicsProcessing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1006可包括显示面板1061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板1061。用户输入单元1007 包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其他输入设备 1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器1009可用于存储软件程序以及各种数据,包括但不限于应用程序和操作系统。处理器1010可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1010中。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述联合拍摄方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述联合拍摄方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (10)
1.一种联合拍摄方法,应用于第一设备,其特征在于,
在所述第一设备的摄像头启动的情况下,接收第一输入;
在所述第一设备和第二设备已建立连接的情况下,响应于所述第一输入,向所述第二设备发送联合拍摄信息;
接收所述第二设备发送的第二设备的摄像头的第一目标数据;
根据所述第一设备的摄像头的第一目标数据和所述第二设备的摄像头的第一目标数据,显示联合拍摄界面;
根据所述联合拍摄界面中的实时画面,生成联合拍摄图像;
其中,摄像头的第一目标数据包括:摄像头实时获取的图像和摄像头的实时方位中的至少一项;所述联合拍摄界面包括:用于显示所述第一设备的摄像头的采集画面的第一区域、用于显示所述第二设备的摄像头的采集画面的第二区域;
在生成所述联合拍摄图像之前,所述第一设备向所述第二设备发送摄像头转向信息,所述第二设备根据所述摄像头转向信息调整所述第二设备的摄像头的方位,所述转向信息根据所述第一设备的摄像头实时的目标参数以及所述第二设备的摄像头实时的目标参数确定,所述目标参数包括摄像头的方位和聚焦距离中的至少一项;
若在所述第一设备的摄像头所采集的第一图像和所述第二设备的摄像头所采集的第二图像中,相同拍摄对象的显示方向或相同拍摄对象的显示尺寸不同,则调整所述第二图像的相对显示方位,使所述第一图像和所述第二图像的取景平面统一。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一设备的摄像头的第一目标数据和所述第二设备的摄像头的第一目标数据,显示联合拍摄界面之前,所述方法还包括:
接收所述第二设备发送的所述第二设备的摄像头实时获取的第二图像;
根据所述第二图像和所述第一设备的摄像头实时获取的第一图像中,相同对象的显示参数,调整所述第二图像的相对显示方位;
所述根据所述第一设备的摄像头的第一目标数据和所述第二设备的摄像头的第一目标数据,显示联合拍摄界面,包括:
根据所述第一图像、调整显示方位后的所述第二图像,在所述联合拍摄界面的所述第一区域显示所述第一图像,在所述联合拍摄界面的所述第二区域显示所述第二图像;
其中,调整后的所述第二图像和所述第一图像中的相同对象的显示方位相同;所述第一区域和所述第二区域存在重叠区域。
3.根据权利要求1或2所述的方法,其特征在于,所述第一区域和所述第二区域中包括画面重复区域;
所述根据所述联合拍摄界面中的实时画面,生成联合拍摄图像,包括:
将所述画面重复区域的目标像素叠加,生成联合拍摄图像中与所述画面重复区域对应的图像区域;
其中,所述目标像素包括在所述画面重复区域中所述第一设备的摄像头对应的像素和所述第二设备的摄像头对应的像素。
4.根据权利要求1或2所述的方法,其特征在于,所述第一区域和第二区域相邻,且第一区域和第二区域的画面内容连续;
所述根据所述联合拍摄界面中的实时画面,生成联合拍摄图像,包括:
将所述第一区域和所述第二区域中画面内容连续的区域中的画面拼接,生成联合拍摄图像。
5.根据权利要求1或2所述的方法,其特征在于,所述联合拍摄界面中包括所述第一设备的摄像头和所述第二设备的摄像头未采集画面区域;
所述根据所述联合拍摄界面中的实时画面,生成联合拍摄图像,包括:
裁剪所述联合拍摄界面中的目标区域;
根据裁剪所述目标区域后的所述第一区域的所述第二区域中的实时画面,生成联合拍摄图像;
其中,所述目标区域包括以下至少一项:第一裁剪区域、第二裁剪区域、第三裁剪区域;所述第一裁剪区域包括所述联合拍摄界面中第一设备的摄像头和第二设备的摄像头均未采集的区域;所述第二裁剪区域包括所述第一区域中与所述第二设备的摄像头未采集的画面相邻的区域;所述第三裁剪区域包括所述第二区域中与所述第一设备的摄像头未采集的画面相邻的区域。
6.一种联合拍摄装置,应用于第一设备,其特征在于,所述联合拍摄装置包括:接收模块、发送模块、显示模块、生成模块和调整模块;
所述接收模块,用于在所述第一设备的摄像头启动的情况下,接收第一输入;
所述发送模块,用于在所述第一设备和第二设备已建立连接的情况下,响应于所述接收模块接收的所述第一输入,向所述第二设备发送联合拍摄信息;
所述接收模块,还用于接收所述第二设备发送的所述第二设备的摄像头的第一目标数据;
所述显示模块,用于根据所述第一设备的摄像头的第一目标数据和所述接收模块接收的所述第二设备的摄像头的第一目标数据,显示联合拍摄界面;
所述生成模块,用于根据所述显示模块显示的所述联合拍摄界面中的实时画面,生成联合拍摄图像;
其中,所述第一目标数据包括:摄像头实时获取的图像和摄像头的实时方位中的至少一项;所述联合拍摄界面包括:用于显示所述第一设备的摄像头的采集画面的第一区域、用于显示所述第二设备的摄像头的采集画面的第二区域;
在生成所述联合拍摄图像之前,所述第一设备向所述第二设备发送摄像头转向信息,所述第二设备根据所述摄像头转向信息调整所述第二设备的摄像头的方位,所述转向信息根据所述第一设备的摄像头实时的目标参数以及所述第二设备的摄像头实时的目标参数确定,所述目标参数包括摄像头的方位和聚焦距离中的至少一项;
所述调整模块,用于若在所述第一设备的摄像头所采集的第一图像和所述第二设备的摄像头所采集的第二图像中,相同拍摄对象的显示方向或相同拍摄对象的显示尺寸不同,则调整所述第二图像的相对显示方位,使所述第一图像和所述第二图像的取景平面统一。
7.根据权利要求6所述的联合拍摄装置,其特征在于;
所述接收模块,还用于在所述显示模块根据所述第一设备的摄像头的第一目标数据和所述第二设备的摄像头的第一目标数据,显示联合拍摄界面之前,接收所述第二设备发送的所述第二设备的摄像头实时获取的第二图像;
所述调整模块,还用于根据所述接收模块接收的所述第二图像和所述第一设备的摄像头实时获取的第一图像中,相同对象的显示参数,调整所述第二图像的相对显示方位;
所述显示模块,具体用于根据所述第一图像、调整显示方位后的所述第二图像,在所述联合拍摄界面的所述第一区域显示所述第一图像,在所述联合拍摄界面的所述第二区域显示所述第二图像;
其中,调整后的所述第二图像和所述第一图像中的相同对象的显示方位相同;所述第一区域和所述第二区域存在重叠区域。
8.根据权利要求6或7所述的联合拍摄装置,其特征在于,所述第一区域和所述第二区域中包括画面重复区域;
所述生成模块具体用于:将所述画面重复区域的目标像素叠加,生成联合拍摄图像中与所述画面重复区域对应的图像区域;
其中,所述目标像素包括在所述画面重复区域中所述第一设备的摄像头对应的像素和所述第二设备的摄像头对应的像素。
9.根据权利要求6或7所述的联合拍摄装置,其特征在于,所述第一区域和第二区域相邻,且第一区域和第二区域的画面内容连续;
所述生成模块具体用于:将所述第一区域和所述第二区域中画面内容连续的区域中的画面拼接,生成联合拍摄图像。
10.根据权利要求6或7所述的联合拍摄装置,其特征在于,所述联合拍摄界面中包括所述第一设备的摄像头和所述第二设备的摄像头未采集画面的区域;
所述生成模块具体用于:裁剪所述联合拍摄界面中的目标区域;根据裁剪所述目标区域后的所述第一区域的所述第二区域中的实时画面,生成联合拍摄图像;
其中,所述目标区域包括以下至少一项:第一裁剪区域、第二裁剪区域、第三裁剪区域;所述第一裁剪区域包括所述联合拍摄界面中第一设备的摄像头和第二设备的摄像头均未采集的区域;所述第二裁剪区域包括所述第一区域中与所述第二设备的摄像头未采集的画面相邻的区域;所述第三裁剪区域包括所述第二区域中与所述第一设备的摄像头未采集的画面相邻的区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011051859.7A CN112188100B (zh) | 2020-09-29 | 2020-09-29 | 联合拍摄方法、联合拍摄装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011051859.7A CN112188100B (zh) | 2020-09-29 | 2020-09-29 | 联合拍摄方法、联合拍摄装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112188100A CN112188100A (zh) | 2021-01-05 |
CN112188100B true CN112188100B (zh) | 2022-08-05 |
Family
ID=73947299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011051859.7A Active CN112188100B (zh) | 2020-09-29 | 2020-09-29 | 联合拍摄方法、联合拍摄装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112188100B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112887601B (zh) * | 2021-01-26 | 2022-09-16 | 维沃移动通信有限公司 | 拍摄方法、装置及电子设备 |
CN114390205B (zh) * | 2022-01-29 | 2023-09-15 | 西安维沃软件技术有限公司 | 拍摄方法、装置和电子设备 |
CN114390206A (zh) * | 2022-02-10 | 2022-04-22 | 维沃移动通信有限公司 | 拍摄方法、装置和电子设备 |
CN114745505A (zh) * | 2022-04-28 | 2022-07-12 | 维沃移动通信有限公司 | 拍摄方法、装置、电子设备和可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104113697A (zh) * | 2014-08-01 | 2014-10-22 | 广东欧珀移动通信有限公司 | 协同拍照处理方法和装置、拍照处理方法和装置 |
CN109361869A (zh) * | 2018-11-28 | 2019-02-19 | 维沃移动通信(杭州)有限公司 | 一种拍摄方法及终端 |
CN111083379A (zh) * | 2019-12-31 | 2020-04-28 | 维沃移动通信(杭州)有限公司 | 拍摄方法及电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6235777B2 (ja) * | 2012-12-19 | 2017-11-22 | カシオ計算機株式会社 | 撮像装置、撮像方法及びプログラム、並びに、表示装置、表示方法及びプログラム |
CN105282424A (zh) * | 2014-12-22 | 2016-01-27 | 维沃移动通信有限公司 | 移动终端的异地同步合拍方法及移动终端 |
US11184559B2 (en) * | 2017-08-02 | 2021-11-23 | Sony Corporation | Image processing device, image processing method, and imaging device |
CN109600549A (zh) * | 2018-12-14 | 2019-04-09 | 北京小米移动软件有限公司 | 拍照方法、装置、设备以及存储介质 |
CN109905603B (zh) * | 2019-03-28 | 2022-10-18 | 南京维沃软件技术有限公司 | 一种拍摄处理方法及移动终端 |
CN111050072B (zh) * | 2019-12-24 | 2022-02-01 | Oppo广东移动通信有限公司 | 一种异地合拍方法、设备以及存储介质 |
-
2020
- 2020-09-29 CN CN202011051859.7A patent/CN112188100B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104113697A (zh) * | 2014-08-01 | 2014-10-22 | 广东欧珀移动通信有限公司 | 协同拍照处理方法和装置、拍照处理方法和装置 |
CN109361869A (zh) * | 2018-11-28 | 2019-02-19 | 维沃移动通信(杭州)有限公司 | 一种拍摄方法及终端 |
CN111083379A (zh) * | 2019-12-31 | 2020-04-28 | 维沃移动通信(杭州)有限公司 | 拍摄方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112188100A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112188100B (zh) | 联合拍摄方法、联合拍摄装置 | |
US9865033B1 (en) | Motion-based image views | |
US20150215532A1 (en) | Panoramic image capture | |
EP4002261A1 (en) | Method and device for processing image, electronic equipment, and storage medium | |
CN112702533B (zh) | 视线修正方法及视线修正装置 | |
CN112261340B (zh) | 视野共享方法、装置、电子设备及可读存储介质 | |
CN114600162A (zh) | 用于捕捉摄像机图像的场景锁定模式 | |
US20240292087A1 (en) | Photographing method and apparatus | |
EP4161056B1 (en) | Anti-shake method, anti-shake apparatus, and electronic device | |
CN112672058B (zh) | 拍摄方法及装置 | |
US9536133B2 (en) | Display apparatus and control method for adjusting the eyes of a photographed user | |
KR20190129592A (ko) | 휴대 단말에서의 영상 제공 방법 및 그 장치 | |
CN112235510A (zh) | 拍摄方法、装置、电子设备和介质 | |
US11381734B2 (en) | Electronic device and method for capturing an image and displaying the image in a different shape | |
CN114143457B (zh) | 拍摄方法、装置和电子设备 | |
CN114143455B (zh) | 拍摄方法、装置及电子设备 | |
CN113873160B (zh) | 图像处理方法、装置、电子设备和计算机存储介质 | |
CN112738398B (zh) | 一种图像防抖方法、装置和电子设备 | |
CN112291471B (zh) | 拍摄控制方法、拍摄控制装置、电子设备和可读存储介质 | |
CN112634339B (zh) | 商品对象信息展示方法、装置及电子设备 | |
CN114093005A (zh) | 图像处理方法、装置、电子设备及可读存储介质 | |
CN114285988A (zh) | 显示方法、装置、电子设备及存储介质 | |
CN114125297A (zh) | 视频拍摄方法、装置、电子设备及存储介质 | |
CN114241127A (zh) | 全景图像生成方法、装置、电子设备和介质 | |
CN112672057A (zh) | 拍摄方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |