CN114650369A - 成像方法和装置 - Google Patents

成像方法和装置 Download PDF

Info

Publication number
CN114650369A
CN114650369A CN202210197196.2A CN202210197196A CN114650369A CN 114650369 A CN114650369 A CN 114650369A CN 202210197196 A CN202210197196 A CN 202210197196A CN 114650369 A CN114650369 A CN 114650369A
Authority
CN
China
Prior art keywords
motor
depth information
area
region
photosensitive sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210197196.2A
Other languages
English (en)
Inventor
蓝皓议
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN202210197196.2A priority Critical patent/CN114650369A/zh
Publication of CN114650369A publication Critical patent/CN114650369A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

本申请公开了一种成像方法和装置,属于成像技术领域。该成像方法包括:获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息;基于每个区域的深度信息,计算对应区域的马达对焦位置;控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像。

Description

成像方法和装置
技术领域
本申请属于成像领域,具体涉及一种成像方法和装置。
背景技术
目前在拍摄图像时,由于景深范围有限,如果想在一张图像中同时将近景和远景都拍清楚,达到大范围的景深,通常需要拍摄多张不同景深的图像,进而通过软件将不同图像中的清晰部分提取出来,然后再融合为一张图像,也即,通过多帧图像融合的方式实现全景深图像,单帧图像的景深覆盖范围仍然有限。
发明内容
本申请实施例的目的是提供一种成像方法和装置,能够解决相关技术中单帧图像的景深覆盖范围较小的问题。
第一方面,本申请实施例提供了一种成像方法,该方法包括:
获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息;
基于每个区域的深度信息,计算对应区域的马达对焦位置;
控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像。
第二方面,本申请实施例提供了一种成像装置,包括:
获取单元,用于获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息;
计算单元,用于基于每个区域的深度信息,计算对应区域的马达对焦位置;
控制单元,包括控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤。
第五方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法。
在本申请实施例中,通过获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息,可以基于每个区域的深度信息,计算对应区域的马达对焦位置,进而控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像,可以在单帧图像中达到更大的景深范围,解决了相关技术中单帧图像的景深覆盖范围较小的问题。
附图说明
图1是本申请实施例提供的一种成像方法的流程示意图;
图2是本申请实施例提供的一种成像方法的原理示意图;
图3是本申请实施例提供的一种成像装置的结构示意图;
图4是本申请实施例提供的一种电子设备的结构示意图;
图5是本申请实施例提供的另一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的成像方法进行详细地说明。
如图1所示,本申请实施例提供的一种成像方法可以包括如下步骤:
步骤101,获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息。
感光传感器是对进入摄像头的光线进行感光的感光电子部件,用于输出原始图像。感光传感器可以包括多个感光单元,每个感光单元对应于原始图像中的一个像素。需要说明的是,该像素是指物理上的像素,是原始图像中的像素,原始图像在经过图像处理之后,可以拥有更多或更少的数字像素,本申请实施例对此不作限制。在一个应用场景中,感光传感器可以是感光阵列,包括多行和多列感光单元,感光传感器输出的数据可以是阵列形式的原始图像(例如raw格式)。
本申请实施例提供的成像方法可以是与摄像头模组通讯的电子设备执行,也可以是配置有摄像头模组的电子设备执行,具体的执行模块可以是电子设备中的处理器或处理装置等组成部件,执行模块可以通过与摄像头模组进行通讯实现对摄像头模组的控制、获取摄像头模组采集的图像数据等功能,本申请实施例对此不作具体限制。
需要说明的是,本申请实施例中,摄像头模组是指单摄像头的模组,每个摄像头模组中包括一个摄像头,以及该摄像头对应的感光传感器,还包括用于控制摄像头移动的对焦马达模块。在控制摄像头模组时,可以通知对应的感光传感器的每个感光单元感光,也可以控制对焦马达移动,以调整摄像头和感光传感器之间的距离,从而实现调整焦距的目的。
在本申请实施例中,感光传感器可以被预先划分为不同区域,例如,感光传感器可以被平均地划分为n*n块,每块即为一个区域,可选地,每个区域可以仅包括一个感光单元,也即,每个区域对应于一个像素,或者,在每个区域包括多个感光单元的情况下,每个区域包括相同数量的多个像素。在感光传感器的每个区域包括一个以上的感光单元的情况下,每个区域上成像的对象的深度信息可以是在对应区域中处于预设位置(例如中心位置)的感光单元的深度信息。
深度信息是摄像头与成像对象在物理空间中的距离信息,成像对象是指在感光传感器上成像的空间中的对象。可选地,深度信息可以是成像模型中的物距,物距是成像模型中摄像头的镜头中心到成像对象(即感光传感器上成像的空间对象)之间的物理空间距离。由于在感光传感器不同区域上成像的空间对象不同,每个区域的深度信息也相应的不同,针对不同区域上成像的对象的深度(深度与物距相关)进行测量,可以得到对应区域的深度信息。
在测量深度时,可以使用到相关技术中提供的测距技术,例如,飞行时间(TOF)法、双目测距法、单目测距法等,使用不同的测距技术,可以对摄像头模组配置有相应的硬件结构。
例如,TOF法是一种通过激光发射端发射激光、激光接收端接收激光,计时发射激光和接收激光的时间差,从而利用光速和时间差计算出深度信息(物距)的方法。那么,在使用TOF法测距时,可以对摄像头模组配置激光模组,将激光模组中的激光发射器和激光接收器配置在摄像头附近,从而实现测量摄像头与空间对象距离的目的。相似地,双目测距法需要使用到两个摄像头,那么,电子设备可以至少配置两个摄像头模组,在此不再赘述。
在测量不同区域的深度时,双目测距法和单目测距法等方法可以通过拍摄一次实现对感光传感器的全部区域的深度进行测量。而对于TOF法,由于激光光束是定向发光具有发射方向,那么,可以预先对感光传感器(即成像面)上不同区域所对应的空间方向进行标定,这样,在使用TOF法测距时,可以直接依次向每个区域对应的标定方向发射激光,从而实现测量不同区域深度信息的目的。
步骤102,基于每个区域的深度信息,计算对应区域的马达对焦位置。
在测量出每个区域的深度信息之后,摄像头与每个区域的成像对象之间的物距也是已知的,这样,就可以计算出对应区域能够清晰成像的焦距、像距等成像模型参数,从而得到对应区域的马达对焦位置。
马达对焦位置是可移动的对焦马达推动摄像头移动到的目标位置,在摄像头移动位置时,会改变焦距和/或像距等,从而改变焦点,也即改变了景深。马达对焦位置的具体计算方式可以基于成像模型公式计算,本申请实施例在此不再赘述。
步骤103,控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像。
感光传感器的不同区域可以分别独立地开启和关闭,在一个区域内的感光单元开启的时段内,每个感光单元可以感应光线生成电信号,也即曝光。在划分的每个区域仅包括一个感光单元时,相当于逐个像素进行曝光。目前相关技术中的曝光通常为感光阵列逐行像素进行曝光。
对焦马达可以推动摄像头移动,对焦马达和摄像头的具体结构可以设计成不同的实施方式,本申请实施例对此不作具体限制。对焦马达在每移动到一个区域的马达对焦位置时,可以控制对应区域的感光传感器的电子元件开启,从而曝光成像,感光传感器的所有区域都曝光成像之后,就得到一张完整的图像,从而实现拍摄的单帧图像能够扩大景深的效果。
在一个应用场景中,本申请实施例可以由配置有摄像头模组的手机执行,用户在打开手机的相机功能之后,可以进入相机功能页面,如果用户开启了单帧全景深拍摄(示例的模式名称)的模式,那么,手机可以对感光传感器中不同区域的成像对象的深度进行实时地测量,当用户在点击拍摄之后,可以利用测量出的每个区域的深度信息,控制对焦马达移动至各个区域的马达对焦位置,并在移动到每一个区域的马达对焦位置时,开启感光传感器的对应区域曝光成像。当所有区域都曝光之后,得到一张完整的原始图像。这样,便实现了直接拍摄出一帧具有不同景深的图像。原始图像可以直接输出,也可以经过一定的图像处理之后输出显示在手机屏幕上,本申请实施例对此不作限制。
在本申请实施例中,通过获取对感光传感器中不同区域的深度进行测量得到的深度信息,可以基于每个区域的深度信息,计算对应区域的马达对焦位置,进而控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像,可以在单帧图像中达到更大的景深范围,解决了相关技术中单帧图像的景深覆盖范围较小的问题。
可选地,在一个实施方式中,可以通过TOF法对感光传感器中不同区域的深度进行测距,具体而言,在获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息时,可以包括如下步骤:
步骤1011,控制激光发射端向每个区域对应的空间方向发射激光。
其中,每个区域对应的空间方向可以是预先标定好的,控制激光发射端逐次向不同的空间方向发射激光即可。
步骤1012,获取激光接收端接收每个区域对应的空间方向反射激光的时间间隔。
可选地,激光接收端可以是感光传感器。时间间隔是激光发射端发射激光与激光接收端接收激光之间的时间差。
步骤1013,利用每个时间间隔计算对应区域的深度信息。
由于激光在激光发射端和激光接收端之间的飞行距离为2倍的深度,因此,可以利用时间间隔与光速的乘积得到2倍深度,从而计算得到深度信息。
可选地,在另一个实施方式中,可以通过双目测距法获取深度信息。如图2所示为双目测距法测距的原理示意图,双目测距法需要两套摄像头模组,每个摄像头模组包括一个摄像头。两个摄像头的光心分别为OR和OT,点P在两个摄像头的感光传感器上的成像点分别为P和P’(感光传感器的成像平面经过旋转后放在了摄像头前方),f为焦距,B为两摄像头的中心距离,Z为期望求得的深度信息。设点P到P’的距离为distance,则
distance=B-(XR-XT)
XR和XT是两个成像点在左右两个像面上距离图像左边缘的距离。
根据三角形相似可得
Figure BDA0003526364820000071
即有
Figure BDA0003526364820000072
其中焦距f和摄像头中心距离B可通过标定得到,因此,只要获得了d=XR-XT即视差即可求得深度信息,即每个像素的物距信息。
假设目标点在左视图中的坐标为(x,y),目标点在以左摄像头光心为原点的世界坐标系中的坐标为(X,Y,Z),则存在如下所示的变换矩阵Q使得
Q*[x y z 1]′=[X Y Z W]′
其中
Figure BDA0003526364820000073
上式中f,d,cx和cy都可以通过立体标定获得初始值,只需要求取最后一个变量:视差d,即可求得任意一个成像点的三维坐标。
为了求取视差d,可以通过将该点在左右视图上两个对应的像点匹配起来。一个示例中,可以利用极线约束使得对应点的匹配由二维搜索降为一维搜索,这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,只需在该行进行一维搜索即可匹配到对应点。完成左右视图上同一对象的对应像点匹配后,即可求得对应的视差d。得到视差d之后便可估计出全画幅的深度信息。
因此,通过两个摄像头模组分别获取到对应的图像(得到两张图像)之后,通过预先标定好的参数,即可以计算出任意一个像素点上成像的对象的深度信息。
具体而言,通过双目测距法实现步骤101获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息的一个具体实施方式可以包括如下步骤:
步骤111,控制第一摄像头模组和第二摄像头模组基于双目测距法测量第一感光传感器中不同区域上成像的对象的深度,得到不同区域的深度信息。
其中,第一摄像头模组包括第一摄像头和第一感光传感器,第二摄像头模组包括第二摄像头和第二感光传感器。
第一摄像头模组即为最后拍摄得到完整图像时使用的摄像头模组。第二摄像头模组可以视为辅助测距的摄像头模组。
相应地,步骤103控制对焦马达移动到每个区域的马达对焦位置可以是控制对焦马达将第一摄像头移动到每个区域的马达对焦位置。
进一步地,步骤111控制第一摄像头模组和第二摄像头模组基于双目测距法测量第一感光传感器中不同区域上成像对象的深度可以包括如下步骤:
步骤1111,控制第一摄像头模组和第二摄像头模组同时拍摄,分别得到第一图像和第二图像;
步骤1112,在第一图像和第二图像中匹配对应的像点;
步骤1113,根据第一图像和第二图像中对应像点的图像坐标,计算第一图像和第二图像中对应像点的视差d;
步骤1114,基于第一图像中每个像点的视差,以及第一摄像头和第二摄像头的预先标定参数(如上述的f,d,cx和cy等),计算第一感光传感器中不同区域的深度信息。
需要说明的是,本申请实施例提供的成像方法,执行主体可以为成像装置,或者该成像装置中的用于执行成像方法的控制模块。本申请实施例中以成像装置执行成像方法为例,说明本申请实施例提供的成像装置。
本申请实施例提供了一种成像装置如图3所示,包括获取单元11,计算单元12和控制单元13。
获取单元11用于获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息;
计算单元12用于基于每个区域的深度信息,计算对应区域的马达对焦位置;
控制单元13包括控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像。
可选地,获取单元11可以包括:
第一控制子单元,用于控制激光发射端向每个区域对应的空间方向发射激光;
获取子单元,用于获取激光接收端接收每个区域对应的空间方向反射激光的时间间隔;
计算子单元,用于利用每个时间间隔计算对应区域的深度信息。
可选地,获取单元11可以包括:
第二控制子单元,用于控制第一摄像头模组和第二摄像头模组基于双目测距法测量第一感光传感器中不同区域上成像的对象的深度,得到不同区域上成像的对象的深度信息,其中,第一摄像头模组包括第一摄像头和第一感光传感器,第二摄像头模组包括第二摄像头和第二感光传感器;
控制单元还用于控制对焦马达将第一摄像头移动到第一感光传感器中每个区域的马达对焦位置。
可选地,深度信息可以是对应区域上成像的对象的物距,计算单元12还可以用于基于每个区域上成像的对象的物距,确定对应区域的焦距,得到马达对焦位置。
可选地,感光传感器的每个区域可以是一个感光单元;或者,感光传感器的每个区域包括一个以上的感光单元,其中,在感光传感器的每个区域包括一个以上的感光单元的情况下,每个区域的深度信息为在对应区域中处于预设位置的感光单元的深度信息。
在本申请实施例中,通过获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息,可以基于每个区域的深度信息,计算对应区域的马达对焦位置,进而控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像,可以在单帧图像中达到更大的景深范围,解决了相关技术中单帧图像的景深覆盖范围较小的问题。
本申请实施例中的成像装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobilepersonalcomputer,UMPC)、上网本或者个人数字助理(personaldigitalassistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(NetworkAttachedStorage,NAS)、个人计算机(personalcomputer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的成像装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的成像装置能够实现图1的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图4所示,本申请实施例还提供一种电子设备900,包括处理器901,存储器902,存储在存储器902上并可在所述处理器901上运行的程序或指令,该程序或指令被处理器901执行时实现上述成像方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图5为实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备1000包括但不限于:射频单元1001、网络模块1002、音频输出单元1003、输入单元1004、传感器1005、显示单元1006、用户输入单元1007、接口单元1008、存储器1009、以及处理器1010等部件。
本领域技术人员可以理解,电子设备1000还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1010逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图5中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,处理器1010用于执行以下步骤:
获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息;
基于每个区域的深度信息,计算对应区域的马达对焦位置;
控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像。
可选地,处理器1010在执行获取对感光传感器中不同区域的深度进行测量得到的深度信息时,可以包括执行如下步骤:
控制激光发射端向每个区域对应的空间方向发射激光;
获取激光接收端接收每个区域对应的空间方向反射激光的时间间隔;
利用每个时间间隔计算对应区域的深度信息。
另一个可选的实施方式中,处理器1010在执行获取对感光传感器中不同区域的深度进行测量得到的深度信息时,可以包括执行如下步骤:
控制第一摄像头和第二摄像头基于双目测距法测量第一感光传感器中不同区域的深度,得到不同区域的深度信息,其中,第一摄像头包括第一感光传感器;
相应地,处理器1010执行控制对焦马达移动到每个区域的马达对焦位置的步骤可以包括:控制对焦马达将第一摄像头移动到每个区域的马达对焦位置,其中,第一摄像头包括第一摄像头。
可选地,处理器1010在执行获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息时,可以包括执行以下步骤:
控制激光发射端向每个区域对应的空间方向发射激光;
获取激光接收端接收每个区域对应的空间方向反射激光的时间间隔;
利用每个时间间隔计算对应区域的深度信息。
可选地,处理器1010在执行获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息时,可以包括执行以下步骤:
控制第一摄像头模组和第二摄像头模组基于双目测距法测量第一感光传感器中不同区域上成像的对象的深度,得到不同区域上成像的对象的深度信息,其中,第一摄像头模组包括第一摄像头和第一感光传感器,第二摄像头模组包括第二摄像头和第二感光传感器。
相应地,处理器1010在执行控制对焦马达移动到每个区域的马达对焦位置,可以控制对焦马达将第一摄像头移动到第一感光传感器中每个区域的马达对焦位置。
可选地,深度信息为对应区域上成像的对象的物距,处理器1010在执行基于每个区域的深度信息,计算对应区域的马达对焦位置时,可以基于每个区域上成像的对象的物距,确定对应区域的焦距,得到马达对焦位置。
可选地,感光传感器的每个区域可以为一个感光单元;
或者,感光传感器的每个区域可以包括一个以上的感光单元,其中,在感光传感器的每个区域包括一个以上的感光单元的情况下,每个区域的深度信息为在对应区域中处于预设位置的感光单元的深度信息。
在本申请实施例中,通过获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息,可以基于每个区域的深度信息,计算对应区域的马达对焦位置,进而控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像,可以在单帧图像中达到更大的景深范围,解决了相关技术中单帧图像的景深覆盖范围较小的问题。
应理解的是,本申请实施例中,输入单元1004可以包括图形处理器(GraphicsProcessingUnit,GPU)10041和麦克风10042,图形处理器10041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1006可包括显示面板10061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板10061。用户输入单元1007包括触控面板10071以及其他输入设备10072。触控面板10071,也称为触摸屏。触控面板10071可包括触摸检测装置和触摸控制器两个部分。其他输入设备10072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器1009可用于存储软件程序以及各种数据,包括但不限于应用程序和操作系统。处理器1010可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1010中。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述成像方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述成像方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。

Claims (10)

1.一种成像方法,其特征在于,包括:
获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息;
基于每个区域的所述深度信息,计算对应区域的马达对焦位置;
控制对焦马达移动到每个区域的马达对焦位置,且在所述对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像。
2.根据权利要求1所述的方法,其特征在于,所述获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息,包括:
控制激光发射端向每个区域对应的空间方向发射激光;
获取激光接收端接收每个区域对应的空间方向反射激光的时间间隔;
利用每个所述时间间隔计算对应区域的深度信息。
3.根据权利要求1所述的方法,其特征在于,所述获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息,包括:
控制第一摄像头模组和第二摄像头模组基于双目测距法测量第一感光传感器中不同区域上成像的对象的深度,得到不同区域上成像的对象的深度信息,其中,所述第一摄像头模组包括第一摄像头和所述第一感光传感器,所述第二摄像头模组包括第二摄像头和第二感光传感器;
所述控制对焦马达移动到每个区域的马达对焦位置,包括:控制所述对焦马达将所述第一摄像头移动到所述第一感光传感器中每个区域的马达对焦位置。
4.根据权利要求1所述的方法,其特征在于,所述深度信息为对应区域上成像的对象的物距,所述基于每个区域的所述深度信息,计算对应区域的马达对焦位置,包括:
基于每个区域上成像的对象的物距,确定对应区域的焦距,得到所述马达对焦位置。
5.根据权利要求1所述的方法,其特征在于,所述感光传感器的每个区域为一个感光单元;
或者,所述感光传感器的每个区域包括一个以上的感光单元,其中,在所述感光传感器的每个区域包括一个以上的感光单元的情况下,每个区域的深度信息为在对应区域中处于预设位置的感光单元的深度信息。
6.一种成像装置,其特征在于,包括:
获取单元,用于获取对感光传感器中不同区域上成像的对象的深度进行测量得到的深度信息;
计算单元,用于基于每个区域的深度信息,计算对应区域的马达对焦位置;
控制单元,用于控制对焦马达移动到每个区域的马达对焦位置,且在对焦马达移动到每个区域的马达对焦位置时,控制对应区域的感光传感器曝光成像,直至得到完整图像。
7.根据权利要求6的装置,其特征在于,所述获取单元包括:
第一控制子单元,用于控制激光发射端向每个区域对应的空间方向发射激光;
获取子单元,用于获取激光接收端接收每个区域对应的空间方向反射激光的时间间隔;
计算子单元,用于利用每个时间间隔计算对应区域的深度信息。
8.根据权利要求6的装置,其特征在于,所述获取单元包括:
第二控制子单元,用于控制第一摄像头模组和第二摄像头模组基于双目测距法测量第一感光传感器中不同区域上成像的对象的深度,得到不同区域上成像的对象的深度信息,其中,第一摄像头模组包括第一摄像头和第一感光传感器,第二摄像头模组包括第二摄像头和第二感光传感器;
所述控制单元还用于控制对焦马达将第一摄像头移动到第一感光传感器中每个区域的马达对焦位置。
9.根据权利要求6的装置,其特征在于,深度信息为对应区域上成像的对象的物距,所述计算单元还用于基于每个区域上成像的对象的物距,确定对应区域的焦距,得到马达对焦位置。
10.根据权利要求6的装置,其特征在于,感光传感器的每个区域为一个感光单元;
或者,感光传感器的每个区域包括一个以上的感光单元,其中,在感光传感器的每个区域包括一个以上的感光单元的情况下,每个区域的深度信息为在对应区域中处于预设位置的感光单元的深度信息。
CN202210197196.2A 2022-03-01 2022-03-01 成像方法和装置 Pending CN114650369A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210197196.2A CN114650369A (zh) 2022-03-01 2022-03-01 成像方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210197196.2A CN114650369A (zh) 2022-03-01 2022-03-01 成像方法和装置

Publications (1)

Publication Number Publication Date
CN114650369A true CN114650369A (zh) 2022-06-21

Family

ID=81994139

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210197196.2A Pending CN114650369A (zh) 2022-03-01 2022-03-01 成像方法和装置

Country Status (1)

Country Link
CN (1) CN114650369A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102104738A (zh) * 2009-12-18 2011-06-22 三星电子株式会社 利用电子快门的多级曝光图像获取方法及拍摄装置
CN104243827A (zh) * 2014-09-23 2014-12-24 深圳市中兴移动通信有限公司 拍摄方法和装置
CN105282443A (zh) * 2015-10-13 2016-01-27 哈尔滨工程大学 一种全景深全景图像成像方法
CN105611122A (zh) * 2015-12-18 2016-05-25 广东欧珀移动通信有限公司 图像传感器及输出方法、相位对焦方法、成像装置和终端
CN111935370A (zh) * 2020-07-10 2020-11-13 昆山丘钛微电子科技有限公司 一种摄像模组、拍摄方法和装置
CN112752026A (zh) * 2020-12-31 2021-05-04 深圳市汇顶科技股份有限公司 自动对焦方法、装置、电子设备和计算机可读存储介质
CN112822402A (zh) * 2021-01-08 2021-05-18 重庆创通联智物联网有限公司 图像拍摄方法、装置、电子设备和可读存储介质
CN113747067A (zh) * 2021-09-07 2021-12-03 维沃移动通信有限公司 拍照方法、装置、电子设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102104738A (zh) * 2009-12-18 2011-06-22 三星电子株式会社 利用电子快门的多级曝光图像获取方法及拍摄装置
CN104243827A (zh) * 2014-09-23 2014-12-24 深圳市中兴移动通信有限公司 拍摄方法和装置
CN105282443A (zh) * 2015-10-13 2016-01-27 哈尔滨工程大学 一种全景深全景图像成像方法
CN105611122A (zh) * 2015-12-18 2016-05-25 广东欧珀移动通信有限公司 图像传感器及输出方法、相位对焦方法、成像装置和终端
CN111935370A (zh) * 2020-07-10 2020-11-13 昆山丘钛微电子科技有限公司 一种摄像模组、拍摄方法和装置
CN112752026A (zh) * 2020-12-31 2021-05-04 深圳市汇顶科技股份有限公司 自动对焦方法、装置、电子设备和计算机可读存储介质
CN112822402A (zh) * 2021-01-08 2021-05-18 重庆创通联智物联网有限公司 图像拍摄方法、装置、电子设备和可读存储介质
CN113747067A (zh) * 2021-09-07 2021-12-03 维沃移动通信有限公司 拍照方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
US10242454B2 (en) System for depth data filtering based on amplitude energy values
CN107635129B (zh) 一种三维三目摄像装置及深度融合方法
CN110462686B (zh) 用于从场景获得深度信息的设备和方法
US10545215B2 (en) 4D camera tracking and optical stabilization
CN108174180B (zh) 一种显示装置、显示系统及三维显示方法
CN108399596B (zh) 深度图像引擎及深度图像计算方法
CN106871878A (zh) 利用手持测距装置创建空间模型的方法
TW201709718A (zh) 在使用者裝置上顯示光場為基影像之方法及裝置,及對應之電腦程式產品
US9336626B2 (en) Imaging apparatus capable of generating three-dimensional images, three-dimensional image generating method, and recording medium
CN110930463B (zh) 一种监控摄像头内参标定方法、装置和电子设备
CN112291473B (zh) 对焦方法、装置及电子设备
US20220084249A1 (en) Method for information processing, electronic equipment, and storage medium
JP2015049200A (ja) 計測装置、方法及びプログラム
US20220345621A1 (en) Scene lock mode for capturing camera images
CN112543284B (zh) 对焦系统、方法及装置
US11283970B2 (en) Image processing method, image processing apparatus, electronic device, and computer readable storage medium
CN109389631B (zh) 深度计算系统与方法
CN114650369A (zh) 成像方法和装置
CN114241127A (zh) 全景图像生成方法、装置、电子设备和介质
CN117115244A (zh) 云端重定位方法、装置及存储介质
CN113506351A (zh) ToF相机的标定方法、装置、电子设备及存储介质
CN108449529B (zh) 深度计算处理器及移动终端
CN109328459B (zh) 智能终端及其3d成像方法、3d成像系统
CN114125304B (zh) 拍摄方法及其装置
CN116433769B (zh) 空间校准方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination