CN115484383A - 拍摄方法及相关装置 - Google Patents
拍摄方法及相关装置 Download PDFInfo
- Publication number
- CN115484383A CN115484383A CN202110876921.4A CN202110876921A CN115484383A CN 115484383 A CN115484383 A CN 115484383A CN 202110876921 A CN202110876921 A CN 202110876921A CN 115484383 A CN115484383 A CN 115484383A
- Authority
- CN
- China
- Prior art keywords
- target
- depth
- aperture
- image
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000015654 memory Effects 0.000 claims description 33
- 230000035945 sensitivity Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 7
- 230000001976 improved effect Effects 0.000 abstract description 13
- 230000004044 response Effects 0.000 abstract description 10
- 238000001514 detection method Methods 0.000 description 82
- 230000003287 optical effect Effects 0.000 description 27
- 238000012545 processing Methods 0.000 description 25
- 239000010410 layer Substances 0.000 description 24
- 238000003062 neural network model Methods 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 238000007726 management method Methods 0.000 description 15
- 230000011218 segmentation Effects 0.000 description 12
- 238000010295 mobile communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 230000001965 increasing effect Effects 0.000 description 8
- 238000007781 pre-processing Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 210000004027 cell Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/75—Circuitry for compensating brightness variation in the scene by influencing optical camera components
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
本申请公开了拍摄方法及相关装置,所提方法中,响应于第一指令,终端设备启动摄像头基于默认光圈档位采集图像;检测摄像头采集的第一图像是否包括显著主体和目标人物;当检测到第一图像包括显著主体和目标人物,基于显著主体的深度和目标人物的深度,确定目标对焦对象以及目标光圈档位;摄像头对焦到目标对焦对象,并基于目标光圈档位采集图像。这样,能够基于摄像头采集的图像自适应地调整光圈档位,极大提高了用户的拍摄体验。
Description
技术领域
本申请涉及电子技术领域,尤其涉及拍摄方法及相关装置。
背景技术
随着智能手机的普及,人们使用手机的场景越来越多,用户对手机拍照效果的要求也与日俱增。目前,受手机的尺寸所限,手机的摄像头一般采用固定光圈来进行拍摄,光圈(Aperture)是用来控制镜头孔径大小的部件,以控制景深、镜头成像素质、以及和快门协同控制进光量。受固定光圈的限制,在很多拍摄场景(例如所需景深随时可变的场景)中,用户的拍照和录像的体验很差。
发明内容
本申请提供了拍摄方法及相关装置,能够基于摄像头采集的图像自适应地调整光圈档位,极大提高了用户的拍摄体验。
第一方面,本申请提供了拍摄方法,应用于终端设备,终端设备包括摄像头,摄像头配置有可调光圈,所述方法包括:响应于第一指令,终端设备启动摄像头基于默认光圈档位采集图像;检测摄像头采集的第一图像是否包括显著主体和目标人物;当检测到第一图像包括显著主体和目标人物,基于显著主体的深度和目标人物的深度,确定目标对焦对象以及目标光圈档位;摄像头对焦到目标对焦对象,并基于目标光圈档位采集图像。
实时本申请实施例,终端设备配置可调光圈,终端设备通过摄像头持续采集图像时,基于摄像头最近采集的图像中的目标人物的深度和显著主体的深度,终端设备可以自适应地切换目标对焦对象和调整光圈档位,以使得摄像头可以采集到景深和亮度适宜的图像,以及提高对焦速度和对焦准确性,极大提高了用户的拍摄体验。
在一种实现方式中,上述当检测到第一图像包括显著主体和目标人物,基于显著主体的深度和目标人物的深度,确定目标对焦对象以及目标光圈档位,具体包括:当检测到第一图像包括显著主体和目标人物,显著主体和目标人物为不同对象,且显著主体的深度和目标人物的深度满足第一预设条件时,确定显著主体为目标对焦对象,并基于显著主体的深度确定目标光圈档位;当检测到第一图像包括显著主体和目标人物,显著主体和目标人物为不同对象,且显著主体的深度和目标人物的深度不满足第一预设条件时,确定目标人物为目标对焦对象,并确定目标光圈档位。
实施本申请实施例,终端设备可以基于目标人物的深度和显著主体的深度自适应地切换目标对焦对象,进而可以基于目标对焦对象调整目标光圈档位;显著主体为目标对焦对象时,可以基于显著主体的深度自适应的目标光圈档位。这样,当拍摄对象发生变化和移动时,摄像头也可以采集到景深和亮度适宜的图像,提高对焦速度和对焦准确性,从而极大提高了用户的拍摄体验。
在一种实现方式中,上述第一预设条件包括:显著主体的深度小于目标人物的深度,且显著主体的深度和目标人物的深度的深度差值大于差值阈值。
实施本申请实施例,考虑实际使用场景,当显著主体离镜头更近,且显著主体与目标人物之间的距离大于差值阈值时,才控制摄像头对焦到显著主体上。
在一种实现方式中,上述终端设备存储有深度和光圈档位的第一对应关系,基于显著主体的深度确定目标光圈档位,包括:基于第一对应关系,确定显著主体的深度对应的光圈档位为目标光圈档位,显著主体的深度越小,目标光圈档位越小。
实施本申请实施例,当满足第一预设条件时,终端设备基于显著主体的深度调整光圈档位,显著主体的深度越小,光圈档位越小。这样,显著主体靠近摄像头时,终端设备可以及时减小光圈以加大景深,避免显著主体移出景深范围造成的显著主体模糊不清以及无法快速对焦。
在一种实现方式中,上述第一对应关系包括可调光圈的N个光圈档位以及M个连续的深度区间的对应关系,M个连续的深度区间中一或多个深度区间对应N个光圈档位中的一个光圈档位,N和M为大于1的正整数。
在一种实现方式中,上述基于目标光圈档位采集图像之前,还包括:基于目标光圈档位确定目标曝光时间和目标感光度,第一值到第二值的变化程度小于第一预设范围,其中,第一值是基于当前的光圈档位、当前的曝光时间和当前的感光度确定的,第二值是基于目标光圈档位、目标曝光时间和目标感光度确定的;基于目标光圈档位采集图像,包括:基于目标光圈档位、目标曝光时间和目标感光度采集图像。
实施本申请实施例,调整光圈档位时,自适应地调整曝光时间和感光度,令在光圈档位调整的前后,第一值和第二值的变化程度保持在第一预设范围内。例如第一预设范围为±15%。这样,可以保证在光圈档位切换前后摄像头采集的图像的图像亮度变化平滑。
在一种实现方式中,上述检测摄像头采集的第一图像是否包括显著主体和目标人物之前,还包括:检测当前的环境光亮度是否大于第一亮度阈值;检测摄像头采集的第一图像是否包括显著主体和目标人物,包括:当检测到环境光亮度大于第一亮度阈值时,检测摄像头采集的第一图像是否包括显著主体和目标人物。
在一种实现方式中,上述检测当前的环境光亮度是否大于第一亮度阈值之后,还包括:当检测到环境光亮度小于第一亮度阈值时,确定目标光圈档位为默认光圈档位。
实施本申请实施例,在高亮环境下,终端设备基于检测到的目标对焦对象调整光圈档位;在非高亮环境下,可以保持较大的默认光圈档位,或者,进一步调大光圈档位,以保障图像亮度。
在一种实现方式中,上述当检测到第一图像包括显著主体和目标人物,基于显著主体的深度和目标人物的深度,确定目标对焦对象以及目标光圈档位,具体包括:当检测到第一图像包括显著主体和目标人物,且显著主体和目标人物为同一物品时,确定显著主体为目标对焦对象,并基于显著主体的深度确定目标光圈档位;当检测到第一图像包括显著主体和目标人物,且显著主体和目标人物为同一人物时,确定目标人物为目标对焦对象,并确定目标光圈档位。
在一种实现方式中,上述拍摄方法还包括:当检测到第一图像包括显著主体,不包括目标人物时,确定显著主体为目标对焦对象,并基于显著主体的深度确定目标光圈档位;当检测到第一图像包括目标人物,不包括显著主体时,确定目标人物为目标对焦对象,并确定目标光圈档位。
在一种实现方式中,上述并确定目标光圈档位,具体包括:确定目标光圈档位为默认光圈档位。
在一种实现方式中,上述并确定目标光圈档位,具体包括:基于当前的环境光亮度确定目标光圈档位。
在一种实现方式中,上述并确定目标光圈档位,具体包括:基于目标人物的深度确定目标光圈档位。
在一种实现方式中,当环境光亮度大于第二亮度阈值时,目标光圈档位为第一光圈档位;当环境光亮度小于等于第三亮度阈值时,目标光圈档位为第二光圈档位,默认光圈档位小于第二光圈档位,且大于第一光圈档位。
第二方面,本申请提供了一种终端设备,包括一个或多个处理器和一个或多个存储器。该一个或多个存储器与一个或多个处理器耦合,一个或多个存储器用于存储计算机程序代码,计算机程序代码包括计算机指令,当一个或多个处理器执行计算机指令时,使得终端设备执行上述任一方面任一项可能的实现方式中的拍摄方法。
第三方面,本申请实施例提供了一种计算机存储介质,包括计算机指令,当计算机指令在终端设备上运行时,使得终端设备执行上述任一方面任一项可能的实现方式中的拍摄方法。
第四方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行上述任一方面任一项可能的实现方式中的拍摄方法。
附图说明
图1为本申请实施例提供的一种终端设备的结构示意图;
图2A为本申请实施例提供的一种网络直播的场景示意图;
图2B为本申请实施例提供的一种直播界面的示意图;
图3为本申请实施例提供的一种拍摄方法的方法流程图;
图4A为本申请实施例提供的一种显著主体检测框架的示意图;
图4B为本申请实施例提供的一种显著主体检测框的示意图;
图5A为本申请实施例提供的一种显著主体检测框架的示意图;
图5B为本申请实施例提供的一种二值Mask图的示意图;
图5C为本申请实施例提供的一种显著主体分割框的示意图;
图5D为本申请实施例提供的一种深度预测示意图;
图6A为本申请实施例提供的一种目标人物检测框的示意图;
图6B为本申请实施例提供的另一种二值Mask图的示意图;
图6C为本申请实施例提供的一种预设场景的示意图;
图7A至图7C为本申请实施例提供的直播界面示意图;
图8为本申请实施例提供的另一种拍摄方法的方法流程图;
图9A至图9C为本申请实施例提供的启动抓拍模式的用户界面示意图;
图10为本申请实施例提供的另一种拍摄方法的方法流程图;
图11为本申请实施例提供的一种软件系统架构图;
图12为本申请实施例提供的另一种软件系统架构图。
具体实施方式
下面将结合附图对本申请实施例中的技术方案进行清楚、详尽地描述。其中,在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;文本中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为暗示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征,在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
首先对本申请实施例涉及的技术概念进行介绍。
光圈:指摄像头上用来控制镜头孔径大小的部件,用于控制景深、镜头成像素质、以及和快门协同控制进光量。通常采用光圈f值表示表示光圈大小,f值等于镜头焦距/镜头有效口径直径。
在一些实施例中,光圈档位包括以下一或多个档位:f/1.0,f/1.4,f/2.0,f/2.8,f/4.0,f/5.6,f/8.0,f/11,f/16,f/22,f/32,f/44,f/64。在快门不变的情况下:f值越小,镜头孔径越大,光圈(光圈档位)越大,进光量越多,画面比较亮,焦平面越窄,主体背景虚化越大;f值越大,镜头孔径越小,光圈(光圈档位)越小,进光量越少,画面比较暗,焦平面越宽,主体前后越清晰。
焦点:包括平行光通过镜头聚焦在感光元件(或底片)上的点。焦距:指平行光从镜头的透镜的中心到光聚集之焦点的距离。
对焦(Focus):指通过摄像头镜头中镜片组的前后移动调整像距,拍摄对象可以恰好落在感光元件上,进而使得拍摄对象的成像清晰。自动对焦(Auto Focus,简称AF)是一种利用物体光反射的原理,使得物体反射的光被摄像头上的电荷耦合器件(Charge CoupledDevice,简称CCD)接受,通过计算机处理,带动电动对焦装置对物体进行对焦的方式。成像依照如下定律:1/u+1/v=1/f,其中u、v和f分别代表物距(拍摄对象的距离)、像距和焦距,物距和焦距确定时,恰当调整像距完成对焦,可以使拍摄对象的成像清晰。
景深(Depth of Field,DOF):在焦点前后各有一个容许弥散圆,这两个弥散圆之间的距离就叫焦深,焦点对应的拍摄对象(即对焦点)前后的相对清晰的成像范围为景深。前景景深包括在对焦点之前的清晰范围,背景景深包括在对焦点之后的清晰范围。影响景深的重要因素包括光圈大小、焦距、拍摄距离。光圈越大(光圈值f越小)时,景深越浅,光圈越小(光圈值f越大)时,景深越深;焦距越长时,景深越浅,镜头焦距越短时,景深越深;拍摄对象的拍摄距离越大时,景深越深,拍摄距离越小时,景深越浅。
下面对本申请实施例涉及的终端设备100的结构进行介绍。
终端设备100可以是搭载iOS、Android、Microsoft或者其它操作系统的终端设备,例如,终端设备100可以是手机、平板电脑、桌面型计算机、膝上型计算机、手持计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本,以及蜂窝电话、个人数字助理(personal digital assistant,PDA)、增强现实(augmentedreality,AR)设备、虚拟现实(virtual reality,VR)设备、人工智能(artificialintelligence,AI)设备、可穿戴式设备、车载设备、智能家居设备和/或智慧城市设备。本申请实施例对该终端设备的具体类型不作特殊限制。
图1示出了终端设备100的结构示意图。终端设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriberidentification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对终端设备100的具体限定。在本申请另一些实施例中,终端设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过终端设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为终端设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
终端设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。终端设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在终端设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在终端设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号解调以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,终端设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得终端设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
终端设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,终端设备100可以包括1个或N个显示屏194,N为大于1的正整数。
终端设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端设备100可以包括1个或N个摄像头193,N为大于1的正整数。
本申请实施例中,摄像头193配置可调光圈,终端设备100通过摄像头采集图像时,可以根据预设策略自动调整拍摄参数,以便于摄像头193获取景深和亮度适宜的图像,以及提高对焦速度。其中,拍摄参数包括光圈档位,还可以包括感光度(ISO)、曝光时间(或快门速度)等参数。在一些实施例中,摄像头193配置的光圈有H个可调的光圈档位,H个光圈档位对应的光圈依次由大至小,H为大于1的正整数。在一些实施例中,通过调整光圈档位,基于最小调整精度的前提下,可以将镜头孔径调整至最大镜头孔径值和最小镜头孔径值中的任意值。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端设备100可以支持一种或多种视频编解码器。这样,终端设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现终端设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
内部存储器121可以包括一个或多个随机存取存储器(random access memory,RAM)和一个或多个非易失性存储器(non-volatile memory,NVM)。
随机存取存储器可以包括静态随机存储器(static random-access memory,SRAM)、动态随机存储器(dynamic random access memory,DRAM)、同步动态随机存储器(synchronous dynamic random access memory,SDRAM)、双倍资料率同步动态随机存取存储器(double data rate synchronous dynamic random access memory,DDR SDRAM,例如第五代DDR SDRAM一般称为DDR5 SDRAM)等;非易失性存储器可以包括磁盘存储器件、快闪存储器(flash memory)。
快闪存储器按照运作原理划分可以包括NOR FLASH、NAND FLASH、3D NAND FLASH等,按照存储单元电位阶数划分可以包括单阶存储单元(single-level cell,SLC)、多阶存储单元(multi-level cell,MLC)、三阶储存单元(triple-level cell,TLC)、四阶储存单元(quad-level cell,QLC)等,按照存储规范划分可以包括通用闪存存储(英文:universalflash storage,UFS)、嵌入式多媒体存储卡(embedded multi media Card,eMMC)等。
随机存取存储器可以由处理器110直接进行读写,可以用于存储操作系统或其他正在运行中的程序的可执行程序(例如机器指令),还可以用于存储用户及应用程序的数据等。
非易失性存储器也可以存储可执行程序和存储用户及应用程序的数据等,可以提前加载到随机存取存储器中,用于处理器110直接进行读写。
外部存储器接口120可以用于连接外部的非易失性存储器,实现扩展终端设备100的存储能力。外部的非易失性存储器通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部的非易失性存储器中。
终端设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。终端设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当终端设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。
耳机接口170D用于连接有线耳机。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。
陀螺仪传感器180B可以用于确定终端设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定终端设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测终端设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消终端设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。
加速度传感器180E可检测终端设备100在各个方向上(一般为三轴)加速度的大小。当终端设备100静止时可检测出重力的大小及方向。还可以用于识别终端设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。终端设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,终端设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。终端设备100通过发光二极管向外发射红外光。终端设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定终端设备100附近有物体。当检测到不充分的反射光时,终端设备100可以确定终端设备100附近没有物体。终端设备100可以利用接近光传感器180G检测用户手持终端设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。终端设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测终端设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。
温度传感器180J用于检测温度。在一些实施例中,终端设备100利用温度传感器180J检测的温度,执行温度处理策略。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于终端设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。
马达191可以产生振动提示。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,消息,通知等。
SIM卡接口195用于连接SIM卡。
本申请实施例提供了一种拍摄方法,该拍摄方法应用于通过摄像头持续采集图像的场景,例如网络直播、视频通话、拍照预览、录像等场景。所提方法中,终端设备100配置可调光圈,终端设备100通过摄像头持续采集图像时,基于环境光亮度、摄像头最近采集的图像中的目标人物的深度和/或摄像头最近采集的图像中的显著主体的深度,终端设备100可以自适应地调整光圈大小以及其他拍摄参数(例如ISO、曝光时间等),以使得摄像头采集到景深和亮度适宜的图像,以及提高对焦速度和对焦准确性。
下面以网络直播场景为例,对本申请实施例提供的拍摄方法进行详细介绍。
首先,对网络直播场景进行简要介绍。网络直播是指随着在线影音平台的兴起,在互联网上公开播出即时影像的娱乐形式,主播可以通过手机、平板等直播设备实时录制和上传视频,向观众推荐美食、生活用品等,观众也可以通过留言和主播即时交互。目前,由于直播设备的光圈不可调,在主播和被介绍的物品的位置变化过程中,直播设备的摄像头的对焦点不能及时准确地在主播和物品间切换,进而使得直播设备的摄像头不能自适应地采集到景深和亮度适宜的图像。例如,现有的直播设备默认对焦到人脸上,主播需要遮挡人脸,直播设备才能将对焦点切换到物品上,以采集到清晰的物品的图像。例如,主播将物品放置在画面的核心位置(例如画面中心且靠前的位置),现有的直播设备需要较长的时间才能对焦到物品上。例如,需要主播手动对焦才能准确对焦到物品上,用户操作繁琐。而在网络直播场景中实施本申请实施例提供的拍摄方法,可以避免上述问题,有效提升用户体验。
示例性的,图2A示出了本申请实施例提供的一种通过终端设备100进行网络直播的场景示意图,图2B示出了一种终端设备100的直播界面11。
如图2B所示,直播界面11包括显示区201、输入框202、点赞控件203、头像204、观看人数205。其中,显示区201用于显示终端设备100的摄像头实时采集的图像。示例性的,显示区201显示的图像包括图示的人物1、物品1和物品2,相比人物1和物品1,物品2处于远景。输入框202用于接收用户输入的留言;头像204用于显示主播的头像;观看人数205用于显示该直播的实时光看人数。本申请实施例中,终端设备100可以通过前置摄像头或后置摄像头采集直播的视频图像,此处不做具体限定。
图2B所示的直播界面11是本申请实施例提供的示例性用户界面,不应对本申请构成限定。在另一些实施例中,直播界面11可以包括比图示更多或更少的界面元素。
图3示出了本申请实施例提供的拍摄方法的方法流程图,该拍摄方法包括但不限于步骤S101至S106。下面对该方法流程进行详细介绍。
S101、终端设备100启动摄像头,并设置摄像头的光圈档位为默认光圈档位。
S102、终端设备100通过摄像头采集并显示图像1。
在一些实施例中,摄像头配置的光圈包括前述H个可调的光圈档位,默认光圈档位为上述H个光圈档位中光圈较大的光圈档位。示例性的,摄像头配置的5个光圈档位从大到小依次为f/1.4、f/2、f/2.8、f/4、f/6,默认光圈档位为f/2。
在一些实施例中,终端设备100接收第一指令,响应于上述第一指令,终端设备100启动摄像头采集图像(例如图像1),设置摄像头的光圈档位为默认光圈档位。其中,第一指令用于触发启动特定应用程序(例如即时通讯应用、相机应用或直播应用)的视频拍摄功能;第一指令可以是基于用户执行的输入操作生成的指令,上述输入操作可以是用户在显示屏上输入的触控操作(例如点击操作,或者长按操作),也可以是体感操作或隔空手势等非接触操作,还可以是录入用户的语音指令的操作,本申请实施例对此不做具体限制。
示例性的,直播场景中,上述第一指令用于启动终端设备100安装的直播应用的直播拍摄功能;响应于上述输入操作,终端设备100启动摄像头,摄像头基于光圈较大的默认光圈档位采集图像,并在拍摄界面11的显示区201显示采集的图像,例如图像1。
需要说明的是,参见图2B,由于默认光圈档位对应的光圈较大,启动摄像头后显示区201显示的图像1对应的景深较浅,这导致图像1中处于远景的物品2被虚化,视觉上模糊不清。本申请实施例涉及的摄像头可以是前置摄像头,也可以是后置摄像头,此处不做具体限定。本申请涉及的第一图像可以为图像1。
S103、终端设备100确定当前环境光亮度是否大于亮度阈值1;当前环境光亮度大于亮度阈值1时,执行S104。
在一些实施例中,当前环境光亮度小于等于亮度阈值1时,终端设备100保持光圈档位为默认光圈档位。
在一些实施例中,当环境光亮度小于等于亮度阈值1大于亮度阈值2时,终端设备100保持光圈档位为默认光圈档位;当环境光亮度小于等于亮度阈值2时,终端设备100调大光圈档位为光圈档位1。其中,亮度阈值2小于亮度阈值1,光圈档位1对应的镜头孔径大于默认光圈档位对应的镜头孔径。例如,默认光圈档位为f/2、光圈档位1为f/1.4。
可以理解,环境光亮度大于亮度阈值1时,终端设备100处于高亮环境,终端设备100执行步骤S104,以及S105至S111中的部分步骤,从而确定对焦的目标对象,以及结合对焦的目标对象的深度进一步确定如何调整光圈档位;环境光亮度小于亮度阈值2时,终端设备100处于夜间环境,终端设备100通过调大光圈档位增加进光量;环境光亮度小于等于亮度阈值1大于亮度阈值2时,终端设备100处于非高亮且非夜间的环境,终端设备100继续保持光圈档位为默认光圈档位。
在一些实施例中,终端设备100可以通过环境光传感器检测当前的环境光亮度。在一些实施例中,终端设备100可以获取图像亮度和环境光亮度的对应关系,进而可以通过图像1的图像亮度确定当前的环境光亮度。本申请实施例对环境光亮度的获取不做具体限定。
本申请实施例中,步骤S103是可选的。在一些实施例中,步骤S102之后终端设备100直接执行S104。
S104、终端设备100检测图像1中的目标人物和显著主体,获取目标人物的深度和显著主体的深度。
本申请实施例中,图像中的显著主体指:用户看到该图像时,该图像中用户的视线最有可能集中的对象,即该图像中用户最感兴趣的对象。
下面介绍终端设备100如何识别图像1中的显著主体,并获取显著主体的深度。具体的,可以包括步骤S104A和步骤S104B。
S104A、终端设备100检测摄像头采集的图像1中的显著主体,确定显著主体在图像1中的所在区域1。
示例性的,图4A示出了一种显著主体检测框架,该框架包括预处理模块和显著主体检测模块。终端设备100将摄像头采集的RGB图像(例如图像1)输入预处理模块,预处理模块用于对上述RGB图像进行下采样和裁剪;终端设备100将预处理模块输出的预处理后的RGB图像输入显著主体检测模块,显著主体检测模块用于利用神经网络模型1识别输入的RGB图像中的显著主体,输出显著主体对应的预设形状的显著主体检测框,该显著主体检测框用于指示显著主体在图像1中的所在区域1。上述预设形状可以为预设的长方形、椭圆形或圆形等,此处不做具体限定。
示例性的,如图4B所示,终端设备100通过图4A所示的显著主体检测框架检测图像1中的显著主体,输出显著主体(即物品1)对应的长方形的显著主体检测框,该显著主体检测框用于指示物品1在图1中的所在区域。
在一些实施例中,如图4A所示,终端设备100还将显著主体检测模块的过往帧信息(即前a帧输入图像和相应的输出结果,a为正整数)作为输入信号,再次输入神经网络模型1,从而实现在对摄像头采集的当前帧图像进行显著主体检测的同时,也会对摄像头采集的过往帧图像的检测框进行传播,以使得连续的多帧图像的检测结果更稳定。
需要说明的是,通过下采样上述RGB图像,生成上述RGB图像的缩略图,可以降低后续显著主体检测的复杂度,提高检测效率;显著主体通常靠近图像的中心区域,通过对上述RGB图像的适当裁剪,缩小上述RGB图像,可以提高后续显著主体的检测效率。
图4A所示的检测框架中,终端设备100可以采用训练好的显著主体检测的神经网络模型1获取图像1中的显著主体检测框。下面对神经网络模型1的训练过程进行简要介绍。
首先获取神经网络模型1的已标注的训练数据,生成groundtruth图;其中,训练数据为常用应用场景下的大量视频图像,每个视频图像的标注为该视频图像中用户视线的投射主体的检测框。将训练数据和训练数据对应的groundtruth图输入类U-net结构的基础网络模型,利用有监督的深度学习方法对上述基础网络模型进行训练,从而得到训练好的显著主体检测的神经网络模型1。这样,利用训练好的神经网络模型1,终端设备100可以对摄像头采集的视频图像中的显著主体进行有效地持续跟踪。
示例性的,图5A示出了另一种显著主体检测框架,该框架也包括预处理模块和显著主体检测模块。不同于图4A所示的显著主体检测模块,图5A所示的显著主体检测模块利用训练好的神经网络模型2进行显著主体检测,神经网络模型2的输入为预处理后的RGB图像,输出预处理后的RGB图像对应的二值Mask图。其中,二值Mask图中各像素点对应的取值为第一值(例如0)或第二值(例如1),像素点取值为第二值的区域为显著主体的所在区域。示例性的,图5B示出了图1对应的二值Mask图,图1中像素点取值为第二值的区域为物品1的所在区域,物品1为图1的显著主体。
在一些实施例中,显著主体检测模块基于神经网络模型2输出的二值Mask图,确定显著主体所在区域的边缘,将显著主体的闭合的边缘线作为显著主体分割框,显著主体分割框用于指示显著主体的所在区域1。显著主体分割框的形状不固定,通常是不规则形状。示例性的,图5C示出了图1的显著主体(即物品1)的显著主体分割框。
在一些实施例中,神经网络模型2的输出即为输入的RGB图像的显著主体的显著主体分割框。
在一些实施例中,图5A所示显著主体检测框架中,终端设备100将显著主体检测模块的过往帧信息(即前a帧输入图像和相应的输出结果)作为输入信号,再次输入神经网络模型2,以提高检测结果的稳定性。具体的,可以参考图4A的相关描述,此处不再赘述。
可以理解,利用图5A所示显著主体检测框架,可以沿显著主体的边缘将显著主体的所在区域与图1的其他区域分割开。
本申请实施例中,当终端设备100通过显著主体检测框指示区域1,终端设备100可以通过显著主体检测框的坐标和大小表征区域1在图像1中的位置。示例性的,显著主体检测框为长方形时,显著主体检测框的坐标为左上角坐标(或左下角坐标、右上角坐标、右下角坐标),显著主体检测框的大小为显著主体检测框的宽和长;显著主体检测框为圆形时,显著主体检测框的坐标为显著主体检测框的圆心坐标、显著主体检测框的大小为显著主体检测框的半径。当终端设备100通过显著主体分割框指示区域1,终端设备100可以过显著主体分割框上的每个像素点的坐标来表征区域1在图像1中的位置。
需要说明的是,图4A和图5A所示的显著主体检测框架未检测到图1中的显著主体时,显著主体检测框架没有输出结果,或者输出预设符号,该预设符号用于指示未检测到图1的显著主体。此外,图4A和图5A所示的预处理模块是可选的,终端设备100也可以直接利用显著主体检测模块对该框架的输入图像(例如图像1)进行显著主体的检测。
S104B、终端设备100基于图像1的所在区域1确定显著主体的深度。
在一些实施例中,终端设备100存储有相位差(Phase Difference,PD)和深度(即物距)的对应关系。终端设备100获取图像1的区域1对应的PD值,进而确定该PD值对应的深度为显著主体的深度。
具体的,终端设备100的摄像头的像素传感器带有相位检测的功能,能够检测区域1内每个像素的左像素和右像素的相位差,进而基于区域1内每个像素的相位差可以确定区域1对应的PD值。例如,区域1对应的PD值等于区域1内每个像素的相位差的平均值。
在一些实施例中,终端设备100获取图像1对应的深度图像;终端设备100基于深度图像获取图像1的区域1内的像素对应的深度,进而基于区域1内的像素对应的深度确定显著主体的深度。
其中,显著主体的深度表示实际环境中显著主体和镜头之间的距离。显著主体所在区域1内的像素1对应的深度表示:实际环境中在显著主体上与像素1对应的位置和镜头之间的距离。深度图像中每个像素的像素值用于表征该像素对应的深度。可以理解,图像1中像素1对应的深度即为深度图像中像素1对应的像素的像素值。可选的,深度图像的分辨率等于图像1的分辨率,深度图像的像素点与图像1的像素点一一对应。可选的,深度图像的分辨率小于图像1的分辨率,深度图像的一个像素点对应图像1的多个像素点。
在一种实现方式中,终端设备100确定显著主体的深度为区域1中所有像素对应的深度的平均值或者加权平均值。在一种实现方式中,终端设备100确定显著主体的深度为区域1的预设区域的所有像素对应的深度的平均值或者加权平均值;其中,预设区域可以为区域1的中心位置的预设大小和预设形状的区域。在一种实现方式中,终端设备100将深度划分为N个连续的深度区间;基于区域1内每个像素对应的深度,将该像素划分到相应的深度区间;终端设备100确定区域1的像素分布最多的深度区间1;终端设备100确定显著主体的深度为深度区间1的中间值。
本申请实施例中,显著主体的深度也可以被称为区域1的深度。
下面对如何获取图像1对应的深度图像进行介绍。
在一种实现方式中,终端设备100利用摄像头采集图像(例如图像1)时,利用配置深度测量器件的摄像头采集上述图像对应的深度图像。其中,深度测量器件可以是飞行时间测距法(Time of flight,TOF)器件,例如ITOF或DTOF;深度测量器件还可以是其他类型的器件,此处不做具体限定。
具体的,终端设备100利用摄像头采集图像1时,利用TOF器件给被摄范围连续发送光脉冲,然后用TOF器件接收从被摄对象返回的光脉冲,通过探测光脉冲的往返飞行时间来确定被摄范围内所有被摄对象与镜头的距离,进而获得图像1对应的深度图像。
本申请实施例中,采集图像1的摄像头和采集深度图像的摄像头可以是同一个摄像头,也可以是不同的摄像头,此处不做具体限定。
在另一种实现方式中,终端设备100利用摄像头采集图像1后,将图像1输入训练好的深度预测的神经网络模型3,神经网络模型3输出图像1对应的深度图像。示例性的,如图5D所示,图5A(或图4A)所示的显著主体检测框架还可以包括深度预测模块,深度预测模块用于利用神经网络模型3获取输入图像对应的深度图像。
不限于上述两种实现方式,本申请实施例还可以通过其他方式获取图像1对应的深度图像,此处不作具体限定。
下面介绍终端设备100如何识别图像1中的目标人物,并获取目标人物的深度。具体的,可以包括步骤S104C和步骤S104D。
S104C、终端设备100检测摄像头采集的图像1中的目标人物,确定目标人物在图像1中的所在区域2。
在一些实施例中,类似于图4A和图5A所示的显著主体的检测,终端设备100先对摄像头采集的图像进行预处理,然后再检测预处理后的图像1中的目标人物。
在一些实施例中,终端设备100利用人脸检测算法(例如训练好的人脸检测的神经网络模型4)识别图像1中的目标人物的人脸(为了便于描述,将目标人物的人脸简称为目标人脸),获取目标人脸对应的预设形状(例如长方形、椭圆形或圆形等)的目标人物检测框,目标人物检测框用于指示目标人物在图像1中的所在区域2。当图像1包括多个人脸时,在上述多个人脸中,目标人脸面积更大、目标人脸深度更小和/或目标人脸更靠近图像1的中心位置。
在一些实施例中,图像1包括多个人脸,终端设备100利用人脸检测算法识别出图像1中的每张人脸的所在区域,然后终端设备100基于每个人脸的面积、每个人脸的深度和/或每个人脸的位置,确定上述多个人脸中的目标人脸。
本申请实施例中,基于图像1对应的深度图像中每张人脸所在区域的像素对应的深度值,终端设备100可以确定每个人脸的深度。具体的,可以参考前述实施例中显著主体的深度的确定方式,此处不再赘述。
可选的,确定上述多个人脸中面积最大的人脸为目标人脸。可选的,确定上述多个人脸中位置最靠近图像1的中心位置的人脸为目标人脸。可选的,设置面积和深度这两个因素的权值,确定上述多个人脸中上述两个因素的加权值最大的人脸为目标人脸。例如,人脸的面积A的权值为a,人脸的深度B的权值为b,确定(a*A-b*B)最大的人脸为目标人脸。
示例性的,如图6A所示,摄像头采集的图像1包括人物1和人物2,终端设备100利用人脸识别算法识别图像1中的人物1的人脸和人物2的人脸,然后基于两个人脸的面积和深度,确定人脸面积和人脸深度的加权值更大的人物1的人脸为目标人脸。
在一些实施例中,终端设备100利用人物识别算法(例如训练好的人物检测的神经网络模型5)检测图像1中的目标人物,获取图像1对应的二值Mask图。其中,二值Mask图中各像素点对应的取值为第一值(例如0)或第二值(例如0),像素点取值为第二值的区域为目标人物的所在区域。示例性的,图6B示出了图1对应的二值Mask图,图1中像素点取值为第二值的区域为人物1的所在区域,人物1为图1的目标人物。当图像1包括多个人物时,在上述多个人物中,目标人物的面积更大、目标人脸的深度更小和/或目标人物更靠近图像1的中心位置。
在一些实施例中,终端设备100基于目标人物对应的二值Mask图,确定目标人物所在区域的边缘,将目标人物的闭合的边缘线作为目标人物分割框,目标人物分割框用于指示目标人物的所在区域2。目标人物分割框的形状不固定,通常是不规则形状。示例性的,图5C示出了图1的目标人物(即人物1)的目标人物分割框。
在一些实施例中,上述神经网络模型5的输出即为图像1中的目标人物的目标人物分割框。
在一些实施例中,图像1包括多个人物,终端设备100利用人物识别算法识别上述多个人物,然后基于每个人物的面积、深度和/或位置,确定上述多个人物中的目标人物。具体的,可以参考上述在多个人脸中确定目标人脸的实现方式,此处不再赘述。
需要说明的是,在一种实现方式中,如图4B所示,终端设备100利用显著主体检测框指示显著主体所在区域1,以及利用目标人物检测框指示目标人物所在区域2,目标人物检测框和显著主体检测框均为预设形状的检测框。在一种实现方式中,如图5C所示,终端设备100利用显著主体分割框指示显著主体所在区域1,以及利用目标人物分割框指示目标人物所在区域2。
在一些场景(例如拍照预览)中,终端设备100显示摄像头采集的图像时,可以将识别到的目标人物检测框和显著主体检测框(或者目标人物分割框和显著主体分割框)显示出来。在一些场景(例如网络直播、视频通话)中,终端设备100无需将识别到的目标人物检测框和显著主体检测框(或者目标人物分割框和显著主体分割框)显示出来;以显著主体检测框为例,检测框仅用于确定显著主体在图像1中的所在区域,以便于终端设备100确定显著主体所在区域的深度。
S104D、终端设备100基于图像1的区域2确定目标人物的深度。
具体的,可以参考步骤S104B的实施方式,此处不再赘述。
本申请实施例中,目标人物的深度也可以被称为区域2的深度。
本申请实施例中,类似于显著主体检测框,当终端设备100通过目标人物检测框指示区域2时,终端设备100可以通过目标人物检测框的坐标和大小表征区域1在图像1中的位置;当终端设备100通过目标人物分割框指示区域2,终端设备100可以过目标人物分割框上的每个像素点的坐标来表征区域2在图像1中的位置。
需要说明的是,本申请实施例对检测目标人物(步骤S104A)和检测显著主体(步骤S104C)的执行顺序不做具体限定,步骤S104A和S104C可以同时执行,也可以按照预设顺序依次执行。
S105、当终端设备100在图像1中检测到目标人物和显著主体,且目标人物和显著主体为不同对象时,确定目标人物的深度和显著主体的深度是否满足第一预设条件。
在一些实施例中,第一预设条件为目标人物的深度小于显著主体的深度,且目标人物的深度和显著主体的深度的深度差值大于差值阈值。在一些实施例中,第一预设条件为目标人物的深度小于显著主体的深度,目标人物的深度和显著主体的深度的深度差值大于差值阈值,且显著主体的深度小于预设深度。本申请实施例中,当满足第一预设条件时,终端设备100确定显著主体进入微距拍摄场景。
本申请实施例中,当目标人物的深度和显著主体的深度满足第一预设条件时,终端设备100确定显著主体为目标对焦对象,执行S106;当未满足第一预设条件时,终端设备100确定目标人物为目标对焦对象,执行S107。
S106、终端设备100基于显著主体的深度调整光圈的档位,并将摄像头对焦到显著主体。
在一些实施例中,显著主体的深度与光圈档位呈线性关系,显著主体的深度越小,显著主体的深度对应的光圈档位越小。
在一些实施例中,摄像头的光圈档位包括前述H个光圈档位,默认光圈档位为上述H个光圈档位中的第i个档位。终端设备100将深度从大到小划分为H-i个连续的深度区间,上述H个光圈档位中的后H-i个光圈档位与上述H-i深度区间一一对应。终端设备100基于显著主体的深度调整光圈档位,显著主体的深度越小,调整后的光圈档位越小。
示例性的,摄像头的光圈档位包括f/1.4、f/2、f/2.8、f/4和f/6这五个档位,默认光圈档位为f/2;当显著主体的深度大于深度阈值1(例如60cm)时,保持光圈档位为默认光圈档位;当显著主体的深度小于等于深度阈值1,且大于深度阈值2(例如40cm)时,减小光圈档位到f/2.8;当显著主体的深度小于等于深度阈值2,且大于深度阈值3(例如30cm)时,减小光圈档位到f/4;当显著主体的深度小于等于深度阈值3时,减小光圈档位到f/6。可以理解,可调的光圈档位越多,则深度区间的划分可以越精细。
在一些实施例中,终端设备100调整光圈档位时,相应地调整调整曝光时间和ISO,令在光圈档位调整的前后,(曝光时间*ISO/光圈档位的f值)的值的变化程度保持在第一预设范围内,例如第一预设范围为±15%。这样,可以保证光圈档位切换前后摄像头采集的图像的图像亮度变化平滑。
在一些实施例中,基于显著主体所在区域1的位置,终端设备利用AF算法将摄像头对焦到显著主体。可选的,终端设备100存储深度与对焦马达的对焦位置的对应关系,终端设备100根据显著主体所在区域1的预设区域的深度,确定对焦马达的目标对焦位置,然后将对焦马达驱动到目标对焦位置,从而实现将摄像头对焦到显著主体。其中,上述预设区域的位置是根据区域1的位置确定的。可选的,上述预设区域可以为区域1的中心位置的预设大小和预设形状的区域。可选的,上述预设区域即为区域1的全部区域,区域1的预设区域的深度即为显著主体的深度。
可以理解,由于拍摄对象的拍摄距离越近,景深越浅,因此显著主体靠近摄像头时,景深变浅,显著主体容易移出较浅的景深范围,从而造成显著主体不能及时对焦,显著主体成像不清晰。实施本申请实施例,当满足第一预设条件时,显著主体进入微距拍摄场景,终端设备100基于显著主体的深度调整光圈档位,显著主体的深度越小,光圈档位越小。这样,显著主体靠近摄像头时,终端设备100可以及时减小光圈以加大景深,避免显著主体移出景深范围造成的显著主体模糊不清,也进而提高了对显著主体的对焦速度。
本申请实施例中,步骤S107包括S107A、S107B和S107C这三种可能的实现方式。
S107A、终端设备100调整光圈档位为默认光圈档位,并将摄像头对焦到目标人物。
S107B、终端设备100基于环境光亮度调整光圈档位,并将摄像头对焦到目标人物。
在一些实施例中,在步骤S107B中,当环境光亮度大于预设阈值1时,基于环境光亮度调小光圈档位,且自适应地调整曝光时间和ISO,令在光圈档位调整的前后,(曝光时间*ISO/光圈档位的f值)的值的变化程度保持在第一预设范围内。可选的,当环境光亮度大于预设阈值1时,基于环境光亮度调小光圈档位,保持ISO不变,并适当增大曝光时间。
示例性的,摄像头的光圈档位包括f/1.4、f/2、f/2.8、f/4和f/6这五个档位,默认光圈档位为f/2,环境光亮度大于预设阈值1时,将光圈档位降低至f/2.8。
S107C、终端设备100基于目标人物的深度调整光圈的档位,并将摄像头对焦到显著主体。
在一些实施例中,目标人物的深度与光圈的档位呈线性关系,目标人物的深度越小,调整后的光圈档位越小。具体的,可以参考步骤S106中显著主体的深度和光圈档位的对应关系,此处不再赘述。
在一些实施例中,当处于预设场景时,终端设备100执行S107C。上述预设场景下,人脸通常离镜头比较近,例如上述预设场景为化妆场景。可选的,终端设备100可以通过识别摄像头采集的图像,确定当前是否处于预设场景。示例性的,参考图6C,终端设备100识别到图像1包括人脸和化妆品,且人脸的深度小于预设深度时,确定终端设备100当前处于化妆场景。可选的,终端设备100的拍摄模式包括预设场景模式(例如化妆模式),当终端设备100在预设场景模式下进行拍摄时,确定终端设备100当前处于预设场景。
在一些实施例中,基于目标人物所在区域2的位置,终端设备100利用AF算法将摄像头对焦到目标人物。可选的,终端设备100存储深度与对焦马达的对焦位置的对应关系,终端设备100根据目标人物所在区域2内的预设区域的深度,确定对焦马达的目标对焦位置,然后将对焦马达驱动到目标对焦位置,从而实现将摄像头对焦到目标人物。其中,上述预设区域的位置是根据区域2的位置确定的。可选的,上述预设区域可以为区域2的中心位置的预设大小和预设形状的区域。可选的,上述预设区域为区域2的全部区域。
示例性的,如图7A、图7B和图7C所示,人物1手持物品1,将物品1逐渐靠近终端设备100,终端设备100检测到摄像头采集的图像中的显著主体(即物品1)和目标人物(即人物1)。例如,图7A所示图像中,显著主体和目标人物不满足第一预设条件,终端设备100将摄像头对焦到目标人物,并保持默认光圈档位,此时远景的物品2被虚化。图7B和和图7C所示图像中,显著主体和目标人物满足第一预设条件,且显著主体的深度逐渐减小,终端设备100基于显著主体的深度降低光圈档位。随着光圈档位的降低,图7B和图7C所示的图像的景深增大,远景的物品2逐渐变清晰。
在一些实施例中,步骤S104之后还包括S108。
S108、当终端设备100在图像1中检测到目标人物和显著主体,且目标人物和显著主体为同一物品时,终端设备100确定显著主体为目标对焦对象,执行S106。
在一些实施例中,当终端设备100在图像1中检测到目标人物和显著主体,目标人物和显著主体为同一物品,且显著主体的深度小于深度阈值1时,终端设备100确定显著主体为目标对焦对象,执行S106。
在一些实施例中,步骤S104之后还包括S109。
S109、当终端设备100在图像1中检测到目标人物和显著主体,且目标人物和显著主体为同一人物时,终端设备100确定目标人物为目标对焦对象,执行S107。
在一些实施例中,步骤S104之后还包括S110。
S110、当终端设备100在图像1中检测到显著主体,未检测到目标人物时,终端设备100确定显著主体为目标对焦对象,执行S106。
在一些实施例中,步骤S104之后还包括S111。
S111、当终端设备100在图像1中检测到目标人物,未检测到显著主体时,终端设备100确定目标人物为目标对焦对象,执行S107。
实施本申请实施例提供的拍摄方法,在直播、拍照预览、录像或视频通话的过程中,随着拍摄对象的变化和移动,终端设备100可以自适应的调整目标对焦对象以及光圈档位,以便于摄像头随时采集到景深和亮度适宜的图像。此外,还避免了拍摄对象在终端设备100的近距离范围内移动导致的对焦不准确和对焦不及时,有效提高了用户体验。
在一些实施例中,参考图8,步骤S102之后还包括S112至S113。
S112、终端设备100接收用户作用于图像1的对焦操作。
S113、基于上述对焦操作的坐标,终端设备100确定图像1的对焦框。
在一些实施例中,基于对焦操作作用于图1的坐标1,终端设备100确定预设形状(例如方形)和预设大小的对焦框,坐标1位于对焦框的中心位置。
S114、终端设备100确定当前环境光亮度是否大于亮度阈值1;当前环境光亮度大于亮度阈值1时,执行S115。
在一些实施例中,当前环境光亮度小于等于亮度阈值1时,终端设备100保持光圈档位为默认光圈档位。
在一些实施例中,当环境光亮度小于等于亮度阈值1大于亮度阈值2时,终端设备100保持光圈档位为默认光圈档位;当环境光亮度小于等于亮度阈值2时,终端设备100调大光圈档位为光圈档位1。
S115、终端设备100基于对焦框的深度调整光圈档位,并将摄像头对焦到对焦框内的拍摄对象。
本申请实施例中,终端设备100可以通过深度图像获取对焦框内的像素对应的深度。在一种实现方式中,终端设备100确定对焦框的深度为对焦框中所有像素对应的深度的平均值或者加权平均值。在一种实现方式中,终端设备100确定对焦框的深度为对焦框的预设区域的所有像素对应的深度的平均值或者加权平均值;其中,上述预设区域可以为对焦框的中心位置的预设大小和预设形状的区域。在一种实现方式中,将深度划分为N个连续的深度区间;基于对焦框内每个像素对应的深度,将该像素划分到相应的深度区间;终端设备100确定对焦框的像素分布最多的深度区间2;终端设备100确定对焦框的深度为深度区间2的中间值。
如何基于对焦框的深度调整光圈档位,可以参考前述基于显著主体的深度调整光圈档位的相关实施例,此处不再赘述。
本申请还提供了一种拍摄方法,所述方法包括步骤S301至步骤S304。
S301、响应于第一指令,终端设备启动摄像头基于默认光圈档位采集图像。
其中,第一指令可以参考前述S101的相关实施例中的第一指令的描述,此处不再赘述。
S302、检测摄像头采集的第一图像是否包括显著主体和目标人物。
具体的,检测第一图像是否包括显著主体的具体实现,可以参考前述S104A的相关实施例,检测第一图像是否包括目标人物的具体实现,可以参考前述S104C的相关实施例,此处不再赘述。
S303、当检测到第一图像包括显著主体和目标人物,基于显著主体的深度和目标人物的深度,确定目标对焦对象以及目标光圈档位。
其中,第一图像可以为前述实施例中的图像1。
S304、摄像头对焦到目标对焦对象,并基于目标光圈档位采集图像。
在一些实施例中,上述当检测到第一图像包括显著主体和目标人物,基于显著主体的深度和目标人物的深度,确定目标对焦对象以及目标光圈档位,具体包括:当检测到第一图像包括显著主体和目标人物,显著主体和目标人物为不同对象,且显著主体的深度和目标人物的深度满足第一预设条件时,确定显著主体为目标对焦对象,并基于显著主体的深度确定目标光圈档位;当检测到第一图像包括显著主体和目标人物,显著主体和目标人物为不同对象,且显著主体的深度和目标人物的深度不满足第一预设条件时,确定目标人物为目标对焦对象,并确定目标光圈档位。
在一些实施例中,上述第一预设条件包括:显著主体的深度小于目标人物的深度,且显著主体的深度和目标人物的深度的深度差值大于差值阈值。
在一些实施例中,上述终端设备存储有深度和光圈档位的第一对应关系,基于显著主体的深度确定目标光圈档位,包括:基于第一对应关系,确定显著主体的深度对应的光圈档位为目标光圈档位,显著主体的深度越小,目标光圈档位越小。
在一些实施例中,上述第一对应关系包括可调光圈的N个光圈档位以及M个连续的深度区间的对应关系,M个连续的深度区间中一或多个深度区间对应N个光圈档位中的一个光圈档位,N和M为大于1的正整数。
此外,深度和光圈档位的对应关系还可以参考前述S106的相关实施例的描述。
在一些实施例中,上述基于目标光圈档位采集图像之前,还包括:基于目标光圈档位确定目标曝光时间和目标感光度,第一值到第二值的变化程度小于第一预设范围,其中,第一值是基于当前的光圈档位、当前的曝光时间和当前的感光度确定的,第二值是基于目标光圈档位、目标曝光时间和目标感光度确定的;上述基于目标光圈档位采集图像,包括:基于目标光圈档位、目标曝光时间和目标感光度采集图像。
可选的,第一值等于(当前的曝光时间*当前的ISO/当前的光圈档位的f值),第二值等于(目标曝光时间*目标ISO/目标光圈档位的f值)。
在一些实施例中,上述当检测到第一图像包括显著主体和目标人物,基于显著主体的深度和目标人物的深度,确定目标对焦对象以及目标光圈档位,具体包括:当检测到第一图像包括显著主体和目标人物,且显著主体和目标人物为同一物品时,确定显著主体为目标对焦对象,并基于显著主体的深度确定目标光圈档位;当检测到第一图像包括显著主体和目标人物,且显著主体和目标人物为同一人物时,确定目标人物为目标对焦对象,并确定目标光圈档位。
在一些实施例中,上述拍摄方法还包括:当检测到第一图像包括显著主体,不包括目标人物时,确定显著主体为目标对焦对象,并基于显著主体的深度确定目标光圈档位;当检测到第一图像包括目标人物,不包括显著主体时,确定目标人物为目标对焦对象,并确定目标光圈档位。
在一些实施例中,上述并确定目标光圈档位,具体包括:确定目标光圈档位为默认光圈档位。
在一些实施例中,上述并确定目标光圈档位,具体包括:基于当前的环境光亮度确定目标光圈档位。在一些实施例中,当环境光亮度大于第二亮度阈值时,目标光圈档位为第一光圈档位;当环境光亮度小于等于第三亮度阈值时,目标光圈档位为第二光圈档位,默认光圈档位小于第二光圈档位,且大于第一光圈档位。具体的,还可以参考前述S107B的相关实施例的描述,此处不再赘述。
在一些实施例中,上述并确定目标光圈档位,具体包括:基于目标人物的深度确定目标光圈档位。具体的,可以参考前述S107C的相关实施例的描述,此处不再赘述。
在一些实施例中,上述检测摄像头采集的第一图像是否包括显著主体和目标人物之前,还包括:检测当前的环境光亮度是否大于第一亮度阈值;检测摄像头采集的第一图像是否包括显著主体和目标人物,包括:当检测到环境光亮度大于第一亮度阈值时,检测摄像头采集的第一图像是否包括显著主体和目标人物。在一些实施例中,上述检测当前的环境光亮度是否大于第一亮度阈值之后,还包括:当检测到环境光亮度小于第一亮度阈值时,确定目标光圈档位为默认光圈档位。
其中,第一亮度阈值可以为前述亮度阈值1。具体的,可以参考前述S103的相关实施例的描述。
本申请实施例还提供了一种拍摄方法,所提方法中,终端设备100启动抓拍模式后,基于环境光亮度、摄像头采集的图像中的目标对象的运动速度,终端设备100可以自动调整光圈档位,以使得摄像头采集到景深和亮度适宜的图像,以及提高对焦速度和对焦准确性。
示例性的,图9A至图9C示出了启动抓拍模式的用户界面示意图。
图9A示出了用于展示终端设备100安装的应用程序的主界面12。
主界面12可以包括:状态栏301,日历指示符302,天气指示符303,具有常用应用程序图标的托盘304,以及其他应用程序图标305。其中:具有常用应用程序图标的托盘304可展示:电话图标、联系人图标、短信图标、相机图标304A。其他应用程序图标305可展示更多的应用程序图标。主界面12还可包括页面指示符306。其他应用程序图标可分布在多个页面,页面指示符306可用于指示用户当前查看的是哪一个页面中的应用程序。用户可以左右滑动其他应用程序图标的区域,来查看其他页面中的应用程序图标。
可以理解,图9A仅仅示例性示出了终端设备100上的主界面,不应构成对本申请实施例的限定。
相机图标304A可以接收用户的输入操作(例如长按操作),响应于上述输入操作,终端设备100显示图9B所示的服务卡片307,服务卡片307包括相机应用的一或多个快捷功能控件,例如人像功能控件、抓拍功能控件307A、录像功能控件和自拍功能控件。
抓拍功能控件307A可以接收用户的输入操作(例如触摸操作),响应于上述输入操作,终端设备100显示图9C所示的拍摄界面13。拍摄界面13可包括:拍摄控件401,相册控件402,摄像头切换控件403,拍摄模式404,显示区405,设置图标406、补光控件407。其中:
拍摄控件401可接收用户的输入操作(例如触摸操作),响应于上述输入操作,终端设备100在抓拍模式下利用摄像头采集图像,并对摄像头采集的图像进行图像处理,保存图像处理后的图像为抓拍图像。
相册控件402用于触发终端设备100显示相册应用的用户界面。摄像头切换控件403用于切换用于拍摄的摄像头。
拍摄模式404可以包括:夜景模式、专业模式、拍照模式、录像模式、人像模式、抓拍模式404A等。上述拍摄模式404中任一拍摄模式,可接收用户操作(例如触摸操作),响应于检测到的该用户操作,终端设备100可以在显示该拍摄模式对应的拍摄界面。
如图9C所示,当前拍摄模式为抓拍模式,显示区205用于显示抓拍模式下终端设备100的摄像头采集的预览图像。本申请实施例中,用户也可以通过点击图9C所示的抓拍模式404A或语音指令,启动相机应用的抓拍模式,此处不做具体限定。
示例性的,图10示出了本申请实施例提供的另一种拍摄方法的方法流程图,该拍摄方法包括但不限于步骤S201至S205。下面对该拍摄方法进行详细介绍。
S201、终端设备100启动抓拍模式,并设置摄像头的光圈档位为默认光圈档位。
示例性的,终端设备100启动抓拍模式,显示图9C所示拍摄界面13,拍摄界面13的显示区405显示的预览图像是摄像头基于默认光圈档位确采集的。
需要说明的是,本申请实施例涉及的摄像头可以是前置摄像头,也可以是后置摄像头,此处不做具体限定。
S202、终端设备100检测摄像头采集的图像中的目标对象。
在一些实施例中,步骤S202之前还包括:终端设备100通过摄像头采集图像2并显示;终端设备100接收用户作用于图像2的输入操作1,响应于上述输入操作1,终端设备100基于输入操作1作用在图像2上的坐标2,确定用户在图像2中选择的目标对象,图像2中目标对象的所在区域包括上述坐标2。用户选择目标对象后,步骤S202中终端设备100利用预设检测算法检测摄像头采集的每帧图像中的目标对象。
在一些实施例中,目标对象为摄像头采集的图像中的显著主体。具体的,终端设备100如何检测图像中的显著主体,可以参考前述S104A的相关描述,此处不再赘述。
此外,终端设备100还可以通过其他方式确定目标对象,此处不做具体限定。可以理解,本申请实施例中,终端设备100可以对摄像头采集的图像中的目标对象进行实时检测和持续跟踪。
S203、终端设备100基于摄像头采集的图像,确定目标对象的运动速度。
在一些实施例中,终端设备100基于摄像头最新采集的2帧包含目标对象的图像(即图像3和图像4),确定目标对象的运动速度。
在一些实施例中,终端设备100利用预设光流算法确定图像3和图像4之间的目标对象的光流强度1,进而基于光流强度1确定目标对象的运动速度。
在一些实施例中,终端设备100存储有光流强度的向量模值与运动速度的对应关系,终端设备100基于该对应关系确定光流强度1对应的运动速度为目标对象的运动速度。在一些实施例中,光流强度1的向量模值即等于目标对象的运动速度。
需要说明的是,光流(optical flow)是空间运动物体在成像平面(例如摄像头采集的图像)上运动的瞬时速度。当时间间隔很小(例如视频中连续的前后两帧图像之间)时,光流也等同于目标点的位移。可以理解,光流表达了图像变化的剧烈程度,它包含了相邻帧之间物体的运动信息。示例性的,在图像3中目标对象的特征点1的坐标为(x1,y1),在图像4中目标对象的特征点1的坐标为(x2,y2),则特征点1在图像3和图像4之间的光流强度可以表示为二维矢量(x2-x1,y2-y1)。特征点1的光流强度越大,说明特征点1的运动幅度越大、运动速度更快;特征点1的光流强度越小,说明特征点1的运动幅度较小,运动速度较慢。
在一些实施例中,终端设备100利用确定图像3和图像4之间的目标对象的K个特征点的光流强度,进而基于上述K个特征点的光流强度确定目标对象的光流强度。可选的,目标对象的光流强度为上述K个特征点的光流强度的二维矢量的平均值。
不限于通过光流强度确定目标对象的运动速度,本申请实施例还可以通过其他方式获取目标对象的运动速度,此处不做具体限定。
S204、终端设备100确定当前环境光亮度是否大于亮度阈值3;当前环境光亮度大于亮度阈值3时,执行S205;当前环境光亮度小于等于亮度阈值3时,执行S206。
S205、基于运动速度和光圈档位的第二对应关系,以及目标对象的运动速度,终端设备100调整光圈档位。
S206、基于运动速度和光圈档位的第三对应关系,以及目标对象的运动速度,终端设备100调整光圈档位;其中,对比第二对应关系和第三对应关系,同一光圈档位在第二对应关系中对应的运动速度更低;在第二对应关系和第三对应关系中,速度1大于速度2时,速度1对应的光圈档位小于等于速度2对应的光圈档位。
在一些实施例中,第二对应关系(或第三对应关系中)包括:至少一个速度区间和至少一个光圈档位的对应关系。可选的,上述至少一个运动速度区间和至少一个光圈档位一一对应。可选的,第二对应关系(或第三对应关系)中一或多个速度区间对应一个光圈档位。
示例性的,终端设备100的光圈包括5个可调的光圈档位(例如f/1.4,f/2,f/2.8,f/4,f/6),f/2为默认光圈档位。当前环境光亮度大于亮度阈值3(例如500照度(lux))时,终端设备100确定当前处于高亮环境下,终端设备100基于第二对应关系确定目标对象的运动速度对应的光圈档位;其中,第二对应关系包括低速、中速和高速这三个速度区间,例如,低速区间为[0,1)m/s,中速区间为[1,2.5)m/s,高速区间为[2.5,∞)m/s;低速区间对应的光圈档位为f/2.8,中速区间对应的光圈档位为f/4,高速区间对应的光圈档位为f/6。当前环境光亮度小于等于亮度阈值3时,终端设备100确定当前处于非高亮环境下,终端设备100基于第三对应关系确定目标对象的运动速度对应的光圈档位;其中,第三对应关系包括低速和中高速这两个速度区间,例如,低速区间为[0,1)m/s,中速区间为[1,∞)m/s;低速区间对应的光圈档位为f/1.4,中高速区间对应的光圈档位为f/2。
需要说明的是,本申请实施例中,可调的光圈档位更多时,可以划分更精细的速度区间,根据目标对象的运动速度可以实现更精细的光圈档位切换策略。
在一些实施例中,终端设备100调整光圈档位时,相应地自动调整曝光时间和ISO,令在光圈档位调整的前后,(曝光时间*ISO/光圈档位的f值)的值的变化程度保持在第一预设范围内,例如第一预设范围为±15%。这样,可以保证光圈档位切换前后摄像头采集的图像的图像亮度变化平滑。
S207、将摄像头对焦到目标对象上。
在一些实施例中,基于目标对象所在区域的位置,终端设备利用AF算法将摄像头对焦到目标对象。具体的实现方式,可以参考步骤S106中将摄像头对焦到显著主体的相关实施例,此处不再赘述。
S208、响应于接收到的抓拍指令,利用预设的图像处理算法对摄像头最新采集的包括目标对象的图像5进行图像处理,保存图像处理后的图像为抓拍图像。
在一些实施例中,上述图像处理算法用于去除图像5的运动模糊。具体的,在一种实现方式中,将摄像头采集的每帧raw格式的图像经预处理转化成yuv格式的图像;然后根据图像5的前一帧或者前几帧预处理后的图像,计算图像5中运动的拍摄对象的光流信息;将上述光流信息和图像5作为deblur算法的神经网络模型的输入,deblur算法的神经网络模型的输出为去除了图像5中的运动模糊后的图像。
其中,运动模糊(motion blur),又称动态模糊,是摄像头采集的图像中的拍摄对象的移动效果,比较明显地出现在长时间曝光或拍摄对象快速移动的情况下。当终端设备100在拍摄视频时,若终端设备100和/或拍摄对象在快速运动,且录像帧率不足时,就会出现运动模糊。帧率(frame rate)指终端设备100每秒能捕捉到的静态图像的数量。
需要说明的是,图像处理算法还可以用于对图像5做其他的图像处理,此处不做具体限定。例如,调整图像5的饱和度、色温和/或对比度,对图像5中的人像进行人像优化等。
本申请实施例中,目标对象的速度增大时,终端设备100可以降低光圈档位,以拉大景深,从而提高快速移动的目标对象的对焦准确性和对焦速度,获取目标对象的清晰成像。
下面示例性说明本申请实施例涉及的终端设备100的软件系统架构。
在本申请实施例中,终端设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android系统为例,示例性说明终端设备100的软件结构。
示例性,图11示出了本申请实施例提供的终端设备100的一种软件系统架构图。基于图11所示的软件系统架构图,终端设备100通过摄像头持续采集图像时,基于环境光亮度、摄像头最近采集的图像中的目标人物的深度和/或上述图像中的显著主体的深度,终端设备100可以自适应地调整光圈档位以及其他拍摄参数(例如ISO、曝光时间等),以使得摄像头采集到景深和亮度适宜的图像,以及提高对焦速度和对焦准确性。
如图11所示,分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,可以将Android系统从上至下分为应用程序层,应用程序框架层,硬件抽象层(hardware abstraction layer,HAL)层以及内核层(kernel)。其中:
应用程序层包括一系列应用程序包,例如相机应用、直播应用、即时通讯应用等等。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。如图11所示,应用程序框架层包括目标人物检测模块、显著主体检测模块、环境光检测模块、深度确定模块、光圈挡位切换模块、光圈马达驱动模块、AF模块和对焦马达驱动模块。
本申请实施例中,应用程序框架层还可新增运动探测组件(motion detector),用于获取到的输入事件进行逻辑判断,识别输入事件的类型。例如,通过输入事件中包括的触摸坐标,触摸操作的时间戳等信息,判断该输入事件为指关节触摸事件或指肚触摸事件等。同时,运动探测组件还可记录输入事件的轨迹,并判定输入事件的手势规律,根据不同的手势,响应不同的操作。
HAL层及内核层用于响应于应用程序框架层中系统服务调用的功能执行对应的操作。内核层是硬件和软件之间的层。内核层可以包含摄像头驱动、显示驱动、环境光传感器驱动等等。其中,摄像头驱动可以包括对焦马达驱动和光圈马达驱动。
在一些实施例中,响应于接收到的第一指令,应用程序(例如相机应用、直播应用)调用应用框架层的接口,启动拍摄功能,进而调用内核层中的摄像头驱动,来驱动摄像头基于默认光圈挡位持续采集图像,以及调用显示驱动来驱动显示屏显示上述图像。
显著主体检测模块用于检测摄像头采集的图像中的显著主体,确定显著主体在上述图像中的所在区域1;其中,显著主体为上述图像中用户视线的投射主体。目标人物检测模块用于检测摄像头采集的图像中的目标人物,确定目标人物在上述图像中的所在区域2;其中,目标人物为上述图像中面积最大、深度最小和/或最靠近上述图像的中心位置的人物。环境光检测模块用于检测当前的环境光亮度。深度确定模块用于基于显著主体的所在区域1确定显著主体的深度,以及基于目标人物的所在区域2确定目标人物的深度。
光圈挡位切换模块用于基于环境光亮度、显著主体的深度和目标人物的深度确定当前所需的光圈档位和目标对焦对象。光圈马达驱动模块用于确定当前所需的光圈档位对应的光圈马达code值,并基于上述光圈马达code值确定当前所需的光圈档位对应的光圈马达的电流(或电压)值。AF模块用于基于目标对焦对象的深度和目标对焦对象所在区域的位置,利用AF算法确定目标对焦位置。对焦马达驱动模块用于确定目标对焦位置对应的对焦马达code值,并基于上述对焦马达code值确定目标对焦位置对应的对焦马达的电流(或电压)值。
光圈马达驱动基于光圈马达驱动模块下发的光圈马达的电流(或电压)值,调整光圈档位;对焦马达驱动基于对焦马达驱动模块下发的对焦马达的电流(或电压)值,调整对焦位置,以使得摄像头对焦到目标对焦对象上。
终端设备利用摄像头基于调整后的光圈档位和对焦位置采集图像,并调用显示驱动,来驱动显示屏显示上述图像。
示例性,图12示出了本申请实施例提供的终端设备100的另一种软件系统架构图。基于图11所示的软件系统架构图,终端设备100可以在相机应用启动抓拍模式后,基于环境光亮度、摄像头采集的图像中的目标对象的运动速度,终端设备100可以自动调整光圈档位,以使得摄像头采集到景深和亮度适宜的图像,以及提高对焦速度和对焦准确性。
如图12所示,应用程序框架层包括目标对象检测模块、环境光检测模块、运动速度确定模块、光圈挡位切换模块、光圈马达驱动模块、AF模块、对焦马达驱动模块和图像处理模块。
在一些实施例中,响应于接收到的用于启动抓拍模式的指令,相机应用调用应用框架层的接口,启动抓拍模式下的拍摄功能,进而调用内核层中的摄像头驱动,来驱动摄像头基于默认光圈挡位持续采集图像,以及调用显示驱动来驱动显示屏显示上述图像。
目标对象检测模块用于检测摄像头采集的图像中的目标对象。运动速度确定模块用于基于摄像头采集的图像确定目标对象的运动速度。环境光检测模块用于检测当前的环境光亮度。
光圈挡位切换模块用于基于环境光亮度、目标对象的运动速度确定当前所需的光圈档位。光圈马达驱动模块用于确定当前所需的光圈档位对应的光圈马达code值,并基于上述光圈马达code值确定当前所需的光圈档位对应的光圈马达的电流(或电压)值。AF模块用于基于目标对象的深度和目标对象所在区域的位置,利用AF算法确定目标对焦位置。对焦马达驱动模块用于确定目标对焦位置对应的对焦马达code值,并基于上述对焦马达code值确定目标对焦位置对应的对焦马达的电流(或电压)值。
光圈马达驱动基于光圈马达驱动模块下发的光圈马达的电流(或电压)值,调整光圈档位;对焦马达驱动基于对焦马达驱动模块下发的对焦马达的电流(或电压)值,调整对焦位置,以使得摄像头对焦到目标对象上。
终端设备100利用摄像头基于调整后的光圈档位和对焦位置采集图像。图像处理模块用于利用预设图像处理算法对上述图像进行图像处理,以消除上述图像中的运动模糊,还可以调整上述图像的饱和度、色温和/或对比度,还可以对上述图像中的人像进行人像优化等。然后,终端设备100调用显示驱动,来驱动显示屏显示图像处理后的抓拍图像。
本申请的各实施方式可以任意进行组合,以实现不同的技术效果。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solidstate disk,SSD))等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。
总之,以上所述仅为本发明技术方案的实施例而已,并非用于限定本发明的保护范围。凡根据本发明的揭露,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (17)
1.一种拍摄方法,其特征在于,应用于终端设备,所述终端设备包括摄像头,所述摄像头配置有可调光圈,所述方法包括:
响应于第一指令,所述终端设备启动所述摄像头基于默认光圈档位采集图像;
检测所述摄像头采集的第一图像是否包括显著主体和目标人物;
当检测到所述第一图像包括所述显著主体和所述目标人物,基于所述显著主体的深度和所述目标人物的深度,确定目标对焦对象以及目标光圈档位;
所述摄像头对焦到所述目标对焦对象,并基于所述目标光圈档位采集图像。
2.根据权利要求1所述的方法,其特征在于,当检测到所述第一图像包括所述显著主体和所述目标人物,基于所述显著主体的深度和所述目标人物的深度,确定目标对焦对象以及目标光圈档位,具体包括:
当检测到所述第一图像包括所述显著主体和所述目标人物,所述显著主体和所述目标人物为不同对象,且所述显著主体的深度和所述目标人物的深度满足第一预设条件时,确定所述显著主体为所述目标对焦对象,并基于所述显著主体的深度确定所述目标光圈档位;
当检测到所述第一图像包括所述显著主体和所述目标人物,所述显著主体和所述目标人物为不同对象,且所述显著主体的深度和所述目标人物的深度不满足所述第一预设条件时,确定所述目标人物为所述目标对焦对象,并确定所述目标光圈档位。
3.根据权利要求2所述的方法,其特征在于,第一预设条件包括:所述显著主体的深度小于所述目标人物的深度,且所述显著主体的深度和所述目标人物的深度的深度差值大于差值阈值。
4.根据权利要求2所述的方法,其特征在于,所述终端设备存储有深度和光圈档位的第一对应关系,所述基于所述显著主体的深度确定所述目标光圈档位,包括:
基于所述第一对应关系,确定所述显著主体的深度对应的光圈档位为所述目标光圈档位,所述显著主体的深度越小,所述目标光圈档位越小。
5.根据权利要求4所述的方法,其特征在于,第一对应关系包括所述可调光圈的N个光圈档位以及M个连续的深度区间的对应关系,所述M个连续的深度区间中一或多个深度区间对应所述N个光圈档位中的一个光圈档位,所述N和所述M为大于1的正整数。
6.根据权利要求1所述的方法,其特征在于,所述基于所述目标光圈档位采集图像之前,还包括:
基于所述目标光圈档位确定目标曝光时间和目标感光度,第一值到第二值的变化程度小于第一预设范围,其中,所述第一值是基于当前的光圈档位、当前的曝光时间和当前的感光度确定的,所述第二值是基于所述目标光圈档位、所述目标曝光时间和所述目标感光度确定的;
所述基于所述目标光圈档位采集图像,包括:
基于所述目标光圈档位、所述目标曝光时间和所述目标感光度采集图像。
7.根据权利要求1所述的方法,其特征在于,所述检测所述摄像头采集的第一图像是否包括显著主体和目标人物之前,还包括:
检测当前的环境光亮度是否大于第一亮度阈值;
所述检测所述摄像头采集的第一图像是否包括显著主体和目标人物,包括:
当检测到所述环境光亮度大于所述第一亮度阈值时,检测所述摄像头采集的第一图像是否包括显著主体和目标人物。
8.根据权利要求1所述的方法,其特征在于,当检测到所述第一图像包括所述显著主体和所述目标人物,基于所述显著主体的深度和所述目标人物的深度,确定目标对焦对象以及目标光圈档位,具体包括:
当检测到所述第一图像包括所述显著主体和所述目标人物,且所述显著主体和所述目标人物为同一物品时,确定所述显著主体为所述目标对焦对象,并基于所述显著主体的深度确定所述目标光圈档位;
当检测到所述第一图像包括所述显著主体和所述目标人物,且所述显著主体和所述目标人物为同一人物时,确定所述目标人物为所述目标对焦对象,并确定所述目标光圈档位。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当检测到所述第一图像包括所述显著主体,不包括所述目标人物时,确定所述显著主体为所述目标对焦对象,并基于所述显著主体的深度确定所述目标光圈档位;
当检测到所述第一图像包括所述目标人物,不包括所述显著主体时,确定所述目标人物为所述目标对焦对象,并确定所述目标光圈档位。
10.根据权利要求2、8和9所述的方法,其特征在于,所述并确定所述目标光圈档位,具体包括:
确定所述目标光圈档位为所述默认光圈档位。
11.根据权利要求2、8和9所述的方法,其特征在于,所述并确定所述目标光圈档位,具体包括:
基于当前的环境光亮度确定所述目标光圈档位。
12.根据权利要求2、8和9所述的方法,其特征在于,所述并确定所述目标光圈档位,具体包括:
基于所述目标人物的深度确定所述目标光圈档位。
13.根据权利要求11所述的方法,其特征在于,当所述环境光亮度大于第二亮度阈值时,所述目标光圈档位为第一光圈档位;当所述环境光亮度小于等于第三亮度阈值时,所述目标光圈档位为第二光圈档位,所述默认光圈档位小于所述第二光圈档位,且大于所述第一光圈档位。
14.根据权利要求7所述的方法,其特征在于,所述检测当前的环境光亮度是否大于第一亮度阈值之后,还包括:
当检测到所述环境光亮度小于所述第一亮度阈值时,确定所述目标光圈档位为所述默认光圈档位。
15.一种终端设备,包括摄像头,存储器,一个或多个处理器,多个应用程序,以及一个或多个程序;其中,所述摄像头配置有可调光圈,所述一个或多个程序被存储在所述存储器中;其特征在于,所述一个或多个处理器在执行所述一个或多个程序时,使得所述终端设备实现如权利要求1至14任一项所述的方法。
16.一种计算机存储介质,其特征在于,包括计算机指令,当所述计算机指令在终端设备上运行时,使得所述电子设备执行如权利要求1至14任一项所述的方法。
17.一种计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如权利要求1至14任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110876921.4A CN115484383B (zh) | 2021-07-31 | 2021-07-31 | 拍摄方法及相关装置 |
CN202311350536.1A CN117544851A (zh) | 2021-07-31 | 2021-07-31 | 拍摄方法及相关装置 |
EP22852016.9A EP4366289A1 (en) | 2021-07-31 | 2022-07-28 | Photographing method and related apparatus |
BR112024002006A BR112024002006A2 (pt) | 2021-07-31 | 2022-07-28 | Método de fotografia e aparelho relacionado |
PCT/CN2022/108502 WO2023011302A1 (zh) | 2021-07-31 | 2022-07-28 | 拍摄方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110876921.4A CN115484383B (zh) | 2021-07-31 | 2021-07-31 | 拍摄方法及相关装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311350536.1A Division CN117544851A (zh) | 2021-07-31 | 2021-07-31 | 拍摄方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115484383A true CN115484383A (zh) | 2022-12-16 |
CN115484383B CN115484383B (zh) | 2023-09-26 |
Family
ID=84419621
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311350536.1A Pending CN117544851A (zh) | 2021-07-31 | 2021-07-31 | 拍摄方法及相关装置 |
CN202110876921.4A Active CN115484383B (zh) | 2021-07-31 | 2021-07-31 | 拍摄方法及相关装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311350536.1A Pending CN117544851A (zh) | 2021-07-31 | 2021-07-31 | 拍摄方法及相关装置 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4366289A1 (zh) |
CN (2) | CN117544851A (zh) |
BR (1) | BR112024002006A2 (zh) |
WO (1) | WO2023011302A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116320716B (zh) * | 2023-05-25 | 2023-10-20 | 荣耀终端有限公司 | 图片采集方法、模型训练方法及相关装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104506770A (zh) * | 2014-12-11 | 2015-04-08 | 小米科技有限责任公司 | 拍摄图像的方法及装置 |
CN110493527A (zh) * | 2019-09-24 | 2019-11-22 | Oppo广东移动通信有限公司 | 主体对焦方法、装置、电子设备和存储介质 |
WO2020088290A1 (zh) * | 2018-10-30 | 2020-05-07 | 华为技术有限公司 | 一种获取深度信息的方法及电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5713055B2 (ja) * | 2013-06-20 | 2015-05-07 | カシオ計算機株式会社 | 撮像装置、撮像方法及びプログラム |
JP6391304B2 (ja) * | 2014-06-05 | 2018-09-19 | キヤノン株式会社 | 撮像装置、制御方法およびプログラム |
JP2018042092A (ja) * | 2016-09-07 | 2018-03-15 | キヤノン株式会社 | 画像処理装置、撮像装置、制御方法およびプログラム |
JP2020067503A (ja) * | 2018-10-22 | 2020-04-30 | キヤノン株式会社 | 撮像装置、監視システム、撮像装置の制御方法およびプログラム |
CN111935413B (zh) * | 2019-05-13 | 2021-11-05 | 杭州海康威视数字技术股份有限公司 | 一种光圈控制方法及摄像机 |
CN110177207B (zh) * | 2019-05-29 | 2023-06-30 | 努比亚技术有限公司 | 逆光图像的拍摄方法、移动终端及计算机可读存储介质 |
-
2021
- 2021-07-31 CN CN202311350536.1A patent/CN117544851A/zh active Pending
- 2021-07-31 CN CN202110876921.4A patent/CN115484383B/zh active Active
-
2022
- 2022-07-28 BR BR112024002006A patent/BR112024002006A2/pt unknown
- 2022-07-28 WO PCT/CN2022/108502 patent/WO2023011302A1/zh active Application Filing
- 2022-07-28 EP EP22852016.9A patent/EP4366289A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104506770A (zh) * | 2014-12-11 | 2015-04-08 | 小米科技有限责任公司 | 拍摄图像的方法及装置 |
WO2020088290A1 (zh) * | 2018-10-30 | 2020-05-07 | 华为技术有限公司 | 一种获取深度信息的方法及电子设备 |
CN110493527A (zh) * | 2019-09-24 | 2019-11-22 | Oppo广东移动通信有限公司 | 主体对焦方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115484383B (zh) | 2023-09-26 |
WO2023011302A1 (zh) | 2023-02-09 |
CN117544851A (zh) | 2024-02-09 |
EP4366289A1 (en) | 2024-05-08 |
BR112024002006A2 (pt) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113132620B (zh) | 一种图像拍摄方法及相关装置 | |
EP3893491A1 (en) | Method for photographing the moon and electronic device | |
CN110035141B (zh) | 一种拍摄方法及设备 | |
CN113475057B (zh) | 一种录像帧率的控制方法及相关装置 | |
CN113727016A (zh) | 一种拍摄方法及电子设备 | |
EP3873084B1 (en) | Method for photographing long-exposure image and electronic device | |
WO2023273323A9 (zh) | 一种对焦方法和电子设备 | |
CN113711123B (zh) | 一种对焦方法、装置及电子设备 | |
CN113810603A (zh) | 点光源图像检测方法和电子设备 | |
CN112700377A (zh) | 图像泛光处理方法及装置、存储介质 | |
CN113572956A (zh) | 一种对焦的方法及相关设备 | |
EP4175285A1 (en) | Method for determining recommended scene, and electronic device | |
CN114140365A (zh) | 基于事件帧的特征点匹配方法及电子设备 | |
WO2023011302A1 (zh) | 拍摄方法及相关装置 | |
CN114257737B (zh) | 一种摄像模式切换方法以及相关设备 | |
CN115150542B (zh) | 一种视频防抖方法及相关设备 | |
WO2022033344A1 (zh) | 视频防抖方法、终端设备和计算机可读存储介质 | |
CN116055872B (zh) | 图像获取方法、电子设备和计算机可读存储介质 | |
CN115150543B (zh) | 拍摄方法、装置、电子设备及可读存储介质 | |
WO2022218216A1 (zh) | 图像处理方法和终端设备 | |
WO2021197014A1 (zh) | 图片传输方法及装置 | |
CN116939123A (zh) | 一种摄影方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |