CN113949803A - 拍照方法及电子设备 - Google Patents
拍照方法及电子设备 Download PDFInfo
- Publication number
- CN113949803A CN113949803A CN202010686011.5A CN202010686011A CN113949803A CN 113949803 A CN113949803 A CN 113949803A CN 202010686011 A CN202010686011 A CN 202010686011A CN 113949803 A CN113949803 A CN 113949803A
- Authority
- CN
- China
- Prior art keywords
- shooting
- image
- mode
- user
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 104
- 238000003384 imaging method Methods 0.000 claims abstract description 92
- 230000000694 effects Effects 0.000 claims abstract description 69
- 238000012545 processing Methods 0.000 claims description 53
- 238000009432 framing Methods 0.000 claims description 27
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 230000001976 improved effect Effects 0.000 abstract description 15
- 230000006870 function Effects 0.000 description 48
- 230000008569 process Effects 0.000 description 37
- 238000004891 communication Methods 0.000 description 36
- 230000006854 communication Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 25
- 239000010410 layer Substances 0.000 description 20
- 238000007726 management method Methods 0.000 description 20
- 238000013461 design Methods 0.000 description 18
- 238000010295 mobile communication Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 10
- 230000003993 interaction Effects 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000005498 polishing Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 206010034960 Photophobia Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- JLGLQAWTXXGVEM-UHFFFAOYSA-N triethylene glycol monomethyl ether Chemical compound COCCOCCOCCO JLGLQAWTXXGVEM-UHFFFAOYSA-N 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2624—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Studio Devices (AREA)
Abstract
本申请实施例公开了一种拍照方法及电子设备。本申请实施例公开的电子设备能够确定拍摄场景中包含的至少一个拍摄对象中每个拍摄对象的特征信息,之后,可以根据特征信息确定至少一个目标拍摄模式。特征信息包括以下一个或多个的组合:拍摄对象的置信度、拍摄对象与摄像头的距离和成像大小。然后,该电子设备响应于第一用户输入的第一拍摄指令,得到拍摄场景的至少一幅图像。该至少一幅图像的成像效果分别对应该至少一个目标拍摄模式。可见,本申请实施例中,电子设备能够自行确定与拍摄场景较匹配的拍摄模式,不仅智能化程度高,而且一次拍摄即可得到多幅不同成像效果的图像,还能够节省拍摄资源,提高用户体验。
Description
技术领域
本申请实施例涉及拍照领域,尤其涉及一种拍照方法及电子设备。
背景技术
随着技术的发展,移动终端不但具备拍照功能,而且还可以提供多种拍摄模式进行拍照。其中,不同拍摄模式适用于不同的拍摄场景和拍摄对象。例如,用户使用第一拍摄模式在第一拍摄场景下进行拍摄,能够得到相对较好的成像效果,若用户使用第一拍摄模式在第二拍摄场景下进行拍摄,可能成像效果相对较差。
一种现有的实现方式是,移动终端采用用户选择的拍摄模式进行拍摄并成像。而用户选择的拍摄模式不一定适用于相应拍摄场景以及拍摄对象,导致拍摄效果欠佳。
发明内容
本申请实施例提供了一种拍照方法及电子设备,能够解决现有拍照方法拍摄效果不佳的问题。
第一方面,本申请实施例提供了一种拍照方法,包括:确定拍摄场景中包含的至少一个拍摄对象中每个拍摄对象的特征信息,所述特征信息包括以下一个或多个的组合:拍摄对象的置信度、拍摄对象与摄像头的距离和成像大小;根据所述至少一个拍摄对象中每个拍摄对象的特征信息确定至少一个目标拍摄模式;响应于第一用户输入的第一拍摄指令,得到所述拍摄场景的至少一幅图像,所述至少一幅图像的成像效果分别对应所述至少一个目标拍摄模式。
其中,执行本申请实施例的电子设备包含摄像头,且可以支持多种拍摄模式。拍摄模式是指电子设备从获取拍摄场景的图像数据到最终成像的模式,不同的拍摄模式使用不同的拍摄参数,进而,使得采用不同的拍摄模式对相同的拍摄场景进行拍摄,可以获得不同成像效果的图像。基于此,本申请实施例中,电子设备在执行拍摄之前,可以根据拍摄场景中每个拍摄对象的特征信息,从电子设备支持的拍摄模式中选择至少一个与拍摄场景较为匹配的目标拍摄模式。之后,电子设备采用至少一个目标拍摄模式分别生成拍摄场景的图像。本申请实施例所述的特征信息包括以下一个或多个的组合:拍摄对象的置信度、拍摄对象与摄像头的距离和成像大小。特征信息能够表征拍摄对象的特性以及匹配的配设模式,所以,本申请实施例中,电子设备能够根据拍摄对象的特征信息确定较匹配的目标拍摄模式。
可见,采用本申请实施例的实现方式,电子设备能够根据拍摄场景中的拍摄对象的特征信息,确定与拍摄场景较匹配的至少一种拍摄模式,进而,采用该至少一种拍摄模式生成图像,得到多幅成像效果各不相同的图像。这样不仅智能化程度高,而且一次拍摄即可得到多幅不同成像效果的图像,还能够节省拍摄资源,提高用户体验。
在一种可能的设计中,根据所述至少一个拍摄对象中每个拍摄对象的特征信息确定至少一个目标拍摄模式,包括:对所述至少一个拍摄对象中的每个拍摄对象的特征信息进行计算,以得到每个拍摄对象对应的计算结果;按照所述计算结果从大到小的顺序顺次选择预设数量的拍摄模式,以得到所述至少一个目标拍摄模式。其中,置信度用于表征拍摄对象是某类对象的可信程度,置信度越高,说明拍摄对象是相应类型对象的可信程度越高。成像大小是指拍摄对象在显示界面上所占的面积。即,特征信息能够表征拍摄对象在拍摄场景中的显著性。进而,电子设备对每个拍摄对象的特征信息进行计算,也即对每个拍摄对象的显著性进行确定。电子设备按照计算结果从大到小的顺序顺次选择预设数量的拍摄模式,即按照拍摄对象的显著性对应的拍摄模式确定目标拍摄模式。可见,采用本实现方式,电子设备能够利用深度学习,检测拍摄场景中每个拍摄对象的显著性,进而,根据各个拍摄对象的显著性排序,优选与拍摄场景较为匹配的拍摄模式,从而能够优化拍摄场景的成像效果。
在一种可能的设计中,所述对所述每个拍摄对象的特征信息进行计算,以得到每个拍摄对象对应的计算结果,包括:按照算法E=αx+βy+γz计算所述每个拍摄对象特征信息的综合分数E,其中,x是指所述拍摄对象的置信度,y是指所述拍摄对象的成像大小,z是指所述拍摄对象与摄像头的距离,α是指所述拍摄对象的置信度的第一权重,β是指所述拍摄对象的成像大小的第一权重,γ是指所述拍摄对象的与摄像头距离的第一权重,α、β和γ均是大于0且小于1的数值;所述按照所述计算结果从大到小的顺序顺次选择预设数量的拍摄模式,以得到所述至少一个目标拍摄模式,包括:按照所述综合分数E从大到小的顺序顺次选择预设数量的置信度,以得到所述至少一个目标置信度;将所述至少一个目标置信度对应的拍摄模式确定为目标拍摄模式,以得到至少一种目标拍摄模式。采用本实现方式,电子设备能够利用深度学习,检测拍摄场景中每个拍摄对象的显著性,进而,根据各个拍摄对象的显著性排序,优选与拍摄场景较为匹配的拍摄模式,从而能够优化拍摄场景的成像效果。
在一种可能的设计中,所述对所述每个拍摄对象的特征信息进行计算,以得到每个拍摄对象对应的计算结果,包括:按照算法P=ax+by+cz计算所述每个拍摄对象是拍摄主体的概率值P,其中,x是指所述拍摄对象的置信度,y是指所述拍摄对象的成像大小,z是指所述拍摄对象与摄像头的距离,a是指所述拍摄对象的置信度的第二权重,b是指所述拍摄对象的成像大小的第二权重,c是指所述拍摄对象的与摄像头距离的第二权重,a、b和c均是大于0且小于1的数值;所述按照所述计算结果从大到小的顺序顺次选择预设数量的拍摄模式,以得到所述至少一个目标拍摄模式,包括:按照所述概率值P从大到小的顺序顺次选择预设数量的拍摄对象,以得到所述至少一个目标拍摄对象;确定所述至少一个目标拍摄对象中的每个目标拍摄对象作为拍摄主体时匹配的拍摄模式,以得到至少一种目标拍摄模式。
一些实施例中,不同拍摄对象作为拍摄场景中的拍摄主体时,与拍摄场景适配的拍摄模式不同。基于此,电子设备可以根据至少一个拍摄对象中每个拍摄对象的特征信息,确定拍摄对象作为拍摄主体的概率。之后,电子设备可以按照概率从大到小顺次选择预设数量的拍摄对象作为目标拍摄对象,进而,确定每个目标拍摄对象作为拍摄主体时,适配的拍摄模式,得到至少一种目标拍摄模式。采用本实现方式,电子设备能够利用深度学习,检测拍摄场景中每个拍摄对象的显著性,进而,根据各个拍摄对象的显著性排序,优选与拍摄场景较为匹配的拍摄模式,从而能够优化拍摄场景的成像效果。
在一种可能的设计中,响应于第一用户输入的第一拍摄指令,得到所述拍摄场景的至少一幅图像,包括:当所述至少一个目标拍摄模式包括至少两个拍摄模式,且所述至少两个拍摄模式各不相同时,采用所述至少两个拍摄模式中的每种拍摄模式获取所述拍摄场景的图像,以得到所述拍摄场景的至少两幅图像。采用本实现方式,电子设备在对应一个拍摄场景时,能够在一次拍摄过程中,采用至少两个拍摄模式分别生成一幅图像,从而能够一次拍摄即可得到多幅不同成像效果的图像,不仅节省拍摄资源,而且能够提高用户体验。
在一种可能的设计中,所述采用所述至少两个拍摄模式中的每种拍摄模式获取所述拍摄场景的图像,包括:判断所述至少两种目标拍摄模式相互之间每项取景参数的差值是否均小于相应取景参数对应的阈值;若所述至少两种目标拍摄模式相互之间每项取景参数的差值均小于相应取景参数对应的阈值,按照所述至少两种目标拍摄模式中任一拍摄模式的取景参数执行取景,以得到取景后的图像数据;分别按照所述至少两种目标拍摄模式的图像处理算法,对所述图像数据进行处理,以得到所述拍摄场景的至少两幅图像;若所述至少两种目标拍摄模式相互之间任一取景参数的差值大于相应取景参数对应的阈值,分别按照所述至少两种目标拍摄模式的取景参数执行取景,以得到两个图像数据;分别按照所述至少两个目标拍摄模式的图像处理算法对相应图像数据处理,以得到所述拍摄场景的至少两幅图像。
其中,电子设备调用摄像头获取拍摄场景的光信号的过程,也可以称为“取景”,电子设备在执行取景的过程中,涉及到感光度、曝光时间和3A参数等参数,这些参数称为取景参数。不同拍摄模式对应的取景参数可能相同,也可能不同。两种拍摄模式的取景参数相同例如是指:两种拍摄模式的ISO差值小于第一阈值,且曝光时间差值小于第二阈值,且3A参数小于第三阈值。本申请实施例中,若两种拍摄模式的取景参数相同,电子设备可以执行一次取景,从而能够节省拍摄资源。
在一种可能的设计中,响应于第一用户输入的第一拍摄指令,得到所述拍摄场景的至少一幅图像,包括:当所述至少一个目标拍摄模式是人像模式时,按照距离从小到大的顺序从所述至少一个拍摄对象中顺次选择至少两个拍摄对象;采用所述人像模式获取所述拍摄场景取景后的图像数据;分别以所述至少两个拍摄对象中每个拍摄对象为拍摄主体,按照所述人像模式对所述图像数据处理,以得到所述拍摄场景的至少两幅图像。在多个人物的拍摄场景下,电子设备可以采用人像模式执行一次拍摄,得到拍摄场景取景后的图像数据。进而,电子设备可以以每个目标人物作为拍摄主体,对图像数据进行背景虚化、美肤、磨皮等处理,得到以每个目标人物为拍摄主体的图像,从而得到多幅成像效果不同的图像。采用本实现方式,电子设备只执行一次取景,即可获取人像拍摄场景的深度图和彩色图,进而,通过不同的后续处理达到以每个目标人物为主题的成像效果。相较于一些现有技术中将每个人物作为主体分别进行拍摄的实现方式,本申请实施例无需执行多次拍摄,并且对于多人拍摄场景,能够基于人物的显著性条件,以主体人物为中心美肤、降噪、背景虚化等,从而达到较好的拍摄效果。
在一种可能的设计中,还包括:调用至少两个摄像头采用所述至少一个目标拍摄模式执行拍摄。一些实施例中,电子设备可以包括多个摄像头。进而,本申请实施例中,采用任一拍摄模式执行拍摄时,电子设备可以调用多个摄像头进行组合拍摄。相较于采用一种拍摄模式,仅调用一个摄像头执行拍摄的场景,这样能够最大程度适配相应拍摄模式,并且能够充分发挥每个摄像头的优势,使得拍摄效果更佳。
在一种可能的设计中,在得到所述拍摄场景的至少一幅图像之后,还包括:接收所述第一用户输入的第一预览指令;堆叠显示所述至少一幅图像,所述堆叠显示是指所述至少一幅图像中的第一幅图像覆盖在所述至少一幅图像中的第二幅图像之上显示,所述第一幅图像全部显示。采用本实现方式,电子设备能够向用户呈现一次拍摄得到的多幅图像,提高用户的使用体验。
在一种可能的设计中,还包括:接收所述第一用户输入的第一动态显示指令;控制所述至少一幅图像在显示屏上循环在最前端显示;接收所述第一用户输入的第一停止动态显示指令;控制所述第一停止动态显示指令对应的图像在最前端静态显示。采用本实现方式,不仅能够动态展示每幅图像,以便于用户对比该至少一个幅图像的效果,同时,还能够静态显示任一图像,以便于用户仔细查看图像的效果,从而提高用户的使用体验。
在一种可能的设计中,还包括:接收所述第一用户输入的第二动态显示指令;控制所述至少一幅图像在显示屏上循环在最前端显示;接收所述第一用户输入的第二停止动态显示指令;控制所述第二停止动态显示指令对应的图像在最前端静态显示。采用本实现方式,不仅能够动态展示每幅图像,以便于用户对比该至少一个幅图像的效果,同时,还能够静态显示任一图像,以便于用户仔细查看图像的效果,从而提高用户的使用体验。
在一种可能的设计中,在得到所述拍摄场景的至少一幅图像之后,还包括:接收所述第一用户输入的第二预览指令;在第一屏幕堆叠显示所述至少一幅图像,所述堆叠显示是指所述至少一幅图像中的第一幅图像覆盖在所述至少一幅图像中的第二幅图像之上显示,所述第一幅图像在所述第一屏幕全部显示。采用本实现方式,电子设备能够向用户呈现一次拍摄得到的多幅图像,提高用户的使用体验。
在一种可能的设计中,还包括:接收所述第一用户输入的第一手势指令;控制所述第一手势指令对应的图像在第二屏幕显示,以及控制所述第一手势指令对应的图像之下的图像在所述第一屏幕显示。采用本实现方式,电子设备能够利用多屏幕的特点,分别在两个屏幕显示不同的图像,以便于用户对比该至少一个幅图像的效果,从而提高用户的使用体验。
在一种可能的设计中,还包括:接收所述第一用户输入的第三动态显示指令;控制所述至少一幅图像在所述第一屏幕循环在最前端显示;接收所述第一用户输入的第二手势指令;控制所述第二手势指令对应的图像在第二屏幕显示。采用本实现方式,不仅能够动态展示每幅图像,以便于用户对比该至少一个幅图像的效果,同时,还能够静态显示任一图像,以便于用户仔细查看图像的效果,从而提高用户的使用体验。
在一种可能的设计中,所述在显示屏最前端显示的图像标注有所述图像对应的拍摄模式。采用本实现方式,电子设备能够向用户明确展示任一图像对应的拍摄模式,提高用户的使用体验。
在一种可能的设计中,还包括:接收所述第一用户输入的第二拍摄指令;采用所述第二拍摄指令对应的拍摄模式对所述拍摄场景执行拍摄。采用本实现方式,能够提高用户的使用体验。
在一种可能的设计中,在确定拍摄场景中包含的至少一个拍摄对象中每个拍摄对象的特征信息之前,还包括:接收所述第一用户输入的第一设置指令;响应于所述第一设置指令,显示图像数量设置入口;通过所述图像数量设置入口接收所述第一用户输入的拍摄得到的目标图像数量,所述至少一幅图像的数量大于或者等于所述目标图像数量。
第二方面,本申请实施例提供了一种电子设备,该电子设备具有实现上述方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。在一个可能的设计中,上述电子设备的结构中包括处理器、接收器和显示器,所述处理器被配置为处理该电子设备执行上述方法中相应的功能。所述接收器用于实现用户输入的各种指令的接收。所述显示器用于实现图像的显示。所述电子设备还可以包括存储器,所述存储器用于与处理器耦合,其保存该电子设备必要的程序指令和数据。
第三方面,本申请实施例提供了一种计算机存储介质,该计算机存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行第一方面及第一方面各种可能的实现方式中的拍照方法的部分或全部步骤。
第四方面,本申请实施例提供了一种计算机程序产品,该计算机程序产品在计算机上运行时,使得计算机执行第一方面及第一方面各种可能的实现方式中的拍照方法的部分或全部步骤。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A为本申请实施例提供的电子设备100的示例性硬件结构示意图;
图1B为本申请实施例提供的电子设备100的示例性软件架构示意图;
图2A-1为本申请实施例提供的GUI31的示意图;
图2A-2为本申请实施例提供的GUI32的示意图;
图2A-3为本申请实施例提供的GUI33的示意图;
图2A-4为本申请实施例提供的GUI34的示意图;
图2A-5为本申请实施例提供的GUI35的示意图;
图2B-1为本申请实施例提供的GUI36的一种示例性示意图;
图2B-2为本申请实施例提供的GUI36的另一种示例性示意图;
图2B-3为本申请实施例提供的GUI36-1的示意图;
图2B-4为本申请实施例提供的GUI36-2的示意图;
图2B-5为本申请实施例提供的GUI37的示意图;
图2B-6为本申请实施例提供的GUI37-1的示意图;
图2B-7为本申请实施例提供的GUI38的示意图;
图2C-1为本申请实施例提供的GUI41的一种示例性示意图;
图2C-2为本申请实施例提供的GUI42的另一种示例性示意图;
图2C-3为本申请实施例提供的GUI43的示意图;
图2C-4为本申请实施例提供的GUI44的示意图;
图3为本申请实施例提供的拍照方法10的方法流程图;
图4A为本申请实施例提供的拍摄场景300-1的示例性界面示意图;
图4A-1为本申请实施例提供的电子设备处理图4A示意的拍摄场景300-1时的显示示意图;
图4B为本申请实施例提供的拍摄场景300-2的示例性界面示意图;
图4B-1为本申请实施例提供的电子设备处理图4B示意的拍摄场景300-2时的显示示意图;
图5A为本申请实施例提供的电子设备生成图像的传统处理流程示意图;
图5B为本申请实施例提供的电子设备生成图像的一种示例性处理流程的示意图;
图6A为本申请实施例提供的拍照方法20的方法流程图;
图6B为本申请实施例提供的拍照方法30的方法流程图;
图7A为本申请提供的电子设备70的示例性组成示意图;
图7B为本申请提供的电子设备71的示例性结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例的技术方案进行清楚地描述。
本申请以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括复数表达形式,除非其上下文中明确地有相反指示。
以下实施例介绍了电子设备,以及应用于该电子设备的拍照方法的实施例。
本申请实施例涉及的电子设备可以是包含摄像头(camera)的电子设备,诸如手机、平板电脑、可穿戴设备(例如,手表、手环、头盔、耳机等)、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personaldigital assistant,PDA)、智能家居设备(例如,智能电视,智能音箱,智能摄像头等)等电子设备。可以理解的是,本申请实施例对电子设备的具体类型不作任何限制。电子设备可以是搭载或者其它操作系统的设备。在一种可能的实现方式中,该摄像头可以是电子设备的后置摄像头。在另一种可能的实现方式中,该摄像头可以是电子设备的前置摄像头。本申请实施例对摄像头的位置不作任何限制。
本申请实施例涉及的用于显示图像的“用户界面(user interface,UI)”,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。应用程序的用户界面是通过java、可扩展标记语言(extensible markup language,XML)等特定计算机语言编写的源代码,界面源代码在终端设备上经过解析,渲染,最终呈现为用户可以识别的内容,比如视频、图片、文字、按钮等控件。控件(control)也称为部件(widget),是用户界面的基本元素,典型的控件有工具栏(toolbar)、菜单栏(menu bar)、文本框(text box)、按钮(button)、滚动条(scrollbar)、图片和文本。界面中的控件的属性和内容是通过标签或者节点来定义的,比如XML通过<Textview>、<ImgView>、<VideoView>等节点来规定界面所包含的控件。一个节点对应界面中一个控件或属性,节点经过解析和渲染之后呈现为用户可视的内容。此外,很多应用程序,比如混合应用(hybrid application)的界面中通常还包含有网页。网页,也称为页面,可以理解为内嵌在应用程序界面中的一个特殊的控件,网页是通过特定计算机语言编写的源代码,例如超文本标记语言(hyper text markup language,HTML),层叠样式表(cascading style sheets,CSS),java脚本(JavaScript,JS)等,网页源代码可以由浏览器或与浏览器功能类似的网页显示组件加载和显示为用户可识别的内容。网页所包含的具体内容也是通过网页源代码中的标签或者节点来定义的,比如HTML通过<p>、<img>、<video>、<canvas>来定义网页的元素和属性。
用户界面常用的表现形式是图形用户界面(graphic user interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
本申请实施例涉及的“拍摄模式”是指电子设备从获取拍摄场景的图像数据到最终成像的模式,不同的拍摄模式使用不同的拍摄参数,进而采用不同的拍摄模式对相同的拍摄场景进行拍摄时可选地能够获得不同的成像效果。进而,在实际使用中,不同拍摄模式适用于拍摄不同的拍摄场景,例如,高动态范围图像(high dynamic range,HDR)模式适用于拍摄风景,人像模式适用于拍摄人物。
本申请实施例提供了一种拍照方法及电子设备,该电子设备包括摄像头,且该电子设备支持至少两种拍摄模式。该电子设备在接收到一次拍摄指令之后,能够得到拍摄场景的多幅成像效果各不相同的图像,智能化程度高,而且能够提高用户体验。
下面介绍本申请实施例中提供的示例性电子设备100。
图1A示出了电子设备100的硬件结构示意图。
电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。在一些实施例中,电子设备100也可以包括一个或多个处理器110。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成检测指令等的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了电子设备100的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
在一些实施例中,移动通信模块150提供的无线通信的解决方案可使得电子设备可以与网络中的设备(如云服务器)通信,无线通信模块160提供的WLAN无线通信的解决方案也可使得电子设备可以与网络中的设备(如云服务器)通信。这样,电子设备便可以与云服务器进行数据传输。
电子设备100通过显示屏194,以及应用处理器等可以实现显示功能。显示屏194用于显示控件、信息、视频、图像等。例如,显示屏194可以显示控件照相机,照相机控件用于接收用户的指令启动摄像头193的拍摄功能。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)-1,MPEG-2,MPEG-3,MPEG-4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐、照片、视频等数据保存在外部存储卡中。
内部存储器121可以用于存储一个或多个计算机程序,该一个或多个计算机程序包括指令。处理器110可以通过运行存储在内部存储器121的上述指令,从而使得电子设备100执行本申请一些实施例中所提供的视频拍摄方法,以及各种功能应用以及数据处理等。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统;该存储程序区还可以存储一个或多个应用程序(比如图库、联系人等)等。存储数据区可存储电子设备100使用过程中所创建的数据。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。电子设备100可以利用接近光传感器180G检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也可称触控面板或触敏表面。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
图1A示例性所示的电子设备100可以通过摄像头193实现以下各个实施例中所描述的拍照功能。电子设备100可以通过显示屏194显示以下各个实施例中所描述的各个图像,等等。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。
图1B是本申请实施例的电子设备100的软件结构示意图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图1B所示,应用程序包可以包括相机,图库,通话,导航,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图1B所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,获取显示界面上各显示区域的参数等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括照相机图标的显示界面。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
安卓运行时(Android Runtime)包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆叠管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(media libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
图1B所示的软件系统涉及到调用摄像头的程序(如核心库),提供显示图像的应用模块(如窗口管理器)、应用框架及显示驱动,等等。
以下结合电子设备的GUI从人机交互角度,对本申请实施例涉及的电子设备的显示效果进行示例性描述。该GUI可以在电子设备100的显示屏194上呈现。
示例性的,以智能手机为例,所述智能手机包括摄像头,所述摄像头例如是后置摄像头。所述智能手机安装有相机应用(application,APP)。
在执行拍照之前,该智能手机可以接收用户的设置指令,以在一次拍摄过程中采用至少一种拍摄模式获取具有不同成像效果的多个图像。
如图2A-1所示,智能手机的GUI31包括状态栏310和桌面311,其中,状态栏310包括智能手机的网络连接状态3101、电量3102和时间3103的显示图标。桌面311包括可切换的APP图标组311-1和固定显示的APP图标组311-2。GUI31中可切换的APP图标组311-1包括时钟3111、日历3112、图库3113、电子邮件3114、音乐3115、相机3116、天气3117、浏览器3118、智慧生活3119、钱包3120、应用商城3121和计算器3122等APP的图标元素。固定显示的APP图标组311-2可以包括通讯录3123、电话3124、信息3125和设置3126的图标元素。其中,可切换的APP图标组311-1和固定显示的APP图标组311-2之间还包括界面指示图标311-3,界面指示图标311-3用于指示当前可切换的APP图标组的在所有可切换的APP图标组中的顺序。当接收到用户在GUI31输入的向左滑动或者向右滑动的手势指令,智能手机可以切换可切换的APP图标组311-1中显示的APP图标元素。且,智能手机按照切换后可切换的APP图标组对应的顺序,对应变更界面指示图标311-3的指示。此处详述。
进一步的,GUI31显示的相机3116是相机APP对应的界面图标。在接收到用户输入的点击相机3116的操作指令后,智能手机运行相机APP。相应的,GUI31更新为图2A-2所示的GUI32。
如图2A-2所示,GUI32示意的拍摄界面例如包括第一功能设置栏320、取景窗口321、第二功能设置栏322和拍摄功能栏323等区域。其中,取景窗口321用于向用户展示所获取的被拍摄对象。
第一功能设置栏320包括智慧识物控件320-1、闪光灯控件320-2、AI拍摄控件320-3、图像效果控件320-4和设置控件320-5等控件元素。其中,智慧识物控件320-1用于识别拍摄对象,例如花的种类、建筑物的名称等,并呈现给用户识别结果。闪光灯控件320-2可以用于控制闪光灯的开启和关闭,从而能够在智能手机拍摄过程中为被摄对象补光。AI拍摄控件320-3用于识别拍照场景,进而,智能手机根据识别结果以及本申请实施例提供的技术方案选择一个或多个拍摄模式。设置控件320-5用于为用户提供更多对于相机的功能设置。例如,智能手机接收用户点击设置控件320-5输入的第一设置指令,智能手机显示拍摄设置项目,拍摄设置项目包括图像数量设置入口。对应的,GUI32更新为GUI34。
第二功能设置栏322包括夜景模式322-1、人像模式322-2、拍照模式322-3、录像模式322-4、专业模式322-5和更多模式322-6等拍照模式的选项目标。夜景模式322-1、人像模式322-2、拍照模式322-3、录像模式322-4和专业模式322-5分别对应智能手机支持的拍摄模式,智能手机采用不同拍摄模式执行拍摄之后,呈现与拍摄模式对应的成像效果的视频或图像。例如,智能手机采用夜景模式322-1对应的拍摄模式拍摄得到的图像,是按照拍摄夜景时的曝光参数等拍摄得到的图像。智能手机采用人像模式322-2对应的拍摄模式拍摄得到的图像,是对拍摄场景进行磨皮、虚化等处理后的图像。智能手机采用拍照模式322-3对应的拍摄模式拍摄得到的图像,是智能手机按照常规的拍摄参数拍摄得到的图像。智能手机采用录像模式322-4对应的拍摄模式,能够拍摄得到拍摄场景对应的视频。智能手机采用专业模式322-5对应的拍摄模式,能够为用户提供感光度、快门速度、曝光值、自动对焦、白平衡等拍摄参数的设置入口,以使用户进行专业的拍摄设置,进而按照用户设置后的拍摄参数拍摄得到图像。更多模式322-6用于向用户提供其他拍摄模式的选项。例如,智能手机接收到用户触发更多模式322-6输入的显示更多拍摄模式的指令之后,可以显示包含更多拍摄模式选项的菜单。相应的,GUI32更新为GUI33。
拍摄功能栏323包括触发按钮323-1、照片预览323-2和视野转换323-3等控件元素。其中,触发按钮323-1用于使用户触发智能手机执行拍摄操作。照片预览323-2用于使用户点击预览已经拍摄的图像。视野转换323-3用于使用户触发智能手机切换取景框内所显示的摄像头的视野,例如,若当前取景框内所显示的是智能手机后置摄像头的视野,在接收到用户点击323-3输入的第一视野转换指令后,智能手机控制取景框内显示的视野切换为前置摄像头的视野。若当前取景框内所显示的是智能手机前置摄像头的视野,在接收到用户点击323-3输入的第二视野转换指令后,智能手机控制取景框内显示的视野切换为后置摄像头的视野。
如图2A-3所示,GUI33示意的界面中包括智能识物、录像、专业录像、美食、全景、流光快门等图标元素,还可选地包括本申请实施例对应的智慧拍摄模式。本实施例不再一一列举,详见图2A-3所示。GUI33中每个图标元素对应智能手机支持的一种拍摄模式。智能手机接收到采用任一拍摄模式执行拍摄的指令之后,拍摄以及显示与相应拍摄模式对应的成像效果的视频或图像。此处不再详述。
一些实施例中,用户可以在GUI32示意的场景中或者GUI330示意的场景中,选择一种拍摄模式。例如,用户可以在GUI32示意的场景中点击人像322-2图标。相应的,智能手机接收到用户点击操作对应的指令,之后,确定该指令对应的人像拍摄模式。本实施例中,GUI32示意的人像322-2图标下面增加选中标记,以向用户显示人像322-2图标被选中。选中标记例如是三角箭头。在另一些实施例中,被选中的模式在取景窗口321生成对应的文字标识,该文字标识可以浮动显示,从而表明当前的拍摄模式。
如图2A-4所示,GUI34示意的界面中,设置控件320-5的附件包括下拉菜单340,该下拉菜单上包括选项341和选项342。选项341的内容例如是“多成像效果显示”。选项342的内容例如是“图像数量设置:+1”。示例性的,“多成像效果显示”选项在被选中之前,例如呈现为灰色或者暗色,相应的,“图像数量设置:+1”选项同样呈现为灰色或者暗色。当接收到用户点击选项341触发的多成像效果显示的指令之后,智能手机可以控制选项341中的内容和选项342中的内容高亮显示。之后,用户可以修改“图像数量设置:+1”中的数量。
一些实施例中,用户点击选项342中的“+1”,相应的,智能手机接收到用户点击选项342输入的指令之后,例如可以显示可滚动的数字选项菜单。进而,智能手机响应用户的上下滑动手势指令,在数字菜单中显示不同的数据。智能手机例如接收到用户确定的目标图像数量是“2”。之后,智能手机可以控制下拉菜单340隐藏。相应的,GUI340更新为GUI35。另一些实施例中,智能手机可以响应用户在选项342中区域范围内向左滑动的手势指令,顺次显示“2”、“3”、“4”等数字。本场景中,智能手机可以响应用户的手势指令将选项342中的“+1”更新为“+2”。另外,若用户的滑动动作过快,选项342中的“+1”更新为“+4”之后,用户可以向右滑动,相应的,智能手机接收到向左的手势指令之后,顺次显示数字“4”、“3”、“2”。用户可以在选项342中是“+2”之后,停止滑动。之后,智能手机可以控制下拉菜单340隐藏。相应的,GUI340更新为GUI35。
在一种可能的实现方式中,用户可以选择的图像数量的最大值,例如可以是智能手机所支持的拍摄模式的总数。例如,本实施例示意的智能手机支持20种拍摄模式,相应的,用户在的图2A-4示意的场景中看到的最大数量可以是20。
如图2A-5所示,GUI35与GUI32基本上相同,GUI35包括的界面元素及各界面元素的功能,参考图2A-2示意场景的描述,此处不再赘述。进一步地,在完成上述图2A-1至图2A-4的设置之后,智能手机可以接收用户点击GUI35中示意的拍摄触发按钮输入的启动拍摄指令之后,拍摄目标拍摄场景,之后,生成该目标拍摄场景的多个成像效果的图像。智能手机生成多个成像效果的图像的相关实施例,详见本说明书下文的描述,此处不详述。
在一些可能的实施方案中,在拍摄完成后,智能手机自动弹出预览窗口,供用户查看拍摄的多张图像。在一些可能的实施方案中,在拍摄完成后,智能手机可以接收用户点击GUI35中的照片预览按钮输入的预览指令,之后,智能手机显示拍摄得到的多个图像。相应的,GUI35切换为GUI36。
在一些可能的实施方案中,用户在拍摄的过程中可以手动取消拍摄,智能手机会结束拍照进程并保存已经拍摄的图像。在另一些可能的实施方案中,用户在拍摄的过程中可以手动取消拍摄,智能手机会结束拍照进行并删除已经拍摄的图像。
如图2B-1所示,GUI36包括图像361和图像362,图像361和图像362可选地堆叠显示,例如,图像361覆盖在图像362之上,图像361全部显示,图像362仅显示上边界和左边界,即如图2B-1中所述;又例如,图像361完全覆盖在图像362之上,图像361全部显示,图像362不显示。其中,图像361和图像362均是目标拍摄场景的图像,图像361和图像362的成像效果不同。
如图2B-2所示,用户可以在GUI36的界面上长按,相应的,智能手机检测到用户输入的长按手势指令之后,可以控制图像361和图像362在显示屏上循环在最前端显示,每一幅图像在最前端持续显示的时长例如是1秒。当用户想要查看任一图像时,可以停止长按操作,相应的,智能手机未检测到长按指令,则停止动态显示图像,以使停止动态显示时在最前端显示图像,静态显示。例如,用户想要查看图像362,则可以在图像362在最前端显示时,停止长按,以使图像362在智能手机上静态显示。
在另一些实施例中,如图2B-3所示,GUI36-1除了堆叠显示的图像361和图像362,还包括按钮363。按钮363例如可以包括标记“动态显示”。若用户点击按钮363,智能手机接收到动态显示图像361和图像362的指令,之后,控制图像361和图像362在显示屏上循环在最前端显示,每一幅图像在最前端持续显示的时长例如是1秒。本实施例中,用户想要查看任一图像时,可以在该图像在最前端显示时,再次点击按钮363或者点击一下最前端显示的图像,相应的,智能手机接收到用户再次触发的指令之后,停止动态显示图像,从而确保已经在最前端显示的图像静态显示。
可以理解的是,图2B-2和图2B-3中图像持续显示的时长,可以是智能手机的处理器预先设置的,也可以是用户设置的。此外,另一些实施例中,图2B-2和图2B-3中动态显示的场景中,图像持续显示的时长还可以是2秒。此处不限制。
图2B-2和图2B-3示意的场景,均是图像动态显示的实施场景。其他一些实施例中,用户点击GUI36中的图像361,GUI36更新为图2B-4示意的GUI36-2,GUI36-2中图像361在智能手机的界面上显示。进而,用户可以向左滑动,相应的,智能手机可以响应该滑动指令将界面上显示的图像361切换为图像362。进一步的,若用户再次向右滑动,智能手机可以响应该滑动指令将界面上显示的图像362切换为图像361。
在一种可能的实现方式中,图2B-1至图2B-4示意的场景中,图像361和图像362上标注拍摄模式,每幅图像上标注的拍摄模式是得到该图像时智能手机使用的拍摄模式。示例性的,图像361上例如标注有HDR,图像362上标注有人像模式。即,图像361是智能手机使用HDR模式拍摄得到的图像,图像362是智能手机使用HDR模式拍摄得到的图像。另一种可能的实现方式中,图2B-1至图2B-4示意的场景中,正在界面上显示的图像还标注该图像对应的拍摄模式。
进一步的,在预览图像的过程中,用户还可以对智能手机显示的任意图像进行其他操作,例如,删除等。其中,智能手机拍摄图像361和图像362之后,可以自动保存图像361和图像362。
在一些可能的实施方案中,智能手机在检测到拍摄完成后,自动弹出图像给用户预览,此时智能手机能够检测用户对其中一张或多张图像的保存、删除等操作,并将处理完后的一张或多张图像保存到相册。
在一些可能的实施方案中,智能手机在检测到拍摄完成后,自动保存图像到相册。智能手机能够检测用户在相册中对一张或多张图像的修改、删除等操作。
一些实施例中,如图2B-5所示的GUI37,用户预览图像的场景下,智能手机静态显示任一图像时,GUI37包括图像状态区域371、静态显示图像(例如是图像362)和操作区域372。图像状态区域371中包括返回371-1、图像362的拍摄时间371-2、图库371-3等图标元素。返回371-1用于响应用户的触发返回到图2A-5示意的拍摄界面。图库371-3用于响应用户的触发进入智能手机的图库3113。操作区域372中包括分享372-1、收藏372-2、编辑372-3、删除372-4和更多372-4等功能性图标元素。操作区域372包含的各功能性图标元素,是用户对图像362执行不同操作的功能入口。例如,分享372-1用于接收用户的点击操作,以及生成分享指令,智能手机接收到该分享指令之后,可以在界面上显示其他APP的入口,例如,电子邮件3114、信息3125等的入口。收藏372-2用于接收用户的点击操作,以及生成收藏指令,智能手机接收到该收藏指令之后,将图像362存储到图库3113中的收藏夹中。编辑372-3用于接收用户的点击操作,以及生成编辑指令,智能手机接收到该编辑指令之后,可以在界面上显示编辑功能的图标控件,例如裁切、光效、颜色、旋转等图标控件。删除372-4用于接收用户的点击操作,以及生成删除指令,智能手机接收到该删除指令之后,可以删除图像362。进而,GUI37更新为GUI35。更多372-4用于向用户提供其他操作功能的选项入口。用户触发更多372-4选项之后,智能手机接收显示更多操作功能的指令之后,可以显示更多操作指令的图标元素。相应的,GUI37更新为GUI37-1。
如图2B-6所示,GUI37-1中包括操作菜单3720。操作菜单3720包括添加备注3721、更多编辑3722、打印或生成PDF3723、重命名3724、设置为3725、采用本模式再拍一张3726等选项控件。当用户点击相应选项控件之后,智能手机执行相应功能。例如,当用户点击采用本模式再拍一张3726之后,智能手机接收到采用本模式再拍一张的拍摄指令,进而,GUI37-1更新为GUI35,且智能手机采用图像362对应的拍摄模式执行拍摄。
另一些实施例中,如图2B-7所示,用户预览图像的场景下,智能手机静态显示任一图像时,用户可以长按静态显示的图像(例如图像362)。智能手机接收到用户输入的长按操作指令,之后,如GUI38所示,智能手机例如响应该长按操作指令显示操作菜单380。操作菜单380包括分享381、删除382、收藏383、打印384和采用本模式再拍一张385等选项控件。本实施例中,各选项控件的功能以及用户触发后的效果,如图2B-5和图2B-6示意的实施例的描述,此处不赘述。
图2B-1至图2B-7均是以非折叠屏智能手机为例进行的描述。本申请实施例涉及的智能手机还可以是折叠屏手机。其中,折叠屏手机包括第一屏幕和第二屏幕,随着折叠屏手机的姿态不同,第一屏幕和第二屏幕的状态也不同。例如,当折叠屏手机是折叠态时,第一屏幕和第二屏幕分别位于折叠屏手机的不同面,以及分别作为一个可独立操作和显示屏幕。上述图2B-1至图2B-7的实施例适用于第一屏幕或者第二屏幕。当折叠屏手机是展开态时,第一屏幕和第二屏幕组成一个屏幕。本申请实施例将展开态时第一屏幕和第二屏幕组成的屏幕称为“大屏”。上述图2B-1至图2B-7的实施例适用于第一屏幕和第二屏幕组成的大屏。此外,折叠屏手机还可以包括其他显示方式。
一些实施例中,在拍摄完成之后,如图2C-1示意的GUI41,图像361和图像362可以在折叠屏手机的第一屏幕411上堆叠显示。图像361和图像362的显示方式如图2B-1所示,此处不赘述。用户可以在图像361上执行捏合操作,相应的,折叠屏手机接收到该捏合手势指令之后,将图像361缩小成与用户手指大小相适应的大小。之后,用户可以将捏合后的手势移动到第二屏幕412,进而,在第二屏幕412手势打开以及抬手,相应的,折叠屏手机接收到用户输入的移动指令,以及获取用户的移动轨迹,将缩小后的图像361移动到第二屏幕412。进而,折叠屏手机接收到用户的打开手势指令之后,在第二屏幕412显示图像361。GUI41更新为GUI42。
如图2C-2所示,GUI42中第一屏幕411显示的是图像362,第二屏幕412显示的是图像361。这样便于用户对不同成像效果的图像进行对比。可选的,用户还可以通过左右滑动第二屏幕412,切换第二屏幕412所显示的图像。例如,用户在GUI42的第二屏幕412上向右滑动,折叠屏手机接收到向右滑动的手势指令后,控制图像361向右移动至图像361隐藏,且控制图像362向右移动,以及最终在第二屏幕412显示。若拍摄得到的图像大于两幅,第一屏幕411可以显示第三幅图像。
另一些实施例中,在拍摄完成之后,如图2C-3示意的GUI43,图像361和图像362可以在折叠屏手机的第一屏幕411堆叠显示,在接收到用户触发之后,图像361和图像362可以在第一屏幕411动态显示。图像361和图像362动态显示的方式如图2B-3所示,此处不赘述。本实施例中,用户可以在图像361和图像362动态显示的过程中,点击想要查看的图像,相应的,折叠屏手机接收到点击操作指令之后,确定点击操作指令对应的图像,然后,在第二屏幕412静态显示点击操作指令对应的图像。GUI43更新为GUI44。
如图2C-4所示,GUI44中,第一屏幕411动态显示图像361和图像362,第二屏幕412例如静态显示图像361。这样能够提高用户的使用体验。
可以理解的是,图2C-1至图2C-4仅是示意性描述,不构成对本申请实施例的限制。另一些实施例中,第一屏幕411和第二屏幕412可以互换。此处不限制。
此外,用户还可以对图2C-2和图2C-4中静态显示的图像进行删除、分享等操作。可选的,第二屏幕412静态显示图像过程中,可以显示其他操作控件,其他操作控件的显示方式如图2B-5至2B-7中任一所示。此处不详述。示例性的,用户删除任意图像之后,折叠屏手机可以将第一屏幕411和第二屏幕412中相应图像均删除。
需要指出的是,一些实施例中,用户未选择拍摄模式,仅设置有多成像效果显示,且设置拍摄两幅图像。智能手机显示两幅图像,该两幅图像的显示如图2B-1至图2C-4示意场景所示。另一些实施例中,用户选择了拍摄模式,并且设置有多成像效果显示,具体设置为拍摄两幅图像。智能手机显示三幅图像。该三幅图像包括按照用户选择的拍摄模式拍摄得到的一幅图像,以及智能手机智能化拍摄得到的两幅不同成像效果的图像。在用户触发动态显示之前,最前端显示的图像可以是用户所选择拍摄模式对应的成像效果的图像。
可以理解的是,图2A-1至图2C-4仅是示意性描述,对本申请实施例不构成限制。在另一些实施例中,各场景下的GUI可以根据智能手机所搭载的系统、设备品牌、设备型号等的不同而不同。此处不再详述。
可见,采用本实现方式,用户可以按照需求设置一个拍摄场景对应图像的数量,进而,仅触发一次拍摄即可得到一个拍摄场景的多种成像效果的图像,之后,用户可以从该多种成像效果的图像中选择满意的图像,使得用户的使用体验较好。
以下从电子设备角度对本申请实施例的拍照方法进行示例性描述。本申请实施例所述电子设备包括摄像头。
如图3所示,图3示意了一种拍照方法10。拍照方法10(以下简称方法10)包括以下步骤:
步骤S11,确定拍摄场景中包含的至少一个拍摄对象中每个拍摄对象的特征信息。
可以理解的是,一些实施例中,步骤S11可以在拍摄之前执行。具体的,在用户选择本申请对应实施例对应的目标图像数量,以及电子设备开始取景之后执行。用户设置过程涉及的人机交互以及GUI显示,可以如上述图2A-1至图2A-4示意的实施例所述,此处不详述。另一些实施例中,步骤S11可以在电子设备接收到用户输入的拍摄指令后执行。这样,电子设备可以在确保需要获取图像之后,才进行特征信息获取等一些列的操作,从而能够避免预先获取特征信息之后,用户取消拍照的情况下造成的计算资源浪费。
其中,所述拍摄对象的特征信息包括以下一个或多个的组合:拍摄对象的置信度、该拍摄对象与摄像头的距离和成像大小。其中,置信度用于表征拍摄对象是某类对象的可信程度。置信度越高,说明拍摄对象是相应类型对象的可信程度越高,反之,置信度越低,说明拍摄物体是相应类型对象的可信程度越低。例如,拍摄对象是人物的置信度高于0.95,说明拍摄对象包括人物的可信程度较高。成像大小是指拍摄对象在显示界面上所占的面积。可选的,一些场景中,所述拍摄对象的特征信息包含拍摄对象的置信度。
一些实施例中,电子设备可以采用诸如你只需要看一遍((you only look once,YOLO)模型或者单发多盒探测(single shot multibox detector,SSD)模型等,检测拍摄场景中包含的拍摄对象,以及计算得到每个拍摄对象的置信度x和占据取景窗口321的比例y。占据显示界面的比例y指示相应拍摄对象的成像大小。其中,x是大于零且小于1的数值,y是大于零且小于或者等于1的数值,示例性的,若拍摄对象全部是文本,y则是1。
另一些实施例中,电子设备在计算得到置信度x和占据显示界面的比例y的基础上,还可以采用电子设备的红外测距、激光测距或者超声波测距等,基于飞行时间(time offlight,ToF)测距原理测量每个拍摄对象与电子设备的距离z'。距离z'的计量单位可以是米(m),z'是大于0的整数。电子设备在确定每个拍摄对象与电子设备的距离z'之后,可以将距离z'进行归一化处理,以将每个拍摄对象与电子设备的距离值转换为与置信度x和占据显示界面的比例y同一维度的值。示例性的,归一化处理之后的距离z可以表示为:其中,l是指电子设备支持的最大拍摄距离。z是大于零且小于1的数值。可选的,当拍摄对象与电子设备的距离超过电子设备支持的最大拍摄距离时,电子设备可以将拍摄对象与电子设备的距离确定为电子设备支持的最大拍摄距离。
例如,电子设备获取到图4A所示的拍摄场景300-1。结合图4A-1,电子设备能够检测到拍摄对象301、拍摄对象302和拍摄对象303。如图4A-1所示,电子设备可以使用矩形框将拍摄对象标记出。进而,电子设备可以分别计算拍摄对象301、拍摄对象302和拍摄对象303的置信度,得到拍摄对象301是人物的置信度为0.999,拍摄对象302是狗的置信度为0.999,拍摄对象303是草地的置信度为0.998。电子设备还可以通过计算每个拍摄对象的矩形框占比(即每个拍摄对象所对应的矩形框占据显示界面的比例)确定拍摄对象301、拍摄对象302和拍摄对象303的成像大小。例如,拍摄对象301的矩形框占比是40%,相应的,拍摄对象301的成像大小是0.4。拍摄对象302的矩形框占比是10%,相应的,拍摄对象302的成像大小是0.1。拍摄对象303的矩形框占比是60%,相应的,拍摄对象303的成像大小是0.6。应理解,图4A-1是为了形象的表达电子设备对拍摄场景300-1的处理进行的示意。
再如,电子设备获取到图4B所示的拍摄场景300-2。结合图4B-1所示,电子设备能够计算得到拍摄对象304、拍摄对象305、拍摄对象306和拍摄对象307是人物的置信度均为0.999。且,电子设备能够确定拍摄对象304的成像大小是0.2,拍摄对象305的成像大小是0.2,拍摄对象306的成像大小是0.15,拍摄对象307的成像大小是0.12。本实施例中,电子设备计算各拍摄对象的置信度和成像大小的方法,和拍摄场景300-1示意的相同,此处不详述。此外,电子设备还可以通过激光测距的方式,分别检测拍摄对象304、拍摄对象305、拍摄对象306和拍摄对象307与电子设备的距离,得到拍摄对象304与电子设备的距离z1',拍摄对象305与电子设备的距离z2',拍摄对象306与电子设备的距离z3',拍摄对象307与电子设备的距离z4'。进一步的,电子设备将z1'归一化处理得到拍摄对象304与电子设备的距离z1,z1例如是0.2。电子设备将z2'归一化处理得到拍摄对象305与电子设备的距离z2,z2例如是0.3。电子设备将z3'归一化处理得到拍摄对象306与电子设备的距离z3,z3例如是0.5。电子设备将z4'归一化处理得到拍摄对象307与电子设备的距离z4,z4例如是0.6。应理解,图4B-1是为了形象的表达电子设备对拍摄场景300-2的处理进行的示意,实际实现中,电子设备并不在界面上示出图4B-1中的矩形框等。
可以理解的是,上述特征信息仅是示意性描述,不构成对本申请的限制。另一些实施例中,拍摄对象的特征信息还可以包括其他参数或信息,例如,拍摄场景的色调、亮度以及感光度等。示例性的,电子设备还可以通过检测拍摄场景的色调、亮度以及感光度等,确定拍摄场景是否是夜景,进而,电子设备还可以将是否是夜景以及拍摄对象的特征信息均作为确定目标拍摄模式的依据。
步骤S12,根据至少一个拍摄对象中每个拍摄对象的特征信息确定至少一个目标拍摄模式。
其中,一些实施例中,至少一个目标拍摄模式可以是一个拍摄模式,例如人像模式。另一些实施例中,至少一个目标拍摄模式可以包括至少两个拍摄模式,该至少两个拍摄模式各不相同。本实施例中,该“至少两个”对应的具体数值可以由用户设置。
需要指出的是,拍摄对象的特征信息能够表征拍摄对象的显著性,基于此,本申请实施例中,电子设备可以对至少一个拍摄对象中的每个拍摄对象的特征信息进行计算,以得到每个拍摄对象对应的计算结果。之后,电子设备可以按照计算结果从大到小的顺序顺次选择预设数量的拍摄模式,以得到所述至少一个目标拍摄模式。这样电子设备可以根据拍摄对象的显著性排序,选择与拍摄场景相对较匹配的拍摄模式。
一些实施例中,表征拍摄对象的置信度可以与拍摄模式对应,例如,拍摄对象是人物的置信度高于0.95,则该置信度可以与人像模式对应。再如,拍摄对象是景物的置信度高于0.99,则该置信度可以与HDR模式对应。基于此,电子设备可以按照算法E=αx+βy+γz计算每个拍摄对象特征信息的综合分数E,其中,x是指拍摄对象的置信度,y是指拍摄对象的成像大小,z是指拍摄对象与摄像头的距离,α是指拍摄对象的置信度的第一权重,β是指拍摄对象的成像大小的第一权重,γ是指拍摄对象的与摄像头距离的第一权重,α、β和γ均是大于0且小于1的数值,示例性的,α例如是0.33,β例如是0.33,γ例如是0.34。α、β和γ可以按照需求任意调整。之后,电子设备可以按照综合分数E从大到小的顺序顺次选择预设数量的置信度,以得到至少一个目标置信度。进而,电子设备将至少一个目标置信度对应的拍摄模式确定为目标拍摄模式,以得到至少一种目标拍摄模式。例如,电子设备选择两个目标拍摄模式,按照综合分数E从大到小的顺序顺次选择的前两个置信度对应的拍摄对象的标签为[人物,美景],而“人物”对应的配设模式是人像模式,“美景”对应的是HDR模式。相应的,电子设备选择的两个目标拍摄模式是[人像模式,HDR模式]。
另一些实施例中,如图4A示意的非多个人物的拍摄场景下,不同拍摄对象作为拍摄场景中的拍摄主体时,与拍摄场景适配的拍摄模式不同。例如,人物作为拍摄场景中的拍摄主体时,与拍摄场景适配的拍摄模式是人像模式。再如,草地作为拍摄场景中的拍摄主体时,与拍摄场景适配的拍摄模式是HDR模式。基于此,电子设备可以根据至少一个拍摄对象中每个拍摄对象的特征信息,确定拍摄对象作为拍摄主体的概率。之后,电子设备可以按照概率从大到小顺次选择预设数量的拍摄对象作为目标拍摄对象,进而,确定每个目标拍摄对象作为拍摄主体时,适配的拍摄模式,得到至少一种目标拍摄模式。
示例性的,电子设备可以按照算法P=ax+by+cz确定每个拍摄对象作为拍摄主体的概率值P。其中,x、y和z是指拍摄对象特征信息,x、y和z的具体含义及确定过程,详见上述实施例的描述,此处不详述。a是指所述拍摄对象的置信度的第二权重,b是指所述拍摄对象的成像大小的第二权重,c是指所述拍摄对象的与摄像头距离的第二权重,a、b和c均是大于0且小于1的数值。a、b和c的值可以按照需求任意调整。此处不限制。进一步的,电子设备可以按照P值从大到小的顺序顺次选择预设数量的拍摄对象作为目标拍摄对象,以得到至少一个目标拍摄对象,然后,电子设备确定至少一个目标拍摄对象中的每个目标拍摄对象作为拍摄主体时匹配的拍摄模式,以得到至少一种目标拍摄模式。
需要指出的是,一些实施例中,拍摄场景中包含的拍摄对象较多,而一些拍摄对象不可能作为拍摄主体,例如,与电子设备的距离大于5m及以上的人物。基于此,为了节省电子设备的计算资源,电子设备可以从至少一个拍摄对象中选择满足下述条件的拍摄对象,进而,计算所选择的拍摄对象作为拍摄主体的概率。所述选择条件例如包括:拍摄对象是人物的置信度高于0.95,成像大小大于0.1,与电子设备的距离小于2m。拍摄对象是文本或者景物的置信度高于0.9,成像大小大于0.5。
此外,若电子设备确定拍摄场景是夜景,那么,电子设备可以将夜景模式作为拍摄模式之一。进而,一种可能的实现方式中,电子设备可以根据以上实施例所述的方式确定预设数量的减一个目标拍摄对象,然后,根据目标拍摄对象确定其他拍摄模式。另一种可能的实现方式中,电子设备可以根据以上实施例所述的方式确定预设数量的目标拍摄对象,进而,确定预设数量加一种拍摄模式。此处不限制。
另一些实施例中,如图4B示意的多个人物的拍摄场景下,拍摄对象包括多个人物,相应的,电子设备可以采用人像模式拍摄该拍摄场景。本实施例中,电子设备可以根据每个人物与电子设备的距离确定预设数量的目标人物,将该预设数量的目标人物确定为目标拍摄对象。
示例性的,电子设备可以计算每个人物与电子设备的距离,之后,电子设备可以按照距离从小到大的顺序顺次选择预设数量的人物作为目标拍摄对象。
此外,若电子设备通过测量感光度,确定当前拍摄场景是夜景,那么,电子设备可以采用夜景模式拍摄图4B示意的拍摄场景。本实施例中,电子设备确定预设数量的人物的实现方式如上所述,此处不赘述。
需要指出的是,该预设数量可以是用户按照需求通过例如“多成像效果显示”的选项进行设置的。该预设数量例如是2。用户设置过程中涉及的人机交互以及GUI显示,可以如上述图2A-2和图2A-4示意的实施例所述,此处不详述。
可以理解的是,上述确定目标拍摄对象的方法仅是示意性描述,不构成对本申请的限制。另一些实施例中,电子设备还可以根据其他信息确定拍摄场景中的目标拍摄对象。
步骤S13,响应于第一用户输入的第一拍摄指令,得到拍摄场景的至少一幅图像。
其中,第一用户输入第一拍摄指令的实施例如图2A-5所示,此处不详述。第一拍照指令还可以为语音输入,隔空手势输入,用户凝视输入等其他输入方式,本申请实施例对此不做限制。所述至少一幅图像的成像效果分别对应所述至少一个目标拍摄模式。
结合上述对至少一个目标拍摄模式以及实施场景的描述,本申请实施例中,电子设备可以采用以下实现方式得到至少一幅图像。
一些实施例中,当至少一个目标拍摄模式包括至少两个拍摄模式,且至少两个拍摄模式各不相同时,采用至少两个拍摄模式中的每种拍摄模式获取拍摄场景的图像,以得到拍摄场景的至少两幅图像。
示例性的,结合如图4A示意的非多个人物的拍摄场景,电子设备确定拍摄模式为人像模式和HDR模式之后,采用人像模式和HDR模式分别获取拍摄场景300-1的图像,得到拍摄场景300-1的两幅图像,该两幅图像的成像效果不相同。
根据上述人机交互的实施例所述,用户还可以自行选择一种拍摄方式进行图像拍摄。基于此,一些实施例中,电子设备确定的至少一种拍摄模式中若不包含用户选择的拍摄方式,电子设备可以分别采用该至少一种拍摄模式和用户选择的拍摄方式执行拍摄,得到至少一幅图像。另一些实施例中,电子设备确定的至少一种拍摄模式中若不包含用户选择的拍摄方式,电子设备可以分别采用该至少一种拍摄模式执行拍摄,得到至少一幅图像。
此外,目前的电子设备通常包括多个摄像头,例如,一些电子设备可以包括三个后置摄像头和一个前置摄像头。在一些可能的实施方案中,电子设备每采用一种拍摄模式进行拍摄,将调用多个摄像头中的一个摄像头进行拍摄。不同摄像头具备不同的特点,单个摄像头可能均无法很好的与相应拍摄模式相匹配,这样导致拍摄效果不好。本申请一些实施例中,采用上述任一拍摄模式执行拍摄时,电子设备调用多个摄像头进行组合拍摄,这样能够最大程度适配相应拍摄模式,并且能够充分发挥每个摄像头的优势,使得拍摄效果更佳。采用本实现方式,不仅智能化程度高,而且使得每种成像效果均更佳,从而进一步提高用户的使用体验。
如图5A所示,电子设备生成拍摄场景图像的传统处理流程包括:电子设备调用摄像头获取拍摄场景的光信号,之后调用互补性氧化金属半导体(complementary metal-oxide semiconductor,CMOS)将光信号转换为拍摄场景的原始(RAW)图,然后,对RAW图进行图像信号处理(image signal processing,ISP)处理,得到拍摄场景的红、绿、蓝(red、green、blue,RGB)图,之后,电子设备对该RGB图进行摄像头硬件抽象层(hardwareabstraction layer,HAL)算法处理,得到拍摄场景的图像。其中,电子设备调用摄像头获取拍摄场景的光信号的过程,也可以称为“取景”,电子设备在执行取景的过程中,涉及到感光度、曝光时间和3A参数等参数,这些参数称为取景参数。3A参数是指包括自动白平衡(autowhite balance,AWB)参数、自动曝光(auto exposure,AE)参数和自动聚焦(automaticfocus,AF)。感光度可以参照由国际标准化组织(international standardizationorganization,ISO)的规定,所以可以使用ISO表示感光度。
需要说明的是,不同拍摄模式对应的取景参数可能相同,也可能不同。基于此,例如采用两种拍摄模式执行拍摄的场景下,电子设备可以判断该两种拍摄模式之间的取景参数的差值是否均小于相应参数对应的阈值。若该两种拍摄模式之间的取景参数的差值均小于相应参数对应的阈值,电子设备可以按照其中任一拍摄模式的取景参数执行取景,之后,电子设备分别按照该两种拍摄模式的图像处理算法,分别对取景参数进行处理,以得到两幅图像。若该两种拍摄模式之间的取景参数中任一项参数的差值大于相应参数对应的阈值,电子设备按照该两种拍摄模式分别按照拍摄,以得到两组图像数据。
其中,以取景参数包含ISO、曝光时间和3A参数为例,若两种拍摄模式的ISO差值小于第一阈值,曝光时间差值小于第二阈值,且3A参数小于第三阈值,电子设备可以确定该两种拍摄模式的取景参数接近。若两种拍摄模式的ISO的差值、曝光时间的差值和3A参数的差值中的一项或多项,大于相应参数对应的阈值,电子设备认为该两种拍摄模式的取景参数存在较大差异。第一阈值、第二阈值和第三阈值的值可以按照实际实现确定。例如,第一阈值可以是两种拍摄模式的ISO中较小的ISO的5%的值,第二阈值例如是100毫秒(ms)。
示例性的,两种拍摄模式的取景参数接近的场景下,如图5B所示,电子设备调用至少两组摄像头获取拍摄对象的光信号,之后通过CMOS将光信号转换为RAW图。然后,电子设备分别按照该两种拍摄模式对应的ISP算法对该RAW图进行ISP处理,分别得到RGB图像数据1和RGB图像数据2。RGB图像数据1例如是按照该两种拍摄模式中第一种拍摄模式的ISP算法处理得到的,RGB图像数据2例如是按照该两种拍摄模式中第二种拍摄模式的ISP算法得到的。之后,电子设备按照第一种拍摄模式的摄像头HAL算法对RGB图像数据1处理得到拍摄场景的图像1,按照第二种拍摄模式的摄像头HAL算法对RGB图像数据2处理得到拍摄场景的图像2。采用本实现方式,当至少两种拍摄模式的取景参数接近时,电子设备可以仅执行一次取景,从而能够节省拍摄资源。
当两种拍摄模式的取景参数存在差异的场景下,电子设备按照该两种拍摄模式对拍摄场景分别执行两次拍摄。其中,该两次拍摄成像的过程,均与图5A类似,此处不详述。
另外,在使用夜景模式执行拍摄时,电子设备可以接收第一用户长按拍摄触发按钮输入的拍摄指令,之后,电子设备可以执行多次拍摄,该多次拍摄的取景参数各不相同。进而,电子设备可以得到拍摄场景的多组图像数据,之后,电子设备根据该多组图像数据生成拍摄场景的一副夜景图像。此处不详述。
可以理解的是,以上涉及取景的实施例仅是示意性描述,对本申请不构成限制。另一些实施例中,当电子设备采用大于两种的拍摄模式执行拍摄时,电子设备的判断模式和取景方式与上述实施例类似。此处不再赘述。
另一些实施例中,如图4B示意的多个人物的拍摄场景下,电子设备可以采用人像模式执行一次拍摄,得到拍摄场景取景后的图像数据。进而,电子设备可以以每个目标拍摄对象(即目标人物)作为拍摄主体,对图像数据进行背景虚化、美肤、磨皮等处理,得到以每个目标人物为拍摄主体的图像。
采用本实现方式,电子设备只执行一次取景,即可获取人像拍摄场景的深度图和彩色图,进而,通过不同的后续处理达到以每个目标人物为主题的成像效果。相较于一些现有技术中将每个人物作为主体分别进行拍摄的实现方式,本申请实施例无需执行多次拍摄,并且对于多人拍摄场景,能够基于人物的显著性条件,以主体人物为中心美肤、降噪、背景虚化等,从而达到较好的拍摄效果。
进一步的,电子设备在拍摄得到至少一幅图像之后,可以采用堆叠的方式向用户显示该至少一幅图像。该至少一幅图像在电子设备界面上的显示效果可以如图2B-1、图2C-1或者图2C-3所示。之后,若电子设备接收到用户输入的动态显示指令,电子设备可以控制该至少一幅图像循环在最前端显示。电子设备还可以接收用户输入的其他指令,并执行相应指令对应的操作。如图2B-2至图2B-7,以及图2C-2和图2C-4对应的操作场景等。
综上,采用本申请实施例的实现方式,电子设备能够根据拍摄场景中的拍摄对象,确定与拍摄场景较匹配的拍摄模式或者目标人物,进而,采用与所确定的拍摄模式或者目标人物分别生成一幅图像,得到多幅成像效果各不相同的图像。可见,本申请实施例所述的电子设备能够自行确定与拍摄场景较匹配的拍摄模式,不仅智能化程度高,而且一次拍摄即可得到多幅不同成像效果的图像,还能够节省拍摄资源,提高用户体验。
以下结合实例对本申请实施例的拍照方法进行描述。
示例性的,以智能手机200为例进行说明。智能手机200例如设置有前置摄像头和后置摄像头。以下实施例中,智能手机200例如使用后置摄像头执行拍摄。智能手机200安装有相机APP。
图6A示意了拍照方法20的方法流程图。拍照方法20(以下简称方法20)例如是采用多种拍摄模式的场景下的实施例。本实施例涉及的拍摄场景例如是图4A示意的拍摄场景300-1。
方法20包括如下步骤:
步骤S21,接收用户输入的多成像显示指令。
本实施例中,用户例如设置智能手机200显示两幅图像,且用户未选择其他拍摄模式。用户设置智能手机200多成像效果显示的过程,详见图2A-1、图2A-2以及图2A-4示意的实施例所述,此处不详述。
需要指出的是,另一些实施例中,用户可以自行选择一种拍摄模式,以及再设置显示两幅图像。
步骤S22,接收用户输入的拍摄指令。
其中,用户设置智能手机200显示两幅图像之后,可以触发智能手机200执行拍摄。用户向智能手机200输入拍摄指令的人机交互过程,详见图2A-5的实施例所述,此处不详述。
步骤S23,确定拍摄场景300-1中包含的拍摄对象的特征信息。
示例性的,拍摄场景300-1中拍摄对象301是人物的置信度为0.999,成像大小是0.4,拍摄对象301与智能手机200的距离是0.5。拍摄对象302是狗的置信度为0.999,成像大小是0.1,拍摄对象302与智能手机200的距离是0.2。拍摄对象303是草地的置信度为0.998,成像大小是0.6,拍摄对象303与智能手机200的距离是0.4。
其中,智能手机200确定上述特征信息的算法及过程,详见上述实施例所述,此处不详述。
步骤S24,根据特征信息将拍摄对象301和拍摄对象303确定为目标拍摄对象。
示例性的,智能手机200根据算法P=0.33x+0.33y+0.34z分别计算拍摄对象301、拍摄对象302和拍摄对象303作为拍摄主体的概率,得到拍摄对象301作为拍摄主体的概率是0.632,拍摄对象302作为拍摄主体的概率是0.431,拍摄对象303作为拍摄主体的概率是0.663。其中,0.663大于0.632,0.632大于0.431。智能手机200按照概率从大到小的顺序顺次选择概率是0.663和概率是0.632的拍摄对象作为目标拍摄对象。即,智能手机200将拍摄对象301和拍摄对象303确定为目标拍摄对象。其中,x是指每个拍摄对象的置信度,y是指每个拍摄对象的成像大小,z是指每个拍摄对象与智能手机200的距离。
步骤S25,确定与拍摄对象301匹配的拍摄模式是人像模式,与拍摄对象303匹配的拍摄模式是HDR模式。
步骤S26,分别按照人像模式和HDR模式对拍摄场景300-1执行拍摄,得到两幅图像。
其中,两幅图像中的一幅图像的成像效果与人像模式对应,另一幅图像的成像效果与HDR模式对应。
本实施例中,智能手机200检测人像模式和HDR模式的ISO差值是否小于第一阈值,曝光时间差值是否小于第二阈值,且3A参数是否小于第三阈值。示例性的,人像模式和HDR模式的上述几个差值均小于相应阈值。智能手机200例如采用HDR模式的取景参数获取拍摄场景300-1的图像数据,之后,分别按照人像模式和HDR模式的成像机制生成该两幅图像。
进一步的,智能手机200可以以堆叠的形式显示该两幅图像,之后,可以相应用户的指令,执行动态显示图像、保存图像等操作。详见图2B-1至图2C-4所示,此处不详述。
图6B示意了拍照方法30的方法流程图。拍照方法30(以下简称方法30)例如是多人物场景下的实施例。本实施例涉及的拍摄场景例如是图4B示意的拍摄场景300-2。
方法30包括如下步骤:
步骤S31,接收用户输入的多成像显示指令和人像模式的信息。
步骤S32,接收用户输入的拍摄指令。
本实施例中,用户例如设置智能手机200显示两幅图像。用户的操作过程,详见图2A-1至图2A-5示意的实施例所述,此处不详述。
步骤S33,确定拍摄场景300-2中包含的拍摄对象的特征信息。
示例性的,拍摄场景300-2中拍摄对象304、拍摄对象305、拍摄对象306和拍摄对象307是人物的置信度均为0.999。拍摄对象304的成像大小是0.2,拍摄对象304与智能手机200的距离是0.2。拍摄对象305的成像大小是0.2,拍摄对象305与智能手机200的距离是0.3。拍摄对象306的成像大小是0.15,拍摄对象306与智能手机200的距离是0.5。拍摄对象307的成像大小是0.12,拍摄对象306与智能手机200的距离是0.6。
其中,智能手机200确定上述特征信息的算法及过程,详见上述实施例所述,此处不详述。
步骤S34,根据距离将拍摄对象304和拍摄对象305确定为目标拍摄对象。
本实施例中,目标拍摄对象也被称为目标人物。智能手机200可以按照距离从小到大的顺序从拍摄场景300-2中确定两个目标拍摄对象,即,可以将拍摄对象304和拍摄对象305确定为目标拍摄对象。
步骤S35,按照人像模式获取拍摄场景300-2的图像数据。
步骤S36,以两个目标拍摄对象中的每个目标拍摄对象为拍摄主体,分别按照人像模式的成像机制生成图像,得到两幅图像。
示例性的,智能手机200以拍摄对象304为拍摄主体时,对拍摄对象304执行美肤和磨皮处理,对拍摄对象304之外的其他对象均执行虚化处理,得到一幅图像。智能手机200以拍摄对象305为拍摄主体时,对拍摄对象305执行美肤和磨皮处理,对拍摄对象305之外的其他对象均执行虚化处理,得到另一幅图像。
可以理解的是,图6A和图6B是示意性描述,对本申请的技术方案不构成限制。在其他一些实施例中,电子设备可以是其他设置有摄像头的设备,例如平板电脑。电子设备可以是采用前置摄像头执行拍摄。且本申请所适用的场景也可以是其他,此处不再一一赘述。另外,本说明书并未示出本申请适用的全部实施场景,在其他实施场景下,采用基于本申请技术思想的其他实施手段,同样属于本申请的保护范畴。
综上,本申请实施例的技术方案,电子设备能够根据拍摄场景中的拍摄对象,确定与拍摄场景较匹配的拍摄模式或者目标人物,进而,采用与所确定的拍摄模式或者目标人物分别生成一幅图像,得到多幅成像效果各不相同的图像。可见,本申请实施例所述的电子设备能够自行确定与拍摄场景较匹配的拍摄模式,不仅智能化程度高,而且一次拍摄即可得到多幅不同成像效果的图像,还能够节省拍摄资源,提高用户体验。
上述实施例从电子设备的硬件结构,软件架构,以及各软、硬件所执行的动作的角度对本申请提供的拍照方法的各方案进行了介绍。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的特征信息的计算、目标拍摄模式的确定、拍摄场景的图像的处理等等的处理步骤,本申请不仅能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请实施例的范围。
例如,上述电子设备100可以通过功能模块的形式来实现上述相应的功能。如图7A所示,电子设备70可以包括处理模块701、接收模块702和显示模块703。该电子设备70可用于执行上述图2A-1至图6B中电子设备的功能。
例如,处理模块701可以用于确定拍摄场景中包含的至少一个拍摄对象中每个拍摄对象的特征信息,所述特征信息包括以下一个或多个的组合:拍摄对象的置信度、拍摄对象与摄像头的距离和成像大小。处理模块701还可以用于根据所述至少一个拍摄对象中每个拍摄对象的特征信息确定至少一个目标拍摄模式。接收模块702可以用于接收第一用户输入的第一拍摄指令。处理模块701还可以用于响应于所述第一拍摄指令,得到所述拍摄场景的至少一幅图像,所述至少一幅图像的成像效果分别对应所述至少一个目标拍摄模式。显示模块703可以用于显示所述至少一幅图像。
可以理解的是,以上各个模块的划分仅仅是一种逻辑功能的划分,实际实现时,可以全部或部分集成到一个物理实体上,也可以物理上分开。例如,处理模块701的功能可以集成到处理器实现,接收模块702的功能可以集成到收发器实现,显示模块703的功能可以集成到显示器实现。如图7B所示,电子设备71可以包括处理器711、收发器712、显示器713和存储器714。其中,所述存储器714用于与处理器711耦合,其保存该电子设备71必要的计算机程序715。处理器711被配置为调用计算机程序715执行图2A-1至图6B中电子设备的操作。收发器712被配置为执行接收用户输入的各类指令。显示器713被配置为显示电子设备71拍得的图像。在此不再赘述。
具体内容可以参考图2A-1至图6B中对应的实施例中电子设备相关的描述,此处不再赘述。
具体实现中,对应电子设备,本申请还提供一种计算机存储介质,其中,设置在任意设备中的计算机存储介质可存储有程序,该程序执行时,可实施包括图2A-1至图6B提供的拍照方法的各实施例中的部分或全部步骤。任意设备中的存储介质均可为磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(random access memory,RAM)等。
以上模块或单元的一个或多个可以软件、硬件或二者结合来实现。当以上任一模块或单元以软件实现的时候,所述软件以计算机程序指令的方式存在,并被存储在存储器中,处理器可以用于执行所述程序指令并实现以上方法流程。所述处理器可以包括但不限于以下至少一种:中央处理单元(central processing unit,CPU)、微处理器、数字信号处理器(DSP)、微控制器(microcontroller unit,MCU)、或人工智能处理器等各类运行软件的计算设备,每种计算设备可包括一个或多个用于执行软件指令以进行运算或处理的核。该处理器可以内置于SoC(片上系统)或专用集成电路(application specific integratedcircuit,ASIC),也可是一个独立的半导体芯片。该处理器内处理用于执行软件指令以进行运算或处理的核外,还可进一步包括必要的硬件加速器,如现场可编程门阵列(fieldprogrammable gate array,FPGA)、PLD(可编程逻辑器件)、或者实现专用逻辑运算的逻辑电路。
当以上模块或单元以硬件实现的时候,该硬件可以是CPU、微处理器、DSP、MCU、人工智能处理器、ASIC、SoC、FPGA、PLD、专用数字电路、硬件加速器或非集成的分立器件中的任一个或任一组合,其可以运行必要的软件或不依赖于软件以执行以上方法流程。
当以上模块或单元使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
应理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对实施例的实施过程构成任何限定。
本说明书的各个部分均采用递进的方式进行描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点介绍的都是与其他实施例不同之处。尤其,对于装置和系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例部分的说明即可。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (20)
1.一种拍照方法,其特征在于,包括:
确定拍摄场景中包含的至少一个拍摄对象中每个拍摄对象的特征信息,所述特征信息包括以下一个或多个的组合:拍摄对象的置信度、拍摄对象与摄像头的距离和成像大小;
根据所述至少一个拍摄对象中每个拍摄对象的特征信息确定至少一个目标拍摄模式;
响应于第一用户输入的第一拍摄指令,得到所述拍摄场景的至少一幅图像,所述至少一幅图像的成像效果分别对应所述至少一个目标拍摄模式。
2.如权利要求1所述的方法,其特征在于,根据所述至少一个拍摄对象中每个拍摄对象的特征信息确定至少一个目标拍摄模式,包括:
对所述至少一个拍摄对象中的每个拍摄对象的特征信息进行计算,以得到每个拍摄对象对应的计算结果;
按照所述计算结果从大到小的顺序顺次选择预设数量的拍摄模式,以得到所述至少一个目标拍摄模式。
3.如权利要求2所述的方法,其特征在于,
所述对所述每个拍摄对象的特征信息进行计算,以得到每个拍摄对象对应的计算结果,包括:
按照算法E=αx+βy+γz计算所述每个拍摄对象特征信息的综合分数E,其中,x是指所述拍摄对象的置信度,y是指所述拍摄对象的成像大小,z是指所述拍摄对象与摄像头的距离,α是指所述拍摄对象的置信度的第一权重,β是指所述拍摄对象的成像大小的第一权重,γ是指所述拍摄对象的与摄像头距离的第一权重,α、β和γ均是大于0且小于1的数值;
所述按照所述计算结果从大到小的顺序顺次选择预设数量的拍摄模式,以得到所述至少一个目标拍摄模式,包括:
按照所述综合分数E从大到小的顺序顺次选择预设数量的置信度,以得到所述至少一个目标置信度;
将所述至少一个目标置信度对应的拍摄模式确定为目标拍摄模式,以得到至少一种目标拍摄模式。
4.如权利要求2所述的方法,其特征在于,
所述对所述每个拍摄对象的特征信息进行计算,以得到每个拍摄对象对应的计算结果,包括:
按照算法P=ax+by+cz计算所述每个拍摄对象是拍摄主体的概率值P,其中,x是指所述拍摄对象的置信度,y是指所述拍摄对象的成像大小,z是指所述拍摄对象与摄像头的距离,a是指所述拍摄对象的置信度的第二权重,b是指所述拍摄对象的成像大小的第二权重,c是指所述拍摄对象的与摄像头距离的第二权重,a、b和c均是大于0且小于1的数值;
所述按照所述计算结果从大到小的顺序顺次选择预设数量的拍摄模式,以得到所述至少一个目标拍摄模式,包括:
按照所述概率值P从大到小的顺序顺次选择预设数量的拍摄对象,以得到所述至少一个目标拍摄对象;
确定所述至少一个目标拍摄对象中的每个目标拍摄对象作为拍摄主体时匹配的拍摄模式,以得到至少一种目标拍摄模式。
5.如权利要求1-4中任一项所述的方法,其特征在于,响应于第一用户输入的第一拍摄指令,得到所述拍摄场景的至少一幅图像,包括:
当所述至少一个目标拍摄模式包括至少两个拍摄模式,且所述至少两个拍摄模式各不相同时,采用所述至少两个拍摄模式中的每种拍摄模式获取所述拍摄场景的图像,以得到所述拍摄场景的至少两幅图像。
6.如权利要求5所述的方法,其特征在于,所述采用所述至少两个拍摄模式中的每种拍摄模式获取所述拍摄场景的图像,包括:
判断所述至少两种目标拍摄模式相互之间每项取景参数的差值是否均小于相应取景参数对应的阈值;
若所述至少两种目标拍摄模式相互之间每项取景参数的差值均小于相应取景参数对应的阈值,按照所述至少两种目标拍摄模式中任一拍摄模式的取景参数执行取景,以得到取景后的图像数据;分别按照所述至少两种目标拍摄模式的图像处理算法,对所述图像数据进行处理,以得到所述拍摄场景的至少两幅图像;
若所述至少两种目标拍摄模式相互之间任一取景参数的差值大于相应取景参数对应的阈值,分别按照所述至少两种目标拍摄模式的取景参数执行取景,以得到两个图像数据;分别按照所述至少两个目标拍摄模式的图像处理算法对相应图像数据处理,以得到所述拍摄场景的至少两幅图像。
7.如权利要求1-4中任一项所述的方法,其特征在于,响应于第一用户输入的第一拍摄指令,得到所述拍摄场景的至少一幅图像,包括:
当所述至少一个目标拍摄模式是人像模式时,按照距离从小到大的顺序从所述至少一个拍摄对象中顺次选择至少两个拍摄对象;
采用所述人像模式获取所述拍摄场景取景后的图像数据;
分别以所述至少两个拍摄对象中每个拍摄对象为拍摄主体,按照所述人像模式对所述图像数据处理,以得到所述拍摄场景的至少两幅图像。
8.如权利要求5-7中任一项所述的方法,其特征在于,还包括:
调用至少两个摄像头采用所述至少一个目标拍摄模式执行拍摄。
9.如权利要求1-8中任一项所述的方法,其特征在于,在得到所述拍摄场景的至少一幅图像之后,还包括:
接收所述第一用户输入的第一预览指令;
堆叠显示所述至少一幅图像,所述堆叠显示是指所述至少一幅图像中的第一幅图像覆盖在所述至少一幅图像中的第二幅图像之上显示,所述第一幅图像全部显示。
10.如权利要求9所述的方法,其特征在于,还包括:
接收所述第一用户输入的第一动态显示指令;
控制所述至少一幅图像在显示屏上循环在最前端显示;
接收所述第一用户输入的第一停止动态显示指令;
控制所述第一停止动态显示指令对应的图像在最前端静态显示。
11.如权利要求9所述的方法,其特征在于,还包括:
接收所述第一用户输入的第二动态显示指令;
控制所述至少一幅图像在显示屏上循环在最前端显示;
接收所述第一用户输入的第二停止动态显示指令;
控制所述第二停止动态显示指令对应的图像在最前端静态显示。
12.如权利要求1-8中任一项所述的方法,其特征在于,在得到所述拍摄场景的至少一幅图像之后,还包括:
接收所述第一用户输入的第二预览指令;
在第一屏幕堆叠显示所述至少一幅图像,所述堆叠显示是指所述至少一幅图像中的第一幅图像覆盖在所述至少一幅图像中的第二幅图像之上显示,所述第一幅图像在所述第一屏幕全部显示。
13.如权利要求12所述的方法,其特征在于,还包括:
接收所述第一用户输入的第一手势指令;
控制所述第一手势指令对应的图像在第二屏幕显示,以及控制所述第一手势指令对应的图像之下的图像在所述第一屏幕显示。
14.如权利要求12所述的方法,其特征在于,还包括:
接收所述第一用户输入的第三动态显示指令;
控制所述至少一幅图像在所述第一屏幕循环在最前端显示;
接收所述第一用户输入的第二手势指令;
控制所述第二手势指令对应的图像在第二屏幕显示。
15.如权利要求9-14中任一项所述的方法,其特征在于,
所述在显示屏最前端显示的图像标注有所述图像对应的拍摄模式。
16.如权利要求15所述的方法,其特征在于,还包括:
接收所述第一用户输入的第二拍摄指令;
采用所述第二拍摄指令对应的拍摄模式对所述拍摄场景执行拍摄。
17.如权利要求1-16中任一项所述的方法,其特征在于,在确定拍摄场景中包含的至少一个拍摄对象中每个拍摄对象的特征信息之前,还包括:
接收所述第一用户输入的第一设置指令;
响应于所述第一设置指令,显示图像数量设置入口;
通过所述图像数量设置入口接收所述第一用户输入的拍摄得到的目标图像数量,所述至少一幅图像的数量大于或者等于所述目标图像数量。
18.一种电子设备,其特征在于,所述电子设备包括存储器和一个或多个处理器;其中,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令;当所述计算机指令被所述处理器执行时,使得所述电子设备执行如权利要求1至17中任一项所述的拍照方法。
19.一种计算机可读存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1至17中任一项所述的拍照方法。
20.一种计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如权利要求1至17中任一项所述的拍照方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010686011.5A CN113949803B (zh) | 2020-07-16 | 2020-07-16 | 拍照方法及电子设备 |
EP21842084.2A EP4181498A4 (en) | 2020-07-16 | 2021-07-08 | PHOTOGRAPHIC METHOD AND ELECTRONIC DEVICE |
US18/005,397 US20230276125A1 (en) | 2020-07-16 | 2021-07-08 | Photographing method and electronic device |
PCT/CN2021/105311 WO2022012418A1 (zh) | 2020-07-16 | 2021-07-08 | 拍照方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010686011.5A CN113949803B (zh) | 2020-07-16 | 2020-07-16 | 拍照方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113949803A true CN113949803A (zh) | 2022-01-18 |
CN113949803B CN113949803B (zh) | 2023-08-25 |
Family
ID=79326458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010686011.5A Active CN113949803B (zh) | 2020-07-16 | 2020-07-16 | 拍照方法及电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230276125A1 (zh) |
EP (1) | EP4181498A4 (zh) |
CN (1) | CN113949803B (zh) |
WO (1) | WO2022012418A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116074623A (zh) * | 2022-05-30 | 2023-05-05 | 荣耀终端有限公司 | 一种摄像头的分辨率选择方法和装置 |
CN116703692A (zh) * | 2022-12-30 | 2023-09-05 | 荣耀终端有限公司 | 一种拍摄性能优化方法和装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114449171B (zh) * | 2022-01-28 | 2023-10-27 | 青岛海信移动通信技术有限公司 | 控制摄像头的方法、终端设备、存储介质及程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080020795A1 (en) * | 2006-07-18 | 2008-01-24 | Samsung Electronics Co., Ltd. | Apparatus and method for selecting a shooting mode |
US20100208117A1 (en) * | 2009-02-18 | 2010-08-19 | Dai Shintani | Imaging apparatus |
CN108111754A (zh) * | 2017-12-18 | 2018-06-01 | 维沃移动通信有限公司 | 一种确定图像采集模式的方法及移动终端 |
CN109257543A (zh) * | 2018-11-29 | 2019-01-22 | 维沃移动通信有限公司 | 拍摄模式控制方法及移动终端 |
CN110717914A (zh) * | 2019-09-11 | 2020-01-21 | 北京迈格威科技有限公司 | 人体抠像的方法和装置 |
CN110769152A (zh) * | 2019-09-27 | 2020-02-07 | 华为技术有限公司 | 摄像处理方法、装置、终端设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110193881A1 (en) * | 2010-02-05 | 2011-08-11 | Sony Ericsson Mobile Communications Ab | Regulation of navigation speed among displayed items and tilt angle thereof responsive to user applied pressure |
US9621796B2 (en) * | 2012-03-15 | 2017-04-11 | Nokia Technologies Oy | Method, apparatus and computer program for capturing images with multiple image capture and image modification |
JP6463135B2 (ja) * | 2015-01-07 | 2019-01-30 | キヤノン株式会社 | 電子機器及び表示制御方法 |
CN105007431B (zh) * | 2015-07-03 | 2017-11-24 | 广东欧珀移动通信有限公司 | 一种基于多种拍摄场景的图片拍摄方法及终端 |
JP6598543B2 (ja) * | 2015-07-16 | 2019-10-30 | キヤノン株式会社 | 発光制御装置およびその制御方法 |
KR20170110837A (ko) * | 2016-03-24 | 2017-10-12 | 주식회사 하이딥 | 촬영 모드 전환이 용이한 모바일 단말 및 촬영 모드 전환 방법 |
CN110785995A (zh) * | 2018-09-04 | 2020-02-11 | 深圳市大疆创新科技有限公司 | 拍摄控制方法、装置、设备及存储介质 |
-
2020
- 2020-07-16 CN CN202010686011.5A patent/CN113949803B/zh active Active
-
2021
- 2021-07-08 WO PCT/CN2021/105311 patent/WO2022012418A1/zh unknown
- 2021-07-08 US US18/005,397 patent/US20230276125A1/en active Pending
- 2021-07-08 EP EP21842084.2A patent/EP4181498A4/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080020795A1 (en) * | 2006-07-18 | 2008-01-24 | Samsung Electronics Co., Ltd. | Apparatus and method for selecting a shooting mode |
US20100208117A1 (en) * | 2009-02-18 | 2010-08-19 | Dai Shintani | Imaging apparatus |
CN108111754A (zh) * | 2017-12-18 | 2018-06-01 | 维沃移动通信有限公司 | 一种确定图像采集模式的方法及移动终端 |
CN109257543A (zh) * | 2018-11-29 | 2019-01-22 | 维沃移动通信有限公司 | 拍摄模式控制方法及移动终端 |
CN110717914A (zh) * | 2019-09-11 | 2020-01-21 | 北京迈格威科技有限公司 | 人体抠像的方法和装置 |
CN110769152A (zh) * | 2019-09-27 | 2020-02-07 | 华为技术有限公司 | 摄像处理方法、装置、终端设备及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116074623A (zh) * | 2022-05-30 | 2023-05-05 | 荣耀终端有限公司 | 一种摄像头的分辨率选择方法和装置 |
CN116074623B (zh) * | 2022-05-30 | 2023-11-28 | 荣耀终端有限公司 | 一种摄像头的分辨率选择方法和装置 |
CN116703692A (zh) * | 2022-12-30 | 2023-09-05 | 荣耀终端有限公司 | 一种拍摄性能优化方法和装置 |
CN116703692B (zh) * | 2022-12-30 | 2024-06-07 | 荣耀终端有限公司 | 一种拍摄性能优化方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
EP4181498A1 (en) | 2023-05-17 |
CN113949803B (zh) | 2023-08-25 |
WO2022012418A1 (zh) | 2022-01-20 |
EP4181498A4 (en) | 2024-04-03 |
US20230276125A1 (en) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113794800B (zh) | 一种语音控制方法及电子设备 | |
CN113645351B (zh) | 应用界面交互方法、电子设备和计算机可读存储介质 | |
CN111078091A (zh) | 分屏显示的处理方法、装置及电子设备 | |
CN114679537A (zh) | 一种拍摄方法及终端 | |
CN111669459B (zh) | 键盘显示方法、电子设备和计算机可读存储介质 | |
CN114461111B (zh) | 启动功能的方法及电子设备 | |
CN110750317A (zh) | 一种桌面的编辑方法及电子设备 | |
CN111443836B (zh) | 一种暂存应用界面的方法及电子设备 | |
CN110377204B (zh) | 一种生成用户头像的方法及电子设备 | |
CN112887583A (zh) | 一种拍摄方法及电子设备 | |
WO2022012418A1 (zh) | 拍照方法及电子设备 | |
CN109857401B (zh) | 电子设备的显示方法、图形用户界面及电子设备 | |
WO2020192761A1 (zh) | 记录用户情感的方法及相关装置 | |
CN113891009B (zh) | 曝光调整方法及相关设备 | |
CN113170037A (zh) | 一种拍摄长曝光图像的方法和电子设备 | |
CN115967851A (zh) | 快速拍照方法、电子设备及计算机可读存储介质 | |
CN112068907A (zh) | 一种界面显示方法和电子设备 | |
WO2021042878A1 (zh) | 一种拍摄方法及电子设备 | |
CN113746961A (zh) | 显示控制方法、电子设备和计算机可读存储介质 | |
CN113448658A (zh) | 截屏处理的方法、图形用户接口及终端 | |
CN114995715A (zh) | 悬浮球的控制方法和相关装置 | |
WO2023241209A1 (zh) | 桌面壁纸配置方法、装置、电子设备及可读存储介质 | |
CN114205457A (zh) | 一种移动用户界面元素的方法及电子设备 | |
EP4224298A1 (en) | Screen display method and electronic device | |
CN114721614A (zh) | 一种调用其他设备能力的方法、电子设备和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |