CN116347220B - 人像拍摄方法及相关设备 - Google Patents
人像拍摄方法及相关设备 Download PDFInfo
- Publication number
- CN116347220B CN116347220B CN202310616703.6A CN202310616703A CN116347220B CN 116347220 B CN116347220 B CN 116347220B CN 202310616703 A CN202310616703 A CN 202310616703A CN 116347220 B CN116347220 B CN 116347220B
- Authority
- CN
- China
- Prior art keywords
- portrait
- emotion
- group
- portraits
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000008451 emotion Effects 0.000 claims abstract description 348
- 238000007499 fusion processing Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims description 34
- 238000004422 calculation algorithm Methods 0.000 claims description 30
- 238000011156 evaluation Methods 0.000 claims description 28
- 230000000875 corresponding effect Effects 0.000 claims description 23
- 230000008909 emotion recognition Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 9
- 230000008921 facial expression Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000002596 correlated effect Effects 0.000 claims description 2
- 230000004927 fusion Effects 0.000 description 14
- 230000000694 effects Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000036651 mood Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 230000002996 emotional effect Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000000243 solution Substances 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 210000001097 facial muscle Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 239000003889 eye drop Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000000227 grinding Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本申请涉及互联网领域,公开了一种人像拍摄方法及相关设备。该方法包括:显示电子设备中相机的拍摄界面,获取拍摄界面的图像,确定拍摄界面上包括人像;进入人像拍摄模式,并对人物主体的自动对焦处理;接收用户的拍摄操作,基于第一曝光参数获取第一组人像;分别计算第一组人像中每帧人像的第一情绪值;接收用户输入的第二情绪值;根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值比较,若小于预设阈值则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;将第一组人像和第二组人像融合处理,得到目标人像。本发明能够获取到情绪自然真实的人像,提升用户在人像拍摄方面的体验和满意度。
Description
技术领域
本申请涉及互联网领域,尤其涉及一种人像拍摄方法及相关设备。
背景技术
拍照的意义在于将日常生活中稍纵即逝的平凡事物转化为永恒的视觉图像,光线是影响成片质量与美感的重要因素。生活中人们通常使用电子设备、相机等电子设备进行拍摄,其中,人像是一种最为常见的拍摄主体。
现有的人像拍摄技术中通常会因为模特状态不够放松,或者由于拍摄者选择的拍摄时机不准确,而导致所拍摄的照片中出现模特的面部肌肉僵硬、表情不自然、情绪流露不真实的情况,最为常见的就是出现“假笑”表情,其会降低用户的拍摄体验和满意度。
发明内容
本申请提供一种人像拍摄方法,通过检测人像中的情绪值并分析是否稳定,从而捕捉模特在情绪自然时的图像以解决上述技术问题。
第一方面,本申请实施例提供一种人像拍摄方法,应用于电子设备,该方法包括:
显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
进入人像拍摄模式,并启动对人物主体的自动对焦处理;
接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
分别计算第一组人像中每帧人像的第一情绪值;
接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
将第一组人像和第二组人像进行融合处理,得到目标人像。
在第一方面的第一种实现方式中,根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较之后,还包括:
若方差运算结果不小于预设阈值,则识别第一组人像中的人物性别,并计算第一组人像的第三情绪值;其中,第三情绪值为第一组人像中各帧人像的情绪值中位数;
计算第三情绪值与第二情绪值之间的情绪均值;
根据情绪均值和人物性别获取第三曝光参数和图像情绪参数,并基于第三曝光参数获取第三组人像;其中,图像情绪参数至少包括人物表情参数和白平衡参数。
将第一组人像和第三组人像进行融合处理,并基于图像情绪参数调整融合处理后得到的目标人像。
在第一方面的第二种实现方式中,显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像之前,还包括:
从预设的人像社区中获取人像样本集合;其中,人像样本集合中每张人像包含元数据,元数据包括用户评价标签、直方图、曝光参数、图像情绪参数、人物性别;
根据每张人像中包含的用户评价标签进行情感分析,确定每张人像的第一情绪值区间;
对每张人像中包含的直方图进行基于数据统计特性的图像分类,得到每张人像的第二情绪值区间;
计算每张人像在第一情绪值区间和第二情绪值区间上的交集,得到每张人像的第三情绪值区间;
将每张人像的第三情绪值区间与每张人像的曝光参数、图像情绪参数、人物性别进行关联存储。
在第一方面的第三种实现方式中,分别计算第一组人像中每帧人像的第一情绪值包括:
获取预设的情绪识别模型;其中,情绪识别模型基于神经网络训练后获得,情绪识别模型至少根据人物的面部表情特征、眼神特征、肤色特征以及肢体动作特征识别人物的情绪;
分别调用情绪识别模型处理第一组人像中每帧人像,得到第一组人像中每帧人像的第一情绪值。
在第一方面的第四种实现方式中,将第一组人像和第二组人像进行融合处理,得到目标人像包括:
对第一组人像进行融合处理,得到人物清晰的第一人像;
对第二组人像进行融合处理,得到第二人像;其中,第二人像中的人物背景清晰,且明暗比例值与第二情绪值符合预设的对应关系;
对第一人像和第二人像进行融合处理,并基于预设的人像优化算法对人物的各身体部位进行细节增强,得到目标人像。
在第一方面的第五种实现方式中,将第一组人像和第二组人像进行融合处理,得到目标人像之后,还包括:
检测目标人像中人物的背景区域;
对背景区域进行图像语义分割,得到多个语义图像模块;
获取情绪均值对应的主题色调参数集合;
根据主题色调参数集合对每个语义图像模块进行调色处理。
在第一方面的第六种实现方式中,将第一组人像和所述第二组人像进行融合处理,得到目标人像之后,还包括:
基于预设的加密算法为所述目标人像生成唯一的加密标识;
将加密标识记录在预设的区块链网络中;其中,区块链网络关联有预设的交易平台;
接收用户输入的交易请求,响应于交易请求,将加密标识上架至交易平台中;其中,交易请求中包括交易承诺许可信息和交易方式,交易方式包括租赁、授权使用以及拍卖,交易平台根据交易承诺许可信息生成智能合约,智能合约用于限制目标人像的交易发行数量。
第二方面,本申请提供一种人像拍摄装置,应用于电子设备,包括:
人像确定模块,用于显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
对焦处理模块,用于进入人像拍摄模式,并启动对人物主体的自动对焦处理;
第一曝光模块,用于接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
情绪计算模块,用于分别计算第一组人像中每帧人像的第一情绪值;
评价获取模块,用于接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
第二曝光模块,用于根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
融合处理模块,用于将第一组人像和第二组人像进行融合处理,得到目标人像。
在第二方面的第一种实现方式中,该人像拍摄装置还包括:
第一计算模块,用于若方差运算结果不小于预设阈值,则识别第一组人像中的人物性别,并计算第一组人像的第三情绪值;其中,第三情绪值为第一组人像中各帧人像的情绪值中位数;
第二计算模块,用于计算第三情绪值与第二情绪值之间的情绪均值;
第三曝光模块,用于根据情绪均值和人物性别获取第三曝光参数和图像情绪参数,并基于第三曝光参数获取第三组人像;其中,图像情绪参数至少包括人物表情参数和白平衡参数。
人像调整模块,用于将第一组人像和第三组人像进行融合处理,并基于图像情绪参数调整融合处理后得到的目标人像。
在第二方面的第二种实现方式中,该人像拍摄装置还包括:
集合获取模块,用于从预设的人像社区中获取人像样本集合;其中,人像样本集合中每张人像包含元数据,元数据包括用户评价标签、直方图、曝光参数、图像情绪参数、人物性别;
第一区间确定模块,用于根据每张人像中包含的用户评价标签进行情感分析,确定每张人像的第一情绪值区间;
第二区间确定模块,用于对每张人像中包含的直方图进行基于数据统计特性的图像分类,得到每张人像的第二情绪值区间;
第三区间确定模块,用于计算每张人像在第一情绪值区间和第二情绪值区间上的交集,得到每张人像的第三情绪值区间;
关联存储模块,用于将每张人像的第三情绪值区间与每张人像的曝光参数、图像情绪参数、人物性别进行关联存储。
在第二方面的第三种实现方式中,情绪计算模块具体包括:
模型获取单元,用于获取预设的情绪识别模型;其中,情绪识别模型基于神经网络训练后获得,情绪识别模型至少根据人物的面部表情特征、眼神特征、肤色特征以及肢体动作特征识别人物的情绪;
人像处理单元,用于分别调用情绪识别模型处理第一组人像中每帧人像,得到第一组人像中每帧人像的第一情绪值。
在第二方面的第四种实现方式中,融合处理模块具体包括:
第一融合单元,用于对第一组人像进行融合处理,得到人物清晰的第一人像;
第二融合单元,用于对第二组人像进行融合处理,得到第二人像;其中,第二人像中的人物背景清晰,且明暗比例值与第二情绪值符合预设的对应关系;
第三融合单元,用于对第一人像和第二人像进行融合处理,并基于预设的人像优化算法对人物的各身体部位进行细节增强,得到目标人像。
在第二方面的第五种实现方式中,该人像拍摄装置还包括:
背景检测模块,用于检测目标人像中人物的背景区域;
语义分割模块,用于对背景区域进行图像语义分割,得到多个语义图像模块;
参数获取模块,用于获取情绪均值对应的主题色调参数集合;
调色处理模块,根据主题色调参数集合对每个语义图像模块进行调色处理。
在第二方面的第六种实现方式中,该人像拍摄装置还包括:
加密模块,用于基于预设的加密算法为目标人像生成唯一的加密标识;
区块链存储模块,用于将加密标识记录在预设的区块链网络中;其中,区块链网络关联有预设的交易平台;
交易处理模块,用于接收用户输入的交易请求,响应于交易请求,将加密标识上架至交易平台中;其中,交易请求中包括交易承诺许可信息和交易方式,交易方式包括租赁、授权使用以及拍卖,交易平台根据交易承诺许可信息生成智能合约,智能合约用于限制目标人像的交易发行数量。
第三方面,本申请提供了一种电子设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述电子设备执行上述的人像拍摄方法的各个步骤。
第四方面,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的人像拍摄方法的各个步骤。
本发明至少存在以下有益效果:
(1)通过识别和跟踪人像,根据情绪值检测和用户反馈动态调整人像,从而获得情感效果加一致和稳定的人像,提升用户在人像拍摄方面的体验和满意度;
(2)通过使用不同的曝光参数对人物与背景分离处理,无需使用专业测光模式即可得到人物、背景清晰的人像,降低了普通用户的拍摄门槛;
(3)根据用户预期的第二曝光参数来重构人像背景区域的影调(明暗光比),从而为人像营造符合其情绪的背景氛围,从而让图像整体更加和谐,减少人像的后期处理流程。
附图说明
图1为本申请实施例中提供的第一种人像拍摄方法的实施例流程图;
图2为本申请实施例中提供的第二种人像拍摄方法的实施例流程图;
图3为本申请实施例中提供的第三种人像拍摄方法的实施例流程图;
图4为本申请实施例中提供的第四种人像拍摄方法的实施例流程图;
图5为本申请实施例中提供的第五种人像拍摄方法的实施例流程图;
图6为本申请实施例中提供的第六种人像拍摄方法的实施例流程图;
图7为本申请实施例提供的一种人像拍摄装置的结构示意图;
图8为本申请实施例提供的另一种人像拍摄装置的结构示意图;
图9为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
可以理解,本申请中涉及到的任何关于数据获取或采集的部分,均已获得用户授权;还应理解,本申请实施例提供的人像拍摄方法可以应用于电子设备、平板电脑、可穿戴设备、车载设备、增强现实(Augmented Reality,AR)/虚拟现实(Virtual Reality,VR)设备、笔记本电脑、超级移动个人计算机(Ultra-mobile Personal Computer,UMPC)、上网本、个人数字助理(Personal Digital Assistant,PDA)等电子设备上,本申请实施例对电子设备的具体类型不作任何限制。
下面对本申请实施例的具体流程进行描述,请参阅图1,图1为本申请实施例中提供的一种人像拍摄方法的实施例流程图,包括:
101、显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
本申请实施例通过在电子设备的屏幕上显示相机功能的拍摄界面,该界面可以提供实时预览,包括取景框、对焦框和其他拍摄控制参数的显示。界面设计可以直观易用,以方便用户进行拍摄操作;
具体实现中,电子设备通过预置的相机模块获取该拍摄界面的图像,该相机模块可以包括光学镜头、图像传感器和图像处理芯片,用于捕捉和处理图像数据。
示例性的,电子设备可基于图像处理技术检测实时预览界面中出现的对象,以确定拍摄界面上是否包括人像。具体实现中,电子设备可通过人脸检测和识别算法实现,包括检测人脸的位置、大小和姿态,并对其进行特征提取和比对,以确认是否存在人像。
102、进入人像拍摄模式,并启动对人物主体的自动对焦处理;
当确定拍摄界面上包括人像时,电子设备将相机功能切换至人像拍摄模式,并启动对拍摄界面中人物主体的自动对焦处理。本申请在人物主体的对焦过程中使用自动对焦技术(Automatic Focus,AF),根据人脸位置和距离等信息,调整相机镜头的焦距和焦点,以确保人物全身图像清晰锐利。
可选的,电子设备在对人物主体自动对焦处理的过程中可显示用于标识人像主体与轮廓的对焦框。其中,对焦框的样式可以根据用户的个人喜好和风格进行自定义设置。用户可以选择不同的形状、颜色和透明度等参数,以个性化定制对焦框的外观,从而增加用户的参与感和满意度,使拍摄过程更加有趣和个性化。
在一种可能的实现方式中,该对焦框可以根据人脸关键点进行自动定位和调整。通过面部识别和关键点检测技术,对焦框可以智能地跟踪人脸的关键点,例如眼睛、嘴巴等,确保对焦点始终位于人脸的关键部位,从而实现更精准的对焦;
在另一种可能的实现方式中,该对焦框还可以根据人脸表情的变化进行动态调整。具体的,电子设备通过检测人脸表情的变化和特征以识别人脸的表情状态,例如微笑、闭眼等,从而根据表情的特点调整对焦框的位置和尺寸,确保对焦点与表情特征的匹配。
103、接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
电子设备接收用户的拍摄操作指令,例如用户按下快门按钮进行拍摄,响应于该指令,根据预设的第一曝光参数设置,获取第一组人像图像,预设的第一曝光参数用于使人物的显示亮度达到预设值,确保人像图像具有适当的亮度,曝光参数可以包括曝光时间、感光度、光圈等参数,本申请实施例对其不做具体限定。
需要说明的是,本申请实施例对第一组人像中的人像帧数不做具体限定,优选为3至5张,其为某一时刻下连续拍摄的一组图像,拍摄时间间隔优选控制在0.2秒以内。
104、分别计算第一组人像中每帧人像的第一情绪值;
本申请实施例中,电子设备可以基于面部表情分析算法,通过检测人脸的表情特征,例如微笑、愤怒、惊讶等,判断当前拍摄界面中的人像所表达的情绪状态。其中,情绪值的计算过程中可以考虑多个表情特征的权重和组合,以提高准确性和鲁棒性。
可选的,由于电子设备算力有限以及更快的响应需求,电子设备还可以通过互联网先将第一组人像上传至预置的服务器上,并调用该服务器中部署的情绪识别模型处理该第一组人像中每帧人像,从而得到服务器返回的每帧人像的情绪类型及其为该情绪类型的概率值,电子设备根据人像的情绪类型在预置的情绪值对照表中查询到相应的情绪值区间,并根据人像为该情绪类型的概率值计算该人像的情绪值,例如人像A的情绪类型为开心,对应的情绪值区间为[50,100],人像A为开心的概率值为70%,则人像A的情绪值为50+(100-50)*70%=85。电子设备分别接收服务器返回的每帧人像的情绪类型及其为该情绪类型的概率值,根据上述方式分别计算对应情绪值,从而得到第一组人像中每帧人像的情绪值。
可选的,该情绪识别模型可根据人物的面部表情特征、眼神特征、肤色特征以及肢体动作特征识别人物的情绪,例如微笑通常表示开心,皱眉和紧闭的嘴巴可能表示不开心;愤怒或恐惧通常伴随着瞪大的眼睛,而悲伤或沮丧可能表现为眼神下垂;脸颊可能因为害羞而泛红,或因为恐惧而变得苍白;当人物摆出剪刀手的动作时表示开心,挺直的姿势和放松的肢体动作可能表明自信和愉悦,而弯曲的姿势和紧张的肢体动作可能表明紧张或忧虑。在一种可能的实施方式中,该情绪识别模型还可根据面部肌肉的动态变化识别每帧人像的情绪值,例如笑容的形成和消失、眉毛的抬高或皱纹的出现等。
105、接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
电子设备将接收用户输入的第二情绪值,从而与用户进行互动,例如显示情绪标签或提供情感评分的界面,让用户按照预设的评估规则对拍摄现场进行评价,选择或输入他们对人像图像所感受到的情绪值。用户的反馈将提供额外的情绪信息,以用于后续的人像处理和优化。
可选的,响应于接收到用户评价的第二情绪值,电子设备的屏幕界面中显示情绪预览区域,该情绪预览区域中包括根据该第二情绪值生成的情绪预览图像,便于用户观察并确定其评价值是否符合其预期。该情绪预览图像还可以为当前人像基于该第二情绪值微调后的低分辨率图像或局部表情图像,从而在不影响用户观察判断情绪的前提下去尽可能地提升图像的渲染效率,以及降低电子设备的负载。
106、根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
可以理解,方差为一种统计量,常用于衡量一组数据的离散程度。在本申请实施例中,电子设备通过对第一组人像中每帧人像的情绪值进行方差运算,并将其与预设阈值比较从而判断人像图像中的情绪表达是否具有稳定性和一致性,进而确定拍摄结果是否达到预期的情感效果,该预设阈值可以根据实际需求和期望的情感效果设定,用于判断人像的情绪稳定性是否符合要求。
具体实现中,电子设备首先对第一组人像的情绪值进行平均计算,得出情绪值的平均值,该平均值反映了整个第一组人像中情绪的总体趋势和倾向,从而为人像图像整体情绪表达提供一个参考指标;其次计算该第一组人像中的每帧人像的情绪值与该平均值的差值,计算每个差值的平方值,将每个差值的平方值累加求和后取平均值,从而得到第一组人像中的情绪值方差。
该情绪值方差越小,表示人像图像中情绪的变化越小,表达的一致性越高,说明人像图像已经能够较好地表达目标情绪,此时,电子设备根据用户评价的第二情绪值进一步优化待生成人像图像,从而获得更加符合用户期望的人像效果。具体实现中,电子设备根据第二情绪值从预置的数据库中获取第二曝光参数,并基于第二曝光参数获取第二组人像。可以理解,第二情绪值与第二曝光参数存在对应关系,曝光参数决定了人像中的进光量,从而构建不同的明暗对比,这种明暗对比有助于强化背景来带的氛围感,从而让所拍摄人像中的人物背景与人物的情绪更加和谐,例如在所拍摄人像中人物的情绪表现得开心积极时,可以通过提升人像中的进光量,增加亮部区域,减少暗部区域,从而使图像中人物的笑容更加明媚,进而提升用户的满意度与拍照体验。
107、将第一组人像和第二组人像进行融合处理,得到目标人像。
可以理解,在人像的融合处理过程可以使用图像合成与混合技术,结合两组人像图像的优点,去除其中的缺陷和噪声,并保留最佳的特征和细节,从而得到清晰的目标人像。
基于本申请实施例提供的方法,通过识别和跟踪人像,根据情绪值检测和用户反馈动态调整人像,从而获得情感效果加一致和稳定的人像,提升用户在人像拍摄方面的体验和满意度;同时,通过使用不同的曝光参数对人物与背景分离处理,无需使用专业测光模式即可得到人物、背景清晰的人像,避免出现“人物清晰,背景过曝”或“背景清晰,人物过曝”的情形,降低了普通用户的拍摄门槛;根据用户预期的第二曝光参数来重构人像背景区域的影调(明暗光比),从而为人像营造符合其情绪的背景氛围,从而让图像整体更加和谐,减少后期处理流程。
请参阅图2,图2为本申请实施例中提供的第二种人像拍摄方法的实施例流程图,包括:
201、显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
202、进入人像拍摄模式,并启动对人物主体的自动对焦处理;
203、接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
204、分别计算第一组人像中每帧人像的第一情绪值;
205、接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
206、根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
207、将第一组人像和第二组人像进行融合处理,得到目标人像;
其中,步骤201-207与上述步骤101-107的执行步骤类似,具体此处不再赘述。
208、若方差运算结果不小于预设阈值,则识别第一组人像中的人物性别,并计算第一组人像的第三情绪值;其中,第三情绪值为第一组人像中各帧人像的情绪值中位数;
可以理解,若计算得到的方差运算结果大于或等于预设阈值,则表明第一组人像的情绪表达存在较大的离散性,此时模特的情绪不自然,例如模特此时出现“假笑”,面部肌肉不够放松,第一组人像中相邻两帧人像的情绪值出现忽高忽低的情况,电子设备需要进一步调整图像。
具体实现中,电子设备可以通过将第一组人像中各帧人像的情绪值进行排序,从而取其中位数作为反映第一组人像整体水平的第三情绪值;
可选的,电子设备还可以去除排序后的最小情绪值和最大情绪值后再确定该第一情绪值,从而减少因图像取样带来的误差。
209、计算第三情绪值与第二情绪值之间的情绪均值;
210、根据情绪均值和人物性别获取第三曝光参数和图像情绪参数,并基于第三曝光参数获取第三组人像;其中,图像情绪参数至少包括人物表情参数和白平衡参数;
211、将第一组人像和第三组人像进行融合处理,并基于图像情绪参数调整融合处理后得到的目标人像。
可以理解,第一情绪值为真实的检测结果,第二情绪值为用户客观评价后输入的预期结果,电子设备根据的均值从预置的数据库中获取相应的第三曝光参数和图像情绪参数,根据第三曝光参数获取并融合图像,从而得到清晰的人像,以及根据图像情绪参数调整图像,从而在满足用户预期的同时,让所拍摄人像的情绪更加自然。
可选的,图像情绪参数还可以包括曝光补偿参数、色温参数等,本申请实施例对其不做具体限定。
基于本申请实施例提供的方法,在确定图像中的人物情绪在非稳定、自然时,通过获取图像情绪参数增强目标人像中人物的情绪;同时,由于使用情绪均值获取相应参数调整人像,从而能够让人物的情绪更加自然。
请参阅图3,图3为本申请实施例中提供的第三种人像拍摄方法的实施例流程图,包括:
301、从预设的人像社区中获取人像样本集合;其中,人像样本集合中每张人像包含元数据,元数据包括用户评价标签、直方图、曝光参数、图像情绪参数、人物性别;
可以理解,摄影师可以将日常拍摄的人像作品上传至预设的人像社区中,用户在网络访问人像社区时可以欣赏并对其作品进行评价,评价信息可以为至少一个评价标签;在人像作品上传的同时,该人像社区的服务器也会检测识别作品的直方图和曝光参数以及作品中人像的人物性别和图像情绪参数,其中,直方图用于表示图像中不同亮度级别或颜色分量的像素数量的分布情况,图像情绪参数包括人物的表情参数和用于营造情绪氛围的白平衡参数。
302、根据每张人像中包含的用户评价标签进行情感分析,确定每张人像的第一情绪值区间;
可以理解,情感分析可以利用自然语言处理和情感识别技术,从用户评价标签中提取情感倾向和情感类别,进而在预设的情绪值对照表中查询相对于的第一情绪值区间。
具体实现中,电子设备首先需要构建一个情感词典,其中包含积极情感词汇和消极情感词汇。情感词典可以通过人工标注或使用现有的情感词典资源构建。其次,电子设备对每张人像中的用户评价标签进行文本预处理,包括去除特殊字符、标点符号,转换为小写字母,去除停用词等。预处理后的文本有助于提取情感信息;然后,电子设备使用构建好的情感词典,对预处理后的评价标签进行情感词匹配。遍历评价标签中的词语,查找是否存在于情感词典中的积极或消极情感词,匹配到的情感词可以作为情感信息的依据;进一步的,电子设备根据匹配到的情感词,为每张人像的评价标签计算情感得分,可以为积极情感词分配正值得分,为消极情感词分配负值得分。也可以根据情感词的强度和权重进行加权计算,以获得更准确的情感得分;最后,电子设备根据情感得分,将每张人像的评价标签映射到第一情绪值区间。可以定义多个情绪值区间,如积极、中性、消极,或更细分的情绪类别。根据情感得分的范围,将每张人像分配到相应的情绪值区间中。
通过以上步骤,可以根据每张人像中包含的用户评价标签进行情感分析,并确定每张人像的第一情绪值区间。这样可以根据用户评价的情感倾向来评估人像的情绪特征,为后续的人像拍摄和处理提供情感参考。
需要注意的是,电子设备对用户评价标签的情感分析的准确性和可靠性受到情感词典质量和算法的影响,因此在实际应用中需要对情感词典进行持续更新和优化,并结合其他上下文信息进行综合分析。
303、对每张人像中包含的直方图进行基于数据统计特性的图像分类,得到每张人像的第二情绪值区间;
具体实现中,电子设备首先对每张人像的直方图进行特征提取,从而使用统计特性来描述直方图的形状和分布。其中,该直方图特征包括:均值(Mean):直方图数据的平均值,反映整体亮度或颜色的平均水平;方差(Variance):直方图数据的离散程度,反映亮度或颜色的变化范围;峰度(Kurtosis):直方图数据分布的陡峭程度,反映亮度或颜色的分布形状;偏度(Skewness):直方图数据分布的对称性,反映亮度或颜色的偏向程度。
其次,电子设备对提取的每张直方图特征进行数据标准化,数据标准化的方式包括但不限于将特征值缩放到[0, 1]范围或使用均值和标准差进行标准化,从而将不同特征的取值范围统一,以消除因量纲不同而引起的差异。
然后,电子设备使用带有标注情绪值的数据集,使用机器学习算法训练图像分类模型。该机器学习算法如支持向量机(Support Vector Machine,SVM)、决策树、随机森林等,或者深度学习模型,如卷积神经网络(Convolutional Neural Networks,CNN)等。其中,训练模型的输入为直方图特征,输出为情绪值类别或区间。
最后,电子设备利用训练好的图像分类模型,对新的直方图进行预测,并确定每张人像的第二情绪值区间。将每张人像的直方图特征输入模型,模型将输出对应的情绪值类别或区间。可以根据具体需求定义不同的情绪值区间,如高兴、平静、悲伤等。
304、计算每张人像在第一情绪值区间和第二情绪值区间上的交集,得到每张人像的第三情绪值区间;
305、将每张人像的第三情绪值区间与每张人像的曝光参数、图像情绪参数、人物性别进行关联存储;
可以理解,交集部分代表了同时满足第一情绪值区间和第二情绪值区间的情感特征,即第三情绪值区间的范围将会更加精确,通过将每张人像的第三情绪值区间与每张人像的曝光参数、图像情绪参数、人物性别进行关联存储,从而可以建立起人像图像与元数据之间的关联关系,方便后续的人像拍摄和处理过程中的调用和应用,增强人像拍摄的个性化和情感表达能力。
306、显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
307、进入人像拍摄模式,并启动对人物主体的自动对焦处理;
308、接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
309、分别计算第一组人像中每帧人像的第一情绪值;
310、接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
311、根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
312、将第一组人像和第二组人像进行融合处理,得到目标人像;
313、若方差运算结果不小于预设阈值,则识别第一组人像中的人物性别,并计算第一组人像的第三情绪值;其中,第三情绪值为第一组人像中各帧人像的情绪值中位数;
314、计算第三情绪值与第二情绪值之间的情绪均值;
315、根据情绪均值和人物性别获取第三曝光参数和图像情绪参数,并基于第三曝光参数获取第三组人像;其中,图像情绪参数至少包括人物表情参数和白平衡参数。
316、将第一组人像和第三组人像进行融合处理,并基于图像情绪参数调整融合处理后得到的目标人像。
其中,步骤306-316与上述步骤201-211的执行步骤类似,具体此处不再赘述。
基于本申请实施例提供的方法,通过基于人像社区的数据统计预先建立不同情绪值与人像的曝光参数、图像情绪参数、人物性别之间的关联关系,从而为人像情绪的调整提供数据服务支持;同时,通过计算情绪值区间的交集,提升了所存储情绪参数的准确度。
请参阅图4,图4为本申请实施例中提供的第四种人像拍摄方法的实施例流程图,包括:
401、显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
402、进入人像拍摄模式,并启动对主体人物的自动对焦处理;
403、接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
404、分别计算第一组人像中每帧人像的第一情绪值;
405、接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
406、根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
407、将第一组人像和第二组人像进行融合处理,得到目标人像;
其中,步骤401-407与上述步骤101-107的执行步骤类似,具体此处不再赘述。
408、检测目标人像中人物的背景区域;
可以理解,电子设备通过图像处理算法对目标人像进行分割,将人物与背景区域进行区分,例如基于阈值的分割算法、边缘检测算法、区域生长算法等。通过这些算法能够准确地识别人物的轮廓并确定其背景区域。
409、对背景区域进行图像语义分割,得到多个语义图像模块;
可以理解,电子设备利用图像语义分割算法对目标人像的背景区域进行进一步的细分,从而将图像分割为多个语义上具有相似特征的区域。该图像语义分割算法包括但不限于FCN、U-Net、Mask R-CNN等语义分割网络。电子设备通过应用这些算法将背景区域划分为多个语义图像模块,每个模块代表不同的语义内容,如天空、草地、建筑等。
410、获取情绪均值对应的主题色调参数集合;
可以理解,为了提取人像的情感特征并增强其情感表达,预先根据情绪均值定义了一组主题色调参数集合,这些参数集合包含与不同情绪相关的颜色信息,例如对于快乐情绪,可能包含明亮、鲜艳的颜色;而对于悲伤情绪,则可能包含柔和、冷色调的颜色。这些参数集合可以通过专家知识或大规模情感标注数据分析得到。
示例性的,主题色调参数集合为{天空:(135,206,235),草地:(127,255,0),路灯:(255,227,132)……}。其中,电子设备可以通过匹配情绪均值与主题色调参数集合中的情绪范围,或者使用插值等方法,确定最适合的主题色调参数。
411、根据主题色调参数集合对每个语义图像模块进行调色处理。
在本实施例中,针对每个语义图像模块,电子设备根据其对应的情绪均值选择合适的主题色调参数集合,并进行调色处理,以增强人像的情感表达。
具体实现中,调色处理可以包括颜色增强、色彩转换、色调映射等操作,以使图像的颜色与情绪相匹配,并增强人像的情感表达。最后,对经过调色处理的语义图像模块进行合成,以得到增强情感表达的目标人像。可以采用图像融合技术,将调色后的语义图像模块与人物区域进行融合,以确保人物与背景的整体协调和自然。
基于本申请实施例提供的方法,通过与情绪均值对应的主题色调参数集合对人像背景中识别到的各语义模块差异化调色处理,从而提升图像质量,让整个图像的色调与人物的当前情绪更加和谐,提高人像拍摄的情感效果。
请参阅图5,图5为本申请实施例中提供的第五种人像拍摄方法的实施例流程图,包括:
501、显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
502、进入人像拍摄模式,并启动对人物主体的自动对焦处理;
503、接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
504、分别计算第一组人像中每帧人像的第一情绪值 ;
505、获取接收用户输入评价的 第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
506、根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
507、将第一组人像和第二组人像进行融合处理,得到目标人像;
其中,步骤501-507与上述步骤101-107的执行步骤类似,具体此处不再赘述。
508、基于预设的加密算法为目标人像生成唯一的加密标识;
509、将加密标识记录在预设的区块链网络中;其中,区块链网络还关联有预设的交易平台;
可以理解,区块链是一个去中心化的分布式账本,其中包含一系列按顺序链接的数据块(区块)。每个区块包含一些交易或数据,并包含一个与前一个区块相关的哈希值,以确保链的完整性和安全性。
具体实现中,电子设备可使用哈希函数、椭圆曲线、Base58等加密算法生成一个唯一的加密标识,并将该标识将记录在区块链上。该加密标识是根据目标人像的内容计算得出的,即使内容发生微小的改变,生成的加密标识也会完全不同。这个标识可以用于验证人像照片的真实性和所有权,确保目标人像不会被篡改或复制。生成的加密标识将与目标人像的所有相关信息一起记录在区块链上的一个交易中。这个交易可以包含照片的元数据、拍摄时间、所有者信息等。
也可以理解,区块链上的交易记录提供了验证照片真实性和所有权的依据。任何人都可以通过访问区块链来验证人像的加密标识是否与记录一致,从而确保目标人像的真实性。由于区块链的分布式特性和不可篡改性,一旦目标人像的信息被记录在区块链上,几乎不可能篡改或删除,从而确保了人像照片的不可变性和防止未经授权的复制。
510、接收用户输入的交易请求,响应于交易请求,将加密标识上架至交易平台中;其中,交易请求中包括交易承诺许可信息和交易方式,交易方式包括租赁、授权使用以及拍卖,交易平台根据交易承诺许可信息生成智能合约,智能合约用于限制目标人像的交易发行数量。
应理解,在该交易平台中除了传统的购买和出售,还可以为人像照片引入其他交易方式,例如租赁、授权使用或拍卖等,从而确保交易的安全性、可追溯性和不可篡改性,使得这些交易更加公平和可信。同时,通过智能合约来实现,确保在达到特定的数量后停止人像照片的交易发行,通过限制每张照片的发行数量,可以为人像照片赋予稀缺性,并且确保照片的价值和稳定增长。
可选的,本申请还提供一种基于区块链技术的人像照片溯源系统,通过记录交易和所有权转移的信息,实现对人像照片历史和所有权的追溯。通过区块链技术,可以追溯照片的历史和所有权转移记录。每次交易或转让都会在区块链上创建一个新的交易记录,使得整个照片的溯源过程可追踪,确保交易的透明性和可信度。
可选的,本申请还提供一个与该区块链网络关联的虚拟资产管理系统,用于管理人像照片的所有权、许可和交易。该系统可以提供用户界面,让用户可以浏览、购买、出售或授权他人使用照片,实现数字艺术品的交易和交互。
本申请实施例提供的方法,通过结合区块链技术,人像照片的唯一性和稀缺性得到了保护,为摄影爱好者创造了一个安全、透明和有创新性的市场,他们可以通过将自己拍摄的人像照片登记在区块链上,证明其真实性和所有权,同时通过交易获得合理的报酬,从中获得更大的艺术创作激励,进一步推动数字艺术品的发展和交流。
请参阅图6,图6为本申请实施例中提供的第六种人像拍摄方法的实施例流程图,包括:
601、显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
602、进入人像拍摄模式,并启动对人物主体的自动对焦处理;
603、接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
604、分别计算第一组人像中每帧人像的第一情绪值;
605、接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
606、根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
607、对第一组人像进行融合处理,得到人物清晰的第一人像;
可以理解,针对第一组人像,电子设备采用图像融合技术对其进行处理,以获得人物清晰的第一人像。其中,图像融合可以利用加权平均法、拉普拉斯金字塔融合等算法、多帧放大算法,通过适当的权重分配和融合算法的选择,可以确保人物在第一人像中呈现出清晰的轮廓和细节。
608、对第二组人像进行融合处理,得到第二人像;其中,第二人像中的人物背景清晰,且明暗比例值与第二情绪值符合预设的对应关系;
针对第二组人像,电子设备采用图像融合技术对其进行处理,以获得人物背景清晰,并且明暗比例值与第二情绪值符合预设对应关系的第二人像。在融合处理中,将考虑人物与背景的光照关系和明暗比例,以使第二人像中的人物能够清晰地与背景区分,并且明暗比例符合预设的情感效果要求。
其中,该预设的对应关系可以为机器学习技术和大规模用户反馈数据优化后所建立,例如在明暗比例值大于或等于3:1时,此时表明人像中光线明亮,情绪值较高的人物可能呈现更加明媚的笑容,而在明暗比例值小于或等于1:2时,此时表明人像在阴影或低光条件下,情绪值可能更偏向柔和或神秘;可选的,鉴于不同用户对于不同明暗比例下的情绪感受可能存在个体差异,用户可根据喜好和意图调节明暗比例值,允许用户在一定范围内进行自定义和调整,例如通过滑动条或调节器来调整明暗比例值,使其与用户期望的情绪相匹配。
609、对第一人像和第二人像进行融合处理,并基于预设的人像优化算法对人物的各身体部位进行细节增强,得到目标人像。
本申请实施例中,电子设备将对经过融合处理的第一人像和第二人像进行最终的融合处理,以得到最终的目标人像。图像融合算法将考虑两个人像之间的平滑过渡和细节保留,以使最终的目标人像能够呈现出整体和谐的效果。
示例性的,电子设备可使用高动态范围图像(High Dynamic Range,HDR)将不同曝光下的第一人像和第二人像进行融合,从而输出动态范围更大的人像,提供更多的场景细节。该预设的人像优化算法可以为局部对比度增强、细节增强滤波器等,强调人物的面部特征、眼睛、嘴唇等重要部位。可选的,该人像优化算法的处理过程中还可以包括脸部优化对目标人像中的人脸进行分析和优化,包括皮肤平滑、磨皮、去除瑕疵、增强轮廓等,以提升人脸的美观度和细节清晰度;眼睛增强:突出人像的眼睛特征,增强眼睛的明亮度、锐利度和颜色饱和度,使眼睛更加生动有神;唇部调整:对嘴唇进行优化,增强唇色的饱和度和明亮度,使唇部更加饱满和吸引人;头发修饰:对人物头发进行修饰,增加光泽度、增强细节,并校正颜色和光照不均匀的问题;身体部位增强:根据预设的算法,对人物的各身体部位进行细节增强,如衣服纹理的增强、肌肉线条的强调等,以提升整体人物形象的质感;背景优化:对人物周围的背景进行优化,包括去除杂乱的元素、调整背景的明暗对比度和色彩平衡,使人物更加突出并与背景和谐统一。
本申请实施例提供的方法,通过将不同的曝光参数下的人像分别进行融合处理,从而得到清晰的人像和与人像中人物情绪相符的背景,最后将两者融合从而拍摄得到图像清晰且用户满意的人像照片,提升用户拍摄体验。
上面对本申请实施例中人像拍摄方法进行了描述,下面对本申请实施例中人像拍摄装置进行描述,请参阅图7,图7为本申请实施例提供的一种人像拍摄装置的结构示意图,包括:
人像确定模块701,用于显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
对焦处理模块702,用于进入人像拍摄模式,并启动对人物主体的自动对焦处理;
第一曝光模块703,用于接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
情绪计算模块704,用于分别计算第一组人像中每帧人像的第一情绪值;
评价获取模块705,用于接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
第二曝光模块706,用于根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
融合处理模块707,用于将第一组人像和第二组人像进行融合处理,得到目标人像。
基于本申请实施例提供的装置,通过识别和跟踪人像,根据情绪值检测和用户反馈动态调整人像,从而获得情感效果加一致和稳定的人像,提升用户在人像拍摄方面的体验和满意度;同时,通过使用不同的曝光参数对人物与背景分离处理,无需使用专业测光模式即可得到人物、背景清晰的人像,避免出现“人物清晰,背景过曝”或“背景清晰,人物过曝”的情形,降低了普通用户的拍摄门槛;根据用户预期的第二曝光参数来重构人像背景区域的影调(明暗光比),从而为人像营造符合其情绪的背景氛围,从而让图像整体更加和谐,减少后期处理流程。
请参阅图8,图8为本申请实施例提供的另一种人像拍摄装置的结构示意图,包括:
人像确定模块701,用于显示电子设备中相机的拍摄界面,获取拍摄界面的图像,根据图像确定拍摄界面上包括人像;
对焦处理模块702,用于进入人像拍摄模式,并启动对人物主体的自动对焦处理;
第一曝光模块703,用于接收用户的拍摄操作,响应于拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,第一曝光参数用于使人物的显示亮度达到预设值;
情绪计算模块704,用于分别计算第一组人像中每帧人像的第一情绪值;
评价获取模块705,用于接收用户输入的第二情绪值;其中,第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
第二曝光模块706,用于根据第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若方差运算结果小于预设阈值,则根据第二情绪值获取第二曝光参数,并基于第二曝光参数获取第二组人像;
融合处理模块707,用于将第一组人像和第二组人像进行融合处理,得到目标人像。
在一种可能的实施方式中,该人像拍摄装置还包括:
第一计算模块708,用于若方差运算结果不小于预设阈值,则识别第一组人像中的人物性别,并计算第一组人像的第三情绪值;其中,第三情绪值为第一组人像中各帧人像的情绪值中位数;
第二计算模块709,用于计算第三情绪值与第二情绪值之间的情绪均值;
第三曝光模块710,用于根据情绪均值和人物性别获取第三曝光参数和图像情绪参数,并基于第三曝光参数获取第三组人像;其中,图像情绪参数至少包括人物表情参数和白平衡参数。
人像调整模块711,用于将第一组人像和第三组人像进行融合处理,并基于图像情绪参数调整融合处理后得到的目标人像。
在一种可能的实施方式中,该人像拍摄装置还包括:
集合获取模块712,用于从预设的人像社区中获取人像样本集合;其中,人像样本集合中每张人像包含元数据,元数据包括用户评价标签、直方图、曝光参数、图像情绪参数、人物性别;
第一区间确定模块713,用于根据每张人像中包含的用户评价标签进行情感分析,确定每张人像的第一情绪值区间;
第二区间确定模块714,用于对每张人像中包含的直方图进行基于数据统计特性的图像分类,得到每张人像的第二情绪值区间;
第三区间确定模块715,用于计算每张人像在第一情绪值区间和第二情绪值区间上的交集,得到每张人像的第三情绪值区间;
关联存储模块716,用于将每张人像的第三情绪值区间与每张人像的曝光参数、图像情绪参数、人物性别进行关联存储。
在一种可能的实施方式中,该人像拍摄装置还包括:
背景检测模块717,用于检测目标人像中人物的背景区域;
语义分割模块718,用于对背景区域进行图像语义分割,得到多个语义图像模块;
参数获取模块719,用于获取情绪均值对应的主题色调参数集合;
调色处理模块720,根据主题色调参数集合对每个语义图像模块进行调色处理。
在一种可能的实施方式中,该人像拍摄装置还包括:
加密模块721,用于基于预设的加密算法为目标人像生成唯一的加密标识;
区块链存储模块722,用于将加密标识记录在预设的区块链网络中;其中,区块链网络关联有预设的交易平台;
交易处理模块723,用于接收用户输入的交易请求,响应于交易请求,将加密标识上架至交易平台中;其中,交易请求中包括交易承诺许可信息和交易方式,交易方式包括租赁、授权使用以及拍卖,交易平台根据交易承诺许可信息生成智能合约,智能合约用于限制目标人像的交易发行数量。
在一种可能的实施方式中,情绪计算模块704具体包括:
模型获取单元7041,用于获取预设的情绪识别模型;其中,情绪识别模型基于神经网络训练后获得,情绪识别模型至少根据人物的面部表情特征、眼神特征、肤色特征以及肢体动作特征识别人物的情绪;
人像处理单元7042,用于分别调用情绪识别模型处理第一组人像中每帧人像,得到第一组人像中每帧人像的第一情绪值。
在一种可能的实施方式中,融合处理模块707具体包括:
第一融合单元7071,用于对第一组人像进行融合处理,得到人物清晰的第一人像;
第二融合单元7072,用于对第二组人像进行融合处理,得到第二人像;其中,第二人像中的人物背景清晰,且明暗比例值与第二情绪值符合预设的对应关系;
第三融合单元7073,用于对第一人像和第二人像进行融合处理,并基于预设的人像优化算法对人物的各身体部位进行细节增强,得到目标人像。
基于本申请实施例提供的装置,通过识别和跟踪人像,根据情绪值检测和用户反馈动态调整人像,从而获得情感效果加一致和稳定的人像,提升用户在人像拍摄方面的体验和满意度;同时,通过使用不同的曝光参数对人物与背景分离处理,无需使用专业测光模式即可得到人物、背景清晰的人像,避免出现“人物清晰,背景过曝”或“背景清晰,人物过曝”的情形,降低了普通用户的拍摄门槛;根据用户预期的第二曝光参数来重构人像背景区域的影调(明暗光比),从而为人像营造符合其情绪的背景氛围,从而让图像整体更加和谐,减少后期处理流程。
上面图7至图8从模块化功能实体的角度对本申请实施例中的人像拍摄装置进行详细描述,下面从硬件处理的角度对本申请实施例中电子设备进行详细描述。
图9是本申请实施例提供的一种电子设备的结构示意图,该电子设备900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器910(例如,一个或一个以上处理器)和存储器920,一个或一个以上存储应用程序933或数据932的存储介质930。其中,存储器920和存储介质930可以是短暂存储或持久存储。存储在存储介质930的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对电子设备900中的一系列指令操作。更进一步地,处理器910可以设置为与存储介质930通信,在电子设备900上执行存储介质930中的一系列指令操作。
电子设备900还可以包括一个或一个以上电源940,一个或一个以上有线或无线网络接口950,一个或一个以上输入输出接口960,和/或,一个或一个以上操作系统931,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图9示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。本申请还提供一种人像拍摄设备,所述计算机设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述人像拍摄方法的各个步骤。
本申请还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述人像拍摄方法的各个步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种人像拍摄方法,应用于电子设备,其特征在于,所述方法包括:
显示所述电子设备中相机的拍摄界面,获取所述拍摄界面的图像,根据所述图像确定所述拍摄界面上包括人像;
进入人像拍摄模式,并启动对人物主体的自动对焦处理;
接收用户的拍摄操作,响应于所述拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,所述第一曝光参数用于使人物的显示亮度达到预设值;
分别计算所述第一组人像中每帧人像的第一情绪值;
接收用户输入的第二情绪值;其中,所述第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
根据所述第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若所述方差运算结果小于预设阈值,则根据所述第二情绪值获取第二曝光参数,并基于所述第二曝光参数获取第二组人像;
将所述第一组人像和所述第二组人像进行融合处理,得到目标人像。
2.根据权利要求1所述的人像拍摄方法,其特征在于,所述根据所述第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较之后,还包括:
若所述方差运算结果不小于预设阈值,则识别所述第一组人像中的人物性别,并计算所述第一组人像的第三情绪值;其中,所述第三情绪值为所述第一组人像中各帧人像的情绪值中位数;
计算所述第三情绪值与所述第二情绪值之间的情绪均值;
根据所述情绪均值和所述人物性别获取第三曝光参数和图像情绪参数,并基于所述第三曝光参数获取第三组人像;其中,所述图像情绪参数至少包括人物表情参数和白平衡参数;
将所述第一组人像和所述第三组人像进行融合处理,并基于所述图像情绪参数调整融合处理后得到的目标人像。
3.根据权利要求2所述的人像拍摄方法,其特征在于,所述显示所述电子设备中相机的拍摄界面,获取所述拍摄界面的图像,根据所述图像确定所述拍摄界面上包括人像之前,还包括:
从预设的人像社区中获取人像样本集合;其中,所述人像样本集合中每张人像包含元数据,所述元数据包括用户评价标签、直方图、曝光参数、图像情绪参数、人物性别;
根据每张人像中包含的用户评价标签进行情感分析,确定每张人像的第一情绪值区间;
对每张人像中包含的直方图进行基于数据统计特性的图像分类,得到每张人像的第二情绪值区间;
计算每张人像在第一情绪值区间和第二情绪值区间上的交集,得到每张人像的第三情绪值区间;
将每张人像的第三情绪值区间与每张人像的曝光参数、图像情绪参数、人物性别进行关联存储。
4.根据权利要求1所述的人像拍摄方法,其特征在于,所述分别计算所述第一组人像中每帧人像的第一情绪值包括:
获取预设的情绪识别模型;其中,所述情绪识别模型基于神经网络训练后获得,所述情绪识别模型至少根据人物的面部表情特征、眼神特征、肤色特征以及肢体动作特征识别人物的情绪;
分别调用所述情绪识别模型处理所述第一组人像中每帧人像,得到所述第一组人像中每帧人像的第一情绪值。
5.根据权利要求1所述的人像拍摄方法,其特征在于,所述将所述第一组人像和所述第二组人像进行融合处理,得到目标人像包括:
对所述第一组人像进行融合处理,得到人物清晰的第一人像;
对所述第二组人像进行融合处理,得到第二人像;其中,所述第二人像中的人物背景清晰,且明暗比例值与所述第二情绪值符合预设的对应关系;
对所述第一人像和所述第二人像进行融合处理,并基于预设的人像优化算法对人物的各身体部位进行细节增强,得到目标人像。
6.根据权利要求1所述的人像拍摄方法,其特征在于,所述将所述第一组人像和所述第二组人像进行融合处理,得到目标人像之后,还包括:
基于预设的加密算法为所述目标人像生成唯一的加密标识;
将所述加密标识记录在预设的区块链网络中;其中,所述区块链网络还关联有预设的交易平台;
接收用户输入的交易请求,响应于所述交易请求,将所述加密标识上架至所述交易平台中;其中,所述交易请求中包括交易承诺许可信息和交易方式,所述交易方式包括租赁、授权使用以及拍卖,所述交易平台根据所述交易承诺许可信息生成智能合约,所述智能合约用于限制所述目标人像的交易发行数量。
7.根据权利要求1-6中任一项所述的人像拍摄方法,其特征在于,所述将所述第一组人像和所述第二组人像进行融合处理,得到目标人像之后,还包括:
检测所述目标人像中人物的背景区域;
对所述背景区域进行图像语义分割,得到多个语义图像模块;
获取所述情绪均值对应的主题色调参数集合;
根据所述主题色调参数集合对每个语义图像模块进行调色处理。
8.一种人像拍摄装置,应用于电子设备,其特征在于,所述装置包括:
人像确定模块,用于显示所述电子设备中相机的拍摄界面,获取所述拍摄界面的图像,根据所述图像确定所述拍摄界面上包括人像;
对焦处理模块,用于进入人像拍摄模式,并启动对人物主体的自动对焦处理;
第一曝光模块,用于接收用户的拍摄操作,响应于所述拍摄操作,基于预设的第一曝光参数获取第一组人像;其中,所述第一曝光参数用于使人物的显示亮度达到预设值;
情绪计算模块,用于分别计算所述第一组人像中每帧人像的第一情绪值;
评价获取模块,用于接收用户输入的第二情绪值;其中,所述第二情绪值由用户根据预设规则对拍摄现场进行评价后得到;
第二曝光模块,用于根据所述第一组人像中每帧人像的第一情绪值进行方差运算,并将方差运算结果与预设阈值进行比较,若所述方差运算结果小于预设阈值,则根据所述第二情绪值获取第二曝光参数,并基于所述第二曝光参数获取第二组人像;
融合处理模块,用于将所述第一组人像和所述第二组人像进行融合处理,得到目标人像。
9.一种电子设备,其特征在于,所述电子设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述电子设备执行如权利要求1-7中任一项所述的人像拍摄方法的各个步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-7中任一项所述人像拍摄方法的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310616703.6A CN116347220B (zh) | 2023-05-29 | 2023-05-29 | 人像拍摄方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310616703.6A CN116347220B (zh) | 2023-05-29 | 2023-05-29 | 人像拍摄方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116347220A CN116347220A (zh) | 2023-06-27 |
CN116347220B true CN116347220B (zh) | 2023-07-21 |
Family
ID=86876275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310616703.6A Active CN116347220B (zh) | 2023-05-29 | 2023-05-29 | 人像拍摄方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116347220B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215404A (ja) * | 2000-02-04 | 2001-08-10 | Olympus Optical Co Ltd | 主要被写体検出機能を有するカメラ |
JP2013197753A (ja) * | 2012-03-16 | 2013-09-30 | Casio Comput Co Ltd | 撮像装置及びプログラム |
KR20160068516A (ko) * | 2014-12-05 | 2016-06-15 | 연세대학교 산학협력단 | 감성 효과 생성을 위한 인물 영상 처리 장치 및 그 방법 |
CN106056533A (zh) * | 2016-05-26 | 2016-10-26 | 维沃移动通信有限公司 | 一种拍照的方法及终端 |
CN106101541A (zh) * | 2016-06-29 | 2016-11-09 | 捷开通讯(深圳)有限公司 | 一种终端、拍照设备及其基于人物情绪的拍摄方法 |
CN108449543A (zh) * | 2018-03-14 | 2018-08-24 | 广东欧珀移动通信有限公司 | 图像合成的方法、装置、计算机存储介质及电子设备 |
CN108537749A (zh) * | 2018-03-29 | 2018-09-14 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
JP2020096280A (ja) * | 2018-12-12 | 2020-06-18 | キヤノン株式会社 | 撮像装置、撮像装置の制御方法、およびプログラム |
CN111771372A (zh) * | 2018-12-21 | 2020-10-13 | 华为技术有限公司 | 相机拍摄参数的确定方法和装置 |
CN113905182A (zh) * | 2020-06-22 | 2022-01-07 | 华为技术有限公司 | 一种拍摄方法及设备 |
CN113923368A (zh) * | 2021-11-25 | 2022-01-11 | 维沃移动通信有限公司 | 拍摄方法及装置 |
CN115278047A (zh) * | 2022-06-15 | 2022-11-01 | 维沃移动通信有限公司 | 拍摄方法、装置、电子设备和存储介质 |
CN116152122A (zh) * | 2023-04-21 | 2023-05-23 | 荣耀终端有限公司 | 图像处理方法和电子设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102022444B1 (ko) * | 2013-02-21 | 2019-09-18 | 삼성전자주식회사 | 복수의 카메라를 구비한 휴대 단말에서 유효한 영상들을 합성하기 위한 방법 및 이를 위한 휴대 단말 |
US20190289225A1 (en) * | 2018-03-19 | 2019-09-19 | Panasonic Intellectual Property Management Co., Ltd. | System and method for generating group photos |
-
2023
- 2023-05-29 CN CN202310616703.6A patent/CN116347220B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215404A (ja) * | 2000-02-04 | 2001-08-10 | Olympus Optical Co Ltd | 主要被写体検出機能を有するカメラ |
JP2013197753A (ja) * | 2012-03-16 | 2013-09-30 | Casio Comput Co Ltd | 撮像装置及びプログラム |
KR20160068516A (ko) * | 2014-12-05 | 2016-06-15 | 연세대학교 산학협력단 | 감성 효과 생성을 위한 인물 영상 처리 장치 및 그 방법 |
CN106056533A (zh) * | 2016-05-26 | 2016-10-26 | 维沃移动通信有限公司 | 一种拍照的方法及终端 |
CN106101541A (zh) * | 2016-06-29 | 2016-11-09 | 捷开通讯(深圳)有限公司 | 一种终端、拍照设备及其基于人物情绪的拍摄方法 |
CN108449543A (zh) * | 2018-03-14 | 2018-08-24 | 广东欧珀移动通信有限公司 | 图像合成的方法、装置、计算机存储介质及电子设备 |
CN108537749A (zh) * | 2018-03-29 | 2018-09-14 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
JP2020096280A (ja) * | 2018-12-12 | 2020-06-18 | キヤノン株式会社 | 撮像装置、撮像装置の制御方法、およびプログラム |
CN111771372A (zh) * | 2018-12-21 | 2020-10-13 | 华为技术有限公司 | 相机拍摄参数的确定方法和装置 |
CN113905182A (zh) * | 2020-06-22 | 2022-01-07 | 华为技术有限公司 | 一种拍摄方法及设备 |
CN113923368A (zh) * | 2021-11-25 | 2022-01-11 | 维沃移动通信有限公司 | 拍摄方法及装置 |
CN115278047A (zh) * | 2022-06-15 | 2022-11-01 | 维沃移动通信有限公司 | 拍摄方法、装置、电子设备和存储介质 |
CN116152122A (zh) * | 2023-04-21 | 2023-05-23 | 荣耀终端有限公司 | 图像处理方法和电子设备 |
Non-Patent Citations (2)
Title |
---|
不同曝光值图像的直接融合方法;张军;戴霞;孙德全;王邦平;;软件学报(第04期);全文 * |
夜色佳人――教你如何拍摄夜景人像;天唯创造lw;;电脑爱好者(普及版)(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116347220A (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021073417A1 (zh) | 表情生成方法、装置、设备及存储介质 | |
Baskan et al. | Projection based method for segmentation of human face and its evaluation | |
Kucer et al. | Leveraging expert feature knowledge for predicting image aesthetics | |
Redi et al. | The beauty of capturing faces: Rating the quality of digital portraits | |
CN103945104B (zh) | 信息处理方法及电子设备 | |
CN108810406B (zh) | 人像光效处理方法、装置、终端及计算机可读存储介质 | |
Mavridaki et al. | A comprehensive aesthetic quality assessment method for natural images using basic rules of photography | |
US20060153429A1 (en) | Method for controlling photographs of people | |
CN111866394A (zh) | 拍照方法、装置、终端及计算机可读存储介质 | |
JP2008186303A (ja) | 画像処理装置、画像処理方法、プログラム及び記憶媒体 | |
CN108898125A (zh) | 一种基于嵌入式人脸识别管理系统 | |
JP2010507854A (ja) | ビデオイメージシーケンスを仮想シミュレーションする方法及び装置 | |
WO2017177259A1 (en) | System and method for processing photographic images | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
KR102009130B1 (ko) | 실시간 메이크업 진단 및 질의응답 서비스 제공 시스템 | |
WO2018192245A1 (zh) | 一种基于美学评价的照片自动评分方法 | |
CN107820018A (zh) | 用户拍照方法、装置及设备 | |
Shu et al. | Eyeopener: Editing eyes in the wild | |
Rosin et al. | Benchmarking non-photorealistic rendering of portraits | |
CN105580050A (zh) | 提供图像中的控制点 | |
US20240020843A1 (en) | Method for detecting and segmenting the lip region | |
Maleš et al. | Aesthetic quality assessment of headshots | |
US20160140748A1 (en) | Automated animation for presentation of images | |
CN113361513A (zh) | 移动端舌象采集方法、装置及设备 | |
CN116347220B (zh) | 人像拍摄方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |