CN116708995A - 摄影构图方法、装置及摄影设备 - Google Patents
摄影构图方法、装置及摄影设备 Download PDFInfo
- Publication number
- CN116708995A CN116708995A CN202310957845.9A CN202310957845A CN116708995A CN 116708995 A CN116708995 A CN 116708995A CN 202310957845 A CN202310957845 A CN 202310957845A CN 116708995 A CN116708995 A CN 116708995A
- Authority
- CN
- China
- Prior art keywords
- composition frame
- target
- frame
- shooting target
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000000059 patterning Methods 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 19
- 239000011248 coating agent Substances 0.000 claims description 13
- 238000000576 coating method Methods 0.000 claims description 13
- 230000009471 action Effects 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000004364 calculation method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 239000002537 cosmetic Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001172 regenerating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
本申请提供了一种摄影构图方法、装置及摄影设备,其中,该方法包括:获取拍摄目标的轮廓信息和位置信息,并根据拍摄目标的轮廓信息生成包含拍摄目标的初始构图框;检测初始构图框内是否存在陪体;在初始构图框内不存在陪体时,将初始构图框作为目标构图框输出;在初始构图框内存在陪体时,获取陪体的轮廓信息和位置信息,并基于陪体的轮廓信息和位置信息以及拍摄目标的轮廓信息和位置信息,确定陪体对拍摄目标的影响度,然后,基于影响度生成新构图框作为目标构图框输出。本申请解决了相关技术中无法智能地理解多人场景中的拍摄对象与陪体之间的关系从而导致拍摄质量不好的问题。
Description
技术领域
本申请涉及自动摄影技术领域,具体而言,涉及一种摄影构图方法、装置及摄影设备。
背景技术
智能拍摄是一种利用人工智能技术和计算机视觉算法来实现自动化和智能化的拍摄过程的技术。它利用摄影装置(如相机、摄像机)和相关的传感器,通过分析和处理图像或视频数据,自动选择和优化拍摄参数、构图和拍摄角度,以达到更好的拍摄效果。
智能拍摄涉及多种技术,如人体检测、关键点检测、表情识别、动作识别、关键物体识别和自动构图等。在进行构图之前,先通过人物检测获取目标人物的头部和身体边框以及人体关节点,得到目标任务的外部轮廓。然后以该外部轮廓为中心生成包含整个外部轮廓的构图框,这种构图方法适用于单人场景。
然而,在多人场景中,尤其是人群密集的情况下,采用这种构图方法容易导致切头切肢等问题。为了解决上述问题,发明名称为“摄影构图方法、装置、摄影设备、电子装置及存储介质”、公开号为CN110493512B的中国专利提出了一种解决方案:获取拍摄目标的轮廓信息;根据该轮廓信息对拍摄目标生成初始构图框;当初始构图框内不存在陪体时,将该初始构图框作为目标构图框输出;当初始构图框内存在陪体,且该陪体不作为拍摄目标时,重新生成陪体影响度不大于当前的构图框,并将其作为目标构图框输出;当初始构图框内存在陪体,且该陪体必须也作为拍摄目标时,将陪体和拍摄目标构成新拍摄目标,并用新拍摄目标替代拍摄目标重新执行上述步骤。该方案通过根据实际场景自适应调整构图框以适应拍摄场景中人数的变化,避免了裁手、裁脚等现象。
但是,上述方案没有考虑拍摄目标和陪体的相对位置和轮廓信息,因此无法智能地理解多人场景中的拍摄对象与陪体之间的关系,从而导致拍摄质量不好的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种摄影构图方法、装置及摄影设备,以至少解决相关技术中无法智能地理解多人场景中的拍摄对象与陪体之间的关系从而导致拍摄质量不好的问题。
根据本申请实施例的一个方面,提供了一种摄影构图方法,包括:获取拍摄目标的轮廓信息和位置信息,并根据所述拍摄目标的轮廓信息生成包含所述拍摄目标的初始构图框;检测所述初始构图框内是否存在陪体,其中,所述陪体为与所述拍摄目标在外貌、特征或类别上相似的可拍摄对象;在所述初始构图框内不存在所述陪体时,将所述初始构图框作为目标构图框输出;在所述初始构图框内存在所述陪体时,获取所述陪体的轮廓信息和位置信息,并基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,然后,基于所述影响度生成新构图框作为所述目标构图框输出。
根据本申请实施例的另一方面,还提供了一种摄影构图装置,包括:获取模块,被配置为获取拍摄目标的轮廓信息和位置信息,并根据所述拍摄目标的轮廓信息生成包含所述拍摄目标的初始构图框;检测模块,被配置为检测所述初始构图框内是否存在陪体,其中,所述陪体为与所述拍摄目标在外貌、特征或类别上相似的可拍摄对象;构图模块,被配置为:在所述初始构图框内不存在所述陪体时,将所述初始构图框作为目标构图框输出;在所述初始构图框内存在所述陪体时,获取所述陪体的轮廓信息和位置信息,并基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,然后,基于所述影响度生成新构图框作为所述目标构图框输出。
根据本申请实施例的另一方面,还提供了一种摄影设备,包括如上所述的摄影构图装置,被配置为输出所述目标构图框;摄影部件,被配置为接收到所述目标构图框后执行拍摄动作。
在本申请实施例中,在所述初始构图框内不存在所述陪体时,将所述初始构图框作为目标构图框输出;在所述初始构图框内存在所述陪体时,获取所述陪体的轮廓信息和位置信息,并基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,然后,基于所述影响度生成新构图框作为所述目标构图框输出。通过上述方案,解决了相关技术中无法智能地理解多人场景中的拍摄对象与陪体之间的关系从而导致拍摄质量不好的问题。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种自动摄影构图方法的流程图;
图2是根据本申请实施例的另一种自动摄影构图方法的流程图;
图3是根据本申请实施例的拍摄目标的轮廓信息的示意图;
图4是根据本申请实施例的陪体与初始构图框的位置关系的示意图;
图5是根据本申请实施例的生成目标构图框的一种示意图;
图6是根据本申请实施例的生成目标构图框的另一种示意图;
图7是根据本申请实施例的一种自动摄影构图装置的结构示意图;
图8示出了适于用来实现本公开实施例的电子设备的结构示意图。
其中,上述附图包括以下附图标记:
1001、CPU;1002、ROM;1003、RAM;1004、总线;1005、I/O接口;1006、输入部分;1007、输出部分;1008、存储部分;1009、通信部分;1010、驱动器;1011、可拆卸介质;72、获取模块;74、检测模块;76、构图模块;1、头部框;2、外包络框;3、身体框;4、关节点。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。应注意到 :相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
实施例1
本申请实施例提供了一种自动摄影构图方法,如图1所示,该方法包括以下步骤:
步骤S102,获取拍摄目标的轮廓信息和位置信息,并根据所述拍摄目标的轮廓信息生成包含所述拍摄目标的初始构图框。
通过使用人体检测、关键点检测等技术,可以准确地识别和提取拍摄目标的轮廓信息。这些轮廓信息可以包括人的头部、身体、以及关键节点的位置。
根据拍摄目标的轮廓信息,可以生成一个初始构图框,该构图框将包含拍摄目标的完整外观。可以使用矩形框作为构图框,其大小和形状根据拍摄目标的轮廓信息进行调整。例如,可以使用头部位置信息和脚部位置信息确定矩形框的上边界和下边界,使用身体位置信息确定矩形框的左边界和右边界。这样,生成的初始构图框将包含整个拍摄目标,并保持其完整性。
除了矩形框,还可以根据需要选择其他形状的构图框,例如圆形、椭圆形等,以适应特定的摄影要求。通过根据拍摄目标的轮廓信息和摄影要求调整构图框的形状和大小,可以确保构图框能够有效地限定摄影画面的形状和大小。
本实施例通过获取拍摄目标的轮廓信息和位置信息,并根据这些信息生成包含拍摄目标的初始构图框,能够为后续的摄影操作提供一个准确而合适的参考框架,以提高拍摄质量和效果。
步骤S104,检测所述初始构图框内是否存在陪体。
获取所述初始构图框内的除所述拍摄目标之外的其他对象,并提取所述其他对象的特征描述子和所述拍摄目标的特征描述子;基于所述其他对象的特征描述子和所述拍摄目标的特征描述子,使用特征匹配算法来比较所述其他对象与所述拍摄目标之间的相似度,并基于所述相似度确定所述其他对象是否为所述陪体。
本实施例通过使用特征描述子和特征匹配算法来检测和确定陪体,可以提高摄影构图的准确性和可靠性,确保拍摄目标的完整性,并帮助优化构图框的选择和调整,从而有助于获得更高质量和更专注于拍摄目标的图片或影像。
步骤S106,在所述初始构图框内不存在所述陪体时,将所述初始构图框作为目标构图框输出。
由于初始构图框内没有其他对象干扰,输出该构图框作为目标构图框可以保持拍摄目标的完整性。这样,拍摄结果将更加准确地呈现拍摄目标,而无需对图像进行裁剪或修复。
步骤S108,在所述初始构图框内存在所述陪体时,获取所述陪体的轮廓信息和位置信息,并基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,然后,基于所述影响度生成新构图框作为所述目标构图框输出。
在一些实施例中,可以基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,计算所述陪体的轮廓与所述拍摄目标的轮廓之间的重叠面积;基于所述重叠面积计算所述陪体与所述拍摄目标之间的重叠程度,并基于所述重叠程度来确定所述陪体对所述拍摄目标的影响度。
本实施例通过获取陪体和拍摄目标的轮廓信息和位置信息,可以量化陪体对拍摄目标的影响度,从而能够理解陪体对构图的影响程度。其次,基于这些信息,可以自动计算陪体与拍摄目标之间的重叠面积或重叠程度,实现影响度的自动化评估,提高构图过程的效率。再次,根据陪体对拍摄目标的影响度生成新的构图框,个性化调整构图,最大程度地减少陪体的干扰,使拍摄目标更突出和清晰。
在另一些实施例中,可以基于所述陪体的轮廓信息以及所述拍摄目标的轮廓信息,比较所述陪体与所述拍摄目标在所述初始构图框中的相对尺寸;基于所述陪体的位置信息以及所述拍摄目标的位置信息,确定所述陪体在所述初始构图框中与所述拍摄目标之间的空间关系;基于所述相对尺寸的比较结果和所述空间关系,确定所述陪体对所述拍摄目标的影响度。
本实施例通过比较陪体与拍摄目标在初始构图框中的相对尺寸,可以获知陪体在构图中的大小比例,进而判断陪体对拍摄目标的视觉影响程度。其次,基于陪体和拍摄目标的位置信息,可以确定陪体与拍摄目标之间的空间关系,如相对位置、相对距离等,进一步评估陪体对拍摄目标的空间影响。最后,结合相对尺寸的比较结果和空间关系,可以确定陪体对拍摄目标的影响度,有助于理解和控制陪体对构图的影响,从而进行更精准和有意义的构图调整。
具体地,可以基于重叠面积 、重叠程度、相对尺寸值、空间关系值来计算影响度,例如,可以基于以下公式计算影响度:
影响度 = (重叠面积/初始构图框面积) * (相对尺寸值 * 空间关系值) * (影响度调整系数)
其中,相对尺寸值的计算公式为:
相对尺寸值 = |陪体的面积 - 拍摄目标的面积| / max(陪体的面积, 拍摄目标的面积)
其中,陪体的面积是根据陪体的轮廓信息计算得出的面积,拍摄目标的面积是根据拍摄目标的轮廓信息计算得出的面积。该计算公式计算了陪体与拍摄目标的面积之间的差异,并将其归一化,使得值在0到1之间。当相对尺寸值接近0时,表示陪体与拍摄目标的尺寸差异很小;当相对尺寸值接近1时,表示陪体与拍摄目标的尺寸差异很大。
其中,空间关系值的计算公式为:
空间关系值 = (陪体中心与拍摄目标中心之间的距离) / (拍摄目标的对角线长度)
其中,陪体中心和拍摄目标中心分别是陪体和拍摄目标的轮廓所围成区域的中心点。拍摄目标的对角线长度是根据拍摄目标的轮廓信息计算得出的对角线长度。该计算公式计算了陪体中心与拍摄目标中心之间的相对距离,并将其归一化,使得值在0到1之间。当空间关系值接近0时,表示陪体与拍摄目标的中心距离很近;当空间关系值接近1时,表示陪体与拍摄目标的中心距离较远。
其中,影响度调整系数可以利用机器学习和人工智能技术,根据大量的训练样本自动优化,以适应不同拍摄场景和目标的需求。当然,也可以不采用该系数,即从公式中去除该系数。
本实施例通过上述计算公式,可以分别得到相对尺寸值和空间关系值,然后将它们用于影响度的计算公式中,综合考虑陪体对拍摄目标的影响程度。这样,能够更准确地量化影响度,有助于在构图过程中作出更精准的调整,从而获得更好的拍摄效果。
在所述影响度大于等于预设阈值的情况下,通过调整相机的光圈、焦距、所述相机与所述拍摄目标的距离、以及所述相机的拍摄角度中的至少之一,来生成所述新构图框作为所述目标构图框输出。在影响度大于等于预设阈值的情况下,通过调整相机的光圈、焦距、相机与拍摄目标的距离以及拍摄角度等参数之一,可以对构图进行微调,以减小陪体对拍摄目标的影响。这样,可以提高拍摄目标的清晰度和突出度,使其在图像中更加突出和引人注目。
在所述影响度小于所述预设阈值的情况下,根据所述陪体的轮廓信息和位置信息,调整所述初始构图框的位置和大小,得到所述新构图框作为所述目标构图框输出。例如,根据所述陪体的轮廓信息和位置信息,来调整所述拍摄目标的外包络框,其中,所述外包络框是根据所述拍摄目标的轮廓信息生成的;根据所述外包络框生成所述新构图框,并将所述新构图框作为所述目标构图框输出,其中,所述新构图框包含所述外包络框。
当影响度小于预设阈值时,根据陪体的轮廓信息和位置信息,调整初始构图框的位置和大小,以尽量排除陪体的干扰。通过调整构图框,可以使拍摄目标在画面中的相对位置和比例更加符合预期的构图要求,从而提高构图的整体效果。
例如,根据所述外包络框的宽度、高度和预设的摄影宽高比计算所述外包络框的宽度占比和高度占比;在所述宽度占比大于等于高度占比的情况下,根据所述外包络框的宽度和所述摄影宽高比计算所述新构图框的高度,将所述外包络框的高度以上下对称方式扩展到所述新构图框的高度,并保持所述外包络框的宽度不变,得到所述新构图框。这样,可以使新构图框更加窄高,适应宽高比的要求,同时保持拍摄目标的完整性。在所述宽度占比小于所述高度占比的情况下,根据所述外包络框的高度和所述摄影宽高比计算所述新构图框的宽度,将所述外包络框的宽度以对称方式扩展到新构图框的宽度,并保持所述外包络框的高度不变,得到所述新构图框。这样,可以使新构图框更加宽矮,符合预设的宽高比要求,同时保持拍摄目标的完整性。
本实施例通过根据外包络框的尺寸和摄影宽高比进行调整,能够有效地优化构图,使构图框与预设的宽高比相符合,并保持拍摄目标的完整性。这有助于创造出更具有视觉冲击力和美感的摄影作品。
实施例2
本申请实施例提供了另一种自动摄影构图方法,如图2所示,该方法包括:
步骤S202,获取拍摄目标的轮廓信息。
拍摄目标可以是成人或儿童,可以是一个或多个人物。当拍摄目标是人物时,轮廓信息包括人的头部、身体和各关节点的位置信息。这些位置信息可以描述一个人的外形轮廓。为了满足摄影构图的需求,轮廓信息并不需要获取人体曲线的精确细节,而可以用稍大且形状简单的封闭几何体来代替。
图3示出了一个人的轮廓信息。头部位置信息通过一个包含头部的矩形框即头部框1的位置来表示。具体地,可以使用头部框1的左上点和右下点坐标,或者使用左下点和右上点坐标来表示头部位置。身体位置信息通过一个包含身体的矩形框即身体框3的位置来表示。同样地,可以使用身体框3的左上点和右下点坐标,或者使用左下点和右上点坐标来表示身体位置。各关节点的位置通过关节点的中心点即关节点4的坐标来表示。这样可以减少处理的数据量,降低计算复杂度,并且满足摄影需求。
在开始构图前,获取拍摄目标的轮廓信息,比如,头部框1的左上点坐标和右下点坐标、身体框3的左上点坐标和右下点坐标、各个关节点的坐标;根据以上各点的坐标,得到拍摄目标的外包络框2。外包络框2为完整包围人物的头部、身体、关节点的最小矩形框。可选的,根据摄影要求,比如,只需拍摄人物的上半身,如果已建立一个整体轮廓信息的外包络框,则可从该外包络框中截取上半部分作为需要的外包络框。
在一些实施例中,为了获得轮廓信息,可以使用人体检测和关键点检测技术。人体检测技术可以识别图像中的人体位置,通常使用深度学习模型来进行准确的人体检测。关键点检测技术则用于检测人体的关键点,例如头部、手部、脚部等关键点。这些技术可以通过分析图像中的特征来识别人体的位置和关键点,从而获取轮廓信息。
例如,可以使用卷积神经网络(CNN)进行人体检测,例如使用YOLO(You Only LookOnce)或Faster R-CNN等模型。这些模型可以在图像中快速而准确地定位人体,并生成对应的边界框。然后,可以使用关键点检测技术,如OpenPose或HRNet等,来检测人体的关键点位置。这些关键点通常由人体的关节组成,例如头部、肩膀、手腕、膝盖等。
通过结合人体检测和关键点检测技术,可以获取拍摄目标的轮廓信息。这些信息可以用简单的矩形框表示头部和身体位置,而关节点的位置则可以用它们的中心点坐标表示。这种简化的表示方式可以降低计算复杂度,并满足摄影构图的需求。
步骤S204,根据所述轮廓信息对所述拍摄目标生成初始构图框。
构图框是用来限定摄影画面形状和大小的具有一定形状和尺寸的闭合框。通常情况下,构图框是矩形框,其左右宽度大于上下高度。然而,根据需要,例如在相机旋转90度实现竖拍时,构图框的上下高度将大于左右宽度。构图框的宽高比是根据摄影设备(如相机)的传感器尺寸等因素来确定的,并且有一定的要求。流行的宽高比格式包括3:2、1:1、4:3等。因此,构图框需要满足预设的摄影宽高比要求。
为了避免拍摄目标被切头或切肢等现象,根据拍摄目标的轮廓信息来生成构图框。根据摄影要求,可以选择只包含拍摄目标的上半身信息来生成构图框,或者根据一般要求保证拍摄目标的完整性,构图框需要包含整个拍摄目标的轮廓信息。
为了突出拍摄目标并提升拍摄质量,根据构图法则,拍摄目标通常应位于构图框的中心位置。一种优选的实施方式是根据轮廓信息和摄影要求得到拍摄目标的外包络框。以外包络框的中心为构图框的中心,并根据预设的摄影宽高比,获得一个完整包含拍摄目标的外包络框的矩形框。这样得到的构图框符合预设的位置构图规则和尺寸构图规则。
例如,在人物照片的情况下,如果在构图框中只有拍摄目标而没有其他人物,按照该构图框进行拍摄,拍摄目标在照片中的位置符合位置构图规则,拍摄目标的尺寸符合尺寸构图规则。预设的位置/尺寸构图规则是根据拍摄的审美需求对拍摄目标在照片中的上下左右空间位置和尺寸大小等因素进行预设判断的集合。
综上,根据拍摄目标的轮廓信息生成的构图框被称为初始构图框。初始构图框的生成是基于拍摄目标的外包络框,以满足摄影宽高比要求和位置构图规则以及尺寸构图规则的需要。
步骤S206,判断所述初始构图框内是否存在陪体。
陪体是指与拍摄目标类似的其他可拍摄目标。例如,当拍摄目标是一个自然人时,陪体可以是其他人或人群。在人员较多的聚集场合,识别和区分拍摄目标(特定的自然人)与一个或多个陪体(其他自然人),以尽可能获得以拍摄目标为中心的构图框,并获得仅包含拍摄目标的单人肖像。因此,为了提升拍摄目标的质量,需要判断初始构图框中是否存在陪体,或者初始构图框与陪体是否存在重叠。初始构图框内可能不存在陪体,或只存在一个陪体,或存在多个陪体。
步骤S208,当所述初始构图框内不存在陪体时,将所述初始构图框作为目标构图框输出。
如果在初始构图框中不存在陪体,这意味着当前形成的初始构图框仅包含拍摄目标。由于当前构图框已经是一个比较理想的构图框,能够获得仅包含单个人物等照片,因此可以将该初始构图框作为目标构图框进行输出。
步骤S210,当所述初始构图框内存在陪体时,判断是否陪体需要作为拍摄目标。
当初始构图框内存在陪体时,需要考虑陪体对拍摄目标的影响。在确定陪体是否可以从构图框中移出还是必须作为拍摄目标的一部分时,对于每个陪体,可以通过计算陪体与初始构图框的重叠面积来判断。
首先,可以设定一个预设值,表示重叠面积的阈值。如果陪体与初始构图框的重叠面积大于预设值,说明该陪体必须也作为拍摄目标的一部分。这意味着陪体与拍摄目标在构图中有着较大的重叠部分,将陪体移出可能导致拍摄目标在构图中不完整或失去重要的上下文。
其次,可以计算陪体与初始构图框的重叠面积占陪体整体面积的比例。同样,可以设定一个预设的比例阈值。如果该比例大于或等于预设值,说明该陪体必须也作为拍摄目标的一部分。这表示陪体与拍摄目标的重叠部分相对于陪体的整体面积较大,将陪体移出可能导致拍摄目标缺乏必要的背景或上下文信息。
图4示出了初始构图框内存在一个陪体的示例。大框表示初始构图框,小框表示陪体。在示例中,图4中的a表示陪体必须也作为拍摄目标的情况,b表示陪体不需要作为拍摄目标的情况。在a中,陪体的大部分位于初始构图框内,表明陪体与拍摄目标距离较近。即使通过移动初始构图框可以将陪体移出,但这样拍摄目标会位于构图框的边缘,不符合预设的构图规则。因此,在这种情况下,需要将陪体作为拍摄目标的一部分。在b中,陪体的大部分位于初始构图框外,表明陪体与拍摄目标距离较远,通过移动初始构图框可以将陪体移出,在这种情况下,陪体不作为拍摄目标的一部分。
通过计算重叠面积和面积比例,可以判断每个陪体是否必须也作为拍摄目标。这样可以更好地处理陪体对构图的影响,确保拍摄目标的质量和构图要求的符合性。
具体地,可以采用下述公式计算影响度:
影响度 = (重叠面积/初始构图框的面积) * 重叠程度* (相对尺寸值 * 空间关系值) * 影响度调整系数
其中,重叠面积计算公式:重叠面积 = ∫∫[f(陪体轮廓) * g(初始构图框轮廓)]dA。其中,f(陪体轮廓)和g(初始构图框轮廓)表示陪体和初始构图框的轮廓函数,dA表示面积元素的微元。本实施例采用了二重积分,用于计算陪体与初始构图框的重叠面积,使得计算结果更准确。
其中,重叠程度计算公式可以为:重叠程度 = (1 - 距离 / 最大距离) * 相似度。这里,距离表示陪体与构图框的中心点之间的距离,最大距离是指在构图框内最远的距离,相似度表示陪体与构图框的外貌、特征或类别上的相似度。本实施例综合考虑了距离和相似度,用于评估陪体与构图框的重叠程度,使得计算结果更精确。
其中,相对尺寸值计算公式可以为:相对尺寸值 = (|陪体的面积 - 拍摄目标的面积| / max(陪体的面积, 拍摄目标的面积))2。本实施例将相对尺寸值的计算结果平方,增加了相对尺寸值的权重,使其对影响度的贡献更显著。
其中,空间关系值计算公式:空间关系值 = (1 - 距离 / 最大距离) * (1 - 重叠面积比例)。其中,重叠面积比例 = 重叠面积 / 陪体的整体面积。本实施例综合考虑了距离和重叠面积比例,从而能够评估陪体与构图框之间的空间关系。
其中,影响度调整系数 = Σ(陪体特征权重 * 陪体特征值)。本实施例根据陪体的特征(例如颜色、纹理、形状等),为每个特征赋予相应的权重,然后将各个特征值与权重相乘后求和得到影响度调整系数。这样可以根据具体特征的重要性来调整影响度,更加精细地控制构图结果。
本实施例考虑了陪体与初始构图框的几何关系、相似度、尺寸比较、空间关系等多个因素,综合了各种权重和参数,以更精确的方式计算影响度、相对尺寸值和空间关系值,从而更精确地优化拍摄构图效果。
步骤S212,重新生成陪体影响度不大于当前的构图框。
当所述初始构图框内存在陪体,且所有陪体都不作为拍摄目标时,重新生成陪体影响度不大于当前的构图框,并将其作为目标构图框输出。当初始构图框内存在陪体时,如果所有陪体都不作为拍摄目标,意味着它们对初始构图框的影响很小。为了进一步提升拍摄质量,可以重新生成陪体影响度比当前构图框更小的构图框。陪体影响度反映了陪体对构图框的影响程度,可以通过陪体与构图框的重叠面积或重叠面积占陪体整体面积的比例等方法来评估。
例如,如图5所示,图5中的a是初始构图框,其中存在陪体,但陪体与初始构图框的重叠面积占陪体整体面积的比例较小,表明陪体不需要作为拍摄目标。通过将构图框向左移动,得到图5的b所示的构图框,此时不存在陪体,陪体与构图框的重叠面积为0,陪体的影响度降低了,可以将其作为目标构图框输出。
另一个例子是图6,图6中的a是初始构图框,其中存在陪体。在向左移动构图框以避免右边的陪体时,左边又出现了一个新的陪体。然而,很明显左边的新陪体与构图框的重叠面积比初始构图框的更小,因此可以得到一个陪体影响度更小的构图框,可以将其作为目标构图框输出。
在某些情况下,相对于初始构图框,可能无法得到陪体影响度更小的构图框。但由于陪体的影响较小,即使输出初始构图框,也可以通过裁剪摄影后的照片来避免实际照片中存在陪体。此外,如果存在多种陪体影响度更小的构图框,可以从中选择陪体影响度最小的构图框作为目标构图框输出。
步骤S214,确定新拍摄目标,并重新进行拍摄。
当所述初始构图框内存在陪体,且至少存在一个陪体必须也作为拍摄目标时,将必须也作为拍摄目标的陪体和所述拍摄目标构成新拍摄目标,并用新拍摄目标替代拍摄目标,跳转到步骤S202。
当在初始构图框内存在一个陪体,并且该陪体也必须包括在拍摄目标中时,组合该陪体和拍摄目标,得到一个新的拍摄目标。然后,用这个新的拍摄目标替代原来的拍摄目标,并重新开始生成和输出新一轮的目标构图框。
如果在初始构图框内存在多个陪体,并且其中一些或全部陪体必须作为拍摄目标,把所有必须作为拍摄目标的陪体和拍摄目标组合起来,得到一个新的拍摄目标。然后,用这个新的拍摄目标替代原来的拍摄目标,并重新开始生成和输出新一轮的目标构图框。
通常的摄影过程是这样的:发现拍摄目标,然后调整摄影设备(如相机)对准拍摄目标。在这个时候,摄影设备的视野中会有一个包含拍摄目标的图像。然后,对当前图像中的拍摄目标设定一个构图框,类似于数码相机中的预览框。如果对构图框内的图像满意,就进行拍摄。因此,在设定构图框之前,摄影设备的视野中已经有了一个包含拍摄目标的图像。如果是在一个人多密集的场景中,这个图像可能会包含陪体,而且可以获取到该图像中所有人物的轮廓信息。
作为可选项,在设定构图之前,可以一次性识别和计算图像中所有人物的轮廓信息,并将其存储起来。这样,当拍摄目标发生调整时,例如新增一个陪体,就不必重新识别和计算该陪体的轮廓信息。相反,可以利用已存储的拍摄目标的轮廓信息和该陪体的轮廓信息来得到新的拍摄目标的轮廓信息,然后进一步得到新的拍摄目标的初始构图框。当然,也可以选择在构图时先获取拍摄目标的轮廓信息,并在需要时再去识别和计算相关陪体的轮廓信息。
在本实施例中,可以动态调整拍摄目标来自适应人数不确定和动作不确定的构图,尤其适用于人物密集的场景。虽然这个示例中的构图方法是以拍摄目标为人物进行描述的,但是显然它也适用于拍摄目标为动物、植物或建筑等具有明确轮廓的物体,此处不再赘述。
实施例3
本申请实施例提供了一种摄影构图装置,如图7所示,包括:获取模块72、检测模块74和构图模块76。
获取模块72被配置为获取拍摄目标的轮廓信息和位置信息,并根据所述拍摄目标的轮廓信息生成包含所述拍摄目标的初始构图框;检测模块74被配置为检测所述初始构图框内是否存在陪体,其中,所述陪体为与所述拍摄目标在外貌、特征或类别上相似的可拍摄对象;构图模块76被配置为:在所述初始构图框内不存在所述陪体时,将所述初始构图框作为目标构图框输出;在所述初始构图框内存在所述陪体时,获取所述陪体的轮廓信息和位置信息,并基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,然后,基于所述影响度生成新构图框作为所述目标构图框输出。
本申请实施例提供了一种自动摄影设备,包括如上所述的摄影构图装置,被配置为输出所述目标构图框;摄影部件,被配置为接收到所述目标构图框后执行拍摄动作。
需要说明的是:上述实施例提供的摄影构图装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的摄影构图装置与摄影构图方法实施例属于同一构思,其具体实现过程详见方法实施例,此处不再赘述。
实施例4
图8示出了适于用来实现本公开实施例的电子设备的结构示意图。需要说明的是,图8示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,该电子设备包括中央处理单元(CPU)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有系统操作所需的各种程序和数据。CPU1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被中央处理单元(CPU)1001执行时,执行本申请的方法和装置中限定的各种功能。在一些实施例中,电子设备还可以包括AI( ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现上述方法实施例的各个步骤等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端设备,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (10)
1.一种摄影构图方法,其特征在于,包括:
获取拍摄目标的轮廓信息和位置信息,并根据所述拍摄目标的轮廓信息生成包含所述拍摄目标的初始构图框;
检测所述初始构图框内是否存在陪体,其中,所述陪体为与所述拍摄目标在外貌、特征或类别上相似的可拍摄对象;
在所述初始构图框内不存在所述陪体时,将所述初始构图框作为目标构图框输出;
在所述初始构图框内存在所述陪体时,获取所述陪体的轮廓信息和位置信息,并基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,然后,基于所述影响度生成新构图框作为所述目标构图框输出。
2.根据权利要求1所述的方法,其特征在于,基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,包括:
基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,计算所述陪体的轮廓与所述拍摄目标的轮廓之间的重叠面积;
基于所述重叠面积计算所述陪体与所述拍摄目标之间的重叠程度,并基于所述重叠程度来确定所述陪体对所述拍摄目标的影响度。
3.根据权利要求1所述的方法,其特征在于,基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,包括:
基于所述陪体的轮廓信息以及所述拍摄目标的轮廓信息,比较所述陪体与所述拍摄目标在所述初始构图框中的相对尺寸;
基于所述陪体的位置信息以及所述拍摄目标的位置信息,确定所述陪体在所述初始构图框中与所述拍摄目标之间的空间关系;
基于所述相对尺寸的比较结果和所述空间关系,确定所述陪体对所述拍摄目标的影响度。
4.根据权利要求1所述的方法,其特征在于,基于所述影响度生成新构图框作为所述目标构图框输出,包括:
在所述影响度大于等于预设阈值的情况下,通过调整以下至少之一来生成所述新构图框作为所述目标构图框输出:相机的光圈、焦距、所述相机与所述拍摄目标之间的距离、以及所述相机的拍摄角度;
在所述影响度小于所述预设阈值的情况下,根据所述陪体的轮廓信息和位置信息,调整所述初始构图框的位置和大小,得到所述新构图框作为所述目标构图框输出。
5.根据权利要求4所述的方法,其特征在于,根据所述陪体的轮廓信息和位置信息,调整所述初始构图框的位置和大小,得到所述新构图框作为所述目标构图框输出,包括:
根据所述陪体的轮廓信息和位置信息,来调整所述拍摄目标的外包络框,其中,所述外包络框是根据所述拍摄目标的轮廓信息生成的;
根据所述外包络框调整所述初始构图框的位置和大小,生成所述新构图框,并将所述新构图框作为所述目标构图框输出。
6.根据权利要求5所述的方法,其特征在于,根据所述外包络框调整所述初始构图框的位置和大小,生成所述新构图框,包括:
根据所述外包络框的宽度、高度和预设的摄影宽高比计算所述外包络框的宽度占比和高度占比;
在所述宽度占比大于等于所述高度占比的情况下,根据所述外包络框的宽度和所述摄影宽高比计算所述初始构图框的高度,将所述外包络框的高度以对称方式扩展到所述初始构图框的高度,并保持所述外包络框的宽度不变,得到所述新构图框;
在所述宽度占比小于所述高度占比的情况下,根据所述外包络框的高度和所述摄影宽高比计算所述初始构图框的宽度,将所述外包络框的宽度以对称方式扩展到所述初始构图框的宽度,并保持所述外包络框的高度不变,得到所述新构图框。
7.根据权利要求1所述的方法,其特征在于,检测所述初始构图框内是否存在陪体,包括:
获取所述初始构图框内的除所述拍摄目标之外的其他对象,并提取所述其他对象的特征描述子和所述拍摄目标的特征描述子;
基于所述其他对象的特征描述子和所述拍摄目标的特征描述子,使用特征匹配算法来比较所述其他对象与所述拍摄目标之间的相似度,并基于所述相似度确定所述其他对象是否为所述陪体。
8.一种摄影构图装置,其特征在于,包括:
获取模块,被配置为获取拍摄目标的轮廓信息和位置信息,并根据所述拍摄目标的轮廓信息生成包含所述拍摄目标的初始构图框;
检测模块,被配置为检测所述初始构图框内是否存在陪体,其中,所述陪体为与所述拍摄目标在外貌、特征或类别上相似的可拍摄对象;
构图模块,被配置为:在所述初始构图框内不存在所述陪体时,将所述初始构图框作为目标构图框输出;在所述初始构图框内存在所述陪体时,获取所述陪体的轮廓信息和位置信息,并基于所述陪体的轮廓信息和位置信息以及所述拍摄目标的轮廓信息和位置信息,确定所述陪体对所述拍摄目标的影响度,然后,基于所述影响度生成新构图框作为所述目标构图框输出。
9.一种摄影设备,其特征在于,包括:
如权利要求8所述的摄影构图装置,被配置为输出所述目标构图框;
摄影部件,被配置为在接收到所述目标构图框后执行拍摄动作。
10.一种计算机可读存储介质,其上存储有程序,其特征在于,在所述程序运行时,使得计算机执行如权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310957845.9A CN116708995B (zh) | 2023-08-01 | 2023-08-01 | 摄影构图方法、装置及摄影设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310957845.9A CN116708995B (zh) | 2023-08-01 | 2023-08-01 | 摄影构图方法、装置及摄影设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116708995A true CN116708995A (zh) | 2023-09-05 |
CN116708995B CN116708995B (zh) | 2023-09-29 |
Family
ID=87831414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310957845.9A Active CN116708995B (zh) | 2023-08-01 | 2023-08-01 | 摄影构图方法、装置及摄影设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116708995B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104243832A (zh) * | 2014-09-30 | 2014-12-24 | 北京金山安全软件有限公司 | 通过移动终端进行拍摄的方法、装置及移动终端 |
JP2015159353A (ja) * | 2014-02-21 | 2015-09-03 | オリンパス株式会社 | 撮像装置および撮像方法 |
CN109743493A (zh) * | 2018-08-27 | 2019-05-10 | 幻想动力(上海)文化传播有限公司 | 自动摄影构图方法、装置、自动摄影设备、电子装置及计算机可读存储介质 |
CN110493512A (zh) * | 2019-07-31 | 2019-11-22 | 幻想动力(上海)文化传播有限公司 | 摄影构图方法、装置、摄影设备、电子装置及存储介质 |
CN111263071A (zh) * | 2020-02-26 | 2020-06-09 | 维沃移动通信有限公司 | 一种拍摄方法及电子设备 |
CN111279389A (zh) * | 2018-12-28 | 2020-06-12 | 深圳市大疆创新科技有限公司 | 图像处理方法和装置 |
-
2023
- 2023-08-01 CN CN202310957845.9A patent/CN116708995B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015159353A (ja) * | 2014-02-21 | 2015-09-03 | オリンパス株式会社 | 撮像装置および撮像方法 |
CN104243832A (zh) * | 2014-09-30 | 2014-12-24 | 北京金山安全软件有限公司 | 通过移动终端进行拍摄的方法、装置及移动终端 |
CN109743493A (zh) * | 2018-08-27 | 2019-05-10 | 幻想动力(上海)文化传播有限公司 | 自动摄影构图方法、装置、自动摄影设备、电子装置及计算机可读存储介质 |
CN111279389A (zh) * | 2018-12-28 | 2020-06-12 | 深圳市大疆创新科技有限公司 | 图像处理方法和装置 |
CN110493512A (zh) * | 2019-07-31 | 2019-11-22 | 幻想动力(上海)文化传播有限公司 | 摄影构图方法、装置、摄影设备、电子装置及存储介质 |
CN111263071A (zh) * | 2020-02-26 | 2020-06-09 | 维沃移动通信有限公司 | 一种拍摄方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116708995B (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764091B (zh) | 活体检测方法及装置、电子设备和存储介质 | |
CN109146892B (zh) | 一种基于美学的图像裁剪方法及装置 | |
JP5538617B2 (ja) | 複数カメラのキャリブレーション用の方法および構成 | |
JP4234381B2 (ja) | 顔の特徴を位置確認するための方法及びコンピュータープログラム製品 | |
US9092662B2 (en) | Pattern recognition method and pattern recognition apparatus | |
CN108197618B (zh) | 用于生成人脸检测模型的方法和装置 | |
CN109934847B (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
CN111444744A (zh) | 活体检测方法、装置以及存储介质 | |
JP2002342756A (ja) | デジタル画像において目と口の位置を検出する方法 | |
CN108182421A (zh) | 视频分割方法和装置 | |
CN111008935B (zh) | 一种人脸图像增强方法、装置、系统及存储介质 | |
CN112200056B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN114782864B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN110493512B (zh) | 摄影构图方法、装置、摄影设备、电子装置及存储介质 | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN114783022B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN114821404A (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN113592706B (zh) | 调整单应性矩阵参数的方法和装置 | |
US20240135747A1 (en) | Information processing method, computer device, and storage medium | |
CN113129249A (zh) | 基于深度视频的空间平面检测方法及其系统和电子设备 | |
CN117115358B (zh) | 数字人自动建模方法及装置 | |
CN113221842A (zh) | 模型训练方法、图像识别方法、装置、设备及介质 | |
CN116708995B (zh) | 摄影构图方法、装置及摄影设备 | |
CN116343143A (zh) | 目标检测方法、存储介质、路侧设备及自动驾驶系统 | |
CN112037130A (zh) | 一种自适应图像拼接融合方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |