CN115174803A - 自动拍照方法及相关设备 - Google Patents
自动拍照方法及相关设备 Download PDFInfo
- Publication number
- CN115174803A CN115174803A CN202210699951.7A CN202210699951A CN115174803A CN 115174803 A CN115174803 A CN 115174803A CN 202210699951 A CN202210699951 A CN 202210699951A CN 115174803 A CN115174803 A CN 115174803A
- Authority
- CN
- China
- Prior art keywords
- similarity
- expression
- preset
- video frame
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000014509 gene expression Effects 0.000 claims abstract description 128
- 238000003384 imaging method Methods 0.000 claims abstract description 20
- 230000036544 posture Effects 0.000 claims description 57
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 3
- 230000003631 expected effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Studio Devices (AREA)
Abstract
本申请实施例提供了一种自动拍照方法及相关设备。该自动拍照方法包括:获取视频帧图像;确定被摄人是否处于预定拍摄位置;若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,所述第一相似度为所述视频帧图像中被摄人姿势与所述预设姿势的相似度,所述第二相似度所述视频帧图像中被摄人表情与所述预设表情的相似度;若所述第一相似度大于第一相似度阈值且所述第二相似度大于第二相似度阈值,截取所述视频帧图像作为最终成像输出,解决了用户得不到符合其预期效果的照片的问题。
Description
技术领域
本申请涉及计算机及通信技术领域,具体而言,涉及一种自动拍照方法及相关设备。
背景技术
随着摄像设备的快速发展,人们使用的各种终端设备都携带有摄像投,目前,拍照已成为用户常用的功能之一。
在目前的使用场景下,一般用户的拍摄质量很难保证,拍摄效果也很难达到用户的期待。同时,在一些复杂场景下,用户拍照还需要他人帮助,而帮助拍照的人的拍照水平也不一定很高,拍摄效果也很难达到用户的期待。
发明内容
本申请的实施例提供了一种自动拍照方法及相关设备,进而至少在一定程度上可以使用户得到符合其预期效果的照片。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请实施例的一个方面,提供了一种自动拍照方法,包括:
获取视频帧图像;
确定被摄人是否处于预定拍摄位置;
若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,所述第一相似度为所述视频帧图像中被摄人姿势与所述预设姿势的相似度,所述第二相似度所述视频帧图像中被摄人表情与所述预设表情的相似度;
若所述第一相似度大于第一相似度阈值且所述第二相似度大于第二相似度阈值,截取所述视频帧图像作为最终成像输出。
在本申请的一个实施例中,所述确定被摄人是否处于预定拍摄位置具体包括:
通过点阵雷达获取被摄人至拍照设备的距离;
根据所述视频帧图像和所述被摄人至拍照设备的距离,确定被摄人是否处于预定拍摄位置。
在本申请的一个实施例中,在若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度之前,所述方法还包括:
响应于用户的设置操作,获取所述用户设置的姿势,将用户设置的姿势作为预设姿势。
在本申请的一个实施例中,在若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度之前,所述方法还包括:
获取拍照姿势资源包,所述拍照姿势资源包中包含有多种拍照姿势。
在本申请的一个实施例中,所述若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度具体包括:
将所述视频帧图像与所述预设姿势输入姿势判断子模型,所述姿势判断模型输出第一相似度;
将所述视频帧图像与所述预设姿势输入表情判断子模型,所述表情判断模型输出第二相似度。
在本申请的一个实施例中,所述姿势判断子模型的训练方法具体包括:
获取由视频帧图像与预设姿势组成的姿势样本对集合,其中每个姿势样本对均事先标定对应的第一相似度;
将每个所述姿势样本对的数据分别输入姿势判断子模型,得到所述姿势判断子模型输出的第一相似度;
如果存在有所述姿势样本对的数据输入姿势判断子模型后,得到的第一相似度与对所述姿势样本对事先标定的第一相似度不一致,则调整所述姿势判断子模型的系数,直到一致;
当所有所述姿势样本对的数据输入姿势判断子模型后,得到的第一相似度与对所述姿势样本对事先标定的第一相似度一致,训练结束。
在本申请的一个实施例中,所述表情判断子模型的训练方法具体包括:
获取由视频帧图像与预设表情组成的表情样本对集合,其中每个表情样本对均事先标定对应的第二相似度;
将每个所述表情样本对的数据分别输入表情判断子模型,得到所述筛选输出的第二相似度;
如果存在有所述表情样本对的数据输入表情判断子模型后,得到的第二相似度与对所述表情样本对事先标定的第二相似度不一致,则调整所述表情判断子模型的系数,直到一致;
当所有所述表情样本对的数据输入表情判断子模型后,得到的第二相似度与对所述表情样本对事先标定的第二相似度一致,训练结束。
根据本申请实施例的一个方面,提供了一种自动拍照装置,所述自动拍照装置包括:
图像获取模块,用于获取视频帧图像;
位置确定模块,用于确定被摄人是否处于预定拍摄位置;
模型判断模块,用于若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,所述第一相似度为所述视频帧图像中被摄人姿势与所述预设姿势的相似度,所述第二相似度所述视频帧图像中被摄人表情与所述预设表情的相似度;
成像输出模块,用于若视频帧图像中被摄人的姿势与所述预定姿势的相似度大于第一相似度阈值且视频帧图像中被摄人的表情与所述预定表情的相似度大于第二相似度阈值,截取所述视频帧图像作为最终成像输出。
根据本申请实施例的一个方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中所述的自动拍照方法。
在本申请的一些实施例所提供的技术方案中,先判断被摄用户是否处于适合的位置,即预定拍摄位置,若其处于适合的位置,再判断其姿势和表情是否适合,具体方式即和预设姿势、预设表情进行对比,若其姿势和表情都合适,则其成像能够符合用户预期,此时截取该帧视频帧图像作为最终成像输出,即解决了用户得不到符合其预期效果的照片的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本申请实施例的技术方案的示例性系统架构的示意图;
图2示意性示出了根据本申请的一个实施例的自动拍照方法的流程图。
图3是根据图2对应实施例示出的自动拍照方法中步骤S200的一种具体实现流程图。
图4是根据图2对应实施例示出的自动拍照方法中步骤S300的一种具体实现流程图。
图5示意性示出了根据本申请的一个实施例的自动拍照装置的框图。
图6示出了适于用来实现本申请实施例的电子设备的计算机系统的结构。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1示出了可以应用本申请实施例的技术方案的示例性系统架构的示意图。
如图1所示,系统架构可以包括终端设备(如图1中所示智能手机101、平板电脑102和便携式计算机103中的一种或多种,当然也可以是台式计算机等等)、网络104和服务器105。网络104用以在终端设备和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备通过网络104与服务器105交互,以接收或发送消息等。服务器105可以是提供各种服务的服务器。例如用户利用终端设备103(也可以是终端设备101或102)向服务器105上传视频帧图像,服务器105可以基于视频帧图像确定被摄人是否处于预定拍摄位置;若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,所述第一相似度为所述视频帧图像中被摄人姿势与所述预设姿势的相似度,所述第二相似度所述视频帧图像中被摄人表情与所述预设表情的相似度;若所述第一相似度大于第一相似度阈值且所述第二相似度大于第二相似度阈值,截取所述视频帧图像作为最终成像输出。
需要说明的是,本申请实施例所提供的自动拍照方法一般由服务器105执行,相应地,自动拍照装置一般设置于服务器105中。但是,在本申请的其它实施例中,终端设备也可以与服务器具有相似的功能,从而执行本申请实施例所提供的自动拍照的方案。
以下对本申请实施例的技术方案的实现细节进行详细阐述:
图2示出了根据本申请的一个实施例的自动拍照方法的流程图,该自动拍照方法可以由服务器来执行,该服务器可以是图1中所示的服务器。
参照图2所示,该自动拍照方法至少包括:
步骤S100,获取视频帧图像;
步骤S200,确定被摄人是否处于预定拍摄位置;
步骤S300,若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,所述第一相似度为所述视频帧图像中被摄人姿势与所述预设姿势的相似度,所述第二相似度所述视频帧图像中被摄人表情与所述预设表情的相似度;
步骤S400,若所述第一相似度大于第一相似度阈值且所述第二相似度大于第二相似度阈值,截取所述视频帧图像作为最终成像输出。
在本申请的实施例中,先获取视频图像,然后确定被摄人是否处于预定拍摄位置,如果被摄人处于预定拍摄位置,则其处于合适的成像位置,此时再判定被摄人的姿势和表情是否适合成像,具体地,是通过将被摄人的姿势和预定姿势比较得到第一相似度,将被摄人的表情和预定表情比较得到第二相似度,若第一相似度大于第一相似度阈值且第二相似度也大于第二相似度阈值,则证明被摄人的姿势和表情都适合成像,此时截取所述视频帧图像作为最终成像输出,就可以得到一张符合用户期待的照片。
本申请的实施例通过先判断被摄用户是否处于适合的位置,即预定拍摄位置,若其处于适合的位置,再判断其姿势和表情是否适合,具体方式即和预设姿势、预设表情进行对比,若其姿势和表情都合适,则其成像能够符合用户预期,此时截取该帧视频帧图像作为最终成像输出,即解决了用户得不到符合其预期效果的照片的问题。
在步骤S100中,当设备开启摄像模式时,即开始实时获取视频帧图像。
在步骤S200中,预定拍摄位置即适合成像的位置,其和镜头的景深、画幅、视角等参数相关,也和用户在画面中所占的面积、位置相关。
在本步骤中,确定被摄人是否处于预定拍摄位置的具体方式有多种,可以是将视频帧图像直接输入距离判定模型,距离判定模型直接判断该帧视频帧图像中,被摄人是否处于预定拍摄位置;也可以是通过雷达等探测器测出被摄人在实际空间中的位置,并结合视频帧图像,综合判断用户是否处于判定模型。
具体地,在一些实施例中,步骤S200的具体实施方式可以参阅图3。图3是根据图2对应实施例示出的自动拍照方法中步骤S200的细节描述,所述自动拍照方法中,步骤S200可以包括以下步骤:
步骤S210,通过点阵雷达获取被摄人至拍照设备的距离;
步骤S220,根据所述视频帧图像和所述被摄人至拍照设备的距离,确定被摄人是否处于预定拍摄位置。
在本实施例中,先通过点阵雷达获取被摄人至拍照设备的距离,根据该距离可得知被摄人在实际空间中所处的位置,然后根据所述视频帧图像和所述被摄人至拍照设备的距离,确定被摄人是否处于预定拍摄位置。
具体地,步骤S220的判断步骤可以是将所述视频帧图像和所述被摄人至拍照设备的距离输入机器学习模型,由机器学习模型输出判定的结果,也可以是根据被摄人至拍照设备的距离,确定被摄人是否处于镜头的景深范围内,是否完全处于镜头的视角范围内。同时,根据视频帧图像,确定被摄人在图像中的位置和背景的关系是否和谐以及用户在画面中所占的面积是否合适。
在步骤S200的判断完成后,可以根据判断结果给被摄人发送提示信息,以使被摄人知道其所处位置是否适合拍照。提示信息的展示方式可以是通过手环、手表、耳机以及眼睛等穿戴设备的震动或提示音实现。下面将以震动为例进行说明。
例如,可以在被摄人还未处于预定拍摄位置时,向用户发送震动信息,提示被摄人移步至预定拍摄位置;也可以在被摄人处于预定拍摄位置时,向被摄人发送震动信息,提示被摄人摆好姿势拍照。
若在步骤S200中确定被摄人处于预定拍摄位置,则执行步骤S300进行进一步判断。
在步骤S300中,将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,通过第一相似度和第二相似度确定被摄人的姿势、表情是否合适,成片是否能符合用户的预期。
其中,预设姿势可以是剪刀手、比心、点赞、张开双臂、跳起等姿势,其可以由被摄人或者摄影师设置,也可以是通过网络、数据库等获取的拍照姿势资源包。
具体地,在一些实施例中,在步骤S300之前所述方法还包括:
响应于用户的设置操作,获取所述用户设置的姿势,将用户设置的姿势作为预设姿势。
在本实施例中,预设姿势是被摄人或者摄影师设置的,其具体设置方式可以是通过选择姿势模板设置,可以是通过画出骨架走线设置,当用户设置好姿势后,就可以将用户设置的姿势作为预设姿势。
具体地,在另一些实施例中,在步骤S300之前所述方法还包括:
获取拍照姿势资源包,所述拍照姿势资源包中包含有多种拍照姿势。
根据所述拍照姿势资源包中的多种拍照姿势,设置预设姿势。
在本实施例中,预设姿势是通过网络、数据库等获取的拍照姿势资源包确定的。在本实施例中,预设姿势可以有多种,可以将拍照姿势资源包中包含的拍照姿势均设置为预设姿势,也可以根据视频帧图像的背景和被摄人的位置在拍照姿势资源包筛选一个或多个姿势作为预设姿势。
同时,预设表情可以是微笑、开心、惊喜、闭眼、三无脸等表情,其可以由被摄人或者摄影师设置,也可以是通过网络、数据库等获取的拍照表情资源包。
具体地,在一些实施例中,在步骤S300之前所述方法还包括:
响应于用户的设置操作,获取所述用户设置的表情,将用户设置的表情作为预设表情。
在本实施例中,预设表情是被摄人或者摄影师设置的,其具体设置方式可以是通过选择表情模板设置,可以是通过绘制表情简图设置,当用户设置好表情后,就可以将用户设置的表情作为预设表情。
具体地,在另一些实施例中,在步骤S300之前所述方法还包括:
获取拍照表情资源包,所述拍照表情资源包中包含有多种拍照表情。
根据所述拍照表情资源包中的多种拍照表情,设置预设表情。
在本实施例中,预设表情是通过网络、数据库等获取的拍照表情资源包确定的。在本实施例中,预设表情可以有多种,可以将拍照表情资源包中包含的拍照表情均设置为预设表情,也可以根据视频帧图像的背景和被摄人的位置在拍照表情资源包筛选一个或多个表情作为预设表情。
具体地,在一些实施例中,步骤S300的具体实施方式可以参阅图4。图4是根据图2对应实施例示出的自动拍照方法中步骤S300的细节描述,所述自动拍照方法中,所述相似度判断模型包括姿势判断子模型和表情判断子模型,步骤S300可以包括以下步骤:
步骤S310,将所述视频帧图像与所述预设姿势输入姿势判断子模型,所述姿势判断模型输出第一相似度;
步骤S320,将所述视频帧图像与所述预设姿势输入表情判断子模型,所述表情判断模型输出第二相似度。
在本实施例中,相似度判断模型包括两个子模型,关于姿势的第一相似度和关于表情的第二相似度分别由两个子模型进行判断。
在步骤S310中,将视频帧图像与预设姿势输入姿势判断子模型,通过姿势判断子模型对比视频图像中被摄人姿势和预设姿势的相似度。
其中,所述姿势判断子模型的训练方法具体包括:
获取由视频帧图像与预设姿势组成的姿势样本对集合,其中每个姿势样本对均事先标定对应的第一相似度;
将每个所述姿势样本对的数据分别输入姿势判断子模型,得到所述姿势判断子模型输出的第一相似度;
如果存在有所述姿势样本对的数据输入姿势判断子模型后,得到的第一相似度与对所述姿势样本对事先标定的第一相似度不一致,则调整所述姿势判断子模型的系数,直到一致;
当所有所述姿势样本对的数据输入姿势判断子模型后,得到的第一相似度与对所述姿势样本对事先标定的第一相似度一致,训练结束。
在步骤S320中,将视频帧图像与预设表情输入表情判断子模型,通过表情判断子模型对比视频图像中被摄人表情和预设表情的相似度。
其中,所述表情判断子模型的训练方法具体包括:
获取由视频帧图像与预设表情组成的表情样本对集合,其中每个表情样本对均事先标定对应的第二相似度;
将每个所述表情样本对的数据分别输入表情判断子模型,得到所述筛选输出的第二相似度;
如果存在有所述表情样本对的数据输入表情判断子模型后,得到的第二相似度与对所述表情样本对事先标定的第二相似度不一致,则调整所述表情判断子模型的系数,直到一致;
当所有所述表情样本对的数据输入表情判断子模型后,得到的第二相似度与对所述表情样本对事先标定的第二相似度一致,训练结束。
在本实施例中,步骤S310和步骤S320可以同步执行,也可以异步执行,本申请在此不做限定。
在步骤S400中,若第一相似度大于第一相似度阈值且第二相似度大于第二相似度阈值,则证明当前视频帧图像符合用户预期,可以截取该帧视频帧图像作为视频帧图像输出。
若第一相似度不大于第一相似度阈值,可以发送提示信息给被摄人,提示其姿势不对,以辅助其摆出正确的姿势。同理,若第二相似度不大于第二相似度阈值,也可以发送提示信息给被摄人,提示其表情不对,以辅助其做出正确的表情。
图5示出了根据本申请的一个实施例的自动拍照装置的框图。
参照图5所示,根据本申请的一个实施例的自动拍照装置500,包括:
图像获取模块510,用于获取视频帧图像;
位置确定模块520,用于确定被摄人是否处于预定拍摄位置;
模型判断模块530,用于若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,所述第一相似度为所述视频帧图像中被摄人姿势与所述预设姿势的相似度,所述第二相似度所述视频帧图像中被摄人表情与所述预设表情的相似度;
成像输出模块540,用于若视频帧图像中被摄人的姿势与所述预定姿势的相似度大于第一相似度阈值且视频帧图像中被摄人的表情与所述预定表情的相似度大于第二相似度阈值,截取所述视频帧图像作为最终成像输出。
图6示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图6示出的电子设备的计算机系统仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统包括中央处理单元(Central Processing Unit,CPU)1801,其可以根据存储在只读存储器(Read-Only Memory,ROM)1802中的程序或者从存储部分1808加载到随机访问存储器(Random Access Memory,RAM)1803中的程序而执行各种适当的动作和处理,例如执行上述实施例中所述的方法。在RAM 1803中,还存储有系统操作所需的各种程序和数据。CPU 1801、ROM 1802以及RAM 1803通过总线1804彼此相连。输入/输出(Input/Output,I/O)接口1805也连接至总线1804。
以下部件连接至I/O接口1805:包括键盘、鼠标等的输入部分1806;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分1807;包括硬盘等的存储部分1808;以及包括诸如LAN(Local AreaNetwork,局域网)卡、调制解调器等的网络接口卡的通信部分1809。通信部分1809经由诸如因特网的网络执行通信处理。驱动器1810也根据需要连接至I/O接口1805。可拆卸介质1811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1810上,以便于从其上读出的计算机程序根据需要被安装入存储部分1808。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的计算机程序。在这样的实施例中,该计算机程序可以通过通信部分1809从网络上被下载和安装,和/或从可拆卸介质1811被安装。在该计算机程序被中央处理单元(CPU)1801执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本申请实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的计算机程序。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的计算机程序可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。其中,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本申请实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的实施方式后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种自动拍照方法,其特征在于,包括:
获取视频帧图像;
确定被摄人是否处于预定拍摄位置;
若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,所述第一相似度为所述视频帧图像中被摄人姿势与所述预设姿势的相似度,所述第二相似度所述视频帧图像中被摄人表情与所述预设表情的相似度;
若所述第一相似度大于第一相似度阈值且所述第二相似度大于第二相似度阈值,截取所述视频帧图像作为最终成像输出。
2.如权利要求1所述的自动拍照方法,其特征在于,所述确定被摄人是否处于预定拍摄位置具体包括:
通过点阵雷达获取被摄人至拍照设备的距离;
根据所述视频帧图像和所述被摄人至拍照设备的距离,确定被摄人是否处于预定拍摄位置。
3.如权利要求1所述的自动拍照方法,其特征在于,在若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度之前,所述方法还包括:
响应于用户的设置操作,获取所述用户设置的姿势,将用户设置的姿势作为预设姿势。
4.如权利要求1所述的自动拍照方法,其特征在于,在若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度之前,所述方法还包括:
获取拍照姿势资源包,所述拍照姿势资源包中包含有多种拍照姿势;
根据所述拍照姿势资源包中的多种拍照姿势,设置预设姿势。
5.如权利要求1所述的自动拍照方法,其特征在于,所述相似度判断模型包括姿势判断子模型和表情判断子模型,所述若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度具体包括:
将所述视频帧图像与所述预设姿势输入姿势判断子模型,所述姿势判断模型输出第一相似度;
将所述视频帧图像与所述预设姿势输入表情判断子模型,所述表情判断模型输出第二相似度。
6.如权利要求5所述的自动拍照方法,其特征在于,所述姿势判断子模型的训练方法具体包括:
获取由视频帧图像与预设姿势组成的姿势样本对集合,其中每个姿势样本对均事先标定对应的第一相似度;
将每个所述姿势样本对的数据分别输入姿势判断子模型,得到所述姿势判断子模型输出的第一相似度;
如果存在有所述姿势样本对的数据输入姿势判断子模型后,得到的第一相似度与对所述姿势样本对事先标定的第一相似度不一致,则调整所述姿势判断子模型的系数,直到一致;
当所有所述姿势样本对的数据输入姿势判断子模型后,得到的第一相似度与对所述姿势样本对事先标定的第一相似度一致,训练结束。
7.如权利要求1所述的自动拍照方法,其特征在于,所述表情判断子模型的训练方法具体包括:
获取由视频帧图像与预设表情组成的表情样本对集合,其中每个表情样本对均事先标定对应的第二相似度;
将每个所述表情样本对的数据分别输入表情判断子模型,得到所述筛选输出的第二相似度;
如果存在有所述表情样本对的数据输入表情判断子模型后,得到的第二相似度与对所述表情样本对事先标定的第二相似度不一致,则调整所述表情判断子模型的系数,直到一致;
当所有所述表情样本对的数据输入表情判断子模型后,得到的第二相似度与对所述表情样本对事先标定的第二相似度一致,训练结束。
8.一种自动拍照装置,其特征在于,所述自动拍照装置包括:
图像获取模块,用于获取视频帧图像;
位置确定模块,用于确定被摄人是否处于预定拍摄位置;
模型判断模块,用于若被摄人处于预定拍摄位置,则将所述视频帧图像与预设姿势、预设表情输入相似度判断模型,所述相似度判断模型输出第一相似度和第二相似度,所述第一相似度为所述视频帧图像中被摄人姿势与所述预设姿势的相似度,所述第二相似度所述视频帧图像中被摄人表情与所述预设表情的相似度;
成像输出模块,用于若视频帧图像中被摄人的姿势与所述预定姿势的相似度大于第一相似度阈值且视频帧图像中被摄人的表情与所述预定表情的相似度大于第二相似度阈值,截取所述视频帧图像作为最终成像输出。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的自动拍照方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的自动拍照方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210699951.7A CN115174803A (zh) | 2022-06-20 | 2022-06-20 | 自动拍照方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210699951.7A CN115174803A (zh) | 2022-06-20 | 2022-06-20 | 自动拍照方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115174803A true CN115174803A (zh) | 2022-10-11 |
Family
ID=83487764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210699951.7A Pending CN115174803A (zh) | 2022-06-20 | 2022-06-20 | 自动拍照方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115174803A (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294665A (ja) * | 2007-05-23 | 2008-12-04 | Victor Co Of Japan Ltd | 撮影装置 |
CN104125395A (zh) * | 2014-05-30 | 2014-10-29 | 深圳市中兴移动通信有限公司 | 一种实现自动拍摄的方法及装置 |
CN105187719A (zh) * | 2015-08-21 | 2015-12-23 | 深圳市金立通信设备有限公司 | 一种拍摄方法及终端 |
CN107172349A (zh) * | 2017-05-19 | 2017-09-15 | 努比亚技术有限公司 | 移动终端拍摄方法、移动终端及计算机可读存储介质 |
CN107911601A (zh) * | 2017-11-21 | 2018-04-13 | 深圳市欧信计算机通信科技有限公司 | 一种拍照时智能推荐拍照表情和拍照姿势的方法及其系统 |
CN108496352A (zh) * | 2017-05-24 | 2018-09-04 | 深圳市大疆创新科技有限公司 | 拍摄方法及装置、图像处理方法及装置 |
CN109924994A (zh) * | 2019-04-02 | 2019-06-25 | 晓智科技(成都)有限公司 | 一种x光拍摄过程中的检测位置自动校准方法及系统 |
CN110784644A (zh) * | 2019-08-26 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
CN111935393A (zh) * | 2020-06-28 | 2020-11-13 | 百度在线网络技术(北京)有限公司 | 拍摄方法、装置、电子设备和存储介质 |
CN112702521A (zh) * | 2020-12-24 | 2021-04-23 | 广州极飞科技有限公司 | 图像拍摄方法及装置、电子设备、计算机可读存储介质 |
CN113114924A (zh) * | 2020-01-13 | 2021-07-13 | 北京地平线机器人技术研发有限公司 | 图像拍摄方法、装置、计算机可读存储介质及电子设备 |
CN113766125A (zh) * | 2019-09-29 | 2021-12-07 | Oppo广东移动通信有限公司 | 对焦方法和装置、电子设备、计算机可读存储介质 |
US20220121841A1 (en) * | 2020-10-20 | 2022-04-21 | Adobe Inc. | Utilizing a machine learning model trained to determine subtle pose differentiations to automatically capture digital images |
-
2022
- 2022-06-20 CN CN202210699951.7A patent/CN115174803A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294665A (ja) * | 2007-05-23 | 2008-12-04 | Victor Co Of Japan Ltd | 撮影装置 |
CN104125395A (zh) * | 2014-05-30 | 2014-10-29 | 深圳市中兴移动通信有限公司 | 一种实现自动拍摄的方法及装置 |
CN105187719A (zh) * | 2015-08-21 | 2015-12-23 | 深圳市金立通信设备有限公司 | 一种拍摄方法及终端 |
CN107172349A (zh) * | 2017-05-19 | 2017-09-15 | 努比亚技术有限公司 | 移动终端拍摄方法、移动终端及计算机可读存储介质 |
CN108496352A (zh) * | 2017-05-24 | 2018-09-04 | 深圳市大疆创新科技有限公司 | 拍摄方法及装置、图像处理方法及装置 |
CN107911601A (zh) * | 2017-11-21 | 2018-04-13 | 深圳市欧信计算机通信科技有限公司 | 一种拍照时智能推荐拍照表情和拍照姿势的方法及其系统 |
CN109924994A (zh) * | 2019-04-02 | 2019-06-25 | 晓智科技(成都)有限公司 | 一种x光拍摄过程中的检测位置自动校准方法及系统 |
CN110784644A (zh) * | 2019-08-26 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
CN113766125A (zh) * | 2019-09-29 | 2021-12-07 | Oppo广东移动通信有限公司 | 对焦方法和装置、电子设备、计算机可读存储介质 |
CN113114924A (zh) * | 2020-01-13 | 2021-07-13 | 北京地平线机器人技术研发有限公司 | 图像拍摄方法、装置、计算机可读存储介质及电子设备 |
CN111935393A (zh) * | 2020-06-28 | 2020-11-13 | 百度在线网络技术(北京)有限公司 | 拍摄方法、装置、电子设备和存储介质 |
US20220121841A1 (en) * | 2020-10-20 | 2022-04-21 | Adobe Inc. | Utilizing a machine learning model trained to determine subtle pose differentiations to automatically capture digital images |
CN112702521A (zh) * | 2020-12-24 | 2021-04-23 | 广州极飞科技有限公司 | 图像拍摄方法及装置、电子设备、计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816589B (zh) | 用于生成漫画风格转换模型的方法和装置 | |
CN108830235B (zh) | 用于生成信息的方法和装置 | |
CN108805091B (zh) | 用于生成模型的方法和装置 | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
CN110288682B (zh) | 用于控制三维虚拟人像口型变化的方法和装置 | |
CN112132847A (zh) | 模型训练方法、图像分割方法、装置、电子设备和介质 | |
CN110570383B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
WO2021190625A1 (zh) | 拍摄方法和设备 | |
CN113505848A (zh) | 模型训练方法和装置 | |
CN112837213A (zh) | 脸型调整图像生成方法、模型训练方法、装置和设备 | |
CN115937033A (zh) | 图像生成方法、装置及电子设备 | |
JP2023526899A (ja) | 画像修復モデルを生成するための方法、デバイス、媒体及びプログラム製品 | |
CN115311178A (zh) | 图像拼接方法、装置、设备及介质 | |
CN111967397A (zh) | 人脸影像处理方法和装置、存储介质和电子设备 | |
CN112308950A (zh) | 视频生成方法及装置 | |
CN110689478A (zh) | 图像风格化处理方法、装置、电子设备及可读介质 | |
CN115731341A (zh) | 三维人头重建方法、装置、设备及介质 | |
CN117315758A (zh) | 面部表情的检测方法、装置、电子设备及存储介质 | |
CN111260756B (zh) | 用于发送信息的方法和装置 | |
CN109034085B (zh) | 用于生成信息的方法和装置 | |
CN115174803A (zh) | 自动拍照方法及相关设备 | |
CN110619602A (zh) | 一种图像生成方法、装置、电子设备及存储介质 | |
CN115623313A (zh) | 图像处理方法、图像处理装置、电子设备、存储介质 | |
CN114187173A (zh) | 模型训练方法、图像处理方法及装置、电子设备、介质 | |
CN110956129A (zh) | 用于生成人脸特征向量的方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |