CN113364971A - 图像处理方法和装置 - Google Patents
图像处理方法和装置 Download PDFInfo
- Publication number
- CN113364971A CN113364971A CN202010480843.1A CN202010480843A CN113364971A CN 113364971 A CN113364971 A CN 113364971A CN 202010480843 A CN202010480843 A CN 202010480843A CN 113364971 A CN113364971 A CN 113364971A
- Authority
- CN
- China
- Prior art keywords
- preview image
- target reference
- posture
- scene
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了图像处理方法和装置,涉及图像处理技术领域。本方案在推荐用户姿势的过程中,交互性更好,且更智能化,从而能够提高用户的体验。该方法包括:显示当前拍摄场景的第一预览图像,第一预览图像包括被拍摄者在第一姿势下的第一人像;对第一预览图像进行识别,以确定当前拍摄场景的场景类别;显示当前拍摄场景下的第二预览图像,并在第二预览图像中显示目标参考姿势;目标参考姿势至少是基于当前拍摄场景的场景类别得到的;其中,第二预览图像包括被拍摄者在第二姿势下的第二人像;如果第二姿势与目标参考姿势匹配,则根据第二预览图像生成目标图像。该方法可以应用于拍照场景。
Description
本申请要求于2020年03月07日提交国家知识产权局、申请号为202010153760.1、申请名称为“一种融合场景信息的智能姿态引导构图的方法及装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及图像处理技术领域,尤其涉及图像处理方法和装置。
背景技术
随着智能手机的发展,手机摄影成为人们生活中的一个重要部分。人像拍摄在手机摄影中占据很大的比重,想要得到美观的人像摄影,首先要确定人像的拍摄角度,再确定适合当前拍摄场景的拍摄构图,然后摆好姿势拍出想要的图片。
关于如何引导被拍摄者摆出自然优美的姿势,目前,市面上出现了一些姿势推荐应用。其工作原理具体为:用户手动选择要拍摄的姿势,然后手机在显示屏上显示用户所选择的姿势。被拍摄者在所显示的姿势的引导下摆出姿势,再由拍摄者主动决定是否进行拍摄。该应用在姿势推荐过程中需要被拍摄者主观判断,交互性不是很友好,缺少智能性。
发明内容
本申请实施例提供了图像处理方法和装置,在推荐用户姿势的过程中,交互性更好,且更智能化,从而能够提高用户的体验。
为达到上述目的,本申请采用如下技术方案:
第一方面,提供了一种图像处理方法,该方法应用于第一终端。该方法包括:首先显示当前拍摄场景的第一预览图像,第一预览图像包括被拍摄者在第一姿势下的第一人像。其次,对第一预览图像进行识别,以确定当前拍摄场景的场景类别。接着,显示当前拍摄场景下的第二预览图像,并在第二预览图像中显示目标参考姿势;目标参考姿势至少是基于当前拍摄场景的场景类别得到的;其中,第二预览图像包括被拍摄者在第二姿势下的第二人像。如果第二姿势与目标参考姿势匹配,则根据第二预览图像生成目标图像。由此可知,本申请实施例提供了一种融合场景信息的智能姿势引导/推荐方法,并且整个推荐姿势的过程不需要用户参与,因此交互性更好,且更智能化,从而能够提高用户的体验。
可选的,第一姿势与第二姿势不同。可选的,目标图像可以是第一设备对当前拍摄场景进行拍摄得到的图像。换句话说,目标图像是第一终端需要保存的图像。
在一种可能的设计中,目标参考姿势与第一姿势满足如下至少一种条件:目标参考姿势与第一姿势不同;目标参考姿势在第二预览图像中的相对位置,与第一姿势在第一预览图像中的相对位置不同;或者,目标参考姿势在第二预览图像中所占的大小,与第一姿势在第一预览图像中所占的大小不同。该可能的设计提供的技术方案可以理解为:在满足上述至少一种条件的情况下,在第二预览图像中显示目标参考姿势。也就是说,本申请实施例提供了一种可能的执行在第二预览图像中显示目标参考姿势的触发条件。
在一种可能的设计中,当前拍摄场景的场景类别包括以下类别中的至少一项:草地场景、台阶场景、海边场景、夕阳场景、马路场景、或塔场景。当然具体实现时不限于此。
在一种可能的设计中,目标参考姿势的姿势类别是基于第一姿势的姿势类别得到的;其中,姿势类别包括坐姿、站姿或卧姿。例如,目标参考姿势的姿势类别与第一姿势的姿势类别一致。这样,对于被拍摄者来说,不需要大幅度调整姿势,从而有助于提高用户体验。
在一种可能的设计中,目标参考姿势是与当前拍摄场景的类别对应的多个参考姿势中的,与第一姿势之间的相似度大于等于第一阈值。由于参考姿势是预定义的优美自然的姿势,因此,该可能的设计提供的技术方案,有助于在保证(或尽量保证)向用户推荐优美自然的姿势的情况下,尽量减少被拍摄者调整姿势的幅度,从而提高用户体验。
在一种可能的设计中,目标参考姿势是与当前拍摄场景的类别对应的多个参考姿势中的,与第一姿势之间的相似度最高的参考姿势。由于参考姿势是预定义的优美自然的姿势,因此,该可能的设计提供的技术方案,有助于在保证(或尽量保证)向用户推荐优美自然的姿势的情况下,尽量减少被拍摄者调整姿势的幅度,从而提高用户体验。
在一种可能的设计中,目标参考姿势在第二预览图像中的位置,是基于第一预览图像中的第一预设对象在第一预览图像中的位置确定的;其中,目标参考姿势中的第一局部姿势与第一预设对象在同一图像中的位置之间具有第一关联关系,第一关联关系是预定义或者实时确定的。该可能的设计提供了一种确定目标参考姿势在第二预览图像中的位置的具体实现方式。这样,有助于提高人的姿势与预览图像中的预设对象之间的结合度(或耦合度或关联性),从而使得拍照效果更好。
在一种可能的设计中,目标参考姿势在第二预览图像中所占的大小,是基于第一预览图像中的第二预设对象在第一预览图像中所占的大小确定的;其中,目标参考姿势与第二预设对象在同一图像中的大小之间具有第二关联关系,第二关联关系是预定义或者实时确定的。该可能的设计提供了一种确定目标参考姿势在第二预览图像中所占的大小的具体实现方式。这样,有助于提高整体构图效果,从而使得拍照效果更好。
在一种可能的设计中,在第二预览图像中显示目标参考姿势,包括:在第二预览图像中以人体骨架或人体轮廓方式显示目标参考姿势。
在一种可能的设计中,目标参考姿势的信息是第一终端自身确定的,或者是第一终端从网络设备中获取的。
在一种可能的设计中,在第二预览图像中显示目标参考姿势,包括:如果当前拍摄场景的场景类别包括多种场景类别,则在第二预览图像中显示多个目标参考姿势;其中,场景类别与目标参考状态一一对应。该情况下,如果第二姿势与目标参考姿势匹配,则根据第二预览图像生成目标图像,包括:如果第二姿势与多个目标参考姿势中的任意一个目标参考姿势匹配,则根据第二预览图像生成目标图像。
在一种可能的设计中,该方法还包括:向第二终端发送目标参考姿势的信息和第二预览图像的信息,以指示第二终端显示第二预览图像,并在第二预览图像中显示目标参考姿势。这样,对于被拍摄者而言,可以通过第二终端上显示的内容,看到第二预览图像和目标参考姿势,从而更方便进行姿势调整,从而使得拍摄效果更佳。
在一种可能的设计中,该方法还包括:在第二预览图像中显示当前拍摄场景的类别信息。这样,用户能够获知当前拍摄场景的类别信息,从而提高用户体验。
在一种可能的设计中,不同的场景类别通过不同预定义对象组来表征。如果第一预览图像包含一个预定义对象组,则当前拍摄场景的场景类别是预定义对象组所表征的场景类别。如果第一预览图像包含多个预定义对象组,则当前拍摄场景的场景类别是多个预定义对象组所表征的部分或全部场景类别。也就是说,当前拍摄场景的场景类别可以是一个或多个。
在一种可能的设计中,第一人像占第一预览图像的比例大于等于第二阈值。或者,第一人像的像素点的个数大于等于第三阈值。也就是说,第一人像较大。这是在考虑到“如果被拍摄者的人像较小,则很难判断被拍摄者的姿势,这会导致推荐参考姿势的意义不大”,以及“为了避免将作背景中的人作为被拍摄者”而提出的技术方案。
在一种可能的设计中,如果第二姿势与目标参考姿势匹配,则根据第二预览图像生成目标图像,包括:如果第二姿势与目标参考姿势匹配,则输出提示信息,提示信息用于提示第二姿势与目标参考姿势匹配;接收第一操作;响应于第一操作,根据第二预览图像生成目标图像。此方式,提供了一种在用户的指示下,生成目标图像的具体实现方式。当然,具体实现时,第一终端可以在确定第二姿势与目标参考姿势匹配时,自动根据第二预览图像生成目标图像。
在一种可能的设计中,该方法还包括:如果第二姿势与目标参考姿势的相似度大于等于第四阈值,则确定第二姿势与目标参考姿势匹配。
在一种可能的设计中,该方法包括:计算第一向量和第二向量;其中,第一向量是第二人像中的关键点相对角度信息构成的向量,用于表征第二姿势;第二向量是目标参考姿势下的人像中的关键点相对角度信息构成的向量,用于表征目标参考姿势;计算第一向量与第二向量之间的距离;如果距离小于等于第五阈值,则确定第二姿势与目标参考姿势的相似度大于等于第四阈值。
在一种可能的设计中,该方法还包括:将第二姿势和目标参考姿势输入神经网络,得到第二姿势与目标参考姿势之间的相似度;其中,神经网络用于表征输入的多种姿势之间的相似度。
第二方面,提供了一种图像处理装置,该装置可以是终端、芯片或芯片系统。
在一种可能的设计中,该装置可以用于执行上述第一方面提供的任一种方法。本申请可以根据上述第一方面及其任一种可能的设计方式提供的任一种方法,对该装置进行功能模块的划分。例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。示例性的,本申请可以按照功能将该装置划分为处理单元和发送单元等。上述划分的各个功能模块执行的可能的技术方案和有益效果的描述均可以参考上述第一方面或其相应的可能的设计提供的技术方案,此处不再赘述。
在另一种可能的设计中,该装置包括存储器和一个或多个处理器,所述存储器用于存储计算机指令,所述处理器用于调用所述计算机指令,以执行如第一方面及其任一种可能的设计方式提供的任一种方法。其中,上述第一方面及其任一种可能的设计方式提供的任一种方法中的显示步骤,在该可能的设计中具体可以替换为控制显示步骤。上述第一方面或任一种可能的设计方式提供的任一种方法中的输出步骤,在该可能的设计中具体可以替换为控制输出步骤。
第三方面,提供了一种终端,包括:处理器、存储器和显示屏。显示屏用于显示图像等信息,存储器用于存储计算机程序和指令,处理器用于调用该计算机程序和指令,与该显示屏协同执行上述第一方面或其相应的可能的设计提供的技术方案。
第四方面,提供了一种计算机可读存储介质,如计算机非瞬态的可读存储介质。其上储存有计算机程序(或指令),当该计算机程序(或指令)在计算机上运行时,使得该计算机执行上述第一方面中任一种可能的实现方式提供的任一种方法。其中,上述第一方面及其任一种可能的设计方式提供的任一种方法中的显示步骤,在该可能的设计中具体可以替换为控制显示步骤。上述第一方面或任一种可能的设计方式提供的任一种方法中的输出步骤,在该可能的设计中具体可以替换为控制输出步骤。
第五方面,提供了一种计算机程序产品,当其在计算机上运行时,使得第一方面或第二方面中的任一种可能的实现方式提供的任一种方法被执行。其中,上述第一方面及其任一种可能的设计方式提供的任一种方法中的显示步骤,在该可能的设计中具体可以替换为控制显示步骤。上述第一方面或任一种可能的设计方式提供的任一种方法中的输出步骤,在该可能的设计中具体可以替换为控制输出步骤。
可以理解的是,上述提供的任一种图像处理装置、计算机存储介质、计算机程序产品或芯片系统等均可以应用于上文所提供的对应的方法,因此,其所能达到的有益效果可参考对应的方法中的有益效果,此处不再赘述。
在本申请中,上述图像处理装置或者各功能模块的名字对设备或功能模块本身不构成限定,在实际实现中,这些设备或功能模块可以以其他名称出现。只要各个设备或功能模块的功能和本申请类似,属于本申请权利要求及其等同技术的范围之内。
本申请的这些方面或其他方面在以下的描述中会更加简明易懂。
附图说明
图1为可适于本申请实施例的一种终端的结构示意图;
图2为可适于本申请实施例的一种终端的软件结构框图;
图3为本申请实施例提供的一种图像处理方法的流程图;
图4为本申请实施例提供的一种目标参考姿势的显示方式的示意图;
图5为本申请实施例提供的一种塔场景下第一终端上显示的图像的示意图;
图6为本申请实施例提供的一种夕阳场景下第一终端上显示的图像的示意图;
图7为本申请实施例提供的另一种图像处理方法的流程图;
图8为可适用于本申请实施例的一种人体关键点的示意图;
图9为本申请实施例提供的另一种图像处理方法的流程图;
图10为本申请实施例提供的一种拍照方法的流程示意图;
图11为本申请实施例提供的一种拍照效果对比示意图;
图12为本申请实施例提供的一种终端的结构示意图。
具体实施方式
在本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
在本申请实施例中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本申请实施例提供的图像处理方法可以应用于终端中,该终端可以是带有摄像头的终端,如智能手机、平板电脑、可穿戴设备、AR/VR设备,也可以是个人计算机(personalcomputer,PC)、个人数字助理(personal digital assistant,PDA)、上网本等设备,还可以是其他任一能够实现本申请实施例的终端。本申请对终端的具体形态不予限定。可穿戴设备也可以称为穿戴式智能设备,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。
在本申请中,终端的结构可以如图1所示。如图1所示,终端100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本实施例示意的结构并不构成对终端100的具体限定。在另一些实施例中,终端100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。例如,在本申请中,处理器110可以控制显示屏194显示当前拍摄场景的第一预览图像,第一预览图像包括被拍摄者在第一姿势下的第一人像。其次,处理器110对第一预览图像进行识别,以确定当前拍摄场景的场景类别。接着,控制显示屏194显示当前拍摄场景下的第二预览图像,并在第二预览图像中显示目标参考姿势;目标参考姿势至少是基于当前拍摄场景的场景类别得到的;其中,第二预览图像包括被拍摄者在第二姿势下的第二人像。最后,如果第二姿势与目标参考姿势匹配,则根据第二预览图像生成目标图像。该技术方案的相关说明可以参考下文。
其中,控制器可以是终端100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现终端100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现终端100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为终端100充电,也可以用于终端100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他终端,例如AR设备等。
可以理解的是,本实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对终端100的结构限定。在本申请另一些实施例中,终端100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
终端100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
终端100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oled,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,终端100可以包括1个或N个显示屏194,N为大于1的正整数。
终端100的显示屏194上可以显示一系列图形用户界面(graphical userinterface,GUI),这些GUI都是该终端100的主屏幕。一般来说,终端100的显示屏194的尺寸是固定的,只能在该终端100的显示屏194中显示有限的控件。控件是一种GUI元素,它是一种软件组件,包含在应用程序中,控制着该应用程序处理的所有数据以及关于这些数据的交互操作,用户可以通过直接操作(direct manipulation)来与控件交互,从而对应用程序的有关信息进行读取或者编辑。一般而言,控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
终端100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端100可以包括1个或N个摄像头193,N为大于1的正整数。例如,上述摄像头193可以包括主摄像头、长焦摄像头、广角摄像头、红外摄像头、深度摄像头或者黑白摄像头等一种或者至少两种摄像头。结合本申请实施例提供的技术方案,第一终端可以采用上述一种或者至少两种摄像头采集图像,并将采集到的图像进行处理(如融合等),得到预览图像(如第一预览图像或第二预览图像等)。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端100可以支持一种或多种视频编解码器。这样,终端100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现终端100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展终端100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行终端100的各种功能应用以及数据处理。例如,在本实施例中,处理器110可以通过执行存储在内部存储器121中的指令,获取终端100的姿势。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储终端100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行终端100的各种功能应用以及数据处理。
终端100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。终端100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当终端100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。终端100可以设置至少一个麦克风170C。在另一些实施例中,终端100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,终端100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。终端100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,终端100根据压力传感器180A检测所述触摸操作强度。终端100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定终端100的运动姿势。在一些实施例中,可以通过陀螺仪传感器180B确定终端100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测终端100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消终端100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,终端100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。终端100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当终端100是翻盖机时,终端100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测终端100在各个方向上(一般为三轴)加速度的大小。当终端100静止时可检测出重力的大小及方向。还可以用于识别终端姿势,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。终端100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,终端100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。终端100通过发光二极管向外发射红外光。终端100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定终端100附近有物体。当检测到不充分的反射光时,终端100可以确定终端100附近没有物体。终端100可以利用接近光传感器180G检测用户手持终端100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。终端100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测终端100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。终端100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,终端100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,终端100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,终端100对电池142加热,以避免低温导致终端100异常关机。在其他一些实施例中,当温度低于又一阈值时,终端100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于终端100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。终端100可以接收按键输入,产生与终端100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
另外,在上述部件之上,运行有操作系统。例如苹果公司所开发的iOS操作系统,谷歌公司所开发的Android开源操作系统,微软公司所开发的Windows操作系统等。在该操作系统上可以安装运行应用程序。
终端100的操作系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android系统为例,示例性说明终端100的软件结构。
图2是本申请实施例的终端100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。例如,在拍照时,相机应用可以访问应用程序框架层提供的相机接口管理服务。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。例如,在本申请实施例中,在拍照时,应用程序框架层可以为应用程序层提供拍照功能相关的API,并为应用程序层提供相机接口管理服务,以实现拍照功能。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供终端100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,终端振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
需要说明的是,本申请实施例虽然以Android系统为例进行说明,但是其基本原理同样适用于基于iOS或Windows等操作系统的终端。
下面结合图1和拍摄场景,示例性说明终端100软件以及硬件的工作流程。
触摸传感器180K接收到触摸操作,上报给处理器110,使得处理器110响应于上述触摸操作,启动相机应用,并在显示屏194上显示该相机应用的用户界面。例如,触摸传感器180K当接收到对相机应用图标的触摸操作后,向处理器110上报对相机应用的触摸操作,使得处理器110响应于上述触摸操作,启动相机应用,并在显示屏194上显示相机的用户界面。此外,本申请实施例中还可以通过其它方式使得终端100启动相机应用,并在显示屏194上显示相机应用的用户界面。例如,终端100在黑屏、显示锁屏界面或者解锁后显示某一用户界面时,可以响应于用户的语音指令或者快捷操作等,启动相机应用,并在显示屏194上显示相机应用的用户界面。
关于如何引导被拍摄者摆出拍照姿势,相关技术中采用的方案的基本原理为:在终端中预定义若干种拍照姿势,然后在实际拍照时,由用户手动选择拍照姿势。该方案在姿势推荐过程中需要被拍摄者主观判断,交互性不是很友好,缺少智能性。
对此,本申请实施例提供了一种图像处理方法,该方法应用于终端,该方法包括:显示当前拍摄场景的第一预览图像,第一预览图像包括被拍摄者在第一姿势下的第一人像;对第一预览图像进行识别,以确定当前拍摄场景的场景类别;显示当前拍摄场景下的第二预览图像,并在第二预览图像中显示目标参考姿势;目标参考姿势至少是基于当前拍摄场景的场景类别得到的;其中,第二预览图像包括被拍摄者在第二姿势下的第二人像;如果第二姿势与目标参考姿势匹配,则根据第二预览图像生成目标图像。
在本申请实施例中,终端自动确定当前拍摄场景,并自动基于当前拍摄场景推荐目标参考姿势,以指示(或引导)被拍摄者调整姿势。整个推荐姿势的过程不需要用户参与,因此交互性更好,且更智能化,从而能够提高用户的体验。
需要说明的是,本申请实施例中所描述的“姿势(pose)”可以是指人身体的整体姿势,也可以是指人身体的局部姿势(如手势等)。
下面将结合附图对本申请实施例的实施方式进行详细描述。
如图3所示,为本申请实施例提供的图像处理方法的流程图。图3所示的方法包括以下步骤:
S101:第一终端显示当前拍摄场景的第一预览图像,第一预览图像包括被拍摄者在第一姿势下的第一人像。
第一终端是用于拍照的终端,如拍摄者拿的手机等。当前拍摄场景可以是第一终端执行S101时,第一终端的摄像头拍摄视野内的拍摄场景。第一姿势是第一预览图像中被拍摄者的当前姿势,第一人像是当前姿势下被拍摄者的图像。
预览图像,是拍照过程中显示在终端显示屏上的图像。在一个示例中,在终端启动拍照功能的时刻开始至完成拍照的时刻的过程中,终端的显示屏上可以一直显示预览图像,也就是说,终端以预览图像流的方式显示预览图像。第一预览图像是执行S101时,显示在第一终端的显示屏上的针对当前拍摄场景的预览图像。
本申请实施例对第一预览图像的获取方式不进行限定,例如,第一终端可以通过摄像头采集当前拍摄场景的图像;并将采集到的图像作为第一预览图像,或者对采集到的图像进行处理(如裁剪,和/或与其他图像进行融合等)后,并将处理后得到的图像作为第一预览图像。
可选的,第一人像占第一预览图像的比例大于等于第二阈值。可选的,第一人像的像素个数大于等于第三阈值。通俗地讲,这两种可选的实现方式旨在说明,在被拍摄者的人像较大的情况下,向被拍摄者推荐参考姿势。这是在考虑到“如果被拍摄者的人像较小,则很难判断被拍摄者的姿势,这会导致推荐参考姿势的意义不大”,以及“为了避免将作背景中的人作为被拍摄者”而提出的技术方案。本申请实施例对第二阈值和第三阈值的取值不进行限定。
S102:第一终端对第一预览图像进行识别,以确定当前拍摄场景的场景类别。
可选的,不同的场景类别通过不同预定义对象组来表征。换句话说,不同拍摄场景可以通过其所包含的预定义对象组进行区分。
一个预定义对象组可以包括一个或多个预定义对象。本申请实施例对预定义对象的对象类别不进行限定。例如,预定义对象的对象类别可以是草地、台阶、海边、夕阳、马路或塔等。相应的,本申请实施例对拍摄场景的场景类别不进行限定。
在一个示例中,一个预定义对象组包括一个预定义对象,即拍摄场景的类别是基于单个对象的类别进行区分的。例如,以多个预定义对象组中的预定义对象分别是草地、台阶、海边、夕阳和马路为例,拍摄场景的类别可以包括:草地场景、台阶场景、海边场景、夕阳场景和马路场景等。
在另一个示例中,一个预定义对象组包括多个预定义对象,即拍摄场景是基于多个对象进行区分的。例如,以多个预定义对象组中的预定义对象分别是[海边、夕阳]、[马路、夕阳]和[台阶、夕阳]为例,其中,一个中括号中的对象表示一个预定义对象组,基于此,拍摄场景的类别可以包括:海边夕阳场景,马路夕阳场景和台阶夕阳场景等。
当然,还可以存在“一些拍摄场景是基于单个对象进行区分的,另一些拍摄场景是基于多个对象进行区分的”的情况。在此不作具体说明。
预定义对象组包括哪个或哪些对象,预定义对象组的个数,以及哪个预定义对象组表征哪个拍摄场景的场景类别等可以是预定义的。具体的,这些信息可以预存在第一终端中,如在第一终端中安装用于实现本申请实施例提供的技术方案的应用时,随该应用的安装包等信息一起预存在第一终端中,这些信息可以随着该应用的更新(如该应用的版本的更新)而更新。或者,这些信息可以预存在其他设备(如网络设备)中,由第一终端向该其他设备获取。
本申请实施例对第一终端对第一预览图像进行识别,以确定当前拍摄场景的具体实现方式不进行限定。可选的,识别结果可以包括:第一预览图像中包括哪些预定义对象组。例如,第一终端首先识别第一预览图像中包括的对象的类别(即人、草地、台阶等),该步骤的具体实现方式可以参考现有技术;其次,确定所识别出的这些对象是否是预定义对象组中的对象,以确定出第一预览图像中包括哪些预定义对象组。
当前拍摄场景的场景类别可以包括一种或多种。
可选的,如果第一预览图像包含一个预定义对象组(即单标签),则当前拍摄场景的场景类别是该预定义对象组所表征的拍摄场景的场景类别。
该情况可以认为是基于单标签确定当前拍摄场景的场景类别。以“预定义的多个拍摄场景为台阶场景、海边场景和夕阳场景”为例,若识别结果是第一预览图像中包括台阶,不包括海边和夕阳,则第一终端可以将台阶场景确定为当前拍摄场景。
可选的,如果第一预览图像包含多个预定义对象组(即多标签),则当前拍摄场景的场景类别是该多个预定义对象组所表征的部分或全部拍摄场景的场景类别。
该情况可以认为是基于多标签确定当前拍摄场景的场景类别。作为示例,如果当前拍摄场景的场景类别是该多个预定义对象组所表征的部分拍摄场景的场景类别,则具体可以将该多个预定义对象组中的“优先级满足条件的预定义对象组”所表征的拍摄场景的场景类别,作为当前拍摄场景的场景类别。其中,优先级满足条件的预定义对象组可以包括:优先级最高的预定义对象组,或者,优先级高于预设级别的预定义对象组。
以“第一终端中存储的多个拍摄场景为台阶场景、海边场景和夕阳场景,且预定义对象组的优先级顺序由高到低依次为:台阶、海边、夕阳”为例,若第一预览图像中包括台阶和夕阳,则第一终端可以基于台阶和夕阳的优先级顺序,将台阶场景确定为当前拍摄场景。
需要说明的是,如果识别结果是第一预览图像不包含任何一个预定义对象组,也就是说,当前拍摄场景不是上述以所包含的预定义对象区别的拍摄场景,则第一终端设备可以将当前拍摄场景确定为默认场景。其中,默认场景也可以是第一终端中预存的场景。
(可选的)S103:第一终端显示当前拍摄场景的场景类别信息。场景类别信息可以包括:场景类别的标识信息,如文字信息、图片信息等。
具体的,第一终端在显示屏上显示当前拍摄场景的场景类别信息。
S104:第一终端获取目标参考姿势、目标参考姿势在第二预览图像中的位置,以及目标参考姿势在第二预览图像中所占的大小。目标参考姿势至少是基于当前拍摄场景的场景类别得到的。目标参考姿势的个数可以是一个或多个。
第二预览图像可以是执行S105时,显示在第一终端上的针对当前拍照场景的预览图像。第二预览图像可以是第一终端上安装的摄像头采集的图像,或者可以是对第一终端上安装的摄像头采集的图像进行处理后得到的图像,其处理步骤可以参考上文。
在第一预览图像与第二预览图像之间,可能存在一帧或多帧预览图像。
可以理解的是,实际拍摄过程中,可能因拍摄者抖动等,使得第一终端在显示第一预览图像和显示第二预览图像时,所针对的当前拍摄场景有差别。考虑到这一点,为了方便描述,本申请实施例均是以第一终端在显示第一预览图像和显示第二预览图像的过程中,抖动在误差范围内,即当前拍摄场景的变化较小,可以忽略不计,为例进行说明的。在此统一说明,下文不再赘述。
可以理解的是,目标参考姿势可以在预览图像流中的第一预览图像之后的每一帧预览图像中均显示。可选的,目标参考姿势在其所显示的每一帧预览图像中的位置相同(或者大致相同)。
可选的,目标参考姿势与第一姿势满足如下条件1至条件3中的至少一种条件:
条件1:目标参考姿势与第一姿势不同。
条件2:目标参考姿势在第二预览图像中的相对位置,与第一姿势在第一预览图像中的相对位置不同。
在一种实现方式中,目标参考姿势在第二预览图像中的相对位置,可以是目标参考姿势在当前拍摄场景中的相对于一个参考对象的位置。第一姿势在第一预览图像中的相对位置可以是第一姿势在当前拍摄场景中的相对于该参考对象的位置。其中,该参考对象可以是预定义的对象,也可以是第一终端实时确定的当前拍摄场景中的一个对象。
在另一种实现方式中,目标参考姿势在第二预览图像中的相对位置,可以是目标参考姿势在第二预览图像所在的坐标系中的位置。第一姿势在第一预览图像中的相对位置可以是第一姿势在第一预览图像所在的坐标系中的位置。其中,这两个坐标系相同,或者是大致相同。可以理解的是,如果不考虑第一终端在拍照过程中的抖动等问题,也就是说,显示第一预览图像时所针对的当前拍摄场景,与显示第二预览图像时所针对的当前拍摄场景相同,那么,这两个坐标系通常是相同的。
条件3:目标参考姿势在第二预览图像中所占的大小,与第一姿势在第一预览图像中所占的大小不同。
以下,说明本申请实施例提供的获取目标参考姿势,获取目标参考姿势在第二预览图像中的位置,以及获取目标参考姿势在第二预览图像中所占的大小的具体实现方式:
第一,获取目标参考姿势
本申请实施例对如何获取目标参考姿势不进行限定。以下提供可能的实现方式:
方式1、目标参考姿势是基于当前拍摄场景的场景类别得到的。具体的,第一终端可以基于多个预设拍摄场景的场景类别与多个参考姿势之间的对应关系,确定与当前拍摄场景的场景类别对应的参考姿势,并将所确定的参考姿势作为目标参考姿势。其中,该对应关系是第一终端中预存的,或者是第一终端从网络设备获取的。
其中,一个拍摄场景的场景类别可以对应一个或多个参考姿势,不同拍摄场景的场景类别对应的参考姿势可以相同,也可以不同。如表1所示,为本申请实施例提供的一种拍摄场景的场景类别与参考姿势之间的对应关系。
表1
可选的,如果当前拍摄场景的场景类别对应多个参考姿势,那么:
在一个示例中,目标参考姿势可以是与当前拍摄场景的类别对应的多个参考姿势中的任意一个或多个参考姿势。例如,参见表1,如果当前拍摄场景的场景类别是台阶场景,则目标参考姿势可以是参考姿势21和参考姿势22中的至少一种姿势。
在另一个示例中,目标参考姿势可以是与当前拍摄场景的类别对应的多个参考姿势中的,与第一姿势之间的相似度大于等于第一阈值的参考姿势。例如,参见表1,如果当前拍摄场景的场景类别是台阶场景,则目标参考姿势可以是参考姿势21和参考姿势22中的,与第一姿势之间的相似度大于等于第一阈值的参考姿势。
在又一个示例中,目标参考姿势可以是与当前拍摄场景的类别对应的多个参考姿势中的,与第一姿势之间的相似度最高的参考姿势。参见表1,如果当前拍摄场景的场景类别是台阶场景,则目标参考姿势可以是参考姿势21和参考姿势22中的,与第一姿势之间的相似度最高的参考姿势。
其中,关于姿势之间的相似度的具体实现方式可以参考下文,此处不再赘述。
方式2、目标参考姿势是基于当前拍摄场景的场景类别和第一姿势的姿势类别确定的。其中,第一姿势的姿势类别可以用于确定目标参考姿势的姿势类别。例如,目标参考姿势的姿势类别与第一姿势的姿势类别一致。
具体的,第一终端可以基于多个预设拍摄场景的场景类别、预设姿势类别、与多个参考姿势之间的对应关系,确定与当前拍摄场景的场景类别和第一姿势类别均对应的参考姿势,并将所确定的参考姿势作为目标参考姿势。其中,该对应关系是第一终端中预存的,或者是第一终端从网络设备获取的。
姿势类别可以包括:站姿、坐姿和卧姿中的一种或多种。当然,具体实现时,在一个示例中,姿势类别还可以包含与站姿、坐姿和卧姿并列的姿势。在另一个示例中,姿势类别还可以是对站姿、坐姿和卧姿等中的任一种或多种姿势进行更细粒度的划分,从而得到更细粒度的姿势类别。当然还可以有其他实现方式,本申请实施例对此不进行限定。下文中的具体示例中均以姿势类别包括站姿、坐姿和卧姿为例进行说明。
一个拍摄场景的场景类别可以对应一个或多个姿势类别。一个姿势类别可以对应一个或多个参考姿势。不同拍摄场景的场景类别对应的姿势类别可以相同,也可以不同。不同场景的场景类别下的同一种姿势类别对应的参考状态可以相同,也可以不同。如表2所示,为本申请实施例提供的一种拍摄场景的场景类别、姿势类别与参考姿势之间的对应关系。
表2
可选的,如果与当前拍摄场景的场景类别和第一姿势的姿势类别均对应的参考姿势有多个,那么:
在一个示例中,目标参考姿势可以是与当前拍摄场景的类别和第一姿势的姿势类别均对应的多个参考姿势中的任意一个或多个参考姿势。例如,参见表2,如果当前拍摄场景的场景类别是草地场景,第一姿势的姿势类别是站姿,则目标参考姿势可以是参考姿势11A和参考姿势11B中的至少一种。
在另一个示例中,目标参考姿势可以是与当前拍摄场景的类别和第一姿势的姿势类别均对应的多个参考姿势中的,与第一姿势之间的相似度大于等于第一阈值的参考姿势。例如,参见表2,如果当前拍摄场景的场景类别是草地场景,第一姿势的姿势类别是站姿,则目标参考姿势可以是参考姿势11A和参考姿势11B中的,与第一姿势之间的相似度大于等于第一阈值的参考姿势。
在又一个示例中,目标参考姿势可以是与当前拍摄场景的类别和第一姿势的姿势类别均对应的多个参考姿势中的,与第一姿势之间的相似度最高的参考姿势。参见表2,如果当前拍摄场景的场景类别是草地场景,第一姿势的姿势类别是站姿,则目标参考姿势可以是参考姿势11A和参考姿势11B中的,与第一姿势之间的相似度最高的参考姿势。
需要说明的是,拍摄场景的场景类别对应的参考姿势,是第一终端在该拍摄场景下可用于向用户推荐的姿势。与拍摄场景的场景类别和某一姿势类别均对应的参考姿势,是第一终端在该拍摄场景下且被拍摄者当前姿势的姿势类别下可用于向用户推荐的姿势。在一个示例中,通俗地讲,参考姿势是第一终端/网络设备确定的优美自然的姿势。本申请实施例对拍摄场景的场景类别对应的参考姿势的确定方式不进行限定,例如,可以是基于大数据分析等方法所确定的,并预存在第一终端或网络设备中的。
可选的,拍摄场景的场景类别,每种拍摄场景的场景类别对应的参考姿势,每种拍摄场景的场景类别对应的姿势类别,以及每种拍摄场景的场景类别对应的每种姿势类别的参考姿势等均是可以更新的。例如,将本申请实施例提供的方法由第一终端中安装的一个应用实现,通过更新该应用的版本等更新上述信息。又如,上述信息均存储在网络设备,由第一终端实时向网络设备获取上述信息等。
第二,获取目标参考姿势在第二预览图像中的位置
本申请实施例对如何获取目标参考姿势在第二预览图像中的位置不进行限定。
可选的,目标参考姿势在第二预览图像中的位置,是基于第一预览图像中的第一预设对象在第一预览图像中的位置确定的。目标参考姿势中的第一局部姿势与第一预设对象在同一图像中的位置之间具有第一关联关系,第一关联关系是预定义或者实时确定的。
第一预设对象可以是预定义的一个或多个对象。第一预设对象与当前拍摄场景的类别中所包含的对象可以相同也可以不同。例如,在塔场景中,第一预览图像中包含塔,第一预设对象可以是塔。在草地场景中,第一预览图像中可以包括夕阳和草地等,第一预设对象可以是夕阳。更具体的,第一预设对象可以是塔底或塔顶、夕阳中心、夕阳边缘等。另外,第一预设对象可以是第一人像,或者第一人像的一部分。
第一局部姿势可以是预定义的一个或多个姿势,如人的手部等。
第一局部姿势与第一预设对象具有第一关联关系可以包括:第一局部姿势与第一预设对象具有在方位上具有关联关系,和/或在距离上具有关联关系等。
示例的,第一局部姿势与第一预设对象在方位上具有关联关系,可以包括:第一局部姿势在第一预设对象的上部、下部、斜上方等。第一局部姿势与第一预设对象在距离上具有关联关系,可以包括:第一局部姿势与第一预设对象之间的距离小于等于阈值等。
第一关联关系可以是预定义的,例如,第一关联关系是预定义在第一终端中的,或者预定义在网络设备中的。或者,第一关联关系可以是实时获取的,例如,第一关联关系是第一终端或网络设备基于预存的一些图像,通过一定的分析计算实时获得的。
例如,当当前拍摄场景是塔场景时,如果目标参考姿势是“手托塔”的姿势,则预设对象可以是塔(具体是塔底),局部姿势可以是用于“托塔”的手的姿势。如图5所示,为本申请实施例提供的一种塔场景下第一终端上显示的图像的示意图。其中,图5中的a图示意出了第二预览图像的局部图,其中包括人的手部41和塔42(即预设对象)。目标参考姿势是“手托塔”的姿势。基于此,第一终端可以基于“用于托塔的手”与“塔底”之间的关联关系(即相对方位信息和相对距离信息),确定目标参考姿势在第二预览图像中的位置,如图5中的b图所示。
第三,获取目标参考姿势在第二预览图像中的大小
可选的,目标参考姿势在第二预览图像中所占的大小,是基于第一预览图像中的第二预设对象在第一预览图像中所占的大小确定的。其中,目标参考姿势与第二预设对象在同一图像中的大小之间具有第二关联关系,第二关联关系是预定义或者实时确定的。
如果目标参考姿势在第二预览图像中所占的大小,可以是目标参考姿势在第二预览图像中所占的像素点,或者包含目标参考姿势的最小矩形框(或其他形状的框)在第二预览图像中所占的像素点等。
第二预设对象与上述第一预设对象可以相同,也可以不同。
目标参考姿势与第二预设对象在同一图像中的大小之间具有第二关联关系,可以是目标参考姿势与第二预设对象在同一图像中的占比满足预设关系。
如图6所示,为本申请实施例提供的一种夕阳场景下第一终端上显示的图像的示意图。其中,图6的a图表示第二预览图像,该图中包括夕阳51和被拍摄者52。图6的b图表示显示有目标参考姿势53的第二预览图像。其中,目标参考姿势53的大小是基于第二预览图像中的夕阳的大小(即第二预设对象)确定的。
可选的,目标参考姿势在第二预览图像中的位置和大小,是基于第一预览图像的构图确定的。示例的,第二预览图像中使用目标参考姿势的人像替换第二姿势的人像之后得到的图像的构图,优于第一预览图像的构图。本申请实施例对比较两个构图之间谁优谁劣的具体判断方式不进行限定,具体可以基于本技术领域普遍的一些判断标准或判断算法来确定,此处不再赘述。
需要说明的是,上述任意多个技术方案中的部分或全部技术特征,在不冲突的情况下,均可以进行结合使用,从而构成新的技术方案。
可选的,目标参考姿势的信息可以是第一终端自身确定的,如第一终端基于自身存储的信息确定的;也可以是第一终端从网络设备中获取的。其中,目标参考姿势的信息包括但不限于以下至少一项:目标参考姿势的姿势类型,目标参考姿势在第二预览图像中的位置,或者目标参考姿势在第二预览图像中的大小等。其中,目标参考姿势在第二预览图像中的大小,可以通过目标参考姿势所占的像素数量来表征。
本申请实施例对第一终端从网络设备中获取目标参考姿势的信息的具体实现方式不进行限定。例如,第一终端向网络设备发送当前拍摄场景的第一预览图像(或者对第一预览图像进行处理后得到的信息)。网络设备执行以下步骤:首先,基于接收到的信息,确定当前拍摄场景的场景类别。然后,在数据库中选择与当前拍摄场景的场景类别相对应的参考姿势。从这些参考姿势中,选择姿势类型与“第一姿势的姿势类型”相同的参考姿势,并将所选择的参考姿势作为目标参考姿势;接着,基于上述方式一至三中的一种或多种的结合,确定目标参考姿势在第二预览图像中的位置和大小,并将所确定的目标参考姿势、目标参考姿势在第二预览图像中的位置和大小等信息发送给第一终端。第一终端基于所接收到的信息,在第二预览图像中显示目标参考姿势。
需要说明的是,相比终端来说,网络设备的存储空间较大,计算能力较强,因此,网络设备的数据库中所存储的图像会更丰富,这样,由网络设备确定目标参考姿势、目标参考姿势在第二预览图像中的位置和大小等,能够使得拍照效果更好。
S105:第一终端显示当前拍摄场景下的第二预览图像,并在第二预览图像中显示目标参考姿势。其中,目标参考姿势在第二预览图像中的位置和大小可以分别是S104中所确定的位置和大小。第二预览图像包括被拍摄者在第二姿势下的第二人像。
第一终端在显示屏上显示当前拍摄场景下的第二预览图像。第二姿势是第二预览图像中该被拍摄者的当前姿势,第二人像是该当前姿势下该被拍摄者的图像。关于第二预览图像的其他解释可以参考上文,此处不再赘述。
第一姿势和第二姿势是同一拍摄场景中的同一被拍摄者在不同时刻的姿势。可选的,第一姿势与第二姿势不同。
可选的,第一终端可以在执行S103之后,且执行S106之前,第一终端所显示的每帧第二预览图像中显示目标参考姿势。
在本申请一些实施例中,认为目标参考姿势不是第二预览图像中的一部分(或者说不是第二预览图像的组成部分),而是在第二预览图像的上层显示的图像。下文中的其他特征也是基于此进行描述的。需要说明的是,如果认为目标参考姿势是第二预览图像中的一部分,则下述S106中“基于第二预览图像生成目标图像”具体可以包括:基于不包含目标参考姿势的第二预览图像,生成目标图像。
本申请实施例对以何种方式在第二预览图像中显示目标参考姿势不进行限定,例如,可以以人体骨架或人体轮廓等方式显示目标参考姿势。如图4中的a图所示,为一种以人体骨架方式显示目标参考姿势的示意图,其中,人体骨架中的点,可以是人体的特定关节等。图4中的b图为一种以人体轮廓方式显示目标参考姿势的示意图。其中,人体轮廓可以以简笔画的方式呈现。
可选的,如图7所示,在S105之前或之后或同时,该方法还可以包括以下步骤1~2:
步骤1:第一终端向第二终端发送目标参考姿势的信息和第二预览图像的信息,以指示第二终端显示第二预览图像,并在第二预览图像中显示目标参考姿势。
步骤2:第二终端基于接收到的信息,显示第二预览图像,并在第二预览图像中显示目标参考姿势。
可以理解的是,第一终端的显示屏上显示的内容是拍摄者能够看到的,通常被拍摄者不能看到。此处,第二终端可以是被拍摄者所使用的终端,或者说,第二终端的显示屏上显示的内容是能够被拍摄者看到的终端。本申请实施例对第一终端与第二终端之间的连接方式不进行限定,例如,可以是蓝牙连接等。
该技术方案可以描述为:将拍摄者所使用的终端上显示的信息,同步到被拍摄者所使用的终端上。这样,对于被拍摄者而言,可以通过第二终端上显示的内容,看到第二预览图像和目标参考姿势,从而更方便进行姿势调整,从而使得拍摄效果更佳。而不需要像现有技术一样,仅凭拍摄者与被拍摄者之间通过沟通来引导被拍摄者调整姿势。
S106:如果第二姿势与目标参考姿势匹配,则第一终端基于第二预览图像生成目标图像。后续,第一终端可以保存目标图像。
目标图像可以是第一设备对当前拍摄场景进行拍摄得到的图像。换句话说,目标图像是第一终端需要保存的图像。作为对比,上述第一预览图像和第二预览图像,是第一终端不需要保存的图像。当然具体实现时,不限于此。
在被拍摄者调整姿势的过程的,第一终端可以实时获取第二预览图像,并识别第二预览图像中的该被拍摄者的姿势(标记为第二姿势),然后判断第二姿势与目标参考姿势是否匹配。如果第二姿势与目标参考姿势匹配,则基于第二预览图像确定目标图像。可选的,如果第二姿势与目标参考姿势不匹配,被拍摄者可以继续调整姿势,第一终端可以继续采集第二预览图像,直至采集到的第二预览图像中的第二姿势与目标姿势匹配为止。
基于第二预览图像确定目标图像,可以包括:将第二预览图像直接作为目标图像;或者,对第二预览图像进行处理(如增强、降噪等)得到目标图像。
可选的,基于上述S103中的描述可知,当前拍摄场景的场景类别可能包括多种。基于此:
在S104中,基于当前拍摄场景的每种场景类别可以确定一个目标参考姿势。
在S105中,第一终端可以在第二预览图像中显示所确定的每个目标参考姿势。其中,不同目标参考姿势可以以相同或不同的方式进行显示,例如,显示不同颜色的人体轮廓,以显示不同的目标参考姿势等。
基于此:在一种实现方式中,在S106中,第一终端可以在确定第二姿势与多个目标参考姿势中的任意一种目标参考姿势匹配时,基于第二预览图像生成目标图像。在另一种实现方式中,第一终端可以在执行S105之后,接收用户指示的操作,响应于该操作,以在第二预览图像中显示一个目标参考姿势。也就是说,由用户从S105中所显示的多个目标参考姿势中选择一个目标参考姿势进行显示。该情况下,执行S106时,第一终端使用第二姿势与用户所选择出的目标参考姿势进行匹配即可。其中,这里的“用户”可以是拍摄者,或者被拍摄者。
可选的,如果第二姿势与目标参考姿势之间的相似度大于等于第四阈值,则确定第二姿势与目标参考姿势匹配。本申请实施例对如何确定第二姿势与目标参考姿势之间的相似度不进行限定,例如,可以通过以下方式一或方式二实现:
方式一:
步骤A:计算第一向量和第二向量;其中,第一向量是第二人像中的关键点相对角度信息构成的向量,用于表征第二姿势。第二向量是目标参考姿势下的人像中的关键点相对角度信息构成的向量,用于表征目标参考姿势。
关键点是用于表征人体姿势的点,例如可以是人体骨骼关键点,如关节等。如图8所示,为可适用于本申请实施例的一种人体关键点的示意图。图8中所示的关键点包括:下巴、锁骨中心、肩部、肘部、手部、胯骨、膝关节、脚踝等。
关键点的相对角度信息,具体为:人体上具有连接关系的关键点之间的相对角度的信息。例如,以关键点是左腿膝关节为例,关键点的相对角度信息可以是“左腿膝关节与左脚脚踝所在直线(即左侧大腿)”与“腿膝关节与左边胯骨所在直线(与左侧小腿)”之间的夹角的信息。又如,以关键点是左手臂的肘部为例,关键点的相对角度信息可以是“左手臂的肘部与左肩所在直线”与“左手臂的肘部与左手所在直线”之间的夹角的信息。
可以理解的是,对于某些关键点(具体是在某一方向上的最后一个关键点)来说,可能没有相对角度信息,例如,以图8为例,如果关键点是左手,则其没有相对角度信息。此仅为示例,其不对本申请实施例所适用的关键点的相对角度信息的确定构成限定。
本申请实施例对表征人体姿势的关键点具体是哪些,以及计算哪些关键点的相对角度信息均不进行限定,例如,表征人体姿势的关键点的确定方法可以参考现有技术。可以理解的是,人体姿势的关键点以及需要计算哪些关键点的相对角度信息均可以是预定义的。这些信息确定之后,可以基于现有技术中的角度计算方式,确定出这些关键点的相对角度信息。
可选的,第一向量与第二向量的元素个数相同,且这两个向量中同一位置的元素分别表示人体中同一个关键点的相对角度信息。例如,第一向量为[A1,A2,A3,A4];第二向量为[B1,B2,B3,B4]。其中,A1和B1分别表示第二姿势和目标参考姿势下的人体左肩的相对角度信息,A2和B2分别表示第二姿势和目标参考姿势下的人体右肩的相对角度信息。其他元素的含义与此类似,不再一一说明。
可以理解的是,由于关键点的相对角度信息可以度量人体的具体姿势,比如大腿和小腿角度成90度时,那么膝盖是一个弯曲的状态。因此,基于人体多个具有连接关系的关键点之间的相对角度信息可以度量人体的整体姿势。基于此,方式一的基本原理为:将对人体的整体姿势的相似性进行度量,分解为:对人体的关键点的具体姿势的相似性进行度量。
步骤B:计算第一向量与第二向量之间的距离。例如,计算第一向量和第二向量之间的欧式距离等。
步骤C:如果第一向量与第二向量之间的距离小于等于第五阈值,则确定第二姿势与目标参考姿势的相似度大于等于第四阈值。
第一向量与第二向量之间的距离越小,第二姿势与目标参考姿势之间的相似度越大。
其中,第五阈值是预定义的,用于表征参考姿势与第二姿势的相似度是第四阈值时,第一向量与第二向量之间的距离。
方式二:
将第二姿势和目标参考姿势输入神经网络,得到第二姿势与目标参考姿势之间的相似度;其中,神经网络用于表征输入的多种姿势之间的相似度。
上述方式一中是基于常规的方法计算姿势之间的相似程度。方式二是基于神经网络例如卷积神经网络(convolutional neural network,CNN)计算姿势之间的相似度的。具体实现时,第一终端中可以预存神经网络模型,该神经网络模型可以是基于多组训练数据训练得到的,其中,一组训练数据包括具有不同姿势的两个图像(该图像可以是摄像头采集的图像,也可以是对摄像头采集的图像进行处理后得到的图像),以及这两个图像中的人体姿势之间的相似程度。针对多组训练数据进行训练,可以获得神经网络模型。基于方式一中人体具体姿势与整体姿势的度量的关系的原理介绍,在一个示例中,对训练数据进行训练的过程,可以认为是神经网络模型学习关键点的相似性度量关系(即学习获得用于表征姿势的向量)的过程。
在一个示例中,第一终端中预存的神经网络模型是可以更新的。例如,以本申请实施例提供的方法由安装在第一终端中的一个应用执行的为例,该神经网络模型可以由该应用的更新(如版本的更新)等进行更新。当然本申请实施例不限于此。
上述方式一和方式二仅为示例,其不对可适用于本申请实施例的计算两个人体姿势之间的相似度的计算方法构成限定。
在S106中,如果第二姿势与目标参考姿势匹配,则第一终端基于第二预览图像生成目标图像。具体的:
在一种实现方式中,第一终端可以在确定第二姿势与目标参考姿势匹配的情况下,自动基于第二预览图像生成目标图像。也就是说,第一终端自主拍摄,或者是抓拍。该过程不需要用户参与,因此与用户的交互性更好,更智能,这有助于提高用户体验。
在另一种实现方式中,如图9所示,上述S106可以包括:
S106A:第一终端在确定第二姿势与目标参考姿势匹配的情况下,输出提示信息,该提示信息用于提示第二姿势与目标参考姿势匹配。
S106B:第一终端接收第一操作。
第一操作可以是语音操作,或者触屏操作等。例如,以特定触摸方式触摸显示屏上的虚拟控件的方式,按压第一终端上特定实体控件的方式等。
S106C:第一终端响应于第一操作,基于第二预览图像生成目标图像。
也就是说,在用户的指示下拍照。需要说明的是,该实现方式中,虽然是在用户的指示下进行拍照,但是,向用户输出提示信息,是第一终端自主确定第二姿势与目标参考姿势匹配的情况下,输出的。该过程并不需要用户来判断,因此有助于提高用户体验。
这里的提示信息,可以是语音提示信息,文字提示信息,图案提示信息,界面上某个控件特殊标记(如闪烁或变亮)等任一种提示信息,或者任意多种提示信息的组合,本申请实施例对此不进行限定。
本申请实施例提供的图像处理方法中,第一终端自动确定当前拍摄场景,并自动基于当前拍摄场景推荐目标参考姿势,以指示(或引导)被拍摄者调整姿势。也就是说,本申请实施例提供了一种融合场景信息的智能姿势引导/推荐方法,并且整个推荐姿势的过程不需要用户参与,因此交互性更好,且更智能化,从而能够提高用户的体验。
以下,结合上文中描述的方法,说明本申请实施例提供的技术方案的一个实际应用场景。
如图10所示,为本申请实施例提供的一种拍照方法的流程示意图。图10所示的方法可以包括以下步骤:
S201:用户(可以是拍摄者或被拍摄者等任一用户)向第一终端发出第二操作。第二操作用于第一终端启动相机应用。第二操作可以是用户发出的触屏操作或语音操作等。
S202:第一终端接收第二操作。响应于第二操作,第一终端启动相机应用。
S203:第一终端在显示屏上显示相机应用的目标用户界面。目标用户界面上包含“姿势推荐模式”控件。触发姿势推荐模式能够使第一终端执行本申请实施例提供的图像处理方法。
其中,目标用户界面,可以是相机应用启动后的首个用户界面,也可以是相机应用启动后的非首个用户界面。例如,在相机应用启动后,且显示该用户界面之前,用户可以选择是否打开闪光等,从而使得目标用户界面并非启动后的首个用户界面。
S204:用户(可以是拍摄者或被拍摄者等任一用户)向第一终端发出第三操作。第三操作是作用于姿势推荐模式控件。第三操作可以是用户发出的触屏操作等。
S205:第一终端接收第三操作。响应于第三操作,第一终端进入姿势推荐模式。接着执行以下S206。
针对上述S203~S205,可替换地,第一终端可以不在第一终端上显示上述目标用户界面(即包含由姿势推荐模式空间的目标用户界面),而是由第一终端在启动相机应用之后,自动进入姿势推荐模式,接着执行以下S206。
S206:第一终端执行上述步骤S101~S105。
此步骤结束之后,第一终端上显示有第二预览图像,且第二预览图像中显示由目标参考姿势。其中,第二预览图像中被拍摄者的姿势是第二姿势。可以理解的,第一终端上会实时地采集当前拍摄场景的实际图像,并基于实际图像生成一帧一帧的第二预览图像并显示,从而形式显示预览图像流的效果,且一帧或多帧(如每帧)第二预览图像中均显示有目标参考姿势。
S207:被拍摄者基于第二预览图像中显示的目标参考姿势调整当前姿势。
在一种实现方式中,拍摄者基于第一终端上显示的第二预览图像,以及第二预览图像中显示的目标参考姿势,指导被拍摄者调整当前姿势。
在另一种实现方式中,第一终端可以基于上述步骤1~步骤2,将第二预览图像和目标参考姿势显示在第二终端的显示屏上。被拍摄者通过查看第二终端的显示屏上显示的第二预览图像,以及第二预览图像中显示的目标参考姿势,调整当前姿势。
S208:如果目标参考姿势与第二姿势匹配,则第一终端基于第二预览图像生成目标图像。后续,第一终端可以保存目标图像。
该步骤中的第二预览图像可以是S207中的任意一帧第二预览图像,相应的,第二姿势是该第二预览图像中显示的被拍摄者的姿势。
关于S208的具体实现方式可以参考上文,此处不再赘述。
如图11所示,为本申请实施例提供的一种拍照效果对比示意图。其中,图11中的a图表示第一预览图像,该照片效果一般。图11中的b图表示基于“满足第二姿势与目标参考姿势匹配的第二预览图像”得到的目标图像。显然,通常情况下,用户会认为相比第一预览图像,目标图像中的人体姿势更优美更自然。
可以理解的是,为了实现上述实施例中功能,终端包括了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本申请中所公开的实施例描述的各示例的单元及方法步骤,本申请能够以硬件或硬件和计算机软件相结合的形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用场景和设计约束条件。
图12包含本申请的实施例提供的可能的图像处理装置的结构示意图。这些图像处理装置可以用于实现上述方法实施例中终端的功能,因此也能实现上述方法实施例所具备的有益效果。在本申请的实施例中,该图像处理装置可以是如图1所示的终端100,还可以是应用于终端的模块(如芯片)。下文中以该图像处理装置是终端11为例进行说明。
终端11包括:显示单元111、确定单元112和生成单元113。显示单元111,用于显示当前拍摄场景的第一预览图像,第一预览图像包括被拍摄者在第一姿势下的第一人像。确定单元112,用于对第一预览图像进行识别,以确定当前拍摄场景的场景类别。显示单元111,还用于显示当前拍摄场景下的第二预览图像,并在第二预览图像中显示目标参考姿势;目标参考姿势至少是基于当前拍摄场景的场景类别得到的;其中,第二预览图像包括被拍摄者在第二姿势下的第二人像。生成单元113,用于如果第二姿势与目标参考姿势匹配,则根据第二预览图像生成目标图像。例如,结合图3,显示单元111可以用于执行S101和S105。确定单元112可以用于执行S102。生成单元113可以用于执行S106。
可选的,目标参考姿势与第一姿势满足如下至少一种条件:目标参考姿势与第一姿势不同;目标参考姿势在第二预览图像中的相对位置,与第一姿势在第一预览图像中的相对位置不同;或者,目标参考姿势在第二预览图像中所占的大小,与第一姿势在第一预览图像中所占的大小不同。
可选的,当前拍摄场景的场景类别包括以下类别中的至少一项:草地场景、台阶场景、海边场景、夕阳场景、马路场景、或塔场景。
可选的,目标参考姿势的姿势类别是基于第一姿势的姿势类别得到的;其中,姿势类别包括坐姿、站姿或卧姿。
可选的,目标参考姿势是与当前拍摄场景的类别对应的多个参考姿势中的,与第一姿势之间的相似度大于等于第一阈值的参考姿势。
可选的,目标参考姿势是与当前拍摄场景的类别对应的多个参考姿势中的,与第一姿势之间的相似度最高的参考姿势。
可选的,目标参考姿势在第二预览图像中的位置,是基于第一预览图像中的第一预设对象在第一预览图像中的位置确定的。其中,目标参考姿势中的第一局部姿势与第一预设对象在同一图像中的位置之间具有第一关联关系,第一关联关系是预定义或者实时确定的。
可选的,目标参考姿势在第二预览图像中所占的大小,是基于第一预览图像中的第二预设对象在第一预览图像中所占的大小确定的。其中,目标参考姿势与第二预设对象在同一图像中的大小之间具有第二关联关系,第二关联关系是预定义或者实时确定的。
可选的,显示单元111具体用于,在第二预览图像中以人体骨架或人体轮廓显示目标参考姿势。例如,结合图4,显示单元11可以显示图4所示的目标参考姿势。
可选的,目标参考姿势的信息是终端自身确定的,或者是终端从网络设备中获取的。
可选的,显示单元111具体用于:如果当前拍摄场景的场景类别包括多种场景类别,则在第二预览图像中显示多个目标参考姿势;其中,场景类别与目标参考状态一一对应。生成单元113具体用于:如果第二姿势与多个目标参考姿势中的任意一个目标参考姿势匹配,则根据第二预览图像生成目标图像。
可选的,终端11还包括:发送单元114,用于向第二终端发送目标参考姿势的信息和第二预览图像的信息,以指示第二终端显示第二预览图像,并在第二预览图像中显示目标参考姿势。例如,结合图7,发送单元114可以用于执行步骤1。第二终端可以用于执行步骤2。
可选的,显示单元111还用于,在第二预览图像中显示当前拍摄场景的类别信息。
可选的,不同的场景类别通过不同预定义对象组来表征;如果第一预览图像包含一个预定义对象组,则当前拍摄场景的场景类别是预定义对象组所表征的场景类别;如果第一预览图像包含多个预定义对象组,则当前拍摄场景的场景类别是多个预定义对象组所表征的部分或全部场景类别。
可选的,第一人像占第一预览图像的比例大于等于第二阈值;或者,第一人像的像素点的个数大于等于第三阈值。
可选的,终端11还包括:输出单元115,用于如果第二姿势与目标参考姿势匹配,则输出提示信息,提示信息用于提示第二姿势与目标参考姿势匹配。接收单元116,用于接收第一操作。生成单元113具体用于,响应于第一操作,根据第二预览图像生成目标图像。例如,结合图9,输出单元115可以用于执行S106A,接收单元116可以用于执行S106B,生成单元116可以用于执行S106C。
可选的,确定单元112还用于,如果第二姿势与目标参考姿势的相似度大于等于第四阈值,则确定第二姿势与目标参考姿势匹配。
可选的,终端11还包括:计算单元117。
在一种实现方式中,计算单元117用于计算第一向量和第二向量;其中,第一向量是第二人像中的关键点相对角度信息构成的向量,用于表征第二姿势;第二向量是目标参考姿势下的人像中的关键点相对角度信息构成的向量,用于表征目标参考姿势。以及,计算第一向量与第二向量之间的距离。确定单元112还用于,如果距离小于等于第五阈值,则确定第二姿势与目标参考姿势的相似度大于等于第四阈值。
在另一种实现方式中,计算单元117,用于将第二姿势和目标参考姿势输入神经网络,得到第二姿势与目标参考姿势之间的相似度;其中,神经网络用于表征输入的多种姿势之间的相似度。
关于上述可选方式的具体描述可以参见前述的方法实施例,此处不再赘述。此外,上述提供的任一种图像处理装置11的解释以及有益效果的描述均可参考上述对应的方法实施例,不再赘述。
作为示例,结合图1,上述显示单元111的功能可以通过显示屏194实现。上述确定单元112、生成单元113和计算单元117中的任意一个单元的功能,均可以通过处理器110调用存储内部存储器121中的程度代码实现。上述发送单元114可以通过移动通信模块150或无线通信模块160的功能,并结合其所连接的天线等实现。上述输出单元115可以通过显示屏114或扬声器170A等用于输出信息的器件实现。上述接收单元116可以通过显示屏、麦克风170C等用于输入信息的器件实现。
本申请另一实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当指令在终端执行上述方法实施例所示的方法流程中该终端执行的各个步骤。
在一些实施例中,所公开的方法可以实施为以机器可读格式被编码在计算机可读存储介质上的或者被编码在其它非瞬时性介质或者制品上的计算机程序指令。
应该理解,这里描述的布置仅仅是用于示例的目的。因而,本领域技术人员将理解,其它布置和其它元素(例如,机器、接口、功能、顺序、和功能组等等)能够被取而代之地使用,并且一些元素可以根据所期望的结果而一并省略。另外,所描述的元素中的许多是可以被实现为离散的或者分布式的组件的、或者以任何适当的组合和位置来结合其它组件实施的功能实体。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件程序实现时,可以全部或部分地以计算机程序产品的形式来实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机执行指令时,全部或部分地产生按照本申请实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或者数据中心通过有线(例如同轴电缆、光纤、数字用户线(digitalsubscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可以用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带),光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (39)
1.一种图像处理方法,其特征在于,应用于第一终端,所述方法包括:
显示当前拍摄场景的第一预览图像,所述第一预览图像包括被拍摄者在第一姿势下的第一人像;
对所述第一预览图像进行识别,以确定所述当前拍摄场景的场景类别;
显示所述当前拍摄场景下的第二预览图像,并在所述第二预览图像中显示目标参考姿势;所述目标参考姿势至少是基于所述当前拍摄场景的场景类别得到的;其中,所述第二预览图像包括所述被拍摄者在第二姿势下的第二人像;
如果所述第二姿势与所述目标参考姿势匹配,则根据所述第二预览图像生成目标图像。
2.根据权利要求1所述的方法,其特征在于,所述目标参考姿势与所述第一姿势满足如下至少一种条件:
所述目标参考姿势与所述第一姿势不同;
所述目标参考姿势在所述第二预览图像中的相对位置,与所述第一姿势在所述第一预览图像中的相对位置不同;
或者,所述目标参考姿势在所述第二预览图像中所占的大小,与所述第一姿势在所述第一预览图像中所占的大小不同。
3.根据权利要求1或2所述的方法,其特征在于,所述当前拍摄场景的场景类别包括以下类别中的至少一项:草地场景、台阶场景、海边场景、夕阳场景、马路场景、或塔场景。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述目标参考姿势的姿势类别与所述第一姿势的姿势类别一致;其中,所述姿势类别包括坐姿、站姿或卧姿。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述目标参考姿势是与所述当前拍摄场景的类别对应的多个参考姿势中的,与所述第一姿势之间的相似度大于等于第一阈值的参考姿势。
6.根据权利要求1至4任一项所述的方法,其特征在于,所述目标参考姿势是与所述当前拍摄场景的类别对应的多个参考姿势中的,与所述第一姿势之间的相似度最高的参考姿势。
7.根据权利要求1至6任一项所述的方法,其特征在于,
所述目标参考姿势在所述第二预览图像中的位置,是基于所述第一预览图像中的第一预设对象在所述第一预览图像中的位置确定的;
其中,所述目标参考姿势中的第一局部姿势与所述第一预设对象在同一图像中的位置之间具有第一关联关系,所述第一关联关系是预定义或者实时确定的。
8.根据权利要求1至7任一项所述的方法,其特征在于,
所述目标参考姿势在所述第二预览图像中所占的大小,是基于所述第一预览图像中的第二预设对象在所述第一预览图像中所占的大小确定的;
其中,所述目标参考姿势与所述第二预设对象在同一图像中的大小之间具有第二关联关系,所述第二关联关系是预定义或者实时确定的。
9.根据权利要求1至8任一项所述的方法,其特征在于,在所述第二预览图像中显示目标参考姿势,包括:
在所述第二预览图像中以人体骨架或人体轮廓方式显示所述目标参考姿势。
10.根据权利要求1至9任一项所述的方法,其特征在于,所述目标参考姿势的信息是所述第一终端自身确定的,或者是所述第一终端从网络设备中获取的。
11.根据权利要求1至10任一项所述的方法,其特征在于,所述在所述第二预览图像中显示目标参考姿势,包括:
如果所述当前拍摄场景的场景类别包括多种场景类别,则在所述第二预览图像中显示多个目标参考姿势;其中,场景类别与目标参考状态一一对应;
所述如果所述第二姿势与所述目标参考姿势匹配,则根据所述第二预览图像生成目标图像,包括:
如果所述第二姿势与所述多个目标参考姿势中的任意一个目标参考姿势匹配,则根据所述第二预览图像生成目标图像。
12.根据权利要求1至11任一项所述的方法,其特征在于,所述方法还包括:
向第二终端发送所述目标参考姿势的信息和所述第二预览图像的信息,以指示所述第二终端显示所述第二预览图像,并在所述第二预览图像中显示所述目标参考姿势。
13.根据权利要求1至12任一项所述的方法,其特征在于,所述方法还包括:
在所述第二预览图像中显示所述当前拍摄场景的类别信息。
14.根据权利要求1至13任一项所述的方法,其特征在于,不同的场景类别通过不同预定义对象组来表征;
如果所述第一预览图像包含一个预定义对象组,则所述当前拍摄场景的场景类别是所述预定义对象组所表征的场景类别;
如果所述第一预览图像包含多个预定义对象组,则所述当前拍摄场景的场景类别是所述多个预定义对象组所表征的部分或全部场景类别。
15.根据权利要求1至14任一项所述的方法,其特征在于,
所述第一人像占所述第一预览图像的比例大于等于第二阈值;
或者,所述第一人像的像素点的个数大于等于第三阈值。
16.根据权利要求1至15任一项所述的方法,其特征在于,如果所述第二姿势与所述目标参考姿势匹配,则根据所述第二预览图像生成目标图像,包括:
如果所述第二姿势与所述目标参考姿势匹配,则输出提示信息,所述提示信息用于提示所述第二姿势与所述目标参考姿势匹配;
接收第一操作;
响应于所述第一操作,根据所述第二预览图像生成目标图像。
17.根据权利要求1至16任一项所述的方法,其特征在于,所述方法还包括:
如果所述第二姿势与所述目标参考姿势的相似度大于等于第四阈值,则确定所述第二姿势与所述目标参考姿势匹配。
18.根据权利要求17所述的方法,其特征在于,所述方法包括:
计算第一向量和第二向量;其中,所述第一向量是所述第二人像中的关键点相对角度信息构成的向量,用于表征所述第二姿势;所述第二向量是所述目标参考姿势下的人像中的关键点相对角度信息构成的向量,用于表征所述目标参考姿势;
计算所述第一向量与所述第二向量之间的距离;
如果所述距离小于等于第五阈值,则确定所述第二姿势与所述目标参考姿势的相似度大于等于所述第四阈值。
19.根据权利要求17所述的方法,其特征在于,所述方法还包括:
将所述第二姿势和所述目标参考姿势输入神经网络,得到所述第二姿势与所述目标参考姿势之间的相似度;其中,所述神经网络用于表征输入的多种姿势之间的相似度。
20.一种终端,其特征在于,所述终端包括:显示单元、确定单元和生成单元;
所述显示单元,用于显示当前拍摄场景的第一预览图像,所述第一预览图像包括被拍摄者在第一姿势下的第一人像;
所述确定单元,用于对所述第一预览图像进行识别,以确定所述当前拍摄场景的场景类别;
所述显示单元,还用于显示所述当前拍摄场景下的第二预览图像,并在所述第二预览图像中显示目标参考姿势;所述目标参考姿势至少是基于所述当前拍摄场景的场景类别得到的;其中,所述第二预览图像包括所述被拍摄者在第二姿势下的第二人像;
所述生成单元,用于如果所述第二姿势与所述目标参考姿势匹配,则根据所述第二预览图像生成目标图像。
21.根据权利要求20所述的终端,其特征在于,所述目标参考姿势与所述第一姿势满足如下至少一种条件:
所述目标参考姿势与所述第一姿势不同;
所述目标参考姿势在所述第二预览图像中的相对位置,与所述第一姿势在所述第一预览图像中的相对位置不同;
或者,所述目标参考姿势在所述第二预览图像中所占的大小,与所述第一姿势在所述第一预览图像中所占的大小不同。
22.根据权利要求20或21所述的终端,其特征在于,所述当前拍摄场景的场景类别包括以下类别中的至少一项:草地场景、台阶场景、海边场景、夕阳场景、马路场景、或塔场景。
23.根据权利要求20至22任一项所述的终端,其特征在于,所述目标参考姿势的姿势类别与所述第一姿势的姿势类别一致;其中,所述姿势类别包括坐姿、站姿或卧姿。
24.根据权利要求20至23任一项所述的终端,其特征在于,所述目标参考姿势是与所述当前拍摄场景的类别对应的多个参考姿势中的,与所述第一姿势之间的相似度大于等于第一阈值的参考姿势。
25.根据权利要求20至23任一项所述的终端,其特征在于,所述目标参考姿势是与所述当前拍摄场景的类别对应的多个参考姿势中的,与所述第一姿势之间的相似度最高的参考姿势。
26.根据权利要求20至25任一项所述的终端,其特征在于,
所述目标参考姿势在所述第二预览图像中的位置,是基于所述第一预览图像中的第一预设对象在所述第一预览图像中的位置确定的;
其中,所述目标参考姿势中的局部姿势与所述第一预设对象在同一图像中的位置之间具有第一关联关系,所述第一关联关系是预定义或者实时确定的。
27.根据权利要求20至26任一项所述的终端,其特征在于,
所述目标参考姿势在所述第二预览图像中所占的大小,是基于所述第一预览图像中的第二预设对象在所述第一预览图像中所占的大小确定的;
其中,所述目标参考姿势与所述第二预设对象在同一图像中的大小之间具有第二关联关系,所述第二关联关系是预定义或者实时确定的。
28.根据权利要求20至27任一项所述的终端,其特征在于,
所述显示单元具体用于,在所述第二预览图像中以人体骨架或人体轮廓显示所述目标参考姿势。
29.根据权利要求20至28任一项所述的终端,其特征在于,所述目标参考姿势的信息是所述终端自身确定的,或者是所述终端从网络设备中获取的。
30.根据权利要求20至29任一项所述的终端,其特征在于,
所述显示单元具体用于:如果所述当前拍摄场景的场景类别包括多种场景类别,则在所述第二预览图像中显示多个目标参考姿势;其中,场景类别与目标参考状态一一对应;
所述生成单元具体用于:如果所述第二姿势与所述多个目标参考姿势中的任意一个目标参考姿势匹配,则根据所述第二预览图像生成目标图像。
31.根据权利要求20至30任一项所述的终端,其特征在于,所述终端还包括:
发送单元,用于向第二终端发送所述目标参考姿势的信息和所述第二预览图像的信息,以指示所述第二终端显示所述第二预览图像,并在所述第二预览图像中显示所述目标参考姿势。
32.根据权利要求20至31任一项所述的终端,其特征在于,
所述显示单元还用于,在所述第二预览图像中显示所述当前拍摄场景的类别信息。
33.根据权利要求20至32任一项所述的终端,其特征在于,不同的场景类别通过不同预定义对象组来表征;
如果所述第一预览图像包含一个预定义对象组,则所述当前拍摄场景的场景类别是所述预定义对象组所表征的场景类别;
如果所述第一预览图像包含多个预定义对象组,则所述当前拍摄场景的场景类别是所述多个预定义对象组所表征的部分或全部场景类别。
34.根据权利要求20至33任一项所述的终端,其特征在于,
所述第一人像占所述第一预览图像的比例大于等于第二阈值;
或者,所述第一人像的像素点的个数大于等于第三阈值。
35.根据权利要求20至34任一项所述的终端,其特征在于,所述终端还包括:
输出单元,用于如果所述第二姿势与所述目标参考姿势匹配,则输出提示信息,所述提示信息用于提示所述第二姿势与所述目标参考姿势匹配;
接收单元,用于接收第一操作;
所述生成单元具体用于,响应于所述第一操作,根据所述第二预览图像生成目标图像。
36.根据权利要求20至35任一项所述的终端,其特征在于,
所述确定单元还用于,如果所述第二姿势与所述目标参考姿势的相似度大于等于第四阈值,则确定所述第二姿势与所述目标参考姿势匹配。
37.根据权利要求36所述的终端,其特征在于,所述终端还包括:
计算单元,用于计算第一向量和第二向量;其中,所述第一向量是所述第二人像中的关键点相对角度信息构成的向量,用于表征所述第二姿势;所述第二向量是所述目标参考姿势下的人像中的关键点相对角度信息构成的向量,用于表征所述目标参考姿势;以及,计算所述第一向量与所述第二向量之间的距离;
所述确定单元还用于,如果所述距离小于等于第五阈值,则确定所述第二姿势与所述目标参考姿势的相似度大于等于所述第四阈值。
38.根据权利要求36所述的终端,其特征在于,所述终端还包括:
计算单元,用于将所述第二姿势和所述目标参考姿势输入神经网络,得到所述第二姿势与所述目标参考姿势之间的相似度;其中,所述神经网络用于表征输入的多种姿势之间的相似度。
39.一种终端,其特征在于,包括:处理器、存储器和显示屏,所述显示屏用于显示图像,所述存储器用于存储计算机程序和指令,所述处理器用于调用所述计算机程序和指令,与所述显示屏协同执行如权利要求1-19中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2020/142530 WO2021179773A1 (zh) | 2020-03-07 | 2020-12-31 | 图像处理方法和装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2020101537601 | 2020-03-07 | ||
CN202010153760 | 2020-03-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113364971A true CN113364971A (zh) | 2021-09-07 |
CN113364971B CN113364971B (zh) | 2023-04-18 |
Family
ID=77524350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010480843.1A Active CN113364971B (zh) | 2020-03-07 | 2020-05-30 | 图像处理方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113364971B (zh) |
WO (1) | WO2021179773A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113835354A (zh) * | 2021-10-14 | 2021-12-24 | 北京联盛德微电子有限责任公司 | 物联网家电控制系统 |
CN114020157A (zh) * | 2021-11-15 | 2022-02-08 | 广州小鹏汽车科技有限公司 | 验车的方法、装置、车辆及存储介质 |
CN115278060A (zh) * | 2022-07-01 | 2022-11-01 | 北京五八信息技术有限公司 | 一种数据处理方法、装置、电子设备及存储介质 |
CN115423752A (zh) * | 2022-08-03 | 2022-12-02 | 荣耀终端有限公司 | 一种图像处理方法、电子设备及可读存储介质 |
WO2023197908A1 (zh) * | 2022-04-14 | 2023-10-19 | 北京字跳网络技术有限公司 | 拍照方法、装置、设备、存储介质和程序产品 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113905174A (zh) * | 2021-09-18 | 2022-01-07 | 咪咕文化科技有限公司 | 拍照姿势推荐方法、装置、设备以及计算机可读存储介质 |
CN113890994B (zh) * | 2021-09-30 | 2022-12-23 | 荣耀终端有限公司 | 图像拍摄方法、系统和存储介质 |
CN114285988B (zh) * | 2021-12-03 | 2024-04-09 | 维沃移动通信有限公司 | 显示方法、装置、电子设备及存储介质 |
US11871104B2 (en) * | 2022-03-29 | 2024-01-09 | Qualcomm Incorporated | Recommendations for image capture |
CN116074623B (zh) * | 2022-05-30 | 2023-11-28 | 荣耀终端有限公司 | 一种摄像头的分辨率选择方法和装置 |
CN117011946B (zh) * | 2023-10-08 | 2023-12-19 | 武汉海昌信息技术有限公司 | 一种基于人体行为识别的无人救援方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120262593A1 (en) * | 2011-04-18 | 2012-10-18 | Samsung Electronics Co., Ltd. | Apparatus and method for photographing subject in photographing device |
CN106331508A (zh) * | 2016-10-19 | 2017-01-11 | 深圳市道通智能航空技术有限公司 | 拍摄构图的方法及装置 |
CN106791364A (zh) * | 2016-11-22 | 2017-05-31 | 维沃移动通信有限公司 | 一种多人拍照的方法及移动终端 |
CN107734251A (zh) * | 2017-09-29 | 2018-02-23 | 维沃移动通信有限公司 | 一种拍照方法和移动终端 |
CN108600632A (zh) * | 2018-05-17 | 2018-09-28 | Oppo(重庆)智能科技有限公司 | 拍照提示方法、智能眼镜及计算机可读存储介质 |
CN109194879A (zh) * | 2018-11-19 | 2019-01-11 | Oppo广东移动通信有限公司 | 拍照方法、装置、存储介质及移动终端 |
EP3590095A1 (en) * | 2017-05-16 | 2020-01-08 | Apple Inc. | Emoji recording and sending |
CN110868538A (zh) * | 2019-11-11 | 2020-03-06 | 三星电子(中国)研发中心 | 推荐拍摄姿态的方法和电子设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011193063A (ja) * | 2010-03-12 | 2011-09-29 | Sanyo Electric Co Ltd | 電子カメラ |
KR101832959B1 (ko) * | 2011-08-10 | 2018-02-28 | 엘지전자 주식회사 | 휴대 전자기기 및 이의 제어방법 |
CN108156385A (zh) * | 2018-01-02 | 2018-06-12 | 联想(北京)有限公司 | 图像获取方法及图像获取装置 |
CN110049180A (zh) * | 2018-11-27 | 2019-07-23 | 阿里巴巴集团控股有限公司 | 拍摄姿势推送方法和装置、智能终端 |
-
2020
- 2020-05-30 CN CN202010480843.1A patent/CN113364971B/zh active Active
- 2020-12-31 WO PCT/CN2020/142530 patent/WO2021179773A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120262593A1 (en) * | 2011-04-18 | 2012-10-18 | Samsung Electronics Co., Ltd. | Apparatus and method for photographing subject in photographing device |
CN106331508A (zh) * | 2016-10-19 | 2017-01-11 | 深圳市道通智能航空技术有限公司 | 拍摄构图的方法及装置 |
CN106791364A (zh) * | 2016-11-22 | 2017-05-31 | 维沃移动通信有限公司 | 一种多人拍照的方法及移动终端 |
EP3590095A1 (en) * | 2017-05-16 | 2020-01-08 | Apple Inc. | Emoji recording and sending |
CN107734251A (zh) * | 2017-09-29 | 2018-02-23 | 维沃移动通信有限公司 | 一种拍照方法和移动终端 |
CN108600632A (zh) * | 2018-05-17 | 2018-09-28 | Oppo(重庆)智能科技有限公司 | 拍照提示方法、智能眼镜及计算机可读存储介质 |
CN109194879A (zh) * | 2018-11-19 | 2019-01-11 | Oppo广东移动通信有限公司 | 拍照方法、装置、存储介质及移动终端 |
CN110868538A (zh) * | 2019-11-11 | 2020-03-06 | 三星电子(中国)研发中心 | 推荐拍摄姿态的方法和电子设备 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113835354A (zh) * | 2021-10-14 | 2021-12-24 | 北京联盛德微电子有限责任公司 | 物联网家电控制系统 |
CN113835354B (zh) * | 2021-10-14 | 2022-05-27 | 北京联盛德微电子有限责任公司 | 物联网家电控制系统 |
CN114020157A (zh) * | 2021-11-15 | 2022-02-08 | 广州小鹏汽车科技有限公司 | 验车的方法、装置、车辆及存储介质 |
WO2023197908A1 (zh) * | 2022-04-14 | 2023-10-19 | 北京字跳网络技术有限公司 | 拍照方法、装置、设备、存储介质和程序产品 |
CN115278060A (zh) * | 2022-07-01 | 2022-11-01 | 北京五八信息技术有限公司 | 一种数据处理方法、装置、电子设备及存储介质 |
CN115278060B (zh) * | 2022-07-01 | 2024-04-09 | 北京五八信息技术有限公司 | 一种数据处理方法、装置、电子设备及存储介质 |
CN115423752A (zh) * | 2022-08-03 | 2022-12-02 | 荣耀终端有限公司 | 一种图像处理方法、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113364971B (zh) | 2023-04-18 |
WO2021179773A1 (zh) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113364971B (zh) | 图像处理方法和装置 | |
CN109814766B (zh) | 一种应用显示方法及电子设备 | |
CN112130742B (zh) | 一种移动终端的全屏显示方法及设备 | |
CN113645351B (zh) | 应用界面交互方法、电子设备和计算机可读存储介质 | |
CN109559270B (zh) | 一种图像处理方法及电子设备 | |
CN112887583B (zh) | 一种拍摄方法及电子设备 | |
CN113805487B (zh) | 控制指令的生成方法、装置、终端设备及可读存储介质 | |
CN113452969B (zh) | 图像处理方法和装置 | |
CN114995715B (zh) | 悬浮球的控制方法和相关装置 | |
CN111431968B (zh) | 服务元素的跨设备分配方法、终端设备及存储介质 | |
CN113010076A (zh) | 一种显示要素的显示方法和电子设备 | |
CN112150499A (zh) | 图像处理方法及相关装置 | |
WO2022057384A1 (zh) | 拍摄方法和装置 | |
CN115115679A (zh) | 一种图像配准方法及相关设备 | |
CN115437601B (zh) | 图像排序方法、电子设备、程序产品及介质 | |
CN113536834A (zh) | 眼袋检测方法以及装置 | |
CN114283195B (zh) | 生成动态图像的方法、电子设备及可读存储介质 | |
CN114639114A (zh) | 视力检测方法及电子设备 | |
CN113518172A (zh) | 图像处理方法和装置 | |
CN114359335A (zh) | 一种目标跟踪方法及电子设备 | |
CN114006976B (zh) | 一种界面显示方法及终端设备 | |
CN113849113A (zh) | 触摸操作处理方法、电子设备及计算机可读存储介质 | |
CN115329299A (zh) | 屏幕解锁方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |