CN115525188A - 拍摄方法和电子设备 - Google Patents

拍摄方法和电子设备 Download PDF

Info

Publication number
CN115525188A
CN115525188A CN202210193723.2A CN202210193723A CN115525188A CN 115525188 A CN115525188 A CN 115525188A CN 202210193723 A CN202210193723 A CN 202210193723A CN 115525188 A CN115525188 A CN 115525188A
Authority
CN
China
Prior art keywords
image
image frame
video
frame
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210193723.2A
Other languages
English (en)
Inventor
朱世宇
董振
侯伟龙
杜远超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honor Device Co Ltd
Original Assignee
Honor Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honor Device Co Ltd filed Critical Honor Device Co Ltd
Priority to CN202210193723.2A priority Critical patent/CN115525188A/zh
Priority to PCT/CN2022/140204 priority patent/WO2023160170A1/zh
Priority to EP22896836.8A priority patent/EP4273684A1/en
Publication of CN115525188A publication Critical patent/CN115525188A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本申请提供了一种拍摄方法。该方法可应用于手机、网络电视等具备拍摄能力的终端设备上。实施上述方法,终端设备可以在拍摄视频的过程中,对视频帧进行图像识别和分析,确定精彩视频帧,生成得到精彩照片。这样,用户可以在拍摄视频的过程中,同时得到视频和视频中的精彩照片,既避免了手动抓拍难以拍到精彩照片的问题,或者通过已拍摄的视频截取精彩照片画面质量较低的问题,又节省了用户操作,提高了用户使用体验。

Description

拍摄方法和电子设备
技术领域
本申请涉及终端领域,尤其涉及拍摄方法和电子设备。
背景技术
手机等终端设备可以拍摄照片、视频。在拍摄照片时,由于反映时延、动作时延,用户最后拍摄得到的照片并不是理想的某一时刻的照片,特别是在抓拍这种对时间要求高的场景中。在一些场景中,用户会选择先拍摄视频,然后从视频中截取一帧或多帧保存为照片。这时,用户获取上述照片的操作是繁琐的,影响用户使用体验。另一方面,从视频中截取的视频帧得到的照片的画面质量更低,这也降低了用户的使用体验。
发明内容
本申请实施例提供了一种拍摄方法,该方法可应用于手机、网络电视等具备拍摄能力的终端设备上。实施上述方法,终端设备可以在拍摄视频的过程中,对视频帧进行图像识别和分析,确定精彩视频帧,生成得到精彩照片。
第一方面,本申请提供了一种拍摄方法,应用于包括摄像头的终端设备,该方法包括:显示预览界面,预览界面包括第一控件;第一时刻,检测到对第一控件的第一操作,开始录制第一视频;显示第一视频的录制界面,录制界面包括第二控件;第二时刻,检测到对第二控件的第二操作,结束录制第一视频;保存第一视频和第一图像帧,第一视频包括在第三时刻摄像头采集的第一图像经过处理得到的第二图像帧,第三时刻在第一时刻和第二时刻之间,第一图像帧为第一图像经过处理得到的;其中,第一图像帧为第一图像经过处理得到的,包括:确定第一图像中的第一目标对象符合第一预设条件;对第一图像进行处理得到第一图像帧。
实施第一方面提供的方法,终端设备可录制视频,并在录视视频的过程中识别精彩图像,从而得到并展示与上述精彩图像对应的精彩照片。这样,用户可以在通过录制视频的操作,同时得到视频和录制视频过程中的精彩照片,避免了在录像过程中抓拍,或对视频进行截取得到精彩照片的繁琐方式。
结合第一方面提供的实施例,在一些实施实施例中,第一图像帧与第二图像帧的分辨率相同;或者,第一图像帧的分辨率高于第二图像帧。
实施上述实施例提供的方法,终端设备在录制过程中得到的精彩照片相当于用户采用一般的拍摄方法拍摄得到的照片,是高分辨率的,例如4K的照片,而不是基于录制得到的视频截取到的低分辨率的照片,例如1080*1920。这样,在用户录制视频并得到的视频和照片中,照片的图像质量高于或等于视频中一阵一阵图像的质量,保证了照片的拍摄效果,不会因为同时拍摄视频而有所下降。
结合第一方面提供的实施例,在一些实施实施例中,第一时刻与第二时刻之间间隔时长为第一时长,第一时长大于10秒。
实施上述实施例提供的方法,终端设备根据用户的需求确定录制的视频的长度,例如30秒、1分钟、2分钟、10分钟,甚至更长,或者时长。终端设备可以在录制的过程中,一边保存视频,一边确定精彩时刻保存精彩照片。这样,即便录制的视频的时间很长,用户也可以在保存得到视频的同时,得到精彩照片,无需较长的处理和分析的时间。这也是为什么终端设备对于录制视频的时长没有限制的原因。
结合第一方面提供的实施例,在一些实施实施例中,第一控件与第二控件相同,或者,第一控件与第二控件不同。
结合第一方面提供的实施例,在一些实施实施例中,录制界面还包括第三控件,方法还包括:第四时刻,检测到对第三控件的第三操作,确定第三图像帧;第四时刻在第一时刻和第二时刻之间,第三图像帧为在第四时刻摄像头采集的第二图像经过处理得到的;保存第一视频和第一图像帧,包括:保存第一视频、第一图像帧和第三图像帧。
实施上述实施例提供的方法,终端设备在录制过程中除了根据预设的规则判断摄像头采集的图像是否精彩之外,还可以根据用户的拍摄操作,确定用户想要的精彩图像,进而得到精彩照片。对用户而言,用户可以在录视视频的过程中随时通过特定的控件拍摄当前时刻想要的图像,并保存为照片。
结合第一方面提供的实施例,在一些实施实施例中,在第一时刻之前,该方法还包括:显示设置界面,设置界面包括:第一选项和多个第二选项,所示第一选项用于指示第一目标对象,多个第二选项与第一目标对象对应,指示第一目标对象做出的多个动作。
实施上述实施例提供的方法,终端设备可以提前记录用户的设定的目标对象、动作,即用户设定的精彩时刻。这样,终端设备在录视视频过程中自动生成的精彩照片可以更好的满足用户的需求。
结合第一方面提供的实施例,在一些实施实施例中,第一图像帧、第三图像帧是第一时刻和第二时刻之间摄像头采集的画质清晰且图像内容有意义的图像帧;图像帧的图像内容有意义是指:图像帧中包括第一目标对象,和/或,第一目标对象对应的一个或多个动作。
结合第一方面提供的实施例,在一些实施实施例中,该方法还包括:显示展示界面,展示界面包括第一视频的缩略图;检测到对缩略图的第四操作,显示第一视频、第一图像帧和第三图像帧。
参考图3A所示的用户界面,实施上述实施例提供的方法,终端设备可以先展示拍摄得到的视频。在播放该视频时,再展示录制该视频的过程中生成的照片。
结合第一方面提供的实施例,在一些实施实施例中,该方法还包括:显示展示界面,展示界面包括第一视频的缩略图、第一图像帧的缩略图和第三图像帧的缩略图。
参考图3D所示的用户界面,实施上述实施例提供的方法,终端设备也可以一同展示拍摄得到的视频及照片。这样,用户可以一次性的直观的获取到视频或照片,方便用户后续使用视频或照片,也节省了用户操作。
结合第一方面提供的实施例,在一些实施实施例中,确定第一图像中的第一目标对象符合第一预设条件,具体包括:确定第一图像中包括第一目标对象,且第一目标对象做出预设动作;第一目标对象包括人物,预设动作为向上跳跃、奔跑、跨栏、射门、比耶中的任意一项;和/或,
确定所述第一图像中包括所述第一目标对象,且所述第一目标对象的表情符合预设表情,所述第一目标对象包括人物,所述预设表情包括微笑、大笑、闭眼微笑、眨眼、嘟嘴中任意一项;和/或,
确定所述第一图像的画质的清晰度大于预设值。
实施上述实施例提供的方法,终端设备可以从摄像头采集的图像中确定出包括目标对象以及目标对象做出特定预设动作或者预设表情或者图像清晰度超过一定标准的图像帧。终端设备可确定上述图像帧为精彩图像帧,进而生成精彩照片。
结合第一方面提供的实施例,在一些实施实施例中,确定第一图像中包括第一目标对象,且第一目标对象做出预设动作,具体包括:当第一图像的综合评分高于第一阈值时,确定第一图像中包括第一目标对象,且第一目标对象做出预设动作;综合评分包括图像质量评分ImageQualityScore、人像评分FaceScore和动作评分ActionScore,ImageQualityScore用于评价图像的画质的清晰度,FaceScore用于评价第一图像中第一目标对象的状态,ActionScore用于评价第一图像中第一目标对象的所述预设动作的完成度。
实施上述实施例提供的方法,终端设备可以通过检测图像帧的图像质量(清晰度)、图像中的是否包括目标对象以及目标对象的状态、目标对象是否做出动作以及动作的完成度,来确定一帧图像的图像内容是否精彩,进而确定该图像帧是否是用户想要的精彩图像。
结合第一方面提供的实施例,在一些实施实施例中,ImageQualityScore越大对应第一图像的清晰度越高;FaceScore=0用于表示第一图像中不包括第一目标对象,FaceScore>0用于表示第一图像中包括第一目标对象,且第一目标对象微笑和/或睁眼;ActionScore=0用于表示第一目标对象未作出动作,ActionScore>0用于表示第一目标对象做出动作,且ActionScore越大,动作的完成度越高。
结合第一方面提供的实施例,在一些实施实施例中,如果FaceScore=0,ActionScore=0,则第一阈值取第一值M1;如果FaceScore=0,ActionScore≠0,则第一阈值取第二值M2;如果FaceScore≠0,ActionScore≠0,则第一阈值取第三值M0;
实施上述实施例提供的方法,终端设备可以根据不同的情况,设定判断图像是否精彩的第一阈值的具体取值,进而使得通过预设规则确定的精彩图像的类型(是否包括目标对象、目标对象是否做出动作)更加丰富,即得到的精彩照片的图像内容更加丰富,可以满足各种拍摄场景。
结合第一方面提供的实施例,在一些实施实施例中,M1<M2<M0。
结合第一方面提供的实施例,在一些实施实施例中,在确定第一图像的综合评分高于第一阈值之后,方法还包括:确定第一图像与第三图像不相似,第三图像是摄像头在第五时刻采集的图像,第五时刻在第一时刻与第二时刻之间,第五时刻与第三时刻不相同;或者,确定第一图像与第三图像相似,但第一图像的综合评分高于第三图像。
实施上述实施例提供的方法,终端设备在确定图像帧满足预设的判断是否精彩的规则之后,终端设备还会判断该图像帧与在先确定精彩图像帧是否重复,即图像内容的相似度极高。这时,在确定该图像帧与上述其他图像帧不相似时,终端设备可确定该图像帧否精彩图像帧;在确定该图像帧与上述其他图像帧相似时,如果该图像帧的综合评分更高,则确定输出该图像帧作为精彩照片,且不再输出上述其他与之相似的图像帧。
结合第一方面提供的实施例,在一些实施实施例中,对第一图像进行处理得到第一图像帧,具体包括:确定与第一图像相邻的N帧图像;融合第一图像和N帧图像,得到第一图像帧。
实施上述实施例提供的方法,在基于摄像头采集的某一帧图像得到生成照片时,终端设备可以结合该图像前后几帧图像,经该图像帧和该图像前后几帧图像融合得到最后的精彩照片。这样,最后输出的精彩照片的清晰度可以更高,噪声更小,色彩效果更好等等。
第二方面,本申请提供了一种电子设备,该电子设备包括一个或多个处理器和一个或多个存储器;其中,一个或多个存储器与一个或多个处理器耦合,一个或多个存储器用于存储计算机程序代码,计算机程序代码包括计算机指令,当一个或多个处理器执行计算机指令时,使得电子设备执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
第三方面,本申请提供一种计算机可读存储介质,包括指令,当上述指令在电子设备上运行时,使得上述电子设备执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
第四方面,本申请提供一种包含指令的计算机程序产品,当上述计算机程序产品在电子设备上运行时,使得上述电子设备执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
可以理解地,上述第二方面提供的电子设备、第三方面提供的计算机存储介质、第四方面提供的计算机程序产品均用于执行本申请所提供的方法。因此,其所能达到的有益效果可参考对应方法中的有益效果,此处不再赘述。
附图说明
图1A-图1J是本申请实施例提供的一组拍摄过程中的用户界面示意图;
图2A-图2F是本申请实施例提供的另一组拍摄过程中的用户界面示意图;
图3A-图3F是本申请实施例提供的一组拍摄过程中的用户界面示意图;
图4是本申请实施例提供的拍摄方法的软件结构图;
图5是本申请实施例提供的拍摄方法的流程图;
图6是本申请实施例提供的另一种拍摄方法的流程图;
图7是本申请实施例提供的人脸眼部示意图;
图8是本申请实施例提供的中终端设备评选出的视频中的多帧精彩图像帧的示意图;
图9是本申请实施例提供的终端设备的系统结构示意图;
图10是本申请实施例提供的终端设备的硬件结构示意图。
具体实施方式
本申请以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。
手机等终端设备可以拍摄照片、视频。在拍摄照片时,由于反映时延、动作时延,用户最后拍摄得到的照片并不是理想的某一时刻的照片,特别是在抓拍这种对时间要求高的场景中。在一些场景中,用户会选择先拍摄视频,然后从视频中截取一帧或多帧保存为照片。这时,用户获取上述照片的操作是繁琐的,影响用户使用体验。另一方面,从视频中截取的视频帧得到的照片的画面质量更低,这也降低了用户的使用体验。
因此,本申请实施例提供了一种拍摄方法。该方法可应用于手机、网络电视等具备拍摄能力的终端设备上。
实施上述方法,终端设备可以在拍摄视频的过程中,对处理流的视频帧进行图像识别和分析,确定处理流中的精彩视频帧。上述处理流是指对原始流进行下采样得到的、用于图像计算使用的视频流。使用处理流进行图像识别、图像分析等图像计算,可以降低图像计算的时间成本和存储成本,提升计算效率。上述原始流是指实际的摄像头采集得到的视频流。一般的,原始流的数据量较大,不适合用于复杂的图像计算。
上述精彩视频帧是指画面质量高、图像内容有意义的视频帧。其中,用于评价图像画面质量的指标包括但不限于清晰度、噪声、色彩等。因此,画面质量高包括画面清晰度高、图像噪声小、校准色彩等等。图像内容有意义包括图像中有明确的图像内容,例如人物、动物等。优选的,明确的图像内容还包括睁眼微笑的人物,或者,微笑、大笑、闭眼微笑、眨眼、嘟嘴的人物。进一步的,图像内容有意义还包括图像内容做出预设的特定动作。例如人向上跳跃、运动员跨栏、小狗奔跑等等。对于不包括人物和动物这类可执行特定动作的图像,图像内容有意义还包括植物、建筑完整端正等。
在确定处理流中的精彩视频帧之后,终端设备可以确定原始流中与之对应的视频帧,记为原始精彩视频帧。然后,终端设备可基于上述原始精彩视频帧得到精彩照片。在拍摄完成后,终端设备可将展示上述精彩照片。
这样,用户可以在拍摄视频的过程中,同时得到视频和视频中的精彩照片。这样,用户不仅可以避免了手动抓拍难以拍到精彩照片的问题,或者通过已拍摄的视频截取精彩照片画面质量较低的问题,又节省了用户操作,提高了用户使用体验。
下面,图1A-图1G示例性示出了一组实施本申请实施例提供的拍摄方法的用户界面。
在图1A-图1G所示的用户界面中,实施上述拍摄方法的终端设备(记为终端设备100)为手机。当然,不限于手机、平板电脑,终端设备100还可以是桌面型计算机、膝上型计算机、手持计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本,以及蜂窝电话、个人数字助理(personal digital assistant,PDA)、增强现实(augmented reality,AR)设备、虚拟现实(virtual reality,VR)设备、人工智能(artificial intelligence,AI)设备、可穿戴式设备、车载设备、智能家居设备和/或智慧城市设备,本申请实施例对终端设备100的具体类型不作特殊限制。
首先,图1A示例性示出了手机的主界面(homepage)。
如图1A所示,主界面可包括状态栏111、页面指示符112、以及多个应用程序图标。
其中,状态栏可包括移动通信信号(又可称为蜂窝信号)的一个或多个信号强度指示符、无线高保真(wireless fidelity,Wi-Fi)信号强度指示符,电池状态指示符、时间指示符等。
页面指示符112可用于指示当前显示的页面与其他页面的位置关系。
多个应用程序图标可包括设置应用图标113A、应用市场应用图标113B、图库应用图标113C、浏览器应用图标113D、相机应用图标113E、通讯录应用图标113F、电话应用图标113G、信息应用图标113H等。不限于上述图标,主界面还可包括其他应用程序图标,这里不再一一例举。多个应用程序图标可分布在多个页面。页面指示符112可以用于指示用户当前浏览的页面是承载多个应用程序的多个页面中的哪一个页面。用户可以左右滑动的触控操作来浏览其他页面。
可以理解的,图1A及其后续介绍的用户界面仅仅示例性示出了以手机为例的终端设备100的一种可能的用户界面样式,不应构成对本申请实施例的限定。
终端设备100可检测到用户作用于相机应用图标113E的用户操作。响应于上述操作,终端设备100可显示图1B所示的用户界面。图1B示例性示出了终端设备100提供的用于拍摄的用户界面。
如图1B所示,该用户界面可包括菜单栏121、拍摄控件122、预览窗123、回看控件124。
菜单栏121中可显示有多个拍摄模式选项,例如“夜景”、“人像”、“拍照”、“录像”等等。“夜景”模式可用于光线较暗的场景下,例如夜晚,拍摄照片。“人像”模式可用于拍摄主体为人物的拍摄场景。
在本申请实施例中,菜单栏121还包括“精彩抓拍”模式。“精彩抓拍”模式对应本申请实施例提供的拍摄方法:在拍摄视频的过程中,同时确定视频流中的精彩视频帧,并将上述视频帧保存为照片。终端设备100可检测到用户作用于菜单栏121的左滑、右滑操作,切换拍摄模式。当前,图1B所示的场景下,终端设备100确定的拍摄模式为“精彩抓拍”模式。
在“精彩抓拍”模式下,当检测到作用于拍摄控件122的用户操作后,终端设备100可录制摄像头采集的连续的一组图像帧,并将上述一组图像帧输出为特定编码格式的视频。上述过程可称为录制视频。上述输出的特定编码格式的视频可称为目标视频。上述一组图像帧对应目标视频中包括的视频帧。
在录制视频的过程中,终端设备100还可在预览窗123中实时地显示摄像头采集的连续的图像帧,即目标视频中包括的视频帧。在完成视频录制后,回看控件124可显示目标视频的缩略图。一般上述缩略图为目标视频的首帧图像的缩略图。
图1B所示的用户界面还包括设置栏125、转换控件126。
设置栏125中可显示有多个拍摄参数控件。一个拍摄控件用于调整摄像头的一类参数,从而改变摄像头采集到的图像。例如,设置栏125可显示有“光圈”1251、“闪光灯”1252、“自动跟随”1253、“滤镜”1254、“喜好”1255等拍摄参数。“光圈”1251可用于调整摄像头光圈大小,从而改变摄像头采集到的图像的画面亮度;“闪光灯”1252可用于调整开启或关闭闪光灯,也可改变摄像头采集到的图像的画面亮度;“自动跟随”1253可用于设置拍摄跟随对象,从而影响摄像头的取景范围。“滤镜”1254可用于调整图像色彩。
“喜好”1255可用于记录用户的自定义设置。在本申请实施例中,“喜好”1255可为用户提供设置识别图像内容和动作的功能,后续实施例将具体介绍,这里先不展开。上述拍摄参数控件对摄像头采集到的图像的影响均可在预览窗123中实时地显示出来。
转换控件126可用于切换正在使用的取景摄像头。若当前正在使用的采集图像的摄像头为前置摄像头,当检测到作用于转换控件126的用户操作后,响应于上述操作,终端设备100可启用后置摄像头采集图像。反之,若当前正在使用的采集图像的摄像头为后置摄像头,当检测到作用于转换控件126的用户操作后,响应于上述操作,终端设备100可启用前置摄像头采集图像。
图1C-图1E示例性示出了在“精彩抓拍”模式下录制视频的一组用户界面。
在图1B所示的用户界面下,在检测到作用于拍摄控件122的用户操作后,终端设备100可开始录制视频,参考图1C。在开始录制视频时,终端设备100可变更拍摄控件122的样式,参考图1C中的拍摄控件122。图1C中的拍摄控件122可提醒用户已开始录制视频。
预览窗123可实时地显示摄像头采集的图像帧。这时,预览窗123示例性示出了一帧摄像头在当前时刻(检测到作用于拍摄控件122开始拍摄的时刻)采集到的图像。上述预览窗123中显示的图像帧可记为图像帧A1。图像帧A1可以为录制后得到的视频(目标视频)的首帧图像。
在开始录制之后的某一时刻,终端设备100可再次检测到作用拍摄控件122的用户操作。响应于上述操作,终端设备100可停止录制,参考图1D。此时,预览窗123中显示的图像帧可记为图像帧A2。图像帧A2可以为目标视频的最后一帧图像。
参考图1E,在停止录制之后,拍摄控件122可变回图1B中的样式,同时,回看控件124可显示被保存的视频的缩略图。例如,回看控件124中显示的图像为图像帧A1的缩略图,即录制得到的视频的首帧图像的缩略图。
终端设备100可检测到作用于回看控件124的用户操作。响应于上述操作,终端设备100可播放录制得到的目标视频。
图1F示例性示出了终端播放目标视频的用户界面。
在检测到作用于回看控件124的用户操作之后,终端设备100可显示图1F所示的用户界面。该界面包括窗口131。窗口131可用于播放目标视频。该界面还可包括控件132。当检测到作用于控件132的用户操作之后,终端设备100可显示图1E所示的用户界面。
在目标视频播放完成之后,终端设备100可显示图1G所示的用户界面。如图1G所示,该界面可包括窗口141、窗口142。窗口141可用于播放目标视频。当检测到作用于窗口141的用户操作之后,例如点击操作,终端设备100可在窗口141中播放目标视频。窗口142可用于显示一张或多张精彩图片。上述精彩图片是终端设备100从窗口141中播放的目标视频中筛选出的。
示例性的,窗口142中显示了5张从窗口141中播放的目标视频中筛选出的精彩照片,例如照片142A、照片142B、照片142C、照片142D、照片142E。当然,终端设备100还可从目标视频中筛选出更多的精彩照片,不限于5张。相应地,窗口142还可显示更多的精彩照片。
在一些实施例中,在检测到作用于回看控件124的用户操作之后,终端设备100可直接显示图1G所示的用户界面。这样,终端设备100可以在首次播放目标视频的同时,显示从目标视频中筛选出的精彩照片。同时,用户可以直接获得上述精彩照片,而无需等待一次播放目标视频的时间。
在一些实施例中,终端设备100也可以在常规的“录像”模式下拍摄视频。在上述录制过程中,终端设备100也可以识别视频流中的精彩视频帧,然后生成精彩照片。
优选的,在“录像”模式下开始拍摄视频时,终端设备100可显示对话框,确定是否检测视频录制过程中的精彩时刻,并生成精彩照片。
图1H示例性示出了在“录像”模式下拍摄视频的用户界面。此时,在检测到作用于控件122的用户操作之后,终端设备100可显示图1I所示的用户界面。如图1I所示,该用户界面可包括对话框151。对话框151可包括“常规录制”选项和“精彩抓拍”选项。
若检测到用户选择“精彩抓拍”选项,则终端设备100可实时地识别录制过程中的精彩时刻,并在录制结束后,生成并展示精彩照片。反之,若检测到用户选择“常规录制”选项,则终端设备100不会实时地识别精彩时刻,相应地,终端设备100也不会生成和展示精彩照片。这样,在用户只想要拍摄常规的视频时,终端设备100可以节省计算资源。
在一些实施例中,终端设备100也课在“录像”模式下结束拍摄视频时,可显示上述对话框,避免错过用户确定的开始拍摄的时机。
在一些实施例中,终端设备100也可根据用户的喜好来识别精彩时刻,进而生成相应地精彩照片。
如图1B所示,终端设备100可检测到作用于控件1255的用户操作,响应于上述操作,终端设备100可显示图1J所示的用户界面。该界面可显示多个图像内容选项和动作选项,例如“人物”、“狗”、“猫”等图像内容选项,“向上跳跃”、“奔跑”、“跨栏”等动作选项。不同的图像内容可对应不同的动作。
终端设备100可检测到用户选择一个或多个图像内容选项和一个或多个动作选项的用户操作。这时,终端设备100在识别到上述图像内容和/或动作时才确定此时为精彩时刻,例如人向上跳跃的时刻、人奔跑的时刻为精彩时刻等等。
在一些实施例中,在“精彩抓拍”模式对应的录制视频的过程中,终端设备100还支持基于用户操作的精彩照片抓拍。图2A-图2F示例性示出了一组基于用户操作的精彩照片抓拍的用户界面。
图2A示例性示出了录制视频过程中的某一时刻的用户界面。
上述某一时刻可以为终端设备100显示图1C所示的用户界面的时刻到显示图1D所示的用户界面的时刻之间的时刻。此时,预览窗123中显示的图像帧可记为图像帧B1。图像帧B1是图像帧A1(首帧)和图像帧A2(最后一帧)构成的目标视频中的一帧。
图2A所示的用户界面中还包括拍摄控件211。终端设备100可在显示图像帧B1的同时检测到作用于拍摄控件211的用户操作。响应于上述操作,终端设备100可将图像帧B1对应的原始流中的高分辨率图像保存为精彩照片。
在一些实施例中,响应于上述操作,终端设备100还可将图像帧B2对应的原始流中的高分辨率图像保存为精彩照片。图像帧B2是图像帧B1之前的第n帧图像,例如n=3。
图2B示例性示出了录制视频过程中的另一个某一时刻的用户界面。
上述时刻可以为终端设备100显示图2A所示的用户界面的时刻到显示图1D所示的用户界面的时刻之间的时刻。此时,预览窗123中显示的图像帧可记为图像帧B2。图像帧B1可以是图像帧B1和图像帧A2(最后一帧)之间的一帧。
此时,终端设备100也可检测到作用于拍摄控件211的用户操作,响应于上述操作,终端设备100可将图像帧B2保存为精彩照片。
在录制视频的过程中,终端设备100可检测到多次作用于拍摄控件211的用户操作,执行拍摄照片的动作,得到相应的照片。图2A和图2B仅示例性示出了录制视频过程中的2次基于用户操作拍摄精彩照片的用户界面示意图。
在录制视频完成后,在终端设备100展示自动生成的精彩照片的同时,终端设备100还可展示用户拍摄的精彩照片。上述自动生成的精彩照片即终端设备100在录制视频过程中识别精彩时刻然后拍摄得到的精彩照片。例如,图1G中示出的照片142A~照片142E等照片可称为自动生成的精彩照片。上述用户拍摄的精彩照片即终端设备100响应于作用在拍摄控件211上的用户操作,执行拍摄动作得到的照片。
具体的,图2C示例性示出了终端设备100展示的自动生成的精彩照片和用户拍摄的精彩照片的用户界面。如图2C所示,此时,窗口142中展示的照片包括终端设备100展示的自动生成的精彩照片,例如照片142A~照片142E;还包括用户拍摄的精彩照片,例如照片212A、照片212B。
其中,当精彩照片的数量超过窗口142一次可展示的照片数量时,终端设备100可响应于检测到的用户作用于窗口142的上滑或下滑操作,以展示全部的精彩照片。例如,在图2C所示的用户界面中,终端设备100未显示照片142E。于是,在图2C所示的用户界面的基础上,当检测到作用于窗口142的上滑操作后,终端设备100可显示精彩照片142E,参考图2D。
在图2C和图2D所示的场景中,窗口142可按时间顺序排列精彩照片全部的精彩照片。
在一些实施例中,终端设备100也可按照自动生成的精彩照片和用户拍摄的精彩照片分别展示上述精彩照片。这样,用户可以更直观的区分哪一些是自动生成的精彩照片,哪一些是自己拍摄的精彩照片。
示例性的,参考图2E所示的用户界面,终端设备100可首先在窗口142中展示全部的自动生成的精彩照片,包括照片142A~照片142E。该用户界面还包括页面指示符213。页面指示符213可指示窗口142中可显示的多个页面。此时,页面指示符213指示终端设备100当前显示的窗口142中的第一页面。第一页面即窗口142中展示全部的自动生成的精彩照片的页面。
终端设备100可检测到作用于窗口142的左滑操作。响应于上述操作,终端设备100可在窗口142中展示全部的用户拍摄的精彩照,包括照片212A、照片212B。此时,页面指示符213指示终端设备100当前显示的窗口142中的第二页面。第二页面即窗口142中展示全部的用户拍摄的精彩照片的页面。
以图库应用程序为例,终端设备100支持在图库应用中展示已拍摄的照片和视频。因此,在本申请实施例中,终端设备100可在图库应用中展示携带有精彩照片(包括自动生成的精彩照片,以及用户拍摄的精彩照片)的目标视频。
图3A-图3D示例性示出了终端设备100在图库应用中展示目标视频和精彩照片的用户界面。
首先,在图1A所示的用户界面中,终端设备100可检测到作用于图库应用图标113C的用户操作。响应于上述操作,终端设备100可显示图3A所示的用户界面。
图3A示例性示出了图库应用的用户界面。该界面可包括窗口311。
窗口311可用于显示终端设备100中存储的图像资源,包括终端设备100拍摄的照片、视频。示例性的,终端设备100可按照拍摄照片、视频的时间,依次展示上述照片、视频。如图3A所示,窗口311中示出了多个终端设备100中存储的图像资源,例如视频311A、图片311B等。其中,视频311A可以为终端设备100通过“精彩抓拍”模式拍摄的目标视频,即携带有精彩照片的视频。
终端设备100可检测到作用于视频311A的用户操作,例如点击视频311A的操作。响应于上述操作,终端设备100可显示图3B所示的用户界面。
如图3B所示,该用户界面可包括窗口312。窗口312可用于播放目标视频,即视频311A。在视频311A播放完成之后,终端设备100可显示图3C所示的用户界面。如图3C所示,该界面可包括窗口313、窗口314。窗口313可用于播放目标视频。窗口314可用于显示精彩图片。窗口313、窗口314可参考图1G中窗口141、窗口142的详细介绍,这里不再赘述。
同样的,在图3A所示的用户界面下,在检测到作用于视频311A的用户操作之后,终端设备100也可直接显示图3C所示的用户界面。
这样,用户可通过图库应用浏览在“精彩抓拍”模式下录制的视频。并且,在浏览上述视频的过程中,用户可查看与上述视频对应的精彩照片,包括录制过程中自动拍摄的精彩照片和已经用户拍摄操作拍摄的精彩照片。
在一些实施例中,参考图3D所示的用户界面,终端设备100还可同时显示目标视频和与该目标视频对应的精彩照片。例如,窗口311中可显示有视频311A,以及与视频311A对应的精彩照片142A~照片142E和照片212A、照片212B。
这样,用户无需点开视频311A,就可以浏览与视频311A对应的精彩照片,节省了用户操作。
在一些实施例中,终端设备100也可识别已获得的视频中的精彩时刻,生成精彩照片。上述已获得的视频可以是终端设备100之前通过常规的“录像”模式拍摄的视频,也可以是通过网络保存到本地的视频。
参考图3A所示的用户界面,该界面中还展示有视频311C。视频311C为上述已获得的视频。终端设备100可检测到作用于视频311C的用户操作,响应于上述操作,终端设备100可显示图3E所示的用户界面。然后,终端设备100可检测到作用于“更多”按钮的用户操作,响应于上述操作,终端设备100可显示对话框321。
对话框321可包括“精彩照片”选项。当检测到作用于“精彩照片”选项的用户操作之后,终端设备100也可识别视频中的精彩时刻,并显示精彩照片,参考图3F所示的用户界面。此时,窗口313中可显示视频311C。窗口312中可显示从视频311C中获取的精彩照片。
图4示例性示出了本申请实施例提供的拍摄方法的软件结构图。
如图4所示,终端设备100中可设置有理解模块、决策模块、拍照模块和输出模块。
理解模块可用于检测图像质量、识别图像内容和图像内容反映的动作。具体的,理解模块可包括单帧理解模块和多帧理解模块。
单帧理解模块处理的对象为单个图像帧。其中,单帧理解模块包括画质理解模块和内容理解模块。画质理解模块用于检测单个图像帧的图像质量。图像质量是指图像的画面质量。用于评价图像画面质量的指标包括但不限于清晰度、噪声、色彩等。因此,检测图像质量包括检测图像的清晰度、是否存在噪声、色彩是否失真等等。内容理解模块用于识别单个图像帧的图像内容。图像内容包括但不限于人物、动物,还可以是建筑、瀑布、海浪等等。
多帧理解模块处理的对象为一段视频流,即多个图像帧。多帧理解模块用于识别上述一段视频流中的图像内容(例如,人物或动物等)是否做出了预设的特定动作。上述特定动作例如人向上跳跃、运动员跨栏、小狗奔跑、瀑布飞散、海浪翻涌等。终端设备100可以识别图像内容、动作,依赖于终端设备100在先的学习训练。
在理解模块检测图像质量、识别图像内容和图像内容反映的动作的基础上,决策模块可对图像帧的图像质量、图像内容和动作进行评价。基于上述评价,决策模块可确定处理流中的精彩视频帧,即确定视频录制过程中的精彩时刻。
具体的,决策模块可首先对图像帧的图像质量、图像内容和图像内容反映的动作进行单独的评价。决策模块可通过打分的方式来评价来反映一个图像帧的图像质量是否优秀,图像内容和图像内容反映的动作是否精彩。
例如,根据图像清晰度,决策模块可确定出该图像帧的图像质量得分。根据图像内容的识别结果(例如是否包括人物、人物是否微笑等),决策模块可确定出该图像帧的图像内容得分。根据是否识别到特定动作,决策模块可对构成动作的每一帧图像中动作的完成度进行评价,确定出每一帧图像的动作得分。动作的完成度越高,对应的动作得分越高。例如,在人物跳跃动作中,跳跃到最高点的时刻可称为动作完成度最高的时刻,相应地,该时刻对应的图像帧的动作完成度评价最高。
在对图像质量、图像内容和动作进行单独的评分之后,决策模块可基于上述评分确定出图像帧的综合评分。当综合评分高于第一阈值时,决策模块可确定该图像帧为精彩图像帧。
优选的,决策模块可根据图像帧中包括的图像内容的区别动态的调整上述第一阈值。例如,在图像内容不包括人物或动物的场景下,决策模块可确定第一阈值M1;图像内容包括人物或动物但不包括特定动作的场景下,决策模块可确定第一阈值M2;在图像内容包括人物或动物且包括特定动作的场景下,决策模块可确定第一阈值M0。
这样,终端设备100根据不同的拍摄场景调整第一阈值,即调整判断图片是否精彩的条件,有利于获得多种类型的精彩照片。例如,当用户拍摄风景时,图像帧中的不包括人、动物,更不包括人或动物做出的特定动作。因此,该图像帧中的图像内容得分、动作得分为0,或者不存在。若使用包括人、动物以及特定动作的图像帧相同的第一阈值,例如M0,上述拍摄风景的图像帧就难以达到上述第一阈值的要求,进而难以被评为精彩照片。这样,用户就无法获得纯风景类型的精彩照片。
根据决策模块确定的精彩图像帧,拍照模块可从原始流中确定与之对应的原始精彩视频帧,进而得到精彩照片。然后,输出模块可将拍照模块得到的精彩照片展示给用户。
在图4所示的软件结构图的基础上,图5示例性示出了终端设备100在“精彩抓拍”模式下录制视频并生成精彩照片的流程图。图6示例性示出了另一种终端设备100在“精彩抓拍”模式下录制视频并生成精彩照片的流程图。
下面将结合图5和图6具体介绍终端设备100实施本申请实施例中的拍摄方法录制视频并生成精彩照片的过程。
S10、终端设备100可对原始流进行下采样得到低分辨率处理流。
在调起摄像头之后,根据摄像头实时采集的图像,终端设备100可得到有上述实时采集的图像构成的原始流。原始流中每一帧图像的分辨率较高,例如4K。因此,原始流中的图像帧的数据量较大,不适用于需要进行大量图像计算的图像分析过程。
于是,终端设备100可对原始流进行下采样得到分辨率较低的处理流。例如,终端设备100可基于4K的原始流进行下采样,得到图像分辨率为640*480规格的处理流。处理流相比于原始流,数据量大幅度降低,因此更适用于图像质量检测、图像内容和特定动作识别,从而提升计算效率、降低计算成本。
一般的,在完成拍摄后,终端设备100保存的视频的分辨率都小于摄像头采集的原始图像的。例如,摄像头采集图像的原始流可以为4K,然而,一般的拍摄保存的视频都为1080*1920,即保存的视频的分辨率低于原始流中的视频帧的分辨率。这也就导致:基于已拍摄的视频生成的精彩照片的分辨率低,影响图像清晰度。
在本申请实施例中,精彩照片虽然是在录视视频的过程生成的,但是却不等同于的视频中对应的视频帧。这时因为,精彩照片是基于摄像头采集的高分辨率的图像得到的,而视频是对摄像头采集的高分辨率的图像压缩过的。因此,在本申请实施例中,大多数情况下,终端设备100最终得到的精彩照片的分辨率是高于的视频的。
S20、终端设备100通过理解模块检测处理流中的图像帧的图像质量,并识别图像帧中的图像内容和特定动作。
图5示例性示出了原始流中包括的连续的7帧图像,分别记为图像帧i-3、图像帧i-2、图像帧i-1、图像帧i、图像帧i+1、图像帧i+2、图像帧i+3。相应地,处理流中也可包括上述7帧图像。原始流中的图像帧i-3~图像帧i+3,与处理流中的图像帧i-3~图像帧i+3的区别仅在于分辨率。
优选的,上述7帧图像帧也可以是通过抽帧的方式从原始流中得到的抽帧之后连续的一组图像帧。抽帧间隔为固定的,例如3帧。
一方面,终端设备100可以以单个图像帧为单位的将处理流中的图像帧依次输入到单帧理解模块,然后,利用单帧理解模块中预设的算法检测图像帧的图像质量、并识别图像帧中的图像内容。另一方面,终端设备100可以n个图像帧为单位的将处理流中的图像帧依次输入到多帧理解模块,然后,利用多帧理解模块中预设的算法识别图像帧流中的特定动作。n为大于1的正整数。示例的,n=5。
S201、以单个图像帧为单位将处理流中的图像帧依次输入到单帧理解模块中的画质理解模块,检测各图像帧的图像质量。
画质理解模块可根据预设的画质检测算法检测图像帧i的图像质量。
在本申请实施例中,上述画质检测算法可以为清晰度检测算法。画质检测算法还可包括其他检测算法,例如噪声检测、色彩检测等,本申请实施例对此不作限制。
首先,画质理解模块可利用清晰度检测算法确定被检测的图像帧的清晰度。然后,画质理解模块可将被检测的图像帧的清晰度与清晰度阈值进行比较:当被检测的图像帧的清晰度低于清晰度阈值时,画质理解模块可确定被检测的图像帧为不清晰图像帧;反之,画质理解模块可确定被检测的图像帧为清晰图像帧。同时,画质理解模块可输出该图像帧的清晰度记为Def。
以处理流中的图像帧i为例,当图像帧i被输入画质理解模块之后,画质理解模块可利用上述清晰度检测算法确定图像帧i的清晰度,记为Def_i。然后,画质理解模块可比较Def_i与清晰度阈值(记为Def_threshold)进行比较:如果Def_i<Def_threshold,画质理解模块可确定图像帧i为不清晰图像帧;反之,画质理解模块可确定图像帧i为清晰图像帧。
可选的,上述清晰度检测算法可以是经典图像处理方法,例如结构相似性算法(Structure Similarity Index Measure,SSIM)。一般的,若被检测图像帧(例如图像帧i)为清晰图像帧,则图像帧i与经过模糊处理后的图像帧i之间的相似度较低;反之,若图像帧i为模糊图像帧,则图像帧i与经过模糊处理后的图像帧i之间的相似度较高。因此,画质理解模块可利用SSIM确定图像帧i和经过模糊处理后的图像帧i的相似性,记为Sim_i。这时,图像帧i的清晰度Def_i可表示为1-Sim_i。若上述相似性越低,则图像帧i的清晰度越高,进而,画质理解模块可确定上述被检测图像帧为清晰图像。
可选的,上述清晰度检测算法还可以是深度学习算法,例如卷积神经网络算法(Convolutional Neural Networks,CNN)、从排名中学习的无参考图像质量评估算法(Learning from Rankings for No-Reference Image Quality,RankIQA)等等。画质理解模块可首先基于上述深度学习算法建立清晰度检测模型,确定清晰图像的特征向量,然后,将图像帧i输入上述模型,确定图像帧i是否为清晰图像。
S202、以单个图像帧为单位将处理流中的图像帧依次输入到单帧理解模块中的内容理解模块,识别图像帧中包括的图像内容。
在画质理解模块检测单个图像帧的图像质量的同时,内容理解模块可根据预设的图像内容识别算法识别该图像帧中的图像内容。
在本申请实施例中,图像内容识别算法识别的图像内容包括人物。进一步的,图像内容识别算法还用于识别人物是否微笑和闭眼。具体的,内容理解模块可包括人脸检测算法、微笑检测算法、睁眼检测算法。人脸检测算法可用于识别图像帧是否包含人物。微笑检测算法可用于识别图像帧中的人物是否在微笑。睁眼检测算法可用于识别图像帧中的人物是否闭眼。上述人脸检测算法、微笑检测算法、睁眼检测算法可通过CNN等深度学习算法实现,这里不再赘述。
在其他实施例中,内容识别算法识别的图像内容还可以包括动物,例如小狗、小猫等等。本申请实施例对此不作限制。
同样的,以处理流中的图像帧i为例,内容理解模块也可接收到图像帧i。首先,内容理解模块可利用人脸检测算法识别图像帧i是否包含人物,并输出识别的到人物数量,记为NumOfPeople。NumOfPeople的取值为正整数。其中,NumOfPeople=0可表示未识别到人物。NumOfPeople=x可表示识别到x个人物,其中x为非零正整数。
在识别到人物的基础上,内容理解模块可利用微笑检测算法识别图像帧i中的一个或多个人物中的各个人物是否微笑,并输出各个人物的微笑值,记为SmileScore。SmileScore可用于反映图像中的人物是否微笑,以及微笑的程度。SmileScore=0可表示人物未微笑。SmileScore>0可表示人物微笑,且SmileScore的数值越大表示人物的笑容越灿烂。
同时,在识别到人物的基础上,内容理解模块还可利用睁眼检测算法识别图像帧i中的一个或多个人物中的各个人物是否睁眼,并输出各个人物的睁眼值,记为OpenEyeScore。OpenEyeScore=0可表示人物闭眼。OpenEyeScore>0可表示人物睁眼。
具体的,在识别图像帧i中的人物是否睁眼时,首先,内容理解模块可利用神经网络,例如CNN,识别人脸中的关键点。上述关键点包括上眼睑中位点P1和下眼睑中位点P2。图7示例性示出了人脸中的两组上眼睑中位点P1和下眼睑中位点P2。于是,根据上述两组P1、P2,内容理解模块可确定两个眼睑距离,分别记为d1、d2。睁眼检测算法中记录有睁眼阈值,记为OpenEye_threshold。眼睑距离大于OpenEye_threshold可视为睁眼。进一步的,一个人脸中左右眼的眼睑距离均大于OpenEye_threshold可视为该人脸是睁眼的。可选的,一个人脸中左右眼的眼睑距离至少有一个大于OpenEye_threshold可视为该人脸是睁眼的。
S203、以n个图像帧为单位将处理流中的图像帧依次输入到多帧理解模块,识别图像帧中包括的特定动作。
多帧理解模块可包括动作检测算法。动作检测算法可通过输入的n帧图像,识别该n帧图像中是否包括预设的动作。
上述动作包括但不限于跳跃、跨栏、奔跑、旋转、足球射门等等。当图像内容为人物时,上述动作可以为人物做出的跳跃、跨栏、奔跑、旋转、足球射门。当图像内容包括动物时,上述动作可以为动物做出的跳跃、跨栏、奔跑、旋转。一个图像帧中的图像内容可同时包括人物和动物。
具体的,多帧理解模块可利用有标注的视频序列训练深度神经网络。然后,多帧理解模块可利用上述深度神经网络,识别输入的n帧图像是否包括预设的动作以及动作类型,并输出动作类型(ActionType)和动作覆盖的图像帧对应的帧号,记为目标帧号(FrameNumber)。
例如,上述深度神经网络可学习大量的标注有奔跑动作的视频,进而确定有奔跑动作的视频的图像特征,例如图像中的人物,人物的形态以及连续的视频帧中形态的变化过程等等。然后,对于任意输入的一个视频,上述深度神经网络可提取上述视频中的图像特征确定是否匹配奔跑动作,例如确定上述视频中是否包括人物、人物的形态及形态的变化是否匹配预设的奔跑动作。
假设n=10,其中第2帧~第7帧中的人物在奔跑。利用训练得到的深度神经网络(包括奔跑动作的图像特征),多帧理解模块可识别到上述10帧图像中第2帧~第7帧图像中人物的形态的变化符合预设的奔跑动作的图像特征。于是,多帧理解模块可确定第2帧~第7帧图像中包括奔跑动作,于是,多帧理解模块可确定包含奔跑动作的目标帧号为2~7。
S30、终端设备100对经过理解模块处理的图像帧进行评价。
如图5所示,决策模块可包括画质评价模块、人像评价模块、动作评价模块和综合评价模块。
画质评价模块可基于清晰度检测结果对图像帧的图像质量进行评分,得到图像质量得分,记为ImageQualityScore。人像评价模块可基于人脸检测、微笑检测以及睁眼检测的结果对人像进行评分,得到人像得分,记为FaceScore。动作评价模块可基于动作检测结果对被检测的图像帧流中的每一帧图像进行评分,得到每一帧图像的动作得分,记为ActionScore。
综合评价模块可基于画质评价模块、人像评价模块、动作评价模块的评分结果,确定各个图像帧的综合评分。基于上述综合评分,综合评价模块可确定图像帧是否是精彩的。
S301、对图像帧进行图像质量评价,确定图像质量得分ImageQualityScore。
依据画质理解模块输出的图像帧的清晰度,画质评价模块可确定该图像帧的ImageQualityScore。
在一些实施例中,画质评价模块确定图像帧的ImageQualityScore的公式为:
ImageQualityScore=Def_i
例如:假设,画质理解模块输出的图像帧i的清晰度Def_i=0.8,那么,画质评价模块可确定图像帧i的ImageQualityScore:
ImageQualityScore=Def_i=0.8
假设清晰度阈值Def_threshold=0.7,那么,同时,画质评价模块可确定图像帧i为清晰图像。
结合S201中的介绍,当使用CNN或RankIQA算法检测图像清晰度时,CNN或RankIQA输出的结果即为图像帧i的清晰度Def_i。当使用SSIM算法检测图像清晰度时,SSIM输出的结果为图像帧i与经过模糊处理后的图像帧i之间的相似度Sim_i。这时,图像帧i的清晰度Def_i可表示为1-Sim_i,即Def_i=1-Sim_i。
例如:假设,SSIM算法输出的图像帧i与模糊处理后的图像帧i之间的相似度Sim_i=0.2,那么,画质评价模块可确定图像帧i的ImageQualityScore:
ImageQualityScore=1-Sim_i=0.8
在一些实施例中,ImageQualityScore的计算公式还可如下所示:
ImageQualityScore=Def_i*k1
其中,系数k1为画质评价在综合评价中的所占的权重。这样,综合评价模块在对图像帧的进行综合评分时可无需进行数据标准化处理。
S302、对图像帧中的人像进行评价,确定人像得分FaceScore。
结合S202中的介绍,内容理解模块可通过人脸检测算法、微笑检测算法和睁眼检测算法确定图像帧中的人物数量NumOfPeople、微笑值SmileScore、睁眼值OpenEyeScore。依据上述NumOfPeople、SmileScore、OpenEyeScore,人像评价模块可确定该图像帧的FaceScore。
在一些实施例中,人像评价模块确定图像帧的FaceScore的公式为:
Figure BDA0003525201100000141
其中:
Figure BDA0003525201100000142
当OpenEyeScore<OpenEye_threshold时,人像评价模块可确定图像帧中的人物出现闭眼现象。这时,人像评价模块可将该图像帧的OpenEyeScore设定为0。这样,该图像帧的FaceScore也为0。这意味着,尽管该图像帧中任务笑的很灿烂,决策模块也可确定该图像帧是不精彩的图像帧,因为图像中的人物闭眼了。
当图像帧中检测到多个人脸时,人像评价模块可得到多组SmileScore和OpenEyeScore,这时,该图像帧的FaceScore可表示为:
Figure BDA0003525201100000151
参考S301,人像评价模块在确定FaceScore时可也携带人像评价在综合评价中的所占的权重k2。于是,在确定上述FaceScore之后,人像评价模块还要执行:
FaceScore=FaceScore*k2
在一些实施例中,人像评价模块确定图像帧的FaceScore的公式还可以为:
Figure BDA0003525201100000152
同样的,
Figure BDA0003525201100000153
这时,当图像帧中的人物闭眼时,即OpenEyeScore=0时,人像评价模块不会判定该图像帧的FaceScore=0。这样,闭眼行为不会直接否定同时出现的微笑,即闭眼微笑的瞬间也是精彩时刻。
相应地,当图像帧中检测到多个人脸时,该图像帧的FaceScore可表示为:
Figure BDA0003525201100000154
S303、对图像帧流中的各个图像帧中的动作进行评价,确定动作评分ActionScore。
结合S202中的介绍,多帧理解模块可输出识别输入的n帧图像是否包括预设的动作以及动作类型,并输出动作类型(ActionType)和目标帧号(FrameNumber)。依据上述ActionType和FrameNumber,动作评价模块可对上述n帧图像中的各个图像帧进行评分,并确定各个图像帧的ActionScore。
具体的,根据FrameNumber,动作评价模块可确定输入的n帧图像中不包括动作的图像帧的帧号。这时,对于上述n帧图像中不包括动作的图像帧,动作评价模型可直接确定上述图像帧的ActionScore=0。
对于上述n帧图像中包括动作的图像帧,动作评价模型可依据标准姿态模板确定各个图像帧的ActionScore。
具体的,根据ActionType,动作评价模块可确定该动作的标准姿态模板。一个预设的动作对应有该动作的标准姿态模板。标准姿态模板指示了在执行该动作的过程中一个动作在完成度最高的时候所呈现出的姿态。
例如,在人向上跳跃的动作中,人跳到最高点的位置的时刻可认为是跳跃动作的完成度最高的时刻,此时,最高点的位置对应的跳跃姿态可作为标准姿态模板。然后,动作评价模块可根据上述标准姿态模板判断包括跳跃动作的n帧图像中完成度最高的图像帧,即最接近标准姿态模板的图像帧。例如,结合图4示出的不同的图像内容,上述标准姿态模板还可以是浪花翻涌到最高点时的图像等等。
首先,动作评价模型可通过骨骼点识别算法确定上述包含动作的图像帧的骨骼点。然后,动作评价模型可计算上述图像帧中的骨骼点与标准姿态模板中的骨骼点的相似度。相似度越高则表明上述图像帧中的动作姿态与标准姿态模板越相似,即该图像帧中的动作的完成度越高。反之,该图像帧中动作的完成度越低。
然后,依据上述相似度,动作评价模块可确定上述包括动作的图像帧中各个图像帧的ActionScore。图像帧中动作的完成度越高,相应地,该图像帧的ActionScore越高;反之,该图像帧的ActionScore也越低。
参考S301,人像评价模块在确定ActionScore时可也携带动作评价在综合评价中的所占的权重k3。于是,在确定上述ActionScore之后,动作评价模块还要执行:
ActionScore=ActionScore*k3
S304、基于ImageQualityScore、FaceScore和ActionScore确定图像帧的综合评分。
在一些实施例中,图像帧的综合评分(TotalScore)的计算过程如下所示:
TotalScore=k1*ImageQualityScore+k2*FaceScore+k3*ActionScore
其中,k1、k2、k3为ImageQualityScore、FaceScore和ActionScore在综合评分中占的权重系数。优选的,ImageQualityScore、FaceScore和ActionScore的取值范围均为0~1,k1=k2=k3=1/3。
然后,综合评分模块可比较图像帧的TotalScore与第一阈值M0。如果TotalScore>M0,则综合评价模块可确定上述图像帧为精彩图像帧;反之,综合评价模块可确定上述图像帧不是精彩图像帧。示例性的,M0=0.8。
优选的,在一些实施例中,综合评分模块可根据使用不同的第一阈值,以确定不同类型的图像帧是否为精彩图像帧。
1、图像帧为不包括预设的图像内容和动作的图像帧,即FaceScore=0、ActionScore=0。这时,该图像帧的综合评分为:
TotalScore=k1*ImageQualityScore
这时,综合评价模块可使用第一阈值M1。M1<M0。示例性的,M1=0.25。
2、图像帧为包括预设的图像内容但不包括预设的动作的图像帧,即FaceScore≠0、ActionScore=0。
这时,该图像帧的综合评分为:
TotalScore=k1*ImageQualityScore+k2*FaceScore
这时,综合评价模块可使用第一阈值M2。M1<M2<M0。示例性的,M2=0.55。
3、图像帧为包括预设的图像内容但和动作的图像帧,即FaceScore≠0、ActionScore≠0。
这时,该图像帧的综合评分为:
TotalScore=k1*ImageQualityScore+k2*FaceScore+k3*ActionScore
这时,综合评价模块可使用第一阈值M0。
参考S301、S302、S303的介绍,如果画质评价模块确定ImageQualityScore时、人像评价模块确定FaceScore时、动作评价模块确定ActionScore时,分别携带了k1、k2、k3,那么综合评价可不再携带上述权重系数,如下:
TotalScore=ImageQualityScore+FaceScore+ActionScore
S40、终端设备100对综合评价模块确定的精彩图像帧进行去重检测。
在一些实施例中,在综合评价模块确定一个图像帧为精彩图像帧之后,拍照模块可根据该图像帧的编号确定原始流中的与之对应的高分辨率的图像帧,然后执行拍照动作对应的图像处理,得到精彩照片。
在另一些实施例中,基于对输出的精彩照片的数量的控制,终端设备100会避免输出相似度较高的图像,即便它们都是精彩的。因此,决策模块还可包括去重检测模块。去重检测模块可对综合评价模块确定的精彩图像帧进行相似度检测。对于相似的一组精彩图像帧,去重检测模块可确定上述一组精彩图像帧中综合评分最高的一帧为目标图像帧。
图8示例性示出了多个帧精彩图像帧。上述多个精彩图像帧分别记为精彩图像帧411~413、421~423、431~432。
具体的,决策模块可包括处理缓存区。处理缓存区是一块存储空间。处理缓存区可用于缓存精彩图像帧。被综合评价模块确定为精彩图像帧的图像帧可被依次存储到上述处理缓存区。例如,图8所示的多个精彩图像帧被依次存储到处理缓存区。
去重检测模块可利用相似度算法计算处理缓存区中存储的精彩图像帧之间的相似性。依据上述相似性,去重检测模块可得到一组相似的精彩图像帧。对于相似的一组精彩图像帧,去重检测模块可将这一组精彩图像帧中综合评分最高的图像帧标记为目标图像帧。
例如,利用相似度算法,去重检测模块可确定与精彩图像帧411相似的图像帧包括:精彩图像帧412、413。这时,去重检测模块可从精彩图像帧411~413中选择TotalScore最高的一帧为目标图像帧。例如,假设精彩图像帧411~413的TotalScore分别为0.88、0.87、0.84,去重检测模块可确定精彩图像帧411为目标图像帧。
然后,去重检测模块可继续确定与精彩图像帧421相似的图像帧:精彩图像帧422、423,并确定精彩图像帧421为目标图像帧;然后,确定与精彩图像帧431相似的图像帧:精彩图像帧432,并确定精彩图像帧432为目标图像帧。
去重检测模块也可通过聚类算法直接的得到多组相似的精彩图像帧,然后确定各组精彩图像帧中TotalScore最高的图像帧为目标图像帧。
S50、终端设备100依据目标图像帧确定精彩照片。
拍照模块可包括原始缓存区。原始缓存区可用于缓存原始流。
在一些实施例中,拍照模块在接收到去重检测模块输出的目标图像帧的指示信息之后,例如目标图像帧的帧号,可依据上述指示信息,确定原始流中与处理流中目标图像帧对应的图像帧,记为原始目标图像帧。然后,拍照模块可基于上述原始目标图像帧得到精彩照片。
可选的,拍照模块还可包括图像处理模块。图像处理模块可用于对原始流中的多个图像帧进行图像融合处理,综合上述多个图像帧中各个图像帧的优势,从而得到一张画面质量更高、人物动作表现更好的精彩照片。
在一些实施例中,图像处理模块可首先接收到去重检测模块输出的目标图像帧的指示信息。这时,图像处理模块可依据上述指示信息获取多个图像帧,例如图像处理模块可获取目标图像帧i以及与目标图像帧i前后相邻的2张图像帧。然后,图像处理模块可综合上述多帧图像中各个图像帧的优势,将上述多帧图像融合成一张精彩照片。
可以理解的,在决策模块不包括去重检测模块时,拍照模块可接收到综合评价模块输出的精彩图像帧的指示信息,确定原始精彩图像帧,并得到精彩照片。
参考图2A~图2F所述的用户界面,在一些实施例中,图像处理模块还可响应于用户的拍摄操作生成精彩照片。这时,上述原始目标图像帧为检测到用户拍摄操作时图像帧。拍照模块可基于上述原始目标图像帧得到精彩照片。
S60、终端设备100输出精彩照片。
如图5所示,输出模块可包括输出缓存区。输出缓存区可用于存储拍摄得到的精彩照片。
在得到精彩照片后,图像处理模块可将上述精彩照片输入到输出缓存区中。然后,终端设备100可从输出缓存区中读取该缓存区中存储的精彩照片,并将它们显示在屏幕上,例如图1G所示的用户界面。
在一些实施例中,根据预设的评价规则,决策模块可能会确定多个精彩时刻。相应地,拍照模块可得到多个精彩照片。尽管经过去重处理,输出缓存区中存储的精彩照片的数量仍然较多,例如10张、20张等等。这时,优选的,输出模块还可对上述多个精彩照片进行筛选,减少精彩照片的数量,避免最终输出的精彩照片的数量过多。
具体的,输出模块可设置筛选模块。筛选模块可根据预设的筛选规则对输出缓存区中存储的精彩照片进行筛选。满足筛选条件的精彩照片可称为目标精彩照片。经过筛选,精彩照片中的目标精彩照片可被保留,其余可被删除。
例如,假设输出的精彩照片的数量最多为5张,在得到的经过去重的精彩照片的数量大于5张时,优选的,筛选模块可从上述多个精彩照片中按S304所示的类型(FaceScore=0、ActionScore=0,FaceScore≠0、ActionScore=0,以及FaceScore≠0、ActionScore≠0)选择出5张作为最终展示的精彩照片,即目标精彩照片。例如,筛选模块先从上述3类精彩照片中选择各类中TotalScore最高的一张,然后从剩余的精彩照片中选择TotalScore最高的2张,作为最终展示的精彩照片。
这样,当得到的精彩照片过多的时候,终端设备100可再对上述精彩照片进行筛选,进而得到数量更少的目标精彩照片。
可以理解的是,图5所示的下采样模块、去重检测模块、筛选模块均为可选的。
在一些实施例中,终端设备可以直接对摄像头采集的原始流进行计算,确定精彩时刻,进而得到精彩照片。这时,终端设备便无需利用下采样模块对原始流进行下采样,得到分辨率较低的计算量更小的处理流。相应的,在综合评价模块确定的精彩图像帧即原始流中分辨率高的图像帧,从而使得拍照模块也无需根据处理流的时间戳确定对应的原始流中的图像帧。
在一些实施例中,决策模块可不包括去重检测模块。这时,拍照模块可接收到综合评价模块输出的精彩图像帧的指示信息。在不包括下采样模块的情况下,拍照模块接收到的综合评价模块输出的精彩图像帧的指示信息为原始流中高分辨率的精彩图像帧的指示信息。在包括下采样模块的情况下,拍照模块接收到的综合评价模块输出的精彩图像帧的指示信息为处理流中低分辨率的精彩图像帧的指示信息。此时,拍照模块需根据上述低分辨率的精彩图像帧的指示信息确定原始流中高分辨率的精彩图像帧,进而得到精彩照片。
在一些实施例中,图5所示的拍摄流程可以是在用户录制视频的过程中实时进行的,参考图1A-图1G所示的用户界面。在一些实施例中,上述拍摄流程还可以是对已获得的视频执行的,参考图3A、图3E、图3F所示的用户界面。这样,在拍摄完成后,终端设备100也可以根据需求再确定并展示一个视频中的精彩照片。
在本申请实施例中,
图1B所示的界面可称为预览界面,图1B中所示的控件122可称为第一控件,用户点击上述控件122的操作可称为第一操作,用户点击上述控件122的时刻可称为第一时刻。
图1C所示的界面可称为录制界面,图1C中所示的控件122可称为第二控件,用户点击上述控件122的操作可称为第二操作,用户点击上述控件122的时刻可称为第二时刻。
在完成图1C-图1E所示的拍摄操作后得到的视频,即图1F中展示的视频,可称为第一视频。如图1G所示,在录制第一视频的过程中得到的照片142A(或142B、142C、142D、142E)可称为第一图像帧。第一视频中与第一图像帧对应的图像帧可称为第二图像帧。得到第一图像帧所基于的原始流中的图像帧可称为第一图像。摄像头采集到上述第一图像的时刻可称为第三时刻。照片142D中的人可称为第一目标对象。
如图2A所示,录制界面中的控件211可称为第三控件,用户点击控件211的操作可称为第三操作,用户点击控件211的时刻可称为第四时刻。基于摄像头在上述第四时刻采集到的图像得到的照片212A可称为第三图像帧。
图1J所示的界面可称为设置界面。图1J中“人物”、“狗”、“猫”等选择可称为第一选项;“人物”、“狗”、“猫”可称为第一目标对象;“向上跳跃”、“奔跑”、“跨栏”等选择可称为第二选项;向上跳跃”、“奔跑”、“跨栏”可称为第一目标对象做出的动作。
图3A、图3D所示的界面可称为展示界面。
参考图8,在第一图像对应图像帧411的情况下,图像帧412、413可称为第三图像;在第一图像对应图像帧421的情况下,图像帧422、423可称为第三图像等。摄像头采集到图像帧412、413、422或423的时刻可称为第五时刻。
图9为本申请实施例的终端设备100的系统结构示意图。
下面示例性介绍终端设备100的系统结构。
分层架构将系统分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将系统分为五层,从上至下分别为应用程序层,应用程序框架层、硬件抽象层、内核层以及硬件层。
应用程序层可以包括一系列应用程序包。在本申请实施例中,应用程序包可以包括相机、图库等。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。在本申请实施例中,应用程序框架层可以包括相机访问接口,其中,相机访问接口可以包括相机管理以及相机设备。相机访问接口用于为相机应用提供应用编程接口和编程框架。
硬件抽象层为位于应用程序框架层以及内核层之间的接口层,为操作系统提供虚拟硬件平台。本申请实施例中,硬件抽象层可以包括相机硬件抽象层以及相机算法库。
其中,相机硬件抽象层可以提供相机设备1(第一摄像头)、相机设备2(第二摄像头)或更多的相机设备的虚拟硬件。相机算法库可包括实现本申请实施例提供的拍摄方法的运行代码和数据。
内核层为硬件和软件之间的层。内核层包括各种硬件的驱动。内核层可以包括相机设备驱动、数字信号处理器驱动以及图像处理器驱动等。
其中,相机设备驱动用于驱动摄像头的传感器采集图像以及驱动图像信号处理器对图像进行预处理。数字信号处理器驱动用于驱动数字信号处理器处理图像。图像处理器驱动用于驱动图形处理器处理图像。
下面结合上述硬件结构以及系统结构,对本申请实施例中方法进行具体描述:
1.终端设备100启动拍摄功能,获取原始流。
该步骤1是持续进行的。响应于用户在相机应用图标上的操作(例如点击操作),相机应用调用应用框架层的相机访问接口,启动相机应用,进而通过调用相机硬件抽象层中的相机设备1(第一摄像头)发送启动相机应用的指令,相机硬件抽象层将该指令发送到内核层的相机设备驱动,该相机设备驱动可以启动摄像头的第一摄像头的传感器(传感器1),通过传感器1采集图像光信号。并将该图像光信号传输到图像信号处理器进行预处理,得到原始流(至少2帧原始图像帧构成图像序列),然后将该原始流通过相机设备驱动传输至相机硬件抽象层。
2.终端设备100根据原始流获取处理流。
该步骤2是持续进行的。相机硬件抽象层可将原始流发送的相机算法库。基于数字信号处理器、图像处理器的支持,相机算法库可首先对原始流进行下采样,得到低分辨率的处理流。
3.终端设备100对处理流中的图像帧进行评价,确定精彩照片。
该步骤3是持续进行的。基于数字信号处理器、图像处理器的支持,相机算法库可调用画质检测算法、人脸检测算法、微笑检测算法、闭眼检测算法等检测各图像帧的画面质量、图像内容、动作等,进而确定各图像帧的ImageQualityScore、FaceScore、ActionScore以及TotalScore,进而确定精彩图像帧。进一步的,相机算法库还可调用图像相似性检测算法,对精彩图像帧进行去重检测。然后,相机算法库可在原始流中确定与精彩图像帧匹配的原始精彩图像帧,最终根据原始精彩图像帧得到精彩照片。
4.终端设备100显示精彩照片。
相机算法库可将精彩照片发送到相机硬件抽象层。然后,相机硬件抽象层可以将其进行送显。
图10示出了终端设备100的硬件结构示意图。
如图10所示,终端设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对终端设备100的具体限定。在本申请另一些实施例中,终端设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对终端设备100的结构限定。在本申请另一些实施例中,终端设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。
终端设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
终端设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD)。显示面板还可以采用有机发光二极管(organic light-emitting diode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrix organic light emitting diode,AMOLED),柔性发光二极管(flex light-emitting diode,FLED),miniled,microled,micro-oled,量子点发光二极管(quantum dot light emitting diodes,QLED)等制造。在一些实施例中,终端设备可以包括1个或N个显示屏194,N为大于1的正整数。
在本申请实施例中,终端设备100可通过显示屏194提供的显示能力显示图1A-图1J、图2A-图2F、图3A-图3F所示的用户界面,包括界面中显示的照片、视频等图像资源等。
终端设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端设备100可以支持一种或多种视频编解码器。这样,终端设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现终端设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
在本申请实施例中,终端设备100可通过摄像头193、ISP、数字信号处理器提供的能力采集图像得到原始流。在拍摄视频时,终端设备100可通过视频编解码器生成特定格式的视频。终端设备100可通过NPU提供的智能认知能力检测图像质量、识别图像内容和动作。
内部存储器121可以包括一个或多个RAM(random access memory,RAM)和一个或多个NVM(non-volatile memory,NVM)。RAM可以由处理器110直接进行读写,可以用于存储操作系统或其他正在运行中的程序的可执行程序(例如机器指令),还可以用于存储用户及应用程序的数据等。NVM也可以存储可执行程序和存储用户及应用程序的数据等,可以提前加载到RAM中,用于处理器110直接进行读写。
外部存储器接口120可以用于连接外部的NVM,实现扩展终端设备100的存储能力。外部的NVM通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将照片,视频等文件保存在外部的NVM中。
终端设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。在本申请实施例中,在播放视频时,终端设备100可以通过扬声器170A播放视频中的音频信号。受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。在本申请实施例中,在录制视频的过程中,终端设备100可通过麦克风170C采集声音信号。终端设备100可以设置至少一个麦克风170C。在另一些实施例中,终端设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,终端设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。耳机接口170D用于连接有线耳机。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。陀螺仪传感器180B可以用于确定终端设备100的运动姿态。气压传感器180C用于测量气压。磁传感器180D包括霍尔传感器。终端设备100可以利用磁传感器180D检测翻盖皮套的开合。
加速度传感器180E可检测终端设备100在各个方向上(一般为三轴)加速度的大小。当终端设备100静止时可检测出重力的大小及方向。还可以用于识别终端设备姿态,应用于横竖屏切换等应用。距离传感器180F,用于测量距离。终端设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,终端设备100可以利用距离传感器180F测距以实现快速对焦。
终端设备100可以利用接近光传感器180G检测用户手持终端设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。环境光传感器180L用于感知环境光亮度。终端设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。
指纹传感器180H用于采集指纹。终端设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。温度传感器180J用于检测温度。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于终端设备100的表面,与显示屏194所处的位置不同。
在本申请实施例中,终端设备100可通过触摸传感器180K提供的触控检测能力,检测用户作用于屏幕的点击、滑动等用户操作,从而控制应用程序、器件的启用和关闭,实现不同用户界面之间的跳转切换。
骨传导传感器180M可以获取振动信号。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。终端设备100可以接收按键输入,产生与终端设备100的用户设置以及功能控制有关的键信号输入。在一些实施例中,终端设备100可通过按键190控制拍摄照片或视频。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口195用于连接SIM卡。
本申请的说明书和权利要求书及附图中的术语“用户界面(user interface,UI)”,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。应用程序的用户界面是通过java、可扩展标记语言(extensible markup language,XML)等特定计算机语言编写的源代码,界面源代码在终端设备上经过解析,渲染,最终呈现为用户可以识别的内容,比如图片、文字、按钮等控件。控件(control)也称为部件(widget),是用户界面的基本元素,典型的控件有工具栏(toolbar)、菜单栏(menu bar)、文本框(text box)、按钮(button)、滚动条(scrollbar)、图片和文本。界面中的控件的属性和内容是通过标签或者节点来定义的,比如XML通过<Textview>、<ImgView>、<VideoView>等节点来规定界面所包含的控件。一个节点对应界面中一个控件或属性,节点经过解析和渲染之后呈现为用户可视的内容。此外,很多应用程序,比如混合应用(hybrid application)的界面中通常还包含有网页。网页,也称为页面,可以理解为内嵌在应用程序界面中的一个特殊的控件,网页是通过特定计算机语言编写的源代码,例如超文本标记语言(hyper text markup language,GTML),层叠样式表(cascading style sheets,CSS),java脚本(JavaScript,JS)等,网页源代码可以由浏览器或与浏览器功能类似的网页显示组件加载和显示为用户可识别的内容。网页所包含的具体内容也是通过网页源代码中的标签或者节点来定义的,比如GTML通过<p>、<img>、<video>、<canvas>来定义网页的元素和属性。
用户界面常用的表现形式是图形用户界面(graphic user interface,GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括复数表达形式,除非其上下文中明确地有相反指示。还应当理解,本申请中使用的术语“和/或”是指并包含一个或多个所列出项目的任何或所有可能组合。上述实施例中所用,根据上下文,术语“当…时”可以被解释为意思是“如果…”或“在…后”或“响应于确定…”或“响应于检测到…”。类似地,根据上下文,短语“在确定…时”或“如果检测到(所陈述的条件或事件)”可以被解释为意思是“如果确定…”或“响应于确定…”或“在检测到(所陈述的条件或事件)时”或“响应于检测到(所陈述的条件或事件)”。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如DVD)、或者半导体介质(例如固态硬盘)等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。

Claims (17)

1.一种拍摄方法,应用于包括摄像头的终端设备,其特征在于,所述方法包括:
显示预览界面,所述预览界面包括第一控件;
第一时刻,检测到对所述第一控件的第一操作,开始录制第一视频;
显示第一视频的录制界面,所述录制界面包括第二控件;
第二时刻,检测到对所述第二控件的第二操作,结束录制第一视频;
保存所述第一视频和第一图像帧,所述第一视频包括在第三时刻所述摄像头采集的第一图像经过处理得到的第二图像帧,所述第三时刻在所述第一时刻和所述第二时刻之间,所述第一图像帧为所述第一图像经过处理得到的;其中,
所述第一图像帧为所述第一图像经过处理得到的,包括:
确定所述第一图像中的第一目标对象符合第一预设条件;
对所述第一图像进行处理得到第一图像帧。
2.根据权利要求1所述的方法,其特征在于,所述第一图像帧与所述第二图像帧的分辨率相同;或者,所述第一图像帧的分辨率高于所述第二图像帧。
3.根据权利要求1或2所述的方法,其特征在于,所述第一控件与所述第二控件相同,或者,所述第一控件与所述第二控件不同。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述录制界面还包括第三控件,所述方法还包括:
第四时刻,检测到对所述第三控件的第三操作,获得第三图像帧;
所述第四时刻在所述第一时刻和所述第二时刻之间,所述第三图像帧为在第四时刻所述摄像头采集的第二图像经过处理得到的;
所述保存所述第一视频和第一图像帧,包括:
所述保存所述第一视频、所述第一图像帧和所述第三图像帧。
5.根据权利要求1-4中任一项所述的方法,其特征在于,在所述第一时刻之前,所述方法还包括:
显示设置界面,所述设置界面包括:第一选项和多个第二选项,所示第一选项用于指示所述第一目标对象,所述多个第二选项与所述第一目标对象对应,指示所述第一目标对象做出的多个动作。
6.根据权利要求4或5所述的方法,其特征在于,所述第一图像帧、第三图像帧是所述第一时刻和所述第二时刻之间所述摄像头采集的画质清晰且图像内容有意义的图像帧;图像帧的图像内容有意义是指:图像帧中包括所述第一目标对象,和/或,所述第一目标对象对应的一个或多个动作。
7.根据权利要求4-6中任一项所述的方法,其特征在于,所述方法还包括:显示展示界面,所述展示界面包括第一视频的缩略图;
检测到对所述缩略图的第四操作,显示所述第一视频、所述第一图像帧和所述第三图像帧。
8.根据权利要求4-6中任一项所述的方法,其特征在于,所述方法还包括:
显示展示界面,所述展示界面包括第一视频的缩略图、所述第一图像帧的缩略图和所述第三图像帧的缩略图。
9.根据权利要求1-8中任一项所述的方法,其特征在于,确定所述第一图像中的第一目标对象符合第一预设条件,具体包括:
确定所述第一图像中包括所述第一目标对象,且所述第一目标对象做出预设动作,所述第一目标对象包括人物,所述预设动作为向上跳跃、奔跑、跨栏、射门、比耶中的任意一项;和/或,
确定所述第一图像中包括所述第一目标对象,且所述第一目标对象的表情符合预设表情,所述第一目标对象包括人物,所述预设表情包括微笑、大笑、闭眼微笑、眨眼、嘟嘴中任意一项;和/或,
确定所述第一图像的画质的清晰度大于预设值。
10.根据权利要求9所述的方法,其特征在于,所述确定所述第一图像中包括所述第一目标对象,且所述第一目标对象做出预设动作,具体包括:
当所述第一图像的综合评分高于第一阈值时,确定所述第一图像中包括所述第一目标对象,且所述第一目标对象做出预设动作;
所述综合评分包括图像质量评分ImageQualityScore、人像评分FaceScore和动作评分ActionScore,所述ImageQualityScore用于评价图像的画质的清晰度,所述FaceScore用于评价所述第一图像中所述第一目标对象的状态,所述ActionScore用于评价所述第一图像中所述第一目标对象的所述预设动作的完成度。
11.根据权利要求10所述的方法,其特征在于,
所述ImageQualityScore越大对应所述第一图像的清晰度越高;
所述FaceScore=0用于表示所述第一图像中不包括所述第一目标对象,所述FaceScore>0用于表示所述第一图像中包括所述第一目标对象,且所述第一目标对象微笑和/或睁眼;
所述ActionScore=0用于表示所述第一目标对象未作出动作,所述ActionScore>0用于表示第一目标对象做出动作,且所述ActionScore越大,所述动作的完成度越高。
12.根据权利要求10或11所述的方法,其特征在于,
如果所述FaceScore=0,所述ActionScore=0,则所述第一阈值取第一值M1;
如果所述FaceScore=0,所述ActionScore≠0,则所述第一阈值取第二值M2;
如果所述FaceScore≠0,所述ActionScore≠0,则所述第一阈值取第三值M0。
13.根据权利要求12所示的方法,其特征在于,M1<M2<M0。
14.根据权利要求10-13中任一项所述的方法,其特征在于,在确定所述第一图像的综合评分高于第一阈值之后,所述方法还包括:
确定所述第一图像与第三图像不相似,所述第三图像是所述摄像头在第五时刻采集的图像,所述第五时刻在所述第一时刻与所述第二时刻之间,所述第五时刻与所述第三时刻不相同;
或者,确定所述第一图像与所述第三图像相似,但所述第一图像的综合评分高于所述第三图像。
15.根据权利要求10-14中任一项所述的方法,其特征在于,所述对所述第一图像进行处理得到第一图像帧,具体包括:
确定与所述第一图像相邻的N帧图像;
融合所述第一图像和所述N帧图像,得到所述第一图像帧。
16.一种电子设备,其特征在于,包括一个或多个处理器和一个或多个存储器;其中,所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,使得执行如权利要求1-15任一项所述的方法。
17.一种计算机可读存储介质,包括指令,其特征在于,当所述指令在电子设备上运行时,使得执行如权利要求1-15任一项所述的方法。
CN202210193723.2A 2022-02-28 2022-02-28 拍摄方法和电子设备 Pending CN115525188A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210193723.2A CN115525188A (zh) 2022-02-28 2022-02-28 拍摄方法和电子设备
PCT/CN2022/140204 WO2023160170A1 (zh) 2022-02-28 2022-12-20 拍摄方法和电子设备
EP22896836.8A EP4273684A1 (en) 2022-02-28 2022-12-20 Photographing method and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210193723.2A CN115525188A (zh) 2022-02-28 2022-02-28 拍摄方法和电子设备

Publications (1)

Publication Number Publication Date
CN115525188A true CN115525188A (zh) 2022-12-27

Family

ID=84693499

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210193723.2A Pending CN115525188A (zh) 2022-02-28 2022-02-28 拍摄方法和电子设备

Country Status (3)

Country Link
EP (1) EP4273684A1 (zh)
CN (1) CN115525188A (zh)
WO (1) WO2023160170A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117119285A (zh) * 2023-02-27 2023-11-24 荣耀终端有限公司 一种拍摄方法
CN117692762A (zh) * 2023-06-21 2024-03-12 荣耀终端有限公司 拍摄方法及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109922266A (zh) * 2019-03-29 2019-06-21 睿魔智能科技(深圳)有限公司 应用于视频拍摄的抓拍方法及系统、摄像机及存储介质
CN110096989A (zh) * 2019-04-24 2019-08-06 深圳爱莫科技有限公司 图像处理方法和装置
CN111061912A (zh) * 2018-10-16 2020-04-24 华为技术有限公司 一种处理视频文件的方法及电子设备
CN111970440A (zh) * 2020-08-11 2020-11-20 Oppo(重庆)智能科技有限公司 图像获取方法、电子装置和存储介质
CN113472994A (zh) * 2020-03-30 2021-10-01 北京小米移动软件有限公司 拍照方法及装置、移动终端及存储介质
CN113810608A (zh) * 2021-09-14 2021-12-17 荣耀终端有限公司 一种拍摄方法、电子设备及存储介质
US20210409588A1 (en) * 2018-12-06 2021-12-30 Huawei Technologies Co., Ltd. Method for Shooting Long-Exposure Image and Electronic Device
CN113923342A (zh) * 2020-07-10 2022-01-11 华为技术有限公司 一种拍照方法及电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940975B2 (en) * 2016-09-13 2018-04-10 Shutterfly, Inc. System and method for automatically displaying variable image content in an image product

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111061912A (zh) * 2018-10-16 2020-04-24 华为技术有限公司 一种处理视频文件的方法及电子设备
US20210409588A1 (en) * 2018-12-06 2021-12-30 Huawei Technologies Co., Ltd. Method for Shooting Long-Exposure Image and Electronic Device
CN109922266A (zh) * 2019-03-29 2019-06-21 睿魔智能科技(深圳)有限公司 应用于视频拍摄的抓拍方法及系统、摄像机及存储介质
CN110096989A (zh) * 2019-04-24 2019-08-06 深圳爱莫科技有限公司 图像处理方法和装置
CN113472994A (zh) * 2020-03-30 2021-10-01 北京小米移动软件有限公司 拍照方法及装置、移动终端及存储介质
CN113923342A (zh) * 2020-07-10 2022-01-11 华为技术有限公司 一种拍照方法及电子设备
CN111970440A (zh) * 2020-08-11 2020-11-20 Oppo(重庆)智能科技有限公司 图像获取方法、电子装置和存储介质
CN113810608A (zh) * 2021-09-14 2021-12-17 荣耀终端有限公司 一种拍摄方法、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙国玉: "人工智能舞蹈交互系统原理与设计", 中国传媒大学出版社, pages: 15 - 18 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117119285A (zh) * 2023-02-27 2023-11-24 荣耀终端有限公司 一种拍摄方法
CN117692762A (zh) * 2023-06-21 2024-03-12 荣耀终端有限公司 拍摄方法及电子设备

Also Published As

Publication number Publication date
WO2023160170A1 (zh) 2023-08-31
EP4273684A1 (en) 2023-11-08

Similar Documents

Publication Publication Date Title
US10372991B1 (en) Systems and methods that leverage deep learning to selectively store audiovisual content
WO2021190078A1 (zh) 短视频的生成方法、装置、相关设备及介质
CN111061912A (zh) 一种处理视频文件的方法及电子设备
WO2021244457A1 (zh) 一种视频生成方法及相关装置
CN112532865B (zh) 慢动作视频拍摄方法及电子设备
CN110471606B (zh) 输入方法及电子设备
WO2023160170A1 (zh) 拍摄方法和电子设备
CN112887583A (zh) 一种拍摄方法及电子设备
US20220343648A1 (en) Image selection method and electronic device
CN113099146A (zh) 一种视频生成方法、装置及相关设备
WO2020192761A1 (zh) 记录用户情感的方法及相关装置
CN113705665B (zh) 图像变换网络模型的训练方法和电子设备
EP4258632A1 (en) Video processing method and related device
CN113536866A (zh) 一种人物追踪显示方法和电子设备
CN115115679A (zh) 一种图像配准方法及相关设备
WO2022206605A1 (zh) 确定目标对象的方法、拍摄方法和装置
EP4284009A1 (en) Method for acquiring image, and electronic device
CN115883958A (zh) 一种人像拍摄方法
CN115883957A (zh) 一种拍摄模式推荐方法
US20240107092A1 (en) Video playing method and apparatus
US20240031655A1 (en) Video Playback Method, Terminal Device, Apparatus, System, and Storage Medium
CN116055861B (zh) 一种视频编辑方法和电子设备
WO2024082914A1 (zh) 视频问答方法及电子设备
WO2023231595A9 (zh) 一种拍摄方法和电子设备
WO2022228010A1 (zh) 一种生成封面的方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination