CN114222075B - 移动端图像处理方法及其装置、设备、介质、产品 - Google Patents

移动端图像处理方法及其装置、设备、介质、产品 Download PDF

Info

Publication number
CN114222075B
CN114222075B CN202210105939.9A CN202210105939A CN114222075B CN 114222075 B CN114222075 B CN 114222075B CN 202210105939 A CN202210105939 A CN 202210105939A CN 114222075 B CN114222075 B CN 114222075B
Authority
CN
China
Prior art keywords
image
target
images
mobile terminal
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210105939.9A
Other languages
English (en)
Other versions
CN114222075A (zh
Inventor
冯进亨
戴长军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Huaduo Network Technology Co Ltd
Original Assignee
Guangzhou Huaduo Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Huaduo Network Technology Co Ltd filed Critical Guangzhou Huaduo Network Technology Co Ltd
Priority to CN202210105939.9A priority Critical patent/CN114222075B/zh
Publication of CN114222075A publication Critical patent/CN114222075A/zh
Application granted granted Critical
Publication of CN114222075B publication Critical patent/CN114222075B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

本申请公开一种移动端图像处理方法、装置、计算机设备及存储介质,包括:获取待设定的配置参数;根据所述配置参数设置目标终端的拍摄参数,以使所述目标终端进入预设的目标拍摄模式;基于所述目标拍摄模式和预设的时间间隔,采集多张第一数据格式的第一目标图像;通过预设的图像筛选规则,对多张所述待选图像进行图像筛选得到多张第二目标图像;将多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像,其中,所述第二数据格式包含的信息大于所述第一数据格式包含的信息。合成图像相比于第一目标图像具有更大的信息量,能够满足用户对移动端更高画质的需求。

Description

移动端图像处理方法及其装置、设备、介质、产品
技术领域
本发明涉及图像处理技术领域,尤其涉及一种移动端图像处理方法、装置、电子设备及计算机可读存储介质。
背景技术
随着科技发展与进步、智能手机大范围普及与互联网的高速发展,海量的图像数据在不断产生与分享。同时,人们对于图像的质量要求不断提高,更多人追求更高清,色彩更丰富的显示数据。
本发明创造的发明人在研究中发现,现有技术中,移动终端作为用户常用的拍摄设备,由于,设备自身性能的限制,无法直接采集高信息量的图像。因此,移动终端的拍摄性能和人们日益增强的图像拍摄需求形成不对等的关系。
发明内容
本发明提供一种能够将移动端低信量的图像提高成高信息量的移动端图像处理方法、装置、电子设备及计算机可读存储介质。
为解决上述技术问题,本申请创造的实施例采用的一个技术方案是:提供一种移动端图像处理方法,包括:
获取待设定的配置参数;
根据所述配置参数设置目标终端的拍摄参数,以使所述目标终端进入预设的目标拍摄模式;
基于所述目标拍摄模式和预设的时间间隔,采集多张第一数据格式的第一目标图像;
通过预设的图像筛选规则,对多张所述待选图像进行图像筛选得到多张第二目标图像;
将多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像,其中,所述第二数据格式包含的信息大于所述第一数据格式包含的信息。
可选地,所述获取待设定的配置参数包括:
获取所述目标终端的设备信息;
在预设的配置数据库中查找与所述设备信息相匹配的配置参数,并将所述配置参数发送至所述目标终端,以使所述目标终端获取所述配置参数。
可选地,所述基于所述目标拍摄模式和预设的时间间隔,采集多张第一数据格式的第一目标图像包括:
基于所述目标拍摄模式和预设的第一时间间隔,拍摄多张图片生成第一图集;
将所述第一图集中的图像依次输入至预设的曝光筛选模型中,其中,所述曝光筛选模型为预选训练至收敛状态,用于对图像进行场景和曝光度匹配的神经网络模型;
根据所述曝光筛选模型输出筛选得到标准图像;
根据所述标准图像的曝光度以及预设的第二时间间隔,拍摄多张图片生成第二图集;
将所述第一图集和所述第二图集中的图像合并得到多张所述第一目标图像。
可选地,所述通过预设的图像筛选规则,对多张所述待选图像进行图像筛选得到多张第二目标图像包括:
获取多张所述第一目标图像对应的标准亮度区间值;
计算各所述第一目标图像的平均亮度值,并将各所述第一目标图像的平均亮度值与所述标准亮度区间值进行比对;
将多个所述第一目标图像中平均亮度值在所述标准亮度区间值范围内的第一目标图像,确定为第二目标图像。
可选地,所述获取多张所述第一目标图像对应的标准亮度区间值包括:
识别所述多张所述第一目标图像表征的图像场景;
在预设的场景数据库中查找与所述图像场景匹配的标准亮度区间值。
可选地,所述将多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像包括:
将多张所述第二目标图像进行图像对齐处理;
根据预设的裁剪窗口对进行图像对齐处理后的多张所述第二目标图像进行截取;
根据预设的图像尺寸对截取后的多张所述第二目标图像进行图像大小进行伸缩调整;
将伸缩调整调整后的多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像。
可选地,所述将多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像之后,包括:
对所述合成图像进行色调处理,将所述合成图像进的色调取值映射至预设的色调阈值区间内;
将色调处理后的所述合成图像标记为多张所述第二目标图像的标注图像,生成训练样本。
为实现上述目的,本发明还提供一种移动端图像处理装置,包括:
获取模块,用于获取待设定的配置参数;
配置模块,用于根据所述配置参数设置目标终端的拍摄参数,以使所述目标终端进入预设的目标拍摄模式;
拍摄模块,用于基于所述目标拍摄模式和预设的时间间隔,采集多张第一数据格式的第一目标图像;
筛选模块,用于通过预设的图像筛选规则,对多张所述待选图像进行图像筛选得到多张第二目标图像;
合成模块,用于将多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像,其中,所述第二数据格式包含的信息大于所述第一数据格式包含的信息。
可选地,所述移动端图像处理装置还包括:
第一获取子模块,用于获取所述目标终端的设备信息;
第一处理子模块,用于在预设的配置数据库中查找与所述设备信息相匹配的配置参数,并将所述配置参数发送至所述目标终端,以使所述目标终端获取所述配置参数。
可选地,所述移动端图像处理装置还包括:
第一拍摄子模块,用于基于所述目标拍摄模式和预设的第一时间间隔,拍摄多张图片生成第一图集;
第二处理子模块,用于将所述第一图集中的图像依次输入至预设的曝光筛选模型中,其中,所述曝光筛选模型为预选训练至收敛状态,用于对图像进行场景和曝光度匹配的神经网络模型;
第一筛选子模块,用于根据所述曝光筛选模型的输出筛选得到标准图像;
第二拍摄子模块,用于根据所述标准图像的曝光度以及预设的第二时间间隔,拍摄多张图片生成第二图集;
第一执行子模块,用于将所述第一图集和所述第二图集中的图像合并得到多张所述第一目标图像。
可选地,所述移动端图像处理装置还包括:
第二获取子模块,用于获取多张所述第一目标图像对应的标准亮度区间值;
第一计算子模块,用于计算各所述第一目标图像的平均亮度值,并将各所述第一目标图像的平均亮度值与所述标准亮度区间值进行比对;
第二执行子模块,用于将多个所述第一目标图像中平均亮度值在所述标准亮度区间值范围内的第一目标图像,确定为第二目标图像。
可选地,所述移动端图像处理装置还包括:
第一识别子模块,用于识别所述多张所述第一目标图像表征的图像场景;
第一匹配子模块,用于在预设的场景数据库中查找与所述图像场景匹配的标准亮度区间值。
可选地,所述移动端图像处理装置还包括:
第一对齐子模块,用于将多张所述第二目标图像进行图像对齐处理;
第一裁剪子模块,用于根据预设的裁剪窗口对进行图像对齐处理后的多张所述第二目标图像进行截取;
第三处理子模块,用于根据预设的图像尺寸对截取后的多张所述第二目标图像进行图像大小进行伸缩调整;
第一合成子模块,用于将伸缩调整调整后的多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像。
可选地,所述移动端图像处理装置还包括:
第四处理子模块,用于对所述合成图像进行色调处理,将所述合成图像进的色调取值映射至预设的色调阈值区间内;
第三执行子模块,用于将色调处理后的所述合成图像标记为多张所述第二目标图像的标注图像,生成训练样本。
为解决上述技术问题本申请实施例还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行上述所述移动端图像处理方法的步骤。
为解决上述技术问题本申请实施例还提供一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述所述移动端图像处理方法的步骤。
适应本申请的另一目的而提供的一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现本申请任意一种实施例中所述移动端图像处理方法的步骤。
本申请实施例的有益效果是:通过对移动端的拍摄参数进行配置,使移动端设备能够按设定的拍摄模式和拍摄间隔,连续的采集多张第一目标图像。此时,采集的第一目标图像属于低信息量的图像,然后,再通过图像筛选规则筛除第一图标图像中不符合要求的图片,得到多张第二目标图像,最终,将多张第二目标图像通过图像合成的方式,合成成为一张合成图像,此时,合成图像相比于第一目标图像具有更大的信息量,能够满足用户对移动端更高画质的需求。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请一个具体实施例的移动端图像处理方法的基本流程示意图;
图2为本申请一个具体实施例的获取配置参数的流程示意图;
图3为本申请一个具体实施例的生成第一目标图像的流程示意图;
图4为本申请一个具体实施例的筛选第二目标图像的流程示意图;
图5为本申请一个具体实施例的确定标准亮度区间值的流程示意图;
图6为本申请一个具体实施例的生成合成图像的流程示意图;
图7为本申请一个实施例的生成训练样本的流程示意图;
图8为本申请一个实施例的移动端图像处理装置基本结构示意图;
图9为本申请一个实施例的计算机设备的基本结构框图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本申请的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本技术领域技术人员可以理解,这里所使用的“终端”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,执行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;PCS(Personal Communications Service,个人通信系统),其可以组合语音、数据处理、传真和/或数据通信能力;PDA(Personal Digital Assistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或GPS(Global Positioning System,全球定位系统)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“终端”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“终端”还可以是通信终端、上网终端、音乐/视频播放终端,例如可以是PDA、MID(Mobile Internet Device,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
本申请所称的“服务器”、“客户端”、“服务节点”等名称所指向的硬件,本质上是具备个人计算机等效能力的电子设备,为具有中央处理器(包括运算器和控制器)、存储器、输入设备以及输出设备等冯诺依曼原理所揭示的必要构件的硬件装置,计算机程序存储于其存储器中,中央处理器将存储在外存中的程序调入内存中运行,执行程序中的指令,与输入输出设备交互,借此完成特定的功能。
需要指出的是,本申请所称的“服务器”这一概念,同理也可扩展到适用于服务器机群的情况。依据本领域技术人员所理解的网络部署原理,所述各服务器应是逻辑上的划分,在物理空间上,这些服务器既可以是互相独立但可通过接口调用的,也可以是集成到一台物理计算机或一套计算机机群的。本领域技术人员应当理解这一变通,而不应以此约束本申请的网络部署方式的实施方式。
本申请的一个或数个技术特征,除非明文指定,既可部署于服务器实施而由客户端远程调用获取服务器提供的在线服务接口来实施访问,也可直接部署并运行于客户端来实施访问。
本申请中所引用或可能引用到的神经网络模型,除非明文指定,既可部署于远程服务器且在客户端实施远程调用,也可部署于设备能力胜任的客户端直接调用,某些实施例中,当其运行于客户端时,其相应的智能可通过迁移学习来获得,以便降低对客户端硬件运行资源的要求,避免过度占用客户端硬件运行资源。
本申请所涉及的各种数据,除非明文指定,既可远程存储于服务器,也可存储于本地终端设备,只要其适于被本申请的技术方案所调用即可。
本领域技术人员对此应当知晓:本申请的各种方法,虽然基于相同的概念而进行描述而使其彼此间呈现共通性,但是,除非特别说明,否则这些方法都是可以独立执行的。同理,对于本申请所揭示的各个实施例而言,均基于同一发明构思而提出,因此,对于相同表述的概念,以及尽管概念表述不同但仅是为了方便而适当变换的概念,应被等同理解。
本申请即将揭示的各个实施例,除非明文指出彼此之间的相互排斥关系,否则,各个实施例所涉的相关技术特征可以交叉结合而灵活构造出新的实施例,只要这种结合不背离本申请的创造精神且可满足现有技术中的需求或解决现有技术中的某方面的不足即可。对此变通,本领域技术人员应当知晓。
请参阅图1,图1为本实施例移动端图像处理方法的基本流程示意图。
如图1所示,一种移动端图像处理方法,包括:
S1100、获取待设定的配置参数;
本实施方式中,移动终端需要在特定的拍摄模式下对图像进行拍摄采集。
例如,当移动终端为安卓操作系统时,拍摄时需要设定拍摄模式的iso(感光度)值,根据不同的拍摄场景设置iso值参考如下:
白天室外:iso 100~200
白天室内:iso 400~1000
夜晚没强光室外:iso 4000~6000
夜晚带环境光源室外:iso 3000~4000
夜晚室内:iso 800~2000。
上述iso值的取值范围设定,是根据有限次的实验数据验证得到的数据范围,在一些实施方式中,用户能够根据实际操作需要设定上述取值范围。
当移动终端为iOS操作系统时,配置参数为:使用Cameraraw作为专业模式拍照,快门采用自动模式,缩放设置1.0x,白平衡与对焦都是自动模式。并且通过调整曝光补偿(EV)值作为图像采集的动态参数。EV值的取值范围为:
室外场景:EV值一般在0到0.5的曝光时间会比较清晰
室内场景:EV值一般是0.5到1的曝光时间会比较清晰
暗光场景:EV值一般是1到2的曝光时间会比较清晰。
上述参数设定均属于目标终端的配置参数,配置参数能够根据目标终端的操作系统进行设置,还能够通过移动端的型号进行更加细分化的设置。
配置参数能够存储在服务器端,服务器端在接收到目标终端发送的设备信息后,根据设备信息识别目标终端的操作系统或者移动端的设备信息,然后,根据设备信息进一步的配置与移动端匹配的配置参数。
在一些实施方式中,配置参数的匹配需要根据移动端搭载的摄像头接口匹配,首先,采集移动端摄像头的API接口,在配置数据库中进行查找,得到API接口对应的参数后,将配置参数发送至移动端。当通过API接口无法查找到对应的配置参数后,读取移动端设备信息中拍摄模组的SDK信息,通过SDK信息在配置数据库中进行查找,得到SDK对应的配置参数后,将对应配置参数发送至移动端。进一步的,通过SDK信息也无法匹配到配置参数后,能够通过移动端的操作系统类型对配置参数进行匹配。
S1200、根据所述配置参数设置目标终端的拍摄参数,以使所述目标终端进入预设的目标拍摄模式;
当服务器端接收到目标终端发送的设备信息后,根据设备信息匹配到该目标终端对应的配置参数后,将配置参数发送至目标终端。目标终端得到配置参数后,对目标终端的拍摄参数进行配置,配置的方式为:将目标终端的拍摄参数进行设定。
根据配置参数设定的目标终端进入到设定的目标拍摄模式。
S1300、基于所述目标拍摄模式和预设的时间间隔,采集多张第一数据格式的第一目标图像;
当目标终端根据配置参数进入到设定的目标拍摄模式后,根据设定的时间间隔进行拍摄。例如,曝光的时间间隔为(单位s):1/8000,1/6000,1/4000,1/2000,1/1000,1/750,1/500,1/250,1/100,1/75,1/50,1/25,1/15,1/10,1/7,1/5,1/3,1,1.25,1.5。上述曝光使用的时间间隔为有限次试验得到的拍摄结果较佳的时间间隔。根据具体应用场景的不同,在一些实施方式中,能够根据场景的需要对时间间隔进行设定,例如,在光线较暗的环境中,应当增大间隔时间,使最后一次曝光时间大于1.5s。而在光线较强的环境中则需要适当的减小曝光的时间间隔,使最后一次曝光的时间小于1.5s。
根据设定的时间间隔,目标终端在目标拍摄模式下,定时的采集多张图像,该图像被定义为第一目标图像。在通常情况下,第一目标图像的采集数量为20张。但是,在实际使用中,第一目标图像的拍摄张数能够根据实际的需要进行适时的调整。
在一些实施方式中,为了保证产生的第一目标图像中,处于正常曝光范围内的图像较多,在拍摄的图像中挑选出标准图像,标准图像就是在上述拍摄的照片中,拍摄照片的曝光度最接近平均值的图像。在一些实施方式中,标准图像的挑选,需要契合拍摄所处的场景,通过识别拍摄图像所在的场景,再在该场景中确定出对应的标准图像,根据标准图像进一步的采集第一目标图像。例如,通过识别在曝光时间为1/500s拍摄的照片为标准图像时,则以1/500s曝光时长为中心,在进行四张图像的采集,四张图像采集的曝光时间间隔为1/425s,1/475s,1/525s,1/575s。需要指出的是,对于补充拍摄的第一目标图像的曝光时间间隔设定是根据有限次试验得出的较佳实施方式,但这一数据的设定不是固定的,根据应用场景的不同,在一些实施方式中,能够根据适应场景的需求进行设定。
S1400、通过预设的图像筛选规则,对多张所述待选图像进行图像筛选得到多张第二目标图像;
当拍摄得到多张第一目标图像后,需要对采集的第一目标图像进行筛选,筛选的方式为:通过第一目标图像的平均亮度进行筛选。具体地,设定标准亮度区间值,将第一目标图像中每一张图像的平均亮度计算出来,然后,通过比对确定每个第一目标图像对应的平均亮度值是否落入到标准亮度区间内,如果第一目标图像对应的平均亮度值落入到标准亮度区间内,则认定该第一目标图像为第二目标图像。如果第一目标图像对应的平均亮度值未落入到标准亮度区间内,则将该第一目标图像进行删除。
通过对每一张第一目标图像的亮度进行筛选,满足筛选条件的图像被定义为第二目标图像。
需要指出的是,除了通过图像亮度对第一目标图像进行筛选以外,根据具体应用场景的不同,在一些实施方式中还能够通过(不限于):像素值、色调或者图像质量等维度对第一目标图像进行筛选。
在一些实施方式中,标准亮度区间值的取值范围能够随着拍摄环境的不同,进行动态调整的。具体地,将随机抽取一张或者多张第一目标图像,将抽取的第一目标图像输入至预先训练至收敛状态的,用于对图像所在的场景进行识别的神经网络模型中,由神经网络模型识别出第一目标图像表征的拍摄环境,例如,室内、室外、阴天、晴天等等不同的图像场景。然后,根据图像场景在预设的场景数据库中查找与图像场景匹配的标准亮度区间值。通过第一目标图像的场景识别,能够提高标准亮度区间值对环境的适应性,筛选出能加贴合环境需要的第一目标图像。
S1500、将多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像,其中,所述第二数据格式包含的信息大于所述第一数据格式包含的信息。
从第一目标图像筛选得到多张第二目标图像后,对第二目标图像进行图像合成。具体地,在进行合成时,将多张第二目标图像进行对齐处理,图像对齐能够避免由于拍摄过程中由于出现运动与拍摄角度的差异,导致的全局视觉范围的差异。图像对齐能够采用Photomatix或者OpenCV进行对齐操作。也能够通过采集第二目标图像中的图像特征,根据每个第二目标图像的图像特征进行图像特征匹配,然后,根据图像特征匹配结果求解第二目标图像之间的对齐矩阵,再由对齐矩阵对每个第二目标图像进行对齐处理。
图像对齐处理后,对图像对齐处理后的每个第二目标图像进行截取,截取的方式为:设定一个固定大小的裁剪窗口,然后,在每个第二目标图像相同位置选择一个锚点,以及有该锚点在一个水平方向上的平行线。裁剪时将裁剪窗口左上角的点与第二目标图像中的锚点重合,将裁剪窗口的一条边与平行线重合后,对第二目标图像进行截取。
对第二目标图像进行截取后,根据实际使用的需要,对截取后的第二目标图像进行图像大小的调整,调整的具体方式为:设定一个标准的图像尺寸,将截取后的第二目标图像拉伸或者缩小至与设定的图像尺寸相同后,完成对第二目标图像的伸缩调整。
当多张第二目标图像均完成伸缩调整后,将多张第二目标图像进行图像叠放后,对多张第二目标图像进行图像融合,生成合成图像。其中,本实施例中第一数据格式为SDR格式,即第一目标图像和第二目标图像的数据格式均为SDR格式。本实施例中第二数据格式为HDR格式,即合成图像的数据格式为HDR格式。需要指出的是第一数据格式不局限于SDR格式,还能够为JPG、PNG等常规图像格式,同样的,第二数据格式还能够为TGA、BMP等图像格式。
在一些实施方式中,当合成图像生成后,将多个第二目标图像和合成图像进行关联,并且将合成图像作为每一个第二目标图像对应的标注图像,使第二目标图像和合成图像组成一组用于监督训练的训练样本。在一些实施方式中,也能够将第一目标图像和合成图像进行关联,使第一目标图像和合成图像构成训练样本。
通过上述训练样本,对神经网络模型进行监督训练,使神经网络模型具备将第一数据格式图像升级为第二数据格式图像的能力,大大降低了第二数据格式图像生成的效率和准确性。
上述实施方式通过对移动端的拍摄参数进行配置,使移动端设备能够按设定的拍摄模式和拍摄间隔,连续的采集多张第一目标图像。此时,采集的第一目标图像属于低信息量的图像,然后,再通过图像筛选规则筛除第一图标图像中不符合要求的图片,得到多张第二目标图像,最终,将多张第二目标图像通过图像合成的方式,合成成为一张合成图像,此时,合成图像相比于第一目标图像具有更大的信息量,能够满足用户对移动端更高画质的需求。
在一些实施方式中,服务器端根据移动端的设备信息,为移动端配置对应的配置参数。请参阅图2,图2为本实施例获取配置参数的流程示意图。
如图2所示,S1100包括:
S1111、获取所述目标终端的设备信息;
移动终端需要在特定的拍摄模式下对图像进行拍摄采集。
例如,当移动终端为安卓操作系统时,拍摄时需要设定拍摄模式的iso(感光度)值,根据不同的拍摄场景设置iso值参考如下:
白天室外:iso 100~200
白天室内:iso 400~1000
夜晚没强光室外:iso 4000~6000
夜晚带环境光源室外:iso 3000~4000
夜晚室内:iso 800~2000。
上述iso值的取值范围设定,是根据有限次的实验数据验证得到的数据范围,在一些实施方式中,用户能够根据实际操作需要设定上述取值范围。
当移动终端为iOS操作系统时,配置参数为:使用Cameraraw作为专业模式拍照,快门采用自动模式,缩放设置1.0x,白平衡与对焦都是自动模式。并且通过调整曝光补偿(EV)值作为图像采集的动态参数。EV值的取值范围为:
室外场景:EV值一般在0到0.5的曝光时间会比较清晰
室内场景:EV值一般是0.5到1的曝光时间会比较清晰
暗光场景:EV值一般是1到2的曝光时间会比较清晰。
上述参数设定均属于目标终端的配置参数,配置参数能够根据目标终端的操作系统进行设置,还能够通过移动端的型号进行更加细分化的设置。
S1112、在预设的配置数据库中查找与所述设备信息相匹配的配置参数,并将所述配置参数发送至所述目标终端,以使所述目标终端获取所述配置参数。
配置参数能够存储在服务器端,服务器端在接收到目标终端发送的设备信息后,根据设备信息识别目标终端的操作系统或者移动端的设备信息,然后,根据设备信息进一步的配置与移动端匹配的配置参数。
在一些实施方式中,设备信息中包括移动端的API接口、SDK信息和操作系统类型。置参数的匹配需要根据移动端搭载的摄像头接口匹配,首先,采集移动端摄像头的API接口,在配置数据库中进行查找,得到API接口对应的参数后,将配置参数发送至移动端。当通过API接口无法查找到对应的配置参数后,读取移动端设备信息中拍摄模组的SDK信息,通过SDK信息在配置数据库中进行查找,得到SDK对应的配置参数后,将对应配置参数发送至移动端。进一步的,通过SDK信息也无法匹配到配置参数后,能够通过移动端的操作系统类型对配置参数进行匹配。
在一些实施方式中,第一目标图像通过多次拍摄后得到。请参阅图3,图3为本实施例生成第一目标图像的流程示意图。
如图3所示,S1300包括:
S1311、基于所述目标拍摄模式和预设的第一时间间隔,拍摄多张图片生成第一图集;
当目标终端根据配置参数进入到设定的目标拍摄模式后,根据设定的时间间隔进行拍摄。例如,曝光的时间间隔为(单位s):1/8000,1/6000,1/4000,1/2000,1/1000,1/750,1/500,1/250,1/100,1/75,1/50,1/25,1/15,1/10,1/7,1/5,1/3,1,1.25,1.5。上述曝光使用的时间间隔为有限次试验得到的拍摄结果较佳的时间间隔。根据具体应用场景的不同,在一些实施方式中,能够根据场景的需要对时间间隔进行设定,例如,在光线较暗的环境中,应当增大间隔时间,使最后一次曝光时间大于1.5s。而在光线较强的环境中则需要适当的减小曝光的时间间隔,使最后一次曝光的时间小于1.5s。
根据设定的时间间隔,目标终端在目标拍摄模式下,定时的采集多张图像,该图像被定义为第一目标图像。在通常情况下,第一目标图像的采集数量为20张。但是,在实际使用中,第一目标图像的拍摄张数能够根据实际的需要进行适时的调整。
本实施方式中采集得到的第一目标图像构成第一图集。
S1312、将所述第一图集中的图像依次输入至预设的曝光筛选模型中,其中,所述曝光筛选模型为预选训练至收敛状态,用于对图像进行场景和曝光度匹配的神经网络模型;
在一些实施方式中,标准图像的挑选,需要契合拍摄所处的场景,通过识别拍摄图像所在的场景,再在该场景中确定出对应的标准图像。
具体地,预先构建曝光筛选模型通过监督训练的方法,使该模型进行收敛,能够识别出输入图像集中最为优质的图像,并将该图像作为输出。
S1313、根据所述曝光筛选模型输出筛选得到标准图像;
将拍摄得到的第一图集中的图像均输入至曝光筛选模型中后,曝光筛选模型根据提取得到的各图像特征与预设的标准图像的特征进行比对,确定出第一图集中的标准图像。
S1314、根据所述标准图像的曝光度以及预设的第二时间间隔,拍摄多张图片生成第二图集;
标准图像的挑选,需要契合拍摄所处的场景,通过识别拍摄图像所在的场景,再在该场景中确定出对应的标准图像,根据标准图像进一步的采集第一目标图像。例如,通过识别在曝光时间为1/500s拍摄的照片为标准图像时,则以1/500s曝光时长为中心,在进行四张图像的采集,四张图像采集的曝光时间间隔为1/425s,1/475s,1/525s,1/575s。需要指出的是,对于补充拍摄的第一目标图像的曝光时间间隔设定是根据有限次试验得出的较佳实施方式,但这一数据的设定不是固定的,根据应用场景的不同,在一些实施方式中,能够根据适应场景的需求进行设定。
通过标准图像采集得到的图像形成的图集定义为第二图集。
S1315、将所述第一图集和所述第二图集中的图像合并得到多张所述第一目标图像。
将第一图集和第二图集中的图像进行合并,合并后的图像均为定义为第一目标图像。
在一些实施方式中,需要对得到的第一目标图像进行筛选,筛选得到的图像为第二目标图像。请参阅图4,图4为本实施例筛选第二目标图像的流程示意图。
如图4所示,S1400包括:
S1410、获取多张所述第一目标图像对应的标准亮度区间值;
当拍摄得到多张第一目标图像后,需要对采集的第一目标图像进行筛选,筛选的方式为:通过第一目标图像的平均亮度进行筛选。具体地,设定标准亮度区间值。标准亮度区间值能够为[30,230],但是,标准亮度区间值不局限于此,根据具体应用场景的不同,标准亮度区间值的临界值能够更大或者更小。
S1420、计算各所述第一目标图像的平均亮度值,并将各所述第一目标图像的平均亮度值与所述标准亮度区间值进行比对;
将第一目标图像中每一张图像的平均亮度计算出来,然后,通过比对确定每个第一目标图像对应的平均亮度值是否落入到标准亮度区间内,如果第一目标图像对应的平均亮度值落入到标准亮度区间内,则认定该第一目标图像为第二目标图像。如果第一目标图像对应的平均亮度值未落入到标准亮度区间内,则将该第一目标图像进行删除。
S1430、将多个所述第一目标图像中平均亮度值在所述标准亮度区间值范围内的第一目标图像,确定为第二目标图像。
通过对每一张第一目标图像的亮度进行筛选,满足筛选条件的图像被定义为第二目标图像。
在一些实施方式中,标准亮度区间值需要通过图像场景进行确认。请参阅图5,图5为本实施例确定标准亮度区间值的流程示意图。
如图5所示,S1410包括:
S1411、识别所述多张所述第一目标图像表征的图像场景;
标准亮度区间值的取值范围能够随着拍摄环境的不同,进行动态调整的。具体地,将随机抽取一张或者多张第一目标图像,将抽取的第一目标图像输入至预先训练至收敛状态的,用于对图像所在的场景进行识别的神经网络模型中,由神经网络模型识别出第一目标图像表征的拍摄环境,例如,室内、室外、阴天、晴天等等不同的图像场景。
S1412、在预设的场景数据库中查找与所述图像场景匹配的标准亮度区间值。
根据图像场景在预设的场景数据库中查找与图像场景匹配的标准亮度区间值。通过第一目标图像的场景识别,能够提高标准亮度区间值对环境的适应性,筛选出能加贴合环境需要的第一目标图像。
在一些实施方式中,第二目标图像需要经过对齐、截取和拉伸的处理后,合成为合成图像。请参阅图6,图6为本实施例生成合成图像的流程示意图。
如图6所示,S1500包括:
S1511、将多张所述第二目标图像进行图像对齐处理;
从第一目标图像筛选得到多张第二目标图像后,对第二目标图像进行图像合成。具体地,在进行合成时,将多张第二目标图像进行对齐处理,图像对齐能够避免由于拍摄过程中由于出现运动与拍摄角度的差异,导致的全局视觉范围的差异。图像对齐能够采用Photomatix或者OpenCV进行对齐操作。也能够通过采集第二目标图像中的图像特征,根据每个第二目标图像的图像特征进行图像特征匹配,然后,根据图像特征匹配结果求解第二目标图像之间的对齐矩阵,再由对齐矩阵对每个第二目标图像进行对齐处理。
S1512、根据预设的裁剪窗口对进行图像对齐处理后的多张所述第二目标图像进行截取;
图像对齐处理后,对图像对齐处理后的每个第二目标图像进行截取,截取的方式为:设定一个固定大小的裁剪窗口,然后,在每个第二目标图像相同位置选择一个锚点,以及有该锚点在一个水平方向上的平行线。裁剪时将裁剪窗口左上角的点与第二目标图像中的锚点重合,将裁剪窗口的一条边与平行线重合后,对第二目标图像进行截取。
S1513、根据预设的图像尺寸对截取后的多张所述第二目标图像进行图像大小进行伸缩调整;
对第二目标图像进行截取后,根据实际使用的需要,对截取后的第二目标图像进行图像大小的调整,调整的具体方式为:设定一个标准的图像尺寸,将截取后的第二目标图像拉伸或者缩小至与设定的图像尺寸相同后,完成对第二目标图像的伸缩调整。
S1514、将伸缩调整调整后的多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像。
当多张第二目标图像均完成伸缩调整后,将多张第二目标图像进行图像叠放后,对多张第二目标图像进行图像融合,生成合成图像。其中,本实施例中第一数据格式为SDR格式,即第一目标图像和第二目标图像的数据格式均为SDR格式。本实施例中第二数据格式为HDR格式,即合成图像的数据格式为HDR格式。需要指出的是第一数据格式不局限于SDR格式,还能够为JPG、PNG等常规图像格式,同样的,第二数据格式还能够为TGA、BMP等图像格式。
在一些实施方式中,当合成图像生成后,能够将合成图像作为标注图像,生成监督训练所需的训练样本。请参阅图7,图7为本实施例生成训练样本的流程示意图。
如图7所示,S1500之后包括:
S1521、对所述合成图像进行色调处理,将所述合成图像进的色调取值映射至预设的色调阈值区间内;
经过多张第二目标图像合成的合成图像,其色调的取值范围为:[0,+∞],欧图像处理软件中的色调映射,将色调的取值范围映射到[0,1]的色调阈值区间内。
S1522、将色调处理后的所述合成图像标记为多张所述第二目标图像的标注图像,生成训练样本。
将经过色调映射的合成图像和多个第二目标图像进行关联,并且将合成图像作为每一个第二目标图像对应的标注图像,使第二目标图像和合成图像组成一组用于监督训练的训练样本。在一些实施方式中,也能够将第一目标图像和合成图像进行关联,使第一目标图像和合成图像构成训练样本。
通过上述训练样本,对神经网络模型进行监督训练,使神经网络模型具备将第一数据格式图像升级为第二数据格式图像的能力,大大降低了第二数据格式图像生成的效率和准确性。
在一些实施方式中训练得到的训练样本用于对图像格式转换模型进行监督训练。图像格式转换模型有能够用于对将第一拍摄图像转换为第二拍摄图像。
转换方式具体如下:
S2100、采集第一数据格式的第一拍摄图像;
本实施方式中,用于图像拍摄的拍摄设备为移动终端,例如,手机、平板电脑或者DV设备。
移动终端需要在特定的拍摄模式下对图像进行拍摄采集,配置参数能够存储在服务器端,服务器端在接收到移动终端发送的设备信息后,根据设备信息识别移动终端的操作系统或者设备信息,然后,根据设备信息进一步的配置与移动终端匹配的配置参数。
在一些实施方式中,配置参数的匹配需要根据移动终端搭载的摄像头接口匹配,首先,采集移动终端摄像头的API接口,在配置数据库中进行查找,得到API接口对应的参数后,将配置参数发送至移动终端。当通过API接口无法查找到对应的配置参数后,读取移动终端设备信息中拍摄模组的SDK信息,通过SDK信息在配置数据库中进行查找,得到SDK对应的配置参数后,将对应配置参数发送至移动终端。进一步的,通过SDK信息也无法匹配到配置参数后,能够通过移动终端的操作系统类型对配置参数进行匹配。
当服务器端接收到移动终端发送的设备信息后,根据设备信息匹配到该移动终端对应的配置参数后,将配置参数发送至移动终端。移动终端得到配置参数后,对移动终端的拍摄参数进行配置,配置的方式为:将移动终端的拍摄参数进行设定。
根据配置参数设定的移动终端进入到设定的目标拍摄模式。需要指出的是目标拍摄模式并非移动终端采集图像必须的模式,在一些实施方式中,移动终端能够在任何拍摄模式下,采集得到第一拍摄图像。
移动终端采集得到的图像为第一拍摄图像,第一数据格式为SDR格式,需要指出的是第一数据格式不局限于SDR格式,还能够为JPG、PNG等常规图像格式。
S2200、将所述第一拍摄图像输入至预设的图像格式转换模型中,其中,所述图像格式转换模型预先通过线性损失和非线性损失约束至收敛状态,用于对图像进行格式转换的神经网络模型;
第一拍摄图像采集得到第一拍摄图像后,将第一拍摄图像输入至图像格式转换模型中,图像格式转换模型为预先通过监督训练,训练至收敛状态的神经网络模型,能够对输入其中的图像进行格式转换。
在一些实施方式中,图像格式转换模型部署在移动终端中,移动终端在采集第一拍摄图像后,将第一目标终端输入至本地存储的移动终端中,由图像格式转换模型在本地对图像进行格式转换。
在一些实施方式中,图像格式转换模型部署在服务器端中,移动终端在采集得到第一拍摄图像后,将第一拍摄图像发送至服务器端,服务器端通过图像格式转换模型对第一拍摄图像进行图像格式转换,图像格式转换完成后,服务器端将转换后的图像发送至移动终端。
在一些实施方式中,当采集得到第一拍摄图像后,需要对采集得到的第一拍摄图像进行筛选。筛选的方式为:通过第一拍摄图像的平均亮度进行筛选。具体地,设定标准亮度区间值。标准亮度区间值能够为[30,230],但是,标准亮度区间值不局限于此,根据具体应用场景的不同,标准亮度区间值的临界值能够更大或者更小。
将第一拍摄图像的平均亮度计算出来,通过比对第一拍摄图像对应的平均亮度值是否落入到标准亮度区间内,如果第一拍摄图像对应的平均亮度值落入到标准亮度区间内,则将第一拍摄图像输入至图像格式转换模型中,否则,则将第一拍摄图像进行删除,再重新进行图像拍摄。
标准亮度区间值的取值范围能够随着拍摄环境的不同,进行动态调整。具体地,将第一拍摄图像输入至预先训练至收敛状态的,用于对图像所在的场景进行识别的神经网络模型中,由神经网络模型识别出第一拍摄图像表征的拍摄环境,例如,室内、室外、阴天、晴天等等不同的图像场景。
根据图像场景在预设的场景数据库中查找与图像场景匹配的标准亮度区间值。通过第一拍摄图像的场景识别,能够提高标准亮度区间值对环境的适应性。
在一些实施方式中,图像格式转换模型部署在移动终端中,由于,移动终端的性能有限,无法运行规模较大的神经网络模型,因此,需要将图像格式转换模型轻量化处理。具体地,图像格式转换模型的结构如下:
所述图像格式转换模型包括:第一卷积通道和第二卷积通道,且所述第一卷积通道输出的特征为掩膜特征向量,所述第二卷积通道输出的特征为卷积特征向量。
第一卷积通道包括:第一卷积层和第一注意力层,所述第一卷积层与所述第一注意力层级联,且所述第一注意力层连接在所述第一卷积层的输出端,所述第一注意力层包括通道注意力层。
所述第二卷积通道包括:多个级联的特征层,各所述特征层的输出端均连接有第二注意力层,所述第二注意力层包括通道注意力层和空间注意力层。在一些实施方式中,第二卷积通道包括:3组级联的特征层和3组第二注意力层,但是,第二卷积通道包括的特征层和第二注意力层的数量不局限于此,根据具体应用场景的不同,在一些实施方式中,第二卷积通道包括的特征层和第二注意力层的数量能够最多或者更少。
各所述特征层均包括:多个级联的第二卷积层,各所述第二卷积层的输出端均连接有线性整流层,任一线性整流层的输出均作为排列在所述任一线性整流层之后所有第二卷积层的输入。在一些实施方式中,每个特征层均包括:5组级联的第二卷积层和线性整流层,线性整流层中设置有线性整流函数。任一线性整流层的输出均作为排列在所述任一线性整流层之后所有第二卷积层的输入,例如,位列第一位的线性整流层的输出作为第二、三、四和五位第二卷积层的输入,位列第二位的线性整流层的输出作为第三、四和五位第二卷积层的输入,以此类推,直至第四位的线性整流层输入至第五位第二卷积层的输入为止。需要指出的是,特征层包括的第二卷积层和线性整流层的数量不局限于此,根据具体运用场景的不同,在一些实施方式中,第二卷积层和线性整流层的数量能够更多或者更少。
本实施方式中,图像格式转换模型包括损失函数,损失函数又包括线性损失函数和非线性损失函数。
Loss=Losslinear+Lossnonlinear
其中,Loss表示损失函数,Losslinear表示为线性损失函数,Lossnonlinear表示为非线性损失函数。
线性损失函数和非线性损失函数均包括色域损失函数Losscolor和感知损失函数Lossperceptual。相比于现有技术中损失函数都为单一的非线性损失函数或者线性损失函数。但是,单一的线性损失函数无法让图像格式转换模型收敛,单一的非线性损失函数会让图像格式转换模型处于一个失真的状态,而混合线性损失函数和非线性损失函数,线性损失函数能够弥补非线性损失函数导致的模型失真,使图像格式转换模型鲁棒性更强,转换后的图像稳定性更好。
Losslinear=Losscolor+Lossperceptual
Lossnonlinear=Losscolor+Lossperceptual
感知损失是指图像格式转换模型不同特征层之间的结果的差异,差异使用L1范式计算,y为标注特征,y′为图像格式转换模型输出。
Lossperceptual=L1|VGG19(y′-y)|
色域损失使用三种色域进行损失计算,分别是RGB,HSV,LAB三种颜色空间。RGB为三原色空间,分别对应红绿蓝三种颜色;HSV是色调(H)、饱和度(S)、亮度(V)空间,通过H与S通道对颜色进行调整更加逼近标注图像的颜色;LAB中,L是亮度,AB是红蓝色调,与HSV同理通过A与B通道的差异计算提高网络颜色的准确性。色域损失的计算均采用L1范式,如公式如下:
Losscolor=L1|(y′rgb-yrgb)|+L1|(y′hsv-yhsv)|+L1|(y′lab-ylab)|
上述的图像格式转换模型格式,为轻量化模型能够部署在移动终端,且线性与非线性损失相结合的方式,降低了图像失真与过增强现象,增加图像格式转换模型输出图像的表现力与稳定性。
S2300、读取所述图像格式转换模型输出的第二拍摄图像,其中,所述第二拍摄图像格式为第二数据格式,所述第二数据格式的信息载量大于所述第一数据格式的信息载量。
将第一拍摄图像输入至图像格式转换模型中,图像格式转换模型的输入通道将第一拍摄图像转换为数组向量矩阵,然后,将数组向量矩阵分别输入至第一卷积通道、第二卷积通道和第一卷积通道及第二卷积通道的输出端。
其中,第一卷积通道中的第一卷积层和第一注意力层对数组向量矩阵的特征进行提取,提取得到的特征向量为掩膜特征向量。
第二卷积通道中的特征层和第二注意力层对数组向量矩阵的特征进行层级提取。其中,在特征层中各第二卷积层和线性整流层,层级的对数组向量矩阵中的卷积特征进行提取。最终,第二卷积通道输出的特征向量为卷积特征向量。
在第一卷积通道和第二卷积通道的输出端,第一卷积通道输出的掩膜特征向量与数组向量矩阵进行点积运算,即将掩膜特征向量表征的眼膜特征矩阵与数组向量矩阵进行相乘运算。
当第一卷积通道输出的掩膜特征向量与数组向量矩阵进行点积运算得到点积结果后,将点积结果得到的向量矩阵与第二卷积通道输出的特征向量进行加法运算。
加法运算得到的运算结果后,需要对运算结果进行映射,映射的方式为:通过双曲正切函数对运算结果进行映射,双曲正切函数(tanh)是双曲正弦函数(sinh)与双曲余弦函数(cosh)的比值,能够将加法运算得到的运算结果映射在[-1,1]的取值区间内。最后,对映射后的向量矩阵进行像素化处理,生成第二拍摄图像。
第二拍摄图像的数据格式为第二数据格式。本实施例中第二数据格式为HDR格式,需要指出的是第二数据格式的格式范围不局限于此,根据具体应用场景的不同,第二数据格式还能够为(不限于):TGA、BMP等图像格式。
上述实施方式通过预先训练图像格式转换模型,图像格式转换模型为神经网络模型,能够将输入其中的图像进行格式转换,提高输入图像的信息载量,提高图像中的信息量。因此,当用户使用拍摄设备拍摄到第一数据格式的第一拍摄图像,将第一拍摄图像输入至图像格式转换模型中,图像格式转换模型对第一拍摄图像进行格式转换,使第一拍摄图像转换为第二数据格式的第二拍摄图像,第二数据格式的信息载量大于第一数据格式的信息载量,进过格式转换后的第二拍摄图像具有更高的图像质量。通过上述方法能够快速的提高图像质量,突破了拍摄装置硬件性能的局限,满足了用户的需求。
在一些实施方式中,第一拍摄图像输入至图像格式转换模型中后,需要通过第一卷积通道和第二卷积通道对第一拍摄图像进行处理。
S2300包括:
S2311、读取所述第一卷积通道输出的掩膜特征向量;
将第一拍摄图像输入至图像格式转换模型中,图像格式转换模型的输入通道将第一拍摄图像转换为数组向量矩阵,然后,将数组向量矩阵分别输入至第一卷积通道、第二卷积通道和第一卷积通道及第二卷积通道的输出端。
其中,第一卷积通道中的第一卷积层和第一注意力层对数组向量矩阵的特征进行提取,提取得到的特征向量为掩膜特征向量。
S2312、将所述掩膜特征向量与所述第一拍摄图像的数组向量矩阵进行点积运算;
第二卷积通道中的特征层和第二注意力层对数组向量矩阵的特征进行层级提取。其中,在特征层中各第二卷积层和线性整流层,层级的对数组向量矩阵中的卷积特征进行提取。最终,第二卷积通道输出的特征向量为卷积特征向量。
S2313、将点积运算的结果与所述第二卷积通道输出的特征向量进行加法运算;
在第一卷积通道和第二卷积通道的输出端,第一卷积通道输出的掩膜特征向量与数组向量矩阵进行点积运算,即将掩膜特征向量表征的眼膜特征矩阵与数组向量矩阵进行相乘运算。
S2314、将加法运算得到的结果通过预设的双曲正切函数进行映射后,生成所述第二拍摄图像。
当第一卷积通道输出的掩膜特征向量与数组向量矩阵进行点积运算得到点积结果后,将点积结果得到的向量矩阵与第二卷积通道输出的特征向量进行加法运算。
加法运算得到的运算结果后,需要对运算结果进行映射,映射的方式为:通过双曲正切函数对运算结果进行映射,双曲正切函数(tanh)是双曲正弦函数(sinh)与双曲余弦函数(cosh)的比值,能够将加法运算得到的运算结果映射在[-1,1]的取值区间内。最后,对映射后的向量矩阵进行像素化处理,生成第二拍摄图像。
在一些实施方式中,图像格式转换模型需要通过监督训练的方式进行训练,图像格式转换模型训练方法如下:
S2411、读取待处理的训练样本;
本实施方式中,构建有训练样本,训练样本包括训练图像和标注图像,其中,训练图像是由移动终端直接采集得到的图像,而标注图像则是由多张样本图像合成的高动态图像。因此,相比于训练图像标准图像具有更高的信息载量。训练图像的数据格式为第一数据格式,而标注图像的数据格式为第二数据格式。由一对训练图像和标注图像组成的训练样本,能够使监督训练的模型具有将第一数据格式转换为第二数据格式的能力。
本实施方式中的一个训练样本包括一张训练图像和一张标注图像,训练样本保存在训练集中。训练集中包括由若干个训练样本,进行训练时,随机抽取一个训练样本对预训练的模型进行训练。
S2412、根据预设的图像增强策略,对所述训练样本进行图像增强处理;
本实施方式中,为了使训练得到的图像格式转换模型鲁棒性更强,在将训练样本输入模型之前,需要对训练图像进行增强处理,增强处理的方法包括(不限于):对训练样本进行rotate(旋转)、flip(翻转)、crop(截取)和亮度调整当中的一种或者多种图像处理方法进行处理。例如,对训练图像进行[-10%,10%]亮度调整处理。
S2413、将图像增强处理后的训练样本输入至预设的非收敛模型中,其中,所述非收敛模型为所述图像格式转换模型的初始化模型;
将图像增强处理后的训练图像输入至预设的非收敛模型中,非收敛模型为图像格式转换模型的初始化模型。非收敛模型对训练图像进行特征提取和数据格式转换,但是,由于非收敛模型未经训练,输出的结果为应激性输出,随机性较大,无法满足图像格式定向转换的需求。
S2414、读取所述非收敛模型输出的应激图像,并根据预设的线性损失函数和非线性损失函数,计算所述应激图像与所述训练样本中的标注图像之间的损失距离;
将训练样本输入至非收敛模型后,读取非收敛模型输出的应激图像,然后,通过设置的线性损失函数和非线性损失函数,计算应激图像与标注图像之间的损失距离。其中,线性损失函数和非线性损失函数的特征表征为:
Loss=Losslinear+Lossnonlinear
其中,Loss表示损失函数,Losslinear表示为线性损失函数,Lossnonlinear表示为非线性损失函数。
线性损失函数和非线性损失函数均包括色域损失函数Losscolor和感知损失函数Lossperceptual。相比于现有技术中损失函数都为单一的非线性损失函数或者线性损失函数。但是,单一的线性损失函数无法让图像格式转换模型收敛,单一的非线性损失函数会让图像格式转换模型处于一个失真的状态,而混合线性损失函数和非线性损失函数,线性损失函数能够弥补非线性损失函数导致的模型失真,使图像格式转换模型鲁棒性更强,转换后的图像稳定性更好。
Losslinear=Losscolor+Lossperceptual
Lossnonlinear=Losscolor+Lossperceptual
感知损失是指图像格式转换模型不同特征层之间的结果的差异,差异使用L1范式计算,y为标注特征,y′为图像格式转换模型输出。
Lossperceptual=L1|VGG19(y′-y)|
色域损失使用三种色域进行损失计算,分别是RGB,HSV,LAB三种颜色空间。RGB为三原色空间,分别对应红绿蓝三种颜色;HSV是色调(H)、饱和度(S)、亮度(V)空间,通过H与S通道对颜色进行调整更加逼近标注图像的颜色;LAB中,L是亮度,AB是红蓝色调,与HSV同理通过A与B通道的差异计算提高网络颜色的准确性。色域损失的计算均采用L1范式,如公式如下:
Losscolor=L1|(y′rgb-yrgb)|+L1|(y′hsv-yhsv)|+L1|(y′lab-ylab)|
线性与非线性损失相结合的方式,能够降低图像失真与过增强现象,增加图像格式转换模型输出图像的表现力与稳定性。
S2415、根据所述损失距离与预设的回传函数,对所述非收敛模型的权重值进行回调矫正,以使所述应激图像与所述标注图像之间的损失距离趋于预设的目标阈值。
计算得到应激图像与标注图像之间的损失距离,损失距离通过回传函数计算得到本轮训练校正的梯度值。在通过计算得到的梯度值对非收敛模型的权重值进行回调矫正,回调校正的结果能够使非收敛模型中的权重值进行定向调整,定向调整的目的在于使应激图像与标注图像之间的损失距离趋于预设的目标阈值。目标阈值的设定能够根据实际需求进行设定,监督训练的过程为梯度下降的训练过程,上述S1411-S1415的过程为一个梯度下降的完整流程,通过若干轮训练样本的训练,当训练的次数达到设定值或者输出图像的准确率达到设定阈值时,非收敛模型就被训练至收敛状态,成为图像格式转换模型。
具体请参阅图8,图8为本实施例移动端图像处理装置基本结构示意图。
如图8所示,一种移动端图像处理装置,包括:获取模块1100、配置模块1200、拍摄模块1300、筛选模块1400和合成模块1500。其中:
获取模块1100用于获取待设定的配置参数;
配置模块1200用于根据所述配置参数设置目标终端的拍摄参数,以使所述目标终端进入预设的目标拍摄模式;
拍摄模块1300用于基于所述目标拍摄模式和预设的时间间隔,采集多张第一数据格式的第一目标图像;
筛选模块1400用于通过预设的图像筛选规则,对多张所述待选图像进行图像筛选得到多张第二目标图像;
合成模块1500用于将多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像,其中,所述第二数据格式包含的信息大于所述第一数据格式包含的信息。
移动端图像处理装置通过对移动端的拍摄参数进行配置,使移动端设备能够按设定的拍摄模式和拍摄间隔,连续的采集多张第一目标图像。此时,采集的第一目标图像属于低信息量的图像,然后,再通过图像筛选规则筛除第一图标图像中不符合要求的图片,得到多张第二目标图像,最终,将多张第二目标图像通过图像合成的方式,合成成为一张合成图像,此时,合成图像相比于第一目标图像具有更大的信息量,能够满足用户对移动端更高画质的需求。
在一些实施方式中,移动端图像处理装置还包括:
第一获取子模块,用于获取所述目标终端的设备信息;
第一处理子模块,用于在预设的配置数据库中查找与所述设备信息相匹配的配置参数,并将所述配置参数发送至所述目标终端,以使所述目标终端获取所述配置参数。
在一些实施方式中,移动端图像处理装置还包括:
第一拍摄子模块,用于基于所述目标拍摄模式和预设的第一时间间隔,拍摄多张图片生成第一图集;
第二处理子模块,用于将所述第一图集中的图像依次输入至预设的曝光筛选模型中,其中,所述曝光筛选模型为预选训练至收敛状态,用于对图像进行场景和曝光度匹配的神经网络模型;
第一筛选子模块,用于根据所述曝光筛选模型的输出筛选得到标准图像;
第二拍摄子模块,用于根据所述标准图像的曝光度以及预设的第二时间间隔,拍摄多张图片生成第二图集;
第一执行子模块,用于将所述第一图集和所述第二图集中的图像合并得到多张所述第一目标图像。
在一些实施方式中,移动端图像处理装置还包括:
第二获取子模块,用于获取多张所述第一目标图像对应的标准亮度区间值;
第一计算子模块,用于计算各所述第一目标图像的平均亮度值,并将各所述第一目标图像的平均亮度值与所述标准亮度区间值进行比对;
第二执行子模块,用于将多个所述第一目标图像中平均亮度值在所述标准亮度区间值范围内的第一目标图像,确定为第二目标图像。
在一些实施方式中,移动端图像处理装置还包括:
第一识别子模块,用于识别所述多张所述第一目标图像表征的图像场景;
第一匹配子模块,用于在预设的场景数据库中查找与所述图像场景匹配的标准亮度区间值。
在一些实施方式中,移动端图像处理装置还包括:
第一对齐子模块,用于将多张所述第二目标图像进行图像对齐处理;
第一裁剪子模块,用于根据预设的裁剪窗口对进行图像对齐处理后的多张所述第二目标图像进行截取;
第三处理子模块,用于根据预设的图像尺寸对截取后的多张所述第二目标图像进行图像大小进行伸缩调整;
第一合成子模块,用于将伸缩调整调整后的多张所述第二目标图像进行图像合成处理,生成第二数据格式的合成图像。
在一些实施方式中,移动端图像处理装置还包括:
第四处理子模块,用于对所述合成图像进行色调处理,将所述合成图像进的色调取值映射至预设的色调阈值区间内;
第三执行子模块,用于将色调处理后的所述合成图像标记为多张所述第二目标图像的标注图像,生成训练样本。
为解决上述技术问题,本发明实施例还提供计算机设备。具体请参阅图9,图9为本实施例计算机设备基本结构框图。
如图9所示,计算机设备的内部结构示意图。该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、存储器和网络接口。其中,该计算机设备的非易失性存储介质存储有操作系统、数据库和计算机可读指令,数据库中可存储有控件信息序列,该计算机可读指令被处理器执行时,可使得处理器实现一种移动端图像处理方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该计算机设备的存储器中可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种移动端图像处理方法。该计算机设备的网络接口用于与终端连接通信。本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本实施方式中处理器用于执行图8中获取模块1100、配置模块1200、拍摄模块1300、筛选模块1400和合成模块1500的具体功能,存储器存储有执行上述模块所需的程序代码和各类数据。网络接口用于向用户终端或服务器之间的数据传输。本实施方式中的存储器存储有移动端图像处理装置中执行所有子模块所需的程序代码及数据,服务器能够调用服务器的程序代码及数据执行所有子模块的功能。
计算机设备通过对移动端的拍摄参数进行配置,使移动端设备能够按设定的拍摄模式和拍摄间隔,连续的采集多张第一目标图像。此时,采集的第一目标图像属于低信息量的图像,然后,再通过图像筛选规则筛除第一图标图像中不符合要求的图片,得到多张第二目标图像,最终,将多张第二目标图像通过图像合成的方式,合成成为一张合成图像,此时,合成图像相比于第一目标图像具有更大的信息量,能够满足用户对移动端更高画质的需求。
本申请还提供一种计算机存储介质,计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述任一实施例移动端图像处理方法的步骤。
本申请还提供一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现本申请任意一种实施例中所述移动端图像处理方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
本技术领域技术人员可以理解,本申请中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本申请中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本申请中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (9)

1.一种移动端图像处理方法,其特征在于,包括:
获取与当前目标终端的设备信息相匹配且待设定的配置参数;
根据所述配置参数设置目标终端的拍摄参数,以使所述目标终端进入预设的目标拍摄模式;
基于所述目标拍摄模式和预设的时间间隔,采集多张第一数据格式的第一目标图像,所述第一数据格式为SDR格式;其中,先在所述目标拍摄模式下以第一时间间隔拍摄采集多张图像生成第一图集,利用预设的曝光筛选模型筛选出第一图集中的图像作为标准图像,根据标准图像的曝光度以第二时间间隔拍摄获取多张图像生成第二图集,将第一图集和第二图集中的图像合并得到多张所述第一目标图像;
通过预设的图像筛选规则,对多张所述第一目标图像进行图像筛选,筛选出平均亮度值在标准亮度区间值范围内的第一目标图像确定为第二目标图像,所述标准亮度区间值根据多张所述第一目标图像确定;
将多张所述第二目标图像进行图像合成处理,生成一张第二数据格式的合成图像,其中,所述第二数据格式包含的信息大于所述第一数据格式包含的信息,所述第二数据格式为HDR格式。
2.根据权利要求1所述的移动端图像处理方法,其特征在于,所述获取与当前目标终端的设备信息相匹配且待设定的配置参数包括:
获取所述目标终端的设备信息;
在预设的配置数据库中查找与所述设备信息相匹配的配置参数,并将所述配置参数发送至所述目标终端,以使所述目标终端获取所述配置参数。
3.根据权利要求1所述的移动端图像处理方法,其特征在于,所述利用预设的曝光筛选模型筛选出第一图集中的图像作为标准图像包括:
将所述第一图集中的图像依次输入至预设的曝光筛选模型中,其中,所述曝光筛选模型为预选训练至收敛状态,用于对图像进行场景和曝光度匹配的神经网络模型;
根据所述曝光筛选模型输出筛选得到标准图像。
4.根据权利要求1所述的移动端图像处理方法,其特征在于,所述通过预设的图像筛选规则,对多张所述第一目标图像进行图像筛选,筛选出平均亮度值在标准亮度区间值范围内的第一目标图像确定为第二目标图像包括:
获取多张所述第一目标图像对应的标准亮度区间值;
计算各所述第一目标图像的平均亮度值,并将各所述第一目标图像的平均亮度值与所述标准亮度区间值进行比对;
将多个所述第一目标图像中平均亮度值在所述标准亮度区间值范围内的第一目标图像,确定为第二目标图像。
5.根据权利要求4所述的移动端图像处理方法,其特征在于,所述获取多张所述第一目标图像对应的标准亮度区间值包括:
识别所述多张所述第一目标图像表征的图像场景;
在预设的场景数据库中查找与所述图像场景匹配的标准亮度区间值。
6.根据权利要求1所述的移动端图像处理方法,其特征在于,所述将多张所述第二目标图像进行图像合成处理,生成一张第二数据格式的合成图像包括:
将多张所述第二目标图像进行图像对齐处理;
根据预设的裁剪窗口对进行图像对齐处理后的多张所述第二目标图像进行截取;
根据预设的图像尺寸对截取后的多张所述第二目标图像进行图像大小伸缩调整;
将伸缩调整后的多张所述第二目标图像进行图像合成处理,生成一张第二数据格式的合成图像。
7.根据权利要求1所述的移动端图像处理方法,其特征在于,所述将多张所述第二目标图像进行图像合成处理,生成一张第二数据格式的合成图像之后,包括:
对所述合成图像进行色调处理,将所述合成图像的色调取值映射至预设的色调阈值区间内;
将色调处理后的所述合成图像标记为多张所述第二目标图像的标注图像,生成训练样本。
8.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项权利要求所述移动端图像处理方法的步骤。
9.一种计算机存储介质,存储有计算机可读指令,其特征在于,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至7中任一项权利要求所述移动端图像处理方法的步骤。
CN202210105939.9A 2022-01-28 2022-01-28 移动端图像处理方法及其装置、设备、介质、产品 Active CN114222075B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210105939.9A CN114222075B (zh) 2022-01-28 2022-01-28 移动端图像处理方法及其装置、设备、介质、产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210105939.9A CN114222075B (zh) 2022-01-28 2022-01-28 移动端图像处理方法及其装置、设备、介质、产品

Publications (2)

Publication Number Publication Date
CN114222075A CN114222075A (zh) 2022-03-22
CN114222075B true CN114222075B (zh) 2023-08-01

Family

ID=80709012

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210105939.9A Active CN114222075B (zh) 2022-01-28 2022-01-28 移动端图像处理方法及其装置、设备、介质、产品

Country Status (1)

Country Link
CN (1) CN114222075B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019148978A1 (zh) * 2018-01-31 2019-08-08 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI433533B (zh) * 2010-11-22 2014-04-01 Altek Corp 影像擷取裝置及其影像合成方法
JP2019101996A (ja) * 2017-12-07 2019-06-24 キヤノン株式会社 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法
CN108319932B (zh) * 2018-03-12 2021-12-07 中山大学 一种基于生成式对抗网络的多图像人脸对齐的方法及装置
CN108810408A (zh) * 2018-06-04 2018-11-13 北京图森未来科技有限公司 一种摄像头控制方法及装置和系统
CN109068067B (zh) * 2018-08-22 2020-06-12 Oppo广东移动通信有限公司 曝光控制方法、装置和电子设备
CN109040609B (zh) * 2018-08-22 2021-04-09 Oppo广东移动通信有限公司 曝光控制方法、装置、电子设备和计算机可读存储介质
CN112532857B (zh) * 2019-09-18 2022-04-12 华为技术有限公司 一种延时摄影的拍摄方法及设备
CN111083389B (zh) * 2019-12-27 2021-11-16 维沃移动通信有限公司 一种拍摄图像的方法和装置
WO2021204202A1 (zh) * 2020-04-10 2021-10-14 华为技术有限公司 图像自动白平衡的方法及装置
CN111654594B (zh) * 2020-06-16 2022-05-17 Oppo广东移动通信有限公司 图像拍摄方法、图像拍摄装置、移动终端及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019148978A1 (zh) * 2018-01-31 2019-08-08 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN114222075A (zh) 2022-03-22

Similar Documents

Publication Publication Date Title
CN112150399B (zh) 基于宽动态范围的图像增强方法及电子设备
CN102572443B (zh) 用于在图像信号处理系统中同步音频和视频数据的技术
CN104902250B (zh) 使用图像传感器接口定时信号的闪光同步
CN102547301B (zh) 使用图像信号处理器处理图像数据的系统和方法
CN102572316B (zh) 用于图像信号处理的溢出控制技术
CN103052961B (zh) 识别具有相机功能的移动设备捕获的可视媒体内容
EP1791351B1 (en) Video processing apparatus and mobile terminal
CN106797453B (zh) 图像处理装置、摄像装置、图像处理方法以及图像处理程序
JP4984044B2 (ja) 撮影システム及びその撮影条件の設定方法と、それに用いられる端末及びサーバ
CN114422682B (zh) 拍摄方法、电子设备和可读存储介质
CN106134189B (zh) 图像处理装置、摄像装置、图像处理方法及程序
CN106165409B (zh) 图像处理装置、摄像装置、图像处理方法及程序
CN104168420B (zh) 移动终端的拍摄方法及移动终端
KR20140125983A (ko) 전자 장치 운용 방법 및 이를 지원하는 전자 장치
KR102285756B1 (ko) 전자 시스템 및 영상 처리 방법
US20230106177A1 (en) Image capture scene recognition control method and apparatus and image capture device
JP2004192129A (ja) 顔領域抽出方法及び装置
CN109063562A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN114222075B (zh) 移动端图像处理方法及其装置、设备、介质、产品
US8934042B2 (en) Candidate image presenting method using thumbnail image and image signal processing device and imaging device performing the same
CN102469248A (zh) 影像拍摄装置及其影像合成方法
CN116668838A (zh) 图像处理方法与电子设备
CN114445511B (zh) 图像格式转换方法及其装置、设备、介质、产品
CN109218604A (zh) 影像撷取装置、影像亮度调变方法及影像处理装置
CN111885296B (zh) 可视化数据的动态处理方法和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant