CN108810413B - 图像处理方法和装置、电子设备、计算机可读存储介质 - Google Patents
图像处理方法和装置、电子设备、计算机可读存储介质 Download PDFInfo
- Publication number
- CN108810413B CN108810413B CN201810618628.6A CN201810618628A CN108810413B CN 108810413 B CN108810413 B CN 108810413B CN 201810618628 A CN201810618628 A CN 201810618628A CN 108810413 B CN108810413 B CN 108810413B
- Authority
- CN
- China
- Prior art keywords
- image
- label
- scene
- shot
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/684—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种图像处理方法和装置、电子设备、计算机可读存储介质。所述方法包括:对待拍摄图像进行场景检测,得到待拍摄图像的场景标签,当场景标签中包含预设标签时,启动快门优先模式,预设标签为动态场景所对应的标签,获取快门速度,根据快门优先模式与快门速度对待拍摄图像进行拍摄。上述方法中,可以在待拍摄图像包含动态场景时启动快门优先模式进行拍摄,可以拍摄到需要的图像。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种图像处理方法和装置、电子设备、计算机可读存储介质。
背景技术
随着计算机技术的快速发展,使用移动设备拍摄照片的现象越来越频繁。当人们想拍摄猫、狗等运动速度较大的物体时,可以通过在相机中将拍摄模式设置为高速摄影模式,从而拍摄到较为清晰的图像。
然而,传统技术中存在难以及时拍摄到需要的图像的问题。
发明内容
本申请实施例提供一种图像处理方法和装置、电子设备、计算机可读存储介质,可以及时拍摄到需要的图像。
一种图像处理方法,包括:
对待拍摄图像进行场景检测,得到所述待拍摄图像的场景标签;
当所述场景标签中包含预设标签时,启动快门优先模式,所述预设标签为动态场景所对应的标签;
获取快门速度,根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
一种图像处理装置,包括:
图像检测模块,用于对待拍摄图像进行场景检测,得到所述待拍摄图像的场景标签;
模式启动模块,用于当所述场景标签中包含预设标签时,启动快门优先模式,所述预设标签为动态场景所对应的标签;
拍摄模块,用于获取快门速度,根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
对待拍摄图像进行场景检测,得到所述待拍摄图像的场景标签;
当所述场景标签中包含预设标签时,启动快门优先模式,所述预设标签为动态场景所对应的标签;
获取快门速度,根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
对待拍摄图像进行场景检测,得到所述待拍摄图像的场景标签;
当所述场景标签中包含预设标签时,启动快门优先模式,所述预设标签为动态场景所对应的标签;
获取快门速度,根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
上述图像处理方法和装置、电子设备、计算机可读存储介质,通过对待拍摄图像进行场景检测,得到待拍摄图像的场景标签,当场景标签中包含预设标签时,启动快门优先模式,预设标签为动态场景所对应的标签,获取快门速度,根据快门优先模式与快门速度对待拍摄图像进行拍摄。由于可以在待拍摄图像包含动态场景时启动快门优先模式进行拍摄,可以拍摄到需要的图像。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中电子设备的内部结构示意图;
图2为一个实施例中图像处理方法的流程图;
图3为一个实施例中神经网络的架构示意图;
图4为另一个实施例中图像处理方法的流程图;
图5为又一个实施例中图像处理方法的流程图;
图6为一个实施例中图像处理方法的流程图;
图7为另一个实施例中图像处理方法的流程图;
图8为一个实施例中图像处理装置的结构框图;
图9为一个实施例中图像处理电路的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中电子设备的内部结构示意图。如图1所示,该电子设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该处理器用于提供计算和控制能力,支撑整个电子设备的运行。存储器用于存储数据、程序等,存储器上存储至少一个计算机程序,该计算机程序可被处理器执行,以实现本申请实施例中提供的适用于电子设备的无线网络通信方法。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以下各个实施例所提供的一种图像处理方法。内存储器为非易失性存储介质中的操作系统计算机程序提供高速缓存的运行环境。网络接口可以是以太网卡或无线网卡等,用于与外部的电子设备进行通信。该电子设备可以是手机、平板电脑或者个人数字助理或穿戴式设备等。
图2为一个实施例中图像处理方法的流程图。本实施例中的图像处理方法,以运行于图1中的电子设备上为例进行描述。如图2所示,图像处理方法包括步骤202至步骤206。
步骤202,对待拍摄图像进行场景检测,得到待拍摄图像的场景标签。
待拍摄图像是指电子设备通过成像设备实时捕捉当前场景的画面生成的。待拍摄图像可以实时展示在电子设备的显示屏上。电子设备对待拍摄图像进行场景识别,可以根据VGG(Visual Geometry Group)、CNN(Convolutional Neural Network)、SSD(singleshot multibox detector)、决策树(Decision Tree)等深度学习算法训练场景识别模型,根据场景识别模型对待拍摄图像进行场景识别。场景识别模型一般包括输入层、隐层和输出层;输入层用于接收图像的输入;隐层用于对接收到的图像进行处理;输出层用于输出对图像处理的最终结果即输出图像的场景识别结果。
图像的场景可以是风景、海滩、蓝天、绿草、雪景、烟火、聚光灯、文本、人像、婴儿、猫、狗、美食等。待拍摄图像的场景标签是指对待拍摄图像的场景标记。具体地,电子设备可以根据待拍摄图像的场景识别结果确定待拍摄图像的场景标签。例如,当待拍摄图像的场景识别结果为蓝天时,则图像的场景标签为蓝天。
电子设备可以在获取成像设备捕捉的待拍摄图像后,根据场景识别模型对待拍摄图像进行场景识别,并根据场景识别结果确定待拍摄图像的场景标签。
步骤204,当场景标签中包含预设标签时,启动快门优先模式,预设标签为动态场景所对应的标签。
动态场景是指包含可高速运动的物体的场景。预设标签是指预先设定的动态场景所对应的标签。具体地,动态场景可以包括猫、狗、烟火、婴儿等,则对应的预设标签可以包括猫场景标签、狗场景标签、烟火场景标签、婴儿场景标签等,不限于此。场景标签中包含的预设标签可以是一个,也可以是多个。例如,待拍摄图像中可以包含狗场景标签和猫场景标签两个预设标签。快门优先模式是指由设备自动测光系统计算出曝光量的值,然后根据选定的快门速度自动决定用多大的光圈的一种拍摄模式。快门优先模式主要应用于拍摄运动的物体,可以获取清晰的拍摄主体。
电子设备在待拍摄图像的场景标签中包含预设标签时,启动快门优先模式进行拍摄。
步骤206,获取快门速度,根据快门优先模式与快门速度对待拍摄图像进行拍摄。
快门速度是指拍摄图像时,快门由全开到全关的时间。快门速度决定曝光时间的长短。具体地,快门速度越小,则图像的曝光时间越短,适合拍摄运动速度越快的物体;反之,快门速度越大,则图像的曝光时间越长,适合拍摄运动速度较小或静止的物体。电子设备可以获取由用户设定的快门速度,具体地,电子设备在启动快门优先模式后,可以在显示屏上生成快门速度选择滑动条,用户可以通过滑动条选择对应的快门速度,电子设备可以获取用户选定的用户速度。电子设备也可以获取预设的快门速度。具体地,电子设备可以根据不同动态场景的运动速度设定不同的预设标签对应的快门速度,当启动快门优先模式时,电子设备可以根据待拍摄图像包含的预设标签获取对应的快门速度。例如,电子设备可以设定运动速度较快的狗场景标签的快门速度为1/500秒,运动速度较慢的如婴儿场景标签的快门速度为1/125秒,当电子设备检测到待拍摄图像中包含狗场景标签时,启动快门优先模式,并获取狗场景标签对应的快门速度即1/500秒,对待拍摄图像进行拍摄。
电子设备对待拍摄图像进行场景检测得到对应的场景标签,当待拍摄图像的场景标签包含预设标签时,启动快门优先模式,获取设定的快门速度,并根据启动快门优先模式时自动测光系统确定的曝光量和快门速度确定光圈的大小,对待拍摄图像进行拍摄。
本申请提供的实施例中,通过对待拍摄图像进行场景检测,得到待拍摄图像的场景标签,当场景标签中包含动态场景所对应的预设标签时,启动快门优先模式并获取快门速度,根据快门优先模式与快门速度对待拍摄图像进行拍摄。由于可以对待拍摄图像进行检测,在待拍摄图像的场景标签包含预设标签时启动快门优先模式,并获取快门速度进行拍摄,从而可以拍摄到需要的清晰的图像,避免在设置高速拍摄模式时错过需要的图像。
在一个实施例中,提供的图像处理方法中对待拍摄图像进行场景检测,得到待拍摄图像的场景标签的过程还包括:对待拍摄图像进行场景检测,得到待拍摄图像的多个场景标签。
电子设备可以训练可以输出多个场景标签的神经网络。具体地,在神经网络训练过程中,可以将包含多个训练标签的训练图像输入到神经网络中,神经网络对训练图像进行特征提取,对提取的图像特征进行检测得到图像中各个特征对应的预测置信度,根据特征的预测置信度和真实置信度得到损失函数,根据损失函数对神经网络的参数进行调整,使得训练的神经网络后续可同时识别图像的多个特征对应的场景标签,从而得到输出多个场景标签的神经网络。置信度是被测量参数的测量值的可信程度。真实置信度表示在该训练图像中预先标注的特征所属指定场景类别的置信度。
电子设备还可以训练可同时实现场景分类和目标检测的神经网络。具体地,在神经网络训练过程中,可以将包含有至少一个背景训练目标和前景训练目标的训练图像输入到神经网络中,神经网络根据背景训练目标和前景训练目标进行特征提取,对背景训练目标进行检测得到第一预测置信度,根据第一预测置信度和第一真实置信度得到第一损失函数,对前景训练目标进行检测得到第二预测置信度,根据第二预测置信度和第二真实置信度得到第二损失函数,根据第一损失函数和第二损失函数得到目标损失函数,对神经网络的参数进行调整,使得训练的神经网络后续可同时识别出场景分类和目标分类,将场景分类和目标分类作为图像的场景标签,从而得到可以同时对图像的前景区域和背景区域进行检测的神经网络。置信度是被测量参数的量值的可信程度。该第一真实置信度表示在该训练图像中预先标注的背景图像所属指定图像类别的置信度。第二真实置信度表示在该训练图像中预先标注的前景目标所属指定目标类别的置信度。
在一个实施例中,上述神经网络包括至少一个输入层、基础网络层、分类网络层、目标检测网络层和两个输出层,该两个输出层包括与该分类网络层级联的第一输出层和与该目标检测网络层级联的第二输出层;其中,在训练阶段,该输入层用于接收该训练图像,该第一输出层用于输出该分类网络层检测的背景图像所属指定场景类别的第一预测置信度;该第二输出层用于输出该目标检测网络层检测的每个预选的默认边界框所属相对于指定目标所对应的真实边界框的偏移量参数和所属指定目标类别的第二预测置信度。图3为一个实施例中神经网络的架构示意图。如图3所示,神经网络的输入层接收带有图像类别标签的训练图像,通过基础网络(如VGG网络)进行特征提取,并将提取的图像特征输出给特征层,由该特征层对图像进行类别检测得到第一损失函数,对前景目标根据图像特征进行目标检测得到第二损失函数,对前景目标根据前景目标进行位置检测得到位置损失函数,将第一损失函数、第二损失函数和位置损失函数进行加权求和得到目标损失函数。神经网络包括数据输入层、基础网络层、场景分类网络层、目标检测网络层和两个输出层。数据输入层用于接收原始图像数据。基础网络层对输入层输入的图像进行预处理以及特征提取。该预处理可包括去均值、归一化、降维和白化处理。去均值是指将输入数据各个维度都中心化为0,目的是将样本的中心拉回到坐标系原点上。归一化是将幅度归一化到同样的范围。白化是指对数据各个特征轴上的幅度归一化。图像数据进行特征提取,例如利用VGG16的前5层卷积层对原始图像进行特征提取,再将提取的特征输入到分类网络层和目标检测网络层。在分类网络层可采用如Mobilenet网络的深度卷积、点卷积对特征进行检测,然后输入到输出层得到图像场景分类所属指定图像类别的第一预测置信度,然后根据第一预测置信度与第一真实置信度求差得到第一损失函数;在目标检测网络层可采用如SSD网络,在VGG16的前5层的卷积层后级联卷积特征层,在卷积特征层使用一组卷积滤波器来预测指定目标类别所对应的预选默认边界框相对于真实边界框的偏移量参数和指定目标类别所对应的第二预测置信度。感兴趣区域为预选默认边界框的区域。根据偏移量参数构建位置损失函数,根据第二预测置信度与第二真实置信度的差异得到第二损失函数。将第一损失函数、第二损失函数和位置损失函数加权求和得到目标损失函数,根据目标损失函数采用反向传播算法调整神经网络的参数,对神经网络进行训练。
采用训练好的神经网络对待拍摄图像进行识别时,神经网络输入层接收输入的待拍摄图像,提取待拍摄图像的特征,输入到分类网络层进行图像场景识别,在第一输出层通过softmax分类器输出背景图像所属各个指定场景类别的置信度,选取置信度最高且超过置信度阈值的图像场景作为该待拍摄图像的背景图像所属的场景分类标签。将提取的待拍摄图像的特征输入到目标检测网络层进行前景目标检测,在第二输出层通过softmax分类器输出前景目标所属指定目标类别的置信度及对应的位置,选取置信度最高且超过置信度阈值的目标类别作为该待拍摄图像中前景目标所属的目标分类标签,并输出该目标分类标签对应的位置。将得到的场景分类标签和目标分类标签作为图像的场景标签。
如图4所示,在一个实施例中,提供的图像处理方法还包括步骤402至步骤408。其中:
步骤402,对待拍摄图像进行场景检测,得到待拍摄图像的多个场景标签。
步骤404,当多个场景标签中包含预设标签时,获取预设标签对应的标签区域。
神经网络等图像检测模型对图像进行检测后可以输出图像的场景标签及场景标签对应的位置。待拍摄图像的场景标签可以是1个或多个,电子设备可以获取待拍摄图像中预设标签对应的标签区域,对应地,预设标签对应的标签区域也可以是1个或多个。例如,当待拍摄图像中包含狗场景标签、蓝天场景标签时,若预设标签为狗场景标签时,则电子设备可以获取狗场景标签在待拍摄图像中对应的位置作为标签区域,待拍摄图像中狗场景标签对应的标签区域可以有多个。
步骤406,当预设标签对应的标签区域的面积与待拍摄图像的面积的比值超过阈值时,启动快门优先模式。
电子设备可以根据标签区域在待拍摄图像中的位置检测标签区域的面积。具体地,预设标签对应的标签区域的面积可以是待拍摄图像中各个预设标签对应的标签区域的面积,也可以是待拍摄图像中所有预设标签对应的标签区域的面积相加的和。待拍摄图像的面积可以由待拍摄图像的高度和宽度计算得到。具体地,电子设备可以直接读取待拍摄图像的高度和宽度,计算得到待拍摄图像的面积。阈值可以根据实际需求来确定,例如可以是05、0.6、0.7等不限于此。
电子设备可以在待拍摄图像中预设标签对应的标签区域的面积与待拍摄图像的面积的比值超过阈值时,启动电子设备的快门优先模式。
步骤408,获取快门速度,根据快门优先模式与快门速度对待拍摄图像进行拍摄。
在日常生活中,人们对目标物体拍摄时,会拉近目标物体与摄像头之间的距离,提高目标物体在图像中的占比,突出图像中的目标物体。因此,当待拍摄图像中标签区域的面积与待拍摄图像的面积超过阈值时,电子设备可以判定待拍摄图像的拍摄主体处于标签区域中,从而启动快门优先模式,获取快门速度,根据快门优先模式和快门速度对待拍摄图像进行拍摄,可以拍摄需要的清晰的图像,避免因需要手动设置高速拍摄模式而错过需要拍摄的图像。相对地,当待拍摄图像中标签区域的面积与待拍摄图像的面积小于阈值时,可以确定待拍摄图像的拍摄主体不处于标签区域中,不启动快门优先模式进行拍摄。
如图5所示,在一个实施例中,提供的图像处理方法还包括:
步骤502,获取待拍摄图像中预设标签对应的标签区域。
步骤504,对标签区域进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。
对焦是指通过调整电子设备中成像设备与焦点的距离,使被拍摄物体成像清晰的过程。电子设备对标签区域进行对焦,具体地,可以采用激光对焦、相位对焦、反差对焦等方式进行对焦,对焦方式不限于此。
电子设备在待拍摄图像的场景标签包含预设标签时,获取预设标签对应的标签区域,对预设标签对应的标签区域进行对焦,对焦后根据启动的快门优先模式和快门速度对待拍摄图像进行拍摄,可以使拍摄到的图像中预设标签对应的区域更加清晰,提高了图像的拍摄效果。
如图6所示,在一个实施例中,提供的图像处理方法还包括步骤602至步骤604。其中:
步骤602,获取待拍摄图像中面积最大的标签区域。
电子设备可以获取待拍摄图像中各场景标签对应的标签区域,计算各标签区域的面积大小,从中获取面积最大的标签区域。电子设备也可以获取待拍摄图像中预设标签对应的标签区域,计算各预设标签对应的标签区域的面积大小,从中获取面积最大的标签区域。
步骤604,对面积最大的标签区域进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。
电子设备获取待拍摄图像中面积最大的标签区域,对面积最大的标签区域进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄,可以在提高快门速度的同时对面积最大的标签区域对焦,可以拍摄到需要的图像,并使拍摄图像中面积最大的标签区域的拍摄效果更加清晰。
如图7所示,在一个实施例中,提供的图像处理方法还包括步骤702至步骤704。其中:
步骤702,获取待拍摄图像中预设标签对应的标签区域。
步骤704,当通过关键点检测到标签区域中包含眼睛时,对标签区域中的眼睛进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。
电子设备可以获取待拍摄图像中预设标签对应的标签区域,对预设标签对应的标签区域进行关键点检测。具体地,电子设备可以采用dlib算法进行关键点检测,在关键点检测算法的训练过程中,可以获取训练图像中眼睛的点坐标,对点坐标进行关键点标记后采用dlib算法对训练图像进行训练,从而,电子设备在获取待拍摄图像中预设标签对应的标签区域,使用训练后的关键点检测算法对预设标签对应的标签区域进行检测,可以输出检测得到的眼睛关键点标记。在一个实施例中,电子设备还可以采用基于ASM(Active ShapeModels,主动形状模型)模型、级联形状回归模型、深度学习算法如DCNN(DynamicConvolutional Neural Network,动态卷积网络)等进行关键点检测。电子设备对待拍摄图像中预设标签对应的标签区域进行检测,可以提高关键点检测的效率。
当预设标签对应的标签区域中不包含眼睛时,电子设备对标签区域进行对焦,可以拍摄到标签区域更加清晰的图像。电子设备在检测到预设标签对应的标签区域中包含眼睛时,对标签区域中的眼睛进行对焦,对焦后根据快门优先模式和快门速度对待拍摄图像进行拍摄,获得以眼睛为焦点的图像,可以使拍摄的图像更加生动。例如,当待拍摄图像中包含的预设标签为婴儿场景标签时,电子设备通过关键点检测确定待拍摄图像中包含眼睛并获取对应的眼睛位置,对待拍摄图像的眼睛进行对焦并拍摄,得到的图像可以展现出婴儿的灵动。
在一个实施例中,提供的一种图像处理方法还包括:预设标签包括猫场景标签和狗场景标签中的至少一种。
随着人们生活水平的提高,猫和狗已经成为很多人日常生活中不可缺少的生活玩伴,拍摄猫狗也成了人们的娱乐方式之一。由于猫狗的运动速度很快,当人们采用摄像头之间进行拍摄时,拍摄的图像容易模糊,若对摄像头进行设置为高速模式再进行拍摄,则由于设置需要花费一定时间,容易错过设置过程猫和狗的一些精彩画面。本申请提供的实施例中,可以对待拍摄图像进行场景检测,得到待拍摄图像的场景标签,当待拍摄图像的场景标签中包含猫场景标签和狗场景标签中的至少一种时,自动启动快门优先模式,并获取设定的快门速度对待拍摄图像进行拍摄,由于不需要手动对拍摄模式进行设置,可以避免错过猫、狗的精彩画面,并获得清晰的图像。
在一个实施例中,电子设备在检测到待拍摄图像中包含猫场景标签和狗场景标签中的至少一种时,还可以获取场景标签对应的标签区域,检测标签区域中猫的眼睛或狗的眼睛所在的位置,对眼睛进行对焦后,再根据快门优先模式和快门速度对图像进行拍摄,从而可以使拍摄焦点位于猫、狗的眼睛上,获得展现猫、狗灵动的图像。
在一个实施例中,提供了一种图像处理方法,实现该方法的具体步骤如下所述:
首先,电子设备对待拍摄图像进行场景检测,得到待拍摄图像的场景标签。待拍摄图像是指电子设备通过成像设备实时捕捉当前场景的画面生成的。电子设备对待拍摄图像进行场景识别,可以根据VGG、CNN、SSD、决策树等深度学习算法训练场景识别模型,根据场景识别模型对待拍摄图像进行场景识别。图像的场景可以是风景、海滩、蓝天、绿草、雪景、烟火、聚光灯、文本、人像、婴儿、猫、狗、美食等。电子设备可以在获取成像设备捕捉的待拍摄图像后,根据场景识别模型对待拍摄图像进行场景识别,并根据场景识别结果确定待拍摄图像的场景标签。
可选地,电子设备对待拍摄图像进行场景检测,得到待拍摄图像的多个场景标签。电子设备可以训练可同时实现场景分类和目标检测的神经网络,利用神经网络的基础网络层对图像进行特征提取,将提取的图像特征输入到分类网络和目标检测网络层,通过分类网络进行分类检测输出图像背景区域所属指定分类类别的置信度,通过目标检测网络层进行目标检测得到前景区域所属指定目标类别的置信度,选取置信度最高且超过置信度阈值的目标类别作为该图像中前景目标所属的目标标签,并输出该目标标签对应的位置。将分类标签和目标标签作为待拍摄图像的场景标签。
接着,当场景标签中包含预设标签时,电子设备启动快门优先模式,预设标签为动态场景所对应的标签。动态场景是指包含可高速运动的物体的场景。预设标签是指预先设定的动态场景所对应的标签。场景标签中包含的预设标签可以是一个,也可以是多个。电子设备在待拍摄图像的场景标签中包含预设标签时,启动快门优先模式进行拍摄。
可选地,预设标签包括猫场景标签和狗场景标签中的至少一种。电子设备可以对待拍摄图像进行场景检测,得到待拍摄图像的场景标签,当待拍摄图像的场景标签中包含猫场景标签和狗场景标签中的至少一种时,自动启动快门优先模式,并获取设定的快门速度对待拍摄图像进行拍摄,由于不需要手动对拍摄模式进行设置,可以避免错过猫、狗的精彩画面,并获取清晰的图像。
可选地,当多个场景标签中包含预设标签时,电子设备获取预设标签对应的标签区域,当预设标签对应的标签区域的面积与待拍摄图像的面积的比值超过阈值时,启动快门优先模式。当待拍摄图像中标签区域的面积与待拍摄图像的面积超过阈值时,电子设备可以判定待拍摄图像的拍摄主体处于标签区域中,从而启动快门优先模式,获取快门速度,根据快门优先模式和快门速度对待拍摄图像进行拍摄,可以拍摄需要的清晰的图像,避免因需要手动设置高速拍摄模式而错过需要拍摄的图像。
接着,电子设备获取快门速度,根据快门优先模式与快门速度对待拍摄图像进行拍摄。电子设备可以获取由用户设定的快门速度,具体地,电子设备在启动快门优先模式后,可以在显示屏上生成快门速度选择滑动条,用户可以通过滑动条选择对应的快门速度,电子设备可以获取用户选定的用户速度。电子设备也可以获取预设的快门速度。具体地,电子设备可以根据不同动态场景的运动速度设定不同的预设标签对应的快门速度,当启动快门优先模式时,电子设备可以根据待拍摄图像包含的预设标签获取对应的快门速度。电子设备可以获取设定的快门速度,并根据启动快门优先模式时自动测光系统确定的曝光量和快门速度确定光圈的大小,对待拍摄图像进行拍摄。
可选地,电子设备对待拍摄图像中预设标签对应的标签区域进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。电子设备在待拍摄图像的场景标签包含预设标签时,获取预设标签对应的标签区域,对预设标签对应的标签区域进行对焦,对焦后根据启动的快门优先模式和快门速度对待拍摄图像进行拍摄,可以使拍摄到的图像中预设标签对应的区域更加清晰,提高了图像的拍摄效果。
可选地,电子设备获取待拍摄图像中面积最大的标签区域,对面积最大的标签区域进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。电子设备获取待拍摄图像中面积最大的标签区域,对面积最大的标签区域进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄,可以在提高快门速度的同时对面积最大的标签区域对焦,可以拍摄到需要的图像,并使拍摄图像中面积最大的标签区域的拍摄效果更加清晰。
可选地,当通过关键点检测到标签区域中包含眼睛时,电子设备对标签区域中的眼睛进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。电子设备可以获取待拍摄图像中预设标签对应的标签区域,对预设标签对应的标签区域进行关键点检测,当检测到预设标签对应的标签区域中包含眼睛时,对标签区域中的眼睛进行对焦,对焦后根据快门优先模式和快门速度对待拍摄图像进行拍摄,获得以眼睛为焦点的图像,可以使拍摄的图像更加生动。
应该理解的是,虽然图2、4-7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、4-7中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图8为一个实施例的图像处理装置的结构框图。如图8所示,一种图像处理装置,包括:图像检测模块820、模式启动模块840和拍摄模块860。其中:
图像检测模块820,用于对待拍摄图像进行场景检测,得到待拍摄图像的场景标签。
模式启动模块840,用于当场景标签中包含预设标签时,启动快门优先模式,预设标签为动态场景所对应的标签。
拍摄模块860,用于获取快门速度,根据快门优先模式与快门速度对待拍摄图像进行拍摄。
在一个实施例中,图像检测模块820还可以用于对待拍摄图像进行场景检测,得到待拍摄图像的多个场景标签。
在一个实施例中,图像检测模块820还可以用于当多个场景标签中包含预设标签时,获取预设标签对应的标签区域;模式启动模块840还可以用于当预设标签对应的标签区域的面积与待拍摄图像的面积的比值超过阈值时,启动快门优先模式;拍摄模块860还可以用于获取快门速度,根据快门优先模式与快门速度对待拍摄图像进行拍摄。
在一个实施例中,图像检测模块820还可以用于获取待拍摄图像中预设标签对应的标签区域;拍摄模块860还可以用于对标签区域进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。
在一个实施例中,图像检测模块820还可以用于获取待拍摄图像中面积最大的标签区域;拍摄模块860还可以用于对面积最大的标签区域进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。
在一个实施例中,图像检测模块820还可以用于获取待拍摄图像中预设标签对应的标签区域;拍摄模块860还可以用于当通过关键点检测到标签区域中包含眼睛时,对标签区域中的眼睛进行对焦,对焦后根据快门优先模式与快门速度对待拍摄图像进行拍摄。
在一个实施例中,模式启动模块840还可以用于当场景标签中包含预设标签时,启动快门优先模式,预设标签包括猫场景标签和狗场景标签中的至少一种。
上述图像处理装置中各个模块的划分仅用于举例说明,在其他实施例中,可将图像处理装置按照需要划分为不同的模块,以完成上述图像处理装置的全部或部分功能。
关于图像处理装置的具体限定可以参见上文中对于图像处理方法的限定,在此不再赘述。上述图像处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本申请实施例中提供的图像处理装置中的各个模块的实现可为计算机程序的形式。该计算机程序可在终端或服务器上运行。该计算机程序构成的程序模块可存储在终端或服务器的存储器上。该计算机程序被处理器执行时,实现本申请实施例中所描述方法的步骤。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行图像处理方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行图像处理方法。
本申请实施例还提供一种电子设备。上述电子设备中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图9为一个实施例中图像处理电路的示意图。如图9所示,为便于说明,仅示出与本申请实施例相关的图像处理技术的各个方面。
如图9所示,图像处理电路包括ISP处理器940和控制逻辑器950。成像设备910捕捉的图像数据首先由ISP处理器940处理,ISP处理器940对图像数据进行分析以捕捉可用于确定和/或成像设备910的一个或多个控制参数的图像统计信息。成像设备910可包括具有一个或多个透镜912和图像传感器914的照相机。图像传感器914可包括色彩滤镜阵列(如Bayer滤镜),图像传感器914可获取用图像传感器914的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器940处理的一组原始图像数据。传感器920(如陀螺仪)可基于传感器920接口类型把采集的图像处理的参数(如防抖参数)提供给ISP处理器940。传感器920接口可以利用SMIA(Standard Mobile Imaging Architecture,标准移动成像架构)接口、其它串行或并行照相机接口或上述接口的组合。
此外,图像传感器914也可将原始图像数据发送给传感器920,传感器920可基于传感器920接口类型把原始图像数据提供给ISP处理器940,或者传感器920将原始图像数据存储到图像存储器930中。
ISP处理器940按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器940可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器940还可从图像存储器930接收图像数据。例如,传感器920接口将原始图像数据发送给图像存储器930,图像存储器930中的原始图像数据再提供给ISP处理器940以供处理。图像存储器930可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct Memory Access,直接直接存储器存取)特征。
当接收到来自图像传感器914接口或来自传感器920接口或来自图像存储器930的原始图像数据时,ISP处理器940可进行一个或多个图像处理操作,如时域滤波。处理后的图像数据可发送给图像存储器930,以便在被显示之前进行另外的处理。ISP处理器940从图像存储器930接收处理数据,并对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。ISP处理器940处理后的图像数据可输出给显示器970,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器940的输出还可发送给图像存储器930,且显示器970可从图像存储器930读取图像数据。在一个实施例中,图像存储器930可被配置为实现一个或多个帧缓冲器。此外,ISP处理器940的输出可发送给编码器/解码器960,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器970设备上之前解压缩。编码器/解码器960可由CPU或GPU或协处理器实现。
ISP处理器940确定的统计数据可发送给控制逻辑器950单元。例如,统计数据可包括自动曝光、自动白平衡、自动聚焦、闪烁检测、黑电平补偿、透镜912阴影校正等图像传感器914统计信息。控制逻辑器950可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的统计数据,确定成像设备910的控制参数及ISP处理器940的控制参数。例如,成像设备910的控制参数可包括传感器920控制参数(例如增益、曝光控制的积分时间、防抖参数等)、照相机闪光控制参数、透镜912控制参数(例如聚焦或变焦用焦距)、或这些参数的组合。ISP控制参数可包括用于自动白平衡和颜色调整(例如,在RGB处理期间)的增益水平和色彩校正矩阵,以及透镜912阴影校正参数。
电子设备根据上述图像处理技术可以实现本申请实施例中所描述的图像处理方法。
本申请所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (11)
1.一种图像处理方法,其特征在于,包括:
对待拍摄图像进行场景检测,得到所述待拍摄图像的场景标签;
当所述场景标签中包含预设标签时,启动快门优先模式;所述预设标签为动态场景所对应的标签,所述动态场景中包括运动对象,所述运动对象不同,所述预设标签不同;
根据所述预设标签获取快门速度;
获取所述待拍摄图像中所述预设标签对应的标签区域;
对所述标签区域进行对焦,对焦后根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
2.根据权利要求1所述的方法,其特征在于,所述对待拍摄图像进行场景检测,得到所述待拍摄图像的场景标签,包括:
对待拍摄图像进行场景检测,得到所述待拍摄图像的多个场景标签。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
当所述多个场景标签中包含预设标签时,获取预设标签对应的标签区域;
当所述预设标签对应的标签区域的面积与待拍摄图像的面积的比值超过阈值时,启动快门优先模式;
获取快门速度,根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
4.根据权利要求3所述的方法,其特征在于,所述对待拍摄图像进行场景检测,得到所述待拍摄图像的多个场景标签,包括:
将所述待拍摄图像输入神经网络,通过所述神经网络输出场景分类标签和目标分类标签,将所述场景分类标签和所述目标分类标签作为所述待拍摄图像的场景标签。
5.根据权利要求3所述的方法,其特征在于,所述对待拍摄图像进行场景检测,得到所述待拍摄图像的多个场景标签,包括:
将所述待拍摄图像输入神经网络,通过所述神经网络的分类网络层得到场景分类标签,通过所述神经网络的目标检测网络层得到目标分类标签,将所述场景分类标签和所述目标分类标签作为所述待拍摄图像的场景标签。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述待拍摄图像中面积最大的标签区域;
对所述面积最大的标签区域进行对焦,对焦后根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
7.根据权利要求1所述的方法,其特征在于,所述根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄,还包括:
获取所述待拍摄图像中所述预设标签对应的标签区域;
当通过关键点检测到所述标签区域中包含眼睛时,对所述标签区域中的眼睛进行对焦,对焦后根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
8.根据权利要求1所述的方法,其特征在于,所述预设标签包括猫场景标签和狗场景标签中的至少一种。
9.一种图像处理装置,其特征在于,包括:
图像检测模块,用于对待拍摄图像进行场景检测,得到所述待拍摄图像的场景标签;
模式启动模块,用于当所述场景标签中包含预设标签时,启动快门优先模式;所述预设标签为动态场景所对应的标签,所述动态场景中包括运动对象,所述运动对象不同,所述预设标签不同;
获取模块,用于根据所述预设标签获取快门速度;
所述获取模块,还用于获取所述待拍摄图像中所述预设标签对应的标签区域;
对焦模块,用于对所述标签区域进行对焦,对焦后根据所述快门优先模式与快门速度对所述待拍摄图像进行拍摄。
10.一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至8中任一项所述的图像处理方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810618628.6A CN108810413B (zh) | 2018-06-15 | 2018-06-15 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
PCT/CN2019/087532 WO2019237887A1 (zh) | 2018-06-15 | 2019-05-20 | 图像处理方法、电子设备、计算机可读存储介质 |
EP19819056.3A EP3793188A4 (en) | 2018-06-15 | 2019-05-20 | IMAGE PROCESSING PROCESS, ELECTRONIC DEVICE AND COMPUTER READABLE INFORMATION SUPPORT |
US17/037,682 US20210014411A1 (en) | 2018-06-15 | 2020-09-30 | Method for image processing, electronic device, and computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810618628.6A CN108810413B (zh) | 2018-06-15 | 2018-06-15 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108810413A CN108810413A (zh) | 2018-11-13 |
CN108810413B true CN108810413B (zh) | 2020-12-01 |
Family
ID=64086356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810618628.6A Active CN108810413B (zh) | 2018-06-15 | 2018-06-15 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210014411A1 (zh) |
EP (1) | EP3793188A4 (zh) |
CN (1) | CN108810413B (zh) |
WO (1) | WO2019237887A1 (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108810413B (zh) * | 2018-06-15 | 2020-12-01 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN109754009B (zh) * | 2018-12-29 | 2021-07-13 | 北京沃东天骏信息技术有限公司 | 物品识别方法、装置、售货系统和存储介质 |
JP2020203546A (ja) * | 2019-06-14 | 2020-12-24 | 株式会社シマノ | 検出装置、検出方法、生成方法、コンピュータプログラム、および記憶媒体 |
CN112153296B (zh) * | 2019-06-27 | 2022-04-05 | 杭州海康威视数字技术股份有限公司 | 一种自动曝光控制方法、装置及带有fpga的摄像机 |
CN112149476A (zh) * | 2019-06-28 | 2020-12-29 | 北京海益同展信息科技有限公司 | 目标检测方法、装置、设备和存储介质 |
JP2021013117A (ja) * | 2019-07-08 | 2021-02-04 | キヤノン株式会社 | 集積回路チップ及び撮像装置 |
CN112860372B (zh) * | 2020-12-31 | 2023-05-30 | 上海米哈游天命科技有限公司 | 拍摄图像的方法、装置、电子设备及存储介质 |
CN113033507B (zh) * | 2021-05-20 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 场景识别方法、装置、计算机设备和存储介质 |
EP4320854A1 (en) | 2021-08-23 | 2024-02-14 | Samsung Electronics Co., Ltd. | Method and electronic device for auto focus of scene |
CN114125300B (zh) * | 2021-11-29 | 2023-11-21 | 维沃移动通信有限公司 | 拍摄方法、拍摄装置、电子设备和可读存储介质 |
CN114339046B (zh) * | 2021-12-30 | 2023-10-03 | 中元汇吉生物技术股份有限公司 | 基于自动旋转试管的图像采集方法、装置、设备及介质 |
CN114419070A (zh) * | 2022-01-21 | 2022-04-29 | 北京字跳网络技术有限公司 | 一种图像场景分割方法、装置、设备及存储介质 |
CN114881893B (zh) * | 2022-07-05 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102572269A (zh) * | 2010-12-10 | 2012-07-11 | 奥林巴斯映像株式会社 | 摄像装置以及af控制方法 |
CN103024165A (zh) * | 2012-12-04 | 2013-04-03 | 华为终端有限公司 | 一种自动设置拍摄模式的方法和装置 |
CN105554399A (zh) * | 2016-02-24 | 2016-05-04 | 北京小米移动软件有限公司 | 拍摄方法、拍摄装置及终端设备 |
CN107820020A (zh) * | 2017-12-06 | 2018-03-20 | 广东欧珀移动通信有限公司 | 拍摄参数的调整方法、装置、存储介质及移动终端 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR940003934B1 (ko) * | 1991-02-01 | 1994-05-09 | 삼성전자 주식회사 | 비데오 카메라의 자동셔터스피드 제어회로 |
JP4241709B2 (ja) * | 2005-10-11 | 2009-03-18 | ソニー株式会社 | 画像処理装置 |
US20070248330A1 (en) * | 2006-04-06 | 2007-10-25 | Pillman Bruce H | Varying camera self-determination based on subject motion |
JP5018828B2 (ja) * | 2009-05-27 | 2012-09-05 | カシオ計算機株式会社 | 画像撮影装置及び画像撮影プログラム |
JP2011223296A (ja) * | 2010-04-09 | 2011-11-04 | Sony Corp | 撮像制御装置および撮像制御方法 |
EP2402867B1 (en) * | 2010-07-02 | 2018-08-22 | Accenture Global Services Limited | A computer-implemented method, a computer program product and a computer system for image processing |
JP2012119858A (ja) * | 2010-11-30 | 2012-06-21 | Aof Imaging Technology Ltd | 撮影装置、撮影方法、およびプログラム |
JP2014123809A (ja) * | 2012-12-20 | 2014-07-03 | Canon Inc | 撮像装置、撮像システム、および、撮像装置の制御方法 |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
US10484598B2 (en) * | 2015-08-20 | 2019-11-19 | Sony Corporation | System and method for controlling capture of images |
US11423651B2 (en) * | 2016-02-09 | 2022-08-23 | Hrl Laboratories, Llc | System and method for the fusion of bottom-up whole-image features and top-down enttiy classification for accurate image/video scene classification |
CN107222661A (zh) * | 2017-06-26 | 2017-09-29 | 努比亚技术有限公司 | 一种自动拍摄运动物体的方法及对应的系统、终端设备 |
CN108810413B (zh) * | 2018-06-15 | 2020-12-01 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
-
2018
- 2018-06-15 CN CN201810618628.6A patent/CN108810413B/zh active Active
-
2019
- 2019-05-20 EP EP19819056.3A patent/EP3793188A4/en not_active Withdrawn
- 2019-05-20 WO PCT/CN2019/087532 patent/WO2019237887A1/zh unknown
-
2020
- 2020-09-30 US US17/037,682 patent/US20210014411A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102572269A (zh) * | 2010-12-10 | 2012-07-11 | 奥林巴斯映像株式会社 | 摄像装置以及af控制方法 |
CN103024165A (zh) * | 2012-12-04 | 2013-04-03 | 华为终端有限公司 | 一种自动设置拍摄模式的方法和装置 |
CN105554399A (zh) * | 2016-02-24 | 2016-05-04 | 北京小米移动软件有限公司 | 拍摄方法、拍摄装置及终端设备 |
CN107820020A (zh) * | 2017-12-06 | 2018-03-20 | 广东欧珀移动通信有限公司 | 拍摄参数的调整方法、装置、存储介质及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
WO2019237887A1 (zh) | 2019-12-19 |
CN108810413A (zh) | 2018-11-13 |
US20210014411A1 (en) | 2021-01-14 |
EP3793188A4 (en) | 2021-08-25 |
EP3793188A1 (en) | 2021-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108810413B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN108764370B (zh) | 图像处理方法、装置、计算机可读存储介质和计算机设备 | |
CN108777815B (zh) | 视频处理方法和装置、电子设备、计算机可读存储介质 | |
CN108764208B (zh) | 图像处理方法和装置、存储介质、电子设备 | |
CN108900769B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN110149482B (zh) | 对焦方法、装置、电子设备和计算机可读存储介质 | |
CN110248096B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN110572573B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN108810418B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
WO2019233393A1 (zh) | 图像处理方法和装置、存储介质、电子设备 | |
CN108805103B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN108875619B (zh) | 视频处理方法和装置、电子设备、计算机可读存储介质 | |
CN108961302B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN113766125B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
EP3579145A1 (en) | Method and device for image processing, computer readable storage medium, and electronic device | |
CN108805198B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN109712177B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN108897786B (zh) | 应用程序的推荐方法、装置、存储介质及移动终端 | |
CN108765033B (zh) | 广告信息推送方法和装置、存储介质、电子设备 | |
CN110650291B (zh) | 目标追焦方法和装置、电子设备、计算机可读存储介质 | |
CN110349163B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN108848306B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110956679B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110365897B (zh) | 图像修正方法和装置、电子设备、计算机可读存储介质 | |
CN108093170B (zh) | 用户拍照方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |